WO2024247481A1 - Imaging device, imaging system, and imaging device control method - Google Patents
Imaging device, imaging system, and imaging device control method Download PDFInfo
- Publication number
- WO2024247481A1 WO2024247481A1 PCT/JP2024/013809 JP2024013809W WO2024247481A1 WO 2024247481 A1 WO2024247481 A1 WO 2024247481A1 JP 2024013809 W JP2024013809 W JP 2024013809W WO 2024247481 A1 WO2024247481 A1 WO 2024247481A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- detector
- output
- unit
- imaging device
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/12—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Definitions
- This technology relates to an imaging device. More specifically, it relates to an imaging device with a neural network structure, an imaging system, and a method for controlling an imaging device.
- imaging devices that dynamically switch modes have been used in various fields such as crime prevention and traffic.
- an imaging device has been proposed that captures a low-resolution image in a feature detection mode to detect the features of a subject, and when a specific feature is detected, switches to imaging mode to capture a high-resolution image (see, for example, Patent Document 1).
- This technology was developed in light of these circumstances, and aims to suppress the performance degradation that occurs when sparsity is improved in imaging devices that use neural networks.
- the present technology has been made to solve the above-mentioned problems, and its first aspect is an imaging device equipped with a simplified detector that includes a predetermined number of output side neurons that generate an output signal every time a predetermined unit time elapses based on an input signal from an intermediate layer, and a statistics calculation unit that calculates, for each of the output side neurons, the statistics of the output signals generated within a predetermined frame period that is longer than the unit time, and a control method for the imaging device. This has the effect of suppressing performance degradation when sparsity is improved.
- a function calculation unit may be further provided that inputs each of the above statistical quantities into a predetermined function and outputs a calculated value obtained. This provides the effect of outputting the calculated value as the detection result.
- a control unit may be further provided that controls the length of the frame period in accordance with the detection result of the simple detector. This provides the effect of setting an appropriate frame period.
- a control unit may be further provided that controls the threshold of the neuron in the simple detector in accordance with the detection result of the simple detector. This provides the effect of controlling the firing rate of the neuron.
- an image sensor that generates image data may be further provided, and the simple detector may detect a predetermined detection target from the image data by analysis. This provides the effect of detecting the detection target.
- the system may further include a detailed detector that detects a predetermined detection target from the image data by a more detailed analysis than the simple detector, an evaluator that generates an evaluation value from the image data by an analysis different from that of the detailed detector, and a rule selection unit that selects a rule that controls the operation of the detailed detector and the evaluator based on the detection result of the simple detector. This provides the effect of selecting a rule based on the detection result.
- the simple detector and the detailed detector may be disposed within the neural network circuit. This has the effect of reducing the circuitry outside the neural network circuit.
- the simple detector, the detailed detector, and the evaluator may be arranged within a neural network circuit. This has the effect of reducing circuits outside the neural network circuit.
- an input control unit may be further provided that controls the operation of the image sensor based on the detection result of the simple detector. This has the effect of reducing the amount of processing by the simple detector.
- an environmental sensor that outputs a sensor signal different from the image data may be further provided, and the rule selection unit may select the rule based on the sensor signal and the detection result of the simple detector. This provides the effect of improving robustness.
- the simplified detector may be disposed within an image sensor that generates image data. This has the effect of reducing the amount of circuitry outside the image sensor.
- the neurons in the simplified detector may be spiking neurons. This has the effect of making it possible to make information sparsifying in both time and space.
- the second aspect of this technology is an imaging device in which a difference calculator that calculates the difference between the sum of a predetermined number of input signals and a feedback signal, an integrator that integrates the difference and outputs the integral value, a limiting unit that outputs the integral value as an output signal if the integral value is outside a predetermined range, a comparator that compares the output signal with a predetermined value and supplies the comparison result, and a feedback unit that converts the comparison result into the feedback signal and feeds it back, are arranged in at least one of multiple neurons in a neural network. This has the effect of suppressing performance degradation when sparsity is improved.
- the third aspect of the present technology is an imaging system including a simple detector having a predetermined number of output side neurons that generate an output signal every time a predetermined unit time elapses based on an input signal from an intermediate layer, and a statistics calculation unit that calculates, for each of the output side neurons, the statistics of the output signals generated within a predetermined frame period that is longer than the unit time, and an analysis device that analyzes an image based on the detection results of the simple detector. This has the effect of suppressing the degradation of system performance when sparsity is improved.
- FIG. 1 is a block diagram showing a configuration example of an imaging device according to a first embodiment of the present technology
- 1 is a block diagram of an imaging device in which a plurality of imaging units are arranged according to a first embodiment of the present technology.
- 1 is a block diagram of an imaging device in a case where circuits other than an image sensor are arranged in a processor according to a first embodiment of the present technology
- 1 is a block diagram showing a configuration example of an SNN circuit and a router according to a first embodiment of the present technology
- 2 is a block diagram showing a configuration example of a core according to the first embodiment of the present technology
- FIG. 1 is a diagram showing an example of a neural network structure of a simple detector in a first embodiment of the present technology
- FIG. 1 is a block diagram showing a configuration example of a ⁇ neuron according to a first embodiment of the present technology
- 1 is a diagram illustrating an example of an input signal and an output signal of a ⁇ neuron in the first embodiment of the present technology
- FIG. FIG. 2 is a block diagram showing an example of the configuration of a ⁇ neuron in a first comparative example.
- FIG. FIG. 11 is a diagram showing an example of an output format in a second comparative example.
- FIG. 2 is a diagram showing an example of an output format according to the first embodiment of the present technology.
- 4 is a flowchart showing an example of an operation of the analysis device according to the first embodiment of the present technology.
- 11 is a block diagram showing a configuration example of an imaging unit in a first modified example of the first embodiment of the present technology.
- FIG. 13 is a block diagram showing a configuration example of an imaging device according to a second embodiment of the present technology.
- FIG. FIG. 13 is a block diagram showing an example configuration of an imaging device according to a third embodiment of the present technology.
- 13 is a flowchart showing an example of an operation of an analysis device according to a third embodiment of the present technology.
- FIG. 13 is a block diagram showing an example configuration of an imaging device according to a fourth embodiment of the present technology.
- FIG. 13 is a block diagram showing an example configuration of an imaging device according to a fifth embodiment of the present technology.
- 13 is a diagram illustrating an example of a layered structure of an image sensor according to a fifth embodiment of the present technology.
- FIG. FIG. 23 is a block diagram showing an example configuration of an imaging device according to a sixth embodiment of the present technology.
- 1 is a block diagram showing a schematic configuration example of a vehicle control system;
- FIG. 4 is an explanatory diagram showing an example of an installation position of an imaging unit.
- First embodiment (example of calculating statistics within a frame period) 2.
- Second embodiment (an example in which a simple detector, a detailed detector, and an evaluator for calculating statistics within a frame period are provided in an SNN circuit) 3.
- Third embodiment (example in which statistics within a frame period are calculated and an input control unit controls an image sensor) 4.
- Fourth embodiment (an example in which a simple detector and a detailed detector for calculating statistics within a frame period are provided in an SNN circuit) 5.
- Fifth embodiment (an example in which a simple detector and a detailed detector for calculating statistics within a frame period are provided in an image sensor) 6.
- Sixth embodiment (example of selecting a rule based on a detection result of a simple detector that calculates statistics within a frame period and a sensor signal) 7. Examples of applications to moving objects
- First embodiment [Configuration example of imaging device] 1 is a block diagram showing an example of a configuration of an imaging device 100 according to an embodiment of the present technology.
- the imaging device 100 is a device that captures image data, and includes an imaging section 110 and an analysis device 130.
- the imaging section 110 includes an image sensor 120 and a simple detector 200.
- the image sensor 120 generates image data by photoelectric conversion. For example, the image sensor 120 determines whether the amount of light has changed for each pixel address, and generates data that arranges the determination results as image data.
- a sensor is called an EVS (Event-based Vision Sensor) or DVS (Dynamic Vision Sensor).
- EVS Event-based Vision Sensor
- DVS Dynamic Vision Sensor
- the image sensor 120 is not limited to an EVS, and can also generate a grayscale signal for each pixel according to the amount of light and generate image data by arranging these.
- the image sensor 120 When generating a grayscale signal, the image sensor 120 generates an analog signal for each pixel and converts it into a digital signal using an AD (Analog to Digital) converter.
- the image sensor 120 has a SPAD (Single-Photon Avalanche Diode) for each pixel and counts pulse signals from the SPAD to generate a digital signal.
- the image sensor 120 switches the output destination of the image data to either the simple detector 200 or the analysis device 130 based on the detection results of the simple detector 200.
- the image sensor 120 can also change the resolution of the image data it generates based on the detection results of the simple detector 200.
- the resolution is changed by pixel addition, thinning readout, or the like.
- the image sensor 120 lowers the resolution of the image data sent to the simple detector 200 and increases the resolution of the image data sent to the analysis device 130.
- the simple detector 200 detects a specific detection target from image data through analysis.
- the function of the simple detector 200 is implemented in hardware, for example, in an SNN circuit 500.
- the SNN circuit 500 is an example of a neural network circuit as described in the claims.
- the simple detector 200 for example, a person or a specific preparatory movement is set as a detection target.
- the simple detector 200 detects the presence or absence of a detection target (such as a person) and supplies the detection result to the analysis device 130 and the image sensor 120.
- the detection result is a predetermined value P
- the image sensor 120 changes the output destination of the image data to the analysis device 130.
- P is not limited to one, and may be two or more, such as P0 and P1 .
- a detection target is assigned to each of P0 and P1 .
- the detection result being the predetermined value P indicates that a detection target corresponding to that value has been detected.
- the analysis device 130 includes an input control unit 131, a rule selection unit 132, a detail detector 133, and an evaluator 134.
- the input control unit 131 transmits and receives data between the outside of the analysis device 130 and the rule selection unit 132, the detail detector 133, and the evaluator 134.
- This input control unit 131 supplies the detection results from the simple detector 200 to the rule selection unit 132.
- the input control unit 131 also supplies image data from the image sensor 120 to at least one of the detail detector 133 and the evaluator 134.
- the input control unit 131 also supplies the detection results from the detail detector 133 to the rule selection unit 132, and transmits logs and alerts from the detail detector 133 and the evaluator 134 to an external server, etc.
- the rule selection unit 132 selects a rule that controls the operation of the detailed detector 133 and the evaluator 134 based on the detection results of the simple detector 200. For example, various rules are envisioned, such as "activate the evaluator 134 when a specific detection target is detected by the detailed detector 133" or "output an alert to the outside when a specified evaluation value is obtained by the evaluator 134.”
- the rule selection unit 132 controls the operation of the detailed detector 133 and the evaluator 134 according to the rule selected from among them.
- the rule selection unit 132 stops the operation of the detailed detector 133 and the evaluator 134 when the detection result of the simple detector 200 is not the predetermined value P.
- the rule selection unit 132 causes the detailed detector 133 to start analysis while keeping the evaluator 134 stopped.
- the rule selection unit 132 causes the evaluator 134 to start analysis.
- Q is not limited to one, and may be two or more, such as Q0 or Q1 .
- the detection result being the predetermined value Q indicates that a detection target corresponding to that value has been detected.
- the detailed detector 133 detects a specific detection target from image data using a more detailed analysis than the simple detector 200. For example, the presence or absence of people, the number of people, the presence or absence of a specific motion, the location of people within the image, etc. are set as detection targets. Furthermore, when a person is detected, the detailed detector 133 can also detect whether or not it is a specific individual. The detailed detector 133 may perform these analyses on a single piece of image data, or on a video that includes multiple pieces of image data captured in succession.
- the detail detector 133 outputs the detection result to the input control unit 131.
- the detail detector 133 detects a specific individual, it can generate a log including the shooting time and output the log to the input control unit 131.
- the evaluator 134 generates an evaluation value from image data using a different analysis from that of the detail detector 133. For example, the evaluator 134 analyzes what actions one or more people are performing and what state they are in, and generates an evaluation value that indicates the results. The evaluator 134 may perform this analysis on a single piece of image data, or on a video.
- the evaluator 134 when the evaluation value is a predetermined value R, the evaluator 134 outputs a log including the shooting time and an alert to the input control unit 131.
- R is not limited to one, and may be two or more, such as R0 or R1 .
- the evaluation value being a predetermined value P indicates that an analysis object corresponding to that value has been detected.
- an Always-ON system a system in which the simple detector 200 continuously detects the detection target and operates the detailed detector 133 and the evaluator 134 when the detection target is detected.
- the Always-ON system can reduce power consumption while maintaining performance, compared to a system in which the detailed detector 133 and the evaluator 134 are always operated.
- the imaging unit 110 and the analysis device 130 are arranged in one device, but this configuration is not limited to this. They can also be distributed and arranged in multiple devices. Furthermore, a system in which the imaging unit 110 and the analysis device 130 are arranged is an example of an imaging system described in the claims.
- one imaging unit 110 is arranged, but this configuration is not limited. As shown in the example of FIG. 2, multiple imaging units such as imaging units 110-1, 110-2, etc. can also be arranged.
- the simplified detector 200 and the analysis device 130 can be arranged within a single processor 600.
- Example of SNN circuit configuration is a diagram showing an implementation example of an SNN circuit 500 according to the first embodiment of the present technology.
- the SNN circuit 500 includes, for example, an input/output interface 560 and a multi-core array 570.
- the input/output interface 560 transmits and receives data between the outside and the multi-core array 570.
- This input/output interface 560 supplies image data from the image sensor 120 to the multi-core array 570, and supplies the detection results from the multi-core array 570 to the analysis device 130.
- multi-core array 570 multiple cores 590 are arranged in a two-dimensional lattice.
- a router 580 is placed adjacent to each core 590.
- the router 580 controls the data path.
- This router 580 includes, for example, FIFO (First In, First Out) memories 581 to 585 and an arbiter 586.
- E indicates the east direction of the router 580 in question
- S indicates the south direction
- W indicates the west direction
- N indicates the north direction
- L indicates the direction toward the core 590 adjacent to the router 580.
- FIFO memory 581 holds data from the east direction in a first-in-first-out manner and outputs a request to arbiter 586.
- FIFO memory 582 holds data from the south direction in a first-in-first-out manner and outputs a request to arbiter 586.
- FIFO memory 583 holds data from the west direction in a first-in-first-out manner and outputs a request to arbiter 586.
- FIFO memory 584 holds data from the north direction in a first-in-first-out manner and outputs a request to arbiter 586.
- FIFO memory 585 holds data from adjacent core 590 in a first-in-first-out manner and outputs a request to arbiter 586.
- the arbiter 586 arbitrates between requests from each of the FIFO memories 581 to 585 and returns a response. When a response is received, the FIFO memory outputs data to either the east, west, north, or south adjacent core 590 via the arbiter 586.
- FIG. 5 is a block diagram showing an example of the configuration of a core 590 in the first embodiment of the present technology.
- the core 590 includes a core router 591, a neuron I/O (Input/Output) 592, a multiply-accumulate unit 593, a work memory 594, a membrane potential memory 595, and an LIF (Leaky Integrate and Fire) unit 596.
- the core router 591 supplies data from adjacent routers 580 to the neuron I/O 592 and supplies data from the LIF unit 596 to the adjacent routers 580.
- the multiply-and-accumulate unit 593 uses the work memory 594 to integrate the data from the neuron I/O 592.
- the membrane potential memory 595 holds the membrane potential obtained by the integration.
- the LIF unit 596 determines whether the membrane potential has exceeded a predetermined threshold and fired (in other words, a spike has occurred), and supplies the result to the core router 591.
- FIG. 6 is a diagram showing an example of a neural network structure of the simplified detector 200 in the first embodiment of the present technology.
- a shows an example of a neural network structure
- b shows an example of a two-layer structure of a in the figure.
- the circle in b in the figure indicates a neuron.
- the neural network in the simplified detector 200 is, for example, a CNN (Convolutional Neural Network), which is composed of multiple layers such as convolutional layers 211 and 212 and a pooling layer 213. Each of the neurons in the first convolutional layer 211 receives the pixel signals of one or more pixels in the image data 700.
- the neural network is not limited to a CNN.
- a predetermined number of ⁇ neurons 300 are arranged in the convolution layer 212.
- the channel direction is omitted and the diagram is shown in two dimensions, but the same applies to three-dimensional representation.
- a neural network has an array of multiple neurons including one or more ⁇ neurons 300.
- these neurons for example, spiking neurons in an SNN are used.
- general neurons in an ANN Artificial Neural Network
- Spiking neurons and general neurons can also be combined.
- Example of the configuration of a ⁇ neuron] 7 is a block diagram showing an example of a configuration of a ⁇ neuron 300 according to the first embodiment of the present technology.
- the ⁇ neuron 300 includes a difference calculator 310, an integrator 320, a limiting section 330, a comparator 340, and a feedback section 350.
- the difference calculator 310 calculates the difference B between the sum of a predetermined number of input signals and a feedback signal E from the feedback section 350, and supplies the difference B to the integrator 320.
- the outputs of the previous neuron are in0 , in1 , and in2
- the weights are ⁇ 0 , ⁇ 1, and ⁇ 2 , and in0 ⁇ 0 , in1 ⁇ ⁇ 1 , and in2 ⁇ ⁇ 2 are input as input signals.
- the integrator 320 integrates the difference B and supplies the integral value C to the limiting unit 330.
- the limiting unit 330 When the integral value C is outside a predetermined limit range, the limiting unit 330 outputs the value as an output signal OUT to the subsequent pooling layer 213 and the comparator 340.
- the upper limit threshold of the limit range is Th 0
- the lower limit threshold is Th 1. If the integral value C is equal to or greater than Th 0 and equal to or less than Th 1 , the limiting unit 330 outputs an output signal OUT of "0". The output signal OUT being "0" means that a significant output signal is not output and is limited.
- the limiting unit 330 outputs the integral value C as it is as the output signal OUT.
- Comparator 340 compares output signal OUT with a predetermined comparison threshold TH and supplies a comparison result D to feedback section 350.
- TH is set to “0”
- comparator 340 outputs "1” as the comparison result when output signal OUT is greater than TH, and outputs "0” as the comparison result when output signal OUT is equal to or less than TH.
- the feedback unit 350 converts the comparison result D into a feedback signal E and feeds it back to the difference calculator 310. For example, when the comparison result D is greater than "0", the feedback unit 350 outputs a feedback signal E of "-1", and when the comparison result D is "0", it outputs a feedback signal E of "1".
- the above-mentioned ⁇ neuron 300 calculates and outputs an output signal OUT at regular time intervals in synchronization with a clock signal of a predetermined processing frequency.
- t indicates time
- a indicates a coefficient
- T indicates a time constant
- ⁇ ( ) indicates the comparison result of the comparator 340.
- OUT f(C)...Formula 2
- f( ) denotes the activation function of the limiting unit 330 .
- both the input signal and the output signal of the ⁇ neuron 300 are digital signals.
- the input signal may be an analog signal and the output signal may be a digital signal.
- a 1-bit DAC Digital to Analog Converter
- both the input signal and the output signal may be analog signals.
- FIG. 8 is a diagram showing an example of an input signal and an output signal of the ⁇ neuron 300 in the first embodiment of the present technology.
- a shows an example of the trajectory of the input signal over time
- b shows an example of the trajectory of the output signal.
- an input signal is input for each unit time, and an output signal is calculated.
- These input and output signals are, for example, spike signals of n bits (n is an integer).
- Such neurons are called spiking neurons.
- the ⁇ neuron 300 is not limited to spiking neurons, and may be a general neuron whose input and output signals are not spike signals.
- FIG. 9 is a block diagram showing an example of the configuration of a ⁇ neuron in the first comparative example.
- the limiting unit 330 is not provided, and the integral value is output as is as the output signal OUT and input to the comparator 340.
- the firing rate of the neuron is controlled by the comparison threshold TH of the comparator 340. Increasing the comparison threshold TH reduces the firing rate, and accordingly, the sparsity can be improved.
- the Always ON system by making the data, including the input from the image sensor 120, sparse as much as possible in both space and time, the Always ON system can operate more efficiently.
- an SNN can sparsify information in both time and space by preventing each neuron from sending unnecessary information.
- an SNN can sparsify information spatially, so it is possible to achieve the same level of sparsity as a slow ANN while maintaining the processing frequency.
- the only threshold to be controlled is the comparison threshold TH
- the comparison threshold TH and the thresholds of the limiting unit 330 upper and lower thresholds.
- the sparsity can be improved by widening the limiting range from the lower threshold to the upper threshold.
- information loss can be minimized by lowering the comparison threshold TH. Therefore, by outputting the integral value C through the limiting unit 330 rather than directly, information loss when sparsity is increased can be minimized. This makes it possible to suppress performance degradation when sparsity is increased.
- FIG. 10 is a graph showing an example of the waveforms of the output signal and the comparison result when a sine wave is input in the first comparative example and the first embodiment of the present technology.
- “a” is an example of the waveforms of the input signal and the output signal when a sine wave is input to the neuron of the first comparative example
- “b” is an example of the waveforms of the input signal and the comparison result in that case.
- c in the figure is an example of the waveforms of the input signal and the output signal when a sine wave is input to the ⁇ neuron 300 with the limiting unit 330
- d in the figure is an example of the waveforms of the input signal and the comparison result in that case.
- the dotted lines a to d in the figure indicate the waveform of the input signal.
- the solid line a in the figure indicates the waveform of the output signal (i.e., the integral value), and the solid line b in the figure indicates the waveform of the comparison result.
- the solid line c in the figure indicates the waveform of the output signal from the limiting section 330, and the solid line d in the figure indicates the waveform of the comparison result. The same applies to Figures 11 and 12.
- the compression rate is higher for information with periodicity such as sine waves, and information loss is also smaller than in the first comparative example. Note, however, that information loss is greater for inputs that fluctuate in a complex manner.
- FIG. 11 is a graph showing an example of the waveforms of the output signal and the comparison result when a sparse signal is input in the first comparative example and the first embodiment of the present technology.
- “a” is an example of the waveforms of the input signal and the output signal when a sparse signal is input to the neuron of the first comparative example
- “b” is an example of the waveforms of the input signal and the comparison result in that case.
- c in the figure is an example of the waveforms of the input signal and the output signal when a sparse signal is input to the ⁇ neuron 300 with the limiting unit 330
- d in the figure is an example of the waveforms of the input signal and the comparison result in that case.
- FIG. 12 is a graph showing an example of the waveforms of the output signal and the comparison result when a stationary signal is input in the first comparative example and the first embodiment of the present technology.
- “a” is an example of the waveforms of the input signal and the output signal when a stationary signal is input to the neuron of the first comparative example
- “b” is an example of the waveforms of the input signal and the comparison result in that case.
- c in the figure is an example of the waveforms of the input signal and the output signal when a stationary signal is input to the ⁇ neuron 300 with the limiting unit 330
- d in the figure is an example of the waveforms of the input signal and the comparison result in that case.
- FIG. 13 is a block diagram showing an example of the configuration of the simple detector 200 in the first embodiment of the present technology and the second comparative example.
- a is a block diagram showing an example of the configuration of the simple detector 200 in the first embodiment.
- the neural network in the simple detector 200 comprises an input layer 210, an intermediate layer 220, and an output layer 230.
- the input layer 210 processes image data from the image sensor 120 and supplies an array of spike signals to the intermediate layer 220.
- the intermediate layer 220 processes the array of spike signals and supplies the array of spike signals to the output layer 230.
- This output layer 230 comprises a predetermined number of output neurons 231, a statistical calculation unit 232, and a function calculation unit 233.
- Each output neuron 231 generates an output signal every time a unit time elapses based on an input signal from the intermediate layer, and supplies the output signal to the statistical calculation unit 232. If the number of output neurons 231 is M (M is an integer), an array of M output signals is output every unit time. The length of the unit time is, for example, 1 millisecond.
- the statistical quantity calculation unit 232 calculates the statistical quantities of the output signals generated within a predetermined frame period that is longer than the unit time for each output neuron 231. The maximum value, sum, and average value are calculated as the statistical quantities.
- the statistical quantity calculation unit 232 supplies the array of M statistical quantities as Logit to the function calculation unit 233.
- the function calculation unit 233 inputs Logit into a predetermined function (such as a softmax function) and outputs the solution value (in other words, the calculated value) obtained as the detection result to the analysis device 130.
- a predetermined function such as a softmax function
- a configuration in which the statistical quantity calculation unit 232 is not arranged is considered as a second comparative example.
- b is a block diagram showing an example of a configuration of the output layer 230 in the second comparative example.
- the array of output signals from the output side neurons 231 is input to the function calculation unit 233 as Logit.
- the function calculation unit 233 outputs the solution as the detection result, but this configuration is not limited.
- the simple detector 200 can also output an array of statistics (Logit) to the analysis device 130 without calculating the solution.
- FIG. 14 is a diagram showing an example of the output value of the output neuron 231 in the first embodiment of the present technology.
- a shows an example of the output value for each output neuron 231 at a certain time t.
- eight output neurons 231 are arranged, and their respective identification numbers are "0" to "7.”
- the circles in the figure, a indicate the output neurons 231.
- the output values of these neurons are, for example, n-bit spike values.
- each of the eight output neurons 231 outputs an output value (such as a spike value) per unit time.
- the numbers in parentheses in b in the figure indicate the identification numbers of the output neurons 231.
- FIG. 15 is a diagram showing an example of an output format in the second comparative example.
- an array of eight output values i.e., Logit
- the function calculation unit 233 outputs, for example, the identification number of the output neuron 231 corresponding to the largest output value among the Logits as a solution.
- time t10 the same process is repeatedly executed for each unit time.
- the function calculation unit 233 calculates a solution, and there is a risk that an appropriate solution cannot be obtained.
- the output layer 230 needs to accumulate non-zero information for a sufficiently long period of time, but in this case, the output frequency of the simple detector 200 decreases and delays increase. This is also undesirable because the evaluation of the downstream analysis device 130 will be delayed or inaccurate.
- FIG. 16 is a diagram showing an example of an output format in the first embodiment of the present technology.
- a frame period such as 4 ⁇ unit time
- the statistics calculation unit 232 calculates the statistics (such as the maximum value) of the output signal generated within the frame period for each output neuron 231. For example, within a frame period including time t 9 to t 12 , the output neuron 231 with the identification number “7” outputs four output values in sequence. If the maximum value of these is “8”, the statistics calculation unit 232 acquires “8” as the statistics of that neuron.
- the statistics calculation unit 232 also obtains statistics for other neurons and supplies the array of the eight statistics to the function calculation unit 233 as Logit. The same process is performed in the next frame period including time t 13 to t 16.
- the function calculation unit 233 outputs the identification number of the output neuron 231 corresponding to the largest output value of the Logit as a solution.
- the output layer 230 is able to calculate statistics and output the correct answer, "7", in the frame period including t13 . Similarly, at times t17 , t18 , and t20 , the output layer 230 is able to output the correct answer.
- Example of analysis device operation 17 is a flowchart showing an example of the operation of the analysis device 130 according to the first embodiment of the present technology. This operation is started, for example, when the simple detector 200 outputs a detection result.
- the rule selection unit 132 determines whether the detection result of the simple detector 200 is a predetermined value P (in other words, whether a predetermined detection target has been detected) (step S901). If the detection result is not P (step S901: No), the rule selection unit 132 returns to step S901.
- step S901 if the detection result is P (step S901: Yes), the rule selection unit 132 selects a rule based on the detection result and, for example, starts the detail detector 133 based on that rule (step S902).
- the rule selection unit 132 determines whether the detection result of the detailed detector is a predetermined value Q (step S903). If the detection result is not Q (step S903: No), the rule selection unit 132 repeats steps S901 and onward.
- step S903 if the detection result is Q (step S903: Yes), the rule selection unit 132, for example, starts the evaluator 134 and determines whether the evaluation value is a predetermined value R (step S904). If the evaluation value is not R (step S904: No), the rule selection unit 132 repeats steps S901 and onward.
- step S904 if the evaluation value is R (step S904: Yes), the evaluator 134 records a log and outputs an alert (step S905), and the analysis device 130 ends the analysis operation.
- the rules shown in steps S903 to S905 above are examples of rules selected in step S902.
- the content of the rules is not limited to the example shown in the figure.
- the rule selection unit 132 may activate only one of the detail detector 133 and the evaluator 134 when the detection result is P.
- the evaluator 134 may only output an alert in step S905.
- the statistics calculation unit 232 calculates the statistics of the output signal generated within a frame period for each output neuron 231, so that it is possible to suppress a decrease in performance due to an erroneous solution when improving sparsity.
- the ⁇ neuron 300 includes a limiting unit 330 that outputs the integral value as an output signal when the integral value is outside a specified range, so that information loss when sparsity is improved can be minimized.
- the statistics calculation unit 232 calculates statistics within a frame period, but the frame period can also be made variable.
- the imaging device 100 of this first embodiment differs from the first embodiment in that the length of the frame period is controlled in accordance with the output of the simple detector 200.
- FIG. 18 is a block diagram showing an example configuration of the imaging unit 110 in a first modified example of the first embodiment of the present technology.
- the imaging unit 110 in the first modified example of the first embodiment differs from the first embodiment in that it further includes a control unit 510.
- the control unit 510 is provided, for example, in the SNN circuit 500.
- the control unit 510 controls the length of the frame period according to the detection result of the simple detector 200 (i.e., the solution of the function calculation unit 233). For example, the control unit 510 shortens the frame period to less than a predetermined value when the solution is smaller than a predetermined set value, and lengthens the frame period to less than the predetermined value when the solution is equal to or greater than the set value.
- the simplified detector 200 can also output Logit.
- the control unit 510 finds a solution from Logit and controls the frame period according to the solution.
- the frame period in other words, the frame rate
- the effect of essentially thinning out the output of the simple detector 200 can be achieved during times when the output of the simple detector 200 is sparse.
- control unit 510 can determine that important information is being received and increase the operating frequency of the analysis device 130, thereby making the entire system more efficient so that it can perform the necessary operations.
- the control unit 510 can also control the threshold of the neuron in the simple detector 200 according to the detection result (solution or Logit) of the simple detector 200. For example, the control unit 510 increases the threshold during the time period when the solution is greater than a set value, and decreases the threshold during the time period when the solution is equal to or less than the set value, thereby reducing the output of the simple detector 200.
- the control unit 510 increases the threshold during the time period when the solution is greater than a set value, and decreases the threshold during the time period when the solution is equal to or less than the set value, thereby reducing the output of the simple detector 200.
- each of the comparison threshold and the upper and lower thresholds of the limit range is controlled.
- control unit 510 controls the length of the frame period according to the detection result of the simple detector 200, so that an appropriate frame rate can be set according to the detection result.
- the simple detector 200 is provided in the SNN circuit 500, but it is also possible to provide a detailed detector 133 and an evaluator 134.
- the imaging device 100 in this second embodiment differs from the first embodiment in that the simple detector 200, the detailed detector 133, and the evaluator 134 are provided in the SNN circuit 500.
- FIG. 19 is a block diagram showing an example configuration of an imaging device 100 in a second embodiment of the present technology.
- the imaging device 100 in this second embodiment includes an image sensor 120, a control CPU (Central Processing Unit) 140, and an SNN circuit 500.
- CPU Central Processing Unit
- the multi-core array 570 of the SNN circuit 500 is divided into multiple regions, and the functions of the simple detector 200, the detailed detector 133, and the evaluator 134 are assigned to these regions. Note that the router and input/output interface are omitted in the figure.
- the control CPU 140 has the functions of the input control unit 131 and the rule selection unit 132 of the first embodiment.
- the control CPU 140 can also control the setting values related to the output of the image sensor 120 based on the output state of at least one of the simple detector 200, the detailed detector 133, and the evaluator 134. For example, the setting values related to the range of pixels to be output and characteristics such as pixel gain are controlled.
- the simple detector 200, the detailed detector 133, and the evaluator 134 are provided within the SNN circuit 500, so there is no need to place the detailed detector 133 and the evaluator 134 outside the SNN circuit 500.
- FIG. 20 is a block diagram showing an example of the configuration of an imaging device 100 in a third embodiment of the present technology.
- the simplified detector 200 in this third embodiment differs from the first embodiment in that it does not calculate a solution, but outputs Logit to the input control unit 131 as the detection result.
- the input control unit 131 also calculates a solution from Logit, controls the image sensor 120 according to the solution, and changes the output destination.
- FIG. 21 is a flowchart showing an example of the operation of the analysis device 130 in the third embodiment of the present technology.
- the operation in this third embodiment differs from the first embodiment in that steps S910, S911, and S912 are executed instead of step S901.
- the input control unit 131 calculates a solution from Logit (step S910) and determines whether the solution is a predetermined value P (step S911). If the solution is not P (step S911: No), the input control unit 131 returns to step S910.
- step S911 determines whether the solution is P (step S911: Yes).
- the input control unit 131 controls the output destination of the image sensor 120 to output image data to the detailed detector 133 and the evaluator 134 in the analysis device 130 (step S912). After step S912, steps S902 and onwards are executed.
- the simple detector 200 does not need to calculate the solution, and the amount of processing by the simple detector 200 can be reduced.
- the second embodiment can be applied to the third embodiment.
- the input control unit 131 calculates the solution from Logit, eliminating the need for the simple detector 200 to calculate the solution.
- the simple detector 200 and the detailed detector 133 are provided within the SNN circuit 500, so there is no need to place the detailed detector 133 outside the SNN circuit 500.
- the simple detector 200 is disposed outside the image sensor 120, but it is also possible to dispose the simple detector 200 inside the image sensor 120.
- the imaging device 100 in this fifth embodiment differs from the first embodiment in that the simple detector 200 is disposed inside the image sensor 120.
- FIG. 23 is a block diagram showing an example of the configuration of an imaging device 100 in a fifth embodiment of the present technology.
- the imaging device 100 in this fifth embodiment differs from the first embodiment in that a simple detector 200 is disposed within the image sensor 120.
- the image sensor 120 includes, for example, a pixel array unit 121, a memory 122, a simple detector 200, and a controller 123.
- the simple detector 200 is implemented in an SNN circuit 500.
- the memory 122 stores various types of data, such as image data.
- the controller 123 controls the circuits in the image sensor 120.
- FIG. 24 is a diagram showing an example of a stacked structure of an image sensor 120 in a fifth embodiment of the present technology.
- the image sensor 120 includes a logic chip 126 and a pixel chip 125 stacked on the logic chip 126. These chips are electrically connected by, for example, Cu-Cu bonding. Note that in addition to Cu-Cu bonding, they can also be connected by vias or bumps.
- the pixel array section 121 is arranged on the pixel chip 125.
- the remaining circuits, such as the simple detector 200, are arranged on the logic chip 126.
- circuits in the image sensor 120 are arranged on the pixel chip 125 and the logic chip 126, these circuits can also be arranged on a single semiconductor chip.
- the rule selection unit 132 selects a rule based on the detection result, but in this configuration, there is a risk of selecting an incorrect rule due to erroneous detection by the simple detector 200.
- the imaging device 100 in the sixth embodiment differs from the first embodiment in that the imaging device 100 selects a rule based on the sensor signal from the environmental sensor and the detection result.
- FIG. 25 is a block diagram showing an example of the configuration of an imaging device 100 in a sixth embodiment of the present technology.
- the imaging device 100 in the sixth embodiment differs from the first embodiment in that it includes one or more environmental sensors 150.
- the environmental sensor 150 generates a sensor signal different from the image data.
- a temperature sensor, a humidity sensor, an illuminance sensor, a pressure sensor, an acoustic sensor, or a vibration sensor can be used as the environmental sensor 150.
- a proximity sensor, a contact sensor, or an inertial sensor attached to the measurement object or the surroundings of the measurement object can also be used as the environmental sensor 150.
- the sensor signal of the environmental sensor 150 is supplied to the rule selection unit 132 via the input control unit 131.
- the rule selection unit 132 selects a rule based on the sensor signal and detection result from the environmental sensor 150. For example, even if the simple detector 200 fails to detect a person approaching, the rule selection unit 132 can detect the person from sensor signals from an acoustic sensor, vibration sensor, etc., and select an appropriate rule. This makes it possible to prevent an incorrect rule from being selected when the simple detector 200 makes a false detection or misses a detection, making the system more robust.
- the rule selection unit 132 selects a rule based on the sensor signal from the environmental sensor 150 and the detection result, making the system more robust.
- the technology according to the present disclosure can be applied to various products.
- the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, or a robot.
- FIG. 26 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.
- the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
- the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
- Also shown as functional components of the integrated control unit 12050 are a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053.
- the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
- the drive system control unit 12010 functions as a control device for a drive force generating device for generating the drive force of the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force for the vehicle.
- the body system control unit 12020 controls the operation of various devices installed in the vehicle body according to various programs.
- the body system control unit 12020 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps.
- radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 12020.
- the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.
- the outside-vehicle information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
- the image capturing unit 12031 is connected to the outside-vehicle information detection unit 12030.
- the outside-vehicle information detection unit 12030 causes the image capturing unit 12031 to capture images outside the vehicle and receives the captured images.
- the outside-vehicle information detection unit 12030 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, characters on the road surface, etc. based on the received images.
- the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
- the imaging unit 12031 can output the electrical signal as an image, or as distance measurement information.
- the light received by the imaging unit 12031 may be visible light, or may be invisible light such as infrared light.
- the in-vehicle information detection unit 12040 detects information inside the vehicle.
- a driver state detection unit 12041 that detects the state of the driver is connected.
- the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.
- the microcomputer 12051 can calculate control target values for the driving force generating device, steering mechanism, or braking device based on information inside and outside the vehicle acquired by the outside-vehicle information detection unit 12030 or the inside-vehicle information detection unit 12040, and output control commands to the drive system control unit 12010.
- the microcomputer 12051 can perform cooperative control aimed at realizing the functions of an Advanced Driver Assistance System (ADAS), including vehicle collision avoidance or impact mitigation, following driving based on the distance between vehicles, maintaining vehicle speed, vehicle collision warning, or vehicle lane departure warning.
- ADAS Advanced Driver Assistance System
- the microcomputer 12051 can also perform cooperative control for the purpose of autonomous driving, which allows the vehicle to travel autonomously without relying on the driver's operation, by controlling the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040.
- the microcomputer 12051 can also output control commands to the body system control unit 12020 based on information outside the vehicle acquired by the outside information detection unit 12030. For example, the microcomputer 12051 can control the headlamps according to the position of a preceding vehicle or an oncoming vehicle detected by the outside information detection unit 12030, and perform cooperative control aimed at preventing glare, such as switching from high beams to low beams.
- the audio/image output unit 12052 transmits at least one output signal of audio and image to an output device capable of visually or audibly notifying the occupants of the vehicle or the outside of the vehicle of information.
- an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
- the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
- FIG. 27 shows an example of the installation position of the imaging unit 12031.
- the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
- the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle cabin of the vehicle 12100.
- the imaging unit 12101 provided at the front nose and the imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 12100.
- the imaging units 12102 and 12103 provided at the side mirrors mainly acquire images of the sides of the vehicle 12100.
- the imaging unit 12104 provided at the rear bumper or back door mainly acquires images of the rear of the vehicle 12100.
- the imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin is mainly used to detect leading vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.
- FIG. 27 shows an example of the imaging ranges of the imaging units 12101 to 12104.
- Imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
- imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
- imaging range 12114 indicates the imaging range of the imaging unit 12104 provided on the rear bumper or back door.
- an overhead image of the vehicle 12100 viewed from above is obtained by superimposing the image data captured by the imaging units 12101 to 12104.
- At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
- at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or an imaging element having pixels for phase difference detection.
- the microcomputer 12051 can obtain the distance to each solid object within the imaging ranges 12111 to 12114 and the change in this distance over time (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104, and can extract as a preceding vehicle, in particular, the closest solid object on the path of the vehicle 12100 that is traveling in approximately the same direction as the vehicle 12100 at a predetermined speed (e.g., 0 km/h or faster). Furthermore, the microcomputer 12051 can set the inter-vehicle distance that should be maintained in advance in front of the preceding vehicle, and perform automatic braking control (including follow-up stop control) and automatic acceleration control (including follow-up start control). In this way, cooperative control can be performed for the purpose of automatic driving, which runs autonomously without relying on the driver's operation.
- automatic braking control including follow-up stop control
- automatic acceleration control including follow-up start control
- the microcomputer 12051 classifies and extracts three-dimensional object data on three-dimensional objects, such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects, based on the distance information obtained from the imaging units 12101 to 12104, and can use the data to automatically avoid obstacles.
- the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
- the microcomputer 12051 determines the collision risk, which indicates the risk of collision with each obstacle, and when the collision risk is equal to or exceeds a set value and there is a possibility of a collision, it can provide driving assistance for collision avoidance by outputting an alarm to the driver via the audio speaker 12061 or the display unit 12062, or by performing forced deceleration or avoidance steering via the drive system control unit 12010.
- At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
- the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the image captured by the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the image captured by the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not it is a pedestrian.
- the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian.
- the audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
- the technology according to the present disclosure can be applied to the imaging unit 12031.
- the imaging device 100 in FIG. 1 can be applied to the imaging unit 12031.
- the present technology can also be configured as follows. (1) a predetermined number of output neurons that generate output signals every time a predetermined unit time elapses based on input signals from a hidden layer; and a statistics calculation unit that calculates, for each output neuron, statistics of the output signals generated within a predetermined frame period that is longer than the unit time. (2) The imaging device according to (1), further comprising a function calculation unit that inputs each of the statistical quantities to a predetermined function and outputs a calculated value obtained by the input. (3) The imaging device according to (3), further comprising a control unit that controls a length of the frame period in accordance with a detection result of the simple detector.
- the imaging device further comprising a control unit that controls a threshold value of a neuron in the simple detector in accordance with a detection result of the simple detector.
- (5) further comprising an image sensor for generating image data;
- the imaging device according to any one of (1) to (4), wherein the simplified detector detects a predetermined detection target from the image data by analysis.
- a detailed detector for detecting a predetermined detection target from the image data by a more detailed analysis than the simple detector; and an evaluator that generates an evaluation value from the image data by an analysis different from that of the detail detector;
- the imaging device according to (5) further comprising a rule selection unit that selects a rule for controlling operations of the detailed detector and the evaluator based on a detection result of the simple detector.
- the imaging device according to (6), wherein the simple detector and the detailed detector are arranged within a neural network circuit.
- the simple detector, the detailed detector and the evaluator are arranged in a neural network circuit.
- the imaging device according to any one of (6) to (8), further comprising an input control unit that controls an operation of the image sensor based on a detection result of the simple detector. (10) Further comprising an environmental sensor that outputs a sensor signal different from the image data; The imaging device according to any one of (6) to (9), wherein the rule selection unit selects the rule based on the sensor signal and a detection result of the simple detector. (11) The imaging device according to any one of (1) to (10), wherein the simple detector is disposed within an image sensor that generates image data. (12) The imaging device according to any one of (1) to (11), wherein the neuron in the simple detector is a spiking neuron.
- (13) a difference calculator that calculates a difference between an added value of a predetermined number of input signals and a feedback signal; an integrator that integrates the difference and outputs an integral value; a limiting unit that outputs the integral value as an output signal when the integral value is outside a predetermined range; a comparator for comparing the output signal with a predetermined value and providing a comparison result; a feedback section that converts the comparison result into the feedback signal and feeds it back, the feedback section being disposed in at least one of a plurality of neurons in the neural network.
- a simplified detector including: a predetermined number of output side neurons that generate output signals every time a predetermined unit time elapses based on an input signal from an intermediate layer; and a statistics calculation unit that calculates, for each of the output side neurons, statistics of the output signals generated within a predetermined frame period that is longer than the unit time; and an analysis device that analyzes an image based on a detection result of the simple detector.
- Imaging device 110 110-1, 110-2 Imaging section 120 Image sensor 121 Pixel array section 122 Memory 123 Controller 125 Pixel chip 126 Logic chip 130 Analysis device 131 Input control section 132 Rule selection section 133 Detail detector 134 Evaluator 140 Control CPU 150 Environmental sensor 200 Simple detector 210 Input layer 211, 212 Convolution layer 213 Pooling layer 220 Hidden layer 230 Output layer 231 Output side neuron 232 Statistical quantity calculation unit 233 Function calculation unit 300 ⁇ neuron 310 Difference calculator 320 Integrator 330 Limiting unit 340 Comparator 350 Feedback unit 500 SNN circuit 510 Control unit 560 Input/output interface 570 Multi-core array 580 Router 581 to 585 FIFO memory 586 Arbiter 590 Core 591 Core router 592 Neuron I/O 593 Product-sum unit 594 Work memory 595 Membrane potential memory 596 LIF unit 600 Processor 12031 Imaging unit
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本技術は、撮像装置に関する。詳しくは、ニューラルネットワーク構造の撮像装置、撮像システム、および、撮像装置の制御方法に関する。 This technology relates to an imaging device. More specifically, it relates to an imaging device with a neural network structure, an imaging system, and a method for controlling an imaging device.
従来より、防犯、交通などの様々な分野において、モードを動的に切り替える撮像装置が用いられている。例えば、特徴検出モードにおいて低解像度の画像を撮像して被写体の特徴を検出し、特定の特徴を検出すると撮像モードに移行して高解像度の画像を撮像する撮像装置が提案されている(例えば、特許文献1参照。)。 In the past, imaging devices that dynamically switch modes have been used in various fields such as crime prevention and traffic. For example, an imaging device has been proposed that captures a low-resolution image in a feature detection mode to detect the features of a subject, and when a specific feature is detected, switches to imaging mode to capture a high-resolution image (see, for example, Patent Document 1).
上述の従来技術では、特定の特徴を検出するまでは低解像度の画像を撮像することにより、常に高解像度の画像を撮像する場合と比較して消費電力の低減を図っている。しかしながら、特徴の検出にSNN(Spiking Neural Networks)などのニューラルネットワークを利用する場合、ニューロンのスパース性を向上させるほど、性能が低下してしまうという問題がある。 In the conventional technology described above, a low-resolution image is captured until a specific feature is detected, thereby reducing power consumption compared to constantly capturing high-resolution images. However, when using neural networks such as SNN (Spiking Neural Networks) to detect features, there is a problem in that the more the sparsity of the neurons is improved, the more the performance deteriorates.
本技術はこのような状況に鑑みて生み出されたものであり、ニューラルネットワークを用いる撮像装置において、スパース性を向上させた際の性能低下を抑制することを目的とする。 This technology was developed in light of these circumstances, and aims to suppress the performance degradation that occurs when sparsity is improved in imaging devices that use neural networks.
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、中間層からの入力信号に基づいて所定の単位時間が経過するたびに出力信号を生成する所定数の出力側ニューロンと、上記単位時間より長い所定のフレーム期間内に生成された上記出力信号の統計量を上記出力側ニューロンごとに演算する統計量演算部とを備える簡易検出器を具備する撮像装置、および、その制御方法である。これにより、スパース性を向上させた際の性能低下が抑制されるという作用をもたらす。 The present technology has been made to solve the above-mentioned problems, and its first aspect is an imaging device equipped with a simplified detector that includes a predetermined number of output side neurons that generate an output signal every time a predetermined unit time elapses based on an input signal from an intermediate layer, and a statistics calculation unit that calculates, for each of the output side neurons, the statistics of the output signals generated within a predetermined frame period that is longer than the unit time, and a control method for the imaging device. This has the effect of suppressing performance degradation when sparsity is improved.
また、この第1の側面において、上記統計量のそれぞれを所定の関数に入力して得られた演算値を出力する関数演算部をさらに具備してもよい。これにより、演算値が検出結果として出力されるという作用をもたらす。 In addition, in this first aspect, a function calculation unit may be further provided that inputs each of the above statistical quantities into a predetermined function and outputs a calculated value obtained. This provides the effect of outputting the calculated value as the detection result.
また、この第1の側面において、上記簡易検出器の検出結果に応じて上記フレーム期間の長さを制御する制御部をさらに具備してもよい。これにより、適切なフレーム期間が設定されるという作用をもたらす。 In addition, in this first aspect, a control unit may be further provided that controls the length of the frame period in accordance with the detection result of the simple detector. This provides the effect of setting an appropriate frame period.
また、この第1の側面において、上記簡易検出器の検出結果に応じて上記簡易検出器内のニューロンの閾値を制御する制御部をさらに具備してもよい。これにより、ニューロンの発火率が制御されるという作用をもたらす。 In addition, in this first aspect, a control unit may be further provided that controls the threshold of the neuron in the simple detector in accordance with the detection result of the simple detector. This provides the effect of controlling the firing rate of the neuron.
また、この第1の側面において、画像データを生成する画像センサをさらに具備し、上記簡易検出器は、解析により上記画像データから所定の検出対象を検出してもよい。これにより、検出対象が検出されるという作用をもたらす。 In addition, in this first aspect, an image sensor that generates image data may be further provided, and the simple detector may detect a predetermined detection target from the image data by analysis. This provides the effect of detecting the detection target.
また、この第1の側面において、上記簡易検出器より詳細な解析によって上記画像データから所定の検出対象を検出する詳細検出器と、上記詳細検出器と異なる解析により上記画像データから評価値を生成する評価器と、上記簡易検出器の検出結果に基づいて上記詳細検出器および評価器の動作を制御するルールを選択するルール選択部とをさらに具備してもよい。これにより、検出結果に基づいてルールが選択されるという作用をもたらす。 In addition, in this first aspect, the system may further include a detailed detector that detects a predetermined detection target from the image data by a more detailed analysis than the simple detector, an evaluator that generates an evaluation value from the image data by an analysis different from that of the detailed detector, and a rule selection unit that selects a rule that controls the operation of the detailed detector and the evaluator based on the detection result of the simple detector. This provides the effect of selecting a rule based on the detection result.
また、この第1の側面において、上記簡易検出器および上記詳細検出器は、ニューラルネットワーク回路内に配置されてもよい。これにより、ニューラルネットワーク回路外の回路が削減されるという作用をもたらす。 Furthermore, in this first aspect, the simple detector and the detailed detector may be disposed within the neural network circuit. This has the effect of reducing the circuitry outside the neural network circuit.
また、この第1の側面において、上記簡易検出器、上記詳細検出器および上記評価器は、ニューラルネットワーク回路内に配置されてもよい。これにより、ニューラルネットワーク回路外の回路が削減されるという作用をもたらす。 Furthermore, in this first aspect, the simple detector, the detailed detector, and the evaluator may be arranged within a neural network circuit. This has the effect of reducing circuits outside the neural network circuit.
また、この第1の側面において、上記簡易検出器の検出結果に基づいて上記画像センサの動作を制御する入力制御部をさらに具備してもよい。これにより、簡易検出器の処理量が低減するという作用をもたらす。 In addition, in this first aspect, an input control unit may be further provided that controls the operation of the image sensor based on the detection result of the simple detector. This has the effect of reducing the amount of processing by the simple detector.
また、この第1の側面において、上記画像データと異なるセンサ信号を出力する環境センサをさらに具備し、上記ルール選択部は、上記センサ信号と上記簡易検出器の検出結果とに基づいて上記ルールを選択してもよい。これにより、ロバスト性が向上するという作用をもたらす。 In addition, in this first aspect, an environmental sensor that outputs a sensor signal different from the image data may be further provided, and the rule selection unit may select the rule based on the sensor signal and the detection result of the simple detector. This provides the effect of improving robustness.
また、この第1の側面において、上記簡易検出器は、画像データを生成する画像センサ内に配置されてもよい。これにより、画像センサ外の回路が削減されるという作用をもたらす。 In addition, in this first aspect, the simplified detector may be disposed within an image sensor that generates image data. This has the effect of reducing the amount of circuitry outside the image sensor.
また、この第1の側面において、上記簡易検出器内のニューロンは、スパイキングニューロンであってもよい。これにより、時間、空間ともに情報をスパース化することが可能になるという作用をもたらす。 In addition, in this first aspect, the neurons in the simplified detector may be spiking neurons. This has the effect of making it possible to make information sparsifying in both time and space.
また、本技術の第2の側面は、所定数の入力信号の加算値と帰還信号との差分を演算する差分演算器と、上記差分を積分して積分値を出力する積分器と、上記積分値が所定範囲外である場合には上記積分値を出力信号として出力する制限部と、上記出力信号と所定値とを比較して比較結果を供給する比較器と、上記比較結果を上記帰還信号に変換して帰還させる帰還部とをニューラルネットワーク内の複数のニューロンのうち少なくとも1つに配置した撮像装置である。これにより、スパース性を向上させた際の性能低下が抑制されるという作用をもたらす。 The second aspect of this technology is an imaging device in which a difference calculator that calculates the difference between the sum of a predetermined number of input signals and a feedback signal, an integrator that integrates the difference and outputs the integral value, a limiting unit that outputs the integral value as an output signal if the integral value is outside a predetermined range, a comparator that compares the output signal with a predetermined value and supplies the comparison result, and a feedback unit that converts the comparison result into the feedback signal and feeds it back, are arranged in at least one of multiple neurons in a neural network. This has the effect of suppressing performance degradation when sparsity is improved.
また、本技術の第3の側面は、中間層からの入力信号に基づいて所定の単位時間が経過するたびに出力信号を生成する所定数の出力側ニューロンと、上記単位時間より長い所定のフレーム期間内に生成された上記出力信号の統計量を上記出力側ニューロンごとに演算する統計量演算部とを備える簡易検出器と、上記簡易検出器の検出結果に基づいて画像を解析する解析装置とを具備する撮像システムである。これにより、スパース性を向上させた際のシステムの性能低下が抑制されるという作用をもたらす。 The third aspect of the present technology is an imaging system including a simple detector having a predetermined number of output side neurons that generate an output signal every time a predetermined unit time elapses based on an input signal from an intermediate layer, and a statistics calculation unit that calculates, for each of the output side neurons, the statistics of the output signals generated within a predetermined frame period that is longer than the unit time, and an analysis device that analyzes an image based on the detection results of the simple detector. This has the effect of suppressing the degradation of system performance when sparsity is improved.
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(フレーム期間内の統計量を演算する例)
2.第2の実施の形態(フレーム期間内の統計量を演算する簡易検出器、詳細検出器および評価器をSNN回路内に設けた例)
3.第3の実施の形態(フレーム期間内の統計量を演算し、入力制御部が画像センサを制御する例)
4.第4の実施の形態(フレーム期間内の統計量を演算する簡易検出器および詳細検出器をSNN回路内に設けた例)
5.第5の実施の形態(フレーム期間内の統計量を演算する簡易検出器、詳細検出器を画像センサ内に設けた例)
6.第6の実施の形態(フレーム期間内の統計量を演算する簡易検出器の検出結果とセンサ信号とに基づいてルールを選択する例)
7.移動体への応用例
Hereinafter, modes for carrying out the present technology (hereinafter, referred to as embodiments) will be described in the following order.
1. First embodiment (example of calculating statistics within a frame period)
2. Second embodiment (an example in which a simple detector, a detailed detector, and an evaluator for calculating statistics within a frame period are provided in an SNN circuit)
3. Third embodiment (example in which statistics within a frame period are calculated and an input control unit controls an image sensor)
4. Fourth embodiment (an example in which a simple detector and a detailed detector for calculating statistics within a frame period are provided in an SNN circuit)
5. Fifth embodiment (an example in which a simple detector and a detailed detector for calculating statistics within a frame period are provided in an image sensor)
6. Sixth embodiment (example of selecting a rule based on a detection result of a simple detector that calculates statistics within a frame period and a sensor signal)
7. Examples of applications to moving objects
<1.第1の実施の形態>
[撮像装置の構成例]
図1は、本技術の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、画像データを撮像する装置であり、撮像部110および解析装置130を備える。撮像部110は、画像センサ120および簡易検出器200を備える。
1. First embodiment
[Configuration example of imaging device]
1 is a block diagram showing an example of a configuration of an
画像センサ120は、光電変換により画像データを生成するものである。この画像センサ120は、例えば、画素アドレスごとに光量が変化したか否かを判定し、判定結果を配列したデータを画像データとして生成する。このようなセンサは、EVS(Event-based Vision Sensor)またはDVS(Dynamic Vision Sensor)と呼ばれる。EVSを用いることにより、簡易検出器200の入力がスパースとなり、その入力が有意な周期変化を生じた場合にも簡易検出器200内でさらにスパース化させることができる。
The
なお、画像センサ120は、EVSに限定されず、画素ごとに光量に応じた階調信号を生成し、それらを配列した画像データを生成することもできる。階調信号を生成する場合、画像センサ120は、画素ごとにアナログ信号を生成してAD(Analog to Digital)変換器でデジタル信号に変換する。あるいは、画像センサ120は、画素ごとにSPAD(Single-Photon Avalanche Diode)を備え、SPADからのパルス信号を計数してデジタル信号を生成する。
The
また、画像センサ120は、簡易検出器200の検出結果に基づいて画像データの出力先を、簡易検出器200および解析装置130のいずれかに切り替える。
In addition, the
なお、画像センサ120は、簡易検出器200の検出結果に基づいて生成する画像データの解像度を変更することもできる。解像度は、画素加算や間引き読出しなどにより変更される。この場合、例えば、画像センサ120は、簡易検出器200への画像データの解像度を低くし、解析装置130への画像データの解像度を高くする。
The
簡易検出器200は、解析により画像データから所定の検出対象を検出するものである。この簡易検出器200の機能は、例えば、SNN回路500にハードウェア実装される。なお、SNN回路500は、特許請求の範囲に記載のニューラルネットワーク回路の一例である。
The
簡易検出器200において、例えば、人物や、特定の予備動作が検出対象として設定される。簡易検出器200は、検出対象(人物など)の有無を検出し、検出結果を解析装置130および画像センサ120に供給する。画像センサ120は、その検出結果が所定値Pであった場合に、画像データの出力先を解析装置130に変更する。ここで、Pは、1つに限定されず、P0やP1など、2つ以上であってもよい。P0やP1のそれぞれには、検出対象が割り当てられる。検出結果が所定値Pであることは、その値に対応する検出対象が検出されたことを示す。
In the
解析装置130は、入力制御部131、ルール選択部132、詳細検出器133および評価器134を備える。
The
入力制御部131は、解析装置130の外部と、ルール選択部132、詳細検出器133および評価器134との間でデータを送受信するものである。この入力制御部131は、簡易検出器200からの検出結果をルール選択部132に供給する。また、入力制御部131は、画像センサ120からの画像データを詳細検出器133および評価器134の少なくとも一方に供給する。また、入力制御部131は、詳細検出器133からの検出結果をルール選択部132に供給し、詳細検出器133や評価器134からのログやアラートを外部のサーバなどに送信する。
The
ルール選択部132は、簡易検出器200の検出結果に基づいて、詳細検出器133および評価器134の動作を制御するルールを選択するものである。例えば、「詳細検出器133で特定の検出対象が検出された場合に、評価器134を起動する」や、「評価器134で所定の評価値が得られた場合にアラートを外部に出力する」などの各種のルールが想定される。ルール選択部132は、それらのうち選択したルールに従って、詳細検出器133および評価器134の動作を制御する。
The
例えば、あるルールにおいてルール選択部132は、簡易検出器200の検出結果が所定値Pでない場合に詳細検出器133および評価器134の動作を停止させる。一方、簡易検出器200の検出結果が所定値Pである場合にルール選択部132は、評価器134を停止させたままで、詳細検出器133に解析を開始させる。そして、詳細検出器133の検出結果が所定値Qであった場合にルール選択部132は、評価器134に解析を開始させる。ここで、Qは、1つに限定されず、Q0やQ1など、2つ以上であってもよい。検出結果が所定値Qであることは、その値に対応する検出対象が検出されたことを示す。
For example, in a certain rule, the
詳細検出器133は、簡易検出器200よりも詳細な解析により画像データから所定の検出対象を検出するものである。例えば、人物の有無、人数、特定の動作の有無、画像内の人の場所などが検出対象として設定される。さらに、詳細検出器133は、人物を検出した際に、特定の個人であるか否かを検出することもできる。詳細検出器133は、これらの解析を、1枚の画像データに対して行ってもよいし、連続して撮像された複数の画像データを含む動画に対して行ってもよい。
The
詳細検出器133は、検出結果を入力制御部131に出力する。また、詳細検出器133は、特定の個人を検出した際に撮影時刻を含むログを生成し、入力制御部131に出力することができる。
The
評価器134は、詳細検出器133と異なる解析により画像データから評価値を生成するものである。この評価器134は、例えば、一人以上の人物がどのような動作を行っているかや、どのような状態であるかを解析し、その結果を示す評価値を生成する。評価器134は、これらの解析を、1枚の画像データに対して行ってもよいし、動画に対して行ってもよい。
The
例えば、あるルールにおいて評価器134は、評価値が所定値Rである場合に、撮影時刻を含むログや、アラートを入力制御部131に出力する。ここで、Rは、1つに限定されず、R0やR1など、2つ以上であってもよい。評価値が所定値Pであることは、その値に対応する解析対象が検出されたことを示す。
For example, in a certain rule, when the evaluation value is a predetermined value R, the
上述したように、簡易検出器200が継続的に検出対象の検出を行い、検出対象が検出されると詳細検出器133や評価器134を動作させるシステムは、Always-ONシステムと呼ばれる。Always ONシステムにより、常に詳細検出器133や評価器134を動作させる場合と比較して、性能を維持しつつ、消費電力を低減することができる。
As described above, a system in which the
なお、同図では、1つの装置内に撮像部110や解析装置130を配置しているが、この構成に限定されない。これらを複数の装置に分散して配置することもできる。また、撮像部110や解析装置130を配置したシステムは、特許請求の範囲に記載の撮像システムの一例である。
In the figure, the
また、同図では、1つの撮像部110を配置しているが、この構成に限定されない。図2に例示するように、撮像部110-1、110-2などの複数の撮像部を配置することもできる。
In addition, in the figure, one
また、図3に例示するように、1個のプロセッサ600内に、簡易検出器200および解析装置130を配置することもできる。
Also, as shown in FIG. 3, the
[SNN回路の構成例]
図4は、本技術の第1の実施の形態におけるSNN回路500の実装例を示す図である。SNN回路500は、例えば、入出力インターフェース560およびマルチコアアレイ570を備える。
[Example of SNN circuit configuration]
4 is a diagram showing an implementation example of an
入出力インターフェース560は、外部とマルチコアアレイ570との間でデータを送受信するものである。この入出力インターフェース560は、画像センサ120からの画像データをマルチコアアレイ570に供給し、マルチコアアレイ570からの検出結果を解析装置130に供給する。
The input/
マルチコアアレイ570には、複数のコア590が二次元格子状に配列される。それぞれのコア590に隣接してルーター580が配置される。
In the
ルーター580は、データの経路を制御するものである。このルーター580は、例えば、FIFO(First In, First Out)メモリ581乃至585と、アービタ586とを備える。同図における「E」は、着目したルーター580の東方向を示し、「S」は、南方向を示す。「W」は西方向を示し、「N」は、北方向を示す。「L」は、ルーター580に隣接するコア590への方向を示す。
The
FIFOメモリ581は、東方向からのデータを先入れ先出し方式で保持し、アービタ586にリクエストを出力する。FIFOメモリ582は、南方向からのデータを先入れ先出し方式で保持し、アービタ586にリクエストを出力する。FIFOメモリ583は、西方向からのデータを先入れ先出し方式で保持し、アービタ586にリクエストを出力する。FIFOメモリ584は、北方向からのデータを先入れ先出し方式で保持し、アービタ586にリクエストを出力する。FIFOメモリ585は、隣接するコア590からのデータを先入れ先出し方式で保持し、アービタ586にリクエストを出力する。
アービタ586は、FIFOメモリ581乃至585のそれぞれからのリクエストを調停し、応答を返す。応答のあった際にFIFOメモリは、アービタ586を介して、東西南北と隣接するコア590とのいずれかにデータを出力する。
The
図5は、本技術の第1の実施の形態におけるコア590の一構成例を示すブロック図である。コア590は、コアルーター591、ニューロンI/O(Input/Output)592、積和ユニット593、ワークメモリ594、膜電位メモリ595およびLIF(Leaky Integrate and Fire)ユニット596を備える。
FIG. 5 is a block diagram showing an example of the configuration of a core 590 in the first embodiment of the present technology. The
コアルーター591は、隣接するルーター580からのデータをニューロンI/O592に供給し、LIFユニット596からのデータを隣接するルーター580に供給する。
The
積和ユニット593は、ワークメモリ594を用いて、ニューロンI/O592からのデータを積分する。膜電位メモリ595は、積分により得られた膜電位を保持する。LIFユニット596は、膜電位が所定の閾値を超えて発火した(言い換えれば、スパイクが生じた)か否かを判断し、その結果をコアルーター591に供給する。
The multiply-and-accumulate
図6は、本技術の第1の実施の形態における簡易検出器200のニューラルネットワーク構造の一例を示す図である。同図におけるaは、ニューラルネットワーク構造の一例を示し、同図におけるbは、同図におけるaのうち2層の構造の一例を示す。同図におけるbの丸印は、ニューロンを示す。
FIG. 6 is a diagram showing an example of a neural network structure of the
同図におけるaに例示するように、簡易検出器200内のニューラルネットワークは、例えば、CNN(Convolutional Neural Network)であり、畳み込み層211および212や、プーリング層213などの多層から構成される。最初の畳み込み層211内のニューロンのそれぞれには、画像データ700内の1つ以上の画素の各画素信号が入力される。なお、ニューラルネットワークは、CNNに限定されない。
As shown in FIG. 1A, the neural network in the
同図におけるbに例示するように、例えば、畳み込み層212に、所定数のΔΣ型ニューロン300が配列される。同図では、記載を簡易にするため、チャネル方向を割愛して2次元表記しているが、3次元表記する場合も同様である。
As shown in FIG. 1B, for example, a predetermined number of
同図におけるbに例示するように、ニューラルネットワークには、1つ以上のΔΣ型ニューロン300を含む複数のニューロンが配列される。これらのニューロンとして、例えば、SNNにおけるスパイキングニューロンが用いられる。なお、ANN(Artificial Neural Network)における一般的なニューロンを用いることもできる。スパイキングニューロンと、一般的なニューロンとを組み合わせることもできる。
As shown in FIG. 3B, a neural network has an array of multiple neurons including one or
[ΔΣ型ニューロンの構成例]
図7は、本技術の第1の実施の形態におけるΔΣ型ニューロン300の一構成例を示すブロック図である。このΔΣ型ニューロン300は、差分演算器310、積分器320、制限部330、比較器340および帰還部350を備える。
[Example of the configuration of a ΔΣ neuron]
7 is a block diagram showing an example of a configuration of a
差分演算器310には、所定数の入力信号の合計と、帰還部350からの帰還信号Eとの差分Bを演算し、積分器320に供給するものである。例えば、前段のニューロンの出力をin0、in1およびin2とし、重みをω0、ω1およびω2として、in0×ω0、in1×ω1およびin2×ω2が入力信号として入力される。
The
積分器320は、差分Bを積分し、積分値Cを制限部330に供給するものである。
The
制限部330は、積分値Cが所定の制限範囲外である場合には、その値を出力信号OUTとして後段のプーリング層213および比較器340に出力するものである。例えば、制限範囲の上限閾値をTh0とし、下限閾値をTh1とする。制限部330は、積分値CがTh0以上、かつ、Th1以下であれば、「0」の出力信号OUTを出力する。出力信号OUTが「0」であることは、有意な出力信号が出力されず、制限されることを意味する。一方、積分値CがTh0未満、または、積分値CがTh1より大きい場合、制限部330は、積分値Cをそのまま出力信号OUTとして出力する。
When the integral value C is outside a predetermined limit range, the limiting
比較器340は、出力信号OUTと所定の比較閾値THとを比較し、比較結果Dを帰還部350に供給するものである。例えば、THに「0」が設定され、比較器340は、出力信号OUTがTHより大きい場合に「1」を比較結果として出力し、出力信号OUTがTH以下の場合に「0」を比較結果として出力する。
帰還部350は、比較結果Dを帰還信号Eに変換して差分演算器310に帰還させるものである。例えば、帰還部350は、比較結果Dが「0」より大きい場合に、「-1」の帰還信号Eを出力し、比較結果Dが「0」である場合に、「1」の帰還信号Eを出力する。
The
上述のΔΣ型ニューロン300は、所定の処理周波数のクロック信号に同期して、一定時間ごとに出力信号OUTを演算して出力する。上述の構成において、積分値Cの時間微分は、例えば、次の式により表される。
dC/dt=-(C-a)/T+Σ(ωj×inj)-Δ(оut)
・・・式1
上式において、tは時間を示し、aは係数を示す。Tは時定数を示し、Δ()は、比較器340の比較結果を示す。
The above-mentioned
dC/dt=-(C-a)/T+Σ(ωj×inj)-Δ(оut)
...
In the above equation, t indicates time, a indicates a coefficient, T indicates a time constant, and Δ( ) indicates the comparison result of the
また、出力信号OUTの値は、次の式により表される。
OUT=f(C) ・・・式2
上式において、f()は、制限部330の活性化関数を示す。
The value of the output signal OUT is expressed by the following equation.
OUT=f(C)...
In the above equation, f( ) denotes the activation function of the limiting
また、ΔΣ型ニューロン300の入力信号および出力信号は、いずれもデジタル信号である。なお、入力信号がアナログ信号で、出力信号がデジタル信号であってもよい。この場合、帰還部350として、1ビットDAC(Digital to Analog Converter)などが用いられる。また、入力信号および出力信号がいずれもアナログ信号であってもよい。
In addition, both the input signal and the output signal of the
図8は、本技術の第1の実施の形態におけるΔΣ型ニューロン300の入力信号および出力信号の一例を示す図である。同図におけるaは、時間の経過に伴う入力信号の軌跡の一例を示し、同図におけるbは、出力信号の軌跡の一例を示す。
FIG. 8 is a diagram showing an example of an input signal and an output signal of the
同図におけるaおよびbに例示するように、単位時間ごとに入力信号が入力され、出力信号が演算される。これらの入力信号および出力信号は、例えば、n(nは、整数)ビットのスパイク信号である。このようなニューロンは、スパイキングニューロンと呼ばれる。なお、ΔΣ型ニューロン300は、スパイキングニューロンに限定されず、入力信号および出力信号がスパイク信号でない、一般的なニューロンであってもよい。
As shown in a and b in the figure, an input signal is input for each unit time, and an output signal is calculated. These input and output signals are, for example, spike signals of n bits (n is an integer). Such neurons are called spiking neurons. Note that the
ここで、制限部330の無い、一般的なΔΣ型ニューロンを第1の比較例として想定する。
Here, we consider a typical ΔΣ neuron without a limiting
図9は、第1の比較例におけるΔΣ型ニューロンの一構成例を示すブロック図である。同図に例示するように、第1の比較例では、制限部330が配置されず、積分値がそのまま出力信号OUTとして出力されるとともに比較器340に入力される。この第1の比較例においては、ニューロンの発火率は、比較器340の比較閾値THにより制御される。比較閾値THを高くすると、発火率が低減し、その分、スパース性を向上させることができる。
FIG. 9 is a block diagram showing an example of the configuration of a ΔΣ neuron in the first comparative example. As shown in the figure, in the first comparative example, the limiting
ここで、前述のAlways ONシステムでは、画像センサ120からの入力も含めて、可能な限り、時空間の両方に対してデータをスパースにすることで、Always ONシステムをより効率的に動作させることができる。
In the aforementioned Always ON system, by making the data, including the input from the
また、ANNでは、処理周波数を変更することで時間方向にのみ処理をスパース化することができるが、SNNでは、ニューロンのそれぞれが不要な情報を送信しないようにすることにより、時間、空間ともに情報をスパース化することができる。ANNと異なり、SNNでは、空間的なスパース化が可能であるため、処理周波数を維持しつつ、低速ANNと同程度のスパース性を得ることができる。 In addition, while an ANN can only sparsify processing in the time direction by changing the processing frequency, an SNN can sparsify information in both time and space by preventing each neuron from sending unnecessary information. Unlike an ANN, an SNN can sparsify information spatially, so it is possible to achieve the same level of sparsity as a slow ANN while maintaining the processing frequency.
したがって、SNNを簡易検出器200として用いることにより、処理周波数の維持と、処理の効率化との両立を図ることができる。
Therefore, by using an SNN as the
ただし、スパース性と性能との間にはトレードオフの関係がある。第1の比較例では、ニューロンのそれぞれの比較閾値THを高くすると、ニューロンの発火率が低減し、スパース性が向上するものの、伝達する情報量が不十分となり、解析結果のエラーが増大してしまう。 However, there is a trade-off between sparsity and performance. In the first comparative example, increasing the comparison threshold TH for each neuron reduces the firing rate of the neuron and improves sparsity, but the amount of information transmitted becomes insufficient, resulting in increased errors in the analysis results.
この第1の比較例では、制御する閾値が比較閾値THのみであるのに対し、制限部330を設けたΔΣ型ニューロン300では、比較閾値THと、制限部330の閾値(上限閾値および下限閾値)との2種類の閾値を制御することができる。この構成では、下限閾値から上限閾値までの制限範囲を広くすることにより、スパース性を向上させることができる。その一方で、比較閾値THを低くすることにより、情報ロスを最小限に抑制することができる。このため、積分値Cを直接出力するのでなく、制限部330を通して出力することにより、スパース性を高くした際の情報のロスを最小限に抑制することができる。これにより、スパース性の向上時の性能低下を抑制することができる。
In this first comparative example, the only threshold to be controlled is the comparison threshold TH, whereas in the
図10は、第1の比較例と本技術の第1の実施の形態とにおけるサイン波を入力した場合の出力信号および比較結果の波形の一例を示すグラフである。同図におけるaは、第1の比較例のニューロンにサイン波を入力した場合の入力信号および出力信号の波形の一例であり、同図におけるbは、その場合の入力信号および比較結果の波形の一例である。 FIG. 10 is a graph showing an example of the waveforms of the output signal and the comparison result when a sine wave is input in the first comparative example and the first embodiment of the present technology. In the figure, "a" is an example of the waveforms of the input signal and the output signal when a sine wave is input to the neuron of the first comparative example, and "b" is an example of the waveforms of the input signal and the comparison result in that case.
また、同図におけるcは、制限部330付のΔΣ型ニューロン300にサイン波を入力した場合の入力信号および出力信号の波形の一例であり、同図におけるdは、その場合の入力信号および比較結果の波形の一例である。
In addition, c in the figure is an example of the waveforms of the input signal and the output signal when a sine wave is input to the
同図におけるaからdの点線は入力信号の波形を示す。同図におけるaの実線は、出力信号(すなわち、積分値)の波形を示し、同図におけるbの実線は、比較結果の波形を示す。同図におけるcの実線は、制限部330からの出力信号の波形を示し、同図におけるdの実線は、比較結果の波形を示す。図11および図12についても同様である。
The dotted lines a to d in the figure indicate the waveform of the input signal. The solid line a in the figure indicates the waveform of the output signal (i.e., the integral value), and the solid line b in the figure indicates the waveform of the comparison result. The solid line c in the figure indicates the waveform of the output signal from the limiting
図10におけるaからdに例示するように、制限部330を設けた構成では、第1の比較例と比較してサイン波などの周期性を持つ情報に対しては圧縮率が高く、かつ、情報のロスも少なくなる。なお、複雑に変動する入力に対しては、情報ロスが大きくなる点には留意する。
As shown in Fig. 10A to 10D, in a configuration with a limiting
図11は、第1の比較例と本技術の第1の実施の形態とにおけるスパース信号を入力した場合の出力信号および比較結果の波形の一例を示すグラフである。同図におけるaは、第1の比較例のニューロンにスパース信号を入力した場合の入力信号および出力信号の波形の一例であり、同図におけるbは、その場合の入力信号および比較結果の波形の一例である。 FIG. 11 is a graph showing an example of the waveforms of the output signal and the comparison result when a sparse signal is input in the first comparative example and the first embodiment of the present technology. In the figure, "a" is an example of the waveforms of the input signal and the output signal when a sparse signal is input to the neuron of the first comparative example, and "b" is an example of the waveforms of the input signal and the comparison result in that case.
また、同図におけるcは、制限部330付のΔΣ型ニューロン300にスパース信号を入力した場合の入力信号および出力信号の波形の一例であり、同図におけるdは、その場合の入力信号および比較結果の波形の一例である。
In addition, c in the figure is an example of the waveforms of the input signal and the output signal when a sparse signal is input to the
同図におけるaからdに例示するように、制限部330を設けた構成では、スパース信号を入力した際の圧縮率は、第1の比較例と殆ど変わらない。
As shown in the examples a to d in the figure, in a configuration with a limiting
図12は、第1の比較例と本技術の第1の実施の形態とにおける定常信号を入力した場合の出力信号および比較結果の波形の一例を示すグラフである。同図におけるaは、第1の比較例のニューロンに定常信号を入力した場合の入力信号および出力信号の波形の一例であり、同図におけるbは、その場合の入力信号および比較結果の波形の一例である。 FIG. 12 is a graph showing an example of the waveforms of the output signal and the comparison result when a stationary signal is input in the first comparative example and the first embodiment of the present technology. In the figure, "a" is an example of the waveforms of the input signal and the output signal when a stationary signal is input to the neuron of the first comparative example, and "b" is an example of the waveforms of the input signal and the comparison result in that case.
また、同図におけるcは、制限部330付のΔΣ型ニューロン300に定常信号を入力した場合の入力信号および出力信号の波形の一例であり、同図におけるdは、その場合の入力信号および比較結果の波形の一例である。
In addition, c in the figure is an example of the waveforms of the input signal and the output signal when a stationary signal is input to the
同図におけるaからdに例示するように、制限部330を設けた構成では、定常信号を入力した際の圧縮率は、第1の比較例と殆ど変わらない。
As shown in the examples a to d in the figure, in a configuration with a limiting
次に、簡易検出器200のニューラルネットワーク内の出力層の出力フォーマットについて説明する。
Next, we will explain the output format of the output layer in the neural network of the
図13は、本技術の第1の実施の形態と第2の比較例とにおける簡易検出器200の一構成例を示すブロック図である。同図におけるaは、第1の実施の形態における簡易検出器200の一構成例を示すブロック図である。
FIG. 13 is a block diagram showing an example of the configuration of the
簡易検出器200内のニューラルネットワークは、入力層210、中間層220および出力層230を備える。入力層210は、画像センサ120からの画像データを処理し、中間層220にスパイク信号の配列を供給するものである。中間層220は、スパイク信号の配列を処理し、出力層230にスパイク信号の配列を供給するものである。この出力層230は、所定数の出力側ニューロン231と、統計量演算部232と、関数演算部233とを備える。
The neural network in the
出力側ニューロン231のそれぞれは、中間層からの入力信号に基づいて単位時間が経過するたびに出力信号を生成し、統計量演算部232に供給するものである。出力側ニューロン231の個数をM(Mは整数)個とすると、M個の出力信号の配列が単位時間ごとに出力される。単位時間の長さは、例えば、1ミリ秒である。
Each
統計量演算部232は、単位時間より長い所定のフレーム期間内に生成された出力信号の統計量を出力側ニューロン231ごとに演算するものである。統計量として、最大値、和や平均値が演算される。統計量演算部232は、M個の統計量の配列をLogitとして関数演算部233に供給する。
The statistical
関数演算部233は、Logitを所定の関数(ソフトマックス関数など)に入力して得られた解の値(言い換えれば、演算値)を検出結果として解析装置130へ出力するものである。
The
ここで、統計量演算部232を配置しない構成を第2の比較例として想定する。同図におけるbは、第2の比較例における出力層230の一構成例を示すブロック図である。第2の比較例では、出力側ニューロン231の出力信号の配列がLogitとして、関数演算部233に入力される。
Here, a configuration in which the statistical
なお、同図では、関数演算部233が解を検出結果として出力しているが、この構成に限定されない。後述するように、簡易検出器200は、解を演算せず、統計量の配列(Logit)を解析装置130に出力することもできる。
In the figure, the
図14は、本技術の第1の実施の形態における出力側ニューロン231の出力値の一例を示す図である。同図におけるaは、ある時刻tの出力側ニューロン231ごとの出力値の一例を示す図である。例えば、8個の出力側ニューロン231が配列され、それぞれの識別番号を「0」から「7」とする。同図におけるaの丸印は、出力側ニューロン231を示す。また、それらのニューロンの出力値は、例えば、nビットのスパイク値である。
FIG. 14 is a diagram showing an example of the output value of the
同図におけるbは、出力側ニューロン231ごとの出力値を時系列順に示す図である。同図におけるbに例示するように、8個の出力側ニューロン231のそれぞれは、単位時間ごとに出力値(スパイク値など)を出力する。同図におけるbの括弧内の数値は、出力側ニューロン231の識別番号を示す。
B in the figure shows the output values for each
図15は、第2の比較例における出力フォーマットの一例を示す図である。時刻t9において、8個の出力値の配列(すなわち、Logit)が関数演算部233に入力される。関数演算部233は、例えば、Logitのうち最も大きい出力値に対応する出力側ニューロン231の識別番号を解として出力する。時刻t10以降においても単位時間ごとに、同様の処理が繰り返し実行される。
15 is a diagram showing an example of an output format in the second comparative example. At time t9 , an array of eight output values (i.e., Logit) is input to the
第2の比較例では、SNNにおいてスパイク信号のスパース性を時間方向に向上させると、関数演算部233が解を演算する際にゼロ情報が多くなるため、適切な解を得られなくなるおそれがある。
In the second comparative example, if the sparsity of spike signals in an SNN is improved in the time direction, the amount of zero information increases when the
例えば、時刻t9からt20までの期間内において、「7」が正しい解であるものと仮定すると、時刻t13で関数演算部233は「0」を誤って出力してしまう。時刻t17、t18や、t20においても識別番号が「7」の出力側ニューロン231の出力値が最大とならず、誤った解が出力される。
For example, if we assume that "7" is the correct answer during the period from time t9 to t20 , then at time t13 , the
適切な解を得るには、非ゼロの情報を十分な長時間に亘って出力層230が蓄積すればよいが、この場合、簡易検出器200の出力頻度が低下し、遅延が増大してしまう。また、後段の解析装置130の評価も遅延したり、不正確になったりするため、好ましくない。
To obtain an appropriate solution, the
図16は、本技術の第1の実施の形態における出力フォーマットの一例を示す図である。同図に例示するように、第1の実施の形態では、単位時間より長いフレーム期間(4×単位時間など)が設定される。統計量演算部232は、フレーム期間内に生成された出力信号の統計量(最大値など)を出力側ニューロン231ごとに演算する。例えば、時刻t9からt12を含むフレーム期間内において、識別番号「7」の出力側ニューロン231は4つの出力値を順に出力する。これらの最大値が「8」である場合、統計量演算部232は、そのニューロンの統計量として「8」を取得する。統計量演算部232は、他のニューロンについても統計量を求め、8個の統計量の配列をLogitとして関数演算部233に供給する。次の時刻t13からt16を含むフレーム期間においても同様の処理が行われる。関数演算部233は、そのLogitのうち最も大きい出力値に対応する出力側ニューロン231の識別番号を解として出力する。
FIG. 16 is a diagram showing an example of an output format in the first embodiment of the present technology. As illustrated in the figure, in the first embodiment, a frame period (such as 4×unit time) longer than the unit time is set. The
第2の比較例では、時刻t13で誤った解が出力されていたが、同図に例示するように、出力層230は、統計量を演算することにより、そのt13を含むフレーム期間において、正しい解である「7」を出力することができる。時刻t17、t18、t20においても同様に、出力層230は、正しい解を出力することができる。
In the second comparative example, an incorrect answer was output at time t13 , but as illustrated in the figure, the
同図に例示するように統計量の演算により、時間軸方向にスパース性を向上させた際に、誤った解の出力を抑制することができる。また、非ゼロの情報を長時間に亘って蓄積する必要が無くなるため、第2の比較例と比較して、出力頻度の低下や遅延の増大を抑制することができる。これにより、スパース性を向上させた際の性能の低下を抑制することができる。 As shown in the figure, by calculating statistics, it is possible to suppress the output of erroneous solutions when the sparsity is improved along the time axis. In addition, since there is no need to accumulate non-zero information for a long period of time, it is possible to suppress a decrease in output frequency and an increase in delay compared to the second comparative example. This makes it possible to suppress a decrease in performance when the sparsity is improved.
[解析装置の動作例]
図17は、本技術の第1の実施の形態における解析装置130の動作の一例を示すフローチャートである。この動作は、例えば、簡易検出器200が検出結果を出力したときに開始される。
[Example of analysis device operation]
17 is a flowchart showing an example of the operation of the
ルール選択部132は、簡易検出器200の検出結果が所定値Pである(言い換えれば、所定の検出対象が検出された)か否かを判断する(ステップS901)。検出結果がPでない場合(ステップS901:No)、ルール選択部132は、ステップS901に戻る。
The
一方、検出結果がPである場合(ステップS901:Yes)、ルール選択部132は、検出結果に基づいてルールを選択し、例えば、そのルールに基づいて詳細検出器133を起動する(ステップS902)。
On the other hand, if the detection result is P (step S901: Yes), the
ルール選択部132は、詳細検出器の検出結果が所定値Qであるか否かを判断する(ステップS903)。検出結果がQでない場合(ステップS903:No)、ルール選択部132は、ステップS901以降を繰り返す。
The
一方、検出結果がQである場合(ステップS903:Yes)、ルール選択部132は、例えば、評価器134を起動し、その評価値が所定値Rであるか否かを判断する(ステップS904)。評価値がRでない場合(ステップS904:No)、ルール選択部132は、ステップS901以降を繰り返す。
On the other hand, if the detection result is Q (step S903: Yes), the
一方、評価値がRである場合(ステップS904:Yes)、評価器134は、ログを記録し、アラートを出力し(ステップS905)、解析装置130は、解析のための動作を終了する。
On the other hand, if the evaluation value is R (step S904: Yes), the
上述のステップS903乃至S905に表したルールは、ステップS902で選択したルールの一例である。ルールの内容は、同図に例示したものに限定されない。例えば、ルール選択部132は、検出結果がPである場合に詳細検出器133および評価器134の一方のみを起動してもよい。あるいは、評価器134は、ステップS905でアラートの出力のみを行ってもよい。
The rules shown in steps S903 to S905 above are examples of rules selected in step S902. The content of the rules is not limited to the example shown in the figure. For example, the
このように、本技術の第1の実施の形態によれば、統計量演算部232が、フレーム期間内に生成された出力信号の統計量を出力側ニューロン231ごとに演算するため、スパース性を向上させた際に誤った解による性能の低下を抑制することができる。
In this way, according to the first embodiment of the present technology, the
また、積分値が所定範囲外である場合に積分値を出力信号として出力する制限部330をΔΣ型ニューロン300内に設けたため、スパース性を向上させた際の情報のロスを最小限に抑制することができる。
In addition, the
[変形例]
上述の第1の実施の形態では、統計量演算部232が、フレーム期間内の統計量を演算していたが、フレーム期間を可変にすることもできる。この第1の実施の形態の撮像装置100は、簡易検出器200の出力に応じてフレーム期間の長さを制御する点において第1の実施の形態と異なる。
[Modification]
In the first embodiment described above, the
図18は、本技術の第1の実施の形態の第1の変形例における撮像部110の一構成例を示すブロック図である。この第1の実施の形態の第1の変形例における撮像部110は、制御部510をさらに備える点において第1の実施の形態と異なる。制御部510は、例えば、SNN回路500内に設けられる。
FIG. 18 is a block diagram showing an example configuration of the
制御部510は、簡易検出器200の検出結果(すなわち、関数演算部233の解)に応じてフレーム期間の長さを制御するものである。例えば、制御部510は、解が所定の設定値より小さい場合にフレーム期間を所定値より短くし、解が設定値以上の場合にフレーム期間を所定値より長くする。
The
なお、簡易検出器200はLogitを出力することもできる。この場合、例えば、制御部510はLogitから解を求め、その解に応じてフレーム期間を制御する。
The
フレーム期間(言い換えれば、フレームレート)を可変にすることにより、簡易検出器200の出力がスパースな時間帯には簡易検出器200の出力を実質的に間引くような効果が得られる。
By making the frame period (in other words, the frame rate) variable, the effect of essentially thinning out the output of the
また、制御部510は、簡易検出器200の出力頻度が高い場合、重要な情報を受信しているとして解析装置130の動作周波数を高くし、システム全体が必要な動作を行うように効率化することもできる。
In addition, if the output frequency of the
また、制御部510は、簡易検出器200の検出結果(解またはLogit)に応じて、簡易検出器200内のニューロンの閾値を制御することもできる。例えば、制御部510は、解が設定値より大きい時間帯に閾値を大きくし、解が設定値以下の時間帯に閾値を小さくして簡易検出器200の出力を低減させる。前述のΔΣ型ニューロン300の場合、比較閾値と、制限範囲の上限閾値および下限閾値とのそれぞれが制御される。
The
なお、上述のフレーム期間などの制御をSNN回路500内の制御部510で行っているが、この構成に限定されない。SNN回路500の外部、例えば、入力制御部131がフレーム期間などの制御を行うこともできる。
Note that while the control of the frame period and the like is performed by the
このように、本技術の第1の実施の形態の変形例によれば、制御部510が、簡易検出器200の検出結果に応じてフレーム期間の長さを制御するため、検出結果に応じた適切なフレームレートを設定することができる。
In this way, according to the modified example of the first embodiment of the present technology, the
<2.第2の実施の形態>
上述の第1の実施の形態では、SNN回路500内に簡易検出器200を設けていたが、さらに詳細検出器133および評価器134を設けることもできる。この第2の実施の形態における撮像装置100は、SNN回路500内に簡易検出器200、詳細検出器133および評価器134を設けた点において第1の実施の形態と異なる。
2. Second embodiment
In the first embodiment described above, the
図19は、本技術の第2の実施の形態における撮像装置100の一構成例を示すブロック図である。この第2の実施の形態における撮像装置100は、画像センサ120、制御CPU(Central Processing Unit)140およびSNN回路500を備える。
FIG. 19 is a block diagram showing an example configuration of an
SNN回路500のマルチコアアレイ570は複数の領域に分割され、それらの領域により簡易検出器200、詳細検出器133および評価器134の機能が割り当てられる。なお、同図においてルーターおよび入出力インターフェースは省略されている。
The
制御CPU140は、第1の実施の形態の入力制御部131およびルール選択部132の機能を有する。また、制御CPU140は、簡易検出器200、詳細検出器133および評価器134の少なくとも1つの出力状態に基づき、画像センサ120の出力に関する設定値を制御することもできる。例えば、出力される画素の範囲や、画素のゲインなどの特性に関する設定値が制御される。
The
同図に例示するように、SNN回路500内に簡易検出器200、詳細検出器133および評価器134を設けることにより、SNN回路500の外部に詳細検出器133および評価器134を配置する必要が無くなる。
As shown in the figure, by providing a
なお、第2の実施の形態に第1の実施の形態の変形例を適用することもできる。 In addition, a modified version of the first embodiment can also be applied to the second embodiment.
このように、本技術の第2の実施の形態によれば、SNN回路500内に簡易検出器200、詳細検出器133および評価器134を設けたため、SNN回路500の外部に詳細検出器133および評価器134を配置する必要が無くなる。
In this way, according to the second embodiment of the present technology, the
<3.第3の実施の形態>
上述の第1の実施の形態では、簡易検出器200は、Logitから解を演算して検出結果として出力していたが、解を演算せず、Logitをそのまま検出結果として出力することもできる。この第3の実施の形態における撮像装置100は、簡易検出器200がLogitを出力する点において第1の実施の形態と異なる。
3. Third embodiment
In the first embodiment described above, the
図20は、本技術の第3の実施の形態における撮像装置100の一構成例を示すブロック図である。この第3の実施の形態における簡易検出器200は、解を演算せず、Logitを検出結果として入力制御部131に出力する点において第1の実施の形態と異なる。
FIG. 20 is a block diagram showing an example of the configuration of an
また、入力制御部131は、Logitから解を演算し、その解に応じて画像センサ120を制御し、出力先を変更させる。
The
図21は、本技術の第3の実施の形態における解析装置130の動作の一例を示すフローチャートである。この第3の実施の形態における動作は、ステップS901の代わりに、ステップS910、S911およびS912が実行される点において第1の実施の形態と異なる。
FIG. 21 is a flowchart showing an example of the operation of the
入力制御部131は、Logitから解を演算し(ステップS910)、その解が所定値Pであるか否かを判断する(ステップS911)。解がPでない場合(ステップS911:No)、入力制御部131は、ステップS910に戻る。
The
一方、解がPである場合(ステップS911:Yes)、入力制御部131は、画像センサ120の出力先を制御し、解析装置130内の詳細検出器133や評価器134へ画像データを出力させる(ステップS912)。ステップS912の後は、ステップS902以降が実行される。
On the other hand, if the solution is P (step S911: Yes), the
上述したように、入力制御部131がLogitから解を演算することにより、簡易検出器200が解を演算する必要がなくなり、簡易検出器200の処理量を削減することができる。
As described above, by the
なお、第3の実施の形態に第2の実施の形態を適用することができる。 The second embodiment can be applied to the third embodiment.
このように、本技術の第3の実施の形態によれば、入力制御部131がLogitから解を演算するため、簡易検出器200が解を演算する必要がなくなる。
In this way, according to the third embodiment of the present technology, the
<4.第4の実施の形態>
上述の第1の実施の形態では、SNN回路500内に簡易検出器200を設けていたが、さらに詳細検出器133を設けることもできる。この第4の実施の形態における撮像装置100は、SNN回路500内に簡易検出器200および詳細検出器133を設けた点において第1の実施の形態と異なる。
4. Fourth embodiment
In the first embodiment described above, the
図22は、本技術の第4の実施の形態における撮像装置100の一構成例を示すブロック図である。この第4の実施の形態における撮像装置100は、SNN回路500内に詳細検出器133がさらに設けられる点において第1の実施の形態と異なる。
FIG. 22 is a block diagram showing an example configuration of an
同図に例示するように、SNN回路500内に簡易検出器200および詳細検出器133を設けることにより、SNN回路500の外部に詳細検出器133を配置する必要が無くなる。
As shown in the figure, by providing a
なお、第4の実施の形態に第1の実施の形態の変形例や第3の実施の形態を適用することもできる。 In addition, a modified version of the first embodiment or the third embodiment can also be applied to the fourth embodiment.
このように、本技術の第4の実施の形態によれば、SNN回路500内に簡易検出器200、詳細検出器133を設けたため、SNN回路500の外部に詳細検出器133を配置する必要が無くなる。
In this way, according to the fourth embodiment of the present technology, the
<5.第5の実施の形態>
上述の第1の実施の形態では、画像センサ120の外部に簡易検出器200を配置していたが、画像センサ120の内部に簡易検出器200を配置することもできる。この第5の実施の形態における撮像装置100は、画像センサ120内に簡易検出器200を配置した点において第1の実施の形態と異なる。
<5. Fifth embodiment>
In the above-described first embodiment, the
図23は、本技術の第5の実施の形態における撮像装置100の一構成例を示すブロック図である。この第5の実施の形態における撮像装置100は、画像センサ120内に簡易検出器200が配置される点において第1の実施の形態と異なる。
FIG. 23 is a block diagram showing an example of the configuration of an
画像センサ120は、例えば、画素アレイ部121、メモリ122、簡易検出器200およびコントローラー123を備える。簡易検出器200は、SNN回路500に実装される。
The
画素アレイ部121内には、それぞれが画素信号を生成する複数の画素が配列される。メモリ122は、画像データなどの各種のデータを保持するものである。コントローラー123は、画像センサ120内の回路を制御するものである。
In the
画像センサ120内に簡易検出器200を設けることにより、画像センサ120の外部に簡易検出器200を配置する必要がなくなる。
By providing the
図24は、本技術の第5の実施の形態における画像センサ120の積層構造の一例を示す図である。画像センサ120は、ロジックチップ126と、そのロジックチップ126に積層された画素チップ125とを備える。これらのチップは、例えば、Cu-Cu接合により電気的に接続される。なお、Cu-Cu接合の他、ビアやバンプにより接続することもできる。
FIG. 24 is a diagram showing an example of a stacked structure of an
画素チップ125には、画素アレイ部121が配置される。ロジックチップ126には、簡易検出器200などの残りの回路が配置される。
The
なお、画像センサ120内の回路を画素チップ125およびロジックチップ126に配置しているが、それらの回路を単一の半導体チップに配置することもできる。
Note that although the circuits in the
また、第5の実施の形態に、第1の実施の形態の変形例や、第2、第3、第4の実施の形態のそれぞれを適用することができる。 In addition, a modified version of the first embodiment, or each of the second, third, and fourth embodiments can be applied to the fifth embodiment.
このように、本技術の第5の実施の形態によれば、画像センサ120内に簡易検出器200を設けたため、画像センサ120の外部に簡易検出器200を配置する必要がなくなる。
In this way, according to the fifth embodiment of the present technology, since the
<6.第6の実施の形態>
上述の第1の実施の形態では、ルール選択部132が検出結果に基づいてルールを選択していたが、この構成では、簡易検出器200の誤検出などにより、誤ったルールを選択するおそれがある。この第6の実施の形態における撮像装置100は、環境センサからのセンサ信号と検出結果とに基づいてルールを選択する点において第1の実施の形態と異なる。
6. Sixth embodiment
In the first embodiment described above, the
図25は、本技術の第6の実施の形態における撮像装置100の一構成例を示すブロック図である。この第6の実施の形態における撮像装置100は、1つ以上の環境センサ150を備える点において第1の実施の形態と異なる。
FIG. 25 is a block diagram showing an example of the configuration of an
環境センサ150は、画像データと異なるセンサ信号を生成するものである。例えば、温度センサ、湿度センサ、照度センサ、圧力センサ、音響センサや振動センサを環境センサ150として用いることができる。この他、測定対象または測定対象の周囲に取り付けた、近接センサ、接触センサや慣性センサも環境センサ150として用いることができる。環境センサ150のセンサ信号は、入力制御部131を介してルール選択部132に供給される。
The
ルール選択部132は、環境センサ150からのセンサ信号と検出結果とに基づいて、ルールを選択する。例えば、人物が接近したにも関わらず、簡易検出器200が検出に失敗した場合であっても、ルール選択部132は、音響センサや振動センサなどのセンサ信号から、その人物を検知して適切なルールを選択することができる。これにより、簡易検出器200が誤検出した場合や検出漏れが生じた場合に、誤ったルールが選択されることを防止し、システムのロバスト化を図ることができる。
The
また、第6の実施の形態に、第1の実施の形態の変形例や、第2、第3、第4、第5の実施の形態のそれぞれを適用することができる。 Furthermore, a modified version of the first embodiment, or each of the second, third, fourth, and fifth embodiments can be applied to the sixth embodiment.
このように、本技術の第6の実施の形態によれば、ルール選択部132が、環境センサ150からのセンサ信号と検出結果とに基づいてルールを選択するため、システムのロバスト化を図ることができる。
In this way, according to the sixth embodiment of the present technology, the
<7.移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
<7. Examples of applications to moving objects>
The technology according to the present disclosure (the present technology) can be applied to various products. For example, the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, or a robot.
図26は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 FIG. 26 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図26に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
The
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
The drive
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
The body
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
The outside-vehicle
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
The
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
The in-vehicle
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
The
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
The
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
The
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図26の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
The audio/
図27は、撮像部12031の設置位置の例を示す図である。
FIG. 27 shows an example of the installation position of the
図27では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
In FIG. 27, the
撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
The
なお、図27には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
Note that FIG. 27 shows an example of the imaging ranges of the
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
At least one of the
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
For example, the
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
For example, the
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
At least one of the
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図1の撮像装置100は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、スパース性を向上させた際のシステムの性能低下を抑制することが可能になる。
Above, an example of a vehicle control system to which the technology according to the present disclosure can be applied has been described. Of the configurations described above, the technology according to the present disclosure can be applied to the
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。 Note that the above-described embodiment shows an example for realizing the present technology, and there is a corresponding relationship between the matters in the embodiment and the matters specifying the invention in the claims. Similarly, there is a corresponding relationship between the matters specifying the invention in the claims and the matters in the embodiment of the present technology that have the same name. However, the present technology is not limited to the embodiment, and can be realized by making various modifications to the embodiment without departing from the gist of the technology.
なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。 Note that the effects described in this specification are merely examples and are not limiting, and other effects may also be present.
なお、本技術は以下のような構成もとることができる。
(1)中間層からの入力信号に基づいて所定の単位時間が経過するたびに出力信号を生成する所定数の出力側ニューロンと、
前記単位時間より長い所定のフレーム期間内に生成された前記出力信号の統計量を前記出力側ニューロンごとに演算する統計量演算部と
を備える簡易検出器を具備する撮像装置。
(2)前記統計量のそれぞれを所定の関数に入力して得られた演算値を出力する関数演算部をさらに具備する前記(1)記載の撮像装置。
(3)前記簡易検出器の検出結果に応じて前記フレーム期間の長さを制御する制御部をさらに具備する
前記(3)記載の撮像装置。
(4)前記簡易検出器の検出結果に応じて前記簡易検出器内のニューロンの閾値を制御する制御部をさらに具備する
前記(3)記載の撮像装置。
(5)画像データを生成する画像センサをさらに具備し、
前記簡易検出器は、解析により前記画像データから所定の検出対象を検出する
前記(1)から(4)のいずれかに記載の撮像装置。
(6)前記簡易検出器より詳細な解析によって前記画像データから所定の検出対象を検出する詳細検出器と、
前記詳細検出器と異なる解析により前記画像データから評価値を生成する評価器と、
前記簡易検出器の検出結果に基づいて前記詳細検出器および評価器の動作を制御するルールを選択するルール選択部と
をさらに具備する前記(5)記載の撮像装置。
(7)前記簡易検出器および前記詳細検出器は、ニューラルネットワーク回路内に配置される
前記(6)記載の撮像装置。
(8)前記簡易検出器、前記詳細検出器および前記評価器は、ニューラルネットワーク回路内に配置される
前記(6)記載の撮像装置。
(9)前記簡易検出器の検出結果に基づいて前記画像センサの動作を制御する入力制御部をさらに具備する前記(6)から(8)のいずれかに記載の撮像装置。
(10)前記画像データと異なるセンサ信号を出力する環境センサをさらに具備し、
前記ルール選択部は、前記センサ信号と前記簡易検出器の検出結果とに基づいて前記ルールを選択する
前記(6)から(9)のいずれかに記載の撮像装置。
(11)前記簡易検出器は、画像データを生成する画像センサ内に配置される
前記(1)から(10)のいずれかに記載の撮像装置。
(12)前記簡易検出器内のニューロンは、スパイキングニューロンである
前記(1)から(11)のいずれかに記載の撮像装置。
(13)所定数の入力信号の加算値と帰還信号との差分を演算する差分演算器と、
前記差分を積分して積分値を出力する積分器と、
前記積分値が所定範囲外である場合には前記積分値を出力信号として出力する制限部と、
前記出力信号と所定値とを比較して比較結果を供給する比較器と、
前記比較結果を前記帰還信号に変換して帰還させる帰還部と
をニューラルネットワーク内の複数のニューロンのうち少なくとも1つに配置した撮像装置。
(14)中間層からの入力信号に基づいて所定の単位時間が経過するたびに出力信号を生成する所定数の出力側ニューロンと、前記単位時間より長い所定のフレーム期間内に生成された前記出力信号の統計量を前記出力側ニューロンごとに演算する統計量演算部とを備える簡易検出器と、
前記簡易検出器の検出結果に基づいて画像を解析する解析装置と
を具備する撮像システム。
(15)所定数の出力側ニューロンが、中間層からの入力信号に基づいて単位時間が経過するたびに出力信号を生成する手順と、
前記単位時間より長い所定のフレーム期間内に生成された前記出力信号の統計量を前記出力側ニューロンごとに演算する手順と
を具備する撮像装置の制御方法。
The present technology can also be configured as follows.
(1) a predetermined number of output neurons that generate output signals every time a predetermined unit time elapses based on input signals from a hidden layer;
and a statistics calculation unit that calculates, for each output neuron, statistics of the output signals generated within a predetermined frame period that is longer than the unit time.
(2) The imaging device according to (1), further comprising a function calculation unit that inputs each of the statistical quantities to a predetermined function and outputs a calculated value obtained by the input.
(3) The imaging device according to (3), further comprising a control unit that controls a length of the frame period in accordance with a detection result of the simple detector.
(4) The imaging device according to (3), further comprising a control unit that controls a threshold value of a neuron in the simple detector in accordance with a detection result of the simple detector.
(5) further comprising an image sensor for generating image data;
The imaging device according to any one of (1) to (4), wherein the simplified detector detects a predetermined detection target from the image data by analysis.
(6) a detailed detector for detecting a predetermined detection target from the image data by a more detailed analysis than the simple detector; and
an evaluator that generates an evaluation value from the image data by an analysis different from that of the detail detector;
The imaging device according to (5), further comprising a rule selection unit that selects a rule for controlling operations of the detailed detector and the evaluator based on a detection result of the simple detector.
(7) The imaging device according to (6), wherein the simple detector and the detailed detector are arranged within a neural network circuit.
(8) The imaging device according to (6), wherein the simple detector, the detailed detector and the evaluator are arranged in a neural network circuit.
(9) The imaging device according to any one of (6) to (8), further comprising an input control unit that controls an operation of the image sensor based on a detection result of the simple detector.
(10) Further comprising an environmental sensor that outputs a sensor signal different from the image data;
The imaging device according to any one of (6) to (9), wherein the rule selection unit selects the rule based on the sensor signal and a detection result of the simple detector.
(11) The imaging device according to any one of (1) to (10), wherein the simple detector is disposed within an image sensor that generates image data.
(12) The imaging device according to any one of (1) to (11), wherein the neuron in the simple detector is a spiking neuron.
(13) a difference calculator that calculates a difference between an added value of a predetermined number of input signals and a feedback signal;
an integrator that integrates the difference and outputs an integral value;
a limiting unit that outputs the integral value as an output signal when the integral value is outside a predetermined range;
a comparator for comparing the output signal with a predetermined value and providing a comparison result;
a feedback section that converts the comparison result into the feedback signal and feeds it back, the feedback section being disposed in at least one of a plurality of neurons in the neural network.
(14) A simplified detector including: a predetermined number of output side neurons that generate output signals every time a predetermined unit time elapses based on an input signal from an intermediate layer; and a statistics calculation unit that calculates, for each of the output side neurons, statistics of the output signals generated within a predetermined frame period that is longer than the unit time;
and an analysis device that analyzes an image based on a detection result of the simple detector.
(15) a step in which a predetermined number of output neurons generate output signals every time a unit time elapses based on input signals from the intermediate layer;
and calculating, for each of the output neurons, a statistical amount of the output signals generated within a predetermined frame period longer than the unit time.
100 撮像装置
110、110-1、110-2 撮像部
120 画像センサ
121 画素アレイ部
122 メモリ
123 コントローラー
125 画素チップ
126 ロジックチップ
130 解析装置
131 入力制御部
132 ルール選択部
133 詳細検出器
134 評価器
140 制御CPU
150 環境センサ
200 簡易検出器
210 入力層
211、212 畳み込み層
213 プーリング層
220 中間層
230 出力層
231 出力側ニューロン
232 統計量演算部
233 関数演算部
300 ΔΣ型ニューロン
310 差分演算器
320 積分器
330 制限部
340 比較器
350 帰還部
500 SNN回路
510 制御部
560 入出力インターフェース
570 マルチコアアレイ
580 ルーター
581~585 FIFOメモリ
586 アービタ
590 コア
591 コアルーター
592 ニューロンI/O
593 積和ユニット
594 ワークメモリ
595 膜電位メモリ
596 LIFユニット
600 プロセッサ
12031 撮像部
REFERENCE SIGNS
150
593 Product-
Claims (15)
前記単位時間より長い所定のフレーム期間内に生成された前記出力信号の統計量を前記出力側ニューロンごとに演算する統計量演算部と
を備える簡易検出器を具備する撮像装置。 a predetermined number of output side neurons that generate output signals every time a predetermined unit time elapses based on input signals from the intermediate layer;
and a statistics calculation unit that calculates, for each output neuron, statistics of the output signals generated within a predetermined frame period that is longer than the unit time.
請求項3記載の撮像装置。 4. The imaging device according to claim 3, further comprising a control unit that controls the length of the frame period in response to a detection result of the simple detector.
請求項3記載の撮像装置。 4. The imaging apparatus according to claim 3, further comprising a control unit for controlling a threshold value of a neuron in the simple detector in response to a detection result of the simple detector.
前記簡易検出器は、解析により前記画像データから所定の検出対象を検出する
請求項1記載の撮像装置。 further comprising an image sensor for generating image data;
The imaging device according to claim 1 , wherein the simplified detector detects a predetermined detection target from the image data by analysis.
前記詳細検出器と異なる解析により前記画像データから評価値を生成する評価器と、
前記簡易検出器の検出結果に基づいて前記詳細検出器および評価器の動作を制御するルールを選択するルール選択部と
をさらに具備する請求項5記載の撮像装置。 a detailed detector for detecting a predetermined detection target from the image data by a more detailed analysis than the simple detector;
an evaluator that generates an evaluation value from the image data by an analysis different from that of the detail detector;
6. The imaging apparatus according to claim 5, further comprising a rule selection unit that selects a rule for controlling operations of the detailed detector and the evaluator based on a detection result of the simple detector.
請求項6記載の撮像装置。 7. The imaging device of claim 6, wherein the simple detector and the detailed detector are arranged in a neural network circuit.
請求項6記載の撮像装置。 7. The imaging device according to claim 6, wherein the simple detector, the detailed detector and the evaluator are arranged in a neural network circuit.
前記ルール選択部は、前記センサ信号と前記簡易検出器の検出結果とに基づいて前記ルールを選択する
請求項6記載の撮像装置。 An environmental sensor that outputs a sensor signal different from the image data,
The imaging device according to claim 6 , wherein the rule selection section selects the rule based on the sensor signal and a detection result of the simple detector.
請求項1記載の撮像装置。 The imaging device of claim 1 , wherein the simplified detector is disposed within an image sensor that generates image data.
請求項1記載の撮像装置。 2. The imaging device according to claim 1, wherein the neurons in the simplified detector are spiking neurons.
前記差分を積分して積分値を出力する積分器と、
前記積分値が所定範囲外である場合には前記積分値を出力信号として出力する制限部と、
前記出力信号と所定値とを比較して比較結果を供給する比較器と、
前記比較結果を前記帰還信号に変換して帰還させる帰還部と
をニューラルネットワーク内の複数のニューロンのうち少なくとも1つに配置した撮像装置。 a difference calculator that calculates a difference between an added value of a predetermined number of input signals and a feedback signal;
an integrator that integrates the difference and outputs an integral value;
a limiting unit that outputs the integral value as an output signal when the integral value is outside a predetermined range;
a comparator for comparing the output signal with a predetermined value and providing a comparison result;
a feedback section that converts the comparison result into the feedback signal and feeds it back, the feedback section being disposed in at least one of a plurality of neurons in the neural network.
前記簡易検出器の検出結果に基づいて画像を解析する解析装置と
を具備する撮像システム。 a simplified detector including a predetermined number of output side neurons that generate output signals every time a predetermined unit time elapses based on input signals from a hidden layer, and a statistics calculation unit that calculates statistics of the output signals generated within a predetermined frame period that is longer than the unit time for each of the output side neurons;
and an analysis device that analyzes an image based on a detection result of the simple detector.
前記単位時間より長い所定のフレーム期間内に生成された前記出力信号の統計量を前記出力側ニューロンごとに演算する手順と
を具備する撮像装置の制御方法。 A step in which a predetermined number of output neurons generate output signals every time a unit time elapses based on input signals from the hidden layer;
and calculating, for each of the output neurons, a statistical amount of the output signals generated within a predetermined frame period longer than the unit time.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023087403 | 2023-05-29 | ||
| JP2023-087403 | 2023-05-29 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024247481A1 true WO2024247481A1 (en) | 2024-12-05 |
Family
ID=93657693
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/013809 Pending WO2024247481A1 (en) | 2023-05-29 | 2024-04-03 | Imaging device, imaging system, and imaging device control method |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2024247481A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09307452A (en) * | 1995-12-27 | 1997-11-28 | Sony Corp | Digital signal processing apparatus and method |
| JPH11252450A (en) * | 1998-03-06 | 1999-09-17 | Canon Inc | Image processing apparatus and computer-readable storage medium |
| US20030220731A1 (en) * | 2002-05-22 | 2003-11-27 | Zierolf Michael Lee | Wheel deceleration-based antiskid brake controller with adaptive deceleration threshold |
| JP2021517704A (en) * | 2018-03-14 | 2021-07-26 | シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. | Methods and equipment for data refresh of analog non-volatile memory in deep learning neural networks |
| US20220188410A1 (en) * | 2020-12-15 | 2022-06-16 | Oracle International Corporation | Coping with feature error suppression: a mechanism to handle the concept drift |
-
2024
- 2024-04-03 WO PCT/JP2024/013809 patent/WO2024247481A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09307452A (en) * | 1995-12-27 | 1997-11-28 | Sony Corp | Digital signal processing apparatus and method |
| JPH11252450A (en) * | 1998-03-06 | 1999-09-17 | Canon Inc | Image processing apparatus and computer-readable storage medium |
| US20030220731A1 (en) * | 2002-05-22 | 2003-11-27 | Zierolf Michael Lee | Wheel deceleration-based antiskid brake controller with adaptive deceleration threshold |
| JP2021517704A (en) * | 2018-03-14 | 2021-07-26 | シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. | Methods and equipment for data refresh of analog non-volatile memory in deep learning neural networks |
| US20220188410A1 (en) * | 2020-12-15 | 2022-06-16 | Oracle International Corporation | Coping with feature error suppression: a mechanism to handle the concept drift |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113615161B (en) | Object detection device, object detection system and object detection method | |
| US20140160252A1 (en) | Redundant object detection for driver assistance systems | |
| WO2020195934A1 (en) | Data processing device, data processing method, and program | |
| WO2021100593A1 (en) | Ranging device and ranging method | |
| US20220237921A1 (en) | Outside environment recognition device | |
| US20210039660A1 (en) | Anomaly Detector For Vehicle Control Signals | |
| JP2022147742A (en) | Mobile body control device, control method, and vehicle | |
| WO2020250519A1 (en) | Outside environment recognition device | |
| JP7490653B2 (en) | Measurement device, measurement method, and program | |
| WO2024247481A1 (en) | Imaging device, imaging system, and imaging device control method | |
| JP7298323B2 (en) | External environment recognition device | |
| US20240177485A1 (en) | Sensor device and semiconductor device | |
| CN113661700B (en) | Image forming apparatus and image forming method | |
| JP7645226B2 (en) | Sensing and ranging systems | |
| JP7181956B2 (en) | Mobile body control device, control method, and vehicle | |
| US11722804B2 (en) | Imaging device and imaging system having a stacked structure for pixel portion and signal processing circuit portion | |
| WO2025057566A1 (en) | Solid-state imaging element, electronic device, and method for controlling solid-state imaging element | |
| WO2025004532A1 (en) | Abnormality detection circuit, abnormality detection method, and imaging system | |
| WO2025192222A1 (en) | Light detection device, light detection method, and electronic equipment | |
| WO2024135095A1 (en) | Photodetection device and control method for photodetection device | |
| WO2025013429A1 (en) | Distance measuring system, light emitting device, and light receiving device | |
| WO2025192071A1 (en) | Distance measurement device and distance measurement method | |
| JP2025021549A (en) | Anomaly detection device | |
| WO2024135094A1 (en) | Photodetector device and photodetector device control method | |
| WO2025173272A1 (en) | Monitoring device and monitoring method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24814968 Country of ref document: EP Kind code of ref document: A1 |