WO2025084081A1 - Imaging system and method used for same - Google Patents
Imaging system and method used for same Download PDFInfo
- Publication number
- WO2025084081A1 WO2025084081A1 PCT/JP2024/034106 JP2024034106W WO2025084081A1 WO 2025084081 A1 WO2025084081 A1 WO 2025084081A1 JP 2024034106 W JP2024034106 W JP 2024034106W WO 2025084081 A1 WO2025084081 A1 WO 2025084081A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- wavelength
- images
- processing circuit
- wavelength range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
Definitions
- This disclosure relates to an imaging system and a method used therein.
- Compressed sensing is a technique that reconstructs more data than is observed by assuming that the data distribution of the observed object is sparse in a certain space, such as frequency space. Compressed sensing can be applied, for example, to an imaging device that reconstructs an image containing more information from a small amount of observed data. An imaging device to which compressed sensing is applied generates a reconstructed image by calculation from an image in which the spectral information of the object is compressed.
- Patent Document 1 discloses an example of applying compressed sensing technology to a hyperspectral camera that captures images in multiple narrow wavelength bands.
- the technology disclosed in Patent Document 1 makes it possible to realize a hyperspectral camera that generates high-resolution, multi-wavelength images.
- a system includes an imaging device that detects light in a first wavelength range and generates an image signal in which components of N wavelength bands (N is an integer equal to or greater than 4) included in the first wavelength range are superimposed, and a processing circuit that generates N images corresponding to the N wavelength bands based on the image signal, and when the N wavelength bands are numbered in ascending or descending order of central wavelength, the processing circuit performs processing operations based on some or all of the remaining images of the N images, excluding a first image corresponding to the first wavelength band and an Nth image corresponding to the Nth wavelength band.
- the general or specific aspects of the present disclosure may be realized in a system, an apparatus, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable recording disk, or may be realized in any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a recording medium.
- the computer-readable recording medium may include a non-volatile recording medium such as a CD-ROM (Compact Disc-Read Only Memory).
- An apparatus may be composed of one or more devices. When an apparatus is composed of two or more devices, the two or more devices may be arranged in one device, or may be arranged separately in two or more separate devices.
- "apparatus" may mean not only one device, but also a system consisting of multiple devices.
- the technology disclosed herein makes it possible to realize a system that can perform more accurate processing based on a restored image generated from an image with compressed spectral information.
- FIG. 1A is a diagram illustrating a schematic configuration example of an imaging system.
- FIG. 1B is a diagram illustrating a schematic configuration example of another imaging system.
- FIG. 1C is a diagram illustrating a schematic configuration example of still another imaging system.
- FIG. 1D is a diagram illustrating a schematic configuration example of still another imaging system.
- FIG. 2A is a schematic diagram illustrating an example of a filter array.
- FIG. 2B is a diagram showing an example of the spatial distribution of the light transmittance of each of the wavelength bands W 1 , W 2 , . . . , W N included in the target wavelength range.
- FIG. 2C is a diagram showing an example of the spectral transmittance of the area A1 included in the filter array shown in FIG. 2A.
- FIG. 2D is a diagram showing an example of the spectral transmittance of the area A2 included in the filter array shown in FIG. 2A.
- FIG. 3 is a diagram for explaining an example of the relationship between the target wavelength range W and the wavelength bands W 1 , W 2 , . . . , W N included therein.
- FIG. 4A is a diagram for explaining the characteristics of the spectral transmittance in a certain region of the filter array.
- FIG. 4B is a diagram showing the results of averaging the spectral transmittance shown in FIG. 4A for each of the wavelength bands W 1 , W 2 , . . . , W N.
- FIG. 4A is a diagram for explaining the characteristics of the spectral transmittance in a certain region of the filter array.
- FIG. 4B is a diagram showing the results of averaging the spectral transmittance shown in FIG. 4A for each of the wavelength bands W 1 , W 2 , . . .
- FIG. 5A is a cross-sectional view that illustrates an example of an imaging device included in the imaging system according to this embodiment.
- FIG. 5B is a cross-sectional view that illustrates a schematic diagram of another example of the imaging device included in the imaging system according to this embodiment.
- FIG. 6 is a diagram showing an example of a calculation result of a transmission spectrum of a filter.
- FIG. 7 is a diagram illustrating an example of the configuration of an imaging system that performs more accurate processing based on a restored image.
- FIG. 8 is a diagram for explaining the processing operation executed by the processing circuit in the imaging system according to the present embodiment.
- FIG. 9 is a flowchart illustrating an example 1 of a processing operation performed by the processing circuit.
- FIG. 10 is a flowchart illustrating a second example of the processing operation performed by the processing circuit.
- FIG. 11 is a flowchart illustrating an example 3 of the processing operation performed by the processing circuit.
- FIG. 12 is a diagram illustrating an example of luminance information displayed on the display device.
- FIG. 13 is a flowchart illustrating an example 4 of the processing operation performed by the processing circuit.
- FIG. 14 is a flowchart illustrating a fifth example of the processing operation performed by the processing circuit.
- FIG. 15 is a flowchart illustrating an example 6 of the processing operation performed by the processing circuit.
- all or part of a circuit, unit, device, member, or part, or all or part of a functional block in a block diagram may be implemented by one or more electronic circuits including, for example, a semiconductor device, a semiconductor integrated circuit (IC), or an LSI (large scale integration).
- the LSI or IC may be integrated into one chip, or may be configured by combining multiple chips.
- functional blocks other than memory elements may be integrated into one chip.
- LSI or IC are referred to as different names depending on the degree of integration, and may be referred to as a system LSI, VLSI (very large scale integration), or ULSI (ultra large scale integration).
- FPGAs Field programmable gate arrays
- reconfigurable logic devices which allow the reconfiguration of the connections inside the LSI or the setup of circuit sections inside the LSI, can also be used for the same purpose.
- all or part of the functions or operations of a circuit, unit, device, member or part can be executed by software processing.
- the software is recorded on one or more non-transitory recording media such as ROMs, optical disks, hard disk drives, etc., and when the software is executed by a processor, the functions specified in the software are executed by the processor and peripheral devices.
- the system or device may include one or more non-transitory recording media on which the software is recorded, a processor, and necessary hardware devices, such as interfaces.
- light refers to electromagnetic waves including not only visible light (wavelengths of about 400 nm to about 700 nm), but also ultraviolet light (wavelengths of about 10 nm to about 400 nm) and infrared light (wavelengths of about 700 nm to about 1 mm).
- Hyperspectral cameras can acquire multi-wavelength images that contain a lot of spectral information for each pixel, so their use is expected to become more widespread in the future. While research and development of hyperspectral cameras has been conducted around the world for many years, their use has been limited for the following reasons. For example, line-scan hyperspectral cameras have high spatial and wavelength resolution, but the shooting time is long due to the line scan. Snapshot hyperspectral cameras can take images in one shot, but the sensitivity and spatial resolution are often insufficient.
- sparsity is the property that elements that characterize an observed object exist sparsely in a certain space, such as frequency space. Sparsity is widely observed in nature. By utilizing sparsity, it becomes possible to observe necessary information efficiently. Sensing technology that utilizes sparsity is called compressed sensing technology. By utilizing compressed sensing technology, it is possible to build highly efficient devices and systems.
- the hyperspectral camera includes, for example, an optical filter with irregular light transmission characteristics in terms of space and/or wavelength.
- Such an optical filter is also called an "encoding mask.”
- the encoding mask is placed on the optical path of light incident on the image sensor, and transmits light incident from an object with different light transmission characteristics depending on the area. This process using the encoding mask is called "encoding.”
- the spectral information of the object is compressed. The image is called a "compressed image.”
- Mask information indicating the light transmission properties of the encoding mask is stored in advance in a storage device as a restoration table.
- the processing device of the imaging device performs restoration processing based on the compressed image and the restoration table.
- the restoration processing can obtain more information than the compressed image, such as image information with higher resolution or image information with more wavelengths.
- the restoration table can be, for example, data indicating the spatial distribution of the optical response characteristics of the coding mask.
- the restoration processing based on such a restoration table can generate multiple restored images from one compressed image, each corresponding to multiple wavelength bands included in the target wavelength range. In the following description, “multiple restored images” will also be simply referred to as "restored image”.
- the two restored images correspond to the wavelength bands at both ends of the target wavelength range. "The wavelength bands at both ends” refers to the wavelength band with the longest central wavelength and the wavelength band with the shortest central wavelength.
- the inventors have considered the above problems and come up with a system according to an embodiment of the present disclosure that is capable of performing more accurate processing based on the restored images.
- processing is performed based on some or all of the remaining restored images.
- the two restored images corresponding to the wavelength bands at both ends are not used in this processing. As a result, it becomes possible to perform more accurate processing based on the restored images.
- FIG. 1A is a diagram showing a schematic configuration example of an imaging system.
- the system shown in FIG. 1A includes an imaging device 100 and an image processing device 200.
- the imaging device 100 has a configuration similar to that of the imaging device disclosed in Patent Document 1.
- the imaging device 100 includes an optical system 140, a filter array 110, and an image sensor 160.
- the optical system 140 and the filter array 110 are disposed on the optical path of light incident from an object 70, which is a subject.
- the filter array 110 in the example of FIG. 1A is disposed between the optical system 140 and the image sensor 160.
- FIG. 1A illustrates an apple as an example of the object 70.
- the object 70 is not limited to an apple, and may be any object.
- the image sensor 160 generates data of a compressed image 10 in which information of a plurality of wavelength bands is compressed as a two-dimensional monochrome image.
- the image processing device 200 generates data representing a plurality of images corresponding one-to-one to a plurality of wavelength bands included in a predetermined target wavelength range based on the data of the compressed image 10 generated by the image sensor 160.
- the number of wavelength bands included in the target wavelength range is N (N is an integer of 4 or more).
- the N images generated based on the compressed image 10 are referred to as restored images 20W 1 , 20W 2 , ..., 20W N , and these may be collectively referred to as "hyperspectral images 20".
- the filter array 110 is an array of multiple light-transmitting filters arranged in rows and columns.
- the multiple filters include multiple types of filters that differ from one another in terms of spectral transmittance, i.e., the wavelength dependency of light transmittance.
- the filter array 110 modulates the intensity of incident light for each wavelength and outputs it. This process performed by the filter array 110 is called “encoding,” and the filter array 110 is also called an "encoding mask.”
- the filter array 110 is disposed near or directly above the image sensor 160.
- “near” means close enough that a reasonably clear image of the light from the optical system 140 is formed on the surface of the filter array 110.
- “Directly above” means that the two are so close that there is almost no gap between them.
- the filter array 110 and the image sensor 160 may be integrated.
- Optical system 140 includes at least one lens. In FIG. 1A, optical system 140 is shown as a single lens, but optical system 140 may be a combination of multiple lenses. Optical system 140 forms an image on the imaging surface of image sensor 160 through filter array 110.
- FIGS. 1B to 1D are diagrams showing configuration examples of the imaging device 100 in which the filter array 110 is disposed away from the image sensor 160.
- the filter array 110 is disposed between the optical system 140 and the image sensor 160 and at a position distant from the image sensor 160.
- the filter array 110 is disposed between the object 70 and the optical system 140.
- the imaging device 100 includes two optical systems 140A and 140B, and the filter array 110 is disposed between them.
- an optical system including one or more lenses may be disposed between the filter array 110 and the image sensor 160.
- the image sensor 160 is a monochrome type light detection device having a plurality of light detection elements (also referred to as "pixels" in this specification) arranged two-dimensionally.
- the image sensor 160 may be, for example, a CCD (Charge-Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) sensor, or an infrared array sensor.
- the light detection elements include, for example, photodiodes.
- the image sensor 160 does not necessarily have to be a monochrome type sensor. For example, a color type sensor may be used.
- the color type sensor may include, for example, a plurality of red (R) filters that transmit red light, a plurality of green (G) filters that transmit green light, and a plurality of blue (B) filters that transmit blue light.
- the color type sensor may further include a plurality of IR filters that transmit infrared light.
- the color type sensor may also include a plurality of transparent filters that transmit all red, green, and blue light.
- FIG. 2A is a diagram showing a schematic example of a filter array 110.
- the filter array 110 has a number of regions arranged two-dimensionally. In this specification, each of the multiple regions may be referred to as a "cell.”
- An optical filter having an individually set spectral transmittance is disposed in each region.
- the spectral transmittance is expressed as a function T( ⁇ ), where ⁇ is the wavelength of the incident light.
- the spectral transmittance T( ⁇ ) can take a value between 0 and 1.
- the filter array 110 has 48 rectangular regions arranged in 6 rows and 8 columns. This is merely an example, and in actual applications, more regions may be provided. The number may be approximately the same as the number of pixels in the image sensor 160, for example. The number of filters included in the filter array 110 is determined according to the application, ranging from tens to tens of millions, for example.
- FIG. 2B is a diagram showing an example of the spatial distribution of the light transmittance of each of the wavelength bands W1 , W2 , ..., WN included in the target wavelength range.
- the difference in the shading of each region represents the difference in the transmittance. The lighter the region, the higher the transmittance, and the darker the region, the lower the transmittance.
- the spatial distribution of the light transmittance differs depending on the wavelength band.
- 2C and 2D are diagrams showing examples of the spectral transmittance of the region A1 and the region A2 included in the filter array 110 shown in FIG. 2A, respectively.
- the spectral transmittance of the region A1 and the spectral transmittance of the region A2 are different from each other. In this way, the spectral transmittance of the filter array 110 varies depending on the region. However, it is not necessary that the spectral transmittance of all the regions is different.
- the spectral transmittance of at least some of the multiple regions is different from each other.
- the filter array 110 includes two or more filters having different spectral transmittances from each other.
- the number of patterns of the spectral transmittance of the multiple regions included in the filter array 110 may be the same as or greater than the number N of wavelength bands included in the target wavelength range.
- the filter array 110 may be designed so that the spectral transmittance of more than half of the regions is different.
- FIG. 3 is a diagram for explaining the relationship between the target wavelength range W and the wavelength bands W 1 , W 2 , ..., W N included therein.
- the target wavelength range W can be set to various ranges depending on the application.
- the target wavelength range W can be, for example, a visible light wavelength range of about 400 nm to about 700 nm, a near-infrared wavelength range of about 700 nm to about 2500 nm, or a near-ultraviolet wavelength range of about 10 nm to about 400 nm.
- the target wavelength range W may be a wavelength range such as mid-infrared or far-infrared. In this way, the wavelength range used is not limited to the visible light range.
- radiation in general, including infrared and ultraviolet rays is referred to as "light" not limited to visible light.
- N is an arbitrary integer equal to or greater than 4, and the wavelength bands obtained by equally dividing the target wavelength range W into N are wavelength bands W1 , W2 , ..., WN .
- the multiple wavelength bands included in the target wavelength range W may be set arbitrarily.
- the bandwidths of the wavelength bands may be made non-uniform.
- FIG. 4A is a diagram for explaining the characteristics of the spectral transmittance in a certain region of the filter array 110.
- the spectral transmittance has multiple maximum values P1 to P5 and multiple minimum values with respect to wavelengths in the target wavelength range W.
- the maximum value of the light transmittance in the target wavelength range W is normalized to 1 and the minimum value is 0.
- the spectral transmittance has maximum values in wavelength ranges such as wavelength band W 2 and wavelength band W N-1 .
- the spectral transmittance of each region can be designed to have maximum values in at least two wavelength ranges among the wavelength bands W 1 , W 2 , ..., W N.
- the maximum values P1, P3, P4, and P5 are 0.5 or more.
- the filter array 110 transmits a large amount of components in a certain wavelength range among the incident light, and does not transmit components in other wavelength ranges as much.
- the transmittance of light in k wavelength bands out of the N wavelength bands may be greater than 0.5, and the transmittance of light in the remaining N-k wavelength bands may be less than 0.5, where k is an integer satisfying 2 ⁇ k ⁇ N. If the incident light is white light that contains all visible light wavelength components evenly, the filter array 110 modulates the incident light into light having multiple discrete intensity peaks with respect to wavelength for each region, and outputs this multi-wavelength light by superimposing it.
- FIG. 4B is a diagram showing an example of the spectral transmittance shown in FIG. 4A averaged for each wavelength band W 1 , W 2 , ..., W N.
- the averaged transmittance is obtained by integrating the spectral transmittance T( ⁇ ) for each wavelength band and dividing by the bandwidth of the wavelength band.
- the transmittance averaged for each wavelength band is defined as the transmittance for that wavelength band.
- the transmittance is remarkably high in three wavelength ranges with maximum values P1, P3, and P5. In particular, the transmittance exceeds 0.8 in two wavelength ranges with maximum values P3 and P5.
- a grayscale transmittance distribution is assumed in which the transmittance of each region can take any value between 0 and 1 inclusive.
- a binary scale transmittance distribution may be used in which the transmittance of each region can take a value of either approximately 0 or approximately 1.
- each region transmits most of the light in at least two of the multiple wavelength ranges included in the target wavelength range, and does not transmit most of the light in the remaining wavelength ranges.
- "most" refers to approximately 80% or more.
- a part of all the cells may be replaced with a transparent region.
- a transparent region transmits the light of each of the wavelength bands W 1 , W 2 , ..., W N included in the target wavelength range W with a similarly high transmittance, for example, a transmittance of 80% or more.
- the multiple transparent regions may be arranged, for example, in a checkerboard pattern. That is, in two arrangement directions of the multiple regions in the filter array 110, regions whose light transmittance varies depending on the wavelength and transparent regions may be arranged alternately.
- the data showing the spatial distribution of the spectral transmittance of the filter array 110 is acquired in advance based on design data or actual measurement calibration, and is stored in a storage medium provided in the image processing device 200. This data is used in the calculation processing described below.
- the filter array 110 may be configured using, for example, a multilayer film, an organic material, a diffraction grating structure, a microstructure including a metal, or a metasurface.
- a multilayer film for example, a dielectric multilayer film or a multilayer film including a metal layer may be used.
- at least one of the thickness, material, and stacking order of each multilayer film is formed so that it differs for each cell. This allows different spectral characteristics to be realized for each cell.
- a configuration using an organic material can be realized by making the pigment or dye contained different for each cell, or by stacking different materials.
- a configuration using a diffraction grating structure can be realized by providing a diffraction structure with a different diffraction pitch or depth for each cell.
- a microstructure including a metal can be created by utilizing the spectrum due to the plasmon effect.
- a metasurface can be created by microfabricating a dielectric material in a size smaller than the wavelength of the incident light.
- the refractive index for the incident light is spatially modulated.
- the incident light may be encoded by directly processing a plurality of pixels included in the image sensor 160 without using the filter array 110.
- the imaging device 100 has multiple light receiving areas with different optical response characteristics.
- the imaging device 100 is equipped with a filter array 110 including multiple filters, and the multiple filters have optical transmission characteristics that are irregularly different from one another
- the multiple light receiving areas can be realized by an image sensor 160 in which the filter array 110 is disposed nearby or directly above it.
- the optical response characteristics of the multiple light receiving areas are determined based on the optical transmission characteristics of the multiple filters included in the filter array 110.
- the multiple light receiving regions can be realized by, for example, an image sensor 160 in which multiple pixels are directly processed so that their photoresponse characteristics are irregularly different from one another.
- the photoresponse characteristics of the multiple light receiving regions are determined based on the photoresponse characteristics of the multiple pixels included in the image sensor 160.
- the above multilayer film, organic material, diffraction grating structure, microstructure including metal, or metasurface can encode incident light if it is configured such that the spectral transmittance is modulated to vary depending on the position in a two-dimensional plane. Therefore, the above multilayer film, organic material, diffraction grating structure, microstructure including metal, or metasurface does not need to be configured with multiple filters arranged in an array.
- the image processing device 200 reconstructs a multi-wavelength hyperspectral image 20 based on the compressed image 10 output from the image sensor 160 and the spatial distribution characteristics of the transmittance for each wavelength of the filter array 110.
- multi-wavelength means more wavelength ranges than the wavelength ranges of the three colors RGB captured by a normal color camera, for example.
- the number of wavelength ranges can be, for example, about 4 to 100. This number of wavelength ranges is referred to as the "number of bands.” Depending on the application, the number of bands may exceed 100.
- the data to be obtained is the data of the hyperspectral image 20, and the data is denoted as f.
- f is data obtained by integrating data f 1 , f 2 , ..., f N of N image bands.
- the horizontal direction of the image is the x direction
- the vertical direction of the image is the y direction.
- m the number of pixels in the x direction of the image data to be obtained
- n the number of pixels in the y direction
- each of the image data f 1 , f 2 , ..., f N has n x m brightness values. Therefore, the data f is data with n x m x N elements.
- the number of elements of the data g of the compressed image 10 obtained by encoding and multiplexing by the filter array 110 is n x m.
- the data g can be expressed by the following formula (1).
- f represents the data of the hyperspectral image expressed as a one-dimensional vector.
- Each of f 1 , f 2 , ..., f N has n x m elements. Therefore, the vector on the right side is a one-dimensional vector with n x m x N rows and one column.
- the data g of the compressed image is calculated as a one-dimensional vector with n x m rows and one column.
- the matrix H represents a transformation in which each component f 1 , f 2 , ..., f N of the vector f is encoded and intensity-modulated with different encoding information for each wavelength band, and then added. Therefore, H is a matrix with n x m rows and n x m x N columns.
- pg ij represents the luminance value of the i-th row and j-th column of the compressed image 10 .
- the image processing device 200 utilizes the sparsity of the image contained in the data f to find a solution using a compressed sensing technique.
- the desired data f is estimated by solving the following equation (2).
- f' represents the estimated f data.
- the first term in the parentheses in the above equation represents the amount of deviation between the estimated result Hf and the acquired data g, the so-called residual term.
- the sum of squares is used as the residual term, but the absolute value or the square root of the sum of squares, etc. may also be used as the residual term.
- the second term in the parentheses is a regularization term or stabilization term. Equation (2) means to find f that minimizes the sum of the first and second terms.
- the function in the parentheses in equation (2) is called the evaluation function.
- the image processing device 200 can converge the solution by recursive iterative calculations and calculate f that minimizes the evaluation function as the final solution f'.
- the first term in the parentheses in formula (2) means an operation to obtain the sum of squares of the difference between the acquired data g and Hf obtained by transforming f in the estimation process by the matrix H.
- the second term ⁇ (f) is a constraint condition in the regularization of f, and is a function reflecting the sparse information of the estimated data. This function has the effect of smoothing or stabilizing the estimated data.
- the regularization term can be expressed, for example, by the discrete cosine transform (DCT), wavelet transform, Fourier transform, or total variation (TV) of f. For example, when the total variation is used, stable estimated data that suppresses the influence of noise in the observed data g can be obtained.
- the sparsity of the object 70 in the space of each regularization term differs depending on the texture of the object 70.
- a regularization term that makes the texture of the object 70 sparser in the space of the regularization term may be selected.
- multiple regularization terms may be included in the operation.
- ⁇ is a weighting coefficient. The larger the weighting factor ⁇ , the more redundant data is reduced, and the higher the compression ratio. The smaller the weighting factor ⁇ , the weaker the convergence to a solution.
- the weighting factor ⁇ is set to an appropriate value that allows f to converge to a certain extent, but does not result in over-compression.
- the image encoded by the filter array 110 is acquired in a blurred state on the imaging surface of the image sensor 160. Therefore, the hyperspectral image 20 can be reconstructed by storing this blur information in advance and reflecting the blur information in the above-mentioned matrix H.
- the blur information is represented by a point spread function (PSF).
- the PSF is a function that defines the degree of spread of a point image to surrounding pixels. For example, when a point image corresponding to one pixel on an image spreads to a region of k ⁇ k pixels around the pixel due to blurring, the PSF can be defined as a group of coefficients that indicate the influence on the luminance value of each pixel in that region, that is, a matrix.
- the hyperspectral image 20 can be reconstructed by reflecting the influence of blurring of the encoding pattern by the PSF in the matrix H.
- the position at which the filter array 110 is arranged is arbitrary, but a position at which the encoding pattern of the filter array 110 does not diffuse too much and disappear can be selected.
- the hyperspectral image 20 can be restored based on the compressed image 10 acquired by the image sensor 160. Details of the method for restoring the hyperspectral image 20 are disclosed in Patent Document 1. The entire disclosure of Patent Document 1 is incorporated herein by reference.
- FIG. 5A is a cross-sectional view that shows a schematic example of an imaging device 100 included in the imaging system according to this embodiment.
- the imaging device 100 includes a filter array 110 and an image sensor 60.
- the optical system 140 is omitted.
- the filter array 110 comprises a plurality of filters 112 arranged two-dimensionally.
- the plurality of filters 112 are arranged in rows and columns, for example, as shown in FIG. 2A.
- FIG. 5A shows a schematic cross-sectional structure of one row shown in FIG. 2A.
- Each of the plurality of filters 112 is a Fabry-Perot filter and has a resonant structure.
- a resonant structure means a structure in which light of a certain wavelength exists stably by forming a standing wave inside. This state of light is sometimes called a "resonant mode.”
- the resonant structure shown in FIG. 5A includes a first reflective layer 28a, a second reflective layer 28b, and an intermediate layer 26 between the first reflective layer 28a and the second reflective layer 28b.
- the first reflective layer 28a and/or the second reflective layer 28b may be formed of a dielectric multilayer film or a metal thin film.
- the intermediate layer 26 may be formed of a dielectric or a semiconductor that is transparent in a specific wavelength range.
- the intermediate layer 26 may be formed of at least one selected from the group consisting of Si, Si 3 N 4 , TiO 2 , Nb 2 O 5 , and Ta 2 O 5 , for example.
- the refractive index and/or thickness of the intermediate layer 26 of the multiple filters 112 differs depending on the filter.
- each of the multiple filters 112 has a maximum value of transmittance at multiple wavelengths.
- the multiple wavelengths correspond to multiple resonance modes of different orders in the above-mentioned resonant structure.
- all of the filters 112 in the filter array 110 have the above-mentioned resonant structure.
- the filter array 110 may include a filter that does not have the above-mentioned resonant structure.
- a filter that does not have wavelength dependency of light transmittance such as a transparent filter or a neutral density filter (ND filter) may be included in the filter array 110.
- each of two or more filters 112 among the multiple filters 112 includes the above-mentioned resonant structure.
- the image sensor 160 includes a plurality of photodetection elements 160a. Each of the plurality of photodetection elements 160a is disposed opposite one of the plurality of filters.
- the aforementioned target wavelength range W may be, for example, an overlapping portion of the sensitivity range of each photodetection element 160a and the transmission range of the optical system 140.
- the sensitivity range of each photodetection element 160a is a wavelength range in which each photodetection element 160a is sensitive to light.
- the transmission range of the optical system 140 is a wavelength range in which the optical system 140 transmits light with a transmittance of, for example, 60%, 80%, or 90% or more. When the transmission range of the optical system 140 includes all of the sensitivity ranges of each photodetection element 160a, the target wavelength range W corresponds to the sensitivity range of each photodetection element 160a.
- wavelength range sensitive to light refers to a wavelength range having the substantial sensitivity required to detect light. For example, it refers to an external quantum efficiency of 1% or more in that wavelength range.
- the external quantum efficiency of the light detection element 160a may be 10% or more, or 20% or more.
- the light detection element 160a may be referred to as a "pixel.”
- the filter array 110 and the image sensor 160 are integrally formed, but this is not the only example.
- the filter array 110 and the image sensor 160 may be separate.
- each of the multiple light detection elements 160a is disposed at a position where it receives light that has passed through one of the multiple filters 112.
- the components may be disposed so that the light that has passed through the multiple filters 112 is incident on each of the multiple light detection elements 160a via a mirror. In this case, each of the multiple light detection elements 160a is not disposed directly below one of the multiple filters.
- the multiple light detection elements 160a correspond one-to-one to the multiple filters 112, but this is not limited to the example.
- the multiple light detection elements 160a do not have to correspond one-to-one to the multiple filters 112.
- light that has passed through two or more filters 112 may be incident on one light detection element 160a.
- the imaging device 100 further includes a bandpass filter 29 in addition to the filter array 110 and the image sensor 160.
- a bandpass filter 29 is disposed between the filter array 110 and the image sensor 160, as compared with the example shown in FIG. 5A.
- the bandpass filter 29 has a transmission band, which is a wavelength band that transmits light, and a blocking band, which is a wavelength band that is shorter and longer than the transmission band and suppresses the transmission of light.
- the blocking band may include a first blocking band and a second blocking band.
- the maximum wavelength of the first blocking band may be smaller than ⁇ 1 and the minimum wavelength of the second blocking band may be larger than ⁇ 2.
- (wavelength of the first blocking band) ⁇ ⁇ 1, ⁇ 1 ⁇ (wavelength of the transmission band) ⁇ ⁇ 2, and ⁇ 2 ⁇ (wavelength of the second blocking band) may be satisfied.
- the transmittance in the transmission band of the bandpass filter 29 may be, for example, 60% or more, 80% or more, or 90% or more.
- the transmittance in the stop band of the bandpass filter 29 may be, for example, 20% or less, 10% or less, or 5% or less.
- the aforementioned target wavelength range W can be, for example, the overlapping portion of the sensitivity range of each photodetector element 160a, the transmission range of the optical system 140, and the transmission range of the bandpass filter 29.
- the transmission range of the optical system 140 includes all of the sensitivity ranges of each photodetector element 160a, and the sensitivity range of each photodetector element 160a includes all of the transmission ranges of the bandpass filter 29.
- FIG. 6 is a diagram showing an example of the calculation result of the transmission spectrum of the filter 112.
- the first reflection layer 28a in the filter 112 is formed of a dielectric multilayer film in which TiO2 layers and SiO2 layers are alternately stacked.
- the second reflection layer 28b is formed of a dielectric multilayer film in which TiO2 layers and SiO2 layers are alternately stacked.
- the intermediate layer 26 in the filter 112 is formed of a TiO2 layer.
- the solid line and the dashed line shown in FIG. 6 represent the transmission spectrum when the intermediate layer 26 has different thicknesses. DiffractMOD based on RSoft's rigorous coupled-wave analysis (RCWA) was used to calculate the transmission spectrum.
- RCWA rigorous coupled-wave analysis
- the transmission spectrum varies depending on the thickness of the intermediate layer 26.
- a filter array 110 having a plurality of filters 112 with different transmission spectra can be realized.
- the transmission spectrum of each filter 112 has a plurality of peaks in the target wavelength range W.
- Each peak has a maximum value of transmittance and minimum values on both sides of the maximum value.
- the difference between the maximum value and each minimum value rate can be, for example, 10% or more, 20% or more, or 30% or more.
- the filter array 110 is an example of an optical element having a plurality of regions with different transmission spectra.
- the plurality of filters 112 is an example of a plurality of regions.
- the first term is the DF (Data Fidelity) term
- the second term is the TV (Total Variation) term.
- the DF and TV terms are examples of terms included in the evaluation function.
- the f that minimizes the evaluation function can be estimated, for example, by the TwIST (Two-step Iterative Shrinkage/Thresholding) method using the following equations (4) and (5).
- the TwIST method is an example of a method for estimating the f that minimizes the evaluation function.
- f is updated a predetermined number of times to minimize the evaluation function.
- the t-th updated f is defined as f t .
- f 1 can be obtained using equation (4).
- ⁇ TV in equation (4) is a noise removal function.
- Updating f using equation (5) includes the following processes (A) and (B).
- process (B) the initial value is important, and the encoding mask does not affect the update of the initial value.
- the encoding mask affects the update of f.
- the steepest descent method is performed by calculating the error in the DF term with f at that time, and subtracting the value obtained by proportionally allocating the error based on the transmittance of each region of the encoding mask from f at that time.
- the coding mask can be realized by a Fabry-Perot filter, such as the filter array 110 shown in FIG. 5A and FIG. 5B.
- the light transmission characteristics of such a coding mask are strongly correlated between two nearby wavelength bands. There are many wavelength bands with strong correlation near the center of the target wavelength range W, while there are few wavelength bands with strong correlation at both ends of the target wavelength range W. Because of this, in the process (A), the convergence characteristics by the TwIST method are worse in the wavelength bands at both ends compared to the wavelength bands near the center. As a result, among the multiple restored images corresponding to the multiple wavelength bands included in the target wavelength range W, the restoration accuracy of the two restored images corresponding to the wavelength bands at both ends is lower than the restoration accuracy of the remaining restored images.
- rc1 is lower than each of rc2 , ..., rc (N-1)
- rcN is lower than each of rc2 , ..., rc (N-1) .
- the restoration accuracy of the two restored images corresponding to the wavelength bands at both ends is low, so when processing is performed based on multiple restored images including these two restored images, it is not easy to perform accurate processing.
- the inventors have identified this problem and come up with an imaging system according to an embodiment of the present disclosure that is capable of performing more accurate processing based on restored images.
- the image processing device 200 includes a processing circuit 210, a memory 212, and a storage device 220.
- the processing circuit 210 controls the operations of the imaging device 100, the storage device 220, and the display device 300.
- the processing circuit 210 generates N restored images corresponding to the N wavelength bands, respectively, based on the image signal. The operations performed by the processing circuit 210 based on the multiple restored images will be described in detail later.
- the computer program executed by the processing circuitry 210 is stored in memory 212, such as a ROM or a RAM (Random Access Memory).
- the processing circuitry 210 and memory 212 may be integrated on a single circuit board or may be provided on separate circuit boards.
- the processing circuitry 210 may be distributed across multiple circuits.
- the processing circuitry 210 and/or memory 212 may be located in a remote location away from the other components via a wired or wireless communication network.
- the storage device 220 includes one or more storage media. Each storage medium may be any storage medium, such as, for example, a semiconductor memory, a magnetic storage medium, or an optical storage medium.
- the storage device 220 stores a restoration table used to generate a restored image from the compressed image 10.
- the restoration table is an example of coding information indicating the light transmission characteristics of the filter array 110 that functions as an encoding mask, and is obtained by calibration before shipment.
- the restoration table may be, for example, table-format data indicating the matrix H in equation (2).
- the display device 300 displays an input user interface (UI) 310 and a display UI 320.
- the input UI 310 is used for a user to input information.
- the information input by the user into the input UI 310 is received by the processing circuit 210.
- the display UI 320 is used for displaying information based on the restored image.
- the input UI 310 and the display UI 320 are displayed as a graphical user interface (GUI). It can also be said that the information shown on the input UI 310 and the display UI 320 is displayed on the display device 300.
- the input UI 310 and the display UI 320 may be realized by a device capable of both input and output, such as a touch screen. In that case, the touch screen may function as the display device 300.
- the input UI 310 is a device independent of the display device 300.
- the N-2 wavelength bands other than the two wavelength bands at both ends i.e., wavelength bands W 2 , W 3 , ..., W N-2 , W N-1
- the processing circuit 210 performs processing operations based on a part or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 , 20W N , excluding the restored images 20W 1 and 20W N , of the restored images 20W 1 , 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 , 20W N.
- the restored image 20W 1 corresponds to the wavelength band W 1 with the shortest central wavelength
- the restored image 20W N corresponds to the wavelength band W N with the longest central wavelength.
- the processing circuit 210 does not use the restored images 20W1 and 20WN , which have low restoration accuracy. Therefore, it is possible to perform more accurate processing compared to the case where processing is performed based on N restored images.
- the wavelength bands W 1 , W 2 , W 3 , ..., W N-2 , W N-1 , and W N are also referred to as the first wavelength band, the second wavelength band, the third wavelength band, ..., the N-2 wavelength band, the N-1 wavelength band, and the N wavelength band, respectively.
- the restored images 20W 1 , 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 , and 20W N are also referred to as the first restored image, the second restored image, the third restored image, ..., the N-2 restored image, the N-1 restored image, and the N restored image, respectively.
- the restored images are also simply referred to as "images.”
- Fig. 9 is a flowchart that outlines an example 1 of the processing operation executed by the processing circuit 210.
- the processing circuit 210 executes the operations of steps S101 to S103 shown in Fig. 9.
- the operation of step S103 corresponds to an example of a processing operation based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 .
- Step S101> The processing circuit 210 acquires an image signal of the compressed image 10 from the imaging device 100 .
- the processing circuit 210 outputs a part or all of the restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 . More specifically, the processing circuit 210 outputs a part or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N -1, excluding the restored image 20W 1 and the restored image 20W N , among the N restored images. The processing circuit 210 does not output the restored image 20W 1 and the restored image 20W N. A part or all of the remaining output restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 may be sent to another device, such as the display device 300, the storage device 220, or an analysis device.
- another device such as the display device 300, the storage device 220, or an analysis device.
- the processing circuit 210 outputs some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 " means that the processing circuit 210 outputs signals indicating some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 to the outside of the processing circuit 210.
- step S101, S102, or S103 the user may specify information regarding which of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1 should be output or which should not be output via the input UI 310 of the display device 300.
- the processing circuitry 210 reads the information specified by the user and executes the operation of step S103.
- processing circuit 210 reads the information from memory 212 or storage device 220 and executes the operation of step S103.
- Fig. 10 is a flowchart that outlines an example 2 of the processing operation executed by the processing circuit 210.
- the processing circuit 210 executes the operations of steps S201 to S203 shown in Fig. 10.
- the operation of step S203 corresponds to an example of a processing operation based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 .
- the processing circuit 210 causes the display device 300 to display part or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1, excluding the restored images 20W 1 and 20W N, out of the N restored images.
- the processing circuit 210 does not cause the display device 300 to display the restored images 20W 1 and 20W N.
- the user can check part or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1 via the display device 300.
- Fig. 11 is a flowchart that outlines an example 3 of the processing operation executed by the processing circuit 210.
- the processing circuit 210 executes the operations of steps S301 to S303 shown in Fig. 11.
- the operation of step S303 corresponds to an example of a processing operation based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 .
- Steps S301 and S302 The operations in steps S301 and S302 are the same as the operations in steps S101 and S102 shown in FIG.
- the processing circuit 210 outputs luminance information on the luminance values of images based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 , excluding the restored image 20W 1 and the restored image 20W N , out of the N restored images.
- the luminance information may be, for example, the wavelength dependency of the luminance value of the pixel, that is, the luminance spectrum.
- the processing circuit 210 does not output luminance information based on the restored image 20W 1 and the restored image 20W N. Since the luminance information output from the processing circuit 210 is not based on the restored image 20W 1 and the restored image 20W N , which have low restoration accuracy, more accurate luminance information can be obtained.
- the processing circuit 210 outputs the luminance information means that the processing circuit 210 outputs a signal indicating the luminance information to the outside of the processing circuit 210.
- Processing circuitry 210 may output luminance information based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 and send it to an analysis device. Alternatively, processing circuitry 210 may output luminance information based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 and send it to display device 300. In other words, processing circuitry 210 may cause display device 300 to display the luminance information.
- FIG. 12 is a diagram showing a schematic example of luminance information displayed on display device 300.
- FIG. 12 shows the screen of display device 300.
- Compressed image 10 is shown on the left side of the screen.
- the user specifies a point or area of object 70 shown in compressed image 10 about which the user wishes to know luminance information.
- the point can be specified using a cursor represented by a thick arrow, for example.
- the area can be specified by encircling it with the cursor, as represented by a dotted line, for example.
- an image on which some or all of the N restored images are superimposed may be displayed on the left side of the screen, instead of compressed image 10.
- a luminance spectrum is shown as luminance information at a specified point or region.
- the luminance spectrum includes luminance values B 2 , ..., B N-1 of pixels corresponding to wavelength bands W 2 , ..., W N-1 at the specified point or region.
- each luminance value may be, for example, an average of luminance values of a plurality of pixels included in the region.
- the wavelength corresponding to each luminance value may be, for example, the central wavelength of the wavelength band.
- all of the luminance values B 2 , ..., B N-1 may be displayed, or may be displayed with a predetermined number of spaces between them, such as every other or every third luminance value.
- Fig. 13 is a flowchart that outlines a fourth example of the processing operation executed by the processing circuit 210.
- the processing circuit 210 executes the operations of steps S401 to S403 shown in Fig. 13.
- the operation of step S403 corresponds to an example of a processing operation based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1 .
- Steps S401 and S402 are the same as the operations in steps S101 and S102 shown in FIG.
- the processing circuit 210 performs an analysis process to analyze the state of the object 70 based on a part or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 , excluding the restored image 20W 1 and the restored image 20W N, among the N restored images.
- the processing circuit 210 does not use the restored images 20W 1 and 20W N in the analysis process. Since the restored images 20W 1 and 20W N , which have low restoration accuracy, are not used, more accurate analysis process can be performed.
- the processing circuit 210 may output the analysis result and send it to the display device 300. In other words, the processing circuit 210 may cause the display device 300 to display the analysis result.
- the analysis process may be, for example, a process of determining the sugar content or freshness of the object 70.
- the analysis process may be a process of inspecting the object 70 and generating information indicating the inspection results.
- the inspection may be, for example, a process of determining whether the object 70 contains a foreign object, or whether a painted object has been appropriately painted.
- Fig. 14 is a flowchart that outlines a fifth example of the processing operation executed by the processing circuit 210.
- the processing circuit 210 executes the operations of steps S501 to S503 shown in Fig. 14.
- the operation of step S503 corresponds to an example of a processing operation based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1 .
- Steps S501 and S502 The operations in steps S501 and S502 are the same as the operations in steps S101 and S102 shown in FIG.
- the processing circuit 210 stores in the storage device 220 some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1 , excluding the restored images 20W 1 and 20W N, out of the N restored images.
- the processing circuit 210 does not store the restored images 20W 1 and 20W N in the storage device 220.
- the processing circuit 210 can acquire some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1 from the storage device 220 as necessary.
- Fig. 15 is a flowchart that outlines a sixth example of the processing operation executed by the processing circuit 210.
- the processing circuit 210 executes the operations of steps S601 to S603 shown in Fig. 15.
- the operation of step S603 corresponds to an example of a processing operation based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , and 20W N-1 .
- Steps S601 and S602 The operations in steps S601 and S602 are the same as the operations in steps S101 and S102 shown in FIG.
- the processing circuit 210 generates a color image based on some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 excluding the restored images 20W 1 and 20W N among the N restored images, and causes the display device 300 to display the color image.
- the processing circuit 210 does not use the restored images 20W 1 and 20W N to generate the color image. The user can check the color image via the display device 300.
- the color image is obtained by superimposing some or all of the remaining restored images 20W 2 , 20W 3 , ..., 20W N-2 , 20W N-1 colored with red, green, and blue, for example, according to the color of the central wavelength of the corresponding wavelength band.
- the user can view some or all of the remaining images via a display device.
- the processing circuitry can retrieve some or all of the remaining image from the storage device as needed.
- the user can view a color image, for example, via a display device.
- the imaging device further includes a bandpass filter that transmits the light in the first wavelength range and suppresses transmission of light in a second wavelength range different from the first wavelength range. 8. A system according to any one of techniques 1 to 7.
- the first wavelength range can be defined by the transmission range of the bandpass filter.
- the imaging device has a plurality of regions having different transmission spectra, and each of the transmission spectra of the plurality of regions has a plurality of peaks in the first wavelength range.
- the system according to any one of techniques 1 to 8.
- compressed sensing technology can be used to generate N images, each corresponding to one of the N wavelength bands.
- FIG. 10 A method executed by a computer in a system including an imaging device that detects light in a first wavelength range and generates an image signal in which components of N wavelength bands (N is an integer equal to or greater than 4) included in the first wavelength range are superimposed, the method comprising: generating N images corresponding to the N wavelength bands based on the image signals; performing a processing operation based on some or all of the remaining images, excluding a first image corresponding to a first wavelength band and an Nth image corresponding to an Nth wavelength band, among the N images, when the N wavelength bands are numbered in ascending or descending order of center wavelengths; Including, method.
- This method allows for more accurate processing based on a restored image generated from an image with compressed spectral information.
- the plurality of wavelength bands are a first wavelength band including a first wavelength, a second wavelength band including a second wavelength, and a third plurality of wavelength bands excluding the first wavelength band and the second wavelength band;
- the first wavelength is the smallest of the plurality of wavelengths included in the plurality of wavelength bands;
- the second wavelength is the largest among the plurality of wavelengths included in the plurality of wavelength bands, the number of wavelength bands is N, where N is 4 or greater;
- the number of wavelength bands in the third plurality is (N-2); the plurality of images being a first image corresponding to the first wavelength band, a second image corresponding to the second wavelength band, and
- f (N-1) f N f 2 ) T ;
- g indicates information corresponding to the plurality of signals, f1 denotes information corresponding to a first plurality of pixel values of the first image; f2 denotes information corresponding to a second plurality of pixel values of the second image;
- f3 indicates information corresponding to a plurality of pixel values corresponding to image I3 included in the third plurality of images, f4 indicates information corresponding to a plurality of pixel values corresponding to image I4 included in the third plurality of images, ...
- f (N-1) indicates information corresponding to a plurality of pixel values corresponding to image I (N-1) included in the third plurality of images, fN indicates information corresponding to a plurality of pixel values corresponding to image IN included in the third plurality of images,
- the H denotes a matrix including (p ⁇ q) ⁇ (p ⁇ q ⁇ N) values, The number of the plurality of signals is (p ⁇ q
- the technology disclosed herein is useful, for example, in cameras and measuring devices that capture multi-wavelength or high-resolution images.
- the technology disclosed herein can also be applied, for example, to sensing for biomedical and cosmetic applications, food foreign body and pesticide residue inspection systems, remote sensing systems, and vehicle-mounted sensing systems.
- REFERENCE SIGNS LIST 10 10a, 10b Compressed image 20 Hyperspectral image 20W1 , 20W2 , ..., 20WN Reconstructed image 70 Object 100 Imaging device 110 Filter array 112 Filter 140, 140A, 140B Optical system 160 Image sensor 200 Image processing device 210 Processing circuit 212 Memory 220 Storage device 300 Display device 310 Input UI 320 Display UI
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Studio Devices (AREA)
Abstract
Description
本開示は、撮像システムおよびそれに用いられる方法に関する。 This disclosure relates to an imaging system and a method used therein.
圧縮センシングは、観測対象のデータ分布が、周波数空間のようなある空間においてスパース(疎)であると仮定することにより、観測されたデータよりも多くのデータを復元する技術である。圧縮センシングは、例えば、少数の観測データからより多くの情報を含む画像を復元する撮像装置に適用され得る。圧縮センシングが適用された撮像装置は、対象物のスペクトル情報が圧縮された画像から、演算によって復元画像を生成する。 Compressed sensing is a technique that reconstructs more data than is observed by assuming that the data distribution of the observed object is sparse in a certain space, such as frequency space. Compressed sensing can be applied, for example, to an imaging device that reconstructs an image containing more information from a small amount of observed data. An imaging device to which compressed sensing is applied generates a reconstructed image by calculation from an image in which the spectral information of the object is compressed.
特許文献1は、各々が狭帯域である複数の波長バンドの画像を取得するハイパースペクトルカメラに圧縮センシング技術を適用した例を開示している。特許文献1に開示された技術によれば、高解像度かつ多波長の画像を生成するハイパースペクトルカメラを実現することができる。
スペクトル情報が圧縮された画像から生成される復元画像に基づいて、より正確な処理を行うことが可能なシステムを提供する。 To provide a system that can perform more accurate processing based on a restored image generated from an image with compressed spectral information.
本開示の一態様に係るシステムは、第1波長域の光を検出し、前記第1波長域に含まれるN個(Nは4以上の整数)の波長バンドの成分が重畳された画像信号を生成する撮像装置と、前記画像信号に基づいて、前記N個の波長バンドにそれぞれ対応するN個の画像を生成する処理回路と、を備え、前記N個の波長バンドが、中心波長が短い順または長い順に番号付けされているとした場合に、前記処理回路は、前記N個の画像のうち、第1波長バンドに対応する第1画像および第N波長バンドに対応する第N画像を除いた残りの画像の一部または全部に基づいて処理動作を行う。 A system according to one aspect of the present disclosure includes an imaging device that detects light in a first wavelength range and generates an image signal in which components of N wavelength bands (N is an integer equal to or greater than 4) included in the first wavelength range are superimposed, and a processing circuit that generates N images corresponding to the N wavelength bands based on the image signal, and when the N wavelength bands are numbered in ascending or descending order of central wavelength, the processing circuit performs processing operations based on some or all of the remaining images of the N images, excluding a first image corresponding to the first wavelength band and an Nth image corresponding to the Nth wavelength band.
本開示の包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能な記録ディスク等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意の組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD-ROM(Compact Disc‐Read Only Memory)等の不揮発性の記録媒体を含み得る。装置は、1つ以上の装置で構成されてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書および特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。 The general or specific aspects of the present disclosure may be realized in a system, an apparatus, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable recording disk, or may be realized in any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a recording medium. The computer-readable recording medium may include a non-volatile recording medium such as a CD-ROM (Compact Disc-Read Only Memory). An apparatus may be composed of one or more devices. When an apparatus is composed of two or more devices, the two or more devices may be arranged in one device, or may be arranged separately in two or more separate devices. In this specification and the claims, "apparatus" may mean not only one device, but also a system consisting of multiple devices.
本開示の技術によれば、スペクトル情報が圧縮された画像から生成される復元画像に基づいて、より正確な処理を行うことが可能なシステムを実現できる。 The technology disclosed herein makes it possible to realize a system that can perform more accurate processing based on a restored image generated from an image with compressed spectral information.
本開示において、回路、ユニット、装置、部材または部の全部または一部、またはブロック図における機能ブロックの全部または一部は、例えば、半導体装置、半導体集積回路(IC)、またはLSI(large scale integration)を含む1つまたは複数の電子回路によって実行され得る。LSIまたはICは、1つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、1つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、もしくはULSI(ultra large scale integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、またはLSI内部の接合関係の再構成(reconfiguration)またはLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。 In this disclosure, all or part of a circuit, unit, device, member, or part, or all or part of a functional block in a block diagram, may be implemented by one or more electronic circuits including, for example, a semiconductor device, a semiconductor integrated circuit (IC), or an LSI (large scale integration). The LSI or IC may be integrated into one chip, or may be configured by combining multiple chips. For example, functional blocks other than memory elements may be integrated into one chip. Here, LSI or IC are referred to as different names depending on the degree of integration, and may be referred to as a system LSI, VLSI (very large scale integration), or ULSI (ultra large scale integration). Field programmable gate arrays (FPGAs), which are programmed after the LSI is manufactured, or reconfigurable logic devices, which allow the reconfiguration of the connections inside the LSI or the setup of circuit sections inside the LSI, can also be used for the same purpose.
さらに、回路、ユニット、装置、部材または部の全部または一部の機能または操作は、ソフトウェア処理によって実行することが可能である。この場合、ソフトウェアは1つまたは複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウェアが処理装置(processor)によって実行されたときに、そのソフトウェアで特定された機能が処理装置(processor)および周辺装置によって実行される。システムまたは装置は、ソフトウェアが記録されている1つまたは複数の非一時的記録媒体、処理装置(processor)、および必要とされるハードウェアデバイス、例えばインターフェースを備えていてもよい。 Furthermore, all or part of the functions or operations of a circuit, unit, device, member or part can be executed by software processing. In this case, the software is recorded on one or more non-transitory recording media such as ROMs, optical disks, hard disk drives, etc., and when the software is executed by a processor, the functions specified in the software are executed by the processor and peripheral devices. The system or device may include one or more non-transitory recording media on which the software is recorded, a processor, and necessary hardware devices, such as interfaces.
本開示において、「光」とは、可視光(波長が約400nm~約700nm)だけでなく、紫外線(波長が約10nm~約400nm)および赤外線(波長が約700nm~約1mm)を含む電磁波を意味する。 In this disclosure, "light" refers to electromagnetic waves including not only visible light (wavelengths of about 400 nm to about 700 nm), but also ultraviolet light (wavelengths of about 10 nm to about 400 nm) and infrared light (wavelengths of about 700 nm to about 1 mm).
以下、本開示の例示的な実施形態を説明する。なお、以下で説明する実施形態は、いずれも包括的又は具体的な例を示すものである。以下の実施形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は模式図であり、必ずしも厳密に図示されたものではない。さらに、各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。 Below, exemplary embodiments of the present disclosure are described. Note that the embodiments described below are all comprehensive or specific examples. The numerical values, shapes, components, component arrangement and connection forms, steps, and order of steps shown in the following embodiments are merely examples and are not intended to limit the present disclosure. Furthermore, among the components in the following embodiments, components that are not described in an independent claim that indicates a top-level concept are described as optional components. Furthermore, each figure is a schematic diagram and is not necessarily a precise illustration. Furthermore, in each figure, substantially identical components are given the same reference numerals, and duplicate explanations may be omitted or simplified.
(本開示の基礎となった知見)
本開示の実施形態を説明する前に、本開示の基礎となった知見を説明する。
(Findings that formed the basis of this disclosure)
Before describing the embodiments of the present disclosure, the findings on which the present disclosure is based will be described.
イメージングの分野における画像に映る複数の対象物を種類ごとに分類する処理は、ファクトリーオートメーション(FA)および医療などの分野において行われている。分類処理において用いられる特徴量の例として、対象物の形状の他に、対象物のスペクトル情報が挙げられる。ハイパースペクトルカメラは、多くのスペクトル情報を画素ごとに含む多波長画像を取得できるので、ハイパースペクトルカメラの活用が今後期待されている。長年にわたり、ハイパースペクトルカメラの研究開発が世界中で行われている一方、以下の理由から利用シーンが限られていた。例えば、ラインスキャン型のハイパースペクトルカメラでは、空間および波長の解像度が高いものの、ラインスキャンのために撮影時間が長くなる。スナップショット型のハイパースペクトルカメラでは、ワンショットによる撮影が可能であるものの、感度および空間分解能が十分でない場合が多い。 In the field of imaging, the process of classifying multiple objects captured in an image into types is carried out in fields such as factory automation (FA) and medicine. Examples of features used in classification processing include the shape of the object and the spectral information of the object. Hyperspectral cameras can acquire multi-wavelength images that contain a lot of spectral information for each pixel, so their use is expected to become more widespread in the future. While research and development of hyperspectral cameras has been conducted around the world for many years, their use has been limited for the following reasons. For example, line-scan hyperspectral cameras have high spatial and wavelength resolution, but the shooting time is long due to the line scan. Snapshot hyperspectral cameras can take images in one shot, but the sensitivity and spatial resolution are often insufficient.
それらに対して、近年、スパース性に基づいて画像を復元することにより、ハイパースペクトルカメラの感度および空間分解能を向上できることが報告されている。スパース性とは、観測対象を特徴づける要素が、周波数空間のようなある空間においては疎ら(スパース)に存在しているという性質である。スパース性は、自然界において広く見られる。スパース性を利用することにより、必要な情報を効率的に観測することが可能になる。スパース性を利用したセンシング技術は、圧縮センシング技術と呼ばれる。圧縮センシング技術を利用することにより、高効率なデバイスおよびシステムの構築が可能である。 In response to these problems, it has been reported in recent years that the sensitivity and spatial resolution of hyperspectral cameras can be improved by restoring images based on sparsity. Sparsity is the property that elements that characterize an observed object exist sparsely in a certain space, such as frequency space. Sparsity is widely observed in nature. By utilizing sparsity, it becomes possible to observe necessary information efficiently. Sensing technology that utilizes sparsity is called compressed sensing technology. By utilizing compressed sensing technology, it is possible to build highly efficient devices and systems.
圧縮センシング技術の具体的な応用例として、例えば、特許文献1に開示されているような波長分解能を向上させたハイパースペクトルカメラが提案されている。当該ハイパースペクトルカメラは、例えば、空間および/または波長について不規則な光透過特性を有する光学フィルタを備える。そのような光学フィルタを「符号化マスク」とも称する。符号化マスクは、イメージセンサに入射する光の光路上に配置され、対象物から入射する光を、領域によって異なる光透過特性で透過させる。符号化マスクによるこの過程を「符号化」と称する。符号化マスクを介して取得された対象物の画像には、対象物のスペクトル情報が圧縮されている。当該画像を「圧縮画像」と称する。符号化マスクの光透過性を示すマスク情報は、復元テーブルとして予め記憶装置に記憶されている。
As a specific application example of compressed sensing technology, for example, a hyperspectral camera with improved wavelength resolution as disclosed in
撮像装置の処理装置は、圧縮画像および復元テーブルに基づいて復元処理を行う。復元処理により、より高解像度の画像情報、またはより多くの波長の画像情報などの、圧縮画像よりも多くの情報を得ることができる。復元テーブルは、例えば、符号化マスクの光応答特性の空間分布を示すデータであり得る。そのような復元テーブルに基づく復元処理により、1つの圧縮画像から、対象波長域に含まれる複数の波長バンドにそれぞれ対応する複数の復元画像を生成することができる。以下の説明では、「複数の復元画像」を単に「復元画像」とも称する。 The processing device of the imaging device performs restoration processing based on the compressed image and the restoration table. The restoration processing can obtain more information than the compressed image, such as image information with higher resolution or image information with more wavelengths. The restoration table can be, for example, data indicating the spatial distribution of the optical response characteristics of the coding mask. The restoration processing based on such a restoration table can generate multiple restored images from one compressed image, each corresponding to multiple wavelength bands included in the target wavelength range. In the following description, "multiple restored images" will also be simply referred to as "restored image".
本発明者らは、複数の復元画像の復元精度を調べた結果、複数の復元画像のうち、以下の2つの復元画像の復元精度が、残りの復元画像の復元精度よりも低いことを見出した。当該2つの復元画像は、対象波長域における両端の波長バンドに対応する2つの復元画像である。「両端の波長バンド」は、中心波長が最も長い波長バンド、および中心波長が最も短い波長バンドを意味する。復元精度が低い当該2つの復元画像を含む複数の復元画像に基づいて処理を行う場合、正確な処理を行うことが容易ではない。 The inventors investigated the restoration accuracy of multiple restored images and found that the restoration accuracy of the following two restored images among the multiple restored images is lower than that of the remaining restored images. The two restored images correspond to the wavelength bands at both ends of the target wavelength range. "The wavelength bands at both ends" refers to the wavelength band with the longest central wavelength and the wavelength band with the shortest central wavelength. When processing is performed based on multiple restored images including the two restored images with low restoration accuracy, it is not easy to perform accurate processing.
本発明者らは、上記の課題を検討し、復元画像に基づいてより正確な処理を行うことが可能な本開示の実施形態によるシステムに想到した。本実施形態によるシステムでは、上記の残りの復元画像の一部または全部に基づいて処理が行われる。当該処理に、両端の波長バンドに対応する2つの復元画像は用いられない。その結果、復元画像に基づいてより正確な処理を行うことが可能になる。 The inventors have considered the above problems and come up with a system according to an embodiment of the present disclosure that is capable of performing more accurate processing based on the restored images. In the system according to this embodiment, processing is performed based on some or all of the remaining restored images. The two restored images corresponding to the wavelength bands at both ends are not used in this processing. As a result, it becomes possible to perform more accurate processing based on the restored images.
(実施形態)
以下では、まず、圧縮画像から復元画像を生成する撮像システムを説明する。次に、当該撮像システムにおいて、復元画像に基づいてより正確な処理を行う方法を説明する。
(Embodiment)
In the following, first, an imaging system that generates a restored image from a compressed image will be described, followed by a method for performing more accurate processing based on the restored image in the imaging system.
[1.撮像システム]
図1Aは、撮像システムの構成例を模式的に示す図である。図1Aに示すシステムは、撮像装置100と、画像処理装置200とを備える。撮像装置100は、特許文献1に開示された撮像装置と同様の構成を備える。撮像装置100は、光学系140と、フィルタアレイ110と、イメージセンサ160とを備える。光学系140およびフィルタアレイ110は、被写体である対象物70から入射する光の光路上に配置される。図1Aの例におけるフィルタアレイ110は、光学系140とイメージセンサ160との間に配置されている。
[1. Imaging system]
FIG. 1A is a diagram showing a schematic configuration example of an imaging system. The system shown in FIG. 1A includes an
図1Aには、対象物70の一例として、リンゴが例示されている。対象物70は、リンゴに限らず、任意の物体であり得る。イメージセンサ160は、複数の波長バンドの情報が2次元のモノクロ画像として圧縮された圧縮画像10のデータを生成する。画像処理装置200は、イメージセンサ160が生成した圧縮画像10のデータに基づいて、所定の対象波長域に含まれる複数の波長バンドに1対1に対応する複数の画像を示すデータを生成する。ここで、対象波長域に含まれる波長バンドの数をN(Nは4以上の整数)とする。以下の説明において、圧縮画像10に基づいて生成されるN個の画像を、復元画像20W1、20W2、・・・、20WNと称し、これらを「ハイパースペクトル画像20」と総称することがある。
FIG. 1A illustrates an apple as an example of the
本実施形態におけるフィルタアレイ110は、行および列状に配列された透光性を有する複数のフィルタのアレイである。複数のフィルタは、分光透過率、すなわち光透過率の波長依存性が互いに異なる複数種類のフィルタを含む。フィルタアレイ110は、入射光の強度を波長ごとに変調して出力する。フィルタアレイ110によるこの過程を「符号化」と称し、フィルタアレイ110を「符号化マスク」とも称する。
In this embodiment, the
図1Aに示す例において、フィルタアレイ110は、イメージセンサ160の近傍または直上に配置されている。ここで「近傍」とは、光学系140からの光の像がある程度鮮明な状態でフィルタアレイ110の面上に形成される程度に近接していることを意味する。「直上」とは、ほとんど隙間が生じない程両者が近接していることを意味する。フィルタアレイ110およびイメージセンサ160は一体化されていてもよい。
In the example shown in FIG. 1A, the
光学系140は、少なくとも1つのレンズを含む。図1Aでは、光学系140が1つのレンズとして示されているが、光学系140は複数のレンズの組み合わせであってもよい。光学系140は、フィルタアレイ110を介して、イメージセンサ160の撮像面上に像を形成する。
フィルタアレイ110は、イメージセンサ160から離れて配置されていてもよい。図1Bから図1Dは、フィルタアレイ110がイメージセンサ160から離れて配置されている撮像装置100の構成例を示す図である。図1Bの例では、フィルタアレイ110が、光学系140とイメージセンサ160との間で且つイメージセンサ160から離れた位置に配置されている。図1Cの例では、フィルタアレイ110が対象物70と光学系140との間に配置されている。図1Dの例では、撮像装置100が2つの光学系140Aおよび140Bを備え、それらの間にフィルタアレイ110が配置されている。これらの例のように、フィルタアレイ110とイメージセンサ160との間に1つ以上のレンズを含む光学系が配置されていてもよい。
The
イメージセンサ160は、2次元的に配列された複数の光検出素子(本明細書において、「画素」とも呼ぶ。)を有するモノクロタイプの光検出装置である。イメージセンサ160は、例えばCCD(Charge-Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)センサ、または赤外線アレイセンサであり得る。光検出素子は、例えばフォトダイオードを含む。イメージセンサ160は、必ずしもモノクロタイプのセンサである必要はない。例えば、カラータイプのセンサを用いてもよい。カラータイプのセンサは、例えば、赤色の光を透過する複数の赤(R)フィルタ、緑色の光を透過する複数の緑(G)フィルタ、および青色の光を透過する複数の青(B)フィルタを含み得る。カラータイプのセンサは、さらに、赤外線を透過する複数のIRフィルタを含んでいてもよい。また、カラータイプのセンサは、赤色、緑色、青色の全ての光を透過する複数の透明フィルタを含んでいてもよい。カラータイプのセンサを使用することで、波長に関する情報量を増やすことができ、ハイパースペクトル画像20の再構成(reconstruction)の精度を向上させることができる。取得対象の波長範囲は任意に決定してよく、可視の波長範囲に限らず、紫外、近赤外、中赤外、または遠赤外の波長範囲であってもよい。
The
画像処理装置200は、1つ以上のプロセッサと、メモリ等の1つ以上の記憶媒体とを備えるコンピュータであり得る。画像処理装置200は、イメージセンサ160によって取得された圧縮画像10に基づいて、復元画像20W1、20W2、・・・、20WNのデータを生成する。
The
図2Aは、フィルタアレイ110の例を模式的に示す図である。フィルタアレイ110は、2次元的に配列された複数の領域を有する。本明細書では、当該複数の領域のそれぞれを、「セル」と称することがある。各領域には、個別に設定された分光透過率を有する光学フィルタが配置されている。分光透過率は、入射光の波長をλとして、関数T(λ)で表される。分光透過率T(λ)は、0以上1以下の値を取り得る。
FIG. 2A is a diagram showing a schematic example of a
図2Aに示す例では、フィルタアレイ110は、6行8列に配列された48個の矩形領域を有する。これはあくまで例示であり、実際の用途では、これよりも多くの領域が設けられ得る。その数は、例えばイメージセンサ160の画素数と同程度であってもよい。フィルタアレイ110に含まれるフィルタ数は、例えば数十から数千万の範囲で用途に応じて決定される。
In the example shown in FIG. 2A, the
図2Bは、対象波長域に含まれる波長バンドW1、W2、・・・、WNのそれぞれの光の透過率の空間分布の一例を示す図である。図2Bに示す例では、各領域の濃淡の違いは、透過率の違いを表している。淡い領域ほど透過率が高く、濃い領域ほど透過率が低い。図2Bに示すように、波長バンドによって光透過率の空間分布が異なっている。 2B is a diagram showing an example of the spatial distribution of the light transmittance of each of the wavelength bands W1 , W2 , ..., WN included in the target wavelength range. In the example shown in Fig. 2B, the difference in the shading of each region represents the difference in the transmittance. The lighter the region, the higher the transmittance, and the darker the region, the lower the transmittance. As shown in Fig. 2B, the spatial distribution of the light transmittance differs depending on the wavelength band.
図2Cおよび図2Dは、それぞれ、図2Aに示すフィルタアレイ110に含まれる領域A1および領域A2の分光透過率の例を示す図である。領域A1の分光透過率と領域A2の分光透過率とは、互いに異なる。このように、フィルタアレイ110の分光透過率は、領域によって異なる。ただし、必ずしもすべての領域の分光透過率が異なっている必要はない。フィルタアレイ110では、複数の領域の少なくとも一部の領域の分光透過率が互いに異なっている。フィルタアレイ110は、分光透過率が互いに異なる2つ以上のフィルタを含む。ある例では、フィルタアレイ110に含まれる複数の領域の分光透過率のパターンの数は、対象波長域に含まれる波長バンドの数Nと同じか、それ以上であり得る。フィルタアレイ110は、半数以上の領域の分光透過率が異なるように設計されていてもよい。
2C and 2D are diagrams showing examples of the spectral transmittance of the region A1 and the region A2 included in the
図3は、対象波長域Wと、それに含まれる波長バンドW1、W2、・・・、WNとの関係を説明するための図である。対象波長域Wは、用途によって様々な範囲に設定され得る。対象波長域Wは、例えば、約400nmから約700nmの可視光の波長域、約700nmから約2500nmの近赤外線の波長域、または約10nmから約400nmの近紫外線の波長域であり得る。あるいは、対象波長域Wは、中赤外または遠赤外などの波長域であってもよい。このように、使用される波長域は可視光域とは限らない。本明細書では、可視光に限らず、赤外線および紫外線を含む放射全般を「光」と称する。 FIG. 3 is a diagram for explaining the relationship between the target wavelength range W and the wavelength bands W 1 , W 2 , ..., W N included therein. The target wavelength range W can be set to various ranges depending on the application. The target wavelength range W can be, for example, a visible light wavelength range of about 400 nm to about 700 nm, a near-infrared wavelength range of about 700 nm to about 2500 nm, or a near-ultraviolet wavelength range of about 10 nm to about 400 nm. Alternatively, the target wavelength range W may be a wavelength range such as mid-infrared or far-infrared. In this way, the wavelength range used is not limited to the visible light range. In this specification, radiation in general, including infrared and ultraviolet rays, is referred to as "light" not limited to visible light.
図3に示す例では、Nを4以上の任意の整数として、対象波長域WをN等分したそれぞれの波長域を波長バンドW1、W2、・・・、WNとしている。ただしこのような例に限定されない。対象波長域Wに含まれる複数の波長バンドは任意に設定してもよい。例えば、波長バンドによって帯域幅を不均一にしてもよい。 In the example shown in Fig. 3, N is an arbitrary integer equal to or greater than 4, and the wavelength bands obtained by equally dividing the target wavelength range W into N are wavelength bands W1 , W2 , ..., WN . However, this is not a limitation. The multiple wavelength bands included in the target wavelength range W may be set arbitrarily. For example, the bandwidths of the wavelength bands may be made non-uniform.
図4Aは、フィルタアレイ110のある領域における分光透過率の特性を説明するための図である。図4Aに示す例では、分光透過率は、対象波長域W内の波長に関して、複数の極大値P1からP5、および複数の極小値を有する。図4Aに示す例では、対象波長域W内での光透過率の最大値が1、最小値が0となるように正規化されている。図4Aに示す例では、波長バンドW2、および波長バンドWN-1などの波長域において、分光透過率が極大値を有している。このように、各領域の分光透過率は、波長バンドW1、W2、・・・、WNのうち、少なくとも2つの複数の波長域において極大値を有するように設計され得る。図4Aの例では、極大値P1、P3、P4およびP5は0.5以上である。
FIG. 4A is a diagram for explaining the characteristics of the spectral transmittance in a certain region of the
このように、各領域の光透過率は、波長によって異なる。したがって、フィルタアレイ110は、入射する光のうち、ある波長域の成分を多く透過させ、他の波長域の成分をそれほど透過させない。例えば、N個の波長バンドのうちのk個の波長バンドの光については、透過率が0.5よりも大きく、残りのN-k個の波長域の光については、透過率が0.5未満であり得る。kは、2≦k<Nを満たす整数である。仮に入射光が、すべての可視光の波長成分を均等に含む白色光であった場合には、フィルタアレイ110は、入射光を領域ごとに、波長に関して離散的な複数の強度のピークを有する光に変調し、これらの多波長の光を重畳して出力する。
In this way, the light transmittance of each region varies depending on the wavelength. Therefore, the
図4Bは、一例として、図4Aに示す分光透過率を、波長バンドW1、W2、・・・、WNごとに平均化した結果を示す図である。平均化された透過率は、分光透過率T(λ)を波長バンドごとに積分してその波長バンドの帯域幅で除算することによって得られる。本明細書では、このように波長バンドごとに平均化した透過率の値を、その波長バンドにおける透過率とする。この例では、極大値P1、P3およびP5をとる3つの波長域において、透過率が突出して高くなっている。特に、極大値P3およびP5をとる2つの波長域において、透過率が0.8を超えている。 FIG. 4B is a diagram showing an example of the spectral transmittance shown in FIG. 4A averaged for each wavelength band W 1 , W 2 , ..., W N. The averaged transmittance is obtained by integrating the spectral transmittance T(λ) for each wavelength band and dividing by the bandwidth of the wavelength band. In this specification, the transmittance averaged for each wavelength band is defined as the transmittance for that wavelength band. In this example, the transmittance is remarkably high in three wavelength ranges with maximum values P1, P3, and P5. In particular, the transmittance exceeds 0.8 in two wavelength ranges with maximum values P3 and P5.
図2Aから図2Dに示す例では、各領域の透過率が0以上1以下の任意の値をとり得るグレースケールの透過率分布が想定されている。しかし、必ずしもグレースケールの透過率分布にする必要はない。例えば、各領域の透過率がほぼ0またはほぼ1のいずれかの値を取り得るバイナリスケールの透過率分布を採用してもよい。バイナリスケールの透過率分布では、各領域は、対象波長域に含まれる複数の波長域のうちの少なくとも2つの波長域の光の大部分を透過させ、残りの波長域の光の大部分を透過させない。ここで「大部分」とは、概ね80%以上を指す。 In the examples shown in Figures 2A to 2D, a grayscale transmittance distribution is assumed in which the transmittance of each region can take any value between 0 and 1 inclusive. However, it is not necessary to use a grayscale transmittance distribution. For example, a binary scale transmittance distribution may be used in which the transmittance of each region can take a value of either approximately 0 or approximately 1. In a binary scale transmittance distribution, each region transmits most of the light in at least two of the multiple wavelength ranges included in the target wavelength range, and does not transmit most of the light in the remaining wavelength ranges. Here, "most" refers to approximately 80% or more.
全セルのうちの一部、例えば半分のセルを、透明領域に置き換えてもよい。そのような透明領域は、対象波長域Wに含まれる波長バンドW1、W2、・・・、WNのそれぞれの光を同程度の高い透過率、例えば80%以上の透過率で透過させる。そのような構成では、複数の透明領域は、例えば市松(checkerboard)状に配置され得る。すなわち、フィルタアレイ110における複数の領域の2つの配列方向において、光透過率が波長によって異なる領域と、透明領域とが交互に配列され得る。
A part of all the cells, for example, half of the cells, may be replaced with a transparent region. Such a transparent region transmits the light of each of the wavelength bands W 1 , W 2 , ..., W N included in the target wavelength range W with a similarly high transmittance, for example, a transmittance of 80% or more. In such a configuration, the multiple transparent regions may be arranged, for example, in a checkerboard pattern. That is, in two arrangement directions of the multiple regions in the
このようなフィルタアレイ110の分光透過率の空間分布を示すデータは、設計データまたは実測キャリブレーションに基づいて事前に取得され、画像処理装置200が備える記憶媒体に格納される。このデータは、後述する演算処理に利用される。
The data showing the spatial distribution of the spectral transmittance of the
フィルタアレイ110は、例えば、多層膜、有機材料、回折格子構造、金属を含む微細構造、またはメタサーフェスを用いて構成され得る。多層膜を用いる場合、例えば、誘電体多層膜または金属層を含む多層膜が用いられ得る。この場合、セルごとに各多層膜の厚さ、材料、および積層順序の少なくとも1つが異なるように形成される。これにより、セルによって異なる分光特性を実現できる。多層膜を用いることにより、分光透過率におけるシャープな立ち上がりおよび立下りを実現できる。有機材料を用いた構成は、セルによって含有する顔料または染料が異なるようにしたり、異種の材料を積層させたりすることによって実現され得る。回折格子構造を用いた構成は、セルごとに異なる回折ピッチまたは深さの回折構造を設けることによって実現され得る。金属を含む微細構造は、プラズモン効果による分光を利用して作製され得る。メタサーフェスは、入射光の波長よりも小さいサイズで誘電体材料を微細加工することによって作製され得る。当該構造では、入射光に対する屈折率が空間的に変調される。あるいは、フィルタアレイ110を用いずに、イメージセンサ160に含まれる複数の画素を直接加工することにより、入射光を符号化してもよい。
The
上記のことから、撮像装置100は、光応答特性が互いに異なる複数の受光領域を有すると言うことができる。撮像装置100が、複数のフィルタを含むフィルタアレイ110を備え、当該複数のフィルタが互いに不規則に異なる光透過特性を有する場合、複数の受光領域は、フィルタアレイ110が近傍または直上に配置されたイメージセンサ160によって実現され得る。この場合、複数の受光領域の光応答特性は、それぞれ、フィルタアレイ110に含まれる複数のフィルタの光透過特性に基づいて決定される。
From the above, it can be said that the
あるいは、撮像装置100がフィルタアレイ110を備えない場合、複数の受光領域は、例えば、光応答特性が互いに不規則に異なるように複数の画素が直接加工されたイメージセンサ160によって実現され得る。この場合、複数の受光領域の光応答特性は、それぞれ、イメージセンサ160に含まれる複数の画素の光応答特性に基づいて決定される。
Alternatively, if the
上記の多層膜、有機材料、回折格子構造、金属を含む微細構造、またはメタサーフェスは、2次元平面内において分光透過率が位置に応じて異なるように変調された構成であれば、入射光の符号化が可能である、したがって、上記の多層膜、有機材料、回折格子構造、金属を含む微細構造、またはメタサーフェスは、複数のフィルタがアレイ状に配置された構成である必要はない。 The above multilayer film, organic material, diffraction grating structure, microstructure including metal, or metasurface can encode incident light if it is configured such that the spectral transmittance is modulated to vary depending on the position in a two-dimensional plane. Therefore, the above multilayer film, organic material, diffraction grating structure, microstructure including metal, or metasurface does not need to be configured with multiple filters arranged in an array.
次に、画像処理装置200による信号処理の例を説明する。画像処理装置200は、イメージセンサ160から出力された圧縮画像10、およびフィルタアレイ110の波長ごとの透過率の空間分布特性に基づいて、多波長のハイパースペクトル画像20を再構成する。ここで多波長とは、例えば通常のカラーカメラで取得されるRGBの3色の波長域よりも多くの波長域を意味する。この波長域の数は、例えば4から100程度の数であり得る。この波長域の数を、「バンド数」と称する。用途によっては、バンド数は100を超えていてもよい。
Next, an example of signal processing by the
求めたいデータはハイパースペクトル画像20のデータであり、そのデータをfとする。バンド数をNとすると、fは、N個の画像バンドのデータf1、f2、・・・、fNを統合したデータである。ここで、画像の横方向をx方向、画像の縦方向をy方向とする。求めるべき画像データのx方向の画素数をmとし、y方向の画素数をnとすると、画像データf1、f2、・・・、fNの各々は、n×m個の輝度値を有する。したがって、データfは要素数n×m×Nのデータである。一方、フィルタアレイ110によって符号化および多重化されて取得される圧縮画像10のデータgの要素数はn×mである。データgは、以下の式(1)によって表すことができる。
式(1)におけるfは、1次元ベクトルとして表現されたハイパースペクトル画像のデータを表している。f1、f2、・・・、fNの各々は、n×m個の要素を有する。したがって、右辺のベクトルは、n×m×N行1列の1次元ベクトルである。圧縮画像のデータgは、n×m行1列の1次元ベクトルとして計算される。行列Hは、ベクトルfの各成分f1、f2、・・・、fNを波長バンドごとに異なる符号化情報で符号化および強度変調し、それらを加算する変換を表す。したがって、Hは、n×m行n×m×N列の行列である。式(1)は、以下のように表すこともできる。
g=(pg11・・・pg1m・・・pgn1・・・pgnm)T=H(f1・・・fN)T
ここで、pgijは、圧縮画像10の第i行第j列の輝度値を表す。
In formula (1), f represents the data of the hyperspectral image expressed as a one-dimensional vector. Each of f 1 , f 2 , ..., f N has n x m elements. Therefore, the vector on the right side is a one-dimensional vector with n x m x N rows and one column. The data g of the compressed image is calculated as a one-dimensional vector with n x m rows and one column. The matrix H represents a transformation in which each component f 1 , f 2 , ..., f N of the vector f is encoded and intensity-modulated with different encoding information for each wavelength band, and then added. Therefore, H is a matrix with n x m rows and n x m x N columns. Formula (1) can also be expressed as follows.
g=(pg 11 ...pg 1m ...pg n1 ...pg nm ) T =H( f1 ... fN ) T
Here, pg ij represents the luminance value of the i-th row and j-th column of the
ベクトルgと行列Hが与えられれば、式(1)の逆問題を解くことにより、fを算出することができそうである。しかし、求めるデータfの要素数n×m×Nが取得データgの要素数n×mよりも多いため、この問題は不良設定問題であり、このままでは解くことができない。そこで、画像処理装置200は、データfに含まれる画像のスパース性を利用し、圧縮センシングの手法を用いて解を求める。具体的には、以下の式(2)を解くことにより、求めるデータfが推定される。
ここで、f’は、推定されたfのデータを表す。上式の括弧内の第1項は、推定結果Hfと取得データgとのずれ量、いわゆる残差項を表す。ここでは2乗和を残差項としているが、絶対値または二乗和平方根等を残差項としてもよい。括弧内の第2項は、正則化項または安定化項である。式(2)は、第1項と第2項との和を最小化するfを求めることを意味する。式(2)における括弧内の関数を評価関数と呼ぶ。画像処理装置200は、再帰的な反復演算によって解を収束させ、評価関数を最小にするfを、最終的な解f’として算出することができる。
Here, f' represents the estimated f data. The first term in the parentheses in the above equation represents the amount of deviation between the estimated result Hf and the acquired data g, the so-called residual term. Here, the sum of squares is used as the residual term, but the absolute value or the square root of the sum of squares, etc. may also be used as the residual term. The second term in the parentheses is a regularization term or stabilization term. Equation (2) means to find f that minimizes the sum of the first and second terms. The function in the parentheses in equation (2) is called the evaluation function. The
式(2)の括弧内の第1項は、取得データgと、推定過程のfを行列Hによって変換したHfとの差の二乗和を求める演算を意味する。第2項のΦ(f)は、fの正則化における制約条件であり、推定データのスパース情報を反映した関数である。この関数は、推定データを滑らかまたは安定にする効果をもたらす。正則化項は、例えば、fの離散的コサイン変換(DCT)、ウェーブレット変換、フーリエ変換、またはトータルバリエーション(TV)などによって表され得る。例えば、トータルバリエーションを使用した場合、観測データgのノイズの影響を抑えた安定した推測データを取得できる。それぞれの正則化項の空間における対象物70のスパース性は、対象物70のテキスチャによって異なる。対象物70のテキスチャが正則化項の空間においてよりスパースになる正則化項を選んでもよい。あるいは、複数の正則化項を演算に含んでもよい。τは、重み係数である。重み係数τが大きいほど冗長的なデータの削減量が多くなり、圧縮する割合が高まる。重み係数τが小さいほど解への収束性が弱くなる。重み係数τは、fがある程度収束し、かつ、過圧縮にならない適度な値に設定される。
The first term in the parentheses in formula (2) means an operation to obtain the sum of squares of the difference between the acquired data g and Hf obtained by transforming f in the estimation process by the matrix H. The second term Φ(f) is a constraint condition in the regularization of f, and is a function reflecting the sparse information of the estimated data. This function has the effect of smoothing or stabilizing the estimated data. The regularization term can be expressed, for example, by the discrete cosine transform (DCT), wavelet transform, Fourier transform, or total variation (TV) of f. For example, when the total variation is used, stable estimated data that suppresses the influence of noise in the observed data g can be obtained. The sparsity of the
なお、図1Bおよび図1Cの構成においては、フィルタアレイ110によって符号化された像は、イメージセンサ160の撮像面上でボケた状態で取得される。したがって、予めこのボケ情報を保有しておき、そのボケ情報を前述の行列Hに反映させることにより、ハイパースペクトル画像20を再構成することができる。ここで、ボケ情報は、点拡がり関数(Point Spread Function:PSF)によって表される。PSFは、点像の周辺画素への拡がりの程度を規定する関数である。例えば、画像上で1画素に相当する点像が、ボケによってその画素の周囲のk×k画素の領域に広がる場合、PSFは、その領域内の各画素の輝度値への影響を示す係数群、すなわち行列として規定され得る。PSFによる符号化パターンのボケの影響を、行列Hに反映させることにより、ハイパースペクトル画像20を再構成することができる。フィルタアレイ110が配置される位置は任意であるが、フィルタアレイ110の符号化パターンが拡散しすぎて消失しない位置が選択され得る。
1B and 1C, the image encoded by the
以上の処理により、イメージセンサ160によって取得された圧縮画像10に基づいて、ハイパースペクトル画像20を復元することができる。ハイパースペクトル画像20の復元方法の詳細は、特許文献1に開示されている。特許文献1の開示内容の全体を本明細書に援用する。
By the above processing, the
[2.フィルタアレイ110の構成例]
以下に、図5Aおよび図5Bを参照して、フィルタアレイ110のより具体的な構造の例を説明する。
2. Configuration example of
A more specific example of the structure of the
図5Aは、本実施形態による撮像システムに含まれる撮像装置100の例を模式的に示す断面図である。撮像装置100は、フィルタアレイ110と、イメージセンサ60とを備える。図5Aにおいて、光学系140は省略されている。
FIG. 5A is a cross-sectional view that shows a schematic example of an
フィルタアレイ110は、2次元に配列された複数のフィルタ112を備える。複数のフィルタ112は、例えば図2Aに示すように、行および列状に配列されている。図5Aは、図2Aに示す1つの行の断面構造を模式的に示している。複数のフィルタ112の各々はファブリペローフィルタであり、共振構造を備える。共振構造とは、ある波長の光が、内部で定在波を形成して安定に存在する構造を意味する。当該光の状態を、「共振モード」と称することがある。
The
図5Aに示す共振構造は、第1反射層28a、第2反射層28b、および第1反射層28aと第2反射層28bとの間の中間層26を含む。第1反射層28aおよび/または第2反射層28bは、誘電体多層膜または金属薄膜から形成され得る。中間層26は、特定の波長域において透明な誘電体または半導体から形成され得る。中間層26は、例えば、Si、Si3N4、TiO2、Nb2O5、Ta2O5からなる群から選択される少なくとも1つから形成され得る。複数のフィルタ112の中間層26の屈折率および/または厚さは、フィルタによって異なる。複数のフィルタ112の各々の透過スペクトルは、複数の波長で透過率の極大値を有する。当該複数の波長は、上記の共振構造における次数の異なる複数の共振モードにそれぞれ対応する。本実施形態では、フィルタアレイ110における全てのフィルタ112が上記の共振構造を備える。ただし、フィルタアレイ110は、上記の共振構造を有しないフィルタを含んでいてもよい。例えば、透明フィルタまたはNDフィルタ(Neutral Density Filter)などの、光透過率の波長依存性を有しないフィルタがフィルタアレイ110に含まれていてもよい。本実施形態において、複数のフィルタ112のうちの2つ以上のフィルタ112の各々が上記の共振構造を備える。
The resonant structure shown in FIG. 5A includes a first reflective layer 28a, a second reflective layer 28b, and an intermediate layer 26 between the first reflective layer 28a and the second reflective layer 28b. The first reflective layer 28a and/or the second reflective layer 28b may be formed of a dielectric multilayer film or a metal thin film. The intermediate layer 26 may be formed of a dielectric or a semiconductor that is transparent in a specific wavelength range. The intermediate layer 26 may be formed of at least one selected from the group consisting of Si, Si 3 N 4 , TiO 2 , Nb 2 O 5 , and Ta 2 O 5 , for example. The refractive index and/or thickness of the intermediate layer 26 of the multiple filters 112 differs depending on the filter. The transmission spectrum of each of the multiple filters 112 has a maximum value of transmittance at multiple wavelengths. The multiple wavelengths correspond to multiple resonance modes of different orders in the above-mentioned resonant structure. In this embodiment, all of the filters 112 in the
イメージセンサ160は、複数の光検出素子160aを備える。複数の光検出素子160aの各々は、複数のフィルタの1つに対向して配置されている。前述の対象波長域Wは、例えば、各光検出素子160aの感度域、および光学系140の透過域が重なる部分であり得る。各光検出素子160aの感度域は、各光検出素子160aが光に対して感度を有する波長域である。光学系140の透過域は、光学系140が光を、例えば、60%、80%、または90%以上の透過率で透過させる波長域である。光学系140の透過域が、各光検出素子160aの感度域をすべて含む場合、対象波長域Wは、各光検出素子160aの感度域に相当する。
The
なお、本明細書において「光に対して感度を有する波長域」とは、光を検出するのに必要な実質的な感度を有する波長域を指す。例えば、当該波長域における外部量子効率が1%以上であることを指す。光検出素子160aの外部量子効率は10%以上であってもよいし、20%以上であってもよい。以下の説明において、光検出素子160aを「画素」と称することがある。 In this specification, the term "wavelength range sensitive to light" refers to a wavelength range having the substantial sensitivity required to detect light. For example, it refers to an external quantum efficiency of 1% or more in that wavelength range. The external quantum efficiency of the light detection element 160a may be 10% or more, or 20% or more. In the following description, the light detection element 160a may be referred to as a "pixel."
図5Aに示す例では、フィルタアレイ110とイメージセンサ160とが一体に形成されているが、この例に限られない。フィルタアレイ110とイメージセンサ160とが分離されていてもよい。その場合であっても、複数の光検出素子160aの各々は、複数のフィルタ112の1つを透過した光を受ける位置に配置される。複数のフィルタ112を透過した光が、ミラーを介して複数の光検出素子160aにそれぞれ入射するように、各構成要素が配置されていてもよい。その場合、複数の光検出素子160aの各々は、複数のフィルタの1つの直下には配置されない。
In the example shown in FIG. 5A, the
さらに、図5Aに示す例では、複数の光検出素子160aは、複数のフィルタ112に1対1に対応しているが、この例に限られない。複数の光検出素子160aは、複数のフィルタ112に1対1に対応していなくてもよい。例えば、2つ以上のフィルタ112を透過した光が、1つの光検出素子160aに入射してもよい。 Furthermore, in the example shown in FIG. 5A, the multiple light detection elements 160a correspond one-to-one to the multiple filters 112, but this is not limited to the example. The multiple light detection elements 160a do not have to correspond one-to-one to the multiple filters 112. For example, light that has passed through two or more filters 112 may be incident on one light detection element 160a.
図5Bは、本実施形態による撮像システムに含まれる撮像装置100の他の例を模式的に示す断面図である。撮像装置100は、フィルタアレイ110とイメージセンサ160とに加えて、バンドパスフィルタ29をさらに備える。図5Bに示す例では、図5Aに示す例と比較して、フィルタアレイ110とイメージセンサ160との間に、バンドパスフィルタ29が配置されている。バンドパスフィルタ29は、光を透過させる波長域である透過域と、当該透過域よりも短波長側および長波長側にあり、光の透過を抑制する波長域である阻止域とを有する。阻止域は第1阻止域と第2阻止域を含んでもよい。透過域の最小波長をλ1、透過域の最大波長をλ2とすると、第1阻止域の最大波長はλ1より小さく、第2阻止域の最小波長はλ2より大きくてもよい。つまり、(第1阻止域の波長)<λ1、λ1≦(透過域の波長)≦λ2、λ2<(第2阻止域の波長)であってもよい。バンドパスフィルタ29の透過域における透過率は、例えば、60%以上、80%以上、または90%以上であり得る。バンドパスフィルタ29の阻止域における透過率は、例えば20%以下、10%以下、または5%以下であり得る。
5B is a cross-sectional view showing a schematic diagram of another example of the
撮像装置100がバンドパスフィルタ29を備える場合、前述の対象波長域Wは、例えば、各光検出素子160aの感度域、光学系140の透過域、およびバンドパスフィルタ29の透過域が重なる部分であり得る。光学系140の透過域が各光検出素子160aの感度域をすべて含み、各光検出素子160aの感度域がバンドパスフィルタ29の透過域をすべて含む場合、対象波長域Wはバンドパスフィルタ29の透過域に相当する。
When the
次に、図6を参照して、フィルタ112の透過スペクトルを説明する。図6は、フィルタ112の透過スペクトルの計算結果の一例を示す図である。この例において、フィルタ112における第1反射層28aは、TiO2層およびSiO2層が交互に積層された誘電体多層膜から形成されている。第2反射層28bについても同様である。つまり、第2反射層28bは、TiO2層およびSiO2層が交互に積層された誘電体多層膜から形成されている。フィルタ112における中間層26は、TiO2層から形成されている。図6に示す実線および破線は、中間層26が異なる厚さを有する場合の透過スペクトルを表す。透過スペクトルの計算には、RSoft社の厳密結合波理論(RCWA:Rigorous Coupled-Wave Analysis)に基づくDiffractMODが用いられた。 Next, the transmission spectrum of the filter 112 will be described with reference to FIG. 6. FIG. 6 is a diagram showing an example of the calculation result of the transmission spectrum of the filter 112. In this example, the first reflection layer 28a in the filter 112 is formed of a dielectric multilayer film in which TiO2 layers and SiO2 layers are alternately stacked. The same is true for the second reflection layer 28b. That is, the second reflection layer 28b is formed of a dielectric multilayer film in which TiO2 layers and SiO2 layers are alternately stacked. The intermediate layer 26 in the filter 112 is formed of a TiO2 layer. The solid line and the dashed line shown in FIG. 6 represent the transmission spectrum when the intermediate layer 26 has different thicknesses. DiffractMOD based on RSoft's rigorous coupled-wave analysis (RCWA) was used to calculate the transmission spectrum.
図6に示すように、透過スペクトルは、中間層26の厚さに応じて異なる。このようにして、透過スペクトルが互いに異なる複数のフィルタ112を有するフィルタアレイ110を実現できる。例えば、103個以上107個以下のフィルタ112を含むフィルタアレイ110において、透過スペクトルが異なる2種類以上、3種類以上、4種類以上、または10種類以上のフィルタ112が不規則に分布している。各フィルタ112の透過スペクトルは,対象波長域Wにおいて、複数のピークを有する。各ピークは、透過率の極大値およびその両側の極小値を有する。極大値および各極小値率の差は、例えば10%以上、20%、または30%以上であり得る。フィルタアレイ110は、透過スペクトルが互いに異なる複数の領域を有する光学素子の一例である。複数のフィルタ112は、複数の領域の一例である。
As shown in FIG. 6, the transmission spectrum varies depending on the thickness of the intermediate layer 26. In this manner, a
[3.評価関数を用いた復元処理の詳細および復元精度の課題]
以下では、評価関数を用いた復元処理をより詳細に説明する。以下の式(3)によって表すように、括弧内の評価関数が最小化される。
The restoration process using the evaluation function will be described in more detail below. As expressed by the following formula (3), the evaluation function in parentheses is minimized.
式(3)において、第1項はDF(Data Fidelity)項であり、第2項はTV(Total Variation)項である。DF項およびTV項は評価関数に含まれる項の一例である。 In equation (3), the first term is the DF (Data Fidelity) term, and the second term is the TV (Total Variation) term. The DF and TV terms are examples of terms included in the evaluation function.
評価関数を最小化するfは、例えば、以下の式(4)および(5)を用いたTwIST(Two-step Iterative Shrinkage/Thresholding)法によって推定され得る。TwIST法は、評価関数を最小化するfを推定する方法の一例である。 The f that minimizes the evaluation function can be estimated, for example, by the TwIST (Two-step Iterative Shrinkage/Thresholding) method using the following equations (4) and (5). The TwIST method is an example of a method for estimating the f that minimizes the evaluation function.
TwIST法では、評価関数を最小化するためにfが所定の回数更新される。t回目に更新されたfをftとする。初期値f0を設定することにより、式(4)を用いてf1が得られる。式(4)におけるΨTVはノイズ除去関数である。
ft(t≧2)は、式(5)を用いて得られる。式(5)におけるαおよびβは事前に設定された値である。
式(5)を用いたfの更新は、以下の処理(A)および(B)を含む。
(A)最急降下法によってDF項が小さくなるようにfを更新する。
(B)ChambolleのTVノルムの最小化により、(A)のfを初期値として、TV項が少なくなるようにfを更新する。
Updating f using equation (5) includes the following processes (A) and (B).
(A) Update f by the steepest descent method so that the DF term becomes smaller.
(B) By minimizing the Chambolle TV norm, f in (A) is used as the initial value, and f is updated so that the TV term is reduced.
したがって、式(5)を用いたfの更新を繰り返すことにより、処理(A)および(B)が繰り返し実行される。 Therefore, processes (A) and (B) are repeatedly executed by repeatedly updating f using equation (5).
処理(B)では、初期値が重要であり、符号化マスクは初期値の更新に影響しない。一方で、処理(A)では、符号化マスクがfの更新に影響する。処理(A)では、そのときのfでDF項の誤差を計算し、符号化マスクの領域ごとの透過率で当該誤差を比例配分した値をそのときのfから減算することにより、最急降下法が行われる。 In process (B), the initial value is important, and the encoding mask does not affect the update of the initial value. On the other hand, in process (A), the encoding mask affects the update of f. In process (A), the steepest descent method is performed by calculating the error in the DF term with f at that time, and subtracting the value obtained by proportionally allocating the error based on the transmittance of each region of the encoding mask from f at that time.
符号化マスクは、図5Aおよび図5Bに示すフィルタアレイ110のように、ファブリペローフィルタによって実現できる。そのような符号化マスクの光透過特性は、近傍の2つの波長バンド間で強く相関する。対象波長域Wの中央付近では相関が強い波長バンドが多い一方、対象波長域Wの両端では相関が強い波長バンドが少ない。そのことが原因で、処理(A)において、両端の波長バンドでは、中央付近の波長バンドと比較して、TwIST法による収束特性が悪くなる。その結果、対象波長域Wに含まれる複数の波長バンドにそれぞれ対応する複数の復元画像のうち、両端の波長バンドに対応する2つの復元画像の復元精度は、残りの復元画像の復元精度よりも低くなる。つまり、図3における波長バンドW1に対応する復元画像の復元精度をrc1、・・・、波長バンドWNに対応する復元画像の復元精度をrcNとすると、rc1は、rc2、・・・、rc(N-1)のそれぞれより低く、かつ、rcNは、rc2、・・・、rc(N-1)のそれぞれより低い。
The coding mask can be realized by a Fabry-Perot filter, such as the
両端の波長バンドに対応する2つの復元画像の復元精度の低下は、以下の2つの条件が満たされる場合に生じると考えられる。
・復元処理において、DF項の最小化のように、符号化マスクの光透過特性が利用される。
・利用する符号化マスクの光透過特性の相関は、離れた2つの波長バンド間と比較して、近傍の2つの波長バンド間で強くなる。
It is believed that a decrease in the restoration accuracy of the two restored images corresponding to the wavelength bands at both ends occurs when the following two conditions are satisfied.
In the reconstruction process, the optical transmission properties of the coding mask are exploited, as is the minimization of the DF term.
The correlation of the optical transmission characteristics of the coding mask used is stronger between two nearby wavelength bands than between two distant wavelength bands.
両端の波長バンドに対応する2つの復元画像の復元精度は低いので、当該2つの復元画像を含む複数の復元画像に基づいて処理を行う場合、正確な処理を行うことが容易ではない。本発明者らは、この課題を見出し、復元画像に基づいてより正確な処理を行うことが可能な本開示の実施形態による撮像システムに想到した。 The restoration accuracy of the two restored images corresponding to the wavelength bands at both ends is low, so when processing is performed based on multiple restored images including these two restored images, it is not easy to perform accurate processing. The inventors have identified this problem and come up with an imaging system according to an embodiment of the present disclosure that is capable of performing more accurate processing based on restored images.
[4.復元画像に基づいてより正確な処理を行う撮像システム]
図7は、復元画像に基づいてより正確な処理を行う撮像システムの構成例を模式的に示す図である。図7に示す撮像システムは、撮像装置100と、画像処理装置200と、表示装置300とを備える。矢印付きの線は信号の送受信を表す。
[4. Imaging system that performs more accurate processing based on restored images]
Fig. 7 is a diagram showing a schematic configuration example of an imaging system that performs more accurate processing based on a restored image. The imaging system shown in Fig. 7 includes an
以下に、図7に示す撮像システムの各構成要素を説明する。撮像装置100については、図1Aから図1Dを参照して説明した通りである。撮像装置100は、対象波長域Wの光を検出し、対象波長域Wに含まれるN個(Nは4以上の整数)の波長バンドの成分が重畳された画像信号を生成する。撮像装置100は、バンドパスフィルタ29をさらに備えてもよい。対象波長域Wがバンドパスフィルタ29の透過域に相当する場合、バンドパスフィルタ29は、対象波長域Wの光を透過させ、対象波長域Wとは異なる他の波長域の光の透過を抑制する。当該他の波長域は、バンドパスフィルタ29の阻止域に相当する。本明細書において、対象波長域Wを、「第1波長域」とも称し、他の波長域を「第2波長域」とも称する。第1波長域は、撮像装置100が光を検出可能な波長域である。
The components of the imaging system shown in FIG. 7 will be described below. The
画像処理装置200は、処理回路210と、メモリ212と、記憶装置220とを備える。処理回路210は、撮像装置100、記憶装置220、および表示装置300の動作を制御する。処理回路210は、上記の画像信号に基づいて、N個の波長バンドにそれぞれ対応するN個の復元画像を生成する。当該複数の復元画像に基づいて処理回路210が実行する動作の詳細については後述する。
The
処理回路210によって実行されるコンピュータプログラムは、ROMまたはRAM(Random Access Memory)などのメモリ212に格納されている。処理回路210およびメモリ212は、1つの回路基板に集積されていてもよいし、別々の回路基板に設けられていてもよい。処理回路210は、複数の回路に分散していてもよい。処理回路210および/またはメモリ212は、有線または無線の通信ネットワークを介して、他の構成要素から離れた遠隔地に設置されていてもよい。
The computer program executed by the
記憶装置220は、1つ以上の記憶媒体を含む。各記憶媒体は、例えば、半導体メモリ、磁気記憶媒体、または光学記憶媒体などの任意の記憶媒体であり得る。記憶装置220は、圧縮画像10から復元画像を生成するために用いられる復元テーブルを記憶する。復元テーブルは、符号化マスクとして機能するフィルタアレイ110の光透過特性を示す符号化情報の一例であり、出荷前にキャリブレーションによって取得される。復元テーブルは、例えば、式(2)における行列Hを示すテーブル形式のデータであり得る。
The
表示装置300は、入力ユーザインターフェース(UI)310および表示UI320を表示する。入力UI310は、ユーザが情報を入力するために用いられる。ユーザが入力UI310に入力した情報は、処理回路210によって受け取られる。表示UI320は、復元画像に基づく情報を表示するために用いられる。
The
入力UI310および表示UI320は、グラフィカルユーザインターフェース(GUI)として表示される。入力UI310および表示UI320に示される情報は、表示装置300に表示されると言うこともできる。入力UI310および表示UI320は、タッチスクリーンのように入力および出力の両方が可能なデバイスによって実現されていてもよい。その場合、タッチスクリーンが表示装置300として機能してもよい。入力UI310としてキーボードおよび/またはマウスを用いる場合、入力UI310は、表示装置300とは独立した装置である。
The
[5.処理回路210が実行する処理動作]
以下では、図8を参照して、本実施形態による撮像システムにおける処理回路210が実行する処理動作を説明する。図8は、本実施形態による撮像システムにおける処理回路210が実行する処理動作を説明するための図である。
5. Processing operations performed by the
The processing operation executed by the
図8の上の図には、対象波長域Wに含まれるN個の波長バンド、すなわち波長バンドW1、W2、W3、・・・、WN-2、WN―1、WNが示されている。これらの波長バンドは、中心波長が短い順に番号付けされているが、中心波長が長い順に番号付けされてもよい。処理回路210は、波長バンドW1、W2、W3、・・・、WN-2、WN―1、WNにそれぞれ対応する復元画像20W1、20W2、20W3、・・・、20WN-2、20WN―1、20WNを生成する。λic= (λmin(i)+λmax(i))/2であってもよい。λicは波長バンドWiの中心波長、λmin(i)は波長バンドWiに含まれる最小波長、λmax(i)は波長バンドWiに含まれる最大波長、1≦i≦Nである。λmin(1)=λminかつλmax(N)=λmax、または、λmin(N)=λminかつλmax(1)=λmaxであってもよい。λminは対象波長域Wに含まれる最小波長、λmaxは対象波長域Wに含まれる最大波長である。
8 shows N wavelength bands included in the target wavelength range W, i.e., wavelength bands W 1 , W 2 , W 3 , ..., W N-2 , W N-1 , and W N. These wavelength bands are numbered in ascending order of center wavelength, but may be numbered in ascending order of center wavelength. The
図8の下の図には、N個の波長バンドのうち、両端の波長バンド以外のN-2個の波長バンド、すなわち波長バンドW2、W3、・・・、WN-2、WN―1が示されている。処理回路210は、復元画像20W1、20W2、20W3、・・・、20WN-2、20WN―1、20WNのうち、復元画像20W1および復元画像20WNを除いた残りの復元画像20W2、20W3、・・・、20WN-2、20WN―1の一部または全部に基づいて処理動作を行う。復元画像20W1は中心波長が最も短い波長バンドW1に対応し、復元画像20WNは中心波長が最も長い波長バンドWNに対応する。処理回路210は、上記の処理に、復元精度が低い復元画像20W1および復元画像20WNを用いない。したがって、N個の復元画像に基づいて処理を行う場合と比較して、より正確な処理を行うことが可能になる。
8, the N-2 wavelength bands other than the two wavelength bands at both ends, i.e., wavelength bands W 2 , W 3 , ..., W N-2 , W N-1, are shown. The
なお、本明細書において、波長バンドW1、W2、W3、・・・、WN-2、WN―1、WNを、それぞれ、第1波長バンド、第2波長バンド、第3波長バンド、・・・、第N-2波長バンド、第N-1波長バンド、第N波長バンドとも称する。同様に、復元画像20W1、20W2、20W3、・・・、20WN-2、20WN―1、20WNを、それぞれ、第1復元画像、第2復元画像、第3復元画像、・・・、第N-2復元画像、第N-1復元画像、第N復元画像とも称する。復元画像を、単に「画像」とも称する。
In this specification, the wavelength bands W 1 , W 2 , W 3 , ..., W N-2 , W N-1 , and W N are also referred to as the first wavelength band, the second wavelength band, the third wavelength band, ..., the N-2 wavelength band, the N-1 wavelength band, and the N wavelength band, respectively. Similarly, the restored
次に、図9から図15を参照して、処理回路210が実行する処理動作の例1~6を説明する。
Next, examples 1 to 6 of the processing operations performed by the
図9は、処理回路210が実行する処理動作の例1を概略的に示すフローチャートである。処理回路210は、図9に示すステップS101~S103の動作を実行する。ステップS103の動作が、残りの復元画像20W2、20W3、・・・、20WN-2、20WN―1の一部または全部に基づく処理動作の例に相当する。
Fig. 9 is a flowchart that outlines an example 1 of the processing operation executed by the
<ステップS101>
処理回路210は、撮像装置100から圧縮画像10の画像信号を取得する。
<Step S101>
The
<ステップS102>
処理回路210は、ステップS101において取得した画像信号に基づいて、波長バンドW1、W2、W3、・・・、WN-2、WN―1、WNにそれぞれ対応する復元画像20W1、20W2、20W3、・・・、20WN-2、20WN―1、20WNを生成する。すなわち、処理回路210は、対象波長域Wに含まれるN個の波長バンドにそれぞれ対応するN個の復元画像を生成する。
<Step S102>
The
<ステップS103>
処理回路210は、復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を出力する。より具体的には、処理回路210は、N個の復元画像のうち、復元画像20W1および復元画像20WNを除いた残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を出力する。処理回路210は、復元画像20W1および復元画像20WNを出力しない。出力した残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部また全部は、例えば、表示装置300、記憶装置220、または分析装置などの他の装置に送られ得る。
<Step S103>
The
本明細書において、「処理回路210は、~、残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を出力する」とは、処理回路210が、残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を示す信号を、処理回路210の外部に出力することを意味する。
In this specification, "the
残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1のうち、どの復元画像を出力するか、またはどの復元画像を出力しないかの情報を、ステップS101、S102、またはS103の前に、ユーザが表示装置300の入力UI310を介して指定してもよい。処理回路210は、ユーザが指定した情報を読み込んでステップS103の動作を実行する。
Prior to step S101, S102, or S103, the user may specify information regarding which of the remaining restored
あるいは、どの復元画像を出力するか、またはどの復元画像を出力しないかの情報は、処理回路210が処理動作を開始する前に、メモリ212または記憶装置220に記憶されていてもよい。その場合、処理回路210は、メモリ212または記憶装置220から当該情報を読み込んでステップS103の動作を実行する。
Alternatively, information regarding which restored images are to be output or which restored images are not to be output may be stored in
図10は、処理回路210が実行する処理動作の例2を概略的に示すフローチャートである。処理回路210は、図10に示すステップS201~S203の動作を実行する。ステップS203の動作が、残りの復元画像20W2、20W3、・・・、20WN-2、20WN―1の一部または全部に基づく処理動作の例に相当する。
Fig. 10 is a flowchart that outlines an example 2 of the processing operation executed by the
<ステップS201およびS202>
ステップS201およびS202の動作は、それぞれ、図9に示すステップS101およびS102の動作と同じである。
<Steps S201 and S202>
The operations in steps S201 and S202 are the same as the operations in steps S101 and S102 shown in FIG.
<ステップS203>
処理回路210は、表示装置300に、N個の復元画像のうち、復元画像20W1および復元画像20WNを除いた残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を表示させる。処理回路210は、表示装置300に、復元画像20W1および復元画像20WNを表示させない。ユーザは、表示装置300を介して、残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を確認することができる。
<Step S203>
The
図11は、処理回路210が実行する処理動作の例3を概略的に示すフローチャートである。処理回路210は、図11に示すステップS301~S303の動作を実行する。ステップS303の動作が、残りの復元画像20W2、20W3、・・・、20WN-2、20WN―1の一部または全部に基づく処理動作の例に相当する。
Fig. 11 is a flowchart that outlines an example 3 of the processing operation executed by the
<ステップS301およびS302>
ステップS301およびS302の動作は、それぞれ、図9に示すステップS101およびS102の動作と同じである。
<Steps S301 and S302>
The operations in steps S301 and S302 are the same as the operations in steps S101 and S102 shown in FIG.
<ステップS303>
処理回路210は、N個の復元画像のうち、復元画像20W1および復元画像20WNを除いた残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部に基づく画像の輝度値に関する輝度情報を出力する。当該輝度情報は、例えば、画素の輝度値の波長依存性、すなわち輝度スペクトルであり得る。処理回路210は、復元画像20W1および復元画像20WNに基づく輝度情報を出力しない。処理回路210から出力される輝度情報は、復元精度が低い復元画像20W1および復元画像20WNに基づかないので、より正確な輝度情報を取得することができる。
<Step S303>
The
本明細書において、「処理回路210は、~、輝度情報を出力する」とは、処理回路210が、輝度情報を示す信号を、処理回路210の外部に出力することを意味する。
In this specification, "the
処理回路210は、残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部に基づく輝度情報を出力し、分析装置に送ってもよい。あるいは、処理回路210は、残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部に基づく輝度情報を出力し、表示装置300に送ってもよい。言い換えれば、処理回路210は、表示装置300に、当該輝度情報を表示させてもよい。
図12は、表示装置300に表示される輝度情報の例を模式的に示す図である。図12には、表示装置300の画面が示されている。画面の左側には、圧縮画像10が示されている。ユーザは、圧縮画像10に写る対象物70のうち、輝度情報を知りたい点または領域を指定する。当該点は、例えば、太い矢印によって表されるカーソルを用いて指定され得る。当該領域は、例えば、点線によって表されるように、カーソルを用いて囲むことによって指定され得る。なお、画面の左側には、圧縮画像10の代わりに、N個の復元画像の一部または全部が重畳された画像が示されてもよい。
FIG. 12 is a diagram showing a schematic example of luminance information displayed on
画面の右側には、指定した点または領域における輝度情報として輝度スペクトルが示されている。当該輝度スペクトルは、指定した点または領域における、波長バンドW2、・・・、WN-1にそれぞれ対応する画素の輝度値B2、・・・、BN―1を含む。点ではなく領域を指定した場合、各輝度値は、例えば、当該領域に含まれる複数の画素の輝度値の平均であり得る。図12に示す輝度スペクトルにおいて、各輝度値に対応する波長は、例えば、波長バンドの中心波長であり得る。輝度スペクトルとして、輝度値B2、・・・、BN―1をすべて表示してもよいし、例えば、1つ置きまたは2つ置きのように所定の数だけ空けて表示してもよい。 On the right side of the screen, a luminance spectrum is shown as luminance information at a specified point or region. The luminance spectrum includes luminance values B 2 , ..., B N-1 of pixels corresponding to wavelength bands W 2 , ..., W N-1 at the specified point or region. When a region is specified instead of a point, each luminance value may be, for example, an average of luminance values of a plurality of pixels included in the region. In the luminance spectrum shown in FIG. 12, the wavelength corresponding to each luminance value may be, for example, the central wavelength of the wavelength band. As the luminance spectrum, all of the luminance values B 2 , ..., B N-1 may be displayed, or may be displayed with a predetermined number of spaces between them, such as every other or every third luminance value.
図13は、処理回路210が実行する処理動作の例4を概略的に示すフローチャートである。処理回路210は、図13に示すステップS401~S403の動作を実行する。ステップS403の動作が、残りの復元画像20W2、20W3、・・・、20WN-2、20WN―1の一部または全部に基づく処理動作の例に相当する。
Fig. 13 is a flowchart that outlines a fourth example of the processing operation executed by the
<ステップS401およびS402>
ステップS401およびS402の動作は、それぞれ、図9に示すステップS101およびS102の動作と同じである。
<Steps S401 and S402>
The operations in steps S401 and S402 are the same as the operations in steps S101 and S102 shown in FIG.
<ステップS403>
処理回路210は、N個の復元画像のうち、復元画像20W1および復元画像20WNを除いた残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部に基づいて、対象物70の状態を分析する分析処理を行う。処理回路210は、分析処理に復元画像20W1および復元画像20WNを用いない。復元精度が低い復元画像20W1および復元画像20WNを用いないので、より正確な分析処理を行うことができる。処理回路210は、分析結果を出力し、表示装置300に送ってもよい。言い換えれば、処理回路210は、表示装置300に、分析結果を表示させてもよい。
<Step S403>
The
対象物70が食品である場合に、分析処理は、例えば、対象物70の糖度または鮮度に関する状態を判定する処理であり得る。あるいは、対象物70が検査対象の物体である場合、分析処理は、対象物70の検査を実行し、検査結果を示す情報を生成する処理であってもよい。検査は、例えば、対象物70に異物が含まれているか否かを判定したり、塗装物に対して適切な塗装が施されているか否かを判定したりする処理であり得る。
If the
図14は、処理回路210が実行する処理動作の例5を概略的に示すフローチャートである。処理回路210は、図14に示すステップS501~S503の動作を実行する。ステップS503の動作が、残りの復元画像20W2、20W3、・・・、20WN-2、20WN―1の一部または全部に基づく処理動作の例に相当する。
Fig. 14 is a flowchart that outlines a fifth example of the processing operation executed by the
<ステップS501およびS502>
ステップS501およびS502の動作は、それぞれ、図9に示すステップS101およびS102の動作と同じである。
<Steps S501 and S502>
The operations in steps S501 and S502 are the same as the operations in steps S101 and S102 shown in FIG.
<ステップS503>
処理回路210は、記憶装置220に、N個の復元画像のうち、復元画像20W1および復元画像20WNを除いた残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を記憶させる。処理回路210は、記憶装置220に、復元画像20W1および復元画像20WNを記憶させない。処理回路210は、必要に応じて、残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を記憶装置220から取得することができる。
<Step S503>
The
図15は、処理回路210が実行する処理動作の例6を概略的に示すフローチャートである。処理回路210は、図15に示すステップS601~S603の動作を実行する。ステップS603の動作が、残りの復元画像20W2、20W3、・・・、20WN-2、20WN―1の一部または全部に基づく処理動作の例に相当する。
Fig. 15 is a flowchart that outlines a sixth example of the processing operation executed by the
<ステップS601およびS602>
ステップS601およびS602の動作は、それぞれ、図9に示すステップS101およびS102の動作と同じである。
<Steps S601 and S602>
The operations in steps S601 and S602 are the same as the operations in steps S101 and S102 shown in FIG.
<ステップS603>
処理回路210は、N個の復元画像のうち、復元画像20W1および復元画像20WNを除いた残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部に基づいてカラー画像を生成し、表示装置300に、当該カラー画像を表示させる。処理回路210は、当該カラー画像の生成に復元画像20W1および復元画像20WNを用いない。ユーザは、表示装置300を介して、カラー画像を確認することができる。
<Step S603>
The
当該カラー画像は、赤色、緑色、および青色を用いて色付けした残りの復元画像20W2、20W3、・・・、20WN-2、20WN-1の一部または全部を重畳させることによって得られる。各復元画像の色付けは、例えば、対応する波長バンドの中心波長の色に合わせて行われ得る。
The color image is obtained by superimposing some or all of the remaining restored
[6.付記]
以上の実施の形態の記載により、以下の技術が開示される。
[6. Notes]
The above description of the embodiments discloses the following techniques.
(技術1)
第1波長域の光を検出し、前記第1波長域に含まれるN個(Nは4以上の整数)の波長バンドの成分が重畳された画像信号を生成する撮像装置と、
前記画像信号に基づいて、前記N個の波長バンドにそれぞれ対応するN個の画像を生成する処理回路と、
を備え、
前記N個の波長バンドが、中心波長が短い順または長い順に番号付けされているとした場合に、前記処理回路は、前記N個の画像のうち、第1波長バンドに対応する第1画像および第N波長バンドに対応する第N画像を除いた残りの画像の一部または全部に基づいて処理動作を行う、
システム。
(Technique 1)
an imaging device that detects light in a first wavelength range and generates an image signal in which components of N wavelength bands (N is an integer equal to or greater than 4) included in the first wavelength range are superimposed;
a processing circuit for generating N images corresponding to the N wavelength bands based on the image signals;
Equipped with
When the N wavelength bands are numbered in ascending or descending order of center wavelength, the processing circuit performs a processing operation based on some or all of the remaining images of the N images, excluding a first image corresponding to a first wavelength band and an Nth image corresponding to an Nth wavelength band.
system.
このシステムでは、スペクトル情報が圧縮された画像から生成される復元画像に基づいて、より正確な処理を行うことができる。 This system allows for more accurate processing based on restored images generated from images with compressed spectral information.
(技術2)
前記処理動作は、前記残りの画像の一部または全部を出力することであり、
前記処理回路は、前記第1画像および前記第N画像を出力しない、
技術1に記載のシステム。
(Technique 2)
the processing operation being to output some or all of the remaining image;
the processing circuit does not output the first image and the Nth image;
The system described in
このシステムでは、残りの画像の一部または全部を、表示装置、記憶装置、または分析装置などの他の装置に送ることができる。 The system can send some or all of the remaining image to other devices, such as a display device, storage device, or analysis device.
(技術3)
前記処理動作は、表示装置に、前記残りの画像の一部または全部を表示させることであり、前記処理回路は、前記第1画像および前記第N画像を前記表示装置に表示させない、
技術1に記載のシステム。
(Technique 3)
the processing operation is to cause a display device to display some or all of the remaining images, and the processing circuitry does not cause the display device to display the first image and the Nth image.
The system described in
このシステムにおいて、ユーザは、表示装置を介して、残りの画像の一部または全部を確認することができる。 In this system, the user can view some or all of the remaining images via a display device.
(技術4)
記憶装置をさらに備え、
前記処理動作は、前記記憶装置に、前記残りの画像の一部または全部を記憶させることであり、前記処理回路は、前記第1画像および前記第N画像を前記記憶装置に記憶させない、
技術1に記載のシステム。
(Technique 4)
Further comprising a storage device;
the processing operation is to cause the storage device to store some or all of the remaining images, and the processing circuitry does not cause the storage device to store the first image and the Nth image.
The system described in
このシステムにおいて、処理回路は、必要に応じて、残りの画像の一部または全部を記憶装置から取得することができる。 In this system, the processing circuitry can retrieve some or all of the remaining image from the storage device as needed.
(技術5)
前記処理動作は、前記残りの画像の一部または全部に基づいて分析処理を行うことであり、
前記処理回路は、前記分析処理に前記第1画像および前記第N画像を用いない、
技術1に記載のシステム。
(Technique 5)
the processing operation is performing an analysis process based on some or all of the remaining image;
the processing circuit does not use the first image and the Nth image in the analysis process.
The system described in
このシステムでは、より正確な分析処理を行うことができる。 This system allows for more accurate analysis.
(技術6)
前記処理動作は、前記残りの画像の一部または全部に基づく画像の輝度値に関する輝度情報を出力することであり、
前記処理回路は、前記第1画像および前記第N画像に基づく輝度情報を出力しない、
技術1に記載のシステム。
(Technique 6)
the processing operation being to output luminance information relating to luminance values of an image based on some or all of the remaining image;
the processing circuit does not output luminance information based on the first image and the Nth image;
The system described in
このシステムでは、より正確な輝度情報を取得できる。 This system allows for more accurate brightness information to be obtained.
(技術7)
前記処理動作は、前記残りの画像の一部または全部に基づいてカラー画像を生成することであり、前記カラー画像の生成に前記第1画像および前記第N画像を用いない、
技術1に記載のシステム。
(Technique 7)
the processing operation is generating a color image based on some or all of the remaining images, and the first image and the Nth image are not used in generating the color image;
The system described in
このシステムにおいて、ユーザは、例えば表示装置を介して、カラー画像を確認することができる。 In this system, the user can view a color image, for example, via a display device.
(技術8)
前記撮像装置は、前記第1波長域の前記光を透過させ、前記第1波長域とは異なる第2波長域の光の透過を抑制するバンドパスフィルタをさらに備える、
技術1から7のいずれかに記載のシステム。
(Technique 8)
The imaging device further includes a bandpass filter that transmits the light in the first wavelength range and suppresses transmission of light in a second wavelength range different from the first wavelength range.
8. A system according to any one of
このシステムでは、バンドパスフィルタの透過域によって第1波長域を規定することができる。 In this system, the first wavelength range can be defined by the transmission range of the bandpass filter.
(技術9)
前記撮像装置は,透過スペクトルが互いに異なる複数の領域を有し、前記複数の領域の各々の透過スペクトルは,前記第1波長域において、複数のピークを有する、
技術1から8のいずれかに記載のシステム。
(Technique 9)
The imaging device has a plurality of regions having different transmission spectra, and each of the transmission spectra of the plurality of regions has a plurality of peaks in the first wavelength range.
The system according to any one of
このシステムでは、圧縮センシング技術により、N個の波長バンドにそれぞれ対応するN個の画像を生成することができる。 In this system, compressed sensing technology can be used to generate N images, each corresponding to one of the N wavelength bands.
(技術10)
第1波長域の光を検出し、前記第1波長域に含まれるN個(Nは4以上の整数)の波長バンドの成分が重畳された画像信号を生成する撮像装置を備えるシステムにおいてコンピュータによって実行される方法であって、
前記画像信号に基づいて、前記N個の波長バンドにそれぞれ対応するN個の画像を生成することと、
前記N個の波長バンドが、中心波長が短い順または長い順に番号付けされているとした場合に、前記N個の画像のうち、第1波長バンドに対応する第1画像および第N波長バンドに対応する第N画像を除いた残りの画像の一部または全部に基づいて処理動作を行うことと、
を含む、
方法。
(Technique 10)
A method executed by a computer in a system including an imaging device that detects light in a first wavelength range and generates an image signal in which components of N wavelength bands (N is an integer equal to or greater than 4) included in the first wavelength range are superimposed, the method comprising:
generating N images corresponding to the N wavelength bands based on the image signals;
performing a processing operation based on some or all of the remaining images, excluding a first image corresponding to a first wavelength band and an Nth image corresponding to an Nth wavelength band, among the N images, when the N wavelength bands are numbered in ascending or descending order of center wavelengths;
Including,
method.
この方法により、スペクトル情報が圧縮された画像から生成される復元画像に基づいて、より正確な処理を行うことができる。 This method allows for more accurate processing based on a restored image generated from an image with compressed spectral information.
(その他)
本開示は上記した実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を上記実施の形態に施したものも本開示に含まれてもよい。本開示の実施の形態の変形例は下記に示すようなものであってもよい。
(others)
The present disclosure is not limited to the above-described embodiment. As long as it does not deviate from the spirit of the present disclosure, various modifications conceived by a person skilled in the art may also be included in the present disclosure. Modifications of the embodiment of the present disclosure may be as shown below.
複数のフィルタを含むフィルタアレイを通過した光を検出し、複数の信号を生成する撮像装置と、前記複数の信号のそれぞれは複数の波長バンドと1対1に対応する複数の情報を含み、
前記複数の信号に基づいて、前記複数の波長バンドに1対1対応する複数の画像を生成可能な回路とを含み、
前記複数の波長バンドは、第1波長を含む第1波長バンド、第2波長を含む第2波長バンドと、前記第1波長バンドと前記第2波長バンドを含まない第3の複数の波長バンドであり、
前記第1波長は、前記複数の波長バンドに含まれる複数の波長の中で最も小さく、
前記第2波長は、前記複数の波長バンドに含まれる前記複数の波長の中で最も大きく、
前記複数の波長バンドの数はN、前記Nは4以上であり、
前記第3の複数の波長バンドの数は(N-2)であり、
前記複数の画像は、前記第1波長バンドに対応する第1画像、前記第2波長バンドに対応する第2画像、前記第3の複数の波長バンドに1対1対応する第3の複数の画像であり、
前記第1画像と前記第2画像の両方は表示されず、
前記第1画像及び前記第2画像の両方は、前記回路に直接または間接的に接続された1または装置に出力されず、これにより、前記1または複数の装置は前記第1画像及び前記第2画像の両方を使用せず、
前記第3の複数の画像に含まれる1または複数の画像は表示され、
g=H(f1f3f4・・・f(N-1)fNf2)Tであり、
gは前記複数の信号に対応する情報を示し、
f1は前記第1画像の第1の複数の画素値に対応する情報を示し、
f2は前記第2画像の第2の複数の画素値に対応する情報を示し、
f3は前記第3の複数の画像に含まれる画像I3に対応する複数の画素値に対応する情報を示し、f4は前記第3の複数の画像に含まれる画像I4に対応する複数の画素値に対応する情報を示し、・・・、f(N-1)は前記第3の複数の画像に含まれる画像I(N-1)に対応する複数の画素値に対応する情報を示し、fNは前記第3の複数の画像に含まれる画像INに対応する複数の画素値に対応する情報を示し、
前記Hは(p×q)×(p×q×N)個の値を含む行列を示し、
前記複数の信号の数は(p×q)、前記複数の画像のそれぞれに含まれる画素数は(p×q)である、
システム。
an imaging device that detects light passing through a filter array including a plurality of filters and generates a plurality of signals, each of the plurality of signals including a plurality of pieces of information that correspond one-to-one to a plurality of wavelength bands;
and a circuit capable of generating a plurality of images in one-to-one correspondence with the plurality of wavelength bands based on the plurality of signals;
the plurality of wavelength bands are a first wavelength band including a first wavelength, a second wavelength band including a second wavelength, and a third plurality of wavelength bands excluding the first wavelength band and the second wavelength band;
the first wavelength is the smallest of the plurality of wavelengths included in the plurality of wavelength bands;
the second wavelength is the largest among the plurality of wavelengths included in the plurality of wavelength bands,
the number of wavelength bands is N, where N is 4 or greater;
the number of wavelength bands in the third plurality is (N-2);
the plurality of images being a first image corresponding to the first wavelength band, a second image corresponding to the second wavelength band, and a third plurality of images in one-to-one correspondence with the third plurality of wavelength bands;
neither the first image nor the second image is displayed;
neither the first image nor the second image is output to one or more devices directly or indirectly connected to the circuit, whereby the one or more devices do not use both the first image and the second image;
One or more images in the third plurality of images are displayed;
g = H(f 1 f 3 f 4 ... f (N-1) f N f 2 ) T ;
g indicates information corresponding to the plurality of signals,
f1 denotes information corresponding to a first plurality of pixel values of the first image;
f2 denotes information corresponding to a second plurality of pixel values of the second image;
f3 indicates information corresponding to a plurality of pixel values corresponding to image I3 included in the third plurality of images, f4 indicates information corresponding to a plurality of pixel values corresponding to image I4 included in the third plurality of images, ..., f (N-1) indicates information corresponding to a plurality of pixel values corresponding to image I (N-1) included in the third plurality of images, fN indicates information corresponding to a plurality of pixel values corresponding to image IN included in the third plurality of images,
The H denotes a matrix including (p×q)×(p×q×N) values,
The number of the plurality of signals is (p×q), and the number of pixels included in each of the plurality of images is (p×q).
system.
本開示の技術は、例えば、多波長または高解像度の画像を取得するカメラおよび測定機器に有用である。本開示の技術は、例えば、生体・医療・美容向けセンシング、食品の異物・残留農薬検査システム、リモートセンシングシステムおよび車載センシングシステムにも応用できる。 The technology disclosed herein is useful, for example, in cameras and measuring devices that capture multi-wavelength or high-resolution images. The technology disclosed herein can also be applied, for example, to sensing for biomedical and cosmetic applications, food foreign body and pesticide residue inspection systems, remote sensing systems, and vehicle-mounted sensing systems.
10、10a、10b 圧縮画像
20 ハイパースペクトル画像
20W1、20W2、・・・、20WN 復元画像
70 対象物
100 撮像装置
110 フィルタアレイ
112 フィルタ
140、140A、140B 光学系
160 イメージセンサ
200 画像処理装置
210 処理回路
212 メモリ
220 記憶装置
300 表示装置
310 入力UI
320 表示UI
REFERENCE SIGNS
320 Display UI
Claims (10)
前記画像信号に基づいて、前記N個の波長バンドにそれぞれ対応するN個の画像を生成する処理回路と、
を備え、
前記N個の波長バンドが、中心波長が短い順または長い順に番号付けされているとした場合に、前記処理回路は、前記N個の画像のうち、第1波長バンドに対応する第1画像および第N波長バンドに対応する第N画像を除いた残りの画像の一部または全部に基づいて処理動作を行う、
システム。 an imaging device that detects light in a first wavelength range and generates an image signal in which components of N wavelength bands (N is an integer equal to or greater than 4) included in the first wavelength range are superimposed;
a processing circuit for generating N images corresponding to the N wavelength bands based on the image signals;
Equipped with
When the N wavelength bands are numbered in ascending or descending order of center wavelength, the processing circuit performs a processing operation based on some or all of the remaining images of the N images, excluding a first image corresponding to a first wavelength band and an Nth image corresponding to an Nth wavelength band.
system.
前記処理回路は、前記第1画像および前記第N画像を出力しない、
請求項1に記載のシステム。 the processing operation being to output some or all of the remaining image;
the processing circuit does not output the first image and the Nth image;
The system of claim 1 .
前記処理回路は、前記第1画像および前記第N画像を前記表示装置に表示させない、
請求項1に記載のシステム。 the processing operation is to cause a display device to display some or all of the remaining image;
the processing circuit does not cause the display device to display the first image and the Nth image.
The system of claim 1 .
前記処理動作は、前記記憶装置に、前記残りの画像の一部または全部を記憶させることであり、
前記処理回路は、前記第1画像および前記第N画像を前記記憶装置に記憶させない、
請求項1に記載のシステム。 Further comprising a storage device;
the processing operation is to cause the storage device to store some or all of the remaining image;
the processing circuitry does not store the first image and the Nth image in the storage device.
The system of claim 1 .
前記処理回路は、前記分析処理に前記第1画像および前記第N画像を用いない、
請求項1に記載のシステム。 the processing operation is performing an analysis process based on some or all of the remaining image;
the processing circuit does not use the first image and the Nth image in the analysis process.
The system of claim 1 .
前記処理回路は、前記第1画像および前記第N画像に基づく輝度情報を出力しない、
請求項1に記載のシステム。 the processing operation being to output luminance information relating to luminance values of an image based on some or all of the remaining image;
the processing circuit does not output luminance information based on the first image and the Nth image;
The system of claim 1 .
請求項1に記載のシステム。 the processing operation is generating a color image based on some or all of the remaining images, and the first image and the Nth image are not used in generating the color image;
The system of claim 1 .
請求項1から7のいずれかに記載のシステム。 The imaging device further includes a bandpass filter that transmits the light in the first wavelength range and suppresses transmission of light in a second wavelength range different from the first wavelength range.
A system according to any preceding claim.
前記複数の領域の各々の透過スペクトルは,前記第1波長域において、複数のピークを有する、
請求項1から7のいずれかに記載のシステム。 the imaging device has a plurality of regions having different transmission spectra;
The transmission spectrum of each of the plurality of regions has a plurality of peaks in the first wavelength range.
A system according to any preceding claim.
前記画像信号に基づいて、前記N個の波長バンドにそれぞれ対応するN個の画像を生成することと、
前記N個の波長バンドが、中心波長が短い順または長い順に番号付けされているとした場合に、前記N個の画像のうち、第1波長バンドに対応する第1画像および第N波長バンドに対応する第N画像を除いた残りの画像の一部または全部に基づいて処理動作を行うことと、
を含む、
方法。 A method executed by a computer in a system including an imaging device that detects light in a first wavelength range and generates an image signal in which components of N wavelength bands (N is an integer equal to or greater than 4) included in the first wavelength range are superimposed, the method comprising:
generating N images corresponding to the N wavelength bands based on the image signals;
performing a processing operation based on some or all of the remaining images, excluding a first image corresponding to a first wavelength band and an Nth image corresponding to an Nth wavelength band, among the N images, when the N wavelength bands are numbered in ascending or descending order of center wavelengths;
Including,
method.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023-178258 | 2023-10-16 | ||
| JP2023178258 | 2023-10-16 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025084081A1 true WO2025084081A1 (en) | 2025-04-24 |
Family
ID=95448225
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/034106 Pending WO2025084081A1 (en) | 2023-10-16 | 2024-09-25 | Imaging system and method used for same |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025084081A1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016156801A (en) * | 2014-11-19 | 2016-09-01 | パナソニックIpマネジメント株式会社 | Imaging apparatus and spectroscopic system |
| WO2021145054A1 (en) * | 2020-01-16 | 2021-07-22 | パナソニックIpマネジメント株式会社 | Optical filter array, optical detection device, and optical detection system |
| WO2021192891A1 (en) * | 2020-03-26 | 2021-09-30 | パナソニックIpマネジメント株式会社 | Signal processing method, signal processing device, and image-capturing system |
| JP2022098157A (en) * | 2020-12-21 | 2022-07-01 | パナソニックIpマネジメント株式会社 | Object inspection method, processing device, and inspection system |
| WO2022230640A1 (en) * | 2021-04-28 | 2022-11-03 | パナソニックIpマネジメント株式会社 | Image processing device, image capturing system, and method for estimating error in restored image |
| WO2023106142A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Signal processing method, program, and system |
-
2024
- 2024-09-25 WO PCT/JP2024/034106 patent/WO2025084081A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016156801A (en) * | 2014-11-19 | 2016-09-01 | パナソニックIpマネジメント株式会社 | Imaging apparatus and spectroscopic system |
| WO2021145054A1 (en) * | 2020-01-16 | 2021-07-22 | パナソニックIpマネジメント株式会社 | Optical filter array, optical detection device, and optical detection system |
| WO2021192891A1 (en) * | 2020-03-26 | 2021-09-30 | パナソニックIpマネジメント株式会社 | Signal processing method, signal processing device, and image-capturing system |
| JP2022098157A (en) * | 2020-12-21 | 2022-07-01 | パナソニックIpマネジメント株式会社 | Object inspection method, processing device, and inspection system |
| WO2022230640A1 (en) * | 2021-04-28 | 2022-11-03 | パナソニックIpマネジメント株式会社 | Image processing device, image capturing system, and method for estimating error in restored image |
| WO2023106142A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Signal processing method, program, and system |
Non-Patent Citations (2)
| Title |
|---|
| SATO RYOFUMI, TAKAO IKUYA, HAMADA YURI , KABURAGI TAKASHI , KURIHARA YOSUKE: "Proposal of a High-Dimensional Spectral Image Generation Method Based on RGB Images", HTTPS://IPSJ.IXSQ.NII.AC.JP, INFORMATION PROCESSING SOCIETY OF JAPAN, 4 March 2021 (2021-03-04), JP, pages 1 - 2, XP093306997, Retrieved from the Internet <URL:https://ipsj.ixsq.nii.ac.jp/records/215350> * |
| SATO RYOJI, TAKAO IKUYA , HAMADA YURI, KABURAGI TAKASHI, KURIHARA YOSUKE: "Proposal of a dimension expansion algorithm for estimating high-dimensional spectral images based on RGB images - Construction of a harvest time prediction system for aging agricultural workers -", IPSJ SIG TECHNICAL REPORT, vol. 2021-MBL-100, no. 11, 26 August 2021 (2021-08-26), JP, pages 1 - 4, XP093307001, ISSN: 2189-4450 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7457952B2 (en) | Photodetection devices, photodetection systems, and filter arrays | |
| US11843876B2 (en) | Optical filter array, photodetection device, and photodetection system | |
| JP6945195B2 (en) | Optical filters, photodetectors, and photodetectors | |
| JP7668452B2 (en) | Signal processing method, signal processing device, and imaging system | |
| JP7142251B2 (en) | Filter array and photodetection system | |
| WO2021192891A1 (en) | Signal processing method, signal processing device, and image-capturing system | |
| WO2022230640A1 (en) | Image processing device, image capturing system, and method for estimating error in restored image | |
| WO2022163421A1 (en) | Method and device for detecting foreign substance contained in inspection target | |
| WO2023286613A1 (en) | Filter array, light detection device, and light detection system | |
| WO2025084081A1 (en) | Imaging system and method used for same | |
| WO2023106142A1 (en) | Signal processing method, program, and system | |
| US20230069927A1 (en) | Filter array and light detection system | |
| WO2024043009A1 (en) | Signal processing method and signal processing device | |
| WO2024195499A1 (en) | Imaging system, matrix data, and method for generating matrix data | |
| JP2025071703A (en) | Apparatus and filter array for use in a system for producing an image - Patents.com | |
| US20250386084A1 (en) | Imaging system, matrix data, and matrix data generation method | |
| WO2023106143A1 (en) | Device and filter array used in system for generating spectral image, system for generating spectral image, and method for manufacturing filter array | |
| JP2024020922A (en) | Restored image evaluation method and imaging system; | |
| WO2024053302A1 (en) | Information processing method and imaging system | |
| WO2025100176A1 (en) | Method and system for correcting image | |
| WO2025192485A1 (en) | Imaging system and imaging method | |
| WO2024203282A1 (en) | Imaging system and method | |
| WO2024142683A1 (en) | Optical detecting device, optical detecting system, and filter array |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24879507 Country of ref document: EP Kind code of ref document: A1 |
|
| DPE1 | Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101) |