WO2016194577A1 - 撮像素子、撮像方法、プログラム、並びに電子機器 - Google Patents
撮像素子、撮像方法、プログラム、並びに電子機器 Download PDFInfo
- Publication number
- WO2016194577A1 WO2016194577A1 PCT/JP2016/064213 JP2016064213W WO2016194577A1 WO 2016194577 A1 WO2016194577 A1 WO 2016194577A1 JP 2016064213 W JP2016064213 W JP 2016064213W WO 2016194577 A1 WO2016194577 A1 WO 2016194577A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- phase difference
- photoelectric conversion
- pixel
- difference detection
- conversion layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/704—Pixels specially adapted for focusing, e.g. phase difference pixel sets
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/12—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10F—INORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
- H10F39/00—Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
- H10F39/10—Integrated devices
- H10F39/12—Image sensors
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10F—INORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
- H10F99/00—Subject matter not provided for in other groups of this subclass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10F—INORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
- H10F39/00—Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
- H10F39/80—Constructional details of image sensors
- H10F39/806—Optical elements or arrangements associated with the image sensors
- H10F39/8063—Microlenses
Definitions
- This technology relates to an image sensor, an imaging method, a program, and an electronic device.
- the present invention relates to an imaging device, an imaging method, a program, and an electronic device that detect a focus with higher accuracy without degrading image quality.
- the autofocus method for digital cameras mainly includes a contrast method and a phase difference method.
- the contrast method is a method in which the lens is moved so that the point with the highest contrast is in focus.
- auto-focusing can be performed by reading a part of the image of the image sensor, and no other auto-focus optical system is required.
- the phase difference method is a method in which a secondary imaging lens is used to decompose the image into two images and detect the amount of focus shift from the interval between the two images.
- a secondary imaging lens is used to decompose the image into two images and detect the amount of focus shift from the interval between the two images.
- images of light passing through different parts of the lens for example, light beams on the right and left sides of the lens are used.
- Image plane phase difference autofocus performs autofocus by phase difference method using an image sensor.
- the imaging element is provided with a condensing microlens, and an imaging element for phase difference autofocus can be obtained by adding a diaphragm member that restricts light incident on the microlens (for example, Patent Document 1).
- the phase difference method does not require time for moving the lens back and forth in order to find the focal position, so that high-speed autofocus can be realized.
- a diaphragm member that restricts light incident on the microlens for example, a light shielding film is provided, and the amount of light incident on the image sensor is limited, so that sensitivity is deteriorated. That is, in the image plane phase difference method, for example, the right and left light fluxes of the lens are used, and a part of the light incident on the lens is shielded. Will deteriorate.
- Patent Document 1 the light passing through the left side of the lens is not incident on the right side image sensor, and the light passing through the right side of the lens is not incident on the left side image sensor.
- a reflecting plate is used and unnecessary light is reflected.
- some of the plurality of image sensors arranged on the imaging surface are used as pixels for phase difference detection, so a part of the captured image is lost and the image quality is low. There was a possibility that it would fall.
- the oblique incident light that can detect the phase difference is limited to about 10 to 15 degrees, and it has been desired that it can cope with a wider oblique incident light.
- the present technology has been made in view of such a situation, and makes it possible to perform phase difference detection corresponding to wide oblique incident light without degrading image quality.
- two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked, and one pixel of the first photoelectric conversion layer on the side close to the optical lens is provided.
- the incident light is configured to include a state of being received by the photoelectric conversion unit of the second photoelectric conversion layer far from the optical lens, and obtained by the photoelectric conversion unit of the second photoelectric conversion layer. The phase difference is detected using the obtained signal.
- the photoelectric conversion unit having three or more pixels of the second photoelectric conversion layer can be provided.
- the second photoelectric conversion layer may include a plurality of phase difference detection pixels with respect to one of the on-chip lenses provided in the first photoelectric conversion layer.
- the second photoelectric conversion layer may include a plurality of phase difference detection pixels and detect a phase difference using two of the plurality of phase difference detection pixels.
- the phase difference can be detected using a pixel set according to the chief ray angle among the plurality of phase difference detection pixels.
- the phase difference can be detected using a pixel set according to the optical lens among the plurality of pixels for detecting the phase difference.
- the phase difference can be detected using a pixel set according to the image height of the optical lens among the plurality of pixels for detecting the phase difference.
- the phase difference can be detected using a pixel set according to the focal length of the optical lens among the plurality of pixels for detecting the phase difference.
- a pixel used as a phase difference detection pixel is set with reference to a correspondence table in which information for identifying the optical lens and a pixel to be used are associated with each other. be able to.
- the pixel used as the phase difference detection pixel is set with reference to a correspondence table in which the image height of the optical lens is associated with the pixel to be used. Can do.
- the region of the substrate through which light received by the pixels of the second photoelectric conversion layer is transmitted is a material that does not have an absorption band in the visible light region. It can be formed.
- the material can be a silicon oxide film or a silicon nitride film.
- the photoelectric conversion unit of the second photoelectric conversion layer can receive light from a red on-chip color filter provided in the first photoelectric conversion layer.
- the photoelectric conversion unit of the second photoelectric conversion layer can receive light from a white on-chip color filter provided in the first photoelectric conversion layer.
- two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked, and one pixel of the first photoelectric conversion layer on the side close to the optical lens is provided.
- An imaging method of an imaging device configured to include a state in which incident light is received by the photoelectric conversion unit of a second photoelectric conversion layer far from the optical lens, and the second photoelectric
- a plurality of phase difference detection pixels for detecting a phase difference are arranged in the conversion layer, and the phase difference detection used according to the optical lens or the image height of the optical lens among the plurality of phase difference detection pixels. Setting a pixel for use.
- the program according to one aspect of the present technology is such that two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked and incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens.
- the program for controlling the imaging of the imaging device configured to include a state in which the received light is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens,
- a plurality of phase difference detection pixels for detecting a phase difference are arranged in the photoelectric conversion layer, and among the plurality of phase difference detection pixels, the phase difference used according to the optical lens or the image height of the optical lens.
- a computer is caused to execute a process including a step of setting detection pixels.
- two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked, and one pixel of the first photoelectric conversion layer on the side close to the optical lens is provided.
- the incident light is configured to include a state of being received by the photoelectric conversion unit of the second photoelectric conversion layer far from the optical lens, and obtained by the photoelectric conversion unit of the second photoelectric conversion layer.
- An image sensor that detects a phase difference using a signal obtained is provided.
- two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked, and the first side closer to the optical lens is provided. It is configured to include a state in which light incident on one pixel of the photoelectric conversion layer is received by the photoelectric conversion unit of the second photoelectric conversion layer far from the optical lens.
- a plurality of phase difference detection pixels for detecting a phase difference are arranged in the second photoelectric conversion layer, and the optical lens or the optical lens among the plurality of phase difference detection pixels is used depending on the image height.
- a phase difference detection pixel is set.
- An electronic apparatus includes the image sensor.
- phase difference detection corresponding to a wide oblique incident light can be performed without degrading the image quality.
- the present technology described below can be applied to an autofocus mechanism such as a digital camera.
- an autofocus mechanism such as a digital camera.
- the present technology can be applied to a phase difference method, and in the following description, an explanation will be given by taking image plane phase difference autofocus as an example. .
- Image plane phase difference autofocus is an image capture unit (such as an imaging device such as a digital still camera or a video camera, a portable terminal device having an imaging function such as a mobile phone, or a copier using the imaging device for an image reading unit).
- the present invention can be applied to all electronic devices using a semiconductor package for the photoelectric conversion unit.
- FIG. 1 is a block diagram illustrating an example of a configuration of an electronic apparatus according to the present technology, for example, an imaging apparatus.
- an imaging apparatus 10 according to the present technology includes an optical system including a lens group 21 and the like, an imaging element (imaging device) 22, a DSP (Digital Signal Processor) circuit 23, a frame memory 24, a display unit 25, A recording unit 26, an operation unit 27, a power supply unit 28, and the like are included.
- the DSP circuit 23, the frame memory 24, the display unit 25, the recording unit 26, the operation unit 27, and the power supply unit 28 are connected to each other via a bus line 29.
- the lens group 21 takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging element 22.
- the imaging element 22 converts the amount of incident light imaged on the imaging surface by the lens group 21 into an electrical signal for each pixel and outputs the electrical signal as a pixel signal.
- the DSP circuit 23 processes a signal from the image sensor 22.
- the image sensor 22 has pixels for detecting a focus, and processes a signal from such a pixel to detect a focus.
- the image sensor 22 has pixels for constructing an image of a photographed subject, and processes such as processing a signal from such a pixel and developing it in the frame memory 24 are also performed.
- the display unit 25 includes a panel type display device such as a liquid crystal display device or an organic EL (electroluminescence) display device, and displays a moving image or a still image captured by the image sensor 22.
- the recording unit 26 records a moving image or a still image captured by the image sensor 22 on a recording medium such as a video tape or a DVD (Digital Versatile Disk).
- the operation unit 27 issues operation commands for various functions of the imaging apparatus under operation by the user.
- the power supply unit 28 appropriately supplies various power sources serving as operation power sources for the DSP circuit 23, the frame memory 24, the display unit 25, the recording unit 26, and the operation unit 27 to these supply targets.
- the imaging device to which the present technology is applied is configured by a plurality of layers, each of which has an imaging element in two layers, for example, two layers, and one of them has an imaging element for obtaining an image.
- the other layer is used as an image sensor for performing autofocus by the phase difference method.
- an imaging apparatus to which the present technology is applied and a conventional imaging apparatus
- a case where autofocus is realized by an image plane phase difference method in a conventional imaging apparatus will be described.
- a conventional imaging device a case will be described in which an imaging element is arranged in one layer, and an imaging element for obtaining an image and an imaging element for phase difference detection are mixed in that layer.
- FIG. 2 is a diagram for explaining image plane phase difference autofocus.
- a pixel array unit 51 in which pixels are two-dimensionally arranged in a matrix is provided on the imaging surface of the image sensor 22, and a predetermined number of pixels in the pixel array unit 51 are assigned to phase difference detection pixels.
- a plurality of phase difference detection pixels are provided at predetermined positions in the pixel array unit 51.
- the pixel array unit 51 shown in FIG. 2 shows a part of the pixel array unit 51 constituting the image sensor 22.
- four pixels are provided as phase difference detection pixels.
- the phase difference detection pixel 61-1 and the phase difference detection pixel 61-2 are right side light shielding pixels, and the phase difference detection pixel 62-1 and the phase difference detection pixel 62-2 are left side light shielding pixels. Yes.
- the right light-shielding pixel has a structure in which the right part is shielded from light
- the left light-shielding pixel has a structure in which the left part is shielded from light.
- the right light-shielding pixel and the left light-shielding pixel are used as a pair of phase difference detection pixels.
- the right side or the left side is shielded so that the function of selecting and receiving the light incident angle (hereinafter referred to as separation ability) is realized.
- phase difference detection pixels are different from each other as shown in FIG. 2. They may be provided at different positions, at different positions, or adjacent to each other.
- FIG. 3 shows the structure of the pixel 61-1 of the right light-shielding pixel.
- the pixel 61-1 has a configuration in which an on-chip lens 81, an on-chip color filter 82, a light shielding film 83, and a photodiode 84-1 are arranged from the upper side in the drawing.
- the configuration of pixels that are not phase difference detection pixels (hereinafter referred to as normal pixels 71) is shown on the left side of FIG.
- the normal pixel 71 has a configuration in which an on-chip lens 81, an on-chip color filter 82, and a photodiode 84-2 are arranged. That is, the normal pixel 71 has a configuration in which the light shielding film 83 is deleted from the phase difference detection pixel 61.
- the left side of the lens group 21 is provided.
- the incoming light and the light coming from the right part can be separated and received.
- the focus position can be detected as shown in FIG.
- the output from the right-side light-shielded photodiode does not match the output from the left-side light-shielded photodiode (the output of the paired phase difference detection pixels does not match).
- the outputs from the two photodiodes match (the outputs of the pair of phase difference detection pixels match).
- the focus position When the focus position is detected by such a phase difference method, the focus position can be detected at a relatively high speed, and high-speed autofocus can be realized. However, there is a possibility that the sensitivity may be lowered, for example, in a dark place. In such cases, it may be difficult to detect the focal position.
- irregular reflection may affect normal pixels around the phase difference detection pixels.
- a part of the incident light incident on the phase difference detection pixel 61-1 hits the side surface of the light shielding film 83 and is incident on the photodiode 84-2 of the normal pixel 71. If there is such irregular reflection at the light shielding film 83 and the irregularly reflected light is incident on the normal pixel 71, the characteristics of the normal pixel 71 may fluctuate and the image quality may deteriorate.
- FIG. 5 is a graph showing the incident angle response of the image plane phase difference, where the vertical axis represents the output value from the phase difference detection pixels 61 and 62, and the horizontal axis represents the incident angle. Referring to FIG. 5, it can be seen that there are peaks at the incident angle of ⁇ 10 degrees and at 10 degrees. In this manner, the phase difference detection pixels 61 and 62 can obtain the largest output with incident light having an incident angle of around ⁇ 10 degrees (10 degrees).
- the output value becomes small for incident light with an incident angle greater than this, for example, an incident angle of 15 degrees or greater, making it difficult to detect the phase difference.
- CRA Chief Ray Angle
- the phase difference detection pixel since the range of the incident angle of light incident on the phase difference detection pixel may be increased by increasing the chief ray angle, the phase difference can be detected corresponding to a wide incident angle. It is necessary to do so.
- phase difference detection pixel By applying the phase difference detection pixel described below, it is possible to detect a phase difference corresponding to a wide incident angle, and it is possible to detect a phase difference without deteriorating image quality.
- FIG. 6 is a diagram illustrating an image sensor according to the present disclosure. As illustrated in FIG. 6, the imaging element 101 according to the present disclosure receives light of the subject 103 collected by the optical lens 102. The optical lens 102 corresponds to the lens group 21 of the imaging device 10 of FIG.
- the image sensor 101 is, for example, a composite image sensor in which two semiconductor substrates 111A and 111B are stacked. In each of the semiconductor substrates 111A and 111B, a photoelectric conversion layer having a photoelectric conversion unit divided into pixel units is formed.
- the semiconductor of the semiconductor substrates 111A and 111B is, for example, silicon (Si).
- the semiconductor substrate 111A closer to the optical lens 102 is referred to as the upper substrate 111A
- the semiconductor substrate 111B farther from the optical lens 102 is referred to as the lower substrate 111B.
- the two semiconductor substrates 111A and 111B are not particularly distinguished, they are also simply referred to as the substrate 111.
- FIG. 7 is a diagram showing a schematic configuration of the upper substrate 111A and the lower substrate 111B of the image sensor 101. As shown in FIG. On the upper substrate 111A, a plurality of pixels on which an on-chip lens 131, an R (red), G (green), or B (blue) on-chip color filter 132 and a photodiode 133 are formed are arranged in a two-dimensional array. Has been.
- the lower substrate 111B has a phase difference detection pixel group 151 in a state in which a plurality of pixels are arranged in a form corresponding to some of the pixel rows or pixel columns of the plurality of pixel rows formed on the upper substrate 111A. Is formed.
- a logic circuit including a signal processing circuit for processing a signal detected by the upper substrate 111A or the lower substrate 111B is formed in a region where the phase difference detection pixel group 151 is not formed on the lower substrate 111B. May be.
- the color filters formed in each pixel of the upper substrate 111A are arranged in a Bayer array, for example. Accordingly, the upper substrate 111A also functions as a color image sensor that outputs R, G, and B color signals.
- an image of the subject 103 (FIG. 6) is obtained.
- This image may be a color image or an image obtained by receiving special light such as infrared rays.
- the on-chip color filter 132 is also a filter suitable for the special light.
- the on-chip color filter 132 is described by taking a Bayer arrangement as an example, but the color arrangement of the on-chip color filter 132 is not limited to the Bayer arrangement, and other arrangement methods can be adopted.
- a pixel in which the R color filter is formed is referred to as an R pixel
- a pixel in which the G color filter is formed is referred to as a G pixel
- a pixel in which the B color filter is formed is referred to as a B pixel. .
- the lower substrate 111B also functions as an image sensor that outputs a signal of any one of R, G, and B colors.
- the description is continued assuming that the pixel functions as a phase difference detection pixel.
- a substrate 171 on which logic circuits, memories, and the like are arranged is provided.
- a logic circuit, a memory, or the like may be disposed in a portion of the lower substrate 111B where the phase difference detection pixels are not disposed, or a third layer may be disposed on the substrate 171. Further, it may be arranged to be distributed on the lower substrate 111B and the substrate 171.
- the imaging device 101 configured as described above acquires an image of the subject 103 with the first upper substrate 111A, and detects a phase difference for focusing on the subject 103 with the second lower substrate 111B. .
- the imaging device 101 In the imaging device 101 to which the present technology is applied, light that has passed through the pixels (sensors) on the upper substrate 111A is received by the pixels (sensors) on the lower substrate 111B, and is disposed on the lower substrate 111B. Thus, the phase difference is detected.
- the light shielding film 83 (FIG. 3) constituting the pixel for phase difference detection is not necessary, and the light shielding film 83 is eliminated. It is possible to prevent the image quality from being deteriorated due to the influence of the irregularly reflected light.
- the pixels arranged on the lower substrate 111B are used as phase difference detection pixels, and pixels for picking up an image are not arranged around the phase difference detection pixels.
- an image that is not affected by light due to irregular reflection can be taken, and the image quality can be improved.
- phase difference detection pixels 152-1 and 152-2 are arranged as the phase difference detection pixel group 151 of the lower substrate 111B.
- the phase difference is composed of two pixels that respectively receive light from the right side and light from the left side. Therefore, in FIG. 7, two phase difference detection pixels 152-1 and a phase difference detection pixel are used.
- Pixel 152-2 is arranged.
- the phase difference detection pixel 152-1 corresponds to the right light shielding pixel 61 (FIG. 2)
- the phase difference detection pixel 152-2 corresponds to the left light shielding pixel 62.
- phase difference detection pixel groups 151 for detecting a phase difference composed of two pixels are arranged on the lower substrate 111B, and each phase difference detection pixel group 151 detects a phase difference. By performing control so as to be minimized, autofocus is performed.
- one phase difference detection pixel group 151 is illustrated and described as in FIG.
- the phase difference detection pixel group 151 may be configured by two phase difference detection pixels. However, as shown in FIG. It may be arranged as a phase difference detection pixel. As shown in FIG. 8, one phase difference detection pixel group 151 may be composed of ten phase difference detection pixels 152-1 to 152-10.
- phase difference detection pixels 152 are arranged.
- the present technology is not limited to ten and can be applied to any number.
- the range of incident angles of light that can detect the phase difference can be widened. In order to widen the range of the incident angle of light that can be detected, it is preferable that three or more pixels are arranged.
- FIG. 9 is a cross-sectional view of the imaging pixel 101.
- an upper substrate 111A on which an on-chip lens 131, an on-chip color filter 132, and a photodiode 133 are disposed.
- the photoelectric conversion layer on which the photodiode 133 is disposed may be formed of an organic photoelectric conversion film or the like. Moreover, when comprised with an organic photoelectric converting film, you may make it comprise from several photoelectric converting layers.
- the upper substrate 111A formed by the backside illumination type will be described as an example, but the present technology can be applied to either the backside illumination type or the front side illumination type.
- a multilayer wiring layer 201 including a plurality of wiring layers and an interlayer insulating film is formed below the photodiode 133 of the upper substrate 111A.
- the multilayer wiring layer 201 may be configured such that a plurality of transistor circuits constituting a readout circuit for reading signal charges accumulated in the photodiode 133 are formed in the vicinity of the upper substrate 111A.
- the lower substrate 111B is configured by a silicon layer which is an n-type (first conductivity type) semiconductor region, and a photodiode as a photoelectric conversion unit is formed for each pixel by a pn junction in the silicon layer. Can be configured.
- the pixel size of the lower substrate 111B may be different from the pixels of the upper substrate 111A.
- a multilayer wiring layer including a plurality of transistor circuits, a plurality of wiring layers, an interlayer insulating film, and the like constituting a readout circuit for reading out signal charges accumulated in the photodiode is formed on the upper side or the lower side of the lower substrate 111B. May be.
- the upper substrate 111A and the lower substrate 111B are bonded (adhered) via the protective film 202.
- phase difference detection pixels 152-1 to 152-10 are arranged on the lower substrate 111B.
- each of the phase difference detection pixels 152-1 to 152-10 is a photodiode.
- the phase difference detection pixels 152-11 to 152-10 receive light transmitted through one on-chip lens 131.
- the light transmitted through one on-chip lens 131 provided in the upper layer is received by a plurality of photodiodes provided in the lower layer, and the phase difference is detected. Yes.
- the wiring layer of the multilayer wiring layer 201 includes wiring composed of copper or the like, and also functions as a light shielding film and a diaphragm. As shown in FIG. 9, when the on-chip lens 131 shown in the center of the figure is an on-chip lens 131A, the light transmitted through the on-chip lens 131A is emitted from the phase difference detection pixels 152-1 to 152-10. It is configured to receive light in either one.
- the on-chip lens 131 different from the on-chip lens 131A for example, the on-chip lens 131B adjacent to the right of the on-chip lens 131A is not transmitted by the multilayer wiring layer 201, and the phase difference detection pixel 152- 1 to 152-10 is configured not to receive light.
- the multilayer wiring layer 201 blocks light so that light transmitted through one on-chip lens 131 is received by the phase difference detection pixel group 151 of the lower substrate 111B.
- a light shielding film may be provided separately from the multilayer wiring layer 201.
- one on-chip lens 131 has a plurality of colors, for example, They may be arranged across colors (for example, R, G, G, B) corresponding to 2 ⁇ 2 four pixels, or may be arranged across a plurality of photodiodes 133.
- the light transmitted from one on-chip lens 131 is a phase difference detection pixel on the lower substrate 111B.
- the group 151 is configured to receive light.
- phase difference detection pixel group 151 when the light transmitted through one on-chip lens 131 is received by the phase difference detection pixel group 151 and the phase difference is detected, a plurality of pixels in the phase difference detection pixel group 151 are detected. For example, two pixels are used to detect the phase difference. This phase difference detection will be further described.
- FIG. 10 is a diagram illustrating an example of a pixel used for phase difference detection.
- the phase difference detection pixel 152-3 and the phase difference detection pixel 152-4 that are circled in FIG. 10 are selected as the phase difference detection pixels, and the phase difference depends on the amount of light received by the two pixels. Detected and autofocus is executed.
- the phase difference is detected.
- the pixel 152-4 and the phase difference detection pixel 152-5 are selected.
- the phase difference detection pixel 152-2 and the phase difference detection pixel 152-3 are selected.
- phase difference detection pixel 152 to be selected may be determined according to the image height of the lens, as will be described later. .
- the chief ray angle may vary depending on the type of lens itself, for example, the type of lens such as a telephoto lens or a wide-angle lens, so that the phase difference detection pixel 152 selected depending on the type of lens is determined. May be. Telephoto lenses with a long focal length tend to have a small chief ray angle, and wide-angle lenses with a short focal length tend to have a chief ray angle.
- phase difference detection pixel 152-5 and a phase difference detection pixel 152- arranged near the center in the phase difference detection pixel group 151. 6 is selected, and the phase difference can be detected by these two pixels.
- phase difference detection pixel 152-1 and the phase difference detection pixel 152 arranged near the end in the phase difference detection pixel group 151, as shown in FIG. -2 is selected, and the phase difference can be detected by these two pixels.
- phase difference detection pixel 152-5 and the phase difference detection pixel 152-6 are selected, and the wide angle lens side is selected.
- the phase difference detection pixel 152 may be selected in accordance with the focal length such that the phase difference detection pixel 152-1 and the phase difference detection pixel 152-2 are selected. good.
- the phase difference detection pixel 152 is selected according to the focus. May be.
- the light transmitted through one on-chip lens 131 in the upper layer is received by each of the phase difference detection pixels 152 in the phase difference detection pixel group 151 in the lower layer, and the amount of light received by two of them. Accordingly, the phase difference is detected as described above.
- the light transmitted through the different on-chip lenses 131 in the upper layer is respectively transmitted to the phase difference detection pixels 152 in the lower-layer phase difference detection pixel group 151 arranged at positions corresponding to the different on-chip lenses 131.
- the phase difference may be detected according to the amount of light received by one pixel.
- the two pixels that detect the phase difference may be two adjacent pixels that receive light transmitted through one on-chip lens 131, or on-chip lenses that are arranged at different positions. Two pixels arranged at different positions for receiving light transmitted through 131 may be used.
- phase difference detection pixels 152 out of the ten phase difference detection pixels 152 are selected, but they are not adjacent to each other. Two pixels may be selected. For example, referring to FIG. 14 again, pixels arranged at distant positions such as the phase difference detection pixel 152-1 and the phase difference detection pixel 152-3 may be selected.
- the phase difference detection pixel 152 for obtaining the phase difference may be selected depending on which of the separation ratio characteristic and the sensitivity ratio characteristic has priority. For example, when priority is given to the separation ratio characteristic, two phase difference detection pixels 152 at a distant position are selected from the ten phase difference detection pixels 152, and when priority is given to the sensitivity ratio characteristic, 10 Two adjacent phase difference detection pixels 152 can be selected from the number of phase difference detection pixels 152.
- a correspondence table is held on the camera side or the lens side and a pixel for phase difference detection is selected by referring to the correspondence table will be described as an example.
- the correspondence table is held on the camera side or the lens side, for example, in the imaging apparatus 10 illustrated in FIG. 1, the lens group 21 (corresponding to the optical lens 102 in FIG. 6) is detachable from the imaging apparatus 10.
- a correspondence table is held in a storage unit (not shown) of the lens group 21 (optical lens 102) or the main body of the imaging device 10 is illustrated.
- a correspondence table is held in a storage unit that does not exist.
- the lens group 21 is not detachable from the image pickup apparatus 10 but is an integral type, a correspondence table is stored in the storage unit of the image pickup apparatus 10 and is referred to as appropriate.
- a case where the lens group 21 is detachable from the imaging device 10 will be described as an example. Further, although described as the lens group 21, the number of lenses may be one.
- Such a correspondence table is created based on the processing of the flowchart shown in FIG. Further, it is created when the lens group 21 is manufactured, when the imaging device 10 is manufactured, or the like. Alternatively, when the lens group 21 is attached to the imaging device 10 for the first time, a correspondence table regarding the lens group 21 may be created.
- step S11 information on the chief ray angle for each lens is acquired. For example, when there are ten lens groups 21 that can be attached to the imaging apparatus 10, information on principal ray angles of the ten lens groups 21 is acquired. Information for identifying the lens group 21 is also acquired.
- step S12 information on the phase difference detection pixel corresponding to the chief ray angle is acquired.
- the chief ray angle is large as described with reference to FIG. 14, information such as using the phase difference detection pixel 152-1 and the phase difference detection pixel 152-2 as the phase difference detection pixel is provided.
- Information of the phase difference detection pixel corresponding to the chief ray angle is acquired by performing measurement or the like in advance.
- a correspondence table is created.
- the correspondence table is, for example, a correspondence table in which information for identifying the lens group 21, principal ray angle information, and phase difference detection pixel information are associated with each other.
- a correspondence table in which only information for identifying the lens group 21 and information on phase difference detection pixels is associated may be used.
- the correspondence table created in this way is stored in the lens group 21 or the imaging device 10 in step S14.
- a correspondence table in which at least the information allocated to identify the stored lens group 21 and the information on the phase difference detection pixels are associated with each other may be stored. good.
- information for identifying a plurality of lens groups 21 and information on phase difference detection pixels associated with the respective lens groups 21 are stored at least in correspondence tables. You may be made to do.
- the correspondence table when the correspondence table is stored in the lens group 21, information regarding the lens group 21 is stored, and when the correspondence table is stored in the imaging device 10, information regarding the plurality of lens groups 21 is stored. It is possible to make it. Also, it is possible to provide a mechanism in which the correspondence table once stored is updated via a network or the like.
- the imaging device 10 When the lens group 21 is attached to the imaging device 10 in step S31, the imaging device 10 recognizes the attached lens group 21 in step S32. In step S ⁇ b> 33, the imaging device 10 reads a correspondence table (information) regarding the attached lens group 21.
- the correspondence table is stored in the lens group 21, when the lens group 21 is attached to the imaging device 10, the correspondence table is supplied from the lens group 21 to the imaging device 10. Alternatively, the imaging device 10 accesses the lens group 21 and reads the correspondence table.
- the imaging device 10 When the correspondence table is stored in the imaging device 10, when the lens group 21 is attached to the imaging device 10, information for identifying the lens group 21 is supplied from the lens group 21 to the imaging device 10. .
- the imaging apparatus 10 reads a correspondence table related to the attached lens group 21 from the identification information supplied from the lens group 21 from the stored correspondence table.
- step S34 the phase difference detection pixels are selected and set based on the read correspondence table.
- the phase difference is detected by the set phase difference detection pixel, and autofocus is executed.
- the same processing is performed on the newly mounted lens group 21, thereby setting a phase difference detection pixel corresponding to the newly mounted lens group 21.
- phase difference detection pixels are set corresponding to the lens group 21, an appropriate phase difference detection pixel is selected according to the principal ray angle that differs depending on the lens, and autofocus is executed. Is possible.
- phase difference detection pixel selection of a phase difference detection pixel according to the image height will be described.
- the chief ray angle may vary depending on the image height of the lens. Therefore, the phase difference detection pixel may be selected according to the image height of the lens.
- the upper diagram of FIG. 17 is a graph representing the chief ray angle characteristic
- the middle diagram is a diagram representing an image image
- the lower diagram is a graph representing the phase difference characteristic.
- the horizontal axis of the graph representing the chief ray angle characteristics shown in the upper diagram of FIG. 17 represents the image height (Image height), and the vertical axis represents the chief ray angle (CRA). It can be seen from this graph that the chief ray angle increases as the image height increases.
- the image shown in the middle diagram of FIG. 17 represents an image of an image to be captured. In the image image, a pixel with an image height of 100%, a pixel with an image height of 60%, and a pixel with an image height of 0% are each square. It is represented by a line and a corresponding portion of the graph representing the chief ray angle characteristic.
- the horizontal axis of the graph showing the phase difference characteristic shown in the lower diagram of FIG. 17 represents the incident angle (angle) of the light beam, and the vertical axis represents the sensitivity characteristic (Pabs total).
- the numbers in the figure represent the phase difference detection pixels 152-1 to 152-10 (for example, FIG. 14), and for example, “1” represents the phase difference detection pixel 152-1.
- the pixel from which the peak value is obtained differs depending on the incident angle of the light beam. For example, when the incident angle of the light beam is 0 degree, the phase difference detection pixel 152-5 has the highest peak value, and when the incident angle of the light beam is -15 degrees, the phase difference detection pixel 152-4 has the highest peak value. Is expensive.
- the phase difference detection pixel 152-5 that can obtain the highest peak value is suitable as the phase difference detection pixel, and the incident angle of the light beam is -15 degrees. Therefore, it can be said that the phase difference detection pixel 152-4 that can obtain the highest peak value is suitable as the phase difference detection pixel.
- the upper left of the image has an image height of 100%, and the portion of such an image height of 100% has a larger principal ray angle from the upper diagram (in the upper diagram, , About 30 degrees).
- a phase difference is used as the phase difference detection pixel.
- a detection pixel 152-2 is used.
- phase difference detection pixel 152-2 When the phase difference detection pixel 152-2 is used, the adjacent phase difference detection pixel 152-1 or the phase difference detection pixel 152-3 is combined with the phase difference detection pixel 152-2 to detect the phase difference. It is used as a pixel.
- the image height near the center of the image is 0%, and the portion with such an image height of 0% has a smaller chief ray angle from the upper diagram (upper diagram). Then, it can be read as about 0 degree).
- the phase difference detection pixel group 151 arranged at the position where the image pickup device that takes an image with a low image height and a small chief ray angle is arranged as the phase difference detection pixel, for example, the phase difference A detection pixel 152-5 is used.
- phase difference detection pixel 152-5 When the phase difference detection pixel 152-5 is used, the adjacent phase difference detection pixel 152-4 or the phase difference detection pixel 152-6 is combined with the phase difference detection pixel 152-5 to detect the phase difference. It is used as a pixel.
- the image height is 60% between the upper side and the center of the image image. It can be read as a medium size (about 25 degrees in the figure above).
- the phase difference detection pixel group 151 arranged at the position where the image sensor for imaging a portion having such a medium image height and a medium chief ray angle is medium the phase difference
- a phase difference detection pixel 152-3 is used as the detection pixel.
- phase difference detection pixel 152-3 When the phase difference detection pixel 152-3 is used, the adjacent phase difference detection pixel 152-2 or the phase difference detection pixel 152-4 is combined with the phase difference detection pixel 152-3 to detect the phase difference. It is used as a pixel.
- the example shown in FIG. 17 is a case where the maximum value of the chief ray angle is 30 degrees.
- the phase difference detection pixels can be selected as described with reference to FIG.
- the phase difference detection pixels can be selected as described with reference to FIG.
- the upper diagram, the middle diagram, and the lower diagram of FIG. 18 are respectively a graph representing the principal ray angle characteristic, a screen image diagram, and a phase difference characteristic graph, similar to the upper diagram, the middle diagram, and the lower diagram of FIG. is there.
- a phase difference detection pixel 152-4 is used as a phase difference detection pixel at an image height of 100%.
- the vicinity of the center of the image image in other words, the vicinity of the center of the lens of the lens group 21 has an image height of 0%.
- phase difference detection is performed as a phase difference detection pixel.
- the pixel 152-5 is used.
- phase difference detection pixel used at the image height of 100% when the lens group 21 having the maximum chief ray angle of 30 degrees shown in FIG. 17 is used is the phase difference detection pixel 152-2.
- the phase difference detection pixels 152 in the phase difference detection pixel group 151 may be different even when the image height is the same. .
- phase difference detection pixels 152 may be set in portions where the image height is different in the predetermined lens group 21. Further, in a different lens group 21, when the lens group 21 is exchanged, a phase difference detection pixel 152 suitable for the exchanged lens group 21 may be set.
- phase difference detection pixels corresponding to the lens group 21 are set when the lens group 21 is attached.
- the same phase difference detection pixels 152 may be set for the phase difference detection pixels set at this time regardless of the image portion, that is, regardless of the image height.
- the phase difference detection pixel 152-4 and the phase difference detection pixel 152-5 are used as the phase difference detection pixels in the correspondence table, Regardless of the image height, the phase difference detection pixel 152-4 and the phase difference detection pixel 152-5 are used as phase difference detection pixels in any part.
- the correspondence table describes the lens group 21 and the phase difference detection pixels used in a one-to-one correspondence.
- phase difference detection pixel 152 corresponding to the lens group 21 when the lens group 21 is attached and the phase difference detection pixel 152 corresponding to the lens group 21 is set, it depends on the portion of the image, that is, on the image height. Different phase difference detection pixels 152 may be set.
- the phase difference detection pixel 152-2 and the phase difference detection pixel 152-3 are used as the phase difference detection pixels, and the image height is increased. Is 0%, and if the phase difference detection pixel 152-4 and the phase difference detection pixel 152-5 are used as the phase difference detection pixels and are described in the correspondence table, the image height is 100%. In the meantime, the phase difference detection pixel 152-2 and the phase difference detection pixel 152-3 are used as the phase difference detection pixel. The phase difference detection pixel 152-5 is used as the phase difference detection pixel.
- the correspondence table describes the lens group 21 and the phase difference detection pixels used in a one-to-multiple correspondence.
- phase difference detection pixel 152 it is possible to set the phase difference detection pixel 152 only by the image height, regardless of the lens group 21.
- phase difference detection pixel By setting the phase difference detection pixel to be used for each lens group 21, phase difference detection using an appropriate phase difference detection pixel can be performed for each lens, and autofocus is performed with high accuracy. It becomes possible.
- phase difference detection pixels By setting the phase difference detection pixels to be used for each image height, it is possible to perform phase difference detection using appropriate phase difference detection pixels for each image height, and to perform autofocus with high accuracy. It becomes.
- phase difference detection pixels used for each lens group 21 and for each image height it is possible to perform phase difference detection using an appropriate phase difference detection pixel corresponding to the lens and the image height. It is possible to perform autofocus well.
- the upper substrate 111A and the lower substrate 111B are provided, and the phase difference detection pixels are provided on the lower substrate 111B.
- the example in which the upper substrate 111A is provided in the first layer, the lower substrate 111B in the second layer, and the substrate 171 provided with a circuit or the like in the third layer is described.
- the application of the present technology is not limited to such a configuration.
- the present technology can be applied to a configuration as described below.
- FIG. 19 is a diagram showing another configuration of the image sensor.
- the upper substrate 111A is disposed in the first layer
- the substrate 171 is disposed in the second layer
- the lower substrate 111B is disposed in the third layer.
- the substrate 171 may be disposed in the second layer
- the lower substrate 111B may be disposed in the third layer.
- the light transmitted through the predetermined pixel of the upper substrate 111A of the first layer is further transmitted through the substrate 171 of the second layer and received by the pixel 152 for phase difference detection of the third layer.
- a predetermined pixel of the first-layer upper substrate 111A through which light received by the third-layer phase difference detection pixel 152 is transmitted can be a red on-chip color filter 132.
- Red light has a lower rate of absorption by the second-layer substrate 171 than blue and green light, so that characteristic deterioration due to absorption by the second-layer substrate 171 can be minimized.
- the second-layer substrate 171 is made of silicon, silicon has a characteristic that light is easily transmitted toward the longer wavelength side.
- the red on-chip color filter 132 detects a long wavelength region such as red light, the light transmitted through the red on-chip color filter 132 becomes light with a long wavelength. For this reason, as described above, the on-chip color filter 132 of a predetermined pixel on the upper substrate 111A in the first layer is set to red, and the light transmitted through the pixel is arranged on the lower substrate 111B in the third layer. By configuring so as to receive light by the phase difference detection pixel 152, it is possible to suppress the absorption of the light by the substrate 171 formed of the second layer of silicon and the deterioration of the characteristics.
- a hole 172 may be provided in a region where light of the substrate 171 is transmitted.
- the hole 172 in the substrate 171 the light transmitted through the first upper substrate 111A is prevented from being absorbed by the second substrate 171, and the phase difference detection pixel provided in the third layer The light can be received by 152.
- the hole 172 may be physically provided in the substrate 171.
- a part of the substrate 171 formed of silicon may be replaced with a material that hardly has an absorption band in the visible light region such as a silicon oxide film or a silicon nitride film, and the part may be used as the hole 172.
- the color of the on-chip color filter 132 may be other colors instead of red. For example, as shown in FIG. 21, it may be white or clear.
- the on-chip color filter 132 shown in FIG. 21 is a filter in which white (W) is arranged in addition to red (R), green (G), and blue (B).
- a white pixel functions as a spectral sensitivity pixel having total color matching, and a red pixel, a green pixel, and a blue pixel function as spectral sensitivity pixels having characteristics of the respective colors.
- the present technology can also be applied to an image sensor (image sensor) in which such four types of spectral sensitivity pixels including a spectral sensitivity that has total color matching are arranged on the imaging surface.
- the light transmitted from the chromatic pixel may be received by the phase difference detection pixel 152.
- FIG. 22 is a diagram illustrating another configuration of the image sensor 101.
- the image sensor 101 shown in FIG. 22 has, for example, the same configuration as the image sensor 101 shown in FIG. 20, but predetermined pixels (indicated by hatching in the figure) of the first-layer upper substrate 111A.
- the pixel is made of a material different from the other pixels, for example, a material having almost no absorption band in the visible light region such as a silicon oxide film or a silicon nitride film.
- phase difference detection pixel 152 It is configured such that light transmitted through a portion made of a material having almost no absorption band in the visible light region is received by the phase difference detection pixel 152.
- the upper color can be green (G).
- silicon absorbs most of the green light, so if the first layer is made of silicon, almost no light reaches the lower layer, but as described above, the first layer has a visible light region. A portion composed of a material having almost no absorption band is provided, and the light transmitted through the portion is received by the third layer phase difference detection pixel 152, thereby detecting the phase difference in the lower layer. It is possible to adopt a configuration in which light can also reach the use pixel 152.
- the color on the pixel that transmits the light received by the phase difference detection pixel 152 in the on-chip color filter 132 arranged on the upper substrate 111A may be blue.
- the color on the pixel that transmits the light received by the phase difference detection pixel 152 in the on-chip color filter 132 arranged on the upper substrate 111A may be red.
- the sensitivity can be further improved.
- the example in which the hole 172 is provided in the second layer substrate 171 is illustrated. However, since the amount of light absorption in the first layer is reduced, the second layer hole 172 may not be provided. Since light can reach the third layer phase difference detection pixel 152, the second layer hole 172 may be omitted.
- the color on the pixel that transmits the light received by the phase difference detection pixel 152 may be white (transparent). By making it white (transparent), it becomes possible to further improve the sensitivity.
- the on-chip color filter 132 of the pixel that transmits light to the lower layer white (transparent) By making the on-chip color filter 132 of the pixel that transmits light to the lower layer white (transparent), light in the entire visible light band is transmitted through the on-chip color filter 132. Even if such visible light in the entire band is absorbed by silicon, a relatively large amount of light passes through the light on the long wavelength side. Therefore, as shown in FIG. 24, a hole 172 may be provided in the substrate 171, but a configuration in which such a hole 172 is not provided is also possible.
- the above configuration is an example and does not indicate a limitation. Moreover, it is also possible to make the structure which combined the above-mentioned structure.
- the case where the pixel for detecting the phase difference is selected only from the light transmitted through the single on-chip lens 131 has been described. It is also possible to configure so that phase difference detection is performed by a combination with pixels that detect light transmitted through different on-chip lenses 131 (positioned).
- an image pickup element using a silicon semiconductor has been described as an example, but a sensor portion having a photodiode or a photoelectric conversion portion is GaAs-based, InGaAs-based, PbS, PbSe, Ge-based, InAs,
- An imaging element made of a substance containing a material such as InSb or HgCdTe, or a substance containing a GaN, InGaN, or AlGaN material may be used.
- phase difference detection pixel can be changed according to the chief ray angle, and it becomes possible to deal with a wide chief ray angle.
- the series of processes described above can be executed by hardware or can be executed by software.
- a program constituting the software is installed in the computer.
- the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
- FIG. 25 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.
- a CPU Central Processing Unit
- ROM Read Only Memory
- RAM Random Access Memory
- An input / output interface 305 is further connected to the bus 304.
- An input unit 306, an output unit 307, a storage unit 308, a communication unit 309, and a drive 310 are connected to the input / output interface 305.
- the input unit 306 includes a keyboard, a mouse, a microphone, and the like.
- the output unit 307 includes a display, a speaker, and the like.
- the storage unit 308 includes a hard disk, a nonvolatile memory, and the like.
- the communication unit 309 includes a network interface and the like.
- the drive 310 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
- the CPU 301 loads the program stored in the storage unit 308 to the RAM 303 via the input / output interface 305 and the bus 304 and executes the program, for example. Is performed.
- the program executed by the computer (CPU 301) can be provided by being recorded in, for example, a removable medium 311 as a package medium or the like.
- the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
- the program can be installed in the storage unit 308 via the input / output interface 305 by attaching the removable medium 311 to the drive 310. Further, the program can be received by the communication unit 309 via a wired or wireless transmission medium and installed in the storage unit 308. In addition, the program can be installed in the ROM 302 or the storage unit 308 in advance.
- the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
- FIG. 26 is a diagram illustrating a usage example in which the above-described imaging device and the electronic device including the imaging device are used.
- the imaging device described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as follows.
- Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
- Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
- Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
- Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports such as action cameras and wearable cameras for sports applications etc.
- Equipment used for agriculture such as cameras for monitoring the condition of fields and crops
- system represents the entire apparatus composed of a plurality of apparatuses.
- this technique can also take the following structures.
- a photoelectric conversion layer having a photoelectric conversion unit divided into pixel units is laminated in two or more layers, A configuration in which light incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens is configured.
- An image sensor that detects a phase difference using a signal obtained by the photoelectric conversion unit of the second photoelectric conversion layer.
- the imaging device according to (1) including the photoelectric conversion unit including three or more pixels of the second photoelectric conversion layer.
- the second photoelectric conversion layer includes a plurality of phase difference detection pixels with respect to one of the on-chip lenses provided in the first photoelectric conversion layer.
- the second photoelectric conversion layer includes a plurality of phase difference detection pixels, The imaging device according to any one of (1) to (3), wherein a phase difference is detected using two of the plurality of pixels for phase difference detection. (5) The image sensor according to (4), wherein a phase difference is detected using a pixel set according to a chief ray angle among the plurality of pixels for phase difference detection. (6) The imaging device according to (4), wherein a phase difference is detected using a pixel set according to the optical lens among the plurality of pixels for phase difference detection. (7) The imaging device according to (4), wherein a phase difference is detected using a pixel set according to an image height of the optical lens among the plurality of pixels for phase difference detection.
- a phase difference detection pixel is set with reference to a correspondence table in which information for identifying the optical lens and a pixel to be used are associated with each other (1 ) To (8).
- a pixel used as a phase difference detection pixel is set with reference to a correspondence table in which an image height of the optical lens and a pixel to be used are associated with each other (1) The imaging device according to any one of (9) to (9).
- the imaging device according to any one of (1) to (10), further including at least one substrate between the first photoelectric conversion layer and the second photoelectric conversion layer. (12) Of the light incident on the first photoelectric conversion layer, the region of the substrate through which light received by the pixels of the second photoelectric conversion layer is transmitted is a material that does not have an absorption band in the visible light region.
- the imaging device according to (11), wherein the imaging device is formed.
- the imaging element according to (12), wherein the material is a silicon oxide film or a silicon nitride film.
- the photoelectric conversion unit of the second photoelectric conversion layer receives light from a red on-chip color filter provided in the first photoelectric conversion layer. Any one of (1) to (13) The imaging device described.
- the photoelectric conversion unit of the second photoelectric conversion layer receives light from a white on-chip color filter provided in the first photoelectric conversion layer. Any one of (1) to (14) The imaging device described. (16) A photoelectric conversion layer having a photoelectric conversion unit divided into pixel units is laminated in two or more layers, A configuration in which light incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens is configured.
- An imaging method of an image sensor that is In the second photoelectric conversion layer a plurality of phase difference detection pixels for detecting a phase difference are arranged, An imaging method including a step of setting a phase difference detection pixel to be used in accordance with the optical lens or an image height of the optical lens among the plurality of phase difference detection pixels.
- a photoelectric conversion layer having a photoelectric conversion unit divided into pixel units is laminated in two or more layers, A configuration in which light incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens is configured.
- a program for controlling imaging of an image sensor that is In the second photoelectric conversion layer a plurality of phase difference detection pixels for detecting a phase difference are arranged,
- a program for causing a computer to execute processing including a step of setting a phase difference detection pixel to be used according to the optical lens or an image height of the optical lens among the plurality of phase difference detection pixels.
- a photoelectric conversion layer having a photoelectric conversion unit divided into pixel units is laminated in two or more layers, A configuration in which light incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens is configured.
- An electronic apparatus comprising: an image sensor that detects a phase difference by the photoelectric conversion unit of the second photoelectric conversion layer.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
本技術は、精度良くフォーカス制御を行えるようにすることができるようにする撮像素子、撮像方法、プログラム、並びに電子機器に関する。 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、光学レンズから遠い側の第2の光電変換層の光電変換部で受光される状態を含むように構成され、第2の光電変換層の光電変換部により得られる信号を用いて位相差を検出する。第2の光電変換層の3画素以上の光電変換部を備える。また第2の光電変換層は、第1の光電変換層に設けられているオンチップレンズの1つに対して、複数の位相差検出用の画素を備える。本技術は、例えば、撮像を行う撮像素子などに適用できる。
Description
本技術は、撮像素子、撮像方法、プログラム、並びに電子機器に関する。詳しくは、画質を劣化させることなく、より精度良く焦点を検出する撮像素子、撮像方法、プログラム、並びに電子機器に関する。
デジタルカメラにおけるオートフォーカス方式には、主に、コントラスト方式と位相差方式がある。コントラスト方式はレンズを動かし、一番コントラストの高いところを焦点が合ったところとする方法である。デジタルカメラの場合、撮像素子の画像の一部を読み出すことでオートフォーカスができ、他にオートフォーカス用の光学系を必要としない。
位相差方式は、二次結像レンズを用いて2つの像に分解し、2つの像の間隔からピントのずれ量を検出する方式である。位相差方式の場合、レンズの異なる部分を通ってきた光での像、例えばレンズの右側と左側、それぞれの光束が用いられる。位相差方式では、位相のずれを検出することで、ピントの合っている位置まで、レンズをどれだけ動かす必要があるかが求められる。
像面位相差オートフォーカスは、撮像素子を用いて位相差方式でオートフォーカスを行う。撮像素子には、集光用のマイクロレンズが設けられており、このマイクロレンズに入射する光を制限する絞り部材を追加することで位相差オートフォーカス用の撮像素子とすることができる(例えば、特許文献1参照)。
コントラスト方式の場合、一番コントラストの高いところを探し出すために、レンズを前後に動かす必要があるため、焦点が合うまでに時間がかかる場合があった。コントラスト方式に対して位相差方式は、焦点位置を探し出すためにレンズを前後に動かすといった時間は必要ないため、高速なオートフォーカスを実現できる。
しかしながら、像面位相差方式では、マイクロレンズに入射する光を制限する絞り部材、例えば、遮光膜が設けられ、撮像素子に入射される光量が制限されてしまうため、感度が劣化してしまう。すなわち、像面位相差方式では、例えばレンズの右側と左側、それぞれの光束が用いられ、レンズに入射した光の一部を遮光してしまうため、撮像素子に入射される光量が少なくなり、感度が劣化してしまう。
特許文献1では、右側用の撮像素子に、レンズの左側を通ってきた光が入射しないように、また、左側用の撮像素子に、レンズの右側を通ってきた光が入射しないように、それぞれ制御するために、反射板を用い、不要な光を反射することが記載されている。
像面位相差方式では、撮像面に配置されている複数の撮像素子のうちの一部の撮像素子を位相差検出用の画素として用いるため、撮影画像の一部が欠損してしまい、画質が低下してしまう可能性があった。
また位相差を検出できる斜入射光も、10度から15度程度に限定されてしまい、さらに広い斜入射光に対しても対応できることが望まれていた。
本技術は、このような状況に鑑みてなされたものであり、画質を劣化させることなく、かつ広い斜入射光に対応した位相差検出を行えるようにすることができるようにするものである。
本技術の一側面の撮像素子は、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、前記第2の光電変換層の前記光電変換部により得られる信号を用いて位相差を検出する。
前記第2の光電変換層の3画素以上の前記光電変換部を備えるようにすることができる。
前記第2の光電変換層は、前記第1の光電変換層に設けられているオンチップレンズの1つに対して、複数の位相差検出用の画素を備えるようにすることができる。
前記第2の光電変換層は、複数の位相差検出用の画素を備え、前記複数の位相差検出用の画素のうちの2画素を用いて位相差を検出するようにすることができる。
前記複数の位相差検出用の画素のうち、主光線角に応じて設定される画素を用いて位相差を検出するようにすることができる。
前記複数の位相差検出用の画素のうち、前記光学レンズに応じて設定される画素を用いて位相差を検出するようにすることができる。
前記複数の位相差検出用の画素のうち、前記光学レンズの像高に応じて設定される画素を用いて位相差を検出するようにすることができる。
前記複数の位相差検出用の画素のうち、前記光学レンズの焦点距離に応じて設定される画素を用いて位相差を検出するようにすることができる。
前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズを識別する情報と用いる画素とが関連付けられている対応表が参照されて設定されるようにすることができる。
前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズの像高と用いる画素とが関連付けられている対応表が参照されて設定されるようにすることができる。
前記第1の光電変換層と前記第2の光電変換層との間に、少なくとも1層の基板を備えるようにすることができる。
前記第1の光電変換層に入射された光のうち、前記第2の光電変換層の画素で受光される光が透過する前記基板の領域は、可視光領域に吸収帯を有さない材料で形成されているようにすることができる。
前記材料は、シリコン酸化膜またはシリコン窒化膜であるようにすることができる。
前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている赤色のオンチップカラーフィルタからの光を受光するようにすることができる。
前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている白色のオンチップカラーフィルタからの光を受光するようにすることができる。
本技術の一側面の撮像方法は、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像方法であり、前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定するステップを含む。
本技術の一側面のプログラムは、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像を制御するプログラムにおいて、前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定するステップを含む処理をコンピュータに実行させる。
本技術の一側面の電子機器は、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、前記第2の光電変換層の前記光電変換部により得られる信号を用いて位相差を検出する撮像素子を備える。
本技術の一側面の撮像素子、撮像方法、およびプログラムにおいては、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、光学レンズから遠い側の第2の光電変換層の光電変換部で受光される状態を含むように構成されている。また、第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、複数の位相差検出用画素のうち、光学レンズまたは光学レンズの像高に応じ、用いる位相差検出用画素が設定される。
本技術の一側面の電子機器は、前記撮像素子を備える構成とされている。
本技術の一側面によれば、画質を劣化させることなく、かつ広い斜入射光に対応した位相差検出を行えるようになる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.撮像装置の構成
2.像面位相差方式によるオートフォーカスについて
3.撮像素子の構成
4.位相差検出用の画素選択について
5.位相差検出用画素の選択の第1の処理
6.位相差検出用画素の選択の第2の処理
7.撮像素子の他の構成
8.記録媒体について
9.撮像素子の使用例
1.撮像装置の構成
2.像面位相差方式によるオートフォーカスについて
3.撮像素子の構成
4.位相差検出用の画素選択について
5.位相差検出用画素の選択の第1の処理
6.位相差検出用画素の選択の第2の処理
7.撮像素子の他の構成
8.記録媒体について
9.撮像素子の使用例
<撮像装置の構成>
以下に説明する本技術は、デジタルカメラなどのオートフォーカス機構に適用できる。またオートフォーカスの方式として、主にコントラスト方式と位相差方式があるが、本技術は、位相差方式に適用でき、以下の説明においては、像面位相差オートフォーカスを例にあげて説明を行う。
以下に説明する本技術は、デジタルカメラなどのオートフォーカス機構に適用できる。またオートフォーカスの方式として、主にコントラスト方式と位相差方式があるが、本技術は、位相差方式に適用でき、以下の説明においては、像面位相差オートフォーカスを例にあげて説明を行う。
像面位相差オートフォーカスは、デジタルスチルカメラやビデオカメラ等の撮像装置や、携帯電話機などの撮像機能を有する携帯端末装置や、画像読取部に撮像装置を用いる複写機など、画像取込部(光電変換部)に半導体パッケージを用いる電子機器全般に対して適用可能である。
図1は、本技術に係る電子機器、例えば撮像装置の構成の一例を示すブロック図である。図1に示すように、本技術に係る撮像装置10は、レンズ群21等を含む光学系、撮像素子(撮像デバイス)22、DSP(Digital Signal Processor)回路23、フレームメモリ24、表示部25、記録部26、操作部27、および電源部28等を有する。そして、DSP回路23、フレームメモリ24、表示部25、記録部26、操作部27および電源部28がバスライン29を介して相互に接続されている。
レンズ群21は、被写体からの入射光(像光)を取り込んで撮像素子22の撮像面上に結像する。撮像素子22は、レンズ群21によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。
DSP回路23は、撮像素子22からの信号を処理する。例えば、詳細は後述するが、撮像素子22には、焦点を検出するための画素があり、そのような画素からの信号を処理し、焦点を検出する処理を行う。また、撮像素子22には、撮影された被写体の画像を構築するための画素があり、そのような画素からの信号を処理し、フレームメモリ24に展開するといった処理も行う。
表示部25は、液晶表示装置や有機EL(electro luminescence)表示装置等のパネル型表示装置からなり、撮像素子22で撮像された動画または静止画を表示する。記録部26は、撮像素子22で撮像された動画または静止画を、ビデオテープやDVD(Digital Versatile Disk)等の記録媒体に記録する。
操作部27は、ユーザによる操作の下に、本撮像装置が持つ様々な機能について操作指令を発する。電源部28は、DSP回路23、フレームメモリ24、表示部25、記録部26および操作部27の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
<像面位相差方式によるオートフォーカスについて>
次に、像面位相差方式によるオートフォーカスについて説明する。本技術を適用した撮像装置においては、後述するように、複層で構成され、複層、例えば、2層それぞれに、撮像素子を有し、そのうちの1層が、画像を得るための撮像素子とされ、他の一層が、位相差方式によるオートフォーカスを行うための撮像素子として用いられる。
次に、像面位相差方式によるオートフォーカスについて説明する。本技術を適用した撮像装置においては、後述するように、複層で構成され、複層、例えば、2層それぞれに、撮像素子を有し、そのうちの1層が、画像を得るための撮像素子とされ、他の一層が、位相差方式によるオートフォーカスを行うための撮像素子として用いられる。
本技術を適用した撮像装置と従来の撮像装置の差異を明確にするために、従来の撮像装置において、像面位相差方式でオートフォーカスを実現する場合について説明する。従来の撮像装置の一例として、撮像素子が1層に配置され、その層に、画像を得るための撮像素子と位相差検出用の撮像素子が混在している場合について説明する。
図2は、像面位相差オートフォーカスについて説明するための図である。撮像素子22の撮像面には、画素が行列状に2次元配置された画素アレイ部51が設けられており、画素アレイ部51内の所定数の画素が位相差検出用画素に割り当てられる。位相差検出用画素は、画素アレイ部51内の所定の位置に複数設けられている。
図2に示した画素アレイ部51は、撮像素子22を構成する画素アレイ部51の一部分を示している。図2に示した画素アレイ部51のうち、4画素が、位相差検出用画素として設けられている。位相差検出用画素61-1と位相差検出用画素61-2は、右側遮光画素とされ、位相差検出用画素62-1と位相差検出用画素62-2は、左側遮光画素とされている。
右側遮光画素は、右側部分が遮光された構造とされ、左側遮光画素は、左側部分が遮光された構造とされている。右側遮光画素と左側遮光画素は、1対の位相差検出用画素として用いられる。右側または左側が遮光されることで、光の入射角を選択して受光する機能(以下、分離能力と記述する)を実現するように構成されている。
図2に示した例では、対となる位相差検出用画素が隣り合って設けられていない場合を例にあげて説明したが、位相差検出用画素は、図2に示したように異なる離れた位置に設けられていても、離れた位置に設けられていても、また隣接して設けられていても良い。
図3に、右側遮光画素の画素61-1の構造を示す。画素61-1は、図中上側から、オンチップレンズ81、オンチップカラーフィルタ82、遮光膜83、フォトダイオード84-1が配置された構成とされている。位相差検出用画素ではない画素(以下、通常画素71と記述する)の構成を、図3の左側に示す。通常画素71は、オンチップレンズ81、オンチップカラーフィルタ82、フォトダイオード84-2が配置された構成とされている。すなわち、通常画素71は、位相差検出用画素61から遮光膜83を削除した構成とされている。
位相差検出用画素61-1のように、右側が遮光された画素と、位相差検出用画素62-1のように、左側が遮光された画素を設けることで、レンズ群21の左部から来る光と右部から来る光を分離して受光することが可能となる。レンズ群21の左部から来る光と右部から来る光を、それぞれのフォトダイオードで受光することで、図4に示したようにして、フォーカス位置を検出することができる。
すなわち、後ピン時や前ピン時には、右側遮光されたフォトダイオードからの出力と左側遮光されたフォトダイオードからの出力が一致(対とされている位相差検出用画素の出力が一致)しないが、合焦時には、2つのフォトダイオードからの出力が一致(対とされている位相差検出用画素の出力が一致)する。後ピンや前ピンであると判断されるときには、レンズ群21を合焦する位置まで移動させることで、焦点の検出が実現される。
このような位相差方式で、合焦位置が検出される場合、比較的高速で焦点位置を検出でき、高速なオートフォーカスを実現できるが、感度の低下が伴う可能性があり、例えば、暗い場所などでは焦点位置が検出しづらい可能性がある。
また乱反射により、位相差検出用画素の周りにある通常画素に影響を与えてしまう可能性がある。再度図3を参照するに、位相差検出用画素61-1に入射された入射光の一部は、遮光膜83の側面に当たり反射し、通常画素71のフォトダイオード84-2に入射される。このような遮光膜83での乱反射があり、その乱反射された光が通常画素71に入射されてしまうと、通常画素71の特性が変動し、画質が悪化してしまう可能性がある。
また、位相差検出用画素61,62を設け、位相差を検出する場合、位相差として検出できる斜入射光も、10-15度程度となってしまう。図5は、像面位相差の入射角応答を表すグラフであり、縦軸が、位相差検出用画素61,62からの出力値を表し、横軸が、入射角度を表す。図5を参照するに、入射角度が-10度のところと、10度のところにピークがあることが読み取れる。このように、位相差検出用画素61,62は、入射角度が-10度(10度)付近の入射光で最も大きな出力を得ることができる。
しかしながら、これ以上の入射角度、例えば15度以上の入射角度の入射光に対しては出力値が小さくなり、位相差が検出しづらくなってしまう。
一眼レフカメラの場合であり、ミラーレス一眼と称されるカメラの場合、フランジバックが短くなり、主光線角(CRA:Chief Ray Angle)が大きくなる傾向がある。また、ズームレンズの場合、主光線角が大きい広角レンズ側から、主光線角が小さい望遠レンズ側まで切り替わる可能性があり、主光線角が大きく変化する可能性がある。
このようなことから、主光線角が大きくなることで、位相差検出用画素に入射する光の入射角の範囲が大きくなる可能性があるため、広い入射角に対応して位相差検出ができるようにする必要がある。
以下に説明する位相差検出用画素を適用することで、広い入射角に対応した位相差検出ができ、また画質の劣化を伴うことなく位相差検出を行うことが可能となる。
<撮像素子の構成>
図6は、本開示に係る撮像素子示す図である。本開示に係る撮像素子101は、図6に示されるように、光学レンズ102によって集光された被写体103の光を受光する。光学レンズ102は、図1の撮像装置10のレンズ群21に該当する。
図6は、本開示に係る撮像素子示す図である。本開示に係る撮像素子101は、図6に示されるように、光学レンズ102によって集光された被写体103の光を受光する。光学レンズ102は、図1の撮像装置10のレンズ群21に該当する。
撮像素子101は、例えば、2枚の半導体基板111Aと111Bとが積層された複合型の撮像素子である。半導体基板111Aと111Bのそれぞれには、画素単位に分割された光電変換部を有する光電変換層が形成されている。半導体基板111Aと111Bの半導体は、例えば、シリコン(Si)である。
なお、以下では、2枚の半導体基板111Aと111Bのうち、光学レンズ102に近い方の半導体基板111Aを上側基板111Aと称し、光学レンズ102から遠い方の半導体基板111Bを下側基板111Bと称する。また、2枚の半導体基板111Aと111Bを特に区別しない場合には、単に、基板111とも称する。
図7は、撮像素子101の上側基板111Aと下側基板111Bの概略構成を示す図である。上側基板111Aには、オンチップレンズ131、R(赤)、G(緑)、またはB(青)のオンチップカラーフィルタ132、およびフォトダイオード133が形成された画素が2次元アレイ状に複数配列されている。
下側基板111Bには、上側基板111Aに形成された複数の画素行の一部の画素行または画素列に対応する形で、複数の画素が配列された状態で位相差検出用画素群151が形成されている。下側基板111Bの位相差検出用画素群151が形成されていない領域には、上側基板111Aまたは下側基板111Bで検出された信号を処理する信号処理回路を含むロジック回路が形成されるようにしても良い。
図7に示されるように、上側基板111Aの各画素に形成されたカラーフィルタは、例えば、ベイヤ配列で配置されている。従って、上側基板111Aは、R,G,Bの色信号を出力するカラー画像センサとしても機能する。
上側基板111Aからの信号を処理することで、被写体103(図6)の画像が得られる。この画像は、カラー画像であっても良いし、赤外線などの特殊な光を受光することで得られる画像であっても良い。なお特殊な光を受光することで画像を得る構成とした場合、オンチップカラーフィルタ132も、その特殊な光に適したフィルタとされる。
またここでは、オンチップカラーフィルタ132は、ベイヤ配列を例にあげて説明するが、オンチップカラーフィルタ132の色配列はベイヤ配列に限定されず、その他の配列方法を採用することができる。以下では、上側基板111AにおいてRのカラーフィルタが形成された画素をR画素、Gのカラーフィルタが形成された画素をG画素、Bのカラーフィルタが形成された画素をB画素と、適宜記述する。
下側基板111Bの位相差検出用画素群151の画素には、上側基板111Aを通過したR,G,Bのいずれかの光が入射される。従って、下側基板111Bは、R,G,Bのいずれかの色の信号を出力する画像センサとしても機能する。ここでは、位相差検出用の画素として機能とするとして説明を続ける。
下側基板111Bのさらに下側には、ロジック回路やメモリなどが配置された基板171が設けられている。上記したように、下側基板111Bの位相差検出用画素が配置されていない部分に、ロジック回路やメモリなどを配置しても良いし、3層目を設け、その基板171に配置しても良いし、さらには、下側基板111Bと基板171に分散して配置するようにしても良い。
以上のように構成される撮像素子101は、1層目の上側基板111Aで被写体103の画像を取得し、2層目の下側基板111Bで被写体103に対して焦点を合わせるための位相差を検出する。
本技術を適用した撮像素子101においては、上側基板111Aには、位相差検出用の画素が配置されていない。よって、従来のように、上側基板111Aに配置されている画素のうち、一部の画素を位相差検出用の画素として用いることで撮像画像の一部が欠損してしまい、画質が低下してしまうといったようなことは、本技術を適用した撮像素子101においては発生せず、画質が低下するようなことを防ぐことが可能となる。
また、本技術を適用した撮像素子101においては、上側基板111Aの画素(センサ)を通過した光が、下側基板111Bの画素(センサ)で受光され、下側基板111Bに配置されている画素で、位相差が検出されるように構成されている。このように、画像を撮像する画素と、位相差を検出する画素を別の層に配置したことにより、位相差検出用の画素を構成する遮光膜83(図3)が必要無くなり、遮光膜83で乱反射された光による影響で、画質が劣化してしまうようなことを防ぐことが可能となる。
また、下側基板111B上に配置された画素を位相差検出用の画素とし、その位相差検出用の画素の周りには、画像を撮像するための画素は配置されていないため、この点からも、乱反射による光の影響を受けない画像を撮像することができ、画質を向上させることが可能となる。
図7に示したように、下側基板111Bの位相差検出用画素群151として、2つの位相差検出用画素152-1,152-2が配置されている例を示した。位相差は、上記したように、右側からの光と左側からの光をそれぞれ受光する2つの画素で構成されるため、図7では、2つの位相差検出用画素152-1と位相差検出用画素152-2が配置されている。例えば、位相差検出用画素152-1が右側遮光画素61(図2)に該当し、位相差検出用画素152-2が左側遮光画素62に該当する。
このような2つの画素から構成される位相差検出用の位相差検出用画素群151は、下側基板111Bに複数配置され、各位相差検出用画素群151で位相差が検出され、位相差が最小になるように制御が実行されることで、オートフォーカスが実行される。以下の説明においては、図7と同じく1つの位相差検出用画素群151を図示し、説明を行う。
<位相差検出用の画素選択について>
図7に示したように、位相差検出用画素群151は、2つの位相差検出用画素から構成されるようにしても良いが、図8に示すように、例えば、10個の画素が、位相差検出用画素として配置されていても良い。図8に示したように、1つの位相差検出用画素群151を、10個の位相差検出用画素152-1乃至152-10から構成するようにしても良い。
図7に示したように、位相差検出用画素群151は、2つの位相差検出用画素から構成されるようにしても良いが、図8に示すように、例えば、10個の画素が、位相差検出用画素として配置されていても良い。図8に示したように、1つの位相差検出用画素群151を、10個の位相差検出用画素152-1乃至152-10から構成するようにしても良い。
なおここでは、10個の位相差検出用画素152が配置されている例をあげて説明するが、10個に限らず何個でも、本技術は適用できる。また、後述するように、複数の画素を配置し、位相差を検出するようにした場合、位相差を検出できる光の入射角の範囲を広くすることが可能となるが、そのような位相差を検出できる光の入射角の範囲を広くするためには、3個以上の画素が配置されていることが好ましい。
ここでは、10個の位相差検出用画素152が配置されている位相差検出用画素群151を例にあげて説明を続ける。図9は、撮像画素101の断面図である。撮像画素101の上部には、上側基板111Aがあり、オンチップレンズ131、オンチップカラーフィルタ132、フォトダイオード133が配置されている。
ここでは、上側基板111Aには、フォトダイオード133が配置されているとして説明するが、フォトダイオード133が配置される光電変換層は、有機光電変換膜などで構成されるようにしても良い。また、有機光電変換膜で構成される場合、複数の光電変換層から構成されるようにしても良い。またここでは、裏面照射型で形成された上側基板111Aを例にあげて説明するが、本技術は、裏面照射型、表面照射型のどちらにでも適用できる。
上側基板111Aのフォトダイオード133の下側には、複数の配線層と層間絶縁膜を含む多層配線層201が形成されている。多層配線層201には、上側基板111A近傍に、フォトダイオード133に蓄積された信号電荷を読み出す読み出し回路を構成する複数のトランジスタ回路が形成されているように構成することも可能である。
下側基板111Bは、例えば、n型(第1導電型)の半導体領域であるシリコン層により構成され、そのシリコン層内に、光電変換部としてのフォトダイオードが、pn接合により画素毎に形成されているように構成することができる。下側基板111Bの画素サイズは、上側基板111Aの画素と異なるサイズであっても良い。
下側基板111Bの上側または下側に、フォトダイオードに蓄積された信号電荷を読み出す読み出し回路を構成する複数のトランジスタ回路、複数の配線層、層間絶縁膜などを含む多層配線層が形成されようにしても良い。上側基板111Aと下側基板111Bは、保護膜202を介して接合(接着)されている。
下側基板111Bには、位相差検出用画素152-1乃至152-10が配置されている。ここでは、位相差検出用画素152-1乃至152-10は、それぞれフォトダイオードであるとして説明を続ける。位相差検出用画素152-11乃至152-10は、1枚のオンチップレンズ131を透過してきた光を受光する。本実施の形態においては、上層に設けられている1枚のオンチップレンズ131を透過してきた光を、下層に設けられている複数のフォトダイオードで受光し、位相差を検出する構成とされている。
多層配線層201の配線層は、銅などで構成される配線を含み、遮光膜および絞りとしても機能する。図9に示すように、図中中央部分に示したオンチップレンズ131をオンチップレンズ131Aとした場合、オンチップレンズ131Aを透過した光が、位相差検出用画素152-1乃至152-10のいずれかに受光されるように構成されている。
一方で、オンチップレンズ131Aとは異なるオンチップレンズ131、例えば、オンチップレンズ131Aの右隣のオンチップレンズ131Bからの光は、多層配線層201により透過されず、位相差検出用画素152-1乃至152-10に受光されないように構成されている。
このように、1枚のオンチップレンズ131を透過した光が、下側基板111Bの位相差検出用画素群151に受光されるように、多層配線層201により遮光が行われる構成とされている。なお、遮光膜を多層配線層201とは別に設けても良い。
なお、1枚のオンチップレンズ131に対して、オンチップカラーフィルタ132の1色が対応している例をあげて説明しているが、1枚のオンチップレンズ131が、複数の色、例えば、2×2の4画素に対応する色(例えば、R,G,G,B)にまたがって配置されていても良いし、複数のフォトダイオード133にまたがって配置されていても良い。
1枚のオンチップレンズ131が複数の色にまたがって配置されているような場合であっても、1枚のオンチップレンズ131から透過された光が、下側基板111Bの位相差検出用画素群151に受光されるように構成されている。
このように、1枚のオンチップレンズ131を透過した光を位相差検出用画素群151で受光し、位相差を検出するようにした場合、位相差検出用画素群151のうちの複数の画素、例えば、2画素が用いられて、位相差が検出される。この位相差の検出について説明を加える。
図10は、位相差検出に用いられる画素の一例を示す図である。例えば、図10に丸を付した位相差検出用画素152-3と位相差検出用画素152-4が位相差検出用の画素として選択され、この2つの画素の受光量に応じて位相差が検出され、オートフォーカスが実行される。
より具体的には、例えば、図11に示すように、主光線(図11中、矢印で示した線)の角度(主光線角(CRA:Chief Ray Angle))が小さい場合、位相差検出用画素152-4と位相差検出用画素152-5が選択される。また、図12に示すように、主光線角が大きい場合、位相差検出用画素152-2と位相差検出用画素152-3が選択される。
このように、10画素中の2画素が、主光線角に応じて選択され、位相差が検出される。この主光線角は、レンズの像高により変化する可能性があるため、後述するように、レンズの像高に応じて、選択される位相差検出用画素152が決定されるようにしても良い。
また、主光線角は、レンズ自体の種類、例えば、望遠レンズや広角レンズといったレンズの種類により異なる可能性があるため、レンズの種類により選択される位相差検出用画素152が決定されるようにしても良い。焦点距離の長い望遠レンズは、主光線角が小さく、焦点距離の短い広角レンズは、主光線角が大きい傾向にある。
例えば、レンズとして望遠レンズが用いられる場合、図13に示すように、位相差検出用画素群151内の中央付近に配置されている位相差検出用画素152-5と位相差検出用画素152-6が選択され、この2画素で位相差が検出されるようにすることができる。
また例えば、レンズとして広角レンズが用いられる場合、図14に示すように、位相差検出用画素群151内の端付近に配置されている位相差検出用画素152-1と位相差検出用画素152-2が選択され、この2画素で位相差が検出されるようにすることができる。
またズームレンズなどと称される焦点距離が変わるレンズが用いられる場合、望遠レンズ側で用いられるときには、位相差検出用画素152-5と位相差検出用画素152-6が選択され、広角レンズ側で用いられるときには、位相差検出用画素152-1と位相差検出用画素152-2が選択されるといったように、焦点距離に応じて、位相差検出用画素152が選択されるようにしても良い。
また、同じレンズにおいても、特に、主光線角の大きなレンズの場合、ピント位置により主光線角が変化する可能性があるため、ピントに応じて、位相差検出用画素152が選択されるようにしても良い。
ここでは、上層の1つのオンチップレンズ131を透過した光を、下層にある位相差検出用画素群151内の位相差検出用画素152でそれぞれ受光し、そのうちの2画素で受光された受光量に応じて、位相差を検出するとして説明した。
例えば、上層の異なるオンチップレンズ131を透過した光を、それらの異なるオンチップレンズ131に対応する位置に配置された下層にある位相差検出用画素群151内の位相差検出用画素152でそれぞれ受光し、一方のオンチップレンズ131に配置されている位相差検出用画素152のうちの1画素で受光された受光量と、他方のオンチップレンズ131に配置されている位相差検出用画素152のうちの1画素で受光された受光量とに応じて、位相差を検出するようにしても良い。
すなわち、位相差を検出する2個の画素は、1枚のオンチップレンズ131を透過した光を受光する隣接して配置されている2画素でも良いし、異なる位置に配置されているオンチップレンズ131を透過した光を受光する異なる位置に配置されている2画素でも良い。
また図10乃至14を参照して説明したように、10個の位相差検出用画素152のうちの隣接する2個の位相差検出用画素152が選択されるとして説明したが、隣接していない2個の画素が選択されるようにしても良い。例えば、図14を再度参照するに、位相差検出用画素152-1と位相差検出用画素152-3といったように、離れた位置に配置されている画素が選択されるようにしても良い。
離れた位置の2個の位相差検出用画素152で位相差を検出するようにした場合、位相差特性としての分離比は高くなるが、感度は下がる傾向にある。分離比特性と感度比特性のどちらの特性を優先するかにより、位相差を求めるための位相差検出用画素152が選択されるようにしても良い。例えば、分離比特性を優先する場合には、10個の位相差検出用画素152から、離れた位置にある2個の位相差検出用画素152が選択され、感度比特性を優先する場合、10個の位相差検出用画素152から、隣接する2個の位相差検出用画素152が選択されるように構成することができる。
<位相差検出用画素の選択の第1の処理>
上記したように、レンズの種類、焦点距離、ピント位置などにより、位相差検出用の画素を選択する際の処理について説明する。
上記したように、レンズの種類、焦点距離、ピント位置などにより、位相差検出用の画素を選択する際の処理について説明する。
ここでは、カメラ側またはレンズ側で対応表が保持され、その対応表が参照されて、位相差検出用の画素が選択される場合を例にあげて説明する。カメラ側またはレンズ側で対応表が保持されるとは、例えば、図1に示した撮像装置10において、レンズ群21(図6における光学レンズ102に該当)が撮像装置10に対して着脱自在な構成とされ、レンズ交換が可能な撮像装置10である場合、レンズ群21(光学レンズ102)の図示していない記憶部に対応表が保持されるか、または撮像装置10の本体の図示していない記憶部に対応表が保持される。
レンズ群21が、撮像装置10に対して着脱自在な構成ではなく、一体型の場合、撮像装置10の記憶部に対応表が記憶され、適宜参照される。ここでは、レンズ群21が、撮像装置10に対して着脱自在である場合を例にあげて説明する。またレンズ群21との記載を行うが、レンズは、1枚であっても良い。
このような対応表は、図15に示したフローチャートの処理に基づき作成される。また、レンズ群21が製造されるとき、撮像装置10が製造されるときなどに作成される。または、レンズ群21が撮像装置10に初めて装着されたときなどに、そのレンズ群21に関する対応表が作成されるようにしても良い。
ステップS11において、レンズ毎の主光線角の情報が取得される。例えば、撮像装置10に装着できるレンズ群21が10個ある場合、それら10個のレンズ群21のそれぞれの主光線角の情報が取得される。また、レンズ群21を識別するための情報も取得される。
ステップS12において、主光線角に対応する位相差検出用画素の情報が取得される。例えば、図14を参照して説明したように主光線角が大きい場合、位相差検出用画素として、位相差検出用画素152-1と位相差検出用画素152-2を用いるといったような情報が取得される。主光線角に対応する位相差検出用画素の情報は、予め測定などが行われることで取得される。
ステップS13において、対応表が作成される。対応表としては、例えば、レンズ群21を識別するための情報、主光線角の情報、および位相差検出用画素の情報が関連付けられた対応表である。なお、レンズ群21を識別するための情報と位相差検出用画素の情報のみが関連付けられている対応表でも良い。
このようにして作成された対応表は、ステップS14において、レンズ群21または撮像装置10に記憶される。レンズ群21に記憶される場合、記憶されるレンズ群21を識別するために割り振られている情報と、位相差検出用画素の情報が少なくとも関連付けられている対応表が記憶されるようにしても良い。
撮像装置10に記憶される場合、複数のレンズ群21を識別するための情報と、それぞれのレンズ群21に対応付けられた位相差検出用画素の情報が、少なくとも関連付けられている対応表が記憶されるようにしても良い。
すなわち、レンズ群21に対応表が記憶される場合には、そのレンズ群21に関する情報が記憶され、撮像装置10に対応表が記憶される場合には、複数のレンズ群21に関する情報が記憶されるようにすることが可能である。また、一度記憶された対応表は、ネットワークなどを介して更新される仕組みを設けることも可能である。
このようにして対応表が記憶されたレンズ群21または撮像装置10において、位相差検出用画素が選択、設定される際の処理について、図16のフローチャートを参照して説明する。
ステップS31において、レンズ群21が撮像装置10に装着されると、ステップS32において、撮像装置10は、装着されたレンズ群21を認識する。ステップS33において、撮像装置10は、装着されたレンズ群21に関する対応表(情報)を読み出す。
レンズ群21に対応表が記憶されている場合、レンズ群21が撮像装置10に装着されると、レンズ群21から撮像装置10に対して、対応表が供給される。または、撮像装置10が、レンズ群21にアクセスし、対応表を読み出す。
撮像装置10に対応表が記憶されている場合、レンズ群21が撮像装置10に装着されると、レンズ群21から撮像装置10に対して、レンズ群21を識別するための情報が供給される。撮像装置10は、記憶している対応表から、レンズ群21から供給された識別情報から、装着されたレンズ群21に関連する対応表を読み出す。
このようにして対応表が読み出されると、ステップS34において、読み出された対応表に基づき、位相差検出用画素が選択され、設定される。設定された位相差検出用画素により位相差が検出され、オートフォーカスが実行される。
レンズ群21が交換された場合、新たに装着されたレンズ群21に対して、同様の処理が実行されることで、新たに装着されたレンズ群21に対応した位相差検出用画素が設定される。
このようにして、レンズ群21に対応して位相差検出用画素が設定されるため、レンズにより異なる主光線角に応じて、適切な位相差検出用画素を選択し、オートフォーカスを実行することが可能となる。
<位相差検出用画素の選択の第2の処理>
次に、像高に応じて位相差検出用画素を選択することについて説明する。レンズの像高により主光線角が異なる可能性がある。そこで、レンズの像高に応じて、位相差検出用画素が選択されるようにしても良い。
次に、像高に応じて位相差検出用画素を選択することについて説明する。レンズの像高により主光線角が異なる可能性がある。そこで、レンズの像高に応じて、位相差検出用画素が選択されるようにしても良い。
図17を参照して、像高に応じた位相差検出用画素の選択について説明する。図17の上図は、主光線角特性を表すグラフであり、中図は、画像イメージを表す図であり、下図は、位相差特性を表すグラフである。
図17の上図に示した主光線角特性を表すグラフの横軸は、像高(Image height)を表し、縦軸は、主光線角(CRA)を表す。このグラフから、像高が高くなるほど、主光線角が大きくなることが読み取れる。図17の中図に示した画像イメージは、撮像される画像のイメージを表し、画像イメージ中、像高10割の画素、像高6割の画素、および像高0割の画素を、それぞれ四角形で表し、主光線角特性を表すグラフの対応する箇所と線で関連付けて表している。
図17の下図に示した位相差特性を表すグラフの横軸は、光線の入射角度(angle)を表し、縦軸は、感度特性(Pabs total)を表す。図中の数字は、位相差検出用画素152-1乃至152-10(例えば、図14)をそれぞれ表す数字であり、例えば、“1”は、位相差検出用画素152-1を表す。
図17の下図に示した位相差特性を表すグラフにおいて、光線の入射角度により、ピーク値を得る画素が異なることが読み取れる。例えば、光線の入射角度が0度の場合、位相差検出用画素152-5が最もピーク値が高く、光線の入射角度が-15度の場合、位相差検出用画素152-4が最もピーク値が高い。
このことから、例えば、光線の入射角度が0度の場合、最も高いピーク値を得られる位相差検出用画素152-5が位相差検出用画素として適し、光線の入射角度が-15度の場合、最も高いピーク値を得られる位相差検出用画素152-4が位相差検出用画素として適しているといえる。
図17の上図と中図を参照するに、画像イメージの左上は、像高10割であり、そのような像高10割の部分は、上図から、主光線角が大きい(上図では、約30度)と読み取れる。このような像高が高く、主光線角が大きい部分を撮像する撮像素子が配置された位置に配置されている位相差検出用画素群151においては、位相差検出用画素として、例えば、位相差検出用画素152-2が用いられる。
また、位相差検出用画素152-2が用いられる場合、隣接する位相差検出用画素152-1または位相差検出用画素152-3が、位相差検出用画素152-2と合わせて位相差検出用画素として用いられる。
図17の上図と中図を参照するに、画像イメージの中央付近は、像高0割であり、そのような像高0割の部分は、上図から、主光線角が小さい(上図では、約0度)と読み取れる。このような像高が低く、主光線角が小さい部分を撮像する撮像素子が配置された位置に配置されている位相差検出用画素群151においては、位相差検出用画素として、例えば、位相差検出用画素152-5が用いられる。
また、位相差検出用画素152-5が用いられる場合、隣接する位相差検出用画素152-4または位相差検出用画素152-6が、位相差検出用画素152-5と合わせて位相差検出用画素として用いられる。
図17の上図と中図を参照するに、画像イメージの上側と中央付近の間は、像高6割であり、そのような像高6割の部分は、上図から、主光線角が中程度の大きさ(上図では、約25度)と読み取れる。このような像高が中程度であり、主光線角も中程度の大きさである部分を撮像する撮像素子が配置された位置に配置されている位相差検出用画素群151においては、位相差検出用画素として、例えば、位相差検出用画素152-3が用いられる。
また、位相差検出用画素152-3が用いられる場合、隣接する位相差検出用画素152-2または位相差検出用画素152-4が、位相差検出用画素152-3と合わせて位相差検出用画素として用いられる。
図17に示した例は、主光線角の最大値が30度である場合である。図17の上図を参照するに、グラフの曲線において、像高が0.9(9割)のところで、主光線角が30度となり、最大値をとっている。このように、主光線角の最大値が30度のときには、図17を参照して説明したように、位相差検出用画素が選択されるようにできる。そして、例えば、主光線角の最大値が15度のレンズ群21が用いられるときには、図18を参照して説明するように、位相差検出用画素が選択されるようにすることができる。
図18の上図、中図、下図は、それぞれ、図17の上図、中図、下図と同じく、主光線角の特性を表すグラフ、画面イメージを表す図、および位相差特性を表すグラフである。
図18の上図を参照するに、グラフの曲線において、像高が0.9(9割)のところで、主光線角が15度となり、最大値をとっている。このようなレンズ群21を用いる場合、像高10割のところでは、位相差検出用画素として、位相差検出用画素152-4が用いられる。
また、画像イメージの中央付近、換言すれば、レンズ群21のレンズの中央付近は、像高0割であり、このような像高0割のところでは、位相差検出用画素として、位相差検出用画素152-5が用いられる。
図17に示した主光線角の最大値が30度のレンズ群21を用いたときの像高10割のところで用いられる位相差検出用画素は、位相差検出用画素152-2であったが、図18に示した主光線角の最大値が15度のレンズ群21を用いたときの像高10割のところで用いられる位相差検出用画素は、位相差検出用画素152-4である。このように、主光線角の最大値が異なるレンズを用いたときには、同一の像高であっても、位相差検出用画素群151のうちの用いられる位相差検出用画素152は異なる場合がある。
これらのことから、所定のレンズ群21において、像高が異なる部分では、異なる位相差検出用画素152が設定されるようにしても良い。また、異なるレンズ群21において、レンズ群21が交換されたときには、その交換されたレンズ群21に適した位相差検出用画素152が設定されるようにしても良い。
上述した図16に示したフローチャートに基づく処理においては、レンズ群21が装着されたとき、そのレンズ群21に対応する位相差検出用画素が設定されるとして説明した。このとき設定される位相差検出用画素は、画像イメージの部分によらず、すなわち像高によらず、全て同じ位相差検出用画素152が設定されるようにしても良い。
例えば、装着されたレンズ群21においては、位相差検出用画素として、位相差検出用画素152-4と位相差検出用画素152-5が用いられると対応表に記載されている場合には、像高によらず、どの部分でも位相差検出用画素152-4と位相差検出用画素152-5が、位相差検出用画素として用いられる。この場合、対応表には、レンズ群21と用いる位相差検出用画素とが、1対1対応で記載されている。
または上述した図16に示したフローチャートに基づく処理において、レンズ群21が装着され、そのレンズ群21に対応する位相差検出用画素152が設定されるとき、画像イメージの部分により、すなわち像高により、異なる位相差検出用画素152が設定されるようにしても良い。
例えば、装着されたレンズ群21においては、像高が10割のところでは、位相差検出用画素として、位相差検出用画素152-2と位相差検出用画素152-3が用いられ、像高が0割のところでは、位相差検出用画素として、位相差検出用画素152-4と位相差検出用画素152-5が用いられと対応表に記載されている場合には、像高10割のところでは、位相差検出用画素152-2と位相差検出用画素152-3が、位相差検出用画素として用いられ、像高0割のところでは、位相差検出用画素152-4と位相差検出用画素152-5が、位相差検出用画素として用いられる。この場合、対応表には、レンズ群21と用いる位相差検出用画素とが、1対複数対応で記載されている。
または、レンズ群21によらず、像高だけで位相差検出用画素152が設定されるようにすることも可能である。
このように、レンズ群21毎に、用いる位相差検出用画素を設定することで、レンズ毎に適切な位相差検出用画素を用いた位相差検出を行うことができ、精度良くオートフォーカスを行うことが可能となる。また、像高毎に用いる位相差検出用画素を設定することで、像高毎に適切な位相差検出用画素を用いた位相差検出を行うことができ、精度良くオートフォーカスを行うことが可能となる。
さらに、レンズ群21毎および像高毎に用いる位相差検出用画素を設定することで、レンズや像高に応じた適切な位相差検出用画素を用いた位相差検出を行うことができ、精度良くオートフォーカスを行うことが可能となる。
<撮像素子の他の構成>
本技術は、例えば、図8を参照して説明したように、上側基板111Aと下側基板111Bを備え、下側基板111Bに位相差検出用画素を設ける構成とした。また、図8に示した構成では、1層目に上側基板111A、2層目に下側基板111B、3層目に回路などが設けられる基板171が配置されている例をあげて説明した。
本技術は、例えば、図8を参照して説明したように、上側基板111Aと下側基板111Bを備え、下側基板111Bに位相差検出用画素を設ける構成とした。また、図8に示した構成では、1層目に上側基板111A、2層目に下側基板111B、3層目に回路などが設けられる基板171が配置されている例をあげて説明した。
本技術は、このような構成に適用が限定されるわけではなく、例えば、以下に説明するような構成に対しても適用できる。
図19は、撮像素子の他の構成を示す図である。図19に示した構成においては、1層目に上側基板111A、2層目に基板171、3層目に下側基板111Bが配置されている。このように、2層目に基板171を配置し、3層目に下側基板111Bを配置する構成としても良い。
このように構成した場合、1層目の上側基板111Aの所定の画素を透過した光は、さらに2層目の基板171を透過し、3層目の位相差検出用画素152に受光される。3層目の位相差検出用画素152に受光される光が透過してくる1層目の上側基板111Aの所定の画素は、赤色のオンチップカラーフィルタ132とすることができる。
赤色の光は、青色や緑色の光と比べて、2層目の基板171により吸収される率が低く、2層目の基板171で吸収されてしまうことによる特性劣化を最小限に抑えることが可能である。例えば、2層目の基板171をシリコンで構成した場合、シリコンは、長波長側ほど光を透過しやすいという特性を有している。
赤色のオンチップカラーフィルタ132は、赤色の光のように、波長の長い領域を検出するため、赤色のオンチップカラーフィルタ132を透過してきた光は、波長の長い光となる。このようなことから、上記したように、1層目の上側基板111Aの所定の画素のオンチップカラーフィルタ132を赤色とし、その画素を透過してきた光を3層目の下側基板111Bに配置された位相差検出用画素152で受光するように構成することで、2層目のシリコンで構成された基板171で吸収され、特性が劣化してしまうようなことを抑えることが可能となる。
さらに、2層目のシリコンで構成された基板171での吸収を抑えるために、図20に示すように、基板171の光が透過する領域に穴172を設けるようにしても良い。基板171に穴172を設けることで、1層目の上側基板111Aを透過した光が、2層目の基板171で吸収されるのを防ぎ、3層目に設けられている位相差検出用画素152に受光させることが可能となる。
穴172は、物理的に基板171に設けられていても良い。また、シリコンで形成されている基板171の一部をシリコン酸化膜やシリコン窒化膜などの可視光領域に吸収帯をほとんど持たない材料で置き換え、その部分を穴172としても良い。
オンチップカラーフィルタ132の色は、赤色ではなく、他の色にしても良い。例えば、図21に示すように、白色(White)や透明(Clear)であっても良い。図21に示したオンチップカラーフィルタ132は、赤(R)、緑(G)、青(B)に加え白(W)が配置されたフィルタとされている。
白色の画素は、全整色性である分光感度の画素として機能し、赤色の画素、緑色の画素、青色の画素は、それぞれの色に特性のある分光感度の画素として機能する。このような、全整色性である分光感度を含む4種類の分光感度の画素が、撮像面上に配置されている撮像素子(イメージセンサ)にも本技術は適用でき、そのような全整色性の画素から透過してきた光を、位相差検出用画素152で受光する構成とすることもできる。
なお、このような全整色性の画素を含む構成は、上記した構成に対しても適用でき、また後述する構成に対しても適用できる。
図22は、撮像素子101の他の構成を示す図である。図22に示した撮像素子101は、例えば、図20に示した撮像素子101と同様の構成を有しているが、1層目の上側基板111Aの所定の画素(図中、斜線を付した画素)を、他の画素とは異なる材料、例えば、シリコン酸化膜やシリコン窒化膜などの可視光領域に吸収帯をほとんど持たない材料で構成している。
このような可視光領域に吸収帯をほとんど持たない材料で構成された部分を透過した光が、位相差検出用画素152に受光されるように構成する。このように構成することで、図22に示したように、1層目の上側基板111Aに配置されるオンチップカラーフィルタ132のうち、位相差検出用画素152に受光される光を透過する画素上の色を、緑色(G)とすることができる。
通常、シリコンは、緑色の光の大部分を吸収してしまうため、第1層をシリコンで構成すると、下層にはほとんど光が到達しないが、上記したように、第1層に、可視光領域に吸収帯をほとんど持たない材料で構成された部分を設け、その部分を透過してきた光を、第3層の位相差検出用画素152で受光するように構成することで、下層の位相差検出用画素152にも光を到達させることが可能な構成とすることができる。
なお、図示はしないが、上側基板111Aに配置されるオンチップカラーフィルタ132のうち、位相差検出用画素152に受光される光を透過する画素上の色を、青色とすることもできる。
また、図23に示すように、上側基板111Aに配置されるオンチップカラーフィルタ132のうち、位相差検出用画素152に受光される光を透過する画素上の色を、赤色としても良い。赤色とすることで、感度をより向上させることが可能となる。
図23では、2層目の基板171に穴172が設けられている例を図示したが、1層目での光の吸収量が少なくなるため、2層目の穴172は設けない構成としても、3層目の位相差検出用画素152に光を到達させることができる構成とすることができるため、2層目の穴172は設けない構成としても良い。
図24に示すように、上側基板111Aに配置されるオンチップカラーフィルタ132のうち、位相差検出用画素152に受光される光を透過する画素上の色を、白色(透明)としても良い。白色(透明)とすることで、感度をより向上させることが可能となる。
下層に光を透過させる画素のオンチップカラーフィルタ132を、白色(透明)にすることで、可視光全帯域の光が、オンチップカラーフィルタ132を透過することになる。そのような可視光全帯域の光が、シリコンで吸収されたとしても、長波長側の光は、比較的多くの光量が透過する。よって、図24に示したように、基板171に、穴172を設けても良いが、そのような穴172を設けない構成とすることも可能である。
上記した構成は一例であり、限定を示すものではない。また、上記した構成を組み合わせた構成とすることも可能である。
上記した実施の形態においては、主に、1つのオンチップレンズ131を透過した光の中だけで、位相差検出する画素を選択する場合について説明したが、比較的周辺にある(比較的近くに位置する)異なるオンチップレンズ131を透過した光を検出した画素との組み合わせにより、位相差検出を行うように構成することも可能である。
上記した実施の形態においては、シリコン半導体を用いた撮像素子を例にあげて説明したが、フォトダイオードまたは光電変換部分を有するセンサ部分がGaAs系、InGaAs系、PbS, PbSe, Ge系, InAs, InSb, HgCdTeの材質を含む物質、さらにはGaN, InGaN, AlGaN系の材質を含む物質からなる撮像素子でも良い。
このように本技術によれば、画素の欠落や位相差画素周囲への光の乱反射を起こすことなく、位相差を検出し、オートフォーカスを実行することが可能となる。また、主光線角に応じて位相差検出用画素を変えることができるようになり、はば広い主光線角に対応することが可能になる。
<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、およびドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305およびバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、予めインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
<撮像素子の使用例>
図26は、上述の撮像素子や撮像素子を含む電子機器を使用する使用例を示す図である。
図26は、上述の撮像素子や撮像素子を含む電子機器を使用する使用例を示す図である。
上述した撮像素子は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成もとることができる。
(1)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
前記第2の光電変換層の前記光電変換部により得られる信号を用いて位相差を検出する
撮像素子。
(2)
前記第2の光電変換層の3画素以上の前記光電変換部を備える
前記(1)に記載の撮像素子。
(3)
前記第2の光電変換層は、前記第1の光電変換層に設けられているオンチップレンズの1つに対して、複数の位相差検出用の画素を備える
前記(1)または(2)に記載の撮像素子。
(4)
前記第2の光電変換層は、複数の位相差検出用の画素を備え、
前記複数の位相差検出用の画素のうちの2画素を用いて位相差を検出する
前記(1)乃至(3)のいずれかに記載の撮像素子。
(5)
前記複数の位相差検出用の画素のうち、主光線角に応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(6)
前記複数の位相差検出用の画素のうち、前記光学レンズに応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(7)
前記複数の位相差検出用の画素のうち、前記光学レンズの像高に応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(8)
前記複数の位相差検出用の画素のうち、前記光学レンズの焦点距離に応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(9)
前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズを識別する情報と用いる画素とが関連付けられている対応表が参照されて設定される
前記(1)乃至(8)のいずれかに記載の撮像素子。
(10)
前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズの像高と用いる画素とが関連付けられている対応表が参照されて設定される
前記(1)乃至(9)のいずれかに記載の撮像素子。
(11)
前記第1の光電変換層と前記第2の光電変換層との間に、少なくとも1層の基板を備える
前記(1)乃至(10)のいずれかに記載の撮像素子。
(12)
前記第1の光電変換層に入射された光のうち、前記第2の光電変換層の画素で受光される光が透過する前記基板の領域は、可視光領域に吸収帯を有さない材料で形成されている
前記(11)に記載の撮像素子。
(13)
前記材料は、シリコン酸化膜またはシリコン窒化膜である
前記(12)に記載の撮像素子。
(14)
前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている赤色のオンチップカラーフィルタからの光を受光する
前記(1)乃至(13)のいずれかに記載の撮像素子。
(15)
前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている白色のオンチップカラーフィルタからの光を受光する
前記(1)乃至(14)のいずれかに記載の撮像素子。
(16)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像方法であり、
前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、
前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定するステップを含む
撮像方法。
(17)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像を制御するプログラムにおいて、
前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、
前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定する
ステップを含む処理をコンピュータに実行させるためのプログラム。
(18)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
前記第2の光電変換層の前記光電変換部により位相差を検出する撮像素子
を備える電子機器。
(1)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
前記第2の光電変換層の前記光電変換部により得られる信号を用いて位相差を検出する
撮像素子。
(2)
前記第2の光電変換層の3画素以上の前記光電変換部を備える
前記(1)に記載の撮像素子。
(3)
前記第2の光電変換層は、前記第1の光電変換層に設けられているオンチップレンズの1つに対して、複数の位相差検出用の画素を備える
前記(1)または(2)に記載の撮像素子。
(4)
前記第2の光電変換層は、複数の位相差検出用の画素を備え、
前記複数の位相差検出用の画素のうちの2画素を用いて位相差を検出する
前記(1)乃至(3)のいずれかに記載の撮像素子。
(5)
前記複数の位相差検出用の画素のうち、主光線角に応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(6)
前記複数の位相差検出用の画素のうち、前記光学レンズに応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(7)
前記複数の位相差検出用の画素のうち、前記光学レンズの像高に応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(8)
前記複数の位相差検出用の画素のうち、前記光学レンズの焦点距離に応じて設定される画素を用いて位相差を検出する
前記(4)に記載の撮像素子。
(9)
前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズを識別する情報と用いる画素とが関連付けられている対応表が参照されて設定される
前記(1)乃至(8)のいずれかに記載の撮像素子。
(10)
前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズの像高と用いる画素とが関連付けられている対応表が参照されて設定される
前記(1)乃至(9)のいずれかに記載の撮像素子。
(11)
前記第1の光電変換層と前記第2の光電変換層との間に、少なくとも1層の基板を備える
前記(1)乃至(10)のいずれかに記載の撮像素子。
(12)
前記第1の光電変換層に入射された光のうち、前記第2の光電変換層の画素で受光される光が透過する前記基板の領域は、可視光領域に吸収帯を有さない材料で形成されている
前記(11)に記載の撮像素子。
(13)
前記材料は、シリコン酸化膜またはシリコン窒化膜である
前記(12)に記載の撮像素子。
(14)
前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている赤色のオンチップカラーフィルタからの光を受光する
前記(1)乃至(13)のいずれかに記載の撮像素子。
(15)
前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている白色のオンチップカラーフィルタからの光を受光する
前記(1)乃至(14)のいずれかに記載の撮像素子。
(16)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像方法であり、
前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、
前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定するステップを含む
撮像方法。
(17)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像を制御するプログラムにおいて、
前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、
前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定する
ステップを含む処理をコンピュータに実行させるためのプログラム。
(18)
画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
前記第2の光電変換層の前記光電変換部により位相差を検出する撮像素子
を備える電子機器。
10 撮像装置, 21 レンズ群, 22 撮像素子, 101 撮像素子,102 光学レンズ, 111A 上側基板, 111B 下側基板, 131 オンチップレンズ, 132 オンチップカラーフィルタ, 133 フォトダイオード, 151 位相差検出用画素群, 152 位相差検出用画素, 171 基板
Claims (18)
- 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
前記第2の光電変換層の前記光電変換部により得られる信号を用いて位相差を検出する
撮像素子。 - 前記第2の光電変換層の3画素以上の前記光電変換部を備える
請求項1に記載の撮像素子。 - 前記第2の光電変換層は、前記第1の光電変換層に設けられているオンチップレンズの1つに対して、複数の位相差検出用の画素を備える
請求項1に記載の撮像素子。 - 前記第2の光電変換層は、複数の位相差検出用の画素を備え、
前記複数の位相差検出用の画素のうちの2画素を用いて位相差を検出する
請求項1に記載の撮像素子。 - 前記複数の位相差検出用の画素のうち、主光線角に応じて設定される画素を用いて位相差を検出する
請求項4に記載の撮像素子。 - 前記複数の位相差検出用の画素のうち、前記光学レンズに応じて設定される画素を用いて位相差を検出する
請求項4に記載の撮像素子。 - 前記複数の位相差検出用の画素のうち、前記光学レンズの像高に応じて設定される画素を用いて位相差を検出する
請求項4に記載の撮像素子。 - 前記複数の位相差検出用の画素のうち、前記光学レンズの焦点距離に応じて設定される画素を用いて位相差を検出する
請求項4に記載の撮像素子。 - 前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズを識別する情報と用いる画素とが関連付けられている対応表が参照されて設定される
請求項1に記載の撮像素子。 - 前記複数の位相差検出用の画素のうち位相差検出用の画素として用いる画素は、前記光学レンズの像高と用いる画素とが関連付けられている対応表が参照されて設定される
請求項1に記載の撮像素子。 - 前記第1の光電変換層と前記第2の光電変換層との間に、少なくとも1層の基板を備える
請求項1に記載の撮像素子。 - 前記第1の光電変換層に入射された光のうち、前記第2の光電変換層の画素で受光される光が透過する前記基板の領域は、可視光領域に吸収帯を有さない材料で形成されている
請求項11に記載の撮像素子。 - 前記材料は、シリコン酸化膜またはシリコン窒化膜である
請求項12に記載の撮像素子。 - 前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている赤色のオンチップカラーフィルタからの光を受光する
請求項1に記載の撮像素子。 - 前記第2の光電変換層の前記光電変換部は、前記第1の光電変換層に設けられている白色のオンチップカラーフィルタからの光を受光する
請求項1に記載の撮像素子。 - 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像方法であり、
前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、
前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定するステップを含む
撮像方法。 - 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成されている撮像素子の撮像を制御するプログラムにおいて、
前記第2の光電変換層には、位相差を検出する位相差検出用画素が複数配置されており、
前記複数の位相差検出用画素のうち、前記光学レンズまたは前記光学レンズの像高に応じ、用いる位相差検出用画素を設定する
ステップを含む処理をコンピュータに実行させるためのプログラム。 - 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
前記第2の光電変換層の前記光電変換部により得られる信号を用いて位相差を検出する撮像素子
を備える電子機器。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015-109338 | 2015-05-29 | ||
| JP2015109338 | 2015-05-29 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016194577A1 true WO2016194577A1 (ja) | 2016-12-08 |
Family
ID=57442266
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2016/064213 Ceased WO2016194577A1 (ja) | 2015-05-29 | 2016-05-13 | 撮像素子、撮像方法、プログラム、並びに電子機器 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2016194577A1 (ja) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007133087A (ja) * | 2005-11-09 | 2007-05-31 | Nikon Corp | 焦点検出装置、光学システムおよび焦点検出方法 |
| WO2008132812A1 (ja) * | 2007-04-20 | 2008-11-06 | Nikon Corporation | 固体撮像素子およびこれを用いた撮像装置 |
| JP2011103335A (ja) * | 2009-11-10 | 2011-05-26 | Fujifilm Corp | 撮像素子及び撮像装置 |
| JP2013187475A (ja) * | 2012-03-09 | 2013-09-19 | Olympus Corp | 固体撮像装置およびカメラシステム |
| JP2014130890A (ja) * | 2012-12-28 | 2014-07-10 | Canon Inc | 光電変換装置 |
| US20150146056A1 (en) * | 2013-11-27 | 2015-05-28 | Sony Corporation | Solid-state imaging device and electronic apparatus |
| WO2016051594A1 (ja) * | 2014-10-03 | 2016-04-07 | オリンパス株式会社 | 固体撮像装置および撮像装置 |
| WO2016111004A1 (ja) * | 2015-01-09 | 2016-07-14 | オリンパス株式会社 | 固体撮像装置 |
-
2016
- 2016-05-13 WO PCT/JP2016/064213 patent/WO2016194577A1/ja not_active Ceased
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007133087A (ja) * | 2005-11-09 | 2007-05-31 | Nikon Corp | 焦点検出装置、光学システムおよび焦点検出方法 |
| WO2008132812A1 (ja) * | 2007-04-20 | 2008-11-06 | Nikon Corporation | 固体撮像素子およびこれを用いた撮像装置 |
| JP2011103335A (ja) * | 2009-11-10 | 2011-05-26 | Fujifilm Corp | 撮像素子及び撮像装置 |
| JP2013187475A (ja) * | 2012-03-09 | 2013-09-19 | Olympus Corp | 固体撮像装置およびカメラシステム |
| JP2014130890A (ja) * | 2012-12-28 | 2014-07-10 | Canon Inc | 光電変換装置 |
| US20150146056A1 (en) * | 2013-11-27 | 2015-05-28 | Sony Corporation | Solid-state imaging device and electronic apparatus |
| WO2016051594A1 (ja) * | 2014-10-03 | 2016-04-07 | オリンパス株式会社 | 固体撮像装置および撮像装置 |
| WO2016111004A1 (ja) * | 2015-01-09 | 2016-07-14 | オリンパス株式会社 | 固体撮像装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11363186B2 (en) | Image pickup device and electronic apparatus with an image plane phase difference detection pixel | |
| US10686004B2 (en) | Image capturing element and image capturing device image sensor and image-capturing device | |
| KR101786069B1 (ko) | 이면 조사형 촬상 소자, 그 제조 방법 및 촬상 장치 | |
| US20170034456A1 (en) | Sensor assembly with selective infrared filter array | |
| US10319764B2 (en) | Image sensor and electronic device | |
| US20060125936A1 (en) | Multi-lens imaging systems and methods | |
| CN105229787B (zh) | 焦点检测装置和电子设备 | |
| JP2011176715A (ja) | 裏面照射型撮像素子および撮像装置 | |
| WO2017126376A1 (ja) | イメージセンサ、製造方法、及び、電子機器 | |
| CN104681572A (zh) | 固态成像装置和电子设备 | |
| US10854664B2 (en) | Solid-state image pickup device and method for manufacturing the same, and electronic apparatus | |
| JPWO2016052249A1 (ja) | 固体撮像素子および製造方法、並びに電子機器 | |
| JP2015167219A (ja) | 撮像素子、製造装置、電子機器 | |
| US8654224B2 (en) | Composite imaging element and imaging device equipped with same | |
| CN108352395A (zh) | 固态摄像装置和电子设备 | |
| JP2016127043A (ja) | 固体撮像素子及び電子機器 | |
| JP6764571B2 (ja) | 固体撮像素子、撮像装置、並びに電子機器 | |
| WO2017130725A1 (ja) | 焦点検出装置、撮像装置 | |
| JP2013057769A (ja) | 固体撮像装置、撮像装置、合焦制御方法、及び、プログラム | |
| JP2010186942A (ja) | 撮像素子 | |
| WO2016194577A1 (ja) | 撮像素子、撮像方法、プログラム、並びに電子機器 | |
| JP2015159231A (ja) | 固体撮像装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16803014 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 16803014 Country of ref document: EP Kind code of ref document: A1 |