[go: up one dir, main page]

WO2008032820A1 - Imaging element and imaging device - Google Patents

Imaging element and imaging device Download PDF

Info

Publication number
WO2008032820A1
WO2008032820A1 PCT/JP2007/067934 JP2007067934W WO2008032820A1 WO 2008032820 A1 WO2008032820 A1 WO 2008032820A1 JP 2007067934 W JP2007067934 W JP 2007067934W WO 2008032820 A1 WO2008032820 A1 WO 2008032820A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus detection
pixel
detection pixel
imaging
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2007/067934
Other languages
English (en)
French (fr)
Inventor
Yosuke Kusaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to US12/310,393 priority Critical patent/US8049801B2/en
Priority to JP2008534406A priority patent/JP5176959B2/ja
Publication of WO2008032820A1 publication Critical patent/WO2008032820A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours

Definitions

  • the present invention relates to an image sensor and an imaging device.
  • the focus detection pixels are arranged in a cross shape corresponding to the focus detection area set on the imaging screen.
  • An image sensor is known! /, E.g. (see Patent Document 1).
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2000-292686
  • a plurality of types of imaging pixels having different spectral sensitivity characteristics for imaging an image formed by an optical system are two-dimensionally arranged according to a predetermined arrangement.
  • the image pickup device includes a plurality of focus detection pixels arranged in a part of a predetermined array and arranged at positions along a plurality of directions intersecting each other, and the focus adjustment state of the optical system is changed.
  • a plurality of focus detection pixel rows to be detected are provided, and the focus detection pixel at a position where the focus detection pixel rows cross each other is located at a position corresponding to the position of the imaging pixel having the highest density spectral sensitivity characteristic in a predetermined array. Be placed.
  • the invention of claim 2 is different in that the image formed by the optical system is captured.
  • the pixels are arranged in a part of the Bayer array and at positions along a plurality of directions intersecting each other.
  • Each of the focus detection pixels includes a plurality of focus detection pixels that are arranged, and includes a plurality of focus detection pixel rows that detect the focus adjustment state of the optical system.
  • the focus detection pixels at positions where the focus detection pixel rows intersect with each other are It is arranged at a position corresponding to one of the blue and green pixels in the array.
  • the invention of claim 3 is the image sensor according to claim 2, wherein the position corresponding to the position of the blue pixel in the focus detection pixel force-bearing array at the position where the focus detection pixel columns intersect. Placed in.
  • the invention of claim 4 is the image pickup device according to claim 1, wherein the predetermined arrangement is a Bayer arrangement.
  • the invention of claim 5 is the power of any one of claims 1 to 4, in the imaging device of claim 1, wherein the plurality of focus detection pixel rows include a first focus detection pixel row and a second focus detection pixel.
  • the first focus detection pixel column is arranged in the direction perpendicular to the direction from the center of the imaging screen to the periphery of the imaging screen, and the second focus detection pixel column is arranged from the center of the imaging screen.
  • the focus detection pixels of the first focus detection pixel column are arranged at positions where the first focus detection pixel column and the second focus detection pixel column intersect with each other in the direction of the force and the direction around the screen. To do.
  • each focus detection pixel of the first focus detection pixel array receives the first pair of focus detection light beams passing through the optical system.
  • each focus detection pixel in the second focus detection pixel row receives a second pair of focus detection light beams that pass through the optical system, and the center-of-gravity distance between the first pair of focus detection light beams is It is wider than the distance between the centers of gravity of the second pair of focus detection beams.
  • the invention of claim 7 is the imaging device according to claim 5 or claim 6, wherein the arrangement pitch of the focus detection pixels in the first focus detection pixel row is set as the focus detection in the second focus detection pixel row.
  • the focus detection pixels of the first focus detection pixel column are arranged at positions where the first focus detection pixel column and the second focus detection pixel column intersect with each other, while being narrower than the pixel arrangement pitch.
  • the invention of claim 8 is the force of any of claims 1 to 4, in the imaging device of claim 1,
  • the imaging pixels are two-dimensionally densely arranged, and the plurality of focus detection pixel rows are arranged in a lattice shape having a lattice pitch larger than the arrangement pitch of the imaging pixels.
  • the invention according to claim 9 is the imaging device according to claim 8, wherein the plurality of focus detection pixel arrays are arranged in a square lattice pattern.
  • the invention of claim 10 is the imaging device according to claim 8, wherein the plurality of focus detection pixel rows are arranged in a diagonal direction between intersections of the focus detection pixel rows arranged in a grid pattern. It has a pixel column.
  • the invention of claim 11 is the imaging device according to any one of claims 8 to 10, wherein the focus detection pixels are arranged adjacent to each other and continuously on a straight line.
  • the invention of claim 12 is the imaging device according to claim 11, wherein the focus detection pixels in a direction closer to a tangential direction of a concentric circle centered on the center of the imaging surface at the intersection of the focus detection pixel columns Focus detection pixels constituting a column are arranged.
  • the invention of claim 13 is the imaging device according to any one of claims;! To 12, wherein the imaging pixel and the focus detection pixel each have a microlens and a photoelectric conversion unit.
  • the invention of claim 14 detects the focus adjustment state of the optical system based on any of the powers of claims 1 to 13 and the image sensor of claim 1 and a signal output from each focus detection pixel array And a focus detection means.
  • the invention of claim 15 is the imaging device according to claim 14, wherein the image signal at the position of the focus detection pixel is interpolated based on the image signal of the image pickup pixel arranged in the vicinity of the focus detection pixel. Interpolating means to obtain is provided.
  • the invention of claim 16 is the image pickup apparatus according to claim 15, further comprising selection means for selecting a specific position on the image sensor based on the output of the image sensor, and the focus detection means comprises: The focus adjustment state of the optical system is detected based on the signal of the focus detection pixel row belonging to the position selected by the selection means.
  • the invention of claim 17 is the imaging apparatus according to claim 16, wherein the selection means detects a position of a person or a person's face or a person's eyes in an image obtained by the image sensor.
  • the invention of claim 18 is the imaging device according to claim 17, wherein the plurality of focus detection pixel rows are arranged in a grid shape having a grid pitch larger than the arrangement pitch of the imaging pixels, and the grid pitch is It is set to be smaller than the statistical average size on the screen of a person or person's face or person's eyes.
  • the invention according to claim 19 is the imaging apparatus according to claim 17, wherein the selection unit selects a specific position based on an output of the imaging element not including a signal of the focus detection pixel.
  • the invention of claim 20 is the imaging apparatus according to claim 17, wherein the selection means selects a specific position using the image signal of the position of the focus detection pixel obtained by the interpolation means.
  • the force S can be used to cross two focus detection pixel arrays while maintaining high image quality.
  • FIG. 1 is a diagram showing a configuration of an embodiment.
  • FIG. 5 is a front view showing the configuration of the focus detection pixel.
  • FIG. 6 is a front view showing the configuration of another focus detection pixel.
  • FIG. 9 Cross-sectional view showing the structure of the imaging pixel
  • FIG. 10 is a cross-sectional view showing the structure of a focus detection pixel
  • FIG. 13 is a diagram for explaining the relationship between imaging pixels and exit pupils.
  • FIG. 14 Front view of the distance measuring pupil on the exit pupil plane corresponding to the focus detection pixel 15] Front view of ranging pupil on exit pupil plane corresponding to other focus detection pixels
  • FIG. 18 is a front view showing a detailed configuration of an image sensor according to a modification.
  • FIG. 20 is a front view showing a detailed configuration of an image sensor according to a modification.
  • FIG. 21 is a front view showing a detailed configuration of an image sensor according to another modification.
  • FIG. 22 is a front view showing a detailed configuration of an image sensor according to another modification.
  • FIG. 23 is a front view showing a detailed configuration of an image sensor according to another modification.
  • FIG. 25 is a diagram showing the arrangement of focus detection pixels in an image sensor according to another embodiment.
  • FIG. 26 is a diagram showing a detailed configuration of an image sensor according to another embodiment.
  • FIG. 27 is a diagram showing a detailed configuration of an image sensor according to another embodiment.
  • FIG. 28 is a diagram for explaining vignetting of a focus detection light beam.
  • FIG. 29 is a diagram for explaining vignetting of a focus detection light beam.
  • FIG. 32 is a diagram for explaining a method for obtaining image data of a focus detection pixel position by interpolation.
  • FIG. 33 is a front view showing a detailed configuration of an image sensor of a modification of another embodiment.
  • FIG. 33 is a front view showing a detailed configuration of an image sensor of another modification.
  • FIG. 35 is a front view showing a detailed configuration of an image sensor of another modification.
  • FIG. 36 is a front view showing a detailed configuration of an image sensor of another modification.
  • FIG. 37 is a front view showing a detailed configuration of an image sensor according to another modification.
  • FIG. 38 is a front view showing a detailed configuration of an image sensor according to another modification.
  • FIG. 39 is a front view showing a detailed configuration of an image sensor of another modified example.
  • FIG. 41 is a front view showing a detailed configuration of an image sensor of another modified example.
  • FIG. 42 is a front view showing a detailed configuration of an image sensor of another modified example.
  • FIG. 43 is a front view showing a detailed configuration of an image sensor according to another modification.
  • FIG. 44 is a diagram showing the configuration of focus detection pixels.
  • FIG. 1 shows the configuration of an embodiment.
  • the digital still camera 201 according to one embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 by a mount 204.
  • the interchangeable lens 202 includes a lens drive control device 206, a zooming lens 208, a lens 209, a focusing lens 210, a diaphragm 211, and the like.
  • the lens drive control unit 206 also includes peripheral components such as a microcomputer and a memory. The drive control of the focusing lens 210 and the aperture 211, the state detection of the aperture 211, the zooming lens 208 and the focusing lens 210, and the body drive control described later. Sends lens information to the device 214 and receives camera information.
  • the camera body 203 includes an imaging element 212, a body drive control device 214, a liquid crystal display element drive circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, and the like. Pixels, which will be described later, are arranged in a two-dimensional manner on the image sensor 212, and are arranged on a predetermined imaging surface of the interchangeable lens 202 to capture a subject image formed by the interchangeable lens 202. Although details will be described later, focus detection pixels are arranged at predetermined focus detection positions of the image sensor 212.
  • the body drive control device 214 is composed of peripheral components such as a microcomputer and a memory, and reads an image signal from the image sensor 212, corrects the image signal, detects the focus adjustment state of the interchangeable lens 202, and a lens drive control device. Receive lens information from 206 and camera Transmits information (defocus amount) and controls the operation of the entire digital still camera.
  • the body drive control device 214 and the lens drive control device 206 communicate with each other via the electrical contact portion 213 of the mount portion 204 to exchange various information.
  • a liquid crystal display element driving circuit 215 drives a liquid crystal display element 216 of an electronic viewfinder (EVF: electric viewfinder). The photographer can observe the image displayed on the liquid crystal display element 216 via the eyepiece lens 217.
  • the memory card 219 is removable from the camera body 203 and is a portable storage medium that stores and stores image signals.
  • the subject image that has passed through the interchangeable lens 202 and formed on the image sensor 212 is photoelectrically converted by the image sensor 212, and its output is sent to the body drive controller 214.
  • the body drive control device 214 calculates the defocus amount at a predetermined focus detection position based on the output data of the focus detection pixels on the image sensor 212, and sends this defocus amount to the lens drive control device 206.
  • the body drive control device 214 stores the image signal generated based on the output of the image sensor 212 in the memory card 219, and sends the image signal to the liquid crystal display element drive circuit 215, where the image signal is displayed on the liquid crystal display element 216. Is displayed.
  • the camera body 203 is provided with operation members (not shown) such as shutter buttons and focus detection position setting members, and the body drive control device 214 detects operation state signals from these operation members. In addition, it controls the operation (imaging operation, focus detection position setting operation, image processing operation) according to the detection result.
  • operation members such as shutter buttons and focus detection position setting members
  • the body drive control device 214 detects operation state signals from these operation members. In addition, it controls the operation (imaging operation, focus detection position setting operation, image processing operation) according to the detection result.
  • the lens drive controller 206 changes the lens information according to the focusing state, zooming state, aperture setting state, aperture open F value, and the like. Specifically, the lens drive control unit 206 monitors the positions of the lenses 208 and 210 and the diaphragm position of the diaphragm 211, calculates lens information according to the monitor's information, or provides a lookup that is prepared in advance. Select lens information according to the monitor information from the table. The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the forcing lens 210 to a focal point by a drive source such as a motor (not shown) based on the lens drive amount. To do.
  • a drive source such as a motor (not shown)
  • FIG. 2 shows a focus detection position (focus detection area on the imaging screen, and shows an example of a region in which an image is sampled on the imaging screen when a focus detection pixel array described later performs focus detection.
  • a focus detection area 101 is arranged.
  • the focus detection area 101 has a horizontal direction (direction parallel to the line connecting the screen center 104 and the focus detection position 105) and a vertical direction (direction perpendicular to the line connecting the screen center 104 and the focus detection position 105).
  • focus detection image shift detection
  • a portion 102 extending in the vertical direction and a portion 103 extending in the horizontal direction intersect at a position 105.
  • FIG. 3 is a front view showing a detailed configuration of the image sensor 212, and shows a focus detection area shown in FIG.
  • the part corresponding to 105 is enlarged. 3 corresponds to the vertical and horizontal directions of the imaging screen 100 shown in FIG.
  • the imaging element 212 includes imaging pixels for imaging (green pixel 310, red pixel 311 and blue pixel 312), and focus detection pixels 320 and 330 for focus detection.
  • the imaging pixels green pixel 310, red pixel 311 and blue pixel 312) are composed of a microlens 10, a photoelectric conversion unit 11, and a color filter (not shown).
  • Each spectral sensitivity has the characteristics shown in Fig. 7.
  • imaging pixels (green pixel 310, red pixel 311 and blue pixel 312) each having a color filter are arranged in a bay.
  • the focus detection pixels 320 and 330 include a microlens 10 and a pair of photoelectric conversion units 12 and 13.
  • the focus detection pixels 320 are arranged by rotating the focus detection pixels 330 by 90 degrees.
  • the focus detection pixels 320 and 330 are not provided with a color filter to increase the amount of light, and their spectral characteristics are the total of the spectral sensitivity of the photodiode that performs photoelectric conversion and the spectral characteristics of the infrared cut filter (not shown).
  • Spectral characteristics see Fig. 8
  • This spectral characteristic is a spectral characteristic obtained by adding the spectral characteristics of the green pixel, the red pixel, and the blue pixel shown in FIG. 7.
  • the optical wavelength range of the sensitivity is the optical wavelength range of the sensitivity of the green pixel, the red pixel, and the blue pixel. The area is covered.
  • the photoelectric conversion unit 11 of the imaging pixels 310, 311, and 312 receives all light beams having a predetermined aperture diameter (for example, F1.0) by the microlens 10. Designed to shape.
  • the pair of photoelectric conversion units 12 and 13 of the focus detection pixels 320 and 330 receive all the light flux having a predetermined aperture diameter (for example, F2.8) by the microlens 10. It is designed in such a shape.
  • the focus detection pixels 320 for focus detection are linearly arranged closely without gaps in a part of the column where the green pixels 310 and the blue pixels 312 of the imaging pixels are to be arranged.
  • the focus detection pixels 330 for focus detection are linearly and densely arranged in a part of a row where the green pixels 310 and the red pixels 311 of the imaging pixels are to be arranged without gaps.
  • the focus detection pixel 320 is arranged at the pixel position where the pixel column having the force and the pixel column including the focus detection pixel 330 intersect.
  • the image data of the imaging pixel is used as it is.
  • the image data in the focus detection pixel is interpolated using the image data of the imaging pixels around the focus detection pixel.
  • the image data at the position of the focus detection pixel 320 arranged in place of the image pickup pixel at the position of the blue pixel 312 of the image pickup pixel is one right adjacent to the green pixel 310 adjacent to the focus detection pixel 320.
  • the image data at the position of the focus detection pixel 320 arranged in place of the image pickup pixel at the position of the green pixel 310 of the image pickup pixel is next to the focus detection pixel 320 in the upper right, lower right, upper left, and lower left 45 degrees directions. This is averaged as the average of the image data of four green pixels 310.
  • the image data at the position of the focus detection pixel 330 arranged in place of the image pickup pixel at the position of the red pixel 311 of the image pickup pixel is one with the green pixel 310 adjacent to the focus detection pixel 330 interposed therebetween.
  • Interpolated as the average of the image data of the upper red pixel 311 adjacent to the image data of the red pixel 311 one lower next across the green pixel 310 adjacent to the focus detection pixel 320.
  • the image data at the position of the focus detection pixel 330 arranged in place of the image pickup pixel at the position of the green pixel 310 of the image pickup pixel is next to the focus detection pixel 330 diagonally in the upper right, lower right, upper left, and lower left 45 degrees directions. Interpolated as the average of the image data of the four green pixels 310.
  • the green pixel 310, the red pixel 311 and the blue pixel 312 are in a Bayer array, the pixels of the green pixel 310 are arranged at a higher density than the red pixel 311 and the blue pixel 312. Even when interpolation is performed, the power for interpolating the image data at the green pixel position Image data with higher interpolation accuracy than the image data interpolation at the red or blue pixel position is of high quality.
  • the focus detection pixels 320 are arranged in the column direction.
  • the pixel position where the green pixel 310 is to be originally arranged is determined by setting the pixel position where the pixel line including the focus detection pixel 330 arranged in the row direction intersects with the pixel position where the green pixel 310 should be originally arranged. Interpolation of image data can be performed without any trouble even at the intersecting pixel positions. If the intersection position is set to the red pixel 311 or the blue pixel 312, interpolation must be performed using an interpolation method that differs only in the image data interpolation at the intersection position. In addition, since the position of the imaging pixel used for interpolation is farther from the intersection position, the interpolation accuracy is lowered and the image quality is lowered.
  • FIG. 9 is a cross-sectional view of the imaging pixel.
  • the micro lens 10 is disposed in front of the photoelectric conversion unit 11 for imaging, and the photoelectric conversion unit 11 is projected forward by the micro lens 10.
  • the photoelectric conversion unit 11 is formed on the semiconductor circuit substrate 29.
  • a color filter (not shown) is disposed between the microlens 10 and the photoelectric conversion unit 11.
  • FIG. 10 is a cross-sectional view of the focus detection pixel.
  • the microlens 10 is disposed in front of the photoelectric conversion units 12 and 13 for focus detection, and the photoelectric conversion units 12 and 13 are projected forward by the microlens 10.
  • the photoelectric conversion units 12 and 13 are formed on the semiconductor circuit board 29.
  • FIG. 11 is an explanatory diagram of focus detection by a pupil division method using a microlens.
  • 90 is the exit pupil set at the distance dO in front of the microlens placed on the planned imaging plane of the interchangeable lens, and the distance dO is the microlens curvature, refractive index, and distance between the microlens and the photoelectric converter. The distance is determined depending on the distance, and is hereinafter referred to as a distance measuring pupil distance.
  • 50 and 60 are microlenses
  • 52, 53, 62 and 63 are a pair of photoelectric conversion units of focus detection pixels
  • 72, 73, 82 and 83 are focus detection light beams.
  • Reference numeral 92 denotes a region of the photoelectric conversion units 52 and 62 projected by the microlenses 50 and 60 (hereinafter referred to as a distance measuring pupil), and 93 denotes the photoelectric conversion units 53 and 63 projected by the microlenses 50 and 60. Region (hereinafter referred to as distance pupil).
  • a focus detection pixel consisting of a microlens 50 and a pair of photoelectric conversion units 52 and 53 on the optical axis and an adjacent focus detection pixel (a microlens 60 and a pair of photoelectric conversions) are shown.
  • a pair of photoelectric conversion units from each pair of distance measuring pupils even when the focus detection pixel is located at a position away from the optical axis around the screen. Receives the light flux coming into the microlens.
  • the array direction of the focus detection pixels is The alignment direction of the pair of distance measurement pupils, that is, the alignment direction of the pair of photoelectric conversion units is made to coincide.
  • the microlenses 50 and 60 are disposed in the vicinity of the planned imaging plane of the optical system, and the shape of the pair of photoelectric conversion units 52 and 53 disposed behind the microlens 50 is the microlenses 50 and 60. Is projected onto the exit pupil 90 separated by the projection distance d0, and the projection shape forms distance pupils 92 and 93. The shape of the pair of photoelectric conversion units 62 and 63 arranged behind the microlens 60 is projected onto the exit pupil 90 separated by the projection distance d0, and the projected shape forms the distance measurement pupils 92 and 93.
  • the projection direction of each pixel is determined so that the projection shape (ranging pupils 92 and 93) of the photoelectric conversion unit of each focus detection pixel matches on the exit pupil 90 at the projection distance d0.
  • the pair of distance measuring pupils 92, 93, the pair of photoelectric conversion units (52, 53) and the pair of photoelectric conversion units (62, 63) are in a conjugate relationship via the microlenses 50, 60.
  • the photoelectric conversion unit 52 outputs a signal corresponding to the intensity of an image formed on the microlens 50 by the focus detection light beam 72 passing through the distance measuring pupil 92 and directed to the microlens 50.
  • the photoelectric conversion unit 53 outputs a signal corresponding to the intensity of the image formed on the microlens 50 by the focus detection light beam 73 passing through the distance measuring pupil 93 and directed to the microlens 50.
  • the photoelectric conversion unit 62 outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 82 passing through the distance pupil 92 and directed to the microlens 60.
  • the photoelectric conversion unit 63 passes through the distance measuring pupil 93 and outputs a signal corresponding to the intensity of the image formed on the microlens 60 by the focus detection light beam 83 directed to the microlens 60.
  • a large number of the focus detection pixels described above are arranged in a straight line, and the output of the pair of photoelectric conversion units of each pixel is grouped into an output group corresponding to the distance measurement pupil 92 and the distance measurement pupil 93.
  • Information on the intensity distribution of the pair of images formed on the focus detection pixel array by the focus detection light fluxes that respectively pass through 92 and the distance measuring pupil 93 is obtained.
  • an image shift detection calculation process correlation calculation process, phase difference detection process
  • the range-finding pupil is limited by the aperture limiting element (aperture aperture, lens outline, hood, etc.) of the interchangeable lens! /, NA! /, (Kerek! /, NA! /,
  • the photoelectric conversion unit of the focus detection pixel converts the light beam passing through the limited distance measuring pupil into the focus detection light beam. Will be received.
  • FIG. 12 is an explanatory diagram of vignetting of the distance measuring pupil around the screen.
  • the distance measurement pupils 92 and 93 may be vignetted.
  • the vignetting force S is generated in the distance measuring pupil 92 by the aperture limiting element 98 existing in the surface 99 farther from the exit pupil surface 90.
  • the aperture shape of the aperture limiting element 98 overlaps the distance measurement pupil in the direction connecting the screen center and the focus detection position S.
  • the light beam that passes through the aperture is the focus detection light beam.
  • FIG. 13 is a diagram for explaining the relationship between the imaging pixels and the exit pupil. Explanation of similar elements shown in FIG. 11 is omitted.
  • 70 is a microlens
  • 71 is a photoelectric conversion unit of an imaging pixel
  • 81 is an imaging light beam
  • 94 is a region of the photoelectric conversion unit 71 projected by the microlens 70.
  • the force schematically illustrating the imaging pixel (consisting of the microlens 70 and the photoelectric conversion unit 71) on the optical axis.
  • the photoelectric conversion unit arrives at each microlens from the region 94, respectively. Receiving the luminous flux.
  • the microlens 70 is disposed in the vicinity of the planned imaging plane of the optical system, and the exit pupil in which the shape of the photoelectric conversion unit 71 disposed behind the microlens 70 is separated from the microlens 70 by the projection distance dO. 90 is projected, and the projected shape forms a region 94.
  • the photoelectric conversion unit 71 passes through the region 94 and outputs a signal corresponding to the intensity of the image formed on the microphone port lens 70 by the focus detection light beam 81 directed to the microlens 70.
  • the range-finding pupil has been described as being not limited (not broken) by the aperture limiting element (aperture aperture, lens outline, hood, etc.) of the interchangeable lens.
  • the photoelectric conversion unit of the focus detection pixel detects the light beam that passes through the limited range-finding pupil. Light is received as a light beam.
  • FIG. 14 and 15 are front views of the distance measuring pupil on the exit pupil plane.
  • the circumscribed circles of the distance measuring pupils 922 and 933 obtained by projecting a pair of photoelectric conversion units from the focus detection pixel 330 (see FIG. 5) onto the exit pupil plane 90 by the microlens are viewed from the imaging plane.
  • Predetermined opening to? Value (referred to as the distance measuring pupil F value, here F2.8).
  • a region 901 indicated by a broken line indicates a region corresponding to an aperture value (for example, F2) larger than the aperture value F2.8, and includes distance measuring pupils 922 and 933 therein.
  • the distance between the center of gravity 952 and 953 of the luminous flux (focus detection luminous flux) passing through the ranging pupils 922 and 933 in the direction in which the ranging pupils 922 and 933 are aligned is G1.
  • the aperture due to the aperture limitation is overlapped with the distance measurement pupil in the horizontal direction (the region 903 shows a part of the aperture limitation).
  • the distance measurement pupil 922 is located by the region 903, and the center of gravity 972 of the light beam (focus detection light beam) passing through the distance measurement pupil 922 limited by the region 903 is not the center of gravity. It is centered from 952 (the center of the circumscribed circle of ranging pupils 922 and 933).
  • the measurement pupil 933 is not displaced by the region 903, and the position of the center of gravity 953 of the light beam (focus detection light beam) passing through the distance measurement pupil 933 does not change. Therefore, the distance between the distance measurement pupil centers of gravity 972 and 953 is narrower than the center of gravity G 1 when no vignetting occurs! /, And the center of gravity G 1 ′.
  • focus detection pixel 320 (see FIG. 5, focus detection pixel 320 is a focus detection pixel.
  • the circumscribed circle of the distance measuring pupils 822, 833 projected from the pair of photoelectric converters onto the exit pupil plane 90 by a microlens is a predetermined opening when viewed from the image plane.
  • Mouth F-number (referred to as distance-measuring pupil F-number, here F2.8).
  • a region 901 indicated by a broken line indicates a region corresponding to an aperture value (for example, F2) larger than the aperture value F2.8, and includes distance measurement pupils 822 and 833 therein.
  • the ranging position S is the position shown in FIG.
  • the aperture due to aperture limitation is shifted horizontally with respect to the distance measurement pupil.
  • Region 903 shows part of the aperture restriction.
  • the distance between the right pupil of the distance measuring pupil 822 and the distance measuring pupil 833 is determined by the area 903, and the vignetting occurs because the vignetting occurs in the distance measuring pupil 8 22, 833 ⁇ .
  • Area 903 ⁇ Therefore, the weight of J ⁇ 822, 833, the position 852, 853 does not change, so the center of gravity 852, 853 of the light beam (focus detection beam) passing through the distance measuring pupil 822, 833 G2 Does not change.
  • the focus detection area is at the periphery of the screen, the direction in which the pair of distance measurement pupils is aligned.
  • the direction from the center of the screen to the position of the focus detection area (hereinafter referred to as "radiation direction")
  • the vignetting of the focus detection light flux occurs asymmetrically with respect to the pair of distance measurement pupils, so that the change in the center of gravity distance between the distance measurement pupils becomes complicated, and the accuracy of converting the image shift amount into the defocus amount decreases.
  • the light intensity balance of the focus detection light beams received by the pair of photoelectric conversion units is lost, and the identity of the pair of images is lost, so that the image shift detection accuracy is lowered and the final focus detection accuracy is also lowered.
  • the direction in which the pair of distance measurement pupils are aligned is a direction perpendicular to the “radiation direction” from the center of the screen to the position of the focus detection area, that is, a tangential direction of concentric circles with the center of the screen as the center of the circle (hereinafter, (Referred to as “circumferential direction”), the vignetting of the focus detection light beam occurs symmetrically with respect to the pair of distance measurement pupils.
  • the accuracy of conversion to a single amount can be maintained, and the balance of the light intensity of the focus detection light beams received by the pair of photoelectric conversion units is not lost, so the identity of the pair of images is maintained, and the image displacement detection accuracy is also maintained. Therefore, the final focus detection accuracy can be maintained.
  • the alignment direction force of the pair of distance detection pupils is “circumferential direction”
  • the alignment direction of the pair of distance measurement pupils is the pixel array composed of the focus detection pixels 320 that is “circumferential direction”. Vignetting occurs at the pixel position where the pixel row composed of the focus detection pixels 330 in the “radial direction” intersects by arranging the focus detection pixels 320 in the “circumferential direction” direction of the pair of ranging pupils. Even so, priority is given to the continuity of the focus detection pixel array that can maintain the focus detection performance, and the focus detection performance can be maintained even when vignetting occurs.
  • FIG. 16 is a flowchart showing the operation of the digital still camera (imaging device) shown in FIG.
  • the body drive control device 214 proceeds to step 110 and starts an imaging operation.
  • the photometric device not shown in FIG. Lens drive control with aperture control information automatically determined according to the brightness of the field measured by the lens, or aperture control information according to the aperture value manually set by the user using an operation member not shown in FIG.
  • the image is sent to the apparatus 206, the aperture diameter is set to the photographing aperture value, and the image pickup pixel data is read out with this aperture diameter and displayed on the electronic viewfinder.
  • step 120 data is read from the focus detection pixel array with the aperture diameter set to the photographing aperture value.
  • step 130 based on a pair of image data corresponding to the focus detection pixel row, an image shift detection calculation process (correlation calculation process) described later is performed to calculate an image shift amount, and a defocus amount is further calculated.
  • step 140 it is determined whether or not the power is close to focus, that is, whether or not the absolute value of the calculated defocus amount is within a predetermined value. If it is determined that the lens is not in focus, the process proceeds to step 150, the defocus amount is transmitted to the lens drive controller 206, the focusing lens 210 of the interchangeable lens 202 is driven to the focus position, and then the process returns to step 110 to return to the above. Repeat the operation.
  • step 150 the scan drive command is transmitted to the lens drive controller 206, and the focusing lens 210 of the interchangeable lens 202 is driven to scan from infinity to the nearest position. Then return to step 110 and repeat the above operation.
  • step 160 it is determined whether or not a shutter release has been performed by operating a release means (not shown). Returning to step 110, the above operation is repeated. If it is determined that the shutter has been released, the aperture control information is transmitted to the lens drive control device 206, and the aperture value of the interchangeable lens 202 is set to the photographing aperture value. When the aperture control is completed, the image sensor 212 is caused to perform an imaging operation, and image data is read from the image pickup pixels of the image pickup element 212 and all the focus detection pixels.
  • step 180 pixel data at each pixel position in the focus detection pixel row is interpolated based on data of surrounding imaging pixels.
  • step 190 image data consisting of the imaged pixel data and the interpolated data is stored in the memory card 219, and the process returns to step 110 to repeat the above operation.
  • image shift amount detection and the defocus amount calculation executed in step 130 of FIG. 16 will be described.
  • Equation (1) ⁇ is the number of data
  • is the number of data
  • Equation (1) By generating 1 data string and 2nd data string ( ⁇ 1 ⁇ ⁇ , ⁇ 1 ⁇ ⁇ ), noise components and high frequency components that adversely affect correlation processing are removed.
  • al to a M correspond to the image data of the image formed by the focus detection light flux passing through the distance measuring pupil 92 in FIG.
  • 131 ⁇ ! 3 M corresponds to image data of an image formed by the focus detection light flux passing through the distance measuring pupil 93. Note that this processing can be omitted if the calculation time is to be shortened, or if it has already been greatly defocused and there are few high-frequency components!
  • ⁇ operations are accumulated for n.
  • the range taken by n is limited to the range in which data of An, An + 1, Bn + k, and ⁇ + 1 + k exist according to the shift amount k.
  • the shift amount k is an integer and is a relative shift amount with the data interval of the data string as a unit.
  • ⁇ operations are accumulated for n.
  • the range of n is limited to the range in which data of An, An + 1, Bn + k, and ⁇ + 1 + k exists according to the shift amount k.
  • the correlation calculation formula is not limited to the above-mentioned formulas (2) and (7)! /.
  • the defocus amount DEF of the subject image plane with respect to the planned image formation plane can be obtained by equation (8).
  • Equation (8) PY is the detection pitch (the pitch of the focus detection pixels), and KX is the size of the opening angle of the center of gravity of the light beam passing through the pair of distance measurement pupils (the distance pupil center distance and the distance pupil distance) Conversion coefficient determined by
  • the pixel array of the focus detection pixels 320 that are in the “circumferential direction” of the pair of ranging pupils and the alignment direction force of the pair of ranging pupils “radiation” The defocus amount is calculated for each pixel row of the focus detection pixels 330 in the “direction”. If it is determined that both cannot be detected, the final result is undetectable. If only one of them can be detected, the defocus amount that can be detected is taken as the final defocus amount. [0056] If both can be detected, the two defocus amounts are averaged to obtain the final defocus amount.
  • the defocus force amount of the focus detection pixel row in the alignment direction that can maintain the focus detection performance with a high alignment direction of the pair of distance measurement pupils even when vignetting occurs is set as the final defocus amount. That is, the defocus amount with respect to the pixel row of the focus detection pixels 320 in which the direction force of the pair of ranging pupils is “circumferential direction” is adopted as the final defocus amount.
  • FIG. 18 is a front view showing a detailed configuration of an image sensor 212A according to a modification.
  • the difference from the image sensor 212 shown in FIG. 3 is that the pixel rows of the focus detection pixels 330 in which the direction in which the pair of distance measurement pupils are arranged are directed from the center of the screen to the focus detection area position and the radial direction is Focus detection pixels that have a small distance detection pupil shape (a large distance measurement F value), and that the alignment direction of the pair of distance detection pupils is directed from the center of the screen to the focus detection area position. This is in the point where it was placed in 340 pixel columns.
  • FIG. 19 is a front view of the distance measuring pupil corresponding to the focus detection pixel 340 on the exit pupil plane.
  • the circumscribed circles of the distance measuring pupils 722 and 733 obtained by projecting a pair of photoelectric conversion units from the focus detection pixel 340 onto the projection pupil plane 90 by the microlens are a predetermined aperture F value when viewed from the imaging plane. (This is called the distance measurement pupil F-number. Here, it is assumed to be F5.6.)
  • a region 902 indicated by a broken line indicates a region corresponding to an aperture value (for example, F2) larger than the aperture value F2.8, and includes distance measurement pupils 722 and 733 therein.
  • the distance between the centroids 752 and 753 of the luminous flux (focus detection luminous flux) passing through the ranging pupils 722 and 733 in the direction in which the ranging pupils 722 and 733 are arranged (horizontal direction in the figure) is G3. Even when vignetting due to aperture restriction as shown in Fig. 19 occurs, the distance measurement F is directly large, so the measurement pupils 722 and 733 are not displaced by the region 903, and the positions of the centers of gravity 752 and 753 are It does not change.
  • the pixel composed of the focus detection pixels 330 in which the alignment direction of the pair of distance detection pupils is a direction (radiation direction) connecting the position of the focus detection area and the center of the screen Even when the rows are arranged around the screen, vignetting of the focus detection light beam occurs, so the distance between the center of gravity of the distance measurement pupils does not change, and the accuracy of converting the image shift amount to the defocus amount can be maintained.
  • the light intensity balance of the focus detection light beam received by the pair of photoelectric conversion units is not lost.
  • the final focus detection accuracy can also be maintained.
  • the focus detection pixels 320 for focus detection are linearly and densely arranged in a part of the column where the green pixels 310 and the blue pixels 312 of the imaging pixels are to be arranged without gaps.
  • the focus detection pixels 340 for focus detection are linearly and densely arranged in a part of a row where the green pixels 310 and the red pixels 311 of the imaging pixels are to be arranged without gaps.
  • a focus detection pixel 320 is arranged at a pixel position where a pixel row made up of focus detection pixels 320 and a pixel row made up of focus detection pixels 340 intersect.
  • the image data at the position of the focus detection pixel 320 arranged in place of the image pickup pixel at the position of the blue pixel 312 of the image pickup pixel is adjacent to the right by sandwiching the green pixel 310 next to the focus detection pixel 320. Is interpolated as an average of the image data of the blue pixel 312 and the image data of the blue pixel 312 adjacent to the left by sandwiching the green pixel 310 adjacent to the focus detection pixel 320. Also, the image data at the position of the focus detection pixel 320 arranged in place of the image pickup pixel at the position of the green pixel 310 of the image pickup pixel is diagonally upper right, lower right, upper left, lower left 45 degrees of the focus detection pixel 320. Interpolated as the average of the image data of the four adjacent green pixels 310.
  • the image data at the position of the focus detection pixel 330 arranged at the position of the red pixel 311 of the image pickup pixel instead of the image pickup pixel is one above the green pixel 310 adjacent to the focus detection pixel 340. Is interpolated as an average of the image data of the red pixel 311 and the image data of the red pixel 311 next to the focus detection pixel 340 with the green pixel 310 next to the focus detection pixel 340 interposed therebetween. Also, the image data at the position of the focus detection pixel 340 arranged in place of the image pickup pixel at the position of the green pixel 310 of the image pickup pixel is in the upper right, lower right, upper left, lower left 45 degrees direction of the focus detection pixel 340. Interpolated as the average of the image data of the four adjacent green pixels 310.
  • the direction of the focus detection area where the vignetting is likely to occur in the focus detection area around the screen and the center of the screen Focus detection pixels with a large F-number are arranged in the (radiation direction), so even if vignetting occurs around the screen due to various aperture limiting elements of the optical system, good focus detection is supported in two directions. Can be maintained.
  • FIG. 20 is a front view showing a detailed configuration of an image sensor 212B according to a modification. Shown in Figure 18 The difference from the image sensor A is that the pixel pitch of the pixel column composed of the focus detection pixels 340 in which the alignment direction of the pair of distance measurement pupils is a direction (radiation direction) connecting the position of the focus detection area and the center of the screen.
  • the center of the screen is the large (every other pixel) point, the pixel row of the focus detection pixels 320 where the alignment direction of the pair of distance measurement pupils is the “circumferential direction”, and the alignment direction of the pair of distance measurement pupils
  • the force is also directed toward the focus detection area, and the pixel rows of the focus detection pixels 340 that are in the radial direction are arranged in parallel in a single focus detection area.
  • the focus of the focus detection pixel row By making the pixel pitch of one focus detection pixel row larger than the pixel pitch of the other focus detection pixel row, the focus of the focus detection pixel row having a small pixel pitch at the pixel position where the focus detection pixel row intersects. Since the detection pixels can be arranged and the focus detection pixel rows having a large pixel pitch can be continuously arranged without being divided at the intersection positions, it is possible to maintain good focus detection performance in two directions. Also, by making the pixel pitch of one focus detection pixel row larger than the pixel pitch of the other focus detection pixel row, the density of image positions where the image data should be interpolated is reduced, so the quality of the image data is improved. . Furthermore, by arranging the focus detection pixel rows in two directions in one focus detection area, the capturing performance of the subject image is improved and the focus detection performance is also improved.
  • FIG. 21 is a front view showing a detailed configuration of an image sensor 212C according to a modification.
  • the difference from the image sensor 212 shown in Fig. 3 is that the two pairs of focus detection pixel arrays arranged in a horizontal and vertical cross shape rotate 45 degrees and rise diagonally to the right.
  • the focus detection pixel array in the 45 ° upward direction is arranged in a cross shape.
  • the focus detection pixels 350 and 360 are configured by rotating the focus detection pixel 320 (see FIG. 5) ⁇ 45 degrees.
  • the focus detection pixels 350 and 360 for focus detection are linearly and densely arranged in a part of the arrangement in the ⁇ 45 degrees direction where the green pixel 310 (see FIG. 4) of the imaging pixel should be arranged.
  • a focus detection pixel 350 is arranged at a pixel position where a pixel row made up of focus detection pixels 350 and a pixel row made up of focus detection pixels 360 intersect.
  • the image data at the position of the green pixel 310 replaced by the focus detection pixel 350 is the average of the image data of the two green pixels 310 adjacent to the focus detection pixel 350 in the diagonally upper right and lower left 45 degrees directions. Interpolated.
  • the image data at the position of the green pixel 310 to be replaced by the focus detection pixel 360 is next to the focus detection pixel 360 in the upper left and lower right 45 degrees directions. Interpolated as the average of the image data of two green pixels 310.
  • the pixel data of the pixel position where the pixel row consisting of the focus detection pixel 350 and the pixel row consisting of the focus detection pixel 360 intersect is the image data of the right adjacent green pixel 310 and the left adjacent to the right adjacent red pixel 311.
  • the red pixel 311 is sandwiched between the image data of the green pixel 310 next to the left and the upper blue pixel 312 is sandwiched, and the image data of the upper green pixel 310 is sandwiched between the lower blue pixel 312. Interpolated with the image data of the next lower green pixel 3 10 as the average.
  • the image data to be interpolated is all green pixels including the pixel position where the two focus detection pixel rows intersect. Since the green pixels are arranged at a higher density than the red and blue pixels, high interpolation accuracy can be expected, and image data interpolation has little effect on the entire image.
  • FIG. 22 is a front view showing a detailed configuration of an imaging element 212D according to a modification.
  • the difference from the image sensor 212C shown in FIG. 21 is that the position of the focus detection pixel row in the 45 ° upward diagonal direction composed of the focus detection pixels 360 is shifted leftward by one pixel.
  • the focus detection pixel array composed of the focus detection pixels 350 and the focus detection pixel array composed of the focus detection pixels 360 force do not intersect at the same pixel position. Since the focus detection pixel array composed of the pixels 360 is not divided, the focus detection performance of the focus detection pixel array composed of the focus detection pixels 360 is improved.
  • FIG. 23 is a front view showing a detailed configuration of an image sensor 212E according to a modification.
  • the difference from the imaging element 212 shown in FIG. 3 is that the focus detection pixel 320 is divided into a focus detection pixel 320a and a focus detection pixel 320b, and the focus detection pixel 330 is divided into a focus detection pixel 330a and a focus detection pixel 330b. This is the point that was made up.
  • the image shift between the pair of images can be detected by the image data obtained from the array of focus detection pixels 320a and the image data obtained from the array of focus detection pixels 320b. Further, the image shift between the pair of images can be detected by the image data obtained from the array of focus detection pixels 320a and the image data obtained from the array of focus detection pixels 320b.
  • FIG. 24 is a front view showing a detailed configuration of an image sensor 212F according to a modification.
  • the focus detection pixel column in which the focus detection pixels 320 are arranged in the vertical direction and the focus detection pixel column in which the focus detection pixels 330 are arranged in the horizontal direction are divided into green pixels having a high density in the image pickup pixels in the barrier arrangement.
  • the pixel interpolation accuracy at the intersecting position is improved by intersecting at the position of the two, but the two focus detection pixel arrays are arranged at the position of the blue pixels in the Bayer array, that is, the color of the imaging pixels with low human eye sensitivity.
  • the error can be made inconspicuous to the human eye.
  • An image sensor 212F shown in FIG. 24 includes imaging pixels (green pixel 310, red pixel 311, blue pixel 312) for imaging, and focus detection pixels 320 and 330 for focus detection.
  • the focus detection pixels 320 are linearly and densely arranged in a part of a column where the green pixels 310 and the blue pixels 312 for imaging are to be arranged without gaps.
  • the focus detection pixels 330 are linearly and densely arranged in a part of the row where the imaging green pixels 310 and the blue pixels 312 are to be arranged without gaps.
  • a focus detection pixel 320 is arranged at a pixel position where a pixel row made up of the focus detection pixels 320 and a pixel row made up of the focus detection pixels 330 intersect, and this position is the pixel position where the blue pixel 312 should originally be placed.
  • the image data of the imaging pixel is used as it is.
  • the image data at the position of the focus detection pixel is interpolated by the image data of the image pixels around the vicinity of the focus detection pixel.
  • the image data at the position of the focus detection pixel 320 that is arranged to be replaced with the position of the blue pixel 312 for imaging is the blue pixel one right next to the green pixel 310 next to the focus detection pixel 320.
  • the image data of 312 is interpolated as the average of the image data of the blue pixel 312 adjacent to the left by sandwiching the green pixel 310 adjacent to the focus detection pixel 320.
  • the image data at the position of the green pixel 310 to be replaced with the focus detection pixel 320 is the four green pixels 310 adjacent to the focus detection pixel 320 in the diagonally upper right, lower right, upper left, and lower left 45 degrees directions. Is interpolated as the average of the image data.
  • the image data at the position of the green pixel 310 (the pixel above and below the intersecting pixel) replaced by the focus detection pixel 320 is in the upper right, upper left or upper right, lower left 45 degrees direction of the focus detection pixel 320. Interpolated as the average of the image data of two adjacent green pixels 310 .
  • the image data at the position of the focus detection pixel 330 that is arranged by replacing the position of the blue pixel 312 for imaging is the image of the blue pixel 312 that is one pixel above, with the green pixel 310 next to the focus detection pixel 330 in between.
  • the data is interpolated as an average of the image data of the blue pixel 312 next to the focus detection pixel 330 with the green pixel 310 next to the focus detection pixel 330 in between.
  • the image data at the position of the green pixel 310 to be replaced by the focus detection pixel 330 is the four green pixels 3 10 adjacent to the focus detection pixel 330 in the diagonally upper right, lower right, upper left, and lower left 45 degrees directions. Is interpolated as the average of the image data.
  • the image data at the position of the green pixel 3 10 replaced by the focus detection pixel 330 (left and right pixels of the intersecting pixel) is next to the focus detection pixel 320 diagonally in the upper right, lower right or upper left, and lower left 45 degrees directions. Interpolated as the average of the image data of two green pixels 310.
  • the image data at the intersection where the focus detection pixel 320 is arranged is the image of four blue pixels 312 that are close to each other with the red pixel 311 in the 45 ° direction diagonally to the upper right, lower right, upper left, and lower left of the focus detection pixel 320. Interpolated as the average of the data
  • the configuration of the imaging device of the other embodiments is the same as the configuration shown in FIG. 1, and the configurations, cross-sectional structures and characteristics of the imaging pixels 310, 311 and 312 and the focus detection pixels 320 and 330 are shown in FIG. 4, FIG. 5, FIG. 7, FIG. 8, FIG. 9, and FIG. 10, the same structure, cross-sectional structure and characteristics as those shown in FIG. Description is omitted.
  • the focus detection method, the relationship between the exit pupil and the distance measurement pupil of the imaging pixel and the focus detection pixel, etc. in the other embodiment are the same as the method and the relationship described in FIGS. Is omitted.
  • FIG. 25 is a diagram showing the arrangement of focus detection pixels on the image sensor 212G according to another embodiment.
  • focus detection pixels are arranged along a grid 110 on the imaging screen 100.
  • the grid 110 is composed of a plurality of straight lines arranged at equal pitches in the horizontal and vertical directions of the rectangular imaging screen 100, and covers almost the entire imaging screen 100! /.
  • FIG. 26 and FIG. 27 are front views showing a detailed configuration of the image sensor 212G.
  • the imaging element 212G is configured by imaging pixels 310 to 312 shown in FIG. 4 and focus detection pixels 320 and 330 shown in FIG.
  • FIG. 26 is an enlarged view of a region 111 including a lattice intersection located in the vertical direction away from the center 104 (intersection of the optical axis of the imaging screen and the interchangeable lens) of the imaging screen 100 in FIG.
  • the focus detection pixels 330 arranged in the horizontal direction are arranged at pixel positions corresponding to the intersections of the grids.
  • FIG. 27 is an enlarged view of a region 112 including a grid intersection located at a position away from the center 104 of the imaging screen 100 in the horizontal direction in FIG.
  • Focus detection pixels 320 arranged in the vertical direction are arranged at pixel positions corresponding to the intersections of the grids.
  • Focus detection pixels 330 are arranged on a straight line in the horizontal direction of the grating 110, and focus detection pixels 320 are arranged on a straight line in the vertical direction of the grating 110.
  • the focus detections are arranged in a direction close to the direction (circumferential direction) perpendicular to the direction of the straight line (radiation direction) connecting the center of the imaging screen 104 and the grid 110. Pixels will be placed.
  • the two-dimensionally arranged imaging pixels 310 to 312 are provided with color filters of an RGB Bayer array.
  • the focus detection pixels 320 and 330 for focus detection are closely arranged linearly without gaps in the rows and columns where the blue pixels 312 of the green pixels 310 for imaging are to be arranged.
  • the reason why the focus detection pixels 320 and 330 are arranged at the positions of the green pixel 310 and the blue pixel 312 in this way is that the sensitivity to human color is lower in blue than in red, and as described later, focus detection is performed. This is to make the interpolation error inconspicuous when the pixel data of the pixel position is obtained by performing pixel interpolation from the surrounding imaging pixel data.
  • the focus detection pixel arranged at a position away from the optical axis on the imaging screen has the center of the distance measurement pupil at the center of the interchangeable lens. It will deviate from the center on the exit pupil plane.
  • 28 and 29 show the distance detection pupils 192 and 193 of the focus detection pixel 330 and the distance detection pupils 292 and 293 of the focus detection pixel 320 arranged in the vicinity of the region 112 shown in FIG. 25 and the exit of the interchangeable lens.
  • the positional relationship with the pupil 190 is shown on the exit pupil plane of the interchangeable lens.
  • the pair of distance measuring pupils 192 and 193 are unevenly spaced by the exit pupil 190.
  • the distance measurement pupils 292 and 293 force S exit pupils 190 are equally spaced.
  • FIG. 30 is a flowchart showing the operation of a digital still camera (imaging device) according to another embodiment.
  • the body drive control device 214 proceeds to step 210 and starts an imaging operation.
  • the image pickup pixel data is read out and displayed on the electronic viewfinder.
  • the position 130 of the person's face on the imaging screen is specified based on the imaging pixel data as shown in FIG. This is a well-known technique called face detection. For example, an area indicating skin color in image data is specified as a face position, or a template of face image data registered in advance and image data captured. The position of the face is specified by matching. If no face is detected, the specific position is the center of the imaging screen. When multiple faces are detected, a specific selection process is performed, for example, the face closest to the center of the imaging screen and the face with the largest size are selected to determine one specific position.
  • step 230 a pair of image data corresponding to a pair of images is obtained from the focus detection pixel (IJ (the focus detection pixel array on the grid 110 near the position 130 in FIG. 31) in the vicinity of the specified position. read out.
  • the above-described image shift detection calculation processing (correlation calculation processing) is performed based on the read pair of image data, the image shift amount is calculated, and the image shift amount is converted into a defocus amount. Since there are a plurality of focus detection pixel rows in the vicinity of the specified position, a plurality of defocus amounts are also calculated, but the final decision is made, for example, by adopting a defocus amount indicating an average value or the closest distance. Determine the defocus amount.
  • step 250 it is checked whether or not the focus is close to focus, that is, whether or not the absolute value of the calculated defocus amount is within a predetermined value. If it is determined that the focus is not close to the in-focus state, the process proceeds to step 260, the defocus amount is transmitted to the lens drive control unit 206, the focusing lens of the interchangeable lens is driven to the in-focus position, and then the process returns to step 210. Repeat the above operation. Even when focus detection is impossible, the process branches to this step, sends a scan drive command to the lens drive control unit 206, scans the focusing lens of the interchangeable lens from infinity to close, and then returns to step 210. Repeat the above operation.
  • step 270 it is determined whether or not a shutter release has been performed by operating a shutter button (not shown). Returning to step 4, the above-described operation is repeated. If it is determined that the shutter has been released, the process proceeds to step 280, where an aperture adjustment command is sent to the lens drive controller 206, and the aperture value of the interchangeable lens is controlled to the F value (the F value set by the user or automatically). To do.
  • the aperture control is completed, the image sensor is caused to perform an imaging operation, and image data is read from the image pickup pixels and all focus detection pixels of the image pickup element.
  • Step 290 pixel data at each pixel position in the focus detection pixel row is subjected to pixel interpolation based on data of image pixels around the focus detection pixel.
  • step 300 image data composed of the data of the image pickup pixel and the interpolated data is stored in the memory card, and the process returns to step 210 to repeat the above-described operation.
  • the image shift detection calculation process in step 240 of FIG. 30, that is, the correlation calculation process is the same as the process of the above-described embodiment, and a description thereof is omitted. It should be noted that the pair of images detected by the focus detection pixels has a distance measurement pupil that is displaced by the aperture of the lens and the amount of light varies. Therefore, the correlation calculation is performed so that the image shift detection accuracy can be maintained with respect to the light intensity balance.
  • FIG. 32 is an explanatory diagram in the case of interpolating the pixel data at the position of the focus detection pixel based on the pixel data of the imaging pixels around the focus detection pixel.
  • variables h and V are variables for indicating the horizontal and vertical pixel positions in the two-dimensional pixel arrangement as shown in FIG. 26 and FIG.
  • pixel data at the focus detection pixel position in the h + 1-th row, V—first row
  • B (h + 1, V ⁇ 1) is corrected according to the output data of adjacent imaging pixels.
  • the pixel position in the h-th column, V—the first row is the output of the four green pixels 310 in the surroundings according to the equation (9), which is the original pixel position where the green pixel 310 for imaging should be.
  • the output data at this pixel position is interpolated by averaging the data.
  • G (h, v- l) ⁇ G (h- l, v- 2) + G (h + l, v— 2) + G (h— 1, v) + G (h + l, v) ⁇ / 4 ••• (9)
  • the output data of the two surrounding blue pixels 312 is interpolated by averaging.
  • Pixel interpolation processing can be performed on the positions of all focus detection pixels by the same calculation method as in the above equations (9) and (10).
  • the image pickup element is set to C.
  • FIGS. 33 and 34 show image sensors 212H
  • FIG. 22 is a diagram showing the arrangement of focus detection pixels 2121. With the image sensor 212G shown in Figs.
  • the focus detection pixels 320 and 330 are arranged adjacent to each other on a straight line. In one arrangement, focus detection pixels are arranged every several pixels, or in both arrangements, focus detection pixels are arranged every few pixels. Can be arranged.
  • FIG. 33 corresponds to FIG. 26, and the focus detection pixels 320 are arranged every other pixel.
  • FIG. 34 corresponds to FIG. 27, in which focus detection pixels 320 and 330 are arranged every other pixel.
  • the focus detection pixels By arranging the focus detection pixels in this manner, the image detection pitch for focus detection is increased, so that the focus detection accuracy is somewhat reduced.
  • the imaging pixel is sandwiched between the focus detection pixels, and pixel interpolation is performed. Since the number of places to be reduced is reduced, the image quality is improved.
  • image shift detection can be performed in a continuous region across the intersection position.
  • FIG. 35, FIG. 36, and FIG. 37 are diagrams showing the focus detection pixel arrangement of the image sensor J of another modification.
  • FIG. 35 shows an image sensor 212J in which focus detection pixels are arranged along a grid 113 obtained by adding a diagonal stripe of 45 degrees to the grid 110 of the image sensor 212G shown in FIG.
  • FIG. 36 is an enlarged view of the region 114 including the intersection of the lattices in which the center 104 force of the imaging screen 100 in FIG.
  • Focus detection pixels 330 are arranged in the horizontal direction, and focus detection pixels 320 are arranged in the vertical direction. Further, focus detection pixels 331 are arranged on a straight line in the 45 ° upward direction, and focus detection pixels 341 are arranged on a straight line in the 45 ° upward direction.
  • the focus detection pixel 331 has a structure in which the focus detection pixel 330 is rotated 45 degrees counterclockwise, and the focus detection pixel 341 has a structure in which the focus detection pixel 330 is rotated 45 degrees clockwise. ing. At the pixel positions corresponding to the intersections of the grids, the focus detection pixels 330 arranged in the horizontal direction are arranged.
  • FIG. 37 is an enlarged view of the region 115 including the grid intersection located at a position 45 degrees diagonally upward and leftward from the center 104 of the imaging screen 100 in FIG. Equivalent to lattice intersection
  • the focus detection pixels 331 arranged in the direction of right upper force ⁇ slant 45 degrees are arranged at the pixel positions to be applied.
  • the other grid intersections have the same arrangement, and are arranged in a direction (circumferential direction) perpendicular to the direction (circumferential direction) perpendicular to the direction of the straight line (radiation direction) connecting the center of the imaging surface and the grid intersection! ⁇ IJ focus detection pixels will be placed.
  • the image shift detection can be performed in four directions by the focus detection pixel array of the image sensor 212J, stable focus detection can be performed regardless of the directionality of the subject pattern.
  • focus detection pixels per unit area on the imaging screen increase, when a specific position is determined, focus detection can be performed in a pinpoint region centered on the specific position.
  • FIG. 38 and FIG. 39 are diagrams showing the focus detection pixel arrangement of an image sensor 212K according to another modification.
  • FIG. 38 is a diagram in which, in the grid pattern 110 of the imaging device 212G shown in FIG. 25, the four corner areas in the diagonal direction of the imaging screen 100 are replaced with the grid pattern 116 made of 45-degree diagonal stripes.
  • FIG. 39 is an enlarged view of the region 117 including the intersection of the grid 116 at the center 104 force of the imaging screen 100 in FIG. At the pixel position corresponding to the intersection of the grid, a focus detection pixel 331 arranged in the direction of the right upper force ⁇ slant 45 degrees is arranged.
  • the other grid intersections are arranged in the same manner, and are arranged in a direction close to the direction (concentric circle direction) perpendicular to the direction of the straight line (radiation direction) connecting the center of the imaging surface and the grid intersection. Focus detection pixels are arranged.
  • the focus detection pixels 331 are arranged in an obliquely upward right direction and are arranged in an oblique direction with an upper left force S.
  • focus detection is advantageous against vignetting of focus detection light flux
  • the pixels are arranged, if the focus detection pixel arrays are arranged so as to intersect between the focus detection pixels as in the image sensor 212L shown in FIG. 40, neither of the focus detection pixel arrays is non-crossed. They can be arranged without being continuous.
  • FIG. 41 and FIG. 42 are diagrams showing the focus detection pixel arrangement of the image sensor 212M according to another modification.
  • the present invention can be applied even when the force S and the imaging pixels and the focus detection pixels are arranged in a hexagonal close-packed pattern, in which the imaging pixels and the focus detection pixels are arranged in a square close-packed manner.
  • imaging screen 100 of the imaging device 212M imaging pixels and focus detection pixels are arranged in a hexagonal close-packed manner, and focus detection pixels are arranged along a lattice 116.
  • the grid 116 also has a plurality of linear forces arranged at equal pitches in the horizontal direction of the rectangular imaging screen 100 and diagonally upward and leftward inclined 60 degrees with respect to the horizontal line. Is covered.
  • FIG. 42 is an enlarged view of a region 117 including a grid intersection located at a position away from the center 104 of the imaging screen 100 in the vertical direction in FIG.
  • the focus detection pixels 330 are arranged in the horizontal direction, the focus detection pixels 351 are arranged on the straight line in the 60 ° upward direction, and the focus detection pixels 361 are arranged on the straight line in the 60 ° upward direction.
  • the focus detection pixel 351 has a structure obtained by rotating the focus detection pixel 330 by 60 degrees counterclockwise, and the focus detection pixel 361 has a structure obtained by rotating the focus detection pixel 330 by 60 degrees clockwise.
  • the focus detection pixels 330 arranged in the horizontal direction are arranged at pixel positions corresponding to the intersections of the grids.
  • the focus detection pixel 351 array and the focus detection pixel 351 array include three pixels including the focus detection pixel 330. It becomes discontinuous for minutes!
  • the arrangement is the same at other grid intersections, close to the direction (circumferential direction) perpendicular to the direction (radial direction) of the straight line connecting the center of the imaging surface and the grid intersection!
  • the focus detection pixels arranged in the are arranged.
  • FIGS. 43 and 44 are diagrams showing the focus detection pixel arrangement of the image sensor 212N according to another modification.
  • the focus detection pixel includes a pair of photoelectric conversion units in one pixel, and one focus detection pixel receives a pair of focus detection light beams. Even if the focus detection pixel includes one photoelectric conversion unit, and one focus detection pixel receives one light beam of a pair of focus detection light beams, there is no problem.
  • the image sensor 212N shown in FIG. 43 corresponds to the image sensor 212G shown in FIG. 26, the set of focus detection pixels 330a and 330b corresponds to the focus detection pixel 330, and the set of focus detection pixels 320a and 320b is the focus detection pixel 320. It corresponds to.
  • FIG. 44 (a) shows a configuration of the focus detection pixel 330a (320a).
  • the focus detection pixel 330a (320a) includes the microlens 10 and the photoelectric conversion unit 16.
  • FIG. 44 (b) shows the configuration of the focus detection pixel 330b (320b).
  • the focus detection pixel 330b (320b) includes the microlens 10 and the photoelectric conversion unit 17.
  • the photoelectric conversion units 16 and 17 are projected onto the exit pupil of the interchangeable lens by the microlens 10 to form distance measurement pupils 92 and 93 shown in FIG. Therefore, the arrangement of the focus detection pixels 330a and 330b can obtain the output of a pair of images used for horizontal focus detection.
  • the focus detection pixels 320a and 320b are obtained by rotating the focus detection pixels 330a and 330b by 90 degrees in the clockwise direction, and output the pair of images used for vertical focus detection by the arrangement of the focus detection pixels 320a and 320b. Obtainable.
  • the readout circuit configuration can be made the same for the imaging pixel and the focus detection pixel, and the complexity of the circuit configuration can be prevented. .
  • the face detection process in step 220 does not use the focus detection pixel data, but shows an example of specifying the face position based only on the imaging pixel data. Similar to step 290, the pixel data of each pixel position of the focus detection pixel row is interpolated based on the data of the imaging pixels around the focus detection pixel, and based on the imaging pixel data and the pixel interpolation data. The position of the face may be specified. In this way, since the pixel data at the position of the focus detection pixel can be used, the accuracy of face detection is improved.
  • the results of specifying the position of the person and the position of the eyes of the person's face can be used for focus detection.
  • the position may be specified by detecting a predetermined subject or color on the imaging screen.
  • the face detection is performed based on only the imaging pixel data without using the focus detection pixel data in step 220. Similarly, Even when exposure detection, white balance detection, blur detection, or the like is performed using the output of the image sensor, the data of the focus detection pixel can be avoided.
  • the pixel data at each pixel position of the focus detection pixel column is interpolated based on the data of the imaging pixels around the focus detection pixel, and based on the data of the imaging pixels and the pixel interpolation data. Exposure detection, white balance detection, blur detection, etc. may be performed. In this way, since the pixel data at the position of the focus detection pixel can also be used, detection accuracy such as exposure detection, white balance detection, and blur detection is improved.
  • focus detection is performed based on data of focus detection pixels existing in the vicinity of the face position detected on the imaging screen.
  • a focus detection position that is not limited to this can be set manually, or focus detection can be performed at a plurality of focus detection positions on the entire screen.
  • the pitch S of the grid on which the focus detection pixels are arranged can be determined as follows. If the grid pitch is fine, the number of data used for focus detection will increase, and it will take time for focus detection calculation processing, resulting in poor response, pixel interpolation errors will become prominent, and image quality will deteriorate. Therefore, it is desirable to use a grid pitch of 10 pixels or more. Further, even when the optical system is largely defocused, in order to detect the image shift amount, it is necessary to secure a predetermined length (grid pitch) where the focus detection pixels are continuous. For example, if the opening angle of the center of gravity of the pair of focus detection beams passing through the pair of distance measurement pupils shown in FIG.
  • the focus detection pixel on the imaging screen can be detected up to ⁇ 5 mm defocus. It is necessary to detect an image shift of 0.5 mm (5 mm / 10).
  • the focus detection pixels need to be continuous by about lmm on the imaging screen. Therefore, in this case, the lattice pitch must be at least lmm.
  • the grid pitch is too coarse, the distance between the specified face position and the focus detection pixel array closest to that position will become longer, and focus detection may occur for backgrounds other than the face. Arise.
  • the size of the image pickup screen of the image sensor is 36 mm horizontal and 24 mm vertical
  • the size of the face when shooting with the face as the main subject is empirically about 4 mm or more in diameter, so the lattice pitch should be 4 mm or less.
  • the subject whose position is specified is a person or a person's eyes, it is necessary to set an upper limit of the lattice pitch based on the statistical size on the imaging screen.
  • the configuration and arrangement of the color filter in which the imaging pixel is provided with the color filter of the Bayer arrangement are not limited to this, and the complementary color filter (green: G, yellow: Ye, Magenta: Mg, cyan: Cy) may be employed.
  • the effect of the present invention can be obtained by matching the intersection position of the two focus detection pixel columns with the pixel position of a color having a high arrangement density of each color pixel.
  • the focus detection pixel of the above-described image sensor has a force that does not include a color filter, and has one color filter (for example, a green filter) of the same color as that of the image sensor.
  • the present invention can be applied. In this way, the image data of the focus detection pixels can be used in the interpolation of the image data, so that the image quality is improved.
  • the shape of the photoelectric conversion unit is circular or semi-circular is shown, but the shape of the photoelectric conversion unit is not limited to these, and may be other shapes. May be.
  • the shape of the photoelectric conversion unit of the focus detection pixel can be an ellipse, a rectangle, or a polygon.
  • the present invention can be applied to both a CCD image sensor and a CMOS image sensor with a force S.
  • the present invention is not limited to a pupil division type phase difference detection type image pickup device using a microlens, and can be applied to an image pickup device having pixels each having a pair of photoelectric conversion units.
  • the present invention can also be applied to a pupil division type imaging device using polarized light.
  • the relative angle at which the two focus detection pixel rows intersect is not limited to 90 degrees, and may be a 45 degree direction.
  • the imaging device can also be applied to a digital still camera or video camera in which an interchangeable lens is detachably attached to the camera body. It can also be applied to small camera modules and surveillance cameras built in mobile phones. It can also be applied to focus detection devices other than cameras, ranging devices, and stereo ranging devices.
  • image data at the focus detection pixel position is obtained by interpolation using image data of surrounding imaging pixels, and an entire captured image is generated.
  • the force S can be used to cross the two focus detection pixel arrays while maintaining high image quality.
  • the two focus detection pixel arrays can be crossed while minimizing disadvantages such as a decrease in focus detection performance due to the interruption of one focus detection pixel array.
  • the force S can be used to cross the two focus detection pixel arrays without requiring a specially structured focus detection pixel.
  • the focus detection areas are scattered in the imaging screen, focus detection cannot be performed at an arbitrary position in the imaging screen.
  • the focus detection pixels are efficiently arranged on the imaging screen, so that the focus detection pixels in an arbitrary partial region of the imaging screen. The ability to distribute the images almost uniformly in multiple directions, enable focus detection in multiple directions in any partial area, and minimize the number of focus detection pixels to prevent image quality degradation. I'll do it.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

明 細 書
撮像素子および撮像装置
技術分野
[0001] 本発明は撮像素子および撮像装置に関する。
背景技術
[0002] 撮像画面上の二方向において光学系の焦点調節状態を検出するために、撮像画 面上に設定された焦点検出エリアに対応して焦点検出画素を十字型に交差して配 列した撮像素子が知られて!/、る(例えば、特許文献 1参照)。
[0003] この出願の発明に関連する先行技術文献としては次のものがある。
特許文献 1 :特開 2000— 292686号公報
発明の開示
発明が解決しょうとする課題
[0004] しかしながら、上述した従来の撮像素子では、撮像素子の出力に基づいて撮像用 の画像データを生成する場合には、焦点検出画素の位置における画素の画像デー タをその近傍周囲に存在する撮像用画素の画像データに基づいて補間して求める 必要がある。特に、焦点検出用の画素配列が交差する画素位置では、その近傍周 囲における撮像用画素の密度が低くなるため、画像データの補間精度が低下して撮 像用の画像データの品質が劣化するという問題がある。
課題を解決するための手段
[0005] (1) 請求項 1の発明は、光学系により形成される画像を撮像するための、異なる分 光感度特性を有する複数種類の撮像画素が所定の配列にしたがって二次元状に配 置された撮像素子において、所定の配列の一部に配置され、かつ互いに交差する 複数の方向に沿った位置にそれぞれ配置された複数の焦点検出画素で構成される とともに、光学系の焦点調節状態を検出する複数の焦点検出画素列を備え、焦点検 出画素列どうしが交差する位置の焦点検出画素は、所定の配列の中の最も高密度 な分光感度特性の撮像画素の位置に対応する位置に配置される。
(2) 請求項 2の発明は、光学系により形成される画像を撮像するための、異なる分 光感度特性を有する複数種類の撮像画素がべィヤー配列にしたがって二次元状に 配置された撮像素子において、べィヤー配列の一部に配置され、かつ互いに交差す る複数の方向に沿った位置にそれぞれ配置された複数の焦点検出画素で構成され るとともに、光学系の焦点調節状態を検出する複数の焦点検出画素列を備え、焦点 検出画素列どうしが交差する位置の焦点検出画素は、べィヤー配列の中の青画素 および緑画素の内の一方の位置に対応する位置に配置される。
(3) 請求項 3の発明は、請求項 2に記載の撮像素子において、焦点検出画素列どう しが交差する位置の焦点検出画素力 べィヤー配列の中の青画素の位置に対応す る位置に配置される。
(4) 請求項 4の発明は、請求項 1に記載の撮像素子において、所定の配列がべィ ヤー配列である。
(5) 請求項 5の発明は、請求項 1〜4のいずれ力、 1項に記載の撮像素子において、 複数の焦点検出画素列には第 1の焦点検出画素列と第 2の焦点検出画素列が含ま れ、第 1の焦点検出画素列を撮像画面の中心から画面周辺に向力、う方向と垂直な方 向に配列するとともに、第 2の焦点検出画素列を前記撮像画面の中心から画面周辺 に向力、う方向に配列し、第 1の焦点検出画素列と第 2の焦点検出画素列とが交差す る位置には、第 1の焦点検出用画素列の焦点検出画素を配置する。
(6) 請求項 6の発明は、請求項 5に記載の撮像素子において、第 1の焦点検出画 素列の各焦点検出画素は光学系を通過する第 1の一対の焦点検出用光束を受光す るとともに、第 2の焦点検出画素列の各焦点検出画素は光学系を通過する第 2の一 対の焦点検出用光束を受光し、第 1の一対の焦点検出用光束の重心間隔は、第 2の 一対の焦点検出用光束の重心間隔よりも広い。
(7) 請求項 7の発明は、請求項 5または請求項 6に記載の撮像素子において、第 1 の焦点検出画素列における焦点検出画素の配列ピッチを、第 2の焦点検出画素列 における焦点検出画素の配列ピッチよりも狭くするとともに、第 1の焦点検出画素列と 第 2の焦点検出画素列とが交差する位置には、第 1の焦点検出画素列の焦点検出 画素を配置する。
(8) 請求項 8の発明は、請求項 1〜4のいずれ力、 1項に記載の撮像素子において、 撮像画素は 2次元稠密に配列されており、複数の焦点検出画素列は、撮像画素の 配列ピッチより大きな格子ピッチを有する格子状に配置される。
(9) 請求項 9の発明は、請求項 8に記載の撮像素子において、複数の焦点検出画 素列は正方格子状に配列される。
(10) 請求項 10の発明は、請求項 8に記載の撮像素子において、複数の焦点検出 画素列は、格子状に配列された焦点検出画素列の交点どうしの対角線方向に配列 された焦点検出画素列を有する。
(11) 請求項 11の発明は、請求項 8〜; 10のいずれか 1項に記載の撮像素子におい て、焦点検出画素は互いに隣接して直線上に連続して配置される。
(12) 請求項 12の発明は、請求項 11に記載の撮像素子において、焦点検出画素 列どうしの交差位置に、撮像面の中央を中心とした同心円の接線方向により近い方 向の焦点検出画素列を構成する焦点検出画素を配置する。
(13) 請求項 13の発明は、請求項;!〜 12のいずれか 1項に記載の撮像素子におい て、撮像画素および焦点検出画素はそれぞれ、マイクロレンズと光電変換部を有す
(14) 請求項 14の発明は、請求項 1〜; 13のいずれ力、 1項に記載の撮像素子と、各 焦点検出画素列から出力される信号に基づいて光学系の焦点調節状態を検出する 焦点検出手段とを備える。
(15) 請求項 15の発明は、請求項 14に記載の撮像装置において、焦点検出画素 の近傍に配置される撮像画素の画像信号に基づいて、焦点検出画素の位置の画像 信号を補間して求める補間手段を備える。
(16) 請求項 16の発明は、請求項 15に記載の撮像装置において、撮像素子の出 力に基づいて、撮像素子上の特定の位置を選択する選択手段を備え、焦点検出手 段は、選択手段により選択された位置に属する焦点検出画素列の信号に基づいて、 光学系の焦点調節状態を検出する。
(17) 請求項 17の発明は、請求項 16に記載の撮像装置において、選択手段は、 撮像素子で得られる画像の内の人物または人物の顔または人物の目の位置を検出 する。 (18) 請求項 18の発明は、請求項 17に記載の撮像装置において、複数の焦点検 出画素列は、撮像画素の配列ピッチより大きな格子ピッチを有する格子状に配置さ れ、格子ピッチは、人物または人物の顔または人物の目の画面上における統計的な 平均サイズよりも小さくなるように設定される。
(19) 請求項 19の発明は、請求項 17に記載の撮像装置において、選択手段は、 焦点検出画素の信号を含まない撮像素子の出力に基づいて特定の位置を選択する
(20) 請求項 20の発明は、請求項 17に記載の撮像装置において、選択手段は、 補間手段により求めた焦点検出画素の位置の画像信号を用いて特定の位置を選択 する。
発明の効果
[0006] 本発明によれば、高い画像品質を維持しながら 2つの焦点検出画素配列を交差さ せること力 Sでさる。
図面の簡単な説明
[0007] [図 1]一実施の形態の構成を示す図
[図 2]撮像画面上における焦点検出位置を示す図
[図 3]撮像素子の詳細な構成を示す正面図
[図 4]撮像画素の構成を示す正面図
[図 5]焦点検出画素の構成を示す正面図
[図 6]他の焦点検出画素の構成を示す正面図
[図 7]撮像画素の分光特性を示す図
[図 8]焦点検出画素の分光特性を示す図
[図 9]撮像画素の構造を示す断面図
[図 10]焦点検出画素の構造を示す断面図
[図 11]マイクロレンズを用いた瞳分割方式による焦点検出の説明図
[図 12]画面周辺における測距瞳のケラレの説明図
[図 13]撮像画素と射出瞳の関係を説明する図
[図 14]焦点検出画素に対応する射出瞳面における測距瞳の正面図 園 15]他の焦点検出画素に対応する射出瞳面における測距瞳の正面図
園 16]—実施の形態のデジタルスチルカメラ (撮像装置)の動作を示すフローチヤ一 卜
[図 17]相関演算処理の説明図
[図 18]変形例の撮像素子の詳細な構成を示す正面図
園 19]射出瞳面における焦点検出画素に対応した測距瞳の正面図
[図 20]変形例の撮像素子の詳細な構成を示す正面図
[図 21]他の変形例の撮像素子の詳細な構成を示す正面図
[図 22]他の変形例の撮像素子の詳細な構成を示す正面図
[図 23]他の変形例の撮像素子の詳細な構成を示す正面図
園 24]他の変形例の撮像素子の詳細な構成を示す正面図
[図 25]他の一実施の形態の撮像素子における焦点検出画素の配置を示す図
[図 26]他の一実施の形態の撮像素子の詳細な構成を示す図
[図 27]他の一実施の形態の撮像素子の詳細な構成を示す図
[図 28]焦点検出光束のケラレを説明するための図
[図 29]焦点検出光束のケラレを説明するための図
園 30]他の一実施の形態のデジタルスチルカメラ (撮像装置)の動作を示すフローチ ヤー卜
園 31]撮影画面上の人物の顔の検出位置と焦点検出画素配置を示す図 園 32]焦点検出画素位置の画像データを補間により求める方法を説明するための図
[図 33]他の一実施の形態の変形例の撮像素子の詳細な構成を示す正面図 園 34]他の変形例の撮像素子の詳細な構成を示す正面図
[図 35]他の変形例の撮像素子の詳細な構成を示す正面図
[図 36]他の変形例の撮像素子の詳細な構成を示す正面図
[図 37]他の変形例の撮像素子の詳細な構成を示す正面図
[図 38]他の変形例の撮像素子の詳細な構成を示す正面図
[図 39]他の変形例の撮像素子の詳細な構成を示す正面図
園 40]他の変形例の撮像素子の詳細な構成を示す正面図 [図 41]他の変形例の撮像素子の詳細な構成を示す正面図
[図 42]他の変形例の撮像素子の詳細な構成を示す正面図
[図 43]他の変形例の撮像素子の詳細な構成を示す正面図
[図 44]焦点検出画素の構成を示す図
符号の説明
[0008] 10 ;マイクロレンズ、 11、 12、 13、 14、 15、 16、 17 ;光電変換部、 202 ;交換レンズ、
212、 212A〜212N ;撮像素子、 310、 311、 312 ;撮像画素、 320、 320a, 32b、 3 30、 330a, 330b, 340、 350、 360 ;焦点検出画素
発明を実施するための最良の形態
[0009] 本願発明の一実施の形態による撮像装置をデジタルスチルカメラに適用した例を 説明する。図 1は一実施の形態の構成を示す。一実施の形態のデジタルスチルカメ ラ 201は交換レンズ 202とカメラボディ 203から構成され、交換レンズ 202はマウント き 204によりカメラボディ 203に装着される。
[0010] 交換レンズ 202はレンズ駆動制御装置 206、ズーミング用レンズ 208、レンズ 209、 フォーカシング用レンズ 210、絞り 211などを備えている。レンズ駆動制御装置 206 は、マイクロコンピューターとメモリなどの周辺部品力も成り、フォーカシング用レンズ 210と絞り 211の駆動制御、絞り 211、ズーミング用レンズ 208およびフォーカシング 用レンズ 210の状態検出、後述するボディ駆動制御装置 214に対するレンズ情報の 送信とカメラ情報の受信などを行う。
[0011] カメラボディ 203は撮像素子 212、ボディ駆動制御装置 214、液晶表示素子駆動 回路 215、液晶表示素子 216、接眼レンズ 217、メモリカード 219などを備えている。 撮像素子 212には後述する画素が二次元状に配列されており、交換レンズ 202の予 定結像面に配置されて交換レンズ 202により結像される被写体像を撮像する。なお、 詳細を後述するが撮像素子 212の所定の焦点検出位置には焦点検出用画素が配 歹される。
[0012] ボディ駆動制御装置 214はマイクロコンピューターとメモリなどの周辺部品から構成 され、撮像素子 212からの画像信号の読み出し、画像信号の補正、交換レンズ 202 の焦点調節状態の検出、レンズ駆動制御装置 206からのレンズ情報の受信とカメラ 情報 (デフォーカス量)の送信、ディジタルスチルカメラ全体の動作制御などを行う。 ボディ駆動制御装置 214とレンズ駆動制御装置 206は、マウント部 204の電気接点 部 213を介して通信を行い、各種情報の授受を行う。
[0013] 液晶表示素子駆動回路 215は、電子ビューファインダー(EVF :電気的ビューファ インダー)の液晶表示素子 216を駆動する。撮影者は接眼レンズ 217を介して液晶 表示素子 216に表示された像を観察することができる。メモリカード 219はカメラボデ ィ 203に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。
[0014] 交換レンズ 202を通過して撮像素子 212上に形成された被写体像は、撮像素子 2 12により光電変換され、その出力はボディ駆動制御装置 214へ送られる。ボディ駆 動制御装置 214は、撮像素子 212上の焦点検出画素の出力データに基づいて所定 の焦点検出位置におけるデフォーカス量を算出し、このデフォーカス量をレンズ駆動 制御装置 206へ送る。また、ボディ駆動制御装置 214は、撮像素子 212の出力に基 づいて生成した画像信号をメモリカード 219に格納するとともに、画像信号を液晶表 示素子駆動回路 215へ送り、液晶表示素子 216に画像を表示させる。
[0015] カメラボディ 203には不図示の操作部材(シャッターボタン、焦点検出位置の設定 部材など)が設けられており、これらの操作部材からの操作状態信号をボディ駆動制 御装置 214が検出し、検出結果に応じた動作 (撮像動作、焦点検出位置の設定動 作、画像処理動作)の制御を行う。
[0016] レンズ駆動制御装置 206はレンズ情報をフォーカシング状態、ズーミング状態、絞り 設定状態、絞り開放 F値などに応じて変更する。具体的には、レンズ駆動制御装置 2 06は、レンズ 208、 210の位置と絞り 211の絞り位置をモニターし、モニター十青幸 に 応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからモ 二ター情報に応じたレンズ情報を選択する。レンズ駆動制御装置 206は、受信した デフォーカス量に基づいてレンズ駆動量を算出し、このレンズ駆動量に基づいてフォ 一力シングレンズ 210を不図示のモーター等の駆動源により合焦点へと駆動する。
[0017] 図 2は撮像画面上における焦点検出位置(焦点検出エリアを示し、後述する焦点検 出画素列が焦点検出の際に撮像画面上で像をサンプリングする領域の例を示す。こ の一実施の形態では、撮像画面 100上の中心 104から水平方向の画面周辺の位置 105に、焦点検出エリア 101が配置される。焦点検出エリア 101は、水平方向(画面 中心 104と焦点検出位置 105とを結ぶ線に平行な方向)、および垂直方向(画面中 心 104と焦点検出位置 105とを結ぶ線に垂直な方向)において焦点検出 (像ズレ検 出)を行うために、垂直方向に延在する部分 102と水平方向に延在する部分 103とが 位置 105で交差した構成となっている。
[0018] 図 3は撮像素子 212の詳細な構成を示す正面図であり、図 2に示す焦点検出エリア
105に対応した部分を拡大したものである。なお、図 3に示す撮像素子 212の縦横は 図 2に示す撮像画面 100の縦横に対応する。撮像素子 212は、撮像用の撮像画素( 緑画素 310、赤画素 311および青画素 312)、焦点検出用の焦点検出画素 320、 33 0から構成される。図 4に示すように、撮像画素(緑画素 310、赤画素 311および青画 素 312)は、マイクロレンズ 10、光電変換部 11、不図示の色フィルタからなる。色フィ ルタは赤 (R)、緑 (G)、青(B)の 3種類からなり、それぞれの分光感度は図 7に示す 特性である。撮像素子 212では、各色フィルタを備えた撮像画素(緑画素 310、赤画 素 311および青画素 312)がべィヤー配列されている。
[0019] 図 5に示すように、焦点検出画素 320, 330は、マイクロレンズ 10、一対の光電変換 部 12, 13から構成される。焦点検出画素 320は、焦点検出画素 330を 90度回転し て配列される。焦点検出画素 320、 330には光量をかせぐために色フィルタは配置さ れておらず、その分光特性は光電変換を行うフォトダイオードの分光感度、赤外カツ トフィルタ(不図示)の分光特性を総合した分光特性(図 8参照)となる。この分光特性 は、図 7に示す緑画素、赤画素および青画素の分光特性を加算したような分光特性 となり、その感度の光波長領域は緑画素、赤画素および青画素の感度の光波長領 域を包括している。
[0020] 撮像画素 310、 311、 312の光電変換部 11は、図 4に示すように、マイクロレンズ 1 0により所定の絞り開口径 (例えば F1. 0)の光束をすベて受光するような形状に設計 される。一方、焦点検出画素 320、 330の一対の光電変換部 12、 13は、図 5に示す ように、マイクロレンズ 10により所定の絞り開口径(例えば F2. 8)の光束をすベて受 光するような形状に設計される。焦点検出用の焦点検出画素 320は、撮像画素の緑 画素 310と青画素 312が配置されるべき列の一部に直線的に隙間なく密に配置され る。また、焦点検出用の焦点検出画素 330は、撮像画素の緑画素 310と赤画素 311 が配置されるべき行の一部に直線的に隙間なく密に配置される。焦点検出画素 320 力もなる画素列と焦点検出画素 330からなる画素列とが交差する画素位置には、焦 点検出画素 320が配置される。
[0021] 撮像により画像データを得る場合には、撮像画素の画像データがそのまま使用さ れる。一方、焦点検出画素における画像データは、焦点検出画素の近傍周囲にある 撮像画素の画像データを用いて補間される。例えば、撮像画素の青画素 312の位置 に撮像画素の代わりに配置される焦点検出画素 320の位置の画像データは、この焦 点検出画素 320の隣の緑画素 310を挟んで一つ右隣の青画素 312の画像データと 、焦点検出画素 320の隣の緑画素 310を挟んで一つ左隣の青画素 312の画像デー タとの平均として補間される。撮像画素の緑画素 310の位置に撮像画素の代わりに 配置される焦点検出画素 320の位置の画像データは、この焦点検出画素 320の斜 め右上、右下、左上、左下 45度方向の隣にある 4つの緑画素 310の画像データの平 均としてネ甫間される。
[0022] また、撮像画素の赤画素 311の位置に撮像画素の代わりに配置される焦点検出画 素 330の位置の画像データは、この焦点検出画素 330の隣の緑画素 310を挟んで 一つ上隣の赤画素 311の画像データと、焦点検出画素 320の隣の緑画素 310を挟 んで一つ下隣の赤画素 311の画像データとの平均として補間される。撮像画素の緑 画素 310の位置に撮像画素の代わりに配置される焦点検出画素 330の位置の画像 データは、この焦点検出画素 330の斜め右上、右下、左上、左下 45度方向の隣にあ る 4つの緑画素 310の画像データの平均として補間される。
[0023] 緑画素 310、赤画素 311および青画素 312はべィヤー配列となっているので、緑 画素 310の画素は赤画素 311、青画素 312より高密度に配置されており、画像デー タの補間を行う場合でも緑画素位置の画像データを補間する場合の方力 赤画素位 置または青画素位置の画像データ補間を行う場合よりも補間精度が高ぐ画像デー タは高品質となる。
[0024] 以上のように、撮像画素が二次元状に水平方向および垂直方向に行列配置 (べィ ヤー配列)された撮像素子において、列方向に配置された焦点検出画素 320からな る画素列と、行方向に配置された焦点検出画素 330からなる画素列とが交差する画 素位置を、もともと緑画素 310が配置されるべき画素位置とすることによって、焦点検 出画素列が交差する画素位置においても支障なく画像データの補間が可能になる。 仮に、交差位置を赤画素 311または青画素 312とした場合には、交差位置の画像デ ータ補間のみ異なる補間方式で補間を実行しなければならない。その上、補間に使 用する撮像画素の位置が交差位置より遠くなるので補間精度が低下し、画像品質が 低下してしまう。
[0025] 図 9は撮像画素の断面図である。撮像画素 310、 311、 312において、撮像用の光 電変換部 11の前方にマイクロレンズ 10が配置され、マイクロレンズ 10により光電変 換部 11が前方に投影される。光電変換部 11は半導体回路基板 29上に形成される。 不図示の色フィルタはマイクロレンズ 10と光電変換部 11の中間に配置される。
[0026] 図 10は焦点検出画素の断面図である。焦点検出画素 320、 330において、焦点検 出用の光電変換部 12、 13の前方にマイクロレンズ 10が配置され、マイクロレンズ 10 により光電変換部 12、 13が前方に投影される。光電変換部 12、 13は半導体回路基 板 29上に形成される。
[0027] 図 11はマイクロレンズを用いた瞳分割方式による焦点検出の説明図である。 90は 交換レンズの予定結像面に配置されたマイクロレンズの前方 dOの距離に設定された 射出瞳であり、距離 dOはマイクロレンズの曲率、屈折率、マイクロレンズと光電変換部 の間の距離などに応じて決まる距離であって、以下では測距瞳距離と呼ぶ。 50, 60 はマイクロレンズ、 52, 53、 62, 63は焦点検出画素の一対の光電変換部、 72, 73、 82, 83は焦点検出光束である。また、 92はマイクロレンズ 50、 60により投影された 光電変換部 52, 62の領域(以下では測距瞳と呼ぶ)、 93はマイクロレンズ 50、 60に より投影された光電変換部 53, 63の領域 (以下では測距瞳と呼ぶ)。
[0028] 図 11では、便宜的に光軸上にある焦点検出画素(マイクロレンズ 50と一対の光電 変換部 52、 53からなる)と、隣接する焦点検出画素(マイクロレンズ 60と一対の光電 変換部 62、 63からなる)とを模式的に例示している力 焦点検出画素が画面周辺の 光軸から離れた位置にあった場合でも、一対の光電変換部はそれぞれ一対の測距 瞳から各マイクロレンズに到来する光束を受光する。焦点検出画素の配列方向は、 一対の測距瞳の並び方向すなわち一対の光電変換部の並び方向と一致させる。
[0029] マイクロレンズ 50、 60は光学系の予定結像面近傍に配置されており、マイクロレン ズ 50によりその背後に配置された一対の光電変換部 52、 53の形状がマイクロレンズ 50、 60から投影距離 d0だけ離間した射出瞳 90上に投影され、その投影形状は測 距瞳 92, 93を形成する。マイクロレンズ 60によりその背後に配置された一対の光電 変換部 62、 63の形状が投影距離 d0だけ離間した射出瞳 90上に投影され、その投 影形状は測距瞳 92, 93を形成する。すなわち、投影距離 d0にある射出瞳 90上で各 焦点検出画素の光電変換部の投影形状 (測距瞳 92, 93)がー致するように各画素 の投影方向が決定されている。一対の測距瞳 92, 93と一対の光電変換部(52、 53) および一対の光電変換部(62、 63)は、マイクロレンズ 50, 60を介して共役な関係と なっている。
[0030] 光電変換部 52は測距瞳 92を通過し、マイクロレンズ 50に向う焦点検出光束 72に よりマイクロレンズ 50上に形成される像の強度に対応した信号を出力する。光電変換 部 53は測距瞳 93を通過し、マイクロレンズ 50に向う焦点検出光束 73によりマイクロ レンズ 50上に形成される像の強度に対応した信号を出力する。光電変換部 62は測 距瞳 92を通過し、マイクロレンズ 60に向う焦点検出光束 82によりマイクロレンズ 60上 に形成される像の強度に対応した信号を出力する。光電変換部 63は測距瞳 93を通 過し、マイクロレンズ 60に向う焦点検出光束 83によりマイクロレンズ 60上に形成され る像の強度に対応した信号を出力する。
[0031] 上述した焦点検出画素を直線状に多数配置し、各画素の一対の光電変換部の出 力を測距瞳 92および測距瞳 93に対応した出力グループにまとめることによって、測 距瞳 92と測距瞳 93を各々通過する焦点検出光束が焦点検出画素列上に形成する 一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検 出演算処理 (相関演算処理、位相差検出処理)を施すことにより、いわゆる瞳分割位 相差検出方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に一対の測距 瞳の重心間隔に応じた変換演算を行うことにより、予定結像面に対する現在の結像 面(予定結像面上のマイクロレンズアレイの位置に対応した焦点検出位置における 結像面)の偏差 (デフォーカス量)が算出される。 [0032] なお、上記説明では測距瞳は交換レンズの開口制限要素(絞り開口、レンズ外形、 フードなど)によって制限されて!/、な!/、(けられて!/、な!/、)状態として説明を行ったが、 交換レンズの開口制限要素によって測距瞳が制限される場合には、焦点検出画素 の光電変換部は制限を受けた測距瞳を通過する光束を焦点検出光束として受光す ることになる。
[0033] 図 12は画面周辺における測距瞳のケラレの説明図である。図 12に示すように、焦 点検出エリアの位置が予定焦点面 POに設定された画面周辺の Sにある場合は、射 出瞳 90にある絞り開口 97によっては測距瞳 92, 93にケラレが生じていないが、射出 瞳面 90より遠方にある面 99に存在する開口制限要素 98によって測距瞳 92にケラレ 力 S生じる。測距瞳に対して開口制限要素 98の開口形状が、画面中心と焦点検出位 置 Sの間の距離に応じて、開口形状が画面中心と焦点検出位置 Sを結ぶ方向にず れて重ねあわされた開口部分を通る光束が焦点検出光束となる。
[0034] 図 13は撮像画素と射出瞳の関係を説明する図である。なお、図 11に示す同様な 要素に対しては説明を省略する。 70はマイクロレンズ、 71は撮像画素の光電変換部 、 81は撮像光束、 94はマイクロレンズ 70により投影された光電変換部 71の領域であ る。図 13では、光軸上にある撮像画素(マイクロレンズ 70と光電変換部 71からなる) を模式的に例示した力 その他の撮像画素においても光電変換部はそれぞれ領域 9 4から各マイクロレンズに到来する光束を受光する。
[0035] マイクロレンズ 70は光学系の予定結像面近傍に配置されており、マイクロレンズ 70 によりその背後に配置された光電変換部 71の形状がマイクロレンズ 70から投影距離 dOだけ離間した射出瞳 90上に投影され、その投影形状は領域 94を形成する。光電 変換部 71は領域 94を通過し、マイクロレンズ 70に向う焦点検出光束 81によりマイク 口レンズ 70上に形成される像の強度に対応した信号を出力する。このような撮像画 素を二次元状に多数配置することによって、各画素の光電変換部に基づいて画像情 報が得られる。なお、上述した説明では測距瞳は交換レンズの開口制限要素(絞り 開口、レンズ外形、フードなど)によって制限されていない(けられていない)状態とし て説明を行ったが、交換レンズの開口制限要素によって測距瞳が制限される場合に は、焦点検出画素の光電変換部は制限を受けた測距瞳を通過する光束を焦点検出 光束として受光することになる。
[0036] 図 14および図 15は射出瞳面における測距瞳の正面図である。図 14において、焦 点検出画素 330 (図 5参照)から一対の光電変換部をマイクロレンズにより射出瞳面 9 0に投影した測距瞳 922, 933の外接円は、結像面から見た場合に所定の開口?値( 測距瞳 F値と称する。ここでは F2. 8とする)となる。破線で示す領域 901は、絞り値 F 2. 8よりも大きな絞り値 (例えば F2)に対応した領域を示し、測距瞳 922, 933を内部 に含んでいる。測距瞳 922, 933の並び方向(図では水平方向)における測 距瞳 922、 933を通過する光束 (焦点検出光束)の重心 952, 953の間隔は、 G1とな
[0037] 図 12に示すような焦点検出光束のケラレが発生した場合 (測距位置 Sが図 2の位置
105に相当)には、開口制限による開口が測距瞳に対して水平方向にずれて重ね合 わされる(領域 903は開口制限の一部を示している)。このような状態では測距瞳 92 2が領域 903によりけられており、領域 903によって制限された測距瞳 922を通過す る光束 (焦点検出光束)の重心 972はけられていない場合の重心 952より中心(測距 瞳 922と 933の外接円の中心)によっている。一方、測 £巨瞳 933は領域 903によりけ られず、測距瞳 933を通過する光束 (焦点検出光束)の重心 953の位置は変化しない 。したがって、測距瞳重心 972と 953の間隔は、ケラレが生じていない場合の重心間 隔 G 1より狭!/、重心間隔 G 1 'となる。
[0038] 図 15において、焦点検出画素 320 (図 5参照、焦点検出画素 320は焦点検出画素
33を 90度回転して配置したもの)から一対の光電変換部をマイクロレンズにより射出 瞳面 90に投影した測距瞳 822, 833の外接円は、結像面から見た場合に所定の開 口 F値 (測距瞳 F値と称する。ここでは F2. 8とする)となる。破線で示す領域 901は、 絞り値 F2. 8よりも大きな絞り値 (例えば F2)に対応した領域を示し、測距瞳 822, 83 3を内部に含んでいる。測距瞳 822, 833の並び方向(図では垂直方向)における測 距瞳 822、 833を通過する光束 (焦点検出光束)の重心 852, 853の間隔は、 G2 ( = G1)となる。
[0039] 図 12に示すような焦点検出光束のケラレが発生した場合 (測距位置 Sが図 2の位置
105に相当)には、開口制限による開口が測距瞳に対して水平方向にずれて重ね合 わされる(領域 903は開口制限の一部を示している)。このような状態では、測距瞳 8 22と測距瞳 833の右端部分が領域 903によりけられている力 そのケラレが測距瞳 8 22, 833ίこ対称白勺 ίこ発生してレヽるので領域 903ίこよって彻 J£巨睦 822, 833の重 、位 置 852, 853は変化せず、したがって測距瞳 822, 833を通過する光束 (焦点検出光 束)の重心 852、 853の間隔 G2は変化しない。
[0040] 一般的に、焦点検出エリアが画面周辺にある場合には、一対の測距瞳の並び方向 力 画面中心から焦点検出エリアの位置へ向かう方向(以下、 "放射方向"という)で あると、焦点検出光束のケラレが一対の測距瞳に対して非対称に発生するために、 測距瞳の重心間隔の変化が複雑になり、像ズレ量をデフォーカス量に変換する精度 が低下するとともに、一対の光電変換部が受光する焦点検出光束の光量バランスが 崩れ、一対の像の同一性が崩れるので、像ズレ検出精度が低下し、最終的な焦点検 出精度も低下する。
[0041] 一方、一対の測距瞳の並び方向が、画面中心から焦点検出エリアの位置へ向かう "放射方向"と垂直な方向、すなわち画面中心を円の中心とする同心円の接線方向( 以下、 "円周方向"という)であると、焦点検出光束のケラレが一対の測距瞳に対して 対称に発生するために、測距瞳の重心間隔の変化が発生せず、像ズレ量をデフォ 一カス量に変換する精度が維持できるとともに、一対の光電変換部が受光する焦点 検出光束の光量バランスが崩れないので、一対の像の同一性が維持されることにより 像ズレ検出精度も維持されるので、最終的な焦点検出精度も維持できる。
[0042] 図 3に示す焦点検出画素の配置では、一対の測距瞳の並び方向力 '円周方向"で ある焦点検出画素 320からなる画素列と、一対の測距瞳の並び方向が"放射方向" である焦点検出画素 330からなる画素列とが交差する画素位置においては、一対の 測距瞳の並び方向力 円周方向"である焦点検出画素 320を配置することによって、 ケラレが発生しても焦点検出性能が維持できる焦点検出画素列の連続性を優先する ことになり、ケラレ発生時においても焦点検出性能を維持することができる。
[0043] 図 16は、図 1に示すデジタルスチルカメラ(撮像装置)の動作を示すフローチャート である。ボディ駆動制御装置 214は、ステップ 100でカメラの電源が投入されるとステ ップ 110へ進み、撮像動作を開始する。ステップ 110で、図 1には不図示の測光装置 によって測光した被写界輝度に応じて自動的に決定された撮影絞り値、あるいは図 1 には不図示の操作部材によってユーザーが手動で設定した撮影絞り値に応じた絞り 制御情報をレンズ駆動制御装置 206へ送り、絞り開口径を撮影絞り値に設定し、この 絞り開口径にて撮像画素のデータを間引き読み出しし、電子ビューファインダーに表 示させる。
[0044] ステップ 120において、絞り開口径が撮影絞り値に設定された状態で焦点検出画 素列からデータを読み出す。ステップ 130では、焦点検出画素列に対応した一対の 像データに基づいて、後述する像ズレ検出演算処理 (相関演算処理)を行って像ズ レ量を演算し、さらにデフォーカス量を算出する。ステップ 140において合焦近傍か 否力、、すなわち算出されたデフォーカス量の絶対値が所定値以内であるか否かを判 別する。合焦近傍でないと判別されるとステップ 150へ進み、デフォーカス量をレンズ 駆動制御装置 206へ送信し、交換レンズ 202のフォーカシングレンズ 210を合焦位 置まで駆動させ、その後ステップ 110へ戻って上記動作を繰り返す。
[0045] なお、焦点検出不能な場合もこのステップ 150へ分岐し、レンズ駆動制御装置 206 ヘスキャン駆動命令を送信し、交換レンズ 202のフォーカシングレンズ 210を無限か ら至近までの間でスキャン駆動させ、その後ステップ 110へ戻って上記動作を繰り返 す。
[0046] 一方、合焦近傍であると判別された場合はステップ 160へ進み、不図示のレリーズ 手段の操作によりシャッターレリーズがなされたか否かを判定し、なされていないと判 定された場合はステップ 110へ戻って上記動作を繰り返す。シャッターレリーズがなさ れたと判定された場合は、レンズ駆動制御装置 206へ絞り制御情報を送信し、交換 レンズ 202の絞り値を撮影絞り値にする。絞り制御が終了した時点で、撮像素子 212 に撮像動作を行わせ、撮像素子 212の撮像画素および全ての焦点検出画素から画 像データを読み出す。
[0047] ステップ 180では、焦点検出画素列の各画素位置の画素データを周囲の撮像画 素のデータに基づいて補間する。続くステップ 190において、撮像画素のデータおよ び補間されたデータからなる画像データをメモリーカード 219に保存し、ステップ 110 へ戻って上記動作を繰り返す。 [0048] ここで、図 16のステップ 130で実行される像ズレ量検出とデフォーカス量算出の詳 細を説明する。焦点検出画素列から出力される一対のデータ歹 IJ(a 1〜αΜ、 β;!〜 /3Μ:Μはデータ数)に対し、(1)式に示すような高周波カットフィルタ処理を施し、第 1データ列、第 2データ列(Α1〜ΑΝ、 Β1〜ΒΝ)を生成することによって、データ列 力、ら相関処理に悪影響を及ぼすノイズ成分や高周波成分を除去する。ここで、 a l〜 a Mは、図 11にお!/、て測距瞳 92を通る焦点検出光束により形成された像の画像デ ータに相当する。また、 131〜! 3 Mは、測距瞳 93を通る焦点検出光束により形成され た像の画像データに相当する。なお、演算時間の短縮を図る場合や、すでに大きく デフォーカスしてレ、て高周波成分が少なレ、ことがわかって!/、る場合などには、この処 理を省略することもできる。
[0049] Αη= αη + 2· αη+1+ αη+2,
Βη= βη + 2· βη+1+ β η+2 ··· (1)
(1)式において、 η=;!〜 Νである。データ列 Αη、 Βηに対し(2)式により相関演算を 行い、相関量 C(k)を演算する。
C(k)=∑ I Αη-Βη+1+k-Bn+k-An+l | …(2)
(2)式において、∑演算は nについて累積される。また、 nのとる範囲は、ずらし量 kに 応じて An、 An+1、 Bn+k、 Βη+1+kのデータが存在する範囲に限定される。ずらし量 k は整数であり、データ列のデータ間隔を単位とした相対的シフト量である。
[0050] (2)式の演算結果は、図 17 (a)に示すように、一対のデータの相関が高いシフト量
(図 17 (a)では k=kj= 2)にお!/、て相関量 C (k)が極小(小さ!/、ほど相関度が高!/、) になる。 (3)式〜(6)式による 3点内挿の手法を用い、連続的な相関量に対する極小 値 C (X)を与えるシフト量 Xを求める。
x=kj+D/SLOP ··· (3)
C(x)= C(kj)- I D I ·'· (4)
D={C(kj- 1)— C(kj+l)}/2 ·'· (5)
SLOP = MAX{C(kj+l)— C(kj), C(kj-l) C(kj)} · · · (6)
[0051] (3)式で算出されたずらし量 xの信頼性があるかどうかは、以下のようにして判定さ れる。図 17(b)に示すように、一対のデータの相関度が低い場合は、内挿された相関 量の極小値 C(x)の値が大きくなる。したがって、 C(x)が所定の閾値以上の場合は算 出されたずらし量の信頼性が低いと判定し、算出されたずらし量 Xをキャンセルする。 あるいは、 C(x)をデータのコントラストで規格化するために、コントラストに比例した値 となる SLOPで C(x)を除した値が所定値以上の場合は、算出されたずらし量の信頼 性が低いと判定し、算出されたずらし量 Xをキャンセルする。あるいはまた、コントラス トに比例した値となる SLOPが所定値以下の場合は、被写体が低コントラストであり、 算出されたずらし量の信頼性が低いと判定し、算出されたずらし量 Xをキャンセルす
[0052] 図 17(c)に示すように、一対のデータの相関度が低ぐシフト範囲 kmin〜kmaxの間 で相関量 C(k)の落ち込みがない場合は、極小値 C(x)を求めることができず、このよう な場合は焦点検出不能と判定する。
[0053] (2)式の相関演算として次式を用いてもよ!/、。
C(k)=∑ I An/An+1— Bn+k/Bn+1+k | …(7)
(7)式において、∑演算は nについて累積される。 nのとる範囲はずらし量 kに応じて An、 An+1、 Bn+k、 Βη+1+kのデータが存在する範囲に限定される。なお、相関演算 式は上述した(2)式や(7)式に限定されな!/、。
[0054] 算出されたずらし量 Xの信頼性があると判定された場合は、被写体像面の予定結像 面に対するデフォーカス量 DEFを(8)式で求めることができる。
DEF = KX-PY-x · · · (8)
(8)式において、 PYは検出ピッチ(焦点検出画素のピッチ)であり、 KXは一対の測 距瞳を通過する光束の重心の開き角の大きさ(測距瞳重心間隔と測距瞳距離によつ て決まる)によって決まる変換係数である。
[0055] 以上の像ズレ検出演算処理により、一対の測距瞳の並び方向力 '円周方向"になつ ている焦点検出画素 320の画素列と、一対の測距瞳の並び方向力 '放射方向"にな つている焦点検出画素 330の画素列に対して、それぞれデフォーカス量が算出され る。両方とも検出不能だと判定された場合は、最終的な結果として検出不能とする。 一方のみが検出可能であった場合は、検出可能であったデフォーカス量を最終的な デフォーカス量とする。 [0056] 両方とも検出可能であった場合は、 2つのデフォーカス量を平均して最終的なデフ オーカス量とする。あるいは、ケラレ発生時においても一対の測距瞳の並び方向が高 い焦点検出性能を維持できる並び方向になっている焦点検出画素列のデフォー力 ス量を最終的なデフォーカス量とする。つまり、一対の測距瞳の並び方向力 '円周方 向"になっている焦点検出画素 320の画素列に対するデフォーカス量を最終的なデ フォーカス量として採用する。
[0057] 《一実施の形態の変形例》
図 18は変形例の撮像素子 212Aの詳細な構成を示す正面図である。図 3に示す 撮像素子 212との相違点は、一対の測距瞳の並び方向が画面中心から焦点検出ェ リア位置へ向力、う放射方向になっている焦点検出画素 330の画素列を、測距瞳の形 状が小さく(測距 F値が大きい)、かつ、一対の測距瞳の並び方向が画面中心から焦 点検出エリア位置へ向力、う放射方向になっている焦点検出画素 340の画素列に置き えた点にある。
[0058] 図 19は、射出瞳面における焦点検出画素 340に対応した測距瞳の正面図である。
図 19において、焦点検出画素 340から一対の光電変換部をマイクロレンズにより射 出瞳面 90に投影した測距瞳 722, 733の外接円は、結像面から見た場合に所定の 開口 F値 (測距瞳 F値と称する。ここでは F5. 6とする)となる。破線で示す領域 902は 絞り値 F2. 8よりも大きな絞り値 (例えば F2)に対応した領域を示し、測距瞳 722, 73 3を内部に含んでいる。測距瞳 722, 733の並び方向(図では水平方向)における測 距瞳 722、 733を通過する光束 (焦点検出光束)の重心 752, 753の間隔は G3となる 。図 19に示すような開口制限による光束のケラレが発生した場合においても、測距 F ィ直カ大きいために、測 £巨瞳 722、 733は領域 903によりけられず、重心 752、 753の 位置は変化しない。
[0059] 測距瞳の F値が大きい場合には、一対の測距瞳の並び方向が焦点検出エリアの位 置と画面中心とを結ぶ方向(放射方向)である焦点検出画素 330からなる画素列を 画面周辺に配置した場合でも、焦点検出光束のケラレが発生しに《なるため、測距 瞳の重心間隔が変化せず、像ズレ量をデフォーカス量に変換する精度が維持できる とともに、一対の光電変換部が受光する焦点検出光束の光量バランスが崩れないの で、一対の像の同一性が維持されることにより像ズレ検出精度も維持されるので、最 終的な焦点検出精度も維持できる。
[0060] 図 18において、焦点検出用の焦点検出画素 320は、撮像画素の緑画素 310と青 画素 312が配置されるべき列の一部に直線的に隙間なく密に配置される。焦点検出 用の焦点検出画素 340は、撮像画素の緑画素 310と赤画素 311が配置されるべき 行の一部に直線的に隙間なく密に配置される。焦点検出画素 320からなる画素列と 、焦点検出画素 340からなる画素列が交差する画素位置には、焦点検出画素 320 が配置される。
[0061] 撮像画素の青画素 312の位置に撮像画素の代わりに配置される焦点検出画素 32 0の位置の画像データは、該焦点検出画素 320の隣の緑画素 310を挟んで一つ右 隣の青画素 312の画像データと、該焦点検出画素 320の隣の緑画素 310を挟んで 一つ左隣の青画素 312の画像データとの平均として補間される。また、撮像画素の 緑画素 310の位置に撮像画素の代わりに配置される焦点検出画素 320の位置の画 像データは、該焦点検出画素 320の斜め右上、右下、左上、左下 45度方向の隣に ある 4つの緑画素 310の画像データの平均として補間される。
[0062] 撮像画素の赤画素 311の位置に撮像画素の代わりに配置される焦点検出画素 33 0の位置の画像データは、該焦点検出画素 340の隣の緑画素 310を挟んで一つ上 隣の赤画素 311の画像データと、該焦点検出画素 340の隣の緑画素 310を挟んで 一つ下隣の赤画素 311の画像データとの平均として補間される。また、撮像画素の 緑画素 310の位置に撮像画素の代わりに配置される焦点検出画素 340の位置の画 像データは、該焦点検出画素 340の斜め右上、右下、左上、左下 45度方向の隣に ある 4つの緑画素 310の画像データの平均として補間される。
[0063] 図 18に示す焦点検出画素の配置においては、図 3に示す構成による効果に加え て、画面周辺の焦点検出エリアにおいてケラレが生じやすい焦点検出エリアの位置 と画面中心とを結ぶ方向(放射方向)に測距 F値が大きな焦点検出画素を配列した ので、光学系の種々の開口制限要素により光束に画面周辺でケラレを生ずる場合に おいても、良好な焦点検出を 2方向に応じて維持することができる。
[0064] 図 20は変形例の撮像素子 212Bの詳細な構成を示す正面図である。図 18に示す 撮像素子 Aとの相違点は、一対の測距瞳の並び方向が焦点検出エリアの位置と画 面中心とを結ぶ方向(放射方向)である焦点検出画素 340からなる画素列の画素ピ ツチが大きく(1画素おき)なっている点と、一対の測距瞳の並び方向が"円周方向" になっている焦点検出画素 320の画素列と、一対の測距瞳の並び方向が画面中心 力も焦点検出エリア位置へ向力、う放射方向になっている焦点検出画素 340の画素列 とを、それぞれ複数列並置して 1つの焦点検出エリアに配置した点である。
[0065] 一方の焦点検出画素列の画素ピッチを他方の焦点検出画素列の画素ピッチより大 きくしたことによって、焦点検出画素列が交差する画素位置には画素ピッチの小さい 焦点検出画素列の焦点検出画素を配置できるとともに、画素ピッチの大きな焦点検 出画素列を交差位置において分断することなく連続的に配置できるので、 2方向に おいて良好な焦点検出性能を維持することができる。また、一方の焦点検出画素列 の画素ピッチを他方の焦点検出画素列の画素ピッチより大きくしたことによって、画像 データを補間すべき画像位置の密度が減少するので、画像データの品質が向上す る。さらに、 1つの焦点検出エリアに 2方向において焦点検出画素列を並置すること によって、被写体像の捕捉性能が向上し、焦点検出性能も向上する。
[0066] 図 21は変形例の撮像素子 212Cの詳細な構成を示す正面図である。図 3に示す 撮像素子 212との相違点は、水平および垂直の十字型に配置された二組の焦点検 出画素列が 45度回転し、斜め右上がり 45度方向の焦点検出画素列と斜め左上がり 45度方向の焦点検出画素列が十字型に配置されている点である。焦点検出画素 3 50, 360は焦点検出画素 320 (図 5参照)を ±45度回転した構成となっている。焦点 検出用の焦点検出画素 350, 360は、撮像画素の緑画素 310 (図 4参照)が配置さ れるべき ±45度方向の配列の一部に直線的に隙間なく密に配置される。焦点検出 画素 350からなる画素列と焦点検出画素 360からなる画素列が交差する画素位置に は、焦点検出画素 350が配置される。
[0067] 焦点検出画素 350で置換される緑画素 310の位置における画像データは、該焦点 検出画素 350の斜め右上、左下 45度方向の隣にある 2つの緑画素 310の画像デー タの平均として補間される。焦点検出画素 360で置換される緑画素 310の位置にお ける画像データは、該焦点検出画素 360の斜め左上、右下 45度方向の隣にある 2 つの緑画素 310の画像データの平均として補間される。焦点検出画素 350からなる 画素列と焦点検出画素 360からなる画素列が交差する画素位置の画素データは、 右隣の赤画素 311を挟んで一つ右隣の緑画素 310の画像データと左隣の赤画素 3 11を挟んで一つ左隣の緑画素 310の画像データと上隣の青画素 312を挟んで一つ 上隣の緑画素 310の画像データと下隣の青画素 312を挟んで一つ下隣の緑画素 3 10の画像データを平均として補間される。
[0068] 以上の構成では、補間される画像データが 2つの焦点検出画素列の交差する画素 位置を含めて全て緑画素となっている。緑画素は赤画素、青画素に比較して高密度 に配置されているため、高い補間精度が期待できるとともに、画像データ補間による 画像全体への影響も少なレ、。
[0069] 図 22は変形例の撮像素子 212Dの詳細な構成を示す正面図である。図 21に示す 撮像素子 212Cとの相違点は、焦点検出画素 360から構成される右斜め上がり 45度 方向の焦点検出画素列の位置が 1画素左方向にずれた点である。このような構成に おいては、焦点検出画素 350から構成される焦点検出画素列と、焦点検出画素 360 力 構成される焦点検出画素列とは同一の画素位置で交差することがなぐ焦点検 出画素 360から構成される焦点検出画素列が分断されることがなくなるので、焦点検 出画素 360から構成される焦点検出画素列による焦点検出性能が向上する。
[0070] 図 23は変形例の撮像素子 212Eの詳細な構成を示す正面図である。図 3に示す撮 像素子 212との相違点は、焦点検出画素 320が焦点検出画素 320aと焦点検出画 素 320bに分割され、焦点検出画素 330が焦点検出画素 330aと焦点検出画素 330 bに分割されから構成された点である。焦点検出画素 320aの配列から得られる画像 データと、焦点検出画素 320bの配列から得られる画像データとによって、一対の像 の像ズレを検出することができる。また、焦点検出画素 320aの配列から得られる画像 データと、焦点検出画素 320bの配列から得られる画像データとによって、一対の像 の像ズレを検出することができる。
[0071] このような構成により、図 3に示す撮像素子 212の効果に加え、 1つの焦点検出画 素が 1つのマイクロレンズと 1つの光電変換部から構成されるので、基本回路構成を 撮像画素と同一にでき、撮像素子構造の複雑化を防ぐことができる。 [0072] 図 24は変形例の撮像素子 212Fの詳細な構成を示す正面図である。図 3において 、焦点検出画素 320を垂直方向に配列した焦点検出画素列と、焦点検出画素 330 を水平方向に配列した焦点検出画素列とを、べィヤー配列の撮像画素において密 度の高い緑画素の位置で交差させることによって交差位置における画素補間精度を 向上させているが、 2つの焦点検出画素配列を人間の目の敏感度が低い色の撮像 画素、つまりべィヤー配列における青画素の位置で交差させることによって、交差位 置における画素補間精度が多少劣化しても、その誤差を人間の目には目立たなくす ることが可能である。
[0073] 図 24に示す撮像素子 212Fは、撮像用の撮像画素(緑画素 310、赤画素 311、青 画素 312)と、焦点検出用の焦点検出画素 320、 330とから構成される。焦点検出画 素 320は、撮像用の緑画素 310と青画素 312が配置されるべき列の一部に直線的 に隙間なく密に配置される。また、焦点検出画素 330は、撮像用の緑画素 310と青 画素 312が配置されるべき行の一部に直線的に隙間なく密に配置される。焦点検出 画素 320からなる画素列と焦点検出画素 330からなる画素列が交差する画素位置に は焦点検出画素 320が配置され、この位置は本来青画素 312が配置されるべき画 素位置である。
[0074] 撮像により画像データを得る場合には、撮像画素の画像データがそのまま使用さ れる。焦点検出画素の位置の画像データは、焦点検出用画素の近傍周囲にある撮 像画素の画像データにより補間される。例えば、撮像用の青画素 312の位置に置き 換えて配置される焦点検出画素 320の位置の画像データは、この焦点検出画素 32 0の隣の緑画素 310を挟んで一つ右隣の青画素 312の画像データと、この焦点検出 画素 320の隣の緑画素 310を挟んで一つ左隣の青画素 312の画像データの平均と して補間される。同様に、焦点検出画素 320で置換される緑画素 310の位置におけ る画像データは、この焦点検出画素 320の斜め右上、右下、左上、左下 45度方向の 隣にある 4つの緑画素 310の画像データの平均として補間される。
[0075] さらに、焦点検出画素 320で置換される緑画素 310の位置(交差画素の上下の画 素)における画像データは、この焦点検出画素 320の斜め右上、左上あるいは右上 、左下 45度方向の隣にある 2つの緑画素 310の画像データの平均として補間される 。撮像用の青画素 312の位置に置き換えて配置される焦点検出画素 330の位置の 画像データは、この焦点検出画素 330の隣の緑画素 310を挟んで一つ上隣の青画 素 312の画像データと、この焦点検出画素 330の隣の緑画素 310を挟んで一つ下 隣の青画素 312の画像データの平均として補間される。
[0076] 焦点検出画素 330で置換される緑画素 310の位置における画像データは、この焦 点検出画素 330の斜め右上、右下、左上、左下 45度方向の隣にある 4つの緑画素 3 10の画像データの平均として補間される。焦点検出画素 330で置換される緑画素 3 10の位置(交差画素の左右の画素)における画像データは、この焦点検出画素 320 の斜め右上、右下あるいは左上、左下 45度方向の隣にある 2つの緑画素 310の画 像データの平均として補間される。焦点検出画素 320が配置された交差位置におけ る画像データは、焦点検出画素 320の斜め右上、右下、左上、左下 45度方向に赤 画素 311を挟んで近接する 4つの青画素 312の画像データの平均として補間される
[0077] 《発明の他の実施の形態》
次に、発明の他の一実施の形態を説明する。なお、この他の実施の形態の撮像装 置としての構成は図 1に示す構成と同様であり、撮像画素 310、 311、 312および焦 点検出画素 320、 330の構成、断面構造および特性は図 4、図 5、図 7、図 8、図 9、 図 10に示す構成、断面構造および特性と同様であり、一実施の形態と同一の要素 に対しては同一の符号を付してそれらの説明を省略する。また、この他の一実施の 形態における焦点検出方法、撮像画素および焦点検出画素の射出瞳および測距瞳 の関係などは図 11〜図 13で説明した方法および関係と同様であり、それらの説明を 省略する。
[0078] 図 25は、他の一実施の形態の撮像素子 212G上における焦点検出画素の配置を 示す図である。この撮像素子 212Gは、撮像画面 100上の格子 110に沿って焦点検 出画素が配列されている。この格子 110は、矩形の撮像画面 100の水平線方向およ び垂直線方向に等ピッチで配置された複数の直線からなっており、ほぼ撮像画面 10 0の全面をカバーして!/、る。
[0079] 直線上に配列された焦点検出画素によって、焦点検出のために直線方向の像ズレ が検出される。したがって、図 25に示す撮像素子 212Gでは、像ズレ検出が水平方 向と垂直方向の 2方向で行われることになり、被写体のパターンに関わらず安定した 焦点検出を行うことが可能になる。また、焦点検出画素が撮像画面 100全体に 2方向 で同じ密度で配置されているので、撮像画面 100の任意の位置で同等な性能で焦 点検出を行うことが可能になる。
[0080] 図 26、図 27は撮像素子 212Gの詳細な構成を示す正面図である。撮像素子 212 Gは、図 4に示す撮像画素 310〜312と、図 5に示す焦点検出画素 320、 330から構 成される。図 26は、図 25において撮像画面 100の中心 104 (撮像画面と交換レンズ の光軸の交点)から垂直方向に離れた位置にある格子の交差点を含む領域 111を 拡大した図である。格子の交点に相当する画素位置には、水平方向に配列された焦 点検出画素 330が配置される。また、図 27は、図 25において撮像画面 100の中心 1 04から水平方向に離れた位置にある格子の交差点を含む領域 112を拡大した図で ある。格子の交点に相当する画素位置には、垂直方向に配列された焦点検出画素 3 20が配置される。
[0081] 格子の交点における焦点検出画素を撮像画面中心と格子の交点を結ぶ直線の方 向に応じて変えているのは、焦点検出光束のケラレによる影響を軽減するためである 。格子 110の水平方向の直線上には焦点検出画素 330が配列され、格子 110の垂 直方向の直線上には焦点検出画素 320が配列される。また、格子 110の交点にお いては、撮像画面中心 104と格子 110の交点を結ぶ直線の方向(放射方向)に対し て垂直な方向(円周方向)に近い方向に配列している焦点検出画素が配置されるこ とになる。
[0082] 図 26、図 27に示すように、 2次元的に配置された撮像画素 310〜312には RGBの べィヤー配列の色フィルタが備えられる。焦点検出用の焦点検出画素 320、 330は、 撮像用の緑画素 310の青画素 312が配置されるべき行と列に直線的にギャップなし で密に配置される。このように、緑画素 310と青画素 312の位置に焦点検出画素 32 0、 330を配列するのは、人間の色に対する感度が赤より青のほうが低いためであつ て、後述するように焦点検出画素の位置の画素データを周囲の撮像画素データから 画素補間して求める際に、補間誤差を目立たなくするためである。 [0083] 図 28、図 29は焦点検出光束のケラレを説明するための図である。交換レンズの射 出瞳 190の位置が測距瞳距離 dと異なる場合には、撮像画面において光軸から離れ た位置に配置される焦点検出画素に関しては、その測距瞳の中心が交換レンズの射 出瞳面上の中心からずれることになる。図 28、図 29は、図 25に示す領域 1 12の近 傍に配置された焦点検出画素 330の測距瞳 192、 193および焦点検出画素 320の 測距瞳 292、 293と、交換レンズの射出瞳 190との位置関係を、交換レンズの射出瞳 面上で示している。図 28においては、一対の測距瞳 192、 193が射出瞳 190によつ て不均等にけられている。一方、図 29では一対の測距瞳 292、 293力 S射出瞳 190に よって均等にけられている。
[0084] 測距瞳の不均等なケラレは焦点検出光束の不均等なケラレとなり、結果的に像信 号レベルのアンバランスに繋がる。一対の像信号のレベルが大きく崩れた場合には 像ズレの検出精度が低下したり、像ズレ検出が不能となってしまう。したがって、上述 したように格子の交点には焦点検出光束のケラレに対して有利な焦点検出画素(図 28、図 29に示す撮像素子では焦点検出画素 320)を配置することによって、焦点検 出精度の維持を図る。
[0085] 図 30は、他の一実施の形態のデジタルスチルカメラ (撮像装置)の動作を示すフロ 一チャートである。ボディ駆動制御装置 214は、ステップ 200でカメラの電源が投入さ れるとステップ 210へ進み、撮像動作を開始する。ステップ 210で、撮像画素のデー タを読み出し、電子ビューファインダーに表示させる。続くステップ 220で、撮像画素 データに基づいて図 31に示すように撮像画面上の人物の顔の位置 130を特定する 。これは周知の顔検出と言われる技術であって、例えば画像データの中で肌色を示 す領域を顔の位置として特定したり、予め登録された顔画像データと撮像した画像デ ータのテンプレートマッチングにより顔の位置を特定する。なお、顔が検出されない 場合は特定位置を撮像画面の中央とする。顔が複数検出された場合には、所定の 選択処理、例えば撮像画面の中心に最も近い顔、大きさが最も大きい顔を選択して 1つの特定位置を決定する。
[0086] ステップ 230では、特定された位置近傍の焦点検出画素歹 IJ (図 31において位置 13 0近傍の格子 1 10上の焦点検出画素列)から一対の像に対応した一対の像データを 読み出す。続くステップ 240で、読み出した一対の像データに基づいて上述した像 ズレ検出演算処理 (相関演算処理)を行い、像ズレ量を演算し、さらに像ズレ量をデ フォーカス量に変換する。特定された位置近傍には複数の焦点検出画素列が存在 するのでデフォーカス量も複数算出されるが、所定の決定処理、例えば平均値、最も 近距離を示すデフォーカス量を採用するなどによって最終的なデフォーカス量を決 疋 。
[0087] ステップ 250において、合焦近傍か否か、すなわち算出されたデフォーカス量の絶 対値が所定値以内であるか否力、を調べる。合焦近傍でなレ、と判定した場合はステツ プ 260へ進み、デフォーカス量をレンズ駆動制御装置 206へ送信し、交換レンズの フォーカシングレンズを合焦位置に駆動させた後、ステップ 210へ戻って上述した動 作を繰り返す。なお、焦点検出不能な場合もこのステップに分岐し、レンズ駆動制御 装置 206ヘスキャン駆動命令を送信し、交換レンズのフォーカシングレンズを無限か ら至近までの間でスキャン駆動させた後、ステップ 210に戻って上述した動作を繰り 返す。
[0088] 一方、合焦近傍であると判定した場合はステップ 270へ進み、シャッターボタン(不 図示)の操作によりシャッターレリーズがなされたか否かを判定し、なされていないと 判定した場合はステップ 210に戻って上述した動作を繰り返す。シャッターレリーズ がなされたと判定した場合はステップ 280へ進み、レンズ駆動制御装置 206へ絞り調 整命令を送信し、交換レンズの絞り値を制御 F値 (ユーザーまたは自動により設定さ れた F値)にする。絞り制御が終了した時点で、撮像素子に撮像動作を行わせ、撮像 素子の撮像画素および全ての焦点検出画素から画像データを読み出す。ステップ 2 90では、焦点検出画素列の各画素位置の画素データを焦点検出画素の周囲の撮 像画素のデータに基づいて画素補間する。そして、ステップ 300で撮像画素のデー タおよび補間されたデータからなる画像データをメモリーカードに保存し、ステップ 21 0へ戻って上述した動作を繰り返す。
[0089] 図 30のステップ 240における像ずれ検出演算処理、すなわち相関演算処理につ いては上述した一実施の形態の処理と同様であり、説明を省略する。なお、焦点検 出画素が検出する一対の像は、測距瞳がレンズの絞り開口によりけられて光量バラ ンスが崩れている可能性があるので、光量バランスに対して像ズレ検出精度を維持 できるタイプの相関演算を施す。
[0090] 次に、図 30のステップ 290における画素補間処理の詳細を説明する。図 32は、焦 点検出画素の位置の画素データを焦点検出画素の周囲にある撮像画素の画素デ ータに基づいて補間する場合の説明図である。図において、変数 h、 Vは図 26、図 2 7のような 2次元画素配置において水平方向および垂直方向の画素の位置を示すた めの変数である。ここで、 h列目、 V— 1行目にある焦点検出画素位置の画素データ G (h, V - 1)と、 h+ 1列目、 V— 1行目にある焦点検出画素位置の画素データ B(h+ 1 , V— 1)とを、隣接している撮像画素の出力データに応じて補正する場合を考える。
[0091] h列目、 V— 1行目の画素位置は、本来撮像用の緑画素 310があるべき画素位置で ある力、ら、(9)式により周囲にある 4つの緑画素 310の出力データを平均することによ つて、この画素位置の出力データを補間する。
G(h, v- l)= {G(h- l , v- 2) + G(h+ l , v— 2) + G(h— 1 , v) + G(h+ l , v)}/4 •••(9)
また、 h+ 1列目、 v— 1行目の画素位置は、本来撮像用の青画素 312があるべき画 素位置であるから、(10)式により周囲にある 2つの青画素 312の出力データを平均 することによって、この画素位置の出力データを補間する。
B(h+ 1 , v- l)= {B(h+ l , v- 3) + B(h+ l , v+ l)}/2 …(10)
上記(9)式および(10)式と同様な計算方法によって、すべての焦点検出画素の位 置に対して画素補間処理を施すことができる。
[0092] この他の実施の形態においては、撮像画素が正方稠密配列された中に焦点検出 画素が水平および垂直方向に直線上に連続して配列されているため、撮像素子を C
CDイメージセンサーや CMOSイメージセンサーで構成した場合に、読み出し制御と の整合性を取ることが容易になり、全画素の中から焦点検出画素の出力を部分読み 出ししたり、間引き読み出しすることが簡単にできる。
[0093] 《他の実施の形態の変形例》
次に、撮像素子の変形例を説明する。図 33、図 34は、変形例の撮像素子 212H、
2121の焦点検出画素の配置を示す図である。図 26、図 27に示す撮像素子 212Gで は焦点検出画素 320、 330が直線上に隣接かつ連続して配列されている力 一方の 配列において焦点検出画素を数画素おきに配置したり、あるいは両方の配列におい て焦点検出画素を数画素おきに配置することができる。図 33は図 26に対応し、焦点 検出画素 320を 1画素置きに配列している。また、図 34は図 27に対応し、焦点検出 画素 320、 330を 1画素置きに配列している。
[0094] このように焦点検出画素を配列することによって、焦点検出用の像検出ピッチが大 きくなるので焦点検出精度は多少低下する力 焦点検出画素の間に撮像画素が挟 まれ、画素補間するべき箇所が少なくなるため、画像品質が向上する。また、焦点検 出画素列の交差位置にどちらの焦点検出画素を配置するかという問題も発生せず、 交差位置を挟んだ連続した領域で水平方向および垂直方向に像ズレ検出を行うこと 力できる。なお、図 26、図 17に示す配列においても、交差位置に焦点検出画素を持 たない配列に対して、仮想的に 1画素置きの配列による像ズレ検出を行うことによつ て、交差位置に焦点検出画素を持たない焦点検出画素配列においても交差位置を 挟んだ連続した領域で像ズレ検出を行うことができる。
[0095] 図 35、図 36、図 37は、他の変形例の撮像素子 Jの焦点検出画素配置を示す図で ある。図 35は、図 25に示す撮像素子 212Gの格子 110に対し、斜め 45度の直線縞 を加えた格子 113に沿って焦点検出画素を配置した撮像素子 212Jを示す。図 36は 、図 35において撮像画面 100の中心 104力も垂直方向に離れた位置にある格子の 交差点を含む領域 114を拡大した図である。水平方向には焦点検出画素 330が配 列され、垂直方向には焦点検出画素 320が配列される。さらに、右上がり 45度方向 の直線上には焦点検出画素 331が配列され、左上がり 45度方向の直線上には焦点 検出画素 341が配列される。
[0096] 焦点検出画素 331は焦点検出画素 330を反時計回り方向に 45度回転した構造と なっており、焦点検出画素 341は焦点検出画素 330を時計回り方向に 45度回転し た構造となっている。格子の交点に相当する画素位置には水平方向に配列された焦 点検出画素 330が配置される。
[0097] 図 37は、図 35において撮像画面 100の中心 104から左斜め上 45度方向に離れ た位置にある格子の交差点を含む領域 115を拡大した図である。格子の交点に相当 する画素位置には右上力 ^斜め 45度方向に配列された焦点検出画素 331が配置さ れる。他の格子交差点においても同様な配置となっており、撮像面中心と格子の交 点を結ぶ直線の方向(放射方向)に対して垂直な方向(円周方向)に近!/、方向に配 歹 IJしている焦点検出画素が配置されることになる。
[0098] 撮像素子 212Jの焦点検出画素配列によって、 4方向で像ズレ検出を行うことができ るので、被写体パターンの方向性に関わらず安定した焦点検出を行うことが可能に なる。また、撮像画面上の単位面積あたりの焦点検出画素が増加するので、特定位 置が決定された場合に、特定位置を中心としたピンポイントな領域で焦点検出を行う ことが可能になる。
[0099] 図 38、図 39は、他の変形例の撮像素子 212Kの焦点検出画素配置を示す図であ る。図 38は、図 25に示した撮像素子 212Gの格子パターン 110において、撮像画面 100の対角線方向の四隅の領域を斜め 45度の直線縞からなる格子パターン 116に 置き換えた図である。図 39は、図 38において撮像画面 100の中心 104力も左斜め 上 45度方向に離れた位置にある格子 116の交差点を含む領域 117を拡大した図で ある。格子の交点に相当する画素位置には右上力^斜め 45度方向に配列された焦 点検出画素 331が配置される。他の格子交差点においても同様な配置となっており 、撮像面中心と格子の交点を結ぶ直線の方向(放射方向)に対して垂直な方向(同 心円方向)に近い方向に配列している焦点検出画素が配置されることになる。
[0100] 撮像素子 212Kの焦点検出画素配列によって、撮像画面の対角線方向の四隅の 領域においては、撮像画面 100の中心 104に対して同心円方向で像ズレ検出が行 われるため、焦点検出光束のケラレによる焦点検出精度の低下を防止できるとともに 、斜め 45度の直線縞からなる格子 116により 2方向で像ズレ検出を行うことができる ので、被写体パターンの方向性に関わらず安定した焦点検出を行うことが可能にな る。また、図 35の焦点検出画素の配置に比較して焦点検出画素の数を少なくするこ とができるので、画像品質の低下も少ない。
[0101] 図 35、図 38に示す焦点検出画素配列の交差位置 (格子 113、 116の交差位置) においては、右上がり斜め方向に配列する焦点検出画素 331と左上力 Sり斜め方向に 配列する焦点検出画素 341のうち、焦点検出光束のケラレに対して有利な焦点検出 画素が配置されていたが、図 40に示す撮像素子 212Lのように、焦点検出画素配列 が互いに焦点検出画素の間で交差するように配置すれば、どちらの焦点検出画素 配列も交差位置で非連続にならずに配列することができる。
[0102] 図 41、図 42は、他の変形例の撮像素子 212Mの焦点検出画素配置を示す図であ る。上述した撮像素子では、撮像画素および焦点検出画素を正方稠密に配列した 例を示した力 S、撮像画素および焦点検出画素が六方稠密に配列した場合において も、本発明を適用することができる。この撮像素子 212Mの撮像画面 100では、撮像 画素および焦点検出画素が六方稠密に配列され、格子 116に沿って焦点検出画素 が配列される。格子 116は矩形の撮像画面 100の水平線方向および水平線に対し 6 0度傾いた右上がりおよび左上がりの斜め方向に等ピッチで配置された複数の直線 力もなつており、ほぼ撮像画面 100の全範囲をカバーしている。
[0103] 図 42は、図 41において撮像画面 100の中心 104から垂直方向に離れた位置にあ る格子の交差点を含む領域 117を拡大した図である。水平方向には焦点検出画素 3 30が配列され、右上がり 60度方向の直線上には焦点検出画素 351が配列され、左 上がり 60度方向の直線上には焦点検出画素 361が配列される。焦点検出画素 351 は焦点検出画素 330を反時計回り方向に 60度回転した構造となっており、焦点検出 画素 361は焦点検出画素 330を時計回り方向に 60度回転した構造となっている。格 子の交点に相当する画素位置には水平方向に配列された焦点検出画素 330が配 置され、焦点検出画素 351の配列および焦点検出画素 351の配列は、焦点検出画 素 330を含む 3画素分だけ非連続になって!/、る。
[0104] 他の格子交差点においても同様な配置となっており、撮像面中心と格子の交点を 結ぶ直線の方向(放射方向)に対して垂直な方向(円周方向)に近!/ヽ方向に配列し ている焦点検出画素が配置されることになる。
このように配置することによって、焦点検出画素の交差位置において焦点検出画素 が密集し過ぎて画素補間精度が落ち、画像品質が低下することを防止している。
[0105] 図 43、図 44は、他の変形例の撮像素子 212Nの焦点検出画素配置を示す図であ る。上述した撮像素子では、焦点検出画素はひとつの画素内に一対の光電変換部 を備えており、 1つの焦点検出画素で一対の焦点検出光束を受光している力 1つの 焦点検出画素が 1つの光電変換部を備え、 1つの焦点検出画素で一対の焦点検出 光束の一方の光束を受光するようにしても力、まわない。図 43に示す撮像素子 212N は、図 26に示す撮像素子 212Gに対応し、焦点検出画素 330a, 330bの組が焦点 検出画素 330に対応し、焦点検出画素 320a, 320bの組が焦点検出画素 320に対 応している。
[0106] 図 44(a)は焦点検出画素 330a (320a)の構成を示す。焦点検出画素 330a (320a )はマイクロレンズ 10と光電変換部 16から構成される。また、図 44(b)は焦点検出画 素 330b (320b)の構成を示す。焦点検出画素 330b (320b)はマイクロレンズ 10と 光電変換部 17から構成される。光電変換部 16, 17はマイクロレンズ 10により交換レ ンズの射出瞳に投影され、図 11に示す測距瞳 92, 93を形成する。したがって、焦点 検出画素 330a、 330bの配列により水平方向の焦点検出に用いる一対の像の出力 を得ること力 Sできる。また、焦点検出画素 320a、 320bは焦点検出画素 330a、 330b を時計方向に 90度回転したものであり、焦点検出画素 320a、 320bの配列により垂 直方向の焦点検出に用いる一対の像の出力を得ることができる。
[0107] 焦点検出画素内にひとつの光電変換部を備えることによって、撮像画素と焦点検 出画素で読み出し回路構成を同一にすることができ、回路構成の複雑化を防止する こと力 Sでさる。
[0108] 図 30に示す他の一実施の形態の撮像動作において、ステップ 220の顔検出処理 では焦点検出画素データを用いず、撮像画素データのみに基づいて顔の位置を特 定する例を示した力 ステップ 290と同様に焦点検出画素列の各画素位置の画素デ ータを焦点検出画素の周囲の撮像画素のデータに基づいて画素補間するとともに、 撮像画素のデータと画素補間データに基づいて顔の位置を特定するようにしてもよ い。このようにすれば、焦点検出画素の位置の画素データも利用できるので顔検出 の精度が向上する。
[0109] 図 30に示す他の一実施の形態の撮像動作において、ステップ 220の顔検出処理 の結果を焦点検出のために用いる例を示した力 それ以外にも露出制御やホワイト ノ ランス制御などに用いることができる。
[0110] 図 30に示す他の一実施の形態の撮像動作において、ステップ 220で撮像画面上 の人物の顔の位置を特定する例を示したが、これに限定されることはなぐ人物の位 置や人物の顔の目の位置を特定した結果を焦点検出に用いることができる。また、人 物以外でも、撮像画面上で所定の被写体や色を検出してその位置を特定するような 場合でもかまわない。
[0111] 図 30に示す他の一実施の形態の撮像動作において、ステップ 220で焦点検出画 素のデータを用いず、撮像画素のデータのみに基づいて顔検出を行っているが、同 様に撮像素子の出力を用いて露出検出、ホワイトバランス検出、ブレ検出などを行う 場合においても、焦点検出画素のデータを用いないようにすることができる。また、ス テツプ 290と同様に、焦点検出画素列の各画素位置の画素データを焦点検出画素 の周囲の撮像画素のデータに基づいて画素補間するとともに、撮像画素のデータと 画素補間データに基づいて露出検出、ホワイトバランス検出、ブレ検出などを行うよう にしてもよい。このようにすれば、焦点検出画素の位置の画素データも利用できるの で、露出検出、ホワイトバランス検出、ブレ検出などの検出精度が向上する。
[0112] 図 30に示す他の一実施の形態の撮像動作において、ステップ 220〜230では撮 像画面上で検出された顔の位置の近傍に存在する焦点検出画素のデータに基づい て焦点検出を行う例を示したが、これに限定されるものではなぐ焦点検出位置は手 動で設定することもできるし、全画面において複数の焦点検出位置で焦点検出を行 なうことあでさる。
[0113] 以上の実施の形態において、焦点検出画素が配列される格子のピッチは以下のよ うにして決定すること力 Sできる。格子ピッチが細かいと、焦点検出に用いるデータ数が 増大して焦点検出演算処理に時間がかかり、レスポンスが低下してしまうとともに、画 素補間の誤差が顕著になり、画像品質が低下してしまうので、 10画素以上の格子ピ ツチにすることが望ましい。さらに、光学系が大きくデフォーカスした場合においても、 像ズレ量を検出するためには、焦点検出画素が連続する長さ(格子のピッチ)を所定 以上確保する必要がある。例えば図 11に示す一対の測距瞳を通る一対の焦点検出 光束の重心の開き角を F10相当とした場合、 ± 5mmのデフォーカスまで検出可能と するためには、撮像画面上で焦点検出画素は 0. 5mm (5mm/ 10)の像ズレを検出 する必要がある。 [0114] 0. 5mmの像ズレに加えて共通な像部分も必要になるので、結局、撮像画面上で 焦点検出画素は lmm程度連続している必要がある。したがって、この場合格子ピッ チは lmm以上とする必要がある。反対に格子ピッチが粗すぎると、特定された顔の 位置とその位置に最も近い焦点検出画素配列の間の距離が長くなり、顔以外の背景 などに対して焦点検出を行ってしまう可能性が生じる。例えば撮像素子の撮像画面 のサイズを水平 36mm、垂直 24mmとすれば、顔を主要被写体として撮影する場合 の顔の大きさは経験的におおよそ直径 4mm以上となるので、格子ピッチは 4mm以 下にする必要がある。また、位置を特定する被写体が人物や人物の目であった場合 には、それらの撮像画面上での統計的な大きさに基づいて格子ピッチの上限を設定 する必要がある。
[0115] 上述した撮像素子では、撮像画素がべィヤー配列の色フィルタを備えた例を示し た力 色フィルタの構成や配列はこれに限定されず、補色フィルタ(緑: G、イェロー: Ye、マゼンタ: Mg,シアン: Cy)を採用してもよい。この場合にも、各色の画素の配置 密度が高い色の画素位置に 2つの焦点検出画素列の交差位置を一致させることによ つて、本発明による効果を享受することができる。
[0116] また、上述した撮像素子の焦点検出画素には色フィルタを備えていな力、つた力 撮 像画素と同色の色フィルタのうちひとつのフィルタ(たとえば緑フィルタ)を備えるよう にした場合でも、本発明を適用することができる。このようにすれば、画像データの補 間において焦点検出画素の画像データも利用することができるので、画像品質が向 上する。
[0117] 図 5、図 44に示す焦点検出画素において、光電変換部の形状を円形、半円形にし た例を示したが、光電変換部の形状はこれらに限定されず、他の形状であってもよい 。例えば、焦点検出画素の光電変換部の形状を楕円や矩形や多角形にすることも可 能である。
[0118] なお、本発明は CCDイメージセンサ、 CMOSイメージセンサのどちらに対しても適 用すること力 Sでさる。
[0119] 本発明はマイクロレンズを用いた瞳分割型位相差検出方式の撮像素子に限定され ず、 1画素に一対の光電変換部を備えた画素を有する撮像素子に適用が可能であ る。例えば偏光を利用した瞳分割型の撮像素子にも適用可能である。
[0120] また、 2つの焦点検出画素列が交差する相対的な角度は 90度に限定されず、 45 度方向でもよい。
[0121] 撮像装置は交換レンズが着脱自在にカメラボディに装着されるデジタルスチルカメ イルムスチルカメラやビデオカメラにも適用できる。携帯電話等に内蔵される小型カメ ラモジュールや監視カメラ等にも適用できる。カメラ以外の焦点検出装置ゃ測距装置 やステレオ測距装置にも適用できる。
[0122] 以上説明したように、一実施の形態とその変形例によれば、焦点検出画素位置の 画像データを周囲の撮像画素の画像データを用いて補間により求め、全体の撮像 画像を生成する場合に、高い画像品質を維持しながら 2つの焦点検出画素配列を交 差させること力 Sでさる。
また、一方の焦点検出画素配列が途切れることによる焦点検出性能の低下などの デメリットを最小にしながら、 2つの焦点検出画素配列を交差させることができる。 さらに、特殊な構造の焦点検出画素を必要とせずに、 2つの焦点検出画素配列を 交差させること力 Sでさる。
[0123] また、従来の撮像装置では撮像画面内に焦点検出領域が点在しているため、撮像 画面内の任意の位置で焦点検出を行うことができない。例えば、撮像画素の画像信 号を用いて人の顔の位置を特定し、特定した位置で焦点検出を行う場合に、特定し た位置に焦点検出領域がないと焦点検出できない。他の実施の形態とその変形例 によれば、瞳分割方式で焦点検出を行うにあたって、撮像画面に焦点検出画素を効 率的に配置することによって、撮像画面の任意の部分領域において焦点検出画素を 複数方向に略均一に分布させ、任意の部分領域において複数方向で焦点検出を可 能にするとともに、焦点検出画素の個数を必要最小限に抑えて画像品質の低下を防 止すること力 Sでさる。
[0124] 本出願は日本国特許出願 2006— 249525号(2006年 9月 14日出願)を基礎とし て、その内容は引用文としてここに組み込まれる。

Claims

請求の範囲
[1] 光学系により形成される画像を撮像するための、異なる分光感度特性を有する複 数種類の撮像画素が所定の配列にしたがって二次元状に配置された撮像素子にお いて、
前記所定の配列の一部に配置され、かつ互いに交差する複数の方向に沿った位 置にそれぞれ配置された複数の焦点検出画素で構成されるとともに、前記光学系の 焦点調節状態を検出する複数の焦点検出画素列を備え、
前記焦点検出画素列どうしが交差する位置の前記焦点検出画素は、前記所定の 配列の中の最も高密度な前記分光感度特性の前記撮像画素の位置に対応する位 置に配置されることを特徴とする撮像素子。
[2] 光学系により形成される画像を撮像するための、異なる分光感度特性を有する複 数種類の撮像画素がべィヤー配列にしたがって二次元状に配置された撮像素子に おいて、
前記べィヤー配列の一部に配置され、かつ互いに交差する複数の方向に沿った 位置にそれぞれ配置された複数の焦点検出画素で構成されるとともに、前記光学系 の焦点調節状態を検出する複数の焦点検出画素列を備え、
焦点検出画素列どうしが交差する位置の前記焦点検出画素は、前記べィヤー配列 の中の青画素および緑画素の内の一方の位置に対応する位置に配置されることを 特徴とする撮像素子。
[3] 請求項 2に記載の撮像素子において、
前記焦点検出画素列どうしが交差する位置の前記焦点検出画素は、前記べィヤー 配列の中の青画素の位置に対応する位置に配置されることを特徴とする撮像素子。
[4] 請求項 1に記載の撮像素子において、
前記所定の配列はべィヤー配列であることを特徴とする撮像素子。
[5] 請求項 1〜4のいずれか 1項に記載の撮像素子において、
前記複数の焦点検出画素列には第 1の焦点検出画素列と第 2の焦点検出画素列 が含まれ、前記第 1の焦点検出画素列を前記撮像画面の中心から画面周辺に向か う方向と垂直な方向に配列するとともに、前記第 2の焦点検出画素列を前記撮像画 面の中心から画面周辺に向力、う方向に配列し、
前記第 1の焦点検出画素列と前記第 2の焦点検出画素列とが交差する位置には、 前記第 1の焦点検出用画素列の焦点検出画素を配置することを特徴とする撮像素 子。
[6] 請求項 5に記載の撮像素子において、
前記第 1の焦点検出画素列の各焦点検出画素は前記光学系を通過する第 1の一 対の焦点検出用光束を受光するとともに、前記第 2の焦点検出画素列の各焦点検出 画素は前記光学系を通過する第 2の一対の焦点検出用光束を受光し、
前記第 1の一対の焦点検出用光束の重心間隔は、前記第 2の一対の焦点検出用 光束の重心間隔よりも広いことを特徴とする撮像素子。
[7] 請求項 5または請求項 6に記載の撮像素子において、
前記第 1の焦点検出画素列における焦点検出画素の配列ピッチを、前記第 2の焦 点検出画素列における焦点検出画素の配列ピッチよりも狭くするとともに、前記第 1 の焦点検出画素列と前記第 2の焦点検出画素列とが交差する位置には、前記第 1の 焦点検出画素列の焦点検出画素を配置することを特徴とする撮像素子。
[8] 請求項 1〜4のいずれか 1項に記載の撮像素子において、
前記撮像画素は 2次元稠密に配列されており、
前記複数の焦点検出画素列は、前記撮像画素の配列ピッチより大きな格子ピッチ を有する格子状に配置されることを特徴とする撮像素子。
[9] 請求項 8に記載の撮像素子において、
前記複数の焦点検出画素列は正方格子状に配列されることを特徴とする撮像素子
[10] 請求項 8に記載の撮像素子において、
前記複数の焦点検出画素列は、格子状に配列された焦点検出画素列の交点どう しの対角線方向に配列された焦点検出画素列を有することを特徴とする撮像素子。
[11] 請求項 8〜; 10のいずれか 1項に記載の撮像素子において、
前記焦点検出画素は互いに隣接して直線上に連続して配置されることを特徴とす る撮像素子。
[12] 請求項 11に記載の撮像素子において、
前記焦点検出画素列どうしの交差位置に、撮像面の中央を中心とした同心円の接 線方向により近い方向の前記焦点検出画素列を構成する焦点検出画素を配置する ことを特徴とする撮像素子。
[13] 請求項;!〜 12のいずれか 1項に記載の撮像素子において、
前記撮像画素および前記焦点検出画素はそれぞれ、マイクロレンズと光電変換部 を有することを特徴とする撮像素子。
[14] 請求項 1〜; 13のいずれ力、 1項に記載の撮像素子と、
前記各焦点検出画素列から出力される信号に基づいて前記光学系の焦点調節状 態を検出する焦点検出手段とを備えることを特徴とする撮像装置。
[15] 請求項 14に記載の撮像装置において、
前記焦点検出画素の近傍に配置される前記撮像画素の画像信号に基づいて、前 記焦点検出画素の位置の画像信号を補間して求める補間手段を備えることを特徴と する撮像装置。
[16] 請求項 15に記載の撮像装置において、
前記撮像素子の出力に基づいて、前記撮像素子上の特定の位置を選択する選択 手段を備え、
前記焦点検出手段は、前記選択手段により選択された位置に属する前記焦点検 出画素列の信号に基づいて、前記光学系の焦点調節状態を検出することを特徴と する撮像装置。
[17] 請求項 16に記載の撮像装置において、
前記選択手段は、前記撮像素子で得られる画像の内の人物または人物の顔また は人物の目の位置を検出することを特徴とする撮像装置。
[18] 請求項 17に記載の撮像装置において、
前記複数の焦点検出画素列は、前記撮像画素の配列ピッチより大きな格子ピッチ を有する格子状に配置され、
前記格子ピッチは、人物または人物の顔または人物の目の画面上における統計的 な平均サイズよりも小さくなるように設定されることを特徴とする撮像装置。
[19] 請求項 17に記載の撮像装置において、
前記選択手段は、前記焦点検出画素の信号を含まない前記撮像素子の出力に基 づいて前記特定の位置を選択することを特徴とする撮像装置。
[20] 請求項 17に記載の撮像装置において、
前記選択手段は、前記補間手段により求めた前記焦点検出画素の位置の画像信 号を用いて前記特定の位置を選択することを特徴とする撮像装置。
PCT/JP2007/067934 2006-09-14 2007-09-14 Imaging element and imaging device Ceased WO2008032820A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/310,393 US8049801B2 (en) 2006-09-14 2007-09-14 Image sensor and imaging apparatus
JP2008534406A JP5176959B2 (ja) 2006-09-14 2007-09-14 撮像素子および撮像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006249525 2006-09-14
JP2006-249525 2006-09-14

Publications (1)

Publication Number Publication Date
WO2008032820A1 true WO2008032820A1 (en) 2008-03-20

Family

ID=39183872

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/067934 Ceased WO2008032820A1 (en) 2006-09-14 2007-09-14 Imaging element and imaging device

Country Status (3)

Country Link
US (1) US8049801B2 (ja)
JP (1) JP5176959B2 (ja)
WO (1) WO2008032820A1 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060279A (ja) * 2007-08-30 2009-03-19 Canon Inc 撮像装置
JP2010160314A (ja) * 2009-01-08 2010-07-22 Sony Corp 撮像素子および撮像装置
WO2010095352A1 (ja) * 2009-02-18 2010-08-26 パナソニック株式会社 撮像装置
JP2010243772A (ja) * 2009-04-06 2010-10-28 Nikon Corp 撮像装置
JP2010276675A (ja) * 2009-05-26 2010-12-09 Nikon Corp 焦点調節装置およびそれを備えた撮像装置
JP2011033975A (ja) * 2009-08-05 2011-02-17 Nikon Corp 撮像装置
EP2277072A4 (en) * 2008-04-30 2011-08-31 Canon Kk IMAGE DETECTION APPARATUS
JP2011197080A (ja) * 2010-03-17 2011-10-06 Olympus Corp 撮像装置及びカメラ
WO2011126102A1 (en) * 2010-04-08 2011-10-13 Sony Corporation Image pickup apparatus, solid-state image pickup element, and image pickup method
JP2012124791A (ja) * 2010-12-10 2012-06-28 Sony Corp 撮像素子および撮像装置
JP2012181324A (ja) * 2011-03-01 2012-09-20 Nikon Corp 撮像装置
JP2012257295A (ja) * 2012-08-01 2012-12-27 Canon Inc 撮像装置
EP2340454A4 (en) * 2008-10-30 2013-03-06 Canon Kk IMAGE CAPTURE APPARATUS
US8675121B2 (en) 2008-10-30 2014-03-18 Canon Kabushiki Kaisha Camera and camera system
CN104241309A (zh) * 2014-09-19 2014-12-24 上海集成电路研发中心有限公司 一种模拟随机像素效果的cmos图像像素阵列
WO2015045375A1 (ja) * 2013-09-26 2015-04-02 株式会社ニコン 撮像素子および撮像装置
US9185317B2 (en) 2008-11-14 2015-11-10 Canon Kabushiki Kaisha Image capturing apparatus capable of storing focus detection data
US9813687B1 (en) 2016-05-23 2017-11-07 Olympus Corporation Image-capturing device, image-processing device, image-processing method, and image-processing program
JPWO2018003501A1 (ja) * 2016-06-28 2019-04-25 ソニー株式会社 固体撮像装置、電子機器、レンズ制御方法および車両
JP2023088702A (ja) * 2021-12-15 2023-06-27 キヤノン株式会社 撮像装置及びその制御方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5552214B2 (ja) * 2008-03-11 2014-07-16 キヤノン株式会社 焦点検出装置
JP5396862B2 (ja) * 2009-01-07 2014-01-22 リコーイメージング株式会社 撮像装置
JP5662667B2 (ja) * 2009-10-08 2015-02-04 キヤノン株式会社 撮像装置
JP2011221253A (ja) * 2010-04-08 2011-11-04 Sony Corp 撮像装置、固体撮像素子、撮像方法およびプログラム
US8742309B2 (en) 2011-01-28 2014-06-03 Aptina Imaging Corporation Imagers with depth sensing capabilities
JP5825817B2 (ja) * 2011-04-01 2015-12-02 キヤノン株式会社 固体撮像素子及び撮像装置
JP5473977B2 (ja) * 2011-04-14 2014-04-16 キヤノン株式会社 撮像装置およびカメラシステム
JP5526287B2 (ja) * 2011-04-28 2014-06-18 富士フイルム株式会社 撮像装置及び撮像方法
KR101777351B1 (ko) * 2011-05-16 2017-09-11 삼성전자주식회사 촬상 소자, 이를 이용한 디지털 촬영 장치, 오토 포커싱 방법, 및 상기 방법을 수행하기 위한 컴퓨터 판독가능 저장매체
JP5956782B2 (ja) * 2011-05-26 2016-07-27 キヤノン株式会社 撮像素子及び撮像装置
KR101853817B1 (ko) * 2011-07-20 2018-05-02 삼성전자주식회사 촬상 소자
JP2013025144A (ja) * 2011-07-22 2013-02-04 Nikon Corp 焦点調節装置および撮像装置
US10015471B2 (en) * 2011-08-12 2018-07-03 Semiconductor Components Industries, Llc Asymmetric angular response pixels for single sensor stereo
JP5871535B2 (ja) * 2011-09-22 2016-03-01 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP5907595B2 (ja) 2011-09-27 2016-04-26 キヤノン株式会社 撮像装置
WO2013114888A1 (ja) * 2012-02-02 2013-08-08 パナソニック株式会社 撮像装置
US9554115B2 (en) 2012-02-27 2017-01-24 Semiconductor Components Industries, Llc Imaging pixels with depth sensing capabilities
CN104365089B (zh) * 2012-06-07 2018-10-26 富士胶片株式会社 摄像装置及图像显示方法
WO2014133076A1 (ja) 2013-02-27 2014-09-04 株式会社ニコン 撮像素子および電子機器
EP2782331A1 (en) 2013-03-22 2014-09-24 Harvest Imaging bvba Image sensor with focus-detection pixel, and method for reading focus-information
EP2782332B1 (en) * 2013-03-22 2017-08-30 Harvest Imaging bvba Digital camera with focus-detection pixels used for light metering
JP2015037102A (ja) * 2013-08-12 2015-02-23 株式会社東芝 固体撮像装置
CN111787246B (zh) 2013-11-26 2023-07-14 株式会社尼康 摄像元件及摄像装置
KR102125561B1 (ko) * 2013-12-03 2020-06-22 삼성전자주식회사 촬영 장치 및 이의 제어 방법
KR102121531B1 (ko) * 2013-12-10 2020-06-10 삼성전자주식회사 초점검출 가능한 이미지 센서 제어장치 및 방법.
JP6146293B2 (ja) * 2013-12-25 2017-06-14 ソニー株式会社 制御装置、制御方法および制御システム
JP6341668B2 (ja) * 2014-01-21 2018-06-13 キヤノン株式会社 撮像装置
CN106030366B (zh) * 2014-03-18 2018-07-10 富士胶片株式会社 摄像装置及对焦控制方法
JP2015228466A (ja) 2014-06-02 2015-12-17 キヤノン株式会社 撮像装置及び撮像システム
JP6630058B2 (ja) * 2014-06-16 2020-01-15 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム
US9787889B2 (en) * 2015-02-12 2017-10-10 Semiconductor Components Industries, Llc Dynamic auto focus zones for auto focus pixel systems
JP6566734B2 (ja) * 2015-06-11 2019-08-28 キヤノン株式会社 固体撮像素子
KR102374112B1 (ko) 2015-07-15 2022-03-14 삼성전자주식회사 오토 포커싱 픽셀을 포함하는 이미지 센서, 및 이를 포함하는 이미지 처리 시스템
CN107135340A (zh) 2017-04-28 2017-09-05 广东欧珀移动通信有限公司 图像传感器、对焦控制方法、成像装置和移动终端
US10498947B2 (en) * 2017-10-30 2019-12-03 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor including light shielding layer and patterned dielectric layer
CN109816733B (zh) * 2019-01-14 2023-08-18 京东方科技集团股份有限公司 相机参数初始化方法及装置、相机参数标定方法及设备、图像采集系统
US20230165459A1 (en) * 2021-11-23 2023-06-01 Eyelation, Inc. Apparatus and method for dimensional measuring and personalizing lens selection

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292686A (ja) * 1999-04-06 2000-10-20 Olympus Optical Co Ltd 撮像装置
JP2001124984A (ja) * 1999-10-28 2001-05-11 Canon Inc 焦点検出装置と撮像装置
JP2005106994A (ja) * 2003-09-29 2005-04-21 Canon Inc 焦点検出装置、撮像装置、それらの制御方法
JP2005303409A (ja) * 2004-04-07 2005-10-27 Canon Inc 固体撮像装置
JP2006154065A (ja) * 2004-11-26 2006-06-15 Canon Inc 撮像装置及びその制御方法
JP2007065330A (ja) * 2005-08-31 2007-03-15 Canon Inc カメラ
JP2007158597A (ja) * 2005-12-02 2007-06-21 Nikon Corp 焦点検出用信号の生成機能を有する固体撮像装置、および電子カメラ
JP2007158692A (ja) * 2005-12-05 2007-06-21 Nikon Corp 固体撮像素子及びこれを用いた電子カメラ
JP2007184716A (ja) * 2006-01-05 2007-07-19 Nikon Corp 撮像素子および撮像兼焦点検出装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01216306A (ja) 1988-02-24 1989-08-30 Canon Inc 撮像手段を有した焦点検出装置
US6819360B1 (en) * 1999-04-01 2004-11-16 Olympus Corporation Image pickup element and apparatus for focusing
JP2001249265A (ja) * 2000-03-02 2001-09-14 Olympus Optical Co Ltd 測距装置
JP4581730B2 (ja) * 2005-02-15 2010-11-17 株式会社ニコン デジタルカメラ
US7711261B2 (en) * 2006-04-11 2010-05-04 Nikon Corporation Imaging device, camera and image processing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292686A (ja) * 1999-04-06 2000-10-20 Olympus Optical Co Ltd 撮像装置
JP2001124984A (ja) * 1999-10-28 2001-05-11 Canon Inc 焦点検出装置と撮像装置
JP2005106994A (ja) * 2003-09-29 2005-04-21 Canon Inc 焦点検出装置、撮像装置、それらの制御方法
JP2005303409A (ja) * 2004-04-07 2005-10-27 Canon Inc 固体撮像装置
JP2006154065A (ja) * 2004-11-26 2006-06-15 Canon Inc 撮像装置及びその制御方法
JP2007065330A (ja) * 2005-08-31 2007-03-15 Canon Inc カメラ
JP2007158597A (ja) * 2005-12-02 2007-06-21 Nikon Corp 焦点検出用信号の生成機能を有する固体撮像装置、および電子カメラ
JP2007158692A (ja) * 2005-12-05 2007-06-21 Nikon Corp 固体撮像素子及びこれを用いた電子カメラ
JP2007184716A (ja) * 2006-01-05 2007-07-19 Nikon Corp 撮像素子および撮像兼焦点検出装置

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060279A (ja) * 2007-08-30 2009-03-19 Canon Inc 撮像装置
EP2277072A4 (en) * 2008-04-30 2011-08-31 Canon Kk IMAGE DETECTION APPARATUS
US8477231B2 (en) 2008-04-30 2013-07-02 Canon Kabushiki Kaisha Image sensing apparatus
US8675121B2 (en) 2008-10-30 2014-03-18 Canon Kabushiki Kaisha Camera and camera system
US8477233B2 (en) 2008-10-30 2013-07-02 Canon Kabushiki Kaisha Image capturing apparatus
EP2340454A4 (en) * 2008-10-30 2013-03-06 Canon Kk IMAGE CAPTURE APPARATUS
US9185317B2 (en) 2008-11-14 2015-11-10 Canon Kabushiki Kaisha Image capturing apparatus capable of storing focus detection data
JP2010160314A (ja) * 2009-01-08 2010-07-22 Sony Corp 撮像素子および撮像装置
WO2010095352A1 (ja) * 2009-02-18 2010-08-26 パナソニック株式会社 撮像装置
CN102308241A (zh) * 2009-02-18 2012-01-04 松下电器产业株式会社 摄像装置
JP2010243772A (ja) * 2009-04-06 2010-10-28 Nikon Corp 撮像装置
JP2010276675A (ja) * 2009-05-26 2010-12-09 Nikon Corp 焦点調節装置およびそれを備えた撮像装置
JP2011033975A (ja) * 2009-08-05 2011-02-17 Nikon Corp 撮像装置
JP2011197080A (ja) * 2010-03-17 2011-10-06 Olympus Corp 撮像装置及びカメラ
WO2011126102A1 (en) * 2010-04-08 2011-10-13 Sony Corporation Image pickup apparatus, solid-state image pickup element, and image pickup method
JP2012124791A (ja) * 2010-12-10 2012-06-28 Sony Corp 撮像素子および撮像装置
JP2012181324A (ja) * 2011-03-01 2012-09-20 Nikon Corp 撮像装置
JP2012257295A (ja) * 2012-08-01 2012-12-27 Canon Inc 撮像装置
WO2015045375A1 (ja) * 2013-09-26 2015-04-02 株式会社ニコン 撮像素子および撮像装置
CN105684436A (zh) * 2013-09-26 2016-06-15 株式会社尼康 摄像元件以及摄像装置
CN104241309A (zh) * 2014-09-19 2014-12-24 上海集成电路研发中心有限公司 一种模拟随机像素效果的cmos图像像素阵列
CN104241309B (zh) * 2014-09-19 2018-01-02 上海集成电路研发中心有限公司 一种模拟随机像素效果的cmos图像像素阵列
US9813687B1 (en) 2016-05-23 2017-11-07 Olympus Corporation Image-capturing device, image-processing device, image-processing method, and image-processing program
JP6230760B1 (ja) * 2016-05-23 2017-11-15 オリンパス株式会社 撮像装置、画像処理装置、画像処理方法および画像処理プログラム
WO2017203557A1 (ja) * 2016-05-23 2017-11-30 オリンパス株式会社 撮像装置、画像処理装置、画像処理方法および画像処理プログラム
JPWO2018003501A1 (ja) * 2016-06-28 2019-04-25 ソニー株式会社 固体撮像装置、電子機器、レンズ制御方法および車両
JP2023088702A (ja) * 2021-12-15 2023-06-27 キヤノン株式会社 撮像装置及びその制御方法

Also Published As

Publication number Publication date
JPWO2008032820A1 (ja) 2010-01-28
US8049801B2 (en) 2011-11-01
JP5176959B2 (ja) 2013-04-03
US20090278966A1 (en) 2009-11-12

Similar Documents

Publication Publication Date Title
JP5176959B2 (ja) 撮像素子および撮像装置
JP4961993B2 (ja) 撮像素子、焦点検出装置および撮像装置
JP5163068B2 (ja) 撮像装置
JP5012495B2 (ja) 撮像素子、焦点検出装置、焦点調節装置および撮像装置
JP4807131B2 (ja) 撮像素子および撮像装置
CN107249097B (zh) 摄像设备及其控制方法
JP5374862B2 (ja) 焦点検出装置および撮像装置
JP5629832B2 (ja) 撮像装置及び位相差画素の感度比算出方法
CN102449548B (zh) 摄像设备
JP4826507B2 (ja) 焦点検出装置および撮像装置
JP4983271B2 (ja) 撮像装置
JP5619294B2 (ja) 撮像装置及び合焦用パラメータ値算出方法
JP4858008B2 (ja) 焦点検出装置、焦点検出方法および撮像装置
JP2009141390A (ja) 撮像素子および撮像装置
JP5211590B2 (ja) 撮像素子および焦点検出装置
JP4858179B2 (ja) 焦点検出装置および撮像装置
JP5067148B2 (ja) 撮像素子、焦点検出装置および撮像装置
JP6642628B2 (ja) 撮像素子および撮像装置
JP5133533B2 (ja) 撮像装置
JP5028930B2 (ja) 焦点検出装置および撮像装置
JP5228777B2 (ja) 焦点検出装置および撮像装置
JP5407314B2 (ja) 焦点検出装置および撮像装置
JP2009162845A (ja) 撮像素子、焦点検出装置および撮像装置
JP6349624B2 (ja) 撮像素子および焦点検出装置
JP5476702B2 (ja) 撮像素子および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07807338

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008534406

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12310393

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07807338

Country of ref document: EP

Kind code of ref document: A1