WO2014041733A1 - 撮像装置およびフォーカス制御方法 - Google Patents
撮像装置およびフォーカス制御方法 Download PDFInfo
- Publication number
- WO2014041733A1 WO2014041733A1 PCT/JP2013/004227 JP2013004227W WO2014041733A1 WO 2014041733 A1 WO2014041733 A1 WO 2014041733A1 JP 2013004227 W JP2013004227 W JP 2013004227W WO 2014041733 A1 WO2014041733 A1 WO 2014041733A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- defocus amount
- focus detection
- focus
- area
- image plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/704—Pixels specially adapted for focusing, e.g. phase difference pixel sets
Definitions
- This technology relates to an imaging apparatus and a focus control method.
- Patent Document 2 a method of mounting both the phase difference detection dedicated module and the phase difference detection imaging sensor so as to obtain the respective merits using this technology has been proposed.
- the present technology has been made in view of such problems, and an object of the present technology is to provide an imaging apparatus and a focus control method that can keep following a target subject.
- the first technique has a plurality of first focus detection areas in a shooting screen, and detects a first defocus amount in the first focus detection area.
- a defocus amount selection unit that selects which of the first defocus amount detected by the unit and the second defocus amount detected by the second focus detection unit is to be used, and a defocus amount selection unit
- An imaging apparatus including a focus control unit that performs focus control by moving a focus lens based on a selected defocus amount.
- the second technique also includes a first defocus amount detected by a first focus detection unit having a plurality of first focus detection areas in the shooting screen, and a plurality of second focal points in the shooting screen. Focus that performs focus control by selecting which of the second defocus amounts detected by the second focus detection unit having the detection area is to be used and moving the focus lens based on the selected defocus amount It is a control method.
- FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to the first embodiment of the present technology.
- FIG. 2 is a schematic cross-sectional view illustrating a schematic configuration of the imaging apparatus.
- FIG. 3 is a diagram illustrating a configuration of the image sensor.
- FIG. 4 is a diagram showing the arrangement of the image plane AF area and the dedicated AF area on the shooting screen.
- FIG. 5 is a diagram for explaining the configuration of the image plane AF area.
- FIG. 6 is a diagram for explaining the configuration of the image plane AF area.
- FIG. 7A, FIG. 7B, FIG. 7C, and FIG. 7D are diagrams for explaining the outline of the processing in the first embodiment.
- FIG. 8D are diagrams for explaining the outline of processing in the first embodiment.
- FIG. 9 is a diagram for explaining the outline of the processing in the first embodiment.
- FIG. 10 is an overall flowchart of processing in the first embodiment.
- FIG. 11 is a flowchart of the defocus amount selection process in the first embodiment.
- FIG. 12 is a flowchart of the stabilization process.
- FIG. 13 is a flowchart of image plane defocus amount determination processing according to the first embodiment.
- FIG. 14 is a flowchart of the previously determined image plane defocus amount determination process.
- FIG. 15 is a flowchart of the image plane defocus amount correction process.
- FIG. 16 is a flowchart of image plane defocus amount correction processing.
- FIG. 17 is a block diagram illustrating a configuration of an imaging apparatus according to the second embodiment of the present technology.
- FIG. 18A, FIG. 18B, FIG. 18C, and FIG. 18D are diagrams for describing a first example of an outline of processing in the second embodiment.
- FIG. 19A, FIG. 19B, FIG. 19C, and FIG. 19D are diagrams for explaining a second example of the outline of the processing in the second embodiment.
- FIG. 20 is a flowchart of the defocus amount selection process according to the first embodiment.
- FIG. 21 is a flowchart of the defocus amount selection process in the first embodiment.
- FIG. 22 is a flowchart of an image plane defocus amount determination process in the second embodiment.
- First Embodiment> [1-1. Configuration of imaging device] [1-2. Overview of processing] [1-3. Defocus amount selection process] [1-4. Image plane defocus amount determination process] [1-5. Image surface defocus correction processing] ⁇ 2.
- Second Embodiment> [2-1. Configuration of imaging device] [2-2. Overview of processing] [2-3. Defocus amount selection process] ⁇ 3. Modification>
- FIG. 1 is a diagram illustrating a block configuration of the imaging apparatus 1000.
- FIG. 2 is a schematic cross-sectional view illustrating a schematic configuration of the imaging apparatus 1000.
- the imaging apparatus 1000 includes an optical imaging system 1011, a dedicated AF sensor 1020, an imaging element 1030, an image plane AF sensor 1031, a preprocessing circuit 1040, a camera processing circuit 1050, an image memory 1060, a control unit 1070, and a graphic I / F (Interface). 1080, a display unit 1090, an input unit 1100, an R / W (reader / writer) 1110, and a storage medium 1120.
- the control unit functions as a defocus amount calculation unit 1071, a defocus amount selection unit 1072, a defocus amount determination unit 1073, a defocus amount correction unit 1074, and a focus control unit 1075.
- the optical imaging system 1011 includes a photographing lens 1011 (including a focus lens, a zoom lens, and the like) for condensing light from a subject on the imaging element 1030, a lens driving mechanism 1012 that performs focus adjustment by moving the focus lens, and a shutter. It consists of a mechanism and an iris mechanism. These are driven based on control signals from the control unit 1070 and the focus control unit 1075.
- the lens driving mechanism 1012 realizes the AF operation by moving the photographing lens 1011 along the optical axis direction by an amount corresponding to the defocus amount supplied from the focus control unit 1075.
- the optical image of the subject obtained through the optical imaging system 1011 is formed on an imaging element 1030 as an imaging device.
- the dedicated AF sensor 1020 is an autofocus dedicated sensor such as a phase difference detection method or a contrast AF method.
- the subject light collected by the photographing lens 1011 is incident on the dedicated AF sensor 1020 by being reflected by the semi-transmissive mirror.
- the focus detection signal detected by the dedicated AF sensor 1020 is supplied to the defocus amount calculation unit 1071.
- the dedicated AF sensor 1020 corresponds to the first focus detection unit in the claims. Therefore, the defocus amount obtained by focus detection of the dedicated AF sensor 1020 is the first defocus amount in the claims.
- the image sensor 1030 has R (Red) pixels, G (Green) pixels, and B (Blue) pixels, which are normal imaging pixels, and a phase difference detection pixel that performs phase difference focus detection.
- Each pixel constituting the image sensor 1030 photoelectrically converts incident light from a subject to convert it into a charge amount, and outputs a pixel signal. Then, the image sensor 1030 finally outputs an image signal including pixel signals to the preprocessing circuit 1040.
- a CCD Charge-Coupled Device
- CMOS Complementary Metal-Oxide Semiconductor
- the image plane AF sensor 1031 is an autofocus sensor including a plurality of phase difference detection pixels.
- the focus detection signal detected by the image plane AF sensor 1031 is supplied to the defocus amount calculation unit 1071.
- a specific configuration of the image plane AF sensor 1031 will be described later.
- the image plane AF sensor 1031 corresponds to the second focus detection unit in the claims. Accordingly, the defocus amount obtained by focus detection of the image plane AF sensor 1031 is the second defocus amount in the claims.
- the pre-processing circuit 1040 performs a sample hold or the like on the image signal output from the image sensor 1030 so as to maintain a good S / N (Signal / Noise) ratio by CDS (Correlated Double Sampling) processing. Further, the gain is controlled by AGC (Auto-Gain-Control) processing, A / D (Analog / Digital) conversion is performed, and a digital image signal is output.
- AGC Auto-Gain-Control
- a / D Analog / Digital
- the camera processing circuit 1050 performs signal processing such as white balance adjustment processing, color correction processing, gamma correction processing, Y / C conversion processing, and AE (Auto Exposure) processing on the image signal from the preprocessing circuit 1040.
- signal processing such as white balance adjustment processing, color correction processing, gamma correction processing, Y / C conversion processing, and AE (Auto Exposure) processing on the image signal from the preprocessing circuit 1040.
- the image memory 1060 is a volatile memory, for example, a buffer memory composed of DRAM (Dynamic Random Access Memory), and temporarily stores image data subjected to predetermined processing by the preprocessing circuit 1040 and the camera processing circuit 1050. It is something to store.
- DRAM Dynamic Random Access Memory
- the control unit 1070 includes, for example, a CPU, a RAM, a ROM, and the like.
- the ROM stores a program that is read and operated by the CPU.
- the RAM is used as a work memory for the CPU.
- the CPU controls the entire imaging apparatus 1000 by executing various processes in accordance with programs stored in the ROM and issuing commands.
- the control unit 1070 functions as a defocus amount calculation unit 1071, a defocus amount selection unit 1072, a defocus amount determination unit 1073, a defocus amount correction unit 1074, and a focus control unit 1075 by executing a predetermined program.
- Each of these units may be realized not only by a program but also as a dedicated device by hardware having each function. In that case, the imaging apparatus 1000 includes the hardware.
- the defocus amount calculation unit 1071 calculates a defocus amount representing the amount of deviation from the focus based on the phase difference detection signal acquired by the dedicated AF sensor 1020 or the image plane AF sensor 1031.
- the defocus amount selection unit 1072 obtains a defocus amount obtained from the detection result of the dedicated AF sensor 1020 (hereinafter referred to as a dedicated defocus amount) and a defocus amount obtained from the focus detection result of the image plane AF sensor 1031 ( Hereinafter, it is referred to as an image plane defocus amount) to select which of the focus control is performed, and a process to be adopted is performed. Details of processing performed by the defocus amount selection unit 1072 will be described later.
- the defocus amount determination unit 1073 performs a process of determining the defocus amount for each image plane AF area based on the image plane defocus amount calculated from the focus detection result of the image plane AF sensor. Details of the processing of the defocus amount determination unit 1073 will be described later.
- the defocus amount correction unit 1074 performs an image plane defocus amount correction process. Details of processing performed by the defocus amount correction unit 1074 will be described later.
- the focus control unit 1075 controls the lens driving mechanism 1012 of the optical imaging system 1010 based on the adopted defocus amount, and performs focus adjustment processing.
- the graphic I / F 1080 generates an image signal to be displayed on the display unit 1090 from the image signal supplied from the control unit 1070 and supplies the signal to the display unit 1090 to display an image.
- the display unit 1090 is a display unit configured by, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro Luminescence) panel, or the like. Display unit 1090 displays a through image being captured, an image recorded in storage medium 1120, and the like.
- the input unit 1100 includes, for example, a power button for switching power on / off, a release button for instructing start of recording of a captured image, an operator for zoom adjustment, and a touch screen configured integrally with a display unit 1090. Etc.
- a control signal corresponding to the input is generated and output to the control unit 1070. Then, the control unit 1070 performs arithmetic processing and control corresponding to the control signal.
- the R / W 1110 is an interface to which a recording medium 22 for recording image data generated by imaging is connected.
- the R / W 1110 writes the data supplied from the control unit 1070 to the storage medium 1120, and outputs the data read from the storage medium 1120 to the control unit 1070.
- the storage medium 1120 is, for example, a large-capacity storage medium 1120 such as a hard disk, a memory stick (registered trademark of Sony Corporation), and an SD memory card.
- the image is stored in a compressed state based on a standard such as JPEG. Further, EXIF (Exchangeable Image File Format) data including additional information such as information relating to the saved image and imaging date and time is also stored in association with the image.
- EXIF Exchangeable Image File Format
- signals that are received and photoelectrically converted by the image sensor 1030 are sequentially supplied to the preprocessing circuit 1040.
- the input signal is subjected to CDS processing, AGC processing, and the like, and further converted into an image signal.
- the camera processing circuit 1050 performs image quality correction processing on the image signal supplied from the preprocessing circuit 1040 and supplies the image signal to the graphic I / F 1080 via the control unit 1070 as a camera-through image signal. As a result, the camera through image is displayed on the display unit 1090. The user can adjust the angle of view by looking at the through image displayed on the display unit 1090.
- the control unit 1070 outputs a control signal to the optical imaging system 1011101 to operate the shutters constituting the optical imaging system 1011101.
- the image sensor 1030 outputs an image signal for one frame.
- the camera processing circuit 1050 performs image quality correction processing on the image signal for one frame supplied from the image sensor 1030 via the preprocessing circuit 1040, and supplies the processed image signal to the control unit 1070.
- the control unit 1070 compresses and encodes the input image signal and supplies the generated encoded data to the R / W 1110. As a result, the captured still image data file is stored in the storage medium 1120.
- the control unit 1070 receives the selected still image file from the storage medium 1120 via the R / W 1110 in response to an operation input from the input unit 1100. Read. The read image file is subjected to decompression decoding processing. Then, the decoded image signal is supplied to the graphic I / F 1080 via the control unit 1070. As a result, the still image stored in the storage medium 1120 is displayed on the display unit 1090.
- FIG. 3 is a diagram illustrating an arrangement of normal pixels and phase difference detection pixels in the image sensor 1030.
- R is an R (Red) pixel
- G is a G (Green) pixel
- B is a B (Blue) pixel, and each indicates a normal imaging pixel.
- P1 indicates a first phase difference detection pixel
- P2 indicates a second phase difference detection pixel.
- the phase difference detection pixels have a pair of P1 and P2, and perform pupil division of the photographing lens 1011.
- the phase difference detection pixels P1 and P2 have different optical characteristics from normal imaging pixels.
- the G pixel is a phase difference detection pixel. This is because there are twice as many G pixels as there are R pixels and B pixels.
- the phase difference detection pixel is not limited to the G pixel.
- the imaging element 1030 has a phase difference detection pixel in addition to the normal pixel, and the imaging device 1000 can perform a so-called image plane phase difference AF (Auto-Focus) by an output from the phase difference detection pixel. It is.
- image plane phase difference AF Auto-Focus
- FIG. 4 shows an AF area (hereinafter referred to as a dedicated AF area) in the shooting screen by the dedicated AF sensor 1020 and an AF area (hereinafter referred to as an image plane AF area) in the shooting screen by the image plane AF sensor 1031.
- a dedicated AF area corresponds to the first focus detection area in the claims
- the image plane AF area corresponds to the second focus detection area in the claims.
- a dedicated AF area is indicated by a square frame. As can be seen from FIG. 4, the dedicated AF area is narrower than the image plane AF area, and is concentrated near the center.
- the dedicated AF sensor 1020 can perform focus detection with higher accuracy than the image plane AF sensor 1031.
- the image plane AF area is indicated by a cross. As can be seen from FIG. 4, the image plane AF area extends over a wide range, and the subject can be captured over a wide range.
- the dedicated AF sensor 1020 may not be able to arrange the AF areas uniformly at equal intervals for convenience of arrangement with a dedicated optical system. Therefore, when comparing the detection results of the dedicated AF area and the image plane AF area as in the present technology, it is more convenient to align the positions of the two AF areas. Therefore, as shown in FIG. 4, the image plane AF areas are unevenly arranged so that the position of the image plane AF area matches the position of the dedicated AF area.
- the phase difference detection pixels are embedded between the image pickup elements 1030 so as not to affect the photographed image.
- a set of elements P and Q in the figure
- the phase difference pixel lines are embedded every several lines.
- an AF area is set with a plurality of phase difference detection pixels as a set (for example, a rectangular frame with bold lines in FIG. 5), and focus detection is performed for each area. Perform the operation. Therefore, by shifting the AF area setting as shown in FIG. 6, the AF areas can be arranged unevenly as shown in FIG.
- the arrangement of the AF area can be made non-uniform by the processing in the software as described above, the AF area is made non-uniform by making the arrangement of the phase difference detection pixels on the image sensor 1030 non-uniform. It is also possible.
- FIGS. 7 to 9 show the dedicated AF area in the shooting screen, the image plane AF area in the shooting screen, and the subject to be tracked by autofocus.
- a broken-line rectangle indicates a dedicated AF area by the dedicated AF sensor 1020
- a broken-line cross indicates an image plane AF area by the image plane AF sensor 1031.
- FIG. 7A shows a state where no subject exists and autofocus is not performed.
- the defocus amount is calculated from the focus detection result of the dedicated AF sensor 1020, and the defocus amount is obtained.
- the focus is adjusted to the closest subject (hereinafter referred to as the closest subject).
- the photographing lens 1011 is driven based on the defocus amount, and the focus of the photographing lens 1011 is adjusted, thereby focusing on the closest subject.
- the AF area in which the closest subject is in focus is represented by a solid line.
- FIG. 7C shows a case where the subject moves after focusing on the closest subject. Even in this case, using the defocus amount calculated from the focus detection results of the dedicated AF sensor 1020 and the image plane AF sensor 1031, the subject closest to the current focus position (the subject with the smallest defocus amount) is used. Adjust the focus so that the focus is kept on.
- the dedicated AF area and the image plane AF area where the closest subject is in focus are both represented by solid lines.
- FIG. 7D shows a case where the subject moves and moves out of the AF area of the dedicated AF sensor 1020.
- the defocus amount in the image plane AF sensor 1031 is used to keep focusing on the subject with the smallest defocus amount. Therefore, the focus is not lost from the subject.
- the AF area in which the subject is focused is represented by a solid line.
- the defocus amount correction unit performs processing for increasing the defocus amount accuracy. Details of the processing will be described later.
- FIG. 8A shows a case where the subject further moves and deviates from both the AF areas of the dedicated AF sensor 1020 and the image plane AF sensor 1031.
- the focus adjustment process is stopped for a predetermined time at the final focus position, and the process waits until the subject is captured by the dedicated AF sensor 1020 again.
- the dedicated AF sensor 1020 does not capture a subject within a predetermined defocus amount even after a predetermined time for stopping the focus adjustment, as shown in FIG. 8B, the defocus amount of the dedicated AF sensor 1020 is minimum.
- the focus adjustment is performed so as to focus on another subject. Thereby, the subject to be tracked is changed.
- the AF area where the subject is focused is indicated by a solid line.
- the subject to be tracked is changed, as shown in FIG. 8C, even if the subject that was previously focused and tracked again falls within the AF area of the dedicated AF sensor 1020, the subject after the change is focused. Adjust the focus to match.
- the AF instruction input by the user is once canceled (for example, the shutter is half-pressed), and the autofocus process is stopped. Then, as shown in FIG. 8D, no subject is in focus.
- focus adjustment is performed so that the closest subject is focused as shown in FIG.
- the dedicated AF sensor 1020 and the image plane AF sensor 1031 in combination, it is possible to follow the subject more accurately and in focus.
- FIG. 10 is an overall flowchart performed by the imaging apparatus 1000 in order to perform the processing shown in FIGS.
- step S1 the defocus amount calculation unit 1071 calculates the defocus amount.
- the defocus amount is calculated based on the focus detection result of the image plane AF sensor 1031 and the focus detection result of the dedicated AF sensor 1020. That is, the defocus amount based on the focus detection result of the image plane AF sensor 1031 and the defocus amount based on the focus detection result of the dedicated AF sensor 1020 are calculated.
- the defocus amount selection unit 1072 performs defocus amount selection processing.
- the defocus amount selection processing is processing for selecting which of the defocus amount by the image plane AF sensor 1031 and the defocus amount by the dedicated AF sensor 1020 is used as the defocus amount used for focus control. Details of the defocus amount selection processing will be described later.
- step S3 the focus control unit 1075 performs drive control of the focus lens based on the defocus amount selected by the defocus selection process. Thereby, focus control is performed.
- the focus determination process in step S4 is a process of confirming whether the subject desired by the user is in focus by the focus adjustment process. In the imaging apparatus 1000, the process is repeated as long as the user inputs an AF instruction (for example, half-pressing the shutter).
- step S101 it is determined whether or not the focus detection result of the image plane AF sensor 1031 is valid. This determination is performed based on, for example, the setting status of the user with respect to the imaging apparatus 1000. The determination based on the setting status is, for example, when the imaging apparatus 1000 has specifications that allow selection of an AF mode in which the image plane AF sensor 1031 and the dedicated AF sensor 1020 are used together and an AF mode in which only the dedicated AF sensor 1020 is selected. This determination is made by confirming which mode the user has selected.
- the detection result of the image plane AF sensor 1031 is determined to be valid.
- the AF mode is only for the dedicated AF sensor 1020, the focus detection result of the image plane AF sensor 1031 is not valid. It is determined that there is no.
- the determination in step S101 may be performed based on whether or not the detection result of the image plane AF sensor 1031 can be used at the exposure timing, for example.
- the exposure timing of the image plane AF sensor 1031 is not synchronized with the dedicated AF sensor 1020 because it is subject to restrictions on readout of imaging. Therefore, the detection timing (exposure end timing) of the image plane AF sensor 1031 is acquired at the time when the exposure of the dedicated AF sensor 1020 is completed. If the exposure timing is greatly deviated, the focus detection result of the image plane AF sensor 1031 is obtained. Avoid hiring.
- the determination in step S101 is performed and the detection result of the image plane AF sensor 1031 is not valid, the process proceeds to step S102 (No in step S101).
- step S102 the closest defocus amount calculated from the detection results of the plurality of dedicated AF areas is selected as the defocus amount used for focus control (hereinafter, the defocus amount to be selected). Is referred to as a selected defocus amount). For example, as shown in FIG. 4, when there are 11 AF areas by the dedicated AF sensor 1020, the closest defocus amount among the 11 defocus amounts is set as the selected defocus amount.
- step S101 If it is determined in step S101 that the detection result of the image plane AF sensor 1031 is valid, the process proceeds to step S103 (Yes in step S101).
- step S103 an image plane defocus amount determination process is performed.
- the image plane defocus amount determination process is a process of calculating a defocus amount (hereinafter referred to as an image plane defocus amount) for each of a plurality of image plane AF areas and determining the image plane defocus amount. Details of the image plane defocus amount determination processing will be described later.
- step S104 it is checked in step S104 whether the imaging apparatus 1000 is in the closest priority mode.
- the closest priority mode is a mode that operates so as to focus on the closest subject in all the focus areas.
- the dedicated defocus amount the closest value in the defocus amount of the dedicated AF area
- step S106 the closest value in the defocus amount is selected according to the mode.
- step S106 it is determined whether or not the dedicated defocus amount obtained by the dedicated AF sensor 1020 is equal to or less than a first threshold that is a predetermined threshold. This determination is made for all dedicated defocus amounts. If the dedicated defocus amount is equal to or smaller than the first threshold value, the process proceeds to step S107 (Yes in step S106), and the smallest one of the dedicated defocus amounts obtained for each of the plurality of dedicated AF areas is selected. Select as the focus amount.
- step S108 it is determined whether the defocus amount obtained by the image plane AF sensor 1031 is equal to or smaller than a second threshold that is a predetermined threshold. If the defocus amount is equal to or smaller than the second threshold value, the process proceeds to step S109 (Yes in step S108), and the smallest one is selected from the image plane defocus amounts obtained for each of the plurality of image plane AF areas. Selected as defocus amount.
- step S108 if it is determined in step S108 that the defocus amount of the image plane AF sensor 1031 is greater than or equal to the second threshold, the process proceeds to step S110 (No in step S108).
- step S110 the smallest defocus amount obtained from each of the plurality of dedicated AF areas is selected as the selected defocus amount.
- stabilization processing is performed in step S111.
- the stabilization process is a process that adopts the defocus amount as it is only when the selected defocus amount does not change significantly. As a result, it is possible to stabilize the focus control without drastically changing the defocus amount.
- step S201 it is determined whether or not the selected defocus amount is a value within a predetermined reference range. If the defocus amount is within the reference range, the process proceeds to step S202, and the count value is set to zero. This count value will be described later.
- step S203 the selected defocus amount is adopted as the defocus amount used for focus control. By this step S203, the defocus amount used for focus control is determined. The adopted defocus value is supplied to the focus control unit 1075.
- step S201 If it is determined in step S201 that the selected defocus amount is not within the reference range, the process proceeds to step S204 (No in step S201). In step S204, it is confirmed whether a defocus amount is obtained on an object (for example, a human face). When the defocus amount is obtained on the object, the process proceeds to step S203 (Yes in step S204), and the selected defocus amount is adopted as the defocus amount used for focus control.
- step S204 it is confirmed whether a defocus amount is obtained on an object (for example, a human face).
- the process proceeds to step S203 (Yes in step S204), and the selected defocus amount is adopted as the defocus amount used for focus control.
- step S205 determines whether or not the imaging apparatus 1000 is in the closest priority mode. If the imaging apparatus 1000 is in the closest priority mode, the process proceeds to step S203 (Yes in step S205), and the selected defocus amount is adopted as the defocus amount used for focus control.
- step S205 When it is confirmed in step S205 that the imaging apparatus 1000 is not in the closest priority mode, the process proceeds to step S406 (No in step S405), and it is determined whether or not the subject is a moving object. Whether or not the subject is a moving object can be determined using a known moving object detection technique. If the subject is a moving object, the process proceeds to step S203 (Yes in step S206), and the selected defocus amount is adopted as the defocus amount used for focus control.
- step S207 it is confirmed whether or not the count value is greater than or equal to a third threshold value. If the count value is greater than or equal to the third threshold, the process proceeds to step S203 (Yes in step S207), and the selected defocus amount is adopted as the defocus amount used for focus control.
- step S208 the process proceeds to step S208 (No in step S207), and 1 is added to the count value.
- step S209 the selected defocus amount is not adopted, and as a result, focus control by driving the focus lens based on the defocus amount is not performed.
- step S201 to step S206 when all the determinations from step S201 to step S206 are No, the defocus amount is not within the reference, the defocus amount is not detected on the object, and the closest priority mode is not set. This is the case when it is not a moving object. In this case, focus control is not performed until the count value becomes equal to or greater than the third threshold value. Accordingly, it is possible to realize a waiting state in which the focus control is in a pause state until the count value becomes equal to or greater than the third threshold value. In addition, since focus control is performed based on the defocus amount only when the defocus amount is within the range, it is possible to prevent the adopted defocus amount from greatly fluctuating.
- the count value is less than or equal to the third threshold value, 1 is added to the count value in step S208. If the count value becomes greater than or equal to the third threshold value, defocus using the selected defocus amount for focus control in step S203. Adopt as a quantity. Therefore, the length of the waiting state can be adjusted by setting the threshold value.
- the image plane defocus amount determination process is performed by the defocus amount determination unit 1073.
- the image plane defocus amount determination process is a process for determining the defocus amount for each image plane AF area from the focus detection result of the image plane AF sensor 1031.
- step S301 the maximum value is substituted for the image plane defocus amount.
- Substituting the maximum value for the image plane defocus amount corresponds to initialization.
- the image plane defocus amount is defined as 16-bit signed data.
- the image plane defocus amount into which the maximum value is substituted is compared when determining the magnitude of the image plane defocus amount obtained for each image plane AF area, and is therefore referred to as a comparison image plane defocus amount. .
- This variable i takes a value from 1 to the maximum number of image plane AF areas. Therefore, for example, when there are 100 image plane AF areas, the image plane AF areas are numbered from 1 to 100, and the variable i takes a value from 1 to 100.
- the image plane defocus amount determination process is performed for all the image plane AF areas by looping the processes of subsequent steps S303 to S306.
- step S303 whether or not the contrast is low is determined by checking whether or not the luminance value is equal to or greater than a predetermined value in the image plane AF area corresponding to the variable i to be processed. Is called. If it is determined that the contrast is not low, the process proceeds to step S304 (No in step S303).
- step S304 a comparison determination is made between the absolute value of the comparison image plane defocus amount and the absolute value of the image plane defocus amount in the image plane AF area corresponding to the variable i.
- the process proceeds to step S305 (Yes in step S304).
- step S305 is not performed and step S306 is performed. (No in step S304). If it is determined in step S303 that the contrast is low, the process proceeds to step S306 without performing the process in step S305 (Yes in step S303). In this case, since the process of step S305 is not performed, the image plane defocus amount is not determined.
- step S306 it is determined whether or not the variable i has reached the number of image plane AF areas. If the variable i has not reached the number of image plane AF areas, the process proceeds to step S302 (No in step S306). Steps S302 to S306 are repeated until the variable i reaches the number of image plane AF areas. As a result, the processing from step S302 to step S306 is performed for all image plane AF areas.
- step S307 a previously determined image plane defocus amount determination process is performed.
- the previously determined image plane defocus amount determination processing is the image plane defocus amount determined in the previous process when the image plane defocus amount for each image plane AF area is equal to or less than a predetermined amount. This is a process for preventing the focus from changing finely by continuously determining the focus amount as the image plane defocus amount.
- step S401 it is determined whether or not the previously determined image plane defocus amount is equal to or less than a fourth threshold value which is a predetermined threshold value. If the image plane defocus amount is equal to or smaller than the fourth threshold value, the process proceeds to step S402 (Yes in step S401). In step S402, the image plane defocus amount determined last time is determined again as a new image plane defocus amount.
- step S401 determines whether the image plane defocus amount is greater than or equal to the fourth threshold. If it is determined in step S401 that the image plane defocus amount is greater than or equal to the fourth threshold, the process proceeds to step S403 (No in step S401). In step S403, the defocus amount of the image plane AF area around the image plane AF area where the previously determined image plane defocus amount is obtained is calculated.
- the peripheral area is, for example, eight image plane AF areas around the image plane AF area where the previously determined defocus amount is calculated, four areas on the top, bottom, left, and right.
- step S404 it is confirmed whether the defocus amount has been calculated for all of the image plane AF areas around the image plane AF area.
- step S403 and step S404 are repeated until the image plane defocus amount of the entire peripheral image plane AF area is calculated (No in step S404).
- step S405 it is determined whether or not the minimum value of the defocus amounts in all peripheral areas is within the fourth threshold value. If it is within the fourth threshold value, the process proceeds to step S406 (step S305). Yes).
- step S406 the smallest defocus amount in the entire peripheral area is determined as the image plane defocus amount. This is because, when the defocus amount of the image plane AF area determined last time is equal to or larger than the threshold value, the defocus amount of the peripheral image plane AF area corresponding to the movement destination of the subject is determined as the image plane. It is to adopt as a defocus amount.
- step S405 If it is determined in step S405 that the minimum value of the defocus amounts of all the surrounding areas is not within the fourth threshold value, it is determined not by the previously adopted image plane defocus amount but by the processing of the flowchart of FIG.
- the image plane defocus amount is determined as it is as the image plane defocus amount (No in step S405).
- the defocus amount obtained by the dedicated AF sensor 1020 or the defocus amount obtained by the image plane AF sensor 1031 is selected for focus control. This makes it possible to achieve both autofocus over a wide range by the image plane AF sensor 1031 and high-precision autofocus by the image plane AF sensor 1031.
- FIG. 7D when the subject is out of the dedicated AF area and positioned on the image plane AF area, the image plane defocus amount is corrected by correcting the image plane defocus amount.
- the process to raise is demonstrated.
- 15 and 16 are flowcharts showing the flow of the image plane focus correction process.
- the image plane defocus amount is corrected based on the difference between the defocus amount obtained by the dedicated AF sensor 1020 and the defocus amount obtained by the image plane AF sensor 1031.
- the image plane focus amount correction process is performed by the defocus amount correction unit 1074.
- step S501 focus detection is performed by each of the dedicated AF sensor 1020 and the image plane AF sensor 1031.
- step S502 it is determined whether or not the user's target subject (main subject) in the subject is in focus (whether the subject to be tracked has been determined). If the main subject is not in focus, the process proceeds to step S503 (Yes in step S502).
- step S503 whether or not focus detection has been performed by the dedicated AF sensor 1020 is confirmed. If focus detection has been performed by the dedicated AF sensor 1020, the process proceeds to step S504, and AF control is performed based on the defocus amount obtained by focus detection by the dedicated AF sensor 1020. As long as focus detection is performed by the dedicated AF sensor 1020, AF control is performed using the defocus amount obtained by the dedicated AF sensor 1020 in step S504.
- the AF control in step S504 corresponds to the AF control process in step S3 in the flowchart of FIG.
- step S503 processing when AF is impossible is performed.
- focus detection is not performed by the dedicated AF sensor 1020 and AF control is disabled, for example, the release button of the imaging apparatus 1000 is disabled and the shooting is disabled. The invalidation of the release button may be canceled at the time when the focus is detected by the dedicated AF sensor 1020 thereafter.
- step S506 If it is determined in step S502 that the user in the subject has focused on the target subject, the process proceeds to step S506 (Yes in step S502). In step S503, it is confirmed whether focus detection has been performed by the dedicated AF sensor 1020 or the image plane AF sensor 1031. If neither the dedicated AF sensor 1020 nor the image plane AF sensor 1031 is performing focus detection, the process proceeds to step S505, and the process when AF is impossible is performed (No in step S506). As described above, the processing when AF is impossible is, for example, invalidation of the release button. This is because when neither the dedicated AF sensor 1020 nor the image plane AF sensor 1031 has been able to detect focus, shooting cannot be performed. As described above, the invalidation of the release button may be canceled after the focus is detected by the dedicated AF sensor 1020, for example.
- step S507 it is determined whether or not the main subject is focused and tracking is in progress. This is because, for example, by checking whether or not there is an area where the amount of focus shift is a predetermined value or less, the AF that is substantially in focus by the previous AF operation on the main subject in a plurality of AF areas This can be done by checking if there is an area.
- step S503 If the main subject is not in focus and tracking is not in progress, the process proceeds to step S503 (No in step S507). If focus detection is possible with the dedicated AF sensor 1020 in step S503, AF control is performed based on the defocus amount detected by the dedicated AF sensor 1020 in step S504. If it is determined in step S503 that focus detection cannot be performed by the dedicated AF sensor 1020, processing in the case where AF cannot be performed is performed in step S505.
- step S507 If it is confirmed in step S507 that the main subject is being tracked, the process proceeds to step S508 (Yes in step S507).
- step S508 it is checked whether the area where the main subject being tracked is a dedicated AF area. When the main subject is captured in the dedicated AF area, area display of the dedicated AF sensor 1020 and the image plane AF sensor 1031 is performed on the display unit in step S509.
- a cross that overlaps the subject among the crosses indicating the image plane AF area may be displayed with a thick line.
- the cross that overlaps the subject may be displayed with a color.
- step S510 a difference between the defocus amount detected in the dedicated AF area that overlaps the main subject and the defocus amount detected in the image plane AF area is calculated, and the difference is calculated as a storage unit or a cache memory of the imaging apparatus 1000. Keep it in memory.
- the difference for example, there is a method of obtaining a difference between defocus amounts detected in the overlapping dedicated AF area and the image plane AF area. Further, the difference may be obtained by associating the defocus amount of one dedicated AF area with the average of the defocus amounts of a plurality of surrounding image plane AF areas. Further, since the difference in the defocus amount is also affected by the aberration characteristics of the photographing lens 1011, for example, when the subject is located at a position away from the approximate center of the frame, the aberration amount of the photographing lens 1011 is taken into account. An offset amount may be added to the difference.
- this difference is used to correct the focus adjustment when the main subject deviates from the dedicated AF area and is positioned only on the image plane AF area.
- step S504 AF control is performed based on the defocus amount of the dedicated AF sensor 1020. This is because the AF accuracy of the dedicated AF sensor 1020 is higher than that of the image plane AF sensor 1031. Therefore, when the main subject overlaps the dedicated AF area, the defocus amount of the dedicated AF sensor 1020 is used for AF. This is because it is better to perform control. Thereafter, the process returns to step S501.
- step S508 If it is determined in step S508 that the area capturing the subject being tracked is not a dedicated AF area, the process proceeds to step S511 (No in step S508).
- step S511 the image plane AF area capturing the main subject is specified.
- an identification method for example, an area in which a defocus amount equal to or less than a predetermined value is detected is identified from a plurality of image plane AF areas adjacent to the dedicated AF area that previously captured the main subject, and the area is captured. A subject that is the same as the main subject.
- step S512 a plurality of image plane AF areas that are considered to overlap the main subject are grouped, and AF tracking is performed smoothly, such as averaging of the defocus amounts detected in these image plane AF areas. As shown, predetermined data processing is performed.
- step S513 it is determined whether or not the plurality of grouped image plane AF areas are close to the position of the main subject in the previous process. This is because the grouped multiple image plane AF areas capture the subject at the time of the previous focus detection so that the subject does not focus when another subject enters the main subject. This is a process for continuing the tracking only when it is close to the area.
- being close means, for example, a state where areas are adjacent to each other.
- step S505 processing when AF is impossible is performed. Processing when AF is impossible is the same as described above.
- step S514 the defocus amount detected by the image plane AF sensor 1031 is corrected using the defocus amount difference calculated and stored in step S510.
- the image plane AF sensor is often not sufficiently accurate in focus detection compared to the dedicated AF sensor. Therefore, in the AF area where the dedicated AF area and the image plane AF area overlap when the dedicated AF sensor 1020 can detect the focus, the difference between the two focus detection results is calculated in advance. If the subject is overlapped only in the image plane AF area, the focus detection of the image plane AF sensor 1031 is corrected using the difference. As a result, even if only the image plane AF sensor 1031 is used, high focus detection can be performed with the same system as the dedicated AF sensor 1020.
- step S515 the tracking area of the image plane AF sensor 1031 is displayed.
- the area display in step S515 for example, as shown in FIG. 7C, among the cross indicating the image plane AF sensor 1031 and the frame indicating the dedicated AF area, the cross and the frame overlapping with the subject are indicated by a thick line. It is good to do. Thereby, the user can easily grasp the area currently regarded as the subject. Further, instead of the thick line display or in addition to the thick line display, the cross and the frame overlapping the subject may be displayed with a color.
- step S5166 AF control is performed based on the defocus amount of the image plane AF sensor 1031 after correction.
- This AF control corresponds to the AF control process in step S3 in the flowchart of FIG.
- the defocus amount and image plane by the dedicated AF sensor 1020 are always set.
- the difference from the defocus amount by the AF sensor 1031 is calculated in advance.
- the defocus amount by the image plane AF sensor 1031 is corrected using the calculated difference.
- the accuracy of focus detection by the image plane AF sensor 1031 can be improved, and both high-precision autofocus and a wide AF area can be achieved.
- FIG. 17 is a block diagram illustrating a configuration of an imaging apparatus 1000 according to the second embodiment.
- the imaging apparatus 1000 according to the second embodiment includes a subject detection unit 1076.
- the subject detection unit 1076 detects the subject from the image related to the supplied image data. Examples of the subject include a human face. In the description of the second embodiment, the case where the subject is a person and the face of the person is detected will be described as an example. However, the subject detection unit 1076 does not necessarily need to detect the face of a person, and may be an animal or a building as long as it can be detected.
- template matching based on the shape of the face As the face detection method, template matching based on the shape of the face, template matching based on the luminance distribution of the face, a method based on a skin color part included in the image, a human face feature amount, or the like can be used. Further, the accuracy of face detection may be improved by combining these methods. Since the configuration other than the subject detection unit 1076 is the same as that of the first embodiment, the description thereof is omitted.
- FIG. 18 shows a first example of the second embodiment
- FIG. 19 shows a second example of the second embodiment.
- FIGS. 18 to 19 show a dedicated AF area in the shooting screen, an image plane AF area in the shooting screen, and a subject to be tracked by autofocus.
- a broken-line rectangle indicates an AF area by the dedicated AF sensor 1020
- a broken-line cross indicates an AF area by the image plane AF sensor 1031.
- the face of the subject to be imaged is detected in the imaging screen.
- the face of the subject is located on the dedicated AF area and the image plane AF area.
- focus control is performed using the defocus amount in the area overlapping the face. Note that when the face of the subject overlaps both the dedicated AF area and the image plane AF area, focus control may be performed based on the defocus amount by the dedicated AF sensor 1020. This is because the dedicated AF sensor 1020 has higher focus detection accuracy than the image plane AF sensor 1031.
- the imaging apparatus 1000 waits for a predetermined time for processing.
- focus control is performed based on the defocus amount in the AF area where the face of the subject is located.
- FIG. 18D shows that the subject does not enter the AF area within a predetermined time, as shown in FIG. 18D, another subject located on the AF area is focused.
- the face of the subject to be imaged is detected in the imaging screen.
- the subject's face is located on the image plane AF area.
- focus control is performed using the defocus amount in the image plane AF area overlapping the face.
- step S1002 After the image plane defocus amount determination process is performed in step S1001, the process proceeds to step S1002. Details of the image plane defocus amount determination process in the second embodiment will be described later. However, in the image plane defocus amount determination process in the second embodiment, as in the first embodiment, the defocus amount is calculated for each of a plurality of image plane AF areas to determine the image plane defocus amount. It is processing.
- step S1002 it is determined whether or not the face of the subject has been detected in the shooting screen. If no face is detected, the process proceeds to step S104 (No in step S1002).
- step S1003 it is determined whether or not the detected face overlaps the dedicated AF area. If the face overlaps the dedicated AF area, in step S1004, the smallest defocus amount of the dedicated AF area located in the area detected as the face is set as the selected defocus amount (in step S1003). Yes).
- step S1003 If it is determined in step S1003 that the detected face does not overlap the dedicated AF area, the process proceeds to step S1005 (No in step S1004).
- step S1005 it is determined whether or not the detected face overlaps the image plane AF area. If the face overlaps the image plane AF area, in step S1006, the smallest one of the defocus amounts of the plurality of image plane AF areas located in the area detected as the face is set as the selected defocus amount. (Yes in step S1005).
- the maximum value is substituted for the image face defocus amount.
- step S3001 the maximum value is substituted for the comparative image plane defocus amount as in the first embodiment.
- step S302 1 is substituted into the variable i as in the first embodiment.
- step S303 If it is determined in step S303 that the contrast is not low, the process proceeds to step S3001 (No in step S303). Next, in step S3002, it is confirmed whether or not the image plane AF area corresponding to the variable i in the plurality of image plane AF areas overlaps the area detected as a face.
- step S3003 a comparison determination is made between the absolute value of the comparison image plane face defocus amount and the absolute value of the image plane defocus amount in the i-th image plane AF area.
- step S3004 the defocus amount of the i-th image plane AF area overlapping the face area is determined.
- step S3004 determines whether the absolute value of the image plane defocus amount in the i-th image plane AF area is larger than the absolute value of the comparison image plane face defocus amount in step S3003, the process of step S3004 is not performed. The process proceeds to S304 (Yes in step S3003). If the image plane AF area corresponding to the variable i overlaps the face area in step S3002, the process in step S3004 is not performed and the process proceeds to step S304 (Yes in step S3002). In this case, since the process of step S3004 is not performed, the image plane defocus amount of the i-th image plane AF area overlapping the face area is not determined. As described above, in the second embodiment, the defocus amount in the image plane AF area that overlaps the area detected as the face is determined.
- the processing in the second embodiment is performed as described above.
- focus control is performed based on the defocus amount in the AF area that overlaps the area detected as the face of the subject, it is based on the face position as shown in FIGS. Focus control is possible.
- the processing in this technology is performed as described above. Normally, when the subject is outside the AF area of the dedicated AF sensor 1020 while the subject is in focus and tracking, the subject existing in the background of the subject targeted by the user is in focus. There is.
- the image plane AF sensor 1031 can capture a subject in a wide range, and once the subject is in focus, even if the subject is out of the AF area of the image plane AF sensor 1031, the focus is increased. Can be prevented from being inadvertently focused on another subject.
- the other subject may be focused.
- the focus does not move, and the user continues to focus on the desired subject. be able to.
- the image plane AF sensor 1031 having a wide focusable range is used in addition to the dedicated AF sensor 1020, even if the position of the subject changes greatly, the subject can be reliably captured and tracking can be continued.
- focus control is performed using the image plane defocus amount, so a wider range of subject tracking can be realized. Can do.
- the present technology can also have the following configurations.
- a first focus detection unit that has a plurality of first focus detection areas in a shooting screen and detects a first defocus amount in the first focus detection area
- a second focus detection unit that has a plurality of second focus detection areas in the shooting screen and detects a second defocus amount in the second focus detection area
- Defocus amount selection for selecting which of the first defocus amount detected by the first focus detection unit and the second defocus amount detected by the second focus detection unit is to be used
- An imaging apparatus comprising: a focus control unit that performs focus control by moving a focus lens based on the defocus amount selected by the defocus amount selection unit.
- the defocus amount selection unit selects the first defocus amount when the subject overlaps the first focus detection area and the second focus detection area (1) The imaging device described in 1.
- the defocus amount determination unit compares the second defocus amount determined last time with a threshold value.
- the defocus amount determination unit compares the previously determined second defocus amount with a threshold value. If the value is equal to or greater than the threshold value, the minimum value of the defocus amounts in the area around the second focus detection area corresponding to the detected second defocus amount is determined as the second defocus amount.
- the imaging device according to any one of (1) to (5).
- the imaging apparatus according to any one of (1) to (6), further including a defocus amount correction unit that corrects the second defocus amount detected by the second focus detection unit.
- the defocus amount correction unit may detect the first defocus amount and the second defocus when the subject overlaps the first focus detection area and the second focus detection area. (1) to (7) for calculating the second defocus amount using the difference when the subject overlaps only the second focus detection area. ).
- the defocus amount selection unit selects the first defocus amount when the first focus area overlaps an area detected as a subject by the subject detection unit (1) to (8)
- the imaging device according to any one of the above.
- the defocus amount selection unit may detect the second defocus amount when the first focus area does not overlap the region detected as the subject by the subject detection unit and the second focus area overlaps.
- the imaging apparatus according to any one of (1) to (9), wherein a focus amount is selected.
- the position of the second focus detection area is unevenly arranged so that the position of the first focus detection area is aligned.
- the imaging device according to any one of (1) to (13).
- Imaging device 1020 ... Dedicated AF sensor 1031 ... Image plane AF sensor 1072 ... Defocus amount selection unit 1073 ... Defocus amount determination unit 1074 ... Defocus amount correction unit 1075 ..Focus control unit 1076 ... Subject detection unit
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
撮影画面内に複数の第1の焦点検出エリアを有し、第1の焦点検出エリアにおける第1のデフォーカス量を検出する第1の焦点検出部と、撮影画面内に複数の第2の焦点検出エリアを有し、第2の焦点検出エリアにおける第2のデフォーカス量を検出する第2の焦点検出部と、第1の焦点検出部により検出された前記第1のデフォーカス量と、前記第2の焦点検出部により検出された第2のデフォーカス量のどちらを用いるかを選択するデフォーカス量選択部と、デフォーカス量選択部により選択された前記デフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行うフォーカス制御部とを備える撮像装置である。
Description
本技術は、撮像装置およびフォーカス制御方法に関する。
従来の一眼レフカメラは、速いオートフォーカスを実現するためにいわゆる専用位相差センサを搭載している。一方、一般的に、コンパクトカメラやミラーレスカメラなどでは、コントラスト方式のオートフォーカス(以下AF)が採用されている。そして、これらのカメラでも速いAFを実現するために、撮像素子に位相差検出用の撮像素子を埋め込む方法が提案されている(特許文献1)。
さらにこの技術を用いて、それぞれのメリットを得られるように位相差検出専用モジュールと位相差検出用撮像センサを両方搭載する方法も提案されている(特許文献2)。
そのようなカメラにおいては、上下左右に動くような被写体に対して、AF追尾可能とするためにできるだけ広い領域のAFエリアが望まれている。そこで、位相差検出専用モジュールと位相差検出用撮像センサを両方搭載し、広範囲のエリアに対応させた場合、広域検波により狙った被写体にピントを合わせるのが難しくなることが想定される。また、意図しない被写体がフレーム内に入った時に、ピントがその被写体に振られやすくなることが想定される。
本技術はこのような問題点に鑑みなされたものであり、対象とする被写体を追従し続けることができる撮像装置およびフォーカス制御方法を提供することを目的とする。
上述した課題を解決するために、第1の技術は、撮影画面内に複数の第1の焦点検出エリアを有し、第1の焦点検出エリアにおける第1のデフォーカス量を検出する第1の焦点検出部と、撮影画面内に複数の第2の焦点検出エリアを有し、第2の焦点検出エリアにおける第2のデフォーカス量を検出する第2の焦点検出部と、第1の焦点検出部により検出された第1のデフォーカス量と、第2の焦点検出部により検出された第2のデフォーカス量のどちらを用いるかを選択するデフォーカス量選択部と、デフォーカス量選択部により選択されたデフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行うフォーカス制御部とを備える撮像装置である。
また、第2の技術は、撮影画面内に複数の第1の焦点検出エリアを有する第1の焦点検出部により検出された第1のデフォーカス量と、撮影画面内に複数の第2の焦点検出エリアを有する第2の焦点検出部により検出された第2のデフォーカス量のどちらを用いるかを選択し、選択されたデフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行うフォーカス制御方法である。
本技術によれば、撮像装置による撮像において、対象とする被写体を追従し続けることができる。
以下、本技術の実施の形態について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<1.第1の実施の形態>
[1-1.撮像装置の構成]
[1-2.処理の概要]
[1-3.デフォーカス量選択処理]
[1-4.像面デフォーカス量決定処理]
[1-5.像面デフォーカス量補正処理]
<2.第2の実施の形態>
[2-1.撮像装置の構成]
[2-2.処理の概要]
[2-3.デフォーカス量選択処理]
<3.変形例>
<1.第1の実施の形態>
[1-1.撮像装置の構成]
[1-2.処理の概要]
[1-3.デフォーカス量選択処理]
[1-4.像面デフォーカス量決定処理]
[1-5.像面デフォーカス量補正処理]
<2.第2の実施の形態>
[2-1.撮像装置の構成]
[2-2.処理の概要]
[2-3.デフォーカス量選択処理]
<3.変形例>
<1.第1の実施の形態>
[1-1.撮像装置の構成]
本実施の形態に係る撮像装置1000の構成について説明する。図1は撮像装置1000のブロック構成を示す図である。図2は、撮像装置1000の概略構成を示す断面模式図である。
[1-1.撮像装置の構成]
本実施の形態に係る撮像装置1000の構成について説明する。図1は撮像装置1000のブロック構成を示す図である。図2は、撮像装置1000の概略構成を示す断面模式図である。
撮像装置1000は、光学撮像系1011、専用AFセンサ1020、撮像素子1030、像面AFセンサ1031、前処理回路1040、カメラ処理回路1050、画像メモリ1060、制御部1070、グラフィックI/F(Interface)1080、表示部1090、入力部1100、R/W(リーダ/ライタ)1110および記憶媒体1120から構成されている。制御部はデフォーカス量算出部1071、デフォーカス量選択部1072、デフォーカス量決定部1073、デフォーカス量補正部1074およびフォーカス制御部1075として機能する。
光学撮像系1011は、被写体からの光を撮像素子1030に集光するための撮影レンズ1011(フォーカスレンズ、ズームレンズなどを含む)、フォーカスレンズを移動させてフォーカス調整を行うレンズ駆動機構1012、シャッタ機構、アイリス機構などから構成されている。これらは制御部1070およびフォーカス制御部1075からの制御信号に基づいて駆動される。レンズ駆動機構1012は、撮影レンズ1011をフォーカス制御部1075から供給されたデフォーカス量に相当する量光軸方向に沿って移動させることにより、AF動作を実現する。光学撮像系1011を介して得られた被写体の光画像は、撮像デバイスとしての撮像素子1030上に結像される。
専用AFセンサ1020は、例えば、位相差検出方式、コントラストAF方式のなどのオートフォーカス専用センサである。撮影レンズ1011により集光された被写体光は半透過ミラーで反射することによって専用AFセンサ1020に入射する。専用AFセンサ1020により検出された焦点検出信号はデフォーカス量算出部1071に供給される。専用AFセンサ1020は、特許請求の範囲における第1の焦点検出部に相当するものである。したがって専用AFセンサ1020の焦点検出により得られるデフォーカス量は特許請求の範囲における第1のデフォーカス量である。
撮像素子1030は、通常の撮像画素であるR(Red)画素、G(Green)画素、B(Blue)画素と、位相差焦点検出を行う位相差検出画素とを有するものである。撮像素子1030を構成する各画素は被写体からの入射光を光電変換して電荷量に変換して、画素信号を出力する。そして、撮像素子1030は、最終的に画素信号からなる撮像信号を前処理回路1040に出力する。撮像素子1030としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などが用いられる。なお、撮像素子1030の詳細な構成については後述する。
像面AFセンサ1031は、複数の位相差検出画素からなるオートフォーカス用センサである。像面AFセンサ1031により検出された焦点検出信号はデフォーカス量算出部1071に供給される。像面AFセンサ1031の具体的構成については後述する。像面AFセンサ1031は、特許請求の範囲における第2の焦点検出部に相当するものである。したがって像面AFセンサ1031の焦点検出により得られるデフォーカス量は特許請求の範囲における第2のデフォーカス量である。
前処理回路1040は、撮像素子1030から出力された撮像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つようにサンプルホールドなどを行う。さらに、AGC(Auto Gain Control)処理により利得を制御し、A/D(Analog/Digital)変換を行ってデジタル画像信号を出力する。
カメラ処理回路1050は、前処理回路1040からの画像信号に対して、ホワイトバランス調整処理や色補正処理、ガンマ補正処理、Y/C変換処理、AE(Auto Exposure)処理などの信号処理を施す。
画像メモリ1060は、揮発性メモリ、例えば、DRAM(Dynamic Random Access Memory)で構成されるバッファメモリであり、前処理回路1040およびカメラ処理回路1050によって所定の処理が施された画像データを一時的に蓄えておくものである。
制御部1070は、例えばCPU、RAMおよびROMなどから構成されている。ROMには、CPUにより読み込まれ動作されるプログラムなどが記憶されている。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムに従い様々な処理を実行してコマンドの発行を行うことによって撮像装置1000全体の制御を行う。
また、制御部1070は所定のプログラムを実行することにより、デフォーカス量算出部1071、デフォーカス量選択部1072、デフォーカス量決定部1073、デフォーカス量補正部1074およびフォーカス制御部1075として機能する。それらの各部は、プログラムによって実現されるのみでなく、各機能を有するハードウェアによる専用の装置として実現されてもよい。その場合、撮像装置1000がそれらハードウェアを備えるという構成となる。
デフォーカス量算出部1071は、専用AFセンサ1020または像面AFセンサ1031によって取得される位相差検出信号に基づいて、焦点からのずれ量を表すデフォーカス量を算出する。デフォーカス量選択部1072は、専用AFセンサ1020の検出結果により得られるデフォーカス量(以下、専用デフォーカス量と称する。)と、像面AFセンサ1031の焦点検出結果により得られるデフォーカス量(以下、像面デフォーカス量と称する。)のいずれを用いてフォーカス制御を行うかを選択し、採用する処理を行うものである。デフォーカス量選択部1072により行われる処理の詳細について後述する。
デフォーカス量決定部1073は、像面AFセンサの焦点検出結果から算出される像面デフォーカス量に基づき、像面AFエリアごとのデフォーカス量を決定する処理を行う。デフォーカス量決定部1073の処理の詳細については後述する。デフォーカス量補正部1074は、像面デフォーカス量の補正処理を行うものである。デフォーカス量補正部1074により行われる処理の詳細については後述する。フォーカス制御部1075は、採用されたデフォーカス量に基づいて光学撮像系1010のレンズ駆動機構1012を制御して、フォーカス調整処理を行うものである。
グラフィックI/F1080は、制御部1070から供給された画像信号から、表示部1090に表示させるための画像信号を生成して、この信号を表示部1090に供給することにより画像を表示させる。表示部1090は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro Luminescence)パネルなどにより構成された表示手段である。表示部1090には、撮像中のスルー画、記憶媒体1120に記録された画像などが表示される。
入力部1100は、例えば、電源オン/オフ切り替えのための電源ボタン、撮像画像の記録の開始を指示するためのレリーズボタン、ズーム調整用の操作子、表示部1090と一体に構成されたタッチスクリーンなどからなる。入力部1100に対して入力がなされると、その入力に応じた制御信号が生成されて制御部1070に出力される。そして、制御部1070はその制御信号に対応した演算処理や制御を行う。
R/W1110には、撮像により生成された画像データなどを記録する記録媒体22が接続されるインターフェースである。R/W1110は、制御部1070から供給されたデータを記憶媒体1120に書き込み、また、記憶媒体1120から読み出したデータを制御部1070に出力する。記憶媒体1120は、例えば、ハードディスク、メモリースティック(ソニー株式会社の登録商標)、SDメモリーカードなどの大容量記憶媒体1120である。画像は例えばJPEGなどの規格に基づいて圧縮された状態で保存される。また、保存された画像に関する情報、撮像日時などの付加情報を含むEXIF(Exchangeable Image File Format)データもその画像に対応付けられて保存される。
ここで、上述した撮像装置1000における基本的な動作について説明する。画像の撮像前には、撮像素子1030によって受光されて光電変換された信号が、順次、前処理回路1040に供給される。前処理回路1040では、入力信号に対してCDS処理、AGC処理などが施され、さらに画像信号に変換される。
カメラ処理回路1050は、前処理回路1040から供給された画像信号を画質補正処理し、カメラスルー画像の信号として、制御部1070を介してグラフィックI/F1080に供給する。これにより、カメラスルー画像が表示部1090に表示される。ユーザは表示部1090に表示されるスルー画を見て画角合わせを行うことができる。
この状態で、入力部1100のシャッタボタンが押下されると、制御部1070は、光学撮像系1011101に制御信号を出力して、光学撮像系1011101を構成するシャッタを動作させる。これにより撮像素子1030からは、1フレーム分の画像信号が出力される。
カメラ処理回路1050は、撮像素子1030から前処理回路1040を介して供給された1フレーム分の画像信号に画質補正処理を施し、処理後の画像信号を制御部1070に供給する。制御部1070は、入力された画像信号を圧縮符号化し、生成した符号化データを、R/W1110に供給する。これにより、撮像された静止画像のデータファイルが記憶媒体1120に記憶される。
一方、記憶媒体1120に記憶された画像ファイルを再生する場合には、制御部1070は、入力部1100からの操作入力に応じて、選択された静止画像ファイルを記憶媒体1120からR/W1110を介して読み込む。読み込まれた画像ファイルは、伸張復号化処理が施される。そして、復号化された画像信号は制御部1070を介してグラフィックI/F1080に供給される。これにより、記憶媒体1120に記憶された静止画像が表示部1090に表示される。
次に、撮像素子1030および像面AFセンサ1031の構成について説明する。図3は、撮像素子1030における通常画素および位相差検出画素の配列の様子を示す図である。RはR(Red)画素、GはG(Green)画素、BはB(Blue)画素と、それぞれ通常の撮像画素を示すものである。
また、図3において、P1が第1位相差検出画素を示し、P2が第2位相差検出画素を示すものである。位相差検出画素は、P1とP2とで一対となる構成となっており、撮影レンズ1011の瞳分割を行う。位相差検出画素P1およびP2は通常の撮像画素とは光学特性が異なるものである。なお、図3においては、G画素を位相差検出画素としている。これは、G画素がR画素およびB画素に比べて倍の数存在しているためである。ただし、位相差検出画素はG画素に限られるものではない。
撮像素子1030は、通常画素に加え、位相差検出画素を有しており、撮像装置1000は、その位相差検出画素からの出力によりいわゆる像面位相差AF(Auto Focus)を行うことができるものである。
図4は、専用AFセンサ1020による撮影画面内におけるAFエリア(以下、専用AFエリアと称する。)と、像面AFセンサ1031による撮影画面内におけるAFエリア(以下、像面AFエリアと称する。)を示す図である。なお、専用AFエリアは特許請求の範囲における第1の焦点検出エリアに相当するものであり、像面AFエリアは、許請求の範囲における第2の焦点検出エリアに相当するものである。
図4において四角い枠で示されているのが専用AFエリアである。図4からわかるように、専用AFエリアは像面AFエリアと比較して配置されている範囲は狭くなっており、略中央付近に集中している。専用AFセンサ1020は像面AFセンサ1031と比較して精度の高い焦点検出が可能である。
図4において十字で示されているのが像面AFエリアである。図4からわかるように、像面AFエリアは広範囲に広がっており、広い範囲において被写体を補足することが可能となっている。
専用AFセンサ1020は、専用の光学系で配置する都合上、AFエリアを等間隔に均一に配置できない場合がある。そのため、本技術のように、専用AFエリアと像面AFエリアの検出結果を比較する場合には、2つのAFエリアの位置を合わせておいた方が都合がよい。そのために、図4に示されるように、像面AFエリアの位置が専用AFエリアの位置に対応して合うように、像面AFエリアを不均等に配置する。
位相差検出用画素は、例えば図5に示されるように、撮影画像に影響を与えないように、撮像素子1030の間に埋め込まれている。水平方向には、位相差を検出するための部分的に開口をあけて瞳分割された1組の素子(図ではPとQ)が並んで配置されている。また、垂直方向には、この位相差画素のラインが何ラインかごとに埋め込まれている。
このように配置されている位相差検出用画素に対して、複数の位相差検出用画素を一組としてAFエリアを設定し(例えば、図5の太線による矩形枠)、そのエリアごとに焦点検出演算を行う。従って、AFエリアの設定を図6のようにずらすことによって、図4のような不均等にAFエリアを配置することが可能となる。なお、このようにソフトウェアにおける処理によってAFエリアの配置を不均等にすることもできるが、撮像素子1030上の位相差検出画素の配置自体を不均等にすることで、AFエリアを不均等にすることも可能である。
[1-2.処理の概要]
次に、撮像装置1000により行われる処理について説明する。まず、図7乃至図9を参照して本実施の形態において行われるフォーカス処理の概要について説明する。図7乃至図9は、撮影画面内における専用AFエリアと、撮影画面内における像面AFエリアと、オートフォーカスにより追尾する被写体を示したものである。図7乃至図9において、破線の四角形は専用AFセンサ1020による専用AFエリアを示し、破線の十字は像面AFセンサ1031による像面AFエリアを示す。
次に、撮像装置1000により行われる処理について説明する。まず、図7乃至図9を参照して本実施の形態において行われるフォーカス処理の概要について説明する。図7乃至図9は、撮影画面内における専用AFエリアと、撮影画面内における像面AFエリアと、オートフォーカスにより追尾する被写体を示したものである。図7乃至図9において、破線の四角形は専用AFセンサ1020による専用AFエリアを示し、破線の十字は像面AFセンサ1031による像面AFエリアを示す。
まず、図7Aは、被写体が存在せずオートフォーカスが行われていない状態である。図7Bに示されるように被写体が現れ、ユーザによるAF指示の入力(例えばシャッタの半押し)が行われたら、まずは専用AFセンサ1020の焦点検出結果からデフォーカス量を算出し、そのデフォーカス量に基づいて最至近の被写体(以下、最至近被写体と称する。)にフォーカスを合わせる。詳しくは、デフォーカス量に基づいて撮影レンズ1011を駆動させることにより、撮影レンズ1011のフォーカス調整を行うことにより最至近被写体にフォーカスを合わせる。図7においては、最至近被写体にフォーカスが合っているAFエリアは実線で表している。
図7Cは、最至近被写体にフォーカスを合わせた後に、被写体が移動した場合である。この場合でも、専用AFセンサ1020と像面AFセンサ1031のぞれぞれの焦点検出結果から算出されるデフォーカス量を用いて、現在の焦点位置に最も近い被写体(デフォーカス量が最小の被写体)にフォーカスを合わせ続けるようフォーカス調整を行う。図7Cにおいては、最至近被写体にフォーカスが合っている専用AFエリアと像面AFエリアは共に実線で表されている。
図7Dは、被写体が移動して専用AFセンサ1020のAFエリアから外れた場合である。この場合、像面AFエリア内にその被写体が位置していれば、その像面AFセンサ1031におけるデフォーカス量を用いて、デフォーカス量が最小の被写体にフォーカスを合わせ続ける。したがって、被写体からフォーカスが外れてしまうことがない。
図7Dにおいては、被写体にフォーカスが合っているAFエリアは十字は実線で表されている。なお、本技術においては、被写体が専用AFエリアから外れ、像面AFエリア上にのみ位置している場合に、デフォーカス量補正部により、デフォーカス量の精度を高める処理を行う。その処理の詳細については後述する。
図8Aは、被写体がさらに移動して、専用AFセンサ1020および像面AFセンサ1031の両方のAFエリアから外れた場合である。この場合、最後のフォーカス位置で所定時間フォーカス調整処理を停止して、再び被写体を専用AFセンサ1020で捉えるのを待つ。
フォーカス調整を停止する所定時間経過しても、所定のデフォーカス量内の被写体を専用AFセンサ1020が捉えない場合は、図8Bに示されるように、専用AFセンサ1020のデフォーカス量が最小となる別の被写体にフォーカスを合わせるようフォーカス調整を行う。これにより、追尾する被写体が変更される。図8Bにおいては、被写体にフォーカスが合っているAFエリアは十字は実線で表されている。
追尾する被写体が変更された後は、図8Cに示されるように以前にフォーカスを合わせて追尾していた被写体が再び専用AFセンサ1020のAFエリア内に入ったとしても変更後の被写体にフォーカスを合わせるようにフォーカス調整を行う。
なお、追尾している被写体がユーザが望む被写体ではない場合には、一度ユーザによるAF指示の入力を解除して(例えばシャッタの半押しの解除)、オートフォーカス処理を停止状態とする。そうすると、図8Dに示されるようにいずれの被写体にもフォーカスが合っていない状態となる。
そして、ユーザが再びAF指示の入力(例えばシャッタの半押し)を行うと、図9に示されるように最至近被写体にフォーカスを合わせるようにフォーカス調整が行われる。
このように本技術は、専用AFセンサ1020と像面AFセンサ1031とを併用することにより、より精度よく被写体にフォーカスを合わせて追従することができる。
図10は、図7乃至図9に示した処理を行うために撮像装置1000により行われる全体フローチャートである。
まず、ステップS1で、デフォーカス量算出部1071により、デフォーカス量の算出が行われる。デフォーカス量の算出は、像面AFセンサ1031の焦点検出結果、専用AFセンサ1020の焦点検出結果のそれぞれに基づいて行われる。すなわち、像面AFセンサ1031の焦点検出結果に基づくデフォーカス量と、専用AFセンサ1020の焦点検出結果に基づくデフォーカス量とが算出される。
次にステップS2で、デフォーカス量選択部1072により、デフォーカス量選択処理が行われる。デフォーカス量選択処理とは、像面AFセンサ1031によるデフォーカス量と専用AFセンサ1020によるデフォーカス量のいずれをフォーカス制御に用いるデフォーカス量として使用するかを選択する処理である。デフォーカス量選択処理の詳細については後述する。
次に、ステップS3でフォーカス制御部1075により、デフォーカス選択処理によって選択されたデフォーカス量に基づいてフォーカスレンズの駆動制御が行われる。これにより、フォーカス制御が行われる。さらに、ステップS4の合焦判定処理は、フォーカス調整処理によってユーザが所望する被写体にフォーカスが合っているかを確認する処理である。撮像装置1000においては、ユーザによるAF指示の入力(例えばシャッタの半押し)が行われている限り繰り返して行われる。
[1-3.デフォーカス量選択処理]
次に図11のフローチャートを参照して、上述した全体フローチャートに含まれるデフォーカス量選択処理について説明する。まずステップS101で、像面AFセンサ1031の焦点検出結果が有効であるか否かが判定される。この判定は、例えば、ユーザの撮像装置1000に対する設定状況に基づいて行われる。設定状況に基づく判定とは、例えば、撮像装置1000が、像面AFセンサ1031と専用AFセンサ1020を併用するAFモードと、専用AFセンサ1020のみのAFモードを選択可能な仕様である場合に、ユーザがどちらのモードを選択しているかを確認することにより行われる判定である。併用するモードである場合には像面AFセンサ1031の検出結果は有効と判定され、一方、専用AFセンサ1020のみのAFモードである場合には、像面AFセンサ1031の焦点検出結果は有効ではないと判定される。
次に図11のフローチャートを参照して、上述した全体フローチャートに含まれるデフォーカス量選択処理について説明する。まずステップS101で、像面AFセンサ1031の焦点検出結果が有効であるか否かが判定される。この判定は、例えば、ユーザの撮像装置1000に対する設定状況に基づいて行われる。設定状況に基づく判定とは、例えば、撮像装置1000が、像面AFセンサ1031と専用AFセンサ1020を併用するAFモードと、専用AFセンサ1020のみのAFモードを選択可能な仕様である場合に、ユーザがどちらのモードを選択しているかを確認することにより行われる判定である。併用するモードである場合には像面AFセンサ1031の検出結果は有効と判定され、一方、専用AFセンサ1020のみのAFモードである場合には、像面AFセンサ1031の焦点検出結果は有効ではないと判定される。
また、ステップS101の判定は、例えば、露光タイミングにおいて像面AFセンサ1031の検出結果が使用できるか否かに基づいて行われるようにしてもよい。像面AFセンサ1031の露光タイミングは、撮像の読み出しの制限を受ける為、専用AFセンサ1020とは同期していない。そこで、専用AFセンサ1020の露光終了時点で、像面AFセンサ1031の検波タイミング(露光終了のタイミング)を取得し、露光タイミングが大きくずれている場合は、像面AFセンサ1031の焦点検出結果を採用しないようにする。このようにステップS101の判定を行い、像面AFセンサ1031の検出結果が有効ではない場合、処理はステップS102に進む(ステップS101のNo)。
そしてステップS102で、複数の専用AFエリアのそれぞれの検出結果から算出された複数のデフォーカス量の中から最至近のものをフォーカス制御に用いるデフォーカス量として選択する(以下、選択するデフォーカス量を選択デフォーカス量と称する。)。例えば、図4に示されるように、専用AFセンサ1020によるAFエリアが11個ある場合には、11個のデフォーカス量の中から最至近のデフォーカス量を選択デフォーカス量とする。
ステップS101の説明に戻る。ステップS101で、像面AFセンサ1031の検出結果が有効であると判定された場合、処理はステップS103に進む(ステップS101のYes)。そしてステップS103で、像面デフォーカス量決定処理が行われる。像面デフォーカス量決定処理とは、複数ある像面AFエリアごとにデフォーカス量(以下、像面デフォーカス量と称する。)を算出し、像面デフォーカス量を決定する処理である。像面デフォーカス量決定処理の詳細については後述する。
像面デフォーカス量が決定すると、次にステップS104で、撮像装置1000が至近優先モードであるか否かが確認される。至近優先モードとは、全てのフォーカスエリアの中で最も近い被写体にフォーカスが合うように動作するモードである。撮像装置1000が至近優先モードである場合(ステップS104のYes)、ステップS105で、専用AFエリアのデフォーカス量(以下、専用デフォーカス量と称する。)の中の最至近の値を選択デフォーカス量として選択される。これは、撮像装置1000が至近優先モードであるため、そのモードに従い、デフォーカス量の中の最至近の値を選択するということである。一方、ステップS104で、撮像装置1000が至近優先モードではないと確認された場合、処理はステップS106に進む(ステップS104のNo)。
次にステップS106で、専用AFセンサ1020により得られた専用デフォーカス量が所定の閾値である第1閾値以下であるか否かを判定する。この判定は、全ての専用デフォーカス量に対して行われる。専用デフォーカス量が第1閾値以下である場合、処理はステップS107に進み(ステップS106のYes)、複数の専用AFエリアごとにそれぞれ得られた専用デフォーカス量の中から最小のものを選択デフォーカス量として選択する。
一方、専用AFセンサ1020により得られた専用デフォーカス量が第1閾値以上である場合、処理はステップS108に進む(ステップS106のNo)。次にステップS108で、像面AFセンサ1031により得られたデフォーカス量が所定の閾値である第2閾値以下であるか否かを判定する。デフォーカス量が第2閾値以下である場合、処理はステップS109に進み(ステップS108のYes)、複数の像面AFエリアごとにそれぞれ得られた像面デフォーカス量の中から最小のものが選択デフォーカス量として選択される。
一方、ステップS108で、像面AFセンサ1031のデフォーカス量が第2閾値以上であると判定された場合、処理はステップS110に進む(ステップS108のNo)。そして、ステップS110で、複数の専用AFエリアごとにそれぞれ得られたデフォーカス量の中から最小のものが選択デフォーカス量として選択される。次に、ステップS111で安定化処理を行う。
ここで、図12のフローチャートを参照して安定化処理について説明する。安定化処理とは、選択したデフォーカス量が大きく変化するものでない場合にのみ、そのままそのデフォーカス量を採用する処理である。これにより、デフォーカス量を急激に大きく変化させずにフォーカス制御の安定化を図ることができる。
まずステップS201で、選択デフォーカス量が所定の基準範囲内の値であるか否かを判定する。デフォーカス量が基準範囲内である場合、処理はステップS202に進み、カウント値が0に設定される。このカウント値については後述する。そして、次にステップS203で、選択デフォーカス量がフォーカス制御に用いるデフォーカス量として採用される。このステップS203により、フォーカス制御に用いられるデフォーカス量が決定したこととなる。採用されたデフォーカス値はフォーカス制御部1075に供給される。
説明はステップS201に戻る。ステップS201で、選択デフォーカス量が基準範囲内ではないと判定された場合、処理はステップS204に進む(ステップS201のNo)。次にステップS204で、物体(例えば人物の顔など)上でデフォーカス量が得られているかを確認する。物体上でデフォーカス量が得られた場合、処理はステップS203に進み(ステップS204のYes)、選択デフォーカス量がフォーカス制御に用いるデフォーカス量として採用される。
一方、物体(例えば人物の顔など)上でデフォーカス量が得られていない場合、処理はステップS205に進み、(ステップS204のNo)。撮像装置1000が至近優先モードであるか否かを確認する。撮像装置1000が至近優先モードである場合、処理はステップS203に進み(ステップS205のYes)、選択デフォーカス量がフォーカス制御に用いるデフォーカス量として採用される。
ステップS205で、撮像装置1000が至近優先モードではないと確認された場合、処理はステップS406に進み(ステップS405のNo)、被写体が動体であるか否かが判定される。被写体が動体であるか否かの判定は、公知の動体検出技術を用いて行うことができる。被写体が動体である場合、処理はステップS203に進み(ステップS206のYes)、選択デフォーカス量がフォーカス制御に用いるデフォーカス量として採用される。
一方、被写体が動体ではない場合、処理はステップS207に進む(ステップS206のNo)。次にステップS207で、カウント値が第3閾値以上であるか否かが確認される。カウント値が第3閾値以上である場合、処理はステップS203に進み(ステップS207のYes)、選択デフォーカス量がフォーカス制御に用いるデフォーカス量として採用される。
一方、カウント値が第3閾値以上ではない場合、処理はステップS208に進み(ステップS207のNo)、カウント値に1が加算される。そして、ステップS209で、選択デフォーカス量は採用されず、その結果、デフォーカス量に基づいたフォーカスレンズの駆動によるフォーカス制御も行われない。
安定化処理において、ステップS201からステップS206の全ての判定がNoである場合とは、デフォーカス量が基準内でもなく、物体上でデフォーカス量が検出されておらず、至近優先モードでもなく、動体でもない場合である。この場合、カウント値が第3閾値以上になるまでは、フォーカス制御は行われない。これにより、カウント値が第3閾値以上となるまでは、フォーカス制御が休止状態となる待ち状態を実現することができる。また、デフォーカス量が範囲内である場合に限りそのデフォーカス量に基づいてフォーカス制御が行われることになるので、採用されるデフォーカス量が大きく変動することを防止することができる。カウント値が第3閾値以下の場合に、ステップS208でカウント値に1を加算していき、カウント値が第3閾値以上となった場合、ステップS203で選択デフォーカス量をフォーカス制御に用いるデフォーカス量として採用する。よって、閾値の設定によって待ち状態の長さを調整することができる。
[1-4.像面デフォーカス量決定処理]
次に、図13のフローチャートを参照して、デフォーカス量選択処理のステップS103で行われる像面デフォーカス量決定処理について説明する。像面デフォーカス量決定処理はデフォーカス量決定部1073により行われる。像面デフォーカス量決定処理とは、像面AFセンサ1031の焦点検出の結果から像面AFエリアごとのデフォーカス量を決定する処理である。
次に、図13のフローチャートを参照して、デフォーカス量選択処理のステップS103で行われる像面デフォーカス量決定処理について説明する。像面デフォーカス量決定処理はデフォーカス量決定部1073により行われる。像面デフォーカス量決定処理とは、像面AFセンサ1031の焦点検出の結果から像面AFエリアごとのデフォーカス量を決定する処理である。
まずステップS301で、像面デフォーカス量に最大値を代入する。像面デフォーカス量に最大値を代入することは初期化を行うことに相当する。例えば、像面デフォーカス量を16Bitの符号付きデータとして定義したとする。この場合、像面デフォーカス量の取り得る範囲は「-32768~+32767」となる。「像面デフォーカス量=最大値」は初期化に相当するものであるため、その最大値「+32767」を代入する。この最大値を代入した像面デフォーカス量は、像面AFエリアごと得られる像面デフォーカス量の大小の判定を行う際に比較されるものであるため、比較用像面デフォーカス量と称する。
次にステップS202で、像面AFエリア数をカウントするための変数iに1をプラスする(i=i+1)。この変数iは、1から像面AFエリア数の最大値までの値をとるものである。したがって、例えば像面AFエリアが100個ある場合には、その像面AFエリアに1から100までの番号を付し、変数iは1から100までの値をとることとなる。これにより、それ以降のステップS303乃至ステップS306の処理をループすることによって全ての像面AFエリアに対して像面デフォーカス量決定処理を行うこととなる。
次にステップS303で、処理の対象となる変数iに対応する像面AFエリアにおいて、輝度値が所定値以上であるか否かを確認することにより、ローコントラストであるか否かの判定が行われる。ローコントラストではないと判定された場合、処理はステップS304に進む(ステップS303のNo)。
次にステップS304で、比較用像面デフォーカス量の絶対値と、変数iに対応する像面AFエリアにおける像面デフォーカス量の絶対値との比較判定が行われる。比較の結果、比較用像面デフォーカス量の絶対値に対して、i番目の像面AFエリアにおける像面デフォーカス量の絶対値が大きい場合、処理はステップS305に進む(ステップS304のYes)。そして、ステップS305で、「比較用像面デフォーカス量の絶対値=像面デフォーカス量」の絶対値とし、また、i番目の像面AFエリアのデフォーカス量が決定される。
一方、ステップS304で、比較用像面デフォーカス量の絶対値に対して、i番目の像面AFエリアにおける像面デフォーカス量の絶対値が小さい場合、ステップS305の処理は行わず、ステップS306に進む(ステップS304のNo)。また、ステップS303で、ローコントラストであると判定された場合も、ステップS305の処理は行わずステップS306に進む(ステップS303のYes)。この場合、ステップS305の処理は行われないため、像面デフォーカス量は決定されないこととなる。
次にステップS306で、変数iが像面AFエリア数に至ったか否かが判定される。変数iが像面AFエリア数に至っていない場合、処理はステップS302へ進む(ステップS306のNo)。そして、変数iが像面AFエリア数に至るまでステップS302からステップS306が繰り返される。これにより、ステップS302からステップS306までの処理は全ての像面AFエリアに対して行われることとなる。
変数iが像面AFエリア数に至った場合、処理はステップS307に進む(ステップS306のYes)。そしてステップS307で、前回決定像面デフォーカス量判定処理が行われる。
ここで、図14のフローチャートを参照して、前回決定像面デフォーカス量判定処理について説明する。例えば、離間した複数の像面AFエリアから近似するデフォーカス量が得られた場合、フォーカス位置が大きく変動し、焦点が主被写体に合わないこととなるおそれがある。そこで、前回決定像面デフォーカス量判定処理とは、前回処理で決定された各像面AFエリアごとの像面デフォーカス量が所定量以下である場合には、その前回決定された像面デフォーカス量を引き続き像面デフォーカス量として決定することにより、フォーカスが細かく変動することを防止するための処理である。
まず、ステップS401で、前回決定された像面デフォーカス量が所定の閾値である第4閾値以下であるか否かが判定される。像面デフォーカス量が第4閾値以下である場合、処理はステップS402に進む(ステップS401のYes)。そして、ステップS402で、前回決定の像面デフォーカス量を新たな像面デフォーカス量として再度決定する。
一方、ステップS401で、像面デフォーカス量が第4閾値以上であると判定された場合、処理はステップS403に進む(ステップS401のNo)。そして、ステップS403で、前回決定された像面デフォーカス量が得られた像面AFエリアの周辺の像面AFエリアのデフォーカス量を算出する。
周辺エリアとは、例えば、前回決定のデフォーカス量が算出された像面AFアリアの周囲8つの像面AFアリア、上下左右4つのエリアなどである。
次にステップS404で、像面AFエリアの周辺の像面AFエリアの全てについてデフォーカス量を算出したかを確認する。周辺の像面AFエリアとは例えば、全周辺の像面AFエリアの像面デフォーカス量が算出されるまでステップS403とステップS404が繰り返される(ステップS404のNo)。
そして、全周辺エリアについてデフォーカス量の算出が行われたら、処理はステップS405に進む(ステップS404のYes)。次にステップS405で、全周辺エリアのデフォーカス量の中の最小の値が第4閾値以内であるか否かが判定され、第4閾値以内である場合、処理はステップS406に進む(ステップS305のYes)。
そしてステップS406で、全周辺エリアにおけるデフォーカス量の中の最小の値が像面デフォーカス量として決定される。これは、前回決定の像面AFエリアのデフォーカス量が閾値以上である場合には、周辺に被写体が移動したとしてその被写体の移動先に対応した周辺像面AFアリアのデフォーカス量を像面デフォーカス量として採用するということである。
ステップS405で全周辺エリアのデフォーカス量の中の最小の値が第4閾値以内ではないと判定した場合には、前回採用像面デフォーカス量ではなく、図13のフローチャートの処理で決定された像面デフォーカス量がそのまま像面デフォーカス量として決定される(ステップS405のNo)。
以上のようにして、専用AFセンサ1020により得られるデフォーカス量と、像面AFセンサ1031により得られるデフォーカス量のどちらをフォーカス制御に用いるかを選択する。これにより、像面AFセンサ1031による広いに範囲におけるオートフォーカスと、像面AFセンサ1031による精度の高いオートフォーカスとを両立させることが可能となる。
[1-5.像面デフォーカス量補正処理]
次に、図7Dに示されるように、被写体が専用AFエリアからはずれて像面AFエリア上に位置している場合に、像面デフォーカス量を補正することにより像面デフォーカス量の精度を高める処理について説明する。図15および図16は、像面フォーカス補正処理の流れを示すフローチャートである。像面フォーカス量補正処理は、専用AFセンサ1020により得られるデフォーカス量と像面AFセンサ1031により得られるデフォーカス量との差分に基づいて像面デフォーカス量の補正を行うものである。像面フォーカス量補正処理はデフォーカス量補正部1074により行われる。
次に、図7Dに示されるように、被写体が専用AFエリアからはずれて像面AFエリア上に位置している場合に、像面デフォーカス量を補正することにより像面デフォーカス量の精度を高める処理について説明する。図15および図16は、像面フォーカス補正処理の流れを示すフローチャートである。像面フォーカス量補正処理は、専用AFセンサ1020により得られるデフォーカス量と像面AFセンサ1031により得られるデフォーカス量との差分に基づいて像面デフォーカス量の補正を行うものである。像面フォーカス量補正処理はデフォーカス量補正部1074により行われる。
まず、ステップS501で、専用AFセンサ1020と像面AFセンサ1031のそれぞれで焦点検出が行われる。次にステップS502で、被写体の中のユーザが目標とする被写体(主被写体)にフォーカスが合った(追尾する被写体が決定したか)か否かが判定される。主被写体にフォーカスが合っていない場合、処理はステップS503に進む(ステップS502のYes)。
次にステップS503で、専用AFセンサ1020により焦点検出がなされた否かが確認される。専用AFセンサ1020により焦点検出がなされている場合、処理はステップS504に進み、専用AFセンサ1020の焦点検出により得られるデフォーカス量によりAF制御が行われる。専用AFセンサ1020により焦点検出がなされている限り、ステップS504で専用AFセンサ1020により得られるデフォーカス量によりAF制御が行われる。なお、ステップS504のAF制御は、図10のフローチャートにおけるステップS3のAF制御処理に相当するものである。
一方、ステップS503で、専用AFセンサ1020により焦点検出がなされていない場合、処理はステップS505に進む(ステップS503のNo)。そして、ステップS505で、AF不能時における処理が行われる。専用AFセンサ1020により焦点検出がなされず、AF制御が不能となっている場合、例えば、撮像装置1000のレリーズボタンを無効として撮影不可状態とする。このレリーズボタンの無効は、例えば、その後専用AFセンサ1020により焦点検出がなされて時点で解除されるようにするとよい。
説明はステップS502に戻る。ステップS502で、被写体の中のユーザが目標とする被写体にフォーカスが合ったと判定された場合、処理はステップS506に進む(ステップS502のYes)。次にステップS503で、専用AFセンサ1020または像面AFセンサ1031で焦点検出がなされたか否かが確認される。専用AFセンサ1020、像面AFセンサ1031のいずれでも焦点検出がなされていない場合、処理はステップS505に進み、AF不能時における処理が行われる(ステップS506のNo)。AF不能時における処理とは上述したように例えば、レリーズボタンの無効である。これは、専用AFセンサ1020、像面AFセンサ1031のどちらもが焦点検出できていない場合には撮影を行うことができないからである。レリーズボタンの無効は、上述したように、例えば、その後専用AFセンサ1020により焦点検出がなされて時点で解除されるようにするとよい。
一方、ステップS506で、専用AFセンサ1020または像面AFセンサ1031で焦点検出がなされた場合、処理はステップS507に進む(ステップS506のYes)。次にステップS507で、主被写体にフォーカスが合い、追尾中であるか否かが判定される。これは、例えば、フォーカスのずれ量が所定値以下のエリアがあるか否かを確認することにより、複数のAFエリアの中に前回の主被写体に対するAF動作によってほぼフォーカスが合った状態にあるAFエリアがあるかを確認することにより行うことができる。
主被写体にフォーカスが合っておらず追尾中ではない場合、処理はステップS503に進む(ステップS507のNo)。そして、ステップS503で、専用AFセンサ1020により焦点検出が可能であれば、ステップS504で、専用AFセンサ1020により検出されるデフォーカス量によりAF制御が行われる。また、ステップS503で、専用AFセンサ1020により焦点検出が不可能な状態であれば、ステップS505でAF不能時の処理が行われる。
ステップS507で、主被写体を追尾中であることを確認した場合、処理はステップS508に進む(ステップS507のYes)。次にステップS508で、追尾中の主被写体を捉えているエリアが専用AFエリアであるか否かを確認する。専用AFエリアにおいて主被写体を捉えている場合、ステップS509で、表示部において専用AFセンサ1020および像面AFセンサ1031のエリア表示が行われる。
このステップS509のエリア表示においては、例えば、図7Dに示すように、像面AFエリアを示す十字のうち、被写体と重なる十字を太線で表すなどの表示を行うとよい。これにより、ユーザは現在被写体と捉えているエリアを容易に把握することができる。また、太線表示に代えて、または太線表示に加えて、被写体と重なる十字に色を付して表示してもよい。
次にステップS510で、主被写体と重なる専用AFエリアにおいて検出されたデフォーカス量と像面AFエリアにおいて検出されたデフォーカス量との差分を算出し、それを撮像装置1000の記憶部やキャッシュメモリなどに記憶保持する。
差分の算出方法としては、例えば、重なっている専用AFエリアと像面AFエリアのそれぞれで検出されるデフォーカス量を差分を求めるという方法がある。また、1つの専用AFエリアのデフォーカス量と、その周囲の複数の像面AFエリアのデフォーカス量の平均とを対応させて、差分を求めるようにしてもよい。さらに、このデフォーカス量の差分は、撮影レンズ1011の収差特性の影響も受けるため、例えば被写体がフレームの略中央から離れた位置にある場合には、撮影レンズ1011の収差量を加味して、差分にオフセット量を加えるようにしてもよい。
詳しくは後述するが、この差分は、主被写体が専用AFエリアから外れ、像面AFエリア上にのみ位置している場合にフォーカス調整を補正するために用いられる。
次にステップS504で、専用AFセンサ1020のデフォーカス量に基づいてAF制御が行われる。これは、像面AFセンサ1031に比べ、専用AFセンサ1020の方がAFの精度が高いため、主被写体が専用AFエリアに重なっている場合には専用AFセンサ1020のデフォーカス量を用いてAF制御を行ったほうがよいからである。その後、処理はステップS501に戻る。
説明はステップS508に戻る。ステップS508で、追尾中の被写体を捉えているエリアが専用AFエリアではないと判定した場合、処理はステップS511に進む(ステップS508のNo)。
追尾中の主被写体を捉えているエリアが専用AFエリアではない場合とは、像面AFエリア上において、像面AFセンサ1031のみで主被写体を捉えている場合である。そこで、次にステップS511で、主被写体を捉えている像面AFエリアが特定される。特定方法としては例えば、前回主被写体を捉えていた専用AFエリアに隣接した複数の像面AFエリアの中から、所定値以下のデフォーカス量が検出されるエリアを特定し、そのエリアが捉えている被写体を主被写体と同一の被写体とする。
次にステップS512で、主被写体に重なっていると考えられる複数の像面AFエリアをグルーピングし、それら像面AFエリアで検出されたデフォーカス量の平均化処理など、AFの追尾がスムーズに行われるように所定のデータ処理が行われる。
次にステップS513で、グルーピングされた複数の像面AFエリアが前回の処理における主被写体の位置に近傍しているか否かが判定される。これは、主被写体とは別の被写体が入り込んできた場合などにその別の被写体にフォーカスが合ってしまわないように、グルーピングされた複数の像面AFエリアが前回の焦点検出時に被写体を捉えていたエリアに近傍している場合にのみ追尾を継続するための処理である。ここで、近傍しているとは、例えばエリアが隣り合っている状態などである。
グルーピングされた複数の像面AFエリアが前回の処理における主被写体の位置に近傍している場合、処理はステップS505に進む(ステップS513のNo)。そして、ステップS505で、AF不能時における処理が行われる。AF不能時における処理は上述のものと同様である。
一方、グルーピングされた複数の像面AFエリアが前回の処理における主被写体の位置に近傍している場合、処理はステップS514に進む(ステップS513のYes)。そしてステップS514で、ステップS510で算出して記憶しておいたデフォーカス量の差分を用いて、像面AFセンサ1031により検出されたデフォーカス量が補正される。
通常、像面AFセンサは専用AFセンサに比べて焦点検出の精度が十分ではない場合が多い。そこで、専用AFセンサ1020で焦点検出が可能な状態において専用AFエリアと像面AFエリアとが重なっているAFエリアにおいては、2つの焦点検出結果の差分を算出しておく。そして、被写体が像面AFエリアのみ重なっている場合、その差分を用いて像面AFセンサ1031の焦点検出を補正する。これにより、像面AFセンサ1031のみであっても、専用AFセンサ1020と同等の制度が高い焦点検出が可能となる。
次にステップS515で、像面AFセンサ1031の追尾エリアが表示される。このステップS515のエリア表示においては、例えば、図7Cに示すように、像面AFセンサ1031を示す十字および専用AFエリアを示す枠のうち、被写体と重なる十字および枠を太線で表すなどの表示を行うとよい。これにより、ユーザは現在被写体と捉えているエリアを容易に把握することができる。また、太線表示に代えて、または太線表示に加えて、被写体と重なる十字および枠に色を付して表示してもよい。
そして、ステップS516で、補正後の像面AFセンサ1031のデフォーカス量に基づいてAF制御が行われる。このAF制御は、図10のフローチャートにおけるステップS3のAF制御処理に相当するものである。
このように、像面デフォーカス量補正処理においては、専用AFセンサ1020と像面AFセンサ1031との両方が焦点検出を行うことが出来る場合に、常に専用AFセンサ1020によるデフォーカス量と像面AFセンサ1031によるデフォーカス量との差分を算出しておく。そして、被写体が専用AFエリアから外れ、像面AFセンサ1031のみが焦点検出を行うことができる状態になると、算出しておいた差分を用いて像面AFセンサ1031によるデフォーカス量を補正する。これにより、像面AFセンサ1031による焦点検出の精度を高め、精度の高いオートフォーカスと広いAFエリアの両立を図ることができる。
<2.第2の実施の形態>
[2-1.撮像装置の構成]
次に、本技術の第2の実施の形態について説明する。図17は、第2の実施の形態に係る撮像装置1000の構成を示すブロック図である。第2の実施の形態における撮像装置1000は被写体検出部1076を備える。
[2-1.撮像装置の構成]
次に、本技術の第2の実施の形態について説明する。図17は、第2の実施の形態に係る撮像装置1000の構成を示すブロック図である。第2の実施の形態における撮像装置1000は被写体検出部1076を備える。
被写体検出部1076は、供給された画像データに係る画像中から被写体を検出するものである。被写体としては例えば、人物の顔などがある。第2の実施の形態の説明は、被写体が人物であり、その人物の顔を検出する場合を例にして行う。ただし、被写体検出部1076により検出するのは必ずしも人物の顔である必要はなく、検出することができる物体であれば動物、建築物などでもよい。
顔検出方法としては、顔の形状に基づくテンプレートマッチング、顔の輝度分布に基づくテンプレートマッチング、画像に含まれる肌色の部分や人間の顔の特徴量等に基づく方法などを用いることができる。また、これらの手法を組み合わせて顔検出の精度を高めるようにしてもよい。なお、被写体検出部1076以外の構成は第1の実施の形態と同様であるため、その説明を省略する。
[2-2.処理の概要]
次に、第2の実施の形態において行われる処理について説明する。まず、図18および図19を参照して本実施の形態において行われるフォーカス処理の概要について説明する。図18は第2の実施の形態の第1の例、図19は第2の実施の形態の第2の例を示すものである。図18乃至図19は、撮影画面内における専用AFエリアと、撮影画面内における像面AFエリアと、オートフォーカスにより追尾する被写体を示したものである。図18および図19において、破線の四角形は専用AFセンサ1020によるAFエリアを示し、破線の十字は像面AFセンサ1031によるAFエリアを示す。
次に、第2の実施の形態において行われる処理について説明する。まず、図18および図19を参照して本実施の形態において行われるフォーカス処理の概要について説明する。図18は第2の実施の形態の第1の例、図19は第2の実施の形態の第2の例を示すものである。図18乃至図19は、撮影画面内における専用AFエリアと、撮影画面内における像面AFエリアと、オートフォーカスにより追尾する被写体を示したものである。図18および図19において、破線の四角形は専用AFセンサ1020によるAFエリアを示し、破線の十字は像面AFセンサ1031によるAFエリアを示す。
図18の第1の例においては、まず図18Aに示されるように、撮影画面内において撮影対象である被写体の顔が検出される。被写体の顔は専用AFエリアおよび像面AFエリア上に位置している。この場合、図18Bに示されるように、顔と重なるエリアにおけるデフォーカス量を用いてフォーカス制御が行われる。なお、専用AFエリアと像面AFエリアとの両方に被写体の顔が重なっている場合には、専用AFセンサ1020によるデフォーカス量に基づいてフォーカス制御を行うとよい。専用AFセンサ1020の方が像面AFセンサ1031に比べて焦点検出の精度が高いからである。
そして、被写体にフォーカスが合った後に図18Cに示されるように被写体が移動した場合には、移動した被写体が位置するAFエリアにおけるデフォーカス量に基づいてフォーカス制御が行われる。そして、図18Dに示されるように、被写体の顔位置がAFエリア外に移動した場合には、撮像装置1000は、所定時間処理を待ち状態にして待機する。そして、その被写体が所定時間内に再びAFエリア内に入った場合には、被写体の顔が位置しているAFエリアにおけるデフォーカス量に基づいてフォーカス制御が行われる。一方、所定時間内に被写体がAFエリア内に入らなければ、図18Dに示されるように、AFエリア上に位置する別の被写体にフォーカスを合わせる。
図19の第2の例においては、まず図19Aに示されるように、撮影画面内において撮影対象である被写体の顔が検出される。被写体の顔は像面AFエリア上に位置している。この場合、図19Bに示されるように、顔と重なる像面AFエリアにおけるデフォーカス量を用いてフォーカス制御が行われる。
そして、被写体にフォーカスが合った後に図19Cに示されるように被写体が移動した場合には、移動した被写体が位置するAFエリアにおけるデフォーカス量に基づいてフォーカス制御が行われる。そして、図19Dに示されるように、被写体の顔位置がAFエリア外に移動した場合には、撮像装置1000は、所定時間処理を待ち状態にして待機する。そして、その被写体が所定時間内に再びAFエリア内に入った場合には、被写体の顔が位置しているAFエリアにおけるデフォーカス量に基づいてフォーカス制御が行われる。一方、所定時間内に被写体がAFエリア内に入らなければ、図19Dに示されるように、AFエリア上に位置する別の被写体にフォーカスを合わせる。なお、処理の全体フローチャートは、図10に示される第1の実施の形態におけるものと同様である。
[2-3.デフォーカス量選択処理]
次に図20および図21のフローチャートを参照して、上述した全体フローチャートに含まれるデフォーカス量選択処理について説明する。図20および図21のフローチャートにおいて、ステップS1001乃至ステップS1006以外の処理は第1の実施の形態と同様であるため、その説明を省略する。
次に図20および図21のフローチャートを参照して、上述した全体フローチャートに含まれるデフォーカス量選択処理について説明する。図20および図21のフローチャートにおいて、ステップS1001乃至ステップS1006以外の処理は第1の実施の形態と同様であるため、その説明を省略する。
ステップS1001で像面デフォーカス量決定処理がなされた後、処理はステップS1002に進む。なお、第2の実施の形態における像面デフォーカス量決定処理の詳細については後述する。ただし、第2の実施の形態における像面デフォーカス量決定処理も第1の実施の形態と同様に、複数ある像面AFエリアごとにデフォーカス量を算出し、像面デフォーカス量を決定する処理である。
次にステップS1002で、撮影画面内において被写体の顔が検出されたか否かが判定される。顔が検出されていない場合、処理はステップS104に進む(ステップS1002のNo)。
一方、顔が検出された場合、処理はステップS1003に進む(ステップS1002のYes)。次にステップS1003で、検出された顔が専用AFエリアに重なっているか否かが判定される。顔が専用AFエリアに重なっている場合、ステップS1004で、顔として検出された領域内に位置する専用AFエリアのデフォーカス量の中から最小のものが選択デフォーカス量とされる(ステップS1003のYes)。
ステップS1003で、検出された顔が専用AFエリアに重なっていない場合、処理はステップS1005に進む(ステップS1004のNo)。次にステップS1005で、検出された顔が像面AFエリアに重なっているか否かが判定される。顔が像面AFエリアに重なっている場合、ステップS1006で、顔として検出された領域内に位置する複数の像面AFエリアのデフォーカス量の中から最小のものが選択デフォーカス量とされる(ステップS1005のYes)。
その他の処理は第1の実施の形態と同様であるため、説明を省略する。なお、安定化処理も第1の実施の形態と同様である。
次に図22のフローチャートを参照して、第2の実施の形態における像面デフォーカス量決定処理について説明する。なお、図22のフローチャートにおいて、ステップS3001乃至ステップS3004以外の処理は第1の実施の形態と同様であるため、その説明を省略する。
まずステップS3001で、像面顔デフォーカス量に最大値を代入する。像面顔デフォーカス量とは、撮影画面において被写体の顔として検出された領域と重なる像面AFエリアにおけるデフォーカス量を示すものである。像面顔デフォーカス量に最大値を代入することは初期化を行うことに相当する。例えば、像面顔デフォーカス量を16Bitの符号付きデータとして定義したとする。この場合、像面顔デフォーカス量の取り得る範囲は「-32768~+32767」となる。「像面顔デフォーカス量=最大値」は初期化に相当するものであるため、その最大値「+32767」を代入する。この最大値を代入した像面顔デフォーカス量は、顔領域と重なる像面AFエリアごと得られる像面デフォーカス量の大小の判定を行う際に比較されるものであるため、比較用像面顔デフォーカス量と称する。
また、ステップS3001で、第1の実施の形態と同様に比較用像面デフォーカス量にも最大値が代入される。ステップS302で、変数iに1が代入されるのも第1の実施の形態と同様である。
ステップS303で、ローコントラストではないと判定された場合、処理はステップS3001に進む(ステップS303のNo)。次にステップS3002で、複数ある像面AFエリアの中の変数iに対応する像面AFエリアが顔として検出された領域に重なっているか否かが確認される。
変数iに対応する像面AFエリアが顔領域に重なっている場合、処理はステップS3003に進む(ステップS3002のYes)。次にステップS3003で、比較用像面顔デフォーカス量の絶対値と、i番目の像面AFエリアにおける像面デフォーカス量の絶対値との比較判定が行われる。比較の結果、比較用像面顔デフォーカス量の絶対値に対して、i番目の像面AFエリアにおける像面デフォーカス量の絶対値が小さい場合、処理はステップS3004に進む(ステップS3003のNo)。そして、ステップS3004で、顔領域に重なっているi番目の像面AFエリアのデフォーカス量が決定する。
一方、ステップS3003で、比較用像面顔デフォーカス量の絶対値に対して、i番目の像面AFエリアにおける像面デフォーカス量の絶対値が大きい場合、ステップS3004の処理は行わず、ステップS304に進む(ステップS3003のYes)。また、ステップS3002で、変数iに対応する像面AFエリアが顔領域に重なっている場合も、ステップS3004の処理は行われず、ステップS304に進む(ステップS3002のYes)。この場合、ステップS3004の処理は行われないため、顔領域に重なっているi番目の像面AFエリアの像面デフォーカス量は決定されないこととなる。以上のようにして、第2の実施の形態において、顔として検出された領域に重なる像面AFエリアにおけるデフォーカス量が決定される。
以上のようにして第2の実施の形態における処理が行われる。第2の実施の形態においては、被写体の顔として検出された領域に重なるAFエリアにおけるデフォーカス量に基づいてフォーカス制御が行われるため、図18、図19に示されるような顔位置に基づいたフォーカス制御が可能となる。
以上のようにして本技術における処理が行われる。通常、被写体にフォーカスを合わせて追尾している状態で被写体が専用AFセンサ1020のAFエリア外に出てしまった場合、ユーザが目標とする被写体の背景に存在する被写体にフォーカスが合ってしまう場合がある。しかし、本技術によれば、像面AFセンサ1031で広い範囲で被写体を捉えることができるため、一度被写体にフォーカスが合えば、その被写体が像面AFセンサ1031のAFエリアから外れても、フォーカスを合わせ続けることができ、誤って別の被写体にフォーカスが合ってしまうことを防止することができる。
また、ユーザが希望する被写体にフォーカスを合わせて追尾動作を行なっているときにフレーム内に至近側の別の被写体が入った場合、その別の被写体にフォーカスが合ってしまう場合がある。しかし、本技術によれば、一度被写体にフォーカスが合っている状態となれば、別の被写体が至近側に入ってきても、フォーカスが移らず、引き続きユーザが希望する被写体にフォーカスを合わせて続けることができる。
また、専用AFセンサ1020に加え、フォーカス可能な範囲が広い像面AFセンサ1031も併用するため、被写体の位置が大きく変化しても、確実に被写体を捉えて追尾を続けることができる。さらに、被写体の顔などを検出した場合、その顔などが像面AFエリアに重なっている場合には、像面デフォーカス量を用いてフォーカス制御を行うため、より広範な被写体追尾を実現することができる。
<3.変形例>
以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
本技術は以下のような構成も取ることができる。
(1)撮影画面内に複数の第1の焦点検出エリアを有し、該第1の焦点検出エリアにおける第1のデフォーカス量を検出する第1の焦点検出部と、
撮影画面内に複数の第2の焦点検出エリアを有し、該第2の焦点検出エリアにおける第2のデフォーカス量を検出する第2の焦点検出部と、
前記第1の焦点検出部により検出された前記第1のデフォーカス量と、前記第2の焦点検出部により検出された前記第2のデフォーカス量のどちらを用いるかを選択するデフォーカス量選択部と、
前記デフォーカス量選択部により選択された前記デフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行うフォーカス制御部と
を備える撮像装置。
撮影画面内に複数の第2の焦点検出エリアを有し、該第2の焦点検出エリアにおける第2のデフォーカス量を検出する第2の焦点検出部と、
前記第1の焦点検出部により検出された前記第1のデフォーカス量と、前記第2の焦点検出部により検出された前記第2のデフォーカス量のどちらを用いるかを選択するデフォーカス量選択部と、
前記デフォーカス量選択部により選択された前記デフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行うフォーカス制御部と
を備える撮像装置。
(2)前記デフォーカス量選択部は、被写体が前記第1の焦点検出エリアおよび前記第2の焦点検出エリアに重なっている場合には、前記第1のデフォーカス量を選択する
前記(1)に記載の撮像装置。
前記(1)に記載の撮像装置。
(3)前記デフォーカス量選択部は、前記撮像装置が至近優先モードである場合には、前記第1のデフォーカス量を選択する
前記(1)から(2)のいずれかに記載の撮像装置。
前記(1)から(2)のいずれかに記載の撮像装置。
(4)前記複数の第2の焦点検出エリアのそれぞれに対応する前記第2のデフォーカス量を決定するデフォーカス量決定部をさらに備える
前記(1)から(3)のいずれかに記載の撮像装置。
前記(1)から(3)のいずれかに記載の撮像装置。
(5)前記デフォーカス量決定部は、前記第2の焦点検出部により前記第2のデフォーカス量の検出がなされた場合、前回決定された前記第2のデフォーカス量と閾値とを比較し、閾値以下である場合には前回決定された前記第2のデフォーカス量を第2のデフォーカス量として決定する
前記(4)に記載の撮像装置。
前記(4)に記載の撮像装置。
(6)前記デフォーカス量決定部は、前記第2の焦点検出部により前記第1のデフォーカス量の検出がなされた場合、前回決定された前記第2のデフォーカス量と閾値とを比較し、閾値以上である場合、検出された前記第2のデフォーカス量に対応する前記第2の焦点検出エリアの周囲のエリアにおけるデフォーカス量のうち最小の値を前記第2のデフォーカス量として決定する
前記(1)から(5)のいずれかに記載の撮像装置。
前記(1)から(5)のいずれかに記載の撮像装置。
(7)前記第2の焦点検出部により検出される前記第2のデフォーカス量を補正するデフォーカス量補正部をさらに備える
前記(1)から(6)のいずれかに記載の撮像装置。
前記(1)から(6)のいずれかに記載の撮像装置。
(8)前記デフォーカス量補正部は、前記被写体が前記第1の焦点検出エリアおよび前記第2の焦点検出エリアに重なっている場合に、前記第1のデフォーカス量と前記第2のデフォーカス量との差分を算出し、その後、前記被写体が前記第2の焦点検出エリアにのみ重なっている場合に、前記差分を用いて前記第2のデフォーカス量を補正する
前記(1)から(7)のいずれかに記載の撮像装置。
前記(1)から(7)のいずれかに記載の撮像装置。
(9)撮影画像から被写体を検出する被写体検出部をさらに備え、
前記前記デフォーカス量選択部は、前記被写体検出部により被写体として検出された領域に前記第1の焦点エリアが重なる場合に、前記第1のデフォーカス量を選択する
前記(1)から(8)のいずれかに記載の撮像装置。
前記前記デフォーカス量選択部は、前記被写体検出部により被写体として検出された領域に前記第1の焦点エリアが重なる場合に、前記第1のデフォーカス量を選択する
前記(1)から(8)のいずれかに記載の撮像装置。
(10)前記前記デフォーカス量選択部は、前記被写体検出部により被写体として検出された領域に前記第1の焦点エリアが重ならず、前記第2の焦点エリアが重なる場合、前記第2のデフォーカス量を選択する
前記(1)から(9)のいずれかに記載の撮像装置。
前記(1)から(9)のいずれかに記載の撮像装置。
(11)前記第1の焦点検出部は、位相差焦点検出専用モジュールである
前記(1)から(10)のいずれかに記載の撮像装置。
前記(1)から(10)のいずれかに記載の撮像装置。
(12)前記第2の焦点検出部は、撮像素子に設けられた位相差焦点検出素子である
前記(1)から(11)のいずれかに記載の撮像装置。
前記(1)から(11)のいずれかに記載の撮像装置。
(13) 前記撮影画面において、前記第2の焦点検出エリアの位置は前記第1の焦点検出エリアの位置が合うように不均等に配置されている
前記(1)から(12)のいずれかに記載の撮像装置。
前記(1)から(12)のいずれかに記載の撮像装置。
(14)前記第1の焦点検出部が前記第1のデフォーカス量を検出できず、前記第2の焦点検出部が前記第2のデフォーカス量を検出できない場合には、撮影動作を無効とする
前記(1)から(13)のいずれかに記載の撮像装置。
前記(1)から(13)のいずれかに記載の撮像装置。
(15)撮影画面内に複数の第1の焦点検出エリアを有する第1の焦点検出部により検出された第1のデフォーカス量と、撮影画面内に複数の第2の焦点検出エリアを有する第2の焦点検出部により検出された第2のデフォーカス量のどちらを用いるかを選択し、
選択された前記デフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行う
フォーカス制御方法。
選択された前記デフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行う
フォーカス制御方法。
1000・・・撮像装置
1020・・・専用AFセンサ
1031・・・像面AFセンサ
1072・・・デフォーカス量選択部
1073・・・デフォーカス量決定部
1074・・・デフォーカス量補正部
1075・・・フォーカス制御部
1076・・・被写体検出部
1020・・・専用AFセンサ
1031・・・像面AFセンサ
1072・・・デフォーカス量選択部
1073・・・デフォーカス量決定部
1074・・・デフォーカス量補正部
1075・・・フォーカス制御部
1076・・・被写体検出部
Claims (15)
- 撮影画面内に複数の第1の焦点検出エリアを有し、該第1の焦点検出エリアにおける第1のデフォーカス量を検出する第1の焦点検出部と、
撮影画面内に複数の第2の焦点検出エリアを有し、該第2の焦点検出エリアにおける第2のデフォーカス量を検出する第2の焦点検出部と、
前記第1の焦点検出部により検出された前記第1のデフォーカス量と、前記第2の焦点検出部により検出された前記第2のデフォーカス量のどちらを用いるかを選択するデフォーカス量選択部と、
前記デフォーカス量選択部により選択された前記デフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行うフォーカス制御部と
を備える撮像装置。 - 前記デフォーカス量選択部は、被写体が前記第1の焦点検出エリアおよび前記第2の焦点検出エリアに重なっている場合には、前記第1のデフォーカス量を選択する
請求項1に記載の撮像装置。 - 前記デフォーカス量選択部は、前記撮像装置が至近優先モードである場合には、前記第1のデフォーカス量を選択する
請求項1に記載の撮像装置。 - 前記複数の第2の焦点検出エリアのそれぞれに対応する前記第2のデフォーカス量を決定するデフォーカス量決定部をさらに備える
請求項1に記載の撮像装置。 - 前記デフォーカス量決定部は、前記第2の焦点検出部により前記第2のデフォーカス量の検出がなされた場合、前回決定された前記第2のデフォーカス量と閾値とを比較し、閾値以下である場合には前回決定された前記第2のデフォーカス量を第2のデフォーカス量として決定する
請求項4に記載の撮像装置。 - 前記デフォーカス量決定部は、前記第2の焦点検出部により前記第1のデフォーカス量の検出がなされた場合、前回決定された前記第2のデフォーカス量と閾値とを比較し、閾値以上である場合、検出された前記第2のデフォーカス量に対応する前記第2の焦点検出エリアの周囲のエリアにおけるデフォーカス量のうち最小の値を前記第2のデフォーカス量として決定する
請求項1に記載の撮像装置。 - 前記第2の焦点検出部により検出される前記第2のデフォーカス量を補正するデフォーカス量補正部をさらに備える
請求項1に記載の撮像装置。 - 前記デフォーカス量補正部は、前記被写体が前記第1の焦点検出エリアおよび前記第2の焦点検出エリアに重なっている場合に、前記第1のデフォーカス量と前記第2のデフォーカス量との差分を算出し、その後、前記被写体が前記第2の焦点検出エリアにのみ重なっている場合に、前記差分を用いて前記第2のデフォーカス量を補正する
請求項7に記載の撮像装置。 - 撮影画像から被写体を検出する被写体検出部をさらに備え、
前記前記デフォーカス量選択部は、前記被写体検出部により被写体として検出された領域に前記第1の焦点エリアが重なる場合に、前記第1のデフォーカス量を選択する
請求項1に記載の撮像装置。 - 前記前記デフォーカス量選択部は、前記被写体検出部により被写体として検出された領域に前記第1の焦点エリアが重ならず、前記第2の焦点エリアが重なる場合、前記第2のデフォーカス量を選択する
請求項1に記載の撮像装置。 - 前記第1の焦点検出部は、位相差焦点検出専用モジュールである
請求項1に記載の撮像装置。 - 前記第2の焦点検出部は、撮像素子に設けられた位相差焦点検出素子である
請求項1に記載の撮像装置。 - 前記撮影画面において、前記第2の焦点検出エリアの位置は前記第1の焦点検出エリアの位置が合うように不均等に配置されている
請求項1に記載の撮像装置。 - 前記第1の焦点検出部が前記第1のデフォーカス量を検出できず、前記第2の焦点検出部が前記第2のデフォーカス量を検出できない場合には、撮影動作を無効とする
請求項1に記載の撮像装置。 - 撮影画面内に複数の第1の焦点検出エリアを有する第1の焦点検出部により検出された第1のデフォーカス量と、撮影画面内に複数の第2の焦点検出エリアを有する第2の焦点検出部により検出された第2のデフォーカス量のどちらを用いるかを選択し、
選択された前記デフォーカス量に基づいてフォーカスレンズを移動させることによりフォーカス制御を行う
フォーカス制御方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/414,165 US9554029B2 (en) | 2012-09-11 | 2013-07-09 | Imaging apparatus and focus control method |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012-199533 | 2012-09-11 | ||
| JP2012199533 | 2012-09-11 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2014041733A1 true WO2014041733A1 (ja) | 2014-03-20 |
Family
ID=50277880
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2013/004227 Ceased WO2014041733A1 (ja) | 2012-09-11 | 2013-07-09 | 撮像装置およびフォーカス制御方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US9554029B2 (ja) |
| WO (1) | WO2014041733A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019148668A (ja) * | 2018-02-26 | 2019-09-05 | オリンパス株式会社 | 焦点調節装置及び焦点調節装置の制御方法 |
| JP2019184887A (ja) * | 2018-04-13 | 2019-10-24 | キヤノン株式会社 | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014041859A1 (ja) * | 2012-09-11 | 2014-03-20 | ソニー株式会社 | 撮像制御装置、撮像装置、および、撮像制御装置の制御方法 |
| JP6249825B2 (ja) * | 2014-03-05 | 2017-12-20 | キヤノン株式会社 | 撮像装置、その制御方法、および制御プログラム |
| JP6566654B2 (ja) * | 2015-02-13 | 2019-08-28 | キヤノン株式会社 | 制御装置、撮像装置、制御方法、プログラム、および記憶媒体 |
| JP2018010213A (ja) * | 2016-07-15 | 2018-01-18 | キヤノン株式会社 | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 |
| JP6911304B2 (ja) * | 2016-09-07 | 2021-07-28 | ソニーグループ株式会社 | 撮像制御装置および撮像制御方法 |
| JP6630318B2 (ja) * | 2017-08-03 | 2020-01-15 | キヤノン株式会社 | 焦点調節装置及び方法 |
| JP7086551B2 (ja) * | 2017-09-21 | 2022-06-20 | キヤノン株式会社 | 撮像装置及びその制御方法 |
| JP2021032984A (ja) * | 2019-08-21 | 2021-03-01 | キヤノン株式会社 | 撮像装置およびその制御方法 |
| JP2021043256A (ja) * | 2019-09-06 | 2021-03-18 | パナソニックIpマネジメント株式会社 | 撮像装置 |
| JP7324160B2 (ja) * | 2020-02-19 | 2023-08-09 | キヤノン株式会社 | 撮影制御装置、撮像装置、撮影制御方法、及びプログラム |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007233035A (ja) * | 2006-03-01 | 2007-09-13 | Nikon Corp | 焦点調節装置および撮像装置 |
| JP2010128205A (ja) * | 2008-11-27 | 2010-06-10 | Nikon Corp | 撮像装置 |
Family Cites Families (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6453124B2 (en) * | 2000-03-27 | 2002-09-17 | Minolta Co., Ltd. | Digital camera |
| EP1684503B1 (en) * | 2005-01-25 | 2016-01-13 | Canon Kabushiki Kaisha | Camera and autofocus control method therefor |
| JP4717572B2 (ja) * | 2005-09-20 | 2011-07-06 | キヤノン株式会社 | 光学機器および焦点調節方法 |
| US7728903B2 (en) * | 2005-11-30 | 2010-06-01 | Nikon Corporation | Focus adjustment device, focus adjustment method and camera |
| US7751700B2 (en) * | 2006-03-01 | 2010-07-06 | Nikon Corporation | Focus adjustment device, imaging device and focus adjustment method |
| JP2007248782A (ja) * | 2006-03-15 | 2007-09-27 | Olympus Imaging Corp | 焦点調節装置およびカメラ |
| US8253800B2 (en) * | 2006-06-28 | 2012-08-28 | Nikon Corporation | Tracking device, automatic focusing device, and camera |
| JP2008275890A (ja) * | 2007-04-27 | 2008-11-13 | Olympus Imaging Corp | レンズ交換式デジタルカメラ |
| JP5264131B2 (ja) * | 2007-09-14 | 2013-08-14 | キヤノン株式会社 | 撮像装置 |
| US8717490B2 (en) * | 2009-06-19 | 2014-05-06 | Casio Computer Co., Ltd | Imaging apparatus, focusing method, and computer-readable recording medium recording program |
| JP5464934B2 (ja) * | 2009-07-23 | 2014-04-09 | キヤノン株式会社 | 撮像装置及び撮像装置の制御方法 |
| JP5306116B2 (ja) * | 2009-08-31 | 2013-10-02 | キヤノン株式会社 | 焦点状態検出装置、撮像装置、およびその制御方法 |
| KR101624654B1 (ko) * | 2010-03-15 | 2016-05-26 | 삼성전자주식회사 | 초점 조절 장치 및 초점 조절 방법 |
| JP5932210B2 (ja) * | 2010-04-30 | 2016-06-08 | キヤノン株式会社 | 撮像装置及び焦点調節方法 |
| JP2012003087A (ja) * | 2010-06-17 | 2012-01-05 | Olympus Corp | 撮像装置 |
| JP5677800B2 (ja) * | 2010-10-21 | 2015-02-25 | オリンパス株式会社 | 撮像装置 |
| JP2012137600A (ja) * | 2010-12-27 | 2012-07-19 | Sony Corp | 撮像システム、撮像装置、およびプログラム |
| JP5822492B2 (ja) * | 2011-03-15 | 2015-11-24 | キヤノン株式会社 | 撮像装置及び制御方法 |
| WO2012133150A1 (ja) * | 2011-03-25 | 2012-10-04 | キヤノン株式会社 | 撮像装置 |
| WO2012133413A1 (ja) * | 2011-03-31 | 2012-10-04 | 富士フイルム株式会社 | 撮像装置、撮像装置の制御方法及びプログラム |
| JP5454508B2 (ja) * | 2011-04-06 | 2014-03-26 | 株式会社ニコン | 光学機器 |
| KR101777351B1 (ko) * | 2011-05-16 | 2017-09-11 | 삼성전자주식회사 | 촬상 소자, 이를 이용한 디지털 촬영 장치, 오토 포커싱 방법, 및 상기 방법을 수행하기 위한 컴퓨터 판독가능 저장매체 |
| JP2013008018A (ja) * | 2011-05-25 | 2013-01-10 | Canon Inc | 撮像装置およびその制御方法 |
| JP5825851B2 (ja) * | 2011-05-27 | 2015-12-02 | キヤノン株式会社 | 撮像装置及びその制御方法 |
| JP5936404B2 (ja) * | 2012-03-23 | 2016-06-22 | キヤノン株式会社 | 撮像装置、その制御方法およびプログラム |
| JP5873378B2 (ja) * | 2012-04-10 | 2016-03-01 | キヤノン株式会社 | 撮像装置およびその制御方法 |
| JP5950664B2 (ja) * | 2012-04-10 | 2016-07-13 | キヤノン株式会社 | 撮像装置およびその制御方法 |
| JP6045214B2 (ja) * | 2012-06-19 | 2016-12-14 | キヤノン株式会社 | 焦点調節装置及びその制御方法 |
| JP2014056032A (ja) * | 2012-09-11 | 2014-03-27 | Sony Corp | 撮像装置 |
| WO2014041859A1 (ja) * | 2012-09-11 | 2014-03-20 | ソニー株式会社 | 撮像制御装置、撮像装置、および、撮像制御装置の制御方法 |
| JP5942757B2 (ja) * | 2012-09-28 | 2016-06-29 | 株式会社ニコン | 焦点検出装置および撮像装置 |
| WO2014080673A1 (ja) * | 2012-11-20 | 2014-05-30 | 富士フイルム株式会社 | 撮像装置及び露出決定方法 |
| WO2014083914A1 (ja) * | 2012-11-29 | 2014-06-05 | 富士フイルム株式会社 | 撮像装置及び合焦制御方法 |
| JP6335482B2 (ja) * | 2013-11-13 | 2018-05-30 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム |
| US9854216B2 (en) * | 2013-12-10 | 2017-12-26 | Canon Kabushiki Kaisha | Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium |
-
2013
- 2013-07-09 WO PCT/JP2013/004227 patent/WO2014041733A1/ja not_active Ceased
- 2013-07-09 US US14/414,165 patent/US9554029B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007233035A (ja) * | 2006-03-01 | 2007-09-13 | Nikon Corp | 焦点調節装置および撮像装置 |
| JP2010128205A (ja) * | 2008-11-27 | 2010-06-10 | Nikon Corp | 撮像装置 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019148668A (ja) * | 2018-02-26 | 2019-09-05 | オリンパス株式会社 | 焦点調節装置及び焦点調節装置の制御方法 |
| JP7039326B2 (ja) | 2018-02-26 | 2022-03-22 | オリンパス株式会社 | 焦点調節装置及び焦点調節装置の制御方法 |
| JP2019184887A (ja) * | 2018-04-13 | 2019-10-24 | キヤノン株式会社 | 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体 |
Also Published As
| Publication number | Publication date |
|---|---|
| US9554029B2 (en) | 2017-01-24 |
| US20150181106A1 (en) | 2015-06-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2014041733A1 (ja) | 撮像装置およびフォーカス制御方法 | |
| JP2014056032A (ja) | 撮像装置 | |
| US9800772B2 (en) | Focus adjustment device and focus adjustment method that detects spatial frequency of a captured image | |
| JP5322783B2 (ja) | 撮像装置及び該撮像装置の制御方法 | |
| US10270978B2 (en) | Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith | |
| US10277823B2 (en) | Zoom control device, imaging apparatus, control method of zoom control device, and recording medium | |
| JP5961929B2 (ja) | カメラ | |
| CN107850753B (zh) | 检测设备、检测方法、检测程序和成像设备 | |
| US10887524B2 (en) | Image pickup apparatus, an image processing method and a non-transitory computer-readable medium | |
| US10477101B2 (en) | Focus detection apparatus, control method and storage medium | |
| JP2007225808A (ja) | オートフォーカスユニット及びデジタルカメラ | |
| JP2006319596A (ja) | 撮像装置および撮像方法 | |
| CN107529019B (zh) | 摄像设备及其控制方法和计算机可读介质 | |
| JP7034585B2 (ja) | フォーカス制御装置、撮像装置、フォーカス制御方法およびフォーカス制御プログラム | |
| JP5092673B2 (ja) | 撮像装置及びそのプログラム | |
| JP2015106116A (ja) | 撮像装置 | |
| US9638916B2 (en) | Image processing device for correcting chromatic aberration | |
| JP2011211329A (ja) | 撮像装置およびその制御方法,ならびに画像処理装置,その制御方法,および画像処理プログラム | |
| JP5328528B2 (ja) | 撮像装置、撮像装置の制御方法、及びコンピュータプログラム | |
| JP6482247B2 (ja) | 焦点調節装置、撮像装置、焦点調節装置の制御方法、及びプログラム | |
| JP2011176457A (ja) | 電子カメラ | |
| US11689805B2 (en) | Image capturing apparatus, method of controlling the same, and storage medium | |
| US10277796B2 (en) | Imaging control apparatus, imaging apparatus, and imaging control method | |
| WO2016038917A1 (ja) | 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、および撮像装置 | |
| JP2017058563A (ja) | 自動焦点調節装置、撮像装置、および自動焦点調節方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13836443 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 14414165 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 13836443 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |