JP5207819B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5207819B2 JP5207819B2 JP2008125567A JP2008125567A JP5207819B2 JP 5207819 B2 JP5207819 B2 JP 5207819B2 JP 2008125567 A JP2008125567 A JP 2008125567A JP 2008125567 A JP2008125567 A JP 2008125567A JP 5207819 B2 JP5207819 B2 JP 5207819B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- split image
- split
- pixels
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus.
銀塩カメラのマニュアルフォーカス(MS)モードにおいて、操作者が被写体に対してピントを合わせる作業を容易にするためにスプリットイメージをファインダーの中央に表示することは知られている。上下に分割されたスプリットイメージはピントがずれているとスプリットイメージ内の一対の画像が左右にずれ、ピントが合った状態だと一対の画像の左右のずれがなくなる。操作者は被写体にスプリットイメージ内の画像のずれがなくなるようマニュアルフォーカスリングを操作してピントを合わせる。 In the manual focus (MS) mode of a silver halide camera, it is known to display a split image at the center of the viewfinder in order to make it easier for the operator to focus on the subject. When the split image divided vertically is out of focus, the pair of images in the split image is shifted to the left and right, and when the image is in focus, the left and right of the pair of images are eliminated. The operator focuses on the subject by operating the manual focus ring so that the image in the split image is not displaced.
特許文献1は、MFモードにおいて被写体距離と焦点距離とのずれ量から電子ビュー画像の中央などのある特定領域を仮想的にスプリットイメージのように左右にずらして表示するデジタルカメラを提案している。特許文献2は、焦点検出用の撮像素子を撮影用撮像素子と別個に備えて瞳分割像を利用したスプリットイメージを撮影用画像に合成表示する方式を提案している。 Patent Document 1 proposes a digital camera that displays a specific area such as the center of an electronic view image that is virtually shifted to the left and right like a split image from the amount of deviation between the subject distance and the focal length in the MF mode. . Japanese Patent Application Laid-Open No. 2004-228561 proposes a method in which a focus detection image pickup device is provided separately from a shooting image pickup device and a split image using a pupil divided image is combined and displayed on a shooting image.
その他の公報として特許文献3〜6がある。
デジタルカメラやデジタルビデオカメラにおいてMF時に電子ビュー画像上にスプリットイメージを表示する場合、銀塩カメラのスプリットイメージだとスプリットイメージの表示の有無、大きさ、位置又は分割方向の変更が機構的に困難である。 When a split image is displayed on an electronic view image during MF in a digital camera or digital video camera, it is mechanically difficult to change the presence / absence, size, position or division direction of the split image if it is a split image of a silver salt camera. It is.
また、特許文献1の方式は、スプリットイメージ画像内の被写体距離の誤差が大きい、カメラの向きが変わる、という問題がある。また、被写体が移動するなど焦点検出対象となる被写体が変わったときにスプリットイメージの左右のずれ量が突然変わって操作者にとって見づらいという問題もある。更には、スプリットイメージの表示の有無、大きさの変更、位置の変更、分割方向の変更などを被写体画像に対し適切に行うことができない、という問題もある。特許文献2の方式は、スプリットイメージの大きさ、位置、分割方向の変更などを被写体画像に対し適応的に行うことができない、という問題がある。 Further, the method of Patent Document 1 has a problem that a subject distance error in the split image is large and the direction of the camera changes. There is also a problem that when the subject that is a focus detection target changes, such as the subject moving, the amount of left / right shift of the split image suddenly changes, making it difficult for the operator to see. Further, there is a problem that the presence / absence of a split image, change in size, change in position, change in division direction, and the like cannot be appropriately performed on the subject image. The method of Patent Document 2 has a problem that it is not possible to adaptively change the size, position, and division direction of the split image on the subject image.
そこで、本発明は、マニュアルフォーカスを容易にするスプリットイメージを表示する撮像装置を提供することを例示的な目的とする。 Therefore, an object of the present invention is to provide an imaging device that displays a split image that facilitates manual focusing.
本発明の一側面としての撮像装置は、フォーカスレンズを含むと共に被写体の像を形成する撮影レンズの射出瞳の全域を通る光を各々が受光して前記被写体の像を生成する複数の第1の画素と、各々が前記撮影レンズの前記射出瞳の一部の領域を通る光を受光して瞳分割画素信号を生成する複数の第2の画素と、を有する撮像素子と、マニュアルフォーカスを可能にするマニュアルフォーカスモードと、前記複数の第2の画素からの信号に基づいて形成され画像を表示するスプリットイメージ表示モードとの両方が設定されると、前記複数の第2の画素から生成された瞳分割画素信号に基づいて2つの画像をスプリットイメージとして生成し、当該2つの画像のそれぞれのコントラストに基づいて、前記スプリットイメージの表示態様を変更するスプリットイメージ領域決定手段とを有することを特徴とする。 An imaging apparatus according to one aspect of the present invention includes a plurality of first objects that include a focus lens and each receive light passing through the entire exit pupil of a photographing lens that forms an image of a subject to generate the image of the subject. Enables manual focusing, an imaging device having pixels and a plurality of second pixels each receiving light passing through a partial region of the exit pupil of the photographing lens and generating a pupil-divided pixel signal And a split image display mode for displaying an image that is formed based on signals from the plurality of second pixels and a pupil generated from the plurality of second pixels is set. the two images on the basis of the divided-pixel signals generated as a split image, based on the respective contrast those said two images, change the display mode of the split image And having a split image region determination means that.
本発明によれば、マニュアルフォーカスを容易にするスプリットイメージを表示する撮像装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging device which displays the split image which makes manual focus easy can be provided.
以下、添付図面を参照して、本発明の実施例について説明する。図1は、本実施例のデジタルカメラ(撮像装置)100のブロック図である。図2は、デジタルカメラ(撮像装置)100を操作者が横向きに構えた状態の背面図である。図3は、デジタルカメラ(撮像装置)100を操作者が縦向きに構えた状態の背面図である。 Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram of a digital camera (imaging device) 100 according to the present embodiment. FIG. 2 is a rear view of the digital camera (imaging device) 100 in a state where the operator holds the digital camera 100 sideways. FIG. 3 is a rear view of the digital camera (imaging device) 100 in a state where the operator holds the camera vertically.
1は被写体から入射した光束により、被写体の光学像を形成する撮影レンズであり、フォーカスレンズ1aを備えた1枚又は複数枚のレンズで構成される。フォーカスレンズ1aは、レンズ制御部4によって光軸方向に駆動制御される。撮影レンズ1の鏡筒の外周には、マニュアルフォーカスリング(マニュアルフォーカス操作部材)18が回転操作可能に設けられている。マニュアルフォーカスリング18の回転は、不図示の伝達機構を介してフォーカスレンズ1aを光軸方向に移動させる。 Reference numeral 1 denotes a photographic lens that forms an optical image of a subject by a light beam incident from the subject, and includes a single lens or a plurality of lenses including a focus lens 1a. The focus lens 1 a is driven and controlled in the optical axis direction by the lens control unit 4. A manual focus ring (manual focus operation member) 18 is rotatably provided on the outer periphery of the lens barrel of the photographic lens 1. The rotation of the manual focus ring 18 moves the focus lens 1a in the optical axis direction via a transmission mechanism (not shown).
2は光学像を電気信号に変換するCCDセンサやCMOSセンサなどの撮像素子である。撮像素子2は、全画素独立出力が可能なように構成されている。また一部の画素が焦点検出用画素(AF用画素)となっており、撮像面で位相差検出方式の焦点検出(位相差AF)が可能となっている。より具体的には、撮像素子2は、被写体の像を形成する撮影レンズ1の射出瞳の全域を通る光を各々が受光して被写体の像を生成する複数の撮影用画素(第1の画素)を有する。また、撮像素子2は、各々が撮影レンズ1の射出瞳の一部の領域を通る光を受光する複数のAF用画素(第2の画素)を更に有する。複数のAF用画素は全体として撮影レンズ1の射出瞳の全域を通る光を受光することができる。複数のAF用画素は瞳分割画素信号を生成する瞳分割画素である。 Reference numeral 2 denotes an image sensor such as a CCD sensor or a CMOS sensor that converts an optical image into an electrical signal. The image sensor 2 is configured so that all pixels can be independently output. Some of the pixels are focus detection pixels (AF pixels), and phase difference detection focus detection (phase difference AF) is possible on the imaging surface. More specifically, the image sensor 2 receives a plurality of shooting pixels (first pixels) that each receive light passing through the entire exit pupil of the shooting lens 1 that forms the image of the subject to generate an image of the subject. ) . In addition, the imaging device 2 further includes a plurality of AF pixels (second pixels) that each receive light passing through a partial region of the exit pupil of the photographing lens 1. The plurality of AF pixels can receive light passing through the entire exit pupil of the photographing lens 1 as a whole. The plurality of AF pixels are pupil division pixels that generate pupil division pixel signals.
3は撮像素子2のアナログ信号出力をデジタル信号に変換するA/D変換部である。4は合焦制御部7に従って撮影レンズ1のフォーカスレンズを制御するレンズ制御部である。5はA/D変換部3の出力から画像信号を受けRGB信号からYUV信号に変換する現像処理部である。 Reference numeral 3 denotes an A / D converter that converts an analog signal output from the image sensor 2 into a digital signal. A lens control unit 4 controls the focus lens of the photographing lens 1 in accordance with the focus control unit 7. A development processing unit 5 receives an image signal from the output of the A / D conversion unit 3 and converts the RGB signal into a YUV signal.
6は撮像素子2のAF用画素が生成した瞳分割画素信号をA/D変換部3の出力から抽出する瞳分割画素抽出部であり、左右瞳分割A画素抽出部6a、左右瞳分割B画素抽出部6b、上下瞳分割A画素抽出部6c、上下瞳分割B画素抽出部6dを有する。抽出された瞳分割画素はそれぞれ左右瞳分割A画像、左右瞳分割B画像、上下瞳分割A画像、上下瞳分割B画像となる。本出願において、「A画像」、「B画像」は単に「A像」、「B像」と呼ばれる場合もある。 Reference numeral 6 denotes a pupil division pixel extraction unit that extracts the pupil division pixel signal generated by the AF pixel of the image sensor 2 from the output of the A / D conversion unit 3, and includes a left and right pupil division A pixel extraction unit 6a and a right and left pupil division B pixel. An extraction unit 6b, an upper and lower pupil division A pixel extraction unit 6c, and an upper and lower pupil division B pixel extraction unit 6d are provided. The extracted pupil division pixels are the left and right pupil division A image, the left and right pupil division B image, the upper and lower pupil division A image, and the upper and lower pupil division B image, respectively. In the present application, “A image” and “B image” may be simply referred to as “A image” and “B image”.
7は瞳分割画素抽出部6より得られた瞳分割画素信号を基にレンズ制御部4を制御する合焦制御部である。 Reference numeral 7 denotes a focus control unit that controls the lens control unit 4 based on the pupil division pixel signal obtained from the pupil division pixel extraction unit 6.
8は瞳分割画素抽出部6によって抽出された瞳分割画素信号からスプリットイメージに使用する瞳分割画素信号を左右瞳分割A画像、左右瞳分割B画像、上下瞳分割A画像、上下瞳分割B画像から選択するスプリットイメージ使用画素選択部である。9はスプリットイメージとして表示する領域を抽出するスプリットイメージ使用領域抽出部である。10はスプリットイメージ使用領域抽出部9によって抽出されたスプリットイメージを表示サイズに変倍する変倍処理部である。11は表示画像サイズに合わせて変倍する変倍処理部である。 Reference numeral 8 denotes a pupil division pixel signal to be used for a split image from the pupil division pixel signal extracted by the pupil division pixel extraction unit 6. The left and right pupil division A image, the left and right pupil division B image, the upper and lower pupil division A image, and the upper and lower pupil division B image This is a split image use pixel selection unit to select from. Reference numeral 9 denotes a split image use area extracting unit that extracts an area to be displayed as a split image. Reference numeral 10 denotes a scaling processing unit that scales the split image extracted by the split image use area extracting unit 9 into a display size. Reference numeral 11 denotes a scaling processing unit that performs scaling according to the display image size.
12はスプリットイメージの2つの画像(後述するA像とB像)の評価値(特徴)を算出する評価値算出部(特徴抽出部、又は姿勢検知手段)である。13はカメラの姿勢(図2に示す姿勢と図3に示す姿勢)を検知できるセンサ(姿勢検知部、又は姿勢検知手段)である。 Reference numeral 12 denotes an evaluation value calculation unit (feature extraction unit or posture detection means ) that calculates evaluation values (features) of two images (A and B images described later) of the split image. Reference numeral 13 denotes a sensor (posture detection unit or posture detection means ) that can detect the posture of the camera (the posture shown in FIG. 2 and the posture shown in FIG. 3).
14は各種の動作指示を入力するための操作部(操作手段)であり、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。操作部14は、マニュアルフォーカス(MF)モードと、スプリットイメージ表示モードと、を設定可能なモード設定部として機能する。MFモードはMFを可能にする。スプリットイメージ表示モードは、複数のAF用画素によって形成され、分割線により2つの画像に分割されたスプリットイメージを表示する。 Reference numeral 14 denotes an operation unit (operation means) for inputting various operation instructions, and is configured by a single or a combination of a switch, a dial, a touch panel, pointing by eye-gaze detection, a voice recognition device, and the like. The operation unit 14 functions as a mode setting unit capable of setting a manual focus (MF) mode and a split image display mode. The MF mode enables MF. In the split image display mode, a split image formed by a plurality of AF pixels and divided into two images by a dividing line is displayed.
図2及び図3に示すように、操作部14は、レリーズボタン14a、モードダイヤル14b、操作ボタン14c〜14f、十字キー14gを含む。 As shown in FIGS. 2 and 3, the operation unit 14 includes a release button 14a, a mode dial 14b, operation buttons 14c to 14f, and a cross key 14g.
レリーズボタン14aは撮影動作を行う。モードダイヤル14bはマニュアルフォーカスモード(MFモード)又はオートフォーカスモード(AFモード)を設定するモード設定部である。操作ボタン14c〜14fは、MFモード時にはスプリットイメージの表示モードのON/OFF、上下分割、左右分割の切り替え、スプリットイメージの適応的自動変更のON/OFF、十字キー14gの操作内容切り替え、メニュー表示を行う。また、メニューによって、操作者は、初期設定されたスプリットイメージの大きさ、位置、分割方向を変更することができる。十字キー14gは、スプリットイメージの位置や大きさを変更する。 The release button 14a performs a shooting operation. The mode dial 14b is a mode setting unit that sets a manual focus mode (MF mode) or an autofocus mode (AF mode). The operation buttons 14c to 14f are, in the MF mode, ON / OFF of the split image display mode, switching between vertical division and left / right division, ON / OFF of adaptive automatic change of the split image, switching of operation contents of the cross key 14g, menu display I do. In addition, the menu allows the operator to change the size, position, and division direction of the initially set split image. The cross key 14g changes the position and size of the split image.
15は評価値算出部12、姿勢検知部13、操作部14からの情報に基づいてスプリットイメージとして表示する領域を決定するスプリットイメージ領域決定部(スプリットイメージ領域決定手段)である。スプリットイメージ領域決定部15は、図示しないメモリを有している。かかるメモリは、デジタルカメラ100の姿勢毎に初期設定されたスプリットイメージの位置、大きさ及び分割線の方向(分割方向)を格納する。スプリットイメージ領域決定部15には、タイマ19が接続されており、スプリットイメージ領域決定部15は、タイマ19において設定時間が経過したことを知ることができる。また、スプリットイメージ領域決定部15には、画像表示部17が接続されており、スプリットイメージ領域決定部15は、画像表示部17においてスプリットイメージが表示されたことを知ることができる。
Reference numeral 15 denotes a split image region determining unit (split image region determining unit) that determines a region to be displayed as a split image based on information from the evaluation value calculating unit 12, the posture detecting unit 13, and the operation unit 14. The split image area determination unit 15 has a memory (not shown). The memory stores the position and size of the split image and the direction of the dividing line (division direction) that are initialized for each posture of the digital camera 100. A timer 19 is connected to the split image area determination unit 15, and the split image area determination unit 15 can know that the set time has elapsed in the timer 19. An image display unit 17 is connected to the split image region determination unit 15, and the split image region determination unit 15 can know that the split image is displayed on the image display unit 17.
姿勢検知部13の検知結果に基づいてスプリットイメージ領域決定部15は、スプリットイメージを初期設定された分割方向で生成するようにスプリットイメージ使用画素選択部8、スプリットイメージ使用領域抽出部9及び画像合成部16を制御する。例えば、姿勢検知部13が図2に示すようにデジタルカメラ100が横位置にあることを検知した場合には、画像表示部17には上下に分割したスプリットイメージ20aが表示される。また、姿勢検知部13が図3に示すようにデジタルカメラ100が縦位置にあることを検知した場合には、画像表示部17には左右に分割したスプリットイメージ20bが表示される。スプリットイメージ20aはA像22a、B像24aを有し、スプリットイメージ20bはA像22b、B像24bを有する。上下分割スプリットイメージ、左右分割スプリットイメージ、A像、B像については後で詳細に説明する。 Based on the detection result of the posture detection unit 13, the split image region determination unit 15 splits the split image use pixel selection unit 8, the split image use region extraction unit 9, and the image composition so as to generate the split image in the initially set division direction. The unit 16 is controlled. For example, when the posture detection unit 13 detects that the digital camera 100 is in the horizontal position as shown in FIG. 2, the split image 20 a divided vertically is displayed on the image display unit 17. When the posture detection unit 13 detects that the digital camera 100 is in the vertical position as shown in FIG. 3, the image display unit 17 displays the split image 20 b divided into left and right. The split image 20a has an A image 22a and a B image 24a, and the split image 20b has an A image 22b and a B image 24b. The upper and lower divided split images, the left and right divided split images, the A image, and the B image will be described in detail later.
なお、瞳分割画素抽出部6、スプリットイメージ使用画素選択部8、スプリットイメージ使用領域抽出部9、評価値算出部12、スプリットイメージ領域決定部15はスプリットイメージを生成するスプリットイメージ生成部として機能する。 The pupil division pixel extraction unit 6, the split image use pixel selection unit 8, the split image use region extraction unit 9, the evaluation value calculation unit 12, and the split image region determination unit 15 function as a split image generation unit that generates a split image. .
16は被写体の像とスプリットイメージを合成する画像合成部である。スプリットイメージ領域決定部15によって決定されたスプリットイメージ領域に従って、スプリットイメージ使用画素選択部8による選択、スプリットイメージ使用領域抽出部9による抽出、画像合成部16による合成が行われる。 Reference numeral 16 denotes an image composition unit for composing the subject image and the split image. In accordance with the split image area determined by the split image area determining unit 15, selection by the split image use pixel selection unit 8, extraction by the split image use region extraction unit 9, and composition by the image composition unit 16 are performed.
17はTFT LCD等からなる画像表示部である。画像表示部17は、画像合成部16に接続され、被写体の像及びスプリットイメージを合成された状態で表示する。画像表示部17を用いて撮像した画像データを逐次表示し、電子ビュー機能、電子ファインダー機能を実現する。 Reference numeral 17 denotes an image display unit comprising a TFT LCD or the like. The image display unit 17 is connected to the image synthesis unit 16 and displays the subject image and the split image in a synthesized state. The image data captured using the image display unit 17 is sequentially displayed to realize an electronic view function and an electronic viewfinder function.
次に、図4及び図5を参照して、位相差AFについて説明する。 Next, the phase difference AF will be described with reference to FIGS.
図4は撮像素子2の撮影用画素の平面図で、2画素×2画素を基本単位とするエリアセンサの基本単位部の色配列である。図4(a)は(純色)ベイヤ配列、図4(b)はベイヤ配列を捕色フィルタに適用したもの(補色ベイヤ風配列)、図4(c)は補色3色にGを加えたもの(G込補色配列)である。通常知られる画素配列としては、この他に2画素×4画素単位の補色市松配列があり、これはビデオムービーカメラ用のセンサとして最もよく使われる。また、本出願人が特許文献3において提案している色配列(2画素×8画素)の補色市松も適用可能である。2画素×4画素、2画素×8画素の色配列は動画像(インターレース走査を行うビデオ)を扱うエリアセンサとしては優位であるが、スチル画像を扱うカメラとしては2画素×2画素の方が信号処理を簡易化でき、かつ、高画質の画像を得ることができる。以下では、2画素×2画素の画素ブロックで説明するが、2画素×4画素、2画素×8画素の色配列をもつエリアセンサにも適用可能である。 FIG. 4 is a plan view of the imaging pixels of the image sensor 2 and is a color array of the basic unit portion of the area sensor having 2 pixels × 2 pixels as a basic unit. 4 (a) is a (pure color) Bayer array, FIG. 4 (b) is a Bayer array applied to a color catching filter (complementary Bayer-like array), and FIG. 4 (c) is a complement of three colors plus G. (G-included complementary color array). Another commonly known pixel array is a complementary color checkered array of 2 × 4 pixel units, which is most often used as a sensor for a video movie camera. Further, a complementary color checkered color array (2 pixels × 8 pixels) proposed by the present applicant in Patent Document 3 is also applicable. The color arrangement of 2 pixels x 4 pixels and 2 pixels x 8 pixels is superior as an area sensor that handles moving images (video that performs interlaced scanning), but 2 pixels x 2 pixels are better for cameras that handle still images. Signal processing can be simplified and high-quality images can be obtained. In the following description, a pixel block of 2 pixels × 2 pixels will be described, but the present invention can also be applied to an area sensor having a color arrangement of 2 pixels × 4 pixels, 2 pixels × 8 pixels.
図5は、撮像素子2のAF用画素を含む画素ブロックの平面図である。図5(a)は純色ベイヤ配列の場合、図5(b)は補色ベイヤ風配列又はG込補色配列の場合である。図5において、「S」は、測光データを読み出す焦点検出用画素(AF用画素)である。本実施例は、撮像素子2の画素の中にAF用画素を設けて撮像素子2の信号を読み出すことで高精度なAFを行うと共に、別にセンサを持つ場合に必要な機構部が無くなるのでカメラを小型で低価格としている。 FIG. 5 is a plan view of a pixel block including AF pixels of the image sensor 2. FIG. 5A shows a case of a pure color Bayer arrangement, and FIG. 5B shows a case of a complementary color Bayer-like arrangement or a G-included complementary arrangement. In FIG. 5, “S” is a focus detection pixel (AF pixel) for reading out photometric data. In this embodiment, an AF pixel is provided in the pixel of the image sensor 2 and a signal of the image sensor 2 is read to perform high-precision AF, and a mechanism unit required when a sensor is separately provided is eliminated. Is small and low-priced.
次に、AF用画素と、その画素を配した画素ブロック(エリアセンサ)について説明する。高画素デジタルスチルカメラ用の撮像素子としては、主にインターライン型CCDかフルフレーム型CCDが使われる。インターライン型CCDは、撮像素子に光が入射していても撮像された信号電荷を読み出すことが可能であるが、フルフレームCCDでは、撮像素子の前面に設けられるメカニカルシャッタを閉じないと信号電荷の読み出しができない。この解決方法として、フルフレームCCDのイメージエリアと水平CCDの間にライン分の電荷を蓄積するためのストレージ部を設けた改良フルフレーム型CCDと、それによるメカニカルシャッタを開いた状態でのAFの部分読み出しが有効である。また、インターライン型CCDでのAFのためのイメージエリア内の部分的に必要な部分のみを高速に読み出す方法(即ち、必要な部分以外の信号電荷の高速クリアの方法)も有効である。これにより、インターライン型CCDでもフルフレーム型CCD(但し、改良型)でも、イメージエリア内に配された焦点検出、測光画素を含む領域の信号電荷をメカニカルシャッタを何度も開閉することなく短時間に読み出すことができる。以下、改良型のフルフレーム型CCDを用いた実施例について説明するが、インターライン型にも適用可能である。 Next, an AF pixel and a pixel block (area sensor) in which the pixel is arranged will be described. As an image sensor for a high pixel digital still camera, an interline CCD or a full frame CCD is mainly used. The interline CCD can read the imaged signal charge even when light is incident on the image sensor. However, in the full frame CCD, the signal charge must be closed unless the mechanical shutter provided on the front surface of the image sensor is closed. Cannot be read. As a solution to this, an improved full-frame CCD provided with a storage unit for accumulating charges for a line between the image area of a full-frame CCD and a horizontal CCD, and AF with a mechanical shutter opened thereby Partial reading is effective. In addition, a method of reading out only a partially necessary part in an image area for AF in an interline CCD at high speed (that is, a method of rapidly clearing signal charges other than the necessary part) is also effective. As a result, in both the interline CCD and the full frame CCD (however, an improved type), the signal charge in the area including the focus detection and photometry pixels arranged in the image area can be shortened without opening and closing the mechanical shutter many times. Can be read out in time. Hereinafter, an embodiment using an improved full frame CCD will be described, but the present invention can also be applied to an interline type.
図6(a)は、イメージエリアの画素(CCDセル)の平面図、図6(b)は図6(a)のAA断面図とポテンシャルプロフィールである。201は光透過性のあるポリシリコンで形成されるクロックゲート電極であり、この電極下の半導体表面がクロックフェーズ領域である。クロックフェーズ領域はイオンの打ち込みにより2領域に分けられ、その一方が、クロックバリア領域202であり、もう一方がクロックバリアよりもポテンシャルが高くなるようにイオンを打ち込むことで形成されるクロックウエル領域203である。204は半導体表面にP+層を形成することでチャネルポテンシャルを固定するためのバーチャルゲートであり、この領域がバーチャルフェーズ領域である。この領域もまた、P+層より深い層にN型イオンを打ち込むことで2領域に分けられ、その一方がバーチャルバリア領域205、もう一方がバーチャルウエル領域206である。207は電極と半導体の間に設けられる酸化膜などによる絶縁層である。208は各VCCDのチャネルを分離するためのチャネルストップである。 FIG. 6A is a plan view of a pixel (CCD cell) in the image area, and FIG. 6B is a cross-sectional view taken along AA in FIG. 6A and a potential profile. Reference numeral 201 denotes a clock gate electrode formed of light-transmitting polysilicon, and a semiconductor surface under the electrode is a clock phase region. The clock phase region is divided into two regions by ion implantation, one of which is a clock barrier region 202 and the other is a clock well region 203 formed by ion implantation so that the potential is higher than that of the clock barrier. It is. Reference numeral 204 denotes a virtual gate for fixing the channel potential by forming a P + layer on the semiconductor surface, and this region is a virtual phase region. This region is also divided into two regions by implanting N-type ions into a layer deeper than the P + layer, one of which is a virtual barrier region 205 and the other is a virtual well region 206. Reference numeral 207 denotes an insulating layer made of an oxide film or the like provided between the electrode and the semiconductor. Reference numeral 208 denotes a channel stop for separating the channels of each VCCD.
なお、図示はしていないが、強い光が入射した場合に電荷が隣接画素にあふれて擬似信号となるブルーミング現象の防御の機能が付加される。その代表的な方法は横形オーバーフロードレインを設ける方法である。 Although not shown in the figure, a function of preventing a blooming phenomenon in which charges overflow into adjacent pixels and becomes a pseudo signal when strong light is incident is added. A typical method is to provide a horizontal overflow drain.
即ち、各VCCDに接してN+層よりなるドレインが設けられ、オーバーフロードレインと電荷転送チャネルとの間にはオーバーフロードレインバリアが設けられる。オーバーフロードレインバリアの高さを超える電荷はドレインに掃き捨てられることになるのである。ドレインバリアの高さはイオンのうちこみにより固定されるか、オーバーフロードレインバリア上に電極(オーバードレインバリア電極)を構成することで、ドレイン電極に加える電圧(VOD)の値の制御によりドレインバリアの高さを変えるようにされる。 That is, a drain made of an N + layer is provided in contact with each VCCD, and an overflow drain barrier is provided between the overflow drain and the charge transfer channel. Charges that exceed the height of the overflow drain barrier are swept away by the drain. The drain barrier height is fixed by dust in the ions, or an electrode (over drain barrier electrode) is formed on the overflow drain barrier, so that the drain barrier height can be controlled by controlling the voltage (VOD) applied to the drain electrode. It will be changed.
VCCDの転送はクロック電極202に任意のパルスを加えることでクロックフェーズ相のポテンシャルをバーチャル層のポテンシャルに対して上下に動かすことで電荷を水平CCDの方向へ転送する。なお、図6(b)において丸印と矢印は電荷の移動を概念的に示している。以上はイメージエリアの画素構造であるが、ストレージ部の画素構造もこれに準ずる。但し、この領域は、画素上部がアルミ遮光されているため、ブルーミングを防御する必要がないのでオーバーフロードレインは省かれる。H−CCDも、また、バーチャルフェーズ構造とされるがVCCDからの電荷を受け取り、かつそれを水平に転送することができるようにクロック相領域とバーチャルフェーズ相領域のレイアウトを構成する。 In the transfer of the VCCD, an arbitrary pulse is applied to the clock electrode 202 to move the clock phase phase potential up and down with respect to the potential of the virtual layer, thereby transferring the charges in the direction of the horizontal CCD. In FIG. 6B, circles and arrows conceptually indicate charge movement. The above is the pixel structure of the image area, but the pixel structure of the storage unit is similar to this. However, in this region, since the upper part of the pixel is shielded from aluminum, it is not necessary to prevent blooming, so that the overflow drain is omitted. The H-CCD also has a virtual phase structure, but configures the layout of the clock phase region and the virtual phase region so that it can receive the charge from the VCCD and transfer it horizontally.
図7(a)は、図6に示すCCDセル(201〜207)の上に純色のいずれかの色か補色のいずれかの色のカラーフィルタ層212を配置した構造の平面図、図7(b)は図7(a)のBB断面図である。カラーフィルタ層212とCCDセルの間には、半導体表面の保護層209と各色の混色を防止するためのメタル遮光膜210が設けられる。但し、これはカラーフィルタと同様の材料で作られる黒の色素層で構成されることもある。211はカラーフィルタ層212をのせる表面を平らにするための平滑層、213はフィルタ層を保護する保護層である。 FIG. 7A is a plan view of a structure in which a color filter layer 212 of either a pure color or a complementary color is arranged on the CCD cells (201 to 207) shown in FIG. b) is a BB cross-sectional view of FIG. Between the color filter layer 212 and the CCD cell, a protective layer 209 on the semiconductor surface and a metal light shielding film 210 for preventing color mixing of each color are provided. However, it may be composed of a black pigment layer made of the same material as the color filter. 211 is a smoothing layer for flattening the surface on which the color filter layer 212 is placed, and 213 is a protective layer for protecting the filter layer.
図8に、フルフレームCCDにAF用画素を構成した配列を示す。通常のベイヤ配列のセンサにAF用画素S1を複数もつラインとAF用画素S2をもつラインが並んでいる。図9(a)は、AF用画素S1の平面図であり、図9(b)は図9(a)のCC断面図である。210は光電変換素子、214Aはメタル遮光膜であり、画素の光電変換エリアの中心部から一方に偏った(偏心した)開口部214aを有する。215はマイクロレンズを形成するための平面を構成するための平滑層である。216はマイクロレンズである。AF用画素S1はフィルタ層を持たず、最上部にマイクロレンズ216を有する。図10(a)は、AF用画素S2の平面図であり、図10(b)は図10(a)のDD断面図である。AF用画素S2は、AF用画素S1の画素中心とは反対方向に同距離で偏心した開口部214bを有するメタル遮光膜214Bを有する。AF用画素S1のメタル遮光膜214AとAF用画素S2のメタル遮光膜214Bは、図9(a)及び図10(b)に示すように、左右(又は上下)対称となるように設けられる。これにより、光軸を中心として対称となる射出瞳の二つの位置からの光束によりAF用画素に結像した像のうち、一方がAF用画素S1の行によって光電変換され、もう一方がAF用画素S2の行によって光電変換され、二つの像が得られる。 FIG. 8 shows an array in which AF pixels are configured on a full frame CCD. A line having a plurality of AF pixels S1 and a line having AF pixels S2 are arranged on a normal Bayer array sensor. FIG. 9A is a plan view of the AF pixel S1, and FIG. 9B is a CC cross-sectional view of FIG. 9A. Reference numeral 210 denotes a photoelectric conversion element, and 214A denotes a metal light shielding film, which has an opening 214a that is biased (eccentric) from the center of the photoelectric conversion area of the pixel. Reference numeral 215 denotes a smooth layer for forming a plane for forming the microlens. Reference numeral 216 denotes a microlens. The AF pixel S1 does not have a filter layer and has a microlens 216 at the top. FIG. 10A is a plan view of the AF pixel S2, and FIG. 10B is a DD cross-sectional view of FIG. The AF pixel S2 includes a metal light-shielding film 214B having an opening 214b that is eccentric by the same distance in the opposite direction to the pixel center of the AF pixel S1. As shown in FIGS. 9A and 10B, the metal light shielding film 214A of the AF pixel S1 and the metal light shielding film 214B of the AF pixel S2 are provided so as to be bilaterally (or vertically) symmetrical. As a result, one of the images formed on the AF pixels by the light beams from the two positions of the exit pupil that is symmetric about the optical axis is photoelectrically converted by the row of the AF pixels S1, and the other is used for the AF. Photoelectric conversion is performed by the row of the pixels S2, and two images are obtained.
100万画素を越えるエリアセンサにとっては、図8の配列で、AF用画素S1の行とAF用画素S2の行は殆ど同一で近似の像がマイクロレンズ216上に結像される。いま撮像素子2に像を結ぶ撮影レンズ1が撮像素子2上でピントがあっていれば、AF用画素S1を含む行のS1群からの像信号と、AF用画素S2を含む行のS2群の信号群からの像信号は一致する。もし、ピントを結ぶ点が撮像素子2の撮像面よりも前方か後方にあれば、AF用画素S1を含む行のS1群からの像信号と、AF用画素S2を含む行のS2群の信号群からの像信号の位相差が生じる。そして、結像点が前の場合と後の場合では位相のずれ方向が逆になる。 For an area sensor exceeding 1 million pixels, the rows of AF pixels S1 and AF pixels S2 are almost the same in the arrangement of FIG. 8, and an approximate image is formed on the microlens 216. If the photographing lens 1 that connects the image to the image sensor 2 is in focus on the image sensor 2, the image signal from the S1 group in the row including the AF pixel S1 and the S2 group in the row including the AF pixel S2 are used. The image signals from these signal groups coincide. If the focusing point is in front of or behind the imaging surface of the image sensor 2, the image signal from the S1 group in the row including the AF pixel S1 and the signal in the S2 group in the row including the AF pixel S2 are used. A phase difference of the image signals from the group occurs. Then, the phase shift direction is reversed between the case where the image formation point is before and the case where the image formation point is after.
これは、原理的には、特許文献4の瞳分割位相差AFと同じである。AF用画素S1の光電変換部からカメラレンズを見た場合と、AF用画素S2の光電変換部からカメラレンズをみた場合とでは、あたかも光学中心に対して瞳が左右に分割したように見える。図11及び図12に、位相差とピント状態との関係を示す。図11及び図12は、互いに隣り合う2つのAF用画素S1、S2を示し、撮像画素を省略して、複数のAF用画素S1、S2を互いに近づけて同一断面上に示している。なお、これらの図では、AF用画素S1、S2のペアは同一のマイクロレンズ216で覆われているが、実際には、AF用画素S1、S2はそれぞれ別々のマイクロレンズ216で覆われている。 In principle, this is the same as the pupil division phase difference AF of Patent Document 4. When the camera lens is viewed from the photoelectric conversion unit of the AF pixel S1 and when the camera lens is viewed from the photoelectric conversion unit of the AF pixel S2, it looks as if the pupil is divided into left and right with respect to the optical center. 11 and 12 show the relationship between the phase difference and the focus state. 11 and 12 show two AF pixels S1 and S2 that are adjacent to each other, the imaging pixels are omitted, and a plurality of AF pixels S1 and S2 are shown close to each other on the same cross section. In these drawings, a pair of AF pixels S1 and S2 is covered with the same microlens 216, but actually, the AF pixels S1 and S2 are covered with separate microlenses 216, respectively. .
被写体の特定点からの光はAF用画素S1にとっての瞳を通ってAF用画素S1に入射する光束L1と、AF用画素S2にとっての瞳を通ってAF用画素S2に入射する光束L2とに分割される。この2つの光束L1、L2は、撮影レンズ1のピントが特定点に合っている状態では、図11に示すように、マイクロレンズ216の表面の一点に集光し、AF用画素S1、S2には同一の像が形成される。これにより、AF用画素S1から読み出したA像信号と、AF用画素S2から読み出したB像信号とは同一のものとなる。 Light from a specific point of the subject passes through the pupil for the AF pixel S1 and enters the AF pixel S1, and the light beam L2 enters the AF pixel S2 through the pupil for the AF pixel S2. Divided. When the photographing lens 1 is in focus at a specific point, the two light beams L1 and L2 are condensed at one point on the surface of the microlens 216 and are applied to the AF pixels S1 and S2, as shown in FIG. Forms the same image. Thus, the A image signal read from the AF pixel S1 and the B image signal read from the AF pixel S2 are the same.
一方、撮影レンズ1のピントが特定点に対して合っていない状態では、図12に示すように、光束L1、L2はマイクロレンズ216の表面とは異なる位置で交差する。このときのマイクロレンズ216の表面と2つの光束L1、L2の交点との距離、即ち、デフォーカス量をxとする。また、この状態で発生したAF用画素S1、S2上での像のずれ量(位相差)がn画素分に相当するものとする。また、画素ピッチをd、2つの瞳の重心間の距離をDaf、撮影レンズ1の主点から焦点までの距離をuとするとき、デフォーカス量xは次式で与えられる。 On the other hand, when the photographing lens 1 is not in focus with respect to a specific point, the light beams L1 and L2 intersect at a position different from the surface of the microlens 216 as shown in FIG. The distance between the surface of the microlens 216 and the intersection of the two light beams L1 and L2, that is, the defocus amount is x. In addition, it is assumed that the image shift amount (phase difference) on the AF pixels S1 and S2 generated in this state corresponds to n pixels. Further, when the pixel pitch is d, the distance between the centers of gravity of the two pupils is Daf, and the distance from the principal point of the photographing lens 1 to the focal point is u, the defocus amount x is given by the following equation.
uは撮影レンズ1の焦点距離fにほぼ等しく次式で与えられる。 u is approximately equal to the focal length f of the taking lens 1 and is given by the following equation.
図13は、撮像素子2上のAF用画素S1、S2のそれぞれから読み出したA像信号(AF用画素S1の像)及びB像信号(AF用画素S2の像)の信号レベルを示す。これらのA像及びB像信号にはずれ量(つまりは像ずれ量)n×dが発生する。合焦制御部7は、相関演算手法を用いて一対の像信号のずれ量(位相差)n×dを求め、この位相差から数式1又は2を用いてデフォーカス量xを求める。合焦制御部7は、算出したデフォーカス量に基づいて、デフォーカス量xを所定範囲内に収める(望ましくは零にする)ためのフォーカスレンズ1aの目標駆動量を算出する。そして、レンズ制御部4を通じて、フォーカスレンズ1aを、算出した目標駆動量だけ移動させる。これにより、位相差AFによる合焦状態が得られる。 FIG. 13 shows signal levels of the A image signal (image of the AF pixel S1) and the B image signal (image of the AF pixel S2) read from each of the AF pixels S1 and S2 on the image sensor 2. A shift amount (that is, an image shift amount) n × d occurs in these A image and B image signals. The focus control unit 7 obtains a shift amount (phase difference) n × d of the pair of image signals using a correlation calculation method, and obtains a defocus amount x using Formula 1 or 2 from the phase difference. The focusing control unit 7 calculates a target drive amount of the focus lens 1a for keeping the defocus amount x within a predetermined range (preferably zero) based on the calculated defocus amount. Then, the focus lens 1a is moved by the calculated target drive amount through the lens control unit 4. Thereby, a focused state by phase difference AF is obtained.
図14〜図16は、図8に示す画素配列の変形例であり、AF用画素S1及びS2の配列を図8に示す配列とは変えている。図8ではAF用画素S1の行とAF用画素S2の行が僅かにずれているが、100万画素を越える撮像素子2では実用上問題はない。図14〜図16は、AF用画素S1の行とAF用画素S2の行を同一箇所に近似させようとしている。図14は同一行にAF用画素S1とS2を交互に配置する。図15はAF用画素S1の行をAF用画素S2の行の上下に設けてAF用画素S1による第1の行と第2の行の補間によりAF用画素S2の行に相当するAF用画素S1の行データを作成する。図16は図14の変形例であり、AF用画素S1とS2を交互にもつ行を2行にしてそれぞれジグザグになるように配置している。以上のように、AF画素群とその部分のみを読み出す駆動方法により、高速かつ精度の高い位相差AFが可能となる。 14 to 16 are modified examples of the pixel arrangement shown in FIG. 8, and the arrangement of AF pixels S1 and S2 is different from the arrangement shown in FIG. In FIG. 8, the row of the AF pixel S1 and the row of the AF pixel S2 are slightly shifted, but there is no practical problem with the imaging device 2 exceeding 1 million pixels. 14 to 16 try to approximate the row of AF pixels S1 and the row of AF pixels S2 to the same place. In FIG. 14, AF pixels S1 and S2 are alternately arranged in the same row. FIG. 15 shows an AF pixel corresponding to the row of the AF pixel S2 by interpolating the first row and the second row by the AF pixel S1 by providing the row of the AF pixel S1 above and below the row of the AF pixel S2. The line data of S1 is created. FIG. 16 is a modified example of FIG. 14, in which the rows having alternating AF pixels S <b> 1 and S <b> 2 are arranged in two rows in a zigzag manner. As described above, the driving method for reading out only the AF pixel group and its portion enables high-speed and high-precision phase difference AF.
撮像素子2における被写体の像の画像処理においては、AF用画素S1、S2の部分は周辺の撮影用画素により補間される。これにより、画質の劣化は殆どなく、かつ、画像取り込み以外の焦点検出データをも読みこめる撮像素子が実現するのである。このような補間をする前提にたつと、図5に示すように、2×2画素で3色の撮影用画素と1つのAF用画素だと補間が簡易でかつ画像劣化も問題にならない。もちろん、2×4配列も可能であるが、AF用画素S1行とAF用画素S2行の距離が2×2画素よりも離れることとなる。また、上述の説明は、インターライン型CCD撮像素子、フレームトランスファ型CCD撮像素子、また、X−Yアドレス型撮像素子にも適用可能である。 In the image processing of the subject image in the image sensor 2, the AF pixels S1 and S2 are interpolated by the surrounding photographing pixels. As a result, an image pickup device is realized in which image quality is hardly deteriorated and the focus detection data other than the image capturing can be read. Assuming that such interpolation is performed, as shown in FIG. 5, if 2 × 2 pixels, three colors of photographic pixels and one AF pixel are used, interpolation is simple and image degradation does not become a problem. Of course, a 2 × 4 arrangement is also possible, but the distance between the AF pixel S1 row and the AF pixel S2 row is longer than 2 × 2 pixels. The above description can also be applied to an interline CCD image sensor, a frame transfer CCD image sensor, and an XY address image sensor.
AF時には、撮像素子2上からAF用画素S1及びS2を含む行を読み出してA/D変換部3によりA/D変換し、瞳分割画素抽出部6により各画素値よりAF用画素S1の像とAF用画素S2の像をそれぞれ生成する。そして、合焦制御部7が、二つの像の相関を演算することによって像のずれ量を求め、求めたずれ量に従って撮影レンズ1の中のフォーカスレンズを移動するようにレンズ制御部4を制御する。 At the time of AF, a row including AF pixels S1 and S2 is read from the image sensor 2, and A / D converted by the A / D converter 3, and an image of the AF pixel S1 is obtained from each pixel value by the pupil division pixel extractor 6. And an image of the AF pixel S2. Then, the focus control unit 7 calculates the image shift amount by calculating the correlation between the two images, and controls the lens control unit 4 to move the focus lens in the photographing lens 1 according to the calculated shift amount. To do.
撮影時には、撮像素子2上に被写体像を露光し、これを全画素分読み出してA/D変換部3によりA/D変換し、不図示の信号処理回路に入力する。信号処理回路においては、まずAF画素S1、S2から読み出した画素値を破棄し、代わりに周辺画素よりAF画素S1及びS2に相当する画素値を生成して補間する。この後、輝度色差信号の生成及び圧縮を行い、記録メディアに画像ファイルとして保存する。 At the time of shooting, the subject image is exposed on the image sensor 2, read out for all pixels, A / D converted by the A / D converter 3, and input to a signal processing circuit (not shown). In the signal processing circuit, first, the pixel values read from the AF pixels S1 and S2 are discarded, and instead, pixel values corresponding to the AF pixels S1 and S2 are generated from the surrounding pixels and interpolated. Thereafter, the luminance color difference signal is generated and compressed, and stored as an image file on a recording medium.
本実施例は、AF用画素S1、S2を撮影には使用せず、AF用画素S1、S2を周辺の撮影用画素で補間する。静止画撮影時には補間処理は、映像信号をメモリ上に取込んだ後に行えばよい。しかし、動画撮影時や電子ビューファインダーを動作させるときは、1秒間に30枚ほどの画像を撮像素子から繰り返し読み出すため、処理が間に合わなくならないように撮像素子2上のラインを間引いて行う。このように、本実施例によれば、間引きモードの読み出しにおいて読み出される画素にはAF用画素が含まれず、なおかつ動画の生成に必要十分な画素数を読み出すことができる。 In this embodiment, the AF pixels S1 and S2 are not used for photographing, and the AF pixels S1 and S2 are interpolated with surrounding photographing pixels. Interpolation processing may be performed after taking a video signal in a memory during still image shooting. However, when moving images are taken or when the electronic viewfinder is operated, about 30 images are repeatedly read out from the image pickup device per second, so that the lines on the image pickup device 2 are thinned out so that the processing is not in time. As described above, according to the present embodiment, the pixels read out in the thinning-out mode do not include AF pixels, and the number of pixels necessary and sufficient for generating a moving image can be read out.
また、特許文献5及び6に開示されているように、水平と垂直に直交して瞳分割することで、水平方向と垂直方向の両方の位相差を検出して合焦精度を向上させることができる。例えば、図17(a)に撮像素子2の水平方向に瞳分割するAF用画素を示し、図17(b)に撮像素子2の垂直方向に瞳分割したAF用画素を示す。このようなAF用画素を撮像素子2の中に満遍なく一定間隔で配置する。撮像素子2全体の画素の1%程度をこのAF用画素に割り当てる。ここで、水平方向(左右方向又は横方向)とは、撮影レンズ1の光軸と撮像領域の長辺とが地面に平行となるようにデジタルカメラ100を構えたとき、この光軸に直交し、かつ水平方向に伸びる直線に沿った方向をいう。また、垂直方向(上下方向又は縦方向)とは、撮影レンズ1の光軸と撮像領域の長辺とが地面に平行となるようにデジタルカメラ100を構えたとき、この光軸に直交し、鉛直方向に伸びる直線に沿った方向をいう。 Further, as disclosed in Patent Documents 5 and 6, pupil division is performed orthogonally to the horizontal and vertical directions, thereby detecting the phase difference in both the horizontal direction and the vertical direction to improve focusing accuracy. it can. For example, FIG. 17A shows AF pixels for pupil division in the horizontal direction of the image sensor 2, and FIG. 17B shows AF pixels for pupil division in the vertical direction of the image sensor 2. Such AF pixels are uniformly arranged in the image sensor 2 at regular intervals. About 1% of the entire pixels of the image sensor 2 are allocated to the AF pixels. Here, the horizontal direction (left-right direction or horizontal direction) is orthogonal to the optical axis when the digital camera 100 is held so that the optical axis of the photographing lens 1 and the long side of the imaging region are parallel to the ground. And a direction along a straight line extending in the horizontal direction. The vertical direction (vertical direction or vertical direction) is orthogonal to the optical axis when the digital camera 100 is held so that the optical axis of the photographing lens 1 and the long side of the imaging region are parallel to the ground. A direction along a straight line extending in the vertical direction.
カメラを正位置で撮影したときの被写体の縦縞は、横方向に瞳分割したAF用画素により位相差(デフォーカス量)を検出し、被写体の横縞は、縦方向に瞳分割したAF用画素により位相差(デフォーカス量)を検出してAFを行うと合焦精度を高くできる。 The vertical stripe of the subject when the camera is photographed at the normal position detects the phase difference (defocus amount) by the AF pixel divided in the horizontal direction, and the horizontal stripe of the subject is detected by the AF pixel divided in the vertical direction. If AF is performed by detecting the phase difference (defocus amount), the focusing accuracy can be increased.
本実施例では、図17(a)で示される撮像素子2を水平方向に瞳分割したAF用画素を左右瞳分割A画素及びB画素、これを基に形成される画像データを左右瞳分割A像及びB像と呼ぶ。また、本実施例は、図17(b)で示される撮像素子2を垂直方向に瞳分割した画素を上下分割A画素及びB画素、これを基に形成される画像データを上下瞳分割A像及びB像と呼ぶ。 In the present embodiment, left and right pupil division A pixels and B pixels are used as AF pixels obtained by dividing the image sensor 2 shown in FIG. 17A in the horizontal direction, and image data formed based on these is divided into left and right pupil division A. These are called an image and a B image. Further, in this embodiment, the pixels obtained by dividing the image sensor 2 shown in FIG. 17B in the vertical direction are divided into upper and lower divided A pixels and B pixels, and image data formed based on the divided upper and lower pupil divided A images. And B images.
図18は、上下分割スプリットイメージ20cを画像表示部17の中央部に表示した図である。図19は左右分割スプリットイメージ20dを画像表示部17の中央部に表示した図である。本実施例ではスプリットイメージを方形にしているがデザインに応じて円形、楕円形などでも構わない。 FIG. 18 is a diagram in which the vertically divided split image 20 c is displayed at the center of the image display unit 17. FIG. 19 is a diagram in which the left and right divided split image 20 d is displayed at the center of the image display unit 17. In this embodiment, the split image is rectangular, but it may be circular or elliptical depending on the design.
図20〜図22は、上下分割スプリットイメージ20eを説明する図である。図21(a)の斜線領域の画像は、上下分割スプリットイメージ20eのA像22eを示し、図21(b)の斜線領域の画像は、上下分割スプリットイメージ20eのB像24eを示している。図22(a)は、上下分割スプリットイメージ20eの分割線21eに沿ったA像22eの評価値算出対象領域23eを示し、図22(b)は、上下分割スプリットイメージ20eの分割線21eに沿ったB像24eの評価値算出対象領域25eを示している。評価値算出対象領域23e及び25eは2つの画像(A像22e、B像24e)が互いに隣接する隣接部分であり、上下分割スプリットイメージ20eの分割方向に沿って評価値を調べるための算出対象となる。以下、評価値を算出する例について説明する。 20 to 22 are diagrams illustrating the vertically divided split image 20e. 21A shows the A image 22e of the vertically divided split image 20e, and the hatched area image of FIG. 21B shows the B image 24e of the vertically divided split image 20e. 22A shows the evaluation value calculation target area 23e of the A image 22e along the dividing line 21e of the vertically divided split image 20e, and FIG. 22B shows the area along the dividing line 21e of the vertically divided split image 20e. The evaluation value calculation target area 25e of the B image 24e is shown. The evaluation value calculation target regions 23e and 25e are adjacent portions where two images (A image 22e and B image 24e) are adjacent to each other, and are calculated targets for examining evaluation values along the dividing direction of the vertically divided split image 20e. Become. Hereinafter, an example of calculating the evaluation value will be described.
例えば、評価値算出対象領域23eは左右瞳分割A画素評価値HAi(i=0〜m)の垂直画素積分値列からなり、評価値算出対象領域25eは左右瞳分割B画素評価値HBi(i=0〜m)の垂直画素積分値列からなる。この時の画素評価値は、例えば、それぞれ図23(a)及び図23(b)のようになり、評価値HAC、HBCは次式で与えられる。 For example, the evaluation value calculation target area 23e is composed of a vertical pixel integration value sequence of left and right pupil division A pixel evaluation values HAi (i = 0 to m), and the evaluation value calculation target area 25e is a left and right pupil division B pixel evaluation value HBi (i = 0 to m). The pixel evaluation values at this time are, for example, as shown in FIGS. 23A and 23B, and the evaluation values HAC and HBC are given by the following equations.
ここで、MAX[HAi(i=0〜m)]は左右瞳分割A画素評価値HAi(i=0〜m)の最大値、MIN[HAi(i=0〜m)]は左右瞳分割A画素評価値HAi(i=0〜m)の最小値を示している。HAC、HBCがある一定値以上である場合はコントラストが高いと判断し、HAC、HBCがある一定値に満たない場合コントラストが低いと判断できる。更に、MFにおける操作者によるフォーカシング補助において、HAC及びHBCが共にある一定値以上である場合はコントラストが十分であると判断し、HAC及びHBCの少なくとも一方がある一定値に満たない場合はコントラストが不十分であると判断できる。 Here, MAX [HAi (i = 0 to m)] is the maximum value of the left and right pupil division A pixel evaluation value HAi (i = 0 to m), and MIN [HAi (i = 0 to m)] is the left and right pupil division A. The minimum value of the pixel evaluation value HAi (i = 0 to m) is shown. When HAC and HBC are above a certain value, it is determined that the contrast is high, and when HAC and HBC are below a certain value, it can be determined that the contrast is low. Further, in the focusing assistance by the operator in the MF, if both HAC and HBC are above a certain value, it is determined that the contrast is sufficient, and if at least one of HAC and HBC is less than a certain value, the contrast is It can be judged that it is insufficient.
図24〜図26は、左右分割スプリットイメージ20fを説明する図である。図25(a)の斜線領域の画像は、左右分割スプリットイメージ20fのA像22fを示し、図25(b)の斜線領域の画像は、左右分割スプリットイメージ20fのB像24fを示している。図26(a)は、左右分割スプリットイメージ20fの分割線21fに沿ったA像22fの評価値算出対象領域23fを示し、図26(b)は、左右分割スプリットイメージ20fの分割線21fに沿ったB像24fの評価値算出対象領域25fを示している。評価値算出対象領域23f及び25fは左右分割スプリットイメージ20fの分割方向に沿って評価値を調べるための算出対象となる。以下、評価値算出例を説明する。 24 to 26 are diagrams illustrating the left and right divided split image 20f. The hatched area image in FIG. 25A shows the A image 22f of the left and right divided split image 20f, and the hatched area image in FIG. 25B shows the B image 24f of the left and right divided split image 20f. FIG. 26A shows the evaluation value calculation target region 23f of the A image 22f along the dividing line 21f of the left and right divided split image 20f, and FIG. 26B shows the dividing line 21f of the left and right divided split image 20f. The evaluation value calculation target area 25f of the B image 24f is shown. The evaluation value calculation target areas 23f and 25f are calculation targets for examining the evaluation value along the dividing direction of the left and right split image 20f. Hereinafter, an evaluation value calculation example will be described.
例えば、評価値算出対象領域23fは上下瞳分割A画素評価値VAi(i=0〜n)の水平画素積分値列からなり、評価値算出対象領域25fは上下瞳分割B画素評価値VBi(i=0〜n)の水平画素積分値列からなる。この時の画素評価値は、例えば、それぞれ図27(a)及び図27(b)のようになり、評価値VAC、VBCは次式で与えられる。 For example, the evaluation value calculation target area 23f is composed of a horizontal pixel integrated value sequence of upper and lower pupil division A pixel evaluation values VAi (i = 0 to n), and the evaluation value calculation target area 25f is an upper and lower pupil division B pixel evaluation value VBi (i = 0 to n). The pixel evaluation values at this time are, for example, as shown in FIGS. 27A and 27B, and the evaluation values VAC and VBC are given by the following equations.
ここで、MAX[VAi(i=0〜n)]は上下瞳分割A画素評価値VAi(i=0〜n)の中の最大値を示しており、MIN[VAi(i=0〜n)]は上下瞳分割A画素評価値VAi(i=0〜n)の中の最小値を示している。VAC、VBCがある一定値以上である場合はコントラストが高いと判断し、VAC、VBCがある一定値に満たない場合コントラストが低いと判断できる。更に、MFにおける操作者によるフォーカシング補助において、VAC及びVBCが共にある一定値以上である場合はコントラストが十分であると判断し、VAC及びVBCの少なくとも一方がある一定値に満たない場合はコントラストが不十分であると判断できる。 Here, MAX [VAi (i = 0 to n)] indicates the maximum value among the upper and lower pupil division A pixel evaluation values VAi (i = 0 to n), and MIN [VAi (i = 0 to n). ] Indicates the minimum value among the upper and lower pupil division A pixel evaluation values VAi (i = 0 to n). When VAC and VBC are above a certain value, it is determined that the contrast is high, and when VAC and VBC are below a certain value, it can be determined that the contrast is low. Further, in the focusing assistance by the operator in the MF, it is determined that the contrast is sufficient when both VAC and VBC are above a certain value, and when at least one of VAC and VBC is less than a certain value, the contrast is It can be judged that it is insufficient.
なお、ここでは評価値算出結果を基に特徴抽出をしているが、周波数分布を調べて相関演算評価値を求めたり、周期的な特徴が見られるか否かを調べたりして特徴抽出をしてもよい。 Although feature extraction is performed based on the evaluation value calculation result here, feature extraction is performed by examining the frequency distribution to obtain the correlation calculation evaluation value, or examining whether periodic features can be seen. May be.
図28は、上下分割スプリットイメージ20g内のコントラストが不十分な例を示す図である。図28では被写体である家の壁が上下分割スプリットイメージ20gの領域となっている。上下分割スプリットイメージ20gの左右瞳分割A画像22g及び左右瞳分割B画像24gは、図29(a)及び図29(b)に示すように、コントラストが高くない。この場合、操作者はスプリットイメージを利用したMFが十分ではない。 FIG. 28 is a diagram illustrating an example in which the contrast in the vertically divided split image 20g is insufficient. In FIG. 28, the wall of the house that is the subject is an area of the vertically divided split image 20g. As shown in FIGS. 29A and 29B, the contrast between the left and right pupil division A image 22g and the left and right pupil division B image 24g of the upper and lower division split image 20g is not high. In this case, the operator does not have enough MF using the split image.
以下、図30を参照して、本実施例のスプリットイメージ表示モードにおける動作を説明するためのフローチャートである。図30において、「S」はステップを表す。 Hereinafter, with reference to FIG. 30, it is a flowchart for demonstrating the operation | movement in the split image display mode of a present Example. In FIG. 30, “S” represents a step.
スプリットイメージ領域決定部15は、操作部14のモードダイヤル14bによってMFモードが設定されているかどうかを判断し(S1)、MFモードが設定されていなければ処理を終了する。スプリットイメージ領域決定部15は、MFモードが設定されていると判断すると(S1)、スプリットイメージ表示モードが操作部14の操作ボタン(14c−14f)によって設定されているかどうかを判断する(S2)。スプリットイメージ領域決定部15は、スプリットイメージ表示モードが操作部14によって設定されていないと判断すると(S2)、処理を終了する。 The split image area determination unit 15 determines whether or not the MF mode is set by the mode dial 14b of the operation unit 14 (S1), and ends the process if the MF mode is not set. When the split image area determination unit 15 determines that the MF mode is set (S1), the split image region determination unit 15 determines whether the split image display mode is set by the operation button (14c-14f) of the operation unit 14 (S2). . When the split image area determination unit 15 determines that the split image display mode is not set by the operation unit 14 (S2), the process ends.
次に、スプリットイメージ領域決定部15は、スプリットイメージ表示モードが設定されていると判断すると(S2)、スプリットイメージ使用画素選択部8が瞳分割画素信号からスプリットイメージに使用するものを選択する。そして、スプリットイメージ使用領域抽出部9が、スプリットイメージとして表示する領域を抽出し、変倍処理部10が、スプリットイメージ使用領域抽出部9によって抽出されたスプリットイメージを表示サイズに変倍する。次いで、画像合成部16が被写体像とスプリットイメージを合成し、画像表示部17が合成画像を表示する(S3)。この場合は、初期値として与えられる上下か左右のスプリットイメージ分割方向、位置、大きさのスプリットイメージを生成し、電子ビューに被写体像と共に表示する。 Next, when the split image area determination unit 15 determines that the split image display mode is set (S2), the split image use pixel selection unit 8 selects one to be used for the split image from the pupil division pixel signal. Then, the split image usage area extraction unit 9 extracts an area to be displayed as a split image, and the scaling processing unit 10 scales the split image extracted by the split image usage area extraction unit 9 to a display size. Next, the image combining unit 16 combines the subject image and the split image, and the image display unit 17 displays the combined image (S3). In this case, a split image having a split image division direction, position, and size that is given as an initial value is generated and displayed along with the subject image on the electronic view.
次に、スプリットイメージ領域決定部15は、操作部14を参照して、操作者による何らかの操作があるかどうかを判断する(S4)。スプリットイメージ領域決定部15は、操作があると判断すると(S4)、MFモードが操作部14によって設定されているかどうかを判断し(S10)、設定されていなければ処理を終了する。次に、スプリットイメージ領域決定部15は、MFモードが設定されていると判断するとスプリットイメージ表示モードが操作部14によって設定されているかどうかを判断し(S11)、設定されていなければ処理を終了する。 Next, the split image area determination unit 15 refers to the operation unit 14 and determines whether there is any operation by the operator (S4). When the split image area determination unit 15 determines that there is an operation (S4), it determines whether or not the MF mode is set by the operation unit 14 (S10). If it is not set, the process ends. Next, when the split image area determination unit 15 determines that the MF mode is set, the split image region determination unit 15 determines whether the split image display mode is set by the operation unit 14 (S11). To do.
次に、スプリットイメージ領域決定部15は、スプリットイメージ表示モードが操作部14によって設定されていると判断すると(S11)、スプリットイメージ領域の変更が指示されているかどうかを判断する(S12)。この場合の変更指示は、操作者の操作部14の操作によるスプリットイメージの位置、広さ、分割方向などの領域変更の指示である。 Next, when the split image area determination unit 15 determines that the split image display mode is set by the operation unit 14 (S11), the split image area determination unit 15 determines whether an instruction to change the split image area is given (S12). The change instruction in this case is an instruction to change the region such as the position, width, and division direction of the split image by the operation of the operation unit 14 by the operator.
一方、スプリットイメージ領域決定部15は、操作がないと判断した場合(S4)又はスプリットイメージ領域の変更が指示されていないと判断した場合(S12)、タイマ19を参照して設定時間が経過したかどうかを判断する(S5)。スプリットイメージ領域決定部15が設定時間が経過していないと判断すると(S5)、処理はS4に戻る。一方、スプリットイメージ領域決定部15は、何等の操作なく一定時間が経過したと判断すると(S5)、評価値算出部12が算出した評価値(コントラスト)を取り込む(S6)。 On the other hand, when the split image area determination unit 15 determines that there is no operation (S4) or when it is determined that the change of the split image area is not instructed (S12), the set time has elapsed with reference to the timer 19 Whether or not (S5). If the split image area determination unit 15 determines that the set time has not elapsed (S5), the process returns to S4. On the other hand, when the split image area determination unit 15 determines that a certain time has elapsed without any operation (S5), it takes in the evaluation value (contrast) calculated by the evaluation value calculation unit 12 (S6).
なお、本実施例では、図1に示すように、画像表示部17とタイマ19がスプリットイメージ領域決定部15に接続されてスプリットイメージ領域決定部15がS5の判断を行ってS6における評価値の取り込みタイミングを制御している。しかし、別の実施例では、画像表示部17とタイマ19がスプリットイメージ使用画素選択部8に接続されてスプリットイメージ使用画素選択部8がS5の判断を行ってS6の代わりに評価値の算出タイミングを制御してもよい。もちろん、評価値の取り込みタイミングや算出タイミングを不図示の別の制御部が行ってもよい。 In this embodiment, as shown in FIG. 1, the image display unit 17 and the timer 19 are connected to the split image region determining unit 15, and the split image region determining unit 15 makes a determination in S5, and the evaluation value in S6 is determined. The capture timing is controlled. However, in another embodiment, the image display unit 17 and the timer 19 are connected to the split image use pixel selection unit 8 so that the split image use pixel selection unit 8 makes a determination in S5 and calculates the evaluation value instead of S6. May be controlled. Needless to say, another control unit (not shown) may perform evaluation value fetch timing and calculation timing.
次に、スプリットイメージ領域決定部15は、スプリットイメージの2つの画像(A像及びB像)の特徴の相関が十分であるかどうかを判断する(S7)。本実施例において、「特徴の相関が十分である」とは、各特徴のコントラストが十分であり、かつ、合焦ずれの特徴が十分に表れていることを意味する。逆に、「特徴の相関が十分である」とは、スプリットイメージの2つの画像(A像及びB像)のそれぞれの特徴ではMFができない(困難である場合も含む)ことを意味する。 Next, the split image region determination unit 15 determines whether or not the correlation between the characteristics of the two images (A image and B image) of the split image is sufficient (S7). In the present embodiment, “the feature correlation is sufficient” means that the contrast of each feature is sufficient and the feature of the out-of-focus characteristic is sufficiently expressed. On the other hand, “feature correlation is sufficient” means that MF cannot be performed (including a case where it is difficult) with each feature of the two images (A image and B image) of the split image.
スプリットイメージ領域決定部15は、特徴の相関が十分であると判断すると(S7)、S4に戻る。一方、スプリットイメージ領域決定部15は、特徴の相関が十分ではないと判断した場合(S7)又はスプリットイメージ領域を変更指示したと判断した場合(S12)、スプリットイメージ領域を変更する(S8)。S8における変更は、スプリットイメージの位置の変更、分割線の方向(分割方向)の変更、スプリットイメージの拡大のいずれかを含む。そして、スプリットイメージ使用画素選択部8、スプリットイメージ使用領域抽出部9、画像合成部16を制御して画像表示部17によるスプリットイメージの表示を更新する(S9)。その後、処理はS4に戻る。 When the split image area determination unit 15 determines that the feature correlation is sufficient (S7), the process returns to S4. On the other hand, when it is determined that the feature correlation is not sufficient (S7) or when it is determined that the split image area has been changed (S12), the split image area determination unit 15 changes the split image area (S8). The change in S8 includes any one of change of the position of the split image, change of the direction of the dividing line (division direction), and enlargement of the split image. Then, the split image use pixel selection unit 8, the split image use region extraction unit 9, and the image composition unit 16 are controlled to update the split image display by the image display unit 17 (S9). Thereafter, the process returns to S4.
以下、図31及び図32を参照して、図30のS8の変更のうちスプリットイメージの表示上の拡大(即ち、A像及びB像の拡大)について説明する。図31は、コントラストが不十分な場合(即ち、図28に示すように、スプリットイメージ20gの左右瞳分割A画像22g、B画像24gのコントラストが十分とれない場合)に、横方向に広げた上下分割スプリットイメージ20hを示す図である。図32(a)は、上下分割スプリットイメージ20hの左右瞳分割A画像22hの評価値を示すグラフである。図32(b)は、上下分割スプリットイメージ20hの左右瞳分割B画像24hの評価値を示すグラフである。スプリットイメージ領域決定部15は、スプリットイメージ20gのA像とB像のコントラストを調べ、図32(a)及び図32(b)に示すように、コントラストが十分得られる領域までスプリットイメージを自動的に左右に広げる。なお、左右分割スプリットイメージの場合にも同様に、コントラストが十分とれる領域まで自動的に上下に広げる。なお、スプリットイメージを拡大する方向は分割線が延びる方向である。また、ここでいうところの拡大とは、表示上の拡大をいい、信号処理をするうえで当該拡大領域の信号量を増やす場合と増やさない場合を問わない。 Hereinafter, with reference to FIG. 31 and FIG. 32, the enlargement on the display of the split image (that is, the enlargement of the A image and the B image) in the change of S8 of FIG. FIG. 31 shows the upper and lower sides expanded in the horizontal direction when the contrast is insufficient (that is, as shown in FIG. 28, the contrast between the left and right pupil division A images 22g and B image 24g of the split image 20g is not sufficient). It is a figure which shows the division | segmentation split image 20h. FIG. 32A is a graph showing the evaluation value of the left and right pupil division A image 22h of the upper and lower division split image 20h. FIG. 32B is a graph showing the evaluation value of the left and right pupil division B image 24h of the upper and lower division split image 20h. The split image area determination unit 15 examines the contrast between the A image and the B image of the split image 20g, and automatically displays the split image up to an area where sufficient contrast is obtained, as shown in FIGS. 32 (a) and 32 (b). Spread left and right. Similarly, in the case of a split image on the left and right, the image is automatically expanded up and down to an area where sufficient contrast can be obtained. Note that the direction in which the split image is enlarged is the direction in which the dividing line extends. The term “enlargement” as used herein refers to enlargement on the display, and it does not matter whether the signal amount in the enlargement area is increased or not when performing signal processing.
次に、図33及び図34を参照して、図30のS8の変更のうちスプリットイメージの位置の変更(即ち、A像及びB像の位置の変更)について説明する。図33は、図28に示すように、コントラストが不十分な場合に、スプリットイメージ20gの位置をスプリットイメージ20iの位置に変更した図である。図34(a)は、上下分割スプリットイメージ20iの左右瞳分割A画像22iの評価値を示すグラフである。図34(b)は、上下分割スプリットイメージ20iの左右瞳分割B画像24iの評価値を示すグラフである。スプリットイメージ領域決定部15は、スプリットイメージ20gのA像とB像のコントラストを調べ、図34(a)及び図34(b)に示すように、コントラストが十分得られる位置にスプリットイメージ20gの位置を自動的に変更する。なお、左右分割スプリットイメージの場合にも同様に、コントラストが十分とれる領域に自動的に位置を変更する。 Next, with reference to FIGS. 33 and 34, the change of the position of the split image (that is, the change of the positions of the A image and the B image) in the change of S8 of FIG. 30 will be described. FIG. 33 is a diagram in which the position of the split image 20g is changed to the position of the split image 20i when the contrast is insufficient as shown in FIG. FIG. 34A is a graph showing the evaluation value of the left and right pupil division A image 22i of the upper and lower division split image 20i. FIG. 34B is a graph showing the evaluation value of the left and right pupil division B image 24i of the upper and lower division split image 20i. The split image area determination unit 15 checks the contrast of the A image and the B image of the split image 20g, and as shown in FIGS. 34 (a) and 34 (b), the position of the split image 20g is at a position where sufficient contrast is obtained. Automatically change. Similarly, in the case of a left / right split image, the position is automatically changed to an area where sufficient contrast can be obtained.
次に、図35〜図42を参照して、図30のS8の変更のうちスプリットイメージの分割方向(分割線の方向)の変更について説明する。図35は、上下分割スプリットイメージ20jにおいて合焦ずれの特徴が十分ではない場合を示す図である。図36(a)は上下分割スプリットイメージ20jの左右瞳分割A画像22jの評価値を示すグラフである。図36(b)は上下分割スプリットイメージ20jの左右瞳分割B画像24jの評価値を示すグラフである。図36(a)に示すA画像22jと図36(b)に示すB画像24jの評価値が殆ど同じであることが理解される。図35に示す上下分割スプリットイメージ20jは、図28に示すようなA像22g、B像24gのコントラストの低い場合ではない。しかし、操作者から見ると上下分割スプリットイメージ20jのA像22j、B像24jのずれが殆どなく合焦作業がしづらい。 Next, with reference to FIGS. 35 to 42, the change of the split image dividing direction (direction of the dividing line) among the changes of S8 of FIG. 30 will be described. FIG. 35 is a diagram illustrating a case where the focus shift feature is not sufficient in the vertically divided split image 20j. FIG. 36A is a graph showing the evaluation value of the left and right pupil division A image 22j of the upper and lower division split image 20j. FIG. 36B is a graph showing the evaluation value of the left and right pupil division B image 24j of the upper and lower division split image 20j. It will be understood that the evaluation values of the A image 22j shown in FIG. 36A and the B image 24j shown in FIG. 36B are almost the same. The vertically divided split image 20j shown in FIG. 35 is not a case where the contrast of the A image 22g and the B image 24g is low as shown in FIG. However, from the viewpoint of the operator, there is almost no deviation between the A image 22j and the B image 24j of the vertically divided split image 20j, making it difficult to focus.
そこで、図37に示すように、分割方向を変更する。図37は、図35と全く同じ画像部分での左右分割スプリットイメージ20kを示す図である。図38(a)は左右分割スプリットイメージ20kのA像22kの評価値を示すグラフである。図38(b)は左右分割スプリットイメージ20kのB像24kの評価値を示すグラフである。図38(a)及び図38(b)に示すように、A画像22kとB画像24kの評価値は明らかに異なり、図37に示す左右分割スプリットイメージ20kの場合、合焦ずれの特徴が見て取りやすく操作者にとっても合焦作業がしやすくなる。この場合、スプリットイメージ領域決定部15は、異なるスプリットイメージの分割方向(上下分割、左右分割)のそれぞれの評価値を算出し、特徴が十分な分割方向を選択して表示する。図35に示す上下分割スプリットイメージ20jにおいて特徴抽出が十分でない場合、図37に示すように、スプリットイメージ領域決定部15は、左右分割スプリットイメージ20kに自動的に切り替える。これにより操作者の十分合焦作業が行いやすいスプリットイメージを自動的に選択して表示することができる。 Therefore, the division direction is changed as shown in FIG. FIG. 37 is a diagram showing a left / right divided split image 20k in the same image portion as FIG. FIG. 38A is a graph showing the evaluation value of the A image 22k of the left and right divided split image 20k. FIG. 38B is a graph showing the evaluation value of the B image 24k of the left and right divided split image 20k. As shown in FIGS. 38 (a) and 38 (b), the evaluation values of the A image 22k and the B image 24k are clearly different. In the case of the left and right split split image 20k shown in FIG. This makes it easier for the operator to perform the focusing operation. In this case, the split image region determination unit 15 calculates the evaluation values of the division directions (upper and lower divisions and left and right divisions) of different split images, and selects and displays a division direction with sufficient features. When the feature extraction is not sufficient in the vertically divided split image 20j shown in FIG. 35, the split image area determining unit 15 automatically switches to the left and right divided split image 20k as shown in FIG. As a result, it is possible to automatically select and display a split image that is easy for the operator to perform sufficient focusing work.
以上、説明したように、図30に示すS8は、特徴抽出部であるスプリットイメージ使用画素選択部8が抽出した2つの画像(A像及びB像)のそれぞれの特徴ではMFができないと判断した場合に行われる。そして、スプリットイメージ領域決定部15は、S8において、スプリットイメージの位置の変更、分割線の方向(分割方向)の変更、スプリットイメージの拡大のいずれかを行う。この結果、MFに適したスプリットイメージ画像を被写体像と共に操作者に提供することができる。 As described above, S8 shown in FIG. 30 determines that MF cannot be performed with the features of the two images (A image and B image) extracted by the split image use pixel selection unit 8 which is the feature extraction unit. Done in case. Then, in S8, the split image area determination unit 15 performs any one of change of the position of the split image, change of the direction of the dividing line (division direction), and enlargement of the split image. As a result, a split image suitable for MF can be provided to the operator together with the subject image.
なお、本実施例は、上下瞳分割画像、左右瞳分割画像によるスプリットイメージについて説明したが、本発明は、斜め方向に分割された瞳分割画像を利用した斜め分割のスプリットイメージに関しても同様に適用可能である。 In this embodiment, the split image using the upper and lower pupil divided images and the left and right pupil divided images has been described. However, the present invention is similarly applied to the oblique split image using the pupil divided images divided in the oblique direction. Is possible.
1 撮影レンズ
1a フォーカスレンズ
6 瞳分割画素抽出部
8 スプリットイメージ使用画素選択部
9 スプリットイメージ使用領域抽出部
12 評価値算出部
13 姿勢検知部
14 操作部
15 スプリットイメージ領域決定部
17 表示部
19 タイマ
20a〜20k スプリットイメージ
22a〜22k A像
23e A像のB像との隣接部分(評価値算出対象領域)
24a〜24k B像
25e B像のA像との隣接部分(評価値算出対象領域)
100 デジタルカメラ(撮像装置)
DESCRIPTION OF SYMBOLS 1 Shooting lens 1a Focus lens 6 Pupil division pixel extraction part 8 Split image use pixel selection part 9 Split image use area extraction part 12 Evaluation value calculation part 13 Posture detection part 14 Operation part 15 Split image area determination part 17 Display part 19 Timer 20a ˜20k Split image 22a˜22k A image 23e A portion adjacent to B image of A image (evaluation value calculation target region)
24a-24k B image 25e Adjacent part of B image with A image (evaluation value calculation target region)
100 Digital camera (imaging device)
Claims (7)
マニュアルフォーカスを可能にするマニュアルフォーカスモードと、前記複数の第2の画素からの信号に基づいて形成され画像を表示するスプリットイメージ表示モードとの両方が設定されると、前記複数の第2の画素から生成された瞳分割画素信号に基づいて2つの画像をスプリットイメージとして生成し、当該2つの画像のそれぞれのコントラストに基づいて、前記スプリットイメージの表示態様を変更するスプリットイメージ領域決定手段とを有することを特徴とする撮像装置。 A plurality of first pixels each including light that passes through the entire exit pupil of the photographing lens that includes a focus lens and forms an image of the subject and generates the image of the subject, and each of the exits of the photographing lens A plurality of second pixels that receive light passing through a partial region of the pupil and generate a pupil-divided pixel signal; and
When both a manual focus mode that enables manual focus and a split image display mode that displays an image formed based on signals from the plurality of second pixels are set, the plurality of second pixels based on the pupil division pixel signals generated from the generated two images as the split image, based on the respective contrast those the two images, the split image region determining means for changing a display mode of the split image An imaging apparatus comprising:
前記スプリットイメージ領域決定手段は、前記姿勢検知手段の検知結果と格納された情報に基づいて前記スプリットイメージとして表示する領域を決定することを特徴とする請求項1〜5のうちいずれか一項に記載の撮像装置。 The imaging apparatus further includes an attitude detection unit that detects an attitude of the imaging apparatus,
The said split image area | region determination means determines the area | region displayed as the said split image based on the detection result of the said attitude | position detection means, and the stored information, The Claim 1 characterized by the above-mentioned. The imaging device described.
前記スプリットイメージ領域決定手段は、前記操作手段が操作されると前記操作手段によって変更された情報に基づいて前記スプリットイメージの領域を変更することを特徴とする請求項1〜6のうちいずれか一項に記載の撮像装置。 The imaging apparatus further includes an operation unit operated to change at least one of a position, a size, and a dividing line direction of the split image,
The split image area determining means changes the area of the split image based on the information changed by the operating means when the operating means is operated. The imaging device according to item.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008125567A JP5207819B2 (en) | 2008-05-13 | 2008-05-13 | Imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008125567A JP5207819B2 (en) | 2008-05-13 | 2008-05-13 | Imaging device |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2009276426A JP2009276426A (en) | 2009-11-26 |
| JP2009276426A5 JP2009276426A5 (en) | 2011-07-07 |
| JP5207819B2 true JP5207819B2 (en) | 2013-06-12 |
Family
ID=41441949
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008125567A Expired - Fee Related JP5207819B2 (en) | 2008-05-13 | 2008-05-13 | Imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5207819B2 (en) |
Families Citing this family (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2590023B1 (en) * | 2010-06-30 | 2016-07-20 | FUJIFILM Corporation | Imaging device and imaging method |
| JP5829018B2 (en) * | 2010-11-22 | 2015-12-09 | オリンパス株式会社 | Imaging device |
| KR101777351B1 (en) | 2011-05-16 | 2017-09-11 | 삼성전자주식회사 | Image pickup device, digital photographing apparatus using the device, auto-focusing method, and computer-readable storage medium for performing the method |
| CN104396227B (en) | 2012-06-01 | 2016-10-12 | 富士胶片株式会社 | camera device |
| JP6144880B2 (en) * | 2012-06-07 | 2017-06-07 | キヤノン株式会社 | Display device, display method, and imaging device including the display device |
| WO2013183406A1 (en) | 2012-06-07 | 2013-12-12 | 富士フイルム株式会社 | Image capture device and image display method |
| CN104641626B (en) * | 2012-09-19 | 2018-02-27 | 富士胶片株式会社 | Camera device and focus confirmation display method |
| CN104782110B (en) | 2012-09-19 | 2018-09-14 | 富士胶片株式会社 | Image processing device, imaging device and image processing method |
| WO2014046037A1 (en) * | 2012-09-19 | 2014-03-27 | 富士フイルム株式会社 | Imaging device and method for controlling same |
| JP2014110523A (en) * | 2012-11-30 | 2014-06-12 | Fujifilm Corp | Imaging apparatus |
| WO2014106916A1 (en) * | 2013-01-04 | 2014-07-10 | 富士フイルム株式会社 | Image processing device, imaging device, program, and image processing method |
| WO2014155812A1 (en) * | 2013-03-27 | 2014-10-02 | 富士フイルム株式会社 | Image processing device, image capturing apparatus, image processing method, and image processing program |
| CN105026976B (en) | 2013-03-29 | 2017-05-03 | 富士胶片株式会社 | Image processing device, imaging device and image processing method |
| WO2014155813A1 (en) * | 2013-03-29 | 2014-10-02 | 富士フイルム株式会社 | Image processing device, imaging device, image processing method and image processing program |
| JP6628530B2 (en) * | 2015-09-15 | 2020-01-08 | キヤノン株式会社 | Imaging device and control method thereof |
| JP2017103793A (en) * | 2017-01-12 | 2017-06-08 | 富士フイルム株式会社 | Imaging apparatus |
| JP2018088709A (en) * | 2018-02-15 | 2018-06-07 | 富士フイルム株式会社 | Imaging device |
| JP2019126097A (en) * | 2019-04-26 | 2019-07-25 | 富士フイルム株式会社 | Imaging apparatus |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4007713B2 (en) * | 1999-04-06 | 2007-11-14 | オリンパス株式会社 | Imaging device |
| JP2001309210A (en) * | 2000-04-27 | 2001-11-02 | Minolta Co Ltd | Digital camera |
| JP3929034B2 (en) * | 2002-07-08 | 2007-06-13 | 富士フイルム株式会社 | Manual focus device |
-
2008
- 2008-05-13 JP JP2008125567A patent/JP5207819B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2009276426A (en) | 2009-11-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5207819B2 (en) | Imaging device | |
| JP5197083B2 (en) | Imaging apparatus and control method thereof | |
| EP0981245B1 (en) | Solid-state image sensing apparatus including sensor cells for focus measurement and / or cells for photometry | |
| EP2181349B1 (en) | Image sensing apparatus | |
| CN102089698B (en) | Image-capturing apparatus | |
| JP5092685B2 (en) | Imaging device and imaging apparatus | |
| US20150222834A1 (en) | Solid-state image sensor and image capturing apparatus | |
| JP5276374B2 (en) | Focus detection device | |
| US8902349B2 (en) | Image pickup apparatus | |
| WO2010122702A1 (en) | Solid-state imaging device and electronic camera | |
| JP2008309883A (en) | Digital camera | |
| JP2005092085A (en) | Focus detection and adjustment method and focus detection and adjustment device | |
| JP5420050B2 (en) | Imaging apparatus and control method thereof | |
| JP5609232B2 (en) | Imaging device | |
| JP2011176457A (en) | Electronic camera | |
| JP5060216B2 (en) | Imaging device | |
| US11122196B2 (en) | Image processing apparatus | |
| JP5961720B2 (en) | Imaging device | |
| JP2002303785A (en) | Focus detection device and imaging device | |
| JP2014238425A (en) | Digital camera | |
| JP2024073200A (en) | FOCUS CONTROL DEVICE, IMAGING APPARATUS, AND FOCUS CONTROL METHOD | |
| JP2012257295A (en) | Imaging device | |
| JP2014197161A (en) | Focus detecting device and method, and imaging apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110513 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110519 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120302 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120626 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120824 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130122 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130219 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5207819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |