JP2016099432A - Focus detection device, and method, program and storage medium - Google Patents

Focus detection device, and method, program and storage medium Download PDF

Info

Publication number
JP2016099432A
JP2016099432A JP2014234907A JP2014234907A JP2016099432A JP 2016099432 A JP2016099432 A JP 2016099432A JP 2014234907 A JP2014234907 A JP 2014234907A JP 2014234907 A JP2014234907 A JP 2014234907A JP 2016099432 A JP2016099432 A JP 2016099432A
Authority
JP
Japan
Prior art keywords
phase difference
image
focus detection
optical system
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014234907A
Other languages
Japanese (ja)
Inventor
英之 浜野
Hideyuki Hamano
英之 浜野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014234907A priority Critical patent/JP2016099432A/en
Publication of JP2016099432A publication Critical patent/JP2016099432A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a focus detection device capable of detecting a phase difference with small error and high precision.SOLUTION: A focus detection device comprises: a first calculation unit which calculates a first phase difference between a first image signal based upon luminous flux passed through a partial region of an exit pupil of a photographic optical system and a third signal based upon luminous flux passed through the entire region of the exit pupil; a second calculation unit which calculates a second phase difference between a second image signal based upon luminous flux passed through a partial region different from the partial region of the exit pupil and a fourth image signal based upon the luminous flux passed through the entire region of the exit pupil; a third calculation unit which calculates a defocusing amount of the photographic optical system using at least one of the first phase difference and second phase difference; and a switching unit which calculates the defocusing amount of the photographic optical system using both the first phase difference and second phase different or calculates the defocusing amount of the photographic optical system using one of the first phase difference and second phase difference in calculating the defocusing amount of the photographic optical system by the third calculation part.SELECTED DRAWING: Figure 6

Description

本発明は、焦点検出装置および方法に関し、特には撮像素子の出力に基づいて位相差検出方式の焦点検出を行う焦点検出装置および方法に関する。   The present invention relates to a focus detection apparatus and method, and more particularly, to a focus detection apparatus and method for performing phase difference detection type focus detection based on an output of an image sensor.

撮影レンズの焦点状態を検出する方式の一つとして、各画素にマイクロレンズが形成された2次元の撮像素子を用いて瞳分割方式の焦点検出を行う装置が特許文献1に開示されている。この装置では、撮像素子を構成する各画素の光電変換部が複数に分割されており、分割された光電変換部がマイクロレンズを介して撮影レンズの瞳の異なる領域を通過した光束を受光するように構成されている。この撮影レンズの瞳の異なる領域を通過した光束を受光した光電変換部の1対の出力信号に対して、ずれ量である位相差を算出するための相関演算を行い、その位相差からデフォーカス量を算出することができる。   As one of methods for detecting the focus state of the photographing lens, Patent Document 1 discloses an apparatus that performs pupil division type focus detection using a two-dimensional image sensor in which a microlens is formed in each pixel. In this apparatus, the photoelectric conversion unit of each pixel constituting the imaging element is divided into a plurality of parts, and the divided photoelectric conversion unit receives light beams that have passed through different regions of the pupil of the photographing lens via the microlens. It is configured. A correlation calculation is performed on the pair of output signals of the photoelectric conversion unit that has received the light beams that have passed through different areas of the pupil of the photographic lens to calculate a phase difference that is a shift amount, and defocusing is performed from the phase difference. The amount can be calculated.

特許文献2には、同様に瞳分割方式の焦点検出を行うために、撮像素子を構成する画素の一部を焦点検出用画素として構成したものが開示されている。特許文献1に対して、焦点検出用画素の出力は撮影画像として補正する必要が生じるが、焦点検出信号として読み出す信号が少ないため、撮像素子の構成や、その後の演算処理上、安価に構成できるという特徴がある。特許文献2に開示されている焦点検出方式では、瞳分割を行う1対の焦点検出信号は、異なる画素の出力として得られる。   Patent Document 2 discloses a configuration in which a part of pixels constituting an image sensor is configured as a focus detection pixel in order to similarly perform focus detection of the pupil division method. In contrast to Patent Document 1, it is necessary to correct the output of the focus detection pixel as a photographed image, but since there are few signals to be read out as a focus detection signal, it can be configured inexpensively in terms of the configuration of the image sensor and the subsequent arithmetic processing. There is a feature. In the focus detection method disclosed in Patent Document 2, a pair of focus detection signals for performing pupil division is obtained as outputs of different pixels.

特開2008−52009号公報JP 2008-52009 A 特許3592147号公報Japanese Patent No. 3592147

しかしながら、上述の特許文献2に開示された技術では、1対の出力信号の位相差が、誤差を多く含み、精度よく検出できない場合があった。例えば、特許文献2の図2のように焦点検出用画素を配置した場合には、1対の出力信号に対応する被写体の位置が異なる。そのため、1対の出力信号の類似度が低い場合があり、そのような場合には、焦点検出を精度よく行うことができない。   However, in the technique disclosed in Patent Document 2 described above, the phase difference between a pair of output signals often includes errors and cannot be detected accurately. For example, when focus detection pixels are arranged as shown in FIG. 2 of Patent Document 2, the positions of subjects corresponding to a pair of output signals are different. Therefore, the similarity between the pair of output signals may be low, and in such a case, focus detection cannot be performed with high accuracy.

また、特許文献2の図6のように焦点検出用画素を配置した場合には、1対の出力信号の各々のサンプリングピッチが広くなるため、被写体である光学像の周波数特性において高周波帯域の周波数成分を取得することができない。そのため、1対の出力信号には、それぞれに異なる折り返しノイズが発生し、焦点検出誤差が発生してしまう。   In addition, when focus detection pixels are arranged as shown in FIG. 6 of Patent Document 2, the sampling pitch of each of the pair of output signals is widened. Therefore, in the frequency characteristics of the optical image that is the subject, the frequency in the high frequency band Ingredients cannot be acquired. Therefore, different aliasing noises are generated in the pair of output signals, and a focus detection error occurs.

本発明は上述した課題に鑑みてなされたものであり、その目的は、誤差の少ない高精度な位相差検出が可能な焦点検出装置を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a focus detection apparatus capable of detecting a phase difference with high accuracy and less error.

本発明に係わる焦点検出装置は、撮影光学系の射出瞳の一部の領域を通過した光束に基づく第1の像信号と、前記射出瞳の全領域を通過した光束に基づく第3の像信号との第1の位相差を算出する第1の算出手段と、前記射出瞳の前記一部の領域とは異なる一部の領域を通過した光束に基づく第2の像信号と、前記射出瞳の全領域を通過した光束に基づく第4の像信号との第2の位相差を算出する第2の算出手段と、前記第1の位相差と前記第2の位相差の少なくとも一方を用いて前記撮影光学系のデフォーカス量を算出する第3の算出手段と、前記第3の算出手段による前記撮影光学系のデフォーカス量の算出において、前記第1の位相差と前記第2の位相差の両方を用いて前記撮影光学系のデフォーカス量を算出するか、前記第1の位相差と前記第2の位相差のいずれかを用いて前記撮影光学系のデフォーカス量を算出するかを切り替える切り替え手段と、を備えることを特徴とする。   The focus detection apparatus according to the present invention includes a first image signal based on a light beam that has passed through a partial area of an exit pupil of a photographing optical system, and a third image signal based on a light beam that has passed through the entire area of the exit pupil. A first calculation means for calculating a first phase difference between the first pupil and the second image signal based on a light beam that has passed through a partial area different from the partial area of the exit pupil; The second calculation means for calculating a second phase difference with the fourth image signal based on the light flux that has passed through the entire region, and at least one of the first phase difference and the second phase difference is used to In the calculation of the defocus amount of the photographic optical system by the third calculation means for calculating the defocus amount of the photographic optical system and the third calculation means, the first phase difference and the second phase difference are calculated. The defocus amount of the photographing optical system is calculated using both, or the first phase is calculated. Characterized in that it comprises a switching means for switching whether to calculate the defocus amount of the photographing optical system by using either of the second phase difference between.

本発明によれば、誤差の少ない高精度な位相差検出が可能な焦点検出装置を提供することが可能となる。   According to the present invention, it is possible to provide a focus detection apparatus capable of detecting a phase difference with high accuracy and less error.

実施形態に係る焦点調節装置を備える撮像装置の一例としてのカメラシステムの機能構成例を示すブロック図。1 is a block diagram illustrating an example of a functional configuration of a camera system as an example of an imaging apparatus including a focus adjustment device according to an embodiment. 第1の実施形態における撮像素子の構成例を示す図。FIG. 3 is a diagram illustrating a configuration example of an image sensor according to the first embodiment. 第1の実施形態における光電変換領域と射出瞳との関係を示す図。The figure which shows the relationship between the photoelectric conversion area | region and exit pupil in 1st Embodiment. 実施形態における、焦点検出領域とAF用信号に用いられる画素の関係例を示す図。4 is a diagram illustrating an example of a relationship between a focus detection area and pixels used for AF signals in the embodiment. 実施形態における焦点調節動作を示すフローチャート。6 is a flowchart illustrating a focus adjustment operation in the embodiment. 第1の実施形態におけるデフォーカス量の算出方法を示すフローチャート。6 is a flowchart illustrating a defocus amount calculation method according to the first embodiment. 第2の実施形態における撮像素子の構成例を示す図。FIG. 6 is a diagram illustrating a configuration example of an image sensor according to a second embodiment. 第2の実施形態における光電変換領域と射出瞳との関係を示す図。The figure which shows the relationship between the photoelectric conversion area | region and exit pupil in 2nd Embodiment.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、複数の撮影レンズを交換可能なカメラとその撮影レンズからなるカメラシステムであって焦点調節装置(焦点検出装置)を有する撮像装置の構成を示す図である。図1において、本実施形態の焦点調節装置を含むカメラシステムはカメラ100とこれに交換可能に装着される撮影レンズ300とを備えて構成される。はじめに、カメラ100の構成について説明する。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration of an image pickup apparatus having a focus adjustment device (focus detection device), which is a camera system including a camera capable of exchanging a plurality of photographing lenses and the photographing lenses. In FIG. 1, the camera system including the focus adjustment apparatus of the present embodiment is configured to include a camera 100 and a photographing lens 300 that is attached to the camera 100 in an exchangeable manner. First, the configuration of the camera 100 will be described.

カメラ100は、複数種類の撮影レンズ300が存在するカメラシステムに対応しており、同一種類のレンズでも製造番号が異なるものが装着可能である。更には、焦点距離や開放Fナンバーが異なる撮影レンズ300若しくはズーム機能を備える撮影レンズ300なども装着可能で、同種、異種の撮影レンズにかかわらず交換可能な構成を有する。   The camera 100 corresponds to a camera system in which a plurality of types of photographing lenses 300 are present, and it is possible to mount lenses of the same type but having different manufacturing numbers. Furthermore, a photographic lens 300 having a different focal length or open F number, or a photographic lens 300 having a zoom function can be mounted, and can be replaced regardless of the same or different photographic lens.

このカメラ100において、撮影レンズ300を通過した光束は、レンズマウント106を通過し、メインミラー130により上方へ反射されて光学ファインダ104に入射する。光学ファインダ104により、撮影者は被写体を光学像として観察しながら撮影できる。光学ファインダ104内には、表示部54の一部の機能、例えば、合焦表示、手振れ警告表示、絞り値表示、露出補正表示等が設置されている。   In the camera 100, the light beam that has passed through the photographing lens 300 passes through the lens mount 106, is reflected upward by the main mirror 130, and enters the optical viewfinder 104. The optical viewfinder 104 allows the photographer to take a picture while observing the subject as an optical image. In the optical viewfinder 104, some functions of the display unit 54, for example, focus display, camera shake warning display, aperture value display, exposure correction display, and the like are installed.

メインミラー130の一部は半透過性のハーフミラーで構成され、メインミラー130に入射する光束のうち一部はこのハーフミラー部を通過し、サブミラー131で下方へ反射されて焦点検出装置105へ入射する。焦点検出装置105は、2次結像光学系とラインセンサを有する位相差検出方式AF機構を採用しており、得られた光学像を電気信号に変換しAF部(オートフォーカス部)42へ送る。AF部42では、この電気信号から位相差検出演算を行い、撮影レンズ300のデフォーカス量及び方向を求める。この演算結果に基づき、システム制御部50が、撮影レンズ300のフォーカス制御部342(後述する)に対して、焦点調節処理などの制御を行う。本実施形態では、焦点検出結果の補正もAF部42で行う。   A part of the main mirror 130 is constituted by a semi-transmissive half mirror, and a part of the light beam incident on the main mirror 130 passes through the half mirror part, and is reflected downward by the sub mirror 131 to the focus detection device 105. Incident. The focus detection apparatus 105 employs a phase difference detection AF mechanism having a secondary imaging optical system and a line sensor. The obtained optical image is converted into an electric signal and sent to an AF unit (autofocus unit) 42. . The AF unit 42 performs a phase difference detection calculation from this electric signal, and obtains the defocus amount and direction of the photographing lens 300. Based on the calculation result, the system control unit 50 controls the focus control unit 342 (described later) of the photographing lens 300, such as a focus adjustment process. In this embodiment, the AF detection unit 42 also corrects the focus detection result.

撮影レンズ300の焦点調節処理が終了して静止画撮影を行う場合や、電子ファインダ表示を行う場合、動画撮影を行う場合には、不図示のクイックリターン機構によりメインミラー130とサブミラー131を撮影光束外に退避させる。こうして、撮影レンズ300を通過してカメラ100に入射する光束は、露光量を制御するためのシャッター12を介して、光学像を電気信号に変換する撮像素子14に入射する。これらの撮影動作終了後には、メインミラー130とサブミラー131は図示される様な位置に戻る。   When the focus adjustment processing of the photographic lens 300 is completed and still image shooting is performed, when an electronic viewfinder display is performed, or when moving image shooting is performed, the main mirror 130 and the sub mirror 131 are captured by the quick return mechanism (not shown). Evacuate outside. Thus, the light beam that passes through the photographing lens 300 and enters the camera 100 enters the image sensor 14 that converts an optical image into an electric signal via the shutter 12 for controlling the exposure amount. After completion of these photographing operations, the main mirror 130 and the sub mirror 131 return to the positions as shown in the figure.

撮像素子14はCCDまたはCMOSイメージセンサであり、複数の画素が2次元的に配置された構成を有し、被写体の光学像を画素ごとに光電変換して電気信号を出力する。撮像素子14にて光電変換された電気信号はA/D変換器16へ送られ、アナログ信号出力がデジタル信号(画像データ)に変換される。タイミング発生回路18は、撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給する。タイミング発生回路18は、メモリ制御部22及びシステム制御部50により制御される。画像処理部20は、A/D変換器16からの画像データ或いはメモリ制御部22からの画像データに対して画素補間処理、ホワイトバランス処理、色変換処理などの所定の処理を適用する。   The imaging device 14 is a CCD or CMOS image sensor, has a configuration in which a plurality of pixels are two-dimensionally arranged, photoelectrically converts an optical image of a subject for each pixel, and outputs an electrical signal. The electrical signal photoelectrically converted by the image sensor 14 is sent to the A / D converter 16, and the analog signal output is converted into a digital signal (image data). The timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 14, the A / D converter 16, and the D / A converter 26. The timing generation circuit 18 is controlled by the memory control unit 22 and the system control unit 50. The image processing unit 20 applies predetermined processing such as pixel interpolation processing, white balance processing, and color conversion processing to the image data from the A / D converter 16 or the image data from the memory control unit 22.

本実施形態に係る撮像素子14は一部の画素が焦点検出用画素として構成されており、クイックリターン機構によりメインミラー130とサブミラー131が光路外に退避した状態においても位相差検出方式の焦点検出を可能にしている。撮像素子14で得られた画像データのうち、焦点検出用信号の生成に用いられる画素のデータは、画像処理部20で焦点検出用データに変換される。その後、焦点検出用データはシステム制御部50を介してAF部42へ送られ、AF部42は焦点検出用データに基づいて撮影レンズ300の焦点調節を行う。   In the imaging device 14 according to the present embodiment, some pixels are configured as focus detection pixels, and even when the main mirror 130 and the sub mirror 131 are retracted out of the optical path by the quick return mechanism, focus detection by the phase difference detection method is performed. Is possible. Of the image data obtained by the image sensor 14, pixel data used for generating a focus detection signal is converted into focus detection data by the image processing unit 20. Thereafter, the focus detection data is sent to the AF unit 42 via the system control unit 50, and the AF unit 42 adjusts the focus of the photographing lens 300 based on the focus detection data.

なお、撮像素子14で撮影した画像データから画像処理部20でコントラスト評価値を演算し、システム制御部50が、撮影レンズ300のフォーカス制御部342に対して焦点合わせを行うコントラスト方式のAFも可能である。このように、本実施形態のカメラ100は、ライブビュー表示時や動画撮影時のようにメインミラー130とサブミラー131が光路外に退避していても、撮像素子14で得られる画像データから位相差検出方式AFとコントラスト方式AFの両方が可能である。また、本実施形態のカメラ100は、メインミラー130とサブミラー131が光路内にあるライブビュー表示を用いない通常の静止画撮影では、焦点検出装置105による位相差検出方式AFが可能である。従って、静止画撮影時、ライブビュー表示時、動画撮影時のどの状態においても焦点調節が可能である。さらに、位相差検出方式AFが可能であるため高速な焦点合わせが可能となっている。   Note that contrast-based AF is also possible in which the image processing unit 20 calculates a contrast evaluation value from image data captured by the image sensor 14 and the system control unit 50 performs focusing on the focus control unit 342 of the imaging lens 300. It is. As described above, the camera 100 according to the present embodiment has a phase difference from the image data obtained by the image sensor 14 even when the main mirror 130 and the sub mirror 131 are retracted from the optical path as in live view display or moving image shooting. Both detection AF and contrast AF are possible. The camera 100 according to the present embodiment can perform phase difference detection AF using the focus detection device 105 in normal still image shooting that does not use live view display in which the main mirror 130 and the sub mirror 131 are in the optical path. Therefore, focus adjustment is possible in any state during still image shooting, live view display, and moving image shooting. Furthermore, since phase difference detection AF can be performed, high-speed focusing is possible.

メモリ制御部22は、A/D変換器16、タイミング発生回路18、画像処理部20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮伸長部32を制御する。そして、A/D変換器16のデータが画像処理部20及びメモリ制御部22を介して、或いはA/D変換器16のデータが直接メモリ制御部22を介して、画像表示メモリ24或いはメモリ30に書き込まれる。画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器26を介して液晶モニタ等から構成される画像表示部28に表示される。撮像素子14で撮影した動画像を画像表示部28に逐次表示することで、電子ファインダ機能(ライブビュー表示)を実現できる。画像表示部28は、システム制御部50の指示により表示をON/OFFすることが可能であり、表示をOFFにした場合にはカメラ100の電力消費を大幅に低減できる。   The memory control unit 22 controls the A / D converter 16, the timing generation circuit 18, the image processing unit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression unit 32. Then, the data of the A / D converter 16 is sent via the image processing unit 20 and the memory control unit 22 or the data of the A / D converter 16 is sent directly via the memory control unit 22 to the image display memory 24 or the memory 30. Is written to. Display image data written in the image display memory 24 is displayed on an image display unit 28 including a liquid crystal monitor or the like via a D / A converter 26. An electronic viewfinder function (live view display) can be realized by sequentially displaying a moving image captured by the image sensor 14 on the image display unit 28. The image display unit 28 can turn on / off the display according to an instruction from the system control unit 50. When the display is turned off, the power consumption of the camera 100 can be greatly reduced.

また、メモリ30は、撮影した静止画像や動画像の一時記憶に用いられ、所定枚数の静止画像や所定時間の動画像を記憶するのに十分な記憶容量を備えている。これにより、連射撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことができる。また、メモリ30はシステム制御部50の作業領域としても使用できる。圧縮伸長部32は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する機能を有し、メモリ30に記憶された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えた画像データをメモリ30に書き戻す。   The memory 30 is used for temporary storage of captured still images and moving images, and has a storage capacity sufficient to store a predetermined number of still images and moving images for a predetermined time. Thereby, even in the case of continuous shooting or panoramic shooting, a large amount of image writing can be performed on the memory 30 at high speed. The memory 30 can also be used as a work area for the system control unit 50. The compression / decompression unit 32 has a function of compressing / decompressing image data by adaptive discrete cosine transform (ADCT) or the like, reads an image stored in the memory 30, performs compression processing or decompression processing, and finishes the processed image data Is written back to the memory 30.

シャッター制御部36は、測光部46からの測光情報に基づいて、撮影レンズ300の絞り312を制御する絞り制御部344と連携しながら、シャッター12を制御する。インターフェース部38とコネクタ122は、カメラ100と撮影レンズ300とを電気的に接続する。これらは、カメラ100と撮影レンズ300との間で制御信号、状態信号、データ信号等を伝え合うと共に、各種電圧の電流を供給する機能も備えている。また、電気通信のみならず、光通信、音声通信等を伝達する構成としてもよい。   The shutter control unit 36 controls the shutter 12 based on the photometric information from the photometric unit 46 in cooperation with the aperture control unit 344 that controls the aperture 312 of the photographing lens 300. The interface unit 38 and the connector 122 electrically connect the camera 100 and the photographing lens 300. These have functions of transmitting control signals, status signals, data signals, and the like between the camera 100 and the photographing lens 300 and supplying currents of various voltages. Moreover, it is good also as a structure which transmits not only electrical communication but optical communication, audio | voice communication, etc.

測光部46は、自動露出制御(AE)処理を行う。撮影レンズ300を通過した光束を、レンズマウント106、メインミラー130、そして不図示の測光用レンズを介して、測光部46に入射させることにより、被写体光学像の輝度を測定できる。被写体輝度と露出条件とを対応付けたプログラム線図などを用いて、測光部46は露出条件を決定することができる。また、測光部46は、フラッシュ48と連携することで調光処理機能も有する。なお、画像処理部20による撮像素子14の画像データを演算した演算結果に基づき、システム制御部50が、シャッター制御部36と撮影レンズ300の絞り制御部344に対してAE制御を行うことも可能である。フラッシュ48は、AF補助光の投光機能、フラッシュ調光機能も有する。   The photometry unit 46 performs automatic exposure control (AE) processing. The light flux that has passed through the photographic lens 300 is incident on the photometric unit 46 via the lens mount 106, the main mirror 130, and a photometric lens (not shown), whereby the luminance of the subject optical image can be measured. The photometry unit 46 can determine the exposure condition by using a program diagram in which the subject brightness and the exposure condition are associated with each other. The photometry unit 46 also has a light control processing function in cooperation with the flash 48. The system control unit 50 can also perform AE control on the shutter control unit 36 and the aperture control unit 344 of the photographic lens 300 based on the calculation result obtained by calculating the image data of the image sensor 14 by the image processing unit 20. It is. The flash 48 also has an AF auxiliary light projecting function and a flash light control function.

システム制御部50は例えばCPUやMPUなどのプログラマブルプロセッサを有し、予め記憶されたプログラムを実行することによりカメラシステム全体の動作を制御する。不揮発性のメモリ52はシステム制御部50の動作用の定数、変数、プログラム等を記憶する。表示部54はシステム制御部50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する、例えば液晶表示装置である。表示部54はカメラ100の操作部近辺の視認し易い位置に単数或いは複数設置され、例えばLCDやLED等の組み合わせにより構成される。表示部54の表示内容のうち、LCD等に表示するものとしては、記録枚数や残撮影可能枚数等の撮影枚数に関する情報や、シャッタースピード、絞り値、露出補正、フラッシュ等の撮影条件に関する情報等がある。その他、電池残量や日付・時刻等も表示される。また、表示部54は、前述した様にその一部の機能が光学ファインダ104内に設置されている。   The system control unit 50 includes a programmable processor such as a CPU or MPU, and controls the operation of the entire camera system by executing a program stored in advance. The nonvolatile memory 52 stores constants, variables, programs, etc. for operating the system control unit 50. The display unit 54 is, for example, a liquid crystal display device that displays an operation state, a message, and the like using characters, images, sounds, and the like in accordance with execution of a program by the system control unit 50. One or a plurality of display units 54 are installed at positions in the vicinity of the operation unit of the camera 100 that are easily visible, and are configured by a combination of an LCD, an LED, and the like, for example. Among the display contents of the display unit 54, what is displayed on the LCD or the like includes information on the number of shots such as the number of recorded sheets and the number of remaining shots, information on shooting conditions such as shutter speed, aperture value, exposure correction, and flash. There is. In addition, the remaining battery level, date / time, and the like are also displayed. Further, as described above, a part of the display unit 54 is installed in the optical viewfinder 104.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。60,62,64,66,68及び70は、システム制御部50の各種の動作指示を入力するための操作部であり、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。   The nonvolatile memory 56 is an electrically erasable / recordable memory, and for example, an EEPROM or the like is used. Reference numerals 60, 62, 64, 66, 68, and 70 are operation units for inputting various operation instructions of the system control unit 50, such as a switch, a dial, a touch panel, pointing by gaze detection, a voice recognition device, or the like. Consists of multiple combinations.

モードダイアル60は、電源オフ、オート撮影モード、マニュアル撮影モード、再生モード、PC接続モード等の各機能モードを切り替え設定できる。シャッタースイッチSW1である62は、不図示のシャッターボタンが半押しされるとONとなり、AF処理、AE処理、AWB処理、EF処理等の動作開始を指示する。シャッタースイッチSW2である64は、シャッターボタンが全押しされるとONとなり、撮影に関する一連の処理の動作開始を指示する。撮影に関する一連の処理とは、露光処理、現像処理及び記録処理等のことである。露光処理では、撮像素子14から読み出した信号をA/D変換器16、メモリ制御部22を介してメモリ30に画像データとして書き込む。現像処理では、画像処理部20やメモリ制御部22での演算を用いた現像を行う。記録処理では、メモリ30から画像データを読み出し、圧縮伸長部32で圧縮を行い、記録媒体200或いは210に画像データとして書き込む。   The mode dial 60 can switch and set each function mode such as power-off, auto shooting mode, manual shooting mode, playback mode, and PC connection mode. A shutter switch SW1 62 is turned on when a shutter button (not shown) is half-pressed, and instructs to start operations such as AF processing, AE processing, AWB processing, and EF processing. The shutter switch SW2 64 is turned on when the shutter button is fully pressed, and instructs the start of a series of processing related to photographing. A series of processing related to photographing is exposure processing, development processing, recording processing, and the like. In the exposure process, the signal read from the image sensor 14 is written as image data in the memory 30 via the A / D converter 16 and the memory control unit 22. In the development process, development is performed using computations in the image processing unit 20 and the memory control unit 22. In the recording process, image data is read from the memory 30, compressed by the compression / decompression unit 32, and written as image data on the recording medium 200 or 210.

画像表示ON/OFFスイッチ66は、画像表示部28のON/OFFを設定できる。この機能により、光学ファインダ104を用いて撮影を行う際に、液晶モニタ等から成る画像表示部28への電流供給を遮断することにより、省電力を図ることができる。クイックレビューON/OFFスイッチ68は、撮影した画像データを撮影直後に自動再生するクイックレビュー機能を設定する。操作部70は、各種ボタンやタッチパネル等からなる。各種ボタンには、メニューボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、露出補正ボタン等がある。   The image display ON / OFF switch 66 can set ON / OFF of the image display unit 28. With this function, when photographing using the optical viewfinder 104, power supply can be saved by cutting off the current supply to the image display unit 28 including a liquid crystal monitor or the like. The quick review ON / OFF switch 68 sets a quick review function for automatically reproducing captured image data immediately after shooting. The operation unit 70 includes various buttons and a touch panel. The various buttons include a menu button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, an exposure correction button, and the like.

電源制御部80は、電池検出回路、DC/DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されている。電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御部50の指示に基づいてDC/DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。コネクタ82及び84は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、リチウムイオン電池等の二次電池、ACアダプタ等からなる電源部86をカメラ100と接続する。   The power supply control unit 80 is configured by a battery detection circuit, a DC / DC converter, a switch circuit that switches blocks to be energized, and the like. The presence / absence of a battery, the type of battery, and the remaining battery level are detected, the DC / DC converter is controlled based on the detection result and the instruction of the system control unit 50, and a necessary voltage is included for a necessary period and a recording medium. Supply to each part. The connectors 82 and 84 connect the camera 100 with a power supply unit 86 including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a lithium ion battery, or an AC adapter.

インターフェース90及び94は、メモリカードやハードディスク等の記録媒体との接続機能を有し、コネクタ92及び96は、メモリカードやハードディスク等の記録媒体と物理的接続を行う。記録媒体着脱検知部98は、コネクタ92または96に記録媒体が装着されているかどうかを検知する。なお、本実施形態では、記録媒体を取り付けるインターフェース及びコネクタを2系統持つものとして説明しているが、インターフェース及びコネクタは、単数あるいは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインターフェース及びコネクタを組み合わせて備える構成としても構わない。更に、インターフェース及びコネクタにLANカード等の各種通信カードを接続することで、コンピュータやプリンタ等の他の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。   The interfaces 90 and 94 have a connection function with a recording medium such as a memory card or a hard disk, and the connectors 92 and 96 make a physical connection with a recording medium such as a memory card or a hard disk. The recording medium attachment / detachment detection unit 98 detects whether or not a recording medium is attached to the connector 92 or 96. Although the present embodiment has been described as having two systems of interfaces and connectors for attaching the recording medium, the interface and connectors may have a single system or a plurality of systems. Moreover, it is good also as a structure provided with combining the interface and connector of a different standard. Furthermore, by connecting various communication cards such as a LAN card to the interface and connector, it is possible to transfer image data and management information attached to the image data to and from other peripheral devices such as a computer and a printer.

通信部110は、有線通信、無線通信等の各種通信機能を有する。コネクタ112は、通信部110によりカメラ100を他の機器と接続し、無線通信の場合はアンテナである。記録媒体200及び210は、メモリカードやハードディスク等である。記録媒体200及び210は、半導体メモリや磁気ディスク等から構成される記録部202,212、カメラ100とのインターフェース204,214、カメラ100と接続を行うコネクタ206,216を備えている。   The communication unit 110 has various communication functions such as wired communication and wireless communication. The connector 112 connects the camera 100 to other devices via the communication unit 110, and is an antenna in the case of wireless communication. The recording media 200 and 210 are a memory card, a hard disk, or the like. The recording media 200 and 210 include recording units 202 and 212 configured by a semiconductor memory, a magnetic disk, and the like, interfaces 204 and 214 with the camera 100, and connectors 206 and 216 for connecting with the camera 100.

次に、撮影レンズ300について説明する。撮影レンズ300は、レンズマウント306をカメラ100のレンズマウント106に係合させることによりにカメラ100と機械的並びに電気的に結合される。電気的な結合はレンズマウント106及びレンズマウント306に設けられたコネクタ122及びコネクタ322によって実現される。レンズ311には撮影レンズ300の合焦距離を調節するためのフォーカスレンズが含まれ、フォーカス制御部342はフォーカスレンズを光軸に沿って駆動することで撮影レンズ300の焦点調節を行う。絞り312はカメラ100に入射する被写体光の量と角度を調節する。   Next, the photographing lens 300 will be described. The taking lens 300 is mechanically and electrically coupled to the camera 100 by engaging the lens mount 306 with the lens mount 106 of the camera 100. Electrical coupling is realized by the connector 122 and the connector 322 provided on the lens mount 106 and the lens mount 306. The lens 311 includes a focus lens for adjusting the focusing distance of the photographic lens 300, and the focus control unit 342 adjusts the focus of the photographic lens 300 by driving the focus lens along the optical axis. The diaphragm 312 adjusts the amount and angle of subject light incident on the camera 100.

コネクタ322及びインターフェース338は、撮影レンズ300をカメラ100のコネクタ122と電気的に接続する。そして、コネクタ322は、カメラ100と撮影レンズ300との間で制御信号、状態信号、データ信号等を伝え合うと共に、各種電圧の電流を供給される機能も備えている。コネクタ322は電気通信のみならず、光通信、音声通信等を伝達する構成としてもよい。   The connector 322 and the interface 338 electrically connect the photographing lens 300 to the connector 122 of the camera 100. The connector 322 has a function of transmitting a control signal, a status signal, a data signal, and the like between the camera 100 and the photographing lens 300 and supplying currents of various voltages. The connector 322 may be configured to transmit not only electrical communication but also optical communication, voice communication, and the like.

ズーム制御部340はレンズ311の変倍レンズを駆動し、撮影レンズ300の焦点距離(画角)を調整する。撮影レンズ300が単焦点レンズであればズーム制御部340は存在しない。絞り制御部344は、測光部46からの測光情報に基づいて、シャッター12を制御するシャッター制御部36と連携しながら、絞り312を制御する。   The zoom control unit 340 drives the variable power lens of the lens 311 and adjusts the focal length (view angle) of the photographing lens 300. If the taking lens 300 is a single focus lens, the zoom control unit 340 does not exist. The aperture control unit 344 controls the aperture 312 in cooperation with the shutter control unit 36 that controls the shutter 12 based on the photometry information from the photometry unit 46.

レンズシステム制御部346は例えばCPUやMPUなどのプログラマブルプロセッサを有し、予め記憶されたプログラムを実行することにより撮影レンズ300全体の動作を制御する。そして、レンズシステム制御部346は、撮影レンズの動作用の定数、変数、プログラム等を記憶するメモリの機能を備えている。不揮発性メモリ348は、撮影レンズ固有の番号等の識別情報、管理情報、開放絞り値や最小絞り値、焦点距離等の機能情報、現在や過去の各設定値などを記憶する。   The lens system control unit 346 has a programmable processor such as a CPU or an MPU, for example, and controls the entire operation of the photographing lens 300 by executing a program stored in advance. The lens system control unit 346 has a memory function for storing constants, variables, programs, and the like for operating the photographing lens. The nonvolatile memory 348 stores identification information such as a number unique to the photographing lens, management information, function information such as an open aperture value, a minimum aperture value, and a focal length, and current and past setting values.

本実施形態においては、撮影レンズ300の状態に応じたレンズ枠情報も記憶されている。このレンズ枠情報は、撮影レンズを通過する光束を決定する枠開口の半径の情報と、撮像素子14から枠開口までの距離の情報である。絞り312は、撮影レンズを通過する光束を決定する枠に含まれ、他にもレンズを保持するレンズ枠部品の開口などが枠に該当する。また、撮影レンズを通過する光束を決定する枠は、レンズ311のフォーカス位置やズーム位置によって異なるため、レンズ枠情報はレンズ311のフォーカス位置やズーム位置に対応して複数用意されている。そして、カメラ100が、焦点検出手段を用いて焦点検出を行う際には、レンズ311のフォーカス位置とズーム位置に対応した最適なレンズ枠情報が選択され、カメラ100にコネクタ322を通じて送られる。   In the present embodiment, lens frame information corresponding to the state of the photographing lens 300 is also stored. This lens frame information is information on the radius of the frame opening that determines the light beam passing through the photographing lens and information on the distance from the image sensor 14 to the frame opening. The diaphragm 312 is included in a frame that determines a light beam that passes through the photographing lens, and an opening of a lens frame component that holds the lens corresponds to the frame. In addition, since the frame for determining the light flux that passes through the photographing lens differs depending on the focus position and zoom position of the lens 311, a plurality of pieces of lens frame information are prepared corresponding to the focus position and zoom position of the lens 311. When the camera 100 performs focus detection using the focus detection means, optimal lens frame information corresponding to the focus position and zoom position of the lens 311 is selected and sent to the camera 100 through the connector 322.

以上が、カメラ100と撮影レンズ300からなる本実施形態のカメラシステムの構成である。   The above is the configuration of the camera system according to this embodiment including the camera 100 and the photographing lens 300.

次に、撮像素子14を用いた位相差検出方式の焦点検出動作について説明する。   Next, the focus detection operation of the phase difference detection method using the image sensor 14 will be described.

図2(A)は本実施形態における撮像素子14の画素配列の例を模式的に示した図で、CMOSイメージセンサに2次元配置された画素群のうち、縦(Y軸方向)6行と横(X軸方向)8列の範囲を、撮影レンズ300側から観察した状態を示している。撮像素子14はベイヤー配列のカラーフィルタを有し、偶数行の画素には左から順に緑(Green)と赤(Red)のカラーフィルタが、奇数行の画素には左から順に青(Blue)と緑(Green)のカラーフィルタが、それぞれ交互に設けられる。ただし、本実施形態の撮像素子14では、焦点検出用の光電変換部を有する画素については、本来の青のカラーフィルタに代えて緑のカラーフィルタを設けている。なお、以下の説明において、青(または緑、赤)のカラーフィルタが設けられた画素を青画素(または緑画素、赤画素)と呼ぶ場合がある。   FIG. 2A is a diagram schematically showing an example of the pixel arrangement of the image sensor 14 in the present embodiment. Among the pixel groups arranged two-dimensionally in the CMOS image sensor, the vertical (Y-axis direction) is 6 rows. A state in which a range of 8 rows (in the X-axis direction) is observed from the photographing lens 300 side is shown. The image sensor 14 has a Bayer array color filter. The even-numbered pixels have green and red color filters in order from the left, and the odd-numbered pixels have blue in order from the left. Green color filters are alternately provided. However, in the image sensor 14 of the present embodiment, a green color filter is provided instead of the original blue color filter for the pixel having the photoelectric conversion unit for focus detection. In the following description, a pixel provided with a blue (or green, red) color filter may be referred to as a blue pixel (or green pixel, red pixel).

また、各画素にはオンチップマイクロレンズ211iが設けられ、オンチップマイクロレンズ211i内の矩形はそれぞれ光電変換部の受光領域を模式的に示している。焦点検出用の光電変換部311a,311bは、画素の中心から横方向に偏倚して配置されている。なお、以下の説明において、焦点検出用の光電変換部311a,311bが設けられた画素を、焦点検出用画素と呼ぶことがある。また、焦点検出用の光電変換部311a,311bは、本来の青(Blue)画素に代えて設けられた緑画素に配置されている。これは、青(Blue)画素の出力が、最も画質に対して影響度が低いためである。なお、本発明は撮像素子が有するカラーフィルタのパターンには依存しない。このように、本実施形態の撮像素子14は、焦点検出用画素を含め、各画素に1つの光電変換部が設けられているため、1つの画素からは1つの光電変換信号が読み出される。   Each pixel is provided with an on-chip microlens 211i, and the rectangle in the on-chip microlens 211i schematically shows the light receiving area of the photoelectric conversion unit. The focus detection photoelectric conversion units 311a and 311b are arranged laterally offset from the center of the pixel. In the following description, a pixel provided with focus detection photoelectric conversion units 311a and 311b may be referred to as a focus detection pixel. The focus detection photoelectric conversion units 311a and 311b are arranged in green pixels provided in place of the original blue pixels. This is because the output of the blue pixel has the lowest influence on the image quality. Note that the present invention does not depend on the color filter pattern of the image sensor. As described above, since the image sensor 14 of this embodiment includes one photoelectric conversion unit for each pixel including the focus detection pixel, one photoelectric conversion signal is read from one pixel.

ここで、位相差検出方式の焦点検出に用いる像信号の生成について説明する。本実施形態では4種類の像信号を生成する。後述するように、本実施形態においては、マイクロレンズ211iと、偏倚位置が異なる光電変換部311a及び311bとを用いて撮影光学系(撮影レンズ300)の射出瞳を分割する。そして、同一画素行(X軸方向)に配置された画素211の出力のうち、複数の光電変換部311aの出力をつなぎ合わせて編成したものをA像、複数の光電変換部311bの出力をつなぎ合わせて編成したものをB像とする。図2(A)に示したように、A像およびB像は、X軸方向に2画素ピッチで隣接する複数の青画素位置(の緑画素)から得ることができる。   Here, generation of an image signal used for focus detection by the phase difference detection method will be described. In this embodiment, four types of image signals are generated. As will be described later, in the present embodiment, the exit pupil of the imaging optical system (imaging lens 300) is divided using the microlens 211i and the photoelectric conversion units 311a and 311b having different bias positions. Then, among the outputs of the pixels 211 arranged in the same pixel row (X-axis direction), an output obtained by connecting the outputs of the plurality of photoelectric conversion units 311a and connecting the outputs of the A image and the plurality of photoelectric conversion units 311b is connected. A B image is obtained by knitting together. As shown in FIG. 2A, the A image and the B image can be obtained from a plurality of blue pixel positions (green pixels) adjacent to each other at a two-pixel pitch in the X-axis direction.

また、図2(A)の1行目の複数の緑画素である光電変換部311cは光電変換部311aと図2(A)中のX軸方向にそれぞれ隣接しているが、この光電変換部311cの出力をつなぎあわせて編成したものをGA像とする。また、図2(A)の5行目の複数の緑画素である光電変換部311cは光電変換部311bと図2(A)中のX軸方向にそれぞれ隣接しているが、この光電変換部311cの出力をつなぎあわせて編成したものをGB像とする。光電変換部311a,311bが、撮影光学系(撮影レンズ300)の射出瞳の一部の領域を通過した光束に基づく信号を出力するのに対し、光電変換部311cは、撮影光学系(撮影レンズ300)の射出瞳の全領域を通過した光束に基づく信号を出力する。このように、A像(光電変換部311aの出力),B像(光電変換部311bの出力),GA像(光電変換部311cの出力),GB像(光電変換部311cの出力)を同色画素群から得ることにより、精度の良い位相差検出が可能である。   Further, the photoelectric conversion units 311c that are the plurality of green pixels in the first row in FIG. 2A are adjacent to the photoelectric conversion unit 311a in the X-axis direction in FIG. A GA image is formed by connecting the outputs of 311c. In addition, the photoelectric conversion units 311c that are the plurality of green pixels in the fifth row in FIG. 2A are adjacent to the photoelectric conversion unit 311b in the X-axis direction in FIG. A GB image is formed by connecting the outputs of 311c and knitting them. The photoelectric conversion units 311a and 311b output a signal based on the light beam that has passed through a partial region of the exit pupil of the imaging optical system (imaging lens 300), whereas the photoelectric conversion unit 311c has an imaging optical system (imaging lens). 300), a signal based on the light flux that has passed through the entire area of the exit pupil is output. Thus, the A color image (output of the photoelectric conversion unit 311a), the B image (output of the photoelectric conversion unit 311b), the GA image (output of the photoelectric conversion unit 311c), and the GB image (output of the photoelectric conversion unit 311c) are the same color pixels. By obtaining from the group, it is possible to detect the phase difference with high accuracy.

なお、A像,B像,GA像,GB像を生成するために用いる画素の位置及び数は、焦点検出領域に応じて定まるものとする。   Note that the positions and the number of pixels used for generating the A image, the B image, the GA image, and the GB image are determined according to the focus detection area.

詳細は後述するが、このように生成されたA像とGA像は同じ行の画素から得られた像であるため、A像とGA像の相対的な像ずれ量から、本来求めたいA像とB像の像ずれ量の1/2が正確に求められる。同様に、B像とGB像は同じ行の画素から得られた像であるため、B像とGB像の相対的な像ずれ量から、本来求めたいA像とB像の像ずれ量の残りの1/2が正確に求められる。そしてこれらを加え合わせて相関演算をすることにより、A像とB像の所定領域での焦点ずれ量、すなわちデフォーカス量を検出することができる。本実施形態では、位置が画素の中央から偏倚していない光電変換領域311cを有する画素(以下の説明では撮影用画素と呼ぶことがある)からは通常の画素信号が得られる。撮影画像を生成する際には、焦点検出用画素に対応する位置の通常の画素信号を、周囲の画素の出力を用いて生成(補完)する。なお、通常の画素信号を生成する際には、対象となる焦点検出用画素の出力を用いてもよいし、用いなくてもよい。   Although details will be described later, since the A image and the GA image generated in this way are images obtained from pixels in the same row, the A image to be originally obtained from the relative image shift amount between the A image and the GA image. And 1/2 of the image shift amount of the B image can be accurately obtained. Similarly, since the B image and the GB image are images obtained from pixels in the same row, the remaining image displacement amount of the A image and the B image that is originally obtained from the relative image displacement amount between the B image and the GB image. Of 1/2 is accurately obtained. Then, by adding these together and performing a correlation calculation, it is possible to detect a defocus amount, that is, a defocus amount in a predetermined area of the A image and the B image. In the present embodiment, a normal pixel signal is obtained from a pixel having a photoelectric conversion region 311c whose position is not deviated from the center of the pixel (which may be referred to as a photographic pixel in the following description). When a captured image is generated, a normal pixel signal at a position corresponding to a focus detection pixel is generated (complemented) using the output of surrounding pixels. Note that, when generating a normal pixel signal, the output of the target focus detection pixel may or may not be used.

以下、A像(第1の像信号)の生成に用いられる光電変換部311aが設けられた複数の画素を第1の画素群と呼び、B像(第2の像信号)の生成に用いられる光電変換部311bが設けられた複数の画素を第2の画素群と呼ぶ。また、GA像(第3の像信号)の生成に用いられる、光電変換部311cが設けられた複数の画素を第3の画素群と呼び、GB像(第4の像信号)の生成に用いられる、光電変換部311cが設けられた複数の画素を第4の画素群と呼ぶ。   Hereinafter, the plurality of pixels provided with the photoelectric conversion unit 311a used for generating the A image (first image signal) are referred to as a first pixel group, and are used for generating the B image (second image signal). A plurality of pixels provided with the photoelectric conversion unit 311b is referred to as a second pixel group. A plurality of pixels provided with the photoelectric conversion unit 311c, which are used for generating a GA image (third image signal), are referred to as a third pixel group, and are used for generating a GB image (fourth image signal). A plurality of pixels provided with the photoelectric conversion unit 311c is referred to as a fourth pixel group.

なお、本実施形態では第3の画素群および第4の画素群を第1の画素群および第2の画素群にX軸方向で隣接する画素群としている。しかし、第3の画素群および第4の画素群を第1の画素群および第2の画素群にY軸方向で隣接する画素群としてもよい。あるいは、他の画素から得られる画素値を用いてGA像およびGB像を生成してもよい。例えば、GA像を、第1の画素群の各画素について、隣接する複数(例えば4つ)の画素の平均値として算出された画素値から生成してもよい。   In the present embodiment, the third pixel group and the fourth pixel group are pixel groups adjacent to the first pixel group and the second pixel group in the X-axis direction. However, the third pixel group and the fourth pixel group may be pixel groups adjacent to the first pixel group and the second pixel group in the Y-axis direction. Alternatively, a GA image and a GB image may be generated using pixel values obtained from other pixels. For example, the GA image may be generated from the pixel value calculated as the average value of a plurality of adjacent (for example, four) pixels for each pixel of the first pixel group.

図2(B)は本実施形態の撮像素子14の読み出し回路の構成例を示す図である。撮像素子14は水平走査回路151と垂直走査回路153を有しており、各画素の境界には、水平走査ライン252と、垂直走査ライン254が配線されている。各光電変換部311a,311b,311cで生成された信号は、水平走査ライン252および垂直走査ライン254を介して外部に読み出される。   FIG. 2B is a diagram illustrating a configuration example of a readout circuit of the image sensor 14 of the present embodiment. The image sensor 14 has a horizontal scanning circuit 151 and a vertical scanning circuit 153, and a horizontal scanning line 252 and a vertical scanning line 254 are wired at the boundary of each pixel. Signals generated by the photoelectric conversion units 311a, 311b, and 311c are read out through the horizontal scanning line 252 and the vertical scanning line 254.

図3は、撮影レンズ300の射出瞳面と、撮像素子14の像面中央近傍に配置された画素211の光電変換部311a,311bとの共役関係を説明する図である。撮像素子14内の光電変換部311a,311bと撮影レンズ300の射出瞳面は、オンチップマイクロレンズ211iによって共役関係となるように設計される。そして撮影レンズ300の射出瞳面は、光量調節用の虹彩絞りが設けられる面とほぼ一致するのが一般的である。   FIG. 3 is a diagram for explaining a conjugate relationship between the exit pupil plane of the imaging lens 300 and the photoelectric conversion units 311a and 311b of the pixel 211 disposed in the vicinity of the center of the image plane of the imaging device 14. The exit pupil planes of the photoelectric conversion units 311a and 311b and the photographing lens 300 in the image sensor 14 are designed to have a conjugate relationship by the on-chip microlens 211i. In general, the exit pupil plane of the photographing lens 300 substantially coincides with the plane on which the iris diaphragm for adjusting the light amount is provided.

一方、本実施形態の撮影レンズ300は変倍機能を有したズームレンズである。ズームレンズには、変倍操作を行なうと、射出瞳の大きさや、像面から射出瞳までの距離(射出瞳距離)が変化するものがある。図3では、撮影レンズ300の焦点距離が広角端と望遠端の中央にある状態を示している。この状態における射出瞳距離Zepを標準値として、オンチップマイクロレンズの形状や、像高に応じた偏心パラメータの最適設計がなされる。   On the other hand, the photographing lens 300 of the present embodiment is a zoom lens having a zooming function. Some zoom lenses change the size of the exit pupil and the distance from the image plane to the exit pupil (exit pupil distance) when a zooming operation is performed. FIG. 3 shows a state where the focal length of the photographic lens 300 is at the center between the wide-angle end and the telephoto end. Using the exit pupil distance Zep in this state as a standard value, the optimum design of the eccentric parameter according to the shape of the on-chip microlens and the image height is performed.

図3において、撮影レンズ300は、第1レンズ群101、第1レンズ群を保持する鏡筒部材101b、第3レンズ群105、および第3レンズ群を保持する鏡筒部材105bを有している。また、撮影レンズ300は、絞り102と、絞り開放時の開口径を規定する開口板102a、および絞り込み時の開口径を調節するための絞り羽根102bを有している。なお、図3において、撮影レンズ300を通過する光束の制限部材として作用する101b,102a,102b,105bは、像面から観察した場合の光学的な虚像を示している。また、絞り102の近傍における合成開口を撮影レンズ300の射出瞳と定義し、射出瞳距離Zepを有している。   In FIG. 3, the photographic lens 300 includes a first lens group 101, a lens barrel member 101b that holds the first lens group, a third lens group 105, and a lens barrel member 105b that holds the third lens group. . The photographic lens 300 includes an aperture 102, an aperture plate 102a that defines an aperture diameter when the aperture is open, and an aperture blade 102b for adjusting the aperture diameter when the aperture is closed. In FIG. 3, reference numerals 101b, 102a, 102b, and 105b that act as limiting members for the light flux passing through the photographing lens 300 indicate optical virtual images when observed from the image plane. Further, the synthetic aperture in the vicinity of the stop 102 is defined as the exit pupil of the photographing lens 300, and has an exit pupil distance Zep.

画素211の最下層には、光電変換部311a(図3(A))もしくは光電変換部311b(図3(B))もしくは光電変換部311c(不図示)が配置される。光電変換部311a〜311cの上層には、配線層211e〜211g、カラーフィルタ211h、及びオンチップマイクロレンズ211iが設けられる。光電変換部311a〜311cは、オンチップマイクロレンズ211iによって撮影レンズ300の射出瞳面に投影される。換言すれば、射出瞳が、オンチップマイクロレンズ211iを介して、光電変換部311a〜311cの表面に投影される。   In the lowest layer of the pixel 211, a photoelectric conversion unit 311a (FIG. 3A), a photoelectric conversion unit 311b (FIG. 3B), or a photoelectric conversion unit 311c (not shown) is arranged. On the upper layers of the photoelectric conversion units 311a to 311c, wiring layers 211e to 211g, a color filter 211h, and an on-chip microlens 211i are provided. The photoelectric conversion units 311a to 311c are projected onto the exit pupil plane of the photographing lens 300 by the on-chip microlens 211i. In other words, the exit pupil is projected onto the surfaces of the photoelectric conversion units 311a to 311c via the on-chip microlens 211i.

図3(C)は、射出瞳面上における、光電変換部311a,311bの投影像EP1a,EP1bを示している。なお、光電変換部311cに対する投影像EP1cは、EP1aとEP1bの和におおむね等しい。なお、本実施形態では、投影像EP1aを、第1の瞳領域と呼び、投影像EP1bを、第2の瞳領域と呼び、投影像EP1cを、第3の瞳領域と呼ぶ。   FIG. 3C shows projection images EP1a and EP1b of the photoelectric conversion units 311a and 311b on the exit pupil plane. The projected image EP1c for the photoelectric conversion unit 311c is substantially equal to the sum of EP1a and EP1b. In the present embodiment, the projection image EP1a is referred to as a first pupil region, the projection image EP1b is referred to as a second pupil region, and the projection image EP1c is referred to as a third pupil region.

図3(A),(B)では、撮影レンズ300を通過する光束の最外部をLで示している。光束の最外部Lは絞りの開口板102aで規制されており、投影像EP1a及びEP1bは撮影レンズ300でケラレがほぼ発生していない。図3(C)では、図3(A)および図3(B)における光束の最外部Lが射出面で形成する円TLを示している。光電変換部311a,311bの投影像EP1a,EP1bの大部分が円TLの内部に存在することからも、ケラレがほぼ発生していないことがわかる。光束の最外部Lは、絞りの開口板102aで規定されるため、TL=102aと言い換えることができる。この際、像面中央では各投影像EP1aないしEP1bのケラレ状態は光軸に対して対称となり、各光電変換部311a及び311bの受光量は等しい。このように、本実施形態の撮像素子14は撮影機能だけではなく、位相差検出方式の焦点検出に用いる信号を生成する装置としての機能も有している。   3A and 3B, the outermost part of the light beam passing through the photographing lens 300 is indicated by L. The outermost L of the light beam is regulated by the aperture plate 102a of the diaphragm, and the vignetting of the projection images EP1a and EP1b hardly occurs in the photographing lens 300. FIG. 3C shows a circle TL formed on the exit surface by the outermost L of the light beam in FIGS. 3A and 3B. Since most of the projection images EP1a and EP1b of the photoelectric conversion units 311a and 311b are present inside the circle TL, it can be seen that almost no vignetting occurs. Since the outermost L of the light beam is defined by the aperture plate 102a of the stop, it can be paraphrased as TL = 102a. At this time, the vignetting state of the projection images EP1a to EP1b is symmetric with respect to the optical axis at the center of the image plane, and the received light amounts of the photoelectric conversion units 311a and 311b are equal. As described above, the imaging device 14 according to the present embodiment has not only an imaging function but also a function as a device that generates a signal used for focus detection by the phase difference detection method.

図4(a)は、撮影範囲400に設定された焦点検出領域401の例を示す図である。撮像素子14が有する画素の出力を用いた焦点検出を行う場合、コントラスト検出方式、位相差検出方式のいずれにおいても、焦点検出領域401に対応する撮像素子14の領域内に含まれる画素の出力を用いる。従って、焦点検出領域401は撮像素子14に設定されているとも言え、以下では説明及び理解を容易にするため、焦点検出領域401を撮像素子14の画素領域として説明する。   FIG. 4A is a diagram illustrating an example of the focus detection area 401 set in the shooting range 400. When focus detection is performed using the output of the pixels of the image sensor 14, the output of the pixels included in the area of the image sensor 14 corresponding to the focus detection area 401 is output in both the contrast detection method and the phase difference detection method. Use. Therefore, it can be said that the focus detection area 401 is set in the image sensor 14. Hereinafter, the focus detection area 401 will be described as a pixel area of the image sensor 14 for ease of explanation and understanding.

ここでは、焦点検出領域401内の画素に、図2(A)に示したような規則で光電変換部311a〜311cが設けられているものとする。画素の中央から水平(X軸)方向に偏倚した光電変換部311a,311bを有する焦点検出用画素を用いるため、焦点検出領域401内の画像の水平方向のコントラスト差によって像信号の位相差を検出する。   Here, it is assumed that the photoelectric conversion units 311a to 311c are provided in the pixels in the focus detection area 401 according to the rules shown in FIG. Since a focus detection pixel having photoelectric conversion units 311a and 311b deviated in the horizontal (X-axis) direction from the center of the pixel is used, the phase difference of the image signal is detected based on the contrast difference in the horizontal direction of the image in the focus detection area 401. To do.

ここで検出される位相差は、1対の光束の進行角度の差によって発生し、単位デフォーカス量当たりの位相差は、1対の像信号を生成する光束の射出瞳面上の領域内の重心間隔と比例する。上述の通り、光電変換部311cに対する投影像EP1cは、投影像EP1aとEP1bの和に概ね等しい。従って、投影像EP1cの重心位置は、投影像EP1a,EP1bの1対の重心位置の中央に存在する。そのため、光電変換部311a,311bから得られる1対の像信号(A像、B像)の位相差は、光電変換部311a(311b),311cから得られた1対の像信号(A像(B像)、GA像(GB像))の位相差の約2倍となる。   The phase difference detected here is generated by the difference in the traveling angle of the pair of light beams, and the phase difference per unit defocus amount is within the region on the exit pupil plane of the light beam that generates the pair of image signals. It is proportional to the center of gravity interval. As described above, the projection image EP1c for the photoelectric conversion unit 311c is substantially equal to the sum of the projection images EP1a and EP1b. Therefore, the barycentric position of the projection image EP1c exists at the center of the pair of barycentric positions of the projection images EP1a and EP1b. Therefore, the phase difference between the pair of image signals (A image and B image) obtained from the photoelectric conversion units 311a and 311b is the same as the pair of image signals (A image (A image (B)) obtained from the photoelectric conversion units 311a (311b) and 311c. B image) and GA image (GB image)) are approximately twice the phase difference.

投影像EP1cはGA像とGB像に共通するため、GA像を生成する光束とGB像を生成する光束は射出面上での重心位置は等しい。従って、光電変換部311a,311cの出力から得られるA像とGA像の位相差と、光電変換部311b,311cの出力から得られるB像とGB像の位相差の和は、光電変換部311a,311bの出力から得られるA像とB像の位相差と概ね等しくなる。   Since the projection image EP1c is common to the GA image and the GB image, the light beam for generating the GA image and the light beam for generating the GB image have the same barycentric position on the exit surface. Accordingly, the sum of the phase difference between the A image and the GA image obtained from the outputs of the photoelectric conversion units 311a and 311c and the phase difference between the B image and the GB image obtained from the outputs of the photoelectric conversion units 311b and 311c is the photoelectric conversion unit 311a. , 311b is approximately equal to the phase difference between the A and B images obtained from the output.

図4(b)は、焦点検出領域401内に含まれる画素のうち、AF用の像信号の生成に用いられる画素を抜き出し、各画素の出力でどの像信号が生成されるかを示した図である。図4(b)においては、同種の像信号を生成する画素群(第1〜第4の画素群)ごとに、i行上のj個目の画素を「像信号の種類」と(i,j)(ただしi,jは1〜Nの整数)で示している。例えば、A像を生成する第1の画素群のうち、1行目で1個目の画素をA(1,1)と表す。なお、図4(b)における光電変換部の色分けは、同種の像信号を生成する画素群を分かりやすくするためのものである。   FIG. 4B is a diagram showing pixels used for generating an AF image signal out of the pixels included in the focus detection area 401 and which image signal is generated by the output of each pixel. It is. In FIG. 4B, for each pixel group (first to fourth pixel groups) that generate the same type of image signal, the j-th pixel on the i-th row is referred to as “image signal type” (i, j) (where i and j are integers from 1 to N). For example, in the first pixel group that generates the A image, the first pixel in the first row is represented as A (1,1). Note that the color coding of the photoelectric conversion units in FIG. 4B is intended to facilitate understanding of pixel groups that generate the same type of image signal.

なお、図4(b)では、焦点検出領域401内の画素のうち、AF用信号の生成に用いられる画素が2行2N列分である場合を示したが、行数、列数はこれに限らない。行数は2行以上であればよく、列数についても一般的に位相差が検出できる範囲で適宜設定すればよい。なお、位相差が検出できない場合や精度が低いと判断される場合に、動的に列数を増やすようにしてもよい。   FIG. 4B shows a case where the pixels used for generating the AF signal among the pixels in the focus detection area 401 are 2 rows and 2 N columns. Not exclusively. The number of rows may be two or more, and the number of columns may be appropriately set within a range in which a phase difference can generally be detected. Note that the number of columns may be dynamically increased when the phase difference cannot be detected or when it is determined that the accuracy is low.

次に、カメラ100における焦点調節動作について、図5に示すフローチャートを用いて説明する。なお、図5に示す処理は、メインミラー130とサブミラー131が光路外へ退避(ミラーアップ)した状態、より具体的にはライブビュー表示時(表示用動画撮影時)もしくは動画記録時(記録用動画撮影時)において実施される処理である。なお、ここでは撮像素子14の出力を用いた位相差検出方式の自動焦点検出を行うものとして説明するが、上述の通り、コントラスト検出方式の自動焦点検出を行うこともできる。   Next, the focus adjustment operation in the camera 100 will be described using the flowchart shown in FIG. Note that the processing shown in FIG. 5 is a state in which the main mirror 130 and the sub mirror 131 are retracted from the optical path (mirror-up), more specifically, during live view display (when displaying a moving image for display) or during moving image recording (for recording). This is a process that is performed at the time of video shooting. Although the description is given here assuming that the phase difference detection type automatic focus detection using the output of the image sensor 14 is performed, as described above, the contrast detection type automatic focus detection can also be performed.

S501でシステム制御部50は、SW1(62)や操作部70などの操作により、焦点検出開始指示が入力されたか判別し、入力されていると判別された場合に処理をS502へ進め、入力されていると判別されなければ待機する。なお、システム制御部50は、焦点検出開始指示の入力に限らず、ライブビュー表示や動画記録の開始をトリガとして処理をS502に進めてもよい。   In step S501, the system control unit 50 determines whether a focus detection start instruction has been input by operating the SW1 (62), the operation unit 70, and the like. If it is determined that the focus detection start instruction has been input, the process proceeds to step S502. If it is not determined that it is, it waits. Note that the system control unit 50 is not limited to the input of the focus detection start instruction, and the process may proceed to S502 with the start of live view display or moving image recording as a trigger.

S502でシステム制御部50は、撮影レンズ300のレンズ枠情報やフォーカスレンズ位置などの各種レンズ情報を、インターフェース部38,338およびコネクタ122,322を介してレンズシステム制御部346から取得する。   In step S <b> 502, the system control unit 50 acquires various lens information such as the lens frame information and the focus lens position of the photographing lens 300 from the lens system control unit 346 via the interface units 38 and 338 and the connectors 122 and 322.

S503でシステム制御部50は、逐次読み出されているフレーム画像データの、焦点検出領域内の画素データから、AF用の像信号(A像、B像、GA像、GB像)を生成するように画像処理部20に指示する。AF用の像信号はAF部42へ送られ、焦点検出用画素と撮影用画素とで光電変換部の大きさが異なることによる信号レベルの差を補正する処理などが行われる。   In step S503, the system control unit 50 generates AF image signals (A image, B image, GA image, and GB image) from the pixel data in the focus detection area of the frame image data that is sequentially read out. To the image processing unit 20. The AF image signal is sent to the AF unit 42, and processing for correcting a difference in signal level caused by the size of the photoelectric conversion unit being different between the focus detection pixel and the imaging pixel is performed.

S504でAF部42は、A像とGA像、B像とGB像の2対の像信号に対して公知の相関演算などを適用して像のずれ量を算出し、デフォーカス量に変換する。この処理の詳細は、後述する。AF部42は、デフォーカス量をシステム制御部50に出力する。   In S <b> 504, the AF unit 42 calculates a shift amount of the image by applying a known correlation calculation or the like to the two pairs of image signals of the A image and the GA image, and the B image and the GB image, and converts it to a defocus amount. . Details of this processing will be described later. The AF unit 42 outputs the defocus amount to the system control unit 50.

S505でシステム制御部50は、S504でAF部42から得られたデフォーカス量に基づき、撮影レンズ300のレンズ駆動量を算出する。   In S505, the system control unit 50 calculates the lens driving amount of the photographing lens 300 based on the defocus amount obtained from the AF unit 42 in S504.

S506でシステム制御部50は、インターフェース部38,338、コネクタ122,322を介して、レンズ駆動量および駆動方向の情報を撮影レンズ300のフォーカス制御部342に送信する。フォーカス制御部342は、受信したレンズ駆動量と駆動方向の情報に基づいて、フォーカスレンズを駆動する。これにより、撮影レンズ300の焦点調節が行われる。なお、図5の動作は次フレーム以降の動画データが読み出された際にも継続的に実施されてよい。   In step S <b> 506, the system control unit 50 transmits information on the lens driving amount and the driving direction to the focus control unit 342 of the photographing lens 300 via the interface units 38 and 338 and the connectors 122 and 322. The focus control unit 342 drives the focus lens based on the received lens driving amount and driving direction information. Thereby, the focus of the photographic lens 300 is adjusted. Note that the operation of FIG. 5 may be continuously performed even when moving image data after the next frame is read.

次に、図5のS504でAF部42が行うデフォーカス量の算出処理について、図6に示すフローチャートを用いてさらに説明する。S5041で第1の算出手段としてのAF部42は、同じ画素行(m行目とする)から生成したA像とGA像の相関演算を行う。相関演算に用いる相関量COR1(k)は、例えば下記の式(1)で算出することができる。   Next, the defocus amount calculation processing performed by the AF unit 42 in S504 of FIG. 5 will be further described with reference to the flowchart shown in FIG. In S5041, the AF unit 42 as the first calculating unit performs a correlation operation between the A image and the GA image generated from the same pixel row (m-th row). The correlation amount COR1 (k) used for the correlation calculation can be calculated by the following equation (1), for example.

Figure 2016099432
Figure 2016099432

式(1)で用いる変数kは、相関演算時のシフト量で、−kmax以上kmax以下の整数である。AF部42は各シフト量kについての相関量COR1(k)を求めた後、A像とGA像の相関が最も高くなるシフト量k、すなわち、相関量COR1が最小となるシフト量kの値を求める。なお、相関量COR1(k)の算出時におけるシフト量kは整数とするが、相関量COR1(k)が最小となるシフト量kを求める場合には、デフォーカス量の精度を向上させるため、適宜補間処理を行いサブピクセル単位の値(実数値)を求める。   The variable k used in the equation (1) is a shift amount at the time of correlation calculation, and is an integer from −kmax to kmax. After the AF unit 42 obtains the correlation amount COR1 (k) for each shift amount k, the shift amount k that maximizes the correlation between the A image and the GA image, that is, the value of the shift amount k that minimizes the correlation amount COR1. Ask for. Note that the shift amount k at the time of calculating the correlation amount COR1 (k) is an integer, but when obtaining the shift amount k that minimizes the correlation amount COR1 (k), in order to improve the accuracy of the defocus amount, Interpolation processing is performed as appropriate to obtain a value (real value) in units of subpixels.

本実施形態では、相関量COR1の差分値の符号が変化するシフト量dkを、相関量COR1(k)が最小となるシフト量kとして算出する。   In the present embodiment, the shift amount dk at which the sign of the difference value of the correlation amount COR1 changes is calculated as the shift amount k that minimizes the correlation amount COR1 (k).

まず、AF部42は、相関量の差分値DCOR1を以下の式(2)に従って算出する。   First, the AF unit 42 calculates the difference value DCOR1 of the correlation amount according to the following equation (2).

DCOR1(k)=COR1(k)-COR1(k-1) ...(2)
そして、AF部42は、相関量の差分値DCOR1を用いて、差分量の符号が変化するシフト量dk1を求める。差分量の符号が変化する直前のkの値をk1、符号が変化したkの値をk2(k2=k1+1)とすると、AF部42はシフト量dk1を、以下の式(3)に従って算出する。
DCOR1 (k) = COR1 (k) -COR1 (k-1) ... (2)
Then, the AF unit 42 obtains the shift amount dk1 in which the sign of the difference amount changes using the correlation amount difference value DCOR1. If the value of k immediately before the sign of the difference amount changes is k1, and the value of k where the sign changes is k2 (k2 = k1 + 1), the AF unit 42 calculates the shift amount dk1 according to the following equation (3). .

dk1=k1+ |DCOR1(k1)|/|DCOR1(k1)-DCOR1(k2)| ...(3)
以上のようにして第1の算出手段としてのAF部42は、A像とGA像の相関量が最大となるシフト量dk1をサブピクセル単位で算出し、S5041の処理を終える。なお、2つの1次元像信号の位相差を算出する方法は、ここで説明したものに限らず、公知の任意の方法を用いることができる。
dk1 = k1 + | DCOR1 (k1) | / | DCOR1 (k1) -DCOR1 (k2) | ... (3)
As described above, the AF unit 42 serving as the first calculating unit calculates the shift amount dk1 that maximizes the correlation amount between the A image and the GA image in units of subpixels, and ends the process of S5041. The method for calculating the phase difference between the two one-dimensional image signals is not limited to that described here, and any known method can be used.

S5042で第2の算出手段としてのAF部42は、同じ画素行(m+1行目)から生成したB像とGB像について、S5041と同様の方法で、相関が最大となるシフト量dk2を算出する。   In S5042, the AF unit 42 as the second calculation unit calculates the shift amount dk2 that maximizes the correlation for the B image and the GB image generated from the same pixel row (m + 1) by the same method as in S5041. .

ステップS5043では、2つの相関演算結果であるシフト量dk1、dk2の信頼性の算出を行う。相関演算結果の信頼性とは、2像の信号の一致度であり、2像の一致度が良好である場合、一般的に相関演算結果の信頼性が高い。そこで、2像の一致度に対して閾値を設け、2つの相関演算結果を得るために用いた像信号の2像の一致度の判定を行う。   In step S5043, the reliability of the shift amounts dk1 and dk2 which are two correlation calculation results is calculated. The reliability of the correlation calculation result is the degree of coincidence of the signals of the two images. When the degree of coincidence of the two images is good, the reliability of the correlation calculation result is generally high. Therefore, a threshold is set for the degree of coincidence between the two images, and the degree of coincidence between the two images of the image signal used to obtain the two correlation calculation results is determined.

ただし、相関演算結果の信頼性を判定するための指標は、2像の一致度に限定されるものではない。例えば、特開2007−52072号公報に記載されているSレベルなどを指標として用いてもよい。Sレベルは、算出の際に、2像の一致度だけでなく、相関変化量やシャープネスなどを用いている。また、1次コントラスト(隣接出力信号の差の絶対値和)や2次コントラスト(隣接出力信号の二乗和)などを用いてもよい。また、信頼性を判定するための指標としてシフト量と同義であるデフォーカス量を用いたり、デフォーカス量によって上述の2像の一致度などの評価値の閾値を変更したりしてもよい。これは、デフォーカス量が大きくなるにつれて、シフト量の信頼性が低下することによる。また、信頼性を判定するための指標として、被写体の移動や手振れと相関のある値を指標としてもよい。被写体の移動や手振れは、シフト量の信頼性を下げるため、利用することができる。   However, the index for determining the reliability of the correlation calculation result is not limited to the degree of coincidence of the two images. For example, the S level described in JP 2007-52072 A may be used as an index. In calculating the S level, not only the degree of coincidence of the two images but also the amount of correlation change and sharpness are used. Alternatively, primary contrast (sum of absolute values of differences between adjacent output signals) or secondary contrast (sum of squares of adjacent output signals) may be used. Also, a defocus amount that is synonymous with the shift amount may be used as an index for determining reliability, or a threshold value of an evaluation value such as the degree of coincidence of the two images may be changed according to the defocus amount. This is because the reliability of the shift amount decreases as the defocus amount increases. Further, as an index for determining reliability, a value correlated with the movement of the subject or camera shake may be used as the index. Subject movement and camera shake can be used to reduce the reliability of the shift amount.

また、信頼性の判定の方法として、2像の出力信号の飽和状態を用いてもよい。飽和を判定する出力レベルを設定し、飽和と判定される画素信号の数が、所定の閾値より多い画素群を用いて演算された焦点検出結果は信頼性が低いと判定する。   Further, the saturation state of the output signals of the two images may be used as a reliability determination method. An output level for determining saturation is set, and it is determined that the focus detection result calculated using a pixel group in which the number of pixel signals determined to be saturated is greater than a predetermined threshold is low in reliability.

また、2つの相関演算結果であるシフト量dk1、dk2の信頼性を判定するに当たり、各々に異なる判定閾値を用いてもよい。焦点検出領域が、撮影範囲内の中心から離れた場所に配置される場合、第1の画素群と第2の画素群の受光する光量は、撮影光学系のケラレにより差が発生する。一般に受光量が少ない画素群から得られた信号はS/Nが低下し、得られた信号出力を用いて行った相関演算結果の信頼性が低くなる。そのため、光量差の発生する条件となる焦点検出領域の位置、撮影光学系のF値、射出瞳の光軸方向位置、光電変換部の投影像の光軸方向の位置などによって、2つの焦点検出結果に対して、異なる閾値を設定すればよい。   In determining the reliability of the shift amounts dk1 and dk2, which are two correlation calculation results, different determination thresholds may be used for each. When the focus detection area is arranged at a location away from the center in the imaging range, a difference occurs in the amount of light received by the first pixel group and the second pixel group due to vignetting of the imaging optical system. In general, a signal obtained from a pixel group having a small amount of received light has a reduced S / N, and the reliability of a correlation calculation result performed using the obtained signal output becomes low. Therefore, two focus detections are made based on the position of the focus detection region, which is a condition for causing a light amount difference, the F value of the photographing optical system, the position of the exit pupil in the optical axis direction, the position of the photoelectric conversion unit in the optical axis direction What is necessary is just to set a different threshold value with respect to a result.

次に、ステップS5044では、2つの相関演算結果dk1、dk2の信頼性が共に高いか否かを判定する。共に信頼性が高いと判定された場合、ステップS5045に進み、2つの相関演算結果の差(dk1−dk2)の絶対値が大きいか否かを判定する。ここで行う判定は、2対の信号出力(A像とGA像、B像とGB像)は、撮影範囲内で異なる位置であるため、異なる距離に存在する被写体に対して焦点検出を行う可能性がある。このような状況では、A像とGA像から得られる相関演算結果dk1とB像とGB像から得られる相関演算結果dk2は、互いに信頼性は高いが、相関演算結果の差の絶対値が大きくなる場合がある。ステップS5045では、このような場合に備えて、2つの相関演算結果の差の絶対値が大きいか否かを判定する。   Next, in step S5044, it is determined whether or not the reliability of the two correlation calculation results dk1 and dk2 is high. If it is determined that both are highly reliable, the process advances to step S5045 to determine whether or not the absolute value of the difference (dk1-dk2) between the two correlation calculation results is large. The determination performed here is that two pairs of signal outputs (A image and GA image, B image and GB image) are at different positions within the shooting range, so that focus detection can be performed on subjects present at different distances. There is sex. In such a situation, the correlation calculation result dk1 obtained from the A image and the GA image and the correlation calculation result dk2 obtained from the B image and the GB image are highly reliable, but the absolute value of the difference between the correlation calculation results is large. There is a case. In step S5045, in preparation for such a case, it is determined whether the absolute value of the difference between the two correlation calculation results is large.

2つの相関演算結果の差が小さい場合は、ステップS5047に進み、ここまでで算出された2種のシフト量dk1、dk2の和dk_sumを算出し、予め不揮発性メモリ56に記憶された敏感度を乗じることで、シフト量をデフォーカス量に換算する。デフォーカス量DEFの算出を終えると、デフォーカス量算出サブルーチンを終了する。   If the difference between the two correlation calculation results is small, the process proceeds to step S5047, where the sum dk_sum of the two types of shift amounts dk1 and dk2 calculated so far is calculated, and the sensitivity stored in advance in the nonvolatile memory 56 is calculated. By multiplying, the shift amount is converted into the defocus amount. When the calculation of the defocus amount DEF ends, the defocus amount calculation subroutine ends.

一方で、ステップS5044で、2つの相関演算結果のうち少なくとも一方が信頼性が低いと判定された場合(S5044でNo)は、ステップS5046に進む。ステップS5046では、2つの相関演算結果のうち、片方の相関演算結果の信頼性が高いか否かを判定する。信頼性判定の方法や閾値の設定は、ステップS5044と同様に行えばよい。ステップS5046で、片方の相関演算結果の信頼性が高いと判定された場合(S5046でYes)とステップS5045で、2つの相関演算結果の差の絶対値が大きいと判定された場合(S5045でYes)には、ステップS5048に進む。   On the other hand, if it is determined in step S5044 that at least one of the two correlation calculation results has low reliability (No in S5044), the process proceeds to step S5046. In step S5046, it is determined whether one of the two correlation calculation results is highly reliable. The reliability determination method and the threshold value may be set in the same manner as in step S5044. When it is determined in step S5046 that the reliability of one correlation calculation result is high (Yes in S5046) and in step S5045, it is determined that the absolute value of the difference between the two correlation calculation results is large (Yes in S5045). ), The process proceeds to step S5048.

ステップS5048では、2つの相関演算結果のうち、信頼性が高いと判定された一方の相関演算結果を用いて、デフォーカス量の算出を行う。相関演算結果として得られるシフト量dk1は、第1の瞳領域を通過した光束の撮像素子上における重心位置と、第3の瞳領域を通過した光束の撮像素子上における重心位置の差と、概ね比例する。同様に、シフト量dk2は、第2の瞳領域を通過した光束の撮像素子上における重心位置と第3の瞳領域を通過した光束の撮像素子上における重心位置の差と、概ね比例する。このことと図3で説明した内容から、シフト量dk1とdk2は、略同程度の大きさとなる。そのため、一方の相関演算結果を用いてデフォーカス量を算出する場合には、シフト量dk1もしくはシフト量dk2のいずれかを2倍した後、予め不揮発性メモリ56に記憶された敏感度を乗じることでシフト量をデフォーカス量に換算する。   In step S5048, the defocus amount is calculated using one of the two correlation calculation results determined to have high reliability. The shift amount dk1 obtained as the correlation calculation result is approximately the difference between the centroid position of the light beam that has passed through the first pupil region on the image sensor and the centroid position of the light beam that has passed through the third pupil region on the image sensor. Proportional. Similarly, the shift amount dk2 is approximately proportional to the difference between the barycentric position of the light beam that has passed through the second pupil region on the image sensor and the barycentric position of the light beam that has passed through the third pupil region on the image sensor. From this and the contents described with reference to FIG. 3, the shift amounts dk1 and dk2 are approximately the same. Therefore, when the defocus amount is calculated using one correlation calculation result, the shift amount dk1 or the shift amount dk2 is doubled and then multiplied by the sensitivity stored in advance in the nonvolatile memory 56. To convert the shift amount to the defocus amount.

一方のシフト量に対して乗じる係数は2倍に限らない。例えば、撮影レンズ300の射出瞳の光軸方向の位置と撮像素子の光電変換部の投影像の光軸方向の位置が大きく異なる場合には、上述したような2つのシフト量が同程度の大きさとならない。そのような場合には、予め不揮発性メモリ56に記憶する敏感度として、シフト量dk1に用いるものとシフト量dk2に用いるものを2種類用意すればよい。また、1種類の敏感度のみ記憶されている場合でも、2つのシフト量の比に基づいた値を1つのシフト量に乗じることにより、2つのシフト量の和に相当する値を算出すればよい。   The coefficient by which one shift amount is multiplied is not limited to twice. For example, when the position in the optical axis direction of the exit pupil of the photographing lens 300 and the position in the optical axis direction of the projection image of the photoelectric conversion unit of the image sensor are greatly different, the two shift amounts as described above are approximately the same. It ’s not good. In such a case, two types of sensitivity to be stored in advance in the nonvolatile memory 56 may be prepared, one used for the shift amount dk1 and the other used for the shift amount dk2. Even when only one kind of sensitivity is stored, a value corresponding to the sum of two shift amounts may be calculated by multiplying one shift amount by a value based on the ratio of the two shift amounts. .

相関演算結果を1つのみ用いる場合は、相関演算結果を2つ用いる場合に比べて焦点検出結果の信頼性が下がる。一方で、一般に大きなデフォーカス量を検出する際には、焦点検出誤差も大きい。そのため、相関演算結果として算出されたシフト量の大きさによって、乗じる係数を変更してもよい。相関演算結果を1つのみ用いる場合には、焦点検出の信頼性が下がるため、シフト量が大きい場合には、2倍より小さい値を乗じて、算出されるデフォーカス量を小さめにしてもよい。これにより、焦点調節動作中に、合焦位置を通り過ぎることを防ぐことができ、迅速な焦点調節動作を行うことができる。   When only one correlation calculation result is used, the reliability of the focus detection result is lower than when two correlation calculation results are used. On the other hand, generally, when detecting a large defocus amount, a focus detection error is large. Therefore, the coefficient to be multiplied may be changed according to the magnitude of the shift amount calculated as the correlation calculation result. When only one correlation calculation result is used, the reliability of focus detection is lowered. Therefore, when the shift amount is large, the calculated defocus amount may be reduced by multiplying by a value smaller than twice. . Thereby, it is possible to prevent passing through the in-focus position during the focus adjustment operation, and a quick focus adjustment operation can be performed.

また、信号の加算数によって、相関演算結果の信頼性を高めることも考えられる。相関演算結果を1つのみ用いる場合には、2つ用いる場合に比べて、より多くの画素出力を用いて相関演算結果を算出してもよい。図4(b)では、2行2列の画素から得られた信号出力をAF用信号として用いる例を説明したが、より多くの焦点検出用画素が配置されている場合には、AF用信号として用いる行数を増やし、画素群ごとに出力信号の加算などを行ってもよい。また、時間的に異なるタイミングで得たAF用信号を、加算するなどして相関演算結果の信頼性を高めてもよい。   It is also conceivable to increase the reliability of the correlation calculation result by the number of signal additions. When only one correlation calculation result is used, the correlation calculation result may be calculated using more pixel outputs than when two correlation calculation results are used. In FIG. 4B, the example in which the signal output obtained from the pixel in 2 rows and 2 columns is used as the AF signal has been described. However, when more focus detection pixels are arranged, the AF signal is used. It is also possible to increase the number of rows used as and add output signals for each pixel group. Further, the reliability of the correlation calculation result may be improved by adding AF signals obtained at different timings.

次に、ステップS5046で両方の相関演算結果とも信頼性が低いと判定された場合(S5046でNo)には、ステップS5049に進み、焦点検出不能と判断し、デフォーカス量算出サブルーチンを終了する。   Next, when it is determined in step S5046 that both correlation calculation results are low in reliability (No in S5046), the process proceeds to step S5049, where it is determined that focus detection is impossible, and the defocus amount calculation subroutine is terminated.

本実施形態では、撮影光学系の射出瞳上の異なる領域を通る光束を光電変換し得られる信号であるA像とB像を、位相差検出方向と直交する方向に離れて配置している。そのため、A像とB像を生成する画素が、被写体である光学像をサンプリングする位置が異なり、2つの像の類似度は保証されない。上述のような2つの信号の位相差を相関量を算出することにより求める場合に、精度よく位相差の検出を行うためには、2つの信号は一致度が高い必要がある。本実施形態では、被写体である光学像上でA像と概ね同じ位置をサンプリングできるGA像を用いて、A像とGA像の位相差を算出する。さらに、同様にB像と概ね同じ位置をサンプリングできるGB像の位相差を算出する。そして、これら2つの位相差算出結果の和を用いて、A像とB像の位相差を高精度に算出することができる。   In this embodiment, the A image and the B image, which are signals obtained by photoelectric conversion of light beams passing through different regions on the exit pupil of the photographing optical system, are arranged apart from each other in the direction orthogonal to the phase difference detection direction. For this reason, the pixels that generate the A image and the B image differ in the position at which the optical image as the subject is sampled, and the similarity between the two images is not guaranteed. When obtaining the phase difference between the two signals as described above by calculating the correlation amount, the two signals need to have a high degree of coincidence in order to detect the phase difference with high accuracy. In the present embodiment, the phase difference between the A image and the GA image is calculated using a GA image that can sample substantially the same position as the A image on the optical image that is the subject. Further, similarly, the phase difference of the GB image that can sample the same position as the B image is calculated. Then, using the sum of these two phase difference calculation results, the phase difference between the A image and the B image can be calculated with high accuracy.

そして、2つの位相差算出結果の信頼性が高く、結果の差が小さい場合には、2つの位相差算出結果を加えてA像とB像の位相差を算出するため、A像とGA像の位相差に対して、より大きな位相差を検出することとなる。そのため、位相差検出結果に含まれるノイズの影響を低減し、高精度な位相差検出を行うことができる。   Then, when the reliability of the two phase difference calculation results is high and the difference between the results is small, the phase difference between the A image and the B image is calculated by adding the two phase difference calculation results. For this phase difference, a larger phase difference is detected. Therefore, the influence of noise included in the phase difference detection result can be reduced, and highly accurate phase difference detection can be performed.

また、どちらか一方の位相差算出結果のみ信頼性が高い場合には、信頼性の高い結果を用いて焦点検出を行う。これにより、焦点検出不能となる頻度を減らすことができる。また、焦点検出に用いる方の位相差算出結果に対して、適切な処理を施すことにより、焦点検出精度を維持した焦点調節を行うことができる。   If only one of the phase difference calculation results is highly reliable, focus detection is performed using the highly reliable result. As a result, the frequency at which focus detection becomes impossible can be reduced. Further, by performing an appropriate process on the phase difference calculation result used for focus detection, focus adjustment can be performed while maintaining focus detection accuracy.

このように構成することにより、A像の信号を得る画素(第1の画素群)とB像の信号を得る画素(第2の画素群)の配置の自由度を上げる、言い換えると、離れた位置に配置することができる。このことは、撮像用の信号を生成する際に補正しやすいAF用画素配置の実現につながり、高画質化を実現することができる。   By configuring in this way, the degree of freedom of arrangement of the pixels (first pixel group) for obtaining the A image signal and the pixels (second pixel group) for obtaining the B image signal is increased, in other words, separated. Can be placed in position. This leads to the realization of an AF pixel arrangement that is easy to correct when generating a signal for imaging, and high image quality can be realized.

本実施形態では、A像とGA像から得られる相関量(第1の相関量)を用いて位相差dk1(第1の位相差)を算出し、B像とGB像から得られる相関量(第2の相関量)を用いて位相差dk2(第2の位相差)を算出した。これらの位相差dk1とdk2の和を用いて、デフォーカス量を算出したが、デフォーカス量の算出方法は、これに限らない。例えば、A像とGA像から得られる相関量(第1の相関量)とB像とGB像から得られる相関量(第2の相関量)の和を算出し、2つの相関量の和から、上述と同様に、位相差を算出してもよい。この場合、A像とB像から検出される位相差の量は少なくなってしまうが、相関量の差分を大きくすることができるため、シフト量の検出精度が向上する。   In the present embodiment, the phase difference dk1 (first phase difference) is calculated using the correlation amount (first correlation amount) obtained from the A image and the GA image, and the correlation amount obtained from the B image and the GB image ( The phase difference dk2 (second phase difference) was calculated using the second correlation amount. Although the defocus amount is calculated using the sum of these phase differences dk1 and dk2, the method of calculating the defocus amount is not limited to this. For example, the sum of the correlation amount obtained from the A image and the GA image (first correlation amount) and the correlation amount obtained from the B image and the GB image (second correlation amount) is calculated, and the sum of the two correlation amounts is calculated. In the same manner as described above, the phase difference may be calculated. In this case, the amount of phase difference detected from the A image and the B image is reduced, but the difference in correlation amount can be increased, so that the detection accuracy of the shift amount is improved.

また、シフト量からデフォーカス量を算出する際に、位相差dk1とdk2の和に対して、敏感度を乗じたが、予め不揮発性メモリ56に位相差dk1用の敏感度と位相差dk2用の敏感度を記憶しておいてもよい。敏感度情報の記憶容量は増えるが、より精度のよい焦点検出を行うことが可能となる。   Further, when calculating the defocus amount from the shift amount, the sum of the phase differences dk1 and dk2 is multiplied by the sensitivity. However, the sensitivity for the phase difference dk1 and the phase difference dk2 are previously stored in the nonvolatile memory 56. You may remember the sensitivity of. Although the storage capacity of sensitivity information is increased, more accurate focus detection can be performed.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態との主な違いは、撮像素子の画素配列である。第1の実施形態の撮像素子は、撮影用画素と2種類の焦点検出用画素とを配列し、1つの画素が1つの光電変換部を有する構成であった。本発明をこのような撮像素子を用いた撮像装置に適用した場合、焦点検出精度を向上できることは第1の実施形態で説明した。しかし、本発明は全画素に2つの光電変換部を設け、全画素からA像とB像の出力信号を得ることができる撮像素子を用いる撮像装置にも適用可能である。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The main difference from the first embodiment is the pixel arrangement of the image sensor. The imaging device of the first embodiment has a configuration in which shooting pixels and two types of focus detection pixels are arranged, and one pixel has one photoelectric conversion unit. As described in the first embodiment, when the present invention is applied to an image pickup apparatus using such an image pickup device, the focus detection accuracy can be improved. However, the present invention can also be applied to an imaging apparatus using an imaging device in which two photoelectric conversion units are provided in all pixels and output signals of A and B images can be obtained from all the pixels.

なお、第1の実施形態で説明した撮像装置の構成(図1)、焦点検出領域(図4(a))、焦点調節動作やデフォーカス量算出処理(図5、図6)に関しては、本実施形態においても共通するため、説明は省略する。   The configuration of the imaging apparatus described in the first embodiment (FIG. 1), the focus detection region (FIG. 4A), the focus adjustment operation and the defocus amount calculation processing (FIGS. 5 and 6) are as follows. Since it is common also in embodiment, description is abbreviate | omitted.

本実施形態における撮像素子14の構成を、図7〜図8を用いて説明する。なお、図7〜図8において、図2〜図3と同様の構成には同じ参照数字を付して重複する説明を省略する。   The configuration of the image sensor 14 in the present embodiment will be described with reference to FIGS. 7 to 8, the same components as those in FIGS. 2 to 3 are denoted by the same reference numerals, and redundant description is omitted.

図7(a)は図2(a)と同様に、本実施形態における撮像素子14に2次元配置された画素群のうち、縦(Y軸方向)6行と横(X軸方向)8列の範囲を、撮影レンズ300側から観察した状態を示している。ただし、本実施形態の撮像素子14では、カラーフィルタの配列はベイヤー配列通りである。つまり、第1の実施形態とは異なり、青の位置の画素にはすべて青のカラーフィルタが設けられている。本実施形態では、同じ画素からA(B)像とGA(GB)像が得られるため、フィルタの色を変更する必要がない。   7A is similar to FIG. 2A, among the pixel groups arranged two-dimensionally on the image sensor 14 in the present embodiment, 6 rows in the vertical (Y-axis direction) and 8 columns in the horizontal (X-axis direction). This range is observed from the photographic lens 300 side. However, in the image sensor 14 of the present embodiment, the arrangement of the color filters is the same as the Bayer arrangement. That is, unlike the first embodiment, a blue color filter is provided for all the pixels in the blue position. In this embodiment, since an A (B) image and a GA (GB) image are obtained from the same pixel, there is no need to change the color of the filter.

本実施形態では、すべての画素211は、X軸方向に2分割された光電変換部211a,211bを有し、一方の光電変換領域の出力信号と、両方の光電変換領域の出力信号の和とを別個に読み出し可能に構成されている。そして、他方の光電変換領域の出力信号に相当する信号は、両方の光電変換領域の出力信号の和と一方の光電変換領域の出力信号との差分として得ることができる。分割された光電変換領域の出力信号は、後述する方法で位相差検出方式の焦点検出に用いることができるほか、1対の視差画像から構成される3D(3−Dimensional)画像の生成に用いることもできる。一方、両方の光電変換領域の出力信号の和は、通常の撮影用画素の出力信号として用いることができる。   In the present embodiment, all the pixels 211 have photoelectric conversion units 211a and 211b that are divided into two in the X-axis direction. The output signal of one photoelectric conversion region and the sum of the output signals of both photoelectric conversion regions are Are separately readable. A signal corresponding to the output signal of the other photoelectric conversion region can be obtained as a difference between the sum of the output signals of both photoelectric conversion regions and the output signal of one photoelectric conversion region. The output signal of the divided photoelectric conversion region can be used for focus detection of a phase difference detection method by a method described later, and also used for generating a 3D (3-Dimensional) image composed of a pair of parallax images. You can also. On the other hand, the sum of the output signals of both photoelectric conversion regions can be used as an output signal of a normal photographing pixel.

ここで、位相差検出方式の焦点検出に用いる像信号の生成について説明する。本実施形態においては、図7(a)のマイクロレンズ211iと、分割された光電変換部211a及び211bで、撮影レンズ300の射出瞳を分割する。そして、焦点検出領域内の同一画素行(X軸方向)に配置された複数の画素211における光電変換部211aの出力をつなぎ合わせて編成したものをA像、光電変換部211bの出力をつなぎ合わせて編成したものをB像とする。上述の通り、本実施形態の撮像素子は2つの光電変換領域の一方については出力を直接読み出すことができない。従って、直接読み出しできない光電変換領域の出力信号を必要とする像信号は、2つの光電変換領域の出力信号の和と、直接読み出しできる光電変換領域の出力信号との差分として得ることができる。   Here, generation of an image signal used for focus detection by the phase difference detection method will be described. In the present embodiment, the exit pupil of the photographing lens 300 is divided by the microlens 211i in FIG. 7A and the divided photoelectric conversion units 211a and 211b. Then, the A image obtained by connecting the outputs of the photoelectric conversion units 211a in the plurality of pixels 211 arranged in the same pixel row (X-axis direction) within the focus detection region, and the output of the photoelectric conversion unit 211b are connected. A B image is obtained by knitting. As described above, the image sensor of this embodiment cannot directly read the output of one of the two photoelectric conversion regions. Therefore, an image signal that requires an output signal of the photoelectric conversion region that cannot be directly read out can be obtained as a difference between the sum of the output signals of the two photoelectric conversion regions and the output signal of the photoelectric conversion region that can be directly read out.

また、本実施形態においてGA像とGB像は、A像とB像の生成に用いる画素から読み出される、2つの光電変換領域の出力信号の和から生成する。   In the present embodiment, the GA image and the GB image are generated from the sum of the output signals of the two photoelectric conversion regions read from the pixels used for generating the A image and the B image.

このように生成したA像とGA像の相対的な像ずれ量、B像とGB像の相対的な像ずれ量を相関演算により検出することで、焦点検出領域の焦点ずれ量、すなわちデフォーカス量を検出することができる。基本的な方法は第1の実施形態で説明したとおりである。   By detecting the relative image shift amount between the A image and the GA image generated in this way and the relative image shift amount between the B image and the GB image by correlation calculation, the defocus amount of the focus detection region, that is, defocusing. The amount can be detected. The basic method is as described in the first embodiment.

以下、A像(第1の像信号)の生成に用いられる光電変換部211aが設けられた複数の画素を第1の画素群と呼び、B像(第2の像信号)の生成に用いられる光電変換部211bが設けられた複数の画素を第2の画素群と呼ぶ。本実施形態では、第1の画素群はGA像(第3の像信号)の生成にも用いられ、第2の画素群はGB像(第4の像信号)の生成にも用いられる。   Hereinafter, a plurality of pixels provided with the photoelectric conversion unit 211a used for generating an A image (first image signal) are referred to as a first pixel group, and are used for generating a B image (second image signal). A plurality of pixels provided with the photoelectric conversion unit 211b is referred to as a second pixel group. In the present embodiment, the first pixel group is also used for generating a GA image (third image signal), and the second pixel group is also used for generating a GB image (fourth image signal).

図7(b)は本実施形態の撮像素子14における読み出し回路の構成例を示す図である。撮像素子14は水平走査回路151と垂直走査回路153を有しており、各画素の境界には、水平走査ライン152a及び152bと、垂直走査ライン154a及び154bが配線されている。光電変換部の一方の出力と、両方の加算出力は、これらの走査ラインを介して外部に読み出される。   FIG. 7B is a diagram illustrating a configuration example of a readout circuit in the image sensor 14 of the present embodiment. The imaging device 14 includes a horizontal scanning circuit 151 and a vertical scanning circuit 153, and horizontal scanning lines 152a and 152b and vertical scanning lines 154a and 154b are wired at the boundaries between the pixels. One output of the photoelectric conversion unit and both addition outputs are read out to the outside through these scanning lines.

本実施形態では、奇数行の画素からはA像とGA像の出力が読みだされ、偶数行の画素からはB像とGB像の出力が読みだされるものとする。   In the present embodiment, it is assumed that the outputs of the A image and the GA image are read from the pixels in the odd rows, and the outputs of the B image and the GB image are read from the pixels in the even rows.

図8は、撮影レンズ300の射出瞳面と、撮像素子14の像面中央近傍に配置された画素211の光電変換部211a,211bとの共役関係を説明する図である。画素211内の光電変換部211a,211bと撮影レンズ300の射出瞳面は、オンチップマイクロレンズ211iによって共役関係となるように設計される。本実施形態における構成は、各画素が図3(A)および(B)に示した構成の両方を有している点を除き、第1の実施形態と同様であるため、重複する説明は省略する。   FIG. 8 is a diagram for explaining a conjugate relationship between the exit pupil plane of the photographing lens 300 and the photoelectric conversion units 211 a and 211 b of the pixel 211 disposed in the vicinity of the center of the image plane of the image sensor 14. The photoelectric conversion units 211a and 211b in the pixel 211 and the exit pupil plane of the photographing lens 300 are designed to have a conjugate relationship by the on-chip microlens 211i. The configuration of this embodiment is the same as that of the first embodiment except that each pixel has both of the configurations shown in FIGS. 3A and 3B, and thus a duplicate description is omitted. To do.

次に、本実施形態における、撮像素子14の出力を用いた位相差検出方式の焦点検出方法について説明する。本実施形態においても第1の実施形態と同様に、A像とGA像、B像とGB像の各々の組み合わせについて位相差を検出する。本実施形態では、奇数画素行からは光電変換部211a,211bの出力の和であるGA像(撮影信号)と光電変換部211aの出力であるA像とを読み出す。また、偶数画素行からは光電変換部211a,211bの出力の和であるGB像(撮影信号)と光電変換部211bの出力であるB像とを読み出す。   Next, the focus detection method of the phase difference detection method using the output of the image sensor 14 in this embodiment will be described. Also in the present embodiment, as in the first embodiment, the phase difference is detected for each combination of the A image and the GA image, and the B image and the GB image. In this embodiment, a GA image (shooting signal) that is the sum of the outputs of the photoelectric conversion units 211a and 211b and an A image that is the output of the photoelectric conversion unit 211a are read from the odd-numbered pixel rows. Further, a GB image (shooting signal) that is the sum of the outputs of the photoelectric conversion units 211a and 211b and a B image that is the output of the photoelectric conversion unit 211b are read from the even pixel rows.

奇数画素行におけるB像と、偶数画素行におけるA像はそれぞれ、GA像とA像の差とGB像とB像の差として算出することができるが、演算を伴うため、得られる信号のS/Nは直接読み出した場合よりも低下する。そのため、高精度の位相差検出を行うには、差分として求めた像信号を用いない方がよい。したがって、本実施形態では、読み出しが可能な一方の光電変換部の出力と、両方の光電変換部の出力和とを用いて位相差を検出する。   The B image in the odd-numbered pixel row and the A image in the even-numbered pixel row can be calculated as the difference between the GA image and the A image and the difference between the GB image and the B image, respectively. / N is lower than when reading directly. Therefore, it is better not to use the image signal obtained as the difference in order to detect the phase difference with high accuracy. Therefore, in this embodiment, the phase difference is detected using the output of one photoelectric conversion unit that can be read and the sum of the outputs of both photoelectric conversion units.

第1の実施形態の場合と異なり、撮像信号とAF用の片方の像信号は、同じ画素から得られる。そのため、図4(c)に示すように、焦点検出領域401内に配置された2行N列の画素から、A像(A(i,j))、B像(B(i,j))、GA像(GA(i,j))およびGB像(GB(i,j))(1≦i≦2、1≦j≦N)を得ることができる。そして、第1の実施形態と同様にして、A像とGA像、B像とGB像のそれぞれの組み合わせについて、シフト量dk1,dk2を求め、その和dk_sumに基づいてデフォーカス量を求める。   Unlike the case of the first embodiment, the imaging signal and one image signal for AF are obtained from the same pixel. Therefore, as shown in FIG. 4C, from the 2 rows and N columns of pixels arranged in the focus detection area 401, A image (A (i, j)), B image (B (i, j)) GA image (GA (i, j)) and GB image (GB (i, j)) (1 ≦ i ≦ 2, 1 ≦ j ≦ N) can be obtained. Similarly to the first embodiment, the shift amounts dk1 and dk2 are obtained for each combination of the A image and the GA image, and the B image and the GB image, and the defocus amount is obtained based on the sum dk_sum.

本実施形態によれば、各画素の光電変換領域が分割されている構成の撮像素子を用いた場合に、各光電変換領域の個別読み出しよりも処理負荷を軽減しながら、精度の良い位相差検出を行うことができ、焦点検出精度を向上させることができる。   According to the present embodiment, when an image sensor having a configuration in which the photoelectric conversion area of each pixel is divided is used, the phase difference can be detected with high accuracy while reducing the processing load compared to the individual reading of each photoelectric conversion area. Thus, focus detection accuracy can be improved.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

14:撮像素子、20:画像処理部、42:AF部、50:システム制御部、100:カメラ、300:撮影レンズ、346:レンズシステム制御部 14: Image sensor, 20: Image processing unit, 42: AF unit, 50: System control unit, 100: Camera, 300: Shooting lens, 346: Lens system control unit

Claims (16)

撮影光学系の射出瞳の一部の領域を通過した光束に基づく第1の像信号と、前記射出瞳の全領域を通過した光束に基づく第3の像信号との第1の位相差を算出する第1の算出手段と、
前記射出瞳の前記一部の領域とは異なる一部の領域を通過した光束に基づく第2の像信号と、前記射出瞳の全領域を通過した光束に基づく第4の像信号との第2の位相差を算出する第2の算出手段と、
前記第1の位相差と前記第2の位相差の少なくとも一方を用いて前記撮影光学系のデフォーカス量を算出する第3の算出手段と、
前記第3の算出手段による前記撮影光学系のデフォーカス量の算出において、前記第1の位相差と前記第2の位相差の両方を用いて前記撮影光学系のデフォーカス量を算出するか、前記第1の位相差と前記第2の位相差のいずれかを用いて前記撮影光学系のデフォーカス量を算出するかを切り替える切り替え手段と、
を備えることを特徴とする焦点検出装置。
The first phase difference between the first image signal based on the light beam that has passed through a partial area of the exit pupil of the imaging optical system and the third image signal based on the light beam that has passed through the entire area of the exit pupil is calculated. First calculating means for
A second image signal based on a light beam that has passed through a partial area different from the partial area of the exit pupil and a second image signal based on a light beam that has passed through the entire area of the exit pupil. Second calculating means for calculating the phase difference of
Third calculating means for calculating a defocus amount of the photographing optical system using at least one of the first phase difference and the second phase difference;
In the calculation of the defocus amount of the photographing optical system by the third calculation unit, the defocus amount of the photographing optical system is calculated using both the first phase difference and the second phase difference. Switching means for switching whether to calculate the defocus amount of the photographing optical system using either the first phase difference or the second phase difference;
A focus detection apparatus comprising:
前記第1の位相差と前記第2の位相差の信頼性を判定する判定手段をさらに備え、前記切り替え手段は、前記信頼性に基づいて、前記第1の位相差と前記第2の位相差の両方を用いて前記撮影光学系のデフォーカス量を算出するか、前記第1の位相差と前記第2の位相差のいずれかを用いて前記撮影光学系のデフォーカス量を算出するかを切り替えることを特徴とする請求項1に記載の焦点検出装置。   And determining means for determining reliability of the first phase difference and the second phase difference, wherein the switching means is configured to determine whether the first phase difference and the second phase difference are based on the reliability. Whether to calculate the defocus amount of the photographing optical system using both of the above, or to calculate the defocus amount of the photographing optical system using either the first phase difference or the second phase difference The focus detection apparatus according to claim 1, wherein the focus detection apparatus is switched. 前記切り替え手段は、前記判定手段により、前記第1の位相差と前記第2の位相差の一方が信頼性が低いと判定された場合に、信頼性が高いと判定された方の位相差を用いて前記撮影光学系のデフォーカス量を算出するように切り替えることを特徴とする請求項2に記載の焦点検出装置。   The switching means determines the phase difference of which the reliability is determined to be high when one of the first phase difference and the second phase difference is determined to be low reliability by the determination means. The focus detection apparatus according to claim 2, wherein the focus detection apparatus is switched so as to calculate a defocus amount of the photographing optical system. 前記第3の算出手段は、前記第1の位相差と前記第2の位相差のうちの信頼性が高いと判定された方の位相差をほぼ2倍した値を用いて、前記撮影光学系のデフォーカス量を算出することを特徴とする請求項3に記載の焦点検出装置。   The third calculating means uses the value obtained by almost doubling the phase difference of the first phase difference and the second phase difference, which is determined to be highly reliable, as the imaging optical system. The focus detection apparatus according to claim 3, wherein the defocus amount is calculated. 前記切り替え手段は、前記判定手段により、前記第1の位相差と前記第2の位相差の両方の信頼性が高いと判定された場合に、前記第1の位相差と前記第2の位相差の両方を用いて前記撮影光学系のデフォーカス量を算出するように切り替えることを特徴とする請求項2に記載の焦点検出装置。   The switching means determines the first phase difference and the second phase difference when the determination means determines that the reliability of both the first phase difference and the second phase difference is high. The focus detection apparatus according to claim 2, wherein switching is performed so as to calculate a defocus amount of the photographing optical system using both of the two. 前記第3の算出手段は、前記第1の位相差と前記第2の位相差を加えた値に基づいて、前記撮影光学系のデフォーカス量を算出することを特徴とする請求項5に記載の焦点検出装置。   The third calculation unit calculates a defocus amount of the photographing optical system based on a value obtained by adding the first phase difference and the second phase difference. Focus detection device. 前記判定手段は、前記信頼性を判定する閾値を、前記第1の位相差の信頼性を判定する場合と、前記第2の位相差の信頼性を判定する場合とで異ならせることを特徴とする請求項2に記載の焦点検出装置。   The determination means is characterized in that the threshold value for determining the reliability is different between a case where the reliability of the first phase difference is determined and a case where the reliability of the second phase difference is determined. The focus detection apparatus according to claim 2. 前記判定手段は、デフォーカス量の大きさに応じて、前記信頼性を判定する閾値を、前記第1の位相差の信頼性を判定する場合と、前記第2の位相差の信頼性を判定する場合とで異ならせることを特徴とする請求項7に記載の焦点検出装置。   The determination means determines a reliability threshold value for determining the reliability according to the amount of defocus, and determines the reliability of the first phase difference and the reliability of the second phase difference. The focus detection apparatus according to claim 7, wherein the focus detection apparatus is different from the case where the focus detection is performed. 前記判定手段は、焦点検出領域の撮影範囲内の位置に応じて、前記信頼性を判定する閾値を、前記第1の位相差の信頼性を判定する場合と、前記第2の位相差の信頼性を判定する場合とで異ならせることを特徴とする請求項7に記載の焦点検出装置。   The determination means determines a reliability threshold value for determining the reliability of the first phase difference according to a position of the focus detection area within the imaging range, and determines the reliability of the second phase difference. The focus detection device according to claim 7, wherein the focus detection device is different from that in the case of determining the sex. 前記判定手段は、前記第1の位相差と前記第2の位相差の差が、所定の閾値より大きい場合に、前記第1の位相差と前記第2の位相差の一方の信頼性が低いと判定することを特徴とする請求項2に記載の焦点検出装置。   The determination means has low reliability of one of the first phase difference and the second phase difference when the difference between the first phase difference and the second phase difference is larger than a predetermined threshold. The focus detection device according to claim 2, wherein 前記判定手段は、前記第1の像信号と前記第3の像信号の一致度が低い場合に、前記第1の位相差の信頼性が低いと判定し、前記第2の像信号と前記第4の像信号の一致度が低い場合に、前記第2の位相差の信頼性が低いと判定することを特徴とする請求項2に記載の焦点検出装置。   The determination unit determines that the reliability of the first phase difference is low when the degree of coincidence between the first image signal and the third image signal is low, and the second image signal and the second image signal 4. The focus detection apparatus according to claim 2, wherein when the degree of coincidence of the four image signals is low, it is determined that the reliability of the second phase difference is low. 前記撮影光学系のフォーカスレンズを駆動する駆動手段をさらに備え、前記駆動手段は、前記第1の位相差と前記第2の位相差のいずれかを用いて前記撮影光学系のデフォーカス量が算出される場合には、前記第1の位相差と前記第2の位相差の両方を用いて前記撮影光学系のデフォーカス量が算出される場合よりも、前記フォーカスレンズの駆動量を小さくすることを特徴とする請求項1乃至11のいずれか1項に記載の焦点検出装置。   The apparatus further includes a driving unit that drives a focus lens of the photographing optical system, and the driving unit calculates a defocus amount of the photographing optical system using either the first phase difference or the second phase difference. In this case, the drive amount of the focus lens is made smaller than when the defocus amount of the photographing optical system is calculated using both the first phase difference and the second phase difference. The focus detection apparatus according to claim 1, wherein: 前記第1の算出手段は、前記第1の像信号を複数の画素について加算した値と前記第3の像信号を複数の画素について加算した値とに基づいて、前記第1の位相差を算出し、前記第2の算出手段は、前記第2の像信号を複数の画素について加算した値と前記第3の像信号を複数の画素について加算した値とに基づいて、前記第2の位相差を算出し、前記第1の位相差と前記第2の位相差のいずれかを用いて前記撮影光学系のデフォーカス量を算出する場合には、前記第1の算出手段と前記第2の算出手段は、加算する前記複数の画素の数を多くすることを特徴とする請求項1乃至12のいずれか1項に記載の焦点検出装置。   The first calculation means calculates the first phase difference based on a value obtained by adding the first image signal for a plurality of pixels and a value obtained by adding the third image signal for a plurality of pixels. The second calculating means is configured to determine the second phase difference based on a value obtained by adding the second image signal for a plurality of pixels and a value obtained by adding the third image signal for a plurality of pixels. And calculating the defocus amount of the photographing optical system using either the first phase difference or the second phase difference, the first calculation means and the second calculation The focus detection apparatus according to claim 1, wherein the unit increases the number of the plurality of pixels to be added. 撮影光学系の射出瞳の一部の領域を通過した光束に基づく第1の像信号と、前記射出瞳の全領域を通過した光束に基づく第3の像信号との第1の位相差を算出する第1の算出工程と、
前記射出瞳の前記一部の領域とは異なる一部の領域を通過した光束に基づく第2の像信号と、前記射出瞳の全領域を通過した光束に基づく第4の像信号との第2の位相差を算出する第2の算出工程と、
前記第1の位相差と前記第2の位相差の少なくとも一方を用いて前記撮影光学系のデフォーカス量を算出する第3の算出工程と、
前記第3の算出工程における前記撮影光学系のデフォーカス量の算出において、前記第1の位相差と前記第2の位相差の両方を用いて前記撮影光学系のデフォーカス量を算出するか、前記第1の位相差と前記第2の位相差のいずれかを用いて前記撮影光学系のデフォーカス量を算出するかを切り替える切り替え工程と、
を有することを特徴とする焦点検出方法。
The first phase difference between the first image signal based on the light beam that has passed through a partial area of the exit pupil of the imaging optical system and the third image signal based on the light beam that has passed through the entire area of the exit pupil is calculated. A first calculating step,
A second image signal based on a light beam that has passed through a partial area different from the partial area of the exit pupil and a second image signal based on a light beam that has passed through the entire area of the exit pupil. A second calculation step of calculating the phase difference of
A third calculation step of calculating a defocus amount of the photographing optical system using at least one of the first phase difference and the second phase difference;
In calculating the defocus amount of the photographing optical system in the third calculating step, the defocus amount of the photographing optical system is calculated using both the first phase difference and the second phase difference. A switching step for switching whether to calculate a defocus amount of the photographing optical system using either the first phase difference or the second phase difference;
A focus detection method characterized by comprising:
請求項14に記載の焦点検出方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the focus detection method of Claim 14. 請求項14に記載の焦点検出方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   The computer-readable storage medium which memorize | stored the program for making a computer perform each process of the focus detection method of Claim 14.
JP2014234907A 2014-11-19 2014-11-19 Focus detection device, and method, program and storage medium Pending JP2016099432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014234907A JP2016099432A (en) 2014-11-19 2014-11-19 Focus detection device, and method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014234907A JP2016099432A (en) 2014-11-19 2014-11-19 Focus detection device, and method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2016099432A true JP2016099432A (en) 2016-05-30

Family

ID=56077036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014234907A Pending JP2016099432A (en) 2014-11-19 2014-11-19 Focus detection device, and method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2016099432A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017212909A1 (en) * 2016-06-06 2017-12-14 ソニー株式会社 Imaging element, imaging device and electronic device
JP2020013083A (en) * 2018-07-20 2020-01-23 株式会社ニコン Focus detector, imaging device, and interchangeable lens

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017212909A1 (en) * 2016-06-06 2017-12-14 ソニー株式会社 Imaging element, imaging device and electronic device
JPWO2017212909A1 (en) * 2016-06-06 2019-04-04 ソニー株式会社 Imaging device, imaging device, electronic device
US11064144B2 (en) 2016-06-06 2021-07-13 Sony Corporation Imaging element, imaging apparatus, and electronic equipment
JP2020013083A (en) * 2018-07-20 2020-01-23 株式会社ニコン Focus detector, imaging device, and interchangeable lens
JP7279313B2 (en) 2018-07-20 2023-05-23 株式会社ニコン Focus detection device and imaging device

Similar Documents

Publication Publication Date Title
JP6405243B2 (en) Focus detection apparatus and control method thereof
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
US10904425B2 (en) Image processing apparatus, control method therefor, and storage medium for evaluating a focusing state of image data
JP6289017B2 (en) Imaging apparatus, control method therefor, program, and storage medium
US9137436B2 (en) Imaging apparatus and method with focus detection and adjustment
US10187564B2 (en) Focus adjustment apparatus, imaging apparatus, focus adjustment method, and recording medium storing a focus adjustment program thereon
JP5950664B2 (en) Imaging apparatus and control method thereof
JP2017173374A (en) Focus detection device and method, as well as imaging device
JP6300670B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
JP2014002283A (en) Focus adjustment device and control method therefor
JP6405163B2 (en) Focus detection apparatus and control method thereof
JP2017215578A (en) Focus detection device and control method of the same
JP6529387B2 (en) Imaging device, control method therefor, program, storage medium
JP6960755B2 (en) Imaging device and its control method, program, storage medium
JP6427027B2 (en) Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP6941011B2 (en) Imaging device and its control method, program, storage medium
US20230072475A1 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium
JP2016066015A (en) Focus detector, control method thereof, program, and memory medium
JP2014142497A (en) Imaging apparatus and method for controlling the same
KR101805006B1 (en) Photographing apparatus and photographing method
JP6395790B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
JP2017032874A (en) Focus detection device and method, and imaging apparatus
JP2019091067A (en) Lens assembly and control method thereof