JP2014194502A - Imaging apparatus and imaging system - Google Patents

Imaging apparatus and imaging system Download PDF

Info

Publication number
JP2014194502A
JP2014194502A JP2013071313A JP2013071313A JP2014194502A JP 2014194502 A JP2014194502 A JP 2014194502A JP 2013071313 A JP2013071313 A JP 2013071313A JP 2013071313 A JP2013071313 A JP 2013071313A JP 2014194502 A JP2014194502 A JP 2014194502A
Authority
JP
Japan
Prior art keywords
focus detection
imaging
focus
optical system
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013071313A
Other languages
Japanese (ja)
Inventor
Teruhiro Nishio
彰宏 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013071313A priority Critical patent/JP2014194502A/en
Publication of JP2014194502A publication Critical patent/JP2014194502A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To relatively easily attain high focus accuracy when providing a focus detection pixel on an imaging plane of an imaging device, and performing a focus detection by a phase difference system.SOLUTION: An imaging apparatus includes: an imaging device 132 that has a focus detection pixel for detecting a focus by a phase difference system, and photoelectrically converts an optical image to be formed by an imaging optical system; and a camera CPU 151 that moves the imaging optical system in an optical axis direction on the basis of a detection result by the focus detection pixel of the imaging device to perform focus adjustment. The camera CPU 151 computes a correction amount ΔZ, using information about light reception intensity distribution characteristics and information about defocus correction distribution, and moves the imaging optical system on the basis of the correction amount to correct an optimal focus position.

Description

本発明は、撮像装置および撮像システムに関する。   The present invention relates to an imaging apparatus and an imaging system.

一眼レフカメラシステムにおいて、撮影光学系を通過した光束をサブミラーで反射して焦点検出ユニットに導き、これを利用して焦点検出ユニットにおいて位相差方式の焦点検出を行うことは知られている。また、撮影光学系による撮像素子の撮像面における合焦位置と、焦点検出ユニットの光学系による受光センサの受光面における合焦位置とのズレを補正するベストピント(最良合焦:BP)補正も知られている。この場合の自動焦点調節(AF)では、例えば、焦点検出ユニットの検出結果によってフォーカスレンズを合焦範囲に駆動した後でBP補正量分だけフォーカスレンズを更に駆動する。   In a single-lens reflex camera system, it is known that a light beam that has passed through an imaging optical system is reflected by a sub-mirror and guided to a focus detection unit, and this is used to perform focus detection by a phase difference method in the focus detection unit. In addition, the best focus (best focus: BP) correction for correcting the deviation between the in-focus position on the image pickup surface of the image pickup element by the photographing optical system and the in-focus position on the light receiving surface of the light receiving sensor by the optical system of the focus detection unit is also provided. Are known. In the automatic focus adjustment (AF) in this case, for example, the focus lens is further driven by the BP correction amount after the focus lens is driven to the in-focus range based on the detection result of the focus detection unit.

一方、撮像素子に結像した被写体像をリアルタイムに観察しながら撮影を行なうライブビュー撮影において、特許文献1は、撮像素子の撮像面に焦点検出用画素を設けて位相差方式の焦点検出を行う方法を提案している。   On the other hand, in live view shooting, in which shooting is performed while observing a subject image formed on an image sensor in real time, Patent Document 1 performs focus detection using a phase difference method by providing focus detection pixels on the image pickup surface of the image sensor. Proposed method.

特開2004−191629公報JP 2004-191629 A

撮像素子の撮像面に焦点検出用画素を設けて位相差方式の焦点検出を行う場合、焦点検出用画素と撮像用画素は結像特性が異なるためにBP補正が必要である。この場合、BP補正値は、撮像素子の仕様や位置による焦点検出画素の受光感度分布特性、撮影光学系に固有な瞳面の収差情報、F値、撮影光学系の製造誤差が起因する瞳面の収差情報など多くのパラメータに依存して変動する。なお、撮像素子の仕様は、焦点検出用画素の構造や配置を含み、撮像素子の位置はカメラ本体の交換レンズ取付位置から撮像素子までの光軸方向の距離を含む。全てのパラメータを考慮したBP補正値を用意して予めレンズユニットに保存するとデータ量が膨大になるため現実的ではない。この一方、適当なBP補正値を使用しないと合焦精度が低下する。   When focus detection pixels are provided on the imaging surface of the image sensor to perform phase difference focus detection, BP correction is necessary because the focus detection pixels and imaging pixels have different imaging characteristics. In this case, the BP correction value is the pupil plane caused by the light reception sensitivity distribution characteristic of the focus detection pixel depending on the specification and position of the image sensor, the aberration information of the pupil plane unique to the photographing optical system, the F value, and the manufacturing error of the photographing optical system. It fluctuates depending on many parameters such as aberration information. The specification of the image sensor includes the structure and arrangement of focus detection pixels, and the position of the image sensor includes the distance in the optical axis direction from the interchangeable lens mounting position of the camera body to the image sensor. If a BP correction value considering all parameters is prepared and stored in the lens unit in advance, the amount of data becomes enormous, which is not realistic. On the other hand, if an appropriate BP correction value is not used, the focusing accuracy decreases.

本発明は、撮像素子の撮像面に焦点検出用画素を設けて位相差方式の焦点検出を行う場合に比較的簡単に高い合焦精度を得ることが可能な撮像装置および撮像システムを提供することを例示的な目的とする。   The present invention provides an image pickup apparatus and an image pickup system capable of relatively easily obtaining high focusing accuracy when a focus detection pixel is provided on an image pickup surface of an image pickup element and phase difference type focus detection is performed. For exemplary purposes.

本発明の撮像装置は、位相差方式の焦点検出を行うための焦点検出用画素を有し、撮影光学系が形成する光学像を光電変換する撮像素子と、前記撮像素子の前記焦点検出用画素による検出結果に基づいて前記撮影光学系をその光軸方向に移動させて焦点調節を行わせる制御手段と、を有し、前記制御手段は、前記焦点検出用画素の光線入射角度に対する前記焦点検出用画素からの出力信号強度を表す受光強度分布特性の情報と、前記撮影光学系の収差特性に起因するデフォーカス補正量の分布を表すデフォーカス補正分布の情報と、を利用して補正量を演算し、演算された前記補正量に基づいて前記撮影光学系を前記光軸方向に移動して最良合焦位置を補正することを特徴とする。   An imaging apparatus according to the present invention includes a focus detection pixel for performing phase difference focus detection, an image sensor that photoelectrically converts an optical image formed by a photographing optical system, and the focus detection pixel of the image sensor. Control means for adjusting the focus by moving the photographic optical system in the direction of the optical axis based on the detection result of the focus detection, and the control means detects the focus with respect to the light incident angle of the focus detection pixel. The correction amount is calculated using information on the received light intensity distribution characteristic indicating the output signal intensity from the pixel for use and information on the defocus correction distribution indicating the distribution of the defocus correction amount caused by the aberration characteristic of the photographing optical system. The best focus position is corrected by calculating and moving the photographing optical system in the optical axis direction based on the calculated correction amount.

本発明によれば、撮像素子の撮像面に焦点検出用画素を設けて位相差方式の焦点検出を行う場合に比較的簡単に高い合焦精度を得ることが可能な撮像装置および撮像システムを提供することができる。   According to the present invention, it is possible to provide an imaging apparatus and an imaging system that can relatively easily obtain a high focusing accuracy when a focus detection pixel is provided on an imaging surface of an imaging element to perform phase difference type focus detection. can do.

本実施形態のカメラシステムのブロック図である。It is a block diagram of the camera system of this embodiment. 図1に示す撮像素子に適用可能な画素配列を示す概略拡大平面図である。FIG. 2 is a schematic enlarged plan view showing a pixel array applicable to the image sensor shown in FIG. 1. 図2に示す撮像素子に結像される光を示す図である。It is a figure which shows the light imaged on the image pick-up element shown in FIG. 位相差方式の焦点検出の原理を説明するためのグラフである。It is a graph for demonstrating the principle of a focus detection of a phase difference system. 図2(a)に示す焦点検出用画素と撮像用画素の受光強度分布特性情報を示す図である。It is a figure which shows the light reception intensity distribution characteristic information of the focus detection pixel and imaging pixel shown to Fig.2 (a). 図2(b)に示す焦点検出用画素と撮像用画素の受光強度分布特性情報を示す図である。It is a figure which shows the light reception intensity distribution characteristic information of the pixel for focus detection shown in FIG.2 (b), and the pixel for imaging. 図2(c)に示す焦点検出用画素と撮像用画素の受光強度分布特性情報を示す図である。It is a figure which shows the light reception intensity distribution characteristic information of the pixel for focus detection shown in FIG.2 (c), and the pixel for imaging. BP補正値を算出する方法を説明するためのグラフである。It is a graph for demonstrating the method of calculating BP correction value. BP補正値を算出する方法を説明するためのグラフである。It is a graph for demonstrating the method of calculating BP correction value. 図1に示すカメラCPUによる自動焦点調節動作を説明するためのフローチャートである。4 is a flowchart for explaining an automatic focus adjustment operation by the camera CPU shown in FIG. 1.

図1は、本実施形態のカメラシステム(撮像システム)のブロック図である。カメラシステムは、レンズユニット(交換レンズ)101と、レンズユニット101が着脱可能に装着されるカメラユニット(カメラ本体)121から構成される。本実施形態のカメラユニット121は一眼レフカメラであるが、ミラーレスカメラとして構成されてもよい。また、カメラシステムはレンズ一体型のカメラであってもよい。カメラユニット121はデジタルスチルカメラやデジタルビデオカメラなどを含み、動画や静止画を撮影することが可能である。   FIG. 1 is a block diagram of the camera system (imaging system) of this embodiment. The camera system includes a lens unit (interchangeable lens) 101 and a camera unit (camera body) 121 to which the lens unit 101 is detachably attached. The camera unit 121 of the present embodiment is a single-lens reflex camera, but may be configured as a mirrorless camera. The camera system may be a lens-integrated camera. The camera unit 121 includes a digital still camera, a digital video camera, and the like, and can capture moving images and still images.

レンズユニット101は、任意の撮像装置に対して着脱可能に装着され、被写体(物体)の光学像を形成する撮影光学系を収納している。撮影光学系は、一例として、第1レンズ群102、絞り103、第2レンズ群104、第3レンズ群105を有する。   The lens unit 101 is detachably attached to an arbitrary imaging device, and houses a photographing optical system that forms an optical image of a subject (object). The photographing optical system includes, as an example, a first lens group 102, a diaphragm 103, a second lens group 104, and a third lens group 105.

第1レンズ群102は、撮影光学系の最も被写体側に配置される。絞り103は、その開口径を調節することで撮影時の光量調節を行なうほか、静止画撮影時には露光秒時調節用シャッタとしても機能する。第3レンズ群105は、光軸方向の移動により、焦点調節を行なうためのフォーカスレンズ群である。第1レンズ群102から第3レンズ群105までの空気間隔を変化させることにより焦点距離を変化させるようなズーム機能を実現する。なお、撮影光学系の構成は例示的であり、防振レンズなど他のレンズを含んでもよい。また、図1では、各レンズ群は単レンズとして示されているが、実際には一または複数のレンズから構成される。   The first lens group 102 is disposed on the most object side of the photographing optical system. The aperture 103 adjusts the aperture diameter to adjust the amount of light during shooting, and also functions as an exposure time adjustment shutter during still image shooting. The third lens group 105 is a focus lens group for performing focus adjustment by movement in the optical axis direction. A zoom function that changes the focal length by changing the air gap from the first lens group 102 to the third lens group 105 is realized. Note that the configuration of the photographing optical system is exemplary, and may include other lenses such as an anti-vibration lens. In FIG. 1, each lens group is shown as a single lens, but in actuality, it is composed of one or a plurality of lenses.

106は、ズームアクチュエータであり、第1レンズ群102から第3レンズ群105までを光軸方向に駆動し、ズーム操作を行なう。107は、絞りアクチュエータであり、絞り103の開口径を変化させて光量を調節すると共に、カメラシステムの種類によってはシャッタの役目も有して静止画撮影時の露光時間制御を行なう。108は、フォーカスアクチュエータであり、第3レンズ群105を光軸方向に駆動して焦点調節を行なう。109は、撮影光学系の光学特性に固有となるデフォーカス補正分布情報を格納したメモリ(第2のメモリ)である。デフォーカス補正分布情報は、ベストピント(最良合焦:BP)補正を行うための数値情報であり、撮影光学系の収差特性に起因するデフォーカス補正量の分布を表している。   Reference numeral 106 denotes a zoom actuator that drives the first lens group 102 to the third lens group 105 in the optical axis direction to perform a zoom operation. Reference numeral 107 denotes an aperture actuator that adjusts the amount of light by changing the aperture diameter of the aperture 103 and controls the exposure time during still image shooting with the role of a shutter depending on the type of camera system. Reference numeral 108 denotes a focus actuator, which adjusts the focus by driving the third lens group 105 in the optical axis direction. Reference numeral 109 denotes a memory (second memory) that stores defocus correction distribution information unique to the optical characteristics of the photographing optical system. The defocus correction distribution information is numerical information for performing the best focus (best focus: BP) correction, and represents the distribution of the defocus correction amount caused by the aberration characteristics of the photographing optical system.

なお、撮影光学系の収差としては固有の収差値に加えて製造誤差による収差値も加えてよい。そして固有の収差値によるデフォーカス補正量分布情報と製造誤差によるデフォーカス補正分布情報を別々に持たせて、互いの情報と個別の情報で必要に応じて選択や加算などの加工を行ってもよい。   As the aberration of the photographing optical system, an aberration value due to a manufacturing error may be added in addition to the inherent aberration value. Even if the defocus correction amount distribution information based on the inherent aberration value and the defocus correction distribution information based on the manufacturing error are separately provided, processing such as selection and addition may be performed as necessary with each other's information and individual information. Good.

110は、レンズCPU(レンズ制御手段)であり、レンズユニット101の各部の動作を制御すると共にカメラユニット121のカメラCPU151と通信する。レンズCPU110は、カメラユニット121からの要求に応じた情報(例えば、デフォーカス補正分布情報)を送信したり、補助的演算を行って演算結果を送信したりする。   Reference numeral 110 denotes a lens CPU (lens control means) that controls the operation of each part of the lens unit 101 and communicates with the camera CPU 151 of the camera unit 121. The lens CPU 110 transmits information according to a request from the camera unit 121 (for example, defocus correction distribution information), or performs an auxiliary calculation and transmits a calculation result.

カメラユニット121は、撮像装置として機能する。122は反射部材(メインミラー)であり、反射部材122の上部に配置されるファインダーユニット123に撮影光学系を経た光束の一部を反射する。反射部材122は、一般的な一眼レフカメラのようにクイックリターン式の反射部材としてもよく半透過型として固定式としてもよい。反射部材122には、一部半透過領域が形成されている。124は反射部材122を透過した光束を偏向させるための副反射部材(サブミラー)である。   The camera unit 121 functions as an imaging device. A reflecting member (main mirror) 122 reflects a part of the light beam that has passed through the photographing optical system to the finder unit 123 that is disposed above the reflecting member 122. The reflection member 122 may be a quick return type reflection member like a general single-lens reflex camera, or may be a semi-transmission type and a fixed type. The reflective member 122 is partially formed with a semi-transmissive region. A sub-reflecting member (sub-mirror) 124 deflects the light beam that has passed through the reflecting member 122.

125は副反射部材124によって反射された光線から位相差方式で焦点検出を行う焦点検出ユニットである。位相差方式の焦点検出とは、一対の被写体像の像信号の位相差を検出することによって焦点検出をすることをいう。光学素子122〜125は被写体像確認をライブビューや外部のファインダーにて行う場合には省略されてもよい。   Reference numeral 125 denotes a focus detection unit that performs focus detection by the phase difference method from the light beam reflected by the sub-reflection member 124. The phase difference type focus detection means that focus detection is performed by detecting a phase difference between image signals of a pair of subject images. The optical elements 122 to 125 may be omitted when the subject image confirmation is performed using a live view or an external viewfinder.

131は、光学ローパスフィルタであり、撮影画像の偽色やモアレを軽減する。   Reference numeral 131 denotes an optical low-pass filter that reduces false colors and moire in the captured image.

132は、C−MOSセンサとその周辺回路で構成された撮像素子である。撮像素子132は、撮像用画素と焦点検出用画素を有する。撮像用画素は撮影光学系が形成した被写体の光学像を光電変換する。焦点検出用画素は位相差方式によって焦点検出を行う。これにより、ライブビュー撮影において短時間で焦点検出を行うことができる。なお、焦点検出用画素は、撮像用画素として機能してもよい。   Reference numeral 132 denotes an image sensor composed of a C-MOS sensor and its peripheral circuits. The imaging element 132 includes imaging pixels and focus detection pixels. The imaging pixels photoelectrically convert the optical image of the subject formed by the imaging optical system. The focus detection pixel performs focus detection by a phase difference method. Thereby, focus detection can be performed in a short time in live view shooting. Note that the focus detection pixels may function as imaging pixels.

撮像素子132は、横方向にM画素、縦方向にN画素の受光ピクセルが正方配置され、例えば、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサが用いられる。画素列内に一対の焦点検出用画素列を配置して互いの画素列の光電変換信号の相関をとることで位相差を得る。   The image sensor 132 uses a two-dimensional single-plate color sensor in which M pixels in the horizontal direction and N pixels in the vertical direction are squarely arranged, and a Bayer array primary color mosaic filter is formed on-chip. . A phase difference is obtained by arranging a pair of focus detection pixel columns in the pixel column and correlating the photoelectric conversion signals of the pixel columns.

141は無線式通信手段であり、インターネット等のネットワークを通じてサーバーと通信するためのアンテナや信号処理回路で構成される。カメラユニット121は、パーソナルコンピュータ(PC)などに接続されるUSBポートなどを有し、PCなどを介してネットワークに接続されてもよい。   141 is a wireless communication means, which is composed of an antenna and a signal processing circuit for communicating with a server through a network such as the Internet. The camera unit 121 includes a USB port connected to a personal computer (PC) or the like, and may be connected to a network via the PC.

カメラCPU(カメラ制御手段)151は、カメラ本体の種々の制御を司るために、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。カメラCPU151は、ROMに記憶されたプログラムに基づいて、カメラが有する各種回路を駆動し、後述する焦点検出、撮影、画像処理と記録等の一連の動作を実行する。例えば、後述する図10に示す自動焦点調節(AF)方法の少なくとも一部はプログラムとしてROMに記憶されてもよい。   The camera CPU (camera control means) 151 includes a calculation unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like in order to control various controls of the camera body. The camera CPU 151 drives various circuits included in the camera based on a program stored in the ROM, and executes a series of operations such as focus detection, photographing, image processing and recording, which will be described later. For example, at least a part of the automatic focus adjustment (AF) method shown in FIG. 10 to be described later may be stored in the ROM as a program.

152は通信制御回路であり、通信手段141を介して、カメラより撮影画像をサーバーへ送信したり、サーバーから画像や各種情報の受信を行なったりする。カメラCPU151は、後述する受光強度分布特性情報やデフォーカス補正分布情報を通信制御回路152と無線式通信手段141(あるいはUSBポートとUSBケーブルなどの他の手段)を介して、ネットワーク上のサーバーから得てもよい。   A communication control circuit 152 transmits a captured image from the camera to the server and receives images and various information from the server via the communication unit 141. The camera CPU 151 receives received light intensity distribution characteristic information and defocus correction distribution information from a server on the network via the communication control circuit 152 and wireless communication means 141 (or other means such as a USB port and a USB cable). May be obtained.

154は、焦点検出回路であり、焦点検出ユニット125による焦点検出情報をカメラCPU151に送信する。   A focus detection circuit 154 transmits focus detection information from the focus detection unit 125 to the camera CPU 151.

155は、デフォーカス補正分布情報入力回路であり、レンズユニット101のメモリ109に保存されているデフォーカス補正分布情報を取得してこれをカメラCPU151に送信する。これにより、カメラCPU151は、撮影光学系の光学収差の影響で変化する最良合焦位置を補正するための合焦位置補正情報を算出する。   Reference numeral 155 denotes a defocus correction distribution information input circuit, which acquires defocus correction distribution information stored in the memory 109 of the lens unit 101 and transmits it to the camera CPU 151. Thereby, the camera CPU 151 calculates in-focus position correction information for correcting the best in-focus position that changes due to the influence of the optical aberration of the photographing optical system.

156は受光強度分布特性情報を保存するメモリ(第1のメモリ)であり、メモリ156は受光強度分布特性情報を出荷時に保存しているが、上述したように、ネットワークなどからダウンロードされて保存してもよい。   Reference numeral 156 denotes a memory (first memory) for storing the received light intensity distribution characteristic information. The memory 156 stores the received light intensity distribution characteristic information at the time of shipment. However, as described above, it is downloaded from a network or the like and stored. May be.

受光強度分布特性情報は、撮像素子132の焦点検出用画素及び撮像用画素への光線入射角度に対する出力信号強度情報である。例えば、光束が焦点検出用画素に垂直入射した場合に焦点検出用画素から出力される信号の強度と、光束が焦点検出用画素に45°の入射角度で入射した場合に焦点検出用画素から出力される信号の強度は異なる。受光強度分布特性は、特定の入射角度または瞳面上の特定の座標からの光束が画素に入射した場合の画素からの出力信号の強度で正規化されてもよい。また、後述するが、メモリ156には撮影光学系のF値変換と前記受光強度分布特性に応じた基線長情報も一緒に格納されているものとする。   The received light intensity distribution characteristic information is output signal intensity information with respect to a light incident angle to the focus detection pixel and the imaging pixel of the imaging element 132. For example, the intensity of the signal output from the focus detection pixel when the light beam is vertically incident on the focus detection pixel, and the output from the focus detection pixel when the light beam is incident on the focus detection pixel at an incident angle of 45 ° The strength of the signal to be generated is different. The received light intensity distribution characteristic may be normalized by the intensity of the output signal from the pixel when a light beam from a specific incident angle or a specific coordinate on the pupil surface enters the pixel. As will be described later, it is assumed that the memory 156 stores F-number conversion of the photographing optical system and baseline length information corresponding to the received light intensity distribution characteristics together.

本実施形態では、焦点検出ユニット125と焦点検出回路154を介して得た焦点検出結果から自動焦点調節(AF)を行う場合と、撮像素子132の焦点検出用画素による焦点検出結果からAFを行うことができるが、前者のAFは必須ではない。   In the present embodiment, automatic focus adjustment (AF) is performed from the focus detection result obtained via the focus detection unit 125 and the focus detection circuit 154, and AF is performed from the focus detection result by the focus detection pixels of the image sensor 132. However, the former AF is not essential.

161はフォーカスレンズ駆動回路であり、焦点検出結果に基づいてフォーカスアクチュエータ162を駆動制御する。162は絞り駆動回路であり、絞りアクチュエータ112を駆動制御して絞り103の開口径を調節する。164はズーム駆動回路であり、撮影者のズーム操作に応じてズームアクチュエータ106を駆動する。なお、ズームアクチュエータ106とズーム駆動回路164は、ズーム駆動が手動である場合は省いてもよい。   Reference numeral 161 denotes a focus lens drive circuit, which drives and controls the focus actuator 162 based on the focus detection result. Reference numeral 162 denotes an aperture driving circuit that controls the aperture actuator 112 to adjust the aperture diameter of the aperture 103. Reference numeral 164 denotes a zoom drive circuit that drives the zoom actuator 106 in accordance with the zoom operation of the photographer. Note that the zoom actuator 106 and the zoom drive circuit 164 may be omitted when the zoom drive is manual.

171は画像処理回路であり、撮像素子132が取得した画像のγ変換、カラー補間、画像圧縮等の処理を行なう。172はLCD等の表示器であり、カメラの撮影モードに関する情報、撮影時のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像、カメラの姿勢情報等を表示する。173は操作スイッチ群であり、電源スイッチ、撮影開始スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。174は着脱可能なフラッシュメモリであり、撮影済み画像を記録する。   An image processing circuit 171 performs processing such as γ conversion, color interpolation, and image compression of the image acquired by the image sensor 132. Reference numeral 172 denotes a display such as an LCD, which displays information related to the shooting mode of the camera, a preview image at the time of shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, camera posture information, and the like. Reference numeral 173 denotes an operation switch group, which includes a power switch, a shooting start switch, a zoom operation switch, a shooting mode selection switch, and the like. Reference numeral 174 denotes a detachable flash memory that records a photographed image.

焦点検出ユニット125には、一対の焦点検出用の光学系が設けられている。各光学系は、撮影光学系の射出瞳範囲の一部の光を取り込んで一対の受光センサに像を形成し、受光センサによって光電変換された信号の相関をとることにより、2つの被写体像の位相差を検出する。デフォーカス補正量(結像位置のズレ量)DEF、位相差(像ズレ量)L、基線長Kの間には次式の関係が成立する。   The focus detection unit 125 is provided with a pair of focus detection optical systems. Each optical system captures a part of the exit pupil range of the photographing optical system, forms an image on a pair of light receiving sensors, and correlates the signals photoelectrically converted by the light receiving sensors, thereby obtaining two object images. Detect phase difference. The relationship of the following equation is established among the defocus correction amount (image position displacement amount) DEF, the phase difference (image displacement amount) L, and the base line length K.

K=L/DEF (1)
基線長の算出には、撮影光学系及び焦点検出用画素の光学特性と電気特性が必要である。具体的には、撮影光学系の射出瞳形状を導きだすための光線ケラレ情報とその位置に投影される焦点検出用画素の瞳像の関係と焦点検出用画素が射出瞳から受光する際の受光強度分布情報が必要となる。
K = L / DEF (1)
The calculation of the baseline length requires the optical characteristics and electrical characteristics of the imaging optical system and focus detection pixels. Specifically, the relationship between ray vignetting information for deriving the exit pupil shape of the imaging optical system and the pupil image of the focus detection pixel projected at that position, and the light reception when the focus detection pixel receives light from the exit pupil. Intensity distribution information is required.

焦点検出ユニット125の光学系は遮光マスクを配置して撮影光学系の光線通過範囲の分離(瞳分離)を行い、焦点検出時にはその遮光範囲内の光線はケラレを生じないように撮影光学系を開放状態として一定以上の明るさ(有効F値)を維持している。基線長情報は変動しないため、撮像装置は、焦点検出用の光学系に固有な基線長情報を記憶すれば足りる。   The optical system of the focus detection unit 125 arranges a light-shielding mask to separate the light passage range (pupil separation) of the photographing optical system, and the focus of the photographing optical system prevents the light rays in the light-shielding range from causing vignetting. The brightness (effective F value) above a certain level is maintained in the open state. Since the baseline length information does not change, it is sufficient for the imaging apparatus to store baseline length information unique to the focus detection optical system.

しかしながら、撮像素子132の撮像素子で位相差方式の焦点検出を行う場合、F値は変動する。そのため基線長情報や撮影光学系固有の収差や製造誤差によるデフォーカス補正量はF値と受光強度分布特性に応じて変化する問題が生じる。   However, when the phase difference type focus detection is performed by the image sensor of the image sensor 132, the F value fluctuates. Therefore, there arises a problem that the defocus correction amount due to the baseline length information, the aberration inherent in the photographing optical system, and the manufacturing error varies depending on the F value and the received light intensity distribution characteristic.

以下、図2を参照して、撮像素子132に適用可能な画素配列について説明する。   Hereinafter, a pixel array applicable to the image sensor 132 will be described with reference to FIG.

図2(a)は、1つのマイクロレンズに1つの光電変換部を配置する撮像素子の撮像面の画素配列の例を示している。上下方向をY方向、左右方向をX方向とし、これは図2(b)、図2(c)でも同様である。XY方向に行列状に画素が配列されている。200は撮像用画素を表し、201〜204は焦点検出用画素を表している。各画素の円の輪郭はマイクロレンズを表し、内部の四角は光電変換部を表している。撮像用画素200が白色であるのは遮光されていないこと示し、焦点検出用画素が一部黒色なのはその部分が遮光されていることを示している。   FIG. 2A shows an example of a pixel array on the imaging surface of an imaging device in which one photoelectric conversion unit is arranged in one microlens. The vertical direction is the Y direction, and the horizontal direction is the X direction, which is the same in FIGS. 2B and 2C. Pixels are arranged in a matrix in the XY direction. Reference numeral 200 denotes an imaging pixel, and 201 to 204 denote focus detection pixels. The circle outline of each pixel represents a microlens, and the internal square represents a photoelectric conversion unit. When the imaging pixel 200 is white, it indicates that it is not shielded from light, and when the focus detection pixel is partially black, it indicates that the part is shielded from light.

Y方向に一列に配置された左側開口部を有する画素群201と右側開口部を有する画素群202はY方向への被写体像を生成する。これらの画素群を一対の焦点検出用画素列としてそこから出力される一対の信号を相関演算して横縞パターン形状の被写体の焦点検出を行う。同様に、X方向に一列に配置された上側開口部を有する画素群203と下側開口部を有する画素群204はX方向への被写体像を生成する。これらの画素群を一対の焦点検出用画素列としてそこから出力される一対の信号を相関演算して縦縞パターン形状の被写体の焦点検出を行う。   A pixel group 201 having a left opening and a pixel group 202 having a right opening arranged in a line in the Y direction generate a subject image in the Y direction. These pixel groups are used as a pair of focus detection pixel rows, and a pair of signals output therefrom are subjected to correlation calculation to detect the focus of a subject having a horizontal stripe pattern shape. Similarly, a pixel group 203 having an upper opening and a pixel group 204 having a lower opening arranged in a line in the X direction generate a subject image in the X direction. These pixel groups are used as a pair of focus detection pixel arrays, and a pair of signals output therefrom are subjected to correlation calculation to detect the focus of a subject having a vertical stripe pattern shape.

図2(b)は、1つのマイクロレンズに2つの光電変換部を配置する撮像素子の撮像面の画素配列例を示している。XY方向に行列状に画素が配列され、各画素の外側の円はマイクロレンズを表し、その内部の2つの略半円は光電変換素子を表している。   FIG. 2B shows an example of a pixel array on the imaging surface of an imaging device in which two photoelectric conversion units are arranged in one microlens. Pixels are arranged in a matrix in the XY direction, a circle outside each pixel represents a microlens, and two substantially semicircles inside the pixel represent photoelectric conversion elements.

X方向に並んだ画素群301の光電変換部302及び303を一対の焦点検出用画素としてそこから出力される一対の信号を相関演算することによってY方向の縞パターンの被写体の焦点検出を行う。また、Y方向に並んだ画素群300の光電変換部304及び305を一対の焦点検出用画素としてそこから出力される一対の信号を相関演算することによってX方向の縞パターンの被写体の焦点検出を行う。撮像用の信号は、光電変換部302と303の電気信号及び光電変換部304と305の電気信号をそれぞれ加算することによって取得する。   The photoelectric conversion units 302 and 303 of the pixel group 301 aligned in the X direction are used as a pair of focus detection pixels, and a pair of signals output from the photoelectric conversion units 302 and 303 are subjected to correlation calculation to detect the focus of the subject in the stripe pattern in the Y direction. In addition, the photoelectric conversion units 304 and 305 of the pixel group 300 arranged in the Y direction are used as a pair of focus detection pixels, and a pair of signals output from the photoelectric conversion units 304 and 305 are subjected to correlation calculation to detect the focus of the subject in the X direction stripe pattern. Do. Imaging signals are acquired by adding the electrical signals of the photoelectric conversion units 302 and 303 and the electrical signals of the photoelectric conversion units 304 and 305, respectively.

図2(c)は、1つのマイクロレンズに4つの光電変換部を配置する撮像素子の撮像面の画素配列例を示している。4つの光電変換部の電気信号加算方式を変えることにより図2(b)と同様の結果を得る。XY方向に行列状に画素が配列され、各画素の外側の円はマイクロレンズを表し、その内部の4つの正方形は光電変換素子を表している。   FIG. 2C shows an example of a pixel array on the imaging surface of an imaging device in which four photoelectric conversion units are arranged in one microlens. By changing the electric signal addition method of the four photoelectric conversion units, the same result as in FIG. 2B is obtained. Pixels are arranged in a matrix in the XY direction, a circle outside each pixel represents a microlens, and four squares inside each represent a photoelectric conversion element.

X方向に並んだ画素群400の光電変換部401と402及び光電変換部403と404の出力信号を加算して、得られた2つの電気信号波形を一対の相関演算することによってY方向の縞パターンの被写体の焦点検出を行う。また、Y方向に並んだ画素群400の光電変換部401と403及び光電変換部402と404の出力信号を加算して、得られた2つの電気信号波形を一対の相関演算することによってX方向の縞パターンの被写体の焦点検出を行う。   The output signals of the photoelectric conversion units 401 and 402 and the photoelectric conversion units 403 and 404 of the pixel group 400 arranged in the X direction are added together, and the obtained two electric signal waveforms are subjected to a pair of correlation calculation, thereby causing stripes in the Y direction. The focus detection of the subject of the pattern is performed. Further, the output signals of the photoelectric conversion units 401 and 403 and the photoelectric conversion units 402 and 404 of the pixel group 400 arranged in the Y direction are added, and the obtained two electric signal waveforms are subjected to a pair of correlation operations to thereby calculate the X direction. The focus detection of the subject of the stripe pattern is performed.

なお、撮像素子をブロックに分けて加算方法を変えてもよく、千鳥配列的に互い違いに加算を変えることで、図2(b)と等価な画素配列を達成することもできる。縦縞パターンと横縞パターンを同時に評価できるので被写体パターンの方向依存をなくすことができる。また、加算方法は撮影状態に応じて、または、時系列的に全画素において切り替えを行ってもよい。この際、同パターン方向の被写体を焦点検出する焦点検出用画素が密な状態になるため、焦点検出用画素が疎な場合に生ずる細い線分を有する被写体が合焦近傍において被写体検知が行えなくなる問題を回避することができる。撮影用信号は、光電変換部402〜405の電気信号を加算すればよい。   Note that the addition method may be changed by dividing the image sensor into blocks, and by changing the addition alternately in a staggered arrangement, a pixel arrangement equivalent to that in FIG. 2B can be achieved. Since the vertical stripe pattern and the horizontal stripe pattern can be evaluated simultaneously, the direction dependency of the subject pattern can be eliminated. In addition, the addition method may be switched for all pixels in accordance with the shooting state or in time series. At this time, since the focus detection pixels for detecting the focus of the subject in the same pattern direction are in a dense state, a subject having a thin line segment generated when the focus detection pixels are sparse cannot perform subject detection near the in-focus state. The problem can be avoided. What is necessary is just to add the electrical signal of the photoelectric conversion parts 402-405 to the signal for imaging | photography.

図3(a)は、撮影光学系BLと撮像素子IPの焦点検出用画素の関係を説明する断面図であり、光軸は一点鎖線で示されている。図3(a)は、一例であり、絞りの位置やレンズの形状など図1とは一致していないが、一致していてもよい。   FIG. 3A is a cross-sectional view illustrating the relationship between the imaging optical system BL and the focus detection pixels of the image sensor IP, and the optical axis is indicated by a one-dot chain line. FIG. 3A is an example, and the position of the diaphragm and the shape of the lens are not the same as those in FIG. 1, but may be the same.

ASは焦点検出用画素である。EPOは撮像素子IPの撮像面と撮影光学系BLの絞りとの間に配置され、撮影光学系BLの光軸に垂直な(撮像面に平行な)平面としての仮想面である。仮想面EPOは撮影光学系BLの入射瞳面であってもよい。図3(a)は、光束Dが撮影光学系BLを介して仮想面EPOの光線通過範囲PDを通過した後に焦点検出用画素ASへ入射する状態を示している。なお、図3(a)には示されていないが、図2で述べた一対の焦点検出用画素群が存在している。   AS is a focus detection pixel. EPO is a virtual surface that is disposed between the imaging surface of the imaging element IP and the stop of the imaging optical system BL and is a plane perpendicular to the optical axis of the imaging optical system BL (parallel to the imaging surface). The virtual plane EPO may be an entrance pupil plane of the photographing optical system BL. FIG. 3A shows a state in which the light beam D enters the focus detection pixel AS after passing through the light beam passage range PD of the virtual surface EPO via the photographing optical system BL. Although not shown in FIG. 3A, the pair of focus detection pixel groups described in FIG. 2 exist.

図3(b)と図3(c)は、撮影光学系BLの射出瞳に対する焦点検出用画素の瞳投影像を示しており、仮想面EP0から撮像素子の焦点検出用画素に入射する光束範囲を示している。図3(b)は、図2(a)に示す焦点検出用画素を使用した場合に対応し、図3(c)は、図2(b)や図2(c)に示す焦点検出用画素を使用した場合に対応する。   FIGS. 3B and 3C show pupil projection images of the focus detection pixels with respect to the exit pupil of the imaging optical system BL, and the light flux range incident on the focus detection pixels of the image sensor from the virtual plane EP0. Is shown. FIG. 3B corresponds to the case where the focus detection pixel shown in FIG. 2A is used, and FIG. 3C shows the focus detection pixel shown in FIG. 2B or 2C. Corresponds to the use of.

図3(b)の600、604は一対の焦点検出用画素、601はマイクロレンズ、602は遮光部材、603は光電変換部を示している。EPa0は仮想面EP0上で焦点検出用画素600に入射する光線範囲を示し、EPb0は仮想面EP0上で焦点検出用画素604に入射する光線範囲を示している。   In FIG. 3B, reference numerals 600 and 604 denote a pair of focus detection pixels, reference numeral 601 denotes a microlens, reference numeral 602 denotes a light shielding member, and reference numeral 603 denotes a photoelectric conversion unit. EPa0 indicates a light beam range incident on the focus detection pixel 600 on the virtual plane EP0, and EPb0 indicates a light beam range incident on the focus detection pixel 604 on the virtual plane EP0.

図3(c)の画素700は一つのマイクロレンズ701を介して受光する複数の光電変換部702及び703を有する。光電変換部702及び703は、マイクロレンズ701の光軸外の有効範囲を通過した光束を受光し、それぞれが撮影光学系BLの射出瞳の異なる領域の光束を受光する。EPa0は仮想面EP0上で光電変換部702に入射する光線範囲を示し、EPb0は仮想面EP0上で光電変換部703に入射する光線範囲を示している。   A pixel 700 in FIG. 3C includes a plurality of photoelectric conversion units 702 and 703 that receive light through one microlens 701. The photoelectric conversion units 702 and 703 receive light beams that have passed through an effective range outside the optical axis of the microlens 701, and each receive light beams in different regions of the exit pupil of the photographing optical system BL. EPa0 indicates a light beam range incident on the photoelectric conversion unit 702 on the virtual plane EP0, and EPb0 indicates a light beam range incident on the photoelectric conversion unit 703 on the virtual plane EP0.

なお、図2(c)が適用される場合には、光電変換部702、703が光電変換部403、404に対応し、光電変換部401と402は光電変換部702と703の紙面に垂直な奥行き方向に配置される。   When FIG. 2C is applied, the photoelectric conversion units 702 and 703 correspond to the photoelectric conversion units 403 and 404, and the photoelectric conversion units 401 and 402 are perpendicular to the paper surface of the photoelectric conversion units 702 and 703. Arranged in the depth direction.

図4は、位相差方式の焦点検出において焦点検出用画素から得られる、一対の被写体像(A像とB像)の信号波形AIO、BIOを示している。横軸Xは画素配置座標を表し、縦軸は光電変換信号強度を表している。信号波形は補間処理されている。位相差Lが相関距離(像ズレ量)であり、数式1からデフォーカス補正量を算出する。   FIG. 4 shows signal waveforms AIO and BIO of a pair of subject images (A image and B image) obtained from the focus detection pixels in the phase difference type focus detection. The horizontal axis X represents pixel arrangement coordinates, and the vertical axis represents photoelectric conversion signal intensity. The signal waveform is interpolated. The phase difference L is the correlation distance (image shift amount), and the defocus correction amount is calculated from Equation 1.

図5は、図2(a)に示す焦点検出用画素の受光強度分布特性情報を示し、図6は、図2(b)に示す焦点検出用画素の受光強度分布特性情報を示し、図7は、図2(c)に示す焦点検出用画素の受光強度分布特性情報を示している。   5 shows the light reception intensity distribution characteristic information of the focus detection pixel shown in FIG. 2A, FIG. 6 shows the light reception intensity distribution characteristic information of the focus detection pixel shown in FIG. These show the received light intensity distribution characteristic information of the focus detection pixels shown in FIG.

この場合の「受光強度分布特性」は、仮想面EPOの光線通過範囲PDを、光軸を原点とした複数の領域に分割した場合に、各領域を通過して焦点検出用画素に入射する光線の焦点検出用画素への入射角度に対する画素の受光感度比(光電変換信号強度比)である。図5〜図7において、XY座標は仮想面EPOに設定され、各軸とも光軸に直交する。LAとLBはA像用及びB像用焦点検出用画素の受光強度分布特性を示している。(a)と(b)は3次元の強度グラフを示し、XY座標の位置に対する正規化された出力信号強度が示されている。(c)は奥行き方向(Y座標)の中央断面のグラフを示し、L0は撮像用画素の受光強度分布特性を示しており、横軸はX座標(Y座標は0)で縦軸は正規化された出力信号強度である。   In this case, the “light reception intensity distribution characteristic” refers to a light beam that passes through each region and enters the focus detection pixel when the light beam passage range PD of the virtual plane EPO is divided into a plurality of regions with the optical axis as the origin. The light receiving sensitivity ratio (photoelectric conversion signal intensity ratio) of the pixel with respect to the incident angle to the focus detection pixel. 5 to 7, the XY coordinates are set on the virtual plane EPO, and each axis is orthogonal to the optical axis. LA and LB indicate received light intensity distribution characteristics of the A image and B image focus detection pixels. (A) and (b) are three-dimensional intensity graphs showing the normalized output signal intensity with respect to the position of the XY coordinates. (C) shows a graph of the central section in the depth direction (Y coordinate), L0 shows the received light intensity distribution characteristics of the imaging pixels, the horizontal axis is the X coordinate (Y coordinate is 0), and the vertical axis is normalized. Output signal strength.

図5は、図3(b)に示すスリット形状の遮光部材602によって、撮像用画素の受光強度分布特性の一部分を切り出したような特性を有する。図6は、図3(c)に示すように、一つの撮像画素中に複数の光電変換部を有し、LA及びLBは一部または複数を合成した光電変換強度と等価である。このため、LAとLBを加算した受光強度分布特性は撮像画素の受光強度分布特性L0と同等となる。図7は、図6においてマイクロレンズが製造工程においてX方向に偏心を生じたためにLAとLBの受光強度分布特性に非対称な性質が生じている場合を示している。また、前記瞳分割された受光強度分布特性LAとLBから撮影光学系のF値に応じた基線長情報を予めメモリ156に記憶しておく。   FIG. 5 has such a characteristic that a part of the received light intensity distribution characteristic of the imaging pixel is cut out by the slit-shaped light shielding member 602 shown in FIG. As shown in FIG. 3C, FIG. 6 has a plurality of photoelectric conversion units in one imaging pixel, and LA and LB are equivalent to the photoelectric conversion intensity obtained by combining a part or a plurality of photoelectric conversion units. For this reason, the light reception intensity distribution characteristic obtained by adding LA and LB is equivalent to the light reception intensity distribution characteristic L0 of the imaging pixel. FIG. 7 shows a case where an asymmetric property is generated in the received light intensity distribution characteristics of LA and LB because the microlens in FIG. 6 is decentered in the X direction in the manufacturing process. Also, baseline length information corresponding to the F value of the photographing optical system is stored in the memory 156 in advance from the pupil-divided received light intensity distribution characteristics LA and LB.

表1は、仮想面EPOの光線通過範囲PDを複数の領域に分割した場合、各領域を通過して焦点検出用画素に入射する光線の入射角度に対する焦点検出用画素からの出力信号強度である受光強度分布特性の情報を表し、図8(a)に対応する。図8(a)の左側は表1のY=0におけるX断面のグラフであり、図8(a)の右側は表1のグラフである。   Table 1 shows the output signal intensity from the focus detection pixel with respect to the incident angle of the light beam that passes through each region and enters the focus detection pixel when the light beam passage range PD of the virtual plane EPO is divided into a plurality of regions. It represents information of the received light intensity distribution characteristic and corresponds to FIG. The left side of FIG. 8A is a graph of the X cross section at Y = 0 in Table 1, and the right side of FIG.

表2は、仮想面EPOの各領域における撮影光学系BLの収差に起因する最良合焦位置のズレ(デフォーカス補正量)の正規化された分布であるデフォーカス補正分布情報を表し、図8(b)に対応する。図8(b)の左側は表2のY=0におけるX断面のグラフであり、図8(b)の右側は表2のグラフである。   Table 2 shows defocus correction distribution information, which is a normalized distribution of the shift (defocus correction amount) of the best in-focus position caused by the aberration of the photographing optical system BL in each region of the virtual surface EPO. Corresponds to (b). The left side of FIG. 8B is a graph of the X cross section at Y = 0 in Table 2, and the right side of FIG.

表3は、表1と表2の同一座標にある数値の積によって得られる情報である。表3では、光線有効範囲外の領域は判り易くするため、空欄としているが、空欄に0を入れてもよい。表3は、図8(c)に対応する。図8(c)の左側は表3のY=0におけるX断面のグラフであり、図8(c)の右側は表3のグラフである。   Table 3 is information obtained by multiplying numerical values at the same coordinates in Table 1 and Table 2. In Table 3, the area outside the light beam effective range is left blank for easy understanding, but 0 may be entered in the blank. Table 3 corresponds to FIG. The left side of FIG. 8C is a graph of the X section at Y = 0 in Table 3, and the right side of FIG.

表3を用いて最良な合焦補正位置を算出する。仮にX、Yがn×n分割の平方配列である表3のX、Y方向の各i、j番目の領域座標における数値をC(Xi、Yj)として、光線通過範囲PDの各領域の数値を積分し、光線通過範囲PDの領域総数をNとしたときに合焦位置補正量は次式のようになる。   Using Table 3, the best focus correction position is calculated. If X and Y are square arrays of n × n divisions, the numerical values in the i and j-th region coordinates in the X and Y directions in Table 3 are C (Xi, Yj), and the numerical values of each region of the light passage range PD. Is integrated and the total number of regions of the light passing range PD is set to N, the focus position correction amount is expressed by the following equation.

つまり、仮想面EPOの各領域について受光強度分布特性の値とデフォーカス補正分布の値の積を演算し、各領域の演算結果を積分して領域総数Nで割ることによって合焦位置補正量を算出する。   That is, the product of the received light intensity distribution characteristic value and the defocus correction distribution value is calculated for each region of the virtual plane EPO, and the calculation result of each region is integrated and divided by the total number N of regions to obtain the focus position correction amount. calculate.

レンズユニット101とカメラユニット121の組み合わせが変化しても受光強度分布特性情報と合焦位置補正情報を各ユニットに有するようにすれば、BP補正を簡単に行うことができる。具体的には、撮像素子の画素の受光強度分布特性の情報をカメラユニット121のメモリ156に記憶し、デフォーカス補正分布の情報をレンズユニット101のメモリ109に記憶する。本実施形態では、カメラCPU151は、メモリ156から受光強度分布特性の情報を取得し、デフォーカス補正分布情報入力回路からデフォーカス補正分布の情報を取得して表3と数式2の演算を行う。レンズCPU110に受光強度分布特性の情報を送信してレンズCPU110に表3と数式2の演算を行わせ、カメラCPU151は、レンズCPU110から演算結果を取得してもよい。   Even if the combination of the lens unit 101 and the camera unit 121 changes, if each unit has the received light intensity distribution characteristic information and the focus position correction information, the BP correction can be easily performed. Specifically, information on the received light intensity distribution characteristics of the pixels of the image sensor is stored in the memory 156 of the camera unit 121, and information on the defocus correction distribution is stored in the memory 109 of the lens unit 101. In the present embodiment, the camera CPU 151 obtains information on the received light intensity distribution characteristics from the memory 156, obtains information on the defocus correction distribution from the defocus correction distribution information input circuit, and calculates Table 3 and Equation 2. The camera CPU 151 may acquire the calculation result from the lens CPU 110 by transmitting the received light intensity distribution characteristic information to the lens CPU 110 and causing the lens CPU 110 to perform the calculations of Table 3 and Formula 2.

本実施形態では表3を表1と表2の数値の積によって取得しているが、どちらかの数値に重み付けしてもよいし、表3を表1と表2の数値の重み付け平均によって取得してもよい。また、数式2の積分にも重み付けしてもよい。   In this embodiment, Table 3 is acquired by the product of the numerical values of Table 1 and Table 2, but either numerical value may be weighted, or Table 3 is acquired by the weighted average of the numerical values of Table 1 and Table 2. May be. Also, the integration of Equation 2 may be weighted.

上述したように、焦点検出ユニット125による焦点検出においては、F値は有効F値に設定されるが、撮像素子の撮像面で焦点検出が行われる場合にはF値(あるいは絞り値)は変更される。このため、本実施形態では、カメラCPU151は、操作スイッチ173などからF値の情報を取得し、それに基づいて光線が入射する有効領域のデフォーカス補正分布を選択する。具体的には、表2の一部をF値に応じて選択する。そして、選択されたデフォーカス補正分布に対して表3と数式2の演算を行う。   As described above, in the focus detection by the focus detection unit 125, the F value is set to an effective F value. However, when focus detection is performed on the imaging surface of the image sensor, the F value (or aperture value) is changed. Is done. For this reason, in this embodiment, the camera CPU 151 acquires F value information from the operation switch 173 and the like, and selects a defocus correction distribution of an effective region on which a light ray enters based on the information. Specifically, a part of Table 2 is selected according to the F value. Then, the calculation of Table 3 and Formula 2 is performed on the selected defocus correction distribution.

このように、カメラユニットおよびレンズユニットに受光強度分布特性情報及び合焦位置補正情報を持たせておけば合焦位置補正量を得ることができるため、全てのカメラユニットとレンズユニットの組み合わせ数分の情報を持たせる必要が無くなる。   In this way, if the camera unit and the lens unit have the received light intensity distribution characteristic information and the focus position correction information, the focus position correction amount can be obtained. Therefore, the number of combinations of all camera units and lens units can be obtained. It is no longer necessary to have this information.

図9は、図8と同様であるが、撮像素子と撮影光学系の製造誤差を有する場合の例である。表4、5、6はそれぞれ図9(a)、図9(b)、図9(c)に対応する。例えば、製造工程で撮像素子のマイクロレンズの偏心や撮影光学系の光学偏心が生じた場合に、図9では、受光強度分布特性とデフォーカス補正分布を測定やシミュレーションを用いて取得している。   FIG. 9 is the same as FIG. 8 but shows an example in the case where there are manufacturing errors between the image sensor and the photographing optical system. Tables 4, 5, and 6 correspond to FIGS. 9A, 9B, and 9C, respectively. For example, when decentration of the microlens of the image sensor or optical decentration of the photographing optical system occurs in the manufacturing process, in FIG. 9, the received light intensity distribution characteristic and the defocus correction distribution are acquired using measurement or simulation.

図8に対して図9の受光強度分布特性およびでデフォーカス補正分布はそれぞれX方向にオフセットし、表6も表3から変化している。このため、数式2から求まる合焦位置補正量は図8とは異なる。このように、撮像素子や撮影光学系に合焦位置に影響を及ぼす製造誤差が生じてもBP補正を行うことができる。   Compared to FIG. 8, the received light intensity distribution characteristics and the defocus correction distribution of FIG. 9 are offset in the X direction, and Table 6 also changes from Table 3. For this reason, the focus position correction amount obtained from Expression 2 is different from that in FIG. Thus, BP correction can be performed even if a manufacturing error that affects the in-focus position occurs in the image sensor or the imaging optical system.

図10は、カメラCPU151のAF動作を示すフローチャートであり、「S」はステップを表す。ここではライブビュー時に撮像素子の撮像面の焦点検出用画素を用いて焦点検出動作を行う場合を示している。図10に示すフローチャートの少なくとも一部は、コンピュータに各ステップの機能を実行させるためのプログラムとして具現化が可能である。   FIG. 10 is a flowchart showing the AF operation of the camera CPU 151, and “S” represents a step. Here, the case where the focus detection operation is performed using the focus detection pixels on the imaging surface of the image sensor during live view is shown. At least a part of the flowchart shown in FIG. 10 can be embodied as a program for causing a computer to execute the function of each step.

撮影者がカメラの電源スイッチをオン操作すると、カメラCPU151はカメラ内の各アクチュエータや撮像素子132の動作確認を行ない、メモリ内容や実行プログラムの初期化を行なうと共に、撮影準備動作を実行する。   When the photographer turns on the power switch of the camera, the camera CPU 151 confirms the operation of each actuator and image sensor 132 in the camera, initializes the memory contents and the execution program, and executes the shooting preparation operation.

撮影者がシャッターボタン等を操作すると撮影動作が開始され、カメラCPU151は、撮影光学系のズーム位置やフォーカス位置、F値の情報を取得する(S100)。次に、任意または自動操作にて画素上の焦点検出範囲が選択され、カメラCPU151は、その情報を取得する(S101)。   When the photographer operates the shutter button or the like, the photographing operation is started, and the camera CPU 151 acquires information on the zoom position, focus position, and F value of the photographing optical system (S100). Next, a focus detection range on the pixel is selected arbitrarily or automatically, and the camera CPU 151 acquires the information (S101).

次に、カメラCPU151は、S100及びS101において取得した光学系の情報や焦点検出範囲の情報に基づいて、対象となる一対の焦点検出用画素の出力信号(例えば、図4に示すもの)を取得する(S102)。   Next, the camera CPU 151 acquires an output signal (for example, one shown in FIG. 4) of a target focus detection pixel based on the information on the optical system and the information on the focus detection range acquired in S100 and S101. (S102).

次に、カメラCPU151は、S102で得られた出力信号の相関演算を行って位相差Lを取得する(S103)。次に、カメラCPU151は、S103で取得した位相差LとS100で得たF値からF値に応じた基線長情報をメモリ156から取得して数式1からデフォーカス量DEFを算出する(S104)。   Next, the camera CPU 151 performs a correlation operation on the output signals obtained in S102 to obtain the phase difference L (S103). Next, the camera CPU 151 acquires baseline length information corresponding to the F value from the phase difference L acquired in S103 and the F value acquired in S100 from the memory 156, and calculates the defocus amount DEF from Equation 1 (S104). .

次に、カメラCPU151は、S104で得られたデフォーカス量から合焦とみなせるかどうかを判断する(S105)。カメラCPU151は、合焦していないと判断した場合は(S105のNo)、S104で算出されたデフォーカス量に基づいて第3レンズ群105を駆動する命令をフォーカス駆動回路161を介してレンズユニット101に送信し(S106)、S100に戻る。   Next, the camera CPU 151 determines whether or not focusing can be considered from the defocus amount obtained in S104 (S105). If the camera CPU 151 determines that it is not in focus (No in S105), it issues a command to drive the third lens group 105 based on the defocus amount calculated in S104 via the focus drive circuit 161. 101 is transmitted (S106), and the process returns to S100.

一方、カメラCPU151は、合焦していると判断した場合は(S105のYes)、BP補正を行う。即ち、カメラCPU151は、メモリ156から受光強度分布特性情報を取得し、デフォーカス補正分布情報入力回路155からデフォーカス補正分布情報を取得する(S107)。次に、カメラCPU151は、S100で得たF値からデフォーカス補正分布情報を選択する(S108)。   On the other hand, if the camera CPU 151 determines that it is in focus (Yes in S105), it performs BP correction. That is, the camera CPU 151 acquires the received light intensity distribution characteristic information from the memory 156, and acquires the defocus correction distribution information from the defocus correction distribution information input circuit 155 (S107). Next, the camera CPU 151 selects defocus correction distribution information from the F value obtained in S100 (S108).

次に、カメラCPU151は、表3と数式2の演算を行って合焦位置補正量を取得する(S109)。次に、カメラCPU151は、合焦補正量だけ第3レンズ群105を駆動する命令をフォーカス駆動回路161を介してレンズユニット101に送信し(S110)、焦点検出処理を終了する。これにより、合焦精度を向上することができる。なお、合焦位置補正量は補正量を算出する演算時間を高速に行えれば、S107〜S109はS100とS105の間に処理を行ってS105で合焦判定がOKであった場合にフォーカス補正駆動を行うようにしてもよい。   Next, the camera CPU 151 performs the calculation of Table 3 and Formula 2 to acquire the focus position correction amount (S109). Next, the camera CPU 151 transmits a command for driving the third lens group 105 by the focus correction amount to the lens unit 101 via the focus driving circuit 161 (S110), and the focus detection process is terminated. Thereby, the focusing accuracy can be improved. If the calculation time for calculating the correction amount can be performed at a high speed, the focus position correction amount can be processed at steps S107 to S109 between S100 and S105, and the focus correction is performed when the focus determination is OK in S105. You may make it drive.

本実施形態によれば、焦点検出用画素を利用した位相差方式の焦点検出を有する撮影装置において、撮像素子や撮影光学系の製造誤差成分を補正して合焦精度を向上することができる。   According to the present embodiment, in an imaging apparatus having phase difference type focus detection using focus detection pixels, it is possible to improve focusing accuracy by correcting manufacturing error components of the imaging element and the imaging optical system.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、本実施形態では、同一面(仮想面EPO)における受光強度分布特性情報とデフォーカス補正分布情報を利用しているが、異なる平面における受光強度分布特性情報とデフォーカス補正分布情報を利用してもよい。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, in this embodiment, light reception intensity distribution characteristic information and defocus correction distribution information on the same plane (virtual plane EPO) are used, but light reception intensity distribution characteristic information and defocus correction distribution information on different planes are used. May be.

本発明の撮像装置は、一眼レフカメラやコンパクトデジタルカメラの他にビデオカメラ等の撮像装置にも応用できるものである。   The image pickup apparatus of the present invention can be applied to an image pickup apparatus such as a video camera in addition to a single-lens reflex camera or a compact digital camera.

132…撮像素子、201〜204、300、400…焦点検出用画素、151…カメラCPU(カメラ制御手段)、ΔZ…合焦位置補正量 132: Image sensor, 201-204, 300, 400: Focus detection pixels, 151: Camera CPU (camera control means), ΔZ: Focus position correction amount

Claims (6)

位相差方式の焦点検出を行うための焦点検出用画素を有し、撮影光学系が形成する光学像を光電変換する撮像素子と、
前記撮像素子の前記焦点検出用画素による検出結果に基づいて前記撮影光学系をその光軸方向に移動させて焦点調節を行わせる制御手段と、
を有し、
前記制御手段は、前記焦点検出用画素の光線入射角度に対する前記焦点検出用画素からの出力信号強度を表す受光強度分布特性の情報と、前記撮影光学系の収差特性に起因するデフォーカス補正量の分布を表すデフォーカス補正分布の情報と、を利用して補正量を演算し、演算された前記補正量に基づいて前記撮影光学系を前記光軸方向に移動して最良合焦位置を補正することを特徴とする撮像装置。
An image sensor that has focus detection pixels for performing phase difference focus detection and photoelectrically converts an optical image formed by the imaging optical system;
Control means for adjusting the focus by moving the imaging optical system in the optical axis direction based on the detection result of the focus detection pixels of the image sensor;
Have
The control means includes information on a received light intensity distribution characteristic indicating an output signal intensity from the focus detection pixel with respect to a light incident angle of the focus detection pixel, and a defocus correction amount caused by an aberration characteristic of the photographing optical system. A correction amount is calculated using information on a defocus correction distribution representing the distribution, and the best focus position is corrected by moving the photographing optical system in the optical axis direction based on the calculated correction amount. An imaging apparatus characterized by that.
前記受光強度分布特性は、前記撮像素子の撮像面と前記撮影光学系の絞りとの間に配置され、前記撮影光学系の光軸に垂直な平面としての仮想面を考え、前記仮想面の光線通過範囲を複数の領域に分割した場合、各領域を通過して前記焦点検出用画素に入射する光線の入射角度に対する前記焦点検出用画素からの出力信号強度であり、
前記デフォーカス補正分布は、前記仮想面の各領域における前記デフォーカス補正量の分布を表し、
前記制御手段は、
前記仮想面の各領域について前記受光強度分布特性の値と前記デフォーカス補正分布の値の積を演算し、各領域の演算結果を積分して領域総数で割ることによって前記補正量を算出することを特徴とする請求項1に記載の撮像装置。
The received light intensity distribution characteristic is disposed between an imaging surface of the imaging device and a diaphragm of the photographing optical system, and considers a virtual surface as a plane perpendicular to the optical axis of the photographing optical system, and light rays of the virtual surface When the passage range is divided into a plurality of regions, the output signal intensity from the focus detection pixel with respect to the incident angle of the light beam that passes through each region and enters the focus detection pixel
The defocus correction distribution represents a distribution of the defocus correction amount in each region of the virtual surface,
The control means includes
Calculating the correction amount by calculating the product of the received light intensity distribution characteristic value and the defocus correction distribution value for each region of the virtual plane, and integrating the operation result of each region and dividing by the total number of regions. The imaging apparatus according to claim 1.
前記仮想面は前記撮影光学系の入射瞳面であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the virtual plane is an entrance pupil plane of the photographing optical system. 前記制御手段は、前記撮影光学系のF値を取得し、前記F値に基づいて前記光線が入射する前記デフォーカス補正分布を選択し、選択された前記デフォーカス補正分布に基づいて前記補正量を演算することを特徴とする請求項1乃至3のうちいずれか1項に記載の撮像装置。   The control means acquires an F value of the photographing optical system, selects the defocus correction distribution on which the light ray is incident based on the F value, and corrects the correction amount based on the selected defocus correction distribution. The imaging apparatus according to claim 1, wherein the imaging device is calculated. 前記受光強度分布特性の情報を保存した第1のメモリを更に有し、
前記制御手段は前記第1のメモリから前記受光強度分布特性の情報を取得することを特徴とする請求項1乃至4のうちいずれか1項に記載の撮像装置。
A first memory storing information on the received light intensity distribution characteristics;
5. The imaging apparatus according to claim 1, wherein the control unit acquires information on the received light intensity distribution characteristic from the first memory. 6.
請求項1乃至5のうちいずれか1項に記載の撮像装置と、当該撮像装置に着脱可能に装着されるレンズユニットからなる撮像システムであって、
前記レンズユニットは前記デフォーカス補正分布の情報を保存する第2のメモリを有し、前記制御手段は前記レンズユニットの前記第2のメモリから前記デフォーカス補正分布の情報を取得することを特徴とする撮像システム。
An imaging system comprising: the imaging device according to any one of claims 1 to 5; and a lens unit that is detachably attached to the imaging device.
The lens unit includes a second memory for storing information on the defocus correction distribution, and the control unit acquires the information on the defocus correction distribution from the second memory of the lens unit. Imaging system.
JP2013071313A 2013-03-29 2013-03-29 Imaging apparatus and imaging system Pending JP2014194502A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013071313A JP2014194502A (en) 2013-03-29 2013-03-29 Imaging apparatus and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013071313A JP2014194502A (en) 2013-03-29 2013-03-29 Imaging apparatus and imaging system

Publications (1)

Publication Number Publication Date
JP2014194502A true JP2014194502A (en) 2014-10-09

Family

ID=51839788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013071313A Pending JP2014194502A (en) 2013-03-29 2013-03-29 Imaging apparatus and imaging system

Country Status (1)

Country Link
JP (1) JP2014194502A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220114A (en) * 2015-05-22 2016-12-22 キヤノン株式会社 Imaging device and control method, system and program therefor
JP2018200480A (en) * 2018-07-26 2018-12-20 キヤノン株式会社 Imaging device and imaging system
JP2020129147A (en) * 2018-07-26 2020-08-27 キヤノン株式会社 Imaging device and imaging system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220114A (en) * 2015-05-22 2016-12-22 キヤノン株式会社 Imaging device and control method, system and program therefor
JP2018200480A (en) * 2018-07-26 2018-12-20 キヤノン株式会社 Imaging device and imaging system
JP2020129147A (en) * 2018-07-26 2020-08-27 キヤノン株式会社 Imaging device and imaging system

Similar Documents

Publication Publication Date Title
JP5458475B2 (en) Focus detection apparatus and imaging apparatus
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
JP5917207B2 (en) Focus adjustment device
US20120268613A1 (en) Image capturing apparatus and control method thereof
JP2007121896A (en) Focus detector and optical system
JP2012234152A (en) Imaging apparatus and control method thereof
JP5963552B2 (en) Imaging device
WO2020008832A1 (en) Distance measurement camera
JP2012123317A (en) Imaging apparatus and control method thereof
JP2014194502A (en) Imaging apparatus and imaging system
JP7292123B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP7171331B2 (en) Imaging device
JP2014142497A (en) Imaging apparatus and method for controlling the same
JP4560420B2 (en) Imaging device
JP6355348B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US9857663B1 (en) Phase detection autofocus system and method
JP2018180135A (en) Imaging device
JP5610005B2 (en) Imaging device
JP2017219791A (en) Control device, imaging device, control method, program, and storage medium
JP6395790B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2015087494A (en) Imaging device
JP6257201B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2009258231A (en) Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus