JP2012173309A - Focus detection device and control method therefor - Google Patents
Focus detection device and control method therefor Download PDFInfo
- Publication number
- JP2012173309A JP2012173309A JP2011031813A JP2011031813A JP2012173309A JP 2012173309 A JP2012173309 A JP 2012173309A JP 2011031813 A JP2011031813 A JP 2011031813A JP 2011031813 A JP2011031813 A JP 2011031813A JP 2012173309 A JP2012173309 A JP 2012173309A
- Authority
- JP
- Japan
- Prior art keywords
- light
- pair
- correction
- focus detection
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、一般には、撮像装置に搭載された焦点検出装置に係り、特に撮像光学系の焦点状態を検出する焦点検出装置およびその制御方法に関する。 The present invention generally relates to a focus detection device mounted on an imaging device, and more particularly to a focus detection device that detects a focus state of an imaging optical system and a control method thereof.
従来から、撮影レンズの焦点検出方法として、いわゆる像ずれ方式の焦点検出方式が知られている。この方式においては、比較すべき2つの光学像が単に横ずれしているだけの同一形状の像であることを前提としている。したがって、焦点検出に用いる光束に本来用いる必要のない光束(迷光)が含まれ、比較すべき光学像が異なる形状を有していると、焦点検出結果の精度悪化を引き起こす。このため、焦点検出に用いる光束は撮影レンズ、焦点検出の光学系中で迷光が発生しないよう、光学部品に反射防止コートを施したり、機構部品に、反射の少ない表面処理(塗装など)を施したりすることにより、迷光を減らす対策をしていた。しかしながら、光学部品や、機構部品の反射を低減することはできるものの、発生する迷光を、完全に存在しないよう構成することは困難であった。 Conventionally, a so-called image shift type focus detection method is known as a focus detection method of a photographing lens. In this method, it is assumed that the two optical images to be compared are images of the same shape that are merely laterally shifted. Therefore, if the light beam used for focus detection includes a light beam (stray light) that does not need to be used originally and the optical images to be compared have different shapes, the accuracy of the focus detection result is deteriorated. Therefore, to prevent stray light from being generated in the photographic lens and the focus detection optical system, the optical components are subjected to antireflection coating on the optical components, and surface treatment (painting, etc.) is applied to the mechanical components with little reflection. To reduce stray light. However, although it is possible to reduce the reflection of the optical component and the mechanism component, it is difficult to configure the stray light generated so that it does not exist completely.
従来、上記のような焦点検出に用いる光束に含まれる迷光による焦点検出結果への影響を低減する手法が提案されている。特許文献1に記載の焦点検出装置は、事前に迷光発生源と迷光の位置と光量の関係を記憶している。撮影時には、撮影範囲内の迷光発生源となりうる光量の多い領域について、その位置と光量を検出し、記憶されている迷光発生源と迷光の関係から、迷光の位置と光量を算出する。そして、算出された迷光の位置と光量を用いて、焦点検出領域における対の光学像光をそれぞれ光電変換した信号を補正することにより、焦点検出結果への影響を低減する対策が開示されている。 Conventionally, there has been proposed a method for reducing the influence of stray light included in a light beam used for focus detection as described above on a focus detection result. The focus detection apparatus described in Patent Document 1 stores in advance the relationship between the stray light generation source, the position of stray light, and the amount of light. At the time of photographing, the position and light amount of a region having a large amount of light that can be a stray light generation source within the photographing range are detected, and the position and light amount of stray light are calculated from the stored relationship between the stray light generation source and stray light. And the countermeasure which reduces the influence on a focus detection result is disclosed by correct | amending the signal which photoelectrically converted each pair of optical image light in a focus detection area | region using the position and light quantity of the calculated stray light. .
しかしながら、上述の特許文献1に開示された従来技術では、焦点検出領域における対の光学像光を光電変換した信号それぞれを、補正する必要があり、補正値も対の光学像光を光電変換した信号に対応して、記憶しておく必要があった。そのため、対の光学像それぞれに対する2種の補正データを必要とすることから、補正に必要な記憶データの容量が大きくなるという課題があった。また、より精度良い焦点検出を行うためには、微量の迷光も含めて、補正を行う必要がある。その場合には、補正値の階調を多くする必要があり、記憶データの容量の増大につながる。 However, in the conventional technique disclosed in Patent Document 1 described above, it is necessary to correct each of the signals obtained by photoelectrically converting the pair of optical image light in the focus detection region, and the correction value is also obtained by photoelectrically converting the pair of optical image light. It was necessary to memorize corresponding to the signal. Therefore, since two types of correction data for each pair of optical images are required, there is a problem that the capacity of stored data necessary for correction increases. Further, in order to perform focus detection with higher accuracy, it is necessary to perform correction including a small amount of stray light. In that case, it is necessary to increase the gradation of the correction value, leading to an increase in the capacity of stored data.
さらに、本来、ある迷光発生源から、対の光学像光を光電変換した信号に対して、同じ位置に、同程度の迷光が含まれている場合、焦点検出の結果に対して影響が小さい。上述の特許文献1に開示された従来技術では、対の光学像に対して、それぞれに補正値を用意しており、焦点検出の結果に対して、影響の小さい迷光に関する情報も記憶するよう構成されていた。 Furthermore, when the same position contains stray light at the same position with respect to a signal obtained by photoelectrically converting a pair of optical image light from a certain stray light generation source, the influence on the focus detection result is small. In the prior art disclosed in Patent Document 1 described above, correction values are prepared for each pair of optical images, and information on stray light that has a small influence on the focus detection result is also stored. It had been.
そこで、本発明の目的は、迷光の補正に関する情報の記憶容量を低減しながら、迷光に関して高精度に補正を行い、高精度に焦点検出を行う焦点検出装置およびその制御方法を提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide a focus detection apparatus and a control method therefor that perform high-precision focus detection and high-precision focus detection while reducing the storage capacity of information related to stray light correction. .
上記目的を達成するために、本発明の技術的特徴としては、撮影レンズの射出瞳の異なる領域を通過した対の光束により生成された対の光学像の位置関係に基づいて、前記撮影レンズの焦点状態を検出する焦点検出装置の制御方法であって、予め記憶された前記撮影レンズの被写界内の光源の位置と該光源の光量に応じた前記対の光学像の光量の差分に基づいて、前記対の光学像光をそれぞれ光電変換する光電変換部から出力される一方の信号を補正する補正ステップと、当該補正後の前記対の光電変換部の出力に応じてデフォーカス量を算出するデフォーカス量算出ステップとを有することを特徴とする。 In order to achieve the above object, the technical feature of the present invention is that, based on the positional relationship between the pair of optical images generated by the pair of light beams that have passed through different regions of the exit pupil of the photographing lens, A control method of a focus detection device for detecting a focus state, which is based on a difference between a light amount of a pair of optical images corresponding to a position of a light source in a field of the photographing lens stored in advance and the light amount of the light source. Then, a correction step for correcting one signal output from the photoelectric conversion unit that photoelectrically converts the pair of optical image lights, and a defocus amount is calculated according to the output of the photoelectric conversion unit after the correction And a defocus amount calculating step.
本発明によれば、迷光の補正に関する情報の記憶容量を低減しながら、迷光に関して高精度に補正を行い、高精度に焦点検出を行う焦点検出装置およびその制御方法を提供することができる。 According to the present invention, it is possible to provide a focus detection apparatus and a control method therefor that perform high-precision focus detection and high-precision focus detection while reducing the storage capacity of information related to stray light correction.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
以下、本発明の第1の実施例による本発明の焦点検出装置をレンズ交換可能な一眼レフタイプのデジタルカメラに適用した例について説明する。 Hereinafter, an example in which the focus detection apparatus of the present invention according to the first embodiment of the present invention is applied to a single-lens reflex digital camera capable of exchanging lenses will be described.
図1は、一眼レフカメラの中央断面図である。 FIG. 1 is a central sectional view of a single-lens reflex camera.
図中、200は一眼レフカメラ本体、201は撮影レンズで、Lは撮影レンズ201の光軸である。撮影レンズ201の予定結像面付近には、光学ローパスフィルタや赤外カットフィルタ、さらには撮像素子を含む撮像素子ユニット204が配置される。撮影レンズ201と撮像素子ユニット204には、周知のクイックリターン機構により撮影時には撮影光束外へ退避するメインミラー202とサブミラー203が配置される。メインミラー202はハーフミラーで、撮影光束は上方のファインダ光学系に導かれる反射光とサブミラー203に入射する透過光に分離される。反射光は、マット面とフレネル面を備えるピント板205のマット面上に結像し、ペンタプリズム206、接眼レンズ群207を介して観察者の目に導かれる。また、ピント板205で拡散した光の一部は測光レンズ220を透過し、測光センサ221に到達する。測光センサ221は、複数の画素に分割されており、各画素には、RGBのカラーフィルタが配置され、被写体の分光強度を検出することができる。一方、透過光はサブミラー203により下方へ光路を変更し、焦点検出部208に導かれる。メインミラー202で反射した光の一部が測光センサ221に到達し、メインミラー202を通過した光の一部が焦点検出部208に導かれる。 In the figure, 200 is a single-lens reflex camera body, 201 is a photographing lens, and L is an optical axis of the photographing lens 201. An image sensor unit 204 including an optical low-pass filter, an infrared cut filter, and an image sensor is disposed in the vicinity of the planned imaging plane of the photographic lens 201. The photographic lens 201 and the image sensor unit 204 are provided with a main mirror 202 and a sub mirror 203 that are retracted out of the photographic light beam during photographing by a known quick return mechanism. The main mirror 202 is a half mirror, and the photographing light beam is separated into reflected light guided to the upper viewfinder optical system and transmitted light incident on the sub mirror 203. The reflected light forms an image on the mat surface of the focusing plate 205 having the mat surface and the Fresnel surface, and is guided to the eyes of the observer through the pentaprism 206 and the eyepiece lens group 207. Further, part of the light diffused by the focus plate 205 passes through the photometric lens 220 and reaches the photometric sensor 221. The photometric sensor 221 is divided into a plurality of pixels, and an RGB color filter is arranged in each pixel to detect the spectral intensity of the subject. On the other hand, the transmitted light changes its optical path downward by the sub mirror 203 and is guided to the focus detection unit 208. Part of the light reflected by the main mirror 202 reaches the photometric sensor 221, and part of the light that has passed through the main mirror 202 is guided to the focus detection unit 208.
次に、図1で説明したカメラが有する焦点検出部について説明する。図2は、焦点検出部208の斜視図で、測距原理としては位相差方式焦点検出を用いている。なお、実際の焦点検出部は反射ミラーなどにより光路を折りたたむことによりコンパクト化しているが、図の煩雑さをなくすためストレートに展開した図となっている。 Next, the focus detection unit included in the camera described in FIG. 1 will be described. FIG. 2 is a perspective view of the focus detection unit 208 and uses phase difference focus detection as a distance measurement principle. Note that the actual focus detection unit is made compact by folding the optical path with a reflecting mirror or the like, but is a straight developed view to eliminate the complexity of the figure.
210は視野マスクで、中央部とその左右に十字型の開口部210a、210b、210cを有している。この視野マスク210は、撮影レンズ201の予定結像面、撮像素子ユニット204の撮像面と等価な位置近傍に配置される。211はフィールドレンズで、視野マスク210の後方に配置している。このフィールドレンズ211は光学作用を異にする複数のレンズ部211a、211b、211cから成っており、各レンズ部は互いに異なるレンズ光軸を有している。また、レンズ部211a、211b、211cは視野マスク210の開口部210a、210b、210cにそれぞれ対応している。 A field mask 210 has a central portion and cross-shaped openings 210a, 210b, and 210c on the left and right sides thereof. The field mask 210 is disposed in the vicinity of a position equivalent to the planned imaging plane of the photographing lens 201 and the imaging plane of the imaging element unit 204. A field lens 211 is disposed behind the field mask 210. The field lens 211 includes a plurality of lens portions 211a, 211b, and 211c having different optical actions, and each lens portion has a different lens optical axis. The lens portions 211a, 211b, and 211c correspond to the openings 210a, 210b, and 210c of the field mask 210, respectively.
212は複数の開口部を有する絞りで、213は絞り212の複数の開口部に対応するレンズ部を備える2次結像レンズユニット(結像レンズユニット)である。この2次結像レンズユニット213は撮影レンズ201によって結像された予定結像面上の物体像をその後方に配置された受光素子215の受光素子列上に再結像する。なお、絞り212の直前付近には焦点検出に不要な赤外波長成分を除去する赤外カットフィルタが配置されるが省略してある。 Reference numeral 212 denotes a stop having a plurality of openings, and reference numeral 213 denotes a secondary image forming lens unit (image forming lens unit) having lens portions corresponding to the plurality of openings of the stop 212. The secondary imaging lens unit 213 re-images the object image on the planned imaging surface imaged by the photographing lens 201 on the light receiving element array of the light receiving elements 215 arranged behind the object image. An infrared cut filter that removes an infrared wavelength component unnecessary for focus detection is disposed in the vicinity of the stop 212, but is omitted.
図3〜図5は、図2における斜視図中の各部材の平面図で、図3は絞り212を視野マスク210側から見た平面図である。図4(A)は2次結像レンズユニット213の入射面側を見た平面図、図4(B)は2次結像レンズユニット213の射出面側を見た平面図である。図5は受光素子215を視野マスク210側から見た平面図である。 3 to 5 are plan views of each member in the perspective view of FIG. 2, and FIG. 3 is a plan view of the diaphragm 212 as viewed from the field mask 210 side. 4A is a plan view of the secondary imaging lens unit 213 viewed from the incident surface side, and FIG. 4B is a plan view of the secondary imaging lens unit 213 viewed from the exit surface side. FIG. 5 is a plan view of the light receiving element 215 as viewed from the field mask 210 side.
図3において、絞り212は中央部に2組の対の開口部212a−1と212a−2、212a−3と212a−4を有する。そして、右側には2組の対の開口部212b−1と212b−2、212b−3と212b−4を、左側には2組の対の開口部212c−1と212c−2、212c−3と212c−4をそれぞれ有する。 In FIG. 3, the diaphragm 212 has two pairs of openings 212a-1 and 212a-2 and 212a-3 and 212a-4 at the center. Two pairs of openings 212b-1 and 212b-2, 212b-3 and 212b-4 are on the right side, and two pairs of openings 212c-1 and 212c-2, 212c-3 are on the left side. And 212c-4, respectively.
図4(A)において、2次結像レンズユニット213の入射面側には図3の絞り開口部に対応するプリズム部が形成されている。したがって、絞り212と同様に、中央部には2組の対のプリズム部213a−1と213a−2、213a−3と213a−4が形成される。そして、右側には2組の対の開口部213b−1と213b−2、213b−3と213b−4が、左側には2組の対の開口部213c−1と213c−2、213c−3と213c−4がそれぞれ形成される。 In FIG. 4A, a prism portion corresponding to the aperture of FIG. 3 is formed on the incident surface side of the secondary imaging lens unit 213. Therefore, like the diaphragm 212, two pairs of prism portions 213a-1 and 213a-2, 213a-3 and 213a-4 are formed in the central portion. Two pairs of openings 213b-1 and 213b-2, 213b-3 and 213b-4 are on the right side, and two pairs of openings 213c-1, 213c-2 and 213c-3 are on the left side. And 213c-4 are formed respectively.
図4(B)において、2次結像レンズユニット213の射出面側には図4(A)のプリズム部に対応して球面からなるレンズ部が形成されている。同様に、中央部には2組の対のレンズ部214a−1と214a−2、214a−3と214a−4が形成される。そして、左側には2組の対の開口部214b−1と214b−2、214b−3と214b−4が、右側には2組の対の開口部214c−1と214c−2、214c−3と214c−4がそれぞれ形成される。 In FIG. 4B, a spherical lens portion is formed on the exit surface side of the secondary imaging lens unit 213 corresponding to the prism portion of FIG. Similarly, two pairs of lens portions 214a-1 and 214a-2 and 214a-3 and 214a-4 are formed in the central portion. Two pairs of openings 214b-1 and 214b-2, 214b-3 and 214b-4 are on the left side, and two pairs of openings 214c-1, 214c-2 and 214c-3 are on the right side. And 214c-4 are formed respectively.
図5において、受光素子215には図4(B)のレンズ部に対応した光電変換部としての受光素子列が形成されている。同様に、中央部には2組の対の受光素子列215a−1と215a−2、215a−3と215a−4が形成される。そして、右側には2組の対の開口部215b−1と215b−2、215b−3と215b−4が、左側には2組の対の開口部215c−1と215c−2、215c−3と215c−4がそれぞれ形成される。受光素子列は対の光学像の光量の分布を検出し、対の電気信号を後述するPRSに出力する。 In FIG. 5, the light receiving element 215 is formed with a light receiving element array as a photoelectric conversion portion corresponding to the lens portion in FIG. Similarly, two pairs of light receiving element arrays 215a-1 and 215a-2, 215a-3 and 215a-4 are formed in the central portion. Two pairs of openings 215b-1 and 215b-2, 215b-3 and 215b-4 are on the right side, and two pairs of openings 215c-1, 215c-2 and 215c-3 are on the left side. And 215c-4 are formed. The light receiving element array detects the distribution of the light amount of the pair of optical images and outputs the pair of electrical signals to a PRS described later.
なお、図3〜5の各部材の添え字a、b、cは視野マスク210の開口部とフィールドレンズ211のレンズ部にそれぞれ対応している。例えば視野マスク開口部210bを通過した光束はフィールドレンズ211bを通過し、2組の対の絞り開口部212b−1と212b−2、212b−3と212b−4を通過することで4つの光束に分離される。そして、4つの光束は、それぞれ2次結像レンズユニット213の2組の対のプリズム部213b−1と213b−2、213b−3と213b−4に入射して、2組の対のレンズ部214b−1と214b−2、214b−3と214b−4から射出する。そして、受光素子215の2組の対の受光素子列215b−1と215b−2、215b−3と215b−4上に視野マスク開口部210bに対応した4つの光学像が形成される。図5に点線で示す4つの十字形216−1、216−2、216−3、216−4はそれぞれの光学像を示し、光学像216−1と216−2、光学像216−3と216−4がそれぞれ対となる。これらの対の光学像は、撮影レンズ201の射出瞳の異なる領域を通過した対の光束により生成された光学像である。 3 to 5 correspond to the opening portion of the field mask 210 and the lens portion of the field lens 211, respectively. For example, the light beam that has passed through the field mask opening 210b passes through the field lens 211b, and passes through two pairs of aperture openings 212b-1 and 212b-2, and 212b-3 and 212b-4, thereby forming four light beams. To be separated. The four light beams are incident on two pairs of prism portions 213b-1 and 213b-2, 213b-3 and 213b-4 of the secondary imaging lens unit 213, respectively, and two pairs of lens portions. It injects from 214b-1 and 214b-2, 214b-3 and 214b-4. Then, four optical images corresponding to the field mask opening 210b are formed on the two pairs of light receiving element rows 215b-1, 215b-2, 215b-3, and 215b-4 of the light receiving element 215. Four crosses 216-1, 216-2, 216-3, and 216-4 indicated by dotted lines in FIG. 5 indicate respective optical images, and optical images 216-1 and 216-2, and optical images 216-3 and 216, respectively. -4 is a pair. These pairs of optical images are optical images generated by a pair of light beams that have passed through different areas of the exit pupil of the photographing lens 201.
以上説明したような構成の焦点検出部において、撮影レンズ201の予定結像面に対するデフォーカスに伴い、対の光学像が互いに近づくかあるいは遠ざかる方向に移動する。 In the focus detection unit configured as described above, the pair of optical images move in a direction toward or away from each other with the defocusing of the photographing lens 201 with respect to the planned imaging plane.
例えば、対の光学像216−1と216−2内部の光学像は上下方向に移動し、図5に示すように受光素子列を上下方向に並べることによって、この移動を検出する。すなわち、この光学像に関する光量分布を受光素子列215b−1と215b−2の出力に基づいて検出する。そして、周知の相関演算手段を用いて演算することで、撮影レンズ201に伴う対の光学像間隔の合焦時に対する変化量を求める。ここで、受光素子列215b−1と215b−2の出力とは光学像光を受光して光電変換し出力した信号である。 For example, the optical images inside the pair of optical images 216-1 and 216-2 move in the vertical direction, and this movement is detected by arranging the light receiving element rows in the vertical direction as shown in FIG. That is, the light quantity distribution relating to this optical image is detected based on the outputs of the light receiving element arrays 215b-1 and 215b-2. Then, by calculating using a well-known correlation calculating means, the amount of change of the paired optical image interval associated with the taking lens 201 with respect to the in-focus state is obtained. Here, the outputs of the light receiving element arrays 215b-1 and 215b-2 are signals obtained by receiving optical image light, performing photoelectric conversion, and outputting the light.
対の光学像間隔の変化量(像ずれ量)を知ることができれば、この変化量と撮影レンズ201のデフォーカス量の関係をあらかじめ変化量を変数とした多項式などで近似しておくことで、撮影レンズ201のデフォーカス量を予測することができる。それにより、撮影レンズ201の焦点検出を行うことが可能となる。なお、受光素子列215b−3と215b−4の場合は、上記説明の上下方向が左右方向に変わるのみで、基本的な作用は同様である。 If the change amount (image shift amount) of the optical image interval of the pair can be known, the relationship between the change amount and the defocus amount of the photographing lens 201 is approximated by a polynomial having the change amount as a variable in advance. The defocus amount of the photographing lens 201 can be predicted. Thereby, it is possible to detect the focus of the photographing lens 201. In the case of the light receiving element arrays 215b-3 and 215b-4, the basic operation is the same except that the vertical direction described above is changed to the horizontal direction.
対の受光素子列215b−1と215b−2は上下方向に受光素子が並んでいるため上下方向にコントラスト成分を有する被写体の焦点検出に適している。一方、受光素子列215b−3と215b−4は左右方向に受光素子が並んでいるため左右方向にコントラスト成分を有する被写体の焦点検出に適している。そして、両者を合わせると被写体のコントラスト成分方向に左右されない、いわゆるクロス型の焦点検出を行うこととなる。 The pair of light receiving element arrays 215b-1 and 215b-2 are suitable for focus detection of a subject having a contrast component in the vertical direction because the light receiving elements are arranged in the vertical direction. On the other hand, the light receiving element arrays 215b-3 and 215b-4 are suitable for focus detection of a subject having a contrast component in the left and right direction because the light receiving elements are arranged in the left and right direction. When both are combined, so-called cross-type focus detection is performed that is not affected by the direction of the contrast component of the subject.
なお、上記説明は添え字bに関する部分のみを説明したが、添え字a、cについても同様である。 In the above description, only the part relating to the subscript b has been described, but the same applies to the subscripts a and c.
図6(A)は、受光素子215の各受光素子列を視野マスク210上に逆投影した図である。なお、視野マスク210は撮影レンズ201の予定結像面付近に配置されるので、図6(A)は予定結像面と考えても問題ない。図において、視野マスク210よりひと回り大きな点線で示す長方形217は、撮影レンズ201による撮影範囲である。また、3つの視野マスク開口部内には、十字形で示される受光素子列の逆投影像218a、218b、218c、219a、219b、219cが形成されている。対の受光素子列は予定結像面上では一致するため重ねて表示されている。そして、逆投影像218a、218b、218c、219a、219b、219cは受光素子列であるため、この十字領域において被写体の光量分布を検出することができる。すなわち、これら逆投影像がいわゆるクロス型の焦点検出領域となる。本実施例ではクロス型の焦点検出領域を図6のように撮影範囲217の中央部と周辺部2箇所の計3箇所を備え、この焦点検出領域にかかる被写体の焦点検出を行うことができる。そして、クロス型の焦点検出領域は、その広がり方向が直交する2方向であるため、被写体のコントラスト成分方向に左右されず、ほとんどの被写体での焦点検出を可能とする。 FIG. 6A is a diagram in which each light receiving element array of the light receiving elements 215 is back projected onto the field mask 210. Since the field mask 210 is disposed in the vicinity of the planned imaging plane of the photographic lens 201, there is no problem even if FIG. 6A is considered to be the planned imaging plane. In the figure, a rectangle 217 indicated by a dotted line that is slightly larger than the field mask 210 is an imaging range by the imaging lens 201. In addition, back projection images 218a, 218b, 218c, 219a, 219b, and 219c of the light receiving element arrays shown in a cross shape are formed in the three field mask openings. Since the pair of light receiving element arrays coincide on the planned imaging plane, they are displayed in an overlapping manner. Since the back-projected images 218a, 218b, 218c, 219a, 219b, and 219c are light receiving element arrays, the light amount distribution of the subject can be detected in this cross area. That is, these back-projected images become a so-called cross-type focus detection region. In this embodiment, the cross-type focus detection area is provided with a total of three places, that is, the central portion and the peripheral portion of the photographing range 217 as shown in FIG. 6, and the focus detection of the subject in the focus detection region can be performed. The cross-type focus detection area has two directions in which the spreading directions are orthogonal to each other, so that focus detection can be performed on most subjects regardless of the contrast component direction of the subject.
図6(B)は、図6(A)に対して、測光センサ221の検出範囲218を重ねて表示している。測光センサ221の検出範囲218は、縦に3分割、横に5分割され、計15個の領域を有している。各領域は、上述したRGBのカラーフィルタを備えた複数の画素から構成され、撮影範囲内の光量の分布を得ることができる。中央近傍の3箇所は、焦点検出領域210a〜cに対応した配置となっている。 FIG. 6B displays the detection range 218 of the photometric sensor 221 in an overlapping manner with respect to FIG. The detection range 218 of the photometric sensor 221 is divided into 3 parts vertically and 5 parts horizontally, and has a total of 15 areas. Each region is composed of a plurality of pixels provided with the above-described RGB color filters, and a light amount distribution within the photographing range can be obtained. Three locations near the center are arranged corresponding to the focus detection areas 210a to 210c.
図7に、図6(A)で示した撮影レンズ201の撮影範囲中に、被写体301が、存在する様子を示している。被写体301は、図中、上側が白部で、下側の斜線部は、黒部で構成される被写体である。図6で説明した受光素子列の逆投影像の中で、この被写体の光量分布を検出するのに適しているのは、218aである。図7では、逆投影像218aを、被写体301に重ねて図示している。図8(A)に、図7のような状態における逆投影像218aに対応した受光素子列215a−1、215a−2の出力信号を示している。被写体301に対してピントがずれた状態では、受光素子列215a−1の出力信号302−1と受光素子列215a−2の出力信号302−2は、図8(A)で示すように、対の光学像の波形の位置にずれが生じている。このような状態で、周知の相関演算手段により対の光学像の波形の位置合わせを行った状態を示したのが、図8(B)である。被写体から焦点検出部に到達する光束に迷光がない理想的な状態では、図8(B)に示すように、対の出力信号302−1、302−2は、ほぼ一致する。この場合、対の光学像の相関が非常に高いため、デフォーカス量の検出も高精度に行うことができる。 FIG. 7 shows a state where the subject 301 exists in the photographing range of the photographing lens 201 shown in FIG. The subject 301 is a subject composed of a white portion on the upper side and a shaded portion on the lower side in the drawing. In the backprojected image of the light receiving element array described with reference to FIG. 6, 218a is suitable for detecting the light amount distribution of the subject. In FIG. 7, the back-projected image 218 a is shown superimposed on the subject 301. FIG. 8A shows output signals of the light receiving element arrays 215a-1 and 215a-2 corresponding to the backprojected image 218a in the state shown in FIG. In a state where the subject 301 is out of focus, the output signal 302-1 of the light receiving element array 215a-1 and the output signal 302-2 of the light receiving element array 215a-2 are paired as shown in FIG. There is a deviation in the waveform position of the optical image. FIG. 8B shows a state in which the waveforms of the paired optical images are aligned by a known correlation calculation means in such a state. In an ideal state where there is no stray light in the light flux reaching the focus detection unit from the subject, the pair of output signals 302-1 and 302-2 are substantially coincident as shown in FIG. 8B. In this case, since the correlation between the pair of optical images is very high, the defocus amount can be detected with high accuracy.
しかしながら、実際には、被写体からの光束が、撮影レンズを通過し焦点検出部の受光素子に至るまでに様々な迷光を発生しうる。レンズなどの光学部品の表面での微小な反射や、光学部品を保持する機構部品の表面反射などが主な要因となる。 However, in actuality, various stray light may be generated when the light flux from the subject passes through the photographing lens and reaches the light receiving element of the focus detection unit. The main factors are minute reflection on the surface of an optical component such as a lens and surface reflection of a mechanical component that holds the optical component.
図9(A)に、図7と同一の被写体からの光束により、撮影レンズを通過し焦点検出部の受光素子に至るまでの何処かで発生した迷光が含まれた場合の出力波形を示す。図8(A)と同様に、受光素子列215a−1の出力信号303−1と受光素子列215a−2の出力信号303−2が得られた様子を示している。図8(A)の迷光のない理想的な状態に対して、出力信号303−1は、迷光により304,306の出力が増えている状態を示しており、出力信号303−2は、迷光により305の出力が増えている状態を示している。迷光は、上述の通り様々な場所で発生しうるが、発生する箇所により、対の光学像の両方に発生するものや、片方の光学像のみに発生するものが存在する。図9(A)では、対の出力信号303−1、303−2の両方に、同一の位置に同一の光量の迷光304,305が発生し、迷光306は、出力信号303−1にのみ発生した状態を示している。 FIG. 9A shows an output waveform in the case where stray light generated at some point from the same subject as in FIG. 7 through the photographing lens to the light receiving element of the focus detection unit is included. Similarly to FIG. 8A, the output signal 303-1 of the light receiving element array 215a-1 and the output signal 303-2 of the light receiving element array 215a-2 are obtained. In contrast to the ideal state without stray light in FIG. 8A, the output signal 303-1 indicates a state in which the outputs 304 and 306 are increased due to stray light, and the output signal 303-2 is due to stray light. The state where the output of 305 is increasing is shown. As described above, the stray light can be generated at various places. Depending on the place where the stray light is generated, there are those that occur in both the pair of optical images and those that occur only in one of the optical images. In FIG. 9A, the stray light 304, 305 having the same light amount is generated at the same position in both of the pair of output signals 303-1 and 303-2, and the stray light 306 is generated only in the output signal 303-1. Shows the state.
図9(B)には、図8(B)と同様に、周知の相関演算手段により対の光学像の波形の位置合わせを行った状態を示している。迷光により、対の出力波形の形状に差があるため、波形の位置のずれ量を算出する際の精度が悪化する。被写体301では、最もコントラストの高い白部と黒部の境界線部に対応する部分で、対の出力信号が一致するような相関演算部手段による波形の位置合わせ結果が得られることが理想であるが、図9(B)では、迷光の影響を受け、若干のずれが生じている。図中の307の矢印の間隔がずれを示している。このずれの主な原因は、出力信号303−1にのみ発生した迷光306によるもので、出力信号303−1、303−2の両方に、同じ位置、同じ光量で発生している迷光304、305の影響は少ない。これは、迷光306が存在しない場合には、出力信号303−1、303−2が完全に一致することからも明らかである。一般的に、迷光の影響は、空間周波数が低い被写体の方が受けやすく、非常に微小な迷光によっても、デフォーカス量の検出精度が悪化する。本実施例では、この迷光による対の光学像の形状の差を、出力信号の補正により低減することができる。補正の方法については、後ほど詳細に説明する。 FIG. 9B shows a state in which the waveforms of the paired optical images are aligned by a well-known correlation calculation means, as in FIG. 8B. Since there is a difference in the shape of the pair of output waveforms due to stray light, the accuracy in calculating the amount of deviation of the waveform position deteriorates. In the subject 301, it is ideal that a waveform alignment result obtained by the correlation calculation unit means that a pair of output signals coincide with each other in a portion corresponding to a boundary portion between a white portion and a black portion having the highest contrast. In FIG. 9B, a slight deviation occurs due to the influence of stray light. The interval between the arrows 307 in the figure indicates a deviation. The main cause of this shift is stray light 306 generated only in the output signal 303-1, and stray light 304, 305 generated in the same position and the same amount of light in both the output signals 303-1, 303-2. Is less affected. This is also clear from the fact that the output signals 303-1 and 303-2 completely match when the stray light 306 is not present. In general, the influence of stray light is more easily received by a subject having a low spatial frequency, and the detection accuracy of the defocus amount is deteriorated even by very minute stray light. In this embodiment, the difference in the shape of the paired optical images due to the stray light can be reduced by correcting the output signal. The correction method will be described in detail later.
以下に、迷光による対の光学像の形状の差に基づいて、出力信号の補正を行う方法について説明する。 Hereinafter, a method for correcting the output signal based on the difference in the shape of the pair of optical images caused by stray light will be described.
図10は、カメラのブロック図である。 FIG. 10 is a block diagram of the camera.
図中PRSはカメラの中央演算回路で、たとえばCPU,RAM,ROM,ADC(A/Dコンバータ)および入出力ポート等が配置された1チップマイクロコンピュータである。PRSは対の受光素子列の出力からデフォーカス量を算出する手段としての機能を有する。また、PRSは、後述するように対の受光素子列から出力される一方の電気信号を補正する機能も有する。また、ROM内にはAF制御を含む一連のカメラの制御用ソフトウエアおよびパラメータが格納されている。また、ROMは、後述する対の受光素子列から出力される一方の電気信号を補正するための補正情報も格納しており、該補正情報を記憶する機能を有する。 In the figure, PRS is a central processing circuit of the camera, which is a one-chip microcomputer in which, for example, a CPU, RAM, ROM, ADC (A / D converter), input / output ports and the like are arranged. The PRS has a function as means for calculating the defocus amount from the output of the pair of light receiving element arrays. The PRS also has a function of correcting one electric signal output from the pair of light receiving element arrays as will be described later. In addition, a series of camera control software and parameters including AF control are stored in the ROM. The ROM also stores correction information for correcting one electric signal output from a pair of light receiving element arrays described later, and has a function of storing the correction information.
DBUSはデータバスである。MDRは中央演算回路PRSより制御信号CMTRが入力している間データバスDBUSを介して入力するデータを受け付け、そのデータに基づいて不図示のモータの制御を行うモータ制御回路である。SHTは中央演算回路PRSより制御信号CSHTが入力している間データバスDBUSを介して入力するデータを受け付け、そのデータに基づいて不図示のシャッタ先幕及び後幕の走行制御を行うシャッタ制御回路である。APRは制御信号CAPRが入力している間データバスDBUSを介して入力するデータを受け付け、該データに基づいて不図示の絞り制御機構を制御する絞り制御回路である。SWSはレリーズスイッチSW1,SW2、連写モードスイッチ並びに各種情報設定用のスイッチ等のスイッチ群である。LCOMは制御信号CLCOMが入力している間データバスDBUSを介して入力するデータを受け付け、該データに基づいてレンズ制御回路LNSUとシリアル通信を行うレンズ通信回路である。レンズ通信回路LCOMはクロック信号LCKに同期してレンズ駆動用データDCLをレンズ制御回路へ伝送し、それと同時にレンズ情報DLCがシリアル入力する。レンズ駆動用データDCLは、装着されたカメラの種別情報や、カメラの焦点検出部の種別、撮影時のレンズ駆動量の情報などを含む。 DBUS is a data bus. The MDR is a motor control circuit that receives data input via the data bus DBUS while the control signal CMTR is input from the central processing circuit PRS, and controls a motor (not shown) based on the data. The SHT receives data input via the data bus DBUS while the control signal CSHT is input from the central processing circuit PRS, and based on the data, a shutter control circuit that performs travel control of a shutter front curtain and a rear curtain (not shown) It is. APR is an aperture control circuit that receives data input via the data bus DBUS while the control signal CAPR is input, and controls an aperture control mechanism (not shown) based on the data. SWS is a switch group such as release switches SW1 and SW2, continuous shooting mode switches, and various information setting switches. LCOM is a lens communication circuit that receives data input via the data bus DBUS while the control signal CLCOM is input, and performs serial communication with the lens control circuit LNSU based on the data. The lens communication circuit LCOM transmits lens driving data DCL to the lens control circuit in synchronization with the clock signal LCK, and at the same time, lens information DLC is serially input. The lens driving data DCL includes the type information of the mounted camera, the type of the focus detection unit of the camera, information on the lens driving amount at the time of shooting, and the like.
BSYは不図示の焦点調節用レンズが移動中であることをカメラ側に知らせる為の信号で、この信号が発生しているときは、シリアル通信は行われない。SPCは測光回路であり、中央演算回路PRSからの制御信号CSPCを受け取ると測光センサ221の測光出力SSPCを中央演算回路PRSへ送る。測光出力SSPCは中央演算回路PRS内部のADCでA/D変換され、前述のシャッタ制御回路SHT及び絞り制御回路APRを制御するためのデータとして用いられる。 BSY is a signal for informing the camera side that a focus adjustment lens (not shown) is moving. When this signal is generated, serial communication is not performed. SPC is a photometry circuit, and when it receives a control signal CSPC from the central processing circuit PRS, it sends the photometry output SSPC of the photometry sensor 221 to the central processing circuit PRS. The photometric output SSPC is A / D converted by the ADC in the central processing circuit PRS and used as data for controlling the shutter control circuit SHT and the aperture control circuit APR.
400は焦点検出用の補助光を投射するための投光回路で中央演算回路PRSからの制御信号ACT及び同期クロックCKによりLEDを駆動し発光させる。 Reference numeral 400 denotes a light projection circuit for projecting auxiliary light for focus detection, which drives the LED to emit light by the control signal ACT and the synchronous clock CK from the central processing circuit PRS.
SNSは対の受光素子列215a−1/215a−2、215a−3/215a−4・・・215c−3/215c−4を複数有する測距用受光回路である。それぞれの測距用受光回路は図6(A)の逆投影像218、219に対応した位置の像を受光するように構成されている。SDRは中央演算回路PRSより入力する信号STR,CKに従って各受光回路を制御するセンサ駆動回路である。センサ駆動回路SDRは制御信号φ1,φ2,CL,SHにより各受光回路を制御し、選択信号SEL1〜SEL6により受光回路のいずれか1つを選択して、その選択した受光回路から得られる像信号SSNSを中央演算回路PRSに送信する。 SNS is a ranging light receiving circuit having a plurality of pairs of light receiving element arrays 215a-1 / 215a-2, 215a-3 / 215a-4,... 215c-3 / 215c-4. Each distance measuring light receiving circuit is configured to receive an image at a position corresponding to the backprojected images 218 and 219 in FIG. SDR is a sensor drive circuit that controls each light receiving circuit in accordance with signals STR and CK input from the central processing circuit PRS. The sensor driving circuit SDR controls each light receiving circuit by the control signals φ1, φ2, CL, SH, selects any one of the light receiving circuits by the selection signals SEL1 to SEL6, and an image signal obtained from the selected light receiving circuit. SSNS is transmitted to the central processing circuit PRS.
図11は、レンズ制御回路LNSUがレンズの焦点距離情報、距離環情報を得る様子を示したものである。メモリ部401に、レンズ種別、距離環の位置、ズーム環の位置、デフォーカス量対焦点調節レンズ繰り出し量の係数などが記憶されている。これら記憶された情報は、信号に変換されてレンズ制御回路LNSU内の制御部403で演算され、レンズ情報DLCとしてレンズ通信回路LCOMを介して中央演算回路PRSに入力される。焦点距離を複数もつ撮影レンズ、いわゆるズームレンズの焦点距離情報は、連続的に変化する焦点距離を複数に分割した各範囲の代表値である。また、この場合の距離環の位置情報は直接合焦演算に使用するわけではないので、それほどの精度は必要としない。レンズ駆動部402は、撮影レンズ201を構成するレンズを移動させて焦点状態(フォーカス位置)を調整する。制御部403は撮影レンズ201全体の制御を司る。 FIG. 11 shows how the lens control circuit LNSU obtains focal length information and distance ring information of a lens. The memory unit 401 stores the lens type, the position of the distance ring, the position of the zoom ring, the coefficient of the defocus amount versus the focus adjustment lens extension amount, and the like. The stored information is converted into a signal, calculated by the control unit 403 in the lens control circuit LNSU, and input as lens information DLC to the central processing circuit PRS via the lens communication circuit LCOM. The focal length information of a photographing lens having a plurality of focal lengths, that is, a so-called zoom lens, is a representative value of each range obtained by dividing a continuously changing focal length into a plurality of ranges. Further, since the position information of the distance ring in this case is not directly used for the focus calculation, so much accuracy is not required. The lens driving unit 402 adjusts the focus state (focus position) by moving the lens constituting the photographing lens 201. A control unit 403 controls the entire photographing lens 201.
以下に、被写体から焦点検出部の受光素子に到達する光束に含まれる迷光の位置と光量を算出する方法、すなわち迷光補正について説明する。 Hereinafter, a method for calculating the position and the amount of stray light included in the light beam reaching the light receiving element of the focus detection unit from the subject, that is, stray light correction will be described.
本実施例において、ROMは迷光の発生源となる光源の位置と該光源の光量に対応して発生する迷光の受光素子中の位置と光量の関係を補正情報として記憶している。一方で、受光素子215の受光素子列を用いて、迷光の発生源となる光源の位置と光量を検出する。本実施例において、受光素子215は、撮影レンズの被写界内における迷光の発生源となる光源の位置及び、光源の光量を検出する機能を有している。あらかじめ記憶している補正情報と、検出された迷光の発生源となる光源の位置と光量を用いて補正量の算出を行う。詳細を以下に説明する。 In this embodiment, the ROM stores, as correction information, the relationship between the position of the light source that is the source of stray light and the position of the stray light in the light receiving element corresponding to the light amount of the light source and the amount of light. On the other hand, using the light receiving element array of the light receiving elements 215, the position and light amount of the light source that is the source of stray light are detected. In this embodiment, the light receiving element 215 has a function of detecting the position of the light source that is the source of stray light in the object field of the photographing lens and the light amount of the light source. The correction amount is calculated using the correction information stored in advance and the position and light amount of the light source that is the source of the detected stray light. Details will be described below.
図12は、図10のROM内に記憶されている補正情報の例を示している。縦軸には、迷光の発生源となる光源の位置を受光素子列を構成する画素の番号(m)で示している。横軸には、同様に迷光の発生位置を受光素子列を構成する画素の番号(n)で示している。表中には、迷光により発生する対の光学像の光量差(差分)を割合(K(m,n))で示している。例えば、迷光の発生源となる光源が、受光素子列中の6画素目に存在した場合には、受光素子列中の5〜9画素目に迷光の影響で、対の光学像の出力に差が発生する。さらに、受光素子列中の6画素目の出力の3%(K(6,7))が、7画素目に対の光学像の出力の差分として発生することを示している。ここで記憶されている対の光学像の光量差の割合は、対の光学像の位置関係において位置ずれがない、すなわちデフォーカス量がほぼ0の際の光量差である。デフォーカスしていて、対の光学像の位置にずれがある場合には、対の受光素子列の出力中における迷光の発生源となる光源の位置が異なるため、デフォーカス状態での出力差の発生要因は、迷光だけに限られない。そのため、本実施例では、対の光学像の位置ずれがない状態の対の光学像の光量差に着目した補正情報を記憶している。このような補正情報を記憶することにより、対の光学像に対応してそれぞれに補正情報を持つ必要がなく、ROMに記憶しておくべき補正情報の容量を低減することができる。また、図9で説明した迷光304、305のように対の光学像の両方に、同じ位置で同じ光量の迷光が発生した場合には、対応した補正情報は0%となるため、上述した通り焦点検出の精度に悪影響を与えない迷光に関して、補正情報の容量の低減につながる。また、補正情報が対の光学像の光量の差分を用いることにより、片方の光学像の迷光を扱うより、より微量な光量の迷光を補正対象として扱うことができる。例えば、補正情報を作成するために、実測に基づいて迷光の位置と光量の測定を行う場合に、片方の光学像の測定だけを行うと、被写体の輝度ムラと迷光を切り分けるのが困難である。そのため、迷光として認識できる光量の閾値が大きくなり、微量な光量の迷光は補正の対象から外れてしまう。本実施例のように、対の光学像の差分を用いることにより、精度良く迷光を検出することができ、少ない情報容量で補正情報を構成することができる。 FIG. 12 shows an example of correction information stored in the ROM of FIG. On the vertical axis, the position of the light source that is the source of stray light is indicated by the number (m) of the pixels constituting the light receiving element array. Similarly, the horizontal axis indicates the generation position of stray light by the number (n) of the pixels constituting the light receiving element array. In the table, the light amount difference (difference) between a pair of optical images generated by stray light is shown as a ratio (K (m, n)). For example, when the light source that is the source of stray light is present at the sixth pixel in the light receiving element array, the difference in the output of the paired optical image is caused by the stray light at the fifth to ninth pixels in the light receiving element array. Will occur. Further, it is shown that 3% (K (6, 7)) of the output of the sixth pixel in the light receiving element array is generated as the difference between the outputs of the paired optical images at the seventh pixel. The ratio of the light amount difference between the paired optical images stored here is the light amount difference when there is no positional shift in the positional relationship between the paired optical images, that is, when the defocus amount is almost zero. When defocusing occurs and there is a deviation in the position of the pair of optical images, the position of the light source that is the source of stray light during the output of the pair of light receiving element arrays is different. The generation factor is not limited to stray light. Therefore, in this embodiment, correction information focusing on the light amount difference between the pair of optical images in a state where there is no positional deviation between the pair of optical images is stored. By storing such correction information, it is not necessary to have correction information for each pair of optical images, and the capacity of correction information to be stored in the ROM can be reduced. Further, when the same amount of stray light is generated at the same position in both the pair of optical images as in the stray light 304 and 305 described with reference to FIG. 9, the corresponding correction information is 0%. Concerning stray light that does not adversely affect the accuracy of focus detection, the correction information capacity is reduced. Further, by using the difference between the light amounts of the paired optical images as the correction information, it is possible to treat a smaller amount of stray light as a correction target than to handle the stray light of one optical image. For example, when measuring the position and light amount of stray light based on actual measurement to create correction information, it is difficult to separate the luminance unevenness and stray light of the subject if only one optical image is measured. . For this reason, the threshold of the amount of light that can be recognized as stray light becomes large, and a very small amount of stray light is excluded from the correction target. As in this embodiment, by using the difference between the pair of optical images, stray light can be detected with high accuracy, and correction information can be configured with a small information capacity.
次に、上述した補正情報を用いた補正の方法について説明する。本実施例では、補正情報として記憶されている情報は、対の光学像の出力の差分であるため、対の出力信号のうち、片方の出力信号にのみ補正を行うことで、迷光に関する補正を行うことができる。図9(A)で説明した対の出力信号303−1、303−2の各画素ごとの出力をX(n),Y(n)とする。nは、画素の番号を示しており、図9(A)では、横軸で右に進むにつれ、画素番号が1から順に増えていくことを示している。本実施例では、補正をX(n)の出力波形に対して行うとし、補正後の信号をX2(n)とすると、補正後の信号をX2(n)は、以下のように記される。 Next, a correction method using the correction information described above will be described. In this embodiment, since the information stored as the correction information is the difference between the outputs of the pair of optical images, correction for stray light can be performed by correcting only one of the pair of output signals. It can be carried out. Assume that the output of each pixel of the pair of output signals 303-1 and 303-2 described in FIG. 9A is X (n) and Y (n). n indicates a pixel number, and in FIG. 9A, the pixel number increases in order from 1 as it proceeds to the right on the horizontal axis. In this embodiment, when correction is performed on the output waveform of X (n) and the corrected signal is X2 (n), the corrected signal X2 (n) is written as follows. .
Mは、迷光が発生しうる光源位置を示す画素番号である。図12中では、出力信号303−1を構成する画素数N(表中は15画素)と同数としたが、これに限らない。より広い範囲で、迷光が発生する可能性がある場合には、Mはより大きい値を持てばよい。 M is a pixel number indicating a light source position where stray light may be generated. In FIG. 12, the number of pixels constituting the output signal 303-1 is the same as the number N of pixels (15 pixels in the table), but the present invention is not limited to this. If stray light may be generated over a wider range, M may have a larger value.
上述のように補正を行う場合には、補正情報K(m,n)は、X(n)‐Y(n)の情報を基に迷光の量を設定すればよい。補正を終えた後、X2(n)とY(n)を用いて周知の相関演算手段を用いて演算することで、デフォーカス量を算出することができる。 When correction is performed as described above, the correction information K (m, n) may be set with the amount of stray light based on the information of X (n) -Y (n). After the correction is completed, the defocus amount can be calculated by calculating using X2 (n) and Y (n) using a well-known correlation calculating means.
上記構成によるカメラの焦点検出動作について、図13のフローチャートに従って説明する。 The focus detection operation of the camera having the above configuration will be described with reference to the flowchart of FIG.
カメラの撮影フローにおいて、カメラのレリーズスイッチの第1ストローク操作(いわゆる半押し操作)や、専用の焦点検出動作開始スイッチを検出すると焦点検出動作を開始する。 In the camera shooting flow, when a first stroke operation (so-called half-pressing operation) of the release switch of the camera or a dedicated focus detection operation start switch is detected, the focus detection operation is started.
ステップ1(図では、「S」と略す)では、事前に指定された焦点検出領域に関する受光素子の露光を行う。受光素子215内に設けられた露光量調整手段により、受光する光量が飽和しないよう制御され、露光が終了する。その後、指定された焦点検出領域に対応した受光回路から得られる像信号SSNSを中央演算回路PRSに送信する。 In step 1 (abbreviated as “S” in the figure), the light receiving element is exposed with respect to a focus detection region designated in advance. The exposure amount adjusting means provided in the light receiving element 215 is controlled so as not to saturate the amount of light received, and the exposure ends. Thereafter, the image signal SSNS obtained from the light receiving circuit corresponding to the designated focus detection area is transmitted to the central processing circuit PRS.
ステップ2では、受光素子列からの像信号に基づいて、指定されている焦点検出領域の焦点検出結果、すなわちデフォーカス量を算出する。ここでは、対の受光素子列から得られた像信号を用いて、相関演算を用いた公知の手法、例えば特公平5−88445号公報に開示されている手法を用いて位相差を検出することにより、デフォーカスの方向を含めたデフォーカス量を算出することができる。また、像信号のコントラスト等から公知の手法によって、それぞれの焦点検出可能・不可能の判定を行う。 In step 2, the focus detection result of the designated focus detection region, that is, the defocus amount is calculated based on the image signal from the light receiving element array. Here, a phase difference is detected using a known method using correlation calculation, for example, a method disclosed in Japanese Patent Publication No. 5-88445, using image signals obtained from a pair of light receiving element arrays. Thus, the defocus amount including the defocus direction can be calculated. Also, it is determined whether or not each focus can be detected by a known method based on the contrast of the image signal.
ステップ3では、中央演算回路PRSは、算出されたデフォーカス量が、所定の値以下であるかを判定する。上述した通り補正情報は、対の光学像の出力の差分から計算されたものであるため、デフォーカス量がある程度小さい、すなわち対の光学像の出力波形が、概ね重なっていることを前提としている。そのため、ステップ3では、補正が可能なデフォーカス量であるか否かを判定する。ステップ3でNOが選択された場合は、デフォーカス量が大きく、補正に適さないため、ステップ7に移行し、ステップ2で算出されたデフォーカス量に基づき撮影レンズを駆動し、再びステップ1から焦点検出動作を行う。 In step 3, the central processing circuit PRS determines whether the calculated defocus amount is equal to or less than a predetermined value. As described above, since the correction information is calculated from the difference between the outputs of the pair of optical images, it is assumed that the defocus amount is small to some extent, that is, the output waveforms of the pair of optical images are almost overlapped. . Therefore, in step 3, it is determined whether or not the defocus amount is correctable. If NO is selected in step 3, since the defocus amount is large and is not suitable for correction, the process proceeds to step 7, and the photographic lens is driven based on the defocus amount calculated in step 2, and from step 1 again. Performs focus detection.
ステップ3でYESが選択された場合には、ステップ4に移行し、上述した方法で、迷光の影響を低減するため、対の光学像の出力波形の片方に補正を行う。 If YES is selected in step 3, the process proceeds to step 4 and correction is performed on one of the output waveforms of the pair of optical images in order to reduce the influence of stray light by the method described above.
ステップ5では、ステップ4で算出された補正後の出力波形を用いてデフォーカス量を算出する。算出方法は、ステップ2と同様である。 In step 5, the defocus amount is calculated using the corrected output waveform calculated in step 4. The calculation method is the same as in step 2.
ステップ6では、算出したデフォーカス量から、合焦状態であるかを判定する。ステップ6でNO、すなわち、合焦状態ではないと判定された場合、焦点検出処理結果から算出されたデフォーカス量に応じて、撮影レンズの駆動を開始し、再び、ステップ1から焦点検出動作を行う(ステップ7)。ステップ6でYES、すなわち合焦状態であると判定された場合、撮影動作を開始させるためのレリーズスイッチの第2ストローク操作(いわゆる全押し操作)を待つ状態となり、焦点検出処理を終了する。一定時間待機状態が続くと、焦点検出状況が変化した可能性があるため、再び焦点検出動作を開始する。 In step 6, it is determined from the calculated defocus amount whether the in-focus state is achieved. If NO in step 6, that is, if it is determined that the in-focus state is not obtained, driving of the photographing lens is started according to the defocus amount calculated from the focus detection processing result, and the focus detection operation is performed again from step 1. Perform (Step 7). If YES in step 6, that is, if it is determined that the subject is in focus, the second switch operation (so-called full press operation) of the release switch for starting the photographing operation is waited for, and the focus detection process is terminated. If the standby state continues for a certain period of time, the focus detection situation may have changed, so the focus detection operation is started again.
以上のように構成することにより、迷光の補正に関する情報の記憶容量を低減しながら、迷光に関して高精度に補正を行い、高精度に焦点検出を行うことができる。 With the configuration described above, it is possible to correct the stray light with high accuracy and perform focus detection with high accuracy while reducing the storage capacity of the information related to the correction of stray light.
上述した例では、迷光の発生源となる光源の位置を検出する光源検出手段として受光素子215を用いた例を示したが、光源検出手段はこれに限らない。例えば、測光センサ221を用いて、迷光の発生源となる光源の位置及び光量を検出することができる。その場合には、焦点検出領域外の迷光の発生源の影響を低減させることができ、より精度のよい迷光の補正を行うことができる。 In the above-described example, the example in which the light receiving element 215 is used as the light source detection unit that detects the position of the light source that is the generation source of the stray light is shown, but the light source detection unit is not limited thereto. For example, the photometric sensor 221 can be used to detect the position and light amount of a light source that is a source of stray light. In this case, the influence of the stray light generation source outside the focus detection area can be reduced, and the stray light can be corrected with higher accuracy.
また、上述した例では、算出されるデフォーカス量が所定値以下になると、必ず補正を行うよう構成されているが、焦点検出処理の方法はこれに限らない。すなわち、対の受光素子列から得られる光学像の空間周波数情報(被写体のコントラスト)により補正を行うか否かの判断を行うようにしてもよい。一般に迷光の光量は、本来の被写体から得られる光量に比べ微小であるため、被写体のコントラストが高い場合には、焦点検出結果に対する悪影響は小さい。そのため、例えば、図13中のステップ3の後に、被写体のコントラストが所定値に対して大きいか小さいかを判定し、大きい場合には、迷光の影響は小さいと判断し、迷光補正とデフォーカス量算出を省略することも可能である。換言すれば、被写体のコントラストが所定値以下の場合には受光素子列からの出力を補正すると判断し、被写体のコントラストが所定値より大きい場合には受光素子列からの出力を補正しないと判断する。その場合、無駄な補正処理が行われないため、焦点検出処理の高速化が図れる。 In the above-described example, the correction is always performed when the calculated defocus amount is equal to or smaller than the predetermined value. However, the focus detection processing method is not limited thereto. That is, it may be determined whether or not to perform correction based on the spatial frequency information (subject contrast) of the optical image obtained from the pair of light receiving element arrays. In general, the amount of stray light is very small compared to the amount of light obtained from the original subject. Therefore, when the contrast of the subject is high, the adverse effect on the focus detection result is small. Therefore, for example, after step 3 in FIG. 13, it is determined whether the contrast of the subject is large or small with respect to a predetermined value. If it is large, it is determined that the influence of stray light is small, and stray light correction and defocus amount are performed. It is also possible to omit the calculation. In other words, it is determined that the output from the light receiving element array is corrected when the contrast of the subject is equal to or less than a predetermined value, and it is determined that the output from the light receiving element array is not corrected when the contrast of the subject is greater than the predetermined value. . In this case, since unnecessary correction processing is not performed, the speed of focus detection processing can be increased.
また、上述した例では、一度の露光(図13のステップ1)結果に基づいて、補正実行の判断、デフォーカス量の判定、迷光補正を行ったが、焦点検出処理の方法は、これに限らない。対の光学像の空間周波数情報(被写体のコントラスト)などの情報により補正を行うか否かの判断を行う場合には、ある程度デフォーカス量が大きい場合でも、判断可能である。そのため、例えば、デフォーカス量が所定の値以下か否かを判定する前の図13中のステップ1の後に、被写体のコントラストが所定値に対して大きいか小さいかを判定し、大きい場合には、迷光の影響は小さいと判断し、補正を省略することも可能である。つまり、迷光補正を行うか否かの判断は、補正を行う対の光電変換部の出力が得られる以前の対の光電変換部の出力から行われることとなる。その場合、焦点検出動作のより初期のステップで、補正処理の必要性を判断できるため、焦点検出処理の高速化が図れる。 Further, in the above-described example, correction execution determination, defocus amount determination, and stray light correction are performed based on the result of one exposure (step 1 in FIG. 13). However, the focus detection processing method is not limited thereto. Absent. When determining whether or not to perform correction based on information such as the spatial frequency information (subject contrast) of the pair of optical images, the determination can be made even when the defocus amount is large to some extent. Therefore, for example, after step 1 in FIG. 13 before determining whether the defocus amount is equal to or smaller than a predetermined value, it is determined whether the contrast of the subject is larger or smaller than the predetermined value. It is possible to determine that the influence of stray light is small and to omit the correction. That is, whether or not stray light correction is performed is determined from the output of the pair of photoelectric conversion units before the output of the pair of photoelectric conversion units to be corrected is obtained. In this case, since the necessity for the correction process can be determined in an earlier step of the focus detection operation, the speed of the focus detection process can be increased.
本実施例では、焦点検出方法として、再結像を行う光学系を有する焦点検出部を用いて説明したが、焦点検出方法は、これに限って適用できるのではなく、他の様々な焦点検出方法においても応用可能である。例えば、特開2000−156823号公報に開示されているような撮影レンズの予定結像面210に配された対の画素により、撮影レンズ201の異なる部分を通る光束を用いて位相差方式焦点検出を行う場合も有効である。 In this embodiment, a focus detection unit having an optical system that performs re-imaging has been described as a focus detection method. However, the focus detection method is not limited to this, and various other focus detection methods can be used. The method can also be applied. For example, a phase difference type focus detection using a pair of pixels arranged on the planned imaging plane 210 of the photographing lens as disclosed in Japanese Patent Laid-Open No. 2000-156823 using light beams passing through different portions of the photographing lens 201 It is also effective when performing.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
本発明により、精度の良い迷光に関する補正を実現可能な高精度の焦点検出装置を提供することが可能である。 According to the present invention, it is possible to provide a high-accuracy focus detection device that can realize accurate correction for stray light.
200 一眼レフカメラ本体
201 撮影レンズ
208 焦点検出部
210 視野マスク
211 フィールドレンズ
212 絞り
215 受光素子(列)
216 光学像
221 測光センサ
LCOM レンズ通信回路
PRS 中央演算回路
ROM 情報記憶手段
200 SLR Camera Body 201 Shooting Lens 208 Focus Detection Unit 210 Field Mask 211 Field Lens 212 Diaphragm 215 Light-Receiving Element (Row)
216 Optical image 221 Photometric sensor LCOM Lens communication circuit PRS Central processing circuit ROM Information storage means
Claims (5)
前記対の光学像光をそれぞれ光電変換して信号を出力する対の光電変換部と、
前記対の光電変換部の出力に応じてデフォーカス量を算出するデフォーカス量算出手段と、
前記撮影レンズの被写界内の光源の位置と該光源の光量を検出する光源検出手段と、
前記撮影レンズの被写界内の光源の位置と該光源の光量に応じた前記対の光学像光の光量の差分を、前記対の光電変換部から出力される一方の信号を補正するための補正情報として記憶する記憶手段と、
前記対の光電変換部から出力される一方の信号を前記光源検出手段の検出結果と前記記憶手段の補正情報とに基づいて補正する補正手段と、を有することを特徴とする焦点検出装置。 A focus detection device that detects a focus state of the photographing lens based on a positional relationship between a pair of optical images generated by a pair of light beams that have passed through different regions of the exit pupil of the photographing lens,
A pair of photoelectric conversion units that photoelectrically convert the pair of optical image lights and output a signal;
Defocus amount calculating means for calculating a defocus amount according to the output of the pair of photoelectric conversion units;
Light source detection means for detecting the position of the light source in the field of view of the photographing lens and the light quantity of the light source;
For correcting one of the signals output from the pair of photoelectric conversion units, the difference between the light amount of the pair of optical image light according to the position of the light source in the object field of the photographing lens and the light amount of the light source Storage means for storing correction information;
A focus detection apparatus comprising: a correction unit that corrects one signal output from the pair of photoelectric conversion units based on a detection result of the light source detection unit and correction information of the storage unit.
該判断手段による補正を行うか否かの判断は、前記対の光電変換部の出力から得られる光学像光の空間周波数情報により行われることを特徴とする請求項1に記載の焦点検出装置。 A determination means for determining whether to perform the correction;
The focus detection apparatus according to claim 1, wherein whether or not to perform correction by the determination unit is determined based on spatial frequency information of optical image light obtained from outputs of the pair of photoelectric conversion units.
該判断手段による補正を行うか否かの判断は、補正を行う前記対の光電変換部の出力が得られる以前の前記対の光電変換部の出力から行われることを特徴とする請求項1に記載の焦点検出装置。 A determination means for determining whether to perform the correction;
The determination as to whether or not to perform correction by the determination means is performed from the output of the pair of photoelectric conversion units before the output of the pair of photoelectric conversion units to be corrected is obtained. The focus detection apparatus described.
予め記憶された前記撮影レンズの被写界内の光源の位置と該光源の光量に応じた前記対の光学像光の光量の差分に基づいて、前記対の光学像光をそれぞれ光電変換する光電変換部から出力される一方の信号を補正する補正ステップと、
当該補正後の前記対の光電変換部の出力に応じてデフォーカス量を算出するデフォーカス量算出ステップとを有することを特徴とする制御方法。
A control method of a focus detection device that detects a focus state of the photographing lens based on a positional relationship between a pair of optical images generated by a pair of light beams that have passed through different regions of the exit pupil of the photographing lens,
Photoelectrics for photoelectrically converting the pair of optical image lights based on the difference between the light source position in the field of the photographing lens stored in advance and the light quantity of the pair of optical image lights according to the light quantity of the light source. A correction step for correcting one of the signals output from the conversion unit;
And a defocus amount calculation step of calculating a defocus amount according to the output of the pair of photoelectric conversion units after the correction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011031813A JP5773680B2 (en) | 2011-02-17 | 2011-02-17 | Focus detection apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011031813A JP5773680B2 (en) | 2011-02-17 | 2011-02-17 | Focus detection apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012173309A true JP2012173309A (en) | 2012-09-10 |
JP5773680B2 JP5773680B2 (en) | 2015-09-02 |
Family
ID=46976304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011031813A Expired - Fee Related JP5773680B2 (en) | 2011-02-17 | 2011-02-17 | Focus detection apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5773680B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05264892A (en) * | 1992-03-17 | 1993-10-15 | Olympus Optical Co Ltd | Automatic focusing device |
JPH10133095A (en) * | 1996-10-30 | 1998-05-22 | Olympus Optical Co Ltd | Focus detector |
JP2003057531A (en) * | 2001-08-10 | 2003-02-26 | Seiko Precision Inc | Method and device for phase difference detection, range finder, and image pickup device |
JP2003241075A (en) * | 2002-02-22 | 2003-08-27 | Canon Inc | Camera system, camera and photographic lens device |
JP2006184321A (en) * | 2004-12-24 | 2006-07-13 | Canon Inc | Focus detecting device and optical equipment equipped with focus detecting device |
JP2008129466A (en) * | 2006-11-22 | 2008-06-05 | Canon Inc | Imaging apparatus and imaging system |
JP2009053568A (en) * | 2007-08-29 | 2009-03-12 | Canon Inc | Imaging apparatus and imaging system |
-
2011
- 2011-02-17 JP JP2011031813A patent/JP5773680B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05264892A (en) * | 1992-03-17 | 1993-10-15 | Olympus Optical Co Ltd | Automatic focusing device |
JPH10133095A (en) * | 1996-10-30 | 1998-05-22 | Olympus Optical Co Ltd | Focus detector |
JP2003057531A (en) * | 2001-08-10 | 2003-02-26 | Seiko Precision Inc | Method and device for phase difference detection, range finder, and image pickup device |
JP2003241075A (en) * | 2002-02-22 | 2003-08-27 | Canon Inc | Camera system, camera and photographic lens device |
JP2006184321A (en) * | 2004-12-24 | 2006-07-13 | Canon Inc | Focus detecting device and optical equipment equipped with focus detecting device |
JP2008129466A (en) * | 2006-11-22 | 2008-06-05 | Canon Inc | Imaging apparatus and imaging system |
JP2009053568A (en) * | 2007-08-29 | 2009-03-12 | Canon Inc | Imaging apparatus and imaging system |
Also Published As
Publication number | Publication date |
---|---|
JP5773680B2 (en) | 2015-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5169499B2 (en) | Imaging device and imaging apparatus | |
JP5424708B2 (en) | Focus detection device | |
US20090202234A1 (en) | Image-pickup apparatus and image-pickup system | |
US7940323B2 (en) | Image-pickup apparatus and control method thereof | |
US6112029A (en) | Camera, exchangeable lens, and camera system | |
JP2014153509A (en) | Imaging device and imaging method | |
JP2011039499A (en) | Automatic focus detection device | |
JP5159205B2 (en) | Focus detection device and control method thereof | |
US9049365B2 (en) | Image capturing apparatus and control method thereof | |
JP5850627B2 (en) | Imaging device | |
JP6019626B2 (en) | Imaging device | |
JP5773680B2 (en) | Focus detection apparatus and control method thereof | |
JP4950634B2 (en) | Imaging apparatus and imaging system | |
JP4208304B2 (en) | Focus detection device, focus adjustment device, and camera | |
JP2768459B2 (en) | Focus detection device | |
JP2004012493A (en) | Focus detector | |
JP2012203278A (en) | Imaging apparatus, lens device and camera system | |
JP2014142372A (en) | Photographing device | |
JP2006215398A (en) | Image pickup device | |
JP2014186095A (en) | Lens device and photographing device | |
JP5846245B2 (en) | Automatic focus detection device | |
US11368613B2 (en) | Control apparatus, image pickup apparatus, and control method | |
JP2019128548A (en) | Focus detector and optical apparatus equipped with focus detector | |
JP2543077B2 (en) | Optical system for focus detection | |
JPH10104503A (en) | Focus detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150630 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5773680 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |