JP2017037103A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2017037103A
JP2017037103A JP2015156245A JP2015156245A JP2017037103A JP 2017037103 A JP2017037103 A JP 2017037103A JP 2015156245 A JP2015156245 A JP 2015156245A JP 2015156245 A JP2015156245 A JP 2015156245A JP 2017037103 A JP2017037103 A JP 2017037103A
Authority
JP
Japan
Prior art keywords
focus
focus lens
optical system
zoom
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015156245A
Other languages
Japanese (ja)
Other versions
JP6659100B2 (en
Inventor
木村 正史
Masashi Kimura
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015156245A priority Critical patent/JP6659100B2/en
Publication of JP2017037103A publication Critical patent/JP2017037103A/en
Application granted granted Critical
Publication of JP6659100B2 publication Critical patent/JP6659100B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of controlling a position of a focus lens unit stably even when an error occurs in a signal for focus detection.SOLUTION: The imaging apparatus includes: a focus detection section for detecting a focus state of an imaging optical system; a zoom position detection section for detecting a zoom position of the imaging optical system; a focus position detection section for detecting a position of the focus lens unit of the imaging optical system; an adjustment section for adjusting the position of the focus lens unit of the imaging optical system; a storage section for storing a trajectory of the focus lens unit that is moved according to the change in the zoom position, so as to continue focusing on a subject at a constant distance; a determination section for determining reliability of output of the focus detection section; and a control section for switching operations between a first operation and a second operation, on the basis of the determination of the determination section. The first and second operations are to control the position of the focus lens unit according to the change in the zoom position. The control in the first operation is performed on the basis of the output of the focus detection section, while the control in the second operation is performed on the basis of information of the trajectories of the focus lens unit, stored in the storage section.SELECTED DRAWING: Figure 4

Description

本発明は、撮像素子からの信号に基づいてフォーカスレンズの位置制御を行う撮像装置に関するものである。   The present invention relates to an imaging apparatus that performs position control of a focus lens based on a signal from an imaging element.

近年、撮像素子の高機能化が進展しており、撮像素子でいわゆる位相差AF信号を検知可能なシステムが提案されている。従来より、撮像面での情報を焦点検出に活用する提案はなされており、特許文献1ではピント状態をフィードバックして光学系の調整(ピント調整)を行う提案がなされている。   2. Description of the Related Art In recent years, image sensors have advanced functions, and a system capable of detecting a so-called phase difference AF signal with the image sensor has been proposed. Conventionally, proposals have been made to use information on the imaging surface for focus detection, and Patent Document 1 proposes to adjust the optical system (focus adjustment) by feeding back the focus state.

一方で、光学系のズーム状態の変化に応じて光学系の調整を行う提案がなされている。特許文献2では光学系のズーム状態の変化に応じてフォーカスレンズを駆動することでピント状態を維持する提案がなされている。   On the other hand, proposals have been made to adjust the optical system according to changes in the zoom state of the optical system. Japanese Patent Application Laid-Open No. 2004-228688 proposes maintaining a focus state by driving a focus lens in accordance with a change in a zoom state of an optical system.

特開昭55−40447号公報Japanese Patent Laid-Open No. 55-40447 特開昭52−114321号公報JP 52-114321 A

しかしながら、特許文献1においては、フィールドで使用する場合に、例えば位相差検出の2像の一致度が低下する、輝度飽和が急に発生するなどのエラーが発生した場合の処理について記されていないため、システムが不安定になりやすいという課題がある。   However, Patent Document 1 does not describe processing when an error such as a decrease in the degree of coincidence of two images for phase difference detection or a sudden saturation of luminance occurs when used in the field. Therefore, there is a problem that the system tends to become unstable.

また、特許文献2においては、像の焦点状態を検出せずに、ズーム状態の変化に応じてフォーカスレンズを駆動するため、レンズの位置決めに誤差が累積しやすいという課題がある。   Further, in Patent Document 2, since the focus lens is driven in accordance with the change in the zoom state without detecting the focus state of the image, there is a problem that errors are likely to accumulate in the lens positioning.

本発明は上述した課題に鑑みてなされたものであり、その目的は、焦点検出のための信号にエラーが生じた場合でも、フォーカスレンズの位置制御を安定して行うことが可能な撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging apparatus capable of stably performing focus lens position control even when an error occurs in a signal for focus detection. Is to provide.

本発明に係わる撮像装置は、撮影光学系の焦点状態を検出する焦点検出手段と、前記撮影光学系のズーム位置を検知するズーム位置検知手段と、前記撮影光学系のフォーカスレンズの位置を検知するフォーカス位置検知手段と、前記撮影光学系のフォーカスレンズの位置を調整する調整手段と、前記ズーム位置の変化に応じて、同じ距離の被写体に対して焦点を合わせ続けるための前記フォーカスレンズの軌跡を記憶する記憶手段と、前記焦点検出手段の出力の信頼性を判定する判定手段と、前記焦点検出手段の出力に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第1の動作と、前記記憶手段に記憶されている前記フォーカスレンズの軌跡の情報に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第2の動作とを、前記判定手段の判定に応じて切り替える制御手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention detects a focus detection unit that detects a focus state of a photographing optical system, a zoom position detection unit that detects a zoom position of the photographing optical system, and a position of a focus lens of the photographing optical system. A focus position detecting means, an adjusting means for adjusting the position of the focus lens of the photographing optical system, and a locus of the focus lens for continuously focusing on a subject at the same distance according to a change in the zoom position. Based on the output of the focus detection means, the storage means for storing, the determination means for determining the reliability of the output of the focus detection means, and the position of the focus lens according to the change of the zoom position are controlled. 1 according to the change in the zoom position based on the movement of the focus lens and information on the locus of the focus lens stored in the storage means. A second operation for controlling the position of Surenzu, characterized in that it comprises a control means for switching in response to determination of said determination means.

本発明によれば、焦点検出のための信号にエラーが生じた場合でも、フォーカスレンズの位置制御を安定して行うことが可能な撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus that can stably control the position of the focus lens even when an error occurs in a signal for focus detection.

本発明の撮像装置の一実施形態であるカメラシステムの構成を示す図。1 is a diagram showing a configuration of a camera system that is an embodiment of an imaging apparatus of the present invention. 一実施形態の撮像装置の要部を示すブロック図。1 is a block diagram showing a main part of an imaging apparatus according to an embodiment. 基本的なズームトラッキング動作を説明する図。The figure explaining basic zoom tracking operation. エラーが発生した場合のズームトラッキング動作を説明する図。The figure explaining zoom tracking operation when an error occurs. 別のズームトラッキング動作を説明する図。The figure explaining another zoom tracking operation | movement. ピント検知部について説明する図。The figure explaining a focus detection part. ピント検知のエラーが発生しやすい場面を説明する図。The figure explaining the scene where the error of a focus detection tends to occur.

以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の撮像装置の一実施形態であるカメラシステムの構成を示す図であり、図1(a)は中央断面図、図1(b)は電気的構成を示すブロック図である。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a diagram illustrating a configuration of a camera system that is an embodiment of an imaging apparatus according to the present invention. FIG. 1A is a central sectional view, and FIG. 1B is a block diagram illustrating an electrical configuration. .

図1(a)において、カメラシステム100は、カメラ本体1と、カメラ本体1に着脱自在に装着されるレンズユニット2を備えて構成されている。カメラ本体1は、撮像素子6、メカシャッタ14、背面表示部9a、電子ビューファインダ9b、レンズユニット2との電気接点11を備えている。また、レンズユニット2は、光軸4に沿って複数のレンズからなる撮影光学系3が配置されて構成されている。レンズユニット2は、各レンズ群の位置を検出し、各レンズ群の位置検出信号を出力するレンズ位置センサ15を備えている。   In FIG. 1A, a camera system 100 includes a camera body 1 and a lens unit 2 that is detachably attached to the camera body 1. The camera body 1 includes an electrical contact 11 with the imaging device 6, mechanical shutter 14, back display unit 9 a, electronic viewfinder 9 b, and lens unit 2. The lens unit 2 includes a photographing optical system 3 composed of a plurality of lenses along the optical axis 4. The lens unit 2 includes a lens position sensor 15 that detects the position of each lens group and outputs a position detection signal of each lens group.

図1(b)において、カメラ本体1は、電気的ブロックとして、カメラシステム制御回路5、画像処理部7、メモリ部8、操作検出部10、表示部9(背面表示部9a、電子ビューファインダ9bを含む)を備えている。また、レンズユニット2は、電気的ブロックとして、レンズシステム制御回路12、レンズ駆動部13を備えている。   In FIG. 1B, the camera body 1 includes, as electrical blocks, a camera system control circuit 5, an image processing unit 7, a memory unit 8, an operation detection unit 10, a display unit 9 (a rear display unit 9a, an electronic viewfinder 9b. Including). The lens unit 2 includes a lens system control circuit 12 and a lens driving unit 13 as electrical blocks.

カメラ本体1とレンズユニット2とからなるカメラシステム100は、大きく分けて、撮像部、画像処理部、記録再生部、制御部で構成される。撮像部は、撮影光学系3 、撮像素子6を含み、画像処理部は、画像処理部7を含む。また、記録再生部は、メモリ部8、表示部9を含み、制御部は、カメラシステム制御回路5、操作検出部10、およびレンズシステム制御回路12、レンズ駆動部13、レンズ位置センサ15を含む。カメラシステム制御回路5は、カメラ本体1およびレンズユニット2から得られる信号に基づいて、システム全体の制御を統括する。レンズ駆動部13は、フォーカスレンズ31、ブレ補正レンズ、絞りなどを駆動する。レンズ位置センサ15は、撮影光学系3を構成するズームレンズ群、フォーカスレンズ群などの各レンズ群の位置を検出する(ズーム位置検知、フォーカス位置検知)。またレンズ位置センサ15は、後述するズームトラッキングを行うのに適した精度を有している。   The camera system 100 including the camera body 1 and the lens unit 2 is roughly composed of an imaging unit, an image processing unit, a recording / reproducing unit, and a control unit. The imaging unit includes a photographing optical system 3 and an imaging element 6, and the image processing unit includes an image processing unit 7. The recording / reproducing unit includes a memory unit 8 and a display unit 9, and the control unit includes a camera system control circuit 5, an operation detection unit 10, a lens system control circuit 12, a lens driving unit 13, and a lens position sensor 15. . The camera system control circuit 5 controls the overall system based on signals obtained from the camera body 1 and the lens unit 2. The lens driving unit 13 drives the focus lens 31, the shake correction lens, the diaphragm, and the like. The lens position sensor 15 detects the position of each lens group such as a zoom lens group and a focus lens group that constitute the photographing optical system 3 (zoom position detection, focus position detection). Further, the lens position sensor 15 has an accuracy suitable for performing zoom tracking described later.

撮像部は、物体からの光を、撮影光学系3を介して撮像素子6の撮像面に結像させる。撮像素子6の信号からピント評価量および適切な露光量が得られるので、これらの信号に基づいて撮影光学系3が調整されることで、適切な光量の物体光を撮像素子6に露光させるとともに、撮像素子6の近傍に被写体像を結像させることができる。   The imaging unit forms an image of light from the object on the imaging surface of the imaging element 6 via the imaging optical system 3. Since the focus evaluation amount and the appropriate exposure amount can be obtained from the signal of the image sensor 6, the imaging optical system 3 is adjusted based on these signals, thereby exposing the image sensor 6 with an appropriate amount of object light. A subject image can be formed in the vicinity of the image sensor 6.

画像処理部7は、内部にA/D変換器、ホワイトバランス調整回路、ガンマ補正回路、補間演算回路等を有しており、記録用の画像を生成する。色補間処理部は、この画像処理部7に備えられており、ベイヤ配列の信号に色補間(デモザイキング)処理を施してカラー画像を生成する。また、画像処理部7は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。さらには、画像処理部7は撮像素子6から得られた複数の画像間の比較に基づいてブレ検知信号を生成する。この動作については後述する。メモリ部8は画像データ等を記憶する。カメラシステム制御回路5は、画像データをメモリ部8へ出力するとともに、表示部9に送り、ユーザーに提示する画像を表示させる。   The image processing unit 7 includes an A / D converter, a white balance adjustment circuit, a gamma correction circuit, an interpolation calculation circuit, and the like, and generates a recording image. The color interpolation processing unit is provided in the image processing unit 7 and performs color interpolation (demosaicing) processing on the Bayer array signal to generate a color image. The image processing unit 7 compresses images, moving images, sounds, and the like using a predetermined method. Furthermore, the image processing unit 7 generates a shake detection signal based on a comparison between a plurality of images obtained from the image sensor 6. This operation will be described later. The memory unit 8 stores image data and the like. The camera system control circuit 5 outputs image data to the memory unit 8 and sends it to the display unit 9 to display an image to be presented to the user.

カメラシステム制御回路5は撮像の際のタイミング信号などを生成して出力する。外部操作に応答して撮像部、画像処理部、記録再生部をそれぞれ制御する。例えば、不図示のシャッターレリーズボタンの押下を操作検出部10が検出して、撮像素子6の駆動、画像処理部7の動作、圧縮処理などを制御する。さらに表示部9による画像の表示を制御する。また、背面表示部9aはタッチパネルになっており、操作検出部10に接続されている。カメラ本体1はメカシャッタ14を備えており、カメラシステム制御回路5からの指令により撮像素子6の露光制御を行うことが可能である。   The camera system control circuit 5 generates and outputs a timing signal at the time of imaging. In response to an external operation, the imaging unit, the image processing unit, and the recording / reproducing unit are controlled. For example, the operation detection unit 10 detects that a shutter release button (not shown) is pressed, and controls driving of the image sensor 6, operation of the image processing unit 7, compression processing, and the like. Further, the display of the image by the display unit 9 is controlled. Further, the rear display unit 9 a is a touch panel and is connected to the operation detection unit 10. The camera body 1 includes a mechanical shutter 14 and can perform exposure control of the image sensor 6 in response to a command from the camera system control circuit 5.

次に、撮影光学系3の調整動作について説明する。カメラシステム制御回路5には画像処理部7が接続されており、撮像素子6からの信号に基づいて焦点位置、絞り位置を求める。カメラシステム制御回路5は、電気接点11を介してレンズシステム制御回路12に指令を出し、レンズシステム制御回路12はレンズ駆動部13を制御する。さらに、手ぶれ補正を行うモードにおいては、後述する撮像素子から得られた信号に基づいてレンズ駆動部13を介してブレ補正レンズを制御する。   Next, the adjustment operation of the photographic optical system 3 will be described. An image processing unit 7 is connected to the camera system control circuit 5, and a focal position and a diaphragm position are obtained based on a signal from the image sensor 6. The camera system control circuit 5 issues a command to the lens system control circuit 12 via the electrical contact 11, and the lens system control circuit 12 controls the lens driving unit 13. Furthermore, in the mode for performing camera shake correction, the shake correction lens is controlled via the lens driving unit 13 based on a signal obtained from an image sensor described later.

メモリ部8にはズーム変化に対するフォーカスレンズの軌跡(詳細については後述する)が記録されている。また、カメラシステム制御回路5は、メモリ部8の情報及び、レンズ位置センサ15の情報から被写体の距離を計算し、ズーム変化が起こった場合の適切なフォーカスレンズの位置を計算する。これを、電子カムと呼ぶ。   The memory unit 8 records a locus of the focus lens (details will be described later) with respect to the zoom change. Further, the camera system control circuit 5 calculates the distance of the subject from the information in the memory unit 8 and the information in the lens position sensor 15, and calculates an appropriate focus lens position when a zoom change occurs. This is called an electronic cam.

また後述するように、撮像素子6からは位相差AFに必要な異なる視点からの複数の像が出力され、画像処理部7ではいわゆる相関演算がなされる。つまり、撮像素子6および画像処理部7でピント検知が行われる。そして、カメラシステム制御回路5、レンズシステム制御回路12およびレンズ駆動部13によってフォーカスレンズの位置制御が行われる。   As will be described later, the image sensor 6 outputs a plurality of images from different viewpoints necessary for the phase difference AF, and the image processing unit 7 performs a so-called correlation calculation. That is, focus detection is performed by the image sensor 6 and the image processing unit 7. The position control of the focus lens is performed by the camera system control circuit 5, the lens system control circuit 12, and the lens driving unit 13.

図2は、本実施形態のカメラシステムの要部を説明する図である。図2において、ピント検出部21は画像処理部7に設けられ、電子カム算出部22及び切替スイッチ23はカメラシステム制御回路5に設けられている。信頼性判定部24は切替スイッチ23の動作を制御する。ピント検知部21は、ピントに関する情報(主被写体が存在するとした領域のピントが合っているか否か、及び合っていない場合はその方向と量)を検出する。   FIG. 2 is a diagram for explaining a main part of the camera system of the present embodiment. In FIG. 2, the focus detection unit 21 is provided in the image processing unit 7, and the electronic cam calculation unit 22 and the changeover switch 23 are provided in the camera system control circuit 5. The reliability determination unit 24 controls the operation of the changeover switch 23. The focus detection unit 21 detects information related to the focus (whether or not the area in which the main subject is present is in focus, and the direction and amount when the area is not in focus).

撮像素子6から出力される信号に基づいて、画像処理部7内のピント検知部21がピントに関する情報を求める。信頼性判定部24によって、ピント検知部21で検出した情報が適切であると判断される場合は、切替スイッチは図3に示した状態になり、ピント検知部21の信号に基づいてフォーカスレンズ31の位置制御が行われる。具体的には、主被写体にピントが合った状態を維持するように、フォーカスレンズ31に対してフィードバック制御が行われる。レンズシステム制御回路12は、レンズ駆動部13にこのフィードバック制御を行うための指令を出力する。   Based on the signal output from the image sensor 6, the focus detection unit 21 in the image processing unit 7 obtains information regarding the focus. When the reliability determination unit 24 determines that the information detected by the focus detection unit 21 is appropriate, the changeover switch is in the state illustrated in FIG. 3, and the focus lens 31 is based on the signal from the focus detection unit 21. Position control is performed. Specifically, feedback control is performed on the focus lens 31 so as to maintain a state where the main subject is in focus. The lens system control circuit 12 outputs a command for performing this feedback control to the lens driving unit 13.

一方で、信頼性判定部24によってピント検知部21において求めた信号が適切でないと判断された場合は、切替スイッチ23は電子カム算出部22に接続されるように切り替えられる。そして、電子カム算出部22の信号に基づいてフォーカスレンズ31の位置制御が行われる。具体的には、被写体の状態に関わらず直前のピント状態を維持するようにレンズシステム制御回路12からレンズ駆動部13に指令が出される。ズーム状態に変更がない場合はフォーカスレンズは停止したままとなり、ズーム状態に変化がある場合は、ズームトラッキングと呼ばれる制御を行う。ズームトラッキング動作については後述する。   On the other hand, when the reliability determination unit 24 determines that the signal obtained by the focus detection unit 21 is not appropriate, the changeover switch 23 is switched to be connected to the electronic cam calculation unit 22. Then, the position control of the focus lens 31 is performed based on the signal from the electronic cam calculation unit 22. Specifically, a command is issued from the lens system control circuit 12 to the lens driving unit 13 so as to maintain the previous focus state regardless of the state of the subject. When there is no change in the zoom state, the focus lens remains stopped, and when there is a change in the zoom state, a control called zoom tracking is performed. The zoom tracking operation will be described later.

電子カム算出部22は、レンズ位置センサ15からフォーカスレンズ及びズームレンズの位置を取得して、フォーカス状態およびズーム状態に関する情報を得る。さらにはメモリ部8を参照して、フォーカスレンズの位置およびズームレンズの位置がレンズ位置センサ15が示す位置にある場合に対応する被写体距離を算出する。後述するようにズーム状態が変化した場合には、同じ距離の被写体にピント状態を維持するためには、フォーカスレンズを適切に駆動する必要がある。この動作をズームトラッキング動作と呼ぶ。   The electronic cam calculation unit 22 acquires the positions of the focus lens and the zoom lens from the lens position sensor 15 and obtains information regarding the focus state and the zoom state. Further, the subject distance corresponding to the case where the position of the focus lens and the position of the zoom lens are at the positions indicated by the lens position sensor 15 is calculated with reference to the memory unit 8. As will be described later, when the zoom state changes, it is necessary to appropriately drive the focus lens in order to maintain the focus state on the subject at the same distance. This operation is called a zoom tracking operation.

次に、信頼性判定部24がピント検知部21において求めた信号の適否を判断する方法について説明する。後述するように撮像素子6から位相差AFに必要な信号が得られる場合は、相関演算における2像の一致度を信頼性の判定に用いることが出来る。別の方法として、コントラストAFを用いる場合は、コントラストの変化量を輝度で無次元化した信号を用いることが出来る。さらに別の方法として、物体側での被写体の位置を時系列的に観測しておき、その連続性を用いることが出来る。上記のそれぞれの判定方法において、2像の一致度が低い場合、コントラスト信号の変化が小さい場合、および被写体の移動速度が速すぎる場合(遠近競合でピント位置が前後するような場合)は、ピント検知部21が検知した信号を用いることが不適切と判断する。そして、電子カム算出部22の信号に基づいた制御に切り替える。一方で、ピント検知部21の検知が適切になされていると判断される場合は、撮像素子6からの合焦状態を示す信号を用いることで、被写体の移動にも追従した適切なピント制御がなされる。   Next, a method for determining whether the signal obtained by the reliability determination unit 24 in the focus detection unit 21 is appropriate or not will be described. As will be described later, when a signal necessary for the phase difference AF is obtained from the image sensor 6, the degree of coincidence of the two images in the correlation calculation can be used for the determination of reliability. As another method, in the case of using contrast AF, a signal in which the amount of change in contrast is made dimensionless with luminance can be used. As another method, the position of the subject on the object side can be observed in time series and its continuity can be used. In each of the determination methods described above, when the degree of coincidence between the two images is low, the change in the contrast signal is small, and the moving speed of the subject is too fast (when the focus position moves back and forth due to perspective conflict), It is determined that it is inappropriate to use the signal detected by the detection unit 21. And it switches to the control based on the signal of the electronic cam calculation part 22. FIG. On the other hand, when it is determined that the detection by the focus detection unit 21 is properly performed, an appropriate focus control that follows the movement of the subject is performed by using a signal indicating the in-focus state from the image sensor 6. Made.

次に、図3を参照してズームトラッキングの基本的な動作について説明する。図3(a)はズームトラッキング動作の概念を説明する図、図3(b)は距離が変化しない被写体に対してズームトラッキングを行う様子を示す図、図3(c)は距離が変化する被写体に対してズームトラッキングを行う様子を示す図である。   Next, the basic operation of zoom tracking will be described with reference to FIG. FIG. 3A is a diagram for explaining the concept of the zoom tracking operation, FIG. 3B is a diagram showing how zoom tracking is performed on a subject whose distance does not change, and FIG. 3C is a subject whose distance changes. It is a figure which shows a mode that zoom tracking is performed with respect to.

図3において、横軸はズーム位置であり左側が広角(WIDE)側を、右側が望遠(TELE)側を示している。縦軸はフォーカスレンズの位置であり、下側がフォーカスレンズが像面に近づく方向を、上側がフォーカスレンズが被写体に近づく方向を示している。また図3(a),(b),(c)に示された複数の曲線は、それぞれ被写体距離が0.5m、1.0m、3.0m、無限遠の距離の被写体に対するズーム位置とフォーカスレンズ位置の対応を示している。   In FIG. 3, the horizontal axis indicates the zoom position, the left side indicates the wide angle (WIDE) side, and the right side indicates the telephoto (TELE) side. The vertical axis represents the position of the focus lens, the lower side indicates the direction in which the focus lens approaches the image plane, and the upper side indicates the direction in which the focus lens approaches the subject. Also, the plurality of curves shown in FIGS. 3A, 3B, and 3C indicate the zoom position and focus for subjects with subject distances of 0.5 m, 1.0 m, 3.0 m, and infinity, respectively. The correspondence of lens positions is shown.

図3に示すように、同じ距離の被写体にピントを合わせるためには、ズーム位置に応じてフォーカスレンズの位置を移動させる必要がある。この曲線に関する情報はメモリ部8に格納されている。電子カム算出部22において、ズーム変化に対して、撮影光学系3について撮像素子6と共役な位置にある物体側の面までの距離を変化させないためにフォーカスレンズ31を移動させる量が算出される。   As shown in FIG. 3, in order to focus on a subject at the same distance, it is necessary to move the position of the focus lens in accordance with the zoom position. Information about this curve is stored in the memory unit 8. In the electronic cam calculation unit 22, the amount by which the focus lens 31 is moved is calculated so as not to change the distance to the object-side surface at a position conjugate to the imaging element 6 in the imaging optical system 3 with respect to the zoom change. .

図3において、30はズームの開始点、40はズームの終了点、31はズーム位置30における3.0mの距離にある被写体にピントが合っている状態を示す点である。41はズーム状態40における3.0mの距離にある被写体にピントが合っている状態を示す点である。   In FIG. 3, reference numeral 30 denotes a zoom start point, reference numeral 40 denotes a zoom end point, and reference numeral 31 denotes a point indicating that a subject at a distance of 3.0 m at the zoom position 30 is in focus. Reference numeral 41 denotes a point indicating a state in which a subject at a distance of 3.0 m in the zoom state 40 is in focus.

図3(a)を参照してズームトラッキングの基本的な動作についてさらに説明する。被写体が撮像装置から3.0mの位置にあるときに、ズームレンズがズーム位置30からズーム位置40に遷移する場合を考える。図3は時間の概念を表現していないが、ここでは時系列的にズーム位置30からズーム位置40に遷移したとする。ズーム位置30で3.0mの被写体にピントが合っている場合、31で示した位置にフォーカスレンズが存在する。ここでフォーカスレンズを停止させたままズーム位置を40に変化させたとすると、図3(a)の矢印32に沿って状態が変化し、状態33に至る。状態33は被写体距離3.0mと無限遠の間に位置しているので、3.0mよりも遠い被写体にピントが合った状態になっている。つまり3.0mの被写体のピントはぼけている。ズーム位置40において3.0mの被写体にピントを合わせるにはフォーカスレンズを41で示す位置に移動させる必要がある。   The basic operation of zoom tracking will be further described with reference to FIG. Consider a case where the zoom lens transitions from the zoom position 30 to the zoom position 40 when the subject is at a position 3.0 m from the imaging device. Although FIG. 3 does not express the concept of time, it is assumed here that the zoom position 30 has changed to the zoom position 40 in time series. When the subject at 3.0 m is in focus at the zoom position 30, the focus lens exists at the position indicated by 31. If the zoom position is changed to 40 while the focus lens is stopped, the state changes along the arrow 32 in FIG. Since the state 33 is located between the subject distance of 3.0 m and infinity, the subject farther than 3.0 m is in focus. In other words, the subject of 3.0m is out of focus. In order to focus on an object of 3.0 m at the zoom position 40, it is necessary to move the focus lens to a position indicated by 41.

図3(a)の例では、説明を分かりやすくするため、ズーム方向に大きく動かし、状態33に至った後に、状態41に遷移するように説明した。しかし、実際には、状態33と状態41で発生するデフォーカス量が許容値以下になるように制御することが好ましい。そのため、レンズ位置センサ15は図3(a)における状態33と状態41が許容値以下になるような分解能を持つことが望ましい。   In the example of FIG. 3A, in order to make the explanation easy to understand, it has been described that the state is moved greatly in the zoom direction and the state 33 is changed to after the state 33 is reached. However, in practice, it is preferable to perform control so that the defocus amount generated in the state 33 and the state 41 is equal to or less than an allowable value. For this reason, it is desirable that the lens position sensor 15 has a resolution such that the state 33 and the state 41 in FIG.

何らかの方法でズーム動作に伴うピントの補償を行うことを本実施形態ではズームトラッキングと呼ぶ。ズームトラッキングには、第1のトラッキング方法として、ピント検知センサを用いてその信号をフィードバックしてズームトラッキングする方法がある。また、第2のトラッキング方法として、フォーカスレンズおよびズームレンズの位置に基づいてズームトラッキングする方法がある。   Compensating for the focus accompanying the zoom operation by some method is called zoom tracking in this embodiment. In zoom tracking, as a first tracking method, there is a method of performing zoom tracking by feeding back a signal using a focus detection sensor. As a second tracking method, there is a method of performing zoom tracking based on the positions of the focus lens and the zoom lens.

本実施形態では、上記の第1のトラッキング方法と、第2のトラッキング方法を適宜使い分ける方法を用いる。第1のトラッキング方法は、ピント検知センサの信号(例えば位相差AFの検出信号)をフィードバックするため、誤差が累積しない、移動被写体も容易に追従できるという利点があるが、ピント検知センサの信号が不適当な場合にうまく動作しないなどの課題がある。一方で、第2のトラッキング方法は、位置センサの信号に基づくので、システムの構成は容易となる利点があるが、最終的な画像のピント位置を用いていないため、センサやレンズの位置決めなど誤差が累積しやすい課題がある。本実施形態では、高品位な画像を提供するため、第1のトラッキング方法の利点を生かしつつ、第2のトラッキング方法を適宜利用して欠点を補う。   In the present embodiment, a method of properly using the first tracking method and the second tracking method is used. The first tracking method feeds back a focus detection sensor signal (for example, a phase difference AF detection signal), and therefore has an advantage that no error is accumulated and a moving subject can easily follow. There is a problem that it does not work well when it is inappropriate. On the other hand, since the second tracking method is based on the signal from the position sensor, there is an advantage that the system configuration is easy. However, since the focus position of the final image is not used, errors such as the positioning of the sensor and the lens are not used. There are issues that tend to accumulate. In the present embodiment, in order to provide a high-quality image, the second tracking method is appropriately used to compensate for the disadvantage while taking advantage of the first tracking method.

図3(b)は、距離が変化しない被写体に対して適切にズームトラッキングがなされる様子を示した図である。第1のトラッキング方法では、ピント状態が常にインフォーカスの状態を保ちながらズーム動作させる(ズーム位置30からズーム位置40に遷移する)ので、状態が31→34→35→ … →41と変化して、適切なズームトラッキング動作がなされる。一方、第2のトラッキング方法では、ズーム状態が変化したことをズームセンサで検知するとともに、現在のフォーカスレンズの位置を検知する。ズーム位置の変化に応じて、同じ距離の被写体にピントを合わせるように、つまり、同一距離の被写体にピントが合うことを示した曲線に沿うように、フォーカスレンズを位置決め制御する。これにより適当なズームトラッキング動作がなされる。   FIG. 3B is a diagram illustrating a state in which zoom tracking is appropriately performed on a subject whose distance does not change. In the first tracking method, the zoom operation is performed while the focus state is always kept in the in-focus state (transition from the zoom position 30 to the zoom position 40), so the state changes from 31 → 34 → 35 →. An appropriate zoom tracking operation is performed. On the other hand, in the second tracking method, the zoom sensor detects that the zoom state has changed and also detects the current position of the focus lens. In accordance with the change in the zoom position, the focus lens is positioned and controlled so as to focus on the subject at the same distance, that is, along a curve indicating that the subject at the same distance is in focus. Thus, an appropriate zoom tracking operation is performed.

図3(c)は、距離が変化する被写体に対してズームトラッキングがなされる様子を示した図である。後述するように被写体距離が変化しているので、単純なズームトラッキングではなくズームトラッキングとピント合わせを同時に行う場合に該当する。第1のトラッキング方法では、図3(b)の例と同様に、常に被写体に対してピントが合った状態を保ちながらズーム動作がなされる(ズーム位置30からズーム位置40に遷移する)ので、状態が31→36→37→ … →42と変化して適切なズームトラッキング動作がなされる。一方で、第2のトラッキング方法では、同じ距離の被写体にピントを合わせようとするので単純に適用すると図3(b)の様に遷移して状態42に至ることはない。ただし、ズームトラッキング中の適当なタイミングでAF(オートフォーカス)を行ってトラッキング曲線の乗り移りを行うことで図3(c)に示すような制御も可能である。これにより適切なズームトラッキング動作がなされる。   FIG. 3C is a diagram showing how zoom tracking is performed on a subject whose distance changes. Since the subject distance changes as will be described later, this corresponds to the case where zoom tracking and focusing are performed simultaneously instead of simple zoom tracking. In the first tracking method, as in the example of FIG. 3B, the zoom operation is always performed while the subject is in focus (transition from the zoom position 30 to the zoom position 40). The state changes from 31 → 36 → 37 →... → 42, and an appropriate zoom tracking operation is performed. On the other hand, the second tracking method tries to focus on a subject at the same distance, so if it is simply applied, it will not transition to state 42 as shown in FIG. However, control as shown in FIG. 3C is also possible by performing AF (autofocus) at an appropriate timing during zoom tracking to change the tracking curve. Thereby, an appropriate zoom tracking operation is performed.

図3を参照して説明したように、ズームトラッキングにおいては、光学系の結像状態に関する情報(ピント検知情報等)に基づいて制御を行うと、単純な制御(常にインフォーカス状態を保つ)で移動する被写体に対しても適切な動作を行うことが出来る。一方で、ピント検知という高度な処理を行う必要があるので、エラーが発生する場合がある。本実施形態では、この問題を解決する。   As described with reference to FIG. 3, in zoom tracking, when control is performed based on information related to the imaging state of the optical system (focus detection information or the like), simple control (always maintain an in-focus state) is possible. Appropriate operations can be performed on a moving subject. On the other hand, an error may occur because it is necessary to perform an advanced process of focus detection. In the present embodiment, this problem is solved.

図4を参照して、本実施形態の動作とその効果について説明する。図4は図3と同じ表記法を用いたグラフである。図4において図3と同じ意味を持つものは同じ番号を付した。図4は移動していない被写体に対してズームトラッキングを行っている最中に、エラーが発生した場合を示した図である。発生しやすいエラーについては後述するが、位相差AF(オートフォーカス)においては、2つの像の一致度が低下して本来対応すべきではない被写体間で像の一致を判定した場合などが挙げられる。   With reference to FIG. 4, the operation and effects of the present embodiment will be described. FIG. 4 is a graph using the same notation as FIG. 4 having the same meaning as in FIG. 3 are assigned the same numbers. FIG. 4 is a diagram showing a case where an error occurs during zoom tracking for a subject that has not moved. Although errors that are likely to occur will be described later, in phase difference AF (autofocus), the degree of coincidence of two images decreases, and a case where image coincidence between subjects that should not be dealt with is determined. .

図4において、50はピント検知が不適切になったズーム位置、51は不適切に得られたピント検知信号、51aは51の代わりに用いられる状態をそれぞれ示している。図4(a)のズーム位置50でピント検知が失敗して51で示すデータが得られたとする。つまり、被写体は移動していないにもかかわらず、ズーム位置50で被写体距離が無限遠の位置に移動したというピント検知結果が得られたとする。そのままフォーカスレンズの位置制御を行うと、状態は、31→34→51→ … →41と遷移し、ピント状態が途中で激しく変化して品位の低い画像になってしまう。   In FIG. 4, reference numeral 50 denotes a zoom position where the focus detection is inappropriate, 51 is an inappropriately acquired focus detection signal, and 51 a is a state used in place of 51. Assume that focus detection fails at the zoom position 50 in FIG. 4A and data 51 is obtained. That is, it is assumed that a focus detection result is obtained that the subject distance has moved to an infinite distance at the zoom position 50 even though the subject has not moved. If the position control of the focus lens is performed as it is, the state transitions from 31 → 34 → 51 →... → 41, and the focus state changes drastically on the way, resulting in a low quality image.

ピント検知結果が不安定になる場合には、前述したように2像の一致度が低い、コントラスト信号の変化が小さい、被写体の移動速度が速すぎるというような結果が得られる。そこで、信頼性判定部24によってズーム位置50での演算結果51が不適切であると判断された場合には、ズームトラッキングは電子カム算出部22の出力に基づいて行われる。つまり直前の状態34を参照して、この時のフォーカス位置、ズーム位置から被写体距離を求める。ズーム位置50の時も被写体距離は変化していないものとして、フォーカスレンズの位置を求め、状態51aに遷移する。すなわち図4(b)に示すように、状態は、31→34→51a→ … →41と遷移する。このようにすることで滑らかなフォーカス制御がなされる。エラー発生時にも適切なレンズ制御が行われ安定して高品位な画像を得ることが出来る。   When the focus detection result becomes unstable, as described above, such a result is obtained that the degree of coincidence between the two images is low, the change in the contrast signal is small, and the moving speed of the subject is too fast. Therefore, when the reliability determination unit 24 determines that the calculation result 51 at the zoom position 50 is inappropriate, the zoom tracking is performed based on the output of the electronic cam calculation unit 22. That is, referring to the immediately preceding state 34, the subject distance is obtained from the focus position and zoom position at this time. Assuming that the subject distance has not changed even at the zoom position 50, the position of the focus lens is obtained, and the state transitions to the state 51a. That is, as shown in FIG. 4B, the state transitions from 31 → 34 → 51a →. In this way, smooth focus control is performed. Appropriate lens control is performed even when an error occurs, and a high-quality image can be obtained stably.

次に、図5を参照して別の例について説明する。図5は図3および図4と同じ表記法を用いたグラフである。図5において図3及び図4と同じ意味を持つものは同じ番号を付した。   Next, another example will be described with reference to FIG. FIG. 5 is a graph using the same notation as FIG. 3 and FIG. 5 having the same meaning as those in FIGS. 3 and 4 are denoted by the same reference numerals.

図5(a)はエラー発生後に被写体の距離が変化している場合の処理の様子を示す図であり、図5(b)は移動する被写体に対してズームトラッキングを行っている最中に、エラーが発生した場合を示した図である。図5ではエラーが発生する前や後の信号を利用してどのような制御を行うかを説明する。ここで、図5は時間的な概念を表現していないグラフであるが、一定速度でズーム動作しており、ズーム方向の横軸は時間にも対応しているものとして説明を行う。   FIG. 5 (a) is a diagram showing the processing when the distance of the subject has changed after the error has occurred, and FIG. 5 (b) is during zoom tracking on the moving subject. It is the figure which showed the case where an error generate | occur | produced. FIG. 5 illustrates what control is performed using signals before and after an error occurs. Here, FIG. 5 is a graph that does not express the concept of time, but the zoom operation is performed at a constant speed, and the horizontal axis in the zoom direction corresponds to time.

図5(a)の例は、ズーム状態50でエラーが発生した後、次のタイミングに被写体が1.0mに移動した場合を示す図である。図5(a)では、説明を分かりやすくするために1回のサンプリングで3.0m→1.0mに移動するようにしたが、これは一般的な被写体の移動速度としては非常に速いといえる。エラーの発生前後で被写体の距離が変化している場合の説明を分かりやすくするために便宜的にこのような値にしているに過ぎない。   The example of FIG. 5A is a diagram illustrating a case where the subject has moved to 1.0 m at the next timing after an error has occurred in the zoom state 50. In FIG. 5A, in order to make the explanation easy to understand, the movement is made from 3.0 m to 1.0 m in one sampling, but this can be said to be very fast as a general subject moving speed. . In order to make the explanation when the distance of the subject has changed before and after the occurrence of the error easier to understand, this value is merely set for convenience.

図5(a)において、エラー発生の次のタイミングで被写体距離が変化してピント状態52,53が得られたとする。本実施形態の動作では、図4を用いて説明した様に、エラーの直前の状態34を参照して、ズーム位置50の時も被写体距離は変化していないものとして、フォーカスレンズの位置51aを定める。次に正しく被写体距離が求められたときに、被写体距離は1.0mに変化している。この時に急に状態を51aから52に遷移させると、ピント変化が急激になり過ぎて品位の低い画像になってしまう。   In FIG. 5A, it is assumed that the subject distance changes at the timing next to the occurrence of the error and the focus states 52 and 53 are obtained. In the operation of the present embodiment, as described with reference to FIG. 4, the focus lens position 51 a is set with reference to the state 34 immediately before the error, assuming that the subject distance does not change even at the zoom position 50. Determine. Next, when the subject distance is correctly obtained, the subject distance changes to 1.0 m. If the state is suddenly changed from 51a to 52 at this time, the focus change becomes too rapid, resulting in an image with low quality.

そこで、エラー発生時に電子カム算出部22の信号でフォーカスレンズの制御を行った後に、ピント検知部21での制御に切り替える場合において、ピント検知部21の信号に加えてレンズ位置センサ15の信号も用いてフォーカスレンズの制御を行うようにする。具体的には、レンズ位置センサ15を参照しながら51a→52の差を数サンプリング時間かけて埋めるようにする。別の方法としては1サンプリングあたりの移動量を制限しても良い。図5(a)の例では状態51aの次に状態52に遷移するのではなく、レンズ位置センサ15の出力から得られる現在のフォーカスレンズ位置から離れすぎない点52aを設定し、この状態に遷移する。さらに状態53が検知されたときに状態53aに遷移する。図5(a)の例では状態が31→34→51a→52a→53a→ … →41と遷移する。   Therefore, when the focus lens is controlled by the signal of the electronic cam calculation unit 22 when an error occurs, the control of the focus detection unit 21 is followed by the signal of the lens position sensor 15 in addition to the signal of the focus detection unit 21. Used to control the focus lens. Specifically, the difference 51a → 52 is filled in over several sampling times while referring to the lens position sensor 15. As another method, the movement amount per sampling may be limited. In the example of FIG. 5A, the state 52a is not shifted to the state 52, but a point 52a that is not too far from the current focus lens position obtained from the output of the lens position sensor 15 is set, and the state is shifted to this state. To do. Furthermore, when the state 53 is detected, the state 53a is transitioned to. In the example of FIG. 5A, the state transitions from 31 → 34 → 51a → 52a → 53a →.

図5(b)の例は、ズーム位置50でエラーが発生した時に、被写体が3.0mから1.0mに移動している途中である場合である。被写体が移動していることは、エラー発生前の状態から知ることが出来る。そこで、電子カム算出部22の信号でフォーカスレンズの制御を行う場合において、電子カム算出部22の信号に加えて、直前のピント検知部21の複数の信号を用いてフォーカスレンズの制御を行うようにする。具体的には、状態が31→54と遷移すると被写体が近づいてきていることが分かる。被写体の移動を判別するためには、直前のピント検知部21の複数の信号を用いれば良い。エラーが発生したズーム位置50での被写体位置を推定して(例えば等速運動していると仮定して位置を予測するなどの方法を用いる)その位置にピントが合うようにフォーカスレンズの位置を制御する。図5(b)の例では31→54→51b→ … →42と遷移する。   The example of FIG. 5B is a case where the subject is moving from 3.0 m to 1.0 m when an error occurs at the zoom position 50. It can be known from the state before the error occurs that the subject is moving. Therefore, when the focus lens is controlled by the signal from the electronic cam calculation unit 22, the focus lens is controlled by using a plurality of signals from the previous focus detection unit 21 in addition to the signal from the electronic cam calculation unit 22. To. Specifically, it can be seen that the subject is approaching when the state changes from 31 to 54. In order to determine the movement of the subject, a plurality of signals from the previous focus detection unit 21 may be used. Estimate the subject position at the zoom position 50 where the error occurred (for example, use a method such as predicting the position assuming that it is moving at a constant speed), and adjust the position of the focus lens so that the position is in focus. Control. In the example of FIG. 5B, the transition is made from 31 → 54 → 51b →.

図4および図5ではズーム動作中にエラーが発生した場合について説明したが、ズーム動作中でない場合に本実施形態の動作を行っても不具合はない。すなわちズームトラッキング動作がなされないだけで、エラーによってピント状態が途中で激しく変化して品位の低い画像になることが回避されるという効果は同様である。つまりズーム動作中のみに行うというような場合分けは必要ない。   4 and 5 describe the case where an error occurs during the zoom operation, but there is no problem even if the operation of the present embodiment is performed when the zoom operation is not being performed. That is, the same effect is obtained in that the zoom tracking operation is not performed, and it is avoided that the focus state changes drastically in the middle due to an error, resulting in a low-quality image. In other words, there is no need to separate cases that are performed only during zoom operation.

次に、図6を参照してピント検知部21に信号を供給する撮像素子6の構成と、画像処理部7の動作について説明する。図6の例は撮像素子6でいわゆる位相差検出AF信号を得ることが出来る場合を示している。   Next, the configuration of the image sensor 6 that supplies a signal to the focus detection unit 21 and the operation of the image processing unit 7 will be described with reference to FIG. The example of FIG. 6 shows a case where a so-called phase difference detection AF signal can be obtained by the image sensor 6.

図6(a)は撮像素子6と座標系の関係を説明するための図、図6(b)は撮影光学系3の瞳面の分割状態を説明するための図、図6(c)は撮像素子6から得られる一方の視点からの像を説明する図である。また、図6(d)は撮像素子から得られる他方の視点からの像と位相差AFの方法を説明する図、図6(e)は位相差AFの検出状態を模式的に示した図である。   6A is a diagram for explaining the relationship between the image sensor 6 and the coordinate system, FIG. 6B is a diagram for explaining the division state of the pupil plane of the photographing optical system 3, and FIG. FIG. 6 is a diagram for explaining an image from one viewpoint obtained from the image sensor 6. FIG. 6D is a diagram for explaining an image from the other viewpoint obtained from the image sensor and a method of phase difference AF, and FIG. 6E is a diagram schematically showing a detection state of the phase difference AF. is there.

図6(a)において、60は撮像素子6に設けられたマイクロレンズアレイ、61,62は1つのマイクロレンズに対応するように設けられた複数の画素、71,72は瞳面においてそれぞれ画素61,62に対応する領域をそれぞれ示している。また、81は瞳領域71に対応する画素で取得された画像、82は被写体、83は画像81中の着目領域、84は瞳領域72に対応する画素で取得された画像、85は着目領域83と画面内の位置が同一の領域をそれぞれ示している。また、86は探索することを模式的に示す矢印、87は画像81の領域83に対応する画像84中の領域、88は2つの視点から取得された画像を重ねて表示した画像、89は画像81中の領域83で検知されたベクトルをそれぞれ示している。   6A, reference numeral 60 denotes a microlens array provided in the image sensor 6, 61 and 62 denote a plurality of pixels provided so as to correspond to one microlens, and 71 and 72 denote pixels 61 on the pupil plane. , 62 respectively. Also, 81 is an image acquired with pixels corresponding to the pupil region 71, 82 is a subject, 83 is a region of interest in the image 81, 84 is an image acquired with pixels corresponding to the pupil region 72, and 85 is a region of interest 83. And the same area in the screen. In addition, 86 is an arrow schematically indicating that searching is performed, 87 is an area in the image 84 corresponding to the area 83 of the image 81, 88 is an image obtained by superimposing images acquired from two viewpoints, and 89 is an image. The vectors detected in a region 83 in 81 are shown.

図6(a)に示すように、撮像素子6上にはマイクロレンズアレイ60が設けられており、マイクロレンズアレイ60の前側主点は撮影光学系3の結像面近傍になるように配置されている。図6(a)は撮像装置の横からと、正面からマイクロレンズアレイ60を見た状態を示しており、撮像装置正面から見るとマイクロレンズアレイ60のレンズが撮像素子6上の画素を覆うように配置されている。なお、図6(a)ではマイクロレンズアレイ60を構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズは画素を2つ覆う程度の大きさである。   As shown in FIG. 6A, a microlens array 60 is provided on the image sensor 6, and the front principal point of the microlens array 60 is arranged in the vicinity of the imaging plane of the photographing optical system 3. ing. FIG. 6A shows a state in which the microlens array 60 is viewed from the side and from the front of the imaging device. When viewed from the front of the imaging device, the lens of the microlens array 60 covers the pixels on the imaging device 6. Is arranged. In FIG. 6A, the microlens array 60 is illustrated in a large size so that the microlens array 60 can be easily seen. However, each microlens is actually large enough to cover two pixels.

図6(b)は撮像素子6の1つのマイクロレンズとその下にある画素に着目し、マイクロレンズの光軸を含み撮像素子6の長手方向が図の横方向になるように切断した図である。図6(b)の61,62はそれぞれ撮像素子6の画素(1つの光電変換部)を示している。一方、図6(b)の上方に示した図は撮影光学系3の射出瞳面を示している。実際には、図6(b)の下方に示した撮像素子の図と方向を合わせると、射出瞳面は図6(b)の紙面垂直方向になるが、説明を分かりやすくするために投影方向を変化させている。   FIG. 6B is a diagram in which attention is paid to one microlens of the image sensor 6 and the underlying pixel, and the image sensor 6 is cut so that the longitudinal direction of the image sensor 6 includes the optical axis of the microlens and the horizontal direction of the figure. is there. Reference numerals 61 and 62 in FIG. 6B each denote a pixel (one photoelectric conversion unit) of the image sensor 6. On the other hand, the figure shown above FIG. 6B shows the exit pupil plane of the photographing optical system 3. Actually, when the direction is aligned with the image sensor shown in the lower part of FIG. 6B, the exit pupil plane is in the direction perpendicular to the plane of FIG. 6B, but the projection direction is used for easy understanding. Is changing.

図6(b)の画素61,62はマイクロレンズ60によって共役な位置関係にある射出瞳面上の領域71,72とそれぞれ対応する位置関係にある。図6(b)に示すように、マイクロレンズ60によって各画素は撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。すなわち画素61には撮影光学系3の射出瞳面上の領域71を通過した光束のみが入射し、画素62には撮影光学系3の射出瞳面上の領域72を通過した光束のみが入射する。   The pixels 61 and 62 in FIG. 6B are in a positional relationship corresponding to the regions 71 and 72 on the exit pupil plane that are in a conjugate positional relationship by the microlens 60, respectively. As shown in FIG. 6B, each pixel is designed to be conjugate with a specific region on the exit pupil plane of the photographing optical system 3 by the micro lens 60. That is, only the light beam that has passed through the region 71 on the exit pupil plane of the photographing optical system 3 enters the pixel 61, and only the light beam that has passed through the region 72 on the exit pupil surface of the photographing optical system 3 enters the pixel 61. .

瞳領域71を通過した光束のみを捉えている画素61と同じ対応関係にある画素のみ集めた画像と、瞳領域72を通過した光束のみを捉えている画素62と同じ対応関係にある画素のみ集めた画像を考えると視点の異なる像となっている。画素61と同じ対応関係にある画素のみ集めた画像は瞳領域71から見たような画像となっており、画素62と同じ対応関係にある画素のみ集めた画像は瞳領域72から見たような画像となっている。すなわち一度の露光を行い、信号を適切に並べると、同じタイミングで露光された視点の異なる画像が得られることになる。   An image in which only pixels having the same correspondence as the pixel 61 that captures only the light beam that has passed through the pupil region 71 and a pixel that has the same corresponding relationship as the pixel 62 in which only the light beam that has passed through the pupil region 72 are captured are collected. Considering the image, it is an image with a different viewpoint. An image obtained by collecting only pixels having the same correspondence as the pixel 61 is an image as seen from the pupil region 71, and an image obtained by collecting only pixels having the same correspondence as the pixel 62 is viewed from the pupil region 72. It is an image. That is, if exposure is performed once and signals are arranged appropriately, images with different viewpoints exposed at the same timing can be obtained.

次に図6(c),(d),(e)を参照して異なる視点から取得された2つの画像を用いてピント検知(焦点状態の検知)を行う方法について説明する。図6(a),(b)を用いて説明したような光学系によって、異なる視点から取得された2つの画像81,84を取得する。そのうち一方の画像81内で被写体82が存在する領域83に着目する。この領域の大きさは任意に設定可能であるが例えば8x8画素などとすればよい。図6の例では説明を分かりやすくするために、枠は十分大きく示している。   Next, a method of performing focus detection (focus state detection) using two images acquired from different viewpoints will be described with reference to FIGS. Two images 81 and 84 acquired from different viewpoints are acquired by the optical system described with reference to FIGS. 6 (a) and 6 (b). Of these, attention is paid to an area 83 where the subject 82 exists in one image 81. The size of this area can be set arbitrarily, but it may be 8 × 8 pixels, for example. In the example of FIG. 6, the frame is shown sufficiently large for easy understanding.

この領域83が画像84のどこに移動したかを差分絶対値(=SAD)などを基準に探索すればよい。具体的には画像84で画像内の位置が対応する領域85を中心に、予め定められた範囲について、矢印86のように領域をずらしながらSADを計算すればよい。この場合、領域をずらす方向を示す矢印86は図6(b)で示した2つの瞳領域の重心を結ぶ方向に設定すればよい。これは、いわゆるエピポーラ拘束があるためである。SADを基準に用いた場合は、最小となる位置が対応する領域87となる。結果として2つの画像の合成画像88において、領域83はベクトル89のように移動したことが分かる。このベクトル89の方向がピントを合わせる時に動かすべきフォーカスレンズの方向を、ベクトル89の長さがピントを合わせる時に動かすべきフォーカスレンズの量を、それぞれ示している。   What is necessary is just to search where the area | region 83 moved to the image 84 on the basis of a difference absolute value (= SAD). Specifically, the SAD may be calculated while shifting the area as indicated by an arrow 86 in a predetermined range around the area 85 corresponding to the position in the image 84 in the image 84. In this case, the arrow 86 indicating the direction in which the region is shifted may be set in the direction connecting the centroids of the two pupil regions shown in FIG. This is because there is a so-called epipolar constraint. When SAD is used as a reference, the minimum position is the corresponding area 87. As a result, it can be seen that the region 83 has moved like a vector 89 in the composite image 88 of the two images. The direction of the vector 89 indicates the direction of the focus lens to be moved when focusing, and the length of the vector 89 indicates the amount of the focus lens that should be moved when focusing.

図6(c),(d),(e)で説明した原理によってピント検知を行った場合、視点によって正反射光が異なって見える場合、遠方と近距離に類似する物体がある場合、繰り返しパターンを観察した場合などにエラーが発生しやすい。このような場合には2像の一致度が低下したり、類似するピークが複数見られ判断が付かないという現象がみられる。   When focus detection is performed according to the principle described with reference to FIGS. 6C, 6D, and 6E, when the specularly reflected light looks different depending on the viewpoint, and when there is an object similar to a distant and short distance, a repetitive pattern Errors are likely to occur when observing In such a case, the degree of coincidence of the two images decreases, or a phenomenon in which a plurality of similar peaks are seen and judgment cannot be made.

図6では、いわゆる位相差AFの原理に基づいてピント検知を行った。別の方法としてはコントラストAFに基づく方法も考えられる。これはフォーカスレンズを時系列的に微少駆動させて、着目領域のコントラスト変化を観察する方法である。コントラストが最大となるようにピントを制御する方法である。コントラストAFでは一般的には時系列的に信号を取り出すので、照明状態の変化がある場合、手振れ状態の変化がある場合、被写体が移動する場合などにエラーが発生しやすい。   In FIG. 6, focus detection is performed based on the principle of so-called phase difference AF. As another method, a method based on contrast AF is also conceivable. In this method, the focus lens is slightly driven in time series to observe the contrast change in the region of interest. This is a method of controlling the focus so that the contrast is maximized. In contrast AF, signals are generally extracted in time series, and therefore errors are likely to occur when there is a change in illumination state, a change in camera shake state, or when the subject moves.

次に、図7を参照してピント検知においてエラーが発生する場合の例について説明する。図7において、91は遠方と近距離に類似する個所をもった被写体が存在する画像の例、92,93は類似する領域を示す枠をそれぞれ示している。また、94は正反射光がある被写体が存在する画像の例、95は被写体、96は被写体上の正反射光をそれぞれ示している。   Next, an example in which an error occurs in focus detection will be described with reference to FIG. In FIG. 7, reference numeral 91 denotes an example of an image in which a subject having a portion similar to a distant place and a close distance exists, and 92 and 93 denote frames indicating similar regions, respectively. Reference numeral 94 denotes an example of an image where a subject with specular reflection light exists, 95 denotes a subject, and 96 denotes specular reflection light on the subject.

図7(a)は遠方と近距離に類似する個所をもった被写体が存在する画像を説明する図である。図6で説明したピント検知のための領域が93に設定されたとする。帽子と帽子のつばの境界付近である。後方の被写体も同じ色の帽子をかぶっている場合、領域92は類似した信号をもつ。ノイズなどの影響によって領域93と領域92が対応すると判断された場合はピント検知がエラーとなる。ただし、このような場合は、正しく対応した場合と見分けがつきにくいという情報が得られる。つまり、SADの極小値が2つありどちらも同程度に見えるという情報が得られる。本実施形態では、これを利用して信頼性判定部24でエラーが発生したと判定する。   FIG. 7A is a diagram for explaining an image in which a subject having a portion similar to a distant place and a close distance exists. Assume that the area for focus detection described in FIG. Near the boundary between the hat and the brim of the hat. If the subject behind also wears the same color hat, region 92 has a similar signal. If it is determined that the area 93 and the area 92 correspond to each other due to the influence of noise or the like, the focus detection results in an error. However, in such a case, it is possible to obtain information that it is difficult to distinguish from the case of correctly handling. That is, there is obtained information that there are two local minimum values of SAD, and both of them look the same. In the present embodiment, the reliability determination unit 24 determines that an error has occurred using this.

図7(b)は正反射光がある被写体が存在する画像を説明する図である。被写体95に対して太陽光のような強力な光源の光が当たると、正反射光96の信号は強く表れる。球体など曲率を持った面の場合、この正反射光成分は視点によって被写体95上で別の位置に観察される。このため、正反射光成分によって位相差AFの検出が行われると、ピント検知がエラーとなる。ただし、このような場合は、被写体の輪郭部分と正反射光で位置が異なって観測されるので、2像の一致度が低下するという情報が得られる。本実施形態では、これを利用して信頼性判定部24でエラーが発生したと判定する。   FIG. 7B is a diagram illustrating an image in which a subject with specularly reflected light exists. When light from a strong light source such as sunlight hits the subject 95, the signal of the regular reflection light 96 appears strongly. In the case of a curved surface such as a sphere, this specularly reflected light component is observed at a different position on the subject 95 depending on the viewpoint. For this reason, when the phase difference AF is detected by the regular reflection light component, the focus detection becomes an error. However, in such a case, information is observed that the degree of coincidence between the two images decreases because the contour portion of the subject and the specularly reflected light are observed at different positions. In the present embodiment, the reliability determination unit 24 determines that an error has occurred using this.

上記のような、実動作環境においてエラーが発生しやすい状況においては、AFが不安定になる場合が想定され、そのような場合に本実施形態の動作を行うことにより、フォーカスレンズの位置制御を安定に行うことが出来る。   In a situation where an error is likely to occur in the actual operating environment as described above, a case where AF becomes unstable is assumed. In such a case, the position of the focus lens is controlled by performing the operation of the present embodiment. It can be performed stably.

以上説明したように、本実施形態によれば、撮像面の信号を利用してピント調整を行うシステムにおいて、焦点検出のエラー発生時にも適切なレンズ制御を行うことができ、安定して高品位な画像を提供することが可能となる。   As described above, according to the present embodiment, in a system that performs focus adjustment using a signal on the imaging surface, it is possible to perform appropriate lens control even when a focus detection error occurs, and stably achieve high quality. It is possible to provide a simple image.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

3:撮影光学系、5:カメラシステム制御回路、6:撮像素子、7:画像処理部、8:メモリ部、12:レンズシステム制御回路、13:レンズ駆動部、15:レンズ位置センサ、21:ピント検知部、22:電子カム算出部、23:切替スイッチ、24:信頼性判定部 3: photographing optical system, 5: camera system control circuit, 6: imaging device, 7: image processing unit, 8: memory unit, 12: lens system control circuit, 13: lens driving unit, 15: lens position sensor, 21: Focus detection unit, 22: electronic cam calculation unit, 23: changeover switch, 24: reliability determination unit

Claims (11)

撮影光学系の焦点状態を検出する焦点検出手段と、
前記撮影光学系のズーム位置を検知するズーム位置検知手段と、
前記撮影光学系のフォーカスレンズの位置を検知するフォーカス位置検知手段と、
前記撮影光学系のフォーカスレンズの位置を調整する調整手段と、
前記ズーム位置の変化に応じて、同じ距離の被写体に対して焦点を合わせ続けるための前記フォーカスレンズの軌跡を記憶する記憶手段と、
前記焦点検出手段の出力の信頼性を判定する判定手段と、
前記焦点検出手段の出力に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第1の動作と、前記記憶手段に記憶されている前記フォーカスレンズの軌跡の情報に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第2の動作とを、前記判定手段の判定に応じて切り替える制御手段と、
を備えることを特徴とする撮像装置。
Focus detection means for detecting the focus state of the imaging optical system;
Zoom position detecting means for detecting the zoom position of the photographing optical system;
Focus position detection means for detecting the position of the focus lens of the photographing optical system;
Adjusting means for adjusting the position of the focus lens of the photographing optical system;
Storage means for storing a locus of the focus lens for continuously focusing on a subject at the same distance in accordance with a change in the zoom position;
Determination means for determining reliability of the output of the focus detection means;
Based on the first operation for controlling the position of the focus lens according to the change in the zoom position based on the output of the focus detection means, and on the locus information of the focus lens stored in the storage means. A control unit that switches a second operation for controlling the position of the focus lens in accordance with a change in the zoom position in accordance with the determination of the determination unit;
An imaging apparatus comprising:
前記制御手段は、前記判定手段が前記焦点検出手段の出力に信頼性があると判定した場合に、前記第1の動作を行い、前記判定手段が前記焦点検出手段の出力に信頼性がないと判定した場合に、前記第2の動作を行うことを特徴とする請求項1に記載の撮像装置。   The control unit performs the first operation when the determination unit determines that the output of the focus detection unit is reliable, and the determination unit has no reliability in the output of the focus detection unit. The imaging apparatus according to claim 1, wherein the second operation is performed when the determination is made. 前記制御手段は、前記第2の動作を行う場合に、前記記憶手段に記憶されている前記フォーカスレンズの軌跡の情報に加えて、前記焦点検出手段の出力を用いて前記フォーカスレンズの位置の制御を行うことを特徴とする請求項2に記載の撮像装置。   The control means controls the position of the focus lens using the output of the focus detection means in addition to the information on the locus of the focus lens stored in the storage means when performing the second operation. The imaging apparatus according to claim 2, wherein: 前記制御手段は、前記フォーカスレンズの軌跡の情報に加えて、前記判定手段が前記焦点検出手段の出力に信頼性がないと判定する直前の前記焦点検出手段の複数の出力を用いて前記フォーカスレンズの位置の制御を行うことを特徴とする請求項3に記載の撮像装置。   The control unit uses the plurality of outputs of the focus detection unit immediately before the determination unit determines that the output of the focus detection unit is unreliable in addition to information on the locus of the focus lens. The image pickup apparatus according to claim 3, wherein the position of the image pickup device is controlled. 前記制御手段は、前記第1の動作を行う場合に、前記焦点検出手段の出力に加えて、前記フォーカス位置検知手段の出力を用いて前記フォーカスレンズの位置の制御を行うことを特徴とする請求項2に記載の撮像装置。   The control means, when performing the first operation, controls the position of the focus lens by using the output of the focus position detection means in addition to the output of the focus detection means. Item 3. The imaging device according to Item 2. 前記判定手段は、位相差検出により前記撮影光学系の焦点状態を検出する場合に、位相差を検出する2像の一致度が低い場合に、前記焦点検出手段の出力に信頼性がないと判定することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   When the focus state of the photographing optical system is detected by phase difference detection, the determination unit determines that the output of the focus detection unit is not reliable when the degree of coincidence of the two images for detecting the phase difference is low. The imaging apparatus according to claim 1, wherein: 前記判定手段は、位相差検出により前記撮影光学系の焦点状態を検出する場合に、位相差を検出する像に複数のピークが存在する場合に、前記焦点検出手段の出力に信頼性がないと判定することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   When the determination unit detects the focus state of the photographing optical system by phase difference detection, and there are a plurality of peaks in the image for detecting the phase difference, the output of the focus detection unit is not reliable. The imaging device according to claim 1, wherein the imaging device is determined. 前記判定手段は、画像に正反射光がある被写体が存在する場合に、前記焦点検出手段の出力に信頼性がないと判定することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   6. The determination unit according to claim 1, wherein the determination unit determines that the output of the focus detection unit is unreliable when there is a subject having specular reflection light in the image. Imaging device. 撮像装置を制御する方法であって、
撮影光学系の焦点状態を検出する焦点検出工程と、
前記撮影光学系のズーム位置を検知するズーム位置検知工程と、
前記撮影光学系のフォーカスレンズの位置を検知するフォーカス位置検知工程と、
前記撮影光学系のフォーカスレンズの位置を調整する調整工程と、
前記ズーム位置の変化に応じて、同じ距離の被写体に対して焦点を合わせ続けるための前記フォーカスレンズの軌跡を記憶する記憶工程と、
前記焦点検出工程の出力の信頼性を判定する判定工程と、
前記焦点検出工程の出力に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第1の動作と、前記記憶工程において記憶された前記フォーカスレンズの軌跡の情報に基づいて、前記ズーム位置の変化に応じた前記フォーカスレンズの位置の制御を行う第2の動作とを、前記判定工程の判定に応じて切り替える制御工程と、
を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging device, comprising:
A focus detection step for detecting the focus state of the imaging optical system;
A zoom position detecting step for detecting a zoom position of the photographing optical system;
A focus position detecting step for detecting the position of the focus lens of the photographing optical system;
An adjustment step of adjusting the position of the focus lens of the photographing optical system;
A storage step of storing a locus of the focus lens for continuously focusing on a subject at the same distance according to a change in the zoom position;
A determination step of determining the reliability of the output of the focus detection step;
Based on the first operation for controlling the position of the focus lens in accordance with the change in the zoom position based on the output of the focus detection step, and on the locus information of the focus lens stored in the storage step. A control step of switching a second operation for controlling the position of the focus lens in accordance with a change in the zoom position according to the determination in the determination step;
A method for controlling an imaging apparatus, comprising:
請求項9に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the control method of Claim 9. 請求項9に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 9.
JP2015156245A 2015-08-06 2015-08-06 Imaging device Expired - Fee Related JP6659100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015156245A JP6659100B2 (en) 2015-08-06 2015-08-06 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015156245A JP6659100B2 (en) 2015-08-06 2015-08-06 Imaging device

Publications (2)

Publication Number Publication Date
JP2017037103A true JP2017037103A (en) 2017-02-16
JP6659100B2 JP6659100B2 (en) 2020-03-04

Family

ID=58047591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015156245A Expired - Fee Related JP6659100B2 (en) 2015-08-06 2015-08-06 Imaging device

Country Status (1)

Country Link
JP (1) JP6659100B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003614A1 (en) 2017-06-27 2019-01-03 ソニー株式会社 Interchangeable lens device, image capturing device, image capturing system, image capturing method and program
JP2019066556A (en) * 2017-09-28 2019-04-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, imaging apparatus, flying body, control method, and program
JPWO2019064759A1 (en) * 2017-09-27 2020-05-28 富士フイルム株式会社 Imaging device, imaging method, and program
JP2020140201A (en) * 2019-02-27 2020-09-03 キヤノン株式会社 Imaging apparatus and control method of imaging apparatus
EP3703357A3 (en) * 2019-02-27 2020-10-21 Canon Kabushiki Kaisha Imaging apparatus and method for controlling the same
CN116699796A (en) * 2023-08-07 2023-09-05 西安信飞特信息科技有限公司 Lens and method capable of feeding back focal length position

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0273320A (en) * 1988-09-09 1990-03-13 Minolta Camera Co Ltd Autofocusing device
JPH02275419A (en) * 1989-04-18 1990-11-09 Konica Corp Automatic focusing device for camera
US5157432A (en) * 1988-09-09 1992-10-20 Minolta Camera Kabushiki Kaisha Camera having a zoom lens unit
JPH06197367A (en) * 1992-07-02 1994-07-15 Konica Corp Zoom lens device
KR20060121436A (en) * 2005-05-24 2006-11-29 삼성테크윈 주식회사 Zoom tracking method and image processing device executing the same
JP2011130256A (en) * 2009-12-18 2011-06-30 Canon Inc Imaging apparatus
US20110221952A1 (en) * 2010-03-15 2011-09-15 Samsung Electronics Co., Ltd. Focus adjustment apparatus and focus adjustment method
JP2014235211A (en) * 2013-05-31 2014-12-15 株式会社ニコン Imaging device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0273320A (en) * 1988-09-09 1990-03-13 Minolta Camera Co Ltd Autofocusing device
US5157432A (en) * 1988-09-09 1992-10-20 Minolta Camera Kabushiki Kaisha Camera having a zoom lens unit
JPH02275419A (en) * 1989-04-18 1990-11-09 Konica Corp Automatic focusing device for camera
JPH06197367A (en) * 1992-07-02 1994-07-15 Konica Corp Zoom lens device
KR20060121436A (en) * 2005-05-24 2006-11-29 삼성테크윈 주식회사 Zoom tracking method and image processing device executing the same
JP2011130256A (en) * 2009-12-18 2011-06-30 Canon Inc Imaging apparatus
US20110221952A1 (en) * 2010-03-15 2011-09-15 Samsung Electronics Co., Ltd. Focus adjustment apparatus and focus adjustment method
JP2014235211A (en) * 2013-05-31 2014-12-15 株式会社ニコン Imaging device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003614A1 (en) 2017-06-27 2019-01-03 ソニー株式会社 Interchangeable lens device, image capturing device, image capturing system, image capturing method and program
US12105401B2 (en) 2017-06-27 2024-10-01 Sony Group Corporation Imaging device, imaging system, focus control method, and non-transitory computer-readable medium with cam curve
US11493829B2 (en) 2017-06-27 2022-11-08 Sony Group Corporation Interchangeable lens device, imaging device, imaging system, method, and program
JPWO2019064759A1 (en) * 2017-09-27 2020-05-28 富士フイルム株式会社 Imaging device, imaging method, and program
JP2019066556A (en) * 2017-09-28 2019-04-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, imaging apparatus, flying body, control method, and program
CN111629142B (en) * 2019-02-27 2022-06-24 佳能株式会社 Image pickup apparatus and control method thereof
EP3703357A3 (en) * 2019-02-27 2020-10-21 Canon Kabushiki Kaisha Imaging apparatus and method for controlling the same
US11399127B2 (en) 2019-02-27 2022-07-26 Canon Kabushiki Kaisha Imaging apparatus and method for controlling the same
CN111629142A (en) * 2019-02-27 2020-09-04 佳能株式会社 Image pickup apparatus and control method thereof
JP7527792B2 (en) 2019-02-27 2024-08-05 キヤノン株式会社 Image capture device and method for controlling image capture device
JP2020140201A (en) * 2019-02-27 2020-09-03 キヤノン株式会社 Imaging apparatus and control method of imaging apparatus
CN116699796A (en) * 2023-08-07 2023-09-05 西安信飞特信息科技有限公司 Lens and method capable of feeding back focal length position
CN116699796B (en) * 2023-08-07 2023-10-13 西安信飞特信息科技有限公司 Lens and method capable of feeding back focal length position

Also Published As

Publication number Publication date
JP6659100B2 (en) 2020-03-04

Similar Documents

Publication Publication Date Title
US20120268613A1 (en) Image capturing apparatus and control method thereof
JP6659100B2 (en) Imaging device
JP4094458B2 (en) Image input device
JP2008026802A (en) Imaging apparatus
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2010093362A (en) Imaging apparatus and optical apparatus
JP2009017155A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP2009192774A (en) Focus adjustment device and imaging device
JP2017211487A (en) Imaging apparatus and automatic focus adjustment method
US10901174B2 (en) Camera for limiting shifting of focus adjustment optical system
JP5403111B2 (en) Image tracking device
JP6486098B2 (en) Imaging apparatus and control method thereof
JP2015055635A (en) Imaging device and control method of the same
JP2010243843A (en) Autofocus system
JP6140945B2 (en) Focus adjustment device and imaging device
US9742983B2 (en) Image capturing apparatus with automatic focus adjustment and control method thereof, and storage medium
JP6624789B2 (en) Focus control device, control method thereof, control program, and imaging device
JP5446720B2 (en) Focus detection device, imaging device
JP6590899B2 (en) Imaging apparatus, imaging method, and program
JP4900134B2 (en) Focus adjustment device, camera
JP2010113130A (en) Focus detecting device, imaging apparatus, focus detecting method
JP2010183353A (en) Photographing device
JP6329400B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2017187589A (en) Focus adjustment device, method for the same, imaging apparatus, program, and storage medium
JP2012133067A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6659100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees