JP4721394B2 - LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD - Google Patents
LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD Download PDFInfo
- Publication number
- JP4721394B2 JP4721394B2 JP2003354372A JP2003354372A JP4721394B2 JP 4721394 B2 JP4721394 B2 JP 4721394B2 JP 2003354372 A JP2003354372 A JP 2003354372A JP 2003354372 A JP2003354372 A JP 2003354372A JP 4721394 B2 JP4721394 B2 JP 4721394B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- lens
- lens unit
- focus
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Lens Barrels (AREA)
- Studio Devices (AREA)
Description
本発明は、ビデオカメラ等の光学機器におけるレンズ制御に関するものである。 The present invention relates to lens control in an optical apparatus such as a video camera.
民生用のレンズ一体型カメラでは、小型化や、被写体からできるだけ近い位置での撮影を可能とする等の要請がある。このため、補正レンズと変倍レンズをカムで機械的に連動させるのではなく、補正レンズの移動軌跡を予めマイクロコンピュータ内にレンズカムデータとして記憶させておき、このレンズカムデータにしたがって補正レンズを駆動し、さらにこの補正レンズによってフォーカスも合わせる、いわゆるインナーフォーカスタイプのレンズが主流になってきている。 Consumer-use lens-integrated cameras are required to be compact and to be able to shoot at a position as close as possible to the subject. For this reason, the correction lens and the variable magnification lens are not mechanically linked by a cam, but the movement locus of the correction lens is stored in advance in the microcomputer as lens cam data, and the correction lens is determined according to the lens cam data. A so-called inner focus type lens, which is driven and further adjusted in focus by this correction lens, has become mainstream.
図8は、従来のインナーフォーカスタイプレンズシステムの構成を示す図である。同図において、901は固定されている前玉レンズ、902は変倍を行なうためのズームレンズ(バリエータレンズともいう:第1レンズユニット)、903は絞り、904は固定されている固定レンズ、905は焦点調節機能と変倍による像面の移動を補正する機能(いわゆるコンペンセータ機能)とを兼ね備えた補正レンズとしてのフォーカスレンズ(第2レンズユニット)である。また、906は撮像面である。
FIG. 8 is a diagram showing a configuration of a conventional inner focus type lens system. In the figure, 901 is a fixed front lens, 902 is a zoom lens (also referred to as a variator lens: first lens unit) for zooming, 903 is an aperture, 904 is a fixed lens, 905 Is a focus lens (second lens unit) as a correction lens having both a focus adjustment function and a function (so-called compensator function) for correcting movement of the image plane due to zooming.
図8ように構成されたレンズシステムでは、フォーカスレンズ905がコンペンセータ機能と焦点調節機能とを兼ね備えているため、焦点距離が等しくても、撮像面906に合焦するためのフォーカスレンズ905の位置は、被写体距離によって異なる。各焦点距離において被写体距離を変化させたとき、被写体像を撮像面906上に合焦させるためのフォーカスレンズ905の位置を連続してプロットすると、図9のようになる。変倍中は、図9に示された複数の軌跡の中から、被写体距離に応じた軌跡を選択し、選択した軌跡通りにフォーカスレンズ905を移動させれば、合焦状態を維持したままの変倍(ズーム)が可能になる。
In the lens system configured as shown in FIG. 8, since the
なお、前玉レンズでフォーカスを行うタイプのレンズシステムでは、ズームレンズに対して独立したフォーカスレンズが設けられており、さらにはズームレンズとフォーカスレンズとがカム環に機械的に結合されている。従って、例えばカム環を手動で回転させて焦点距離を変えようとした場合、カム環をいくら速く動かしても、カム環はこれに追従して回転する。ズームレンズとフォーカスレンズはカム環に形成されたカムに沿って光軸方向に移動するので、フォーカスレンズが合焦位置にあれば、変倍によって像がぼけることはない。 In a lens system that performs focusing with the front lens, a focus lens independent of the zoom lens is provided, and the zoom lens and the focus lens are mechanically coupled to a cam ring. Therefore, for example, when the cam ring is manually rotated to change the focal length, the cam ring follows the rotation no matter how fast the cam ring is moved. Since the zoom lens and the focus lens move in the optical axis direction along the cam formed on the cam ring, if the focus lens is at the in-focus position, the image is not blurred by zooming.
これに対し、インナーフォーカスタイプのレンズシステムにおいては、図9に示した複数の軌跡(電子カム軌跡とも称される)情報又はこれに対応する情報(すなわち、軌跡そのものを示す情報でもレンズ位置を変数とした関数でもよい)を記憶しておき、フォーカスレンズとズームレンズの位置に基づいて軌跡を選択して、この選択した軌跡上をたどりながらズーミングを行うのが一般的である。 On the other hand, in the inner focus type lens system, the lens position is variable even with the information of a plurality of trajectories (also referred to as electronic cam trajectories) shown in FIG. 9 or information corresponding thereto (that is, information indicating the trajectory itself). In general, the function is stored in advance, a locus is selected based on the positions of the focus lens and the zoom lens, and zooming is performed while following the selected locus.
ただし、ズームレンズがテレからワイド方向に移動する場合には、図9から明らかなように複数の軌跡がある程度の間隔を持った状態から収束する方向であるので、上述した軌跡追従方法でも合焦は維持できる。しかしながら、ワイドからテレ方向では、収束点にいたフォーカスレンズがどの軌跡をたどるべきかが判らないので、同様な軌跡追従方法では合焦を維持できない。 However, when the zoom lens moves from the tele to the wide direction, as shown in FIG. 9, since the plurality of trajectories are converged from a state having a certain interval, the above-mentioned trajectory tracking method is also in focus. Can be maintained. However, in the wide-to-tele direction, it is not possible to know which locus the focus lens at the convergence point should follow, so that the focus cannot be maintained by the similar locus following method.
そこで、特許文献1には、TV−AF方式で映像信号の高周波成分から得られるAF評価値信号(鮮鋭度信号)を用いて、ズームレンズの移動(変倍)の際に、フォーカスレンズを合焦位置よりピントをずらすように強制的に移動させ、さらにフォーカスレンズを合焦方向に向かうように切換え移動させる(軌跡に対する追従速度を変化させる)制御を繰り返し行う制御方法(ジグザグ動作)が開示されている。これにより、追従軌跡が補正される。また、特許文献1には、被写体や焦点距離、被写界深度に応じて追従速度の変化量を変化させることにより、鮮鋭度信号の増減周期を変化させ、追従軌跡の選択(特定)精度向上を図った手法も開示されている。
上記特許文献1にて開示されているジグザグ動作では、AF評価値の変化に基づいて追従軌跡を特定する。しかしながら、AF評価値は像のぼけ状態によって変化するだけでなく、被写体の絵柄変化によっても変化する。このため、フォーカスレンズの移動方向を切り換える際に誤った方向に切り換わってしまう場合があることを考慮して、一旦方向を間違っても正しい軌跡に戻れるように、追従軌跡の補正範囲が広範囲に設定されている。
In the zigzag operation disclosed in
ところが、このように広い補正範囲が設定されていると、本来の追従すべき軌跡から外れてしまうと、再び正しい軌跡に戻るまでに像ぼけが発生することになる。また、フォーカスレンズレンズの移動方向を間違った場合において、特にAF評価値レベルが大きく低下するような像ぼけ状態が発生したり、低コントラストの被写体を撮影しているときには、正しい軌跡を見つけることができず、像ぼけを引きずったままテレ端まで行き着くという現象も発生する可能性がある。 However, when a wide correction range is set in this way, if it deviates from the trajectory that should be followed, image blur will occur before returning to the correct trajectory. In addition, when the moving direction of the focus lens is wrong, a correct locus can be found, particularly when an image blur state that greatly reduces the AF evaluation value level occurs or when a low-contrast subject is shot. There is also a possibility that the phenomenon of reaching the tele end while dragging the image blur may occur.
さらに、周波数の高い被写体を撮影する場合には、ジグザグ動作によって追従軌跡を特定しようとする際に若干の像ぼけが発生する場合がある。こういった像ぼけが見えにくくなるように、被写体条件に応じてジグザグ動作におけるフォーカスレンズの駆動方向の反転タイミングを決定するAF評価値レベルを調節することは可能であるが、全ての被写体に対してジグザグ動作に伴う像ぼけの発生をなくすることは困難である。 Further, when shooting a subject having a high frequency, a slight image blur may occur when an attempt is made to specify a tracking locus by a zigzag operation. It is possible to adjust the AF evaluation value level that determines the inversion timing of the driving direction of the focus lens in the zigzag operation according to the subject condition so that such an image blur becomes difficult to see. Therefore, it is difficult to eliminate the image blur caused by the zigzag motion.
また、TV−AF方式では、AF評価値が得られる信号検出周期が垂直同期信号周期となるため、ズーミング速度が高速になればなるほど、軌跡選択精度は劣化することになる。したがって、追従軌跡を間違う頻度が増加する。 In the TV-AF method, since the signal detection cycle for obtaining the AF evaluation value is the vertical synchronization signal cycle, the higher the zooming speed, the lower the trajectory selection accuracy. Therefore, the frequency of mistaking the tracking locus increases.
本発明は、高速ズームにおいても、確実に合焦状態を維持しつつ、撮影シーンやカメラワークに左右されることなく高品位なズーミングが行えるレンズ制御装置、光学機器およびレンズ制御方法を提供することを目的とする。 The present invention provides a lens control device, an optical device, and a lens control method capable of performing high-quality zooming without being influenced by a shooting scene or camera work while reliably maintaining an in-focus state even in high-speed zoom. With the goal.
上記の目的を達成するために、本発明では、変倍用の第1レンズユニットの移動に際して、像面移動を補正するために第2レンズユニットの移動を制御するレンズ制御装置であって、所定の合焦距離に対して作成された前記第1レンズユニットの位置と前記第2レンズユニットの位置とを示すデータを記憶した記憶手段と、前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得手段と、前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御手段と、合焦対象物までの距離に対応する第2の情報を検出する検出手段とを有する。そして、前記制御手段は、変倍動作中に、前記データと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動範囲に制限を設ける。
To achieve the above object, the present invention, when the movement of the first lens unit for zooming, a lens control apparatus for controlling the movement of the second lens unit for correcting image plane movement, a predetermined between a position of the first lens unit, which is created for focus distance and position of the second lens unit and storage means for storing data indicative of the optical system including the first lens unit and the second lens unit obtaining means for obtaining a focus signal representing a focusing state of the optical system based on the photoelectric conversion signal of the optical image formed by, on the basis of the first information indicating the movement target position of the second lens unit first Control means for controlling the movement of the two-lens unit and detection means for detecting second information corresponding to the distance to the in-focus object. Then, the control unit, during zooming operation, when generating the first information in response to the data and the focus signal, the moving range of the second lens unit on the basis of the second information restrictions Is provided .
また、本発明は、変倍用の第1レンズユニットの移動に際して、像面移動を補正するために第2レンズユニットの移動を制御するレンズ制御方法であって、前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得ステップと、前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御ステップと、合焦対象物までの距離に対応する第2の情報を検出するステップとを有する。そして前記制御ステップにおいて、変倍動作中に、記憶手段に記憶された所定の合焦距離に対して作成された前記第1レンズユニットの位置と前記第2レンズユニットの位置とを示すデータと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動範囲に制限を設ける。
Further, the present invention, upon movement of the first lens unit for zooming, a lens control method for controlling the movement of the second lens unit for correcting image plane movement, the first lens unit and the second An acquisition step of acquiring a focus signal representing an in-focus state of the optical system based on a photoelectric conversion signal of an optical image formed by an optical system including the lens unit; and a first indicating a movement target position of the second lens unit . and a step of detecting a control step for controlling the movement of the second lens unit on the basis of the information, the second information corresponding to a distance to focus the object. Then, in the control step, said during zooming operation, the data indicating the position of the first lens unit that is created for a given focus distance stored in the storage means and the position of the second lens unit When the first information is generated in accordance with a focus signal, a limit is provided on a moving range of the second lens unit based on the second information .
ここで、上記第1の情報は、第1レンズユニットに対する第2レンズユニットの位置を表す軌跡情報若しくは該軌跡を特定するためのパラメータであってもよいし、第2レンズユニットを駆動すべき位置情報であってもよい。 Here, the first information may be trajectory information indicating the position of the second lens unit with respect to the first lens unit or a parameter for specifying the trajectory, or a position where the second lens unit is to be driven. It may be information.
本発明によれば、検出した合焦対象物までの距離に対応する第2の情報に基づいて、第2レンズユニットの移動を制御するために生成する第1の情報(軌跡情報等)の範囲を制限するので、実際に合焦を得たい対象物までの距離に対応しない第1の情報が生成されてしまうことを回避でき、ズーミング中の像ぼけの発生を抑えることができる。 According to the present invention, the range of the first information (trajectory information and the like) generated to control the movement of the second lens unit based on the second information corresponding to the detected distance to the in- focus object. Therefore, it is possible to avoid the generation of the first information that does not correspond to the distance to the object to be actually focused, and to suppress the occurrence of image blur during zooming.
ここで、上記データと検出された第2の情報に基づいて上記第1の情報を生成し、該生成された上記第1の情報を基準として、光学系の焦点状態を表す焦点信号を用いて新たな第1の情報を生成する再生成処理を行う場合において、該検出された第2の情報に基づいて、該再生成処理において生成される第1の情報の範囲を制限するようにしてもよい。これにより、焦点信号の検出周期に伴う欠点や、焦点信号が距離変化だけでなく、合焦対象物の絵柄の変化でも影響を受けて、誤った第1の情報が再生成されてしまうという問題や、ジグザグ動作の切り換えタイミングを間違うといった誤動作の問題を回避することができ、再生成処理において像ぼけの発生を抑えつつ、ズーミング中の高精度な合焦維持制御を行うことができる。 Here, the first information is generated on the basis of the data and the detected second information , and a focus signal representing a focus state of the optical system is used with the generated first information as a reference. in the case of performing the regeneration process of generating a new first information, based on the second information issued該検, so as to limit the scope of the first information generated in該再generation process Also good. As a result, there are disadvantages associated with the detection period of the focus signal, and the problem that the focus signal is affected not only by a change in distance but also by a change in the pattern of the in-focus object, and erroneous first information is regenerated. In addition, it is possible to avoid a problem of malfunction such as a wrong timing for switching the zigzag operation, and it is possible to perform high-precision focus maintaining control during zooming while suppressing the occurrence of image blur in the regeneration process.
また、再生成処理において、焦点信号が最も合焦した状態を示す位置に向かって第2レンズユニットが移動するように該レンズユニットの移動条件を、上記基準とする第1の情報に基づいて移動するときの移動条件に対して変化させる場合において、第2レンズユニットの移動範囲を第2の情報に基づいて制限してもよい。これにより、第2レンズユニットが誤った第1の情報に基づいて駆動されることを回避することができる。しかも、ジグザグ動作の切り換えタイミングを間違えた場合でも、像ぼけ量を小さく抑えつつ、正しい情報に基づく駆動への乗り移りを素早く行うことができる。 Further, in the regeneration process, the movement conditions of the lens unit such that the second lens unit toward the position shown the state in which the focus signal has the most focus moves, based on the first information to the reference moving In the case where the moving condition is changed with respect to the moving condition, the moving range of the second lens unit may be limited based on the second information . As a result , it is possible to avoid the second lens unit from being driven based on erroneous first information. Moreover, even when be fitted in the specified switching timing of the zigzag motion, while suppressing decrease the image blur amount it can be performed quickly Noriutsuri to the drive based on the correct information.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(前提技術)
まず本発明の実施例の説明に先立って、本発明の前提となる技術について説明する。
(Prerequisite technology)
First, prior to the description of the embodiments of the present invention, a technique which is a premise of the present invention will be described.
図10は、インナーフォーカスタイプのレンズシステムにおけるフォーカスレンズの軌跡追従方法の一例を説明するための図である。 FIG. 10 is a diagram for explaining an example of a locus tracking method of the focus lens in the inner focus type lens system.
図10において、Z0,Z1,Z2,・・・Z6はズームレンズの位置を示しており、a0,a1,a2,・・a6 およびb0,b1,b2,・・b6は、不図示のマイクロコンピュータに予め記憶されている被写体距離に応じたフォーカスレンズの位置である。これらのフォーカスレンズ位置の集まり(a0,a1,a2,・・a6およびb0,b1,b2,・・b6)が、代表的な被写体距離ごとのフォーカスレンズが追従すべき合焦軌跡(代表軌跡)となる。 10, Z 0 , Z 1 , Z 2 ,... Z 6 indicate the positions of the zoom lenses, and a 0 , a 1 , a 2 ,... A 6 and b 0 , b 1 , b 2 , · · b 6 is a position of the focus lens in accordance with the subject distance stored in advance in a microcomputer (not shown). A group of these focus lens positions (a 0 , a 1 , a 2 ,... A 6 and b 0 , b 1 , b 2 ,... B 6 ) follow the focus lens for each representative subject distance. It becomes a power focus locus (representative locus).
また、p0,p1,p2,・・p6は、上記2つの代表軌跡を基に算出された、フォーカスレンズが追従すべき合焦軌跡上の位置である。この合焦軌跡上の位置の算出式を以下に示す。 Further, p 0 , p 1 , p 2 ,... P 6 are positions on the in-focus locus that the focus lens should follow, calculated based on the two representative loci. A formula for calculating the position on the in-focus locus is shown below.
p(n+1)
=|p(n)-a(n)|/|b(n)-a(n)|×|b(n+1)-a(n+1)|+a(n+1) …(1)
上記(1)式によれば、例えば図10においてフォーカスレンズがp0にある場合、p0が線分b0−a0を内分する比を求め、 この比に従って線分b1−a1を内分する点をp1とする。このp1−p0の位置差と、ズームレンズがZ0〜Z1まで移動するのに要する時間から、合焦を保つためのフォーカスレンズの移動速度が分かる。
p (n + 1)
= | P (n) -a (n) | / | b (n) -a (n) | × | b (n + 1) -a (n + 1) | + a (n + 1) (1)
According to the above equation (1), for example, when the focus lens is at p 0 in FIG. 10, the ratio that p 0 internally divides the line segment b 0 -a 0 is obtained, and the line segment b 1 -a 1 is calculated according to this ratio. Let p 1 be the point that internally divides. From the position difference of p 1 -p 0 and the time required for the zoom lens to move from Z 0 to Z 1 , the moving speed of the focus lens for maintaining the focus can be found.
次に、ズームレンズの停止位置が、記憶された代表軌跡データを有するズームエリアの境界上のみという制限がないとした場合について説明する。図11はズームレンズの移動方向の内挿方法を説明するための図であり、図10の一部を抽出してズームレンズの位置を任意としたものである。 Next, a case where there is no restriction that the stop position of the zoom lens is only on the boundary of the zoom area having the stored representative trajectory data will be described. FIG. 11 is a diagram for explaining an interpolation method in the moving direction of the zoom lens. A part of FIG. 10 is extracted to arbitrarily set the position of the zoom lens.
図11において、縦軸はフォーカスレンズの位置、横軸はズームレンズの位置を示している。マイクロコンピュータで記憶している代表軌跡上のフォーカスレンズ位置を、ズームレンズの位置を Z0,Z1,・・Zk−1,Zk・・Znとしたとき、フォーカスレンズ位置を被写体距離別に、
a0,a1,・・ak−1,ak・・an
b0,b1,・・bk−1,bk・・bn
としている。
In FIG. 11, the vertical axis indicates the position of the focus lens, and the horizontal axis indicates the position of the zoom lens. When the focus lens position on the representative trajectory stored in the microcomputer is Z 0 , Z 1 ,... Z k-1 , Z k ..Z n , the focus lens position is the subject distance. Apart from
a 0, a 1, ·· a k-1, a k ·· a n
b 0, b 1, ·· b k-1, b k ·· b n
It is said.
今、ズームレンズ位置がズームエリア境界上でないZxにあり、フォーカスレンズ位置がpxである場合にax,bxを求めると、
ax=ak−(Zk−Zx)×(ak−ak−1)/(Zk−Zk−1) …(2)
bx=bk−(Zk−Zx)×(bk−bk−1)/(Zk−Zk−1) …(3)
となる。つまり現在のズームレンズ位置とそれを挟む2つのズームエリア境界位置(例えば、図11におけるZkとZk−1)とから得られる内分比に従い、記憶している4つの代表軌跡データ(図11でのak,ak−1,bk,bk−1)のうち同一被写体距離のものを上述の内分比で内分することにより、ax,bxを求めることができる。
Now, there is a Zx zoom lens position is not on the zoom area boundary, the seek a x, b x when the focus lens position is p x,
a x = a k - (Z k -Z x) × (a k -a k-1) / (Z k -Z k-1) ... (2)
b x = b k − (Z k −Z x ) × (b k −b k−1 ) / (Z k −Z k−1 ) (3)
It becomes. That is, according to the internal division ratio obtained from the current zoom lens position and two zoom area boundary positions (for example, Z k and Z k-1 in FIG. 11) between them, four stored representative trajectory data (FIG. 11 ak , a k−1 , b k , b k−1 ) at the same subject distance is internally divided by the above internal ratio, whereby a x , b x can be obtained.
そして、 ax,px,bxから得られる内分比に従い、予め記憶されている上記4つの代表データのうち、同一焦点距離のものを(1)式のように上述の内分比で内分することにより、pk,pk−1を求めることができる。 Then, according to the internal ratio obtained from a x , p x , b x , among the four representative data stored in advance, the data with the same focal length is expressed by the above internal ratio as shown in the equation (1). By dividing internally, p k and p k−1 can be obtained.
そして、ワイドからテレへのズーム時には、追従移動先のフォーカス位置pk および現在のフォーカス位置pxの差と、ズームレンズがZx〜Zk まで移動するのに要する時間とから、合焦を保つために必要なフォーカスレンズの移動速度が分かる。 At the time of zooming from the wide to telephoto, the difference between the follow-up the destination of the focus position p k and the current focus position p x, zoom lens and a time required to move to the Z x to Z k, the focus You can see the moving speed of the focus lens necessary to keep.
また、テレからワイドへのズーム時には、 追従移動先のフォーカス位置pk−1および現在のフォーカス位置Px の差と、ズームレンズがZx〜Zk−1まで移動するのに要する時間とから、合焦を保つためのフォーカスレンズの移動速度が分かる。 Further, when zooming from tele to wide, from the difference between the focus position p k−1 of the follow-up movement destination and the current focus position P x and the time required for the zoom lens to move from Z x to Z k−1. The moving speed of the focus lens for maintaining the in-focus state can be known.
このとき、マイクロコンピュータ内に予め記憶されている合焦軌跡情報のテーブルデータの例を図12に示す。図12は、ズームレンズ位置により変化する、被写体距離別のフォーカスレンズ位置データA(n,v)を示している。 変数nの列方向に被写体距離、変数vの行方向にズームレンズ位置(焦点距離)が変化している。ここでは、n=0が無限遠の被写体距離を表し、nが大きくなるに従って被写体距離は最至近距離側に変化する。n=mは1cmの被写体距離を示している。 FIG. 12 shows an example of table data of focusing locus information stored in advance in the microcomputer at this time. FIG. 12 shows focus lens position data A (n, v) for each subject distance, which changes depending on the zoom lens position. The subject distance changes in the column direction of the variable n, and the zoom lens position (focal length) changes in the row direction of the variable v. Here, n = 0 represents a subject distance at infinity, and the subject distance changes to the closest distance side as n increases. n = m indicates a subject distance of 1 cm.
一方、v=0はワイド端を表す。さらに、vが大きくなるに従って焦点距離が増し、v=sがテレ端のズームレンズ位置を表している。従って、1列のテーブルデータで1本の代表軌跡が描かれることになる。 On the other hand, v = 0 represents the wide end. Furthermore, the focal length increases as v increases, and v = s represents the zoom lens position at the tele end. Therefore, one representative trajectory is drawn with one column of table data.
次に、前述したように、ワイドからテレ方向におけるズーミング時にフォーカスレンズがどの軌跡をたどるべきかが判らなくなる問題を解消するための軌跡追従方法について説明する。 Next, as described above, a locus tracking method for solving the problem that it becomes difficult to know which locus the focus lens should follow during zooming from wide to telephoto will be described.
図13(A),(B)において、横軸は変倍レンズの位置を示している。また、図13(A)において、縦軸はTV−AF方式により撮像信号から得られるAF評価信号を示す。このAF評価信号は、撮像信号の高周波成分(鮮鋭度信号)のレベルを示している。また、図13(B)において、縦軸はフォーカスレンズの位置を示している。図13(B)において、ある距離に位置する被写体に対して合焦を得ながらズーミングを行う際にフォーカスレンズがた辿るべきカム軌跡(フォーカスレンズ位置の集まり)が1304であるとする。
13A and 13B, the horizontal axis indicates the position of the zoom lens. In FIG. 13A, the vertical axis indicates an AF evaluation signal obtained from the image pickup signal by the TV-AF method. This AF evaluation signal indicates the level of the high-frequency component (sharpness signal) of the imaging signal. Further, in FIG. 13 (B), the vertical axis represents the position of the focus lens. In FIG. 13B, it is assumed that 1304 is a cam locus (collection of focus lens positions) that the focus lens should follow when performing zooming while focusing on a subject located at a certain distance.
ここで、ズームレンズの位置1306(Z14)よりもワイド側での合焦軌跡追従のための標準移動速度を正(フォーカスレンズ至近方向に移動)、位置1306よりもテレ側でフォーカスレンズが無限遠方向に移動する際の合焦軌跡追従のための標準移動速度を負とする。合焦を維持しながらフォーカスレンズが目標軌跡1304を辿るときに、AF評価信号の大きさは、図13(A)に1301で示すレベルとなる。一般に、合焦を維持したズーミングでは、 AF評価信号レベルはほぼ一定値となる。
Here, the standard movement speed for tracking the in-focus locus on the wide side from the zoom lens position 1306 (Z14) is positive (moves in the direction closer to the focus lens), and the focus lens is at infinity on the telephoto side from the
図13(B)において、ズーミング時に、目標軌跡1304をトレースするフォーカスレンズの標準移動速度をVf0とする。実際のフォーカスレンズの移動速度をVfとし、該移動速度Vf を標準移動速度をVf0 に対して大小させながらズーミングすると、その軌跡は1305のようにジグザグな軌跡となる(以下、これを「ジクザク補正動作」という)。
In FIG. 13B, the standard moving speed of the focus lens that traces the
このとき、AF評価信号レベルは、図13(A)に1303で示すように、山と谷を生ずるように変化する。ここで、目標軌跡1304と実際のジグサグな軌跡1305が交わる位置でAF評価信号レベル1303は最大レベル1301となり( Z0,Z1,Z2,・・Z16の偶数のポイント)、実際の軌跡1305の移動方向ベクトルが切り換わる Z0,Z1,Z2,・・Z16の奇数のポイントでAF評価信号レベル1303は最小レベル1302となる。
At this time, the AF evaluation signal level changes so as to generate peaks and valleys as indicated by
そして、逆に、AF評価信号レベル1303の最小レベル1302の値TH1を予め設定し(すなわち、合焦とみなせる最小レベルTH1のAF評価信号を下限とする合焦許容範囲を設定し)、AF評価信号レベル1303の大きさがTH1と等しくなる毎に、軌跡1305の移動方向ベクトルを切り換えれば、切り換え後のフォーカスレンズの移動方向は、目標軌跡1304に近づく方向に設定できる。つまり、AF評価信号の最大レベル1301と最小レベル1302(TH1)の差分だけ像がぼける毎に、該ぼけを減らすようにフォーカスレンズの駆動条件である駆動方向および駆動速度を制御することで、ぼけ量の発生を抑制したズーミングが行える。
On the contrary, the value TH1 of the
このような手法を用いることにより、図9に示したように、被写体距離別の合焦軌跡が収束から発散していくワイドからテレへのズーミングにおいて、仮に合焦を維持する標準移動速度Vf0がそのときの被写体距離に対して最適でなくとも、標準移動速度((1)式より求まるp(n+1) を使って算出する)に対して、フォーカスレンズの移動速度Vf を制御しながら、AF評価信号レベルの変化に従って軌跡1305で示すような切り換え動作を繰り返すことにより、AF評価信号レベルが最小レベル1302(TH1)より下がらない、つまり一定量以上のぼけを生じず、合焦軌跡の再特定(再生成)が行える。また、TH1を適切に設定することにより、見た目には像ぼけが判らないズーミングが可能である。
By using such a method, as shown in FIG. 9, in the zooming from wide to tele, in which the focus locus for each subject distance diverges from convergence, the standard movement speed V f0 that maintains the focus temporarily. Is not optimal for the subject distance at that time, while controlling the moving speed V f of the focus lens with respect to the standard moving speed (calculated using p (n + 1) obtained from the equation (1)), By repeating the switching operation as indicated by the
ここで、フォーカスレンズの移動速度Vf は、標準移動速度に対して加える正方向の補正速度をVf+、負方向の補正速度をVf−とすると、
Vf =Vf0+Vf+ …(4)
又は、
Vf =Vf0+Vf− …(5)
となる。このとき、補正速度Vf+,Vf−は、上記ズーミング手法による追従軌跡の選択時に片寄りが生じないように、(4),(5)式により得られるVfの2つの方向ベクトルの内角が、Vf0の方向ベクトルにより2等分されるように決定される。
Here, the moving speed V f of the focus lens is V f + as the correction speed in the positive direction applied to the standard movement speed, and V f− as the correction speed in the negative direction.
V f = V f0 + V f + (4)
Or
V f = V f0 + V f− (5)
It becomes. At this time, the correction velocities V f + and V f− are the internal angles of the two direction vectors of V f obtained by the expressions (4) and (5) so that no deviation occurs when the tracking locus is selected by the zooming method. Is bisected by the direction vector of V f0 .
以上説明してきたズーミング制御は、撮像素子からの撮像信号を用いて焦点検出を行う関係から、映像の垂直同期信号に同期して処理が行われるのが一般的である。 The zooming control described above is generally performed in synchronization with the vertical synchronization signal of the video because of focus detection using the image pickup signal from the image pickup device.
図7は、マイクロコンピュータ内で行われるズーミング制御のフローチャートである。ステップ(図ではSと記す)701で処理が開始されると、S702で初期設定が行われる。初期設定では、マイクロコンピュータ内のRAMや各種ポートの初期化を行う。 FIG. 7 is a flowchart of zooming control performed in the microcomputer. When processing is started in step (denoted as S) 701, initial setting is performed in S702. In the initial setting, the RAM and various ports in the microcomputer are initialized.
S703では、カメラ本体の操作系の状態を検出する。マイクロコンピュータは、ここで撮影者が操作するズームスイッチユニットの情報を受け取り、撮影者にズーミング実行中を知らせるための、ズームレンズ位置などの変倍動作情報をディスプレイに表示する。 In S703, the state of the operation system of the camera body is detected. The microcomputer receives information on the zoom switch unit operated by the photographer here, and displays on the display zooming operation information such as the zoom lens position for notifying the photographer that zooming is being performed.
S704では、AF処理を行う。すなわちAF評価信号の変化に応じて自動焦点調節処理を行う。 In S704, AF processing is performed. That is, automatic focus adjustment processing is performed in accordance with changes in the AF evaluation signal.
S705では、ズーミング処理を行う。すなわち変倍に際して合焦を維持するためのコンペセータ動作の処理を行う。具体的には、図10に示す軌跡をほぼトレースするために、フォーカスレンズの標準駆動方向および標準駆動速度を算出を行う。 In S705, zooming processing is performed. That is, a compensator operation process is performed to maintain the focus during zooming. Specifically, the standard drive direction and standard drive speed of the focus lens are calculated in order to substantially trace the locus shown in FIG.
S706では、AFやズーミングに際して、S704からS705の処理ルーチンで算出されるズームレンズやフォーカスレンズの駆動方向や駆動速度のうちいずれを使用するかを選択し、ズームレンズやフォーカスレンズを、それぞれがメカ端に当たらないようにソフト的に設けている制御上のテレ端およびワイド端の間または制御上の至近端および無限端の間で駆動するルーチンである。 In S706, during AF or zooming, it is selected which of the driving direction and driving speed of the zoom lens and focus lens calculated in the processing routine of S704 to S705 is used, and the zoom lens and the focus lens are respectively mechanically operated. This is a routine that is driven between the telephoto end and the wide end on the control, or between the close end and the infinite end on the control, which are provided so as not to hit the end.
S707では、S706で定めたズームおよびフォーカス用の駆動方向情報、駆動速度情報に応じて、モータドライバに制御信号を出力し、レンズの駆動/停止を制御する。S707の処理終了後はS703に戻る。 In step S707, a control signal is output to the motor driver according to the zoom and focus drive direction information and drive speed information determined in step S706 to control driving / stopping of the lens. After the process of S707 ends, the process returns to S703.
なお、図7に示した一連の処理は、垂直同期信号に同期して実行される(S703の処理の中で次の垂直同期信号が入力されるまで待機する)。 Note that the series of processing shown in FIG. 7 is executed in synchronization with the vertical synchronization signal (wait until the next vertical synchronization signal is input in the processing of S703).
図5および図6には、1垂直同期時間に1回、マイクロコンピュータ内で実行される制御フローを示しており、図7のS705で実行される処理の内容を詳細に示している。
5 and 6 show a control flow executed in the microcomputer once in one vertical synchronization time, and show details of the processing executed in S705 of FIG.
以下、図4〜図7、さらには図10を用いて説明を行う。
Hereinafter, description will be made with reference to FIGS. 4 to 7 and FIG.
図4のS400では、ズームスイッチユニットの操作情報に応じて、自然な変倍動作が行えるようズームモータの駆動速度Zspを設定する。
In S400 of FIG. 4, the zoom motor drive speed Zsp is set so that natural zooming operation can be performed according to the operation information of the zoom switch unit.
S401では、現在のズームレンズおよびフォーカスレンズの位置から、撮影している被写体までの距離(被写体距離)を特定(推定)し、その被写体距離情報を3つの軌跡パラメタ(目標位置情報を得るためのデータ)α、β、γとしてRAMなどのメモリ領域に記憶する。ここでは、図5に示した処理が行われる。なお、以下、説明を簡単にするために、現在のレンズ位置にて合焦状態が維持されているものとして図5に示した処理を説明する。 In S401, the distance (subject distance) from the current zoom lens and focus lens positions to the subject being photographed is specified (estimated), and the subject distance information is used as three trajectory parameters (for obtaining target position information). Data) is stored as α, β, γ in a memory area such as a RAM. Here, the process shown in FIG. 5 is performed. For the sake of simplicity, the process shown in FIG. 5 will be described below assuming that the in-focus state is maintained at the current lens position.
図5のS501では、現在のズームレンズ位置Zx が、図12に示したデータテーブル上で、ワイド端からテレ端までをs等分したうちの何番目のズームエリアvに存在するのかを算出する。その算出方法を図6を用いて説明する。 In S501 of FIG. 5, calculating whether the current zoom lens position Z x is on the data table shown in FIG. 12, to present to the ordinal number of the zoom area v of which were s aliquoted from the wide-angle end to the telephoto end To do. The calculation method will be described with reference to FIG.
S601では、ズームエリア変数vをクリアする。S602では、次に示す(6)式に従って、ズームエリアvの境界上のズームレンズ位置Z(v)を算出する。このZ(v)は、図10で示したズームレンズ位置Z0,Z1,Z2,・・に相当する。 In S601, the zoom area variable v is cleared. In S602, the zoom lens position Z (v) on the boundary of the zoom area v is calculated according to the following equation (6). This Z (v) corresponds to the zoom lens positions Z 0 , Z 1 , Z 2 ,... Shown in FIG.
Z(v)=(テレ端ズームレンズ位置−ワイド端ズームレンズ位置)×v/s
+ワイド端ズームレンズ位置 …(6)
S603では、S602で求めたZ(v) が現在のズームレンズ位置Zx と等しいかどうか判別する。等しければ、ズームレンズ位置Zx はズームエリアvの境界上に位置するとして、S607で境界フラグに1を立てる。
Z (v) = (tele end zoom lens position−wide end zoom lens position) × v / s
+ Wide end zoom lens position (6)
In S603, it is determined whether Z (v) obtained in S602 is equal to the current zoom lens position Zx. If they are equal, it is assumed that the zoom lens position Z x is located on the boundary of the zoom area v, and 1 is set to the boundary flag in S607.
S603で等しくなければ、S604で、Zx <Z(v)かどうかを判別する。 S604がYesならば、Zx はZ(v−1)とZ(v)との間にあることになり、S606で境界フラグを0とする。S604でNoならば、S605でズームエリアvをインクリメントしてS602に戻る。 If they are not equal in S603, it is determined in S604 whether Z x <Z (v) . S604 is If Yes, Z x will be in the between Z (v-1) and Z (v), the boundary flag to 0 in S606. If No in S604, the zoom area v is incremented in S605 and the process returns to S602.
以上の処理を繰り返し行うことにより、図6のフローを抜けるときには、現在のズームレンズ位置Zx が、図12のデータテーブル上におけるv=k番目のズームエリアに存在し、さらにZx がズームエリア境界上か否かを知ることができる。 By repeating the above processing, when exiting the flow of FIG. 6, the current zoom lens position Z x is present in v = k th zoom area on the data table in FIG. 12, further Z x zoom area You can know if it is on the boundary.
図5に戻って、S501で図6の処理により現在のズームエリアが定まったので、以下の処理ではフォーカスレンズが図12のデータテーブル上のどこに位置するのかを算出する。 Returning to FIG. 5, since the current zoom area is determined by the processing of FIG. 6 in S501, the following processing calculates where the focus lens is located on the data table of FIG.
まず、S502では、被写体距離変数nをクリアし、S503では、現在のズームレンズ位置がズームエリアの境界上に存在しているかどうかを判別する。境界フラグが0ならば境界上にいないとしてS505からの処理に進む。 First, in S502, the subject distance variable n is cleared, and in S503, it is determined whether or not the current zoom lens position exists on the boundary of the zoom area. If the boundary flag is 0, it is determined that the boundary is not on the boundary, and the process proceeds to S505.
S505では、ZkにZ(v)をセットし、またZk−1にZ(v−1)をセットする。次に、S506では、4つのテーブルデータA(n,v−1)、A(n,v)、A(n+1,v−1)、A(n+1,v)を読み出し、S507で、上述した(2),(3)式からax,bx を算出する。 In S505, sets the Z (v) the Z k, also sets Z (v-1) to Z k-1. Next, in S506, four table data A (n, v-1) , A (n, v) , A (n + 1, v-1) , A (n + 1, v) are read, and in S507, the above-mentioned ( A x and b x are calculated from the equations 2) and (3).
一方、S503で境界フラグが1と判断された場合は、S504で、被写体距離nでのズームレンズ位置(ここではvとなる )に対する合焦位置A(n,v)および被写体距離n+1でのズームレンズ位置に対するA(n+1,v)を呼び出し、それぞれをax,bx としてメモリする。 On the other hand, if the boundary flag is determined to be 1 in S503, in S504, the zoom is performed at the focusing position A (n, v) and the subject distance n + 1 with respect to the zoom lens position (here , v) at the subject distance n. Call A (n + 1, v) for the lens position and store them as a x and b x respectively.
S508では、現在のフォーカスレンズ位置pxがax 以上であるかを判別する。ax以上であるときは、S509で現在のフォーカスレンズ位置pxがbx以上か否かを判別する。bx 以上でないときは、フォーカスレンズ位置px は被写体距離nとn+1の間にあることになり、このときの軌跡パラメタをS513からS515でメモリに格納する。S513では、α=px−ax とし、 S514でβ=bx−ax、S515でγ=nとする。 In S508, the current focus lens position p x is determined whether there are more than a x. When it is a x or more, the current focus lens position p x at S509 it is determined whether or b x. If not b x or more, the focus lens position p x will be located between the object distance n and n + 1, it stores the locus parameters at this time from the S513 to the memory in S515. In S513, α = p x −a x is set, β = b x −a x is set in S514, and γ = n is set in S515.
S508でNoとなるのは、フォーカスレンズ位置px が超無限遠位置である場合である。このとき、S512で、α=0としてS514からの処理へ進み、無限遠の軌跡パラメタを記憶する。 S508 of the No In a case where the focus lens position p x is ultra infinity position. At this time, in S512, α = 0 is set, and the process proceeds to S514 to store a trajectory parameter at infinity.
S509でYesとなる場合は、フォーカスレンズ位置px がより至近側である場合であり、この場合、S510で被写体距離nをインクリメントして、S511でnが最至近距離に対応した位置mより無限遠側であるかを判別する。最至近距離位置mより無限遠側であればS503へ戻る。S511でNoとなる場合は、フォーカスレンズ位置px が超至近位置である場合で、このときS512からの処理へ進むことにより、最至近距離に対する軌跡パラメタをメモリする。 If the Yes at S509, a case where the focus lens position p x is more close side, in this case, increments the object distance n in S510, infinite from position m to n is in correspondence to the closest distance S511 Determine whether it is the far side. If it is infinitely far from the closest distance position m, the process returns to S503. If the No in S511 is a case where the focus lens position p x is very short position, the processing proceeds to the S512 this time, the memory locus parameters for the closest distance.
図4に戻って説明を続ける。前述したようにS401では、現在のズームレンズ位置およびフォーカスレンズ位置が図9に示したどの軌跡上の位置なのかを知るための軌跡パラメタの記憶を行った。 Returning to FIG. 4, the description will be continued. As described above, in S401, a trajectory parameter for knowing on which trajectory shown in FIG. 9 the current zoom lens position and focus lens position are stored.
そして、S402では、1垂直同期時間(1V)後にズームレンズが到達しているズームレンズ位置(現在位置からの移動先の位置)Zx’を算出する。 ここで、S400で決定されたズーム速度をZsp (pps) とすると、1垂直同期時間後のズームレンズ位置Zx’は以下の(7)式で与えられる。ppsは、ステッピングモータの回転速度を表す単位で、1秒間当たりの回転するステップ量(1ステップ=1パルス)を示している。また、(7)式の符号は、ズームレンズの移動方向によってそれぞれ、テレ方向は+、ワイド方向は−としている。 In step S402, the zoom lens position (the position of the movement destination from the current position) Z x ′ reached by the zoom lens after one vertical synchronization time (1 V) is calculated. Here, when the zoom speed determined in S400 is Zsp (pps), the zoom lens position Z x ′ after one vertical synchronization time is given by the following equation (7). pps is a unit representing the rotation speed of the stepping motor, and indicates a step amount (1 step = 1 pulse) to be rotated per second. Further, in the sign of the expression (7), the tele direction is + and the wide direction is −, depending on the moving direction of the zoom lens.
Zx’=Zx±Zsp/垂直同期周波数 …(7)
次に、Zx’がどのズームエリアv’に存在するのかをS403で決定する。 S403では、図6の処理と同様の処理を行い、図6におけるZxをZx’に、vをv’に置き換えたものである。
Z x ′ = Z x ± Zsp / vertical synchronization frequency (7)
Next, in which zoom area v ′ Z x ′ is present is determined in S403. In S403, it performs processing similar to the processing in FIG. 6 is obtained by replacing the Z x in FIG. 6 'to, v a v' Z x on.
次にS404で、1垂直同期時間後のズームレンズ位置Zx’ がズームエリアの境界上に存在しているかどうかを判別し、境界フラグ=0ならば境界上ではないとして、S405からの処理に進む。 Next, in S404, it is determined whether or not the zoom lens position Z x ′ after one vertical synchronization time exists on the boundary of the zoom area. If the boundary flag = 0, it is determined that the zoom lens position is not on the boundary. move on.
S405では、Zk←Z(v’),Zk−1←Z(v’−1)と設定する。次に、S406では、図5の処理により被写体距離γが特定された4つのテーブルデータA(γ,v’−1)、A(γ,v’)、A(γ+1,v’−1)、A(γ+1,v’)を読み出し、S407で上述した(2),(3)式からax’,bx’ を算出する。一方、S403でYesと判断された場合は、S408で、被写体距離γでのズームエリアv’に対する合焦位置A(γ,v’)、および被写体距離γ+1でのズームエリアv’に対する合焦位置A(γ+1,v’)を呼び出し、それぞれをax’,bx’としてメモリする。
In S405, Z k ← Z (v ′) and Z k−1 ← Z (v′−1) are set. Next, in S406, four table data A (γ, v′−1) , A (γ, v ′) , A (γ + 1, v′−1) , in which the subject distance γ is specified by the processing of FIG. A (γ + 1, v ′) is read, and a x ′ and b x ′ are calculated from the expressions (2) and (3) described above in S407. On the other hand, if Yes is determined in S403, in S408, the in-focus position A (γ, v ′) with respect to the zoom area v ′ at the subject distance γ and the in-focus position with respect to the zoom area v ′ at the subject
そして、S409では、ズームレンズ位置がZx’ に達したときのフォーカスレンズの合焦位置(目標位置)px’ を算出する。(1)式を用いて、1垂直同期時間後の追従目標位置は(8)式のように表せる。 Then, in S409, 'focus position of the focus lens when reaching the (target position) p x' zoom lens position Z x is calculated. Using the equation (1), the follow target position after one vertical synchronization time can be expressed as the following equation (8).
px’=(bx’−ax’)×α/β+ax’ …(8)
したがって、追従目標位置と現在のフォーカスレンズ位置との差ΔFは、
ΔF=(bx’−ax’)×α/β+ax’−px
となる。
p x ′ = (b x ′ −a x ′) × α / β + a x ′ (8)
Therefore, the difference ΔF between the tracking target position and the current focus lens position is
ΔF = (b x ′ −a x ′) × α / β + a x ′ −p x
It becomes.
次に、S410では、フォーカス標準移動速度Vf0を算出する。Vf0はフォーカスレンズ位置差ΔFを、この距離を移動するのに要するズームレンズの移動時間で除算して得られる。 Next, in S410, a focus standard movement speed Vf0 is calculated. V f0 is obtained by dividing the focus lens position difference ΔF by the zoom lens moving time required to move this distance.
以下、図13(B)に示したフォーカスレンズの移動速度補正(ジグザグ動作)を行うための補正速度の算出方法を説明する。 Hereinafter, a correction speed calculation method for performing the movement speed correction (zigzag operation) of the focus lens shown in FIG. 13B will be described.
S411では、各種パラメタの初期値化を行い、以後の処理で用いる「反転フラグ」のクリアを行う。S412では、S410で得たフォーカス標準移動速度Vf0から、「ジグザグ補正動作」用の補正速度Vf+,Vf−を算出する。 In S411, various parameters are initialized and “inversion flag” used in the subsequent processing is cleared. In S412, correction speeds V f + and V f− for “zigzag correction operation” are calculated from the focus standard movement speed V f0 obtained in S410.
ここで、補正量パラメタδおよび補正速度Vf+,Vf−は以下のように算出される。図14は、補正量パラメタδに応じた補正速度Vf+,Vf−の計算方法を説明するための図である。図14では、横軸にズームレンズ位置を、縦軸にフォーカスレンズ位置を示している。1304は追従すべき目標軌跡である。
Here, the correction amount parameter δ and the correction speeds V f + and V f− are calculated as follows. FIG. 14 is a diagram for explaining a method of calculating the correction speeds V f + and V f− according to the correction amount parameter δ. In FIG. 14, the horizontal axis indicates the zoom lens position, and the vertical axis indicates the focus lens position.
今、ズームレンズ位置がxだけ変化するとき、フォーカスレンズ位置がy変化する(すなわち、目標位置に到達する)フォーカス速度が1403で算出された標準速度Vf0であり、ズームレンズ位置がx変化するときフォーカスレンズ位置が、変位yを基準としてn又はmだけ変化するフォーカス速度がそれぞれ、求めたい補正速度Vf+,Vf−である。ここで、変位yよりさらに至近側に駆動する速度(標準速度Vf0に正方向の補正速度Vf+を加算した速度)の方向ベクトル1401と、変位yより無限遠側に駆動する速度(標準速度Vf0に負方向の補正速度Vf−を加算した速度)の方向ベクトル1402とが、標準速度Vf0の方向ベクトル1403に対して等しい角度δだけ離れた方向ベクトルを持つようにn,mを決定する。
Now, when the zoom lens position changes by x, the focus lens position changes by y (that is, reaches the target position), the focus speed is the standard speed V f0 calculated in 1403, and the zoom lens position changes by x. The focus speed at which the focus lens position changes by n or m with respect to the displacement y is the correction speeds V f + and V f− to be obtained , respectively. Here, a
まずm,nを求める。図14より図形的に、
tanθ=y/x , tan(θ-δ) = (y-m)/x ,tan(θ+δ) = (y+n)/x …(9)
また、
tan(θ±δ) = (tanθ±tanδ)/{1±(-1)×tanθ×tanδ) …(10)
が成り立つ。
First, m and n are obtained. From FIG.
tanθ = y / x, tan (θ-δ) = (ym) / x, tan (θ + δ) = (y + n) / x (9)
Also,
tan (θ ± δ) = (tanθ ± tanδ) / {1 ± (-1) × tanθ × tanδ) (10)
Holds.
そして、(9),(10)式より、
m = (x 2 +y 2 )/(x/k+y) …(11)
n= (x 2 +y 2 )/(x/k-y) …(12)
但し、tanδ=k
となり、n,mを算出できる。
From the equations (9) and (10),
m = (x 2 + y 2 ) / (x / k + y) ... (11)
n = ( x 2 + y 2 ) / (x / ky) (12)
However, tanδ = k
Thus, n and m can be calculated.
ここで補正角度δは、被写界深度の深さや、焦点距離等をパラメタとした変数としている。これにより、フォーカスレンズの駆動状態に応じて変化するAF評価信号レベルの増減周期を、所定のフォーカスレンズ位置変化量に対して一定に保つことができ、ズーミング中にフォーカスレンズが追従すべき合焦軌跡を見逃す可能性を低減することが可能となる。 Here, the correction angle δ is a variable having parameters such as the depth of field and the focal length. Thereby, the increase / decrease period of the AF evaluation signal level that changes according to the driving state of the focus lens can be kept constant with respect to a predetermined focus lens position change amount, and the focus that the focus lens should follow during zooming. It is possible to reduce the possibility of missing the locus.
δの値に応じてマイクロコンピュータのメモリ内に、データテーブルとしてkの値を記憶し、必要に応じて読み出すことにより、(11),(12)式の計算を行う。 According to the value of δ, the value of k is stored as a data table in the memory of the microcomputer and is read out as necessary, thereby calculating the equations (11) and (12).
ここで、ズームレンズ位置が単位時間当たりx変化する場合、
ズーム速度Zsp=x
フォーカス標準速度Vf0=y
補正速度Vf+=n,Vf−=m
となり、(11),(12)式により、補正速度Vf+,Vf−(負の速度)が得られる。
Here, when the zoom lens position changes by x per unit time,
Zoom speed Zsp = x
Focus standard speed V f0 = y
Correction speed V f + = n, V f− = m
Thus, the correction speeds V f + and V f− (negative speed) are obtained from the equations (11) and (12).
S413では、図7のS703で得られたズームスイッチユニットの操作状態を示す情報に応じて、ズーミング中かどうかを判断する。ズーミング中であれば、S416からの処理を行う。ズーミング中でなければ、S414でAF評価信号レベルの現在値から任意の定数μを減算した値をTH1とする。このTH1は、図13(A)で説明した、補正方向のベクトルの切換基準(ジグザグ補正動作の切換基準)となるAF評価信号レベルが決定される。このTH1はズーミング開始直前に決まることになり、この値が図13(A)の1302の最小レベルに対応する。
In S413, it is determined whether zooming is being performed according to the information indicating the operation state of the zoom switch unit obtained in S703 of FIG. If it is during zooming, the processing from S416 is performed. If not during zooming, a value obtained by subtracting an arbitrary constant μ from the current value of the AF evaluation signal level in S414 is set to TH1. The TH evaluation signal level serving as the reference for switching the vector in the correction direction (switching reference for the zigzag correction operation) described in FIG. 13A is determined for TH1. This TH1 is determined immediately before the start of zooming, and this value corresponds to the
次に、S415では、補正フラグをクリアし、本処理を抜ける。ここで、補正フラグとは、軌跡追従状態が正方向の補正がかかった状態(補正フラグ=1)なのか、負方向の補正状態(補正フラグ=0)であるのかを示すフラグである。 Next, in S415, the correction flag is cleared and the present process is exited. Here, the correction flag is a flag indicating whether the trajectory tracking state is a state where correction in the positive direction is applied (correction flag = 1) or a correction state in the negative direction (correction flag = 0).
S413でズーミング中と判断されると、S414でズーミング方向がワイドからテレ方向であるか否か判別を行う。テレからワイド方向であればS419でVf+=0,Vf−=0とし、S420からの処理を行う。ワイドからテレ方向であれば、S417で現在のAF評価信号レベルが、TH1より小さいか否かを判別する。TH1以上であればS420へ進み、TH1より小さければ、現在のAF評価信号レベルが図13(A)のTH1(1302)のレベルを下回ったので、補正方向の切り換えを行うため、S418で反転フラグに1をセットする。
If it is determined in S413 that zooming is in progress, it is determined in S414 whether the zooming direction is from wide to tele. If the direction is tele to wide, V f + = 0 and V f− = 0 in S419, and the processing from S420 is performed. If the direction is wide to tele, it is determined in S417 whether or not the current AF evaluation signal level is lower than TH1. If it is equal to or higher than TH1, the process proceeds to S420. If it is smaller than TH1, the current AF evaluation signal level is lower than the level of TH1 (1302) in FIG. 13A.
S420では、反転フラグが1かどうかを判別し、反転フラグ=1であればS421で補正フラグが1かどうかを判別する。S421で補正フラグ=1でなければ、S424で補正フラグ=1(正方向の補正状態)とし、さらに(4)式により、
フォーカスレンズの移動速度Vf=Vf0+Vf+(但し、Vf+≧0)
とする。
In S420, it is determined whether or not the reverse flag is 1. If the reverse flag = 1, it is determined whether or not the correction flag is 1 in S421. If the correction flag is not 1 in S421, the correction flag is set to 1 (correction state in the positive direction) in S424, and further according to the equation (4),
Focus lens moving speed V f = V f0 + V f + (where V f + ≧ 0)
And
一方、S421で補正フラグ=1であれば、S423で補正フラグ=0(負方向の補正状態)とし、(5)式により、
フォーカスレンズの移動速度Vf=Vf0+Vf−(但し、Vf−≦0)
とする。
On the other hand, if the correction flag = 1 in S421, the correction flag = 0 (negative correction state) in S423, and the equation (5):
Focus lens moving speed V f = V f0 + V f− (where V f− ≦ 0)
And
また、S420で反転フラグが1でなければ、S422で補正フラグ=1かどうかを判別する。補正フラグ=1であればS424へ、そうでなければS423へ進む。 If the reverse flag is not 1 in S420, it is determined in S422 whether the correction flag = 1. If the correction flag = 1, the process proceeds to S424, and if not, the process proceeds to S423.
本処理の終了後、図7に示すS706で、動作モードに応じて、フォーカスレンズおよびズームレンズの駆動方向と駆動速度が選択される。ズーミング動作の場合、ここではS423またはS424で求めたフォーカスレンズ移動速度Vf が正であるのか負であるのかにより、フォーカスレンズの駆動方向がそれぞれ、至近方向、無限遠方向に設定される。このようにフォーカスレンズのジグザグ駆動を行いながら、トレースすべき軌跡の再特定を行うよう動作する。 After the completion of this process, the driving direction and driving speed of the focus lens and zoom lens are selected according to the operation mode in S706 shown in FIG. In the zooming operation, the focus lens drive direction is set to the near direction and the infinity direction depending on whether the focus lens moving speed Vf obtained in S423 or S424 is positive or negative. In this way, the zigzag drive of the focus lens is performed, and the locus to be traced is re-specified.
以上が本発明の前提技術であり、以下、本発明の実施例について前提技術との差異を中心に説明する。 The above is the base technology of the present invention, and the embodiments of the present invention will be described below with a focus on differences from the base technology.
図1には、本発明の実施例1であるレンズ制御装置を搭載した撮像装置(光学機器)としてのビデオカメラの構成を示す。なお、本実施例は、撮影レンズ一体型の撮像装置に本発明を適用した例を説明するが、本発明は、交換レンズとこれが装着されるカメラ本体とを有する撮像システムの交換レンズ(光学機器)にも適用できる。この場合、カメラ本体側から送信された信号に応答してレンズ内のマイクロコンピュータが以下に説明するズーミング動作を行う。また、本発明は、ビデオカメラに限らず、デジタルスチルカメラ等、各種の撮像装置に適用できる。
FIG. 1 shows a configuration of a video camera as an image pickup apparatus (optical apparatus) equipped with a lens control apparatus that is
図1において、物体側から順に、101は固定されている前玉レンズユニット101、102は光軸方向に移動して変倍を行うズームレンズユニット(第1レンズユニット)、103は絞り、104は固定されている固定レンズユニット、105は焦点調節機能と変倍による像面移動を補正するコンペセータ機能とを兼ね備え、光軸方向に移動するフォーカスレンズユニット(第2レンズユニット)である。これらレンズユニットにより構成される撮影光学系は、物体側(図の左側)から順に、正、負、正、正の光学パワーを有する4つのレンズユニットで構成されたリアフォーカス光学系である。なお、図中には、各レンズユニットが1枚のレンズにより構成されているように記載されているが、実際には、1枚のレンズにより構成されていてもよいし、複数枚のレンズにより構成されていてもよい。
In FIG. 1, in order from the object side, 101 is a
106はCCDやCMOSセンサにより構成される撮像素子である。撮影光学系を通ってきた物体からの光束はこの撮像素子106上に結像する。撮像素子106は、結像した物体像を光電変換して撮像信号を出力する。撮像信号は、増幅器(AGC)107で最適なレベルに増幅されてカメラ信号処理回路108へと入力される。カメラ信号処理回路108は、入力された撮像信号を標準テレビ信号に変換した後、増幅器110に出力する。増幅器110で最適レベルに増幅されたテレビ信号は、磁気記録再生装置111に出力され、ここで磁気テープ等の磁気記録媒体に記録される。記録媒体としては、半導体メモリや光ディスク等、他のものを用いてもよい。
また、増幅器110で増幅されたテレビ信号は、LCD表示回路114にも送られ、LCD115に撮影画像として表示される。なお、LCD115には、撮影モードや撮影状態、警告等を撮影者に知らせる画像も表示される。このような画像は、カメラマイクロコンピュータ116がキャラクタジェネレータ113を制御して、ここからの出力信号をLCD表示回路114でテレビ信号にミックスすることで、撮影画像に重畳して表示される。
The television signal amplified by the
一方、カメラ信号処理回路108に入力された撮像信号を、同時に内部メモリを使って圧縮処理した後、カードメディア等の静止画記録媒体112に記録することもできる。
On the other hand, the image pickup signal input to the camera
また、カメラ信号処理回路108に入力された撮像信号は、焦点情報生成手段としてのAF信号処理回路109へも入力される。AF信号処理回路109で生成されたAF評価値信号(焦点信号)は、カメラマイクロコンピュータ116との通信によりデータとして読み出される。
The imaging signal input to the camera
また、カメラマイクロコンピュータ116は、ズームスイッチ130およびAFスイッチ131の状態を読み込み、さらにフォトスイッチ134の状態も検出する。
Further, the
フォトスイッチ134が半押しの状態では、AFによる合焦動作が開始され、合焦状態にてフォーカスロックされる。さらに、全押し(深押し)状態では、合焦非合焦に関わらずフォーカスロックして、カメラ信号処理回路108内のメモリ(不図示)に画像を取り込み、磁気テープや静止画記録媒体112に静止画記録を行う。
When the
なお、カメラマイクロコンピュータ116は、モードスイッチ133の状態に応じて動画撮影モードか静止画撮影モードかを判別し、カメラ信号処理回路108を介して磁気記録再生装置111や静止画記録媒体112を制御する。これにより記録媒体に適したテレビ信号をこれに供給したり、モードスイッチ133が再生モードにセットされている場合には磁気記録再生装置111や静止画記録媒体112からこれらに記録されたテレビ信号の再生制御を行う。
The
カメラマイクロコンピュータ116内のコンピュータズームユニット(制御手段)119は、AFスイッチ131がオフで、ズームスイッチ130が操作されているときは、コンピュータズームユニット119内のプログラムによってズームモータドライバ122に対し、ズームレンズユニット102をズームスイッチ130の操作されている方向に対応したテレまたはワイド方向に駆動するための信号を出力する。ズームモータドライバ122はこの信号を受けて、ズームモータ121を介してズームレンズユニット102を該方向に駆動する。またこのとき、コンピュータズームユニット119は、カムデータメモリ120に予め記憶されたレンズカムデータ(図11に示したような複数の被写体距離に応じた代表軌跡のデータや軌跡パラメタのデータ)に基づいて、フォーカスモータドライバ126を介してフォーカスモータ125を駆動し、変倍に伴う像面移動を補正するようフォーカスレンズユニット106を駆動する。
The computer zoom unit (control means) 119 in the
また、カメラマイクロコンピュータ116内のAF制御ユニット117は、AFスイッチ131がオンで、ズームスイッチ130が操作されているときは、合焦状態を保ち続けつつ変倍動作を行う必要があるので、コンピュータズームユニット119が、内部プログラムにより、カムデータユニット120に記憶されたレンズカムデータのみならず、AF信号処理回路109から送られてくるAF評価値信号や被写体距離検出回路127からの出力から得られた被写体(合焦対象物)までの距離情報とに基づいて、ズームレンズユニット102およびフォーカスレンズユニット105を駆動する。
Further, the
なお、被写体距離検出回路127からの出力信号は、カメラマイクロコンピュータ116内の距離情報処理部128で演算処理され、被写体距離情報としてコンピュータズームユニット119に出力される。
The output signal from the subject
また、AFスイッチ131がオンで、ズームスイッチ130が操作されていないときは、AF制御ユニット117は、AF信号処理回路109から送られてきたAF評価値信号が最大になるようにフォーカスレンズ105を駆動するようフォーカスモータドライバ126に信号を出力し、フォーカスモータ125を介してフォーカスレンズレンズユニット105を駆動する。これにより、自動焦点調節動作が行われる。
When the AF switch 131 is on and the
ここで、被写体距離検出回路127は、アクティブセンサを用いた三角測距方式で被写体までの距離を測定し、その測定結果である距離情報を出力する。この場合のアクティブセンサとしては、コンパクトカメラによく使用される赤外線センサを用いることができる。
Here, the subject
なお、本実施形態では三角測距方式で距離検出を行う場合を例として説明するが、本発明における距離検出手段としてはこれ以外のものを用いることができる。例えば、TTL位相差検出方式による距離検出を行ってもよい。この場合、撮影レンズの射出瞳を通ってきた光を分割する素子(ハーフプリズム又はハーフミラー)を設け、該素子から射出した光をサブミラーや結像レンズを介して少なくとも2つのラインセンサへと導き、これらラインセンサの出力の相関を取って、これら出力のずれ方向およびずれ量を検出し、これら検出結果から被写体までの距離を求める。 In this embodiment, a case where distance detection is performed by the triangulation method will be described as an example. However, other distance detection means in the present invention can be used. For example, distance detection by a TTL phase difference detection method may be performed. In this case, an element (half prism or half mirror) that divides the light that has passed through the exit pupil of the photographing lens is provided, and the light emitted from the element is guided to at least two line sensors via the sub mirror and the imaging lens. Then, the correlation between the outputs of these line sensors is taken to detect the deviation direction and deviation amount of these outputs, and the distance to the subject is obtained from these detection results.
三角測距および位相差検出方式による距離演算の原理図をそれぞれ図15および16に示す。図15において、201は被写体、202は第1の光路用の結像レンズ、203は第1の光路用のラインセンサ、204は第2の光路用の結像レンズ、205は第2の光路用のラインセンサである。両ラインセンサ203,204は基線長Bだけ離れて設置されている。被写体201からの光のうち、結像レンズ202によって第1の光路を通った光がラインセンサ203上に結像し、結像レンズ204によって第2の光路を通った光がラインセンサ205上に結像する。ここで、第1と第2の光路を通って結像した2つの被写体像を受けたラインセンサ203,205から読み出した信号の例を示したものが図16である。2つのラインセンサは基線長Bだけ離れているため、図15から分かるように、被写体像信号は画素数Xだけずれたものとなる。そこで2つの信号の相関を、画素をずらしながら演算し、相関が最大になる画素ずらし量を求めることでXが演算できる。このXと基線長B、および結像用レンズ202,204の焦点距離fより、三角測量の原理で被写体までの距離Lが、L=B×f/Xにより求められる。
FIGS. 15 and 16 show the principle of distance calculation by the triangulation and phase difference detection methods, respectively. In FIG. 15, 201 is a subject, 202 is an imaging lens for the first optical path, 203 is a line sensor for the first optical path, 204 is an imaging lens for the second optical path, and 205 is for the second optical path. This is a line sensor. Both
さらに、距離検出手段として、超音波センサを用いてその伝搬速度を測定して被写体までの距離を検出する方法も採用することができる。 Furthermore, as a distance detection means, a method of detecting the distance to the subject by measuring the propagation speed using an ultrasonic sensor can be employed.
被写体距離検出回路127からの距離情報は、距離情報処理部128に送られる。距離情報処理部128では、以下の3種類の処理を行っている。
The distance information from the subject
1.現在のズームレンズユニット102およびフォーカスレンズユニット105の位置が、図9上のどの距離のカム軌跡上の対応するかを算出する。カム軌跡の算出は、例えば、図4の処理S401で説明したように、現在のレンズユニット位置を基に、軌跡パラメタα、β、γなりの、図12の列方向のγ列とγ+1列のカム軌跡をα/βの比率に内分する仮想的なカム軌跡が被写体距離として、何mに相当するのかを出力する。軌跡パラメタα、β、γと、被写体距離とは、所定の相関テーブルデータで変換され、主被写体の実距離が出力できるようになっている。
1. It is calculated which distance on the cam locus in FIG. 9 corresponds to the current positions of the
2.被写体距離検出回路127からの被写体の実距離を、上記1の相関テーブルの逆変換を行うことで、軌跡パラメタα、β、γで表現される図9上のカム軌跡を求める。このとき、相関テーブルの逆変換処理は、図9のカム軌跡が収束しているワイド側のデータは使用せず、軌跡が分散している、出来るだけテレ側のデータを用いて行われ、最も分解能の高い軌跡パラメタが得られるようにしている。
2. The actual trajectory of the subject from the subject
3.上記1.2の実距離差と差分方向を算出する。 3. The actual distance difference and the difference direction of 1.2 are calculated.
これら1,2,3の処理の内、上記2の処理により、被写体距離検出回路127で検出された検出距離に相当するカム軌跡データの特定が行える。
Of these 1, 2, and 3 processes, the above-described
一方、カメラマイコン116は、露出制御も行う。カメラマイコン116は、カメラ信号処理回路108で生成されたテレビ信号の輝度レベルを参照し、輝度レベルが露出に適正となるようアイリスドライバ124を制御してIGメータ123を駆動し、絞り103の開口を制御する。絞り103の開口量は、アイリスエンコーダ129により検出され、絞り103のフィードバック制御が行われる。また、絞り103のみでは適正な露出制御ができない場合には、撮像素子106の露光時間をタイミングジェネレータ(TG)132により制御し、高速シャッターから所謂スローシャッターと呼ばれる長時間露光まで対応する。さらに、低照度下での撮影など露出が不足する際には、増幅器107を通じてテレビ信号のゲインを制御する。
On the other hand, the
撮影者は、メニュースイッチユニット135を操作することで、撮影条件に適した撮影モードやカメラの機能切換えをマニュアル操作できる。 The photographer can manually operate the shooting mode and camera function switching suitable for the shooting conditions by operating the menu switch unit 135.
次に、ズーミング動作時のアルゴリズムを図3を用いて説明する。本実施例では、カメラマイクロコンピュータ116内のコンピュータズームユニット119が、前述した各動作フロー(プログラム)を含めて、以下に説明する動作フローの処理を実行する。
Next, an algorithm during the zooming operation will be described with reference to FIG. In the present embodiment, the
また、本実施例では、被写体距離検出回路127より得られる距離情報(第2の情報)に応じて、追従すべきカム軌跡(第1の情報)を特定(生成)し、ズーミング動作を行う。図3の動作フローは、距離情報を用いて、追従すべきカム軌跡であるズームトラッキングカーブを特定(生成)しながらズーミング動作する方法の例である。特にこの方法は、超高速ズームなどAF評価値の検出周期が粗くなり、TV−AFの参照信号(AF評価値信号)だけでは、ズームトラッキングカーブの特定に充分な精度が上げられない場合に有効である。
In this embodiment, the cam locus (first information) to be followed is specified (generated) according to the distance information (second information) obtained from the subject
図3は、本実施例において、先に説明した図7のS705で行われる処理であり、図4と同様な処理(ステップ)については、同一符号を付して説明を省略する。 FIG. 3 shows the processing performed in S705 of FIG. 7 described above in the present embodiment, and the same processing (steps) as in FIG.
S400では、ズーム動作時のズーム速度を決定する。S300では、被写体距離検出回路127の出力信号に応じて、現在の主被写体の撮影距離が、図9に示した代表軌跡のうちどのカム軌跡に対応する距離かを判別し、軌跡パラメタα、β、γを算出する。またこれと同時に、図4のS401で説明した、現在のズームレンズ位置、フォーカスレンズ位置に応じた軌跡パラメタαnow、βnow、γnowを算出する。
In S400, the zoom speed during the zoom operation is determined. In S300, in accordance with the output signal of the subject
ここでαnow、βnow、γnow は、図5のS512からS515に至る処理で算出したα、β、γをそれぞれαnow、βnow、γnow の名前でメモリに格納されるものである。 Here, α now , β now , and γ now are stored in the memory under the names α now , β now , and γ now , respectively, calculated in the processing from S512 to S515 in FIG. .
一方、被写体距離検出回路127により得られた距離情報に基づく軌跡パラメタは、α、β、γとして、例えば以下の方法で算出される。
On the other hand, the trajectory parameters based on the distance information obtained by the subject
まず、出力される距離情報と図9に示した代表軌跡(カム軌跡)との相関を得るために、予め代表的な被写体距離のカム軌跡(カムカーブ)形状が均一な範囲で、距離の変化と軌跡パラメタとの相関をテーブルデータ化しておく。これにより、距離情報を入力として、軌跡パラメタの算出を行う。カム軌跡形状が変化する被写体距離では、別の相関関係を表すルックアップテーブルを設け、これらテーブルを複数持つことで、全ての被写体距離毎に軌跡パラメタが得られるようになっている。 First, in order to obtain the correlation between the output distance information and the representative trajectory (cam trajectory) shown in FIG. The correlation with the trajectory parameter is converted into table data. Thus, the trajectory parameter is calculated using the distance information as an input. For subject distances where the cam trajectory shape changes, a lookup table representing another correlation is provided, and by providing a plurality of these tables, trajectory parameters can be obtained for every subject distance.
焦点距離に関しては、メモリ内にデータとして有している図9の離散的なカム軌跡情報のうち、軌跡パラメタα、β、γの分解能が最も高い長焦点距離側での軌跡パラメタが出力できるようにする。これにより、図9に示すようにワイド側でカム軌跡が収束している位置に現在のレンズ位置が存在しても、距離情報に応じて、カム軌跡が発散しているテレ側のポイントでの軌跡パラメタを引き出すことが可能となる。したがって、ズームレンズ102がワイド側に位置している時点で、テレ側での軌跡パラメタを基に(内挿)演算することで、フォーカスレンズ105が辿るべきカム軌跡を1本、特定することが可能となる。
Regarding the focal length, the trajectory parameter on the long focal length side having the highest resolution of the trajectory parameters α, β, γ can be output from the discrete cam trajectory information of FIG. 9 held as data in the memory. To. As a result, as shown in FIG. 9, even if the current lens position is present at the position where the cam locus is converged on the wide side, the telescopic point where the cam locus is diverging is determined according to the distance information. It is possible to extract the trajectory parameters. Therefore, when the
なお、S300は所定周期(例えば、1垂直同期周期)ごとに実行される。このため、ズーミング中に被写体距離が変化したとしても、被写体距離検出回路127の出力に従い、最新の辿るべきカム軌跡が逐次更新されることになる。
Note that S300 is executed every predetermined period (for example, one vertical synchronization period). For this reason, even if the subject distance changes during zooming, the latest cam trajectory to be followed is sequentially updated according to the output of the subject
次に、S301では、被写体距離検出回路127の出力(つまりはS300で算出したα、β、γ)に基づき、本発明の特徴である、カム軌跡の補正範囲を決定する。この補正範囲は、TV−AF信号(AF評価値)を用いた追従カム軌跡の補正動作における補正範囲に相当し、例えば、図2に示した上限201と下限202とで挟まれた範囲となる。
Next, in S301, the cam locus correction range, which is a feature of the present invention, is determined based on the output of the subject distance detection circuit 127 (that is, α, β, γ calculated in S300). This correction range corresponds to the correction range in the tracking cam locus correction operation using the TV-AF signal (AF evaluation value), and is, for example, a range sandwiched between the
ここで、本実施例では、例えば被写体距離検出回路127からの出力が、5mの被写体距離(203)に対応するものであるときに、補正範囲をその被写体距離の±50cmの範囲に制限する。すなわち、上限201は4.5mの被写体距離に対応するカム軌跡に相当し、下限202は5.5mの被写体距離に対応するカム軌跡に相当する。なお、この補正範囲は、被写体距離検出回路127の検出精度に応じて決定すればよい。
Here, in this embodiment, for example, when the output from the subject
つまり上記補正範囲は、被写体距離検出回路127による距離情報に基づいて大まかな追従すべきカム軌跡の特定を行った後、さらにTV−AF信号による補正動作(ジグザグ動作)によって精密な追従カム軌跡の再特定を行う際の再特定範囲を制限するために設定される。
That is, the above-described correction range is obtained by specifying a cam track that should be roughly tracked based on distance information by the subject
このようにすることで、被写体距離検出回路127の検出分解能(検出精度)をそれほど高くしなくても済み、この結果、安価で小型の撮像装置を提供することができる。しかも、追従カム軌跡の補正範囲を限定することにより、TV−AF信号を用いて追従カム軌跡を再特定する際のジグザグ動作の方向切替回数を増加させ、且つ同一の補正方向に補正し続ける頻度を減らすことで、周波数の高い被写体を撮影する場合等で発生する場合があった、ジグザグ動作の動きどおりにジャスピンと若干の像ぼけを周期的に繰り返す様なぼけの発生を防止することが可能となる。更に、追従カム軌跡を間違えた時の像ぼけや正しいカム軌跡にリカバーする際の像ぼけの発生も抑制することが可能となる。
In this way, the detection resolution (detection accuracy) of the subject
実際の動作としては、TV−AF信号を用いた追従カム軌跡の補正動作(ジグザグ駆動)を、上限201と下限202とで挟まれた範囲内でのみ行い、この範囲を超えるような場合には該補正範囲内に戻るようにフォーカスレンズ105の駆動方向を反転させるようにする。この結果、上限201と下限202間の範囲外でのカム軌跡の再特定が禁止されることになる。
As an actual operation, the tracking cam locus correction operation (zigzag driving) using the TV-AF signal is performed only within the range between the
本実施例では、被写体距離検出回路127の検出分解能に応じて補正範囲を設定し、その範囲内でのみTV−AF信号による精密な追従カム軌跡の特定を許可することにより、TV−AF信号の併用による誤動作および像ぼけの誘発を抑制している。つまり、被写体距離検出回路127からの出力に基づくカム軌跡の特定方法とTV−AF信号という合焦状態の検出信号に基づくカム軌跡の特定方法の2種類のカム軌跡特定方法による特定結果が一致する場合にのみ追従カム軌跡の再特定を許可することで、それぞれの特定方法の長所のみを組み合わせた極めて精度の高いカム軌跡追従方式が実現可能となる。
In the present embodiment, a correction range is set in accordance with the detection resolution of the subject
特に、前提技術で説明したTV−AF信号による追従軌跡の特定時には、ジグザグ動作のためのフォーカスレンズの駆動速度(補正速度)を、無限側のカム軌跡から至近側のカム軌跡までカバー可能な速度に設定する必要があった。これに対し、本実施例では、カム軌跡の補正範囲を限定することにより、例えばフォーカスレンズの補正速度が前提技術と同一であっても、その駆動範囲が狭くなることから、単位時間当たりのジグザグ動作回数を第1の回数まで増やすことが可能となる。したがって、高速ズームであっても、TV−AF信号によるカム軌跡特定精度を向上させることが可能となる。 In particular, when specifying the tracking locus by the TV-AF signal described in the base technology, the speed at which the focus lens drive speed (correction speed) for zigzag operation can be covered from the infinite cam locus to the closest cam locus. Had to be set to On the other hand, in this embodiment, by limiting the correction range of the cam trajectory, for example, even if the correction speed of the focus lens is the same as that of the base technology, the drive range is narrowed. It is possible to increase the number of operations to the first number. Therefore, it is possible to improve the cam locus specifying accuracy by the TV-AF signal even at high speed zoom.
一方、ジグザグ動作回数を第1の回数まで増やさない場合には、そのぶん補正速度の設定値を下げることが可能となるので、高周波被写体を撮影する際の補正動作でのジャスピンと若干の像ぼけを周期的に繰り返す様なぼけの発生も抑制することが可能となる(詳細は実施例2で説明する)。従って、同じ手法であっても、ズーム速度優先、見え優先と、提供する撮像装置の製品仕様に応じて最適な制御方法でズーム性能を実現する高い自由度を有するズーミングシステムが提供可能となる。ここに、本実施例および本発明のもう1つの利点がある。 On the other hand, if the number of zigzag movements is not increased to the first number, it is possible to reduce the setting value of the correction speed, so that the jaspin and slight image blur in the correction operation when shooting a high-frequency subject are possible. It is possible to suppress the occurrence of blurring that repeats the above periodically (details will be described in Example 2). Therefore, even with the same technique, it is possible to provide a zooming system having a high degree of freedom for realizing zoom performance by a zoom speed priority, a visual priority, and an optimal control method according to the product specifications of the provided imaging apparatus. This is another advantage of this embodiment and the present invention.
図3の説明に戻る。S302では、「AF補正フラグ」がセット状態か否かを判別する。セット状態であれば、S303に進み、後述するS311において、AF評価値が図13にて説明したピーク状態1301のレベルとなったことが検出されるごとに更新される軌跡パラメタαAF、βAF、γAFが、図2に示した補正範囲(上限201と下限202の間の範囲)内に含まれているか否かを判別する。該補正範囲内にあれば、S304において、αAF、βAF、γAF のそれぞれをα、β、γに設定し、フォーカスレンズ105が該補正動作によって再特定されたカム軌跡をトレースするように制御する。
Returning to the description of FIG. In S302, it is determined whether or not the “AF correction flag” is set. If it is in the set state, the process proceeds to S303, and in S311 to be described later, the trajectory parameters α AF and β AF updated each time it is detected that the AF evaluation value has reached the level of the
一方、S303で、軌跡パラメタαAF、βAF、γAF が補正範囲外である場合、若しくはS302で、「AF補正フラグ」がクリアであった場合は、S300で既に決定している、被写体距離検出回路127による距離情報を基に特定された軌跡パラメタα、β、γを保持し、該軌跡パラメタα、β、γにより特定されるカム軌跡をトレースするようにフォーカスレンズ105を制御する。
On the other hand, if the trajectory parameters α AF , β AF , and γ AF are out of the correction range in S303, or if the “AF correction flag” is clear in S302, the subject distance already determined in S300. The
ここで、「AF補正フラグ」は、後述するTV−AF信号によって追従カム軌跡が再特定されたか否かを表すフラグであり、被写体距離検出回路127による距離情報に基づく特定しかなされていない場合(再特定がなされていない場合若しくは再特定されようとしているカム軌跡が図2の補正範囲外であり、誤特定の可能性が高い場合)は、S305で「AF補正フラグ」をクリアし、次回以降、補正動作によるカム軌跡の再特定がなされるまで、距離情報に基づく特定結果を優先して軌跡トレース制御を行う。 Here, the “AF correction flag” is a flag indicating whether or not the follow-up cam trajectory has been re-specified by a TV-AF signal to be described later, and is only specified based on distance information by the subject distance detection circuit 127 ( If the re-specification has not been performed or if the cam trajectory to be re-specified is out of the correction range in FIG. 2 and there is a high possibility of erroneous specification), the “AF correction flag” is cleared in S305 and the next and subsequent times Until the cam trajectory is re-specified by the correction operation, the trajectory trace control is performed with priority given to the specifying result based on the distance information.
以下、図4と同様な処理を行う。S402では、1垂直同期時間後にズームレンズ102が到達している位置(現在位置からの移動先の位置)Zx’を算出する。S400で決定されたズーム速度をZsp (pps) とすると、1垂直同期時間後のズームレンズ位置Zx’は前述の(7)式で与えられる。ここで、ppsはズームモータ121であるステッピングモータの回転速度を表す単位で、1秒間当たりの回転ステップ量(1ステップ=1パルス)を示している。(7)式の符号は、ズームレンズ102の移動方向によってそれぞれ、テレ方向なら+、ワイド方向なら−としている。
Thereafter, the same processing as in FIG. 4 is performed. In step S402, a position (position of movement destination from the current position) Z x ′ reached by the
Zx’=Zx±Zsp/垂直同期周波数 …(7)
次に、S403で、Zx’がどのズームエリアv’に存在するのかを判別する。S403は、図6に示した処理と同様な処理であり、図6におけるZx をZx’にvをv’に置き換えたものである。
Z x ′ = Z x ± Zsp / vertical synchronization frequency (7)
Next, in S403, it is determined in which zoom area v ′ Z x ′ is present. S403 is the same process as the process shown in FIG. 6, in which Z x in FIG. 6 is replaced with Z x ′ and v is replaced with v ′.
次に、S404で、1垂直同期時間(1V)後のズームレンズ位置Zx’がズームエリアの境界上に存在しているかどうかを判別し、境界フラグ=0ならば境界上にいないとして、S405からの処理に進む。S405では、Zk にZ(v')をセットし、Zk−1 にZ(v'−1) をセットする。 Next, in S404, it is determined whether or not the zoom lens position Z x ′ after one vertical synchronization time (1V) exists on the boundary of the zoom area. If the boundary flag = 0, it is determined that the zoom lens position Z x ′ is not on the boundary. Proceed to processing from. In S405, it sets Z (v ') to Z k, sets the Z (v'-1) to Z k-1.
次に、S406では、図5に示す処理により、被写体距離γが特定された4つのテーブルデータA(γ,v’−1)、A(γ,v’)、A(γ+1,v’−1)、A(γ+1,v’)を読み出し、S407では、上述した(2),(3)式からax’,bx’を算出する。 Next, in S406, four table data A (γ, v′−1) , A (γ, v ′) , A (γ + 1, v′−1 ) in which the subject distance γ is specified by the processing shown in FIG. ) , A (γ + 1, v ′) are read out, and in step S407, a x ′ and b x ′ are calculated from the above-described equations (2) and (3).
一方、S404でYesと判断された場合は、S408で被写体距離γでのズームエリアv’に対するフォーカスレンズ位置A(γ,v’)およびA(γ+1,v’)を呼び出し、それぞれax’,bx’としてメモリする。そして、S409では、ズームレンズ位置がZx’に達したときのフォーカスレンズ105の合焦位置(目標位置)px’を算出する。(1)式を用いて1垂直同期時間後のフォーカスレンズ105の目標位置は(8)式の様に表せる。
On the other hand, if it is determined Yes at S40 4, 'focus lens position A (gamma, v for') the zoom area v of the object distance gamma in step S408 and A (γ + 1, v ' ) calls the each ax', Memory as bx ′. In S409, the focus position (target position) px ′ of the
px’=(bx’−ax’)×α/β+ax’ …(8)
したがって、目標位置と現在のフォーカスレンズ位置との差は、
ΔF=(bx’−ax’)×α/β+ax’−px
となる。
p x ′ = (b x ′ −a x ′) × α / β + a x ′ (8)
Therefore, the difference between the target position and the current focus lens position is
ΔF = (b x ′ −a x ′) × α / β + a x ′ −p x
It becomes.
次に、S410では、フォーカス標準移動速度Vf0を算出する。Vf0はフォーカスレンズ位置差ΔFを、この距離を移動するのに要するズームレンズ102の移動時間で除算して得られる。
Next, in S410, a focus standard movement speed Vf0 is calculated. V f0 is obtained by dividing the focus lens position difference ΔF by the moving time of the
そして本処理を終了して、図7のS706に進み、ズーミング動作中であれば、S410で決定したフォーカス速度で、該フォーカス速度の符号方向(至近方向を正、無限遠方向を負とする)に移動し、コンペンセータ動作が行われる。 Then, the process is terminated, and the process proceeds to S706 in FIG. 7. If the zooming operation is being performed, the sign direction of the focus speed is determined at the focus speed determined in S410 (the close direction is positive and the infinity direction is negative). And the compensator operation is performed.
S411では、各種パラメタの初期値化を行う。ここでは、以後の処理で用いる「反転フラグ」のクリアを行う。S412では、S410で得たフォーカス標準移動速度Vf0 から、ジグザグ動作用の補正速度Vf+,Vf− を算出する。ここで、補正量パラメタδおよび補正速度Vf+,Vf−は、図14を用いて前述したように、(9)〜(12)式を用いて算出される。 In S411, various parameters are initialized. Here, the “inversion flag” used in the subsequent processing is cleared. In S412, correction speeds V f + and V f− for zigzag operation are calculated from the focus standard movement speed V f0 obtained in S410. Here, the correction amount parameter δ and the correction speeds V f + and V f− are calculated using the equations (9) to (12) as described above with reference to FIG.
S413では、図7に示したS703で得られたズームスイッチ130の操作状態を示す情報に応じて、ズーミング中かどうかを判断する。YesならばS416からの処理を行う。Noと判断したときは、S309で「AF補正フラグ」をクリアし、次回のワイドからテレ方向のズーミング動作の準備をする。そしてS414では、AF評価信号レベルの現在値から任意の定数μを減算した値をTH1(図13(A)に1302で示したレベル)とし、前述した補正方向のベクトルの切換基準(ジグザグ動作の切換基準)となるAF評価信号レベルを決定する。
In S413, it is determined whether zooming is being performed according to the information indicating the operation state of the
次に、S415では、「補正フラグ」をクリアし、本処理を抜ける。ここで「補正フラグ」とは、前述したように、カム軌跡の追従状態が正方向の補正がかかった状態(補正フラグ=1)なのか、負方向の補正がかかった状態(補正フラグ=0)であるのかを示すフラグである。 Next, in S415, the “correction flag” is cleared and the process is exited. Here, as described above, the “correction flag” is a state in which the follow-up state of the cam trajectory is a state where correction in the positive direction is applied (correction flag = 1) or a state where correction in the negative direction is applied (correction flag = 0). ) Is a flag indicating whether or not.
S413でズームミング中と判断すると、S414で、ズーミング方向がワイドからテレ方向であるか否かを判別する。NoならばS309と同様に、「AF補正フラグ」をクリアして、次回のワイドからテレ方向のズーミング動作の準備を行う(S308)。そして、S419で、Vf+=0,Vf−=0とし、S420からの処理を行ってジグザグ駆動を実質行わない。 If it is determined in S413 that zooming is in progress, it is determined in S414 whether the zooming direction is from wide to tele. If No, as in S309, the “AF correction flag” is cleared and preparation for the zooming operation in the tele direction from the next wide is performed (S308). In step S419, V f + = 0 and V f− = 0 are set, and the processing from step S420 is performed to substantially not perform the zigzag driving.
S413でYesならば、S306で、現在のズームレンズ位置に対するフォーカスレンズ位置が、図2に示した補正範囲の上限201を越えているか否かを判別する。越えている場合には、補正範囲内へフォーカスレンズ位置を戻すようにS423へ進む。
If Yes in S413, it is determined in S306 whether the focus lens position with respect to the current zoom lens position exceeds the
S423では、算出されたフォーカス速度(標準移動速度)Vf0に負の補正速度Vf−が加算される(無限遠方向に補正される)。これにより、フォーカスレンズ105は、補正範囲の上限201よりも下限202方向に強制的に戻されることになる。
In S423, a negative correction speed V f− is added to the calculated focus speed (standard movement speed) V f0 (corrected toward infinity). As a result, the
また、S306で上限201を越えていない場合には、S307で、現在のズームレンズ位置に対するフォーカスレンズ位置が、図2の補正範囲の下限202を越えているか否かを判別する。越えている場合には、補正範囲内へフォーカスレンズ位置を戻すために、S424へ進む。S424では、算出されたフォーカス速度(標準移動速度)Vf0に正の補正速度Vf+が加算される(至近方向に補正される)。これにより、フォーカスレンズ105は、補正範囲の下限202よりも上限201方向に強制的に戻される。このようにして、フォーカスレンズ105の駆動範囲が、補正範囲内に制限され、この結果、ジグザグ動作によって再特定されるカム軌跡も、該補正範囲内に制限されることになる。
If the
S306およびS307にてフォーカスレンズ位置が補正範囲を超えていない場合には、ジグザグ動作を実行するために、S417で、現在のAF評価信号レベルがTH1より小さいか否かを判別する。Yesならば、現在のAF評価信号レベルが図13(A)のTH1(1302)のレベルを下回ったので、補正方向の切り換えを行うためにS418で反転フラグをセットする。 If the focus lens position does not exceed the correction range in S306 and S307, it is determined in S417 whether or not the current AF evaluation signal level is lower than TH1 in order to execute the zigzag operation. If Yes, the current AF evaluation signal level is lower than the level of TH1 (1302) in FIG. 13A, so the inversion flag is set in S418 to switch the correction direction.
S420では、反転フラグ=1かどうかを判別し、YesならばS421に進み、補正フラグが1か否かを判別する。S421でNoならば、S424に進み、補正フラグに1(正方向の補正状態)をセットし、(4)式により、
フォーカス速度Vf=Vf0 +Vf+ (但し、Vf+≧0)
とする。
In S420, it is determined whether or not the inversion flag = 1. If Yes, the process proceeds to S421, and it is determined whether or not the correction flag is 1. If No in S421, the process proceeds to S424, and 1 (correction state in the positive direction) is set in the correction flag,
Focus speed V f = V f0 + V f + (however, V f + ≧ 0)
And
一方、S421でYesならば、S423に進み、補正フラグに0(負方向の補正状態)をセットし、(5)式により、
フォーカス速度Vf=Vf0 +Vf− (但し、Vf−≦0)
とする。
On the other hand, if Yes at S421, the process proceeds to
Focus speed Vf = Vf0 + Vf− (where Vf− ≦ 0)
And
S420でNoと判断された場合は、S422で補正フラグが1であるか否かを判別し、YesならS424へ、NoならS423へ進む。 If it is determined No in S420, it is determined in S422 whether the correction flag is 1. If Yes, the process proceeds to S424, and if No, the process proceeds to S423.
本処理の終了後、図7に示したS706で、動作モードに応じて、フォーカスレンズ105およびズームレンズ102の駆動方向と駆動速度が選択される。
After the completion of this process, the driving direction and the driving speed of the
ズーミング動作の場合、ここでは、S423又はS424で求めたフォーカス速度Vf が正であるのか負であるのかによって、フォーカスレンズ105の駆動方向をそれぞれ、至近方向又は無限方向に設定する。このようにしてフォーカスレンズ105のジグザグ駆動を行いながらトレースすべきカム軌跡の再特定を行う。
In the case of the zooming operation, here, the driving direction of the
ジグザグ駆動を行いながらS417からS424の処理で、TV−AFにおけるAF評価信号が、図13(A)に示したピークレベル1301になったことが検出される。S417でNoのときは、S310でピークレベル1301が検出されたか否かを判別する。ピークレベルが検出された場合には、S311で、「AF補正フラグ=1」および軌跡パラメタの現在値をTV−AFによる再特定軌跡パラメタとして、
αAF←αnow、βAF←βnow、γAF←γnow
とセットする。そして、次回のS302およびS303での条件が満たされた場合(両ステップの判別結果がともにYesである場合)は、S304で、特定カム軌跡が更新される。
While performing zigzag driving, it is detected that the AF evaluation signal in the TV-AF has reached the
α AF ← α now , β AF ← β now , γ AF ← γ now
And set. If the conditions at the next S302 and S303 are satisfied (when the determination results of both steps are both Yes), the specific cam trajectory is updated at S304.
今回、S304で更新され再特定された軌跡パラメタは、検出した距離情報の変化によってS301で補正範囲が変更されたり、ズーミング動作が停止したり、ズーミング方向が逆転したりすることにより、距離情報に基づいて特定されるカム軌跡に更新される。 The trajectory parameter updated and re-specified in S304 is changed to distance information when the correction range is changed in S301 due to a change in the detected distance information, the zooming operation is stopped, or the zooming direction is reversed. It is updated to the cam locus specified on the basis.
次回のS302又はS303での条件が満たされない場合には、新たにピークレベルが検出されるごとに(S310)、S311でαAF、βAF、γAFの更新を繰り返しつつ、ズーミング動作中に最適なカム軌跡が随時更新される。 When the conditions in the next S302 or S303 are not satisfied, each time a new peak level is detected (S310), the update of α AF , β AF , γ AF is repeated in S311, and it is optimal during the zooming operation. The cam trajectory is updated from time to time.
なお、S310でAF評価値レベルがピークレベルになったことが検出されない場合には、そのままS420に進み、ジグザグ動作による補正方向の切り換えを行わずに、前回決定済の補正方向に補正しながらフォーカスレンズ105を駆動する。
If it is not detected in S310 that the AF evaluation value level has reached the peak level, the process directly proceeds to S420, and the focus is corrected while correcting to the previously determined correction direction without switching the correction direction by the zigzag operation. The
以上の処理を行うことにより、被写体までの距離情報に基づいて、TV−AF信号を用いた追従すべきカム軌跡の特定を行う際の特定範囲(補正範囲)を限定することにより、TV−AF信号を用いたカム軌跡の特定精度を大幅に改善することができる。したがって、TV−AFにおけるAF評価値の検出周期に伴う欠点や、TV−AF信号が距離変化だけでなく被写体の絵柄の変化でも影響を受け、この結果、誤ったカム軌跡をトレースすべき軌跡と誤判断する問題や、ジグザグ動作の切り換えタイミングを間違うといった誤動作問題の発生を抑制することができる。したがって、像ぼけの発生を抑えることができる。 By performing the above processing, the TV-AF is limited by limiting the specific range (correction range) when specifying the cam locus to be followed using the TV-AF signal based on the distance information to the subject. The identification accuracy of the cam trajectory using the signal can be greatly improved. Therefore, the defect associated with the detection cycle of the AF evaluation value in TV-AF and the TV-AF signal are affected not only by the change in distance but also by the change in the pattern of the subject. It is possible to suppress the occurrence of erroneous determination problems and erroneous operation problems such as wrong switching timing of the zigzag operation. Therefore, occurrence of image blur can be suppressed.
特に、距離情報で基準となるカム軌跡を特定しておき、補正範囲を限定しつつTV−AF信号を用いてカム軌跡を補正する(再特定する)本実施例の手法を用いることで、TV−AF信号に基づく追従カム軌跡の補正精度を向上させることができる。このため、被写体距離検出回路127の検出精度をある程度粗くすることが可能となり、被写体距離検出回路127を小型で安価なタイプを選定することが可能となる。
In particular, by using the method of the present embodiment in which a cam trajectory serving as a reference is specified by distance information, and the cam trajectory is corrected (re-specified) using a TV-AF signal while limiting the correction range, -The tracking cam locus correction accuracy based on the AF signal can be improved. For this reason, the detection accuracy of the subject
実施例1では、TV−AF信号によるフォーカスレンズ105の補正動作における補正速度が、図4で説明した前提技術と同じ速度が算出される場合について説明した。このため、実施例1では、補正範囲の限定によりフォーカスレンズ105の移動距離(駆動範囲)が減少し、その結果、補正範囲内のジグザグ動作の周波数が高くなる。したがって、高速ズーム等でも追従カム軌跡の特定能力が高いシステムとなっている。
In the first embodiment, the case has been described in which the correction speed in the correction operation of the
これに対し、実施例2では、補正速度を、実施例1の場合よりも遅く設定することにより、ジグザグ動作に伴って像がぼけたりピントがあったりの周期的な像ぼけの低減を図っている。 On the other hand, in the second embodiment, the correction speed is set slower than that in the first embodiment, thereby reducing periodic image blur such as an image that is blurred or in focus due to the zigzag operation. Yes.
例えば、補正速度を実施例1の1/2の大きさに設定すると、図13(B)に示したフォーカスレンズ105の駆動方向反転タイミング(AF評価値信号がレベル1302以下となるタイミング)でのオーバーシュート量が減少するので、見た目において像がぼけたりピントがあったりの周期的な変化を軽減することが可能となる。
For example, when the correction speed is set to ½ that of the first embodiment, the driving direction inversion timing of the
補正速度を1/2にするためには、例えば、図3に示したS412で算出される補正速度Vf+、Vf−を1/2とする処理を追加すればよい。また、(4),(5)式に係数を設け、
フォーカス速度Vf=Vf0 +Vf+/2 (但し、Vf+≧0) …(4)’
フォーカス速度Vf=Vf0 +Vf−/2 (但し、Vf−≦0) …(5)’
として演算すればよい。
In order to reduce the correction speed to 1/2, for example, a process for reducing the correction speeds V f + and V f− calculated in S412 shown in FIG. 3 to 1/2 may be added. In addition, a coefficient is provided in equations (4) and (5),
Focus speed Vf = Vf0 + Vf + / 2 ( Vf + ≧ 0) (4) '
Focus speed V f = V f0 + V f− / 2 (where V f− ≦ 0) (5) ′
It may be calculated as
なお、上記各実施例では、被写体までの距離情報に基づいて追従すべきカム軌跡(α,β,γ)を特定(生成)する際のその範囲を制限する場合について説明したが、本発明は、フォーカスレンズの目標位置を算出(生成)する際に、その範囲を被写体までの距離情報に基づいて制限する場合にも適用することができる。 In each of the above embodiments, a case has been described in which the range when the cam locus (α, β, γ) to be followed is specified (generated) based on the distance information to the subject is limited. When calculating (generating) the target position of the focus lens, the present invention can be applied to a case where the range is limited based on distance information to the subject.
102 ズームレンズユニット
105 フォーカスレンズユニット
106 撮像素子
116 カメラマイクロコンピュータ
117 AF制御ユニット
120 カムデータメモリ
127 被写体距離検出回路
DESCRIPTION OF
Claims (13)
所定の合焦距離に対して作成された前記第1レンズユニットの位置と前記第2レンズユニットの位置とを示すデータを記憶した記憶手段と、
前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得手段と、
前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御手段と、
合焦対象物までの距離に対応する第2の情報を検出する検出手段とを有し、
前記制御手段は、変倍動作中に、前記データと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動範囲に制限を設けることを特徴とするレンズ制御装置。 A lens control device that controls movement of the second lens unit to correct image plane movement when the first lens unit for zooming is moved,
Storage means for storing data indicating the position of said second lens unit before Symbol first lenses units created for a given focus distance,
An acquisition means for acquiring a focus signal representing a focused state of the optical system based on a photoelectric conversion signal of an optical image formed by an optical system including the first lens unit and the second lens unit;
Control means for controlling movement of the second lens unit based on first information indicating a movement target position of the second lens unit;
Detecting means for detecting second information corresponding to the distance to the in-focus object;
The control means limits the movement range of the second lens unit based on the second information when generating the first information according to the data and the focus signal during the zooming operation. A lens control device.
前記第2の情報に基づいて、該再生成処理において生成される前記第1の情報の範囲を制限することを特徴とする請求項1又は請求項2に記載のレンズ制御装置。 The control means generates the first information based on the data and the second information, and is formed by an optical system including the first and second lens units on the basis of the first information. Performing a regeneration process for generating new first information using a focus signal representing a focus state of the optical system obtained from a photoelectric conversion signal of an optical image;
On the basis of the second information, the lens control apparatus according to claim 1 or claim 2, characterized in that to limit the scope of the first information generated in該再generation process.
かつ該再生成処理における前記第2レンズユニットの移動範囲を、前記第2の情報に基づいて制限することを特徴とする請求項3に記載のレンズ制御装置。 In the regeneration process, the control means sets the movement condition of the second lens unit as the reference so that the second lens unit moves toward a position indicating a state where the focus signal is most focused. Changing the moving condition when moving based on the first information,
The lens control device according to claim 3 , wherein a movement range of the second lens unit in the regeneration process is limited based on the second information.
前記第1レンズユニットおよび第2レンズユニットを含む光学系により形成された光学像の光電変換信号に基づく前記光学系の合焦状態を表す焦点信号を取得する取得ステップと、
前記第2レンズユニットの移動目標位置を示す第1の情報に基づいて前記第2レンズユニットの移動を制御する制御ステップと、
合焦対象物までの距離に対応する第2の情報を検出するステップとを有し、
前記制御ステップにおいて、変倍動作中に、記憶手段に記憶された所定の合焦距離に対して作成された前記第1レンズユニットの位置と前記第2レンズユニットの位置とを示すデータと前記焦点信号に応じて前記第1の情報を生成する際、前記第2の情報に基づいて前記第2レンズユニットの移動範囲に制限を設けることを特徴とするレンズ制御方法。 A lens control method for controlling movement of the second lens unit in order to correct image plane movement when moving the first lens unit for zooming,
An acquisition step of acquiring a focus signal representing an in-focus state of the optical system based on a photoelectric conversion signal of an optical image formed by an optical system including the first lens unit and the second lens unit;
A control step for controlling movement of the second lens unit based on first information indicating a movement target position of the second lens unit;
Detecting second information corresponding to the distance to the in-focus object,
In the control step, during the zooming operation, the data indicating the position of the first lens unit and the position of the second lens unit created with respect to the predetermined focusing distance stored in the storage means and the focus A lens control method , wherein when generating the first information according to a signal, a limit is provided for a moving range of the second lens unit based on the second information .
前記第2の情報に基づいて、該再生成処理において生成される前記第1の情報の範囲を制限することを特徴とする請求項9又は請求項10に記載のレンズ制御方法。 In the control step, the first information is generated based on the data and the second information, and is formed by an optical system including the first and second lens units on the basis of the first information. Performing a regeneration process for generating new first information using a focus signal representing a focus state of the optical system obtained from a photoelectric conversion signal of an optical image;
The lens control method according to claim 9 or 10 , wherein a range of the first information generated in the regeneration process is limited based on the second information.
かつ該再生成処理における前記第2レンズユニットの移動範囲を、前記第2の情報に基づいて制限することを特徴とする請求項11に記載のレンズ制御方法。 In the regeneration process, the first information is based on the movement condition of the second lens unit as the reference so that the second lens unit moves toward a position that indicates the most focused state of the focus signal. Change the movement conditions when moving based on
The lens control method according to claim 11 , wherein a movement range of the second lens unit in the regeneration process is limited based on the second information.
The lens control method according to claim 12 , wherein in the regeneration process, the movement condition is changed so that a movement range of the second lens unit is limited based on the second information.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003354372A JP4721394B2 (en) | 2003-10-14 | 2003-10-14 | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD |
US10/965,472 US7415200B2 (en) | 2003-10-14 | 2004-10-13 | Imaging device |
US12/060,033 US7616876B2 (en) | 2003-10-14 | 2008-03-31 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003354372A JP4721394B2 (en) | 2003-10-14 | 2003-10-14 | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005121752A JP2005121752A (en) | 2005-05-12 |
JP2005121752A5 JP2005121752A5 (en) | 2006-12-07 |
JP4721394B2 true JP4721394B2 (en) | 2011-07-13 |
Family
ID=34612305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003354372A Expired - Lifetime JP4721394B2 (en) | 2003-10-14 | 2003-10-14 | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4721394B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4886234B2 (en) * | 2005-07-26 | 2012-02-29 | キヤノン株式会社 | Imaging device |
JP4582152B2 (en) * | 2008-01-25 | 2010-11-17 | ソニー株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM |
JP5335445B2 (en) | 2009-01-06 | 2013-11-06 | キヤノン株式会社 | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD |
JP5328384B2 (en) * | 2009-01-14 | 2013-10-30 | キヤノン株式会社 | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD |
JP5773583B2 (en) | 2010-06-11 | 2015-09-02 | キヤノン株式会社 | Imaging apparatus, control method therefor, and computer program |
KR101783991B1 (en) | 2014-04-29 | 2017-10-11 | 한화테크윈 주식회사 | Improved Zoom-tracking method used in an imaging apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3038595B2 (en) * | 1990-10-05 | 2000-05-08 | 株式会社リコー | Focus lens control device |
JP2728316B2 (en) * | 1991-01-16 | 1998-03-18 | キヤノン株式会社 | Optical apparatus having lens position control device |
JPH0560962A (en) * | 1991-08-30 | 1993-03-12 | Mitsubishi Electric Corp | Focusing device |
JP3576784B2 (en) * | 1996-12-27 | 2004-10-13 | キヤノン株式会社 | Imaging device, imaging method, and lens control device |
-
2003
- 2003-10-14 JP JP2003354372A patent/JP4721394B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2005121752A (en) | 2005-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4478419B2 (en) | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD | |
JP5328384B2 (en) | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD | |
JP5335445B2 (en) | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD | |
JP4669170B2 (en) | Zoom lens control device, zoom lens control method, and program | |
US7616876B2 (en) | Imaging device | |
JP5247044B2 (en) | Imaging device | |
JP5773583B2 (en) | Imaging apparatus, control method therefor, and computer program | |
JP2013130827A (en) | Lens control device | |
JPH0341878A (en) | Camera | |
JP3610167B2 (en) | Lens control method and apparatus | |
JP6639117B2 (en) | Optical equipment and focus control program | |
US7447426B2 (en) | Optical apparatus and lens control method | |
JP4721394B2 (en) | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD | |
JP2017181979A (en) | Lens controller and control method | |
JP4721395B2 (en) | LENS CONTROL DEVICE, OPTICAL DEVICE, AND LENS CONTROL METHOD | |
JP5930979B2 (en) | Imaging device | |
JP3270493B2 (en) | Lens control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061024 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20081010 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20081201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110330 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110404 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140415 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4721394 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |