JP6584122B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6584122B2
JP6584122B2 JP2015087146A JP2015087146A JP6584122B2 JP 6584122 B2 JP6584122 B2 JP 6584122B2 JP 2015087146 A JP2015087146 A JP 2015087146A JP 2015087146 A JP2015087146 A JP 2015087146A JP 6584122 B2 JP6584122 B2 JP 6584122B2
Authority
JP
Japan
Prior art keywords
image
blur correction
image blur
imaging
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015087146A
Other languages
Japanese (ja)
Other versions
JP2016208242A (en
Inventor
猛 渡邉
猛 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015087146A priority Critical patent/JP6584122B2/en
Priority to US15/132,878 priority patent/US9973699B2/en
Publication of JP2016208242A publication Critical patent/JP2016208242A/en
Priority to US15/865,086 priority patent/US10264181B2/en
Application granted granted Critical
Publication of JP6584122B2 publication Critical patent/JP6584122B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、撮影された動画像から静止画を生成するデジタルビデオカメラ、等の撮像装置に適用される画像処理装置に関し、撮影状態の良好な静止画像データを得ることを目的とする。   The present invention relates to an image processing apparatus applied to an imaging apparatus such as a digital video camera that generates a still image from a captured moving image, and an object thereof is to obtain still image data in a favorable shooting state.

近年、動画撮影が可能な撮像装置の多画素化が急速に進んでいる。FullHDサイズの動画を撮影する撮像装置は既に広く普及し、4K2K動画撮影が可能な撮像装置も徐々に市場に出始めている。   In recent years, an increase in the number of pixels of an imaging device capable of capturing a moving image has been rapidly progressing. Imaging devices that capture FullHD size moving images have already become widespread, and imaging devices capable of 4K2K moving image shooting are also gradually on the market.

このような動画像の高精細化によって、動画像の各フレームの画像も静止画として使用するのに十分な画素数を有するようになってきている。これによって、動画像の各フレームから静止画を生成する使用方法が今後更に広がっていくものと考えられる。   Due to such high definition of moving images, each frame image of moving images has a sufficient number of pixels to be used as a still image. Accordingly, it is considered that usage methods for generating a still image from each frame of a moving image will further expand in the future.

特開平11−136557号公報JP 11-136557 A

動画像から静止画を生成する際の課題として、どのフレームの画像が静止画として最適な画像なのかを判断することが、ユーザーにとって難しいという点がある。   A problem in generating a still image from a moving image is that it is difficult for the user to determine which frame image is the optimum image as a still image.

例えば、動画として見た場合には、画像が常に遷移していくために気付かない画像のブレやピントズレなどが、静止画としてみたときに許容できないレベルである場合も多い。   For example, when viewed as a moving image, there are many cases where the blurring or out-of-focusing of an image that is not noticed because the image constantly changes is at an unacceptable level when viewed as a still image.

それを1フレームずつチェックしていくのは非常にユーザーにとって非常に煩わしい作業となる。   It is very troublesome for the user to check it frame by frame.

このような課題に対し、例えば、特許文献1では、フォーカス、露出などの情報や、角速度センサから得られる像ブレなどの撮影状態情報をもとにして評価を行っている。   For example, Patent Document 1 evaluates such a problem based on information such as focus and exposure, and shooting state information such as image blur obtained from an angular velocity sensor.

評価値が高いか、あるいは一定の条件を満足するフレーム画像を自動的に選び出し、静止画データを生成するようにした技術が開示されている。   A technique is disclosed in which a still image data is generated by automatically selecting a frame image having a high evaluation value or satisfying a certain condition.

しかしながら、上記従来例においては、撮影された映像の中から結果的に評価値が高くなったフレームを選択しているにすぎず、評価値の高いフレームが出現する確率はユーザーの撮影技術や撮影時の状況に依存する部分が大きかった。   However, in the above-described conventional example, only a frame with a high evaluation value is selected from the captured video, and the probability that a frame with a high evaluation value appears is determined by the user's shooting technique and shooting. The part depending on the situation of time was big.

また、フォーカス、露出、像ブレ等の複数の評価値がそろって高い状態になる確率はより低くなると考えられる。そのため、撮影者のスキルや撮影時の状況によっては、良好な静止画が得られない場合があるという問題があった。   In addition, it is considered that the probability that a plurality of evaluation values such as focus, exposure, and image blur are all high is lowered. Therefore, there is a problem that a good still image may not be obtained depending on the skill of the photographer and the situation at the time of shooting.

本発明は、上記問題点を鑑みてなされたものであり、動画像から静止画を生成する場合に、容易に静止画として最適な画像を生成することができる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus that can easily generate an optimum image as a still image when generating a still image from a moving image. And

上記目的を達成するために本発明の画像処理装置は、被写体像を撮像する撮像素子から出力される画像データから取得される撮像パラメータの良否を評価して前記撮像パラメータの評価値を生成する評価手段と、振れ検出手段から出力される振れデータを用いて振れ補正データを生成する生成手段と、前記振れ補正データを用いて像ブレ補正手段を制御する制御手段と、動画撮影時に、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近い場合の前記像ブレ補正手段の像ブレ補正性能を、前記撮像パラメータの評価値が前記撮像パラメータの目標値に遠い場合の前記像ブレ補正手段の像ブレ補正性能よりも大きくする変更手段と、前記像ブレ補正性能が大きいフレーム画像を静止画再生用データとして記録する記録手段と、を有する画像処理装置であって、
前記撮像パラメータは、露出制御に用いる露出パラメータ、フォーカスレンズ制御に用いる焦点状態パラメータ、ホワイトバランスパラメータの何れかであり、
前記変更手段は、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近くなると、前記像ブレ補正性能を小さくし、その後に前記撮像パラメータの評価値と前記撮像パラメータの目標値の差分値が所定閾値以下になると、前記像ブレ補正性能を小さくする前の像ブレ補正性能に戻すことを特徴とする。
In order to achieve the above object, the image processing apparatus of the present invention evaluates the quality of an imaging parameter acquired from image data output from an imaging element that captures a subject image, and generates an evaluation value of the imaging parameter. Means for generating shake correction data using shake data output from the shake detection means, control means for controlling the image blur correction means using the shake correction data, and at the time of moving image shooting, the imaging parameter The image blur correction performance of the image blur correction unit when the evaluation value of the image pickup parameter is close to the target value of the imaging parameter, and the image of the image blur correction unit when the evaluation value of the imaging parameter is far from the target value of the imaging parameter A change means for making the image larger than the image stabilization performance, and a recording means for recording the frame image having the large image image stabilization performance as still image reproduction data. An that the image processing apparatus,
The imaging parameter is any one of an exposure parameter used for exposure control, a focus state parameter used for focus lens control, and a white balance parameter.
The changing means reduces the image blur correction performance when the evaluation value of the imaging parameter is close to the target value of the imaging parameter, and thereafter, a difference value between the evaluation value of the imaging parameter and the target value of the imaging parameter is obtained. When the value is equal to or less than a predetermined threshold value, the image blur correction performance before the image blur correction performance is reduced is restored .

本発明によれば、ユーザーが動画像から容易に静止画として最適な画像を生成することができる撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which a user can produce | generate an optimal image as a still image easily from a moving image can be provided.

本発明の実施形態に係る撮像装置の構成例を示すブロック図1 is a block diagram illustrating a configuration example of an imaging apparatus according to an embodiment of the present invention. 映像信号処理部14の構成例を示すブロック図The block diagram which shows the structural example of the video signal processing part 14 WB制御の制御方法の例を説明するためのグラフGraph for explaining an example of a control method of WB control AF制御の制御方法の例を説明するためのグラフGraph for explaining an example of a control method of AF control 像ブレ補正制御部104の構成例を示すブロック図The block diagram which shows the structural example of the image blurring correction control part 104 WB制御の適正度を演算する演算方法の例を説明するためのグラフThe graph for demonstrating the example of the calculation method which calculates the appropriateness of WB control AE制御の適正度を演算する演算方法の例を説明するためのグラフThe graph for demonstrating the example of the calculation method which calculates the appropriateness of AE control AF制御の適正度を演算する演算方法の例を説明するためのグラフGraph for explaining an example of a calculation method for calculating the appropriateness of AF control 撮像特性制御部105の処理を説明するためのフローチャートFlowchart for explaining processing of imaging characteristic control unit 105 適正度から像ブレ補正制御部104のカットオフ周波数を演算する例を説明するためのグラフThe graph for demonstrating the example which calculates the cutoff frequency of the image blur correction control part 104 from appropriateness 本発明の実施形態2に係るフローチャートThe flowchart which concerns on Embodiment 2 of this invention 本発明の実施形態2に係るAF適正度と像ブレ補正の時間的な変化を示す図The figure which shows the temporal change of AF appropriateness and image blur correction which concern on Embodiment 2 of this invention. 本発明の実施形態3に係るタイムチャートTime chart according to Embodiment 3 of the present invention

(実施例1)
まず、本発明の実施形態1にかかる撮像装置の全体的な構成について説明する。図1は、本発明の実施形態1にかかる撮像装置1の構成例を模式的に示したブロック図である。
Example 1
First, the overall configuration of the imaging apparatus according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram schematically illustrating a configuration example of an imaging apparatus 1 according to the first embodiment of the present invention.

図1において、カメラシステム制御部10は、撮像装置1の全体の動作を制御するためのブロックである。   In FIG. 1, a camera system control unit 10 is a block for controlling the overall operation of the imaging apparatus 1.

画像処理装置であるカメラシステム制御部10は、例えばCPU、RAMおよびROMを有し、ROMにあらかじめ記憶されたプログラムに従い、RAMを作業領域として用いながら、撮像装置1を制御する。   The camera system control unit 10 that is an image processing apparatus has, for example, a CPU, a RAM, and a ROM, and controls the imaging apparatus 1 while using the RAM as a work area according to a program stored in advance in the ROM.

なお、後述する各処理は、コンピュータプログラム(ソフトウェア)として主にカメラシステム制御部10によって実行されるものとする。   In addition, each process mentioned later shall be mainly performed by the camera system control part 10 as a computer program (software).

画像処理装置であるカメラシステム制御部10は、ホワイトバランス調整処理を行うWB制御部101、自動露出制御処理を行うAE制御部102を有する。   A camera system control unit 10 that is an image processing apparatus includes a WB control unit 101 that performs white balance adjustment processing and an AE control unit 102 that performs automatic exposure control processing.

更に、画像処理装置であるカメラシステム制御部10は、自動焦点調整処理を行うAF制御部103、像ブレ補正の制御を行う像ブレ補正制御部104を有している。   Further, the camera system control unit 10 that is an image processing apparatus includes an AF control unit 103 that performs an automatic focus adjustment process, and an image blur correction control unit 104 that controls image blur correction.

撮像レンズ11、撮像素子12及び映像信号処理部14を制御することによって、撮像画像の露出、ホワイトバランス、フォーカス、像ブレ等の撮像状態が、それぞれ適切な状態になるように制御している。   By controlling the imaging lens 11, the imaging device 12, and the video signal processing unit 14, the imaging state such as exposure, white balance, focus, and image blur of the captured image is controlled to be in an appropriate state.

更に、WB制御部101、AE制御部102、AF制御部103、像ブレ補正制御部104で行われる制御に関する撮影状態を監視し、互いの撮影状態に応じて各々の制御特性を変更する撮像特性制御部105を有している。   Furthermore, the imaging characteristics relating to the control performed by the WB control unit 101, the AE control unit 102, the AF control unit 103, and the image blur correction control unit 104 are monitored, and the respective control characteristics are changed according to the respective imaging states. A control unit 105 is included.

撮像特性制御部105は、各撮影状態が出来る限りそろって好適な状態になるように制御することにより、動画像から静止画像を生成する場合に、より高い確率で良好な静止画像を生成できるようにするためのブロックである。   The imaging characteristic control unit 105 can generate a good still image with a higher probability when generating a still image from a moving image by controlling each shooting state to be as suitable as possible. It is a block to make.

カメラシステム制御部10の各ブロックで行われる動作の詳細は後述する。   Details of operations performed in each block of the camera system control unit 10 will be described later.

撮像レンズ11は、ズーム、フォーカス、絞り、像ブレ補正等の機能を有した従来一般の撮像レンズが適用できる。絞り111は複数の絞り羽根を有しており、光通過口を形成して露出を変化させる露出制御手段のひとつである。   As the imaging lens 11, a conventional general imaging lens having functions such as zoom, focus, aperture, and image blur correction can be applied. The diaphragm 111 has a plurality of diaphragm blades, and is one of exposure control means for changing the exposure by forming a light passage opening.

これらの絞り羽根は、絞り駆動部114の駆動力を受けて作動し、開口面積(絞り口径)を可変して撮像素子12に入射される光量を調整する。   These diaphragm blades operate in response to the driving force of the diaphragm driving unit 114 and adjust the amount of light incident on the image sensor 12 by changing the aperture area (diaphragm aperture).

シフトレンズ112は、光軸と垂直方向に移動可能なレンズで、結像される被写体像の位置を移動させることができる。   The shift lens 112 is a lens that can move in a direction perpendicular to the optical axis, and can move the position of a subject image to be formed.

シフトレンズ112は、シフトレンズ駆動部115からの駆動力を受けて移動し、撮像装置に加わる振れを打ち消すようにシフトレンズ112を移動することにより、撮像画像の像ブレを補正することができる。   The shift lens 112 moves in response to the driving force from the shift lens driving unit 115 and moves the shift lens 112 so as to cancel the shake applied to the imaging apparatus, thereby correcting the image blur of the captured image.

フォーカスレンズ113は、フォーカスレンズ駆動部116からの駆動力を受けて光軸方向に移動し、所定の合焦位置に停止することで、撮像素子12に結像される被写体像の焦点調整を行う。   The focus lens 113 receives the driving force from the focus lens driving unit 116, moves in the optical axis direction, and stops at a predetermined focusing position, thereby adjusting the focus of the subject image formed on the image sensor 12. .

撮像素子12は、例えばXYアドレス方式のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等で構成されている。   The image sensor 12 is configured by, for example, an XY address type CMOS (Complementary Metal Oxide Semiconductor) image sensor.

撮像レンズ11が形成する光学像を光電変換して電荷を蓄積し、その電荷を読み出すことで複数の画素からなる画像信号を映像信号処理部14に供給する。   The optical image formed by the imaging lens 11 is photoelectrically converted to accumulate charges, and the charges are read to supply an image signal composed of a plurality of pixels to the video signal processing unit 14.

また、撮像素子12は撮像素子駆動部13によって駆動され、例えばNTSCフォーマットに準拠したビデオ信号の場合は60Hzの周期で被写体像を取り込むように動作する。   Further, the image sensor 12 is driven by the image sensor drive unit 13 and operates to capture a subject image at a period of 60 Hz in the case of a video signal conforming to the NTSC format, for example.

また、撮像素子駆動部13からの制御信号によって蓄積した電荷を掃き出すことができ、これによって露光時間(蓄積時間)を制御する電子シャッタ機能を有している。   Further, the electric charge accumulated by the control signal from the image sensor driving unit 13 can be swept out, thereby having an electronic shutter function for controlling the exposure time (accumulation time).

更に、蓄積した電荷を読み出す際に、信号を電気的に増幅するゲイン手段を有しており、その増幅率はカメラシステム制御部10から可変できるようになっている。   Furthermore, when reading the accumulated electric charge, it has a gain means for electrically amplifying the signal, and the amplification factor can be varied from the camera system control unit 10.

これは、撮像における感度が変化することに相当する。電子シャッタ及びゲイン手段は露出制御手段のひとつである。   This corresponds to a change in sensitivity in imaging. The electronic shutter and gain means are one of exposure control means.

映像信号処理部14は、撮像素子12から出力された画像信号にホワイトバランス調整やガンマ補正などの信号処理を施し、映像信号に変換して記録制御部16及び表示制御部15に供給する。   The video signal processing unit 14 performs signal processing such as white balance adjustment and gamma correction on the image signal output from the image sensor 12, converts the image signal into a video signal, and supplies the video signal to the recording control unit 16 and the display control unit 15.

また、映像信号処理部14では、WB制御、AE制御、AF制御の処理で使用するための評価値を画像から生成して出力する。   Further, the video signal processing unit 14 generates and outputs an evaluation value for use in processing of WB control, AE control, and AF control from an image.

記録制御部16は、映像信号処理部14において生成された映像信号を所望の形式のデータに変換し、動画データ或いは静止画データとして記録媒体18に記録する。   The recording control unit 16 converts the video signal generated in the video signal processing unit 14 into data of a desired format, and records the data in the recording medium 18 as moving image data or still image data.

記録媒体18は、半導体メモリ等の情報記録媒体やハードディスク等の磁気記録媒体である。   The recording medium 18 is an information recording medium such as a semiconductor memory or a magnetic recording medium such as a hard disk.

記録制御部16は、図示しない操作部の指示に応じて画像の記録開始、記録停止等の制御を行う。   The recording control unit 16 performs control such as image recording start and recording stop according to an instruction from an operation unit (not shown).

記録制御部16は、操作部から動画の記録開始の指示がなされた場合には、映像信号処理部14から出力される映像信号を所定の形式の動画データに変換して記録媒体18に記録する。   The recording control unit 16 converts the video signal output from the video signal processing unit 14 into moving image data of a predetermined format and records it on the recording medium 18 when an instruction to start recording of the moving image is given from the operation unit. .

そして、記録停止の指示がなされた場合には、動画データの生成を終了する。   Then, when an instruction to stop recording is given, the generation of moving image data is terminated.

また、操作部からの静止画撮影の指示、或いは撮像特性制御部105からの静止画データ生成の指示があった場合には、映像信号処理部14から出力される映像信号のうち、所望のフレーム画像から静止画データを生成して記録媒体18に記録する。   In addition, when there is an instruction for still image shooting from the operation unit or an instruction to generate still image data from the imaging characteristic control unit 105, a desired frame of the video signal output from the video signal processing unit 14 is used. Still image data is generated from the image and recorded on the recording medium 18.

なお、静止画データ生成の別の方法として、動画データを構成する複数のフレーム画像のうち、静止画データの生成に用いるフレームを記述したメタデータを動画データと関連づけて記録媒体に記録しておく。   As another method for generating still image data, metadata describing a frame used for generating still image data among a plurality of frame images constituting moving image data is recorded on a recording medium in association with the moving image data. .

そして、動画撮影とは別のタイミングで、動画データから静止画データを生成できるようにしても良い。   The still image data may be generated from the moving image data at a timing different from the moving image shooting.

表示制御部15は、映像信号処理部14から出力された映像信号に基づく画像(スルー画)の他、設定メニュー画像、記録済みの画像など用途に応じて加工した映像信号を出力して表示デバイス17に画像を表示させる。   The display control unit 15 outputs a video signal processed according to the use such as a setting menu image and a recorded image in addition to an image (through image) based on the video signal output from the video signal processing unit 14 to display the display device 17 displays an image.

表示デバイス17は液晶表示素子(LCD)等であり、表示制御部15により生成された画像を表示する。   The display device 17 is a liquid crystal display element (LCD) or the like, and displays an image generated by the display control unit 15.

角速度センサ19は撮像装置1に加わる振れの検出を行うためのセンサであり、像ブレ補正制御部104で行われる像ブレ補正の制御に用いられる。   The angular velocity sensor 19 is a sensor for detecting a shake applied to the imaging apparatus 1, and is used for image blur correction control performed by the image blur correction control unit 104.

図2は、図1における映像信号処理部14について、更に詳細な構成を模式的に図示したブロック図である。   FIG. 2 is a block diagram schematically showing a more detailed configuration of the video signal processing unit 14 in FIG.

図2において、撮像素子12から供給された画像信号は、輝度・色信号生成部141によって、輝度信号(Y)と色信号(R、G、B)に分割される。   In FIG. 2, the image signal supplied from the image sensor 12 is divided into a luminance signal (Y) and a color signal (R, G, B) by the luminance / color signal generation unit 141.

WB調整部142は、WB制御部101からの制御に応じて、色信号(R、G、B)の各色それぞれのゲインを調整し、ゲイン調節された色信号(R’、G’、G’)を生成する。   The WB adjustment unit 142 adjusts the gain of each color of the color signal (R, G, B) according to the control from the WB control unit 101, and the color signal (R ′, G ′, G ′) whose gain is adjusted. ) Is generated.

ガンマ補正部143では、輝度信号(Y)及び色信号(R’、G’、B’)に所定のガンマカーブに応じた補正をかける。   In the gamma correction unit 143, the luminance signal (Y) and the color signals (R ′, G ′, B ′) are corrected according to a predetermined gamma curve.

更に、色差信号生成部144では、ガンマ補正された輝度信号及び色信号から色差信号(R−Y、B−Y)を生成してメモリ145に格納する。   Further, the color difference signal generation unit 144 generates a color difference signal (R−Y, B−Y) from the gamma-corrected luminance signal and color signal and stores them in the memory 145.

メモリ145は、映像信号を記録制御部16、表示制御部15に受け渡すために一時的に保持するための領域である。   The memory 145 is an area for temporarily holding the video signal for delivery to the recording control unit 16 and the display control unit 15.

メモリ145に一時的に保持された映像信号は、記録制御部16、表示制御部15から読みだされ、それぞれの用途に応じた形式の信号に変換されて使用される。   The video signal temporarily held in the memory 145 is read from the recording control unit 16 and the display control unit 15 and converted into a signal having a format suitable for each use.

色評価値生成部147は、AWB制御において用いられる色評価値を算出する。   The color evaluation value generation unit 147 calculates a color evaluation value used in the AWB control.

色評価値生成部は、1画面(フィールド又はフレーム)分の画像信号を所定数(例えば8×8)のブロックに分割し、各ブロックに含まれる画素の色差信号(R−Y、B−Y)の平均値を算出して平均色差信号を出力する。   The color evaluation value generation unit divides an image signal for one screen (field or frame) into a predetermined number (for example, 8 × 8) blocks, and color difference signals (RY, BY) of pixels included in each block. ) And an average color difference signal is output.

輝度評価値生成部148は、AE制御において用いられる輝度評価値を算出する。   The luminance evaluation value generation unit 148 calculates a luminance evaluation value used in AE control.

輝度評価値生成部は、1画面(フィールド又はフレーム)分の画像信号を所定数(例えば8×8)のブロックに分割し、各ブロックに含まれる画素の輝度信号(Y)の平均値を算出して出力する。   The luminance evaluation value generation unit divides an image signal for one screen (field or frame) into a predetermined number (for example, 8 × 8) blocks, and calculates an average value of luminance signals (Y) of pixels included in each block. And output.

合焦評価値生成部146は、AF制御において用いられる焦点評価値を算出する。焦点評価値生成部は、画像の空間周波数成分のうち、高域側の輪郭成分量に対応する信号を算出する。   The focus evaluation value generation unit 146 calculates a focus evaluation value used in AF control. The focus evaluation value generation unit calculates a signal corresponding to the contour component amount on the high frequency side among the spatial frequency components of the image.

具体的には、1画面分の画像信号に所定の測距領域を設定し、その領域内の輝度信号(Y)にHPF等の演算処理を施すことで空間周波数の高周波成分を抽出する。   Specifically, a predetermined distance measurement area is set in the image signal for one screen, and a high frequency component of the spatial frequency is extracted by performing arithmetic processing such as HPF on the luminance signal (Y) in the area.

更に、抽出した高周波成分を累積加算等の演算処理を行うことで焦点評価値を算出して出力する。   Further, a focus evaluation value is calculated and output by performing arithmetic processing such as cumulative addition on the extracted high-frequency component.

焦点評価値は、映像信号の鮮鋭度(コントラスト)を表すものであるが、鮮鋭度は撮像レンズの合焦状態によって変化するので、結果的に焦点評価値は撮像レンズの合焦状態を表す信号となる。   The focus evaluation value represents the sharpness (contrast) of the video signal, but the sharpness changes depending on the focus state of the imaging lens, and as a result, the focus evaluation value is a signal representing the focus state of the imaging lens. It becomes.

<WB制御>
次に、WB制御部101で実行されるオートホワイトバランス制御(AWB制御)について説明する。WB制御部101では、色評価値生成部147で生成される色差信号(R−Y、B−Y)に基づいてホワイトバランス制御を行う。
<WB control>
Next, auto white balance control (AWB control) executed by the WB control unit 101 will be described. The WB control unit 101 performs white balance control based on the color difference signals (R−Y, B−Y) generated by the color evaluation value generation unit 147.

WB制御部101は、画像から白い被写体であろう信号(以下、「白に近い信号」と呼ぶ)を抽出し、その信号の色信号R、G、Bの各比率がおよそ1:1:1になるように、WB調整部142におけるR、G、Bのゲインを調整する。   The WB control unit 101 extracts a signal that will be a white subject (hereinafter referred to as “a signal close to white”) from the image, and the ratio of the color signals R, G, and B of the signal is approximately 1: 1: 1. The gains of R, G, and B in the WB adjustment unit 142 are adjusted so that

WB制御部101で行われる白に近い信号の抽出方法の一例としては、色評価値生成部147で生成される平均色評価値を取得する。   As an example of a method for extracting a signal close to white performed by the WB control unit 101, an average color evaluation value generated by the color evaluation value generation unit 147 is acquired.

画面全体の全ブロックの平均色評価値をさらに平均化して画面全体の平均色評価値を算出し、その信号を白に近い信号として抽出する。   The average color evaluation value of all blocks of the entire screen is further averaged to calculate the average color evaluation value of the entire screen, and the signal is extracted as a signal close to white.

或いは、別の白に近い信号の抽出方法として、画像の中から白い被写体であろう領域を抽出して、その領域の色評価値を白に近い信号としても良い。   Alternatively, as another method of extracting a signal close to white, an area that may be a white subject is extracted from the image, and the color evaluation value of the area may be a signal close to white.

具体的には、図3に示すように、縦軸にR−Y、横軸をB−Yとした色差平面上に白に近い領域である白抽出領域を設定している。   Specifically, as shown in FIG. 3, a white extraction region that is a region close to white is set on the color difference plane with RY on the vertical axis and BY on the horizontal axis.

そして、色評価値生成部147で生成される各ブロックの平均色評価値のうち、白抽出領域内に入るものを抽出し、それらを平均化することで白に近い色信号を算出する。   Then, out of the average color evaluation values of the blocks generated by the color evaluation value generation unit 147, those that fall within the white extraction region are extracted and averaged to calculate a color signal close to white.

このようにして抽出した白に近い信号が、予め設定された目標の白に近づくようにホワイトバランスゲインを算出し、算出したホワイトバランスゲインに基づいてWB調整部142を制御する。   The white balance gain is calculated so that the signal close to white extracted in this way approaches a preset target white, and the WB adjustment unit 142 is controlled based on the calculated white balance gain.

<AE制御>
次に、AE制御部102で実行される自動露出制御処理について説明する。
<AE control>
Next, the automatic exposure control process executed by the AE control unit 102 will be described.

AE制御部102は、被写体の明るさを測光し、好適な露出条件で撮影が行われるように、絞り、シャッタ(電子シャッタ)、ゲインを制御する。   The AE control unit 102 measures the brightness of the subject and controls the aperture, shutter (electronic shutter), and gain so that shooting is performed under suitable exposure conditions.

本発明にかかる撮像装置1では、撮像素子12から得られる画像信号に基づいて測光が行われる。測光値の算出方法の一例としては、まず、輝度評価値生成部148から出力される輝度評価値を取得して、エリア毎の輝度値を抽出する。   In the imaging apparatus 1 according to the present invention, photometry is performed based on an image signal obtained from the imaging element 12. As an example of a photometric value calculation method, first, a luminance evaluation value output from the luminance evaluation value generation unit 148 is acquired, and a luminance value for each area is extracted.

そして、ユーザーが任意に設定したメニュー設定情報や、あるいは被写体から判別した撮影シーン情報に応じて、画面内のどのエリアの測光値を重要視するかを判定し、抽出した輝度値にエリア毎の重み付けを行う。   Then, according to the menu setting information arbitrarily set by the user or the shooting scene information determined from the subject, it is determined which area of the screen the photometric value is regarded as important, and the extracted luminance value is determined for each area. Perform weighting.

そして、重み付けを行った全エリアの平均値を取る等の処理を施して、画像全体の輝度値を算出する。   Then, the luminance value of the entire image is calculated by performing processing such as taking an average value of all areas subjected to weighting.

なお、ここで得られた輝度値は、撮像レンズ11の絞り111を通った光束を撮像素子12で撮像した結果を表す輝度値であるから、被写体の明るさ(Bv値)を直接表すものではない。   Note that the luminance value obtained here is a luminance value that represents the result of imaging the light beam that has passed through the aperture 111 of the imaging lens 11 by the imaging element 12, and therefore does not directly represent the brightness (Bv value) of the subject. Absent.

露出制御に用いる測光値は、画像から得られた輝度値と、現在の露出値(Ev値)及び撮像素子12の感度からBv値を算出する。   As a photometric value used for exposure control, a Bv value is calculated from the luminance value obtained from the image, the current exposure value (Ev value), and the sensitivity of the image sensor 12.

そして、算出した測光値に基づいて、画像の明るさが目標とする明るさになるようなEv値を算出する。AE制御部は、Ev値をプログラム線図に照らし合わせて、絞り値(Av値)、シャッタ速度(Tv値)、ゲイン(Sv値)を算出する。   Then, based on the calculated photometric value, an Ev value is calculated so that the brightness of the image becomes the target brightness. The AE control unit calculates the aperture value (Av value), shutter speed (Tv value), and gain (Sv value) by comparing the Ev value with the program diagram.

そして、算出したAv値、Tv値、Sv値に基づいて絞り111、撮像素子12(電子シャッタ、ゲイン)を制御する。   Then, the diaphragm 111 and the image sensor 12 (electronic shutter, gain) are controlled based on the calculated Av value, Tv value, and Sv value.

なお、前述の測光値については、撮像素子12により得られた画像信号を利用して算出しているが、撮像素子とは別の光電変換手段(測光手段)によって被写体の明るさを検出し、その検出信号から測光値を求めてもよい。   The above-mentioned photometric value is calculated using the image signal obtained by the image sensor 12, but the brightness of the subject is detected by a photoelectric conversion means (photometric means) different from the image sensor, A photometric value may be obtained from the detection signal.

<AF制御>
次に、AF制御部103で実行されるAF制御処理について説明する。AF制御部103は、図2の合焦評価値生成部146が生成する焦点評価値に基づいてAF制御を行う。
<AF control>
Next, AF control processing executed by the AF control unit 103 will be described. The AF control unit 103 performs AF control based on the focus evaluation value generated by the focus evaluation value generation unit 146 of FIG.

合焦評価値生成部146は、撮像素子12より得られた画像信号の所定の測距領域内における空間周波数の高周波成分を抽出し、抽出した高周波成分を積分することで、測距領域内のコントラストを示す焦点評価値を算出する。   The focus evaluation value generation unit 146 extracts a high-frequency component of the spatial frequency in a predetermined distance measurement area of the image signal obtained from the image sensor 12, and integrates the extracted high-frequency component, thereby integrating the extracted high-frequency component in the distance measurement area. A focus evaluation value indicating contrast is calculated.

算出した合焦点評価は、AF制御部103に供給され、合焦動作に用いられる。   The calculated focus evaluation is supplied to the AF control unit 103 and used for the focus operation.

AF制御部103は、合焦点評価が大きくなる方向にフォーカスレンズを動かしながら、合焦評価値をサンプリングし、焦点評価値が最も高くなるフォーカスレンズの位置(すなわち合焦点)を検出するように制御する。   The AF control unit 103 performs control so as to sample the focus evaluation value while moving the focus lens in the direction in which the focus evaluation is increased, and detect the position of the focus lens (that is, the focus) where the focus evaluation value is highest. To do.

図4において、まずAF制御の開始時には、フォーカスレンズを一定の方向に移動させながら、焦点評価値をサンプリングする。   In FIG. 4, first, at the start of AF control, the focus evaluation value is sampled while moving the focus lens in a certain direction.

そして、フォーカスレンズの移動とともに焦点評価値が単調に増加する場合は、同一方向に焦点評価値の極大(すなわち合焦位置)が存在すると判断し、引き続きフォーカスレンズを移動させる。   If the focus evaluation value increases monotonously with the movement of the focus lens, it is determined that there is a maximum focus evaluation value (that is, a focus position) in the same direction, and the focus lens is continuously moved.

一方、フォーカスレンズの移動と共に焦点評価値が減少する場合は、逆方向に焦点評価値の極大が存在すると判断し、逆方向にフォーカスレンズを移動させる。   On the other hand, when the focus evaluation value decreases with the movement of the focus lens, it is determined that there is a maximum focus evaluation value in the reverse direction, and the focus lens is moved in the reverse direction.

図4のように例えば至近側に移動させながら焦点評価値をサンプリングすると、フォーカスレンズの移動とともに焦点評価値が単調に増加しているので、極大は至近側にあると判断し、引き続き至近側にフォーカスレンズを移動させる。   For example, if the focus evaluation value is sampled while moving to the close side as shown in FIG. 4, the focus evaluation value monotonously increases with the movement of the focus lens, so it is determined that the maximum is on the close side and continues to the close side. Move the focus lens.

図4の場合、そのままフォーカスレンズの移動を継続していると、焦点評価値はピークを通り過ぎてから減少へと転じるので、そこで焦点評価値の極大(合焦位置)を確認することができる。   In the case of FIG. 4, if the movement of the focus lens is continued as it is, the focus evaluation value starts to decrease after passing the peak, so that the maximum (focus position) of the focus evaluation value can be confirmed there.

焦点評価値の極大を確認した場合は、フォーカスレンズを極大付近に戻す。このようにして焦点評価値が極大となる合焦位置にフォーカスレンズを移動させることができる。この動作を山登り駆動モードと称する。   When the maximum focus evaluation value is confirmed, the focus lens is returned to the vicinity of the maximum. In this way, the focus lens can be moved to the in-focus position where the focus evaluation value is maximized. This operation is referred to as a hill-climbing drive mode.

また、合焦点付近において、フォーカスレンズを前後方向に微小に動作させながら焦点評価値をサンプリングし、現在のフォーカスレンズの位置が焦点評価値のピークにあることを確認する。この動作を微小駆動モードと称する。   Further, in the vicinity of the in-focus point, the focus evaluation value is sampled while the focus lens is moved slightly in the front-rear direction, and it is confirmed that the current position of the focus lens is at the peak of the focus evaluation value. This operation is referred to as a micro drive mode.

焦点評価値がピークとなる位置にいないと判断されると、フォーカスレンズを評価値が大きくなる方向に動かし、フォーカスレンズを合焦点付近に維持するように制御する。   If it is determined that the focus evaluation value is not at the peak position, the focus lens is moved in the direction in which the evaluation value increases, and the focus lens is controlled to be maintained in the vicinity of the focal point.

<像ブレ補正制御>
次に、図5を参照して、像ブレ補正制御部104で実行される像ブレ補正制御について説明する。
<Image stabilization control>
Next, image blur correction control executed by the image blur correction control unit 104 will be described with reference to FIG.

図5は、図1における像ブレ補正制御部104、シフトレンズ駆動部115を更に詳細に説明するためのブロック図である。   FIG. 5 is a block diagram for explaining the image blur correction control unit 104 and the shift lens driving unit 115 in FIG. 1 in more detail.

像ブレ補正制御部104は、角速度センサ19から出力される角速度情報に基づいて撮像装置1に加わる振れを検出する。   The image blur correction control unit 104 detects a shake applied to the imaging device 1 based on the angular velocity information output from the angular velocity sensor 19.

そして、それを打ち消すように振れ補正データに基いてシフトレンズ112を駆動することにより、撮像画像に発生する像ブレを補正する。   Then, the image blur generated in the captured image is corrected by driving the shift lens 112 based on the shake correction data so as to cancel it.

角速度センサ19は、光軸に直交する一平面上で互いに直交した検出軸をなすように、水平方向の回転軸(Yaw)と垂直方向の回転軸(Pitch)との2軸方向に二つの角速度センサを配置している。   The angular velocity sensor 19 has two angular velocities in two axial directions, ie, a horizontal rotation axis (Yaw) and a vertical rotation axis (Pitch) so as to form detection axes orthogonal to each other on a plane orthogonal to the optical axis. The sensor is arranged.

なお、それぞれの軸における信号処理及びシフトレンズ112の駆動制御は、両軸とも同じ処理で実現することができるので、以降は片方の軸についてのみ説明するものとする。   The signal processing on each axis and the drive control of the shift lens 112 can be realized by the same processing on both axes, and therefore only one of the axes will be described below.

角速度センサ19は、撮像装置1に加わる振れの角速度を検出し、角速度に応じた電圧を出力する。   The angular velocity sensor 19 detects an angular velocity of shake applied to the imaging device 1 and outputs a voltage corresponding to the angular velocity.

A/D変換器20は角速度センサ19から出力される電圧をデジタルデータに変換し、角速度データとして取り込む。   The A / D converter 20 converts the voltage output from the angular velocity sensor 19 into digital data and captures it as angular velocity data.

HPF121は、角速度データの低周波数成分を除去して、敏感度補正部122に供給する。   The HPF 121 removes the low frequency component of the angular velocity data and supplies it to the sensitivity correction unit 122.

敏感度補正部122は、シフトレンズ112を像ブレ補正に適切な(好ましくは最適な)変位量で駆動させる。   The sensitivity correction unit 122 drives the shift lens 112 with a displacement amount appropriate (preferably optimal) for image blur correction.

そのため、シフトレンズ112の偏心敏感度(即ち、シフトレンズの変位量に対する像面上の結像位置の変位量の比率によって求まる係数)を角速度データに乗じて、角速度データの振幅を変換する。   Therefore, the angular velocity data is converted by multiplying the angular velocity data by the eccentric sensitivity of the shift lens 112 (that is, the coefficient obtained by the ratio of the displacement amount of the imaging position on the image plane to the displacement amount of the shift lens).

次に、敏感度補正部122の出力の単位は角速度であるので、積分器123で1階積分することにより角変位に変換する。   Next, since the unit of the output of the sensitivity correction unit 122 is an angular velocity, it is converted into an angular displacement by first-order integration by the integrator 123.

なお、ここで行われる積分演算は、飽和を防止するために不完全積分となっており、一般的に知られている1次LPFで演算される。   The integration calculation performed here is incomplete integration in order to prevent saturation, and is calculated by a generally known first-order LPF.

積分器123で算出された角変位データは、飽和防止制御部124において、シフトレンズ112が機械的な可動範囲の端に突き当たらないように制限をかけて出力される。   The angular displacement data calculated by the integrator 123 is output by the saturation prevention control unit 124 with restriction so that the shift lens 112 does not hit the end of the mechanical movable range.

具体的には、シフトレンズ112の機械的な可動範囲の内側に制御範囲のリミッタを設け、角変位データがリミッタを超えないように制限をかける。   Specifically, a limiter for the control range is provided inside the mechanical movable range of the shift lens 112 to limit the angular displacement data so as not to exceed the limiter.

また、センタリング制御部125では、パンニングやチルティングといった意図した動作がなされたかどうかを判定し、シフトレンズの位置を中央に戻すように制御を行う。   The centering control unit 125 determines whether an intended operation such as panning or tilting has been performed, and performs control to return the position of the shift lens to the center.

具体的には、飽和防止制御部124に設けられたリミッタの更に内側に所定の閾値を設け、角変位データが閾値を超えた場合にはパンニングが行われたと判定する。   Specifically, a predetermined threshold is provided further inside the limiter provided in the saturation prevention control unit 124, and it is determined that panning has been performed when the angular displacement data exceeds the threshold.

判定結果は、センタリング制御部125に通知され、パンニングと判定された場合には、HPF121のカットオフ周波数を高くして積分器123に入力される角速度データを制限する。   The determination result is notified to the centering control unit 125, and when the panning is determined, the cut-off frequency of the HPF 121 is increased to limit the angular velocity data input to the integrator 123.

また、積分器123に入力される角速度データから所定のオフセットを差し引いたり、或いは、積分器123で行われるLPF演算のカットオフ周波数を高くして、積分器123の出力が中央に戻るように制御する。   In addition, a predetermined offset is subtracted from the angular velocity data input to the integrator 123, or the LPF calculation cut-off frequency performed by the integrator 123 is increased so that the output of the integrator 123 returns to the center. To do.

このように、パンニングやチルティング等の意図した振れがなされた場合であっても、シフトレンズ112の可動範囲に収まるように制御し、最終的なシフトレンズ112の変位量である駆動目標位置を算出する。   In this way, even when panning, tilting, or the like is intended, control is performed so that the shift lens 112 is within the movable range, and the final drive target position, which is the displacement amount of the shift lens 112, is set. calculate.

シフトレンズ駆動部115は、位置検出部119、アンプ120、モータ駆動部117、モータ118で構成されている。   The shift lens driving unit 115 includes a position detection unit 119, an amplifier 120, a motor driving unit 117, and a motor 118.

位置検出部119は、シフトレンズ112の位置を検出して位置に応じた電圧を出力し、アンプ120で適切な電圧範囲の信号に増幅さる。   The position detection unit 119 detects the position of the shift lens 112 and outputs a voltage corresponding to the position, and the amplifier 120 amplifies the signal to a signal in an appropriate voltage range.

そして、A/D変換器20によってデジタルデータ化され、位置データとして取り込まれる。   Then, it is converted into digital data by the A / D converter 20 and taken in as position data.

制御フィルタ126は、駆動目標位置と位置データの差分である偏差データが入力され、増幅及び位相補償等の種々の信号処理を施してパルス幅変調部21に出力される。   The control filter 126 receives deviation data that is a difference between the drive target position and the position data, performs various signal processing such as amplification and phase compensation, and outputs the result to the pulse width modulation unit 21.

パルス幅変調部21は、制御フィルタ126の出力を、パルス波のデューティー比を変化させる波形(即ちPWM波形)に変調して、モータ駆動部117に供給する。   The pulse width modulation unit 21 modulates the output of the control filter 126 into a waveform (that is, a PWM waveform) that changes the duty ratio of the pulse wave, and supplies the modulated waveform to the motor driving unit 117.

モータ118は、例えばボイス・コイル型モータであり、モータ駆動部117によって駆動されることにより、シフトレンズ112は光軸と垂直な方向に移動する。   The motor 118 is, for example, a voice coil type motor, and the shift lens 112 moves in a direction perpendicular to the optical axis by being driven by the motor driving unit 117.

そして、移動したシフトレンズ112の位置は位置検出部119で検出されて次の偏差データが算出されるというフィードバックループが形成されており、駆動目標位置と位置データの差分が小さくなるように制御される。   A feedback loop is formed in which the position of the shifted shift lens 112 is detected by the position detection unit 119 and the next deviation data is calculated. The difference between the drive target position and the position data is controlled to be small. The

このように角速度センサ19で検出した振れデータに応じてシフトレンズ112を駆動することで像ブレを補正することが出来る。   In this way, the image blur can be corrected by driving the shift lens 112 in accordance with the shake data detected by the angular velocity sensor 19.

<WB適正度の生成方法>
次に、図6を用いてWB適正度の演算方法について、詳細を説明する。
<Method for generating WB suitability>
Next, the details of the method for calculating the WB suitability will be described with reference to FIG.

図6(a)のグラフはR−Y、B−Yの色差を座標としている。   In the graph of FIG. 6A, the color difference between RY and BY is used as coordinates.

上述した色評価値生成部147から出力される色評価値の座標が、図6(a)の原点O付近に位置しているときは、RGBのバランスが取れている、即ちホワイトバランスが合っていることを示している。   When the coordinates of the color evaluation values output from the color evaluation value generation unit 147 described above are located near the origin O in FIG. 6A, the RGB balance is achieved, that is, the white balance is appropriate. It shows that.

逆に原点Oから離れているほど、ホワイトバランスがズレていることを示している。色評価値の図6(a)の座標上でのベクトルをWB_Vectorと定義する。   Conversely, the farther from the origin O, the more white balance is shifted. A vector of the color evaluation values on the coordinates in FIG. 6A is defined as WB_Vector.

図6(b)(b)のグラフの横軸はWB_Vectorの大きさとし、縦軸を生成される適正度Mdata_wbとしたグラフの一例を示している。   The horizontal axis of the graphs of FIGS. 6B and 6B is an example of a graph in which the size of WB_Vector is set and the vertical axis is the appropriateness Mdata_wb to be generated.

上述したように横軸は、値が大きくなるほどホワイトバランスがズレた画像となる。図6(b)において、Mdata_wbは、以下の計算式で演算する。
Mdata_wb=|WB_Vector|/WB_TH
As described above, the horizontal axis is an image in which the white balance is shifted as the value increases. In FIG. 6B, Mdata_wb is calculated by the following calculation formula.
Mdata_wb = | WB_Vector | / WB_TH

つまり、ホワイトバランスの最適値からのズレ量を所定の閾値WB_THで正規化している。ここで、WB_THは、ホワイトバランスのズレ量の許容値として設定される。   That is, the amount of deviation from the optimum white balance value is normalized by the predetermined threshold WB_TH. Here, WB_TH is set as an allowable value of the deviation amount of white balance.

色のズレ量の許容値は個人差も大きく一意に決めるのは困難であるため、ユーザーが任意で設定できるようにしてもよい。   Since the allowable value of the color misregistration amount varies greatly among individuals and is difficult to determine uniquely, the user may arbitrarily set it.

また、光源によっては、原点に収束し得ない場合もあるため、その場合は、WB_THの閾値を広げてもよいし、図6(a)の原点を光源に合わせてシフトさせてもよい。   Also, depending on the light source, it may not be able to converge to the origin. In this case, the threshold value of WB_TH may be widened, or the origin of FIG. 6A may be shifted according to the light source.

本演算により、Mdata_wbは0に近いほどホワイトバランスが適正になっており、1よりも大きいほどホワイトバランスがズレていることを示すデータとなる。   By this calculation, Mdata_wb becomes data indicating that the white balance is more appropriate as it is closer to 0, and that the white balance is shifted as it is larger than 1.

<AE適正度の生成方法>
次に図7を用いてAE適正度の生成方法について詳細を説明する。図7(a)乃至(b)のグラフの横軸はAPEX(Additive System of Photographic Exposure)システムを用いた単位系で表現している。各々の記号の定義は以下の通りである。
Ev_now …現在の露出値
Ev_target …AE制御部102によって決まる適正露出値
<Method for generating AE suitability>
Next, details of the method for generating the AE suitability will be described with reference to FIG. The horizontal axis of the graphs in FIGS. 7A and 7B is expressed in a unit system using an APEX (Additive System of Photographic Exposure) system. The definition of each symbol is as follows.
Ev_now ... current exposure value Ev_target ... appropriate exposure value determined by the AE control unit 102

図7(b)は、横軸をEv_target−Ev_now、即ち適正露出値と現在の露出値との差分とし、縦軸を生成される適正度Mdata_exposureとしたグラフの一例を示している。   FIG. 7B shows an example of a graph in which the horizontal axis is Ev_target−Ev_now, that is, the difference between the appropriate exposure value and the current exposure value, and the vertical axis is the appropriateness degree Mdata_exposure to be generated.

横軸は、プラス方向に大きくなると露出オーバーとなり、マイナス方向に小さくなると露出アンダーとなり、0のときは露出が正確に合っている状態を示している。   The abscissa indicates overexposure when it increases in the plus direction, underexposure when it decreases in the minus direction, and indicates a state where the exposure is accurately matched when 0.

このとき、Mdata_exposure=0となる。図7(a)において、Mdata_exposureは、以下の計算式で演算する。
Mdata_exposure=|Ev_target−Ev_now|/(1/3)
At this time, Mdata_exposure = 0. In FIG. 7A, Mdata_exposure is calculated by the following calculation formula.
Mdata_exposure = | Ev_target−Ev_now | / (1/3)

つまり、現在の露出の適正露出からのズレ量を所定のEv値(ここでは1/3Ev)で正規化している。ここで、1/3Evで正規化したのは、あくまでも一例である。   That is, the amount of deviation of the current exposure from the appropriate exposure is normalized by a predetermined Ev value (here, 1/3 Ev). Here, normalization by 1/3 Ev is merely an example.

本数値は、ユーザーが任意で設定できるようにしてもよいし、被写体の輝度分布により可変にしてもよい。   This numerical value may be arbitrarily set by the user, or may be variable depending on the luminance distribution of the subject.

例えば、1/3Evずれると白飛びや黒つぶれが発生してしまう場合は、1/5Evで正規化する等の方法を採用することも可能である。   For example, when a deviation of 1/3 Ev occurs, overexposure or blackout occurs, a method such as normalization by 1/5 Ev may be employed.

本演算により、Mdata_exposureは0に近いほど露出が適正になっており、1よりも大きいほど露出アンダーあるいはオーバーになっていることを示すデータとなる。   By this calculation, Mdata_exposure is data indicating that the exposure is more appropriate as it is closer to 0, and that the exposure is underexposed or overexposed as it is greater than 1.

図7(b)は、横軸と縦軸は図7(a)と共通で、Mdata_exposureの演算方法の更に他の例を示したグラフである。図7(b)において、Mdata_exposureは、以下の計算式で演算する。
Mdata_exposure=(2^(|Ev_target−Ev_now|)−1)
/(2^(1/3)−1)
FIG. 7B is a graph showing still another example of the method of calculating Mdata_exposure, in which the horizontal axis and the vertical axis are the same as those in FIG. 7A. In FIG. 7B, Mdata_exposure is calculated by the following calculation formula.
Mdata_exposure = (2 ^ (| Ev_target-Ev_now |) -1)
/ (2 ^ (1/3) -1)

Ev値は、撮像素子に入射される光量を底を2とした対数で表現した単位系である。つまりEv値が1変化すると、光量は2倍あるいは1/2倍となる。   The Ev value is a unit system in which the amount of light incident on the image sensor is expressed as a logarithm with a base of 2. That is, when the Ev value changes by 1, the light amount is doubled or halved.

上式はAPEXシステムの単位系を実際の光量の単位系に変換した後に正規化を行っており、より正確に露出のズレ量をMdata_exposureで表現することができる。   In the above equation, normalization is performed after the unit system of the APEX system is converted into the unit system of the actual light quantity, and the amount of exposure deviation can be expressed more accurately by Mdata_exposure.

<AF適正度の生成方法>
図8を用いてAF適正度の生成方法について詳細を説明する。説明のため、以下のように記号を定義する。
Dl …合焦時に保持した焦点評価値(ピーク値)
Dt …現在の焦点評価値
Df …被写界深度(無限遠側)
Dn …被写界深度(至近側)
<Method for generating AF suitability>
Details of the AF appropriateness generation method will be described with reference to FIG. For the sake of explanation, symbols are defined as follows.
Dl: Focus evaluation value (peak value) held during focusing
Dt: Current focus evaluation value Df: Depth of field (infinity)
Dn: Depth of field (closest side)

図8(a)は、横軸をDl−Dt、合焦時に保持した焦点評価値と現在の焦点評価値との差分とし、縦軸を生成される適正度Mdata_focusとしたグラフの一例を示している。   FIG. 8A shows an example of a graph in which the horizontal axis is D1−Dt, the difference between the focus evaluation value held at the time of focusing and the current focus evaluation value, and the vertical axis is the appropriateness Mdata_focus generated. Yes.

Dl−Dtが0のときは、ピントが完全に合っている状態を示しており、このとき、Mdata_focus=0となる。図8(a)において、Mdata_focusは、以下の計算式で演算する。
Mdata_focus=|(Dl−Dt)/(Df−Dt)|
ただし、Dl−Dt≧0
Mdata_focus=|(Dl−Dt)/(Dn−Dt)|
ただし、Dl−Dt<0
When D1−Dt is 0, it indicates a state where the focus is completely achieved. At this time, Mdata_focus = 0. In FIG. 8A, Mdata_focus is calculated by the following calculation formula.
Mdata_focus = | (Dl−Dt) / (Df−Dt) |
However, D1-Dt ≧ 0
Mdata_focus = | (Dl−Dt) / (Dn−Dt) |
However, D1-Dt <0

つまり、撮影被写体距離の目標値からのズレ量を被写界深度の深さで正規化している。これによって、Mdata_focusは0に近いほどピントが合っており、1よりも大きくなるほどピンボケになっていることを示すデータとなる。   That is, the amount of deviation from the target value of the shooting subject distance is normalized by the depth of field. As a result, Mdata_focus is data indicating that the closer to 0, the more focused, and the greater the value, the more out-of-focus.

<像ブレ補正適正度の生成方法>
図5における敏感度補正部127、積分器128、追従度演算部129は、像ブレ補正制御の追従度(すなわち像ブレ補正制御についての適正度)を算出するためのブロックである。
<Method for generating image blur correction appropriateness>
The sensitivity correction unit 127, the integrator 128, and the tracking degree calculation unit 129 in FIG. 5 are blocks for calculating the tracking degree of the image blur correction control (that is, the appropriateness level for the image blur correction control).

敏感度補正部127は、敏感度補正部122と同じように、角速度データにシフトレンズ112の偏心敏感度を乗じて、シフトレンズで像ブレ補正を行うために適切な(好ましくは最適な)振幅に変換する。   Similar to the sensitivity correction unit 122, the sensitivity correction unit 127 multiplies the angular velocity data by the eccentricity sensitivity of the shift lens 112, and an appropriate (preferably optimum) amplitude for performing image blur correction with the shift lens. Convert to

積分器128は、角速度を1階積分することにより角変位に変換する。ただし、積分器123と異なり、LPFで実現される不完全積分では無く、完全積分で演算されるようになっている。   The integrator 128 converts the angular velocity into angular displacement by first-order integration. However, unlike the integrator 123, the calculation is based on the complete integration, not the incomplete integration realized by the LPF.

積分器128の出力は、角速度データをHPFやLPF等でフィルタリングせずに演算しているので、積分器123の出力と比較した場合、撮像装置に加えられた振れをより精度良く得ることができる。   Since the output of the integrator 128 is calculated without filtering the angular velocity data by HPF, LPF, or the like, the shake applied to the imaging device can be obtained with higher accuracy when compared with the output of the integrator 123. .

追従度演算部129では、以下の計算式で像ブレ補正適正度Mdata_shakeを算出する。
Shake_det …積分器128の出力(検出した角変位量)
Shake_cor …A/D変換器22の出力(補正した角変位量)
f …現在の焦点距離
Mdata_shake=|Shake_det−Shake_cor|/f
The follow-up degree calculation unit 129 calculates the image blur correction appropriateness Mdata_shake by the following calculation formula.
Shake_det ... Output of integrator 128 (detected angular displacement)
Shake_cor: Output of A / D converter 22 (corrected angular displacement)
f ... Current focal length Mdata_shake = | Shake_det-Shake_cor | / f

つまり、角速度センサで検出した振れ情報から算出した角変位量とシフトレンズ112で実際に補正した角変位量の差分を算出することで画像データに残る振れ補正データである像ブレ量を求めており、さらに焦点距離fで規化している。   In other words, by calculating the difference between the angular displacement amount calculated from the shake information detected by the angular velocity sensor and the angular displacement amount actually corrected by the shift lens 112, the image blur amount which is the shake correction data remaining in the image data is obtained. Further, it is normalized by the focal length f.

<撮像特性制御部の動作>
次に図1及び図5における撮像特性制御部105の動作について説明する。撮像特性制御部105は、本発明で最も特徴的な部分である。
<Operation of imaging characteristic control unit>
Next, the operation of the imaging characteristic control unit 105 in FIGS. 1 and 5 will be described. The imaging characteristic control unit 105 is the most characteristic part in the present invention.

その目的は、各の撮像パラメータについての撮影状態がそろって好適な状態となる確率を上げ、高品質な静止画を得やすくすることである。   The purpose is to increase the probability that the shooting state for each of the imaging parameters is in a suitable state, and to easily obtain a high-quality still image.

ここでは、撮像特性制御部105で行われる処理の一例として、AE、AF、WBの適正度を参照し、これら適正度に応じて像ブレ補正の制御特性を変更するように制御を行う。   Here, as an example of processing performed by the imaging characteristic control unit 105, the appropriateness of AE, AF, and WB is referred to, and control is performed so as to change the control characteristic of image blur correction according to these appropriatenesses.

ここで、像ブレ補正制御部104の制御特性を変更する方法について説明する。   Here, a method for changing the control characteristics of the image blur correction control unit 104 will be described.

像ブレ補正制御部104は、HPF121のカットオフ周波数、或いは積分器123で演算されるLPFのカットオフ周波数を操作することにより、その特性を変更することができる。   The image blur correction control unit 104 can change the characteristic by manipulating the cutoff frequency of the HPF 121 or the cutoff frequency of the LPF calculated by the integrator 123.

HPF或いはLPFのカットオフ周波数を高くすると、検出したブレ情報から低周波数成分が除去され、像ブレ補正の効果が低下する。   When the cutoff frequency of the HPF or LPF is increased, the low frequency component is removed from the detected blur information, and the effect of image blur correction is reduced.

また、カットオフ周波数付近の位相が進む方向に変化するため、検出した振れに対する像ブレ補正の追従性が低下する(像ブレ補正の効果が低下する)。   In addition, since the phase near the cutoff frequency changes in the traveling direction, the followability of the image blur correction with respect to the detected shake decreases (the effect of the image blur correction decreases).

一方、カットオフ周波数を低くすると低周波数のブレも補正することができ、位相特性に着目しても位相進みがより小さくなるため、検出したブレに対する像ブレ補正の追従性が高く(像ブレ補正の効果が高く)なる。   On the other hand, if the cut-off frequency is lowered, low-frequency blur can also be corrected, and phase advancement becomes smaller even when focusing on the phase characteristics. Therefore, the followability of image blur correction to detected blur is high (image blur correction). Is highly effective).

撮像特性制御部105は、センタリング制御部125を制御することにより、これらのカットオフ周波数を変更し、像ブレ補正の特性を制御することが出来る。   The imaging characteristic control unit 105 can control the image blur correction characteristics by changing the cutoff frequency by controlling the centering control unit 125.

ところで、像ブレ補正の追従性を高く(像ブレ補正の効果を強く)することによって、像ブレが少なく品位の高い映像を得ることが出来るが、動画の撮影においては常に追従性を高く保つことが出来ない。   By the way, by making the followability of image blur correction high (the effect of image blur correction is strong), it is possible to obtain a high quality image with little image blur, but always keep the followability high when shooting movies. I can't.

なぜならば、シフトレンズの可動範囲には機械的(或いは光学的)な可動端があるため、検出したブレに追従するように像ブレ補正を行うと、シフトレンズの位置は次第に可動端に近づき、最終的には可動端に突き当たってしまう。   Because there is a mechanical (or optical) movable end in the movable range of the shift lens, when image blur correction is performed to follow the detected blur, the position of the shift lens gradually approaches the movable end, Eventually it will hit the movable end.

可動端に突き当たるとそれ以上のブレ補正はできなくなり、撮像画像の像ブレとして現れる。   When it comes into contact with the movable end, no more blur correction can be performed, and it appears as image blur in the captured image.

従って、像ブレ補正手段であるシフトレンズ112の位置を可動範囲に対してなるべく中央にくるように制御している、よって、像ブレ補正範囲にマージンを多く確保し、今後発生し得る大きなブレに対しても補正が可能なようにすることが出来る。   Therefore, the position of the shift lens 112 as image blur correction means is controlled so as to be as central as possible with respect to the movable range. Therefore, a large margin is secured in the image blur correction range, and a large blur may occur in the future. It is possible to make corrections possible.

評価手段である撮像特性制御部105は、被写体像を撮像する撮像素子から出力される画像データから取得される撮像パラメータの良否を評価して撮像パラメータの評価値を生成する。   The imaging characteristic control unit 105, which is an evaluation unit, evaluates the quality of imaging parameters acquired from image data output from an imaging element that captures a subject image, and generates an evaluation value of the imaging parameters.

撮像パラメータは、露出制御に用いる露出パラメータ、フォーカスレンズ制御に用いる焦点状態パラメータ、ホワイトバランスパラメータの何れかである。   The imaging parameter is one of an exposure parameter used for exposure control, a focus state parameter used for focus lens control, and a white balance parameter.

変更手段である像ブレ補正制御部104は、動画撮影時に、撮像パラメータの評価値が目標値に近い場合の像ブレ補正性能を撮像パラメータの評価値が目標値に遠い場合の像ブレ補正性能よりも大きくしている。   The image blur correction control unit 104, which is a changing unit, performs image blur correction performance when the imaging parameter evaluation value is close to the target value during moving image shooting, from image blur correction performance when the imaging parameter evaluation value is far from the target value. It is also bigger.

つまり、本発明にかかる撮像装置では、AE制御、AF制御、WB制御の適正度を参照する。   That is, in the imaging apparatus according to the present invention, the appropriateness of AE control, AF control, and WB control is referred to.

そして、各適正値が低い場合には、像ブレ補正の追従性を低くしてシフトレンズ112を中央付近に位置させてマージンを確保するようにして大きなブレに対しても補正が行えるように制御する。   When each appropriate value is low, the followability of image blur correction is lowered, and the shift lens 112 is positioned near the center to secure a margin so that correction can be made even for large blurs. To do.

そして、AE制御、AF制御、WB制御の適正度が高い場合には、像ブレ補正の追従性を高くして像ブレをできるだけ残さないように制御する。このように制御することで、動画を撮影しながら高品質な静止画を得ることが出来る。   Then, when the appropriateness of AE control, AF control, and WB control is high, control is performed so that image blur correction can be followed by increasing image blur correction as much as possible. By controlling in this way, a high-quality still image can be obtained while shooting a moving image.

以下に撮像特性制御部105で実行される処理について、図9のフローチャートを参照して詳細に説明する。   Hereinafter, processing executed by the imaging characteristic control unit 105 will be described in detail with reference to a flowchart of FIG.

なお、図9に示す処理は、例えば撮像装置の1フレームの画像の取り込み周期である60Hzなど、所定の周期で繰り返し実行される。ステップS101では、AF制御部103が生成するAF適正度を取得し、AF適正度が所定閾値以上かどうかを判定する。   Note that the processing shown in FIG. 9 is repeatedly executed at a predetermined cycle, for example, 60 Hz, which is an image capturing cycle of one frame of the imaging apparatus. In step S101, the AF appropriateness generated by the AF control unit 103 is acquired, and it is determined whether the AF appropriateness is equal to or greater than a predetermined threshold.

所定閾値以上と判定された場合は、ステップS105に進み、所定閾値未満と判定された場合はステップS102に進む。ステップS102では、AE制御部102が生成するAF適正度を取得し、AE適正度が所定閾値以上かどうかを判定する。   If it is determined that the threshold value is equal to or greater than the predetermined threshold value, the process proceeds to step S105. If it is determined that the threshold value is less than the predetermined threshold value, the process proceeds to step S102. In step S102, the AF appropriateness generated by the AE control unit 102 is acquired, and it is determined whether the AE appropriateness is equal to or greater than a predetermined threshold.

所定閾値以上と判定された場合は、ステップS105に進み、所定閾値未満と判定された場合はステップS103に進む。ステップS103では、WB制御部101が生成するWB適正度を取得し、WB適正度が所定閾値以上かどうかを判定する。   If it is determined that the threshold value is equal to or greater than the predetermined threshold value, the process proceeds to step S105. If it is determined that the threshold value is less than the predetermined threshold value, the process proceeds to step S103. In step S103, the WB appropriateness level generated by the WB control unit 101 is acquired, and it is determined whether the WB appropriateness level is equal to or greater than a predetermined threshold.

所定閾値以上と判定された場合は、ステップS105に進み、所定閾値未満と判定された場合はステップS104に進む。   If it is determined that the threshold value is equal to or greater than the predetermined threshold value, the process proceeds to step S105. If it is determined that the threshold value is less than the predetermined threshold value, the process proceeds to step S104.

ステップS105は、ステップS101〜S103の判定のいずれかで、所定値以上と判定された場合の処理で、像ブレ補正制御部104で行われる像ブレ補正の特性を変更して、補正効果が弱くなるようにする。   Step S105 is a process performed when any of the determinations in steps S101 to S103 is determined to be greater than or equal to a predetermined value, and changes the characteristics of image blur correction performed by the image blur correction control unit 104 to reduce the correction effect. To be.

ステップS104では、像ブレ補正制御部104で行われる像ブレ補正の特性を変更して、補正の効果が高くなるように変更し、ステップS106に進む。   In step S104, the characteristics of the image blur correction performed by the image blur correction control unit 104 are changed so as to increase the correction effect, and the process proceeds to step S106.

ステップS104及びステップS105で行われる処理の具体的な方法としては、HPF121のカットオフ周波数を低くし、積分器123の演算に用いるLPFのカットオフ周波数を低く設定する。   As a specific method for the processing performed in steps S104 and S105, the cutoff frequency of the HPF 121 is lowered, and the cutoff frequency of the LPF used for the calculation of the integrator 123 is set low.

図10は各適正度に応じてHPFおよびLPFのカットオフ周波数を算出する方法を説明した図である。   FIG. 10 is a diagram illustrating a method for calculating the cut-off frequency of HPF and LPF according to each appropriateness.

図10において、横軸は各適正度、縦軸はHPFおよびLPFのカットオフ周波数を示している。   In FIG. 10, the horizontal axis indicates the appropriateness, and the vertical axis indicates the cutoff frequency of HPF and LPF.

ステップS105では、AE制御、AF制御、WB制御の適正度を参照して、適正度毎にカットオフ周波数を算出する。   In step S105, the cutoff frequency is calculated for each appropriateness with reference to the appropriateness of AE control, AF control, and WB control.

そして、算出されたカットオフ周波数のうち、最も高いカットオフ周波数をHPF121及び積分器123の演算に用いるLPFに設定する。   Then, the highest cut-off frequency among the calculated cut-off frequencies is set as the LPF used for the calculation of the HPF 121 and the integrator 123.

ステップS106では、像ブレ補正制御部104が生成する像ブレ補正の追従度を取得し、像ブレ補正追従度が所定閾値以上かどうかを判定する。   In step S106, the image blur correction follow-up degree generated by the image blur correction control unit 104 is acquired, and it is determined whether the image blur correction follow-up degree is equal to or greater than a predetermined threshold.

所定閾値以上と判定された場合はステップS107に進む。所定閾値未満と判定された場合は処理を終了する。   If it is determined that the threshold is equal to or greater than the predetermined threshold value, the process proceeds to step S107. If it is determined that it is less than the predetermined threshold value, the process is terminated.

ステップS107は、すべての撮像パラメータが適正に近いと判定された場合の処理であり、動画データの現在のフレームから静止画データを生成するための指示を図1における記録制御部16に報知する。   Step S107 is processing when it is determined that all the imaging parameters are close to appropriate values, and notifies the recording control unit 16 in FIG. 1 of an instruction for generating still image data from the current frame of the moving image data.

記録手段としての記録制御部16は、像ブレ補正性能が大きいフレーム画像を静止画再生用データとして記録する。   A recording control unit 16 as a recording unit records a frame image having a high image blur correction performance as still image reproduction data.

記録制御部16は撮像特性制御部105からの静止画データ生成の指示があった場合には、映像信号処理部14から出力される映像信号のうち、所望のフレーム画像から静止画データを生成して記録媒体18に記録する。   The recording control unit 16 generates still image data from a desired frame image among the video signals output from the video signal processing unit 14 when there is an instruction to generate still image data from the imaging characteristic control unit 105. To the recording medium 18.

なお、静止画データ生成の別の方法として、動画データを構成する複数のフレーム画像のうち、静止画データの生成に用いるフレームを記述したメタデータを動画データと関連づけて記録媒体に記録しておく。   As another method for generating still image data, metadata describing a frame used for generating still image data among a plurality of frame images constituting moving image data is recorded on a recording medium in association with the moving image data. .

そして、動画撮影とは別のタイミングで、動画データから静止画データを生成できるようにしても良い。   The still image data may be generated from the moving image data at a timing different from the moving image shooting.

以上説明してきたように、本発明においては、AF適正度、AE適正度、WB適正度ズレ、像ブレ補正適正度の4種類の適正度に基づいて、各撮像パラメータを制御する。   As described above, in the present invention, each imaging parameter is controlled based on the four types of appropriatenesses of AF appropriateness, AE appropriateness, WB appropriateness deviation, and image blur correction appropriateness.

よって、各撮影状態が出来る限りそろって好適な状態になるように制御することが可能になる。   Therefore, it is possible to control each photographing state so that it is as suitable as possible.

動画像から静止画像を生成する場合に、より高い確率で良好な静止画像を生成できるようになる。   When a still image is generated from a moving image, a good still image can be generated with a higher probability.

そして、撮影動画像から静止画を生成する場合に、容易に静止画として最適な画像を生成することができる撮像装置を提供することができる。   In addition, when a still image is generated from a captured moving image, it is possible to provide an imaging apparatus that can easily generate an optimal image as a still image.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではない。   Although the present invention has been described in detail based on the preferred embodiments, the present invention is not limited to these specific embodiments.

この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、上記の4種類の適正度は全てを生成する必要はなく、少なくとも2種類以上の適正度を用いるシステムであってもよい。   Various forms within the scope of the present invention are also included in the present invention. For example, it is not necessary to generate all the four types of appropriatenesses, and a system using at least two types of appropriatenesses may be used.

(実施例2)
次に、本発明の実施形態2について説明する。本実施形態は、図1を参照して説明した撮像装置1と同じ構成で実現可能であるため、その説明を省略する。
(Example 2)
Next, Embodiment 2 of the present invention will be described. Since the present embodiment can be realized with the same configuration as the imaging device 1 described with reference to FIG. 1, the description thereof is omitted.

本実施例では、撮像特性変更部105で行われる制御の別の方法について説明する。   In the present embodiment, another method of control performed by the imaging characteristic changing unit 105 will be described.

ここでは、撮像特性制御部105で行われる処理の一例として、AFの適正度を参照し、その時間的な変化に応じて、像ブレ補正の制御特性を変更する方法について説明する。   Here, as an example of processing performed by the imaging characteristic control unit 105, a method for referring to the appropriateness of AF and changing the control characteristic of image blur correction according to the temporal change will be described.

本実施例の撮像特性変更部105では、ピントが合っていない状態からピントが合っている状態に変化している時、言い換えれば、AFによる合焦動作を行っている間に、像ブレ補正の補正効果を低く設定する。そして、ピントがあった状態で像ブレ補正の補正効果を高くする。   In the imaging characteristic changing unit 105 of the present embodiment, when the focus is changed from the out-of-focus state, in other words, during the focusing operation by AF, the image blur correction is performed. Set the correction effect low. Then, the correction effect of the image blur correction is increased in a state where focus is achieved.

その目的は、実施形態1と同じように各撮像パラメータについての撮影状態がそろって好適な状態となる確率を上げ、高品質な静止画を得やすくすることであるが、適正度の時間的な変化を監視することによって、目的をより達成し易くする。   The purpose is to increase the probability that the shooting state for each imaging parameter is in a suitable state as in the first embodiment, and to easily obtain a high-quality still image. It makes it easier to achieve the objective by monitoring changes.

具体的には、AF動作が終了した時点において、シフトレンズ112を制御範囲の中央付近に位置するように制御することで、ピントが合っている状態での像ブレ補正の効果を最大限に引き出すことが可能となる。   Specifically, when the AF operation is finished, the shift lens 112 is controlled so as to be positioned near the center of the control range, thereby maximizing the effect of image blur correction in a focused state. It becomes possible.

なお、発明の趣旨を明確にするためにAFの適正度のみを参照して制御を行う方法を説明するが、AE、AWBの複数の適正度を参照した場合であっても同じ方法を適用することができる。   In order to clarify the gist of the invention, a method of performing control with reference to only the appropriateness of AF will be described, but the same method is applied even when a plurality of appropriateness of AE and AWB are referred to. be able to.

以下に撮像特性変更部105で実行される処理について、図11のフローチャートを参照して詳細に説明する。   Hereinafter, processing executed by the imaging characteristic changing unit 105 will be described in detail with reference to a flowchart of FIG.

なお、図11に示す処理は、例えば、撮像装置の1フレームの画像の取り込み周期である60Hzなど、所定の周期で繰り返し実行される。   Note that the processing shown in FIG. 11 is repeatedly executed at a predetermined cycle, for example, 60 Hz, which is an image capturing cycle of one frame of the imaging apparatus.

ステップS201では、内部メモリの変数であるAf_Flagを参照し、0かどうかを判定する。0の場合はステップS202に進み、0でない場合はS205に進む。Af_Flagは、撮像特性変更部105の処理の状態を示すためのフラグであり、一旦ピントが外れたと判定された時に1にセットされるフラグである。   In step S201, Af_Flag which is a variable of the internal memory is referred to and it is determined whether or not it is zero. If it is 0, the process proceeds to step S202, and if it is not 0, the process proceeds to S205. Af_Flag is a flag for indicating a processing state of the imaging characteristic changing unit 105, and is a flag that is set to 1 when it is determined that the focus is once out of focus.

ステップS202では、像ブレ補正制御部104で行われる像ブレ補正の特性を変更して、補正の効果が高くなるようにカットオフ周波数を低く設定する。このときの値は、通常時のカットオフ周波数であるFc_baseに設定する。   In step S202, the characteristics of the image blur correction performed by the image blur correction control unit 104 are changed, and the cutoff frequency is set low so that the correction effect is enhanced. The value at this time is set to Fc_base, which is a normal cutoff frequency.

ステップS203では、AF制御部103が生成するAF適正度を取得し、AF適正度が所定閾値より大きいかどうかを判定する。AF適正度が所定閾値より大きい(ピントが外れている)と判定された場合は、ステップS204に進み、Af_flagを1にセットする。所定閾値以下と判定された場合は処理を終了する。   In step S203, the AF appropriateness generated by the AF control unit 103 is acquired, and it is determined whether the AF appropriateness is greater than a predetermined threshold. If it is determined that the AF appropriateness is greater than the predetermined threshold (out of focus), the process proceeds to step S204, and Af_flag is set to 1. If it is determined that the value is equal to or less than the predetermined threshold, the process is terminated.

ステップS205は、ステップS201においてAf_flagが0でないと判定された場合の処理であり、即ち一旦ピントが外れた状態に行われる処理である。   Step S205 is a process performed when it is determined in step S201 that Af_flag is not 0, that is, a process performed once in an out-of-focus state.

ステップS205では、AF制御部103が生成するAF適正度を取得し、AF適正度が単調減少しているかどうかを判定する。   In step S205, the AF appropriateness generated by the AF control unit 103 is acquired, and it is determined whether the AF appropriateness is monotonously decreasing.

この判定においては、過去に取得したAF適正度をメモリに保持しておき、所定の回数のあいだ連続して減少しているかどうかを判定する。ステップS205において単調減少と判定された場合はステップS206に進み、単調減少ではないと判定された場合にはステップS207に進む。   In this determination, the AF appropriateness acquired in the past is stored in the memory, and it is determined whether or not the AF appropriateness is continuously decreased for a predetermined number of times. If it is determined in step S205 that there is a monotonic decrease, the process proceeds to step S206. If it is determined that it is not a monotonic decrease, the process proceeds to step S207.

ステップS206では、像ブレ補正制御部104で行われる像ブレ補正の特性を変更して、補正の効果が低くなるようにカットオフ周波数を高く設定し、処理を終了する。   In step S206, the characteristics of the image blur correction performed by the image blur correction control unit 104 are changed, the cutoff frequency is set high so that the correction effect is lowered, and the process is terminated.

ステップS207では、像ブレ補正の特性を通常時のカットオフ周波数であるFc_baseに設定する。   In step S207, the image blur correction characteristic is set to Fc_base, which is a normal cutoff frequency.

ステップS208では、AF適正度が所定閾値以下かどうかを判定し、所定閾値以下と判定された場合は、ステップS209に進み、所定閾値より大きいと判定された場合は処理を終了する。   In step S208, it is determined whether or not the AF appropriateness is equal to or less than a predetermined threshold. If it is determined that the AF appropriateness is equal to or less than the predetermined threshold, the process proceeds to step S209.

ステップS209では、Af_flagを0にクリアし、ステップS210に進む。ステップS210では、動画データの現在のフレームから静止画データを生成するための指示を図1における記録制御部16に報知する。   In step S209, Af_flag is cleared to 0, and the process proceeds to step S210. In step S210, an instruction for generating still image data from the current frame of the moving image data is notified to the recording control unit 16 in FIG.

記録制御部16は撮像特性制御部105からの静止画データ生成の指示があった場合を示す。   The recording control unit 16 indicates a case where there is an instruction to generate still image data from the imaging characteristic control unit 105.

その場合、映像信号処理部14から出力される映像信号のうち、所望のフレーム画像から静止画データを生成して記録媒体18に記録する。   In that case, among the video signals output from the video signal processing unit 14, still image data is generated from a desired frame image and recorded on the recording medium 18.

なお、静止画データ生成の別の方法として、動画データを構成する複数のフレーム画像のうち、静止画データの生成に用いるフレームを記述したメタデータを動画データと関連づけて記録媒体に記録しておく。   As another method for generating still image data, metadata describing a frame used for generating still image data among a plurality of frame images constituting moving image data is recorded on a recording medium in association with the moving image data. .

そして、動画撮影とは別のタイミングで、動画データから静止画データを生成できるようにしても良い。   The still image data may be generated from the moving image data at a timing different from the moving image shooting.

次に図12は、撮像特性変更部105で行われる制御によるAF適正度と像ブレ補正の時間的な変化を説明するための図である。図12(a)は、横軸を時間、縦軸をAF適正度としたときの、AF適正度の時間的な変化を示したグラフである。   Next, FIG. 12 is a diagram for explaining temporal changes in AF appropriateness and image blur correction by control performed by the imaging characteristic changing unit 105. FIG. 12A is a graph showing a temporal change in AF appropriateness when the horizontal axis is time and the vertical axis is AF appropriateness.

図12は、ピントが合っていない(即ち、AF適正度が大きい)状態から、AF動作を開始し、ピントが合っている(即ち、AF適正度が小さい)状態に変化している時のグラフである。ここで、時刻T1は、ピントが合っていない状態からAF動作を開始してフォーカスレンズの駆動を開始した時刻を示しており、時刻T2は、被写体にピントが合い、AF動作を停止した時刻を示している。   FIG. 12 is a graph when the AF operation is started from a state where the focus is not achieved (that is, the AF appropriateness is large) and the state is changed to a state where the focus is focused (that is, the AF appropriateness is small). It is. Here, the time T1 indicates the time when the AF operation is started from the out-of-focus state and the driving of the focus lens is started, and the time T2 indicates the time when the subject is focused and the AF operation is stopped. Show.

従って、図12(a)に示すように時刻T1から時刻T2にかけてAF適正度が小さくなるように変化していく。   Accordingly, as shown in FIG. 12A, the AF appropriateness changes from time T1 to time T2 so as to decrease.

図12(b)は、撮像装置1に加わる振れの角変位量を表しており、本実施例では角速度センサ19の出力から得られる情報である。   FIG. 12B shows the amount of angular displacement of the shake applied to the imaging apparatus 1 and is information obtained from the output of the angular velocity sensor 19 in this embodiment.

図12(c)及び(d)は、従来の像ブレ補正の制御を説明するためのグラフであり、図11(e)及び(f)は、本実施例の撮像装置における像ブレ補正の制御を説明するためのグラフである。   FIGS. 12C and 12D are graphs for explaining conventional image blur correction control. FIGS. 11E and 11F are image blur correction control in the image pickup apparatus of the present embodiment. It is a graph for demonstrating.

図12(c)及び(e)は、積分器123の演算に用いるLPFのカットオフ周波数の変化を示しており、縦軸はカットオフ周波数である。カットオフ周波数は像ブレ補正の補正効果に関係し、カットオフ周波数が低いほどブレ補正の効果が高くなり、カットオフ周波数が高いほど像ブレ補正の効果が低下する。   12C and 12E show changes in the cutoff frequency of the LPF used for the calculation of the integrator 123, and the vertical axis represents the cutoff frequency. The cutoff frequency is related to the correction effect of the image blur correction. The lower the cutoff frequency, the higher the blur correction effect. The higher the cutoff frequency, the lower the image blur correction effect.

図12(d)及び(f)は、検出した振れの角変位量(点線)に対して、実際に補正した振れの角変位量を実線で示している。また、シフトレンズ112の可動範囲の内側に制御範囲のリミッタが設けられている(飽和制御部125で行われる処理)。   FIGS. 12D and 12F show solid amounts of shake angular displacement actually corrected with respect to the detected shake angular displacement amount (dotted line). Further, a control range limiter is provided inside the movable range of the shift lens 112 (processing performed by the saturation control unit 125).

まず、従来の像ブレ補正の制御について、図12(c)及び(d)を用いて説明する。   First, conventional image blur correction control will be described with reference to FIGS.

従来の像ブレ補正の制御においては、シフトレンズ112が機械的な可動範囲の端に突き当たらないようにするために、積分器123の演算に用いるLPFのカットオフ周波数を操作する。   In conventional image blur correction control, the cutoff frequency of the LPF used for the calculation of the integrator 123 is manipulated so that the shift lens 112 does not hit the end of the mechanical movable range.

即ち、積分器123の出力がリミッタに近づくと、カットオフ周波数を高くして、出力が中央に戻るように制御する(センタリング制御部125で行われる処理)。   That is, when the output of the integrator 123 approaches the limiter, the cutoff frequency is increased and control is performed so that the output returns to the center (processing performed by the centering control unit 125).

図12(c)及び図12(d)において、時刻T3以前の間では、カットオフ周波数は通常時のFc_baseに設定されており、補正効果が高い状態となっている。   In FIG. 12C and FIG. 12D, the cutoff frequency is set to the normal Fc_base before time T3, and the correction effect is high.

従って、検出した角変位量と補正した角変位量の間にはほとんど差が無い。そして時刻T3付近において、像ブレ補正の補正量(積分器123の出力)が制御範囲の端に近づくとカットオフ周波数を徐々に上げるように制御し、補正量が中央に戻るようにする。   Therefore, there is almost no difference between the detected angular displacement amount and the corrected angular displacement amount. In the vicinity of time T3, when the image blur correction amount (the output of the integrator 123) approaches the end of the control range, the cutoff frequency is controlled to gradually increase so that the correction amount returns to the center.

このように制御することにより、シフトレンズ112が機械的な可動範囲の端に突き当たらないようにしている。   By controlling in this way, the shift lens 112 is prevented from hitting the end of the mechanical movable range.

つまり、変更手段である像ブレ補正制御部104は、AF評価値が撮像パラメータの目標値に近い場合、像ブレ補正性能を一旦小さくし、その後、像ブレ補正性能を一旦小さくする前の像ブレ補正性能よりも大きくしている。   In other words, when the AF evaluation value is close to the target value of the imaging parameter, the image blur correction control unit 104 serving as a changing unit temporarily reduces the image blur correction performance, and then the image blur before the image blur correction performance is once reduced. It is larger than the correction performance.

しかしながら、従来の像ブレ補正では、AF制御とは独立して制御されており、互いに関連性は無かった。   However, the conventional image blur correction is controlled independently of the AF control and is not related to each other.

その為、図12(a)及び(c)から明らかなように、AFの適正度が高く(適正度が0に近い)、像ブレ補正の効果が高い(カットオフ周波数が低い)状態にならない場合が多い。   Therefore, as is apparent from FIGS. 12A and 12C, the appropriateness of AF is high (appropriateness is close to 0), and the effect of image blur correction is high (cutoff frequency is low). There are many cases.

次に、本実施例における像ブレ補正(撮像特性制御部105で行われる処理)について図12(e)及び(f)を用いて説明する。本実施例における撮像特性制御部105では、AF適正度を参照し、その時間的な変化に応じて積分器123のカットオフ周波数を操作している。   Next, image blur correction (processing performed by the imaging characteristic control unit 105) in this embodiment will be described with reference to FIGS. 12 (e) and 12 (f). The imaging characteristic control unit 105 in this embodiment refers to the AF appropriateness level, and operates the cutoff frequency of the integrator 123 according to the temporal change.

図12(a)において、時刻T1まではピントが外れている状態を示しており、AF適正度が大きい状態になっている。   FIG. 12A shows a state in which the subject is out of focus until time T1, and the AF appropriateness is large.

この期間は、図12(e)の時刻T4までの期間に示すように、積分器123のカットオフ周波数を通常時のFc_baseに設定されている。次に図12(a)の時刻T1から時刻T2の期間では、AF適正度が単調減少している期間である。   In this period, as shown in the period up to time T4 in FIG. 12E, the cutoff frequency of the integrator 123 is set to the normal Fc_base. Next, the period from time T1 to time T2 in FIG. 12A is a period in which the AF appropriateness monotonously decreases.

これは時刻T1においてAF動作が開始して、時刻T2においてピントがあった状態に変化しているためである。撮像特性変更部105は、図12(e)の時刻T4から時刻T5に示すように、AF適正度が単調減少していると判定すると、積分器123のカットオフ周波数を高く設定する。   This is because the AF operation starts at time T1 and changes to a focused state at time T2. When the imaging characteristic changing unit 105 determines that the AF appropriateness monotonously decreases as shown from time T4 to time T5 in FIG. 12E, the imaging characteristic changing unit 105 sets the cutoff frequency of the integrator 123 high.

その結果、図12(f)の時刻T4から時刻T5に示すように、積分器123のカットオフ周波数が高くなることにより、像ブレ補正の補正量(積分器123の出力)は制御範囲の中央に近づくように制御される。   As a result, as shown in FIG. 12 (f) from time T4 to time T5, the cutoff frequency of the integrator 123 increases, so that the image blur correction amount (the output of the integrator 123) becomes the center of the control range. It is controlled to approach.

時刻T5において、AF適正度が単調減少ではなく、且つ所定閾値以下の状態になると、積分器123のカットオフ周波数は通常時のFc_baseに戻すように設定され、像ブレ補正の補正効果が高い状態にする。   At time T5, when the AF appropriateness is not monotonically decreasing and is equal to or lower than a predetermined threshold, the cutoff frequency of the integrator 123 is set to return to the normal Fc_base, and the image blur correction effect is high. To.

そして時刻T6において静止画データが生成される。このとき、時刻T6においては、ピントがあった状態であり、且つ、像ブレ補正の補正効果が高い状態になっている。   Then, still image data is generated at time T6. At this time, at time T6, the camera is in focus and the image blur correction effect is high.

また、図12(f)の時刻T5に示すようにシフトレンズ112の位置は制御範囲の中央付近に位置しており、時刻T6において制御範囲の端に突き当たることなる像ブレ補正を行う事が可能となっている。   Further, as shown at time T5 in FIG. 12F, the position of the shift lens 112 is located near the center of the control range, and it is possible to perform image blur correction that hits the end of the control range at time T6. It has become.

以上説明してきたように、本発明においては、AF適正度の時間的な変化に応じて像ブレ補正の制御特性を変更するようにした。これによって、各撮影状態が出来る限りそろって好適な状態になるように制御することが可能になる。そして、動画像から静止画像を生成する場合に、より高い確率で良好な静止画像を生成できるようになる。   As described above, in the present invention, the control characteristic of the image blur correction is changed according to the temporal change of the AF appropriateness. As a result, it is possible to perform control so that each photographing state is as suitable as possible. When a still image is generated from a moving image, a good still image can be generated with a higher probability.

(実施例3)
次に、本発明の実施形態3について説明する。
Example 3
Next, a third embodiment of the present invention will be described.

実施形態2では、AF適正度を参照し、その時間的な変化に応じて像ブレ補正の制御特性を変更可能にしていた。   In the second embodiment, referring to the AF appropriateness level, the control characteristic of the image blur correction can be changed according to the temporal change.

実施形態3では、AE制御の適正度を参照し、その時間的な変化に応じて、AF制御の制御特性および像ブレ補正の制御特性を変更する方法について説明する。   In the third embodiment, a method for changing the control characteristic of AF control and the control characteristic of image blur correction according to the temporal change with reference to the appropriateness of AE control will be described.

処理は図11のフローチャートと同じ流れであるが、AF適正度の代わりにAE適正度を用いる点と、像ブレ補正制御のカットオフ制御に加えて、AFの制御特性を変更する点が異なる。   The processing is the same as that in the flowchart of FIG. 11 except that the AE suitability is used instead of the AF suitability and that the AF control characteristics are changed in addition to the image blur correction control cutoff control.

図13(a)はAE制御の測光値から算出した適正露出値(Ev_target)と、現在の露出値(Ev_now)を図示したグラフである。   FIG. 13A is a graph illustrating an appropriate exposure value (Ev_target) calculated from a photometric value of AE control and a current exposure value (Ev_now).

図13のグラフは、例えば、撮影中にパンニングを行うことにより、より明るい被写体が映るように構図を変更した場合を示している。   The graph of FIG. 13 shows a case where the composition is changed so that a brighter subject is reflected by performing panning during shooting, for example.

図13(b)はAE適正度であり、0に近いほど適正露出に近く、大きいほど適正露出からの差が大きい事を示している。通常、AE制御は、測光値が変化した場合であっても、それに合わせてすぐに露出を変化させることはしない。   FIG. 13B shows the degree of AE suitability, and the closer to 0, the closer to the appropriate exposure, and the greater the value, the greater the difference from the proper exposure. Normally, AE control does not immediately change the exposure in accordance with the change in the photometric value.

それは、測光値に合わせて露出を変化させる制御が敏感すぎることによって画面の明るさの変化が周期的に繰り返す動作が起る場合があり、この動作を防止するためである。従って、AE適正度が所定の閾値を超えるまでは露出パラメータを変化させずに維持したままとする(時刻T11から時刻T12)。   This is to prevent an operation in which a change in the brightness of the screen periodically repeats due to too sensitive control for changing the exposure according to the photometric value. Therefore, the exposure parameter is kept unchanged until the AE suitability exceeds a predetermined threshold (from time T11 to time T12).

そして、所定閾値を超えてから露出パラメータを変化させ、Ev_targetに近づけていくように制御を行う(時刻T12から時刻T18)。   Then, after the predetermined threshold value is exceeded, the exposure parameter is changed, and control is performed so as to approach Ev_target (from time T12 to time T18).

図13(c)はAF適正度を示している。AF適正度は、0に近いほどピントがあっており、大きいほどピントがずれていることを示している。   FIG. 13C shows the AF appropriateness. The closer the AF appropriateness is to 0, the more focused, and the greater the AF appropriateness, the more out of focus.

図13の時刻T14から時刻T15では、撮影中にパンニングを行うことによって、カメラと被写体との距離が変化し、AF適正度が大きくなっている(ピントがずれる方向に変化している)ことを示している。   From time T14 to time T15 in FIG. 13, by performing panning during shooting, the distance between the camera and the subject changes, and the AF appropriateness increases (changes in the direction of defocusing). Show.

撮像特性制御部105は、実施形態2と同様に、適正度の時間的変化を監視する。実施形態3では、AE適正度を監視する。   Similar to the second embodiment, the imaging characteristic control unit 105 monitors temporal changes in the appropriateness. In the third embodiment, the AE suitability is monitored.

AE適正度が単調減少していると判定すると、像ブレ補正手段の制御特性及び、AF制御の制御特性であるフォーカスレンズの駆動速度を算出して設定する。   If it is determined that the AE suitability is monotonously decreasing, the control characteristic of the image blur correction unit and the driving speed of the focus lens, which is the control characteristic of the AF control, are calculated and set.

まず、図13(b)の時刻T16において、AE適正度が単調減少していると判定すると、AE適正度の傾きを算出する(図13(b)における時刻T13から時刻T16の傾き)。   First, if it is determined at time T16 in FIG. 13B that the AE suitability is monotonically decreasing, the slope of the AE suitability is calculated (the slope from time T13 to time T16 in FIG. 13B).

算出した傾きと現在のAE適正度から、AE適正度が所定の範囲に収まるまでの時間Ae_timeを算出する。即ち、現在のAE適正度とAe_threshとの差分、AE適正度の傾きから、Ae_timeを算出する。   A time Ae_time until the AE suitability falls within a predetermined range is calculated from the calculated inclination and the current AE suitability. That is, Ae_time is calculated from the difference between the current AE appropriateness and Ae_thresh and the slope of the AE appropriateness.

次に、算出したAe_timeから、AF制御の制御特性を算出する。AF制御においては、Ae_timeに応じたフォーカスレンズ113の駆動速度を算出し、AF制御部103に設定する。フォーカスレンズの駆動速度Af_speedは以下の計算式で演算する。
Af_speed=K_af×Mdate_focus/Ae_time
Next, the control characteristic of the AF control is calculated from the calculated Ae_time. In the AF control, the driving speed of the focus lens 113 corresponding to Ae_time is calculated and set in the AF control unit 103. The driving speed Af_speed of the focus lens is calculated by the following calculation formula.
Af_speed = K_af × Mdate_focus / Ae_time

ここで、K_afは、任意の係数である。駆動速度Af_sppedは、Ae_timeが短いほど大きく、Ae_timeが長いほど小さくなる。   Here, K_af is an arbitrary coefficient. The driving speed Af_spped is larger as Ae_time is shorter, and is smaller as Ae_time is longer.

また、現在のAF適正度が大きいほど、Af_speedは大きくなり、AF適正度が小さいほどAf_speedは小さくなる。   In addition, Af_speed increases as the current AF appropriateness increases, and Af_speed decreases as the AF appropriateness decreases.

つまり、変更手段である像ブレ補正制御部104は、撮像パラメータの評価値が撮像パラメータの目標値に近づくように変化している場合、評価値の大きさ及び評価値の変化の傾きから、評価値が適正となる予測時間を算出する。そして、予測時間に応じて像ブレ補正手段の像ブレ補正性能を変更している。   In other words, when the evaluation value of the imaging parameter changes so as to approach the target value of the imaging parameter, the image blur correction control unit 104 that is a changing unit evaluates the evaluation based on the magnitude of the evaluation value and the gradient of the evaluation value change. Calculate the predicted time when the value is appropriate. Then, the image blur correction performance of the image blur correction unit is changed according to the predicted time.

次に、像ブレ補正制御の制御特性である積分器123の演算に用いるLPFのカットオフ周波数を算出する。カットオフ周波数Is_fcは以下の計算式で演算する。
Is_fc=(K_is/Ae_time)+Fc_base
Next, the cutoff frequency of the LPF used for the calculation of the integrator 123, which is the control characteristic of the image blur correction control, is calculated. The cut-off frequency Is_fc is calculated by the following calculation formula.
Is_fc = (K_is / Ae_time) + Fc_base

ここで、K_isは任意の係数である。また、Fc_baseは通常時のカットオフ周波数である。このようにAe_timeが短いほどIs_fcは高くなり、Ae_timeが短いほどIs_fcは低い値となる。   Here, K_is is an arbitrary coefficient. Fc_base is a normal cutoff frequency. Thus, Is_fc is higher as Ae_time is shorter, and Is_fc is lower as Ae_time is shorter.

上記のように演算したフォーカスレンズの駆動速度Af_speedと、像ブレ補正制御のカットオフ周波数Is_fcをAF制御部103及び像ブレ補正制御部104に設定する。   The focus lens drive speed Af_speed and the image blur correction control cutoff frequency Is_fc calculated as described above are set in the AF control unit 103 and the image blur correction control unit 104.

図13の時刻T17において、フォーカスレンズの駆動速度をもとの値に戻すようにする。また、同様に時刻T17において、像ブレ補正制御のカットオフ周波数を徐々にもとの値に戻すように変更する。   At time T17 in FIG. 13, the driving speed of the focus lens is returned to the original value. Similarly, at time T17, the cutoff frequency of the image blur correction control is changed so as to gradually return to the original value.

このように制御することで、AE適正度が適正露出となる時刻T18となる前に、AF適正度を0に近づけることが可能となる。   By controlling in this way, it is possible to bring the AF appropriateness close to 0 before the time AE appropriateness is reached at time T18.

また、像ブレ補正制御においても同様に、AE適正度が適正露出となる前にカットオフ周波数を通常時のFc_baseに戻すことが可能となる。   Similarly, in the image blur correction control, the cutoff frequency can be returned to the normal Fc_base before the AE suitability reaches the proper exposure.

AE適正度が適正となった後、時刻T19において静止画データが生成される。このとき、AF適正度は0に近づけることが出来るとともに、像ブレ補正のカットオフ周波数は低い状態となっており、より高い確率で良好な静止画像を生成できるようになる。   After the AE suitability becomes appropriate, still image data is generated at time T19. At this time, the AF appropriateness can be close to 0, and the cutoff frequency for image blur correction is low, and a good still image can be generated with a higher probability.

また、上記のように説明してきたように、AE適正度に応じてAF制御の特性を変化させたり、像ブレ補正制御の特性を変化させる構成とした。   Further, as described above, the configuration is such that the AF control characteristics are changed or the image blur correction control characteristics are changed in accordance with the AE suitability.

このように制御する理由としては、それぞれの制御における制御周期が挙げられる。   The reason for controlling in this way is the control period in each control.

通常AE制御においては、画像から得た測光値に基づいて絞り、シャッタ、ゲイン等の露出パラメータを変化させるので、測光から露出変化までには数フレーム、例えばNTSCの場合は、数10msから数100msの時間が必要となる。   In normal AE control, exposure parameters such as aperture, shutter, and gain are changed based on a photometric value obtained from an image. Therefore, several frames from photometry to exposure change, for example, several tens ms to several hundred ms for NTSC. Time is required.

一方で像ブレ補正においては、1〜20Hzの手振れを補正の対象とした場合、手振れの周波数より十分に高い周波数で制御を行う必要があるため、その制御周期は、数100μsec程度の非常に短い周期となる。   On the other hand, in image blur correction, when camera shake of 1 to 20 Hz is targeted for correction, it is necessary to perform control at a frequency sufficiently higher than the frequency of camera shake. It becomes a cycle.

このように、制御周期が長い処理の適正値(例えばAE制御)を参照して、より制御周期が短い制御(例えば像ブレ補正制御)の特性を変更する構成とすることが望ましい。   Thus, it is desirable to refer to an appropriate value (for example, AE control) for a process having a long control cycle, and to change the characteristics of control (for example, image blur correction control) having a shorter control cycle.

以上説明してきたように、本発明においては、AF適正度の時間的な変化に応じて像ブレ補正及びAF制御の制御特性を変更するようにした。   As described above, in the present invention, the control characteristics of the image blur correction and the AF control are changed according to the temporal change of the AF appropriateness.

これによって、各撮影状態が出来る限りそろって好適な状態になるように制御することが可能になる。そして、動画像から静止画像を生成する場合に、より高い確率で良好な静止画像を生成できるようになる。   As a result, it is possible to perform control so that each photographing state is as suitable as possible. When a still image is generated from a moving image, a good still image can be generated with a higher probability.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus.

そして、そのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。   Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk.

また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized.

さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer.

その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。   In addition, the present invention is not limited to devices such as digital cameras, but includes built-in or external connection of imaging devices such as mobile phones, personal computers (laptop type, desktop type, tablet type, etc.), game machines, etc. It can be applied to any device.

従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。   Therefore, the “imaging device” in this specification is intended to include any electronic device having an imaging function.

1 撮像装置
10 カメラシステム制御部
11 撮像レンズ
12 撮像素子
14 映像信号処理部
16 記録制御部
101 WB制御部
102 AE制御部
103 AF制御部
104 像ブレ補正制御部
105 撮像特性制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 10 Camera system control part 11 Imaging lens 12 Imaging element 14 Video signal processing part 16 Recording control part 101 WB control part 102 AE control part 103 AF control part 104 Image blur correction control part 105 Imaging characteristic control part

Claims (7)

被写体像を撮像する撮像素子から出力される画像データから取得される撮像パラメータの良否を評価して前記撮像パラメータの評価値を生成する評価手段と、振れ検出手段から出力される振れデータを用いて振れ補正データを生成する生成手段と、前記振れ補正データを用いて像ブレ補正手段を制御する制御手段と、動画撮影時に、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近い場合の前記像ブレ補正手段の像ブレ補正性能を、前記撮像パラメータの評価値が前記撮像パラメータの目標値に遠い場合の前記像ブレ補正手段の像ブレ補正性能よりも大きくする変更手段と、前記像ブレ補正性能が大きいフレーム画像を静止画再生用データとして記録する記録手段と、を有する画像処理装置であって、
前記撮像パラメータは、露出制御に用いる露出パラメータ、フォーカスレンズ制御に用いる焦点状態パラメータ、ホワイトバランスパラメータの何れかであり、
前記変更手段は、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近くなると、前記像ブレ補正性能を小さくし、その後に前記撮像パラメータの評価値と前記撮像パラメータの目標値の差分値が所定閾値以下になると、前記像ブレ補正性能を小さくする前の像ブレ補正性能に戻すことを特徴とする画像処理装置。
An evaluation unit that evaluates the quality of an imaging parameter acquired from image data output from an image sensor that captures a subject image and generates an evaluation value of the imaging parameter, and shake data output from the shake detection unit A generation unit that generates shake correction data, a control unit that controls the image blur correction unit using the shake correction data, and the evaluation value of the imaging parameter when moving image shooting is close to a target value of the imaging parameter. Changing means for making the image blur correction performance of the image blur correction means larger than the image blur correction performance of the image blur correction means when the evaluation value of the imaging parameter is far from the target value of the imaging parameter; and the image blur correction A recording means for recording a frame image having high performance as still image reproduction data,
The imaging parameter is any one of an exposure parameter used for exposure control, a focus state parameter used for focus lens control, and a white balance parameter.
The changing means reduces the image blur correction performance when the evaluation value of the imaging parameter is close to the target value of the imaging parameter, and thereafter, a difference value between the evaluation value of the imaging parameter and the target value of the imaging parameter is obtained. An image processing apparatus characterized by returning to the image blur correction performance before decreasing the image blur correction performance when a predetermined threshold value or less is reached.
前記変更手段は、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近くなると、前記像ブレ補正性能を決定するローパスフィルタのカットオフ周波数を上げ、その後に前記撮像パラメータの評価値と前記撮像パラメータの目標値の差分値が所定閾値以下になると、前記像ブレ補正性能を決定するローパスフィルタのカットオフ周波数を上げる前のカットオフ周波数に戻すことを特徴とする請求項1に記載の画像処理装置。   When the evaluation value of the imaging parameter is close to the target value of the imaging parameter, the changing unit increases a cutoff frequency of a low-pass filter that determines the image blur correction performance, and then the evaluation value of the imaging parameter and the imaging 2. The image processing according to claim 1, wherein when the difference value of the target value of the parameter becomes equal to or less than a predetermined threshold value, the cutoff frequency is returned to the cutoff frequency before the cutoff frequency of the low-pass filter that determines the image blur correction performance is increased. apparatus. 前記変更手段は、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近づくように変化している場合、前記評価値の大きさ及び前記評価値の変化の傾きから、前記評価値が適正となる予測時間を算出し、前記予測時間に応じて前記像ブレ補正手段の像ブレ補正性能を変更する請求項1又は2に記載の画像処理装置。   When the evaluation value of the imaging parameter changes so as to approach the target value of the imaging parameter, the changing means determines that the evaluation value is appropriate from the magnitude of the evaluation value and the slope of the change in the evaluation value. The image processing apparatus according to claim 1, wherein an image blur correction performance of the image blur correction unit is changed according to the predicted time. 被写体像を撮像する撮像素子から出力される画像データから取得される撮像パラメータの良否を評価して前記撮像パラメータの評価値を生成する評価工程と、振れ検出手段から出力される振れデータを用いて振れ補正データを生成する生成工程と、前記振れ補正データを用いて像ブレ補正手段を制御する制御工程と、動画撮影時に、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近い場合の前記像ブレ補正手段の像ブレ補正性能を前記撮像パラメータの評価値が前記撮像パラメータの目標値に遠い場合の前記像ブレ補正手段の像ブレ補正性能よりも大きくする変更工程と、前記像ブレ補正性能が大きいフレーム画像を静止画再生用データとして記憶する記録工程と、を有する画像処理方法であって、
前記撮像パラメータは、露出制御に用いる露出パラメータ、フォーカスレンズ制御に用いる焦点状態パラメータ、ホワイトバランスパラメータの何れかであり、
前記変更工程は、前記撮像パラメータの評価値が前記撮像パラメータの目標値に近くなると、前記像ブレ補正性能を小さくし、その後に前記撮像パラメータの評価値と前記撮像パラメータの目標値の差分値が所定閾値以下になると、前記像ブレ補正性能を小さくする前の像ブレ補正性能に戻すことを特徴とする画像処理方法。
An evaluation process for evaluating the quality of imaging parameters acquired from image data output from an imaging device that captures a subject image and generating an evaluation value of the imaging parameters, and using shake data output from shake detection means A generation step of generating shake correction data, a control step of controlling the image blur correction means using the shake correction data, and the evaluation value of the imaging parameter when moving image shooting is close to the target value of the imaging parameter A step of changing the image blur correction performance of the image blur correction means to be larger than the image blur correction performance of the image blur correction means when the evaluation value of the imaging parameter is far from the target value of the imaging parameter; and the image blur correction performance A recording step of storing a large frame image as still image reproduction data,
The imaging parameter is any one of an exposure parameter used for exposure control, a focus state parameter used for focus lens control, and a white balance parameter.
In the changing step , when the evaluation value of the imaging parameter approaches the target value of the imaging parameter, the image blur correction performance is reduced, and thereafter, a difference value between the evaluation value of the imaging parameter and the target value of the imaging parameter is calculated. An image processing method characterized by returning to the image blur correction performance before decreasing the image blur correction performance when the threshold value is below a predetermined threshold.
請求項4に記載の画像処理方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which the procedure of the image processing method according to claim 4 is described. コンピュータに、請求項4に記載の画像処理方法の各工程を実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the image processing method according to claim 4. 請求項1乃至3の何れか一項に記載の画像処理装置と、前記撮像素子とを有する撮像装置。   An imaging apparatus comprising: the image processing apparatus according to any one of claims 1 to 3; and the imaging element.
JP2015087146A 2015-04-21 2015-04-21 Image processing apparatus and image processing method Active JP6584122B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015087146A JP6584122B2 (en) 2015-04-21 2015-04-21 Image processing apparatus and image processing method
US15/132,878 US9973699B2 (en) 2015-04-21 2016-04-19 Image processing apparatus and image processing method
US15/865,086 US10264181B2 (en) 2015-04-21 2018-01-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015087146A JP6584122B2 (en) 2015-04-21 2015-04-21 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2016208242A JP2016208242A (en) 2016-12-08
JP6584122B2 true JP6584122B2 (en) 2019-10-02

Family

ID=57147049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015087146A Active JP6584122B2 (en) 2015-04-21 2015-04-21 Image processing apparatus and image processing method

Country Status (2)

Country Link
US (2) US9973699B2 (en)
JP (1) JP6584122B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107079103B (en) * 2016-05-31 2019-04-02 深圳市大疆灵眸科技有限公司 Cloud platform control method, device and holder
JP2019118027A (en) * 2017-12-27 2019-07-18 ルネサスエレクトロニクス株式会社 Camera controller
JP7199169B2 (en) * 2018-07-05 2023-01-05 キヤノン株式会社 Image processing device, image processing method, and program
CN110336995B (en) * 2019-04-17 2021-03-30 中国信息通信研究院 Jitter track generation method, device and system for photographing anti-jitter performance evaluation
CN110290311B (en) * 2019-04-17 2021-03-30 中国信息通信研究院 Method, device and system for generating jitter track for evaluating anti-jitter performance of video
KR20210140945A (en) * 2020-05-14 2021-11-23 삼성전자주식회사 Electronic device and method for image quality improvement using muti-camera
JP2023060430A (en) * 2021-10-18 2023-04-28 キヤノン株式会社 Evaluation method for shake correction effect for imaging apparatus, evaluation device, and program
CN116723382B (en) * 2022-02-28 2024-05-03 荣耀终端有限公司 Shooting method and related equipment

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4123586B2 (en) 1997-08-26 2008-07-23 株式会社ニコン Electronic camera
EP1954031A4 (en) * 2005-10-28 2010-09-29 Nikon Corp Imaging device, image processing device, and program
WO2007126033A1 (en) * 2006-04-25 2007-11-08 Canon Kabushiki Kaisha Image sensing apparatus and method for controlling the same
JP5111088B2 (en) * 2007-12-14 2012-12-26 三洋電機株式会社 Imaging apparatus and image reproduction apparatus
JP5217709B2 (en) * 2008-07-09 2013-06-19 株式会社ニコン Image processing apparatus and imaging apparatus
JP5513029B2 (en) * 2009-07-15 2014-06-04 キヤノン株式会社 Imaging apparatus and control method thereof
JP5419647B2 (en) * 2009-11-16 2014-02-19 キヤノン株式会社 Image blur correction device, imaging device including the same, and method for controlling image blur correction device
JP5911220B2 (en) * 2011-07-01 2016-04-27 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9076043B2 (en) * 2012-08-03 2015-07-07 Kodak Alaris Inc. Video summarization using group sparsity analysis
JP5888348B2 (en) * 2014-01-23 2016-03-22 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program

Also Published As

Publication number Publication date
US20180131872A1 (en) 2018-05-10
US9973699B2 (en) 2018-05-15
JP2016208242A (en) 2016-12-08
US20160316122A1 (en) 2016-10-27
US10264181B2 (en) 2019-04-16

Similar Documents

Publication Publication Date Title
JP6584122B2 (en) Image processing apparatus and image processing method
KR101847392B1 (en) Image processing apparatus and method for controlling the same
JP4642489B2 (en) Imaging apparatus, imaging method, imaging program, and storage medium
JP4594257B2 (en) Digital imaging device
US9716839B2 (en) Imaging apparatus and method of controlling the imaging apparatus
US9307137B2 (en) Imaging apparatus and imaging method which perform focus adjustment while performing live-view display
JP2014137583A (en) Focus adjustment device
JP2017098631A (en) Image combination processing device
JP2008289032A (en) Imaging apparatus
JP6070283B2 (en) Imaging apparatus, exposure control method, and program
JP4819318B2 (en) Method and apparatus for automatic focusing of camera
JP5948997B2 (en) Imaging apparatus and imaging method
US10613416B2 (en) Image processing apparatus, image processing method, display control apparatus, and display control method
JP6541835B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM
US11653107B2 (en) Image pick up apparatus, image pick up method, and storage medium
JP6294607B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5345657B2 (en) Method and apparatus for automatic focusing of camera
CN104754205A (en) Image stabilization apparatus, and image-pickup apparatus having the same
US12126908B2 (en) Image capturing apparatus obtaining a plurality of images to be used for generation of a combined image and method for controlling the same, and non-transitory computer-readable storage medium
JP2011035740A (en) Imaging apparatus, and imaging method
JP5310315B2 (en) Image processing circuit, image processing method, and imaging apparatus
JP6227083B2 (en) Imaging apparatus and imaging method
JP2014038248A (en) Imaging device and control method therefor
JP2013106227A (en) Imaging apparatus
JP2014021151A (en) Focus adjustment device and focus adjustment method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190903

R151 Written notification of patent or utility model registration

Ref document number: 6584122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151