JP2015015629A - Image processing device and imaging device - Google Patents

Image processing device and imaging device Download PDF

Info

Publication number
JP2015015629A
JP2015015629A JP2013141667A JP2013141667A JP2015015629A JP 2015015629 A JP2015015629 A JP 2015015629A JP 2013141667 A JP2013141667 A JP 2013141667A JP 2013141667 A JP2013141667 A JP 2013141667A JP 2015015629 A JP2015015629 A JP 2015015629A
Authority
JP
Japan
Prior art keywords
parallax
image
pixel
amount
camera shake
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013141667A
Other languages
Japanese (ja)
Other versions
JP6255753B2 (en
Inventor
清茂 芝崎
Kiyoshige Shibazaki
清茂 芝崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013141667A priority Critical patent/JP6255753B2/en
Publication of JP2015015629A publication Critical patent/JP2015015629A/en
Application granted granted Critical
Publication of JP6255753B2 publication Critical patent/JP6255753B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which since image light is blurred with respect to an image sensor due to camera shake, respective left and right images themselves become blurred images.SOLUTION: An image processing device comprises: a parallax image acquisition unit that acquires a parallax image including a parallax amount indicating parallax with respect to the same object; a correction amount acquisition unit that acquires a camera shake correction amount for correcting camera shake in imaging; and a corrected image generation unit that generates a corrected image obtained by correcting the parallax amount of the parallax image acquired by the parallax image acquisition unit on the basis of the camera shake correction amount acquired by the correction amount acquisition unit.

Description

本発明は、画像処理装置および撮像装置に関する。   The present invention relates to an image processing device and an imaging device.

3D映像を撮影できる撮像装置において、撮影中に大きな手振れが発生した場合に、左右の画像間の視差を調整するものがある(例えば、特許文献1参照)。
特許文献1 特開2012−90259号公報
Some imaging devices that can shoot 3D video images adjust the parallax between the left and right images when a large camera shake occurs during shooting (see, for example, Patent Document 1).
Japanese Patent Application Laid-Open No. 2012-90259

しかしながら、上記撮像装置においては、手振れにより像光が撮像素子に対してブレるので、左右のそれぞれの画像自体がブレた画像になるという課題がある。   However, the image pickup apparatus has a problem that the left and right images themselves become blurred images because image light blurs with respect to the image sensor due to camera shake.

本発明の第1の態様においては、画像処理装置であって、同一の対象に対する視差を示す視差量を含む視差画像を取得する視差画像取得部と、撮像時の手振れを補正する手振れ補正量を取得する補正量取得部と、補正量取得部により取得された手振れ補正量に基づいて、視差画像取得部により取得された視差画像の視差量を補正した補正画像を生成する補正画像生成部とを備える。   In the first aspect of the present invention, the image processing apparatus includes a parallax image acquisition unit that acquires a parallax image including a parallax amount indicating parallax with respect to the same target, and a camera shake correction amount that corrects camera shake during imaging. A correction amount acquisition unit to be acquired, and a correction image generation unit that generates a correction image in which the parallax amount of the parallax image acquired by the parallax image acquisition unit is corrected based on the camera shake correction amount acquired by the correction amount acquisition unit. Prepare.

本発明の第2の態様においては、撮像装置であって、上記画像処理装置と、入射光を電気信号に光電変換する、二次元的に配列された複数の光電変換素子、および、入射光の断面領域内の部分領域からの光を、対応する複数の光電変換素子にそれぞれ入射させる開口を設けた遮光部を有し、対象を撮影して視差画像を生成する撮影部とを備える。   According to a second aspect of the present invention, there is provided an imaging apparatus, the image processing apparatus, a plurality of two-dimensionally arranged photoelectric conversion elements that photoelectrically convert incident light into an electric signal, and incident light A light-shielding unit provided with an opening through which light from a partial region in the cross-sectional region is incident on a corresponding plurality of photoelectric conversion elements, and a photographing unit that photographs a target and generates a parallax image.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

デジタルカメラの構成を説明する図である。It is a figure explaining the structure of a digital camera. 撮像素子の一部を拡大した様子を概念的に表す概念図である。It is a conceptual diagram which represents notably the mode that a part of imaging device was expanded. 2D画像データと視差画像データの生成処理の例を説明する図である。It is a figure explaining the example of a production | generation process of 2D image data and parallax image data. デフォーカスの概念を説明する図である。It is a figure explaining the concept of defocusing. 視差画素が出力する光強度分布を示す図である。It is a figure which shows the light intensity distribution which a parallax pixel outputs. 手振れ時および手振れ補正時におけるデフォーカスの概念を説明する図である。It is a figure explaining the concept of defocusing at the time of camera shake and camera shake correction. 図6(c)の部分拡大図である。It is the elements on larger scale of FIG.6 (c). 画像処理部の機能ブロック図である。It is a functional block diagram of an image processing part. 手振れ補正量を説明する概念図である。It is a conceptual diagram explaining camera-shake correction amount. デジタルカメラの動作のフローチャートの一例を示す。An example of the flowchart of operation | movement of a digital camera is shown. 図10のフローチャートのステップS116で視差量を補正する方法の一例を示す。An example of the method for correcting the parallax amount in step S116 of the flowchart of FIG. 10 will be described. 図11の視差量の補正による画素値の変化を示す説明図である。It is explanatory drawing which shows the change of the pixel value by correction | amendment of the parallax amount of FIG.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、デジタルカメラ10の構成を説明する図である。デジタルカメラ10は、1つのシーンについて複数の視点数の画像を一度の撮影により生成する。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。   FIG. 1 is a diagram illustrating the configuration of the digital camera 10. The digital camera 10 generates images of a plurality of viewpoints for one scene by shooting once. Each image having a different viewpoint is called a parallax image.

デジタルカメラ10は、撮影光学系としての撮影レンズ20および手振れ補正用の補正レンズ30を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。デジタルカメラ10は、被写体光束の周辺を遮光する絞り22をさらに備える。撮影レンズ20、補正レンズ30および絞り22は、デジタルカメラ10に対して一体的に着脱できる交換式レンズであっても構わない。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、メモリカードIF207、操作部208、表示部209、LCD駆動回路210、AFセンサ211、駆動部250、手振れセンサ252および画像処理部260を備える。   The digital camera 10 includes a photographic lens 20 as a photographic optical system and a correction lens 30 for correcting camera shake, and guides a subject luminous flux incident along the optical axis 21 to the image sensor 100. The digital camera 10 further includes an aperture 22 that shields the periphery of the subject light flux. The taking lens 20, the correction lens 30 and the aperture 22 may be interchangeable lenses that can be attached to and detached from the digital camera 10. The digital camera 10 includes an image sensor 100, a control unit 201, an A / D conversion circuit 202, a memory 203, a drive unit 204, a memory card IF 207, an operation unit 208, a display unit 209, an LCD drive circuit 210, an AF sensor 211, and a drive unit. 250, a camera shake sensor 252 and an image processing unit 260.

なお、図示するように、撮像素子100へ向かう光軸21に平行な方向をZ軸プラス方向と定め、Z軸と直交する平面において紙面手前へ向かう方向をX軸プラス方向、紙面上方向をY軸プラス方向と定める。当該座標軸はデジタルカメラ10に固定された座標軸であって、図1における撮影における構図との関係はX軸が水平方向、Y軸が垂直方向となる。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in the figure, the direction parallel to the optical axis 21 toward the image sensor 100 is defined as the Z-axis plus direction, the direction toward the front of the drawing on the plane orthogonal to the Z-axis is the X-axis plus direction, and the upward direction on the drawing is Y. The axis is defined as the plus direction. The coordinate axis is a coordinate axis fixed to the digital camera 10, and the relationship with the composition in photographing in FIG. 1 is that the X axis is the horizontal direction and the Y axis is the vertical direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮影レンズ20は、複数の光学レンズ群から構成され、補正レンズ30と共に、シーンからの被写体光束をその焦点面近傍に結像させる。図1では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。   The taking lens 20 is composed of a plurality of optical lens groups, and together with the correction lens 30, forms a subject light flux from the scene in the vicinity of its focal plane. In FIG. 1, for convenience of explanation, the photographic lens 20 is represented by a single virtual lens disposed in the vicinity of the pupil.

補正レンズ30は、XY面内に移動可能であって、ユーザの手振れによる撮像素子100上での像のブレを光学的に補正する。なお、撮影レンズ20と補正レンズ30とをまとめて撮影光学系と呼ぶことがある。   The correction lens 30 is movable in the XY plane, and optically corrects an image blur on the image sensor 100 due to a user's camera shake. The taking lens 20 and the correction lens 30 may be collectively referred to as a taking optical system.

絞り22は、撮影光学系の瞳近傍に配され、撮像素子100へ入射する被写体光束の周辺領域を遮光する。絞り22の絞り量は可変であって、制御部201からの制御により設定される。当該絞り22の一例は虹彩絞りであるが、これに限られない。   The diaphragm 22 is disposed in the vicinity of the pupil of the photographing optical system, and shields the peripheral region of the subject light beam incident on the image sensor 100. The aperture amount of the aperture 22 is variable and is set by control from the control unit 201. An example of the diaphragm 22 is an iris diaphragm, but is not limited thereto.

撮像素子100は、撮影光学系の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。   The image sensor 100 is disposed in the vicinity of the focal plane of the photographing optical system. The image sensor 100 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged. The image sensor 100 is controlled in timing by the drive unit 204, converts the subject image formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 202.

A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。画像処理部260は、メモリ203をワークスペースとして種々の画像処理を施し、画像データを生成する。   The A / D conversion circuit 202 converts the image signal output from the image sensor 100 into a digital image signal and outputs the digital image signal to the memory 203. The image processing unit 260 performs various image processing using the memory 203 as a work space, and generates image data.

AFセンサ211は、例えば、被写体空間に対して複数の測距点が設定された位相差センサである。AFセンサ211は、それぞれの測距点において被写体像のデフォーカス量を検出する。なお、撮像素子100がAFセンサを兼ねてもよく、その場合には別個のAFセンサ211を設けなくてよい。   The AF sensor 211 is, for example, a phase difference sensor in which a plurality of distance measuring points are set for the subject space. The AF sensor 211 detects the defocus amount of the subject image at each distance measuring point. Note that the image sensor 100 may also serve as an AF sensor, and in that case, a separate AF sensor 211 may not be provided.

手振れセンサ252は、ジャイロセンサ等を含み、主にユーザの手振れによるデジタルカメラ10の姿勢の変化を検知して、制御部201に出力する。姿勢の変化には、X軸周りのピッチング、Y軸周りのヨーイング、X軸方向およびY軸方向のシフト等が含まれる。   The camera shake sensor 252 includes a gyro sensor or the like, detects a change in the posture of the digital camera 10 mainly due to a user's camera shake, and outputs the change to the control unit 201. The change in posture includes pitching around the X axis, yawing around the Y axis, shifting in the X axis direction and the Y axis direction, and the like.

駆動部250は、手振れセンサ252により検知されたデジタルカメラ10の姿勢の変化に対して補正レンズ30を駆動することにより、撮像素子100で撮像される像のブレを補正する。この場合に、制御部201は、手振れセンサ252により検知されたデジタルカメラ10の姿勢の変化の方向および量に応じて、補正レンズ30の移動の方向および量を算出する。駆動部250は制御部201により算出された移動の方向および量で補正レンズ30を駆動する。補正レンズ30の当該移動の方向および量を、手振れ補正量と呼ぶことがある。   The driving unit 250 corrects blurring of an image captured by the image sensor 100 by driving the correction lens 30 in response to a change in posture of the digital camera 10 detected by the camera shake sensor 252. In this case, the control unit 201 calculates the direction and amount of movement of the correction lens 30 in accordance with the direction and amount of change in posture of the digital camera 10 detected by the camera shake sensor 252. The drive unit 250 drives the correction lens 30 with the direction and amount of movement calculated by the control unit 201. The direction and amount of movement of the correction lens 30 may be referred to as a camera shake correction amount.

制御部201は、デジタルカメラ10を統合的に制御する。例えば、設定された絞り値に応じて絞り22の開口を調整し、AFセンサ211のデフォーカス量に応じて撮影レンズ20を光軸方向に進退させる。また、撮影レンズ20の位置を検出して、撮影レンズ20の焦点距離、フォーカスレンズ位置を把握する。さらに、駆動部204に対してタイミング制御信号を送信し、撮像素子100から出力される画像信号が画像処理部260で画像データに処理されるまでの一連のシーケンスを管理する。   The control unit 201 controls the digital camera 10 in an integrated manner. For example, the aperture of the aperture 22 is adjusted according to the set aperture value, and the photographing lens 20 is advanced and retracted in the optical axis direction according to the defocus amount of the AF sensor 211. Further, the position of the photographing lens 20 is detected, and the focal length and the focus lens position of the photographing lens 20 are grasped. Furthermore, a timing control signal is transmitted to the drive unit 204, and a series of sequences until the image signal output from the image sensor 100 is processed into image data by the image processing unit 260 is managed.

画像処理部260は、選択された画像フォーマットに従って画像データを調整するなどの画像処理一般の機能も担う。生成された画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示される。また、メモリカードIF207に装着されているメモリカード220に記録される。   The image processing unit 260 also performs general image processing functions such as adjusting image data according to the selected image format. The generated image data is converted into a display signal by the LCD drive circuit 210 and displayed on the display unit 209. The data is recorded on the memory card 220 attached to the memory card IF 207.

一連の撮影シーケンスは、操作部208がユーザの操作を受け付けて、制御部201へ操作信号を出力することにより開始される。撮影シーケンスに付随するAF,AE等の各種動作は、制御部201に制御されて実行される。例えば、制御部201は、AFセンサ211の検出信号を解析して、撮影レンズ20の一部を構成するフォーカスレンズを移動させる合焦制御を実行する。   A series of shooting sequences is started when the operation unit 208 receives a user operation and outputs an operation signal to the control unit 201. Various operations such as AF and AE accompanying the imaging sequence are executed under the control of the control unit 201. For example, the control unit 201 analyzes the detection signal of the AF sensor 211 and executes focus control for moving a focus lens that constitutes a part of the photographing lens 20.

図2は、撮像素子100の一部を拡大した様子を概念的に表す概念図である。画素領域には2000万個以上もの画素がマトリックス状に配列されている。本実施形態においては、隣接する8画素×8画素の64画素が一つの基本格子110を形成する。基本格子110は、2×2の4画素を基本単位とするベイヤー配列を、Y軸方向に4つ、X軸方向に4つ含む。なお、図示するように、ベイヤー配列においては、左上画素と右下画素に緑フィルタ(Gフィルタ)、左下画素に青フィルタ(Bフィルタ)、右上画素に赤フィルタ(Rフィルタ)が配される。   FIG. 2 is a conceptual diagram conceptually showing a state in which a part of the image sensor 100 is enlarged. In the pixel area, 20 million or more pixels are arranged in a matrix. In the present embodiment, 64 pixels of adjacent 8 pixels × 8 pixels form one basic lattice 110. The basic grid 110 includes four Bayer arrays having 4 × 2 × 2 basic units in the Y-axis direction and four in the X-axis direction. As shown in the figure, in the Bayer array, a green filter (G filter) is arranged for the upper left pixel and the lower right pixel, a blue filter (B filter) is arranged for the lower left pixel, and a red filter (R filter) is arranged for the upper right pixel.

基本格子110は、視差画素と視差なし画素を含む。視差画素は、撮影レンズ20を透過する入射光束のうち、光軸から偏位した部分光束を受光する画素である。視差画素には、当該部分光束のみを透過させるように、画素中心から偏位した偏位開口を有する開口マスクが設けられている。開口マスクは、例えば、カラーフィルタに重ねて設けられる。本実施形態においては、開口マスクにより、部分光束が画素中心に対して−X側に到達するように規定された視差Lt画素と、部分光束が画素中心に対して+X側に到達するように規定された視差Rt画素の2種類が存在する。一方、視差なし画素は、開口マスクが設けられていない画素であり、撮影レンズ20を透過する入射光束の全体を受光する画素である。   The basic grid 110 includes parallax pixels and non-parallax pixels. The parallax pixel is a pixel that receives a partial light beam that is deviated from the optical axis among incident light beams that pass through the photographing lens 20. The parallax pixel is provided with an aperture mask having a deviated opening that is deviated from the center of the pixel so as to transmit only the partial light flux. For example, the opening mask is provided so as to overlap the color filter. In this embodiment, the aperture mask defines the parallax Lt pixel that is defined so that the partial light beam reaches the −X side with respect to the pixel center, and the partial light beam that reaches the + X side with respect to the pixel center. There are two types of parallax Rt pixels. On the other hand, the non-parallax pixel is a pixel that is not provided with an aperture mask, and is a pixel that receives the entire incident light beam that passes through the photographing lens 20.

なお、視差画素は、光軸から偏位した部分光束を受光するにあたり、開口マスクに限らず、受光領域と反射領域が区分された選択的反射膜、偏位したフォトダイオード領域など、様々な構成を採用し得る。すなわち、視差画素は、撮影レンズ20を透過する入射光束のうち、光軸から偏位した部分光束を受光できるように構成されていれば良い。   Note that the parallax pixel is not limited to the aperture mask when receiving the partial light beam that is deviated from the optical axis, but has various configurations such as a selective reflection film in which the light receiving region and the reflective region are separated, and a deviated photodiode region. Can be adopted. In other words, the parallax pixel only needs to be configured to receive a partial light beam that is deviated from the optical axis, among incident light beams that pass through the photographing lens 20.

基本格子110内の画素をPIJで表す。例えば、−Xおよび+Yの端の画素はP11であり、+Xおよび−Yの端の画素はP81である。図に示すように、視差画素は以下のように配列されている。
11…視差Lt画素+Gフィルタ(=G(Lt))
51…視差Rt画素+Gフィルタ(=G(Rt))
32…視差Lt画素+Bフィルタ(=B(Lt))
63…視差Rt画素+Rフィルタ(=R(Rt))
15…視差Rt画素+Gフィルタ(=G(Rt))
55…視差Lt画素+Gフィルタ(=G(Lt))
76…視差Rt画素+Bフィルタ(=B(Rt))
27…視差Lt画素+Rフィルタ(=R(Lt))
他の画素は視差なし画素であり、視差無し画素+Rフィルタ、視差なし画素+Gフィルタ、視差無し画素+Bフィルタのいずれかである。
Pixels in the basic grid 110 are denoted by PIJ . For example, the end of the pixel of -X and + Y are P 11, the end of the pixel of + X and -Y is P 81. As shown in the figure, the parallax pixels are arranged as follows.
P 11 : Parallax Lt pixel + G filter (= G (Lt))
P 51 ... Parallax Rt pixel + G filter (= G (Rt))
P 32 ... Parallax Lt pixel + B filter (= B (Lt))
P 63 ... Parallax Rt pixel + R filter (= R (Rt))
P 15 ... Parallax Rt pixel + G filter (= G (Rt))
P 55 ... Parallax Lt pixel + G filter (= G (Lt))
P 76 ... Parallax Rt pixel + B filter (= B (Rt))
P 27 ... Parallax Lt pixel + R filter (= R (Lt))
The other pixels are non-parallax pixels, and are any of the non-parallax pixel + R filter, the non-parallax pixel + G filter, and the non-parallax pixel + B filter.

撮像素子100の全体でみた場合に、視差画素は、Gフィルタを有する第1群と、Rフィルタを有する第2群と、Bフィルタを有する第3群のいずれかに区分され、基本格子110には、それぞれの群に属する視差Lt画素および視差Rt画素が少なくとも1つは含まれる。図の例のように、これらの視差画素および視差なし画素が、基本格子110内においてランダム性を有して配置されると良い。ランダム性を有して配置されることにより、色成分ごとの空間分解能に偏りを生じさせることなく、視差画素の出力としてRGBのカラー情報を取得することができるので、高品質な視差画像データが得られる。   When viewed as a whole of the image sensor 100, the parallax pixels are classified into one of a first group having a G filter, a second group having an R filter, and a third group having a B filter. Includes at least one parallax Lt pixel and parallax Rt pixel belonging to each group. As in the example in the figure, these parallax pixels and non-parallax pixels may be arranged with randomness in the basic lattice 110. By arranging with randomness, RGB color information can be acquired as the output of the parallax pixels without causing bias in the spatial resolution for each color component, so that high-quality parallax image data can be obtained. can get.

図3は、2D画像データと視差画像データの生成処理の例を説明する図である。図3を用いて、撮像素子100から出力されるRAW元画像データから、2D画像データと視差画像データを含むRAW画像データセットを生成する処理の概念を説明する。   FIG. 3 is a diagram illustrating an example of processing for generating 2D image data and parallax image data. The concept of processing for generating a RAW image data set including 2D image data and parallax image data from RAW original image data output from the image sensor 100 will be described with reference to FIG.

基本格子110における視差画素および視差なし画素の配列からもわかるように、撮像素子100のデジタル画像信号をその画素配列に一致させてそのまま羅列しても、特定の像を表す画像データにはならない。撮像素子100のデジタル画像信号を、同一に特徴付けられた画素グループごとに分離して寄せ集めてはじめて、その特徴に即した一つの像を表す画像データが形成される。例えば、視差Rt画素と視差Lt画素をそれぞれ寄せ集めると、互いに視差を有する左右の視差画像を示す視差画像データが得られる。このように、同一に特徴付けられた画素グループごとに分離して寄せ集められたそれぞれの画像データを、プレーンデータと呼ぶ。   As can be seen from the arrangement of the parallax pixels and the non-parallax pixels in the basic grid 110, even if the digital image signals of the image sensor 100 are aligned with the pixel arrangement, they are not image data representing a specific image. Only when the digital image signals of the image sensor 100 are separated and collected for each identically characterized pixel group, image data representing one image corresponding to the feature is formed. For example, when the parallax Rt pixel and the parallax Lt pixel are gathered together, parallax image data indicating left and right parallax images having parallax can be obtained. In this way, each piece of image data separated and collected for each identically characterized pixel group is referred to as plane data.

画像処理部260は、撮像素子100の画素配列順にそのデジタル画像信号が羅列されたRAW元画像データを受け取り、デジタル画像信号を画素値として複数のプレーンデータに分離するプレーン分離処理を実行する。図の左列は、2D画像を示す2D−RGBプレーンデータの生成処理の例を示す。   The image processing unit 260 receives RAW original image data in which the digital image signals are arranged in the pixel arrangement order of the image sensor 100, and executes plane separation processing for separating the digital image signal into a plurality of plane data as pixel values. The left column of the figure shows an example of processing for generating 2D-RGB plane data indicating a 2D image.

2D−RGBプレーンデータを生成するにあたり、画像処理部260は、まず視差画素の画素値を除去して、空格子とする。そして、空格子となった画素値を、周辺画素の画素値を用いて補間処理により算出する。例えば、空格子P11の画素値は、斜め方向に隣接するGフィルタ画素の画素値である、P−1−1、P2−1、P−12、P22の画素値を平均化演算して算出する。また、例えば空格子P63の画素値は、X方向およびY方向に1画素飛ばして隣接するRフィルタの画素値である、P43、P61、P83、P65の画素値を平均化演算して算出する。同様に、例えば空格子P76の画素値は、X方向およびY方向に1画素飛ばして隣接するBフィルタの画素値である、P56、P74、P96、P78の画素値を平均化演算して算出する。 In generating the 2D-RGB plane data, the image processing unit 260 first removes the pixel values of the parallax pixels to form a vacant lattice. Then, the pixel value that becomes the empty grid is calculated by interpolation processing using the pixel values of the surrounding pixels. For example, the pixel values of the vacancy P 11 is the pixel value of the G filter pixels adjacent in an oblique direction, P -1-1, P 2-1, P -12, averages calculates the pixel values of P 22 To calculate. Further, for example, the pixel value of the empty lattice P 63 is obtained by averaging pixel values of P 43 , P 61 , P 83 , and P 65 which are pixel values of the adjacent R filter by skipping one pixel in the X direction and the Y direction. To calculate. Similarly, for example, the pixel value of the empty lattice P 76 is obtained by averaging the pixel values of P 56 , P 74 , P 96 , and P 78 that are the pixel values of the adjacent B filter by skipping one pixel in the X direction and the Y direction. Calculate by calculation.

このように補間された2D−RGBプレーンデータは、ベイヤー配列を有する通常の撮像素子の出力と同様であるので、その後は2D画像データとして各種処理を行うことができる。すなわち、公知のベイヤー補間を行って、各画素にRGBデータの揃ったカラー画像データを生成する。画像処理部260は、静止画データを生成する場合にはJPEG等の、動画データを生成する場合にはMPEG等の、予め定められたフォーマットに従って一般的な2D画像としての画像処理を行う。   Since the 2D-RGB plane data interpolated in this way is the same as the output of a normal imaging device having a Bayer array, various processes can be performed as 2D image data thereafter. That is, known Bayer interpolation is performed to generate color image data in which RGB data is aligned for each pixel. The image processing unit 260 performs image processing as a general 2D image according to a predetermined format such as JPEG when generating still image data and MPEG when generating moving image data.

本実施形態においては、画像処理部260は、2D−RGBプレーンデータをさらに色ごとに分離し、上述のような補間処理を施して、基準画像データとしての各プレーンデータを生成する。すなわち、緑色の基準画像プレーンデータとしてのGnプレーンデータ、赤色の基準画像プレーンデータとしてのRnプレーンデータ、および青色の基準画像プレーンデータとしてのBnプレーンデータの3つを生成する。   In the present embodiment, the image processing unit 260 further separates the 2D-RGB plane data for each color, performs the interpolation process as described above, and generates each plane data as reference image data. That is, three types of data are generated: Gn plane data as green reference image plane data, Rn plane data as red reference image plane data, and Bn plane data as blue reference image plane data.

図の右列は、視差画素データとしての2つのGプレーンデータ、2つのRプレーンデータおよび2つのBプレーンデータの生成処理の例を示す。2つのGプレーンデータは、左視差画像データとしてのGLtプレーンデータと右視差画像データとしてのGRtプレーンデータであり、2つのRプレーンデータは、左視差画像データとしてのRLtプレーンデータと右視差画像データとしてのRRtプレーンデータであり、2つのBプレーンデータは、左視差画像データとしてのBLtプレーンデータと右視差画像データとしてのBRtプレーンデータである。   The right column of the figure shows an example of generation processing of two G plane data, two R plane data, and two B plane data as parallax pixel data. The two G plane data are GLt plane data as left parallax image data and GRt plane data as right parallax image data. The two R plane data are RLt plane data and right parallax image data as left parallax image data. The two B plane data are the BLt plane data as the left parallax image data and the BRt plane data as the right parallax image data.

GLtプレーンデータを生成するにあたり、画像処理部260は、撮像素子100の全出力値からG(Lt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P11とP55の2つの画素値が残る。そこで、基本格子110をXY面内で4等分し、−Xおよび+Y側の16画素分をP11の出力値で代表させ、+Xおよび−Y側の16画素分をP55の出力値で代表させる。そして、+Xおよび+Y側の16画素分並びに−Xおよび−Y側の16画素分は、X方向およびY方向に隣接する周辺の代表値を平均化演算して補間する。すなわち、GLtプレーンデータは、16画素単位で一つの値を有する。 In generating the GLt plane data, the image processing unit 260 removes pixel values other than the pixel value of the G (Lt) pixel from all output values of the image sensor 100 to form a vacant lattice. As a result, two pixel values P 11 and P 55 remain in the basic grid 110. Therefore, the basic grid 110 is equally divided into four in the XY plane, the 16 pixels on the −X and + Y sides are represented by the output value of P 11 , and the 16 pixels on the + X and −Y sides are represented by the output value of P 55. Let me represent. Then, 16 pixels on the + X and + Y sides and 16 pixels on the -X and -Y sides are interpolated by averaging the peripheral representative values adjacent in the X direction and the Y direction. That is, the GLt plane data has one value in units of 16 pixels.

同様に、GRtプレーンデータを生成するにあたり、画像処理部260は、撮像素子100の全出力値からG(Rt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P51とP15の2つの画素値が残る。そこで、基本格子110をXY面内で4等分し、+Xおよび+Y側の16画素分をP51の出力値で代表させ、−Xおよび−Y側の16画素分をP15の出力値で代表させる。そして、−Xおよび+Y側の16画素分並びに+Xおよび−Y側の16画素分は、X方向およびY方向に隣接する周辺の代表値を平均化演算して補間する。すなわち、GRtプレーンデータは、16画素単位で一つの値を有する。このようにして、2D−RGBプレーンデータよりは解像度の低いGLtプレーンデータとGRtプレーンデータを生成することができる。 Similarly, when generating the GRt plane data, the image processing unit 260 removes pixel values other than the pixel value of the G (Rt) pixel from all the output values of the image sensor 100 to form an empty grid. Then, two pixel values P 51 and P 15 remain in the basic grid 110. Therefore, the basic grid 110 is divided into four equal parts in the XY plane, the 16 pixels on the + X and + Y sides are represented by the output value of P 51 , and the 16 pixels on the −X and −Y sides are represented by the output value of P 15. Let me represent. Then, 16 pixels on the -X and + Y sides and 16 pixels on the + X and -Y sides are interpolated by averaging the peripheral representative values adjacent in the X and Y directions. That is, the GRt plane data has one value in units of 16 pixels. In this way, it is possible to generate GLt plane data and GRt plane data having a resolution lower than that of 2D-RGB plane data.

RLtプレーンデータを生成するにあたり、画像処理部260は、撮像素子100の全出力値からR(Lt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P27の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。同様に、RRtプレーンデータを生成するにあたり、画像処理部260は、撮像素子100の全出力値からR(Rt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P63の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。このようにして、2D−RGBプレーンデータよりは解像度の低いRLtプレーンデータとRRtプレーンデータが生成される。この場合、RLtプレーンデータとRRtプレーンデータの解像度は、GLtプレーンデータとGRtプレーンデータの解像度よりも低い。 In generating the RLt plane data, the image processing unit 260 removes pixel values other than the pixel values of the R (Lt) pixels from all output values of the image sensor 100 to form a vacant lattice. Then, the primitive lattice 110, the pixel values of P 27 remains. This pixel value is set as a representative value for 64 pixels of the basic grid 110. Similarly, when generating the RRt plane data, the image processing unit 260 removes pixel values other than the pixel value of the R (Rt) pixel from all the output values of the image sensor 100 to form an empty grid. Then, the pixel value P 63 remains in the basic grid 110. This pixel value is set as a representative value for 64 pixels of the basic grid 110. In this way, RLt plane data and RRt plane data having a resolution lower than that of 2D-RGB plane data are generated. In this case, the resolution of the RLt plane data and the RRt plane data is lower than the resolution of the GLt plane data and the GRt plane data.

BLtプレーンデータを生成するにあたり、画像処理部260は、撮像素子100の全出力値からB(Lt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P32の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。同様に、BRtプレーンデータを生成するにあたり、画像処理部260は、撮像素子100の全出力値からB(Rt)画素の画素値以外の画素値を除去して空格子とする。すると、基本格子110には、P76の画素値が残る。この画素値を基本格子110の64画素分の代表値とする。このようにして、2D−RGBプレーンデータよりは解像度の低いBLtプレーンデータとBRtプレーンデータが生成される。この場合、BLtプレーンデータとBRtプレーンデータの解像度は、GLtプレーンデータとGRtプレーンデータの解像度よりも低く、RLtプレーンデータとRRtプレーンデータの解像度と同等である。 In generating the BLt plane data, the image processing unit 260 removes pixel values other than the pixel value of the B (Lt) pixel from all the output values of the image sensor 100 to form a vacant lattice. Then, the primitive lattice 110, the pixel values of P 32 remains. This pixel value is set as a representative value for 64 pixels of the basic grid 110. Similarly, when generating the BRt plane data, the image processing unit 260 removes pixel values other than the pixel value of the B (Rt) pixel from all the output values of the image sensor 100 to obtain an empty grid. Then, the primitive lattice 110, the pixel values of P 76 remains. This pixel value is set as a representative value for 64 pixels of the basic grid 110. In this way, BLt plane data and BRt plane data having a resolution lower than that of 2D-RGB plane data are generated. In this case, the resolution of the BLt plane data and the BRt plane data is lower than the resolution of the GLt plane data and the GRt plane data, and is equal to the resolution of the RLt plane data and the RRt plane data.

本実施形態においては、画像処理部260は、これらのプレーンデータを用いて、左側視点のカラー画像データおよび右側視点のカラー画像データを生成する。さらに、上記プレーンデータを時系列的に並べて動画を生成してもよい。   In the present embodiment, the image processing unit 260 generates color image data of the left viewpoint and color image data of the right viewpoint using these plane data. Furthermore, the moving image may be generated by arranging the plane data in time series.

図4は、デフォーカスの概念を説明する図である。視差Lt画素および視差Rt画素は、レンズ瞳の部分領域としてそれぞれ光軸対象に設定された2つの視差仮想瞳のいずれかから到達する被写体光束を受光する。本実施形態の光学系においては、実際の被写体光束はレンズ瞳の全体を通過するので、視差画素に到達するまでは、視差仮想瞳に対応する光強度分布が互いに区別されるのではない。しかし、視差画素は、それぞれが有する開口マスクの作用により、視差仮想瞳を通過した部分光束のみを光電変換した画像信号を出力する。したがって、視差画素の出力が示す画素値分布は、それぞれ対応する視差仮想瞳を通過した部分光束の光強度分布と比例関係にあると考えても良い。   FIG. 4 is a diagram for explaining the concept of defocusing. The parallax Lt pixel and the parallax Rt pixel receive the subject luminous flux that arrives from one of the two parallax virtual pupils set as the optical axis target as a partial region of the lens pupil. In the optical system of the present embodiment, since the actual subject light flux passes through the entire lens pupil, the light intensity distributions corresponding to the parallax virtual pupil are not distinguished from each other until the parallax pixel is reached. However, the parallax pixel outputs an image signal obtained by photoelectrically converting only the partial light flux that has passed through the parallax virtual pupil by the action of the aperture mask that each has. Therefore, the pixel value distribution indicated by the output of the parallax pixel may be considered to be proportional to the light intensity distribution of the partial light flux that has passed through the corresponding parallax virtual pupil.

図4(a)で示すように、被写体である物点が焦点位置に存在する場合、いずれの視差仮想瞳を通った被写体光束であっても、それぞれの視差画素の出力は、対応する像点の画素を中心として急峻な画素値分布を示す。像点付近に視差Lt画素が配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。また、像点付近に視差Rt画素が配列されていても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。すなわち、被写体光束がいずれの視差仮想瞳を通過しても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する分布を示し、それぞれの分布は互いに一致する。   As shown in FIG. 4A, when an object point that is a subject exists at the focal position, the output of each parallax pixel is the corresponding image point regardless of the subject luminous flux that has passed through any parallax virtual pupil. This shows a steep pixel value distribution centering on this pixel. If the parallax Lt pixels are arranged in the vicinity of the image point, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. Further, even when the parallax Rt pixels are arranged in the vicinity of the image point, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. That is, even if the subject luminous flux passes through any parallax virtual pupil, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. Match each other.

一方、図4(b)に示すように、物点が焦点位置からずれると、物点が焦点位置に存在した場合に比べて、視差Lt画素が示す画素値分布のピークは、像点に対応する画素から一方向に離れた位置に現れ、かつその出力値は低下する。また、出力値を有する画素の幅も広がる。視差Rt画素が示す画素値分布のピークは、像点に対応する画素から、視差Lt画素における一方向とは逆向きかつ等距離に離れた位置に現れ、同様にその出力値は低下する。また、同様に出力値を有する画素の幅も広がる。すなわち、物点が焦点位置に存在した場合に比べてなだらかとなった同一の画素値分布が、互いに等距離に離間して現れる。また、図4(c)に示すように、さらに物点が焦点位置からずれると、図4(b)の状態に比べて、さらになだらかとなった同一の画素値分布が、より離間して現れる。つまり、物点が焦点位置から大きくずれる程、ぼけ量と視差量が増すと言える。別言すれば、デフォーカスに応じて、ぼけ量と視差量は連動して変化する。すなわち、ぼけ量と視差量は、一対一に対応する関係を有する。   On the other hand, as shown in FIG. 4B, when the object point deviates from the focal position, the peak of the pixel value distribution indicated by the parallax Lt pixel corresponds to the image point, compared to the case where the object point exists at the focal position. Appearing at a position away from the pixel in one direction, and its output value decreases. In addition, the width of the pixel having the output value is increased. The peak of the pixel value distribution indicated by the parallax Rt pixel appears at a position away from the pixel corresponding to the image point in the opposite direction to the one direction in the parallax Lt pixel and at an equal distance, and the output value similarly decreases. Similarly, the width of the pixel having the output value is increased. That is, the same pixel value distribution that is gentler than that in the case where the object point exists at the focal position appears at an equal distance from each other. Further, as shown in FIG. 4C, when the object point further deviates from the focal position, the same pixel value distribution that becomes more gentle as compared with the state of FIG. 4B appears further apart. . That is, it can be said that the amount of blur and the amount of parallax increase as the object point deviates from the focal position. In other words, the amount of blur and the amount of parallax change in conjunction with defocus. That is, the amount of blur and the amount of parallax have a one-to-one relationship.

また、図4(b)(c)は、物点が焦点位置から遠ざかる方向へずれる場合を示すが、物点が焦点位置から近づく方向へずれる場合は、図4(d)に示すように、図4(b)(c)と比べて、視差Lt画素が示す画素値分布と視差Rt画素が示す画素値分布の相対的な位置関係が逆転する。このようなデフォーカス関係により、視差画像を鑑賞するときに鑑賞者は、焦点位置より奥に存在する被写体を遠くに視認し、手前に存在する被写体を近くに視認する。   FIGS. 4B and 4C show the case where the object point shifts away from the focal position, but when the object point moves away from the focal position, as shown in FIG. Compared to FIGS. 4B and 4C, the relative positional relationship between the pixel value distribution indicated by the parallax Lt pixel and the pixel value distribution indicated by the parallax Rt pixel is reversed. Due to such a defocus relationship, when viewing a parallax image, the viewer visually recognizes a subject existing far behind the focal position and visually recognizes a subject present in front.

図4(b)(c)で説明した画素値分布の変化をそれぞれグラフ化すると、図5のように表される。図において、横軸は画素位置を表し、中心位置が像点に対応する画素位置である。縦軸は各画素の出力値(画素値)を表す。この出力値は上述の通り実質的に光強度に比例する。   When the change of the pixel value distribution described in FIGS. 4B and 4C is graphed, it is expressed as shown in FIG. In the figure, the horizontal axis represents the pixel position, and the center position is the pixel position corresponding to the image point. The vertical axis represents the output value (pixel value) of each pixel. As described above, this output value is substantially proportional to the light intensity.

分布曲線804と分布曲線805は、それぞれ図4(b)の視差Lt画素の画素値分布と視差Rt画素の画素値分布を表す。図からわかるように、これらの分布は中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線806は、図4(b)の状況に対する視差なし画素の画素値分布、すなわち被写体光束の全体を受光した場合の画素値分布と略相似形状を示す。   The distribution curve 804 and the distribution curve 805 represent the pixel value distribution of the parallax Lt pixel and the pixel value distribution of the parallax Rt pixel in FIG. 4B, respectively. As can be seen from the figure, these distributions have a line-symmetric shape with respect to the center position. Further, a combined distribution curve 806 obtained by adding them shows a pixel value distribution of pixels without parallax with respect to the situation of FIG. 4B, that is, a pixel value distribution when the entire subject light beam is received, and a substantially similar shape.

分布曲線807と分布曲線808は、それぞれ図4(c)の視差Lt画素の画素値分布と視差Rt画素の画素値分布を表す。図からわかるように、これらの分布も中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線809は、図4(c)の状況に対する視差なし画素の画素値分布と略相似形状を示す。   A distribution curve 807 and a distribution curve 808 represent the pixel value distribution of the parallax Lt pixel and the pixel value distribution of the parallax Rt pixel in FIG. 4C, respectively. As can be seen from the figure, these distributions are also symmetrical with respect to the center position. Further, a combined distribution curve 809 obtained by adding them shows a substantially similar shape to the pixel value distribution of the non-parallax pixels for the situation of FIG.

図6は、手振れ時および手振れ補正時におけるデフォーカスの概念を説明する図である。図6(a)は、説明のため上記図4(b)を再掲した。図6(b)は、手振れによりデジタルカメラ10がY軸周りの回転すなわちヨーイングした状態を示す。図(c)は、手振れによりヨーイングした状態に対して手振れ補正を実行した状態を示す。   FIG. 6 is a diagram for explaining the concept of defocusing during camera shake and camera shake correction. FIG. 6 (a) is a reprint of FIG. 4 (b) for explanation. FIG. 6B shows a state in which the digital camera 10 is rotated around the Y axis, that is, yawed due to camera shake. FIG. 3C shows a state in which camera shake correction is performed on a state yawing due to camera shake.

図6(a)に示すように物点の像光が撮像素子100のX方向の中心の位置X0近傍に入力されている場合を考える。図6(a)の状態から、図6(b)に示すように、デジタルカメラ10が手振れにより図中の左回りにヨーイングしたとする。当該手振れにより、物点の像光は撮像素子100上において位置X0から−X方向の位置X1近傍に移動する。   Consider a case where image light of an object point is input in the vicinity of the position X0 of the center of the image sensor 100 in the X direction as shown in FIG. Assume that the digital camera 10 yaws counterclockwise in the figure due to camera shake as shown in FIG. 6B from the state of FIG. Due to the camera shake, the image light of the object point moves from the position X0 to the vicinity of the position X1 in the −X direction on the image sensor 100.

当該ヨーイングを手振れセンサ252が検知することにより、駆動部250が補正レンズ30を撮像素子100の撮像面に平行な+X方向に移動する。これにより、レンズ瞳も図6(c)の矢印の方向に移動し、上記物点の像光が図6(a)の位置X0に近い位置X2に移動する。従って、当該ヨーイングによる像光のブレが補正される。なお、位置X2を位置X0に一致させるように補正レンズ30を移動することが好ましいが、他の条件を優先させる等により完全に一致させなくてもよい。   When the shake sensor 252 detects the yawing, the driving unit 250 moves the correction lens 30 in the + X direction parallel to the imaging surface of the imaging element 100. As a result, the lens pupil also moves in the direction of the arrow in FIG. 6C, and the image light of the object point moves to a position X2 close to the position X0 in FIG. Therefore, image light blur due to yawing is corrected. Although it is preferable to move the correction lens 30 so that the position X2 coincides with the position X0, it may not be completely coincident by giving priority to other conditions.

図7は、図6(c)の破線の円内を拡大して示す拡大図である。なお、図7においては、撮像素子100の撮像面が図中の上下方向となるように描いた。   FIG. 7 is an enlarged view showing the inside of a broken circle in FIG. In FIG. 7, the image pickup surface of the image pickup device 100 is drawn in the vertical direction in the drawing.

図7に示すように、補正レンズ30が中心位置から移動すると、像光の入力の位置は手振れ前にほぼ一致するものの、撮像素子100への像光の入力の角度が変わる。補正レンズ30が撮像素子100の撮像面に平行に+X方向に移動したことによって、視差Rt画素に入力する主光線の角度θRおよび視差Lt画素に入力する主光線の角度θLは、手振れ前の主光線の角度から変化する。さらに、図7に示す例において、視差Rt画素に入力する主光線の角度θRが視差Lt画素に入力する主光線の角度θLよりも大きくなっている。   As shown in FIG. 7, when the correction lens 30 moves from the center position, the input position of the image light to the image sensor 100 changes although the input position of the image light substantially coincides with that before camera shake. As the correction lens 30 is moved in the + X direction parallel to the imaging surface of the image sensor 100, the chief ray angle θR input to the parallax Rt pixel and the chief ray angle θL input to the parallax Lt pixel are the principal rays before camera shake. It changes from the angle of the ray. Further, in the example shown in FIG. 7, the chief ray angle θR input to the parallax Rt pixel is larger than the chief ray angle θL input to the parallax Lt pixel.

ここで、視差画素の感度には像光が入力する角度に対する依存性があるので、手振れ補正の前後における上記角度の変化によって、視差画素から出力される視差画像の視差量が変化する。よって、連写、動画等の互いに関連付けられた複数の視差画像間において、それぞれの視差画像に対する手振れ補正によって視差量が異なることになる。よって、当該複数の視差画像を見る観察者に不快感または違和感を与えるおそれがある。   Here, since the sensitivity of the parallax pixel has a dependency on the angle at which the image light is input, the parallax amount of the parallax image output from the parallax pixel is changed by the change in the angle before and after the camera shake correction. Therefore, the amount of parallax differs between the plurality of parallax images associated with each other, such as continuous shooting and moving images, due to camera shake correction for each parallax image. Therefore, there is a possibility that an observer who views the plurality of parallax images may feel uncomfortable or uncomfortable.

そこで、本実施形態においては、手振れ補正量に基づいて視差画像の視差量を補正した補正画像を生成する。この場合に、元の視差画像の視差量よりも補正画像の視差量が小さくなるように補正することが好ましい。さらに、互いに関連付けられた複数の視差画像間で視差量が予め定められた範囲内となるように、複数の視差画像の視差量が補正されることが好ましい。これに代えてまたはこれに加えて、手振れ補正量が大きいほど視差量を低減した補正画像を生成することが好ましい。   Therefore, in the present embodiment, a corrected image in which the parallax amount of the parallax image is corrected based on the camera shake correction amount is generated. In this case, it is preferable to perform correction so that the parallax amount of the corrected image is smaller than the parallax amount of the original parallax image. Furthermore, it is preferable that the parallax amounts of the plurality of parallax images are corrected so that the parallax amounts are within a predetermined range between the parallax images associated with each other. Instead of this or in addition to this, it is preferable to generate a corrected image in which the amount of parallax is reduced as the camera shake correction amount is larger.

図8は、画像処理部260の機能ブロック図である。画像処理部260は、視差画像取得部261、補正量取得部262、補正画像生成部264およびテーブル格納部266を有する。   FIG. 8 is a functional block diagram of the image processing unit 260. The image processing unit 260 includes a parallax image acquisition unit 261, a correction amount acquisition unit 262, a correction image generation unit 264, and a table storage unit 266.

視差画像取得部261は、メモリ203またはメモリカード220から、RAW画像データセットを取得する。補正量取得部262は、RAW画像データセットのヘッダ部分に書き込まれた手振れ補正量を取得する。補正画像生成部264は、当該手振れ補正量に基づいてRAW画像データセットの視差量を補正した補正画像データセットを生成する。テーブル格納部266は、手振れ補正量と補正する視差量との関係が対応付けられた対応テーブルを格納する。   The parallax image acquisition unit 261 acquires a RAW image data set from the memory 203 or the memory card 220. The correction amount acquisition unit 262 acquires the camera shake correction amount written in the header portion of the RAW image data set. The corrected image generation unit 264 generates a corrected image data set in which the parallax amount of the RAW image data set is corrected based on the camera shake correction amount. The table storage unit 266 stores a correspondence table in which the relationship between the camera shake correction amount and the parallax amount to be corrected is associated.

図9は、手振れ補正量を説明する概念図である。図9において、撮像素子100の撮像面の中心位置に対する、補正レンズ30単体の中心位置の関係が描かれている。   FIG. 9 is a conceptual diagram illustrating the camera shake correction amount. In FIG. 9, the relationship between the center position of the correction lens 30 alone and the center position of the imaging surface of the image sensor 100 is depicted.

図9において、手振れ補正前は、補正レンズ30の中心位置V0は撮像素子100の中心位置にある。その後、撮影の露光中における手振れ補正により、図中の実線の軌跡を描いて露光終了時に位置V1に来ていたとする。   In FIG. 9, the center position V0 of the correction lens 30 is at the center position of the image sensor 100 before the camera shake correction. After that, it is assumed that the camera has been moved to the position V1 at the end of exposure by drawing a solid locus in the drawing by camera shake correction during exposure.

この場合に、視差量を補正するのに用いる手振れ補正量として、例えば、X軸方向の最大値Vmaxと±の方向の情報とが用いられる。これに代えてまたはこれに加えて、軌跡を時間積分した位置V2のX軸方向の値、言い換えれば時間平均値Vavgと±の方向の情報とが用いられてもよい。また、軌跡自体が手振れ補正量として用いられてもよい。   In this case, as the camera shake correction amount used to correct the parallax amount, for example, the maximum value Vmax in the X-axis direction and the information in the ± direction are used. Instead of or in addition to this, the value in the X-axis direction of the position V2 obtained by time-integrating the trajectory, in other words, the time average value Vavg and the information in the ± direction may be used. Further, the locus itself may be used as a camera shake correction amount.

上記手振れ補正量と、視差の変化量との関係を実験的にまたは解析的に把握することにより、当該手振れ補正量に対する、視差の補正量を設定する。この場合に、手振れ補正量に対して、視差画像の画面全体に対して一律に視差量を補正する補正量を設定してもよいし、画面の領域毎に異なる補正量を設定してもよい。画面の領域毎に異なる補正量を設定する場合に、手振れ補正の方向に応じて画面の当該領域が設定されてもよい。   The amount of parallax correction with respect to the amount of camera shake correction is set by grasping the relationship between the amount of camera shake correction and the amount of change in parallax experimentally or analytically. In this case, a correction amount for correcting the parallax amount uniformly for the entire screen of the parallax image may be set for the camera shake correction amount, or a different correction amount may be set for each region of the screen. . When a different correction amount is set for each area of the screen, the area of the screen may be set according to the direction of camera shake correction.

図10は、デジタルカメラ10の動作のフローチャートの一例を示す。図10の動作は、レリーズボタンの押し下げが操作部208に入力されることにより開始する。   FIG. 10 shows an example of a flowchart of the operation of the digital camera 10. The operation shown in FIG. 10 is started when the release button is input to the operation unit 208.

手振れセンサ252はデジタルカメラ10の姿勢を検知して、制御部201に出力する(S102)。制御部201は手振れセンサ252からの出力に基づいて手振れを補正する補正レンズ30の手振れ補正量を算出し、駆動部250は補正レンズ30を駆動して手振れ補正量だけ移動させる(S104)。制御部201は手振れ補正量をメモリ203に記録する(S105)。撮像条件により設定された露光が終了するまで(S106:No)、上記ステップS102からS105が繰り返される。   The camera shake sensor 252 detects the posture of the digital camera 10 and outputs it to the control unit 201 (S102). The control unit 201 calculates a camera shake correction amount of the correction lens 30 that corrects camera shake based on the output from the camera shake sensor 252, and the drive unit 250 drives the correction lens 30 to move it by the camera shake correction amount (S104). The control unit 201 records the camera shake correction amount in the memory 203 (S105). Steps S102 to S105 are repeated until the exposure set according to the imaging conditions is completed (S106: No).

露光が終了した場合に(S106:Yes)、画像処理部260は、撮像素子100から出力されたRAW元画像データから、図3に示すRAW画像データセットを生成する(S108)。RAW画像データセットがメモリ203またはメモリカード220に書き込まれる。この場合に、RAW画像データセットのヘッダ部分に、手振れ補正量、および、当該RAW画像データセットが連写または動画のうちの1フレームである場合にはその旨、が書き込まれる。   When the exposure is completed (S106: Yes), the image processing unit 260 generates the RAW image data set shown in FIG. 3 from the RAW original image data output from the image sensor 100 (S108). The RAW image data set is written into the memory 203 or the memory card 220. In this case, the amount of camera shake correction and, if the RAW image data set is one frame of continuous shooting or moving image, are written in the header part of the RAW image data set.

視差画像取得部261は、メモリ203またはメモリカード220に書き込まれたRAW画像データセットを取得する(S109)。さらに、視差画像取得部261は、RAW画像データセットが他のRAW画像データセットと関連付けされているか否かを判断する(S110)。この場合に、視差画像取得部261は、RAW画像データセットのヘッダ部分を参照して、連写または動画のうちの1フレームである旨が書き込まれている場合に、他のRAW画像データセットと関連付けされていると判断し(S110:Yes)、連写または動画のうちの1フレームである旨が書き込まれていない場合に、関連付けされていないと判断する(S110:No)。   The parallax image acquisition unit 261 acquires the RAW image data set written in the memory 203 or the memory card 220 (S109). Furthermore, the parallax image acquisition unit 261 determines whether or not the RAW image data set is associated with another RAW image data set (S110). In this case, the parallax image acquisition unit 261 refers to the header part of the RAW image data set, and when it is written that it is one frame of continuous shooting or moving image, It is determined that they are associated (S110: Yes), and when it is not written that it is one frame of continuous shooting or moving image, it is determined that they are not associated (S110: No).

視差画像取得部261が他のRAW画像データセットと関連付けされていると判断した場合に(S110:Yes)、補正量取得部262は、RAW画像データセットの手振れ補正量を取得する(S112)。この場合に、補正量取得部262は、RAW画像データセットのヘッダ部分から手振れ補正量を読み出して、対応テーブルに対応した手振れ補正量を算出する。例えば、RAW画像データのヘッダ部分に手振れ補正の軌跡が記録されており、対応テーブルが手振れ補正量の最大値Vmaxまたは平均値Vavgと視差の補正量とを対応付けている場合には、補正量取得部262は、読み出した手振れ補正の軌跡から図8のように最大値Vmaxまたは平均値Vavgを算出して、補正画像生成部264に引き渡す。   When it is determined that the parallax image acquisition unit 261 is associated with another RAW image data set (S110: Yes), the correction amount acquisition unit 262 acquires the camera shake correction amount of the RAW image data set (S112). In this case, the correction amount acquisition unit 262 reads out the camera shake correction amount from the header portion of the RAW image data set, and calculates the camera shake correction amount corresponding to the correspondence table. For example, when a camera shake correction locus is recorded in the header portion of the RAW image data, and the correspondence table associates the maximum value Vmax or the average value Vavg of the camera shake correction amount with the parallax correction amount, the correction amount The acquisition unit 262 calculates the maximum value Vmax or the average value Vavg as shown in FIG. 8 from the read camera-shake correction locus, and passes it to the corrected image generation unit 264.

補正画像生成部264は、テーブル格納部266に格納されている対応テーブルを参照することにより、上記手振れ補正量に対応する視差の補正量を特定する(S114)。補正画像生成部264は、当該視差の補正量でRAW画像データセットを補正した補正画像データセットを生成する(S116)。   The corrected image generation unit 264 identifies the parallax correction amount corresponding to the camera shake correction amount by referring to the correspondence table stored in the table storage unit 266 (S114). The corrected image generation unit 264 generates a corrected image data set obtained by correcting the RAW image data set with the parallax correction amount (S116).

補正画像生成部264は、上記ステップS116で生成した補正画像データセット、または、上記ステップS110で関連付けがないと判断された場合には視差画像取得部261が取得したRAW画像データセットをメモリカード220に保存する(S118)。以上により、本フローチャートによる動作が終了する。   The corrected image generation unit 264 stores the corrected image data set generated in step S116 or the RAW image data set acquired by the parallax image acquisition unit 261 when it is determined that there is no association in step S110. (S118). Thus, the operation according to this flowchart is completed.

図11は、図10のフローチャートのステップS116で視差量を補正する方法の一例を示す。図12は、図11の視差量の補正による画素値の変化を示す説明図である。   FIG. 11 shows an example of a method for correcting the amount of parallax in step S116 of the flowchart of FIG. FIG. 12 is an explanatory diagram showing changes in pixel values due to correction of the parallax amount in FIG.

特に、図11および図12の例において、立体調整パラメータを導入することにより、主要被写体のぼけを感じさせない範囲で視差量を任意に補正した補正画像データセットが生成される。   In particular, in the examples of FIGS. 11 and 12, by introducing the stereo adjustment parameter, a corrected image data set in which the parallax amount is arbitrarily corrected within a range in which the main subject is not blurred is generated.

対応テーブルには、手振れ補正量に対して、視差画像全体に対して一律に適用する立体調整パラメータCが対応付けられている。立体調整パラメータCは、0.5<C<1の範囲で設定されることが好ましい。また、当該対応テーブルにおいて、手振れ補正量が大きいほど、立体調整パラメータCは小さいことが好ましい。   In the correspondence table, the amount of camera shake correction is associated with a three-dimensional adjustment parameter C that is uniformly applied to the entire parallax image. The three-dimensional adjustment parameter C is preferably set in a range of 0.5 <C <1. In the correspondence table, it is preferable that the three-dimensional adjustment parameter C is smaller as the camera shake correction amount is larger.

図11を用いて、補正画像データセットのうち赤色の右視差画像データおよび赤色の左視差画像データの生成処理の例を示す。   FIG. 11 shows an example of processing for generating red right parallax image data and red left parallax image data in the corrected image data set.

赤色の視差画像データは、視差画像取得部261が取得したRAW画像データセットのRnプレーンデータの画素値と、RLtプレーンデータおよびRRtプレーンデータの輝度値とを用いて生成する。具体的には、例えば左視差画像データの対象画素位置(i,j)の画素値RLtmnを算出する場合、まず、補正画像生成部264は、Rnプレーンデータの同一画素位置(i,j)から画素値Rnmnを抽出する。次に、補正画像生成部264は、RLtプレーンデータの同一画素位置(i,j)から輝度値RLtmnを、RRtプレーンデータの同一画素位置(i,j)から輝度値RRtmnを抽出する。そして、画像処理部260は、画素値Rnmnに、輝度値RLtmnとRRtmnを立体調整パラメータCで分配した値を乗じて、画素値RLctmnを算出する。具体的には、以下の式(1)により算出する。
RLctmn=2Rnmn×{C・RLtmn+(1−C)・RRtmn}/(RLtmn+RRtmn)…(1)
The red parallax image data is generated using the pixel values of the Rn plane data of the RAW image data set acquired by the parallax image acquisition unit 261, and the luminance values of the RLt plane data and the RRt plane data. Specifically, for example, when calculating the pixel value RLt mn of the target pixel position (i m , j n ) of the left parallax image data, first, the corrected image generation unit 264 first uses the same pixel position (i m) of the Rn plane data. , J n ) extract the pixel value Rn mn . Next, the correction image generation unit 264, the same pixel position of RLt plane data (i m, j n) from the luminance value RLt mn, the same pixel position of the RRT plane data (i m, j n) the luminance value RRT mn from To extract. Then, the image processing unit 260, the pixel values Rn mn, by multiplying the value obtained by distributing the luminance value RLt mn and RRT mn stereoscopic adjustment parameter C, and calculates the pixel value RLct mn. Specifically, it is calculated by the following equation (1).
RLct mn = 2Rn mn x {C · RLt mn + (1-C) · RRt mn } / (RLt mn + RRt mn ) (1)

同様に、右視差画像データの対象画素位置(i,j)の画素値RRctmnを算出する場合も、補正画像生成部264は、画素値Rnmnに輝度値RLtmnと輝度値RRtmnを立体調整パラメータCで分配した値を乗じて算出する。具体的には、以下の式(2)により算出する。
RRctmn=2Rnmn×{C・RRtmn+(1−C)・RLtmn}/(RLtmn+RRtmn)…(2)
Similarly, the target pixel position in the right parallax image data (i m, j n) may be calculated pixel value RRCt mn of the correction image generation unit 264, the luminance value RLt mn and the luminance value RRT mn to the pixel values Rn mn Is multiplied by the value distributed by the three-dimensional adjustment parameter C. Specifically, it is calculated by the following equation (2).
RRct mn = 2Rn mn × {C · RRt mn + (1-C) · RLt mn } / (RLt mn + RRt mn ) (2)

補正画像生成部264は、このような処理を、左端かつ上端の画素である(1、1)から右端かつ下端の座標である(i,j)まで順次実行する。 Correction image generation unit 264, such processing is sequentially executed from the pixel at the left end and the upper end (1,1) to a right end and the lower end of the coordinate (i 0, j 0).

赤色の右視差画像データおよび左視差画像データの生成処理が完了したら、次に緑色の右視差画像データと左視差画像データ、および、青色の右視差画像データと左視差画像データを同様に生成する。以上の処理により、視差情報を含む補正画像データセットが完成する。   When the generation processing of the red parallax image data and the left parallax image data is completed, the green right parallax image data and the left parallax image data, and the blue right parallax image data and the left parallax image data are similarly generated. . With the above processing, a corrected image data set including parallax information is completed.

図12(a)は、焦点位置から一定量だけずれた位置に存在する物点からのある白色被写体光束を受光した場合の、G(Lt)画素、G(Rt)画素、R(Lt)画素、R(Rt)画素、B(Lt)画素およびB(Rt)画素のそれぞれの出力値を並べたグラフである。   FIG. 12A shows a G (Lt) pixel, a G (Rt) pixel, and an R (Lt) pixel when a white subject light beam from an object point located at a position shifted by a certain amount from the focal position is received. , R (Rt) pixels, B (Lt) pixels, and B (Rt) pixels.

図12(b)は、図12(a)における物点からのある白色被写体光束を受光した場合の、視差無し画素であるR(N)画素、G(N)画素およびB(N)画素の出力値を並べたグラフである。このグラフも、各色の画素値分布を表すと言える。   FIG. 12B shows the R (N) pixel, G (N) pixel, and B (N) pixel that are non-parallax pixels when a white subject light beam from the object point in FIG. 12A is received. It is the graph which arranged the output value. It can be said that this graph also represents the pixel value distribution of each color.

C=0.8として対応する画素ごとに上述の処理を施すと、図12(c)のグラフで表される光強度分布となる。図12および上記式(1)(2)から分かるように、0.5<C<1の範囲で立体調整パラメータCが1に近いほど視差量が大きく、0.5に近いほど視差量が小さくなる。すなわち、立体調整パラメータCは、視差Lt画素の示す視差量と視差Rt画素の示す視差量とに基づいた視差量を視差なし画素に割り付ける場合の、視差Lt画素の示す視差量と視差Rt画素の示す視差量との重みを調整している。そして、立体調整パラメータCが1に近いほど視差Lt画素の示す視差量と視差Rt画素の示す視差量の一方の重みが大きく、0.5に近いほどそれらの重みが近い視差量が、視差なし画素に割り付けられる。   When the above processing is performed for each corresponding pixel with C = 0.8, the light intensity distribution represented by the graph of FIG. As can be seen from FIG. 12 and the above formulas (1) and (2), the parallax amount is larger as the three-dimensional adjustment parameter C is closer to 1 in the range of 0.5 <C <1, and the parallax amount is smaller as it is closer to 0.5. Become. That is, the three-dimensional adjustment parameter C includes the parallax amount indicated by the parallax Lt pixel and the parallax Rt pixel when the parallax amount based on the parallax amount indicated by the parallax Lt pixel and the parallax amount indicated by the parallax Rt pixel is assigned to the non-parallax pixel. The weight with the amount of parallax shown is adjusted. One of the weights of the parallax amount indicated by the parallax Lt pixel and the parallax amount indicated by the parallax Rt pixel is larger as the stereoscopic adjustment parameter C is closer to 1, and the parallax amount closer to 0.5 is closer to 0.5. Assigned to a pixel.

以上、本実施形態によれば、手振れによる撮像素子100上の像光のブレを補正しつつ、当該手振れ補正による視差量の変化による不快感および違和感を低減することができる。   As described above, according to the present embodiment, it is possible to reduce discomfort and discomfort due to a change in the amount of parallax due to camera shake correction while correcting blur of image light on the image sensor 100 due to camera shake.

上記対応テーブルは、手振れ補正量と視差の補正量とが対応付けられている。これに代えて、対応テーブルにおいて、デジタルカメラ10のブレ量と視差の補正量とが対応付けられていてもよい。この場合に、RAW画像データセットのヘッダ部には、デジタルカメラ10のブレ量が書き込まれる。また、デジタルカメラ10のブレ量に対して手振れ補正をした場合における視差変化に基づいた視差の補正量を予め算出しておき、対応テーブルにおいて、デジタルカメラ10のブレ量と当該視差の補正量とが対応付けられる。   In the correspondence table, a camera shake correction amount and a parallax correction amount are associated with each other. Instead, the shake amount of the digital camera 10 and the parallax correction amount may be associated with each other in the correspondence table. In this case, the blur amount of the digital camera 10 is written in the header part of the RAW image data set. Also, a parallax correction amount based on a parallax change when camera shake correction is performed on the blur amount of the digital camera 10 is calculated in advance, and the blur amount of the digital camera 10 and the parallax correction amount are calculated in the correspondence table. Are associated.

上記フローチャートのステップS116において、手振れ補正量が予め定められた範囲にある場合、例えば閾値よりも大きい場合に、視差をなくした2D画像を補正画像にしてもよい。この場合に、RAW画像データセットのうちのRnプレーンデータ、GnプレーンデータおよびBnプレーンデータを補正画像データセットとしてもよい。これに代えて、上記立体調整パラメータCを0.5とすることにより視差をなくしたRGBの画像データを補正画像データセットとしてもよい。一方、手振れ補正量が他の予め定められた範囲にある場合、例えば上記閾値よりも小さい第2の閾値よりも小さい場合に、視差画像を補正しなくてもよい。   In step S116 of the flowchart, when the camera shake correction amount is in a predetermined range, for example, when it is larger than the threshold, a 2D image with no parallax may be used as a corrected image. In this case, Rn plane data, Gn plane data, and Bn plane data in the RAW image data set may be used as a corrected image data set. Instead, RGB image data in which parallax is eliminated by setting the stereoscopic adjustment parameter C to 0.5 may be used as a corrected image data set. On the other hand, when the camera shake correction amount is in another predetermined range, for example, when it is smaller than the second threshold value smaller than the threshold value, the parallax image may not be corrected.

立体調整パラメータC以外を用いて視差量を補正してもよい。例えば、RAW元画像データセットが、視差量を画像から分離した視差量のマップとして有している場合に、当該マップの視差量を直接補正して、所定の範囲となるようにしてもよい。   The parallax amount may be corrected using a parameter other than the three-dimensional adjustment parameter C. For example, when the RAW source image data set has a parallax amount map obtained by separating the parallax amount from the image, the parallax amount of the map may be directly corrected to be within a predetermined range.

なお、上記実施形態において、補正レンズ30がX軸方向に移動する場合の視差量の補正について説明した。これに代えてまたはこれに加えて、補正レンズ30がY軸方向に移動する場合に、視差量を補正してもよい。この場合に、補正レンズ30のY軸方向の移動と視差量の変化との関係を実験的にまたは解析的に特定しておき、当該関係に基づいてY方向の移動量である手振れ補正量と、視差の補正量との対応テーブルを格納しておけばよい。   In the above-described embodiment, the correction of the parallax amount when the correction lens 30 moves in the X-axis direction has been described. Instead of or in addition to this, the parallax amount may be corrected when the correction lens 30 moves in the Y-axis direction. In this case, the relationship between the movement of the correction lens 30 in the Y-axis direction and the change in the amount of parallax is specified experimentally or analytically, and the camera shake correction amount, which is the amount of movement in the Y direction, is determined based on the relationship. A correspondence table with the parallax correction amount may be stored.

上記実施形態において、補正レンズ30はXY面内で移動する例を説明した。これに代えて、補正レンズ30がXY面内に対して傾きながら移動する場合に上記実施形態を適用してもよい。この場合も、補正レンズ30の傾きながらの移動と視差量の変化との関係を実験的にまたは解析的に求めておき、当該関係に基づいてY方向の移動量である手振れ補正量と、視差の補正量との対応テーブルを格納しておけばよい。補正レンズ30を設けることに代えてまたはこれに加えて、撮像素子100を移動することにより手振れを補正する場合に上記実施形態を適用してもよい。   In the above embodiment, the correction lens 30 has been described as moving in the XY plane. Instead of this, the above embodiment may be applied when the correction lens 30 moves while tilting with respect to the XY plane. Also in this case, the relationship between the movement of the correction lens 30 while tilting and the change in the amount of parallax is obtained experimentally or analytically, and based on the relationship, the amount of camera shake correction that is the amount of movement in the Y direction and the amount of parallax are determined. It is only necessary to store a correspondence table with the correction amount. In place of or in addition to providing the correction lens 30, the above-described embodiment may be applied to the case where camera shake is corrected by moving the image sensor 100.

上記実施形態において、RAW画像データセットが他のRAW画像データセットと関連付けされている場合に、視差量を補正した。これに代えて、他のRAW画像データセットと関連付けされているか否かに関わらず、視差量を補正してもよい。   In the above embodiment, the parallax amount is corrected when the RAW image data set is associated with another RAW image data set. Instead of this, the amount of parallax may be corrected regardless of whether it is associated with another RAW image data set.

上記実施形態において、撮像素子100から出力された画像信号により生成されたRAW画像データセットの視差量を補正した。これに代えてまたはこれに加えて、撮像素子100以外で生成されたRAW画像データセットを外部から取得し、視差量を補正してもよい。RAW画像データセットに限られず、他の画像フォーマットのデータセットに対して視差量を補正してもよい。   In the above embodiment, the parallax amount of the RAW image data set generated by the image signal output from the image sensor 100 is corrected. Instead of or in addition to this, a RAW image data set generated by a device other than the image sensor 100 may be acquired from the outside, and the amount of parallax may be corrected. The parallax amount may be corrected for a data set of another image format without being limited to the RAW image data set.

また、上記実施形態においては、視差画像取得部261が、RAW画像データセットのヘッダ部分を参照して、連写または動画のうちの1フレームである旨が書き込まれている場合に、他のRAW画像データセットと関連付けされていると判断した。これに代えてまたはこれに加えて、視差画像取得部261は、RAW画像データセットのヘッダ部分に書き込まれた撮影時間が互いに一定時間内であるものを、互いに関連付けられたRAW画像データセットであると判断してもよい。この場合に、いずれかの撮像時における手振れ補正量が閾値以上であった場合には、当該時間内に撮像して生成されたRAW画像データセットのいずれに対しても2D画像に補正してもよい。一方、いずれの撮像時における手振れ補正量も閾値以内であった場合には、時間的にひとつ前のRAW画像データセットに対して次のRAW画像データセットの視差の変化量が一定以下になるように、当該次のRAW画像データセットの視差量を補正してもよい。   Further, in the above embodiment, when the parallax image acquisition unit 261 refers to the header portion of the RAW image data set and writes that it is one frame of continuous shooting or moving image, another RAW Determined to be associated with the image dataset. Instead of this, or in addition to this, the parallax image acquisition unit 261 is a RAW image data set that is associated with each other in which the shooting times written in the header portion of the RAW image data set are within a certain period of time. You may judge. In this case, if the camera shake correction amount at the time of any imaging is greater than or equal to the threshold value, any of the RAW image data sets generated by imaging within that time may be corrected to a 2D image. Good. On the other hand, when the camera shake correction amount at any time of imaging is within the threshold value, the amount of change in the parallax of the next RAW image data set is less than a certain amount with respect to the previous RAW image data set. In addition, the parallax amount of the next RAW image data set may be corrected.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 デジタルカメラ、20 撮影レンズ、21 光軸、22 絞り、30 補正レンズ、100 撮像素子、110 基本格子、201 制御部、202 A/D変換回路、203 メモリ、204 駆動部、207 メモリカードIF、208 操作部、209 表示部、210 LCD駆動回路、211 AFセンサ、220 メモリカード、250 駆動部、252 手振れセンサ、260 画像処理部、261 視差画像取得部、262 補正量取得部、264 補正画像生成部、266 テーブル格納部、804 分布曲線、805 分布曲線、806 合成分布曲線、807 分布曲線、808 分布曲線、809 合成分布曲線 DESCRIPTION OF SYMBOLS 10 Digital camera, 20 Shooting lens, 21 Optical axis, 22 Aperture, 30 Correction lens, 100 Image sensor, 110 Basic lattice, 201 Control part, 202 A / D conversion circuit, 203 Memory, 204 Drive part, 207 Memory card IF, 208 operation unit, 209 display unit, 210 LCD drive circuit, 211 AF sensor, 220 memory card, 250 drive unit, 252 camera shake sensor, 260 image processing unit, 261 parallax image acquisition unit, 262 correction amount acquisition unit, 264 correction image generation , 266 table storage unit, 804 distribution curve, 805 distribution curve, 806 composite distribution curve, 807 distribution curve, 808 distribution curve, 809 composite distribution curve

Claims (6)

同一の対象に対する視差を示す視差量を含む視差画像を取得する視差画像取得部と、
撮像時の手振れを補正する手振れ補正量を取得する補正量取得部と、
前記補正量取得部により取得された前記手振れ補正量に基づいて、前記視差画像取得部により取得された前記視差画像の前記視差量を補正した補正画像を生成する補正画像生成部と
を備える画像処理装置。
A parallax image acquisition unit that acquires a parallax image including a parallax amount indicating parallax with respect to the same object;
A correction amount acquisition unit for acquiring a camera shake correction amount for correcting camera shake during imaging;
An image processing comprising: a correction image generation unit configured to generate a correction image in which the parallax amount of the parallax image acquired by the parallax image acquisition unit is corrected based on the camera shake correction amount acquired by the correction amount acquisition unit. apparatus.
前記手振れ補正量と補正する前記視差量との関係が対応付けられた対応テーブルを格納する格納部をさらに備え、
前記補正画像生成部は、前記対応テーブルを参照して前記補正画像を生成する請求項1に記載の画像処理装置。
A storage unit that stores a correspondence table in which a relationship between the camera shake correction amount and the parallax amount to be corrected is associated;
The image processing apparatus according to claim 1, wherein the corrected image generation unit generates the corrected image with reference to the correspondence table.
前記補正画像は、前記手振れ補正量が大きいほど前記視差量を低減した前記補正画像を生成する請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the corrected image is generated by reducing the parallax amount as the camera shake correction amount increases. 前記補正画像生成部は、前記手振れ補正量が予め定められた範囲である場合に、視差をなくした補正画像を生成する請求項1から3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction image generation unit generates a correction image with no parallax when the camera shake correction amount is within a predetermined range. 前記視差画像取得部は、複数の前記視差画像を取得した場合にそれらが関連付けられているか否かを判断し、
前記補正画像生成部は、前記視差画像取得部により前記複数の視差画像が関連付けられていると判断された場合に、前記複数の視差画像を関連付けて複数の前記補正画像を生成する請求項1から4のいずれか1項に記載の画像処理装置。
The parallax image acquisition unit determines whether or not the parallax images are associated when acquiring a plurality of the parallax images;
The correction image generation unit generates the plurality of correction images by associating the plurality of parallax images when the parallax image acquisition unit determines that the plurality of parallax images are associated with each other. 5. The image processing apparatus according to any one of 4 above.
請求項1から5のいずれか1項に記載の画像処理装置と、
入射光を電気信号に光電変換する、二次元的に配列された複数の光電変換素子、および、前記入射光の断面領域内の部分領域からの光を、対応する前記複数の光電変換素子にそれぞれ入射させる開口を設けた遮光部を有し、前記対象を撮影して前記視差画像を生成する撮影部と
を備える撮像装置。
An image processing apparatus according to any one of claims 1 to 5,
A plurality of two-dimensionally arranged photoelectric conversion elements that photoelectrically convert incident light into an electrical signal, and light from a partial region in a cross-sectional area of the incident light, respectively, to the corresponding plurality of photoelectric conversion elements An imaging apparatus comprising: a light-shielding unit provided with an opening for incidence, and a photographing unit that photographs the target and generates the parallax image.
JP2013141667A 2013-07-05 2013-07-05 Image processing apparatus and imaging apparatus Active JP6255753B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013141667A JP6255753B2 (en) 2013-07-05 2013-07-05 Image processing apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013141667A JP6255753B2 (en) 2013-07-05 2013-07-05 Image processing apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2015015629A true JP2015015629A (en) 2015-01-22
JP6255753B2 JP6255753B2 (en) 2018-01-10

Family

ID=52437062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013141667A Active JP6255753B2 (en) 2013-07-05 2013-07-05 Image processing apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6255753B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167310A (en) * 2003-11-28 2005-06-23 Sharp Corp Photographing apparatus
WO2012001958A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image processing device, method and program
WO2012002354A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image processing device, imaging device and image processing method
WO2012032826A1 (en) * 2010-09-10 2012-03-15 富士フイルム株式会社 Three-dimensional imaging device and three-dimensional imaging method
JP2012090259A (en) * 2010-09-21 2012-05-10 Panasonic Corp Imaging apparatus
JP2013041103A (en) * 2011-08-15 2013-02-28 Canon Inc Image pickup apparatus, control method thereof, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167310A (en) * 2003-11-28 2005-06-23 Sharp Corp Photographing apparatus
WO2012001958A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image processing device, method and program
WO2012002354A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image processing device, imaging device and image processing method
WO2012032826A1 (en) * 2010-09-10 2012-03-15 富士フイルム株式会社 Three-dimensional imaging device and three-dimensional imaging method
JP2012090259A (en) * 2010-09-21 2012-05-10 Panasonic Corp Imaging apparatus
JP2013041103A (en) * 2011-08-15 2013-02-28 Canon Inc Image pickup apparatus, control method thereof, and program

Also Published As

Publication number Publication date
JP6255753B2 (en) 2018-01-10

Similar Documents

Publication Publication Date Title
JP5699609B2 (en) Image processing apparatus and image processing method
JP5982751B2 (en) Image processing apparatus, image processing method, and program
JP5515396B2 (en) Imaging device
US8593509B2 (en) Three-dimensional imaging device and viewpoint image restoration method
JP5469258B2 (en) Imaging apparatus and imaging method
CN107431755B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6036840B2 (en) Imaging apparatus, image processing apparatus, control program for imaging apparatus, and control program for image processing apparatus
JP2012191351A (en) Image pickup apparatus and image processing method
JP2016213819A (en) Image processing device, imaging device, image processing method, program, and storage medium
JP5348258B2 (en) Imaging device
JP2014026051A (en) Image capturing device and image processing device
JP2014036362A (en) Imaging device, control method therefor, and control program
JP2014215436A (en) Image-capturing device, and control method and control program therefor
JP6255753B2 (en) Image processing apparatus and imaging apparatus
JP2012124650A (en) Imaging apparatus, and imaging method
JP2017032978A (en) Control device, imaging device, control method, program, and storage medium
JP6331279B2 (en) Imaging apparatus, imaging method, and program
JP2014107594A (en) Image pick-up device and imaging apparatus
JP6070060B2 (en) Imaging apparatus and program
JP6476630B2 (en) Imaging device
JP2014085608A (en) Imaging device
WO2015163350A1 (en) Image processing device, imaging device and image processing program
JP6070061B2 (en) Image processing apparatus, photographing apparatus, image processing method, and program
JP6817855B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP2018019348A (en) Imaging device, image processing method, image processing system, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R150 Certificate of patent or registration of utility model

Ref document number: 6255753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250