JP5900017B2 - Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program - Google Patents
Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program Download PDFInfo
- Publication number
- JP5900017B2 JP5900017B2 JP2012042573A JP2012042573A JP5900017B2 JP 5900017 B2 JP5900017 B2 JP 5900017B2 JP 2012042573 A JP2012042573 A JP 2012042573A JP 2012042573 A JP2012042573 A JP 2012042573A JP 5900017 B2 JP5900017 B2 JP 5900017B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- depth
- sub
- reconstructed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 117
- 230000002093 peripheral effect Effects 0.000 claims description 88
- 238000000605 extraction Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 239000000470 constituent Substances 0.000 claims 1
- 238000003702 image correction Methods 0.000 claims 1
- MYWUZJCMWCOHBA-VIFPVBQESA-N methamphetamine Chemical compound CN[C@@H](C)CC1=CC=CC=C1 MYWUZJCMWCOHBA-VIFPVBQESA-N 0.000 claims 1
- 238000012545 processing Methods 0.000 description 65
- 238000003384 imaging method Methods 0.000 description 52
- 238000004364 calculation method Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 24
- 230000010365 information processing Effects 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 19
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000010354 integration Effects 0.000 description 7
- PENWAFASUFITRC-UHFFFAOYSA-N 2-(4-chlorophenyl)imidazo[2,1-a]isoquinoline Chemical compound C1=CC(Cl)=CC=C1C1=CN(C=CC=2C3=CC=CC=2)C3=N1 PENWAFASUFITRC-UHFFFAOYSA-N 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000013403 standard screening design Methods 0.000 description 6
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラムに関する。 The present invention relates to a depth estimation device, a reconstructed image generation device, a depth estimation method, a reconstructed image generation method, and a program.
被写体を撮影して被写体の奥行きを推定する技術が知られている。例えば、特許文献1に記載の技術では、姿勢およびレンズの状態を計測するセンサを取り付けたカメラを用いて複数枚の画像を撮影し、複数枚の画像からセンサが取得したパラメータを用いて奥行きを推定する。このとき、センサによりカメラの水平移動量、パン角度、チルト角度、ロール角度、ズーム比およびフォーカス量を計測する必要がある。 A technique for photographing a subject and estimating the depth of the subject is known. For example, in the technique described in Patent Document 1, a plurality of images are captured using a camera equipped with a sensor that measures the posture and the lens state, and the depth is obtained using parameters acquired by the sensor from the plurality of images. presume. At this time, it is necessary to measure the horizontal movement amount, pan angle, tilt angle, roll angle, zoom ratio, and focus amount of the camera by the sensor.
また、異なる視点から撮影した被写体の画像を取得することにより、被写体からカメラのレンズに侵入する光線の位置、方向、光量に係る情報を取得する技術が知られている。このような技術に関連して、特許文献2は被写体を撮影した複数の画像(ライトフィールド画像)を取得して、該複数の画像から焦点距離・被写界深度等を変化させた被写体の画像を再構成する技術を開示している。 In addition, there is known a technique for acquiring information related to the position, direction, and amount of light entering a lens of a camera from a subject by acquiring images of the subject taken from different viewpoints. In relation to such a technique, Patent Document 2 acquires a plurality of images (light field images) obtained by photographing a subject, and images of the subject in which focal length, depth of field, and the like are changed from the plurality of images. Is disclosed.
特許文献1に記載の技術を用いて被写体の奥行きを推定するためには、カメラの移動量、パン角度、チルト角度、ロール角度、を計測する物理センサを備えた特別なカメラを必要とする。
一方、ライトフィールド画像を取得するためには特別な物理センサを必要としない。そのため、ライトフィールド画像から奥行きを推定できれば、特別な物理センサを用いずに被写体の奥行きを推定する事が出来る。ライトフィールド画像から被写体の奥行きを推定できれば、推定結果を再構成画像のノイズ除去等に利用することができるが、特許文献2はライトフィールド画像から再構成した画像の奥行きを示す画像を生成する方法を開示していない。
In order to estimate the depth of a subject using the technique described in Patent Document 1, a special camera including a physical sensor that measures the movement amount, pan angle, tilt angle, and roll angle of the camera is required.
On the other hand, no special physical sensor is required to acquire the light field image. Therefore, if the depth can be estimated from the light field image, the depth of the subject can be estimated without using a special physical sensor. If the depth of the subject can be estimated from the light field image, the estimation result can be used for noise removal of the reconstructed image. Patent Document 2 discloses a method for generating an image indicating the depth of the reconstructed image from the light field image. Is not disclosed.
本発明は上記事情に鑑みてなされたもので、被写体を撮影した複数の画像から被写体の奥行きを推定できる奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラムを提供することを目的とする。また、本発明は被写体を撮影した複数の画像から再構成した画像の奥行きを推定し、推定結果を用いて画質の高い再構成画像を生成できる再構成画像生成装置、再構成画像生成方法及びプログラムを提供することを他の目的とする。 The present invention has been made in view of the above circumstances, and provides a depth estimation device, a reconstructed image generation device, a depth estimation method, a reconstructed image generation method, and a program capable of estimating the depth of a subject from a plurality of images obtained by photographing the subject. The purpose is to do. The present invention also provides a reconstructed image generating apparatus, a reconstructed image generating method, and a program capable of estimating the depth of an image reconstructed from a plurality of images obtained by photographing a subject and generating a reconstructed image with high image quality using the estimation result. For other purposes.
上記目的を達成するため、本発明に係る奥行き推定装置の一様態は、
複数のサブイメージから構成されるライトフィールド画像から被写体の奥行きを推定する奥行き推定装置であって、
前記ライトフィールド画像の前記サブイメージ上に、前記被写体に対応する画素領域を定義する画素領域定義手段と、
前記画素領域定義手段によって定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定する奥行き推定手段と、
前記ライトフィールド画像から前記被写体の像を再構成した再構成画像と前記再構成画像の画素である再構成画素とを定義する再構成画像定義手段と、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記画素領域に含まれるサブ画素の奥行き係数を求める奥行き係数獲得手段と、
を備え、
前記奥行き推定手段は、前記奥行き係数獲得手段が求めた各前記サブ画素の奥行き係数に基づいて、前記再構成画像の前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする。
In order to achieve the above object, an aspect of the depth estimation apparatus according to the present invention is as follows.
A depth estimation device that estimates the depth of a subject from a light field image composed of a plurality of sub-images,
On the sub-image of the light field image, a pixel region defining means for defining a pixel area corresponding to the object,
And position on the target sub-image comprising a pixel area defined by the pixel area defining means, a position of the corresponding region corresponding to the picture element region on the peripheral sub-images arranged in the periphery of the target sub-images, the Depth estimation means for estimating the depth of the subject based on a positional shift;
Reconstructed image defining means for defining a reconstructed image obtained by reconstructing the image of the subject from the light field image and a reconstructed pixel that is a pixel of the reconstructed image;
Depth coefficient acquisition for obtaining a depth coefficient of a sub-pixel included in the pixel area based on a positional shift between the position of the pixel area on the target sub-image and the position of the corresponding area on the peripheral sub-image Means,
Bei to give a,
The depth estimation means estimates the depth of the subject by determining the depth coefficient of the reconstructed pixel of the reconstructed image based on the depth coefficient of each subpixel obtained by the depth coefficient acquisition means.
It is characterized by that.
また、上記目的を達成するため、本発明に係る再構成画像生成装置の一様態は、
複数のサブイメージから構成されるライトフィールド画像から、所定の再構成距離に合焦した再構成画像を生成する再構成画像生成装置であって、
前記ライトフィールド画像の前記サブイメージ上に、被写体に対応する画素領域を定義する画素領域定義手段と、前記画素領域定義手段によって定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定する奥行き推定手段と、を有する奥行き推定装置と、
前記奥行き推定装置によって推定された前記被写体の奥行きと前記再構成距離との距離の差に基づき、前記再構成画像を構成する再構成画素の画素値を補正する再構成画像補正手段と、
を備える、
ことを特徴とする。
また、上記目的を達成するため、本発明に係る奥行き推定方法の一様態は、
複数のサブイメージから構成されるライトフィールド画像から被写体の奥行きを推定する奥行き推定方法であって、
前記ライトフィールド画像のサブイメージ上に、前記被写体に対応する画素領域を定義するステップと、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定するステップと、
前記ライトフィールド画像から前記被写体の像を再構成した再構成画像と前記再構成画像の画素である再構成画素とを定義するステップと、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記画素領域に含まれるサブ画素の奥行き係数を求めるステップと、
を含み、
前記奥行きを推定するステップでは、前記奥行き係数を求めるステップで求めた各前記サブ画素の奥行き係数に基づいて、前記再構成画像の前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする。
また、上記目的を達成するため、本発明に係る再構成画像生成方法の一様態は、
複数のサブイメージから構成されるライトフィールド画像から、所定の再構成距離に合焦した再構成画像を生成する再構成画像生成方法であって、
前記ライトフィールド画像の前記サブイメージ上に、奥行きを推定する対象となる被写体に対応する画素領域を定義するステップと、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、画素領域を構成する各画素について前記被写体の奥行き係数を求めるステップと、
前記再構成画像を構成する再構成画素に対応する前記ライトフィールド画像上の対応画素を抽出するステップと、
求めた前記奥行き係数に基づいて、前記対応画素と対応する前記再構成画素の奥行き係数を設定するステップと、
前記再構成画素の奥行き係数が示す被写体までの距離と前記再構成距離との距離の差に基づき、前記再構成画素の画素値を補正するステップと、
前記再構成画素の前記補正後の画素値を用いて再構成画像を生成するステップと、
を含む、
ことを特徴とする。
また、上記目的を達成するため、本発明に係るプログラムの一様態は、
複数のサブイメージから構成されるライトフィールド画像から被写体の奥行きを推定するため、コンピュータに、
前記ライトフィールド画像のサブイメージ上に、前記被写体に対応する画素領域を定義する機能、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定する機能、
前記ライトフィールド画像から前記被写体の像を再構成した再構成画像と前記再構成画像の画素である再構成画素とを定義する機能、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記画素領域に含まれるサブ画素の奥行き係数を求める機能、
を実現させ、
前記奥行きを推定する機能では、前記奥行き係数を求める機能で求めた各前記サブ画素の奥行き係数に基づいて、前記再構成画像の前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする。
また、上記目的を達成するため、本発明に係るプログラムの一様態は、
複数のサブイメージから構成されるライトフィールド画像から、所定の再構成距離に合焦した再構成画像を生成するため、コンピュータに、
前記ライトフィールド画像のサブイメージ上に、奥行きを推定する対象となる被写体に対応する画素領域を定義する機能、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、画素領域を構成する各画素について前記被写体の奥行き係数を求める機能、
前記再構成画像を構成する再構成画素に対応する前記ライトフィールド画像上の対応画素を抽出する機能、
求めた奥行き係数に基づいて、前記対応画素と対応する前記再構成画素の奥行き係数を設定する機能、
前記再構成画素の奥行き係数が示す前記被写体までの距離と前記再構成距離との距離の差に基づき、前記再構成画素の画素値を補正する機能、
前記再構成画素の補正後の画素値を用いて再構成画像を生成する機能、
を実現させる、
ことを特徴とする。
In order to achieve the above object, one aspect of the reconstructed image generating apparatus according to the onset Ming,
A reconstructed image generating device that generates a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images ,
A pixel area defining means for defining a pixel area corresponding to a subject on the sub-image of the light field image; a position on the target sub-image including the pixel area defined by the pixel area defining means; A depth estimation device comprising: a depth estimation unit configured to estimate the depth of the subject based on a position shift of a corresponding area corresponding to a pixel area on a peripheral sub-image disposed around the image; and
Based on the difference in distance between the depth and the reconstruction distance of the object estimated by the depth estimation apparatus, a reconstruction image correcting means for correcting the pixel value of the reconstructed pixels constituting the reconstructed image,
Equipped with a,
It is characterized by that.
In order to achieve the above object, an aspect of the depth estimation method according to the present invention is as follows.
A depth estimation method for estimating the depth of a subject from a light field image composed of a plurality of sub-images,
Defining a pixel region corresponding to the subject on a sub-image of the light field image;
Based on the positional shift between the position on the target sub-image including the defined pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image, Estimating the depth of the subject;
Defining a reconstructed image obtained by reconstructing the image of the subject from the light field image and a reconstructed pixel that is a pixel of the reconstructed image;
Obtaining a depth coefficient of a sub-pixel included in the pixel area based on a positional shift between the position of the pixel area on the target sub-image and the position of the corresponding area on the peripheral sub-image;
Including
In the step of estimating the depth, the depth of the subject is determined by determining the depth coefficient of the reconstructed pixel of the reconstructed image based on the depth coefficient of each of the sub-pixels obtained in the step of obtaining the depth coefficient. presume,
It is characterized by that.
In order to achieve the above object, an aspect of the reconstructed image generation method according to the present invention is:
A reconstructed image generation method for generating a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images,
Defining a pixel area corresponding to a subject whose depth is to be estimated on the sub-image of the light field image;
Based on the positional shift between the position on the target sub-image including the defined pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image, Obtaining a depth coefficient of the subject for each pixel constituting a pixel area;
Extracting corresponding pixels on the light field image corresponding to the reconstructed pixels constituting the reconstructed image;
Setting a depth coefficient of the reconstructed pixel corresponding to the corresponding pixel based on the obtained depth coefficient;
Correcting the pixel value of the reconstructed pixel based on the difference between the distance to the subject indicated by the depth coefficient of the reconstructed pixel and the reconstructed distance;
Generating a reconstructed image using the corrected pixel value of the reconstructed pixel;
including,
It is characterized by that.
In order to achieve the above object, an aspect of the program according to the present invention is as follows.
To estimate the depth of a subject from a light field image composed of multiple sub-images,
A function for defining a pixel region corresponding to the subject on the sub-image of the light field image;
Based on the positional shift between the position on the target sub-image including the defined pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image, A function for estimating the depth of the subject;
A function for defining a reconstructed image obtained by reconstructing the image of the subject from the light field image and a reconstructed pixel that is a pixel of the reconstructed image;
A function for obtaining a depth coefficient of a sub-pixel included in the pixel area based on a positional shift between a position of the pixel area on the target sub-image and a position of the corresponding area on the peripheral sub-image;
Realized,
In the function of estimating the depth, the depth of the subject is determined by determining the depth coefficient of the reconstructed pixel of the reconstructed image based on the depth coefficient of each subpixel obtained by the function of obtaining the depth coefficient. presume,
It is characterized by that.
In order to achieve the above object, an aspect of the program according to the present invention is as follows.
In order to generate a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images,
A function for defining a pixel region corresponding to a subject whose depth is to be estimated on a sub-image of the light field image;
Based on the positional shift between the position on the target sub-image including the defined pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image, A function for obtaining a depth coefficient of the subject for each pixel constituting a pixel region;
A function of extracting corresponding pixels on the light field image corresponding to the reconstructed pixels constituting the reconstructed image;
A function of setting a depth coefficient of the reconstructed pixel corresponding to the corresponding pixel based on the obtained depth coefficient;
A function of correcting the pixel value of the reconstructed pixel based on a difference in distance between the distance to the subject indicated by the depth coefficient of the reconstructed pixel and the reconstructed distance;
A function of generating a reconstructed image using the corrected pixel value of the reconstructed pixel;
To realize,
It is characterized by that.
本発明によれば、被写体を撮影した複数の画像から再構成した画像の奥行きを推定することができる。また、推定結果を用いて画質の高い再構成画像を生成することができる。 According to the present invention, it is possible to estimate the depth of an image reconstructed from a plurality of images obtained by photographing a subject. In addition, a reconstructed image with high image quality can be generated using the estimation result.
以下、本発明を実施するための形態に係るデジタルカメラ及び画像生成装置を、図を参照しながら説明する。なお、図中同一又は相当する部分には同一符号を付す。 Hereinafter, a digital camera and an image generation apparatus according to embodiments for carrying out the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.
(実施形態1)
実施形態1に係る画像生成装置30(奥行き推定装置)は、図1に示すデジタルカメラ1に搭載されている。デジタルカメラ1は、被写体を撮影して複数のサブイメージからなるライトフィールド画像を撮影し、このライトフィールド画像から被写体の奥行きを推定し、推定結果を示す再構成した画像(奥行き画像、再構成画像)を生成して表示する機能を備える。画像生成装置30は、このうち複数のサブイメージからなるライトフィールド画像から奥行き画像を生成する機能を担当する。
(Embodiment 1)
The image generation apparatus 30 (depth estimation apparatus) according to the first embodiment is mounted on the digital camera 1 illustrated in FIG. The digital camera 1 shoots a subject to shoot a light field image composed of a plurality of sub-images, estimates the depth of the subject from the light field image, and reconstructs an image (depth image, reconstructed image) indicating the estimation result. ) Is generated and displayed. The image generation device 30 is responsible for a function of generating a depth image from a light field image composed of a plurality of sub-images.
デジタルカメラ1は、図1に示すように、撮像部10と、画像生成装置30を含む情報処理部20と、記憶部40と、インターフェース部(I/F部)50と、から構成される。デジタルカメラ1は、このような構成により、外部からの光線情報を取得して、光線情報を表す画像を表示する。 As shown in FIG. 1, the digital camera 1 includes an imaging unit 10, an information processing unit 20 including an image generation device 30, a storage unit 40, and an interface unit (I / F unit) 50. With such a configuration, the digital camera 1 acquires light ray information from the outside and displays an image representing the light ray information.
撮像部10は、光学装置110と、イメージセンサ120と、から構成され、撮像動作を行う。 The imaging unit 10 includes an optical device 110 and an image sensor 120, and performs an imaging operation.
光学装置110は、図2に示すように、シャッタ111と、メインレンズMLと、サブレンズアレイSLA(マイクロレンズアレイ)と、から構成され、外部からの光線をメインレンズMLによって捉え、サブレンズアレイSLAを構成する各サブレンズSLの光学中心を視点として得られる光学像をイメージセンサ120に投影する。 As shown in FIG. 2, the optical device 110 includes a shutter 111, a main lens ML, and a sub lens array SLA (micro lens array). The optical device 110 captures light rays from the outside by the main lens ML, and the sub lens array. An optical image obtained by using the optical center of each sub lens SL constituting the SLA as a viewpoint is projected onto the image sensor 120.
イメージセンサ120は、光学装置110が投影した光学像を電気信号に変換して情報処理部20に伝達するもので、例えば、CCD(Charge Coupled Device)やCMOS(Complementally Metal Oxide Semiconductor)などの撮像素子と、撮像素子が生成した電気信号を情報処理部20に伝達する伝達部と、から構成される。 The image sensor 120 converts an optical image projected by the optical device 110 into an electrical signal and transmits the electrical signal to the information processing unit 20. For example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). And a transmission unit that transmits an electrical signal generated by the image sensor to the information processing unit 20.
シャッタ111は、イメージセンサ120への外部光の入射と遮蔽を制御する。
メインレンズMLは、一又は複数の凸レンズ、凹レンズ、非球面レンズ等から構成され、撮影時の被写体OBの光を光学像としてメインレンズMLとサブレンズアレイSLAとの間の仮想的な結像面MIP上に結像させる。なお、撮影時の被写体OBは、図2に示すようにメインレンズMLからそれぞれ異なる距離だけ離れた複数の構成物であるとする。本実施形態では、メインレンズMLは単一の焦点距離fMLを持つ単焦点レンズであるとする。
The shutter 111 controls the incidence and shielding of external light on the image sensor 120.
The main lens ML is composed of one or a plurality of convex lenses, concave lenses, aspherical lenses, and the like, and a virtual imaging surface between the main lens ML and the sub lens array SLA using the light of the subject OB at the time of photographing as an optical image. The image is formed on the MIP. Note that the subject OB at the time of shooting is assumed to be a plurality of components that are separated from the main lens ML by different distances as shown in FIG. In the present embodiment, it is assumed that the main lens ML is a single focus lens having a single focal length f ML .
サブレンズアレイSLAは、平面上に格子状に配置されたM×N個のサブレンズ(マイクロレンズ)SLから構成される。サブレンズアレイSLAは、メインレンズMLが結像面MIP上に結像させた光学像を、それぞれのサブレンズSLの光学中心を視点として観測した光学像として、イメージセンサ120を構成するイメージセンサの撮像面IE上に結像する。メインレンズMLが成す平面と撮像面IEが成す平面とから構成される空間をライトフィールドと呼ぶ。 The sub lens array SLA includes M × N sub lenses (micro lenses) SL arranged in a lattice pattern on a plane. The sub-lens array SLA is an image sensor that constitutes the image sensor 120 as an optical image obtained by observing an optical image formed by the main lens ML on the imaging plane MIP with the optical center of each sub-lens SL as a viewpoint. An image is formed on the imaging surface IE. A space formed by a plane formed by the main lens ML and a plane formed by the imaging surface IE is referred to as a light field.
メインレンズMLについて、最大径LDと、有効径EDと、が定義できる。最大径LDは、メインレンズMLの物理的な直径である。一方、有効径EDはメインレンズMLのうち撮影に使用できる領域の直径である。メインレンズMLのうち、有効径EDの外部は、メインレンズMLに貼り付けられた各種フィルタやメインレンズML周辺の物理構造によってメインレンズに入出力する光線が遮られるため、画像を撮影・再構成するために有効でない領域(非有効領域)である。
有効径EDは、上記フィルタ等の物理構造によって光線が遮られる部位を工場出荷時に測定することで定義できる。
For the main lens ML, a maximum diameter LD and an effective diameter ED can be defined. The maximum diameter LD is the physical diameter of the main lens ML. On the other hand, the effective diameter ED is a diameter of a region that can be used for photographing in the main lens ML. Of the main lens ML, the outside of the effective diameter ED captures and reconstructs an image because light beams input to and output from the main lens are blocked by various filters attached to the main lens ML and the physical structure around the main lens ML. This is an area that is not effective for the purpose (non-effective area).
The effective diameter ED can be defined by measuring a part where light rays are blocked by the physical structure such as the filter at the time of shipment from the factory.
図2の例では、被写体OBのある部分POBからの光線がメインレンズMLの有効径EDをなす部分(有効部)を通過し、複数のサブレンズSL上に投影されている。このように、被写体OBの部分POBから発された光が、メインレンズMLの有効部を通過してサブレンズアレイSLA上に投影される領域を、部分POBのメインレンズブラーMLBと呼ぶ。このうち、主光線が到達する部位をメインレンズブラー中心MLBCと呼ぶ。 In the example of FIG. 2, the light beam from the portion POB where the subject OB is present passes through the portion (effective portion) forming the effective diameter ED of the main lens ML and is projected onto the plurality of sub lenses SL. In this way, an area in which light emitted from the portion POB of the subject OB passes through the effective portion of the main lens ML and is projected onto the sub lens array SLA is referred to as a main lens blur MLB of the portion POB. Among these, the part where the chief ray reaches is called the main lens blur center MLBC.
メインレンズMLの光学中心からメインレンズの結像面MIPまでの距離をb1、結像面MIPからサブレンズアレイSLAがなす面までの距離をa2、サブレンズアレイSLAからイメージセンサの撮像面IEの距離をc2とする。 The distance from the optical center of the main lens ML to the imaging plane MIP of the main lens is b1, the distance from the imaging plane MIP to the plane formed by the sub lens array SLA is a2, and the imaging plane IE of the image sensor from the sub lens array SLA. Let c2 be the distance.
撮像部10は、上記構成により、ライトフィールドを通過する全ての光線の情報を含んだライトフィールド画像(LFI)を撮影する。
ブロック状の被写体OBを撮影したLFIの一例を図3(a)に示す。
このLFIは、格子状に配置されたM×N個のサブレンズSL(マイクロレンズ)のそれぞれに対応する画像(サブイメージSI、S11〜SMN)から構成されている。例えば、左上のサブイメージS11は、被写体OBを左上から撮影した画像に相当し、右下のサブイメージSMNは被写体OBを右下から撮影した画像に相当する。
With the above-described configuration, the imaging unit 10 captures a light field image (LFI) including information on all light rays that pass through the light field.
FIG. 3A shows an example of the LFI obtained by shooting the block-shaped subject OB.
This LFI is composed of images (sub-images SI, S 11 to S MN ) corresponding to each of M × N sub-lenses SL (microlenses) arranged in a lattice pattern. For example, the upper left subimage S 11 corresponds to an image obtained by photographing the object OB from the upper left, the sub-image S MN the lower right corresponds to an image obtained by photographing the object OB from the lower right.
各サブイメージは、サブイメージを結像させたサブレンズの位置に対応したLFI上の位置に配置されている。
第i行のサブイメージ(横の一列のサブイメージ)Si1〜SiNは、メインレンズMLが結像した像を、サブレンズアレイSLAの第i行の横に並んだサブレンズSLで結像したステレオ画像に相当する。同様に、第j列のサブイメージ(縦の一列のサブイメージ)S1j〜SMjは、メインレンズMLが結像した像を、サブレンズアレイSLA(マイクロレンズアレイ)の第j列の縦に並んだサブレンズSLで撮影したステレオ画像に相当する。
Each sub image is arranged at a position on the LFI corresponding to the position of the sub lens on which the sub image is formed.
The i-th row sub-images (horizontal row sub-images) Si1 to SiN are stereo images in which the image formed by the main lens ML is formed by the sub-lens SL arranged side by side in the i-th row of the sub-lens array SLA. Corresponds to an image. Similarly, in the j-th row sub-images (vertical one-row sub-images) S1j to SMj, the images formed by the main lenses ML are arranged vertically in the j-th column of the sub-lens array SLA (microlens array). This corresponds to a stereo image taken with the sub lens SL.
本実施形態のデジタルカメラ1は、図4(b)に示すように、LFIから本画像として被写体を再構成した場合の各被写体の奥行きを推定し、推定結果を示す画像(奥行き画像DI)を生成する。奥行き画像DIの各画素は、その画素の被写体の推定された奥行きが深い(その被写体がメインレンズMLから遠い)場所には黒に近く、近いほど白に近く設定される。
なお、本実施形態では各サブイメージはグレースケール画像であり、サブイメージを構成する各画素は画素値(スカラー値)を持つ。
As shown in FIG. 4B, the digital camera 1 of the present embodiment estimates the depth of each subject when the subject is reconstructed as a main image from the LFI, and displays an image (depth image DI) indicating the estimation result. Generate. Each pixel of the depth image DI is set to be closer to black at a place where the estimated depth of the subject of the pixel is deep (the subject is far from the main lens ML), and closer to white as it is closer.
In the present embodiment, each sub image is a gray scale image, and each pixel constituting the sub image has a pixel value (scalar value).
図1に示す情報処理部20は、物理的にはCPU(Central Processing Unit)と、RAM(Random Access Memory)と、内部バスと、I/Oポートと、から構成され、画像処理部210、画像生成装置30、撮像制御部220、として機能する。 The information processing unit 20 shown in FIG. 1 is physically composed of a CPU (Central Processing Unit), a RAM (Random Access Memory), an internal bus, and an I / O port. It functions as the generation device 30 and the imaging control unit 220.
画像処理部210は、イメージセンサ120から電気信号を取得し、取得した電気信号を記憶部40の撮像設定記憶部410が記憶する撮像設定情報に基づいて画像データに変換する。画像処理部210は、画像データと、撮像設定情報に所定の情報を加えた撮影設定情報と、を画像生成装置30に伝達する。 The image processing unit 210 acquires an electrical signal from the image sensor 120 and converts the acquired electrical signal into image data based on imaging setting information stored in the imaging setting storage unit 410 of the storage unit 40. The image processing unit 210 transmits the image data and shooting setting information obtained by adding predetermined information to the shooting setting information to the image generation device 30.
撮像設定記憶部410が記憶する撮像設定情報については後述する。 The imaging setting information stored in the imaging setting storage unit 410 will be described later.
画像生成装置30は、画像処理部210から伝達されたLFIを用いて出力画像(奥行き画像)を生成する。画像生成装置30が奥行き画像を生成する処理については後述する。
画像生成装置30は、生成した出力画像を記憶部40の画像記憶部430に記憶する。
The image generation device 30 generates an output image (depth image) using the LFI transmitted from the image processing unit 210. Processing for generating a depth image by the image generation device 30 will be described later.
The image generation device 30 stores the generated output image in the image storage unit 430 of the storage unit 40.
撮像制御部220は、記憶部40の撮像設定記憶部410に記憶された撮像設定情報に基づいて撮像部10を制御し、撮像部10を用いて被写体OBを撮影する。 The imaging control unit 220 controls the imaging unit 10 based on the imaging setting information stored in the imaging setting storage unit 410 of the storage unit 40 and images the subject OB using the imaging unit 10.
記憶部40は、RAM等から構成される主記憶装置と、フラッシュメモリ、ハードディスク、等の不揮発性メモリから構成される外部記憶装置と、から構成される。
主記憶装置は外部記憶装置に記憶されている制御プログラムや情報をロードし、情報処理部20の作業領域として用いられる。
外部記憶装置は、後述する処理を情報処理部20に行わせるための制御プログラムと情報とをあらかじめ記憶し、これらの制御プログラムや情報を情報処理部20の指示に従って主記憶装置に伝達する。また、情報処理部20の指示に従って、情報処理部20の処理に基づく情報とインターフェース部50から伝達された情報とを記憶する。
The storage unit 40 includes a main storage device including a RAM and the like, and an external storage device including a nonvolatile memory such as a flash memory and a hard disk.
The main storage device loads control programs and information stored in the external storage device and is used as a work area of the information processing unit 20.
The external storage device stores in advance a control program and information for causing the information processing unit 20 to perform processing to be described later, and transmits these control program and information to the main storage device in accordance with instructions from the information processing unit 20. Further, in accordance with an instruction from the information processing unit 20, information based on the processing of the information processing unit 20 and information transmitted from the interface unit 50 are stored.
記憶部40は、機能的には、撮像設定記憶部410と、再構成設定記憶部420と、画像記憶部430と、から構成される。 Functionally, the storage unit 40 includes an imaging setting storage unit 410, a reconstruction setting storage unit 420, and an image storage unit 430.
撮像設定記憶部410は、撮像設定情報を記憶する。撮像設定情報は、撮像時に変化しうる撮像パラメータとしてメインレンズMLとサブレンズアレイSLAとの距離、メインレンズの焦点距離fML、露光時間を特定する情報、F値、シャッタ速度、等を含む。また、撮像設定記憶部410は、各サブレンズSLのサブレンズアレイSLA上の位置、サブレンズアレイSLAと撮像面IEとの距離c2等のデジタルカメラ1の物理構成に係る情報を記憶している。
撮像設定記憶部410は、撮像パラメータを撮像制御部220に伝達する。
また、撮像設定記憶部410は、撮像部10の撮像設定情報に物理構成に関する情報を付加して、撮影設定情報として画像処理部210に伝達する。
The imaging setting storage unit 410 stores imaging setting information. The imaging setting information includes a distance between the main lens ML and the sub lens array SLA, a focal length f ML of the main lens, information for specifying an exposure time, an F value, a shutter speed, and the like as imaging parameters that can change during imaging. In addition, the imaging setting storage unit 410 stores information on the physical configuration of the digital camera 1 such as the position of each sub lens SL on the sub lens array SLA, the distance c2 between the sub lens array SLA and the imaging surface IE, and the like. .
The imaging setting storage unit 410 transmits imaging parameters to the imaging control unit 220.
Further, the imaging setting storage unit 410 adds information related to the physical configuration to the imaging setting information of the imaging unit 10 and transmits the information to the image processing unit 210 as imaging setting information.
再構成設定記憶部420は、初期出荷時に記憶された、あるいは操作部530を用いてユーザが入力した、LFIから再構成して画像を生成するための設定パラメータを記憶している。
再構成設定情報は、再構成処理の具体的内容を示す情報と再構成パラメータとから構成される。ここでは、LFIから奥行き画像を生成する旨の情報と、新たな画像のフォーカス点とメインレンズMLとの距離を特定する情報と、を含む。
The reconstruction setting storage unit 420 stores setting parameters for generating an image by reconstructing from the LFI, which is stored at the time of initial shipment or input by the user using the operation unit 530.
The reconfiguration setting information includes information indicating the specific contents of the reconfiguration process and reconfiguration parameters. Here, it includes information for generating a depth image from the LFI, and information for specifying the distance between the focus point of the new image and the main lens ML.
画像記憶部430は、画像生成装置30が生成した出力画像を記憶する。画像記憶部430は、インターフェース部50のI/O部510と表示部520とに、記憶した画像を伝達する。 The image storage unit 430 stores the output image generated by the image generation device 30. The image storage unit 430 transmits the stored image to the I / O unit 510 and the display unit 520 of the interface unit 50.
インターフェース部(図ではI/F部と記述する)50は、デジタルカメラ1とその使用者(ユーザ)あるいは外部装置とのインターフェースに係る構成であり、I/O部510と、表示部520と、操作部530と、から構成される。 An interface unit (described as I / F unit in the figure) 50 is a configuration relating to an interface between the digital camera 1 and its user (user) or an external device, and includes an I / O unit 510, a display unit 520, And an operation unit 530.
I/O部(Input/Output部)510は、物理的にはUSB(Universal Serial Bus)コネクタやビデオ出力端子と、入出力制御部と、から構成される。I/O部510は記憶部40に記憶された情報を外部のコンピュータに出力し、外部から伝達された情報を記憶部40に伝達する。 The I / O unit (Input / Output unit) 510 is physically composed of a USB (Universal Serial Bus) connector, a video output terminal, and an input / output control unit. The I / O unit 510 outputs the information stored in the storage unit 40 to an external computer, and transmits the information transmitted from the outside to the storage unit 40.
表示部520は、液晶表示装置や有機EL(Electro Luminescence)ディスプレイ等から構成され、撮像設定記憶部410に記憶される撮像パラメータを入力するための画面や、デジタルカメラ1を操作するための画面を表示する。また、表示部520は、画像記憶部430に記憶された画像を表示する。 The display unit 520 includes a liquid crystal display device, an organic EL (Electro Luminescence) display, and the like, and has a screen for inputting imaging parameters stored in the imaging setting storage unit 410 and a screen for operating the digital camera 1. indicate. Further, the display unit 520 displays the image stored in the image storage unit 430.
操作部530は、例えばデジタルカメラ1に備えられた各種ボタンや表示部520に備えられたタッチパネルと、各種ボタンやタッチパネルに行われた操作の情報を検出して記憶部40と情報処理部20とに伝達する伝達部を含み、ユーザ操作の情報を記憶部40や情報処理部20に伝達する。 The operation unit 530 detects, for example, various buttons provided in the digital camera 1 and a touch panel provided in the display unit 520, information on operations performed on the various buttons and the touch panel, and the storage unit 40, the information processing unit 20, and the like. The information on the user operation is transmitted to the storage unit 40 and the information processing unit 20.
デジタルカメラ1は、図3(b)に示すように、LFIを撮影し、LFIから再構成した奥行き画像DIを生成して出力する。 As shown in FIG. 3B, the digital camera 1 captures an LFI, generates a depth image DI reconstructed from the LFI, and outputs it.
次に、画像生成装置30の構成について、図4を参照して説明する。
画像生成装置30は、図4(a)に示すように情報処理部31aと、主記憶部32と、外部記憶部33と、入出力部36と、内部バス37と、から構成される。
Next, the configuration of the image generation device 30 will be described with reference to FIG.
As shown in FIG. 4A, the image generation device 30 includes an information processing unit 31a, a main storage unit 32, an external storage unit 33, an input / output unit 36, and an internal bus 37.
情報処理部31aは、CPUと、RAMと、から構成される。 The information processing unit 31a includes a CPU and a RAM.
主記憶部32は、記憶部40の主記憶装置と同様の物理構成を持つ。外部記憶部33は、記憶部40の外部記憶装置と同様の物理構成を持ち、プログラム38を記憶している。入出力部36は、I/O部510と同様の物理構成を持つ。内部バス37は、情報処理部31aと、主記憶部32と、外部記憶部33と、入出力部36と、を接続する。 The main storage unit 32 has the same physical configuration as the main storage device of the storage unit 40. The external storage unit 33 has the same physical configuration as the external storage device of the storage unit 40 and stores a program 38. The input / output unit 36 has the same physical configuration as the I / O unit 510. The internal bus 37 connects the information processing unit 31a, the main storage unit 32, the external storage unit 33, and the input / output unit 36.
情報処理部31aと、主記憶部32と、外部記憶部33と、入出力部36と、内部バス37と、はデジタルカメラ1の情報処理部20の内部回路と、記憶部40と、インターフェース部50と、によって実現される機能ブロックであってもよい。 The information processing unit 31a, the main storage unit 32, the external storage unit 33, the input / output unit 36, and the internal bus 37 are the internal circuit of the information processing unit 20 of the digital camera 1, the storage unit 40, and the interface unit. 50 may be a functional block realized by.
画像生成装置30は、外部記憶部33に記憶されたプログラム38及びデータを主記憶部32にコピーして、情報処理部31aが、主記憶部32を使用してプログラム38を実行することにより、後述する画像を生成して出力するための処理を実行する。 The image generation device 30 copies the program 38 and data stored in the external storage unit 33 to the main storage unit 32, and the information processing unit 31 a executes the program 38 using the main storage unit 32. Processing for generating and outputting an image to be described later is executed.
画像生成装置30は、上記のような物理構成により、図4(b)に示すように、入力部310と、奥行き推定部320と、奥行き画像生成部330と、として機能する。 The image generation device 30 functions as an input unit 310, a depth estimation unit 320, and a depth image generation unit 330, as shown in FIG.
入力部310は、画像処理部210から、LFIを取得するLFI取得部3110と、そのLFIを取得したときの撮影設定情報を取得する撮影設定取得部3130と、LFIから出力画像(奥行き画像)を生成するにあたって用いるパラメータを含む再構成設定を取得する再構成設定取得部3120と、から構成される。
撮影設定情報は、撮像設定情報に含まれる撮像パラメータ(メインレンズMLとサブレンズアレイSLAとの距離、メインレンズの焦点距離fML、露光時間を特定する情報、F値、シャッタ速度)に加え、既存値としてメインレンズの有効径EDと、サブレンズアレイSLAを構成する各サブレンズSLの位置情報と、サブレンズアレイSLAとイメージセンサ120の撮像面IEとの距離とを含む。また、メインレンズMLからサブレンズアレイSLAまでの距離c1、サブレンズアレイSLAから撮像素子の表面(撮像面IE)までの距離c2、各サブレンズの径、各撮像素子のサブレンズに対する相対位置、等の情報を含む。
The input unit 310 receives an LFI acquisition unit 3110 that acquires an LFI from the image processing unit 210, a shooting setting acquisition unit 3130 that acquires shooting setting information when the LFI is acquired, and an output image (depth image) from the LFI. A reconstruction setting acquisition unit 3120 that acquires a reconstruction setting including parameters used for generation.
In addition to the imaging parameters (the distance between the main lens ML and the sub-lens array SLA, the focal length f ML of the main lens, the information specifying the exposure time, the F value, and the shutter speed), the shooting setting information includes: The existing values include the effective diameter ED of the main lens, the position information of each sub lens SL constituting the sub lens array SLA, and the distance between the sub lens array SLA and the imaging surface IE of the image sensor 120. Further, a distance c1 from the main lens ML to the sub lens array SLA, a distance c2 from the sub lens array SLA to the surface of the image sensor (imaging surface IE), a diameter of each sub lens, a relative position of each image sensor to the sub lens, Information.
再構成設定取得部3120は、再構成設定記憶部420が記憶する画像を再構成するための再構成設定情報を記憶する。再構成設定情報は、再構成処理の具体的内容を示す情報と、下記する画像生成処理のために必要な情報(再構成パラメータ、奥行きテーブル、閾値を示す情報)が含まれる。再構成パラメータは新たな画像のフォーカス点とメインレンズMLとの距離(再構成距離、距離a1)を特定する情報と、を含む。
本実施形態では、LFIから再構成設定が示す再構成面上に奥行き画像を生成する場合について説明する。このとき、再構成設定情報は奥行き画像を生成する旨の情報を含む。
The reconstruction setting acquisition unit 3120 stores reconstruction setting information for reconstructing the image stored in the reconstruction setting storage unit 420. The reconstruction setting information includes information indicating specific contents of the reconstruction process and information necessary for the image generation process described below (information indicating a reconstruction parameter, a depth table, and a threshold value). The reconstruction parameter includes information for specifying the distance (reconstruction distance, distance a1) between the focus point of the new image and the main lens ML.
In this embodiment, a case where a depth image is generated on the reconstruction plane indicated by the reconstruction setting from the LFI will be described. At this time, the reconstruction setting information includes information for generating a depth image.
奥行き推定部320と奥行き画像生成部330は、再構成設定取得部3120が取得した再構成設定に合致する出力画像(奥行き画像)を、再構成設定と、LFI取得部3110が取得したLFIと、撮影設定取得部3130が取得した撮影設定情報と、を用いて生成する。
このなかで、奥行き推定部320はサブイメージを構成する各画素(サブ画素)について、画素に対応する被写体の奥行きを推定し、推定結果を表すライトフィールド奥行き画像(LFDI)を生成する。奥行きとは、推定されたメインレンズMLと被写体OBとの距離である。
The depth estimation unit 320 and the depth image generation unit 330 include an output image (depth image) that matches the reconstruction setting acquired by the reconstruction setting acquisition unit 3120, a reconstruction setting, an LFI acquired by the LFI acquisition unit 3110, and It is generated using the shooting setting information acquired by the shooting setting acquisition unit 3130.
Among these, the depth estimation unit 320 estimates the depth of the subject corresponding to each pixel (subpixel) constituting the subimage, and generates a light field depth image (LFDI) representing the estimation result. The depth is the estimated distance between the main lens ML and the subject OB.
奥行き推定部320はこのような処理を実行するために、領域定義部3210と、注目領域選択部3220と、周辺サブイメージ選択部3230と、SSD算出部3240と、奥行き係数投票部3250と、サブ画素奥行き係数選択部3260と、奥行きフィルタ実行部3270と、を含む。 In order to execute such processing, the depth estimation unit 320 performs the region definition unit 3210, the attention region selection unit 3220, the peripheral sub-image selection unit 3230, the SSD calculation unit 3240, the depth coefficient voting unit 3250, A pixel depth coefficient selection unit 3260 and a depth filter execution unit 3270 are included.
領域定義部3210は、各サブイメージを画素値に基づいて同一の被写体に対応すると推定される画素で構成される領域(画素領域)を定義する。画素領域は、一つのサブイメージについて一又は複数定義される。画素領域を定義する処理は、対応する被写体ごとに画像を分割する既知の任意の方法を使用することが出来る。ここでは、後述する処理を用いて画素領域を定義するが、他の例として差分画像を算出して、差分値が閾値より大きい部分に囲まれた部分を画素領域とする、等の処理を採用することも可能である。 The area defining unit 3210 defines an area (pixel area) composed of pixels estimated to correspond to the same subject on the basis of pixel values for each sub-image. One or a plurality of pixel regions are defined for one sub-image. For the process of defining the pixel region, any known method for dividing an image for each corresponding subject can be used. Here, the pixel area is defined using the process described later, but as another example, a difference image is calculated, and a part surrounded by a part where the difference value is larger than the threshold value is used as the pixel area. It is also possible to do.
注目領域選択部3220は、領域定義部3210が定義したサブイメージ上の画素領域を順次注目画素領域として選択する。 The attention area selection unit 3220 sequentially selects pixel areas on the sub-image defined by the area definition unit 3210 as attention pixel areas.
注目領域選択部3220が選択した注目画素領域を含むサブイメージ(注目サブイメージ)について、周辺サブイメージが定義される。周辺サブイメージは、注目サブイメージを中心とする再構成設定が定める所定領域(周辺領域)に含まれる、その他のサブイメージである。
周辺サブイメージ選択部3230は、周辺サブイメージを順次注目周辺イメージとして選択する。
A peripheral sub-image is defined for the sub-image including the target pixel region selected by the target region selection unit 3220 (target sub-image). The peripheral sub-image is another sub-image included in a predetermined area (peripheral area) determined by reconstruction settings centered on the target sub-image.
The peripheral sub-image selection unit 3230 sequentially selects the peripheral sub-images as the target peripheral image.
SSD算出部3240は、注目周辺イメージにおいて、注目画素領域に対応する対応領域の候補である対応候補領域を定義し、対応候補領域を、設定上想定される奥行きに対応する範囲でずらし、各部位における注目画素領域との対応の確かさを示す係数を算出する。ここでは、係数として注目画素領域と対応候補領域との画素値の差の二乗和(SSD)を算出する。具体的な処理方法については後述する。周辺サブイメージ選択部3230からSSD算出部3240は、注目画素領域に定義される周辺サブイメージを順次注目周辺サブイメージとし、全てについて上記処理を実行する。 The SSD calculation unit 3240 defines a corresponding candidate region that is a candidate for the corresponding region corresponding to the target pixel region in the target peripheral image, and shifts the corresponding candidate region within a range corresponding to the assumed depth in the setting, A coefficient indicating the certainty of correspondence with the target pixel region in is calculated. Here, the sum of squares (SSD) of pixel value differences between the target pixel region and the corresponding candidate region is calculated as a coefficient. A specific processing method will be described later. The peripheral sub-image selection unit 3230 to the SSD calculation unit 3240 sequentially set the peripheral sub-images defined in the pixel-of-interest region as the target peripheral sub-image, and execute the above processing for all.
奥行き係数投票部3250は、全ての周辺サブイメージについて算出したSSDを基に、SSDの和(SSSD)が最小となる奥行きを示す係数を求める。そして、求めた係数を注目画素領域及び対応領域に含まれるサブ画素の奥行きを示す情報の候補(候補係数)とする。さらに、候補係数をこれらの画素の奥行きヒストグラム(図9(e))に投票する。奥行きヒストグラムおよび投票処理については後述する。
このとき、この候補係数に対応する領域は、周辺サブイメージにおける注目画素領域に対応すると推定される領域(対応領域)である。そのため、奥行き係数投票部3250が注目画素領域についてSSSDが最小となる奥行き係数を定めることは、注目画素領域の対応領域として、その奥行き係数が示す周辺サブイメージ上の領域を定義することと等しい。言い換えれば、奥行き係数投票部3250は対応領域を定義し、この対応領域の位置のズレを注目画素領域と対応画素領域の画素の奥行きを推定するために奥行きヒストグラムに登録(投票)するものである。
The depth coefficient voting unit 3250 obtains a coefficient indicating a depth that minimizes the sum of SSDs (SSSD) based on the SSDs calculated for all peripheral sub-images. Then, the obtained coefficient is set as a candidate of information (candidate coefficient) indicating the depth of the sub-pixel included in the target pixel area and the corresponding area. Further, the candidate coefficients are voted on the depth histograms (FIG. 9 (e)) of these pixels. The depth histogram and voting process will be described later.
At this time, the region corresponding to the candidate coefficient is a region (corresponding region) that is estimated to correspond to the target pixel region in the peripheral sub-image. Therefore, the depth coefficient voting unit 3250 determining the depth coefficient that minimizes the SSSD for the target pixel area is equivalent to defining the area on the peripheral sub-image indicated by the depth coefficient as the corresponding area of the target pixel area. In other words, the depth coefficient voting unit 3250 defines a corresponding area, and registers (votes) a shift in the position of the corresponding area in the depth histogram in order to estimate the depth of the pixel of the target pixel area and the corresponding pixel area. .
奥行きヒストグラムに奥行き係数を投票する。注目画素領域の全ての周辺サブイメージについて投票処理を終えると、注目領域選択部3220が次の注目画素領域を選択する。そして、注目領域選択部3220から奥行き係数投票部3250が連動して、全ての画素領域について奥行き係数を投票する。 Vote for the depth factor in the depth histogram. When the voting process is completed for all peripheral sub-images of the target pixel area, the target area selection unit 3220 selects the next target pixel area. Then, the attention area selection unit 3220 and the depth coefficient voting unit 3250 work together to vote the depth coefficient for all the pixel areas.
サブ画素奥行き係数選択部3260は、投票結果の奥行きヒストグラムに基づいて、LFIを構成するサブ画像のサブ画素に対応する被写体の奥行きを示す奥行き係数を選択する。選択の結果、LFIの各画素について推定された奥行きを示す奥行き係数が求められる。奥行き係数によって定められた画素値を持つ画像をLFDIと呼ぶ。なお、具体的な選択方法については後述する。 The sub-pixel depth coefficient selection unit 3260 selects a depth coefficient indicating the depth of the subject corresponding to the sub-pixel of the sub-image constituting the LFI based on the depth histogram of the voting result. As a result of the selection, a depth coefficient indicating the estimated depth for each pixel of the LFI is obtained. An image having a pixel value determined by the depth coefficient is called LFDI. A specific selection method will be described later.
奥行きフィルタ実行部3270はサブ画素奥行き係数選択部3260が生成したLFI奥行き画像に後述する画像フィルタ(奥行きフィルタ)を適用する処理を行い、画像のエッジを整える。この奥行きフィルタについては後述する。なお、後述する処理に代えて、画像のエッジを整えノイズを除去する既知の任意の画像フィルタを用いても良い。 The depth filter execution unit 3270 performs processing for applying an image filter (depth filter) described later to the LFI depth image generated by the sub-pixel depth coefficient selection unit 3260, and adjusts the edges of the image. This depth filter will be described later. Instead of the processing described later, any known image filter that adjusts the edge of the image and removes noise may be used.
奥行き画像生成部330は、LFIの奥行き係数から出力画像(奥行き画像)を再構成する。奥行き画像生成部330は、このような処理のためにひな形定義部3310と、注目画素選択部3320と、対応画素抽出部3330と、画素値決定部3340と、を含む。 The depth image generation unit 330 reconstructs an output image (depth image) from the LFI depth coefficient. The depth image generation unit 330 includes a template definition unit 3310, a target pixel selection unit 3320, a corresponding pixel extraction unit 3330, and a pixel value determination unit 3340 for such processing.
ひな形定義部3310は、再構成設定取得部3120が取得した再構成設定に基づいて、奥行き画像の原型(ひな形)をメインレンズMLから距離a1の面(再構成面)に配置する。ここで言うひな形とは、画素値が全て0(あるいは未設定)の画像である。そして、定義した原型を注目画素選択部3320に伝達する。 Based on the reconstruction setting acquired by the reconstruction setting acquisition unit 3120, the model definition unit 3310 arranges the prototype (model) of the depth image on the surface (reconstruction surface) at a distance a1 from the main lens ML. Here, the template is an image having all pixel values of 0 (or not set). Then, the defined prototype is transmitted to the target pixel selection unit 3320.
注目画素選択部3320は、ひな形定義部3310が定義した再構成面上の奥行き画像の画素(奥行き画素、再構成画素)のうち一つを注目画素として選択する。そして、対応画素抽出部3330に、注目画素の情報を伝達する。 The pixel-of-interest selection unit 3320 selects one of the pixels (depth pixel, reconstruction pixel) of the depth image on the reconstruction plane defined by the template definition unit 3310 as the pixel of interest. Then, information on the target pixel is transmitted to the corresponding pixel extraction unit 3330.
対応画素抽出部3330は、注目画素選択部3320が選択した注目画素から光線追跡して、注目画素からの光が届いたLFI上の画素(対応画素)をサブレンズ毎に抽出する。 The corresponding pixel extraction unit 3330 performs ray tracing from the target pixel selected by the target pixel selection unit 3320, and extracts a pixel (corresponding pixel) on the LFI to which light from the target pixel has arrived for each sub lens.
画素値決定部3340は、対応画素の奥行き係数に基づいて注目画素の画素値を決定する。この処理の具体的な内容については後述する。
注目画素選択部3320から画素値決定部3340は奥行き画像に含まれる全ての再構成画素を順次注目画素として画素値を決定し、奥行き画像を生成する。
The pixel value determination unit 3340 determines the pixel value of the target pixel based on the depth coefficient of the corresponding pixel. Specific contents of this processing will be described later.
Pixel value determining unit 3340 from the target pixel selecting section 3320 determines the pixel value as a sequential pixel of interest including Murrell all reconstructed pixels in the depth image to generate a depth image.
出力部340は、奥行き画像生成部330が生成した奥行き画像を画像記憶部430に出力する。 The output unit 340 outputs the depth image generated by the depth image generation unit 330 to the image storage unit 430.
ここで、画像生成装置30が実行するLFIから画像(奥行き画像)を再構成して出力するための処理(画像出力処理)を、図5から図17を参照して説明する。 Here, processing (image output processing) for reconstructing and outputting an image (depth image) from the LFI executed by the image generation device 30 will be described with reference to FIGS. 5 to 17.
ユーザがデジタルカメラ1を用いてLFIを撮影し、画像処理部210がLFIを生成して撮影設定情報と共に画像生成装置30に伝達すると、画像生成装置30は図5に示す画像出力処理を開始する。 When the user shoots an LFI using the digital camera 1 and the image processing unit 210 generates the LFI and transmits it to the image generating apparatus 30 together with the shooting setting information, the image generating apparatus 30 starts the image output process shown in FIG. .
画像出力処理では、まずLFI取得部3110がLFIを取得する(ステップS101)。
そして、再構成設定取得部3120が再構成設定を、撮影設定取得部3130が撮影設定を取得する(ステップS102)。
In the image output process, first, the LFI acquisition unit 3110 acquires the LFI (step S101).
Then, the reconstruction setting acquisition unit 3120 acquires the reconstruction setting, and the imaging setting acquisition unit 3130 acquires the imaging setting (step S102).
そして、領域定義部3210がサブイメージ内で同一の被写体に対応すると想定できる画素領域を一又は複数定義する処理(画素領域定義処理)を実行する(ステップS103)。 Then, the region definition unit 3210 executes processing (pixel region definition processing) for defining one or a plurality of pixel regions that can be assumed to correspond to the same subject in the sub-image (step S103).
領域定義部3210が実行する画素領域定義処理について、図6を参照して説明する。画素領域定義処理の各処理は、領域定義部3210が実行する。
画素領域定義処理では、まずサブイメージから注目サブイメージを選択する(ステップS201)。また、このとき最初の画素領域を定義するラベル(画素領域ラベル)を定義する。
The pixel area definition process executed by the area definition unit 3210 will be described with reference to FIG. Each process of the pixel area definition process is executed by the area definition unit 3210.
In the pixel area definition process, first, a sub image of interest is selected from the sub images (step S201). At this time, a label (pixel area label) that defines the first pixel area is defined.
そして、注目サブイメージのサブ画素のうち、まだどの画素領域に所属しているか決定されていない画素(画素領域ラベルが貼り付けられていない画素、未ラベル画素)である注目画素を選択する(ステップS202)。そして、注目画素に現在の画素領域ラベルを貼り付ける。 Then, from among the sub-pixels of the target sub-image, a target pixel that is a pixel that has not been determined yet to which pixel region (a pixel to which a pixel region label has not been attached, an unlabeled pixel) is selected (step) S202). Then, the current pixel area label is attached to the target pixel.
そして、注目画素を中心とした近傍領域に位置する画素から、未ラベル画素を一つ選択して、近傍画素とする。そして、近傍画素の画素値を取得する(ステップS203)。近傍領域については自由に設定可能であるが、ここでは注目画素に隣接する8画素が形成する領域を近傍領域とする。 Then, one unlabeled pixel is selected from the pixels located in the vicinity region centered on the target pixel, and set as the vicinity pixel. Then, pixel values of neighboring pixels are acquired (step S203). Although the neighborhood region can be freely set, here, a region formed by 8 pixels adjacent to the target pixel is defined as the neighborhood region.
注目画素の画素値と、ステップS203で取得した近傍画素の画素値と、を比較して、画素値の差が閾値以下であるか判別する(ステップS204)。 The pixel value of the target pixel is compared with the pixel values of the neighboring pixels acquired in step S203, and it is determined whether the difference between the pixel values is equal to or less than a threshold value (step S204).
画素値の差が閾値以下であった場合は(ステップS204:YES)、近傍画素と注目画素は同一の被写体に対応するとの推定のもと、近傍画素を現在の画素領域に編入する(ステップS205)。具体的には、近傍画素に現在の画素領域ラベルを貼り付ける。そして、近傍画素を次の注目画素として(ステップS206)、ステップS203から処理を繰り返す。 If the difference between the pixel values is equal to or smaller than the threshold value (step S204: YES), the neighboring pixels are incorporated into the current pixel area on the assumption that the neighboring pixels and the target pixel correspond to the same subject (step S205). ). Specifically, the current pixel area label is pasted on the neighboring pixels. Then, the neighboring pixel is set as the next pixel of interest (step S206), and the process is repeated from step S203.
一方、画素値の差が閾値より大きい場合は(ステップS204:NO)、近傍画素と注目画素は異なる被写体に対応するとの推定ができるので、その近傍画素は現在の画素領域に編入しない。そして、注目画像の近傍領域に、まだステップS204の判別処理を行っていない未ラベル画素があるか判別する(ステップS207)。判別処理を行っていない未ラベル画素がある場合(ステップS207;NO)、近傍領域の次の未ラベル画素についてステップS203から処理を繰り返す。 On the other hand, if the difference is larger than the threshold value the pixel value (step S204: NO), since the target pixel and neighboring pixels may be estimated to correspond to a different object, the neighboring pixels do not transfer to the current pixel region. And it is discriminate | determined whether the unlabeled pixel which has not yet performed the discrimination | determination process of step S204 in the vicinity area | region of an attention image (step S207). If there is an unlabeled pixel that has not been subjected to the discrimination process (step S207; NO), the process is repeated from step S203 for the next unlabeled pixel in the vicinity region.
一方、全ての近傍領域の未ラベル画素について上記処理を実行したと判別すると(ステップS207;YES)、注目画素の近傍には現在の画素領域に属するべき未ラベル画素はないと判断できる。そこで、現在の画素領域に属する画素値の平均値を、その画素領域の代表画素値として定め(ステップS208)、現在の画素領域については処理を終了する。 On the other hand, if it is determined that the above processing has been executed for all unlabeled pixels in the vicinity area (step S207; YES), it can be determined that there is no unlabeled pixel that should belong to the current pixel area in the vicinity of the target pixel. Therefore, the average value of the pixel values belonging to the current pixel area is determined as the representative pixel value of the pixel area (step S208), and the process is terminated for the current pixel area.
次に、注目サブイメージに未処理のサブ画素(未ラベル画素)が残っているか判別する(ステップS209)。
未ラベル画素が残っていると判別すると(ステップS209;NO)、画素領域ラベルを更新して次の画素領域を定義し(ステップS210)、次の画素領域についてステップS202から処理を繰り返す。
Next, it is determined whether or not an unprocessed sub pixel (unlabeled pixel) remains in the target sub image (step S209).
If it is determined that unlabeled pixels remain (step S209; NO), the pixel area label is updated to define the next pixel area (step S210), and the process from step S202 is repeated for the next pixel area.
一方、未ラベル画素が残っていないと判別すると(ステップS209;YES)、注目サブイメージの全てのサブ画素がどの画素領域に属するかラベルされたこととなる。
そこで、現在の領域を統合する処理(領域統合処理)を実行して、同一の被写体に対応すると推測される画素領域を統合する(ステップS211)。
On the other hand, if it is determined that there are no unlabeled pixels remaining (step S209; YES), it is labeled which pixel region all the subpixels of the target subimage belong to.
Therefore, a process of integrating the current area (area integration process) is executed to integrate the pixel areas estimated to correspond to the same subject (step S211).
ステップS211で実行される領域統合処理について図7を参照して説明する。領域統合処理では、現時点の画素領域から注目画素領域を一つ選択する(ステップS301)。 The area integration process executed in step S211 will be described with reference to FIG. In the region integration process, one pixel region of interest is selected from the current pixel region (step S301).
そして、注目画素領域に隣接する画素領域である隣接画素領域をすべて抽出する(ステップS302)。なお、隣接画素領域とは、注目画素領域に属する画素に隣接する画素を含む画素領域である。
そして、抽出した隣接画素領域の代表画素値と、注目画素領域の代表画素値とを比較し、代表画素値どうしの差が閾値以下の隣接画素領域が有るか判別する(ステップS303)。
Then, all adjacent pixel areas that are adjacent to the target pixel area are extracted (step S302). Note that the adjacent pixel region is a pixel region including a pixel adjacent to a pixel belonging to the target pixel region.
Then, the extracted representative pixel value of the adjacent pixel region is compared with the representative pixel value of the target pixel region, and it is determined whether there is an adjacent pixel region in which the difference between the representative pixel values is equal to or less than the threshold (step S303).
代表画素値の差が閾値以下である隣接画素領域が有ると判別すると(ステップS303;YES)、その隣接画素領域を注目画素領域に統合する(ステップS304)。具体的には、その隣接画素領域の画素領域ラベルを上書きして注目画素領域の画素領域ラベルとする。さらに、新たな領域の全画素の平均値を新たな代表画素値とする。そして、新たな領域を注目画素領域として、ステップS302から処理を繰り返す。 If it is determined that there is an adjacent pixel area where the difference between the representative pixel values is equal to or less than the threshold (step S303; YES), the adjacent pixel area is integrated into the target pixel area (step S304). Specifically, the pixel area label of the pixel area of interest is overwritten with the pixel area label of the adjacent pixel area. Further, an average value of all the pixels in the new area is set as a new representative pixel value. Then, the process is repeated from step S302 with the new area as the target pixel area.
一方、代表画素値の差が閾値以下の隣接画素領域がない場合(ステップS303;NO)、次に全画素領域が処理済であるか判別する(ステップS305)。具体的には、最後に領域を統合してから、現在までにまだステップS303の判別処理を行っていない画素領域があるか判別し、ある場合は(ステップS305;NO)その画素領域を注目画素領域としてステップS301から処理を繰り返す。
一方、ない場合は(ステップS305;YES)、これ以上統合すべき画素領域はないと判断できるので、領域統合処理を終了する。
On the other hand, if there is no adjacent pixel area whose representative pixel value is less than or equal to the threshold (step S303; NO), it is next determined whether all the pixel areas have been processed (step S305). Specifically, it is determined whether or not there is a pixel area that has not been subjected to the determination process in step S303 until the present since the last integration of the areas. If there is (step S305; NO), the pixel area is determined as the target pixel. The process is repeated from step S301 as an area.
On the other hand, when there is no pixel area (step S305; YES), it can be determined that there is no more pixel area to be integrated, so the area integration process is terminated.
図6に戻って、ステップS211で領域統合処理が終わると、次に全サブイメージについて画素領域を定義したか判別する(ステップS212)。未処理のサブイメージが残っている場合は(ステップS212;NO)、次の注目サブイメージについてステップS201から処理を繰り返す。一方、全てのサブイメージが処理済の場合は(ステップS212;YES)、画素領域定義処理は終了する。 Returning to FIG. 6, when the region integration processing is completed in step S211, it is determined whether pixel regions have been defined for all sub-images (step S212). If an unprocessed subimage remains (step S212; NO), the process is repeated from step S201 for the next target subimage. On the other hand, when all the sub-images have been processed (step S212; YES), the pixel area definition process ends.
図5に戻って、領域定義部3210が画素領域を定義すると、注目領域選択部3220から奥行きフィルタ実行部3270が、LFIの各画素(LFIに含まれる全サブ画素)の奥行き係数を定義してライトフィールド奥行き画像(LFDI)を生成する処理(奥行き係数算出処理)を実行する(ステップS104)。 Returning to FIG. 5, when the region definition unit 3210 defines the pixel region, the attention region selection unit 3220 to the depth filter execution unit 3270 define the depth coefficient of each pixel of the LFI (all subpixels included in the LFI). Processing for generating a light field depth image (LFDI) (depth coefficient calculation processing) is executed (step S104).
ステップS104で実行される奥行き係数算出処理について、図8を参照して説明する。ステップS104では、注目領域選択部3220が図8に示す奥行き係数算出処理を開始する。
奥行き係数算出処理では、まず注目領域選択部3220が、LFIのサブイメージから注目サブイメージを選択する(ステップS401)。さらに、注目サブイメージ上の画素領域の一つを注目画素領域として選択する(ステップS402)。注目画素領域の例を、図9(a)の点線で囲まれた領域として示す。
The depth coefficient calculation process executed in step S104 will be described with reference to FIG. In step S104, the attention area selection unit 3220 starts the depth coefficient calculation process shown in FIG.
In the depth coefficient calculation process, first, the attention area selection unit 3220 selects an attention sub-image from the LFI sub-image (step S401). Further, one of the pixel areas on the target sub-image is selected as the target pixel area (step S402). An example of the target pixel region is shown as a region surrounded by a dotted line in FIG.
そして、SSD算出部3240が、注目画素領域の奥行き係数を算出する処理(領域奥行き係数算出処理、図10)を開始する。ここでは、周辺サブイメージは、図9(b)に示したLFI上のサブイメージのうち、中央の注目サブイメージを除く8つのサブイメージ(SI1〜SI8)とする。 Then, the SSD calculation unit 3240 starts a process of calculating the depth coefficient of the target pixel area (area depth coefficient calculation process, FIG. 10). Here, the peripheral sub-images are eight sub-images (SI1 to SI8) excluding the central target sub-image among the sub-images on the LFI shown in FIG. 9B.
ステップS403では、図10に示す領域奥行き係数算出処理が開始される。領域奥行き係数算出処理では、まず周辺サブイメージ選択部3230が、周辺サブイメージの中から注目周辺サブイメージを選択する(ステップS501)。 In step S403, the area depth coefficient calculation process shown in FIG. 10 is started. In the region depth coefficient calculation process, first, the peripheral sub-image selection unit 3230 selects a target peripheral sub-image from the peripheral sub-images (step S501).
次に、設定上定められた、ありえる奥行き係数のうち、一つを注目奥行き係数として選択する(ステップS502)。奥行き係数は、画像ズレ値(画像視差)と対応付けられる。本実施形態では、図11に示すように奥行き係数と、画像ズレ値の代表値(代表ズレ値)とを対応づけている。以下、特記しない場合は視差とは画像視差を意味することとする。 Next, one of the possible depth coefficients determined in the setting is selected as a target depth coefficient (step S502). The depth coefficient is associated with an image shift value (image parallax). In the present embodiment, as shown in FIG. 11, the depth coefficient is associated with a representative value of the image shift value (representative shift value). Hereinafter, unless otherwise specified, parallax means image parallax.
そして、SSD算出部3240が注目周辺サブイメージ上で注目奥行き係数に対応する位置に対応領域の候補についてSSDを算出する(ステップS503)。
例えば、注目奥行き係数が画像ズレ0に対応する場合には、注目周辺サブイメージ(ここではSI1とする)の同じ部分に対応領域の候補となる領域(対応候補領域)を配置する。注目画素領域と対応候補領域の対応する画素の画素値の差の二乗和(SSD)を、対応の確かさを示す係数として算出する。
一方、注目奥行き係数が、所定の画像ズレ値と対応する場合には、注目サブイメージと注目周辺サブイメージの中心を通る直線に平行で、注目サブイメージから遠ざかる方向(SI1については図9(b)の矢印d1の方向)であって、画像ズレ値だけずれた位置に対応候補領域を配置し、各位置のSSDを算出する(ステップS503)。ここで、注目周辺サブイメージ上でずらした量(画像ズレ)とSSDとの関係(画像ズレ−SSDグラフ)を、図9(c)に示す。
Then, the SSD calculation unit 3240 calculates the SSD for the corresponding area candidate at the position corresponding to the target depth coefficient on the target peripheral sub-image (step S503).
For example, when the target depth coefficient corresponds to the image shift 0, a region (corresponding candidate region) that is a candidate for the corresponding region is arranged in the same portion of the target peripheral subimage (here, S I 1). A sum of squares (SSD) of pixel value differences between corresponding pixels in the target pixel region and the corresponding candidate region is calculated as a coefficient indicating the certainty of correspondence.
On the other hand, when the target depth coefficient corresponds to a predetermined image deviation value, the direction parallel to the straight line passing through the centers of the target subimage and the target peripheral subimage and away from the target subimage (for S I 1, FIG. 9). Corresponding candidate areas are arranged at positions shifted by the image shift value (in the direction of arrow d1 in (b)), and the SSD of each position is calculated (step S503). Here, FIG. 9C shows the relationship (image shift-SSD graph) between the amount of shift (image shift) on the target peripheral sub-image and the SSD (image shift-SSD graph).
ここで、画像ズレ−SSDグラフの横軸は、画像ズレに対応する奥行き係数を表す。また、奥行き係数は、再構成設定に含まれる、図11に示す奥行きテーブルに定義されているとする。奥行きテーブルは、奥行き係数と、画像ズレを代表する代表ズレ値と、奥行きの範囲である再構成距離と、を対応付けて記録するテーブルである。また、画像ズレに対応する奥行きは、注目サブイメージに対応するサブレンズSLの位置と、周辺サブイメージに対応するサブレンズSLの位置と、メインレンズMLの焦点距離fMLと、メインレンズMLとサブレンズアレイSLAとの距離、サブレンズアレイSLAと撮像面IEとの距離、によって定まる。 Here, the horizontal axis of the image shift-SSD graph represents the depth coefficient corresponding to the image shift. Further, it is assumed that the depth coefficient is defined in the depth table shown in FIG. 11 included in the reconstruction setting. The depth table is a table that records a depth coefficient, a representative displacement value representing image displacement, and a reconstruction distance that is a depth range in association with each other. In addition, the depth corresponding to the image shift includes the position of the sub lens SL corresponding to the target sub image, the position of the sub lens SL corresponding to the peripheral sub image, the focal length f ML of the main lens ML, and the main lens ML. It is determined by the distance between the sub lens array SLA and the distance between the sub lens array SLA and the imaging surface IE.
注目画素領域と対応領域との位置ズレ(ズレ度)が大きいほど、注目画素領域及び対応領域の像が、よりメインレンズML(及びサブレンズSL)から近い位置に存在することを示す。そのため、画像ズレが大きい奥行き係数ほど、対応する再構成距離は小さい。 The larger the positional deviation (degree of deviation) between the target pixel area and the corresponding area, the more the image of the target pixel area and the corresponding area is located closer to the main lens ML (and the sub lens SL). Therefore, the corresponding reconstruction distance is smaller as the depth coefficient has a larger image shift.
SSD算出部3240は、注目周辺サブイメージの注目奥行き係数に対応する代表ズレ値の画素数だけずらした対応候補領域についてSSDを算出すると、算出したSSDを、その奥行き係数について定義されたそれぞれのSSDの和(SSSD)に加算する(ステップS504)。 When the SSD calculation unit 3240 calculates the SSD for the corresponding candidate area shifted by the number of pixels of the representative shift value corresponding to the target depth coefficient of the target peripheral sub-image, the SSD is calculated for each SSD defined for the depth coefficient. (SSSD) is added (step S504).
そして、設定上定められた全奥行き係数について上記処理を実行したか否かを判別し(ステップS505)、未処理の奥行き係数がある場合は(ステップS505;NO)、次の未処理の奥行き係数について、を注目周辺サブイメージについてステップS502から処理を繰り返す。 Then, it is determined whether or not the above processing has been executed for all depth coefficients determined in the setting (step S505). If there is an unprocessed depth coefficient (step S505; NO), the next unprocessed depth coefficient is determined. The process is repeated from step S502 for the target peripheral sub-image.
一方、全奥行き係数について処理済みの場合は(ステップS505;YES)、SSD算出部3240は、注目周辺サブイメージについて算出したSSDの中に、再構成設定が定める閾値以下のものが有るか判別する(ステップS506)。
閾値以下のSSDがない場合(ステップS506;NO)、注目周辺サブイメージはノイズが強く有効な計算対象でないと判断できるので、注目周辺サブイメージを算出対象から排除する(ステップS507)。即ち、各奥行き値のSSSDから、注目周辺サブイメージについて算出したSSDを減算する。
On the other hand, when all the depth coefficients have been processed (step S505; YES), the SSD calculation unit 3240 determines whether there are SSDs calculated for the target peripheral sub-image that are equal to or smaller than a threshold determined by the reconstruction setting. (Step S506).
If no subthreshold SSD (step S506; NO), since the attention surrounding the subimage noise is strong valid calculation Target not equal can be determined, eliminating the attention surrounding the subimage from the calculation (step S507). That is, the SSD calculated for the target peripheral sub-image is subtracted from the SSSD of each depth value.
一方、閾値以下のSSDが有る場合(ステップS506;YES)、注目周辺サブイメージは有効な情報を保持していると判断できるので、ステップS507をスキップする。 On the other hand, when there is an SSD below the threshold (step S506; YES), it can be determined that the target peripheral sub-image holds valid information, and thus step S507 is skipped.
そして、周辺領域の全サブイメージに対して上記処理を実行したか判別し(ステップS508)、未処理の周辺サブイメージがある場合は(ステップS508;NO)、次の周辺サブイメージを注目周辺サブイメージについてステップS501から処理を繰り返す。 Then, it is determined whether or not the above processing has been performed on all the sub-images in the peripheral area (step S508). If there is an unprocessed peripheral sub-image (step S508; NO), the next peripheral sub-image is selected as the target peripheral sub-image. The process is repeated for the image from step S501.
一方、全周辺サブイメージについて処理済みの場合は(ステップS508;YES)、奥行き係数投票部3250が各奥行き係数のSSSDを比較し、最もSSSDが小さい奥行き係数(図9(c)のMinD)を注目画素領域の奥行き係数とする(ステップS509)。 On the other hand, when all the peripheral sub-images have been processed (step S508; YES), the depth coefficient voting unit 3250 compares the SSSDs of the respective depth coefficients, and determines the depth coefficient having the smallest SSSD (MinD in FIG. 9C). The depth coefficient of the target pixel region is set (step S509).
図8に戻って、注目画素領域の奥行き係数を算出すると、奥行き係数投票部3250は、周辺サブイメージに対応領域を定義する。具体的には、注目画素領域に対応する部位から、奥行き係数が示す位置ズレ(代表ズレ値)だけ外方向(図9(b)のd1、d2等)にずらした位置に対応領域を定義する(図9(d))。なお、ステップS504で加算対象とならなかった周辺サブイメージ(図9(d)の例ではSI7)については対象領域を定義しない。そして、算出した奥行き係数を注目画素領域に属する画素と、対応領域に属する画素と、の奥行き係数を定めるためのヒストグラムに投票する(ステップS404)。 Returning to FIG. 8, when the depth coefficient of the target pixel area is calculated, the depth coefficient voting unit 3250 defines a corresponding area in the peripheral sub-image. Specifically, the corresponding region is defined at a position shifted from the portion corresponding to the target pixel region in the outward direction (d1, d2, etc. in FIG. 9B) by a positional shift (representative shift value) indicated by the depth coefficient. (FIG. 9 (d)). It should be noted that no target region is defined for the peripheral sub-image (SI7 in the example of FIG. 9D) that is not the addition target in step S504. Then, the calculated depth coefficient is voted on a histogram for determining the depth coefficient of the pixel belonging to the target pixel area and the pixel belonging to the corresponding area (step S404).
投票の例を図9(d)、図9(e)に示す。各サブ画素には、図9(e)に示すように、奥行き係数と、その奥行き係数に投票された数と、を記憶したヒストグラム(奥行きヒストグラム)が定義されている。例えば、ステップS402で選択された注目画素領域の奥行き係数が1であった場合、奥行き係数1を候補係数とする。そして、候補係数を投票して、奥行き係数投票部3250は、対応領域に含まれる画素(例えば、図9(d)の白いドット)のヒストグラム(図9(e))の奥行き係数1の部分の投票数を一つ増加させる。同様の処理を、全ての注目画素領域と、注目領域に対して定義された対応領域に含まれる画素について実行する。 Examples of voting are shown in FIGS. 9 (d) and 9 (e). As shown in FIG. 9E, a histogram (depth histogram) storing a depth coefficient and the number voted for the depth coefficient is defined for each sub-pixel. For example, when the depth coefficient of the target pixel region selected in step S402 is 1, the depth coefficient 1 is set as a candidate coefficient. Then, the candidate coefficient is voted, and the depth coefficient voting unit 3250 calculates the depth coefficient 1 of the histogram (FIG. 9E) of the pixels (for example, white dots in FIG. 9D) included in the corresponding area. Increase the number of votes by one. Similar processing is executed for all the target pixel areas and the pixels included in the corresponding area defined for the target area.
ステップS404で投票が終わると、次に注目サブイメージの全画素領域についてステップS404の処理を終えたか判別する(ステップS405)。未処理の画素領域が有る場合(ステップS405;NO)、次の未処理の画素領域についてステップS402から処理を繰り返す。 When the voting ends in step S404, it is then determined whether or not the process of step S404 has been completed for all pixel regions of the target sub-image (step S405). If there is an unprocessed pixel area (step S405; NO), the process is repeated from step S402 for the next unprocessed pixel area.
一方、注目サブイメージの全画素領域についてステップS404の処理を終えている場合(ステップS405;YES)、次に全サブイメージについて上記処理を終えたか判別する(ステップS406)。未処理のサブイメージが有る場合(ステップS406;NO)、次の未処理のサブイメージについてステップS401から処理を繰り返す。 On the other hand, if the process of step S404 has been completed for all pixel regions of the target sub-image (step S405; YES), it is then determined whether the above-described process has been completed for all sub-images (step S406). If there is an unprocessed sub-image (step S406; NO), the process is repeated from step S401 for the next unprocessed sub-image.
一方、注目サブイメージについて処理を終えている場合(ステップS406;YES)、次にサブ画素奥行き係数選択部3260が各サブ画素の奥行き係数を決定するための処理(奥行き係数決定処理)を開始する(ステップS407)。 On the other hand, when the processing for the target sub-image has been completed (step S406; YES), the sub-pixel depth coefficient selection unit 3260 starts processing for determining the depth coefficient of each sub-pixel (depth coefficient determination processing). (Step S407).
ステップS407で実行される奥行き係数決定処理を、図12を参照して説明する。
奥行き係数決定処理では、まずサブ画素奥行き係数選択部3260がLFIに含まれる全てのサブ画素から注目画素を選択する(ステップS601)。そして、サブ画素奥行き係数選択部3260は注目画素の信頼係数tpを算出する(ステップS602)。信頼係数は、注目画素のヒストグラムの投票結果が注目画素の奥行き係数を定めるためにどの程度信頼できるかを示す係数であり、ここではヒストグラム上の奥行き係数の最大得票数をnMAXとし、ヒストグラムの総投票数をnALLとして、nMAXをnALLで除算した値とする。
The depth coefficient determination process executed in step S407 will be described with reference to FIG.
In the depth coefficient determination process, first, the sub-pixel depth coefficient selection unit 3260 selects a target pixel from all the sub-pixels included in the LFI (step S601). Then, the sub-pixel depth coefficient selection unit 3260 calculates the reliability coefficient tp of the target pixel (step S602). The reliability coefficient is a coefficient indicating how reliable the voting result of the histogram of the target pixel is for determining the depth coefficient of the target pixel. Here, the maximum number of votes of the depth coefficient on the histogram is nMAX, and the total histogram The number of votes is nALL, and nMAX is divided by nALL.
なお、信頼係数は注目ヒストグラムの最大得票数を獲得した奥行き係数が、他の奥行き係数の投票数と比べて信頼できる度合い示す任意の数値で代替可能である。例えば、ヒストグラムの分散の逆数を用いてもよい。 Note that the reliability coefficient can be replaced with any numerical value indicating the degree of reliability of the depth coefficient that has acquired the maximum number of votes of the histogram of interest compared to the number of votes of other depth coefficients. For example, the inverse of the variance of the histogram may be used.
そして、サブ画素奥行き係数選択部3260は算出した信頼係数tpが、設定上定められた閾値以上であるか判別する(ステップS603)。閾値以上である場合(ステップS603;YES)、最多得票の奥行き係数を注目画素の奥行き係数とする(ステップS604)。 Then, the sub-pixel depth coefficient selection unit 3260 determines whether or not the calculated reliability coefficient tp is equal to or greater than a threshold value determined in setting (step S603). If it is equal to or greater than the threshold (step S603; YES), the depth coefficient of the most frequently obtained vote is set as the depth coefficient of the pixel of interest (step S604).
一方、閾値より小さい場合(ステップS603;NO)、投票結果は奥行き係数を定めるために十分な信用性を持たないので、注目画素の奥行き係数をUNKOWNとする(ステップS605)。 On the other hand, if it is smaller than the threshold (step S603; NO), the voting result does not have sufficient reliability to determine the depth coefficient, so the depth coefficient of the pixel of interest is set to UNKOWN (step S605).
この処理の例を図13を参照して説明する。図13(a)のLFI上の画素のうち、図13(b)に示す画素iのヒストグラムでは、総得票数が11であり、奥行き係数2が最多得票数(6)を獲得している。信頼係数tp(6/11)が閾値th(0.5)以上なので、画素iの奥行き係数dpは2となる。一方、図13(c)に示す画素iiのヒストグラムでは、総得票数が13であり、最多得票数は奥行き係数7の得票数(4)である。このとき、信頼係数tp(4/13)は閾値th(0.5)より小さいので、注目画素の奥行き係数dpは未知であることを示すUNKOWNとなる。 An example of this processing will be described with reference to FIG. Among the pixels on the LFI in FIG. 13A, in the histogram of the pixel i shown in FIG. 13B, the total number of votes is 11, and the depth coefficient 2 has obtained the maximum number of votes (6). Since the reliability coefficient tp (6/11) is equal to or greater than the threshold th (0.5), the depth coefficient dp of the pixel i is 2. On the other hand, in the histogram of the pixel ii shown in FIG. 13C, the total number of votes is 13, and the highest number of votes is the number of votes (4) with the depth coefficient 7. At this time, since the reliability coefficient tp (4/13) is smaller than the threshold th (0.5), the depth coefficient dp of the target pixel is UNKOWN indicating that it is unknown.
注目画素の奥行き係数を定めると、次に全サブ画素について上記処理を終えたか判別する(ステップS606)。未処理のサブ画素が存在する場合(ステップS606;NO)、次の未処理のサブ画素についてステップS601から処理を繰り返す。一方、未処理のサブ画素がない場合(ステップS606;YES)全てのサブ画素について奥行き係数が定義されたこととなる。LFI上の全ての画素の画素値を、奥行き係数を示す値としたライトフィールド奥行き画像(LFDI)の例を図18(a)に示す。この時点のLFDIは奥行きの境界が乱れているため、ステップS607でフィルタを適用する処理(奥行きフィルタ処理)を実行して画像の精度を高める。 Once the depth coefficient of the pixel of interest has been determined, it is next determined whether or not the above processing has been completed for all sub-pixels (step S606). If there is an unprocessed subpixel (step S606; NO), the process is repeated from step S601 for the next unprocessed subpixel. On the other hand, when there is no unprocessed subpixel (step S606; YES), the depth coefficient is defined for all the subpixels. FIG. 18A shows an example of a light field depth image (LFDI) in which the pixel values of all the pixels on the LFI are values indicating the depth coefficient. Since the depth boundary of the LFDI at this time is disturbed, a process of applying a filter (depth filter process) is executed in step S607 to improve the accuracy of the image.
ステップS607で実行される奥行きフィルタ処理を、図14を参照して説明する。なお、図15は奥行きフィルタ処理の具体例を示す。処理がステップS607に至ると、奥行きフィルタ実行部3270が図14に示す奥行きフィルタ処理を開始する。奥行きフィルタ処理では、まず奥行きフィルタ実行部3270がLFDI上の画素を注目画素として選択する(ステップS701)。図15では、注目画素を太線で囲った正方形で示す。 The depth filter process executed in step S607 will be described with reference to FIG. FIG. 15 shows a specific example of depth filter processing. When the processing reaches step S607, the depth filter execution unit 3270 starts the depth filter processing shown in FIG. In the depth filter process, first, the depth filter execution unit 3270 selects a pixel on the LFDI as a target pixel (step S701). In FIG. 15, the target pixel is indicated by a square surrounded by a thick line.
そして、奥行きフィルタ実行部3270は注目画素を中心とした周辺領域を定義する。周辺領域は任意に設定可能だが、ここでは注目画素に隣接する8つの画素から構成される領域(図15(a)の点線領域)とする。奥行きフィルタ実行部3270は周辺領域の画素(周辺サブ画素)から注目周辺サブ画素を選択する(ステップS702)。 Then, the depth filter execution unit 3270 defines a peripheral region around the target pixel. The peripheral area can be arbitrarily set, but here it is assumed to be an area composed of eight pixels adjacent to the target pixel (dotted line area in FIG. 15A). The depth filter execution unit 3270 selects a target peripheral sub-pixel from pixels in the peripheral area (peripheral sub-pixel) (step S702).
そして、奥行きフィルタ実行部3270は注目周辺サブ画素の奥行き係数がUNKOWNであるか判別する(ステップS703)。UNKOWNである場合は(ステップS703;YES)、その画素については参考としないので、ステップS708までスキップする。図15の例では、図15(a)のiで示される黒の画素がUNKOWNである画素である。この画素については後の処理の対象としない。 Then, the depth filter execution unit 3270 determines whether or not the depth coefficient of the target peripheral sub-pixel is UNKOWN (step S703). If it is UNKOWN (step S703; YES), the pixel is not used as a reference, so the process skips to step S708. In the example of FIG. 15, the black pixel indicated by i in FIG. 15A is a pixel that is UNKOWN. This pixel is not subject to later processing.
一方、UNKOWNでない場合は(ステップS703;NO)、奥行きフィルタ実行部3270は次に注目画素と注目周辺サブ画素の画素値の差が設定上定められた閾値以上であるか否か判別する(ステップS704)。 On the other hand, if it is not UNKOWN (step S703; NO), the depth filter execution unit 3270 next determines whether or not the difference between the pixel values of the target pixel and the target peripheral sub-pixel is equal to or larger than a threshold value set in the setting (step). S704).
閾値以上である場合(ステップS704;YES)、注目画素と注目周辺サブ画素との対応は弱いとの判断の元、この組み合わせの重みを1と設定する(ステップS706)。図15(a)の例では、iiで示す白の画素、ivで示す斜線の画素、が閾値以上の画素である。この画素1つについて、重みに応じた1票をヒストグラムに投票する。
閾値より小さい場合(ステップS705;NO)、注目画素と注目周辺サブ画素との対応は強いとの判断の元、この組み合わせの重みを2と設定する(ステップS706)。図15(a)の例では、iiiで示す縦横線の画素が閾値より小さい画素である。この画素1つについて、2票をヒストグラムに投票する。
なお、重み付けの設定は上記に限らず、注目画素と注目周辺サブ画素との対応の確かさが強い場合により強い影響が出るような任意の重み付け設定と代替可能である。
If it is equal to or greater than the threshold (step S704; YES), the weight of this combination is set to 1 based on the determination that the correspondence between the target pixel and the target peripheral subpixel is weak (step S706). In the example of FIG. 15A, white pixels indicated by ii and hatched pixels indicated by iv are pixels that are equal to or greater than the threshold value. For each pixel, one vote corresponding to the weight is voted on the histogram.
If it is smaller than the threshold value (step S705; NO), the weight of this combination is set to 2 based on the judgment that the correspondence between the target pixel and the target peripheral subpixel is strong (step S706). In the example of FIG. 15A, the vertical and horizontal pixels indicated by iii are pixels smaller than the threshold value. For each pixel, two votes are voted on the histogram.
The weighting setting is not limited to the above, and can be replaced with an arbitrary weighting setting that exerts a stronger influence when the correspondence between the target pixel and the target peripheral subpixel is strong.
そして、注目画素の新たなヒストグラムに、重みの数だけ奥行き係数を投票する。(ステップS707)。投票結果のヒストグラムの例を図15(b)に示す。 Then, the depth coefficient is voted to the new histogram of the target pixel by the number of weights. (Step S707). An example of a histogram of voting results is shown in FIG.
次に、周辺領域の全画素について上記処理済みであるか判別し(ステップS708)、未処理の周辺サブ画素が有る場合(ステップS708;NO)、次の周辺サブ画素についてステップS702から処理を繰り返す。 Next, it is determined whether or not the above processing has been completed for all the pixels in the peripheral region (step S708). If there are unprocessed peripheral subpixels (step S708; NO), the processing is repeated from step S702 for the next peripheral subpixel. .
一方、全周辺サブ画素が処理済である場合(ステップS708;YES)、次に投票結果に基づき出力するLFDIの奥行き係数を更新する。具体的には、投票されたヒストグラムの中央値を注目画素の新たな奥行き係数とする(ステップS709)。図15(b)のヒストグラムでは、10の投票がされ、中央値(投票したサンプルを奥行きでソートした場合の中央の値)は4である。そこで、図15(c)のように注目画素の奥行き画素値を4とする。なお、この更新結果は全てのフィルタ処理が終わった後に反映されるとしてもよい。 On the other hand, if all the peripheral sub-pixels have been processed (step S708; YES), the LFDI depth coefficient to be output next is updated based on the vote result. Specifically, the median value of the voted histogram is set as a new depth coefficient of the pixel of interest (step S709). In the histogram of FIG. 15B, 10 votes are given, and the median (the median value when the voted samples are sorted by depth) is 4. Therefore, the depth pixel value of the target pixel is set to 4 as shown in FIG. Note that the update result may be reflected after all the filtering processes are completed.
そして、全てのサブ画素についてフィルタ処理を終えたか判別し(ステップS710)、未処理のサブ画素が有る場合には(ステップS710;NO)、次の画素を注目画素としてステップS701から処理を繰り返す。
一方、全サブ画素が処理済の場合には(ステップS710;YES)、奥行きフィルタ処理を終了する。
Then, it is determined whether or not the filtering process has been completed for all the sub-pixels (step S710). If there is an unprocessed sub-pixel (step S710; NO), the process is repeated from step S701 with the next pixel as the target pixel.
On the other hand, if all the sub-pixels have been processed (step S710; YES), the depth filter process is terminated.
図12に戻って、ステップS607で奥行きフィルタ処理を終えると、奥行き係数決定処理を終了する。
図8に戻って、ステップS407で奥行き係数決定処理が終了すると、奥行き係数算出処理は終了する。
Returning to FIG. 12, when the depth filter processing is finished in step S607, the depth coefficient determination processing is finished.
Returning to FIG. 8, when the depth coefficient determination process ends in step S407, the depth coefficient calculation process ends.
図5に戻って、LFDIの生成が終わると、LFDIから出力画像(奥行き画像)を再構成する処理(画像生成処理)を実行する(ステップS105)。本実施形態では、画像生成処理は図16に示す画像生成処理1である。 Returning to FIG. 5, when the generation of the LFDI is completed, a process (image generation process) for reconstructing an output image (depth image) from the LFDI is executed (step S105). In the present embodiment, the image generation process is the image generation process 1 shown in FIG.
ステップS105で実行される画像生成処理1を、図16を参照して説明する。
ステップS105に至ると、奥行き画像生成部330が図16に示す画像生成処理を開始する。まず、奥行き画像生成部330は再構成設定を取得する(ステップS801)。そして、ひな形定義部3310が、再構成設定が指定するメインレンズと再構成面RFとの距離を特定し、再構成面RFに再構成画像のひな形(原型)を定義する(ステップS802)。
Image generation processing 1 executed in step S105 will be described with reference to FIG.
In step S105, the depth image generation unit 330 starts the image generation process shown in FIG. First, the depth image generation unit 330 acquires reconstruction settings (step S801). Then, the model definition unit 3310 specifies the distance between the main lens specified by the reconstruction setting and the reconstruction surface RF, and defines the model (prototype) of the reconstruction image on the reconstruction surface RF (step S802). .
そして注目画素選択部3320が、再構成画像を構成する画素である再構成画素の一つを注目画素とする(ステップS803)。このとき、注目画素は図17における再構成面RF上の注目部位Pに対応する。 Then, the pixel-of-interest selection unit 3320 sets one of the reconstructed pixels that are pixels constituting the reconstructed image as the pixel of interest (step S803). At this time, the target pixel corresponds to the target site P on the reconstruction plane RF in FIG.
さらに、対応画素抽出部3330が注目画素と対応するサブイメージ上の画素(対応画素)を光線追跡により抽出する(ステップS804)。 Further, the corresponding pixel extraction unit 3330 extracts a pixel (corresponding pixel) on the sub-image corresponding to the target pixel by ray tracing (step S804).
光線追跡を図17を参照して説明する。
注目部位Pからの光線は、メインレンズの主点を通過してマイクロレンズアレイの到達位置(図17のサブレンズ上のMLBC)に到達する。MLBCのサブレンズ上の位置は、撮影設定に基づいて求めることが出来る。MLBCを中心に、注目部位Pからの光が届いた範囲(メインレンズブラーMLB、図17の網線領域)を、レンズの特性からもとめる。メインレンズブラーMLBの直径は、メインレンズMLと再構成面RFとの距離a1、メインレンズと結像面MIPとの距離b1(a1とメインレンズの焦点距離fMLから算出)、結像面MIPとサブレンズアレイSLAとの距離a2と、メインレンズの有効径EDと、から三角形の相似を用いて算出する。
Ray tracing will be described with reference to FIG.
The light beam from the site of interest P passes through the main point of the main lens and reaches the arrival position of the microlens array (MLBC on the sub lens in FIG. 17). The position on the sub lens of the MLBC can be obtained based on the shooting setting. A range (main lens blur MLB, mesh area in FIG. 17) in which light from the target site P reaches centered on the MLBC is obtained from the lens characteristics. The diameter of the main lens blur MLB the distance between the main lens ML and the reconstruction plane RF a1, (calculated from focal length f ML of a1 and the main lens) distance b1 between the main lens and the image plane MIP, imaging plane MIP And the distance a2 between the sub lens array SLA and the effective diameter ED of the main lens.
対応画素抽出部3330は、サブレンズアレイSLAに含まれるサブレンズSLの内、一部又は全てがメインレンズブラーMLBに含まれるサブレンズSLを特定する。そして、対応画素抽出部3330は、特定されたサブレンズSLを順次注目レンズとして選択する。 Corresponding pixel extraction unit 3330 specifies a sub-lens SL in which a part or all of sub-lenses SL included in sub-lens array SLA are included in main lens blur MLB. Then, the corresponding pixel extraction unit 3330 sequentially selects the identified sub lenses SL as the target lens.
次に、対応画素抽出部3330は、注目画素からの光線が、選択されたサブレンズSLによって結像される位置にある、サブ画像上の画素(対応画素)を抽出する。 Next, the corresponding pixel extraction unit 3330 extracts a pixel (corresponding pixel) on the sub image at a position where the light beam from the target pixel is imaged by the selected sub lens SL.
具体的には、対応画素(到達点PEに対応)を以下の手順で算出する。
まず、再構成面RFに対応するメインレンズの焦点面までの距離b1は、既知の数値a1及びメインレンズの焦点距離fMLを用い、次の式(1)から算出することが出来る。
Specifically, the corresponding pixel (corresponding to the reaching point PE) is calculated according to the following procedure.
First, the distance b1 to the focal plane of the main lens corresponding to the reconstruction plane RF uses the focal length f ML of the known numerical a1 and the main lens, can be calculated from the following equation (1).
また、a2は既知の数値c1から、式(1)を用いて算出したb1を減算することで求めることができる。
さらに、被写体距離a1と、距離b1と、既知の数値x(注目部位Pと光軸OAとの距離)を以下の式(2)に用いて、注目部位PがメインレンズMLを通して結像する点(結像点PF)と光軸OAとの距離x’を算出する。
x’=x・b1/a1…(2)
さらに、光軸OAから注目サブレンズSLの主点までの距離dl、上記の式(2)を用いて算出された距離x’、サブレンズアレイSLAから撮像面IEまでの距離c2、及び距離a2を以下の式(3)に用いて、到達点PEと光軸OAとの距離x’’を算出する。
Further, a2 can be obtained by subtracting b1 calculated using the equation (1) from the known numerical value c1.
Further, using the subject distance a1, the distance b1, and the known numerical value x (the distance between the site of interest P and the optical axis OA) in the following equation (2), the site of interest P is imaged through the main lens ML. A distance x ′ between (imaging point PF) and the optical axis OA is calculated.
x ′ = x · b1 / a1 (2)
Further, the distance d 1 from the optical axis OA to the principal point of the target sub lens SL, the distance x ′ calculated using the above formula (2), the distance c 2 from the sub lens array SLA to the imaging surface IE, and the distance The distance x ″ between the arrival point PE and the optical axis OA is calculated using a2 in the following equation (3).
Y軸方向にも同様に計算し、到達点PEの位置を特定する。LFDIの例を図18(a)に示す。また、LFDIの各サブイメージSI上の対応画素の配置例を、図18(b)に示す。図18(b)では、中央のサブイメージがMLBCに対応するサブイメージであり、周辺のサブイメージ上で白抜きの正方形で示した対応画素がサブイメージ上でずれた位置にあることが示されている。 The same calculation is performed in the Y-axis direction, and the position of the reaching point PE is specified. An example of LFDI is shown in FIG. FIG. 18B shows an example of the arrangement of corresponding pixels on each LFDI sub-image SI. FIG. 18B shows that the central sub-image is a sub-image corresponding to MLBC, and the corresponding pixels indicated by white squares on the peripheral sub-images are shifted on the sub-image. ing.
ステップS804で対応画素を抽出すると、各対応画素の奥行き係数を取得する(ステップS805)。そして、画素値決定部3340が取得した対応画素の奥行き係数から注目画素の画素値を決定する(ステップS806)。具体的には、抽出した対応画素の奥行き係数の最頻値を選択して、その最頻値に対応する画素値を注目画素の画素値とする。 When the corresponding pixel is extracted in step S804, the depth coefficient of each corresponding pixel is acquired (step S805). Then, the pixel value of the pixel of interest is determined from the depth coefficient of the corresponding pixel acquired by the pixel value determination unit 3340 (step S806). Specifically, the mode value of the extracted depth coefficient of the corresponding pixel is selected, and the pixel value corresponding to the mode value is set as the pixel value of the target pixel.
そして、全ての再構成画素について画素値を定めたか判別し(ステップS807)、未処理の再構成画素が有る場合には(ステップS807;NO)、次の再構成画素についてステップS803から処理を繰り返す。
一方、全再構成画素が処理済の場合には(ステップS807;YES)、図18(c)に示したような、再構成面上での被写体の奥行きを示す奥行き画像DIを生成したので、画像生成処理1を終了する。
Then, it is determined whether pixel values have been determined for all the reconstructed pixels (step S807). If there is an unprocessed reconstructed pixel (step S807; NO), the process is repeated from step S803 for the next reconstructed pixel. .
On the other hand, in the case of all reconstruction pixels processed (step S807; YES), as shown in FIG. 18 (c), so to generate the depth image DI that indicates the depth of the object on the reconstruction plane, The image generation process 1 ends.
図5に戻って、出力画像(奥行き画像DI)の再構成が終わると、出力部340が出力画像を画像記憶部430に出力する(ステップS106)。 Returning to FIG. 5, when the reconstruction of the output image (depth image DI) is completed, the output unit 340 outputs the output image to the image storage unit 430 (step S106).
その後、デジタルカメラ1は画像記憶部430に記憶された再構成画像を表示部520に出力する。あるいは、I/O部510を用いて外部装置に出力しても良い。 Thereafter, the digital camera 1 outputs the reconstructed image stored in the image storage unit 430 to the display unit 520. Alternatively, it may be output to an external device using the I / O unit 510.
以上説明したとおり、本実施形態の画像生成装置30によれば、LFI上の被写体の奥行きを推定して、推定結果に基づいて再構成面上で被写体の奥行きを示す奥行き画像を生成して出力することが出来る。
被写体の奥行きの推定結果は、再構成画像のノイズ除去・ボケ付加に利用できる他、被写体の3次元モデルの構成や、近すぎる物体の存在を検知したことを察知する等、さまざまな目的で利用できる。
As described above, according to the image generation apparatus 30 of the present embodiment, the depth of the subject on the LFI is estimated, and a depth image indicating the depth of the subject on the reconstruction plane is generated and output based on the estimation result. I can do it.
The subject depth estimation results can be used for various purposes such as detecting the presence of objects that are too close, as well as the construction of a 3D model of the subject, as well as the use of noise removal and blurring in reconstructed images. it can.
本実施形態の画像生成装置30は、サブイメージ上の同一の被写体に対応すると見なした領域を定義し、領域毎にその被写体がサブイメージ上でどの程度ずれているか、領域単位で奥行き係数を算出して、対応領域を定める。そして、画素領域とその対応領域とのズレから奥行き係数を算出して奥行き画像を生成する。そのため、画素単位で奥行きを求める場合に比べ、ノイズやオクリュージョン、非ランベルト面等の奥行き推定を困難とする因子があった場合でも奥行き推定を高い精度で行うことが出来る。 The image generation apparatus 30 according to the present embodiment defines an area that is considered to correspond to the same subject on the sub-image, and determines the degree of deviation of the subject on the sub-image for each area, and a depth coefficient for each area. Calculate to determine the corresponding area. Then, a depth coefficient is calculated from the deviation between the pixel area and the corresponding area to generate a depth image. Therefore, the depth estimation can be performed with higher accuracy even when there are factors that make it difficult to estimate the depth, such as noise, occlusion, and non-Lambertian surface, as compared with the case of obtaining the depth in pixel units.
また、画像生成装置30は周辺サブイメージの、奥行き係数に該当する位置の領域(対応候補領域)のそれぞれについてSSDを算出し、このSSDを用いて対応領域を定義する。このため、画素領域と対応候補領域の画素値の差に基づいて奥行き係数を算出することができる。対応候補領域の中から領域画素値との差異が小さい領域を対応領域として選択することが出来る。そのため、画素値を反映した奥行き係数を求めることが出来る。 Further, the image generation apparatus 30 calculates an SSD for each of the regions (corresponding candidate regions) at positions corresponding to the depth coefficient of the peripheral sub-image, and defines the corresponding region using the SSD. For this reason, the depth coefficient can be calculated based on the difference between the pixel values of the pixel area and the corresponding candidate area. An area having a small difference from the area pixel value can be selected as the corresponding area from the corresponding candidate areas. Therefore, the depth coefficient reflecting the pixel value can be obtained.
さらに、本実施形態では各奥行き係数について算出したSSDを加算したSSSDを用いて領域奥行き係数を算出する。このため、複数の周辺のサブイメージから得られる情報を総合的に判断して領域の奥行き係数を算出することが出来、結果奥行き推定の精度が高い。 Further, in the present embodiment, the region depth coefficient is calculated using an SSSD obtained by adding the SSD calculated for each depth coefficient. For this reason, it is possible to calculate the depth coefficient of the region by comprehensively judging information obtained from a plurality of peripheral sub-images, resulting in high accuracy of depth estimation.
さらに、奥行きフィルタを用いてLFDIの奥行き係数を平滑化しているので、奥行き係数の境界線をLFDI上でなだらかにすることができる。そのため、出力画像の奥行き画像のノイズを少なくすることができる。 Furthermore, since the depth coefficient of the LFDI is smoothed using the depth filter, the boundary line of the depth coefficient can be smoothed on the LFDI. Therefore, noise in the depth image of the output image can be reduced.
(実施形態2)
本発明の実施形態2に係るデジタルカメラ及び画像生成装置について説明する。本実施形態のデジタルカメラ1は、画像生成装置が図19に示す画像生成装置31である他は、実施形態1に係るデジタルカメラ1と同様である。本実施形態では、再構成設定には奥行き推定結果に基づいて補正した、被写体の再構成画像を出力する旨の情報が含まれるとする。
(Embodiment 2)
A digital camera and an image generation apparatus according to Embodiment 2 of the present invention will be described. The digital camera 1 of the present embodiment is the same as the digital camera 1 according to the first embodiment, except that the image generation apparatus is the image generation apparatus 31 shown in FIG. In this embodiment, it is assumed that the reconstruction setting includes information indicating that a reconstructed image of the subject is output, corrected based on the depth estimation result.
本実施形態の画像生成装置31は、図19に示すように、入力部310と、奥行き推定部320と、再構成画像生成部331と、出力部340と、から構成される。入力部310と、奥行き推定部320と、出力部340と、は実施形態1に係る画像生成装置30の同名の部位と同一である。 As illustrated in FIG. 19, the image generation apparatus 31 according to the present embodiment includes an input unit 310, a depth estimation unit 320, a reconstructed image generation unit 331, and an output unit 340. The input unit 310, the depth estimation unit 320, and the output unit 340 are the same as parts having the same names in the image generation apparatus 30 according to the first embodiment.
再構成画像生成部331は、LFIと、再構成設定と、撮影設定と、奥行き推定部320が推定したLFIの各画素の奥行き(LFDI)に基づいて被写体を再構成した再構成画像を生成する。再構成画像生成部331は、このような処理のために、ひな形定義部3310と、注目画素選択部3320と、対応画素抽出部3330と、奥行き係数決定部3341と、画素値算出部3350と、再構成フィルタ実行部3360と、を含む。 The reconstructed image generation unit 331 generates a reconstructed image in which the subject is reconstructed based on the LFI, the reconstruction setting, the shooting setting, and the depth (LFDI) of each pixel of the LFI estimated by the depth estimation unit 320. . For such processing, the reconstructed image generation unit 331 includes a template definition unit 3310, a target pixel selection unit 3320, a corresponding pixel extraction unit 3330, a depth coefficient determination unit 3341, and a pixel value calculation unit 3350. A reconstruction filter execution unit 3360.
ひな形定義部3310と、注目画素選択部3320と、対応画素抽出部3330と、は実施形態1に係る同名の部位と同一である。 The template definition unit 3310, the target pixel selection unit 3320, and the corresponding pixel extraction unit 3330 are the same as the parts having the same names according to the first embodiment.
奥行き係数決定部3341は、実施形態1に係る画素値決定部3340が、奥行き画像の奥行き係数を決定する方法と同様の方法で再構成画素の奥行き係数を決定する。 The depth coefficient determination unit 3341 determines the depth coefficient of the reconstructed pixel by the same method as the pixel value determination unit 3340 according to the first embodiment determines the depth coefficient of the depth image.
画素値算出部3350は、対応画素抽出部3330が抽出した注目画素の画素値に基づいて、注目画素の画素値を算出する。具体的には、画素値算出部3350は注目画素選択部3320と対応画素抽出部3330と連動して、以下の手順で画素値を算出する。
1)注目画素からの光線がメインレンズの主点を通過してサブレンズアレイに到達した位置(図17のMLBC)を特定する。
2)特定された位置を中心に再構成面に対応するメインレンズブラーMLBを計算する。
3)サブレンズアレイに含まれるサブレンズの内、一部又は全てがメインレンズブラーに含まれるサブレンズを特定する。
4)特定されたサブレンズの内の一つを選択する。
5)選択されたサブレンズとメインレンズブラーとが重なっている面積を計算し、これをマイクロレンズの面積で割って重み付け係数とする。
6)注目画素からの光線が、選択されたサブレンズによって結像される位置にある、サブ画像上に画素値を取得する。
7)この取得された画素値に先の重み付け係数をかけたものを補正画素値とする。
8)一部又は全てがメインレンズブラーに含まれるサブレンズの全てにわたって補正画素値を計算し総和を取る。
9)補正画素値の総和を、重なり面積の総和で除算して再構成したい画像の画素値とする。
The pixel value calculation unit 3350 calculates the pixel value of the target pixel based on the pixel value of the target pixel extracted by the corresponding pixel extraction unit 3330. Specifically, the pixel value calculation unit 3350 calculates the pixel value according to the following procedure in conjunction with the target pixel selection unit 3320 and the corresponding pixel extraction unit 3330.
1) The position (MLBC in FIG. 17) where the light beam from the pixel of interest passes through the main point of the main lens and reaches the sub lens array is specified.
2) The main lens blur MLB corresponding to the reconstruction surface is calculated around the specified position.
3) A sub lens in which a part or all of the sub lenses included in the sub lens array are included in the main lens blur is specified.
4) Select one of the specified sub-lenses.
5) The area where the selected sub-lens and the main lens blur overlap is calculated and divided by the area of the microlens to obtain a weighting coefficient.
6) A pixel value is acquired on the sub-image at a position where the light beam from the target pixel is imaged by the selected sub-lens.
7) A correction pixel value is obtained by multiplying the acquired pixel value by the above weighting coefficient.
8) A correction pixel value is calculated over all of the sub-lens part or all of which are included in the main lens blur, and the sum is obtained.
9) Divide the sum of the corrected pixel values by the sum of the overlapping areas to obtain the pixel value of the image to be reconstructed.
再構成フィルタ実行部3360は、再構成設定が指定する再構成面とメインレンズの距離と、各再構成画素の奥行きと、の差に応じてフィルタ処理(再構成フィルタ)を実行する。 The reconstruction filter execution unit 3360 executes a filter process (reconstruction filter) according to the difference between the distance between the reconstruction surface specified by the reconstruction setting and the main lens, and the depth of each reconstruction pixel.
再構成画像について実行するフィルタ処理の例を、図20を参照して説明する。図20(a)は、フィルタ処理前の再構成画像を示す。RI1は手前(左下のノート)の部分を再構成面とした画像であり、RI2は上部の背景を再構成画像とした例である。RI1では奥の部分に、RI2では手前の部分にノイズが生じている。 An example of filter processing executed on the reconstructed image will be described with reference to FIG. FIG. 20A shows a reconstructed image before filter processing. RI1 is an image with the front (lower left note) portion as a reconstruction plane, and RI2 is an example with the upper background as a reconstruction image. In RI1, noise is generated in the back portion, and in RI2, noise is generated in the front portion.
RI1及びRI2について奥行きを推定した結果(奥行き画像DI)を図20(b)に示す。ここでは、RI1とRI2で同様の奥行き画像DIが得られたものとする。右は拡大図である。奥行き画像は奥行き係数が手前である画素ほど明るくなっている。図20(b)では、白の四角形で示された3つの画素のうち、1番の画素が一番奥に、2番の画素が中央部に、3番の画素が最も手前にある被写体に対応すると推定されている。 FIG. 20B shows a result (depth image DI) of estimating the depth for RI1 and RI2. Here, it is assumed that the same depth image DI is obtained by RI1 and RI2. The right is an enlarged view. In the depth image, the pixel whose depth coefficient is in front is brighter. In FIG. 20B, among the three pixels indicated by white squares, the first pixel is the farthest object, the second pixel is the central part, and the third pixel is the foreground object. It is estimated to correspond.
再構成画像の各画素についてボケ付加を実行した結果が図20(c)の画像RI3とRI4である。RI3はRI1に、RI4はRI2に、それぞれ再構成距離に応じたフィルタを適用した結果の画像である。
フィルタ処理にあたって、奥行きテーブルを参照し、再構成距離が対応する奥行き係数と、再構成画素の奥行き係数との差が所定の閾値以上あった場合に、設定されたボケ強度に従ってボケ付加処理を行う。ボケ付加処理には例えばガウシアンフィルターを用いる。
The result of performing blur addition on each pixel of the reconstructed image is images RI3 and RI4 in FIG. RI3 is an image obtained by applying a filter corresponding to the reconstruction distance to RI1 and RI4 is applied to RI2.
And Oh standing to filter, with reference to the depth table, and depth coefficient reconstruction distance corresponding, when the difference between the depth factor of the reconstructed pixel is a predetermined threshold or more, the blur adding processing according blur intensity set I do. For example, a Gaussian filter is used for the blur addition process.
ボケ付加にあたって、再構成距離より手前にある画素が奥にある画素ににじまないように、注目画素より奥の画素だけをぼかしに使用し、手前の画素は使用しない。例えば、画素2にボケ付加を行うにあたって、所定のボケ付加適用領域(図20(b)右側の大きい正方形の領域)内の画素のうち、より奥に対応する画素(1番の画素)はぼかしに加えるが、手前にある画素(3番の画素)はぼかしに加えない。また、より再構成距離から遠い画素については強く、近い画素については弱く、ボケを付加するようにボケ付加の強度を調整する。そして、フィルタ後の再構成画素を出力部340に伝達する。 When adding blur, only pixels behind the target pixel are used for blurring, so that pixels behind the reconstruction distance are not blurred by pixels behind, and the pixels before this are not used. For example, when performing blur addition on the pixel 2, among the pixels in a predetermined blur addition application region (the large square region on the right side of FIG. 20B), the pixel corresponding to the back (the first pixel) is blurred. However, the pixel in front (the third pixel) is not added to the blur. Further, the intensity of blur addition is adjusted so as to add blur so that the pixel farther from the reconstruction distance is strong and the pixel near is weak. Then, the reconstructed pixel after filtering is transmitted to the output unit 340.
ここで、画像生成装置31が実行するLFIから再構成画像を生成して出力するための処理(画像出力処理、図5)について説明する。画像生成装置31が実行する画像出力処理は、ステップS105で実行する画像生成処理が、図21で示す画像生成処理2であることを除いて、実施形態1にかかる同名の処理と同じである。 Here, a process (image output process, FIG. 5) for generating and outputting a reconstructed image from the LFI executed by the image generating apparatus 31 will be described. The image output process executed by the image generation apparatus 31 is the same as the process of the same name according to the first embodiment except that the image generation process executed in step S105 is the image generation process 2 shown in FIG.
本実施形態に係る画像生成処理2を、図21を参照して説明する。画像生成処理2では、再構成画像生成部331が、ステップS901からステップS904までを図16の画像生成処理1のステップS801からステップS804までと同様に実行する。 Image generation processing 2 according to the present embodiment will be described with reference to FIG. In the image generation process 2, the reconstructed image generation unit 331 executes steps S901 to S904 in the same manner as steps S801 to S804 of the image generation process 1 in FIG.
その後、ステップS905で対応画素の画素値を、ステップS906で対応画素の奥行き係数を取得する。 Thereafter, the pixel value of the corresponding pixel is acquired in step S905, and the depth coefficient of the corresponding pixel is acquired in step S906.
そして、図16の画像生成処理1のステップS805で奥行き画像の画素の奥行き係数を決定した同様の方法で、奥行き係数決定部3341が再構成画素の奥行き係数を決定する(ステップS907)。
さらに、画素値算出部3350が、上述した重み付け加算を用いた方法で注目画素の画素値を算出する(ステップS908)。
Then, the depth coefficient determination unit 3341 determines the depth coefficient of the reconstructed pixel by the same method in which the depth coefficient of the pixel of the depth image is determined in step S805 of the image generation process 1 in FIG. 16 (step S907).
Further, the pixel value calculation unit 3350 calculates the pixel value of the target pixel by the method using the above-described weighted addition (step S908).
次に、全再構成画素について上記処理が終了したか判別し(ステップS909)、未処理の画素が有る場合(ステップS909;NO)、次の画素についてステップS903から処理を繰り返す。
一方、全画素処理済である場合(ステップS909;YES)、再構成フィルタ実行部3360が上述の方法でフィルタ処理を実行する。
そして、画像生成処理2は終了する。
Next, it is determined whether or not the above process has been completed for all the reconstructed pixels (step S909). If there is an unprocessed pixel (step S909; NO), the process is repeated from step S903 for the next pixel.
On the other hand, if all the pixels have been processed (step S909; YES), the reconstruction filter execution unit 3360 executes the filter processing by the above-described method.
Then, the image generation process 2 ends.
以上説明したとおり、本実施形態の画像生成装置31によれば、再構成画素に対応する被写体の奥行きを推定し、推定結果を用いてフィルタ処理を施す。このため、画質の高い再構成画像を生成して出力することができる。 As described above, according to the image generation device 31 of the present embodiment, the depth of the subject corresponding to the reconstructed pixel is estimated, and the filtering process is performed using the estimation result. Therefore, a reconstructed image with high image quality can be generated and output.
特に、再構成距離と再構成画素の奥行きとの差を求め、差が小さい部分についてはボケを付加せず、差が大きい部分にボケを付加するため、フォーカスした部分はシャープに、フォーカス面から遠い部分はぼかすことができる。このため、奥行きに応じたボケ味を付加した、ユーザの満足度が高い画像を生成できる。 In particular, the difference between the reconstruction distance and the depth of the reconstructed pixel is obtained, and the blur is not added to the portion where the difference is small, and the blur is added to the portion where the difference is large. Distant parts can be blurred. For this reason, it is possible to generate an image with a high degree of user satisfaction by adding a blur according to the depth.
また、距離の差が大きいほど強いボケを加え、小さい場合には弱いボケを加えるため、奥行きと再構成面との差を反映してボケ味が異なる、ユーザの満足度が高い画像を生成できる。
さらに、ボケ付加に際して、手前にある画素についてはぼかしに加えない。そのため、手前にある物体の色が奥ににじむことがなく、奥行きを反映した画質が高い画像を生成して出力できる。
In addition, the greater the difference in distance, the stronger the blur and the weaker the blur when it is smaller, so it is possible to generate an image with high user satisfaction that reflects the difference between the depth and the reconstruction plane and has a different blur. .
Furthermore, when blurring is added, the pixel in front is not added to the blur. For this reason, the color of the object in front is not blurred, and an image with high image quality reflecting the depth can be generated and output.
(変形例)
本発明は、上記実施形態に限定されず、さまざまな変形が可能である。
例えば、実施形態1乃至2では、周辺サブイメージの想定範囲について画像ズレとSSDとの対応(図9(c)のグラフ)を求めて、奥行き係数のそれぞれについてSSSDを求めて対応領域を定義した。しかし、対応領域を定義する方法はこれに限られず、各周辺サブイメージについてそれぞれ最小のSSDを持つ奥行き係数に対応する領域を対応領域として、各画素の奥行き係数を投票してもよい。
(Modification)
The present invention is not limited to the above embodiment, and various modifications can be made.
For example, in the first and second embodiments, the correspondence between the image shift and the SSD (graph in FIG. 9C) is obtained for the assumed range of the peripheral sub-image, and the corresponding region is defined by obtaining the SSSD for each depth coefficient. . However, the method of defining the corresponding area is not limited to this, and the depth coefficient of each pixel may be voted with the area corresponding to the depth coefficient having the smallest SSD for each peripheral sub-image as the corresponding area.
また、実施形態1乃至2では、奥行きフィルタをLFDIに適用して、その後再構成画像を生成するとしたが、LFDIには奥行き係数に関するフィルタを適用せず、再構成画像上で奥行き係数にかかるフィルタ処理を実行しても良い。 In the first and second embodiments, the depth filter is applied to LFDI, and then a reconstructed image is generated. However, a filter related to the depth coefficient on the reconstructed image is not applied to the LFDI. Processing may be executed.
また、上記実施形態1乃至2では、メインレンズは単焦点レンズであるとしたが、メインレンズはこれに限らず焦点距離を変更可能なレンズであるとしても良い。このとき、奥行きテーブルを複数用意して撮影パラメータに応じた奥行きテーブルを使用するとしてもよい。具体的には、撮影設定が示すメインレンズの焦点距離と、その場合に使用する奥行きテーブルとを対応付けたテーブルを用意し、画像出力処理毎に、取得した撮影設定を引数として最適な奥行きテーブルを抽出して使用するものとする。 In the first and second embodiments, the main lens is a single focal lens. However, the main lens is not limited to this, and may be a lens whose focal length can be changed. At this time, a plurality of depth tables may be prepared and the depth table corresponding to the shooting parameter may be used. Specifically, a table in which the focal length of the main lens indicated by the shooting setting is associated with the depth table used in that case is prepared, and the optimum depth table with the acquired shooting setting as an argument for each image output process Shall be extracted and used.
また、上記実施例では、画像をグレースケール画像であるとして説明したが、本発明の処理対象となる画像はグレースケール画像に限らない。例えば、画像は各画素にR(レッド)、G(グリーン)、B(ブルー)、の三つの画素値が定義されたRGB画像であってよい。この場合、画素値をRGBのベクトル値として同様に処理する。また、R、G、B、の各値をそれぞれ独立したグレースケール画像として、それぞれ上記処理を行っても良い。この構成によれば、カラー画像であるライトフィールド画像からカラー画像である再構成画像を生成できる。 In the above embodiment, the image is described as a grayscale image. However, the image to be processed according to the present invention is not limited to a grayscale image. For example, the image may be an RGB image in which three pixel values of R (red), G (green), and B (blue) are defined for each pixel. In this case, the pixel value is similarly processed as an RGB vector value. Alternatively, the above processing may be performed using each of R, G, and B values as independent grayscale images. According to this configuration, a reconstructed image that is a color image can be generated from a light field image that is a color image.
その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。 In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.
情報処理部31a、主記憶部32、外部記憶部33、などから構成される再構成画像生成のための処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROMなど)に格納して配布し、前記コンピュータプログラムをコンピュータにインストールし、画像再構成のための処理を行う中心となる部分を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に前記コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで再構成画像生成装置を構成してもよい。 A central part that performs processing for generating a reconstructed image composed of the information processing unit 31a, the main storage unit 32, the external storage unit 33, and the like is not based on a dedicated system, but using a normal computer system. It is feasible. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. You may comprise the center part which performs the process for image reconstruction. Further, the reconstructed image generating apparatus may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet, and downloading it by a normal computer system.
再構成生成装置の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。 When realizing the function of the reconfiguration generation apparatus by sharing the OS (operating system) and application program, or by cooperating between the OS and application program, store only the application program part in a recording medium or storage device. Also good.
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network, and the computer program may be distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.
(付記1)
複数のサブイメージから構成されるライトフィールド画像から被写体の奥行きを推定する奥行き推定装置であって、
前記ライトフィールド画像のサブイメージ上に、前記奥行き推定の対象となる対象被写体に対応する画素領域を定義する画素領域定義手段と、
前記画素領域定義手段によって定義された画素領域の、当該画素領域を含む注目サブイメージ上の位置と、当該注目サブイメージの周辺に配置された周辺サブイメージ上の当該画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記対象被写体の奥行きを推定する奥行き推定手段と、
を備えることを特徴とする奥行き推定装置。
(Appendix 1)
A depth estimation device that estimates the depth of a subject from a light field image composed of a plurality of sub-images,
Pixel area defining means for defining a pixel area corresponding to a target subject to be subjected to the depth estimation on a sub-image of the light field image;
The position of the pixel area defined by the pixel area defining means on the target sub-image including the pixel area and the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image. And a depth estimation means for estimating the depth of the target subject based on the positional deviation of the position,
A depth estimation apparatus comprising:
(付記2)
前記周辺サブイメージ上の対応領域を、前記注目サブイメージの画素領域の画素値と、前記周辺サブイメージの画素値と、に基づいて抽出する対応領域抽出手段を更に備え、
前記奥行き推定手段は、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域抽出手段によって抽出された対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記対象被写体の奥行きを推定する、
ことを特徴とする付記1に記載の奥行き推定装置。
(Appendix 2)
A corresponding area extracting unit that extracts a corresponding area on the peripheral sub-image based on a pixel value of a pixel area of the target sub-image and a pixel value of the peripheral sub-image;
The depth estimation means includes
The depth of the target subject is estimated based on a positional shift between the position of the pixel area on the target sub-image and the position of the corresponding area extracted by the corresponding area extraction unit on the peripheral sub-image. ,
The depth estimation apparatus according to supplementary note 1, wherein:
(付記3)
前記ライトフィールド画像から被写体の像を再構成した再構成画像とその画素である再構成画素を定義する再構成画像定義手段と、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記画素領域に含まれるサブ画素の奥行き係数を求める奥行き係数獲得手段と、
を更に備え、
前記奥行き推定手段は、
前記奥行き係数獲得手段が求めた各サブ画素の奥行き係数に基づいて、前記再構成画像の画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする付記1又は2に記載の奥行き推定装置。
(Appendix 3)
Reconstructed image defining means for defining a reconstructed image obtained by reconstructing an image of a subject from the light field image and a reconstructed pixel that is a pixel thereof;
Depth coefficient acquisition for obtaining a depth coefficient of a sub-pixel included in the pixel area based on a positional shift between the position of the pixel area on the target sub-image and the position of the corresponding area on the peripheral sub-image Means,
Further comprising
The depth estimation means includes
Estimating the depth of the subject by determining the depth coefficient of the pixel of the reconstructed image based on the depth coefficient of each sub-pixel obtained by the depth coefficient acquisition means;
The depth estimation apparatus according to Supplementary Note 1 or 2, wherein:
(付記4)
前記再構成画素に対応する前記ライトフィールド画像上の対応画素を抽出する対応画素抽出手段を備え、
前記奥行き推定手段は、
前記対応画素抽出手段によって抽出された対応画素について前記奥行き係数獲得手段が求めた奥行き係数に基づいて、前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする付記3に記載の奥行き推定装置。
(Appendix 4)
Corresponding pixel extraction means for extracting corresponding pixels on the light field image corresponding to the reconstructed pixels,
The depth estimation means includes
Estimating the depth of the subject by determining the depth coefficient of the reconstructed pixel based on the depth coefficient obtained by the depth coefficient acquisition means for the corresponding pixel extracted by the corresponding pixel extraction means;
The depth estimation apparatus according to Supplementary Note 3, wherein
(付記5)
前記周辺サブイメージ上の視差に応じた複数の位置に対応候補領域を定義し、当該対応候補領域のそれぞれについて、前記サブイメージの画素領域との対応の確かさを示す対応係数を求める対応係数獲得手段を更に備え、
前記対応領域抽出手段は、
前記対応係数獲得手段が求めた対応係数に基づいて、前記周辺サブイメージ上の対応領域を抽出する、
ことを特徴とする付記2に記載の奥行き推定装置。
(Appendix 5)
Corresponding coefficient acquisition for defining a corresponding candidate area at a plurality of positions according to parallax on the peripheral sub-image and obtaining a corresponding coefficient indicating the certainty of correspondence with the pixel area of the sub-image for each of the corresponding candidate areas Further comprising means,
The corresponding area extracting means includes
Extracting a corresponding region on the peripheral sub-image based on the corresponding coefficient obtained by the corresponding coefficient acquiring means;
The depth estimation apparatus according to Supplementary Note 2, wherein
(付記6)
前記対応係数獲得手段は、
異なる視差毎に複数の前記周辺サブイメージのそれぞれに前記対応候補領域を定義し、当該対応候補領域のそれぞれについて前記対応係数を求め、
前記対応領域抽出手段は、
前記対応候補領域のそれぞれについて求めた対応係数から、前記視差毎に前記対応係数の確からしさを示す尤度係数を求め、当該尤度係数が最も確からしい対応係数に対応する対応候補領域を前記対応領域として抽出する、
ことを特徴とする付記5に記載の奥行き推定装置。
(Appendix 6)
The corresponding coefficient acquisition means is
Defining the corresponding candidate area for each of the plurality of peripheral sub-images for each different parallax, and determining the corresponding coefficient for each of the corresponding candidate areas;
The corresponding area extracting means includes
A likelihood coefficient indicating the likelihood of the corresponding coefficient is obtained for each parallax from the corresponding coefficient determined for each of the corresponding candidate areas, and the corresponding candidate area corresponding to the corresponding coefficient with the most likely likelihood coefficient is the corresponding Extract as a region,
The depth estimation apparatus according to Supplementary Note 5, wherein
(付記7)
前記対応係数獲得手段が求める対応係数は、前記画素領域と前記対応候補領域との画素値の差違を示す係数である、
ことを特徴とする付記5又は6に記載の奥行き推定装置。
(Appendix 7)
The correspondence coefficient obtained by the correspondence coefficient acquisition unit is a coefficient indicating a difference in pixel values between the pixel area and the correspondence candidate area.
The depth estimation apparatus according to Supplementary Note 5 or 6, characterized in that:
(付記8)
前記奥行き係数獲得手段は、
前記サブ画素の奥行き係数を、当該サブ画素から所定領域に含まれるサブ画素の奥行き係数に基づき補正する、
ことを特徴とする付記3又は4に記載の奥行き推定装置。
(Appendix 8)
The depth coefficient acquisition means includes
Correcting the depth coefficient of the sub-pixel based on the depth coefficient of the sub-pixel included in the predetermined area from the sub-pixel;
The depth estimation apparatus according to supplementary note 3 or 4, characterized in that:
(付記9)
ライトフィールド画像から、所定の再構成距離に合焦した再構成画像を生成する再構成画像生成装置であって、
付記1乃至8の何れか1つに記載の奥行き推定装置と、
前記奥行き推定装置によって推定された被写体の奥行きと前記再構成距離との距離の差に基づき、前記再構成画像を構成する再構成画素の画素値を補正する再構成画像補正手段と、
を備えることを特徴とする再構成画像生成装置。
(Appendix 9)
A reconstructed image generating device that generates a reconstructed image focused on a predetermined reconstruction distance from a light field image,
The depth estimation apparatus according to any one of appendices 1 to 8,
Reconstructed image correcting means for correcting a pixel value of a reconstructed pixel constituting the reconstructed image based on a difference in distance between the depth of the subject estimated by the depth estimating device and the reconstructed distance;
A reconstructed image generating apparatus comprising:
(付記10)
前記再構成画像補正手段は、前記補正として、対応する被写体の奥行きと前記再構成距離との距離の差が所定の閾値よりも大きい再構成画素に、当該再構成画素から所定範囲にある再構成画素の画素値に基づいてボケを付加する、
ことを特徴とする付記9に記載の再構成画像生成装置。
(Appendix 10)
The reconstructed image correcting unit reconstructs a reconstructed pixel in which a difference between the depth of the corresponding subject and the reconstructed distance is larger than a predetermined threshold as a correction within a predetermined range from the reconstructed pixel. Add blur based on pixel value of pixel,
The reconstructed image generating apparatus according to Supplementary Note 9, wherein
(付記11)
前記再構成画像補正手段は、前記ボケを付加するにあたって、対応する被写体の奥行きが、前記再構成距離よりも手前である被写体の再構成画素については、前記ボケを付加する処理の処理対象としない、
ことを特徴とする付記10に記載の再構成画像生成装置。
(Appendix 11)
The reconstructed image correcting means does not add the blur to the reconstructed pixel of the subject whose depth of the corresponding subject is in front of the reconstruction distance when adding the blur. ,
The reconstructed image generating apparatus according to Supplementary Note 10, wherein:
(付記12)
複数のサブイメージから構成されるライトフィールド画像から被写体の奥行きを推定する奥行き推定方法であって、
前記ライトフィールド画像のサブイメージ上に、前記奥行き推定の対象となる対象被写体に対応する画素領域を定義するステップと、
前記定義された画素領域の、当該画素領域を含む注目サブイメージ上の位置と、当該注目サブイメージの周辺に配置された周辺サブイメージ上の当該画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記対象被写体の奥行きを推定するステップと、
を含むことを特徴とする奥行き推定方法。
(Appendix 12)
A depth estimation method for estimating the depth of a subject from a light field image composed of a plurality of sub-images,
Defining a pixel area corresponding to a target subject to be subject to the depth estimation on a sub-image of the light field image;
The position of the defined pixel area on the target sub-image including the pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image Estimating the depth of the target subject based on the deviation of
The depth estimation method characterized by including.
(付記13)
複数のサブイメージから構成されるライトフィールド画像から、所定の再構成距離に合焦した再構成画像を生成する再構成画像生成方法であって、
前記ライトフィールド画像のサブイメージ上に、前記奥行き推定の対象となる対象被写体に対応する画素領域を定義するステップと、
前記定義された画素領域の、当該画素領域を含む注目サブイメージ上の位置と、当該注目サブイメージの周辺に配置された周辺サブイメージ上の当該画素領域に対応する対応領域の位置と、の位置のズレに基づいて、当該画素領域を構成する各画素について前記対象被写体の奥行き係数を求めるステップと、
前記再構成画像を構成する再構成画素に対応する前記ライトフィールド画像上の対応画素を抽出するステップと、
前記求めた奥行き係数に基づいて、前記対応画素と対応する前記再構成画素の奥行き係数を設定するステップと、
前記再構成画素の奥行き係数が示す被写体までの距離と前記再構成距離との距離の差に基づき、前記再構成画素の画素値を補正するステップと、
前記再構成画素の前記補正後の画素値を用いて再構成画像を生成するステップと、
を含むことを特徴とする再構成画像生成方法。
(Appendix 13)
A reconstructed image generation method for generating a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images,
Defining a pixel area corresponding to a target subject to be subject to the depth estimation on a sub-image of the light field image;
The position of the defined pixel area on the target sub-image including the pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image Determining the depth coefficient of the target subject for each pixel constituting the pixel area based on
Extracting corresponding pixels on the light field image corresponding to the reconstructed pixels constituting the reconstructed image;
Setting a depth coefficient of the reconstructed pixel corresponding to the corresponding pixel based on the determined depth coefficient;
Correcting the pixel value of the reconstructed pixel based on the difference between the distance to the subject indicated by the depth coefficient of the reconstructed pixel and the reconstructed distance;
Generating a reconstructed image using the corrected pixel value of the reconstructed pixel;
A reconstructed image generation method comprising:
(付記14)
複数のサブイメージから構成されるライトフィールド画像から被写体の奥行きを推定するため、コンピュータに、
前記ライトフィールド画像のサブイメージ上に、前記奥行き推定の対象となる対象被写体に対応する画素領域を定義する機能、
前記定義された画素領域の、当該画素領域を含む注目サブイメージ上の位置と、当該注目サブイメージの周辺に配置された周辺サブイメージ上の当該画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記対象被写体の奥行きを推定する機能、
を実現させることを特徴とするプログラム。
(Appendix 14)
To estimate the depth of a subject from a light field image composed of multiple sub-images,
A function of defining a pixel region corresponding to a target subject to be subjected to the depth estimation on a sub-image of the light field image;
The position of the defined pixel area on the target sub-image including the pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image A function of estimating the depth of the target subject based on the deviation of
A program characterized by realizing.
(付記15)
複数のサブイメージから構成されるライトフィールド画像から、所定の再構成距離に合焦した再構成画像を生成するため、コンピュータに、
前記ライトフィールド画像のサブイメージ上に、前記奥行き推定の対象となる対象被写体に対応する画素領域を定義する機能、
前記定義された画素領域の、当該画素領域を含む注目サブイメージ上の位置と、当該注目サブイメージの周辺に配置された周辺サブイメージ上の当該画素領域に対応する対応領域の位置と、の位置のズレに基づいて、当該画素領域を構成する各画素について前記対象被写体の奥行き係数を求める機能、
前記再構成画像を構成する再構成画素に対応する前記ライトフィールド画像上の対応画素を抽出する機能、
前記求めた奥行き係数に基づいて、前記対応画素と対応する前記再構成画素の奥行き係数を設定する機能、
前記再構成画素の奥行き係数が示す被写体までの距離と前記再構成距離との距離の差に基づき、前記再構成画素の画素値を補正する機能、
前記再構成画素の前記補正後の画素値を用いて再構成画像を生成する機能、
を実現させることを特徴とするプログラム。
(Appendix 15)
In order to generate a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images,
A function of defining a pixel region corresponding to a target subject to be subjected to the depth estimation on a sub-image of the light field image;
The position of the defined pixel area on the target sub-image including the pixel area and the position of the corresponding area corresponding to the pixel area on the peripheral sub-image arranged around the target sub-image A function for obtaining the depth coefficient of the target subject for each pixel constituting the pixel area based on the deviation of
A function of extracting corresponding pixels on the light field image corresponding to the reconstructed pixels constituting the reconstructed image;
A function of setting a depth coefficient of the reconstructed pixel corresponding to the corresponding pixel based on the obtained depth coefficient;
A function of correcting the pixel value of the reconstructed pixel based on the difference in distance between the distance to the subject indicated by the depth coefficient of the reconstructed pixel and the reconstructed distance;
A function of generating a reconstructed image using the corrected pixel value of the reconstructed pixel;
A program characterized by realizing.
1…デジタルカメラ、10…撮像部、110…光学装置、111…シャッタ、120…イメージセンサ、20…情報処理部、30…画像生成装置、31…画像生成装置、31a…情報処理部、32…主記憶部、33…外部記憶部、36…入出力部、37…内部バス、38…プログラム、210…画像処理部、220…撮像制御部、310…入力部、3110…LFI取得部、3120…再構成設定取得部、3130…撮影設定取得部、320…奥行き推定部、3210…領域定義部、3220…注目領域選択部、3230…周辺サブイメージ選択部、3240…SSD算出部、3250…奥行き係数投票部、3260…サブ画素奥行き係数選択部、3270…奥行きフィルタ実行部、330…奥行き画像生成部、331…再構成画像生成部、3310…ひな形定義部、3320…注目画素選択部、3330…対応画素抽出部、3340…画素値決定部、3341…奥行き係数決定部、3350…画素値算出部、3360…再構成フィルタ実行部、340…出力部、d1〜d8…ずれ方向、MinD…SSSDが最小の奥行き係数、40…記憶部、410…撮像設定記憶部、420…再構成設定記憶部、430…画像記憶部、50…インターフェース部(I/F部)、510…I/O部、520…表示部、530…操作部、LFI…ライトフィールド画像、LFDI…ライトフィールド奥行き画像、OA…光軸、OB…被写体、POB…被写体の部分、P…注目部位、ML…メインレンズ、PF…結像点、MIP…メインレンズ結像面、PE…到達点、IE…撮像面、SLA…サブレンズアレイ、SL…サブレンズ、MLB…メインレンズブラー、MLBC…メインレンズブラー中心、SI…サブイメージ、S11〜SMN…サブイメージ、SI1〜SI8…サブイメージ、DI…奥行き画像、RI1、RI2…再構成フィルタ実行前の再構成画像、RI3、RI4…再構成フィルタ実行後の再構成画像、RF…再構成面 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 10 ... Imaging part, 110 ... Optical apparatus, 111 ... Shutter, 120 ... Image sensor, 20 ... Information processing part, 30 ... Image generation apparatus, 31 ... Image generation apparatus, 31a ... Information processing part, 32 ... Main storage unit 33 ... external storage unit 36 ... input / output unit 37 ... internal bus 38 ... program 210 ... image processing unit 220 ... imaging control unit 310 ... input unit 3110 ... LFI acquisition unit 3120 ... Reconstruction setting acquisition unit, 3130 ... Shooting setting acquisition unit, 320 ... Depth estimation unit, 3210 ... Area definition unit, 3220 ... Region of interest selection unit, 3230 ... Peripheral sub-image selection unit, 3240 ... SSD calculation unit, 3250 ... Depth coefficient Voting unit, 3260 ... sub-pixel depth coefficient selection unit, 3270 ... depth filter execution unit, 330 ... depth image generation unit, 331 ... reconstructed image generation unit, 310 ... Template definition unit, 3320 ... Target pixel selection unit, 3330 ... Corresponding pixel extraction unit, 3340 ... Pixel value determination unit, 3341 ... Depth coefficient determination unit, 3350 ... Pixel value calculation unit, 3360 ... Reconstruction filter execution unit, 340: output unit, d1 to d8: deviation direction, MinD: depth coefficient with minimum SSSD, 40 ... storage unit, 410 ... imaging setting storage unit, 420 ... reconstruction setting storage unit, 430 ... image storage unit, 50 ... interface Part (I / F part), 510 ... I / O part, 520 ... display part, 530 ... operation part, LFI ... light field image, LFDI ... light field depth image, OA ... optical axis, OB ... subject, POB ... subject , P ... attention site, ML ... main lens, PF ... imaging point, MIP ... main lens imaging plane, PE ... arrival point, IE ... imaging plane, SLA ... Zuarei, SL ... sub-lens, MLB ... the main lens blur, MLBC ... the main lens blur center, SI ... sub-images, S 11 ~S MN ... sub-image, SI1~SI8 ... sub-image, DI ... depth image, RI1, RI2 ... Reconstructed image before execution of reconstruction filter, RI3, RI4 ... Reconstructed image after execution of reconstruction filter, RF ... Reconstruction plane
Claims (14)
前記ライトフィールド画像の前記サブイメージ上に、前記被写体に対応する画素領域を定義する画素領域定義手段と、
前記画素領域定義手段によって定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定する奥行き推定手段と、
前記ライトフィールド画像から前記被写体の像を再構成した再構成画像と前記再構成画像の画素である再構成画素とを定義する再構成画像定義手段と、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記画素領域に含まれるサブ画素の奥行き係数を求める奥行き係数獲得手段と、
を備え、
前記奥行き推定手段は、前記奥行き係数獲得手段が求めた各前記サブ画素の奥行き係数に基づいて、前記再構成画像の前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする奥行き推定装置。 A depth estimation device that estimates the depth of a subject from a light field image composed of a plurality of sub-images,
On the sub-image of the light field image, a pixel region defining means for defining a pixel area corresponding to the object,
And position on the target sub-image comprising a pixel area defined by the pixel area defining means, a position of the corresponding region corresponding to the picture element region on the peripheral sub-images arranged in the periphery of the target sub-images, the Depth estimation means for estimating the depth of the subject based on a positional shift;
Reconstructed image defining means for defining a reconstructed image obtained by reconstructing the image of the subject from the light field image and a reconstructed pixel that is a pixel of the reconstructed image;
Depth coefficient acquisition for obtaining a depth coefficient of a sub-pixel included in the pixel area based on a positional shift between the position of the pixel area on the target sub-image and the position of the corresponding area on the peripheral sub-image Means,
Bei to give a,
The depth estimation means estimates the depth of the subject by determining the depth coefficient of the reconstructed pixel of the reconstructed image based on the depth coefficient of each subpixel obtained by the depth coefficient acquisition means.
A depth estimation apparatus characterized by that.
前記奥行き推定手段は、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域抽出手段によって抽出された前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定する、
ことを特徴とする請求項1に記載の奥行き推定装置。 The corresponding region on the peripheral sub-images, further comprising: a pixel value of the pixel area of the target sub-images, the pixel values of the peripheral sub-images, the corresponding area extracting unit that extracts, based on,
The depth estimation means includes
Wherein the position on the target sub-image of the pixel area, the corresponding area and position on the peripheral sub-images of said corresponding area extracted by the extraction means, based on the deviation of the position of, estimating the depth of the subject ,
The depth estimation apparatus according to claim 1.
前記奥行き推定手段は、
前記対応画素抽出手段によって抽出された前記対応画素について前記奥行き係数獲得手段が求めた奥行き係数に基づいて、前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする請求項1又は2に記載の奥行き推定装置。 Corresponding pixel extraction means for extracting corresponding pixels on the light field image corresponding to the reconstructed pixels,
The depth estimation means includes
Wherein for said corresponding pixel extracted by the corresponding pixel extracting means based on the depth coefficient is the depth factor acquisition means determined by determining the depth coefficient of the reconstructed pixels to estimate the depth of the subject,
The depth estimation apparatus according to claim 1 or 2 , wherein
前記対応領域抽出手段は、
前記対応係数獲得手段が求めた対応係数に基づいて、前記周辺サブイメージ上の前記対応領域を抽出する、
ことを特徴とする請求項2に記載の奥行き推定装置。 Define the corresponding candidate region into a plurality of positions corresponding to the parallax on the peripheral sub-images, wherein for each of the corresponding candidate area corresponding coefficient acquiring seeking corresponding coefficient indicating the correspondence between certainty of a pixel region of the sub-images Further comprising means,
The corresponding area extracting means includes
Based on the corresponding coefficients the corresponding coefficient acquiring means is determined, and extracts the corresponding region on the peripheral sub-images,
The depth estimation apparatus according to claim 2.
異なる視差毎に複数の前記周辺サブイメージのそれぞれに前記対応候補領域を定義し、前記対応候補領域のそれぞれについて前記対応係数を求め、
前記対応領域抽出手段は、
前記対応候補領域のそれぞれについて求めた前記対応係数から、前記視差毎に前記対応係数の確からしさを示す尤度係数を求め、前記尤度係数が最も確からしい前記対応係数に対応する前記対応候補領域を前記対応領域として抽出する、
ことを特徴とする請求項4に記載の奥行き推定装置。 The corresponding coefficient acquisition means is
Defines the corresponding candidate region to each of the plurality of the peripheral sub-images for different parallax calculated the corresponding coefficients for each of said corresponding candidate region,
The corresponding area extracting means includes
Said corresponding candidate region said from the corresponding coefficients obtained for each of the corresponding candidate area, obtains a likelihood factor indicating the probability of the corresponding coefficient for each of the parallax, the likelihood factor corresponding to the most probable said corresponding coefficient Is extracted as the corresponding region,
The depth estimation apparatus according to claim 4 .
ことを特徴とする請求項4又は5に記載の奥行き推定装置。 Wherein the corresponding coefficients corresponding coefficient acquiring means finding is a coefficient indicating a difference in pixel value between the pixel region and the corresponding candidate area,
The depth estimation apparatus according to claim 4 or 5 , characterized by the above.
前記サブ画素の奥行き係数を、前記サブ画素から所定領域に含まれるサブ画素の奥行き係数に基づき補正する、
ことを特徴とする請求項1乃至6のいずれかに記載の奥行き推定装置。 The depth coefficient acquisition means includes
The depth factor of the sub-pixel is corrected based on the depth factor of the sub-pixel where the contained sub-pixel in a predetermined area,
The depth estimation apparatus according to any one of claims 1 to 6 .
前記ライトフィールド画像の前記サブイメージ上に、被写体に対応する画素領域を定義する画素領域定義手段と、前記画素領域定義手段によって定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定する奥行き推定手段と、を有する奥行き推定装置と、
前記奥行き推定装置によって推定された前記被写体の奥行きと前記再構成距離との距離の差に基づき、前記再構成画像を構成する再構成画素の画素値を補正する再構成画像補正手段と、
を備える、
ことを特徴とする再構成画像生成装置。 A reconstructed image generating device that generates a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images ,
A pixel area defining means for defining a pixel area corresponding to a subject on the sub-image of the light field image; a position on the target sub-image including the pixel area defined by the pixel area defining means; A depth estimation device comprising: a depth estimation unit configured to estimate the depth of the subject based on a position shift of a corresponding area corresponding to a pixel area on a peripheral sub-image disposed around the image; and
Based on the difference in distance between the depth and the reconstruction distance of the object estimated by the depth estimation apparatus, a reconstruction image correcting means for correcting the pixel value of the reconstructed pixels constituting the reconstructed image,
Equipped with a,
A reconstructed image generating apparatus characterized by that.
ことを特徴とする請求項8に記載の再構成画像生成装置。 The reconstructed image correcting means, as the correction, the reconstructed pixels difference is greater than a predetermined threshold value of the distance between depth and the reconstruction distance of the corresponding object is in the predetermined range from the reconstructed pixel re Add blur based on the pixel values of the constituent pixels.
The reconstructed image generating apparatus according to claim 8 .
ことを特徴とする請求項9に記載の再構成画像生成装置。 The reconstructed image correction means, when adding the blur, depth of the corresponding object, said the reconstructed pixels of the subject is short of the reconstruction distance, and processed by the process of adding the blur do not do,
The reconstructed image generating apparatus according to claim 9 .
前記ライトフィールド画像のサブイメージ上に、前記被写体に対応する画素領域を定義するステップと、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定するステップと、
前記ライトフィールド画像から前記被写体の像を再構成した再構成画像と前記再構成画像の画素である再構成画素とを定義するステップと、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記画素領域に含まれるサブ画素の奥行き係数を求めるステップと、
を含み、
前記奥行きを推定するステップでは、前記奥行き係数を求めるステップで求めた各前記サブ画素の奥行き係数に基づいて、前記再構成画像の前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とする奥行き推定方法。 A depth estimation method for estimating the depth of a subject from a light field image composed of a plurality of sub-images,
Defining a pixel region corresponding to the subject on a sub-image of the light field image;
And position on the target sub-image comprising a pixel area of the defined, based on the position and, in the position of displacement of the corresponding region corresponding to the picture element region on the target sub-peripheral sub images that are arranged around the image Estimating the depth of the subject ;
Defining a reconstructed image obtained by reconstructing the image of the subject from the light field image and a reconstructed pixel that is a pixel of the reconstructed image;
Obtaining a depth coefficient of a sub-pixel included in the pixel area based on a positional shift between the position of the pixel area on the target sub-image and the position of the corresponding area on the peripheral sub-image;
Only including,
In the step of estimating the depth, the depth of the subject is determined by determining the depth coefficient of the reconstructed pixel of the reconstructed image based on the depth coefficient of each of the sub-pixels obtained in the step of obtaining the depth coefficient. presume,
A depth estimation method characterized by the above.
前記ライトフィールド画像の前記サブイメージ上に、奥行きを推定する対象となる被写体に対応する画素領域を定義するステップと、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、画素領域を構成する各画素について前記被写体の奥行き係数を求めるステップと、
前記再構成画像を構成する再構成画素に対応する前記ライトフィールド画像上の対応画素を抽出するステップと、
求めた前記奥行き係数に基づいて、前記対応画素と対応する前記再構成画素の奥行き係数を設定するステップと、
前記再構成画素の奥行き係数が示す被写体までの距離と前記再構成距離との距離の差に基づき、前記再構成画素の画素値を補正するステップと、
前記再構成画素の前記補正後の画素値を用いて再構成画像を生成するステップと、
を含む、
ことを特徴とする再構成画像生成方法。 A reconstructed image generation method for generating a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images,
On the sub-image of the light field image, comprising the steps of defining a pixel area corresponding to the object of interest to estimate the depth,
And position on the target sub-image comprising a pixel area of the defined, based on the position and, in the position of displacement of the corresponding region corresponding to the picture element region on the target sub-peripheral sub images that are arranged around the image Te, determining a depth coefficient of the object for each pixel constituting the picture element region,
Extracting corresponding pixels on the light field image corresponding to the reconstructed pixels constituting the reconstructed image;
A step of, based on calculated meth the depth factor, to set the depth coefficient of the reconstructing pixel corresponding to the corresponding pixels,
Correcting the pixel value of the reconstructed pixel based on the difference between the distance to the subject indicated by the depth coefficient of the reconstructed pixel and the reconstructed distance;
Generating a reconstructed image using the corrected pixel value of the reconstructed pixel;
Including,
A reconstructed image generation method characterized by the above.
前記ライトフィールド画像のサブイメージ上に、前記被写体に対応する画素領域を定義する機能、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、前記被写体の奥行きを推定する機能、
前記ライトフィールド画像から前記被写体の像を再構成した再構成画像と前記再構成画像の画素である再構成画素とを定義する機能、
前記画素領域の前記注目サブイメージ上の位置と、前記対応領域の前記周辺サブイメージ上の位置と、の位置のズレに基づいて、前記画素領域に含まれるサブ画素の奥行き係数を求める機能、
を実現させ、
前記奥行きを推定する機能では、前記奥行き係数を求める機能で求めた各前記サブ画素の奥行き係数に基づいて、前記再構成画像の前記再構成画素の奥行き係数を定めることにより、前記被写体の奥行きを推定する、
ことを特徴とするプログラム。 To estimate the depth of a subject from a light field image composed of multiple sub-images,
A function for defining a pixel region corresponding to the subject on the sub-image of the light field image;
And position on the target sub-image comprising a pixel area of the defined, based on the position and, in the position of displacement of the corresponding region corresponding to the picture element region on the target sub-peripheral sub images that are arranged around the image A function for estimating the depth of the subject ,
A function for defining a reconstructed image obtained by reconstructing the image of the subject from the light field image and a reconstructed pixel that is a pixel of the reconstructed image;
A function for obtaining a depth coefficient of a sub-pixel included in the pixel area based on a positional shift between a position of the pixel area on the target sub-image and a position of the corresponding area on the peripheral sub-image;
Realized ,
In the function of estimating the depth, the depth of the subject is determined by determining the depth coefficient of the reconstructed pixel of the reconstructed image based on the depth coefficient of each subpixel obtained by the function of obtaining the depth coefficient. presume,
A program characterized by that.
前記ライトフィールド画像のサブイメージ上に、奥行きを推定する対象となる被写体に対応する画素領域を定義する機能、
前記定義された画素領域を含む注目サブイメージ上の位置と、前記注目サブイメージの周辺に配置された周辺サブイメージ上の画素領域に対応する対応領域の位置と、の位置のズレに基づいて、画素領域を構成する各画素について前記被写体の奥行き係数を求める機能、
前記再構成画像を構成する再構成画素に対応する前記ライトフィールド画像上の対応画素を抽出する機能、
求めた奥行き係数に基づいて、前記対応画素と対応する前記再構成画素の奥行き係数を設定する機能、
前記再構成画素の奥行き係数が示す前記被写体までの距離と前記再構成距離との距離の差に基づき、前記再構成画素の画素値を補正する機能、
前記再構成画素の補正後の画素値を用いて再構成画像を生成する機能、
を実現させる、
ことを特徴とするプログラム。 In order to generate a reconstructed image focused on a predetermined reconstruction distance from a light field image composed of a plurality of sub-images,
A function for defining a pixel region corresponding to a subject whose depth is to be estimated on a sub-image of the light field image;
And position on the target sub-image comprising a pixel area of the defined, based on the position and, in the position of displacement of the corresponding region corresponding to the picture element region on the target sub-peripheral sub images that are arranged around the image Te, function of obtaining a depth coefficient of the object for each pixel constituting the picture element region,
A function of extracting corresponding pixels on the light field image corresponding to the reconstructed pixels constituting the reconstructed image;
Based on the determined metadata depth factor, the ability to set the depth coefficient of the reconstructing pixel corresponding to the corresponding pixels,
Function based on said difference in distance of the distance to the subject indicated by the depth factor of reconstructed pixel and the reconstruction distance, corrects the pixel value of the reconstructed pixels,
Function of generating a reconstructed image by using the pixel values after compensation of the reconstructed pixel,
To realize ,
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042573A JP5900017B2 (en) | 2012-02-28 | 2012-02-28 | Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042573A JP5900017B2 (en) | 2012-02-28 | 2012-02-28 | Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013178684A JP2013178684A (en) | 2013-09-09 |
JP5900017B2 true JP5900017B2 (en) | 2016-04-06 |
Family
ID=49270256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012042573A Expired - Fee Related JP5900017B2 (en) | 2012-02-28 | 2012-02-28 | Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5900017B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5631935B2 (en) | 2012-07-11 | 2014-11-26 | 株式会社東芝 | Image processing apparatus, image processing method and program, and imaging apparatus |
JP6188531B2 (en) * | 2013-10-22 | 2017-08-30 | キヤノン株式会社 | Imaging apparatus, control method thereof, and program |
EP3026628A1 (en) | 2014-11-26 | 2016-06-01 | Thomson Licensing | Method and apparatus for estimating depth of unfocused plenoptic data |
JP6908025B2 (en) * | 2016-04-06 | 2021-07-21 | ソニーグループ株式会社 | Image processing equipment and image processing method |
CN114119698B (en) * | 2021-06-18 | 2022-07-19 | 湖南大学 | Unsupervised monocular depth estimation method based on attention mechanism |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008078692A (en) * | 2006-09-19 | 2008-04-03 | Ricoh Co Ltd | Image input apparatus, and electronic equipment |
JP4915859B2 (en) * | 2007-03-26 | 2012-04-11 | 船井電機株式会社 | Object distance deriving device |
JP2009229125A (en) * | 2008-03-19 | 2009-10-08 | Sharp Corp | Distance measuring device and distance measuring method |
JP5229541B2 (en) * | 2008-05-29 | 2013-07-03 | 株式会社ニコン | Distance measuring device, distance measuring method, and program |
JP2010057067A (en) * | 2008-08-29 | 2010-03-11 | Sony Corp | Image pickup apparatus and image processing apparatus |
JP2010109921A (en) * | 2008-10-31 | 2010-05-13 | Nikon Corp | Image synthesizing apparatus |
-
2012
- 2012-02-28 JP JP2012042573A patent/JP5900017B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013178684A (en) | 2013-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230351623A1 (en) | Systems and Methods for Depth Estimation Using Generative Models | |
JP5206853B2 (en) | Interpolated image generating device, reconstructed image generating device, interpolated image generating method, and program | |
EP3134868B1 (en) | Generation and use of a 3d radon image | |
US10762655B1 (en) | Disparity estimation using sparsely-distributed phase detection pixels | |
CN104363378B (en) | camera focusing method, device and terminal | |
JP5762211B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017520050A (en) | Local adaptive histogram flattening | |
JP5370542B1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2015197745A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
US9818199B2 (en) | Method and apparatus for estimating depth of focused plenoptic data | |
JP5766077B2 (en) | Image processing apparatus and image processing method for noise reduction | |
JP7123736B2 (en) | Image processing device, image processing method, and program | |
US8929685B2 (en) | Device having image reconstructing function, method, and recording medium | |
JP6655379B2 (en) | Method and apparatus for generating an adaptive slice image from a focus stack | |
JP5900017B2 (en) | Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program | |
JP2015148532A (en) | Distance measuring device, imaging apparatus, distance measuring method, and program | |
US9538074B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
CN109661815A (en) | There are the robust disparity estimations in the case where the significant Strength Changes of camera array | |
CN110490196A (en) | Subject detection method and apparatus, electronic equipment, computer readable storage medium | |
JP2017537396A (en) | Method and apparatus for estimating the depth of unfocused plenoptic data | |
CN116704111B (en) | Image processing method and apparatus | |
CN117058183A (en) | Image processing method and device based on double cameras, electronic equipment and storage medium | |
JP2016005027A (en) | Information processing apparatus, imaging device, imaging system, information processing method and program | |
JP5310890B2 (en) | Image generating apparatus, image generating method, and program | |
JP2012073930A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5900017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |