JP2014010783A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2014010783A JP2014010783A JP2012148922A JP2012148922A JP2014010783A JP 2014010783 A JP2014010783 A JP 2014010783A JP 2012148922 A JP2012148922 A JP 2012148922A JP 2012148922 A JP2012148922 A JP 2012148922A JP 2014010783 A JP2014010783 A JP 2014010783A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- viewpoint
- virtual
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 65
- 238000003672 processing method Methods 0.000 title claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 72
- 238000006243 chemical reaction Methods 0.000 claims description 30
- 239000002131 composite material Substances 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 abstract description 136
- 238000012937 correction Methods 0.000 abstract description 18
- 239000013598 vector Substances 0.000 description 35
- 230000003287 optical effect Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 26
- 230000009466 transformation Effects 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 19
- 239000000203 mixture Substances 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 12
- 238000000605 extraction Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関し、特に複数の視点から撮像した画像を処理する画像処理装置、画像処理方法およびプログラムに関するものである。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to an image processing apparatus, an image processing method, and a program for processing images captured from a plurality of viewpoints.
通常のカメラにより撮影を行う場合、撮影時にピント合わせ(合焦)を行うため、ピント位置の調節を誤って撮影した場合、正しいピント位置の撮影画像を得るためには再撮影の必要がある。 When shooting with a normal camera, focusing is performed at the time of shooting. Therefore, if the shooting is performed with incorrect focus position adjustment, re-shooting is necessary to obtain a shot image with the correct focus position.
近年、多視点から複数の画像を取得し、取得後、すなわち撮影後画像処理によってピント位置を調節するライトフィールドフォトグラフィという技術が発展している。この技術は撮影後にピント位置を調節できるため、撮影時のピント調節を失敗しても、その後の画像処理で正しいピント位置に調節することができるという利点がある。ライトフィールドフォトグラフィでは、多視点の画像から、空間中の複数の位置について、ある位置を通過する光線の方向と強度(ライトフィールド、以降LFと略記)を取得する。取得したLFの情報を用いて任意の位置の仮想のセンサに結像した画像を計算する。LFに関する数学的性質や数学的基礎などはR.NGによって議論されている(例えば、非特許文献1参照)。 In recent years, a technique called light field photography has been developed in which a plurality of images are acquired from multiple viewpoints, and the focus position is adjusted by image processing after acquisition, that is, post-shooting image processing. Since this technique can adjust the focus position after shooting, there is an advantage that even if focus adjustment at the time of shooting fails, the image can be adjusted to the correct focus position by subsequent image processing. In light field photography, the direction and intensity of light passing through a certain position (light field, hereinafter abbreviated as LF) are acquired from a multi-viewpoint image at a plurality of positions in space. An image formed on a virtual sensor at an arbitrary position is calculated using the acquired LF information. Mathematical properties and mathematical foundations related to LF It is discussed by NG (for example, refer nonpatent literature 1).
この仮想のセンサの位置を適宜設定し、所望の撮影対象にピントが合う位置に調節することにより、前述した撮影後のピント調節を可能とする。以降では多視点の画像から仮想のセンサの位置で取得する画像を計算する処理をリフォーカス処理と呼ぶ。また、このようにして取得した画像を仮想視点画像と呼ぶ。LFを取得するための撮像装置としては小型のカメラを並べたカメラアレイや、メインレンズの後ろにマイクロレンズアレイを置いたPlenoptic Cameraが知られている。いずれの撮像装置においても取得したLFから、仮想的にセンサを置いた時の画像を撮影後に合成することができる。LFから仮想的なセンサ上の画像を合成する方法として、取得した複数枚の画像を仮想的なセンサ上に射影変換し加算して平均化する方法が提案されている(例えば、特許文献1参照)。このような画像合成手法を合成開口撮影法と呼ぶ。 By adjusting the position of the virtual sensor as appropriate and adjusting it to a position where the desired subject is in focus, the above-described focus adjustment after photographing can be performed. Hereinafter, a process of calculating an image acquired at a virtual sensor position from a multi-viewpoint image is referred to as a refocus process. An image acquired in this way is called a virtual viewpoint image. As an image pickup apparatus for acquiring LF, a camera array in which small cameras are arranged, and a Plenoptic Camera in which a microlens array is placed behind a main lens are known. In any imaging apparatus, an image obtained when a sensor is virtually placed can be synthesized after shooting from the acquired LF. As a method of synthesizing images on a virtual sensor from LF, a method has been proposed in which a plurality of acquired images are subjected to projective transformation on a virtual sensor, and added and averaged (see, for example, Patent Document 1). ). Such an image composition method is called a synthetic aperture photographing method.
合成開口撮影法による画像合成において、既知の情報として与えられるカメラパラメータ(カメラの位置、姿勢、画角、焦点距離など)に、実際の値との間でずれがあった場合、ピントを合わせたい領域がぼけてしまうという問題がある。このような、画質劣化を引き起こすカメラパラメータのずれを、カメラキャリブレーション技術を用いてカメラパラメータを推定することで補正する技術が提案されている(例えば、非特許文献2参照)。 In image synthesis using synthetic aperture photography, if camera parameters (camera position, orientation, angle of view, focal length, etc.) given as known information deviate from the actual values, you want to focus There is a problem that the area is blurred. There has been proposed a technique for correcting such a camera parameter shift causing image quality degradation by estimating a camera parameter using a camera calibration technique (see, for example, Non-Patent Document 2).
しかしながら、例えば非特許文献2で用いられる従来のカメラキャリブレーション技術は、チャートを用いて行う場合、ユーザが煩雑な作業をする必要があるという点で問題がある。また、自然画像からキャリブレーションする場合は処理が不安定になるという点で問題がある。
However, the conventional camera calibration technique used in Non-Patent
本願の画像処理装置は、予め設定された異なる視点から撮像された複数の画像データの各々を、撮像された視点の位置に基づき合成変換して、仮想的に設定した視点から撮像した仮想視点画像として合成画像データを生成する画像合成手段と、合成画像データにおけるピントを合わせる領域に対応する領域を、複数の画像データの各々から抽出する合焦領域抽出手段と、複数の画像データの各々の領域の画素値の差が小さくなるよう画像データを変換し、予め設定された視点の位置に基づき合成変換された画像データとの差を算出する位置合わせ手段とを備え、算出された差を用い、複数の画像データの各々の合成変換された画像データ全体を変換して合成画像データを生成することを特徴とする。 The image processing apparatus of the present application combines and converts each of a plurality of image data captured from different preset viewpoints based on the position of the captured viewpoint, and captures a virtual viewpoint image captured from a virtually set viewpoint Image synthesizing means for generating composite image data, focus area extracting means for extracting an area corresponding to the focus area in the composite image data from each of the plurality of image data, and each area of the plurality of image data The image data is converted so that the difference between the pixel values of the image data becomes smaller, and alignment means for calculating the difference from the image data synthesized and converted based on the position of the preset viewpoint is used, and the calculated difference is used. It is characterized in that composite image data is generated by converting the entire combined image data of a plurality of image data.
多視点画像からリフォーカス処理により仮想視点画像を合成する際に、与えられたカメラパラメータに実際の値との間でずれがあった場合でも、安定した処理でピントを合わせたい領域のぼけを低減して画像を合成することが可能となる。 When compositing a virtual viewpoint image from a multi-viewpoint image by refocus processing, even if there is a deviation from the actual value of a given camera parameter, the blur of the area to be focused is reduced with stable processing Thus, it is possible to synthesize an image.
[実施例1]
<撮像装置の全体構成>
図1は、本発明を適用し得る多視点撮像装置の一例を示した模式図である。多視点撮像装置の筺体101には多視点画像を撮像するための部材や装置が取り付けられている。図1の多視点撮像装置の前面(a)には、撮像部105〜113が複数に配置されており、これにより多視点撮像装置は複数の視点の画像を取得する。図1の多視点撮像装置の背面(b)には、撮影ボタン102、ディスプレイ103および操作ボタン104が配置されている。多視点撮像装置の種々の設定は、操作ボタン104とディスプレイ103とを用いて行われ、撮影ボタン102を押下することで、撮像部105〜113による撮像が行われる。取得した画像および合成した画像はディスプレイ103に表示される。
[Example 1]
<Overall configuration of imaging device>
FIG. 1 is a schematic diagram showing an example of a multi-viewpoint imaging apparatus to which the present invention can be applied. A member or device for capturing a multi-viewpoint image is attached to the
図2は、本発明の一実施例に係る多視点撮像装置の構成の一例を示すブロック図である。多視点撮像部213は、詳細は後述するが、複数の撮像部によって構成され、複数の視点から画像の取得を行う。多視点撮像部213を構成する各撮像部は、後述するように光学系によって結像した像を、イメージセンサにより画像データへと変換する。
FIG. 2 is a block diagram showing an example of the configuration of the multi-viewpoint imaging apparatus according to an embodiment of the present invention. Although the details will be described later, the
画像処理部214は、詳細は後述するが、多視点撮像部213から取得した多視点画像データからリフォーカス処理を行って合成画像データを生成する。CPU201は、各構成の処理全てに関わり、ROM202やRAM203に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM202とRAM203は、その処理に必要なプログラム、データ、作業領域などをCPU201に提供する。バス210は各構成間で、データや処理の指示をやり取りするための経路として機能する。
Although details will be described later, the
画像処理部214は、多視点撮像部を構成する複数の視点の位置となる各撮像部の配置の情報および特性の情報に基づいて画像合成を行う。これらの情報は、システムや装置の設定をもとに予め算出されてROM202ないしはRAM203に格納されているものとする。操作部204は、例えばボタンやモードダイヤルなどであり、これらを介して入力されたユーザー指示を受け取る。キャラクタージェネレーション209は、文字やグラフィックなどを生成する。表示部206は、一般的には液晶ディスプレイが広く用いられており、キャラクタージェネレーション部209や表示制御部205から受け取った撮影画像、合成画像および文字などの表示を行う。また、タッチスクリーン機能を有していても良く、その場合は、タッチスクリーンを用いたユーザー指示を操作部204の入力として使用することも可能である。
The
デジタル信号処理部212は、多視点撮像部213により取得された多視点画像データのγ調整や欠陥画素の補間などを行う。これらの処理は画像処理部214による本実施例の特徴である画像処理の前に行われる。エンコーダ部211は出力される多視点画像データのエンコード処理を行う。メディアインターフェース207は、PCその他メディア(例えば、PC、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリなど)208に装置を結合するためのインターフェースである。例えば、メディアインターフェース207を介して合成画像データ及び多視点画像データの出力が行われる。なお、通常、装置の構成要素は上記以外にも存在するが、本発明を説明するために特に必要ではないので説明を省略する。
The digital
<多視点撮像部の構成>
図3のブロック図を参照して多視点撮像部213の構成例を説明する。撮像部301〜309は各々が空間的に異なる配置された単一の視点から画像を撮像することにより複数の画像データからなる多視点画像データを取得する。撮像部301〜309は、図1の撮像部105〜113にそれぞれ対応するものとして説明する。
<Configuration of multi-viewpoint imaging unit>
A configuration example of the
図4を参照して撮像部301〜309の各々の構成の一例を説明する。レンズ401及びレンズ402は結像光学系を構成する。被写体から発せられた光線はこの結像光学系により集光し、絞り403、IRカットフィルタ404、ローパスフィルタ405およびカラーフィルタ406を通過した後に、撮像素子407上に結像する。光学系制御部410はレンズ401及びレンズ402を制御して、その結像光学系としての合焦距離や焦点距離を変化させる。また、絞り403を開閉して、F値の調整を行う。本実施例では、撮像部301〜309の各々の制御用の光学系制御部410は、各撮像部の光学系を制御するが、その制御値は撮像制御部310により一括して設定される。設定される制御値は、例えば合焦距離、焦点距離およびF値などであり、操作部204でユーザーにより入力された設定値、または別途設けられた自動露出装置およびオートフォーカス装置などにより算出された値に基づいて定められる。
An example of the configuration of each of the
なお、ここで示した光学系の構成は、説明のために単純化した例であり、撮像素子上に被写体の像を結像させる機能を有すればどのような構成でもかまわない。また、カラー画像を取得する構成について説明したが、取得する画像は白黒や4色以上の画素を持つ画像とすることができ、さらに画素毎に露出の異なる画像でもかまわない。 Note that the configuration of the optical system shown here is a simplified example for explanation, and any configuration may be used as long as it has a function of forming an image of a subject on the image sensor. Although the configuration for acquiring a color image has been described, the acquired image can be an image having black and white or four or more pixels, and can be an image with different exposure for each pixel.
撮像素子407及びA/D変換部408として、CMOSイメージセンサなどのイメージセンサを使用することができる。一般に、撮像素子407は2次元の格子状に画素が配列され、画素上の光量を検出して集約することにより結像された像を電気信号に変換する。A/D変換部408は電気信号に変換された像の情報をデジタル信号に変換する。デジタル信号に変換された画像データはバッファ409内に格納される。撮像素子制御部411は撮像素子407及びA/D変換部408に対して、露光の開始と信号の読み出しの制御を行う。制御のタイミングなどの制御値は撮像制御部310により一括して設定される。
As the
以上、一般的な撮像部の構成を図4を参照して説明したが、撮像部301〜309の各々は全く同じ構成である必要はなく、各々被写体の像を結像し、画像データを取得する機能を有すれば、どのような設計や構成でもかまわない。
As described above, the configuration of the general imaging unit has been described with reference to FIG. 4, but each of the
図5および図6を参照して、本実施例の撮像部301〜309の配置について説明する。各撮像部はその結像光学系の光軸方向を軸に持つ円筒形の筺体に格納され、多視点撮像装置の筺体501上に格子状に配置されている。筺体501は図1の筺体101に対応する。本実施例で、各撮像部の結像光学系の光軸は同じ向きになるよう配置されている。図5は多視点撮像装置を正面から見た図である。図6は図5における左方から多視点撮像装置を見た図である。図7は図5における上方から多視点撮像装置を見た図である。各図の関係を明らかにするため、それぞれの図の中に右手系の座標軸502、503および504を記した。
With reference to FIGS. 5 and 6, the arrangement of the
なお、本実施例では撮像部が9つの場合について説明を行ったが、複数視点からの撮像が可能であれば、撮像部の数はいくつであっても構わない。また、図5の配置は一例に過ぎず、各視点の配置が設計ないしは計測結果から知ることができるならば、どのような配置でもかまわない。さらに、本実施例では、各撮像部は円筒形として示しているが、どのような形状の撮像素子でも用いることができる。 In the present embodiment, the case of nine image pickup units has been described. However, any number of image pickup units may be used as long as image pickup from a plurality of viewpoints is possible. Further, the arrangement of FIG. 5 is merely an example, and any arrangement may be used as long as the arrangement of each viewpoint can be known from the design or the measurement result. Furthermore, in this embodiment, each imaging unit is shown as a cylindrical shape, but any shape imaging device can be used.
図8を参照して、以降の説明で用いる各撮像部の配置情報、すなわち各視点の位置情報を本実施例ではどのように記述するかについて説明する。ここでは各視点の画像を取得する撮像部を、単純な透視投影カメラとして考える。座標系として、撮像部座標系、多視点撮像部座標系を考え、それらの関係から視点の配置を表現する。各座標軸の関係は右手系とする。 With reference to FIG. 8, how to describe the arrangement information of each imaging unit used in the following description, that is, the position information of each viewpoint, in this embodiment will be described. Here, an imaging unit that acquires an image of each viewpoint is considered as a simple perspective projection camera. As the coordinate system, an imaging unit coordinate system and a multi-viewpoint imaging unit coordinate system are considered, and the arrangement of viewpoints is expressed from these relationships. The relationship between the coordinate axes is a right-handed system.
多視点撮像部座標系は、多視点撮像装置に対応する座標系であり、各撮像部の視点の位置と向きの基準となる。撮像部座標系は各撮像部に対応する座標系であり、そのz軸方向は各撮像部の光軸方向を、その原点は光学中心を表している。n番目の撮像部の撮像部座標系の原点は、多視点撮像部座標系を用いてtnと表す。また、n番目の撮像部の撮像部座標系のx軸、y軸、z軸は、それぞれ多視点撮像部座標系の単位ベクトルを用いてvxn、vyn、vznと表す。 The multi-viewpoint imaging unit coordinate system is a coordinate system corresponding to the multi-viewpoint imaging apparatus, and serves as a reference for the position and orientation of the viewpoint of each imaging unit. The imaging unit coordinate system is a coordinate system corresponding to each imaging unit, the z-axis direction representing the optical axis direction of each imaging unit, and the origin representing the optical center. The origin of the imaging unit coordinate system of the n-th imaging unit is expressed as t n using the multi-view imaging unit coordinate system. The x-axis, y-axis, and z-axis of the imaging unit coordinate system of the n-th imaging unit are represented as v xn , v yn , and v zn using unit vectors of the multi-view imaging unit coordinate system, respectively.
本実施例では、各撮像部は多視点撮像部座標系でz成分が0となるような平面に近い位置に配置されており、各撮像部の光軸はほぼ多視点撮像部座標系のz軸方向を向いているものとする。以上の撮像部配置情報は設計値ないしはキャリブレーションによって算出され、あらかじめROM202またはRAM203に格納されているものとする。
In this embodiment, each imaging unit is arranged at a position close to a plane such that the z component is 0 in the multi-view imaging unit coordinate system, and the optical axis of each imaging unit is substantially z in the multi-view imaging unit coordinate system. It shall be facing the axial direction. The above imaging unit arrangement information is calculated by design values or calibration, and is stored in the
多視点撮像部座標系はリフォーカス処理によって再現する仮想的な撮像系の配置の基準ともなる。仮想的な撮像系は、仮想的な光学系に対して仮想的なイメージセンサと共役の関係になるような面、すなわち像側のピントが合っている面を用いて表現される。このような面を以降、仮想合焦面と呼ぶ。本実施例では仮想合焦面は、多視点撮像部座標系のz軸に垂直であるものとし、仮想合焦面の位置は多視点撮像部座標系の原点から仮想合焦面までの距離dを用いて表す。 The multi-viewpoint imaging unit coordinate system is also a reference for the placement of a virtual imaging system that is reproduced by refocus processing. The virtual imaging system is expressed using a surface that is conjugate with the virtual image sensor, that is, a surface that is in focus on the image side. Such a surface is hereinafter referred to as a virtual in-focus surface. In this embodiment, the virtual focusing plane is assumed to be perpendicular to the z-axis of the multi-view imaging unit coordinate system, and the position of the virtual focusing plane is the distance d from the origin of the multi-view imaging unit coordinate system to the virtual focusing plane. It expresses using.
仮想合焦面を表す情報は、ユーザーインターフェースを介してユーザーが入力するなどしたパラメータから算出され、予めRAM203に格納されているものとする。具体的な算出手法は、本技術分野で知られたいずれの方法も用いることができる。
Information representing the virtual in-focus plane is calculated from parameters input by the user via the user interface, and is stored in the
なお、以上説明した撮像部の配置と仮想的な撮像系の表現は一例であり、各撮像部と多視点撮像装置、仮想的な撮像系の配置についての情報を示すことができるものであるならば、どのような表現でも構わない。 Note that the above-described arrangement of the imaging units and the representation of the virtual imaging system are merely examples, and the information about each imaging unit, the multi-view imaging device, and the arrangement of the virtual imaging system can be shown. Any expression is acceptable.
<画像合成処理の概要>
本実施例の特徴的な構成である画像処理部214で行う画像合成処理の概要について説明する。画像処理部214では、多視点撮像部213を用いて取得した同一シーンを異なる視点から撮像した画像を処理することで、所望の仮想的な撮像系で撮像したかのような画像を合成することができる。図9は、画像合成処理における被写体、撮像部、仮想的な撮像系の配置を説明するための図である。図9に示すシーン中にはそれぞれ多視点撮像部213からの距離の異なる被写体704、705および706が存在し、これを互いに異なる視点に存在する実在の撮像部701および702で撮像する。撮像部701および702は空間内の光線情報を画像として取得しており、これを用いて仮想的な撮像系703で撮像したかのような画像を合成する。仮想的な撮像系で撮像したかのような合成画像を以降、仮想視点画像と呼ぶ。
<Overview of image composition processing>
An overview of image composition processing performed by the
図10を参照して、仮想視点画像の合成方法の概要について説明する。画像処理部214において合成する仮想的な撮像系は、有限の被写界深度を有する撮像系である。すなわち図10に示す撮像系703おいて、自然光や照明などの光を被写体が反射した光線を、光学系804によって集光し、センサ805上に結像させ、サンプリングすることで画像が取得されるものとする。このような仮想的な撮像系によって取得した画像を合成するためには、撮像部701および702で取得した光線を用いて、光学系804による結像およびセンサ805によるサンプリングの過程を再現すればよい。センサ805上の画素807の画素値は、画素807に入射する光線を足し合わせることで得られる。光学系804を理想光学系とするならば、センサ805上の画素807に入射する光線は、センサ805の共役面である合焦面806上の画素807に対する共役点808を必ず通る。従って、合焦面上に撮像部701および702によって取得した画像を投影したものを、合焦面806とセンサ805との関係に従って仮想視点画像の座標に合わせて変形し、これを全視点に渡って加算することにより、仮想視点画像が得られる。なお、実際には画像の明るさを維持するために、単純な加算ではなく全視点で平均化を行う。
With reference to FIG. 10, an outline of a method for synthesizing a virtual viewpoint image will be described. The virtual imaging system combined in the
図11は被写体704が存在する距離に、仮想的な撮像系の合焦面903を設定し、撮像部701および702で取得した図12に示す画像901および902を投影して得られる画像を示す図である。被写体704は、撮像部701および702のどちらにおいても、同じ位置に投影されるようにするため、ピントのあった絵となる。一方で、被写体705および706は合焦面903上には無いため、投影位置がずれてぼけた絵となる。図11においてぼけた様子は、被写体705および706を二重にして示す。これが有限の被写界深度の再現であり、合焦面にある被写体にピントを合わせ、それ以外の面にある被写体はぼけるように画像処理されることとなる。
FIG. 11 shows an image obtained by projecting the
以上の仮想視点画像の合成方法では、撮像部701および702の配置や向き、画角などのカメラパラメータが既知であることを前提とする。しかし、実際にはこれらのカメラパラメータが何らかの原因で変化してしまうと、図14に示すように、与えられた値と実際の値との間にずれが生じ、図13に示すように合焦面上に投影した際に全視点の画像が重なるべき被写体704もぼけた絵となってしまう。従って、補正処理によりこのボケを低減することが、必要である。
In the above-described method for synthesizing a virtual viewpoint image, it is assumed that camera parameters such as the arrangement, orientation, and angle of view of the
本実施例の補正処理の概要を、図15を参照して説明する。本実施例では多視点画像から被写体の距離を算出する。撮像部701および702のそれぞれに対応する被写体距離情報に基づいて得られた画像データの模式図が画像1001および1002である。距離情報から合焦面上に被写体、本実施例では被写体704が存在する画像上の領域を抽出する。撮像部701および702のそれぞれに対応する抽出された領域のマスクの模式図がマスク1003および1004である(処理(1))。ここでは被写体704上に合焦面があるものとする。
The outline of the correction process of this embodiment will be described with reference to FIG. In this embodiment, the distance of the subject is calculated from the multi-viewpoint image.
図14に示すような実際の撮像部701および702のそれぞれの画像901および902に上記で得られたマスク1003および1004を適用し、合焦領域を抽出したものが、画像1005および1006である(処理(2))。こうして得られた画像を、合焦面上に投影し、多視点画像上の座標に変換したものが、画像1007および1008である(処理(3))。これを重ね合わせると仮想視点画像1009が得られる(処理(4))。そのままでは、カメラパラメータのずれによって、各視点間で画像がずれている。これが重なるよう、一方の視点の画像を基準として位置を合わせ、補正画像1010のような位置ずれを記述する補正パラメータを算出する(処理(5))。この補正パラメータを、仮想視点画像合成時に基準ではない方の撮像部で得られた画像に補正画像1011のように画像全体に適用することにより、合焦領域にボケのない画像が得られる(処理(6))。なお、ここでは説明のために撮像部を2つとしたが、撮像部の数はいくつであってもかまわない。
<画像処理部の構成>
図16を参照して、画像処理部214の構成例を説明する。多視点画像取得部1101は、多視点撮像部213によって撮像された多視点画像データを、バス210を介して取得する。視点情報取得部1102は、設計値や校正値に基づき設定された多視点撮像部213を構成する各撮像部の配置や特性についての情報をバス210を介して取得する。仮想撮像系情報取得部1103は、予めユーザーによって設定されている仮想撮像系についての情報をバス210を介して取得する。
<Configuration of image processing unit>
A configuration example of the
画素位置変換パラメータ算出部1104は、詳細は後述するが、各視点から撮像された画像上の画素が、画像合成部1108で生成する画像上の、どの位置に対応するかを表すパラメータを、視点情報と仮想撮像系情報とから算出する。距離算出部1105は、詳細は後述するが、多視点画像と視点情報とから各視点から撮像された画像上の画素毎に被写体距離を算出する。合焦領域抽出部1106は、詳細は後述するが、距離算出部1105が算出した被写体距離と、仮想撮像系情報取得部が取得した仮想撮像系情報とから、仮想撮像系において各視点から撮像された画像上で合焦する領域を特定する。特定した領域の画像データを、多視点画像を構成する各視点から撮像された画像データから抽出する。
As will be described in detail later, the pixel position conversion
位置合わせ部1107は、合焦領域抽出部1106が抽出した各視点から撮像された画像上での合焦領域を画素位置変換パラメータ算出部が算出したパラメータに基づいて仮想視点画像上に変換する。変換した画像のうち1つの視点の画像を基準として、詳細は後述するが、他の画像と重なるような変換を表す位置合わせパラメータを算出する。画像合成部1108は、画素位置変換パラメータに基づいて各視点の画像を仮想視点画像上に変換し、さらに位置合わせパラメータを適用して補正を行う。詳細は後述するが、そのようにして得られた画像を全視点にわたって重ね合わせ、仮想視点画像を合成する。画像出力部1109は、画像合成部1108で合成された画像の画像データをバッファ210に出力する。
The
図17を参照して、画像合成処理の流れの一例を説明する。ステップS1201では多視点画像として複数の画像データを取得する。ステップS1202では多視点画像データを取得した各撮像部に関する情報を取得する。ステップS1203では、ユーザーによって設定された仮想撮像系に関する情報を取得する。ステップS1204では、詳細は後述するが、ステップS1202で取得した視点情報と、ステップS1203で取得した仮想撮像系情報とから、各視点から撮像された画像の画素が、仮想視点画像上のどの位置に対応するかを判定する。判定された対応関係に従って、各視点から撮像した画像を変換(合成変換)するための画素位置変換パラメータを算出する。 An example of the flow of image composition processing will be described with reference to FIG. In step S1201, a plurality of image data is acquired as a multi-viewpoint image. In step S1202, information regarding each imaging unit that has acquired multi-viewpoint image data is acquired. In step S1203, information related to the virtual imaging system set by the user is acquired. In step S1204, as will be described in detail later, based on the viewpoint information acquired in step S1202 and the virtual imaging system information acquired in step S1203, at which position on the virtual viewpoint image the pixel of the image captured from each viewpoint is located. Judge whether it corresponds. In accordance with the determined correspondence, a pixel position conversion parameter for converting (synthesizing) an image captured from each viewpoint is calculated.
ステップS1205では、詳細は後述するが、ステップS1201で取得した多視点画像と、ステップS1202で取得した視点情報とから、各視点から撮像された画像上の画素毎に被写体距離を算出する。ステップS1206では、詳細は後述するが、ステップS1203で取得した仮想撮像系情報と、ステップS1205で算出した被写体距離とに基づき、各視点から撮像された画像上の仮想撮像系が合焦する領域を抽出する。ステップS1207では、詳細は後述するが、ステップS1204で算出した画素位置変換パラメータに基づいて、ステップS1206で抽出した合焦領域を仮想視点画像上に変換する。変換した画像のうち1つの視点から撮像された画像を基準画像として、他の画像と重なるように変換するための位置合わせパラメータを算出する。 In step S1205, although details will be described later, the subject distance is calculated for each pixel on the image captured from each viewpoint from the multi-viewpoint image acquired in step S1201 and the viewpoint information acquired in step S1202. In step S1206, although details will be described later, based on the virtual imaging system information acquired in step S1203 and the subject distance calculated in step S1205, an area where the virtual imaging system on the image captured from each viewpoint is in focus is determined. Extract. In step S1207, although the details will be described later, based on the pixel position conversion parameter calculated in step S1204, the in-focus area extracted in step S1206 is converted into a virtual viewpoint image. Using the image captured from one viewpoint among the converted images as a reference image, alignment parameters for conversion so as to overlap with other images are calculated.
ステップS1208では、詳細は後述するが、ステップS1204で算出した画素位置変換パラメータに基づいて各視点の画像を仮想視点画像上に変換し、さらにステップS1207で算出して位置合わせパラメータを適用して補正を行う。そのようにして得られた全撮像部が撮像した画像を重ね合わせ、仮想視点画像データを合成する。ステップS1209では、ステップS1208で合成した仮想視点画像データを出力する。 In step S1208, although details will be described later, the image of each viewpoint is converted into a virtual viewpoint image based on the pixel position conversion parameter calculated in step S1204, and further corrected in step S1207 by applying the alignment parameter. I do. The virtual viewpoint image data is synthesized by superimposing the images captured by all the imaging units thus obtained. In step S1209, the virtual viewpoint image data synthesized in step S1208 is output.
なお、本実施例では多視点画像から被写体距離を算出するものとしたが、別の算出した被写体距離を外部から取得する構成とすることもできる。 In this embodiment, the subject distance is calculated from the multi-viewpoint image, but another calculated subject distance may be acquired from the outside.
<画素位置変換パラメータ算出方法>
画像処理部214では多視点撮像部213で撮像した多視点画像を用いて、仮想的な撮像系で撮像したかのような画像を合成する仮想視点画像合成処理を行うが、この際に必要となる画素位置変換パラメータの算出方法を以下に説明する。一般に、多視点画像はシーンの光線情報を持つので、これを仮想的な光学系で結像させ、仮想的なイメージセンサで画像化する過程を再現すれば、仮想的な撮像系で撮像したかのような画像が得られる。この再現に、画素位置変換パラメータが必要となる。
<Pixel position conversion parameter calculation method>
The
結像光学系の性質から、像側のある点を通る光線は、物体側の共役点を必ず通る。従って、仮想光学系に対する仮想センサの物体側の共役面を考え、この共役面上の各点を通る光線を足し合わせることで、仮想的な撮像系で撮像したかのような画像が得られる。この共役面は、仮想的な撮像系の物体側のピントが合っている面であり、ここでは仮想合焦面と呼ぶ。仮想合焦面上で足し合わせられた光線をサンプリングして得られるものが合成画像である。画素位置変換パラメータは、多視点画像の各画像上の座標を、仮想視点画像上の座標に変換するためのパラメータである。 Due to the nature of the imaging optical system, light rays that pass through a certain point on the image side always pass through a conjugate point on the object side. Therefore, by considering a conjugate plane on the object side of the virtual sensor with respect to the virtual optical system, and adding the light rays that pass through each point on the conjugate plane, an image as if it was captured by a virtual imaging system can be obtained. This conjugate plane is a plane that is in focus on the object side of the virtual imaging system, and is called a virtual focusing plane here. A composite image is obtained by sampling the light rays added on the virtual in-focus plane. The pixel position conversion parameter is a parameter for converting coordinates on each image of the multi-viewpoint image into coordinates on the virtual viewpoint image.
画素位置変換パラメータ算出方法の一例を示す。まず、n番目の撮像部の横画角をθx n、縦画角をθy n、横画素数をsx n、縦画素数をsy n、横画素数をsx n、縦画素数をsy n、画像上の光学中心位置を(cx n,cy n)とし、内部パラメータ行列Anを式(1)のように表す。 An example of a pixel position conversion parameter calculation method will be described. First, the horizontal field angle of the n-th imaging unit is θ x n , the vertical field angle is θ y n , the horizontal pixel number is s x n , the vertical pixel number is s y n , the horizontal pixel number is s x n , and the vertical pixel is the number s y n, the optical center position on the image as a (c x n, c y n ), representing the internal parameter matrix a n by the equation (1).
同様に仮想視点画像合成処理によって再現する仮想撮像系の内部パラメータ行列Avを定義する。横画角をθx n、縦画角をθy v、横画素数をsx v、縦画素数をsy v、横画素数をsx v、縦画素数をsyv、画像上の光学中心位置を(cx v,cy v)とすると、内部パラメータ行列Avは式(2)のように表される。 It defines the internal parameter matrix A v of the virtual imaging system to reproduce as well by the virtual viewpoint image synthesis processing. The horizontal angle of view is θ x n , the vertical angle of view is θ y v , the number of horizontal pixels is s x v , the number of vertical pixels is s y v , the number of horizontal pixels is s x v , the number of vertical pixels is s yv , Assuming that the optical center position is (c x v , cy v ), the internal parameter matrix A v is expressed as in equation (2).
また、図6の記法を用いて、各撮像部座標系から多視点撮像部座標系への4行4列の座標変換行列Mnは式(3)のように表す。 Further, using the notation of FIG. 6, a 4 × 4 coordinate transformation matrix M n from each imaging unit coordinate system to the multi-viewpoint imaging unit coordinate system is expressed as in Expression (3).
また、3行3列の回転行列Rnを式(4)のように表す。 Also, a 3 × 3 rotation matrix R n is expressed as shown in Equation (4).
あるカメラにおけるある画素の座標を(x,y)としたとき、式(5)のような(x,y)の斉次座標xhを用いると、対応する光線rは式(6)のように表される。 When the coordinate of a certain pixel in a certain camera is (x, y) and the homogeneous coordinate x h of (x, y) as shown in equation (5) is used, the corresponding ray r is as shown in equation (6). It is expressed in
ここで、k(x,y)は光線の軌跡を表すパラメータである。光線と仮想合焦面の交点に対応するk(x,y)と、多視点撮像部座標系の原点から仮想合焦面までの距離d、仮想合焦面の法線単位ベクトルであるz軸方向単位ベクトルをezの関係は式(7)のようになる。 Here, k (x, y) is a parameter representing the trajectory of the light beam. K (x, y) corresponding to the intersection of the ray and the virtual focal plane, the distance d from the origin of the multi-viewpoint imaging unit coordinate system to the virtual focal plane, and the z axis that is the normal unit vector of the virtual focal plane relation to the direction unit vector e z is as equation (7).
これを、1/ k(x,y) について解いたものは、式(8)に示すBnを用いて、式(9)のようになる。 A solution of this to 1 / k (x, y) is as shown in equation (9) using B n shown in equation (8).
式(6)に式(9)を代入し、Avを左側から適用すると、光線と仮想合焦面の交点を合成画像上の座標に射影した点を表す斉次座標が得られる。斉次座標は定数倍しても同値であるので、式(6)の両辺をk(x,y)で割ったものに、式(9)を代入し、Avを左側から作用させても、光線と仮想合焦面の交点を合成画像上の座標に射影した点を表す斉次座標x’hが式(10)のように得られる。 Substituting equation (9) into equation (6), applying the A v from the left, homogeneous coordinates representing points obtained by projecting the intersection of the ray and the virtual focus plane coordinates on the synthesized image is obtained. Since homogeneous coordinates is also multiplied by a constant it is equivalent to those obtained by dividing the both sides of the equation (6) with k (x, y), substituting the equation (9), even when allowed to act A v from the left Then, a homogeneous coordinate x ′ h representing a point obtained by projecting the intersection of the ray and the virtual focal plane to the coordinate on the composite image is obtained as shown in Expression (10).
λは不定性を表す係数であり、あるスカラーである。式(10)は画像の射影変換に相当する。本実施形態では式(11)のような射影変換行列Hnを全撮像部について計算して得た、行列の集まりを画素配置パラメータとして扱う。 λ is a coefficient representing indefiniteness and is a certain scalar. Expression (10) corresponds to projective transformation of an image. In the present embodiment, a collection of matrices obtained by calculating the projection transformation matrix H n as shown in Expression (11) for all imaging units is handled as a pixel arrangement parameter.
なお、本実施形態の画素配置パラメータと、その算出方法とは一例であり、多視点撮像部によって得た画像上の座標と、合成画像上の座標との対応関係を規定するものならばどのようなものでもよい。 It should be noted that the pixel arrangement parameter and the calculation method thereof according to the present embodiment are merely examples, and any method may be used as long as it defines the correspondence between the coordinates on the image obtained by the multi-viewpoint imaging unit and the coordinates on the composite image. It may be anything.
<距離算出方法>
距離算出部1105では多視点画像から各視点から撮像された画像上の画素毎に被写体距離を算出する。異なる複数の視点から撮像された画像を用いて距離を推定する方法は、非特許文献2のChapter11などで詳述されており、システムの構成に合わせた適切な方法を用いれば良い。一例として、virtual cameraを、被写体距離を算出したい視点そのものと同一に設定し、Plane Sweep法を行うなどの方法がある。なお、無限遠方にある被写体の距離を取り扱えるよう、実際に求めるのは距離の逆数などにするとよい。
<Distance calculation method>
The
<合焦領域抽出方法>
合焦領域抽出部1106では、距離算出部1105で算出した被写体距離と、仮想撮像系情報とを用いて、各視点から撮像された画像上において仮想撮像系が合焦する領域を抽出する。すなわち、仮想撮像系情報として与えられる仮想合焦面を各撮像部座標系に変換し、各視点から撮像された画像上の画素毎に仮想合焦面までの距離を求め、被写体距離と比較することで、その画素が仮想撮像系の合焦する領域に属するか否か判定する。
<Focus area extraction method>
The in-focus
仮想合焦面上の点の斉次座標をXvとすると、仮想合焦面に相当する平面の斉次座標Lvを用いて式(14)のように平面を表すことができる。 If the homogeneous coordinates of a point on the virtual in-focus plane is X v , the plane can be expressed as in equation (14) using the homogeneous coordinates L v of the plane corresponding to the virtual in-focus plane.
ここで、仮想合焦面が図8を参照して説明したように、z軸に垂直で原点からの距離がdならば、l1=0,l2=0, l3=1,l4=−dとなる。Lvをn番目の撮像部の撮像部座標系での仮想合焦面の斉次座標Lnに変換すると、式(3)を用いて式(15)のようになる。 Here, as described with reference to FIG. 8, if the virtual focal plane is perpendicular to the z axis and the distance from the origin is d, l 1 = 0, l 2 = 0, l 3 = 1, l 4 = −d. When L v is converted into the homogeneous coordinates L n of the virtual focusing plane in the imaging unit coordinate system of the n-th imaging unit, Equation (15) is obtained using Equation (3).
n番目の撮像部の画像上のある点の斉次座標をxnとおくと、合焦面までの距離がdnならば合焦面と該点を通る光線の交点の撮像部座標系での斉次座標Xnは、式(16)のようになる。 If the homogeneous coordinates of a certain point on the image of the n-th imaging unit are set to x n , if the distance to the focal plane is d n , the imaging unit coordinate system of the intersection of the focal plane and the light beam passing through the point is used. The homogeneous coordinate X n is as shown in Equation (16).
平面の斉次座標と平面上の点の関係から式(17)が成り立つ。 Expression (17) holds from the relationship between the homogeneous coordinates of the plane and the points on the plane.
1/dnについて解くと、式(18)のようになり、合焦面までの距離情報が得られる。 Solving for 1 / d n, it is as Equation (18), distance information to the focusing surface can be obtained.
合焦領域の判定は、距離算出部1105で算出したn番目の撮像系の画像上の点xnに対応する被写体の距離をd’n(xn)とすると、閾値εを用いて式(19)に基づくマスクmnの生成として処理される。
The in-focus area is determined by using the threshold ε as an equation ( where the distance of the subject corresponding to the point x n on the n-th imaging system image calculated by the
抽出した合焦領域は、データとしては、各視点の画像及びそれぞれに対応付けられた合焦領域判定マスクのセットという形態で取り扱う。 The extracted in-focus area is handled as data in the form of an image of each viewpoint and a set of in-focus area determination masks associated with each viewpoint.
<位置合わせ方法>
位置合わせ部1107は、合焦領域抽出部1106が抽出した各視点となる撮像部の合焦領域を、画素位置変換パラメータ算出部1104が算出したパラメータに基づいて仮想視点画像上に変換する。変換した画像のうち1つの視点から撮像された画像を基準画像として、他の画像と重なるように変換するための位置合わせパラメータを算出する。
<Positioning method>
The
図18を参照して、位置合わせパラメータの算出方法を説明する。ステップS1301では多視点画像を構成する各視点から撮像された画像データと、それに対応する合焦領域判定マスクを取得する。ステップS1302では各視点から撮像された画像を仮想視点画像上に変換する画素位置変換パラメータを取得する。ステップS1303ではステップS1301で取得した各視点から撮像された画像データとそれに対応する合焦領域判定マスクとを、ステップS1302で取得した画素位置変換パラメータを用いて仮想視点画像上に変換する。ステップS1304では位置合わせパラメータを算出するにあたっての基準となる画像を撮像した撮像部、すなわち基準の視点を選択する。 With reference to FIG. 18, a method for calculating the alignment parameter will be described. In step S1301, image data picked up from each viewpoint constituting a multi-viewpoint image and a corresponding focus area determination mask are acquired. In step S1302, a pixel position conversion parameter for converting an image captured from each viewpoint onto a virtual viewpoint image is acquired. In step S1303, the image data captured from each viewpoint acquired in step S1301 and the corresponding focus area determination mask are converted into a virtual viewpoint image using the pixel position conversion parameter acquired in step S1302. In step S1304, an imaging unit that captures an image serving as a reference for calculating the alignment parameter, that is, a reference viewpoint is selected.
ステップS1305からステップS1307は繰り返し処理であり、補正対象となる画像を撮像した撮像部、すなわち補正対象の視点を変えながら複数回処理を行って、全撮像部について撮像された画像の補正を行う。ステップS1305では未処理の視点から補正対象の視点を選択する。ステップS1306では、ステップS1303で仮想視点画像上に変換した基準視点画像の合焦領域が、補正対象画像の合焦領域上に重なるよう位置合わせを行う。位置合わせの方法については後述するが、その結果を表すパラメータが位置合わせパラメータである。ステップS1307では全ての視点について処理を行ったか判定し、未処理の視点があればステップS1305に戻る。全ての視点について処理済みであれば、ステップS1308において位置合わせパラメータを出力する。なお、基準の視点の画像に対する位置合わせパラメータとして、位置を動かさないような変換を表すパラメータを出力する。 Steps S1305 to S1307 are repetitive processes, in which an imaging unit that captures an image to be corrected, that is, a process is performed a plurality of times while changing the viewpoint of the correction target, and the images captured for all imaging units are corrected. In step S1305, a correction target viewpoint is selected from unprocessed viewpoints. In step S1306, alignment is performed so that the in-focus area of the reference viewpoint image converted into the virtual viewpoint image in step S1303 overlaps the in-focus area of the correction target image. The alignment method will be described later, but the parameter representing the result is the alignment parameter. In step S1307, it is determined whether all viewpoints have been processed. If there are unprocessed viewpoints, the process returns to step S1305. If all the viewpoints have been processed, the alignment parameter is output in step S1308. Note that a parameter representing conversion that does not move the position is output as an alignment parameter for the reference viewpoint image.
以上により算出された各撮像部が撮像した画像に対する位置合わせパラメータを用いて、位置合わせを実行する方法について説明する。ここで位置合わせの対象となっている画像の合焦領域に対応する被写体は、被写体側の空間において合焦面という単一の平面上に存在する。したがって、このような位置合わせは、射影変換やアフィン変換や2次の多項式変換などの単純な変形モデルにより可能である。モデルベースの位置合わせには、疎な対応点探索を行い、その結果からモデルのパラメータを算出する方法や、画像全体のずれをパラメトリックに記述し、画像間の輝度差が小さくなるよう最適化する方法などがある。 A method of performing alignment using the alignment parameters for the image captured by each imaging unit calculated as described above will be described. Here, the subject corresponding to the in-focus area of the image to be aligned exists on a single plane called the in-focus plane in the subject-side space. Therefore, such alignment is possible by a simple deformation model such as projective transformation, affine transformation, or second-order polynomial transformation. For model-based registration, sparse corresponding point search is performed, model parameters are calculated from the results, and the displacement of the entire image is described parametrically to optimize the brightness difference between images. There are methods.
前者の疎な対応点探索は非特許文献2のChapter4に詳しい。また、モデルのパラメータを算出する方法は非特許文献2のChapter6に詳しい。これらの組み合わせで位置合わせを行う場合、本実施例では合焦領域判定マスクを用いて、非合焦領域を対応点探索の対象から除外する。
The former sparse corresponding point search is detailed in
また、後者の画像間の輝度差が小さくなるよう最適化する方法は、非特許文献2のChapter8で述べられているParameteric motionがある。この方法で位置合わせを行う場合、本実施例では合焦領域判定マスクを用いて非合焦領域を画像間の輝度差の算出の対象から除外する。
Also, the latter method of optimizing so as to reduce the luminance difference between images is Parametric motion described in Chapter 8 of
以下、疎な対応点探索として差分絶対値和もしくは差分二乗和を用いたブロックマッチングによってブロック毎の動きベクトルを求め、アフィン変換を用いて画面全体の変形を求める場合の例を説明する。 Hereinafter, an example will be described in which a motion vector for each block is obtained by block matching using a sum of absolute differences or a sum of squares of squares as a sparse corresponding point search, and a deformation of the entire screen is obtained using affine transformation.
図21は、位置合わせの方法の一例の処理を示すフローチャートである。ブロック毎の動きベクトルを求める際にその前処理としてステップS1601の合焦領域ブロック判定と、ステップS1602の有効ブロック判定とを行う。合焦領域ブロック判定は、動きベクトルを求めようとするブロックが合焦領域に含まれるか否かの判定であり、以降の処理では合焦領域に含まれるブロックのみを使用する。有効ブロック判定は、詳細は後述するが、正しい動きベクトルが求まらない可能性のあるブロックを除外する処理である。ステップS1603では、ブロックの動きベクトルを算出する。ここでは一般的なブロックマッチング方法について説明する。 FIG. 21 is a flowchart showing an example of the alignment method. When the motion vector for each block is obtained, the focus area block determination in step S1601 and the effective block determination in step S1602 are performed as preprocessing. The focused area block determination is a determination as to whether or not a block for which a motion vector is to be obtained is included in the focused area, and only blocks included in the focused area are used in the subsequent processing. Although the details will be described later, the effective block determination is a process of excluding a block that may not be able to obtain a correct motion vector. In step S1603, a motion vector of the block is calculated. Here, a general block matching method will be described.
ブロックマッチング法では、マッチングの評価値としてブロック内の画素間の差分二乗和もしくは差分絶対値和を用いる。ベクトルを求める対象ブロックを基準画像のサーチ範囲内で順次動かしなら評価値を求めていく。サーチ範囲内で求めた全ての評価値の中から最小の評価値もつ位置が対称ブロックと最も相関の高い位置であり、その移動量が動きベクトルとなる。サーチ範囲を1画素ずつ求めていく方法はフルサーチと呼ばれている。これに対し、サーチ範囲を間引きながら最小の評価値を求め、次にその近傍に対して細かくサーチする方法は、ステップサーチと呼ばれている。ステップサーチは高速に動きベクトルを求める方法としてよく知られている。次にステップS1605にて、有効動きベクトル判定を行う。これは、詳細は後述するが、求めた動きベクトルのうち、算出結果が正しくないと判断されるものを除外する処理である。ステップS1604で、終了判定を行い、すべてのブロックの処理が終わると、ステップS1606にて、有効な動きベクトルから、アフィンパラメータの算出を行う。 In the block matching method, a sum of squares of differences or a sum of absolute differences between pixels in a block is used as a matching evaluation value. If the target block for which the vector is to be calculated is sequentially moved within the search range of the reference image, the evaluation value is determined. The position having the smallest evaluation value among all the evaluation values obtained in the search range is the position having the highest correlation with the symmetric block, and the movement amount is a motion vector. A method of obtaining the search range pixel by pixel is called full search. On the other hand, a method of obtaining a minimum evaluation value while thinning out the search range and then performing a detailed search for the vicinity thereof is called a step search. Step search is well known as a method for obtaining a motion vector at high speed. In step S1605, effective motion vector determination is performed. Although details will be described later, this is a process of excluding those obtained from the motion vectors that are determined to be incorrect. In step S1604, end determination is performed. When all blocks have been processed, affine parameters are calculated from valid motion vectors in step S1606.
次に、アフィンパラメータ算出の詳細を説明する。対象ブロックの中心座標が、(x,y)であり、動きベクトルの算出結果から基準画像におけるブロックの中心座標が(x’,y’)に移動したとすると、これらの関係は、式(20)のように表すことができる。 Next, details of affine parameter calculation will be described. Assuming that the center coordinates of the target block are (x, y) and the center coordinates of the block in the reference image have moved to (x ′, y ′) from the motion vector calculation result, these relationships are expressed by the equation (20). ).
ここで、3×3の行列がアフィン変換行列である。行列の各要素がアフィンパラメータであり、a=1,b=0,d=0,e=1のとき、この変換は平行移動となり、cが水平方向の移動量、fが垂直方向の移動量となる。また、回転角θでの回転移動は、a=cosθ,b=−sinθ,d=sinθ,e=cosθで表すことができる。式(20)は一般化した行列の形式で式(21)のように表現することができる。 Here, a 3 × 3 matrix is an affine transformation matrix. When each element of the matrix is an affine parameter and a = 1, b = 0, d = 0, and e = 1, this conversion is parallel movement, c is the horizontal movement amount, and f is the vertical movement amount. It becomes. Further, the rotational movement at the rotation angle θ can be expressed by a = cos θ, b = −sin θ, d = sin θ, e = cos θ. Expression (20) can be expressed as general expression (21) in the form of a generalized matrix.
ここでxとx’は1×3の行列、Aは3×3の行列である。有効な動きベクトルがn個であった場合、対象画像の座標値は、式(22)のようにn×3の行列で表現できる。 Here, x and x ′ are 1 × 3 matrices, and A is a 3 × 3 matrix. When there are n effective motion vectors, the coordinate value of the target image can be expressed by an n × 3 matrix as shown in Expression (22).
同様に、移動後の座標値も式(23)のようにn×3の行列で表現できる。 Similarly, the coordinate values after movement can be expressed by an n × 3 matrix as shown in Equation (23).
よって、n個の動きベクトルに対しては、式(24)のような表現となる。 Therefore, for n motion vectors, the expression is as in Expression (24).
すなわち、式(24)におけるアフィン行列Aを求めれば、それが画面全体の位置ずれ量になる。アフィン行列を、n個の動きベクトルについての対象画像の座標値と移動後の座標値の誤差の最小二乗解として算出すると、式(25)のように求まる。 That is, if the affine matrix A in the equation (24) is obtained, it becomes the amount of displacement of the entire screen. When the affine matrix is calculated as a least squares solution of the error between the coordinate value of the target image and the coordinate value after movement for n motion vectors, the affine matrix is obtained as shown in Expression (25).
ここで、有効ブロック判定方法を、図22のフローチャートを参照して説明する。ブロックマッチングによりブロック間の相関を求めようとする場合、ブロック内の画像が何らかの特徴量を持っている必要がある。平坦でほとんど直流成分しか含んでいないブロックでは、正しい動きベクトルを求めることはできない。逆に水平方向や垂直方向にエッジを含んでいると、マッチングがとりやすくなると考えられる。図17に示すフローチャートの判定処理は、このような平坦部のブロックを除外する一手法である。ここでは1つのブロックに対する処理で説明する。 Here, the effective block determination method will be described with reference to the flowchart of FIG. When trying to obtain a correlation between blocks by block matching, an image in the block needs to have some feature amount. A correct motion vector cannot be obtained in a flat block containing almost only a DC component. On the other hand, if the edge is included in the horizontal direction or the vertical direction, it is considered that matching becomes easy. The determination process of the flowchart shown in FIG. 17 is one method for excluding such a flat portion block. Here, the processing for one block will be described.
まずステップS1701で、ブロック内にある水平方向の1つのラインに対し、最大値と最小値の差分値を算出する。例えば、ブロックのサイズが50×50の画素で構成されているとすると、ブロック内における水平方向の50の画素から最大値と最小値を求め、その差分値を算出する。これを水平ライン数分、すなわち50回繰り返す。そして、ステップS1703で50の差分値の中から最大の差分値を求める。ステップS1704で、あらかじめ設定したTxと最大差分値の比較を行う。 First, in step S1701, the difference value between the maximum value and the minimum value is calculated for one horizontal line in the block. For example, assuming that the block size is composed of 50 × 50 pixels, the maximum value and the minimum value are obtained from the 50 pixels in the horizontal direction in the block, and the difference value is calculated. This is repeated for the number of horizontal lines, that is, 50 times. In step S1703, the maximum difference value is obtained from the 50 difference values. In step S1704, the preset Tx is compared with the maximum difference value.
最大差分値が閾値Txよりも小さければ、水平方向には特徴量を持たないブロックであるとみなし、ステップS1705にて、無効ブロックとする。水平方向に特徴量を持つとみなせる場合は、垂直方向で同様の検証を行う。まず、ステップS1706で、ブロック内にある垂直方向の1つのラインに対し、最大値と最小値の差分値を算出する。つまりブロック内における垂直方向の50の画素から最大値と最小値を求め、その差分値を算出する。これを垂直ライン数分、すなわち50回繰り返す。そして、ステップS1708で50の差分値の中から最大の差分値を求める。ステップS1709で、あらかじめ設定したTyと最大差分値の比較を行う。最大差分値が閾値Tyよりも小さければ、垂直方向には特徴量を持たないブロックであるとみなし、ステップS1705にて、無効ブロックとする。水平・垂直両方向に特徴を持つブロックならば、正確なブロックマッチングが行われることが期待できるので、ステップS1710にて、有効ブロックと判定する。 If the maximum difference value is smaller than the threshold value Tx, it is regarded as a block having no feature amount in the horizontal direction, and is determined as an invalid block in step S1705. If it can be considered that the feature amount is in the horizontal direction, the same verification is performed in the vertical direction. First, in step S1706, a difference value between the maximum value and the minimum value is calculated for one vertical line in the block. That is, the maximum value and the minimum value are obtained from 50 pixels in the vertical direction in the block, and the difference value is calculated. This is repeated for the number of vertical lines, that is, 50 times. In step S1708, the maximum difference value is obtained from the 50 difference values. In step S1709, the preset Ty is compared with the maximum difference value. If the maximum difference value is smaller than the threshold value Ty, the block is regarded as a block having no feature amount in the vertical direction, and is determined as an invalid block in step S1705. If the block has features in both the horizontal and vertical directions, it can be expected that accurate block matching is performed. Therefore, in step S1710, the block is determined to be an effective block.
次に、有効動きベクトル判定方法を、図23のフローチャートを参照して説明する。まずは、ステップS1801にて動きベクトルを入力し、ステップS1802にて、その発生頻度を算出する。ステップS1803にて、全ての動きベクトルの発生頻度が求まるまでこの処理を繰り返し、終了するとステップS1804にて、最大発生頻度の動きベクトルを求める。次に、ステップS1805にて、再度、動きベクトルを入力し、ステップS1806で、この動きベクトルが最大発生頻度の動きベクトル、もしくはその近傍の動きベクトルであるかどうかの判定を行う。 Next, the effective motion vector determination method will be described with reference to the flowchart of FIG. First, a motion vector is input in step S1801, and the occurrence frequency is calculated in step S1802. In step S1803, this process is repeated until the occurrence frequencies of all the motion vectors are obtained. When the processing is completed, the motion vector having the maximum occurrence frequency is obtained in step S1804. Next, in step S1805, a motion vector is input again. In step S1806, it is determined whether this motion vector is a motion vector with the maximum occurrence frequency or a motion vector in the vicinity thereof.
カメラ姿勢の誤差などに起因して位置ずれが生じている場合、一般に位置ずれは単純なモデルで表す事が出来るので、最大発生頻度の動きベクトルの近傍に多くの動きベクトルが発生すると考えられる。したがって、これらの値に含まれる動きベクトルは、ステップS1807にて、有効動きベクトルと判定し、これらの値から外れている動きベクトルは、ステップS1808にて無効動きベクトルと判定する。ステップS1809では、すべての動きベクトルに対して処理が終わったかどうかの判定を行い、終了までステップS1010からの処理を繰り返す。 In the case where a positional deviation occurs due to an error in the camera posture or the like, since the positional deviation can be generally expressed by a simple model, it is considered that many motion vectors are generated in the vicinity of the motion vector having the maximum occurrence frequency. Therefore, a motion vector included in these values is determined as an effective motion vector in step S1807, and a motion vector deviating from these values is determined as an invalid motion vector in step S1808. In step S1809, it is determined whether or not the processing has been completed for all the motion vectors, and the processing from step S1010 is repeated until the processing is completed.
<仮想視点画像合成方法>
画像合成部1108は、上述したように画素位置変換パラメータに基づいて各視点の位置に配置された撮像部により撮像された画像を仮想視点画像上に変換する。このようにして変換された画像データに、さらに位置合わせパラメータを作用させて補正を行って得られた画像データを、全視点にわたって重ね合わせることで仮想視点画像データを合成する。
<Virtual viewpoint image composition method>
As described above, the
n番目の撮像部の画像上の座標から仮想視点画像上の座標への変換は式(11)で記述される射影変換行列Hnを用いて表される。また、位置合わせ部1107で算出した、位置合わせによる補正後の仮想視点画像上の座標からn番目の撮像部に対応する位置合わせによる補正前の仮想視点画像上の座標への変換を、射影変換行列Cnを用いて表す。したがって、仮想視点画像上の座標からn番目の撮像部の画像上の座標への変換H’n -1は式(26)のようになる。
The conversion from the coordinates on the image of the n-th imaging unit to the coordinates on the virtual viewpoint image is expressed using a projective transformation matrix H n described by Expression (11). Further, the conversion from the coordinates on the virtual viewpoint image corrected by the alignment calculated by the
H’n -1を用いて仮想視点画像上の各画素に対応する各撮像部により撮像された画像上の画素を特定し、バイリニアやバイキュービックなどの補間によって画素値を算出することにより、各撮像部により撮像された画像を仮想視点画像上に変換した画像が得られる。それらを全視点にわたって足し合わせて平均化することで仮想視点画像が得られる。なお、ここでは位置合わせパラメータを、射影変換行列を用いて記述するものとしたが、並進変換、アフィン変換、高次の多項式変換などどのようなモデルを用いても構わない。 By using H ′ n −1 to identify a pixel on the image captured by each imaging unit corresponding to each pixel on the virtual viewpoint image and calculating a pixel value by interpolation such as bilinear or bicubic, An image obtained by converting an image captured by the imaging unit onto a virtual viewpoint image is obtained. A virtual viewpoint image is obtained by adding and averaging them over all viewpoints. Here, the alignment parameter is described using a projective transformation matrix, but any model such as translational transformation, affine transformation, and higher-order polynomial transformation may be used.
以上、本実施例によれば、多視点画像から有限な被写界深度を有する仮想視点画像を合成する際に、与えられたカメラパラメータに実際の値との間でずれがあった場合でも、合焦領域のぼけを低減しながら合成が可能となる。 As described above, according to the present embodiment, when a virtual viewpoint image having a finite depth of field is synthesized from a multi-viewpoint image, even when there is a deviation from an actual value in a given camera parameter, Combining is possible while reducing blur in the in-focus area.
[実施例2]
実施例1では位置合わせ部1107において単一の変形モデルを用い、異なる視点から撮像された画像上の合焦領域が、仮想視点画像上で重なるように位置合わせを行うことで、位置合わせパラメータを算出した。しかし、合焦領域が画像上の極めて狭い領域に分布していた場合、モデルのパラメータの推定が不安定になり、特に画像上の合焦領域が存在する位置から離れた位置にある画素が、補正によって意図しない位置に変換されてしまう現象が起こり得る。そこで、本実施例2では合焦領域の画像上での分布に従って、位置合わせ部1107で用いる変形モデルを切り替えることにより柔軟な補正を可能とする。すなわち、狭い範囲に合焦点領域が分布している場合には安定性を重視した変形モデルを用い、広い範囲に合焦点領域が分布している場合にはより高い補正精度を期待できる変形モデルを採用し、いずれの場合にも適切な補正を可能にする。
[Example 2]
In the first embodiment, the
図19は本実施例の画像処理部214の構成例を表すブロック図である。本実施例の構成は、実施例1の画像処理部に対して、位置合わせ方法選択部1401を加えた構成となっている。位置合わせ方法選択部1401は、詳細は後述するが、合焦領域抽出部1106が抽出した、合焦領域の画像上での分布に従い、位置合わせ部1107で用いる変形モデルを選択する。
FIG. 19 is a block diagram illustrating a configuration example of the
図20は、本実施例における画像合成処理の手順を示すフローチャートである。このフローチャートは、図17に示す実施例1のフローチャートに対してステップS1501を加えられている。ステップS1501ではステップS1206で抽出した合焦領域の画像上での分布に従い、ステップS1207で位置合わせに用いる変形モデルを選択する。 FIG. 20 is a flowchart illustrating a procedure of image composition processing in the present embodiment. In this flowchart, step S1501 is added to the flowchart of the first embodiment shown in FIG. In step S1501, a deformation model used for alignment is selected in step S1207 in accordance with the distribution on the image of the in-focus area extracted in step S1206.
<位置合わせ方法選択方法>
位置合わせ方法選択部1401で行う、位置合わせの変形モデルの選択方法について説明する。一般に、位置合わせに用いる変形のモデルは、自由度が高いほど不安定であるが複雑なずれに対応でき、自由度が低いほど安定であるが単純なずれにしか対応できない。
<Positioning method selection method>
A method for selecting a deformation model for alignment performed by the alignment
並進変換の自由度は2、アフィン変換の自由度は6および射影変換の自由度は8であり、順に自由度が高くなる。本実施例では、この3つの変形モデルから選択を行うものとして説明する。なお、本実施例で用いる変形モデルは一例であり、変形モデルとしてはどのような変換を用いても構わない。 The degree of freedom of translational transformation is 2, the degree of freedom of affine transformation is 6, and the degree of freedom of projective transformation is 8, and the degree of freedom increases in order. In this embodiment, description will be made assuming that selection is made from these three deformation models. Note that the deformation model used in the present embodiment is an example, and any transformation may be used as the deformation model.
変形モデルは、合焦領域抽出部1106が抽出した合焦領域の分布に従って選択する。合焦領域抽出部1106が合焦領域の抽出結果として、合焦領域判定マスクm(x,y)を出力するものとする。ここでx,yは撮像部の画像上の座標である。m(x,y)は合焦領域と判定された画素では1の値を持ち、それ以外の画素では0となっている。一般に、変形モデルの判定には1つの視点から撮像した画像の合焦領域抽出結果があれば良い。ここでは、位置合わせ部1107で基準視点として選択する視点を用いるものとする。合焦領域判定マスクm(x,y)を用いて、合焦領域の散らばりpは式(27)で算出できる。
The deformation model is selected according to the distribution of the focus area extracted by the focus
ここで、Sx、Syは撮像部の画像上のそれぞれx方向、y方向の画素数であり、wx、wyはそれぞれ合焦領域の重心のx座標とy座標である。合焦領域の散らばりpに対して閾値ε1、ε2を設定し、p<ε1ならば並進変換を、ε1≦p<ε2ならばアフィン変換を、ε2≦pならば射影変換を変形モデルとして選択するなどして切り替えを行う。 Here, S x and S y are the numbers of pixels in the x direction and y direction, respectively, on the image of the imaging unit, and w x and w y are the x coordinate and y coordinate of the center of gravity of the focused area, respectively. Threshold values ε1 and ε2 are set for the dispersion p in the in-focus region, and translational transformation is selected as p <ε1, affine transformation is selected as ε1 ≦ p <ε2, and projective transformation is selected as ε2 ≦ p. Etc. to switch.
以上、本実施例によれば、多視点画像から有限な被写界深度を有する仮想視点画像を合成する際に、与えられたカメラパラメータに実際の値との間でずれがあった場合にも安定した処理で合焦領域のぼけを低減しながら合成が可能となる。 As described above, according to the present embodiment, when a virtual viewpoint image having a finite depth of field is synthesized from a multi-viewpoint image, even when a given camera parameter has a deviation from an actual value, It is possible to perform composition while reducing blur in the in-focus area with stable processing.
[その他の実施例]
実施例1及び実施例2においては、単一の視点を持つ撮像部を複数用いて多視点撮像部を構成する場合について説明した。しかしながら、撮像部が図4に示す単一の撮像素子407を複数の領域に分割し、その分割した領域に対応する光学系を設ける構成を採用してもよい。また、そのような撮像部を複数用いてもよい。
[Other Examples]
In the first and second embodiments, the case where a multi-viewpoint imaging unit is configured using a plurality of imaging units having a single viewpoint has been described. However, a configuration in which the imaging unit divides the
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。 The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. The present invention can also be realized by a plurality of processors cooperating to perform processing.
Claims (9)
前記合成画像データにおけるピントを合わせる領域に対応する領域を、前記複数の画像データの各々から抽出する合焦領域抽出手段と、
前記複数の画像データの各々の領域の画素値の差が小さくなるよう前記画像データを変換し、前記予め設定された視点の位置に基づき合成変換された画像データとの差を算出する位置合わせ手段と
を備え、
前記算出された差を用い、前記複数の画像データの各々の合成変換された画像データの全体を変換して合成画像データを生成することを特徴とする画像処理装置。 Each of a plurality of image data captured from different preset viewpoints is combined and converted based on the position of the captured viewpoint to generate composite image data as a virtual viewpoint image captured from a virtually set viewpoint. Image synthesizing means,
An in-focus area extracting means for extracting an area corresponding to an in-focus area in the composite image data from each of the plurality of image data;
Positioning means for converting the image data so as to reduce a difference in pixel values of each region of the plurality of image data, and calculating a difference with the image data synthesized and converted based on the preset viewpoint position And
An image processing apparatus that generates combined image data by converting the entire combined image data of each of the plurality of image data using the calculated difference.
前記合成画像データにおけるピントを合わせる領域に対応する領域を、前記複数の画像データの各々から抽出する合焦領域抽出ステップと、
前記複数の画像データの各々の領域の画素値の差が小さくなるよう前記画像データを変換し、前記予め設定された視点の位置に基づき合成変換された画像データとの差を算出する位置合わせステップとを
備え、
前記算出された差を用い、前記複数の画像データの各々の合成変換された画像データの全体を変換して合成画像データを生成することを特徴とする画像処理方法。 Each of a plurality of image data captured from different preset viewpoints is combined and converted based on the position of the captured viewpoint to generate composite image data as a virtual viewpoint image captured from a virtually set viewpoint. Image compositing hand step,
An in-focus area extracting step for extracting an area corresponding to an in-focus area in the composite image data from each of the plurality of image data;
An alignment step of converting the image data so as to reduce a difference in pixel values of each region of the plurality of image data, and calculating a difference from the image data synthesized and converted based on the position of the preset viewpoint And
An image processing method comprising: generating the composite image data by converting the entire composite image data of each of the plurality of image data using the calculated difference.
前記合焦領域抽出手段が抽出した領域の形状によって異なることを特徴とする請求項5または6記載の画像処理方法。 The method of converting the entire image data is as follows:
7. The image processing method according to claim 5, wherein the image processing method differs depending on the shape of the area extracted by the focus area extracting means.
1つの撮像装置の配置を変えながら撮像した複数の画像データ、または
配置の異なる複数の撮像部を備える多視点撮像装置で撮像した複数の画像データであることを特徴とする請求項5ないし7のいずれか1項記載の画像処理方法。 The plurality of image data are:
8. A plurality of pieces of image data picked up while changing the arrangement of one image pickup apparatus, or a plurality of pieces of image data picked up by a multi-viewpoint image pickup apparatus including a plurality of image pickup units having different arrangements. The image processing method according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012148922A JP2014010783A (en) | 2012-07-02 | 2012-07-02 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012148922A JP2014010783A (en) | 2012-07-02 | 2012-07-02 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014010783A true JP2014010783A (en) | 2014-01-20 |
Family
ID=50107386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012148922A Pending JP2014010783A (en) | 2012-07-02 | 2012-07-02 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014010783A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016175045A1 (en) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | Image processing device and image processing method |
WO2016175044A1 (en) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | Image processing device and image processing method |
WO2016175046A1 (en) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | Image processing device and image processing method |
WO2017043331A1 (en) * | 2015-09-09 | 2017-03-16 | ソニー株式会社 | Image processing device and image processing method |
JP2018531448A (en) * | 2015-09-17 | 2018-10-25 | トムソン ライセンシングThomson Licensing | Apparatus and method for calibrating an optical capture system |
WO2019125793A1 (en) * | 2017-12-20 | 2019-06-27 | Leia Inc. | Cross-render multiview camera, system, and method |
JP2019113895A (en) * | 2017-12-20 | 2019-07-11 | ファナック株式会社 | Imaging apparatus with visual sensor for imaging work-piece |
WO2024129130A1 (en) * | 2022-12-16 | 2024-06-20 | Google Llc | Per-tile selective processing for video bokeh power reduction |
-
2012
- 2012-07-02 JP JP2012148922A patent/JP2014010783A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10453183B2 (en) | 2015-04-28 | 2019-10-22 | Sony Corporation | Image processing apparatus and image processing method |
WO2016175044A1 (en) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | Image processing device and image processing method |
WO2016175046A1 (en) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | Image processing device and image processing method |
CN107534729A (en) * | 2015-04-28 | 2018-01-02 | 索尼公司 | Image processing apparatus and image processing method |
JPWO2016175044A1 (en) * | 2015-04-28 | 2018-02-15 | ソニー株式会社 | Image processing apparatus and image processing method |
JPWO2016175046A1 (en) * | 2015-04-28 | 2018-02-15 | ソニー株式会社 | Image processing apparatus and image processing method |
JPWO2016175045A1 (en) * | 2015-04-28 | 2018-02-22 | ソニー株式会社 | Image processing apparatus and image processing method |
WO2016175045A1 (en) * | 2015-04-28 | 2016-11-03 | ソニー株式会社 | Image processing device and image processing method |
US10306146B2 (en) | 2015-04-28 | 2019-05-28 | Sony Corporation | Image processing apparatus and image processing method |
US10341546B2 (en) | 2015-04-28 | 2019-07-02 | Sony Corporation | Image processing apparatus and image processing method |
WO2017043331A1 (en) * | 2015-09-09 | 2017-03-16 | ソニー株式会社 | Image processing device and image processing method |
US10748264B2 (en) | 2015-09-09 | 2020-08-18 | Sony Corporation | Image processing apparatus and image processing method |
JP2018531448A (en) * | 2015-09-17 | 2018-10-25 | トムソン ライセンシングThomson Licensing | Apparatus and method for calibrating an optical capture system |
JP2019113895A (en) * | 2017-12-20 | 2019-07-11 | ファナック株式会社 | Imaging apparatus with visual sensor for imaging work-piece |
WO2019125793A1 (en) * | 2017-12-20 | 2019-06-27 | Leia Inc. | Cross-render multiview camera, system, and method |
US11267142B2 (en) | 2017-12-20 | 2022-03-08 | Fanuc Corporation | Imaging device including vision sensor capturing image of workpiece |
WO2024129130A1 (en) * | 2022-12-16 | 2024-06-20 | Google Llc | Per-tile selective processing for video bokeh power reduction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10425638B2 (en) | Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device | |
JP2014010783A (en) | Image processing apparatus, image processing method, and program | |
TWI510086B (en) | Digital refocusing method | |
JP6112824B2 (en) | Image processing method and apparatus, and program. | |
JP4942221B2 (en) | High resolution virtual focal plane image generation method | |
JP5968107B2 (en) | Image processing method, image processing apparatus, and program | |
JP5795324B2 (en) | Video processing apparatus and method using optical field data | |
US8390728B2 (en) | Image processing apparatus and method | |
EP3395059B1 (en) | Method and apparatus for computational scheimpflug camera | |
JP5725953B2 (en) | Imaging apparatus, control method therefor, and information processing apparatus | |
JP6223169B2 (en) | Information processing apparatus, information processing method, and program | |
US8810672B2 (en) | Image processing method, image processing device, and recording medium for synthesizing image data with different focus positions | |
WO2018235163A1 (en) | Calibration device, calibration chart, chart pattern generation device, and calibration method | |
JP2017510831A (en) | 3D light field camera and photographing method | |
JP2013009274A (en) | Image processing device, image processing method, and program | |
JP2014150466A (en) | Imaging apparatus and control method of the same | |
JP2014220639A (en) | Imaging apparatus and imaging method | |
JP6418770B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP2020191624A (en) | Electronic apparatus and control method for the same | |
JP2009258005A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP6755737B2 (en) | Distance measuring device, imaging device, and distance measuring method | |
JP2017103695A (en) | Image processing apparatus, image processing method, and program of them | |
JP2013120435A (en) | Image processing apparatus and image processing method, and program | |
JP5202448B2 (en) | Image processing system and method | |
JP2013110711A (en) | Image processing apparatus, image processing method and program |