JP5743769B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5743769B2 JP5743769B2 JP2011156631A JP2011156631A JP5743769B2 JP 5743769 B2 JP5743769 B2 JP 5743769B2 JP 2011156631 A JP2011156631 A JP 2011156631A JP 2011156631 A JP2011156631 A JP 2011156631A JP 5743769 B2 JP5743769 B2 JP 5743769B2
- Authority
- JP
- Japan
- Prior art keywords
- usage rate
- image
- pixel
- projection area
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 58
- 238000003672 processing method Methods 0.000 title claims description 4
- 239000000203 mixture Substances 0.000 claims description 17
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 230000002093 peripheral effect Effects 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000002131 composite material Substances 0.000 description 42
- 238000000034 method Methods 0.000 description 24
- 238000003384 imaging method Methods 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013041 optical simulation Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、多数視点から撮影された画像を用いて新たな画像を生成する技術に関する。 The present invention relates to a technique for generating a new image using images taken from multiple viewpoints.
従来のカメラでは、光線はカメラのレンズを通過して、ディジタルセンサ上の一点に集まる。そこでカメラは光の強度を取得するが、光が入ってくる方向については、情報を得ることができない。 In a conventional camera, light rays pass through the camera lens and collect at a point on the digital sensor. The camera acquires the light intensity, but cannot obtain information about the direction in which the light enters.
近年、レン・イング氏が考案したライトフィールドカメラがある(非特許文献1)。ライトフィールドカメラでは、メインレンズとセンサの間に複数のマイクロレンズを配置することにより、入射する全ての光線の強度を取得し、光線の方向も記録できる。このようなカメラを用いて、撮影後、画像処理によって異なる奥行きの被写体にそれぞれのピントが合った画像を得るライトフィールドフォトグラフィという技術が発展している。 In recent years, there is a light field camera devised by Ren Ing (Non-Patent Document 1). In a light field camera, by arranging a plurality of microlenses between a main lens and a sensor, the intensity of all incident light rays can be acquired and the direction of the light rays can also be recorded. A technique called light field photography has been developed that uses such a camera to obtain an image in which each subject is in focus with a different depth by image processing after shooting.
ライトフィールドフォトグラフィでは、多視点の画像から、空間中の複数の位置について通過する光線の方向と強度(ライトフィールド、以降LFと略記)を計算する。そしてLFの情報を用いて仮想の光学系を通過し、仮想のセンサに結像した場合の画像を計算する。この仮想の光学系や、仮想のセンサを適宜設定することで、前述した撮影後のピント調整が可能になる。以降では、多視点の画像から仮想のセンサが得る画像が計算する処理をリフォーカス処理と呼ぶ。 In light field photography, the direction and intensity of light passing through a plurality of positions in space (light field, hereinafter abbreviated as LF) are calculated from multi-viewpoint images. Then, using the LF information, an image when passing through the virtual optical system and forming an image on the virtual sensor is calculated. By appropriately setting the virtual optical system and the virtual sensor, the above-described focus adjustment after photographing can be performed. Hereinafter, the process of calculating the image obtained by the virtual sensor from the multi-viewpoint image is referred to as a refocus process.
LFを取得するための撮像装置としてはメインレンズの後ろにマイクロレンズアレイを置いたPlenoptic Cameraや、小型のカメラを並べたカメラアレイが知られている。いずれも被写体を異なる方向から撮影した多視点画像を一回の撮影で得ることができる。 As an imaging device for acquiring LF, a Plenoptic Camera in which a microlens array is placed behind a main lens and a camera array in which small cameras are arranged are known. In any case, a multi-viewpoint image obtained by shooting the subject from different directions can be obtained by one shooting.
リフォーカス処理としては、取得した多視点の画像を1つの仮想センサ上に射影変換し、画素値を平均化することが知られている(特許文献1)。 As the refocus processing, it is known to project-convert the acquired multi-viewpoint image onto one virtual sensor and average the pixel values (Patent Document 1).
リフォーカス処理では仮想センサ上の画素の値を、多視点画像の対応画素を用いて平均計算をする。通常、仮想センサ上の1画素には、多視点画像の複数の画素が対応している。 In the refocus processing, the pixel values on the virtual sensor are averaged using the corresponding pixels of the multi-viewpoint image. Usually, a plurality of pixels of a multi-viewpoint image correspond to one pixel on the virtual sensor.
しかしながら、特許文献1の方法では、入力画像の画素に対応する仮想センサ上の画素の全ての領域を用いて平均が求められ、多数の画像の画素値が平均化される結果、リフォーカス画像の鮮鋭性が低下してしまうという課題がある。詳細は後述する。 However, in the method of Patent Document 1, the average is obtained using all the regions of the pixels on the virtual sensor corresponding to the pixels of the input image, and the pixel values of many images are averaged. There exists a subject that sharpness will fall. Details will be described later.
本発明に係る画像処理装置は、多視点で撮影された複数の画像を合成するための画像処理装置であって、前記複数の画像を示す画像データを入力する入力手段と、センサ上の1画素に対応する領域であって、前記合成によりフォーカスされる被写体の位置に応じて定まる仮想センサ上に投影される領域である投影領域に含まれる複数の画素のそれぞれの画素に対して、前記合成のための使用率を設定する使用率設定手段と、前記使用率設定手段に設定された前記使用率に基づいて、前記画像データが示す前記複数の画像を合成する合成手段と、を備えることを特徴とする。 The image processing apparatus according to the present invention is an image processing apparatus for synthesizing multiple images taken by the multi-view, comprising: input means for inputting image data representing the plurality of images, on the sensor For each pixel of a plurality of pixels included in a projection area which is an area corresponding to one pixel and is projected onto a virtual sensor determined according to the position of the subject focused by the synthesis, Usage rate setting means for setting a usage rate for combining; and combining means for combining the plurality of images indicated by the image data based on the usage rate set in the usage rate setting means. It is characterized by.
本発明によれば、多視点画像から鮮鋭な画像を合成可能な画像処理装置および画像処理方法を提供する事ができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of synthesizing a sharp image from multi-viewpoint images.
以下に、図面を参照して、本発明の実施形態を詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention.
本実施例では、合成画像の鮮鋭性を向上させることを目的とする。 The present embodiment aims to improve the sharpness of a composite image.
<カメラシステム構成>
図1は、本実施例における画像処理装置の構成の一例を示す図である。
<Camera system configuration>
FIG. 1 is a diagram illustrating an example of a configuration of an image processing apparatus according to the present exemplary embodiment.
撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどのセンサから構成され、被写体の光量を検知する。撮像部101の構成は後述する。
The
A/D変換部102は、被写体の光量をデジタル値に変換する。信号処理部103は、上記デジタル値にホワイトバランス処理、ガンマ処理、ノイズ低減処理などを行い、デジタル画像を生成する。D/A変換部104は、上記デジタル画像に対してアナログ変換を行う。エンコーダ部105は、上記デジタル画像をJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。メディアインターフェース106は、PCその他メディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)を画像処理装置に接続するためのインターフェースである。
The A /
CPU107は、ROM108やRAM109に格納された命令を順に読み込み、解釈し、その結果に従って、各構成による処理の制御を行う。またROM108とRAM109は、その処理に必要なプログラム、データ、作業領域などをCPU107に提供する。
The
撮像系制御部110は、フォーカスを合わせる、シャッターを開く、絞りを調節するなど、CPU107からの制御命令に従って撮像系の制御を行う。
The imaging
操作部111は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。なお画像撮影後に合成画像を生成する際のリフォーカス位置の指示も受け取る。
The
キャラクタージェネレーション112は、文字やグラフィックなどを生成する。
表示部113は、一般的には液晶ディスプレイを用いて構成される。表示部113は、キャラクタージェネレーション部112やD/A変換部102から受け取った撮影画像や文字の表示を行う。また、表示部113は、タッチスクリーン機能を有していても良く、その場合は、タッチスクリーン機能を介したユーザからの指示を操作部111による入力として扱うことも可能である。
The
The
なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 In addition, although the component of an apparatus exists other than the above, since it is not the main point of this invention, description is abbreviate | omitted.
また、本発明の構成要素は、複数の機器から構成されるシステムに適用しても、一つの機器からなる装置に適用しても良い。本発明の目的は、前述及び後述の実施形態の機能を実現するプログラムをシステムのコンピュータ(またはCPUまたはMPU)が実行しても達成される。この場合、プログラム自体が前述した実施形態の機能を実現することになり、そのプログラムを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のデータ保存部、ROMなどを用いることが出来る。 In addition, the constituent elements of the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. The object of the present invention can be achieved even when a computer (or CPU or MPU) of the system executes a program that realizes the functions of the above-described embodiments described later. In this case, the program itself realizes the functions of the above-described embodiments, and the storage medium storing the program constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile data storage unit, a ROM, or the like can be used. .
また、コンピュータが読み出したプログラムを実行することにより、前述及び後述の実施形態の機能が実現されるだけではない。そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部を行い、その処理によって前述及び後述の実施形態の機能が実現される場合も含まれることは言うまでもない。さらに、プログラムの指示内容をシステムの機能拡張ボードに備わるCPUなどが実行し、その処理で前述及び後述の実施形態の機能が実現される場合も含まれることは言うまでもない。 In addition, the functions of the above-described and below-described embodiments are not only realized by executing the program read by the computer. It goes without saying that an OS running on a computer performs a part of the actual processing based on the instructions of the program, and the functions of the above-described and below-described embodiments are realized by the processing. Furthermore, it goes without saying that the instruction contents of the program are executed by a CPU or the like provided in the function expansion board of the system, and the processing of the above-described and later-described embodiments is realized by the processing.
本実施例における画像合成処理は、信号処理部103において実行されることが好適である。
The image composition processing in the present embodiment is preferably executed by the
図2に信号処理部103の構成を示す。図2に示す信号処理部では入力のデジタル画像に対して、画質向上のため様々な処理が行われる。例えば、画像の鮮鋭性を向上させるためのエッジ強調処理や、色再現性を向上させるための色変換処理などである。本実施例の画像合成処理は、信号処理部における各種の処理の中の一つとして実施されることが好適である。図2に示す信号処理部の構成では、他の処理より先に画像合成が処理されるよう記述しているが、本発明はかかる構成に限定されるものではない。例えば、ノイズ低減処理を行った後で画像合成処理を行っても良い。画像合成部201の詳細は後述する。
FIG. 2 shows the configuration of the
<リフォーカスの原理>
図3に通常の撮像光学系の構成を示す。なお図3では、iRカットフィルタ、ズームレンズ、絞りなどの構成については、図示を省略している。また、図3では、詳細なレンズの構成は示されておらず、レンズ群の代表として、メインレンズ303のみ示されている。
<Refocusing principle>
FIG. 3 shows the configuration of a normal imaging optical system. In FIG. 3, illustrations of configurations such as an iR cut filter, a zoom lens, and a diaphragm are omitted. Further, in FIG. 3, the detailed lens configuration is not shown, and only the main lens 303 is shown as a representative of the lens group.
図3ではピントがずれてしまった場合の撮像光学系の様子を表す。物点301からの光はメインレンズ303で集光され、センサ302の一部領域305に到達する。この時、メインレンズ303で集光された光は一点に結像する前にセンサ302に到達する。そのため、センサ302の一部領域305では、物点301の像が広がって記録されてしまい、撮像画像がぼけてしまう。鮮鋭性の高い画像を得たい場合には、ピント位置を調整し、物点301がセンサ302上の一点に結像されるようにして再度撮影を行う必要がある。
FIG. 3 shows the state of the imaging optical system when the focus is shifted. Light from the object point 301 is collected by the main lens 303 and reaches a
図4は、本実施例における撮像部101の構成の第一の例を示す。図4において物点401からの光はメインレンズ403により集光されるが、結像する前にマイクロレンズアレイ406を通過してセンサ405により記録される。1つのマイクロレンズにより生成されるセンサ上の光学像は物点401を異なる方向から観察した画像となるため、センサ405では多視点の画像が一枚の画像として記録される。ここで、センサ405上の画素412の画素値は光線411の強度に応じて値が記録される。マイクロレンズアレイ406を通過した光線群を延長したときの仮想センサI407における光強度、及び仮想センサII408における光強度をそれぞれ平均すると、それぞれの仮想センサに記録される画像を計算により求めることができる。仮想センサI407での画像を計算すると、物点401の光は広がり、図3に示すようなピント調整を誤った画像が得られる。仮想センサII408での画像を計算すると物点401から出た光が一点に集まり、ピントが合った画像が得られる。
FIG. 4 shows a first example of the configuration of the
図5は撮像部101の構成の第二の例を示す。図5では、撮像部101は複数の撮像ユニットにより構成される。物点501からの光は撮像ユニットの複数のセンサにより記録される。例えばセンサ上の502の画素は光線503の強度を記録している。物体側に仮想センサを置いた場合を考え、光線群を仮想センサの方向へ延長し、仮想センサにおいて光線強度を平均する。すると、仮想センサI508において計算される画像は物点501がぼけた画像であり、仮想センサII509において計算される画像は物点501にピントが合った画像が得られる。
FIG. 5 shows a second example of the configuration of the
以上述べた通り、撮像部101の第一の例、第二の例ともに被写体を複数の異なる角度から撮影した多視点画像が得られる。またリフォーカス処理は第一、第二の例ともに多視点画像から得られる光線情報を元に仮想のセンサが受光する光を計算する処理である。その際、仮想センサの位置を調整して計算することがピント位置を調整することに相当する。以上が撮像後にピント位置調整した画像を計算により得るリフォーカスの原理である。
As described above, in both the first example and the second example of the
<画像合成部の構成と処理>
図6は画像合成部201の詳細な構成を示すブロック図である。また、図6に示す画像合成部201の動作を図7に示すフローチャートを用いて説明する。画像合成部201全体の動作としては、画像合成部201は入力画像をA/D変換部102から順次に取得し、合成画像の画素値の計算が終了次第、画素値をノイズ低減処理部へ出力する。
<Configuration and processing of image composition unit>
FIG. 6 is a block diagram showing a detailed configuration of the
以降では説明を簡単にするため、入力画像を一次元として説明する。
まず、ステップS701では、入力画素取得部603が、メモリ602とバスから、入力画像上にある入力画素値とその画素位置を取得する。メモリ602は入力画像を一時保存する。保存された入力画像は、前記入力画素取得部603及び画素値合成部607で処理を行う際に必要に応じて読み出される。
Hereinafter, in order to simplify the description, the input image is described as one-dimensional.
First, in step S701, the input
ステップS702では、仮想センサ位置取得部604が、バスからリフォーカス位置を取得して、リフォーカス位置を用いてROM108を参照して仮想センサ位置を取得する。
In step S702, the virtual sensor
ここで、リフォーカス位置は、ユーザからの指示に応じて操作部111及びバスを介して、仮想センサ位置取得部604へ入力される。仮想センサ位置は、あらかじめ光学シミュレーションによって、あるフォーカス距離に存在する被写体が鮮明に結像するような位置を仮想センサ位置として求めて、ROM108に保持される。仮想センサ位置取得部604は、リフォーカス位置を用いてROM108を適宜参照することで仮想センサ位置を取得する。
Here, the refocus position is input to the virtual sensor
本実施例では、入力画像を記録するセンサ405とマイクロレンズの距離をfrealと示し、リフォーカス画像を記録する仮想センサ(407又は408)とマイクロレンズの距離をfvirtualと示す。仮想センサ位置はリフォーカス位置によって変わるため、fvirtualはリフォーカス位置に応じて設定される。 In this embodiment, the distance between the sensor 405 that records the input image and the microlens is indicated as f real, and the distance between the virtual sensor (407 or 408) that records the refocused image and the microlens is indicated as f virtual . Since the virtual sensor position varies depending on the refocus position, f virtual is set according to the refocus position.
ステップs703では、投影領域の端点算出部605が、入力画素、入力画素位置と仮想センサ位置を用いて、仮想センサ上の投影領域の端点を計算する。図8(a)には、本実施例における投影領域の端点806がP1とP2で示されている。P1とP2の座標を求める方法は投影領域の端点算出部605の詳細説明で後述する。投影領域とは、センサ画素に対応する仮想センサ上の領域であり、投影領域の端点に囲まれる領域である。図8(a)には、本実施例における投影領域808が示されている。仮想センサ803上に拡大して投影された投影領域は、センサ画素804と同じサイズで均等に分割される。図8(b)を参照すると、投影領域808には複数の画素が存在することが分かる。
In step s703, the projection area
すなわち、投影領域とは、センサ上の1画素に対応する領域であり、合成によりフォーカスされる位置(リフォーカス位置)に応じて定まる仮想センサ上に投影される領域である。投影領域には、複数の画素が含まれる。 That is, the projection area is an area corresponding to one pixel on the sensor, and is an area projected on a virtual sensor determined according to a position focused by synthesis (refocus position). The projection area includes a plurality of pixels.
ステップs704では、投影領域使用率設定部606が、画像合成のために使用される仮想センサ上の投影領域の使用率を設定する。従来手法では、画像合成のために、投影領域の全体が使用される。本実施例は、投影領域の各画素に対して、使用率を設定し、この使用率に応じて画像合成を行う。その結果、本実施例による画像合成によれば、複数画像の画素値を平均化することによる画像の鮮鋭性の低下を低減することができる。
In step s704, the projection area usage
詳細は後述するが、本実施例の処理では、投影領域の画素に0〜1の係数を掛けることによって、投影領域の使用率の制御を実現する。その係数は投影領域使用率と呼び、決め方については投影領域使用率設定部606の詳細説明で後述する。
Although details will be described later, in the processing of the present embodiment, the usage rate of the projection area is controlled by multiplying the pixels of the projection area by a coefficient of 0 to 1. The coefficient is called a projection area usage rate, and how to determine the coefficient will be described later in the detailed description of the projection area usage
ステップs705では、画素値合成部607が、複数枚の入力画像について、投影領域の画素を投影領域使用率に掛けて、合成画像の画素位置に重なった画素を平均して合成画像の画素値を計算して出力する。複数枚の入力画像の画素があるため、それぞれの入力画素に対応する投影領域が存在する。そのため、合成画像の画素位置に複数の投影領域の画素が重なる。合成画像の画素値は、複数の入力画素の投影領域にある画素値に対して、対応する投影領域使用率を掛け、合成画像の画素位置に重なった複数の画素の画素値の平均をとって求められる。
In step s705, the pixel
<投影領域の端点算出部の詳細な動作>
投影領域の端点算出部605の詳細な動作について、図8を用いて説明する。
図8(a)において、符号801は被写体(物点)、符号802はセンサ、符号803は仮想センサを表す。符号804はセンサ802上の1画素を表し、符号805はマイクロレンズの光軸を表す。符号806はセンサ画素804を仮想センサ803上に投影した場合の投影領域の端点P1,P2を表す。符号808はセンサ画素804を仮想センサ803上に投影した場合の投影領域を表す。
<Detailed Operation of Projection Area Endpoint Calculation Unit>
A detailed operation of the projection area end
In FIG. 8A, reference numeral 801 represents a subject (object point), reference numeral 802 represents a sensor, and reference numeral 803 represents a virtual sensor. Reference numeral 804 represents one pixel on the sensor 802, and
センサ画素804は、マイクロレンズの光学中心805を基準に仮想センサ803に投影され、投影領域808の端点806と投影領域808が形成される。
The sensor pixel 804 is projected onto the virtual sensor 803 with reference to the
図8(a)より、投影領域808はセンサ画素804のfvirtual/freal 倍になる。投影領域の端点算出部605は、式1、2に従って投影領域の端点806(P1、P2)のx座標を計算する。
From FIG. 8A, the
なお、lは隣接するマイクロレンズの光軸の間の距離である。xは入力画素位置の中心からメインレンズの光軸との距離である。sはセンサ画素804のサイズである。P1及びP2を含む端点で囲まれた画素範囲が投影領域である。換言すれば、投影領域の端点算出部605は、P1、P2の座標を算出することにより、合成画像の領域を決めていると言える。
Here, l is the distance between the optical axes of adjacent microlenses. x is the distance from the center of the input pixel position to the optical axis of the main lens. s is the size of the sensor pixel 804. A pixel range surrounded by end points including P1 and P2 is a projection region. In other words, it can be said that the projection area end
図8(b)は入力画像を二次元で示したイメージ図である。図8(b)において、センサ上の1画素804が、仮想センサ上では拡大されて投影領域808として投影されていることが分かる。二次元の場合、投影領域の端点算出部605は図8(b)仮想センサ803上の投影領域808の四隅809P1、P2、P3、P4の座標を計算する。
FIG. 8B is an image diagram showing the input image in two dimensions. In FIG. 8B, it can be seen that one pixel 804 on the sensor is enlarged and projected as a
<投影領域使用率設定部の詳細な動作>
図9と図10を参照して、投影領域使用率設定部606の詳細な動作について具体例を用いて説明する。
<Detailed Operation of Projection Area Usage Rate Setting Unit>
The detailed operation of the projection area usage
図9に投影領域808の使用率の具体例を示す。本実施例では、fvirtual/freal は5になるものとする。センサ画素804は仮想センサ803に5×5倍に拡大されて投影される。仮想センサ803に拡大された投影領域をセンサ画素804のサイズで分割し、(fvirtual/freal )2(今回の例では5×5)の画素が投影領域にある。これらの画素のそれぞれに投影領域使用率を乗算する。
FIG. 9 shows a specific example of the usage rate of the
投影領域使用率の例を図9(a)に示す。符号901は従来法の使用率である。従来はセンサ画素804を単純に5×5倍して、投影領域808にある全ての画素を合成画像の画素値の計算に使ったため、投影領域使用率は全て1になっている。
An example of the projection area usage rate is shown in FIG.
符号902は本実施例の投影領域使用率の例である。この例では、投影領域内における外周画素(投影領域の枠上の画素)の投影領域使用率が0に設定されている。符号902のように設定された投影領域使用率を用いることで、仮想センサに投影する領域の有効範囲を符号901の場合に比べて縮小することになる。すなわち符号902の例では、投影領域の有効範囲は、投影領域使用率が1に設定されている9画素である。
符号902の例では使用率を0と1のみで構成したが、符号903に示すように、0と1の間の値を持たせても構わない。
In the example of
このように符号902及び903の例では、投影領域の中心画素からの距離に応じて、異なる投影領域使用率を画素に対して設定している。また、中心に近い画素ほど高い投影領域使用率が設定されている。
As described above, in the examples indicated by
図9(b)の符号904、905、906はそれぞれ、符号901、902、903を作成するための関数である。横軸はセンサ画素804単位の画素位置を示しており、縦軸はそれぞれの画素の使用率を示している。このように任意の関数を使用して投影領域使用率を生成することも可能である。
符号904、905、906のそれぞれの関数を式3,式4,式5に具体的に示す。
The respective functions of
式4のR1とR2は任意の値を取ることができる。式5のμはここでは
0.5×fvirtual/freal であるとし、σは任意の値である。
R1 and R2 in Equation 4 can take arbitrary values. Μ in Equation 5 is here
It is assumed that 0.5 × f virtual / f real , and σ is an arbitrary value.
前述したように、仮想センサ上の合成画像の1画素をセンサ画素804の画素サイズで分割し、分割した画素ごとに投影領域使用率を乗算することにより投影領域808の有効範囲を決定する。
As described above, one pixel of the composite image on the virtual sensor is divided by the pixel size of the sensor pixel 804, and the effective range of the
図10は図9で示した従来法の投影領域使用率901と本実施例の投影領域使用率902のそれぞれを用いて計算した仮想センサ上の投影領域をそれぞれ示す。
FIG. 10 shows projection areas on the virtual sensor calculated using the projection
図10(a)は投影領域使用率901を用いた場合であり、画素を単純に5×5倍して投影している。符号903及び904は、投影領域808の実効的な範囲を表す。一方で、図10(b)は投影領域使用率902を用いた場合であり、投影領域808の実効的な範囲を符号1005及び1006で表す。領域1005及び1006は、領域903及び904に比べて投影領域の有効範囲が縮小されていることが分かる。投影領域の有効範囲が狭いものを用いて画像が合成されると、異なる入力画素の投影領域の重なりが減り、合成画像の画素を平均化する際に用いる投影領域の画素数が減るので、よりコントラストのある画像を生成することができ、合成画像の鮮鋭化に繋がる。
FIG. 10A shows a case where the projection
図15に本実施例による画像合成の結果の一例を示す。図15(a)はCZPチャートを複数視点撮影した画像を合成したリフォーカス画像の一部を示す。図15(a)の画像1501は図9に示した従来法の投影領域の使用率901を用いてリフォーカス画像を生成した結果である。図15(b)の画像1502は図9に示した本発明の投影領域の使用率902を用いてリフォーカス画像を生成した結果である。画像1501より画像1502はコントラストが良くなり、本実施例によって合成画像の鮮鋭性が向上されていることが分かる。
FIG. 15 shows an example of the result of image composition according to this embodiment. FIG. 15A shows a part of a refocus image obtained by combining images obtained by photographing a plurality of viewpoints of the CZP chart. An
また、従来法と本実施例の結果画像の同じ場所(符合1503で示す位置)で信号応答値を取得したときの信号応答値を図15(b)に示している。チャート1504は従来法の信号応答であり、チャート1505は本実施例の信号応答である。チャート1505では、信号応答が大きく変動していることが分かる。信号応答が大きく変動するため、本実施例により生成した合成画像のコントラストが従来法で生成した合成画像より大きいことが確認できる。
FIG. 15B shows the signal response value when the signal response value is acquired at the same place (position indicated by reference numeral 1503) in the result image of the conventional method and this embodiment. A
以上説明したように本実施例によれば、図4に示したようなPlenoptic Cameraや、図5に示したようなカメラアレイにおいて、鮮鋭なリフォーカス画像が生成することができる。 As described above, according to the present embodiment, a sharp refocus image can be generated in the Plenoptic Camera as shown in FIG. 4 or the camera array as shown in FIG.
設定された投影領域使用率による投影領域の有効範囲が狭すぎると、画素平均を取得できない領域が生じて、合成画像の画素に値を埋めることができない。このような画素が存在する場合を画素飛びと呼ぶ。それを解決するための投影領域使用率の設定方法を本実施例で図11と図12を用いて説明する。 If the effective range of the projection area based on the set projection area usage rate is too narrow, an area in which the pixel average cannot be obtained occurs, and the value cannot be filled in the pixel of the composite image. A case where such a pixel exists is called a pixel skip. A method for setting the projection area usage rate for solving this problem will be described with reference to FIGS. 11 and 12 in this embodiment.
本実施例ではステップS705で、画素値合成部607が行う処理以外は、実施例1と同じである。
This embodiment is the same as the first embodiment except for the processing performed by the pixel
第1実施例でステップS704の投影領域の使用率の設定処理の後、本実施例における図12のステップS1201で処理を行う。 In the first embodiment, after the projection area usage rate setting process in step S704, the process is performed in step S1201 of FIG.
ステップS1201では、画素値が設定される前の合成画像の各画素に初期値として-1を設定する。 In step S1201, −1 is set as an initial value for each pixel of the composite image before the pixel value is set.
ステップS1202では、実施例1で設定した投影使用率を用いてS1201で初期値が設定されたが画像に対して画素値を設定し、合成画像を生成する。 In step S1202, the initial value is set in step S1201 using the projection usage rate set in the first embodiment, but the pixel value is set for the image to generate a composite image.
ステップS1203では、合成画像検査部1105は、生成された合成画像に対して、-1が設定されている画素が存在するかどうかをチェックする。すなわち、画像合成処理により画素値が設定されていない画素が存在するかを確認し、そのような画素を検出する。
In step S1203, the composite
もし-1が存在する場合、ステップS1204では、投影領域の使用率変更部1104が投影領域の使用率を上げて、ステップS1202で、変更後の使用率で合成画像を再度生成する。もし合成画像上に-1が設定されている画素が存在しない場合、ステップ1205で合成画像を出力する。
If -1 is present, in step S1204, the projected area usage
本実施例では、合成画像の各画素に初期値として-1を設定し、画像合成処理後も初期値が設定されたままになっている画素の存在を確認することで画素飛びの有無を確認しているが、この方法に限定されない。投影領域の使用率を下げ有効領域を狭くすることに起因して、合成後の画像において、本来画素値が設定されるべき画素に画素値が設定されない画素を検出できる方法であれば、任意の方法を用いることができる。 In this embodiment, -1 is set as the initial value for each pixel of the composite image, and the presence of pixels that have been set with the initial value after the image composition processing is confirmed to check for pixel skipping. However, it is not limited to this method. Any method can be used as long as it can detect a pixel in which a pixel value is not set to a pixel that should originally have a pixel value in a combined image due to reducing the usage rate of the projection area and narrowing the effective area. The method can be used.
以上説明したように本実施例によれば、画素飛びのない合成画像を出力することができる。 As described above, according to this embodiment, it is possible to output a composite image without pixel skipping.
合成画像内の中心よりも外側の領域において、入力画像の画素と対応付けられる画素の数が減る現象がある。これは、合成画像内の中心と外側で同じ投影領域使用率を使うと、中心に近い部分では複数の画素の重なりがあるが、周辺部分では画素の重なり少なく、その結果、合成画像内の中心よりも外側に画素飛びが生じてしまうためである。 There is a phenomenon in which the number of pixels associated with the pixels of the input image is reduced in a region outside the center in the composite image. This is because when the same projection area usage rate is used outside and at the center in the composite image, there are multiple pixel overlaps in the part close to the center, but there are few pixel overlaps in the peripheral part, resulting in the center in the composite image. This is because the pixel skip occurs outside the area.
図16は合成画像の周辺部分の画素飛びを示す。図16(a)は実施例1の投影領域使用率を用いる場合の例を示している。符号1601は合成したリフォーカス画像の領域とする。符号1602は合成画像の中心部分である。符号1603は合成画像の周辺領域(中心よりも外側の領域)を示す。符号1604と1605は、画素飛びを示す。符号1606は実施例1の投影領域使用率による投影領域の使用範囲を示す。
FIG. 16 shows pixel skipping in the peripheral portion of the composite image. FIG. 16A shows an example of using the projection area usage rate of the first embodiment. Reference numeral 1601 denotes an area of the synthesized refocus image. Reference numeral 1602 denotes a central portion of the composite image. Reference numeral 1603 indicates a peripheral region (region outside the center) of the composite image.
図16(b)は周辺領域の投影領域使用率を向上させた例を示す。符号1607は投影領域使用率を改善した後の投影領域の使用範囲を示す。投影領域の使用範囲1607は、使用領域1606より大きくなったため、符号1604と1605のような画素飛びの発生を防ぐことができた。
FIG. 16B shows an example in which the projection area usage rate in the peripheral area is improved. Reference numeral 1607 indicates the use range of the projection area after the projection area use rate is improved. Since the use range 1607 of the projection area is larger than the use area 1606, it is possible to prevent occurrence of pixel skipping as indicated by
このように画素飛びの問題を解決するための投影領域使用率の設定方法を図13と図14を用いて説明する。 A method for setting the projection area usage rate for solving the pixel skip problem will be described with reference to FIGS. 13 and 14. FIG.
本実施例での画像合成部201による処理は、図7のステップS704で、投影領域使用率設定部606が行う処理以外は、第1実施例と同じである。
The processing by the
第1実施例でステップS704合成画像生成処理に入る前の処理の後、本実施例における処理である図14のステップS1401の処理を続ける。 After the process before entering the composite image generation process in step S704 in the first embodiment, the process in step S1401 in FIG. 14 which is the process in the present embodiment is continued.
ステップS1401では、合成画像の中心画素との距離算出部1302が、入力画像の画素と対応付けられる合成画像の画素と、合成画像の中心画素との距離を算出する。本実施例では、距離は直線距離とする。
In step S1401, the
ステップ1402では、投影領域使用率設定部1303が距離に応じて使用率を設定する。
In step 1402, the projection area usage
本実施例では、中心画素と、合成画像の枠上の画素との距離を最大距離dmaxとする。対象画素と中心画素の距離はdとする。対象画素と中心画素との距離に応じた使用率を決定するために、重み係数としてd/dmaxを算出する。 In this embodiment, the distance between the center pixel and the pixel on the frame of the composite image is the maximum distance dmax. The distance between the target pixel and the center pixel is d. In order to determine the usage rate according to the distance between the target pixel and the center pixel, d / dmax is calculated as a weighting factor.
式4のR1にd/dmaxを乗じ、R2にdmax /dを乗じることによって使用率を制御することができる。また、式5のσにd/dmaxの重み係数をかけることで使用率を制御することができる。 The usage rate can be controlled by multiplying R1 of Equation 4 by d / dmax and multiplying R2 by dmax / d. Also, the usage rate can be controlled by multiplying σ in Equation 5 by a weighting factor of d / dmax.
なお、本実施例では、具体的な式を用いて使用率を制御する方法を説明したが、この方法に限定されない。合成画像内の中心よりも外側に合成される投影領域の画像において、画素の使用率が大きくなるように使用率を設定できる方法であれば、他の方法であってもよい。 In the present embodiment, the method of controlling the usage rate using a specific formula has been described, but the present invention is not limited to this method. Another method may be used as long as the usage rate can be set so that the usage rate of the pixel is increased in the image of the projection region synthesized outside the center in the synthesized image.
以上説明したように実施例3によれば、合成画像の周辺画素に画素飛びがなく出力ができる。 As described above, according to the third embodiment, the peripheral pixels of the composite image can be output without pixel skipping.
なお、実施例3では、入力画像の画像サイズは、横と縦が同じ値であって、マイクロレンズの配置間隔が均等であることを前提にしている。 In the third embodiment, it is assumed that the image size of the input image is the same value in the horizontal and vertical directions, and the arrangement intervals of the microlenses are uniform.
入力画像の画像サイズの横と縦が異なる場合、合成画像上にある処理対象の画素が周辺部分にあるかどうかの判断は中心画素の距離だけで判断できなくなる。そのため、中心画素からの距離に応じて使用率を制御するには、合成画像上にある処理対象の画素と中心画素の位置情報に加えて、合成画像の横と縦のサイズの情報が必要である。 When the horizontal and vertical sizes of the input image are different, it is impossible to determine whether or not the pixel to be processed on the composite image is in the peripheral portion only by the distance of the central pixel. Therefore, in order to control the usage rate according to the distance from the center pixel, in addition to the position information of the pixel to be processed and the center pixel on the composite image, information on the horizontal and vertical sizes of the composite image is required. is there.
一方、マイクロレンズの配置間隔にムラがある場合、マイクロレンズの配置間隔が広い部分は他画像の投影領域と重なる比率が低くなり、入力画素が仮想センサに投影した投影領域を多く使用する必要がある。言い換えれば、マイクロレンズの間の配置距離を用いて投影領域の使用率を決めなければならない。 On the other hand, when there is unevenness in the arrangement interval of the microlenses, the ratio of the portion where the arrangement interval of the microlens is wide overlaps with the projection area of the other image is low, and it is necessary to use a lot of the projection area projected by the input pixel on the virtual sensor is there. In other words, the usage rate of the projection area must be determined using the arrangement distance between the microlenses.
上記のように、入力画像の画像サイズの横と縦が異なる場合と、マイクロレンズの配置間隔に違いがある場合については、合成画像上に画素飛びが発生しないように実施例2で説明した方法を使用して画素飛びをチェックする必要がある。 As described above, in the case where the horizontal and vertical sizes of the input image are different from each other and in the case where there is a difference in the arrangement interval of the microlenses, the method described in the second embodiment so that the pixel skip does not occur on the composite image. Need to check for pixel skipping.
[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (8)
前記複数の画像を示す画像データを入力する入力手段と、
センサ上の1画素に対応する領域であって、前記合成によりフォーカスされる被写体の位置に応じて定まる仮想センサ上に投影される領域である投影領域に含まれる複数の画素のそれぞれの画素に対して、前記合成のための使用率を設定する使用率設定手段と、
前記使用率設定手段に設定された前記使用率に基づいて、前記画像データが示す前記複数の画像を合成する合成手段と、を備えることを特徴とする画像処理装置。 An image processing apparatus for synthesizing multiple images taken by the multi-view,
Input means for inputting image data indicating the plurality of images;
For each pixel of a plurality of pixels included in a projection area that is an area corresponding to one pixel on the sensor and projected onto a virtual sensor determined according to the position of the subject focused by the synthesis Usage rate setting means for setting a usage rate for the composition ;
An image processing apparatus comprising: a combining unit configured to combine the plurality of images indicated by the image data based on the usage rate set in the usage rate setting unit .
前記使用率設定手段は、前記検出された画素に対して、高い前記使用率を設定することを特徴とする請求項1から4のいずれか1つに記載の画像処理装置。 Detecting means for detecting a pixel whose pixel value is not set in the combined image by setting the usage rate;
The image processing apparatus according to claim 1, wherein the usage rate setting unit sets the high usage rate for the detected pixel.
前記複数の画像を示す画像データを入力する入力ステップと、
センサ上の1画素に対応する領域であって、前記合成によりフォーカスされる被写体の位置に応じて定まる仮想センサ上に投影される領域である投影領域に含まれる複数の画素のそれぞれの画素に対して、前記合成のための使用率を設定する使用率設定ステップと、
前記使用率設定ステップにおいて設定された前記使用率に基づいて、前記画像データが示す前記複数の画像を合成する合成ステップと、を備えることを特徴とする画像処理方法。 An image processing method for synthesizing multiple images taken by the multi-view,
An input step of inputting image data indicating the plurality of images;
For each pixel of a plurality of pixels included in a projection area that is an area corresponding to one pixel on the sensor and projected onto a virtual sensor determined according to the position of the subject focused by the synthesis A usage rate setting step for setting a usage rate for the composition ;
An image processing method comprising: a combining step of combining the plurality of images indicated by the image data based on the usage rate set in the usage rate setting step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011156631A JP5743769B2 (en) | 2011-07-15 | 2011-07-15 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011156631A JP5743769B2 (en) | 2011-07-15 | 2011-07-15 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013026666A JP2013026666A (en) | 2013-02-04 |
JP5743769B2 true JP5743769B2 (en) | 2015-07-01 |
Family
ID=47784587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011156631A Active JP5743769B2 (en) | 2011-07-15 | 2011-07-15 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5743769B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6285639B2 (en) * | 2013-04-30 | 2018-02-28 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, control method, and program |
CN112492194B (en) * | 2015-03-10 | 2023-04-14 | 佳能株式会社 | Image processing method and image processing apparatus |
JP6275174B2 (en) | 2015-03-10 | 2018-02-07 | キヤノン株式会社 | Image processing method, image processing apparatus, and imaging apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4826152B2 (en) * | 2005-06-23 | 2011-11-30 | 株式会社ニコン | Image composition method and imaging apparatus |
JP5067154B2 (en) * | 2007-12-27 | 2012-11-07 | ソニー株式会社 | Imaging device |
-
2011
- 2011-07-15 JP JP2011156631A patent/JP5743769B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013026666A (en) | 2013-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8581998B2 (en) | Image sensing apparatus and method of controlling the image sensing apparatus | |
US9503633B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP5725975B2 (en) | Imaging apparatus and imaging method | |
JP6555863B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US9076214B2 (en) | Image acquisition apparatus and image processing apparatus using selected in-focus image data | |
JP5517746B2 (en) | Image processing apparatus and method | |
US8947585B2 (en) | Image capturing apparatus, image processing method, and storage medium | |
JP5766077B2 (en) | Image processing apparatus and image processing method for noise reduction | |
US8988546B2 (en) | Image processing device, image processing method, image capturing device, and program | |
US8937662B2 (en) | Image processing device, image processing method, and program | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP6544978B2 (en) | Image output apparatus, control method therefor, imaging apparatus, program | |
JP6752685B2 (en) | Imaging equipment, imaging methods and programs | |
US10148862B2 (en) | Image capturing apparatus, method for controlling image capturing apparatus focus area display, and storage medium | |
US20130083169A1 (en) | Image capturing apparatus, image processing apparatus, image processing method and program | |
JP5743769B2 (en) | Image processing apparatus and image processing method | |
JP6012396B2 (en) | Image processing apparatus, image processing method, and program. | |
JP6362070B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP6961423B2 (en) | Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media | |
JP6056160B2 (en) | Automatic focusing device, automatic focusing method and program | |
JP5744642B2 (en) | Image processing apparatus, image processing method, and program. | |
JP6120535B2 (en) | Information processing apparatus, information processing method, and program | |
JP2015084517A (en) | Image processing apparatus, image processing method, program and recording medium | |
JP6210717B2 (en) | Image reproducing apparatus and method | |
JP2020086824A (en) | Image processing system, image processing method, imaging device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150428 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5743769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |