JP2010086139A - Image processing method, image processing apparatus, and image pickup apparatus - Google Patents
Image processing method, image processing apparatus, and image pickup apparatus Download PDFInfo
- Publication number
- JP2010086139A JP2010086139A JP2008252323A JP2008252323A JP2010086139A JP 2010086139 A JP2010086139 A JP 2010086139A JP 2008252323 A JP2008252323 A JP 2008252323A JP 2008252323 A JP2008252323 A JP 2008252323A JP 2010086139 A JP2010086139 A JP 2010086139A
- Authority
- JP
- Japan
- Prior art keywords
- image
- filter
- image restoration
- imaging
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 84
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 230000003287 optical effect Effects 0.000 claims abstract description 78
- 230000004075 alteration Effects 0.000 claims abstract description 55
- 238000003384 imaging method Methods 0.000 claims description 121
- 238000000034 method Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 36
- 238000011084 recovery Methods 0.000 claims description 21
- 238000012546 transfer Methods 0.000 claims description 17
- 210000004027 cell Anatomy 0.000 description 64
- 238000012937 correction Methods 0.000 description 23
- 230000000694 effects Effects 0.000 description 6
- 206010010071 Coma Diseases 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 241000255969 Pieris brassicae Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000002287 horizontal cell Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像に含まれるぼけ成分と歪曲成分を低減する画像処理技術に関する。 The present invention relates to an image processing technique for reducing a blur component and a distortion component included in an image.
デジタルカメラ等の撮像装置により被写体を撮像して得られた画像には、撮像光学系(以下、単に光学系という)の球面収差、コマ収差、像面湾曲、非点収差等に起因する画像劣化成分としてのぼけ成分が含まれる。このようなぼけ成分は、無収差で回折の影響もない場合に被写体の一点から出た光束が撮像面上で再度一点に集まるべきものが、ある広がりをもって像を結ぶことで発生する。 An image obtained by imaging a subject with an imaging device such as a digital camera has image degradation caused by spherical aberration, coma aberration, field curvature, astigmatism, etc. of an imaging optical system (hereinafter simply referred to as an optical system). A blur component is included as a component. Such a blur component is generated when a light beam emitted from one point of a subject to be collected again at one point on the imaging surface when an aberration is not caused and there is no influence of diffraction is formed by forming an image with a certain spread.
ここにいうぼけ成分は、光学的には、点像分布関数(PSF)により表され、ピントのずれによるぼけとは異なる。また、カラー画像での色にじみも、光学系の軸上色収差、色の球面収差、色のコマ収差が原因であるものに関しては、光の波長ごとのぼけ方の相違と言うことができる。 The blur component here is optically represented by a point spread function (PSF) and is different from the blur due to the focus shift. In addition, color bleeding in a color image can also be said to be a difference in blurring for each wavelength of light when it is caused by axial chromatic aberration, chromatic spherical aberration, and chromatic coma in the optical system.
画像のぼけ成分を補正する方法として、光学系の光学伝達関数(OTF)の情報を用いて補正するものが知られている。この方法は、画像回復や画像復元と呼ばれており、以下、この光学系の光学伝達関数(OTF)の情報を用いて画像のぼけ成分を補正(低減)する処理を画像回復処理と称する。 As a method for correcting a blur component of an image, a method for correcting the blur component using information of an optical transfer function (OTF) of an optical system is known. This method is called image restoration or image restoration. Hereinafter, processing for correcting (reducing) a blur component of an image using information on the optical transfer function (OTF) of the optical system is called image restoration processing.
画像回復処理の概要は以下の通りである。ぼけ成分を含む劣化画像(入力画像)をg(x,y)とし、劣化していない元の画像をf(x,y)とする。また、光学伝達関数のフーリエペアである点像分布関数(PSF)をh(x,y)とする。このとき、以下の式が成り立つ。ただし、*はコンボリューションを示し、(x,y)は画像上の座標を示す。 The outline of the image restoration process is as follows. A degraded image (input image) including a blur component is denoted by g (x, y), and an original image that is not degraded is denoted by f (x, y). Further, a point spread function (PSF) that is a Fourier pair of the optical transfer function is assumed to be h (x, y). At this time, the following equation holds. Here, * indicates convolution and (x, y) indicates coordinates on the image.
g(x,y)=h(x,y)*f(x,y)
また、上記式をフーリエ変換により2次元周波数面での表示形式に変換すると、以下の式のように、周波数ごとの積の形式になる。Hは点像分布関数(PSF)をフーリエ変換したものであり、光学伝達関数(OTF)である。(u,v)は2次元周波数面での座標、すなわち周波数を示す。
g (x, y) = h (x, y) * f (x, y)
Further, when the above equation is converted into a display format on a two-dimensional frequency plane by Fourier transform, a product format for each frequency is obtained as in the following equation. H is a Fourier transform of the point spread function (PSF) and is an optical transfer function (OTF). (U, v) indicates the coordinates on the two-dimensional frequency plane, that is, the frequency.
G(u,v)=H(u,v)・F(u,v)
劣化画像から元の画像を得るためには、以下のように、両辺をHで除算すればよい。
G (u, v) = H (u, v) · F (u, v)
In order to obtain the original image from the deteriorated image, both sides may be divided by H as follows.
G(u,v)/H(u,v)=F(u,v)
このF(u,v)を逆フーリエ変換して実面に戻すことで、元の画像f(x,y)に相当する回復画像が得られる。
G (u, v) / H (u, v) = F (u, v)
A restored image corresponding to the original image f (x, y) is obtained by performing inverse Fourier transform on the F (u, v) and returning to the actual surface.
ここで、H−1を逆フーリエ変換したものをRとすると、以下の式のように実面での画像に対するコンボリューション処理を行うことで、同様に元の画像を得ることができる。 Here, assuming that the result of inverse Fourier transform of H −1 is R, the original image can be similarly obtained by performing convolution processing on the actual image as in the following equation.
g(x,y)*R(x,y)=f(x,y)
このR(x,y)を、画像回復フィルタという。実際の画像にはノイズ成分があるため、上記のように光学伝達関数(OTF)の完全な逆数をとって作成した画像回復フィルタを用いると、劣化画像とともにノイズ成分が増幅されてしまい、一般には良好な画像は得られない。この点については、例えばウィーナーフィルタ(Wiener filter)のように画像信号とノイズ信号の強度比に応じて画像の高周波側の回復率を抑制する方法が知られている。画像の色にじみ成分の劣化は、例えば、上記のぼけ成分の補正により画像の色成分ごとのぼけ量が均一になれば補正されたことになる。
g (x, y) * R (x, y) = f (x, y)
This R (x, y) is called an image restoration filter. Since an actual image has a noise component, using an image restoration filter created by taking the perfect reciprocal of the optical transfer function (OTF) as described above, the noise component is amplified together with the deteriorated image. A good image cannot be obtained. With respect to this point, for example, a method of suppressing the recovery rate on the high frequency side of the image according to the intensity ratio of the image signal and the noise signal, such as a Wiener filter, is known. Deterioration of the color blur component of the image is corrected, for example, if the blur amount for each color component of the image becomes uniform by correcting the blur component.
ここで、光学伝達関数(OTF)は、光学系の焦点距離(ズーム状態)や絞り径等の光学系の状態に応じて変動するため、画像回復処理に用いる画像回復フィルタもこれに応じて変更する必要がある。 Here, since the optical transfer function (OTF) varies depending on the optical system state such as the focal length (zoom state) and the aperture diameter of the optical system, the image restoration filter used for the image restoration process is also changed accordingly. There is a need to.
また、画像には、歪曲成分が含まれる場合もある。歪曲とは、一般的には、画像が周辺部ほど大きく伸張又は収縮するという幾何学的な歪みであり、光学系の歪曲収差が原因である。 The image may include a distortion component. Distortion is generally a geometric distortion in which an image expands or contracts greatly toward the periphery, and is caused by distortion of the optical system.
特許文献1には、歪曲収差による画像の幾何学的歪みを補正する方法として、撮像時のズーム状態や撮像距離等の撮像状態の情報を取得し、予め用意してある撮像状態に応じた歪曲収差データを参照して幾何学的歪みを補正する技術が開示されている。歪曲収差データは、像高に依存する関数である。
光学系の諸収差により劣化した画像を良好に補正して高画質な画像を得るためには、上述したぼけ成分と歪曲成分を低減する処理を行う必要がある。しかしながら、これらの処理を行うソフトウェアやそれを実装した撮像装置では、ユーザーにストレスを感じさせないために処理速度を高速にしなければならない。 In order to satisfactorily correct an image deteriorated due to various aberrations of the optical system and obtain a high-quality image, it is necessary to perform the process of reducing the blur component and the distortion component described above. However, in the software for performing these processes and the imaging apparatus in which the software is mounted, the processing speed must be increased so as not to cause the user to feel stress.
また、特許文献1にて開示された補正技術では、撮像状態に対応する歪曲収差データを用いて画像の歪曲成分を低減することはできるが、画像のぼけ成分を低減することができない。特許文献1にて開示された歪曲成分の補正方法と、従来の画像回復フィルタを用いた画像回復処理とを順次行うことで、歪曲成分だけでなくぼけ成分を低減することは可能である。ただし、処理工程が増え、処理速度が低下する。 Further, with the correction technique disclosed in Patent Document 1, the distortion component of the image can be reduced using the distortion aberration data corresponding to the imaging state, but the blur component of the image cannot be reduced. It is possible to reduce not only the distortion component but also the blur component by sequentially performing the distortion component correction method disclosed in Patent Document 1 and the image restoration processing using the conventional image restoration filter. However, the number of processing steps increases and the processing speed decreases.
本発明は、画像のぼけ成分と歪曲成分を高速に補正することができるようにした画像処理方法、画像処理装置及び撮像装置を提供する。 The present invention provides an image processing method, an image processing apparatus, and an imaging apparatus that can correct blur components and distortion components of an image at high speed.
本発明の一側面としての画像処理方法は、画像を取得するステップと、光学系の収差情報に基づいてフィルタ値が2次元分布を持つように作成された画像回復フィルタを用いて該画像に対する画像回復処理を行う画像回復ステップとを有する。そして、画像回復フィルタは、フィルタ値の絶対値が最大であるセルの位置が該画像回復フィルタの中心セルの位置に対して光学系の歪曲収差量に応じたずれ量を有しており、画像のぼけ成分とともに歪曲成分を低減するフィルタであることを特徴とする。 An image processing method according to an aspect of the present invention includes an image acquisition step and an image for the image using an image restoration filter created so that a filter value has a two-dimensional distribution based on aberration information of the optical system. And an image restoration step for performing a restoration process. In the image restoration filter, the position of the cell where the absolute value of the filter value is maximum has a deviation amount corresponding to the distortion amount of the optical system with respect to the position of the center cell of the image restoration filter. It is a filter that reduces distortion components as well as blur components.
また、本発明の他の一側面としての画像処理装置は、光学系の収差情報に基づいてフィルタ値が2次元分布を持つように作成された画像回復フィルタを記憶する記憶手段と、画像回復フィルタを用いて画像に対する画像回復処理を行う画像回復手段とを有する。そして、画像回復フィルタは、フィルタ値の絶対値が最大であるセルの位置が該画像回復フィルタの中心セルに対して光学系の歪曲収差量に応じたずれ量を有しており、画像のぼけ成分とともに歪曲成分を低減するフィルタであることを特徴とする。 An image processing apparatus according to another aspect of the present invention includes a storage unit that stores an image restoration filter created so that a filter value has a two-dimensional distribution based on aberration information of an optical system, and an image restoration filter. And an image restoration means for performing an image restoration process on the image. In the image restoration filter, the position of the cell having the maximum absolute value of the filter value has a deviation amount corresponding to the distortion amount of the optical system with respect to the central cell of the image restoration filter, and the image blurring is caused. It is a filter that reduces distortion components as well as components.
なお、光学系により形成された被写体像を光電変換して画像を取得する撮像系と、該画像を処理する上記画像処理装置とを有する撮像装置も本発明の他の一側面を構成する。 Note that an imaging apparatus that includes an imaging system that acquires an image by photoelectrically converting a subject image formed by an optical system and the image processing apparatus that processes the image also constitutes another aspect of the present invention.
本発明によれば、画像回復フィルタがぼけ成分とともに歪曲成分を低減するように作成されているので、画像回復処理によってぼけ成分と歪曲成分とを同時に低減することができる。したがって、ぼけ成分と歪曲成分とを高速な処理によって低減することができる。 According to the present invention, since the image restoration filter is created so as to reduce the distortion component together with the blur component, the blur component and the distortion component can be simultaneously reduced by the image restoration processing. Therefore, the blur component and the distortion component can be reduced by high-speed processing.
以下、本発明の好ましい実施例について図面を参照しながら説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
図1には、本発明の実施例1である画像処理装置を備えた(画像処理方法を使用する)デジタルカメラやビデオカメラ等の撮像装置の構成を示している。 FIG. 1 shows a configuration of an imaging apparatus such as a digital camera or a video camera (using an image processing method) provided with the image processing apparatus according to the first embodiment of the present invention.
不図示の被写体からの光束は、撮像光学系101によって、CCDセンサやCMOSセンサ等により構成される撮像素子102上に結像する。 A light beam from a subject (not shown) forms an image on an image sensor 102 constituted by a CCD sensor, a CMOS sensor, or the like by an imaging optical system 101.
撮像光学系101は、不図示の変倍レンズ、絞り101a及びフォーカスレンズ101bを含む。変倍レンズを光軸方向に移動させることで、撮像光学系101の焦点距離を変更するズームが可能である。また、絞り101aは、絞り開口径を増減させて、撮像素子102に到達する光量を調節する。フォーカスレンズ101bは、被写体距離に応じてピント調整を行うために、不図示のオートフォーカス(AF)機構やマニュアルフォーカス機構によって光軸方向の位置が制御される。 The imaging optical system 101 includes a variable power lens (not shown), a diaphragm 101a, and a focus lens 101b. By moving the zoom lens in the optical axis direction, zooming that changes the focal length of the imaging optical system 101 is possible. The diaphragm 101a adjusts the amount of light reaching the image sensor 102 by increasing or decreasing the aperture diameter of the diaphragm. The focus lens 101b is controlled in position in the optical axis direction by an unillustrated autofocus (AF) mechanism or manual focus mechanism in order to perform focus adjustment according to the subject distance.
撮像素子102上に形成された被写体像は、該撮像素子102により電気信号に変換される。撮像素子102からのアナログ出力信号は、A/Dコンバータ103によりデジタル撮像信号に変換され、画像処理部104に入力される。 The subject image formed on the image sensor 102 is converted into an electric signal by the image sensor 102. An analog output signal from the image sensor 102 is converted into a digital image signal by the A / D converter 103 and input to the image processing unit 104.
画像処理部104は、入力されたデジタル撮像信号に対して各種処理を行うことで、カラー入力画像を生成する画像生成部104aを有する。また、画像処理部104は、この入力画像に対して画像回復処理を行う画像回復処理部(画像回復手段)104bを有する。撮像素子102から画像生成部104aまでが撮像系に相当する。 The image processing unit 104 includes an image generation unit 104a that generates a color input image by performing various processes on the input digital imaging signal. The image processing unit 104 includes an image recovery processing unit (image recovery unit) 104b that performs an image recovery process on the input image. The imaging element 102 to the image generation unit 104a correspond to the imaging system.
画像回復処理部104bは、状態検知部107から撮像光学系101の状態(以下、撮像状態という)の情報を得る。撮像状態とは、例えば、撮像光学系101の焦点距離(ズーム位置)、絞り開口径(絞り値、Fナンバー)、フォーカスレンズ位置(被写体距離)である。なお、状態検知部107は、システムコントローラ110から撮像状態の情報を得てもよいし、撮像光学系101を制御する撮像光学系制御部106から得てもよい。 The image restoration processing unit 104b obtains information on the state of the imaging optical system 101 (hereinafter referred to as an imaging state) from the state detection unit 107. The imaging state includes, for example, the focal length (zoom position), aperture diameter (aperture value, F number), and focus lens position (subject distance) of the imaging optical system 101. Note that the state detection unit 107 may obtain information on the imaging state from the system controller 110 or may be obtained from the imaging optical system control unit 106 that controls the imaging optical system 101.
そして、画像回復処理部104bは、撮像状態に応じた画像回復フィルタを記憶部(記憶手段)108から選択し、入力画像に対して画像回復処理を行う。状態検知部107、画像回復処理部104b及び記憶部108により、撮像装置内で画像処理装置が構成される。 The image restoration processing unit 104b selects an image restoration filter corresponding to the imaging state from the storage unit (storage unit) 108, and performs image restoration processing on the input image. The state detection unit 107, the image restoration processing unit 104b, and the storage unit 108 constitute an image processing device in the imaging device.
図2には、画像回復処理部104b(以下の説明では、画像処理部104という)で行われる画像回復に関する処理(画像処理方法)のフローチャートを示している。画像処理部104は、画像処理用コンピュータにより構成され、コンピュータプログラムに従って該処理を実行する。 FIG. 2 shows a flowchart of processing (image processing method) relating to image recovery performed by the image recovery processing unit 104b (hereinafter referred to as the image processing unit 104). The image processing unit 104 is configured by an image processing computer and executes the processing according to a computer program.
ステップS1では、画像処理部104は、撮像素子102からの出力信号に基づいて生成された画像(以下、入力画像という)を画像回復処理の対象として取得する。次に、ステップS2では、画像処理部104は、状態検知部107から撮像状態情報を取得する。ここでは、撮像状態を、ズーム位置、絞り開口径、及び被写体距離の3つとする。 In step S <b> 1, the image processing unit 104 acquires an image generated based on an output signal from the image sensor 102 (hereinafter referred to as an input image) as an object for image restoration processing. Next, in step S <b> 2, the image processing unit 104 acquires imaging state information from the state detection unit 107. Here, there are three imaging states, that is, a zoom position, an aperture diameter, and a subject distance.
次に、ステップS3では、画像処理部104は、記憶部108に記憶された画像回復フィルタの中から、ステップS2で取得した撮像状態に対応する画像回復フィルタを選択する。 Next, in step S <b> 3, the image processing unit 104 selects an image restoration filter corresponding to the imaging state acquired in step S <b> 2 from the image restoration filters stored in the storage unit 108.
ここで、記憶部108には、画像回復フィルタの数(データ数)を低減するために、離散的に選択された撮像状態に対する画像回復フィルタのみが記憶(格納)されている。このため、ステップS2で取得した撮像状態に対応する又は該撮像状態にきわめて近い撮像状態に対応する画像回復フィルタが記憶部108に格納されていない場合は、その撮像状態にできるだけ近い画像回復フィルタを選択する。そして、その画像回復フィルタを、以下のステップS4〜S6で、ステップS2で取得した撮像状態に最適化するように補正することで、実際に使用する画像回復フィルタを作成する。 Here, the storage unit 108 stores (stores) only image restoration filters for discretely selected imaging states in order to reduce the number of image restoration filters (data number). For this reason, when the image restoration filter corresponding to the imaging state acquired in step S2 or corresponding to the imaging state very close to the imaging state is not stored in the storage unit 108, an image restoration filter as close as possible to the imaging state is selected. select. Then, the image restoration filter to be actually used is created by correcting the image restoration filter in the following steps S4 to S6 so as to be optimized to the imaging state acquired in step S2.
図3には、記憶部108に記憶された、離散的に選択された撮像状態に対する画像回復フィルタを模式的に示す。記憶部108に記憶された画像回復フィルタは、前述したように、ズーム位置(状態A)、絞り開口径(状態B)及び被写体距離(状態C)の3つの撮像状態を軸とした撮像状態空間中に離散的に配置されている。撮像状態空間中の各点(黒丸)の座標が、記憶部108に記憶されている画像回復フィルタを示す。 FIG. 3 schematically illustrates the image restoration filter stored in the storage unit 108 for the discretely selected imaging state. As described above, the image restoration filter stored in the storage unit 108 is an imaging state space with the three imaging states of the zoom position (state A), the aperture diameter (state B), and the subject distance (state C) as axes. It is arranged discretely inside. The coordinates of each point (black circle) in the imaging state space indicate the image restoration filter stored in the storage unit 108.
なお、図3では、画像回復フィルタを各撮像状態に対して直交した線上の格子点に配置しているが、画像回復フィルタを格子点から外して配置しても構わない。また、撮像状態の種類は、ズーム位置、絞り開口径及び被写体距離に限らず、その数も3つでなくてもよく、4つ以上の撮像状態による4次元以上の撮像状態空間を構成してその中に画像回復フィルタを離散的に配置してもよい。 In FIG. 3, the image restoration filter is arranged at the grid point on the line orthogonal to each imaging state, but the image restoration filter may be arranged away from the grid point. Further, the types of imaging states are not limited to the zoom position, the aperture diameter, and the subject distance, and the number thereof may not be three, and a four-dimensional or more imaging state space is formed by four or more imaging states. The image restoration filter may be discretely arranged therein.
このように離散的に配置された画像回復フィルタから、実際に使用する画像回復フィルタを作成する方法については後述する。 A method of creating an actually used image restoration filter from the discretely arranged image restoration filters will be described later.
ここで、画像回復フィルタの例を図4に示す。画像回復フィルタでは、撮像光学系101の収差量に応じてセル(タップ)数が決められる。図4に示す画像回復フィルタは、21×21セルを有する2次元フィルタである。各セルが画像の1画素に対応する。 An example of the image restoration filter is shown in FIG. In the image restoration filter, the number of cells (tap) is determined according to the amount of aberration of the imaging optical system 101. The image restoration filter shown in FIG. 4 is a two-dimensional filter having 21 × 21 cells. Each cell corresponds to one pixel of the image.
画像回復フィルタを、100以上のセルに分割した2次元フィルタとすることで、撮像光学系101による球面収差、コマ収差、軸上色収差、軸外色フレア等の結像位置から大きく広がる収差に対しても良好な画像回復結果を得ることができる。また、このような実空間での画像回復フィルタを、入力画像に対してコンボリューション処理することで、フーリエ変換を行うことなく画像を回復することができる。 By making the image restoration filter into a two-dimensional filter divided into 100 or more cells, for the aberration that spreads widely from the imaging position such as spherical aberration, coma aberration, axial chromatic aberration, off-axis color flare, etc. by the imaging optical system 101 However, a good image restoration result can be obtained. In addition, by convolving the input image with such an image restoration filter in real space, the image can be restored without performing Fourier transform.
また、各セルは、撮像光学系101の球面収差、コマ収差、軸上色収差、軸外色フレア等の収差情報に応じて、図5に示すような値を有するように設定される。図5には、画像回復フィルタの1つの断面でのセル値(フィルタ値)を示している。画像回復フィルタは、フィルタ値が2次元分布を持つように作成されている。また、図5の例では、画像の中心から外れた位置での、コマ収差のような非対称性をもった収差を回復するフィルタとなっている。 Each cell is set to have a value as shown in FIG. 5 according to aberration information such as spherical aberration, coma aberration, axial chromatic aberration, and off-axis color flare of the imaging optical system 101. FIG. 5 shows cell values (filter values) in one cross section of the image restoration filter. The image restoration filter is created so that the filter value has a two-dimensional distribution. In the example of FIG. 5, the filter recovers aberration having asymmetry such as coma aberration at a position off the center of the image.
画像回復フィルタは、撮像光学系101等の光学伝達関数(OTF)を計算若しくは計測し、その逆関数を逆フーリエ変換することで作成される。一般的にはノイズの影響を考慮する必要があるため、ウィーナーフィルタや関連する回復フィルタの作成方法を選択して用いることができる。 The image restoration filter is created by calculating or measuring an optical transfer function (OTF) of the imaging optical system 101 or the like, and inverse Fourier transforming the inverse function. In general, since it is necessary to consider the influence of noise, it is possible to select and use a method of creating a Wiener filter or a related recovery filter.
また、ここにいう光学伝達関数は、撮像光学系101のみならず、撮像素子102の出力信号から画像処理部104にて入力画像が生成されるまでの、光学伝達関数を劣化させる要因を含めることが望ましい。すなわち、画像回復フィルタを、光が撮像光学系101に入射してから撮像素子102による撮像によって入力画像が取得されるまでの光学伝達関数の逆関数に基づいて生成された関数を逆フーリエ変換することにより作成するようにするとよい。 The optical transfer function here includes not only the imaging optical system 101 but also factors that degrade the optical transfer function until the input image is generated by the image processing unit 104 from the output signal of the imaging element 102. Is desirable. That is, the image restoration filter performs an inverse Fourier transform on a function generated based on an inverse function of an optical transfer function from when light enters the imaging optical system 101 until an input image is acquired by imaging by the imaging element 102. It is good to make it by.
撮像光学系101以外で光学伝達関数を劣化させる要因としては以下のようなものがある。例えば、撮像素子102の前面に配置されるローパスフィルタ(図示せず)は、光学伝達関数の周波数特性に対して高周波成分を抑制する。また、同様に撮像素子102の前面に配置される赤外線カットフィルタは、分光波長の点像分布関数(PSF)の積分値であるRGBチャンネルの各PSF、特にRチャンネルのPSFに影響する。さらに、撮像素子102の画素開口の形状や開口率も周波数特性に影響する。他にも、被写体を照らす光源の分光特性や、各種波長フィルタの分光特性も光学伝達関数を劣化させる要因として挙げられる。したがって、これらを考慮した広義の光学伝達関数に基づいて画像回復フィルタを作成することが望ましい。 Factors that degrade the optical transfer function other than the imaging optical system 101 include the following. For example, a low-pass filter (not shown) disposed in front of the image sensor 102 suppresses high frequency components with respect to the frequency characteristics of the optical transfer function. Similarly, the infrared cut filter disposed in front of the image sensor 102 affects each PSF of the RGB channel, particularly the PSF of the R channel, which is an integral value of the point spread function (PSF) of the spectral wavelength. Furthermore, the shape and aperture ratio of the pixel aperture of the image sensor 102 also affect the frequency characteristics. In addition, spectral characteristics of a light source that illuminates a subject and spectral characteristics of various wavelength filters can be cited as factors that degrade the optical transfer function. Therefore, it is desirable to create an image restoration filter based on an optical transfer function in a broad sense considering these.
なお、撮像光学系101は、撮像装置の一部として設けられてもよいし、撮像装置に対して着脱可能な交換式のものであってもよい。 The imaging optical system 101 may be provided as a part of the imaging device, or may be an exchangeable type that can be attached to and detached from the imaging device.
また、入力画像がRGB形式のカラー画像である場合は、R,G,Bの各色成分に対応した3つの画像回復フィルタを作成するとよい。撮像光学系101には色収差があり、色成分ごとにぼけ方が異なるため、色成分ごとに最適な画像回復フィルタを得るためには、その特性を色収差に基づいて異ならせるべきだからである。つまり、図5に示したセル値の2次元分布が、色成分ごとに異なる3つの画像回復フィルタを作成するとよい。 If the input image is an RGB color image, three image restoration filters corresponding to the R, G, and B color components may be created. This is because the imaging optical system 101 has chromatic aberration, and the blur is different for each color component. Therefore, in order to obtain an optimum image restoration filter for each color component, the characteristics should be made different based on the chromatic aberration. That is, it is preferable to create three image restoration filters in which the two-dimensional distribution of cell values shown in FIG. 5 is different for each color component.
なお、画像回復フィルタの縦横のセル数(セル配列)に関しては、図4に示すような正方配列である必要はなく、コンボリューション処理時にセル配列を考慮するようにすれば、任意に変更することができる。 It should be noted that the number of vertical and horizontal cells (cell arrangement) of the image restoration filter need not be a square arrangement as shown in FIG. 4, but can be arbitrarily changed if the cell arrangement is taken into consideration during the convolution process. Can do.
また、図5の例では、画像回復フィルタにおいてセル値(フィルタ値)の絶対値が最大であるセル(以下、最大値セルという)の位置を、画像回復フィルタの中心セルの位置からずらしている。図4において、黒く塗りつぶしたセルが最大値セルであり、×を付したセルが中心セルである。 In the example of FIG. 5, the position of the cell having the largest absolute value of the cell value (filter value) in the image restoration filter (hereinafter referred to as the maximum value cell) is shifted from the position of the center cell of the image restoration filter. . In FIG. 4, the black-filled cell is the maximum value cell, and the cell marked with “x” is the center cell.
このような画像回復フィルタを用いて入力画像に対してコンボリューション処理を行うと、フィルタ内のセル値の分布によってぼけ成分が低減(補正)される。しかも、最大値セルが中心セルに対してずれていることにより、ぼけ成分を補正した後の画像が、中心セルに対する最大値セルのずれ量に応じてシフトする。この中心セルに対する最大値セルのずれ量を、撮像光学系101の歪曲収差量に基づいて設定することで、入力画像に含まれる歪曲成分も低減(補正)することができる。すなわち、本実施例で用いる画像回復フィルタは、入力画像に含まれるぼけ成分とともに歪曲成分を低減できるフィルタである。 When convolution processing is performed on an input image using such an image restoration filter, the blur component is reduced (corrected) by the distribution of cell values in the filter. In addition, since the maximum value cell is shifted from the center cell, the image after correcting the blur component is shifted according to the shift amount of the maximum value cell with respect to the center cell. By setting the shift amount of the maximum value cell with respect to the center cell based on the distortion aberration amount of the imaging optical system 101, the distortion component included in the input image can also be reduced (corrected). In other words, the image restoration filter used in the present embodiment is a filter that can reduce the distortion component as well as the blur component included in the input image.
したがって、この画像回復フィルタを用いて後述する画像回復処理を行うことで、入力画像に含まれるぼけ成分と歪曲成分の補正を同時に行うことができる。 Therefore, by performing image restoration processing described later using this image restoration filter, it is possible to simultaneously correct the blur component and the distortion component included in the input image.
画像回復フィルタの具体的な選択及び作成(補正)方法について説明する。図3において、大きな白丸で示した撮像状態が、ステップS2で取得した実際の撮像状態であるとする。実際の撮像状態又はそのきわめて近くに、記憶部108に記憶(格納)された画像回復フィルタ(以下、格納フィルタという)が存在する場合には、その格納フィルタを選択して画像回復処理に用いる。実際の撮像状態又はそのきわめて近くに、格納フィルタが存在しない場合には、以下の方法により画像回復フィルタを選択又は作成(補正)する。 A specific selection and creation (correction) method of the image restoration filter will be described. In FIG. 3, it is assumed that the imaging state indicated by a large white circle is the actual imaging state acquired in step S2. When there is an image restoration filter (hereinafter referred to as a storage filter) stored (stored) in the storage unit 108 in or near the actual imaging state, the storage filter is selected and used for image restoration processing. When the storage filter does not exist in or near the actual imaging state, the image restoration filter is selected or created (corrected) by the following method.
まず、前述したステップS3において、画像処理部104は、実際の撮像状態と複数の格納フィルタに対応する撮像状態との間の撮像状態空間内での距離をそれぞれ算出する。そして、算出した距離のうち最も短い距離にある撮像状態に対応する格納フィルタを選択する。 First, in step S3 described above, the image processing unit 104 calculates the distance in the imaging state space between the actual imaging state and the imaging states corresponding to the plurality of storage filters. Then, the storage filter corresponding to the imaging state at the shortest distance among the calculated distances is selected.
このような格納フィルタを選択することで、実際の撮像状態と該格納フィルタに対応する撮像状態との相違量(以下、状態相違量という)が最も小さくなる。このため、該格納フィルタに対する補正量を少なくすることができ、実際の撮像状態に対応する画像回復フィルタにより近い画像回復フィルタを作成することができる。 By selecting such a storage filter, the difference amount between the actual imaging state and the imaging state corresponding to the storage filter (hereinafter referred to as state difference amount) is minimized. Therefore, the correction amount for the storage filter can be reduced, and an image restoration filter closer to the image restoration filter corresponding to the actual imaging state can be created.
図3において、小さな白丸で示した撮像状態に対応する格納フィルタが選択されたものとする。なお、図3には、撮像状態空間を概念的に示しているが、実際の各格納フィルタのデータには、座標値の情報が必要である。このため、格納フィルタ自体に座標値情報を持たせたり、予めアドレス(座標)が決まった多次元の配列空間に各格納フィルタのデータを配置したりすればよい。 In FIG. 3, it is assumed that the storage filter corresponding to the imaging state indicated by a small white circle is selected. In addition, although the imaging state space is conceptually illustrated in FIG. 3, coordinate value information is necessary for the actual data of each storage filter. For this reason, the storage filter itself may be provided with coordinate value information, or the data of each storage filter may be arranged in a multidimensional array space in which addresses (coordinates) are determined in advance.
次に、ステップS4では、画像処理部104は、ステップS3で選択した格納フィルタに対応する撮像状態と実際の撮像状態との状態相違量ΔA,ΔB,ΔCを算出する。そして、ステップS5では、これらの状態相違量ΔA,ΔB,ΔCに基づいて、状態補正係数を算出する。さらに、画像処理部104は、ステップS6において、該状態補正係数を用いて、ステップS3で選択した格納フィルタを補正する。これにより、実際の撮像状態に対応した画像回復フィルタを作成することができる。 Next, in step S4, the image processing unit 104 calculates state difference amounts ΔA, ΔB, and ΔC between the imaging state corresponding to the storage filter selected in step S3 and the actual imaging state. In step S5, a state correction coefficient is calculated based on these state difference amounts ΔA, ΔB, and ΔC. In step S6, the image processing unit 104 corrects the storage filter selected in step S3 using the state correction coefficient. Thereby, an image restoration filter corresponding to an actual imaging state can be created.
本実施例における画像回復フィルタは、前述したように、ぼけ成分を低減するぼけ補正機能と歪曲成分を低減するための画像シフト機能を有する。このため、各格納フィルタでも、予め最大値セルの位置を中心セルに対してシフトさせている。 As described above, the image restoration filter in this embodiment has a blur correction function for reducing a blur component and an image shift function for reducing a distortion component. For this reason, the position of the maximum value cell is previously shifted with respect to the center cell in each storage filter.
ただし、格納フィルタとして、ぼけ成分を補正するためのセル値の分布データのみを持つものを用意し、歪曲成分を補正するための最大値セルのシフト量(ずれ量)のデータを撮像状態に応じて別途用意してもよい。この場合、撮像状態空間上に用意する格納フィルタでは、最大値セルがシフト量を持たない(最大値セルが中心セルに一致する)ため、図6のように、フィルタのサイズ(セル数)を小さくすることができる。 However, a storage filter having only cell value distribution data for correcting the blur component is prepared, and the maximum cell shift amount (deviation amount) data for correcting the distortion component according to the imaging state. May be prepared separately. In this case, in the storage filter prepared in the imaging state space, the maximum value cell does not have a shift amount (the maximum value cell matches the center cell). Therefore, as shown in FIG. Can be small.
また、この場合の最大値セルのシフト量のデータは、記憶部108に予め格納しておけばよい。最大値セルのシフト量のデータを、像高に応じた関数として記憶部108に格納しておけば、記憶部108に必要な容量も少なくすることができる。 In this case, the maximum value cell shift amount data may be stored in the storage unit 108 in advance. If the data of the shift amount of the maximum value cell is stored in the storage unit 108 as a function corresponding to the image height, the capacity required for the storage unit 108 can be reduced.
そして、実際に画像回復処理を行う前段階で、図6の格納フィルタと最大値セルのシフト量データとを用いて、図5に示すような画像回復フィルタを作成すればよい。 Then, before the actual image restoration process is performed, an image restoration filter as shown in FIG. 5 may be created using the storage filter of FIG. 6 and the shift amount data of the maximum value cell.
次に、ステップS7では、画像処理部104は、選択又は作成された画像回復フィルタを用いて、ステップS1で取得した入力画像に対して画像回復処理を行う。すなわち、上記画像回復フィルタを用いて入力画像に対するコンボリューション処理を行うことで、撮像光学系101の収差に起因する画像のぼけ成分と歪曲成分を低減(又は除去)することができる。 Next, in step S7, the image processing unit 104 performs image restoration processing on the input image acquired in step S1 using the selected or created image restoration filter. That is, by performing convolution processing on the input image using the image restoration filter, it is possible to reduce (or remove) the blur component and the distortion component of the image caused by the aberration of the imaging optical system 101.
このとき、前述したように、最大値セルのシフト量を倍率色収差に応じて異ならせたR,G,Bの色成分ごとの画像回復フィルタを用いた画像回復処理を行うことで、入力画像の倍率色収差成分(色ずれ成分)も低減(補正)することができる。また、画像回復フィルタの最大値セルに相対的なフィルタ内のセル値分布を色収差(色フレア)に応じて異ならせたR,G,Bの色成分ごとの画像回復フィルタを用いた画像回復処理を行うことで、入力画像の色にじみ成分も低減(補正)することができる。 At this time, as described above, by performing the image restoration process using the image restoration filter for each of the R, G, and B color components in which the shift amount of the maximum value cell is changed according to the chromatic aberration of magnification, The lateral chromatic aberration component (color shift component) can also be reduced (corrected). Also, image restoration processing using an image restoration filter for each of R, G, and B color components in which the cell value distribution in the filter relative to the maximum value cell of the image restoration filter is varied according to chromatic aberration (color flare). By performing the above, it is possible to reduce (correct) the color blur component of the input image.
なお、ステップS2〜ステップS6での画像回復フィルタの選択及び補正処理は、撮像装置と別の装置(パーソナルコンピュータ等)で行ってもよい。この場合、該別の装置で得られた画像回復フィルタを、撮像装置の記憶部108に格納(インストール)する処理を行えばよい。 Note that the selection and correction processing of the image restoration filter in step S2 to step S6 may be performed by a device (such as a personal computer) different from the imaging device. In this case, a process of storing (installing) the image restoration filter obtained by the other apparatus in the storage unit 108 of the imaging apparatus may be performed.
本実施例の画像回復フィルタを用いた画像回復処理の効果を、図7を用いて説明する。ここでは、R,G,Bのうち1つの色成分についての効果を示すが、入力画像に色にじみ成分がある場合には、前述したように色成分ごとの画像回復フィルタを用いた画像回復処理を行えばよい。 The effect of the image restoration process using the image restoration filter of this embodiment will be described with reference to FIG. Here, the effect of one color component among R, G, and B is shown. However, when there is a color blur component in the input image, the image restoration process using the image restoration filter for each color component as described above. Can be done.
図7の(a)は、撮像光学系101の収差の影響がなければ矩形のプロファイルを持つはずの被写体像が、撮像光学系101の収差によってぼけ像として劣化し、さらに撮像光学系101の歪曲収差により本来の位置Pからずれている入力画像を示している。 FIG. 7A shows a subject image that should have a rectangular profile if there is no influence of the aberration of the imaging optical system 101, and is deteriorated as a blurred image by the aberration of the imaging optical system 101, and further the distortion of the imaging optical system 101. An input image deviated from the original position P due to aberration is shown.
(b)は、画像シフト機能を持たない従来の画像回復フィルタを用いて、(a)に示す入力画像に対する画像回復処理を行った場合の回復画像を示している。この回復画像において、被写体像は本来の矩形プロファイルを持つように補正されたが、歪曲成分が補正されていないために、本来の位置Pからずれたままである。 (B) shows a restored image when an image restoration process is performed on the input image shown in (a) using a conventional image restoration filter having no image shift function. In this recovered image, the subject image is corrected so as to have an original rectangular profile, but remains unchanged from the original position P because the distortion component is not corrected.
(c)は、(b)に示す回復画像に対して、さらに歪曲補正としての画像シフト処理を行うことにより、歪曲成分が補正されて被写体像が本来の位置Pに位置するように補正された画像を示している。 In (c), the recovered image shown in (b) is further subjected to image shift processing as distortion correction to correct the distortion component so that the subject image is positioned at the original position P. An image is shown.
一方、ぼけ補正機能と画像シフト機能を併せ持つ本実施例の画像回復フィルタを用いて、(a)に示す入力画像に対して画像回復処理を行うと、(b1)に示すように、被写体像が本来の矩形プロファイルを持つように補正される。さらに、これと同時に、被写体像の位置が本来の位置Pにシフトされる。 On the other hand, when an image restoration process is performed on the input image shown in (a) using the image restoration filter of this embodiment having both the blur correction function and the image shift function, the subject image is displayed as shown in (b1). It is corrected to have an original rectangular profile. At the same time, the position of the subject image is shifted to the original position P.
このように、本実施例によれば、従来では互いに別の処理として行う必要があったぼけ成分の補正処理(画像回復処理)と歪曲成分の補正処理(画像シフト処理)を、1つ(一度)の画像回復処理の中で行うことができる。 As described above, according to the present embodiment, one blur processing correction process (image restoration process) and one distortion component correction process (image shift process), which conventionally had to be performed as separate processes, are performed once. ) Image restoration processing.
図1において、画像処理部104で画像回復処理が行われた出力画像は、半導体メモリや光ディスク等の画像記録媒体109に所定のフォーマットで保存される。この出力画像は、画像回復処理によって鮮鋭化され、かつ歪曲成分が低減された高画質の画像である。 In FIG. 1, an output image that has undergone image restoration processing by the image processing unit 104 is stored in a predetermined format in an image recording medium 109 such as a semiconductor memory or an optical disk. This output image is a high-quality image that has been sharpened by image restoration processing and has reduced distortion components.
また、出力画像は、表示部105に表示されたり、撮像装置の外部(プリンタやデータベース)に出力されたりする。 The output image is displayed on the display unit 105 or output to the outside of the imaging apparatus (printer or database).
上述した撮像素子102での光電変換、画像処理部104での画像処理、画像記録媒体109への記録、及び表示部105への画像表示といった一連の動作の制御は、システムコントローラ110によって行われる。また、撮像光学系101のズーム駆動やフォーカス駆動は、システムコントローラ110の指示により撮像光学系制御部106が制御する。 The system controller 110 controls a series of operations such as photoelectric conversion in the image sensor 102, image processing in the image processing unit 104, recording on the image recording medium 109, and image display on the display unit 105. The imaging optical system control unit 106 controls zoom driving and focus driving of the imaging optical system 101 according to instructions from the system controller 110.
なお、撮像光学系101の中心像高の横倍率が最大像高の横倍率よりも1.25倍以上大きくなるように撮像光学系101を設計するとよい。これにより、撮像光学系101のうち最も被写体側に位置する前玉レンズの径を小さくしたり、像面湾曲の補正を行ったりすることができる。 Note that the imaging optical system 101 may be designed so that the lateral magnification of the center image height of the imaging optical system 101 is 1.25 times or more larger than the lateral magnification of the maximum image height. Thereby, the diameter of the front lens located closest to the subject in the imaging optical system 101 can be reduced, or the field curvature can be corrected.
また、前述した最大値セルの中心セルに対するシフト量は、撮像光学系101の歪曲収差量に応じて決まるので、画像回復フィルタのサイズ(セル数)も歪曲収差量に応じて変更してもよい。 Further, since the shift amount of the maximum value cell with respect to the center cell is determined according to the distortion aberration amount of the imaging optical system 101, the size (number of cells) of the image restoration filter may be changed according to the distortion aberration amount. .
図8には、歪曲成分によって樽型に歪んだ入力画像を実線で模式的に示している。また、この入力画像における歪曲量と対角端部の画像シフト量(移動画素数)を表1に示す。歪曲成分を補正すると、画像の周辺部では被写体像をシフトするとともに拡大する必要があるため、不足した画素は補間処理を行う。 In FIG. 8, an input image distorted into a barrel shape by a distortion component is schematically shown by a solid line. Table 1 shows the distortion amount and the image shift amount (the number of moving pixels) at the diagonal end in the input image. When the distortion component is corrected, it is necessary to shift and enlarge the subject image in the peripheral portion of the image, so that the insufficient pixels are subjected to interpolation processing.
また、前述した光学伝達関数(OTF)は、同じ撮像状態であっても画角(像高)に応じて変化するので、上述した画像回復処理は、画像における像高に応じて分割された領域ごとに画像回復フィルタを変更して行うことが望ましい。画像回復フィルタを画像上で走査しながらコンボリューション処理を行い、分割領域ごとに画像回復フィルタを順次変更すればよい。 Further, since the above-described optical transfer function (OTF) changes according to the angle of view (image height) even in the same imaging state, the above-described image restoration processing is a region divided according to the image height in the image. It is desirable to change the image restoration filter every time. Convolution processing may be performed while scanning the image restoration filter on the image, and the image restoration filter may be sequentially changed for each divided region.
また、画像回復処理の対象とする入力画像における画素の信号値に応じて画像回復フィルタを補正することで、入力画像の暗い領域で顕著となるノイズの増加を抑制することができる。入力画像の暗い領域では、明るい領域に比べて、画像信号に対してノイズ成分が相対的に大きいため、画像回復処理によってノイズを強調してしまうおそれがある。このため、暗い領域に対しては、画像回復フィルタの各セルの値を補正して画像回復効果を低下させることで、ノイズの増大を抑制することができる。信号値がある閾値以下の画素又は領域については画像回復処理を行わないようにしてもよい。 Further, by correcting the image restoration filter in accordance with the pixel signal value in the input image to be subjected to the image restoration processing, it is possible to suppress an increase in noise that becomes noticeable in a dark region of the input image. In the dark area of the input image, the noise component is relatively large with respect to the image signal as compared with the bright area, and thus there is a possibility that the noise may be enhanced by the image restoration process. For this reason, an increase in noise can be suppressed for dark regions by correcting the value of each cell of the image restoration filter to reduce the image restoration effect. The image restoration process may not be performed for pixels or regions whose signal values are below a certain threshold.
また、画像回復処理後の回復画像に補正誤差がある場合には、この補正誤差を補正するための別の画像処理を行ってもよい。これにより、実際の撮像状態と画像回復処理に用いた画像回復フィルタに対応する撮像状態との誤差に起因する回復画像における残留収差成分をさらに低減することができる。 If there is a correction error in the recovered image after the image recovery process, another image process for correcting the correction error may be performed. Thereby, it is possible to further reduce the residual aberration component in the recovered image caused by the error between the actual imaging state and the imaging state corresponding to the image restoration filter used for the image restoration process.
また、入力画像内に飽和輝度領域が存在する場合に、その周辺部では収差成分が顕著に現れる。しかし、画像回復処理を行う際に、輝度値が飽和している画素については本来の輝度値が分からず、良好な補正が行えないおそれがある。この場合には、画像回復処理後の回復画像から残留している収差成分を検出して適応的に補正処理を行うことで、さらなる高画質化が達成できる。この適応的な補正処理は、本実施例での画像回復処理によってぼけ成分及び歪曲成分が低減された回復画像に最終的に残留した収差を補正するので、画像回復処理よりも後の段階で行うことが望ましい。 In addition, when a saturated luminance region exists in the input image, an aberration component appears remarkably in the peripheral portion. However, when the image restoration process is performed, the original luminance value is not known for a pixel whose luminance value is saturated, and there is a possibility that good correction cannot be performed. In this case, further improvement in image quality can be achieved by detecting the remaining aberration component from the recovered image after the image recovery process and adaptively performing the correction process. This adaptive correction processing corrects the aberration finally remaining in the recovered image in which the blur component and the distortion component are reduced by the image recovery processing in the present embodiment, and thus is performed at a later stage than the image recovery processing. It is desirable.
本実施例では、本発明の画像処理方法を使用する(画像処理装置を搭載した)撮像装置について説明したが、本発明の画像処理方法は、パーソナルコンピュータにインストールされる画像処理プログラムによっても実施することができる。この場合、パーソナルコンピュータが本発明の画像処理装置に相当する。パーソナルコンピュータは、撮像装置により生成された画像回復処理前の画像(入力画像)を取り込み(取得し)、画像処理プログラムによって画像回復処理を行って、その結果得られた画像を出力する。 In the present embodiment, the imaging apparatus using the image processing method of the present invention (mounted with the image processing apparatus) has been described. However, the image processing method of the present invention is also implemented by an image processing program installed in a personal computer. be able to. In this case, the personal computer corresponds to the image processing apparatus of the present invention. The personal computer captures (acquires) an image (input image) before image recovery processing generated by the imaging device, performs image recovery processing by an image processing program, and outputs the resulting image.
次に、本発明の実施例2について説明する。本実施例の画像処理方法も、図1に示した撮像装置と同様の撮像装置にて実施される。このため、本実施例において、実施例1と共通する又は同様の機能を有する構成要素には、実施例1と同符号を付す。なお、本実施例の処理を、パーソナルコンピュータ(画像処理装置)で行ってもよい。 Next, a second embodiment of the present invention will be described. The image processing method of the present embodiment is also implemented by an imaging apparatus similar to the imaging apparatus shown in FIG. For this reason, in the present embodiment, the same reference numerals as those in the first embodiment are assigned to components having the same or similar functions as those in the first embodiment. Note that the processing of this embodiment may be performed by a personal computer (image processing apparatus).
本実施例では、実施例1でも触れたように、画像回復処理により画像のぼけ成分と歪曲成分に加えて、色ずれ成分をも補正する場合について説明する。画像の色ずれ成分は、撮像光学系101の倍率色収差、すなわち色成分ごとに結像倍率が異なることに起因して発生する。前述した色にじみ成分は、色成分ごとのぼけ方の違いであり、広義のぼけ成分に含めることができるので、本実施例が補正対象とする色ずれ成分とは切り離して考える。 In the present embodiment, as described in the first embodiment, a case where a color shift component is corrected in addition to a blur component and a distortion component of an image by an image restoration process will be described. The color misregistration component of the image is generated due to the chromatic aberration of magnification of the imaging optical system 101, that is, the imaging magnification is different for each color component. The color blur component described above is a difference in the blur method for each color component and can be included in the blur component in a broad sense. Therefore, the color blur component is considered separately from the color shift component to be corrected in the present embodiment.
色成分ごとの画像回復フィルタの例を図9に示す。図9中において(R),(G),(B)で示す画像回復フィルタは、それぞれR,G,B用の画像回復フィルタである。これらの画像回復フィルタは、実施例1で説明したように、ぼけ成分と歪曲成分を同時に補正するフィルタであるが、倍率色収差に対応する色ずれ成分の補正機能は有していない。 An example of the image restoration filter for each color component is shown in FIG. In FIG. 9, image recovery filters indicated by (R), (G), and (B) are image recovery filters for R, G, and B, respectively. As described in the first embodiment, these image restoration filters are filters that simultaneously correct the blur component and the distortion component, but do not have a function of correcting a color shift component corresponding to the chromatic aberration of magnification.
また、(R1),(G1),(B1)で示す画像回復フィルタも、それぞれR,G,B用の画像回復フィルタである。ただし、これらの画像回復フィルタは、ぼけ成分と歪曲成分の同時補正機能に加えて、色ずれ成分の補正を行う機能も有する。 The image restoration filters indicated by (R1), (G1), and (B1) are also image restoration filters for R, G, and B, respectively. However, these image restoration filters have a function of correcting the color misregistration component in addition to the simultaneous correction function of the blur component and the distortion component.
各画像回復フィルタ内で黒いセルが最大値セルであり、×を付したセルが中心セルである。 In each image restoration filter, the black cell is the maximum value cell, and the cell with x is the center cell.
(R),(G),(B)で示す画像回復フィルタは、色成分ごとに光学伝達関数(OTF)が異なることからフィルタ特性は異なるが、最大値セルの位置(中心セルに対するシフト量)は互いに同じである。 The image restoration filters indicated by (R), (G), and (B) have different filter characteristics because the optical transfer function (OTF) differs for each color component, but the position of the maximum value cell (shift amount with respect to the center cell). Are the same as each other.
一方、(R1),(G1),(B1)で示す画像回復フィルタは、フィルタ特性が異なっているのに加えて、最大値セルの位置(中心セルに対するシフト量)が互いに異なっている。これら最大値セルの位置の相対ずれ量は、倍率色収差量に応じた量である。さらに言えば、それぞれの色成分用の画像回復フィルタ(R1),(G1),(B1)における最大値セルの位置の中心セルの位置に対するシフト量は、撮像光学系101における像高に依存した歪曲収差量と倍率色収差量とに応じた値に設定される。 On the other hand, the image restoration filters indicated by (R1), (G1), and (B1) have different filter characteristics and also have different maximum value cell positions (shift amounts with respect to the center cell). The relative displacement amount of the position of these maximum value cells is an amount corresponding to the amount of lateral chromatic aberration. Furthermore, the shift amount of the maximum value cell position with respect to the position of the central cell in the image restoration filters (R1), (G1), and (B1) for the respective color components depends on the image height in the imaging optical system 101. It is set to a value corresponding to the distortion aberration amount and the magnification chromatic aberration amount.
なお、図9では、21×21セルの画像回復フィルタを示したが、収差量が大きい場合には、50×50セルや100×100セルのように、収差量に応じてセル数を増加させてもよい。 Although FIG. 9 shows a 21 × 21 cell image restoration filter, when the amount of aberration is large, the number of cells is increased according to the amount of aberration, such as 50 × 50 cells or 100 × 100 cells. May be.
(R1),(G1),(B1)で示す画像回復フィルタにおいて、フィルタ内のセル値の分布を色ごとに異ならせることで色ごとのぼけ成分(色にじみ成分)を補正できる。さらに、この分布の位置をずらす(最大値セルの位置を中心セルの位置からシフトさせ、かつそのシフト量を異ならせる)ことで歪曲成分と色ずれ成分を補正することができる。 In the image restoration filters indicated by (R1), (G1), and (B1), the blur component (color blur component) for each color can be corrected by changing the distribution of cell values in the filter for each color. Further, the distortion component and the color misregistration component can be corrected by shifting the position of this distribution (shifting the position of the maximum value cell from the position of the center cell and making the shift amount different).
次に、(R1),(G1),(B1)で示す画像回復フィルタの効果を、図10を用いて説明する。図10において、(a)は撮像光学系101の収差の影響がなければ矩形のプロファイルを持つはずの被写体像が、撮像光学系101の収差によってぼけ像として劣化し、さらに撮像光学系101の歪曲収差により本来の位置Pからずれている入力画像を示している。 Next, the effect of the image restoration filter indicated by (R1), (G1), and (B1) will be described with reference to FIG. 10A shows a subject image that should have a rectangular profile if there is no influence of the aberration of the imaging optical system 101, and is deteriorated as a blurred image due to the aberration of the imaging optical system 101, and further the distortion of the imaging optical system 101. An input image deviated from the original position P due to aberration is shown.
実線、破線及び一点鎖線はそれぞれ、G成分、R成分及びB成分を表しており、(a)では、倍率色収差によってRGB間で色ずれが発生している。 A solid line, a broken line, and an alternate long and short dash line represent a G component, an R component, and a B component, respectively. In (a), a color shift occurs between RGB due to lateral chromatic aberration.
(b)は、画像シフト機能を持たない従来の画像回復フィルタを用いて、(a)に示す入力画像に対する画像回復処理を行った場合の回復画像を示している。この回復画像において、R,G,Bの被写体像は本来の矩形プロファイルを持つように補正されたが、歪曲成分と色ずれ成分が補正されていないために、本来の位置Pからずれたままである。 (B) shows a restored image when an image restoration process is performed on the input image shown in (a) using a conventional image restoration filter having no image shift function. In this recovered image, the R, G, and B subject images are corrected to have the original rectangular profile, but the distortion component and the color shift component are not corrected, and thus remain shifted from the original position P. .
(c)は、(b)に示す回復画像に対して、さらに歪曲補正としての画像シフト処理を色成分ごとに異なるシフト量で行うことにより、歪曲成分と色ずれ成分が補正されてR,G,Bの被写体像が本来の位置Pに位置するように補正された画像を示している。 In (c), by performing image shift processing as distortion correction on the recovered image shown in (b) with different shift amounts for each color component, the distortion component and the color shift component are corrected, and R, G , B shows an image corrected so that the subject image is positioned at the original position P.
一方、ぼけ補正機能と色成分ごとの画像シフト機能とを併せ持つ本実施例の画像回復フィルタを用いて、(a)に示す入力画像に対して画像回復処理を行うと、(b1)に示すように、R,G,Bの被写体像は本来の矩形プロファイルを持つように補正される。また、これと同時に、R,G,Bの被写体像の位置も本来の位置Pにシフトされる。 On the other hand, when image restoration processing is performed on the input image shown in (a) using the image restoration filter of this embodiment having both the blur correction function and the image shift function for each color component, as shown in (b1). In addition, the R, G, and B subject images are corrected to have an original rectangular profile. At the same time, the positions of the R, G, and B subject images are also shifted to the original position P.
このように、本実施例によれば、従来では互いに別の処理として行う必要があったぼけ成分の補正処理(画像回復処理)と、歪曲成分の補正処理(画像シフト処理)と、色ずれ成分の補正処理とを、1つ(一度)の画像回復処理の中で行うことができる。 As described above, according to the present embodiment, the blur component correction processing (image restoration processing), the distortion component correction processing (image shift processing), and the color misregistration component, which conventionally had to be performed as separate processes. This correction processing can be performed in one (once) image restoration processing.
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment when the present invention is implemented.
101 撮像光学系
101a 絞り
101b フォーカスレンズ
102 撮像素子
104 画像処理部
105 表示部
106 撮像光学系制御部
107 状態検知部
108 記憶部
110 システムコントローラ
DESCRIPTION OF SYMBOLS 101 Imaging optical system 101a Aperture 101b Focus lens 102 Imaging element 104 Image processing part 105 Display part 106 Imaging optical system control part 107 State detection part 108 Storage part 110 System controller
Claims (7)
前記画像を取得するステップと、
前記光学系の収差情報に基づいて、フィルタ値が2次元分布を持つように作成された画像回復フィルタを用いて前記画像に対する画像回復処理を行う画像回復ステップとを有し、
前記画像回復フィルタは、前記フィルタ値の絶対値が最大であるセルの位置が該画像回復フィルタの中心セルの位置に対して前記光学系の歪曲収差量に応じたずれ量を有しており、前記画像のぼけ成分とともに歪曲成分を低減するフィルタであることを特徴とする画像処理方法。 An image processing method for processing an image obtained by imaging using an optical system,
Obtaining the image;
An image restoration step for performing an image restoration process on the image using an image restoration filter created so that a filter value has a two-dimensional distribution based on aberration information of the optical system,
In the image restoration filter, the position of the cell having the maximum absolute value of the filter value has a shift amount corresponding to the distortion amount of the optical system with respect to the position of the center cell of the image restoration filter, An image processing method comprising: a filter that reduces a distortion component together with a blur component of the image.
前記各画像回復フィルタにおける前記フィルタ値の絶対値が最大であるセルの位置の前記中心セルの位置に対するずれ量が、像高に依存する前記歪曲収差量と倍率色収差量とに応じたずれ量であることを特徴とする請求項1から4のいずれか1つに記載の画像処理方法。 The image restoration filter has a plurality of image restoration filters having a two-dimensional distribution of different filter values for each color,
The shift amount of the cell position where the absolute value of the filter value in each image restoration filter is the maximum with respect to the position of the center cell is a shift amount corresponding to the distortion aberration amount and the magnification chromatic aberration amount depending on the image height. The image processing method according to claim 1, wherein the image processing method is provided.
前記光学系の収差情報に基づいて、フィルタ値が2次元分布を持つように作成された画像回復フィルタを記憶する記憶手段と、
前記画像回復フィルタを用いて前記画像に対する画像回復処理を行う画像回復手段とを有し、
前記画像回復フィルタは、前記フィルタ値の絶対値が最大であるセルの位置が該画像回復フィルタの中心セルに対して前記光学系の歪曲収差量に応じたずれ量を有しており、前記画像のぼけ成分とともに歪曲成分を低減するフィルタであることを特徴とする画像処理装置。 An image processing apparatus that processes an image obtained by imaging using an optical system,
Storage means for storing an image restoration filter created so that the filter value has a two-dimensional distribution based on the aberration information of the optical system;
Image recovery means for performing image recovery processing on the image using the image recovery filter,
In the image restoration filter, the position of the cell having the maximum absolute value of the filter value has a deviation amount corresponding to the distortion amount of the optical system with respect to the central cell of the image restoration filter, and the image An image processing apparatus that is a filter that reduces a distortion component as well as a blur component.
該画像を処理する請求項6に記載の画像処理装置とを有することを特徴とする撮像装置。
An imaging system for photoelectrically converting a subject image formed by an optical system to obtain an image;
An imaging apparatus comprising: the image processing apparatus according to claim 6 that processes the image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008252323A JP5268533B2 (en) | 2008-09-30 | 2008-09-30 | Image processing method, image processing apparatus, imaging apparatus, and image processing program |
US12/568,603 US8477206B2 (en) | 2008-09-30 | 2009-09-28 | Image processing apparatus and image processing method for performing image restoration using restoration filter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008252323A JP5268533B2 (en) | 2008-09-30 | 2008-09-30 | Image processing method, image processing apparatus, imaging apparatus, and image processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010086139A true JP2010086139A (en) | 2010-04-15 |
JP2010086139A5 JP2010086139A5 (en) | 2011-11-10 |
JP5268533B2 JP5268533B2 (en) | 2013-08-21 |
Family
ID=42250062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008252323A Active JP5268533B2 (en) | 2008-09-30 | 2008-09-30 | Image processing method, image processing apparatus, imaging apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5268533B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010087672A (en) * | 2008-09-30 | 2010-04-15 | Canon Inc | Image processing method, image processing apparatus, and imaging device |
JP2012129932A (en) * | 2010-12-17 | 2012-07-05 | Canon Inc | Image processing method, image processing program, image processing device, and imaging device |
JP2012216947A (en) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | Image pickup device and image processing method |
JP2012234484A (en) * | 2011-05-09 | 2012-11-29 | Canon Inc | Image processing method, image processor, imaging apparatus and image processing program |
JP2019121931A (en) * | 2018-01-05 | 2019-07-22 | キヤノン株式会社 | Image processing method, imaging apparatus using the same, image processing apparatus, image processing program, storage medium, and lens device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000156785A (en) * | 1998-09-16 | 2000-06-06 | Fuji Photo Film Co Ltd | Image processing method and image processor |
JP2000186979A (en) * | 1998-10-30 | 2000-07-04 | Hewlett Packard Co <Hp> | Image scanning method with image scanner |
JP2001136540A (en) * | 1999-11-05 | 2001-05-18 | Olympus Optical Co Ltd | Image processor |
JP2004241991A (en) * | 2003-02-05 | 2004-08-26 | Minolta Co Ltd | Imaging apparatus, image processor, and image processing program |
JP2005202276A (en) * | 2004-01-19 | 2005-07-28 | Konica Minolta Opto Inc | Imaging apparatus |
JP2006279359A (en) * | 2005-03-29 | 2006-10-12 | Casio Comput Co Ltd | Electronic camera and imaging control program |
-
2008
- 2008-09-30 JP JP2008252323A patent/JP5268533B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000156785A (en) * | 1998-09-16 | 2000-06-06 | Fuji Photo Film Co Ltd | Image processing method and image processor |
JP2000186979A (en) * | 1998-10-30 | 2000-07-04 | Hewlett Packard Co <Hp> | Image scanning method with image scanner |
JP2001136540A (en) * | 1999-11-05 | 2001-05-18 | Olympus Optical Co Ltd | Image processor |
JP2004241991A (en) * | 2003-02-05 | 2004-08-26 | Minolta Co Ltd | Imaging apparatus, image processor, and image processing program |
JP2005202276A (en) * | 2004-01-19 | 2005-07-28 | Konica Minolta Opto Inc | Imaging apparatus |
JP2006279359A (en) * | 2005-03-29 | 2006-10-12 | Casio Comput Co Ltd | Electronic camera and imaging control program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010087672A (en) * | 2008-09-30 | 2010-04-15 | Canon Inc | Image processing method, image processing apparatus, and imaging device |
JP2012129932A (en) * | 2010-12-17 | 2012-07-05 | Canon Inc | Image processing method, image processing program, image processing device, and imaging device |
JP2012216947A (en) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | Image pickup device and image processing method |
JP2012234484A (en) * | 2011-05-09 | 2012-11-29 | Canon Inc | Image processing method, image processor, imaging apparatus and image processing program |
JP2019121931A (en) * | 2018-01-05 | 2019-07-22 | キヤノン株式会社 | Image processing method, imaging apparatus using the same, image processing apparatus, image processing program, storage medium, and lens device |
Also Published As
Publication number | Publication date |
---|---|
JP5268533B2 (en) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4942216B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and program | |
US8830351B2 (en) | Image processing method and image processing apparatus for image restoration to reduce a detected color shift | |
US8477206B2 (en) | Image processing apparatus and image processing method for performing image restoration using restoration filter | |
US9167216B2 (en) | Image processing apparatus, image capture apparatus and image processing method | |
US8537225B2 (en) | Image pickup apparatus and image conversion method | |
US8605163B2 (en) | Image processing method, image processing apparatus, image pickup apparatus, and storage medium capable of suppressing generation of false color caused by image restoration | |
US9007482B2 (en) | Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium | |
US8866937B2 (en) | Image processing apparatus, image processing method, and program | |
JP5959976B2 (en) | Image processing method, image processing program, image processing apparatus, and imaging apparatus | |
KR101536162B1 (en) | Image processing apparatus and method | |
JP4891301B2 (en) | Image processing method, image processing apparatus, and imaging apparatus | |
JP2013045404A (en) | Image processing method, image processor, imaging apparatus and image processing program | |
JP5268533B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
JP5425135B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
JP5425136B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
JP6559011B2 (en) | Image processing apparatus and image processing method | |
JP5197839B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and program | |
US20240144536A1 (en) | Image processing device, image processing method, and storage medium | |
JP6552375B2 (en) | IMAGE PROCESSING DEVICE, IMAGING DEVICE, AND IMAGE PROCESSING PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110928 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20110928 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20111115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130507 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5268533 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |