JP2010039946A - Image processor, imaging device, image processing method and program - Google Patents
Image processor, imaging device, image processing method and program Download PDFInfo
- Publication number
- JP2010039946A JP2010039946A JP2008204643A JP2008204643A JP2010039946A JP 2010039946 A JP2010039946 A JP 2010039946A JP 2008204643 A JP2008204643 A JP 2008204643A JP 2008204643 A JP2008204643 A JP 2008204643A JP 2010039946 A JP2010039946 A JP 2010039946A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- unit
- area
- blur
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims description 33
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000012545 processing Methods 0.000 claims abstract description 155
- 238000000605 extraction Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 abstract description 10
- 230000006870 function Effects 0.000 description 61
- 238000000034 method Methods 0.000 description 35
- 230000003287 optical effect Effects 0.000 description 10
- 238000001914 filtration Methods 0.000 description 7
- 101100115215 Caenorhabditis elegans cul-2 gene Proteins 0.000 description 6
- 230000011514 reflex Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006837 decompression Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像情報にぼかし処理を行う画像処理装置、撮像装置、画像処理方法及びプログラムに関するものである。 The present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program for performing blur processing on image information.
デジタルカメラ等の撮影装置は、撮像素子が一般的に小さいため、画像を撮影するために必要な撮影光学系の焦点距離が短くなる。また、コンパクトカメラ等の撮像装置は、一眼レフのような撮像装置に比べて、レンズのサイズが小さい。 Since an imaging device such as a digital camera generally has a small image sensor, the focal length of an imaging optical system necessary for taking an image is shortened. An imaging device such as a compact camera has a smaller lens size than an imaging device such as a single-lens reflex camera.
ここで、焦点距離が短く、レンズのサイズが小さい場合は、撮影光学系のF値を同じにしても、被写界深度が深くなってしまう。このため、デジタルカメラ等の撮像装置で撮影する場合には、一眼レフのような撮像装置に比べて、相対的に広い距離範囲に焦点が合うことになる。 Here, if the focal length is short and the lens size is small, the depth of field will be deep even if the F-number of the photographing optical system is the same. For this reason, when photographing with an imaging device such as a digital camera, the focus is on a relatively wide distance range as compared with an imaging device such as a single-lens reflex camera.
その結果、デジタルカメラ等の撮像装置は、一眼レフのような撮像装置と同じ明るさの画像を撮影した場合に、ぼけの少ない画像を得ることが可能になる。しかし、ポートレートのように背景のぼけが必要な画像を撮影する場合には、背景までもが鮮明になってしまい、逆に、画像の表現力が一眼レフのような撮像装置に比べて落ちてしまうことになる。 As a result, an imaging apparatus such as a digital camera can obtain an image with less blur when an image having the same brightness as that of an imaging apparatus such as a single-lens reflex camera is captured. However, when shooting an image that requires background blur, such as a portrait, the background is also clearer. On the contrary, the expressive power of the image is lower than that of an imaging device such as a single-lens reflex camera. It will end up.
ここで、被写界深度が深いカメラで撮影された画像データの背景をぼかすために、特許文献1には、撮影距離に応じてぼかし処理を行う発明が開示されている。具体的には、画像データを複数の小さいブロックに分割し、それぞれのブロックの撮影距離を測定する。そして、測定された撮影距離に応じて、ブロック毎にぼかし処理を施し、ぼかし処理を行った複数のブロックを合成することにしている。この特許文献1に開示された発明では、撮影距離に応じたぼかし処理をブロック毎に施すため、背景に適したぼかし処理を施すことが可能となる。
しかし、上記特許文献1で開示された発明は、主要被写体画像にぼかし処理を施さない一方、背景画像に撮影距離に応じたぼかし処理を施し、両画像を合成することで背景に適したぼかし処理を施した画像データを生成することにしている。
However, the invention disclosed in
このため、上記特許文献1に開示された背景ぼかし処理方法では、ぼかし処理を施さないオブジェクトブロックと、ぼかし処理を施したオブジェクトブロックと、を合成する際に、図1に示すように、急激なコントラストの変化が発生してしまい、ひいては、不連続な境目が生じてしまうことになる。
For this reason, in the background blur processing method disclosed in
また、背景と思われる部分についてぼかし処理を施す際に、ローパスフィルタをかけるため、エッジが広がることになる。背景は遠く、ローパスフィルタを強くかければかける程、エッジがより広がることになる。従って、図2に示すように、オブジェクトを切り出し、背景ブロックと貼り合わせる際に、オブジェクトの部分も広がるため、エッジの滲みが発生してしまうことになる。特に、オブジェクトの色と背景の色とが異なる場合に、色の滲みが目立つことになる。 In addition, when performing blurring processing on a portion that seems to be a background, an edge is widened because a low-pass filter is applied. The background is far, and the stronger the low-pass filter, the wider the edge. Therefore, as shown in FIG. 2, when the object is cut out and pasted to the background block, the object portion also spreads, and edge blurring occurs. In particular, when the color of the object is different from the color of the background, the color blur becomes conspicuous.
本発明は、上記事情に鑑みてなされたものであり、不連続な境目と、エッジの滲みのないぼかし画像を生成することが可能な画像処理装置、撮像装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an image processing device, an imaging device, an image processing method, and a program capable of generating a blurred image without discontinuous boundaries and edge blurring. For the purpose.
かかる目的を達成するために、本発明は、以下の特徴を有することとする。 In order to achieve this object, the present invention has the following features.
<画像処理装置>
本発明にかかる画像処理装置は、取得された画像情報からオブジェクト領域を抽出する抽出手段と、抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得手段と、取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成手段と、を備えることを特徴とする。
<Image processing device>
An image processing apparatus according to the present invention includes an extraction unit that extracts an object region from the acquired image information, and a region that acquires a plurality of processing regions including the object region based on the extracted size of the object region. The image processing apparatus includes: an acquisition unit; and a generation unit that performs different blurring processing on the acquired processing area and generates a blurred image of the acquired image information.
<撮像装置>
また、本発明にかかる撮像装置は、上記記載の画像処理装置を備えることを特徴とする。
<Imaging device>
An imaging apparatus according to the present invention includes the above-described image processing apparatus.
<画像処理方法>
また、本発明にかかる画像処理方法は、取得された画像情報からオブジェクト領域を抽出する抽出ステップと、抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得ステップと、取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成ステップと、を備えることを特徴とする。
<Image processing method>
According to the image processing method of the present invention, an extraction step for extracting an object region from the acquired image information and a plurality of processing regions including the object region are acquired based on the extracted size of the object region. And a generation step of generating a blurred image of the acquired image information by performing different blurring processes on the acquired processing area.
<プログラム>
また、本発明にかかるプログラムは、上記記載の画像処理方法をコンピュータに実行させることを特徴とする。
<Program>
A program according to the present invention causes a computer to execute the image processing method described above.
本発明によれば、不連続な境目と、エッジの滲みのないぼかし画像を生成することが可能となる。 According to the present invention, it is possible to generate a blurred image without discontinuous boundaries and blurring of edges.
まず、本実施形態の画像処理装置の概要について説明する。 First, an outline of the image processing apparatus of the present embodiment will be described.
本実施形態の画像処理装置は、オリジナル画像に対し、段階的にローパスフィルタ処理を行い、図3〜図5に示す複数の画像データを作成する。図5は、背景部分に最も強いローパスフィルタをかけて作成した画像データを示す。図4は、図5のローパスフィルタよりも弱いローパスフィルタをかけて作成した画像データを示す。図3は、図4のローパスフィルタよりも更に弱いローパスフィルタをかけて作成した画像データを示す。 The image processing apparatus according to the present embodiment performs low-pass filter processing on the original image step by step to create a plurality of image data shown in FIGS. FIG. 5 shows image data created by applying the strongest low-pass filter to the background portion. FIG. 4 shows image data created by applying a low-pass filter weaker than the low-pass filter of FIG. FIG. 3 shows image data created by applying a weaker low-pass filter than the low-pass filter of FIG.
本実施形態の画像処理装置は、図5の領域3を切り出し、図6に示す出力画像に貼り付ける。次に、図4の領域2を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。次に、図3の領域1を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。これにより、不連続な境目がなく、エッジの滲みのないぼかし画像を生成することが可能となる。
The image processing apparatus according to the present embodiment cuts out the
(第1の実施形態)
以下、添付図面を参照しながら、本実施形態の画像処理装置について詳細に説明する。なお、以下の説明では、撮像装置に搭載された画像処理装置を例に説明する。
(First embodiment)
Hereinafter, the image processing apparatus of the present embodiment will be described in detail with reference to the accompanying drawings. In the following description, an image processing apparatus mounted on the imaging apparatus will be described as an example.
<画像処理装置の構成>
まず、図7を参照しながら、本実施形態の画像処理装置の構成について説明する。図7は、撮像装置に搭載された画像処理装置の構成を示すブロック図である。
<Configuration of image processing apparatus>
First, the configuration of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating a configuration of an image processing apparatus mounted on the imaging apparatus.
本実施形態における画像処理装置は、画像入力部101、画像領域分割部102、オブジェクト抽出部103、オブジェクトエッジ処理部111、画像ぼかし処理部104、画像合成部105、画像出力部106、カメラパラメータ入力部107、距離情報取得部108、ぼけ関数取得部109、ぼけ関数DB110を含んで構成している。
The image processing apparatus according to the present embodiment includes an
画像入力部101は、画像を画像領域分割部102に入力するものである。
画像領域分割部102は、画像を細かく分割するものである。
The
The image
オブジェクト抽出部103は、画像領域分割部102が細かく分割した小領域を組み合わせ、意味のあるオブジェクトを抽出するものである。ここで、意味のあるオブジェクトとは、前景、背景を区別することを意味する。本実施形態では、前景、背景が区別でき、オブジェクト間の距離が分かれば、背景のぼかし処理を実現することが可能となる。オブジェクト間の距離は、距離情報取得部108から取得する。
The
オブジェクトエッジ処理部111は、オブジェクト抽出部103が抽出したオブジェクトを基に、図3〜図5に示すようなオブジェクト領域より一回り大きい領域を指定するマスク(処理領域)を作成するものである。
The object
画像ぼかし処理部104は、ぼけ関数のフィルタを基に、オブジェクト抽出部103が抽出したオブジェクトのぼかし処理を行い、複数枚のぼかし画像(背景)を作成するものである。ぼけ関数のフィルタは、ぼけ関数取得部109から取得する。
The image
画像合成部105は、オブジェクトエッジ処理部111で作成した複数の異なるサイズのマスク(処理領域)と、画像ぼかし処理部104で作成した複数枚のぼかし画像(背景)と、を基に、オブジェクトと、ぼかし画像(背景)と、を合成するものである。
The image compositing
画像出力部106は、画像合成部105で合成した画像を出力するものである。
The
カメラパラメータ入力部107は、カメラパラメータを入力するものである。
The camera
距離情報取得部108は、距離情報を取得するものである。距離情報取得部109の詳細内部構成を図8に示す。
The distance
距離情報取得部109は、縮小画像入力部201と、エッジ情報計算部202と、距離情報計算部203と、距離情報出力部204と、レンズ焦点調整部205と、を有して構成する。
The distance
レンズ焦点調整部205は、カメラレンズの焦点を調整するものである。
縮小画像入力部201は、複数の異なる焦点位置の画像をエッジ情報計算部202に入力するものである。
The lens
The reduced
エッジ情報計算部202は、縮小画像入力部201から入力された複数の異なる焦点位置の画像を基に、複数の画像ブロックに分割し、同じ位置のブロック領域でのコントラスト値の合計値を求めるものである。
距離情報計算部203は、同じ位置のブロック領域でのコントラスト値を比較し、撮影距離を計算するものである。
距離情報出力部204は、距離情報計算部203が取得した距離情報をオブジェクト抽出部103とぼけ関数取得部109に出力するものである。
The edge
The distance
The distance
ぼけ関数DB110は、ぼけ関数のフィルタを記憶するものである。ぼけ関数DB110のデータ構造を図9に示す。
The
ぼけ関数DB110は、図9に示すように、距離の差と、焦点距離、F値、開口の形、ぼけ関数のフィルタ、を対応付けて記憶している。このため、距離の差、焦点距離、F値、開口の形に応じて、ぼけ関数のフィルタfの内容が変わることになる。ぼけ関数のフィルタfは、N×Nのフィルタである。各要素の値は、カメラパラメータ、撮影距離によって変化する。カメラレンズの設計値を基に、各要素の値を予め計算し、ぼけ関数DB110に記憶することになる。
As shown in FIG. 9, the
ぼけ関数取得部109は、カメラパラメータ入力部107から入力されたカメラパラメータを基に、ぼけ関数DB110からぼけ関数のフィルタfを取得するものである。
The blur
本実施形態の画像処理装置では、画像領域分割部102、オブジェクト抽出部103が画像情報からオブジェクト領域を抽出する抽出手段を実現する。
In the image processing apparatus of the present embodiment, the image
また、オブジェクトエッジ処理部111が、抽出手段により抽出されたオブジェクト領域のサイズに基づいて、そのオブジェクト領域を包含する複数の処理領域を取得する領域取得手段を実現する。
Further, the object
また、画像ぼかし処理部104、画像合成部105が、領域取得手段により取得された処理領域に異なるぼかし処理を施し、取得された画像情報のぼかし画像を生成する生成手段を実現する。
In addition, the image
<画像処理装置の処理動作>
次に、図7、図8、図10を参照しながら、本実施形態の画像処理装置の処理動作について説明する。図10は、本実施形態の画像処理装置の処理動作を示す図である。
<Processing operation of image processing apparatus>
Next, the processing operation of the image processing apparatus according to the present embodiment will be described with reference to FIGS. 7, 8, and 10. FIG. 10 is a diagram illustrating a processing operation of the image processing apparatus according to the present embodiment.
<ステップA1〜A3の処理動作>
まず、図7、図8、図10を参照しながら、図7に示す距離情報取得部108の処理動作について説明する。
<Processing of steps A1 to A3>
First, the processing operation of the distance
本実施形態の距離情報取得部108は、レンズ焦点調整部205が、カメラレンズの焦点を調整し、縮小画像入力部201が、複数の異なる焦点位置の画像をエッジ情報計算部202に入力する(ステップA1)。
In the distance
エッジ情報計算部202は、縮小画像入力部201から入力された複数の異なる焦点位置の画像を基に、複数の画像ブロックに分割し、同じ位置のブロック領域でのコントラスト値の合計値を求める(ステップA2)。
The edge
距離情報計算部203は、同じ位置のブロック領域でのコントラスト値を比較し、撮影距離を計算する。例えば、最もコントラスト値の高い画像がそのブロックに焦点があっていると判断し、その画像フレームの焦点位置を基に、撮影距離を計算する。距離情報計算部203は、全てのブロックでの撮影距離情報を計算し、ブロック毎の距離情報を取得する(ステップA3)。なお、距離情報計算部203は、距離測定センサーを使用し、距離情報を取得することも可能である。距離情報出力部204は、距離情報計算部203が取得した距離情報を、オブジェクト抽出部103とぼけ関数取得部109に出力することになる。
The distance
<ステップB1〜B2の処理動作>
次に、図7、図10を参照しながら、図7に示すカメラパラメータ入力部107と、ぼけ関数取得部109の処理動作について説明する。
<Processing operations of steps B1 and B2>
Next, processing operations of the camera
まず、カメラパラメータ入力部107は、カメラパラメータをぼけ関数取得部109に入力する(ステップB1)。
First, the camera
ぼけ関数取得部109は、カメラパラメータ入力部107から入力されたカメラパラメータを基に、ぼけ関数DB110からぼけ関数のフィルタを取得する(ステップB2)。ぼけ関数取得部109は、ぼけ関数DB110から取得したぼけ関数のフィルタを画像ぼかし処理部104に出力することになる。
The blur
<ステップS1〜S8の処理動作>
次に、図7、図10を参照しながら、図7に示す画像入力部101、画像領域分割部102、オブジェクト抽出部103、オブジェクトエッジ処理部111、画像ぼかし処理部104、画像合成部105、画像出力部106の処理動作について説明する。
<Processing of steps S1 to S8>
Next, referring to FIGS. 7 and 10, the
まず、画像入力部101は、画像を画像領域分割部102に入力する(ステップS1)。
First, the
画像領域分割部102は、画像入力部101から入力された画像を細かく分割する(ステップS2)。画像領域分割部102は、画像のエッジ、色などの情報を利用し、画像を分割する。画像の領域分割は、図11に示すようにほぼ同じ色の領域を1つの塊として抽出する。図11では、同じ色の塊オブジェクトA、オブジェクトB、背景Cを抽出している。
The image
画像領域分割部102は、画像の各画素の色を基に、隣画素の色との色差を計算し、色差が所定の閾値以下であれば、同じ塊と判断し、その同じ塊を1つの領域として抽出する。また、画像領域分割部102は、コントラストがほぼ同じ塊を1つの領域として抽出する。
Based on the color of each pixel of the image, the image
ここで、図12を参照しながら、ステップS2の領域分割の処理動作について詳細に説明する。 Here, with reference to FIG. 12, the processing operation of area division in step S2 will be described in detail.
まず、画像を色空間変換し、RGB画像をYUVに変換し、YUV画像を生成する(ステップS21)。Yは画像の輝度であり、UとVとは画素の色特性を示す。Uは輝度信号とB信号の差分であり、Vは輝度信号とR信号との差分である。 First, the image is color space converted, the RGB image is converted to YUV, and a YUV image is generated (step S21). Y is the luminance of the image, and U and V indicate the color characteristics of the pixel. U is the difference between the luminance signal and the B signal, and V is the difference between the luminance signal and the R signal.
次に、Y、U、Vそれぞれの成分に対し、フィルタリング処理を行う(ステップS22)。フィルタリング処理により、ノイズ成分や急激に変化する小さい領域を平均化し、同じ特性の塊を作り易くすることが可能となる。なお、フィルタリング処理に用いるフィルタは、ノイズ除去、平滑効果が得られるものであれば特に限定せず、あらゆるフィルタを適用することが可能である。例えば、平滑効果があるGaussianを適用することも可能である。 Next, a filtering process is performed on each of the Y, U, and V components (step S22). By filtering, it is possible to average noise components and small regions that change rapidly, and to easily create a lump with the same characteristics. Note that the filter used for the filtering process is not particularly limited as long as noise removal and a smoothing effect can be obtained, and any filter can be applied. For example, Gaussian with a smoothing effect can be applied.
次に、フィルタリング処理を行ったY、U、V成分を基に、領域生成を行う(ステップS23)。フィルタリングしたY、U、V成分は、隣り合う画素の差分が所定の閾値より小さければ同じ塊と判断し、塊を作る。閾値は、Y、U、Vそれぞれについて設定する。閾値は、実験により予め調整して設定し、それぞれの閾値をメモリに保存しておく。これにより、特性差の少ない小領域を生成することが可能となる。なお、U、Vの閾値で領域分割を行っても良く、輝度値Yの閾値も含めて、それぞれの閾値で領域分割を行っても良い。このステップS22の処理により、図11に示すように、同じ色の塊オブジェクトA、オブジェクトB、背景Cに分離することが可能になる。 Next, region generation is performed based on the Y, U, and V components subjected to the filtering process (step S23). The filtered Y, U, and V components are determined as the same lump if the difference between adjacent pixels is smaller than a predetermined threshold, and a lump is formed. The threshold is set for each of Y, U, and V. The threshold values are adjusted and set in advance through experiments, and the respective threshold values are stored in a memory. Thereby, it is possible to generate a small region with a small characteristic difference. It should be noted that the region division may be performed using the U and V threshold values, and the region division may be performed using the respective threshold values including the luminance value Y threshold value. By the processing in step S22, it is possible to separate into the same color block object A, object B, and background C as shown in FIG.
次に、小領域を削除する(ステップS24)。ノイズや孤立点の影響により、小さい領域が生成される場合がある。このため、領域面積の閾値を設け、その閾値より小さい領域を隣の領域と融合する。但し、融合する場合には、隣領域との輝度、色差が最も少ない領域と合成する。最小面積の閾値は任意に調整でき、予め設定する。 Next, the small area is deleted (step S24). A small region may be generated due to the influence of noise or isolated points. For this reason, a threshold value for the area is provided, and an area smaller than the threshold value is merged with the adjacent area. However, in the case of merging, it is combined with an area having the smallest luminance and color difference with the adjacent area. The threshold of the minimum area can be adjusted arbitrarily and is set in advance.
次に、ステップS24で融合した領域を領域分割結果として出力する(ステップS25)。融合した領域は、色の近い融合領域、または、コントラスト変化の少ない融合領域となる。これにより、図11に示すように、同じ色で且つコントラスト変化の少ない塊を1つの領域として抽出し、オブジェクトA、オブジェクトB、背景Cに分離することになる。これにより、画像領域分割部102は、画像入力部101から入力された画像を細かく分割し、画像を小領域に分割することが可能となる。
Next, the region merged in step S24 is output as a region division result (step S25). The fused region becomes a fused region with a close color or a fused region with little contrast change. As a result, as shown in FIG. 11, a lump having the same color and little change in contrast is extracted as one region and separated into an object A, an object B, and a background C. Thereby, the image
次に、オブジェクト抽出部103は、ステップS2で画像領域分割部102が分割した小領域を組み合わせ、意味のあるオブジェクトを抽出する(ステップS3)。
Next, the
画像領域分割部102は、ステップS2でオブジェクトの塊A、B、Cを作成したので、オブジェクト抽出部103は、距離情報を基に、オブジェクトA、Bと背景Cとの距離差が分かれば、背景のぼかし処理を実現することが可能となる。このため、図13に示すように、A、B、Cのそれぞれの領域に確信度の高いブロックがあれば、そのブロックを用いて、オブジェクト間の距離情報を取得することが可能となる。
Since the image
但し、距離情報を取得できない部分があっても、背景のぼかし処理を行うことは可能である。例えば、各オブジェクトの中で、1つのブロックで距離情報が取得できた場合に、その距離情報をオブジェクトの距離情報として使用する。このため、他のブロックの距離情報が取得できなくても良いことになる。 However, it is possible to perform background blurring processing even if there is a portion from which distance information cannot be acquired. For example, when distance information can be acquired by one block in each object, the distance information is used as the distance information of the object. For this reason, it is not necessary to acquire distance information of other blocks.
本実施形態では、オブジェクト抽出部103は、人物の頭、体をそれぞれ小領域とし、2つの領域として分割する。そして、頭領域内のブロックと体領域内のブロックとの距離がほぼ同じであるため、頭と体とを組み合わせて、1つのオブジェクトとして抽出する。また、頭領域内のブロックと体領域内のブロックは、隣の木領域のブロックと距離が異なるため、別のオブジェクトとして抽出する。これにより、図13に示すように、オブジェクトA、オブジェクトBと、背景Cと、をそれぞれ分離することが可能となる。
In the present embodiment, the
次に、オブジェクトエッジ処理部111は、ステップS3でオブジェクト抽出部103が抽出したオブジェクトを基に、図3〜図5に示すようなオブジェクト領域より一回り大きい領域を指定するマスク(処理領域)を作成する(ステップS4)。これにより、オブジェクトエッジ処理部111は、エッジ部分を連続させるための複数の異なるサイズのマスク(処理領域)を作成することになる。
Next, based on the object extracted by the
一回り大きい領域は、ステップS3でオブジェクト抽出部103が抽出したオブジェクトの外周からN画素数だけ離れた領域とする(図3〜6参照)。ここで、Nは可変である。但し、オブジェクトの抽出精度が高ければ、オブジェクトに近いマスクのステップを小さくし、オブジェクトから背景まで、画素Nの大きさを段階的に増やしていく。また、オブジェクトの抽出精度が低ければ、オブジェクトから背景までのマスクのステップを均等にするか、もしくは、オブジェクトに近いほうが、N画素のマスクのステップ間隔を大きくする。その結果、オブジェクト抽出の誤差を目立たなくすることが可能となる。
The area that is slightly larger is an area that is N pixels away from the outer periphery of the object extracted by the
なお、複数の異なるサイズのマスク(処理領域)を作成する際には、オブジェクト間の距離や、オブジェクト間のぼかし具合の差に応じて、作成するマスクの枚数を変化することが好ましい。例えば、オブジェクト間の距離の差が大きければ、マスクの枚数を段階的に増やし、連続的にぼかしていく。このため、オブジェクト間の距離とマスクの枚数とを対応付けてメモリに予め記録し、測定したオブジェクト間の距離に応じたマスクの枚数をメモリから呼び出すようにすることが好ましい。 When creating a plurality of masks (processing areas) having different sizes, it is preferable to change the number of masks to be created according to the distance between objects and the difference in blurring between objects. For example, if the difference in distance between objects is large, the number of masks is increased stepwise to blur continuously. For this reason, it is preferable that the distance between objects and the number of masks are associated with each other and recorded in advance in a memory, and the number of masks corresponding to the measured distance between objects is called from the memory.
次に、画像ぼかし処理部104は、ぼけ関数取得部109からぼけ関数のフィルタを取得し、その取得したぼけ関数のフィルタを基に、オブジェクトにぼかし処理を行う(ステップS5)。ぼかし処理を行う際は、複数のボケ関数のフィルタを基に、オブジェクトにぼかし処理を行い、図3〜図5に示すように複数枚のぼかし画像を生成する(ステップS6)。これにより、画像ぼかし処理部104は、複数枚のぼかし画像を生成することになる。
Next, the image
ここで、オブジェクト周囲領域におけるぼかし具合の決定方法について説明する。
画像ぼかし処理部104は、ぼけ関数のフィルタの強さで、ぼかし具合を調整する。オブジェクトに近いほど、ぼけ関数のフィルタを弱くする。そして、距離の離れたオブジェクトに近づいていくほど、ぼけ関数のフィルタを強くしていく。本実施形態では、ぼけ関数取得部109がぼけ関数DB110から取得したぼけ関数のフィルタを基に、ぼかし具合を調整する。なお、オブジェクト間の距離により、マスクの強さを変化するようにすることも可能である。この場合、オブジェクト間の距離が遠くなればなるほど、マスクのぼかしを強くするようにする。
Here, a method for determining the degree of blurring in the object surrounding area will be described.
The image
次に、画像合成部105は、ステップS4で生成した複数の異なるサイズのマスク(処理領域)と、ステップS6で生成した複数枚のぼかし画像(背景)と、を基に、オブジェクトと、複数枚のぼかし画像(背景)と、を合成する(ステップS7)。オブジェクトと、複数枚のぼかし画像(背景)と、を合成する際には、複数の異なるサイズのマスク(処理領域)を用いて、複数枚のぼかし画像(背景)から画像を切り出し、画像を合成し、図6に示す画像を生成する。具体的には、図5の領域3を切り出し、図6に示す出力画像に貼り付ける。次に、図4の領域2を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。次に、図3の領域1を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。これにより、不連続な境目がなく、エッジの滲みのないぼかし画像を生成することが可能となる。
Next, the
次に、画像出力部106は、ステップS7で合成した画像を出力する(ステップS8)。
Next, the
<本実施形態の画像処理装置の作用・効果>
このように、本実施形態の画像処理装置は、オリジナル画像に対し、段階的にローパスフィルタ処理を行い、図3〜図5に示す複数の画像データを作成する。そして、図5の領域3を切り出し、図6に示す出力画像に貼り付ける。次に、図4の領域2を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。次に、図3の領域1を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。これにより、本実施形態の画像処理装置は、不連続な境目がなく、エッジの滲みのないぼかし画像を生成することが可能となる。
<Operation / Effect of Image Processing Apparatus of Present Embodiment>
As described above, the image processing apparatus according to the present embodiment performs low-pass filter processing on the original image step by step to create a plurality of image data shown in FIGS. 5 is cut out and pasted on the output image shown in FIG. Next, a circle portion indicating the
<本実施形態の画像処理装置を搭載した撮像装置>
次に、図14を参照しながら、上述した図7に示す画像処理装置を搭載した撮像装置のハードウェア構成について説明する。図14は、本実施形態の撮像装置のハードウェア構成を示すブロック図である。
<Imaging Device Incorporating Image Processing Device of Present Embodiment>
Next, the hardware configuration of the imaging apparatus equipped with the above-described image processing apparatus shown in FIG. 7 will be described with reference to FIG. FIG. 14 is a block diagram illustrating a hardware configuration of the imaging apparatus according to the present embodiment.
本実施形態の撮像装置は、撮影光学系1、メカシャッタ2、CCD(Charge Coupled Device)3、CDS(Correlated Double Sampling)回路4、A/D変換器5、モータドライバ6、タイミング信号発生器7、画像処理回路8、CPU9、RAM(Random Access Memory)10、ROM(Read Only Memory)11、SDRAM(Synchronous DRAM)12、圧縮伸張回路13、メモリカード14、操作部15、LCD16を含んで構成している。
The imaging apparatus of the present embodiment includes an imaging
被写体光は、撮影光学系1を通してCCD3に入射される。また、撮影光学系1とCCD3との間には、メカシャッタ2が配置されており、このメカシャッタ2によりCCD3への入射光を遮断することが出来る。撮影光学系1及びメカシャッタ2は、モータドライバ6で駆動する。
Subject light is incident on the
CCD3は、撮像面に結像された光学像を電気信号に変換し、アナログの画像データとしてCDS回路4に出力する。CDS回路4は、CCD3から出力された画像情報のノイズ成分を除去し、A/D変換器5に出力する。A/D変換器5は、デジタル値に変換し、画像処理回路8に出力する。
The
画像処理回路8は、SDRAM12を用いて、YCrCb変換処理、ホワイトバランス処理、コントラスト補正処理、エッジ強調処理、色変換処理等の各種画像処理を行う。
The
ホワイトバランス処理は、画像情報の色濃さを調整する処理である。コントラスト補正処理は、画像情報のコントラストを調整する処理である。エッジ強調処理は、画像情報のシャープネスを調整する処理である。色変換処理は、画像情報の色合いを調整する処理である。 The white balance process is a process for adjusting the color density of image information. The contrast correction process is a process for adjusting the contrast of the image information. The edge enhancement process is a process for adjusting the sharpness of image information. The color conversion process is a process for adjusting the hue of image information.
また、画像処理回路8は、信号処理や画像処理が施された画像情報をLCD16に表示する。また、画像処理回路8は、信号処理、画像処理が施された画像情報を、圧縮伸張回路13を介して、メモリカード14に記録する。
Further, the
圧縮伸張回路13は、操作部15からの指示により、画像処理回路8から出力される画像情報を圧縮し、メモリカード14に出力すると共に、メモリカード14から読み出した画像情報を伸張し、画像処理回路8に出力する。
The compression /
CPU9は、タイミング信号を発生するタイミング信号発生器7を介してCCD3、CDS回路4、A/D変換器5のタイミングを制御する。更に、CPU9は、画像処理回路8、圧縮伸張回路13、メモリカード14を制御する。
The
<本実施形態の撮像装置の処理動作>
次に、図10、図14を参照しながら、本実施形態の撮像装置の処理動作について説明する。
本実施形態の撮像装置は、被写体の距離情報を測定する。次に、モータドライバ6を動かしながら、撮影光学系1及びメカシャッタ2を制御し、焦点位置を変え、複数枚の縮小画像をSDRAM12に入力する。これにより、異なる撮影距離の複数枚の縮小画像がSDRAM12に入力される(ステップS1)。
<Processing Operation of Imaging Device of Present Embodiment>
Next, the processing operation of the imaging apparatus according to the present embodiment will be described with reference to FIGS. 10 and 14.
The imaging apparatus of the present embodiment measures subject distance information. Next, while moving the
次に、本撮影を行い、背景ぼけ処理用の大きいサイズの画像をSDRAM12に入力する(ステップA1)。次に、距離測定プログラムをROM11から呼び出し、図10に示すステップA2〜A3の処理を行う。具体的には、各画像をブロックに分割し、同じ位置ブロック内のコントラスト値の合計を計算する。最もコントラスト値の高いブロックは、この位置にフォーカスがあっていると判断し、それをフレームの結像位置とする。そして、結像位置を基に被写体距離を計算する。これにより、距離情報を抽出することが可能となる。
Next, actual shooting is performed, and a large-size image for background blur processing is input to the SDRAM 12 (step A1). Next, the distance measurement program is called from the
次に、領域分割、オブジェクト抽出プログラムをROM11から呼び出し、図10に示すステップS2〜S3の処理を行う。具体的には、画像のエッジ情報、色情報を使用し、画像を小さい領域に分割する。次に、小領域をまとめ、図11に示すように、オブジェクトを抽出する。オブジェクトを抽出する場合には、色の特性、エッジの特性を基に、共通の属性がある小領域をまとめる。また、測定した距離情報も領域をまとめる際に利用する。距離の近い小領域は、同じグループにし、オブジェクト候補とする。オブジェクトは、人物、前景、背景など意味のある領域である。それぞれの領域での撮影距離は異なる。これにより、図13に示すように、画像をブロックに分割することが可能となる。各ブロック内では、距離測定ソフトウェアによりそれぞれの距離が測定されている。また、図13に示すA,B,Cの距離は、ブロックから取得することになる。
Next, the area division / object extraction program is called from the
次に、図10に示すステップB2の処理を行い、オブジェクトA,B,Cのぼけ関数のフィルタを取得する。オブジェクトAが主要被写体と判断された場合は、Aに対してぼかし処理を施さない。オブジェクトB、背景Cの撮影距離、カメラパラメータを基に、ぼけ関数DB110からぼけ関数のフィルタを取得する。ぼけ関数のフィルタは、図9に示すfであり、カメラパラメータと撮影距離に応じたぼけ関数のフィルタをぼけ関数DB110から取得する。
Next, the process of step B2 shown in FIG. 10 is performed to obtain a blur function filter of the objects A, B, and C. When the object A is determined as the main subject, the blurring process is not performed on A. Based on the shooting distance and camera parameters of the object B and the background C, the blur function filter is acquired from the
次に、図10に示すステップS5〜S6の処理を行い、撮影した元画像Aに対してフィルタf#Bでフィルタリング処理を行い、フィルタリング処理を行った画像BをSDRAM12に格納する。次に、元画像Aに対してフィルタf_Cでフィルタリング処理を行い、フィルタリング処理を行った画像CもSDRAM12に格納する。
Next, the processing of steps S5 to S6 shown in FIG. 10 is performed, the captured original image A is filtered by the filter f # B, and the filtered image B is stored in the
オブジェクトBとオブジェクトCとの距離は異なるため、遠いものに対して強いローパスフィルタをかけ、強くぼかす。これにより、入力したカメラパラメータと同じカメラのぼけを実現することができる。例えば、一眼レフのパラメータを入力すると、その一眼レフカメラと同じ背景ぼけのある画像を作成することが可能となる。 Since the distance between the object B and the object C is different, a strong low-pass filter is applied to a distant object to blur it strongly. As a result, the same camera blur as the input camera parameter can be realized. For example, when a single-lens reflex parameter is input, an image with the same background blur as that single-lens reflex camera can be created.
また、図10に示すステップS4の処理を行い、エッジ処理用のマスクを生成する。 Further, the process of step S4 shown in FIG. 10 is performed to generate a mask for edge processing.
次に、図10に示すステップS7の処理を行い、元画像AからオブジェクトAの部分を切り出し、画像BからオブジェクトBを切り出し、画像Cから背景部分Cを切り出し、画像を合成する。この場合、オブジェクトと一回り異なるサイズのマスクに合わせ、複数のフィルタリング処理を行い、複数枚のぼかした画像をSDRAM12に格納する。フィルタの強度は、オブジェクトから背景間の距離を段階的に分割し、その距離により、ぼけ関数DB110からぼけ関数のフィルタを取得する。複数のマスクと複数枚ぼかした画像から画像を切り出し、背景ぼかし画像を生成する。
Next, the process of step S7 shown in FIG. 10 is performed, the part of the object A is cut out from the original image A, the object B is cut out from the image B, the background part C is cut out from the image C, and the image is synthesized. In this case, a plurality of filtering processes are performed in accordance with a mask having a size slightly different from that of the object, and a plurality of blurred images are stored in the
本実施形態の撮像装置は、上述した背景ぼかし機能を含むモジュール構成となっており、CPU(プロセッサ)9がROM11からプログラムを読み出して実行することになる。
The imaging apparatus according to the present embodiment has a module configuration including the background blur function described above, and the CPU (processor) 9 reads a program from the
(第2の実施形態)
次に、第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment will be described.
第1の実施形態の画像処理装置は、オブジェクト間の距離に応じて、ぼけ関数のフィルタを変更し、オブジェクト周囲領域におけるぼかし具合を調整することにした。 The image processing apparatus according to the first embodiment changes the blur function filter in accordance with the distance between objects, and adjusts the degree of blurring in the object surrounding area.
第2の実施形態の画像処理装置は、オブジェクト間に複数の領域を設定し、オブジェクト間の距離及び撮像距離の差を基に、ぼけ関数のフィルタを変更し、上記設定した各領域におけるぼかし具合を調整することを特徴とする。これにより、オブジェクト間に複数の領域を設定し、その設定した各領域のぼかし画像を作成することが可能となる。 The image processing apparatus according to the second embodiment sets a plurality of areas between objects, changes the blur function filter based on the difference between the distances between the objects and the imaging distance, and determines the degree of blurring in each of the set areas. It is characterized by adjusting. Thereby, it is possible to set a plurality of areas between objects and create a blurred image of each set area.
オブジェクトAとオブジェクトBとの距離が分かれば、ぼけ関数のフィルタ調整を行うことが可能である。また、オブジェクトの撮影距離、オブジェクト間の距離が分かる場合には、オブジェクト間に複数の領域を設定し、オブジェクト間の距離及び撮影距離の差を基に、ぼけ関数のフィルタを変更し、上記設定した各領域におけるぼかし具合を調整することが可能である。この場合、撮影距離及び撮影距離の差を基に、ぼけ関数のフィルタを計算し、その計算したぼけ関数のフィルタを、その撮影距離及び撮影距離の差に対応付けてぼけ関数DB110に保存する。そして、実際に得られた撮影距離及び撮影距離の差を基に、その撮影距離及び撮影距離の差に対応するぼけ関数のフィルタをぼけ関数DB110から取得し、その取得したぼけ関数のフィルタを用いて、各領域におけるぼかし具合を調整し、ぼかし画像を作成する。これにより、オブジェクト間に複数の領域を設定し、その設定した各領域のぼかし画像を作成することが可能となる。
If the distance between the object A and the object B is known, it is possible to adjust the blur function filter. Also, if you know the shooting distance of objects and the distance between objects, set multiple areas between objects, change the blur function filter based on the difference between the distance between objects and shooting distance, and set the above It is possible to adjust the degree of blurring in each area. In this case, a blur function filter is calculated based on the shooting distance and the difference between the shooting distances, and the calculated blur function filter is stored in the
(第3の実施形態)
次に、第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment will be described.
第1、第2の実施形態は、図14に示す撮像装置に搭載された画像処理装置を例として説明した。このため、図10に示すように、ステップS1の画像入力と、ステップA1の異なるフォーカス画像入力と、を各々別々に行うようにした。 In the first and second embodiments, the image processing apparatus mounted on the imaging apparatus illustrated in FIG. 14 has been described as an example. For this reason, as shown in FIG. 10, the image input in step S1 and the different focus image input in step A1 are performed separately.
第3の実施形態は、画像ファイルを入力し、図10に示すステップS1の画像入力と、ステップA1の異なるフォーカス画像入力と、を一緒に行い、画像ファイルから距離情報を抽出することを特徴とする。これにより、上述した撮像装置に搭載された画像処理装置と同様な処理を一般的な画像処理装置でも行うことが可能となる。以下、添付図面を参照しながら、本実施形態の画像処理装置について説明する。 The third embodiment is characterized in that an image file is input, the image input in step S1 shown in FIG. 10 and the different focus image input in step A1 are performed together, and distance information is extracted from the image file. To do. As a result, the same processing as that of the image processing apparatus mounted on the imaging apparatus described above can be performed by a general image processing apparatus. The image processing apparatus according to the present embodiment will be described below with reference to the accompanying drawings.
<本実施形態の画像処理装置のハード構成>
まず、図15を参照しながら、本実施形態の画像処理装置のハード構成について説明する。図15は、本実施形態における画像処理装置のハードウェア構成例を示すブロック図である。
<Hardware Configuration of Image Processing Apparatus of Present Embodiment>
First, the hardware configuration of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 15 is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the present embodiment.
本実施形態の画像処理装置は、CPU24、RAM21、ROM22、I/F23、HDD25、CD-ROMドライバ20、メモリカードドライバ27、を有して構成している。
The image processing apparatus according to the present embodiment includes a
CPU24は、各部を集中的に制御するものである。ROM22は、BIOSなどを記憶した読出し専用メモリである。RAM21は、各種データを書換え可能に記憶してCPU24の作業エリアとして機能するものである。HDD25は、制御プログラム等を記憶するものである。CD-ROMドライバ20は、CD(Compact Disc)−ROM28を読み取るものである。メモリカードドライバ27は、メモリカード29を読み取るものである。I/F23は、プリンタ部等との通信を司るインタフェースである。
The
CD-ROM28は、所定の制御プログラムが記憶されている。CPU24は、CD-ROM28に記憶されている制御プログラムをCD-ROMドライブ26で読み取り、HDD25にインストールする。これにより、上述した実施形態と同様な各種の処理を行うことが可能になる。また、メモリカード29には、画像情報などが格納され、メモリカードドライバ27で読み取られる。
The CD-
記憶媒体としては、CD-ROM28やメモリカード29のみならず、DVDなどの各種の光ディスク、各種光磁気ディスク、フロッピー(登録商標)ディスクなどの各種磁気ディスク、半導体メモリ等、各種方式のメディアを用いることも可能である。
As the storage medium, not only the CD-
また、インターネットなどのネットワークからプログラムをダウンロードし、HDD25にインストールすることも可能である。この場合は、送信側のサーバでプログラムを記憶している記憶装置も、本実施形態の記憶媒体に相当する。なお、プログラムは、所定のOS(Operating System)上で動作するものも可能である。その場合は、後述の各種処理の一部の実行をOSに肩代わりさせることも可能である。また、ワープロソフトなど所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含むことも可能である。
It is also possible to download a program from a network such as the Internet and install it on the
また、本実施形態の画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせるようにすることも可能である。また、本実施の形態の画像処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布することも可能である。また、本実施形態のプログラムを、ROM等に予め組み込んで提供することも可能である。 It is also possible to store a program executed by the image processing apparatus of the present embodiment on a computer connected to a network such as the Internet and download it via the network. It is also possible to provide or distribute a program executed by the image processing apparatus of the present embodiment via a network such as the Internet. It is also possible to provide the program of the present embodiment by incorporating it in a ROM or the like in advance.
<本実施形態の画像処理装置の処理動作>
次に、図16を参照しながら、本実施形態の画像処理装置で行う処理動作について説明する。
<Processing Operation of Image Processing Apparatus of Present Embodiment>
Next, processing operations performed by the image processing apparatus according to the present embodiment will be described with reference to FIG.
本実施形態の画像処理装置で行う処理動作は、図16に示すように、画像ファイルを入力し(ステップS'1)、その画像ファイルから距離情報を抽出し、その抽出した距離情報をオブジェクト抽出部103、ぼけ関数取得部109に出力する(ステップA'3)。なお、他の処理動作は、図10とほぼ同様な処理を行うことになる。
As shown in FIG. 16, the processing operation performed by the image processing apparatus of the present embodiment inputs an image file (step S′1), extracts distance information from the image file, and extracts the extracted distance information as an object. Output to the
このように、本実施形態の画像処理装置は、画像ファイルを入力し、図10に示すステップS1の画像入力と、ステップA1の異なるフォーカス画像入力と、を一緒に行い(ステップS'1)、画像ファイルから距離情報を抽出する(ステップA'3)。これにより、上述した撮像装置に搭載された画像処理装置と同様な処理を一般的な画像処理装置でも行うことが可能となる。 As described above, the image processing apparatus of the present embodiment inputs an image file, and performs the image input in step S1 shown in FIG. 10 and the different focus image input in step A1 together (step S′1). Distance information is extracted from the image file (step A'3). As a result, the same processing as that of the image processing apparatus mounted on the imaging apparatus described above can be performed by a general image processing apparatus.
なお、上述する実施形態は、本発明の好適な実施形態であり、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。 The above-described embodiment is a preferred embodiment of the present invention, and the scope of the present invention is not limited to the above-described embodiment alone, and various modifications are made without departing from the gist of the present invention. Implementation is possible.
1 撮影光学系
2 メカシャッタ
3 CCD
4 CDS回路
5 A/D変換器
6 モータドライバ
7 タイミング信号発生器
8 画像処理回路
9 CPU
10 RAM
11 ROM
12 SDRAM
13 圧縮伸張回路
14 メモリカード
15 操作部
16 LCD
21 RAM
22 ROM
23 I/F
24 CPU
25 HDD
26 CD-ROMドライバ
27 メモリカードドライバ
28 CD-ROM
29 メモリカード
101 画像入力部
102 画像領域分割部
103 オブジェクト抽出部
104 画像ぼかし処理部
105 画像合成部
106 画像出力部
107 カメラパラメータ入力部
108 距離情報取得部
109 ぼけ関数取得部
110 ぼけ関数DB
111 オブジェクトエッジ処理部
201 縮小画像入力部
202 エッジ情報計算部
203 距離情報計算部
204 距離情報出力部
205 レンズ焦点調整部
1 Shooting
4 CDS circuit 5 A /
10 RAM
11 ROM
12 SDRAM
13 Compression /
21 RAM
22 ROM
23 I / F
24 CPU
25 HDD
26 CD-
DESCRIPTION OF
111 Object
Claims (8)
抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得手段と、
取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。 Extracting means for extracting an object region from the acquired image information;
An area acquisition means for acquiring a plurality of processing areas including the object area based on the extracted size of the object area;
Generating means for performing different blurring processing on the acquired processing area and generating a blurred image of the acquired image information;
An image processing apparatus comprising:
抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得ステップと、
取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成ステップと、
を備えることを特徴とする画像処理方法。 An extraction step of extracting an object region from the acquired image information;
An area acquisition step of acquiring a plurality of processing areas including the object area based on the extracted size of the object area;
A generation step of performing different blurring processing on the acquired processing area and generating a blurred image of the acquired image information;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008204643A JP5181913B2 (en) | 2008-08-07 | 2008-08-07 | Image processing apparatus, imaging apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008204643A JP5181913B2 (en) | 2008-08-07 | 2008-08-07 | Image processing apparatus, imaging apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010039946A true JP2010039946A (en) | 2010-02-18 |
JP5181913B2 JP5181913B2 (en) | 2013-04-10 |
Family
ID=42012387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008204643A Expired - Fee Related JP5181913B2 (en) | 2008-08-07 | 2008-08-07 | Image processing apparatus, imaging apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5181913B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013094131A1 (en) * | 2011-12-19 | 2013-06-27 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and image processing program |
US8477199B2 (en) | 2009-11-24 | 2013-07-02 | Ricoh Company, Limited | Imaging apparatus, image processing method, and computer program product for preventing false motion vector detection |
JP2013239119A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing device, image processing method, image processing program and imaging device |
JP2017092983A (en) * | 2017-01-25 | 2017-05-25 | キヤノン株式会社 | Image processing device, image processing method, image processing program, and imaging device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001057630A (en) * | 1999-08-18 | 2001-02-27 | Fuji Photo Film Co Ltd | Image processing unit and image processing method |
JP2004303193A (en) * | 2003-03-20 | 2004-10-28 | Omron Corp | Image processor |
JP2006011618A (en) * | 2004-06-23 | 2006-01-12 | Noritsu Koki Co Ltd | Photographic image processing method and its device |
JP2007066199A (en) * | 2005-09-01 | 2007-03-15 | Canon Inc | Image processor and image processing method |
JP2007281843A (en) * | 2006-04-06 | 2007-10-25 | Matsushita Electric Ind Co Ltd | Imaging apparatus and image processing method |
JP2008118348A (en) * | 2006-11-02 | 2008-05-22 | Nikon Corp | Electronic camera and program |
-
2008
- 2008-08-07 JP JP2008204643A patent/JP5181913B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001057630A (en) * | 1999-08-18 | 2001-02-27 | Fuji Photo Film Co Ltd | Image processing unit and image processing method |
JP2004303193A (en) * | 2003-03-20 | 2004-10-28 | Omron Corp | Image processor |
JP2006011618A (en) * | 2004-06-23 | 2006-01-12 | Noritsu Koki Co Ltd | Photographic image processing method and its device |
JP2007066199A (en) * | 2005-09-01 | 2007-03-15 | Canon Inc | Image processor and image processing method |
JP2007281843A (en) * | 2006-04-06 | 2007-10-25 | Matsushita Electric Ind Co Ltd | Imaging apparatus and image processing method |
JP2008118348A (en) * | 2006-11-02 | 2008-05-22 | Nikon Corp | Electronic camera and program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8477199B2 (en) | 2009-11-24 | 2013-07-02 | Ricoh Company, Limited | Imaging apparatus, image processing method, and computer program product for preventing false motion vector detection |
WO2013094131A1 (en) * | 2011-12-19 | 2013-06-27 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and image processing program |
JP2013127759A (en) * | 2011-12-19 | 2013-06-27 | Canon Inc | Image processing device, image pickup device, image processing method, and image processing program |
US9251575B2 (en) | 2011-12-19 | 2016-02-02 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and image processing program |
JP2013239119A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing device, image processing method, image processing program and imaging device |
US9621786B2 (en) | 2012-05-17 | 2017-04-11 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images |
US10021290B2 (en) | 2012-05-17 | 2018-07-10 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images |
JP2017092983A (en) * | 2017-01-25 | 2017-05-25 | キヤノン株式会社 | Image processing device, image processing method, image processing program, and imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP5181913B2 (en) | 2013-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009110137A (en) | Image processor, image processing method, and image processing program | |
JP5460173B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
JP5251629B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
US9413921B2 (en) | Imaging apparatus and control method thereof | |
US8351731B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program product | |
JP3944151B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP2007201541A (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP6720881B2 (en) | Image processing apparatus and image processing method | |
JP2015156615A (en) | Image processing system, image processing method, control program, and recording medium | |
JP2011044825A (en) | Image processing apparatus, image processing method, and computer program | |
JP5534832B2 (en) | Image processing apparatus, image processing method, and program | |
JP5181913B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6415063B2 (en) | Image processing apparatus, image processing method, control program, and recording medium | |
JP2008288947A (en) | Image processing apparatus and program thereof | |
JP5509621B2 (en) | Image processing apparatus, camera, and program | |
US9635331B2 (en) | Image processing apparatus that performs tone correction and edge enhancement, control method therefor, and storage medium | |
JP2010199681A (en) | Image processing apparatus and program | |
CN110992284A (en) | Image processing method, image processing apparatus, electronic device, and computer-readable storage medium | |
JP6786273B2 (en) | Image processing equipment, image processing methods, and programs | |
EP3474532A1 (en) | Image processing apparatus, image processing method, and program | |
JP4534750B2 (en) | Image processing apparatus and image processing program | |
JP7375313B2 (en) | Image processing device, image processing method, and image processing program | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP6029464B2 (en) | Imaging device, control method thereof, and control program | |
JP5282533B2 (en) | Image processing apparatus, imaging apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121231 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5181913 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160125 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |