JP2010039946A - Image processor, imaging device, image processing method and program - Google Patents

Image processor, imaging device, image processing method and program Download PDF

Info

Publication number
JP2010039946A
JP2010039946A JP2008204643A JP2008204643A JP2010039946A JP 2010039946 A JP2010039946 A JP 2010039946A JP 2008204643 A JP2008204643 A JP 2008204643A JP 2008204643 A JP2008204643 A JP 2008204643A JP 2010039946 A JP2010039946 A JP 2010039946A
Authority
JP
Japan
Prior art keywords
image
processing
unit
area
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008204643A
Other languages
Japanese (ja)
Other versions
JP5181913B2 (en
Inventor
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008204643A priority Critical patent/JP5181913B2/en
Publication of JP2010039946A publication Critical patent/JP2010039946A/en
Application granted granted Critical
Publication of JP5181913B2 publication Critical patent/JP5181913B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for generating a blur image free from discontinuous boundary or edge blur. <P>SOLUTION: The image processor extracts an object area from acquired image information (102 and 103), and then acquires a plurality of processing areas including the object area based on the size of the extracted object area (111). The processor performs different blur processing respectively to the acquired processing area to generate a blur image of the acquired image information (104 and 105). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像情報にぼかし処理を行う画像処理装置、撮像装置、画像処理方法及びプログラムに関するものである。   The present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program for performing blur processing on image information.

デジタルカメラ等の撮影装置は、撮像素子が一般的に小さいため、画像を撮影するために必要な撮影光学系の焦点距離が短くなる。また、コンパクトカメラ等の撮像装置は、一眼レフのような撮像装置に比べて、レンズのサイズが小さい。   Since an imaging device such as a digital camera generally has a small image sensor, the focal length of an imaging optical system necessary for taking an image is shortened. An imaging device such as a compact camera has a smaller lens size than an imaging device such as a single-lens reflex camera.

ここで、焦点距離が短く、レンズのサイズが小さい場合は、撮影光学系のF値を同じにしても、被写界深度が深くなってしまう。このため、デジタルカメラ等の撮像装置で撮影する場合には、一眼レフのような撮像装置に比べて、相対的に広い距離範囲に焦点が合うことになる。   Here, if the focal length is short and the lens size is small, the depth of field will be deep even if the F-number of the photographing optical system is the same. For this reason, when photographing with an imaging device such as a digital camera, the focus is on a relatively wide distance range as compared with an imaging device such as a single-lens reflex camera.

その結果、デジタルカメラ等の撮像装置は、一眼レフのような撮像装置と同じ明るさの画像を撮影した場合に、ぼけの少ない画像を得ることが可能になる。しかし、ポートレートのように背景のぼけが必要な画像を撮影する場合には、背景までもが鮮明になってしまい、逆に、画像の表現力が一眼レフのような撮像装置に比べて落ちてしまうことになる。   As a result, an imaging apparatus such as a digital camera can obtain an image with less blur when an image having the same brightness as that of an imaging apparatus such as a single-lens reflex camera is captured. However, when shooting an image that requires background blur, such as a portrait, the background is also clearer. On the contrary, the expressive power of the image is lower than that of an imaging device such as a single-lens reflex camera. It will end up.

ここで、被写界深度が深いカメラで撮影された画像データの背景をぼかすために、特許文献1には、撮影距離に応じてぼかし処理を行う発明が開示されている。具体的には、画像データを複数の小さいブロックに分割し、それぞれのブロックの撮影距離を測定する。そして、測定された撮影距離に応じて、ブロック毎にぼかし処理を施し、ぼかし処理を行った複数のブロックを合成することにしている。この特許文献1に開示された発明では、撮影距離に応じたぼかし処理をブロック毎に施すため、背景に適したぼかし処理を施すことが可能となる。
特開2000−259823号公報
Here, in order to blur the background of image data captured by a camera having a deep depth of field, Patent Document 1 discloses an invention in which a blurring process is performed according to a shooting distance. Specifically, the image data is divided into a plurality of small blocks, and the shooting distance of each block is measured. Then, according to the measured shooting distance, blur processing is performed for each block, and a plurality of blocks subjected to the blur processing are synthesized. In the invention disclosed in this patent document 1, since the blurring process according to the shooting distance is performed for each block, the blurring process suitable for the background can be performed.
JP 2000-259823 A

しかし、上記特許文献1で開示された発明は、主要被写体画像にぼかし処理を施さない一方、背景画像に撮影距離に応じたぼかし処理を施し、両画像を合成することで背景に適したぼかし処理を施した画像データを生成することにしている。   However, the invention disclosed in Patent Document 1 does not perform the blurring process on the main subject image, but performs the blurring process on the background image according to the shooting distance, and combines the two images to perform the blurring process suitable for the background. It is decided to generate image data that has been subjected to.

このため、上記特許文献1に開示された背景ぼかし処理方法では、ぼかし処理を施さないオブジェクトブロックと、ぼかし処理を施したオブジェクトブロックと、を合成する際に、図1に示すように、急激なコントラストの変化が発生してしまい、ひいては、不連続な境目が生じてしまうことになる。   For this reason, in the background blur processing method disclosed in Patent Document 1, when combining an object block not subjected to blur processing and an object block subjected to blur processing, as shown in FIG. A change in contrast occurs, resulting in a discontinuous boundary.

また、背景と思われる部分についてぼかし処理を施す際に、ローパスフィルタをかけるため、エッジが広がることになる。背景は遠く、ローパスフィルタを強くかければかける程、エッジがより広がることになる。従って、図2に示すように、オブジェクトを切り出し、背景ブロックと貼り合わせる際に、オブジェクトの部分も広がるため、エッジの滲みが発生してしまうことになる。特に、オブジェクトの色と背景の色とが異なる場合に、色の滲みが目立つことになる。   In addition, when performing blurring processing on a portion that seems to be a background, an edge is widened because a low-pass filter is applied. The background is far, and the stronger the low-pass filter, the wider the edge. Therefore, as shown in FIG. 2, when the object is cut out and pasted to the background block, the object portion also spreads, and edge blurring occurs. In particular, when the color of the object is different from the color of the background, the color blur becomes conspicuous.

本発明は、上記事情に鑑みてなされたものであり、不連続な境目と、エッジの滲みのないぼかし画像を生成することが可能な画像処理装置、撮像装置、画像処理方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an image processing device, an imaging device, an image processing method, and a program capable of generating a blurred image without discontinuous boundaries and edge blurring. For the purpose.

かかる目的を達成するために、本発明は、以下の特徴を有することとする。   In order to achieve this object, the present invention has the following features.

<画像処理装置>
本発明にかかる画像処理装置は、取得された画像情報からオブジェクト領域を抽出する抽出手段と、抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得手段と、取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成手段と、を備えることを特徴とする。
<Image processing device>
An image processing apparatus according to the present invention includes an extraction unit that extracts an object region from the acquired image information, and a region that acquires a plurality of processing regions including the object region based on the extracted size of the object region. The image processing apparatus includes: an acquisition unit; and a generation unit that performs different blurring processing on the acquired processing area and generates a blurred image of the acquired image information.

<撮像装置>
また、本発明にかかる撮像装置は、上記記載の画像処理装置を備えることを特徴とする。
<Imaging device>
An imaging apparatus according to the present invention includes the above-described image processing apparatus.

<画像処理方法>
また、本発明にかかる画像処理方法は、取得された画像情報からオブジェクト領域を抽出する抽出ステップと、抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得ステップと、取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成ステップと、を備えることを特徴とする。
<Image processing method>
According to the image processing method of the present invention, an extraction step for extracting an object region from the acquired image information and a plurality of processing regions including the object region are acquired based on the extracted size of the object region. And a generation step of generating a blurred image of the acquired image information by performing different blurring processes on the acquired processing area.

<プログラム>
また、本発明にかかるプログラムは、上記記載の画像処理方法をコンピュータに実行させることを特徴とする。
<Program>
A program according to the present invention causes a computer to execute the image processing method described above.

本発明によれば、不連続な境目と、エッジの滲みのないぼかし画像を生成することが可能となる。   According to the present invention, it is possible to generate a blurred image without discontinuous boundaries and blurring of edges.

まず、本実施形態の画像処理装置の概要について説明する。   First, an outline of the image processing apparatus of the present embodiment will be described.

本実施形態の画像処理装置は、オリジナル画像に対し、段階的にローパスフィルタ処理を行い、図3〜図5に示す複数の画像データを作成する。図5は、背景部分に最も強いローパスフィルタをかけて作成した画像データを示す。図4は、図5のローパスフィルタよりも弱いローパスフィルタをかけて作成した画像データを示す。図3は、図4のローパスフィルタよりも更に弱いローパスフィルタをかけて作成した画像データを示す。   The image processing apparatus according to the present embodiment performs low-pass filter processing on the original image step by step to create a plurality of image data shown in FIGS. FIG. 5 shows image data created by applying the strongest low-pass filter to the background portion. FIG. 4 shows image data created by applying a low-pass filter weaker than the low-pass filter of FIG. FIG. 3 shows image data created by applying a weaker low-pass filter than the low-pass filter of FIG.

本実施形態の画像処理装置は、図5の領域3を切り出し、図6に示す出力画像に貼り付ける。次に、図4の領域2を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。次に、図3の領域1を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。これにより、不連続な境目がなく、エッジの滲みのないぼかし画像を生成することが可能となる。   The image processing apparatus according to the present embodiment cuts out the region 3 in FIG. 5 and pastes it on the output image shown in FIG. Next, a circle portion indicating the region 2 in FIG. 4 is cut out and pasted on the output image shown in FIG. Next, a circle portion indicating the region 1 in FIG. 3 is cut out and pasted on the output image shown in FIG. As a result, it is possible to generate a blurred image with no discontinuous boundaries and no blurring of edges.

(第1の実施形態)
以下、添付図面を参照しながら、本実施形態の画像処理装置について詳細に説明する。なお、以下の説明では、撮像装置に搭載された画像処理装置を例に説明する。
(First embodiment)
Hereinafter, the image processing apparatus of the present embodiment will be described in detail with reference to the accompanying drawings. In the following description, an image processing apparatus mounted on the imaging apparatus will be described as an example.

<画像処理装置の構成>
まず、図7を参照しながら、本実施形態の画像処理装置の構成について説明する。図7は、撮像装置に搭載された画像処理装置の構成を示すブロック図である。
<Configuration of image processing apparatus>
First, the configuration of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating a configuration of an image processing apparatus mounted on the imaging apparatus.

本実施形態における画像処理装置は、画像入力部101、画像領域分割部102、オブジェクト抽出部103、オブジェクトエッジ処理部111、画像ぼかし処理部104、画像合成部105、画像出力部106、カメラパラメータ入力部107、距離情報取得部108、ぼけ関数取得部109、ぼけ関数DB110を含んで構成している。   The image processing apparatus according to the present embodiment includes an image input unit 101, an image region dividing unit 102, an object extracting unit 103, an object edge processing unit 111, an image blur processing unit 104, an image composition unit 105, an image output unit 106, and camera parameter input. Unit 107, distance information acquisition unit 108, blur function acquisition unit 109, and blur function DB 110.

画像入力部101は、画像を画像領域分割部102に入力するものである。
画像領域分割部102は、画像を細かく分割するものである。
The image input unit 101 inputs an image to the image region dividing unit 102.
The image area dividing unit 102 finely divides an image.

オブジェクト抽出部103は、画像領域分割部102が細かく分割した小領域を組み合わせ、意味のあるオブジェクトを抽出するものである。ここで、意味のあるオブジェクトとは、前景、背景を区別することを意味する。本実施形態では、前景、背景が区別でき、オブジェクト間の距離が分かれば、背景のぼかし処理を実現することが可能となる。オブジェクト間の距離は、距離情報取得部108から取得する。   The object extraction unit 103 combines small areas finely divided by the image area division unit 102 and extracts meaningful objects. Here, the meaningful object means that the foreground and the background are distinguished. In the present embodiment, if the foreground and the background can be distinguished and the distance between the objects is known, the background blurring process can be realized. The distance between the objects is acquired from the distance information acquisition unit 108.

オブジェクトエッジ処理部111は、オブジェクト抽出部103が抽出したオブジェクトを基に、図3〜図5に示すようなオブジェクト領域より一回り大きい領域を指定するマスク(処理領域)を作成するものである。   The object edge processing unit 111 creates a mask (processing region) for designating an area that is slightly larger than the object region as shown in FIGS. 3 to 5 based on the object extracted by the object extracting unit 103.

画像ぼかし処理部104は、ぼけ関数のフィルタを基に、オブジェクト抽出部103が抽出したオブジェクトのぼかし処理を行い、複数枚のぼかし画像(背景)を作成するものである。ぼけ関数のフィルタは、ぼけ関数取得部109から取得する。   The image blur processing unit 104 performs blur processing on the object extracted by the object extraction unit 103 based on the blur function filter to create a plurality of blur images (backgrounds). The blur function filter is acquired from the blur function acquisition unit 109.

画像合成部105は、オブジェクトエッジ処理部111で作成した複数の異なるサイズのマスク(処理領域)と、画像ぼかし処理部104で作成した複数枚のぼかし画像(背景)と、を基に、オブジェクトと、ぼかし画像(背景)と、を合成するものである。   The image compositing unit 105 uses the plurality of different size masks (processing areas) created by the object edge processing unit 111 and the plurality of blurred images (background) created by the image blur processing unit 104 to , And a blurred image (background).

画像出力部106は、画像合成部105で合成した画像を出力するものである。   The image output unit 106 outputs the image synthesized by the image synthesis unit 105.

カメラパラメータ入力部107は、カメラパラメータを入力するものである。   The camera parameter input unit 107 inputs camera parameters.

距離情報取得部108は、距離情報を取得するものである。距離情報取得部109の詳細内部構成を図8に示す。   The distance information acquisition unit 108 acquires distance information. A detailed internal configuration of the distance information acquisition unit 109 is shown in FIG.

距離情報取得部109は、縮小画像入力部201と、エッジ情報計算部202と、距離情報計算部203と、距離情報出力部204と、レンズ焦点調整部205と、を有して構成する。   The distance information acquisition unit 109 includes a reduced image input unit 201, an edge information calculation unit 202, a distance information calculation unit 203, a distance information output unit 204, and a lens focus adjustment unit 205.

レンズ焦点調整部205は、カメラレンズの焦点を調整するものである。
縮小画像入力部201は、複数の異なる焦点位置の画像をエッジ情報計算部202に入力するものである。
The lens focus adjustment unit 205 adjusts the focus of the camera lens.
The reduced image input unit 201 inputs images at a plurality of different focal positions to the edge information calculation unit 202.

エッジ情報計算部202は、縮小画像入力部201から入力された複数の異なる焦点位置の画像を基に、複数の画像ブロックに分割し、同じ位置のブロック領域でのコントラスト値の合計値を求めるものである。
距離情報計算部203は、同じ位置のブロック領域でのコントラスト値を比較し、撮影距離を計算するものである。
距離情報出力部204は、距離情報計算部203が取得した距離情報をオブジェクト抽出部103とぼけ関数取得部109に出力するものである。
The edge information calculation unit 202 divides the image into a plurality of image blocks based on a plurality of images at different focal positions input from the reduced image input unit 201, and calculates a total value of contrast values in the block area at the same position. It is.
The distance information calculation unit 203 compares the contrast values in the block areas at the same position, and calculates the shooting distance.
The distance information output unit 204 outputs the distance information acquired by the distance information calculation unit 203 to the object extraction unit 103 and the blur function acquisition unit 109.

ぼけ関数DB110は、ぼけ関数のフィルタを記憶するものである。ぼけ関数DB110のデータ構造を図9に示す。   The blur function DB 110 stores a blur function filter. The data structure of the blur function DB 110 is shown in FIG.

ぼけ関数DB110は、図9に示すように、距離の差と、焦点距離、F値、開口の形、ぼけ関数のフィルタ、を対応付けて記憶している。このため、距離の差、焦点距離、F値、開口の形に応じて、ぼけ関数のフィルタfの内容が変わることになる。ぼけ関数のフィルタfは、N×Nのフィルタである。各要素の値は、カメラパラメータ、撮影距離によって変化する。カメラレンズの設計値を基に、各要素の値を予め計算し、ぼけ関数DB110に記憶することになる。   As shown in FIG. 9, the blur function DB 110 stores a distance difference, a focal length, an F value, an aperture shape, and a blur function filter in association with each other. For this reason, the content of the filter f of the blur function changes according to the difference in distance, the focal length, the F value, and the shape of the aperture. The blur function filter f is an N × N filter. The value of each element varies depending on camera parameters and shooting distance. Based on the design value of the camera lens, the value of each element is calculated in advance and stored in the blur function DB 110.

ぼけ関数取得部109は、カメラパラメータ入力部107から入力されたカメラパラメータを基に、ぼけ関数DB110からぼけ関数のフィルタfを取得するものである。   The blur function acquisition unit 109 acquires a blur function filter f from the blur function DB 110 based on the camera parameters input from the camera parameter input unit 107.

本実施形態の画像処理装置では、画像領域分割部102、オブジェクト抽出部103が画像情報からオブジェクト領域を抽出する抽出手段を実現する。   In the image processing apparatus of the present embodiment, the image area dividing unit 102 and the object extracting unit 103 realize an extracting unit that extracts an object area from image information.

また、オブジェクトエッジ処理部111が、抽出手段により抽出されたオブジェクト領域のサイズに基づいて、そのオブジェクト領域を包含する複数の処理領域を取得する領域取得手段を実現する。   Further, the object edge processing unit 111 realizes area acquisition means for acquiring a plurality of processing areas including the object area based on the size of the object area extracted by the extraction means.

また、画像ぼかし処理部104、画像合成部105が、領域取得手段により取得された処理領域に異なるぼかし処理を施し、取得された画像情報のぼかし画像を生成する生成手段を実現する。   In addition, the image blur processing unit 104 and the image synthesis unit 105 perform different blur processing on the processing region acquired by the region acquisition unit, and realize a generation unit that generates a blurred image of the acquired image information.

<画像処理装置の処理動作>
次に、図7、図8、図10を参照しながら、本実施形態の画像処理装置の処理動作について説明する。図10は、本実施形態の画像処理装置の処理動作を示す図である。
<Processing operation of image processing apparatus>
Next, the processing operation of the image processing apparatus according to the present embodiment will be described with reference to FIGS. 7, 8, and 10. FIG. 10 is a diagram illustrating a processing operation of the image processing apparatus according to the present embodiment.

<ステップA1〜A3の処理動作>
まず、図7、図8、図10を参照しながら、図7に示す距離情報取得部108の処理動作について説明する。
<Processing of steps A1 to A3>
First, the processing operation of the distance information acquisition unit 108 shown in FIG. 7 will be described with reference to FIGS. 7, 8, and 10.

本実施形態の距離情報取得部108は、レンズ焦点調整部205が、カメラレンズの焦点を調整し、縮小画像入力部201が、複数の異なる焦点位置の画像をエッジ情報計算部202に入力する(ステップA1)。   In the distance information acquisition unit 108 of the present embodiment, the lens focus adjustment unit 205 adjusts the focus of the camera lens, and the reduced image input unit 201 inputs images of a plurality of different focal positions to the edge information calculation unit 202 ( Step A1).

エッジ情報計算部202は、縮小画像入力部201から入力された複数の異なる焦点位置の画像を基に、複数の画像ブロックに分割し、同じ位置のブロック領域でのコントラスト値の合計値を求める(ステップA2)。   The edge information calculation unit 202 divides into a plurality of image blocks based on a plurality of images at different focal positions input from the reduced image input unit 201, and obtains a total value of contrast values in a block region at the same position ( Step A2).

距離情報計算部203は、同じ位置のブロック領域でのコントラスト値を比較し、撮影距離を計算する。例えば、最もコントラスト値の高い画像がそのブロックに焦点があっていると判断し、その画像フレームの焦点位置を基に、撮影距離を計算する。距離情報計算部203は、全てのブロックでの撮影距離情報を計算し、ブロック毎の距離情報を取得する(ステップA3)。なお、距離情報計算部203は、距離測定センサーを使用し、距離情報を取得することも可能である。距離情報出力部204は、距離情報計算部203が取得した距離情報を、オブジェクト抽出部103とぼけ関数取得部109に出力することになる。   The distance information calculation unit 203 compares the contrast values in the block areas at the same position, and calculates the shooting distance. For example, it is determined that the image with the highest contrast value is in focus on the block, and the shooting distance is calculated based on the focal position of the image frame. The distance information calculation unit 203 calculates shooting distance information for all blocks, and acquires distance information for each block (step A3). The distance information calculation unit 203 can also acquire distance information using a distance measurement sensor. The distance information output unit 204 outputs the distance information acquired by the distance information calculation unit 203 to the object extraction unit 103 and the blur function acquisition unit 109.

<ステップB1〜B2の処理動作>
次に、図7、図10を参照しながら、図7に示すカメラパラメータ入力部107と、ぼけ関数取得部109の処理動作について説明する。
<Processing operations of steps B1 and B2>
Next, processing operations of the camera parameter input unit 107 and the blur function acquisition unit 109 shown in FIG. 7 will be described with reference to FIGS.

まず、カメラパラメータ入力部107は、カメラパラメータをぼけ関数取得部109に入力する(ステップB1)。   First, the camera parameter input unit 107 inputs camera parameters to the blur function acquisition unit 109 (step B1).

ぼけ関数取得部109は、カメラパラメータ入力部107から入力されたカメラパラメータを基に、ぼけ関数DB110からぼけ関数のフィルタを取得する(ステップB2)。ぼけ関数取得部109は、ぼけ関数DB110から取得したぼけ関数のフィルタを画像ぼかし処理部104に出力することになる。   The blur function acquisition unit 109 acquires a blur function filter from the blur function DB 110 based on the camera parameters input from the camera parameter input unit 107 (step B2). The blur function acquisition unit 109 outputs the blur function filter acquired from the blur function DB 110 to the image blur processing unit 104.

<ステップS1〜S8の処理動作>
次に、図7、図10を参照しながら、図7に示す画像入力部101、画像領域分割部102、オブジェクト抽出部103、オブジェクトエッジ処理部111、画像ぼかし処理部104、画像合成部105、画像出力部106の処理動作について説明する。
<Processing of steps S1 to S8>
Next, referring to FIGS. 7 and 10, the image input unit 101, the image region dividing unit 102, the object extracting unit 103, the object edge processing unit 111, the image blur processing unit 104, the image composition unit 105, The processing operation of the image output unit 106 will be described.

まず、画像入力部101は、画像を画像領域分割部102に入力する(ステップS1)。   First, the image input unit 101 inputs an image to the image region dividing unit 102 (step S1).

画像領域分割部102は、画像入力部101から入力された画像を細かく分割する(ステップS2)。画像領域分割部102は、画像のエッジ、色などの情報を利用し、画像を分割する。画像の領域分割は、図11に示すようにほぼ同じ色の領域を1つの塊として抽出する。図11では、同じ色の塊オブジェクトA、オブジェクトB、背景Cを抽出している。   The image area dividing unit 102 finely divides the image input from the image input unit 101 (step S2). The image region dividing unit 102 divides the image using information such as the edge and color of the image. In the area division of an image, areas of almost the same color are extracted as one lump as shown in FIG. In FIG. 11, a block object A, an object B, and a background C of the same color are extracted.

画像領域分割部102は、画像の各画素の色を基に、隣画素の色との色差を計算し、色差が所定の閾値以下であれば、同じ塊と判断し、その同じ塊を1つの領域として抽出する。また、画像領域分割部102は、コントラストがほぼ同じ塊を1つの領域として抽出する。   Based on the color of each pixel of the image, the image region dividing unit 102 calculates a color difference with the color of the adjacent pixel, and if the color difference is equal to or less than a predetermined threshold, determines that the same chunk is Extract as a region. The image area dividing unit 102 extracts a block having substantially the same contrast as one area.

ここで、図12を参照しながら、ステップS2の領域分割の処理動作について詳細に説明する。   Here, with reference to FIG. 12, the processing operation of area division in step S2 will be described in detail.

まず、画像を色空間変換し、RGB画像をYUVに変換し、YUV画像を生成する(ステップS21)。Yは画像の輝度であり、UとVとは画素の色特性を示す。Uは輝度信号とB信号の差分であり、Vは輝度信号とR信号との差分である。   First, the image is color space converted, the RGB image is converted to YUV, and a YUV image is generated (step S21). Y is the luminance of the image, and U and V indicate the color characteristics of the pixel. U is the difference between the luminance signal and the B signal, and V is the difference between the luminance signal and the R signal.

次に、Y、U、Vそれぞれの成分に対し、フィルタリング処理を行う(ステップS22)。フィルタリング処理により、ノイズ成分や急激に変化する小さい領域を平均化し、同じ特性の塊を作り易くすることが可能となる。なお、フィルタリング処理に用いるフィルタは、ノイズ除去、平滑効果が得られるものであれば特に限定せず、あらゆるフィルタを適用することが可能である。例えば、平滑効果があるGaussianを適用することも可能である。   Next, a filtering process is performed on each of the Y, U, and V components (step S22). By filtering, it is possible to average noise components and small regions that change rapidly, and to easily create a lump with the same characteristics. Note that the filter used for the filtering process is not particularly limited as long as noise removal and a smoothing effect can be obtained, and any filter can be applied. For example, Gaussian with a smoothing effect can be applied.

次に、フィルタリング処理を行ったY、U、V成分を基に、領域生成を行う(ステップS23)。フィルタリングしたY、U、V成分は、隣り合う画素の差分が所定の閾値より小さければ同じ塊と判断し、塊を作る。閾値は、Y、U、Vそれぞれについて設定する。閾値は、実験により予め調整して設定し、それぞれの閾値をメモリに保存しておく。これにより、特性差の少ない小領域を生成することが可能となる。なお、U、Vの閾値で領域分割を行っても良く、輝度値Yの閾値も含めて、それぞれの閾値で領域分割を行っても良い。このステップS22の処理により、図11に示すように、同じ色の塊オブジェクトA、オブジェクトB、背景Cに分離することが可能になる。   Next, region generation is performed based on the Y, U, and V components subjected to the filtering process (step S23). The filtered Y, U, and V components are determined as the same lump if the difference between adjacent pixels is smaller than a predetermined threshold, and a lump is formed. The threshold is set for each of Y, U, and V. The threshold values are adjusted and set in advance through experiments, and the respective threshold values are stored in a memory. Thereby, it is possible to generate a small region with a small characteristic difference. It should be noted that the region division may be performed using the U and V threshold values, and the region division may be performed using the respective threshold values including the luminance value Y threshold value. By the processing in step S22, it is possible to separate into the same color block object A, object B, and background C as shown in FIG.

次に、小領域を削除する(ステップS24)。ノイズや孤立点の影響により、小さい領域が生成される場合がある。このため、領域面積の閾値を設け、その閾値より小さい領域を隣の領域と融合する。但し、融合する場合には、隣領域との輝度、色差が最も少ない領域と合成する。最小面積の閾値は任意に調整でき、予め設定する。   Next, the small area is deleted (step S24). A small region may be generated due to the influence of noise or isolated points. For this reason, a threshold value for the area is provided, and an area smaller than the threshold value is merged with the adjacent area. However, in the case of merging, it is combined with an area having the smallest luminance and color difference with the adjacent area. The threshold of the minimum area can be adjusted arbitrarily and is set in advance.

次に、ステップS24で融合した領域を領域分割結果として出力する(ステップS25)。融合した領域は、色の近い融合領域、または、コントラスト変化の少ない融合領域となる。これにより、図11に示すように、同じ色で且つコントラスト変化の少ない塊を1つの領域として抽出し、オブジェクトA、オブジェクトB、背景Cに分離することになる。これにより、画像領域分割部102は、画像入力部101から入力された画像を細かく分割し、画像を小領域に分割することが可能となる。   Next, the region merged in step S24 is output as a region division result (step S25). The fused region becomes a fused region with a close color or a fused region with little contrast change. As a result, as shown in FIG. 11, a lump having the same color and little change in contrast is extracted as one region and separated into an object A, an object B, and a background C. Thereby, the image region dividing unit 102 can finely divide the image input from the image input unit 101 and divide the image into small regions.

次に、オブジェクト抽出部103は、ステップS2で画像領域分割部102が分割した小領域を組み合わせ、意味のあるオブジェクトを抽出する(ステップS3)。   Next, the object extraction unit 103 combines the small areas divided by the image area division unit 102 in step S2, and extracts meaningful objects (step S3).

画像領域分割部102は、ステップS2でオブジェクトの塊A、B、Cを作成したので、オブジェクト抽出部103は、距離情報を基に、オブジェクトA、Bと背景Cとの距離差が分かれば、背景のぼかし処理を実現することが可能となる。このため、図13に示すように、A、B、Cのそれぞれの領域に確信度の高いブロックがあれば、そのブロックを用いて、オブジェクト間の距離情報を取得することが可能となる。   Since the image area dividing unit 102 created the object chunks A, B, and C in step S2, the object extracting unit 103, based on the distance information, if the distance difference between the objects A and B and the background C is known, Background blur processing can be realized. For this reason, as shown in FIG. 13, if there is a block with a high certainty factor in each of the areas A, B, and C, it is possible to acquire distance information between objects using the block.

但し、距離情報を取得できない部分があっても、背景のぼかし処理を行うことは可能である。例えば、各オブジェクトの中で、1つのブロックで距離情報が取得できた場合に、その距離情報をオブジェクトの距離情報として使用する。このため、他のブロックの距離情報が取得できなくても良いことになる。   However, it is possible to perform background blurring processing even if there is a portion from which distance information cannot be acquired. For example, when distance information can be acquired by one block in each object, the distance information is used as the distance information of the object. For this reason, it is not necessary to acquire distance information of other blocks.

本実施形態では、オブジェクト抽出部103は、人物の頭、体をそれぞれ小領域とし、2つの領域として分割する。そして、頭領域内のブロックと体領域内のブロックとの距離がほぼ同じであるため、頭と体とを組み合わせて、1つのオブジェクトとして抽出する。また、頭領域内のブロックと体領域内のブロックは、隣の木領域のブロックと距離が異なるため、別のオブジェクトとして抽出する。これにより、図13に示すように、オブジェクトA、オブジェクトBと、背景Cと、をそれぞれ分離することが可能となる。   In the present embodiment, the object extraction unit 103 uses a person's head and body as small areas, and divides the figure into two areas. And since the distance of the block in a head area | region and the block in a body area | region is substantially the same, a head and a body are combined and it extracts as one object. In addition, the blocks in the head region and the blocks in the body region are extracted as different objects because the blocks are different in distance from the blocks in the adjacent wood region. As a result, as shown in FIG. 13, it is possible to separate the object A, the object B, and the background C from each other.

次に、オブジェクトエッジ処理部111は、ステップS3でオブジェクト抽出部103が抽出したオブジェクトを基に、図3〜図5に示すようなオブジェクト領域より一回り大きい領域を指定するマスク(処理領域)を作成する(ステップS4)。これにより、オブジェクトエッジ処理部111は、エッジ部分を連続させるための複数の異なるサイズのマスク(処理領域)を作成することになる。   Next, based on the object extracted by the object extraction unit 103 in step S3, the object edge processing unit 111 sets a mask (processing region) for designating a region that is slightly larger than the object region as shown in FIGS. Create (step S4). As a result, the object edge processing unit 111 creates a plurality of masks (processing regions) having different sizes for making the edge portions continuous.

一回り大きい領域は、ステップS3でオブジェクト抽出部103が抽出したオブジェクトの外周からN画素数だけ離れた領域とする(図3〜6参照)。ここで、Nは可変である。但し、オブジェクトの抽出精度が高ければ、オブジェクトに近いマスクのステップを小さくし、オブジェクトから背景まで、画素Nの大きさを段階的に増やしていく。また、オブジェクトの抽出精度が低ければ、オブジェクトから背景までのマスクのステップを均等にするか、もしくは、オブジェクトに近いほうが、N画素のマスクのステップ間隔を大きくする。その結果、オブジェクト抽出の誤差を目立たなくすることが可能となる。   The area that is slightly larger is an area that is N pixels away from the outer periphery of the object extracted by the object extraction unit 103 in step S3 (see FIGS. 3 to 6). Here, N is variable. However, if the object extraction accuracy is high, the mask step close to the object is reduced, and the size of the pixel N is gradually increased from the object to the background. If the object extraction accuracy is low, the mask steps from the object to the background are made equal, or the closer to the object, the larger the N pixel mask step interval. As a result, the object extraction error can be made inconspicuous.

なお、複数の異なるサイズのマスク(処理領域)を作成する際には、オブジェクト間の距離や、オブジェクト間のぼかし具合の差に応じて、作成するマスクの枚数を変化することが好ましい。例えば、オブジェクト間の距離の差が大きければ、マスクの枚数を段階的に増やし、連続的にぼかしていく。このため、オブジェクト間の距離とマスクの枚数とを対応付けてメモリに予め記録し、測定したオブジェクト間の距離に応じたマスクの枚数をメモリから呼び出すようにすることが好ましい。   When creating a plurality of masks (processing areas) having different sizes, it is preferable to change the number of masks to be created according to the distance between objects and the difference in blurring between objects. For example, if the difference in distance between objects is large, the number of masks is increased stepwise to blur continuously. For this reason, it is preferable that the distance between objects and the number of masks are associated with each other and recorded in advance in a memory, and the number of masks corresponding to the measured distance between objects is called from the memory.

次に、画像ぼかし処理部104は、ぼけ関数取得部109からぼけ関数のフィルタを取得し、その取得したぼけ関数のフィルタを基に、オブジェクトにぼかし処理を行う(ステップS5)。ぼかし処理を行う際は、複数のボケ関数のフィルタを基に、オブジェクトにぼかし処理を行い、図3〜図5に示すように複数枚のぼかし画像を生成する(ステップS6)。これにより、画像ぼかし処理部104は、複数枚のぼかし画像を生成することになる。   Next, the image blur processing unit 104 acquires a blur function filter from the blur function acquisition unit 109, and performs blur processing on the object based on the acquired blur function filter (step S5). When performing the blurring process, the blurring process is performed on the object based on a plurality of blur function filters to generate a plurality of blurred images as shown in FIGS. 3 to 5 (step S6). As a result, the image blur processing unit 104 generates a plurality of blur images.

ここで、オブジェクト周囲領域におけるぼかし具合の決定方法について説明する。
画像ぼかし処理部104は、ぼけ関数のフィルタの強さで、ぼかし具合を調整する。オブジェクトに近いほど、ぼけ関数のフィルタを弱くする。そして、距離の離れたオブジェクトに近づいていくほど、ぼけ関数のフィルタを強くしていく。本実施形態では、ぼけ関数取得部109がぼけ関数DB110から取得したぼけ関数のフィルタを基に、ぼかし具合を調整する。なお、オブジェクト間の距離により、マスクの強さを変化するようにすることも可能である。この場合、オブジェクト間の距離が遠くなればなるほど、マスクのぼかしを強くするようにする。
Here, a method for determining the degree of blurring in the object surrounding area will be described.
The image blur processing unit 104 adjusts the blur condition by the strength of the blur function filter. The closer to the object, the weaker the blur function filter. Then, the closer the object is to the farther away, the stronger the blur function filter. In this embodiment, the blur function is adjusted based on the blur function filter acquired from the blur function DB 110 by the blur function acquisition unit 109. It is also possible to change the strength of the mask depending on the distance between the objects. In this case, the greater the distance between the objects, the stronger the mask blur.

次に、画像合成部105は、ステップS4で生成した複数の異なるサイズのマスク(処理領域)と、ステップS6で生成した複数枚のぼかし画像(背景)と、を基に、オブジェクトと、複数枚のぼかし画像(背景)と、を合成する(ステップS7)。オブジェクトと、複数枚のぼかし画像(背景)と、を合成する際には、複数の異なるサイズのマスク(処理領域)を用いて、複数枚のぼかし画像(背景)から画像を切り出し、画像を合成し、図6に示す画像を生成する。具体的には、図5の領域3を切り出し、図6に示す出力画像に貼り付ける。次に、図4の領域2を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。次に、図3の領域1を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。これにより、不連続な境目がなく、エッジの滲みのないぼかし画像を生成することが可能となる。   Next, the image composition unit 105 generates an object and a plurality of images based on the plurality of masks (processing regions) having different sizes generated in step S4 and the plurality of blurred images (background) generated in step S6. The blurred image (background) is synthesized (step S7). When combining an object and multiple blurred images (background), use multiple different size masks (processing areas) to cut out the images from multiple blurred images (background) and combine the images. Then, the image shown in FIG. 6 is generated. Specifically, the region 3 in FIG. 5 is cut out and pasted on the output image shown in FIG. Next, a circle portion indicating the region 2 in FIG. 4 is cut out and pasted on the output image shown in FIG. Next, a circle portion indicating the region 1 in FIG. 3 is cut out and pasted on the output image shown in FIG. As a result, it is possible to generate a blurred image with no discontinuous boundaries and no blurring of edges.

次に、画像出力部106は、ステップS7で合成した画像を出力する(ステップS8)。   Next, the image output unit 106 outputs the image synthesized in step S7 (step S8).

<本実施形態の画像処理装置の作用・効果>
このように、本実施形態の画像処理装置は、オリジナル画像に対し、段階的にローパスフィルタ処理を行い、図3〜図5に示す複数の画像データを作成する。そして、図5の領域3を切り出し、図6に示す出力画像に貼り付ける。次に、図4の領域2を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。次に、図3の領域1を示す円の部分を切り出し、図6に示す出力画像に貼り付ける。これにより、本実施形態の画像処理装置は、不連続な境目がなく、エッジの滲みのないぼかし画像を生成することが可能となる。
<Operation / Effect of Image Processing Apparatus of Present Embodiment>
As described above, the image processing apparatus according to the present embodiment performs low-pass filter processing on the original image step by step to create a plurality of image data shown in FIGS. 5 is cut out and pasted on the output image shown in FIG. Next, a circle portion indicating the region 2 in FIG. 4 is cut out and pasted on the output image shown in FIG. Next, a circle portion indicating the region 1 in FIG. 3 is cut out and pasted on the output image shown in FIG. As a result, the image processing apparatus according to the present embodiment can generate a blurred image without discontinuous boundaries and without edge blurring.

<本実施形態の画像処理装置を搭載した撮像装置>
次に、図14を参照しながら、上述した図7に示す画像処理装置を搭載した撮像装置のハードウェア構成について説明する。図14は、本実施形態の撮像装置のハードウェア構成を示すブロック図である。
<Imaging Device Incorporating Image Processing Device of Present Embodiment>
Next, the hardware configuration of the imaging apparatus equipped with the above-described image processing apparatus shown in FIG. 7 will be described with reference to FIG. FIG. 14 is a block diagram illustrating a hardware configuration of the imaging apparatus according to the present embodiment.

本実施形態の撮像装置は、撮影光学系1、メカシャッタ2、CCD(Charge Coupled Device)3、CDS(Correlated Double Sampling)回路4、A/D変換器5、モータドライバ6、タイミング信号発生器7、画像処理回路8、CPU9、RAM(Random Access Memory)10、ROM(Read Only Memory)11、SDRAM(Synchronous DRAM)12、圧縮伸張回路13、メモリカード14、操作部15、LCD16を含んで構成している。   The imaging apparatus of the present embodiment includes an imaging optical system 1, a mechanical shutter 2, a CCD (Charge Coupled Device) 3, a CDS (Correlated Double Sampling) circuit 4, an A / D converter 5, a motor driver 6, a timing signal generator 7, Image processing circuit 8, CPU 9, RAM (Random Access Memory) 10, ROM (Read Only Memory) 11, SDRAM (Synchronous DRAM) 12, compression / decompression circuit 13, memory card 14, operation unit 15, LCD16 Yes.

被写体光は、撮影光学系1を通してCCD3に入射される。また、撮影光学系1とCCD3との間には、メカシャッタ2が配置されており、このメカシャッタ2によりCCD3への入射光を遮断することが出来る。撮影光学系1及びメカシャッタ2は、モータドライバ6で駆動する。   Subject light is incident on the CCD 3 through the photographing optical system 1. Further, a mechanical shutter 2 is disposed between the photographing optical system 1 and the CCD 3, and incident light on the CCD 3 can be blocked by the mechanical shutter 2. The photographing optical system 1 and the mechanical shutter 2 are driven by a motor driver 6.

CCD3は、撮像面に結像された光学像を電気信号に変換し、アナログの画像データとしてCDS回路4に出力する。CDS回路4は、CCD3から出力された画像情報のノイズ成分を除去し、A/D変換器5に出力する。A/D変換器5は、デジタル値に変換し、画像処理回路8に出力する。   The CCD 3 converts the optical image formed on the imaging surface into an electrical signal and outputs it to the CDS circuit 4 as analog image data. The CDS circuit 4 removes the noise component of the image information output from the CCD 3 and outputs it to the A / D converter 5. The A / D converter 5 converts it into a digital value and outputs it to the image processing circuit 8.

画像処理回路8は、SDRAM12を用いて、YCrCb変換処理、ホワイトバランス処理、コントラスト補正処理、エッジ強調処理、色変換処理等の各種画像処理を行う。   The image processing circuit 8 uses the SDRAM 12 to perform various image processing such as YCrCb conversion processing, white balance processing, contrast correction processing, edge enhancement processing, and color conversion processing.

ホワイトバランス処理は、画像情報の色濃さを調整する処理である。コントラスト補正処理は、画像情報のコントラストを調整する処理である。エッジ強調処理は、画像情報のシャープネスを調整する処理である。色変換処理は、画像情報の色合いを調整する処理である。   The white balance process is a process for adjusting the color density of image information. The contrast correction process is a process for adjusting the contrast of the image information. The edge enhancement process is a process for adjusting the sharpness of image information. The color conversion process is a process for adjusting the hue of image information.

また、画像処理回路8は、信号処理や画像処理が施された画像情報をLCD16に表示する。また、画像処理回路8は、信号処理、画像処理が施された画像情報を、圧縮伸張回路13を介して、メモリカード14に記録する。   Further, the image processing circuit 8 displays on the LCD 16 image information that has undergone signal processing and image processing. Further, the image processing circuit 8 records the image information subjected to the signal processing and the image processing on the memory card 14 via the compression / decompression circuit 13.

圧縮伸張回路13は、操作部15からの指示により、画像処理回路8から出力される画像情報を圧縮し、メモリカード14に出力すると共に、メモリカード14から読み出した画像情報を伸張し、画像処理回路8に出力する。   The compression / decompression circuit 13 compresses the image information output from the image processing circuit 8 according to an instruction from the operation unit 15, outputs the compressed image information to the memory card 14, and decompresses the image information read from the memory card 14 to perform image processing. Output to circuit 8.

CPU9は、タイミング信号を発生するタイミング信号発生器7を介してCCD3、CDS回路4、A/D変換器5のタイミングを制御する。更に、CPU9は、画像処理回路8、圧縮伸張回路13、メモリカード14を制御する。   The CPU 9 controls the timing of the CCD 3, the CDS circuit 4, and the A / D converter 5 through a timing signal generator 7 that generates a timing signal. Further, the CPU 9 controls the image processing circuit 8, the compression / decompression circuit 13, and the memory card 14.

<本実施形態の撮像装置の処理動作>
次に、図10、図14を参照しながら、本実施形態の撮像装置の処理動作について説明する。
本実施形態の撮像装置は、被写体の距離情報を測定する。次に、モータドライバ6を動かしながら、撮影光学系1及びメカシャッタ2を制御し、焦点位置を変え、複数枚の縮小画像をSDRAM12に入力する。これにより、異なる撮影距離の複数枚の縮小画像がSDRAM12に入力される(ステップS1)。
<Processing Operation of Imaging Device of Present Embodiment>
Next, the processing operation of the imaging apparatus according to the present embodiment will be described with reference to FIGS. 10 and 14.
The imaging apparatus of the present embodiment measures subject distance information. Next, while moving the motor driver 6, the photographing optical system 1 and the mechanical shutter 2 are controlled, the focal position is changed, and a plurality of reduced images are input to the SDRAM 12. As a result, a plurality of reduced images having different shooting distances are input to the SDRAM 12 (step S1).

次に、本撮影を行い、背景ぼけ処理用の大きいサイズの画像をSDRAM12に入力する(ステップA1)。次に、距離測定プログラムをROM11から呼び出し、図10に示すステップA2〜A3の処理を行う。具体的には、各画像をブロックに分割し、同じ位置ブロック内のコントラスト値の合計を計算する。最もコントラスト値の高いブロックは、この位置にフォーカスがあっていると判断し、それをフレームの結像位置とする。そして、結像位置を基に被写体距離を計算する。これにより、距離情報を抽出することが可能となる。   Next, actual shooting is performed, and a large-size image for background blur processing is input to the SDRAM 12 (step A1). Next, the distance measurement program is called from the ROM 11, and the processes of steps A2 to A3 shown in FIG. 10 are performed. Specifically, each image is divided into blocks, and the sum of contrast values in the same position block is calculated. The block with the highest contrast value is determined to be in focus at this position, and this is set as the image forming position of the frame. Then, the subject distance is calculated based on the imaging position. Thereby, distance information can be extracted.

次に、領域分割、オブジェクト抽出プログラムをROM11から呼び出し、図10に示すステップS2〜S3の処理を行う。具体的には、画像のエッジ情報、色情報を使用し、画像を小さい領域に分割する。次に、小領域をまとめ、図11に示すように、オブジェクトを抽出する。オブジェクトを抽出する場合には、色の特性、エッジの特性を基に、共通の属性がある小領域をまとめる。また、測定した距離情報も領域をまとめる際に利用する。距離の近い小領域は、同じグループにし、オブジェクト候補とする。オブジェクトは、人物、前景、背景など意味のある領域である。それぞれの領域での撮影距離は異なる。これにより、図13に示すように、画像をブロックに分割することが可能となる。各ブロック内では、距離測定ソフトウェアによりそれぞれの距離が測定されている。また、図13に示すA,B,Cの距離は、ブロックから取得することになる。   Next, the area division / object extraction program is called from the ROM 11, and the processes of steps S2 to S3 shown in FIG. 10 are performed. Specifically, the image edge information and color information are used to divide the image into smaller areas. Next, the small areas are put together and objects are extracted as shown in FIG. When extracting objects, small areas having common attributes are grouped based on color characteristics and edge characteristics. Further, the measured distance information is also used when collecting the areas. Small areas that are close to each other are grouped together as object candidates. An object is a meaningful area such as a person, foreground, or background. The shooting distance in each area is different. As a result, the image can be divided into blocks as shown in FIG. Within each block, the distance is measured by distance measurement software. Further, the distances A, B, and C shown in FIG. 13 are acquired from the block.

次に、図10に示すステップB2の処理を行い、オブジェクトA,B,Cのぼけ関数のフィルタを取得する。オブジェクトAが主要被写体と判断された場合は、Aに対してぼかし処理を施さない。オブジェクトB、背景Cの撮影距離、カメラパラメータを基に、ぼけ関数DB110からぼけ関数のフィルタを取得する。ぼけ関数のフィルタは、図9に示すfであり、カメラパラメータと撮影距離に応じたぼけ関数のフィルタをぼけ関数DB110から取得する。   Next, the process of step B2 shown in FIG. 10 is performed to obtain a blur function filter of the objects A, B, and C. When the object A is determined as the main subject, the blurring process is not performed on A. Based on the shooting distance and camera parameters of the object B and the background C, the blur function filter is acquired from the blur function DB 110. The blur function filter is f shown in FIG. 9, and a blur function filter corresponding to the camera parameter and the shooting distance is acquired from the blur function DB 110.

次に、図10に示すステップS5〜S6の処理を行い、撮影した元画像Aに対してフィルタf#Bでフィルタリング処理を行い、フィルタリング処理を行った画像BをSDRAM12に格納する。次に、元画像Aに対してフィルタf_Cでフィルタリング処理を行い、フィルタリング処理を行った画像CもSDRAM12に格納する。   Next, the processing of steps S5 to S6 shown in FIG. 10 is performed, the captured original image A is filtered by the filter f # B, and the filtered image B is stored in the SDRAM 12. Next, filtering processing is performed on the original image A with the filter f_C, and the image C on which filtering processing has been performed is also stored in the SDRAM 12.

オブジェクトBとオブジェクトCとの距離は異なるため、遠いものに対して強いローパスフィルタをかけ、強くぼかす。これにより、入力したカメラパラメータと同じカメラのぼけを実現することができる。例えば、一眼レフのパラメータを入力すると、その一眼レフカメラと同じ背景ぼけのある画像を作成することが可能となる。   Since the distance between the object B and the object C is different, a strong low-pass filter is applied to a distant object to blur it strongly. As a result, the same camera blur as the input camera parameter can be realized. For example, when a single-lens reflex parameter is input, an image with the same background blur as that single-lens reflex camera can be created.

また、図10に示すステップS4の処理を行い、エッジ処理用のマスクを生成する。   Further, the process of step S4 shown in FIG. 10 is performed to generate a mask for edge processing.

次に、図10に示すステップS7の処理を行い、元画像AからオブジェクトAの部分を切り出し、画像BからオブジェクトBを切り出し、画像Cから背景部分Cを切り出し、画像を合成する。この場合、オブジェクトと一回り異なるサイズのマスクに合わせ、複数のフィルタリング処理を行い、複数枚のぼかした画像をSDRAM12に格納する。フィルタの強度は、オブジェクトから背景間の距離を段階的に分割し、その距離により、ぼけ関数DB110からぼけ関数のフィルタを取得する。複数のマスクと複数枚ぼかした画像から画像を切り出し、背景ぼかし画像を生成する。   Next, the process of step S7 shown in FIG. 10 is performed, the part of the object A is cut out from the original image A, the object B is cut out from the image B, the background part C is cut out from the image C, and the image is synthesized. In this case, a plurality of filtering processes are performed in accordance with a mask having a size slightly different from that of the object, and a plurality of blurred images are stored in the SDRAM 12. As for the strength of the filter, the distance between the object and the background is divided stepwise, and the blur function filter is acquired from the blur function DB 110 based on the distance. An image is cut out from a plurality of masks and a plurality of blurred images to generate a background blurred image.

本実施形態の撮像装置は、上述した背景ぼかし機能を含むモジュール構成となっており、CPU(プロセッサ)9がROM11からプログラムを読み出して実行することになる。   The imaging apparatus according to the present embodiment has a module configuration including the background blur function described above, and the CPU (processor) 9 reads a program from the ROM 11 and executes it.

(第2の実施形態)
次に、第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment will be described.

第1の実施形態の画像処理装置は、オブジェクト間の距離に応じて、ぼけ関数のフィルタを変更し、オブジェクト周囲領域におけるぼかし具合を調整することにした。   The image processing apparatus according to the first embodiment changes the blur function filter in accordance with the distance between objects, and adjusts the degree of blurring in the object surrounding area.

第2の実施形態の画像処理装置は、オブジェクト間に複数の領域を設定し、オブジェクト間の距離及び撮像距離の差を基に、ぼけ関数のフィルタを変更し、上記設定した各領域におけるぼかし具合を調整することを特徴とする。これにより、オブジェクト間に複数の領域を設定し、その設定した各領域のぼかし画像を作成することが可能となる。   The image processing apparatus according to the second embodiment sets a plurality of areas between objects, changes the blur function filter based on the difference between the distances between the objects and the imaging distance, and determines the degree of blurring in each of the set areas. It is characterized by adjusting. Thereby, it is possible to set a plurality of areas between objects and create a blurred image of each set area.

オブジェクトAとオブジェクトBとの距離が分かれば、ぼけ関数のフィルタ調整を行うことが可能である。また、オブジェクトの撮影距離、オブジェクト間の距離が分かる場合には、オブジェクト間に複数の領域を設定し、オブジェクト間の距離及び撮影距離の差を基に、ぼけ関数のフィルタを変更し、上記設定した各領域におけるぼかし具合を調整することが可能である。この場合、撮影距離及び撮影距離の差を基に、ぼけ関数のフィルタを計算し、その計算したぼけ関数のフィルタを、その撮影距離及び撮影距離の差に対応付けてぼけ関数DB110に保存する。そして、実際に得られた撮影距離及び撮影距離の差を基に、その撮影距離及び撮影距離の差に対応するぼけ関数のフィルタをぼけ関数DB110から取得し、その取得したぼけ関数のフィルタを用いて、各領域におけるぼかし具合を調整し、ぼかし画像を作成する。これにより、オブジェクト間に複数の領域を設定し、その設定した各領域のぼかし画像を作成することが可能となる。   If the distance between the object A and the object B is known, it is possible to adjust the blur function filter. Also, if you know the shooting distance of objects and the distance between objects, set multiple areas between objects, change the blur function filter based on the difference between the distance between objects and shooting distance, and set the above It is possible to adjust the degree of blurring in each area. In this case, a blur function filter is calculated based on the shooting distance and the difference between the shooting distances, and the calculated blur function filter is stored in the blur function DB 110 in association with the difference between the shooting distance and the shooting distance. Based on the actually obtained shooting distance and the difference between the shooting distances, a blur function filter corresponding to the difference between the shooting distance and the shooting distance is obtained from the blur function DB 110, and the obtained blur function filter is used. Adjust the degree of blur in each area to create a blurred image. Thereby, it is possible to set a plurality of areas between objects and create a blurred image of each set area.

(第3の実施形態)
次に、第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment will be described.

第1、第2の実施形態は、図14に示す撮像装置に搭載された画像処理装置を例として説明した。このため、図10に示すように、ステップS1の画像入力と、ステップA1の異なるフォーカス画像入力と、を各々別々に行うようにした。   In the first and second embodiments, the image processing apparatus mounted on the imaging apparatus illustrated in FIG. 14 has been described as an example. For this reason, as shown in FIG. 10, the image input in step S1 and the different focus image input in step A1 are performed separately.

第3の実施形態は、画像ファイルを入力し、図10に示すステップS1の画像入力と、ステップA1の異なるフォーカス画像入力と、を一緒に行い、画像ファイルから距離情報を抽出することを特徴とする。これにより、上述した撮像装置に搭載された画像処理装置と同様な処理を一般的な画像処理装置でも行うことが可能となる。以下、添付図面を参照しながら、本実施形態の画像処理装置について説明する。   The third embodiment is characterized in that an image file is input, the image input in step S1 shown in FIG. 10 and the different focus image input in step A1 are performed together, and distance information is extracted from the image file. To do. As a result, the same processing as that of the image processing apparatus mounted on the imaging apparatus described above can be performed by a general image processing apparatus. The image processing apparatus according to the present embodiment will be described below with reference to the accompanying drawings.

<本実施形態の画像処理装置のハード構成>
まず、図15を参照しながら、本実施形態の画像処理装置のハード構成について説明する。図15は、本実施形態における画像処理装置のハードウェア構成例を示すブロック図である。
<Hardware Configuration of Image Processing Apparatus of Present Embodiment>
First, the hardware configuration of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 15 is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the present embodiment.

本実施形態の画像処理装置は、CPU24、RAM21、ROM22、I/F23、HDD25、CD-ROMドライバ20、メモリカードドライバ27、を有して構成している。   The image processing apparatus according to the present embodiment includes a CPU 24, a RAM 21, a ROM 22, an I / F 23, an HDD 25, a CD-ROM driver 20, and a memory card driver 27.

CPU24は、各部を集中的に制御するものである。ROM22は、BIOSなどを記憶した読出し専用メモリである。RAM21は、各種データを書換え可能に記憶してCPU24の作業エリアとして機能するものである。HDD25は、制御プログラム等を記憶するものである。CD-ROMドライバ20は、CD(Compact Disc)−ROM28を読み取るものである。メモリカードドライバ27は、メモリカード29を読み取るものである。I/F23は、プリンタ部等との通信を司るインタフェースである。   The CPU 24 centrally controls each part. The ROM 22 is a read-only memory that stores a BIOS and the like. The RAM 21 stores various data in a rewritable manner and functions as a work area for the CPU 24. The HDD 25 stores a control program and the like. The CD-ROM driver 20 reads a CD (Compact Disc) -ROM 28. The memory card driver 27 reads the memory card 29. The I / F 23 is an interface that manages communication with the printer unit and the like.

CD-ROM28は、所定の制御プログラムが記憶されている。CPU24は、CD-ROM28に記憶されている制御プログラムをCD-ROMドライブ26で読み取り、HDD25にインストールする。これにより、上述した実施形態と同様な各種の処理を行うことが可能になる。また、メモリカード29には、画像情報などが格納され、メモリカードドライバ27で読み取られる。   The CD-ROM 28 stores a predetermined control program. The CPU 24 reads the control program stored in the CD-ROM 28 with the CD-ROM drive 26 and installs it in the HDD 25. As a result, various processes similar to those in the above-described embodiment can be performed. The memory card 29 stores image information and the like and is read by the memory card driver 27.

記憶媒体としては、CD-ROM28やメモリカード29のみならず、DVDなどの各種の光ディスク、各種光磁気ディスク、フロッピー(登録商標)ディスクなどの各種磁気ディスク、半導体メモリ等、各種方式のメディアを用いることも可能である。   As the storage medium, not only the CD-ROM 28 and the memory card 29 but also various types of media such as various optical disks such as DVD, various magnetic disks such as various magneto-optical disks and floppy (registered trademark) disks, and semiconductor memory are used. It is also possible.

また、インターネットなどのネットワークからプログラムをダウンロードし、HDD25にインストールすることも可能である。この場合は、送信側のサーバでプログラムを記憶している記憶装置も、本実施形態の記憶媒体に相当する。なお、プログラムは、所定のOS(Operating System)上で動作するものも可能である。その場合は、後述の各種処理の一部の実行をOSに肩代わりさせることも可能である。また、ワープロソフトなど所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含むことも可能である。   It is also possible to download a program from a network such as the Internet and install it on the HDD 25. In this case, the storage device that stores the program on the server on the transmission side also corresponds to the storage medium of the present embodiment. Note that the program can also run on a predetermined OS (Operating System). In that case, it is also possible to let the OS take over some of the various processes described below. It can also be included as part of a group of program files that constitute predetermined application software such as word processing software or an OS.

また、本実施形態の画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせるようにすることも可能である。また、本実施の形態の画像処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布することも可能である。また、本実施形態のプログラムを、ROM等に予め組み込んで提供することも可能である。   It is also possible to store a program executed by the image processing apparatus of the present embodiment on a computer connected to a network such as the Internet and download it via the network. It is also possible to provide or distribute a program executed by the image processing apparatus of the present embodiment via a network such as the Internet. It is also possible to provide the program of the present embodiment by incorporating it in a ROM or the like in advance.

<本実施形態の画像処理装置の処理動作>
次に、図16を参照しながら、本実施形態の画像処理装置で行う処理動作について説明する。
<Processing Operation of Image Processing Apparatus of Present Embodiment>
Next, processing operations performed by the image processing apparatus according to the present embodiment will be described with reference to FIG.

本実施形態の画像処理装置で行う処理動作は、図16に示すように、画像ファイルを入力し(ステップS'1)、その画像ファイルから距離情報を抽出し、その抽出した距離情報をオブジェクト抽出部103、ぼけ関数取得部109に出力する(ステップA'3)。なお、他の処理動作は、図10とほぼ同様な処理を行うことになる。   As shown in FIG. 16, the processing operation performed by the image processing apparatus of the present embodiment inputs an image file (step S′1), extracts distance information from the image file, and extracts the extracted distance information as an object. Output to the unit 103 and the blur function acquisition unit 109 (step A′3). The other processing operations are almost the same as those in FIG.

このように、本実施形態の画像処理装置は、画像ファイルを入力し、図10に示すステップS1の画像入力と、ステップA1の異なるフォーカス画像入力と、を一緒に行い(ステップS'1)、画像ファイルから距離情報を抽出する(ステップA'3)。これにより、上述した撮像装置に搭載された画像処理装置と同様な処理を一般的な画像処理装置でも行うことが可能となる。   As described above, the image processing apparatus of the present embodiment inputs an image file, and performs the image input in step S1 shown in FIG. 10 and the different focus image input in step A1 together (step S′1). Distance information is extracted from the image file (step A'3). As a result, the same processing as that of the image processing apparatus mounted on the imaging apparatus described above can be performed by a general image processing apparatus.

なお、上述する実施形態は、本発明の好適な実施形態であり、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。   The above-described embodiment is a preferred embodiment of the present invention, and the scope of the present invention is not limited to the above-described embodiment alone, and various modifications are made without departing from the gist of the present invention. Implementation is possible.

急激なコントラストの変化が発生した状態を示す図である。It is a figure which shows the state in which the sudden change of contrast generate | occur | produced. エッジの滲みが発生した状態を示す図である。It is a figure which shows the state which the blur of edge generate | occur | produced. ローパスフィルタ処理を行い作成した画像データを示す図であり、図4のローパスフィルタよりも弱いローパスフィルタをかけて作成した画像データを示す図である。It is a figure which shows the image data produced by performing a low-pass filter process, and is a figure which shows the image data produced by applying a low-pass filter weaker than the low-pass filter of FIG. ローパスフィルタ処理を行い作成した画像データを示す図であり、図5のローパスフィルタよりも弱いローパスフィルタをかけて作成した画像データを示す図である。It is a figure which shows the image data produced by performing a low-pass filter process, and is a figure which shows the image data produced by applying a low-pass filter weaker than the low-pass filter of FIG. ローパスフィルタ処理を行い作成した画像データを示す図であり、背景部分に最も強いローパスフィルタをかけて作成した画像データを示す図である。It is a figure which shows the image data produced by performing a low-pass filter process, and is a figure which shows the image data produced by applying the strongest low-pass filter to a background part. 図3〜図5に示す画像データを基に作成した出力画像データを示す図である。It is a figure which shows the output image data produced based on the image data shown in FIGS. 本実施形態の画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of this embodiment. 図7に示す距離情報取得部109の詳細内部構成例を示す図である。It is a figure which shows the detailed internal structural example of the distance information acquisition part 109 shown in FIG. ぼけ関数DB110のデータ構造例を示す図である。It is a figure which shows the example of a data structure of the blurring function DB110. 本実施形態の画像処理装置の処理動作を示す図である。It is a figure which shows the processing operation of the image processing apparatus of this embodiment. 画像の領域分割を行った状態を示す図である。It is a figure which shows the state which performed the area | region division of the image. 図10に示すステップS2の領域分割の詳細処理動作例を示す図である。FIG. 11 is a diagram showing an example of detailed processing operation of area division in step S2 shown in FIG. 10. 画像をブロックに分割した状態を示す図である。It is a figure which shows the state which divided | segmented the image into the block. 撮像装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an imaging device. 画像処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an image processing apparatus. 本実施形態の画像処理装置の処理動作を示す図である。It is a figure which shows the processing operation of the image processing apparatus of this embodiment.

符号の説明Explanation of symbols

1 撮影光学系
2 メカシャッタ
3 CCD
4 CDS回路
5 A/D変換器
6 モータドライバ
7 タイミング信号発生器
8 画像処理回路
9 CPU
10 RAM
11 ROM
12 SDRAM
13 圧縮伸張回路
14 メモリカード
15 操作部
16 LCD
21 RAM
22 ROM
23 I/F
24 CPU
25 HDD
26 CD-ROMドライバ
27 メモリカードドライバ
28 CD-ROM
29 メモリカード
101 画像入力部
102 画像領域分割部
103 オブジェクト抽出部
104 画像ぼかし処理部
105 画像合成部
106 画像出力部
107 カメラパラメータ入力部
108 距離情報取得部
109 ぼけ関数取得部
110 ぼけ関数DB
111 オブジェクトエッジ処理部
201 縮小画像入力部
202 エッジ情報計算部
203 距離情報計算部
204 距離情報出力部
205 レンズ焦点調整部
1 Shooting optical system 2 Mechanical shutter 3 CCD
4 CDS circuit 5 A / D converter 6 Motor driver 7 Timing signal generator 8 Image processing circuit 9 CPU
10 RAM
11 ROM
12 SDRAM
13 Compression / Expansion Circuit 14 Memory Card 15 Operation Unit 16 LCD
21 RAM
22 ROM
23 I / F
24 CPU
25 HDD
26 CD-ROM driver 27 Memory card driver 28 CD-ROM
DESCRIPTION OF SYMBOLS 29 Memory card 101 Image input part 102 Image area division part 103 Object extraction part 104 Image blurring process part 105 Image composition part 106 Image output part 107 Camera parameter input part 108 Distance information acquisition part 109 Blur function acquisition part 110 Blur function DB
111 Object Edge Processing Unit 201 Reduced Image Input Unit 202 Edge Information Calculation Unit 203 Distance Information Calculation Unit 204 Distance Information Output Unit 205 Lens Focus Adjustment Unit

Claims (8)

取得された画像情報からオブジェクト領域を抽出する抽出手段と、
抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得手段と、
取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
Extracting means for extracting an object region from the acquired image information;
An area acquisition means for acquiring a plurality of processing areas including the object area based on the extracted size of the object area;
Generating means for performing different blurring processing on the acquired processing area and generating a blurred image of the acquired image information;
An image processing apparatus comprising:
前記領域取得手段は、抽出された前記オブジェクト領域を所定の大きさで順次拡大し、複数の処理領域を取得することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area acquisition unit sequentially enlarges the extracted object area by a predetermined size to acquire a plurality of processing areas. 前記生成手段は、前記オブジェクト領域からの距離に応じて、前記処理領域に異なるぼかし処理を施すことを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit performs different blurring processing on the processing region according to a distance from the object region. 請求項1から請求項3の何れか1項に記載の画像処理装置を備えることを特徴とする撮像装置。   An imaging apparatus comprising the image processing apparatus according to any one of claims 1 to 3. 取得された画像情報からオブジェクト領域を抽出する抽出ステップと、
抽出された前記オブジェクト領域のサイズに基づいて、該オブジェクト領域を包含する複数の処理領域を取得する領域取得ステップと、
取得された前記処理領域に異なるぼかし処理を施し、取得された前記画像情報のぼかし画像を生成する生成ステップと、
を備えることを特徴とする画像処理方法。
An extraction step of extracting an object region from the acquired image information;
An area acquisition step of acquiring a plurality of processing areas including the object area based on the extracted size of the object area;
A generation step of performing different blurring processing on the acquired processing area and generating a blurred image of the acquired image information;
An image processing method comprising:
前記領域取得ステップは、抽出された前記オブジェクト領域を所定の大きさで順次拡大し、複数の処理領域を取得することを特徴とする請求項5に記載の画像処理方法。   6. The image processing method according to claim 5, wherein the area acquiring step sequentially expands the extracted object area by a predetermined size to acquire a plurality of processing areas. 前記生成ステップは、前記オブジェクト領域からの距離に応じて、前記処理領域に異なるぼかし処理を施すことを特徴とする請求項5または6に記載の画像処理方法。   The image processing method according to claim 5, wherein the generation step performs different blurring processing on the processing region according to a distance from the object region. 請求項5から請求項7の何れか1項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。   A program that causes a computer to execute the image processing method according to any one of claims 5 to 7.
JP2008204643A 2008-08-07 2008-08-07 Image processing apparatus, imaging apparatus, image processing method, and program Expired - Fee Related JP5181913B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008204643A JP5181913B2 (en) 2008-08-07 2008-08-07 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008204643A JP5181913B2 (en) 2008-08-07 2008-08-07 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2010039946A true JP2010039946A (en) 2010-02-18
JP5181913B2 JP5181913B2 (en) 2013-04-10

Family

ID=42012387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008204643A Expired - Fee Related JP5181913B2 (en) 2008-08-07 2008-08-07 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5181913B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094131A1 (en) * 2011-12-19 2013-06-27 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and image processing program
US8477199B2 (en) 2009-11-24 2013-07-02 Ricoh Company, Limited Imaging apparatus, image processing method, and computer program product for preventing false motion vector detection
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
JP2017092983A (en) * 2017-01-25 2017-05-25 キヤノン株式会社 Image processing device, image processing method, image processing program, and imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057630A (en) * 1999-08-18 2001-02-27 Fuji Photo Film Co Ltd Image processing unit and image processing method
JP2004303193A (en) * 2003-03-20 2004-10-28 Omron Corp Image processor
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2007066199A (en) * 2005-09-01 2007-03-15 Canon Inc Image processor and image processing method
JP2007281843A (en) * 2006-04-06 2007-10-25 Matsushita Electric Ind Co Ltd Imaging apparatus and image processing method
JP2008118348A (en) * 2006-11-02 2008-05-22 Nikon Corp Electronic camera and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057630A (en) * 1999-08-18 2001-02-27 Fuji Photo Film Co Ltd Image processing unit and image processing method
JP2004303193A (en) * 2003-03-20 2004-10-28 Omron Corp Image processor
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2007066199A (en) * 2005-09-01 2007-03-15 Canon Inc Image processor and image processing method
JP2007281843A (en) * 2006-04-06 2007-10-25 Matsushita Electric Ind Co Ltd Imaging apparatus and image processing method
JP2008118348A (en) * 2006-11-02 2008-05-22 Nikon Corp Electronic camera and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8477199B2 (en) 2009-11-24 2013-07-02 Ricoh Company, Limited Imaging apparatus, image processing method, and computer program product for preventing false motion vector detection
WO2013094131A1 (en) * 2011-12-19 2013-06-27 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and image processing program
JP2013127759A (en) * 2011-12-19 2013-06-27 Canon Inc Image processing device, image pickup device, image processing method, and image processing program
US9251575B2 (en) 2011-12-19 2016-02-02 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and image processing program
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
US9621786B2 (en) 2012-05-17 2017-04-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
US10021290B2 (en) 2012-05-17 2018-07-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
JP2017092983A (en) * 2017-01-25 2017-05-25 キヤノン株式会社 Image processing device, image processing method, image processing program, and imaging device

Also Published As

Publication number Publication date
JP5181913B2 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
JP2009110137A (en) Image processor, image processing method, and image processing program
JP5460173B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP5251629B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
US9413921B2 (en) Imaging apparatus and control method thereof
US8351731B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer program product
JP3944151B2 (en) Image processing method, image processing apparatus, and image processing program
JP2007201541A (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6720881B2 (en) Image processing apparatus and image processing method
JP2015156615A (en) Image processing system, image processing method, control program, and recording medium
JP2011044825A (en) Image processing apparatus, image processing method, and computer program
JP5534832B2 (en) Image processing apparatus, image processing method, and program
JP5181913B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6415063B2 (en) Image processing apparatus, image processing method, control program, and recording medium
JP2008288947A (en) Image processing apparatus and program thereof
JP5509621B2 (en) Image processing apparatus, camera, and program
US9635331B2 (en) Image processing apparatus that performs tone correction and edge enhancement, control method therefor, and storage medium
JP2010199681A (en) Image processing apparatus and program
CN110992284A (en) Image processing method, image processing apparatus, electronic device, and computer-readable storage medium
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
EP3474532A1 (en) Image processing apparatus, image processing method, and program
JP4534750B2 (en) Image processing apparatus and image processing program
JP7375313B2 (en) Image processing device, image processing method, and image processing program
JP2015041865A (en) Image processing apparatus and image processing method
JP6029464B2 (en) Imaging device, control method thereof, and control program
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121231

R151 Written notification of patent or utility model registration

Ref document number: 5181913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees