JP5967172B2 - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP5967172B2 JP5967172B2 JP2014224148A JP2014224148A JP5967172B2 JP 5967172 B2 JP5967172 B2 JP 5967172B2 JP 2014224148 A JP2014224148 A JP 2014224148A JP 2014224148 A JP2014224148 A JP 2014224148A JP 5967172 B2 JP5967172 B2 JP 5967172B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- image processing
- processing apparatus
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000000034 method Methods 0.000 claims description 67
- 230000008569 process Effects 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 4
- 230000004069 differentiation Effects 0.000 claims description 3
- 238000012790 confirmation Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004587 chromatography analysis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、画像処理装置等に係り、ボカシ処理等の画像処理を行う画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus or the like, an image processing apparatus that performs image processing of the blurring process and the like, relates to an image processing method and an image processing program.
近年、デジタルカメラの普及により、デジタルカメラによる静止画像の撮影後に、撮影された静止画像に対して様々なデジタル画像処理が行われるようになっている。ボカシ処理もその一つである。ボカシ処理とは、静止画像のボケ量を変更する処理のことである。 In recent years, with the widespread use of digital cameras, various digital image processing has been performed on captured still images after the still images are captured by the digital cameras. The blur processing is one of them. The blur process is a process for changing the blur amount of a still image.
ボカシ処理の技術として、静止画像に対して合焦させたい画素を選択すると、この画素に対応する部分に合焦されるように、一意に静止画像の各画素に対応する部分のボケ量を変更してボケ画像を生成するという技術がある。この技術は、同一のシーンの静止画像を焦点距離に応じて複数枚用意し、これらの複数枚の静止画像を元に3次元的な距離を算出することで、ボケ量を変更している(例えば、特許文献1参照)。 As a blur processing technique, when a pixel to be focused on a still image is selected, the blur amount of the portion corresponding to each pixel of the still image is uniquely changed so that the portion corresponding to the pixel is focused. Then, there is a technique of generating a blurred image. This technology changes the amount of blur by preparing a plurality of still images of the same scene according to the focal length and calculating a three-dimensional distance based on these still images. For example, see Patent Document 1).
しかし、ボカシ処理を行うために、複数の焦点距離で取得した静止画像が必要であり、1枚の静止画像だけでボカシ処理を行うことができなかった。 However, in order to perform blur processing, still images acquired at a plurality of focal lengths are necessary, and blur processing cannot be performed with only one still image.
そこで、1枚の静止画像が表示された表示部に指でタッチすると、タッチした位置の画素(以下、「注目画素」という)に対応する部分に合焦するように、当該静止画像のデプス・マップ(Depth Map)に応じてボカシ処理を行う技術が提案された(例えば、特許文献2参照)。デプス・マップとは、撮影時のレンズと被写体との距離(以下、「レンズ−被写体間距離」という)を示す距離データを、撮影した静止画像に写り込んだ被写体を構成している複数の画素のかたまりごと若しくは画素ごとに対応させたものの集合をいう。したがって、デプス・マップの距離データを参照することにより、レンズ−被写体間距離がわかる。 Therefore, when a finger touches the display unit on which one still image is displayed, the depth / depth of the still image is focused so that the portion corresponding to the pixel at the touched position (hereinafter referred to as “target pixel”) is focused. A technique for performing blur processing according to a map (Depth Map) has been proposed (see, for example, Patent Document 2). A depth map is a plurality of pixels constituting a subject in which distance data indicating a distance between a lens and a subject at the time of shooting (hereinafter referred to as “lens-subject distance”) is reflected in a shot still image. A set of objects corresponding to each lump or pixel. Accordingly, the distance between the lens and the subject can be determined by referring to the distance data of the depth map.
図14は、表示部に表示された静止画像を示す説明図である。
静止画像702は、犬の被写体703およびこの被写体703に近接する猫の被写体704を含む画像である。
FIG. 14 is an explanatory diagram showing a still image displayed on the display unit.
The still image 702 is an image including a dog subject 703 and a
図15は、撮影時(静止画像702取得時)の撮像レンズ706と被写体703,704の位置関係を示す説明図である。
図15に示すように、被写体703は、被写体704よりも撮像レンズ706から近い位置にある。一方、被写体704は、被写体703よりも撮像レンズ706から遠い位置にある。すなわち、静止画像702において、被写体703を構成する各画素に対応する部分のレンズ−被写体間距離は、被写体704を構成する各画素に対応する部分のレンズ−被写体間距離よりも近くなる。
FIG. 15 is an explanatory diagram showing the positional relationship between the
As shown in FIG. 15, the subject 703 is closer to the
図16は、図14に示した静止画像702の水平方向の破線位置の各画素に対応する部分のデプス・マップを示す分布図である。
縦軸は各画素に対応する部分の距離データが示すレンズ−被写体間距離を表しており、横軸は各画素の画素番号を示している。
被写体703の左端である鼻の位置707に対応する画素番号711のレンズ−被写体間距離が最も近くなる。一方、被写体704の浮き輪の右端の位置708に対応する画素番号712のレンズ−被写体間距離が最も遠くなる。なお、画素番号711の画素(以下、「鼻画素」という)および画素番号712の画素(以下、「浮き輪画素」という)は互いに近隣画素であるが、それぞれの画素間でレンズ−被写体間距離が大幅に異なっている。
FIG. 16 is a distribution diagram showing a depth map of a portion corresponding to each pixel at the position of the horizontal broken line in the still image 702 shown in FIG.
The vertical axis represents the lens-subject distance indicated by the distance data of the portion corresponding to each pixel, and the horizontal axis represents the pixel number of each pixel.
The lens-to-subject distance of
図17は、図14〜図16で説明したような静止画像702に対してユーザが注目画素の選択を行う様子を示す説明図である。
ユーザは、鼻画素を注目画素として選択したい場合、静止画像702の鼻付近を指705でタッチする。このとき鼻画素が正確にタッチされていれば、鼻画素が注目画素として選択され、この鼻画素に対応する部分に合焦するようにボカシ処理がなされる。
FIG. 17 is an explanatory diagram illustrating a state in which the user selects a target pixel for the still image 702 described with reference to FIGS. 14 to 16.
When the user wants to select the nose pixel as the target pixel, the user touches the vicinity of the nose of the still image 702 with the finger 705. At this time, if the nose pixel is touched correctly, the nose pixel is selected as the target pixel, and blur processing is performed so as to focus on the portion corresponding to the nose pixel.
しかしながら、ユーザの指705の太さや接触する面積の違いにより、鼻画素の近隣画素である浮き輪画素が注目画素として選択される可能性がある。この場合、合焦したい鼻画素に対応する部分と大きくレンズ−被写体間距離が異なる浮き輪画素に対応する部分に合焦するようにボカシ処理がなされてしまう。 However, depending on the thickness of the user's finger 705 and the contact area, a floating ring pixel that is a neighboring pixel of the nose pixel may be selected as the target pixel. In this case, the blurring process is performed so as to focus on a portion corresponding to a floating ring pixel having a lens-subject distance greatly different from a portion corresponding to a nose pixel to be focused.
以上のように、特許文献2に記載された技術では、ユーザが希望する画素を選択できていないことがあり、ユーザが合焦させたいと指示した画素の位置(以下、「合焦ポイント」)がずれる可能性があるが、合焦ポイントがどこかを確認する手段がない。そのため、近隣画素間でレンズ−被写体間距離が大幅に異なるような静止画像で、ユーザの意図しないボカシ処理が行われてしまうという問題が生じる。
As described above, in the technique described in
なお、特許文献1に記載された技術においても、合焦ポイントがどこかを確認する手段がない。そのため、近接する画素間でレンズ−被写体間距離が大幅に異なるような静止画像で合焦ポイントがずれていても気づかずに、意図しないボカシ処理が行われてしまうという、特許文献2に記載された技術と同様の問題がある。
In the technique described in Patent Document 1, there is no means for confirming where the in-focus point is. Therefore, it is described in
本発明は、斯かる点に鑑みてなされたものであり、自身が選択した合焦ポイントに基づいて、ユーザの思い通りのボケ画像を得られるようにすることを目的とする。 The present invention has been made in view of such a point, and an object of the present invention is to obtain a user-desired blur image based on a focus point selected by the user.
上記課題を解決するため、本発明は、表示部に表示される画像に対応する距離情報に基づいて、その画像に対する指示体の位置に対応する部分である注目画素に合焦した画像を画像処理部に生成させる。そして、ボケ量調節部に対する指示に応じて、その画像の合焦の度合いを変更した画像を画像処理部に生成させる。 In order to solve the above-described problems, the present invention performs image processing on an image focused on a target pixel , which is a portion corresponding to the position of an indicator with respect to the image , based on distance information corresponding to the image displayed on the display unit. To generate. Then, in response to an instruction to the blur amount adjusting unit , the image processing unit is caused to generate an image in which the degree of focusing of the image is changed .
本発明の上述した構成によれば、ボケ量調節部に対するユーザの指示に応じて、指示体の位置に対応する部分である注目画素に合焦した画像(ボケ画像)に対する各画素の合焦の度合い(ボケ量)が変更される。 According to the above-described configuration of the present invention, in response to a user instruction to the blur amount adjustment unit, each pixel is focused on an image (blurred image) focused on a target pixel that is a portion corresponding to the position of the pointer. The degree (blur amount) is changed.
本発明によれば、ユーザはボケ量調節部に対して指示することにより、自分が選択した注目画素に基づいて、ユーザの思い通りのボケ画像を得ることができる、という効果がある。 According to the present invention, Yu chromatography The is by instructing the blur amount adjustment unit, based on the pixel of interest of your choice, it is possible to obtain he wanted blurred image of the user, there is an effect that.
以下、本発明を実施するための実施形態例について説明する。以下に述べる実施の形態例は、本発明の好適な具体例である。そのため、技術的に好ましい種々の限定が付されている。しかしながら、本発明は、下記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。例えば、以下の説明で挙げる各パラメータの数値的条件は好適例に過ぎず、説明に用いた各図における寸法、形状および配置関係も概略的なものである。 Embodiments for carrying out the present invention will be described below. The embodiments described below are preferable specific examples of the present invention. Therefore, various technically preferable limitations are attached. However, the present invention is not limited to these forms unless otherwise specified in the following description. For example, the numerical conditions of each parameter given in the following description are only suitable examples, and the dimensions, shapes, and arrangement relationships in the drawings used for the description are also schematic.
以下の手順で説明を行う。
<一実施形態例>
1.画像処理装置の外観構成
2.画像処理装置の機能的構成
3.画像処理装置の動作
The description will be made in the following procedure.
<One Embodiment>
1. 1. External configuration of
<本発明の一実施形態例>
本発明の一実施形態の例を、図1〜図12を参照して説明する。
[1.画像処理装置の外観構成]
<One Embodiment of the Present Invention>
An example of an embodiment of the present invention will be described with reference to FIGS.
[1. Appearance configuration of image processing apparatus]
図1は、本発明の一実施形態に係る画像処理装置を示す外観構成図である。
画像処理装置100は、例えば、パーソナルコンピュータ、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話機、テレビジョン放送受像機およびデジタルフォトフレーム等である。画像処理装置100は、CPU(Central Processing Unit)やメモリ等で構成される電子機器を内蔵する筐体102と、筐体102の表面に組み込まれる表示部103とを備える。表示部103は、画像を表示する表示パネル104と、この表示パネル104に積層され、検出面に触れたり置かれたりした指示体の検出面上での位置を検出する位置検出パネル105とで構成されている。なお、指示体とは、例えばユーザの指やタッチペン等である。
FIG. 1 is an external configuration diagram showing an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus 100 is, for example, a personal computer, a digital still camera, a digital video camera, a mobile phone, a television broadcast receiver, a digital photo frame, or the like. The image processing apparatus 100 includes a
このような画像処理装置100は、ユーザの位置検出パネル105に対する操作に基づいて、表示パネル104に表示中の画像を構成する各画素におけるボケ量を変更する処理(以下、「ボカシ処理」)を行い、ボケ画像を生成する。なお、ボカシ処理に係る演算は、筐体102に内蔵されている電子機器によって実行される。
Such an image processing apparatus 100 performs a process of changing the amount of blur in each pixel constituting an image being displayed on the display panel 104 (hereinafter, “blurring process”) based on a user operation on the
[2.画像処理装置の機能的構成]
次に、ボカシ処理を実現するための画像処理装置100の機能的な構成について図2を参照して説明する。
図2は、本発明の一実施形態に係る画像処理装置の構成を示す機能ブロック図である。
[2. Functional configuration of image processing apparatus]
Next, a functional configuration of the image processing apparatus 100 for realizing blur processing will be described with reference to FIG.
FIG. 2 is a functional block diagram showing the configuration of the image processing apparatus according to the embodiment of the present invention.
画像処理装置100は、前述したように、表示部103に相当する表示パネル104および位置検出パネル105を備える。さらに、筐体102(図1を参照)に内蔵される電子機器に相当する制御部201、第1メモリ部204、記録媒体205、画像処理部206および第2メモリ部207を備える。
As described above, the image processing apparatus 100 includes the
記録媒体205は、例えばハードディスクやフラッシュメモリ等の不揮発性の記録媒体であり、ボカシ処理やその他の処理を行うための各種プログラム、予め撮像された画像、当該画像に係るメータデータとしてデプスマップ(Depth Map)等が記録されている。また、記録媒体205には、ボカシ処理により生成されるボケ画像も記録される。なお、この記録媒体205は、内蔵記録媒体でも外付けの記録媒体でもどちらでもよい。
The
ここで、デプス・マップとは、撮影時のレンズと被写体との距離(以下、「レンズ−被写体間距離」という)を示す距離データを、撮影した静止画像に写り込んだ被写体を構成している複数の画素のかたまりごと若しくは画素ごとに対応させたものの集合であり、いわゆる距離データ分布である。また、距離データは、静止画像の各画素に対応する部分の奥行きの深さを示す情報ともいえる。デプス・マップの距離データを参照することにより、レンズ−被写体間距離がわかる。 Here, the de TOPS map, the distance between the shooting lens and the object (hereinafter, - referred to as "lens distance between the subject") the distance data indicating, constitute a subject of elaborate-through to the still pictures This is a group of a plurality of pixels or a set of those corresponding to each pixel, which is a so-called distance data distribution. The distance data can also be said to be information indicating the depth of the portion corresponding to each pixel of the still image. By referring to the depth map distance data, the distance between the lens and the subject can be determined.
この距離データを得る方法としては、例えばTOF(Time of flight)方式やボケ量解析(Depth from Defocus)等を採用することができる。ここで、TOF法式とは、光源から出射された光が対象物で反射し、センサに到達するまでの光の遅れ時間と光の速度とから被写体までの距離を得る手法である。またボケ量解析とは、画像中のボケ量(合焦度合い)の解析結果から被写体までの距離を算出するものである。なお、これらの手法を実現するための具体的な構成としては、例えば特開2009−15828号公報に記載されている。 As a method for obtaining the distance data, for example, a TOF (Time of Flight) method, a blur amount analysis (Depth from Defocus), or the like can be employed. Here, the TOF method is a method for obtaining the distance to the subject from the light delay time until the light emitted from the light source is reflected by the object and reaches the sensor and the speed of the light. The blur amount analysis is to calculate the distance to the subject from the analysis result of the blur amount (focus degree) in the image. A specific configuration for realizing these methods is described in, for example, Japanese Patent Application Laid-Open No. 2009-15828.
制御部201は、記録媒体205から取得し、第1メモリ部204に展開したプログラムに基づいて、制御部201内の各ブロックを機能させるための制御を行うものである。詳細は後述するが、制御部201は、記録媒体205から選択された画像を取得し、取得した画像(以下、「選択画像」という)を表示パネル104に表示させたり、当該選択画像に関する様々な画像を生成して表示パネル104に表示させたりする。この選択画像は画像処理部206にも出力される。なお、第1メモリ部204は、例えばRAM(Random Access Memory)等で構成され、制御部201が動作するのに必要なデータを一時的に記録する。
The control unit 201 performs control for causing each block in the control unit 201 to function based on a program acquired from the
画像処理部206は、制御部201から入力される選択画像に対して、後述する注目画素に対応する部分に合焦するようにボカシ処理を施すものである。ボカシ処理は、選択画像に係るデプス・マップに基づいて実行される。
The
画像処理部206は、ボカシ処理を実行する際に必要なデータ(デプス・マップ等)を一時的に第2メモリ部207に記録する。生成されたボケ画像は、制御部201を介して記録媒体205に記録されるとともに、表示パネル104に出力される。なお、第2メモリ部207は第1メモリ部204と同じRAM等であり、第1メモリ部204と共通としてもよい。
The
次に、制御部201のより詳細な構成について説明する。
制御部201は、表示パネル104に表示する様々な表示画面を生成するために、GUI表示制御部208と、拡大表示制御部209と、アイコン表示制御部210と、輪郭表示制御部211とを備える。
Next, a more detailed configuration of the control unit 201 will be described.
The control unit 201 includes a GUI
GUI表示制御部208は、第1メモリ部204に記録されたプログラムに基づいて、表示パネル104に所定の操作画面や設定画面等を表示して、グラフィカル・ユーザ・インターフェイス(Graphical User Interface:GUI)を実現するためのものである。さらに、位置検出パネル105に対するユーザの操作に応じて、当該ユーザの所望する処理を制御部201に実行させるための操作入力信号を生成する。
The GUI
拡大表示制御部209は、選択画像の一部を拡大表示するためのものである。選択画像が表示パネル104に表示されているときに、位置検出パネル105により指示体の位置が検出されると、当該指示体の位置(以下、「指示体検出位置」という)に対応する画素(以下、「注目画素」)を、選択画像を構成する各画素の中から検出する。そして、表示パネル104内の一部領域を小ウィンドウ(子画面の一例)に割り当て、この小ウィンドウ内に、注目画素を含む所定領域の画像を拡大した拡大画像を表示する。なお、拡大画像の拡大率は、選択画像の解像度に応じて変更可能である。例えば、選択画像の解像度が表示パネルの画面解像度よりも大きい場合、選択画像を圧縮処理せず解像度をそのままにして選択画像の一部領域を小ウィンドウに出力すれば、最も拡大された拡大画像が小ウィンドウに表示される。
The enlarged
アイコン表示制御部210は、ボケ処理を行う際の基準となる注目画素の位置を示すアイコンを表示するためのものである。拡大画像が表示パネル104に表示されているとき、この拡大画像を構成する各画素の中から、選択画像における注目画素に対応する画素(以下、「対応画素」)を特定する。そして、この対応画素を示すためのアイコンを表示パネル104の小ウィンドウに表示する。また、アイコン表示制御部210は、ユーザの検出パネルに対する指示体の操作に基づき、アイコンを移動させる。アイコンが移動すると対応画素が変更されるので、このアイコンの移動に伴って注目画素も変更される。
The icon
輪郭表示制御部211は、被写体の輪郭を明確にして表示するためのものである。拡大画像が表示パネル104に表示されている状態のとき、アイコン表示制御部210で特定された注目画素を含む被写体の輪郭(以下、「注目輪郭」という)を検出する。そして、この注目輪郭が明確になるような表示を表示パネル104に対して行う。例えば、注目輪郭の色を強調色に変更したり、注目輪郭で囲まれる領域の色を変更したりすることにより、注目輪郭を明確にする。
The contour
[3.画像処理装置の動作]
次に、画像処理装置の動作について、図3〜図11を参照して説明する。
図3は、本発明の一実施形態に係る画像処理装置の動作の流れを示すフローチャートである。図2に示した構成で実現される本発明の特徴部分の処理は、特に以下に示すステップS9〜ステップS16の処理である。
[3. Operation of image processing apparatus]
Next, the operation of the image processing apparatus will be described with reference to FIGS.
FIG. 3 is a flowchart showing an operation flow of the image processing apparatus according to the embodiment of the present invention. The processing of the characteristic part of the present invention realized by the configuration shown in FIG. 2 is particularly processing of steps S9 to S16 described below.
まず、ユーザは、画像処理装置100の電源をONする(ステップS1)。すると、制御部201は、現在の編集モードが静止画像の編集モード(以下、静止画編集モード)に設定されているか否かを確認する(ステップS2)。 First, the user turns on the image processing apparatus 100 (step S1). Then, the control unit 201 confirms whether or not the current editing mode is set to a still image editing mode (hereinafter, still image editing mode) (step S2).
静止画像編集モードに設定されていないならば(ステップS2のNO)、処理を終了する。静止画像編集モードに設定されているならば(ステップS2のYES)、制御部201は、現在の編集モードが静止画像のボケ量を編集するモード(以下、「ボケ量編集モード」という)に設定されているか否かをさらに確認する(ステップS3)。 If the still image editing mode is not set (NO in step S2), the process ends. If the still image editing mode is set (YES in step S2), the control unit 201 sets the current editing mode to a mode for editing the blur amount of the still image (hereinafter referred to as “blur amount editing mode”). It is further confirmed whether or not it has been performed (step S3).
ボケ量編集モードに設定されていないならば(ステップS3のNO)、処理を終了する。ボケ量編集モードに設定されているならば(ステップS3のYES)、制御部201は、記録媒体205に記録されている静止画像の一覧を表示パネル104に表示する(ステップS4)。
If the blur amount edit mode is not set (NO in step S3), the process is terminated. If the blur amount editing mode is set (YES in step S3), the control unit 201 displays a list of still images recorded on the
ユーザは、位置検出パネル105を用いて、表示パネル104上に表示された静止画像の中から、編集する画像を選択する(ステップS5のYES)。すると、制御部201は、図4に示すように、選択された静止画像を選択画像402として表示パネル104に表示する(ステップS6)。
The user uses the
続いて、GUI表示制御部208は、「合焦させたいポイントをタッチしてください。」という文章を含むGUIを生成し、表示パネル104に一時的に表示する(ステップS7)。このGUIが表示パネル104から消去された後に、制御部201は、位置検出パネル105が指示体でタッチされた(指示体の位置検出を行った)か否かを確認する(ステップS8)。位置検出パネル105が一定時間タッチされていないならば(ステップS8のNO)、ステップS7の処理に戻る。
Subsequently, the GUI
例えば、図5に示すように、指示体403で位置検出パネル105がタッチされたならば(ステップS8のYES)、拡大表示制御部209は、選択画像402を構成する各画素の中から、指示体403の位置に対応する注目画素を検出する。そして、図6に示すように、表示パネル104の例えば右下の一部領域を小ウィンドウ404に割り当て、この小ウィンドウ404内に、注目画素を含む所定領域の選択画像402を拡大した拡大画像405を表示する(ステップS9)。
For example, as shown in FIG. 5, when the
続いて、アイコン表示制御部210は、拡大画像405を構成する各画素の中から、ステップS9の処理で特定された注目画素に対応する対応画素を特定する。そして、図7に示すように、特定した対応画素の位置を示すための「○(丸印)」のアイコン406を小ウィンドウ404内に表示する(ステップS10)。
Subsequently, the icon
ステップS10の処理で対応画素が特定されると、輪郭表示制御部211は、図7に示すように、対応画素を含む被写体である「浮き輪」の輪郭を注目輪郭407として検出する。そして、注目輪郭407に所定の色をつけて小ウィンドウ404内に表示する。なお、注目輪郭407の検出方法については、図12を参照して後述する。
When the corresponding pixel is specified in the process of step S <b> 10, the contour
ここで、現在の注目画素を合焦ポイントにするか否かをユーザに確認させる。すなわち、GUI表示制御部208は、図8に示すように、「現在のポイントで焦点を合わせますか?」という文章、「YES」ボタンおよび「NO」ボタンを含む確認用GUI408を生成する。そして、表示パネル104の小ウィンドウ404以外の領域に確認用GUI408を表示する(ステップS11)。
Here, the user is confirmed whether or not the current pixel of interest is set as a focusing point. That is, the GUI
「YES」ボタンが指示体403でタッチされたならば(ステップS11のYES)、拡大表示制御部209は、小ウィンドウ404の表示を停止する(ステップS17)。そして、画像処理部206は、選択画像402のデプス・マップを利用して、選択画像402を構成する各画素毎に、現在の注目画素に対応する部分に合焦されるようなボケ量(以下、「注目画素合焦ボケ量」という)を計算する(ステップS18)。そして、選択画像402を構成する各画素毎のボケ量を注目画素合焦ボケ量に変更する(ステップS19)。すると、ボケ量が変更された選択画像(以下、「編集画像」という)が、表示パネル104に入力・表示される(ステップS20)。
If the “YES” button is touched with the indicator 403 (YES in step S11), the enlarged
以上の処理が完了した後、現在のボケ量でいいか否かをユーザに確認させる。すなわち、GUI表示制御部208は、ステップS10の処理と同様に、「今のボケ量の設定で良いですか?」という文章、「YES」ボタンおよび「NO」ボタンを含む確認用GUIを生成する。そして、生成した確認用GUIを表示パネル104に表示する(ステップS21)。「YES」のボタンが指示体403でタッチされたならば(ステップS21のYES)、GUI表示制御部208は、当該確認用GUIの表示パネル104に対する表示を停止する。そして、「編集した画像を保存しますか?」という文章、「YES」ボタンおよび「NO」ボタンを含む確認用GUIを生成し、表示パネル104に表示する(ステップS26)。「NO」ボタンが指示体403でタッチされたならば(ステップS26のNO)、ステップS3の処理に戻る。
After the above processing is completed, the user is confirmed whether or not the current blur amount is acceptable. That is, the GUI
「YES」ボタンが指示体403でタッチされたならば(ステップS26のYES)、画像処理部206は、編集画像のデータをJPEG(Joint Photographic Experts Group)圧縮する。そして、Jpeg方式による画像ファイルを生成する(ステップS27)。制御部201は、ステップS27の処理で生成された画像ファイルのファイル名をインクリメントして記録媒体205に記録し(ステップS28)、処理を終了する。なお、ステップS28の処理は、記録媒体205に記録される画像ファイルのファイル名を、前回生成された画像ファイルのファイル名と異なるファイル名にするための処理である。
If the “YES” button is touched with the indicator 403 (YES in step S26), the
ところで、確認用GUI408(図8を参照)の「NO」ボタンが指示体403でタッチされたならば(ステップS11のNO)、GUI表示制御部208は、確認用GUI408の表示を停止する。そして、図9に示すように、「○マークを上下に動かしてください。」という文章および「OK」ボタンを含む確認用GUI409を新たに生成する。続いて、表示パネル104の小ウィンドウ404以外の領域に確認用GUI409を表示する(ステップS12)。
If the “NO” button of the confirmation GUI 408 (see FIG. 8) is touched with the indicator 403 (NO in step S11), the GUI
確認用GUI409の「OK」ボタンが指示体403でタッチされたならば(ステップS13のYES)、GUI表示制御部208は、確認用GUI409の表示を停止する。そして、「○(丸印)」のアイコン406の位置を変更するための位置調節用GUI410および「位置が決定したら決定を押してください。」という文章と「決定」ボタンとを含む確認用GUI411を生成する。生成された位置調節用GUI410および確認用GUI411は、図10に示すように表示パネル104の小ウィンドウ404以外の領域に表示される(ステップS14)。
If the “OK” button of the confirmation GUI 409 is touched with the indicator 403 (YES in step S13), the GUI
ユーザは、位置調節用GUI410としてアイコン表示されているカーソルキーを指示体403で操作することにより、アイコンの位置を小ウィンドウ404上で移動させる(ステップS15)。このアイコン406の移動に伴い、対応画素を含む被写体が「浮き輪」から「犬」に変更された場合(図11を参照)、輪郭表示制御部211は、「犬」の輪郭を注目輪郭412として検出する。そして、注目輪郭412に所定の色をつけて小ウィンドウ404内に表示する。
The user moves the position of the icon on the
以上の処理が完了した後、制御部201は、確認用GUI411の「決定」ボタンが指示体403でタッチされたか否かを確認する(ステップS16)。「決定」ボタンがタッチされていないならば(ステップS16のNO)、ステップS15の処理に戻り、「○(丸印)」のアイコン406の位置をさらに変更する。「決定」ボタンがタッチされたならば(ステップS16のYES)、前述のステップS11の処理に移行する。
After the above processing is completed, the control unit 201 confirms whether or not the “OK” button of the confirmation GUI 411 is touched with the indicator 403 (step S16). If the “OK” button is not touched (NO in step S16), the process returns to step S15 to further change the position of the
一方、ステップS21の処理で生成された確認用GUIの「NO」のボタンがタッチされたならば(ステップS21のNO)、GUI表示制御部208は、ステップS20の処理で生成された編集画像のボケ量を調節するためのボケ量調節用GUIを生成する。そして、生成したボケ量調節用GUIを表示パネル104に表示する(ステップS22)。このボケ量調節用GUIは「+」ボタンと「−」ボタンで構成されており、「+」ボタンが押されると編集画像のボケ量を上げ、「−」ボタンが押されると編集画像のボケ量を下げるものである。
On the other hand, if the “NO” button of the confirmation GUI generated in the process of step S21 is touched (NO in step S21), the GUI
このとき、さらに、GUI表示制御部208は、「ボケ量を変更して最適な値になったら決定ボタンを押してください。」という文書および「決定」ボタンを含む確認用GUIを生成する。そして、生成した確認用GUIを表示パネル104に表示する(ステップS23)。
At this time, the GUI
ユーザがボケ量調節用GUIの「+」ボタンおよび「−」ボタンを操作する。すると、画像処理部は、編集画像を構成する各画素における現在のボケ量を、「+」ボタンおよび「−」ボタンに対するユーザの操作に応じたボケ量に変更して新たな編集画像を生成する(ステップS24)。 The user operates the “+” button and the “−” button of the blur amount adjustment GUI. Then, the image processing unit changes the current blur amount in each pixel constituting the edited image to a blur amount corresponding to the user's operation on the “+” button and the “−” button, and generates a new edited image. (Step S24).
以上の処理が完了した後、制御部201は、ステップS23の処理で生成された確認用GUIの「決定」ボタンが指示体403でタッチされたか否かを確認する(ステップS25)。「決定」ボタンがタッチされていないならば(ステップS25のNO)、ステップS23の処理に戻る。「決定」ボタンがタッチされたならば(ステップS25のYES)、GUI表示制御部208は、当該確認用GUIおよびボケ調節用GUIの表示パネル104に対する表示を停止し、ステップS26の処理に移行する。
After the above process is completed, the control unit 201 confirms whether or not the “determine” button of the confirmation GUI generated in the process of step S23 is touched with the indicator 403 (step S25). If the “OK” button has not been touched (NO in step S25), the process returns to step S23. If the “OK” button is touched (YES in step S25), the GUI
次に、ステップS10やステップS15の処理において、輪郭表示制御部211が注目輪郭407,412を検出する処理(以下、「注目輪郭検出処理」という)について図12を参照して説明する。
図12は、本発明の一実施形態に係る画像処理装置による注目輪郭検出処理を示す説明図である。
図12(a)は、小ウィンドウ内に表示される拡大画像を示す説明図である。
図12(b)は、図12(a)に示す破線部分の各画素に対応する部分のデプス・マップを示す分布図である。縦軸は、前述の距離データが示すレンズ−被写体間距離を表しており、横軸は各画素の画素番号を示している。
Next, processing in which the contour
FIG. 12 is an explanatory diagram showing attention contour detection processing by the image processing apparatus according to the embodiment of the present invention.
FIG. 12A is an explanatory diagram showing an enlarged image displayed in the small window.
FIG. 12B is a distribution diagram showing a depth map of a portion corresponding to each pixel of the broken line portion shown in FIG. The vertical axis represents the lens-to-subject distance indicated by the distance data, and the horizontal axis represents the pixel number of each pixel.
注目輪郭検出処理が開始されると、輪郭表示制御部211は、拡大画像405において、現在の対応画素502を含む行方向の各画素(以下、「n行目の各画素」という)におけるデプス・マップ(n行目の各画素に対応する部分の距離データ)を取得する。なお、n行目の各画素は図12に示す破線部分に相当する。そして、拡大画像405においてレンズ−被写体間距離が急激に変化している部分、すなわちn行目の輪郭を形成している輪郭画素503がどの画素番号かを調べるため、取得したデプス・マップを画素番号で微分して微分デプス・マップを算出する(処理1)。
When the target contour detection process is started, the contour
続いて、輪郭表示制御部211は、算出した微分デプス・マップの絶対値が所定のしきい値よりも大きい画素番号を検出する。検出した画素番号の画素が輪郭画素503に相当する(処理2)。
Subsequently, the contour
次に、輪郭表示制御部211は、対応画素502から最も近い2つの輪郭画素503a,503bを、注目輪郭を形成する各画素の一部の画素(以下、「該当画素」という)として認定する(処理3)。
Next, the contour
ここで、輪郭表示制御部211は、n+1行目の各画素におけるデプス・マップ(n+1行目の各画素に対応する部分の距離データ)を取得する。そして、取得したデプス・マップを画素番号で微分して微分被写界強度分布を算出する(処理4)。そして、処理4で算出した微分被写界強度分布に対して、処理2と同じ処理を行う(処理5)。
Here, the contour
続いて、輪郭表示制御部211は、n+1行目の輪郭画素の中で、n行目の該当画素(輪郭画素503a,503b)と隣接する画素を、n+1行目の該当画素として認定する(処理6)。
Subsequently, the contour
以上の処理が完了した後、輪郭表示制御部211は、処理4〜処理6を繰り返す(処理7)。そして、拡大画像の列方向に対しても処理1〜処理7を行うことにより、注目輪郭が二次元的に検出される(処理8)。
After the above processing is completed, the contour
以上説明したように、本発明の一実施形態では、注目画素を含む拡大画像およびこの注目画素に対応する対応画素の位置を示すアイコンを小ウィンドウ内に表示することができる。これにより、ユーザは自身が選択した注目画素を拡大画像ではっきり把握することができ、注目画素の選択ミスを防止できる。その結果、ユーザの思い通りのボケ画像を得ることができる、という効果がある。 As described above, in one embodiment of the present invention, an enlarged image including the target pixel and an icon indicating the position of the corresponding pixel corresponding to the target pixel can be displayed in the small window. As a result, the user can clearly grasp the target pixel selected by the user in the enlarged image, and can prevent selection errors of the target pixel. As a result, there is an effect that a blurred image as desired by the user can be obtained.
また、本発明の一実施形態では、アイコンを小ウィンドウ上で移動させることにより、対応画素に対応している注目画素も変更することができる。これにより、変更後の注目画素を把握することができ、注目画像の選択ミスをより確実に防止できる。 In one embodiment of the present invention, the pixel of interest corresponding to the corresponding pixel can be changed by moving the icon on the small window. Thereby, the target pixel after the change can be grasped, and a selection error of the target image can be prevented more reliably.
また、本発明の一実施形態では、注目画素を含む被写体の輪郭を強調した拡大画像を、小ウィンドウに表示することができる。これにより、注目画素がどの被写体に含まれるものかを、ユーザにより分かりやすく知らせることができる。その結果、注目画像の選択ミスをより確実に防止できる。 In one embodiment of the present invention, an enlarged image in which the contour of the subject including the target pixel is emphasized can be displayed in a small window. As a result, it is possible to inform the user in an easy-to-understand manner to which subject the target pixel is included. As a result, it is possible to more reliably prevent an erroneous selection of the target image.
なお、上述した一実施形態では、拡大画像405上で対応画素を示すアイコン406を動かして、注目画素を選択するようにした。しかし、図13に示すように、注目画素を示すアイコン602を選択画像402上に表示するようにし、この選択画像402上でアイコン602を動かして注目画素を直接選択できるようにしてもよい。このようにした場合、処理するデータ量を減らすことができるので、処理の高速化を図ることができる。なお、選択画像において、注目画素を含む被写体の輪郭を強調して表示するようにしてもよいことはいうまでもない。
In the above-described embodiment, the target pixel is selected by moving the
また、上述した一実施形態では、注目輪郭の検出を行う際に、デプス・マップの微分を利用して境界画素を検出した。しかし、デプス・マップの二重微分を利用して境界画素を検出することもできる。具体的には、拡大画像を構成する各画素におけるデプス・マップの二重微分値がゼロになるものが境界画素に相当する。 In the above-described embodiment, the boundary pixel is detected using the differential of the depth map when detecting the target contour. However, boundary pixels can also be detected using double differentiation of the depth map. Specifically, a pixel in which the double differential value of the depth map at each pixel constituting the enlarged image becomes zero corresponds to a boundary pixel.
また、上述した一実施形態では、注目輪郭の検出には距離データを用いたが、輝度を利用して注目輪郭を検出することもできる。例えば、拡大画像の任意の画素と隣接画素の輝度を比較して、この隣接画素との輝度差が所定値以上の画素から注目輪郭を検出する。その他、濃淡画像による物体検出により、注目輪郭を検出したりしてもよいことはいうまでもない。 In the above-described embodiment, the distance data is used to detect the target contour. However, the target contour can also be detected using luminance. For example, the brightness of an arbitrary pixel of an enlarged image is compared with the brightness of an adjacent pixel, and a target contour is detected from a pixel having a brightness difference between the adjacent pixel and a predetermined value. In addition, it goes without saying that the contour of interest may be detected by detecting an object based on a grayscale image.
また、上述した一実施形態では、位置調節用GUI410を用いてアイコン406の位置を変更するようにしたが、小ウィンドウ404において指示体でタッチした位置にアイコン406を移動させるようにしてもよい。
In the above-described embodiment, the position of the
また、上述した一実施形態では、「○(丸印)」のアイコンとしたが、アイコンはこれに限られない。例えば、「×(バツ印)」でもよい。その場合、「×」のアイコンは「○」のアイコンと比較して背景の画像が隠れる部分が少なくなり、ユーザはより多くの情報を得られる。 In the above-described embodiment, the “O (circle)” icon is used, but the icon is not limited thereto. For example, “× (cross mark)” may be used. In this case, the “x” icon has fewer portions where the background image is hidden compared to the “◯” icon, and the user can obtain more information.
また、上述した一実施形態では、ステップS14,16,22,23,25の各処理においてGUIに対して操作するようにしたが、装置本体にハードキーを設け、このハードキーで操作できるようにしてもよい。 In the above-described embodiment, the GUI is operated in the processes of steps S14, S16, S22, S23, and S25. However, a hard key is provided in the apparatus body so that the hard key can be operated. May be.
また、上述した一実施形態では、編集画像データをJPEG方式で圧縮したが、これに限られない。圧縮方式は、例えば、GIF(Graphics Interchange Format)方式、PNG(Portable Network Graphics)方式、BMP(Bitmap)方式あるいはTIFF(Tagged Image File Format)方式であってもよい。 In the above-described embodiment, the edited image data is compressed by the JPEG method. However, the present invention is not limited to this. The compression method may be, for example, a GIF (Graphics Interchange Format) method, a PNG (Portable Network Graphics) method, a BMP (Bitmap) method, or a TIFF (Tagged Image File Format) method.
また、上述した一実施形態では、新たに生成した画像ファイルのファイル名をインクリメントするようにしたが、フォルダ名をインクリメントしたフォルダを生成し、当該フォルダ内に、新たに生成したファイルを保存するようにしてもよい。 In the above-described embodiment, the file name of the newly generated image file is incremented. However, a folder with the folder name incremented is generated, and the newly generated file is stored in the folder. It may be.
また、上述した一実施形態では、表示パネルの右下の一部領域を小ウィンドウに割当てて、この小ウィンドウに拡大画像を表示するようにしたが、これに限られない。例えば、表示パネルにおいて、自分が選択した注目画素が中心となるような一部領域を小ウィンドウに割当てて、この小ウィンドウに拡大画像を重畳して表示するようにしてもよい。これにより、ユーザは、自分で選択した注目画素に対応する位置から目線を動かさずに対応画素の確認が行えるようになるので、表示パネルの右下に小ウィンドウを表示する場合と比較して対応画素の選択がよりしやすくなる、という効果がある。 In the above-described embodiment, a partial area at the lower right of the display panel is assigned to a small window and an enlarged image is displayed in the small window. However, the present invention is not limited to this. For example, on the display panel, a partial area centered on the pixel of interest selected by the user may be assigned to the small window, and the enlarged image may be superimposed and displayed on the small window. As a result, the user can check the corresponding pixel without moving the line of sight from the position corresponding to the pixel of interest selected by himself / herself, which is compared with the case where a small window is displayed at the lower right of the display panel. There is an effect that the selection of pixels becomes easier.
また、上述した一実施形態において、ボケ画像を生成する際に、撮影モード、シーン確認、被写体検出もしくはユーザのボケ画像編集の学習履歴等に基づいてボケ量を決定するようにしてもよい。 In the above-described embodiment, when a blurred image is generated, the amount of blur may be determined based on a shooting history, scene confirmation, subject detection, or a user's blurred image editing learning history.
また、上述した一実施形態では、注目画素に対応する位置に合焦するように静止画像のボケ量を調節するようにしたが、各フレーム毎の注目画素に対応する位置に合焦するようにして動画像のボケ量を調節することもできる。動画像のボケ量を調節する手順は以下のとおりである。動画像のボケ量の調節は、上述した一実施形態と同様に画像処理部206と制御部201により実行することができる。
In the embodiment described above, the blur amount of the still image is adjusted so as to focus on the position corresponding to the target pixel. However, the focus is set on the position corresponding to the target pixel for each frame. You can also adjust the amount of motion blur. The procedure for adjusting the amount of blur of a moving image is as follows. Adjustment of the blur amount of the moving image can be executed by the
まず、ユーザは動画編集モードを選択して、動画像の編集を開始する。そして、編集したい動画像を選択する。次に、選択された動画像を再生させ、ユーザが編集したいと思うフレームの画像(選択画像)を選択する。そして、選択画像において、上述した一実施形態と同様にして注目画素を決定する。 First, the user selects a moving image editing mode and starts editing a moving image. Then, a moving image to be edited is selected. Next, the selected moving image is reproduced, and the image (selected image) of the frame that the user wants to edit is selected. Then, in the selected image, the target pixel is determined in the same manner as in the above-described embodiment.
注目画素を決定後、動画像の再生が再開されると、画像処理部206は、動画像に関して、各フレームにおける注目画素に対応する位置に合焦するようなボカシ処理を実行する。具体的には、現在の注目画素を含む所定の範囲(周辺領域)の画素から構成される画像(以下、「テンプレート画像」)を選択画像から切り出す。このテンプレート画像を、動画像を構成する各フレームの画像それぞれと比較してテンプレートマッチングを行う。なお、テンプレート画像と各フレームの画像それぞれとの比較には、輝度、距離データが示すレンズ−被写体間距離あるいは色等が用いられる。
When the reproduction of the moving image is resumed after determining the pixel of interest, the
次に、テンプレート画像と似ている、すなわちテンプレート画像の輝度、距離データが示すレンズ−被写体間距離あるいは色等を示す値が最も近い該当箇所をフレーム毎に検出する。そして、検出した各フレームの該当箇所毎に、注目画素に対応する部分と最もレンズ−被写体間距離が近い画素をそれぞれ特定することにより、各フレームにおける注目画素を追跡する。続いて、各フレームの注目画素の位置に合焦するように、デプス・マップ(Depth Map)に基づいて各フレームの画像のボケ量を調節する。 Next, a corresponding portion that is similar to the template image, that is, the closest value indicating the lens-to-subject distance or color indicated by the brightness and distance data of the template image is detected for each frame. Then, the pixel of interest in each frame is tracked by identifying the pixel having the closest lens-to-subject distance to the portion corresponding to the pixel of interest for each detected portion of each frame. Subsequently, the blur amount of the image of each frame is adjusted based on a depth map so as to focus on the position of the target pixel of each frame.
なお、動画像のボケ量を調節する他の方法として、注目画素を含む被写体画像の動体検出(動き検出)を各フレームで行い、テンプレートマッチングを行う際に、動体検出した各被写体画像をテンプレート画像の比較対象としてもよい。また、動画像が例えばMPEG(Moving Picture Experts Group)方式でエンコードされたものである場合、上述の動体検出の処理をMPEG方式の信号処理と共通化して実施することも可能である。この場合、この動画像をMPEG方式でデコードしながら同時に前述のような動体検出を行うこともできる。 As another method for adjusting the blur amount of the moving image, the moving object detection (motion detection) of the subject image including the target pixel is performed in each frame, and when performing template matching, each moving subject detected subject image is a template image. It is good also as a comparison object. In addition, when a moving image is encoded by, for example, an MPEG (Moving Picture Experts Group) method, the above-described moving object detection processing can be performed in common with MPEG signal processing. In this case, it is possible to simultaneously detect the moving object as described above while decoding the moving image by the MPEG method.
以上のボカシ処理が完了した後、制御部201は、ボケ量が調節された動画像を動画像ファイルとして記録媒体205に記録するとともに、動画像ファイルのファイル名をインクリメントする。このようにして記録媒体205に保存された動画ファイルに対して、ファイルの分割やつなぎ合わせる処理を行うことで、ボカシ処理にて生成した動画像をより有効活用できる、という効果がある。
After the above blur processing is completed, the control unit 201 records the moving image whose blur amount is adjusted as a moving image file on the
以上、本発明の各実施形態の例について説明したが、本発明は上記各実施形態例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことはいうまでもない。 As mentioned above, although the example of each embodiment of the present invention was explained, the present invention is not limited to the above-mentioned each embodiment, and it is not limited to the scope of the present invention described in the claims. Needless to say, modifications and application examples are included.
100…画像処理装置、102…筐体、103…表示部、104…表示パネル、105…位置検出パネル、201…制御部、204…第1メモリ部、205…記録媒体、206…画像処理部、207…第2メモリ部、208…GUI表示制御部、209…拡大表示制御部、210…アイコン表示制御部、211…輪郭表示制御部、402…選択画像、403…指示体、404…小ウィンドウ、405…拡大画像、406…アイコン、407…注目輪郭、408…確認用GUI、409…確認用GUI、410…位置調節用GUI、411…確認用GUI、412…注目輪郭、702…静止画像、703,704…被写体、705…指、707,708…位置、709,710…画素 DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus, 102 ... Housing | casing, 103 ... Display part, 104 ... Display panel, 105 ... Position detection panel, 201 ... Control part, 204 ... 1st memory part, 205 ... Recording medium, 206 ... Image processing part, 207 ... second memory unit, 208 ... GUI display control unit, 209 ... enlarged display control unit, 210 ... icon display control unit, 211 ... contour display control unit, 402 ... selected image, 403 ... indicator, 404 ... small window, 405: enlarged image, 406: icon, 407: attention outline, 408 ... confirmation GUI, 409 ... confirmation GUI, 410: position adjustment GUI, 411 ... confirmation GUI, 412 ... attention outline, 702: still image, 703 , 704 ... Subject, 705 ... Finger, 707, 708 ... Position, 709, 710 ... Pixel
Claims (20)
前記注目画素に合焦した前記画像の前記距離情報に基づき計算されるボケ量を、前記ボケ量を加える操作部および前記ボケ量を減じる操作部のそれぞれに対するユーザの操作に応じて変更した前記画像が生成され、
前記ボケ量を変更した前記画像が生成された後、前記ユーザの指示に基づき当該ボケ量で前記画像を決定する処理が実行されるよう制御する画像処理制御部、を備える
画像処理装置。 Based on the distance information corresponding to the image displayed on the display unit, an image focused on the target pixel, which is a portion corresponding to the position corresponding to the user's instruction for the image, is generated,
The image obtained by changing the blur amount calculated based on the distance information of the image focused on the target pixel in accordance with a user operation on each of the operation unit for adding the blur amount and the operation unit for reducing the blur amount. Is generated,
An image processing apparatus comprising: an image processing control unit configured to perform control so as to execute a process of determining the image with the amount of blur based on an instruction of the user after the image with the amount of blur being changed is generated.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the blur amount is changed for each pixel constituting the image focused on the target pixel.
請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image processing control unit controls the operation unit that adds the blur amount and the operation unit that reduces the blur amount to be displayed on the display unit as a GUI.
請求項1乃至3のいずれかに記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising: a display control unit that displays an icon on a pixel corresponding to a position of an indicator according to the user's instruction.
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the display of the icon is switched according to an instruction from the indicator.
請求項4又は5に記載の画像処理装置。 The image processing apparatus according to claim 4 or 5 , wherein display of a target pixel that is a pixel corresponding to the position of the indicator or a target contour including a pixel corresponding to the target pixel is switched according to an instruction from the indicator. .
前記注目輪郭は、前記距離情報の前記関数を前記画素で微分して求められる微分値が所定のしきい値よりも大きい画素から形成される
請求項6に記載の画像処理装置。 The distance information is represented by a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The image processing device according to claim 6, wherein the target contour is formed of pixels having a differential value obtained by differentiating the function of the distance information with the pixels and larger than a predetermined threshold value.
前記注目輪郭は、前記距離情報の前記関数を前記画素で二重微分して求められる二重微分値がゼロになる画素から形成される
請求項6に記載の画像処理装置。 The distance information is a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The image processing device according to claim 6, wherein the target contour is formed from a pixel in which a double differential value obtained by double differentiation of the function of the distance information with the pixel is zero.
前記表示制御部は、前記拡大画像が前記表示部に表示されているとき、前記拡大画像を構成する各画素の中から前記注目画素に対応する画素を特定し、該注目画素に対応する画素を示すための前記アイコンを前記子画面上に表示する
請求項4又は5に記載の画像処理装置。 An enlarged display control unit that displays a child screen including an enlarged image of a portion corresponding to the target pixel of the image on the display unit;
When the enlarged image is displayed on the display unit, the display control unit specifies a pixel corresponding to the pixel of interest from each pixel constituting the enlarged image, and selects a pixel corresponding to the pixel of interest. The image processing apparatus according to claim 4, wherein the icon for indicating is displayed on the sub-screen.
請求項9に記載の画像処理装置。 The image processing apparatus according to claim 9, wherein the enlarged display control unit displays the child screen on the display unit so as to overlap with a region including a portion corresponding to the target pixel of the image.
前記表示制御部は、前記子画面に表示された前記拡大画像の前記距離情報の前記関数を前記画素で微分した微分値が所定のしきい値よりも大きくなる画素から、前記指示体の位置に対応する画素である注目画素もしくは前記注目画素に対応する画素を含む注目輪郭を検出する
請求項9又は10に記載の画像処理装置。 The distance information is a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The display control unit moves from the pixel whose differential value obtained by differentiating the function of the distance information of the enlarged image displayed on the child screen to a position of the indicator is larger than a predetermined threshold value. The image processing apparatus according to claim 9, wherein a target contour that is a corresponding pixel or a target contour including a pixel corresponding to the target pixel is detected.
前記表示制御部は、前記子画面に表示された前記拡大画像の前記距離情報の前記関数を前記画素で二重微分した二重微分値がゼロになる画素から、前記指示体の位置に対応する画素である注目画素もしくは前記注目画素に対応する画素を含む注目輪郭を検出する
請求項9又は10に記載の画像処理装置。 The distance information is a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The display control unit corresponds to a position of the indicator from a pixel in which a double differential value obtained by double differentiation of the function of the distance information of the enlarged image displayed on the sub-screen is zero. The image processing apparatus according to claim 9, wherein a target contour including a target pixel that is a pixel or a pixel corresponding to the target pixel is detected.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image is a still image recorded in a recording unit.
請求項13に記載の画像処理装置。 The image processing device according to claim 13, wherein the still image is recorded in the recording unit together with the distance information.
請求項13に記載の画像処理装置。 The image processing device according to claim 13, wherein the still image is a still image constituting a moving image recorded in the recording unit.
請求項15に記載の画像処理装置。 The image processing apparatus according to claim 15, wherein the degree of focusing of another still image including the target pixel constituting the moving image is also changed based on the change of the degree of focusing on the still image.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the display unit includes a display panel that displays the image and a position detection panel that detects a position on a detection surface of an indicator according to an instruction from the user.
請求項17に記載の画像処理装置。 The image processing apparatus according to claim 17, wherein the position of the indicator with respect to the image is determined based on contact of the indicator with the position detection panel.
前記画像処理制御部により、前記注目画素に合焦した前記画像の前記距離情報に基づき計算されるボケ量を、前記ボケ量を加える操作部および前記ボケ量を減じる操作部のそれぞれに対するユーザの操作に応じて変更した前記画像が生成されるように制御するステップと、
前記画像処理制御部により、前記ボケ量を変更した前記画像が生成された後、前記ユーザの指示に基づき当該ボケ量で前記画像を決定する処理が実行されるよう制御するステップと、を備える
画像処理方法。 Based on the distance information corresponding to the image displayed on the display unit, the image processing control unit generates an image focused on the target pixel, which is a portion corresponding to the position corresponding to the user's instruction for the image. Step to control,
A user operation on each of an operation unit for adding the blur amount and an operation unit for reducing the blur amount calculated by the image processing control unit based on the distance information of the image focused on the target pixel. Controlling to generate the image modified according to:
And a step of controlling the image processing control unit to execute a process of determining the image with the blur amount based on an instruction from the user after the image with the blur amount changed is generated. Processing method.
前記注目画素に合焦した前記画像の前記距離情報に基づき計算されるボケ量を、前記ボケ量を加える操作部および前記ボケ量を減じる操作部のそれぞれに対するユーザの操作に応じて変更した前記画像を生成する処理と、
前記ボケ量を変更した前記画像が生成された後、前記ユーザの指示に基づき当該ボケ量で前記画像を決定する処理とを、
コンピュータに実行させる画像処理プログラム。 Based on distance information corresponding to the image displayed on the display unit, a process of generating an image focused on the target pixel, which is a portion corresponding to a position corresponding to the user's instruction for the image,
The image obtained by changing the blur amount calculated based on the distance information of the image focused on the target pixel in accordance with a user operation on each of the operation unit for adding the blur amount and the operation unit for reducing the blur amount. Processing to generate
After the image with the blur amount changed is generated, a process of determining the image with the blur amount based on an instruction from the user.
An image processing program to be executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014224148A JP5967172B2 (en) | 2014-11-04 | 2014-11-04 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014224148A JP5967172B2 (en) | 2014-11-04 | 2014-11-04 | Image processing apparatus, image processing method, and image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010065022A Division JP5760324B2 (en) | 2010-03-19 | 2010-03-19 | Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015079519A JP2015079519A (en) | 2015-04-23 |
JP5967172B2 true JP5967172B2 (en) | 2016-08-10 |
Family
ID=53010830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014224148A Active JP5967172B2 (en) | 2014-11-04 | 2014-11-04 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5967172B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6593629B2 (en) | 2015-09-09 | 2019-10-23 | ソニー株式会社 | Image processing apparatus, solid-state imaging device, and electronic device |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331806A (en) * | 2000-05-22 | 2001-11-30 | Nec Corp | Image processing system |
JP2003141506A (en) * | 2001-11-01 | 2003-05-16 | Seiko Epson Corp | Image processing apparatus and image processing program |
JP2004152217A (en) * | 2002-11-01 | 2004-05-27 | Canon Electronics Inc | Display device with touch panel |
JP2004289383A (en) * | 2003-03-20 | 2004-10-14 | Seiko Epson Corp | Image pickup device, image data generating device, image data processor, and image data processing program |
JP4882319B2 (en) * | 2005-09-08 | 2012-02-22 | パナソニック株式会社 | Information display device |
JP2008021228A (en) * | 2006-07-14 | 2008-01-31 | Renesas Technology Corp | Data processor |
JP5109803B2 (en) * | 2007-06-06 | 2012-12-26 | ソニー株式会社 | Image processing apparatus, image processing method, and image processing program |
JP5012396B2 (en) * | 2007-10-16 | 2012-08-29 | 日産自動車株式会社 | White line detection device, parking and stopping support device, and white line detection method |
JP2009218806A (en) * | 2008-03-10 | 2009-09-24 | Seiko Epson Corp | Device and method for processing image, and program therefor |
JP4900723B2 (en) * | 2008-03-14 | 2012-03-21 | ソニー株式会社 | Image processing apparatus, image processing program, and display apparatus |
JP2009253873A (en) * | 2008-04-10 | 2009-10-29 | Sony Corp | Device and method for processing image, and program |
JP5110588B2 (en) * | 2008-06-12 | 2012-12-26 | シャープ株式会社 | Portable information terminal, control method thereof, control program, and recording medium |
-
2014
- 2014-11-04 JP JP2014224148A patent/JP5967172B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015079519A (en) | 2015-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5760324B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded | |
JP5652652B2 (en) | Display control apparatus and method | |
JP5613187B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND SUSTAINABLE COMPUTER-READABLE MEDIUM CONTAINING CODE FOR CAUSING COMPUTER TO CONTROL IMAGING DEVICE | |
JP6366395B2 (en) | Zoom control device, imaging device, control method for zoom control device, control program for subject detection device, and storage medium | |
US20080284900A1 (en) | Digital camera | |
US20050134719A1 (en) | Display device with automatic area of importance display | |
JP6370140B2 (en) | Zoom control device, imaging device, control method for zoom control device, control program for zoom control device, and storage medium | |
JP2006148260A (en) | Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium | |
KR20150071660A (en) | Control apparatus, imaging system, control method, and recording medium | |
JP2019176249A (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP6500535B2 (en) | Image processing apparatus, image processing method and program | |
KR20120002834A (en) | Image pickup apparatus for providing reference image and method for providing reference image thereof | |
WO2017130522A1 (en) | Image processing device, image capturing device, image processing method and program | |
JP5266701B2 (en) | Imaging apparatus, subject separation method, and program | |
JP2013058861A (en) | Image processor, and method and program for controlling image processor | |
US9214193B2 (en) | Processing apparatus and method for determining and reproducing a number of images based on input path information | |
JP5967172B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6120541B2 (en) | Display control apparatus and control method thereof | |
JP4967938B2 (en) | Program, image processing apparatus, and image processing method | |
JP2010016693A (en) | Electronic camera | |
JP5570348B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019041188A (en) | Image processing apparatus, imaging apparatus, control method of image processing apparatus, and program | |
JP2018006803A (en) | Imaging apparatus, control method for imaging apparatus, and program | |
JP2009049457A (en) | Imaging device and program | |
JP2006094202A (en) | Imaging apparatus, focusing processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160620 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5967172 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |