JP2005293367A - Image processing method and device - Google Patents
Image processing method and device Download PDFInfo
- Publication number
- JP2005293367A JP2005293367A JP2004109230A JP2004109230A JP2005293367A JP 2005293367 A JP2005293367 A JP 2005293367A JP 2004109230 A JP2004109230 A JP 2004109230A JP 2004109230 A JP2004109230 A JP 2004109230A JP 2005293367 A JP2005293367 A JP 2005293367A
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- candidate
- relevance
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、ユーザーが画像中の任意の点を指定した後、その点を含む所望の領域を抽出
する際に用いて好適な画像処理方法及び装置に関する。
The present invention relates to an image processing method and apparatus suitable for use in extracting a desired region including a point after a user designates an arbitrary point in an image.
デジタルカメラとPC(パーソナルコンピュータ)などの普及によって、デジタルカメ
ラで撮影した画像データをPC上で簡単に編集できるようになってきた。さらに、撮影後
すぐに画像データを編集したいという要求がでてきている。例えば、デジタルカメラや携
帯電話などの撮影した機器内で、(簡易的な)編集を行いたいという要求や、撮影した画
像のチェックを簡単に行いたいという要求がある。
With the widespread use of digital cameras and PCs (personal computers), image data taken with digital cameras can be easily edited on a PC. Furthermore, there is a demand for editing image data immediately after shooting. For example, there is a request to perform (simple) editing within a device such as a digital camera or a mobile phone, or a request to easily check a captured image.
しかし、デジタルカメラや携帯電話といった携帯機器では、マウスなどのインターフェ
ースが使えないため、例えば、画像のある部分を拡大したいといった場合、所望の領域の
左上と右下を十字キーを何度も押して指定する必要があるなど、煩雑な操作を強いられて
いた。
However, since portable devices such as digital cameras and mobile phones cannot use an interface such as a mouse, for example, when you want to enlarge a certain part of an image, specify the upper left and lower right of the desired area by pressing the cross key repeatedly. For example, it was necessary to perform complicated operations.
別の技術的な背景としては、画像処理技術において、画像をいくつかの領域に分割する
手法、あるいは、画像中からある領域を抽出する手法はいくつか提案されている。しかし
、例えば、誘目度として人が注目する領域を推定する手法などはあるものの、抽出した領
域それぞれの関係や重要度を計算する手法は少ない。したがって、いくつかの領域に分割
された画像から、複数の領域を含めて指定したい場合は、その分割数分の領域を指定する
ための複数回の操作が必要となる。具体的には、複数の人物写真(団体写真)などの場合
、各人毎に領域抽出できるが、両隣1人ずつを含めて拡大するといったことは、複数回の
指定操作が必要である。
As another technical background, in the image processing technique, several methods for dividing an image into several regions or extracting a certain region from the image have been proposed. However, for example, although there is a method for estimating an area attracted by a person as the degree of attraction, there are few methods for calculating the relationship and importance of each extracted region. Therefore, when it is desired to specify a plurality of areas from an image divided into several areas, it is necessary to perform a plurality of operations for specifying the areas corresponding to the number of divisions. Specifically, in the case of a plurality of person photographs (group photographs) or the like, an area can be extracted for each person, but enlarging to include one person on both sides requires a plurality of designation operations.
画像中のある点を指定して拡大する処理において、最も簡単な手法は、特許文献1に記
載されているように、所定の倍率で画像中心/所定の点を中心に領域を確定する方法が考
えられる。しかし、この場合、最適な倍率というものは存在しないため、例えば、1.1
倍ずつ拡大させていくというような操作を繰り返しユーザーに強いることになる。
In the process of enlarging by designating a certain point in the image, the simplest method is to determine the area around the image center / predetermined point at a predetermined magnification as described in
The user is forced to repeatedly perform operations such as magnifying each time.
また、特許文献2に記載されているように倍率を指定することなく、複写物から有効画
像領域を検出し、出力する用紙に合わせて拡大する手法も提案されている。しかし、有効
画像領域とは、画像やテキストなどの無い空白領域以外のことであり、本発明が対象とし
ているような、画像内の有効領域を検出する手法とは異なる。
In addition, as described in
次に、ユーザーに指定させた1点から、ある特徴を計算し領域を抽出する手法がある。
例えば、特許文献3では、輪郭抽出を行い画像から領域を抽出する。しかし、この方法で
は、1つの領域しか特定できず、背景などを同時に選択したいなど、複数の領域に渡る抽
出はすることはできない。
For example, in
上記のような方法では、予め定められた手法で正当な結果を得られた場合であっても、
ユーザーが所望する領域にならない場合がある。例えば、同じ画像であってもユーザーが
所望する領域は、隣の人物を含めた領域であったり、上半身までの領域であったりする場
合が考えられる。このような場合、上記のような方法では、簡単な操作で、ユーザーの希
望を正確に反映した領域を抽出することはできないという課題があった。
In the above method, even when a valid result is obtained by a predetermined method,
There may be cases where the user does not have the desired area. For example, even if it is the same image, the region desired by the user may be a region including an adjacent person or a region up to the upper body. In such a case, the above-described method has a problem that it is not possible to extract a region that accurately reflects the user's wishes with a simple operation.
例えば近似色領域を抽出する方法では、例えば顔領域の1点から、顔領域以外を抽出で
きないという課題がある。また、形状を用いる場合では、様々な形状を検索可能にするた
めには、複数の形状を記憶しておく必要があるが、現実的にはその種類の多さから困難と
言える。
For example, in the method of extracting the approximate color area, there is a problem that, for example, other than the face area cannot be extracted from one point of the face area. In addition, in the case of using shapes, it is necessary to store a plurality of shapes in order to be able to search various shapes, but it can be said that it is actually difficult because of the number of types.
本発明は、上記の事情に鑑みてなされたものであり、簡単な操作で所望の領域を抽出す
ることができる画像処理方法及び装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing method and apparatus capable of extracting a desired region with a simple operation.
上記課題を解決するため、本発明は、画像からユーザーが所望する領域を抽出する画像
処理方法であって、画像を領域分割するステップと、ユーザーの指示に応じて画像中の1
点を指定するステップと、指定点を含む領域と他の領域の関連度を解析する関連度解析ス
テップと、指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を
抽出するステップと、複数の候補領域をユーザーに提示するステップと、ユーザーの指示
に応じて表示した候補領域を選択するステップとを含んでいることを特徴とする。
In order to solve the above problems, the present invention is an image processing method for extracting a region desired by a user from an image, the step of dividing the image into regions, and 1 in the image according to a user instruction.
Multiple candidate regions are extracted by combining a step that specifies points, a relevance analysis step that analyzes the degree of association between an area that includes the specified point and other areas, and an area that includes the specified point and multiple areas that have a high degree of association And a step of presenting a plurality of candidate areas to the user, and a step of selecting the candidate areas displayed according to the user's instruction.
本発明では、画像をあらかじめ領域分割を行っておき、ユーザーが画像中の任意の点を
指定した際に、その点を含む領域と、その領域に関連する領域を解析し、関連度合いによ
って複数の領域をユーザーに提示する。これにより、ユーザーが画像中の任意の点を指定
するだけで、複数の領域が自動的に提示される。これらのなかから所望の領域を選択すれ
ば、所望の領域を簡単に抽出することが可能となる。
In the present invention, when an image is divided into regions in advance and the user designates an arbitrary point in the image, the region including the point and the region related to the region are analyzed, and a plurality of points are determined depending on the degree of association. Present the area to the user. Thus, a plurality of areas are automatically presented only by the user specifying an arbitrary point in the image. If a desired area is selected from these, it is possible to easily extract the desired area.
他の発明は、前記関連度解析ステップにおいて、指定点との距離を指標として、距離が
近いものを関連度が高い領域とすることを特徴とする。これによれば、指定点との距離を
指標として関連度が求められるので、ユーザーが指定した領域と近い領域を選択して抽出
したいという希望を持っている場合に対応することができる。
Another aspect of the invention is characterized in that, in the relevance analysis step, a distance from a designated point is used as an index, and a region having a close distance is defined as a region having a high relevance. According to this, since the degree of association is obtained using the distance from the designated point as an index, it is possible to cope with a case where there is a desire to select and extract an area close to the area designated by the user.
他の発明は、前記関連度解析ステップにおいて、指定点を含む領域と隣接するものを関
連度が高い領域とすることを特徴とする。これによれば、ユーザーが指定した領域と隣接
した領域を選択して抽出したいという希望を持っている場合に対応することができる。
Another invention is characterized in that, in the relevance analysis step, a region adjacent to a region including a designated point is set as a region having a high relevance. According to this, it is possible to cope with a case where there is a desire to select and extract an area adjacent to the area designated by the user.
他の発明は、前記関連度解析ステップにおいて、指定点を含む領域を抱合しているもの
を関連度が高い領域とすることを特徴とする。これによれば、抱合関係(各領域の状態を
変化させずに結合している関係)にあれば、候補領域として提示されるので、ユーザーが
指定した領域と抱合している領域を選択して抽出したいという希望を持っている場合に対
応することができる。
Another invention is characterized in that, in the relevance analysis step, a region that includes a designated point is combined as a region having a high relevance. According to this, if there is a conjugation relationship (relationship that does not change the state of each region), it is presented as a candidate region, so select the region that is conjugated with the region specified by the user This can be done when there is a desire to extract.
他の発明は、前記関連度解析ステップにおいて、指定点を含む領域に対する形状又は色
の少なくとも一方に係る相似度を指標として、相似度が高いものを関連度が高い領域とす
ることを特徴とする。これによれば、ユーザーが指定した領域と形状や色の相似度が高い
領域を選択して抽出したいという希望を持っている場合に対応することができる。
Another invention is characterized in that, in the relevance analysis step, a region having a high degree of similarity is defined as a region having a high degree of relevance, using as an index the similarity of at least one of the shape and color of the region including the designated point. . According to this, it is possible to cope with a case where there is a desire to select and extract a region having a high degree of similarity in shape and color with the region designated by the user.
他の発明は、前記前記関連度解析ステップにおいて、特定の色や形状間の関連性をあら
かじめ記憶しておき、その関連性を指標として用いることを特徴とする。これによれば、
関連度を簡単な処理で求めることが可能になる。
Another invention is characterized in that, in the relevance analysis step, the relevance between specific colors and shapes is stored in advance, and the relevance is used as an index. According to this,
The degree of relevance can be obtained by simple processing.
他の発明は、前記関連度解析ステップにおいて、面積を指標として、比較的大きな面積
を持つものを関連度が低い領域とすることを特徴とする。これによれば、ユーザーが指定
した領域と比較的小さい領域とを選択して抽出したいという希望を持っている場合に対応
することができる。
Another invention is characterized in that, in the relevance analysis step, a region having a relatively large area is defined as a region having a low relevance, using the area as an index. According to this, it is possible to cope with a case where there is a desire to select and extract a region designated by the user and a relatively small region.
他の発明は、前記複数の領域候補を抽出するステップにおいて、所定の値以上の関連度
である領域を関連性の高い領域として、関連性の高い領域と指定点を含む領域の合成領域
を候補領域として抽出することを特徴とする。これによれば、指定領域と関連度がより高
い領域とをユーザーが容易に選択して抽出することができるようになる。
In another aspect of the present invention, in the step of extracting the plurality of region candidates, a region having a relevance level equal to or higher than a predetermined value is set as a highly related region, and a combined region of a highly related region and a region including a designated point is selected. It is characterized by extracting as a region. According to this, the user can easily select and extract the designated area and the area having a higher degree of association.
他の発明は、前記複数の領域候補を抽出するステップにおいて、複数の関連性のある領
域と指定点を含む領域の合成領域を候補領域として抽出することを特徴とする。これによ
れば、指定領域と関連度がより高い複数の領域とをユーザーが容易に選択して抽出するこ
とができるようになる。
Another invention is characterized in that, in the step of extracting the plurality of region candidates, a combined region of a plurality of related regions and a region including a designated point is extracted as a candidate region. According to this, the user can easily select and extract the designated region and a plurality of regions having a higher degree of association.
他の発明は、前記複数の領域候補を抽出するステップにおいて、候補領域Aが、別の候
補領域Bに所定の割合で含まれていて、候補領域Aと候補領域Bを合成した領域Cが、候
補領域Bに対して所定の割合の増加に収まる場合に、領域Cを候補領域とすることを特徴
とする。これによれば、候補領域の数を適切に減少させることができるので、ユーザーが
所望の領域を容易に選択して抽出することができるようになる。
In another aspect, in the step of extracting the plurality of region candidates, the candidate region A is included in another candidate region B at a predetermined ratio, and the region C obtained by combining the candidate region A and the candidate region B is: The region C is selected as a candidate region when it falls within a predetermined rate of increase with respect to the candidate region B. According to this, since the number of candidate areas can be reduced appropriately, the user can easily select and extract a desired area.
また、本発明の他の態様は、画像からユーザーが所望する領域を抽出する画像処理装置
であって、画像を領域分割する手段と、ユーザーの指示に応じて画像中の1点を指定する
手段と、指定点を含む領域と他の領域の関連度を解析する関連度解析手段と、指定点を含
む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する手段と、複数
の候補領域をユーザーに提示する手段と、ユーザーの指示に応じて表示した候補領域を選
択する手段とを備えていることを特徴とする。
According to another aspect of the present invention, there is provided an image processing apparatus for extracting an area desired by a user from an image, and means for dividing an image into areas, and means for designating one point in the image in accordance with a user instruction Relevance analysis means for analyzing the degree of association between the area including the designated point and another area, means for extracting a plurality of candidate areas by combining the area containing the designated point and a plurality of areas with high relevance, and a plurality of areas Means for presenting the candidate area to the user, and means for selecting the candidate area displayed according to the user's instruction.
また、本発明のさらに他の態様は、画像からユーザーが所望する領域を抽出する画像処
理プログラムであって、画像を領域分割するステップと、ユーザーの指示に応じて画像中
の1点を指定するステップと、指定点を含む領域と他の領域の関連度を解析する関連度解
析ステップと、指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領
域を抽出するステップと、複数の候補領域をユーザーに提示するステップと、
ユーザーの指示に応じて表示した候補領域を選択するステップとをコンピュータによっ
て実行するための記述を含んでいることを特徴とする。
According to still another aspect of the present invention, there is provided an image processing program for extracting a region desired by a user from an image, the step of dividing the image into regions, and designating one point in the image according to a user instruction. A step of analyzing the relevance between the region including the designated point and the other region, a step of extracting a plurality of candidate regions by combining the region including the designated point and a plurality of regions having a high degree of relevance; Presenting multiple candidate areas to the user;
And a step of selecting a candidate area displayed in accordance with a user instruction by a computer.
以下、図面を参照して本発明の画像処理装置の実施の形態について説明する。本実施の
形態は、携帯電話端末、デジタルカメラ、個人情報端末、パーソナルコンピュータ等の情
報機器において、それを構成するコンピュータおよびその周辺装置と、そのコンピュータ
で実行されるプログラムとによって実現される。本実施形態では、その情報機器が、少な
くとも液晶表示装置等の画像表示装置と、十字カーソル等の表示画像中の任意の点を指定
可能な操作子とを備えているものとする。本実施の形態は、そのような構成を用いて、ユ
ーザーが画像中の任意の点を指定した際に、その点を含む領域に関連する領域を解析し、
関連度合いによってその点を含む領域と関連性を有する複数の領域をユーザーに提示する
。そして、ユーザーが複数の領域のいずれかを選択することで、画像中の所望の領域を抽
出できるようになっている。抽出した画像は、所定の記憶媒体に記憶したり、電子メール
に添付して送信したり、あるいは所定の記憶装置に記憶して他の画像と合成したりするこ
とができるようになる。
Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings. The present embodiment is realized by an information device such as a mobile phone terminal, a digital camera, a personal information terminal, a personal computer, and the like, a computer constituting the computer and its peripheral devices, and a program executed by the computer. In the present embodiment, it is assumed that the information device includes at least an image display device such as a liquid crystal display device and an operator that can specify an arbitrary point in a display image such as a cross cursor. In this embodiment, when a user designates an arbitrary point in an image using such a configuration, an area related to the area including the point is analyzed,
A plurality of areas having relevance to the area including the point are presented to the user according to the degree of relevance. The user can extract a desired region in the image by selecting one of the plurality of regions. The extracted image can be stored in a predetermined storage medium, transmitted by being attached to an e-mail, or stored in a predetermined storage device and synthesized with another image.
図1を参照して本実施形態による画像処理の流れについて説明する。本実施の形態では
、ユーザーが処理対象となる画像を選択した際に、あらかじめ領域分割処理を行う(ステ
ップS11)。
The flow of image processing according to this embodiment will be described with reference to FIG. In this embodiment, when the user selects an image to be processed, an area division process is performed in advance (step S11).
領域分割処理は、簡単な例では、与えられた画像の色情報がRGB(Red(赤) Green
(緑) Blue(青))で表現されていることとする。これに対して、まず、このRGB色
情報をHSV(Hue(色相) Saturation(彩度) Value(明度))情報に変換する。H
(色相)は、環状に表現されその角度によって色相が分類できる。例えば24色に分類す
る場合は、15度ずつに分類する。これにより、与えられた画像を、24色の近似色領域
に分けて分類することができる。そして同一色に分類された連続する近似領域毎に分割領
域を形成する。
In a simple example, the area division processing is performed when the color information of a given image is RGB (Red) Green
(Green) Blue (blue)). In contrast, first, the RGB color information is converted into HSV (Hue (Hue) Saturation (saturation) Value (lightness)) information. H
(Hue) is expressed in a ring shape, and the hue can be classified according to the angle. For example, when the color is classified into 24 colors, the color is classified by 15 degrees. Thereby, a given image can be classified into 24 approximate color regions. A divided region is formed for each successive approximate region classified into the same color.
ここでは、HSV手法を用いたが、Lab(ラブ・カラー;色情報を数値化するカラー
モデル)など色相情報をもつ手法で行っても良い。また、24色といった色相を固定した
分類手法ではなく、k−means法のような分類手法を用いても良い。
Here, the HSV method is used, but a method having hue information such as Lab (love color; a color model for digitizing color information) may be used. Further, a classification method such as a k-means method may be used instead of a classification method in which hues such as 24 colors are fixed.
次に、分割した領域を、本実施形態を構成する情報機器の表示装置に表示し、操作子を
用いたユーザーの指示に応じて画像中の1点を指定する(ステップS12)。例えば図2
に示すように、画像1が複数の領域10〜18に分割されて表示され、ユーザーの指示に
応じて指定点20が指定される。
Next, the divided area is displayed on the display device of the information device constituting this embodiment, and one point in the image is designated in accordance with the user's instruction using the operation element (step S12). For example, FIG.
As shown in FIG. 5, the
なお、以下では、図2に示した各領域11〜18を、図3に示すように領域A〜領域H
として説明する。
In the following, each of the
Will be described.
次に、指定点20を含む領域10(以下、指定領域10)と、他の領域A〜H(領域1
1〜18)との関連度を解析する(ステップS13)。ステップS13の関連度の解析で
は、まず、各領域A〜Hの領域の色、形状等の各領域に関する情報を計算する。例えば、
図4に示すように、指定領域10と各領域A〜H間の距離と、各領域A〜Hの面積を求め
る。この例では、図5に示すように、各領域の距離と面積が求められたとする。ただし、
この場合、各領域の面積として、図4に示す、破線で示した領域の外接矩形面積を用いて
いる。また、各領域間の距離は、領域の重心同士の距離とし、重心は外接矩形の中心とし
ている。
Next, an
1 to 18) are analyzed (step S13). In the relevance analysis in step S13, first, information about each region such as the color and shape of the regions A to H is calculated. For example,
As shown in FIG. 4, the distance between the designated
In this case, as the area of each region, the circumscribed rectangular area of the region shown by the broken line shown in FIG. 4 is used. The distance between the regions is the distance between the centroids of the regions, and the centroid is the center of the circumscribed rectangle.
次に関連度を求める対象とするかどうかを判定する。すなわち、関連度を求める対象と
して適当であるか否かを判定する。例えば、この判定では、図4に示すように、領域Hが
、画像1全体となるため(すなわち領域抽出したときの外形が画像1と一致するため)、
対象から外される。また、領域F、Gは、指定領域10の外接矩形10a内に収まるため
、対象から外される。
Next, it is determined whether or not the degree of relevance is to be obtained. That is, it is determined whether or not it is appropriate as a target for determining the degree of association. For example, in this determination, as shown in FIG. 4, the region H is the entire image 1 (that is, the outer shape when the region is extracted matches the image 1),
Removed from the subject. In addition, the areas F and G are excluded from the target because they fall within the circumscribed
次に、領域F〜Hを除いた各領域A〜Eにおいて、図6に示すように、指定領域10と
の相似性、隣接の有無といった関連性を表す指標が求められる。例えば、領域A〜Eと指
定領域10の距離を、それらの距離のうち最大のもので正規化した値を、距離に係る関連
性を表す指標としている。
Next, in each of the areas A to E excluding the areas F to H, as shown in FIG. For example, a value obtained by normalizing the distances between the areas A to E and the designated
面積に係る関連性を表す指標は、領域A〜Eの面積をそれらのうちで最大の面積によっ
て正規化した数値で表している。
The index representing the relationship related to the area is represented by a numerical value obtained by normalizing the areas of the regions A to E by the maximum area among them.
相似度(相似性に係る指標)は、例えば、色の近似性と外接矩形の形(アスペクト比)
を用いて表すことができる。この場合、例えば(相似性に係る指標)=(非相似度)=0
.5*(色の指標)+0.5*(形状の指標)、として相似性の指標を求めることができ
る。この相似性に係る指標は、値が大きいほど相似性が低いことを示す(すなわち非相似
度を表す)。
Similarity (an index related to similarity) is, for example, color approximation and circumscribed rectangle shape (aspect ratio)
Can be used. In this case, for example, (index for similarity) = (dissimilarity) = 0
. A similarity index can be obtained as 5 * (color index) + 0.5 * (shape index). The index related to the similarity indicates that the larger the value is, the lower the similarity is (that is, the degree of dissimilarity).
ここで、色の指標は、指定領域10の平均色と各領域の平均色の色距離を計算し、最大
値で正規化した値を用いる。 形状の指標は、アスペクト比を用いて計算する。すなわち
、指定領域10のアスペクト比が(x0:y0)で、ある領域のアスペクト比が(x1:
y1)の時、アスペクト比の差P
Here, as the color index, a color distance between the average color of the designated
When y1), the aspect ratio difference P
P=|(x0/y0)−(x1/y1)| P = | (x0 / y0) − (x1 / y1) |
各領域において求め、Pの最大値で正規化した値を形状の指標として用いる。 A value obtained in each region and normalized by the maximum value of P is used as a shape index.
例えば、図3において、領域Dの色が、指定領域10と同一色であり、かつ、形状も等
しいとすると、色の指標は0、形状の指標も0となるので、相似性に係る指標の計算結果
(非相似度)は0となる。あるいは、例えば領域Aの色が、指定領域10とは異なるが、
形状(アスペクト比)が等しいとした場合、相似性に係る指標(非相似度)は、例えば、
0より大きく、0.5以下の値となる。
For example, in FIG. 3, if the color of the region D is the same color as the designated
If the shape (aspect ratio) is equal, the similarity index (dissimilarity) is, for example,
The value is greater than 0 and less than or equal to 0.5.
隣接に係る指標は、指定領域10の境界と接する領域を0、それ以外の領域を1として
求めている。つまり、隣接に係る指標が小さいほど関連性が高くなる。
The index related to the adjacency is obtained with 0 as the area in contact with the boundary of the designated
図6に示す全ての指標を領域毎に加算することで、各領域の非関連度が求められる。図
6に示す例では、各指標が大きいほど関連性が低く、小さいほど高い。すなわち、各指標
を足したものは、値が大きいときに関連度が小さく、値が小さいときに関連度が大きくな
る。つまり、各指標の加算値が、非関連度を表す数値となる。
By adding all the indices shown in FIG. 6 for each area, the degree of unrelatedness of each area can be obtained. In the example shown in FIG. 6, the relevance is lower as each index is larger, and the relevance is higher as the index is smaller. That is, the sum of each index has a low relevance when the value is large, and a high relevance when the value is small. That is, the added value of each index is a numerical value that represents the degree of disassociation.
図6に示す例では、領域Aの非関連度の値が最も小さく、領域Cの非関連度の値が最も
大きくなっている。つまり、関連度の順位は、高いものから、領域A、B、D、E、Cと
なっている。
In the example shown in FIG. 6, the value of the degree of irrelevance in the area A is the smallest, and the value of the degree of irrelevance in the area C is the largest. That is, the ranking of the degree of association is from A to B in the areas A, B, D, E, and C.
次に、図1のステップS13で求めた関連度(あるいは非関連度)に基づいて、ユーザ
ーに提示する候補領域を選択する(ステップS14)。基本的には、非関連度が低い領域
と指定領域10を合成した領域が、候補領域として選択される。ただし、あらかじめ所定
のしきい値以上の非関連度となる領域は候補としないようにすることができる。そして、
選択された候補領域は、ユーザーに対して提示され(ステップS15)、ユーザーの指示
に応じてそれが選択される(ステップS16)。例えばユーザーがカーソルキーを動かす
ことで、異なる候補領域が順次選択されるようにして、所望の領域を選択した状態でユー
ザーがエンターキーを押すことで領域を選択できるようにする。
また別の方法として、数字キーなどによって直接、領域候補番号を選択できるようにし
ても良い。
Next, a candidate area to be presented to the user is selected based on the degree of association (or degree of unrelevance) obtained in step S13 of FIG. 1 (step S14). Basically, a region obtained by synthesizing the designated
The selected candidate area is presented to the user (step S15), and is selected according to the user's instruction (step S16). For example, different candidate areas are sequentially selected by moving the cursor key by the user, and the user can select an area by pressing the enter key in a state where a desired area is selected.
As another method, the area candidate number may be directly selected by a numeric key or the like.
ステップS15では例えば候補領域を選択する際に、図6のように指標として0〜1の
値を持つ4つの指標を用いている場合、非関連度の最高値は4であるため、例えばその半
分の2をしきい値として選択を行う。しきい値を2とした場合、領域A、Bが選択される
。図7の例では、候補領域3までがユーザーに提示する対象となる。
In step S15, for example, when selecting a candidate area, if four indices having values of 0 to 1 are used as indices as shown in FIG. 2 is selected as a threshold value. When the threshold value is 2, regions A and B are selected. In the example of FIG. 7, up to the
図7において、破線で示す矩形の右上または左上端に四角で囲って示した番号が、候補
領域の順位番号(小さいほど関連性が高い番号)である。候補領域1は、指定領域10そ
のものである。候補領域2は、指定領域10と領域Aの合成領域の外接矩形で決まる領域
である。候補領域3は、指定領域10と領域Bの合成領域の外接矩形で決まる領域である
。なお、候補領域4が指定領域10と領域D、候補領域5が指定領域10と領域Eからそ
れぞれ形成される領域である。
In FIG. 7, the number indicated by a rectangle at the upper right or upper left corner of the rectangle indicated by the broken line is the rank number of the candidate area (the smaller the number, the higher the relevance).
また、候補領域を提示する数に上限を決めておく方法も有効である。あらかじめ、ユー
ザーが表示させる最大候補数を設定しておく。例えば、ユーザーが5つを設定した場合、
指定領域10を第1の候補領域とするため、残り4つの領域A、B、D、Eが選択される
。この場合の、候補領域は、図7のようになる。しきい値で決定する例に代えて、最大候
補数を決めてこのようにユーザーに提示することも可能である。
It is also effective to determine an upper limit for the number of candidate areas to be presented. The maximum number of candidates displayed by the user is set in advance. For example, if the user sets five,
In order to make the designated
さらに、抽出した候補領域に対して、重複する領域が大きい領域を検出し、候補領域と
して合成することで、候補領域の数を削減したり、あるいは、新たな候補領域を追加する
ようにしてもよい。
Furthermore, the number of candidate areas can be reduced or a new candidate area can be added by detecting an area having a large overlapping area with respect to the extracted candidate areas and combining them as candidate areas. Good.
図7の場合に、候補領域2の面積をS2、候補領域3の面積をS3としたとき、それら
の重複領域が、面積S2の所定の割合(例:0.8)以上であるときで、候補領域2と候
補領域3を合成した領域が、面積S3の所定の割合(例:1.2)に収まるとき、候補領
域2と候補領域3を合成した候補領域(図8の候補領域2)を生成する。候補領域1は指
定点20の領域である。この指定領域10は、候補領域2に対して重複しているが、指定
点の領域10は合成しない。この場合の最終的な候補領域は、図8のようになる。図8で
は、図7の候補領域2と候補領域3を合成し、図7の候補領域4と候補領域5の候補番号
を1ずつ繰り上げている。
In the case of FIG. 7, when the area of the
さらに、3つ以上の領域の組み合わせにおいても、候補領域を面積比によって統廃合を
行うこともできる(図9参照)。図9では、指定点の領域10と図7の候補領域1、2、
4、5が含まれた候補5が追加されているとともに、候補領域3が、領域1と領域2を併
合した候補に変更されている。
Furthermore, even in a combination of three or more regions, candidate regions can be integrated or abandoned by area ratio (see FIG. 9). In FIG. 9, the designated
The
なお、上記の構成では、関連度を、図6に示す距離、面積、非相似度、および隣接の各
指標から求めることとしたが、色や形状のみを指標とすることも可能である。
In the above configuration, the degree of association is obtained from the distance, area, dissimilarity, and adjacent indices shown in FIG. 6, but only the color and shape can be used as indices.
また相似性を表す指標として、相関関数を用いても良い。基準点は、左下などとなり、
相関度の高いものを0、最も相関度が低いものを1として計算を行う。相関関数を用いた
相似度の計算方法は例えば、次のように行う。
Further, a correlation function may be used as an index representing similarity. The reference point is the lower left, etc.
The calculation is performed with 0 having the highest degree of correlation and 1 having the lowest degree of correlation. For example, the similarity calculation method using the correlation function is performed as follows.
(1)指定領域の重心(外接矩形中心)点と、その領域境界線上の各点の距離をサンプリ
ングする。サンプリング開始点は、例えば、最も左上にある境界画素点とする。
(1) The distance between the center of gravity (center of the circumscribed rectangle) of the designated area and each point on the area boundary line is sampled. The sampling start point is, for example, the uppermost boundary pixel point.
(2)領域分割した各領域についても、同様に重心と境界線上の点の距離をサンプリング
する。
(2) For each divided area, the distance between the center of gravity and the point on the boundary line is similarly sampled.
(3)指定領域のサンプル数に、各領域のサンプル数を合わせる。指定領域のサンプル数
をMx、比較領域のサンプル数をMy、サンプル番号 Nのサンプル値のうち、変更前サ
ンプル値をY1(N)、変更後サンプル値をY2(N)、倍率s=Mx/My、d=N
/s、n=整数部(d),k=小数部(d)とすると、変更後サンプル値をY2(N)は
、以下の式で求められる。
(3) The number of samples in each area is matched with the number of samples in the specified area. The number of samples in the designated area is Mx, the number of samples in the comparison area is My, and among the sample values of sample number N, the sample value before change is Y1 (N), the sample value after change is Y2 (N), and the magnification s = Mx / My, d = N
Assuming that / s, n = integer part (d), and k = decimal part (d), Y2 (N) is the sample value after the change, obtained by the following equation.
例えば、サンプル値計算例は次のようになる。ここでは、M1=200,M2=150
として、比較領域のN(=10)番目の値を求める。
For example, a sample value calculation example is as follows. Here, M1 = 200, M2 = 150
As a result, an Nth (= 10) th value of the comparison area is obtained.
(4)相関関数にて相関係数を求める
平均と分散:
(4) Find correlation coefficient with correlation function Average and variance:
相関係数:
(5)非相似度を次式で求める。 (5) The dissimilarity is obtained by the following equation.
以上のように、本実施の形態によれば、画像中の特定の画素(点)を指定する操作とし
ては、ユーザーが画像中の任意の点を指定するだけで、所望の領域を選択することが可能
となる。これにより、ユーザーは所望の領域を簡単に拡大して印刷することや、画像編集
することが可能となる。
As described above, according to the present embodiment, as an operation for specifying a specific pixel (point) in an image, the user simply selects an arbitrary point in the image and selects a desired region. Is possible. As a result, the user can easily enlarge and print a desired area or edit an image.
なお、本発明の実施の形態は、上記のものに限定されず、各処理過程を統合したり、分
散したり、各処理過程を実行するためのハードウェアを統合、分割あるいは分散したりす
ることができる。また、本発明の実施の形態を構成するプログラムは、コンピュータ読み
取り可能な記録媒体または通信回線を介して頒布することができる。
The embodiment of the present invention is not limited to the above-described one, and the processing steps are integrated or distributed, and the hardware for executing the processing steps is integrated, divided, or distributed. Can do. Moreover, the program which comprises embodiment of this invention can be distributed via a computer-readable recording medium or a communication line.
なお、関連度の計算処理(図1のステップS13〜S14)においては、次の(1)〜
(6)ような構成を用いることができる。(1)指定点を含む領域を抱合しているものを
関連度が高い領域とする。(2)指定点を含む領域に対する形状または色の少なくとも一
方に係る相似度を指標として、相似度が高いものを関連度が高い領域とする。(3)特定
の色や形状間の関連性をあらかじめ記憶しておき、その関連性を指標として用いる。(4
)面積を指標として、比較的大きな面積を持つものを関連度が低い領域とする。(5)所
定の値以上の関連度である領域を関連性の高い領域として、関連性の高い領域と指定点を
含む領域の合成領域を候補領域として抽出する。(6)複数の関連性のある領域と指定点
を含む領域の合成領域を候補領域として抽出する。
In the relevance calculation process (steps S13 to S14 in FIG. 1), the following (1) to
(6) A configuration as described above can be used. (1) A region that includes an area including a designated point is regarded as a highly related area. (2) Using a similarity degree related to at least one of a shape and a color with respect to an area including a designated point as an index, an area having a high similarity degree is set as an area having a high degree of association. (3) The relationship between specific colors and shapes is stored in advance, and the relationship is used as an index. (4
) Using an area as an index, a region having a relatively large area is defined as a region having a low degree of association. (5) A region having a relevance level equal to or higher than a predetermined value is set as a highly related region, and a combined region of a highly related region and a region including a designated point is extracted as a candidate region. (6) A composite region of a plurality of related regions and a region including a designated point is extracted as a candidate region.
1 画像、10 指定領域、20 指定点 1 image, 10 specified area, 20 specified points
Claims (12)
画像を領域分割するステップと、
ユーザーの指示に応じて画像中の1点を指定するステップと、
指定点を含む領域と他の領域の関連度を解析する関連度解析ステップと、
指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する
ステップと、
複数の候補領域をユーザーに提示するステップと、
ユーザーの指示に応じて表示した候補領域を選択するステップと
を含んでいることを特徴とする画像処理方法。 An image processing method for extracting an area desired by a user from an image,
Dividing the image into regions,
Designating a point in the image according to a user instruction;
A relevance analysis step for analyzing the relevance between the region including the specified point and another region;
Extracting a plurality of candidate regions by combining a region including the designated point and a plurality of highly relevant regions;
Presenting multiple candidate areas to the user;
And a step of selecting a candidate area displayed in response to a user instruction.
連度が高い領域とすることを特徴とする請求項1記載の画像処理方法。 The image processing method according to claim 1, wherein, in the relevance analysis step, an area having a high relevance is defined as an area having a close distance with a distance from the designated point as an index.
域とすることを特徴とする請求項1記載の画像処理方法。 2. The image processing method according to claim 1, wherein in the relevance analysis step, an area adjacent to the area including the designated point is set as a high relevance area.
い領域とすることを特徴とする請求項1記載の画像処理方法。 The image processing method according to claim 1, wherein in the relevance analysis step, an area that includes an area including a designated point is set as a high relevance area.
一方に係る相似度を指標として、相似度が高いものを関連度が高い領域とすることを特徴
とする請求項1記載の画像処理方法。 2. The relevance analysis step according to claim 1, wherein the similarity is a region having a high degree of relevance, using as an index the similarity of at least one of the shape and color of the region including the designated point. Image processing method.
ておき、その関連性を指標として用いることを特徴とする請求項5記載の画像処理方法。 6. The image processing method according to claim 5, wherein in the relevance analysis step, relevance between specific colors and shapes is stored in advance, and the relevance is used as an index.
関連度が低い領域とすることを特徴とする請求項1〜6のいずれか1項に記載の画像処理
方法。 7. The image processing method according to claim 1, wherein in the relevance analysis step, an area having a relatively large area is used as an index, and an area having a low relevance is used as an index.
関連性の高い領域として、関連性の高い領域と指定点を含む領域の合成領域を候補領域と
して抽出することを特徴とする請求項1〜7のいずれか1項に記載の画像処理方法。 In the step of extracting the plurality of region candidates, a region having a relevance level equal to or higher than a predetermined value is extracted as a highly related region, and a combined region of the highly related region and the region including the designated point is extracted as a candidate region. The image processing method according to claim 1, wherein:
含む領域の合成領域を候補領域として抽出することを特徴とする請求項8記載の画像処理
方法。 9. The image processing method according to claim 8, wherein, in the step of extracting the plurality of region candidates, a combined region of a plurality of related regions and a region including a designated point is extracted as a candidate region.
定の割合で含まれていて、候補領域Aと候補領域Bを合成した領域Cが、候補領域Bに対
して所定の割合の増加に収まる場合に、領域Cを候補領域とすることを特徴とする請求項
1〜9のいずれか1項に記載の画像処理方法。 In the step of extracting the plurality of region candidates, the candidate region A is included in another candidate region B at a predetermined ratio, and the region C obtained by combining the candidate region A and the candidate region B is compared with the candidate region B. 10. The image processing method according to claim 1, wherein the area C is a candidate area when the increase falls within a predetermined ratio.
画像を領域分割する手段と、
ユーザーの指示に応じて画像中の1点を指定する手段と、
指定点を含む領域と他の領域の関連度を解析する関連度解析手段と、
指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する
手段と、
複数の候補領域をユーザーに提示する手段と、
ユーザーの指示に応じて表示した候補領域を選択する手段と
を備えていることを特徴とする画像処理装置。 An image processing apparatus that extracts an area desired by a user from an image,
Means for segmenting the image;
Means for designating one point in the image in response to a user instruction;
Relevance analysis means for analyzing the relevance of the region including the specified point and other regions;
Means for extracting a plurality of candidate regions by combining a region including the designated point and a plurality of highly relevant regions;
Means for presenting multiple candidate areas to the user;
An image processing apparatus comprising: means for selecting a candidate area displayed in accordance with a user instruction.
画像を領域分割するステップと、
ユーザーの指示に応じて画像中の1点を指定するステップと、
指定点を含む領域と他の領域の関連度を解析する関連度解析ステップと、
指定点を含む領域と複数の関連度の高い領域を組み合わせて複数の候補領域を抽出する
ステップと、
複数の候補領域をユーザーに提示するステップと、
ユーザーの指示に応じて表示した候補領域を選択するステップと
をコンピュータによって実行するための記述を含んでいることを特徴とする画像処理プ
ログラム。
An image processing program for extracting an area desired by a user from an image,
Dividing the image into regions,
Designating a point in the image according to a user instruction;
A relevance analysis step for analyzing the relevance between the region including the specified point and another region;
Extracting a plurality of candidate regions by combining a region including the designated point and a plurality of highly relevant regions;
Presenting multiple candidate areas to the user;
An image processing program comprising: a step of selecting a candidate area displayed in accordance with a user instruction by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004109230A JP2005293367A (en) | 2004-04-01 | 2004-04-01 | Image processing method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004109230A JP2005293367A (en) | 2004-04-01 | 2004-04-01 | Image processing method and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005293367A true JP2005293367A (en) | 2005-10-20 |
Family
ID=35326206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004109230A Withdrawn JP2005293367A (en) | 2004-04-01 | 2004-04-01 | Image processing method and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005293367A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011509451A (en) * | 2007-12-20 | 2011-03-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Segmentation of image data |
JP2012049628A (en) * | 2010-08-24 | 2012-03-08 | Nikon Corp | Image processing apparatus, imaging apparatus and image processing program |
JP2013048405A (en) * | 2011-07-22 | 2013-03-07 | Nikon Corp | Area extraction device, imaging device, and area extraction program |
JPWO2011061905A1 (en) * | 2009-11-20 | 2013-04-04 | 日本電気株式会社 | Object region extraction device, object region extraction method, and program |
WO2013088665A1 (en) * | 2011-12-16 | 2013-06-20 | パナソニック株式会社 | Image region extraction device, image region extraction method, and image region extraction program |
WO2015041177A1 (en) * | 2013-09-18 | 2015-03-26 | 株式会社ニコン | Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device |
JP2019091352A (en) * | 2017-11-16 | 2019-06-13 | 株式会社Preferred Networks | Object detection device, object detection method and program |
JP2021047841A (en) * | 2019-09-19 | 2021-03-25 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Method and device for labeling point of interest, computer device, and storage medium |
-
2004
- 2004-04-01 JP JP2004109230A patent/JP2005293367A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011509451A (en) * | 2007-12-20 | 2011-03-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Segmentation of image data |
US8515172B2 (en) | 2007-12-20 | 2013-08-20 | Koninklijke Philips N.V. | Segmentation of image data |
JPWO2011061905A1 (en) * | 2009-11-20 | 2013-04-04 | 日本電気株式会社 | Object region extraction device, object region extraction method, and program |
JP2012049628A (en) * | 2010-08-24 | 2012-03-08 | Nikon Corp | Image processing apparatus, imaging apparatus and image processing program |
JP2013048405A (en) * | 2011-07-22 | 2013-03-07 | Nikon Corp | Area extraction device, imaging device, and area extraction program |
WO2013088665A1 (en) * | 2011-12-16 | 2013-06-20 | パナソニック株式会社 | Image region extraction device, image region extraction method, and image region extraction program |
JP2013125529A (en) * | 2011-12-16 | 2013-06-24 | Panasonic Corp | Image region extraction device, image region extraction method, and image region extraction program |
US9292929B2 (en) | 2011-12-16 | 2016-03-22 | Panasonic Intellectual Property Corporation Of America | Image region extraction device, image region extraction method, and image region extraction program |
WO2015041177A1 (en) * | 2013-09-18 | 2015-03-26 | 株式会社ニコン | Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device |
JPWO2015041177A1 (en) * | 2013-09-18 | 2017-03-02 | 株式会社ニコン | Image analysis apparatus, image analysis method, image analysis program, cell manufacturing method, cell culture method, and cell manufacturing apparatus |
US10163218B2 (en) | 2013-09-18 | 2018-12-25 | Nikon Corporation | Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device |
JP2019091352A (en) * | 2017-11-16 | 2019-06-13 | 株式会社Preferred Networks | Object detection device, object detection method and program |
JP7118622B2 (en) | 2017-11-16 | 2022-08-16 | 株式会社Preferred Networks | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND PROGRAM |
JP2021047841A (en) * | 2019-09-19 | 2021-03-25 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Method and device for labeling point of interest, computer device, and storage medium |
US11403766B2 (en) | 2019-09-19 | 2022-08-02 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and device for labeling point of interest |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8094935B2 (en) | Representative color extracting method and apparatus based on human color sense and data histogram distributions | |
KR101346539B1 (en) | Organizing digital images by correlating faces | |
JP5062819B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2008521133A (en) | Distribution-based event clustering | |
TWI526982B (en) | Area segmentation method, computer program product and inspection device | |
JP2004234228A (en) | Image search device, keyword assignment method in image search device, and program | |
AU2018202767B2 (en) | Data structure and algorithm for tag less search and svg retrieval | |
JP2005202469A (en) | Image processor, image processing method and program | |
US20080219563A1 (en) | Configuration of a plurality of images for multi-dimensional display | |
JP5294818B2 (en) | Information processing apparatus and information processing method | |
JP2005524362A (en) | Image guidance model based point and click interface for wireless handheld devices | |
US10331953B2 (en) | Image processing apparatus | |
US7869633B2 (en) | Person image retrieval apparatus | |
CN109408652B (en) | Picture searching method, device and equipment | |
JP2005293367A (en) | Image processing method and device | |
JP2004021430A (en) | Image searching device, image searching method, and image searching program | |
JP2006013722A (en) | Unit and method for processing image | |
US20170206580A1 (en) | Merchandise retrieval device and merchandise retrieval method | |
JP2000123173A (en) | Image characteristic extracting method, similar image retrieval system and recording medium | |
US9767579B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
US11283945B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2007241370A (en) | Portable device and imaging device | |
JP2002208013A (en) | Device for extracting image area and method for the same | |
KR101063139B1 (en) | Content-based image retrieval method and apparatus robust to size change, rotation, and cutting | |
JP4380268B2 (en) | Image region selection method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070403 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070605 |
|
A072 | Dismissal of procedure |
Free format text: JAPANESE INTERMEDIATE CODE: A072 Effective date: 20070731 |