JPH06318256A - Image retrieving device - Google Patents

Image retrieving device

Info

Publication number
JPH06318256A
JPH06318256A JP5105684A JP10568493A JPH06318256A JP H06318256 A JPH06318256 A JP H06318256A JP 5105684 A JP5105684 A JP 5105684A JP 10568493 A JP10568493 A JP 10568493A JP H06318256 A JPH06318256 A JP H06318256A
Authority
JP
Japan
Prior art keywords
image
vector
reference vector
color
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5105684A
Other languages
Japanese (ja)
Other versions
JP3311077B2 (en
Inventor
Minoru Eito
稔 栄藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10568493A priority Critical patent/JP3311077B2/en
Publication of JPH06318256A publication Critical patent/JPH06318256A/en
Application granted granted Critical
Publication of JP3311077B2 publication Critical patent/JP3311077B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the image retrieving device which enables retrieval by designating the rough structure of an image. CONSTITUTION:A reference image memory 101 stores a reference image as the arrangement of picture elements defined as the color vector features of R, G and B. The reference image is inputted to a reference vector generator 102, and a reference vector set expressing 'what color is distributed at what area' is outputted by clustering the feature vector of a picture element coupling a color vector and a position vector. A correlative value computing unit 104 reads the feature vector from a retrieval object image 106 at random and calculates the value of correlation with the reference vector. By repeating such an operation concerning the retrieval object image stored in a retrieval object image memory 106, the image is retrieved. Finally, a maximum correlation image index output equipment 105 outputs the index of the retrieval object image for which the correlation value is maximum. Therefore, the image can be retrieved as 'an image which center is red and peripheral part is blue', for example.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像データベースの検
索、編集等に用いられる画像検索装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image search device used for searching and editing an image database.

【0002】[0002]

【従来の技術】従来の画像検索装置としては、予め人間
が目視により動画像に検索情報を付加しておき、後でそ
の検索情報により検索する装置が考えられる(例えば、
上田:インタラクティブな動画像編集方式の提案、電子
情報通信学会技術報告、IE90-6,1990)。しかし、大量
の動画像から画像を検索する装置を開発する場合、人手
による検索情報の付加を必要としない装置が望ましい。
このような自動化された画像検索装置としては、画像中
の隣接する二つの領域の色を対として(これを色対とよ
ぶ)、この特徴を基に画像の検索を行なう画像検索装置
が、「長坂、田中:カラービデオ映像における自動検索
索引付け法と物体探索法、情報処理学会論文誌、Vol.3
3, No.4,1992.」に示されている。図7は、前記色対に
基づく画像検索装置を説明するための構成図である。そ
の動作を以下に説明する。
2. Description of the Related Art As a conventional image retrieval apparatus, an apparatus in which a person visually attaches retrieval information to a moving image in advance and later retrieves it by the retrieval information is conceivable.
Ueda: Proposal of interactive video editing method, IEICE technical report, IE90-6, 1990). However, when developing an apparatus for retrieving images from a large amount of moving images, an apparatus that does not require manual addition of retrieval information is desirable.
An example of such an automated image search device is an image search device that searches for an image based on this feature, using the colors of two adjacent areas in the image as a pair (this is called a color pair). Nagasaka, Tanaka: Automatic Search Indexing and Object Search in Color Video Images, Transactions of Information Processing Society of Japan, Vol.3
3, No. 4, 1992. ". FIG. 7 is a block diagram for explaining an image search device based on the color pair. The operation will be described below.

【0003】参照画像メモリ701に格納された参照画
像をセル単位ヒストグラム計算手段702が読み出し、
16×16の格子状のセルに分割した上で、各セルにつ
いて色ヒストグラムを計算する。色ヒストグラムは51
2色にセル内の画素を分類して、各色における累計画素
数として求める。このヒストグラムを用いて、参照色対
計算手段703が、隣接するセルの中で、特徴的な色の
対を16設定する。これにより、参照画像を表現する。
一方、検索対象画像メモリ704からは、セル単位ヒス
トグラム計算手段705が検索対象画像を読み出して、
30×30のセルに分割した上で、各セルについて色ヒ
ストグラムを計算する。セルの数は、参照画像に比べて
多くなるが、ヒストグラムの構成方法は同じである。こ
のヒストグラムに基づいて、色ビットマップ作成手段7
06では、512色について各々30×30のビットマ
ップを作る。すなわち512枚のビットマップを画像1
フレームについて作成する。各色について、セル内で画
素数が一定のしきい値以上であれば、1、未満であれば
0に設定する。色対走査手段707は、前記30×30
のビットマップ内の8近傍に前記16個の参照色対が1
つでも存在するかどうかをマップ全体を走査して調べ、
あれば、操作結果を格納するマップのビットを1に、全
くなければ0にして、操作結果を30×30のビットマ
ップを相関マップとして出力する。相関マップの中で、
1となっているビットの数が多いほど、参照画像と当該
検索対象画像の相関が強いことになる。
The reference image stored in the reference image memory 701 is read by the cell unit histogram calculating means 702,
After dividing into 16 × 16 grid cells, a color histogram is calculated for each cell. The color histogram is 51
The pixels in the cell are classified into two colors, and the total number of pixels in each color is obtained. Using this histogram, the reference color pair calculation means 703 sets 16 characteristic color pairs in adjacent cells. This represents the reference image.
On the other hand, the cell unit histogram calculation means 705 reads out the search target image from the search target image memory 704,
After dividing into 30 × 30 cells, a color histogram is calculated for each cell. Although the number of cells is larger than that of the reference image, the method of constructing the histogram is the same. Based on this histogram, the color bitmap creating means 7
At 06, a 30 × 30 bitmap is created for each of the 512 colors. That is, 512 bitmaps are used as image 1
Create about a frame. For each color, 1 is set if the number of pixels in the cell is greater than or equal to a certain threshold value, and 0 is set if the number is less than a certain threshold value. The color pair scanning means 707 is the 30 × 30 unit.
Of the 16 reference color pairs in 8 neighborhoods in the bitmap of
Scan the entire map to see if any exist,
If there is, the bit of the map that stores the operation result is set to 1, and if there is not at all, it is set to 0, and the operation result is output as a 30 × 30 bitmap as a correlation map. In the correlation map,
The larger the number of bits that are 1, the stronger the correlation between the reference image and the search target image.

【0004】前記した色対による装置は、画像の構造を
隣接領域の色の対として表現していることになり、物体
の移動、回転、拡大縮小に対して耐性がある特長を持
つ。
The above-mentioned color pair apparatus expresses the structure of an image as a color pair of adjacent areas, and has a feature that it is resistant to movement, rotation and scaling of an object.

【0005】[0005]

【発明が解決しようとする課題】しかしながら上記の従
来の画像検索装置では、画像の隣接する色にのみ注目し
ているために、画像全体の構造に注目した検索が行なえ
ないという課題がある。例えば、「中央が赤く、周辺部
が青い画像」として位置に依存した大まかな特徴を指定
して検索したい場合に対応できない。
However, the above-mentioned conventional image retrieval apparatus has a problem that it is not possible to perform a retrieval focusing on the structure of the entire image because only the adjacent colors of the image are focused on. For example, it is not possible to correspond to a case where it is desired to perform a search by designating a rough feature depending on the position as an “image with red in the center and blue in the peripheral portion”.

【0006】また、参照画像を特徴付けるために、彩度
の高い領域が隣接した特徴が多く必要となる、あるいは
また、検索対象の画像に多くの色成分が含まれている場
合、誤検出となるという課題もある。
Further, in order to characterize the reference image, it is necessary to have many features in which highly saturated regions are adjacent to each other, or when the image to be searched contains many color components, it is an erroneous detection. There is also a problem.

【0007】本発明は、このような従来の画像検索装置
の課題を考慮し、画像の大まかな構造を指定することに
より検索可能な画像検索装置を提供することを目的とす
る。
An object of the present invention is to provide an image search apparatus capable of searching by designating a rough structure of an image in consideration of the problems of the conventional image search apparatus.

【0008】[0008]

【課題を解決するための手段】請求項1の本発明は、参
照画像の画素を、画素の特徴量と位置を特徴ベクトルと
して、クラスタリングして、特徴ベクトルの分布パラメ
ータからなる参照ベクトル集合を生成する参照ベクトル
生成手段と、検索対象画像から、画素を複数取り出し
て、画素の特徴量と位置を特徴ベクトルに用いて、参照
ベクトルで記述される画素の特徴ベクトル分布への誤差
に相当する距離に基づいて画像の相関値を求める相関演
算手段を有し、複数の検索対象画像に対する相関演算手
段の結果を保持して、相関値が大きくなる検索対象画像
を検索結果として出力する画像検索装置である。
According to the present invention of claim 1, the pixels of the reference image are clustered with the feature quantity and position of the pixel as a feature vector to generate a reference vector set consisting of distribution parameters of the feature vector. A plurality of pixels from the image to be searched, and using the feature amount and position of the pixel as the feature vector, a distance corresponding to the error to the feature vector distribution of the pixel described by the reference vector is obtained. An image search apparatus that has a correlation calculation unit that obtains a correlation value of an image based on it, holds results of the correlation calculation unit for a plurality of search target images, and outputs a search target image having a large correlation value as a search result. .

【0009】請求項2の本発明は、参照画像および検索
対象画像の画素を、画素の特徴量と位置を特徴ベクトル
として、クラスタリングして、特徴ベクトルの分布パラ
メータからなる参照ベクトル集合を生成する参照ベクト
ル生成手段と、 参照画像の参照ベクトル集合と、検索
対象画像の参照ベクトル集合との相関値を演算する相関
演算手段を有し、複数の検索対象画像に対する相関演算
手段の結果を保持して、集合相関値の値が大きくなる検
索対象画像を検索結果として出力することを特徴とする
画像検索装置である。
The present invention according to claim 2 clusters pixels of the reference image and the image to be searched with the feature amount and position of the pixel as a feature vector to generate a reference vector set consisting of distribution parameters of the feature vector. A vector generation means, a reference vector set of the reference image, and a correlation calculation means for calculating a correlation value between the reference vector set of the search target image, holding the results of the correlation calculation means for a plurality of search target images, The image retrieval apparatus is characterized by outputting a retrieval target image having a large set correlation value as a retrieval result.

【0010】[0010]

【作用】請求項1の本発明では、参照ベクトル生成手段
により、参照画像から画素の特徴量と位置からなる特徴
ベクトルを、クラスタリングし、参照画像を特徴ベクト
ルの分布パラメータで表現する。位置を含めた特徴ベク
トルをクラスタリングするために、似た特徴量を持つ近
傍の画素が一つのクラスタを形成し、そのクラスタ内の
特徴ベクトルの分布により、画像中のどの位置にどのよ
うな特徴量の画素があるかが表現される。分布パラメー
タはクラスタの数だけあり、これを参照ベクトル集合と
よぶ。得られた参照ベクトル集合に対して、検索対象画
像から画素の特徴量と位置からなる特徴ベクトルと参照
ベクトルまでの距離を計算する。幾つかの特徴ベクトル
について距離計算を行ない、この距離を基に相関値を求
める。複数の検索対象画像について、相関値を求め、値
の大きな画像を検索結果とする。
According to the first aspect of the present invention, the reference vector generating means clusters the feature vector consisting of the feature amount and the position of the pixel from the reference image, and the reference image is represented by the distribution parameter of the feature vector. In order to cluster feature vectors including positions, neighboring pixels with similar feature quantities form one cluster, and the feature vector distribution in that cluster determines which feature quantity at which position in the image. It is expressed whether there are pixels. There are as many distribution parameters as there are clusters, and this is called a reference vector set. With respect to the obtained reference vector set, the distance from the search target image to the feature vector including the feature amount and position of the pixel and the reference vector is calculated. Distance calculation is performed for some feature vectors, and a correlation value is obtained based on this distance. Correlation values are obtained for a plurality of search target images, and the image with a large value is used as the search result.

【0011】次に、請求項2の本発明では、請求項1の
本発明と同じく、参照ベクトル生成手段により、参照画
像から画素の特徴量と位置からなる特徴ベクトルをクラ
スタリングし、参照画像がどのような画像の特徴から構
成されているかを位置とともに、参照ベクトル集合で表
現する。また検索対象画像についても同様に、参照ベク
トル生成手段により参照ベクトル集合で表現する。相関
演算手段において、参照画像の参照ベクトル集合と、検
索対象画像の参照ベクトル集合との相関値を演算するこ
とにより、検索対象画像と参照画像の相関の評価を行な
う。複数の検索対象画像について、相関値の大きな画像
を検索結果とする。
Next, in the second aspect of the present invention, similarly to the first aspect of the present invention, the reference vector generating means clusters the feature vector including the feature amount and the position of the pixel from the reference image, and It is represented by a reference vector set together with the position whether it is composed of such image features. Similarly, the search target image is also represented by a reference vector set by the reference vector generation means. The correlation calculation means evaluates the correlation between the search target image and the reference image by calculating the correlation value between the reference vector set of the reference image and the reference vector set of the search target image. For a plurality of search target images, an image having a large correlation value is set as a search result.

【0012】従って、画像の構造、すなわち画素の位置
に依存した特徴の分布により効果的な画像検索を行なう
ことができる。
Therefore, an effective image search can be performed by the structure of the image, that is, the distribution of the features depending on the position of the pixel.

【0013】[0013]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。以下の2つの実施例で用いる画像はRGB
の3原色から構成されるカラー画像である。
Embodiments of the present invention will be described below with reference to the drawings. The images used in the following two examples are RGB
It is a color image composed of the three primary colors.

【0014】請求項1に該当する第1の実施例を図1、
図2、図3、図4、図5を用いて説明する。図1は第1
の実施例における画像検索装置の機能ブロック図、図2
は第1の実施例および第2の実施例における参照ベクト
ル生成器の機能ブロック図、図3は第1の実施例におけ
る相関演算器の機能ブロック図、図4は第1の実施例に
おける動作説明図、図5は第1の実施例および第2の実
施例における特徴ベクトル分布の仮定の説明図である。
A first embodiment corresponding to claim 1 is shown in FIG.
This will be described with reference to FIGS. 2, 3, 4, and 5. Figure 1 is the first
2 is a functional block diagram of the image retrieval apparatus in the embodiment of FIG.
Is a functional block diagram of the reference vector generator in the first and second embodiments, FIG. 3 is a functional block diagram of the correlation calculator in the first embodiment, and FIG. 4 is an explanation of the operation in the first embodiment. FIG. 5 is an explanatory diagram of the assumption of the feature vector distribution in the first and second embodiments.

【0015】図1において、101は参照画像を格納し
た参照画像メモリ、102は参照ベクトルを生成するた
めの参照ベクトル生成器、103は参照ベクトルを変更
する参照ベクトル変更手段、104は相関値を演算する
相関値演算器、105は最大相関値を有する画像を索引
して出力する最大相関画像索引出力器、106は検索対
象画像メモリである。画素の特徴量として、色を用い
る。これをRGBの列ベクトルであるxとする。画素位
置を水平位置ξ、垂直位置ηの列ベクトルであるpとす
る。そして、画素の特徴ベクトルを(x,p)とする。
参照画像メモリ101には、RGBの色ベクトルxを特
徴とする画素の配列として参照画像が格納されている。
参照画像は参照ベクトル生成器102へ入力され、参照
ベクトル集合が得られる。参照ベクトルは、色ベクトル
xの平均x ̄と共分散X,位置ベクトルpの平均p ̄と
共分散Pの並びからなるパラメータである。参照ベクト
ル生成器102では、参照画像の画素をその特徴ベクト
ル(x,p)よりクラスリングする。この結果の例を図
4では、楕円として表示した。クラスタリングされた画
素のクラスタは結果は必ずしも楕円領域を形成する保証
はないが、色に加えて位置を特徴ベクトルとしているこ
とから、似たような色でかつ距離の近い近傍の画素が一
つのクラスタを形成する。これは図5に示すクラスタ内
で、色ベクトルと位置ベクトルが独立に分布していると
の仮定に基づいている。
In FIG. 1, 101 is a reference image memory storing a reference image, 102 is a reference vector generator for generating a reference vector, 103 is a reference vector changing means for changing the reference vector, and 104 is a correlation value calculation. A correlation value calculator 105, a maximum correlation image index output device 105 for indexing and outputting an image having a maximum correlation value, and a search target image memory 106. Color is used as the feature amount of the pixel. Let this be x, which is a column vector of RGB. The pixel position is p, which is a column vector of the horizontal position ξ and the vertical position η. Then, the feature vector of the pixel is set to (x, p).
The reference image memory 101 stores a reference image as an array of pixels featuring the RGB color vector x.
The reference image is input to the reference vector generator 102, and a reference vector set is obtained. The reference vector is a parameter consisting of a sequence of mean x-covariance X of color vector x and covariance X and mean p-and covariance P of position vector p. The reference vector generator 102 classifies the pixels of the reference image from the feature vector (x, p). An example of this result is shown as an ellipse in FIG. The result of clustered pixel clusters is not always guaranteed to form an elliptical region, but since position is used as a feature vector in addition to color, a cluster of pixels with similar colors and close distances is one cluster. To form. This is based on the assumption that the color vector and the position vector are independently distributed in the cluster shown in FIG.

【0016】図4に示す例では、髪の黒い部分、顔の肌
色の部分に対して各々一つの参照ベクトルが割り当てら
れている。このように、色ベクトルと位置ベクトルの結
合した画素の特徴ベクトルをクラスタリングすることに
より、「どこに、どのような色の分布があるか」が表現
される。この参照ベクトル集合を求める手順を図2を用
いて説明する。図2は図1中の参照ベクトル生成器10
2の機能ブロック図であり、201は参照画像を記憶す
るフレームメモリ、202は画像の位置ベクトルpをラ
ンダムに発生するランダムアドレス発生部、203はラ
ンダムアドレス発生部202で得られた位置ベクトルp
により、その位置にある画素の色ベクトルxを読み出し
て、特徴ベクトル(x,p)を合成し出力する特徴ベク
トル合成部、204は参照ベクトル決定部、205は参
照ベクトル変更部、206は参照ベクトル格納メモリで
ある。参照ベクトル格納メモリ206にはN個の参照ベ
クトル格納のためのスロットが1からNまである。参照
ベクトル集合を、θi=(x ̄i,Xi,p ̄i,Pi),
1≦i≦Nと表現することにする。iはスロット番号に
対応している。ここで、参照ベクトルメモリ206の各
スロットには、1,0の2値をとる有効フラグが付随し
ている。1の時、有効、0の時無効とする。以下にクラ
スタリングの手順を示す。
In the example shown in FIG. 4, one reference vector is assigned to each of the black portion of the hair and the skin color portion of the face. In this way, by clustering the feature vectors of pixels in which the color vector and the position vector are combined, "where and what color distribution is present" are expressed. A procedure for obtaining this reference vector set will be described with reference to FIG. FIG. 2 shows the reference vector generator 10 in FIG.
2 is a functional block diagram of No. 2, 201 is a frame memory that stores a reference image, 202 is a random address generation unit that randomly generates a position vector p of an image, and 203 is a position vector p obtained by the random address generation unit 202.
By this, the color vector x of the pixel at that position is read out, and the feature vector synthesis unit that synthesizes and outputs the feature vector (x, p), 204 is the reference vector determination unit, 205 is the reference vector change unit, and 206 is the reference vector. It is a storage memory. The reference vector storage memory 206 has 1 to N slots for storing N reference vectors. Let the reference vector set be θ i = (x− i , X i , p− i i , P i ),
It is expressed as 1 ≦ i ≦ N. i corresponds to the slot number. Here, each slot of the reference vector memory 206 is associated with a valid flag that takes a binary value of 1,0. When 1 is valid, when 0 is invalid. The clustering procedure is shown below.

【0017】ステップ1:はじめにN個のスロットの内
c個(c≦N)のスロットの有効フラグを1とし、他を
0とする。離散時間tの参照ベクトル集合を、θ
i(t)=(x ̄i(t),Xi(t),p ̄i(t),P
i(t)),1≦i≦Nと表現することにする。有効フラ
グの1である参照ベクトルスロットのメモリ内容を初期
化する。初期化は、共分散行列Xi(0)、Pi(0)は
単位行列であるとし、色ベクトルxの平均x ̄i(0)
と位置ベクトルpの平均p ̄i(0)は、ランダムに設
定する。初期化時の離散時間tは0である。
Step 1: First, the valid flags of c slots (c≤N) of N slots are set to 1 and the others are set to 0. Let θ be the set of reference vectors at discrete time t.
i (t) = (x¯ i (t), X i (t), p¯ i (t), P
i (t)), 1 ≦ i ≦ N. Initialize the memory contents of the reference vector slot which is 1 of the valid flag. Initialization is performed assuming that the covariance matrices X i (0) and P i (0) are unit matrices, and the average x− i (0) of the color vectors x.
And the average p- i (0) of the position vector p are set at random. The discrete time t at the time of initialization is 0.

【0018】ステップ2:特徴ベクトル合成部203で
は、ランダムアドレス発生部202で得られた位置ベク
トルpにより、その位置にある画素の色ベクトルxを読
み出して、特徴ベクトルを合成し出力する。参照ベクト
ル決定部204では、N個スロットの中で有効フラグが
1であるスロット内の参照ベクトルについて、特徴ベク
トルとの距離を計算する。この距離の評価は(数1)で
行なう(tは行列、ベクトルの転置を意味する)。
Step 2: The feature vector synthesizing unit 203 reads the color vector x of the pixel at that position by the position vector p obtained by the random address generating unit 202, synthesizes the feature vector, and outputs it. The reference vector determination unit 204 calculates the distance from the feature vector for the reference vector in the slot whose valid flag is 1 among the N slots. This distance is evaluated by (Equation 1) (t means transposition of matrix and vector).

【0019】[0019]

【数1】 [Equation 1]

【0020】ここで、|X|と|P|は各共分散行列の
行列式である。(数1)は、画素の分布が色ベクトルx
と、位置ベクトルpが各々独立に平均x ̄i,p ̄iと共
分散Xi,Pi で正規分布していると仮定した時、その
確率密度関数の対数(対数尤度)から求めることができ
る統計的な測度である。N個のスロットの中で、有効フ
ラグが1の参照ベクトルについて距離を計算し、最短距
離であったスロットの番号をkとして、参照ベクトル決
定部204はその番号kと特徴ベクトルの標本を参照ベ
クトル変更部205へ送る。参照ベクトル変更部205
では、スロット番号kの参照ベクトルを標本に(数1)
の距離関数の下で、より近くなるよう(数2、3、4、
5)で変更する。(数6)は実験的に定める利得係数で
ある。
Here, | X | and | P | are determinants of each covariance matrix. In (Equation 1), the pixel distribution is the color vector x
And, assuming that the position vector p is normally distributed with the mean x  ̄ i , p  ̄ i and the covariances X i , P i , it can be obtained from the logarithm (log likelihood) of the probability density function. It is a statistical measure that can Of the N slots, the distance is calculated with respect to the reference vector whose effective flag is 1, and the reference vector determination unit 204 uses the number k and the sample of the feature vector as the reference vector. Send to the changing unit 205. Reference vector changing unit 205
Then, using the reference vector of slot number k as a sample (Equation 1)
Under the distance function of, it becomes closer (Equations 2, 3, 4,
Change in 5). (Equation 6) is an experimentally determined gain coefficient.

【0021】[0021]

【数2】 [Equation 2]

【0022】[0022]

【数3】 [Equation 3]

【0023】[0023]

【数4】 [Equation 4]

【0024】[0024]

【数5】 [Equation 5]

【0025】[0025]

【数6】 [Equation 6]

【0026】そして時刻tを1増加させ、以上のステッ
プ2を所定の回数(例えば10000回)繰り返すこと
により、画素の自己組織化によるクラスタリングがおこ
なわれる。
Then, the time t is incremented by 1 and the above step 2 is repeated a predetermined number of times (for example, 10,000 times), whereby clustering is performed by self-organization of pixels.

【0027】すなわち、ランダムに選ばれた特徴ベクト
ルにもっとも近い参照ベクトルが、よりその標本に近く
なるように分布パラメタータを修正することにより、一
つのクラスタが形成される。ランダムアドレス発生は、
逐次参照ベクトルを変更する時の偏りを防ぐためであ
る。このステップ2の繰り返しの中で、参照ベクトル変
更部205は、条件1:(参照ベクトルの総スロット数
N)−(現在有効な参照ベクトルスロット数c)>0で
あり、条件2:ln|Xi|+ln|Pi|が所定のしき
い値以上、であれば、参照ベクトルθiで表現されるク
ラスタを分割する。このために参照ベクトルθiを有効
フラグが0である(無効な)参照ベクトルスロットjに
複製し、θj=θiを作る。そして、各々、平均ベクトル
をε加減する。εの値は実験的に定める。これを(数
7、8、9、10)に示す。
That is, one cluster is formed by modifying the distribution parameter data so that the reference vector closest to the randomly selected feature vector is closer to the sample. Random address generation is
This is to prevent bias when changing the sequential reference vector. In the repetition of step 2, the reference vector changing unit 205 satisfies the condition 1: (total number of reference vector slots N) − (currently valid reference vector slot number c)> 0, and condition 2: ln | X If i | + ln | P i | is greater than or equal to a predetermined threshold value, the cluster represented by the reference vector θ i is divided. For this purpose, the reference vector θ i is duplicated in the reference vector slot j whose valid flag is 0 (invalid), and θ j = θ i is created. Then, the average vector is adjusted by ε, respectively. The value of ε is experimentally determined. This is shown in (Equations 7, 8, 9, 10).

【0028】[0028]

【数7】 [Equation 7]

【0029】[0029]

【数8】 [Equation 8]

【0030】[0030]

【数9】 [Equation 9]

【0031】[0031]

【数10】 [Equation 10]

【0032】そして、スロットjの有効フラグを1に
し、有効な参照ベクトルスロット数cを1増やして、以
後の自己組織化の反復に用いる。これにより、ln|X
i|+ln|Pi|が大きなクラスタが分割される。
Then, the valid flag of the slot j is set to 1 and the number of valid reference vector slots c is increased by 1, and used for the repetition of self-organization thereafter. As a result, ln | X
A cluster having a large i | + ln | P i | is divided.

【0033】またステップ2の繰り返しの中で、所定の
期間、一度もランダムに選ばれた標本ベクトルの割当が
得られなかった、すなわち最短距離とならなかった参照
ベクトルのスロットの有効フラグを0にし、有効な参照
ベクトルスロット数cを1減ずる。これは、は誤った値
に収束した参照ベクトルのパラメータを取り消すために
必要である。
Further, during the repetition of step 2, the valid flag of the slot of the reference vector for which the randomly selected sample vector has not been obtained even once for the predetermined period, that is, the shortest distance is not set, is set to 0. , The effective reference vector slot number c is decremented by 1. This is necessary to cancel the parameters of the reference vector that have converged to the wrong value.

【0034】以上の処理により、参照画像について、無
効な参照ベクトルを含めてN個の参照ベクトルからなる
参照ベクトル集合が生成され、図1の参照ベクトル変更
手段103に送られる。ここでは、参照ベクトル集合の
一部を無効にする。図4の例では、中央の人物像を含む
画像を検索したい。このとき、背景の画像は検索対象で
はないため、この領域に属する参照ベクトルを手動によ
り無効にする。すなわち有効フラグを0にする。図4で
は、これを破線の楕円で示した。このようにして、変更
した参照ベクトル集合は、相関値演算器104へ送られ
る。図3は、相関置演算器104の動作を説明するため
の図である。図3は相関置演算器104の機能ブロック
図であり、301は検索対象画像を記憶するフレームメ
モリ、302は画像の位置ベクトルpをランダムに発生
するランダムアドレス発生部、303はランダムアドレ
ス発生部302で得られた位置ベクトルpにより、その
位置にある画素の色ベクトルxを読み出して、特徴ベク
トル(x,p)を合成し出力する特徴ベクトル合成部、
304は参照ベクトル決定部、305は相関画素計数
部、306は参照ベクトル格納メモリである。参照ベク
トル変更手段205による変更を受けた参照ベクトル集
合は、図3の参照ベクトル格納メモリ306へ格納され
る。検索対象画像データは、フレームメモリ301に格
納されている。特徴ベクトル合成部303では、ランダ
ムアドレス発生部302で得られた位置ベクトルpによ
り、その位置にある画素の色ベクトルxをフレームメモ
リ301より読み出して、特徴ベクトル(x,p)を合
成し出力する。参照ベクトル決定部304では、N個ス
ロットの中で有効フラグが1であるスロット内の参照ベ
クトルについて、特徴ベクトルとの距離を計算する。こ
の距離の評価は(数1)で行なう。(数1)の距離計算
をN個のスロットの中で、有効フラグが1の参照ベクト
ルについて距離を計算し、最短距離である参照ベクトル
kを求める。そして、(数1)のなかで、共分散の行列
式の値を除いた(数11)に示す成分のみを距離χとし
て、相関画素計数器305へ送る。
By the above processing, a reference vector set including N reference vectors including invalid reference vectors is generated for the reference image and sent to the reference vector changing means 103 in FIG. Here, a part of the reference vector set is invalidated. In the example of FIG. 4, it is desired to search for an image including the person image in the center. At this time, since the background image is not the search target, the reference vector belonging to this area is manually invalidated. That is, the valid flag is set to 0. In FIG. 4, this is indicated by a dashed ellipse. The reference vector set thus changed is sent to the correlation value calculator 104. FIG. 3 is a diagram for explaining the operation of the correlation calculator 104. FIG. 3 is a functional block diagram of the correlation calculator 104. Reference numeral 301 is a frame memory that stores a search target image, 302 is a random address generator that randomly generates a position vector p of the image, and 303 is a random address generator 302. A feature vector combining unit that reads out the color vector x of the pixel at that position from the position vector p obtained in step 1, and combines and outputs the feature vector (x, p),
Reference numeral 304 is a reference vector determination unit, 305 is a correlated pixel counting unit, and 306 is a reference vector storage memory. The reference vector set changed by the reference vector changing unit 205 is stored in the reference vector storage memory 306 of FIG. The search target image data is stored in the frame memory 301. The feature vector synthesis unit 303 reads the color vector x of the pixel at that position from the frame memory 301 based on the position vector p obtained by the random address generation unit 302, synthesizes the feature vector (x, p), and outputs it. . The reference vector determination unit 304 calculates the distance from the feature vector for the reference vector in the slot whose valid flag is 1 among the N slots. This distance is evaluated by (Equation 1). In the distance calculation of (Equation 1), the distance is calculated for the reference vector whose valid flag is 1 in N slots, and the reference vector k which is the shortest distance is obtained. Then, in (Equation 1), only the component shown in (Equation 11) excluding the value of the covariance determinant is sent to the correlated pixel counter 305 as the distance χ.

【0035】[0035]

【数11】 [Equation 11]

【0036】ここで、相関画素計数器305は、最短距
離χ<しきい値Tの画素を計数する。具体的には、相関
値の初期値を0として、しきい値T以下の最短距離が参
照ベクトル決定部304より入力されたら数を1増や
す。ここで、距離χは特徴ベクトルから、平均x ̄k
p ̄kまでの正規化距離であるマハラノビス距離であ
る。マハラノビス距離は、特徴ベクトルが正規分布して
いると仮定すると、χ2乗分布に従う。したがって、し
きい値Tはχ2乗検定に用いるしきい値を用いることが
できる。以上のランダムな特徴ベクトルの読み出し、参
照ベクトルの決定と正規化距離χの演算、正規化距離χ
のしきい値処理による相関画素の計数を繰り返して、相
関値を計算する。
Here, the correlation pixel counter 305 counts pixels with the shortest distance χ <threshold value T. Specifically, the initial value of the correlation value is set to 0, and when the shortest distance equal to or less than the threshold value T is input from the reference vector determination unit 304, the number is incremented by 1. Here, the distance χ is calculated from the feature vector as an average x  ̄ k ,
a Mahalanobis distance is the normalized distance to the p¯ k. The Mahalanobis distance follows a χ 2 distribution, assuming that the feature vector is normally distributed. Therefore, as the threshold value T, the threshold value used for the χ 2 test can be used. Read out the above random feature vector, determine the reference vector and calculate the normalized distance χ, normalized distance χ
The correlation value is calculated by repeating the counting of the correlation pixels by the threshold processing of.

【0037】この様に構成された相関演算器104より
相関値は出力され、最大相関画像索引出力器105へ記
憶される。同時に検索対象画像106への索引情報を併
せて記録する。検索対象画像メモリ106に記憶されて
いる検索対象画像について、相関演算器104を繰り返
し動作させることにより、画像を検索する。最後に、最
大相関画像索引出力器105より相関値最大であった検
索対象画像の索引を出力する。
The correlation value is output from the correlation calculator 104 thus constructed and stored in the maximum correlation image index output unit 105. At the same time, index information for the search target image 106 is also recorded. For the search target image stored in the search target image memory 106, the correlation calculator 104 is repeatedly operated to search for the image. Finally, the maximum correlation image index output unit 105 outputs the index of the search target image having the maximum correlation value.

【0038】本実施例によれば、検索対象画像の局所的
な色の分布を参照ベクトルとして記憶しておくことによ
り、位置と色に依存した画像の検索が行なえる。図4を
例にとると、検索対象画像の中で、画面中央部のやや上
に黒い髪の領域、中央部に肌色領域、下部に衣服の色領
域をもつ画像の相関値が高くなり、単なる色の相関性だ
けではなく、位置まで指定した画像の検索が行なえる。
また、逆に、位置に依存しない色だけの検索や位置が不
確かな場合にも本実施例は対応することができる。参照
ベクトル変更手段で、背景の領域に属した参照ベクトル
を無効にしたことに加えて、人物領域に属する参照ベク
トルの位置に関する共分散Pの固有値を大きくなるよう
に変更することで、人物像が移動している場合の画像検
索にも利用できる。
According to the present embodiment, the local color distribution of the image to be searched is stored as the reference vector, so that the image search depending on the position and the color can be performed. Taking FIG. 4 as an example, in the search target image, an image having a black hair region slightly above the center of the screen, a flesh color region at the center, and a clothing color region at the bottom has a high correlation value. You can search not only for color correlation but also for images that have been specified by position.
On the contrary, the present embodiment can also deal with the case where the search is not performed for only the color that does not depend on the position or the position is uncertain. In addition to invalidating the reference vector belonging to the background area by the reference vector changing means, the eigenvalue of the covariance P relating to the position of the reference vector belonging to the person area is changed to be large, whereby It can also be used to search for images when you are moving.

【0039】次に、請求項2に該当する第2の実施例を
図6を用いて説明する。図6は第2の実施例における画
像検索装置の機能ブロック図である。図6において、6
01は検索対象画像メモリ、602、606はRGBの
色ベクトルをその大きさで正規化する輝度正規化器、6
03,607は参照ベクトル生成器、604は索引付き
検索対象参照ベクトルメモリ、605は参照画像メモ
リ、608は相関値演算器、609は最大相関画像索引
出力器である。
Next, a second embodiment corresponding to claim 2 will be described with reference to FIG. FIG. 6 is a functional block diagram of the image search apparatus according to the second embodiment. In FIG. 6, 6
Reference numeral 01 is a search target image memory, 602 and 606 are luminance normalizers for normalizing RGB color vectors by their sizes, 6
Reference numerals 03 and 607 are reference vector generators, 604 is an indexed search target reference vector memory, 605 is a reference image memory, 608 is a correlation value calculator, and 609 is a maximum correlation image index output device.

【0040】以上のように構成された第2の実施例で
は、参照ベクトル生成器603より検索対象画像を予め
入力し、各々の画像について参照ベクトル集合を得てお
き、索引付き検索対象参照ベクトルメモリ604へ索引
をつけて格納しておく。第2の実施例でも参照画像、検
索対象画像ともに、RGBの色ベクトルが格納されてい
る。第1の実施例と異なる点は、色ベクトルxは(数1
2)に示すように、輝度により正規化したものを用い
る。
In the second embodiment configured as described above, search target images are input in advance from the reference vector generator 603, a reference vector set is obtained for each image, and an indexed search target reference vector memory is obtained. An index is attached to 604 and stored. Also in the second embodiment, RGB color vectors are stored for both the reference image and the search target image. The difference from the first embodiment is that the color vector x is (Equation 1)
As shown in 2), the one normalized by the brightness is used.

【0041】[0041]

【数12】 [Equation 12]

【0042】これは、輝度正規化器602、606によ
り行なわれる。位置ベクトルは第1の実施例と同じであ
る。参照画像は参照ベクトル生成器607より処理さ
れ、参照画像の参照ベクトル集合が相関値演算器608
へ出力される。参照ベクトル生成器603および607
は第1の実施例で用いた参照ベクトル生成器102と全
く同じ構成であるのでその動作の説明は省略する。ここ
で、参照画像の参照ベクトル集合は、有効フラグととも
に、S={θi|θi=(x ̄i,Xi,p ̄i,Pi),1
≦i≦N)として,検索対象画像の参照ベクトル集合
は、有効フラグとともに、O={θj|θj=(x ̄j
j,p ̄j,Pj),1≦i≦N)として,表現する。
本実施例では、相関値演算器608では、参照ベクトル
集合S,O間の距離を(数13、14)に基づいて演算
する。
This is performed by the brightness normalizers 602 and 606. The position vector is the same as in the first embodiment. The reference image is processed by the reference vector generator 607, and the reference vector set of the reference image is calculated by the correlation value calculator 608.
Is output to. Reference vector generators 603 and 607
Has exactly the same configuration as the reference vector generator 102 used in the first embodiment, and therefore its description is omitted. Here, the reference vector set of the reference images is S = {θ i | θ i = (x− i , X i , p− i i , P i ), 1 together with the valid flag.
≦ i ≦ N), the reference vector set of the search target image is O = {θ j | θ j = (x− j j ,
X j , p − j , P j ), 1 ≦ i ≦ N).
In this embodiment, the correlation value calculator 608 calculates the distance between the reference vector sets S and O based on (Equations 13 and 14).

【0043】[0043]

【数13】 [Equation 13]

【0044】[0044]

【数14】 [Equation 14]

【0045】具体的には、(数13)のf(S,O)の
符号を反転した−f(S,O)を相関値として、最大相
関画像索引出力器609へ出力する。索引付き検索対象
参照ベクトルメモリ604に記憶されている複数の参照
ベクトル集合について上記の相関値演算器608を反復
的に動作させて、画像を検索する。最後に、最大相関画
像索引出力器609より相関値最大であった検索対象画
像の索引を出力する。
Specifically, -f (S, O) obtained by inverting the sign of f (S, O) in (Equation 13) is output to the maximum correlation image index output unit 609 as a correlation value. The correlation value calculator 608 is repeatedly operated on a plurality of reference vector sets stored in the indexed search target reference vector memory 604 to search an image. Finally, the maximum correlation image index output unit 609 outputs the index of the search target image having the maximum correlation value.

【0046】第2の実施例によれば、予め得ておいた検
索対象画像の参照ベクトル集合と、参照画像の参照ベク
トル集合の、集合間の相関値を計算することにより、第
1の実施例に比べて高速に画像検索することが期待でき
る。また、RGBの色特徴を輝度で正規化した色ベクト
ルxを特徴に用いることから、輝度の変化に強い、色の
類似性に基づいた画像検索が行なえる。
According to the second embodiment, by calculating the correlation value between the sets of the reference vector set of the search target image and the reference vector set of the reference image which are obtained in advance, the first embodiment It can be expected to search images faster than Further, since the color vector x obtained by normalizing the RGB color features with the brightness is used as the feature, it is possible to perform the image search based on the color similarity, which is resistant to the change in the brightness.

【0047】なお、本発明の画素の特徴量は、上記実施
例では色を用いたが、他の特徴量でもかまわない。
The pixel feature amount of the present invention uses color in the above embodiment, but other feature amount may be used.

【0048】なお、本発明の各手段は、コンピュータを
用いてソフトウェア的に実現し、あるいはそれら各機能
を有する専用のハード回路を用いて実現する事が出来
る。
Each means of the present invention can be realized by software using a computer, or by using a dedicated hardware circuit having each of these functions.

【0049】[0049]

【発明の効果】以上述べたところから明らかなように、
本発明によれば、次のような効果を得ることができる。
As is apparent from the above description,
According to the present invention, the following effects can be obtained.

【0050】(1)従来の画像検索装置に比べて、画像
の構造を反映した、画像を検索することができる。例え
ば、大まかなスケッチ画像などにより、画像を検索する
ことができる。
(1) It is possible to search for an image that reflects the structure of the image as compared with a conventional image search device. For example, an image can be searched for by using a rough sketch image or the like.

【0051】(2)検索の鍵となる特徴の位置が不確か
な検索に対しても、参照ベクトルの位置に関する分布パ
ラメータを変更することにより対応することができる。
(2) A search in which the position of the key feature of the search is uncertain can be dealt with by changing the distribution parameter regarding the position of the reference vector.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像検索装置の第1の実施例における
ブロック図である。
FIG. 1 is a block diagram of a first embodiment of an image search device according to the present invention.

【図2】本発明の画像検索装置の第1、第2の実施例に
おける参照ベクトル生成器のブロック図である。
FIG. 2 is a block diagram of a reference vector generator in the first and second embodiments of the image search device of the invention.

【図3】上記第1の実施例における相関置演算器のブロ
ック図である。
FIG. 3 is a block diagram of a correlation placement calculator in the first embodiment.

【図4】上記第1の実施例における動作の説明図であ
る。
FIG. 4 is an explanatory diagram of an operation in the first embodiment.

【図5】上記第1の実施例および第2の実施例における
特徴ベクトル分布の説明図である。
FIG. 5 is an explanatory diagram of a feature vector distribution in the first embodiment and the second embodiment.

【図6】本発明の画像検索装置の第2の実施例における
ブロック図である。
FIG. 6 is a block diagram of a second embodiment of the image search device of the invention.

【図7】従来の画像検索装置のブロック図である。FIG. 7 is a block diagram of a conventional image search device.

【符号の説明】[Explanation of symbols]

101 参照画像メモリ 102 参照ベクトル生成器 103 参照ベクトル変更手段 104 相関値演算器(相関演算手段) 105 最大相関画像索引出力器 106 検索対象画像メモリ 201 参照画像フレームメモリ 202 ランダムアドレス発生部 203 特徴ベクトル合成部 204 参照ベクトル決定部 205 参照ベクトル変更部 206 参照ベクトル格納メモリ 301 検索対象画像フレームメモリ 302 ランダムアドレス発生部 303 特徴ベクトル合成部 304 参照ベクトル決定部 305 相関画素計数部 306 参照ベクトル格納メモリ 601 検索対象画像メモリ 602、606 輝度正規化器 603、607 参照ベクトル生成器 604 索引付き検索対象参照ベクトルメモ
リ 605 参照画像メモリ 608 相関値演算器(相関演算手段) 609 最大相関画像索引出力器
101 Reference Image Memory 102 Reference Vector Generator 103 Reference Vector Change Unit 104 Correlation Value Calculator (Correlation Calculator) 105 Maximum Correlation Image Index Output Unit 106 Search Target Image Memory 201 Reference Image Frame Memory 202 Random Address Generator 203 Feature Vector Synthesis Part 204 Reference vector determination part 205 Reference vector change part 206 Reference vector storage memory 301 Search target image frame memory 302 Random address generation part 303 Feature vector synthesis part 304 Reference vector determination part 305 Correlated pixel counting part 306 Reference vector storage memory 601 Search target Image memory 602, 606 Luminance normalizer 603, 607 Reference vector generator 604 Indexed search target reference vector memory 605 Reference image memory 608 Correlation value calculator (correlation Calculation means) 609 maximum correlation image index output device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】参照画像の画素を、その画素の特徴量と位
置とを特徴ベクトルとして、クラスタリングして、特徴
ベクトルの分布パラメータからなる参照ベクトル集合を
生成する参照ベクトル生成手段と、 検索対象画像から、画素を複数取り出して、画素の特徴
量と位置とを特徴ベクトルに用いて、前記参照ベクトル
で記述される画素の特徴ベクトル分布への誤差に相当す
る距離に基づいて画像の相関値を求める相関演算手段と
を備え、 前記複数の検索対象画像に対する前記相関演算手段の結
果を保持して、前記相関値が大きくなる検索対象画像を
検索結果として出力することを特徴とする画像検索装
置。
1. A reference vector generation means for clustering pixels of a reference image using the feature amount and position of the pixel as a feature vector to generate a reference vector set consisting of distribution parameters of the feature vector, and a search target image. From the above, a plurality of pixels are extracted, the feature amount and position of the pixel are used as the feature vector, and the correlation value of the image is obtained based on the distance corresponding to the error to the feature vector distribution of the pixel described by the reference vector. An image search apparatus comprising: a correlation calculation unit, holding results of the correlation calculation unit for the plurality of search target images, and outputting a search target image having a large correlation value as a search result.
【請求項2】参照画像および検索対象画像の画素を、そ
の画素の特徴量と位置とを特徴ベクトルとして、クラス
タリングして、特徴ベクトルの分布パラメータからなる
参照ベクトル集合を生成する参照ベクトル生成手段と、 前記参照画像の参照ベクトル集合と、前記検索対象画像
の参照ベクトル集合との相関値を演算する相関演算手段
とを備え、 前記複数の検索対象画像に対する前記相関演算手段の結
果を保持して、前記集合相関値の値が大きくなる検索対
象画像を検索結果として出力することを特徴とする画像
検索装置。
2. A reference vector generating means for clustering pixels of a reference image and a search target image using the feature amount and position of the pixel as a feature vector to generate a reference vector set including distribution parameters of the feature vector. A reference vector set of the reference image, and a correlation calculation unit that calculates a correlation value between the reference vector set of the search target image, holding the result of the correlation calculation unit for the plurality of search target images, An image search apparatus, which outputs a search target image having a large set correlation value as a search result.
JP10568493A 1993-05-06 1993-05-06 Image retrieval device Expired - Fee Related JP3311077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10568493A JP3311077B2 (en) 1993-05-06 1993-05-06 Image retrieval device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10568493A JP3311077B2 (en) 1993-05-06 1993-05-06 Image retrieval device

Publications (2)

Publication Number Publication Date
JPH06318256A true JPH06318256A (en) 1994-11-15
JP3311077B2 JP3311077B2 (en) 2002-08-05

Family

ID=14414242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10568493A Expired - Fee Related JP3311077B2 (en) 1993-05-06 1993-05-06 Image retrieval device

Country Status (1)

Country Link
JP (1) JP3311077B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260983A (en) * 1997-03-19 1998-09-29 Canon Inc Device and method for image retrieval
JPH1139309A (en) * 1997-07-15 1999-02-12 Canon Inc Picture retrieval device and its method
JPH11288418A (en) * 1998-04-02 1999-10-19 Canon Inc Device and method for retrieving image
WO2000046748A1 (en) * 1999-02-05 2000-08-10 Samsung Electronics Co., Ltd. Color image processing method and apparatus thereof
US6275534B1 (en) 1997-03-19 2001-08-14 Nec Corporation Moving picture transmission system and moving picture transmission apparatus used therein
JP2002543539A (en) * 1999-04-29 2002-12-17 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ Method for expressing color image, method for searching for color image, apparatus for expressing and searching for color image, computer system, computer program, and computer readable medium
US6778697B1 (en) 1999-02-05 2004-08-17 Samsung Electronics Co., Ltd. Color image processing method and apparatus thereof
US7054388B2 (en) 2000-04-27 2006-05-30 Nippon Telegraph And Telephone Corporation Signal detection method and apparatus, relevant program, and storage medium storing the program
JP2008211784A (en) * 2001-04-24 2008-09-11 Microsoft Corp Method for facilitating inserting information in video signal and method for facilitating protecting video signal
EP1993064A2 (en) 2007-05-16 2008-11-19 Canon Kabushiki Kaisha Image processing apparatus and image retrieval method
JP2011048481A (en) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd Image processing apparatus and program
CN111506772A (en) * 2019-01-31 2020-08-07 北京小犀智能科技中心(有限合伙) Image feature extraction-based image searching method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0460770A (en) * 1990-06-29 1992-02-26 Nec Corp Method and device for retrieving picture using schematic picture
JPH06150000A (en) * 1992-11-04 1994-05-31 Matsushita Electric Ind Co Ltd Image clustering device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0460770A (en) * 1990-06-29 1992-02-26 Nec Corp Method and device for retrieving picture using schematic picture
JPH06150000A (en) * 1992-11-04 1994-05-31 Matsushita Electric Ind Co Ltd Image clustering device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6275534B1 (en) 1997-03-19 2001-08-14 Nec Corporation Moving picture transmission system and moving picture transmission apparatus used therein
JPH10260983A (en) * 1997-03-19 1998-09-29 Canon Inc Device and method for image retrieval
JPH1139309A (en) * 1997-07-15 1999-02-12 Canon Inc Picture retrieval device and its method
JPH11288418A (en) * 1998-04-02 1999-10-19 Canon Inc Device and method for retrieving image
WO2000046748A1 (en) * 1999-02-05 2000-08-10 Samsung Electronics Co., Ltd. Color image processing method and apparatus thereof
US6778697B1 (en) 1999-02-05 2004-08-17 Samsung Electronics Co., Ltd. Color image processing method and apparatus thereof
US6853746B2 (en) 1999-02-05 2005-02-08 Samsung Electronics Co., Ltd. Color image processing method and apparatus thereof
JP2010262673A (en) * 1999-04-29 2010-11-18 Mitsubishi Electric R&D Centre Europe Bv Method and apparatus for representing color image, control apparatus, system for representing image, machine-readable medium, computer system, computer program, and computer-readable medium
JP2002543539A (en) * 1999-04-29 2002-12-17 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ Method for expressing color image, method for searching for color image, apparatus for expressing and searching for color image, computer system, computer program, and computer readable medium
JP2011192316A (en) * 1999-04-29 2011-09-29 Mitsubishi Electric R&D Centre Europe Bv Method and apparatus for searching for color image, control apparatus, system for searching for color image, machine-readable medium, method for representing color image, computer system, computer program and computer-readable medium
JP2011146078A (en) * 1999-04-29 2011-07-28 Mitsubishi Electric R&D Centre Europe Bv Method and apparatus for representing color image, control apparatus, system for representing image, machine-readable medium, computer system, computer program, and computer-readable medium
US7054388B2 (en) 2000-04-27 2006-05-30 Nippon Telegraph And Telephone Corporation Signal detection method and apparatus, relevant program, and storage medium storing the program
JP2008211784A (en) * 2001-04-24 2008-09-11 Microsoft Corp Method for facilitating inserting information in video signal and method for facilitating protecting video signal
EP1993064A2 (en) 2007-05-16 2008-11-19 Canon Kabushiki Kaisha Image processing apparatus and image retrieval method
US8644621B2 (en) 2007-05-16 2014-02-04 Canon Kabushiki Kaisha Image processing apparatus and image retrieval method
JP2011048481A (en) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd Image processing apparatus and program
CN111506772A (en) * 2019-01-31 2020-08-07 北京小犀智能科技中心(有限合伙) Image feature extraction-based image searching method and system

Also Published As

Publication number Publication date
JP3311077B2 (en) 2002-08-05

Similar Documents

Publication Publication Date Title
US7058209B2 (en) Method and computer program product for locating facial features
US6690828B2 (en) Method for representing and comparing digital images
US7120279B2 (en) Method for face orientation determination in digital color images
EP1391842B1 (en) Method for locating faces in digital color images
JP2894113B2 (en) Image clustering device
Boughorbel et al. Non-Mercer Kernels for SVM Object Recognition.
US9679370B2 (en) Image processing device and image processing method
US20040017941A1 (en) System and method for bounding and classifying regions within a graphical image
CN112508094A (en) Junk picture identification method, device and equipment
US8842889B1 (en) System and method for automatic face recognition
JPS6184785A (en) Image recognition system and operation thereof
JP3311077B2 (en) Image retrieval device
JP2007047975A (en) Method and device for detecting multiple objects of digital image, and program
CN113344028A (en) Breast ultrasound sequence image classification method and device
CN110428473B (en) Color image graying method of confrontation generation network based on auxiliary variable
Breiki et al. Self-supervised learning for fine-grained image classification
US6526167B1 (en) Image processing apparatus and method and provision medium
CN111695464A (en) Modeling method for linear coring feature space grouping based on fusion kernel
CN113076833B (en) Training method of age identification model, face age identification method and related device
Khan et al. Face detection in close-up shot video events using video mining
Jiang et al. Kernel sharing with joint boosting for multi-class concept detection
Suresh et al. Analysis of heuristic-based multilevel thresholding methods for image segmentation using R programming
CN106778811A (en) A kind of image dictionary generation method, image processing method and device
CN111738242B (en) Face recognition method and system based on self-adaption and color normalization
Hasan et al. Multiple Object Detection-Based Machine Learning Techniques

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees