JP2020190861A - Image search apparatus and image search method - Google Patents
Image search apparatus and image search method Download PDFInfo
- Publication number
- JP2020190861A JP2020190861A JP2019095022A JP2019095022A JP2020190861A JP 2020190861 A JP2020190861 A JP 2020190861A JP 2019095022 A JP2019095022 A JP 2019095022A JP 2019095022 A JP2019095022 A JP 2019095022A JP 2020190861 A JP2020190861 A JP 2020190861A
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- unit
- comparison
- ease
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像検索装置、画像検索方法に関する。 The present invention relates to an image search device and an image search method.
本技術分野の背景技術として、特許文献1がある。該公報では、検索に必要な局所特徴量の算出の過程で回転角度を算出するようにし、検索結果として画像を表示する際には、推定された回転角度に基づいて回転正規化の要否を判定し、回転角度が所定値以上である場合には、クエリ画像を基準にしてサンプル画像を回転正規化した後に表示するようにして、検索結果を確認する時に、心的回転による負荷を軽減するとともに、計算量を抑えて検索結果を得る技術が開示されている。
類似画像検索の用途として、監視システムがある。例えば監視者が不審者を発見した場合に、類似画像検索を用いて監視者が不審者を追跡することを補助できる。また、例えば監視者が置き去りにされた荷物を発見した場合に、類似画像検索を用いて荷物の所有者を特定することができる。このような用途においては、同一人物や同一荷物などの同一個体が検索結果の上位に出現することが好ましく、高精度な検索が求められる。 There is a monitoring system as an application of similar image search. For example, if a observer finds a suspicious person, similar image retrieval can be used to help the observer track the suspicious person. In addition, for example, when a watcher finds a baggage left behind, the owner of the baggage can be identified by using a similar image search. In such an application, it is preferable that the same individual such as the same person or the same baggage appears at the top of the search results, and a highly accurate search is required.
従来、高精度な類似画像検索を行う方法として、Convolutional neural network (CNN) を利用して画像から特徴量を抽出し、特徴量の類似度を計算する方法が提案されている。この方法では、照明環境や画像内での検索対象の位置や大きさが異なる同一個体の様々な画像に対して、類似の特徴量を抽出するようにCNNを学習しておくため、高精度な検索を行うことができる。一方で、どのような画像に対しても類似する特徴量を抽出するように学習するため、必ずしもクエリ画像と比較しやすい画像が検索結果の上位に出現するとは限らない。クエリ画像と検索結果の比較画像が同一個体か異なる個体かを瞬時に判断するためには、比較しやすい画像を上位に表示することが好ましい。また、例えばカメラ内で個体の追跡処理を行っておき、既に同一個体と判明している画像が複数枚ある場合には、それらの中からクエリ画像と比較しやすい画像を選択し、検索結果に表示することが好ましい。 Conventionally, as a method for performing a highly accurate similar image search, a method has been proposed in which a feature amount is extracted from an image using a convolutional neural network (CNN) and the similarity degree of the feature amount is calculated. In this method, CNN is learned so as to extract similar features for various images of the same individual having different search target positions and sizes in the lighting environment and images, so that it is highly accurate. You can search. On the other hand, since learning is performed so as to extract similar features for any image, an image that is easy to compare with the query image does not always appear at the top of the search results. In order to instantly determine whether the query image and the comparison image of the search result are the same individual or different individuals, it is preferable to display an image that is easy to compare at the top. Also, for example, if an individual is tracked in the camera and there are multiple images that are already known to be the same individual, an image that is easy to compare with the query image is selected from them and used as the search result. It is preferable to display.
前記特許文献1では、クエリ画像を基準にした比較画像の回転角を計算し、検索結果を表示する際に比較画像を回転させることで比較の容易度を向上させる方法が記載されている。記載の方法は局所特徴量を利用して類似度の計算及び回転角度の計算を行っており、画像内での同一個体の向きを揃えることで比較の容易度が向上するとしている。しかし、この方法はCNNのような事前学習を行って類似画像検索を行う方法に適用することはできず、高精度の検索を実現しつつ、比較の容易度を向上させることができない。また、物体が撮影された方向が異なったり、物体の一部が遮蔽されている場合など、画像内で物体の見た目が異なる場合に角度の計算が容易ではなく、比較の容易度を向上させることは困難である。
本発明の一態様では、高精度な類似画像検索を実現しつつ、比較の容易な画像を検索結果の上位に表示することができる画像検索装置の提供を目的とする。 One aspect of the present invention is to provide an image search device capable of displaying an image that can be easily compared at a higher level of a search result while realizing a highly accurate similar image search.
本発明の一態様は、検索対象を含む画像及び前記画像のアノテーションデータの入力を受け付ける入力部と、前記画像の特徴量を抽出する特徴抽出部と、前記画像同士の比較容易度を計算する比較容易度計算部と、前記画像と前記アノテーションデータとを用いて、前記画像の特徴量の抽出方法と前記比較容易度の計算方法とを学習する学習部と、前記学習部が学習した前記画像の特徴量と前記画像同士の比較容易度とに基づいて、表示画面に表示する検索結果の順序を決定する検索部と、前記検索部が決定した順序で前記検索結果を前記表示画面に表示する表示部と、を備えることを特徴とする画像検索装置として構成される。 One aspect of the present invention is an input unit that accepts input of an image including a search target and annotation data of the image, a feature extraction unit that extracts a feature amount of the image, and a comparison that calculates the ease of comparison between the images. Using the ease calculation unit, the image and the annotation data, a learning unit that learns a method for extracting features of the image and a method for calculating the comparison ease, and a learning unit that learns the image. A search unit that determines the order of search results to be displayed on the display screen based on the feature amount and the ease of comparison between the images, and a display that displays the search results on the display screen in the order determined by the search unit. It is configured as an image search device characterized by including a unit.
本発明の一態様によれば、高精度な類似画像検索を実現しつつ、比較の容易な画像を検索結果の上位に表示することができる。 According to one aspect of the present invention, it is possible to display an image that can be easily compared at the top of the search result while realizing a highly accurate similar image search.
以下、図面を参照して本発明の実施形態を説明する。以下の記載および図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施する事が可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following description and drawings are examples for explaining the present invention, and are appropriately omitted and simplified for the sake of clarification of the description. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.
図面において示す各構成要素の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each component shown in the drawings may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the position, size, shape, range and the like disclosed in the drawings.
以下の説明では、「テーブル」、「リスト」等の表現にて各種情報を説明することがあるが、各種情報は、これら以外のデータ構造で表現されていてもよい。データ構造に依存しないことを示すために「XXテーブル」、「XXリスト」等を「XX情報」と呼ぶことがある。識別情報について説明する際に、「識別情報」、「識別子」、「名」、「ID」、「番号」等の表現を用いるが、これらについてはお互いに置換が可能である。 In the following description, various information may be described by expressions such as "table" and "list", but various information may be expressed by a data structure other than these. The "XX table", "XX list", etc. may be referred to as "XX information" to indicate that they do not depend on the data structure. When describing the identification information, expressions such as "identification information", "identifier", "name", "ID", and "number" are used, but these can be replaced with each other.
同一あるいは同様な機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of components having the same or similar functions, they may be described by adding different subscripts to the same reference numerals. However, when it is not necessary to distinguish between these plurality of components, the subscripts may be omitted for explanation.
また、以下の説明では、プログラムを実行して行う処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU、GPU)によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)および/またはインターフェースデバイス(例えば通信ポート)等を用いながら行うため、処理の主体がプロセッサとされてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、計算機、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であれば良く、特定の処理を行う専用回路(例えばFPGAやASIC)を含んでいてもよい。 Further, in the following description, a process performed by executing a program may be described, but the program is executed by a processor (for example, CPU, GPU) to appropriately store a predetermined process as a storage resource (a storage resource (for example, CPU, GPU). Since it is performed using, for example, a memory) and / or an interface device (for example, a communication port), the main body of processing may be a processor. Similarly, the main body of processing for executing a program may be a controller, a device, a system, a computer, or a node having a processor. The main body of the processing performed by executing the program may be an arithmetic unit, and may include a dedicated circuit (for example, FPGA or ASIC) that performs a specific processing.
プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。 The program may be installed from the program source into a device such as a calculator. The program source may be, for example, a program distribution server or a computer-readable storage medium. When the program source is a program distribution server, the program distribution server includes a processor and a storage resource for storing the program to be distributed, and the processor of the program distribution server may distribute the program to be distributed to other computers. Further, in the following description, two or more programs may be realized as one program, or one program may be realized as two or more programs.
本実施形態では、画像検索装置の一例として、スーツケースなどの荷物画像の検索を行う例を説明する。なお、検索対象は荷物である必要はなく、撮像可能な対象(例えば、物体をはじめとする撮像対象)であればよい。 In the present embodiment, as an example of the image search device, an example of searching a luggage image such as a suitcase will be described. The search target does not have to be a baggage, and may be a target that can be imaged (for example, an image target such as an object).
図1は、本実施形態で用いられる画像検索装置の構成例を示す図である。図に示すように、本実施形態の画像検索装置1000は、入力部100、検索部101、特徴抽出部102、学習部103、比較容易度計算部104、表示部105を有して構成される。以下で各ブロックについて説明する。画像検索装置1000は、ハードウェアとしては、例えば、キーボードやマウス等の入力装置、LCD(Liquid Crystal Display)等の表示装置、あるいはタッチパネル等の入出力装置、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置やメモリ等の記憶媒体を備えた一般的なPCやサーバ等のコンピュータから構成される。
FIG. 1 is a diagram showing a configuration example of an image search device used in the present embodiment. As shown in the figure, the
入力部100は、検索もしくは学習を実行する際に各処理の実行に必要なデータを受け付ける。入力部100は、検索を実行する際にはクエリ画像及び比較対象の画像群を受け付け、それらのデータを検索部101に出力し、学習を実行する際には学習に必要な画像とアノテーションデータを受け付け、それらのデータを学習部103に出力する。
The
検索部101は、検索のためのデータ管理や計算処理を行う。検索処理では、検索部101は、まず入力部101からクエリ画像及び比較対象の画像群を受け付け、それらのデータを特徴抽出部102や比較容易度計算部104に出力する。検索部101は、特徴抽出部102が画像から抽出した特徴量や比較容易度計算部104が画像から計算した比較容易度を取得し、それらから比較画像群の表示順を決定する。検索部101は、最後にクエリ画像や比較画像群、表示順を表示部105に出力する。比較容易度とは、検索対象を含む画像同士の比較の容易性、すなわち比較が容易である程度を示す情報である。以下では、比較容易度が上記画像同士の比較の容易性を示すものとして説明しているが、画像に含まれる検索対象同士の比較の容易性を比較容易度としてもよい。
The
特徴抽出部102は、画像から類似度計算に必要な特徴量を抽出する。検索を実行する際には、特徴抽出部102は、検索部101から取得した画像に対して特徴量を抽出し、抽出した特徴量を検索部101に出力する。特徴抽出部102は、学習を実行する際には学習部103から取得した画像に対して特徴量を抽出し、抽出した特徴量を学習部103に出力する。また、特徴抽出部102は、特徴量を抽出するために必要なパラメータを保持しており、学習を実行する際にはこのパラメータを学習部103と送取得する。
The
学習部103は、特徴抽出部102が特徴量を抽出する際に使用するパラメータや比較容易度計算部104が比較容易度を計算する際に使用するパラメータを学習により更新する。学習を実行する際には、学習部103は、入力部100から学習に必要な画像とアノテーションデータを取得する。特徴量を抽出するためのパラメータを更新する際には、学習部103は、特徴抽出部102に画像を出力して、特徴抽出部102が画像から抽出した特徴量を取得し、この特徴量とアノテーションデータからパラメータの更新値を計算する。計算された更新値は特徴抽出部102に出力される。比較容易度を計算するためのパラメータを更新する際には、学習部103は、比較容易度計算部104に画像を出力して、比較容易度計算部104が画像から計算した比較容易度を取得し、この比較容易度とアノテーションデータからパラメータの更新値を計算する。計算された更新値は比較容易度計算部104に出力される。
The
表示部105は、検索結果を表示する。表示部105は、検索を実行する際に検索部101から表示するクエリ画像や比較画像群、表示順を取得し、表示順に応じて結果を並べる。また、表示部105は、検索部101から画像の類似度や比較容易度を取得してそれらを表示することもできる。
The
画像検索装の各部は、プログラムの実行により実現される。例えば、画像検索装置1000のCPUが、ROMからプログラムを読み出して実行することにより、上記各部の機能が実現される。上記プログラムは、USB(Universal Serial Bus)メモリ等の記憶媒体から読み出されたり、ネットワークを介した他のコンピュータからダウンロードする等して、画像検索装置1000に提供されてもよい。
Each part of the image search device is realized by executing the program. For example, the CPU of the
図2は、本実施形態で用いられる画像検索のフローの例を示す図である。以下で検索のフローを説明する。 FIG. 2 is a diagram showing an example of an image search flow used in the present embodiment. The search flow will be described below.
ステップ200では、検索実行者の検索開始操作により検索部が検索処理を開始する。検索実行者とは人である必要はなく、検索を実行するプログラムなどであってもよい。
In
ステップ201では、入力部100が、検索実行者が入力装置を操作して検索を行うためのクエリとなる画像と検索対象となる比較画像群の入力を受け付ける。
In
ステップ202では、入力部100が、ステップ201で検索実行者から入力されたクエリとなる画像および検索対象となる比較画像を検索部101に出力する。
In
ステップ203では、検索部101が、ステップ202で入力部100から取得したこれらの画像を特徴抽出部102に出力する。
In
ステップ204では、特徴抽出部102がステップ203で検索部101から取得したこれらの画像に対して特徴量の抽出を行う。特徴量の抽出には、例えばCNNを用いる。CNNは画像を入力されて特徴量となる数値ベクトルを出力する。数値ベクトルの計算には、CNNが保持するパラメータを用いて畳み込み演算により行う。このパラメータは任意の値に設定可能であり、学習により同一個体の画像に対しては類似するベクトルを出力するようにしておく。
In
ステップ205では、特徴抽出部102が、ステップ204で抽出した特徴量を検索部101に出力する。
In
ステップ206では、検索部101が、ステップ202で入力部100から取得したクエリとなる画像および検索対象となる比較画像を比較容易度計算部104に出力する。
In
ステップ207では、比較容易度計算部104が、ステップ206で検索部101から取得したこれらの画像に対して比較容易度の計算を行う。比較容易度の計算には、例えばCNNを用いる。CNNは二枚の画像を入力されて、その二枚の画像に対する比較容易度の値を出力する。値は、例えば0.0から1.0の範囲内にあり、大きいほど比較が容易であることを示す数値である。比較容易度の計算には、CNNが保持するパラメータを用いて畳み込み演算により行う。このパラメータは任意の値に設定可能であり、学習により比較が容易な画像の組み合わせに対しては大きな値を出力するようにしておく。
In
ステップ208では、比較容易度計算部104が、ステップ207で計算した比較容易度を検索部101に出力する。
In
ステップ209では、検索部101が、ステップ205で特徴抽出部102から取得した特徴量とステップ208で比較容易度計算部104から取得した比較容易度を用いて検索結果の表示順を決定する。特徴量を用いてクエリ画像と比較画像の類似度を計算するには、例えば特徴量である数値ベクトルのユークリッド距離を計算する。数値ベクトルは予めベクトルの大きさが1.0になるように正規化しておくことで、ユークリッド距離の範囲を0.0から2.0の範囲に制限する。更に以下の式により類似度を0.0から1.0の範囲に制限し、大きい値ほど類似度が高くなるようにする。
In
ただし、pはスコア、sは前記の処理で計算した類似度、cはステップ207で計算した比較容易度、αは類似度と比較容易度の表示順の決定への重要度を表し、0.0から1.0の範囲で設定する。αが小さいと類似度が高いものから順に表示し、αが大きいと比較容易度が高いものから順に表示する。αを検索結果表示画面で動的に変更できるようにしておけば、検索実行者の要求に応じて類似度と比較容易度の重要度を変更することができ、柔軟な表示が可能となる。
However, p is the score, s is the similarity calculated in the above process, c is the comparison ease calculated in
ステップ210では、検索部101が、クエリ画像、比較画像群及びステップ209で計算した表示順のスコアを表示部105に出力する。
In
ステップ211では、表示部105がステップ210で検索部101から取得したクエリ画像、比較画像群及び表示順のスコアを使用して表示順を決定し、検索結果の表示を行う。検索結果の表示は、表示部105が、例えばクエリ画像を表示し、その横に比較画像群を表示スコアが降順になるように上から下に並べて表示装置に表示する。
In
ステップ212では、入力部100が、検索実行者から、検索を続行するか終了するかの決定を受け付ける。
In
ステップ213では、入力部100が、検索終了の決定を受け付けた場合(ステップ212;Yes)、検索を終了する。一方、入力部100が、検索終了の決定を受け付けていない場合(ステップ212;No)、ステップ201に戻り、以降の処理を繰り返す。
In
本実施形態のような画像の検索方法を用いることで、クエリ画像と同一個体の画像を比較画像群の中から見つけ出し、検索結果の上位に表示する高精度な検索を実現しつつ、クエリ画像に対して比較しやすい画像を選択して表図することができ、検索結果の確認時間を減少させることができる。特許文献1の方法では比較の容易度を向上させることはできるが、特徴量の抽出方法を学習できないために、検索の精度が低くなってしまう。また、一般的な特徴量の抽出方法を学習する方法を用いる場合、全ての同一個体の画像に対して類似度が高くなるように学習を行うため、クエリ画像に対する比較画像の比較容易度は考慮されない。これらの方法に対して、本手法は特徴量の抽出方法とともに、比較容易度の計算方法も学習し表示順に反映させるため、検索結果のクエリ画像と比較画像を比較しやすくなる。
By using the image search method as in this embodiment, the image of the same individual as the query image is found from the comparison image group, and the query image is displayed while realizing a highly accurate search to be displayed at the top of the search results. On the other hand, images that are easy to compare can be selected and tabulated, and the confirmation time of search results can be reduced. Although the method of
本フローでは、クエリ画像や比較画像がそれぞれ独立した一枚の画像であることを前提としていたが、これらは一枚である必要はなく、同一個体の複数枚の画像であってもよい。このような場合には、一つの個体に対して特徴量を表す数値ベクトルが複数できるが、例えばそれらの数値ベクトルの平均値を計算して一つの数値ベクトルにまとめてもよいし、クエリ画像と比較画像の複数の数値ベクトルに対して全ての組み合わせの類似度を計算して、それらの類似度の最小値や平均値を計算してもよい。このような方法を用いることで、一対一の類似度計算を行うよりも画像の変化に頑強な類似度計算を行えるようになる。 In this flow, it is premised that the query image and the comparison image are one independent image, but these do not have to be one, and may be a plurality of images of the same individual. In such a case, a plurality of numerical vectors representing the feature amount can be created for one individual. For example, the average value of those numerical vectors may be calculated and combined into one numerical vector, or the query image and the query image. The similarity of all combinations may be calculated for a plurality of numerical vectors of the comparison image, and the minimum value or the average value of the similarity may be calculated. By using such a method, it becomes possible to perform a similarity calculation that is more robust to changes in the image than a one-to-one similarity calculation.
また、本フローでは、検索を行う際に検索実行者が画像を入力して逐一特徴量の抽出や比較容易度の計算を行っていたが、例えば予め特徴量の抽出や比較容易度の計算を行い、画像や抽出した特徴量、計算した比較容易度を記憶媒体に保存しておき、検索時には記憶媒体に保存されたものを用いることで、検索を実行する際の処理時間を減少させることができる。 Further, in this flow, when performing a search, the search executor inputs an image and extracts the feature amount and calculates the comparison ease one by one. For example, the feature amount is extracted and the comparison ease is calculated in advance. It is possible to reduce the processing time when executing the search by saving the image, the extracted features, and the calculated comparison ease in the storage medium, and using the one saved in the storage medium at the time of searching. it can.
また、本フローでは、特徴量の抽出方法として一般的なCNNを使用していたが、従来から知られている他の手法、例えば回転に対して頑強なCNNを使用して特徴量を抽出することで、荷物画像が回転している場合でも特徴量が変化せず、検索精度を向上させることができる。 In addition, in this flow, a general CNN was used as a feature extraction method, but a feature is extracted using another conventionally known method, for example, a CNN that is robust against rotation. As a result, the feature amount does not change even when the luggage image is rotated, and the search accuracy can be improved.
図3は、本実施形態で用いられる比較容易度計算の学習を行うためのフローチャートの例を示す図である。以下で学習のフローを説明する。 FIG. 3 is a diagram showing an example of a flowchart for learning the comparison ease calculation used in the present embodiment. The learning flow will be described below.
ステップ300では、学習実行者の学習開始操作により学習部が学習処理を開始する。学習実行者とは人である必要はなく、学習を実行するプログラムなどであってもよい。
In
ステップ301では、入力部100が、学習実行者が入力装置を操作して学習を行うための画像及びアノテーションデータの入力を受け付ける。
In
ステップ302では、入力部100が、ステップ301で学習実行者から入力された画像及びアノテーションデータを学習部103に出力する。
In
ステップ303では、学習部103が、ステップ302で入力部100から取得した画像を比較容易度計算部104に出力する。
In
ステップ304では、比較容易度計算部104が、ステップ303で学習部103から取得した画像に対して比較容易度の計算を行う。比較容易度の計算方法は図2におけるステップ207と同様である。
In
ステップ305では、比較容易度計算部104が、ステップ304で計算した比較容易度と比較容易度を計算する際に使用したパラメータを学習部103に出力する。
In
ステップ306では、学習部103が、ステップ305で比較容易度計算部104から取得した比較容易度と、ステップ302で入力部100から取得したアノテーションデータを用いて、ステップ305で比較容易度計算部104から取得した比較容易度計算用のパラメータの更新を行う。パラメータの更新には、例えば確率的勾配降下法を用いる。確率的勾配降下法の目的関数は、例えば比較容易度計算部104から取得した比較容易度の推定値と入力部100から取得したアノテーションデータに含まれる比較容易度の正解値の平均二乗誤差を用いる。平均二乗誤差Eは以下のように計算される。
In
ステップ307では、学習部103がステップ306で更新した比較容易度計算用のパラメータを比較容易度計算部104に出力する。
ステップ308では、比較容易度計算部104がステップ307で学習部103から取得した比較容易度計算用のパラメータを比較容易度の計算に使用するように設定する。
ステップ309では、入力部100が、学習実行者から、学習を続行するか終了するかの決定を受け付ける。
ステップ310では、入力部100が、学習終了の決定を受け付けた場合(ステップ309;Yes)、学習を終了する。一方、入力部100が、学習終了の決定を受け付けていない場合(ステップ309;No)、ステップ301に戻り、以降の処理を繰り返す。
In
In
In
In
本実施形態のような比較容易度計算の学習を行うと、比較のしやすさについて様々な要素を考慮することができる。特許文献1の方法では画像の回転について比較容易度を考慮することができるがその他の要素については考慮することができない。それに対して、本手法では、回転の他に例えば荷物の遮蔽についても考慮することができる。荷物が他の荷物に遮蔽されており、荷物を比較する際の重要な部分が見えない場合に比較容易度を小さくするように学習しておけば、このような画像は検索結果の上位から除外することができる。
When the comparison ease calculation is learned as in the present embodiment, various factors can be considered for the ease of comparison. In the method of
なお、本フローの比較容易度計算の学習方法は、目的関数を変更することで特徴抽出の学習に用いるパラメータの更新にも用いることができる。特徴抽出の学習における目的関数には、例えばSoftmax cross entropyで個体の識別を行うように学習する方法がある。このときの学習データセットは一つである必要はなく、複数のデータセットを用いることができる。複数のデータセットを用いる場合、複数のデータセットに含まれる全ての個体の中から各個体を識別するように学習するのではなく、特徴量を共有しながら各データセット内の個体の中から各個体を識別するように学習する方が精度を向上させることができる。 The learning method of the comparison ease calculation in this flow can also be used to update the parameters used for learning the feature extraction by changing the objective function. An objective function in the learning of feature extraction includes, for example, a method of learning to identify an individual by Softmax cross entropy. The training data set at this time does not have to be one, and a plurality of data sets can be used. When using multiple datasets, instead of learning to identify each individual from all the individuals included in the multiple datasets, each individual from among the individuals in each dataset is shared while sharing the features. The accuracy can be improved by learning to identify the individual.
図4は、本実施形態における比較容易度計算の学習を行うためのアノテーションデータの例を示す図である。アノテーションデータ400は検索対象を含む二つの画像IDの組み合わせとその二つの画像の比較容易度の集合で構成される。画像IDとは一つの画像に対して他の画像との重複が無いように付与された識別子であり、個々の画像を一意に特定するために使用される。当該一つの画像と他の画像との間の比較容易度は比較容易度計算部104が推定する目標値であり、0から1.0の範囲内で値が大きいほど比較が容易であることを示す数値である。画像ID1と画像ID2の順序は関係なく、画像ID1と画像ID2の組み合わせが同じものは同じアノテーションデータとして扱う。
FIG. 4 is a diagram showing an example of annotation data for learning the comparison ease calculation in the present embodiment. The
図5は、本実施形態における比較容易度計算の学習用のアノテーション方法の例を示す図である。表示部104は、表示装置に表示するアノテーション画面500として、同一個体の異なる画像501-504と比較容易度505を表示する。表示されている数値は、アノテーション実行者が入力した各画像の比較容易度であり、例えば数値505は画像502と画像504に対してアノテーション実行者が入力装置を操作して比較容易度0.8を入力したことを示している。
FIG. 5 is a diagram showing an example of an annotation method for learning the comparison ease calculation in the present embodiment. The
本実施形態のように、人間が検索結果を確認する同様の状況である画像を比較する状況において、比較容易度の入力によりアノテーションデータを作成することによって、人間の比較しやすさの感覚を検索結果に反映することができる。 As in the present embodiment, in a situation where a human confirms a search result and compares images in the same situation, a human sense of ease of comparison is searched by creating annotation data by inputting the degree of comparison. It can be reflected in the result.
本表示画面では、画面の四隅にアノテーション対象の画像を配置したが、例えば二つの画像と比較容易度を行方向に並べ、各アノテーションデータを列方向に並べるテーブル表示画面を用いてもよい。このような表示画面を用いると、アノテーション対象の画像が大量にある場合にも対応できる。 In this display screen, the images to be annotated are arranged at the four corners of the screen. For example, a table display screen in which the two images and the ease of comparison are arranged in the row direction and each annotation data is arranged in the column direction may be used. By using such a display screen, it is possible to deal with a large number of images to be annotated.
図6は、本実施形態における検索結果の表示画面の例を示す図である。以下では、検索部101が、入力装置によるユーザからの操作を受け付けて、検索結果を表示する順序を、画像の特徴量の類似度と比較容易度の重要度とに応じて変更し、表示部105が、検索部101による変更の結果を表示画面に表示する。
FIG. 6 is a diagram showing an example of a search result display screen according to the present embodiment. In the following, the
例えば、表示部105は、表示装置に表示する検索結果表示画面600として、検索に使用したクエリ画像601、比較画像群の検索結果602、クエリ画像と比較画像の類似度603、クエリ画像と比較画像の比較容易度604及び類似度と比較容易度の重要度を設定するα値605を表示する。本表示画面ではα値605が0.5に設定されており、類似度と比較容易度が同等の重要度であるとしてスコアが計算されている。検索結果602はスコアが降順になるように並べられている。
For example, the
本実施形態のように、入力部100が、検索実行者からα値605の設定操作を受け付け、表示画面上でα値605を任意に設定できるようにすることで、類似度と比較容易度の重要度を変更することができ、柔軟な検索結果の確認ができる。
As in the present embodiment, the
本表示画面ではα値を数値で入力するようにしているが、例えばスライドバーなどを用いて設定してもよい。スライドバーを用いることでα値605の入力を簡易に行うことができるようになる。
Although the α value is input as a numerical value on this display screen, it may be set by using, for example, a slide bar. By using the slide bar, it becomes possible to easily input the
本実施形態では、画像検索装置の一例として、スーツケースなどの荷物画像の検索を行う例を説明する。なお、検索対象は荷物である必要はなく、実施例1の場合と同様、撮像可能な対象であればよい。本実施形態では、比較容易度を画像の回転角度から算出されるものとし、比較容易度計算の学習を行うためのアノテーションデータとして画像の回転角度を用いる。その他については実施例1と同様である。 In the present embodiment, as an example of the image search device, an example of searching a luggage image such as a suitcase will be described. The search target does not have to be a baggage, and may be a target that can be imaged as in the case of the first embodiment. In the present embodiment, the comparison ease is calculated from the rotation angle of the image, and the rotation angle of the image is used as the annotation data for learning the comparison ease calculation. Others are the same as in Example 1.
図7は、本実施形態における比較容易度計算の学習用のアノテーション方法の例を示す図である。
表示部104は、表示装置に表示するアノテーション画面700として、同一個体の異なる画像701-702及び回転角度703を表示する。入力部100は、アノテーション実行者から、基準画像701と比較画像702の荷物の回転角度の入力を受け付ける。比較容易度計算部104は、入力された回転角度から比較容易度を以下のように計算する。
FIG. 7 is a diagram showing an example of an annotation method for learning the comparison ease calculation in the present embodiment.
The
本実施形態のように、比較容易度を画像の回転角度に限定することで、アノテーション実行者がアノテーションをしやすくなる特徴がある。 As in the present embodiment, by limiting the ease of comparison to the rotation angle of the image, there is a feature that the annotation executor can easily annotate.
本実施形態では、画像検索装置の一例として、スーツケースなどの荷物画像の検索を行う例を説明する。なお、検索対象は荷物である必要はなく、実施例1の場合と同様、撮像可能な対象であればよい。本実施形態では、物体の追跡が事前に行われており、各個体の画像が複数枚ある場合に、その複数枚の画像からクエリ画像と比較しやすい画像を選択する。その他については実施例1と同様である。 In the present embodiment, as an example of the image search device, an example of searching a luggage image such as a suitcase will be described. The search target does not have to be a baggage, and may be a target that can be imaged as in the case of the first embodiment. In the present embodiment, the tracking of the object is performed in advance, and when there are a plurality of images of each individual, an image that can be easily compared with the query image is selected from the plurality of images. Others are the same as in Example 1.
図8は、本実施形態で用いられる構成例を示す図である。図に示すように、本実施形態の画像検索装置8000は、図1の構成例に追跡部800と追跡データ蓄積部801を追加して構成される。以下で追加された各ブロックについて説明する。
FIG. 8 is a diagram showing a configuration example used in the present embodiment. As shown in the figure, the
追跡部800は、時系列的に連続する複数の画像について、各画像から荷物を検出し、その荷物を時系列方向に追跡する。追跡を実行する際には、まず追跡部800が入力部100から時系列的に連続する画像を取得する。次に追跡部800は、取得した画像に対して追跡処理を実施する。最後に追跡処理の結果を追跡データ蓄積部801に出力する。
The
追跡データ蓄積部801は、追跡部800が追跡処理を終了した際に、追跡結果を取得し、記憶装置や記憶媒体に保存しておく。
When the
図9は、本実施形態で用いられる追跡のフローチャートの例を示す図である。以下で追跡のフローを説明する。 FIG. 9 is a diagram showing an example of a tracking flowchart used in the present embodiment. The tracking flow will be described below.
ステップ900では、追跡実行者の追跡開始操作により追跡部が追跡処理を開始する。追跡実行者とは人である必要はなく、追跡を実行するプログラムなどであってもよい。
In
ステップ901では、入力部100が、追跡実行者が入力装置を操作して追跡を行うための時系列的に連続する画像の入力を受け付ける。
In
ステップ902では、入力部100が、ステップ901で追跡実行者から入力された時系列的に連続する画像を追跡部800に出力する。
In
ステップ903では、追跡部800が、ステップ902で入力部100から取得した時系列的に連続する画像に対して追跡処理を実施する。追跡には、例えばまず、従来から知られている様々な手法を用いて各画像の荷物の検出を行う。検出結果は荷物の種類と画像内における位置と大きさになる。次に、追跡部800は、時系列的に隣接する画像の検出結果について、同じ種類として検出した荷物のうち空間的に距離が近い荷物同士を結びつけ、結び付けた荷物を含む画像に同じ追跡IDを付与する距離の計算には、例えば検出の位置のユークリッド距離を用いる。このようにして生成された検出結果は荷物の種類、荷物が映る画像ID、同じ種類の荷物として検出した画像の追跡ID、各画像における荷物の位置と大きさとなる。
In
ステップ904では、追跡部800が、ステップ903で生成した検出結果を追跡結果として追跡データ蓄積部801に出力する。
In
ステップ905では、追跡データ蓄積部801が、ステップ904で追跡部800から取得した追跡結果を示すデータを記憶装置や記憶媒体に保存する。
In
ステップ906では、入力部100が、追跡実行者から、追跡を続行するか終了するかの決定を受け付ける。
In
ステップ907では、入力部100が、追跡終了の決定を受け付けた場合(ステップ906;Yes)、追跡を終了する。一方、入力部100が、追跡終了の決定を受け付けていない場合(ステップ906;No)、ステップ901に戻り、以降の処理を繰り返す。
In
本実施形態のような追跡を行うと、検索実行前に同一個体の複数の画像を集合としてまとめておけるため、比較対象となる画像の枚数を減らすことができ、検索精度を向上させることができる。また、類似度を計算する際に、クエリ画像と比較画像それぞれについて複数枚の画像を使用できるため、画像の変化に頑強な類似度計算を行うことができ、検索精度を向上させることができる。 When tracking as in the present embodiment is performed, a plurality of images of the same individual can be collected as a set before the search is executed, so that the number of images to be compared can be reduced and the search accuracy can be improved. .. Further, when calculating the similarity, since a plurality of images can be used for each of the query image and the comparison image, it is possible to perform the similarity calculation that is robust against changes in the images, and it is possible to improve the search accuracy.
図10は、本実施形態で用いられる画像検索のフローチャートの例を示す図である。以下で図2の検索フローと異なるステップのみ説明する。 FIG. 10 is a diagram showing an example of an image search flowchart used in the present embodiment. Only the steps different from the search flow of FIG. 2 will be described below.
ステップ1000では、入力部100が、検索実行者が入力装置を操作して検索を行うためのクエリとなる画像の入力を受け付ける。
In
ステップ1001では、追跡データ蓄積部801が、検索の比較対象となる画像群及び追跡データを検索部101に出力する。
In
ステップ1002では、検索部101が、ステップ1000で入力部100から取得したクエリ画像及びステップ1001で追跡データ蓄積部801から取得した比較画像群を特徴量抽出部102に出力する。
In
ステップ1003では、検索部101が、ステップ1000で入力部100から取得したクエリ画像及びステップ1001で追跡データ蓄積部801から取得した比較画像群を比較容易度計算部104に出力する。
In
ステップ1004では、検索部101が、ステップ205で特徴抽出部102から取得した特徴量を用いて検索結果の表示順を決定する。検索部101は、表示順を決めるスコアとして、例えばステップ209の類似度計算方法を用いて特徴量から類似度を計算し、その類似度を用いる。
In
ステップ1005では、検索部101が、比較対象の各個体を示す複数の画像の中から比較容易度を使用して表示する画像を選択する。検索部101は、例えば複数の画像の中からクエリ画像に対して比較容易度が最も大きいものを選択する。
In
本実施形態のような画像の検索方法を用いることで、比較対象の同一個体を示す複数の画像の中からクエリ画像と比較しやすいものを選択することができ、検索結果の確認時間を減少させることができる。 By using the image search method as in the present embodiment, it is possible to select an image that is easy to compare with the query image from a plurality of images indicating the same individual to be compared, and the confirmation time of the search result is reduced. be able to.
このように、上記各実施例によれば、高精度な類似画像検索を実現しつつ、比較の容易な画像を検索結果の上位に表示することができる画像検索装置を提供することができる。また、類似特徴量の抽出方法とともに、画像の比較容易度を計算するように学習しておき、検索の際に特徴量の類似度と比較の容易度の両方を用いて検索結果を並べ替えることで比較の容易度を向上させる方法を提供することができる。 As described above, according to each of the above-described embodiments, it is possible to provide an image search device capable of displaying an image that can be easily compared at the top of the search result while realizing a highly accurate similar image search. Also, learn to calculate the comparison ease of images together with the extraction method of similar features, and sort the search results using both the similarity of features and the ease of comparison when searching. Can provide a method for improving the ease of comparison.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-mentioned examples, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
1000、8000 画像検索装置
100 入力部
101 検索部
102 特徴抽出部
103 学習部
104 比較容易度計算部
105 表示部
800 追跡部
801 追跡データ蓄積部
1000, 8000
Claims (10)
前記画像の特徴量を抽出する特徴抽出部と、
前記画像同士の比較容易度を計算する比較容易度計算部と、
前記画像と前記アノテーションデータとを用いて、前記画像の特徴量の抽出方法と前記比較容易度の計算方法とを学習する学習部と、
前記学習部が学習した前記画像の特徴量と前記画像同士の比較容易度とに基づいて、表示画面に表示する検索結果の順序を決定する検索部と、
前記検索部が決定した順序で前記検索結果を前記表示画面に表示する表示部と、
を備えることを特徴とする画像検索装置。 An input unit that accepts input of an image including a search target and annotation data of the image,
A feature extraction unit that extracts the feature amount of the image,
A comparison ease calculation unit that calculates the comparison ease between the images,
A learning unit that learns a method for extracting features of the image and a method for calculating the degree of comparison using the image and the annotation data.
A search unit that determines the order of search results to be displayed on the display screen based on the feature amount of the image learned by the learning unit and the ease of comparison between the images.
A display unit that displays the search results on the display screen in the order determined by the search unit, and
An image search device characterized by comprising.
前記入力部は、前記アノテーションデータとして、一の画像と他の画像と当該一の画像と他の画像との比較容易度とを含むデータの入力を受け付け、
前記学習部は、前記入力部から入力された前記データを用いて、前記学習を行う、
ことを特徴とする画像検索装置。 The image search device according to claim 1.
The input unit receives input of data including one image, another image, and ease of comparison between the one image and the other image as the annotation data.
The learning unit performs the learning using the data input from the input unit.
An image search device characterized by this.
前記検索部は、入力装置によるユーザからの操作を受け付けて、前記検索結果を表示する順序を、前記画像の特徴量の類似度と前記比較容易度の重要度とに応じて変更し、
前記表示部は、前記検索部による前記変更の結果を前記表示画面に表示する、
ことを特徴とする画像検索装置。 The image search device according to claim 1.
The search unit receives an operation from the user by the input device, and changes the order of displaying the search results according to the similarity of the feature amount of the image and the importance of the comparison ease.
The display unit displays the result of the change by the search unit on the display screen.
An image search device characterized by this.
前記比較容易度計算部は、前記比較容易度を画像の回転角度を用いて計算する、
ことを特徴とする画像検索装置。 The image search device according to claim 1.
The comparison ease calculation unit calculates the comparison ease using the rotation angle of the image.
An image search device characterized by this.
時系列的に連続する前記画像を用いて前記検索対象を追跡する追跡部と、
前記追跡部による追跡の結果を蓄積する追跡データ蓄積部と、を備え、
前記検索部は、前記追跡データ蓄積部が蓄積した前記追跡の結果から前記検索対象を含む画像を検索し、検索した当該画像と前記比較容易度とに基づいて、前記表示画面に表示する画像を選択する、
ことを特徴とする画像検索装置。 The image search device according to claim 1.
A tracking unit that tracks the search target using the images that are continuous in chronological order,
A tracking data storage unit that stores the results of tracking by the tracking unit is provided.
The search unit searches for an image including the search target from the tracking result accumulated by the tracking data storage unit, and based on the searched image and the comparison ease, displays an image to be displayed on the display screen. select,
An image search device characterized by this.
特徴抽出部が、前記画像の特徴量を抽出し、
比較容易度計算部が、前記画像同士の比較容易度を計算し、
学習部が、前記画像と前記アノテーションデータとを用いて、前記画像の特徴量の抽出方法と前記比較容易度の計算方法とを学習し、
検索部が、前記学習部が学習した前記画像の特徴量と前記画像同士の比較容易度とに基づいて、表示画面に表示する検索結果の順序を決定し、
表示部が、前記検索部が決定した順序で前記検索結果を前記表示画面に表示する、
ことを特徴とする画像検索方法。 The input unit accepts the input of the image including the search target and the annotation data of the image,
The feature extraction unit extracts the feature amount of the image and
The comparison ease calculation unit calculates the comparison ease between the images, and then
The learning unit learns the method of extracting the feature amount of the image and the method of calculating the degree of comparison using the image and the annotation data.
The search unit determines the order of the search results to be displayed on the display screen based on the feature amount of the image learned by the learning unit and the ease of comparison between the images.
The display unit displays the search results on the display screen in the order determined by the search unit.
An image search method characterized by that.
前記入力部は、前記アノテーションデータとして、一の画像と他の画像と当該一の画像と他の画像との比較容易度とを含むデータの入力を受け付け、
前記学習部は、前記入力部から入力された前記データを用いて、前記学習を行う、
ことを特徴とする画像検索方法。 The image search method according to claim 6.
The input unit receives input of data including one image, another image, and ease of comparison between the one image and the other image as the annotation data.
The learning unit performs the learning using the data input from the input unit.
An image search method characterized by that.
前記検索部は、入力装置によるユーザからの操作を受け付けて、前記検索結果を表示する順序を、前記画像の特徴量の類似度と前記比較容易度の重要度とに応じて変更し、
前記表示部は、前記検索部による前記変更の結果を前記表示画面に表示する、
ことを特徴とする画像検索方法。 The image search method according to claim 6.
The search unit receives an operation from the user by the input device, and changes the order of displaying the search results according to the similarity of the feature amount of the image and the importance of the comparison ease.
The display unit displays the result of the change by the search unit on the display screen.
An image search method characterized by that.
前記比較容易度計算部は、前記比較容易度を画像の回転角度を用いて計算する、
ことを特徴とする画像検索方法。 The image search method according to claim 6.
The comparison ease calculation unit calculates the comparison ease using the rotation angle of the image.
An image search method characterized by that.
追跡部が、時系列的に連続する前記画像を用いて前記検索対象を追跡し、
追跡データ蓄積部が、前記追跡部による追跡の結果を蓄積し、
前記検索部は、前記追跡データ蓄積部が蓄積した前記追跡の結果から前記検索対象を含む画像を検索し、検索した当該画像と前記比較容易度とに基づいて、前記表示画面に表示する画像を選択する、
ことを特徴とする画像検索方法。 The image search method according to claim 6.
The tracking unit tracks the search target using the images that are continuous in chronological order.
The tracking data storage unit accumulates the results of tracking by the tracking unit,
The search unit searches for an image including the search target from the tracking result accumulated by the tracking data storage unit, and based on the searched image and the comparison ease, displays an image to be displayed on the display screen. select,
An image search method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019095022A JP2020190861A (en) | 2019-05-21 | 2019-05-21 | Image search apparatus and image search method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019095022A JP2020190861A (en) | 2019-05-21 | 2019-05-21 | Image search apparatus and image search method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020190861A true JP2020190861A (en) | 2020-11-26 |
Family
ID=73454679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019095022A Pending JP2020190861A (en) | 2019-05-21 | 2019-05-21 | Image search apparatus and image search method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020190861A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120362A (en) * | 1997-10-21 | 1999-04-30 | Omron Corp | Processor and method for image processing and machine-readable recording medium where criterion setting program is recorded |
US20060015497A1 (en) * | 2003-11-26 | 2006-01-19 | Yesvideo, Inc. | Content-based indexing or grouping of visual images, with particular use of image similarity to effect same |
JP2009277155A (en) * | 2008-05-16 | 2009-11-26 | Ricoh Co Ltd | Image retrieval apparatus, image retrieval method, information processing program and recording medium |
JP2012182820A (en) * | 2012-04-27 | 2012-09-20 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2013069125A (en) * | 2011-09-22 | 2013-04-18 | Canon Inc | Image retrieval device, image retrieval method, and program |
JP2019057815A (en) * | 2017-09-21 | 2019-04-11 | 株式会社東芝 | Monitoring system |
-
2019
- 2019-05-21 JP JP2019095022A patent/JP2020190861A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120362A (en) * | 1997-10-21 | 1999-04-30 | Omron Corp | Processor and method for image processing and machine-readable recording medium where criterion setting program is recorded |
US20060015497A1 (en) * | 2003-11-26 | 2006-01-19 | Yesvideo, Inc. | Content-based indexing or grouping of visual images, with particular use of image similarity to effect same |
JP2009277155A (en) * | 2008-05-16 | 2009-11-26 | Ricoh Co Ltd | Image retrieval apparatus, image retrieval method, information processing program and recording medium |
JP2013069125A (en) * | 2011-09-22 | 2013-04-18 | Canon Inc | Image retrieval device, image retrieval method, and program |
JP2012182820A (en) * | 2012-04-27 | 2012-09-20 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2019057815A (en) * | 2017-09-21 | 2019-04-11 | 株式会社東芝 | Monitoring system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Learning regression and verification networks for robust long-term tracking | |
US11288835B2 (en) | Lighttrack: system and method for online top-down human pose tracking | |
US11259718B1 (en) | Systems and methods for automated body mass index calculation to determine value | |
US11074434B2 (en) | Detection of near-duplicate images in profiles for detection of fake-profile accounts | |
WO2019080411A1 (en) | Electrical apparatus, facial image clustering search method, and computer readable storage medium | |
EP2500841B1 (en) | Video based matching and tracking | |
US20210232934A1 (en) | Systems and methods for enhanced user specific predictions using machine learning techniques | |
US8442967B2 (en) | Operator-assisted iterative biometric search | |
Afshar et al. | Taste: temporal and static tensor factorization for phenotyping electronic health records | |
US10762172B2 (en) | Apparatus and method for object confirmation and tracking | |
JP5677521B2 (en) | Information processing apparatus, information processing method, program, and storage medium | |
CN110598559B (en) | Method and device for detecting motion direction, computer equipment and storage medium | |
WO2017214970A1 (en) | Building convolutional neural network | |
EP3064133A1 (en) | Specifying apparatus and specifying method | |
US20150154474A1 (en) | Biometric information registration device and method | |
JP2016058027A (en) | Data processing device, data processing method, and program | |
JP2022043631A (en) | Information processing apparatus, information processing method, and program | |
Li et al. | Extracting statistical graph features for accurate and efficient time series classification | |
JP5398663B2 (en) | Data processing apparatus, data processing method, and program | |
Simeon et al. | Riemannian geometry of functional connectivity matrices for multi-site attention-deficit/hyperactivity disorder data harmonization | |
US20210397905A1 (en) | Classification system | |
WO2021131248A1 (en) | Object search device and object search method | |
JP2020190861A (en) | Image search apparatus and image search method | |
Uke et al. | Optimal video processing and soft computing algorithms for human hand gesture recognition from real-time video | |
US20190265954A1 (en) | Apparatus and method for assisting discovery of design pattern in model development environment using flow diagram |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230324 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |