JP6717769B2 - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP6717769B2 JP6717769B2 JP2017054458A JP2017054458A JP6717769B2 JP 6717769 B2 JP6717769 B2 JP 6717769B2 JP 2017054458 A JP2017054458 A JP 2017054458A JP 2017054458 A JP2017054458 A JP 2017054458A JP 6717769 B2 JP6717769 B2 JP 6717769B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- image
- feature
- information processing
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
本発明は、特徴量に基づく対象判定その他の用途に関して適切な特徴点を画像から得ることのできる情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program capable of obtaining an appropriate feature point from an image for object determination based on a feature amount and other uses.
画像から対象を判定する技術は、配布や提示が容易な媒体に記載されたアナログ情報からデジタル情報に変換させることが可能であり、利用者の利便性を向上させることができる。当該技術としては例えば、非特許文献1のものが公開されている。非特許文献1では、画像から特徴点を検出し、特徴点周辺から特徴量を算出した上で、事前に蓄積しておいた特徴量と比較することによって、対象の種類および相対的な位置関係を特定する。 The technique of determining an object from an image can convert analog information described in a medium that can be easily distributed and presented into digital information, and can improve user convenience. For example, Non-Patent Document 1 is disclosed as the technology. In Non-Patent Document 1, a feature point is detected from an image, a feature amount is calculated from the periphery of the feature point, and then the feature amount is compared with a feature amount that has been accumulated in advance. Specify.
一方、上記のような特徴点及び特徴量に基づく判定に関してさらに、精度を向上させる技術としては、特許文献1〜3のようなものが公開されている。特許文献1では、特徴点の誤対応を低減するため、特徴点を頂点としたドロネー三角形分割とトポロジー評価によって精度向上を図る。特許文献2では、特徴量の判別性能を評価することによって、有効な特徴量を選別する手法を開示している。特許文献3では、特徴点およびエッジの位置関係の類似度を判定することで、特徴点の対応付けを高精度化する。 On the other hand, as a technique for further improving the accuracy of the determination based on the characteristic points and the characteristic amounts as described above, Patent Documents 1 to 3 are disclosed. In Patent Document 1, in order to reduce erroneous correspondence of feature points, accuracy is improved by Delaunay triangulation with feature points as vertices and topology evaluation. Patent Document 2 discloses a method of selecting an effective feature amount by evaluating the feature amount discrimination performance. In Patent Document 3, by associating the similarity of the positional relationship between the feature points and the edges, the feature points are highly accurately associated.
しかしながら、以上のような非特許文献1や特許文献1〜3といった従来技術には、特徴点の分布が精度に大きく影響するという課題があった。 However, the conventional techniques described in Non-Patent Document 1 and Patent Documents 1 to 3 described above have a problem in that the distribution of feature points greatly affects the accuracy.
具体的には、背景に複雑な模様がある場合、特徴点が背景に集中し、前景としての撮像対象から十分な数の特徴点を検出できないと判定処理が全く機能しないという課題がある。例えば、処理時間の観点から特徴点数に対して上限を設定しておき、特徴点らしさを定義したスコア(特徴点スコア)の上位から選択するというフレームワークを採用する場合を考えると、撮像対象に特徴点が存在している場合でも特徴点スコアが相対的に小さいと撮像対象の特徴点が選択されないことがあり得る。これを第一事例と称する。 Specifically, when the background has a complicated pattern, the feature points are concentrated on the background, and the determination process does not function at all unless a sufficient number of feature points can be detected from the imaging target as the foreground. For example, considering a case where a framework is adopted in which an upper limit is set for the number of feature points from the viewpoint of processing time and the feature points are defined from the top of the scores (feature point scores), the imaging target is considered. Even if a feature point exists, the feature point to be imaged may not be selected if the feature point score is relatively small. This is called the first case.
逆に、撮像対象自体に特徴点スコアの大きな模様が存在する場合、一部の領域だけで上限に至る数の特徴点を選択してしまい、当該領域だけで一致する類似対象と誤判定するということがあり得る。これを第二事例と称する。 On the other hand, if there is a pattern with a large feature point score in the imaged object itself, the feature points are selected up to the upper limit in only some areas, and it is erroneously determined as a similar object that matches only in that area. It is possible. This is called the second case.
図1は、上記の第一事例及び第二事例の模式例を[1],[2]として示す図である。 FIG. 1 is a diagram showing schematic examples of the above-mentioned first case and second case as [1] and [2].
すなわち、図1にて[1]に示す第一事例においては画像P1,P2として与えられるような2以上の異なる対象が区別困難となってしまう。例えば、画像P1,P2は共に、同一出版社の同一シリーズ(趣味に関して解説するシリーズ)に属する書籍の表紙であり、画像P1の書籍は登山に関して、画像P2の書籍はサイクリングに関して解説する当該同一シリーズ内の別巻であるものとする。この場合、画像P1,P2にはそれぞれ同一シリーズである旨のシリーズタイトル領域R10,R20が上段側部分に存在し、これらの領域R10,R20は完全な同一模様(文字等も含めて模様と呼ぶものとし、以下同様とする)で構成されると共に、シリーズ内の別巻であることから各巻の内容を表現しており互いに異なる模様で構成される領域R11,R21が中・下段側部分に存在するものとする。 That is, in the first case shown in [1] in FIG. 1, it is difficult to distinguish two or more different objects given as the images P1 and P2. For example, images P1 and P2 are both covers of books belonging to the same series (series explaining hobbies) of the same publisher, the book of image P1 describes mountaineering, and the book of image P2 describes cycling in the same series. It is assumed that this is a separate volume. In this case, in the images P1 and P2, series title regions R10 and R20 indicating that they are the same series are present in the upper side portion, and these regions R10 and R20 are completely the same pattern (including a character and the like are referred to as a pattern). Areas R11 and R21 that have different patterns and that represent the content of each volume because they are separate volumes in the series are present in the middle and lower stages. I shall.
ここで、画像P1,P2において共に、完全同一模様となっているシリーズタイトル領域R10,R20が特徴点スコアの高い領域として構成されていたとし、且つ、異なる模様を構成している領域R11,R21が特徴点スコアの低い領域として構成されていたものとすると、互いに同一模様の領域R10,R20から全部ないしほとんどの特徴点が検出され、互いに異なる領域R11,R21からは特徴点が全く検出されない又はわずかしか検出されないことになってしまう。従って、実際には異なる対象を撮像しているはずの画像P1,P2が区別不可能あるいは区別困難となってしまう。 Here, in both images P1 and P2, it is assumed that the series title regions R10 and R20 having the completely same pattern are configured as regions with high feature point scores, and regions R11 and R21 that configure different patterns. Assuming that it is configured as a region having a low feature point score, all or most of the feature points are detected from the regions R10 and R20 having the same pattern, and no feature points are detected from the different regions R11 and R21. Only a small amount will be detected. Therefore, the images P1 and P2 that should actually image different objects become indistinguishable or difficult to distinguish.
また、図1にて[2]として示す第二事例では、第一事例で説明したのと同じ画像P1がリファレンス画像として登録されており、同一対象を実際に撮影したクエリ画像が画像P10のように構成されている場合に、当該画像P1,P10の一致判定が困難となってしまう。すなわち、クエリ画像P10は、書籍表紙の下段側部分に販売促進の目的で例えば「帯」が付与されることにより、リファレンス画像P1には存在しない領域R13を形成している。クエリ画像P10の中段側の領域R12はリファレンス画像P1の中・下段側部分の領域R11に部分一致するものとなっており、上段側のシリーズタイトル領域R10,R30はリファレンス画像P1とクエリ画像P10とで共通である。 In the second case shown as [2] in FIG. 1, the same image P1 as described in the first case is registered as the reference image, and the query image obtained by actually photographing the same target is like the image P10. If it is configured as described above, it becomes difficult to determine the matching of the images P1 and P10. That is, the query image P10 forms a region R13 that does not exist in the reference image P1 by adding, for example, a “belt” to the lower part of the book cover for the purpose of sales promotion. The area R12 on the middle side of the query image P10 partially matches the area R11 on the middle/lower side of the reference image P1, and the series title areas R10 and R30 on the upper side are the reference image P1 and the query image P10. Is common in.
このような場合に、クエリ画像P10におけるリファレンス画像P1には存在しない「帯」の領域R13が特徴点スコアの高い領域として構成されていたとし、クエリ画像P10における全部ないし大部分の特徴点が領域R13から検出されてしまうものとすると、[1]の第一事例で説明したのとほぼ同様の理由によって、実際には同一対象を撮像しているはずの画像P10,P1の同一判定を得ることが困難となってしまう。 In such a case, it is assumed that the “belt” region R13 that does not exist in the reference image P1 in the query image P10 is configured as a region having a high feature point score, and all or most of the feature points in the query image P10 are regions. If it is detected from R13, for the same reason as explained in the first example of [1], it is possible to obtain the same judgment of the images P10 and P1 which should actually be capturing the same target. Becomes difficult.
なお、図1では模式例として書籍表紙を挙げたが、書籍表紙に限らず任意種類の商品パッケージや、その他の任意対象においても同様ないし類似の課題が発生しうることに注意されたい。また、図1では模式例として書籍表紙という1つの判定対象のみに注目して説明したが、画像内に1つ以上の対象が空間的な配置をなして撮像されている場合にも同様ないし類似の課題が発生しうることに注意されたい。 Note that the book cover is shown as a schematic example in FIG. 1, but it should be noted that similar or similar problems may occur not only for the book cover but also for any type of product package and other arbitrary objects. Further, in FIG. 1, the description has been made by focusing on only one determination target such as a book cover as a schematic example, but the same or similar also when one or more targets are imaged in a spatial arrangement in the image. Please note that the following problems may occur.
以上のような従来技術の課題に鑑み、本発明は、特徴量に基づく対象判定その他の用途に関して適切な特徴点を画像から得ることのできる情報処理装置を提供することを第一の目的とする。 In view of the problems of the conventional technology as described above, it is a first object of the present invention to provide an information processing apparatus capable of obtaining an appropriate feature point from an image for object determination based on a feature amount and other uses. ..
また、本発明は、当該適切な特徴点に基づいて高精度に画像における対象を判定することのできる情報処理装置を提供することを第二の目的とする。 A second object of the present invention is to provide an information processing device capable of highly accurately determining an object in an image based on the appropriate feature point.
前記目的を達成するため、本発明は、情報処理装置であって、画像より特徴点を検出すると共に各特徴点の特徴点スコアを求める検出部と、前記検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力する選別部と、を備えることを第一の特徴とする。 In order to achieve the above-mentioned object, the present invention is an information processing apparatus, which detects a feature point from an image and obtains a feature point score of each feature point, and from among the detected feature points, A first feature is that a selection unit that outputs a feature point obtained by performing selection based on a feature point score and a position of the feature point as a feature point of the image is provided.
また、本発明は、前記情報処理装置がさらに、前記選別部によって前記画像の特徴点として出力された各特徴点に関して、前記画像における当該特徴点の近傍領域を参照することで、各特徴点における特徴量を算出する算出部と、前記算出部により前記画像に関して算出された特徴量と、複数の所定対象の各々についてその撮像画像から算出された特徴量と、を比較することにより、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定する判定部と、を備えることを第二の特徴とする。 Further, in the present invention, the information processing apparatus further refers to a neighborhood area of the feature point in the image with respect to each feature point output as the feature point of the image by the selection unit. In the image, a calculation unit that calculates a feature amount, a feature amount calculated for the image by the calculation unit, and a feature amount calculated from the captured image for each of a plurality of predetermined objects are compared in the image. A second feature is that the image capturing target includes a determination unit that determines which of the plurality of predetermined targets corresponds to the predetermined target.
前記第一の特徴によれば、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力することにより、適切な特徴点を得ることができる。 According to the first feature, an appropriate feature point can be obtained by outputting the feature point obtained by performing selection based on the feature point score and position of each feature point as the feature point of the image. ..
前記第二の特徴によれば、前記得られた適切な特徴点を用いて、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定することができる。 According to the second feature, it is possible to determine which of the plurality of predetermined targets the target imaged in the image corresponds to using the obtained appropriate feature point.
図2は、本発明の一実施形態に係る情報処理装置の機能ブロック図である。図示する通り、情報処理装置10は撮像部1、検出部2、選別部3、算出部4、判定部5及び記憶部6を備える。情報処理装置10としては撮像部1を備える任意の情報端末を利用することができ、携帯端末の他、タブレット型端末、デスクトップ型又はラップトップ型のコンピュータその他を利用することができる。また、撮像部1以外の一部若しくは全てをサーバーに設置し、情報を適宜通信でやり取りしてもよい。図2の各部における処理内容は以下の通りである。 FIG. 2 is a functional block diagram of the information processing apparatus according to the embodiment of the present invention. As illustrated, the information processing device 10 includes an imaging unit 1, a detection unit 2, a selection unit 3, a calculation unit 4, a determination unit 5, and a storage unit 6. As the information processing device 10, any information terminal including the image pickup unit 1 can be used, and in addition to a mobile terminal, a tablet terminal, a desktop or laptop computer, or the like can be used. In addition, a part or all of the image pickup unit 1 other than the image pickup unit 1 may be installed in the server and information may be appropriately exchanged through communication. The processing content in each part of FIG. 2 is as follows.
撮像部1は、撮像対象を撮像して、その画像を検出部2、選別部3及び算出部4へと出力する。ここで、撮像対象には判定部5によって判定される対象(記憶部6に予め記憶されている対象のうちのいずれか)が含まれるよう、利用者等が撮像部1を操作して撮像を行うものとする。撮像部1としては、携帯端末に標準装備されるデジタルカメラ等を用いることができる。 The image capturing unit 1 captures an image of an image capturing target and outputs the image to the detecting unit 2, the selecting unit 3, and the calculating unit 4. Here, the user or the like operates the image capturing unit 1 to capture an image so that the image capturing target includes the target determined by the determination unit 5 (one of the targets stored in advance in the storage unit 6). Assumed to be performed. As the imaging unit 1, a digital camera or the like that is standardly equipped in a mobile terminal can be used.
検出部2は、撮像部1で得た画像より複数の特徴点を検出すると共に、各特徴点につきその特徴点らしさを表す特徴点スコアを求め、当該複数の特徴点及びその特徴点スコアを選別部3へと出力する。当該特徴点の検出には、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの既存手法が利用でき、特徴点スコアの算出に関しても各手法に応じたスコアを算出すればよい。 The detection unit 2 detects a plurality of feature points from the image obtained by the image pickup unit 1, obtains a feature point score representing the feature point likelihood for each feature point, and selects the plurality of feature points and the feature point score. Output to part 3. Existing methods such as SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Features) can be used to detect the feature points, and a score according to each method may be calculated for calculation of the feature point score. ..
例えば、SIFTであればDoG(Difference of Gaussian)画像(差分画像群)の極大値を与える点として特徴点の候補を求めたうえで、主曲率及びコントラストに基づいて安定した特徴点を検出するが、当該検出された特徴点におけるDoG出力値(極大値)を特徴点スコアとして採用すればよい。 For example, in SIFT, a feature point candidate is obtained as a point that gives the maximum value of a DoG (Difference of Gaussian) image (difference image group), and a stable feature point is detected based on the main curvature and contrast. The DoG output value (maximum value) at the detected feature point may be adopted as the feature point score.
選別部3では、検出部2で得られた特徴点スコア付きの各特徴点の中から、特徴点スコア及び特徴点の画像における位置に基づいて所定数の特徴点を選別し、当該選別した特徴点を算出部4へと出力する。選別部3では当該選別する際にさらに、撮像部1で得られた画像を参照するようにしてもよい。選別部3による選別処理の詳細は後述する。 In the selection unit 3, from each feature point with the feature point score obtained in the detection unit 2, a predetermined number of feature points are selected based on the feature point score and the position in the image of the feature point, and the selected feature. The points are output to the calculation unit 4. The sorting unit 3 may further refer to the image obtained by the imaging unit 1 when performing the sorting. Details of the selection processing by the selection unit 3 will be described later.
算出部4では、選別部3で選別された各特徴点に関して、撮像部1で得られた画像における各特徴点の局所近傍の領域を参照することで、各特徴点の特徴量を算出し、当該特徴量を判定部5へと出力する。算出部4における特徴量の算出には、検出部2で説明したのと同様に、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの既存手法が利用できる。なお、算出部4における特徴量の算出手法と検出部2における特徴点の検出手法とが別種類の手法によるものであってもよい。 In the calculation unit 4, for each feature point selected by the selection unit 3, by referring to the region in the local vicinity of each feature point in the image obtained by the imaging unit 1, to calculate the feature amount of each feature point, The characteristic amount is output to the determination unit 5. For the calculation of the feature amount in the calculation unit 4, existing methods such as SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Features) can be used, as described in the detection unit 2. The calculation method of the feature amount in the calculation unit 4 and the detection method of the feature point in the detection unit 2 may be different types of methods.
判定部5は、算出部4で算出された特徴量と記憶部6に記憶された特徴量とを比較して一致判定することで撮像対象を判定する。すなわち、記憶部6で記憶されている1つ以上の所定の撮像対象のいずれに、撮像画像内の対象が該当するのかを特定する。 The determination unit 5 compares the feature amount calculated by the calculation unit 4 and the feature amount stored in the storage unit 6 to determine a match, thereby determining the imaging target. That is, it identifies which of the one or more predetermined imaging targets stored in the storage unit 6 corresponds to the target in the captured image.
ここで、特徴量同士を比較する際には、各種の周知手法を利用することができる。例えば、BoVW(Bag of Visual words)のヒストグラム同士の類似度を算出してもよい。また、特徴量が算出された特徴点の座標も紐づけた特徴情報を用いて比較するようにしてもよい。例えば、RANSAC(Random Sample Consensus)等により、特徴情報を構成している各特徴量をそれぞれ個別にマッチングすることを試みながら外れ値を排除することで、全体として最もマッチングしているものを特定する手法を用いてもよい。すなわち、クエリ画像(撮像部1で得た画像)とリファレンス画像(記憶部6に記憶されている特徴情報が抽出された画像)との間で、ホモグラフィ行列で互いに対応付けられる特徴点座標同士の幾何学的整合性を考慮してマッチングするようにしてもよい。 Here, various well-known methods can be used when comparing the feature amounts. For example, the similarity between histograms of BoVW (Bag of Visual words) may be calculated. Further, the feature information in which the coordinates of the feature points for which the feature amount has been calculated are also associated may be used for comparison. For example, by using RANSAC (Random Sample Consensus) and the like, outliers are eliminated while trying to individually match each feature amount forming the feature information, thereby identifying the best matching item as a whole. Techniques may be used. That is, between the query image (the image obtained by the imaging unit 1) and the reference image (the image in which the feature information stored in the storage unit 6 is extracted), the feature point coordinates associated with each other in the homography matrix The matching may be performed in consideration of the geometrical consistency of.
記憶部6は、複数の撮像対象の撮像画像からそれぞれ特徴量を事前に算出し記憶しておくことにより、判定部5における上記の判定処理の際に当該特徴量を参照に供する。ここで、撮像対象に射影変換等の人工的な変形を加え、特徴量を算出・記憶してもよい。特に、大きさが変化する変形においては、撮像部1での撮像画像における見かけの大きさを算出部4で特徴量を算出する際に求まる奥行情報(スケール情報)と対応付けることで特徴点および特徴量の判定精度を向上させる効果が得られるため、奥行情報を紐づけたうえで特徴量を記憶しておき、判定部5の参照に供するようにしてもよい。さらに、判定部5における判定で前述のRANSACの場合のように特徴点座標を利用する場合は、記憶部6においても特徴点座標と特徴量とを紐づけた特徴情報として算出・記憶を行うようにすればよい。 The storage unit 6 previously calculates and stores the feature amount from each of the captured images of the plurality of image capturing targets, and uses the feature amount as a reference in the determination process of the determination unit 5. Here, artificial transformation such as projective transformation may be added to the imaged target to calculate and store the feature amount. In particular, in the case of deformation in which the size changes, the apparent size of the image captured by the image capturing unit 1 is associated with the depth information (scale information) obtained when the calculating unit 4 calculates the feature amount. Since the effect of improving the amount determination accuracy can be obtained, the feature amount may be stored after being associated with the depth information and used for reference by the determination unit 5. Further, when the feature point coordinates are used in the determination in the determination unit 5 as in the case of the above-described RANSAC, the storage unit 6 also calculates and stores the feature point coordinates and the feature amount as feature information associated with each other. You can do this.
なお、記憶部6で記憶する特徴量(及び特徴点)は、算出部4で算出する特徴量(及び検出部2で検出する特徴点)と同種のものとする。 The characteristic amount (and the characteristic point) stored in the storage unit 6 is the same as the characteristic amount (and the characteristic point detected by the detecting unit 2) calculated by the calculating unit 4.
以下、選別部3における選別処理の詳細を説明する。まず、一般的な説明として、選別部3では、各特徴点の特徴点スコアに対してさらに、撮像部1で撮像された画像の画素座標ごとに得られる撮像部1と撮像対象との相対的位置関係をも考慮することにより、各特徴点の選別を行うことができる。当該考慮する相対的位置関係とはすなわち、撮像部1で得た画像の各画素位置(u,v)に映っている対象点を、撮像部1を構成するカメラのカメラ中心を基準としたカメラ座標により3次元空間座標位置(x,y,z)=(x(u,v),y(u,v),z(u,v))として表現する関係である。 The details of the sorting process in the sorting unit 3 will be described below. First, as a general description, in the selection unit 3, relative to the feature point score of each feature point, relative to the image capturing unit 1 and the image capturing target obtained for each pixel coordinate of the image captured by the image capturing unit 1. By also considering the positional relationship, each feature point can be selected. The relative position relationship to be considered is that the target point reflected at each pixel position (u, v) of the image obtained by the image pickup unit 1 is a camera whose center is the camera center of the camera constituting the image pickup unit 1. It is a relation expressed as a three-dimensional space coordinate position (x,y,z)=(x(u,v),y(u,v),z(u,v)) by coordinates.
選別部3における当該特徴点スコア及び相対的位置関係に基づく選別処理によって、結果的に、後段側の判定部5における判定処理に適した特徴点の画像上での分布が調整されることとなる。特に、従来手法においては特徴点スコアしか考慮されていなかったのに対して、本発明ではさらに相対的位置関係をも考慮することによって、判定処理に適した特徴点の分布調整が実現されることとなる。模式例を挙げれば、前述した図1の画像P1,P2において領域R10,R20ばかりに集中して特徴点が得られたり、図1の画像P10において領域R13ばかりに集中して特徴点が得られたりするといったことが、本発明によって防止されることにより、判定処理の精度が向上する。 By the selection process based on the feature point score and the relative positional relationship in the selection unit 3, as a result, the distribution of the feature points on the image suitable for the determination process in the determination unit 5 on the subsequent stage side is adjusted. .. In particular, in the conventional method, only the feature point score was considered, whereas in the present invention, the distribution adjustment of the feature points suitable for the determination process is realized by further considering the relative positional relationship. Becomes To give a schematic example, the characteristic points are obtained by concentrating only on the regions R10 and R20 in the images P1 and P2 shown in FIG. 1, or the characteristic points are concentrating only on the region R13 in the image P10 of FIG. By preventing such occurrences from occurring, the accuracy of the determination process is improved.
具体的に相対的位置関係をも考慮する第一実施形態として、撮像画像の各画素位置の奥行(デプス)を算出したうえで、奥行に応じた所定関係で与えられる重みを、特徴点スコアに対してさらに追加で用いる重みとしてよい。すなわち、各特徴点i(i=1,2,...)に対して、その特徴点の座標位置(u(i),v(i))における奥行d(i)を求め、所定関数Fを用いて重みw(i)=F(d(i))を求め、検出部2において算出されている特徴点スコアscore(i)に当該重みを乗じた重み付きスコアw(i)*score(i)を、当該特徴点iを選別するための本発明におけるスコアとして採用し、当該重み付きスコアw(i)*score(i)が上位の所定数にあるような特徴点iを、選別部3における選別結果とすればよい。なお、重みw(i)及び特徴点スコアscore(i)は非負の値として求めるようにすればよい。 As a first embodiment that also specifically considers the relative positional relationship, the depth (depth) of each pixel position of the captured image is calculated, and then the weight given in the predetermined relationship according to the depth is used as the feature point score. On the other hand, the weight may be additionally used. That is, for each feature point i (i=1,2,...), the depth d(i) at the coordinate position (u(i),v(i)) of that feature point is determined, and the predetermined function F The weight w(i)=F(d(i)) is obtained by using the weighted score w(i)*score( which is obtained by multiplying the feature point score score(i) calculated in the detection unit 2 by the weight. i) is adopted as a score in the present invention for selecting the feature point i, and the weighting score w(i)*score(i) is set to a predetermined number of high-ranking feature points i. The selection result in 3 may be used. The weight w(i) and the feature point score score(i) may be obtained as non-negative values.
ここで、撮像画像における奥行算出については、任意の既存手法を用いることができる。例えば、運動視差や、Markov Random Field(例えば以下の非特許文献2に開示)、ニューラルネットワーク(例えば以下の非特許文献3に開示)を利用した既存手法などが利用できる。あるいは、撮像部1を構成するカメラが複数存在する場合はステレオ視差を利用してもよい。また、撮像部1の撮像画像に対してさらに奥行センサ(例えば赤外線でマーカーを照射し赤外カメラで当該マーカーを撮像することに基づく奥行センサなど)を併用する構成も可能である。 Here, for the depth calculation in the captured image, any existing method can be used. For example, an existing method using motion parallax, Markov Random Field (for example, disclosed in Non-Patent Document 2 below), and neural network (for example, disclosed in Non-Patent Document 3 below) can be used. Alternatively, stereo parallax may be used when there are a plurality of cameras forming the image capturing unit 1. Further, it is possible to further use a depth sensor (for example, a depth sensor based on irradiating a marker with infrared rays and capturing an image of the marker with an infrared camera) together with the captured image of the image capturing unit 1.
[非特許文献2] DA. Saxena and et. al. ``Make3D: Learning 3D Scene Structure from a Single Still Image,'' IEEE Transactions of Pattern Analysis and Machine Intelligence (PAMI), 2008.
[非特許文献3] D. Eigen and et. al. ``Depth Map Prediction from a Single Image using a Multi-Scale Deep Network,'' Advances in Neural Information Processing Systems, No. 27, pp.2366-2374, 2014.
[Non-Patent Document 2] DA. Saxena and et. al. ``Make3D: Learning 3D Scene Structure from a Single Still Image,'' IEEE Transactions of Pattern Analysis and Machine Intelligence (PAMI), 2008.
[Non-Patent Document 3] D. Eigen and et. al. ``Depth Map Prediction from a Single Image using a Multi-Scale Deep Network,'' Advances in Neural Information Processing Systems, No. 27, pp.2366-2374, 2014.
また、奥行d(i)に応じた重みw(i)を与えるための所定関数Fに関しても、撮像部1における撮像のなされ方や判定部5における判定のなされ方(又は記憶部6に記憶されている特徴量の選別のなされ方)に応じた所定のものを設定しておけばよい。 Further, also regarding the predetermined function F for giving the weight w(i) corresponding to the depth d(i), how the image is captured by the image capturing unit 1 and how the determination is performed by the determining unit 5 (or stored in the storage unit 6). The predetermined value may be set according to the selected feature amount).
例えば、利用者は撮像対象を撮像部1に相対的に近接させて撮像することが想定されるのであれば、奥行に反比例するように、あるいは奥行の増加に応じて減少するように、特徴点算出の重み(前述の通り特徴点スコアscore(i)が非負の値で算出される仮定のもとで、正の値としての重み)を設定することが望ましい。図3は[1]及び[2]と分けて、ある撮像画像と、当該撮像画像から奥行に反比例して算出される重みマップと、の例を示す図である。[1]の撮像画像は種々の物体(撮像対象)が配置された屋内の風景の例であり、これに対応する[2]の重みマップでは奥行が小さい(すなわち手前側のカメラにより近い)電気スタンドやデッサン像といった撮像対象に関してより大きな重みが付与されていることが、白色に近いほど重みが大であり、逆に黒色に近いほど重みが小であるものとして表現されている。 For example, if the user is supposed to image an object to be imaged relatively close to the image capturing unit 1, the feature point may be inversely proportional to the depth or may decrease as the depth increases. It is desirable to set a calculation weight (a weight as a positive value under the assumption that the feature point score score(i) is calculated as a non-negative value as described above). FIG. 3 is a diagram showing an example of a captured image and a weight map calculated in inverse proportion to the depth from the captured image, separately from [1] and [2]. The captured image of [1] is an example of an indoor landscape in which various objects (imaging targets) are arranged, and the depth map is small (that is, closer to the front camera) in the corresponding weight map of [2]. A greater weight is given to an object such as a stand or a drawing image, which is expressed as a weight that is closer to white and a weight that is closer to black.
また、重みの別の設定例として、奥行に応じて撮像情報を前景と背景とに2分割し、前景領域のみから特徴点が選別されるように重み情報を設定してもよい。すなわち、式で表現すれば例えば以下のような2値の重みを設定してもよい。ここでthは前景と背景を区別するための閾値であり、所定値を用いてもよいし、特徴点の奥行(奥行値d(i))の分布ヒストグラム等から動的に求めてもよい。なお、動的に求める際は任意の既存の統計手法を利用してよい。
w(i)=1 (d(i)≦thすなわち前景の場合)
w(i)=0 (d(i)>thすなわち背景の場合)
As another weight setting example, the image information may be divided into a foreground and a background according to the depth, and the weight information may be set so that the feature points are selected only from the foreground region. That is, if expressed by an equation, the following binary weights may be set, for example. Here, th is a threshold for distinguishing the foreground and the background, and a predetermined value may be used, or th may be dynamically obtained from a distribution histogram of the depth of the feature points (depth value d(i)). It should be noted that any existing statistical method may be used when dynamically obtaining.
w(i)=1 (d(i)≦th, that is, foreground)
w(i)=0 (d(i)>th, that is, background)
このように前景のみから特徴点を選別する手法を採用する場合、次のような効果が得られる。すなわち、撮像対象が相対的に近接することで前景領域に属して撮像されているという前提のもとで、撮像対象には該当しない背景領域の影響を排除して前景領域のみから特徴点を選別できるため、前記従来技術の抱える課題を解決し、判定部5での判定精度が向上する効果が得られる。 When the method of selecting the feature points only from the foreground is adopted as described above, the following effects can be obtained. That is, on the assumption that the imaged object is imaged in the foreground region due to the relative proximity, the feature points are selected only from the foreground region by eliminating the influence of the background region that is not the imaged target. Therefore, it is possible to obtain the effects of solving the problem of the conventional technique and improving the determination accuracy of the determination unit 5.
以上、相対的位置関係をも考慮する第一実施形態では、相対的位置関係としての3次元空間座標位置(x,y,z)=(x(u,v),y(u,v),z(u,v))に相当する関係を奥行によって求めて利用した。相対的位置関係をも考慮する第二実施形態として、空間座標位置(x(u,v),y(u,v),z(u,v))を直接的には利用せず、撮像画像の画素位置(u,v)のみを利用して、第一実施形態と概ね同様の効果が得られる選別を実現するようにしてもよい。 As described above, in the first embodiment that also considers the relative positional relationship, the three-dimensional spatial coordinate position (x,y,z)=(x(u,v),y(u,v), as the relative positional relationship, The relationship corresponding to z(u,v)) was obtained by depth and used. As a second embodiment that also considers the relative positional relationship, the spatial coordinate position (x (u, v), y (u, v), z (u, v)) is not directly used, the captured image It is also possible to use only the pixel position (u, v) of (1) to realize the selection that achieves substantially the same effect as the first embodiment.
一般的な説明として、第二実施形態では選別される特徴点iの画像上での位置(u(i),v(i))が偏ることなく均一化されるようにしたうえで、位置(u(i),v(i))及び特徴点スコアscore(i)に基づいて特徴点iを選別すればよい。この際、位置(u(i),v(i))が偏ることなく均一化されるようにする範囲は、必ずしも撮像画像の全体とするのではなく、撮像画像の一部(例えば、近傍に特徴点が検出されている範囲)として設定するようにしてもよい。 As a general explanation, in the second embodiment, the positions (u(i), v(i)) on the image of the feature points i to be selected are made uniform without being biased, and then the positions ( The feature point i may be selected based on u(i), v(i)) and the feature point score score(i). At this time, the range in which the positions (u(i), v(i)) are made uniform without being biased is not necessarily the entire captured image, but a part of the captured image (for example, in the vicinity It may be set as the range in which the characteristic points are detected).
図4は、第二実施形態における選別部3の処理の一例を示すフローチャートである。ステップS1では、撮像画像を分割する分割領域の形状及び配置並びに分割領域の選択順番と、最大特徴点数(選別部3で選別する特徴点数の上限所定数)と、を設定したうえでステップS2へと進む。 FIG. 4 is a flowchart showing an example of processing of the selection unit 3 in the second embodiment. In step S1, the shape and arrangement of the divided areas for dividing the captured image, the selection order of the divided areas, and the maximum number of characteristic points (upper limit of the number of characteristic points to be selected by the selection unit 3) are set, and then the process proceeds to step S2. And proceed.
ステップS1における撮像画像の分割領域は、所定手法で分割したものとすればよい。例えば横方向に所定数n個、縦方向に所定数m個に等分割することで、合計n×m個の矩形領域に分割するようにしてもよい。すなわち、撮像画像のサイズ(画素数)が横W個で縦H個であれば、それぞれ縦W/n個、横H/m個となるようなn×m個の矩形領域に分割してよい。また、撮像画像に対して色情報やテクスチャ情報その他に基づく既存の任意の領域分割手法を適用することで、必ずしも分割領域の形状が矩形領域とはならないようにしてもよい。 The divided area of the captured image in step S1 may be divided by a predetermined method. For example, a predetermined number n in the horizontal direction and a predetermined number m in the vertical direction may be equally divided into a total of n×m rectangular regions. That is, if the size (number of pixels) of the captured image is W horizontal and H vertical, it may be divided into n×m rectangular regions of W/n vertical and H/m horizontal, respectively. .. Further, by applying an existing arbitrary area division method based on color information, texture information, and the like to the captured image, the shape of the divided area may not necessarily be a rectangular area.
また、ステップS1における分割領域に対する選択順番の決定は、分割手法に応じた所定順番として決定するようにすればよい。例えばn×m個の矩形領域に分割した場合、ラスタスキャン順番などとすればよい。矩形領域とはならない分割の場合も、分割領域の重心位置で例えばラスタスキャン順番となるように、分割領域の選択順番を決定すればよい。 Further, the selection order for the divided areas in step S1 may be determined as a predetermined order according to the division method. For example, when divided into n×m rectangular areas, the raster scan order may be used. Even in the case of division that is not a rectangular area, the selection order of the divided areas may be determined such that the raster scan order is set at the center of gravity of the divided areas.
ここで、図4の説明において、分割領域をR(k)(k=1,2,...)、その選択順番をO(k)と表記する。例えば3つの分割領域R(1),R(2),R(3)について選択順番O(1)=3,O(2)=2,O(3)=1であれば、「R(3)(O(3)=1番目)」→「R(2)(O(2)=2番目)」→「R(1)(O(1)=3番目)」の順番で分割領域が選択されることを意味するものとする。 Here, in the description of FIG. 4, the divided areas are denoted by R(k) (k=1, 2,...) And the selection order thereof is denoted by O(k). For example, if the selection order O(1)=3, O(2)=2, O(3)=1 for the three divided regions R(1), R(2), R(3), then ``R(3 ) (O(3)=1st)” → “R(2) (O(2)=2nd)” → “R(1) (O(1)=3rd)” in order. Is meant to be done.
なお、ステップS1から(初めて)ステップS2へと至る際には、上記選択順番の現在値を1番目として設定しておく。 When step S1 is performed (for the first time) to step S2, the current value in the selection order is set as the first value.
ステップS2では、選択順番の現在値O(k)で指定される分割領域R(k)の中から、未選択の特徴点iであってその特徴点スコアscore(i)が最大となるものを1つ選択したうえで、ステップS3へと進む。なお、ステップS2において当該指定される分割領域R(k)の中に未選択の特徴点iが残っていない場合は、当該選択はスキップ(省略)したうえでそのままステップS3へと進めばよい。また、ステップS2において未選択の特徴点iのうちの特徴点スコアscore(i)の最大値が所定閾値未満である場合、当該選択はスキップ(省略)したうえでそのままステップS3へと進むようにしてもよい。 In step S2, among the divided regions R(k) specified by the current value O(k) in the selection order, the unselected feature points i having the maximum feature point score score(i) are selected. After selecting one, proceed to step S3. If no unselected feature point i remains in the designated divided area R(k) in step S2, the selection may be skipped (omitted) and the process may proceed to step S3. If the maximum value of the feature point scores score(i) among the unselected feature points i is less than the predetermined threshold value in step S2, the selection may be skipped (omitted) and the process may proceed directly to step S3. Good.
ステップS3では、当該時点までの一連のステップS2において選択された特徴点の数が所定数、すなわちステップS1で設定した上限数に到達したか否かの判定を行い、当該上限数に到達していればステップS4へと進み、到達していなければステップS5へと進む。 In step S3, it is determined whether or not the number of feature points selected in the series of steps S2 up to that point reaches a predetermined number, that is, the upper limit number set in step S1, and the upper limit number is reached. If so, the process proceeds to step S4, and if not reached, the process proceeds to step S5.
ステップS4では、当該時点までの一連のステップS2において選択された特徴点を選別部3における選別結果として出力したうえで、図4のフローを終了する。 In step S4, the feature points selected in the series of steps S2 up to that point are output as the selection result in the selection unit 3, and then the flow of FIG. 4 ends.
ステップS5では、当該ステップS5に至る直前のステップS2において利用した選択順番の現在値O(k)を次の値「O(k)+1」(=O(k'))に更新することで次の選択対象の領域R(k')を設定したうえで、ステップS2に戻る。 In step S5, the current value O(k) of the selection order used in step S2 immediately before reaching step S5 is updated to the next value “O(k)+1” (=O(k′)). After setting the next selection target region R(k'), the process returns to step S2.
こうして、図4においてステップS2,S3,S5のループ処理が繰り返される都度、ステップS2において例えば1番目、2番目、3番目と選択順番が設定されている分割領域がそれぞれ特徴点の選択対象として設定され、ステップS2において当該設定された分割領域から特徴点の選択が行われることとなる。なお、ステップS5において選択順番の現在値O(k)が最後の順番である場合、再度、1番目の選択順番を次の選択対象として設定するようにすればよい。 Thus, each time the loop processing of steps S2, S3, and S5 in FIG. 4 is repeated, the divided areas whose selection order is set to, for example, the first, the second, and the third in step S2 are set as feature point selection targets, respectively. Then, the feature points are selected from the set divided areas in step S2. When the current value O(k) of the selection order is the last order in step S5, the first selection order may be set again as the next selection target.
図5は、図4のフローの適用例を示す図である。図5では、選別上限数を7個とし、3×3の矩形領域分割とし、選択順番をラスタスキャン順とする設定のもとで図4のフローを適用した際に、ある画像(不図示)から選別される特徴点の画像内の位置分布が[2]において示されている。図4ではまた、[2]に対する対比例として、本発明の手法を適用せずに特徴点スコア値のみに基づいて選別上限数7個を同一画像内から選別した場合が[1]に示されている。 FIG. 5 is a diagram showing an application example of the flow of FIG. In FIG. 5, when the flow of FIG. 4 is applied under the setting that the upper limit number of selections is 7, the rectangular region is divided into 3×3, and the selection order is the raster scan order, an image (not shown) is displayed. The position distribution in the image of the feature points selected from is shown in [2]. In FIG. 4, as a contrast to [2], [1] shows a case where the upper limit number of 7 is selected from the same image based on only the feature point score values without applying the method of the present invention. ing.
すなわち、図5の[1],[2]では共に、同一画像内の特徴点がその特徴点スコア値を併記する形でプロットされており、特徴点は合計16個あり、特徴点スコアは最高100から最低85までの各整数値を有している例が示されている。[1],[2]では共に、選別された特徴点はそのスコア値に下線付与することによって示されている。本発明の手法を適用しない[1]の例では、単純に最高値100から上位7個までを取って特徴点スコア94までのものが選別されているが、[1]に見て取れるようにその画像内での位置分布が左下箇所に偏ってしまっている。一方、本発明の図4の手法を適用した[2]の例では、[1]の偏りが解消され、画像内において比較的均一に散らばって特徴点が選別されている。すなわち、[2]では画像内の上段側部分で特徴点スコア88,89,85の3個が選別され、中段部分で特徴点スコア92,91の2個が選別され、下段側部分で特徴点スコア100,99の2個が選別されており、[1]に見られるような選別された特徴点分布の空間的な偏りが解消されている。 That is, in both [1] and [2] of FIG. 5, the feature points in the same image are plotted together with the feature point score values. There are 16 feature points in total, and the feature point score is the highest. Examples are shown having each integer value from 100 to a minimum of 85. In both [1] and [2], the selected feature points are indicated by underlining their score values. In the example [1] to which the method of the present invention is not applied, the highest value 100 to the top 7 are simply selected to select the feature point score 94, but as can be seen in [1], the image The position distribution inside is biased to the lower left part. On the other hand, in the example of [2] to which the method of FIG. 4 of the present invention is applied, the bias of [1] is eliminated, and the characteristic points are selected relatively evenly in the image. That is, in [2], three feature point scores 88, 89, 85 are selected in the upper part of the image, two feature point scores 92, 91 are selected in the middle part, and the feature point scores are selected in the lower part. Two of the scores 100 and 99 are selected, and the spatial bias of the selected feature point distribution as seen in [1] is eliminated.
図6は、図4のフローの適用例を図5の場合よりも多数の特徴点上限数のもとで、ある画像(不図示)に関して示す図である。図5の場合と同様、図6でも[1]が対比例としての同一画像における同一特徴点上限数で本発明を適用しなかった場合の選別特徴点分布を示しており、中段・下段側への特徴点の偏りが見られるのに対し、[2]に示す本発明の適用例においては、中段・下段側への特徴点の偏りが解消され、上段側においても概ね均一に特徴点が選別されている。なお、図6の例は、図1の[3]に例示したような、特徴点スコアの高い特徴点が多数抽出されてしまうものの本来の判定対象には該当しない「帯」の領域R13が画像の中下段側部分に存在する場合の、本発明の効果の説明例となっている。 FIG. 6 is a diagram showing an application example of the flow of FIG. 4 regarding a certain image (not shown) under a larger number of feature point upper limit numbers than in the case of FIG. Similar to the case of FIG. 5, in FIG. 6, [1] shows the distribution of selected feature points when the present invention is not applied with the upper limit number of the same feature points in the same image as the proportionality. In contrast, in the application example of the present invention shown in [2], the bias of the feature points to the middle and lower stages is eliminated, and the feature points are selected almost uniformly on the upper stage side. Has been done. Note that in the example of FIG. 6, the region R13 of the “belt” that does not correspond to the original determination target is extracted as shown in [3] of FIG. 1, although many feature points with high feature point scores are extracted. It is an example of the explanation of the effect of the present invention when it exists in the middle lower part.
以上、本発明によれば、撮像対象を撮像部1で撮像したうえで、判定部5において当該撮像された撮像対象を判定することができる。この際、撮像部1と撮像対象との相対的な位置関係により特徴点を選別するため、特徴点分布を適正化でき高精度な判定が可能となる。さらに、当該特徴点座標での特徴量を撮像画像から算出するとともに、同条件の特徴情報を記憶部6から選択し判定するため、判定精度を高精度化できる。 As described above, according to the present invention, after the image capturing target is captured by the image capturing unit 1, the determining unit 5 can determine the captured image capturing target. At this time, the feature points are selected based on the relative positional relationship between the image pickup unit 1 and the image pickup target, so that the feature point distribution can be optimized and highly accurate determination can be performed. Further, the feature amount at the feature point coordinates is calculated from the captured image, and the feature information under the same condition is selected and determined from the storage unit 6, so that the determination accuracy can be improved.
以下、本発明における説明上の補足事項を述べる。 Hereinafter, supplementary items for explanation in the present invention will be described.
(1)選別部3における選別処理についての第二実施形態の第一変形例として、特徴点iをその特徴点スコアscore(i)が最大となるものから1個ずつ選別する処理を繰り返して所定上限数に到達するまで選別を行うものとし、1個ずつ選別される都度、次の更新処理を行うようにしてもよい。すなわち、既に選別された特徴点iから画像上での位置が所定距離以内にあるような特徴点jに関しては、その特徴点スコアscore(j)を低い値に更新するようにしてもよい。低い値への更新は、例えば所定係数r(0≦r<1)を乗ずることによって行えばよく、未選別のある特徴点jに関して所定距離以内に既にN個の特徴点が選別済みのものとして存在すれば、その特徴点スコアはN回分だけ累積的に更新したrN*score(j)としてもよい。なお、所定係数r=0との設定は、既に選別された特徴点から所定距離内にある特徴点は選別対象から完全に除外することに相当する。 (1) As a first modified example of the second embodiment regarding the sorting processing in the sorting unit 3, the processing of sorting the feature points i one by one from the one having the maximum feature point score score(i) is repeated and predetermined. The selection may be performed until the upper limit number is reached, and the next update process may be performed each time one is selected. That is, for the feature point j whose position on the image is within the predetermined distance from the already selected feature point i, the feature point score score(j) may be updated to a low value. Updating to a lower value may be performed, for example, by multiplying by a predetermined coefficient r (0≦r<1), and it is assumed that N feature points have already been selected within a predetermined distance with respect to an unselected feature point j. If present, the feature point score may be r N *score(j) updated cumulatively N times. The setting of the predetermined coefficient r=0 corresponds to completely excluding the feature points within the predetermined distance from the already-selected feature points from the selection target.
なお、当該第一変形例は図4のステップS1,S2,S5における処理を次のような処理に置き換えることで実現できる。すなわち、ステップS1では領域分割や分割領域の選択順番の設定は行わず、最大特徴点数(選別部3で選別する特徴点数の上限所定数)の設定のみを行う。ステップS2では、選択領域ではなく画像全体の中から、未選択の特徴点で特徴点スコアが最大のものを選択するようにする。ステップS5では、次の分割領域を選択するのではなく、直前のステップS2で選択された特徴点iから所定距離内にあるような特徴点jに関して、その特徴点スコアscore(j)を低い値に更新する。 The first modified example can be realized by replacing the processing in steps S1, S2, and S5 in FIG. 4 with the following processing. That is, in step S1, area division and division area selection order are not set, but only the maximum number of characteristic points (upper limit number of characteristic points to be selected by the selection unit 3) is set. In step S2, unselected feature points having the largest feature point score are selected from the entire image, not from the selected region. In step S5, the feature point score score(j) is set to a low value for a feature point j that is within a predetermined distance from the feature point i selected in the immediately preceding step S2, instead of selecting the next divided area. To update.
(2)選別部3における選別処理についての第二実施形態の第二変形例として、次のようにしてもよい。すなわち、画像の領域分割は図4のステップS1で説明したのと同様に行う。そして、各分割領域R(k)(k=1,2, ...)に関して、当該分割領域内で検出部2により検出されている特徴点の総数をNum(k)とし、各分割領域R(k)から、その特徴点総数Num(k)に応じた個数r*Num(k)個の特徴点を特徴点スコアの高い順に選別したもの全体を、選別部3からの選別結果として出力する。ここで、係数rは特徴点総数Num(k)に応じた個数を与えるような所定値(0<r<1)として設定しておけばよく、特に、各分割領域R(k)から選別する個数の総和「Σr*Num(k)」が予め設定する特徴点上限所定個数に一致するような値として係数rを定めてもよい。なお、係数rを乗じた個数r*Num(k)個は一般に整数ではないが、所定の丸め処理で適宜整数化すればよい。個数の総和「Σr*Num(k)」についても、特徴点上限所定数に閾値判定で一致するものであればよい。 (2) As a second modified example of the second embodiment regarding the sorting process in the sorting unit 3, the following may be performed. That is, the area division of the image is performed in the same manner as described in step S1 of FIG. Then, for each divided region R(k) (k=1, 2,...), the total number of feature points detected by the detection unit 2 in the divided region is Num(k), and each divided region R From (k), the entire number of r*Num(k) number of feature points according to the total number of feature points Num(k) are sorted in descending order of feature point score, and output as the sorting result from the sorting unit 3. .. Here, the coefficient r may be set as a predetermined value (0<r<1) that gives a number corresponding to the total number of feature points Num(k), and in particular, it is selected from each divided region R(k). The coefficient r may be set as a value such that the total sum "Σr*Num(k)" of the numbers coincides with the preset upper limit of the number of feature points. Note that the number r*Num(k), which is the number multiplied by the coefficient r, is not an integer in general, but may be appropriately converted into an integer by a predetermined rounding process. As for the total sum "Σr*Num(k)" of the numbers, any number may be used as long as it matches the predetermined upper limit number of feature points in the threshold determination.
当該第二変形例によれば、分割領域内で検出部2により検出されている特徴点の多寡に応じた均等な特徴点分布を、選別部3から出力する選別結果において実現することが可能となる。すなわち、検出部2で検出された撮像画像における特徴点分布を、係数rによって画像全体において概ね均一に間引いた特徴点分布を、選別部3からの選別結果として出力することが可能となる。 According to the second modified example, it is possible to realize an even distribution of feature points according to the number of feature points detected by the detection unit 2 in the divided area in the selection result output from the selection unit 3. Become. That is, the feature point distribution obtained by thinning out the feature point distribution in the picked-up image detected by the detection unit 2 by the coefficient r in the entire image can be output as the selection result from the selection unit 3.
(3)選別部3における選別処理に関して、第一実施形態と第二実施形態とを組み合わせてもよい。例えば、第二実施形態においては図4のステップS2で特徴点スコアscore(i)が最大となるような特徴点iを選別したが、ステップS2では当該特徴点スコアscore(i)の代わりに第一実施形態における重み付けスコアw(i)*score(i)を用いて、当該重み付けスコアが最大となるような特徴点iを選別するようにしてもよい。 (3) Regarding the sorting process in the sorting unit 3, the first embodiment and the second embodiment may be combined. For example, in the second embodiment, the feature point i that maximizes the feature point score score(i) is selected in step S2 of FIG. 4, but in step S2, the feature point score score(i) is replaced with the first feature point score score(i). The weighted score w(i)*score(i) in one embodiment may be used to select the feature point i that maximizes the weighted score.
(4)第一実施形態における重みw(i)を、奥行きd(i)等の空間座標における配置は考慮せずに、その特徴点iの画像内での座標(u(i),v(i))のみに基づいて設定されるものとしてもよい。例えば、画像内における中心などの所定位置において最大値を取り、当該所定位置から距離が離れるほど値が小さくなるような、正の値の重みw(i)を設定してもよい。この場合も、判定対象となる撮像対象は当該画像内の中心その他の所定位置の付近にあるものとして撮像がなされているという前提のもとで、判定対象の撮像対象に起因する特徴点を優先して選別することが可能となり、判定部5における判定の高精度化に寄与することとなる。 (4) The weight w(i) in the first embodiment does not consider the arrangement in space coordinates such as the depth d(i), and the coordinates (u(i),v( It may be set based only on i)). For example, a weight w(i) having a positive value may be set such that it takes a maximum value at a predetermined position such as the center of the image and becomes smaller as the distance from the predetermined position increases. Also in this case, the feature point derived from the image-capturing target of the determination target is prioritized on the assumption that the image-capturing target serving as the determination target is imaged as being near the center or other predetermined position in the image. Therefore, it is possible to make a selection, which contributes to improvement in accuracy of the judgment in the judgment unit 5.
(5)情報処理装置10は、図2に示す各機能部のうちの任意の一部分のみで構成されていてもよい。例えば撮像部1を省略して、検出部2では任意の画像をネットワーク上その他の任意の箇所から取得するようにしてもよい。ただしこの際、当該読み込んだ画像に関してのカメラの情報等の付随情報も併せて取得することで、例えば前述の奥行に基づく選別部3による選別処理といったような、前述の各処理が可能になるものとすればよい。例えば、検出部2及び選別部3のみを備えて情報処理装置10を構成した場合を考えると、検出部2において読み込んだ画像から認識その他の判定処理に適した特徴点を選別して出力する装置として情報処理装置10が機能することとなる。 (5) The information processing device 10 may be configured by only an arbitrary part of each functional unit shown in FIG. For example, the imaging unit 1 may be omitted, and the detection unit 2 may acquire an arbitrary image from any other place on the network. However, at this time, by acquiring the accompanying information such as the camera information regarding the read image, the above-described respective processes such as the sorting process by the sorting unit 3 based on the depth can be performed. And it is sufficient. For example, considering a case where the information processing apparatus 10 is configured to include only the detection unit 2 and the selection unit 3, a device that selects and outputs a feature point suitable for recognition and other determination processing from the image read by the detection unit 2. As a result, the information processing device 10 functions.
(6)情報処理装置10は一般的な構成のコンピュータとして実現可能である。すなわち、CPU(中央演算装置)、当該CPUにワークエリアを提供する主記憶装置、ハードディスクやSSDその他で構成可能な補助記憶装置、キーボード、マウス、タッチパネルその他といったユーザからの入力を受け取る入力インタフェース、ネットワークに接続して通信を行うための通信インタフェース、表示を行うディスプレイ、カメラ及びこれらを接続するバスを備えるような、一般的なコンピュータによって情報処理装置10を構成することができる。さらに、図2に示す情報処理装置10の各部の処理はそれぞれ、当該処理を実行させるプログラムを読み込んで実行するCPUによって実現することができるが、任意の一部の処理を別途の専用回路等において実現するようにしてもよい。撮像部1は、当該ハードウェアとしてのカメラによって実現できる。 (6) The information processing device 10 can be realized as a computer having a general configuration. That is, a CPU (central processing unit), a main storage device that provides a work area for the CPU, an auxiliary storage device that can be configured with a hard disk, SSD, etc., an input interface such as a keyboard, a mouse, a touch panel, etc., a network. The information processing apparatus 10 can be configured by a general computer including a communication interface for connecting to and performing communication, a display for displaying, a camera, and a bus connecting these. Further, the processing of each unit of the information processing apparatus 10 shown in FIG. 2 can be realized by a CPU that reads and executes a program for executing the processing, but an arbitrary part of the processing is performed by a separate dedicated circuit or the like. It may be realized. The image pickup unit 1 can be realized by a camera as the hardware.
10…情報処理装置、1…撮像部、2…検出部、3…選別部、4…算出部、5…判定部、6…記憶部 10... Information processing device, 1... Imaging unit, 2... Detection unit, 3... Selection unit, 4... Calculation unit, 5... Judgment unit, 6... Storage unit
Claims (18)
前記検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力する選別部と、を備え、
前記選別部では、各特徴点の特徴点スコア及び位置に基づく選別を、各特徴点の特徴点スコアに各特徴点の位置に基づく重みを乗じて得られる重み付けスコアが高いほど優先して選別することによって行い、
前記選別部では、前記重み付けスコアの高い方から特徴点を繰り返して選別し、当該繰り返して選別する都度、当該選別された特徴点から画像上での距離が近いと判定される特徴点の重み付けスコアを低い値に更新することを特徴とする情報処理装置。 A detection unit that detects the feature points from the image and obtains the feature point score of each feature point,
From the detected feature points, a feature point obtained by performing a selection based on the feature point score and position of each feature point, a selection unit that outputs as a feature point of the image,
In the selection unit, selection based on the feature point score and position of each feature point is performed with priority given to a higher weighting score obtained by multiplying the feature point score of each feature point by a weight based on the position of each feature point. Done by
In the selection unit, the feature points are repeatedly selected from the one having the higher weighting score, and each time the selection is performed repeatedly, the weighting score of the feature points determined to have a short distance on the image from the selected feature points. the information processing apparatus according to claim users update to a low value.
前記検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力する選別部と、を備え、
前記選別部では、各特徴点の特徴点スコア及び位置に基づく選別を、各特徴点の特徴点スコアに各特徴点の位置に基づく重みを乗じて得られる重み付けスコアが高いほど優先して選別することによって行い、
前記選別部では、前記画像を領域分割して得られる各分割領域を所定順序で選択し、当該選択された分割領域内から前記重み付けスコアが最大となる特徴点を1つ選別することを当該選別された特徴点の個数が上限数に到達するまで当該所定順序に従って継続することにより、前記画像の特徴点を出力することを特徴とする情報処理装置。 A detection unit that detects the feature points from the image and obtains the feature point score of each feature point,
From the detected feature points, a feature point obtained by performing a selection based on the feature point score and position of each feature point, a selection unit that outputs as a feature point of the image ,
In the selection unit, selection based on the feature point score and position of each feature point is performed with priority given to a higher weighting score obtained by multiplying the feature point score of each feature point by a weight based on the position of each feature point. Done by
Wherein in sorting unit, the respective divided areas obtained by the image divided into regions selected in a predetermined order, that the sorting of the weighted scores from the selected divided region is selected one feature point having the maximum An information processing apparatus, characterized in that the feature points of the image are output by continuing in the predetermined order until the number of the feature points thus determined reaches an upper limit number .
。 Regarding each feature point output as the feature point of the image by the selection unit, a calculation unit that further calculates a feature amount at each feature point by referring to a region near the feature point in the image is provided. claims 1 to an information processing apparatus according to any one of 14.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017054458A JP6717769B2 (en) | 2017-03-21 | 2017-03-21 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017054458A JP6717769B2 (en) | 2017-03-21 | 2017-03-21 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018156544A JP2018156544A (en) | 2018-10-04 |
JP6717769B2 true JP6717769B2 (en) | 2020-07-01 |
Family
ID=63715669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017054458A Active JP6717769B2 (en) | 2017-03-21 | 2017-03-21 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6717769B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837416B (en) * | 2019-09-24 | 2021-04-30 | 深圳市火乐科技发展有限公司 | Memory management method, intelligent projector and related product |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003030663A (en) * | 2001-07-16 | 2003-01-31 | Mitsubishi Electric Corp | Fingerprint collation device and fingerprint collation method |
JP2012234258A (en) * | 2011-04-28 | 2012-11-29 | Sony Corp | Image processing device, image processing method, and program |
JP6265592B2 (en) * | 2012-12-10 | 2018-01-24 | セコム株式会社 | Facial feature extraction apparatus and face authentication system |
JP6230345B2 (en) * | 2013-09-06 | 2017-11-15 | キヤノン株式会社 | Image processing method, image processing apparatus, and program |
JP6598480B2 (en) * | 2015-03-24 | 2019-10-30 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
-
2017
- 2017-03-21 JP JP2017054458A patent/JP6717769B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018156544A (en) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815770B (en) | Two-dimensional code detection method, device and system | |
US11087169B2 (en) | Image processing apparatus that identifies object and method therefor | |
US8126206B2 (en) | Image processing apparatus, image processing method, and program | |
US9275277B2 (en) | Using a combination of 2D and 3D image data to determine hand features information | |
JP6438403B2 (en) | Generation of depth maps from planar images based on combined depth cues | |
US10079974B2 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
US20150205997A1 (en) | Method, apparatus and computer program product for human-face features extraction | |
CN110546651B (en) | Method, system and computer readable medium for identifying objects | |
JP2016066360A (en) | Text-based 3D augmented reality | |
JP6112801B2 (en) | Image recognition apparatus and image recognition method | |
WO2013086255A1 (en) | Motion aligned distance calculations for image comparisons | |
CN107423306B (en) | Image retrieval method and device | |
WO2013165565A1 (en) | Method of detecting a main subject in an image | |
EP3093822B1 (en) | Displaying a target object imaged in a moving picture | |
CN111008935B (en) | Face image enhancement method, device, system and storage medium | |
JP6684475B2 (en) | Image processing apparatus, image processing method and program | |
CN111091590A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
CN112287867A (en) | Multi-camera human body action recognition method and device | |
CN109961103B (en) | Training method of feature extraction model, and image feature extraction method and device | |
JP6511950B2 (en) | Image processing apparatus, image processing method and program | |
CN108875501B (en) | Human body attribute identification method, device, system and storage medium | |
JP6717769B2 (en) | Information processing device and program | |
JP6132996B1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN103034859B (en) | A kind of method and device obtaining gesture model | |
CN108255298B (en) | Infrared gesture recognition method and device in projection interaction system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6717769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |