JPH07141504A - Image recognition device - Google Patents

Image recognition device

Info

Publication number
JPH07141504A
JPH07141504A JP3246015A JP24601591A JPH07141504A JP H07141504 A JPH07141504 A JP H07141504A JP 3246015 A JP3246015 A JP 3246015A JP 24601591 A JP24601591 A JP 24601591A JP H07141504 A JPH07141504 A JP H07141504A
Authority
JP
Japan
Prior art keywords
model
image
evaluation
evaluation point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3246015A
Other languages
Japanese (ja)
Other versions
JP2935299B2 (en
Inventor
Kazuhiko Yamamoto
山本  和彦
Hirozo Yamada
博三 山田
Taiichi Saito
泰一 斉藤
Katsumi Hosokawa
勝美 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
National Institute of Advanced Industrial Science and Technology AIST
Fuji Facom Corp
Original Assignee
Agency of Industrial Science and Technology
Fuji Electric Co Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology, Fuji Electric Co Ltd, Fuji Facom Corp filed Critical Agency of Industrial Science and Technology
Priority to JP3246015A priority Critical patent/JP2935299B2/en
Publication of JPH07141504A publication Critical patent/JPH07141504A/en
Application granted granted Critical
Publication of JP2935299B2 publication Critical patent/JP2935299B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To recognize even an object whose size and attitude are unknown on condition that it is the same model and to correctly recognize even an object in a complicated background. CONSTITUTION:A conversion part 12 which converts a series of evaluation points into a similar model or rotated model is added to a conventional recognition device which recognizes an image by contrasting directional features extracted from an input image 2 by parallel arithmetic with a model 1 represented as a series of evaluation points, and then the object 2 whose size and attitude are unknown can be recognized. Further, the device is provided with means (8, 9, etc.) which extracts nondirectional features from the model 1 to evade misrecognition due to strongly directional features extracted from the complicated background, thereby enabling correct recognition.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力画像に対し局所並
列処理を行なうことにより、画像中から所望するモデル
の特徴をその位置と整合度から抽出する画像認識装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition apparatus for extracting a desired model feature from an image based on its position and degree of matching by performing local parallel processing on an input image.

【0002】[0002]

【従来の技術】出願人らは先に、認識対象となるモデル
を評価点の系列として表現し、各評価点ごとに参照すべ
き方向特徴面の値と1つ前の評価点からの移動量とを求
めて辞書テーブルに記述し、これに従ってカウンタ面の
移動と指定された入力方向特徴面の値をカウンタ面へ加
算するという操作を全評価点につき行なった後、カウン
タ面の局所最大値(極大値)を求めて、シンボルを含む
任意形状の認識を行なう手法を提案している(特願平1
−198853号参照)。また、類似モデルを判別する
手法として、類似モデル同士から差分パターンを抽出
し、従来の評価点系列(ポジ評価点)に加えて差分パタ
ーン部分の評価点系列(ネガ評価点)も考慮し、ポジ評
価点ではカウンタ面への参照方向特徴面の加算、またネ
ガ評価点ではカウンタ面への参照方向特徴面の減算を行
なうことにより、類似モデルの判別を可能にする手法を
提案している(特願平2−90441号参照)。
2. Description of the Related Art Applicants first expressed a model to be recognized as a series of evaluation points, and for each evaluation point, the value of the directional feature surface to be referred to and the amount of movement from the previous evaluation point. Is calculated in the dictionary table, and the operation of moving the counter surface and adding the value of the specified input direction feature surface to the counter surface is performed for all evaluation points, and then the local maximum value of the counter surface ( We have proposed a method for recognizing an arbitrary shape including a symbol by finding the maximum value (Japanese Patent Application No.
-198853). In addition, as a method of distinguishing between similar models, a difference pattern is extracted from similar models, and in addition to the conventional evaluation point series (positive evaluation point), the evaluation point series (negative evaluation point) of the difference pattern part is also taken into consideration. We have proposed a method that enables discrimination of similar models by adding the reference direction characteristic surface to the counter surface at the evaluation point, and subtracting the reference direction characteristic surface from the counter surface at the negative evaluation point. See Japanese Patent Application No. 2-90441).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、認識対
象が弾性点などで吸収できない誤差を生じる場合や、認
識対象に相似的変動または回転をともなう姿勢変動があ
る場合、従来の方法では認識が出来ないという問題があ
る。また、一般的に知られているテンプレートマッチン
グでは、このような誤差や変動には対応できないため、
その大きさや姿勢毎のモデルを別に用意する必要があ
り、このような変形に対応するためには大量のモデルを
用意する必要があり、高価になるという問題がある。ま
た、認識の対象となる画像の背景が複雑または粗雑であ
るため、本来その認識対象となるモデルが存在しない部
分に強い方向性特徴が検出され、所望する位置あるいは
モデル以外にも認識されてしまうという問題もある。し
たがって、この発明の課題は、認識対象の大きさや姿勢
が未知であっても、同一のモデルであれば認識を可能に
するとともに、複雑な背景部分から抽出される強い方向
性特徴による誤認識を回避することにある。
However, when the recognition target causes an error that cannot be absorbed due to an elastic point or the like, or when the recognition target has a similarity variation or a posture variation accompanied by rotation, recognition cannot be performed by the conventional method. There is a problem. In addition, generally known template matching cannot handle such errors and fluctuations.
It is necessary to separately prepare a model for each size and posture, and it is necessary to prepare a large number of models in order to cope with such deformation, which is a problem that it becomes expensive. In addition, since the background of the image to be recognized is complicated or coarse, strong directional features are detected in the part where the model to be recognized does not exist, and it is recognized in other than the desired position or model. There is also a problem. Therefore, an object of the present invention is to enable recognition with the same model even if the size and orientation of the recognition target are unknown, and to prevent erroneous recognition due to strong directional features extracted from a complicated background part. To avoid it.

【0004】[0004]

【課題を解決するための手段】このような課題を解決す
るため、第1の発明では、並列演算により入力画像の中
から抽出される方向性特徴と予め定義された形のモデル
との対比により画像認識を行なう画像認識装置におい
て、認識対象画像および参照モデル画像を入力する画像
入力手段と、その入力された画像を記憶する画像記憶手
段と、抽出すべき形のモデルを評価点の系列として表現
し、各評価点毎に参照すべき前記方向性特徴に関する値
と前記評価点の系列における1つ前の評価点からの移動
量とを定義し、この定義された方向性特徴に関する値お
よび移動量を予め記憶するモデル記憶手段と、前記各モ
デル同士が高い整合度をもつとき、それらの差分パター
ンに対応する評価点の方向性特徴に関する値および移動
量を類似モデルと区別するための情報としてモデルの評
価点列に追加する追加手段と、入力画像の方向性特徴を
抽出することにより、方向成分の強さを表現する複数の
方向面を作成する方向面作成手段と、前記入力画像の各
点毎にカウンタ面を記憶するカウンタ面記憶手段と、前
記評価点毎に定義される移動量に応じて前記カウンタ面
を平行移動する移動手段と、この移動手段によって移動
した当該カウンタ面に、前記方向性特徴に関する値によ
って得られる前記方向面のデータを加算または減算する
加減算手段と、前記平行移動および加減算を、前記モデ
ルの評価点系列の順に反復して実行する反復手段と、前
記平行移動および加減算の反復終了後、前記カウンタ面
の各点毎の前記方向面の総和の分布から前記モデルの形
および位置を検出する検出手段と、前記評価点系列を相
似的なモデルに変換する第1の変換手段と、前記評価点
系列を回転したモデルに変換する第2の変換手段と、対
象画像の大きさを推定する第1の推定手段と、対象画像
の回転方向および角度を推定する第2の推定手段と、と
を設けたことを特徴としている。また、第2の発明で
は、第1の発明において抽出すべき形のモデルを評価点
の系列として表現し、各評価点毎にモデルの有無を表わ
す無方向性に関する値と前記系列における1つ前の評価
点からの移動量とを定義してこれらの量を抽出する抽出
手段を付加し、これを前記方向性特徴を持つ評価点系列
と併用して認識することを特徴としている。
In order to solve such a problem, according to the first invention, a directional feature extracted from an input image by parallel operation is compared with a model of a predefined shape. In an image recognition device for image recognition, an image input means for inputting a recognition target image and a reference model image, an image storage means for storing the input image, and a model of a shape to be extracted are expressed as a series of evaluation points. However, a value related to the directional feature to be referred to for each evaluation point and a movement amount from the immediately preceding evaluation point in the series of evaluation points are defined, and a value and a movement amount related to the defined directional feature. When the models have a high degree of matching with each other, the value relating to the directional characteristics of the evaluation points corresponding to the difference patterns and the amount of movement are distinguished from the similar model. Addition means for adding to the evaluation point sequence of the model as information for, and direction plane creating means for creating a plurality of direction planes expressing the strength of the direction component by extracting the directional features of the input image, A counter surface storage unit that stores a counter surface for each point of the input image, a moving unit that moves the counter surface in parallel according to the amount of movement defined for each evaluation point, and the moving unit that moves the counter surface. Adder / subtractor for adding or subtracting the data of the directional surface obtained by a value relating to the directional characteristic to a counter surface, and repeating means for repetitively executing the parallel movement and the add / subtract in the order of the evaluation point series of the model. A detecting means for detecting the shape and position of the model from the distribution of the sum of the directional surfaces for each point of the counter surface after the parallel movement and the addition and subtraction are repeated. First conversion means for converting the evaluation point series into a similar model, second conversion means for converting the evaluation point series into a rotated model, and first estimation means for estimating the size of the target image Second estimation means for estimating the rotation direction and the angle of the target image, and are provided. Further, in the second invention, the model of the shape to be extracted in the first invention is expressed as a series of evaluation points, and a value relating to non-direction representing the presence or absence of a model for each evaluation point and the previous one in the series. The feature is that the amount of movement from the evaluation point is defined, and extraction means for extracting these amounts is added, and this is recognized in combination with the evaluation point series having the directional characteristic.

【0005】[0005]

【作用】並列演算により入力画像の中から抽出される方
向性特徴と評価点の系列として表現されるモデルとのマ
ッチングの度合によって画像を認識するに当たり、モデ
ルの評価点系列に対し、モデルの中心などの点と評価点
の2点について、その2点間の距離に対し係数倍した距
離をもつ2点間の直線上の点へ評価点を移動させるか、
または全ての評価点間のベクトルの大きさを係数倍して
全評価点を移動させた後、並列演算による認識を行なう
ことにより、認識対象の誤差や相似形的な変形をしても
対処し得るようにする。また、認識対象の誤差または姿
勢の回転により変化する場合も同様に、モデルの評価点
系列に対し、モデルの中心などの点を円弧の中心として
評価点がその円周上にあるとき、その2点間に或る角度
分移動した円周上の点に評価点を移動させる処理を全評
価点につき行なった後、並列演算による認識を行なうこ
とにより、認識対象の姿勢が回転により変化しても対処
可能とする。さらに、認識対象の大まかな外形等の形状
が分かる場合は、認識対象の大きさを推定しその推定値
をもとに認識することにより、演算量を大幅に削減す
る。特に、姿勢角に関しては、角方向特徴面より抽出さ
れる角度のヒストグラムなどによって大まかに推定す
る。また、モデルの評価点の系列を作成する場合、方向
性特徴をもつ従来の評価点系列に、モデルの中心線部分
などモデルの有無を判別可能な点による方向性特徴を持
たない(無方向性特徴)評価点系列を追加してモデルを
表現することで、複雑な背景によって検出される本来の
認識対象でない部分が強い方向性特徴をもち、しかもそ
の画像内での位置がモデルに類似するために生じる誤認
識を回避し、所望する位置およびモデルを認識可能とす
る。
When the image is recognized by the degree of matching between the directional feature extracted from the input image by the parallel operation and the model expressed as a series of evaluation points, the center of the model is compared with the evaluation point series of the model. Or the evaluation point, or move the evaluation point to a point on the straight line between the two points having a distance that is a coefficient times the distance between the two points, or
Alternatively, after moving all evaluation points by multiplying the size of the vector between all evaluation points by a factor, the recognition by parallel operation can be performed to deal with errors or similar deformation of the recognition target. To get it. Similarly, when the recognition point changes due to the error of the recognition target or the rotation of the posture, when the evaluation point is on the circumference of the circle with the center of the model as the center of the arc in the evaluation point series of the model, Even if the posture of the recognition target changes due to rotation, by performing the processing by moving the evaluation points to the points on the circumference that have moved by a certain angle between the points for all the evaluation points, the recognition by parallel calculation is performed. It can be dealt with. Furthermore, when the shape of the recognition target, such as a rough outline, is known, the size of the recognition target is estimated, and recognition is performed based on the estimated value, thereby significantly reducing the amount of calculation. Particularly, the posture angle is roughly estimated by a histogram of angles extracted from the angular characteristic surface. In addition, when creating a series of model evaluation points, the conventional evaluation point series with directional characteristics does not have directional characteristics based on points such as the center line of the model that can determine the presence or absence of the model (non-directional Features) By expressing the model by adding a series of evaluation points, the part that is not the original recognition target, which is detected by the complicated background, has strong directional features, and its position in the image is similar to the model. It avoids erroneous recognition that occurs in 1) and enables recognition of a desired position and model.

【0006】[0006]

【実施例】この発明の実施例について説明する前に、先
ず、本発明で中心概念をなす方向特徴面およびモデルに
ついて説明する。対象画像情報の各点において、濃度の
傾斜をもとにしたN(本例では8)面の方向特徴要素、
すなわち方向特徴面Uを作成する。 U={un (i,j)}、n=0〜7 1≦i≦I,1≦j≦J …(1) ここで、方向特徴面un(i,j)は、対象画像のメッ
シュで区切られた点(i,j)およびその近傍点と図1
5に定義される方向nによって定まるn方向の方向性の
強さを示すものであり、実際の処理では、図16(イ)
〜(チ)にその概念を示すエッジオペレータE00 〜E
7 からの出力(ただし、マイナスの値はカットする)
またはそれを2値化して得られる。例えば、画像情報が
縦方向(図16の2,6の方向)の線であり、その境界
から左側が全て“1”(黒)で、右側が全て“0”
(白)の場合において、境界の左側で近傍する“1”の
点にエッジオペレータの演算を行なう場合をn=3の場
合で考えると、図17に示すように、演算する点にオペ
レータE03 の中心を合わせ、オペレータE03 の各値
と画像情報(“1”または“0”)との積和演算、0×
1+(−1)×1+(−1)×0+1×1+0×1+
(−1)×0+1×1+1×1+0×0=+2から、u
3 (i,j)=2を得る。このような演算を図16
(イ)〜(チ)に示す8つの方向面について行なう。な
お、演算の結果が負の場合はその値を0とする。したが
って、このエッジオペレータからの出力はその点の濃度
の傾斜を示し、向きは低い方から高い方へとられてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Before describing the embodiments of the present invention, first, a directional characteristic surface and a model, which form the central concept of the present invention, will be described. At each point of the target image information, the direction characteristic element of the N (8 in this example) plane based on the density gradient,
That is, the direction characteristic surface U is created. U = {u n (i, j)}, n = 0 to 7 1 ≦ i ≦ I, 1 ≦ j ≦ J (1) Here, the directional feature plane u n (i, j) is the target image. A point (i, j) separated by a mesh and its neighboring points and FIG.
16 shows the strength of the directivity in the n direction determined by the direction n defined in FIG.
~ Edge operator E0 0 to E showing the concept (h)
The output of the 0-7 (however, a negative value is cut)
Alternatively, it can be obtained by binarizing it. For example, the image information is a line in the vertical direction (directions 2 and 6 in FIG. 16), the left side from the boundary is all “1” (black), and the right side is all “0”.
In the case of (white), considering the case of performing calculation of an edge operator to point to the vicinity "1" in the left boundary in the case of n = 3, the operator E0 3 as shown in FIG. 17, the point of operation , The product sum operation of each value of the operator E0 3 and the image information (“1” or “0”), 0 ×
1 + (-1) x1 + (-1) x0 + 1x1 + 0x1 +
From (−1) × 0 + 1 × 1 + 1 × 1 + 0 × 0 = + 2, u
3 (i, j) = 2 is obtained. Such calculation is shown in FIG.
This is performed for the eight directional surfaces shown in (A) to (H). When the result of the operation is negative, the value is set to 0. Therefore, the output from this edge operator shows the slope of the density at that point, and the direction is from lower to higher.

【0007】ただし、このオペレータE00 〜E07
出力のみでは、特徴要素が局所的である事と、方向精度
が緩いため、傾斜の直角方向の情報との統合により、そ
の付近に直線成分があるという特徴要素に置き換えた方
が、今後の処理にとって都合が良い。この統合処理は、
発明者らが先に提案したMAP法(方向特徴要素に対し
て収縮膨張演算を施す手法:必要ならば例えば「電子情
報通信学会誌,Vol.J74−D−II,No.6,p
p.718〜726,1991年6月」等を参照された
い)により、局所並列演算の繰り返しによって可能であ
る。ただ、表現の形式と特徴要素の意味自体は、統合の
後もエッジオペレータの出力のままでも変わらないた
め、以後の説明では、un (i,j)は図16(イ)〜
(チ)に示したエッジオペレータE00 〜E07 の出力
であるとして説明する。
[0007] However, only the operator E0 0 ~E0 7 output, and that feature elements is localized, for the direction accuracy is loose integration with perpendicular direction of the information of the inclination, the linear components in the vicinity thereof It is convenient for future processing to replace it with the feature element that exists. This integration process
The MAP method previously proposed by the inventors (a method of performing contraction / expansion calculation on a directional feature element: if necessary, for example, “Journal of the Institute of Electronics, Information and Communication Engineers, Vol. J74-D-II, No. 6, p.
p. 718-726, June 1991 ”) and the like, and it is possible by repeating the local parallel operation. However, the format of the expression and the meaning of the characteristic element itself do not change even after the integration, even if they are the output of the edge operator. Therefore, in the following description, u n (i, j) is shown in FIG.
It is assumed that the outputs are those of the edge operators E0 0 to E0 7 shown in (H).

【0008】一方、抽出すべき形のモデルは、形の輪郭
に沿ってとられたM(本例では13)個の評価点におけ
る法線の方向特徴(離散化された番号で表わされる)
と、1つ前の評価点からの移動量で与えられる。この法
線方向および移動量は、モデル評価点の属性、またMは
系列番号と呼ばれる。このとき、モデルRは以下の式で
与えられる。 R={(rm ,pm ,qm )|m=1〜M} 0≦rm ≦7 …(2) (2)式において、rm はm番目の評価点の方向番号で
ある。図18に示すモデルの例では、その8角形の内側
は低濃度であり、背景は高濃度とする。したがって、r
m は外側の向きを有した法線方向を8方向に離散化した
ものを示すものとなる。このモデルで得られる特徴は、
対象画像から求められた方向特徴要素と比較されるべき
ものであるから、方向性の安定な場所、すなわち輪郭の
曲がりの少ない直線的な点にとるのが望ましい。
On the other hand, the model of the shape to be extracted is the direction characteristic of the normal line at M (13 in this example) evaluation points taken along the contour of the shape (represented by discretized numbers).
And the amount of movement from the previous evaluation point. The normal direction and the movement amount are called attributes of the model evaluation point, and M is called a sequence number. At this time, the model R is given by the following equation. R = {(r m , p m , q m ) | m = 1 to M} 0 ≦ r m ≦ 7 (2) In the equation (2), r m is the direction number of the m-th evaluation point. In the example of the model shown in FIG. 18, the inside of the octagon has low density and the background has high density. Therefore, r
m represents a normal direction having an outer direction, which is discretized into eight directions. The features obtained with this model are:
Since it is to be compared with the directional feature element obtained from the target image, it is desirable to set it at a place where the directionality is stable, that is, a linear point where the contour is less curved.

【0009】また、(2)式において(pm ,qm
は、m−1番目の評価点からm番目の評価点への移動量
である。ただし、(p1 ,q1 )はM番目の評価点から
1番目の評価点への移動量とする。M番目の評価点の場
所を参照点と呼ぶとき、この参照点からm番目の評価点
までの累積の移動量は、数1のように与えられる。
Further, in (2) (p m, q m)
Is the amount of movement from the (m-1) th evaluation point to the mth evaluation point. However, (p 1 , q 1 ) is the amount of movement from the M-th evaluation point to the first evaluation point. When the location of the M-th evaluation point is called a reference point, the cumulative amount of movement from this reference point to the m-th evaluation point is given by the formula 1.

【数1】 ここで、このモデルRは入力画像情報の処理に先立っ
て、処理システム側が知識または辞書として有している
ものである。その作成方法としては、抽出すべき形また
はシンボルを入力して、 (a)評価点の位置を操作者が指定する。 (b)処理装置側で自動的に(例えば輪郭上に等間隔
に)評価点とその点の法線方向を決定する。 (c)輪郭の全ての点を評価点にとり、その法線方向を
特徴とする(この場合、pm ,qm は±1の範囲とな
る)。 等の方法が考えられる。何れにしても、入力画像の処理
に先立ってモデル情報は処理装置の中で定義され、記憶
されている。
[Equation 1] Here, the model R is possessed as knowledge or a dictionary by the processing system side prior to the processing of the input image information. As a method of creating the same, the shape or symbol to be extracted is input, and (a) the operator specifies the position of the evaluation point. (B) The processing device automatically determines (for example, at regular intervals on the contour) the evaluation point and the normal direction of the point. (C) All points of the contour are taken as evaluation points, and their normal directions are featured (in this case, p m and q m are within a range of ± 1). Etc. are possible. In any case, the model information is defined and stored in the processing device prior to processing the input image.

【0010】次に、処理の途中結果を保持する記憶手段
としてのカウンタ面C=c(i,j)につき、説明す
る。ここで、カウンタ面のメッシュ数は入力面のメッシ
ュ数と等しいものとし、この面にはモデルの評価点mま
での入力点の各点に関した評価値が保持される。ここ
に、表現上Cはカウンタ面c(i,j)の画像全体を表
わし、c〔pm ,qm 〕は画像C全体を(pm ,qm
だけシフト(平行移動)した画像を意味するものとす
る。本発明による処理の目的の1つは、モデルによって
指定される評価点の方向性特徴および評価点間の位置関
係を有する形(シンボル)を、入力画像情報の中から並
列演算によって抽出することであり、以下に説明する。 1)初期設定 カウンタ面Cを0クリアした上で、カウンタ面Cを入力
面Uに重ねる。このカウンタ面Cの点(i,j)に着目
し、これをのぞき穴Wijと呼ぶと、のぞき穴W ijは入力
画像情報の点(i,j)の位置に置かれる。図19
(イ)は初期設定時のカウンタ面Cの位置と、参照点に
位置するのぞき穴Wijを小円にて示す。このとき、カウ
ンタ面Cと入力面Uは完全に重なっている。
Next, storage means for holding the intermediate results of processing
The counter surface C = c (i, j) as
It Here, the number of meshes on the counter surface is the mesh on the input surface.
The number of model evaluation points m
The evaluation value for each input point is stored. here
In the expression, C represents the entire image of the counter surface c (i, j).
I, c [pm, Qm] For the entire image C (pm, Qm)
Shall mean an image that is shifted (translated) by
It One of the goals of the process according to the invention is
Directional characteristics of specified evaluation points and positional relationship between evaluation points
The shapes (symbols) that have a relation are arranged from the input image information.
It is extracted by a column operation, which will be described below. 1) Initial setting After clearing the counter surface C to 0, input the counter surface C
Overlay on surface U. Pay attention to the point (i, j) on this counter surface C
And this is the peep hole WijIf you call, peep hole W ijIs input
It is placed at the position of the point (i, j) in the image information. FIG. 19
(A) shows the position of the counter surface C at the time of initial setting and the reference point.
Peep hole W locatedijIs indicated by a small circle. At this time, cow
The input surface C and the input surface U completely overlap each other.

【0011】2)モデル評価点m=1〜Mに関し、以下
の処理を逐次実行する。 2−1)移動 カウンタ面C全体を(pm ,qm )だけシフト(平行移
動)する。この処理は次の式で表わされる。 C:=c〔pm ,qm 〕 …(3) ここに、記号「:」は右辺で演算された値を左辺に代入
することを意味する。この平行移動の処理は、面内の各
点c(i,j)に対して均一な処理であり各点独立であ
るため、並列処理により高速に実行することができる。
ここで、初期設定時ののぞき穴Wijは、入力画像の(i
+Σpm ,j+Σqm)の位置に移動することになる。
すなわち、図19(ロ)はm=1の場合の移動を示し、
のぞき穴Wijは元の破線で示されるモデルのm=1の評
価点の位置まで移動する。
2) For the model evaluation points m = 1 to M, the following processing is sequentially executed. 2-1) the entire moving counter surface C (p m, q m) shifted (parallel movement). This process is expressed by the following equation. C: = c [p m, q m] in ... (3) where the symbol ":" means substituting the computed value on the right side to the left side. This parallel movement processing is uniform for each point c (i, j) in the plane and is independent of each point, so it can be executed at high speed by parallel processing.
Here, the peephole W ij in the initial setting is (i
+ Σp m , j + Σq m ).
That is, FIG. 19B shows the movement when m = 1,
The peep hole W ij moves to the position of the evaluation point of m = 1 of the model shown by the original broken line.

【0012】2−2)加算 移動によって得られるカウンタ面Cにおいて、方向番号
m に基づいて方向面urmを指定し、この値をカウンタ
面Cの値に加算する。すなわち、 C:=C+urm …(4) の如き処理を行なう。この加算処理も、面内の各点c
(i,j)に対して均一な処理であり各点の演算が独立
であるため、並列処理により高速に実行可能である。上
記(3),(4)式の処理によるのぞき穴Wijに着目す
ると、新たなのぞき穴Wijは以下の式で更新される。 Wij=Wij+urm(i+Σpm ,j+Σqm ) …(5) (5)式および図19(ハ)からも明らかなように、実
線で示されるカウンタ面Cと破線で示される入力面Uと
がそのままの位置で加算される。すなわち、W ijに付加
されたi,jによって示される位置は現在の位置ではな
く、図19(イ)に示した初期設定時における位置を示
している。なお、図19(ハ)は、m=4計算時のカウ
ンタ面Cの位置を示している。現在ののぞき穴Wijの位
置は初期設定時のm=4の評価点の位置である。この時
の入力面Uの位置は、破線で示す位置であり、移動して
いない。
2-2) Addition On the counter surface C obtained by the movement, the direction number
rmDirection plane u based onrmAnd specify this value as a counter
Add to the value of surface C. That is, C: = C + urm ... Processing such as (4) is performed. This addition process also applies to each point c in the plane.
Uniform processing for (i, j) and independent calculation of each point
Therefore, it can be executed at high speed by parallel processing. Up
Peep hole W by the processing of the expressions (3) and (4)ijFocus on
Then, a new peep hole WijIs updated by the following formula. Wij= Wij+ Urm(I + Σpm, J + Σqm) (5) As is clear from the equation (5) and FIG.
A counter surface C shown by a line and an input surface U shown by a broken line
Is added in the same position. That is, W ijAdded to
The position indicated by i, j is not the current position.
The position at the time of initial setting shown in FIG.
are doing. Note that FIG. 19C shows the cow when m = 4 is calculated.
The position of the input surface C is shown. Current peep hole WijPlace of
The position is the position of the evaluation point of m = 4 at the time of initial setting. At this time
The position of the input surface U of is the position shown by the broken line,
Not in.

【0013】上記2−1)項の移動および2−2)項の
加算処理をM回行なった後ののぞき穴Wijについて着目
すると、(p1 ,q1 )の設定の仕方から、 i+Σpm ≡i,j+Σqm ≡j であることから、Wijは元の位置(i,j)に戻る。す
なわち、最終的に得られるWijには、モデルの参照点
(終点)を入力像の(i,j)の位置に置いたときの、
モデルの輪郭に沿ったM個の評価点における上述の評価
値、つまり指定された方向面の総和が含まれている。こ
の処理が点(i,j)に関して並列に実行されるから、
全ての点(i,j)に関してこのような評価量の総和
が、同時に求められる。したがって、この総和がカウン
タ面Cにおいて最大となる値、 max{c(i,j)} を検出することにより、この最大値を有する点、すなわ
ちモデルの形を入力画像のあらゆる位置に置いてみて、
その中で最も良く合致する点(i,j)とそのときの評
価値c(i,j)を知ることができる。なお、面内にモ
デルに近い形が複数存在すると考えられる場合には、最
大値を有する点だけでなく、周りと比べて値の大きな点
つまり極大点を抽出することにより、それらの位置が抽
出される。
Focusing on the peep hole W ij after the movement of the item 2-1) and the addition process of the item 2-2) have been performed M times, from the way of setting (p 1 , q 1 ), i + Σp m Since ≡i, j + Σq m ≡j, W ij returns to the original position (i, j). That is, in the finally obtained Wij , when the reference point (end point) of the model is placed at the position (i, j) of the input image,
The above-mentioned evaluation values at M evaluation points along the contour of the model, that is, the sum total of the designated direction planes are included. Since this process is performed in parallel for point (i, j),
The sum total of such evaluation amounts for all points (i, j) is obtained at the same time. Therefore, by finding a value, max {c (i, j)}, at which this sum is maximum in the counter surface C, try to put the point having this maximum value, that is, the shape of the model, at every position of the input image. ,
It is possible to know the point (i, j) that best matches among them and the evaluation value c (i, j) at that time. In addition, when it is considered that there are multiple shapes close to the model in the plane, those positions are extracted by extracting not only the point having the maximum value but also the point having a larger value than the surroundings, that is, the maximum point. To be done.

【0014】以上の処理を3次元的に示すのが図20で
ある。すなわち、一番上の面Cがカウンタ面、下側の8
面が入力画像情報から求めた方向面Uである。8つの面
Uには、それぞれ図示の如き矢印で示す方向成分の特徴
が入っている。処理の進行に従って一番上のカウンタ面
のみが図に示すように移動する。この移動は、図19
(イ)〜(ハ)に対応している。各評価点mにおける加
算時に、図中縦線で示すのぞき穴の上でカウンタ面の値
と方向面の値とが加算されるが、このとき加算されるの
は方向面8面の値全部ではなく、モデルで指定された8
面内の1つの面の値である。 2−3)上述の手法に加えて、ここではさらにシンボル
のモデル同士のマッチング(整合)をとり、或る値以上
の整合度を示すカテゴリーについて、下記数2の演算に
より、ネガパターン評価点列NPHを求める。
FIG. 20 shows the above processing three-dimensionally. That is, the uppermost surface C is the counter surface and the lower surface 8
The surface is the direction surface U obtained from the input image information. Each of the eight planes U has a characteristic of a directional component indicated by an arrow as shown. As the processing progresses, only the uppermost counter surface moves as shown in the figure. This movement is shown in FIG.
It corresponds to (a) to (c). At the time of addition at each evaluation point m, the value of the counter surface and the value of the directional surface are added on the peephole indicated by the vertical line in the figure. At this time, all the values of the directional surface 8 are added. No, 8 specified in the model
It is the value of one face within the face. 2-3) In addition to the above-described method, here, matching (matching) of symbol models is further performed, and a negative pattern evaluation point sequence is calculated by the following mathematical expression 2 for a category showing a matching degree of a certain value or more. Find NPH.

【数2】 [Equation 2]

【0015】そのフローを図21に示す。なお、数2の
0は該当シンボルの原パターン、R1 , R2 …Ri
ネガ対象となるシンボルの評価点列パターン、Dk はk
回の無方向性膨張演算を表わし、「−」を付してその否
定を示す。なお、収縮演算は2値画像情報において、或
る点の値とその周り(近傍)の値との論理積(AND)
によりその点の新しい値を求める演算であり、膨張演算
は近傍との論理和(OR)演算を行なうものである。ま
た、該当シンボルとネガ相手とのパターンを重ね合わせ
る際には、該当シンボルの参照点とネガ相手パターンの
極大値を示す点で位置合わせを行なう。ネガパターン評
価点列NPHの評価点をネガ評価点、2−2)項の加算
処理までで得られる評価点をポジ評価点と呼ぶことにす
る。そして、入力画像とのマッチングを行なう際は、ポ
ジ評価点ではカウンタ面の加算を、またネガ評価点では
減算を行なうが、その処理フローを図22に示す。な
お、同図に言うフラグは評価点がポジ(P)かネガ
(N)かを示すためのものである。
The flow is shown in FIG. In Equation 2, S 0 is the original pattern of the corresponding symbol, R 1 , R 2 ... Ri are the evaluation point sequence patterns of the negative symbols, and D k is k.
It represents a non-directional dilation operation of times, and a negative sign "-" is added. The contraction calculation is a logical product (AND) of the value of a certain point and the value of the surrounding (neighboring) in the binary image information.
Is a calculation for obtaining a new value at that point, and the expansion calculation is a logical sum (OR) calculation with the neighborhood. Further, when the pattern of the corresponding symbol and the pattern of the negative partner are superimposed, the reference point of the symbol and the point showing the maximum value of the pattern of the negative partner are aligned. The evaluation points of the negative pattern evaluation point sequence NPH will be referred to as negative evaluation points, and the evaluation points obtained up to the addition processing in the item 2-2) will be referred to as positive evaluation points. Then, when matching with the input image, addition of the counter surface is performed at the positive evaluation point and subtraction is performed at the negative evaluation point, and the processing flow thereof is shown in FIG. The flag shown in the figure is for indicating whether the evaluation point is positive (P) or negative (N).

【0016】ここで、図1に示すこの発明の実施例につ
き、説明する。まず、モデルの評価点系列の作成を行な
う。用紙等に認識対象となるべきモデルが書かれた参照
モデル画像1を光学的画像入力部3に入力し、その濃淡
画像を入力画像メモリ4に格納する。このとき、入力さ
れる参照モデル画像1には図2のような評価点系列の作
成に当たり、画質の状態が良好であることが必要とされ
る。なお、参照モデル画像1にはここでは2つのモデル
21,22が含まれているが、参照モデルとして更に多
くのモデルを含んでいても良い。次に、画像演算部6に
よる切り出し処理により、モデルを1つずつ切り出して
評価点作成を行なう。画像演算部6は様々な処理が可能
であり、例えば図16(イ)〜(チ)のようなエッジオ
ペレータを処理し、処理結果のエッジ画像を演算用画像
メモリ5に格納する。方向面化部7では得られたエッジ
画像から複数の方向面に分離する。方向面数は何面でも
良いが、ここでは8面とする。
Now, the embodiment of the present invention shown in FIG. 1 will be described. First, a model evaluation point series is created. A reference model image 1 in which a model to be recognized is written on a sheet or the like is input to the optical image input unit 3, and the grayscale image is stored in the input image memory 4. At this time, it is necessary for the input reference model image 1 to have a good image quality when creating the evaluation point series as shown in FIG. Although the reference model image 1 includes two models 21 and 22 here, more models may be included as reference models. Next, the model is cut out one by one by the cutout processing by the image calculation unit 6, and evaluation points are created. The image calculation unit 6 can perform various processes. For example, the edge operator as shown in FIGS. 16A to 16C is processed, and the edge image as a processing result is stored in the calculation image memory 5. The orientation surface conversion unit 7 separates the obtained edge image into a plurality of orientation surfaces. The number of planes in the direction may be any, but here it is eight.

【0017】一方、モデルの評価点を決定するため、画
像演算部6では得られたエッジ画像をさらに2値化し、
輪郭点から図18の如く評価点を決定する。決定におい
ては、評価点間の距離が一定になる選び方などがあり、
目的や対象に応じて変えることができる。モデル作成部
10では、得られた方向面と評価点をもとにモデルの記
述を行なう。図3のように、例えばモデル22のn番目
の評価点32では、その点において方向面のデータを見
ると、第2方向面にデータが存在することが分かる。ま
た、1つ前の評価点31からの移動量を(xn ,yn
とすると、モデル記憶部11におけるモデル22が登録
される場所のn番目には、指定フラグをP(ポジ評価
点)として図4のように記述される。すべての評価点に
ついてこのような記述を行なうことにより、モデル22
ついてポジ評価点の系列が作成されることになる。
On the other hand, in order to determine the evaluation point of the model, the image calculation unit 6 further binarizes the obtained edge image,
Evaluation points are determined from the contour points as shown in FIG. In the decision, there is a method of choosing such that the distance between evaluation points is constant,
It can be changed according to the purpose and target. The model creation unit 10 describes the model based on the obtained direction planes and evaluation points. As shown in FIG. 3, at the n-th evaluation point 32 of the model 22, for example, when looking at the data of the direction surface at that point, it can be seen that there is data in the second direction surface. Further, the movement amount from the immediately preceding evaluation point 31 is (x n , y n ).
Then, at the nth place where the model 22 is registered in the model storage unit 11, the designation flag is described as P (positive evaluation point) as shown in FIG. By making such a description for all evaluation points, the model 22
A series of positive evaluation points will be created.

【0018】また、モデル作成部10ではネガ評価点
(N)の作成も行なう。上記と同様にモデル21と22
について考えると、モデル22の「F」はモデル21の
「E」の一部をなしていることが分かる。すなわち、認
識対象が「E」であったとすると、これはモデル21に
もモデル22にも認識され、その整合度の差は微小であ
る。そのため、すべての認識が終了したとき、それが
「E」であるか「F」であるかが微妙な問題となってく
る。そこで、モデル作成部10はすべてのモデル同士の
組み合わせから、類似しているものや包含しているもの
などを捜し出し、その差分パターンを求めこれを指定フ
ラグをNとするネガ評価点として、モデルの評価点系列
に加えるようにしている。図5にモデル21と22の場
合のネガ評価点の作成例を示す。ここでは、差分パター
ンとして41が検出されている。このようにして、全モ
デルに対する評価点系列を作成し、その結果をモデル記
憶部11に記憶する。
The model creating unit 10 also creates a negative evaluation point (N). Models 21 and 22 as above
, It is understood that the “F” of the model 22 forms a part of the “E” of the model 21. That is, if the recognition target is "E", this is recognized by both the model 21 and the model 22, and the difference in the matching degree is very small. Therefore, when all the recognition is completed, it becomes a delicate matter whether it is “E” or “F”. Therefore, the model creating unit 10 searches for similar or inclusive ones from all combinations of models, finds a difference pattern between them, and determines this difference pattern as a negative evaluation point with N as a designated flag. I am trying to add it to the evaluation point series. FIG. 5 shows an example of creating negative evaluation points for the models 21 and 22. Here, 41 is detected as the difference pattern. In this way, the evaluation point series for all models is created, and the result is stored in the model storage unit 11.

【0019】次に、認識を行なう。いま、図6のような
認識対象2が入力されたものとすると、これはモデル2
2に対して相似的な変形をしている。これは一種の誤差
とも考えられるが、このような場合にはモデル記憶部1
1に登録されているモデルで認識を行なっても整合しな
い。そこで、この発明ではモデル変換部12により各モ
デルの大きさを変化させて整合させるようにする。この
大きさの変換は各評価点に対して行なわれ、1つの方法
としては図7のように、画像上の或る点から各評価点を
結ぶベクトルの大きさを同じ割合で変える方法、あるい
は各評価点のベクトルの大きさを一様に変える方法など
により、モデルを拡大,縮小するようにする。このよう
に、モデルの評価点に対して拡大,縮小して認識を実行
することにより、認識処理がモデルの大きさにかかわら
ず一定となるため、大きさを変えて行くだけで未知のパ
ターンを認識することが可能となる。また、認識対象画
像の画質が良好な場合は、図6に示すように大まかな大
きさ51を外接四角形等により推定し、この推定した大
きさに対して52から53の大小の範囲のみ認識するこ
とにより、認識処理を大幅に圧縮することも可能であ
る。
Next, recognition is performed. Now, assuming that the recognition target 2 as shown in FIG. 6 is input, this is the model 2
It is similar to 2. This may be considered as a kind of error, but in such a case, the model storage unit 1
The model registered in 1 does not match even if recognition is performed. Therefore, in the present invention, the size of each model is changed by the model conversion unit 12 so as to be matched. This size conversion is performed for each evaluation point, and one method is to change the size of the vector connecting each evaluation point from a certain point on the image at the same rate as shown in FIG. The model is enlarged or reduced by a method of uniformly changing the size of the vector of each evaluation point. In this way, by executing the recognition by enlarging or reducing the evaluation points of the model, the recognition process becomes constant regardless of the size of the model, and therefore unknown patterns can be obtained by simply changing the size. It becomes possible to recognize. When the image quality of the recognition target image is good, the rough size 51 is estimated by a circumscribing rectangle as shown in FIG. 6, and only the large and small ranges 52 to 53 are recognized with respect to the estimated size. As a result, the recognition process can be significantly compressed.

【0020】図8に示すような認識対象2が入力された
場合も上記と同様に、モデル変換部12により例えば図
9の如く、画像上の或る点から各評価点を結ぶベクトル
の向き(角度θ)を一定の割合で変える方法や、各評価
点間のベクトルの向きを一様に変える方法などにより、
モデルを回転させるものとする。姿勢変換の場合は、評
価点の移動量の変換とともに、参照方向面のデータも同
時に変換する。このように、すべての回転角について認
識を行なえば、未知パターンを認識することができる。
ところで、モデルは方向特徴をもっているため、図10
(イ)のような方向スストグラムを持っている。そこ
で、対象画像からも同様の方向ヒストグラムが同図
(ロ)のように抽出されたとして、これをモデルのそれ
と比較すると、モデルに対して回転角76の分だけ回転
しているか、あるいは74が73に対して回転角77の
分だけ回転しているものと考えられる。そこで、推定し
た回転角76の分だけ回転させて78の範囲だけ認識
し、次に回転角77の分だけ回転させて78の範囲だけ
認識するとともに、範囲75についても同様に回転させ
て認識することにより、大幅に認識処理量を圧縮するこ
とができる。
When the recognition target 2 as shown in FIG. 8 is input, similarly to the above, the direction of the vector connecting the respective evaluation points from a certain point on the image ( The angle θ) can be changed at a constant rate, or the direction of the vector between the evaluation points can be changed uniformly.
The model shall be rotated. In the case of posture conversion, the movement amount of the evaluation point is converted and the data of the reference direction surface is also converted at the same time. In this way, if the recognition is performed for all the rotation angles, the unknown pattern can be recognized.
By the way, since the model has directional characteristics,
It has a direction stimulus like (a). Therefore, assuming that a similar direction histogram is extracted from the target image as shown in (b) of the figure, if this is compared with that of the model, it is rotated by the rotation angle 76 with respect to the model, or 74 It is considered that the rotation is performed by the rotation angle 77 with respect to 73. Therefore, the estimated rotation angle 76 is rotated to recognize only the range 78, the rotation angle 77 is rotated to recognize only the range 78, and the range 75 is similarly rotated and recognized. As a result, the recognition processing amount can be significantly reduced.

【0021】次に、図11(イ)のような認識対象につ
いて考える。この画像では、認識対象が荒い背景にかか
れているため、そのエッジ画像は同図(ロ)のようにな
り、背景部分に多くの方向性特徴が抽出されている。こ
のため、単純なモデルはどの位置においても認識される
可能性があり、かかる場合はネガ評価点を考慮してもそ
の区別は困難である。そこで、評価点系列にモデルの存
在の有無を意味する無方向性特徴をもつ評価点を抽出
し、これを方向性特徴をもつ評価点系列に追加して認識
するようにしている。この点についてモデル22の例で
考えると、図12の如きモデル22の輪郭線81上にポ
ジ評価点系列82が形成された後、図1の画像演算部6
は入力画像メモリ4に格納されている入力画像に対し、
2値化等によりモデル部分と背景部分とを区別するよう
な画像を演算用画像メモリ5に格納し、さらに細線化等
を施すことにより、その細線83から無方向性特徴の評
価点84を作成する。図12において、「□」は方向性
特徴の評価点、「○」は無方向性特徴の評価点、85は
ネガ評価点をそれぞれ示す。
Next, consider a recognition target as shown in FIG. In this image, since the recognition target is covered by a rough background, the edge image is as shown in FIG. 8B, and many directional features are extracted in the background portion. Therefore, a simple model may be recognized at any position, and in such a case, it is difficult to distinguish it even if the negative evaluation points are taken into consideration. Therefore, an evaluation point having an omnidirectional feature that indicates the presence or absence of a model is extracted from the evaluation point sequence, and this is added to the evaluation point sequence having a directional feature to be recognized. Considering this point in the example of the model 22, after the positive evaluation point series 82 is formed on the contour line 81 of the model 22 as shown in FIG. 12, the image calculation unit 6 of FIG.
Is for the input image stored in the input image memory 4,
An image that distinguishes the model part from the background part by binarization is stored in the arithmetic image memory 5, and further thinning is performed to create an evaluation point 84 of the non-directional feature from the thin line 83. To do. In FIG. 12, “□” indicates the evaluation score of the directional feature, “◯” indicates the evaluation score of the non-directional feature, and 85 indicates the negative evaluation score.

【0022】図11(イ)のような認識対象画像が入力
された場合の認識では、まず方向面が作成されるととも
に、特徴抽出部8において2値化等の処理により図13
のような無方向性特徴面U’が1面作成される。次い
で、モデルの記述に従い、現在評価している評価点の属
性が方向面を参照するP(方向性特徴のポジ評価点),
N(方向性特徴のネガ評価点),p(無方向性特徴のポ
ジ評価点),n(無方向性特徴のネガ評価点)のいずれ
であるかを指定フラグにより判定し、カウンタ面Cと加
減算を行なう画像を選択部9で切り換える。そして、加
減算演算部13ではポジ評価点P,pの場合には加算、
ネガ評価点N,nの場合には減算をそれぞれ実行する。
図14(イ)に方向性特徴の評価点のみにより認識した
場合の例を示す。同図のように、背景部分の強い方向性
特徴により「1」や「J」を過って認識している。これ
に対し、同図(ロ)は無方向性特徴の評価点を考慮した
場合を示し、図13の特徴により誤認識を回避すること
が可能となる。
In the recognition when an image to be recognized as shown in FIG. 11 (a) is input, a direction plane is first created, and the feature extraction unit 8 performs a process such as binarization as shown in FIG.
One non-directional characteristic surface U ′ is created. Then, according to the description of the model, the attribute of the evaluation point currently being evaluated refers to the direction plane P (positive evaluation point of the directional characteristic),
N (negative evaluation point of directional feature), p (positive evaluation point of non-directional feature), or n (negative evaluation point of non-directional feature) is determined by the designated flag, and the counter surface C is determined. The selection unit 9 switches the image to be added / subtracted. Then, the addition / subtraction calculation unit 13 adds in the case of positive evaluation points P and p,
In the case of negative evaluation points N and n, subtraction is executed respectively.
FIG. 14A shows an example in which recognition is performed only by the evaluation points of the directional features. As shown in the figure, "1" or "J" is erroneously recognized due to the strong directional characteristic of the background portion. On the other hand, FIG. 13B shows the case where the evaluation points of the non-directional features are taken into consideration, and the features of FIG. 13 can prevent erroneous recognition.

【0023】[0023]

【発明の効果】この発明によれば、1種類の参照モデル
によって誤差や相似形的変形または回転による姿勢変形
の生じた未知のパターンも認識することができるだけで
なく、大きさや回転角度を推定することにより認識処理
量を大幅に削減することが可能となる。また、複雑かつ
粗雑な背景にかかれたパターンでも正確に認識すること
が可能となり、複雑な背景による誤認識を回避すること
ができる。
According to the present invention, not only an unknown pattern in which an error, a similar deformation, or a posture deformation due to rotation has occurred can be recognized by one type of reference model, but the size and rotation angle can be estimated. This makes it possible to significantly reduce the amount of recognition processing. Further, it is possible to accurately recognize even a pattern on a complicated and rough background, and it is possible to avoid erroneous recognition due to a complicated background.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】参照モデル画像例を説明するための説明図であ
る。
FIG. 2 is an explanatory diagram illustrating an example of a reference model image.

【図3】あるモデルの具体的な方向面を説明するための
説明図である。
FIG. 3 is an explanatory diagram for explaining a specific directional surface of a model.

【図4】モデル記憶部の内容例を説明するための説明図
である。
FIG. 4 is an explanatory diagram illustrating an example of contents of a model storage unit.

【図5】類似しているモデル同士のネガ評価点例を説明
するための説明図である。
FIG. 5 is an explanatory diagram illustrating an example of negative evaluation points of similar models.

【図6】モデルと相似の関係にある入力画像例を説明す
るための説明図である。
FIG. 6 is an explanatory diagram for explaining an example of an input image having a similarity relationship with a model.

【図7】大きさの変換方法を説明するための説明図であ
る。
FIG. 7 is an explanatory diagram for explaining a size conversion method.

【図8】モデルに対して所定角度だけ回転した関係にあ
る入力画像例を説明するための説明図である。
FIG. 8 is an explanatory diagram illustrating an example of an input image having a relationship of being rotated by a predetermined angle with respect to a model.

【図9】回転方法の1例を説明するための説明図であ
る。
FIG. 9 is an explanatory diagram illustrating an example of a rotation method.

【図10】モデルと入力画像のヒストグラム例を説明す
るための説明図である。
FIG. 10 is an explanatory diagram illustrating an example of a histogram of a model and an input image.

【図11】荒い背景中の認識画像例とそのエッジ画像を
説明するための説明図である。
FIG. 11 is an explanatory diagram for explaining an example of a recognized image in a rough background and its edge image.

【図12】或るモデルの無方向性特徴例を説明するため
の説明図である。
FIG. 12 is an explanatory diagram illustrating an example of a non-directional feature of a model.

【図13】無方向性特徴画面の1例を説明するための説
明図である。
FIG. 13 is an explanatory diagram illustrating an example of an omnidirectional feature screen.

【図14】この発明による効果を説明するための説明図
である。
FIG. 14 is an explanatory diagram for explaining the effect of the present invention.

【図15】方向面を説明するための説明図である。FIG. 15 is an explanatory diagram for explaining a directional surface.

【図16】エッジオペレータ例を説明するための説明図
である。
FIG. 16 is an explanatory diagram illustrating an example of an edge operator.

【図17】エッジオペレータの適用例を説明するための
説明図である。
FIG. 17 is an explanatory diagram for describing an application example of an edge operator.

【図18】或るシンボルの評価点を説明するための説明
図である。
FIG. 18 is an explanatory diagram for explaining an evaluation point of a certain symbol.

【図19】カウンタ面の移動方法を説明するための説明
図である。
FIG. 19 is an explanatory diagram for explaining a method of moving the counter surface.

【図20】カウンタ面と複数の入力方向面との関係を3
次元的に説明するための説明図である。
FIG. 20 shows the relationship between the counter surface and the plurality of input direction surfaces in 3
It is explanatory drawing for dimensionally explaining.

【図21】ネガ評価点の求め方を説明するためのフロー
チャートである。
FIG. 21 is a flowchart for explaining how to obtain a negative evaluation score.

【図22】ポジ評価点とネガ評価点を用いた認識方法を
説明するためのフローチャートである。
FIG. 22 is a flowchart for explaining a recognition method using a positive evaluation point and a negative evaluation point.

【符号の説明】[Explanation of symbols]

1 参照モデル画像 2 認識対象画像 3 入力部 4 入力画像メモリ 5 演算用画像メモリ 6 画像演算部 7 方向面化部 8 特徴抽出部 9 選択部 10 モデル作成部 11 モデル記憶部 12 変換部 13 加減算演算部 14 最大値検出部 15 初期値設定部 16 移動部 17 制御部 1 Reference model image 2 Recognition target image 3 Input unit 4 Input image memory 5 Image memory for calculation 6 Image calculation unit 7 Directionalization unit 8 Feature extraction unit 9 Selection unit 10 Model creation unit 11 Model storage unit 12 Conversion unit 13 Addition / subtraction calculation Part 14 Maximum value detection part 15 Initial value setting part 16 Moving part 17 Control part

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 和彦 茨城県つくば市梅園1丁目1番4 電子技 術総合研究所内 (72)発明者 山田 博三 茨城県つくば市梅園1丁目1番4 電子技 術総合研究所内 (72)発明者 斉藤 泰一 茨城県つくば市梅園1丁目1番4 電子技 術総合研究所内 (72)発明者 細川 勝美 東京都日野市富士町1番地 富士ファコム 制御株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Kazuhiko Yamamoto 1-4-1 Umezono, Tsukuba-shi, Ibaraki Electronic Technology Research Institute (72) Hirozo Yamada 1-4-1 Umezono, Tsukuba-shi, Ibaraki Electronic technology (72) Inventor, Taiichi Saito, 1-4, Umezono, Tsukuba-shi, Ibaraki Electronic Technology Research Institute (72) Inventor, Katsumi Hosokawa, 1 Fuji-machi, Hino-shi, Tokyo Fuji-Facom Control Co., Ltd.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】並列演算により入力画像の中から抽出され
る方向性特徴と予め定義された形のモデルとの対比によ
り画像認識を行なう画像認識装置において、 認識対象画像および参照モデル画像を入力する画像入力
手段と、 その入力された画像を記憶する画像記憶手段と、 抽出すべき形のモデルを評価点の系列として表現し、各
評価点毎に参照すべき前記方向性特徴に関する値と前記
評価点の系列における1つ前の評価点からの移動量とを
定義し、この定義された方向性特徴に関する値および移
動量を予め記憶するモデル記憶手段と、 前記各モデル同士が高い整合度をもつとき、それらの差
分パターンに対応する評価点の方向性特徴に関する値お
よび移動量を類似モデルと区別するための情報としてモ
デルの評価点列に追加する追加手段と、 入力画像の方向性特徴を抽出することにより、方向成分
の強さを表現する複数の方向面を作成する方向面作成手
段と、 前記入力画像の各点毎にカウンタ面を記憶するカウンタ
面記憶手段と、 前記評価点毎に定義される移動量に応じて前記カウンタ
面を平行移動する移動手段と、 この移動手段によって移動した当該カウンタ面に、前記
方向性特徴に関する値によって得られる前記方向面のデ
ータを加算または減算する加減算手段と、 前記平行移動および加減算を、前記モデルの評価点系列
の順に反復して実行する反復手段と、 前記平行移動および加減算の反復終了後、前記カウンタ
面の各点毎の前記方向面の総和の分布から前記モデルの
形および位置を検出する検出手段と、 前記評価点系列を相似的なモデルに変換する第1の変換
手段と、 前記評価点系列を回転したモデルに変換する第2の変換
手段と、 対象画像の大きさを推定する第1の推定手段と、 対象画像の回転方向および角度を推定する第2の推定手
段と、とを備えてなることを特徴とする画像認識装置。
1. An image recognition apparatus for performing image recognition by comparing a directional feature extracted from an input image by parallel calculation with a model of a predefined shape, and inputting a recognition target image and a reference model image. An image input means, an image storage means for storing the input image, a model of a form to be extracted is expressed as a series of evaluation points, and a value relating to the directional feature to be referred to for each evaluation point and the evaluation A model storage unit that defines the amount of movement from the immediately preceding evaluation point in the series of points and stores the value and the amount of movement related to the defined directional characteristics in advance, and each of the models has a high degree of matching. At this time, additional means for adding to the evaluation point sequence of the model as information for distinguishing the value and the movement amount regarding the directional characteristics of the evaluation points corresponding to those difference patterns from the similar model, Direction plane creating means for creating a plurality of direction planes expressing the strength of the direction component by extracting the directional features of the input image; and counter plane storage means for storing a counter plane for each point of the input image. A moving means for moving the counter surface in parallel according to a moving amount defined for each evaluation point, and the counter surface moved by the moving means, on the counter surface, of the direction surface obtained by the value relating to the directional characteristic. Addition / subtraction means for adding or subtracting data, repeating means for repeating the parallel movement and addition / subtraction in the order of the evaluation point series of the model, and each point on the counter surface after the end of the parallel movement and addition / subtraction iterations. Detection means for detecting the shape and position of the model from the distribution of the sum of the directional surfaces for each, first conversion means for converting the evaluation point series into a similar model, Second conversion means for converting the evaluation point series into a rotated model; first estimation means for estimating the size of the target image; second estimation means for estimating the rotation direction and angle of the target image; An image recognition device comprising:
【請求項2】 抽出すべき形のモデルを評価点の系列と
して表現し、各評価点毎にモデルの有無を表わす無方向
性に関する値と前記系列における1つ前の評価点からの
移動量とを定義してこれらの量を抽出する抽出手段を付
加し、これを前記方向性特徴を持つ評価点系列と併用し
て認識することを特徴とする請求項1に記載の画像認識
装置。
2. A model of a shape to be extracted is expressed as a series of evaluation points, a value relating to non-directionality indicating the presence or absence of a model for each evaluation point, and a movement amount from the immediately preceding evaluation point in the series. 2. The image recognition apparatus according to claim 1, further comprising: extracting means for defining the above, and adding the extracting means for recognizing the quantity in combination with the evaluation point series having the directional characteristic.
JP3246015A 1991-09-25 1991-09-25 Image recognition device Expired - Lifetime JP2935299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3246015A JP2935299B2 (en) 1991-09-25 1991-09-25 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3246015A JP2935299B2 (en) 1991-09-25 1991-09-25 Image recognition device

Publications (2)

Publication Number Publication Date
JPH07141504A true JPH07141504A (en) 1995-06-02
JP2935299B2 JP2935299B2 (en) 1999-08-16

Family

ID=17142194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3246015A Expired - Lifetime JP2935299B2 (en) 1991-09-25 1991-09-25 Image recognition device

Country Status (1)

Country Link
JP (1) JP2935299B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209694A (en) * 2000-01-26 2001-08-03 Matsushita Electric Works Ltd Work analysis supporting system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209694A (en) * 2000-01-26 2001-08-03 Matsushita Electric Works Ltd Work analysis supporting system

Also Published As

Publication number Publication date
JP2935299B2 (en) 1999-08-16

Similar Documents

Publication Publication Date Title
CN109343920B (en) Image processing method and device, equipment and storage medium thereof
Tong et al. Saliency detection with multi-scale superpixels
US5799115A (en) Image filing apparatus and method
CN111783770B (en) Image correction method, device and computer readable storage medium
JP4300098B2 (en) Object identification method and apparatus, program and recording medium
CN115375917B (en) Target edge feature extraction method, device, terminal and storage medium
CN111898428A (en) Unmanned aerial vehicle feature point matching method based on ORB
CN110942473A (en) Moving target tracking detection method based on characteristic point gridding matching
JP3054682B2 (en) Image processing method
CN109978829B (en) Detection method and system for object to be detected
CN110334560B (en) Two-dimensional code positioning method and device
CN113537158B (en) Image target detection method, device, equipment and storage medium
Sanders et al. Pre-locating corners in images in order to improve the extraction of Fourier descriptors and subsequent recognition of shipbuilding parts
JPH07141504A (en) Image recognition device
US6393151B1 (en) Pattern reading system
CN113963379A (en) Four-finger fingerprint position identification method, device and equipment
JP2619107B2 (en) Image recognition method
JP2925303B2 (en) Image processing method and apparatus
CN118314336B (en) Heterogeneous image target positioning method based on gradient direction
Mahmood et al. Surface Patch Detection of 3D Point Cloud Using Local Shape Descriptor
CN117831082B (en) Palm area detection method and device
JP2009043184A (en) Image processing method and image processor
JP7405528B2 (en) Media discrimination device, medium discrimination system, and medium discrimination method
JP3514085B2 (en) Character string input method and apparatus, and storage medium storing character string input program
CN118447279A (en) SURF-based feature point matching and screening method and device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term