JP5160366B2 - Pattern matching method for electronic parts - Google Patents

Pattern matching method for electronic parts Download PDF

Info

Publication number
JP5160366B2
JP5160366B2 JP2008264146A JP2008264146A JP5160366B2 JP 5160366 B2 JP5160366 B2 JP 5160366B2 JP 2008264146 A JP2008264146 A JP 2008264146A JP 2008264146 A JP2008264146 A JP 2008264146A JP 5160366 B2 JP5160366 B2 JP 5160366B2
Authority
JP
Japan
Prior art keywords
corner
extracted
edge
image
electronic component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008264146A
Other languages
Japanese (ja)
Other versions
JP2010091525A (en
Inventor
良美 堀部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2008264146A priority Critical patent/JP5160366B2/en
Publication of JP2010091525A publication Critical patent/JP2010091525A/en
Application granted granted Critical
Publication of JP5160366B2 publication Critical patent/JP5160366B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Description

本発明は、電子部品のパターンマッチング方法、特に矩形の電子部品等の複数のコーナを有する電子部品を画像認識により位置決めや方向判別を行なう際に適用して好適な電子部品のパターンマッチング方法に関する。   The present invention relates to an electronic component pattern matching method, and more particularly to an electronic component pattern matching method that is suitable for use in positioning and direction determination by image recognition of an electronic component having a plurality of corners such as a rectangular electronic component.

一般に、電子部品を基板上に搭載する表面実装装置では、XY移動する搭載ヘッドに装着されている吸着ノズルにより吸着保持した対象の電子部品を、下方の部品認識カメラにより撮像し、得られた対象画像を画像処理してXY方向及びノズルを中心とする回転方向の位置ずれを画像認識により補正する位置合わせを行ない、基板上の目標位置へ正確に搭載することが行なわれている。   In general, in a surface mounting apparatus that mounts electronic components on a substrate, the target electronic component picked up and held by a suction nozzle mounted on an XY moving mounting head is imaged by a lower component recognition camera, and the obtained target Image processing is performed, and alignment is performed by correcting the positional deviation in the XY direction and the rotation direction about the nozzle by image recognition, and the image is accurately mounted on the target position on the substrate.

このような画像認識(画像処理)による位置合わせ(位置認識)技術としては、テンプレートマッチングがある。このテンプレートマッチングにおいては、対象となる全画素のデータについて一致度を評価するためのマッチング演算を行なうと、演算量が膨大になるため、対象とする画素を何らかの条件で絞り込む等によって演算の高速化を図る手法が従来から採用されている。   As an alignment (position recognition) technique based on such image recognition (image processing), there is template matching. In this template matching, if the matching calculation for evaluating the degree of coincidence is performed on the data of all the target pixels, the calculation amount becomes enormous. Therefore, the calculation speed is increased by narrowing down the target pixels under some conditions. Conventionally, a method for achieving this has been adopted.

例えば、特許文献1には、エッジ強度が強いものを選択する方法として、ソーベル等のエッジ検出フィルタを使用してエッジ強さを求めると共に、その値にしきい値を設定して間引くことにより、対象となる画素を絞り込む技術が開示されている。   For example, in Patent Document 1, as a method of selecting a strong edge strength, an edge detection filter such as a Sobel is used to obtain the edge strength, and a threshold value is set for the value to thin out the target. A technique for narrowing down the pixels to be is disclosed.

又、特許文献2には、抽出されるエッジ点列の曲率の大きい部分は密に、曲率の小さい部分は粗にするという方法や、基準画像上での空間分布やエッジの方向性がある程度一様になるように間引く等の方法に関する技術が開示されている。   Patent Document 2 discloses a method in which a portion with a large curvature of an extracted edge point sequence is dense and a portion with a small curvature is rough, and the spatial distribution on the reference image and the directionality of the edge are somewhat uniform. Techniques relating to methods such as thinning out so as to be similar are disclosed.

特許第2689688号公報Japanese Patent No. 2,689,688 特許第2981382号公報Japanese Patent No. 2981382

しかしながら、前記特許文献1に開示されているように、単純にエッジ強さによって間引き処理を行なう方法では、エッジを局所的に検出する場合に、特徴的な形状部分のエッジを取りこぼしてしまうことがある。   However, as disclosed in Patent Document 1, in the method of simply performing the thinning process based on the edge strength, the edge of the characteristic shape portion may be missed when the edge is detected locally. is there.

又、前記特許文献1は照度等の照明条件の変化を考慮していないので、同じ部品を対象としているにも拘わらず同一のエッジを検出できないことがあるため、エッジ検出精度の安定性に欠けることになる、等の理由からパターンマッチングの精度が低下するという問題があった。   In addition, since Patent Document 1 does not consider the change in illumination conditions such as illuminance, the same edge may not be detected even though the same part is targeted, so that the edge detection accuracy is not stable. For this reason, there is a problem that the accuracy of pattern matching is lowered.

これに対しては、エッジを等間隔に間引く方法で対応することも考えられるが、この場合には画像全体から満遍なくエッジ点を検出することになるため、間引く間隔が広いと、やはり特徴的な形状部分のエッジは欠落し、マッチング精度が上がらないことになる。かといって、特徴的な形状部分のエッジを抽出しようとして、間引く間隔を狭くしたのでは、間引き処理による高速化を十分に機能できないことになる。   It is conceivable to deal with this by thinning out the edges at equal intervals. In this case, however, edge points are detected uniformly from the entire image. The edge of the shape portion is lost, and matching accuracy does not increase. However, if the thinning interval is narrowed in order to extract the edge of the characteristic shape portion, the speeding up by the thinning process cannot sufficiently function.

又、前記特許文献2に開示されている、エッジ点列を曲率の大きい部分は密に、曲率の小さい部分は粗にするという方法で、特に類似度の評価に濃度勾配ベクトルを使う場合には、曲率の大きい部分のエッジ点列ではベクトル方向精度がよくないので、このような箇所での一致度の精度はむしろ不安定になるために適していない。   In addition, the edge point sequence disclosed in Patent Document 2 is a method in which a portion with a large curvature is dense and a portion with a small curvature is rough, especially when a density gradient vector is used for evaluation of similarity. The edge point sequence in the portion with a large curvature is not suitable because the accuracy of the vector direction is not good because the accuracy of the vector direction is not good.

ここに、曲率の大きい部分と直線部分における濃度勾配ベクトルの違いについて、図8を参照して具体的に説明する。   Here, the difference in density gradient vector between the portion with a large curvature and the straight portion will be specifically described with reference to FIG.

図8(A)は、矩形部品を撮像して得られたコーナ周辺の拡大図であり、同図(B)は同一部分を撮像した画像で、同図(A)に比べコントラストが悪い場合の例である。この図8には、黒から白の領域に向かって画素濃度が変化している多値画像のイメージが示されている。   FIG. 8A is an enlarged view of the periphery of a corner obtained by imaging a rectangular part, and FIG. 8B is an image of the same part, where the contrast is lower than that of FIG. It is an example. FIG. 8 shows an image of a multi-value image in which the pixel density changes from black to white.

図8(A)、(B)のどちらの場合も、矢印で示される濃度勾配ベクトルの方向は直線部分のエッジでは安定して同じ向きになっている。しかし、曲率の大きいコーナ部分のエッジでは、コントラストの違いによる周辺の濃度値の変化に伴って勾配ベクトルの方向が変化してしまい、不安定であることがわかる。   In both cases of FIGS. 8A and 8B, the direction of the density gradient vector indicated by the arrow is stably in the same direction at the edge of the straight line portion. However, it can be seen that the edge of the corner portion having a large curvature is unstable because the direction of the gradient vector changes with the change in the surrounding density value due to the difference in contrast.

本発明は、前記従来の問題点を解決するべくなされたもので、矩形形状等の複数のコーナを有する電子部品を撮像して得られる対象画像に基づいて、電子部品の位置認識を行なうパターンマッチングを高速且つ高精度で行なうことができる電子部品のパターンマッチング方法を提供することを課題とする。   The present invention has been made to solve the above-described conventional problems, and performs pattern matching for recognizing the position of an electronic component based on a target image obtained by imaging an electronic component having a plurality of corners such as a rectangular shape. It is an object of the present invention to provide a pattern matching method for an electronic component that can be performed at high speed and with high accuracy.

本発明は、複数のコーナを有する電子部品を撮像して基準画像を取得し、取得された基準画像から各コーナを抽出し、抽出された各コーナを基準に設定された所定の抽出領域からエッジを抽出し、抽出されたエッジから、コーナ近傍を除く直線状エッジのみを選択し、選択された直線状エッジをテンプレートデータとして保存すると共に、対象とする同種の電子部品を撮像して対象画像を取得し、取得された対象画像から各コーナを抽出し、抽出された各コーナを基準に設定された所定の抽出領域からエッジを抽出し、抽出されたエッジから、コーナ近傍を除く直線状エッジのみを選択し、選択された直線状エッジと、前記テンプレートデータとに基づいて、対象とする電子部品を照合するパターンマッチングを行なうことにより、前記課題を解決したものである。   The present invention captures an electronic component having a plurality of corners to acquire a reference image, extracts each corner from the acquired reference image, and edge from a predetermined extraction region set based on each extracted corner From the extracted edges, only the straight edges excluding the corner vicinity are selected, the selected straight edges are saved as template data, and the target image is captured by capturing the same type of electronic components. Acquire and extract each corner from the acquired target image, extract an edge from a predetermined extraction area set based on each extracted corner, and from the extracted edge, only the linear edge excluding the corner vicinity And performing the pattern matching for matching the target electronic component based on the selected linear edge and the template data, Resolve those were.

本発明においては、前記直線状エッジの選択を、前記コーナを基準に設定された所定の抽出領域から抽出されたエッジの任意の点について、任意の距離を離れた前後2点の接線角度の差に基づいて判定して行なうようにしてもよい。   In the present invention, the selection of the straight edge is performed by using a difference between tangent angles of two points before and after an arbitrary distance with respect to an arbitrary point of an edge extracted from a predetermined extraction region set with reference to the corner. The determination may be made based on the above.

本発明においては、又、前記対象画像から抽出された前記直線状エッジとテンプレートデータとの一致度を、各エッジ点における濃度勾配ベクトルに基づいて評価するようにしてもよい。   In the present invention, the degree of coincidence between the linear edge extracted from the target image and the template data may be evaluated based on a density gradient vector at each edge point.

本発明においては、又、前記対象部品の粗い位置決めを、対象画像から抽出されるコーナ座標と基準画像から抽出されているコーナ座標とに基づいて行ない、前記対象部品の高精度な位置決めを、前記直線状エッジについて算出される濃度勾配ベクトルに基づいて行なうようにしてもよい。   In the present invention, the rough positioning of the target part is performed based on the corner coordinates extracted from the target image and the corner coordinates extracted from the reference image, and the target part is positioned with high accuracy. You may make it perform based on the density | concentration gradient vector calculated about a linear edge.

本発明によれば、矩形形状等の複数のコーナ部を有する電子部品を撮像して得られる対象画像から、コーナ近傍の直線状のエッジのみを抽出し、該エッジについてテンプレートデータと比較するようにしたので、高速且つ高精度でパターンマッチングを行なうことができる。   According to the present invention, only a straight edge in the vicinity of a corner is extracted from a target image obtained by imaging an electronic component having a plurality of corner portions such as a rectangular shape, and the edge is compared with template data. Therefore, pattern matching can be performed at high speed and with high accuracy.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る一実施形態のパターンマッチング方法を実施する際に適用される画像認識システムの概要を示すブロック図である。   FIG. 1 is a block diagram showing an outline of an image recognition system applied when a pattern matching method according to an embodiment of the present invention is performed.

このシステムは、電子部品を吸着し保持するための吸着ノズル1と、該吸着ノズル1により保持した電子部品2を照明装置3による照明下で撮像するための標準カメラ4及び高解像度カメラ5と、撮像位置にセットされた電子部品を撮像して得られた画像を処理して画像内の任意位置に存在する対象物の位置検出や形状判別を行なう画像処理装置13と、該画像処理装置13と共に吸着ノズル1や照明装置3等の動作を制御するマシン制御装置14とによって構成されている。   This system includes a suction nozzle 1 for sucking and holding electronic components, a standard camera 4 and a high-resolution camera 5 for imaging an electronic component 2 held by the suction nozzle 1 under illumination by a lighting device 3, An image processing device 13 that processes an image obtained by imaging an electronic component set at an imaging position to detect the position and shape of an object existing at an arbitrary position in the image, and together with the image processing device 13 It is comprised by the machine control apparatus 14 which controls operation | movement of the suction nozzle 1, the illuminating device 3, etc. FIG.

前記画像処理装置13は、指定されたカメラ4もしくは5を制御し、電子部品2の画像を撮像し、その画像信号をA/Dコンバータ6でデジタル化し、画像メモリ7に多値画像データとして記憶させる。   The image processing device 13 controls the designated camera 4 or 5, takes an image of the electronic component 2, digitizes the image signal by the A / D converter 6, and stores it in the image memory 7 as multivalued image data. Let

又、前記画像処理装置13は、画像メモリ7のデータに対して、演算部9で各種処理を行ない、電子部品2の位置決めや形状判別のためのテンプレートデータを作成すると共にテンプレートデータ格納メモリ10に保存する。途中、生成される処理データは、作業用メモリ8に記憶される。これら演算部9や各メモリ8、10に対する動作は制御部11が制御する。   Further, the image processing device 13 performs various processes on the data in the image memory 7 by the calculation unit 9 to create template data for positioning and shape discrimination of the electronic component 2 and in the template data storage memory 10. save. The process data generated during the process is stored in the work memory 8. The control unit 11 controls operations on the arithmetic unit 9 and the memories 8 and 10.

前記マシン制御装置14は、インタフェース12を介して、通常電子部品の電極サイズ等によって、撮像に使用するカメラ4もしくは5のいずれかを選択し、電子部品2を吸着ノズル1で吸着保持し、選択したカメラの撮像位置にセットする。更に、選択したカメラで撮像するように照明装置3を移動して点灯させ、画像処理装置13にインタフェイス12を介して、選択したカメラチャンネル情報と共に処理の実行を指示する。   The machine control device 14 selects either the camera 4 or 5 to be used for imaging according to the electrode size or the like of the normal electronic component via the interface 12 and holds the electronic component 2 by suction suction 1 and selects it. Set to the imaging position of the selected camera. Further, the illumination device 3 is moved and lit so that an image is picked up by the selected camera, and the image processing device 13 is instructed to execute processing together with the selected camera channel information via the interface 12.

次に、図2のフローチャートに従って、部品の位置認識をパターンマッチングで行なう際の基準とするテンプレートデータの作成について説明する。なお、各ステップの詳細については後述する。   Next, referring to the flowchart of FIG. 2, description will be given of the creation of template data as a reference when performing component position recognition by pattern matching. Details of each step will be described later.

まず、基準となる矩形形状の電子部品を所定のカメラ位置に設定して撮像することにより、基準画像を撮像(取得)し、画像メモリ7に記憶する(ステップ1)。次いで、該基準画像に対してコーナ抽出処理を行ない、コーナ抽出データを作業用メモリ8に格納する(ステップ2)。   First, a reference rectangular image is set (captured) at a predetermined camera position, and a reference image is captured (acquired) and stored in the image memory 7 (step 1). Next, corner extraction processing is performed on the reference image, and the corner extraction data is stored in the work memory 8 (step 2).

次に、抽出された任意のコーナを中心とする一定領域にのみエッジ抽出処理を行ない、得られたエッジ抽出データを作業用メモリ8に格納する(ステップ3、4)。このステップ3、4のエッジ抽出処理を検出(抽出)されたコーナの数だけ繰り返し行なう。抽出されたコーナ周辺(近傍)を除くエッジを選択し、選択された各所定領域のエッジ点列からなる直線上エッジをテンプレートデータとして、テンプレートデータ格納メモリ10に格納し(ステップ6)、データ作成を終了する。   Next, edge extraction processing is performed only on a certain area centered on the extracted arbitrary corner, and the obtained edge extraction data is stored in the work memory 8 (steps 3 and 4). The edge extraction process in steps 3 and 4 is repeated for the number of detected corners. Edges other than the extracted corner periphery (neighborhood) are selected, and the straight edge formed by the edge point sequence of each selected predetermined area is stored as template data in the template data storage memory 10 (step 6), and data is created. Exit.

次に、以上の図2のフローチャートに沿って行なうテンプレートデータの作成に際して、前記画像処理装置13で実行する個々の処理内容について詳細に説明する。   Next, details of individual processing executed by the image processing apparatus 13 when creating template data according to the flowchart of FIG. 2 will be described.

ステップ1:基準画像撮像
画像処理装置13は、指定された標準カメラ4もしくは高解像度カメラ5を制御し、電子部品2の画像を撮像、A/Dコンバータ6でデジタル化し、画像メモリ7に多値画像データとして記憶させる。
Step 1: Reference Image Capture The image processing device 13 controls the designated standard camera 4 or high-resolution camera 5, captures an image of the electronic component 2, digitizes it with the A / D converter 6, and stores it in the image memory 7. Store as image data.

ステップ2:コーナ抽出処理
全領域に対してコーナ抽出処理を行なう。
Step 2: Corner extraction processing Corner extraction processing is performed on the entire area.

コーナ抽出はHarrisやSUSANなどのコーナ検出オペレータを用いて行なうことができる。   Corner extraction can be performed using a corner detection operator such as Harris or SUSAN.

コーナは不変の特徴であることから、同じ部品に対して同じオペレータを適用すれば、回転やスケール変動などによる影響を受けることなく、安定して検出できる。   Since the corner is an invariant feature, if the same operator is applied to the same part, it can be detected stably without being affected by rotation or scale fluctuation.

コーナ抽出結果は、座標データとして作業用メモリ8に格納される。   The corner extraction result is stored in the work memory 8 as coordinate data.

ステップ3:エッジ抽出領域設定
検出(抽出)されたコーナ座標を中心とした所定半径の一定領域を、エッジ抽出領域として設定する。
Step 3: Edge extraction area setting A constant area having a predetermined radius centered on the detected (extracted) corner coordinates is set as an edge extraction area.

このように所定半径のエッジ抽出領域を設定し、局所的にエッジ抽出処理を行なうことで、エッジ抽出にかかる時間を短縮することが出来る。   Thus, by setting an edge extraction region having a predetermined radius and performing edge extraction processing locally, the time required for edge extraction can be shortened.

また、コーナを基準としてエッジ抽出領域を設定するため、照明条件の変化による影響を受けず、安定してエッジを抽出することが出来る。即ち、不変の特徴であるコーナを基準としてエッジを抽出することで、エッジ強さによる間引き処理が不要となるため、照明条件の変化による影響を受けず、安定してエッジを抽出することが出来る。   In addition, since the edge extraction region is set based on the corner, the edge can be stably extracted without being affected by the change in the illumination condition. That is, by extracting edges based on corners that are invariant features, thinning processing based on edge strength is not required, so that edges can be stably extracted without being affected by changes in illumination conditions. .

領域の大きさ(所定半径)はユーザが指定しても良いし、部品ごとに外形サイズやコーナの曲率などから算出して設定するようにしても良い。   The size of the area (predetermined radius) may be specified by the user, or may be calculated and set for each part from the outer size, the corner curvature, and the like.

ステップ4:エッジ抽出処理
ステップ3で指定(設定)した領域に対して、エッジ抽出処理を行なう。
Step 4: Edge extraction processing Edge extraction processing is performed on the area specified (set) in Step 3.

エッジ抽出はソーベルなどのエッジ検出フィルタを用いて行なうことができる。   Edge extraction can be performed using an edge detection filter such as a Sobel.

エッジ抽出結果は、2次元の2値データとして、作業用メモリ8に格納される。   The edge extraction result is stored in the work memory 8 as two-dimensional binary data.

以上の領域指定(ステップ3)とエッジ抽出処理(ステップ4)を検出されたコーナ数だけ繰り返し行なう。   The region designation (step 3) and edge extraction processing (step 4) are repeated for the number of detected corners.

ステップ5:エッジ選択処理
図3に、基準画像Gについてコーナ部のイメージを拡大して示す。
Step 5: Edge Selection Processing FIG. 3 shows an enlarged view of the corner portion of the reference image G.

検出コーナCを含む直近周辺(コーナ近傍)のエッジ(小円A内)を除く、前記所定半径に相当する一定領域内(大円B内)のエッジEを選択する。   An edge E within a certain region (in the great circle B) corresponding to the predetermined radius is selected except for the edge (in the small circle A) in the immediate vicinity (in the vicinity of the corner) including the detection corner C.

コーナ直近周辺とそれより外側の安定した領域とを区別するには、例えば図4に示すように、輪郭線(エッジ点列)上の任意の点について、任意の距離離れた前後2点においてそれぞれ接線を求めたときの両接線の角度の差が、設定した閾値以内の場合は、直線上の点であると判断し、閾値を超えている場合は、曲線上の点であると判断して、輪郭線を直線部分とコーナのR部分とを明確に分離することにより、直線上の点を安定した領域内の直線状エッジと判定する方法を利用できる。因みに、図4(A)は接線角度の差が閾値を超えている場合、同図(B)は閾値以内の場合のイメージをそれぞれ示す。   In order to distinguish between the immediate vicinity of the corner and the stable area outside the corner, for example, as shown in FIG. 4, for any point on the contour line (edge point sequence), at two points before and after an arbitrary distance, respectively. If the angle difference between the two tangents when calculating the tangent is within the set threshold, it is determined as a point on the straight line, and if it exceeds the threshold, it is determined as a point on the curve. A method of determining a point on a straight line as a straight edge in a stable region can be used by clearly separating the straight line part from the R part of the corner. Incidentally, FIG. 4A shows an image when the difference in the tangent angle exceeds the threshold, and FIG. 4B shows an image when the difference is within the threshold.

ステップ6:テンプレートデータ
図5にテンプレートデータの構成例を示す。
Step 6: Template Data FIG. 5 shows a configuration example of template data.

テンプレートデータを構成する濃度勾配ベクトルは、安定した領域から選択される直線部分のエッジ点列について算出される。なお、この濃度勾配ベクトルは、前記特許文献2と同様の方法で求めることができる。   The density gradient vector constituting the template data is calculated for the edge point sequence of the straight line portion selected from the stable region. The concentration gradient vector can be obtained by the same method as in Patent Document 2.

このテンプレートデータは、テンプレートデータ格納メモリ10に作成、格納しておく。   This template data is created and stored in the template data storage memory 10.

前記マシン制御装置14は、インタフェース12を介し、テンプレートデータの読み出し、書き込みを制御することが可能である。   The machine control device 14 can control reading and writing of template data via the interface 12.

以上の各ステップの処理により、基準画像からエッジ抽出する際に特徴的な形状部分の欠落を防ぐことができる。   Through the processing of each of the above steps, it is possible to prevent missing characteristic shape parts when extracting edges from the reference image.

基準画像に撮像された、4つのコーナを有する矩形部品について検出(抽出)されるエッジの一例のイメージを図6に示す。各コーナ毎に2本、計8本の太い線分が直線状エッジEを表わしている。   FIG. 6 shows an image of an example of an edge detected (extracted) for a rectangular part having four corners captured in the reference image. A total of eight thick line segments for each corner represent a straight edge E.

以上のテンプレートデータ作成後、対象部品に対するパターンマッチングによる位置決めについて、図7のフローチャートに従って説明する。   After the above template data is created, positioning by pattern matching for the target part will be described with reference to the flowchart of FIG.

対象とする同種の電子部品を同様に所定のカメラ位置にセットし、対象画像を撮像し、画像メモリに記憶し(ステップ101)、該対象画像に対して、前記基準画像の場合と同様にコーナ抽出処理を行ない、コーナ抽出データを作業用メモリ8に格納する(ステップ102)。   Similarly, the same type of electronic component as a target is set at a predetermined camera position, a target image is captured and stored in an image memory (step 101), and a corner is applied to the target image as in the case of the reference image. Extraction processing is performed, and the corner extraction data is stored in the work memory 8 (step 102).

基準画像から抽出されたコーナと、対象画像から抽出されたコーナとを照合する、粗サーチを行ない、大まかな位置決めを行なう(ステップ111)。   A rough search is performed by comparing the corner extracted from the reference image with the corner extracted from the target image, and rough positioning is performed (step 111).

次いで、前記ステップ3、4と同様に、コーナを中心とする一定領域内にのみエッジ抽出処理を行ない、エッジ抽出データを作業用メモリ8に格納する(ステップ103、104)。このステップ103、104のエッジ抽出処理を、検出されたコーナ数だけ繰り返し行なう。   Next, as in steps 3 and 4, edge extraction processing is performed only within a certain area centered on the corner, and the edge extraction data is stored in the work memory 8 (steps 103 and 104). The edge extraction processing in steps 103 and 104 is repeated for the number of detected corners.

次いで、各コーナについて抽出されたコーナ周辺を除くエッジを選択し(ステップ105)、前記格納メモリ10から読み出したテンプレートデータと対象画像から選択されたエッジとの濃度勾配ベクトル方向の一致度の演算を行ない、一致度が最大となる位置をマッチング結果とする(ステップ112)。   Next, an edge excluding the corner periphery extracted for each corner is selected (step 105), and the degree of coincidence in the density gradient vector direction between the template data read from the storage memory 10 and the edge selected from the target image is calculated. The position where the degree of coincidence is maximum is set as the matching result (step 112).

次に、以上の図7のフローチャートに沿って行なう位置決めに際して、前記画像処理装置13で実行する個々の処理内容について詳細に説明する。   Next, details of individual processing executed by the image processing apparatus 13 when positioning is performed according to the flowchart of FIG. 7 will be described in detail.

ステップ101:基準画像撮像と、ステップ102:コーナ抽出処理は、撮像する対象が同種の電子部品に、基準画像が対象画像に代るだけで、処理内容は前記ステップ1、ステップ2と実質的に同一であるので説明は省略する。   Step 101: Reference image capturing and Step 102: Corner extraction processing are substantially the same as those in Steps 1 and 2, except that the object to be imaged is the same type of electronic component and the reference image is replaced with the target image. Since it is the same, description is abbreviate | omitted.

ステップ111:粗サーチ
Geometric Hashingなどの手法により、基準画像から抽出されたコーナ位置と、対象画像から抽出されたコーナ位置の相対的な位置関係から大まかな位置決めを行なう。このとき使用するのは、コーナの座標情報のみであり、勾配ベクトルは用いない。コーナは対応付けしやすいため、コーナの座標情報を用いることにより粗サーチを高速に行なうことが可能である。
Step 111: Coarse search Rough positioning is performed based on the relative positional relationship between the corner position extracted from the reference image and the corner position extracted from the target image by a technique such as Geometric Hashing. At this time, only corner coordinate information is used, and no gradient vector is used. Since corners are easily associated with each other, coarse search can be performed at high speed by using the coordinate information of the corners.

ステップ103:エッジ抽出領域設定と、ステップ104:エッジ抽出処理と、ステップ105:エッジ選択処理も、前記ステップ3、ステップ4、ステップ5と実質的に同一なので、説明を省略する。   Since Step 103: Edge extraction region setting, Step 104: Edge extraction processing, and Step 105: Edge selection processing are substantially the same as Step 3, Step 4, and Step 5, description thereof will be omitted.

ステップ112:精サーチ
テンプレートデータをアフィン変換(スケール変動、回転、平行移動)させ、対象画像の濃度勾配ベクトルデータに重ね合わせる。
Step 112: Fine search The template data is affine transformed (scale fluctuation, rotation, translation) and superimposed on the density gradient vector data of the target image.

本実施形態においては、前記図8にイメージを示したような、濃度勾配ベクトルの安定している、コーナを除く直線状のエッジ点のみを抽出して特徴点とすることにより、高精度なマッチングを実現することが可能となる。さらに、コーナ付近のみの限られた範囲のエッジを特徴点とすることで、精サーチを高速に行なうことが可能となる。   In the present embodiment, as shown in the image in FIG. 8 above, by extracting only the linear edge points excluding the corners where the density gradient vector is stable, high-precision matching is performed. Can be realized. Furthermore, by using a limited range of edges only near the corner as a feature point, it is possible to perform a fine search at high speed.

以上詳述した本実施形態によれば、以下の効果が得られる。   According to the embodiment described above in detail, the following effects can be obtained.

(1)限られた範囲のエッジデータを利用するようにしたため、従来のように間引く必要がなくなり、従って間引きによる特徴的な形状部分の欠落を防ぐことができる。 (1) Since edge data in a limited range is used, there is no need for thinning out as in the prior art, and therefore it is possible to prevent missing characteristic shape portions due to thinning out.

(2)コーナを基準として所定領域のエッジを抽出するため、照明条件に関わらず安定して特徴点を得ることができる。 (2) Since the edge of the predetermined area is extracted with the corner as a reference, the feature point can be stably obtained regardless of the illumination condition.

(3)コーナを基準としてエッジを抽出することから、回転やスケール変動等、対象画像が変化しても安定して特徴点を得ることができる。 (3) Since the edge is extracted with reference to the corner, the feature point can be stably obtained even if the target image is changed, such as rotation or scale fluctuation.

(4)濃度勾配ベクトルの方向変化が少ない直線部分のエッジ点を特徴点とすることにより、安定した一致度を得ることができ、位置決め結果の繰り返し精度を向上することができる。 (4) By using the edge point of the straight line portion where the change in the direction of the density gradient vector is small as the feature point, it is possible to obtain a stable degree of coincidence and improve the repeatability of the positioning result.

(5)特徴点を限られた範囲に絞り込むことにより、位置決め処理の高速化を図ることができる。 (5) By narrowing the feature points to a limited range, it is possible to speed up the positioning process.

(6)エッジ抽出領域を絞り込むことにより、特徴点抽出処理の高速化を図ることができる。 (6) The feature point extraction process can be speeded up by narrowing down the edge extraction region.

(7)コーナ座標を用いることにより、大まかな位置合わせをする粗サーチの高速化を図ることができる。 (7) By using the corner coordinates, it is possible to increase the speed of the coarse search for rough alignment.

なお、前記実施形態では、複数のコーナを有する部品として矩形形状の電子部品を採り上げたが、これに限定されず、コーナの位置関係が特定できればよいので、2以上のコーナを有する電子部品であればよい。   In the above embodiment, a rectangular electronic component is taken as a component having a plurality of corners. However, the present invention is not limited to this, and any electronic component having two or more corners may be used as long as the positional relationship of the corners can be specified. That's fine.

本発明のパターンマッチングに適用される画像認識システムの概要を示すブロック図The block diagram which shows the outline | summary of the image recognition system applied to the pattern matching of this invention テンプレートデータの作成手順を示すフローチャートFlow chart showing the procedure for creating template data 抽出されたコーナ周辺のエッジを示すイメージ図Image diagram showing edges around extracted corners エッジの直線性を判定する方法を示す説明図Explanatory drawing which shows the method of determining the linearity of an edge テンプレートデータのデータ構造の一例を示す図表Chart showing an example of the data structure of template data 検出されたエッジデータを示すイメージ図Image diagram showing detected edge data 本実施形態による位置決めの処理手順を示すフローチャートThe flowchart which shows the processing procedure of the positioning by this embodiment 撮像された画像のコーナにおける濃度勾配ベクトルの特徴を示す説明図Explanatory drawing which shows the characteristic of the density gradient vector in the corner of the imaged image

符号の説明Explanation of symbols

1…吸着ノズル
2…電子部品
3…照明装置
4…標準カメラ
5…高解像度カメラ
6…A/Dコンバータ
7…画像メモリ
8…作業用メモリ
9…演算部
10…テンプレートデータ格納メモリ
11…制御部
12…インタフェース
13…画像処理装置
14…マシン制御装置
DESCRIPTION OF SYMBOLS 1 ... Suction nozzle 2 ... Electronic component 3 ... Illuminating device 4 ... Standard camera 5 ... High resolution camera 6 ... A / D converter 7 ... Image memory 8 ... Working memory 9 ... Calculation part 10 ... Template data storage memory 11 ... Control part DESCRIPTION OF SYMBOLS 12 ... Interface 13 ... Image processing apparatus 14 ... Machine control apparatus

Claims (4)

複数のコーナを有する電子部品を撮像して基準画像を取得し、
取得された基準画像から各コーナを抽出し、
抽出された各コーナを基準に設定された所定の抽出領域からエッジを抽出し、
抽出されたエッジから、コーナ近傍を除く直線状エッジのみを選択し、
選択された直線状エッジをテンプレートデータとして保存すると共に、
対象とする同種の電子部品を撮像して対象画像を取得し、
取得された対象画像から各コーナを抽出し、
抽出された各コーナを基準に設定された所定の抽出領域からエッジを抽出し、
抽出されたエッジから、コーナ近傍を除く直線状エッジのみを選択し、
選択された直線状エッジと、前記テンプレートデータとに基づいて、対象とする電子部品を照合するパターンマッチングを行なうことを特徴とする電子部品のパターンマッチング方法。
Capture an electronic component having multiple corners to obtain a reference image,
Extract each corner from the acquired reference image,
Edges are extracted from a predetermined extraction area set based on each extracted corner,
From the extracted edges, select only the straight edges excluding the corner neighborhood,
While saving the selected straight edge as template data,
Capture the same type of electronic components to obtain the target image,
Extract each corner from the acquired target image,
Edges are extracted from a predetermined extraction area set based on each extracted corner,
From the extracted edges, select only the straight edges excluding the corner neighborhood,
A pattern matching method for an electronic component, which performs pattern matching for collating a target electronic component based on the selected linear edge and the template data.
前記直線状エッジの選択を、前記コーナを基準に設定された所定の抽出領域から抽出されたエッジの任意の点について、任意の距離離れた前後2点の接線角度の差に基づいて判定して行うことを特徴とする請求項1に記載の電子部品のパターンマッチング方法。   The selection of the linear edge is determined based on the difference between the tangent angles of two points before and after an arbitrary distance with respect to an arbitrary point of an edge extracted from a predetermined extraction region set with reference to the corner. The pattern matching method for an electronic component according to claim 1, wherein the pattern matching method is performed. 前記対象画像から抽出された前記直線状エッジとテンプレートデータとの一致度を、各エッジ点における濃度勾配ベクトルに基づいて評価することを特徴とする請求項1に記載の電子部品のパターンマッチング方法。   2. The electronic component pattern matching method according to claim 1, wherein the degree of coincidence between the linear edge extracted from the target image and template data is evaluated based on a density gradient vector at each edge point. 前記対象部品の粗い位置決めを、対象画像から抽出されるコーナ座標と基準画像から抽出されているコーナ座標とに基づいて行ない、
前記対象部品の高精度な位置決めを、前記直線状エッジについて算出される濃度勾配ベクトルに基づいて行なうことを特徴とする請求項3に記載の電子部品のパターンマッチング方法。
Coarse positioning of the target part is performed based on corner coordinates extracted from the target image and corner coordinates extracted from the reference image;
The electronic component pattern matching method according to claim 3, wherein the target component is positioned with high accuracy based on a density gradient vector calculated for the linear edge.
JP2008264146A 2008-10-10 2008-10-10 Pattern matching method for electronic parts Active JP5160366B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008264146A JP5160366B2 (en) 2008-10-10 2008-10-10 Pattern matching method for electronic parts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008264146A JP5160366B2 (en) 2008-10-10 2008-10-10 Pattern matching method for electronic parts

Publications (2)

Publication Number Publication Date
JP2010091525A JP2010091525A (en) 2010-04-22
JP5160366B2 true JP5160366B2 (en) 2013-03-13

Family

ID=42254372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008264146A Active JP5160366B2 (en) 2008-10-10 2008-10-10 Pattern matching method for electronic parts

Country Status (1)

Country Link
JP (1) JP5160366B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5563390B2 (en) * 2010-06-30 2014-07-30 キヤノン株式会社 Image processing apparatus, control method therefor, and program
JP5689629B2 (en) * 2010-08-30 2015-03-25 Juki株式会社 Image processing device
JP5759133B2 (en) * 2010-09-24 2015-08-05 Juki株式会社 Shape-based matching parameter adjustment device and component mounting device
US9135519B2 (en) 2013-07-10 2015-09-15 Canon Kabushiki Kaisha Pattern matching method and pattern matching apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2981382B2 (en) * 1993-11-25 1999-11-22 松下電工株式会社 Pattern matching method
JP4707249B2 (en) * 2001-03-28 2011-06-22 Juki株式会社 Component position detection method and apparatus
JP4090895B2 (en) * 2003-01-16 2008-05-28 Juki株式会社 Component positioning method and apparatus
JP4230980B2 (en) * 2004-10-21 2009-02-25 株式会社東芝 Pattern matching method and program
JP2006234793A (en) * 2005-01-28 2006-09-07 Juki Corp Part position detecting method and device
JP4927427B2 (en) * 2006-03-28 2012-05-09 日本板硝子株式会社 Outline defect detection method and program
JP4791919B2 (en) * 2006-09-14 2011-10-12 ダイハツ工業株式会社 Image processing device

Also Published As

Publication number Publication date
JP2010091525A (en) 2010-04-22

Similar Documents

Publication Publication Date Title
JP5699788B2 (en) Screen area detection method and system
KR100823549B1 (en) Recognition method of welding line position in shipbuilding subassembly stage
JP5468332B2 (en) Image feature point extraction method
CN106469455B (en) Image processing method, image processing apparatus, and recording medium
CN110926330A (en) Image processing apparatus, image processing method, and program
JPWO2015008732A1 (en) Optical character recognition device
JP2009134587A (en) Image processing device
JP6659098B2 (en) Image processing method, image processing apparatus, program, and recording medium
CN114549400A (en) Image identification method and device
JP5160366B2 (en) Pattern matching method for electronic parts
WO2018061997A1 (en) Medium recognition device and medium recognition method
CN111199533B (en) Image processing apparatus and method
CN118135179A (en) Cascade identification method and device for cutting plate, computer equipment and storage medium
CN109741302B (en) SD card form recognition system and method based on machine vision
CN115511966B (en) Element identification positioning method and system based on corner detection and storage medium
CN114049380B (en) Target object positioning and tracking method, device, computer equipment and storage medium
JP5280337B2 (en) Character recognition method and character recognition device
JP3867410B2 (en) Three-dimensional visual positioning method and apparatus
JP4566686B2 (en) Method and apparatus for determining shape of object
JP2023535005A (en) Method and system or apparatus for recognizing objects in electronic images
JP2010243209A (en) Defect inspection method and defect detection device
JP2004192506A (en) Pattern matching device, pattern matching method, and program
JP2008181261A (en) Method and device for extracting contour line of object
CN111209835B (en) Improved SURF mobile robot image matching method
CN110769221B (en) Method for detecting corner of projected image in photographed image and projector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111005

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121212

R150 Certificate of patent or registration of utility model

Ref document number: 5160366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3