JPH11183136A - Sectional and 3-dimensional shape measuring device - Google Patents

Sectional and 3-dimensional shape measuring device

Info

Publication number
JPH11183136A
JPH11183136A JP35722197A JP35722197A JPH11183136A JP H11183136 A JPH11183136 A JP H11183136A JP 35722197 A JP35722197 A JP 35722197A JP 35722197 A JP35722197 A JP 35722197A JP H11183136 A JPH11183136 A JP H11183136A
Authority
JP
Japan
Prior art keywords
pattern light
cross
sample
shape
sectional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35722197A
Other languages
Japanese (ja)
Inventor
Toshio Motegi
敏雄 茂出木
Akira Sato
佐藤  明
Akira Takakura
章 高倉
Teruaki Iinuma
輝明 飯沼
Masataka Yamaji
山地  正高
Satoshi Watanabe
智 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP35722197A priority Critical patent/JPH11183136A/en
Publication of JPH11183136A publication Critical patent/JPH11183136A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To measure the sectional shape of an object to be measured such as an etched product in a nondestructive way at high speed by extracting the oblique deformed shape of a plane of pattern light from images obtained by a plurality of image pickup means, subjected it to opposite oblique transformation to calculate the coordinates of the location of the plane of pattern light, processing a plurality of images to synthesize the coordinates of the location of the plane of pattern light. SOLUTION: Grid pattern light 22 and 24 are projected onto a sample 20 from a plurality of directions. Sectional images 26 and 28 are formed on the sample 20, and their images are picked up from a plurality of oblique directions by two cameras 30 and 32 with partially overlapped fields of view. From the images obtained by the cameras 30 and 32, the oblique deformed shape of a plane of pattern light indicated in the image picked up by the camera 30 obliquely above the sample 20 on the left side and the image picked up by the camera 32 obliquely above the sample 20 on the right side is extracted. This is subjected to opposite oblique transformation to be a normal sectional image perpendicular with respect to the axis of the sample 20. After calculating the coordinates of the location of the plane of pattern light, a sectional shape is obtained by synthesizing the coordinates of the edge of the light plane so that images 26A and 28B may be overlaid on each other.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、断面及び3次元形
状測定装置に係り、特に、半導体集積回路が載置される
リードフレームや、シャドウマスク、アパーチャーグリ
ル等のエッチング製品の断面又は3次元形状を測定する
際に用いるのに好適な、断面又は3次元形状計測を、非
破壊で高速に行うことができる断面及び3次元形状測定
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a cross-section and three-dimensional shape measuring apparatus, and more particularly to a cross-section or three-dimensional shape of an etching product such as a lead frame on which a semiconductor integrated circuit is mounted, a shadow mask, an aperture grill, and the like. The present invention relates to a cross-section or three-dimensional shape measuring apparatus suitable for use in measuring a cross section or a three-dimensional shape measuring device capable of non-destructively and rapidly measuring a cross-section or three-dimensional shape.

【0002】[0002]

【従来の技術】エッチングにより製造される、リードフ
レーム、シャドウマスク、アパーチャーグリル等の金属
の微細加工製品、例えばリードフレームのアウターリー
ドのエッチング断面形状は、図17に示す如く、化学的
腐食過程のため、所望の矩形状パターンからずれてしま
う。図17において、10は、スプレーノズル12から
吹き付けられるエッチング液によって形成されるアウタ
ーリード、14は、エッチング時に該アウターリードを
残すためのレジストである。
2. Description of the Related Art As shown in FIG. 17, the etched cross-sectional shape of a metal microfabricated product such as a lead frame, a shadow mask, an aperture grill, etc. manufactured by etching, for example, the outer lead of a lead frame, is as shown in FIG. Therefore, it deviates from a desired rectangular pattern. In FIG. 17, reference numeral 10 denotes an outer lead formed by an etchant sprayed from the spray nozzle 12, and reference numeral 14 denotes a resist for leaving the outer lead during etching.

【0003】従って、予め所望パターンからのずれを予
測して、補正をかけたパターンでレジスト14を形成す
る必要がある。
Therefore, it is necessary to predict a deviation from a desired pattern in advance and form the resist 14 with a corrected pattern.

【0004】そのために、アウターリード10の実際の
形状を正確に知る必要があり、従来は、樹脂でサンプル
を固めたものを、研磨機で削っていき、求める部位の断
面を出して、走査型電子顕微鏡により拡大写真を撮り、
測定を行っていた。
For this purpose, it is necessary to accurately know the actual shape of the outer lead 10. Conventionally, a sample obtained by solidifying a sample with a resin is ground by a polishing machine, and a cross section of a desired portion is taken out to obtain a scanning type. Take an enlarged photo with an electron microscope,
The measurement was taking place.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、破壊検
査であるため、計測する際には、サンプルを破壊しなけ
ればならないだけでなく、計測に非常に手間がかかる。
更に、切断後の研磨機による面出しでは、測定したい部
位の面を正確に出すことが困難である。又、走査型電子
顕微鏡の写真は、定性的な観察にはよいが、定量的な計
測にはそのまま用いることは困難であり、測定用の図面
をトレースする必要が生じる等の問題点を有していた。
However, since it is a destructive inspection, when measuring, not only must the sample be destroyed, but the measurement is very time-consuming.
Furthermore, it is difficult to accurately expose the surface of the portion to be measured by surface polishing by a polishing machine after cutting. Scanning electron microscope photographs are good for qualitative observation, but it is difficult to use them for quantitative measurement as they are, and there is a problem that it is necessary to trace a drawing for measurement. I was

【0006】本発明は、前記従来の問題点を解消するべ
くなされたもので、リードフレームやシャドウマスク、
アパーチャグリフを含むエッチング製品等の断面形状
を、非破壊で高速に測定することを第1の課題とする。
The present invention has been made to solve the above-mentioned conventional problems, and has been made in consideration of a lead frame, a shadow mask,
A first object is to measure the cross-sectional shape of an etching product or the like containing an aperture glyph at high speed without destruction.

【0007】本発明は、更に、前記のような製品の3次
元形状を測定することを第2の課題とする。
A second object of the present invention is to measure the three-dimensional shape of the product as described above.

【0008】[0008]

【課題を解決するための手段】本発明は、断面形状測定
装置を、測定対象に複数方向から所定のパターン光を投
影するパターン光投影手段と、測定対象上に投影された
パターン光を、複数の斜め方向から撮影するための、少
なくとも一部視野が重複した、複数の撮影手段と、該撮
影手段によって得られた画像から、パターン光面の斜方
変形形状を抽出する手段と、該斜方変形形状を逆斜方変
換して、パターン光面位置の座標を算出する手段と、前
記複数の撮影手段の画像を処理することによって得られ
たパターン光面位置の座標を合成して、測定対象の断面
形状を得る手段とを用いて構成することにより、前記第
1の課題を解決したものである。
According to the present invention, there is provided a cross-sectional shape measuring apparatus comprising: a pattern light projecting means for projecting predetermined pattern light onto a measurement object from a plurality of directions; A plurality of photographing means having at least partially overlapping visual fields for photographing from an oblique direction, a means for extracting an obliquely deformed shape of a pattern light surface from an image obtained by the photographing means, Means for calculating the coordinates of the pattern light surface position by inversely obliquely transforming the deformed shape, and synthesizing the coordinates of the pattern light surface position obtained by processing the images of the plurality of photographing means, and The first problem has been solved by using a means for obtaining a cross-sectional shape of the above.

【0009】又、前記パターン光を、格子縞パターン光
としたものである。
Further, the pattern light is a lattice stripe pattern light.

【0010】又、前記格子縞パターン光を、回折格子に
よって生成される干渉パターン光としたものである。
[0010] Further, the grating pattern light is interference pattern light generated by a diffraction grating.

【0011】本発明は、又、前記のような断面形状測定
装置において、更に、前記測定対象に対するパターン光
の投影位置を相対的に移動する手段と、各パターン光投
影位置で得られた測定対象の断面形状を合成して、3次
元形状を得る手段とを備えることにより、前記第2の課
題を解決したものである。
According to the present invention, there is further provided a cross-sectional shape measuring apparatus as described above, further comprising means for relatively moving a projection position of the pattern light with respect to the measurement object, and a measurement object obtained at each pattern light projection position. Means for obtaining a three-dimensional shape by synthesizing the cross-sectional shapes of the above-mentioned items, thereby solving the second problem.

【0012】本発明においては、図1に示す如く、測定
対象、ここではリードフレームのインナーリードである
サンプル20に、複数方向、ここでは2方向からパター
ン光22、24を投影する。これにより、サンプル20
上には断面像26、28が形成されるので、これを、複
数の斜方(図1では2方向)から、一部視野(ここでは
サンプル20の上面20A)が重複した、2つのカメラ
30、32で撮影する。図において、31は、カメラ3
0の撮影エリア、33は、カメラ32の撮影エリアであ
る。
In the present invention, as shown in FIG. 1, pattern lights 22 and 24 are projected from a plurality of directions, here two directions, onto a measurement object, here a sample 20 which is an inner lead of a lead frame. Thereby, the sample 20
Since the cross-sectional images 26 and 28 are formed on the upper surface, the cross-sectional images 26 and 28 are viewed from a plurality of oblique directions (two directions in FIG. 1) and two cameras 30 partially overlapping the field of view (here, the upper surface 20A of the sample 20). , 32. In the figure, reference numeral 31 denotes a camera 3
The shooting area 0 and the shooting area 33 are the shooting areas of the camera 32.

【0013】次いで、該カメラ30、32によって得ら
れた画像から、図2(サンプル20左側斜め上方のカメ
ラ30による撮影画像)、及び、図3(サンプル20右
側斜め上方のカメラ32による撮影画像)に示すような
パターン光面の斜方変形形状を抽出する。図2及び図3
において、26A、28Aは、サンプル20の同じ上面
20Aを表わす画像である。
Next, from the images obtained by the cameras 30 and 32, FIG. 2 (image taken by the camera 30 obliquely above the left side of the sample 20) and FIG. 3 (image taken by the camera 32 obliquely above the right side of the sample 20) The oblique deformation shape of the pattern light surface as shown in FIG. 2 and 3
, 26A and 28A are images representing the same upper surface 20A of the sample 20.

【0014】更に、図2及び図3に示したような斜方変
形形状を、カメラ30、32の位置及び向きに合わせて
逆斜方変換してサンプル20の軸方向に垂直な正規の断
面画像とし、そのパターン光面位置の座標を算出した
後、例えばサンプル20の上面20Aに対する画像26
A、28Bが丁度重なるように、光面エッジの座標を合
成し、下端を直線で結ぶことにより、図4に示すような
サンプル20の完全な断面形状を得ることができる。
Further, the obliquely deformed shape as shown in FIGS. 2 and 3 is inversely obliquely transformed according to the positions and orientations of the cameras 30 and 32 to form a regular cross-sectional image perpendicular to the axial direction of the sample 20. After calculating the coordinates of the pattern light surface position, for example, the image 26 with respect to the upper surface 20A of the sample 20 is obtained.
By synthesizing the coordinates of the light surface edges so that A and 28B just overlap and connecting the lower ends with straight lines, a complete cross-sectional shape of the sample 20 as shown in FIG. 4 can be obtained.

【0015】なお、図5に示す如く、隣り合うサンプル
が邪魔をして、完全な側壁画像が得られない時には、図
1に示した、図5のA方向及びB方向から撮影する斜め
上方の2台のカメラによる画像の他に、斜め下方(図5
のC方向及びD方向)から撮像した画像も併せて利用す
ることができる。
As shown in FIG. 5, when an adjacent sample disturbs and a complete side wall image cannot be obtained, an obliquely upper portion taken from the directions A and B in FIG. In addition to the images captured by the two cameras, a diagonally lower part (FIG. 5)
(C direction and D direction) can also be used together.

【0016】なお、前記説明においては、パターン光と
して単純な数本の縞のパターン光が使用されていたが、
パターン光の種類はこれに限定されず、格子縞パターン
や、例えば図6に示すような回折格子38によって生成
される干渉縞39を利用して形成した干渉パターン光を
用いることもできる。この際、干渉縞39の極大部の広
がりΔyは、単位長さ当たりの回折格子のスリット数を
増やすことで、小さくすることができる。
In the above description, a simple pattern light of several stripes is used as the pattern light.
The type of the pattern light is not limited to this, and an interference pattern light formed using a lattice fringe pattern or an interference fringe 39 generated by a diffraction grating 38 as shown in FIG. 6 can also be used. At this time, the spread Δy of the local maximum of the interference fringes 39 can be reduced by increasing the number of slits of the diffraction grating per unit length.

【0017】更に、測定対象に対するパターン光の投影
中、測定対象とパターン光を相対的に移動し、各パター
ン光投影位置で得られた測定対象の断面形状を合成し
て、3次元形状を得ることも可能である。
Further, during the projection of the pattern light onto the object to be measured, the object to be measured and the pattern light are relatively moved, and the cross-sectional shape of the object to be measured obtained at each pattern light projection position is synthesized to obtain a three-dimensional shape. It is also possible.

【0018】[0018]

【発明の実施の形態】以下図面を参照して、本発明の実
施形態を、簡単のために2方向撮影の場合について詳細
に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to the drawings, an embodiment of the present invention will be described in detail for the case of two-direction photographing for simplicity.

【0019】本発明の第1実施形態は、格子縞パターン
を用いてリードフレームの3次元形状を測定する装置に
関するもので、図7に示す如く、測定対象であるサンプ
ルに、例えばサンプルを挟む上方の2つの方向からパタ
ーン光を投影するための、光源を含む第1及び第2のパ
ターン光作成部40、42と、該パターン光作成部4
0、42からサンプルに投影されたパターン光を2つの
斜め方向から撮影して画像を入力するための、一部視野
が重複した、第1及び第2のカメラ(画像入力部)3
0、32と、各種指示を与えるための指示入力部(例え
ばキーボードやマウス)48と、前記パターン光作成部
40、42及びカメラ30、32をそれぞれ移動するた
めの移動機構50、52、54、56と、前記第1及び
第2のカメラ30、32から入力される原画像をそれぞ
れ記憶する第1及び第2の画像記憶部(例えばフレーム
メモリ)60、62と、該画像記憶部60、62に記憶
された原画像をモニタ用に表示するための第1及び第2
の画像表示部(例えばディスプレイ)64、66と、前
記第1及び第2の画像記憶部60、62に記憶された原
画像から、図2及び図3に示したような、パターン光面
の斜方変形形状を抽出する斜方変形形状抽出部68と、
該斜方変形形状を逆斜方変換して斜め入射による角度の
歪みを修正する射影逆変換処理部70と、前記第1のカ
メラ30によって得られた、図2に示したような例えば
左斜め上方から見た画像を角度修正した画像と、図3に
示したような右斜め上方から見た画像を角度修正した画
像を合成し、例えば下辺を直線で補充して正規の断面形
状を完成する断面合成部72と、該断面合成部72によ
って完成された断面形状を記憶する断面形状記憶部74
と、該断面形状記憶部74に記憶された断面形状を表示
する断面形状表示部76と、前記断面形状記憶部74に
記憶された断面形状を印刷する計測結果印刷部78とを
備えている。
The first embodiment of the present invention relates to an apparatus for measuring a three-dimensional shape of a lead frame using a grid pattern, as shown in FIG. First and second pattern light generators 40 and 42 including light sources for projecting pattern light from two directions, and the pattern light generator 4
First and second cameras (image input units) 3 having a partially overlapped field of view for photographing the pattern light projected from 0 and 42 onto the sample from two oblique directions and inputting an image.
0, 32, an instruction input unit (for example, a keyboard or a mouse) 48 for giving various instructions, and moving mechanisms 50, 52, 54 for moving the pattern light creating units 40, 42 and the cameras 30, 32, respectively. 56, first and second image storage units (for example, frame memories) 60 and 62 for storing original images input from the first and second cameras 30 and 32, respectively, and the image storage units 60 and 62. And second for displaying the original image stored in the monitor for monitoring.
From the original images stored in the first and second image storage units 60 and 62, as shown in FIG. 2 and FIG. An oblique deformed shape extraction unit 68 for extracting a deformed shape;
A projection reverse conversion processing unit 70 that corrects the angle distortion due to oblique incidence by performing an inverse oblique transformation on the obliquely deformed shape, and, for example, a left oblique image obtained by the first camera 30 as shown in FIG. An image obtained by correcting the angle of the image viewed from above and an image obtained by correcting the angle of the image viewed obliquely from the upper right as shown in FIG. 3 are combined, and for example, the lower side is supplemented with a straight line to complete a regular cross-sectional shape. Cross-section synthesis section 72 and cross-section shape storage section 74 for storing the cross-section shape completed by cross-section synthesis section 72
A cross-sectional shape display unit 76 for displaying the cross-sectional shape stored in the cross-sectional shape storage unit 74; and a measurement result printing unit 78 for printing the cross-sectional shape stored in the cross-sectional shape storage unit 74.

【0020】前記指示入力部48により与えられるサン
プル移動指示は、サンプルを固定するためのサンプル台
82を上下左右方向に移動すると共に、水平軸、垂直軸
廻りに回転するための、例えばゴニオステージ、回転ス
テージ、上下動ステージ及びXYステージから構成され
るサンプル移動機構80に入力され、サンプルが移動さ
れる。該サンプル移動機構80によるサンプル台82の
移動量は、サンプル台座標計測部84で計測され、座標
記憶部86に記憶される。
A sample movement instruction given by the instruction input unit 48 is used to move a sample table 82 for fixing a sample in the vertical and horizontal directions and to rotate around a horizontal axis and a vertical axis. The sample is input to a sample moving mechanism 80 including a rotating stage, a vertical moving stage, and an XY stage, and the sample is moved. The amount of movement of the sample table 82 by the sample moving mechanism 80 is measured by the sample table coordinate measurement unit 84 and stored in the coordinate storage unit 86.

【0021】又、前記指示入力部48により、例えばポ
インタで画像表示部64又は66内の基準位置(例えば
図1に示したインナーリードの先端位置O)が指定され
ると、ポインタ座標算出部90で該基準位置の座標が算
出され、前記座標記憶部86に記憶される。
When a reference position (for example, the tip position O of the inner lead shown in FIG. 1) in the image display unit 64 or 66 is designated by the instruction input unit 48 using, for example, a pointer, the pointer coordinate calculation unit 90. The coordinates of the reference position are calculated and stored in the coordinate storage unit 86.

【0022】該座標記憶部86には、図8に例示する如
く、サンプル台82の3次元位置に対応する座標x、
y、zと、前記指示入力部48で画像内に指定されたポ
インタの位置に対応する2次元の指示座標X、Yが記憶
される。
As shown in FIG. 8, the coordinate storage unit 86 stores coordinates x, corresponding to the three-dimensional position of the sample table 82,
y and z, and two-dimensional designated coordinates X and Y corresponding to the position of the pointer designated in the image by the designated input unit 48 are stored.

【0023】該座標記憶部86に記憶された座標は、パ
ターン光面算出部92に入力され、パターン移動機構の
情報と共にパターン光面位置の算出に利用されると共
に、画像入力用のカメラの位置や方向等の情報(カメラ
パラメータと称する)を算出するカメラパラメータ算出
部94に入力され、前記パターン光面算出部92で計算
されたパターン光面位置と共に、パラメータ記憶部96
に記憶され、前記射影逆変換処理部70における射影逆
変換処理に利用される。
The coordinates stored in the coordinate storage unit 86 are input to the pattern light surface calculation unit 92, and are used for calculating the pattern light surface position together with the information of the pattern moving mechanism, and the position of the image input camera. A parameter storage unit 96 is input to a camera parameter calculation unit 94 that calculates information (referred to as a camera parameter) such as a direction and a direction, and the pattern light surface position calculated by the pattern light surface calculation unit 92.
And is used for the inverse projection conversion processing in the inverse projection conversion processing unit 70.

【0024】前記サンプル台82、パターン光作成部4
0又は42及びカメラ30又は32の位置関係の一例を
図9に示す。図において、100はレーザ光源、102
は、集光レンズ104とピンホール106からなる空間
フィルタ、108は、該空間フィルタ102を通過した
光を平行光線化するためのコリメータ、112は、格子
縞パターンをサンプル20の表面上に投影するためのパ
ターン板、118は、前記カメラ30又は32を構成す
るビデオカメラ、120は、焦点深度を深くして、ピン
トが合う範囲を広くされた長作動レンズを含む鏡筒であ
る。
The sample table 82, the pattern light generating unit 4
An example of the positional relationship between 0 or 42 and the camera 30 or 32 is shown in FIG. In the figure, 100 is a laser light source, 102
Is a spatial filter composed of a condensing lens 104 and a pinhole 106; 108 is a collimator for collimating light passing through the spatial filter 102; 112 is for projecting a grid pattern onto the surface of the sample 20 Reference numeral 118 denotes a video camera constituting the camera 30 or 32, and reference numeral 120 denotes a lens barrel including a long working lens having a large depth of focus and a wide focusing range.

【0025】前記レーザ光源100としては、回折を小
さくして精度を向上するべく、短波長、例えば488.
89〜514.5nmのアルゴンレーザを用いることが
できる。
The laser light source 100 has a short wavelength, for example, 488.
An argon laser of 89 to 514.5 nm can be used.

【0026】前記空間フィルタ102は、欲しい光だけ
集光レンズ104によって集光してピンホール106を
通過させることにより、雑音を除去する。
The spatial filter 102 removes noise by condensing only desired light by a condensing lens 104 and passing it through a pinhole 106.

【0027】前記長作動レンズ120には、アパーチャ
が入れられ、開口数NAが調整可能とされている。
An aperture is provided in the long working lens 120 so that the numerical aperture NA can be adjusted.

【0028】次に、図10を参照して、本実施形態にお
ける処理手順を説明する。
Next, referring to FIG. 10, a processing procedure in the present embodiment will be described.

【0029】まずステップ1000で、サンプル20を
サンプル台82にセットする。
First, at step 1000, the sample 20 is set on the sample table 82.

【0030】次いでステップ1010で、カメラ及びパ
ターン光を設定する。具体的には、図1に示した如く、
サンプル20の両側壁がそれぞれ完全に見えるように、
第1及び第2のカメラ30、32の位置及び方向を決定
すると共に、第1及び第2のパターン光22、24が2
方向からサンプル20に同時に当り、且つ、上平面20
Aでは両パターン光26A、28Aが完全に一致するよ
うにパターンを位置決めする。
Next, in step 1010, a camera and a pattern light are set. Specifically, as shown in FIG.
So that both side walls of the sample 20 are completely visible,
The positions and directions of the first and second cameras 30 and 32 are determined, and the first and second pattern lights 22 and 24
Simultaneously hit the sample 20 from the direction, and
In A, the pattern is positioned so that the two pattern lights 26A and 28A completely match.

【0031】次いでステップ1020で、カメラの位置
及び方向を示すカメラパラメータを得るための座標を入
力し、カメラの位置を校正する。具体的には、図11に
示す如く、カメラ撮像面(例えばCCD)の座標系であ
るS−系と、サンプル台82表面の座標系であるO−系
と、S−系への投影座標系であるO′−系(サンプル台
上のサンプルが撮像面に拡大して写されていると考えた
時の拡大投影の中心を原点O′x、O′y、O′zとし
た座標系)の3つの座標系を設定し、前記O−系の座標
と、これに対応する撮像面上のS−系座標の値を求め、
最小2乗法によりカメラパラメータを算出する。
Next, in step 1020, coordinates for obtaining camera parameters indicating the position and direction of the camera are input, and the position of the camera is calibrated. Specifically, as shown in FIG. 11, an S-system which is a coordinate system of a camera imaging surface (for example, a CCD), an O-system which is a coordinate system of a surface of the sample table 82, and a projection coordinate system onto the S-system O'-system (coordinate system with the origins O'x, O'y, O'z at the center of the enlarged projection when it is considered that the sample on the sample table is enlarged and photographed on the imaging surface) Are set, and the coordinates of the O-system and the corresponding S-system coordinates on the imaging surface are determined.
The camera parameters are calculated by the least square method.

【0032】更に具体的には、図12に示す如く、サン
プル台82上に、サンプル20とは無関係に着目点P1
(P1x、P1y、P1z)oを決め、図13に示す如く、対
応する撮像面上の座標P1 ′(P1´x 、P1´y )sを
求める。以下、サンプル台82を上下左右に次々と動か
してゆき、Pi (Pix、Piy、Piz)とPi´(Pi´x
、Pi´y )sを順次求めて、これらのデータを元に最
小2乗法によるカメラパラメータの推定を行っていく。
例えば、カメラパラメータの数が8である場合には、8
点以上の座標を入力する。この校正は、カメラを動かさ
ない限り、1度で良い。
More specifically, as shown in FIG. 12, the point of interest P 1 is placed on the sample table 82 irrespective of the sample 20.
(P1x, P1y, P1z) o is determined, and as shown in FIG. 13, the coordinates P1 '(P1'x, P1'y) s on the corresponding imaging surface are obtained. Hereinafter, the sample table 82 is sequentially moved up, down, left and right, and Pi (Pix, Piy, Piz) and Pi ′ (Pi′x
, Pi′y) s are sequentially obtained, and the camera parameters are estimated by the least squares method based on these data.
For example, if the number of camera parameters is 8, 8
Enter coordinates greater than the point. This calibration only needs to be performed once unless the camera is moved.

【0033】次いでステップ1030に進み、パターン
の投影位置を決定する。投影パターンが複数の並行スリ
ット光面からなる場合には、まずサンプル上にある特定
位置を決めて、そこを原点とみなし、特定位置を動かし
て、あるスリット光面に来るように持っていった場合の
ステージ移動量から、その座標を求める。このようにし
て、最低3点を一次独立となるように、そのスリット光
面について求めることにより、そのスリット光面を決定
できる。更に、それと平行なスリット光面については、
その特定位置を再びずらして、そのスリット光面上に来
るようにしてやることにより、最初に求めたスリット光
面からのずれ量を求めることで決定できる。以下、スリ
ット光面の個数分、それを求めてやればよい。
Next, the routine proceeds to step 1030, where the projection position of the pattern is determined. If the projection pattern consists of multiple parallel slit light planes, first determine a specific position on the sample, consider it as the origin, move the specific position, and bring it to a certain slit light plane The coordinates are obtained from the moving amount of the stage. In this way, the slit light surface can be determined by obtaining at least three points on the slit light surface so as to be linearly independent. Furthermore, for the slit light plane parallel to it,
By shifting the specific position again so as to be on the slit light surface, it can be determined by calculating the shift amount from the slit light surface obtained first. Hereinafter, the number of the slit light surfaces may be obtained.

【0034】又、パターン投影時のスリット光面の厚み
が無視出来ない場合には、その光量の大きいところがス
リット光面となると考えるものとする。すなわち、上記
の特定位置の近傍において、光量の最大となるところが
スリット光面となると考えるものとする。すなわち、上
記の特定位置を動かしてゆき、同時にその光量を画面上
で追跡してゆき、光量ピークを形成する点を求めて、そ
れに対応する特定位置をもってスリット光面にあるもの
とすればよい。これも、上記と同様にしてスリット光面
の個数分繰り返すことにより、複数の平行スリット光面
からなる場合にも拡張することができる。
If the thickness of the slit light surface at the time of projecting the pattern cannot be ignored, it is assumed that a portion having a large light amount becomes the slit light surface. That is, in the vicinity of the specific position, the point where the amount of light becomes maximum is considered to be the slit light surface. That is, the specific position described above is moved, and at the same time, the light amount is tracked on the screen to find a point where the light amount peak is formed. This can also be extended to the case where a plurality of parallel slit light surfaces are formed by repeating the same number of times as the number of slit light surfaces in the same manner as described above.

【0035】又、投影パターンが格子状となっている場
合に対しても、縦横のそれぞれのスリット光面に対して
上記手続を適用してやることで、そのスリット光面の位
置を決定することができる。
Further, even in the case where the projection pattern has a lattice shape, the position of the slit light surface can be determined by applying the above procedure to each of the vertical and horizontal slit light surfaces. .

【0036】次いでステップ1040に進み、サンプル
台82を移動して、測定したい位置にパターン光が当る
よう、サンプル位置を調整する。
Next, proceeding to step 1040, the sample table 82 is moved, and the sample position is adjusted so that the pattern light hits the position to be measured.

【0037】次いでステップ1050、1052に進
み、第1及び第2のカメラ30、32による断面撮影を
並行して行う。
Next, the process proceeds to steps 1050 and 1052, in which the first and second cameras 30 and 32 perform section photographing in parallel.

【0038】次いでステップ1060、1062に進
み、カメラ30、32により得られた画像から、斜方変
形形状を抽出する。
Next, the process proceeds to steps 1060 and 1062, and an obliquely deformed shape is extracted from the images obtained by the cameras 30 and 32.

【0039】次いでステップ1070、1072に進
み、カメラパラメータとパターン光面位置から、逆斜方
変換により、パターン光が当っている断面位置の実際の
3次元座標を算出する。
Next, the process proceeds to steps 1070 and 1072, and the actual three-dimensional coordinates of the cross-sectional position where the pattern light is applied are calculated from the camera parameters and the pattern light surface position by inverse oblique transformation.

【0040】次いで、ステップ1080に進み、ステッ
プ1070、1072で得られた断面形状の3次元座標
を組合わせると共に、下面形状を直線として、サンプル
断面形状を合成することにより、当該位置における断面
形状を得る。
Next, proceeding to step 1080, the three-dimensional coordinates of the cross-sectional shapes obtained in steps 1070 and 1072 are combined, and the cross-sectional shape at that position is synthesized by synthesizing the sample cross-sectional shape with the lower surface shape as a straight line. obtain.

【0041】次いでステップ1090に進み、次の位置
に移動する必要があるときには、ステップ1050に戻
る。
Next, the process proceeds to step 1090, and returns to step 1050 when it is necessary to move to the next position.

【0042】一方、ステップ1090における判定で、
全ての位置の測定が終了したと判断されるときには、計
測を終了する。
On the other hand, in the judgment at step 1090,
When it is determined that the measurement at all positions has been completed, the measurement is completed.

【0043】本実施形態においては、測定対象に投影す
る断面形成光として、レーザ光源を用いて形成したパタ
ーン光を用いているので、高精度の測定が可能である。
In the present embodiment, since the pattern light formed by using the laser light source is used as the cross-section forming light to be projected on the measuring object, high-precision measurement is possible.

【0044】次に、本発明の第2実施形態を詳細に説明
する。
Next, a second embodiment of the present invention will be described in detail.

【0045】本実施形態は、図14に示す如く、前記第
1実施形態と同様のパターン板112、サンプル台8
2、サンプル移動機構80、ビデオカメラ118、鏡筒
120を有する3次元形状装置において、レーザ光源の
代わりに、例えばキセノンランプ又は水銀ランプ等の平
行度が高い通常光源を含むランプハウス130を用いる
ようにしたものである。
In this embodiment, as shown in FIG. 14, the same pattern plate 112 and sample table 8 as those in the first embodiment are used.
2. In the three-dimensional apparatus having the sample moving mechanism 80, the video camera 118, and the lens barrel 120, instead of the laser light source, a lamp house 130 including a highly parallel normal light source such as a xenon lamp or a mercury lamp may be used. It was made.

【0046】図において、132は、前記ランプハウス
130で発生された光をパターン板112に導くための
光ファイバである。
In the figure, 132 is an optical fiber for guiding the light generated in the lamp house 130 to the pattern plate 112.

【0047】他の点については、前記第1実施形態と同
様であるので説明は省略する。
The other points are the same as in the first embodiment, and the description is omitted.

【0048】次に、図6に示したような回折格子38に
より生成した干渉縞39を利用してパターン光を形成す
るようにした本発明の第3実施形態を詳細に説明する。
Next, a third embodiment of the present invention in which pattern light is formed by using interference fringes 39 generated by the diffraction grating 38 as shown in FIG. 6 will be described in detail.

【0049】この実施形態は、前記第1実施形態と同様
の3次元形状測定装置において、パターン板112の代
わりに回折格子板を配置して、図6に示したような干渉
パターン光をサンプル表面に投影するようにしたもので
ある。
In this embodiment, in the same three-dimensional shape measuring apparatus as in the first embodiment, a diffraction grating plate is arranged instead of the pattern plate 112, and the interference pattern light as shown in FIG. Is projected on the screen.

【0050】本実施形態においては、光量分布が非常に
規則的な繰り返し分布をとるので、その規則性をもとに
投影パターン位相をシフトしながら複数の光量分布デー
タを取り込み、必ずしも光量ピークにとらわれずに、光
量分布の変動に基づいて形状計測を行うことができる。
In the present embodiment, since the light quantity distribution takes a very regular repetitive distribution, a plurality of light quantity distribution data are taken in while shifting the phase of the projection pattern based on the regularity, and the light quantity peak is not necessarily captured by the light quantity peak. Instead, the shape measurement can be performed based on the fluctuation of the light amount distribution.

【0051】例えば、図15におけるB点の位置を求め
ようとすると、これはA点のように光量分布のピークを
形成していないので、光量ピークを検出することによっ
てはB点の位置を決定することはできない。しかし、図
16のように位相をずらした幾つかのパターン投影での
B点での光量分布を求めることで、A点とB点の位相差
を推定し、それと光量分布の規則性の周期からA点とB
点の距離を求めることができる。従ってA点の位置を光
量ピークから決定しておけば、ピーク間の中間的な光量
を有する点に対しても、その位置を決定することができ
る。それ故、この手法により、計測対象点の個数を多く
とることができ、より精密に各部の形状を定めることが
可能となる。
For example, when the position of the point B in FIG. 15 is to be obtained, since the peak of the light amount distribution is not formed unlike the point A, the position of the point B is determined by detecting the peak of the light amount. I can't. However, as shown in FIG. 16, the phase difference between points A and B is estimated by calculating the light amount distribution at point B in several pattern projections shifted in phase as shown in FIG. Point A and B
The distance between points can be determined. Therefore, if the position of the point A is determined from the light amount peak, the position can be determined even for a point having an intermediate light amount between the peaks. Therefore, by this method, the number of measurement target points can be increased, and the shape of each part can be determined more precisely.

【0052】また特に光源をレーザとした場合において
は、スペックルの周波数とそれ以外の干渉パターンによ
る周期性による光量分布変動の周波数成分の違いを利用
して適当なフィルタをかけることにより、スペックル除
去を行うことができるという利点も有している。
In particular, when the light source is a laser, an appropriate filter is applied by utilizing the difference between the frequency of the speckle and the frequency component of the light quantity distribution fluctuation due to the periodicity due to the other interference patterns. It also has the advantage that it can be removed.

【0053】又、例えば投影パターンを格子状のものと
することにより、複数のカメラからの撮影をもとにステ
レオ計算を行うことも可能である。
Further, for example, by making the projection pattern a grid pattern, it is also possible to perform stereo calculation based on photographing from a plurality of cameras.

【0054】なお、前記実施形態においては、いずれ
も、リードフレームの先端形状を測定していたが、本発
明の適用対象はこれに限定されず、シャドウマスクやア
パーチャーグリル等の他のエッチング製品、あるいはエ
ッチング製品以外の一般の製品の断面形状又は3次元形
状の測定にも、同様に適用できることは明らかである。
In each of the above embodiments, the shape of the tip of the lead frame was measured. However, the present invention is not limited to this, and other etching products such as a shadow mask and an aperture grill can be used. Alternatively, it is apparent that the present invention can be similarly applied to measurement of a cross-sectional shape or a three-dimensional shape of a general product other than the etching product.

【0055】[0055]

【発明の効果】本発明によれば、エッチング製品等の断
面形状計測を、非破壊で高速に行うことが可能となる。
According to the present invention, it becomes possible to perform nondestructive and high-speed measurement of the cross-sectional shape of an etching product or the like.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明するための、インナーリー
ド先端部分を測定している状態を示す斜視図
FIG. 1 is a perspective view showing a state in which the tip of an inner lead is measured, for explaining the principle of the present invention.

【図2】図1の左側のカメラで得られるパターン光断面
形状の例を示す線図
FIG. 2 is a diagram showing an example of a pattern light cross-sectional shape obtained by a camera on the left side of FIG. 1;

【図3】図1の右側のカメラで得られるパターン光断面
形状の例を示す線図
FIG. 3 is a diagram showing an example of a pattern light cross-sectional shape obtained by a camera on the right side of FIG. 1;

【図4】図2及び図3の形状を逆斜方変換した後、合成
して得られるインナーリード断面形状の例を示す線図
FIG. 4 is a diagram showing an example of an inner lead cross-sectional shape obtained by performing an inverse oblique transformation on the shapes of FIGS. 2 and 3 and then combining the shapes;

【図5】測定対象に対して上下4方向から撮影している
状態を示す断面図
FIG. 5 is a cross-sectional view showing a state where an image of a measurement target is photographed from four directions from above and below.

【図6】本発明により回折格子による干渉縞パターン光
を投影している状態を示す断面図
FIG. 6 is a sectional view showing a state where interference fringe pattern light is projected by a diffraction grating according to the present invention.

【図7】本発明の第1実施形態における全体構成を示す
ブロック線図
FIG. 7 is a block diagram showing an overall configuration according to the first embodiment of the present invention.

【図8】第1実施形態の座標記憶部に記憶される座標の
例を示す図表
FIG. 8 is a table illustrating an example of coordinates stored in a coordinate storage unit according to the first embodiment;

【図9】第1実施形態の全体配置を示す正面図FIG. 9 is a front view showing the overall arrangement of the first embodiment.

【図10】第1実施形態による3次元計測の手順を示す
流れ図
FIG. 10 is a flowchart showing a procedure of three-dimensional measurement according to the first embodiment;

【図11】第1実施形態で用いられる座標系の例を示す
斜視図
FIG. 11 is a perspective view showing an example of a coordinate system used in the first embodiment.

【図12】同じくカメラパラメータの決定方法を説明す
るための斜視図
FIG. 12 is a perspective view for explaining a method for determining camera parameters.

【図13】同じく正面図FIG. 13 is a front view of the same.

【図14】本発明の第2実施形態の全体配置を示す正面
FIG. 14 is a front view showing the overall arrangement of the second embodiment of the present invention.

【図15】光量分布を利用した形状抽出方法を説明する
ための斜視図
FIG. 15 is a perspective view for explaining a shape extraction method using a light quantity distribution.

【図16】同じく投影パターンの位相をシフトした状態
を示す線図
FIG. 16 is a diagram showing a state in which the phase of the projection pattern is shifted.

【図17】本発明の必要性を説明するためのエッチング
中の状態を示す断面図
FIG. 17 is a sectional view showing a state during etching for explaining the necessity of the present invention;

【符号の説明】[Explanation of symbols]

20…サンプル 22、24…パターン光 26、28…断面像 30、32…カメラ 31、33…撮影エリア 38…回折格子 39…干渉縞 40、42…パターン光作成部 48…指示入力部 50、52、54、56…移動機構 60、62…画像記憶部 64、66…画像表示部 68…斜方変換形状抽出部 70…射影逆変換処理部 72…断面合成部 74…断面形状記憶部 80…サンプル移動機構 82…サンプル台 84…サンプル台座標計測部 88…画像内位置指定入力部 90…ポインタ座標算出部 92…パターン光面算出部 94…カメラパラメータ算出部 100…レーザ光源 112…パターン板 118…ビデオカメラ 130…ランプハウス 20 sample 22, 24 pattern light 26, 28 cross-sectional image 30, 32 camera 31, 33 photographing area 38 diffraction grating 39 interference fringe 40, 42 pattern light generator 48 instruction input unit 50, 52 , 54, 56 moving mechanism 60, 62 image storage unit 64, 66 image display unit 68 oblique transformation shape extraction unit 70 projective inverse transformation processing unit 72 cross-section synthesis unit 74 cross-sectional shape storage unit 80 sample Moving mechanism 82: sample table 84: sample table coordinate measurement unit 88: position designation input unit in image 90: pointer coordinate calculation unit 92: pattern light plane calculation unit 94: camera parameter calculation unit 100: laser light source 112: pattern plate 118 ... Video camera 130 ... Lamp house

───────────────────────────────────────────────────── フロントページの続き (72)発明者 飯沼 輝明 東京都新宿区市谷加賀町一丁目1番1号 大日本印刷株式会社内 (72)発明者 山地 正高 東京都新宿区市谷加賀町一丁目1番1号 大日本印刷株式会社内 (72)発明者 渡辺 智 東京都新宿区市谷加賀町一丁目1番1号 大日本印刷株式会社内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Teruaki Iinuma 1-1-1 Ichigaya-Kagacho, Shinjuku-ku, Tokyo Inside Dai Nippon Printing Co., Ltd. (72) Inventor Masataka Yamachi 1-chome, Ichigaya-cho, Shinjuku-ku, Tokyo No. 1 Dai Nippon Printing Co., Ltd. (72) Inventor Satoshi Watanabe 1-1-1, Ichigaya Kagacho, Shinjuku-ku, Tokyo Dai Nippon Printing Co., Ltd.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】測定対象に複数方向から所定のパターン光
を投影するパターン光投影手段と、 測定対象上に投影されたパターン光を、複数の斜め方向
から撮影するための、少なくとも一部視野が重複した、
複数の撮影手段と、 該撮影手段によって得られた画像から、パターン光面の
斜方変形形状を抽出する手段と、 該斜方変形形状を逆斜方変換して、パターン光面位置の
座標を算出する手段と、 前記複数の撮影手段の画像を処理することによって得ら
れたパターン光面位置の座標を合成して、測定対象の断
面形状を得る手段と、 を備えたことを特徴とする断面形状測定装置。
1. A pattern light projecting means for projecting predetermined pattern light onto a measurement object from a plurality of directions, and at least a partial field of view for photographing the pattern light projected on the measurement object from a plurality of oblique directions. Duplicate,
A plurality of photographing means; a means for extracting an obliquely deformed shape of the pattern light surface from an image obtained by the photographing means; and an inverse oblique transformation of the obliquely deformed shape to obtain coordinates of the pattern light surface position. Means for calculating, and means for synthesizing the coordinates of the position of the pattern light surface obtained by processing the images of the plurality of photographing means to obtain a cross-sectional shape of the object to be measured. Shape measuring device.
【請求項2】請求項1において、前記パターン光が、格
子縞パターン光であることを特徴とする断面形状測定装
置。
2. A cross-sectional shape measuring apparatus according to claim 1, wherein said pattern light is a lattice stripe pattern light.
【請求項3】請求項2において、前記格子縞パターン光
が、回折格子によって生成される干渉パターン光である
ことを特徴とする断面形状測定装置。
3. A cross-sectional shape measuring apparatus according to claim 2, wherein said lattice fringe pattern light is interference pattern light generated by a diffraction grating.
【請求項4】請求項1又は2に記載の断面形状測定装置
において、更に、 前記測定対象に対するパターン光の投影位置を相対的に
移動する手段と、 各パターン光投影位置で得られた測定対象の断面形状を
合成して、3次元形状を得る手段と、 を備えたことを特徴とする3次元形状測定装置。
4. The cross-sectional shape measuring apparatus according to claim 1, further comprising: means for relatively moving a projection position of the pattern light with respect to the measurement target; and a measurement target obtained at each pattern light projection position. Means for obtaining a three-dimensional shape by synthesizing a cross-sectional shape of the three-dimensional shape.
【請求項5】パターン光量分布を利用して形状計測の精
度を向上する機能を有することを特徴とする断面形状及
び3次元形状の測定装置。
5. An apparatus for measuring a cross-sectional shape and a three-dimensional shape, having a function of improving the accuracy of shape measurement using a pattern light quantity distribution.
JP35722197A 1997-12-25 1997-12-25 Sectional and 3-dimensional shape measuring device Pending JPH11183136A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35722197A JPH11183136A (en) 1997-12-25 1997-12-25 Sectional and 3-dimensional shape measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35722197A JPH11183136A (en) 1997-12-25 1997-12-25 Sectional and 3-dimensional shape measuring device

Publications (1)

Publication Number Publication Date
JPH11183136A true JPH11183136A (en) 1999-07-09

Family

ID=18453008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35722197A Pending JPH11183136A (en) 1997-12-25 1997-12-25 Sectional and 3-dimensional shape measuring device

Country Status (1)

Country Link
JP (1) JPH11183136A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289805A (en) * 2000-04-03 2001-10-19 Rigaku Corp Degree of revolution detector for thermobalance apparatus
JP2005279028A (en) * 2004-03-30 2005-10-13 Hamamatsu Univ School Of Medicine Endoscope
JP2015537228A (en) * 2012-12-14 2015-12-24 ファロ テクノロジーズ インコーポレーテッド Apparatus for optically scanning and measuring the surrounding environment
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289805A (en) * 2000-04-03 2001-10-19 Rigaku Corp Degree of revolution detector for thermobalance apparatus
JP2005279028A (en) * 2004-03-30 2005-10-13 Hamamatsu Univ School Of Medicine Endoscope
JP2015537228A (en) * 2012-12-14 2015-12-24 ファロ テクノロジーズ インコーポレーテッド Apparatus for optically scanning and measuring the surrounding environment
US9858682B2 (en) 2012-12-14 2018-01-02 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US10444009B2 (en) 2015-04-24 2019-10-15 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US10866089B2 (en) 2015-04-24 2020-12-15 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US11262194B2 (en) 2015-04-24 2022-03-01 Faro Technologies, Inc. Triangulation scanner with blue-light projector

Similar Documents

Publication Publication Date Title
JP5467321B2 (en) 3D shape measuring method and 3D shape measuring apparatus
US5307151A (en) Method and apparatus for three-dimensional optical measurement of object surfaces
JP5818341B2 (en) Shape measuring apparatus and shape measuring method
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
WO2017175341A1 (en) Measurement method, measurement device, measurement program, and computer-readable recording medium having measurement program recorded thereon
JP6236721B2 (en) Shape measuring apparatus and shape measuring method
JP2007298327A (en) Particle measuring device and method
US9157874B2 (en) System and method for automated x-ray inspection
CN116379965A (en) Structured light system calibration method and device, structured light system and storage medium
JP5956296B2 (en) Shape measuring apparatus and shape measuring method
JP2005147715A (en) Light wave interference measuring method for winding surface, and interferometer device for winding surface measurement
JP2913021B2 (en) Shape measuring method and device
JPH11183136A (en) Sectional and 3-dimensional shape measuring device
JPH11183139A (en) Sectional and 3-dimensional shape measuring device
JP4549931B2 (en) Mixing vane inspection method and inspection device
JP2001356010A (en) Three-dimensional shape measuring apparatus
JP2001349713A (en) Three-dimensional shape measuring device
JP2011047857A (en) Method of measuring three-dimensional shape
JP2017502347A (en) Method for measuring the position of a structure on a mask and thereby determining mask manufacturing errors
JP6041855B2 (en) Subpixel absolute positioning method
JP2000046534A (en) Moire device
JP2003065738A (en) Three-dimensional measurement system and calibration method of the same
JP3410323B2 (en) Three-dimensional measurement method and apparatus using diffraction
JP2887517B2 (en) High-sensitivity three-dimensional measurement method using real lattice type moire topography
JP6884393B2 (en) A method and device for performing phase analysis by converting a deformation grid into a rectangular grid or a square grid using projective transformation.