JP3779118B2 - Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus - Google Patents

Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus Download PDF

Info

Publication number
JP3779118B2
JP3779118B2 JP2000037530A JP2000037530A JP3779118B2 JP 3779118 B2 JP3779118 B2 JP 3779118B2 JP 2000037530 A JP2000037530 A JP 2000037530A JP 2000037530 A JP2000037530 A JP 2000037530A JP 3779118 B2 JP3779118 B2 JP 3779118B2
Authority
JP
Japan
Prior art keywords
camera
imaging
image
pattern
imaging apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000037530A
Other languages
Japanese (ja)
Other versions
JP2001227915A (en
Inventor
俊介 寺内
博己 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd, Dainippon Screen Manufacturing Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2000037530A priority Critical patent/JP3779118B2/en
Publication of JP2001227915A publication Critical patent/JP2001227915A/en
Application granted granted Critical
Publication of JP3779118B2 publication Critical patent/JP3779118B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、撮像装置におけるカメラの位置ずれ検出方法、撮像装置におけるカメラの傾き検出方法、および、これらの位置ずれ検出方法や傾き検出方法を利用した撮像装置におけるカメラの移動量補正方法に関する。
【0002】
【従来の技術】
例えば、カメラを撮像対象に対して一方向および回転方向に移動させることにより、撮像対象の表面を撮像する極座標系の撮像装置においては、カメラの回転中心と画像(光軸)の中心との間で位置ずれが生じた場合、撮像対象表面における撮像を行うべき特定の領域(以下「特定領域」という)を撮像するためにカメラを移動させても、撮像領域が特定領域と正確には一致しない。同様に、カメラを撮像対象に対して一方向に移動させることにより、撮像対象の表面を撮像する撮像装置において、カメラが移動方向と交差する方向に傾いた状態で配置された場合、撮像対象表面の特定領域を撮像するためにカメラを移動させても、撮像領域が特定領域と正確には一致しない。このため、カメラの回転中心と画像(光軸)の中心とが正確に一致するよう、また、カメラが移動方向と一致する方向に正確に配置されるように、カメラの位置を調整する必要がある。
【0003】
従来、このようなカメラの位置調整は、人手により機械的にカメラの位置を微調整する方式が採用されていた。
【0004】
また、特開平9−287919号公報においては、撮像対象を載置するステージ上の特定の基準マークを二カ所で読み取り、これを画像処理することでカメラの位置を補正する方式が提案されている。
【0005】
【発明が解決しようとする課題】
前者の人手により機械的にカメラの位置を微調整する方式においては、カメラの位置をμm単位で調整することは困難である。
【0006】
また、後者の撮像対象を載置するステージ上の特定の基準マークを二カ所で読み取ってこれを画像処理することでカメラの位置を補正する方式においては、ステージ上に特定の基準マークを設けなければならないという問題が生ずる。
【0007】
この発明は上記課題を解決するためになされたものであり、特定の基準マークを設けることなく正確にカメラの位置ずれおよび傾きを検出し、あるいは、これらの検出値を利用してカメラの移動量を補正することができる撮像装置におけるカメラの位置ずれ検出方法、撮像装置におけるカメラの傾き検出方法、および、撮像装置におけるカメラの移動量補正方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
請求項1に記載の発明は、撮像対象とカメラとを一方向および回転方向に相対的に移動させることにより、前記撮像対象における特定領域を前記カメラにより撮像する撮像装置におけるカメラの位置ずれ検出方法であって、前記カメラにより前記撮像対象を撮像する第1撮像工程と、前記第1撮像工程において撮像した画像から所定のパターンを含む領域の画像を切り出して登録するパターン登録工程と、前記パターンにおける特定位置の座標位置を測定する第1座標位置測定工程と、前記撮像対象と前記カメラとを相対的に回転させる回転工程と、前記カメラにより前記回転工程により前記カメラに対して相対的に回転された撮像対象の表面を撮像する第2撮像工程と、前記パターン登録工程において切り出した所定のパターンを含む領域の画像と前記第2撮像工程において撮像した画像とのパターンマッチングを行うことにより、前記パターンにおける特定位置の座標位置を測定する第2座標位置測定工程と、前記第1座標位置測定工程で測定した前記特定位置の座標位置と前記第2座標位置測定工程とで測定した前記特定位置の座標位置とから、前記カメラの位置ずれ量を計算する位置ずれ量計算工程と、を備えたことを特徴とする。
【0009】
請求項2に記載の発明は、請求項1に記載の発明において、前記第1座標位置測定工程においては、前記パターン登録工程において切り出した所定のパターンを含む領域の画像と前記第1撮像工程において撮像した画像とのパターンマッチングを行うことにより、前記パターンにおける特定位置の座標位置を測定する。
【0010】
請求項3に記載の発明は、請求項1または請求項2いずれかに記載の発明において、前記パターンにおける特定位置は、前記パターンを含む領域の中心位置である。
【0011】
請求項4に記載の発明は、請求項1乃至請求項3いずれかに記載の発明において検出したカメラの位置ずれ量に基づいて、前記特定領域を前記カメラにより撮像する際の前記撮像対象と前記カメラとの一方向および回転方向の相対的な移動量を補正することを特徴とする。
【0012】
請求項5に記載の発明は、撮像対象とカメラとを少なくとも一方向に相対的に移動させることにより、前記撮像対象における特定領域を前記カメラにより撮像する撮像装置における前記移動方向と交差する方向に対するカメラの傾きを検出するカメラの傾き検出方法であって、前記カメラにより前記撮像対象を撮像する第1撮像工程と、前記第1撮像工程において撮像した画像から参照直線を選択する参照直線選択工程と、前記第1撮像工程において撮像した画像における、前記参照直線と交差する互いに平行な第1、第2の辺と、これら第1、第2の辺に直交する第3の辺とを少なくとも備えた画像表示ウィンドウに対し、前記第1の辺と前記参照直線の交点と前記第3の辺との距離aと、前記第2の辺と前記参照直線の交点と前記第3の辺との距離bとを測定する第1測定工程と、前記撮像対象と前記カメラとを前記参照直線と交差する方向に相対的に距離Lだけ移動させる移動工程と、前記カメラにより前記移動工程により前記カメラに対して相対的に移動された撮像対象の表面を撮像する第2撮像工程と、前記第2撮像工程において撮像した画像における、前記画像表示ウィンドウに対し、前記第1の辺と前記参照直線の交点と前記第3の辺との距離cを測定する第2測定工程と、前記第1測定工程で測定した前記第1の辺と前記参照直線の交点と前記第3の辺との距離aと、前記第1測定工程で測定した前記第2の辺と前記参照直線の交点と前記第3の辺との距離bと、前記第2測定工程で測定した前記第1の辺と前記参照直線の交点と前記第3の辺との距離cと、前記移動工程における前記被測定物と前記カメラとの相対移動距離Lと、前記第1の辺と前記第2の辺との距離Wとから、前記カメラの傾きを計算する傾き計算工程と、を備えたことを特徴とする。
【0013】
請求項6に記載の発明は、請求項5に記載の発明において検出したカメラの傾きに基づいて、前記特定領域を前記カメラにより撮像する際の前記撮像対象と前記カメラとの一方向および回転方向の相対的な移動量を補正することを特徴とする。
【0014】
【発明の実施の形態】
以下、この発明の実施の形態を図面に基づいて説明する。図1はこの発明を適用する撮像装置の側面概要図である。
【0015】
この撮像装置は、対物レンズ12を備えたカメラ13と、このカメラ13を一方向(R軸方向)に移動させるためのR軸用のカメラステージ14と、このR軸用のカメラステージ14を回転方向(θ軸方向)に移動させるためのθ軸用のカメラステージ15と、撮像対象たる半導体ウエハ16を載置するための支持部材17とを備える。
【0016】
この撮像装置においては、R軸用のカメラステージ14とθ軸用のカメラステージ15との作用でカメラ13を一方向(R軸方向)および回転方向(θ軸方向)に移動させることにより、半導体ウエハ16の下側を向いた表面における所望の特定領域をカメラ13の対物レンズ12により撮像する構成となっている。
【0017】
図2は、この撮像装置の主要な電気的構成を示すブロック図である。
【0018】
この撮像装置は、装置全体を制御するための中央演算部21を備える。この中央演算部21は、装置の制御に必要な動作プログラムが格納されたROMや制御時にデータ等が一時的にストアされるRAMからなるメモリ22と接続されている。
【0019】
この中央演算部21は、カメラ13を制御するためのカメラ制御部23を介してカメラ13と接続されている。また、カメラ13は、そこで撮像した画像を記憶するためのフレームメモリ24と接続されている。このフレームメモリ24は、画像処理部25を介して中央演算部21と接続されている。
【0020】
また、中央演算部21は、ステージ制御部26と接続されている。このステージ制御部26は、そこに接続されたR軸用のカメラステージ14およびθ軸用のカメラステージ15を制御するためのものである。
【0021】
さらに、中央演算部21は、CRT等の画像表示ウィンドウ28およびキーボードやマウス等の座標点入力装置29を備えたコンソール27とも接続されている。
【0022】
次に、上述した撮像装置において、カメラ13のθ軸方向の回転中心と画像中心(すなわち、対物レンズ12における光軸中心)との間の位置ずれを検出するための位置ずれ検出方法について説明する。
【0023】
図3は、カメラ13により、撮像対象たる半導体ウエハ16の表面における領域32を撮像する状態を模式的に示す説明図である。なお、この図においては、カメラ13のθ軸方向の回転中心31と画像中心(すなわち、対物レンズ12における光軸中心)とが、後述するX、Y方向に各々a、bだけずれた状態を誇張して示している。
【0024】
また、図4は位置ずれ検出動作を示すフローチャートであり、図5〜図9はカメラ13により撮像され画像処理部25で画像処理された後、画像表示ウィンドウ28に表示された画像を示す説明図である。
【0025】
先ず、R軸用のカメラステージ14およびθ軸用のカメラステージ15によりカメラ13を一方向(R軸方向)および回転方向(θ軸方向)に移動させ、カメラ13を半導体ウエハ16表面における領域32を撮像可能な位置に配置する。そして、図5に示すように、カメラ13により半導体ウエハ16の表面の画像を撮像する(ステップS1)。しかる後、変数Iに0を入力する(ステップS2)。
【0026】
次に、図5で示すステップS1で撮像した画像から、図6に示すように、パターンマッチングに適したパターン41を含む領域の画像を切り出し、パターン登録する(ステップS3)。なお、このパターン41としては、図5に示す画像の中央付近に配置された他のパターンと容易に識別可能なものを選択することが好ましい。
【0027】
次に、図5で示すステップS1で撮像した画像とステップS3で登録したパターン41を含む領域の画像とのパターンマッチングを行う(ステップS4)。そして、図7に示すように、パターン41における特定位置としての中心の座標位置を測定し、記憶する(ステップS5)。しかる後、変数Iに[I+1]を入力する(ステップS6)。
【0028】
次に、[I=3]となったか否かを判定する(ステップS7)。[I=3]となっていない場合には、θ軸用のカメラステージ15の駆動によりカメラ13を30度回転させた後、図8に示すように、カメラ13により半導体ウエハ16の表面の画像を撮像する(ステップS8)。そして、再度、ステップS4〜ステップS6の動作を繰り返すことにより、パターン41を含む領域の画像の中心の座標位置を測定し、記憶する。
【0029】
しかる後、再度、[I=3]となったか否かを判定する(ステップS7)。[I=3]となっていない場合には、θ軸用のカメラステージ15の駆動によりカメラ13をさらに30度回転させた後、図9に示すように、カメラ13により半導体ウエハ16の表面の画像を撮像する(ステップS8)。そして、再度、ステップS4〜ステップS6の動作を繰り返すことにより、パターン41を含む領域の画像の中心の座標位置を測定し、記憶する。
【0030】
そして、[I=3]となった場合には、ステップS5において測定した3組のパターン41を含む領域の画像の中心の座標位置を後述する計算式に入力する(ステップS9)。そして、この計算式に基づいて、カメラ13のθ軸方向の回転中心と画像中心(すなわち、対物レンズ12における光軸中心)との間の位置ずれ量を計算する(ステップS10)。
【0031】
次に、上述したカメラ13のθ軸方向の回転中心と画像中心との間の位置ずれ量を計算するための計算式について説明する。
【0032】
先ず、ステージ座標系とスクリーン座標系との関係式について説明する。ここで、ステージ座標系とは、カメラ13を一方向(R軸方向)に移動させるためのR軸用のカメラステージ14と、このR軸用のカメラステージ14を回転方向(θ軸方向)に移動させるためのθ軸用のカメラステージ15とに係る座標系(撮像装置の中心を原点とする撮像装置固有の直交座標系)を指し、スクリーン座標系とは、画像表示ウィンドウ28内における直交座標系を指す。
【0033】
図10は、撮像装置におけるカメラ13が極座標系で(R,θ)の位置に配置された場合におけるステージ座標系とスクリーン座標系との位置関係を模式的に示す説明図であり、図11は画像表示ウィンドウ28の大きさと補助座標系の間系を示す説明図である。
【0034】
なお、これらの図において、X,Yはステージ座標系を、x,yはスクリーン座標系を、Xh,Yhは計算のために使用する補助座標系を、R,θはカメラステージ14、15に係る極座標系を、X’,Y’はX,Y座標系を(R,θ)の座標位置に平行移動した座標系を表す。また、図11におけるWは、表示ウィンドウ28の幅を、また、Hは表示ウィンドウ28の高さを示している。
【0035】
これらの座標系の間には、下記の式1、式2、式3の関係が成り立つ。
【0036】
【式1】

Figure 0003779118
【式2】
Figure 0003779118
【式3】
Figure 0003779118
これらについて、Xh,Yhを介して等式を作成すると下記の式4の通りとなる。
【0037】
【式4】
Figure 0003779118
これを(X,Y)および(x,y)について解くと、下記の式5、式6が得られる。
【0038】
【式5】
Figure 0003779118
【式6】
Figure 0003779118
これらの式が、スクリーン座標系とステージ座標系との関係を表す関係式である。
【0039】
次に、カメラ13のθ軸方向の回転中心と画像中心(すなわち、対物レンズ12における光軸中心)との間の位置ずれ量の計算方法について説明する。
【0040】
図12は、カメラ13がθ方向に角度θだけ回転した場合における回転前のステージ座標系と回転後のステージ座標系との位置関係を模式的に示す説明図である。
【0041】
なお、これらの図において、X,Yはカメラ13が回転する前の上記と同様のステージ座標系を、X’,Y’はカメラ13の回転後のステージ座標系を、x,yはカメラ13が回転する前の上記と同様のスクリーン座標系を、x’,y’はカメラ13の回転後のスクリーン座標系を、Xc,Ycはカメラ13が回転する前の補助座標系を、X’c,Y’cはカメラ13の回転後の補助座標系を表す。また、a,bは、カメラ13のθ軸方向の回転中心と画像中心との位置ずれ量を示している。
【0042】
これらの座標系の間には、下記の式7、式8の関係が成り立つ。
【0043】
【式7】
Figure 0003779118
【式8】
Figure 0003779118
従って、下記の式9が成立する。
【0044】
【式9】
Figure 0003779118
また、補助座標系と画像表示ウィンドウ28の大きさとの関係は下記の式10の通りである。
【0045】
【式10】
Figure 0003779118
これを式9に代入すると下記の式11が得られる。
【0046】
【式11】
Figure 0003779118
この式11をa,bについて解くと、下記の式12が得られる。
【0047】
【式12】
Figure 0003779118
以上から、画像表示ウィンドウ28におけるカメラ13が回転する前のスクリーン座標系x,yおよびカメラ13の回転後のスクリーン座標系x’,y’の各々における、パターン41を含む領域の画像の中心の座標位置が求まれば、上述したカメラ13のθ軸方向の回転中心と画像中心との位置ずれ量a,bを計算することが可能となる。
【0048】
なお、カメラ13のθ軸方向の回転中心と画像中心との位置ずれ量a,bを計算するためには、画像表示ウィンドウ28におけるカメラ13が回転する前のスクリーン座標系x,yおよびカメラ13の回転後のスクリーン座標系x’,y’において、パターン41を含む領域の画像の中心の座標位置を2組認識できればよい。しかしながら、上述した実施形態のように、R軸用のカメラステージ14をθ方向に2度回転させることによりパターン41を含む領域の画像の中心の座標位置を3組認識するようにした場合においては、カメラ13のθ軸方向の回転中心と画像中心との位置ずれ量a,bを3組計算することが可能となる。このため、これらの位置ずれ量a、bを平均すること等により、より精度の高い計算値を得ることが可能となる。
【0049】
次に、上述したカメラ13の位置ずれ検出方法において検出したカメラ13の位置ずれ量に基づいて、特定領域をカメラ13により撮像する際のカメラ13の移動量を補正するための移動量補正方法について説明する。図13は、カメラ13の移動量を補正するための移動量補正方法の基本的な考え方を示す説明図である。
【0050】
この図に示すように、回転中心31と画像中心(対物レンズ12の中心)42との間に、上述した位置ずれ量a、bに相当する位置ずれが生じていた場合においては、特定領域を撮像するための(x,y)の位置に画像中心を移動させるため、下記の式13に基づいてR軸用のカメラステージ14およびθ軸用のカメラステージ15を駆動させたとしても、画像中心42は(x,y)とは異なる座標位置に配置されることになる。このため、位置ずれ量a,bを考慮して画像中心42を移動させる必要がある。
【0051】
【式13】
Figure 0003779118
ここで、(r+a,b)の位置にある画像中心42が角度θだけ回転して(x,y)に移動したとすると、下記の式14が成立する。
【0052】
【式14】
Figure 0003779118
これを解いてrおよびθを求める。なお、これらの式からは2組の解が生ずるが、その一方はr<0となるので、他方の解が求める解となる。
【0053】
従って、下記の式15、16、17で求められるrおよびθに基づき、R軸用のカメラステージ14およびθ軸用のカメラステージ15を駆動してカメラ13を移動させることにより、画像中心を正しく座標位置(x,y)に移動させることが可能となる。
【0054】
【式15】
Figure 0003779118
【式16】
Figure 0003779118
【式17】
Figure 0003779118
なお、上述した実施形態においては、パターン41における特定位置としての中心の座標位置を測定するため、ステップS4において、ステップS1で撮像した画像とステップS3で登録したパターン41を含む領域の画像とのパターンマッチングを行っている。しかしながら、ステップS3においてステップS1で撮像した画像からパターンマッチングに適したパターン41を含む領域の画像を切り出してパターン登録する時にパターン41を含む領域の画像の中心の座標位置が認識できるのであれば、最初のパターンマッチングを省略することも可能である。
【0055】
また、上述した実施形態においては、パターン41における特定位置としてパターン41を含む領域の画像における中心位置を採用しているが、これに換えて、特定位置としてパターン41の先端位置等の他の位置を利用することも可能である。
【0056】
次に、上述した撮像装置において、R軸方向と交差する方向に対するカメラ13の傾きを検出するための傾き検出方法について説明する。
【0057】
図14は、カメラ13により、撮像対象たる半導体ウエハ16の表面における二つの領域32a、32bを撮像する状態を模式的に示す説明図である。なお、以下の説明においては、上述した第1実施形態と同一の部材については、同一の符号を付して詳細な説明を省略する。
【0058】
また、図15は傾き検出動作を示すフローチャートであり、図16は二つの領域32a、32bを撮像したときの画像表示ウィンドウ28a、28bと参照直線44との関係を示す説明図である。
【0059】
先ず、R軸用のカメラステージ14およびθ軸用のカメラステージ15によりカメラ13を一方向(R軸方向)および回転方向(θ軸方向)に移動させ、カメラ13を半導体ウエハ16表面における最初の領域32aを撮像可能な位置に配置する(ステップS1)。このとき、参照直線44が含まれる領域を領域32aとして指定する。
【0060】
ここで、参照直線44は、カメラ13の傾きを検出するために使用する直線である。この参照直線44は、半導体ウエハ16に形成されたパターンのうち、直線部分を有する図形の辺等から選択される。
【0061】
次に、カメラ13により半導体ウエハ16の表面における領域32aの画像を撮像し、このときの画像表示ウィンドウ28aの両端と参照直線44との交点45、46の座標を、図2に示すコンソール27の座標点入力装置29により入力する(ステップS2)。
【0062】
そして、距離aおよび距離bを求める(ステップS3)。
【0063】
ここで、画像表示ウィンドウ28aが、参照直線44と交差する互いに平行で距離Wだけ離隔した第1、第2の辺51、52と、これら第1、第2の辺51、52に直交する第3の辺53とを備えると考えた場合、距離aは第1の辺51と参照直線44の交点45と第3の辺53との距離であり、距離bは第2の辺52と参照直線44の交点46と第3の辺53との距離である。
【0064】
次に、R軸用のカメラステージ14によりカメラ13を参照直線44と交差する方向(図16におけるX方向)に移動させる(ステップS4)。
【0065】
そして、カメラ13により半導体ウエハ16の表面における領域32bの画像を撮像し、このときの画像表示ウィンドウ28bの一端と参照直線44との交点47の座標を、図2に示すコンソール27の座標点入力装置29により入力する(ステップS5)。
【0066】
そして、距離cを求める(ステップS6)。
【0067】
ここで、上記同様、画像表示ウィンドウ28bが、参照直線44と交差する互いに平行で距離Wだけ離隔した第1、第2の辺51、52と、これら第1、第2の辺51、52に直交する第3の辺53とを備えると考えた場合、距離cは第1の辺51と参照直線44の交点47と第3の辺53との距離である。
【0068】
しかる後、ステップS3で求めた距離a、bとステップS6で求めた距離cとから、カメラ13の傾きαを計算する(ステップS7)。
【0069】
次に、上述したカメラ13の傾きαを計算するための計算式について説明する。
【0070】
図16に示すように、カメラ13の移動距離をL、カメラ13の移動方向に対するカメラ13の傾きをα、また、カメラ13の移動方向と参照直線44との角度をθとした場合、下記の式18が成立する。
【0071】
【式18】
Figure 0003779118
この式18からsinαおよびcosαを未知数とする方程式をたて、これを解くと、下記の式19および式20で表される2組の解が得られる。
【0072】
【式19】
Figure 0003779118
【式20】
Figure 0003779118
そして、カメラ13の角度αは微小であることから、これら2組の解のうち、tanα(sinα/cosα)が小さい値をとる方の角度αを、カメラ13の傾きと認定することができる。
【0073】
なお、上述した実施形態においては、画像表示ウィンドウ28a、28bの3辺が、参照直線44と交差する互いに平行で距離Wだけ離隔した第1、第2の辺と51、52と、これら第1、第2の辺51、52に直交する第3の辺53とから構成されている場合について説明しているが、画像表示ウィンドウ28a、28b内に参照直線44と交差する互いに平行で距離Wだけ離隔した第1、第2の辺と51、52と、これら第1、第2の辺51、52に直交する第3の辺53を設定するようにしてもよい。
【0074】
次に、上述したカメラ13の傾き検出方法において検出したカメラ13の傾きに基づいて、特定領域をカメラ13により撮像する際のカメラ13の移動量を補正するための移動量補正方法について説明する。図17は、カメラ13の移動量を補正するための移動量補正方法の基本的な考え方を示す説明図である。撮像装置におけるカメラ13が、極座標系で(R、θ)の位置に配置されているものとする。
【0075】
なお、図17においては、カメラ13の傾斜角が0であった場合の画像表示ウィンドウ28を破線で、また、カメラ13の傾斜角がαであった場合の画像表示ウィンドウ28を実線で示している。
【0076】
図17において、上述したステージ座標系X,Yを画像表示ウィンドウ28の中心に平行移動させた座標系(図17においてXh,Yhで示す座標系)を考えた場合、下記の式21が成立する。
【0077】
【式21】
Figure 0003779118
一方、スクリーン座標系x,yとXα,Yαとの関係は、前述した式3と同様、下記の式22で表される。
【0078】
【式22】
Figure 0003779118
これらから、スクリーン座標系x,yとステージ座標系X,Yとに関し、下記の式23および式24に示す方程式が成立する。
【0079】
【式23】
Figure 0003779118
【式24】
Figure 0003779118
そして、カメラ13の視野内のスクリーン座標系における(x,y)の座標に画像中心を移動させる場合においては、上記式23および式24を利用してスクリーン座標系をステージ座標系に変換した後、上述した式13により求められるrおよびθに基づき、R軸用のカメラステージ14およびθ軸用のカメラステージ15を駆動してカメラ13を移動させることにより、画像中心を正しく座標位置(x,y)に移動させることが可能となる。
【0080】
上述した実施形態においては、いずれも、支持部材17上に固定状態で載置された半導体ウエハ16に対してカメラ13を一方向(R軸方向)および回転方向(θ軸方向)に移動させているが、固定状態のカメラ13に対して半導体ウエハ16を一方向(R軸方向)および回転方向(θ軸方向)に移動させるようにしてもよい。
【0081】
【発明の効果】
請求項1乃至請求項3に記載の発明によれば、特定の基準マークを設けることなく正確にカメラの位置ずれ量を検出することが可能となる。
【0082】
請求項4に記載の発明によれば、カメラの位置ずれ量の検出値を利用してカメラの移動量を補正することができ、カメラを正確な位置に移動させることが可能となる。
【0083】
請求項5に記載の発明によれば、特定の基準マークを設けることなく正確にカメラの傾きを検出することが可能となる。
【0084】
請求項6に記載の発明によれば、カメラの傾きの検出値を利用してカメラの移動量を補正することができ、カメラを正確な位置に移動させることが可能となる。
【図面の簡単な説明】
【図1】この発明を適用する撮像装置の側面概要図である。
【図2】この撮像装置の主要な電気的構成を示すブロック図である。
【図3】カメラ13により、撮像対象たる半導体ウエハ16の表面における領域32を撮像する状態を模式的に示す説明図である。
【図4】位置ずれ検出動作を示すフローチャートである。
【図5】カメラ13により撮像され画像処理部25で画像処理された後、画像表示ウィンドウ28に表示された画像を示す説明図である。
【図6】カメラ13により撮像され画像処理部25で画像処理された後、画像表示ウィンドウ28に表示された画像を示す説明図である。
【図7】カメラ13により撮像され画像処理部25で画像処理された後、画像表示ウィンドウ28に表示された画像を示す説明図である。
【図8】カメラ13により撮像され画像処理部25で画像処理された後、画像表示ウィンドウ28に表示された画像を示す説明図である。
【図9】カメラ13により撮像され画像処理部25で画像処理された後、画像表示ウィンドウ28に表示された画像を示す説明図である。
【図10】撮像装置におけるカメラ13が極座標系で(R,θ)の位置に配置された場合におけるステージ座標系とスクリーン座標系との位置関係を模式的に示す説明図である。
【図11】画像表示ウィンドウ28の大きさと補助座標系の間系を示す説明図である。
【図12】カメラ13がθ方向に角度θだけ回転した場合における回転前のステージ座標系と回転後のステージ座標系との位置関係を模式的に示す説明図である。
【図13】カメラ13の移動量を補正するための移動量補正方法の基本的な考え方を示す説明図である。
【図14】カメラ13により、撮像対象たる半導体ウエハ16の表面における二つの領域32a、32bを撮像する状態を模式的に示す説明図である。
【図15】図15は傾き検出動作を示すフローチャートである。
【図16】二つの領域32a、32bを撮像したときの画像表示ウィンドウ28a、28bと参照直線44との関係を示す説明図である。
【図17】カメラ13の移動量を補正するための移動量補正方法の基本的な考え方を示す説明図である。
【符号の説明】
12 対物レンズ
13 カメラ
14 カメラステージ
15 カメラステージ
16 半導体ウエハ
17 支持部材
21 中央演算部
22 メモリ
23 カメラ制御部
24 フレームメモリ
25 画像処理部
26 ステージ制御部
27 コンソール
28 画像表示ウィンドウ
29 座標点入力装置
32 領域
41 パターン
42 画像中心
44 参照直線
51 第1の辺
52 第2の辺
53 第3の辺[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera position shift detection method in an image pickup apparatus, a camera tilt detection method in an image pickup apparatus, and a camera movement amount correction method in the image pickup apparatus using these position shift detection method and tilt detection method.
[0002]
[Prior art]
For example, in a polar coordinate imaging apparatus that images the surface of an imaging target by moving the camera in one direction and a rotational direction with respect to the imaging target, between the rotation center of the camera and the center of the image (optical axis) If a position shift occurs, even if the camera is moved to capture a specific area (hereinafter referred to as “specific area”) on the imaging target surface, the imaging area does not exactly match the specific area. . Similarly, in an imaging apparatus that images the surface of the imaging target by moving the camera in one direction with respect to the imaging target, the imaging target surface is arranged in a state where the camera is tilted in a direction that intersects the moving direction. Even if the camera is moved to capture the specific area, the imaging area does not exactly match the specific area. For this reason, it is necessary to adjust the position of the camera so that the center of rotation of the camera and the center of the image (optical axis) are exactly the same, and so that the camera is accurately positioned in the direction that matches the moving direction. is there.
[0003]
Conventionally, a method of finely adjusting the position of the camera mechanically by hand has been employed for adjusting the position of the camera.
[0004]
Japanese Patent Laid-Open No. 9-287919 proposes a method of correcting the position of a camera by reading specific reference marks on a stage on which an imaging target is placed at two locations and performing image processing on the two. .
[0005]
[Problems to be solved by the invention]
In the former method in which the position of the camera is finely adjusted mechanically by manpower, it is difficult to adjust the position of the camera in units of μm.
[0006]
In the latter method of correcting the position of the camera by reading a specific reference mark on the stage on which the imaging target is placed and processing the image at two places, the specific reference mark must be provided on the stage. The problem of having to occur arises.
[0007]
The present invention has been made to solve the above-described problems, and can detect the positional deviation and the inclination of the camera accurately without providing a specific reference mark, or can use these detection values to move the camera. It is an object of the present invention to provide a camera position shift detection method in an imaging apparatus, a camera tilt detection method in an imaging apparatus, and a camera movement amount correction method in the imaging apparatus.
[0008]
[Means for Solving the Problems]
According to a first aspect of the present invention, there is provided a method for detecting a positional deviation of a camera in an imaging apparatus that images a specific area of the imaging target with the camera by relatively moving the imaging target and the camera in one direction and a rotation direction. In the pattern, a first imaging step of imaging the imaging target by the camera, a pattern registration step of cutting out and registering an image of a region including a predetermined pattern from the image captured in the first imaging step, A first coordinate position measurement step of measuring a coordinate position of a specific position, a rotation step of relatively rotating the imaging target and the camera, and the camera Rotated relative to the camera by the rotation process By performing pattern matching between the second imaging step of imaging the surface of the imaging target, the image of the region including the predetermined pattern cut out in the pattern registration step, and the image captured in the second imaging step, A coordinate position of the specific position measured in the second coordinate position measuring step of measuring the coordinate position of the specific position, the coordinate position of the specific position measured in the first coordinate position measuring step, and the second coordinate position measuring step; And a positional deviation amount calculating step for calculating the positional deviation amount of the camera.
[0009]
According to a second aspect of the present invention, in the first aspect of the present invention, in the first coordinate position measuring step, an image of a region including a predetermined pattern cut out in the pattern registration step and the first imaging step By performing pattern matching with the captured image, the coordinate position of a specific position in the pattern is measured.
[0010]
According to a third aspect of the present invention, in the first or second aspect of the present invention, the specific position in the pattern is a center position of a region including the pattern.
[0011]
According to a fourth aspect of the present invention, based on the positional deviation amount of the camera detected in any of the first to third aspects of the invention, the imaging target when the specific area is imaged by the camera and the imaging target It is characterized by correcting a relative movement amount in one direction and a rotation direction with respect to the camera.
[0012]
According to a fifth aspect of the present invention, the image capturing target and the camera are relatively moved in at least one direction, whereby the specific region in the image capturing target is captured in the direction intersecting the moving direction in the image capturing apparatus that captures an image with the camera. A camera tilt detection method for detecting tilt of a camera, wherein a first imaging step of imaging the imaging target by the camera, and a reference line selection step of selecting a reference line from an image captured in the first imaging step, The image captured in the first imaging step includes at least first and second sides parallel to each other that intersect the reference straight line and a third side orthogonal to the first and second sides. For the image display window, the distance a between the intersection of the first side and the reference line and the third side, the intersection of the second side and the reference line, and the third Wherein a first measuring step of measuring a distance b, a moving step of moving said and the imaging target camera only relatively a distance L in a direction intersecting with the reference straight line by the camera with Moved relative to the camera by the moving process A second imaging step of imaging the surface of the imaging target; and an intersection of the first side and the reference line and the third side with respect to the image display window in the image captured in the second imaging step. Measured in the second measuring step for measuring the distance c, the distance a between the intersection of the first side and the reference line measured in the first measuring step, and the third side, and in the first measuring step. The distance b between the intersection of the second side and the reference line and the third side, the intersection of the first side and the reference line measured in the second measurement step, and the third side Inclination calculation for calculating the inclination of the camera from the distance c, the relative movement distance L between the object to be measured and the camera in the moving step, and the distance W between the first side and the second side. And a process.
[0013]
According to a sixth aspect of the present invention, based on the tilt of the camera detected in the fifth aspect of the invention, one direction and a rotation direction of the imaging target and the camera when the specific area is imaged by the camera The relative movement amount is corrected.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic side view of an imaging apparatus to which the present invention is applied.
[0015]
This imaging apparatus rotates a camera 13 having an objective lens 12, an R-axis camera stage 14 for moving the camera 13 in one direction (R-axis direction), and the R-axis camera stage 14. A camera stage 15 for θ axis for moving in the direction (θ axis direction), and a support member 17 for mounting the semiconductor wafer 16 to be imaged.
[0016]
In this image pickup apparatus, the semiconductor 13 is moved in one direction (R-axis direction) and in the rotation direction (θ-axis direction) by the action of the R-axis camera stage 14 and the θ-axis camera stage 15. A desired specific region on the surface facing the lower side of the wafer 16 is imaged by the objective lens 12 of the camera 13.
[0017]
FIG. 2 is a block diagram showing the main electrical configuration of the imaging apparatus.
[0018]
This imaging apparatus includes a central processing unit 21 for controlling the entire apparatus. The central processing unit 21 is connected to a memory 22 including a ROM that stores an operation program necessary for controlling the apparatus and a RAM that temporarily stores data during control.
[0019]
The central processing unit 21 is connected to the camera 13 via a camera control unit 23 for controlling the camera 13. The camera 13 is connected to a frame memory 24 for storing an image captured there. The frame memory 24 is connected to the central processing unit 21 via the image processing unit 25.
[0020]
The central processing unit 21 is connected to the stage control unit 26. The stage control unit 26 is for controlling the R-axis camera stage 14 and the θ-axis camera stage 15 connected thereto.
[0021]
Further, the central processing unit 21 is also connected to a console 27 having an image display window 28 such as a CRT and a coordinate point input device 29 such as a keyboard and a mouse.
[0022]
Next, a positional deviation detection method for detecting a positional deviation between the rotation center of the camera 13 in the θ-axis direction and the image center (that is, the optical axis center of the objective lens 12) in the imaging apparatus described above will be described. .
[0023]
FIG. 3 is an explanatory view schematically showing a state in which the region 13 on the surface of the semiconductor wafer 16 to be imaged is imaged by the camera 13. In this figure, the rotation center 31 of the camera 13 in the θ-axis direction and the image center (that is, the optical axis center of the objective lens 12) are shifted by a and b in the X and Y directions, which will be described later. Exaggerated.
[0024]
FIG. 4 is a flowchart showing the misalignment detection operation. FIGS. 5 to 9 are explanatory diagrams showing images displayed by the image display window 28 after being imaged by the camera 13 and processed by the image processing unit 25. It is.
[0025]
First, the camera 13 is moved in one direction (R-axis direction) and the rotation direction (θ-axis direction) by the R-axis camera stage 14 and the θ-axis camera stage 15, and the camera 13 is moved to a region 32 on the surface of the semiconductor wafer 16. Is placed at a position where it can be imaged. Then, as shown in FIG. 5, an image of the surface of the semiconductor wafer 16 is taken by the camera 13 (step S1). Thereafter, 0 is input to the variable I (step S2).
[0026]
Next, as shown in FIG. 6, an image of an area including the pattern 41 suitable for pattern matching is cut out from the image captured in step S1 shown in FIG. 5, and the pattern is registered (step S3). As the pattern 41, it is preferable to select a pattern that can be easily distinguished from other patterns arranged near the center of the image shown in FIG.
[0027]
Next, pattern matching is performed between the image captured in step S1 shown in FIG. 5 and the image of the region including the pattern 41 registered in step S3 (step S4). Then, as shown in FIG. 7, the central coordinate position as the specific position in the pattern 41 is measured and stored (step S5). Thereafter, [I + 1] is input to the variable I (step S6).
[0028]
Next, it is determined whether or not [I = 3] (step S7). When [I = 3] is not satisfied, the camera 13 is rotated 30 degrees by driving the camera stage 15 for the θ axis, and then, as shown in FIG. Is imaged (step S8). And the coordinate position of the center of the image of the area | region containing the pattern 41 is measured and memorize | stored by repeating the operation | movement of step S4-step S6 again.
[0029]
Thereafter, it is determined again whether or not [I = 3] (step S7). When [I = 3] is not satisfied, the camera 13 is further rotated 30 degrees by driving the camera stage 15 for the θ axis, and then, as shown in FIG. An image is captured (step S8). And the coordinate position of the center of the image of the area | region containing the pattern 41 is measured and memorize | stored by repeating the operation | movement of step S4-step S6 again.
[0030]
If [I = 3], the coordinate position of the center of the image of the area including the three patterns 41 measured in step S5 is input to a calculation formula described later (step S9). Based on this calculation formula, the amount of positional deviation between the rotation center of the camera 13 in the θ-axis direction and the image center (that is, the optical axis center of the objective lens 12) is calculated (step S10).
[0031]
Next, a calculation formula for calculating the amount of positional deviation between the rotation center of the camera 13 in the θ-axis direction and the image center will be described.
[0032]
First, a relational expression between the stage coordinate system and the screen coordinate system will be described. Here, the stage coordinate system refers to an R-axis camera stage 14 for moving the camera 13 in one direction (R-axis direction) and the R-axis camera stage 14 in the rotation direction (θ-axis direction). This refers to a coordinate system (orthogonal coordinate system unique to the imaging apparatus with the center of the imaging apparatus as the origin) related to the θ-axis camera stage 15 for movement, and the screen coordinate system is an orthogonal coordinate in the image display window 28. Refers to the system.
[0033]
FIG. 10 is an explanatory diagram schematically showing the positional relationship between the stage coordinate system and the screen coordinate system when the camera 13 in the imaging apparatus is arranged at the position (R, θ) in the polar coordinate system. It is explanatory drawing which shows the system between the magnitude | size of the image display window 28, and an auxiliary coordinate system.
[0034]
In these drawings, X and Y are stage coordinate systems, x and y are screen coordinate systems, Xh and Yh are auxiliary coordinate systems used for calculation, and R and θ are camera stages 14 and 15. In this polar coordinate system, X ′ and Y ′ represent a coordinate system obtained by translating the X and Y coordinate system to the coordinate position of (R, θ). In FIG. 11, W indicates the width of the display window 28, and H indicates the height of the display window 28.
[0035]
Between these coordinate systems, the following relationships of Formula 1, Formula 2, and Formula 3 hold.
[0036]
[Formula 1]
Figure 0003779118
[Formula 2]
Figure 0003779118
[Formula 3]
Figure 0003779118
About these, when an equation is created via Xh and Yh, the following equation 4 is obtained.
[0037]
[Formula 4]
Figure 0003779118
When this is solved for (X, Y) and (x, y), the following equations 5 and 6 are obtained.
[0038]
[Formula 5]
Figure 0003779118
[Formula 6]
Figure 0003779118
These equations are relational expressions representing the relationship between the screen coordinate system and the stage coordinate system.
[0039]
Next, a method for calculating the amount of positional deviation between the rotation center of the camera 13 in the θ-axis direction and the image center (that is, the optical axis center of the objective lens 12) will be described.
[0040]
FIG. 12 is an explanatory diagram schematically showing the positional relationship between the stage coordinate system before rotation and the stage coordinate system after rotation when the camera 13 is rotated in the θ direction by an angle θ.
[0041]
In these drawings, X and Y are the same stage coordinate system as before before the camera 13 is rotated, X ′ and Y ′ are the stage coordinate system after the camera 13 is rotated, and x and y are the camera 13. X ′, y ′ are the screen coordinate system after the rotation of the camera 13, Xc, Yc are the auxiliary coordinate system before the camera 13 is rotated, and X′c , Y′c represents the auxiliary coordinate system after the rotation of the camera 13. Further, a and b indicate the amount of positional deviation between the rotation center of the camera 13 in the θ-axis direction and the image center.
[0042]
Between these coordinate systems, the following expressions 7 and 8 are established.
[0043]
[Formula 7]
Figure 0003779118
[Formula 8]
Figure 0003779118
Therefore, the following formula 9 is established.
[0044]
[Formula 9]
Figure 0003779118
Further, the relationship between the auxiliary coordinate system and the size of the image display window 28 is as shown in Equation 10 below.
[0045]
[Formula 10]
Figure 0003779118
Substituting this into Equation 9, the following Equation 11 is obtained.
[0046]
[Formula 11]
Figure 0003779118
When Equation 11 is solved for a and b, the following Equation 12 is obtained.
[0047]
[Formula 12]
Figure 0003779118
From the above, the center of the image of the area including the pattern 41 in each of the screen coordinate system x, y before the camera 13 rotates in the image display window 28 and the screen coordinate system x ′, y ′ after the camera 13 rotates. If the coordinate position is obtained, it is possible to calculate the positional deviation amounts a and b between the rotation center of the camera 13 in the θ-axis direction and the image center.
[0048]
Note that in order to calculate the positional deviation amounts a and b between the rotation center of the camera 13 in the θ-axis direction and the image center, the screen coordinate system x and y before the camera 13 rotates in the image display window 28 and the camera 13. It is only necessary to be able to recognize two sets of coordinate positions of the center of the image of the region including the pattern 41 in the screen coordinate system x ′, y ′ after the rotation. However, in the case where three sets of coordinate positions of the center of the image including the pattern 41 are recognized by rotating the R-axis camera stage 14 twice in the θ direction as in the above-described embodiment, It is possible to calculate three sets of positional deviation amounts a and b between the rotation center of the camera 13 in the θ-axis direction and the image center. For this reason, it is possible to obtain a calculated value with higher accuracy by averaging these misregistration amounts a and b.
[0049]
Next, a movement amount correction method for correcting the movement amount of the camera 13 when the specific region is imaged by the camera 13 based on the positional deviation amount of the camera 13 detected in the above-described positional deviation detection method of the camera 13. explain. FIG. 13 is an explanatory diagram showing a basic concept of a movement amount correction method for correcting the movement amount of the camera 13.
[0050]
As shown in this figure, when a positional deviation corresponding to the above-described positional deviation amounts a and b occurs between the rotation center 31 and the image center (center of the objective lens 12) 42, a specific region is defined. Even if the R-axis camera stage 14 and the θ-axis camera stage 15 are driven based on the following expression 13 in order to move the image center to the (x, y) position for imaging, the image center 42 is arranged at a coordinate position different from (x, y). For this reason, it is necessary to move the image center 42 in consideration of the positional deviation amounts a and b.
[0051]
[Formula 13]
Figure 0003779118
Here, if the image center 42 at the position (r + a, b) is rotated by an angle θ and moved to (x, y), the following Expression 14 is established.
[0052]
[Formula 14]
Figure 0003779118
By solving this, r and θ are obtained. Note that two sets of solutions are generated from these equations, but one of them is r <0, and thus the other solution is obtained.
[0053]
Therefore, based on r and θ obtained by the following formulas 15, 16, and 17, the camera center 14 is moved by driving the camera stage 14 for the R axis and the camera stage 15 for the θ axis, so that the center of the image is correctly set. It is possible to move to the coordinate position (x, y).
[0054]
[Formula 15]
Figure 0003779118
[Formula 16]
Figure 0003779118
[Formula 17]
Figure 0003779118
In the above-described embodiment, in order to measure the central coordinate position as the specific position in the pattern 41, in step S4, the image captured in step S1 and the image of the region including the pattern 41 registered in step S3 are used. Pattern matching is performed. However, if the coordinate position of the center of the image of the area including the pattern 41 can be recognized when the image of the area including the pattern 41 suitable for pattern matching is cut out from the image captured in step S1 in step S3 and the pattern is registered, It is also possible to omit the first pattern matching.
[0055]
In the above-described embodiment, the center position in the image of the region including the pattern 41 is adopted as the specific position in the pattern 41. Instead, other positions such as the tip position of the pattern 41 are used as the specific position. It is also possible to use.
[0056]
Next, a tilt detection method for detecting the tilt of the camera 13 with respect to the direction intersecting the R-axis direction in the above-described imaging apparatus will be described.
[0057]
FIG. 14 is an explanatory diagram schematically illustrating a state in which the camera 13 images the two regions 32 a and 32 b on the surface of the semiconductor wafer 16 to be imaged. In the following description, the same members as those in the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted.
[0058]
FIG. 15 is a flowchart showing the tilt detection operation, and FIG. 16 is an explanatory diagram showing the relationship between the image display windows 28a and 28b and the reference straight line 44 when the two areas 32a and 32b are imaged.
[0059]
First, the camera 13 is moved in one direction (R-axis direction) and the rotation direction (θ-axis direction) by the R-axis camera stage 14 and the θ-axis camera stage 15, and the camera 13 is moved to the first surface on the surface of the semiconductor wafer 16. The region 32a is arranged at a position where it can be imaged (step S1). At this time, an area including the reference straight line 44 is designated as the area 32a.
[0060]
Here, the reference straight line 44 is a straight line used for detecting the tilt of the camera 13. The reference straight line 44 is selected from the sides of a figure having a straight line portion among the patterns formed on the semiconductor wafer 16.
[0061]
Next, an image of the region 32a on the surface of the semiconductor wafer 16 is picked up by the camera 13, and the coordinates of the intersections 45 and 46 between the both ends of the image display window 28a and the reference straight line 44 at this time are displayed on the console 27 shown in FIG. The input is performed by the coordinate point input device 29 (step S2).
[0062]
Then, distance a and distance b are obtained (step S3).
[0063]
Here, the image display window 28a is parallel to each other and intersects the reference straight line 44, and is separated from the first and second sides 51 and 52 by a distance W, and the first and second sides 51 and 52 are orthogonal to the first and second sides 51 and 52. 3, the distance a is the distance between the intersection 45 of the first side 51 and the reference line 44 and the third side 53, and the distance b is the second side 52 and the reference line. This is the distance between the intersection 46 of 44 and the third side 53.
[0064]
Next, the camera 13 is moved in the direction intersecting the reference straight line 44 (X direction in FIG. 16) by the R-axis camera stage 14 (step S4).
[0065]
Then, an image of the region 32b on the surface of the semiconductor wafer 16 is picked up by the camera 13, and the coordinates of the intersection 47 between the one end of the image display window 28b and the reference straight line 44 at this time are input to the coordinate points of the console 27 shown in FIG. Input is made by the device 29 (step S5).
[0066]
Then, the distance c is obtained (step S6).
[0067]
Here, similarly to the above, the image display window 28b includes first and second sides 51 and 52 that are parallel to each other and that are separated from each other by a distance W intersecting the reference straight line 44, and the first and second sides 51 and 52. When it is considered that the third side 53 is orthogonal, the distance c is the distance between the first side 51 and the intersection 47 of the reference straight line 44 and the third side 53.
[0068]
Thereafter, the inclination α of the camera 13 is calculated from the distances a and b obtained in step S3 and the distance c obtained in step S6 (step S7).
[0069]
Next, a calculation formula for calculating the above-described tilt α of the camera 13 will be described.
[0070]
As shown in FIG. 16, when the moving distance of the camera 13 is L, the inclination of the camera 13 with respect to the moving direction of the camera 13 is α, and the angle between the moving direction of the camera 13 and the reference straight line 44 is θ, Equation 18 is established.
[0071]
[Formula 18]
Figure 0003779118
When an equation having sin α and cos α as unknowns is constructed from Equation 18 and solved, two sets of solutions represented by Equation 19 and Equation 20 below are obtained.
[0072]
[Formula 19]
Figure 0003779118
[Formula 20]
Figure 0003779118
Since the angle α of the camera 13 is very small, the angle α in which tan α (sin α / cos α) takes a smaller value among these two sets of solutions can be recognized as the tilt of the camera 13.
[0073]
In the above-described embodiment, the three sides of the image display windows 28a and 28b are parallel to each other and intersect with the reference straight line 44, and are separated from each other by a distance W. , The third side 53 orthogonal to the second side 51, 52 is described. However, the image display windows 28a, 28b are parallel to each other and intersect the reference straight line 44 by a distance W. The first and second sides 51 and 52 that are separated from each other, and the third side 53 that is orthogonal to the first and second sides 51 and 52 may be set.
[0074]
Next, a movement amount correction method for correcting the movement amount of the camera 13 when the specific area is imaged by the camera 13 based on the inclination of the camera 13 detected in the above-described inclination detection method of the camera 13 will be described. FIG. 17 is an explanatory diagram showing a basic concept of a movement amount correction method for correcting the movement amount of the camera 13. Assume that the camera 13 in the imaging apparatus is disposed at a position (R, θ) in the polar coordinate system.
[0075]
In FIG. 17, the image display window 28 when the tilt angle of the camera 13 is 0 is indicated by a broken line, and the image display window 28 when the tilt angle of the camera 13 is α is indicated by a solid line. Yes.
[0076]
In FIG. 17, when considering a coordinate system (coordinate system indicated by Xh and Yh in FIG. 17) obtained by translating the above-described stage coordinate systems X and Y to the center of the image display window 28, the following Expression 21 is established. .
[0077]
[Formula 21]
Figure 0003779118
On the other hand, the relationship between the screen coordinate system x, y and Xα, Yα is expressed by the following Expression 22 as in Expression 3 described above.
[0078]
[Formula 22]
Figure 0003779118
From these, the following equations 23 and 24 are established for the screen coordinate system x, y and the stage coordinate system X, Y.
[0079]
[Formula 23]
Figure 0003779118
[Formula 24]
Figure 0003779118
When the image center is moved to the (x, y) coordinates in the screen coordinate system in the field of view of the camera 13, the screen coordinate system is converted into the stage coordinate system using the above equations 23 and 24. Based on r and θ obtained by the above-described equation 13, the R-axis camera stage 14 and the θ-axis camera stage 15 are driven to move the camera 13, so that the image center is correctly positioned at the coordinate position (x, It is possible to move to y).
[0080]
In any of the above-described embodiments, the camera 13 is moved in one direction (R-axis direction) and the rotation direction (θ-axis direction) with respect to the semiconductor wafer 16 placed in a fixed state on the support member 17. However, the semiconductor wafer 16 may be moved in one direction (R-axis direction) and in the rotation direction (θ-axis direction) with respect to the camera 13 in a fixed state.
[0081]
【The invention's effect】
According to the first to third aspects of the invention, it is possible to accurately detect the amount of positional deviation of the camera without providing a specific reference mark.
[0082]
According to the fourth aspect of the present invention, it is possible to correct the movement amount of the camera using the detected value of the displacement amount of the camera, and to move the camera to an accurate position.
[0083]
According to the fifth aspect of the present invention, it is possible to accurately detect the tilt of the camera without providing a specific reference mark.
[0084]
According to the sixth aspect of the present invention, the amount of camera movement can be corrected using the detected value of the tilt of the camera, and the camera can be moved to an accurate position.
[Brief description of the drawings]
FIG. 1 is a schematic side view of an imaging apparatus to which the present invention is applied.
FIG. 2 is a block diagram illustrating a main electrical configuration of the imaging apparatus.
FIG. 3 is an explanatory diagram schematically showing a state in which an area 32 on the surface of a semiconductor wafer 16 to be imaged is imaged by a camera 13;
FIG. 4 is a flowchart showing a misalignment detection operation.
FIG. 5 is an explanatory diagram showing an image displayed on an image display window 28 after being imaged by the camera 13 and subjected to image processing by the image processing unit 25;
6 is an explanatory diagram showing an image displayed on an image display window 28 after being captured by a camera 13 and subjected to image processing by an image processing unit 25. FIG.
7 is an explanatory diagram showing an image displayed on an image display window 28 after being captured by a camera 13 and subjected to image processing by an image processing unit 25. FIG.
8 is an explanatory diagram showing an image displayed on an image display window 28 after being imaged by the camera 13 and subjected to image processing by the image processing unit 25. FIG.
9 is an explanatory diagram showing an image displayed on an image display window 28 after being imaged by the camera 13 and subjected to image processing by the image processing unit 25. FIG.
FIG. 10 is an explanatory diagram schematically showing a positional relationship between a stage coordinate system and a screen coordinate system when a camera 13 in the imaging apparatus is disposed at a position of (R, θ) in a polar coordinate system.
FIG. 11 is an explanatory diagram showing a system between the size of the image display window and the auxiliary coordinate system.
FIG. 12 is an explanatory diagram schematically showing a positional relationship between a stage coordinate system before rotation and a stage coordinate system after rotation when the camera 13 is rotated in the θ direction by an angle θ.
FIG. 13 is an explanatory diagram showing a basic concept of a movement amount correction method for correcting the movement amount of the camera.
14 is an explanatory view schematically showing a state in which two regions 32a and 32b on the surface of the semiconductor wafer 16 to be imaged are imaged by the camera 13. FIG.
FIG. 15 is a flowchart showing an inclination detection operation;
FIG. 16 is an explanatory diagram showing a relationship between the image display windows 28a and 28b and the reference straight line 44 when two regions 32a and 32b are imaged.
FIG. 17 is an explanatory diagram showing a basic concept of a movement amount correction method for correcting the movement amount of the camera.
[Explanation of symbols]
12 Objective lens
13 Camera
14 Camera stage
15 Camera stage
16 Semiconductor wafer
17 Support member
21 Central processing unit
22 memory
23 Camera control unit
24 frame memory
25 Image processing section
26 Stage controller
27 Console
28 Image display window
29 Coordinate point input device
32 areas
41 patterns
42 Image center
44 Reference line
51 First side
52 Second side
53 3rd side

Claims (6)

撮像対象とカメラとを一方向および回転方向に相対的に移動させることにより、前記撮像対象における特定領域を前記カメラにより撮像する撮像装置におけるカメラの位置ずれ検出方法であって、
前記カメラにより前記撮像対象を撮像する第1撮像工程と、
前記第1撮像工程において撮像した画像から所定のパターンを含む領域の画像を切り出して登録するパターン登録工程と、
前記パターンにおける特定位置の座標位置を測定する第1座標位置測定工程と、
前記撮像対象と前記カメラとを相対的に回転させる回転工程と、
前記カメラにより前記回転工程により前記カメラに対して相対的に回転された撮像対象の表面を撮像する第2撮像工程と、
前記パターン登録工程において切り出した所定のパターンを含む領域の画像と前記第2撮像工程において撮像した画像とのパターンマッチングを行うことにより、前記パターンにおける特定位置の座標位置を測定する第2座標位置測定工程と、
前記第1座標位置測定工程で測定した前記特定位置の座標位置と前記第2座標位置測定工程とで測定した前記特定位置の座標位置とから、前記カメラの位置ずれ量を計算する位置ずれ量計算工程と、
を備えたことを特徴とする撮像装置におけるカメラの位置ずれ検出方法。
A method of detecting a displacement of a camera in an imaging apparatus that images a specific area in the imaging target by moving the imaging target and the camera relative to each other in one direction and a rotation direction,
A first imaging step of imaging the imaging object by the camera;
A pattern registration step of cutting out and registering an image of a region including a predetermined pattern from the image captured in the first imaging step;
A first coordinate position measuring step of measuring a coordinate position of a specific position in the pattern;
A rotation step of relatively rotating the imaging target and the camera;
A second imaging step of imaging the surface of the imaging target rotated relative to the camera by the rotation step by the camera ;
Second coordinate position measurement for measuring the coordinate position of a specific position in the pattern by performing pattern matching between the image of the region including the predetermined pattern cut out in the pattern registration step and the image picked up in the second imaging step Process,
A positional deviation amount calculation for calculating a positional deviation amount of the camera from the coordinate position of the specific position measured in the first coordinate position measurement step and the coordinate position of the specific position measured in the second coordinate position measurement step. Process,
A camera positional deviation detection method in an imaging apparatus comprising:
請求項1に記載の撮像装置におけるカメラの位置ずれ検出方法において、
前記第1座標位置測定工程においては、前記パターン登録工程において切り出した所定のパターンを含む領域の画像と前記第1撮像工程において撮像した画像とのパターンマッチングを行うことにより、前記パターンにおける特定位置の座標位置を測定する撮像装置におけるカメラの位置ずれ検出方法。
The method of detecting a displacement of a camera in an imaging apparatus according to claim 1.
In the first coordinate position measurement step, pattern matching between the image of the region including the predetermined pattern cut out in the pattern registration step and the image picked up in the first image pickup step is performed, so that the specific position in the pattern is determined. A method for detecting a displacement of a camera in an imaging apparatus for measuring a coordinate position.
請求項1または請求項2いずれかに記載の撮像装置におけるカメラの位置ずれ検出方法において、
前記パターンにおける特定位置は、前記パターンを含む領域の中心位置である撮像装置におけるカメラの位置ずれ検出方法。
In the camera position shift detection method in the imaging device according to claim 1 or 2,
The specific position in the pattern is a camera position shift detection method in the imaging apparatus, which is a center position of an area including the pattern.
請求項1乃至請求項3いずれかに記載の撮像装置におけるカメラの位置ずれ検出方法において検出したカメラの位置ずれ量に基づいて、前記特定領域を前記カメラにより撮像する際の前記撮像対象と前記カメラとの一方向および回転方向の相対的な移動量を補正することを特徴とする撮像装置におけるカメラの移動量補正方法。  4. The imaging object and the camera when the specific area is imaged by the camera based on a camera positional deviation amount detected by the camera positional deviation detection method in the imaging apparatus according to claim 1. And correcting a relative movement amount in one direction and a rotation direction of the camera. 撮像対象とカメラとを少なくとも一方向に相対的に移動させることにより、前記撮像対象における特定領域を前記カメラにより撮像する撮像装置における前記移動方向と交差する方向に対するカメラの傾きを検出するカメラの傾き検出方法であって、
前記カメラにより前記撮像対象を撮像する第1撮像工程と、
前記第1撮像工程において撮像した画像から参照直線を選択する参照直線選択工程と、
前記第1撮像工程において撮像した画像における、前記参照直線と交差する互いに平行な第1、第2の辺と、これら第1、第2の辺に直交する第3の辺とを少なくとも備えた画像表示ウィンドウに対し、前記第1の辺と前記参照直線の交点と前記第3の辺との距離aと、前記第2の辺と前記参照直線の交点と前記第3の辺との距離bとを測定する第1測定工程と、
前記撮像対象と前記カメラとを前記参照直線と交差する方向に相対的に距離Lだけ移動させる移動工程と、
前記カメラにより前記移動工程により前記カメラに対して相対的に移動された撮像対象の表面を撮像する第2撮像工程と、
前記第2撮像工程において撮像した画像における、前記画像表示ウィンドウに対し、前記第1の辺と前記参照直線の交点と前記第3の辺との距離cを測定する第2測定工程と、
前記第1測定工程で測定した前記第1の辺と前記参照直線の交点と前記第3の辺との距離aと、前記第1測定工程で測定した前記第2の辺と前記参照直線の交点と前記第3の辺との距離bと、前記第2測定工程で測定した前記第1の辺と前記参照直線の交点と前記第3の辺との距離cと、前記移動工程における前記被測定物と前記カメラとの相対移動距離Lと、前記第1の辺と前記第2の辺との距離Wとから、前記カメラの傾きを計算する傾き計算工程と、
を備えたことを特徴とする撮像装置におけるカメラの傾き検出方法。
Camera tilt for detecting the tilt of the camera with respect to the direction intersecting the moving direction in an imaging device that captures a specific area of the imaging target with the camera by relatively moving the imaging target and the camera in at least one direction A detection method,
A first imaging step of imaging the imaging object by the camera;
A reference line selection step of selecting a reference line from the image captured in the first imaging step;
In the image captured in the first imaging step, an image including at least first and second sides parallel to each other that intersect the reference straight line, and a third side orthogonal to the first and second sides. A distance a between the intersection of the first side and the reference line and the third side and a distance b between the intersection of the second side and the reference line and the third side with respect to the display window A first measuring step for measuring
A moving step of moving the imaging target and the camera relatively by a distance L in a direction intersecting the reference straight line;
A second imaging step of imaging the surface of the imaging target moved relative to the camera by the camera by the moving step ;
A second measurement step of measuring a distance c between the intersection of the first side and the reference straight line and the third side with respect to the image display window in the image captured in the second imaging step;
The distance a between the intersection of the first side and the reference line and the third side measured in the first measurement step, and the intersection of the second side and the reference line measured in the first measurement step And the distance b between the third side and the distance c between the intersection of the first side and the reference straight line measured in the second measuring step and the third side, and the measurement target in the moving step An inclination calculation step of calculating an inclination of the camera from a relative movement distance L between the object and the camera and a distance W between the first side and the second side;
A camera tilt detection method in an image pickup apparatus.
請求項5に記載の撮像装置におけるカメラの傾き検出方法において検出したカメラの傾きに基づいて、前記特定領域を前記カメラにより撮像する際の前記撮像対象と前記カメラとの一方向および回転方向の相対的な移動量を補正することを特徴とする撮像装置におけるカメラの移動量補正方法。  6. The one-way and relative rotation directions of the imaging target and the camera when the specific area is imaged by the camera based on the camera tilt detected by the camera tilt detection method in the imaging device according to claim 5. A method for correcting the amount of movement of a camera in an imaging apparatus, wherein the amount of movement is corrected.
JP2000037530A 2000-02-16 2000-02-16 Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus Expired - Fee Related JP3779118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000037530A JP3779118B2 (en) 2000-02-16 2000-02-16 Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000037530A JP3779118B2 (en) 2000-02-16 2000-02-16 Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus

Publications (2)

Publication Number Publication Date
JP2001227915A JP2001227915A (en) 2001-08-24
JP3779118B2 true JP3779118B2 (en) 2006-05-24

Family

ID=18561408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000037530A Expired - Fee Related JP3779118B2 (en) 2000-02-16 2000-02-16 Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus

Country Status (1)

Country Link
JP (1) JP3779118B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118509576A (en) * 2018-11-19 2024-08-16 信利光电股份有限公司 Method and device for measuring optical center position of camera module
CN113808188B (en) * 2021-08-17 2023-09-19 苏州市路远智能装备有限公司 Imaging method for element

Also Published As

Publication number Publication date
JP2001227915A (en) 2001-08-24

Similar Documents

Publication Publication Date Title
JP4446609B2 (en) Image processing method and apparatus
JP2008036918A (en) Screen printing equipment, and method for image recognition and alignment
TW538231B (en) Image processing method and device, and wire-bonding device
JP2008014700A (en) Workpiece inspection method and workpiece inspection device
JP3855244B2 (en) Three-dimensional image recognition device using a microscope
JP5538179B2 (en) Image processing apparatus and image processing method
JP3491106B2 (en) Position detecting device, positioning device and position measuring method
KR0169845B1 (en) Method and apparatus for detecting ball at wire bonding part
JP2002280440A (en) Method for automatically controlling positional correction of rotary stage in inspection instrument
JP3779118B2 (en) Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus
JPH0970781A (en) Method for calibrating three dimensional position of self sustaining traveling robot
JP3511551B2 (en) Robot arm state detection method and detection system
JP2008294065A (en) Mounting method and mounting device for electronic component
JP4890904B2 (en) Component position detection method and apparatus
US20080008381A1 (en) Coordinate acquisition apparatus for test of printed board, and coordinate acquisition method and program for test thereof
JP2001155674A (en) Measurement method and correction method of the deviation of electron beam scanning axis with stage moving axis and stage moving error in scanning electron microscope
JPH0541598A (en) Correcting method for component mounting position
JP3774320B2 (en) Wafer position grasping method, exposure method, and exposure apparatus
JPH10318732A (en) Shape measuring device and image formation apparatus of shape measurement
JPH0755427A (en) Lead position detector
KR100287319B1 (en) Rotation direction detection method, measurement position determination method and apparatus therefor
JP4565898B2 (en) 3D object surveying device with tilt correction function
JPH08110206A (en) Method and apparatus for detecting position and posture
JP2006112930A (en) Object-shape discriminating method and apparatus
JP2974794B2 (en) Multi-view recognition method for polygonal parts

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060301

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090310

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees