JPS62206684A - パタ−ン投影による位置形状計測方法 - Google Patents
パタ−ン投影による位置形状計測方法Info
- Publication number
- JPS62206684A JPS62206684A JP61048677A JP4867786A JPS62206684A JP S62206684 A JPS62206684 A JP S62206684A JP 61048677 A JP61048677 A JP 61048677A JP 4867786 A JP4867786 A JP 4867786A JP S62206684 A JPS62206684 A JP S62206684A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pattern
- edge
- projection
- corresponding point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 72
- 238000005259 measurement Methods 0.000 claims abstract description 13
- FOCGWLUKTRKABV-XBXARRHUSA-N 1-[2-oxo-2-[4-[(e)-3-phenylprop-2-enyl]piperazin-1-yl]ethyl]pyrrolidin-2-one Chemical compound C1CN(C\C=C\C=2C=CC=CC=2)CCN1C(=O)CN1CCCC1=O FOCGWLUKTRKABV-XBXARRHUSA-N 0.000 abstract 1
- 230000008569 process Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 33
- 238000004364 calculation method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(発明の属する技術分野)
本発明は、パターン投影による物体の位置形状計測方法
に関するものである。
に関するものである。
(従来の技術)
物体に光を投影し、三角測量原理に基づいて物体の位置
形状を計測する代表的手法に、スポット光投影法、スリ
ット光投影法、パターン投影法がある。
形状を計測する代表的手法に、スポット光投影法、スリ
ット光投影法、パターン投影法がある。
スポット光投影法は、計測点が1点だけであるので全体
の形状を知るにはスポット光の2次元走査が必要である
。
の形状を知るにはスポット光の2次元走査が必要である
。
また、スリット光投影法は、1本のスリットを物体に照
射して得られるスリット像からスリット照射部分の位置
(空間座標値)を得るものである。
射して得られるスリット像からスリット照射部分の位置
(空間座標値)を得るものである。
カメラの位置・方位が既知であることと同時に、スリッ
ト各点及び光源位置が既知であることが前提条件である
。
ト各点及び光源位置が既知であることが前提条件である
。
物体形状を知るには、1本のスリットを走査しながら、
画面を処理する。
画面を処理する。
スリット走査は、間欠動作を行なう必要があるため、機
械的走査に長い走査時間を要する6また、画像入出力と
画像処理演算を多重に繰返すため、長い処理時間を要す
る。
械的走査に長い走査時間を要する6また、画像入出力と
画像処理演算を多重に繰返すため、長い処理時間を要す
る。
一方、スリット光投影法において、1枚の画像を処理す
るだけでよいように、かつ、機械的なスリット走査を不
要とするため、複数本のスリットあるいは、特殊なパタ
ーンを1回で投影し、1枚の画像の処理だけで計測を完
了する方法が従来考えられてきた。これがパターン投影
法と呼ばれているものである。
るだけでよいように、かつ、機械的なスリット走査を不
要とするため、複数本のスリットあるいは、特殊なパタ
ーンを1回で投影し、1枚の画像の処理だけで計測を完
了する方法が従来考えられてきた。これがパターン投影
法と呼ばれているものである。
パターン投影器としてはスライドプロジェクタが使われ
る。
る。
従来のパターン投影法では、テレビカメラにより得たパ
ターン画像の各点が、パターン原画のどの部分に相当し
、空間座標系でどの位置座標になっているかを識別する
必要がある。
ターン画像の各点が、パターン原画のどの部分に相当し
、空間座標系でどの位置座標になっているかを識別する
必要がある。
この識別のため、2種の方法が考えられていた。
1つは、パターンの色、形などに特徴をもたせてパター
ン画像とパターン原画とを直接対応付けする方法。
ン画像とパターン原画とを直接対応付けする方法。
他のもう1つは、先ずパターン画像とパターン原画との
対応の候補を画像処理により得てから、2台目のカメラ
の画像を用いて対応の正誤判定を行なうことにより、あ
るいは、2台のカメラの画像間で対応候補を得てから、
パターン原画により対応の正誤判定を行なうことにより
、最終的にパターン画像とパターン原画、または2枚の
パターン画像の対応を決定する方法である。
対応の候補を画像処理により得てから、2台目のカメラ
の画像を用いて対応の正誤判定を行なうことにより、あ
るいは、2台のカメラの画像間で対応候補を得てから、
パターン原画により対応の正誤判定を行なうことにより
、最終的にパターン画像とパターン原画、または2枚の
パターン画像の対応を決定する方法である。
これらの方法では、パターン原画の各点の空間座標系で
の位置、及び投影レンズ中心位置が既知であることが必
要条件である。
の位置、及び投影レンズ中心位置が既知であることが必
要条件である。
このため、パターン原画をパターン投影する際に、パタ
ーン原画の位置を正確に校正しておかねばならない。こ
の校正は、投影パターンのカメラ画像を介して間接的に
行なう必要があるため、煩雑な作業を要し、また、高い
校正精度を得ることが困難である。
ーン原画の位置を正確に校正しておかねばならない。こ
の校正は、投影パターンのカメラ画像を介して間接的に
行なう必要があるため、煩雑な作業を要し、また、高い
校正精度を得ることが困難である。
以上述べたパターン原画位置校正の問題に加え、投影レ
ンズ中心位置校正に次の問題がある。
ンズ中心位置校正に次の問題がある。
パターンが物体上で鮮明になるように、投影レンズをし
ばしば動かす必要があり、さらにまた。
ばしば動かす必要があり、さらにまた。
ズーミングが時には必要となる。このため、投影レンズ
位置が変動し易い。この変動の都度、投影レンズ位置校
正が必要となる。このことは、パターン原画位置校正と
同様、計測の簡易化の大きな障害となるばかりでなく、
校正誤差に伴う空間分解能の低下と計測精度の低下を招
く。
位置が変動し易い。この変動の都度、投影レンズ位置校
正が必要となる。このことは、パターン原画位置校正と
同様、計測の簡易化の大きな障害となるばかりでなく、
校正誤差に伴う空間分解能の低下と計測精度の低下を招
く。
すなわち、パターン原画と投影レンズの空間座標位置を
かなりの頻度で校正する必要があり、かつその校正には
、投影パターンのカメラ画像を使った間接的手法に頼ら
ざるを得ないため、高い校正精度は望めない。小さい校
正誤差であっても空間分解能、及び計測精度を著しく低
下させるため、従来手法では高い空間分解能と計測精度
を期待できない。
かなりの頻度で校正する必要があり、かつその校正には
、投影パターンのカメラ画像を使った間接的手法に頼ら
ざるを得ないため、高い校正精度は望めない。小さい校
正誤差であっても空間分解能、及び計測精度を著しく低
下させるため、従来手法では高い空間分解能と計測精度
を期待できない。
以上説明したように、従来のパターン投影法では、パタ
ーン原画上の各パターンエツジの空間座標系における位
置を正確に把握しておく必要があり、そのため手続きが
煩雑となり、加えて、高い分解能と精度を得ることが実
際上困難であった。
ーン原画上の各パターンエツジの空間座標系における位
置を正確に把握しておく必要があり、そのため手続きが
煩雑となり、加えて、高い分解能と精度を得ることが実
際上困難であった。
また、従来の投影法では、複数本スリットパターンが使
われ、スリットの明るい部分の中央を特徴点とし、対応
付けがなされていた。。
われ、スリットの明るい部分の中央を特徴点とし、対応
付けがなされていた。。
複数のスリットパターンを用いた場合、競合する対応点
候補が複数発生し、計測分解能を高める目的でスリット
間隔を小さくすると、その発生が著しくなり、多くの偽
対応が発生した。
候補が複数発生し、計測分解能を高める目的でスリット
間隔を小さくすると、その発生が著しくなり、多くの偽
対応が発生した。
正しい対応点を選別するには、物体に関する多くの知識
を用いてヒユーリスティックに処理する方法が考えられ
るが、処理時間が長くなり、かつ対象物体により処理内
容が異なって汎用性が劣る。
を用いてヒユーリスティックに処理する方法が考えられ
るが、処理時間が長くなり、かつ対象物体により処理内
容が異なって汎用性が劣る。
また、従来はエツジの方向を特徴量として、対応の際に
利用された例がなく、また、仮に利用するとしても、ス
リットパターンではエツジの方向が単一であるため利用
効果がない。
利用された例がなく、また、仮に利用するとしても、ス
リットパターンではエツジの方向が単一であるため利用
効果がない。
このように、従来のパターン構造では偽対応が多く発生
する欠点があった。
する欠点があった。
(発明の目的)
本発明の目的は、パターン原画及び投影レンズの位置校
正を全く不要としたパターン投影法と。
正を全く不要としたパターン投影法と。
そのパターン投影法において計測効率を高めるためのパ
ターン構造とを提供することにある。
ターン構造とを提供することにある。
(発明の構成)
(発明の特徴と従来の技術との差異)
本発明は、投影したパターンを3点もしくはそれ以上の
視点から観測し、得られた3枚以上の画像間で対応付け
を行なうこと、及び、パターンを複数のエツジ方向を有
するパターン要素で構成し、エツジ方向を特徴量として
対応付けを行なうことを主要な特徴とする。
視点から観測し、得られた3枚以上の画像間で対応付け
を行なうこと、及び、パターンを複数のエツジ方向を有
するパターン要素で構成し、エツジ方向を特徴量として
対応付けを行なうことを主要な特徴とする。
この利点は大別して次の2点である。
(i)パターン原画と投影レンズの位置座標に関する校
正を全く不要としたため、従来のようなパターン原画と
投影レンズの位置座標の校正のための煩雑さと校正誤差
の影響を取除くことができる。すなわち、任意のパター
ン原画を任意の位置から投影するだけでよく、簡易とな
り、かつ精度が高い。
正を全く不要としたため、従来のようなパターン原画と
投影レンズの位置座標の校正のための煩雑さと校正誤差
の影響を取除くことができる。すなわち、任意のパター
ン原画を任意の位置から投影するだけでよく、簡易とな
り、かつ精度が高い。
(ii)画像間の対応付けの計算には、従来長い処理時
間を有していたが1本方法では、基本的にエツジ方向の
比較だけで対応付けをするため、処理が簡単で処理時間
が短い。
間を有していたが1本方法では、基本的にエツジ方向の
比較だけで対応付けをするため、処理が簡単で処理時間
が短い。
すなわち、効率的な対応付けが可能である。
(実施例)
第1図は、本発明におけるパターン投影法構成図であっ
て、1〜3はテレビカメラ、4はスライドプロジェクタ
、5〜7はスライドプロジェクタ内部を示し、5はパタ
ーン原画、6はランプ、7は投影レンズである。また、
8は計測対象物体、9は投影パターンである。但し、テ
レビカメラ1〜3は3角配置されている。
て、1〜3はテレビカメラ、4はスライドプロジェクタ
、5〜7はスライドプロジェクタ内部を示し、5はパタ
ーン原画、6はランプ、7は投影レンズである。また、
8は計測対象物体、9は投影パターンである。但し、テ
レビカメラ1〜3は3角配置されている。
第2図は、第1図に示す実施例におけるテレビカメラ1
,2.3により得られる投影されたパターン画像3枚に
ついて、画像間対応点処理の原理を示す図である。
,2.3により得られる投影されたパターン画像3枚に
ついて、画像間対応点処理の原理を示す図である。
カメラ1,2及び3から得た画像をそれぞれ11゜12
.13とする。また、各カメラのレンズ中心をoA。
.13とする。また、各カメラのレンズ中心をoA。
Ol、Ocとする。また、スライドプロジェクタ4を使
って物体上に投影したパターンの任意のエツジ点pの像
a、b、cは夫々視線oAp、o、p及びOcP上にの
っているため、像Cは視線OAP及びOiPの画像Cへ
の射影直線り、、 L、上に存在する。すなわち、点C
はこの2本の射影直線の交点と一致する。
って物体上に投影したパターンの任意のエツジ点pの像
a、b、cは夫々視線oAp、o、p及びOcP上にの
っているため、像Cは視線OAP及びOiPの画像Cへ
の射影直線り、、 L、上に存在する。すなわち、点C
はこの2本の射影直線の交点と一致する。
画像A中の点aに対する画像B上の対応点は、視線OA
Pの画像Bへの射影直線り、上にある。
Pの画像Bへの射影直線り、上にある。
L3上で対応点候補すを選ぶと、aとbo両者に同時に
対応する画像C上の像はL工とL2の交点Cにならなけ
ればならない。
対応する画像C上の像はL工とL2の交点Cにならなけ
ればならない。
しかし、誤った対応点候補、例えば図中b′を選ぶと、
視線0.b′aの画像Cへの射影直線はり、となり、a
とb′の両者に同時に対応する点はLlとL4の交点C
′となって正しい対応点Cから大きくはずれる。このた
め、aとC′の近傍の類似度は著しく低下し、b′が誤
対応であることを容易に判定できる。
視線0.b′aの画像Cへの射影直線はり、となり、a
とb′の両者に同時に対応する点はLlとL4の交点C
′となって正しい対応点Cから大きくはずれる。このた
め、aとC′の近傍の類似度は著しく低下し、b′が誤
対応であることを容易に判定できる。
このように2枚の画像から得られる対応点候補について
各々の視線の第3の画像への射影直線の交点(以降予測
対応点と呼ぶ)を求め、その近傍と対応点候補の類似度
を調べることにより、対応の正誤を容易に判定すること
ができる。
各々の視線の第3の画像への射影直線の交点(以降予測
対応点と呼ぶ)を求め、その近傍と対応点候補の類似度
を調べることにより、対応の正誤を容易に判定すること
ができる。
この例では視点を3点とした−が、視点が4点以上の場
合も対応付けの原理、及び手順は全く同様である。
合も対応付けの原理、及び手順は全く同様である。
第3図は投影パターンの3眼画像の立体視対応点処理の
流れの実施例を示すフローチャートである。
流れの実施例を示すフローチャートである。
この第3図において、 14.15は画像処理の分野で
一部によく行なわれる前処理で、この処理14は3画像
のエツジ強度・方向を検出するエツジ検出処理であり、
従来種々の方法が提案されている。
一部によく行なわれる前処理で、この処理14は3画像
のエツジ強度・方向を検出するエツジ検出処理であり、
従来種々の方法が提案されている。
ここではロビンソン・オペレータによるエツジ検出を行
なう。また、処理15は細線化を行なって特徴点を得る
細線化処理である。そして、エツジ強度がやや大きい点
すべてにおいてエツジ方向(立体の稜の部分では稜線の
方向)に垂直な方向のエツジ強度の変化を調べ、エツジ
強度が最大となる点を特徴点(エツジ)とする。
なう。また、処理15は細線化を行なって特徴点を得る
細線化処理である。そして、エツジ強度がやや大きい点
すべてにおいてエツジ方向(立体の稜の部分では稜線の
方向)に垂直な方向のエツジ強度の変化を調べ、エツジ
強度が最大となる点を特徴点(エツジ)とする。
16はテレビカメラ7の画像11の各特徴点(エツジ)
について射影直線L1. L、の方程式、テレビカメラ
2及び3の画像12及び13の各特徴点(エツジ)につ
いてそれぞれ投影直線L2及びり、の方程式を算出する
処理である。そして処理16では、各特徴点(エツジ)
について、そのエツジが投影直線り、とほぼ平行(実施
例では方向角度差25°以内のとき平行として扱った)
のとき処理20に、さもなくば処理17に処理をふり分
ける。
について射影直線L1. L、の方程式、テレビカメラ
2及び3の画像12及び13の各特徴点(エツジ)につ
いてそれぞれ投影直線L2及びり、の方程式を算出する
処理である。そして処理16では、各特徴点(エツジ)
について、そのエツジが投影直線り、とほぼ平行(実施
例では方向角度差25°以内のとき平行として扱った)
のとき処理20に、さもなくば処理17に処理をふり分
ける。
17はテレビカメラ1の画像11とテレビカメラ2の画
像12の初期対応付けを行なう処理であり1画像11の
各特徴点(エツジ)に対する画像12上の対応点候補を
優先順位をつけて選び出す。
像12の初期対応付けを行なう処理であり1画像11の
各特徴点(エツジ)に対する画像12上の対応点候補を
優先順位をつけて選び出す。
そして、評価値は、エツジ方向の角度の差により表わす
。
。
この値が45°以上、あるいは、予め定めた閾値より大
きい画像12上の特徴点(エツジ)に対しては対応点候
補ではないと判定する。
きい画像12上の特徴点(エツジ)に対しては対応点候
補ではないと判定する。
ここで、この対応点候補が1つもなかった特徴点(エツ
ジ)については処理17で対応点なしとして処理を終了
する。
ジ)については処理17で対応点なしとして処理を終了
する。
1Bは処理17により求めた各対応点候補について、画
像13上の2本の投影直線の交点、すなわち、予測対応
点を算出する処理である。
像13上の2本の投影直線の交点、すなわち、予測対応
点を算出する処理である。
そして、2本の投影直線
ad−biJ−c、= Oと a2I −b2J −
c2= 0(axe blt QLt a2t bat
02は定数)の交点は((01bz−Qz bl)/
(ax bz−as btL(ax Q、−at c
z)/ (at bz a、 bt))で与えられる
。
c2= 0(axe blt QLt a2t bat
02は定数)の交点は((01bz−Qz bl)/
(ax bz−as btL(ax Q、−at c
z)/ (at bz a、 bt))で与えられる
。
ここで、この予測対応点の周辺で画素間隔の3倍以内の
範囲にエツジ(特徴点)が存在する場合には、最も近く
にあるエツジ点を正しい予測対応点として修正する。
範囲にエツジ(特徴点)が存在する場合には、最も近く
にあるエツジ点を正しい予測対応点として修正する。
これはカメラ位置・パラメータの誤差や、像の歪などに
より、本来エツジにのるべき予測対応点がずれることが
あるからであり、また、整数計算による四捨五入の誤差
の蓄積によってもずれが生じるからである。
より、本来エツジにのるべき予測対応点がずれることが
あるからであり、また、整数計算による四捨五入の誤差
の蓄積によってもずれが生じるからである。
なお、この実施例の実験結果によれば、ずれは画素間隔
の3倍以内に入っていた。 519は画像11の特徴
点(エツジ)と画像13の予測対応点について評価値を
求める処理である。
の3倍以内に入っていた。 519は画像11の特徴
点(エツジ)と画像13の予測対応点について評価値を
求める処理である。
ここで、この評価値はエツジ方向の角度差とした。
そして、処理23において、対応点候補のうち、評価値
が閾値以下であって、かつ最小のものを選択し、それを
対応点と決定する。
が閾値以下であって、かつ最小のものを選択し、それを
対応点と決定する。
一方、20は画像12の代わりに画像13と初期対応付
けを行なう処理である。
けを行なう処理である。
そして、その設定値は処理17の場合と同様に、画像1
1の特徴点(エツジ)及び画像13の射影直線上の特徴
点(エツジ)のエツジ方向を比較して求めた。
1の特徴点(エツジ)及び画像13の射影直線上の特徴
点(エツジ)のエツジ方向を比較して求めた。
この評価式はエツジ方向の角度差である。これにより1
画像13上の対応点候補を選択する。
画像13上の対応点候補を選択する。
ここで、対応点候補が1つも見つからなかった特徴点(
エツジ)については処理20で対応点なしとして処理を
終了する。
エツジ)については処理20で対応点なしとして処理を
終了する。
21は処理18と同様に処理20により求めた画像13
上の各対応点候補について、画像12上の2本の射影直
線L3及びり、の交点、すなわち、予測対応点を算出す
る処理である。ただし、Lsは視線Oc Pの画像12
への射影直線である。
上の各対応点候補について、画像12上の2本の射影直
線L3及びり、の交点、すなわち、予測対応点を算出す
る処理である。ただし、Lsは視線Oc Pの画像12
への射影直線である。
22は処理19と同様に画像11の特徴点(エツジ)及
び画像12の予測対応点のエツジ方向を比較し、評価値
を求める処理である。
び画像12の予測対応点のエツジ方向を比較し、評価値
を求める処理である。
そして、処理23において、対応点候補のうち、評価値
が閾値以下であり、かつ最小のものを選択し、それを対
応点とする。
が閾値以下であり、かつ最小のものを選択し、それを対
応点とする。
ここで、もしも対応点が見つからなかった特徴点(エツ
ジ)については対応点確定処理23によって対応点なし
として処理を終了する。
ジ)については対応点確定処理23によって対応点なし
として処理を終了する。
24は対応点処理の結果に基づき画像11の各特徴点(
エツジ)について実空間座標を求める処理である。
エツジ)について実空間座標を求める処理である。
そして、処理25では上述の処理結果を3次元立体表示
する。具体的には、x−y、y−Z、X−Z(7)透視
図に変換する。
する。具体的には、x−y、y−Z、X−Z(7)透視
図に変換する。
次に、パターンの構造について第4図を使って説明する
。
。
51は円形パターン、52は8角形パターン、53はエ
ツジ方向を図示したものである。
ツジ方向を図示したものである。
円形パターンの場合には、エツジ方向はO〜360”に
わたり均等に分布しており、8角形パターンでは8方向
酸分をもつ。一般にn角形ではn方向成分を有する。形
状は必ずしも点対称である必要はない。例えば、楕円形
や、辺の長さが異なる多角形であってもかまわない。こ
のようなパターン要素を複数配置する。
わたり均等に分布しており、8角形パターンでは8方向
酸分をもつ。一般にn角形ではn方向成分を有する。形
状は必ずしも点対称である必要はない。例えば、楕円形
や、辺の長さが異なる多角形であってもかまわない。こ
のようなパターン要素を複数配置する。
パターン像54は円を配置したものである。この配置で
、円をやや傾けて並べであるのは次の理由による。
、円をやや傾けて並べであるのは次の理由による。
2画像間の初期対応付けにおいて、基準画像11におけ
るある任意の特徴点(エツジ)に対する画像12上の正
しい対応点をbとする。画像12上の射影直線T1□が
、円の並び方向と図のように差をもっていると、エツジ
の方向が一致するのはbだけとなる。すなわち、対応点
候補はただ1っbである。
るある任意の特徴点(エツジ)に対する画像12上の正
しい対応点をbとする。画像12上の射影直線T1□が
、円の並び方向と図のように差をもっていると、エツジ
の方向が一致するのはbだけとなる。すなわち、対応点
候補はただ1っbである。
もし仮にT1.と円の並び方向が一致していると、対応
点候補は複数となる。
点候補は複数となる。
同様に、画像13への射影直線T1.上のエツジ方向が
一致するのはbだけである。
一致するのはbだけである。
このように、各パターンを傾けて並べることによって対
応点候補が減り、効率的な対応点処理が可能となる。
応点候補が減り、効率的な対応点処理が可能となる。
第5図は円柱に孤立した複数の円形パターンを投影し3
台のテレビカメラで観察した画像11の実例を示す説明
図である。
台のテレビカメラで観察した画像11の実例を示す説明
図である。
そして、この円柱のサイズは20mmφX 30mmで
あり、カメラから約60am離れて置かれている。
あり、カメラから約60am離れて置かれている。
3台のテレビカメラの位置(X、Y、Z)は(−,11
0,−542,51)、 (92,−540,−526
)及び(−9、−526,170)(単位mm)とし、
また、方位角は(X軸まわり、Y軸まわり、Z軸まわり
)で表わすと、各テレビカメラについて (−0,15,−0,13,0,01)。
0,−542,51)、 (92,−540,−526
)及び(−9、−526,170)(単位mm)とし、
また、方位角は(X軸まわり、Y軸まわり、Z軸まわり
)で表わすと、各テレビカメラについて (−0,15,−0,13,0,01)。
(0,17,−0,14,−0,01)。
(−0,002,−0,33,−0,02)(単位ラジ
アン)とした。
アン)とした。
テレビカメラのイメージ素子は例えば、ソニー製COD
カメラ(型名XC37)を用いている。
カメラ(型名XC37)を用いている。
第6図は、第5図の3眼画像を第3図の処理の流れに基
づき処理を行ない、イメージディスプレイ装置に表示し
た実例を示す説明図で、第5図の画像の対応点処理を第
3図の処理手順によって実行して実空間座標に換算し、
イメージディスプレイ装置に表示し、ビデオプリンタで
写真をとった場合の実例である。
づき処理を行ない、イメージディスプレイ装置に表示し
た実例を示す説明図で、第5図の画像の対応点処理を第
3図の処理手順によって実行して実空間座標に換算し、
イメージディスプレイ装置に表示し、ビデオプリンタで
写真をとった場合の実例である。
そして、(a)は処理結果を用いて、物体を真正面から
見たX−7投影図を示したものであり。
見たX−7投影図を示したものであり。
(Q)は真上から見たX−Y投影図、(b)は真横から
児たY−Z投影図を示したものである。
児たY−Z投影図を示したものである。
この例に見られるように、円柱面上のパターンエツジの
対応点処理が正しく行なわれて、3次元物体を再現して
いることが明白である。
対応点処理が正しく行なわれて、3次元物体を再現して
いることが明白である。
なお、最大計測誤差はX、Z軸方向が±0.3mm。
Y軸方向が±2mm程度である。そして、この誤差は対
応点処理の誤りによるものではなく1画像のサンプリン
グ間隔による量子化誤差である。
応点処理の誤りによるものではなく1画像のサンプリン
グ間隔による量子化誤差である。
以上説明したように、少なくとも3台のテレビカメラで
写し出された物体上のパターン像各点を実空間座標(x
、y、z)に変換し記録することができる。
写し出された物体上のパターン像各点を実空間座標(x
、y、z)に変換し記録することができる。
このため、ある基準点から物体までの距離、方向を求め
ることができ、また、物体上の各点間の位置関係から物
体の形状を確認し、物体の種類を識別することができる
。
ることができ、また、物体上の各点間の位置関係から物
体の形状を確認し、物体の種類を識別することができる
。
このように、本発明のパターン投影法は、任意のパター
ンを物体に投影し、非同一直線上の少なくとも3箇所以
上から2次元パターン画像を取得し、その画像のうち2
枚の画像間の対応付けをエツジ方向の比較により行なっ
て対応点候補を求め、基準画の特徴点及びその特徴点に
対する対応点候補から他の画像上へのそれぞれの射影直
線を求め。
ンを物体に投影し、非同一直線上の少なくとも3箇所以
上から2次元パターン画像を取得し、その画像のうち2
枚の画像間の対応付けをエツジ方向の比較により行なっ
て対応点候補を求め、基準画の特徴点及びその特徴点に
対する対応点候補から他の画像上へのそれぞれの射影直
線を求め。
その射影直線の交点から上記他の画像上の対応点の存在
位置を予測し、その位置と上記基準画の特徴点もしくは
上記対応点候補との対応度合をエツジ方向の比較により
調べることにより対応点候補の正誤を判定し、対応点を
選別することによって物体の位置・形状を計測し得るよ
うに構成されている。
位置を予測し、その位置と上記基準画の特徴点もしくは
上記対応点候補との対応度合をエツジ方向の比較により
調べることにより対応点候補の正誤を判定し、対応点を
選別することによって物体の位置・形状を計測し得るよ
うに構成されている。
第7図は、前述のパターン投影法を実施した装置の一実
施例を示すブロック図で、3眼画像間対応点処理を利用
したパターン投影による物体位置形状計測装置の全体の
構成例を示したものである。
施例を示すブロック図で、3眼画像間対応点処理を利用
したパターン投影による物体位置形状計測装置の全体の
構成例を示したものである。
この第7図において、1,2.3は前述の第1図で示し
た3台のテレビカメラ、 26a 、26b 、26c
はそれぞれテレビカメラ1,2.3に対応し、各テレビ
カメラ1〜3からの映像信号をディジタル信号に変換す
るアナログ・ディジタルコンバータ(以下、A/Dコン
バータと略称する)で、これらは画像入力部を構成して
いる。
た3台のテレビカメラ、 26a 、26b 、26c
はそれぞれテレビカメラ1,2.3に対応し、各テレビ
カメラ1〜3からの映像信号をディジタル信号に変換す
るアナログ・ディジタルコンバータ(以下、A/Dコン
バータと略称する)で、これらは画像入力部を構成して
いる。
27はA/Dコンバータ26a〜26cの各出力を入力
とし一時記憶する画像メモリ、28はこの画像メモリ2
7の出力を入力とする前処理演算回路、29はこの前処
理演算回路28によって得られた特徴点の位置と特微量
を記録する特微量テーブルで、これらは上記画像入力部
の出力を入力とし、その画像入力部のパラメータリスト
、及び特徴点を抽出する前処理演算回路30を構成して
いる。
とし一時記憶する画像メモリ、28はこの画像メモリ2
7の出力を入力とする前処理演算回路、29はこの前処
理演算回路28によって得られた特徴点の位置と特微量
を記録する特微量テーブルで、これらは上記画像入力部
の出力を入力とし、その画像入力部のパラメータリスト
、及び特徴点を抽出する前処理演算回路30を構成して
いる。
31はカメラ・パラメータテーブルである。
32は前処理演算部30における特微量テーブル29か
らの出力を入力とし、カメラ・パラメータテーブル31
を基にして射影直線パラメータを算出する演算回路、3
3は射影直線パラメータ・テーブル、34は演算回路3
2によって得られた演算結果である対応点処理結果を記
録する対応点テーブルで、これらは3眼対応点検出モジ
ュール35を形成している。
らの出力を入力とし、カメラ・パラメータテーブル31
を基にして射影直線パラメータを算出する演算回路、3
3は射影直線パラメータ・テーブル、34は演算回路3
2によって得られた演算結果である対応点処理結果を記
録する対応点テーブルで、これらは3眼対応点検出モジ
ュール35を形成している。
そして、この3眼対応点検出モジュール35は上記前処
理演算部30の出力を入力とし、非同一直線上の少なく
とも3箇所以上から取得した2次元画像のうち2枚の画
像間の対応付けを行なうことにより対応点候補を求め、
基準画の特徴点及びその特徴点に対する対応点候補から
他の画像上へのそれぞれの射影直線を求め、その射影直
線の交点から上記他の画像上の対応点の存在位置を予測
し、その位置と上記基準画の特徴点もしくは上記対応点
候補との対応度合を調べることにより対応点候補の正誤
を判定し、対応点を選別する対応点選別機能を実行する
対応点検出用演算部を構成している。
理演算部30の出力を入力とし、非同一直線上の少なく
とも3箇所以上から取得した2次元画像のうち2枚の画
像間の対応付けを行なうことにより対応点候補を求め、
基準画の特徴点及びその特徴点に対する対応点候補から
他の画像上へのそれぞれの射影直線を求め、その射影直
線の交点から上記他の画像上の対応点の存在位置を予測
し、その位置と上記基準画の特徴点もしくは上記対応点
候補との対応度合を調べることにより対応点候補の正誤
を判定し、対応点を選別する対応点選別機能を実行する
対応点検出用演算部を構成している。
36はこの3眼対応点検出モジュール35における対応
点テーブル34の出力とカメラ・パラメータテーブル3
1の出力を入力とする座標算出モジュールで、この座標
算出モジュール36は、上記対応点検出用演算部によっ
て対応が得られた特徴点を実空間座標に変換して座標を
算出する座標算出部を構成している。
点テーブル34の出力とカメラ・パラメータテーブル3
1の出力を入力とする座標算出モジュールで、この座標
算出モジュール36は、上記対応点検出用演算部によっ
て対応が得られた特徴点を実空間座標に変換して座標を
算出する座標算出部を構成している。
37はこの座標検出モジュール36の変換結果を記録す
る座標テーブル、38は座標算出モジュール36によっ
て得られた変換結果を立体的に表示するグラフィックモ
ジュール、39はこのグラフィックモジュール38の出
力を入力とするグラフィックディスプレイ装置、40は
結果に基づき外部機器を制御するために設けられた外部
入出力インタフェースである。
る座標テーブル、38は座標算出モジュール36によっ
て得られた変換結果を立体的に表示するグラフィックモ
ジュール、39はこのグラフィックモジュール38の出
力を入力とするグラフィックディスプレイ装置、40は
結果に基づき外部機器を制御するために設けられた外部
入出力インタフェースである。
次にこの第7図に示す実施例の動作を第38図を参照し
て説明する。
て説明する。
まず、スライドプロジェクタ4により物体にパターンを
投影し、3台のテレビカメラ1,2.3で得た映像信号
はA/Dコンバータ26a 、26b 、26cにより
ディジタル信号に変換され、3枚以上から成る画像メモ
リ27に一旦記憶される。
投影し、3台のテレビカメラ1,2.3で得た映像信号
はA/Dコンバータ26a 、26b 、26cにより
ディジタル信号に変換され、3枚以上から成る画像メモ
リ27に一旦記憶される。
そして、前処理演算回路28により第3図に示すエツジ
検出処理14及び細線化処理15が順次施され、特徴点
の位置と特微量が特微量テーブル29に記録される。こ
こまでの動作は一般によくいわれる前処理演算部30の
動作である。
検出処理14及び細線化処理15が順次施され、特徴点
の位置と特微量が特微量テーブル29に記録される。こ
こまでの動作は一般によくいわれる前処理演算部30の
動作である。
次楊、求められた各特徴点についての射影直線パラメー
タを、カメラ・パラメータテーブル31を基にし、演算
回路32によって算出し、その結果を射影直線パラメー
タテーブル33に記録する。
タを、カメラ・パラメータテーブル31を基にし、演算
回路32によって算出し、その結果を射影直線パラメー
タテーブル33に記録する。
なお、射影直線パラメータは、予め必要な分をすべて求
めて射影直線パラメータテーブル33に記録しておく代
わりに、次段階以降で必要になった時毎に算出してもよ
い。
めて射影直線パラメータテーブル33に記録しておく代
わりに、次段階以降で必要になった時毎に算出してもよ
い。
続いて第3図に示した初期対応相は処理17から対応点
選択決定処理23までを演算回路32で行なう。
選択決定処理23までを演算回路32で行なう。
この処理では必要に応じ画像メモリ17や特徴量テーブ
ル29を参照し、また、対応点テーブル34に途中結果
の記録あるいは読出しを行なう。そして、処理終了後、
対応点テーブル34を調べれば対応点決定までの履歴が
1目で分かる。
ル29を参照し、また、対応点テーブル34に途中結果
の記録あるいは読出しを行なう。そして、処理終了後、
対応点テーブル34を調べれば対応点決定までの履歴が
1目で分かる。
次に、対応点が得られた特徴点は座標算出モジュール3
6により実空間座標に変換され、その結果が座標テーブ
ル37に記録される。゛ また、この座標算出モジュール36によって実空間座標
に変換された結果は、グラフィック・モジュール38に
より物体の透視図や概観図に変換され色付けされた後、
グラフィックディスプレイ装置39により立体表示され
る。
6により実空間座標に変換され、その結果が座標テーブ
ル37に記録される。゛ また、この座標算出モジュール36によって実空間座標
に変換された結果は、グラフィック・モジュール38に
より物体の透視図や概観図に変換され色付けされた後、
グラフィックディスプレイ装置39により立体表示され
る。
また、座標算出モジュール36によって得られた物体座
標データは外部入出力インタフェース40を通して外部
機器制御に利用される。
標データは外部入出力インタフェース40を通して外部
機器制御に利用される。
このように、本発明によるパターン投影法を用いると、
上のパターン物体を3台のテレビカメラで観測し、3画
像間対応点処理により物体の各点の実空間座標を求め、
立体表示することができる。
上のパターン物体を3台のテレビカメラで観測し、3画
像間対応点処理により物体の各点の実空間座標を求め、
立体表示することができる。
第8図は1本発明の自立ロボットへの応用例を示す構成
図である。
図である。
この第8図において、1,2.3は前述したテレビカメ
ラ、4はスライドプロジェクタ、10は対象物体(物体
)である。そして、41は第7図で例示したパターン投
影法による物体位置・形状計測装置。
ラ、4はスライドプロジェクタ、10は対象物体(物体
)である。そして、41は第7図で例示したパターン投
影法による物体位置・形状計測装置。
40はこの物体位置・形状計測装置41に含まれる前述
の外部入出力インタフェース、42はシステム主制御装
置、43はこのシステム主制御装置42によって制御さ
れるロボットコントローラ、44はこのロボットコント
ローラ43によって制御されるロボット体、45はロボ
ットアームである。
の外部入出力インタフェース、42はシステム主制御装
置、43はこのシステム主制御装置42によって制御さ
れるロボットコントローラ、44はこのロボットコント
ローラ43によって制御されるロボット体、45はロボ
ットアームである。
次にこの第8図に示す応用例の動作を説明する。
まず、スライドプロジェクタ4を点灯し、物体10にパ
ターンを投影する。テレビカメラ1,2.3により物体
10上のパターン像の画像信号が得られ。
ターンを投影する。テレビカメラ1,2.3により物体
10上のパターン像の画像信号が得られ。
その画像信号は物体位置・形状計測装置41に入力し、
物体10のパターンエツジ各点の座標が得られると共に
3次元表示される。そして、システム主制御装置42で
は物体位置・形状計開袋[41から外部入出力インタフ
ェース40を経由して伝達された物体座標データに基づ
き、ロボットアーム45を物体位置に移動するための移
動量、方向及び軌跡を算出する。また、物体10をつか
む際の指の方向及び指の間隔を算出する。
物体10のパターンエツジ各点の座標が得られると共に
3次元表示される。そして、システム主制御装置42で
は物体位置・形状計開袋[41から外部入出力インタフ
ェース40を経由して伝達された物体座標データに基づ
き、ロボットアーム45を物体位置に移動するための移
動量、方向及び軌跡を算出する。また、物体10をつか
む際の指の方向及び指の間隔を算出する。
次に、ロボットコントローラ43において、ロボット本
体44の移動量に対応した各ジヨイントの駆動モータ(
図示せず)の回転数と速度、アームを駆動するジヨイン
トのモーター回転数と速度を算出し、各ジヨイント駆動
信号を発生する。
体44の移動量に対応した各ジヨイントの駆動モータ(
図示せず)の回転数と速度、アームを駆動するジヨイン
トのモーター回転数と速度を算出し、各ジヨイント駆動
信号を発生する。
一方、物体位置・形状計測装置41ではパターン像を使
って常時物体lOの位置・形状を観測し、物体10が移
動または変形したり、障害物が入ったりすると、システ
ム主制御装置42でロボット本体44の動きの変更指令
を発する。
って常時物体lOの位置・形状を観測し、物体10が移
動または変形したり、障害物が入ったりすると、システ
ム主制御装置42でロボット本体44の動きの変更指令
を発する。
また、物体位置・形状計測装置41ではロボットアーム
45が物体10に接近した時、ロボットアーム45の位
置及び方向も認識できるので、物体10とロボットアー
ム45の位置関係が求められる。
45が物体10に接近した時、ロボットアーム45の位
置及び方向も認識できるので、物体10とロボットアー
ム45の位置関係が求められる。
この位置関係に基づき、システム主制御装置42ではロ
ボットアーム45の細かい動作を決定し、ロボットコン
トローラ43に指令を与えることができる。
ボットアーム45の細かい動作を決定し、ロボットコン
トローラ43に指令を与えることができる。
そして、この第8図に示す応用例においては、任意の物
体が任意の位置に置かれたとき、任意のパターンを投影
して物体の位置と形状を視覚認識し、その結果に基づき
ロボットアーム45を移動して物体をつかみ上げ、所定
位置に運ぶという自立的な動作をさせることができる。
体が任意の位置に置かれたとき、任意のパターンを投影
して物体の位置と形状を視覚認識し、その結果に基づき
ロボットアーム45を移動して物体をつかみ上げ、所定
位置に運ぶという自立的な動作をさせることができる。
また、物体10はシステムの応答速度以内であれば移動
していても、その動きを追ってロボットアーム45でつ
かみ上げてしまうことができる。
していても、その動きを追ってロボットアーム45でつ
かみ上げてしまうことができる。
なお、本発明の実施例においては、3眼画像を用いた場
合を例にとって説明したが1本発明はこれに限定される
ものではなく、4眼以上の画像を用い、3眼画像により
求めた対応点候補について第4目眼以降の画像により上
記の方法と同様の検証を行なうことによって、さらに処
理の正確さを高めることができる。
合を例にとって説明したが1本発明はこれに限定される
ものではなく、4眼以上の画像を用い、3眼画像により
求めた対応点候補について第4目眼以降の画像により上
記の方法と同様の検証を行なうことによって、さらに処
理の正確さを高めることができる。
また、本発明の実施例においては、初期対応点処理によ
りエツジ方向の角度差、すなわち評価値が低い、つまり
、類似度(あるいは対応度)が高い対応点候補を予め複
数個選択した後、各対応点候補について第3の画像との
対応を調べ正誤判定する処理を行なう場合を例にとって
説明したが、類似パターンが多く含まれることなどのた
め、上記数個の対応点候補の中に正しい対応点が入らな
い場合が生じる可能性がある。
りエツジ方向の角度差、すなわち評価値が低い、つまり
、類似度(あるいは対応度)が高い対応点候補を予め複
数個選択した後、各対応点候補について第3の画像との
対応を調べ正誤判定する処理を行なう場合を例にとって
説明したが、類似パターンが多く含まれることなどのた
め、上記数個の対応点候補の中に正しい対応点が入らな
い場合が生じる可能性がある。
このような場合、あるいはその恐れがある場合には、射
影直線に沿って閾値以下の評価値を持つ点を探し、それ
が見つかり次第、第3の画像との対応を調べ、正誤判定
するという手順を併用することにより、正誤判定の精度
を高め、類似パターンの中から正しい対応点を検出する
ことができる。
影直線に沿って閾値以下の評価値を持つ点を探し、それ
が見つかり次第、第3の画像との対応を調べ、正誤判定
するという手順を併用することにより、正誤判定の精度
を高め、類似パターンの中から正しい対応点を検出する
ことができる。
また5本発明の実施例では、テレビカメラの画像を用い
る場合を例にとって説明したが、本発明はこれに限定さ
れるものではなく、スチールカメラ、超音波などにより
得た写真を用いることも可能であり、画像入力手段の種
類は問わない。
る場合を例にとって説明したが、本発明はこれに限定さ
れるものではなく、スチールカメラ、超音波などにより
得た写真を用いることも可能であり、画像入力手段の種
類は問わない。
すなわち、画像入力の際の観測位置・方向などのパラメ
ータが明らかであれば、画像入力手段に特別の条件が与
えられるものではない。
ータが明らかであれば、画像入力手段に特別の条件が与
えられるものではない。
また、実施例ではパターンが複数の円形パターン要素で
構成した場合について説明したが、複数のエツジ方向を
有するパターン要素で構成した他のパターンであっても
よい。
構成した場合について説明したが、複数のエツジ方向を
有するパターン要素で構成した他のパターンであっても
よい。
(発明の効果)
以上説明したように、投影されたパターンを3点もしく
はそれ以上の視点からI!測し、得られた画像間で対応
点処理を行なう方法であるから、従来の方法では必要で
あったパターン原画と投影レンズの位置、及びパターン
構造に関する情報は全く不要となる。
はそれ以上の視点からI!測し、得られた画像間で対応
点処理を行なう方法であるから、従来の方法では必要で
あったパターン原画と投影レンズの位置、及びパターン
構造に関する情報は全く不要となる。
すなわち、パターン投影器に任意のパターン原画を入れ
、任意の位置から任意方向でパターン投影するだけでよ
い。
、任意の位置から任意方向でパターン投影するだけでよ
い。
パターン像の処理には、カメラパラメータだけを使い、
使用するカメラパラメータの校正については簡易で高精
度に行なう方法が確立されているので、誤差要因は画像
の標本化による量子化誤差だけとなって、精度の高い物
体の位置形状計測が可能である。
使用するカメラパラメータの校正については簡易で高精
度に行なう方法が確立されているので、誤差要因は画像
の標本化による量子化誤差だけとなって、精度の高い物
体の位置形状計測が可能である。
また、パターンを構成するパターン要素の並び方向を、
射影直線方向とずらすことにより1等しいエツジ方向を
持つ競合する対応点候補の発生を大幅に抑えることがで
きる。
射影直線方向とずらすことにより1等しいエツジ方向を
持つ競合する対応点候補の発生を大幅に抑えることがで
きる。
このため、対応点処理が簡単で処理時間が短い。
また、偽対応の発生をさけることができる。
パターン原画としては、実施例ではスライド写真を用い
たが、液晶やPLZT等、光学パターン素子であればよ
い。
たが、液晶やPLZT等、光学パターン素子であればよ
い。
第1図は本発明におけるパターン投影法構成図、第2図
は画像間対応点処理の原理図、 第3図は立体視対応点処理の流れの実施例を示すフロー
チャート、 第4図はパターン構造説明図、 第5図は円形パターン投影画像の実例、第6図は計測例
。 第7図はパターン投影法を実施した装置の一実施例を示
すブロック図、 第8図は本発明の自立ロボットへの応用例である。 1〜3 ・・・テレビカメラ、 4 ・・・スライドプロジェクタ、 5 ・・・パターン原画、6・・・ランプ。 7・・・投影レンズ、8・・・計測対象物体、9 ・・
・投影パターン、11〜13・・・テレビ画像、14〜
25・・・第3図のフローチャート中に記された各部の
機能、 26a 、 26b 、 26c −A / Dコンバ
ータ。 27・・・画像メモリ、28・・・前処理演算回路、2
9・・・特徴量テーブル、30・・・前処理演算部、3
1・・・カメラ・パラメータテーブル。 32・・・演算回路、 33・・・射影直線パラメータテーブル。 34・・・対応点テーブル、 35・・・3眼対応点検出モジュール、36・・・座標
算出モジュール、 37・・・座標テーブル、 38・・・グラフィックモジュール、 39・・・グラフィックディスプレイ装置40・・・外
部入出力インタフェース、41・・・物体位置・形状計
測装置。 42・・・システム主制御装置、 43・・・ ロボットコントローラ、 44・・・ ロボット本体、45・・・ ロボットアー
ム。 51・・・円形パターン、52・・・ 8角形パターン
。 53・・・エツジ方向、54・・・パターン像。 特許出願人 日本電信電話株式会社 第1図 4 ・ スライド1′ロゾt77 5 ・パ7−ン&畠 6 フンフ。 7 ・ ス[レンで 8 ・ !+伊1e條ジ捧 9 ・ X更#5捏ダーン 第2図 11.12.13 テレビ#像 第3図 第4区 51 円形パターン 52° 8角彩バ7−ン 53・・′f−ッゾ方匍 54 ・ハ゛ターン(番
は画像間対応点処理の原理図、 第3図は立体視対応点処理の流れの実施例を示すフロー
チャート、 第4図はパターン構造説明図、 第5図は円形パターン投影画像の実例、第6図は計測例
。 第7図はパターン投影法を実施した装置の一実施例を示
すブロック図、 第8図は本発明の自立ロボットへの応用例である。 1〜3 ・・・テレビカメラ、 4 ・・・スライドプロジェクタ、 5 ・・・パターン原画、6・・・ランプ。 7・・・投影レンズ、8・・・計測対象物体、9 ・・
・投影パターン、11〜13・・・テレビ画像、14〜
25・・・第3図のフローチャート中に記された各部の
機能、 26a 、 26b 、 26c −A / Dコンバ
ータ。 27・・・画像メモリ、28・・・前処理演算回路、2
9・・・特徴量テーブル、30・・・前処理演算部、3
1・・・カメラ・パラメータテーブル。 32・・・演算回路、 33・・・射影直線パラメータテーブル。 34・・・対応点テーブル、 35・・・3眼対応点検出モジュール、36・・・座標
算出モジュール、 37・・・座標テーブル、 38・・・グラフィックモジュール、 39・・・グラフィックディスプレイ装置40・・・外
部入出力インタフェース、41・・・物体位置・形状計
測装置。 42・・・システム主制御装置、 43・・・ ロボットコントローラ、 44・・・ ロボット本体、45・・・ ロボットアー
ム。 51・・・円形パターン、52・・・ 8角形パターン
。 53・・・エツジ方向、54・・・パターン像。 特許出願人 日本電信電話株式会社 第1図 4 ・ スライド1′ロゾt77 5 ・パ7−ン&畠 6 フンフ。 7 ・ ス[レンで 8 ・ !+伊1e條ジ捧 9 ・ X更#5捏ダーン 第2図 11.12.13 テレビ#像 第3図 第4区 51 円形パターン 52° 8角彩バ7−ン 53・・′f−ッゾ方匍 54 ・ハ゛ターン(番
Claims (2)
- (1)異なる複数の方向エッジを有する孤立もしくは隣
接した複数のパターン要素から成るパターンを物体に投
影し、非同一直線上の少なくとも3箇所以上から前記パ
ターンの2次元画像を取得し、その画像のうち2枚の画
像間のエッジの対応付けをエッジ方向を比較することよ
り行なって対応点候補を求め、 基準画のエッジ及びそのエッジに対応する候補エッジか
ら第3の画像上へのそれぞれの射影直線を求め、その射
影直線の交点から前記第3の画像上の対応するエッジの
存在位置を予測し、 その位置のエッジ方向と前記基準画のエッジもしくは前
記候補エッジのエッジ方向とを比較することにより、対
応度合を調べて対応するエッジ候補の正誤を判定し、 候補エッジを選別することによって画像間の対応関係を
求め、物体の位置形状を計測することを特徴とするパタ
ーン投影による位置形状計測方法。 - (2)パターン要素の並び方向と画像間の射影直線の方
向との間に角度ずれを持たせ、射影直線上のエッジ列に
おいてそれらの方向が互いに異なるようにパターンを構
成することを特徴とする特許請求の範囲第(1)項記載
のパターン投影による位置形状計測方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61048677A JPH0762869B2 (ja) | 1986-03-07 | 1986-03-07 | パタ−ン投影による位置形状計測方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61048677A JPH0762869B2 (ja) | 1986-03-07 | 1986-03-07 | パタ−ン投影による位置形状計測方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS62206684A true JPS62206684A (ja) | 1987-09-11 |
JPH0762869B2 JPH0762869B2 (ja) | 1995-07-05 |
Family
ID=12809950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61048677A Expired - Fee Related JPH0762869B2 (ja) | 1986-03-07 | 1986-03-07 | パタ−ン投影による位置形状計測方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0762869B2 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7433024B2 (en) | 2006-02-27 | 2008-10-07 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
US8050461B2 (en) | 2005-10-11 | 2011-11-01 | Primesense Ltd. | Depth-varying light fields for three dimensional sensing |
US8150142B2 (en) | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
US8350847B2 (en) | 2007-01-21 | 2013-01-08 | Primesense Ltd | Depth mapping using multi-beam illumination |
US8374397B2 (en) | 2005-10-11 | 2013-02-12 | Primesense Ltd | Depth-varying light fields for three dimensional sensing |
US8390821B2 (en) | 2005-10-11 | 2013-03-05 | Primesense Ltd. | Three-dimensional sensing using speckle patterns |
US8400494B2 (en) | 2005-10-11 | 2013-03-19 | Primesense Ltd. | Method and system for object reconstruction |
US8982182B2 (en) | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
US9066087B2 (en) | 2010-11-19 | 2015-06-23 | Apple Inc. | Depth mapping using time-coded illumination |
US9098931B2 (en) | 2010-08-11 | 2015-08-04 | Apple Inc. | Scanning projectors and image capture modules for 3D mapping |
US9131136B2 (en) | 2010-12-06 | 2015-09-08 | Apple Inc. | Lens arrays for pattern projection and imaging |
US9157790B2 (en) | 2012-02-15 | 2015-10-13 | Apple Inc. | Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis |
US9330324B2 (en) | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
US9582889B2 (en) | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
JP2019219929A (ja) * | 2018-06-20 | 2019-12-26 | 株式会社フォーディーアイズ | 常時キャリブレーションシステム及びその方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60126775A (ja) * | 1983-12-13 | 1985-07-06 | Matsushita Electric Ind Co Ltd | 物体検出方法 |
-
1986
- 1986-03-07 JP JP61048677A patent/JPH0762869B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60126775A (ja) * | 1983-12-13 | 1985-07-06 | Matsushita Electric Ind Co Ltd | 物体検出方法 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9066084B2 (en) | 2005-10-11 | 2015-06-23 | Apple Inc. | Method and system for object reconstruction |
US8050461B2 (en) | 2005-10-11 | 2011-11-01 | Primesense Ltd. | Depth-varying light fields for three dimensional sensing |
US8374397B2 (en) | 2005-10-11 | 2013-02-12 | Primesense Ltd | Depth-varying light fields for three dimensional sensing |
US8390821B2 (en) | 2005-10-11 | 2013-03-05 | Primesense Ltd. | Three-dimensional sensing using speckle patterns |
US8400494B2 (en) | 2005-10-11 | 2013-03-19 | Primesense Ltd. | Method and system for object reconstruction |
US9330324B2 (en) | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
US7433024B2 (en) | 2006-02-27 | 2008-10-07 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
US8350847B2 (en) | 2007-01-21 | 2013-01-08 | Primesense Ltd | Depth mapping using multi-beam illumination |
US8150142B2 (en) | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
US9582889B2 (en) | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US8982182B2 (en) | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
US9098931B2 (en) | 2010-08-11 | 2015-08-04 | Apple Inc. | Scanning projectors and image capture modules for 3D mapping |
US9066087B2 (en) | 2010-11-19 | 2015-06-23 | Apple Inc. | Depth mapping using time-coded illumination |
US9131136B2 (en) | 2010-12-06 | 2015-09-08 | Apple Inc. | Lens arrays for pattern projection and imaging |
US9167138B2 (en) | 2010-12-06 | 2015-10-20 | Apple Inc. | Pattern projection and imaging using lens arrays |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
US9157790B2 (en) | 2012-02-15 | 2015-10-13 | Apple Inc. | Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis |
US9651417B2 (en) | 2012-02-15 | 2017-05-16 | Apple Inc. | Scanning depth engine |
JP2019219929A (ja) * | 2018-06-20 | 2019-12-26 | 株式会社フォーディーアイズ | 常時キャリブレーションシステム及びその方法 |
Also Published As
Publication number | Publication date |
---|---|
JPH0762869B2 (ja) | 1995-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100442141C (zh) | 图像投影方法和设备 | |
US9529945B2 (en) | Robot simulation system which simulates takeout process of workpieces | |
JPS62206684A (ja) | パタ−ン投影による位置形状計測方法 | |
JP6280525B2 (ja) | カメラのミスキャリブレーションの実行時決定のためのシステムと方法 | |
US6763284B2 (en) | Robot teaching apparatus | |
EP1167918B1 (en) | Optical displacement sensor | |
US11230011B2 (en) | Robot system calibration | |
CN104345688B (zh) | 工作场所中定位工具的方法、相应系统和计算机可读存储介质 | |
JP2017033429A (ja) | 3次元物体検査装置 | |
JP2730457B2 (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
JP2003065714A (ja) | カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置 | |
KR20130075712A (ko) | 레이저비전 센서 및 그 보정방법 | |
JPH1089960A (ja) | 三次元画像計測方法 | |
JPH08254409A (ja) | 三次元形状計測解析法 | |
US20230070281A1 (en) | Methods and systems of generating camera models for camera calibration | |
JPH09329440A (ja) | 複数枚の画像の各計測点の対応づけ方法 | |
JP2567923B2 (ja) | 距離計測方法 | |
JPS6256814A (ja) | 3次元位置計測カメラ較正方式 | |
JPS6166108A (ja) | 物体位置・形状計測方法およびその装置 | |
JPH10318715A (ja) | 画像測定装置 | |
JP3340599B2 (ja) | 平面推定方法 | |
JPS6166107A (ja) | 物体位置・形状計測方法およびその装置 | |
RU2065133C1 (ru) | Способ автоматизированного измерения координат точек внешней среды для построения ее трехмерной модели в стереотелевизионной системе технического зрения | |
JPH07136959A (ja) | ロボット位置決め方法 | |
JPH06180216A (ja) | 部品位置姿勢計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |