JP2626780B2 - セグメント対応による三次元画像計測方法 - Google Patents
セグメント対応による三次元画像計測方法Info
- Publication number
- JP2626780B2 JP2626780B2 JP63012159A JP1215988A JP2626780B2 JP 2626780 B2 JP2626780 B2 JP 2626780B2 JP 63012159 A JP63012159 A JP 63012159A JP 1215988 A JP1215988 A JP 1215988A JP 2626780 B2 JP2626780 B2 JP 2626780B2
- Authority
- JP
- Japan
- Prior art keywords
- straight line
- image
- cameras
- line segment
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
【発明の詳細な説明】 発明の技術分野 本発明は、画像処理技術によって、直線近似可能な対
象物の三次元的位置および姿勢を算出する技術に関す
る。
象物の三次元的位置および姿勢を算出する技術に関す
る。
従来技術 三次元画像計測の手法としてよく知られたステレオ画
像法がある。その手法は、例えば井口征士(大阪大学教
授)が「三次元計測研究・最近の動向と展望」(映像情
報(I)1986年6月号)で述べているように、原理その
ものは、第1図に示すような三角測量に基づく簡単なも
のである。
像法がある。その手法は、例えば井口征士(大阪大学教
授)が「三次元計測研究・最近の動向と展望」(映像情
報(I)1986年6月号)で述べているように、原理その
ものは、第1図に示すような三角測量に基づく簡単なも
のである。
同図に示す通り、対象物の稜線エッジ上の一点Pが与
えられたときに、その一点Pがそれぞれ2台のカメラ
1、2の画像1、2上で、どの位置に見えるかがわかれ
ば、点Pの三次元的位置は、2台のカメラ1、2の基線
長Lとカメラ1、2の観測角θ′1、θ′2、およびカ
メラ1、2で撮像された画像1、2のそれぞれの倍率
M1、M2等のパラメータとを用いて算出できる。
えられたときに、その一点Pがそれぞれ2台のカメラ
1、2の画像1、2上で、どの位置に見えるかがわかれ
ば、点Pの三次元的位置は、2台のカメラ1、2の基線
長Lとカメラ1、2の観測角θ′1、θ′2、およびカ
メラ1、2で撮像された画像1、2のそれぞれの倍率
M1、M2等のパラメータとを用いて算出できる。
従来技術の問題点 画像1のエッジ上の特徴点P′C1から、それに対応す
る特徴点P′C2を画像2のエッジ点群から探し出す事
は、難しい技術であり、また莫大な処理時間を必要とす
る。
る特徴点P′C2を画像2のエッジ点群から探し出す事
は、難しい技術であり、また莫大な処理時間を必要とす
る。
最近では、画像1の特徴点P′C1を通る視線L′を画
像2に写像したエピポーラ線lを用いて、エッジ候補点
の対応点探索を高速で行う手法も提案されてはいるが、
対応点探索の難しさは、依然として残っており、画素対
応法の弱点の1つである。
像2に写像したエピポーラ線lを用いて、エッジ候補点
の対応点探索を高速で行う手法も提案されてはいるが、
対応点探索の難しさは、依然として残っており、画素対
応法の弱点の1つである。
発明の目的 したがって、本発明の目的は、直線セグメントの検出
を行うステレオ画像法において、画素ごとに対応づけを
行うのではなく、セグメントごとの対応づけを行って、
セグメントごとの三次元的位置および姿勢を簡単にしか
も高速に算出することである。
を行うステレオ画像法において、画素ごとに対応づけを
行うのではなく、セグメントごとの対応づけを行って、
セグメントごとの三次元的位置および姿勢を簡単にしか
も高速に算出することである。
発明の構成および作用 対象物(ワーク)の直線セグメントは、ワーク座標系
xyzに存在するものとする。ワーク座標系xyzは、第2図
に示すように、カメラ1、2の光軸を含む面がyz平面に
なるようにx軸を設定する。2台のカメラ1、2の観測
角は、それぞれθ′1、θ′2で、各レンズの焦点距離
はf、基線長はLとする。
xyzに存在するものとする。ワーク座標系xyzは、第2図
に示すように、カメラ1、2の光軸を含む面がyz平面に
なるようにx軸を設定する。2台のカメラ1、2の観測
角は、それぞれθ′1、θ′2で、各レンズの焦点距離
はf、基線長はLとする。
カメラ1、2のレンズセンターP01、P02からそれぞれ
物体距離a1、a2だけ離れた各光軸に直交する平面に、そ
れぞれのカメラ1、2の視野の大きさA1×B1および大き
さA2×B2のスクリーン面1、2を設定する。今、カメラ
1のレンズセンサー(座標)をP01(o,y01,z01)、カメ
ラ2のレンズ中心をP02(o,y02,z02)、スクリーン面1
の中心をPl1(o,yl1,zl1)、スクリーン面2の中心をP
l2(o,yl2,zl2)とする。また、光軸1とy軸との交角
をθ1=tan-1{(z01−zl1)/(y01−y11)}、光軸
2とy軸との交角をθ2=tan-1{(zl2−zl2)/(y02
−yl2)}とする。
物体距離a1、a2だけ離れた各光軸に直交する平面に、そ
れぞれのカメラ1、2の視野の大きさA1×B1および大き
さA2×B2のスクリーン面1、2を設定する。今、カメラ
1のレンズセンサー(座標)をP01(o,y01,z01)、カメ
ラ2のレンズ中心をP02(o,y02,z02)、スクリーン面1
の中心をPl1(o,yl1,zl1)、スクリーン面2の中心をP
l2(o,yl2,zl2)とする。また、光軸1とy軸との交角
をθ1=tan-1{(z01−zl1)/(y01−y11)}、光軸
2とy軸との交角をθ2=tan-1{(zl2−zl2)/(y02
−yl2)}とする。
そして、第3図に見られるように、ワーク座標系上の
一点Pがカメラ1の画像上で点P′C1(x′1,y′1)
として、カメラ2の画像上で点P′C2(x′2,y′2)
として、それぞれ映っているものとする。
一点Pがカメラ1の画像上で点P′C1(x′1,y′1)
として、カメラ2の画像上で点P′C2(x′2,y′2)
として、それぞれ映っているものとする。
このとき、画像1、2の大きさをそれぞれξ1×
η1、およびξ2×η2、画像1、2の中心をそれぞれ
P′l1(x′0,y′0)、P′l2(x′0,y′0)とすれ
ば、画像座標(x′,y′)からスクリーン面1、2のそ
れぞれの対応点PC1(xC1,yC1,zC1)、PC2(xC2,yC2,
zC2)への変換α1、α2は次式により行える。
η1、およびξ2×η2、画像1、2の中心をそれぞれ
P′l1(x′0,y′0)、P′l2(x′0,y′0)とすれ
ば、画像座標(x′,y′)からスクリーン面1、2のそ
れぞれの対応点PC1(xC1,yC1,zC1)、PC2(xC2,yC2,
zC2)への変換α1、α2は次式により行える。
変換α1 xC1=(y′0−y′)/η1×B1 yC1=yl1+(x′−x′0)/ξ1×A1×sinθ1 zC1=zl1−(x′−x′0)/ξ1×A1×cosθ1 変換α2 xC2=(y′0−y′)/η2×B2 yC2=yl2+(x′−x′0)/ξ2×A2×sinθ2 zC2=zl2+(x′−x′0)/ξ2×A2×cosθ2 さて、検出対象のワークの直線セグメントlが第4図
に示すように、画像1上で線分 によって、画像2上で線分 によって、それぞれ表されているものとする。これらの
線分上の点群P′1、P′2、P′3、P′4を画像座
標系からスクリーン面に上記変換α1および変換α2に
よって変換する。
に示すように、画像1上で線分 によって、画像2上で線分 によって、それぞれ表されているものとする。これらの
線分上の点群P′1、P′2、P′3、P′4を画像座
標系からスクリーン面に上記変換α1および変換α2に
よって変換する。
変換α1 P′1(x′1,y′1)→PC1(xC1,yC1,zC1) P′2(x′2,y′2)→PC2(xC2,yC2,zC2) 変換α2 P′3(x′3,y′3)→PC3(xC3,yC3,zC3) P′4(x′4,y′4)→PC4(xC4,yC4,zC4) このとき、直線セグメントlは、第5図に見られる通
り、平面P01PC1PC2と平面P02PC3PC4との交線l′上に存
在し、その端点は、直線P01PC1と直線P02PC3との交点
G1、直線P01PC2と直線P02PC4との交点G2として与えられ
る。ここで得られた端点をG1(xg1,yg1,zg1)およびG2
(xg2,yg2,zg2)とする。
り、平面P01PC1PC2と平面P02PC3PC4との交線l′上に存
在し、その端点は、直線P01PC1と直線P02PC3との交点
G1、直線P01PC2と直線P02PC4との交点G2として与えられ
る。ここで得られた端点をG1(xg1,yg1,zg1)およびG2
(xg2,yg2,zg2)とする。
しかし、実際には、各画像における端点抽出の誤差に
よって、直線P01PC1と直線P02Pc3、直線P01PC2と直線P
02PC4とは交わるとは限らない。
よって、直線P01PC1と直線P02Pc3、直線P01PC2と直線P
02PC4とは交わるとは限らない。
そこで、第6図のように、直線P01PC1と交線l′との
交点をH1(xh1,yh1,zh1)、直線P02PC3と交線l′との
交点をH2(xh2,yh2,zh2)とすれば、求める直線セグメ
ントlの端点G1(xg1,yg1,zg1)は次式で与えられる。
交点をH1(xh1,yh1,zh1)、直線P02PC3と交線l′との
交点をH2(xh2,yh2,zh2)とすれば、求める直線セグメ
ントlの端点G1(xg1,yg1,zg1)は次式で与えられる。
xg1=(xh1+xh2)/2 yg1=(yh1+yh2)/2 zg1=(zh1+zh2)/2 同様にして、直線P01PC2と交線l′との交点をH3(x
h3,yh3,zh3)、直線P02PC4と交線l′との交点をH4(x
h4,yh4,zh4)とすれば、端点G2(xg2,yg2,zg2)は、次
式となる。
h3,yh3,zh3)、直線P02PC4と交線l′との交点をH4(x
h4,yh4,zh4)とすれば、端点G2(xg2,yg2,zg2)は、次
式となる。
xg2=(xh3+xh4)/2 yg2=(yh3+yh4)/2 zg2=(zh3+zh4)/2 このとき、直線セグメントlの中心位置(x,y,z)お
よび姿勢(θx,θy,θz)は次の式で与えられる。
よび姿勢(θx,θy,θz)は次の式で与えられる。
x=(xg1+xg2)/2 y=(yg1+yg2)/2 z=(zg1+zg2)/2 ただし、直線セグメントlの姿勢は、最初ワーク中心
とワーク座標系の原点とが重なるようにx軸に置かれて
いたものとして、その基準姿勢からの各軸まわりの変位
角で定義する。したがってx軸まわりの変位角θxは定
義されない。
とワーク座標系の原点とが重なるようにx軸に置かれて
いたものとして、その基準姿勢からの各軸まわりの変位
角で定義する。したがってx軸まわりの変位角θxは定
義されない。
具体例 ここで、具体例として、空間上に置かれた、一本の直
線セグメントを求める方法について述べる。
線セグメントを求める方法について述べる。
まず、それぞれのカメラ1、2から対象セグメント
を画像1、2に入力する。
を画像1、2に入力する。
Hough変換や、最小二乗法等の手法を用いて、画像
中の直線および端点を求める。
中の直線および端点を求める。
すでに述べた方法により、直線セグメントの三次元
的な位置および姿勢を求める。なお、画像1と画像2の
直線セグメントの対応付けは、 ε=(xh1−xh2)2+(yh1−yh2)2+(zh1−zh2)2 +(xh3−xh4)2+(yh3−yh4)2+(zh3−zh4)2を
最小にするような直線セグメントの組み合わせで与えら
れる。
的な位置および姿勢を求める。なお、画像1と画像2の
直線セグメントの対応付けは、 ε=(xh1−xh2)2+(yh1−yh2)2+(zh1−zh2)2 +(xh3−xh4)2+(yh3−yh4)2+(zh3−zh4)2を
最小にするような直線セグメントの組み合わせで与えら
れる。
以上の手法によって、目的が達成できる。もちろん、
この方法は、画像処理用コンピュータのプログラムによ
って実現される。
この方法は、画像処理用コンピュータのプログラムによ
って実現される。
発明の効果 本発明では、ステレオ画像法において、複雑な画素対
応を全く行わずに、各画像において各々直線セグメント
を算出したあと、ただちに空間上の直線セグメントの位
置および姿勢を求める事ができるという特長がある。一
般に、ロボットの視覚等において、計測の対象となるワ
ークは、稜線エッジが直線セグメントで近似できる場合
が多いため、本方法を用いて、ワークのそれぞれの稜線
エッジの三次元的な位置と姿勢とを算出する事により、
ワークの三次元的な位置および姿勢も容易に求める事が
できる。
応を全く行わずに、各画像において各々直線セグメント
を算出したあと、ただちに空間上の直線セグメントの位
置および姿勢を求める事ができるという特長がある。一
般に、ロボットの視覚等において、計測の対象となるワ
ークは、稜線エッジが直線セグメントで近似できる場合
が多いため、本方法を用いて、ワークのそれぞれの稜線
エッジの三次元的な位置と姿勢とを算出する事により、
ワークの三次元的な位置および姿勢も容易に求める事が
できる。
第1図はステレオ画像法の原理説明図、第2図はワーク
座標系とスクリーン面との対応図、第3図は画像座標系
からスクリーン面への変換図、第4図はステレオ画像に
おける直線セグメントの画像図、第5図および第6図は
セグメントの検出説明図である。
座標系とスクリーン面との対応図、第3図は画像座標系
からスクリーン面への変換図、第4図はステレオ画像に
おける直線セグメントの画像図、第5図および第6図は
セグメントの検出説明図である。
Claims (1)
- 【請求項1】空間上に対象物の直線セグメントを2台の
カメラ(カメラ1、カメラ2)に画像として入力する過
程、 それぞれの画像(画像1、画像2)毎に直線セグメント
(l)の端点を画像上で算出する過程、 2台のカメラの画像より得られた直線セグメント(l)
を各々のカメラのスクリーン画上に投影する過程、 スクリーン面上の直線セグメント(l)とレンズセンタ
ーとを含む平面を求め2つのカメラの平面同士の交線
(l′)を算出する過程、 交線(l′)上に投影された各カメラの直線セグメント
端点の三次元座標の平均値から直線セグメント端点の三
次元座標を求める過程、 得られた2つの直線セグメントの端点から空間上の直線
セグメントの位置および姿勢を算出する過程 からなることを特徴とするステレオ画像法を用いた直線
セグメントの三次元計測方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63012159A JP2626780B2 (ja) | 1988-01-22 | 1988-01-22 | セグメント対応による三次元画像計測方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63012159A JP2626780B2 (ja) | 1988-01-22 | 1988-01-22 | セグメント対応による三次元画像計測方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01187411A JPH01187411A (ja) | 1989-07-26 |
JP2626780B2 true JP2626780B2 (ja) | 1997-07-02 |
Family
ID=11797674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63012159A Expired - Lifetime JP2626780B2 (ja) | 1988-01-22 | 1988-01-22 | セグメント対応による三次元画像計測方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2626780B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4892982B2 (ja) * | 2006-01-12 | 2012-03-07 | 株式会社島津製作所 | 磁気マッピング装置 |
JP6532042B2 (ja) * | 2017-08-09 | 2019-06-19 | 国立大学法人弘前大学 | 自動注射装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61200424A (ja) * | 1985-03-04 | 1986-09-05 | Hitachi Ltd | 距離計測装置 |
JPS6228613A (ja) * | 1985-07-30 | 1987-02-06 | Agency Of Ind Science & Technol | 3次元位置入力装置 |
-
1988
- 1988-01-22 JP JP63012159A patent/JP2626780B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH01187411A (ja) | 1989-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lins et al. | Vision-based measurement for localization of objects in 3-D for robotic applications | |
CN108177143A (zh) | 一种基于激光视觉引导的机器人定位抓取方法及系统 | |
KR900002509B1 (ko) | 화상 처리 장치 | |
CN110136211A (zh) | 一种基于主动双目视觉技术的工件定位方法及系统 | |
Hsu et al. | Development of a faster classification system for metal parts using machine vision under different lighting environments | |
Wan et al. | High-precision six-degree-of-freedom pose measurement and grasping system for large-size object based on binocular vision | |
Sangeetha et al. | Implementation of a stereo vision based system for visual feedback control of robotic arm for space manipulations | |
JP2730457B2 (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
JPS6332306A (ja) | 無接触三次元自動寸法測定方法 | |
JP2003136465A (ja) | 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ | |
Bui et al. | Distance and angle measurement using monocular vision | |
JP2626780B2 (ja) | セグメント対応による三次元画像計測方法 | |
JPH0847881A (ja) | ロボットの遠隔操作方法 | |
JP2697917B2 (ja) | 三次元座標計測装置 | |
JPH06258028A (ja) | 視覚に基く三次元位置および姿勢の認識方法とその装置 | |
JP2005186193A (ja) | ロボットのキャリブレーション方法および三次元位置計測方法 | |
Liang et al. | A general framework for robot hand-eye coordination | |
JPS643661Y2 (ja) | ||
Zhao et al. | Using 3D matching for picking and placing on UR robot | |
JPH076769B2 (ja) | 物体計測装置 | |
CN111612071A (zh) | 一种从曲面零件阴影图生成深度图的深度学习方法 | |
JPH04182710A (ja) | 相対位置決め方式 | |
Ikai et al. | Evaluation of finger direction recognition method for behavior control of Robot | |
JPH0648173B2 (ja) | 円筒計測方法 | |
JPH07139918A (ja) | 円柱中心位置・半径計測方法 |