JP2010210584A - 3次元視覚センサ - Google Patents

3次元視覚センサ Download PDF

Info

Publication number
JP2010210584A
JP2010210584A JP2009059919A JP2009059919A JP2010210584A JP 2010210584 A JP2010210584 A JP 2010210584A JP 2009059919 A JP2009059919 A JP 2009059919A JP 2009059919 A JP2009059919 A JP 2009059919A JP 2010210584 A JP2010210584 A JP 2010210584A
Authority
JP
Japan
Prior art keywords
dimensional
parameter
plane
registered
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009059919A
Other languages
English (en)
Other versions
JP5316118B2 (ja
Inventor
Shiro Fujieda
紫朗 藤枝
Atsushi Taneno
篤 種野
Hiroshi Yano
博司 矢野
Yasuyuki Ikeda
泰之 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2009059919A priority Critical patent/JP5316118B2/ja
Priority to US12/711,028 priority patent/US8295588B2/en
Publication of JP2010210584A publication Critical patent/JP2010210584A/ja
Priority to US13/633,536 priority patent/US8559704B2/en
Application granted granted Critical
Publication of JP5316118B2 publication Critical patent/JP5316118B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】認識処理の都合に応じた任意の平面の高さを0として高さの認識処理を行うことができるようにする。
【解決手段】キャリブレーションにより3次元計測のためのパラメータを算出して登録した後に、実際の認識処理で高さを0と認識したい平面をステレオカメラにより撮像し、この平面に含まれる特徴パターン(マークm1,m2,m3)を対象に、登録されたパラメータによる3次元計測を実行する。この計測により3つ以上の3次元座標を取得すると、これらの座標を含む平面を表す演算式を導出する。さらに、キャリブレーションで高さが0と定義された平面と演算式が表す平面との位置関係に基づき、前者の平面内の点を後者の平面に移動させるための変換用パラメータ(同次変換行列)を求め、この変換用パラメータにより登録されたパラメータを変換する。
【選択図】図8

Description

本発明は、ステレオカメラを用いた3次元計測処理により対象物を認識する3次元視覚センサに関する。
ステレオカメラによる3次元計測を行うには、ステレオカメラを構成する各カメラの座標系とワールド座標系との関係を表す変換式中の透視変換行列P(下記(1)(2)式を参照。)を求める必要がある。
Figure 2010210584
Figure 2010210584
上記の透視変換行列Pの各要素P00,P01,・・・P23は、カメラの内部パラメータ(焦点距離、分解能、画像中心など)と、カメラの位置や姿勢に起因するパラメータ(ワールド座標系とカメラ座標系との回転ずれや各座標系の原点の位置ずれ量など)を反映したものである。従来のキャリブレーション処理では、カメラ毎に、そのカメラの座標系の2次元座標(x,y)と3次元座標(X,Y,Z)との組み合わせを複数取得し、各組の座標を上記の(1)式に代入することにより、行列P内の各要素を未知数とする多元連立方程式を設定する。そして、最小自乗法などにより各要素の最も好ましい値を特定する。
つぎに、上記の演算に使用する座標を簡単に導出する方法を開示した文献として、下記の非特許文献1およびこれを応用した特許文献1がある。非特許文献1には、等間隔に配列されたマークにより構成される2次元のキャリブレーションパターンが設けられた平板状のワークを、その高さや向きを変更しながら少なくとも2回の撮像を行い、各撮像により生成された画像から各マークに対応する特徴点を抽出し、各特徴点の関係からワールド座標系の座標を特定することが、記載されている。
また特許文献1には、それぞれ異なるキャリブレーションパターンが設けられた2枚の透明シートを、所定の間隔を隔てて水平になるように配置した状態で撮像を行うことで、キャリブレーションパターンに必要な数の特徴点を同じ画像から取得できるようにすることや、下方の透明シートに対応する平面のZ座標(高さを示す座標)を0に設定して、パラメータの算出を行うことが記載されている。
Zhengyou Zhang "A Flexible New Technique for Camera Calibration"、Microsoft Research Microsoft Corporation,[平成21年2月2日検索]、インターネット<URL:https://research.microsoft.com/en-us/um/people/zhang/calib/>
特開2006−250889号公報
3次元計測では、キャリブレーションで設定されたのと同様のときと同様のワールド座標系に基づく3次元座標が導出されるが、キャリブレーションの際に高さが0と定義された面が認識対象物の支持面になるとは限らない。また、認識対象物を支持する治具によっては、認識対象物が水平な状態で支持されない場合もある。
また対象物の全体を計測するのではなく、所定の面から突出している部位を対象に、その突出の度合を認識するような処理(たとえば、電子機器の押釦スイッチやネジの検査など)に3次元視覚センサを使用する場合には、対象物の支持面ではなく、突出度合の計測の基準となる面の高さが0になるように設定する方が便利である。
また、認識処理の際に、対象物よりも下方にある物体が対象物とともに撮像されると、この物体に対する認識結果がノイズとして出力されるおそれがある。さらに3次元マッチング処理用の3次元モデルを作成するために対象物のモデルを計測する場合にも、同様に、モデルより下方にある物体がカメラに含まれる状態で撮像が行われると、計測された3次元座標からノイズを除く処理などが必要になり、3次元モデルの作成を効率良く進められないおそれがある。
本発明は上記の問題点に着目し、認識処理の都合に応じた任意の平面の高さを0として高さの認識処理を行うことができるようにすることを、課題とする。
本発明による3次元視覚センサは、ステレオカメラと;特定の位置関係にある複数の特徴点を抽出できるように設計されたキャリブレーションパターンを対象にステレオカメラが実行した撮像により生成されたステレオ画像からキャリブレーションパターン内の複数の特徴点を抽出し、これらの特徴点を用いて3次元計測のためのパラメータを算出するパラメータ算出手段と;3次元計測のためのパラメータが登録されるパラメータ記憶手段と;所定の認識対象物に対してステレオカメラが実行した撮像により生成されたステレオ画像を対象にパラメータ記憶手段に登録されたパラメータを用いた3次元計測処理を実行することによって、認識対象物に対し、高さの認識を含む所定の認識処理を実行する3次元認識手段とを具備する。
さらに、この3次元視覚センサは、所定の特徴パターンが設けられた平面に対してステレオカメラが実行した撮像に応じて、当該撮像により生成されたステレオ画像とパラメータ算出手段により算出されたパラメータとを用いて、上記の特徴パターン内の少なくとも3点の代表点を対象にした3次元計測処理を実行することにより、各代表点の3次元座標を取得する座標取得手段と;座標取得手段が取得した各代表点の3次元座標に基づき、これらの3次元座標を含む平面を表す演算式を特定し、パラメータ算出手段により算出されたパラメータによる3次元計測処理により高さが0と認識される平面と上記の演算式が示す平面との位置関係を判別する判別手段と;この判別手段が判別した位置関係に基づき、パラメータ記憶手段に登録されたパラメータまたはこのパラメータによる3次元計測処理の結果を補正する補正手段とを、具備する。
上記の構成によれば、3次元計測のためのパラメータの算出および登録が終了した後に、高さが0の平面として認識したい平面を、その平面内の所定の特徴パターンがステレオカメラを構成する各カメラの視野に含まれるようにして撮像することによって、撮像対象とした平面とキャリブレーションで高さが0と定義された平面との位置関係を判別し、この判別結果に基づいて撮像対象とした平面を基準に高さを認識することが可能になる。よって、ユーザは、認識対象物の支持状態や処理の目的などに応じて、高さの認識処理の基準となる平面を自由に変更することが可能になる。また、実際の空間で水平方向に対して斜めになる平面についても、この平面を基準にした高さを計測することによって、当該平面からの変位量を認識することが可能になる。
上記の3次元視覚センサの好ましい態様では、補正手段は、パラメータ記憶手段に登録されたパラメータを変換用パラメータを用いて補正して、補正後のパラメータにより登録されたパラメータを書き換える。
上記の態様によれば、キャリブレーションにより登録された3次元計測処理用のパラメータを、変換用パラメータを用いて補正したものに更新するので、3次元認識手段による処理では、更新されたパラメータによる3次元計測処理によって、高さを認識する処理を効率良く行うことが可能になる。
他の好ましい態様による3次元視覚センサでは、座標取得手段は、ステレオ画像を構成する複数の画像から、それぞれあらかじめ登録された特徴パターンを含む領域を少なくとも3つ抽出し、抽出された領域をパラメータ算出手段により算出されたパラメータに基づき画像間で対応づけして、対応づけられた領域毎に当該領域内の1代表点に係る3次元座標を算出する。
上記の態様によれば、たとえば、高さ計測の基準にしたい平面にシールを貼付するなどの方法により、あらかじめ定めた特徴パターンを当該平面に一時的に設定して、この平面を示す演算式の特定に必要な3次元座標を取得することが可能になる。
他の好ましい態様による3次元視覚センサでは、座標取得手段は、ステレオ画像を構成する複数の画像のうちの1つを表示して、その表示画面上で所定の特徴パターンを含む領域を少なくとも3つ指定する操作を受け付けた後、パラメータ算出手段により算出されたパラメータに基づき、表示された画像以外の各画像から指定された領域に対応する領域を抽出する。そして、これらの処理により対応づけられた領域の組み合わせ毎に、当該領域内の1代表点に係る3次元座標を算出する。
上記の態様によれば、高さの認識処理の基準にしたい平面を、代表点の抽出に適した特徴パターンが3つ以上撮像されるようにしてステレオ撮像を行い、表示された画像に対し、ユーザが上記の各特徴パターンを含む領域を指定することによって、平面を示す演算式の特定に必要な3次元座標を取得することが可能になる。
他の好ましい態様による3次元視覚センサでは、認識処理手段は、3次元計測処理による計測処理により得た3次元座標のうち、0より低い高さを示すものを認識対象から除外する。
上記の態様によれば、高さの認識処理の基準として設定された平面より下方にある物体が認識対象物とともに撮像された場合でも、この物体に対する計測結果が認識処理結果に影響を及ぼすおそれがなくなる。よって、3次元認識処理を安定して行うことが可能になる。
他の好ましい態様による3次元視覚センサには、変換用パラメータの導出に用いられた2つの平面、言い換えれば、パラメータ算出手段により算出されたパラメータによる3次元計測処理により高さが0と認識される平面と、変換用パラメータ導出手段により特定された演算式が示す平面とを透視変換して、両者の関係を表す投影画像を生成する手段と、生成された投影画像をモニタ装置に表示する手段とが、さらに設けられる。
上記の態様によれば、ユーザは、キャリブレーションの際に高さが0として定義された平面と、高さの認識処理の基準として設定した平面との関係を、容易に判別することが可能になる。
つぎに、この発明による他の構成の3次元視覚センサは、上記と同様のステレオカメラおよびパラメータ算出手段、パラメータ記憶手段を具備するとともに、所定の認識対象物のモデルに対してステレオカメラが実行した撮像により生成されたステレオ画像を対象にパラメータ記憶手段に登録されたパラメータを用いた3次元計測処理を実行し、その計測結果を用いて認識対象物の3次元モデルを作成するモデル作成手段と;作成された3次元モデルが登録される3次元モデル記憶手段と;認識対象物に対してステレオカメラが実行した撮像により生成されたステレオ画像を対象にパラメータ記憶手段に登録されたパラメータを用いた3次元計測処理を実行し、その計測結果を3次元モデル記憶手段に登録された3次元モデルと照合して認識対象物の位置および姿勢を認識する3次元認識手段とを具備する。
さらに、この3次元視覚センサにも、前出の座標取得手段および判別手段が設けられる。また、モデル作成手段は、パラメータ記憶手段に登録されたパラメータを判別手段が判別した位置関係に基づいて補正して、この補正後のパラメータによる3次元計測処理を実行するとともに、この計測により得た3次元座標のうち、0以上の高さを示す座標を用いて3次元モデルを作成する。
上記の構成によれば、認識対象物のモデルに対する3次元計測結果を用いて3次元モデルを作成する場合に、モデルの支持面を基準に高さが計測されるように3次元計測用のパラメータを補正してから3次元モデルを作成することが可能になる。また撮像の際に、モデルより下方にある物体が一緒に撮像されても、この物体に対する計測結果が3次元モデルに反映されることがない。よって精度の良い3次元モデルを簡単に作成することが可能になる。
上記の3次元視覚センサによれば、認識対象物が実際に支持される面や処理の目的に応じて、高さの認識処理の基準となる平面を自由に設定することが可能になり、3次元視覚センサの利便性が大幅に高められる。
3次元視覚センサが導入された検査ラインの構成を示す図である。 3次元視覚センサの電気構成を示すブロック図である。 キャリブレーションプレートの構成例を示す図である。 キャリブレーションパターン内の各特徴点の識別ルールを示す図である。 キャリブレーションプレートの撮像時の表示画面の例を示す図である。 キャリブレーション時の処理手順を示すフローチャートである。 基準面の更新処理の手順を示すフローチャートである。 基準面の更新処理の際に表示される画面の例を示す図である。 更新前および更新後の基準面の関係を投影画像として表した表示例を示す図である。 3次元視覚センサが導入されたピッキングシステムの構成を示す図である。 ワークモデルの撮像方法を示す図である。 3次元モデルの作成方法を模式的に示す図である。 3次元モデルの登録処理の際に表示される画面の例を示す図である。 3次元モデルの登録処理の概略手順を示すフローチャートである。
以下、3次元視覚センサを用いた認識処理について、2つの実施例を用いて説明する。
<第1実施例>
図1は、3次元視覚センサを用いた検査ラインの一例を示す。
この検査ラインは、工場で生産された同一形状のワークW(具体的にはリモコン装置)を対象に、筐体の上面に設けられた押ボタン102の高さの適否を検査するものである。
この実施例の3次元視覚センサ100は、ワークWの搬送ライン101の上方に設けられたステレオカメラ1と、搬送ライン101の近傍に配備された認識処理装置2とにより構成される。ステレオカメラ1は、横並びに配置された3台のカメラA,B,Cにより構成される。これらのうち中央のカメラAは、光軸を鉛直方向に向けた状態(すなわち正面視を行う状態)にして配備され、左右のカメラB,Cは、光軸を斜めにして配備される。
認識処理装置2は、専用のプログラムが格納されたパーソナルコンピュータである。この認識処理装置2では、各カメラA,B,Cが生成した画像を取り込んで、あらかじめ登録された設定情報(3次元計測用のパラメータや各ボタン102に描かれた文字のパターン画像など)に基づき、各ボタン102に対応する領域を画像間で対応づけして、各ボタン102の代表点の高さ(Z座標)を計測する。さらに、ボタン102毎に取得したZ座標をあらかじめ登録された基準値と照合することにより、各ボタン102の高さの適否を判定する。この判定結果は、図示しない上位機器に送信される。
図2は、上記の3次元視覚センサ100の構成をブロック図により表したものである。
この図によれば、認識処理装置2には、各カメラA,B,Cに対応する画像入力部20A,20B,20C、カメラ駆動部21、CPU22、メモリ23、入力部24、表示部25、通信インターフェース26などが含まれる。
カメラ駆動部21は、CPU22からの指令に応じて、各カメラA,B,Cを同時に駆動する。CPU22は、検査の際には、搬送ライン101の所定箇所に設けられたワーク検出用のセンサ(図示せず。)からの検知信号の入力に応じて撮像指令を出力する。また検査の前の設定処理では、入力部24から撮像開始の指示を受け付けたことに応じて撮像指令を出力する。
表示部25は、図1におけるモニタ装置である。また入力部24は、図1のキーボード27およびマウス28をまとめたものである。これらは、キャリブレーション処理の際に、設定のための情報を入力したり、作業を支援するための情報を表示する目的に使用される。通信インターフェース26は、上位機器との通信に用いられる。
メモリ23は、ROM,RAM,およびハードディスクなどの大容量メモリを含むもので、キャリブレーション処理、3次元モデルの作成、およびワークWの3次元認識処理のためのプログラムや設定データが格納されている。また、キャリブレーション処理で算出された3次元計測用のパラメータや3次元モデルも、メモリ23内の専用のエリアに登録される。
CPU22は、メモリ23内のプログラムに基づき、3次元計測用のパラメータの算出および登録処理を実行する。これによりワークWに対する3次元計測が可能な状態になる。以下、このキャリブレーション処理について、詳細に説明する。
この実施例では、図3に示すようなキャリブレーションプレート30を用いて3次元計測用のパラメータを算出する。このキャリブレーションプレート30は、白色地の薄型プレートの上面に2次元のキャリブレーションパターンを描いた構成のものである。
図3に示すキャリブレーションパターンは、同一径の円形状のマークMを上下左右に等間隔で配列したものである(図中のDは、マークMの中心点間の距離に相当する。)。中心に位置するマークM0を除く各マークMは、黒一色で着色され、中心のマークM0には、外周部が黒色で内部に一回り小さい白色円が配置されている。キャリブレーションプレート30の位置合わせや特徴点の認識は、このマークM0を基準に行われる。
図4は、上記のキャリブレーションプレート30の各マークMの特徴点を識別するためのルールを示す。
この図では、各マークMの配列を、それぞれの中心点の配列に置き換えて示すとともに、各中心点にC(i,j)というラベルを付している。各ラベルの(i,j)の値は、中央のマークM0の中心点を(0,0)として、各点の配列に沿って1ずつ変化するように定められている。
この実施例のキャリブレーション処理では、まず最初に、上記のキャリブレーションプレート30を、その面を水平な状態にして設定して各カメラA,B,Cによる撮像を行う。つぎに、キャリブレーションプレート30の水平状態を維持して、その高さを変更し、再度、各カメラA,B,Cによる撮像を実行する。具体的には、停止状態の搬送ラインまたはライン外の平坦面にキャリブレーションプレート30を設置して1回目の撮像を行い、次にこの設置面に専用の支持台を配置して、この支持台上にプレート30を設置して2回目の撮像を実行する。
さらにこの実施例では、上記の作業時には、表示部25に図5に示すような画面を表示して、キャリブレーションプレート30とカメラA,B,Cとの位置関係を調整する作業を支援するようにしている。この画面には、画像表示領域31のほか、この領域に表示する対象画像を指定するための選択ボタン32A,32B,32C(カメラA,B,Cに対応する。)、OKボタン33、キャンセルボタン34などが設けられている。また、画像表示領域31には、垂直方向に沿うラインL1および水平方向に沿うラインL2がそれぞれ領域31の中心位置を通るようにして表示されている。これらのラインL1,L2は、領域31内の画像表示の変動に関わらず、常に一定の状態で画像に重ね表示される。
1回目の撮像の際には、ユーザは、正面視用のカメラAの画像表示から、中央のマークM0がカメラAの視野のほぼ中央に位置し、このマークM0を含む縦方向および横方向のマークの配列がラインL1,L2にほぼ対応するように、キャリブレーションプレート30の位置や姿勢を調整する。ただし、マークMの間隔が均一であるので、プレート30の縦・横とラインL1,L2との対応関係が逆になってもよい。また、マークの配列とラインL1,L2とのなす角度が45度までであれば、ラインL1,L2が縦・横のマークMの配列に対して斜めになるようにプレート30を配置してもかまわない。
ユーザは、カメラB,Cについても同様に、画像表示領域31内にマークM0を含む十分な数のマークMが含まれていることを確認し、不備があれば、カメラB,Cの位置や光軸の向きを調整する。これらの確認や調整が終了すると、ユーザは、OKボタン33を操作することにより撮像開始を指示する。
2回目の撮像の際にも同様の手順でキャリブレーションプレート30を各カメラA,B,Cの視野に配置するが、各カメラA,B,Cの位置や光軸の向きについては、1回目の撮像のときと同じ状態を維持する必要がある。
図6は、キャリブレーション処理に関する一連の手順を示す。以下、この図6とともに、適宜他の図面を参照して、キャリブレーション処理の詳細を説明する。
この処理では、まず上記した要領で第1回目の撮像を実行する(ST1)。つぎに、各カメラA,B,Cにより生成された画像毎に、マークMを表す円を抽出し、これらの円の中心点を各マークMの特徴点として抽出する(ST2)。
つぎのステップST3では、各画像の特徴点にラベルを付けることで、画像間における特徴点の対応関係および各特徴点と実際のマークMとの対応関係を特定する。具体的に説明すると、まず、マークM0をその外観の特徴から認識して、その特徴点にC(0,0)のラベルを付ける。つぎに、この基準点C(0,0)を起点に上下左右の各方向にそれぞれ所定角度幅の探索範囲を設定して、その範囲内で基準点C(0,0)に最も近い位置にある特徴点を抽出する。そして、抽出された各特徴点が基準点C(0,0)を挟んで並ぶ方向に基づき、各特徴点の上下、左右の配列方向を特定する。さらに各配列方向から基準点C(0,0)に対するその他の特徴点の位置関係を割り出し、各位置関係に図4に示したラベル付けのルールを適用することによって、各特徴点のラベルC(i,j)を決定する。
この実施例のカメラA,B,Cは横並びに配置されており、各画像におけるマークMの配列方向に90度以上の差異が生じることがないので、上記の方法により、各画像間で対応関係にある特徴点に同一のラベルを付与することができる。よって、同一のラベルが付された特徴点の組毎に、実際のキャリブレーションパターン中で当該組み合わせに対応するマークMが一意に定まることになる。
つぎに、ステップST4では、カメラAにより生成され正面視画像を用いて、各特徴点のX,Y,Z座標を特定する。
この実施例では、キャリブレーションプレート30を水平面に設置していることを利用して、1回目の撮像時に特定される各特徴点を含む平面が高さ(Z座標)が0の平面となるようにワールド座標系を定義する。具体的には、マークM0から求めた基準点C(0,0)の実際の位置を原点(0,0,0)とし、この基準点C(0,0)を通る左右の配列がX軸方向に対応し、基準点C(0,0)を通る上下の配列がY軸方向に対応するように設定する。以下、この高さが0の平面を「基準面」という。
上記の設定によれば、1回目の撮像時には、各特徴点は、ワールド座標系のX軸およびY軸に沿って並んでいることになる。よって、1回目の撮像で特定される特徴点C(i,j)の3次元座標のうちのX座標(Xij)およびY座標(Yij)については、キャリブレーションパターンの各マークMの中心点間の距離Dを用いた下記の演算により、求めることができる。
ij=i*D,Yij=j*D
また各特徴点のZ座標(Zij)は、すべて0に設定する。
つぎに、2回目の撮像に対しても、1回目の撮像と同様の手法で、マークMの特徴点を抽出する処理(ST2)およびラベル付け(ST3)を実行した後に、各特徴点C(i,j)のX,Y,Z座標を求める(ST4)。この場合には、まず、今回の撮像による正面視画像を1回目の撮像時の正面視画像と照合して、画像中の基準点C(0,0)の位置ずれ量を求めるとともに、マークの上下、左右の配列方向についても1回目の撮像に対する回転ずれ量を求める。そして、カメラA,B,C間でラベルにより対応づけされた特徴点の組毎に、1回目の撮像と同様の手法でX,Y座標を求めた後に、これらの座標を上記の位置ずれ量および回転ずれ量により補正する。一方、Z座標(Zij)には、変更後のキャリブレーションプレート30の高さにキャリブレーションプレートの厚みを加えた値を一律にあてはめる。
このようにして、2回の撮像および各カメラ毎に生成された6枚の画像について、それぞれ複数の特徴点が抽出され、各特徴点に対応する3次元座標が特定される。
この後は、カメラ毎に、各特徴点の3次元座標と画像中の2次元座標とを対応するもの毎に組み合わせて、前出の透視投影変換の演算式((1)式)に代入し、最小自乗法により透視投影行列Pを求める(ST6)。このカメラ毎に求めた行列Pが3次元計測用のパラメータとなる。この後は、算出されたパラメータをメモリに登録し(ST7)、処理を終了する。
このようにしてパラメータを登録したことにより、以後は、ワークWに対する3次元計測を行うことが可能になる。しかし、この実施例では、ワークWの筐体の上面に対するボタンの高さを計測することを目的とするため、筐体の上面の高さが0となるのが望ましいところ、キャリブレーションの際に定義された基準面はこの目的に適合していない。
そこでこの実施例では、キャリブレーション処理が終了した後に、停止中の搬送ラインにワークWの実物モデル(以下、「ワークモデルWM」とする。)を設置し、筐体の上面を計測対象としたときのZ座標が0になるように、3次元計測用のパラメータを変更する処理を実行する。すなわち、このパラメータの変更により基準面(高さが0の平面)が更新されることになる。
具体的に説明すると、この実施例では、更新後の基準面となる平面の3箇所以上に所定形状のマークを付加し、これらのマークをステレオカメラ1で撮像して3次元計測を実行することにより、この平面を具体的に表す式を導出する。そして、この式が示す平面とキャリブレーションで定義された基準面との関係に基づき、キャリブレーション時にパラメータとして登録された透視変換行列Pを変換し、変換後の透視変換行列により登録されたパラメータを書き換える。
以下、図7のフローチャートおよび図8を参照して、基準面の更新処理を詳細に説明する。まず、ユーザは、図5と同様の画面により、各カメラA,B,Cの視野にワークモデルWMが適切に入っているかどうかを確認して、撮像開始を指示する。これにより図7のフローチャートに示す処理がスタートし、各カメラA,B,Cによりワークモデルの撮像が行われる(ST11)。
撮像が終了すると、表示部25の画面は図8に示すものに切り替わる。この画面にも画像表示領域31が設けられ、その内部にはワークモデルWMの正面視画像が表示される。また、この画像中のm1,m2,m3は、円形状のシールを貼付することによってワークモデルに付加されたマークである。
この実施例では、上記の画像表示に対し、ユーザが各マークm1,m2,m3を含む領域を指定するようにしている。図8中の点線枠r1,r2,r3は、この操作により指定された領域を示す。以下、これらの領域を「マーク領域」という。
画像表示領域31の横手には、登録開始を指示するボタン35が設けられている。ユーザは、画像表示領域31内で任意数のマーク領域を設定した後にボタン35を操作することができる。
図7に戻って、上記のようにワークモデルWMの正面視画像が表示され(ST12)、マーク領域の設定および登録開始ボタン35の操作を受け付けると、ST14が「YES」となる。以下、設定されたマーク領域に順に着目して、ST15,16,17の各ステップを実行する。
ST15では、着目中のマーク領域からマークを抽出し、さらにその中心点を代表点として特定する。この実施例では、ワークモデルWMに貼付するマークの色彩や径を統一しているので、ユーザがマーク領域を正しく設定していれば、ST15では、パターンマッチング等の手法によりマークを容易に抽出することができる。
ST16では、キャリブレーション処理で登録されたパラメータに基づき、カメラB,Cの画像に、ST15で抽出された代表点に対するエピポーララインを設定して、このラインに沿って当該代表点への対応点を検索する。これにより、各画像における代表点の座標が特定されると、ST17では、これらを用いて代表点の3次元座標を算出する。
上記ST15,16,17のステップが指定された領域のすべてに対して実行され、さらに算出された3次元座標の数が3個に満たない場合には、再びマーク領域の設定を受け付ける処理(ST13)に戻る。一方、3個以上の3次元座標を取得した場合には、ST18、ST19がともに「YES」となってST20に進む。
ST20では、取得した各3次元座標を用いて、これらの座標に対応する平面の式を導出する。つぎに、ST21では、上記の式により特定される平面内の1点を基準に新規の3次元座標系を設定する。具体的には、平面の式の導出に用いられた3次元座標の中の1つ、またはこれらの3次元座標による多角形の重心点などを原点として、平面に垂直になる方向をZ軸とし、平面内の直交する2方向をX軸およびY軸とする。
つぎに、ST22では、新規の3次元座標系について、キャリブレーションの際に定義されたワールド座標系に対する原点の移動量およびX,Y,Zの各軸における回転角度を算出する。そして、算出した移動量および回転角度を用いて、ワールド座標系の座標を新規の3次元座標系の座標に変換する処理に必要な同次変換行列T(下記(3)式)を導出する。
Figure 2010210584
さらに、ST23では、上記の行列Tにより3次元計測のパラメータとして登録されている透視変換行列Pを変換する演算(下記(4)式)を実行する。
Figure 2010210584
上記の同次変換行列Tによれば、ST17で算出された各3次元座標が、新規の3次元座標系の高さが0の平面内の点として表されることになる。よって、変換後の行列P´は、これらの3次元座標を含む平面の高さを0として3次元計測を行う場合の透視変換行列に相当することになる。
ST24では、この透視変換行列P´を3次元計測に使用するパラメータとして登録する。これにより、ワークモデルWのマークm1,m2,m3が付された面の高さを0として、Z座標を算出することが可能な状態になる。
さらにこの実施例では、基準面の更新結果を表す画像を表示(ST25)した後に、基準面の更新処理を終了する。よって、ユーザが更新された基準面を確認してから、本格的な処理に進むことができる。
図9は、基準面の更新結果を表す画像表示画面の具体的を示す。この画像は、キャリブレーションの際に設定された基準面(すなわち更新前の基準面)の各特徴点C(i,j)と、基準面の更新処理の際にマークm1,m2,m3から抽出された代表点o1,o2,o3の各3次元座標を透視変換することにより生成されたものである。各点の3次元座標はキャリブレーション時の定義に基づき定められ、この定義に基づくX,Y,Z軸を表す線画(図中、点線で示す。)も表示されている。
また、更新前の基準面の各特徴点C(i,j)と更新後の基準面の代表点o1,o2,o3とは、それぞれ異なる色彩により表されている(図中では、+マークとドットにより各点を区別して示す。)。また、代表点o1,o2,o3を結ぶ線分(図中、一点鎖線で示す。)により、更新後の基準面が表現されている。
図9(1)の画像は、各基準面を斜め上方向から透視変換することにより生成されたものであり、図9(2)の例では、各基準面をY軸方向に沿う方向から透視変換することにより生成されたものである。
この実施例では、透視変換処理の視点や投影方向をユーザの操作に応じて変換することにより、図9(1)(2)に示すように、更新前、更新後の各基準面の関係を種々の方向から確認できるようにしている。よって、この表示により更新後の基準面が適切でないと判断した場合には、再度、基準面の更新処理を実行することができ、実際の計測における精度を確保することができる。
なお、上記の実施例では、ワークモデルWMの正面視画像を表示して、ユーザに各マークm1,m2,m3を含む領域を指定させたが、これに限らず、正面視画像から各マークm1,m2,m3を自動抽出し、これに続いて代表点の特定や他の画像における対応点の検索を行うことも可能である。また、基準面に設定する面(この実施例ではワークWの筐体の上面)に文字や記号などの特徴パターンが含まれる場合には、ユーザに、この特徴パターンを含むような範囲を指定させて、指定された範囲内の特徴パターンをマークとして認識してもよい。
また上記の実施例では、ワークWの特定の部位を対象に計測を行っているが、ワークWの全体が計測対象となる場合にも、ワークWの支持面の3箇所以上に所定のマークを付けて、図7と同様の手順を実行することにより、支持面を基準面に設定することができる。このようにすれば、ワークWがキャリブレーション処理で定義された基準面とは異なる高さの面に支持される場合や、計測条件が変わって、支持面の高さが変更された場合でも、基準面を簡単に更新して、各部の高さを安定して計測することができる。
また、ワークWの支持面が水平であれば、キャリブレーションで使用したキャリブレーションプレート30を用いて、基準面の更新処理を行うこともできる。この場合には、キャリブレーションパターンから抽出した各特徴点について、登録されたパラメータを用いてワールド座標系における3次元座標を求めるとともに、キャリブレーション処理の1回目の撮像時と同様の方法で新規の3次元座標系の3次元座標を求め、これらの座標群の関係から同次変換行列Tを導出することができる。
なお、この場合には、キャリブレーションプレート30の厚みが計測値に加わることになるが、その厚みを誤差として許容できる場合には、変更後のパラメータによる3次元計測を行えばよい。また計測の精度を求める場合にも、計測後にプレート30の厚みに基づきZ座標を補正することで対応することができる。
さらに、更新後の基準面は水平面にする必要はないので、ワークWの支持面が水平面に対して傾斜している場合にも、この傾斜面に直交する方向を高さ方向として、支持面からワークWの各箇所までの距離を精度良く認識することができる。またワークWの表面の傾斜面から突出している部位を認識対象とする場合にも、同様に、傾斜面からの突出の度合を高さとして計測することが可能になる。
また、上記の3次元視覚センサ100によれば、基準面を簡単に更新することができるので、ステレオカメラ1をユニット化して各カメラA,B,Cの位置関係を固定し、製造元で出荷前にキャリブレーションを完了することができる。このようにすれば、3次元計測の基本となるキャリブレーションの精度を確保できるとともに、ユーザの都合に合わせて自由に基準面を更新することができ、利便性を高めることができる。なお、この場合には出荷時の基準面に基づくパラメータを基準データとして維持して、出荷時の設定状態に戻せるようにしておくのが望ましい。
また上記の実施例では、更新後の基準面の高さの計測値が0になるように、3次元計測用のパラメータを更新したが、更新後の基準面が更新前の基準面と平行であれば、パラメータを当初のまま維持して、その代わりに更新後の基準面の高さを基準値として登録し、キャリブレーションにより設定されたパラメータにより求めたZ座標から基準値を差し引いた値を計測結果としてもよい。
<第2実施例>
図10は、3次元視覚センサが導入されたピッキングシステムの例を示す。
このピッキングシステムは、工場内で収容ボックス6に収容されたワークWを1つずつ取り出して所定の位置に搬送する作業を行うためのもので、ワークWを認識するための3次元視覚センサ100のほか、実際の作業を行う多関節ロボット4や、このロボット4の動作を制御するロボット制御装置3などが含まれる。
3次元視覚センサ100は、第1実施例に示したのと同様のステレオカメラ1と認識処理装置2とにより構成されるが、この実施例の認識処理装置2のメモリ23には、ワークWの3次元モデルが登録されている。認識処理装置2では、各カメラA,B,Cが生成した画像を取り込んで、ワークWの輪郭線を対象とする3次元計測を実行した後に、この計測により復元された3次元情報を登録された3次元モデルと照合することにより、ワークWの位置および姿勢を認識する。そして、認識したワークWの位置を表す3次元座標、および3次元モデルに対するワークWの回転角度(X,Y,Zの各軸毎に表される。)をロボット制御装置3に出力する。ロボット制御装置3では、この情報に基づき、ロボット4のアーム40の動作を制御して、ワークWを把持させる。
上記の認識処理に用いられる3次元モデルは、キャリブレーション処理を終了した後のカメラA,B,Cを用いて、ワークWの実物モデル(以下、「ワークモデルWM」として示す。)を対象にした3次元計測を実行することにより、作成される。
図11は、モデルの作成処理時のワークモデルWMの撮像状態を例示したものである。この例では、平坦な支持プレート40上にワークモデルWMを設置して、その上方から撮像を行うようにしている。この支持プレート40の四隅には、それぞれ円形状のマークm,m,m,mが記されている。これらのマークm,m,m,mも第1実施例と同様にシールの貼付により設定することができるが、印刷により設定してもよい。
ここで、3次元モデルの作成処理について説明する。
この実施例では、各カメラA,B,Cにより生成された画像に対し、それぞれ画像中のエッジを検出し、検出されたエッジを、連結点や分岐点を基準に「セグメント」と呼ばれる単位毎に分解して抽出し、抽出されたセグメントを画像間で対応づけ、セグメント毎に複数点の3次元座標を算出する。以下、この処理を「3次元情報の復元」という。
さらに、この実施例では、ステレオカメラ1に対するワークモデルWMの姿勢を変更することにより複数とおりの計測方向を設定し、各計測方向で復元した3次元情報を統合することによって、ワークWの全体形状を表す3次元モデルを作成する。
図12は、この3次元モデルの作成処理を模式的に表したものである。図中、S0,S1,S2は、ワークモデルWMをそれぞれ異なる方向から計測することにより復元された3次元情報である。この実施例では、これらの中の3次元情報S0を基準として、他の3次元情報S1,S2を、基準の3次元情報S0に位置合わせされるように座標変換する。そして、変換後の3次元情報S1´,S2´を基準の3次元情報S0と統合し、統合後の3次元情報Sを3次元モデルとして登録する。
なお、3次元情報S1,S2を基準の3次元情報S0に位置合わせするには、これらの3次元情報中の特徴点(この実施例ではセグメントの交点を特徴点とする。)を基準の3次元情報M0の特徴点と総当たり式に対応づけて、最も適合する関係になったときの関係を採用して座標変換を実行する。
上記の方法により求めた3次元モデルでは、ワークモデルの支持面からの高さをZ座標に設定する必要がある。この点を考慮して、この実施例では、図11に示すように、ワークモデルWMを支持プレート40に載せ、このプレート40の四隅のマークm,m,m,mを用いて、第1実施例と同様の基準面の更新処理を実行する。これにより、支持面40の高さが0として計測されるように3次元計測のためのパラメータが変更されると、ワークモデルWMの計測を実行する。
なお、この第2実施例では、上記の処理により変更されたパラメータは、3次元モデルの作成処理のみに使用され、キャリブレーション処理で登録されたパラメーがそのまま維持される。実際のワークWを認識するには、キャリブレーション処理で登録されたパラメータをそのまま使用するか、別途、ワークWの支持面が基準面となるように、パラメータを変更する。
図13は、モデル登録処理時に表示部25に表示される画面の例を示す。この画面には、カメラAからの正面視画像を表示するための画像表示領域41が設けられるほか、基準面の更新を指示するボタン42やモデルの登録処理の開始を支持するボタン43などが設けられる。
上記の画面において、ユーザが画像表示領域41内の画像に対し、第1実施例と同様の方法で各マークm,m,m,mを含むようにマーク領域r,r,r,rを設定し、ボタン42を操作すると、図7のST13〜ST25と同様の手順が実行される。これにより、各マークm,m,m,mから計測された3次元座標に基づき、これらのマークを含む平面を基準に高さを計測することが可能になる。
図14は、上記の処理により基準面が更新された後に実施される処理の概略手順を示す。この処理は、図13に示す登録開始ボタン43が操作されたことに応じて開始される。まずここでは、最初の撮像により生成されたステレオ画像、すなわち基準面の更新処理に使用されたステレオ画像を用いて3次元情報の復元処理を実行する(ST101)。
さらにこの実施例では、復元された3次元情報の中から、Z座標が0より小さい座標を削除する(ST102)。
この後、ユーザが、ワークモデルWMの姿勢を変更してつぎの撮像の開始を指示する(ST103が「YES」)と、2回目の撮像を実行し、生成されたステレオ画像を用いて3次元情報を復元する(ST104,105)。さらにこの場合にも、復元された3次元情報の中からZ座標が0より小さい座標を削除する処理を実行する(ST106)。
以下も同様に、3次元情報の統合を指示する操作が行われるまで、撮像指示の都度、ST104,105,106の各ステップを実行する。
統合の指示がなされると、ST107が「YES」となって、ST108に進む。ST108では、最初に復元された3次元情報(すなわちST101で復元され、ST102の処理により絞り込まれた3次元情報)を基準に、2回目以降に復元された3次元情報を座標変換により位置合わせし、統合する。
この後は、統合後の3次元情報から、支持プレートの上面のエッジおよび四隅のマークm,m,m,mを削除し(ST109)、削除処理後の3次元情報を3次元モデルとして登録する(ST110)。なお、ST109の処理は、あらかじめ登録した支持プレート40やマークの輪郭情報を用いて自動的に行うことができるが、これに限らず、統合後の3次元情報を表示部に表示して、ユーザの手操作により該当する情報を削除してもよい。
上記の手順によれば、3次元モデルを登録する処理を開始する前に、ワークモデルWMの支持面が高さが0の面として機能するように3次元計測用のパラメータが更新されているので、ワークモデルWMの各部の高さを正しく求めることが可能になる。また、ST102,106の処理によれば、支持プレートの側面や底面のエッジのほか、支持プレートが設置されている面の模様や影(図示せず。)などのノイズを統合処理から除外することができる。よって、3次元情報の統合後は、形状が単純で既知の3次元情報(支持プレートの上面のエッジおよびマーク)を削除するだけで済み、3次元モデルの作成を効率良く行うことができる。
なお、このZ座標が0より小さい座標を削除する処理は、3次元モデルの作成処理時に限らず、本処理でワークを認識する場合にも適用することができる。たとえば、所定高さの支持台にバラ積みされた部品を対象に、登録された3次元モデルを用いた3次元認識処理を行う場合に、この支持台の上面が基準面となるように設定しておけば、支持台より下にある認識対象外の物体がカメラA,B,Cの視野に含まれても、その物体を照合の対象から除外することができる。
100 3次元視覚センサ
1(A,B,C) ステレオカメラ
2 認識処理装置
22 CPU
23 メモリ
25 モニタ装置(表示部)
30 キャリブレーションプレート
r1,r2,r3,r4,r,r,r マーク領域
W ワーク
WM ワークモデル

Claims (7)

  1. ステレオカメラと;特定の位置関係にある複数の特徴点を抽出できるように設計されたキャリブレーションワークを対象に前記ステレオカメラが実行した撮像により生成されたステレオ画像から前記キャリブレーションワーク内の各特徴点を抽出し、これらの特徴点を用いて3次元計測のためのパラメータを算出するパラメータ算出手段と;前記3次元計測のためのパラメータが登録されるパラメータ記憶手段と;所定の認識対象物に対して前記ステレオカメラが実行した撮像により生成されたステレオ画像を対象に前記パラメータ記憶手段に登録されたパラメータを用いた3次元計測処理を実行することによって、前記認識対象物に対し、高さの認識を含む所定の認識処理を実行する3次元認識手段とを具備する3次元視覚センサにおいて、
    所定の特徴パターンが設けられた平面に対して前記ステレオカメラが実行した撮像に応じて、当該撮像により生成されたステレオ画像と前記パラメータ算出手段により算出されたパラメータとを用いて、前記特徴パターン内の少なくとも3点の代表点を対象にした3次元計測処理を実行することにより、各代表点の3次元座標を取得する座標取得手段と、
    前記座標取得手段が取得した各代表点の3次元座標に基づき、これらの3次元座標を含む平面を表す演算式を特定し、前記パラメータ算出手段により算出されたパラメータによる3次元計測処理により高さが0と認識される平面と前記演算式が示す平面との位置関係を判別する判別手段と、
    前記判別手段が判別した位置関係に基づき、前記パラメータ記憶手段に登録されたパラメータまたはこのパラメータによる3次元計測処理の結果を補正する補正手段とを、
    さらに具備することを特徴とする、3次元視覚センサ。
  2. 前記補正手段は、前記パラメータ記憶手段に登録されたパラメータを前記変換用パラメータを用いて補正して、補正後のパラメータにより前記登録されたパラメータを書き換える、請求項1に記載された3次元視覚センサ。
  3. 前記座標取得手段は、前記ステレオ画像を構成する複数の画像から、それぞれあらかじめ登録された特徴パターンを含む領域を少なくとも3つ抽出し、抽出された領域を前記パラメータ算出手段により算出されたパラメータに基づき画像間で対応づけして、対応づけられた領域毎に当該領域内の1代表点に係る3次元座標を算出する、請求項1に記載された3次元視覚センサ。
  4. 前記座標取得手段は、前記ステレオ画像を構成する複数の画像のうちの1つを表示して、その表示画面上で所定の特徴パターンを含む領域を少なくとも3つ指定する操作を受け付けた後、前記パラメータ算出手段により算出されたパラメータに基づき、表示された画像以外の各画像から前記指定された領域に対応する領域を抽出し、これらの処理により対応づけられた領域の組み合わせ毎に、当該領域内の1代表点に係る3次元座標を算出する、請求項1に記載された3次元視覚センサ。
  5. 前記認識処理手段は、前記3次元計測処理による計測処理により得た3次元座標のうち、0より低い高さを示すものを認識対象から除外する、請求項1に記載された3次元視覚センサ。
  6. 前記変換用パラメータの導出に用いられた2つの平面を透視変換して、両者の関係を表す投影画像を生成する手段と、生成された投影画像をモニタ装置に表示する手段とを、さらに具備する、請求項1に記載された3次元視覚センサ。
  7. ステレオカメラと;特定の位置関係にある複数の特徴点を抽出できるように設計されたキャリブレーションパターンを対象に前記ステレオカメラが実行した撮像により生成されたステレオ画像から前記キャリブレーションパターン内の複数の特徴点を抽出し、これらの特徴点を用いて3次元計測のためのパラメータを算出するパラメータ算出手段と;前記3次元計測のためのパラメータが登録されるパラメータ記憶手段と;所定の認識対象物のモデルに対して前記ステレオカメラが実行した撮像により生成されたステレオ画像を対象に前記パラメータ記憶手段に登録されたパラメータを用いた3次元計測処理を実行し、その計測結果を用いて前記認識対象物の3次元モデルを作成するモデル作成手段と;作成された3次元モデルが登録される3次元モデル記憶手段と;前記認識対象物に対して前記ステレオカメラが実行した撮像により生成されたステレオ画像を対象に前記パラメータ記憶手段に登録されたパラメータを用いた3次元計測処理を実行し、その計測結果を前記3次元モデル記憶手段に登録された3次元モデルと照合して前記認識対象物の位置および姿勢を認識する3次元認識手段とを具備する3次元視覚センサにおいて、
    所定の特徴パターンが設けられた平面に対して前記ステレオカメラが実行した撮像に応じて、当該撮像により生成されたステレオ画像と前記パラメータ算出手段により算出されたパラメータとを用いて、前記特徴パターン内の少なくとも3点の代表点を対象にした3次元計測処理を実行することにより、各代表点の3次元座標を取得する座標取得手段と、
    前記座標取得手段が取得した各代表点の3次元座標に基づき、これらの3次元座標を含む平面を表す演算式を特定し、前記パラメータ算出手段により算出されたパラメータによる3次元計測処理により高さが0と認識される平面と前記演算式が示す平面との位置関係を判別する判別手段とを、さらに具備し、
    前記モデル作成手段は、前記パラメータ記憶手段に登録されたパラメータを前記判別手段が判別した位置関係に基づいて補正して、この補正後のパラメータによる3次元計測処理を実行するとともに、この計測により得た3次元座標のうち、0以上の高さを示す座標を用いて前記3次元モデルを作成する、
    ことを特徴とする、3次元視覚センサ。
JP2009059919A 2009-03-12 2009-03-12 3次元視覚センサ Active JP5316118B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009059919A JP5316118B2 (ja) 2009-03-12 2009-03-12 3次元視覚センサ
US12/711,028 US8295588B2 (en) 2009-03-12 2010-02-23 Three-dimensional vision sensor
US13/633,536 US8559704B2 (en) 2009-03-12 2012-10-02 Three-dimensional vision sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009059919A JP5316118B2 (ja) 2009-03-12 2009-03-12 3次元視覚センサ

Publications (2)

Publication Number Publication Date
JP2010210584A true JP2010210584A (ja) 2010-09-24
JP5316118B2 JP5316118B2 (ja) 2013-10-16

Family

ID=42730744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009059919A Active JP5316118B2 (ja) 2009-03-12 2009-03-12 3次元視覚センサ

Country Status (2)

Country Link
US (2) US8295588B2 (ja)
JP (1) JP5316118B2 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5245937B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP5713159B2 (ja) * 2010-03-24 2015-05-07 独立行政法人産業技術総合研究所 ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
KR101276208B1 (ko) * 2011-05-30 2013-06-18 전자부품연구원 스테레오 카메라용 보정 시스템 및 스테레오 영상 보정 장치
US9438889B2 (en) * 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
CN102589571B (zh) * 2012-01-18 2014-06-04 西安交通大学 一种空间三维视觉计算验证方法
US9291527B2 (en) * 2012-07-25 2016-03-22 TIREAUDIT.COM, Inc. System and method for analysis of surface features
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US11551287B2 (en) 2013-10-17 2023-01-10 Mashgin Inc. Automated object recognition kiosk for retail checkouts
US10366445B2 (en) 2013-10-17 2019-07-30 Mashgin Inc. Automated object recognition kiosk for retail checkouts
KR101496441B1 (ko) * 2013-11-01 2015-02-27 한국과학기술연구원 평면 디스플레이 장치와 영상 센서를 정합하기 위한 장치 및 방법과, 그 방법을 이용해 정합된 평면 디스플레이 장치와 영상 센서를 구비한 전자 장치
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
JP6407826B2 (ja) * 2015-09-03 2018-10-17 ファナック株式会社 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム
EP3173975A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for identification of candidate points as possible characteristic points of a calibration pattern within an image of the calibration pattern
EP3173979A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for identification of characteristic points of a calibration pattern within a set of candidate points in an image of the calibration pattern
EP3174007A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for calibrating the orientation of a camera mounted to a vehicle
CN108778148B (zh) 2015-12-28 2021-05-14 赞克特机器人有限公司 可调节的配准框架
US11472234B2 (en) 2016-03-04 2022-10-18 TIREAUDIT.COM, Inc. Mesh registration system and method for diagnosing tread wear
US10789773B2 (en) 2016-03-04 2020-09-29 TIREAUDIT.COM, Inc. Mesh registration system and method for diagnosing tread wear
TWI592020B (zh) * 2016-08-23 2017-07-11 國立臺灣科技大學 投影機的影像校正方法及影像校正系統
CN110178157B (zh) * 2016-10-07 2023-07-14 富士胶片株式会社 自身位置估计装置、自身位置估计方法、程序及图像处理装置
US10628695B2 (en) 2017-04-26 2020-04-21 Mashgin Inc. Fast item identification for checkout counter
US11281888B2 (en) 2017-04-26 2022-03-22 Mashgin Inc. Separation of objects in images from three-dimensional cameras
US10467454B2 (en) * 2017-04-26 2019-11-05 Mashgin Inc. Synchronization of image data from multiple three-dimensional cameras for image recognition
US10803292B2 (en) 2017-04-26 2020-10-13 Mashgin Inc. Separation of objects in images from three-dimensional cameras
JP2019012424A (ja) * 2017-06-30 2019-01-24 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
CN107845136B (zh) * 2017-09-19 2021-05-25 浙江科澜信息技术有限公司 一种三维场景的地形压平方法
WO2019087253A1 (ja) * 2017-10-30 2019-05-09 オリンパス株式会社 ステレオカメラのキャリブレーション方法
CN108268847B (zh) * 2018-01-18 2020-04-21 逄泽沐风 一种电影蒙太奇语言分析的方法与系统
US20190236360A1 (en) 2018-01-30 2019-08-01 Mashgin Inc. Feedback loop for image-based recognition
EP3534333A1 (en) 2018-02-28 2019-09-04 Aptiv Technologies Limited Method for calibrating the position and orientation of a camera relative to a calibration pattern
EP3534334B1 (en) 2018-02-28 2022-04-13 Aptiv Technologies Limited Method for identification of characteristic points of a calibration pattern within a set of candidate points derived from an image of the calibration pattern
US10499662B1 (en) 2018-07-20 2019-12-10 Tetra Laval Holdings & Finance S.A. Extruded product position control of ice cream products
CN109883443B (zh) * 2019-02-19 2021-06-18 北京工业大学 一种线结构光传感器空间姿态标定方法
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
CN111681268B (zh) * 2020-06-15 2023-06-02 深圳市瑞立视多媒体科技有限公司 光学标记点序号误识别检测方法、装置、设备及存储介质
US11134798B1 (en) * 2020-06-29 2021-10-05 Ncr Corporation Vision-based frictionless self-checkouts for small baskets
CN112132080A (zh) * 2020-09-29 2020-12-25 深圳棒棒帮科技有限公司 智能笔笔尖图像坐标的求解方法、装置、介质及智能笔
CN113983951B (zh) * 2021-09-10 2024-03-29 深圳市辰卓科技有限公司 三维目标的测量方法、装置、影像仪及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10122819A (ja) * 1996-10-21 1998-05-15 Omron Corp キャリブレーション方法およびその装置
JP2005017286A (ja) * 2003-06-06 2005-01-20 Mitsubishi Electric Corp カメラキャリブレーション方法およびカメラキャリブレーション装置

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6278798B1 (en) * 1993-08-09 2001-08-21 Texas Instruments Incorporated Image object recognition system and method
JP3622094B2 (ja) * 1995-10-05 2005-02-23 株式会社日立製作所 地図更新支援装置および地図情報の編集方法
JPH10160464A (ja) 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JPH10269362A (ja) 1997-03-21 1998-10-09 Omron Corp 物体認識方法およびその装置
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3859371B2 (ja) 1998-09-25 2006-12-20 松下電工株式会社 ピッキング装置
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
JP3603118B2 (ja) * 2001-06-08 2004-12-22 東京大学長 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
ATE464535T1 (de) 2001-12-28 2010-04-15 Rudolph Technologies Inc Stereoskopisches dreidimensionales metrologiesystem und -verfahren
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
JP2004062980A (ja) * 2002-07-29 2004-02-26 Toyota Gakuen 磁性合金、磁気記録媒体、および磁気記録再生装置
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
JP3929384B2 (ja) 2002-10-23 2007-06-13 オリンパス株式会社 ファインダ、撮影装置、マーカ提示部材、及び、キャリブレーションのための撮影方法
JP3859574B2 (ja) * 2002-10-23 2006-12-20 ファナック株式会社 3次元視覚センサ
KR101064161B1 (ko) 2003-03-07 2011-09-15 인터내셔널 인더스트리 서포트, 인코포레이티드 스테레오 카메라 세트를 갖는 스캐닝 시스템
AU2003245822A1 (en) * 2003-05-14 2004-12-13 Tbs Holding Ag Method and device for the recognition of biometric data following recording from at least two directions
JP3892838B2 (ja) * 2003-10-16 2007-03-14 ファナック株式会社 3次元測定装置
US7596283B2 (en) * 2004-04-12 2009-09-29 Siemens Medical Solutions Usa, Inc. Fast parametric non-rigid image registration based on feature correspondences
JP4111166B2 (ja) * 2004-05-07 2008-07-02 コニカミノルタセンシング株式会社 3次元形状入力装置
JP4560711B2 (ja) 2004-06-22 2010-10-13 株式会社セガ 画像処理
EP1766552A2 (en) * 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
US7657081B2 (en) 2004-09-03 2010-02-02 National Research Council Of Canada Recursive 3D model optimization
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
US8160315B2 (en) 2004-09-13 2012-04-17 Hitachi Medical Corporation Ultrasonic imaging apparatus and projection image generating method
JP4604774B2 (ja) 2005-03-14 2011-01-05 オムロン株式会社 3次元計測のためのキャリブレーション方法
WO2006120195A1 (en) * 2005-05-12 2006-11-16 Bracco Imaging S.P.A. Method for coding pixels or voxels of a digital image and a method for processing digital images
JP2007064836A (ja) 2005-08-31 2007-03-15 Kyushu Institute Of Technology カメラキャリブレーションの自動化アルゴリズム
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
JP4709668B2 (ja) 2006-03-15 2011-06-22 独立行政法人科学技術振興機構 3次元物体認識システム
JP4873004B2 (ja) * 2006-03-17 2012-02-08 日本電気株式会社 3次元データ処理システム
WO2008000093A1 (en) 2006-06-29 2008-01-03 Aftercad Software Inc. Method and system for displaying and communicating complex graphics file information
JP4650386B2 (ja) * 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
US7769205B2 (en) 2006-11-28 2010-08-03 Prefixa International Inc. Fast three dimensional recovery method and apparatus
US8126260B2 (en) * 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US8793619B2 (en) 2008-03-03 2014-07-29 The United States Of America, As Represented By The Secretary Of The Navy Graphical user control for multidimensional datasets
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5245937B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5245938B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
TW201115183A (en) * 2009-10-20 2011-05-01 Ind Tech Res Inst Stereovision system and calculation method for the distance between object and diffractive optical element
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP2011185650A (ja) 2010-03-05 2011-09-22 Omron Corp モデル作成装置およびモデル作成プログラム
EP2423873B1 (en) * 2010-08-25 2013-12-11 Lakeside Labs GmbH Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane
US8548269B2 (en) * 2010-12-17 2013-10-01 Microsoft Corporation Seamless left/right views for 360-degree stereoscopic video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10122819A (ja) * 1996-10-21 1998-05-15 Omron Corp キャリブレーション方法およびその装置
JP2005017286A (ja) * 2003-06-06 2005-01-20 Mitsubishi Electric Corp カメラキャリブレーション方法およびカメラキャリブレーション装置

Also Published As

Publication number Publication date
US20100232681A1 (en) 2010-09-16
US20130033580A1 (en) 2013-02-07
US8295588B2 (en) 2012-10-23
US8559704B2 (en) 2013-10-15
JP5316118B2 (ja) 2013-10-16

Similar Documents

Publication Publication Date Title
JP5316118B2 (ja) 3次元視覚センサ
JP5714232B2 (ja) キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP5922572B2 (ja) 実用型3dビジョンシステム装置およびその方法
JP5370398B2 (ja) 画像処理装置および画像処理プログラム
JP5310130B2 (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5245938B2 (ja) 3次元認識結果の表示方法および3次元視覚センサ
JP5282614B2 (ja) 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP5471356B2 (ja) 3次元計測のためのキャリブレーション方法および3次元視覚センサ
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2009053147A (ja) 3次元計測方法および3次元計測装置
JP2008021092A (ja) ロボットシステムのシミュレーション装置
WO2003089874A1 (en) Camera corrector
JP2010210585A (ja) 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP2013231702A (ja) 画像計測装置、画像計測方法及び画像計測プログラム
JP2017033429A (ja) 3次元物体検査装置
JP6503278B2 (ja) 形状測定装置および形状測定方法
JP2011107083A (ja) 姿勢認識方法およびこの方法を用いた3次元視覚センサ
JP6265784B2 (ja) 姿勢推定システム、プログラムおよび姿勢推定方法
JP2007026423A (ja) 画像処理装置および画像処理方法
JP4778855B2 (ja) 光学式測定装置
JP2003202208A (ja) 画像測定装置及び画像測定用プログラム
KR20160149843A (ko) 스캔 데이터 정합 장치
JP7057732B2 (ja) 三次元測定装置
WO2022168617A1 (ja) ワーク検出装置、ワーク検出方法、ワーク検出システム及びワーク検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130624

R150 Certificate of patent or registration of utility model

Ref document number: 5316118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250