JP3957888B2 - Imaging apparatus and captured image composition method - Google Patents

Imaging apparatus and captured image composition method Download PDF

Info

Publication number
JP3957888B2
JP3957888B2 JP23218198A JP23218198A JP3957888B2 JP 3957888 B2 JP3957888 B2 JP 3957888B2 JP 23218198 A JP23218198 A JP 23218198A JP 23218198 A JP23218198 A JP 23218198A JP 3957888 B2 JP3957888 B2 JP 3957888B2
Authority
JP
Japan
Prior art keywords
image
plane
captured
angle
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23218198A
Other languages
Japanese (ja)
Other versions
JPH11136575A (en
Inventor
貴史 北口
憲彦 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP23218198A priority Critical patent/JP3957888B2/en
Publication of JPH11136575A publication Critical patent/JPH11136575A/en
Application granted granted Critical
Publication of JP3957888B2 publication Critical patent/JP3957888B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は入力対象平面上の画像を一部が重なるようにして複数回撮像し、撮像した各画像を1画面上に合成して復元する撮像装置及び撮像画像合成方法、特に撮像対象となる入力対象平面が大きい場合等に分割した画像の歪を軽減して、高精細な平面画像の合成に関するものである。
【0002】
【従来の技術】
平面上の文字又は写真を簡便、且つ、高精度に入力及び復元する装置が求められている。A4サイズ又はA3サイズ等の通常サイズの紙面上の画像の場合には複写機又はスキャナ等で高精度な画像入力が可能である。このように複写機又はスキャナ等は通常サイズの紙面上の画像を高精度に読み込むことができるが、大きな紙面上の情報、壁に書かれた情報又はパネルに掲げられた情報等のように大きい画像あるいは動かすことのできない媒体に描かれた画像等を入力することができない。そこで、電子カメラを用いてこれらの大きい画像あるいは動かすことのできない媒体に描かれた画像などを入力する装置として、例えば特開平6−141228号公報に示された電子カメラや特開平9-90530号公報に示されたパノラマ画像合成装置等が使用されている。
【0003】
特開平6−141228号公報に示された電子カメラは、被写体像を撮影レンズ及び鏡を介して撮像素子上に結像し、前画像の一部に現画像の一部が重なるように被写体像を間欠的に複数回取り込み、現画像を前画像に適切に接続する位置に移動している。また、特開平9−90530号公報に示されたパノラマ画像合成装置は、画像を合成するためのパラメータを算出し、算出したパラメータに基づいて画像を合成することにより、電子カメラの分割画像から高精度な画像を得ようとしている。
【0004】
【発明が解決しようとする課題】
しかしながら、特開平6−141228号公報に掲載された電子カメラでは、鏡及びその駆動機構が必要となり、装置規模が大きくなるので、通常の電子カメラに搭載することは困難である。
【0005】
また、原稿又はパネル上の画像を撮像する場合、カメラと被写体との距離は近ため、特開平9−90530号公報に掲載されたパノラマ画像合成装置では、カメラの並進移動による透視投影の影響により合成画像に歪が生じる。また、人間が電子カメラを保持しているため任意に回転が画像に生じ、これが合成画像の歪の原因になる。
【0006】
この発明はかかる短所を解消するためになされたものであり、分割画像を合成する際の歪を軽減することにより、簡便、且つ、高精細な平面画像を入力することができる撮像装置及び撮像画像合成方法を提供することを目的とするものである。
【0007】
【課題を解決するための手段】
この発明に係る撮像装置は、先に撮像した画像と一部が重複するようにして複数の視点から入力対象平面を撮像する手段と、前記撮像手段により各画像を撮像する際の前記入力対象面に対する前記撮像する手段の角度である姿勢角を検出する手段と、前記先に撮像した画像と後に撮像した画像との重複部分から先に撮像した画像の複数の特徴点を抽出し、後に撮像した画像から前記特徴点に対応する対応点を抽出する手段と、前記検出した姿勢角と、前記抽出した特徴点及び対応点とに基づいて前記撮像する手段の並進運動成分を検出する手段と、前記検出した姿勢角と、前記抽出した特徴点及び対応点と、前記検出された並進運動成分とにより前記各特徴点の3次元位置を算出する手段と、前記抽出した各特徴点が同一平面上にあるものとして、前記算出した各特徴点の3次元位置を基に前記各特徴点が同一平面上に存在する平面の情報を算出する手段と、前記検出した姿勢角と、各特徴点の並進運動成分と、前記算出した平面の情報とに基づいて前記撮像した各画像を任意の同一画像面に投影して前記画像を合成する手段とを備えたことを特徴とする。
【0012】
前記画像を合成する手段は、前記先に撮像した画像と後に撮像した画像との重複部分の相互相関値が最大になるように前記画像の投影位置及びスケールを微調整する手段を有して、さらに歪のない高精度の画像復元を行なう。
【0013】
この発明に係る第2の撮像装置は、先に撮像した画像と一部が重複するようにして入力対象平面を撮像する手段と、前記撮像する手段により各画像を撮像する際の前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段と、前記先に撮像した画像と後に撮像した画像との重複部分から先に撮像した画像の複数の特徴点を抽出し、後に撮像した画像から前記の特徴点に相当する対応点を抽出する手段と、前記検出した画像面の位置と姿勢角変化及び視点位置変化と、前記抽出した特徴点及び対応点とに基づいて前記各特徴点に相当する入力対象平面上の各点の3次元位置を算出する手段と、前記算出した入力対象平面上の各点の3次元位置に基づいて入力対象平面上の各点を通る平面の情報を示す平面方程式を算出する手段と、前記算出した平面方程式で表せられる画像面に、前記撮像した各画像を再投影して画像を合成する手段とを備え、前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段は、前記各画像を撮像したときに得られた画像面の基準座標系に対する姿勢角を算出する手段と、前記算出した画像面の基準座標系に対する姿勢角と、前記対応点を抽出する手段で得られた対応関係により前記撮像する手段の並進移動成分を算出する手段とを有することを特徴とする。
【0015】
また、前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段は、前記各画像を撮像したときに検出した前記画像面の姿勢角の変化と並進移動成分を検出する手段と、前記検出した姿勢角の変化と並進移動成分とに基づいて前記各画像を撮像したときに得られた画像面の基準座標系に対する位置と姿勢を算出する手段とを有しても良い。
【0016】
さらに、前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段は、前記対応点を抽出する手段で得られた複数の特徴点と対応点の位置関係から前記撮像する手段の姿勢変化と並進移動を算出する手段と、前記算出した前記撮像する手段の姿勢変化と並進移動とに基づいて前記各画像を撮像したときに得られた画像面の基準座標系に対する位置と姿勢を算出する手段とを有しても良い。
【0021】
この発明の撮像画像合成方法は、先に撮像した画像と一部が重複するようにして入力対象平面を撮像し、前記各画像を撮像する際の前記入力対象面に対する撮像角度である姿勢角を検出し、前記先に撮像した画像と後に撮像した画像との重複部分から先に撮像した画像の複数の特徴点を抽出し、後に撮像した画像から前記特徴点に対応する対応点を抽出し、前記検出した姿勢角と、前記抽出した特徴点及び対応点とに基づいて前記各画像を撮像したときの並進運動成分を検出し、前記検出した姿勢角と、前記抽出した特徴点及び対応点と前記検出された並進運動成分とにより前記各特徴点の3次元位置を算出し、前記抽出した各特徴点が同一平面上にあるものとして、前記算出した各特徴点の3次元位置を基に前記各特徴点が同一平面上に存在する平面の情報を算出し、前記検出した姿勢角と各特徴点の並進運動成分と前記算出した平面の情報とに基づいて、前記撮像した各画像を任意の同一画像面に投影して前記画像を合成することを特徴とする。
【0024】
前記先に撮像した画像と後に撮像した画像との重複部分の相互相関値が最大になるように前記画像の投影位置及びスケールを微調整することが望ましい。
【0027】
【発明の実施の形態】
この発明の撮像装置は、画像撮像部と運動検出部と対応関係抽出部と3次元位置算出部と平面算出部と投影部とを有する。画像撮像部は先に撮像した画像と一部が重複するようにして異なる複数例えば2点の視点から入力対象平面を撮像する。運動検出部は画像撮像部による各撮像の際の視点における画像撮像部の角度である姿勢角の変化及び視点の位置の変化を検出する。対応関係抽出部は先に撮像した画像から複数の特徴点を抽出し、特徴点を抽出した画像の次ぎに撮像した画像において先の画像で抽出した特徴点に対応する点である対応点を抽出する。3次元位置算出部は運動検出部が検出した姿勢角変化及び視点位置変化並びに対応関係抽出部が抽出した特徴点及び対応点を基に各特徴点の3次元位置を算出する。この特徴点の3次元位置を算出するには、例えば先に撮像した第1視点から次ぎに撮像した第2視点への姿勢変化を基に、第1視点の光学中心から各特徴点までの視線ベクトルと第2視点の光学中心から各対応点までの視線ベクトルを算出し、算出した視線ベクトルと第1視点と第2視点の位置変化を基に三角測量の原理により、各特徴点の3次元位置を算出する。
【0028】
平面算出部は対応関係抽出部が抽出した各特徴点が同一平面上にあるものとして、3次元位置算出部が計測した各特徴点の3次元位置を基に、例えば最小自乗法を用いて各特徴点が存在する平面の情報を示す平面方程式を算出する。投影部は運動検出部が検出した姿勢角変化及び視点位置変化並びに平面算出部が算出した平面の情報を基に、画像撮像部が撮像した各画像を任意な同一画像面に投影して複数の視点から撮像した画像を合成し、入力対象平面上の画像を復元する。
【0029】
【実施例】
図1はこの発明の一実施例の撮像装置の構成図である。図に示すように、撮像装置は、例えば画像撮像部1と運動検出部2と対応関係抽出部3と3次元位置算出部4と平面算出部5と投影部6と調整部7とを有する。画像撮像部1は、例えばCCDエリアセンサ等を備え、図2(a)に示すように、被写体10の入力対象平面Gcを第1視点Onと第2視点O(n+1)でそれぞれ撮像した画像の一部が、図2(b)及び図2(c)に示すように重複するようにして撮像する。図2(b)に示す第1視点Onで撮像した画像Gnの1つの特徴点Aを定めると、図2(b)に示す第2視O(n+1)で撮像した画像G(n+1)において画像Gnの特徴点Aに対応する対応点は点Bになる。
【0030】
運動検出部2は画像撮像部1による各撮像の際の入力対象平面Gcに対する画像撮像部1の角度である姿勢角の変化及び視点の位置の変化を検出する。対応関係抽出部3は第1視点Onで撮像した第1画像Gnから複数の特徴点Ai(iは整数であり、各特徴点の順番を表わす。)を抽出し、第2視点O(n+1)で撮像した第2画像G(n+1)において第1画像Gnの特徴点Aiに対応する第2画像G(n+1)の対応点Biを抽出する。3次元位置算出部4は運動検出部2が検出した姿勢角変化と視点位置変化及び対応関係抽出部3が抽出した特徴点Aiと対応点Biを基に各特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を算出する。このように特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を算出するには、第1視点Onで撮像した第1画像面の光学中心を原点とし、第1視点Onから第2視点O(n+1)に移動したときの画像撮像部1の姿勢変化を基に、第1視点Onの光学中心から各特徴点Aiまでの視線ベクトルV1iと第2視点O(n+1)の光学中心から対応点Biまでの視線ベクトルV2iを算出し、算出した視線ベクトルV1i,V2iと各視点の位置変化を基に三角測量の原理により、各特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を算出する。
【0031】
平面算出部5は対応関係抽出部3が抽出した各特徴点Aiが同一平面上にあるとして、3次元位置算出部4が計測した各特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を基に、例えば最小自乗法を用いて各特徴点Aiが存在する平面の情報として平面方程式を算出する。投影部6は運動検出部5が検出した姿勢角変化及び視点位置変化並びに平面算出部5が算出した平面方程式を基に、画像撮像部1が撮像した各画像を任意の同一画像面に投影して、複数の視点から撮像した各画像を合成する。ここで、画像撮像部1が撮像した各画像を任意の同一画像面に投影する動作について、図3を参照して説明する。
【0032】
ある視点で得た画像面In上の点Pnとこの視点の光学中心Onとを結ぶ直線が平面算出部5が算出した平面Gcと交差する点をPcとする。また、新たに合成する画像を投影する画像面をImとし、この光学中心をOmとする。点Pcと光学中心Omとを結ぶ直線が画像面Imと交差する点Pmに画素をマッチングする。この動作を必要な画素全てに対して行なうことにより、図4に示すように画像面Imに新たな画像を形成する。この処理を画像撮像部1が撮像した各画像に対して行ない、画像撮像部1が撮像した各画像を任意な同一画像面に投影することにより複数の視点から撮像した画像を合成する。ここで、このようにして形成した画像は記憶装置に保存しても良いし、表示装置に表示したり、印刷装置から印刷するようにしても良い。
【0033】
調整部7は、画像撮像部1が撮像した各画像を画像面に投影した際にその重複部分の相互相関値が最大になるように投影位置及びスケールを微調整する。入力対象平面Gc上の画像は一部が重複するように撮像されているので、画像を投影する画像面Imにおいて重複して撮像された領域は重複して投影されている。第1画像の重複部画像をIn(x,y)とし、第2画像の重複部画像をIm(x,y)としたとき、下記(1)式で示す相関関数の値Sが最大となるようにδx及びδyを求め、第2画像の全画素をδx及びδyだけシフトする。
【0034】
【数1】

Figure 0003957888
【0035】
上記のように構成した撮像装置の動作を図5のフローチャートを参照して説明する。画像撮像部1は入力対象平面Gcを第1視点から撮像し、撮像した第1画像を記憶装置に記憶する(ステップS1,S2)。その後、ユーザが画像撮像部1を撮像した画像の一部が重複するように第2視点に移動した後に第2視点から撮像し、撮像した第2画像を記憶装置に記憶する(ステップS3,S4)。このように、第1画像と第2画像の一部が重複するように撮像するので、画像撮像部1が撮像した各画像の関連を容易に検出することができる。
【0036】
運動検出部2は第1画像を撮像した際から第2画像を撮像する際までの画像撮像部1の姿勢角の変化及び視点の位置の変化を検出する(ステップS5)。対応関係抽出部3は第1画像から複数の特徴点Aiを抽出し、第2画像から対応点Biを抽出する(ステップS6)。これにより、第1画像と第2画像との対応関係を検出することができる。3次元位置算出部4は運動検出部2が検出した姿勢角変化及び視点位置変化並びに対応関係抽出部3が抽出した特徴点Aiと対応点Biを基にして各特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を算出する(ステップS7)。平面算出部5は対応関係抽出部3が抽出した各特徴点Aiが同一平面上にあるものとして、3次元位置算出部4が計測した各特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を基に最小自乗法を用いて各特徴点Aiが存在する平面の平面方程式を算出する(ステップS8)。投影部6は運動検出部5が検出した姿勢角変化及び視点位置変化並びに平面算出部5が算出した平面方程式を基に、画像撮像部1が撮像した各画像を任意の同一画像面Imに投影して、複数の視点から撮像した各画像を合成する(ステップS9)。このようにして、画像撮像部1が並進移動することによる影響により合成画像に歪が生じることを防止できるとともに、画像撮像部1の回転が合成画像の歪の原因になることを防止できる。
【0037】
調整部7は、画像撮像部1が撮像した各画像を画像面に投影した際にその重複部分の相互相関値が最大になるように投影位置及びスケールを微調整する(ステップS10)。これにより、合成した各画像にずれが生じることを防止でき、さらに正確に画像の合成を行なうことができる。
【0038】
次ぎに、この発明の第2の実施例の撮像装置について説明する。第2の実施例の撮像装置は、図6の構成図に示すように、画像撮像部1と姿勢検出部8と対応関係抽出部3と並進運動検出部9と3次元位置算出部4と平面算出部5と投影部6と調整部7を有する。
【0039】
姿勢検出部8は、例えば図7に示すようにX軸方向磁気方位センサ81とZ軸方向磁気方位センサ81と姿勢角検知部83とを有する。X軸方向磁気方位センサ81とZ軸方向磁気方位センサ82はそれぞれ画像面に垂直な方向をZ軸とした場合のX軸方向とZ軸方向の磁気の検出信号を出力する。ここで検出する磁気方位は地磁気によるものでも、人工的に発生させた磁界によるものでも良い。姿勢角検知部83はX軸方向磁気方位センサ81とZ軸方向磁気方位センサ82からの信号を基に画像撮像部1で撮像するときの各視点における画像撮像部1の角度である姿勢角を検知する。
【0040】
並進運動検出部9は姿勢検出部8が検出した姿勢角並びに対応関係抽出部3が抽出した特徴点Ai及び対応点Biを基に画像撮像部1の並進運動成分Tを算出する。並進運動成分Tを算出するには、例えば並進運動検出部9は姿勢検出部8が検出した第1画像撮像の際の姿勢角と第2画像撮像の際の姿勢角から姿勢角の変化を算出し、図8に示すような同じ座標系で特徴点Aiを通る視線ベクトルV1iと対応点Biを通る視線ベクトルV2iを算出する。視線ベクトルV1i,V2iと並進運動ベクトルTのスカラーの三重積は理想的には「0」である。そこで、並進運動ベクトルTは各特徴点Aiにおけるスカラーの三重積の総和である下記(2)式に示す値を最小化する値として算出する。
【0041】
【数2】
Figure 0003957888
【0042】
3次元位置算出部4は、姿勢検出部8が検出した姿勢角と対応関係抽出部3が抽出した特徴点Aiと対応点Bi及び並進運動検出部9が検出した並進運動ベクトルTを基に三角測量の原理を用いて各特徴点Aiの3次元位置を算出する。
【0043】
上記のように構成した撮像装置の動作を図9のフローチャートを参照して説明する。画像撮像部1は入力対象平面Gcを第1視点で撮像し、撮像した第1画像を記憶装置に記憶する(ステップS11)。姿勢検出部8は画像撮像部1が第1視点から撮像した際の画像撮像部1の姿勢角を検出する(ステップS12)。その後、ユーザが画像撮像部1をそれぞれ撮像した画像の一部が重複するように第2視点に移動した後に第2視点で撮像し、撮像した第2画像を記憶装置に記憶する(ステップS13)。姿勢検出部8は画像撮像部1が第1視点から撮像した際と同様に画像撮像部1が第1視点から撮像した際の画像撮像部1の姿勢角を検出し、さらに第1視点から撮像した際の姿勢角と第2視点から撮像した際の姿勢角の変化を検出する(ステップS14)。このように、第1画像と第2画像の一部が重複するように撮像するとともにその際の姿勢角を検出するので、画像撮像部1が撮像した各画像の関連を容易に検出することができるとともに画像撮像部1の姿勢角の変化による影響をなくすことができる。
【0044】
対応関係抽出部3は第1画像から複数の特徴点Aiを抽出し、第2画像から対応点Biを抽出する(ステップS15)。これにより第1画像と第2画像との対応関係を検出することができる。並進運動検出部9は姿勢検出部8が検出した姿勢角並びに対応関係抽出部3が抽出した特徴点Ai及び対応点Biを基に画像撮像部1の並進運動ベクトルTを算出する(ステップS16)。3次元位置算出部4は運動検出部2が検出した姿勢角変化と視点位置変化と対応関係抽出部3が抽出した特徴点Aiと対応点Bi及び並進運動検出部9が検出した並進運動ベクトルTを基に各特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を算出する(ステップS17)。平面算出部5は対応関係抽出部3が抽出した各特徴点Aiが同一平面上にあるものとして、3次元位置算出部4が計測した各特徴点Aiの3次元位置(Xi1,Yi1,Zi1)を基に最小自乗法を用いて各特徴点Aiが存在する平面の平面方程式を算出する(ステップS18)。投影部6は運動検出部5が検出した姿勢角変化及び視点位置変化並びに平面算出部5が算出した平面方程式を基に、画像撮像部1が撮像した各画像を任意な同一画像面Imに投影して、複数の視点から撮像した各画像を合成する(ステップS19)。これにより、画像撮像部1が平行移動することによる影響により合成画像に歪が生じることを防止できるとともに、画像撮像部1の回転が合成画像の歪の原因になることを防止できる。調整部7は、画像撮像部1が撮像した各画像を画像面に投影した際にその重複部分の相互相関値が最大になるように投影位置及びスケールを微調整する(ステップS20)。これにより、合成した各画像にずれが生じることを防止でき、さらに正確に画像の合成を行なうことができる。
【0045】
上記実施例では姿勢検出部8にX軸方向磁気方位センサ81とZ軸方向磁気方位センサ82と姿勢角検知部83を設けた場合について説明したが、さらにY軸方向磁気方位センサを設けても良い。
【0046】
また、姿勢検出部8に、例えば図10に示すようにX軸方向磁気方位センサ81とY軸方向磁気方位センサ84と画像撮像部1の重力方向に対する角度を検出する重力方向検出器85と姿勢角検知部83を設けても良い。ここで重力方向検出器85としては、例えばX軸,Y軸,Z軸の各軸方向の加速度を検出する加速度センサを用いて画像撮像部1の姿勢角を検出するようにしても良いし、水準器を用いて姿勢角を検出するようにしても良い。このように重力方向に対する角度を重力方向検出器85で検出し、重力方向周りの回転角度をX軸方向磁気方位センサ81とY軸方向磁気方位センサ84で検出することができるので、より正確に姿勢角を検出することができる。また重力方向検出器8は、2軸方向の磁気を検出するもので良いが、大きく傾く場合には3軸回り磁気を検出するようにすると良い。
【0047】
さらに、姿勢検出部8に、例えば図11に示すようにX軸回りジャイロ86とY軸回りジャイロ87と姿勢角検知部83を設けても良い。X軸回りジャイロ86とY軸回りジャイロ87は、X軸回りとY軸回りの回転角速度を検出する角速度検出部としての機能を有し、それぞれX軸回りの回転角速度及びY軸回りの回転角速度を示す信号を出力する。姿勢角検知部83はX軸回りジャイロ86とY軸回りジャイロ87が出力した信号をデジタル変換した後に積分して姿勢角を検出する。このようにして磁気が不安定な場所又は磁気を検出するのが困難な場合であっても正確に画像撮像部1の姿勢角を検出することができる。
【0048】
次ぎにこの発明の第3の実施例の撮像装置について説明する。第3の実施例の撮像装置は、図12の構成図に示すように、画像撮像部1と位置検出部11と対応関係抽出部3と3次元位置算出部4と平面算出部5と投影部6を有する。位置検出部11は、図2に示すように、画像撮像部1で入力対象平面Gcを第1視点Onと第2視点O(n+1)でそれぞれ撮像したときの画像面の基準座標系における位置と姿勢角を検出する。3次元位置算出部4は、位置検出部11で検出した画像面の基準座標系における位置と姿勢角及び対応関係抽出部3で抽出した第1画像Gnの特徴点Aiと第2画像G(n+1)の対応点Biを基に各特徴点Aiの3次元座標値を算出する。
【0049】
上記のように構成された撮像装置の動作を図13のフローチャートを参照して説明する。画像撮像部1で対象物を第1視点Onにおいて撮像したときの画像Gnを記憶し、位置検出部11で基準座標系における画像面の位置と姿勢を算出する(ステップS21)。その後、画像撮像部1を第2視点O(n+1)に移動して対象物を撮像し、撮像した画像G(n+1)を記憶し、位置検出部11で基準座標系における画像面の位置と姿勢を算出して3次元位置算出部4に送る(ステップS22)。対応関係抽出部3は第1視点Onにおいて撮像した画像Gn上の特徴点Aiを抽出し(ステップS23)、第2視点O(n+1)で撮像した画像G(n+1)の特徴点Aiに対応する対応点Biを抽出し3次元位置算出部4に送る(ステップS24)。3次元位置算出部4は位置検出部11で検出した各視点On,O(n+1)における画像面の位置と姿勢角及び対応関係抽出部3で抽出した第1画像Gnの特徴点Aiと第2画像G(n+1)の対応点Biを基に各特徴点Aiの3次元座標値を算出し平面算出部5に送る(ステップS25)。平面算出部5は複数の対象平面上の各特徴点Aiの座標値より平面方程式を算出する(ステップS26)。投影部6は平面算出部5で算出した平面方程式で表せる画像面に各視点On,O(n+1)で撮像した画像を再投影して合成する(ステップS27)。複数の視点で画像を撮像した場合は、上記処理を繰り返す(ステップS28,S29)。そして必要な場合、別の画像面へ再投影する(ステップS30)。
【0050】
このようにして複数の視点で分割した撮像した画像を簡単に合成することができるとともに、歪がなく精細な画像を得ることができる。
【0051】
上記第3の実施例の位置検出部11を、図14に示すように、姿勢算出部12と並進計算部13で構成しても良い。姿勢算出部12は、例えば加速度センサと磁気方位センサとジャイロのいずれか又はこれらの組合せを有し、各視点における画像撮像部1の姿勢角あるいは姿勢角変化を算出する。並進計算部13は姿勢算出部12で算出した姿勢角から各視点で得られた画像面の基準座標系に対する姿勢角を算出し、対応関係抽出部3で抽出した第1画像Gnの特徴点Aiと第2画像G(n+1)の対応点Biの対応関係より、図8に示す画像撮像部1の並進運動ベクトルTを算出する。この並進計算部13で算出した各視点で得られた画像面の基準座標系に対する姿勢角と画像撮像部1の並進運動ベクトルT及び対応関係抽出部3が抽出した特徴点Aiと対応点Biを基に3次元位置算出部4で三角測量の原理を用いて各特徴点Aiの3次元位置を算出する。
【0052】
姿勢算出部12として3軸加速度センサと2軸磁気方位センサを用いた場合、図15に示すように、重力方向をY軸とした基準座標系X,Y,Z軸及び画像撮像部1の光軸をW軸と一致させた撮像部座標系U,V,W軸を定義し、基準座標系X,Y,Z軸に対する撮像部座標系U,V,W軸の傾きを姿勢角θ(U),θ(V),θ(W)とする。回転の順序は、基準座標系と撮像部座標系が一致する状態からV(Y)軸回りにθ(V)だけ回転させてから、移動した撮像部座標系を基準にU軸回りにθ(U)だけ回転させ、移動した撮像部座標系を基準にW軸回りにθ(W)だけ回転させる。それぞれの回転行列をR(V),R(U),R(U)として、回転行列R=R(V)・R(U)・R(W)を下記(3)式で表す。
【0053】
【数3】
Figure 0003957888
【0054】
また、3軸加速度センサの出力Aと2軸磁気方位センサの出力Mを下記(4)式で表す。
【0055】
【数4】
Figure 0003957888
【0056】
ただし、2軸磁気方位センサを用いる場合M(Y)は不定である。また、重力加速度ベクトルGは下記(5)式で表せる。
【0057】
【数5】
Figure 0003957888
【0058】
ここで地磁気の伏角φを既知とすると、地磁気べクトルDは下記(6)式となる。
【0059】
【数6】
Figure 0003957888
【0060】
ここで回転行列Rと3軸加速度センサの出力Aと重力加速度ベクトルGは下記(7)式の関係があるから(8)式が得られる。
【0061】
【数7】
Figure 0003957888
【0062】
(8)式より姿勢角θ(U),θ(W)は下記(9)式で得られる。(9)式においてcosθ(U)が0の場合、θ(W)は任意に定めて良い。
【0063】
【数8】
Figure 0003957888
【0064】
さらに、回転行列Rと2軸磁気方位センサの出力Mと地磁気べクトルDは下記(10)式の関係があるから(11)式が得られる。
【0065】
【数9】
Figure 0003957888
【0066】
(11)式より下記(12)式が算出され、(12)式より姿勢角θ(V)は(13)式で得られる。
【0067】
【数10】
Figure 0003957888
【0068】
このようにして姿勢算出部12により3軸加速度センサと2軸磁気方位センサの出力から基準座標系X,Y,Z軸に対する画像撮像部座標系U,V,W軸の傾きを姿勢角θ(U),θ(V),θ(W)を算出することができる。
【0069】
次ぎに、姿勢算出部12として3軸加速度センサと3軸磁気方位センサの出力から基準座標系X,Y,Z軸に対する画像撮像部座標系U,V,W軸の傾きを姿勢角θ(U),θ(V),θ(W)を算出する場合を示す。この場合、姿勢角θ(U),θ(W)は上記(9)式で得られる。ここで地磁気の伏角は未知として良く、地磁気ベクトルDを下記(14)とする。
【0070】
【数11】
Figure 0003957888
【0071】
ここでベクトルD1を下記(15)とおくと(16)式が得られる。
【0072】
【数12】
Figure 0003957888
【0073】
(16)式より(17)式が得られる。
【0074】
【数13】
Figure 0003957888
【0075】
(17)式より姿勢角θ(V)が下記(18)式で得ることができる。
【0076】
【数14】
Figure 0003957888
【0077】
また、位置検出部11を、図16に示すように、運動検出部14と位置姿勢計算部15で構成しても良い。運動検出部14は、例えば加速度センサとジャイロからなり、画像撮像部1が視点を変えて撮像するときに、画像撮像部1が移動する過程における姿勢角変化と並進運動成分を検出する。位置姿勢計算部15は検出した画像撮像部1の姿勢角変化と並進運動成分から各視点で得られた画像面の基準座標系に対する位置と姿勢を算出する。この算出した各視点で得られた画像面の基準座標系に対する位置と姿勢及び対応関係抽出部3が抽出した特徴点Aiと対応点Biを基に3次元位置算出部4で三角測量の原理を用いて各特徴点Aiの3次元位置を算出する。
【0078】
さらに、図17に示すように、運動計算部16で基準座標系に対する各画像面の位置と姿勢を算出するようにしても良い。この場合、運動計算部16は対応関係抽出部3が抽出した特徴点Aiと対応点Biの対応関係より視点間の画像撮像部1の位置変化と姿勢角変化を求め、求めた位置変化と姿勢角変化より基準座標系における各画像面の位置と姿勢を算出する。この算出した各視点で得られた画像面の基準座標系に対する位置と姿勢及び対応関係抽出部3が抽出した特徴点Aiと対応点Biを基に3次元位置算出部4で三角測量の原理を用いて各特徴点Aiの3次元位置を算出する。
【0079】
また、上記各実施例で投影部6において各撮像画像を任意の位置と姿勢の画像面に再投影後、その位置を微調整することにより合成画像の歪みを軽減することができる。すなわち、被写体は一部が重なるよう撮像されているので、再投影される画像面において、その領域は重複して投影される。そこで第1視点から投影されるこの重複部画像と第2視点から投影される重複部画像の(1)式に示す相関関数が最大となる微小量δx、δyを求め、第2視点から投影される全画像に対して、δx、δyだけ平行移動させる。ここで位置の微調整は相互相関値を用いるものに限られず、サブピクセルレベルの位置合わせを行っても良い。
【0080】
次ぎにこの発明の他の実施例の撮像装置について説明する。この実施例の撮像装置は、図18の構成図に示すように、画像撮像部1と3次元位置検出部17と平面算出部5aと投影部6a及び再調整部18を有する。画像撮像部1は、図2(a)に示すように,平面状の被写体10を視点を変えて撮像する。この視点を変えて撮像するときに、撮像する画像の一部が必ずしも重なり合っていなくても良い。3次元位置検出部17は、例えば超音波やレーザーなどを用いた測距センサからなり、視点を変えて撮像したときに撮像対象物平面の複数の特徴点の距離を計測して各特徴点の3次元位置を検出する。平面算出部5aは3次元位置検出部17で検出した各特徴点の3次元位置から、最小自乗法などにより、被写体10の面の空間上での平面方程式を算出する。ただし、この場合、算出した平面は各視点を基準とした平面となり、視点の数だけ存在し、図19に示すように、視点Onと視点O(n+1)で撮像したとき、視点Onを基準にした平面Gcnと視点O(n+1)を基準とした平面Gc(n+1)を算出する。投影部6aは視点Onで撮像した画像Gnを平面Gcnへ再投影し、視点O(n+1)で撮像した画像G(n+1)を平面Gc(n+1)へ再投影する。再調整部18は画像Gnを投影した平面Gcnと画像G(n+1)を投影した平面Gc(n+1)の位置と姿勢を調整して合成画像を得る。この調整方法としては、画像Gnと画像G(n+1)に重なる部分がある場合は、それらが適合するように調整し、重なる部分がほとんどない場合は、画像Gnと画像G(n+1)が滑らかにつながるよう調整する。投影部6aは調整して合成画像を、必要ならば任意の仮想的な視点の画像面Gpへ投影して新たな画像を得る。
【0081】
上記のように構成した撮像装置の動作を図20のフローチャートを参照して説明する。第1視点において画像撮像部1で対象物を撮像したときの画像Gnを記憶し、3次元位置検出部17で撮像対象物平面の複数の特徴点の距離を計測して、各特徴点の3次元位置を求める。平面算出部5aは各特徴点の3次元位置により画像撮像部1に対する対象平面Gcnの位置と姿勢を示す平面方程式を算出する(ステップS31)。投影部6aは算出した平面Gcnに撮像した画像Gnを投影する(ステップS32)。次ぎに第2視点において画像撮像部1で対象物を撮像したときの画像G(n+1)を記憶し、3次元位置検出部17で撮像対象物平面の複数の特徴点の距離を計測し、各特徴点の3次元位置を求める。平面算出部5aは各特徴点の3次元位置から画像撮像部1に対する対象平面Gc(n+1)の位置と姿勢を示す平面方程式を算出する(ステップS33,S34)。投影部6aは算出した平面Gc(n+1)に撮像した画像G(n+1)を投影する(ステップS35)。再調整部18は画像Gnを投影した平面Gcnと画像G(n+1)を投影した平面Gc(n+1)の位置と姿勢を調整して合成画像を得る(ステップS36)。この処理を視点を変えて撮像するたびに繰り返し、所定の各視点で撮像と処理が終了したら(ステップS37)、投影部6aは合成した画像を別の画像面へ再投影する(ステップS38)。
【0082】
このように各視点で複数の特徴点の距離を直接検出して対象平面の位置と姿勢を定めるから、対象平面を算出する処理の高速化を図ることができる。
【0083】
上記実施例は3次元位置検出部17に超音波やレーザーなどを用いた測距センサを使用した場合について説明したが、画像撮像部1の画像面に対象物平面上の特徴点が合焦したときのレンズと画像面の位置関係から特徴点の距離を算出するようにしても良い。
【0084】
また、図21に示すように、3次元位置検出部17とともに姿勢算出部12を設け、3次元位置検出部17で検出した各特徴点の3次元位置と姿勢算出部12で得られた画像撮像部1の姿勢から基準座標系における平面方程式を算出することにより、対象平面の位置と姿勢を示す平面方程式を算出するとき、姿勢角の調整を行う必要がなく処理の高速化を図ることができる。
【0085】
この場合の動作を図22のフローチャートを参照して説明する。第1視点において、画像撮像部1で対象物を撮像したときの画像Gnを記憶し、3次元位置検出部17で撮像対象物平面の複数の特徴点の距離を計測して、各特徴点の3次元位置を求め、姿勢算出部12で画像撮像部1の基準座標に対する姿勢を算出する。平面算出部5aは各特徴点の3次元位置から、画像撮像部1に対する対象平面の位置と姿勢を示す平面方程式を算出する(ステップS41)。この平面方程式を画像撮像部1の基準座標に対する姿勢をもとに基準座標へ変換する(ステップS42)。投影部6aは変換した平面方程式で示す平面に画像Gnを投影する(ステップS43)。次ぎに第2視点において画像撮像部1で対象物を撮像したときの画像G(n+1)を記憶し、3次元位置検出部17で撮像対象物平面の複数の特徴点の距離を計測して、各特徴点の3次元位置を求め、姿勢算出部12で画像撮像部1の基準座標に対する姿勢を算出する。平面算出部5aは各特徴点の3次元位置から、画像撮像部1に対する対象平面の位置と姿勢を示す平面方程式を算出し(ステップS44,S45)、平面方程式を画像撮像部1の基準座標に対する姿勢をもとに基準座標へ変換する(ステップS46)。投影部6aは変換した平面方程式で示す平面に画像G(n+1)を投影する(ステップS47)。再調整部18は画像Gnを投影した平面と画像G(n+1)を投影した平面の位置と姿勢を調整して合成画像を得る(ステップS48)。この処理を視点を変えて撮像するたびに繰り返し、各視点で撮像と処理が終了したら(ステップS49)、投影部6aは合成した画像を別の画像面へ再投影する(ステップS50)。
【0086】
【発明の効果】
この発明は以上説明したように、入力対象平面をそれぞれ一部が重複するようにして複数の視点から撮像した際の姿勢角を算出し、算出した姿勢角と各視点で撮像した画像の対応関係から視点を変えたときの並進移動成分を検出し、姿勢角と特徴点と対応点及び並進運動成分を基に各特徴点に相当する入力対象平面上の3次元位置を算出して撮像した入力対象平面の各画像を任意の同一画像面に投影するので、姿勢角の変化による影響を取り除いて、複数の視点から撮像した画像をより正確に合成することができる。
【0087】
また、複数の視点から撮像した画像を合成し、入力対象平面上の画像を復元するので、入力対象平面上の画像が大きい場合及び入力対象平面を有する対象物を移動できない場合であっても画像を撮像し復元をすることができる。
【0091】
また、互いに直交する2軸周り又は3軸周りの角速度から撮像するときの姿勢角を検出することにより、磁気による方位検出が困難な場合であっても簡単に撮像するときの姿勢角を検出することができる。
【0092】
また、各視点において撮像した入力対象平面の画像を投影した際に、その重複部分の相互相関値が最大になるように投影位置及びスケールを微調整するので、歪のない高精度の画像を再生することができる。
【0093】
また、視点を変えて撮像するときに、基準座標系における画像面の位置と姿勢を算出し、各視点における画像面の位置と姿勢角及び各画像の対応関係から各特徴点の3次元座標値を算出して平面方程式を算出するから、平面状の被写体を分割撮像して合成するときに、歪みなしで合成することができ、簡単な構成で高精細な画像を得ることができる。
【0094】
また、各視点で撮像するときの姿勢角を算出し、各視点で得られた画像面の基準座標系に対する姿勢角を算出し、算出した画像面の基準座標系に対する姿勢角と各視点で撮像した画像の対応関係から視点を変えたときの並進移動成分を算出するから、視点を変えたときの位置と姿勢を簡単に検出することができ、各特徴点の3次元座標値を算出して平面方程式を簡単に算出することができる。
【0096】
また、視点を変えて撮像した画像の対応関係から視点間の姿勢変化と並進移動を算出することにより、撮像部の動きを検出するセンサが不要となり、装置全体の構成を簡略化できる。
【0097】
さらに、各視点で撮像した画像を合成するときに隣接画像間で位置合わせを行うから、良質な合成画像を得ることができる。
【図面の簡単な説明】
【図1】この発明の実施例を示す構成図である。
【図2】入力対象平面に対する第1画像及び第2画像の関係を示す説明図である。
【図3】画像投影の原理を示す説明図である。
【図4】画像合成の原理を示す説明図である。
【図5】撮像装置の動作を示すフローチャートである。
【図6】第2の実施例の構成図である。
【図7】姿勢検出部の構成図である。
【図8】並進運動ベクトルを算出する原理を示す説明図である。
【図9】第2の実施例の動作を示すフローチャートである。
【図10】重力方向検出器を有する姿勢検出部の構成図である。
【図11】ジャイロを有する姿勢検出部の構成図である。
【図12】第3の実施例の構成図である。
【図13】第3の実施例の動作を示すフローチャートである。
【図14】第4の実施例の構成図である。
【図15】基準座標系と画像撮像部座標系を示す説明図であ。
【図16】第5の実施例の構成図である。
【図17】第6の実施例の構成図である。
【図18】第7の実施例の構成図である。
【図19】第7の実施例の画像合成を示す説明図である。
【図20】第7の実施例の動作を示すフローチャートである。
【図21】第8の実施例の構成図である。
【図22】第8の実施例の動作を示すフローチャートである。
【符号の説明】
1 画像撮像部
2 運動検出部
3 対応関係抽出部
4 3次元位置算出部
5 平面算出部
6 投影部
7 調整部
8 姿勢検出部
9 並進運動検出部
11 位置検出部
12 姿勢算出部
13 並進計算部
14 運動検出部
15 位置姿勢計算部
16 運動計算部
17 3次元位置検出部
18 再調整部[0001]
BACKGROUND OF THE INVENTION
The present invention captures an image on an input target plane a plurality of times so as to partially overlap each other, combines the captured images on one screen, and restores the captured image, and a captured image combining method, particularly an input to be captured The present invention relates to the synthesis of a high-definition flat image by reducing distortion of the divided image when the target plane is large.
[0002]
[Prior art]
There is a need for a device that can easily and accurately input and restore text or photographs on a plane. In the case of an image on a normal size paper such as A4 size or A3 size, high-accuracy image input is possible with a copying machine or a scanner. As described above, a copying machine or a scanner can read an image on a normal size paper with high accuracy, but it is large as information on a large paper, information written on a wall, information displayed on a panel, or the like. An image or an image drawn on a medium that cannot be moved cannot be input. Therefore, as an apparatus for inputting such a large image or an image drawn on a medium that cannot be moved using an electronic camera, for example, an electronic camera disclosed in Japanese Patent Laid-Open No. 6-141228 or Japanese Patent Laid-Open No. 9-90530. A panoramic image synthesizing apparatus or the like disclosed in the publication is used.
[0003]
The electronic camera disclosed in Japanese Patent Application Laid-Open No. 6-141228 forms a subject image on an image sensor via a photographing lens and a mirror, and the subject image so that a part of the current image overlaps a part of the previous image. Are intermittently captured a plurality of times and moved to a position where the current image is properly connected to the previous image. Further, the panoramic image synthesizing apparatus disclosed in Japanese Patent Application Laid-Open No. 9-90530 calculates parameters for synthesizing images, and synthesizes images based on the calculated parameters, thereby increasing the height of the divided images of the electronic camera. I'm trying to get an accurate image.
[0004]
[Problems to be solved by the invention]
However, the electronic camera disclosed in Japanese Patent Application Laid-Open No. 6-141228 requires a mirror and its driving mechanism, which increases the scale of the apparatus and is difficult to be mounted on a normal electronic camera.
[0005]
Further, when an image on a document or a panel is captured, the distance between the camera and the subject is short, so in the panorama image composition device disclosed in Japanese Patent Laid-Open No. 9-90530, the effect of perspective projection due to the translational movement of the camera. Distortion occurs in the composite image. Further, since a human holds the electronic camera, arbitrary rotation occurs in the image, which causes distortion of the composite image.
[0006]
The present invention has been made in order to eliminate such disadvantages, and an imaging apparatus and a captured image that can input a simple and high-definition planar image by reducing distortion when combining divided images. The object is to provide a synthesis method.
[0007]
[Means for Solving the Problems]
  An imaging apparatus according to the present invention isMeans for capturing an input target plane from a plurality of viewpoints so that a part thereof overlaps with the previously captured image, and an angle of the image capturing means with respect to the input target plane when each image is captured by the image capturing means; Means for detecting a certain posture angle;Means for extracting a plurality of feature points of the previously captured image from an overlapping portion between the previously captured image and the subsequently captured image, and extracting corresponding points corresponding to the feature points from the subsequently captured image;Means for detecting a translational motion component of the means for imaging based on the detected posture angle and the extracted feature points and corresponding points; the detected posture angle; and the extracted feature points and corresponding points; Based on the detected three-dimensional position of each feature point, the means for calculating the three-dimensional position of each feature point based on the detected translational movement component and the extracted feature points are on the same plane. The imaging is performed on the basis of means for calculating information on a plane in which each feature point exists on the same plane, the detected attitude angle, the translational motion component of each feature point, and the calculated plane information. Means for projecting each image onto an arbitrary same image plane and synthesizing the images.
[0012]
  The means for synthesizing the image includes the first captured image and the later captured image.OverlapMeans for finely adjusting the projection position and scale of the image so that the cross-correlation value of the image becomes the maximum, and further highly accurate image restoration without distortion is performed.
[0013]
  According to this inventionThe second imaging deviceA posture angle which is a position and an angle of an image plane of the image capturing unit when the image capturing unit captures each image so as to partially overlap the previously captured image, and the image capturing unit captures each image. And a plurality of feature points of the previously captured image from the overlapping portion of the previously captured image and the later captured image, and corresponding points corresponding to the feature points from the later captured image Of each point on the input target plane corresponding to each feature point based on the detected image plane position, posture angle change and viewpoint position change, and the extracted feature points and corresponding points. Means for calculating a three-dimensional position; means for calculating a plane equation indicating information of a plane passing through each point on the input target plane based on the calculated three-dimensional position of each point on the input target plane; Expressed by the plane equation The image plane, and means for synthesizing an image by re-projecting each image of which an image is capturedMeans for detecting an attitude angle which is a position and an angle of an image plane of the imaging means; means for calculating an attitude angle with respect to a reference coordinate system of an image plane obtained when the images are captured; and the calculation And a means for calculating a translational movement component of the image pickup means based on the correspondence angle obtained by the means for extracting the corresponding point and the attitude angle of the image plane with respect to the reference coordinate system.
[0015]
  Further, the means for detecting the attitude angle which is the position and angle of the image plane of the imaging means is a means for detecting a change in the attitude angle of the image plane detected when each image is captured and a translational movement component. And a means for calculating the position and orientation of the image plane obtained with respect to the reference coordinate system obtained when each of the images is captured based on the detected change in the orientation angle and the translational movement component.
[0016]
  Further, the means for detecting the posture angle which is the position and angle of the image plane of the image pickup means is the image pickup means based on the positional relationship between the plurality of feature points and the corresponding points obtained by the means for extracting the corresponding points. The position and orientation relative to the reference coordinate system of the image plane obtained when each image is imaged based on the orientation change and translational movement, and the calculated orientation change and translational movement of the imaging means. And means for calculating.
[0021]
  The captured image composition method of the present invention captures an input target plane so that a part of the captured image overlaps with the previously captured image,Detecting an attitude angle that is an imaging angle with respect to the input target surface when imaging each image;Extracting a plurality of feature points of the previously captured image from the overlapping portion of the previously captured image and the subsequently captured image, and extracting corresponding points corresponding to the feature points from the subsequently captured image;Based on the detected posture angle and the extracted feature points and corresponding points, a translational motion component when each image is captured is detected, and the detected posture angles, the extracted feature points and corresponding points are Based on the detected translational motion component, a three-dimensional position of each feature point is calculated, and the extracted feature points are assumed to be on the same plane, based on the calculated three-dimensional position of each feature point. Information on a plane in which each feature point exists on the same plane is calculated, and each captured image is arbitrarily selected based on the detected attitude angle, the translational motion component of each feature point, and the calculated plane information. The image is synthesized by projecting on the same image plane.
[0024]
  Between the previously captured image and the later captured image.OverlapIt is desirable to finely adjust the projection position and scale of the image so that the cross-correlation value becomes the maximum.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
The imaging apparatus of the present invention includes an image imaging unit, a motion detection unit, a correspondence relationship extraction unit, a three-dimensional position calculation unit, a plane calculation unit, and a projection unit. The image capturing unit captures an input target plane from a plurality of different viewpoints, for example, two viewpoints so that a part of the image capturing unit overlaps with the previously captured image. The motion detection unit detects a change in posture angle, which is an angle of the image capturing unit at the viewpoint at the time of each imaging by the image capturing unit, and a change in the position of the viewpoint. The correspondence relationship extraction unit extracts a plurality of feature points from the previously captured image, and extracts corresponding points that correspond to the feature points extracted in the previous image in the image captured next to the image from which the feature points have been extracted. To do. The three-dimensional position calculation unit calculates the three-dimensional position of each feature point based on the posture angle change and the viewpoint position change detected by the motion detection unit, and the feature point and the corresponding point extracted by the correspondence relationship extraction unit. In order to calculate the three-dimensional position of the feature point, for example, the line of sight from the optical center of the first viewpoint to each feature point based on the posture change from the first viewpoint captured first to the second viewpoint captured next. A line-of-sight vector from the optical center of the vector and the second viewpoint to each corresponding point is calculated, and the three-dimensional of each feature point is calculated by the principle of triangulation based on the calculated line-of-sight vector and the position change of the first viewpoint and the second viewpoint. Calculate the position.
[0028]
The plane calculation unit assumes that the feature points extracted by the correspondence relationship extraction unit are on the same plane, and uses each of the feature points measured by the 3D position calculation unit, for example, using the least square method. A plane equation indicating the plane information where the feature point exists is calculated. Based on the posture angle change and viewpoint position change detected by the motion detection unit and the plane information calculated by the plane calculation unit, the projection unit projects each image captured by the image imaging unit onto an arbitrary same image plane, and The images taken from the viewpoint are synthesized and the image on the input target plane is restored.
[0029]
【Example】
FIG. 1 is a block diagram of an image pickup apparatus according to an embodiment of the present invention. As shown in the drawing, the imaging apparatus includes, for example, an image imaging unit 1, a motion detection unit 2, a correspondence relationship extraction unit 3, a three-dimensional position calculation unit 4, a plane calculation unit 5, a projection unit 6, and an adjustment unit 7. The image capturing unit 1 includes, for example, a CCD area sensor and the like, and as illustrated in FIG. 2A, the image of the input target plane Gc of the subject 10 is captured at the first viewpoint On and the second viewpoint O (n + 1), respectively. A part is imaged so as to overlap as shown in FIGS. 2 (b) and 2 (c). When one feature point A of the image Gn captured at the first viewpoint On shown in FIG. 2B is defined, the image G (n + 1) captured at the second view O (n + 1) shown in FIG. The corresponding point corresponding to the feature point A of Gn is the point B.
[0030]
The motion detection unit 2 detects a change in posture angle, which is an angle of the image imaging unit 1 with respect to the input target plane Gc at each imaging by the image imaging unit 1, and a change in viewpoint position. The correspondence extracting unit 3 extracts a plurality of feature points Ai (i is an integer, representing the order of each feature point) from the first image Gn captured at the first viewpoint On, and the second viewpoint O (n + 1). A corresponding point Bi of the second image G (n + 1) corresponding to the feature point Ai of the first image Gn is extracted from the second image G (n + 1) imaged in (1). The three-dimensional position calculation unit 4 determines the three-dimensional position (Xi1) of each feature point Ai based on the posture angle change detected by the motion detection unit 2, the viewpoint position change, and the feature point Ai and the corresponding point Bi extracted by the correspondence relationship extraction unit 3. , Yi1, Zi1). Thus, in order to calculate the three-dimensional position (Xi1, Yi1, Zi1) of the feature point Ai, the optical center of the first image plane imaged at the first viewpoint On is used as the origin, and the first viewpoint On to the second viewpoint O. Based on the posture change of the image capturing unit 1 when moving to (n + 1), the line-of-sight vector V1i from the optical center of the first viewpoint On to each feature point Ai and the corresponding point from the optical center of the second viewpoint O (n + 1) The line-of-sight vector V2i up to Bi is calculated, and the three-dimensional position (Xi1, Yi1, Zi1) of each feature point Ai is calculated by the principle of triangulation based on the calculated line-of-sight vectors V1i, V2i and the position change of each viewpoint. .
[0031]
The plane calculation unit 5 assumes that the feature points Ai extracted by the correspondence relationship extraction unit 3 are on the same plane, and determines the three-dimensional positions (Xi1, Yi1, Zi1) of the feature points Ai measured by the three-dimensional position calculation unit 4. Based on this, for example, a plane equation is calculated as information on the plane where each feature point Ai exists using the least square method. The projection unit 6 projects each image picked up by the image pickup unit 1 on an arbitrary same image plane based on the posture angle change and viewpoint position change detected by the motion detection unit 5 and the plane equation calculated by the plane calculation unit 5. Thus, the images taken from a plurality of viewpoints are combined. Here, an operation of projecting each image captured by the image capturing unit 1 onto an arbitrary same image plane will be described with reference to FIG.
[0032]
Let Pc be the point where a straight line connecting the point Pn on the image plane In obtained from a certain viewpoint and the optical center On of this viewpoint intersects the plane Gc calculated by the plane calculation unit 5. Also, Im is an image plane onto which a newly synthesized image is projected, and this optical center is Om. The pixel is matched with the point Pm where the straight line connecting the point Pc and the optical center Om intersects the image plane Im. By performing this operation on all necessary pixels, a new image is formed on the image plane Im as shown in FIG. This process is performed on each image captured by the image capturing unit 1, and each image captured by the image capturing unit 1 is projected onto an arbitrary same image plane to synthesize images captured from a plurality of viewpoints. Here, the image formed in this way may be stored in a storage device, displayed on a display device, or printed from a printing device.
[0033]
The adjustment unit 7 finely adjusts the projection position and scale so that the cross-correlation value of the overlapping portion becomes maximum when each image captured by the image capturing unit 1 is projected onto the image plane. Since the images on the input target plane Gc are picked up so as to partially overlap, the regions picked up overlappingly on the image plane Im on which the image is projected are projected redundantly. When the overlapping part image of the first image is In (x, y) and the overlapping part image of the second image is Im (x, y), the value S of the correlation function expressed by the following equation (1) is maximized. Thus, δx and δy are obtained, and all pixels of the second image are shifted by δx and δy.
[0034]
[Expression 1]
Figure 0003957888
[0035]
The operation of the imaging apparatus configured as described above will be described with reference to the flowchart of FIG. The image capturing unit 1 captures the input target plane Gc from the first viewpoint, and stores the captured first image in the storage device (steps S1 and S2). Thereafter, after the user moves to the second viewpoint so that a part of the image captured by the image capturing unit 1 overlaps, the image is captured from the second viewpoint, and the captured second image is stored in the storage device (steps S3 and S4). ). In this way, since the first image and the second image are imaged so as to partially overlap, the relationship between the images captured by the image capturing unit 1 can be easily detected.
[0036]
The motion detection unit 2 detects a change in posture angle and a change in viewpoint position of the image capturing unit 1 from when the first image is captured until when the second image is captured (step S5). The correspondence extracting unit 3 extracts a plurality of feature points Ai from the first image, and extracts corresponding points Bi from the second image (step S6). Thereby, the correspondence between the first image and the second image can be detected. The three-dimensional position calculation unit 4 uses the three-dimensional position of each feature point Ai based on the posture angle change and viewpoint position change detected by the motion detection unit 2 and the feature point Ai and the corresponding point Bi extracted by the correspondence relationship extraction unit 3 ( Xi1, Yi1, Zi1) are calculated (step S7). The plane calculation unit 5 assumes that the feature points Ai extracted by the correspondence relationship extraction unit 3 are on the same plane, and the three-dimensional positions (Xi1, Yi1, Zi1) of the feature points Ai measured by the three-dimensional position calculation unit 4. The plane equation of the plane in which each feature point Ai exists is calculated using the least square method based on (step S8). The projection unit 6 projects each image picked up by the image pickup unit 1 onto an arbitrary same image plane Im based on the posture angle change and viewpoint position change detected by the motion detection unit 5 and the plane equation calculated by the plane calculation unit 5. Then, the respective images taken from a plurality of viewpoints are synthesized (step S9). In this way, it is possible to prevent the composite image from being distorted due to the effect of translational movement of the image capturing unit 1, and to prevent the rotation of the image capturing unit 1 from causing the distortion of the composite image.
[0037]
The adjustment unit 7 finely adjusts the projection position and the scale so that the cross-correlation value of the overlapping portion is maximized when each image captured by the image capturing unit 1 is projected onto the image plane (step S10). As a result, it is possible to prevent the synthesized images from being shifted, and more accurately synthesize the images.
[0038]
Next, an image pickup apparatus according to a second embodiment of the present invention will be described. As shown in the block diagram of FIG. 6, the image pickup apparatus of the second embodiment includes an image pickup unit 1, a posture detection unit 8, a correspondence relationship extraction unit 3, a translational motion detection unit 9, a three-dimensional position calculation unit 4, and a plane. The calculation unit 5, the projection unit 6, and the adjustment unit 7 are included.
[0039]
The attitude detection unit 8 includes an X-axis direction magnetic orientation sensor 81, a Z-axis direction magnetic direction sensor 81, and an attitude angle detection unit 83, for example, as shown in FIG. The X-axis direction magnetic direction sensor 81 and the Z-axis direction magnetic direction sensor 82 respectively output magnetic detection signals in the X-axis direction and the Z-axis direction when the direction perpendicular to the image plane is the Z-axis. The magnetic orientation detected here may be based on geomagnetism or an artificially generated magnetic field. The attitude angle detection unit 83 determines an attitude angle that is an angle of the image capturing unit 1 at each viewpoint when the image capturing unit 1 captures an image based on signals from the X-axis direction magnetic direction sensor 81 and the Z-axis direction magnetic direction sensor 82. Detect.
[0040]
The translational motion detection unit 9 calculates the translational motion component T of the image capturing unit 1 based on the posture angle detected by the posture detection unit 8 and the feature point Ai and the corresponding point Bi extracted by the correspondence relationship extraction unit 3. In order to calculate the translational motion component T, for example, the translational motion detection unit 9 calculates a change in posture angle from the posture angle at the time of first image capturing and the posture angle at the time of second image capture detected by the posture detection unit 8. Then, the line-of-sight vector V1i passing through the feature point Ai and the line-of-sight vector V2i passing through the corresponding point Bi are calculated in the same coordinate system as shown in FIG. The scalar triple product of the line-of-sight vectors V1i, V2i and the translational motion vector T is ideally “0”. Therefore, the translational motion vector T is calculated as a value that minimizes the value shown in the following equation (2), which is the sum of the scalar triple products at each feature point Ai.
[0041]
[Expression 2]
Figure 0003957888
[0042]
The three-dimensional position calculation unit 4 is a triangle based on the posture angle detected by the posture detection unit 8, the feature point Ai extracted by the correspondence relationship extraction unit 3, the corresponding point Bi, and the translational motion vector T detected by the translational motion detection unit 9. The three-dimensional position of each feature point Ai is calculated using the principle of surveying.
[0043]
The operation of the imaging apparatus configured as described above will be described with reference to the flowchart of FIG. The image capturing unit 1 captures the input target plane Gc from the first viewpoint, and stores the captured first image in the storage device (step S11). The posture detection unit 8 detects the posture angle of the image capturing unit 1 when the image capturing unit 1 captures an image from the first viewpoint (step S12). After that, after the user moves to the second viewpoint so that a part of the images captured by the image capturing unit 1 overlaps, the user captures an image from the second viewpoint, and stores the captured second image in the storage device (step S13). . The posture detection unit 8 detects the posture angle of the image capturing unit 1 when the image capturing unit 1 captures images from the first viewpoint in the same manner as when the image capturing unit 1 captures images from the first viewpoint, and further captures images from the first viewpoint. A change in the posture angle when the image is taken and the posture angle when the image is taken from the second viewpoint is detected (step S14). As described above, since the first image and the second image are imaged so as to partially overlap and the posture angle at that time is detected, it is possible to easily detect the relationship between the images captured by the image imaging unit 1. In addition, it is possible to eliminate the influence of the change in the posture angle of the image capturing unit 1.
[0044]
The correspondence extracting unit 3 extracts a plurality of feature points Ai from the first image, and extracts corresponding points Bi from the second image (step S15). As a result, the correspondence between the first image and the second image can be detected. The translational motion detection unit 9 calculates the translational motion vector T of the image capturing unit 1 based on the posture angle detected by the posture detection unit 8 and the feature points Ai and the corresponding points Bi extracted by the correspondence relationship extraction unit 3 (step S16). . The three-dimensional position calculation unit 4 includes a posture angle change and a viewpoint position change detected by the motion detection unit 2, a feature point Ai and a corresponding point Bi extracted by the correspondence relationship extraction unit 3, and a translational motion vector T detected by the translational motion detection unit 9. Is used to calculate the three-dimensional position (Xi1, Yi1, Zi1) of each feature point Ai (step S17). The plane calculation unit 5 assumes that the feature points Ai extracted by the correspondence relationship extraction unit 3 are on the same plane, and the three-dimensional positions (Xi1, Yi1, Zi1) of the feature points Ai measured by the three-dimensional position calculation unit 4. The plane equation of the plane in which each feature point Ai exists is calculated using the least square method based on (step S18). The projection unit 6 projects each image captured by the image capturing unit 1 onto an arbitrary same image plane Im based on the posture angle change and viewpoint position change detected by the motion detection unit 5 and the plane equation calculated by the plane calculation unit 5. Then, the respective images taken from a plurality of viewpoints are synthesized (step S19). Thereby, it is possible to prevent the composite image from being distorted due to the influence of the parallel movement of the image capturing unit 1, and to prevent the rotation of the image capturing unit 1 from causing the distortion of the composite image. The adjustment unit 7 finely adjusts the projection position and the scale so that the cross-correlation value of the overlapping portion is maximized when each image captured by the image capturing unit 1 is projected onto the image plane (step S20). As a result, it is possible to prevent the synthesized images from being shifted, and more accurately synthesize the images.
[0045]
In the above embodiment, the case where the X axis direction magnetic direction sensor 81, the Z axis direction magnetic direction sensor 82, and the attitude angle detection unit 83 are provided in the attitude detection unit 8 has been described. good.
[0046]
Further, for example, as shown in FIG. 10, the posture detection unit 8 includes an X-axis direction magnetic orientation sensor 81, a Y-axis direction magnetic direction sensor 84, and a gravity direction detector 85 that detects an angle with respect to the gravity direction of the image capturing unit 1. An angle detector 83 may be provided. Here, as the gravity direction detector 85, for example, the attitude angle of the image capturing unit 1 may be detected using an acceleration sensor that detects acceleration in each of the X-axis, Y-axis, and Z-axis directions. The attitude angle may be detected using a level. As described above, the angle with respect to the gravity direction can be detected by the gravity direction detector 85, and the rotation angle around the gravity direction can be detected by the X-axis direction magnetic direction sensor 81 and the Y-axis direction magnetic direction sensor 84. The attitude angle can be detected. The gravitational direction detector 8 may detect the magnetism in the biaxial direction, but if it is greatly inclined, it is preferable to detect the magnetism around the three axes.
[0047]
Further, the attitude detection unit 8 may be provided with an X-axis gyro 86, a Y-axis gyro 87, and an attitude angle detection unit 83, for example, as shown in FIG. The X-axis gyro 86 and the Y-axis gyro 87 each have a function as an angular velocity detection unit that detects rotational angular velocities around the X and Y axes. The rotational angular velocity around the X axis and the rotational angular velocity around the Y axis, respectively. A signal indicating is output. The attitude angle detection unit 83 digitally converts the signals output from the X-axis gyro 86 and the Y-axis gyro 87 and then integrates them to detect the attitude angle. Thus, even when the magnetism is unstable or when it is difficult to detect the magnetism, the attitude angle of the image pickup unit 1 can be detected accurately.
[0048]
Next, an image pickup apparatus according to a third embodiment of the present invention will be described. As shown in the block diagram of FIG. 12, the image pickup apparatus of the third embodiment includes an image pickup unit 1, a position detection unit 11, a correspondence relationship extraction unit 3, a three-dimensional position calculation unit 4, a plane calculation unit 5, and a projection unit. 6. As illustrated in FIG. 2, the position detection unit 11 includes the position in the reference coordinate system of the image plane when the image capturing unit 1 images the input target plane Gc at the first viewpoint On and the second viewpoint O (n + 1). Detect posture angle. The three-dimensional position calculation unit 4 includes the feature point Ai of the first image Gn and the second image G (n + 1) extracted by the position and orientation angle of the image plane detected by the position detection unit 11 and the correspondence relationship extraction unit 3. The three-dimensional coordinate value of each feature point Ai is calculated on the basis of the corresponding point Bi.
[0049]
The operation of the imaging apparatus configured as described above will be described with reference to the flowchart of FIG. The image Gn when the object is imaged at the first viewpoint On is stored by the image capturing unit 1, and the position and orientation of the image plane in the reference coordinate system are calculated by the position detection unit 11 (step S21). Thereafter, the image capturing unit 1 is moved to the second viewpoint O (n + 1) to capture the object, the captured image G (n + 1) is stored, and the position detection unit 11 stores the position and orientation of the image plane in the reference coordinate system. Is calculated and sent to the three-dimensional position calculation unit 4 (step S22). The correspondence extraction unit 3 extracts a feature point Ai on the image Gn captured at the first viewpoint On (step S23), and corresponds to the feature point Ai of the image G (n + 1) captured at the second viewpoint O (n + 1). The corresponding points Bi are extracted and sent to the three-dimensional position calculation unit 4 (step S24). The three-dimensional position calculation unit 4 includes the position and orientation angle of the image plane at each viewpoint On, O (n + 1) detected by the position detection unit 11 and the feature points Ai and second of the first image Gn extracted by the correspondence relationship extraction unit 3. Based on the corresponding point Bi of the image G (n + 1), the three-dimensional coordinate value of each feature point Ai is calculated and sent to the plane calculation unit 5 (step S25). The plane calculation unit 5 calculates a plane equation from the coordinate values of the feature points Ai on the plurality of target planes (step S26). The projection unit 6 re-projects and synthesizes an image captured at each viewpoint On, O (n + 1) on the image plane that can be represented by the plane equation calculated by the plane calculation unit 5 (step S27). When images are taken from a plurality of viewpoints, the above process is repeated (steps S28 and S29). If necessary, it is reprojected onto another image plane (step S30).
[0050]
In this way, the captured images divided from a plurality of viewpoints can be easily combined, and a fine image without distortion can be obtained.
[0051]
As shown in FIG. 14, the position detection unit 11 of the third embodiment may be configured by an attitude calculation unit 12 and a translation calculation unit 13. The posture calculation unit 12 includes, for example, any one of an acceleration sensor, a magnetic direction sensor, and a gyro, or a combination thereof, and calculates the posture angle or posture angle change of the image capturing unit 1 at each viewpoint. The translation calculation unit 13 calculates a posture angle with respect to the reference coordinate system of the image plane obtained at each viewpoint from the posture angle calculated by the posture calculation unit 12, and the feature point Ai of the first image Gn extracted by the correspondence relationship extraction unit 3. And the corresponding point Bi of the second image G (n + 1), the translational motion vector T of the image capturing unit 1 shown in FIG. 8 is calculated. The orientation angle of the image plane with respect to the reference coordinate system obtained at each viewpoint calculated by the translation calculation unit 13, the translational motion vector T of the image capturing unit 1, the feature point Ai extracted by the correspondence extraction unit 3, and the corresponding point Bi. Based on the principle of triangulation, the three-dimensional position calculation unit 4 calculates the three-dimensional position of each feature point Ai.
[0052]
When a three-axis acceleration sensor and a two-axis magnetic azimuth sensor are used as the posture calculation unit 12, as shown in FIG. 15, the reference coordinate system X, Y, Z axes with the gravity direction as the Y axis and the light of the image capturing unit 1 An imaging unit coordinate system U, V, and W axes whose axes are aligned with the W axis are defined, and the inclinations of the imaging unit coordinate systems U, V, and W axes with respect to the reference coordinate system X, Y, and Z axes are expressed as posture angles θ (U ), Θ (V), θ (W). The rotation order is determined by rotating θ (V) around the V (Y) axis from a state where the reference coordinate system and the imaging unit coordinate system coincide with each other, and then rotating around the U axis with reference to the moved imaging unit coordinate system. Rotate only by U) and rotate by θ (W) around the W axis with reference to the moved imaging unit coordinate system. The respective rotation matrices are R (V), R (U), and R (U), and the rotation matrix R = R (V) · R (U) · R (W) is expressed by the following equation (3).
[0053]
[Equation 3]
Figure 0003957888
[0054]
The output A of the triaxial acceleration sensor and the output M of the biaxial magnetic azimuth sensor are expressed by the following equation (4).
[0055]
[Expression 4]
Figure 0003957888
[0056]
However, M (Y) is indefinite when a biaxial magnetic azimuth sensor is used. The gravitational acceleration vector G can be expressed by the following equation (5).
[0057]
[Equation 5]
Figure 0003957888
[0058]
Here, assuming that the dip angle φ of geomagnetism is known, the geomagnetic vector D is expressed by the following equation (6).
[0059]
[Formula 6]
Figure 0003957888
[0060]
Here, since the rotation matrix R, the output A of the triaxial acceleration sensor, and the gravitational acceleration vector G have the relationship of the following equation (7), equation (8) is obtained.
[0061]
[Expression 7]
Figure 0003957888
[0062]
The posture angles θ (U) and θ (W) can be obtained from the following equation (9) from the equation (8). In the equation (9), when cos θ (U) is 0, θ (W) may be arbitrarily determined.
[0063]
[Equation 8]
Figure 0003957888
[0064]
Furthermore, since the rotation matrix R, the output M of the biaxial magnetic azimuth sensor, and the geomagnetic vector D have the relationship of the following equation (10), equation (11) is obtained.
[0065]
[Equation 9]
Figure 0003957888
[0066]
The following expression (12) is calculated from the expression (11), and the posture angle θ (V) is obtained from the expression (13) from the expression (12).
[0067]
[Expression 10]
Figure 0003957888
[0068]
In this way, the attitude calculation unit 12 determines the inclinations of the image imaging unit coordinate systems U, V, and W axes with respect to the reference coordinate system X, Y, and Z axes from the outputs of the 3-axis acceleration sensor and the 2-axis magnetic orientation sensor by the attitude angle θ ( U), θ (V), θ (W) can be calculated.
[0069]
Next, the inclination of the image capturing unit coordinate system U, V, and W axes with respect to the reference coordinate system X, Y, and Z axes is calculated from the outputs of the triaxial acceleration sensor and the triaxial magnetic azimuth sensor as the posture calculating unit 12 by the posture angle θ (U ), Θ (V), θ (W) are calculated. In this case, the posture angles θ (U) and θ (W) are obtained by the above equation (9). Here, the dip angle of geomagnetism may be unknown, and the geomagnetic vector D is defined as (14) below.
[0070]
## EQU11 ##
Figure 0003957888
[0071]
Here, when the vector D1 is set as the following (15), the equation (16) is obtained.
[0072]
[Expression 12]
Figure 0003957888
[0073]
Equation (17) is obtained from Equation (16).
[0074]
[Formula 13]
Figure 0003957888
[0075]
The posture angle θ (V) can be obtained from the following equation (18) from the equation (17).
[0076]
[Expression 14]
Figure 0003957888
[0077]
Further, as shown in FIG. 16, the position detection unit 11 may be configured by a motion detection unit 14 and a position / orientation calculation unit 15. The motion detection unit 14 includes, for example, an acceleration sensor and a gyro, and detects a change in posture angle and a translational motion component in the process of moving the image capturing unit 1 when the image capturing unit 1 changes the viewpoint. The position / orientation calculation unit 15 calculates the position and orientation of the image plane obtained from each viewpoint from the detected orientation angle change and translational motion component of the image capturing unit 1 with respect to the reference coordinate system. Based on the feature points Ai and corresponding points Bi extracted by the position and orientation of the image plane obtained from each viewpoint and the corresponding relationship extracting unit 3 and the corresponding points Bi, the principle of triangulation is calculated by the three-dimensional position calculating unit 4. Using this, the three-dimensional position of each feature point Ai is calculated.
[0078]
Further, as shown in FIG. 17, the motion calculation unit 16 may calculate the position and orientation of each image plane with respect to the reference coordinate system. In this case, the motion calculation unit 16 obtains a change in position and posture angle of the image capturing unit 1 between viewpoints from the correspondence between the feature points Ai and the correspondence points Bi extracted by the correspondence extraction unit 3, and obtains the obtained position changes and postures. The position and orientation of each image plane in the reference coordinate system are calculated from the angle change. Based on the feature points Ai and corresponding points Bi extracted by the position and orientation of the image plane obtained from each viewpoint and the corresponding relationship extracting unit 3 and the corresponding points Bi, the principle of triangulation is calculated by the three-dimensional position calculating unit 4. Using this, the three-dimensional position of each feature point Ai is calculated.
[0079]
  In each of the above embodiments, the projection unit 6 can re-project each captured image onto an image plane having an arbitrary position and orientation, and then finely adjust the position to reduce distortion of the composite image. That is, since the subject is imaged so as to partially overlap, the region is projected in an overlapping manner on the image plane to be reprojected. Therefore, the overlapping image projected from the first viewpoint and the second viewpoint are projected.Equation (1) for overlapping imageThe minute amounts δx and δy that maximize the correlation function shown in FIG. 6 are obtained, and the entire images projected from the second viewpoint are translated by δx and δy. Here, the fine adjustment of the position is not limited to the one using the cross-correlation value, and the sub-pixel level alignment may be performed.
[0080]
Next, an image pickup apparatus according to another embodiment of the present invention will be described. As shown in the block diagram of FIG. 18, the imaging apparatus of this embodiment includes an image imaging unit 1, a three-dimensional position detection unit 17, a plane calculation unit 5a, a projection unit 6a, and a readjustment unit 18. As shown in FIG. 2A, the image capturing unit 1 captures an image of a planar subject 10 by changing the viewpoint. When taking an image while changing this viewpoint, a part of the image to be taken may not necessarily overlap. The three-dimensional position detection unit 17 includes a distance measuring sensor using, for example, an ultrasonic wave or a laser, and measures the distance between a plurality of feature points on the imaging target plane when taking an image while changing the viewpoint. A three-dimensional position is detected. The plane calculation unit 5a calculates a plane equation in the space of the surface of the subject 10 from the three-dimensional position of each feature point detected by the three-dimensional position detection unit 17 by the least square method or the like. However, in this case, the calculated plane is a plane based on each viewpoint, and there are as many viewpoints as there are, and as shown in FIG. The plane Gc (n + 1) based on the plane Gcn thus obtained and the viewpoint O (n + 1) is calculated. The projection unit 6a reprojects the image Gn captured at the viewpoint On to the plane Gcn, and reprojects the image G (n + 1) captured at the viewpoint O (n + 1) onto the plane Gc (n + 1). The readjustment unit 18 adjusts the position and orientation of the plane Gcn on which the image Gn is projected and the plane Gc (n + 1) on which the image G (n + 1) is projected to obtain a composite image. As an adjustment method, if there is an overlapping portion between the image Gn and the image G (n + 1), the adjustment is made so that they match. If there is almost no overlapping portion, the image Gn and the image G (n + 1) are smooth. Adjust to be connected. The projection unit 6a adjusts and projects the composite image onto an image plane Gp at an arbitrary virtual viewpoint if necessary, thereby obtaining a new image.
[0081]
The operation of the imaging apparatus configured as described above will be described with reference to the flowchart of FIG. An image Gn obtained when the image capturing unit 1 captures an image of the object at the first viewpoint is stored, and the distance between a plurality of feature points on the image capturing object plane is measured by the three-dimensional position detection unit 17, and 3 of each feature point is measured. Find the dimension position. The plane calculation unit 5a calculates a plane equation indicating the position and orientation of the target plane Gcn with respect to the image capturing unit 1 based on the three-dimensional position of each feature point (step S31). The projection unit 6a projects the captured image Gn on the calculated plane Gcn (step S32). Next, an image G (n + 1) when the object is imaged by the image capturing unit 1 at the second viewpoint is stored, and the distance between a plurality of feature points on the imaged object plane is measured by the three-dimensional position detecting unit 17. The three-dimensional position of the feature point is obtained. The plane calculation unit 5a calculates a plane equation indicating the position and orientation of the target plane Gc (n + 1) with respect to the image capturing unit 1 from the three-dimensional position of each feature point (steps S33 and S34). The projection unit 6a projects the captured image G (n + 1) on the calculated plane Gc (n + 1) (step S35). The readjustment unit 18 adjusts the position and orientation of the plane Gcn on which the image Gn is projected and the plane Gc (n + 1) on which the image G (n + 1) is projected to obtain a composite image (step S36). This process is repeated each time the viewpoint is changed for imaging, and when imaging and processing are completed at each predetermined viewpoint (step S37), the projection unit 6a re-projects the synthesized image onto another image plane (step S38).
[0082]
As described above, since the distance and the posture of the target plane are determined by directly detecting the distances of the plurality of feature points at each viewpoint, it is possible to speed up the process of calculating the target plane.
[0083]
In the above embodiment, the case where a distance measuring sensor using an ultrasonic wave or a laser is used for the three-dimensional position detection unit 17 has been described. However, the feature point on the object plane is focused on the image plane of the image pickup unit 1. The distance between the feature points may be calculated from the positional relationship between the lens and the image plane.
[0084]
In addition, as shown in FIG. 21, the posture calculation unit 12 is provided together with the three-dimensional position detection unit 17, and the three-dimensional position of each feature point detected by the three-dimensional position detection unit 17 and the image obtained by the posture calculation unit 12. By calculating a plane equation in the reference coordinate system from the posture of the unit 1, when calculating a plane equation indicating the position and posture of the target plane, it is not necessary to adjust the posture angle, and the processing speed can be increased. .
[0085]
The operation in this case will be described with reference to the flowchart of FIG. At the first viewpoint, the image Gn when the image capturing unit 1 captures the object is stored, and the three-dimensional position detection unit 17 measures the distances between a plurality of feature points on the image capturing object plane, The three-dimensional position is obtained, and the posture calculation unit 12 calculates the posture of the image capturing unit 1 with respect to the reference coordinates. The plane calculation unit 5a calculates a plane equation indicating the position and orientation of the target plane with respect to the image capturing unit 1 from the three-dimensional position of each feature point (step S41). This plane equation is converted into reference coordinates based on the attitude of the image capturing unit 1 with respect to the reference coordinates (step S42). The projection unit 6a projects the image Gn on the plane indicated by the converted plane equation (step S43). Next, the image G (n + 1) when the object is imaged by the image capturing unit 1 at the second viewpoint is stored, and the distances of the plurality of feature points on the imaging object plane are measured by the three-dimensional position detection unit 17, The three-dimensional position of each feature point is obtained, and the posture calculation unit 12 calculates the posture of the image capturing unit 1 with respect to the reference coordinates. The plane calculation unit 5a calculates a plane equation indicating the position and orientation of the target plane with respect to the image capturing unit 1 from the three-dimensional position of each feature point (steps S44 and S45), and the plane equation with respect to the reference coordinates of the image capturing unit 1 is calculated. Based on the posture, the coordinates are converted into reference coordinates (step S46). The projection unit 6a projects the image G (n + 1) on the plane indicated by the converted plane equation (step S47). The readjustment unit 18 adjusts the position and orientation of the plane on which the image Gn is projected and the plane on which the image G (n + 1) is projected to obtain a composite image (step S48). This process is repeated each time the viewpoint is changed for imaging, and when the imaging and processing are completed at each viewpoint (step S49), the projection unit 6a re-projects the synthesized image onto another image plane (step S50).
[0086]
【The invention's effect】
  As described above, the present invention is obtained when images are taken from a plurality of viewpoints so that the input target planes partially overlap each other.Calculate the attitude angle, detect the translational movement component when the viewpoint is changed from the correspondence between the calculated attitude angle and the image captured at each viewpoint, and each based on the attitude angle, the feature point, the corresponding point, and the translational motion component Since the three-dimensional position on the input target plane corresponding to the feature point is calculated and each image of the input target plane that is captured is projected on the same arbitrary image plane, the influence of the change in the attitude angle is removed, and from a plurality of viewpoints The captured images can be synthesized more accurately.
[0087]
In addition, since the images captured from a plurality of viewpoints are combined and the image on the input target plane is restored, the image is displayed even when the image on the input target plane is large and the object having the input target plane cannot be moved. Can be imaged and restored.
[0091]
In addition, by detecting the posture angle when imaging from the angular velocities around two or three axes orthogonal to each other, the posture angle when imaging is easily detected even when it is difficult to detect the direction by magnetism. be able to.
[0092]
Also, when projecting an input target plane image captured at each viewpoint, the projection position and scale are fine-tuned so that the cross-correlation value of the overlapped portion is maximized, so that high-precision images without distortion are reproduced. can do.
[0093]
In addition, when imaging is performed with different viewpoints, the position and orientation of the image plane in the reference coordinate system are calculated, and the three-dimensional coordinate value of each feature point is calculated from the position and orientation angle of the image plane at each viewpoint and the correspondence between the images. Therefore, when a plane subject is divided and imaged and synthesized, it can be synthesized without distortion, and a high-definition image can be obtained with a simple configuration.
[0094]
In addition, the attitude angle when imaging from each viewpoint is calculated, the attitude angle of the image plane obtained at each viewpoint with respect to the reference coordinate system is calculated, and the attitude angle with respect to the reference coordinate system of the calculated image plane and imaging is performed at each viewpoint Because the translational movement component when the viewpoint is changed is calculated from the correspondence between the images, the position and orientation when the viewpoint is changed can be easily detected, and the three-dimensional coordinate value of each feature point is calculated. The plane equation can be easily calculated.
[0096]
Also, by calculating the posture change and translational movement between the viewpoints from the correspondence relationship of the images picked up by changing the viewpoint, a sensor for detecting the movement of the imaging unit is unnecessary, and the configuration of the entire apparatus can be simplified.
[0097]
Furthermore, since the alignment is performed between the adjacent images when the images captured from the respective viewpoints are combined, a high-quality combined image can be obtained.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an embodiment of the present invention.
FIG. 2 is an explanatory diagram illustrating a relationship between a first image and a second image with respect to an input target plane.
FIG. 3 is an explanatory diagram showing the principle of image projection.
FIG. 4 is an explanatory diagram showing the principle of image composition.
FIG. 5 is a flowchart illustrating an operation of the imaging apparatus.
FIG. 6 is a configuration diagram of a second embodiment.
FIG. 7 is a configuration diagram of a posture detection unit.
FIG. 8 is an explanatory diagram showing the principle of calculating a translational motion vector.
FIG. 9 is a flowchart showing the operation of the second embodiment.
FIG. 10 is a configuration diagram of an attitude detection unit having a gravity direction detector.
FIG. 11 is a configuration diagram of an attitude detection unit having a gyro.
FIG. 12 is a configuration diagram of a third embodiment.
FIG. 13 is a flowchart showing the operation of the third embodiment.
FIG. 14 is a configuration diagram of a fourth embodiment.
FIG. 15 is an explanatory diagram showing a reference coordinate system and an image capturing unit coordinate system.
FIG. 16 is a block diagram of a fifth embodiment.
FIG. 17 is a block diagram of a sixth embodiment.
FIG. 18 is a block diagram of a seventh embodiment.
FIG. 19 is an explanatory diagram showing image composition in the seventh embodiment.
FIG. 20 is a flowchart showing the operation of the seventh embodiment.
FIG. 21 is a block diagram of an eighth embodiment.
FIG. 22 is a flowchart showing the operation of the eighth embodiment.
[Explanation of symbols]
1 Image capturing unit
2 motion detector
3 correspondence extraction part
4 3D position calculator
5 Plane calculation part
6 Projection unit
7 Adjustment section
8 Attitude detection unit
9 Translational motion detector
11 Position detector
12 Attitude calculation unit
13 Translation calculator
14 Motion detector
15 Position and orientation calculator
16 motion calculator
17 3D position detector
18 Readjustment section

Claims (7)

先に撮像した画像と一部が重複するようにして複数の視点から入力対象平面を撮像する手段と、
前記撮像手段により各画像を撮像する際の前記入力対象面に対する前記撮像する手段の角度である姿勢角を検出する手段と、
前記先に撮像した画像と後に撮像した画像との重複部分から先に撮像した画像の複数の特徴点を抽出し、後に撮像した画像から前記特徴点に対応する対応点を抽出する手段と、
前記検出した姿勢角と、前記抽出した特徴点及び対応点とに基づいて前記撮像する手段の並進運動成分を検出する手段と、
前記検出した姿勢角と、前記抽出した特徴点及び対応点と、前記検出された並進運動成分とにより前記各特徴点の3次元位置を算出する手段と、
前記抽出した各特徴点が同一平面上にあるものとして、前記算出した各特徴点の3次元位置を基に前記各特徴点が同一平面上に存在する平面の情報を算出する手段と、
前記検出した姿勢角と、各特徴点の並進運動成分と、前記算出した平面の情報とに基づいて前記撮像した各画像を任意の同一画像面に投影して前記画像を合成する手段と、
を備えたことを特徴とする撮像装置。
Means for capturing an input target plane from a plurality of viewpoints so that a part of the image captured previously overlaps;
Means for detecting an attitude angle that is an angle of the image capturing unit with respect to the input target surface when each image is captured by the image capturing unit;
Means for extracting a plurality of feature points of the previously captured image from an overlapping portion between the previously captured image and the subsequently captured image, and extracting corresponding points corresponding to the feature points from the subsequently captured image;
Means for detecting a translational motion component of the means for imaging based on the detected attitude angle and the extracted feature points and corresponding points;
Means for calculating a three-dimensional position of each feature point from the detected posture angle, the extracted feature point and corresponding point, and the detected translational motion component;
Means for calculating information on a plane in which each feature point exists on the same plane based on the three-dimensional position of each calculated feature point, assuming that each extracted feature point is on the same plane;
Means for projecting the captured images on any same image plane based on the detected posture angle, the translational motion component of each feature point, and the calculated plane information, and combining the images;
An imaging apparatus comprising:
前記画像を合成する手段は、前記先に撮像した画像と後に撮像した画像との重複部分の相互相関値が最大になるように前記画像の投影位置及びスケールを微調整する手段を有する請求項1記載の撮像装置。The means for synthesizing the image includes means for finely adjusting a projection position and a scale of the image so that a cross-correlation value of an overlapping portion between the image captured earlier and an image captured later is maximized. The imaging device described. 先に撮像した画像と一部が重複するようにして入力対象平面を撮像する手段と、
前記撮像する手段により各画像を撮像する際の前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段と、
前記先に撮像した画像と後に撮像した画像との重複部分から先に撮像した画像の複数の特徴点を抽出し、後に撮像した画像から前記の特徴点に相当する対応点を抽出する手段と、
前記検出した画像面の位置と姿勢角変化及び視点位置変化と、前記抽出した特徴点及び対応点とに基づいて前記各特徴点に相当する入力対象平面上の各点の3次元位置を算出する手段と、
前記算出した入力対象平面上の各点の3次元位置に基づいて入力対象平面上の各点を通る平面の情報を示す平面方程式を算出する手段と、
前記算出した平面方程式で表せられる画像面に、前記撮像した各画像を再投影して画像を合成する手段とを備え、
前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段は、前記各画像を撮像したときに得られた画像面の基準座標系に対する姿勢角を算出する手段と、前記算出した画像面の基準座標系に対する姿勢角と、前記対応点を抽出する手段で得られた対応関係により前記撮像する手段の並進移動成分を算出する手段とを有することを特徴とする撮像装置。
Means for imaging the input target plane so that a part of the previously captured image overlaps;
Means for detecting a posture angle which is a position and an angle of an image plane of the image capturing means when each image is captured by the image capturing means;
Means for extracting a plurality of feature points of a previously captured image from an overlapping portion between the previously captured image and a later captured image, and extracting corresponding points corresponding to the feature points from the subsequently captured image;
A three-dimensional position of each point on the input target plane corresponding to each feature point is calculated based on the detected image plane position, posture angle change, viewpoint position change, and the extracted feature points and corresponding points. Means,
Means for calculating a plane equation indicating information of a plane passing through each point on the input target plane based on the calculated three-dimensional position of each point on the input target plane;
Means for re-projecting each captured image and synthesizing the image on the image plane represented by the calculated plane equation;
The means for detecting the attitude angle, which is the position and angle of the image plane of the imaging means, calculates the attitude angle with respect to the reference coordinate system of the image plane obtained when each of the images is captured, and the calculated An image pickup apparatus comprising: an orientation angle of an image plane with respect to a reference coordinate system; and means for calculating a translational movement component of the image pickup means based on a correspondence obtained by the means for extracting the corresponding points.
前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段は、前記各画像を撮像したときに検出した前記画像面の姿勢角の変化と並進移動成分を検出する手段と、前記検出した姿勢角の変化と並進移動成分とに基づいて前記各画像を撮像したときに得られた画像面の基準座標系に対する位置と姿勢を算出する手段とを有する請求項3記載の撮像装置。  Means for detecting an attitude angle which is a position and an angle of an image plane of the imaging means; means for detecting a change in the attitude angle of the image plane detected when each image is captured and a translational movement component; 4. The imaging apparatus according to claim 3, further comprising means for calculating a position and an attitude of an image plane obtained with respect to a reference coordinate system obtained when the images are taken on the basis of the detected change in the attitude angle and the translational movement component. 前記撮像する手段の画像面の位置と角度である姿勢角を検出する手段は、前記対応点を抽出する手段で得られた複数の特徴点と対応点の位置関係から前記撮像する手段の姿勢変化と並進移動を算出する手段と、前記算出した前記撮像する手段の姿勢変化と並進移動とに基づいて前記各画像を撮像したときに得られた画像面の基準座標系に対する位置と姿勢を算出する手段とを有する請求項4記載の撮像装置。  The means for detecting the posture angle, which is the position and angle of the image plane of the image pickup means, changes the posture of the image pickup means from the positional relationship between the plurality of feature points and the corresponding points obtained by the means for extracting the corresponding points. And calculating the position and orientation of the image plane obtained when the respective images are captured based on the calculated orientation change and translational movement of the imaging means. The imaging apparatus according to claim 4, further comprising: means. 先に撮像した画像と一部が重複するようにして入力対象平面を撮像し、
前記各画像を撮像する際の前記入力対象面に対する撮像角度である姿勢角を検出し、
前記先に撮像した画像と後に撮像した画像との重複部分から先に撮像した画像の複数の特徴点を抽出し、後に撮像した画像から前記特徴点に対応する対応点を抽出し、
前記検出した姿勢角と、前記抽出した特徴点及び対応点とに基づいて前記各画像を撮像したときの並進運動成分を検出し、
前記検出した姿勢角と、前記抽出した特徴点及び対応点と前記検出された並進運動成分とにより前記各特徴点の3次元位置を算出し、
前記抽出した各特徴点が同一平面上にあるものとして、前記算出した各特徴点の3次元位置を基に前記各特徴点が同一平面上に存在する平面の情報を算出し、
前記検出した姿勢角と各特徴点の並進運動成分と前記算出した平面の情報とに基づいて、前記撮像した各画像を任意の同一画像面に投影して前記画像を合成することを特徴とする撮像画像合成方法。
Capture the input target plane so that part of it overlaps with the previously captured image,
Detecting an attitude angle that is an imaging angle with respect to the input target surface when imaging each image;
Extracting a plurality of feature points of the previously captured image from the overlapping portion of the previously captured image and the subsequently captured image, and extracting corresponding points corresponding to the feature points from the subsequently captured image;
Detecting a translational motion component when each of the images is captured based on the detected posture angle and the extracted feature points and corresponding points;
A three-dimensional position of each feature point is calculated from the detected posture angle, the extracted feature points and corresponding points, and the detected translational motion component,
Assuming that each extracted feature point is on the same plane, the information on the plane where each feature point exists on the same plane is calculated based on the calculated three-dimensional position of each feature point;
Based on the detected posture angle, the translational motion component of each feature point, and the calculated plane information, the captured images are projected onto an arbitrary same image plane to synthesize the images. Captured image composition method.
前記先に撮像した画像と後に撮像した画像との重複部分の相互相関値が最大になるように前記画像の投影位置及びスケールを微調整する請求項6記載の撮像画像合成方法。The captured image composition method according to claim 6, wherein the projection position and the scale of the image are finely adjusted so that the cross-correlation value of the overlapping portion between the image captured earlier and the image captured later is maximized.
JP23218198A 1997-08-20 1998-08-19 Imaging apparatus and captured image composition method Expired - Fee Related JP3957888B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23218198A JP3957888B2 (en) 1997-08-20 1998-08-19 Imaging apparatus and captured image composition method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-237854 1997-08-20
JP23785497 1997-08-20
JP23218198A JP3957888B2 (en) 1997-08-20 1998-08-19 Imaging apparatus and captured image composition method

Publications (2)

Publication Number Publication Date
JPH11136575A JPH11136575A (en) 1999-05-21
JP3957888B2 true JP3957888B2 (en) 2007-08-15

Family

ID=26530325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23218198A Expired - Fee Related JP3957888B2 (en) 1997-08-20 1998-08-19 Imaging apparatus and captured image composition method

Country Status (1)

Country Link
JP (1) JP3957888B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8264554B2 (en) 2007-07-27 2012-09-11 Ricoh Company, Ltd. Imaging apparatus and method of obtaining a roll angle of the imaging apparatus, and correcting detected roll angle

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100412166B1 (en) * 1995-11-14 2004-05-31 소니 가부시끼 가이샤 Image processing apparatus and image processing method
JP3433204B2 (en) * 2000-04-27 2003-08-04 株式会社東北テクノアーチ 3D model construction device
JP3515751B2 (en) * 2000-11-29 2004-04-05 東京商船大学長 Reconstruction method of three-dimensional submarine structure
CN100366059C (en) * 2001-02-15 2008-01-30 英业达股份有限公司 Image playing method and system
JP3975736B2 (en) * 2001-12-07 2007-09-12 ソニー株式会社 Image processing apparatus, image processing method, storage medium, and computer program
JP2004153691A (en) 2002-10-31 2004-05-27 Casio Comput Co Ltd Image pickup device, image pickup method and program
JP4536524B2 (en) * 2005-01-11 2010-09-01 株式会社エヌ・ティ・ティ・データ Mosaic image composition device, mosaic image composition method, and mosaic image composition program
JP3837710B2 (en) * 2005-02-07 2006-10-25 株式会社日立製作所 Digital camera
JP4784329B2 (en) * 2006-02-15 2011-10-05 トヨタ自動車株式会社 Image processing apparatus, method thereof, and image processing program
WO2009011105A1 (en) 2007-07-13 2009-01-22 Panasonic Corporation Imaging device
JP4962460B2 (en) * 2008-10-03 2012-06-27 ソニー株式会社 Imaging apparatus, imaging method, and program
JP5363878B2 (en) * 2009-06-02 2013-12-11 株式会社トプコン Stereo image photographing apparatus and method thereof
JP5554654B2 (en) * 2010-07-13 2014-07-23 キヤノン電子株式会社 Image processing method, portable information terminal, and program
JP2019097050A (en) * 2017-11-24 2019-06-20 京セラドキュメントソリューションズ株式会社 Image reading device and image reading program
JP6717887B2 (en) * 2018-07-12 2020-07-08 ファナック株式会社 Distance measuring device having distance correction function
CN114909999A (en) * 2022-07-18 2022-08-16 深圳市超准视觉科技有限公司 Three-dimensional measurement system and method based on structured light

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667293A (en) * 1992-08-14 1994-03-11 Olympus Optical Co Ltd Camera
JPH06105214A (en) * 1992-09-24 1994-04-15 Ricoh Co Ltd Camera with gyro sensor and video printer
JP2883265B2 (en) * 1993-09-24 1999-04-19 キヤノン株式会社 Image processing device
JPH08191419A (en) * 1995-01-10 1996-07-23 Yamaha Corp Head mount display system
JP3253478B2 (en) * 1995-03-20 2002-02-04 シャープ株式会社 Video recording device
JPH0918750A (en) * 1995-06-29 1997-01-17 Canon Inc Electronic camera, electronic camera system using it image pickup device and signal processing unit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8264554B2 (en) 2007-07-27 2012-09-11 Ricoh Company, Ltd. Imaging apparatus and method of obtaining a roll angle of the imaging apparatus, and correcting detected roll angle

Also Published As

Publication number Publication date
JPH11136575A (en) 1999-05-21

Similar Documents

Publication Publication Date Title
JP3957888B2 (en) Imaging apparatus and captured image composition method
US6038074A (en) Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP5491235B2 (en) Camera calibration device
JP4770924B2 (en) Imaging apparatus, imaging method, and program
US8970690B2 (en) Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
CN101715055B (en) Imaging apparatus, and imaging method
JP4962460B2 (en) Imaging apparatus, imaging method, and program
JP4618370B2 (en) Imaging apparatus, imaging method, and program
JP4010753B2 (en) Shape measuring system, imaging device, shape measuring method, and recording medium
JP5771117B2 (en) Moving distance measuring device and photographing camera
JP3732335B2 (en) Image input apparatus and image input method
JP2010136302A (en) Imaging apparatus, imaging method and program
JP2004213355A (en) Information processing method
JPH11118425A (en) Calibration method and device and calibration data production
US6809771B1 (en) Data input apparatus having multiple lens unit
JP2000283720A (en) Method and device for inputting three-dimensional data
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP2000134537A (en) Image input device and its method
JPH1023465A (en) Image pickup method and its device
JP2001057652A (en) Image input device and image input method
US20080252746A1 (en) Method and apparatus for a hybrid wide area tracking system
JPH1118007A (en) Omnidirectional image display system
JP3655065B2 (en) Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method
JP2001177850A (en) Image signal recorder and method, image signal reproducing method and recording medium
TWI672950B (en) Image device capable of compensating image variation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060612

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070509

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees