JPH11514434A - Method and apparatus for determining camera position and orientation using image data - Google Patents

Method and apparatus for determining camera position and orientation using image data

Info

Publication number
JPH11514434A
JPH11514434A JP8535977A JP53597796A JPH11514434A JP H11514434 A JPH11514434 A JP H11514434A JP 8535977 A JP8535977 A JP 8535977A JP 53597796 A JP53597796 A JP 53597796A JP H11514434 A JPH11514434 A JP H11514434A
Authority
JP
Japan
Prior art keywords
image
point
camera
points
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8535977A
Other languages
Japanese (ja)
Inventor
エス パーム チャールズ
Original Assignee
シンソニクス インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンソニクス インコーポレーテッド filed Critical シンソニクス インコーポレーテッド
Publication of JPH11514434A publication Critical patent/JPH11514434A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 1つ以上のカメラで得られた画像データと、画像が得られた後に測定することができるか、又は画像取得時に情景に配置された較正ターゲットを含むことができるかのいずれかである情景からの3点のデータを使用する、情景における物体の物理的位置を正確に測量し、かつ決定する方法及び装置が開示されている。物体は、3点に対して規定された3次元座標系に対して位置決めされている。方法及び装置は、簡単な装置及び簡単な画像処理を使用して正確な位置データを急速に設定しかつ取得できる。各情景を得るために使用されたカメラの正確な位置及び配向は画像データ、3点の位置及びカメラの光軸パラメータから決定される。 (57) Abstract: Image data obtained with one or more cameras and whether they can be measured after the image has been acquired or can include a calibration target placed in the scene at the time of image acquisition A method and apparatus for accurately measuring and determining the physical position of an object in a scene using three points of data from any scene is disclosed. The object is positioned with respect to a three-dimensional coordinate system defined for three points. The method and apparatus can quickly set and obtain accurate position data using simple devices and simple image processing. The exact position and orientation of the camera used to obtain each scene is determined from the image data, the positions of the three points and the optical axis parameters of the camera.

Description

【発明の詳細な説明】 イメージデータを用いてカメラの位置及び配向を 決定する方法と装置 技術分野 本発明は、画像処理の分野、特に、カメラで得られた画像からカメラの位置及 び配向を決定する方法及び装置並びにこのような方法及び装置を使用して測量を 正確に行う技術に関するものである。 背景技術 1847年のステレオスコープの発明以来、発明家は、自然界で見られる3次元( 3D)情景を再現しようと試みた。2次元画像は立体感がないためにリアリティ に欠けている。成功の度合いは様々であるが、3D画像を生成するため多数の技 術が提案された。 単一のカメラ本体及び通常は両眼間の距離に対応する一定距離だけ離れた2つ の対物レンズを使用する立体的な写真用カメラは公知である。他のこのようなカ メラは、カメラの像平面上に置かれたフィルム上に2つの画像領域を形成する単 一の対物レンズ装置及び外部装置を使用する。更に他の装置は、写真に撮られた 情景の左右の視野に対応する画像を形成するように一定距離だけ離れた2つの別 個のカメラを使用する。 従来技術の立体的な写真撮影の画像が現像されると、この画像は、しばしば別 個のアイピース、即ち、左右の眼に対してそれぞれ1つのアイピースを通して見 られる。各アイピースは、現像された画像の中の、ユーザの眼が情景を直接見た ならばそれぞれの眼が見たであろう画像を網膜に投影する。立体的な画像を見る とき、奥行きははっきりと認識でき る。 3次元画像を生成するための従来技術に関していくつかの問題点がある。まず 第一に、カメラ又は対物レンズを一定の距離離して固定する必要があることはカ メラの設計の自由度を制限する。2つの対物レンズ又は2つのカメラは、立体的 な画像を得るために特別な装置を必要とする。 従来技術に関する他の問題点は、複雑なレンズ配置が立体的な画像を見るため に必要であるということである。更に、従来技術の立体的な写真方式では、奥行 きは容易に定量化できない。 奥行きの計算は、写真に撮られた情景と向かい合う異なる位置から得られた画 像を使用する場合、困難な作業である。何故ならば、2次元プレーン上に3次元 情景を投影することから生じる2次元関係は、異なる画像プレーン上に投影され た同一点に対して線形変換又はマッピングを行なわないためである。一方の地点 から見た情景の中の幾つかの異なった部分は、同じ情景を他の地点から見たとき とは異なった関連で見られる。情景のいくつかの部分は、見る地点が変わると隠 れて見えなくなるる。通常、1つの画面で見られた2次元面は、斜めに見た場合 、面積が減少する。 従来技術では、小さな区画内の重要な物件などの位置を識別するために土地の 小区画を測量する方法及び装置は公知である。一般的には、測量技師のグループ がその区画に赴き、測量技師用の携帯式経緯儀及び距離測定用の較正済基準尺を 使用して距離及び角度の物理的測定を行う。これらの技術を使用する測量は、一 般的には測量里程標の全国グリッドに対して基礎を置いている。この技術は、計 器を読み取り、計算を実行する際にいろいろな種類のエラーを生じ易い。 航空測量も公知である。画像は、測量される領域の上を移動する、最新航空技 術によってその位置が正確に知られている飛行機又は他の飛行 体によって得られる。次に、重要な地上の地形の位置は、しばしばスーパーコン ピュータを必要とする高性能な画像処理技術を使用して計算することができる。 航空測量技術は、測量される領域内の地上に人員を配置する必要なく達成できる 長所を有する。近づきにくい地形をもこの方法で測量できる。然しながら、高価 な画像取得装置が必要であり、非常に優れた光学装置及び画像処理の場合でも、 解像度は、必ずしも好ましいというわけではない。同様に、航空機技術を使用し ても垂直方向の正確な測定は行うことは困難である。 犯罪現場又は考古学上の発掘現場での調査のような論争の的となる調査におい ては、空間関係の記録が非常に重要である。このような調査は、しばしば、ある 程度の緊急性又は公共性のため短時間内に調査現場から撤退しなければならない という厳しい条件下で行われる。高速道路がラッシュアワーの間、調査のために 閉鎖されるならば、交通の流れを確保することは政治的に必要不可欠な要請とな る。犯罪現場の分析では、詳細が直ちに観察され、記録されなければ、貴重な証 拠が失われる可能性がある。このような状況において、念入りの手作業調査する には時間がなく、航空技術は、一般的に要求される解像度を欠くか又は警察の調 査手段として一般的に採用するにはあまりにも高価である。 製造環境では、検査目的又はかなりの確度を有する文書化のいずれかのために しばしば“作られた状態”の製品の物理的な詳細を測定することが求められる。 製造時に、コンピュータ支援設計又はコンピュータ支援製造(CAD/CAM )で使用するためにワイヤフレームのような3次元(3D)表示を形成する目的 で複雑な物体の物理的寸法を得ることがしばしば要求される。又、娯楽において も、3D物体の位置の変化を生じるアニメーションの作成又は3D物体の透視図 を得るためにこのような3D表示を 使用することが望まれる。 従って、便利で、経済的であり、高性能計算装置を必要としない方法で、物体 及び情景についての3D情報を正確に得る必要がある。物理的調査が困難な垂直 方向の物体の物理的寸法を正確に得る必要もある。写真、ビデオフレーム又は実 際の透視図にせよ、又は他の記録画像の形式にせよ、あらゆる記録画像は、記録 情景に関して記録機構の配向を正確に記述する視覚位置及び視覚角度と関連して いる。 カメラを使用して得られた画像に基づいて距離計算を行う場合、写真が撮られ た時点でのカメラの位置を知ること又は写真が撮られた時点でのカメラレンズ又 はレンズの系の正面から見た主点をより正確に知ることが必要である。距離を正 確に計算するために、カメラから生じるようなレンズ又はレンズ系の光軸の方位 、仰角及び光軸の周りの傾角を知ることも望ましいことである。 従来技術では、カメラ位置は、測量技術を使用して写真が撮られた位置を決め ることによって推測されるか、又は演繹的に知られるかのいずれかである。一般 的には、カメラの傾角は0(左右水平)であると仮定され、仰角及び方位は、精 度を変えて測定されるか、又は推測されるかのいずれかであった。明かに、この ような測量及び測定によって、分析のための画像を得るのに必要なセットアップ 時間は、未制御状態の下で得られる画像から収集できる定性情報と引き換えに、 正確な測定の望みを放棄せざるを得ない程長く掛かる。 正確な視野パラメータの必要性は、エンジニアリング測定応用からマーケティ ング及び販売のプレゼンテーションまで広範囲の目的でディジタル画像及びアナ ログ画像を使用するコンピュータユーザの人口がますます増加することによって 示されている。 例えば、立体写真は、事故又は犯罪の現場を調査し、文書化するため にしばしば使用されている。文書化の正確度は、写真が撮られた時点でカメラの 視野パラメータを正確に知ることによって高精度で決められる。 コンピュータによるレンダリングは、なお計画中であり見直し段階中の全建設 プロジェクトの画像を示すため、実際の写真としばしば合成される。コンピュー タレンダリングを可視的に説得力のあるように写真と合体させ、適応させるため には、コンピュータレンダリングの視野パラメータと写真を撮るカメラの視野パ ラメータとは、全く同一であることが要求される。 一般的には、ある確立された座標系に対してカメラ位置が物理的に測定された 場合でさえ、任意の所与の記録画像のための視野パラメータは未知であり、高い 確度で決定することことは困難である。障害は、カメラレンズの主点が通常レン ズ構造の内部にあり、従って直接測定の目的のためにアクセスできないという事 実から生じる。見る角度の測定は、測量用の三脚、水準器、経緯儀を使用しない で得ることは非常に困難である。 写真測量法は、写真から測定値を得るための技術である。一般に、写真測量技 師は、視野パラメータを決定するのに役立つように写真上に基準マークを発生す る特別のカメラ装置を使用する。然しながら、非写真測量カメラはいくつかの分 析で使用することができ、関連技術は、一般に、記録シーンで識別できる多数( 5点以上)の修正点の位置を知る必要がある。一般に、視野パラメータを決定す るために、5点以上の修正点の3次元位置が、ある種の直交基準座標系により既 知である必要がある。直接線形変換(DLT)は、写真測量技師によって時々使 用される5点の較正手順である。通常、これらの点の位置を確定することは困難 であり、費用がかかり、確かに、それは、非熟練者に視野パラメータを決定する 試みを思いとどまらせるのに十分な程複雑である。写真を撮る 以前にきちんと制御された修正座標系を確定しなければ、ユーザが5点間で最低 9つの線形寸法を知る必要がある。この要件はこの技術の使用をかなり制限する 。 いくつかの特殊化されたケース、例えば所定の航空測量応用では従来の写真測 量法を用いて、3較正点法と同じくらい少ない較正点を使用してカメラパラメー タを決定することができる。特に、チャーチリセクションモデルは、空中カメラ レンズの光軸が地形上で4°又は5°の下向きの範囲内にある場合、使用するこ とができる。垂直からの2、3度以上の角変位は、超越三角関数に関連した顕著 な数学的非線型を生じる。これらの条件の下では、チャーチ後方交会法モデルは 、もはや有効でなく、3点較正手順はもはや適用されない。 前述の較正技術の全ては下記の多数の欠点をもつ。 (a)この技術は、較正カメラ装置を必要とした。 (b)この技術は、あまりにも多数の点から成る較正ターゲットを必要として いるので、非熟練者が日常の用途に常時使用するのに適していない。 (c)3点較正ターゲットを使用する技術は、通常のカメラの視角から離れた 非常に限られた範囲においてのみ有効である。 (d)視野パラメータを解決する前述の方法の全ては、全ての点データに基づ いて同時に操作するマトリックス演算を使用し、従って、確実に規定されていな い測定パラメータは、パラメータ漏話効果によって、訳が分からず際限のないエ ラーを引き起こす可能性がある。 発明の要約 従来の技術の問題点は、本発明に従って画像内容に基づいてカメラ位置及び配 向を自動的に識別することにより解決される。これは、カメラ の視野内に較正ターゲットを配置するか又は予め得られた画像の情景に3つの相 対的な固定点の間の距離を測定するかのいずれかによって行うことができる。こ れらの点のデータを使用して、各写真毎にその写真が撮られた時のカメラの位置 及び配向を正確に決定することができる。カメラの位置及び配向が、2つ以上の 写真の各々に対して正確に知られると、正確な3D位置情報は画像に関する全て の他の識別可能な点に対して計算することができ、従って情景又は物体の正確な 調査ができる。画像は、単一のカメラで得ることができ、次に、立体画像又は立 体ワイヤフレームを発生するために使用される。 従って、前述の簡単な3点修正ターゲットのもつ長所以外に、本発明の他の目 的及び長所は、 (a)方位項、仰角項及びティルト項がX項、Y項、及びZ項の精度に影響を 及ぼさないようにエラー項のデカップリングを提供すること、 (b)非熟練者によって効果的に利用される簡単な手順を提供すること、 (c)小数点以下12位又はピクセル化エラー限界の何れをも上回る精度が得ら れるような、全ての視野パラメータの反復相の解を提供すること、 (d)最少のエラーを有する解を選択する以前に、全ての可能な解を求めるこ と、 (e)直角より大きな角度で3D情報を得ることができる測量方式を提供する こと、にある。 本発明の前記及び他の目的及び利点は、画像データを使用して相互の距離が知 られている3つの点、A、B及びCを使用して規定された座標系に関して図1の 点Dのような点の絶対三次元位置を測定する方法によ って得られる。画像データは、点A、B、C及びDを含む情景の2つの画像を得 るために焦点距離の知られたカメラを1つ以上使用することによって得られる。 前記画像の各々が得られた時点でのカメラの位置及び配向は、前記画像から得ら れた情報、既知の焦点距離及び既知の距離を使用することによって前記座標系に 対して決定される。従って、画像が得られた時点でのカメラの位置は、点Dのよ うな点の位置を決定するために他の画像データと併用される。 画像を得る時点でのカメラの位置を使用して画像データから前記点Dの位置を 決定するステップは、カメラの位置を結ぶラインの上に原点を有する補助座標系 を規定し、各画像の中心点をX′、Y′及びZ′方向にそれぞれ示す画像基準軸 のセットの原点として規定し、第1の画像のある点及び第2の画像の対応する点 のX′及びY′の方向の中の少なくとも1つのオフセットを測定し、点Dに結合 するライン、対物レンズの焦点と画像の各々に対するX′プレーン又はY′プレ ーンの中の1つの点Dの画像との間に形成された角度を決定し、測定されたオフ セット、焦点距離及び角度を使用して前記距離hを決定し、補助座標系における 点DのX′座標及びY′座標を決定し、更に、補助座標系における座標(X′、 Y′、h)を前記の3点、A、B及びCを使用して規定された前記座標系におけ る表示に変換することを含んでいる。 前記画像を画像データ、既知焦点距離及び前記既知距離を使用して前記座標系 に対して得た時点での前記1つ以上のカメラの位置及び配向を決定するステップ は、点A、B及びCとカメラOの焦点との間の距離を視野ピラミッドとして示し 、ピラミッドの表示を結合された3つの三角形の平面表示に変換し、前記平面表 示の第1の三角形の1つの内部面に対して低い推定値Ob1を選択し、画像デー タ、既知の焦点距離及び前記既知の距離を使用して第1の三角形の解を求め、特 に推定値Ob1を 与え、長さOAに対する第1の計算値を得、得られた結果を使用して第2の三角 形の解を求め、得られた結果を使用して第3の三角形の解を求め、中でも、長さ OAに対する第2の計算値を得て、長さOAに対する第1の計算値から長さOA に対する第2の計算値を減じて差を求め、その差の値を推定値Ob1に加えるこ とによって推定値Ob1の修正推定値を得、前記差の値が所望の精度よりも小さ くなるまで修正推定値を使用して引き続き演算を反復し、距離OA、OB及びO Cを使用してカメラの位置に対する値を得ることを含んでいる。 距離OA、OB及びOCを使用してカメラの位置に対する値を得る方法は、点 A、B、Cに中心があり、OA、OB、OCのそれぞれの半径を有する球体に対 する式を同時に解くことを含んでいる。 1つ以上のカメラの配向を計算する場合、カメラを点Aの位置に向けるのに必 要な方位及び仰角の調整を決定し、カメラが点Aに向くと、点Bを整列するのに 必要な光軸の周りの回転量を計算する。この計算は、整列の度合いが所望の精度 内に達するまで対話式で行われる。 本発明は、特に垂直方向の2点間の距離を測定し、画像において見ることがで きる物体の物理的位置を正確に決め、3次元のワイヤフレーム表示を作成し、物 体の“作られた状態”の条件を文書化するために使用することができる。 本発明は、カメラを使用して、点A、B、及びCを含む情景の画像を得ること によって画像データを使用して既知の距離だけ離れた3点、即ち点A、B及びC を使用して規定された座標系に関してカメラの絶対3次元位置Oを測定し、前記 カメラの焦点距離を決定するか又は演繹的に推測し、前記画像が得られた時点で の前記カメラの位置を前記画像から得られた情報、既知の焦点距離及び前記既知 の距離を使用して前記座標系に対して、決定する方法にも向けられている。 本発明は、前述の技術を使用して画像データを使用して既知の距離だけ離れて いる3点、A、B及びCを使用して規定された座標系に対して点D、E、及びF の絶対3次元位置を測定し、点D、E及びF間の距離を決定し、及び前記点D、 E及びFの位置並びに画像が得られた時点でのカメラの位置を使用して他の点の 位置を決定することによって垂直の高さを含む距離を測定する方法にも向けられ ている。他の点は、点D、E及びFの位置を決定するために使用される画像と異 なる任意の画像の上にあってもよい。 本発明は、点A、B、C及びDを含む情景の画像を得る1つ以上のカメラと、 カメラとインタフェースされ、カメラによって得られた画像を記憶するメモリと 、前記画像から得られた情報、既知の焦点距離及び前記既知の距離を使用して、 前記画像の各々が得られた時点でのカメラの位置及び配向を前記座標系に対して 決定するために記憶画像を処理し、かつ画像が得られた時点での前記1つ以上の カメラ位置を使用して画像データに基づいて前記点Dの位置を決定するコンピュ ータとを含み、画像データを使用して既知の距離離れている3つの点A、B及び Cを使用して規定された座標系に対して点Dの絶対3次元位置を測定する装置に も向けられている。位置情報は、異なる目的で使用することができるデータベー スに記憶することができる。例えば、それは、3次元ワイヤフレーム表現又は測 量される点の位置を記憶するために使用することができる。 本発明の更に他の目的及び長所は、下記の詳細な説明から当業者には直ちに明 かになる。この詳細な説明においては、本発明を実施するために意図された最良 モードのみが本発明の好ましい実施例として図示され、説明されている。当然の ことながら、本発明は他の実施例及び異なる実施例が可能であり、その細部につ いては、本発明の範囲を逸脱しない範 囲で自明な修正が可能である。従って、図面及び説明は、本発明の本質を説明す るためのものに過ぎず、本発明を限定するものではない。 図面の簡単な説明 図1は、本発明に係る、ビルディングを含む情景の2つの画像の撮影図である 。 図2は、カメラの焦点を通って投影される3つの較正点の視線ピラミッドの説 明図である。 図3は、カメラの距離の計算のために使用される平面ピラミッドを示す説明図 である。 図4は、カメラの距離の計算で使用される視角決定図である。 図5は、近・中・遠の不確定性を示す説明図である。 図6は、近・中・遠の不確定性の解を求める方法を示す説明図である。 図7は、方位及び仰角補正方法ヲ説明する説明図である。 図8は、カメラの距離及び配向を決定するために使用されたアルゴリズムのフ ローチャートである。 図9は、カメラの位置を計算するために使用されたアルゴリズムのフローチャ ートである。 図10は、2つのカメラの主点を結ぶラインからのある点の距離の計算方法を 示す説明図である。 図11は、X方向のある点の位置の計算方法を示す説明図である。 図12は、Y方向のある点の位置の計算方法を示す説明図である。 図13は、2つの画像が得られた時点で、一般に与えられた点位置の計算方法 と、カメラの位置及び配向の決定方法を示す説明図である。 図14は、本発明を実施する際使用されるハードウェアの構成を示すブロック ダイアグラムである。 発明の詳細な開示 図1は、その前に建主の広場110のような較正ターゲットがあるビルディン グ100を示している。ビルディングの写真は2つの位置から撮られる。第1の 写真は点f1から撮影され、第2のそれはf2から撮られたものである。f1は、 カメラのレンズ又はレンズ系の主点の位置であり、この点を通して投影される画 像は、画像プレーン上のFP1に位置する。情景の第2の画像は位置f2から得ら れ、主点f2を通る画像は画像プレーンFP2に向けられる。カメラの位置決めは 任意である。ある種の状況では、同じカメラを使用して2つの位置から画像を得 ることが推奨される。但し、他の状況では異なるカメラを使用して画像を得るこ とが望ましいこともある。 一般的には、カメラは、観察フレーム内の関心物体を中央に据えるように向け られている。示された写真では、両方のカメラは、中心点Tに向けられているが 、この点Tは建主広場内の点A、B及びCの画像が画像の中心でないことを意味 する。 画像が分析のために視覚可能な形式で利用可能であり、カメラの主点及び画像 プレーンとの間の距離(主点距離)及び再生画像上の点の物理的位置関係が判る と、角度が実情景内で測定されるとしても、又は焦点の画像プレーン側で測定さ れるとしても、主点に向きあっている一対の点が張る角度は同一であるために、 角度Af1B、Bf1C、及びCf1Aを計算できる。 本発明の実施に関しては、実世界座標系は、A、B及びCのプレーンにおける 点A及びBを通って延びるY軸及び点Aを通るY軸に垂直に規定されたX軸で規 定されるので、点Aで原点Oを形成する。Z軸は、XYプレーンに垂直に規定さ れ、点Aを通って延びる。規則によって、+Y方向は、原点Aから点Bに及び、 +X方向は、原点において+Y方向 に向かって右側に延び、+Z方向は、XYプレーンに垂直で、原点から+X方向 のベクトルと+Y方向のベクトルとの乗積によって示された方向に向いている。 この座標系が与えられると、カメラの位置、すなわち、画像が得られたカメラ の主点の位置を計算することが望ましい。従って、主点f1は、(X1、Y1、Z1 )にある。同様に主点f2は、(X2、Y2、Z2)にある。 この座標系に関しては、目標点Tに向けられたカメラが、座標系を利用して指 定することができる方位及び仰角の両方を有することが判る。更に、カメラは、 2つの写真が撮られるときと違ってカメラの光軸の周りに回転することができる 。要するに、写真が撮られたときカメラがXY平面に水平にあることの保証はな く、画像の配向は処理前に補正を要することがある。 図2は、原点O(カメラの主点)に面している3つの点A、B及びCによって 形成される視線ピラミッドを示している。視線ピラミッドは、各面が三角形、即 ち、三角形AOB、BOC及びCOAに対応する3つの面を有するように見える 。図2に示されたピラミッドを、中空で、紙で作られたものとし、これを一本の 稜線OAに沿って切開して得られたパターンを平に展開すると、図3に示された ような平面ピラミッドが得られる。 図3は、カメラの位置が本発明により決定される処理を説明するために利用さ れる。距離0Aは、座標系の原点にある点Aからレンズの主点にある点Oまでの 距離を示している。 先ず始めに、主点と画像プレーンとの間の距離及び画像プレーン上の2つの点 の間の距離を知ることにより、角度AOB、AOC及びBOCに対する値を求め る。 図4は、如何にしてこれが行われるかを示す。図4において、XYプレーンは カメラの画像プレーンを構成する。F0はレンズの主点である。点A及びBのイ メージは、そこからの入射光が主点を通過した後、画像プレーン上のXYプレー ン上に示された位置A及びBに形成される。点A及びBからの入来光線は、図4 の400及び410にそれぞれ示されている。画像プレーン分析の目的で、画像 プレーン原点FP0が規定され、X軸は画像アスペクト比の最も大きい寸法に平 行するものとして規定される。Y軸はそれに垂直に形成され、原点FP0は主点 の真下にある。点A及びBから光線は、焦点を通過するとき角度α(∠α)を形 成する。焦点を越えるこれらの光線の放射は∠αで発散する。∠αは図3の∠A OBに対応する。 画像記録媒体(例えば、写真フィルム、ディジタルアレイ等)から念入りに測 定を行うことによって、距離AFP0及びBFP0を決定できる。 既知の距離F0FP0(主点と合焦面との間の距離)及び測定距離AFP0及び BFP0を使用するピタゴラスの定理を使用して距離AF0及びBF0を計算する と、下記のようなコサインの公式を使用して角度αを計算できる。 AB2=(F0A)2+(F0B)2 −2(F0A)(F0B)cosα (1) 従って、合焦面における点を分析することによって、点A、B及びCの間の角 度は、今述べたように決定することができる。 点A、B及びCの間の距離は、投影されている情景に大工のかね尺のような修 正ターゲットを配置するか又は画像が形成された後、予め得ら れた情景の中の3つの相対的な固定点間の距離を測定するかのいずれかによって も知られる。 図3では、距離OAは、カメラの主点(O)からカメラ位置を規定するために 使用される座標系の原点である点Aまでの距離を示す。これは、最初に、距離O b1のような、距離OBに対して非常に小さい推定値を最初に仮定することによ って行われ、この仮定により、三角形AOBの値が求められる。“三角形の解を 求めることは”は、各辺の長さ及び三角形の内部の各角度に対する値を確定する (計算する)ことを意味する。仮定された距離Ob1に関して、第1の三角形は 、仮定された又は計算された既知の値を使用して解かれる。この処理で、距離O Aに対する値が計算される。推定値Ob1を使用して、第2の三角形BOCの解 が求められ、更に、得られた距離OCは、第3の三角形COAの解を求めるため に使用される。第3の三角形の値が求められると、第3の三角形のOAに対する 計算値は、第1の三角形のOAの計算値と比較される。推定値Ob1は、第3の 三角形からのOAに対する値と第1の三角形からのOAに対する値との差を推定 値Ob1に加えることによって修正され、以下前記の処理が繰り返される。連続 繰り返しによって、OAの計算値の差がεよりも小さい値に減少するまで、推定 値Ob1が増加せしめられる。εが必要とされる精度に対して十分小さくなった とき、繰り返しが中止され、OAの真の値は、第1及び第3の三角形に対して計 算されたOAの値の間にあると推定される。 以下に、前記の繰り返し計算が如何に行われたかを詳細に示す。 サインの公式から、下記式(3)が得られる。 距離Ob1は、最初に、短く設定されるOBの長さの推定値である。 修正ターゲットの寸法は既知であるか、又は画像が得られた後、距離ABが測定 されたために、距離ABは既知である。∠AOBに対する値は、図4に示される ように、又、式1〜7に関して述べたような画像プレーンからの測定に基づいて 計算される。従って、∠OABは下記のように計算することができる。 ∠OABの第1の推定値が既知であると、∠OBAの第1の推定値は下記のと おりに計算することができる。 ∠OBA= 180°−∠AOB−∠OAB (5) この点で、図3の第1の三角形の3つの全ての角度が分かり、第1の三角形の OAに対する値を計算できることになる。再度、サインの公式を使用して、OA を下記のように決定することができることになる。 この点で、第1の三角形は、距離Ob1が長さOBの実際の値であるという仮 定の下で全て値が求められる。 第2の三角形に話を変える。距離OBをOb1であると仮定する。距離BCは ターゲット寸法又は測定から既知であり、角度BOCは画像プレーンからの測定 に基づいて既知である。従って、下記の式(8)〜(12)図に示されるように第2の 三角形の値を完全に求めるのに十分な情報が揃う。 ∠OBC= 180°−∠BCO−∠BOC (10) 式(12)に示されるように計算された距離OCに関しては、同じ情報が第3の三 角形に関して利用可能であり、第3の三角形は第2の三角形を解くに当たって最 初に利用できる。従って、第3の三角形は、第3の三角形の対応する長さ及び角 度を式(8)〜(12)に代入して第2の三角形の解法と全く同様に解を求めることが できる。 第3の三角形を解いて得られた1つの結果は、上述のように計算された距離O Aである。この第3の三角形から得た距離OAの値は、前記の計算に基づいて第 1、第2及び第3の三角形から得られる。然しながら、第3の三角形から得られ た距離OAの値と、第1の三角形から得られた距離OAの値は、仮定値Ob1が 実際の長さOBに実際等しいならば、同じはずであることに注目すべきである。 Ob1は非常に低小さい値あると最初に仮定されるので、一般的には第1の三角 形からのOAの値と、第3の三角形からのOAの値とは差がある。2つの計算さ れた長さの差は、最初の推定値Ob1に加えられ、第2の繰り返し用の推定値O b2を形成する。 Ob2であると仮定された距離に関しては、第1、第2及び第3の三角形の解 法に対して前述された計算が繰り返され、第1及び第3の三角形からのOAに対 して生じる値がもう一度比較され、推定値Ob2に対する調整が前述のように距 離OAの計算値の間の差に基づいて行われる。 連続繰り返しによって、距離OAに対する推定値は、第1の三角形からのOA の値と、第3の三角形からのOAの値との差が許容レベルεに減少するまで繰り 返し処理を続けることによって所望の分解能程度までの精度で求められる。即ち 、繰り返し処理から生じる距離OAの値は、図3のOに示されたカメラの主点か らこの測定のセットに対して規定された座標系の原点である点Aまでの距離に等 しくなる。 第1及び第3の三角形からのOAに対する値がεの範囲内で一致するならば、 三角形の全ての値が求められるので、全視線ピラミッドの値が求められる。 次に、図5を参照する。カメラの主点から点A、B及びCを見ただけでは、点 A、B及びCの中でどれがカメラに最も近く、どれがその次に近いかを決定でき るとは限らない。例えば、図5では、点B1がカメラに最も近いとすると、点A がより近く、点Cがより遠いか、又はそれとは別に、点Cがより近く、点Aがよ り遠いかのいずれかが可能である。これらの差は、三角形A212と三角形A1 11を比較すれば判明する。図5に示された表は、点A、B及びCの関係が一 般に6つの異なる順列を生じる可能性があることを示している。解を求めて作業 を行う場合、近、中及び遠のこれらの組合せを常に考慮しなければならない。然 しながら、開始時には、どの点がカメラに最も近く、どの点が最も遠く、どの点 が中間点であるかが分からない。 不正確な答えを避けるために全ての組合せを試みることが望ましい。組合せの 各々に関して、どの組合せであるかを知り、次に計算を試みる ものと仮定する。計算が可能性のある解に収斂するならば、更なる分析のために この解を記録、保存する。組合せが特定の三角形のプレーンに近いならば、辺の 長さ及び視線ピラミッドの頂角に同じ関係を与える三角形の5つもの可能性のあ る解又は配向が有り得る。 近、中、遠の特定の組合せが得られなけば、計算は、収斂せず、処理が際限な く繰り返され、そして通常は数学的エラー、一般的には三角関数で終了する。然 しながら、計算が正常に進むならば、可能性のある解が得られ、可能性のある解 は全て、更なる調査のために保存される。 図5において、2つ以上の点が焦点から丁度同じ距離にあるとき、縮重が時々 生じ得ることが明らかである。このことは可能性のある異なる解の数を減少させ る。 繰り返しの処理中、前記に示された例では、第1及び第3の三角形のOA間の 差は、推定値Ob1に加えられ、次の繰り返しで利用される推定値を決定する。 もちろん、1対1以外の係数を利用し、第1及び第2の三角形に対するOAの値 の差の分数又は倍数で推定値を調整できる。然しながら、好ましい調整は1対1 である。 様な直角修正ターゲットを使用することが望ましい。 点A、B、Cに対する近、中、遠の6つの可能性のある配置は、ピラミッドを 平面にする異なる方法と見ることができる。3種の異なった平面ピラミッドが、 “開かれる”辺として各稜線OA、OB及びOCを使用することによって形成さ れる(例えば、ピラミッドを紙を折つてピラミッドの形にして形成し、1つの稜 線に沿って切り開き、ピラミッドを広げて図3に示されたようなパターンにする とき、各々を異なる稜線で切断すると3つの異なった平面ピラミッドが形成され る)。各ピラミッドは三角形が生じ得る2つの配列順序に対応して2つのメンバ ーを有す る。図3に示されるように、例えば、三角形は1−2−3の順序で値を求められ る。この順序付けは2つのメンバーの中の1つを示している。他の一方のメンバ ーは、その面の上に平面ピラミッドをひっくり返すことによって形成されるもの であり、図3に示さた三角形3は三角形1と入れ替わる。この組のメンバーは、 表示されるように3−2−1の順序で値を求められる。 平面ピラミッドの三角形を解く際に1−2−3と順序付けることは、左(及び 右)の外辺(図のOA)が最も長く、次の辺(OB)が中間(mid)であり、 OCが最も短いと暗黙的に仮定することである。 近、中、遠の能な配列の各々に対する解を探すとき、アルゴリズムは“存在可 能な”解に対してのみ収斂する。通常、6つの組合せの中の1つだけが可能であ る。然しながら、2(又は3)の点が正確に同じ距離だけ離れている場合、縮重 が生じることがある。このような場合、多重解が可能であるが、得られる結果は 同じである。 このように、収斂性の解は、前述のように点A、B及びCによって規定された 座標系においてカメラのX、Y及びZ位置を一義的に規定する。 ここに記載された技術は、修正ターゲットなしで写真を撮られた画像に適用可 能である。画像上の3つの便宜的な点を選択し、画像が得られた後に、3つの便 宜的な点間の距離を物理的に測定することによって、画像が得られた時点で修正 ターゲットを使用して得られたのと同じ効果を得ることができる。 図6に示されるように、近、中、遠の不確定性の解を見い出すために、カメラ の主点が、既知の長さのOA、OB及びOCの点Oで一致する場所にあるだろう ことに注目する。従って、点Oの位置に対して可能な解の各々に関しては、点A の周り、点Bの周り、次に、点Cの周りの球体に対する式を記述できる。球体の 交差は、合わされる2つの石けんの泡 を思い描くことによって理解できる。球体が徐々に近づくと、球体は1つの点で 接触し、次に、一方が他方に食い込み、2つの球体に共通である点の軌跡である 円を発生する。球体が全く同じサイズでない限り、一方の泡が他方の泡の内部に 侵入し、それが内部に進むとき、最悪の場合、1つの点で再び接触する。一方が 他方の側の外方に進むと、ある点で再接触し、円を形成し、次に、一方が離れる とき、直径方向反対側の点で接触する。 点A、B及びCに中心があり、それぞれ長さOA、OB及びOCの半径を有す る球体に対する式を記述することによって、3つの未知数を含む3つの方程式を 得る(直角座標系を仮定して)。 近、中、遠の不確定性に対する可能な解の各々を用いて、球体のセットが発生 する交差の共通点の解を求める。図6を見ると、+Z側の空間における3つの球 体の点0での交差に加えて、−Z側の空間において得られる対称的な解がある。 規則によって、XYプレーンによって確立された水平制御グリッドがXYプレー ン上を見下ろす+Z方向から見られると仮定する。この規則によって、唯一つの 解が残る。即ち、解は+Z空間側のもののみとなり、−Z空間の解は除去される 。従って、これによりカメラの主点のXYZ位置が決定される。 カメラ位置が決定されると、カメラに対して選択、指定すべき3種の可能な配 向がある。それらは、(1)方位回転、(2)仰角回転、及び(3)光軸の周り の傾斜である。図7は、如何にして方位補正及び仰角補正が決定されるかを示し ている。又、図7は画像プレーンを示している。点ABCは、座標系を規定し、 この座標系でカメラの距離を計算するために使用される同じ点ABCである。点 A、B及びCは、画像プレーンで示された画像の一部として示されている。プレ ーンの中心(すなわち、画像の中心)は、一般的には関心ある物体上にあるので 、関心あ る物体は画像の中心に表示される。座標系を確定するために使用される修正ター ゲット、すなわち3点A、B及びCは、一般的には写真の中心にはない。方位補 正は、本質的には外部世界座標系の原点の画像を点Aに変位させるのに必要な補 正であるので、外部世界座標系の原点の画像は、画像プレーンの座標系の軸71 0の右側に示された点Aの写真位置の真上に来る。仰角補正は、画像プレーン座 標系700の横座標の下に示された点Aの写真位置の真上に点Aの画像を配置す る必要がある仰角又は俯角である。要するに、方位補正及び仰角補正は、カメラ に適用されるならば、点A、すなわち実世界座標系の原点が点A、すなわち写真 上に得られたような原点と一致するように決定されることとなる。 数学的には、実世界座標系の原点の画像を画像プレーンにおける点A上に正確 に配置する微分オフセット角は下記のように計算される。 θA=tan-1(△A/f) (13) θE=tan-1(△E/f) (14) 点Aを相互に整列させるか又は重ね合わせるのに必要な補正は図7に示されて いる。 図7では、Aが正しく配置されているならば、点B及び点Cは正しく配置され ているものと仮定している。然しながら、光軸の周りのカメラの傾斜があるため にこれは一般的に真ではない。点Aが重ね合わされると、軸定義によって、点B が実世界座標系においてどこにあるはずかが判明する。実世界座標系の原点がA に置かれ、画像プレーン座標系の原点が図7に関して適用された方位補正及び仰 角補正に基づいて現在もAに中心が置かれているならば、画像プレーン上の点B は、実世界座標系における点Bが置かれている場所に置かれる筈である。但し、 これは写真が撮られた時にカメラが完全に水平であればという話である。然しな がら傾斜があると、Bは軸を外れて変位せしめられる。画像プレーン上 で、ラインABが画像プレーンからの測定によって画像プレーンのX軸に対して 形成する実際の角度が判る。3次元画像を2次元面上に投影する場合に普通に行 われるように、視線ピラミッドを撮り、それを投影プレーン上に投影することに よって、どのような角度BACが画像プレーン上にある筈かを決定できる。カメ ラ傾斜を補正するために、画像プレーンを光軸の周りに回転しなければならない 。然しながら、このようなことを行うことは、点A、B及びCの位置を変化させ る可能性があり、点が任意の誤差量ε1に収斂するまで点Aが重ね合わされた後 、傾斜量を計算する別の補正の繰り返しを行うことが必要である。 これらの技術を使用して、収斂性は、通常10-14の精度まで達成することがで きる。1つ以上の収斂性の解の候補があるならば、B点の残差及びC点の残差は 弁別器として利用される。 図8は、カメラの画像から位置及び配向を詳細に決定するために使用されるプ ロセスを示している。ステップ800で、修正点A、B及びCの位置を決定し、 次いでこれらの間の距離を知るか又は測定する(810)。XYZ座標における カメラ位置は図9に示された技術を使用して決定される。XYZカメラ位置が決 定されると、方位及び仰角の補正がなされ(830)、次いで傾斜のための補正 (840)が行われる。方位補正及び傾斜補正が行われる場合、これらの点が所 望の精度ε内で正しい位置にあるかどうかを決定する。若しそうであるならば、 カメラの位置及び配向が詳細に決定され(860)、工程が終了する。そうでな いならば、ステップ830及び840の別の繰り返しが開始されて、所望の精度 内で位置が決定される。 図9は、図8に示されたブロック820の詳細を示している。カメラの主点距 離が判ると、画像プレーンから3つの角度AOB、BOC及びCOAを測定する (900)。視線ピラミッドは最長の寸法と仮定され る距離OAで切開される(905)。ピラミッドは平らにされ、短いことが既知 であるラインセグメントOBに対してある値が推定される(910)。OBに対 する推定値を使用して、第1の三角形の解が求められる(915)。次に、第2 及び第3の三角形が、前の計算の結果を使用して逐次的に解かれる(920及び 925)。第1の三角形に関して計算されたOAに対する値の差が、第3の三角 形から計算されるOAに対する値(930)とεよりも大きい量だけ異なるなら ば(940)、その差△OAは、前のOBの推定値に加えられ、新しい推定値が 形成され、ステップ915、920、925、930及び940の新しい繰り返 しが行われる。△OA<εであるならば(940)、視線ピラミッドの解が求め られ(950)、カメラの位置及び配向を全て決定する(970)前に、近、中 、遠の不確定性を解くこと(960)が必要である。 画像が図10に示されたように配置された2つのカメラで得られるならば、点 X1、Y1、Z1の位置が下記のように計算される。 原点0を有する軸のセット、図10に示されるようなX軸とZ軸、及びそのペ ージのプレーンに垂直であるY軸を仮定する。 画像は、図10の点Cにある対物レンズ及び点Fにある対物レンズで得られる と仮定する。CとFとの距離は(d1+d2)である。画像を得るカメラは既知の 焦点距離Fを有し、画像が得られる点の各々に対応する画像プレーンはX軸上に 太いラインで示されている。カメラ(C&F)の焦点を結ぶラインからDと示さ れた点までの距離は下記のように計算することができる。 三角形ABC及びCEDは、幾何学的に相似形であり、三角形DEF及びFH Gも相似形である。 これらは相似形であるために、 h/f=d12/△XL (15) h/f=(d2+d11)/△XR (16) d1=d11+d12 (17) h/f=d12/△XL=(d2+d11)/△XR (18) 式(18)に示すように、式(15)と(16)を等しいと置き、両辺から右辺を減算し整 理すると、下記のようになる。 式(19)が正しいとすると、分子は0でなければならない。 ∴ d12△XR−(d2+d11)△XL=0 (20) 式(17)をd11に就いて解き、式(20)に代入して整理すると、 d12△XR=(d2+d1−d12)△XL (21) ∴ d12(△XR+△XL)=(d2+d1)△XL (22) hが知られると、原点0の座標X0及びY0は、下記によってカメラの光軸に対 して規定することができる。図11及び12を参照。 αx=tan-1(f/△X) (26) αy=tan-1(f/△Y) (27) X0=−h・cotαX (28) Y0=−h・cotaY (29) 視野条件の下で画像を得る際に、カメラの位置が、図10に示される ようにきれいに規定されることは稀である。 図13は、典型的な実世界状況を示している。図13では、点A、B及びCは 、画像を得た後に測定された較正ターゲット又は較正点を示している。座標系X 、Y及びZは、前述の規則に従って原点Aに対して定められる。その主点O1及 びO2のそれぞれによってのみ示されるカメラ位置1及び2、並びにその画像プ レーンIP1及びIP2は、それぞれ、O1及びO2にあるその主点と、画像プレー ン上の視野の中心点Tに向けられたその光軸によって位置決めされている。任意 の点Pの座標(X1、Y1、Z1)を得ることが望まれている。 これは、2段階変換によって解くことができる。焦点O1と焦点O2とを結ぷ直 線を引き、この直線の中点をOM(Xm、Ym)とし、次に方位回転を実行する。 焦点O2の周りに同じ種類の回転がカメラ2に適用されると、カメラは図10に 示されるように配向され、点Pに対する座標は前記のように式15〜19を使用して 計算される。然しながら、計算された座標は、図13の点OMに対応する図10 の点Oを基準とするものである。従って、測定のために規定された世界座標系に 関する点Pの座標を得るには、OMに原点を置いた座標系から点Aに原点を置い た座標系への簡単な座標変換が必要である。 図14は、本発明のある態様を実施するために使用されるハードウェアを示し ている。カメラ1400は、本発明により分析されるべき画像を得るために使用 される。カメラ1400は、ディジタルスチールカメラ又はフレームグラッパー を有するビデオカメラでよい。カメラからの画像は、カメラインタフェース14 10を使用してコンピュータ1420上にロードされる。通常、インタフェース 1410を通してロードされる画像は、ハードドライブ1423上に記憶され、 ビデオRAM1430で処理するために後に検索される。然しながら、画像デー タは、要 すればビデオRAMに直接にロードし得る。ビデオRAM1430は、カメラか らの2つの画像を同時処理するのに十分な画像メモリを含むことが望ましい。好 ましくは、ビデオディスプレイ1440は、陰極線管のような高解像度ビデオデ ィスプレイ又は半導体技術で構成される類似のディスプレイである。ディスプレ イ1440は、インタフェース1424でディスプレイを通してコンピュータバ スにインタフェースされ、個別画像又は両方の画像を同時に又は本発明により作 成された3次元ワイヤフレームを表示するために使用される。キーボード145 0は、通常のようにキーボードインタフェースを介してバスにインタフェースさ れる。 図14に見られるように、コンピュータインプリメンテーションを利用する場 合、距離測定は、垂直方向及び水平方向のディスプレイの解像度が知られれば、 ディスプレイスクリーン上の線形測定に変換することができる垂直方向及び水平 方向のピクセルの数で便宜的に測定することができる。ピクセルの数は、対象と する点を指し、クリックすることにより、カーソルのアドレスからクリックされ たピクセルのアドレスを得て容易に決定される。 従って、撮影の後に分析される画像から決定されるように、カメラ又は他の画 像取得装置の位置及び配向を知ることにより、点Aに中心を置くシステムにおけ るXYZの実世界座標によって、これらの点の正確な位置を計算できるので、実 世界座標系に対するこれらの点の位置を高い精度で特定することができる。 ここに記載された技術は、ビルディング又は建設現場の正確な測量と同様に、 論争の的となるような事故又は犯罪の現場の調査を、特にこれまで実際には不可 能であった垂直方向で可能とする。 この開示では、本発明の好ましい実施例だけが示されているが、前述 のように、本発明は、いろいろな他の組合せ及び環境で使用することができ、こ こに示されるような発明の概念の範囲内で変更又は修正できることを理解すべき である。DETAILED DESCRIPTION OF THE INVENTION               Camera position and orientation using image data                            Method and apparatus for determining                                 Technical field   The present invention relates to the field of image processing, in particular, the position of a camera and the And apparatus for determining orientation and orientation, and surveying using such methods and apparatus. It is about the technology to do it accurately.                                 Background art   Since the invention of the stereoscope in 1847, the inventor has been working with three-dimensional ( 3D) Attempted to reproduce the scene. Reality because 2D images have no stereoscopic effect Lacking. Although the degree of success varies, a number of techniques have been used to generate 3D images. The art was suggested.   A single camera body and two separated by a certain distance, usually corresponding to the distance between the eyes A three-dimensional photographic camera using an objective lens is well known. Other such mosquitoes A camera simply forms two image areas on a film placed in the camera image plane. One objective lens device and an external device are used. Still other devices were photographed Two separate objects separated by a certain distance to form images corresponding to the left and right visual fields of the scene Use multiple cameras.   When a prior art stereoscopic photographed image is developed, this image is often separated. Eyepieces, one for each of the left and right eyes Can be Each eyepiece shows the scene directly from the user's eyes in the developed image Then, the image which each eye would see is projected on the retina. See a three-dimensional image Sometimes the depth is clearly recognizable You.   There are several problems with the prior art for generating three-dimensional images. First First, the need to fix the camera or objective lens a certain distance Limit the degree of freedom of Mera's design. Two objectives or two cameras are stereoscopic Special equipment is required to obtain a proper image.   Another problem with the prior art is that complicated lens arrangements cause stereoscopic images to be seen. It is necessary to: Furthermore, in the prior art stereoscopic photography method, the depth Cannot be easily quantified.   Depth calculations are based on images taken from different locations facing the scene in the photo. Using images is a difficult task. Because 3D on 2D plane The two-dimensional relationships resulting from projecting the scene are projected onto different image planes. This is because linear conversion or mapping is not performed on the same point. One point Some different parts of the scene viewed from the same scene when viewed from another point Seen in a different association to Some parts of the scene are hidden when the viewing point changes. And disappear. Normally, a two-dimensional plane viewed on one screen is viewed diagonally , Area is reduced.   In the prior art, land is used to identify the location of important properties, etc. in a small parcel. Methods and apparatus for surveying small parcels are known. Generally, a group of surveyors Goes to the plot and sets up a portable theodolite for the surveyor and a calibrated scale for distance measurement. Used to make physical measurements of distance and angle. Surveying using these techniques is one In general, it is based on a national grid of surveying landmarks. This technology is Various kinds of errors are likely to occur when reading the instrument and performing calculations.   Aeronautical surveying is also known. The image shows the latest aeronautical technology moving over the area being surveyed. Airplane or other flight whose position is accurately known by the art Obtained by the body. Second, the location of important ground terrain is often It can be calculated using sophisticated image processing techniques that require a computer. Aeronautical surveying technology can be achieved without the need for staffing on the ground in the area being surveyed Has advantages. Even inaccessible terrain can be surveyed in this way. However, expensive It is necessary to have a good image acquisition device, and even in the case of an excellent optical device and image processing, Resolution is not always preferred. Similarly, using aircraft technology However, it is difficult to make accurate measurements in the vertical direction.   In controversial investigations, such as investigations at crime scenes or archaeological excavations Therefore, recording of spatial relationships is very important. Such surveys are often Must withdraw from the survey site within a short time due to the degree of urgency or public nature It is performed under severe conditions. Highway during rush hour for investigation If closed, ensuring traffic flow is a politically imperative requirement. You. Crime scene analysis reveals valuable evidence if details are not immediately observed and recorded. Liability may be lost. In such a situation, conduct a careful manual investigation Aviation technology lacks the resolution generally required or police It is too expensive to be generally adopted as a survey tool.   In a manufacturing environment, either for inspection purposes or for documentation with considerable accuracy Often, it is required to measure the physical details of a product "as made".   During manufacture, computer-aided design or computer-aided manufacturing (CAD / CAM) The purpose of forming a three-dimensional (3D) display such as a wireframe for use in It is often required to obtain the physical dimensions of complex objects. Also in entertainment Also create animations that cause changes in the position of 3D objects or perspective views of 3D objects In order to obtain such a 3D display It is desired to use.   Thus, objects can be stored in a convenient, economical and in a manner that does not require sophisticated computing equipment. And it is necessary to accurately obtain 3D information about the scene. Vertical difficult to investigate physically It is also necessary to obtain the physical dimensions of the object in the direction exactly. Photo, video frame or real Any recorded image, whether in perspective or in other recorded image formats, In relation to visual position and visual angle that accurately describe the orientation of the recording mechanism with respect to the scene I have.   When performing distance calculations based on images obtained using a camera, Know the position of the camera at the time the camera lens or It is necessary to know more accurately the principal point viewed from the front of the lens system. Positive distance Orientation of the optical axis of the lens or lens system as it comes from the camera, for accurate calculations It is also desirable to know the elevation angle and the tilt angle about the optical axis.   In the prior art, the camera position uses surveying techniques to determine the position where the photo was taken. Is either inferred by doing or known a priori. General Typically, the camera tilt is assumed to be 0 (horizontal left and right), and the elevation and azimuth It was either measured to varying degrees or estimated. Obviously, this Setup required to obtain images for analysis by such surveying and measuring Time is exchanged for qualitative information that can be collected from images obtained under uncontrolled conditions. It takes a long time to abandon the desire for accurate measurement.   The need for accurate visual field parameters is an Digital imaging and analysis for a wide range of purposes, from With the growing population of computer users using log images It is shown.   For example, stereo photography may be used to investigate and document the scene of an accident or crime. Often used for. The accuracy of documentation is determined by the camera at the time the photo is taken. Knowing the viewing parameters accurately can be determined with high accuracy.   Computer rendering is still planned and under construction. Often combined with actual photos to show project images. Computer To combine and adapt the visual rendering to a visually convincing photo Include the computer rendering field of view and the camera's field of view. The parameters are required to be exactly the same.   In general, the camera position is physically measured relative to some established coordinate system Even when the field of view parameters for any given recorded image are unknown and high It is difficult to determine with accuracy. Obstacles are usually caused by the camera lens Inside the structure, and therefore not accessible for direct measurement purposes Arising from the fruit. Do not use a surveying tripod, level, or theodolite to measure the viewing angle It is very difficult to get in.   Photogrammetry is a technique for obtaining measurements from photographs. Generally, photogrammetric techniques The physician generates fiducial marks on the pictures to help determine the viewing parameters Use special camera equipment. However, non-photogrammetric cameras can Associated techniques can be used in the analysis, and generally a large number ( (5 or more points). In general, determine the viewing parameters Therefore, the three-dimensional positions of the five or more correction points are already determined by a certain kind of orthogonal reference coordinate system. You need to be knowledgeable. Direct linear transformation (DLT) is sometimes used by photogrammetric technologists. 5 is a 5-point calibration procedure used. It is usually difficult to determine the location of these points And is expensive, and indeed, it determines the viewing parameters to the unskilled Complex enough to discourage attempts. take a picture Unless a previously well-controlled modified coordinate system has been established, the user must It is necessary to know nine linear dimensions. This requirement significantly limits the use of this technology .   In some specialized cases, such as traditional photogrammetry for certain aerial survey applications, Camera method using the calibration method with as few calibration points as the three calibration point method. Data can be determined. In particular, the Churchill section model has an aerial camera Use if the optical axis of the lens is within 4 ° or 5 ° downward on the terrain. Can be. Angular displacements of more than a few degrees from vertical are noticeable associated with transcendental trigonometric functions Results in mathematical non-linearity. Under these conditions, the church resection model is Is no longer valid and the three-point calibration procedure is no longer applied.   All of the aforementioned calibration techniques have a number of disadvantages:   (A) This technique required a calibration camera device.   (B) This technique requires a calibration target consisting of too many points Therefore, it is not suitable for the unskilled person to always use for daily use.   (C) The technique using a three-point calibration target is far from the normal camera viewing angle It is effective only in a very limited area.   (D) All of the above methods of resolving field parameters are based on all point data. Use matrix operations that operate simultaneously and therefore are not reliably specified. Measurement parameters are indeterminate and infinite due to parameter crosstalk effects. Can cause                                Summary of the Invention   The problem of the prior art is that the position and arrangement of the camera based on the image content according to the present invention are different. The problem is solved by automatically identifying the direction. This is a camera Place the calibration target in the field of view of the This can be done either by measuring the distance between opposite fixed points. This Using these point data, for each photo, the position of the camera at the time the photo was taken And orientation can be accurately determined. If the position and orientation of the camera When accurately known for each of the photos, accurate 3D location information is all about the image Can be calculated for other identifiable points of the scene or object. Can investigate. Images can be obtained with a single camera and then stereo images or vertical Used to generate body wireframes.   Therefore, in addition to the advantages of the simple three-point correction target described above, other objects of the present invention Targets and advantages   (A) The azimuth, elevation, and tilt terms affect the accuracy of the X, Y, and Z terms Providing decoupling of error terms so as not to affect;   (B) providing simple procedures that are effectively used by unskilled personnel;   (C) Accuracy above either the 12th decimal place or the pixelation error limit is obtained Providing an iterative phase solution of all visual field parameters such that   (D) Find all possible solutions before choosing the solution with the least error. When,   (E) To provide a surveying method capable of obtaining 3D information at an angle larger than a right angle. That is in.   The above and other objects and advantages of the present invention are directed to the use of image data to determine the distance between each other. 1 with respect to a coordinate system defined using three points, A, B and C, A method for measuring the absolute three-dimensional position of a point such as point D Is obtained. The image data obtains two images of the scene including points A, B, C and D. By using one or more cameras with known focal lengths. The position and orientation of the camera at the time each of the images was obtained can be obtained from the images. Information, a known focal length and a known distance to the coordinate system. Is determined. Therefore, the position of the camera at the time when the image is obtained is It is used together with other image data to determine the position of such a point.   The position of the point D is obtained from the image data using the position of the camera at the time when the image is obtained. The step of determining includes an auxiliary coordinate system having an origin on a line connecting the positions of the cameras. And an image reference axis indicating the center point of each image in the X ', Y', and Z 'directions, respectively. , Defined as the origin of a set of points, a point in the first image and a corresponding point in the second image Measure at least one offset in the X ′ and Y ′ directions of X 'plane or Y' plane for each line, objective lens focus and image The angle formed between the image of one point D in the image and the measured off Determine the distance h using the set, focal length and angle, and in the auxiliary coordinate system The X 'and Y' coordinates of the point D are determined, and the coordinates (X ', Y ′, h) in the coordinate system defined using the three points, A, B and C, Including converting to a different display.   Using the image data, a known focal length and the known distance to represent the image in the coordinate system Determining the position and orientation of the one or more cameras at the time obtained for Indicates the distance between points A, B and C and the focus of camera O as a field of view pyramid. , Convert the representation of the pyramid into a plane representation of the three triangles combined, Low estimate Ob for one interior surface of the first triangle shown1Select the image data Solve for the first triangle using the known focal length and the known distance, To the estimated value Ob1To Given a first calculated value for the length OA, and using the result obtained a second triangle Find a solution to the shape and use the result to find a solution to the third triangle, Obtain a second calculated value for OA and calculate the length OA from the first calculated value for length OA. Is subtracted to obtain a difference, and the value of the difference is calculated as the estimated value Ob.1Add to And the estimated value Ob1And the difference value is less than the desired accuracy. The operation is then repeated using the modified estimates until the distances OA, OB and O And using C to obtain values for the position of the camera.   A method for obtaining values for the position of the camera using the distances OA, OB and OC is A sphere with centers at A, B, and C and radii of OA, OB, and OC respectively This involves solving the equations at the same time.   When calculating the orientation of one or more cameras, it is necessary to point the camera at the location of point A. Decide the necessary azimuth and elevation adjustments, and when the camera turns to point A, align point B Calculate the required amount of rotation about the optical axis. This calculation is based on the degree of alignment desired accuracy It takes place interactively until you reach   The invention measures the distance between two points, especially in the vertical direction, and can be seen in the image. Precisely determine the physical position of the object to be cut, create a three-dimensional wireframe display, It can be used to document the condition of the "built state" of the body.   The present invention uses a camera to obtain an image of a scene including points A, B, and C. Three points separated by a known distance using the image data, namely points A, B and C Measuring the absolute three-dimensional position O of the camera with respect to the coordinate system defined by using Determine or a priori guess the focal length of the camera and at the time the image is obtained Information obtained from the image, the known focal length and the known position of the camera. And a method for determining the coordinate system using the distance.   The present invention uses image data using the techniques described above to Points D, E, and F with respect to a coordinate system defined using the three points A, B, and C , Determine the distance between points D, E and F, and Using the positions of E and F and the position of the camera at the time the image was obtained, It is also directed to methods of measuring distances, including vertical height, by determining location ing. Other points differ from the images used to determine the location of points D, E and F. May be on an arbitrary image.   The present invention relates to one or more cameras for obtaining an image of a scene including points A, B, C and D; A memory that is interfaced with the camera and stores an image obtained by the camera; Using information obtained from the image, a known focal length and the known distance, The position and orientation of the camera at the time each of the images was obtained with respect to the coordinate system Processing the stored image to determine and the one or more at the time the image was obtained A computer that determines a position of the point D based on image data using a camera position; And three points A, B and 3 at known distances using the image data. For measuring the absolute three-dimensional position of point D with respect to a coordinate system defined using C Is also aimed at. Location information is a database that can be used for different purposes. Can be memorized. For example, it can be a three-dimensional wireframe representation or measurement. It can be used to store the location of the point being quantified.   Still other objects and advantages of the present invention will be readily apparent to those skilled in the art from the following detailed description. It will be. In this detailed description, the best intentions to carry out the invention are set forth. Only modes are shown and described as preferred embodiments of the invention. Natural However, the present invention is capable of other and different embodiments and its several details are capable of modification. Therefore, the scope of the present invention does not deviate from the scope of the present invention. A trivial correction is possible in the box. Accordingly, the drawings and description illustrate the nature of the invention. It is merely for the purpose of limiting the present invention.                             BRIEF DESCRIPTION OF THE FIGURES   FIG. 1 is a photograph of two images of a scene including a building according to the present invention. .   Figure 2 shows the view gaze pyramid of three calibration points projected through the camera focus. FIG.   FIG. 3 is an explanatory diagram showing a plane pyramid used for calculating a camera distance. It is.   FIG. 4 is a view angle determination diagram used in calculating the camera distance.   FIG. 5 is an explanatory diagram showing near / middle / far uncertainties.   FIG. 6 is an explanatory diagram showing a method for obtaining a solution of uncertainty of near, middle, and far.   FIG. 7 is an explanatory diagram for explaining the azimuth and elevation angle correction method.   FIG. 8 shows the algorithm used to determine the camera distance and orientation. It is a low chart.   FIG. 9 shows a flow chart of the algorithm used to calculate the position of the camera. It is.   FIG. 10 shows a method of calculating the distance of a point from a line connecting the principal points of two cameras. FIG.   FIG. 11 is an explanatory diagram illustrating a method of calculating the position of a certain point in the X direction.   FIG. 12 is an explanatory diagram showing a method of calculating the position of a certain point in the Y direction.   FIG. 13 shows a method of calculating a generally given point position when two images are obtained. FIG. 4 is an explanatory diagram showing a method for determining the position and orientation of a camera.   FIG. 14 is a block diagram showing the configuration of hardware used when implementing the present invention. It is a diagram.                             Detailed Disclosure of the Invention   FIG. 1 shows a building that is preceded by a calibration target, such as the owner's square 110. FIG. Photos of the building are taken from two locations. First The picture is point f1And the second one is fTwoIt was taken from. f1Is The position of the principal point of the camera lens or lens system, through which the image projected Image is FP on image plane1Located in. The second image of the scene is at position fTwoObtained from The principal point fTwoThe image passing through is an image plane FPTwoTurned to Camera positioning Optional. In certain situations, using the same camera to obtain images from two locations Is recommended. However, in other situations it may not be possible to obtain images using a different camera. Is sometimes desirable.   In general, the camera should aim at the center of interest in the observation frame. Have been. In the picture shown, both cameras are pointed at the center point T, , This point T means that the images of points A, B and C in the landlord square are not the center of the image I do.   The images are available in a visual form for analysis, the camera principal points and the images The distance from the plane (principal point distance) and the physical positional relationship of points on the reproduced image can be determined. Angle is measured in the actual scene or on the image plane side of focus. Even if it is, the angle formed by a pair of points facing the principal point is the same, Angle Af1B, Bf1C and Cf1A can be calculated.   For the implementation of the present invention, the real world coordinate system is in the A, B and C planes. Defined by the Y axis extending through points A and B and the X axis defined perpendicular to the Y axis passing through point A. Therefore, an origin O is formed at the point A. The Z axis is defined perpendicular to the XY plane. And extends through point A. By convention, the + Y direction extends from origin A to point B, + X direction is + Y direction at the origin And the + Z direction is perpendicular to the XY plane and + X direction from the origin. And the vector in the + Y direction.   Given this coordinate system, the position of the camera, ie, the camera from which the image was obtained It is desirable to calculate the position of the principal point of. Therefore, the principal point f1Is (X1, Y1, Z1 )It is in. Similarly, the principal point fTwoIs (XTwo, YTwo, ZTwo)It is in.   With respect to this coordinate system, the camera pointed at the target point T uses the coordinate system to perform finger pointing. It can be seen that it has both azimuth and elevation that can be determined. In addition, the camera Can rotate around the optical axis of the camera unlike when two pictures are taken . In short, there is no guarantee that the camera will be horizontal in the XY plane when the picture is taken. In addition, the orientation of the image may need to be corrected before processing.   FIG. 2 shows three points A, B and C facing the origin O (principal point of the camera). Figure 6 shows a line-of-sight pyramid formed. The line of sight pyramid is a triangle It appears to have three faces corresponding to triangles AOB, BOC and COA . The pyramid shown in FIG. 2 is hollow, made of paper, and When the pattern obtained by cutting along the ridge line OA is developed flat, it is shown in FIG. Such a plane pyramid is obtained.   FIG. 3 is used to explain the process in which the position of the camera is determined according to the present invention. It is. The distance 0A is a distance from the point A at the origin of the coordinate system to the point O at the principal point of the lens. Shows the distance.   First, the distance between the principal point and the image plane and the two points on the image plane Find the values for angles AOB, AOC and BOC by knowing the distance between You.   FIG. 4 shows how this is done. In FIG. 4, the XY plane is Configure the camera image plane. F0Is the main point of the lens. Points A and B After the incident light from there passes through the principal point, the XY play on the image plane Formed at positions A and B shown above. The incoming rays from points A and B are shown in FIG. At 400 and 410, respectively. For the purpose of image plane analysis, Plane origin FP0Is defined, and the X axis is flat to the dimension with the largest image aspect ratio. Stipulated. The Y axis is formed perpendicular to it, and the origin FP0Is the main point Directly below. The rays from points A and B form an angle α (∠α) when passing through the focal point. To achieve. The radiation of these rays beyond the focal point diverges at ∠α. ∠α is ∠A in FIG. Corresponds to OB.   Thorough measurement from image recording media (eg, photographic film, digital arrays, etc.) By setting the distance AFP0And BFP0Can be determined.   Known distance F0FP0(Distance between principal point and focal plane) and measured distance AFP0as well as BFP0AF using Pythagorean theorem using0And BF0Calculate And the angle α can be calculated using the cosine formula as follows:   ABTwo= (F0A)Two+ (F0B)Two                  -2 (F0A) (F0B) cosα (1)   Therefore, by analyzing the points in the focal plane, the angle between points A, B and C The degree can be determined as just described.   The distance between points A, B and C should be similar to the carpenter's scale in the projected scene. After placing the main target or forming the image, By measuring the distance between the three relative fixed points in the isolated scene Also known.   In FIG. 3, the distance OA is used to define the camera position from the principal point (O) of the camera. Shows the distance to point A, which is the origin of the coordinate system used. This is, first, the distance O b1By first assuming a very small estimate for the distance OB, such as According to this assumption, the value of the triangle AOB is obtained. “Triangle solution Finding "determines the value for each side length and each angle inside the triangle (Calculate). Assumed distance Ob1, The first triangle is , Solved using assumed or calculated known values. In this process, the distance O The value for A is calculated. Estimated value Ob1To solve the second triangle BOC Is obtained, and the obtained distance OC is used to obtain the solution of the third triangle COA. Used for Once the value of the third triangle is determined, the third triangle OA The calculated value is compared with the calculated value of the OA of the first triangle. Estimated value Ob1Is the third Estimate the difference between the value for OA from the triangle and the value for OA from the first triangle Value Ob1And the above processing is repeated. Continuous Iterative estimation until the difference between the calculated OA values decreases to a value smaller than ε by iteration. Value Ob1Is increased. ε is small enough for required accuracy At this point, the iteration is stopped and the true value of OA is calculated for the first and third triangles. It is estimated to be between the calculated OA values.   The following details how the iterative calculation was performed.   From the signature formula, the following equation (3) is obtained.   Distance Ob1Is initially an estimate of the length of the OB set short. The distance AB is measured after the dimensions of the correction target are known or after the image is obtained Therefore, the distance AB is known. The values for ∠AOB are shown in FIG. And also based on measurements from image planes as described with respect to equations 1-7 Is calculated. Therefore, ∠OAB can be calculated as follows:   If the first estimate of OAB is known, then the first estimate of OBA is Can be calculated.         ∠OBA = 180 ° -∠AOB-∠OAB (5)   At this point, all three angles of the first triangle in FIG. The value for OA can be calculated. Again, using the sign formula, OA Can be determined as follows.   At this point, the first triangle is the distance Ob1Is the actual value of the length OB All values are determined under certain conditions.   Change to the second triangle. Distance OB to Ob1Suppose that The distance BC is Known from target dimensions or measurements, angle BOC is measured from image plane It is known on the basis of Therefore, as shown in the following equations (8) to (12), the second You have enough information to completely determine the value of the triangle.         ∠OBC = 180 ° -∠BCO-∠BOC (10)   With respect to the distance OC calculated as shown in equation (12), the same information is Available for polygons, the third triangle is the most useful for solving the second triangle. First available. Thus, the third triangle is the corresponding length and corner of the third triangle. By substituting the degrees into the equations (8) to (12), a solution can be obtained in exactly the same way as the second triangle. it can.   One result obtained by solving the third triangle is the distance O calculated as described above. A. The value of the distance OA obtained from the third triangle is calculated based on the above calculation. Obtained from the first, second and third triangles. However, from the third triangle, The value of the distance OA obtained from the first triangle and the value of the distance OA obtained from the first triangle1But It should be noted that if in fact it is equal to the actual length OB, it should be the same. Ob1Is generally assumed to be very low and small, so in general the first triangle There is a difference between the value of OA from the shape and the value of OA from the third triangle. Two calculated The difference in lengths obtained is the initial estimate Ob1And an estimate O for the second iteration bTwoTo form   ObTwoFor the distance assumed to be the solution of the first, second and third triangles The calculations described above for the modulus are repeated to account for OA from the first and third triangles. The resulting values are again compared and the estimated value ObTwoIs adjusted as described above. It is based on the difference between the calculated values of the separation OA.   With successive iterations, the estimate for the distance OA is OA from the first triangle. And the value of OA from the third triangle is reduced to an acceptable level ε. By continuing the return processing, it can be obtained with an accuracy up to a desired resolution. That is , The value of the distance OA resulting from the repetition processing is the principal point of the camera shown in O in FIG. The distance to point A, which is the origin of the coordinate system specified for this set of measurements. It becomes difficult.   If the values for OA from the first and third triangles match within ε, Since all the values of the triangle are determined, the values of the entire line of sight pyramid are determined.   Next, reference is made to FIG. Just looking at points A, B and C from the principal point of the camera, Determine which of A, B and C is closest to the camera and which is next Not necessarily. For example, in FIG.1Is closest to the camera, point A Is closer and point C is farther, or alternatively, point C is closer and point A is better. Either far or far is possible. These differences are represented by the triangle ATwoB1CTwoAnd triangle A1 B1C1Can be found by comparing. In the table shown in FIG. 5, the relationship between points A, B and C is one. It generally indicates that six different permutations can occur. Work for a solution In doing so, one must always consider these combinations of near, medium and far. Naturally However, at the start, which points are closest to the camera, which points are furthest, I do not know if is a midpoint.   It is desirable to try all combinations to avoid incorrect answers. Combination For each, find out which combination is, then try to calculate Suppose If the calculation converges to a possible solution, for further analysis Record and save this solution. If the combination is close to a particular triangular plane, There are five possible triangles that give the same relationship to length and vertex angle of the line-of-sight pyramid. There are possible solutions or orientations.   If a specific combination of near, medium, and distant is not obtained, the calculation will not converge and the processing will be limited. Repeated, and usually terminates with a mathematical error, typically a trigonometric function. Naturally However, if the calculation proceeds normally, a possible solution is obtained and a possible solution Are all saved for further investigation.   In FIG. 5, when two or more points are at exactly the same distance from the focal point, degeneracy sometimes It is clear that this can happen. This reduces the number of different possible solutions You.   During the iterative process, in the example shown above, between the OA of the first and third triangles The difference is the estimated value Ob1To determine an estimate to be used in the next iteration. Of course, using coefficients other than one-to-one, the value of OA for the first and second triangles The estimate can be adjusted in fractions or multiples of the difference. However, the preferred adjustment is one-to-one It is. It is desirable to use such a right angle correction target.   Six possible locations near, medium, and far to points A, B, and C form a pyramid. It can be seen as a different way to make a plane. Three different planar pyramids, Formed by using each ridge OA, OB and OC as the "open" side (For example, a pyramid is formed by folding paper into a pyramid shape, Cut open along the line and spread the pyramid into the pattern shown in Figure 3. Sometimes cutting each with different ridges creates three different planar pyramids ). Each pyramid has two members, corresponding to the two possible order of the triangle Have You. As shown in FIG. 3, for example, a triangle is determined in the order of 1-2-3. You. This ordering indicates one of the two members. One other member Is formed by turning a plane pyramid over its surface Thus, the triangle 3 shown in FIG. Members of this group Values are determined in the order of 3-2-1 as displayed.   The ordering 1-2-3 in solving the triangles of the plane pyramid is to the left (and The outer side (OA in the figure) of the right) is the longest, the next side (OB) is the middle (mid), An implicit assumption is that OC is the shortest.   When searching for a solution for each of the near, medium, and distant arrays, the algorithm "exists Converges only for “workable” solutions. Usually only one of the six combinations is possible You. However, if the two (or three) points are exactly the same distance apart, degenerate May occur. In such a case, multiple solutions are possible, but the result obtained is Is the same.   Thus, the convergence solution is defined by points A, B and C as described above. The X, Y and Z positions of the camera are uniquely defined in the coordinate system.   The techniques described here can be applied to images taken without modification targets Noh. Select three convenient points on the image, and after the image is obtained, Correct when the image is obtained by physically measuring the distance between the appropriate points The same effect as obtained by using the target can be obtained.   As shown in FIG. 6, a camera is used to find solutions for near, medium, and far uncertainties. Will be at a point where OA, OB and OC of known length coincide at point O Note that Thus, for each possible solution for the location of point O, point A , Around point B, and then the sphere around point C. Spherical Intersection is two soap bubbles combined Can be understood by envisioning As the sphere gradually approaches, the sphere is at one point Touch, then one bites into the other, the trajectory of a point that is common to the two spheres Generate a circle. Unless the spheres are exactly the same size, one bubble will be inside the other In the worst case, when it penetrates and goes inside, it makes contact again at one point. One is Proceed outward on the other side, re-contact at some point, forming a circle, then one leaves At this time, they come into contact at a point on the opposite side in the diameter direction.   Centered at points A, B and C, each having a radius of length OA, OB and OC By writing the equations for a sphere, we can calculate three equations involving three unknowns (Assuming a rectangular coordinate system).   Generate a set of spheres using each of the possible solutions for near, medium, and far uncertainties Find the solution of the common point of the intersection. Looking at FIG. 6, three spheres in the space on the + Z side In addition to the intersection at point 0 of the body, there is a symmetric solution obtained in the space on the -Z side. By convention, the horizontal control grid established by the XY plane It is assumed that the image is viewed from the + Z direction looking down on the image. By this rule, only one The solution remains. That is, the solution is only on the + Z space side, and the solution in the -Z space is removed. . Therefore, this determines the XYZ position of the camera's principal point.   Once the camera position is determined, there are three possible locations to select and specify for the camera. There is a direction. They are (1) azimuth rotation, (2) elevation rotation, and (3) around the optical axis. Is the inclination. FIG. 7 shows how the azimuth and elevation corrections are determined. ing. FIG. 7 shows an image plane. Point ABC defines a coordinate system, The same point ABC used to calculate the camera distance in this coordinate system. point A, B and C are shown as part of the image shown in the image plane. Pre The center of the image (ie, the center of the image) is generally on the object of interest, I'm interested Object is displayed at the center of the image. Correction term used to determine the coordinate system The get, i.e. the three points A, B and C, are generally not at the center of the picture. Compass Positive is essentially the complement required to displace the image at the origin of the external world coordinate system to point A. Since it is positive, the image of the origin of the external world coordinate system is the axis 71 of the image plane coordinate system. It is right above the photograph position of point A shown on the right side of 0. Elevation correction, image plane The image of the point A is arranged just above the photograph position of the point A shown below the abscissa of the reference frame 700. The elevation or depression angle that needs to be adjusted. In short, azimuth correction and elevation correction If applied to point A, the origin of the real world coordinate system is point A, It will be determined to match the origin as obtained above.   Mathematically, the image of the origin of the real world coordinate system is accurately placed on point A in the image plane. Is calculated as follows.           θA= Tan-1(△ A / f) (13)           θE= Tan-1(△ E / f) (14)   The correction required to align or superimpose points A on each other is shown in FIG. I have.   In FIG. 7, if A is correctly positioned, points B and C are correctly positioned. It is assumed that However, because of the camera ’s tilt around the optical axis, This is generally not true. When the point A is superimposed, the point B Is found in the real world coordinate system. The origin of the real world coordinate system is A Azimuth correction and elevation applied with respect to FIG. If still centered on A based on the corner correction, point B on the image plane Should be located where point B in the real world coordinate system is located. However, This is if the camera was perfectly level when the picture was taken. But If there is a tilt, B is displaced off-axis. On the image plane Then, the line AB is measured with respect to the X-axis of the image plane by the measurement from the image plane. The actual angle to form is known. When projecting a 3D image onto a 2D surface, To take a gaze pyramid and project it on the projection plane Therefore, it is possible to determine what angle BAC should be on the image plane. turtle The image plane must be rotated around the optical axis to compensate for the tilt . However, doing this would change the position of points A, B and C And the point is arbitrary error ε1After point A is superimposed until convergence It is necessary to repeat another correction for calculating the amount of tilt.   Using these techniques, astringency is typically 10-14Accuracy up to Wear. If there is more than one candidate convergent solution, the residual at point B and the residual at point C are Used as a discriminator.   FIG. 8 shows the process used to determine the position and orientation in detail from the image of the camera. Shows Roses. At step 800, the positions of the correction points A, B and C are determined, The distance between them is then known or measured (810). In XYZ coordinates The camera position is determined using the technique shown in FIG. XYZ camera position determined Once set, azimuth and elevation corrections are made (830), then corrections for tilt (840) is performed. When azimuth correction and tilt correction are performed, these points Determine if it is in the correct position within the desired accuracy ε. If you seem to be The position and orientation of the camera are determined in detail (860) and the process ends. That's right If not, another repetition of steps 830 and 840 is initiated to obtain the desired accuracy The position is determined within.   FIG. 9 shows details of the block 820 shown in FIG. Camera main distance Once separated, measure three angles AOB, BOC and COA from the image plane (900). Gaze pyramid is assumed to be the longest dimension An incision is made at a distance OA (905). Pyramid flattened and known to be short A certain value is estimated for the line segment OB (910). For OB A solution for the first triangle is determined using the estimated value (915). Next, the second And the third triangle are solved sequentially using the results of the previous calculation (920 and 925). The difference between the values for OA calculated for the first triangle is the third triangle. If the value (930) for the OA calculated from the shape differs by an amount greater than ε If (940), the difference △ OA is added to the previous OB estimate and the new estimate is A new iteration of steps 915, 920, 925, 930 and 940 formed Is performed. If OA <ε (940), a solution to the line-of-sight pyramid is found Close (950) before determining all camera positions and orientations (970). , Distant uncertainty needs to be solved (960).   If the image is obtained with two cameras arranged as shown in FIG. X1, Y1, Z1Is calculated as follows:   A set of axes with origin 0, the X and Z axes as shown in FIG. Assume a Y axis that is perpendicular to the page plane.   Images are obtained with the objective lens at point C and the objective lens at point F in FIG. Assume that The distance between C and F is (d1+ DTwo). Cameras that obtain images are known An image plane having a focal length F and corresponding to each of the points at which an image is obtained is located on the X-axis. Indicated by thick lines. Shows D from the line that focuses the camera (C & F) The distance to a given point can be calculated as follows:   The triangles ABC and CED are geometrically similar, and the triangles DEF and FH G is also similar.   Because these are similar,     h / f = d12/ △ XL                                     (15)     h / f = (dTwo+ D11) / △ XR                            (16)     d1= D11+ D12                                         (17)     h / f = d12/ △ XL= (DTwo+ D11) / △ XR               (18)   As shown in Equation (18), Equations (15) and (16) are set equal, and the right side is subtracted from both sides to correct. This is as follows.   If equation (19) is correct, the numerator must be zero.   ∴ d12△ XR− (DTwo+ D11) △ XL= 0 (20)   Equation (17) is d11Solving for, substituting into equation (20) and rearranging,       d12△ XR= (DTwo+ D1-D12) △ XL                    (twenty one)   ∴ d12(△ XR+ △ XL) = (DTwo+ D1) △ XL               (twenty two)   If h is known, the coordinate X of the origin 00And Y0Is aligned with the optical axis of the camera by Can be specified. See FIGS.       αx= Tan-1(F / △ X) (26)       αy= Tan-1(F / △ Y) (27)       X0= -H · cotαX                                  (28)       Y0= -H · cotaY                                  (29)   When acquiring an image under viewing conditions, the position of the camera is shown in FIG. It is rare to be defined as well.   FIG. 13 shows a typical real world situation. In FIG. 13, points A, B and C are , A calibration target or point measured after obtaining the image. Coordinate system X , Y and Z are defined relative to the origin A according to the rules described above. The main point O1Passing And OTwoCamera positions 1 and 2 indicated only by Lane IP1And IPTwoIs O1And OTwoThe main points in It is positioned by its optical axis directed to the center point T of the field of view on the screen. Any Coordinates of the point P (X1, Y1, Z1) Is desired.   This can be solved by a two-stage transformation. Focus O1And focus OTwoDirectly Draw a line and set the midpoint of this line to OM(Xm, Ym), And then execute azimuth rotation. Focus OTwoWhen the same kind of rotation around is applied to camera 2, the camera Oriented as shown, the coordinates for point P are calculated using equations 15-19 as described above. Is calculated. However, the calculated coordinates correspond to point O in FIG.MFIG. 10 corresponding to At the point O. Therefore, the world coordinate system defined for the measurement To obtain the coordinates of the point PMPlace the origin at point A from the coordinate system with the origin at A simple coordinate transformation to a coordinate system is required.   FIG. 14 illustrates the hardware used to implement certain aspects of the present invention. ing. Camera 1400 used to obtain images to be analyzed according to the present invention Is done. Camera 1400 is a digital still camera or frame grapper A video camera having Images from the camera are transferred to the camera interface 14 10 is loaded on the computer 1420. Usually an interface Images loaded through 1410 are stored on hard drive 1423, Retrieved later for processing in video RAM 1430. However, the image data The key is Then it can be loaded directly into the video RAM. Video RAM 1430 is a camera It is desirable to include enough image memory to process these two images simultaneously. Good Preferably, the video display 1440 is a high-resolution video display such as a cathode ray tube. A display or similar display constructed of semiconductor technology. Display A 1440 is connected to the computer To create individual images or both images simultaneously or in accordance with the present invention. Used to display the resulting three-dimensional wireframe. Keyboard 145 0 is interfaced to the bus via the keyboard interface as usual. It is.   As can be seen in FIG. If the distance measurement is known, the resolution of the vertical and horizontal display is known. Vertical and horizontal that can be converted to linear measurements on the display screen It can be conveniently measured by the number of pixels in the direction. The number of pixels depends on the target Point and click on it to click from the cursor address. Obtained pixel address is easily determined.   Therefore, a camera or other image as determined from the image analyzed after capture Knowing the position and orientation of the image acquisition device allows for a system centered on point A The exact locations of these points can be calculated using the real world coordinates of XYZ The positions of these points with respect to the world coordinate system can be specified with high accuracy.   The technology described here, as well as accurate surveying of buildings or construction sites, Investigating the controversial scene of an accident or crime, particularly where It is possible in the vertical direction that was possible.   In this disclosure, only the preferred embodiment of the present invention is shown, but As such, the present invention can be used in various other combinations and environments. It should be understood that it can be changed or modified within the scope of the inventive concept as shown here. It is.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),OA(BF,BJ,CF ,CG,CI,CM,GA,GN,ML,MR,NE, SN,TD,TG),AP(KE,LS,MW,SD,S Z,UG),UA(AM,AZ,BY,KG,KZ,MD ,RU,TJ,TM),AL,AM,AT,AU,AZ ,BB,BG,BR,BY,CA,CH,CN,CZ, DE,DK,EE,ES,FI,GB,GE,HU,I S,JP,KE,KG,KP,KR,KZ,LK,LR ,LS,LT,LU,LV,MD,MG,MK,MN, MW,MX,NO,NZ,PL,PT,RO,RU,S D,SE,SG,SI,SK,TJ,TM,TR,TT ,UA,UG,UZ,VN────────────────────────────────────────────────── ─── Continuation of front page    (81) Designated countries EP (AT, BE, CH, DE, DK, ES, FI, FR, GB, GR, IE, IT, L U, MC, NL, PT, SE), OA (BF, BJ, CF) , CG, CI, CM, GA, GN, ML, MR, NE, SN, TD, TG), AP (KE, LS, MW, SD, S Z, UG), UA (AM, AZ, BY, KG, KZ, MD , RU, TJ, TM), AL, AM, AT, AU, AZ , BB, BG, BR, BY, CA, CH, CN, CZ, DE, DK, EE, ES, FI, GB, GE, HU, I S, JP, KE, KG, KP, KR, KZ, LK, LR , LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, S D, SE, SG, SI, SK, TJ, TM, TR, TT , UA, UG, UZ, VN

Claims (1)

【特許請求の範囲】 1. 画像データを使用して既知距離だけ離れた3つの点A、B及びCを使用 して規定された座標系に対する点Dの絶対3次元位置を測定する方法において、 a.1つ以上のカメラの既知の主点距離を用いて、点A、B、C及びDを含む 2つの情景画像を得て、 b.前記画像の各々が得られた時点での前記1つ以上のカメラの位置及び配向 を前記画像から得られた情報、主点距離及び前記既知の距離を用いて前記座標系 に対して決定し、 c.前記画像が得られた時点での1つ以上のカメラの位置を使用して画像デー タから前記点Dの位置を決定すること、 から成る前記の方法。 2. 前記画像が得られた時点での1つ以上のカメラの位置を使用して画像デ ータから前記点Dの位置を決定するためのステップが、 a.前記カメラの位置を結ぷライン上に原点を有する補助座標系を規定し、 b.各画像の中心点をX′、Y′及びZ′の方向にそれぞれ向いている画像基 準軸のセットの原点として規定し、 c.第1の画像上のある点及び第2の画像の対応する点のX′方向及びY′方 向の中の少なくとも1つのオフセットを測定し、 d.点Dと、対物レンズの主点と、画像の各々に対するX′又はY′プレーン の中の1つ上の点Dの画像とを結ぶ線の間に形成された角度を決定し、 e.測定されたオフセット、焦点距離及び角度を使用して前記距離hを決定し 、 f.補助座標系における点DのX′及びY′座標を決定し、 g.補助座標系の座標(X′、Y′、h)を前記3つの点A、B及びCを使用 して規定される前記座標系における表現に変換することを含む請求項1に記載の 方法。 3. 前記画像が得られた時点での前記1つ以上のカメラの位置及び配向を画 像データ、主点距離及び前記既知の距離を使用して前記座標系に対して決定する ステップが、 a.点A,B及びCとカメラOの主点との間の距離を視線ピラミッドとして示 し、 b.視線ピラミッド表現を3つの三角形から成る平面ピラミッド表現に変換し 、 c.前記平面ピラミッド表現の第1の三角形の1つの内部辺に対して低い推定 値Ob1を選択し、 d.画像データ、主点距離及び前記既知の距離を使用して前記第1の三角形の 解を求め、特に、与えられた推定値Ob1に対する長さOAの第1の計算値を得 、 e.得られた結果を使用して第2の三角形の解を求め、 f.得られた結果を使用して第3の三角形の解を求め、特に、長さOAに対す る第2の計算値を得、 g.長さOAに対する第2の計算値を長さOAに対する第1の計算値から減算 して差を求め、 h.前記差の値を加えることによって推定値Ob1の値を修正し、新たな修正 推定値を得、 i.前記差値が所望の精度に達するまで、修正推定値を使用してステップd〜 hを繰り返し、 j.距離OA、OB及びOCに対する1つ以上の値のセットを使用してカメラ 位置に対する値を得ること、 を含む請求項1に記載の方法。 4.距離OA、OB及びOCに対する1つ以上の値のセットを使用してカメラ 位置に対する値を得るステップが、点A、B及びCに中心が置かれてそれぞれO A、OB及びOCの半径を有する球体に対する式を同時に解くことを含む請求項 3に記載の方法。 5. 更に、 k.前記カメラを点Aの位置に向けるために必要な方位及び仰角の調整を計算 することによって1つ以上の前記カメラの配向を決定することを含むこ請求項3 に記載の方法。 6. 更に、 l.前記カメラが点Aに向けられると、点Bを整列させるのに必要な光軸の周 りの回転量を計算することによって1つ以上の前記カメラの配向を決定すること を含む請求項5に記載の方法。 7. アライメントの程度が所望の精度の程度内にあるまで、ステップk及び lを繰り返すことを含む請求項5に記載の方法。 8. 2つの点の間の距離を測定するために使用される請求項1に記載の方法 。 9. 垂直方向の距離を測定するために使用される請求項1に記載の方法。 10.前記画像において見ることができる物体の物理的位置を正確に決めるため に使用される請求項1のに記載方法。 11.3又は4のヴァーティセスサーフェイスエレメント(vertices surface e lement)を含む3次元ワイヤフレーム表現又は3次元面モデルを形成するために 使用される請求項1に記載の方法。 12.物体の形成時条件を文書化するために使用された請求項1に記載の方法。 13.画像データを使用して既知の距離だけ離れた3点、A、B及びCを使用し て規定された座標系に対するカメラの絶対3次元位置Oを測定する方法において 、 a.カメラを用いて、点A、B及びCを含む情景の画像を得て、 b.前記カメラの主点距離を決定し、 c.前記画像か得られた時点での前記カメラの位置を前記画像からの情報、主 点距離及び前記既知の距離を使用して前記座標系に対して決定することからなる 前記の方法。 14.画像データを使用して既知の距離だけ離れた3点、A、B及びCを使用し て規定された座標系に対するカメラの絶対3次元位置Oを測定する方法において 、 a.主点距離が既知のカメラを用いて、点A、B及びCを含む情景の画像を得 、 b.前記画像が得られた時点での前記カメラの位置を前記画像からの情報、主 点距離及び前記既知の距離を使用して前記座標系に対して決定することから成る 前記の方法。 15.垂直方向の高さを含む距離を測定する方法において、 a. 下記のa1〜a3による画像データを使用して既知の距離だけ離れた3 点、A、B及びCを使用して規定された座標系に対して点D、E及びFの絶対3 次元位置を測定し、 a1.1つ以上の主点距離が既知のカメラを使用して点A、B、C、D、E 及びFを含む情景の2つの画像を得ること、 a2.前記画像の各々が得られた時点での前記1つ以上のカメラの位置及び 配向を前記画像からの情報、主点距離及び前記既知の距離を使用して前記座標系 に対して決定すること、 a3.前記点D、E及びFの位置を画像データから決定するために前記画像 が得られた時点での前記1つ以上のカメラの位置を使用すること、 b.点D、E及びF間の距離を決定し、 c.他の位置を決定するために前記点D、E及びFの位置及び画像が得られた 時点での前記1つ以上のカメラの位置を使用することを含む前記の方法。 16.点D、E及びFの位置が、点D、E及びFの位置を決定するために使用さ れた画像と異なる画像から得られた画像データを使用して前記他の点の位置を決 定するために使用されることを含む請求項15に記載 の方法。 17.画像データを使用して既知の距離だけ離れた3点、A、B及びCを使用し て規定された座標系に対して点Dの絶対3次元位置を測定する装置において、 a.点A、B、C及びDを含む情景の画像を得るための1つ以上のカメラと、 b.前記1つ以上のカメラによって得られた画像を記憶する手段と、 c.前記画像の各々が得られた時点での前記1つ以上のカメラの位置及び配向 を前記画像からの情報、主点距離及び前記既知の距離を使用して前記座標系に対 して決定するために記憶画像を処理する手段と、 d.前記点Dの位置を画像デ ータから決定するために前記画像が得られた時点での前記1つ以上のカメラの位 置を使用する手段とを備えた前記の装置。 18.点Dの位置が3次元ワイヤフレーム表現を記憶するために使用されるデー タベースに記憶されている請求項17に記載の装置。 19.点Dの位置が測量された点の位置のデータベースに記憶されている請求項 18に記載の装置。[Claims] 1. A method for measuring the absolute three-dimensional position of a point D with respect to a defined coordinate system using three points A, B and C separated by a known distance using image data, comprising: a. Using the known principal point distances of one or more cameras to obtain two scene images including points A, B, C and D; b. Determining the position and orientation of the one or more cameras at the time each of the images was obtained with respect to the coordinate system using information obtained from the images, principal point distances and the known distances, c. Determining the position of said point D from image data using the position of one or more cameras at the time the image was obtained. 2. Determining the position of the point D from image data using one or more camera positions at the time the image was obtained, comprising: a. Defining an auxiliary coordinate system having an origin on the connection line with the camera position; b. Defining the center point of each image as the origin of a set of image reference axes pointing in the directions of X ', Y' and Z ', respectively; c. Measuring at least one offset in the X 'and Y' directions of a point on the first image and a corresponding point on the second image; d. Determining the angle formed between the point D, the principal point of the objective lens, and the image of point D one above in the X 'or Y' plane for each of the images; e. Determining the distance h using the measured offset, focal length and angle; f. Determining the X 'and Y' coordinates of point D in the auxiliary coordinate system; g. 2. The method according to claim 1, comprising converting the coordinates (X ', Y', h) of the auxiliary coordinate system into a representation in the coordinate system defined using the three points A, B and C. 3. Determining the position and orientation of the one or more cameras at the time the image was obtained using the image data, principal point distance and the known distance with respect to the coordinate system, comprising: a. Showing the distances between points A, B and C and the principal point of camera O as a line-of-sight pyramid; b. Transform the line-of-sight pyramid representation into a planar pyramid representation consisting of three triangles; c. Selecting a low estimate Ob 1 for one interior edge of the first triangle of the planar pyramid representation; d. Image data, computes the solution to a principal point distance and the known distance the first using a triangle, in particular, to obtain a first calculated value of length for the estimate Ob 1 given of OA, e. Use the results obtained to solve for a second triangle; f. Using the results obtained to solve a third triangle, in particular to obtain a second calculated value for the length OA; g. Subtracting the second calculated value for the length OA from the first calculated value for the length OA to determine a difference; h. Correct the value of the estimated value Ob 1 by adding a value of said difference, to give a new corrected estimate, i. Repeat steps d through h using the modified estimate until the difference value reaches the desired accuracy, j. The method of claim 1, comprising: obtaining a value for a camera position using a set of one or more values for distances OA, OB, and OC. 4. Obtaining a value for the camera position using the set of one or more values for the distances OA, OB, and OC has a radius of OA, OB, and OC, respectively, centered at points A, B, and C 4. The method according to claim 3, comprising simultaneously solving equations for the sphere. 5. Further, k. 4. The method of claim 3, comprising determining an orientation of one or more of the cameras by calculating an azimuth and elevation adjustment required to point the camera at the location of point A. 5. 6. Further, l. 6. The method of claim 5, including determining the orientation of one or more of the cameras by calculating the amount of rotation about the optical axis required to align point B once the camera is pointed at point A. the method of. 7. 6. The method of claim 5, comprising repeating steps k and l until the degree of alignment is within a desired degree of accuracy. 8. The method of claim 1 used to measure a distance between two points. 9. 2. The method according to claim 1, wherein the method is used to measure vertical distance. 10. 2. The method of claim 1, wherein the method is used to accurately determine the physical location of an object visible in the image. 11. The method of claim 1 used to form a three-dimensional wireframe representation or three-dimensional surface model including three or four vertices surface elements. 12. The method of claim 1 used to document conditions during formation of the object. 13. A method for measuring an absolute three-dimensional position O of a camera with respect to a coordinate system defined using three points A, B and C separated by a known distance using image data, comprising: a. Using a camera to obtain an image of the scene including points A, B and C; b. Determining a principal point distance of the camera; c. Determining the position of the camera at the time the image was obtained relative to the coordinate system using information from the image, principal point distance and the known distance. 14. A method for measuring an absolute three-dimensional position O of a camera with respect to a coordinate system defined using three points A, B and C separated by a known distance using image data, comprising: a. Using a camera with a known principal point distance to obtain an image of the scene containing points A, B and C; b. The method comprising determining the position of the camera at the time the image was obtained with respect to the coordinate system using information from the image, principal point distance and the known distance. 15. A method for measuring a distance, including a vertical height, comprising: a. Absolute three-dimensional positions of points D, E, and F with respect to a coordinate system defined using A, B, and C with respect to three points separated by a known distance using image data according to Measuring and a1.1 obtaining two images of the scene including points A, B, C, D, E and F using a camera with more than one principal point distance a2. Determining the position and orientation of the one or more cameras at the time each of the images was obtained using the information from the images, principal point distance and the known distance with respect to the coordinate system; a3. Using the position of the one or more cameras at the time the image was obtained to determine the position of the points D, E and F from image data; b. Determine the distance between points D, E and F; c. The method as described above, comprising using the positions of the points D, E and F and the position of the one or more cameras at the time the image was obtained to determine another position. 16. The position of points D, E and F is determined using image data obtained from an image different from the image used to determine the positions of points D, E and F; 16. The method of claim 15, comprising using the method. 17. An apparatus for measuring an absolute three-dimensional position of a point D with respect to a coordinate system defined using three points A, B, and C separated by a known distance using image data, a. One or more cameras for obtaining an image of the scene including points A, B, C and D; b. Means for storing images obtained by said one or more cameras; c. To determine the position and orientation of the one or more cameras at the time each of the images was obtained using the information from the images, principal point distances and the known distances with respect to the coordinate system. Means for processing the stored image; d. Means for using the position of the one or more cameras at the time the image was obtained to determine the position of the point D from image data. 18. 18. The apparatus of claim 17, wherein the position of point D is stored in a database used to store a three-dimensional wireframe representation. 19. 19. The apparatus according to claim 18, wherein the position of point D is stored in a database of surveyed point positions.
JP8535977A 1996-03-28 1996-03-28 Method and apparatus for determining camera position and orientation using image data Pending JPH11514434A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB1996/000424 WO1997036147A1 (en) 1996-03-28 1996-03-28 Methods and apparatus for using image data to determine camera location and orientation

Publications (1)

Publication Number Publication Date
JPH11514434A true JPH11514434A (en) 1999-12-07

Family

ID=11004428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8535977A Pending JPH11514434A (en) 1996-03-28 1996-03-28 Method and apparatus for determining camera position and orientation using image data

Country Status (4)

Country Link
EP (1) EP0892911A1 (en)
JP (1) JPH11514434A (en)
AU (1) AU5406796A (en)
WO (1) WO1997036147A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232195A (en) * 2012-04-30 2013-11-14 Boeing Co:The Image registration of multi-mode data using 3d geoarc

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999067746A1 (en) * 1998-06-24 1999-12-29 Sports Training Technologies, S.L. Method for capturing, analyzing and representing the movement of bodies and objects
DE19922341C2 (en) * 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Method and arrangement for determining the spatial coordinates of at least one object point
DE19922321C2 (en) * 1999-05-14 2002-07-18 Zsp Geodaetische Sys Gmbh Method and arrangement for performing geodetic measurements using a video tachymeter
JP3635540B2 (en) * 2002-08-29 2005-04-06 オリンパス株式会社 Calibration pattern unit
EP2166510B1 (en) * 2008-09-18 2018-03-28 Delphi Technologies, Inc. Method for calculating the position and orientation of a camera in a vehicle
US9160979B1 (en) * 2011-05-27 2015-10-13 Trimble Navigation Limited Determining camera position for a photograph having a displaced center of projection
US9524436B2 (en) * 2011-12-06 2016-12-20 Microsoft Technology Licensing, Llc Augmented reality camera registration
US10539412B2 (en) 2014-07-31 2020-01-21 Hewlett-Packard Development Company, L.P. Measuring and correcting optical misalignment
EP3178884B1 (en) 2015-12-08 2018-02-07 Evonik Degussa GmbH Aqueous [3- (2,3-dihydroxyprop-1-oxy) propyl] silanololigomer containing composition, method for their preparation and their use
US10805535B2 (en) 2018-05-25 2020-10-13 Aquifi, Inc. Systems and methods for multi-camera placement
US11022972B2 (en) * 2019-07-31 2021-06-01 Bell Textron Inc. Navigation system with camera assist
CN114842164B (en) * 2022-06-17 2023-04-07 中国人民解放军陆军炮兵防空兵学院 Method and system for calculating coordinates of frying points based on three-dimensional geographic model

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965840A (en) * 1987-11-27 1990-10-23 State University Of New York Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
US5361217A (en) * 1992-05-07 1994-11-01 Fuji Photo Optical Co., Ltd. Position measuring/plotting apparatus
US5365597A (en) * 1993-06-11 1994-11-15 United Parcel Service Of America, Inc. Method and apparatus for passive autoranging using relaxation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232195A (en) * 2012-04-30 2013-11-14 Boeing Co:The Image registration of multi-mode data using 3d geoarc

Also Published As

Publication number Publication date
EP0892911A1 (en) 1999-01-27
AU5406796A (en) 1997-10-17
WO1997036147A1 (en) 1997-10-02

Similar Documents

Publication Publication Date Title
US5699444A (en) Methods and apparatus for using image data to determine camera location and orientation
US11200734B2 (en) Method for reconstructing three-dimensional space scene based on photographing
CN110296691B (en) IMU calibration-fused binocular stereo vision measurement method and system
Geyer et al. Paracatadioptric camera calibration
US8107722B2 (en) System and method for automatic stereo measurement of a point of interest in a scene
JP4685313B2 (en) Method for processing passive volumetric image of any aspect
US8139111B2 (en) Height measurement in a perspective image
US8437554B2 (en) Method of extracting three-dimensional objects information from a single image without meta information
US20140015924A1 (en) Rapid 3D Modeling
CN109146958B (en) Traffic sign space position measuring method based on two-dimensional image
Schuhmacher et al. Georeferencing of terrestrial laserscanner data for applications in architectural modeling
CN111192235A (en) Image measuring method based on monocular vision model and perspective transformation
JPH11514434A (en) Method and apparatus for determining camera position and orientation using image data
CN109472865A (en) It is a kind of based on iconic model draw freedom can measure panorama reproducting method
CN111402315A (en) Three-dimensional distance measuring method for adaptively adjusting base line of binocular camera
Yilmaz et al. Digital photogrammetry in obtaining of 3D model data of irregular small objects
TW565736B (en) Method for determining the optical parameters of a camera
Wu Photogrammetry: 3-D from imagery
KR101189167B1 (en) The method for 3d object information extraction from single image without meta information
JPH10161196A (en) Method for deciding attitude and position of photographing machine based on image in mapped area obtained by it
CN109059866B (en) Method for measuring installation parameters of planet close-range photogrammetry camera based on image
Fraštia Possibilities of using inexpensive digital cameras in applications of close-range photogrammetry
Rönnholm et al. A method for interactive orientation of digital images using backprojection of 3D data
Goral et al. Accuracy assessment of Kinect for Xbox One in point-based tracking applications
He et al. On the integrated calibration of a digital stereo-vision system