JP2008224323A - Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program - Google Patents

Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program Download PDF

Info

Publication number
JP2008224323A
JP2008224323A JP2007060684A JP2007060684A JP2008224323A JP 2008224323 A JP2008224323 A JP 2008224323A JP 2007060684 A JP2007060684 A JP 2007060684A JP 2007060684 A JP2007060684 A JP 2007060684A JP 2008224323 A JP2008224323 A JP 2008224323A
Authority
JP
Japan
Prior art keywords
feature
image data
points
dimension
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007060684A
Other languages
Japanese (ja)
Inventor
Atsuko Aoki
敦子 青木
Akira Miyata
宮田  亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007060684A priority Critical patent/JP2008224323A/en
Publication of JP2008224323A publication Critical patent/JP2008224323A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic photograph measuring instrument capable of enhancing dimension measuring precision of a measuring object. <P>SOLUTION: A three-dimensional coordinate calculating means 15 calculates three-dimensional coordinates of the measuring object, corresponding to the first feature part constituted of feature points of one side image data, using a restriction condition determined based on geometrical information, a projection transformation matrix, a relative positional relation and a principle of a triangulation method, and the second feature part constituted of feature points of the other side image data, corresponding to the first feature part, and a dimension calculation means 16 calculates a dimension of a dimension measuring portion, based on the three-dimensional coordinates. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、互いに離れた2箇所よりカメラを用いて撮影された2枚の画像データから計測対象の寸法を計算するステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラムに関するものである。   The present invention relates to a stereo photo measurement device, a stereo photo measurement method, and a stereo photo measurement program for calculating a dimension of a measurement target from two pieces of image data photographed by using a camera from two locations apart from each other.

ステレオ立体視の原理を用いた立体形状復元及び寸法計測には、ステレオ画像ペアにおいて点・線・領域等の特徴点をどのように対応付けすれば良いかという課題があるが、従来のステレオ写真計測装置として、例えば特許文献1に示す3次元復元装置では、3次元幾何形状の復元に際して、セグメントの連結関係から平面拘束条件を求め、平面拘束条件を満たすように対応点を修正する手法が提案されている。   Stereoscopic shape restoration and dimension measurement using the principle of stereo stereoscopic vision have the problem of how to associate feature points such as points, lines, and regions in a stereo image pair. As a measuring device, for example, in the three-dimensional restoration device disclosed in Patent Document 1, a method is proposed in which, when restoring a three-dimensional geometric shape, a plane constraint condition is obtained from segment connection relations, and corresponding points are corrected so as to satisfy the plane constraint condition. Has been.

すなわち、上記特許文献1に示す3次元復元装置は、ステレオ画像において、エッジを検出して局所的形状によりセグメントに分割し、セグメントの特徴量を求める手段と、上記特徴量に基づき、セグメントを対応単位とするステレオ対応探索処理によりステレオ画像間の対応関係を求める手段と、ステレオ画像において、対応関係を求めやすくするため座標系の変換を行う手段と、上記対応関係に基づき、対応部分から対応点を計算する手段と、上記対応関係に基づき、セグメントの連結関係から平面拘束条件を求める手段と、ステレオ画像において、平面拘束条件を満たすように対応点を修正する手段と、ステレオ画像において、対応点の関係から3次元形状を復元する手段と、3次元形状を復元するに際し、セグメントの属性に応じて直・曲線当てはめを行う手段を備えている。   That is, the three-dimensional restoration apparatus disclosed in Patent Document 1 corresponds to a means for detecting an edge in a stereo image, dividing the segment into segments by a local shape, and obtaining a segment feature amount, and the segment based on the feature amount. A means for obtaining a correspondence between stereo images by a stereo correspondence search process as a unit, a means for converting a coordinate system to make it easy to obtain a correspondence in a stereo image, and a corresponding point from a corresponding part based on the correspondence A means for calculating a plane constraint condition based on the connection relation of the segments based on the correspondence relationship, a means for correcting the corresponding point so as to satisfy the plane constraint condition in the stereo image, and a corresponding point in the stereo image The means to restore the 3D shape from the relationship between the two and the 3D shape - fitting is provided with a means for performing the curve.

特開2003−248814号公報(段落0009)JP 2003-248814 A (paragraph 0009)

従来のステレオ写真計測装置は以上のように構成され、特徴点同士の連結性から求められた平面拘束条件は、撮影対象現場で成立している現実の座標軸に基づく拘束条件と一致する保証はないため、寸法計測時に実測値との誤差が発生し、計測対象の寸法計測精度が低下するという課題があった。   The conventional stereo photo measurement apparatus is configured as described above, and the plane constraint condition obtained from the connectivity between the feature points is not guaranteed to match the constraint condition based on the actual coordinate axes established at the shooting target site. For this reason, there is a problem that an error from the actual measurement value occurs during the dimension measurement, and the dimension measurement accuracy of the measurement target is lowered.

この発明は上記のような課題を解決するためになされたもので、現実の座標軸に基づく拘束条件を使用して座標復元を実現し、計測対象の寸法計測精度を向上させることができるステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラムを得ることを目的とする。   The present invention has been made to solve the above-described problems, and realizes a coordinate restoration using a constraint condition based on an actual coordinate axis and can improve a dimensional measurement accuracy of a measurement object. An object is to obtain an apparatus, a stereo photo measurement method, and a stereo photo measurement program.

この発明に係るステレオ写真計測装置は、互いに離れた2箇所からカメラを用いて基準位置を示すマーカー及び計測対象を撮影した2枚の画像データを記憶する画像データ記憶手段と、上記計測対象の寸法計測箇所並びに上記計測対象の稜線の直線方向成分及び平面の法線方向成分のいずれか一方又は両方の幾何学的情報を含む設計情報を記憶する設計情報記憶手段と、上記画像データから上記マーカーを画像処理によって認識して、上記カメラと上記マーカーとの相対位置関係を、上記カメラのレンズの投影変換行列を用いて求めるカメラ位置認識手段と、上記画像データの画像に撮影された点、線、平面及び立体形状の特徴点を画像処理によって又は入力デバイスからの入力情報によって抽出する特徴点抽出手段と、上記幾何学的情報から定まる拘束条件、上記投影変換行列、上記相対位置関係及び三角測量の原理を用いて、一方の画像データの特徴点で構成される第一特徴部及びこの第一特徴部に対応して他方の画像データの特徴点で構成される第二特徴部に対応する上記計測対象の3次元座標を計算する3次元座標計算手段と、上記3次元座標から上記寸法計測箇所の寸法を計算する寸法計算手段とを備えたものである。   The stereo photo measurement apparatus according to the present invention includes an image data storage unit that stores two image data obtained by photographing a marker indicating a reference position and a measurement target using a camera from two locations apart from each other, and dimensions of the measurement target. Design information storage means for storing design information including geometric information of one or both of the measurement location and the linear direction component of the measurement target ridge line and the normal direction component of the plane, and the marker from the image data Recognizing by image processing, a camera position recognition means for obtaining a relative positional relationship between the camera and the marker using a projection transformation matrix of the lens of the camera, a point, a line captured in the image of the image data, Feature point extraction means for extracting feature points of a plane and a solid shape by image processing or by input information from an input device, and the geometric information Using the constraint conditions to be determined, the projection transformation matrix, the relative positional relationship, and the principle of triangulation, the first feature composed of feature points of one image data and the other image corresponding to the first feature Three-dimensional coordinate calculation means for calculating the three-dimensional coordinates of the measurement object corresponding to the second feature portion constituted by the feature points of the data, and dimension calculation means for calculating the dimension of the dimension measurement location from the three-dimensional coordinates; It is equipped with.

この発明により、計測対象の寸法計測精度を向上させることができるという効果が得られる。   By this invention, the effect that the dimension measurement precision of a measuring object can be improved is acquired.

実施の形態1.
図1はこの発明の実施の形態1によるステレオ写真計測装置の構成を示すブロック図である。ステレオ写真計測装置に含まれるステレオ写真計測処理手段10は、互いに離れた2箇所からデジタルカメラ6を用いて撮影された撮影対象現場7の2枚の画像データ21とカメラ内部パラメータ22と設計情報23を読み込んで、計測対象の寸法計測箇所の寸法を計算する。撮影対象現場7には基準位置を示すカメラ外部キャリブレーション用のマーカー8が設置され、デジタルカメラ6は計測対象の寸法計測箇所とマーカー8が写り込むように撮影する。撮影対象現場7として、本例ではエレベーター昇降路としている。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the configuration of a stereo photo measurement apparatus according to Embodiment 1 of the present invention. The stereo photo measurement processing means 10 included in the stereo photo measurement device includes two pieces of image data 21, camera internal parameters 22, and design information 23 of the shooting target site 7 taken using the digital camera 6 from two places apart from each other. Is read and the dimension of the dimension measurement part to be measured is calculated. A camera external calibration marker 8 indicating a reference position is installed at the photographing target site 7, and the digital camera 6 performs imaging so that the dimension measurement location to be measured and the marker 8 are reflected. In this example, the site 7 to be imaged is an elevator hoistway.

デジタルカメラ6により撮影された撮影対象現場7の2枚の画像データ21、カメラ内部パラメータ22、設計情報23は記憶手段2に記憶されている。ここで、カメラ内部パラメータ22としては、例えばデジタルカメラ6の画面解像度、レンズの焦点距離、放射方向レンズ歪曲収差の中心座標、レンズ歪み係数が記憶されており、設計情報23としては、計測対象の寸法計測箇所、画像上で濃淡が変化するエッジ上の点である特徴点、並びに計測対象の稜線の直線方向成分及び平面の法線方向成分のいずれか一方又は両方の幾何学的情報を含む設計情報が記憶されている。   Two pieces of image data 21, camera internal parameters 22, and design information 23 of the shooting target site 7 taken by the digital camera 6 are stored in the storage unit 2. Here, as the camera internal parameter 22, for example, the screen resolution of the digital camera 6, the focal length of the lens, the central coordinates of the radial lens distortion aberration, and the lens distortion coefficient are stored, and the design information 23 is the measurement target. Design that includes geometric information of one or both of the dimension measurement location, the feature point that is the point on the edge where the shading changes on the image, and the linear direction component and the normal direction component of the plane to be measured Information is stored.

ステレオ写真計測処理手段10は、レンズ歪み補正手段11、カメラ位置認識手段12、特徴点認識手段13、特徴点入力手段14、3次元座標計算手段15、寸法計算手段16及び寸法表示手段17を備えている。   Stereo photo measurement processing means 10 includes lens distortion correction means 11, camera position recognition means 12, feature point recognition means 13, feature point input means 14, three-dimensional coordinate calculation means 15, dimension calculation means 16, and dimension display means 17. ing.

レンズ歪み補正手段11は、記憶手段2に記憶されている2枚の画像データ21を入力し、記憶手段2に記憶されているカメラ内部パラメータ22を用いて、2枚の画像データ21のレンズ歪みを補正する。カメラ位置認識手段12は、レンズ歪み補正手段11によりレンズ歪みが補正された2枚の画像データ21からマーカー8を画像処理により認識して、デジタルカメラ6とマーカー8との相対位置関係及びマーカー8を基準にした座標系を、デジタルカメラ6のレンズの投影変換行列を用いて求める。なお、投影変換行列はデジタルカメラ6のレンズが撮像対象を画像へ投影する投影変換の行列である。   The lens distortion correction unit 11 inputs two pieces of image data 21 stored in the storage unit 2, and uses the camera internal parameters 22 stored in the storage unit 2, and the lens distortion of the two pieces of image data 21. Correct. The camera position recognition unit 12 recognizes the marker 8 from the two pieces of image data 21 whose lens distortion has been corrected by the lens distortion correction unit 11 by image processing, and the relative positional relationship between the digital camera 6 and the marker 8 and the marker 8. Is obtained using the projection transformation matrix of the lens of the digital camera 6. Note that the projection conversion matrix is a projection conversion matrix in which the lens of the digital camera 6 projects the imaging target onto the image.

特徴点抽出手段100(図示せず)は2枚の画像データ21の各画像に撮影された点、線、平面及び立体形状の特徴点を画像処理によって抽出する特徴点認識手段13及び入力デバイスからの入力情報によって抽出する特徴点入力手段14等を含む。本実施の形態では特徴点認識手段13において、レンズ歪み補正手段11によりレンズ歪みが補正された2枚の画像データ21の画像に撮影された点、線、平面及び立体形状等の特徴点を画像処理により認識する。続いて特徴点入力手段14において、2枚の画像データ21から特徴点認識手段13により認識されなかったその他の特徴点を入力デバイスからの入力情報によって入力する。   A feature point extraction unit 100 (not shown) includes a feature point recognition unit 13 that extracts, by image processing, feature points of points, lines, planes, and three-dimensional shapes photographed in each image of the two pieces of image data 21. The feature point input means 14 etc. which are extracted by the input information are included. In the present embodiment, the feature point recognizing unit 13 captures feature points such as points, lines, planes, and three-dimensional shapes captured in the two image data 21 images whose lens distortion has been corrected by the lens distortion correcting unit 11. Recognize by processing. Subsequently, in the feature point input unit 14, other feature points that are not recognized by the feature point recognition unit 13 from the two pieces of image data 21 are input by input information from the input device.

3次元座標計算手段15は、設計情報23を入力し、幾何学的情報から定まる拘束条件、投影変換行列、相対位置関係及び三角測量の原理を用いて、一方の画像データの特徴点で構成される第一特徴部及びこの第一特徴部に対応して他方の画像データの特徴点で構成される第二特徴部に対応する計測対象の3次元座標を計算する。なお、特徴部とは、特徴点で構成され、1画像中の計測対象の部分を指し、幾何学的情報から定まる拘束条件としては、具体的には、直線方向成分の直線上にあるという拘束条件、又は法線方向を有する平面上にあるという拘束条件である。   The three-dimensional coordinate calculation means 15 is inputted with design information 23, and is composed of feature points of one image data using the constraint conditions, projection transformation matrix, relative positional relationship, and triangulation principles determined from geometric information. The three-dimensional coordinates of the measurement target corresponding to the first feature portion and the second feature portion constituted by the feature points of the other image data corresponding to the first feature portion are calculated. Note that the feature part is composed of feature points, refers to a portion to be measured in one image, and specifically, as a constraint condition determined from geometric information, the constraint is that it is on a straight line of a linear component. It is a constraint condition that is on a plane having a condition or a normal direction.

寸法計算手段16は、設計情報23を入力し、3次元座標計算手段15により計算された3次元座標から寸法計測箇所の寸法を計算する。寸法表示手段17は寸法計算手段16により計算された寸法計測箇所の寸法を表示する。   The dimension calculation means 16 receives the design information 23 and calculates the dimensions of the dimension measurement location from the three-dimensional coordinates calculated by the three-dimensional coordinate calculation means 15. The dimension display means 17 displays the dimensions of the dimension measurement part calculated by the dimension calculation means 16.

図2はこの発明の実施の形態1によるステレオ写真計測装置のハードウェア構成を示すブロック図であり、ステレオ写真計測装置は、演算処理手段1、記憶手段2、一時記憶手段3、入力手段4及び表示手段5を備えている。記憶手段2は、画像データ21、カメラ内部パラメータ22、設計情報23、プログラム24を記憶し、入力手段4は、画像データ21、カメラ内部パラメータ22、設計情報23、ユーザからの情報を取り込む。   FIG. 2 is a block diagram showing the hardware configuration of the stereo photo measurement apparatus according to Embodiment 1 of the present invention. The stereo photo measurement apparatus includes an arithmetic processing means 1, a storage means 2, a temporary storage means 3, an input means 4 and Display means 5 is provided. The storage unit 2 stores image data 21, camera internal parameters 22, design information 23, and a program 24, and the input unit 4 captures image data 21, camera internal parameters 22, design information 23, and information from the user.

演算処理手段1は、記憶手段2に記憶されているプログラム24を読み込んで、画像データ21、カメラ内部パラメータ22、設計情報23を使用して、一時記憶手段3にデータや計算結果等を一時的に記憶させながら処理を行い、画像データ21や設計情報23や処理結果等を表示手段5に表示することにより、図1に示すステレオ写真計測処理手段10の機能を実現する。   The arithmetic processing means 1 reads the program 24 stored in the storage means 2 and uses the image data 21, the camera internal parameters 22, and the design information 23 to temporarily store the data, calculation results, etc. in the temporary storage means 3. The functions of the stereo photo measurement processing means 10 shown in FIG. 1 are realized by performing processing while storing the image data and displaying the image data 21, design information 23, processing results, and the like on the display means 5.

図3はこの発明の実施の形態1による寸法計測箇所の寸法を計測するための処理を示すフローチャートである。図3に示す処理のうち、ステップST3からステップST12までの処理がステレオ写真計測処理手段10が行う処理である。   FIG. 3 is a flowchart showing a process for measuring the dimension of the dimension measurement location according to the first embodiment of the present invention. Among the processes shown in FIG. 3, the process from step ST3 to step ST12 is a process performed by the stereo photograph measurement processing means 10.

ステップST1において、ユーザは撮影対象現場7の任意の位置にカメラ外部キャリブレーション用のマーカー8を設置する。このマーカー8としては、可搬品であり、寸法が既知であり、かつ座標系により定められる直交3軸の識別が容易なものを用いるのが好ましい。このマーカー8をデジタルカメラ6を用いて撮影することにより、デジタルカメラ6とマーカー8の相対位置関係を正確に求めることができる。また、マーカー8は、後のステップST7〜ST10の3次元座標計算処理において、設計情報23として指定されている幾何学的情報を使用することから、撮影対象現場7にて成立している座標系により定められる設計情報23における3軸方向と、マーカー8を基準にした座標系により定められる3軸方向とがほぼ一致(完全に一致する必要はない)するように設置する。   In step ST <b> 1, the user installs a camera external calibration marker 8 at an arbitrary position on the photographing target site 7. As the marker 8, it is preferable to use a marker that is portable, has a known size, and that can easily identify three orthogonal axes determined by a coordinate system. By photographing the marker 8 using the digital camera 6, the relative positional relationship between the digital camera 6 and the marker 8 can be accurately obtained. In addition, since the marker 8 uses the geometric information specified as the design information 23 in the three-dimensional coordinate calculation processing in the subsequent steps ST7 to ST10, the coordinate system established at the photographing target site 7 is used. The three axis directions in the design information 23 determined by the above and the three axis directions determined by the coordinate system with reference to the marker 8 are substantially matched (it is not necessary to match completely).

撮影対象現場7にマーカー8を設置する場合、撮影対象現場7にて成立している現実の座標系(すなわち設計情報23における3軸方向)とマーカー8を基準にした座標系を完全に一致させることが望ましい。しかし、現実の座標軸とマーカー8を基準にした座標系を完全に一致させるには、マーカー8を設置する際に水準器等を使用してマーカー8の向きや角度等を厳密に調整する必要がある。そこで、この実施の形態1では、この手間を省くために、撮影対象現場7にて成立している現実の座標系により定められる設計情報23における3軸方向と、マーカー8を基準にした座標系により定められる3軸方向とがほぼ一致するように設置し、寸法計測誤差の要因となっている撮影対象現場7にて成立している現実の座標系により定められる3軸方向とマーカー8を基準にした座標系により定められる3軸方向との不一致を、後述の3次元座標計算手段15が、設計情報23として定められている幾何学的情報から定まる拘束条件を使用して特徴点の3次元座標を計算することにより、寸法計測精度を向上させている。   When the marker 8 is installed at the shooting target site 7, the actual coordinate system established at the shooting target site 7 (that is, the three-axis direction in the design information 23) and the coordinate system based on the marker 8 are completely matched. It is desirable. However, in order to make the actual coordinate axis and the coordinate system based on the marker 8 completely coincide with each other, it is necessary to strictly adjust the direction and angle of the marker 8 using a level when installing the marker 8. is there. Therefore, in the first embodiment, in order to save this effort, the coordinate system based on the three-axis directions in the design information 23 determined by the actual coordinate system established at the photographing target site 7 and the marker 8 is used as a reference. The three-axis directions determined by the actual coordinate system established at the shooting target site 7 causing the dimension measurement error are used as a reference. Inconsistency with the three-axis directions defined by the coordinate system defined above is used to determine the three-dimensional characteristics of the feature points using constraint conditions determined by the geometric information defined as design information 23 by the three-dimensional coordinate calculation means 15 described later. By calculating the coordinates, the dimension measurement accuracy is improved.

なお、設計情報23として指定されている計測対象の寸法計測箇所は、寸法を計算するための両端点となる特徴点及び座標系における寸法計測方向を最低限含むものとする。また、設計情報23は記憶手段2に記憶されているものとするが、入力手段4から入力しても良い。   It should be noted that the dimension measurement location of the measurement target specified as the design information 23 includes at least the feature points serving as both end points for calculating the dimension and the dimension measurement direction in the coordinate system. The design information 23 is stored in the storage unit 2, but may be input from the input unit 4.

図4は撮影対象現場7に設置されるカメラ外部キャリブレーション用のマーカー8の例を示す図であり、マーカー8としては、例えば図4に示すように、平面で白黒の市松模様が描かれているものを用いる。このマーカー8をデジタルカメラ6により撮影した画像データのマーカー部分に対して画像処理を行うことによって、マーカー8を基準にした座標系により定められる3軸方向とデジタルカメラ6とマーカー8の相対位置関係を計算することができる(Intel OpenCVライブラリ参照)。マーカー8を基準にした座標系により定められる3軸方向としては、用紙の短軸方向をX方向、用紙の長軸方向をY方向、用紙の垂直方向をZ方向とする。   FIG. 4 is a diagram showing an example of a camera external calibration marker 8 installed in the shooting target site 7. As the marker 8, for example, a black and white checkered pattern is drawn on a plane as shown in FIG. Use what you have. By performing image processing on the marker portion of the image data obtained by photographing the marker 8 with the digital camera 6, the relative positions of the digital camera 6 and the marker 8 with respect to the three axis directions determined by the coordinate system based on the marker 8. Can be calculated (see Intel OpenCV library). As the three-axis directions determined by the coordinate system with reference to the marker 8, the short axis direction of the paper is the X direction, the long axis direction of the paper is the Y direction, and the vertical direction of the paper is the Z direction.

また、マーカー8としては、撮影対象現場7にて成立している座標系により定められる設計情報23における3軸方向とほぼ一致する3軸方向が復元できるのであれば、撮影対象現場7に埋め込まれているタイルのように、撮影対象現場7に固定されており、認識が容易なものを用いても良い。   The marker 8 is embedded in the imaging target site 7 as long as it can restore the three-axis direction that substantially matches the three-axis direction in the design information 23 defined by the coordinate system established in the imaging target site 7. It is also possible to use a tile that is fixed to the shooting target site 7 and that can be easily recognized, such as a tile.

図3のステップST2において、互いに離れた2箇所に設置されたデジタルカメラ6は計測対象とマーカー8を撮影して2枚の画像データ21を出力する。この2枚の画像データ21は入力手段4から入力され、記憶手段2に記憶され、一時記憶手段3に読み出された上で各種演算がなされる。なお、画像データ21の1画素に相当するデータ(RGB等のデータ)は一時記憶手段3の所定の記憶領域に記憶され、演算結果も一時記憶手段3の記憶領域に記憶される。   In step ST <b> 2 of FIG. 3, the digital cameras 6 installed at two locations distant from each other image the measurement target and the marker 8 and output two pieces of image data 21. The two pieces of image data 21 are input from the input unit 4, stored in the storage unit 2, read out to the temporary storage unit 3, and then subjected to various calculations. Note that data corresponding to one pixel (image data such as RGB) of the image data 21 is stored in a predetermined storage area of the temporary storage unit 3, and a calculation result is also stored in the storage area of the temporary storage unit 3.

ステップST3において、ステレオ写真計測処理手段10のレンズ歪み補正手段11は、記憶手段2から2枚の画像データ21と予め高精度に求めたデジタルカメラ6のカメラ内部パラメータ22を一時記憶手段3に読み出し、カメラ内部パラメータ22として、レンズの焦点距離、放射方向レンズ歪曲収差の中心座標、レンズ歪み係数を用いて、一時記憶手段3上の画像データ21について、広角レンズによる固有の放射方向レンズ歪曲収差とレンズ歪みを例えばIntel OpenCVライブラリのcvUnDistort関数により補正し、補正後の画像データ21を一時記憶手段3に記憶させる。   In step ST3, the lens distortion correction unit 11 of the stereo photograph measurement processing unit 10 reads the two pieces of image data 21 from the storage unit 2 and the camera internal parameters 22 of the digital camera 6 obtained in advance with high accuracy into the temporary storage unit 3. Using the focal length of the lens, the central coordinates of the radial lens distortion aberration, and the lens distortion coefficient as the camera internal parameters 22, the image data 21 on the temporary storage means 3 is converted into the radial lens distortion aberration inherent to the wide-angle lens. The lens distortion is corrected by, for example, the cvUnDistort function of the Intel OpenCV library, and the corrected image data 21 is stored in the temporary storage unit 3.

なお、デジタルカメラ6のカメラ内部パラメータ22は、コンピュータビジョンの分野で広く用いられているTsaiの手法やZhangの手法等を用いて精度良く求めることができる。   The camera internal parameters 22 of the digital camera 6 can be obtained with high accuracy using the Tsai method, the Zhang method, or the like widely used in the field of computer vision.

ステップST4において、ステレオ写真計測処理手段10のカメラ位置認識手段12は、一時記憶手段3に記憶された補正後の2枚の画像データ21からマーカー8を画像処理により認識して、デジタルカメラ6とマーカー8との相対位置関係及びマーカー8を基準にした座標系を、デジタルカメラ6のレンズの投影変換行列を用いて求める。   In step ST4, the camera position recognition means 12 of the stereo photo measurement processing means 10 recognizes the marker 8 from the two corrected image data 21 stored in the temporary storage means 3 by image processing, and the digital camera 6 A relative positional relationship with the marker 8 and a coordinate system based on the marker 8 are obtained using the projection transformation matrix of the lens of the digital camera 6.

ここで、カメラ位置認識手段12は、デジタルカメラ6とマーカー8との相対位置関係として、具体的には、マーカー8を基準にした座標系におけるデジタルカメラ6の投影中心の座標と、その視線方向及び画素座標軸の方向を求める。例えば、図4に示すカメラ外部キャリブレーション用のマーカー8を用いた場合には、Intel OpenCVライブラリを用いて、デジタルカメラ6とマーカー8の相対位置関係を求めることができる。   Here, the camera position recognizing means 12 is, as a relative positional relationship between the digital camera 6 and the marker 8, specifically, the coordinates of the projection center of the digital camera 6 in the coordinate system based on the marker 8, and the line-of-sight direction thereof. And the direction of the pixel coordinate axis. For example, when the camera external calibration marker 8 shown in FIG. 4 is used, the relative positional relationship between the digital camera 6 and the marker 8 can be obtained using the Intel OpenCV library.

例えば、カメラ位置認識手段12は、一時記憶手段3に記憶された補正後の2枚の画像データ21からマーカー8を画像処理により認識し、具体的には次の処理を行うことにより、マーカー8を基準にした座標系により定められる3軸方向を求める。すなわち、カメラ位置認識手段12は、マーカー8の2つの白マスと2つの黒マスとに挟まれた境界点である格子点を、濃度勾配の変化の度合いの最も高い画素を特定することにより検出し、マーカー8全体の格子点の並び度合いから、まず2軸(例えばx軸とy軸)を特定し、これらの2軸に垂直になるように最後の1軸(例えばz軸)を求めることで、マーカー8を基準にした座標系により定められる3軸方向を求める。   For example, the camera position recognizing unit 12 recognizes the marker 8 from the corrected two pieces of image data 21 stored in the temporary storage unit 3 by image processing, and specifically performs the following processing to thereby execute the marker 8. 3 axis directions determined by a coordinate system based on That is, the camera position recognizing means 12 detects a lattice point that is a boundary point between two white cells and two black cells of the marker 8 by specifying a pixel having the highest degree of change in density gradient. First, two axes (for example, x-axis and y-axis) are specified from the degree of alignment of the lattice points of the entire marker 8, and the last one axis (for example, z-axis) is obtained so as to be perpendicular to these two axes. Thus, the three-axis directions determined by the coordinate system with reference to the marker 8 are obtained.

また、カメラ位置認識手段12は、格子点同士の間隔は既知であることから、カメラ外部パラメータを計算するための行列を用いて、次の式(1)で表される連立方程式を解くことにより、デジタルカメラ6とマーカー8の相対位置関係、すなわち、カメラ外部パラメータである、マーカー8を基準にした座標系におけるデジタルカメラ6の投影中心の座標と、その視線方向及び画素座標軸の方向を求める。
(格子点の2次元画素位置)*(カメラ外部パラメータを計算するための行列)
=(格子点の3次元位置) (1)
ここで、格子点の2次元画素位置はマーカー8を基準にした座標系を求める際に特定したものである。
Further, since the distance between the lattice points is known, the camera position recognizing means 12 uses the matrix for calculating the camera external parameters and solves the simultaneous equations expressed by the following equation (1). Then, the relative positional relationship between the digital camera 6 and the marker 8, that is, the coordinates of the projection center of the digital camera 6 in the coordinate system based on the marker 8, which is a camera external parameter, and the direction of the line of sight and the pixel coordinate axis are obtained.
(2D pixel position of grid point) * (Matrix for calculating camera external parameters)
= (3D position of grid point) (1)
Here, the two-dimensional pixel position of the lattice point is specified when a coordinate system based on the marker 8 is obtained.

なお、カメラ外部パラメータを計算するための行列は、デジタルカメラ6のレンズの投影変換行列であり、後述の3次元座標計算手段15が使用する投影変換行列m1,m2である。また、このカメラ位置認識手段12により求められたマーカー8を基準にした座標系及びカメラ外部パラメータは、3次元座標計算手段15が投影変換行列m1,m2を使用し画像上の2次元画素位置を3次元座標に変換する処理で使用される。   Note that the matrix for calculating the camera external parameters is a projection conversion matrix of the lens of the digital camera 6, and is a projection conversion matrix m1 and m2 used by the three-dimensional coordinate calculation means 15 described later. The coordinate system and camera external parameters based on the marker 8 obtained by the camera position recognizing means 12 are used to calculate the two-dimensional pixel position on the image by the three-dimensional coordinate calculating means 15 using the projection transformation matrices m1 and m2. Used in processing to convert to 3D coordinates.

ステップST5において、ステレオ写真計測処理手段10の特徴点認識手段13は、画像処理によって画像データ21に含まれる全ての認識可能な特徴点を認識した上で出力手段5に表示し、入力手段4を用いて設計情報23に記載されている特徴点のみをユーザに選択させる。特徴点の認識手法については、例えば各画像データ中の色情報、濃淡情報から濃度変化勾配が大きな点を抽出する、又は抽出後の濃度変化勾配が大きな点同士をつなげて線を抽出する等の手法がある。   In step ST5, the feature point recognition unit 13 of the stereo photo measurement processing unit 10 recognizes all recognizable feature points included in the image data 21 by image processing, displays them on the output unit 5, and displays the input unit 4. By using this, only the feature points described in the design information 23 are selected by the user. Regarding the feature point recognition method, for example, a point having a large density change gradient is extracted from color information and light / dark information in each image data, or a line is extracted by connecting points having a large density change gradient after extraction. There is a technique.

ステップST6において、ステレオ写真計測処理手段10の特徴点入力手段14は、設計情報23に記載され出力手段5に表示されている画像上に表示されている特徴点のうち、特徴点認識手段13により認識されていない特徴点について、入力手段4を用いてユーザに特徴点を入力させる。   In step ST 6, the feature point input unit 14 of the stereo photograph measurement processing unit 10 uses the feature point recognition unit 13 among the feature points displayed on the image described in the design information 23 and displayed on the output unit 5. For the feature points that are not recognized, the input unit 4 is used to cause the user to input feature points.

ステップST6の処理を終了後、ステレオ写真計測処理手段10の3次元座標計算手段15は、計算対象である特徴点が点で表現されている場合にはステップST7の処理に進み、計算対象である特徴点が線、平面又は立体で表現されている場合にはステップST8の処理に進む。このとき、計算対象である特徴点が平面又は立体で表現されている場合には、3次元座標計算手段15は平面又は立体における1つの線を抽出してステップST8の処理に進む。   After the process of step ST6 is completed, the three-dimensional coordinate calculation unit 15 of the stereo photograph measurement processing unit 10 proceeds to the process of step ST7 when the feature point to be calculated is represented by a point, and is the calculation target. When the feature point is expressed by a line, a plane, or a solid, the process proceeds to step ST8. At this time, if the feature point to be calculated is expressed in a plane or a solid, the three-dimensional coordinate calculation means 15 extracts one line in the plane or the solid, and proceeds to the process of step ST8.

ステップST7〜ST10において、3次元座標計算手段15は、設計情報23を入力し、幾何学的情報から定まる拘束条件、カメラ位置認識手段12により求められたデジタルカメラ6とマーカー8の相対位置関係及びマーカー8を基準にした座標系、ある3次元座標点を画像a上に投影変換する投影変換行列m1、ある3次元座標点を画像b上に投影変換する投影変換行列m2、三角測量の原理を使用して、特徴点認識手段13により認識された特徴点及び特徴点入力手段14により入力された特徴点の3次元座標、すなわち、一方の画像データの特徴点で構成される第一特徴部及びこの第一特徴部に対応して他方の画像データの特徴点で構成される第二特徴部に対応する計測対象の3次元座標を計算する。   In steps ST7 to ST10, the three-dimensional coordinate calculation means 15 inputs the design information 23, the constraint condition determined from the geometric information, the relative positional relationship between the digital camera 6 and the marker 8 determined by the camera position recognition means 12, and A coordinate system based on the marker 8, a projection transformation matrix m1 for projecting and transforming a certain three-dimensional coordinate point onto the image a, a projection transformation matrix m2 for projecting and transforming a certain three-dimensional coordinate point onto the image b, and the principle of triangulation Using the feature point recognized by the feature point recognition unit 13 and the three-dimensional coordinates of the feature point input by the feature point input unit 14, that is, the first feature unit constituted by the feature point of one image data, Corresponding to the first feature portion, the three-dimensional coordinates of the measurement target corresponding to the second feature portion constituted by the feature points of the other image data are calculated.

このとき、3次元座標計算手段15は、2枚の画像データ21に含まれる特徴点をユーザに提示し、どれととれが一方の画像データの特徴点で構成される第一特徴部とこの第一特徴部に対応して他方の画像データの特徴点で構成される第二特徴部との組合せである特徴部ペアであるかをユーザに選択・指定させる。   At this time, the three-dimensional coordinate calculation means 15 presents the feature points included in the two pieces of image data 21 to the user, and each of the first feature portions configured by the feature points of one of the image data and the first feature portion. The user is allowed to select / specify whether the feature portion pair is a combination with the second feature portion constituted by the feature points of the other image data corresponding to the one feature portion.

3次元座標計算手段15は、特徴点が点で表現されており、拘束条件が直線で与えられている場合に、ステップST7で、3次元座標において特徴部ペアを構成する点が同一の直線上にあるという拘束条件を使用して、特徴点の3次元座標を計算する。   When the feature points are represented by points and the constraint condition is given by a straight line, the three-dimensional coordinate calculation means 15 determines that the points constituting the feature pair in the three-dimensional coordinates are on the same straight line in step ST7. The three-dimensional coordinates of the feature points are calculated using the constraint condition that

また、3次元座標計算手段15は、特徴点が線、平面又は立体で表現されており、拘束条件が直線で与えられている場合に、ステップST8、ST9で、3次元座標において特徴部ペアを構成する各線分の両端点が同一の直線上にあるという拘束条件を使用して、特徴点の3次元座標を計算する。   Also, the three-dimensional coordinate calculation means 15 is configured to extract a feature part pair in the three-dimensional coordinates in steps ST8 and ST9 when the feature points are represented by lines, planes, or solids and the constraint conditions are given by straight lines. The three-dimensional coordinates of the feature points are calculated using a constraint condition that both end points of the constituent line segments are on the same straight line.

さらに、3次元座標計算手段15は、特徴点が線、平面又は立体で表現されており、拘束条件が平面で与えられている場合に、ステップST8、ST10で、3次元座標において特徴部ペアを構成する各線分の両端点が同一平面上にあるという拘束条件を使用して、特徴点の3次元座標を計算する。   Furthermore, the three-dimensional coordinate calculation means 15 calculates the feature pair in the three-dimensional coordinates in steps ST8 and ST10 when the feature points are expressed by lines, planes, or solids and the constraint conditions are given by planes. The three-dimensional coordinates of the feature points are calculated using a constraint condition that both end points of each constituting line segment are on the same plane.

図5は特徴点が点で表現されており、拘束条件として、2枚の画像データ21に撮影されている特徴部ペアが同一点ではなく同一直線上にあるとした場合のステップST7における3次元座標計算手段15の処理を説明する図である。図5において、1つの特徴点で構成される点が1画像中の計測対象の部分である特徴部であり、ここで、計測対象となる特徴部ペアは、設計情報23として、鉛直方向成分を持つ、すなわち方向ベクトルがL=(0,0,1)であるという撮影対象現場7で成立している現実の座標系に基づく位置関係の拘束条件が与えられているものとする。実際には、Lは鉛直方向だけでなく任意の方向について本手段の適用が可能である。   In FIG. 5, the feature points are represented by points, and as a constraint condition, the feature pairs captured in the two pieces of image data 21 are not on the same point but on the same straight line in step ST7. It is a figure explaining the process of the coordinate calculation means. In FIG. 5, a point constituted by one feature point is a feature part which is a part to be measured in one image. Here, the feature part pair to be measured has a vertical direction component as design information 23. It is assumed that a constraint condition of the positional relationship based on the actual coordinate system established at the photographing target site 7 is given, that is, the direction vector is L = (0, 0, 1). In practice, this means can be applied not only to the vertical direction but also to an arbitrary direction.

図5において、計測対象となる特徴部ペアは画像a上では点51、画像b上では点52として指定されているものとする。また、画像a上の点51を投影変換行列m1により3次元座標系に投影した点61と画像b上の点52を投影変換行列m2により3次元座標系に投影した点62は、3次元座標において同一直線上にある任意の点とする。   In FIG. 5, it is assumed that the feature part pair to be measured is designated as a point 51 on the image a and a point 52 on the image b. A point 61 obtained by projecting the point 51 on the image a onto the three-dimensional coordinate system using the projection transformation matrix m1 and a point 62 obtained by projecting the point 52 on the image b onto the three-dimensional coordinate system using the projection transformation matrix m2 are represented by the three-dimensional coordinates. It is assumed that the points are on the same straight line.

ステップST7において、3次元座標計算手段15は、設計情報23を入力し、設計情報23として指定された点51の3次元座標点61と点52の3次元座標点62は同一の直線上(ここでは鉛直方向成分を持つ同一の直線上)にあるという拘束条件、カメラ位置認識手段12により求められたデジタルカメラ6とマーカー8の相対位置関係及びマーカー8を基準にした座標系、投影変換行列m1、投影変換行列m2、三角測量の原理を使用して、点61,62の3次元座標及び点61と点62を通る直線(ここでは鉛直線)を計算する。   In step ST7, the three-dimensional coordinate calculation means 15 inputs the design information 23, and the three-dimensional coordinate point 61 of the point 51 and the three-dimensional coordinate point 62 of the point 52 designated as the design information 23 are on the same straight line (here , On the same straight line having a vertical component), the relative positional relationship between the digital camera 6 and the marker 8 obtained by the camera position recognizing means 12, the coordinate system based on the marker 8, and the projection transformation matrix m1 Using the projection transformation matrix m2 and the principle of triangulation, the three-dimensional coordinates of the points 61 and 62 and a straight line (here, a vertical line) passing through the points 61 and 62 are calculated.

図5において、点61は画像aを撮影したデジタルカメラ6の位置と点51とを通る直線上に必ずあり、点62は画像bを撮影したデジタルカメラ6の位置と点52とを通る直線上にあり、まず、3次元座標計算手段15は、直線51・61と直線52・62の方程式を求める。このとき、投影変換行列m1,m2を用いて表記しても良い。そして、3次元座標計算手段15は、ねじれの位置にあるであろう直線51・61と直線52・62の双方と交わる鉛直線を求めることにより直線61・62の方程式を求める。この直線61・62と直線51・61の交点座標を求めることにより、点61の3次元座標を求めることができる。3次元座標計算手段15は点62に対しても同様の方法により3次元座標を計算する。   In FIG. 5, a point 61 is always on a straight line passing through the position of the digital camera 6 that captured the image a and the point 51, and a point 62 is on a straight line passing through the position of the digital camera 6 that captured the image b and the point 52. First, the three-dimensional coordinate calculation means 15 obtains equations of the straight lines 51 and 61 and the straight lines 52 and 62. At this time, you may describe using projection transformation matrix m1, m2. Then, the three-dimensional coordinate calculation means 15 obtains an equation of the straight lines 61 and 62 by obtaining a vertical line that intersects both the straight lines 51 and 61 and the straight lines 52 and 62 which will be in the twisted position. By obtaining the intersection coordinates of the straight lines 61 and 62 and the straight lines 51 and 61, the three-dimensional coordinates of the point 61 can be obtained. The three-dimensional coordinate calculation means 15 calculates three-dimensional coordinates for the point 62 by the same method.

図6は特徴点が線で表現されており、拘束条件として、2枚の画像データ21に撮影されている特徴部ペアが同一線分ではなく同一直線上にあるとした場合のステップST8、ST9における3次元座標計算手段15の処理を説明する図である。図6において、1画像中の2つの特徴点間を結ぶ線分が1画像中の計測対象の部分である特徴部であり、計測対象となる特徴部ペアは、鉛直方向成分を持つ、すなわち方向ベクトルがL=(0,0,1)であるという拘束条件が与えられているものとする。実際には、Lは任意の方向について本手段の適用が可能である。   In FIG. 6, the feature points are represented by lines, and as a constraint condition, steps ST8 and ST9 when the feature part pairs photographed in the two pieces of image data 21 are not on the same line segment but on the same straight line. It is a figure explaining the process of the three-dimensional coordinate calculation means 15 in. In FIG. 6, a line segment connecting two feature points in one image is a feature portion that is a measurement target portion in one image, and the feature portion pair to be measured has a vertical component, that is, a direction It is assumed that a constraint condition that the vector is L = (0, 0, 1) is given. In practice, this means can be applied to L in any direction.

図6において、計測対象となる特徴部ペアは、画像a上では点101と点102を結ぶ線分、画像b上では点103と点104を結ぶ線分として指定されているものとする。また、画像a上の点101を投影変換行列m1により3次元座標系に投影した点131と画像b上の点103を投影変換行列m2により3次元座標系に投影した点133とは必ずしも3次元座標系上での同一箇所である必要はなく、画像a上の点102を投影変換行列m1により3次元座標系に投影した点132と画像b上の点104を投影変換行列m2により3次元座標系に投影した点134とは必ずしも3次元座標系上での同一箇所である必要はなく、点131,132,133,134は、それぞれ3次元座標系において同一直線上にある任意の点とする。   In FIG. 6, it is assumed that the feature part pair to be measured is designated as a line segment connecting the points 101 and 102 on the image a and as a line segment connecting the points 103 and 104 on the image b. The point 131 obtained by projecting the point 101 on the image a onto the three-dimensional coordinate system using the projection transformation matrix m1 and the point 133 obtained by projecting the point 103 on the image b onto the three-dimensional coordinate system using the projection transformation matrix m2 are not necessarily three-dimensional. It is not necessary to be the same place on the coordinate system, and a point 132 obtained by projecting the point 102 on the image a onto the three-dimensional coordinate system using the projection transformation matrix m1 and a point 104 on the image b are represented using the projection transformation matrix m2. The point 134 projected on the system does not necessarily have to be the same location on the three-dimensional coordinate system, and the points 131, 132, 133, and 134 are arbitrary points on the same straight line in the three-dimensional coordinate system. .

点131,132,133,134は、それぞれ3次元座標系において同一直線上にあるのであれば、点131と点132の中点及び点133と点134の中点もこれらと同一直線上にあるはずである。よって、ステップST8において、3次元座標計算手段15は、設計情報23を入力し、画像aにおいて点101と点102とを結ぶ線分101・102の中点111を求め、同様に画像bにおいて点103と点104とを結ぶ線分103・104の中点112を求め、点111の3次元座標点121と点112の3次元座標点122は同一の直線上(ここでは鉛直方向成分を持つ同一の直線上)にあるという拘束条件、カメラ位置認識手段12により求められたデジタルカメラ6とマーカー8の相対位置関係及びマーカー8を基準にした座標系、投影変換行列m1、投影変換行列m2、三角測量の原理を使用して、点121,122の3次元座標及び点121と点122を通る直線(この場合は鉛直線)を計算する。   If the points 131, 132, 133, and 134 are on the same straight line in the three-dimensional coordinate system, the midpoints of the points 131 and 132 and the midpoints of the points 133 and 134 are also on the same straight line. It should be. Therefore, in step ST8, the three-dimensional coordinate calculation means 15 inputs the design information 23, obtains the midpoint 111 of the line segments 101 and 102 connecting the point 101 and the point 102 in the image a, and similarly in the image b The midpoint 112 of the line segments 103 and 104 connecting the line 103 and the point 104 is obtained, and the three-dimensional coordinate point 121 of the point 111 and the three-dimensional coordinate point 122 of the point 112 are on the same straight line (here, the same having a vertical component) On the straight line), the relative positional relationship between the digital camera 6 and the marker 8 obtained by the camera position recognition means 12, the coordinate system based on the marker 8, the projection transformation matrix m1, the projection transformation matrix m2, the triangle Using the principle of surveying, the three-dimensional coordinates of the points 121 and 122 and a straight line (in this case, a vertical line) passing through the points 121 and 122 are calculated.

続いて、ステップST9において、3次元座標計算手段15は、カメラ位置認識手段12により計算されたデジタルカメラ6とマーカー8の相対位置関係及びマーカー8を基準にした座標系、投影変換行列m1、投影変換行列m2、三角測量の原理を使用して、点101,102,103,104の3次元座標を計算し、計算した点101,102,103,104の3次元座標を、上記ステップST8で求めた点121と点122を通る直線(この場合は鉛直線)の最近点に近似する。このとき、3次元座標計算手段15は、点101,102,103,104の3次元座標を計算する際に拘束条件を使用しない。   Subsequently, in step ST9, the three-dimensional coordinate calculation unit 15 calculates the relative positional relationship between the digital camera 6 and the marker 8 calculated by the camera position recognition unit 12, the coordinate system based on the marker 8, the projection transformation matrix m1, and the projection. Using the transformation matrix m2 and the principle of triangulation, the three-dimensional coordinates of the points 101, 102, 103, 104 are calculated, and the calculated three-dimensional coordinates of the points 101, 102, 103, 104 are obtained in step ST8. It approximates to the closest point of a straight line (in this case, a vertical line) passing through the points 121 and 122. At this time, the three-dimensional coordinate calculation means 15 does not use a constraint condition when calculating the three-dimensional coordinates of the points 101, 102, 103, 104.

すなわち、3次元座標計算手段15は、画像aの投影変換行列m1を用いて、線分101・102をZ=0平面上に投影した直線Laを計算し、同様に、画像bの投影変換行列m2を用いて線分103・104をZ=0平面上に投影した直線Lbを計算する。この直線Laと画像aの投影中心を通る平面と、直線Lbと画像bの投影中心を通る平面との交線上に線分101・102の復元先直線131・132及び線分103・104の復元先直線133・134があるとすると、3次元座標計算手段15は、三角測量の原理を使用して、点101と画像aの投影中心とを通る直線と先ほど求めた交線との交点座標を計算することにより、点131の3次元座標を求めることができる。
3次元座標計算手段15は点132,133,134に対しても同様の方法により3次元座標を計算する。
That is, the three-dimensional coordinate calculation means 15 calculates a straight line La obtained by projecting the line segments 101 and 102 onto the Z = 0 plane using the projection conversion matrix m1 of the image a, and similarly, the projection conversion matrix of the image b. A straight line Lb obtained by projecting the line segments 103 and 104 onto the Z = 0 plane is calculated using m2. Restoration of the straight lines 131 and 132 of the line segments 101 and 102 and the line segments 103 and 104 on the intersection line between the plane passing through the projection center of the straight line La and the image a and the plane passing through the projection center of the straight line Lb and the image b If there are leading straight lines 133 and 134, the three-dimensional coordinate calculation means 15 uses the principle of triangulation to calculate the intersection coordinates between the straight line passing through the point 101 and the projection center of the image a and the intersection line obtained earlier. By calculating, the three-dimensional coordinates of the point 131 can be obtained.
The three-dimensional coordinate calculation means 15 calculates three-dimensional coordinates for the points 132, 133, and 134 by the same method.

この時点で、点131と点132を通る直線は点121と点122を通る鉛直線と点121で交わるが、点131と点132を通る直線は必ずしも鉛直とは限らず、点121と点122を通る鉛直線と一致するとは限らない。よって、点131と点132のそれぞれとの距離が最小となり、点121と点122を通る鉛直線上の点141と点142を計算し、この点141と点142を画像a上の点101と点102の3次元座標とする。   At this time, a straight line passing through the points 131 and 132 intersects with the vertical line passing through the points 121 and 122 and the point 121, but a straight line passing through the points 131 and 132 is not necessarily vertical, and the points 121 and 122 are not necessarily vertical. It does not necessarily coincide with the vertical line passing through. Therefore, the distance between each of the points 131 and 132 is minimized, and the points 141 and 142 on the vertical line passing through the points 121 and 122 are calculated, and the points 141 and 142 are calculated as points 101 and 122 on the image a. 102 three-dimensional coordinates.

同様に、画像bにおいて点103と点104に投影されている3次元座標点133と点134の3次元座標を画像bの投影変換行列m2を用いて計算し、点133と点134のそれぞれとの距離が最小となる、点121と点122を通る鉛直線上の点143と点144を計算し、画像b上の点103と点104の3次元座標点とする。   Similarly, the three-dimensional coordinates of the three-dimensional coordinate points 133 and 134 projected on the point 103 and the point 104 in the image b are calculated using the projection transformation matrix m2 of the image b, and the points 133 and 134 are respectively calculated. The points 143 and 144 on the vertical line passing through the point 121 and the point 122 that minimize the distance between the points 103 and 144 are calculated and set as the three-dimensional coordinate points of the points 103 and 104 on the image b.

特徴点が線で表現されており、拘束条件として、2枚の画像データ21に撮影されている特徴点ペアが同一平面上にあるとした場合のステップST8、ST10における3次元座標計算手段15の処理を以下に説明する。すなわち、図6における拘束条件L=(0,0,1)の代わりに特徴点ペアは法線ベクトルがN=(0,1,0)の同一平面上にあるという拘束条件が与えられている場合には、点131と点132の中点及び点133と点134の中点もこれらと同一直線上にあるはずである。よってステップST8において、3次元座標計算手段15は、図6における点111と点112の3次元座標の計算において平面の法線ベクトルを拘束条件として用いて点121,122の3次元座標及び点121と点122とを通る直線、点121と点122を含む平面を計算する。   The feature points are represented by lines, and as a constraint condition, the three-dimensional coordinate calculation means 15 in steps ST8 and ST10 when the feature point pairs photographed in the two pieces of image data 21 are on the same plane. The process will be described below. That is, instead of the constraint condition L = (0, 0, 1) in FIG. 6, the feature point pair is given a constraint condition that the normal vector is on the same plane with N = (0, 1, 0). In this case, the midpoints of the points 131 and 132 and the midpoints of the points 133 and 134 should be on the same straight line. Therefore, in step ST8, the three-dimensional coordinate calculation means 15 uses the plane normal vector as a constraint in the calculation of the three-dimensional coordinates of the points 111 and 112 in FIG. And a plane including points 121 and 122 is calculated.

続く本来の座標復元対象である点101,102,103,点104の3次元座標を計算するステップST10において、3次元座標計算手段15は、点101,102の3次元座標計算時には、点121,122を含む平面上の3次元座標点141,142の3次元座標を画像aの投影変換行列m1を用いて求める。また、3次元座標計算手段15は、同様に、点103,104の3次元座標計算時には、点121,122を含む平面上の3次元座標点143,144の3次元座標を画像bの投影変換行列m2を用いて求める。   In step ST10 for calculating the three-dimensional coordinates of the points 101, 102, 103, and 104, which are the original coordinates to be restored, the three-dimensional coordinate calculation means 15 performs the point 121, The three-dimensional coordinates of the three-dimensional coordinate points 141 and 142 on the plane including 122 are obtained using the projection transformation matrix m1 of the image a. Similarly, the three-dimensional coordinate calculation means 15 projects and converts the three-dimensional coordinates of the three-dimensional coordinate points 143 and 144 on the plane including the points 121 and 122 into the image b when calculating the three-dimensional coordinates of the points 103 and 104. It calculates | requires using the matrix m2.

ステップST11において、寸法計算手段16は、設計情報23を入力し、3次元座標計算手段15により計算された各特徴点の3次元座標に基づき、設計情報23として指定された寸法計測箇所の寸法を計算する。計算された寸法計測箇所の各寸法は一時記憶手段3に記憶される。   In step ST11, the dimension calculation means 16 inputs the design information 23, and based on the three-dimensional coordinates of each feature point calculated by the three-dimensional coordinate calculation means 15, the dimension measurement location designated as the design information 23 is obtained. calculate. Each dimension of the calculated dimension measurement location is stored in the temporary storage means 3.

ステップST12において、寸法表示手段17は一時記憶手段3に記憶された寸法計測箇所の寸法を表示手段5に表示する。   In step ST <b> 12, the dimension display unit 17 displays the dimension of the dimension measurement location stored in the temporary storage unit 3 on the display unit 5.

以上のように、この実施の形態1によれば、カメラ外部キャリブレーションが正確にできていない場合、すなわち、撮影対象現場7にて成立している現実の座標系(設計情報23における3軸方向)とマーカー8を基準にした座標系が完全に一致しない場合でも、3次元座標計算手段15が現実の座標系に基づく拘束条件を使用して特徴点の3次元座標を計算することにより、計測対象の寸法計測精度を向上させることができるという効果が得られる。   As described above, according to the first embodiment, when the external calibration of the camera is not accurately performed, that is, an actual coordinate system established at the photographing target site 7 (three-axis directions in the design information 23). ) And the coordinate system based on the marker 8 do not completely match, and the three-dimensional coordinate calculation means 15 calculates the three-dimensional coordinates of the feature points using the constraint conditions based on the actual coordinate system. The effect that the dimensional measurement accuracy of the object can be improved is obtained.

また、この実施の形態1によれば、特徴点認識手段13が2枚の画像データ21から特徴点を画像処理により認識することにより、計算機の操作に不慣れなユーザでも簡単に本ステレオ写真計測装置を用いることができるという効果が得られる。   Further, according to the first embodiment, the feature point recognition unit 13 recognizes feature points from the two pieces of image data 21 by image processing, so that even a user unfamiliar with the operation of the computer can easily perform the stereo photo measurement device. The effect that can be used is obtained.

実施の形態2.
この発明の実施の形態2によるステレオ写真計測装置の構成を示すブロック図は、上記実施の形態1の図1に示す構成から特徴点認識手段13を削除したものである。
図7はこの発明の実施の形態2による寸法計測箇所の寸法を計測するための処理を示すフローチャートであり、上記実施の形態1の図3に示すフローチャートからステップST5の処理を削除したものである。図7に示す処理のうち、ステップST3からステップST12までの処理がステレオ写真計測処理手段10が行う処理である。
Embodiment 2. FIG.
The block diagram showing the configuration of the stereo photo measurement device according to the second embodiment of the present invention is obtained by deleting the feature point recognition means 13 from the configuration shown in FIG. 1 of the first embodiment.
FIG. 7 is a flowchart showing a process for measuring the dimensions of the dimension measurement location according to the second embodiment of the present invention, and the process of step ST5 is deleted from the flowchart shown in FIG. 3 of the first embodiment. . Among the processes shown in FIG. 7, the processes from step ST <b> 3 to step ST <b> 12 are processes performed by the stereo photograph measurement processing means 10.

この実施の形態2では、上記実施の形態1の特徴点認識手段13による画像データ21からの特徴点認識処理を行わずに、図7のステップST6において、特徴点入力手段14は、設計情報22に記載されている特徴点で出力手段5に表示されている画像上に対応点が存在するものについて、入力手段4を用いてユーザに特徴点を入力させる。
その他のステップST1〜ST4,ST7〜ST12の処理は上記実施の形態1と同様である。
In the second embodiment, the feature point input unit 14 does not perform the feature point recognition process from the image data 21 by the feature point recognition unit 13 of the first embodiment. In the feature points described in the above, the corresponding points are present on the image displayed on the output unit 5, and the user inputs the feature points using the input unit 4.
Other processes in steps ST1 to ST4 and ST7 to ST12 are the same as those in the first embodiment.

以上のように、この実施の形態2によれば、カメラ外部キャリブレーションが正確にできていない場合でも、3次元座標計算手段15が現実の座標系に基づく拘束条件を使用して特徴点の3次元座標を計算することにより、計測対象の寸法計測精度を向上させることができるという効果が得られる。   As described above, according to the second embodiment, even when the camera external calibration is not accurately performed, the three-dimensional coordinate calculation unit 15 uses the constraint condition based on the actual coordinate system to set the feature point 3. By calculating the dimensional coordinates, it is possible to improve the dimensional measurement accuracy of the measurement target.

また、この実施の形態2によれば、上記実施の形態1の特徴点認識手段13を削除することにより、ステレオ写真計測装置を操作するユーザの負荷を軽減することができない代わりに、性能が低いステレオ写真計測装置を用いても、カメラ外部キャリブレーションが正確にできていない場合に、計測対象の寸法計測精度を向上させることができるという効果が得られる。   Further, according to the second embodiment, the feature point recognizing means 13 of the first embodiment cannot be reduced to reduce the load on the user who operates the stereo photo measurement device, but the performance is low. Even when the stereo photo measurement device is used, if the external calibration of the camera is not accurately performed, the effect of improving the dimensional measurement accuracy of the measurement target can be obtained.

なお、上記実施の形態1及び上記実施の形態2によるステレオ写真計測装置は、コンピュータと、このコンピュータを上記実施の形態1及び上記実施の形態2における各手段として機能させるためのステレオ写真計測用プログラムにより実現することも可能である。   The stereo photo measurement apparatus according to the first embodiment and the second embodiment includes a computer and a stereo photo measurement program for causing the computer to function as each unit in the first embodiment and the second embodiment. Can also be realized.

この発明の実施の形態1によるステレオ写真計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo photograph measuring device by Embodiment 1 of this invention. この発明の実施の形態1によるステレオ写真計測装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the stereo photograph measuring device by Embodiment 1 of this invention. この発明の実施の形態1による寸法計測箇所の寸法を計測するための処理を示すフローチャートである。It is a flowchart which shows the process for measuring the dimension of the dimension measurement location by Embodiment 1 of this invention. この発明の実施の形態1において、撮影対象現場に設置されるカメラ外部キャリブレーション用のマーカーの例を示す図である。In Embodiment 1 of this invention, it is a figure which shows the example of the marker for camera external calibration installed in the imaging | photography object site. この発明の実施の形態1において、特徴点が点で表現されており、拘束条件として、2枚の画像データに撮影されている特徴点ペアが同一点ではなく同一直線上にあるとした場合の3次元座標計算手段の処理を説明する図である。In Embodiment 1 of the present invention, feature points are expressed by points, and as a constraint condition, feature point pairs photographed in two pieces of image data are not on the same point but on the same straight line. It is a figure explaining the process of a three-dimensional coordinate calculation means. この発明の実施の形態1において、特徴点が線で表現されており、拘束条件として、2枚の画像データに撮影されている特徴点ペアが同一線分ではなく同一直線上にあるとした場合の3次元座標計算手段の処理を説明する図である。In the first embodiment of the present invention, the feature points are represented by lines, and as a constraint condition, the feature point pairs photographed in two pieces of image data are not on the same line segment but on the same straight line It is a figure explaining the process of this three-dimensional coordinate calculation means. この発明の実施の形態2による寸法計測箇所の寸法を計測するための処理を示すフローチャートである。It is a flowchart which shows the process for measuring the dimension of the dimension measurement location by Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 演算処理手段、2 記憶手段、3 一時記憶手段、4 入力手段、5 表示手段、6 デジタルカメラ、7 撮影対象現場、8 マーカー、10 ステレオ写真計測処理手段、11 レンズ歪み補正手段、12 カメラ位置認識手段、13 特徴点認識手段、14 特徴点入力手段、15 3次元座標計算手段、16 寸法計算手段、17 寸法表示手段、21 画像データ、22 カメラ内部パラメータ、23 設計情報、24 プログラム。   DESCRIPTION OF SYMBOLS 1 Computation processing means, 2 Storage means, 3 Temporary storage means, 4 Input means, 5 Display means, 6 Digital camera, 7 Shooting object site, 8 Marker, 10 Stereo photograph measurement processing means, 11 Lens distortion correction means, 12 Camera position Recognition means, 13 feature point recognition means, 14 feature point input means, 15 three-dimensional coordinate calculation means, 16 dimension calculation means, 17 dimension display means, 21 image data, 22 camera internal parameters, 23 design information, 24 program.

Claims (6)

互いに離れた2箇所からカメラを用いて基準位置を示すマーカー及び計測対象を撮影した2枚の画像データを記憶する画像データ記憶手段と、
上記計測対象の寸法計測箇所並びに上記計測対象の稜線の直線方向成分及び平面の法線方向成分のいずれか一方又は両方の幾何学的情報を含む設計情報を記憶する設計情報記憶手段と、
上記画像データから上記マーカーを画像処理によって認識して、上記カメラと上記マーカーとの相対位置関係を、上記カメラのレンズの投影変換行列を用いて求めるカメラ位置認識手段と、
上記画像データの画像に撮影された点、線、平面及び立体形状の特徴点を画像処理によって又は入力デバイスからの入力情報によって抽出する特徴点抽出手段と、
上記幾何学的情報から定まる拘束条件、上記投影変換行列、上記相対位置関係及び三角測量の原理を用いて、一方の画像データの特徴点で構成される第一特徴部及びこの第一特徴部に対応して他方の画像データの特徴点で構成される第二特徴部に対応する上記計測対象の3次元座標を計算する3次元座標計算手段と、
上記3次元座標から上記寸法計測箇所の寸法を計算する寸法計算手段とを備えたステレオ写真計測装置。
Image data storage means for storing two sets of image data obtained by photographing a marker indicating a reference position and a measurement target using a camera from two locations separated from each other;
Design information storage means for storing design information including geometric information of one or both of the dimension measurement location of the measurement target and the linear direction component of the ridge line of the measurement target and the normal direction component of the plane;
Camera position recognition means for recognizing the marker from the image data by image processing, and obtaining a relative positional relationship between the camera and the marker using a projection transformation matrix of the lens of the camera;
Feature point extraction means for extracting feature points of points, lines, planes, and three-dimensional shapes photographed in the image of the image data by image processing or by input information from an input device;
Using the constraint conditions determined from the geometric information, the projection transformation matrix, the relative positional relationship, and the principle of triangulation, the first feature portion composed of feature points of one image data and the first feature portion Correspondingly, a three-dimensional coordinate calculation means for calculating the three-dimensional coordinates of the measurement object corresponding to the second feature portion constituted by the feature points of the other image data,
A stereo photo measurement apparatus comprising: a dimension calculation means for calculating a dimension of the dimension measurement location from the three-dimensional coordinates.
上記3次元座標計算手段は、上記特徴点が点で表現されており、上記拘束条件が直線で与えられている場合に、3次元座標において上記第一特徴部と上記第二特徴部の組合せである特徴部ペアを構成する点が同一の直線上にあるという拘束条件を使用して、上記特徴点の3次元座標を計算することを特徴とする請求項1記載のステレオ写真計測装置。   In the three-dimensional coordinate calculation means, when the feature point is expressed by a point and the constraint condition is given by a straight line, the combination of the first feature part and the second feature part in three-dimensional coordinates. 2. The stereo photograph measuring apparatus according to claim 1, wherein the three-dimensional coordinates of the feature points are calculated using a constraint condition that points constituting a certain feature pair are on the same straight line. 上記3次元座標計算手段は、上記特徴点が線、平面又は立体で表現されており、拘束条件が直線で与えられている場合に、3次元座標において、上記第一特徴部と上記第二特徴部の組合せである特徴部ペアを構成する線分の中点が同一の直線上にあり、各特徴点の両端点が上記各中点を通過する直線上にあるという拘束条件を使用して、上記特徴点の3次元座標を計算することを特徴とする請求項1記載のステレオ写真計測装置。   In the three-dimensional coordinate calculation means, when the feature point is expressed by a line, a plane, or a solid and the constraint condition is given by a straight line, the first feature portion and the second feature are expressed in three-dimensional coordinates. Using the constraint that the midpoints of the line segments that make up the feature pair that is a combination of parts are on the same straight line, and both end points of each feature point are on a straight line that passes through each midpoint, 2. The stereo photograph measuring apparatus according to claim 1, wherein three-dimensional coordinates of the feature points are calculated. 上記3次元座標計算手段は、上記特徴点が線、平面又は立体で表現されており、拘束条件が平面で与えられている場合に、3次元座標において、上記第一特徴部と上記第二特徴部の組合せである特徴点ペアを構成する線分の中点が同一の平面上にあり、各線分の両端点が上記各中点を通過する平面上にあるという拘束条件を使用して、上記特徴点の3次元座標を計算することを特徴とする請求項1記載のステレオ写真計測装置。   In the three-dimensional coordinate calculation means, when the feature point is expressed by a line, a plane, or a solid, and the constraint condition is given by a plane, the first feature portion and the second feature are expressed in three-dimensional coordinates. Using the constraint that the midpoints of the line segments that make up the feature point pair that is a combination of parts are on the same plane, and both end points of each line segment are on the plane that passes through each midpoint, the above 2. The stereo photograph measuring apparatus according to claim 1, wherein three-dimensional coordinates of the feature points are calculated. 互いに離れた2箇所からカメラを用いて基準位置を示すマーカー及び計測対象を撮影した2枚の画像データを記憶する画像データ記憶手段と、
上記計測対象の寸法計測箇所並びに上記計測対象の稜線の直線方向成分及び平面の法線方向成分のいずれか一方又は両方の幾何学的情報を含む設計情報を記憶する設計情報記憶手段とを備えて、上記寸法計測箇所の寸法を計算するステレオ写真計測方法であって、
カメラ位置認識手段が、上記画像データから上記マーカーを画像処理によって認識して、上記カメラと上記マーカーとの相対位置関係を、上記カメラのレンズの投影変換行列を用いて求めるステップと、
特徴点抽出手段が上記画像データの画像に撮影された点、線、平面及び立体形状の特徴点を画像処理によって又は入力デバイスからの入力情報によって抽出するステップと、
3次元座標計算手段が、上記幾何学的情報から定まる拘束条件、上記投影変換行列、上記相対位置関係及び三角測量の原理を用いて、一方の画像データの特徴点で構成される第一特徴部及びこの第一特徴部に対応して他方の画像データの特徴点で構成される第二特徴部に対応する上記計測対象の3次元座標を計算するステップと、
寸法計算手段が上記3次元座標から上記寸法計測箇所の寸法を計算するステップとを備えたことを特徴とするステレオ写真計測方法。
Image data storage means for storing two sets of image data obtained by photographing a marker indicating a reference position and a measurement target using a camera from two locations separated from each other;
Design information storage means for storing design information including geometric information of one or both of the dimension measurement location of the measurement target and the linear direction component and the plane normal direction component of the ridge line of the measurement target , A stereo photo measuring method for calculating the dimensions of the above dimension measuring points,
Camera position recognizing means for recognizing the marker from the image data by image processing, and determining a relative positional relationship between the camera and the marker using a projection transformation matrix of the lens of the camera;
A step of extracting feature points of points, lines, planes, and three-dimensional shapes taken by the feature point extraction means in the image of the image data by image processing or by input information from an input device;
A first feature portion in which the three-dimensional coordinate calculation means is composed of feature points of one image data using the constraint conditions determined from the geometric information, the projection transformation matrix, the relative positional relationship, and the principle of triangulation And calculating the three-dimensional coordinates of the measurement object corresponding to the second feature portion constituted by the feature points of the other image data corresponding to the first feature portion;
And a step of calculating a dimension of the dimension measurement portion from the three-dimensional coordinates.
コンピュータを、
互いに離れた2箇所からカメラを用いて基準位置を示すマーカー及び計測対象を撮影した2枚の画像データを記憶する画像データ記憶手段、
上記計測対象の寸法計測箇所並びに上記計測対象の稜線の直線方向成分及び平面の法線方向成分のいずれか一方又は両方の幾何学的情報を含む設計情報を記憶する設計情報記憶手段、
上記画像データから上記マーカーを画像処理によって認識して、上記カメラと上記マーカーとの相対位置関係を、上記カメラのレンズの投影変換行列を用いて求めるカメラ位置認識手段、
上記画像データの画像に撮影された点、線、平面及び立体形状の特徴点を画像処理によって又は入力デバイスからの入力情報によって抽出する特徴点抽出手段、
上記幾何学的情報から定まる拘束条件、上記投影変換行列、上記相対位置関係及び三角測量の原理を用いて、一方の画像データの特徴点で構成される第一特徴部及びこの第一特徴部に対応して他方の画像データの特徴点で構成される第二特徴部に対応する上記計測対象の3次元座標を計算する3次元座標計算手段、
上記3次元座標から上記寸法計測箇所の寸法を計算する寸法計算手段、
として機能させるためのステレオ写真計測用プログラム。
Computer
An image data storage means for storing a marker indicating a reference position using two cameras away from each other and two pieces of image data obtained by photographing a measurement target;
Design information storage means for storing design information including geometric information of one or both of the dimension measurement location of the measurement object and the linear direction component of the ridge line of the measurement object and the normal direction component of the plane;
Camera position recognizing means for recognizing the marker from the image data by image processing and obtaining a relative positional relationship between the camera and the marker using a projection transformation matrix of the lens of the camera;
Feature point extraction means for extracting feature points of points, lines, planes, and three-dimensional shapes photographed in the image of the image data by image processing or by input information from an input device;
Using the constraint conditions determined from the geometric information, the projection transformation matrix, the relative positional relationship, and the principle of triangulation, the first feature portion composed of feature points of one image data and the first feature portion Correspondingly, a three-dimensional coordinate calculation means for calculating the three-dimensional coordinates of the measurement object corresponding to the second feature portion constituted by the feature points of the other image data,
A dimension calculation means for calculating the dimension of the dimension measurement location from the three-dimensional coordinates;
Stereo photo measurement program to function as
JP2007060684A 2007-03-09 2007-03-09 Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program Pending JP2008224323A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007060684A JP2008224323A (en) 2007-03-09 2007-03-09 Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007060684A JP2008224323A (en) 2007-03-09 2007-03-09 Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program

Publications (1)

Publication Number Publication Date
JP2008224323A true JP2008224323A (en) 2008-09-25

Family

ID=39843137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007060684A Pending JP2008224323A (en) 2007-03-09 2007-03-09 Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program

Country Status (1)

Country Link
JP (1) JP2008224323A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197198A (en) * 2009-02-25 2010-09-09 Roland Dg Corp Highly precise stereo camera calibration by difference in image
JP2012068062A (en) * 2010-09-21 2012-04-05 Fuji Xerox Co Ltd Alignment device, alignment system and alignment program
JP2018066741A (en) * 2014-06-13 2018-04-26 三菱電機株式会社 Measuring method of elevator hoistway dimension
JP2020173167A (en) * 2019-04-10 2020-10-22 株式会社神戸製鋼所 Three-dimensional position measuring device, three-dimensional position measuring method, and program
CN115388826A (en) * 2022-11-01 2022-11-25 中交第一航务工程局有限公司 Method for establishing final joint measuring reference and measuring method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197198A (en) * 2009-02-25 2010-09-09 Roland Dg Corp Highly precise stereo camera calibration by difference in image
JP2012068062A (en) * 2010-09-21 2012-04-05 Fuji Xerox Co Ltd Alignment device, alignment system and alignment program
JP2018066741A (en) * 2014-06-13 2018-04-26 三菱電機株式会社 Measuring method of elevator hoistway dimension
JP2020173167A (en) * 2019-04-10 2020-10-22 株式会社神戸製鋼所 Three-dimensional position measuring device, three-dimensional position measuring method, and program
JP7136737B2 (en) 2019-04-10 2022-09-13 株式会社神戸製鋼所 Three-dimensional position measuring device, three-dimensional position measuring method and program
CN115388826A (en) * 2022-11-01 2022-11-25 中交第一航务工程局有限公司 Method for establishing final joint measuring reference and measuring method
CN115388826B (en) * 2022-11-01 2023-02-17 中交第一航务工程局有限公司 Method for establishing final joint measuring reference and measuring method

Similar Documents

Publication Publication Date Title
CN103765870B (en) Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP5745178B2 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP5715735B2 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
WO2014061372A1 (en) Image-processing device, image-processing method, and image-processing program
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
WO2017022033A1 (en) Image processing device, image processing method, and image processing program
US20120069018A1 (en) Ar process apparatus, ar process method and storage medium
KR20150120066A (en) System for distortion correction and calibration using pattern projection, and method using the same
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
CN111879235A (en) Three-dimensional scanning detection method and system for bent pipe and computer equipment
US10205928B2 (en) Image processing apparatus that estimates distance information, method of controlling the same, and storage medium
CN111882655B (en) Method, device, system, computer equipment and storage medium for three-dimensional reconstruction
JP2009205193A (en) Image processing apparatus, method, and program
KR20240089161A (en) Filming measurement methods, devices, instruments and storage media
WO2015098222A1 (en) Information processing device, information processing method, and program
KR102129206B1 (en) 3 Dimensional Coordinates Calculating Apparatus and 3 Dimensional Coordinates Calculating Method Using Photo Images
JP2007212187A (en) Stereo photogrammetry system, stereo photogrammetry method, and stereo photogrammetry program
JP6467612B2 (en) In-place image processing system and structure maintenance management business system
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
JP2006113832A (en) Stereoscopic image processor and program
KR101996226B1 (en) Apparatus for measuring three-dimensional position of subject and method thereof
JP2004020398A (en) Method, device, and program for acquiring spatial information and recording medium recording program
JP5464671B2 (en) Image processing apparatus, image processing method, and image processing program
KR100953737B1 (en) System for drawing manhole using image matching

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080707