JP2006059165A - Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium - Google Patents
Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium Download PDFInfo
- Publication number
- JP2006059165A JP2006059165A JP2004241033A JP2004241033A JP2006059165A JP 2006059165 A JP2006059165 A JP 2006059165A JP 2004241033 A JP2004241033 A JP 2004241033A JP 2004241033 A JP2004241033 A JP 2004241033A JP 2006059165 A JP2006059165 A JP 2006059165A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- dimensional modeling
- calibration
- voxel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物の画像から該対象物の3次元データを生成する3次元モデリング装置、またこれに関連する、幾何学パターン、3次元モデリングデータ生成方法、3次元モデリングプログラムおよび記録媒体に関する。 The present invention relates to a three-dimensional modeling apparatus that generates three-dimensional data of an object from an image of the object, and a geometric pattern, a three-dimensional modeling data generation method, a three-dimensional modeling program, and a recording medium related thereto.
従来から、現実世界に存在する物体の3次元形状をデータ化する手法が提案されている。例えば、多視点画像間の対応点を求めて三角測量によって距離を計測する手法やレーザーなどのパターン光を照射してそれを手がかりとして距離を計測する手法である。 Conventionally, a method for converting a three-dimensional shape of an object existing in the real world into data has been proposed. For example, there are a method for obtaining a corresponding point between multi-viewpoint images and measuring a distance by triangulation or a method for measuring a distance by irradiating pattern light such as a laser and using it as a clue.
しかし、これらの手法は、対応点の探索において多くの誤りが発生する、あるいは、大がかりな装置を必要とするために機器が設置された特定の場所でしか入力が行えないといった問題があった。 However, these methods have a problem that many errors occur in searching for corresponding points, or input is possible only at a specific place where the device is installed because a large-scale device is required.
そこで、シルエット画像を用いて物体の形状を推定するという方法が提案されている。この方法は視体積交差法と呼ばれ、「Wu他,“3次元ビデオ映像の能動的実時間撮影と対話的編集・表示”,信学技法PRMU2001-187,Feb.2001」で開示されている。これを利用した従来技術が、特許文献1〜5に記載されている。 Therefore, a method for estimating the shape of an object using a silhouette image has been proposed. This method is called visual volume intersection method and is disclosed in “Wu et al.,“ Active real-time photography and interactive editing and display of 3D video images ”, IEICE PRMU2001-187, Feb.2001”. . The prior art using this is described in Patent Documents 1-5.
特許文献1記載の従来技術では以下の工程によって3次元モデリングを行う。まず、物体の3次元形状データから仮想空間に表した物体のコンピュータグラフィックス画像を、仮想空間において複数のカメラ位置でキャプチャすることによって、複数のイメージを生成する。ついで、キャプチャしたときの上記カメラ位置におけるカメラデータを生成する。ついで、上記イメージデータおよびカメラデータに基づいて物体の形状と、テクスチャとを個別に処理することによって物体の復元データを生成する。 In the prior art described in Patent Document 1, three-dimensional modeling is performed by the following steps. First, a plurality of images are generated by capturing computer graphics images of an object represented in the virtual space from the three-dimensional shape data of the object at a plurality of camera positions in the virtual space. Next, the camera data at the camera position when captured is generated. Next, object restoration data is generated by individually processing the shape and texture of the object based on the image data and camera data.
また、特許文献2記載の従来技術は、立体形状である被写体をその周囲に配置した複数のカメラで撮影した複数のカメラ画像に基づいて、前記被写体の3次元形状データを生成する3次元モデリング装置であり、以下の工程によって3次元モデリングを行う。まず、複数のカメラ画像から、前記被写体に外接するその被写体の概形形状を計測する概形形状計測する。ついで、この概形形状計測手段によって計測された前記概形形状の近傍を探索範囲として、前記複数のカメラの中で、順次基準となる基準カメラを切り換えて撮影した基準カメラ画像と、前記基準カメラに隣接する隣接カメラで撮影した隣接カメラ画像とに基づいて、前記基準カメラ画像内の被写体画像に対応する対応点を、前記隣接カメラ画像から探索する。ついで、この対応点探索手段によって探索された前記被写体の対応点の前記基準カメラと前記隣接カメラとの間隔に基づいて、前記基準カメラから前記対応点への距離を算出する。ついで、この距離情報算出手段によって算出された前記複数のカメラから前記被写体の対応点への距離に基づいて、前記被写体の3次元形状データを生成する。 The prior art described in Patent Document 2 is a three-dimensional modeling device that generates three-dimensional shape data of a subject based on a plurality of camera images obtained by photographing a subject having a three-dimensional shape with a plurality of cameras arranged around the subject. 3D modeling is performed by the following steps. First, a rough shape measurement is performed to measure a rough shape of a subject circumscribing the subject from a plurality of camera images. Next, a reference camera image taken by sequentially switching a reference camera serving as a reference among the plurality of cameras, using the vicinity of the approximate shape measured by the approximate shape measuring means as a search range, and the reference camera Corresponding points corresponding to the subject image in the reference camera image are searched from the adjacent camera image based on the adjacent camera image taken by the adjacent camera adjacent to the image. Next, the distance from the reference camera to the corresponding point is calculated based on the distance between the reference camera and the adjacent camera of the corresponding point of the subject searched by the corresponding point searching means. Next, the three-dimensional shape data of the subject is generated based on the distances from the plurality of cameras to the corresponding points of the subject calculated by the distance information calculating means.
また、特許文献3記載の従来技術は以下の工程によって3次元モデリングを行う。まず、前記3次元物体に対し、パターン光を照射する。ついで、前記3次元物体の画像を入力する。ついで、前記入力された画像から概略形状を計算する。ついで、前記入力された画像から詳細形状を計算する。ついで、前記計算された概略形状及び詳細形状に基づいて、前記3次元物体の3次元形状データを生成する。 The prior art described in Patent Document 3 performs three-dimensional modeling by the following steps. First, pattern light is irradiated to the three-dimensional object. Next, an image of the three-dimensional object is input. Next, the approximate shape is calculated from the input image. Next, a detailed shape is calculated from the input image. Next, three-dimensional shape data of the three-dimensional object is generated based on the calculated schematic shape and detailed shape.
また、特許文献4記載の従来技術は以下の工程によって3次元モデリングを行う。まず、
物体についての視点の異なる複数の画像からシルエット法を用いてボリュームデータに変換することによって第1のボリュームデータを生成する。ついで、前記物体について3次元計測によって得られた3次元データをボリュームデータに変換することによって第2のボリュームデータを生成する。ついで、前記第1のボリュームデータと第2のボリュームデータとを統合して1つのボリュームデータとする。
The prior art described in Patent Document 4 performs three-dimensional modeling by the following steps. First,
First volume data is generated by converting a plurality of images of objects with different viewpoints into volume data using a silhouette method. Next, second volume data is generated by converting the three-dimensional data obtained by the three-dimensional measurement for the object into volume data. Next, the first volume data and the second volume data are integrated into one volume data.
また、特許文献5記載の従来技術は同一被写体を多数の視点方向から撮影した複数枚の撮影画像及びそれらの視点情報を入力とし、その被写体の概略形状を復元し、さらにその形状表面に視点に応じた撮影画像の色情報を付加する3次元画像情報生成方法(より具体的には、同一被写体を多数の視点方向から撮影した複数枚の撮影画像及びそれらの視点情報を入力とし、その被写体の概略形状を復元し、さらにその形状表面に視点に応じた撮影画像の色情報を付加する3次元画像情報生成方法)であり、以下の工程によって3次元画像情報を生成する。まず、上記撮影画像のうちの被写体の全形が撮影されている画像複数枚をシルエット画像として選択し、そのシルエット情報を用いて、被写体の概略形状を微少領域の集合として復元する。ついで、前記復元された概略形状に撮影画像の色情報を付加するための六角形画像の大きさ及び形状と六角形画像を構成する六角形画素と撮影画像との対応付けを決定する。ついで、前記対応付けを決定する段階で求めた六角形画像を形状表面上の全微少領域に割当て、その微少領域毎に、撮影画像の視点と微少領域を結ぶ射影線と撮影画像との交点上の色を、対応する六角形画素に割当てる。ついで、前記割当てる段階において色が割当てられなかった六角形画素について、隣接六角形画素の色を用いて色を決定する段階と、前記六角形画素で構成される全ての六角形画像を二次元配列の画像データに変換し、それら画像データを1枚ないしは複数枚の画像データにマージする。
しかしながら、特許文献1記載の従来技術では、既にコンピュータグラフィックによって表示された仮想空間の物体を対象としており、現実世界の物体をモデリングするには、これをコンピュータグラフィックに入力するシステムが必要となる。また、特許文献2記載の従来技術では、立体形状である被写体をその周囲に配置した複数のカメラで撮影しなければならないため、撮影時に大掛かりなカメラシステムが必要となる。また、特許文献3記載の従来技術では、パターン光を照射する装置が必要となる。また、特許文献4記載の従来技術では、第2のボリュームデータを生成する際、物体について3次元計測によって得られた3次元データをボリュームデータに変換するため、物体についての3次元計測が必要となる。また、特許文献5記載の従来技術では、被写体の全形が撮影されている画像が複数必要であるなど、同一被写体を多数の視点方向から撮影しなければならない。 However, in the conventional technique described in Patent Document 1, an object in a virtual space that has already been displayed by computer graphics is targeted, and in order to model an object in the real world, a system that inputs this into computer graphics is required. In the prior art described in Patent Document 2, since a subject having a three-dimensional shape has to be photographed by a plurality of cameras arranged around it, a large camera system is required at the time of photographing. Moreover, in the prior art described in Patent Document 3, an apparatus for irradiating pattern light is required. Further, in the prior art described in Patent Document 4, when generating the second volume data, the three-dimensional data obtained by the three-dimensional measurement for the object is converted into the volume data, so that the three-dimensional measurement for the object is required. Become. Further, in the prior art described in Patent Document 5, it is necessary to photograph the same subject from many viewpoint directions, for example, a plurality of images in which the entire shape of the subject is photographed are necessary.
このように、上記従来技術では、大掛かりな撮影装置や複雑な撮影あるいは大量のデータ処理が要求され、簡易に3次元データを生成することができなかった。 As described above, in the above-described conventional technique, a large-scale photographing apparatus, complicated photographing, or a large amount of data processing is required, and three-dimensional data cannot be easily generated.
本発明の3次元モデリング装置は、上記課題を解決するためになされたものであり、その目的は、対象物を簡易に3次元モデリングすることのできる3次元モデリング装置を提供する点にある。 The three-dimensional modeling apparatus of the present invention has been made to solve the above-described problems, and an object thereof is to provide a three-dimensional modeling apparatus that can easily three-dimensionally model an object.
本発明の3次元モデリング装置は、上記課題を解決するために、対象物が幾何学パターンとともに撮影された各画像より得られる画像データからキャリブレーションデータを算出するキャリブレーション手段と、幾何学パターンのみが撮影された基準画像より得られる基準幾何学パターンデータ並びに上記画像データおよびこれに対応する上記キャリブレーションデータを用いて上記対象物のシルエットデータを算出するシルエット抽出手段と、複数の画像それぞれに対応する、シルエットデータおよびキャリブレーションデータを用いて3次元データを生成する3次元データ生成手段とを備えることを特徴としている。 In order to solve the above-described problem, the three-dimensional modeling apparatus of the present invention includes a calibration unit that calculates calibration data from image data obtained from each image in which an object is photographed together with a geometric pattern, and only the geometric pattern. A silhouette extraction means for calculating silhouette data of the object using the reference geometric pattern data obtained from the reference image taken of the image, the image data and the calibration data corresponding to the image data, and corresponding to each of a plurality of images And a three-dimensional data generating means for generating three-dimensional data using silhouette data and calibration data.
上記構成においては、キャリブレーション手段は、対象物が幾何学パターンとともに撮影された画像より得られる画像データから、キャリブレーションデータ(例えば、画像の座標系とカメラの座標系とを対応付ける射影行列やカメラパラメータ)を算出する。 In the above-described configuration, the calibration means includes calibration data (for example, a projection matrix or a camera that associates the coordinate system of the image with the coordinate system of the camera from image data obtained from an image obtained by photographing the object together with the geometric pattern. Parameter).
また、シルエット抽出手段は、幾何学パターンのみが撮影された基準画像より得られる基準幾何学パターンデータおよび上記キャリブレーションデータ並びに上記画像データを用いて上記対象物のシルエットデータを算出する。 The silhouette extracting means calculates the silhouette data of the object using the reference geometric pattern data obtained from the reference image obtained by photographing only the geometric pattern, the calibration data, and the image data.
また、3次元データ生成手段は、上記シルエットデータおよびキャリブレーションデータに基づいて3次元データを生成する。 The three-dimensional data generation means generates three-dimensional data based on the silhouette data and the calibration data.
このように、本発明の3次元モデリング装置は、対象物を幾何学パターンとともに撮影した画像および幾何学パターンのみが撮影された基準画像(あるいは、基準幾何学パターンデータ自体)だけから対象物の3次元モデリングを行うものである。 As described above, the three-dimensional modeling apparatus according to the present invention is an image obtained by photographing an object together with a geometric pattern and a reference image obtained by photographing only the geometric pattern (or reference geometric pattern data itself). Dimension modeling is performed.
したがって、従来のように専用の撮影機材や処理装置を必要とすることなく、手軽に(簡易に)様々な対象物を3次元データ化することができる。これにより、本発明の3次元モデリング装置を娯楽、流通(例えば、WEBショップの商品画像)、医療(例えば、生体の3次元データ化)等に用いれば、大変有用で便利である。 Therefore, it is possible to easily (simplely) convert various objects into three-dimensional data without requiring dedicated photographing equipment and processing devices as in the prior art. Accordingly, if the three-dimensional modeling apparatus of the present invention is used for entertainment, distribution (for example, product images of a WEB shop), medical treatment (for example, three-dimensional data of a living body), etc., it is very useful and convenient.
本発明の3次元モデリング装置においては、上記幾何学パターンが平面の幾何学パターンであり、キャリブレーション手段は、平面キャリブレーションを行うことによってキャリブレーションデータを算出することが好ましい。 In the three-dimensional modeling apparatus of the present invention, it is preferable that the geometric pattern is a planar geometric pattern, and the calibration means calculates calibration data by performing planar calibration.
上記構成によれば、幾何学パターンが平面であることから、例えば、携帯可能な幾何学パターンボードのようなものを上記幾何学パターンとして利用できる。また、キャリブレーション手段は平面キャリブレーションを行えば良いことから、処理すべきデータ量も削減される。この結果、より一層手軽に(簡易に)様々な対象物を3次元データ化することができる。 According to the above configuration, since the geometric pattern is a plane, for example, a portable geometric pattern board can be used as the geometric pattern. In addition, since the calibration means only needs to perform plane calibration, the amount of data to be processed is also reduced. As a result, various objects can be converted into three-dimensional data more easily (simplely).
また、本発明の3次元モデリング装置においては、上記幾何学パターンはチェックパターンであることが好ましい。幾何学パターンをチェックパターンにした場合、キャリブレーションやシルエット抽出が容易である。 In the three-dimensional modeling apparatus of the present invention, the geometric pattern is preferably a check pattern. When a geometric pattern is used as a check pattern, calibration and silhouette extraction are easy.
また、本発明の3次元モデリング装置においては、上記3次元データ生成手段がボクセルデータを生成するボクセルデータ生成手段であり、3次元データの生成を容易にすることが好ましい。 In the three-dimensional modeling apparatus of the present invention, it is preferable that the three-dimensional data generation unit is a voxel data generation unit that generates voxel data, and facilitates the generation of the three-dimensional data.
また、本発明の3次元モデリング装置においては、キャリブレーション手段が処理対象とする上記各画像に対して、上記対象物を取り囲むような複数の点を入力できる入力部を備えることが好ましい。当該構成によれば、キャリブレーション処理を効率的に行うことができる。 In the three-dimensional modeling apparatus of the present invention, it is preferable that an input unit that can input a plurality of points surrounding the object is provided for each image to be processed by the calibration unit. According to this configuration, the calibration process can be performed efficiently.
また、本発明の3次元モデリング装置においては、上記キャリブレーションデータに、上記各画像および幾何学パターンを対応づける射影行列データと、撮影視点データ(例えば、カメラパラメータ)とが含まれており、上記シルエット抽出手段は、上記射影行列データによる基準幾何学パターンデータの変換データと対応する上記画像データとの差分処理によってシルエットデータを算出することが好ましい。当該構成によれば、シルエット抽出処理を効率的に行うことができる。 In the three-dimensional modeling apparatus of the present invention, the calibration data includes projection matrix data that associates each image and geometric pattern, and photographing viewpoint data (for example, camera parameters). The silhouette extracting means preferably calculates the silhouette data by a difference process between the conversion data of the reference geometric pattern data based on the projection matrix data and the corresponding image data. According to this configuration, the silhouette extraction process can be performed efficiently.
また、本発明の3次元モデリング装置においては、上記キャリブレーションデータに、上記各画像および幾何学パターンを対応づける射影行列データと、撮影視点データ(例えば、カメラパラメータ)とが含まれており、上記ボクセルデータ生成手段は、上記射影行列データによるボクセル空間の射影データと上記シルエットデータとの交差判定処理によってボクセルデータを生成する好ましい。当該構成によれば、ボクセルデータ生成処理を効率的に行うことができる。 In the three-dimensional modeling apparatus of the present invention, the calibration data includes projection matrix data that associates each image and geometric pattern, and photographing viewpoint data (for example, camera parameters). Preferably, the voxel data generation means generates voxel data by an intersection determination process between the projection data in the voxel space based on the projection matrix data and the silhouette data. According to this configuration, the voxel data generation process can be performed efficiently.
また、本発明の3次元モデリング装置においては、上記ボクセルデータから、内部のボクセルに関するデータを削除するボクセルデータ修正手段を備えることが好ましい。当該構成によれば、不要なボクセルデータを削減することで、データ処理効率を向上させることができる。 In the three-dimensional modeling apparatus of the present invention, it is preferable that voxel data correction means for deleting data related to internal voxels from the voxel data is provided. According to this configuration, it is possible to improve data processing efficiency by reducing unnecessary voxel data.
本発明の3次元モデリング装置においては、上記ボクセルデータから表面情報であるポリゴンデータを生成するポリゴンデータ生成手段を備えることが好ましい。当該構成によれば、対象物の表面情報(データ)のみを処理することで、データ処理効率を向上させることができる。 The three-dimensional modeling apparatus of the present invention preferably includes polygon data generation means for generating polygon data as surface information from the voxel data. According to the said structure, data processing efficiency can be improved by processing only the surface information (data) of a target object.
また、本発明の3次元モデリング装置においては、上記画像データおよびキャリブレーションデータ並びにポリゴンデータを用いて、該ポリゴンデータに対応づける色データを生成する色データ生成手段を備えることが好ましい。当該構成によれば、対象物をカラーで表現することができ、対象物の表現力を向上させることができる。なお、この場合、上記色データ生成手段は、上記撮影視点データおよびポリゴンデータを用いて上記画像から色生成に適した画像を選択し、この選択した画像の画像データと、上記ポリゴンデータに上記射影行列データを用いて射影処理したデータとの対応付けによって色データを生成することが好ましい。こうすれば、色データ生成処理を効率的に行うことができる。 The three-dimensional modeling apparatus of the present invention preferably includes color data generation means for generating color data associated with the polygon data using the image data, calibration data, and polygon data. According to the said structure, a target object can be expressed with a color and the expressive power of a target object can be improved. In this case, the color data generating means selects an image suitable for color generation from the image using the photographing viewpoint data and polygon data, and the projection is applied to the image data of the selected image and the polygon data. It is preferable to generate color data by associating with projection data using matrix data. In this way, color data generation processing can be performed efficiently.
また、本発明の幾何学パターンは、上記3次元モデリング装置の入力画像の撮影用として用いることができることを特徴としている。 The geometric pattern of the present invention is characterized in that it can be used for taking an input image of the three-dimensional modeling apparatus.
また、本発明の3次元モデリングデータの生成方法は、対象物が平面状の幾何学パターンとともに撮影された各画像より得られる画像データからキャリブレーションデータを算出するキャリブレーション工程と、幾何学パターンのみが撮影された基準画像より得られる基準幾何学パターンデータおよび上記画像データ並びにこれに対応するキャリブレーションデータを用いて上記対象物のシルエットデータを算出するシルエット抽出工程と、複数の画像それぞれに対応する、シルエットデータおよびキャリブレーションデータを用いてボクセルデータを生成するボクセルデータ生成工程とを含むことを特徴としている。 The three-dimensional modeling data generation method of the present invention includes a calibration process for calculating calibration data from image data obtained from each image obtained by photographing an object together with a planar geometric pattern, and only the geometric pattern. A silhouette extraction step of calculating silhouette data of the object using reference geometric pattern data obtained from a reference image taken of the image, the image data, and calibration data corresponding thereto, and each of the plurality of images And a voxel data generation step of generating voxel data using silhouette data and calibration data.
また、本発明の3次元モデリングプログラムは、上記3次元モデリング装置の各手段をコンピュータに実現させることを特徴としている。 The three-dimensional modeling program of the present invention is characterized by causing a computer to realize each means of the three-dimensional modeling apparatus.
また、本発明の記録媒体は、上記3次元モデリングプログラムがコンピュータに読み取り可能に格納されていることを特徴としている。 The recording medium of the present invention is characterized in that the above three-dimensional modeling program is stored in a computer so as to be readable.
以上のように、本発明の3次元モデリング装置は、対象物を幾何学パターンとともに撮影した画像および幾何学パターンのみが撮影された基準画像(あるいは、基準幾何学パターンデータ自体)だけから対象物の3次元モデリングを行うものである。したがって、従来のように専用の撮影機材や処理装置を必要とすることなく、手軽に(簡易に)様々な対象物を3次元データ化することができる。これにより、本発明の3次元モデリング装置を娯楽、流通(例えば、WEBショップの商品画像)、医療(例えば、生体の3次元データ化)等に用いれば、大変有用で便利である。 As described above, the three-dimensional modeling apparatus of the present invention can capture an object from only an image obtained by photographing an object together with a geometric pattern and a reference image obtained by photographing only the geometric pattern (or reference geometric pattern data itself). 3D modeling is performed. Therefore, it is possible to easily (simplely) convert various objects into three-dimensional data without requiring dedicated photographing equipment and processing devices as in the prior art. Accordingly, if the three-dimensional modeling apparatus of the present invention is used for entertainment, distribution (for example, product images of a WEB shop), medical treatment (for example, three-dimensional data of a living body), etc., it is very useful and convenient.
本発明の実施の一形態を、図1〜図7を用いて説明すれば、以下のとおりである。 An embodiment of the present invention will be described below with reference to FIGS.
ここで図1は、本実施の形態に係る3次元モデリング装置1の構成を示すブロック図である。 Here, FIG. 1 is a block diagram showing a configuration of the three-dimensional modeling apparatus 1 according to the present embodiment.
図1に示されるように、本発明の3次元モデリング装置1は、制御部2と、記憶部3と、ユーザインターフェース23(入力部)と、表示部9とを備える。 As shown in FIG. 1, the three-dimensional modeling apparatus 1 of the present invention includes a control unit 2, a storage unit 3, a user interface 23 (input unit), and a display unit 9.
制御部2は、データ入力部6と、キャリブレーション部10(キャリブレーション手段)と、シルエット抽出部11(シルエット抽出手段)と、ボクセルデータ生成部12(3次元データ生成手段、ボクセルデータ生成手段)と、ボクセルデータ修正部13(ボクセルデータ修正手段)と、ポリゴンデータ生成部15(ポリゴンデータ生成手段)と、色データ生成部16(色データ生成手段)と、色データ付加部17と、表示制御部21とを備える。 The control unit 2 includes a data input unit 6, a calibration unit 10 (calibration unit), a silhouette extraction unit 11 (silhouette extraction unit), and a voxel data generation unit 12 (three-dimensional data generation unit, voxel data generation unit). A voxel data correcting unit 13 (voxel data correcting unit), a polygon data generating unit 15 (polygon data generating unit), a color data generating unit 16 (color data generating unit), a color data adding unit 17, and a display control. Part 21.
制御部2は、入力された対象物の画像データから該対象物のボクセルデータを生成し、これをポリゴンデータに変換し、かつ色データを付加して表示部9に表示させる。なお、制御部2の各部の機能は、例えば、記憶部3等のメモリに格納された所定のプログラムを、図示しないマイクロプロセッサなどが実行することにより実現される(後述)。 The control unit 2 generates voxel data of the object from the input image data of the object, converts it into polygon data, adds color data, and causes the display unit 9 to display the data. Note that the function of each unit of the control unit 2 is realized, for example, by executing a predetermined program stored in a memory such as the storage unit 3 by a microprocessor (not shown) or the like (described later).
データ入力部6には、ユーザが撮影した画像(チェックパターンボードとともに撮影された対象物の画像およびチェックパターンボードのみの画像)が画像データとして、入力される。ここで、チェックパターンボードのみの画像から得られる画像データを基準チェックパターンデータとする。データ入力部6はこれらの画像データを記憶部3に記憶させる。 In the data input unit 6, an image photographed by the user (an image of the object photographed together with the check pattern board and an image of only the check pattern board) is input as image data. Here, image data obtained from an image of only the check pattern board is used as reference check pattern data. The data input unit 6 stores these image data in the storage unit 3.
キャリブレーション部10では、入力された画像データに基づいて、キャリブレーションデータ、すなわち、上記画像およびチェックパターンボードを対応づける射影行列データとカメラパラメータ(撮影視点データ)とを算出する。 Based on the input image data, the calibration unit 10 calculates calibration data, that is, projection matrix data that associates the image with the check pattern board, and camera parameters (photographing viewpoint data).
シルエット抽出部11は、入力された基準チェックパターンデータを、キャリブレーション部10で得られる射影行列データによって変換し、この変換されたデータと、対応する上記画像データとを用いて差分処理を行い、シルエットデータを算出する。 The silhouette extraction unit 11 converts the input reference check pattern data by the projection matrix data obtained by the calibration unit 10, performs a difference process using the converted data and the corresponding image data, Calculate silhouette data.
ボクセルデータ生成部12は、まず、キャリブレーション部10で得られる射影行列データを用いてボクセル空間の射影データを求める。そして、ボクセルデータ生成部12は、このボクセル空間の射影データと、シルエット抽出部11で得られるシルエットデータとを用いて交差判定処理を行い、ボクセルデータを生成する。 The voxel data generation unit 12 first obtains projection data in the voxel space using the projection matrix data obtained by the calibration unit 10. Then, the voxel data generation unit 12 performs intersection determination processing using the projection data of the voxel space and the silhouette data obtained by the silhouette extraction unit 11 to generate voxel data.
ボクセルデータ修正部13は、ボクセルデータ生成部12で得られるボクセルデータから、内部のボクセルに関するデータを削除する。具体的には、ボクセルの周囲6方向に隣接するボクセルの存在をチェックし、6方向すべてに他のボクセルが存在する場合は、そのボクセルを物体内部に位置するものとして削除する。 The voxel data correction unit 13 deletes data related to internal voxels from the voxel data obtained by the voxel data generation unit 12. Specifically, the presence of voxels adjacent in the six directions around the voxel is checked, and if there are other voxels in all six directions, the voxel is deleted as being located inside the object.
ポリゴンデータ生成部15は、ボクセルデータ生成部12からのボクセルデータおよびボクセルデータ修正部13で得られるデータに基づいて、ボクセルデータから表面情報であるポリゴンデータを生成する。 The polygon data generation unit 15 generates polygon data as surface information from the voxel data based on the voxel data from the voxel data generation unit 12 and the data obtained by the voxel data correction unit 13.
色データ生成部16は、ポリゴンデータ生成部15で得られるポリゴンデータと、キャリブレーション部10で得られるカメラパラメータとに基づいて、色データを生成する。 The color data generation unit 16 generates color data based on the polygon data obtained by the polygon data generation unit 15 and the camera parameters obtained by the calibration unit 10.
色データ付加部17では、色データ生成部16で生成された色データと、ポリゴンデータ生成部15で生成されたポリゴンデータとを対応付け、ポリゴンデータへの色データの付加を行う。また、表示制御部21は、色データ付加部17で得られる最終的なデータを表示部9に表示させる。 The color data adding unit 17 associates the color data generated by the color data generating unit 16 with the polygon data generated by the polygon data generating unit 15 and adds the color data to the polygon data. In addition, the display control unit 21 causes the display unit 9 to display the final data obtained by the color data adding unit 17.
記憶部3は、データ入力部6から入力された画像データを記憶し、あるいは制御部2の各部と連携して各部からのデータを一時保管する。また、制御部2の各部は、この記憶部3から随時必要なデータを読み出す。 The storage unit 3 stores the image data input from the data input unit 6 or temporarily stores data from each unit in cooperation with each unit of the control unit 2. Each unit of the control unit 2 reads necessary data from the storage unit 3 as needed.
ユーザインターフェース23からは、キャリブレーション部10でキャリブレーションデータを生成する際、対象物を取り囲むようなチェックパターンボード22上の点(例えば、4点)がユーザにより入力される。
From the user interface 23, when the calibration unit 10 generates calibration data, points (for example, four points) on the
なお、制御部2の各部の機能は、処理原稿検索プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU、DSP)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。 The function of each unit of the control unit 2 supplies a recording medium in which a program code (execution format program, intermediate code program, source program) of a processed document search program is recorded so as to be readable by a computer to a system or apparatus. This can also be achieved by the computer (or CPU, MPU, DSP) of the system or apparatus reading and executing the program code recorded on the recording medium.
この場合、記録媒体から読み出されたプログラムコード自体が上述した機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 In this case, the program code itself read from the recording medium realizes the above-described function, and the recording medium recording the program code constitutes the present invention.
具体的には、制御部2が、記憶部3等のメモリに格納された所定のプログラムを、図示しないマイクロプロセッサなどが実行することにより実現される。 Specifically, the control unit 2 is realized by a predetermined program stored in a memory such as the storage unit 3 being executed by a microprocessor (not shown).
上記プログラムコードを供給するための記録媒体は、システムあるいは装置と分離可能に構成することができる。また、上記記録媒体は、プログラムコードを供給可能であるように固定的に担持する媒体であってもよい。そして、上記記録媒体は、記録したプログラムコードをコンピュータが直接読み取ることができるようにシステムあるいは装置に装着されるものであっても、外部記憶装置としてシステムあるいは装置に接続されたプログラム読み取り装置を介して読み取ることができるように装着されるものであってもよい。 The recording medium for supplying the program code can be configured to be separable from the system or apparatus. The recording medium may be a medium that is fixedly supported so that the program code can be supplied. Even if the recording medium is attached to the system or apparatus so that the recorded program code can be directly read by the computer, the recording medium can be connected via the program reading apparatus connected to the system or apparatus as an external storage device. It may be mounted so that it can be read.
例えば、上記記録媒体としては、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。 For example, as the recording medium, a disk including a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
また、上記プログラムコードは、コンピュータが記録媒体から読み出して直接実行できるように記録されていてもよいし、記録媒体から主記憶のプログラム記憶領域へ転送された後コンピュータが主記憶から読み出して実行できるように記録されていてもよい。 The program code may be recorded so that the computer can read out from the recording medium and directly execute it, or after being transferred from the recording medium to the program storage area of the main memory, the computer can read out from the main memory and execute it. It may be recorded as follows.
さらに、3次元モデリング装置1を通信ネットワークと接続可能に構成し、上記プログラムコードが通信ネットワークを介して供給されてもよい。そして、通信ネットワークとしては、特に限定されず、具体的には、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、具体的には、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された搬送波あるいはデータ信号列の形態でも実現され得る。 Furthermore, the 3D modeling apparatus 1 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. Specifically, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication A network, a satellite communication network, etc. can be used. In addition, the transmission medium constituting the communication network is not particularly limited, and specifically, it is an infrared ray such as IrDA or a remote control even in a wired manner such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line or the like. , Bluetooth (registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like. The present invention can also be realized in the form of a carrier wave or a data signal sequence in which the program code is embodied by electronic transmission.
なお、プログラムコードを記録媒体から読み出して主記憶に格納するためのプログラム、および、通信ネットワークからプログラムコードをダウンロードするためのプログラムは、コンピュータによって実行可能にあらかじめシステムあるいは装置に格納されているものとする。 The program for reading the program code from the recording medium and storing it in the main memory, and the program for downloading the program code from the communication network are stored in advance in a system or apparatus so as to be executable by a computer. To do.
上記した制御部2の機能は、コンピュータが読み出した上記プログラムコードを実行することによって実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行うことによっても実現される。 The functions of the control unit 2 described above are not only realized by executing the program code read out by the computer, but the OS or the like operating on the computer based on the instruction of the program code performs the actual processing. It is also realized by performing part or all.
さらに、上述した機能は、上記記録媒体から読み出された上記プログラムコードが、コンピュータに装着された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行うことによっても実現される。 Furthermore, the function described above is obtained by writing the program code read from the recording medium into a memory provided in a function expansion board attached to the computer or a function expansion unit connected to the computer, and then the program code. Based on the instruction, the CPU or the like provided in the function expansion board or function expansion unit also implements part or all of the actual processing.
次に、図2のフローチャートに沿って、上記した本3次元モデリング装置1で行う処理工程を詳細に説明する。ここで、図3(a)・(b)は、チェックパターンボードとともに撮影された対象物(バナナ)の画像であり、図3(c)は、チェックパターンボードのみが撮影された基準画像である。 Next, processing steps performed by the above-described three-dimensional modeling apparatus 1 will be described in detail along the flowchart of FIG. Here, FIGS. 3A and 3B are images of an object (banana) photographed together with the check pattern board, and FIG. 3C is a reference image obtained by photographing only the check pattern board. .
まず、画像入力工程(図2のS1・S2)を行う。この工程では、ユーザがチェックパターンボード22上に対象物を置き、該対象物をチェックパターンボード22とともに任意の視点から撮影する(S1、図3(a)(b)参照)。このとき、チェックパターンボード22の外周が撮影されているものとする。カメラは、デジタルカメラ等を1台用意すれば良い。また、撮影視点は任意であり、どの位置、その角度から撮影したかを記録する必要もない。また、物体の背後にチェックパターンボード22を置いて撮影することも可能である。
First, an image input process (S1 and S2 in FIG. 2) is performed. In this step, the user places an object on the
撮影によって得られた画像データは3次元モデリング装置1のデータ入力部6に入力される。ここでは、物体を取り除いたチェックパターンボード22だけの基準画像を1枚撮影し(S2、図3(c)参照)、この基準画像より得られる基準チェックパターンデータもデータ入力部6に入力しておく。なお、撮影時の視点の数は、12視点以上である(対象物の周囲360°を30°ごとに12視点にて撮影する)ことが望ましい。また、チェックパターンボード22は、例えば、所定のチェックパターンをプリンター等で紙に印刷し、これを適当な平面状の物へ貼り付けたものであっても構わない。
Image data obtained by photographing is input to the data input unit 6 of the three-dimensional modeling apparatus 1. Here, a single reference image of only the
ついで、キャリブレーション部10にてキャリブレーション工程を行う(S3)。この工程では、カメラパラメータ(撮影視点データ)と、入力された画像の座標系とチェックパターンボード22の座標系とを対応付ける射影行列データとを算出する。なお、この工程では、図4に示されるように、ユーザが、ユーザインターフェース10を介して、画像内のチェックパターンボード22の4頂点(P1〜P4)を指定する。もっとも、チェックパターンボード22に、この4点が指定できるようなマーク(色を変える等)を付けておくことも可能である。上この4頂点(P1〜P4)は対象物(バナナ)を取り囲むように指定される。以下にキャリブレーション工程の具体的処理を示す。
Next, a calibration process is performed in the calibration unit 10 (S3). In this step, camera parameters (photographing viewpoint data) and projection matrix data that associates the coordinate system of the input image with the coordinate system of the
本実施の形態では、キャリブレーションの手法について、Zhangの方法を用いた。この方法の詳細については、例えば、「Z.Zhang,“A Flexible New Technique for Camera Calibration”,Technical Report MSR-TR-98-71,Microsoft Research,1998」に開示されている。 In the present embodiment, the Zhang method is used as the calibration method. Details of this method are disclosed in, for example, “Z. Zhang,“ A Flexible New Technique for Camera Calibration ”, Technical Report MSR-TR-98-71, Microsoft Research, 1998”.
このZhangの方法では、参照物体として3次元的広がりを持つ立体でなく、二次元平面上での位置が既知である参照点を描いた平面パターン(例えば、チェックパターンボード22)を用いる。参照平面もしくはカメラを複数の異なる位置に動かして平面パターンを撮影し、参照平面と画像平面との間のホモグラフィを計算してカメラパラメータを算出する。この際、参照平面もしくはカメラを自由に動かすことができ、その運動を知る必要はない。これにより、建物の規則的な窓や、プリンターで紙に出力した規則的なパターンをキャリブレーションのために用いることができ、様々な状況でのキャリブレーションを実現することができる。その原理を以下に説明する。 In this Zhang method, a planar pattern (for example, check pattern board 22) depicting a reference point whose position on a two-dimensional plane is known is used as a reference object, not a solid having a three-dimensional extent. The reference plane or the camera is moved to a plurality of different positions to capture a plane pattern, and the camera parameters are calculated by calculating the homography between the reference plane and the image plane. At this time, the reference plane or the camera can be moved freely, and it is not necessary to know the movement. Thereby, a regular window of a building or a regular pattern output on paper by a printer can be used for calibration, and calibration in various situations can be realized. The principle will be described below.
まず、3次元点M=〔X,Y,Z〕Tとその射影である画像上の点m=〔U,V〕T
との間には射影式
First, the three-dimensional point M = [X, Y, Z] T and the projected point m = [U, V] T
Projection formula between
が存在する。
ここで、行列Aは内部パラメータ行列であり、次のように書くことができる。
Exists.
Here, the matrix A is an internal parameter matrix and can be written as follows.
なお、αu、αvは画像の大きさと焦点距離との積からなるスケール係数である。また、(u0,v0)は画像中心、λは画像の座標軸の歪みを表すパラメータである。 Note that α u and α v are scale coefficients formed by the product of the image size and the focal length. Further, (u 0 , v 0 ) is the image center, and λ is a parameter representing the distortion of the image coordinate axes.
3次元空間中の座標において、Z=0である参照平面を考え、回転行列Rのi番目の列ベクトルをri(i=1,2,3)とすると、式(1)は、 Considering a reference plane with Z = 0 in coordinates in a three-dimensional space, and assuming that the i-th column vector of the rotation matrix R is r i (i = 1, 2, 3), equation (1) is
となる。 It becomes.
これより、参照平面上の点と、画像平面上の点とは、 From this, the point on the reference plane and the point on the image plane are
となるホモグラフィH(射影行列)によって関係付けられることとなり、 Will be related by the homography H (projection matrix)
と表すことができる。 It can be expressed as.
このホモグラフィHは、3次元平面上と画像平面上との対応点が4点以上あれば算出可能である。
ここで、H=〔h1,h2,h3〕とすると、
The homography H can be calculated if there are four or more corresponding points on the three-dimensional plane and the image plane.
Here, if H = [h 1 , h 2 , h 3 ],
となる。 It becomes.
ホモグラフィHは8自由度を持っており、そのうち外部パラメータが自由度となるため、内部パラメータに関する制約は2つしか持つことができない。
ここでは、回転行列Rの性質、および、r1とr2とが直行する単位ベクトルであることから、以下の2式が成り立つ。
Homography H has 8 degrees of freedom, of which external parameters are degrees of freedom, and therefore can only have two constraints on internal parameters.
Here, since the property of the rotation matrix R and the unit vector in which r 1 and r 2 are orthogonal, the following two expressions hold.
これにより、1枚の画像からは上記の2つのカメラ内部変数に関する拘束式が得られることになる。すなわち、5つのカメラ内部変数を求める場合は、少なくとも3枚の画像が必要となる。 As a result, a constraint equation related to the two internal camera variables is obtained from one image. That is, when obtaining five camera internal variables, at least three images are required.
ここで、A−rA−1は対象性を持ち、 Here, A −r A −1 has objectivity,
とするBの要素を並べたベクトルを、 A vector in which the elements of B
と定義する。 It is defined as
ホモグラフィHのi番目の列ベクトルを、
hi=〔h11 h12 h13〕T,(i=1,2,3)とすると、
は、
The i-th column vector of homography H is
If h i = [h 11 h 12 h 13 ] T , (i = 1, 2, 3),
Is
と表現できる。 Can be expressed as
これにより、式(6)と(7)とは以下のように書くことができる。 Thus, equations (6) and (7) can be written as:
もし、n枚の画像が得られていれば、n個の上記の式を積み重ねることで、
Vb=0 ・・・式(12)を得る。
ここで、Vは2n×6の行列である。
If n images are obtained, by stacking the above n equations,
Vb = 0... Equation (12) is obtained.
Here, V is a 2n × 6 matrix.
これより、bは、VTVの最小固有値に対応する固有ベクトルとして求められる。
この際、n≧3であれば、
直接bに関する解を得ることができるが、n=2の場合は内部パラメータ中のs=0とすることで、次式
Thus, b is obtained as an eigenvector corresponding to the minimum eigenvalue of V T V.
At this time, if n ≧ 3,
A solution for b can be obtained directly. When n = 2, by setting s = 0 in the internal parameters,
を式(12)に加えることで解を得る。 Is added to equation (12) to obtain a solution.
また、n=1であれば、2つの内部パラメータしか求めることができないため、例えば、αuとαvのみを未知とし、残りの内部パラメータを既知とすることで解を得ることができる。 Further, if n = 1, only two internal parameters can be obtained. Therefore, for example, it is possible to obtain a solution by making only α u and α v unknown and making the remaining internal parameters known.
bを求めることでBが求まれば、 If B is obtained by obtaining b,
から、カメラの内部パラメータは以下のように計算される。 Therefore, the internal parameters of the camera are calculated as follows.
また、これより、Aが求まれば、外部パラメータに関しても式(5)より、 In addition, if A is obtained from this, the external parameter is also obtained from equation (5),
として求めることができる。 Can be obtained as
以上のように、すべての内部パラメータが未知の場合においては、異なる視点から内部パラメータを固定した状態で撮影した3枚以上の画像を用いることでキャリブレーションを行うことができる。この際、一般的に画像枚数が多いほどパラメータ推定精度は高くなる。また、キャリブレーションに用いる画像間における回転が小さい場合に誤差が大きくなることも示されている。 As described above, when all the internal parameters are unknown, calibration can be performed by using three or more images taken with the internal parameters fixed from different viewpoints. At this time, generally, the larger the number of images, the higher the parameter estimation accuracy. It is also shown that the error increases when the rotation between images used for calibration is small.
このキャリブレーション工程に続いて、シルエット抽出部11にてシルエット抽出工程を行う(図2のS4)。シルエット抽出工程では、物体領域(シルエット)を抽出する(シルエットデータを算出する)。具体的処理は以下のとおりである。 Following this calibration process, the silhouette extraction unit 11 performs a silhouette extraction process (S4 in FIG. 2). In the silhouette extraction step, an object region (silhouette) is extracted (silhouette data is calculated). Specific processing is as follows.
まず、各入力画像をグレースケール(256階調)に変換する。ついで、多視点画像撮影工程で入力された基準チェックパターンデータをキャリブレーション工程で得られたホモグラフィ行列Hによって変形させたデータを生成する。ついで、このデータと、多視点画像撮影工程で入力された画像データとの差分処理を行う。これにより、シルエットデータが算出され、図5に示されるようなシルエット画像(中央部の白い部分)を得ることができる。 First, each input image is converted to gray scale (256 gradations). Next, data is generated by deforming the reference check pattern data input in the multi-viewpoint image capturing process with the homography matrix H obtained in the calibration process. Next, a difference process is performed between this data and the image data input in the multi-viewpoint image capturing process. Thereby, silhouette data is calculated, and a silhouette image (white portion in the center) as shown in FIG. 5 can be obtained.
このシルエット抽出工程に続いて、ボクセルデータ生成部12にて3次元形状復元工程を行う(S5、ボクセルデータ生成工程)。この3次元形状復元工程では、シルエット抽出工程により得られたシルエット画像を仮想のボクセル空間に射影し、視体積交差法によって形状情報を復元する。なお、ボクセル空間とは、均等な立方体素の集合であり、立方体素のそれぞれをボクセルと呼ぶ。 Subsequent to the silhouette extraction step, the voxel data generation unit 12 performs a three-dimensional shape restoration step (S5, voxel data generation step). In this three-dimensional shape restoration step, the silhouette image obtained by the silhouette extraction step is projected onto a virtual voxel space, and shape information is restored by the view volume intersection method. The voxel space is a set of uniform cubic elements, and each cubic element is called a voxel.
視体積交差法では、まず、キャリブレーション工程で得られた射影行列を用いてボクセルをシルエット画像に射影する。この原理図を図6に示す。ここでは、ボクセルがシルエット画像の物体領域に射影したときは、当該ボクセルをそのまま残し、背景領域に射影したときには、当該ボクセルの削除パラメータを1つ増加させる。これらの処理を全ボクセルについて行う。さらに、これらの処理を各シルエット画像に対して行う。そして、最終的に削除パラメータが一定値より大きくなったボクセルを削除する。以上の処理をより具体的に説明すれば以下のとおりである。ここで、n枚の入力画像のうちj番目の画像から求めた射影行列をPj、シルエット画像をSjとする。 In the view volume intersection method, first, voxels are projected onto a silhouette image using the projection matrix obtained in the calibration process. The principle diagram is shown in FIG. Here, when the voxel is projected onto the object region of the silhouette image, the voxel is left as it is, and when the voxel is projected onto the background region, the deletion parameter of the voxel is increased by one. These processes are performed for all voxels. Further, these processes are performed on each silhouette image. Finally, the voxel whose deletion parameter is larger than a certain value is deleted. The above process will be described more specifically as follows. Here, Pj is a projection matrix obtained from the jth image among n input images, and Sj is a silhouette image.
まず、図6の矢印で示すように、1つの立方体をシルエット画像Sjに射影する(図6参照)。射影には、キャリブレーション工程で得られた射影行列Pjを用いる。射影した領域は、たかだか6つの頂点で囲まれた多角形となる。 First, as shown by the arrow in FIG. 6, one cube is projected onto the silhouette image Sj (see FIG. 6). For the projection, the projection matrix Pj obtained in the calibration process is used. The projected area is a polygon surrounded by at most six vertices.
ついで、立方体を射影したシルエットと、対象物のシルエットとの交差状態を判定する交差判定処理を行う。立方体のシルエットが物体のシルエットに完全に含まれているならば“BLACK”、全く含まれていないならば“WHITE”、一部が含まれているならば“GRAY”とする。 Next, an intersection determination process is performed to determine the intersection state between the silhouette projected from the cube and the silhouette of the object. If the silhouette of the cube is completely contained in the silhouette of the object, “BLACK” is set, “WHITE” is set if it is not included at all, and “GRAY” is set if a portion is included.
すべての立方体が“BLACK”または“WHITE”になるか、あるいは、任意のレベルに達したときに処理を終了する。このアルゴリズムをまとめると図7のようになる。 The process ends when all cubes become “BLACK” or “WHITE” or reach any level. This algorithm is summarized as shown in FIG.
このシルエット抽出工程に続いて、ボクセルデータ修正部13にてボクセル削除工程を行う(S6)。このボクセル削除工程では、表示のために必要のない物体内部に位置するボクセルを削除し、物体の表面に位置するボクセルのみを残す。具体的手順は以下のとおりである。 Following this silhouette extraction step, the voxel data correction unit 13 performs a voxel deletion step (S6). In this voxel deletion step, voxels located inside the object that are not necessary for display are deleted, leaving only the voxels located on the surface of the object. The specific procedure is as follows.
まず、ボクセルの周囲六方向に隣接するボクセルの存在をチェックする。6方向すべてに他のボクセルが存在する場合は、そのボクセルを物体内部に位置するとして削除する。それ以外のボクセルについては、表面に位置するボクセルであり、隣接する6方向のうち、ボクセルが存在しなかった方向に対して表面を示すフラグ(表面フラグ)を立てる。 First, the presence of voxels adjacent in the six directions around the voxel is checked. If there are other voxels in all six directions, the voxel is deleted as being located inside the object. The other voxels are voxels located on the surface, and a flag (surface flag) indicating the surface is set for the direction in which the voxel does not exist among the six adjacent directions.
このボクセル削除工程に続いて、ポリゴンデータ生成部15にてポリゴンデータへの変換工程を行う(S7)。 Subsequent to the voxel deletion process, the polygon data generation unit 15 performs a conversion process to polygon data (S7).
ボクセルデータからポリゴンデータへの変換では、上記のボクセルの削除の過程で、ボクセルを構成する6面(ポリゴン)のうち、表面に位置するポリゴンが判っているので、そのポリゴンの各頂点の3次元座標をボクセルの中心座標と1辺の大きさから算出する。 In the conversion from voxel data to polygon data, the polygon located on the surface is known among the six surfaces (polygons) constituting the voxel in the process of deleting the voxel described above. Coordinates are calculated from the center coordinates of the voxel and the size of one side.
このポリゴンデータへの変換工程に続いて、色データ生成部16にて色データ生成工程を行う(S8)。 Following the conversion process to polygon data, the color data generation unit 16 performs a color data generation process (S8).
ここではまず、複数の画像の中から、Voxelの色を決定するための最適な画像を選択する。具体的には、Voxelの6つの面のうち、外部にある面に対してそれぞれ法線nを求め、その法線と撮影時のカメラの光軸lが、 Here, first, an optimal image for determining the color of Voxel is selected from a plurality of images. Specifically, among the six faces of Voxel, the normal line n is obtained for each external face, and the normal line and the optical axis l of the camera at the time of shooting are
を満たすような画像を選択する。 Select an image that satisfies
そして、キャリブレーションで求めた射影行列によってVoxelをそれぞれの画像へ射影し、対応する領域から色データを決定する。 Then, Voxel is projected onto each image by the projection matrix obtained by calibration, and color data is determined from the corresponding region.
この色データ生成工程に続いて、色データ付加部17にて色データ付加工程を行う(S9)。 Following this color data generation step, the color data addition unit 17 performs a color data addition step (S9).
色データ付加工程では、色データ生成工程で得られた色データとポリゴンデータとを対応付け、ポリゴンデータに色データを付加する。なお、各ポリゴンの大きさは、ボクセルの面と同じであるため、復元の時の指定によって十分細かくすることも、慨形が判る程度の粗さにすることも可能である。 In the color data adding step, the color data obtained in the color data generating step is associated with the polygon data, and the color data is added to the polygon data. Since the size of each polygon is the same as the voxel surface, it can be made sufficiently fine depending on the specification at the time of restoration, or it can be made rough enough to recognize the saddle shape.
最後に、表示制御部21によって、色データ付加工程によって得られたデータを表示部に表示する(S10)。ポリゴンデータは、拡張点の3次元座標と法線ベクトルおよび色データとして記述されている。その表示には専用のビューワを用いることも可能である。もっとも、ポリゴンデータを簡単なデータ変換プログラムによってVRMLやDXFといった一般的なデータフォーマットに変換し、表示することも可能である。 Finally, the display control unit 21 displays the data obtained in the color data adding step on the display unit (S10). Polygon data is described as three-dimensional coordinates of extension points, normal vectors, and color data. A dedicated viewer can be used for the display. However, polygon data can be converted into a general data format such as VRML and DXF by a simple data conversion program and displayed.
このように、3次元モデリング装置1は、対象物(図3(a)ではバナナ)をチェックパターンボードとともに撮影した画像およびチェックパターンボードのみが撮影された基準画像(あるいは、基準チェックパターンデータ自体)だけから対象物の3次元モデリングを行うものである。 As described above, the three-dimensional modeling apparatus 1 includes an image obtained by photographing an object (banana in FIG. 3A) together with the check pattern board and a reference image obtained by photographing only the check pattern board (or the reference check pattern data itself). The three-dimensional modeling of the object is performed only from the above.
したがって、従来のように専用の撮影機材や処理装置を必要とすることなく、手軽に(簡易に)様々な対象物を3次元データ(ボクセルデータ)化することができる。これにより、本3次元モデリング装置1を娯楽、流通(例えば、WEBショップの商品画像)、医療(例えば、生体の3次元データ化)等に用いれば、大変有用で便利である。 Therefore, it is possible to easily (simplely) convert various objects into three-dimensional data (voxel data) without requiring dedicated photographing equipment and processing devices as in the prior art. Thus, if the present three-dimensional modeling apparatus 1 is used for entertainment, distribution (for example, product images of a WEB shop), medical treatment (for example, three-dimensional data of a living body), etc., it is very useful and convenient.
また、3次元モデリング装置1においては、携帯可能なチェックパターンボード22を幾何学パターンとして利用し、また、キャリブレーション部10は平面キャリブレーションを行っている。この結果、より一層手軽に(簡易に)様々な対象物を3次元データ化することができる。
In the three-dimensional modeling apparatus 1, the portable
また、3次元モデリング装置1は、幾何学パターンにチェックパターンを用いているため、キャリブレーションやシルエット抽出が容易である。 In addition, since the three-dimensional modeling apparatus 1 uses a check pattern as a geometric pattern, calibration and silhouette extraction are easy.
また、3次元モデリング装置1は、3次元データとしてボクセルデータを用いているため、3次元データの生成が容易である。 Further, since the three-dimensional modeling apparatus 1 uses voxel data as three-dimensional data, it is easy to generate three-dimensional data.
また、3次元モデリング装置1は、キャリブレーション部が処理対象とする上記画像に対して対象物を取り囲むような複数の点を入力できるユーザインターフェース23を備えているため、キャリブレーション処理を効率的に行うことができる。 In addition, since the three-dimensional modeling apparatus 1 includes the user interface 23 that can input a plurality of points surrounding the object with respect to the image to be processed by the calibration unit, the calibration process is efficiently performed. It can be carried out.
また、3次元モデリング装置1においては、シルエット抽出部11が、射影行列データによる基準幾何学パターンデータの変換データと、対応する上記画像データとの差分処理によってシルエットデータを算出するため、シルエット抽出処理を効率的に行うことができる。 In the three-dimensional modeling apparatus 1, since the silhouette extraction unit 11 calculates silhouette data by performing a difference process between the conversion data of the reference geometric pattern data based on the projection matrix data and the corresponding image data, a silhouette extraction process is performed. Can be performed efficiently.
また、3次元モデリング装置1においては、ボクセルデータ生成部12は、上記射影行列データによるボクセル空間の射影データと上記シルエットデータとの交差判定処理によってボクセルデータを生成するため、ボクセルデータ生成処理を効率的に行うことができる。 Further, in the three-dimensional modeling apparatus 1, the voxel data generation unit 12 generates voxel data by the intersection determination process between the projection data in the voxel space based on the projection matrix data and the silhouette data, so that the voxel data generation process is efficient. Can be done automatically.
また、3次元モデリング装置1は、ボクセルデータ修正部13を備え、不要なボクセルデータを削減することができるため、データ処理を効率的に行うことができる。 Further, since the three-dimensional modeling apparatus 1 includes the voxel data correction unit 13 and can reduce unnecessary voxel data, data processing can be performed efficiently.
また、3次元モデリング装置1は、ポリゴンデータ生成部15を備え、対象物の表面情報(データ)のみを処理できるため、データ処理を効率的に行うことができる。 Further, since the three-dimensional modeling apparatus 1 includes the polygon data generation unit 15 and can process only the surface information (data) of the object, data processing can be performed efficiently.
また、3次元モデリング装置1は、上記画像データおよびキャリブレーションデータ並びにポリゴンデータを用いて、該ポリゴンデータに対応づける色データを生成する色データ生成手段を備え、対象物をカラーで表現することができるため、対象物の表現力が高い。また、色データ生成部16は、カメラパラメータおよびポリゴンデータを用いて上記画像から色生成に適した画像を選択し、この選択した画像の画像データと、上記ポリゴンデータに上記射影行列データを用いて射影処理したデータとの対応付けによって色データを生成するため、色データ生成処理を効率的に行うことができる。 The three-dimensional modeling apparatus 1 includes color data generation means for generating color data associated with the polygon data using the image data, calibration data, and polygon data, and can express the object in color. The ability to express the object is high. The color data generation unit 16 selects an image suitable for color generation from the image using the camera parameters and polygon data, and uses the projection matrix data for the image data of the selected image and the polygon data. Since the color data is generated by associating with the projection-processed data, the color data generation process can be performed efficiently.
なお、本発明は上述した実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、実施の形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 It should be noted that the present invention is not limited to the above-described embodiment, and various modifications are possible within the scope shown in the claims, and an implementation obtained by appropriately combining technical means disclosed in the embodiment. The form is also included in the technical scope of the present invention.
本発明の3次元モデリング装置は、デジタルカメラや携帯電話のカメラ等から得られる画像から簡単に3次元モデリングを行うことができる。よって、娯楽、流通(例えば、WEBショップでの商品の見本)、医療(生体のモデリング)、建築(構造物のモデリング)、アパレルあるいは事件、事故等の鑑識など様々な分野での利用が考えられる。 The three-dimensional modeling apparatus of the present invention can easily perform three-dimensional modeling from an image obtained from a digital camera, a mobile phone camera, or the like. Therefore, it can be used in various fields such as entertainment, distribution (for example, product samples at WEB shops), medical care (modeling of living bodies), architecture (modeling of structures), apparel or incidents, accidents, etc. .
1 3次元モデリング装置
2 制御部
3 記憶部
6 データ入力部
10 キャリブレーション部(キャリブレーション手段)
11 シルエット抽出部(シルエット抽出手段)
12 ボクセルデータ生成部(3次元データ生成手段、ボクセルデータ生成手段)
13 ボクセルデータ修正部(ボクセルデータ修正手段)
15 ポリゴンデータ生成部(ポリゴンデータ生成手段)
16 色データ生成部(色データ生成手段)
17 色データ付加部(色データ付加手段)
21 表示制御部
22 チェックパターンボード(幾何学パターン)
23 ユーザインターフェース(入力部)
DESCRIPTION OF SYMBOLS 1 3D modeling apparatus 2 Control part 3 Memory | storage part 6 Data input part 10 Calibration part (calibration means)
11 Silhouette extraction unit (silhouette extraction means)
12 voxel data generation unit (three-dimensional data generation means, voxel data generation means)
13 Voxel data correction unit (Voxel data correction means)
15 Polygon data generator (polygon data generator)
16 color data generation unit (color data generation means)
17 Color data adding unit (color data adding means)
21
23 User interface (input unit)
Claims (15)
幾何学パターンのみが撮影された基準画像より得られる基準幾何学パターンデータ並びに上記画像データおよびこれに対応する上記キャリブレーションデータを用いて上記対象物のシルエットデータを算出するシルエット抽出手段と、
複数の画像それぞれに対応する、シルエットデータおよびキャリブレーションデータを用いて3次元データを生成する3次元データ生成手段とを備えることを特徴とする3次元モデリング装置。 Calibration means for calculating calibration data from image data obtained from each image in which the object is photographed together with a geometric pattern;
Silhouette extraction means for calculating silhouette data of the object using reference geometric pattern data obtained from a reference image in which only a geometric pattern is photographed, and the image data and the calibration data corresponding thereto,
A three-dimensional modeling apparatus comprising: three-dimensional data generating means for generating three-dimensional data using silhouette data and calibration data corresponding to each of a plurality of images.
上記シルエット抽出手段は、上記射影行列データによる基準幾何学パターンデータの変換データと対応する上記画像データとの差分処理によってシルエットデータを算出することを特徴とする請求項4記載の3次元モデリング装置。 The calibration data includes projection matrix data that associates each image and geometric pattern, and photographing viewpoint data.
5. The three-dimensional modeling apparatus according to claim 4, wherein the silhouette extraction means calculates silhouette data by a difference process between conversion data of reference geometric pattern data based on the projection matrix data and the corresponding image data.
上記ボクセルデータ生成手段は、上記射影行列データによるボクセル空間の射影データと上記シルエットデータとの交差判定処理によってボクセルデータを生成することを特徴とする請求項4記載の3次元モデリング装置。 The calibration data includes projection matrix data that associates each image and geometric pattern, and photographing viewpoint data.
5. The three-dimensional modeling apparatus according to claim 4, wherein the voxel data generation means generates voxel data by an intersection determination process between projection data in the voxel space based on the projection matrix data and the silhouette data.
幾何学パターンのみが撮影された基準画像より得られる基準幾何学パターンデータ並びに上記画像データおよびこれに対応する上記キャリブレーションデータを用いて上記対象物のシルエットデータを算出するシルエット抽出工程と、
複数の画像それぞれに対応する、シルエットデータおよびキャリブレーションデータに基づいてボクセルデータを生成するボクセルデータ生成工程とを含むことを特徴とする3次元モデリングデータの生成方法。 A calibration process for calculating calibration data from image data obtained from each image in which the object is photographed with a planar geometric pattern;
A silhouette extraction step of calculating silhouette data of the object using reference geometric pattern data obtained from a reference image in which only a geometric pattern is photographed, and the image data and the calibration data corresponding thereto;
A method for generating three-dimensional modeling data, comprising: a voxel data generation step for generating voxel data based on silhouette data and calibration data corresponding to each of a plurality of images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004241033A JP2006059165A (en) | 2004-08-20 | 2004-08-20 | Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004241033A JP2006059165A (en) | 2004-08-20 | 2004-08-20 | Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006059165A true JP2006059165A (en) | 2006-03-02 |
Family
ID=36106583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004241033A Pending JP2006059165A (en) | 2004-08-20 | 2004-08-20 | Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006059165A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008004563A1 (en) * | 2006-07-03 | 2008-01-10 | Intellectual Property Bank Corp. | Researcher job-offer job-application matching system and joint research/joint venture matching system |
JP2008107877A (en) * | 2006-10-23 | 2008-05-08 | Nippon Hoso Kyokai <Nhk> | Three-dimensional shape reconstruction apparatus |
KR100974413B1 (en) | 2009-03-18 | 2010-08-05 | 부산대학교 산학협력단 | A method for estimation 3d bounding solid based on monocular vision |
KR101532854B1 (en) * | 2011-01-25 | 2015-06-30 | 퀄컴 인코포레이티드 | Using occlusions to detect and track three-dimensional objects |
CN108876843A (en) * | 2017-05-12 | 2018-11-23 | 波音公司 | Method and system for component geometry structure extraction |
JP2018205788A (en) * | 2017-05-30 | 2018-12-27 | Kddi株式会社 | Silhouette extraction apparatus, and method and program |
CN114359505A (en) * | 2021-12-20 | 2022-04-15 | 朗坤智慧科技股份有限公司 | Three-dimensional walking surface modeling method based on voxel chessboard model |
JP2022134364A (en) * | 2021-03-03 | 2022-09-15 | 日本電気株式会社 | Measuring device, measurement method, and computer program |
KR20230064380A (en) * | 2021-11-03 | 2023-05-10 | 경북대학교 산학협력단 | Apparatus and method for generating 3D DSM using multi-view and multi-time satellite images |
CN114359505B (en) * | 2021-12-20 | 2024-11-15 | 朗坤智慧科技股份有限公司 | Modeling method of three-dimensional walking surface based on voxel chessboard model |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049662A (en) * | 1996-07-31 | 1998-02-20 | Omron Corp | Device for discriminating vehicle |
JPH1196374A (en) * | 1997-07-23 | 1999-04-09 | Sanyo Electric Co Ltd | Three-dimensional modeling device, three-dimensional modeling method and medium recorded with three-dimensional modeling program |
JP2000350239A (en) * | 1999-06-08 | 2000-12-15 | Sony Corp | Camera.calibration device and method, image processing unit and method, program serving medium and camera |
JP2003232622A (en) * | 2002-02-08 | 2003-08-22 | Olympus Optical Co Ltd | Device, method and program for obtaining three- dimensional information |
JP2004070792A (en) * | 2002-08-08 | 2004-03-04 | Telecommunication Advancement Organization Of Japan | Voxel data encoding method |
JP2004220312A (en) * | 2003-01-15 | 2004-08-05 | Japan Science & Technology Agency | Multi-viewpoint camera system |
-
2004
- 2004-08-20 JP JP2004241033A patent/JP2006059165A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1049662A (en) * | 1996-07-31 | 1998-02-20 | Omron Corp | Device for discriminating vehicle |
JPH1196374A (en) * | 1997-07-23 | 1999-04-09 | Sanyo Electric Co Ltd | Three-dimensional modeling device, three-dimensional modeling method and medium recorded with three-dimensional modeling program |
JP2000350239A (en) * | 1999-06-08 | 2000-12-15 | Sony Corp | Camera.calibration device and method, image processing unit and method, program serving medium and camera |
JP2003232622A (en) * | 2002-02-08 | 2003-08-22 | Olympus Optical Co Ltd | Device, method and program for obtaining three- dimensional information |
JP2004070792A (en) * | 2002-08-08 | 2004-03-04 | Telecommunication Advancement Organization Of Japan | Voxel data encoding method |
JP2004220312A (en) * | 2003-01-15 | 2004-08-05 | Japan Science & Technology Agency | Multi-viewpoint camera system |
Non-Patent Citations (3)
Title |
---|
栗田 裕二、國枝 和雄: ""多視点カメラシステムによる3次元形状復元とネットワーク伝送システム"", 日本バーチャルリアリティ学会論文誌, vol. 8, no. 1, JPN6010036168, 31 March 2003 (2003-03-31), JP, pages 27 - 35, ISSN: 0001655479 * |
澤 弘義、外4名: ""複数任意視点からのOctree表現による3次元形状復元"", 情報処理学会研究報告, vol. 99, no. 29, JPN6010036166, 19 March 1999 (1999-03-19), JP, pages 33 - 40, ISSN: 0001655478 * |
矢口 悟志、外3名: ""未校正多視点カメラシステムを用いた任意視点画像生成"", 情報処理学会論文誌, vol. Vol.42, No.SIG 6(CVIM 2), JPN6010036171, 15 June 2001 (2001-06-15), JP, pages 9 - 21, ISSN: 0001655480 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008004563A1 (en) * | 2006-07-03 | 2008-01-10 | Intellectual Property Bank Corp. | Researcher job-offer job-application matching system and joint research/joint venture matching system |
JP2008107877A (en) * | 2006-10-23 | 2008-05-08 | Nippon Hoso Kyokai <Nhk> | Three-dimensional shape reconstruction apparatus |
KR100974413B1 (en) | 2009-03-18 | 2010-08-05 | 부산대학교 산학협력단 | A method for estimation 3d bounding solid based on monocular vision |
KR101532854B1 (en) * | 2011-01-25 | 2015-06-30 | 퀄컴 인코포레이티드 | Using occlusions to detect and track three-dimensional objects |
US10109065B2 (en) | 2011-01-25 | 2018-10-23 | Qualcomm Incorporated | Using occlusions to detect and track three-dimensional objects |
CN108876843B (en) * | 2017-05-12 | 2024-05-07 | 波音公司 | Method and system for component geometry extraction |
CN108876843A (en) * | 2017-05-12 | 2018-11-23 | 波音公司 | Method and system for component geometry structure extraction |
JP2018205788A (en) * | 2017-05-30 | 2018-12-27 | Kddi株式会社 | Silhouette extraction apparatus, and method and program |
JP2022134364A (en) * | 2021-03-03 | 2022-09-15 | 日本電気株式会社 | Measuring device, measurement method, and computer program |
KR20230064380A (en) * | 2021-11-03 | 2023-05-10 | 경북대학교 산학협력단 | Apparatus and method for generating 3D DSM using multi-view and multi-time satellite images |
KR102701104B1 (en) | 2021-11-03 | 2024-08-29 | 경북대학교 산학협력단 | Apparatus and method for generating 3D DSM using multi-view and multi-time satellite images |
CN114359505A (en) * | 2021-12-20 | 2022-04-15 | 朗坤智慧科技股份有限公司 | Three-dimensional walking surface modeling method based on voxel chessboard model |
CN114359505B (en) * | 2021-12-20 | 2024-11-15 | 朗坤智慧科技股份有限公司 | Modeling method of three-dimensional walking surface based on voxel chessboard model |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108335353B (en) | Three-dimensional reconstruction method, device and system of dynamic scene, server and medium | |
JP5248806B2 (en) | Information processing apparatus and information processing method | |
JP6057298B2 (en) | Rapid 3D modeling | |
JP5093053B2 (en) | Electronic camera | |
JP5538667B2 (en) | Position / orientation measuring apparatus and control method thereof | |
JP4708752B2 (en) | Information processing method and apparatus | |
JP5067476B2 (en) | 3D model creation system | |
US20130249901A1 (en) | Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces | |
JPWO2018235163A1 (en) | Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method | |
JP2000067267A (en) | Method and device for restoring shape and pattern in there-dimensional scene | |
JP2005326274A (en) | Arrangement information inferring method and information processor | |
JP2000516360A (en) | Three-dimensional object modeling apparatus and method | |
WO2010038693A1 (en) | Information processing device, information processing method, program, and information storage medium | |
JP4284664B2 (en) | Three-dimensional shape estimation system and image generation system | |
JP2020024142A (en) | Measurement calibration device, measurement calibration method and program | |
JP3618649B2 (en) | An extended image matching method between images using an indefinite window | |
JP2006059165A (en) | Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium | |
US11645800B2 (en) | Advanced systems and methods for automatically generating an animatable object from various types of user input | |
JP2003323603A (en) | Stereo matching method, three-dimensional measuring method and device, program for stereo matching method and program for three dimensional measurement | |
JP2013231607A (en) | Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program | |
JP2004170277A (en) | 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program | |
JP2002135807A (en) | Method and device for calibration for three-dimensional entry | |
JP2002056407A (en) | Image generation system | |
JP2006300656A (en) | Image measuring technique, device, program, and recording medium | |
JPH06332993A (en) | Scene analysis and prediction system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070809 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100827 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101019 |