JP6867645B2 - Image processing equipment, methods, and programs - Google Patents
Image processing equipment, methods, and programs Download PDFInfo
- Publication number
- JP6867645B2 JP6867645B2 JP2017137830A JP2017137830A JP6867645B2 JP 6867645 B2 JP6867645 B2 JP 6867645B2 JP 2017137830 A JP2017137830 A JP 2017137830A JP 2017137830 A JP2017137830 A JP 2017137830A JP 6867645 B2 JP6867645 B2 JP 6867645B2
- Authority
- JP
- Japan
- Prior art keywords
- mesh
- image
- images
- illumination light
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 54
- 238000000034 method Methods 0.000 title description 22
- 238000005286 illumination Methods 0.000 claims description 148
- 238000004364 calculation method Methods 0.000 claims description 44
- 230000003287 optical effect Effects 0.000 claims description 35
- 238000003672 processing method Methods 0.000 claims description 13
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、方法、及びプログラムに関する。 The present invention relates to image processing devices, methods, and programs.
従来、カメラ等の画像撮影装置により、2つ以上の異なる視点から撮影された複数枚の画像(多視点画像)を用いることで、被写体の立体形状を復元する技術が提案されている(例えば、非特許文献1)。 Conventionally, a technique for restoring the three-dimensional shape of a subject by using a plurality of images (multi-viewpoint images) taken from two or more different viewpoints by an image capturing device such as a camera has been proposed (for example, Non-Patent Document 1).
また、多視点画像上における各対応点の位置と、多視点画像の撮影に用いた画像撮影装置の位置、向き、及び画角といった幾何情報から、三角測量の原理を用いることで該当の対応点の三次元空間内における位置情報を算出する技術が提案されている(例えば、非特許文献2)。この技術では、対応点の位置情報を算出する処理を、検出された全ての対応点に施すことにより、被写体表面を構成する点の位置が求められる。また、位置情報が得られた3つの点の組み合わせを定めることで、被写体表面を構成する面(メッシュ)が得られる。また、全ての点の組み合わせが決定されると三次元メッシュモデルが生成される。そして、各メッシュに該当する領域の画像を多視点画像から抽出してテクスチャ画像とし、全てのメッシュに対してテクスチャ画像の貼り付けを行った後に、再現したい画像の視点に合わせて陰面処理を施すことで、任意視点における観察画像が生成される。 In addition, from the position of each corresponding point on the multi-viewpoint image and geometric information such as the position, orientation, and angle of view of the image capturing device used for shooting the multi-viewpoint image, the corresponding corresponding point can be obtained by using the principle of triangulation. A technique for calculating position information in a three-dimensional space has been proposed (for example, Non-Patent Document 2). In this technique, the positions of the points constituting the surface of the subject are obtained by applying the process of calculating the position information of the corresponding points to all the detected corresponding points. Further, by determining the combination of the three points from which the position information is obtained, the surface (mesh) constituting the surface of the subject can be obtained. Also, when the combination of all points is determined, a three-dimensional mesh model is generated. Then, the image of the area corresponding to each mesh is extracted from the multi-viewpoint image to obtain a texture image, the texture image is pasted on all the meshes, and then the shadow surface processing is performed according to the viewpoint of the image to be reproduced. As a result, an observation image at an arbitrary viewpoint is generated.
各メッシュに貼り付けるテクスチャ画像を撮影画像(多視点画像)から抽出する際に適切な撮影画像が選択できない場合には、陰影や幾何的制約の影響により、テクスチャ画像における色、明るさ、及び空間解像度等の品質が不十分となる場合があった。そして、この場合、最終的に出力される任意視点からの画像も、実物に対する忠実度が低下する。 If an appropriate captured image cannot be selected when extracting the texture image to be pasted on each mesh from the captured image (multi-viewpoint image), the color, brightness, and space of the texture image may be affected by shading and geometric constraints. In some cases, quality such as resolution was insufficient. Then, in this case, the fidelity of the image from an arbitrary viewpoint that is finally output to the real thing also decreases.
本発明は、上記の点に鑑みてなされたものであり、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる画像処理装置、方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing device, a method, and a program capable of generating an appropriate texture image for a three-dimensional mesh model.
上記目的を達成するために、本発明に係る画像処理装置は、画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得する画像取得部と、前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記メッシュに対する前記複数の画像の各々の前記重み係数に応じた重み付けを行って前記テクスチャ画像を生成するテクスチャ画像生成部と、を含んで構成されている。 In order to achieve the above object, the image processing apparatus according to the present invention includes an image acquisition unit that acquires a plurality of images obtained by photographing a subject from a plurality of different viewpoints by the image capturing apparatus, and the subject using the plurality of images. A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the image is represented by a mesh, and the image capturing device and illumination at the time of photographing the mesh and the plurality of images for each mesh of the three-dimensional mesh model. The weight coefficient calculation unit that calculates the weight coefficient of each of the plurality of images according to the positional relationship and the orientation with at least one of the light sources, and the texture image corresponding to each mesh of the three-dimensional mesh model are the plurality of images. In the case of generating from, the mesh is configured to include a texture image generation unit that generates the texture image by weighting the mesh according to the weighting coefficient of each of the plurality of images.
本発明に係る画像処理方法は、画像撮影装置により複数の異なる視点から被写体を撮影した複数の画像を取得し、前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記メッシュに対する前記複数の画像の各々の前記重み係数に応じた重み付けを行って前記テクスチャ画像を生成する。 The image processing method according to the present invention is a three-dimensional mesh model in which a plurality of images obtained by photographing a subject from a plurality of different viewpoints are acquired by an image capturing apparatus, and the surface of the subject is represented by a mesh using the plurality of images. For each mesh of the three-dimensional mesh model, the plurality of images are generated according to the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. When each weight coefficient of the image is calculated and a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, the weight coefficient of each of the plurality of images with respect to the mesh is corresponding to the weight coefficient. Weighting is performed to generate the texture image.
また、本発明のプログラムは、コンピュータを、上記の画像処理装置の各部として機能させるためのプログラムである。 Further, the program of the present invention is a program for making a computer function as each part of the above-mentioned image processing apparatus.
以上説明したように、本発明の画像処理装置、方法、及びプログラムによれば、三次元メッシュモデルの各メッシュと画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じた重み係数を算出し、重み係数に応じた重み付けを行ってテクスチャ画像を生成することにより、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる、という効果が得られる。 As described above, according to the image processing apparatus, method, and program of the present invention, the weighting coefficient according to the positional relationship and orientation between each mesh of the three-dimensional mesh model and at least one of the image capturing apparatus and the illumination light source is determined. By calculating and weighting according to the weighting coefficient to generate a texture image, an effect that an appropriate texture image can be generated for the three-dimensional mesh model can be obtained.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<画像処理システムの構成>
本実施の形態に係る画像処理システムの構成について説明する。図1に示すように、本実施の形態に係る画像処理システム10は、画像撮影装置の一例としての複数のカメラ201〜20Nと、画像処理装置30とを備えている。
<Configuration of image processing system>
The configuration of the image processing system according to the present embodiment will be described. As shown in FIG. 1, the
カメラ201〜20Nは、被写体を複数の異なる視点から撮影可能なように、三次元的(例えば、水平方向)に配置される。なお、Nは2以上の整数である。例えば、図2に示すように、3台のカメラが水平方向に並べられて配置される。
The
なお、被写体を複数の異なる視点から撮影可能であれば、カメラは1台でもよい。例えば、図3に示すように、1台のカメラを固定し、被写体を一方向(図3の例では水平方向)に回転させながら、複数回被写体を撮影してもよい。また、例えば、図4に示すように、1台のカメラを一方向(図4の例では水平方向)に移動させて、複数の異なる位置で被写体を撮影してもよい。 If the subject can be photographed from a plurality of different viewpoints, one camera may be used. For example, as shown in FIG. 3, one camera may be fixed and the subject may be photographed a plurality of times while rotating the subject in one direction (horizontal direction in the example of FIG. 3). Further, for example, as shown in FIG. 4, one camera may be moved in one direction (horizontal direction in the example of FIG. 4) to shoot a subject at a plurality of different positions.
本実施の形態に係る画像処理装置30は、CPUと、RAMと、後述する各処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することができる。画像処理装置30は、機能的には図1に示すように、画像取得部31、撮影幾何情報記憶部32、立体形状推定部33、メッシュモデル生成部34、メッシュ幾何情報計算部35、重み係数算出部36、テクスチャ画像生成部37、出力画像生成部38、及び色再現処理部39を備えている。
The
画像取得部31は、照明光源からの照明光が照射されているときに立体形状の推定対象の被写体をカメラ201〜20Nにより撮影して得られた複数の撮影画像(以下、単に「撮影画像」という)を取得する。また、画像取得部31は、チェッカーパターン等の予め立体形状、及びテクスチャのパターンが既知の被写体をカメラ201〜20Nにより撮影して得られた複数の画像を取得する。詳細は後述するが、この予め撮影して得られた画像は撮影幾何情報の算出に用いられるため、以下では、「撮影幾何情報算出用画像」という。なお、立体形状の推定対象の被写体の一部の形状が既知である場合は、撮影画像が撮影幾何情報算出用画像を兼ねてもよい。
The
撮影幾何情報記憶部32は、画像取得部31により取得された撮影幾何情報算出用画像の各々に基づいて、カメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータ(画素数、画角度、及び焦点距離等)を算出する。撮影幾何情報算出用画像がチェッカーパターンを有する被写体を撮影した画像の場合、チェッカーパターンの各矩形の辺の長さが既知であるため、画像中の各矩形と既知の辺の長さとに基づいて、カメラ201〜20Nと被写体との位置関係が算出される。また、撮影幾何情報算出用画像が立体形状が既知の被写体を撮影した画像の場合、被写体の立体形状と、画像内の被写体の輝度値と、カメラ201〜20Nと被写体との位置関係とに基づいて、照明光源とカメラ201〜20Nとの位置関係が算出される。そして、撮影幾何情報記憶部32は、算出したカメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータを、算出に用いた撮影幾何情報算出用画像を撮影したカメラ201〜20Nにより撮影された撮影画像に対応付けて、撮影幾何情報データとしてメモリに出力する。なお、撮影幾何情報記憶部32は、撮影幾何情報データを、電子ファイルとして不揮発性の記憶部に出力してもよい。また、撮影幾何情報データを予め記憶部に記憶しておき、撮影画像の撮影時に読み出してもよい。
The shooting geometric
立体形状推定部33は、図5に示すように、複数の撮影画像の各ペア間で対応点の追跡を行い、撮影幾何情報データを用いて、三角測量の原理によって被写体表面の点に関する位置及び奥行きを算出する。立体形状推定部33は、この位置及び奥行きを算出する処理を、検出された全ての対応点について行うことによって、三次元点群データを生成する。なお、本実施の形態では、立体形状推定部33は、画像間での対応点を検出する際に画像中の特徴量を算出するが、この特徴量の算出において、画像の振幅情報及び位相情報の少なくとも一方を使用する。
As shown in FIG. 5, the three-dimensional
図6に示すように、立体形状推定部33により生成された三次元点群データの中から3点を選択することで1つの面(三角形のメッシュ)を定義することができる。メッシュモデル生成部34は、被写体表面が正しく表現できるように、点の削除及び統合を行い、また最適な3点の組み合せを算出することによって、立体形状推定部33により生成された三次元点群データから、被写体表面をメッシュで表現した三次元メッシュモデルを生成する。
As shown in FIG. 6, one surface (triangular mesh) can be defined by selecting three points from the three-dimensional point cloud data generated by the three-dimensional
図7に示すように、各メッシュを構成する3点が決まると、3点の位置及び奥行きに基づいて、そのメッシュの法線を算出することができる。メッシュ幾何情報計算部35は、メッシュの位置と法線の向きと撮影幾何情報データとを用いて、メッシュに対する各撮影画像を撮影した際のカメラ201〜20Nの位置及び姿勢を算出する。また、メッシュ幾何情報計算部35は、メッシュの位置と法線の向きと撮影幾何情報データとを用いて、メッシュと照明光源との位置関係及び照明光源からの照明光の入射角を算出する。なお、この入射角はメッシュの法線と照明光源からの照明光の光軸とがなす角である。また、以下では、メッシュ幾何情報計算部35が算出したメッシュに対する各撮影画像を撮影した際のカメラの位置及び姿勢と、メッシュと照明光源との位置関係及び照明光源からの照明光の入射角と、を「メッシュ幾何情報データ」という。
As shown in FIG. 7, once the three points constituting each mesh are determined, the normal of the mesh can be calculated based on the positions and depths of the three points. The mesh geometry
重み係数算出部36は、三次元メッシュモデルの各メッシュに対し、当該メッシュのメッシュ幾何情報データに基づいて、当該メッシュに対応する画像情報が含まれる撮影画像の各々の重み係数を算出する。 The weight coefficient calculation unit 36 calculates the weight coefficient of each of the captured images including the image information corresponding to the mesh based on the mesh geometric information data of the mesh for each mesh of the three-dimensional mesh model.
図8に示すように、メッシュの法線方向とカメラの光軸(視線方向)とが一致する撮影画像においては、メッシュ領域(テクスチャとして使用される領域)における空間解像度が最大となる。そこで、重み係数算出部36は、テクスチャの解像度を最優先とする場合には、メッシュの法線方向とカメラの光軸とが一致する撮影画像の重み係数を1とし、一致しない撮影画像の重み係数を0とする。なお、重み係数算出部36は、メッシュの法線方向とカメラの光軸とが一致する撮影画像が無い場合は、メッシュの法線方向とカメラの光軸とが最も近い撮影画像の重み係数を1とし、それ以外の撮影画像の重み係数を0としてもよい。また、例えば、重み係数算出部36は、メッシュの法線方向とカメラの光軸とのなす角が所定の範囲内の撮影画像の重み係数を1とし、メッシュの法線方向とカメラの光軸とのなす角が所定の範囲外の撮影画像の重み係数を0としてもよい。また、重み係数算出部36は、メッシュの法線方向とカメラの光軸とのなす角が小さいほど大きい値を重み係数として算出してもよい。この場合の重み係数としては、例えば、メッシュの法線方向とカメラの光軸とのなす角のコサイン値が挙げられる。 As shown in FIG. 8, in the captured image in which the normal direction of the mesh and the optical axis (line-of-sight direction) of the camera coincide with each other, the spatial resolution in the mesh region (region used as the texture) is maximized. Therefore, when the weight resolution of the texture is given the highest priority, the weighting coefficient calculation unit 36 sets the weighting coefficient of the captured image in which the normal direction of the mesh and the optical axis of the camera match to 1, and the weight of the captured image that does not match. Let the coefficient be 0. If there is no captured image in which the normal direction of the mesh and the optical axis of the camera match, the weighting coefficient calculation unit 36 calculates the weighting coefficient of the captured image in which the normal direction of the mesh and the optical axis of the camera are closest to each other. It may be set to 1 and the weighting coefficient of the other captured images may be set to 0. Further, for example, the weighting coefficient calculation unit 36 sets the weighting coefficient of the captured image in which the angle formed by the normal direction of the mesh and the optical axis of the camera is within a predetermined range to 1, and sets the normal direction of the mesh and the optical axis of the camera to 1. The weighting coefficient of the captured image whose angle formed with and is outside the predetermined range may be set to 0. Further, the weighting coefficient calculation unit 36 may calculate a larger value as the weighting coefficient as the angle formed by the normal direction of the mesh and the optical axis of the camera is smaller. Examples of the weighting coefficient in this case include the cosine value of the angle formed by the normal direction of the mesh and the optical axis of the camera.
また、メッシュにおける照明光源からの照明光の正反射方向とカメラの光軸とが一致する場合、もしくは比較的近い場合には、メッシュに対応する撮影画像中の領域に照明光の正反射が含まれる可能性が高い。そこで、重み係数算出部36は、テクスチャの色情報を最優先とする場合には、照明光の正反射の影響を除去するために、照明光の正反射方向とカメラの光軸とのなす角が所定の範囲内である撮影画像の重み係数を0とし、照明光の正反射方向とカメラの光軸とのなす角が所定の範囲外である撮影画像の重み係数を1とする。なお、重み係数算出部36は、照明光の正反射方向とカメラの光軸とのなす角が大きいほど大きい値を重み係数として算出してもよい。この場合の重み係数としては、例えば、メッシュの法線方向とカメラの光軸とのなす角のサイン値が挙げられる。また、図9に示すように、照明光の入射角の影響を抑制するために、照明光の入射角のコサイン値を撮影画像の重み係数としてもよい。この場合の重み係数は0以上1以下の値となる。なお、照明光の入射角が小さいほど大きい値であれば、重み係数は照明光の入射角のコサイン値に限定されず、例えば、照明光の入射角のコサイン値のn乗(指数乗)を重み係数としてもよい。また、オイラーの公式に基づき、コサイン関数の代わりに、複素指数(exp(ai)=cos a+i sin a)の指数乗を重み係数として用いてもよい。 In addition, when the specular reflection direction of the illumination light from the illumination light source in the mesh and the optical axis of the camera coincide with or are relatively close to each other, the region in the captured image corresponding to the mesh includes the specular reflection of the illumination light. There is a high possibility that it will be. Therefore, when the weight coefficient calculation unit 36 gives the highest priority to the color information of the texture, the angle formed by the specular reflection direction of the illumination light and the optical axis of the camera in order to remove the influence of the specular reflection of the illumination light. The weighting coefficient of the captured image in which is within the predetermined range is set to 0, and the weighting coefficient of the captured image in which the angle formed by the specular reflection direction of the illumination light and the optical axis of the camera is outside the predetermined range is set to 1. The weighting coefficient calculation unit 36 may calculate a larger value as the weighting coefficient as the angle formed by the specular reflection direction of the illumination light and the optical axis of the camera increases. Examples of the weighting coefficient in this case include a sine value of an angle formed by the normal direction of the mesh and the optical axis of the camera. Further, as shown in FIG. 9, in order to suppress the influence of the incident angle of the illumination light, the cosine value of the incident angle of the illumination light may be used as a weighting coefficient of the captured image. In this case, the weighting coefficient is a value of 0 or more and 1 or less. If the incident angle of the illumination light is smaller, the larger the value, the weighting coefficient is not limited to the cosine value of the incident angle of the illumination light. For example, the nth power (exponential power) of the cosine value of the incident angle of the illumination light is used. It may be a weighting coefficient. Further, based on Euler's formula, the exponential power of the complex exponential (exp (ai) = cos a + i sin a) may be used as the weighting coefficient instead of the cosine function.
また、重み係数算出部36は、空間解像度と色情報とのバランスを取る場合には、前述した3つの手法を組み合わせて撮影画像の重み係数を算出してもよい。例えば、重み係数算出部36は、メッシュの法線方向とカメラの光軸とのなす角が所定の範囲内の撮影画像の重み係数を1とし、この重み係数に、照明光の入射角から算出される重み係数を乗算して得られた結果を、撮影画像の最終的な重み係数としてもよい。また、例えば、3つの手法のそれぞれで算出された重み係数を乗算して得られた結果を、撮影画像の最終的な重み係数としてもよい。 Further, the weighting coefficient calculation unit 36 may calculate the weighting coefficient of the captured image by combining the above-mentioned three methods when balancing the spatial resolution and the color information. For example, the weighting coefficient calculation unit 36 sets the weighting coefficient of the captured image in which the angle formed by the normal direction of the mesh and the optical axis of the camera is within a predetermined range to 1, and calculates this weighting coefficient from the incident angle of the illumination light. The result obtained by multiplying the weighting coefficients to be obtained may be used as the final weighting coefficient of the captured image. Further, for example, the result obtained by multiplying the weighting coefficients calculated by each of the three methods may be used as the final weighting coefficient of the captured image.
なお、1枚の撮影画像には複数のメッシュに対応する領域が含まれている場合が多いため、1枚の撮影画像には、複数のメッシュのそれぞれに関する重み係数がメッシュに対応付けられる形式となる。 In many cases, one shot image contains an area corresponding to a plurality of meshes, so that one shot image has a format in which weighting coefficients for each of the plurality of meshes are associated with the meshes. Become.
また、空間解像度と色情報との何れを優先するか、又は空間解像度と色情報とのバランスを取るかは、例えば、ユーザにより指定することができる。 Further, for example, the user can specify which of the spatial resolution and the color information is prioritized, or whether the spatial resolution and the color information are balanced.
テクスチャ画像生成部37は、撮影画像から各メッシュに対応する領域の画像を抽出し、各メッシュに対応するテクスチャ画像を生成する。この際、テクスチャ画像生成部37は、各メッシュに対し、各撮影画像から抽出した画像に、各撮影画像の当該メッシュに対応付けられた重み係数を乗算し、乗算した結果を加算することによって、当該メッシュに対応するテクスチャ画像を生成する。なお、テクスチャ画像生成部37は、重み係数が0の撮影画像は予め処理の対象外としてもよい。
The texture
出力画像生成部38は、図10に示すように、ユーザ等により指定された位置の視点から被写体を見た画像であって、例えば表示装置等の画像出力装置に出力するための画像(以下、「出力画像」という)を生成する。具体的には、出力画像生成部38は、三次元メッシュモデル及びメッシュ幾何情報データに基づいて、テクスチャ画像生成部37により生成されたテクスチャ画像を三次元メッシュモデルの各メッシュに貼り付ける。また、出力画像生成部38は、指定された視点、照明光源の位置及び方向と、三次元メッシュモデル及びメッシュ幾何情報データとに基づいて、各メッシュと視点との位置関係、及び各メッシュに対する照明光の入射角を算出する。そして、出力画像生成部38は、指定された視点からは観察できないメッシュを除去する陰面処理を行った後に、光線追跡処理並びに陰影処理を行うことによって、指定された視点から観察された被写体を表す画像に相当する出力画像を生成する。なお、撮影画像がマルチバンド画像の場合は、出力画像生成部38が生成する出力画像もマルチバンド画像でもよい。
As shown in FIG. 10, the output
色再現処理部39は、入力された色再現パラメータに基づき、出力画像生成部38により出力された出力画像の各画素に対応する色を算出し、算出した各画素の色を画像出力装置に出力する。なお、色再現パラメータの例としては、カメラ201〜20Nのカメラ感度等の光学特性、画像撮影時の照明光に関する分光情報、再現したい環境での照明光に関する分光情報、及び画像出力装置の特性データ等が挙げられる。
The color
例えば、画像取得部31により取得された撮影画像がカラー画像である場合、すなわち、出力画像生成部38により出力された出力画像がカラー画像である場合、色再現処理部39は、画像出力装置の特性に合わせた画像補正処理(色変換及びガンマ補正等)を行う。
For example, when the captured image acquired by the
また、出力画像生成部38により出力された出力画像がマルチバンド画像である場合、色再現処理部39は、色再現パラメータを用いて、分光反射率の推定、反射光スペクトルの算出、カラー画像(RGB画像及びLab画像等)への変換、及び画像出力装置の特性に合わせた補正処理を順次行う。なお、この場合、色再現処理部39は、分光反射率の推定及び反射光スペクトルの算出を行わずに、直接、マルチバンド画像からカラー画像を算出してもよい。また、色再現処理部39による色再現処理は、テクスチャ画像生成部37によるテクスチャ画像の生成時に行ってもよいし、出力画像生成部38が出力画像を生成する際に用いるテクスチャ画像に対して行ってもよい。
When the output image output by the output
<画像処理システムの作用>
次に、本実施の形態に係る画像処理システム10の作用について説明する。複数のカメラ201〜20Nが立体形状の推定対象の被写体を撮影して得られた複数の撮影画像が画像処理装置30に入力されると、画像処理装置30によって図11に示す画像処理ルーチンが実行される。なお、ここでは、撮影幾何情報算出用画像は予め撮影され、カメラ201〜20Nの各々に記憶されている場合について説明する。
<Operation of image processing system>
Next, the operation of the
ステップS10では、画像取得部31は、カメラ201〜20Nにより撮影して得られた複数の撮影画像、及び複数の撮影幾何情報算出用画像をカメラ201〜20Nから取得する。次に、ステップS12では、撮影幾何情報記憶部32は、前述したように、ステップS10で取得された撮影幾何情報算出用画像の各々に基づいて、カメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータを算出する。そして、撮影幾何情報記憶部32は、算出したカメラ201〜20Nと照明光源と被写体との位置関係、及びカメラ201〜20Nの光学パラメータを、算出に用いた撮影幾何情報算出用画像を撮影したカメラ201〜20Nにより撮影された撮影画像に対応付けて、撮影幾何情報データとしてメモリに出力する。
In step S10, the
次に、ステップS14では、立体形状推定部33は、ステップS10で取得された複数の撮影画像の各ペア間で対応点の追跡を行い、各ペアの撮影画像に対応する撮影幾何情報データを用いて、三角測量の原理によって被写体表面の点に関する位置及び奥行きを算出する。立体形状推定部33は、この位置及び奥行きを算出する処理を、検出された全ての対応点について行うことによって、三次元点群データを生成する。
Next, in step S14, the three-dimensional
次に、ステップS16では、メッシュモデル生成部34は、被写体表面が正しく表現できるように、点の削除及び統合を行い、また最適な3点の組み合せを算出することによって、ステップS14で生成された三次元点群データから、被写体表面をメッシュで表現した三次元メッシュモデルを生成する。
Next, in step S16, the mesh
次に、ステップS18では、メッシュ幾何情報計算部35は、ステップS16で生成された三次元メッシュモデルの各メッシュについて、メッシュの位置と法線の向きとステップS12で算出された撮影幾何情報データとを用いて、メッシュ幾何情報データを算出する。次に、ステップS20では、重み係数算出部36は、前述したように、ステップS16で生成された三次元メッシュモデルの各メッシュに対し、ステップS18で算出された当該メッシュのメッシュ幾何情報データに基づいて、当該メッシュに対応する画像情報が含まれる撮影画像の各々の重み係数を算出する。
Next, in step S18, the mesh geometric
次に、ステップS22では、テクスチャ画像生成部37は、撮影画像から各メッシュに対応する領域の画像を抽出し、各メッシュに対応するテクスチャ画像を生成する。この際、テクスチャ画像生成部37は、各メッシュに対し、各撮影画像から抽出した画像に、各撮影画像の当該メッシュに対応付けられた重み係数を乗算し、乗算した結果を加算することによって、当該メッシュに対応するテクスチャ画像を生成する。
Next, in step S22, the texture
次に、ステップS24では、出力画像生成部38は、三次元メッシュモデル及びメッシュ幾何情報データに基づいて、ステップS22で生成されたテクスチャ画像を三次元メッシュモデルの各メッシュに貼り付ける。また、出力画像生成部38は、指定された視点、照明光源の位置及び方向と、三次元メッシュモデル及びメッシュ幾何情報データとに基づいて、各メッシュと視点との位置関係、及び各メッシュに対する照明光の入射角を算出する。そして、出力画像生成部38は、指定された視点からは観察できないメッシュを除去する陰面処理を行った後に、光線追跡処理並びに陰影処理を行うことによって、指定された視点から観察された被写体を表す画像に相当する出力画像を生成する。
Next, in step S24, the output
次に、ステップS26では、色再現処理部39は、前述したように、入力された色再現パラメータに基づき、出力画像生成部38により出力された出力画像の各画素に対応する色を算出し、算出した各画素の色を画像出力装置に出力する。ステップS26の処理が終了すると、画像処理ルーチンが終了する。
Next, in step S26, as described above, the color
以上説明したように、本実施の形態に係る画像処理装置によれば、三次元メッシュモデルの各メッシュと画像撮影装置及び照明光源との位置関係及び姿勢に応じた重み係数を算出し、重み係数に応じた重み付けを行ってテクスチャ画像を生成することにより、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる。 As described above, according to the image processing apparatus according to the present embodiment, a weighting coefficient is calculated according to the positional relationship and orientation between each mesh of the three-dimensional mesh model and the image capturing apparatus and the illumination light source, and the weighting coefficient is calculated. By generating a texture image by weighting according to the above, it is possible to generate an appropriate texture image for the three-dimensional mesh model.
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
例えば、上記実施の形態では、画像処理装置30の各機能部を、プログラムを実行することによって実現する場合を例に説明したが、これに限定されない。例えば、画像処理装置30の各機能部を、FPGA(Field-Programmable Gate Array)等のハードウェアで実現してもよいし、ハードウェアとソフトウェアとの組み合わせで実現してもよい。
For example, in the above embodiment, the case where each functional unit of the
また、上記実施の形態において、重み係数算出部36は、メッシュの法線方向と画像の撮影時のカメラの光軸とがなす角と、メッシュの法線方向と出力画像生成部38が出力画像を生成する際に使用する指定された視点からの視線方向とがなす角と、の差に応じて重み係数を算出してもよい(変形例1)。この場合、この差が小さい撮影画像であるほど、大きい重み係数を算出する形態が例示される。
Further, in the above embodiment, the weight coefficient calculation unit 36 has the angle formed by the normal direction of the mesh and the optical axis of the camera at the time of taking an image, the normal direction of the mesh, and the output
また、上記実施の形態において、重み係数算出部36は、メッシュにおける画像の撮影時の照明光の正反射方向とカメラの光軸とのなす角と、メッシュにおける出力画像生成部38が出力画像を生成する際に使用する指定された照明光源からの照明光の正反射方向と指定された視点からの視線方向とのなす角と、の差に応じて重み係数を算出してもよい(変形例2)。この場合、この差が小さい撮影画像であるほど、大きい重み係数を算出する形態が例示される。
Further, in the above embodiment, the weight coefficient calculation unit 36 calculates the angle formed by the specular reflection direction of the illumination light at the time of shooting the image on the mesh and the optical axis of the camera, and the output
また、上記実施の形態において、重み係数算出部36は、メッシュの法線方向に対する画像の撮影時の照明光の入射角と、メッシュの法線方向に対する出力画像生成部38が出力画像を生成する際に使用する指定された照明光源からの照明光の入射角と、差に応じて重み係数を算出してもよい(変形例3)。この場合、この差が小さい撮影画像であるほど、大きい重み係数を算出する形態が例示される。
Further, in the above embodiment, the weight coefficient calculation unit 36 generates an output image by the incident angle of the illumination light at the time of taking an image with respect to the normal direction of the mesh and the output
これらの3つの変形例では、複数の異なる視点で撮影された画像に対し、指定された視点及び光源に応じて生成される出力画像(すなわち、再現したい画像)により近い状況で撮影されて得られた画像の重み係数が大きくなるため、三次元メッシュモデルに対して適切なテクスチャ画像を生成することができる。また、これらの3つの変形例では、図12に示すように、重み係数算出部36に対して、指定された視点及び照明光源の位置や姿勢等の再現環境幾何情報データが入力される。また、これらの3つの変形例の重み係数の算出手法と上記実施の形態で説明した3つの重み係数の算出手法との2つ以上を組み合わせて撮影画像の重み係数を算出してもよい。この場合、組み合わせの算出手法の各々により算出された重み係数を乗算して得られた結果を、撮影画像の最終的な重み係数とする形態が例示される。 In these three variants, images taken from a plurality of different viewpoints are obtained by being taken in a situation closer to the output image (that is, the image to be reproduced) generated according to the specified viewpoint and light source. Since the weighting coefficient of the image is large, it is possible to generate an appropriate texture image for the three-dimensional mesh model. Further, in these three modified examples, as shown in FIG. 12, the reproduction environment geometric information data such as the position and orientation of the designated viewpoint and the illumination light source is input to the weighting coefficient calculation unit 36. Further, the weighting coefficient of the captured image may be calculated by combining two or more of the weighting coefficient calculation method of these three modified examples and the three weighting coefficient calculation method described in the above embodiment. In this case, a form is exemplified in which the result obtained by multiplying the weighting coefficient calculated by each of the combination calculation methods is used as the final weighting coefficient of the captured image.
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能であるし、ネットワークを介して提供することも可能である。 Further, in the specification of the present application, the program has been described as an embodiment in which the program is pre-installed, but the program can be stored in a computer-readable recording medium and provided, or provided via a network. It is also possible to do.
10 画像処理システム
201〜20N カメラ
30 画像処理装置
31 画像取得部
32 撮影幾何情報記憶部
33 立体形状推定部
34 メッシュモデル生成部
35 メッシュ幾何情報計算部
36 重み係数算出部
37 テクスチャ画像生成部
38 出力画像生成部
39 色再現処理部
10 Image processing system 201-
Claims (13)
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて前記重み係数を算出する画像処理装置。 An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit determines the weight according to the angle formed by the specular reflection direction of the illumination light from the illumination light source at the time of photographing the image on the mesh and the optical axis of the image capturing apparatus at the time of photographing the image. An image processing device that calculates a coefficient.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて前記重み係数を算出する画像処理装置。 An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weighting coefficient calculation unit is an image processing device that calculates the weighting coefficient according to the incident angle of the illumination light from the illumination light source at the time of shooting the image with respect to the normal direction of the mesh.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記重み係数算出部は、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理装置。 An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The weight coefficient calculation unit uses the positional relationship and orientation between the mesh and the designated viewpoint used when generating an image viewed from the designated viewpoint, and uses the normal direction of the mesh and the image. The weighting coefficient is calculated according to the difference between the angle formed by the optical axis of the image capturing apparatus at the time of photographing and the angle formed by the normal direction of the mesh and the line-of-sight direction from the designated viewpoint. Image processing device.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理装置。 An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit includes the mesh, the designated viewpoint, and the designated viewpoint used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. Using the positional relationship and orientation with the illumination light source, the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time of photographing the image in the mesh and the optical axis of the image capturing apparatus at the time of photographing the image. An image processing device that calculates the weighting coefficient according to the difference between the normal reflection direction of the illumination light from the designated illumination light source in the mesh and the line-of-sight direction from the designated viewpoint.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて前記重み係数を算出する画像処理装置。 An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit has a positional relationship between the mesh and the designated illumination light source, which is used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. And the orientation, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the incident angle of the illumination light from the designated illumination light source with respect to the normal direction of the mesh. An image processing device that calculates the weighting coefficient according to the difference between.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成するメッシュモデル生成部と、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出する重み係数算出部と、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成するテクスチャ画像生成部と、
を含み、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数算出部は、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第1の重み係数を算出し、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第2の重み係数を算出し、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて第3の重み係数を算出し、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第4の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第5の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて第6の重み係数を算出したうえで、前記第1から前記第6までの重み係数のうちの2つ以上に基づいて、前記メッシュに対する前記画像の最終的な重み係数を算出する画像処理装置。 An image acquisition unit that acquires a plurality of images of a subject taken from a plurality of different viewpoints by an image capturing device, and an image acquisition unit.
A mesh model generation unit that generates a three-dimensional mesh model in which the surface of the subject is represented by a mesh using the plurality of images, and a mesh model generation unit.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Weight coefficient calculation unit that calculates the weight coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. A texture image generation unit that generates the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weight coefficient of each of the plurality of images with respect to the mesh.
Only including,
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The weight coefficient calculation unit calculates a first weight coefficient according to an angle formed by the normal direction of the mesh and the optical axis of the image capturing apparatus at the time of capturing the image, and captures the image on the mesh. A second weighting coefficient is calculated according to the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time and the optical axis of the image capturing apparatus at the time of photographing the image, and the second weighting coefficient is calculated with respect to the normal direction of the mesh. The mesh and the designation used when generating an image viewed from a designated viewpoint by calculating a third weighting coefficient according to the incident angle of the illumination light from the illumination light source at the time of taking the image. Using the positional relationship and orientation with the viewpoint, the angle formed by the normal direction of the mesh and the optical axis of the image capturing device at the time of shooting the image, the normal direction of the mesh, and the designated viewpoint. When the fourth weighting coefficient is calculated according to the difference between the angle formed by the line-of-sight direction and the image viewed from the specified viewpoint when the illumination light is emitted from the specified illumination light source. Using the positional relationship and orientation of the mesh, the designated viewpoint, and the designated illumination light source, the direction of normal reflection of the illumination light from the illumination light source at the time of taking the image on the mesh and the said. The angle formed by the optical axis of the image capturing apparatus at the time of taking an image, the angle formed by the normal reflection direction of the illumination light from the designated illumination light source in the mesh, and the line-of-sight direction from the designated viewpoint. A fifth weighting coefficient is calculated according to the difference between, and the mesh and the designation used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. Using the positional relationship and orientation with the illuminated light source, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the specified illumination with respect to the normal direction of the mesh. After calculating the sixth weighting coefficient according to the difference between the incident angle of the illumination light from the light source, the mesh is based on two or more of the first to sixth weighting coefficients. An image processing device that calculates the final weighting coefficient of the image.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて前記重み係数を算出する画像処理方法。 Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weighting coefficient, the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time of photographing the image on the mesh and the optical axis of the image capturing apparatus at the time of photographing the image An image processing method for calculating the weighting coefficient.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて前記重み係数を算出する画像処理方法。 Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the mesh by the weighting coefficient of each of the plurality of images to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
The calculation of the weighting coefficient is an image processing method for calculating the weighting coefficient according to the incident angle of the illumination light from the illumination light source at the time of shooting the image with respect to the normal direction of the mesh.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記重み係数を算出することでは、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理方法。 Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
In calculating the weighting coefficient, the normal direction of the mesh and the normal direction of the mesh are used by using the positional relationship and orientation between the mesh and the designated viewpoint used when generating an image viewed from the specified viewpoint. The weighting coefficient is determined according to the difference between the angle formed by the optical axis of the image capturing device at the time of capturing the image and the angle formed by the normal direction of the mesh and the line-of-sight direction from the designated viewpoint. Image processing method to calculate.
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて前記重み係数を算出する画像処理方法。 Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weighting coefficient, the mesh, the designated viewpoint, and the designation used when generating an image viewed from a designated viewpoint when the illumination light is irradiated from the designated illumination light source. Using the positional relationship and orientation with the illuminated light source, the normal reflection direction of the illumination light from the illumination light source at the time of photographing the image in the mesh and the optical axis of the image capturing apparatus at the time of photographing the image are formed. An image processing method for calculating the weighting coefficient according to the difference between the angle and the angle formed by the normal reflection direction of the illumination light from the designated illumination light source in the mesh and the line-of-sight direction from the designated viewpoint. ..
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて前記重み係数を算出する画像処理方法。 Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weighting coefficient, the mesh used to generate an image viewed from a specified viewpoint when the illumination light is emitted from the designated illumination light source and the designated illumination light source are used. Using the positional relationship and orientation, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the illumination light from the designated illumination light source with respect to the normal direction of the mesh. An image processing method for calculating the weighting coefficient according to the difference between the incident angle and the angle of incidence .
前記複数の画像を用いて前記被写体の表面をメッシュで表現した三次元メッシュモデルを生成し、
前記三次元メッシュモデルの各メッシュに対し、前記メッシュと前記複数の画像の各々の撮影時の前記画像撮影装置及び照明光源の少なくとも一方との位置関係及び姿勢に応じて、前記複数の画像の各々の重み係数を算出し、
前記三次元メッシュモデルの各メッシュに対応するテクスチャ画像を前記複数の画像から生成する場合に、前記複数の画像の各々から、前記メッシュに対応する領域の画像を抽出し、前記複数の画像の各々から抽出した画像に、前記メッシュに対する前記複数の画像の各々の前記重み係数を乗算した画像を各々加算することにより、前記テクスチャ画像を生成する
画像処理方法であって、
前記複数の画像は、照明光源からの照明光が照射されているときに前記画像撮影装置により被写体を撮影した画像であり、
前記重み係数を算出することでは、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第1の重み係数を算出し、前記メッシュにおける前記画像の撮影時の前記照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角に応じて第2の重み係数を算出し、前記メッシュの法線方向に対する前記画像の撮影時の前記照明光源からの照明光の入射角に応じて第3の重み係数を算出し、指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点との位置関係及び姿勢を用いて、前記メッシュの法線方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュの法線方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第4の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された視点及び前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュにおける前記画像の撮影時の照明光源からの照明光の正反射方向と前記画像の撮影時の前記画像撮影装置の光軸とのなす角と、前記メッシュにおける前記指定された照明光源からの照明光の正反射方向と前記指定された視点からの視線方向とのなす角と、の差に応じて第5の重み係数を算出し、指定された照明光源から照明光が照射された場合における指定された視点から見た画像を生成する際に使用される前記メッシュと前記指定された照明光源との位置関係及び姿勢を用いて、前記メッシュの法線方向に対する前記画像の撮影時の照明光源からの照明光の入射角と、前記メッシュの法線方向に対する前記指定された照明光源からの照明光の入射角と、の差に応じて第6の重み係数を算出したうえで、前記第1から前記第6までの重み係数のうちの2つ以上に基づいて、前記メッシュに対する前記画像の最終的な重み係数を算出する画像処理方法。 Acquire multiple images of the subject from multiple different viewpoints with an image capturing device,
Using the plurality of images, a three-dimensional mesh model in which the surface of the subject is represented by a mesh is generated.
For each mesh of the three-dimensional mesh model, each of the plurality of images depends on the positional relationship and orientation between the mesh and at least one of the image capturing device and the illumination light source at the time of capturing each of the plurality of images. Calculate the weighting coefficient of
When a texture image corresponding to each mesh of the three-dimensional mesh model is generated from the plurality of images, an image of a region corresponding to the mesh is extracted from each of the plurality of images, and each of the plurality of images. An image processing method for generating the texture image by adding an image obtained by multiplying the image extracted from the image by the weight coefficient of each of the plurality of images with respect to the mesh .
The plurality of images are images of a subject photographed by the image capturing device when the illumination light from the illumination light source is irradiated.
In calculating the weight coefficient, the first weight coefficient is calculated according to the angle formed by the normal direction of the mesh and the optical axis of the image capturing apparatus at the time of photographing the image, and the image in the mesh is calculated. The second weighting coefficient is calculated according to the angle formed by the normal reflection direction of the illumination light from the illumination light source at the time of shooting and the optical axis of the image capturing device at the time of shooting the image, and the normal line of the mesh. The mesh and the mesh used when generating an image viewed from a specified viewpoint by calculating a third weighting coefficient according to the incident angle of the illumination light from the illumination light source when the image is taken with respect to the direction. Using the positional relationship and orientation with the designated viewpoint, the angle formed by the normal direction of the mesh and the optical axis of the image capturing apparatus when the image is taken, the normal direction of the mesh, and the designation. The fourth weighting coefficient is calculated according to the difference between the angle formed by the line-of-sight direction from the viewpoint and the image viewed from the specified viewpoint when the illumination light is emitted from the specified illumination light source. The direction of normal reflection of the illumination light from the illumination light source at the time of taking the image on the mesh by using the positional relationship and the orientation of the mesh and the designated viewpoint and the designated illumination light source. The angle formed by the light axis of the image capturing apparatus at the time of capturing the image, the normal reflection direction of the illumination light from the designated illumination light source in the mesh, and the line-of-sight direction from the designated viewpoint. A fifth weighting coefficient is calculated according to the difference between the angle and the mesh, and the mesh used to generate an image viewed from a specified viewpoint when the illumination light is emitted from the specified illumination light source. Using the positional relationship and orientation with the designated illumination light source, the incident angle of the illumination light from the illumination light source at the time of taking the image with respect to the normal direction of the mesh and the designation with respect to the normal direction of the mesh. After calculating the sixth weighting coefficient according to the difference between the incident angle of the illumination light from the illumination light source and the incident angle of the illumination light, the above-mentioned is based on two or more of the first to the sixth weighting coefficients. An image processing method for calculating the final weighting coefficient of the image with respect to the mesh .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017137830A JP6867645B2 (en) | 2017-07-14 | 2017-07-14 | Image processing equipment, methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017137830A JP6867645B2 (en) | 2017-07-14 | 2017-07-14 | Image processing equipment, methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019020952A JP2019020952A (en) | 2019-02-07 |
JP6867645B2 true JP6867645B2 (en) | 2021-05-12 |
Family
ID=65354475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017137830A Active JP6867645B2 (en) | 2017-07-14 | 2017-07-14 | Image processing equipment, methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6867645B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020194396A (en) | 2019-05-29 | 2020-12-03 | 株式会社ソニー・インタラクティブエンタテインメント | Mesh model generation method, mesh model generation apparatus, and program |
JP7334509B2 (en) * | 2019-07-05 | 2023-08-29 | 凸版印刷株式会社 | 3D geometric model generation system, 3D geometric model generation method and program |
JP7574569B2 (en) | 2020-08-20 | 2024-10-29 | Toppanホールディングス株式会社 | Spectral texture image generating system, spectral texture image generating method and program |
CN113428374B (en) * | 2021-07-29 | 2023-04-18 | 西南交通大学 | Bridge structure detection data collection method and unmanned aerial vehicle system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3625624B2 (en) * | 1996-08-30 | 2005-03-02 | 三洋電機株式会社 | Texture information assigning method, medium recording texture information assigning program, and texture information assigning apparatus |
JP2001236510A (en) * | 2000-02-24 | 2001-08-31 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for generating three-dimensional visualized image and recording medium with three- dimensional visualized image generation program recorded thereon |
US9905039B2 (en) * | 2014-02-21 | 2018-02-27 | Qualcomm Incorporated | View independent color equalized 3D scene texturing |
-
2017
- 2017-07-14 JP JP2017137830A patent/JP6867645B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019020952A (en) | 2019-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102714153B1 (en) | Method and system for generating a three-dimensional image of an object | |
EP3134868B1 (en) | Generation and use of a 3d radon image | |
McCarthy et al. | Multi-image photogrammetry for underwater archaeological site recording: an accessible, diver-based approach | |
KR102618542B1 (en) | ToF (time of flight) capturing apparatus and method for processing image for decreasing blur of depth image thereof | |
US8405742B2 (en) | Processing images having different focus | |
US20150363970A1 (en) | Model and Sizing Information from Smartphone Acquired Image Sequences | |
JP6867645B2 (en) | Image processing equipment, methods, and programs | |
EP3841554A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
KR101666854B1 (en) | Apparatus and method for depth unfolding based on multiple depth images | |
WO2015048694A2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
US20140300941A1 (en) | Method and apparatus for generating hologram based on multi-view image | |
GB2565354A (en) | Method and corresponding device for generating a point cloud representing a 3D object | |
JP2016122444A (en) | Method and apparatus for generating adapted slice image from focal stack | |
DK3189493T3 (en) | PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP | |
JP2022024688A (en) | Depth map generation device and program thereof, and depth map generation system | |
TW201716743A (en) | Three dimensional characteristic information sensing system and sensing method | |
JP6968895B2 (en) | Method and optical system to acquire tomographic distribution of electromagnetic field crest | |
KR101000859B1 (en) | HDRI-Panorama image generation apparatus and method with fisheye lens | |
CN117671159A (en) | Three-dimensional model generation method and device, equipment and storage medium | |
KR20110133677A (en) | Method and apparatus for processing 3d image | |
JP2015005200A (en) | Information processing apparatus, information processing system, information processing method, program, and memory medium | |
JP4091455B2 (en) | Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium | |
JP6835227B2 (en) | Image processing equipment, image processing methods and computer programs | |
JP5686412B2 (en) | 3D shape estimation device, 3D shape estimation method, and 3D shape estimation program | |
Ma et al. | An inverse problem approach to computational active depth from defocus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170718 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6867645 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |