JP2022133133A - 生成装置、生成方法、システム、およびプログラム - Google Patents
生成装置、生成方法、システム、およびプログラム Download PDFInfo
- Publication number
- JP2022133133A JP2022133133A JP2021032037A JP2021032037A JP2022133133A JP 2022133133 A JP2022133133 A JP 2022133133A JP 2021032037 A JP2021032037 A JP 2021032037A JP 2021032037 A JP2021032037 A JP 2021032037A JP 2022133133 A JP2022133133 A JP 2022133133A
- Authority
- JP
- Japan
- Prior art keywords
- model
- image
- dimensional model
- virtual viewpoint
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
【課題】透明部を含む3次元モデルの生成の負荷を低減する。【解決手段】生成装置は、複数の撮像装置による撮像により得られた画像を取得し、該画像において、透明部を含むオブジェクトを識別し、該オブジェクトの3次元モデルを生成し、該透明部の透明部モデルを導出し、該3次元モデルから該透明部モデルを削除することにより、該3次元モデルを補正する。【選択図】図2
Description
本開示は、オブジェクトの3次元形状データの生成技術に関する。
昨今、複数のカメラを異なる位置に設置して複数視点で同期撮影し、当該撮影により得られた複数の画像を用いて、任意の仮想カメラ(仮想視点)からの画像(仮想視点画像)を生成する技術が注目されている。このような技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが可能となり、通常の映像コンテンツと比較してユーザに高臨場感を与えることが可能となる。
仮想視点画像を生成するために、オブジェクトの3次元形状データ(以下、3Dモデル)を用いる場合がある。この3Dモデルの生成対象であるオブジェクトが眼鏡をかけた人物を想定すると、眼鏡のレンズ(透明部)を含める形で3Dモデルが作成されうる。眼鏡をかけた人物の3Dモデルに基づく仮想視点画像の例を図17に示す。図17に示すように、視体積交差法による仮想視点画像では、顔ではなく、眼鏡のレンズ部分に目のテクスチャが貼られる。そのため、目が顔から飛び出しているよう画像が作成され、違和感が生じるという課題がある。
一方、特許文献1には、眼鏡フレーム部分の画素値を除去する眼鏡除去部と、裸眼の顔の3Dモデルを生成する裸眼の顔モデル生成部と、眼鏡の3Dモデルを生成する眼鏡モデル生成部と、裸眼の顔の3Dモデルと眼鏡の3Dモデルを統合するモデル統合部を備える技術が開示されている。
しかし、特許文献1の技術では、眼鏡フレームに配置した特徴点の追跡処理を行って眼鏡の3Dモデルを生成する必要があり、生成負荷が大きくなる。
本開示は上記課題に鑑みてなされたものであり、透明部を含む3次元モデルの生成の負荷を低減することを目的とする。
上記目的を達成するための一手段として、本開示の画像処理装置は以下の構成を有する。すなわち、複数の撮像装置による撮像により得られた画像を取得する取得手段と、前記画像において、透明部を含むオブジェクトを識別する識別手段と、前記オブジェクトの3次元モデルを生成する生成手段と、前記透明部の透明部モデルを導出する導出手段と、前記3次元モデルから前記透明部モデルを削除することにより、前記3次元モデルを補正する補正手段と、を有する。
透明部を含む3次元モデルの生成の負荷を低減することが可能となる。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は本開示を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1実施形態]
(画像処理システムの構成)
図1は、本実施形態における画像処理システムの構成の一例を示す図である。画像処理システム10は、複数の撮像装置による撮像により得られた複数の画像と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では、仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では、仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
(画像処理システムの構成)
図1は、本実施形態における画像処理システムの構成の一例を示す図である。画像処理システム10は、複数の撮像装置による撮像により得られた複数の画像と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では、仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では、仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
本実施形態では、複数の撮像装置としての複数のカメラ110a~110mが、撮影対象領域であるスタジオ100内を取り囲むように、配置される。なお、カメラの数、配置についてはこれに限定されない。カメラ110a~110mは、ネットワーク120によって画像処理装置130と接続されている。画像処理装置130には、仮想視点を与えるための入力装置140と、生成(作成)された仮想視点画像を表示する表示装置150が接続されている。被写体160は、撮影対象の一例である人物を表す。
(画像処理装置130の構成)
図2と図3に、本実施形態による画像処理装置130の(ソフトウェア)機能構成とハードウェア構成の一例をそれぞれ示す。まず、本実施形態における画像処理装置130の機能構成について図2を用いて説明する。画像取得部210は、複数のカメラ110a~110mによる撮像により得られた画像(撮像画像/カメラ画像)を取得する。パラメータ取得部220は、複数のカメラ110a~110mによる画像のデータから、特徴点のマッチングを取ることによりキャリブレーションを行い、複数のカメラ110a~110mそれぞれの位置、姿勢と画角を表すパラメータを導出(取得)する。このパラメータを、以降、カメラパラメータと称する。3Dモデル(3次元モデル)生成部230は、複数のカメラ110a~110mによる画像のデータと、カメラパラメータを基に、3Dモデル(3次元形状データ)の生成を行う。3Dモデルの生成については詳細を後述する。
図2と図3に、本実施形態による画像処理装置130の(ソフトウェア)機能構成とハードウェア構成の一例をそれぞれ示す。まず、本実施形態における画像処理装置130の機能構成について図2を用いて説明する。画像取得部210は、複数のカメラ110a~110mによる撮像により得られた画像(撮像画像/カメラ画像)を取得する。パラメータ取得部220は、複数のカメラ110a~110mによる画像のデータから、特徴点のマッチングを取ることによりキャリブレーションを行い、複数のカメラ110a~110mそれぞれの位置、姿勢と画角を表すパラメータを導出(取得)する。このパラメータを、以降、カメラパラメータと称する。3Dモデル(3次元モデル)生成部230は、複数のカメラ110a~110mによる画像のデータと、カメラパラメータを基に、3Dモデル(3次元形状データ)の生成を行う。3Dモデルの生成については詳細を後述する。
透明部特定部240は、複数のカメラ110a~110mによる画像上の、眼鏡のレンズなどの透明な部分(透明部)を認識し、透明部を含むオブジェクトを特定(識別)する。透明部は、少なくとも可視光に対して透明なものである。また、透明部特定部240は、カメラパラメータを基に、透明部の空間座標を算出する。3Dモデル補正部250は、透明部特定部240で算出された透明部の空間座標を基に、3Dモデル上の当該座標にある透明な部分の3Dモデル(以下、透明部モデルと称する)を削除することにより補正を行う。仮想視点設定部260は、入力装置140から入力される仮想視点を取得し、レンダリング部270に設定する。入力装置140からの仮想視点の入力は、入力装置140に対するユーザ操作などによって行われる。入力される仮想視点は、仮想視点の位置及び仮想視点からの視線方向を特定する仮想視点情報として入力される。
レンダリング部270は、3Dモデル補正部250で補正された3Dモデルと、複数の撮像装置のうち仮想視点情報に基づいて選択された1つ以上の撮像装置により得られた画像と、に基づいて、該仮想視点からの見えを表す仮想視点画像を生成する画像生成手段として機能する。具体的には、レンダリング部270は、3Dモデル補正部250で補正された3Dモデルに対し、画像取得部210で取得された画像を適用して、レンダリング(色決め、色付け/テクスチャ貼り付け)を行う。レンダリング処理は、仮想視点設定部260で取得した仮想視点に基づいて行われ、その結果、仮想視点画像が出力される。
次に、画像処理装置130のハードウェア構成について、図3を用いて説明する。画像処理装置130は、CPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313、補助記憶部314、表示インタフェース315、入力インタフェース316、通信部317、およびバス318を有する。
CPU311は、ROM312やRAM313に格納されているコンピュータプログラムやデータを用いて画像処理装置130の全体を制御することで図2に示す画像処理装置130の各機能を実現する。なお、画像処理装置130がCPU311とは異なる1又は複数の専用のハードウェアを有し、CPU311による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(Field Programmable Gate Array)、およびDSP(Digital Signal Processor)などがある。ROM312は、変更を必要としないプログラムなどを格納する。RAM313は、補助記憶部314から供給されるプログラムやデータ、及び通信部317を介して外部から供給されるデータなどを一時記憶する。補助記憶部314は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示インタフェース(I/F)315は、例えば液晶ディスプレイやLEDためのインタフェースであり、ユーザが操作するためのGUI(Graphic User Interface)や、仮想視点画像などを表示する。入力インタフェース316は、例えばキーボードやマウス、ジョイスティック、タッチパネル等ユーザによる操作を入力する機器や、仮想視点情報を入力するために機器を接続する。
通信部317は、画像処理装置130の外部の装置との通信に用いられる。例えば、画像処理装置130が外部の装置と有線で接続される場合には、通信用のケーブルが通信部317に接続される。画像処理装置130が外部の装置と無線通信する機能を有する場合には、通信部317はアンテナを備える。本実施形態では入力装置140が入力インタフェース316に、表示装置150が表示インタフェース315に接続されている。入力装置140からは仮想視点を入力し、表示装置150には生成された仮想視点画像を出力する。バス318は、画像処理装置130の各部をつないで情報を伝達する。
本実施形態では、入力装置140と表示装置150が、画像処理装置130の外部に存在するものとするが、入力装置140と表示装置150との少なくとも一方が入力部/表示部として画像処理装置130の内部に存在していてもよい。
(3Dモデル生成処理)
続いて、本実施形態における3Dモデル生成処理について、図4~図7を参照して説明する。図4は、3Dモデル生成部230により実行される処理のフローチャートである。図4に示すフローチャートは、画像処理装置130のCPU311がROM312等に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
続いて、本実施形態における3Dモデル生成処理について、図4~図7を参照して説明する。図4は、3Dモデル生成部230により実行される処理のフローチャートである。図4に示すフローチャートは、画像処理装置130のCPU311がROM312等に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
ステップS401において、3Dモデル生成部230は、複数のカメラ110a~110mによる撮像により得られた画像のデータを、画像取得部210から取得する。ステップS402において、3Dモデル生成部230は、取得した複数カメラの画像から、オブジェクトが撮影されている部分画像を前景画像として抽出する。ここでオブジェクトとは、例えば、人物や、小物や動物等の被写体を指す。抽出した前景画像の例を、図5(a)に示す。
ステップS403において、3Dモデル生成部230は、抽出した前景画像を基に当該オブジェクトのシルエット画像を生成する。シルエット画像とは、オブジェクトを黒、その他の領域を白で表した画像である。図5(b)に、シルエット画像の例を示す。シルエット画像の生成方法については特に限定しないが、周知の背景差分法等を用いることができる。
ステップS404において、3Dモデル生成部230は、生成したシルエット画像と、パラメータ取得部220から取得したカメラパラメータを基に、3Dモデルの生成を行う。本実施形態では、3Dモデルの非限定的な生成方法として、視体積交差法(shape from silhouette法)を用いるものとする。3Dモデルの生成方法について、図6と図7を参照して説明する。
図6は、カメラ数が2つの場合の視体積交差法による3Dモデル生成の模式図である。図6において、C1、C2はカメラ中心、P1、P2は各カメラの画像平面、R1、R2はオブジェクトのシルエット輪郭を通る光線、OBはオブジェクト、VH1はP1、P2のシルエットを投影して得られる3Dモデルをそれぞれ表す。図6では、2台のカメラによる場合について説明したが、この手法により、カメラの台数を増やし、様々な方向から撮影することにより、3DモデルVH1の形状をオブジェクトOBの形状に近づけることができる。
さらに、オブジェクトが眼鏡をかけた人物である場合の頭部の3Dモデルの生成について図7を参照して説明する。なお、以下の説明において、眼鏡といった透明部を含むアイテムを、透明オブジェクトとも称する。図7は、視体積交差法による、眼鏡をかけた人物の頭部の3Dモデルの生成を説明するための図である。図7(a)は、眼鏡をかけた人物の頭部の模式図である。図7(b)は、眼鏡をかけた人物の頭部を、頭部の上からZ軸の負方向に見た図である。視体積交差法によって3Dモデルを生成する場合、図6を参照して説明したように、眼鏡を含んだ形状の輪郭がシルエットとして抽出される。すなわち、結果として、頭部の上からZ軸の負方向に見た場合に、図7(c)のような3Dモデルが生成される。正面斜めから見ると、図7(d)のように水泳のゴーグルを掛けたような3Dモデルとなる。
(透明部の特定処理)
本実施形態における透明部の特定処理について、図8~図9を参照して説明する。図8は、透明部特定部240により実行される処理のフローチャートである。図8に示すフローチャートは、画像処理装置130のCPU311がROM312等に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
本実施形態における透明部の特定処理について、図8~図9を参照して説明する。図8は、透明部特定部240により実行される処理のフローチャートである。図8に示すフローチャートは、画像処理装置130のCPU311がROM312等に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
ステップS801において、透明部特定部240は、複数のカメラ110a~110mによる撮像により得られた画像のデータを、画像取得部210から取得する。ステップS802において、透明部特定部240は、取得した複数カメラの画像から、人物の顔を認識する。認識の方法については特に限定されない。例えば、人物の顔の画像を用いて学習された学習済みモデルをにより顔認識してもよい。
ステップS803において、透明部特定部240は、認識した顔が、眼鏡をかけているか否かを判定する。眼鏡をかけていると判定すれば(S803でYes)、処理はステップS804に進み、眼鏡をかけていないと判定すれば(S803でNo)、処理を終了する。
ステップS804において、透明部特定部240は、眼鏡フレームを推定し、眼鏡のレンズ部分を特定する。レンズ部分を特定するためには、次のようにしてもよい。すなわち、複数の画像から、複数の眼鏡フレーム外周特徴点と複数のレンズ側特徴点を特定し、それらの特徴点に基づいて、眼鏡フレームの3次元形状情報を推定/算出し、当該眼鏡フレームに囲まれた部分をレンズ部分と特定してもよい。なお、レンズ部分(透明部)を特定する方法はこれに限られない。
ステップS805において、透明部特定部240は、ステップS804で特定したレンズ部分が透明か否かを判定する。すなわち、透明部特定部240は、人物の顔(オブジェクト)が透明部を含むかを識別する。レンズ部分が透明であると判定すれば(S805でYes)、処理はステップS806に進み、透明でないと判定すれば(S805でNo)、処理を終了する。ここで、レンズ部分が透明か否かは、例えば、レンズ部分に目の画像が映っているか否かで判定されうる。すなわち、透明部特定部240は、レンズ部分に目の画像(の少なくとも一部)が映っていれば、レンズ部分は透明であると判定し、目の画像が映っていなければレンズ部分は透明でないと判定することができる。他、機械学習を用いて当該判定(識別)を行うことができる。
ステップS806において、透明部特定部240は、それぞれの画像データ上の眼鏡フレームの特徴点の位置と、パラメータ取得部220から取得したカメラパラメータを基に、眼鏡のレンズ部分の3D空間座標を算出する。例えば、透明部特定部240は、ステップS804で眼鏡フレームの推定に用いた特徴点の中から、複数カメラの撮影画像上で一致する複数の特徴点を抽出し、当該抽出した複数の特徴点とカメラパラメータから、レンズ部分の3D空間座標を算出することができる。
図9を参照してステップS806の処理の具体例を説明する。図9は、レンズ部分の3D空間座標の算出を説明するための図である。図9において、例えば、カメラ110bによる画像データにおける特徴点901~908と、カメラ110cによる画像データにおける特徴点901~908と、各カメラのカメラパラメータから、レンズ部分の3D空間座標を算出することができる。なお、図9では8点の特徴点を抽出しているが、抽出する点の数はこれに限らない。また図9では片側のレンズ部分周辺の眼鏡フレームの特徴点が示されているが、もう片側のレンズ部分についても、同様な特徴点に関する処理により、レンズ部分の3D空間座標を算出することができる。
(3Dモデル補正処理)
本実施形態における3Dモデル補正処理について、図10を参照して説明する。図10は、3Dモデル補正部250による3Dモデル補正処理を説明するための図である。3Dモデル補正部250は、3Dモデル生成部230で生成された3Dモデルに対して、透明部特定部240で算出した3D空間座標を含んで構成される透明部モデルを削除することによる補正を行う。
本実施形態における3Dモデル補正処理について、図10を参照して説明する。図10は、3Dモデル補正部250による3Dモデル補正処理を説明するための図である。3Dモデル補正部250は、3Dモデル生成部230で生成された3Dモデルに対して、透明部特定部240で算出した3D空間座標を含んで構成される透明部モデルを削除することによる補正を行う。
図10(a)の3Dモデル1001は、3Dモデル生成部230で生成された3Dモデルの模式図であり、図10(b)の透明部モデル1002は、透明部特定部240で算出したレンズ部分の3D空間座標領域を含んで構成される3Dモデルの模式図である。ここで、透明部モデル1002のY軸成分(厚さ)は、レンズ部分の厚さと、レンズから人物の顔までの距離を含んで構成される。レンズ部分の厚さと、人物の顔までの距離は、あらかじめ計測などしておく他、眼鏡の外の顔の領域のデータから補間する方法、機械学習により認識する方法等を利用して取得することができる。図10(c)の3Dモデル1003は、3Dモデル1001から透明部モデル1002を削除することによって得られた、補正後の3Dモデルの模式図である。
(レンダリング処理)
本実施形態におけるレンダリング(色決め、色付け/テクスチャ貼り付け)処理について、図11~図12を参照して説明する。図11は、本実施形態によるレンダリング部270により実行される処理のフローチャートである。図11に示すフローチャートは、画像処理装置130のCPU311がROM312等に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
本実施形態におけるレンダリング(色決め、色付け/テクスチャ貼り付け)処理について、図11~図12を参照して説明する。図11は、本実施形態によるレンダリング部270により実行される処理のフローチャートである。図11に示すフローチャートは、画像処理装置130のCPU311がROM312等に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
ステップS1101において、レンダリング部270は、3Dモデル補正部250から、補正後の3Dモデルを取得する。ステップS1102において、レンダリング部270は、複数のカメラ110a~110mによる撮像により得られた画像のデータを、画像取得部210から取得する。ステップS1103において、レンダリング部270は、パラメータ取得部220から、カメラ110a~110mのカメラパラメータ(カメラ位置・姿勢・画角)を取得する。ステップS1104において、レンダリング部270は、仮想視点設定部260から、仮想視点を取得する。
ステップS1105において、レンダリング部270は、仮想視点設定部260から取得した仮想視点を視点とし、3Dモデル補正部250から取得した補正後の3Dモデルを2D(2次元)に射影する。ステップS1106において、レンダリング部270は、パラメータ取得部220から取得したカメラパラメータを基に、カメラ110a~110mから仮想視点に近い1台以上のカメラによる撮像画像を選択し、当該画像を用いて、2Dに射影した3Dモデルに対して、色付け/テクスチャ貼り付けを行う。当該1台以上のカメラは、例えば仮想視点に近い順に選択される。
図12に、レンダリング部270によるレンダリング後に得られた仮想視点画像(3Dモデル)の例を示す。図17に示した従来技術による仮想視点画像と異なり、図12に示す画像では、目のテクスチャ画像が、眼鏡の中の顔の面に近いところに貼られている。このように、眼鏡をかけた人物に対しても、違和感のない仮想視点画像を生成することが可能となる。
以上のように、本実施形態によれば、透明部モデル(透明部分)を削除してレンダリング(色決め、色付け/テクスチャ貼り付け)するため、眼鏡フレームなど、透明部を含むアイテム(透明オブジェクト)の3Dモデルを別途生成する必要がなく、違和感の少ない仮想視点画像を生成することができる。さらに、本実施形態では、透明部モデルを削除してレンダリングすることから、フェースシールド等、眼願以外の透明オブジェクトを付けた人物に対する仮想視点画像の生成にも、本実施形態を適用可能である。
[第2実施形態]
第1実施形態では、複数の方向から被写体を撮影した画像を元に3Dモデルを生成する方法を用いたが、距離センサーや3Dスキャナーを用いて3Dモデルを生成することも可能である。本実施形態では、距離センサーを使って、3Dモデルを生成する方法について説明する。なお、第1実施形態と共通の部分については説明を省略する。
第1実施形態では、複数の方向から被写体を撮影した画像を元に3Dモデルを生成する方法を用いたが、距離センサーや3Dスキャナーを用いて3Dモデルを生成することも可能である。本実施形態では、距離センサーを使って、3Dモデルを生成する方法について説明する。なお、第1実施形態と共通の部分については説明を省略する。
図13に、本実施形態による画像処理装置1310の機能構成を示す。画像処理装置1310は、外部の距離センサー1320から、距離情報を取得するための距離情報取得部1330と、取得した距離情報を基に3Dモデルを生成するための3Dモデル生成部1340を有している。
距離センサー1320は、例えば、レーザや赤外線を照射し、反射を取得して、(距離センサー1320から)オブジェクトまでの距離を測定し、距離情報(距離データ)を生成する。距離情報取得部1330は、距離センサー1320からオブジェクトまでの距離を示す距離情報を複数取得し、これらの情報から、オブジェクトの3Dモデルを構成(算出)することができる。なお、3Dモデル生成部1340は、第1実施形態において説明した図7(d)と同等の3Dモデルを生成することができる。
本実施形態は、3Dモデルの生成に使用する情報が、距離センサー1320から取得した距離情報であることが、第1実施形態と異なる。図8~図12を参照して説明した処理は第1実施形態と同様であるため、説明を省略する。
以上のように、本実施形態によれば、距離センサー1320から取得した距離情報から生成された3Dモデルと複数のカメラによる撮像画像とから、第1実施形態と同様に透明部モデルを削除する。これにより、違和感のない仮想視点画像を生成することができる。
[第3実施形態]
第1、第2実施形態では、レンダリング対象の部分が、3Dモデル補正部250で補正された部分(例えば、削除された透明部モデルに接する部分)か否かに関わらず、および、出力する仮想視点画像が2Dか3Dかに関わらず、一律のレンダリング処理を行う場合について説明した。本実施形態では、これらの点を考慮してレンダリングを行う場合の処理について説明する。なお、本実施形態によるレンダリング部270の処理以外の説明については、第1、第2実施形態と同様である。
第1、第2実施形態では、レンダリング対象の部分が、3Dモデル補正部250で補正された部分(例えば、削除された透明部モデルに接する部分)か否かに関わらず、および、出力する仮想視点画像が2Dか3Dかに関わらず、一律のレンダリング処理を行う場合について説明した。本実施形態では、これらの点を考慮してレンダリングを行う場合の処理について説明する。なお、本実施形態によるレンダリング部270の処理以外の説明については、第1、第2実施形態と同様である。
本実施形態におけるレンダリング(色決め、色付け/テクスチャ貼り付け)処理について、図14~図16を参照して説明する。図14は、本実施形態によるレンダリング部270により実行される処理のフローチャートである。図14に示すフローチャートは、画像処理装置130のCPU311がROM312等に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現されうる。
ステップS1401において、レンダリング部270は、出力する仮想視点画像が2Dか3Dか、すなわち、2Dレンダリングを行うか3Dレンダリングを行うかを判定する。ここで、2Dレンダリングとは、3Dモデルを平面に2D射影し、仮想視点に応じてレンダリングに使用する撮像画像を決定するレンダリング方法である(第1実施形態と同様である)。3Dレンダリングとは、仮想視点に依存せず、3Dモデルそのものに対してレンダリングする方法である。ステップS1401における当該判定は、入力装置140を介したユーザによる操作に基づいて行われてもよく、また、システムにおいて予め2Dレンダリング/3Dレンダリングが決められていてもよい。2Dレンダリングを行う場合は、処理はステップS1402に進み、3Dレンダリングを行う場合は、処理はステップS1406に進む。
ステップS1402において、レンダリング部270は、仮想視点設定部260から仮想視点を取得する。ステップS1403において、レンダリング部270は、レンダリング対象の部分(レンダリング対象点、要素とも称する)が、3Dモデル補正部250で補正された部分(例えば、削除された透明部モデルに接する部分)に含まれるか否かを判定する。レンダリング対象点が補正された部分に含まれれば(S1403でYes)、処理はステップS1404に進み、それ以外の場合は(S1403でNo)、処理はステップS1405に進む。
ステップS1404において、レンダリング部270は、レンダリング対象点(要素)を含む面の法線に近いカメラによる撮像画像を優先して使用して(例えば、法線に近い順に選択した1台以上のカメラによる撮像画像を使用して)、レンダリングを行う。ステップS1405において、レンダリング部270は、仮想視点に近いカメラによる撮像画像を優先して使用して(例えば、仮想視点に近い順に選択した1台以上のカメラによる撮像画像を使用して)、レンダリングを行う。
3Dレンダリングを行う場合、ステップS1406において、レンダリング部270は、レンダリング対象点が、3Dモデル補正部250で補正された部分に含まれるか否かを判定する。レンダリング対象点が補正された部分に含まれれば(S1406でYes)、処理はステップS1407に進み、それ以外の場合は(S1406でNo)、処理はステップS1408に進む。
ステップS1407において、レンダリング部270は、レンダリング対象点を含む面の法線に最も近い1台のカメラによる撮像画像を使用して、レンダリングを行う。1台のカメラによる撮像画像のみ用いる理由は、レンズ部分を含む部分といった透明部モデルを削除した補正後の形状は、凹形状になることが多いためである。
ステップS1408において、レンダリング部270は、レンダリング対象点を含む面の法線に近いカメラを含む複数のカメラによる撮像画像を使用して(例えば、法線に近い順に選択した複数のカメラによる撮像画像を使用して)、レンダリングを行う。複数のカメラによる複数の撮像画像を用いる理由は、補正前の形状は凸形状であるため、色が急峻に変化しないよう複数のカメラによる撮像画像を合成して色付けを行うためである。
続いて、図15と図16を参照して、本実施形態によるレンダリング処理について説明する。図15は、眼鏡をかけた人物の頭部の3Dモデルを上からZ軸の負方向に見た場合の図を示す。図15(a)は、補正する(透明部モデルを削除する)前の3Dモデル1501を示し、図15(b)は補正後の3Dモデル1502を示す。3Dモデル1502は、3Dモデル1501に対して、透明部モデル(眼鏡のレンズ部分及びレンズと顔の空間のデータ)が削除された3Dモデルとなっている。
図16は、3Dモデル1502(補正後の3Dモデル)に対するレンダリング処理を説明するための図である。図16では、3Dモデル1502を前面から囲む形で、カメラ110a~110eが配置され、仮想視点1601から見た点A、点B(レンダリング対象点)を2Dレンダリングする場合を想定する。3Dモデル1502上の点Aは、眼願のレンズの奥に位置する点であり、補正された部分に含まれる(削除された透明部モデルに接する)。一方、点Bは、眼鏡のフレーム上に位置する点であり、補正された部分に含まれない。
点Aは、補正された部分に含まれるため(図14のステップS1403でYes)、レンダリング部270は、点A含む面の法線に近いカメラ110bによる撮像画像を優先して使用して、レンダリングを行う。一方、点Bは、補正された部分に含まれないため、レンダリング部270は、仮想視点1501に近いカメラ110cによる撮像画像を優先して使用して、レンダリングを行う。これにより、仮想視点からの見た目を優先しつつ、オブジェクト本来の色も考慮した色付けが可能となる。
以上説明したように、本実施形態によれば、レンダリング対象の3Dモデル内の部分が、3D補正部で補正された部分か否かによって、並びに、出力する仮想視点画像が2Dか3Dかによって、レンダリング処理を変える。これにより、例えば、3Dモデルに対して、本来の色に近い色付けが可能となる。また出力する仮想視点画像の種類/形態によって、レンダリングに用いる画像を選択する方法を異ならせてレンダリングすることにより、出力に応じて、好適な仮想視点画像を生成することができる。なお、本実施形態では2Dレンダリングか3Dレンダリングかを選択できるようにしたが、いずれか一方の実装のみでも構わない。
このように、上記に説明した実施形態によれば、オブジェクトが眼鏡など透明部を含むアイテムを含む場合、に、当該アイテムの3Dモデルを別途生成する必要なく、違和感の少ない仮想視点画像を生成することができる。
<その他の実施形態>
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
開示は上記実施形態に制限されるものではなく、本開示の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。
110 カメラ、120 ネットワーク、130 画像処理装置、140 入力装置、150 表示装置、210 画像取得部、220 パラメータ取得部、230 3Dモデル生成部、240 透明部判定部、250 3Dモデル補正部、260 仮想視点設定部、270 レンダリング部
Claims (11)
- 複数の撮像装置による撮像により得られた画像を取得する取得手段と、
前記画像において、透明部を含むオブジェクトを識別する識別手段と、
前記オブジェクトの3次元モデルを生成する生成手段と、
前記透明部の透明部モデルを導出する導出手段と、
前記3次元モデルから前記透明部モデルを削除することにより、前記3次元モデルを補正する補正手段と、
を有することを特徴とする生成装置。 - 前記生成手段は、前記画像に基づいて、前記3次元モデルを生成することを特徴とする請求項1に記載の生成装置。
- 前記オブジェクトまでの距離の情報を取得する取得手段を更に有し、
前記生成手段は、前記距離の情報に基づいて前記3次元モデルを生成することを特徴とする請求項1に記載の生成装置。 - 前記導出手段は、前記透明部モデルを、機械学習を用いて導出することを特徴とする請求項1から3のいずれか1項に記載の生成装置。
- 前記オブジェクトは人物の頭部を含み、前記透明部は眼鏡のレンズ部分を含むことを特徴とする請求項1から4のいずれか1項に記載の生成装置。
- 前記オブジェクトは人物の頭部を含み、前記透明部はフェースシールドを含むことを特徴とする請求項1から4のいずれか1項に記載の生成装置。
- 請求項1から6のいずれか1項に記載の生成装置と、
仮想視点の位置と前記仮想視点からの視線方向を特定するための仮想視点情報を設定する設定手段と、
補正された3次元モデルと、前記複数の撮像装置のうち前記仮想視点情報に基づいて選択された1つ以上の撮像装置により得られた画像と、に基づいて、前記仮想視点からの見えを表す仮想視点画像を生成する画像生成手段と、
を有することを特徴とするシステム。 - 前記画像生成手段は、補正された3次元モデルにおいて補正された部分に含まれる要素に対しては、前記複数の撮像装置のうち当該要素を含む補正された3次元モデルにおける面の法線に近い順に選択された1つ以上の撮像装置により得られた画像に基づいて、色を決定することを特徴とする請求項7に記載のシステム。
- 前記画像生成手段は、
補正された3次元モデルにおいて補正された部分に含まれる要素に対しては、前記複数の撮像装置のうち当該要素を含む補正された3次元モデルにおける面の法線に近い順に選択された1つの撮像装置により得られた画像に基づいて、色を決定し、
補正された3次元モデルにおいて補正された部分に含まれない要素に対しては、前記法線に近い順に選択された複数の撮像装置により得られた画像に基づいて、色を決定することを含むことを特徴とする請求項7または8に記載のシステム。 - 複数の撮像装置による撮像により得られた画像を取得する取得工程と、
前記画像において、透明部を含むオブジェクトを識別する識別工程と、
前記オブジェクトの3次元モデルを生成する生成工程と、
前記透明部の透明部モデルを導出する導出工程と、
前記3次元モデルから前記透明部モデルを削除することにより、前記3次元モデルを補正する補正工程と、
を有することを特徴とする生成方法。 - コンピュータを、請求項1から6のいずれか1項に記載の生成装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021032037A JP2022133133A (ja) | 2021-03-01 | 2021-03-01 | 生成装置、生成方法、システム、およびプログラム |
US17/667,588 US20220277512A1 (en) | 2021-03-01 | 2022-02-09 | Generation apparatus, generation method, system, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021032037A JP2022133133A (ja) | 2021-03-01 | 2021-03-01 | 生成装置、生成方法、システム、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022133133A true JP2022133133A (ja) | 2022-09-13 |
Family
ID=83006531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021032037A Pending JP2022133133A (ja) | 2021-03-01 | 2021-03-01 | 生成装置、生成方法、システム、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220277512A1 (ja) |
JP (1) | JP2022133133A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11810262B2 (en) * | 2021-04-09 | 2023-11-07 | Carvana, LLC | Systems and methods for rotating a 3D display |
US11727657B2 (en) * | 2021-04-09 | 2023-08-15 | Carvana, LLC | Systems and methods for rendering a portion of a 3D display |
IT202200026583A1 (it) * | 2022-12-22 | 2024-06-22 | Luxottica Group S P A | Metodo di rendering in tempo reale di un oggetto tridimensionale. |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010072910A (ja) * | 2008-09-18 | 2010-04-02 | Nippon Telegr & Teleph Corp <Ntt> | 顔の3次元モデル生成装置、顔の3次元モデル生成方法および顔の3次元モデル生成プログラム |
JP5818857B2 (ja) * | 2013-10-24 | 2015-11-18 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP6368142B2 (ja) * | 2014-05-14 | 2018-08-01 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP6407225B2 (ja) * | 2016-09-30 | 2018-10-17 | キヤノン株式会社 | 画像処理装置及び画像処理方法及び画像処理システム及びプログラム |
US20180101989A1 (en) * | 2016-10-06 | 2018-04-12 | Google Inc. | Headset removal in virtual, augmented, and mixed reality using an eye gaze database |
-
2021
- 2021-03-01 JP JP2021032037A patent/JP2022133133A/ja active Pending
-
2022
- 2022-02-09 US US17/667,588 patent/US20220277512A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220277512A1 (en) | 2022-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11693242B2 (en) | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking | |
EP3195595B1 (en) | Technologies for adjusting a perspective of a captured image for display | |
TWI610571B (zh) | 顯示方法及其系統與電腦可讀取記錄媒體 | |
US11922655B2 (en) | Using 6DOF pose information to align images from separated cameras | |
US20220277512A1 (en) | Generation apparatus, generation method, system, and storage medium | |
US11127148B1 (en) | Parallax correction for partially overlapping stereo depth images | |
US11568555B2 (en) | Dense depth computations aided by sparse feature matching | |
US11037359B1 (en) | Real-time rendering stylized passthrough images | |
JP7148634B2 (ja) | ヘッドマウントディスプレイ装置 | |
JP2024019662A (ja) | 角検出のための方法および装置 | |
EP4165871A1 (en) | System for correcting rolling shutter artifacts | |
GB2588441A (en) | Method and system for estimating the geometry of a scene | |
JP6552266B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US11212503B1 (en) | Dual camera HMD with remote camera alignment | |
JP2022061495A (ja) | 動的クロストークを測定する方法及び装置 | |
JP7371623B2 (ja) | 表示制御装置、プログラムおよび表示制御方法 | |
EP4231635A1 (en) | Efficient dynamic occlusion based on stereo vision within an augmented or virtual reality application | |
US20220351653A1 (en) | System and method for augmenting lightfield images | |
WO2018232630A1 (zh) | 三维影像预处理方法、装置及头戴显示设备 | |
CN116612234A (zh) | 基于增强或虚拟现实应用程序内立体视觉的高效动态遮挡 | |
KR20230090852A (ko) | 복수의 카메라를 이용하여 촬영된 손의 3차원 골격 데이터를 획득하는 전자 장치 및 방법 |