JP2006277618A - Image generation device and method - Google Patents
Image generation device and method Download PDFInfo
- Publication number
- JP2006277618A JP2006277618A JP2005099413A JP2005099413A JP2006277618A JP 2006277618 A JP2006277618 A JP 2006277618A JP 2005099413 A JP2005099413 A JP 2005099413A JP 2005099413 A JP2005099413 A JP 2005099413A JP 2006277618 A JP2006277618 A JP 2006277618A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- detected
- image generation
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、画像生成技術に関し、より具体的には、現実世界の映像とコンピュータによって生成された映像を重畳し、かつ、両者の映像を位置合わせして表示することができる複合現実感画像の提示に関するものである。 The present invention relates to an image generation technique, and more specifically, a mixed reality image that can superimpose a real-world image and a computer-generated image and can display both images in alignment. It is about presentation.
従来より、現実世界の映像と、3次元モデリングされたコンピュータ画像(CG)による映像を重畳して表示し、あたかも現実の世界中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができるような複合現実感(MR:Mixed Reality)を提示する装置が存在する(特許文献1)。この種の装置は、現実の映像を撮影するための現実映像撮影部(たとえばビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成部と、両者を合成して表示することのできる映像表示部(たとえばHMD(ヘッドマウントディスプレイ)またはモニタ)を備える。また、現実映像撮影部の視線の位置姿勢が変化してもCGと現実映像との位置関係を正しく表示するために、現実映像撮影部(ビデオカメラ)の視線位置と視線方向を検出するための、視線位置姿勢検出部(たとえば位置姿勢センサ)を備えている。 Conventionally, a real-world image and a three-dimensionally modeled computer image (CG) image are superimposed and displayed, and it is as if an object (virtual object) drawn in CG exists in the real world. There is an apparatus that presents mixed reality (MR) that can be seen as such (Patent Document 1). This type of apparatus includes a real video shooting unit (for example, a video camera) for shooting a real video, a CG video generation unit that creates a CG video as viewed from the position where the real video is shot, A video display unit (for example, an HMD (head mounted display) or a monitor) can be provided. In addition, in order to correctly display the positional relationship between the CG and the real image even if the position and orientation of the line of sight of the real image capturing unit change, it is possible to detect the line of sight position and line of sight of the real image capturing unit (video camera). And a line-of-sight position and orientation detection unit (for example, a position and orientation sensor).
CG映像生成部は、3次元モデリングされたCGを、現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出部によって検出された視線位置、視線方向から観察されたものとしてCGをレンダリングする。このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影部がどの視線位置・視線方向から観察した場合でも、現実空間の中に正しくCGで生成された映像が置かれているような映像を表示ことができる。CGの種類や配置の変更、アニメーションなどは、一般的なCGと同様に、自由に行える。CGの位置を指定するためにもうひとつ位置姿勢センサを設けて、この位置姿勢センサの値に従った場所にCGを描画することも可能である。更に、そのような構成において、CGの位置を決定するための位置姿勢センサを手に持ち、観察者が自在にCGの位置、姿勢を変化させながらCGを観察することが従来より行われている。 The CG video generation unit places the CG modeled three-dimensionally in a virtual space having the same scale as the real space, and renders the CG as observed from the gaze position and gaze direction detected by the gaze position / posture detection unit. When the CG video generated in this way and the real video are superimposed, as a result, even if the real video shooting unit observes from any gaze position and gaze direction, the video correctly generated in CG in the real space Can be displayed. The type of CG, change of arrangement, animation, etc. can be freely performed as in the case of general CG. It is also possible to provide another position / orientation sensor for designating the position of the CG and draw the CG at a location according to the value of the position / orientation sensor. Further, in such a configuration, it has been conventionally performed to hold a position / orientation sensor for determining the position of the CG and to observe the CG while the observer freely changes the position and orientation of the CG. .
なお、現実空間の映像を撮影する現実映像撮影部は、たとえばビデオカメラであり、カメラの視線方向にある映像を撮影し、メモリ中にキャプチャする。現実空間の映像とCGとを合成して表示する映像表示装置としては、たとえばHMD(ヘッドマウントディスプレイ)が用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することにより、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、その方向を向いたときのCGの描画も行えるため、観察者の没入感を高めることができる。 Note that the real image capturing unit that captures an image of the real space is, for example, a video camera, and captures an image in the direction of the line of sight of the camera and captures it in the memory. For example, an HMD (Head Mount Display) is used as a video display device that synthesizes and displays a real space video and CG. When an HMD is used instead of a normal monitor, and the video camera is mounted in the direction of the line of sight of the HMD, an image in the direction in which the observer is facing can be displayed on the HMD, and the direction is turned Since CG can be drawn, it is possible to enhance the immersive feeling of the observer.
なお、映像表示装置は、ビデオカメラを備えずにHMD前面の様子をそのままシースルーで観察できるような、光学シースルー式と呼ばれるHMDであってもよい。この場合は先に説明した現実映像撮影部はビデオ撮影によるものではなく光学的にHMDの前面の現実空間を表示装置にそのまま映し出すものとなる。このようなタイプのHMDでは、観察者の前面の風景はデジタル処理なしでそのままシースルーで観察でき、さらにその画面にCGを重畳して表示することができる。 Note that the video display device may be an HMD called an optical see-through type that does not include a video camera and allows the state of the front surface of the HMD to be observed as-is through. In this case, the above-described real image shooting unit does not use video shooting but optically displays the real space in front of the HMD on the display device as it is. With this type of HMD, the scenery in front of the observer can be observed as-is without any digital processing, and CG can be superimposed on the screen.
また、位置姿勢検出部としては、磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付ることによって、ビデオカメラの視線の位置姿勢を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAK(商標)などがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Roll, Pitch, Yaw)をリアルタイムに検出する装置である。 Further, as the position / orientation detection unit, a magnetic position / orientation sensor or the like is used, and by attaching this to the video camera (or HMD to which the video camera is attached), the position / orientation of the line of sight of the video camera. Is detected. A magnetic position and orientation sensor detects the relative position and orientation between a magnetism generator (transmitter) and a magnetic sensor (receiver), and is a product FASTRAK (trademark) manufactured by Polhemus, USA. Etc. This is a device that detects the three-dimensional position (X, Y, Z) and posture (Roll, Pitch, Yaw) of a sensor in real time in a specific region.
上記の構成により、観察者はHMDを通じて、現実映像とCG映像が重畳された世界を観察することができるようになる。例えば、HMDを装着した観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出部(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成部はその視線位置・姿勢から見たCG映像を生成(レンダリング)し、これを現実映像に重畳して表示する。
従来のシステムでは、手で保持した位置姿勢センサの場所にCGオブジェクトを描画する場合、次のような課題が存在した。即ち、
(1)CGの内部を観察するためにセンサを目に近付けると、HMDの電気や金属などの影響でセンサが誤動作し、CGの表示位置が不安定となっていた。
(2)大きなCGオブジェクトを表示した場合には、レシーバを持った手をいっぱいまで伸ばしても十分に遠ざけることができず、CGオブジェクト全体を観察することができなかった。
In the conventional system, when drawing a CG object at the position of the position and orientation sensor held by hand, the following problems exist. That is,
(1) When the sensor was brought close to the eyes to observe the inside of the CG, the sensor malfunctioned due to the influence of electricity or metal of the HMD, and the display position of the CG was unstable.
(2) When a large CG object is displayed, even if the hand holding the receiver is fully extended, the hand cannot be kept far enough, and the entire CG object cannot be observed.
本発明は上記の課題に鑑みてなされたものであり、自然な操作感を保ちながら、視点位置にCGオブジェクトを接近させた状態の画像を安定して提供可能にすること、及び/又は、大きなCGオブジェクトの全体を観察可能とすべくCGオブジェクトを視点位置から遠ざけた状態の画像を提供可能にすることを目的とする。 The present invention has been made in view of the above problems, and can stably provide an image in which a CG object is brought close to a viewpoint position while maintaining a natural feeling of operation, and / or a large image. An object of the present invention is to provide an image in a state where the CG object is moved away from the viewpoint position so that the entire CG object can be observed.
上記の目的を達成するための本発明による画像生成装置は以下の構成を備える。即ち、
撮影手段によって撮影された現実画像にコンピュータ画像を重畳した画像を生成する画像生成装置であって、
前記撮影手段の位置、姿勢を検出する第1検出手段と、
前記コンピュータ画像を生成すべき位置、姿勢を検出する第2検出手段と、
前記第1及び第2検出手段によって検出された位置、姿勢に基づいて、前記撮像手段によって得られた現実画像に前記コンピュータ画像を合成する合成手段と、
前記第1及び第2検出手段で検出された位置間の距離が所定範囲にあるか否かを判定する判定手段と、
前記判定手段により前記関係が所定範囲外にあると判定された場合、前記コンピュータ画像の生成すべき位置を変更する変更手段とを備える。
In order to achieve the above object, an image generation apparatus according to the present invention comprises the following arrangement. That is,
An image generation device that generates an image in which a computer image is superimposed on a real image captured by an imaging unit,
First detection means for detecting the position and orientation of the photographing means;
Second detection means for detecting a position and orientation at which the computer image is to be generated;
Synthesizing means for synthesizing the computer image with a real image obtained by the imaging means based on the position and orientation detected by the first and second detecting means;
Determination means for determining whether or not the distance between the positions detected by the first and second detection means is within a predetermined range;
And changing means for changing a position where the computer image is to be generated when the determining means determines that the relationship is outside a predetermined range.
また、上記の目的を達成するための本発明による画像生成方法は、
撮影手段によって撮影された現実画像にコンピュータ画像を重畳した画像を生成する画像生成方法であって、
前記撮影手段の位置、姿勢を検出する第1検出工程と、
前記コンピュータ画像を生成すべき位置、姿勢を検出する第2検出工程と、
前記第1及び第2検出工程によって検出された位置、姿勢に基づいて、前記撮像手段によって得られた現実画像に前記コンピュータ画像を合成する合成工程と、
前記第1及び第2検出工程で検出された位置間の距離が所定範囲にあるか否かを判定する判定工程と、
前記判定工程により前記関係が所定範囲外にあると判定された場合、前記コンピュータ画像の生成すべき位置を変更する変更工程とを備える。
Further, an image generation method according to the present invention for achieving the above object is as follows:
An image generation method for generating an image in which a computer image is superimposed on a real image shot by a shooting means,
A first detection step of detecting the position and orientation of the photographing means;
A second detection step of detecting a position and orientation at which the computer image is to be generated;
A synthesizing step of synthesizing the computer image with a real image obtained by the imaging means based on the position and orientation detected by the first and second detecting steps;
A determination step of determining whether or not a distance between the positions detected in the first and second detection steps is within a predetermined range;
A change step of changing a position where the computer image should be generated when the determination step determines that the relationship is outside a predetermined range.
本発明によれば、自然な操作感を保ちながら、視点位置にCGオブジェクトを接近させた状態の画像を安定して提供することが可能となる、及び/又は、大きなCGオブジェクトの全体を観察可能とすべくCGオブジェクトを視点位置から遠ざけた状態の画像を提供することが可能となる。 According to the present invention, it is possible to stably provide an image in which the CG object is brought close to the viewpoint position while maintaining a natural feeling of operation, and / or the entire large CG object can be observed. Therefore, it is possible to provide an image in a state where the CG object is moved away from the viewpoint position.
以下、添付の図面を参照して、本発明の好適な実施形態について説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings.
<第1実施形態>
図1は、第1実施形態による複合現実感提示システムの構成を示すブロック図である。図1に示されるように、バス102を介して、位置姿勢センサコントローラ103、HMDコントローラ130、メモリ106,107がCPU101に接続されている。HMDコントローラ130にはHMD104及びビデオカメラ105が接続され、ビデオカメラ105からの映像の入力や、HMDへ表示すべき映像の出力を制御する。位置姿勢センサコントローラ103には位置姿勢センサ108,109が接続されている。位置姿勢センサ108はHMD104にとりつけられ、HMD104にとりつけられたビデオカメラ106の視線位置姿勢を検出するために用いられる。一方、位置姿勢センサ109はMR空間に表示するCGの位置姿勢を指定するためのものである。また、ここではセンサは2つとしたがこれに限られるものではなく、システムにおいて必要なだけ設けることが可能である。この場合、複数のCGを各位置姿勢センサに割り当てることも可能である。また、HMDを2つ以上用意して観察者を2人以上とするものであってもかまわない。
<First Embodiment>
FIG. 1 is a block diagram showing the configuration of the mixed reality presentation system according to the first embodiment. As shown in FIG. 1, a position /
なお、ビデオカメラ105の視線位置姿勢によって表されるビデオカメラ105の位置(視線位置)は、観察者の位置、即ち視点位置となる。以下の実施形態では、このような視点位置を視線位置と称することにする。 Note that the position (line of sight position) of the video camera 105 represented by the line of sight position and orientation of the video camera 105 is the position of the observer, that is, the viewpoint position. In the following embodiments, such a viewpoint position is referred to as a line-of-sight position.
メモリ106に含まれる、参照番号110〜116で示される各部は、対応する処理部の機能をCPU101によって実現するための制御プログラムである。また、メモリ107に格納される、参照番号120〜129で示される各データ、パラメータは、本実施形態の複合現実感提示処理の実行に際して用いるべく保持されているものである。なお、メモリ106と107は同じものであっても構わない。メモリ106,107の各部の機能や各領域については、以下に詳述する複合現実感提示動作により明らかとなろう。
Each unit indicated by
メモリ106内の移動設定部116は、CGオブジェクトが視線位置に所定距離よりも近づいた場合や、視線位置から所定距離よりも遠ざかった場合をどのように判定し、どのようにオブジェクト位置を移動させるかを設定するものである。具体的には、メモリ107の近限界距離125、遠限界距離126、近倍率127、遠倍率128の各値を設定する。
The
近限界距離125は、CGオブジェクトが視線位置に対してどこまで近づいてきたら当該オブジェクトの移動処理を行うかを指定する値である。同様に、遠限界距離126は、CGオブジェクトが視線位置からどこまで遠ざかったら移動処理を行うかを指定する値である。近倍率127は、CGオブジェクトが近限界距離125よりも視線位置に近づいてきたときに、実際の距離よりもどれくらい視点に近づけて表示するかを指定する係数である。なお、この近倍率127を用いたCGオブジェクト位置の計算の詳細はCGオブジェクト移動部115の処理の説明の中で述べる。また、遠倍率128は、CGオブジェクトが遠限界距離126よりも視線位置から遠ざかったときに、実際の距離よりもどれくらい視点から遠ざけて表示するかを指定するものである。この遠倍率128を用いたCGオブジェクト位置の計算の詳細についてもCGオブジェクト移動部125の処理の説明の中で述べる。以上の各値は、移動設定部116が不図示のユーザインターフェースを提供することにより、複合現実感画像の提示に先立ってシステムにセットしておくものとする。この場合のユーザインターフェースの形態等はいかようなものであってもかまわない。
The
次に、本実施形態による画像提示処理の全体の流れについて説明する。図2は、全体の処理の流れを説明するためのフローチャートである。 Next, the overall flow of the image presentation process according to the present embodiment will be described. FIG. 2 is a flowchart for explaining the overall processing flow.
まずステップS201において、現実映像撮影部110は、ビデオカメラ105を用いて撮影した映像をキャプチャし、現実画像120としてメモリ107に書き込む。次にステップS202において、位置姿勢検出部112は、位置姿勢センサ108を用いてビデオカメラ105の位置姿勢を検出し、これを視線位置姿勢121としてメモリ107に記録する。続いて、ステップS203において、位置姿勢検出部112は更に、位置姿勢センサ109の位置姿勢を検出し、これをCG位置姿勢122としてメモリ107に記録する。
First, in step S <b> 201, the real
次に、ステップS204において、CGオブジェクト距離算出部114は、ビデオカメラ105の視線位置とCGの位置(それぞれ視線位置姿勢121、CG位置姿勢122として記録されている)との間の距離を求める。空間上の2点p1(x1,y1,z1)とp2(x2,y2,z2)の間の距離Lは、
L = √{(x2−x1)2 + (y2−y1)2 + (z2−z1)2}
によって求まる。CGオブジェクト距離算出部114は上記式により算出した値をオブジェクト距離129としてメモリ107に記録する。
Next, in step S204, the CG object
L = √ {(x 2 −x 1) 2 + (y 2 −y 1) 2 + (z 2 −z 1) 2 }
It is obtained by. The CG object
次に、ステップS205で、CGオブジェクト移動部115は、CGオブジェクトの位置とビデオカメラの視線位置との位置関係が所定の条件を満たすかか否かを判断し、満たす場合にはCGオブジェクトを移動し、CG位置姿勢122を更新する。CGオブジェクト移動部115の処理については図3乃至図5を参照して後述する。
Next, in step S205, the CG
次に、ステップS206において、CG映像生成部111は、CG映像をCG画像124としてメモリ107に書き込む。なお、CGは、従来の複合現実感提示装置と同様に、CG位置姿勢122で決定される位置及び姿勢で存在するCGモデルを、視線位置姿勢121で決定されるビデオカメラの位置姿勢から見たように、CGモデルデータ123をレンダリングするものである。
Next, in step S <b> 206, the CG
ステップS207では、映像表示部113によって、メモリ107に記録された現実画像120とCG画像124を合成して、複合現実感画像(MR画像)を生成し、これを表示装置(本例ではHMD106)に表示する。
In step S207, the
以上で一画面分のMR画像を表示できることになるが、この処理全体を次々とくり返し連続して行うことで、動画としてMR画像を提示することが可能である。 The MR image for one screen can be displayed as described above, but it is possible to present the MR image as a moving image by repeating this entire process one after another.
次に、CGオブジェクト移動部115の詳細を説明する。図3はCGオブジェクト移動手段部115による処理を説明するフローチャートである。なお、以下、Pe(Xe,Ye,Ze)は視線位置を示す位置ベクトル、Ps(Xs,Ys,Zs)は位置姿勢センサ109が示す位置を示す位置ベクトル、Po(Xo,Yo,Zo)はCGオブジェクト移動部115によって移動する先のCGオブジェクト位置を示す位置ベクトルである。また、各位置間の距離は、L(Pn,Pm)と記述し、これにより2点PnとPmの間の距離を示す。例えばL(Pe,Ps)はセンサ位置Psと視線位置Peの間の距離である。また図1におけるメモリ107の近限界距離125はLn、遠限界距離126はLf、近倍率127はMn、遠倍率128はMfと記載する。
Next, details of the CG
CGオブジェクト移動部115は、まず、ステップS301において、オブジェクト距離129が近限界距離125よりも視線位置に近いかどうかを判定する。近いと判定された場合はステップS303において図4の(A)で後述する方法によりオブジェクト位置を計算し、CGオブジェクト表示位置を変更する。近くない場合はステップS302に進む。
First, in step S301, the CG
ステップS302では、オブジェクト距離129が遠限界距離126よりも遠いかどうかを判定する。遠いと判定された場合はステップS304において、図4の(B)で後述する方法によりオブジェクト位置を計算し、CGオブジェクト表示位置を変更する。遠くない場合はそのまま本終了する。
In step S302, it is determined whether the
まず、図4の(A)を参照して、ステップS303におけるオブジェクト位置の計算方法について述べる。図4の(A)では、位置姿勢センサ109の位置Psが近限界距離125(Ln)よりも視線位置Peに近い場合を示している。なお、図4の(A)における、Pi(Xi,Yi,Zi)は、PeからPsへ結んだ先の直線上にあり、Peとの距離がLn(あらかじめ設定された近限界距離126)であるような位置を示す位置ベクトルである。したがって、Piは、
Pi = Pe + U(Pe,Ps)×Ln
のように表すことができる。上式中U(Pe,Ps)は、PeからPsに向かう単位ベクトルを表すものとする。
First, the object position calculation method in step S303 will be described with reference to FIG. FIG. 4A shows a case where the position Ps of the position / orientation sensor 109 is closer to the line-of-sight position Pe than the near limit distance 125 (Ln). Note that Pi (Xi, Yi, Zi) in FIG. 4A is on the straight line connected from Pe to Ps, and the distance from Pe is Ln (a preset near limit distance 126). It is a position vector indicating a certain position. Therefore, Pi is
Pi = Pe + U (Pe, Ps) × Ln
It can be expressed as In the above equation, U (Pe, Ps) represents a unit vector from Pe to Ps.
このとき、移動させるべきオブジェクトの位置を示す位置ベクトルPoは、次式、
Po = Ps + (Ps − Pi)×Mn
によって求まる。なお、上式の(Ps − Pi)は点Piから点Psへのベクトルを示す。即ち、近限界距離125よりも視線位置に近い位置に位置姿勢センサ109が存在する場合は、CGオブジェクトの位置が、より視線位置に近い位置Poに変更される。なお、移動量は近倍率127(Mn)の値により調整することができる。
At this time, the position vector Po indicating the position of the object to be moved is expressed by the following equation:
Po = Ps + (Ps-Pi) * Mn
It is obtained by. Note that (Ps−Pi) in the above equation represents a vector from the point Pi to the point Ps. That is, when the position / orientation sensor 109 exists at a position closer to the line-of-sight position than the
以上のようなオブジェクトの位置調整を行なうことにより、位置姿勢センサ109を極端に目(視線位置)に近づけなくてもCGオブジェクトを視点に近づけることが可能となる。このため、HMD104の電気や金属などの影響でセンサが誤動作してCGの表示位置が不安定となるといったことなく、CGオブジェクトを近距離で観察することができる。
By adjusting the position of the object as described above, it is possible to bring the CG object closer to the viewpoint without having the position / orientation sensor 109 extremely close to the eyes (line-of-sight position). Therefore, the CG object can be observed at a short distance without causing the sensor to malfunction due to the influence of electricity or metal of the
次に、図4の(B)を参照して、ステップS304におけるオブジェクト位置の計算方法について述べる。図4の(B)では、位置姿勢センサ109の位置が遠限界距離126よりも位置姿勢センサ108によって検出された視線位置から遠い場合を示している。図4(B)中のPi(Xi,Yi,Zi)は、PeからPsを結んだ線分上にあり、Peとの距離がLf(あらかじめ設定された遠限界距離126)であるような位置を示す位置ベクトルである。この場合、Piは
Pi = Pe + U(Pe,Ps)×Lf
のように表すことができる。上式中のU(Pe,Ps)は、PeからPsに向かう単位ベクトルを表すものとする。
Next, the object position calculation method in step S304 will be described with reference to FIG. FIG. 4B shows a case where the position and orientation sensor 109 is farther from the line-of-sight position detected by the position and orientation sensor 108 than the
It can be expressed as U (Pe, Ps) in the above equation represents a unit vector from Pe to Ps.
このとき、移動させるべきオブジェクトの位置を示す位置ベクトルPoは、次式、
Po = Ps + (Ps − Pi)×Mf
によって求まる。上式において、(Pi - Ps)は点Piから点Psへのベクトルを示す。このように、遠限界距離126よりも視線位置から遠い位置に位置姿勢センサ109が存在する場合は、CGオブジェクトの位置が、より視線位置から遠い位置Poに変更される。なお、移動量は遠倍率128(Mf)の値により調整することができる。
At this time, the position vector Po indicating the position of the object to be moved is expressed by the following equation:
Po = Ps + (Ps−Pi) × Mf
It is obtained by. In the above equation, (Pi-Ps) represents a vector from the point Pi to the point Ps. Thus, when the position and orientation sensor 109 exists at a position farther from the line-of-sight position than the
以上のようなオブジェクトの位置調整を行なうことにより、位置姿勢センサ109を持った手をいっぱいに遠ざけても全体が確認できないような大きなCGオブジェクトの全体像を、手を伸ばしてセンサ109を遠ざけるだけで観察することが可能になる。 By adjusting the position of the object as described above, the entire image of a large CG object that cannot be confirmed even if the hand holding the position / orientation sensor 109 is moved far away is simply stretched and the sensor 109 is moved away. It becomes possible to observe.
以上説明したように、第1実施形態によれば、位置姿勢センサ109を目(HMD)に近づけずにCGオブジェクトを視点に近づけることが可能となる。このため、HMD104の電気や金属などの影響で位置姿勢センサ109が誤動作してCGの表示位置が不安定となることなく、近接した状態のCGオブジェクトを観察できる。また、位置姿勢検出船さ109を持った手をいっぱいに遠ざけても全体が確認できないような大きなCGオブジェクトの全体についても、手をいっぱいに伸ばすだけで観察することが可能になる。更に、視点から通常の距離にあるCGオブジェクトであれば位置姿勢センサ109を持った手の位置に表示することができるとともに、その範囲からCGオブジェクトが視点に近い、または遠い状態に移行したときもそれほどの違和感を生じずに位置移動を行う複合現実感を提示可能となる。
As described above, according to the first embodiment, it is possible to bring the CG object closer to the viewpoint without bringing the position / orientation sensor 109 closer to the eyes (HMD). Therefore, it is possible to observe a CG object in a close state without causing the position / orientation sensor 109 to malfunction due to the influence of electricity or metal of the
<第2実施形態>
遠倍率128に関して、第1実施形態では事前になんらかの値を設定しておくものとしている。第2実施形態では観察対象のオブジェクトの大きさに応じて遠倍率を設定可能とする。例えば、位置姿勢センサ109を手に持って最大限に腕を伸ばした位置でCGオブジェクトのおおよそ全体が映像表示装置(例えばHMD)の画面に表示できる位置まで遠ざけるような遠倍率を計算し、遠倍率128として決定することが可能である。第2実施形態ではこの処理について説明する。
<Second Embodiment>
Regarding the
図5、図6は、第2実施形態による遠倍率128の決定方法を説明するための図である。図5において、映像表示装置の画角θは既知であり、表示対象のCGオブジェクトの全体を包み込むバウンダリボックス501のサイズも既知であるものとする。映像表示装置の画角とCGオブジェクトのサイズがわかれば、CGオブジェクトが視点からどれくらい離れていればCG全体が画面に表示できるかどうかを計算することが可能である。CGオブジェクト全体が画面に表示できるようなCGオブジェクトと視点との間の距離を、図5に示すようにPfとする。
5 and 6 are diagrams for explaining a method of determining the
今、図6に示すように、CGオブジェクトの位置を指定するための姿勢位置センサ109を持った観察者が、位置姿勢センサ109を持った腕を伸ばしきった状態での、位置姿勢センサ109の位置と視線位置(位置姿勢センサ108による検出位置)との間の距離をSfとする。第1実施形態と同様に、遠限界距離126をLfとする。手を伸ばした状態でCGオブジェクトの全体を観察できるようにするためには、この状態(距離がSfの状態)でCGオブジェクトは視点からPfの距離に表示されるようにすればよい。
Now, as shown in FIG. 6, the observer of the position / orientation sensor 109 in a state where the observer who has the attitude / position sensor 109 for specifying the position of the CG object has fully extended the arm having the position / orientation sensor 109. Let Sf be the distance between the position and the line-of-sight position (the position detected by the position and orientation sensor 108). As in the first embodiment, the
図6の場合において、CGオブジェクトと視線位置との間の距離Pfは、遠倍率をMfとすると、
Pf = Sf + (Sf−Lf)×Mf
であるので、遠倍率Mfは、
Mf = (Pf − Sf)/(Sf − Lf)
となる。
In the case of FIG. 6, the distance Pf between the CG object and the line-of-sight position is Mf.
Pf = Sf + (Sf−Lf) × Mf
Therefore, the far magnification Mf is
Mf = (Pf−Sf) / (Sf−Lf)
It becomes.
表示装置の画角と表示するCGオブジェクトのサイズと最大に腕を伸ばした状態での視線位置と位置姿勢センサ109から得られるセンサ位置との間の距離が既知であれば、遠倍率128を上述のように自動的に設定することが可能である。これによって位置センサを持った腕を伸ばした状態でCG全体を観察できるような遠倍率の設定を自動的に行うことができる。
If the distance between the viewing angle of the display device, the size of the CG object to be displayed, and the position of the line of sight with the arm extended to the maximum and the sensor position obtained from the position and orientation sensor 109 is known, the
この場合、ユーザは、例えばCGオブジェクトのサイズと画像表示装置の画角θから当該CGオブジェクトの全体が画面に収まる距離Pfを求め、メモリ107に記録しておく(CPU101により自動的に算出するようにしてもよい)。そして、例えば位置姿勢センサ109を持った手をいっぱいに伸ばした状態で所定の指示入力を与えることで、その状態で検出される視線位置とオブジェクト位置の距離をSfに決定する。上記PfとSf、及び予め設定された遠限界距離Lfにより、上記式を用いてMfが算出されるので、これを遠倍率128としてメモリ107に記録する。以降の処理は第1実施形態と同様であるので説明を省略する。
In this case, the user obtains a distance Pf at which the entire CG object fits on the screen, for example, from the size of the CG object and the angle of view θ of the image display device, and records it in the memory 107 (the
以上説明したように、上記各実施形態によれば、位置姿勢検出センサ109が視線位置から通常の距離(近限界距離125の位置と遠限界距離126の位置の間)にあるCGオブジェクトであれば、位置姿勢検出センサ109によって決定される位置にCGオブジェクトが表示され、その範囲からCGオブジェクトが視線位置に近い、または遠い状態に移行した場合には、それぞれ近倍率127、遠倍率128にしたがってCGオブジェクトの位置が変更される。上記実施形態では、近限界距離125の位置よりも視線位置側に位置姿勢検出センサ109が存在する場合には、CGオブジェクトの位置をより視線位置側に近づけて描画され、遠限界距離126の位置よりも遠い位置に位置姿勢検出センサ109が存在する場合には、CGオブジェクトの位置をより遠くに変更して描画される。
As described above, according to the above embodiments, the position / orientation detection sensor 109 is a CG object that is at a normal distance from the line-of-sight position (between the position of the
以上のように、第2実施形態によれば、CGオブジェクトのサイズに応じて適切な遠倍率128が自動的に設定されるので、操作性が向上する。
As described above, according to the second embodiment, since the appropriate
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。 In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the figure) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。 As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。 In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on an instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。 Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
Claims (12)
前記撮影手段の位置、姿勢を検出する第1検出手段と、
前記コンピュータ画像を生成すべき位置、姿勢を検出する第2検出手段と、
前記第1及び第2検出手段によって検出された位置、姿勢に基づいて、前記撮像手段によって得られた現実画像に前記コンピュータ画像を合成する合成手段と、
前記第1及び第2検出手段で検出された位置間の距離が所定範囲にあるか否かを判定する判定手段と、
前記判定手段により前記関係が所定範囲外にあると判定された場合、前記コンピュータ画像の生成すべき位置を変更する変更手段とを備えることを特徴とする画像生成装置。 An image generation device that generates an image in which a computer image is superimposed on a real image captured by an imaging unit,
First detection means for detecting the position and orientation of the photographing means;
Second detection means for detecting a position and orientation at which the computer image is to be generated;
Synthesizing means for synthesizing the computer image with a real image obtained by the imaging means based on the position and orientation detected by the first and second detecting means;
Determination means for determining whether or not the distance between the positions detected by the first and second detection means is within a predetermined range;
An image generating apparatus comprising: a changing unit that changes a position where the computer image is to be generated when the determining unit determines that the relationship is outside a predetermined range.
前記撮影手段の位置、姿勢を検出する第1検出工程と、
前記コンピュータ画像を生成すべき位置、姿勢を検出する第2検出工程と、
前記第1及び第2検出工程によって検出された位置、姿勢に基づいて、前記撮像手段によって得られた現実画像に前記コンピュータ画像を合成する合成工程と、
前記第1及び第2検出工程で検出された位置間の距離が所定範囲にあるか否かを判定する判定工程と、
前記判定工程により前記関係が所定範囲外にあると判定された場合、前記コンピュータ画像の生成すべき位置を変更する変更工程とを備えることを特徴とする画像生成方法。 An image generation method for generating an image in which a computer image is superimposed on a real image shot by a shooting means,
A first detection step of detecting the position and orientation of the photographing means;
A second detection step of detecting a position and orientation at which the computer image is to be generated;
A synthesizing step of synthesizing the computer image with a real image obtained by the imaging means based on the position and orientation detected by the first and second detecting steps;
A determination step of determining whether or not a distance between the positions detected in the first and second detection steps is within a predetermined range;
An image generation method comprising: a change step of changing a position where the computer image is to be generated when it is determined by the determination step that the relationship is outside a predetermined range.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005099413A JP2006277618A (en) | 2005-03-30 | 2005-03-30 | Image generation device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005099413A JP2006277618A (en) | 2005-03-30 | 2005-03-30 | Image generation device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006277618A true JP2006277618A (en) | 2006-10-12 |
Family
ID=37212276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005099413A Withdrawn JP2006277618A (en) | 2005-03-30 | 2005-03-30 | Image generation device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006277618A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009078909A1 (en) * | 2007-12-18 | 2009-06-25 | Disney Enterprises, Inc. | Virtual object rendering system and method |
JP2011186536A (en) * | 2010-03-04 | 2011-09-22 | Sony Corp | Information processing device, information processing method, and program |
CN104660842A (en) * | 2013-11-18 | 2015-05-27 | 柯尼卡美能达株式会社 | AR display device, print condition setting system, and print system |
-
2005
- 2005-03-30 JP JP2005099413A patent/JP2006277618A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009078909A1 (en) * | 2007-12-18 | 2009-06-25 | Disney Enterprises, Inc. | Virtual object rendering system and method |
JP2011186536A (en) * | 2010-03-04 | 2011-09-22 | Sony Corp | Information processing device, information processing method, and program |
CN104660842A (en) * | 2013-11-18 | 2015-05-27 | 柯尼卡美能达株式会社 | AR display device, print condition setting system, and print system |
JP2015099448A (en) * | 2013-11-18 | 2015-05-28 | コニカミノルタ株式会社 | Ar display device, ar display control device, print condition setting system, print system, print setting display method, and program |
CN104660842B (en) * | 2013-11-18 | 2018-08-24 | 柯尼卡美能达株式会社 | Augmented reality display device, setting printing condition system, print system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102517876B1 (en) | Technique for recording augmented reality data | |
JP7090410B2 (en) | Methods, devices and systems for automatic zooming when playing augmented reality scenes | |
JP4227561B2 (en) | Image processing method and image processing apparatus | |
JP5888372B2 (en) | Information processing system, processing method thereof, and program | |
JP2002157607A (en) | System and method for image generation, and storage medium | |
JP2008040832A (en) | Mixed sense of reality presentation system and control method for it | |
JP2007042055A (en) | Image processing method and image processor | |
JP2009025918A (en) | Image processor and image processing method | |
JP2015125641A (en) | Information processing device, control method therefor, and program | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
JP2007004713A (en) | Image processing method and image processor | |
JP2005038321A (en) | Head mount display device | |
JP2006252468A (en) | Image processing method and image processing system | |
JP2006012042A (en) | Image generating method and device | |
JP2006277618A (en) | Image generation device and method | |
JP3848092B2 (en) | Image processing apparatus and method, and program | |
JP4889036B2 (en) | Image processing apparatus and image processing method | |
JP2023065528A (en) | Head-mounted information processing apparatus and head-mounted display system | |
JP2004355131A (en) | Method and device for generating composite reality feeling image | |
JP2005157610A (en) | Image processor and image processing method | |
JP2021166091A (en) | Image processing system, image processing method and computer program | |
JP2005251118A (en) | Method and device for image processing | |
JP2005128877A (en) | Complex sense of reality providing system and method, information processing device and method, and computer program | |
JP4217661B2 (en) | Image processing method and image processing apparatus | |
KR101315398B1 (en) | Apparatus and method for display 3D AR information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |