JP6730577B2 - Information processing apparatus, information processing system, control method thereof, and program - Google Patents
Information processing apparatus, information processing system, control method thereof, and program Download PDFInfo
- Publication number
- JP6730577B2 JP6730577B2 JP2015188449A JP2015188449A JP6730577B2 JP 6730577 B2 JP6730577 B2 JP 6730577B2 JP 2015188449 A JP2015188449 A JP 2015188449A JP 2015188449 A JP2015188449 A JP 2015188449A JP 6730577 B2 JP6730577 B2 JP 6730577B2
- Authority
- JP
- Japan
- Prior art keywords
- hmd
- physical
- information
- image
- physical space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 230000010365 information processing Effects 0.000 title claims description 17
- 239000003550 marker Substances 0.000 description 46
- 238000012545 processing Methods 0.000 description 25
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- RVSSFECMBRQIOD-UHFFFAOYSA-N 6-ethylsulfonyl-7h-purine Chemical compound CCS(=O)(=O)C1=NC=NC2=C1NC=N2 RVSSFECMBRQIOD-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
情報処理装置、情報処理システム、その制御方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing system, a control method thereof, and a program.
近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。MR技術を用いて、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実物体とCGモデルを配置したMR空間(現実空間と仮想空間とを重ね合わせた複合現実空間)の疑似体験を提供できる。 In recent years, mixed reality (hereinafter referred to as MR) technology has become widespread. Using MR technology, a user wearing a head-mounted display (HMD) will have a simulated experience of an MR space (a mixed reality space in which a physical space and a virtual space are superimposed) in which a physical object and a CG model are arranged. Can be provided.
特許文献1には、当該マーカの存在をユーザに意識させないために、マーカを検出した場合に、当該マーカを隠した画像を描画する技術が記載されている。
従来、MR空間を体感するために装着するHMDによっては、装着によりユーザの視野が狭まってしまい、ユーザが周囲の状況を充分に把握できないという問題があった。例えば他のユーザが視野の外から近付いてきている場合、ふいにぶつかってしまうことが考えられる。 Conventionally, depending on the HMD that is worn in order to experience the MR space, the field of view of the user is narrowed due to the wearing, and there is a problem that the user cannot fully grasp the surrounding situation. For example, when another user is approaching from outside the field of view, it is possible that the user suddenly bumps into it.
特許文献2においては、PC画面において、仮想空間上のアバターの位置をレーダーマップ上に表示する技術が開示されている。つまり、ユーザは自分のアバターと同じ仮想空間にいる他人の位置をレーダーマップ上で第三者的視点から確認可能である。
一方、MRの仕組みの場合は、複数人が同じ仮想空間を共有しているが、現実空間上はそれぞれ別の場所にいる場合がある。現実世界において別の場所にいる他のユーザと近付いたとしてもぶつかる危険はない。反対に、同じ場所にいる他のユーザと近付いた場合はぶつかってしまう危険がある。 On the other hand, in the case of the MR mechanism, a plurality of people may share the same virtual space, but they may be in different places in the real space. There is no danger of hitting another user in another location in the real world. On the other hand, if you approach another user in the same place, you risk hitting it.
また、HMDは一般のPCディスプレイと比較して画像の表示部が小さいため、極力無駄な情報を表示したくないと考えられる。 In addition, since the HMD has a smaller image display unit than a general PC display, it is considered that he does not want to display useless information as much as possible.
本発明は、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することを目的とする。 An object of the present invention is to provide a mechanism for properly displaying the position of another user in a wearable display device.
本発明は、 The present invention is
本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism for appropriately displaying the positions of other users in a wearable display device.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施形態における、システム構成の一例を示す図である。 FIG. 1 is a diagram showing an example of a system configuration according to an embodiment of the present invention.
本発明のシステムは、サーバ200とクライアントPC100、ヘッドマウントディスプレイ101(以下、HMD101)で構成される。図1において、各種装置とHMD101はネットワーク150、151、152で接続されているものとしているが、サーバ200、クライアントPC100とHMD101とが互いに通信が行えれば良いので、有線、無線は問わない。
The system of the present invention includes a server 200, a
図1に示すように、本発明における各種装置はネットワークを介して通信可能に接続されている。例えばサーバ200、クライアントPC100(クライアントPC100A〜101Fの総称)と接続されている。また、クライアントPC100には、各クライアントPC100が管理するHMD101(HMD101A〜HMD101Fの総称)が通信可能に接続されている。
As shown in FIG. 1, various devices according to the present invention are communicatively connected via a network. For example, the server 200 and the client PC 100 (collective name of the client PCs 100A to 101F) are connected. Further, the
サーバ200には、HMD101により撮像される現実画像に重畳する3次元モデルが記憶されている。3次元モデルはサーバ200に接続された各クライアントPC100に配信され、クライアントPC100の外部メモリに記憶される。
The server 200 stores a three-dimensional model to be superimposed on a real image captured by the
クライアントPC100は自機の管理するHMD101より現実画像を取得して、当該現実画像に3次元モデルを重畳したMR画像(現実画像と仮想空間の画像とを重畳した複合現実画像)を生成し、HMD101のディスプレイに表示させるべく、当該MR画像をHMD101に送信する。HMD101は受信したMR画像をディスプレイに表示する。
The
また、図示の環境では、拠点1と拠点2との2つの拠点があり、それぞれの拠点でHMD101を装着したユーザ(体験者)が仮想空間を共有し、そこに配置される仮想オブジェクト(3Dモデル/CG)を共有しているものとする。ここでいう拠点とは、現実世界において別の場所にある現実空間のことをいう。例えば東京支店の部屋と大阪支店の部屋をそれぞれ拠点1、拠点2とする。
In the illustrated environment, there are two bases, a
本発明においては、例えばHMD101に表示する画像において、当該HMD101と他の拠点のHMD101、自拠点のHMD101の存在を識別して通知する制御を行う。以上が図1の説明である。
In the present invention, for example, in an image displayed on the
なお、それぞれの拠点の室内には複数のマーカが貼り付けられているものとする。当該マーカを用いてHMD101の位置姿勢を特定し、また、仮想オブジェクトを配置する位置姿勢を決定することができる。
It is assumed that a plurality of markers are attached inside the room of each base. The position and orientation of the
マーカの形状は問わないが、実施形態では正方形であり、全て同じサイズであるものとする。各マーカにはユニークなマーカ番号が埋め込まれているものとする。そして、HMD101に設けられたカメラで撮像した際に、個々のマーカが識別でき、デコードした際に、そのマーカ番号が得られるものとする。マーカの種類(マーカが果たす役割の種類)は、HMD101の位置姿勢を決定するための位置検出用マーカ、並びに、そのマーカで規定される箇所に仮想オブジェクトを描画するものとして利用される仮想オブジェクト配置用マーカの2種類がある。そして、位置検出用マーカについては、HMD101の位置姿勢がどのような状態であっても、内蔵するカメラの視野内に最低でも3つが含まれるように、予め既知の位置に貼り付けられているものとする。
The shape of the marker does not matter, but in the embodiment, it is assumed that the marker has a square shape and has the same size. A unique marker number is embedded in each marker. Then, it is assumed that each marker can be identified when the image is picked up by a camera provided in the
上記の構成におけるHMD101の位置姿勢を検出する原理は、撮像した画像中の3つの位置検出用マーカ(その位置は既知)それぞれのサイズから、HMD101からそれぞれまでの位置検出用マーカまでの距離を求める。そして、逆に、3つの位置検出用マーカから求めた3つの距離が重なる位置を、HMD101の位置として決定する。また、HMD101の姿勢は、撮像した画像中の3つの位置検出用マーカの配置から求めればよい。
The principle of detecting the position and orientation of the
なお、マーカの法線方向に視点があるとき、そのマーカ画像が正方形に見えることになる。そして、視点が法線方向からずれると、そのずれの度合いに応じて正方形が歪んで見える。つまり、この歪みから、視点の軸に対するマーカで規定される平面の向きが判明し、マーカのサイズから視点とマーカ間の距離を検出でき、マーカが貼り付けられた平面が規定できる。また、実施形態では、マーカには、互いに識別できる2つの印が設けられ、マーカの中心位置を原点とし、マーカで規定される上記の平面上の、原点からその印に向かう2つのベクトルを2軸、マーカの中心位置から法線方向の1軸で、局所的(ローカル)な3次元座標を規定する3軸を規定しているものとする。 When the viewpoint is in the normal direction of the marker, the marker image looks like a square. When the viewpoint deviates from the normal direction, the square appears distorted according to the degree of the deviation. That is, from this distortion, the orientation of the plane defined by the marker with respect to the axis of the viewpoint is known, the distance between the viewpoint and the marker can be detected from the size of the marker, and the plane to which the marker is attached can be defined. Further, in the embodiment, the marker is provided with two marks that can be distinguished from each other, and two vectors from the origin to the mark on the plane defined by the marker are defined as two points. It is assumed that one axis in the normal direction from the center position of the axis or the marker defines three axes that define local three-dimensional coordinates.
仮想オブジェクト配置用マーカとは、仮想オブジェクトを表示する位置を特定するために用いられるマーカである。サーバ200及びクライアントPC100のCPU201は、当該仮想オブジェクト配置用マーカが検出された際、当該仮想オブジェクト配置用マーカが存在する位置(正確には後述するように当該仮想オブジェクト配置用マーカの重心位置からオフセットを持つ位置)に仮想オブジェクトを表示するための処理を行う。例えば、3次元モデルを当該オフセットの示す仮想空間上の位置に配置する処理を行う。
The virtual object placement marker is a marker used to specify the position where the virtual object is displayed. When the virtual object placement marker is detected, the server 200 and the
仮想オブジェクトとは、仮想空間上に配置された3次元モデル(3次元CADデータ、3Dモデル、CG等とも呼ぶ)のことである。尚、3次元モデルのデータはサーバ200及びクライアントPC100の外部メモリ上に、当該3次元モデルを仮想空間上のいずれの位置にどのような姿勢で配置するかを示す位置姿勢の情報と対応付けられて記憶されている。
A virtual object is a three-dimensional model (also called three-dimensional CAD data, 3D model, CG, etc.) arranged in a virtual space. It should be noted that the data of the three-dimensional model is associated with the position/orientation information indicating, in the external memory of the server 200 and the
仮想オブジェクト配置用マーカの中心位置の座標を{Xv,Yv,Zv}とし、3次元モデルのデータ中の基準座標を{Xi,Yi,Zi}(ここで、i=0,1,2,・・・)と定義したとき、距離Lは次式で得られる。
L={(Xv−Xi)2+(Yv−Yi)2+(Zv−Zi)2}1/2
The coordinates of the central position of the virtual object placement marker are {Xv, Yv, Zv}, and the reference coordinates in the data of the three-dimensional model are {Xi, Yi, Zi} (where i=0, 1, 2,. ..), the distance L is obtained by the following equation.
L={(Xv-Xi)2+(Yv-Yi)2+(Zv-Zi)2}1/2
ここで、iを変化させた際の最小の距離Lを、仮想オブジェクト配置用マーカと仮想オブジェクト配置用マーカの位置に応じて配置する3次元モデルとの距離とした。なお、上記では距離を計算する際に、最終的に平方根を求めたが、大小の判定で良いのであれば、平行根を求める必要な無く、座標の差分の二乗和を算出しても構わない。 Here, the minimum distance L when i is changed is the distance between the virtual object placement marker and the three-dimensional model placed according to the position of the virtual object placement marker. In the above, when the distance is calculated, the square root is finally obtained, but if it is possible to determine the magnitude, it is not necessary to obtain the parallel root, and the square sum of the difference between the coordinates may be calculated. ..
なお、上記式では、仮想オブジェクト配置用マーカの中心位置=仮想オブジェクトの中心位置とした場合である。先に説明したように、仮想オブジェクトの配置される位置は、仮想オブジェクト配置用マーカの中心位置に対し、「位置」で示されるオフセットが与えられる。 In the above equation, the center position of the virtual object placement marker=the center position of the virtual object. As described above, the position where the virtual object is arranged is given an offset indicated by “position” with respect to the center position of the virtual object arrangement marker.
なお、マーカに埋め込めるビット数にもよるが、位置検出用マーカと仮想オブジェクト配置用マーカを兼ねるマーカを定義しても構わない。 It should be noted that although depending on the number of bits that can be embedded in the marker, a marker that also serves as a position detection marker and a virtual object placement marker may be defined.
尚、上記実施形態は、本発明に係る例であると認識されたい。たとえば、HMD101の位置姿勢を検出するため、上記実施形態では位置検出用マーカが撮像した視野内に3つは存在するものとして、位置検出用マーカを部屋中に多数張り付けるものとしたが、これによって本発明が限定されるものではない。位置検出用マーカには向きを規定する印があり、位置検出用マーカの座標だけでなく、形状や寸法も既知であれば、撮像した画像の位置検出の歪み、サイズ、印の位置から、1つの位置検出用マーカからだけでもHMD101の位置姿勢を特定できる。また、位置検出用マーカを用いるのではなく、HMDそのものの位置姿勢を、光学式センサ、磁気センサ、超音波センサなどを利用して検出する公知技術を利用しても構わない。つまり、HMDの位置姿勢検出に係る手段は問わない。
It should be appreciated that the above embodiment is an example according to the present invention. For example, in order to detect the position and orientation of the
次に図2を参照して、本発明の実施形態における、各種装置のハードウェア構成について説明する。 Next, with reference to FIG. 2, hardware configurations of various devices in the embodiment of the present invention will be described.
本発明においては、クライアントPC100とサーバ200のハードウェア構成は同一であるものとする。また、HMD101と直接接続されるのはクライアントPC100であり、サーバ200はクライアントPC100と接続されているものとする。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
In the present invention, the hardware configurations of the
The
また、ROM202には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステム(OS)、その他各種装置の実行する機能を実現するために必要な各種プログラムが記憶されている。
In addition, the
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
The
本発明のクライアントPC100、サーバ200が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。
Various programs used by the
The input controller (input C) 205 controls input from a pointing device (input device 210) such as a keyboard and a mouse.
ビデオコントローラ(VC)206は、HMD101が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。
The video controller (VC) 206 controls display on a display device such as the right eye/
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
The memory controller (MC) 207 is an adapter for a hard disk (HD) or a flexible disk (FD) or a PCMCIA card slot that stores a boot program, browser software, various applications, font data, user files, edit files, various data, and the like. It controls access to the
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。
A communication I/F controller (communication I/FC) 208 connects and communicates with an external device via a network, and executes communication control processing on the network. For example, internet communication using TCP/IP is possible. The communication I/
汎用バス209は、HMD101の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。
The general-
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。以上が図2の説明である。
The
次に図3を参照して、本発明の実施形態における、各種装置の機能構成の一例について説明する。 Next, with reference to FIG. 3, an example of a functional configuration of various devices in the embodiment of the present invention will be described.
HMD位置特定部301は、クライアントPC100に接続されたHMD101の位置姿勢を特定する。具体的には、HMD101が撮像した現実画像上のマーカを認識し上述した方法を用いることでHMD101の位置姿勢を特定する。
The HMD
位置情報記憶部302は、HMD位置特定部301はで特定された位置姿勢の情報を外部メモリに記憶する記憶部である。位置情報送信部303は、HMD位置特定部301で特定されたHMD101の位置情報(X,Y,Z座標)をサーバ200に送信する処理部である。位置情報送信部は、位置情報と合わせて、当該位置情報の示す位置にあるHMD101の識別情報をサーバ200に送信する。
The position
サーバ200は、クライアントPC100の位置情報送信部303で送信された位置情報を位置情報受信部313で受信して、同じく受信したHMD101の識別情報と対応付けて位置情報記憶部311に記憶する。位置情報送信部312は、当該位置情報記憶部311に記憶したHMD101の位置情報・HMD101の識別情報・HMD101が属する拠点情報を、当該HMD101に対応するクライアントPC100以外のクライアントPC100(つまり、他のHMD101に対応するクライアントPC100)に対して送信する。
The server 200 receives the position information transmitted by the position
クライアントPC100の位置情報受信部304は、当該他のクライアントPC100のHMD101の位置情報・識別情報・拠点情報を受信する受信部である。
The position
アイコン決定部305は、位置情報受信部304で受信した位置のHMD101が、自装置のHMD101と同じ拠点のHMDか、他の拠点のHMDか同じ拠点の他のHMDかに応じて、当該HMDの位置を示すアイコン(オブジェクト)の種類を決定する決定部である。ここでいうアイコンとは、HMD101の視界外に他のHMD(体験者)がいる場合に、当該他のHMDの位置をユーザに通知するための、当該他のHMDのX,Y,Z座標に対応する表示画面上の位置に表示するアイコンである。
The
アイコン表示制御部306は、位置情報受信部304で受信した位置に応じて、アイコン決定部305で決定した種類のアイコンを。表示画面の所定の領域(アイコン表示用の領域であるアイコン表示領域)に表示する制御を行う。
The icon
仮想オブジェクト受信部307は、サーバ200の仮想ブジェクト記憶部314に記憶されている仮想オブジェクトであって、仮想オブジェクト送信部315から送信された仮想オブジェクトを受信する受信部である。
The virtual
仮想オブジェク記憶部308は、仮想オブジェクト受信部307で受信した仮想オブジェクトを記憶し、仮想オブジェクト表示制御部309は、仮想オブジェクトに対応する仮想オブジェクトの位置姿勢の情報に従って、HMD101から取得した現実画像上に、当該仮想オブジェクトを重畳したMR画像をHMD101に表示するよう制御する(例えば、当該MR画像を生成してHMD101に送信する)。以上が図3の説明である。
The virtual
<第1の実施形態> <First Embodiment>
次に図4を参照して、本発明の実施形態における、HMDの位置姿勢情報の送受信の流れを示すフローチャートである Next, referring to FIG. 4, it is a flowchart showing a flow of transmission and reception of position and orientation information of the HMD in the embodiment of the present invention.
ステップS401では、クライアントPC100のCPU201は、HMD101の右目・左目ビデオカメラ221から取得した画像をクライアントPC100の汎用バス209経由で受信し、RAM203に保持する。
In step S401, the
ステップS402では、クライアントPC100のRAM203に取得した現実空間画像から二次元マーカ画像を取り出し(検出し)、HMD101の位置・姿勢を特定しRAM203に保存する(位置姿勢取得手段に該当)。ここでは、HMD101の識別情報(図6で後述するHMD ID)と、HMD101の位置・姿勢の情報(図6で後述する603及び604のX,Y,Zの値)を対応付けてRAM上に記憶するものとする。
In step S402, the two-dimensional marker image is extracted (detected) from the physical space image acquired in the
ステップS403では、クライアントPC100のCPU201は、ステップS402で特定した位置・姿勢情報、当該位置・姿勢にあるHMD101(当該クライアントPC100に対応するHMD)の識別情報及び、拠点情報をサーバ200に通信により送信する。拠点情報とは、当該クライアントPC100の拠点の情報を示す識別情報であって、クライアントPC100に対応するHMD101の存在する現実空間の識別情報である(図6の602で後述)。
In step S403, the
ステップS404では、サーバ200のCPU201は、クライアントPC100から位置・姿勢情報、HMD101の識別情報、及び拠点情報を通信により受信する。ステップS405では、サーバ200のCPU201は、ステップS404で受信したHMDの識別情報、拠点情報、位置・姿勢情報を外部メモリに保存する。保存する形式は例えば図6のHMD情報600に示す。以上が図4の説明である。
In step S404, the
ここで図6を参照して、本発明の実施形態における各種データの構成の一例について説明する。 Here, an example of the configuration of various data according to the embodiment of the present invention will be described with reference to FIG. 6.
HMD情報600は、クライアントPC100及びサーバ200の外部メモリに記憶される。HMD情報600は、HMD101を一意に示す識別情報であるHMDID601、HMD101の所属する拠点を一意に示す識別情報である拠点ID602(所属情報)、HMDの位置情報である位置603、HMDの姿勢情報である姿勢604を含む情報である(所属情報記憶手段に該当)。クライアントPC100は、自装置と対応するHMD101のHMDID601及びその位置603・姿勢604と、当該HMDの所属する拠点の拠点ID602を対応付けて外部メモリに記憶しているものとする。サーバ200は、サーバ200と接続される各クライアントPC100(例:図1のクライアントPC100A〜100F)に対応する各HMD101のHMDID601及びその位置603・姿勢604と、各HMDの所属する拠点の拠点ID602を各クライアントPC100から受信して、それぞれHMD ID601と対応付けてサーバ200の外部メモリに記憶しているものとする。
The HMD information 600 is stored in the external memory of the
クライアントPC100は自装置以外のクライアントPC100に対応するHMD情報を、サーバ200から受信することで、外部メモリに記憶するものとする。
It is assumed that the
モデル情報610は、クライアントPC100及びサーバ200の外部メモリに記憶される。モデル情報610は、MR空間に配置する(現実空間に重ね合わせる仮想空間に配置する)3次元モデル(仮想オブジェクト)の識別情報であるモデルID611、モデルの実体データのファイル名であるモデル名612、3次元モデルを配置する位置姿勢を示す位置613、姿勢614、及び3次元モデルの保存場所を示す保存場所615を対応付けて記憶した情報である。
The model information 610 is stored in the external memory of the
アイコン情報620は、クライアントPC100及びサーバ200の外部メモリに記憶される。アイコン情報620は、アイコンの識別情報であるアイコンID621と、アイコンの実体データのファイル名であるアイコン622を対応付けた情報である。本実施形態においては、例えば、当該アイコンを表示するHMD101と同じ拠点に所属する他のHMD101の位置を示す場合にはアイコンID=Ic111を用い、当該アイコンを表示するHMD101とは別の拠点に所属する他のHMD101の位置を示す場合にはアイコンID=Ic222を用いてそれぞれのHMD101の位置と当該アイコンを表示するHMD101との位置関係をユーザに通知するものとする。以上が図6の説明である。
The icon information 620 is stored in the external memory of the
次に図5を参照して、本発明の第1の実施形態における、ユーザ位置の識別表示処理の流れについて説明する。 Next, with reference to FIG. 5, a flow of the user position identification display process according to the first embodiment of the present invention will be described.
ステップS501では、サーバ200のCPU201はクライアントPC100との接続を確立すると、図6のモデル情報610と、モデル名612(ファイル名)の示す3次元モデルデータをクライアントPC100に送信する。ステップS502では、クライアントPC100のCPU201はサーバ200から3次元モデルデータ、モデル情報610を受信し、外部メモリの所定の保存場所に保存する。そして、モデル情報610の保存場所615に、当該3次元モデルデータを保存した場所(アドレス)を挿入して記憶する。
In step S501, when the
ステップS503では、クライアントPC100のCPU201は、自装置に対応するHMD101の右目・左目ビデオカメラ221から取得した現実画像に対して、外部メモリに保存した3次元モデルデータが視界に入る場合は当該3次元モデルデータを重畳したMR画像を生成する。
In step S503, the
ステップS504では、サーバ200のCPU201はクライアントPC100に対して、全てのクライアントPC100の拠点ID(クライアントPC100に対応するHMD101の所属する拠点のID)、HMD ID、HMDの位置・姿勢の情報をクライアントPC100に送信する。ステップS505では、クライアントPC100のCPU201はサーバ200から全てのクライアントPC100に対応する各HMD101のHMD ID、HMDの位置・姿勢の情報の位置・姿勢情報及び拠点情報を受信し、外部メモリに保存する(位置姿勢取得手段に該当)。
In step S504, the
そしてステップS506〜S512、又はS506・S507・S514〜S517の処理を、保存した全ての(自装置に対応するHMD以外の)HMD101に対して実行する。 Then, the processes of steps S506 to S512 or S506, S507, S514 to S517 are executed for all the saved HMDs 101 (other than the HMD corresponding to the own device).
ステップS506では、クライアントPC100のCPU201は、外部メモリに保存した他のHMD101のHMD情報600を1つ取得する。そして、ステップS507で、 当該取得した他のHMD101の位置603が、自装置に対応するHMD101(ここでは、例えばHMD101A)の視界(=視野、画角)に入っているか判定する。視界に入っている場合は処理をステップS514に、入らない場合は処理をステップS508に移行する。画角の情報は図6の630に示す通りである。本実施形態においては、HMD101の左目ビデオカメラの画角及び右目ビデオカメラの画角と、両カメラを合わせて撮像できる画角とは同じであるものとする。左目ビデオカメラの画角、右目ビデオカメラの画角、両カメラを合わせて撮像できる画角との関係は図8の800に示す。図8の800における基準点がHMD101の位置である。
In step S506, the
ステップS508では、ステップS506で取得した他のHMD101の拠点ID602と、自装置に対応するHMD101Aの拠点ID602を外部メモリから取得する。そして、ステップS509では、取得した他のHMD101の拠点IDと自拠点の拠点IDが同一であるか(同一拠点か)判定する。別拠点の場合(拠点IDが異なる場合)は処理をステップS510に、同一拠点の場合は処理をステップS511に移行する。
In step S508, the
ステップS510では、クライアントPC100のCPU201は、外部メモリ211から別拠点用アイコン画像(図6でいうIc222.jpg)を取得する。
In step S510, the
ステップS511では、クライアントPC100のCPU201は、外部メモリ211から同一拠点用アイコン画像(図6でいうIc111.jpg)を取得する。
In step S511, the
ステップS512では、クライアントPC100のCPU201は、HMD101の右目・左目ビデオカメラ221から取得した現実画像に、ステップS506で取得した他のHMD101の位置・姿勢情報に基づいて、当該HMD101の拠点IDに応じてステップS510又はステップS511で取得したアイコンを重畳した画像を生成する。そして、全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了している場合には、ステップS512及び/又はステップS518で生成した重畳画像を、HMD101の右目・左目ディスプレイ222に表示すべくHMD101に出力する(ステップS519)。全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了していない場合は処理をステップS508に戻し、他のHMD101のうち未取得のHMD101を取得する。
In step S512, the
ここで図7〜図10を用いて、アイコンの配置及びHMDにとっての前方や後方等の方向について説明する。 Here, with reference to FIGS. 7 to 10, the arrangement of the icons and the directions such as front and rear of the HMD will be described.
ユーザA(HMD101Aの装着者)と他のユーザ(他のHMD101)との位置関係を図7、図8の810に示す。視界=前方(前方向)である。ユーザAにとって、ユーザEは視野内(前方(前方向))にいえるユーザである。ユーザBは視野外の左方(左方向)にいるユーザである。ユーザCは視野外の後方(後方向)にいるユーザである。ユーザDは視野外の右方(右方向)にいるユーザである。尚、複合機は3次元モデル(仮想オブジェクト)であり、図6の610及び引用文献に記載されている技術を用いて仮想空間上に配置、現実画像上に重畳されるものとする。
The positional relationship between the user A (wearer of the
本実施形態の説明においては、図7の700、710に示す通り、ユーザAと同じ拠点1(東京支店にある現実の部屋)にはユーザBとユーザE(HMD101Bを装着したユーザBと、HMD101Eを装着したユーザE)が存在し、ユーザAと異なる拠点2(大阪支店にある現実の部屋)にはユーザCとユーザD(HMD101Cを装着したユーザCと、HMD101Dを装着したユーザD)が存在しているものとする。そして、仮想空間を共有して、各ユーザの位置にアバター(各ユーザの位置姿勢を示す3次元モデル)を表示することで、図7の720のように別拠点のユーザがあたかも同じ空間に存在するように見せる。 In the description of the present embodiment, as shown by 700 and 710 in FIG. 7, the user B and the user E (the user B wearing the HMD 101B and the HMD 101E) are in the same base 1 (the actual room at the Tokyo branch) as the user A. There is a user E) who wears a user C, and a user C and a user D (a user C who wears the HMD 101C and a user D who wears the HMD 101D) exist in a base 2 (an actual room in the Osaka branch) different from the user A. It is assumed that Then, by sharing the virtual space and displaying an avatar (a three-dimensional model showing the position and orientation of each user) at each user's position, it is as if a user at another site were in the same space as in 720 of FIG. Show them to do.
クライアントPC100のCPU201は、例えばHMD101のカメラで撮像した現実画像1000(図10)に対して、図10の1010のように、他のHMD101の位置、及び他のHMD101の拠点に応じたアイコンを配置(重畳)した画面(画像)を生成する。アイコンの配置位置の決定は、例えば公知の技術(例:特開平8−229238号公報)に記載の技術を用いて行うものとする。尚、当該アイコンの配置・表示は、現実画像上の(MR画像上の)所定の領域1011内において行う。
The
つまり、HMD101Aから見た他のHMD101の位置を特定し、当該位置に応じた前記所定領域1011上の位置を決定し、当該決定した画像上の位置に当該他のHMD101の拠点に応じたアイコンを配置する。
That is, the position of the
図5の説明に戻る。ステップS507において、他のHMD101の位置603が自装置に対応するHMD101の視界(=視野、画角)に入っていると判定された場合、ステップS514で、外部メモリに保持している他のHMD101の拠点ID602を取得する。
Returning to the explanation of FIG. When it is determined in step S507 that the
そしてステップS515で、他のHMD101の拠点IDと自拠点が同一拠点であるか判定する。別拠点の場合は処理をステップS516に、同一拠点の場合は処理をステップS518の前に移行する。
Then, in step S515, it is determined whether the base ID of another
ステップS516では、クライアントPC100のCPU201は、外部メモリ211からアバター画像(3次元モデル)を取得する。そして、ステップS517で、HMD101の右目・左目ビデオカメラ221から取得した現実画像に、ステップS506で取得した他のHMD101の位置・姿勢情報に基づいて、当該他のHMD101の位置・姿勢のアバター画像を重畳したMR画像を生成する。そして、全ての他のHMD101に対するステップS506〜S512、又はS506・S507・S514〜S517の処理が完了している場合には、ステップS512及び/又はステップS518で生成した重畳画像を、HMD101の右目・左目ディスプレイ222に表示すべくHMD101に出力する(ステップS519)。全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了していない場合は処理をステップS508に戻し、他のHMD101のうち未取得のHMD101を取得する。
In step S516, the
尚、アバター画像(3次元モデル/仮想オブジェクト)はサーバ200の所定の保存場所に記憶されており、ステップS501でクライアントPC100に配布され、クライアントPC100が自身の外部メモリに記憶する。また、アバター画像の仮想空間上の位置姿勢はHMD101の現実空間上の位置姿勢に応じて、クライアントPC100が変更する。具体的には、図6のアバター情報640をクライアントPC100が外部メモリ上に生成する。アバター情報640は、アバターのID641、アバター画像のファイル名であるアバター名642、アバター画像の保存場所645に対応付けて、当該アバターに対応するHMD101の位置643、姿勢644の情報を随時書きこみ、更新するテーブルである。クライアントPC100のCPU201は、サーバ200から他のHMD101の位置姿勢の情報を継続して受信し、当該受信した各HMD101の位置姿勢の情報を各HMD101に対応するアバター情報640の位置643、姿勢644に上書きする。アバター画像は当該位置643、姿勢644に基づいて仮想空間上に配置する。以上が図5の説明である。
The avatar image (three-dimensional model/virtual object) is stored in a predetermined storage location of the server 200, is distributed to the
以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 As described above, according to the present invention, it is possible to provide a mechanism for properly displaying the positions of other users in a wearable display device.
例えば、同じ拠点のユーザと別拠点のユーザとを識別可能に表示することができる。 For example, a user at the same base and a user at another base can be displayed in a distinguishable manner.
<第2の実施形態> <Second Embodiment>
第2の実施形態について説明する。本発明の第2の実施形態においては、HMD101と所定距離内の他のHMDについてアイコン表示をする。これは、自HMDから所定距離内にいる他のHMDのユーザとはぶつかってしまう可能性が高いために、実際に当該他のHMDのユーザとぶつかってしまうか否かをHMDを装着中のユーザに認識させる必要があるが、自HMDから所定距離離れている他のHMDのユーザとはぶつかってしまう可能性が低いためである。
The second embodiment will be described. In the second embodiment of the present invention, icons are displayed for other HMDs within a predetermined distance from the
以下、図13を参照して、本発明の第2の実施形態における、距離判定処理の詳細について説明する。第2の実施形態については、第1の実施形態と異なる処理/追加される処理について説明し、第1の実施形態と共通する処理については説明を省略する。 Hereinafter, with reference to FIG. 13, details of the distance determination processing in the second embodiment of the present invention will be described. Regarding the second embodiment, processing different from/added to the first embodiment will be described, and description of processing common to the first embodiment will be omitted.
各種装置のCPU201は、第1の実施形態で説明したように図4の処理、及び図5のステップS507までの処理を実行する。
The
クライアントPC100のCPU201は、図5のステップS507で、他のHMD101の位置が視界に入らないと判定された場合に、処理をステップS1301に移行する。ステップS1301で、クライアントPC100のCPU201は、当該視界の外にあると判定された他のHMD101の位置情報と、自装置に対応するHMD101Aの位置情報を参照して、当該2つの位置情報が示すそれぞれの位置間の距離を測定し、HMD101Aから所定距離内に当該他のHMD101があるか判定する。当該所定距離の値は事前にクライアントPC100及びサーバ200に記憶されているものとする。
If the
所定距離内にあると判定された場合は処理をステップS508に移行し、所定距離内にないと判定された場合は処理をステップS518に移行する。 If it is determined that the distance is within the predetermined distance, the process proceeds to step S508, and if it is determined that the distance is not within the predetermined distance, the process proceeds to step S518.
つまり、HMD101Aから所定距離内にある他のHMD101のアイコンのみ、図10の1010に示すように画面上に配置する処理を行う。以上が図13の説明である。
That is, only the icons of
第2の実施形態によれば、装着型の表示装置において、ぶつかってしまう可能性が高い他のユーザの位置を適切に表示する仕組みを提供することができる。 According to the second embodiment, it is possible to provide a mechanism for appropriately displaying the position of another user who is likely to collide with the wearable display device.
<第3の実施形態> <Third Embodiment>
第3の実施形態について説明する。本発明の第3の実施形態においては、HMD101の拠点に応じたアバター画像を表示する。
A third embodiment will be described. In the third embodiment of the present invention, an avatar image corresponding to the location of the
例えば、ユーザの周囲にアバターの画像を重畳して、ユーザがアバターになりきるシチュエーションが考えられる。ユーザを包むようアバターを配置・表示する場合、当該アバターの中に現実にユーザがいなければぶつかってしまう心配はないが、当該アバターの中に現実にユーザがいる場合は体同士がぶつかってしまう可能性がある。 For example, a situation is conceivable in which an image of an avatar is superimposed around the user and the user becomes an avatar. When arranging and displaying the avatar so as to wrap the user, there is no risk of collision if the user does not actually exist in the avatar, but if the user actually exists in the avatar, the bodies may collide. There is a nature.
よって、第3の実施形態においては、HMD101の拠点に応じてアバター画像を切り換えて表示する。
Therefore, in the third embodiment, the avatar images are switched and displayed according to the location of the
以下、図14を参照して、本発明の第3の実施形態における、拠点に応じたアバターの識別表示処理の詳細について説明する。第3の実施形態については、第1・第2の実施形態と異なる処理/追加される処理について説明し、第1・第2の実施形態と共通する処理については説明を省略する。 Hereinafter, with reference to FIG. 14, details of the avatar identification display processing according to the base in the third embodiment of the present invention will be described. Regarding the third embodiment, processing different from/added to the first and second embodiments will be described, and description of processing common to the first and second embodiments will be omitted.
各種装置のCPU201は、第1の実施形態で説明したように図4の処理、及び図5のステップS515までの処理を実行する。
The
クライアントPC100のCPU201は、図5のステップS515で、他のHMD101の拠点IDと自拠点が同一拠点である(視界内のユーザは同じ拠点のユーザである)と判定された場合に、自拠点用のアバター画像を取得し(ステップS1401)、当該他のHMD101の位置・姿勢に応じた仮想空間の位置に当該自拠点用のアバター画像を配置して、現実画像に重畳したMR画像を生成する(ステップS1403)。
When the
一方、他のHMD101の拠点IDと自拠点が別拠点である(視界内のユーザは別の拠点のユーザである)と判定された場合に、他拠点用のアバター画像を取得し(ステップS1402)、当該他のHMD101の位置・姿勢に応じた仮想空間の位置に当該他拠点用のアバター画像を配置して、現実画像に重畳したMR画像を生成する(ステップS1403)。そして処理をステップS518に移行する。以上が図14の説明である。
On the other hand, when it is determined that the site ID of the
第3の実施形態によれば、装着型の表示装置において、視界内のユーザの位置及び当該ユーザがいずれの拠点のユーザかを適切に表示することができる。 According to the third embodiment, the wearable display device can appropriately display the position of the user in the field of view and the location of the user.
以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 As described above, according to the present invention, it is possible to provide a mechanism for properly displaying the positions of other users in a wearable display device.
尚、上述した第1の実施形態、第2の実施形態、第3の実施形態は自由に組み合わせることが可能である。 The first embodiment, the second embodiment, and the third embodiment described above can be freely combined.
また、上述した実施形態においては、特開平8−229238号公報に記載の技術を用いてアイコンの配置位置を決めるものとしたが、例えば図15に示すような方法を用いてもよい。 Further, in the above-described embodiment, the arrangement position of the icon is determined by using the technique described in Japanese Patent Laid-Open No. 8-229238, but a method as shown in FIG. 15 may be used.
具体的には、クライアントPC100におCPU201が、図15の1500に示すように、全てのHMD101の位置を内包する立方体1501を、自装置に対応するHMD101(例えばHMD101A)を中心に配置する。そして、HMD101Aから他のHMD101の位置へ向けた直線を特定して、前記立方体の面と当該直線が交差する位置の座標を特定する(例:図15の1511のY座標とZ座標)。そして、当該面を図15の1520に示すようにそれぞれに対応するアイコンの表示領域に割り当て、表示領域の大きさ・形に合わせて、当該面を変形する。その後、点1511のZ座標を、当該表示領域のZ軸方向の中間点に設定して(図15の1520に示す)、当該Y座標及び設定したZ座標をアイコンの表示位置に決定する。
Specifically, in the
どの方向の面をどのアイコン表示領域に割り当てるかは予め決められているものとする。HMDと各方向の面との関係は図9の900〜906に示す。900は画角(視野(前方))を示す。901は前方、902は後方、903は左方、904は右方、905は上方、906は下方を示す。
It is assumed that the direction of the surface to be assigned to which icon display area is predetermined. The relationship between the HMD and the surface in each direction is shown in 900 to 906 in FIG.
また、上述した実施形態においては、ステップS512で図10の1010のような画像を生成するものとしたが、例えば同ステップで、図11、図12に示すような画像を生成するようにしてもよい。 Further, in the above-described embodiment, an image such as 1010 in FIG. 10 is generated in step S512, but, for example, in the same step, an image as shown in FIGS. 11 and 12 may be generated. Good.
図11の1100によれば、前後上下左右の方向をより細分化したアイコン表示領域を画像の表示領域の外側に設け、当該アイコン表示領域にアイコンを配置して表示する。(ステップS512でアイコン表示領域を画像の表示領域の外側に設けた画像を生成する) According to 1100 in FIG. 11, an icon display area in which the front, rear, upper, lower, left, and right directions are further subdivided is provided outside the image display area, and icons are arranged and displayed in the icon display area. (In step S512, an image in which the icon display area is provided outside the image display area is generated)
図11の1110によれば、例えば他のユーザがいると判定された方向のアイコン表示領域を含み、他のユーザがいない方向のアイコン表示領域は含まない画像1110を生成してHMD101に表示する(ステップS512で、アイコンを表示しないアイコン表示領域を見せない画像を生成する)。
According to 1110 of FIG. 11, for example, an
図12の1200によれば、前後上下左右の方向をより細分化したアイコン表示領域を画像の表示領域の内側に設け、当該アイコン表示領域にアイコンを配置して表示する。(ステップS512でアイコン表示領域を画像の表示領域の内側に設けた画像を生成する) According to 1200 of FIG. 12, an icon display area in which the front, rear, upper, lower, left, and right directions are subdivided is provided inside the image display area, and icons are arranged and displayed in the icon display area. (In step S512, an image in which the icon display area is provided inside the image display area is generated)
図12の1210によれば、各アイコンに各アイコンの示すHMD101の拠点の識別情報をクライアントPC100が付帯して配置いている。また、アイコンそのものに、当該アイコンが示すHMD101を装着中のユーザ名を埋め込んでいる。どのHMDにどのユーザが対応するか(装着するか)は予めクライアントPC100、サーバ200に記憶されているものとする。
According to 1210 of FIG. 12, the
図11の1100、1110、図12の1200の表示をするためには、例えば、クライアントPC100のCPU201が、自装置のHMD(例:HMD101A)を中心とした大きさの異なる立方体を2つ生成し(例えば図11の1120の領域Aと領域B)、HMD101Aの位置(基準点)に配置する。より狭い領域を示す立方体Aの面を、1120に示すように細分化する。そして、図11の1130に示すように、より大きい立方体が示す領域Bに他のHMD(例:HMD101D)が存在する場合には、HMD101Aから当該HMD101Dの位置に向けた直線を特定し、当該直線と領域Aを示す立方体の面との交点である点1131の座標(Y,Z座標)、及び当該交点の属する面上の領域(例:右上前方)を特定する。その後、当該面を当該面に対応するアイコン表示領域の形に合わせて変形し、当該変形した面上(アイコン表示領域上)の点1131を、HMD101Dに対応するアイコンの表示位置として決定する。面に対応するアイコン表示領域の対応関係は、例えば、図11の1100と1120に記載の通りであり、当該対応関係の情報は予めクライアントPC100、サーバ200の外部メモリに記憶されているものとする。
In order to display 1100 and 1110 in FIG. 11 and 1200 in FIG. 12, for example, the
また、より小さい立方体が示す領域Aに他のHMD(例:HMD101C)が存在する場合には、当該HMD101CのZ軸方向の座標の値がHMD101Aより大きいか小さいか(つまり、HMD101CがHMD101Aより高い位置にあるか低い位置にあるか)判定する。以降、図11の1130を参照して、HMD101CがHMD101Aより低い位置にある例について説明する。HMD101CがHMD101Aより低い位置にある場合、クライアントPC100のCPU201は、当該HMD101Cの位置から下方垂直に伸ばした直線と立方体Bの面との交点である点1132のX,Y座標を特定して、当該点1132の属する面上の領域(例:後方左下)を特定する。その後、当該面を当該面に対応するアイコン表示領域の形に合わせて変形し、当該変形した面上(アイコン表示領域上)の点1132を、HMD101Dに対応するアイコンの表示位置として決定する。以上の処理により、図11の1100、1110、図12の1200に示すアイコンの表示位置の決定・アイコンの表示が可能となる。
When another HMD (eg, HMD101C) exists in the area A indicated by the smaller cube, whether the value of the coordinate of the HMD101C in the Z-axis direction is larger or smaller than HMD101A (that is, HMD101C is higher than HMD101A). Position or lower position). Hereinafter, an example in which the HMD 101C is located lower than the
また、本発明の実施形態においては、図6に示す拠点ID602をクライアントPC100で記憶しているものとしたが、例えば当該拠点ID602と各クライアントPC100の識別情報又はHMD ID601との対応関係の情報をサーバ200で記憶・管理することで、クライアントPC100は自装置の識別情報又は自装置に対応するHMD ID601をHMDの位置姿勢の情報と合わせて送信するだけで、サーバ200側で当該HMDの属する拠点を特定するようにしてもよい。また、当該特定したHMD101の拠点の情報に基づいて、例えばHMD101Aに対応するクライアントPC100に対して、各HMDの位置姿勢の情報と合わせて、HMD101Bのアイコンは自拠点用のアイコンを用いて表示するよう指示し、HMD101C・HMD101Dのアイコンは他拠点用のアイコンを用いて表示するよう指示し、当該指示をクライアントPC100が受け付けて絵、当該指示に従って拠点に応じたアイコン表示の処理を行うようにしてもよい。アバター画像についても同様の処理を行ってもよい。
Further, in the embodiment of the present invention, the
具体的には、図5のステップS501〜S509までの処理をサーバ200が実行し、S509の判定結果に応じてクライアントPC100にアイコンの取得・重畳の指示をして、クライアントPC100は当該指示に従ってアイコンを取得・重畳する(ステップS510〜S512)。また、図5のステップS501〜S507、S514、S515までの処理をサーバ200が実行し、S515で別拠点と判定した場合にサーバ200がクライアントPC100にアバター画像を取得して表示するよう指示し、クライアントPC100は当該指示に従ってアバター画像を取得・重畳する(ステップS516、S517、S1401〜S1403)。
Specifically, the server 200 executes the processing of steps S501 to S509 of FIG. 5, instructs the
また、図13に示す判定処理をサーバ200のCPU201が実行するようにしてもよい。
Further, the determination process shown in FIG. 13 may be executed by the
また、本発明の実施形態においては、現実画像と合わせてアイコンを表示する画像を生成するものとしたが、例えば図11の1100や1110に示すアイコン表示領域の表示用ディスプレイと、現実画像又はMR画像の表示領域とが別々に設けられている場合、ステップS512において、現実画像又はMR画像の表示領域に表示する画像とは別にアイコン表示領域に表示するアイコンを含む画像を生成して、HMDに出力するようにしてもよい。
Further, in the embodiment of the present invention, the image for displaying the icon is generated together with the real image. However, for example, the display for displaying the
また、本発明の実施形態においては、拠点1・拠点2を、異なる支店の異なる部屋を例に説明したが、現実において異なる空間であればよい。例えば同じ支店内に隣り合わせに存在する別々の部屋をそれぞれ拠点1、拠点2としてもよい。
Further, in the embodiment of the present invention, the
また、現実において異なる空間であればよいため、必ずしも部屋でなくともよい。例えば、HMDに取り付けられた光学マーカを捕捉することでHMDの位置姿勢を特定する複数の光学センサで囲われた空間を1つの拠点としてもよい。 In addition, since it is only necessary that the space is different in reality, the space is not necessarily a room. For example, a space surrounded by a plurality of optical sensors that specify the position and orientation of the HMD by capturing an optical marker attached to the HMD may be used as one base.
以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。 As described above, according to the present invention, it is possible to provide a mechanism for properly displaying the positions of other users in a wearable display device.
前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。 A recording medium recording a program that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus reads and executes the program stored in the recording medium. Needless to say, the object of the present invention is achieved.
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.
また、プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。 As a recording medium for supplying the program, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a DVD-ROM, a magnetic tape, a non-volatile memory card, a ROM, an EEPROM. , A silicon disk, a solid state drive, etc. can be used.
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, not only the functions of the above-described embodiments are realized by executing the program read by the computer, but also the OS (operating system) running on the computer is actually executed based on the instructions of the program. It goes without saying that a case where some or all of the processing is performed and the functions of the above-described embodiments are realized by the processing is also included.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program read from the recording medium is written in the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the function expansion board is instructed based on the instruction of the program code. Needless to say, this also includes the case where the CPU or the like included in the function expansion unit performs some or all of the actual processing and the processing realizes the functions of the above-described embodiments.
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Furthermore, by downloading and reading a program for achieving the present invention from a server, a database, or the like on a network by a communication program, the system or apparatus can enjoy the effects of the present invention. It should be noted that the present invention also includes all configurations that combine the above-described embodiments and modifications thereof.
100A クライアントPC
100B クライアントPC
100C クライアントPC
100D クライアントPC
100E クライアントPC
100F クライアントPC
101A HMD
101B HMD
101C HMD
101D HMD
101E HMD
101F HMD
200 サーバ
150 ネットワーク
151 ネットワーク
152 ネットワーク
100A client PC
100B client PC
100C client PC
100D client PC
100E Client PC
100F Client PC
101A HMD
101B HMD
101C HMD
101D HMD
101E HMD
101F HMD
200
Claims (9)
前記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御手段と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく制御する第2制御手段と、
を備えることを特徴とする情報処理装置。 An information processing device capable of communicating with a device that displays an image of an object as if the object exists in a physical space ,
A first control means for the image of the physical object, Utsushidasu the first device in a different second physical space and physical space first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image displayed by the first device. Second control means for controlling the information to be displayed on the first device;
An information processing apparatus comprising:
載の情報処理装置。 The second control unit has information on a physical object located in the first physical space that is not visually recognized by the user, and information on a physical object located in the second physical space that is not displayed by the second control unit. The information processing apparatus according to claim 1 or 2, which is controlled so as to be distinguished from each other.
を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。The information processing apparatus according to any one of claims 1 to 5, further comprising:
前記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御工程と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく工程制御する第2制御工程と、
を含む制御方法。 A method of controlling an information processing device capable of communicating with a device that displays an image of an object as if the object exists in a physical space ,
A first control step of displaying an image of a real object in a different second physical space, the first device and the real space in which the first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image displayed by the first device. A second control step for controlling the step of displaying information on the first device;
Control method including.
前記情報処理装置を
前記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御手段と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく制御する第2制御手段として機能させるためのプログラム。 A program that can be executed by an information processing device that can communicate with a device that projects an image of an object so that the object exists in the physical space,
Said information processing apparatus
A first control means for the image of the physical object, Utsushidasu the first device in a different second physical space and physical space first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image displayed by the first device. A program for functioning as second control means for controlling information to be displayed on the first device.
前記装置のうち第1の装置が位置する現実空間とは別の第2の現実空間に存在する現実物体の画像を、前記第1の装置に映し出す第1制御手段と、
前記第1の現実空間および前記第2の現実空間に位置する現実物体のうち、前記第1の装置により映し出される画像を閲覧するユーザが視認できない、前記第1の現実空間に位置する現実物体の情報を、前記第1の装置において映し出すべく制御する第2制御手段と、
を備えることを特徴とする情報処理システム。 An information processing system including an information processing apparatus and an apparatus for displaying an image of an object so that the object exists in a physical space ,
A first control means for the image of the physical object, Utsushidasu the first device in a different second physical space and physical space first device is located within the pre-Symbol device,
Of the physical objects located in the first physical space and the second physical space, a physical object located in the first physical space that cannot be visually recognized by the user who views the image projected by the first device. Second control means for controlling the information to be displayed on the first device;
An information processing system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015188449A JP6730577B2 (en) | 2015-09-25 | 2015-09-25 | Information processing apparatus, information processing system, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015188449A JP6730577B2 (en) | 2015-09-25 | 2015-09-25 | Information processing apparatus, information processing system, control method thereof, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017062720A JP2017062720A (en) | 2017-03-30 |
JP2017062720A5 JP2017062720A5 (en) | 2018-11-08 |
JP6730577B2 true JP6730577B2 (en) | 2020-07-29 |
Family
ID=58428932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015188449A Active JP6730577B2 (en) | 2015-09-25 | 2015-09-25 | Information processing apparatus, information processing system, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6730577B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110770798B (en) * | 2017-04-19 | 2024-03-19 | 小柳建设株式会社 | Information processing apparatus, information processing method, and computer-readable storage medium |
JP6506486B2 (en) * | 2017-04-28 | 2019-04-24 | 株式会社アルファコード | Apparatus for providing virtual reality image and program for providing virtual reality image |
US11273374B2 (en) | 2017-07-04 | 2022-03-15 | Sony Interactive Entertainment Inc. | Information processing system, player-side apparatus control method, and program |
JP2018206339A (en) * | 2017-12-01 | 2018-12-27 | 株式会社コロプラ | Computer-implemented method, program and information processor for providing virtual space |
JP2020065229A (en) * | 2018-10-19 | 2020-04-23 | 西日本電信電話株式会社 | Video communication method, video communication device, and video communication program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE0203908D0 (en) * | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
JP4642538B2 (en) * | 2005-04-20 | 2011-03-02 | キヤノン株式会社 | Image processing method and image processing apparatus |
-
2015
- 2015-09-25 JP JP2015188449A patent/JP6730577B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017062720A (en) | 2017-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6730577B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP6978701B2 (en) | Information processing system, its control method, and program, and information processing device, its control method, and program. | |
JP2015125641A (en) | Information processing device, control method therefor, and program | |
JP6677890B2 (en) | Information processing system, its control method and program, and information processing apparatus, its control method and program | |
JP6409861B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP7060778B2 (en) | Information processing system, information processing system control method and program | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
CN106980378B (en) | Virtual display method and system | |
JP6725827B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP2005174021A (en) | Method and device for presenting information | |
JP2018106297A (en) | Mixed reality presentation system, information processing apparatus and control method thereof, and program | |
JP2018106298A (en) | Image processing apparatus, image processing method, and computer program | |
JP2016170641A (en) | Virtual object display system, display control method for the same, and display control program | |
JP2018063589A (en) | Information processing apparatus, information processing system, method for controlling the same, and program for the same | |
JP7273325B2 (en) | Information processing device, information processing system, information processing method and program | |
JP2014203194A (en) | Virtual object display control apparatus, virtual object display control method, and program | |
JP6011567B2 (en) | Information processing apparatus, control method thereof, and program | |
JP6376251B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP6398630B2 (en) | Visible image display method, first device, program, and visibility changing method, first device, program | |
JP6820469B2 (en) | Information processing equipment, information processing system, its control method and program | |
JP6683919B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP7029087B2 (en) | Information processing equipment, information processing system, its control method and program | |
JP6164177B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP2015121892A (en) | Image processing apparatus, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161101 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180925 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180925 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181031 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6730577 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |