JP2018036720A - Virtual space observation system, method and program - Google Patents
Virtual space observation system, method and program Download PDFInfo
- Publication number
- JP2018036720A JP2018036720A JP2016167187A JP2016167187A JP2018036720A JP 2018036720 A JP2018036720 A JP 2018036720A JP 2016167187 A JP2016167187 A JP 2016167187A JP 2016167187 A JP2016167187 A JP 2016167187A JP 2018036720 A JP2018036720 A JP 2018036720A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- observation
- display
- observation direction
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明は、例えば、仮想空間画像を観察する仮想空間観察システムに関する。 The present invention relates to a virtual space observation system that observes a virtual space image, for example.
ヘッドマウントディスプレイ(HMD)等を用いてユーザの両眼に所定の画像を提示し、それにより、ユーザに仮想的な空間やオブジェクトを知覚させるシステムが近年普及しつつある。このようなヘッドマウントディスプレイを用いた仮想空間の観察システムでは、多くの場合、現実空間と同様の直感的な観察体験を実現するべく、頭部追従(ヘッドトラッキング)機能が実装されている。このヘッドトラッキング機能によれば、ユーザの頭部姿勢と対応したディスプレイ姿勢を変化させることで、仮想空間内における当該ディスプレイ姿勢に応じた方向の所定画角枠内の画像がディスプレイ上に提示される。 In recent years, a system in which a predetermined image is presented to both eyes of a user using a head-mounted display (HMD) or the like, thereby causing the user to perceive a virtual space or an object has been spreading. In such a virtual space observation system using a head-mounted display, a head tracking function is often implemented in order to realize an intuitive observation experience similar to that in a real space. According to this head tracking function, by changing the display posture corresponding to the user's head posture, an image within a predetermined angle frame in a direction corresponding to the display posture in the virtual space is presented on the display. .
例として、特許文献1には、モーションセンサを備えたシースルー型ヘッドマウントディスプレイ上に、ユーザの周囲にインフォメーションベルトと呼ばれる仮想的な選択項目を知覚させる画像を表示する技術が開示されている。この例にあっては、ユーザが、歩行していない状態において、頭部を動かして当該インフォメーションベルトを観察すると、仮想空間上の表示オブジェクトの配置座標を固定した状態で、頭部方向に対応した所定画像が描画される。
As an example,
しかしながら、ヘッドトラッキング機能を備えた仮想空間の観察システムにおいては、現実空間と同様の直感的な観察体験を実現したことから、次のような不都合が存在する。すなわち、起立して或いは椅子などに座って仮想空間の観察を行うユーザが、仮想空間における自身の背面側を観察しようとした場合、ディスプレイと対応する頭部も背面側に向けなければならないため、自身の首や上半身を背面側に捻らなければならない。このとき、首や上半身への負担が大きいばかりか、周囲の視界が遮蔽された没入型のヘッドマウントディスプレイを用いた場合には、周囲を確認することなしに首や上半身を背面側に捻ることとなるから、人や物への接触のおそれから安全上も好ましくない。このような問題は、背面方向を観察する場合のみならず、例えば鉛直上方など他の方向を観察する場合にも同様に生じ得る。 However, the virtual space observation system having the head tracking function has the following inconveniences because the intuitive observation experience similar to that in the real space is realized. That is, when a user who stands up or sits on a chair and observes the virtual space tries to observe his / her back side in the virtual space, the head corresponding to the display must also face the back side, You have to twist your neck and upper body to the back. At this time, when using an immersive head-mounted display that not only places a heavy burden on the neck and upper body, but also shields the surrounding field of view, twist the neck and upper body to the back without checking the surroundings. Therefore, it is not preferable in terms of safety because of the possibility of contact with people and objects. Such a problem can occur not only when observing the back direction but also when observing other directions such as vertically upward.
また、上述のヘッドマウントディスプレイを用いた仮想空間の観察システムの場合のみならず、空間に固定された座標系を有する仮想空間内において、ディスプレイ姿勢を検出可能なスマートフォンなどをかざすことにより、当該かざした方向の様子を観察する仮想空間観察システムにおいても、やはり所定方向を観察するには当該方向へと当該方向にスマートフォンをかざさなければならないため、同様の問題が生じる。 In addition, in the virtual space observation system using the above-described head mounted display, by holding a smartphone capable of detecting the display posture in a virtual space having a coordinate system fixed in the space, Even in the virtual space observation system for observing the state of a certain direction, the same problem arises because, in order to observe a predetermined direction, the smartphone must be held in that direction.
本発明は、上述の技術的背景に鑑みてなされたものであり、その目的は、仮想空間内の観察にあたって直観的な観察体験を提供しつつも、身体への負担や安全面への配慮がなされた仮想空間観察システムを提供することにある。 The present invention has been made in view of the above-described technical background, and its purpose is to provide an intuitive observation experience for observation in a virtual space, while taking into consideration the burden on the body and safety aspects. It is to provide a virtual space observation system made.
この発明のさらに他の目的並びに作用効果については、明細書の以下の記述を参照することにより、当業者によれば容易に理解されるであろう。 Still other objects and operational effects of the present invention will be easily understood by those skilled in the art by referring to the following description of the specification.
上述の技術的課題は、以下の構成により解決される。 The above technical problem is solved by the following configuration.
すなわち、本発明に係る仮想空間観察システムは、ディスプレイと、前記ディスプレイの姿勢を検出可能なモーションセンサと、前記ディスプレイ上に、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理部と、を備えた仮想空間観察システムであって、前記情報処理部は、さらに、前記仮想空間観察システムのユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御部を備えるものである。 That is, the virtual space observation system according to the present invention includes a display, a motion sensor capable of detecting the orientation of the display, and a virtual space on the display corresponding to the orientation of the display detected by the motion sensor. An information processing unit that displays an image within a predetermined field angle frame in a predetermined observation direction within the virtual space observation system, wherein the information processing unit is further predetermined by a user of the virtual space observation system And an observation direction control unit that changes the observation direction in the virtual space in accordance with an observation direction control signal generated regardless of the change in the posture of the display based on the above operation.
このような構成によれば、ヘッドトラッキング処理により直観的な観察体験を提供しつつも、ディスプレイ姿勢を変化させることなく、必要に応じて仮想空間内における観察方向を任意に変更することができる。 According to such a configuration, it is possible to arbitrarily change the observation direction in the virtual space as needed without changing the display posture while providing an intuitive observation experience by the head tracking process.
上述の発明において、前記観察方向制御部は、さらに、連続的な観察方向制御信号に応じて、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示してもよい。 In the above-described invention, the observation direction control unit further continuously changes the observation direction in the virtual space in accordance with a continuous observation direction control signal, whereby the observation direction is displayed on the display. The images within a predetermined field angle frame corresponding to may be continuously displayed.
このような構成によれば、観察方向が変更されていく過程を連続的な画像を通じて確認することができる。そのため、仮想空間内においてどちらの方向に向かって観察方向を変更しているのかを直感的に把握することができるのと共に、目的とする観察方向までの様子を観察することもできる。 According to such a configuration, the process in which the observation direction is changed can be confirmed through continuous images. Therefore, it is possible to intuitively understand which direction the observation direction is changed in the virtual space, and it is also possible to observe the state up to the target observation direction.
上述の発明において、前記所定の画角枠内の画像の連続的な表示は、前記仮想空間における観察地点を中心とする所定の円軌道に沿って行われてもよい。 In the above-described invention, the continuous display of the image within the predetermined field angle frame may be performed along a predetermined circular orbit centered on the observation point in the virtual space.
このような構成によれば、観察方向を回転させると、1周して再び元の方向へと戻って来ることが可能となるため、仮想空間内において自身の観察方向を見失うおそれが少なくなる。 According to such a configuration, if the observation direction is rotated, it is possible to return to the original direction once after making a round, and therefore, the possibility of losing sight of the own observation direction in the virtual space is reduced.
上述の発明において、前記情報処理部は、さらに、所定の観察地点移動信号に応じて、前記仮想空間における観察地点を直近の観察方向へと所定距離移動させる観察地点制御部を備えてもよい。 In the above-described invention, the information processing unit may further include an observation point control unit that moves the observation point in the virtual space to a nearest observation direction by a predetermined distance in accordance with a predetermined observation point movement signal.
このような構成によれば、仮想空間内において観察地点そのものも自在に移動させることができるので、仮想空間内を自在に探索することができる。 According to such a configuration, since the observation point itself can be freely moved in the virtual space, the virtual space can be freely searched.
上述の発明において、前記ディスプレイと、前記モーションセンサと、前記情報処理部とは、単一の情報処理装置に含まれ、前記仮想空間観察システムは、さらに、前記ディスプレイが眼前に配置されるように前記情報処理装置を組込可能であって、ユーザの頭部に装着可能な頭部装着具と、所定の操作子を有し、前記情報処理装置と有線又は無線により通信接続可能な手持ち型又は身体装着型の操作装置と、を備えてもよい。 In the above-described invention, the display, the motion sensor, and the information processing unit are included in a single information processing apparatus, and the virtual space observation system further includes the display arranged in front of the eyes. The information processing apparatus can be incorporated, has a head mounting tool that can be mounted on the user's head, and a predetermined operator, and can be connected to the information processing apparatus by a wired or wireless connection, And a body-mounted operation device.
このような構成によれば、頭部装着具へと組み込まれた情報処理装置に備えられたディスプレイとモーションセンサと情報処理部を利用して、ヘッドマウントディスプレイを実現することができる。 According to such a configuration, a head-mounted display can be realized using the display, the motion sensor, and the information processing unit provided in the information processing device incorporated in the head-mounted device.
上述の発明において、前記観察方向制御信号は、前記操作装置の前記操作子を操作することにより生成されてもよい。 In the above-described invention, the observation direction control signal may be generated by operating the operation element of the operation device.
このような構成によれば、頭部装着具を装着して視界が限定され乃至は皆無の場合であっても、操作子により確実に観察方向制御信号を生成することができる。 According to such a configuration, the observation direction control signal can be reliably generated by the operation element even when the field of view is limited or completely absent by wearing the head-mounted tool.
上述の発明において、前記観察方向制御信号は、前記操作装置の前記操作子を用いて入力操作が行われている間、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示するものであってもよい。 In the above-described invention, the observation direction control signal continuously changes the observation direction in the virtual space while an input operation is performed using the operation element of the operation device. An image within a predetermined field angle frame corresponding to the viewing direction may be continuously displayed on the display.
このような構成によれば、操作子による入力が行われている間だけ観察方向を変更することができるので、観察方向の変更動作を自身の観察方向を見失うおそれも少なく、また、直感的かつ簡易な操作で実現することができる。 According to such a configuration, since the observation direction can be changed only while input is performed by the operation element, there is little possibility of losing sight of the observation direction of the observation direction change operation. This can be realized with a simple operation.
上述の発明において、前記操作装置は、さらに、前記操作装置の姿勢及び動きを検出する操作装置用モーションセンサを備え、前記観察方向制御信号は、前記操作装置の姿勢又は動きに応じて生成されてもよい。 In the above-described invention, the operating device further includes a motion sensor for an operating device that detects the attitude and motion of the operating device, and the observation direction control signal is generated according to the attitude or motion of the operating device. Also good.
このような構成によれば、頭部姿勢は変えることなく、操作装置の姿勢又は動きを変えることで仮想空間における観察方向を制御することができる。 According to such a configuration, the observation direction in the virtual space can be controlled by changing the posture or movement of the controller device without changing the head posture.
上述の発明において、前記観察方向制御部は、前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点を中心として、前記指示領域の移動とは点対称に観察方向を変更するものであってもよい。 In the above-described invention, the observation direction control unit starts from an instruction area in an angle-of-view frame when a predetermined direction is instructed by the operating device, and the start point when the instruction area moves from the start point With respect to the movement of the pointing region, the observation direction may be changed symmetrically with respect to the point.
このような構成によれば、画角枠内の画像の所定領域を始点として、ドラッグするかのように仮想空間内における観察方向を変更することができる。 According to such a configuration, it is possible to change the observation direction in the virtual space as if dragging, starting from a predetermined area of the image in the angle frame.
上述の発明において、前記観察方向制御部は、前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点と前記指示領域との相対的位置関係と一致するように観察方向を変更するものであってもよい。 In the above-described invention, the observation direction control unit starts from an instruction area in an angle-of-view frame when a predetermined direction is instructed by the operating device, and the start point when the instruction area moves from the start point The observation direction may be changed so as to coincide with the relative positional relationship between the display area and the indication area.
このような構成によれば、操作装置を用いて、直感的に観察方向を変更することができる。 According to such a configuration, the observation direction can be changed intuitively using the operation device.
上述の発明において、前記仮想空間観察システムは、さらに、現実世界画像を撮像するカメラを含み、前記情報処理部は、前記ディスプレイ上に、前記現実世界画像を表示すると共に、前記現実世界画像に重畳して、前記所定の画角枠内の画像に代えて、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画像を表示するものであってもよい。 In the above-described invention, the virtual space observation system further includes a camera that captures a real world image, and the information processing unit displays the real world image on the display and superimposes the real world image on the display. Then, instead of the image in the predetermined field angle frame, a predetermined image in a predetermined observation direction in the virtual space is displayed corresponding to the attitude of the display detected by the motion sensor. Also good.
このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができ、これにより、重畳させる仮想空間に関する画像のみを変更することができる。 According to such a configuration, it is possible to arbitrarily change the observation direction in the virtual space without changing the display posture, and thereby it is possible to change only the image related to the virtual space to be superimposed.
上述の発明において、前記仮想空間観察システムは、さらに、音声入力のためのマイクを備え、前記情報処理部は、さらに、マイク入力に基づいて、前記観察方向制御信号を生成し、それにより、前記仮想空間内における前記観察方向を変更する音声入力処理部を備えてもよい。 In the above-described invention, the virtual space observation system further includes a microphone for voice input, and the information processing unit further generates the observation direction control signal based on the microphone input, thereby You may provide the audio | voice input process part which changes the said observation direction in virtual space.
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。 According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.
上述の発明において、前記仮想空間観察システムは、さらに、視線検出のためのカメラを備え、前記観察方向制御部は、さらに、カメラ入力に基づいて、前記所定画角枠内の画像内の注視領域を検出し、所定時間以上、同一の領域が注視されたことが検出された場合に、当該領域が画像の中心となるよう観察方向を変更する視線検出処理部を備えてもよい。 In the above-described invention, the virtual space observation system further includes a camera for detecting a line of sight, and the observation direction control unit further includes a gaze area in the image within the predetermined field angle frame based on a camera input. And a line-of-sight detection processing unit that changes the observation direction so that the area becomes the center of the image when it is detected that the same area is watched for a predetermined time or more.
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。 According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.
上述の発明において、前記モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含むものであってもよい。 In the above-described invention, the motion sensor may include at least a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and a 3-axis geomagnetic sensor.
このような構成によれば、各センサの検出値から、高精度にディスプレイの姿勢を検出することができる。また、特に、3軸加速度センサ及び3軸地磁気の検出値を利用して、絶対座標系における姿勢を算出することも可能である。 According to such a configuration, the orientation of the display can be detected with high accuracy from the detection values of the sensors. In particular, it is also possible to calculate the attitude in the absolute coordinate system using the detected values of the triaxial acceleration sensor and the triaxial geomagnetism.
上述の発明において、前記操作装置用モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含むものであってもよい。 In the above-described invention, the motion sensor for the operation device may include at least a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and a 3-axis geomagnetic sensor.
このような構成によれば、各センサの検出値から、高精度にディスプレイの姿勢を検出することができる。また、特に、3軸加速度センサ及び3軸地磁気の検出値を利用して、絶対座標系における姿勢を算出することも可能である。 According to such a configuration, the orientation of the display can be detected with high accuracy from the detection values of the sensors. In particular, it is also possible to calculate the attitude in the absolute coordinate system using the detected values of the triaxial acceleration sensor and the triaxial geomagnetism.
また、本発明は、仮想空間観察方法として観念することもできる。すなわち、仮想空間観察方法は、ディスプレイ上に表示された画像を通じて認識される仮想空間を観察する仮想空間観察方法であって、前記ディスプレイの姿勢を検出するモーション検出ステップと、前記ディスプレイ上に、前記モーション検出ステップにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理ステップと、を備え、前記情報処理ステップは、さらに、ユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御ステップを備える。 The present invention can also be considered as a virtual space observation method. That is, the virtual space observation method is a virtual space observation method for observing a virtual space recognized through an image displayed on a display, and includes a motion detection step for detecting an attitude of the display, An information processing step of displaying an image in a predetermined field angle frame in a predetermined observation direction in a virtual space corresponding to the posture of the display detected by the motion detection step, and the information processing step further includes And an observation direction control step of changing an observation direction in the virtual space in accordance with an observation direction control signal generated regardless of a change in posture of the display based on a predetermined operation by the user.
このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができる方法を提供することができる。 According to such a configuration, it is possible to provide a method capable of arbitrarily changing the observation direction in the virtual space without changing the display posture.
さらに、本発明は、仮想空間観察用コンピュータプログラムとして観念することもできる。すなわち、コンピュータを、上述の仮想空間観察システムにおける情報処理部として機能させる仮想空間観察用コンピュータプログラムとして観念することができる。 Furthermore, the present invention can also be considered as a virtual space observation computer program. That is, the computer can be thought of as a virtual space observation computer program that causes a computer to function as an information processing unit in the virtual space observation system described above.
このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができるコンピュータプログラムを提供することができる。 According to such a configuration, it is possible to provide a computer program that can arbitrarily change the observation direction in the virtual space without changing the display posture.
本発明によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができる仮想空間観察システムを提供することができる。これにより、仮想空間内の観察にあたって直観的な観察体験を提供しつつも、身体への負担や安全面への配慮がなされた仮想空間観察システムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the virtual space observation system which can change the observation direction in virtual space arbitrarily, without changing a display attitude | position can be provided. Accordingly, it is possible to provide a virtual space observation system in which consideration for the burden on the body and safety is provided while providing an intuitive observation experience in observation in the virtual space.
以下に、本発明に係る仮想空間観察用システムの好適な実施の一形態を、添付の図面を参照しながら詳細に説明する。 Hereinafter, a preferred embodiment of a virtual space observation system according to the present invention will be described in detail with reference to the accompanying drawings.
[1.第1の実施形態]
[1.1 システムの全体構成]
図1に、本発明に係る仮想空間観察システム1の一例の使用状態に関する外観図が示されている。同図から明らかな通り、この例にあっては、仮想空間観察システム1は、ユーザ(又は操作者)40の手に把持される手持ち型の操作装置であるコントローラ10と、ユーザ40の頭部41に頭周ベルト21を介して装着される頭部装着具20と、頭部装着具20の内部に組み込まれる情報処理装置であるスマートフォン50とから構成されている。なお、同図において、スマートフォン50は頭部装着具20の内部に組み込まれているため図示されていない。
[1. First Embodiment]
[1.1 Overall system configuration]
FIG. 1 shows an external view relating to a use state of an example of a virtual
[1.2 頭部装着具の構成]
図2〜図4を参照しつつ、頭部装着具20の構成について説明する。図2及び図3に示される通り、頭部装着具20は、前面に開口24を有しかつ後面はユーザ40の両眼43にあてがわれる本体23を有する。この本体23は、ユーザ40の頭部周囲にあてがわれる頭周ベルト21と頭頂部にあてがわれる頭頂ベルト22と結合している。前面開口24には、外側へ開くようにした蓋板25が開閉自在にヒンジ結合されており、この蓋板25によって、前面開口24は閉じられ、蓋板留め具27、28によって両者は固定される。蓋板25の内面側には、表示画面51を内面側に向けて、スマートフォン50が適当な保持具26で固定される。
[1.2 Structure of head-mounted device]
The configuration of the
図3(a)及び図3(b)に、頭部装着具20へのスマートフォン50の組み込み手順の詳細が示されている。まず、図3(a)に示される通り、スマートフォン50は、頭部装着具20の前面の蓋板25を開いた状態において、蓋板25の内面側に配置された4つの保持具26の中央部へと配置されて組み込まれる。スマートフォン50が組み込まれた後の頭部装着具20が図3(b)に示されている。同図から明らかな通り、スマートフォン50は、蓋板25の内面側の保持具26によりその各辺を着脱自在に保持されている。この状態において、雄側の蓋板留め具28と雌側の蓋板留め具27とを係合させて蓋板25を閉じることで、表示画面51を本体23の内面側に向けた状態でスマートフォン50を固定することができる。
3A and 3B show details of the procedure for incorporating the
ユーザ40が、スマートフォン50の組み込まれた頭部装着具20を頭部41に装着すると、図4に示されるように、操作者40の眼43の前には、仕切り板29に保持された光学系30を介して、スマートフォン50の表示画面51が対面する。そのため、頭部装着具20は、いわゆるヘッドマウントディスプレイ(HMD)として機能する。
When the
[1.3 スマートフォンの構成]
スマートフォン50は、図3又は図6等に示される通り、一方の面の中央部にディスプレイ51、その上下に操作ボタン、スピーカ、インカメラを有し、他方の面にアウトカメラを有している。後に、図5を参照して説明するように、スマートフォン50には、モーションセンサを構成する3軸加速度センサ506、3軸角速度センサ507、及び3軸地磁気センサ508がそれぞれ組み込まれている。そのため、それらのセンサによって、スマートフォン10の位置、姿勢、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。
[1.3 Configuration of smartphone]
As shown in FIG. 3 or FIG. 6, the
スマートフォンの電気的ハードウェア構成の一例を示すブロック図が、図5に示されている。同図に示されるように、スマートフォン50の電気回路は、制御部501、記憶部502、ディスプレイ部51、入力操作部(タッチパネル)504、入力操作部(ボタン)505、3軸加速度センサ506、3軸角速度センサ507、3軸地磁気センサ508、GPSユニット509、照度センサ510、タイマ511、バッテリ512、振動部513、通信ユニット514、音声出力部515、音声入力部516、スピーカ部517、カメラユニット518、及びコネクタ519を含んで構成される。
A block diagram showing an example of the electrical hardware configuration of the smartphone is shown in FIG. As shown in the figure, the electric circuit of the
制御部501は、スマートフォンの各種動作等を制御するプログラムを実行するCPU等(SoC(System−on−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)などを含む)を備える。
The
記憶部502は、ROM,RAM又はストレージ等から構成され、スマートフォン50の一般的機能を実現するためのプログラムのほか、後述するゲームプログラムその他の各種のデータが保存される。
The
ディスプレイ51は、液晶ディスプレイ、有機ELディスプレイ、又は無機ELディスプレイ等の表示デバイスを備えており、文字、図形又は記号等が表示される。このディスプレイ51は、本発明に関連して、ヘッドマウントディスプレイ(HMD)の表示部としても機能する。すなわち、このディスプレイ51の表示画面に、ビデオゲーム等を構成する画像が表示される。この画像は、好ましくは、公知の手法により3D処理が施される。3D表示を行う手法の一例として、ディスプレイ51の横長表示画面を左右に2分割し、それぞれに、視差を有する2つの画像を表示する手法が採用される。
The
通信ユニット514は、外部機器とLAN又はインターネット等を介して無線通信を行うものである。無線通信規格としては例えば、2G、3G、4G、IEEE802.11、Bluetooth(登録商標)等の規格がある。特に、本発明と関連して、スマートフォン50は、操作部10との間でBluetoothを介して短距離通信を行う。
The communication unit 514 performs wireless communication with an external device via a LAN or the Internet. Examples of wireless communication standards include 2G, 3G, 4G, IEEE 802.11, Bluetooth (registered trademark), and the like. In particular, in connection with the present invention, the
スピーカ部517は、当該スマートフォンから音楽等を出力するものであり、このスピーカ部517は、本発明に関連して、ゲームサウンドを生成するためにも使用される。 The speaker unit 517 outputs music or the like from the smartphone, and the speaker unit 517 is also used to generate a game sound in connection with the present invention.
3軸加速度センサ506は、スマートフォン筐体に働く加速度の方向及び大きさを検出するものであり、3軸角速度センサ507はスマートフォン筐体の角度及び角速度を検出するものであり、3軸地磁気センサ508は、地磁気の向きを検出するものである。これら3つのセンサ506、507、508によって、本発明におけるモーションセンサが構成されている。そして、それら3つのセンサ506,507,508の各出力に基づいて、ユーザ40の頭部41の向きが検出される。なお、各センサ506、507、508の詳細については後述する。
The
カメラユニット518は、例えば、スマートフォン50の筐体の表面又は裏面に設けられるインカメラ又はアウトカメラ等と接続され、静止画像又は動画像を撮像する際に用いられるものである。カメラユニット518は、後述するように、本発明と関連して、ディスプレイ51の背面側に設けられたアウトカメラを用いて現実世界の画像を撮像したり、或いは、ディスプレイ51と同一の面に設けられたインカメラにより視線画像を取得することにも利用可能である。
The
音声入力部516は、スマートフォン50を用いて通話等を行う際に音声の入力を行うものである(マイク等)。本発明と関連して、後述するように、音声入力部516を介して入力された音声を解析して、スマートフォンやアプリケーションプログラムの種々の操作を行ってもよい。
The
その他、振動部513は、各種アプリケーションプログラム等で用いられる振動部であり、例えば、電磁コイルを利用した振動機構その他各種の振動モータ等で構成することができる。コネクタ519は、他の機器との接続に用いられる端子である。当該端子は、USB、HDMI(登録商標)等の汎用的な端子であってもよい。音声出力部515は、当該スマートフォンを用いて通話等を行う際に音声出力を行うものである。入力操作部504は例えばタッチ方式の入力操作部であり、指、ペン又はスタイラスペン等の接触検知により、各種の入力を行うものである。GPS(Grand Positioning System)ユニット509は、スマートフォンの位置を検出する。照度センサ510は、照度を検出する。なお、照度とは、光の強さ、明るさ、又は輝度を示す。タイマ511は時間の計測を行うものである。なお、当該タイマはCPU等と一体に設けられても良い。バッテリ512は、充電により、スマートフォンの電源として機能するものである。
In addition, the
[1.4 コントローラの構成]
操作装置であるコントローラ10の外観斜視図が図6に示されている。コントローラ10は、長手方向の前面下部に窪みを有するよう形成されており、当該窪みの背後側に設けられユーザ40が握った時に少なくとも小指、薬指及び親指の付け根にて包まれて手に馴染む形状の握り部11と、前記握り部11と連接されて前記窪みの前面側に設けられた突設部12と、から構成されている。握り部11の上面には、把持した際に親指で操作される第1の操作子14と第2の操作子15が設けられている。突設部の前面側には、上下に、把持した際に人差し指又は中指にて操作される第3の操作子16及び第4の操作子17が設けられている。前記窪みの背面側にあたるコントローラ10の最上面には方向指示操作子13が設けられており、自在な方向指示が可能に構成されている。コントローラ10の側面には、切替式操作子18が設けられている。なお、これらの操作子はいずれも押し続けられている間、連続的に操作信号を生成するモメンタリ式の操作子である。
[1.4 Controller configuration]
FIG. 6 shows an external perspective view of the
後に、図7を参照して説明するように、コントローラ10には、操作装置用モーションセンサを構成する3軸加速度センサ1003、3軸角速度センサ1004、及び3軸地磁気センサ1005がそれぞれ組み込まれている。そのため、それらのセンサによって、コントローラ10の位置、姿勢、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。
As will be described later with reference to FIG. 7, the
コントローラ10の電気的ハードウェア構成を示すブロック図が、図7に示されている。同図に示されるように、操作子内部の電気回路は、マイクロプロセッサやASIC等で構成されて、操作子全体を統括制御する制御部1001と.Bluetooth等の短距離通信を実現するための通信ユニット1002と、操作装置用モーションセンサを構成する3つのセンサ、すなわち3軸加速度センサ1003、3軸角速度センサ1004、及び3軸磁気センサ1005と、バッテリ1006と、記憶部1007と、第1の操作子14と連動してオンオフする第1のスイッチ14aと、第2の操作子15と連動してオンオフする第2のスイッチ15aと、第3の操作子16と連動してオンオフする第3のスイッチ16a、第4の操作子17と連動してオンオフする第4のスイッチ17aとを含んで構成されている。
A block diagram showing the electrical hardware configuration of the
3軸加速度センサ1003とは、当業者にはよく知られているように、X軸・Y軸・Z軸の3方向の加速度を1つのデバイスで測定できるセンサであって、三次元の加速度が検出でき、重力(静的加速度)の計測にも対応できる。3軸加速度センサの多くは、半導体製造技術やレーザ加工技術などの微細加工技術を応用し、シリコン基板上に微小な機械構造を集積化する「微小電気機械素子創製技術(Micro Electro Mechanical Systems、MEMS、メムス、マイクロマシン)」により小型化されたMEMSセンサである。MEMS・3軸加速度センサは、±数gの範囲の測定が可能で、0Hz?数百Hzまでの加速度変動に追従できる「low g」タイプとよばれる。この場合の0Hzというのは、センサに重力加速度のみが加わっている状態であり、このときのX軸・Y軸・Z軸の加速ベクトルの合計から地面に対しての向きを測定することができる。MEMS・3軸加速度センサは、大きく分けて半導体ピエゾ抵抗型3軸加速度センサ、静電容量型3軸加速度センサ、熱検知型(ガス温度分布型)3軸加速度センサの3種類があり、それぞれ加速度の測定方法が異なる。半導体ピエゾ抵抗型3軸加速度センサは、加速度が錘に作用したときに発生するダイアフラムの歪みを検出して加速度を測定する。静電容量型3軸加速度センサは加速度の測定に静電容量の変化を、熱検知型(ガス温度分布型)3軸加速度センサは、ヒータで熱されたガスの移動を利用して加速度を測定する。 As is well known to those skilled in the art, the three-axis acceleration sensor 1003 is a sensor that can measure the acceleration in the three directions of the X axis, the Y axis, and the Z axis with a single device. It can be detected and can also measure gravity (static acceleration). Many 3-axis accelerometers apply microfabrication technology such as semiconductor manufacturing technology and laser processing technology to integrate micromechanical elements on a silicon substrate. “Micro Electro Mechanical Systems, MEMS” , Mems, Micromachine) ”. The MEMS 3-axis acceleration sensor is called “low g” type, which can measure in the range of ± several g and can follow the acceleration fluctuation from 0 Hz to several hundred Hz. In this case, 0 Hz is a state in which only gravitational acceleration is applied to the sensor, and the direction to the ground can be measured from the sum of the X-axis, Y-axis, and Z-axis acceleration vectors at this time. . There are three types of MEMS triaxial acceleration sensors: semiconductor piezoresistive triaxial acceleration sensors, capacitive triaxial acceleration sensors, and thermal detection (gas temperature distribution type) triaxial acceleration sensors. The measurement method is different. The semiconductor piezoresistive triaxial acceleration sensor measures the acceleration by detecting the distortion of the diaphragm generated when the acceleration acts on the weight. Capacitance type 3-axis acceleration sensor measures the change in capacitance for measuring acceleration, and heat detection type (gas temperature distribution type) 3-axis acceleration sensor measures the acceleration using the movement of gas heated by the heater To do.
3軸角速度センサ1004とは、当業者には、よく知られているように、回転角速度の測定を直交3軸(X軸,Y軸,Z軸)で実現する慣性センサの一種であって、ジャイロセンサとも称される。角速度センサは加速度センサでは反応しない回転の動きを測定する。ジャイロセンサは、回転を検知する方式により分類することができる。現在、最も一般的に民生機器に搭載されているのは、ICタイプのMEMS(Micro Electro Mechanical System)技術を使った振動式ジャイロセンサである。MEMS技術を利用した慣性センサはその名前が示す通り、機械的な動きをする素子と、その信号を処理する電子回路を組み合わせた技術でセンサを構成し、動きを検知する。振動式ジャイロセンサの中には、シリコンを使う静電容量方式と、水晶や他の圧電材料を使うピエゾ方式の種類がある。振動式ジャイロセンサ以外の種別としては、地磁気式、光学式、機械式などがある。3軸は、一般に上下、左右、前後の3つの軸として定義され、上下軸は「ヨー軸」、左右軸は「ピッチ(ピッチング)軸」、前後軸は「ロール軸」と呼ばれることが多い。振動式のジャイロセンサは全てコリオリの力(転向力)を利用して回転を検知する。 As is well known to those skilled in the art, the triaxial angular velocity sensor 1004 is a kind of inertial sensor that realizes measurement of rotational angular velocity with three orthogonal axes (X axis, Y axis, Z axis), It is also called a gyro sensor. Angular velocity sensors measure rotational movements that are not responsive to acceleration sensors. The gyro sensor can be classified by a method for detecting rotation. At present, vibration gyro sensors using IC type micro electro mechanical system (MEMS) technology are most commonly installed in consumer devices. As the name suggests, an inertial sensor using MEMS technology constitutes a sensor with a technology that combines an element that makes mechanical movement and an electronic circuit that processes the signal, and detects the movement. Among vibration-type gyro sensors, there are a capacitive type using silicon and a piezo type using crystal and other piezoelectric materials. Types other than the vibration type gyro sensor include a geomagnetic type, an optical type, and a mechanical type. The three axes are generally defined as three axes of up / down, left / right, and front / rear, and the up / down axis is often called a “yaw axis”, the left / right axis is called a “pitch (pitching) axis”, and the front / rear axis is often called a “roll axis”. All vibratory gyro sensors detect rotation using Coriolis force (turning force).
3軸地磁気センサ1005とは、当業者には、よく知られているように、磁気センサの一種であって、地磁気の向きを検知し,方位を直交3軸(X軸、Y軸、Z軸)の値で算出するセンサを言う。すなわち、このセンサは、前後方向と左右方向の第1、第2の磁気センサに加えて上下方向の地磁気を検出する第3の地磁気センサを持っている。このため、たとえば、操作子を持つ角度に電子コンパスを傾けた状態でも、何度傾けて持っているかがわかれば、その傾き分を差し引いて水平方向の地磁気を計算し、正しい方位を表示できる。3軸地磁気センサに組み込まれる地磁気センサICで利用されている磁気センサ素子には主に3種類が知られている。それらは、MR(magneto-resistive)素子,MI(magneto-impedance)素子,ホール素子である。MR素子は、例えば外部磁界の強度変化とともに抵抗値が変わるパーマロイ(NiFe)など金属軟磁性体のMR効果、MI素子は外部磁界が変動したときにインピーダンスが変わるアモルファス・ワイヤのMI効果を利用する。ワイヤにはパルス電流を流しておく。ホール素子では,半導体のホール効果によって生じた電位差を検出することで,外部磁界の変化を測定する。地磁気センサICには、一般にこうした磁気センサ素子のほか,駆動回路や増幅回路などを内蔵している。 As is well known to those skilled in the art, the three-axis geomagnetic sensor 1005 is a kind of magnetic sensor that detects the direction of geomagnetism and has three orthogonal axes (X axis, Y axis, Z axis). ) Refers to a sensor that is calculated with the value of. That is, this sensor has a third geomagnetic sensor that detects the vertical geomagnetism in addition to the first and second magnetic sensors in the front-rear direction and the left-right direction. For this reason, for example, even when the electronic compass is tilted at an angle with the operating element, if it is determined how many times the electronic compass is tilted, the horizontal magnetism can be calculated by subtracting the tilt and the correct orientation can be displayed. There are mainly three types of magnetic sensor elements that are used in geomagnetic sensor ICs incorporated in triaxial geomagnetic sensors. They are MR (magneto-resistive) elements, MI (magneto-impedance) elements, and Hall elements. The MR element uses, for example, the MR effect of a soft metal magnetic material such as permalloy (NiFe) whose resistance value changes with the intensity change of the external magnetic field, and the MI element uses the MI effect of an amorphous wire whose impedance changes when the external magnetic field changes. . A pulse current is allowed to flow through the wire. The Hall element measures the change in the external magnetic field by detecting the potential difference caused by the Hall effect of the semiconductor. In addition to such magnetic sensor elements, the geomagnetic sensor IC generally incorporates a drive circuit, an amplifier circuit, and the like.
[1.5 動作]
次に、本実施形態に係る仮想空間観察システムの動作について説明する。
[1.5 Operation]
Next, the operation of the virtual space observation system according to the present embodiment will be described.
[1.5.1 準備手順]
まず、図8及び図9を参照しつつ、本実施形態に係る仮想空間観察システム1を使用する場合の一連の準備手順について説明する。本実施形態に係る仮想空間観察システム1を使用するユーザ40は、まず、スマートフォン50とコントローラ10との間の近距離無線通信の接続設定を行う(S101)。これにより、スマートフォン50とコントローラ10との間で互いに通信が可能となり、例えば、コントローラ10からの操作信号やコントローラに備えられたモーションセンサ1003、1004、1005の検出値などの各種情報をスマートフォン50へと送信すること等が可能となる。通信規格は、公知のいずれの規格も採用可能であるが、本実施形態ではBluetooth(登録商標)が採用される。
[1.5.1 Preparation procedure]
First, a series of preparation procedures when using the virtual
近距離無線通信の接続設定がなされた後、スマートフォン50のタッチパネル504を操作して、アプリケーションプログラムの一覧から仮想空間画像を表示するアプリケーションプログラムを選択する(S102)。この選択操作により、アプリケーションプログラムが起動し、後述するように仮想空間の観察ゲームが開始することができる。なお、このアプリケーションプログラムは、アプリケーションプログラム配信サーバから予めダウンロードされ、記憶部502に記憶されていたものである。
After the connection setting for short-range wireless communication is made, the
アプリケーションプログラムが起動した状態のスマートフォン50は、図3で示した通りに頭部装着具20へと組み込まれ(S103)、当該頭部装着具20はユーザ40の頭部へと装着される(S104)。これらの工程により、ユーザ40の眼前にスマートフォン50のディスプレイ51が配置され、ユーザに仮想空間を提示することが可能となる。
The
その後、この例にあっては、アプリケーションプログラムの起動後、所定のモード選択を行う。図9に、モード選択に関するフローチャートが示されている。この例にあっては、「ゲーム開始」、「ゲーム終了」、「ゲーム設定」の3つのモードが用意されており、ユーザ40は、コントローラ10の姿勢や位置又は操作子の操作に対応して画面上に表示されるカーソルを用いて、それら3つの選択肢の中から1つを選択することができる。ユーザ40が、「ゲーム開始」を選択すると後述する仮想空間の観察ゲームが開始する(S202)。ユーザ40が「ゲーム終了」を選択すると、アプリケーションプログラムの実行を終了する(S203)。ユーザ40が「ゲーム設定」を選択すると、各種ゲームの設定処理を行うことができる(S204)。
Thereafter, in this example, a predetermined mode is selected after the application program is started. FIG. 9 shows a flowchart relating to mode selection. In this example, three modes of “game start”, “game end”, and “game setting” are prepared, and the
[1.5.2 仮想空間観察ゲームの動作]
次に、仮想空間観察ゲームの一連の動作について説明する。
[1.5.2 Virtual space observation game operation]
Next, a series of operations of the virtual space observation game will be described.
[1.5.2.1 ゲームの初期画面]
図10〜図12を参照しつつ、ゲームの初期画面について説明する。ゲームが開始すると(S203)、ディスプレイ51上には、図10に示される初期画面が表示される。同図から明らかな通り、仮想空間におけるユーザ40の視野に対応する画像は、仮想空間における観察方向の画角枠に対応する背景画像52と、コントローラ10の延長上に配置される照準53とから構成されている。このような仮想空間を知覚させる画像により、ユーザ40は、あたかも宇宙空間を探索しているような体験をすることができる。
[1.5.2.1 Initial screen of game]
The initial screen of the game will be described with reference to FIGS. When the game starts (S203), an initial screen shown in FIG. As is clear from the figure, an image corresponding to the field of view of the
なお、図10に示される初期画面は、ユーザ40に奥行き感を知覚させるものであり、実際には、スマートフォン50のディスプレイ51上には、図11で示される視差を有するL(左)画像とR(右)画像とが左右に配置されて表示されている。また、背景画像52は、宇宙空間を模擬した仮想空間の一部であり、図12に示される通り、実際には、ユーザ40の周囲には、全球状に画像が空間に固定されるよう配置されている。
Note that the initial screen shown in FIG. 10 is to allow the
[1.5.2.2 ヘッドトラッキング処理]
図13〜図15を参照しつつ、ヘッドトラッキング処理について説明する。ゲームが開始すると(S203)、ヘッドトラッキング処理が同時に開始される。図13に、ヘッドトラッキング処理に関するフローチャートが示されている。処理が開始すると、制御部501は、スマートフォン50に備えられた各モーションセンサ506、507、508の各検出値を取得する(S301)。各検出値の取得後、制御部501は、スマートフォン50の位置座標(すなわち、ユーザ40の頭部41の位置)P(p,q,r)と、当該位置からの観察方向(視線方向)V(θ1,φ1)を演算する(S302)。
[1.5.2.2 Head tracking process]
The head tracking process will be described with reference to FIGS. When the game starts (S203), the head tracking process is started simultaneously. FIG. 13 shows a flowchart relating to the head tracking process. When the process starts, the
スマートフォン50の位置座標Pと観察方向Vとを演算するのに平行して、コントローラ10の制御部1001も、コントローラ10に備えられた各モーションセンサ1003、1004、1005の各検出値を取得する(S303)。各検出値の取得後、制御部1001は、コントローラ10の位置座標Q(u,v,w)と、当該位置からの指示方向U(θ2,φ2)を演算する(S304)。この演算の後、コントローラ10からスマートフォン50へと演算結果が送信される。
In parallel with calculating the position coordinate P and the observation direction V of the
ここで、図14を参照しつつ、仮想空間における座標系について説明する。点P(p,q,r)は、仮想空間内におけるスマートフォン50の位置座標であり、当該点Pを中心として、球状に画像が観察される。点Pからの観察方向Vは、観察方向VとX−Y平面(又はX'−Y'平面)とのなす角φ1と、観察方向VをX−Y平面(又はX'−Y'平面)へと射影した直線とX軸(又はX'軸)とのなす角θ1とを用いて定義され、当該観察方向Vの所定画角枠内の画像が観察されることとなる。なお、コントローラ10についても同様に、コントローラ10の位置座標Q(u,v,w)と、その指示方向U(θ2,φ2)として定義される。なお、スマートン50の位置座標PとコントローラQの位置座標とは連動してもよい。
Here, a coordinate system in the virtual space will be described with reference to FIG. The point P (p, q, r) is a position coordinate of the
図13に戻り、スマートフォン50の現在位置P及びコントローラ10の現在位置Q、観察方向V及び指示方向Uが算出されると、次に、所定の演算処理により、ディスプレイ51上に最終的に表示される画像の描画領域の特定処理が行われる(S305)。この描画領域は、観察方向Vの延長線上であって観察中心から所定距離離れた位置に存在する平面上の画角枠に対応する領域である。
Returning to FIG. 13, when the current position P of the
また、この描画領域が決定した後、指示方向Uの延長線と画角枠内の描画領域とが交点を持つか否か、持つ場合には描画領域上のその座標が演算される。この演算を行うにあたっては、スマートフォン50とコントローラ10の座標系同士を整合させることにより行われる。図15に、座標系同士の整合の概念図が示されている。同図から明らかな通り、スマートフォン50を内部に組み込んだ頭部装着具20の座標系(図15(a))と、コントローラ10の座標系(図15(b))とは、図15(c)で示される通り、座標軸を共用するように整合される。このような座標系の整合により、共通の座標系上で、種々の演算を行うことが可能となる。
Further, after this drawing area is determined, whether or not the extension line in the pointing direction U and the drawing area in the angle of view frame have an intersection, and if so, the coordinates on the drawing area are calculated. In performing this calculation, the coordinate systems of the
描画領域の特定処理(S305)が終了すると、背景画像の描画処理及びディスプレイ51上への表示処理が行われる(S306)。また、上述の処理により、コントローラ10の指示方向Uと描画領域とが交点を持つ場合(S307YES)には、描画領域内に照準有りとして、背景画像上の交点座標に照準が描かれ表示される(S308)。その後、再び各モーションセンサのセンサ検出値を取得し、上述の処理が繰り返される。一方、コントローラ10の指示方向Uと描画領域とが交点を持たない場合(S307NO)には、描画領域内に照準無しとして、背景画像上に照準を描くことなく、再び各モーションセンサのセンサ検出値を取得し、上述の処理が繰り返される。すなわち、本実施形態に係るヘッドトラッキング処理によれば、ディスプレイ51上には、仮想空間内におけるスマートフォン50の観察方向(又は視線方向)と、コントローラ10の指示方向に対応して、所定の画格枠内の背景画像と照準画像とが、常に表示されることなる。
When the drawing area specifying process (S305) ends, a background image drawing process and a display process on the
図16を参照しつつ、ヘッドトラッキング処理がなされる場合の頭部の動きと表示画面との関係について具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が示されており、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
The relationship between the head movement and the display screen when the head tracking process is performed will be specifically described with reference to FIG. The left side of the figure shows the
図16(a)に示される通り、頭部41が「前方」を向き、操作装置10も「前方」であって画面中央を指示している場合、同図右側に示される通り、前方に配置される所定の背景画像と(S306)、背景画像の中央に照準53が描かれる(S307YES、S308)。
As shown in FIG. 16A, when the
一方、図16(b)に示される通り、頭部41が「右側方」を向き、操作装置10は「前方」を指示している場合、同図右側に示される通り、コントローラ10の指示方向上に頭部41の方向に対応する画角枠が存在しないため、照準53は描かれず(S307NO)、右側方に配置される所定の画格枠内の背景画像のみが描かれる(S306)。
On the other hand, as shown in FIG. 16B, when the
すなわち、ユーザ40の頭部41の向きに応じて所定画角枠内の背景画像が描かれ、当該画像上にコントローラ10の指示方向の延長線との交点が存在する場合には、当該交点座標に対応する位置に照準画像53が描かれることとなる。
That is, when a background image within a predetermined field angle frame is drawn according to the orientation of the
[1.5.2.3 仮想空間内における並進移動処理]
次に、図17および図18を参照しつつ、仮想空間内における並進移動動作について説明する。
[1.5.2.3 Translation processing in virtual space]
Next, the translational movement operation in the virtual space will be described with reference to FIGS. 17 and 18.
図17に、仮想空間内における観測地点の並進移動動作についての割込処理フローチャートが示されている。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の突設部12に設けられた第3の操作子16が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。
FIG. 17 shows an interrupt processing flowchart for the translational movement operation of the observation point in the virtual space. In this example, when the
割込処理が開始されると、まず、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(視線方向)Vを取得する(S401)。次に、当該現在位置Pと現在の観察方向Vとに基づいて、仮想空間内における並進移動処理を行う(S402)。具体的には、現在の観察位置Pから、現在の観察方向VへとΔLの距離だけ観察位置を移動させ、観察位置をPからP'へと移動させる。その後、新たな観察位置P'から観察方向Vに存在する画角枠内の背景画像が、ディスプレイ51上に表示される(S403)。このとき、制御部501は、コントローラ10に関する情報も取得し、コントローラ10の指示方向の延長線上に上記画角枠が存在する場合には、その交点に対応する座標に照準53を描画し表示する(S403)。このようにして、新たな観察位置(又は観察中心)からの所定の観察画像を表示した後、割込処理は終了する(割込リターン)。
When the interrupt process is started, first, the
図18を参照しつつ、仮想空間内における観察地点の移動動作について詳細に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が示されており、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
The movement operation of the observation point in the virtual space will be described in detail with reference to FIG. The left side of the figure shows the
図18(a)は、割込処理が行われる直前の状態を示しており、ユーザ40の頭部41は「前方」、コントローラ10の指示方向も「前方」である。また、このとき、眼前には、同図の右側で示される背景画像、及び、その中央に照準53が表示されている。
FIG. 18A shows a state immediately before the interruption process is performed, the
図18(b)は、図18(a)の状態において第3の操作子16を操作した後の状態を示している。第3の操作子16を操作したことにより、観察方向である「前方」に、ΔLだけ観察位置が移動すると(S402)、この移動に伴って、ΔL離れた新たな観察位置から観測される画像が新たに描画される(S403)。具体的には、同図右側の画面図から明らかな通り、ΔLだけ前方に進んでいることから、前方画像を若干拡大したような画面図が描写され表示される。
FIG. 18B shows a state after the
このような構成によれば、仮想空間内において観察地点そのものも自在に移動させることができるので、仮想空間内を自在に探索することができる。 According to such a configuration, since the observation point itself can be freely moved in the virtual space, the virtual space can be freely searched.
[1.5.2.4 仮想空間内における観察方向変更処理]
次に、図19及び図20を参照しつつ、仮想空間内における観察方向の変更処理について説明する。
[1.5.2.4 Observation direction changing process in virtual space]
Next, the process of changing the observation direction in the virtual space will be described with reference to FIGS. 19 and 20.
図19は、仮想空間内における観察方向の変更動作に関する割込処理のフローチャートである。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の握り部11に設けられた押しボタン式の第2の操作子15が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。
FIG. 19 is a flowchart of an interrupt process related to an observation direction changing operation in the virtual space. In this example, when the push button type
割込処理が開始すると、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(すなわち、視線方向)Vを取得する(S501)。現在位置Pと現在の観察方向Vを取得した後、制御部501は、観察方向Vへと所定角度Δθ1を加算し、新たな観察方向V'を得る(S502)。これにより、観察方向VをX−Y平面(又はX'−Y'平面)へと射影した直線とX軸とのなす角が大きくなり、鉛直上方から見た場合に、Z軸(又はZ'軸)まわりに時計回りに水平かつ連続的に観察方向(又は視線方向)が回転することとなる。
When the interrupt process starts, the
この新たな観察方向V'を取得した後、当該観察方向V'に対応する画角枠内の背景画像と、存在する場合には、照準画像が描写され、ディスプレイ51上に表示される(S503)。この表示処理の後、未だ押しボタン式の第2の操作子15において入力操作が継続されていると検出された場合には(S504YES)、再び所定角度Δθを加算する処理が繰り返される。すなわち、押しボタン式の第2の操作子15において入力操作が継続する限り、所定角度Δθが累積的に加算されていくこととなり、換言すれば、観察方向のZ軸まわりの回転が継続することとなる。
After acquiring this new observation direction V ′, the background image within the angle-of-view frame corresponding to the observation direction V ′ and, if present, the aiming image are drawn and displayed on the display 51 (S503). ). After this display process, when it is detected that the input operation is still continued in the push button type second operator 15 (YES in S504), the process of adding the predetermined angle Δθ is repeated again. That is, as long as the input operation is continued in the push button type
一方、表示処理の後、押しボタン式の第2の操作子15において入力操作が検出されなかった場合(S504NO)、観察方向の回転は停止し、それまでのΔθの累積的な加算に基づく総回転量ΔΘが算出される。この総回転量ΔΘを用いて、新たな観察方向に対応するようにコントローラ10の指示方向の基準を補正した後(S505)、割込処理は終了する(割込リターン)。すなわち、ユーザ40は、仮想空間における直近の観察方向を、自身の正面方向と対応付けることができる。
On the other hand, if no input operation is detected by the push button type
図20を参照しつつ、観察方向が変更される態様に関して具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図中央には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が、同図右側には、仮想空間内における水平面上の観察方向を矢印で示した概念図が示されている。
A mode in which the observation direction is changed will be specifically described with reference to FIG. The left side of the figure shows the
図20(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。このときの仮想空間における観察方向は0度であり、すなわち、現実の頭部41の方向と一致している。
As shown in FIG. 20A, in the initial state, the
次に、ユーザがコントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を継続すると(S504YES)、ユーザ40の頭部41の物理的な方向及びコントローラ10の物理的な方向は変化していないにも拘わらず、仮想空間における観察方向のみが変更される(S502、S503)。図20(b)は、仮想空間における観察方向が回転していく過程において、90度観察方向が変化している状態を示している。このとき、実際の頭部41の方向とは90度のずれが生じている。
Next, when the user continues the input operation of the push button type
図20(c)は、ユーザ40が、押しボタン式の第2の操作子15を介した入力操作を継続し、丁度180度観察方向が変化したところで入力操作を解除した場合(S504NO)の状態を示している。このときも、やはりユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているものの、仮想空間における観察方向は、現実の頭部41方向とは180度ずれている。
FIG. 20C shows a state in which the
すなわち、このような構成によれば、首や上半身を後方に捻ることなく、仮想空間内における観察方向を任意に変更することができる。そのため、ヘッドトラッキング処理を基本としつつも、ディスプレイ姿勢を変化させることなく、必要に応じて仮想空間内における観察方向を任意に変更することができる。 That is, according to such a configuration, the observation direction in the virtual space can be arbitrarily changed without twisting the neck or upper body backward. Therefore, it is possible to arbitrarily change the observation direction in the virtual space as needed without changing the display posture while using the head tracking process as a basis.
また、仮想空間における観察方向が180度回転した直後に、上述の併進移動処理を行えば、仮想空間においては頭部41の観察方向である180度後方へと観察位置を進めることができる。すなわち、以上の構成によれば、ユーザ40は、仮想空間内を自在に探索することができる。
Further, if the above-described translational movement process is performed immediately after the observation direction in the virtual space is rotated by 180 degrees, the observation position can be advanced 180 degrees behind the observation direction of the
さらに、このような構成によれば、観察方向が変更されていく過程を連続的な画像を通じて確認することができる。そのため、仮想空間内においてどちらの方向に向かって観察方向を変更しているのかを直感的に把握することができるのと共に、目的とする観察方向までの様子を観察することもできる。 Furthermore, according to such a configuration, the process of changing the observation direction can be confirmed through continuous images. Therefore, it is possible to intuitively understand which direction the observation direction is changed in the virtual space, and it is also possible to observe the state up to the target observation direction.
加えて、このような構成によれば、観察方向を回転させると、1周して再び元の方向へと戻って来ることとなる。そのため、仮想空間内において自身の観察方向を見失うおそれが少なくなる。 In addition, according to such a configuration, when the observation direction is rotated, it goes around once and returns to the original direction again. Therefore, there is less possibility of losing sight of its own observation direction in the virtual space.
また、このような構成によれば、水平面に沿って観察方向を回転させることができる。そのため、画面酔いのおそれが少なくなる。 Moreover, according to such a structure, an observation direction can be rotated along a horizontal surface. Therefore, the risk of screen sickness is reduced.
さらに、このような構成によれば、操作子による入力が行われている間だけ観察方向を変更することができる。そのため、観察方向の変更動作を、直感的かつ簡易な操作で実現することができる。 Furthermore, according to such a configuration, it is possible to change the observation direction only while an input is performed by the operator. Therefore, the observation direction changing operation can be realized by an intuitive and simple operation.
なお、本実形態の例においては、180度後方まで仮想空間における観察方向を変更することとしたが、目標角度はこれに限定されることはなく、例えば、操作子の入力操作を途中で解除すること(すなわち、押しボタンを離すこと)により、観察方向を任意に設定することができる。 In the example of the present embodiment, the observation direction in the virtual space is changed to 180 degrees behind, but the target angle is not limited to this. For example, the input operation of the operator is canceled halfway By doing (that is, releasing the push button), the observation direction can be arbitrarily set.
[1.6 変形例]
上述の実施形態においては、仮想空間における観察方向に対応する画角枠の移動は、水平面上の円軌道に沿って直線的に行われることとした。しかしながら、本発明はこのような構成に限定されない。
[1.6 Modification]
In the above-described embodiment, the movement of the view angle frame corresponding to the observation direction in the virtual space is performed linearly along a circular orbit on the horizontal plane. However, the present invention is not limited to such a configuration.
従って、例えば、図21(a)に示されるように、円軌道ではあっても水平面上の円軌道ではなく、他の軌道、例えば、斜め右上方向に画角枠が移動しそのまま1周する軌道、或いは、ほぼ垂直上方に画角枠が移動しそのまま1周する軌道としてもよい。 Therefore, for example, as shown in FIG. 21 (a), even if it is a circular orbit, it is not a circular orbit on the horizontal plane, but another orbit, for example, an orbit in which the angle-of-view frame moves in the diagonally upper right direction and makes one round Alternatively, it may be a trajectory in which the angle-of-view frame moves almost vertically upward and goes around as it is.
また、図21(b)に示されるように、直線的な軌道ではなく、他の軌道、例えば、曲線的な軌道に沿って画角枠を移動させてもよい。 In addition, as shown in FIG. 21B, the angle of view frame may be moved along another trajectory, for example, a curved trajectory, instead of a linear trajectory.
[2.第2の実施形態]
図22及び図23を参照しつつ、コントローラ10の姿勢や動きに応じて観察方向の変更処理を行う第2の実施形態について説明する。なお、本実施形態に係る仮想空間観察システムもスマートフォン50、頭部装着具20及びコントローラ10とから成り、各装置のハードウエア構成は第1の実施形態において説明したものと、以下の点を除き、略同一であるから、ここではハードウエア構成に関する説明を割愛する。
[2. Second Embodiment]
With reference to FIGS. 22 and 23, a second embodiment in which the observation direction changing process is performed according to the posture and movement of the
図22には、仮想空間内における観察方向の変更動作に関する割込処理のフローチャートが示されている。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の握り部11に設けられた押しボタン式の第2の操作子15が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。
FIG. 22 shows a flowchart of an interrupt process relating to the observation direction changing operation in the virtual space. In this example, when the push button type
割込処理が開始すると、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(すなわち、視線方向)Vを取得する(S601)。
When the interrupt process starts, the
次に、コントローラ10は、各モーションセンサ1003、1004、1005の検出値などに基づいて、コントローラ10の仮想空間上における現在位置Q(u,v,w)と、コントローラ10の現在の指示方向U(θ2,φ2)とを取得し、それらをスマートフォン50へと送信する(S602)。
Next, the
その後、制御部501は、コントローラ10の指示方向の延長線と仮想空間における観察方向Vに対応する画角枠内の画像領域との交点座標を演算し、当該座標を始点として記憶する(S603)。その後、コントローラ10を移動させると、コントローラ10の指示方向の延長線と仮想空間における観察方向Vに対応する画角枠内の画像領域との交点座標が指示点として演算され、上述の始点と指示点との相対的位置関係に対応して、画角枠、すなわち観察方向Vが前記始点を中心として点対称に移動される(S604)。この画角枠の移動に応じて所定の背景画像、及び、存在する場合には照準が表示される(S605)。
After that, the
この表示処理の後、未だ押しボタン式の第2の操作子15において入力操作が継続されていると検出された場合には(S606YES)、再び指示点の演算処理からの処理が繰り返される。すなわち、押しボタン式の第2の操作子15において入力操作が継続された状態で、コントローラ10の指示点を変更することで、上述の始点を基準として、所謂ドラッグを行うかのように点対称に、画角枠乃至は観察方向を変更することができる。
After this display process, if it is detected that the input operation is still continued in the push button type second operation element 15 (YES in S606), the process from the calculation process of the indicated point is repeated again. That is, by changing the indication point of the
一方、表示処理の後、押しボタン式の第2の操作子15において入力操作が検出されなかった場合(S606NO)、新たな観察方向と対応するようにコントローラ10の指示方向の基準を補正し(S607)、割込処理を終了する(割込リターン)。
On the other hand, after the display process, when no input operation is detected in the push button type second operator 15 (NO in S606), the reference direction reference of the
図23を参照しつつ、観察方向が変更される態様に関して具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
A mode in which the observation direction is changed will be specifically described with reference to FIG. The left side of the figure shows the
図23(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。
As shown in FIG. 23A, in the initial state, the
次に、ユーザ40は、図23(b)に示される通り、画像を確認しつつ、コントローラ10の指示方向の延長に描画された照準53を用いて、始点とした領域、すなわち、この例にあっては、右上の輪を伴う惑星のやや下の領域を指示し、その状態でコントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を行う(押しボタンを押す)。これにより、本実施形態に係る割込処理が開始すると共に、当該領域が始点として記憶される(S603)。その後、第2の操作子15の入力状態を維持したまま、コントローラ10の指示領域に応じた照準53を移動させることで、前記始点と指示領域との関係とは点対称に前記画角枠、すなわち、観察方向が移動する(S604、S605、S606YES)。
Next, as shown in FIG. 23 (b), the
図23(c)は、第2の操作子15の入力状態を維持しつつ、図23(a)の状態へと再びコントローラ10を戻した状態を表している。この状態において、ユーザが第2の操作子15の入力状態を解除すると(S606NO)、上述の割込処理が終了する。このような一連の操作によれば、コントローラ10を用いて、始点とした所望の領域を仮想空間における自身の正面方向へと配置させることができる。特に、画面中央を終点として、照準を移動させれば、所望の観察方向をユーザ40の正面中心に配置することができる。
FIG. 23C illustrates a state in which the
すなわち、このような構成によれば、画角枠内の画像の所定領域を始点として、ドラッグするかのように仮想空間内における観察方向を変更することができる。 That is, according to such a configuration, it is possible to change the observation direction in the virtual space as if dragging, starting from a predetermined area of the image in the angle of view frame.
[3.第3の実施形態]
次に、第3の実施形態に係る仮想空間観察システムについて説明する。第3の実施形態に係る仮想空間観察システムの基本的な構成は、第2の実施形態に係る仮想空間観察システムと略同一である。すなわち、仮想空間内における観察方向を、頭部41の姿勢によらず、コントローラ10の姿勢や動きの変化により変更することができる。しかしながら、第2の実施形態とは異なり、第3の実施形態においては、所定画角枠内の所定領域を始点として指示領域を移動させたときに、始点を中心として、所定画角枠又は観察方向が点対称に移動するのではなく、始点と指示領域との間の相対的位置関係と一致するように移動する。
[3. Third Embodiment]
Next, a virtual space observation system according to the third embodiment will be described. The basic configuration of the virtual space observation system according to the third embodiment is substantially the same as that of the virtual space observation system according to the second embodiment. That is, the observation direction in the virtual space can be changed by a change in the posture or movement of the
図24を参照しつつ、第3の実施形態に係る観察方向の変更態様について具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
With reference to FIG. 24, the aspect of changing the observation direction according to the third embodiment will be specifically described. The left side of the figure shows the
図24(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。この状態において、コントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を行うと(押しボタンを押すと)、本実施形態に係る割込処理が開始すると共に、照準53の位置と対応する指示領域が始点として記憶される(S603)。この例にあっては、始点は画面の中心である。
As shown in FIG. 24A, in the initial state, the
次に、図24(b)に示される通り、ユーザ40は、第2の操作子15への入力状態を保持したまま(押しボタンを押したままの状態で)、コントローラ10を右側方へと90度移動する。このとき、ディスプレイ51上には、その過程において観察方向が前方画像から右側方画像まで所定画角枠内の画像が連続的に表示され、最終的に図24(b)の右側の図に示される右側方を向いたときの画像が表示される。このコントローラ10が右側方を向いた状態において、第2の操作子15の入力状態を解除する(押しボタンを離す)ことで、観察方向の変更動作は終了する。
Next, as shown in FIG. 24B, the
その後、ユーザ40がコントローラ10を前方へと戻した後、照準53に関する所定のキャリブレーション操作などを行い、コントローラ10を前方中心に向けたときに照準53が再び中心と来るように設定すれば、図24(c)に示される通り、実際に首を右側方へと向けることなく、仮想空間上の観察方向のみを右側方へと向けることができる。
Thereafter, after the
以上の構成によれば、コントローラ10を用いた直感的な操作により、観察方向を変更することができる。
According to the above configuration, the observation direction can be changed by an intuitive operation using the
[4.第4の実施形態]
次に、第4の実施形態に係る仮想空間観察システムについて説明する。第1〜第3の実施形態に係る仮想空間観察システムは、没入型の頭部装着具20を用いてディスプレイ51上に完全に仮想的な空間画像を表示させるものであった。本実施形態では、ディスプレイ上に現実の世界画像を表示し、その上に特定のオブジェクト画像を表示させる所謂AR(Augmented Reality)技術への本発明の展開例を示す。本実施形態におけるスマートフォン50は、そのアウトカメラからの画像をカメラユニット518を介して制御部51へと取り込み、当該画像をディスプレイ51上に表示することができる。なお、仮想空間における観察方向の変更手法は第2の実施形態に係る仮想空間観察システムのそれと類似する。
[4. Fourth Embodiment]
Next, a virtual space observation system according to the fourth embodiment will be described. In the virtual space observation system according to the first to third embodiments, a completely virtual space image is displayed on the
図25を参照しつつ、観察方向の変更態様について説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図中央には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が、同図右側には、仮想空間内における水平面上の観察方向を矢印で示した概念図が示されている。
With reference to FIG. 25, an aspect of changing the observation direction will be described. The left side of the figure shows the
図25(a)から明らかな通り、初期状態において、ヘッドトラッキング機能を備えたスマートフォン50を組み込んだ頭部装着具20を頭部41へと装着したユーザ40が、右側方を観察すると、右側方に存在する現実の道路画像上に、モンスターの形状を有するオブジェクト画像が重畳されて表示されて確認される。
As is apparent from FIG. 25A, in the initial state, when the
図25(b)に示される通り、右側方へと仮想空間における観察方向を変更したいユーザ40は、その頭部41を前方へと向けた後、コントローラ10を把持した右手を側方に伸ばし、押しボタン式の第2の操作子15の入力操作を行う(押しボタンを押す)。これにより、本実施形態に係る割込処理が開始すると共に、当該領域が始点として記憶される。その後、第2の操作子15の入力状態を維持したまま、コントローラ10の指示領域に応じた照準53を移動させることで、前記始点と指示領域との関係とは点対称な態様で前記画角枠、すなわち、観察方向が右側方へと90度回転する。
As shown in FIG. 25 (b), the
図25(c)は、第2の操作子15の入力状態を維持しつつ、図25(a)の状態へと再びコントローラ10の位置及び姿勢を戻した状態を表している。この状態において、ユーザが第2の操作子15の入力状態を解除すると、上述の割込処理が終了する。同図から明らかな通り、当初、ユーザ40の右側方に存在したオブジェクト画像は、ユーザ40の前方の現実世界画像に重畳されて表示されている。
FIG. 25C shows a state in which the position and posture of the
すなわち、このような構成によれば、首や上半身を捻ることなく、仮想空間内における観察方向を任意に変更することができ、これにより、重畳させる仮想空間に関するオブジェクト画像のみを変更することができる。 That is, according to such a configuration, it is possible to arbitrarily change the observation direction in the virtual space without twisting the neck and upper body, thereby changing only the object image relating to the virtual space to be superimposed. .
[5.その他]
[5.1 音声入力を用いた変形例]
上述の実施形態においては、ディスプレイ姿勢の変化を伴わない仮想空間における観察方向の制御にあたり、コントローラ10の操作信号或いはコントローラの姿勢及び/又は動きを利用したが、本発明はこのような構成に限定されない。従って、例えば、音声を用いて仮想空間における観察方向の制御を行ってもよい。
[5. Others]
[5.1 Modification using voice input]
In the above-described embodiment, the operation signal of the
本変形例においては、コントローラ10自体を用いないか、或いは、コントローラ10を仮想空間における観察方向の制御には用いない。その代わりに、スマートフォン50の制御部501には、音声入力部516を介して入力された音声を公知の音声解析アルゴリズムにより解析する音声入力処理部が設けられている。
In this modification, the
音声入力処理部では、音声入力部516を介して「回転」との音声が入力されたことを検出すると、仮想空間内における観察方向を所定の方向、例えば右方向へと水平回転させる。また、「停止」との音声が入力されたことを検出すると、仮想空間内において回転中の観察方向を停止させる。すなわち、ユーザ40は、「回転」と「停止」の言葉を用いて自在に観察方向を変更することができる。なお、検出される言葉はこれらの言葉に限定されることはなく、命令にあたっては種々の言葉が採用可能である。
When the voice input processing unit detects that the voice “rotate” is input via the
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。 According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.
[5.2 視線入力を用いた変形例]
上述の実施形態においては、ディスプレイ姿勢の変化を伴わない仮想空間における観察方向の制御にあたり、コントローラ10の操作信号或いはコントローラの姿勢及び/又は動きを利用したが、本発明はこのような構成に限定されない。従って、例えば、視線を用いて仮想空間における観察方向の制御を行ってもよい。
[5.2 Modification using eye-gaze input]
In the above-described embodiment, the operation signal of the
本変形例においては、コントローラ10自体を用いないか、或いは、コントローラ10を仮想空間における観察方向の制御には用いない。その代わりに、スマートフォン50の制御部501には、ディスプレイ51と同一の面に設けられたインカメラにより撮像された画像をカメラユニット518を介して制御部501へと取り込む。本変形例において、制御部501には、インカメラ画像に基づいて、公知の視線検出アルゴリズムによりユーザ40の視線を検出し、画面上のどの領域を見ているかを推定する視線検出処理部が設けられている。
In this modification, the
この視線検出処理部は、画像内の所定の領域に所定時間以上視線が置かれた場合には、当該領域を注視領域とし、当該注視領域が観察方向の中心となるように視線方向を変更する。すなわち、頭部姿勢などを変化させることなく、視線のみにより、仮想空間内における観察方向を変更することができる。 When the line of sight is placed in a predetermined area in the image for a predetermined time or longer, the line-of-sight detection processing unit changes the line-of-sight direction so that the area of interest is the center of the observation direction. . That is, the observation direction in the virtual space can be changed only by the line of sight without changing the head posture or the like.
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。 According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.
[5.3 その他の変形例]
上述の実施形態においては全球状の仮想空間を想定したが、本発明はこのような構成に限定されない。従って、例えば、図26に示されたパノラマ画像のような仮想空間を採用してもよいし、或いは、図27に示された半球状の仮想空間を採用してもよい。
[5.3 Other Modifications]
In the above-described embodiment, an all-spherical virtual space is assumed, but the present invention is not limited to such a configuration. Therefore, for example, a virtual space such as a panoramic image shown in FIG. 26 may be adopted, or a hemispherical virtual space shown in FIG. 27 may be adopted.
また、上述の実施形態においては、制御部501がスマートフォン50の中等に含まれるものとしたが、本発明はこのような構成に限定されない。従って、例えば、図28に示されるように、情報処理部70を外部の装置として設け、比較的に演算コストの高い処理、或いはすべての演算処理を、当該外部の情報処理部70にて行う構成としてもよい。
Moreover, in the above-mentioned embodiment, although the
さらに、上述の実施形態においては、ディスプレイ51以外の視界が遮られた、所謂没入型のヘッドマウントディスプレイが採用されていたものの、本発明はこのような構成に限定されない。従って、例えば、空間に固定された座標系を有する仮想空間内において、ディスプレイ51姿勢を検出可能なスマートフォン50などをかざすことにより、当該かざした方向の様子を観察する仮想空間観察システムを採用してもよい。
Furthermore, in the above-described embodiment, a so-called immersive head mounted display in which the field of view other than the
図29は、空間に固定された座標系を有する仮想空間をスマートフォン50をかざすことにより観察する非没入型の仮想空間観察システムについての説明図である。図29(a)に示される通り、例えば、椅子などに座ったユーザ40は、手に持ったスマートフォン50のディスプレイ51を介して、周囲の仮想空間画像を確認することができる。スマートフォン50にはモーションセンサが組み込まれているので、スマートフォンの姿勢を変えることにより、仮想空間内の観察方向を変更することができる。このような状態において、ユーザ40が左右の仮想空間を観察するには、図29(b)に示される通り、首や上半身を左右へと捻り手に持ったスマートフォンを左右方向へとそれぞれ向けなければならず、やはりこの仮想空間観察システムにおいても仮想空間における観察方向の変更に伴う身体への負担が大きい。そこで、この例にあっては、図29(c)に示される通り、ディスプレイ51の背景画像52の右下の領域に、ディスプレイ姿勢を変えることなく仮想空間において観察方向を変更するためのソフトウエアボタンが設けられている。このソフトウエアボタンは、観察位置(又は観察中心)を観察方向へと進める前進動作ボタン54、右方向へと水平面上を回転させる右回転ボタン56、左方向へと水平面上を回転させる左回転ボタン58、上方向へと垂直に回転させる上回転ボタン55、下方向へと垂直に回転させる下回転ボタン57とを有しており、いずれのソフトウエアボタンも押下の間、入力信号が連続して生成されるモメンタリ式である。
FIG. 29 is an explanatory diagram of a non-immersive virtual space observation system for observing a virtual space having a coordinate system fixed in space by holding the
このような構成によれば、ディスプレイを任意の方向に向けることなく、ソフトウエアボタンを操作することにより、仮想空間における観察方向を任意に変更することができる。 According to such a configuration, the observation direction in the virtual space can be arbitrarily changed by operating the software button without directing the display in an arbitrary direction.
なお、上述の実施形態ではいずれも仮想空間観察システムとして説明したが、それを構成する装置、その処理過程としての方法或いはプログラムとして観念することができることは勿論である。特に、上述の実施形態においては、汎用的なスマートフォン50を頭部装着具20へと組み込む構成としたが、本発明はこのような構成に限定されず、仮想空間観察システム専用のヘッドマウントディスプレイとして構成してもよい。
In the above-described embodiments, the virtual space observation system has been described, but it is needless to say that it can be considered as a device constituting the system, a method or program as a processing process thereof. In particular, in the above-described embodiment, the general-
また、上述の説明では、ゲームを例示しつつ仮想空間観察システムについて説明したが、本発明はゲーム用途に限定されない。従って、本発明をあらゆる用途の仮想空間観察システムに適用可能であることは勿論である。 In the above description, the virtual space observation system has been described while exemplifying a game. However, the present invention is not limited to a game application. Therefore, it goes without saying that the present invention can be applied to a virtual space observation system for all uses.
本発明によれば、仮想空間観察システムが提供される。これにより、例えば、仮想空間内を観察又は探索するビデオゲームなどを提供することができる。 According to the present invention, a virtual space observation system is provided. Thereby, for example, a video game for observing or searching in the virtual space can be provided.
1 仮想空間観察システム
10 コントローラ
11 握り部
12 突設部
13 方向指示操作子
14 第1の操作子
15 第2の操作子
16 第3の操作子
17 第4の操作子
18 切替式操作子
1001 制御部
1002 通信ユニット
1003 3軸加速度センサ
1004 3軸角速度センサ
1005 3軸地磁気センサ
1006 バッテリ
20 頭部装着具
21 頭周ベルト
22 頭頂ベルト
23 本体
24 開口
25 蓋板
26 保持具
27 雌側の蓋板留め具
28 雄側の蓋板留め具
29 仕切り板
30 光学系
40 ユーザ
41 頭部
43 眼
50 スマートフォン(又は情報処理装置)
51 ディスプレイ
52 背景画像
52L 左眼用画像
52R 右眼用画像
53 照準
501 制御部
502 記憶部
504 入力操作部(タッチパネル)
505 入力操作部(ボタン)
506 三軸加速度センサ
507 三軸角速度センサ
508 三軸地磁気センサ
509 GPSユニット
510 照度センサ
511 タイマ
512 バッテリ
513 振動部
514 通信ユニット
515 音声出力部
516 音声入力部
517 スピーカ部
518 カメラユニット
519 コネクタ
54 前進動作ボタン
55 上回転ボタン
56 右回転ボタン
57 下回転ボタン
58 左回転ボタン
70 情報処理部
DESCRIPTION OF
51
505 Input operation unit (button)
506
Claims (17)
前記ディスプレイの姿勢を検出可能なモーションセンサと、
前記ディスプレイ上に、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理部と、
を備えた仮想空間観察システムであって、
前記情報処理部は、さらに、
前記仮想空間観察システムのユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御部を備える、仮想空間観察システム。 Display,
A motion sensor capable of detecting the orientation of the display;
An information processing unit that displays an image in a predetermined field angle frame in a predetermined observation direction in a virtual space on the display in correspondence with the posture of the display detected by the motion sensor;
A virtual space observation system comprising:
The information processing unit further includes:
An observation direction control unit configured to change an observation direction in the virtual space in accordance with an observation direction control signal generated regardless of a change in posture of the display based on a predetermined operation by a user of the virtual space observation system; , Virtual space observation system.
連続的な観察方向制御信号に応じて、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示する、請求項1に記載の仮想空間観察システム。 The observation direction control unit further includes:
In response to a continuous observation direction control signal, the observation direction in the virtual space is continuously changed, thereby continuously displaying an image in a predetermined field angle frame corresponding to the observation direction on the display. The virtual space observation system according to claim 1, displayed on the screen.
所定の観察地点移動信号に応じて、前記仮想空間における観察地点を直近の観察方向へと所定距離移動させる観察地点制御部を備える、請求項3に記載の仮想空間観察システム。 The information processing unit further includes:
The virtual space observation system according to claim 3, further comprising an observation point control unit that moves the observation point in the virtual space by a predetermined distance in a nearest observation direction in accordance with a predetermined observation point movement signal.
前記仮想空間観察システムは、さらに、
前記ディスプレイが眼前に配置されるように前記情報処理装置を組込可能であって、ユーザの頭部に装着可能な頭部装着具と、
所定の操作子を有し、前記情報処理装置と有線又は無線により通信接続可能な手持ち型又は身体装着型の操作装置と、を備える、請求項1に記載の仮想空間観察システム。 The display, the motion sensor, and the information processing unit are included in a single information processing device,
The virtual space observation system further includes:
A head-mounted device that can be incorporated into the information processing apparatus so that the display is placed in front of the eye and can be mounted on the user's head;
The virtual space observation system according to claim 1, further comprising: a hand-held or body-mounted operation device that has a predetermined operation element and can be connected to the information processing device by wired or wireless communication.
前記操作装置の前記操作子を用いて入力操作が行われている間、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示するものである、請求項6に記載の仮想空間観察システム。 The observation direction control signal is
While the input operation is performed using the operation element of the operation device, the observation direction in the virtual space is continuously changed, and thereby a predetermined image corresponding to the observation direction is displayed on the display. The virtual space observation system according to claim 6, wherein images in the corner frame are continuously displayed.
前記観察方向制御信号は、前記操作装置の姿勢又は動きに応じて生成される、請求項5に記載の仮想空間観察システム。 The operating device further includes a motion sensor for the operating device that detects the attitude and movement of the operating device,
The virtual space observation system according to claim 5, wherein the observation direction control signal is generated according to a posture or a movement of the operation device.
前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点を中心として、前記指示領域の移動とは点対称に観察方向を変更する、請求項8に記載の仮想空間観察システム。 The observation direction control unit is
The movement of the pointing area is centered on the starting point when the pointing area is moved from the starting point when the pointing area is moved from the starting point when the pointing direction is designated by the operating device. The virtual space observation system according to claim 8, wherein the observation direction is changed symmetrically.
前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点と前記指示領域との相対的位置関係と一致するように観察方向を変更する、請求項8に記載の仮想空間観察システム。 The observation direction control unit is
When the pointing area in the angle of view frame when a predetermined direction is instructed by the operating device is the starting point, and the pointing area is moved from the starting point, the relative positional relationship between the starting point and the pointing area coincides The virtual space observation system according to claim 8, wherein the observation direction is changed so as to.
現実世界画像を撮像するカメラを含み、
前記情報処理部は、前記ディスプレイ上に、前記現実世界画像を表示すると共に、前記現実世界画像に重畳して、前記所定の画角枠内の画像に代えて、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画像を表示する、請求項1に記載の仮想空間観察システム。 The virtual space observation system further includes:
Including a camera that captures real-world images,
The information processing unit displays the real world image on the display, and superimposes the real world image on the display, replacing the image within the predetermined field angle frame, and detecting the motion sensor. The virtual space observation system according to claim 1, wherein a predetermined image in a predetermined observation direction in the virtual space is displayed corresponding to the posture of the display.
音声入力のためのマイクを備え、
前記情報処理部は、さらに、
マイク入力に基づいて、前記観察方向制御信号を生成し、それにより、前記仮想空間内における前記観察方向を変更する音声入力処理部を備える、請求項1に記載の仮想空間観察システム。 The virtual space observation system further includes:
Has a microphone for voice input,
The information processing unit further includes:
The virtual space observation system according to claim 1, further comprising: an audio input processing unit that generates the observation direction control signal based on a microphone input and thereby changes the observation direction in the virtual space.
視線検出のためのカメラを備え、
前記観察方向制御部は、さらに、
カメラ入力に基づいて、前記所定画角枠内の画像内の注視領域を検出し、所定時間以上、同一の領域が注視されたことが検出された場合に、当該領域が画像の中心となるよう観察方向を変更する視線検出処理部を備える、請求項1に記載の仮想空間観察システム。 The virtual space observation system further includes:
Equipped with a camera for gaze detection,
The observation direction control unit further includes:
Based on a camera input, a gaze area in the image within the predetermined angle-of-view frame is detected, and when it is detected that the same area has been gaze for a predetermined time or more, the area becomes the center of the image. The virtual space observation system according to claim 1, comprising a line-of-sight detection processing unit that changes an observation direction.
前記ディスプレイの姿勢を検出するモーション検出ステップと、
前記ディスプレイ上に、前記モーション検出ステップにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理ステップと、を備え、
前記情報処理ステップは、さらに、
ユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御ステップを備える、仮想空間観察方法。 A virtual space observation method for observing a virtual space recognized through an image displayed on a display,
A motion detection step of detecting the orientation of the display;
An information processing step of displaying an image in a predetermined field angle frame in a predetermined observation direction in a virtual space on the display in correspondence with the posture of the display detected by the motion detection step;
The information processing step further includes:
A virtual space observation method comprising: an observation direction control step of changing an observation direction in the virtual space in accordance with an observation direction control signal generated regardless of a change in posture of the display based on a predetermined operation by a user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016167187A JP2018036720A (en) | 2016-08-29 | 2016-08-29 | Virtual space observation system, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016167187A JP2018036720A (en) | 2016-08-29 | 2016-08-29 | Virtual space observation system, method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018036720A true JP2018036720A (en) | 2018-03-08 |
Family
ID=61567523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016167187A Pending JP2018036720A (en) | 2016-08-29 | 2016-08-29 | Virtual space observation system, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018036720A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019193705A (en) * | 2018-05-01 | 2019-11-07 | 株式会社カプコン | Game program and game device |
WO2019231090A1 (en) * | 2018-05-29 | 2019-12-05 | 삼성전자 주식회사 | Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device |
JP2020107092A (en) * | 2018-12-27 | 2020-07-09 | 株式会社コロプラ | Program, method and information processing apparatus |
CN111461020A (en) * | 2020-04-01 | 2020-07-28 | 浙江大华技术股份有限公司 | Method and device for identifying behaviors of insecure mobile phone and related storage medium |
WO2020166582A1 (en) * | 2019-02-15 | 2020-08-20 | 株式会社Jvcケンウッド | Image adjustment system, image adjustment device, and image adjustment method |
JP2020134620A (en) * | 2019-02-15 | 2020-08-31 | 株式会社Jvcケンウッド | Image adjustment system, image adjustment device, and image adjustment method |
CN112330823A (en) * | 2020-11-05 | 2021-02-05 | 腾讯科技(深圳)有限公司 | Virtual item display method, device, equipment and readable storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0728591A (en) * | 1993-05-13 | 1995-01-31 | Toshiba Corp | Space manipulation mouse system and space operation pattern input method |
JP2009205245A (en) * | 2008-02-26 | 2009-09-10 | Nikon Corp | Image reproduction system |
JP2012048597A (en) * | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | Mixed reality display system, image providing server, display device and display program |
JP2014002748A (en) * | 2012-06-20 | 2014-01-09 | Samsung Electronics Co Ltd | Remote control device and method for controlling the same |
JP2014153802A (en) * | 2013-02-06 | 2014-08-25 | Nintendo Co Ltd | Information processing program, information processing device, information processing system, and information processing method |
JP2017055173A (en) * | 2015-09-07 | 2017-03-16 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus and image generation method |
JP2017138832A (en) * | 2016-02-04 | 2017-08-10 | 株式会社コロプラ | Method and program for providing virtual space |
-
2016
- 2016-08-29 JP JP2016167187A patent/JP2018036720A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0728591A (en) * | 1993-05-13 | 1995-01-31 | Toshiba Corp | Space manipulation mouse system and space operation pattern input method |
JP2009205245A (en) * | 2008-02-26 | 2009-09-10 | Nikon Corp | Image reproduction system |
JP2012048597A (en) * | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | Mixed reality display system, image providing server, display device and display program |
JP2014002748A (en) * | 2012-06-20 | 2014-01-09 | Samsung Electronics Co Ltd | Remote control device and method for controlling the same |
JP2014153802A (en) * | 2013-02-06 | 2014-08-25 | Nintendo Co Ltd | Information processing program, information processing device, information processing system, and information processing method |
JP2017055173A (en) * | 2015-09-07 | 2017-03-16 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing apparatus and image generation method |
JP2017138832A (en) * | 2016-02-04 | 2017-08-10 | 株式会社コロプラ | Method and program for providing virtual space |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019193705A (en) * | 2018-05-01 | 2019-11-07 | 株式会社カプコン | Game program and game device |
WO2019231090A1 (en) * | 2018-05-29 | 2019-12-05 | 삼성전자 주식회사 | Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device |
US11442274B2 (en) | 2018-05-29 | 2022-09-13 | Samsung Electronics Co., Ltd. | Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device |
JP2020107092A (en) * | 2018-12-27 | 2020-07-09 | 株式会社コロプラ | Program, method and information processing apparatus |
JP7271171B2 (en) | 2018-12-27 | 2023-05-11 | 株式会社コロプラ | Program, method and information processing device |
WO2020166582A1 (en) * | 2019-02-15 | 2020-08-20 | 株式会社Jvcケンウッド | Image adjustment system, image adjustment device, and image adjustment method |
JP2020134620A (en) * | 2019-02-15 | 2020-08-31 | 株式会社Jvcケンウッド | Image adjustment system, image adjustment device, and image adjustment method |
JP7167760B2 (en) | 2019-02-15 | 2022-11-09 | 株式会社Jvcケンウッド | image adjustment system |
CN111461020A (en) * | 2020-04-01 | 2020-07-28 | 浙江大华技术股份有限公司 | Method and device for identifying behaviors of insecure mobile phone and related storage medium |
CN111461020B (en) * | 2020-04-01 | 2024-01-19 | 浙江大华技术股份有限公司 | Recognition method, equipment and related storage medium for unsafe mobile phone behavior |
CN112330823A (en) * | 2020-11-05 | 2021-02-05 | 腾讯科技(深圳)有限公司 | Virtual item display method, device, equipment and readable storage medium |
CN112330823B (en) * | 2020-11-05 | 2023-06-16 | 腾讯科技(深圳)有限公司 | Virtual prop display method, device, equipment and readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018036720A (en) | Virtual space observation system, method and program | |
US9703102B2 (en) | Information processing device including head mounted display | |
US11353967B2 (en) | Interacting with a virtual environment using a pointing controller | |
CN108780360B (en) | Virtual reality navigation | |
JP6355978B2 (en) | Program and image generation apparatus | |
CN109690447B (en) | Information processing method, program for causing computer to execute the information processing method, and computer | |
EP3156110A1 (en) | Information processing device provided with head-mounted display | |
JP6250592B2 (en) | Head mounted display, information processing apparatus, display control method, and program | |
JP5959047B2 (en) | Display control system, display control method, display control program, and display control apparatus | |
JP4413203B2 (en) | Image presentation device | |
JP2020149584A (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
WO2017136125A2 (en) | Object motion tracking with remote device | |
JP6523233B2 (en) | Information processing method, apparatus, and program for causing a computer to execute the information processing method | |
EP2466440B1 (en) | Display control program, display control apparatus, display control system, and display control method | |
JP2013258614A (en) | Image generation device and image generation method | |
JP7546116B2 (en) | Systems and methods for augmented reality - Patents.com | |
JP2015231445A (en) | Program and image generating device | |
CN108027987B (en) | Information processing method, information processing apparatus, and information processing system | |
WO2020189254A1 (en) | Information processing device, information processing method, and computer-readable recording medium | |
JPWO2009072471A1 (en) | Input device, control device, control system, control method, and handheld device | |
JP6220937B1 (en) | Information processing method, program for causing computer to execute information processing method, and computer | |
JP2018037034A (en) | Information processing system | |
CN109844600A (en) | Information processing equipment, information processing method and program | |
JP4678428B2 (en) | Virtual space position pointing device | |
JP6227732B1 (en) | Method and apparatus for supporting input in virtual space, and program causing computer to execute the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200304 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200909 |