JP2018036720A - Virtual space observation system, method and program - Google Patents

Virtual space observation system, method and program Download PDF

Info

Publication number
JP2018036720A
JP2018036720A JP2016167187A JP2016167187A JP2018036720A JP 2018036720 A JP2018036720 A JP 2018036720A JP 2016167187 A JP2016167187 A JP 2016167187A JP 2016167187 A JP2016167187 A JP 2016167187A JP 2018036720 A JP2018036720 A JP 2018036720A
Authority
JP
Japan
Prior art keywords
virtual space
observation
display
observation direction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016167187A
Other languages
Japanese (ja)
Inventor
健太 羽柴
Kenta Hashiba
健太 羽柴
貴信 海上
Takanobu Umigami
貴信 海上
加藤 國彦
Kunihiko Kato
國彦 加藤
栄一 須川
Eiichi Sugawa
栄一 須川
上島 拓
Hiroshi Uejima
拓 上島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomy Co Ltd
Original Assignee
Tomy Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomy Co Ltd filed Critical Tomy Co Ltd
Priority to JP2016167187A priority Critical patent/JP2018036720A/en
Publication of JP2018036720A publication Critical patent/JP2018036720A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual space observation system which takes a burden applied to a body and safety into consideration, while providing an intuitive observation experience in observation in a virtual space.SOLUTION: The virtual space observation system includes: a display; a motion sensor capable of detecting the attitude of the display; and an information processing part for displaying an image in a predetermined viewing angle frame in a predetermined observation direction in the virtual space according to the attitude of the display detected by the motion sensor, on the display. The information processing part further includes an observation direction control part for changing an observation direction in the virtual space according to an observation direction control signal generated regardless of the attitude change of the display on the basis of a predetermined operation by the user of the virtual space observation system.SELECTED DRAWING: Figure 20

Description

この発明は、例えば、仮想空間画像を観察する仮想空間観察システムに関する。   The present invention relates to a virtual space observation system that observes a virtual space image, for example.

ヘッドマウントディスプレイ(HMD)等を用いてユーザの両眼に所定の画像を提示し、それにより、ユーザに仮想的な空間やオブジェクトを知覚させるシステムが近年普及しつつある。このようなヘッドマウントディスプレイを用いた仮想空間の観察システムでは、多くの場合、現実空間と同様の直感的な観察体験を実現するべく、頭部追従(ヘッドトラッキング)機能が実装されている。このヘッドトラッキング機能によれば、ユーザの頭部姿勢と対応したディスプレイ姿勢を変化させることで、仮想空間内における当該ディスプレイ姿勢に応じた方向の所定画角枠内の画像がディスプレイ上に提示される。   In recent years, a system in which a predetermined image is presented to both eyes of a user using a head-mounted display (HMD) or the like, thereby causing the user to perceive a virtual space or an object has been spreading. In such a virtual space observation system using a head-mounted display, a head tracking function is often implemented in order to realize an intuitive observation experience similar to that in a real space. According to this head tracking function, by changing the display posture corresponding to the user's head posture, an image within a predetermined angle frame in a direction corresponding to the display posture in the virtual space is presented on the display. .

例として、特許文献1には、モーションセンサを備えたシースルー型ヘッドマウントディスプレイ上に、ユーザの周囲にインフォメーションベルトと呼ばれる仮想的な選択項目を知覚させる画像を表示する技術が開示されている。この例にあっては、ユーザが、歩行していない状態において、頭部を動かして当該インフォメーションベルトを観察すると、仮想空間上の表示オブジェクトの配置座標を固定した状態で、頭部方向に対応した所定画像が描画される。   As an example, Patent Document 1 discloses a technique for displaying an image that allows a user to perceive a virtual selection item called an information belt around a user on a see-through head mounted display including a motion sensor. In this example, when the user is not walking and moves the head and observes the information belt, the display coordinates in the virtual space correspond to the head direction in a fixed state. A predetermined image is drawn.

特開2016−82411号公報Japanese Patent Laid-Open No. 2006-82411

しかしながら、ヘッドトラッキング機能を備えた仮想空間の観察システムにおいては、現実空間と同様の直感的な観察体験を実現したことから、次のような不都合が存在する。すなわち、起立して或いは椅子などに座って仮想空間の観察を行うユーザが、仮想空間における自身の背面側を観察しようとした場合、ディスプレイと対応する頭部も背面側に向けなければならないため、自身の首や上半身を背面側に捻らなければならない。このとき、首や上半身への負担が大きいばかりか、周囲の視界が遮蔽された没入型のヘッドマウントディスプレイを用いた場合には、周囲を確認することなしに首や上半身を背面側に捻ることとなるから、人や物への接触のおそれから安全上も好ましくない。このような問題は、背面方向を観察する場合のみならず、例えば鉛直上方など他の方向を観察する場合にも同様に生じ得る。   However, the virtual space observation system having the head tracking function has the following inconveniences because the intuitive observation experience similar to that in the real space is realized. That is, when a user who stands up or sits on a chair and observes the virtual space tries to observe his / her back side in the virtual space, the head corresponding to the display must also face the back side, You have to twist your neck and upper body to the back. At this time, when using an immersive head-mounted display that not only places a heavy burden on the neck and upper body, but also shields the surrounding field of view, twist the neck and upper body to the back without checking the surroundings. Therefore, it is not preferable in terms of safety because of the possibility of contact with people and objects. Such a problem can occur not only when observing the back direction but also when observing other directions such as vertically upward.

また、上述のヘッドマウントディスプレイを用いた仮想空間の観察システムの場合のみならず、空間に固定された座標系を有する仮想空間内において、ディスプレイ姿勢を検出可能なスマートフォンなどをかざすことにより、当該かざした方向の様子を観察する仮想空間観察システムにおいても、やはり所定方向を観察するには当該方向へと当該方向にスマートフォンをかざさなければならないため、同様の問題が生じる。   In addition, in the virtual space observation system using the above-described head mounted display, by holding a smartphone capable of detecting the display posture in a virtual space having a coordinate system fixed in the space, Even in the virtual space observation system for observing the state of a certain direction, the same problem arises because, in order to observe a predetermined direction, the smartphone must be held in that direction.

本発明は、上述の技術的背景に鑑みてなされたものであり、その目的は、仮想空間内の観察にあたって直観的な観察体験を提供しつつも、身体への負担や安全面への配慮がなされた仮想空間観察システムを提供することにある。   The present invention has been made in view of the above-described technical background, and its purpose is to provide an intuitive observation experience for observation in a virtual space, while taking into consideration the burden on the body and safety aspects. It is to provide a virtual space observation system made.

この発明のさらに他の目的並びに作用効果については、明細書の以下の記述を参照することにより、当業者によれば容易に理解されるであろう。   Still other objects and operational effects of the present invention will be easily understood by those skilled in the art by referring to the following description of the specification.

上述の技術的課題は、以下の構成により解決される。   The above technical problem is solved by the following configuration.

すなわち、本発明に係る仮想空間観察システムは、ディスプレイと、前記ディスプレイの姿勢を検出可能なモーションセンサと、前記ディスプレイ上に、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理部と、を備えた仮想空間観察システムであって、前記情報処理部は、さらに、前記仮想空間観察システムのユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御部を備えるものである。   That is, the virtual space observation system according to the present invention includes a display, a motion sensor capable of detecting the orientation of the display, and a virtual space on the display corresponding to the orientation of the display detected by the motion sensor. An information processing unit that displays an image within a predetermined field angle frame in a predetermined observation direction within the virtual space observation system, wherein the information processing unit is further predetermined by a user of the virtual space observation system And an observation direction control unit that changes the observation direction in the virtual space in accordance with an observation direction control signal generated regardless of the change in the posture of the display based on the above operation.

このような構成によれば、ヘッドトラッキング処理により直観的な観察体験を提供しつつも、ディスプレイ姿勢を変化させることなく、必要に応じて仮想空間内における観察方向を任意に変更することができる。   According to such a configuration, it is possible to arbitrarily change the observation direction in the virtual space as needed without changing the display posture while providing an intuitive observation experience by the head tracking process.

上述の発明において、前記観察方向制御部は、さらに、連続的な観察方向制御信号に応じて、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示してもよい。   In the above-described invention, the observation direction control unit further continuously changes the observation direction in the virtual space in accordance with a continuous observation direction control signal, whereby the observation direction is displayed on the display. The images within a predetermined field angle frame corresponding to may be continuously displayed.

このような構成によれば、観察方向が変更されていく過程を連続的な画像を通じて確認することができる。そのため、仮想空間内においてどちらの方向に向かって観察方向を変更しているのかを直感的に把握することができるのと共に、目的とする観察方向までの様子を観察することもできる。   According to such a configuration, the process in which the observation direction is changed can be confirmed through continuous images. Therefore, it is possible to intuitively understand which direction the observation direction is changed in the virtual space, and it is also possible to observe the state up to the target observation direction.

上述の発明において、前記所定の画角枠内の画像の連続的な表示は、前記仮想空間における観察地点を中心とする所定の円軌道に沿って行われてもよい。   In the above-described invention, the continuous display of the image within the predetermined field angle frame may be performed along a predetermined circular orbit centered on the observation point in the virtual space.

このような構成によれば、観察方向を回転させると、1周して再び元の方向へと戻って来ることが可能となるため、仮想空間内において自身の観察方向を見失うおそれが少なくなる。   According to such a configuration, if the observation direction is rotated, it is possible to return to the original direction once after making a round, and therefore, the possibility of losing sight of the own observation direction in the virtual space is reduced.

上述の発明において、前記情報処理部は、さらに、所定の観察地点移動信号に応じて、前記仮想空間における観察地点を直近の観察方向へと所定距離移動させる観察地点制御部を備えてもよい。   In the above-described invention, the information processing unit may further include an observation point control unit that moves the observation point in the virtual space to a nearest observation direction by a predetermined distance in accordance with a predetermined observation point movement signal.

このような構成によれば、仮想空間内において観察地点そのものも自在に移動させることができるので、仮想空間内を自在に探索することができる。   According to such a configuration, since the observation point itself can be freely moved in the virtual space, the virtual space can be freely searched.

上述の発明において、前記ディスプレイと、前記モーションセンサと、前記情報処理部とは、単一の情報処理装置に含まれ、前記仮想空間観察システムは、さらに、前記ディスプレイが眼前に配置されるように前記情報処理装置を組込可能であって、ユーザの頭部に装着可能な頭部装着具と、所定の操作子を有し、前記情報処理装置と有線又は無線により通信接続可能な手持ち型又は身体装着型の操作装置と、を備えてもよい。   In the above-described invention, the display, the motion sensor, and the information processing unit are included in a single information processing apparatus, and the virtual space observation system further includes the display arranged in front of the eyes. The information processing apparatus can be incorporated, has a head mounting tool that can be mounted on the user's head, and a predetermined operator, and can be connected to the information processing apparatus by a wired or wireless connection, And a body-mounted operation device.

このような構成によれば、頭部装着具へと組み込まれた情報処理装置に備えられたディスプレイとモーションセンサと情報処理部を利用して、ヘッドマウントディスプレイを実現することができる。   According to such a configuration, a head-mounted display can be realized using the display, the motion sensor, and the information processing unit provided in the information processing device incorporated in the head-mounted device.

上述の発明において、前記観察方向制御信号は、前記操作装置の前記操作子を操作することにより生成されてもよい。   In the above-described invention, the observation direction control signal may be generated by operating the operation element of the operation device.

このような構成によれば、頭部装着具を装着して視界が限定され乃至は皆無の場合であっても、操作子により確実に観察方向制御信号を生成することができる。   According to such a configuration, the observation direction control signal can be reliably generated by the operation element even when the field of view is limited or completely absent by wearing the head-mounted tool.

上述の発明において、前記観察方向制御信号は、前記操作装置の前記操作子を用いて入力操作が行われている間、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示するものであってもよい。   In the above-described invention, the observation direction control signal continuously changes the observation direction in the virtual space while an input operation is performed using the operation element of the operation device. An image within a predetermined field angle frame corresponding to the viewing direction may be continuously displayed on the display.

このような構成によれば、操作子による入力が行われている間だけ観察方向を変更することができるので、観察方向の変更動作を自身の観察方向を見失うおそれも少なく、また、直感的かつ簡易な操作で実現することができる。   According to such a configuration, since the observation direction can be changed only while input is performed by the operation element, there is little possibility of losing sight of the observation direction of the observation direction change operation. This can be realized with a simple operation.

上述の発明において、前記操作装置は、さらに、前記操作装置の姿勢及び動きを検出する操作装置用モーションセンサを備え、前記観察方向制御信号は、前記操作装置の姿勢又は動きに応じて生成されてもよい。   In the above-described invention, the operating device further includes a motion sensor for an operating device that detects the attitude and motion of the operating device, and the observation direction control signal is generated according to the attitude or motion of the operating device. Also good.

このような構成によれば、頭部姿勢は変えることなく、操作装置の姿勢又は動きを変えることで仮想空間における観察方向を制御することができる。   According to such a configuration, the observation direction in the virtual space can be controlled by changing the posture or movement of the controller device without changing the head posture.

上述の発明において、前記観察方向制御部は、前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点を中心として、前記指示領域の移動とは点対称に観察方向を変更するものであってもよい。   In the above-described invention, the observation direction control unit starts from an instruction area in an angle-of-view frame when a predetermined direction is instructed by the operating device, and the start point when the instruction area moves from the start point With respect to the movement of the pointing region, the observation direction may be changed symmetrically with respect to the point.

このような構成によれば、画角枠内の画像の所定領域を始点として、ドラッグするかのように仮想空間内における観察方向を変更することができる。   According to such a configuration, it is possible to change the observation direction in the virtual space as if dragging, starting from a predetermined area of the image in the angle frame.

上述の発明において、前記観察方向制御部は、前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点と前記指示領域との相対的位置関係と一致するように観察方向を変更するものであってもよい。   In the above-described invention, the observation direction control unit starts from an instruction area in an angle-of-view frame when a predetermined direction is instructed by the operating device, and the start point when the instruction area moves from the start point The observation direction may be changed so as to coincide with the relative positional relationship between the display area and the indication area.

このような構成によれば、操作装置を用いて、直感的に観察方向を変更することができる。   According to such a configuration, the observation direction can be changed intuitively using the operation device.

上述の発明において、前記仮想空間観察システムは、さらに、現実世界画像を撮像するカメラを含み、前記情報処理部は、前記ディスプレイ上に、前記現実世界画像を表示すると共に、前記現実世界画像に重畳して、前記所定の画角枠内の画像に代えて、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画像を表示するものであってもよい。   In the above-described invention, the virtual space observation system further includes a camera that captures a real world image, and the information processing unit displays the real world image on the display and superimposes the real world image on the display. Then, instead of the image in the predetermined field angle frame, a predetermined image in a predetermined observation direction in the virtual space is displayed corresponding to the attitude of the display detected by the motion sensor. Also good.

このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができ、これにより、重畳させる仮想空間に関する画像のみを変更することができる。   According to such a configuration, it is possible to arbitrarily change the observation direction in the virtual space without changing the display posture, and thereby it is possible to change only the image related to the virtual space to be superimposed.

上述の発明において、前記仮想空間観察システムは、さらに、音声入力のためのマイクを備え、前記情報処理部は、さらに、マイク入力に基づいて、前記観察方向制御信号を生成し、それにより、前記仮想空間内における前記観察方向を変更する音声入力処理部を備えてもよい。   In the above-described invention, the virtual space observation system further includes a microphone for voice input, and the information processing unit further generates the observation direction control signal based on the microphone input, thereby You may provide the audio | voice input process part which changes the said observation direction in virtual space.

このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。   According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.

上述の発明において、前記仮想空間観察システムは、さらに、視線検出のためのカメラを備え、前記観察方向制御部は、さらに、カメラ入力に基づいて、前記所定画角枠内の画像内の注視領域を検出し、所定時間以上、同一の領域が注視されたことが検出された場合に、当該領域が画像の中心となるよう観察方向を変更する視線検出処理部を備えてもよい。   In the above-described invention, the virtual space observation system further includes a camera for detecting a line of sight, and the observation direction control unit further includes a gaze area in the image within the predetermined field angle frame based on a camera input. And a line-of-sight detection processing unit that changes the observation direction so that the area becomes the center of the image when it is detected that the same area is watched for a predetermined time or more.

このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。   According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.

上述の発明において、前記モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含むものであってもよい。   In the above-described invention, the motion sensor may include at least a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and a 3-axis geomagnetic sensor.

このような構成によれば、各センサの検出値から、高精度にディスプレイの姿勢を検出することができる。また、特に、3軸加速度センサ及び3軸地磁気の検出値を利用して、絶対座標系における姿勢を算出することも可能である。   According to such a configuration, the orientation of the display can be detected with high accuracy from the detection values of the sensors. In particular, it is also possible to calculate the attitude in the absolute coordinate system using the detected values of the triaxial acceleration sensor and the triaxial geomagnetism.

上述の発明において、前記操作装置用モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含むものであってもよい。   In the above-described invention, the motion sensor for the operation device may include at least a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and a 3-axis geomagnetic sensor.

このような構成によれば、各センサの検出値から、高精度にディスプレイの姿勢を検出することができる。また、特に、3軸加速度センサ及び3軸地磁気の検出値を利用して、絶対座標系における姿勢を算出することも可能である。   According to such a configuration, the orientation of the display can be detected with high accuracy from the detection values of the sensors. In particular, it is also possible to calculate the attitude in the absolute coordinate system using the detected values of the triaxial acceleration sensor and the triaxial geomagnetism.

また、本発明は、仮想空間観察方法として観念することもできる。すなわち、仮想空間観察方法は、ディスプレイ上に表示された画像を通じて認識される仮想空間を観察する仮想空間観察方法であって、前記ディスプレイの姿勢を検出するモーション検出ステップと、前記ディスプレイ上に、前記モーション検出ステップにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理ステップと、を備え、前記情報処理ステップは、さらに、ユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御ステップを備える。   The present invention can also be considered as a virtual space observation method. That is, the virtual space observation method is a virtual space observation method for observing a virtual space recognized through an image displayed on a display, and includes a motion detection step for detecting an attitude of the display, An information processing step of displaying an image in a predetermined field angle frame in a predetermined observation direction in a virtual space corresponding to the posture of the display detected by the motion detection step, and the information processing step further includes And an observation direction control step of changing an observation direction in the virtual space in accordance with an observation direction control signal generated regardless of a change in posture of the display based on a predetermined operation by the user.

このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができる方法を提供することができる。   According to such a configuration, it is possible to provide a method capable of arbitrarily changing the observation direction in the virtual space without changing the display posture.

さらに、本発明は、仮想空間観察用コンピュータプログラムとして観念することもできる。すなわち、コンピュータを、上述の仮想空間観察システムにおける情報処理部として機能させる仮想空間観察用コンピュータプログラムとして観念することができる。   Furthermore, the present invention can also be considered as a virtual space observation computer program. That is, the computer can be thought of as a virtual space observation computer program that causes a computer to function as an information processing unit in the virtual space observation system described above.

このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができるコンピュータプログラムを提供することができる。   According to such a configuration, it is possible to provide a computer program that can arbitrarily change the observation direction in the virtual space without changing the display posture.

本発明によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができる仮想空間観察システムを提供することができる。これにより、仮想空間内の観察にあたって直観的な観察体験を提供しつつも、身体への負担や安全面への配慮がなされた仮想空間観察システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the virtual space observation system which can change the observation direction in virtual space arbitrarily, without changing a display attitude | position can be provided. Accordingly, it is possible to provide a virtual space observation system in which consideration for the burden on the body and safety is provided while providing an intuitive observation experience in observation in the virtual space.

図1は、システムの使用状態を示す説明図である。FIG. 1 is an explanatory diagram showing a use state of the system. 図2は、頭部装着具の外観を示す斜視図である。FIG. 2 is a perspective view showing an appearance of the head-mounted device. 図3は、頭部装着具へのスマートフォン組み込み手順の説明図である。FIG. 3 is an explanatory diagram of a procedure for incorporating the smartphone into the head-mounted device. 図4は、頭部装着具の使用状態を示す説明図である。FIG. 4 is an explanatory diagram illustrating a usage state of the head-mounted device. 図5は、スマートフォンの電気的ハードウエア構成を示すブロック図である。FIG. 5 is a block diagram showing an electrical hardware configuration of the smartphone. 図6は、コントローラの外観を示す斜視図である。FIG. 6 is a perspective view showing the appearance of the controller. 図7は、コントローラの電気的ハードウエア構成を示すブロック図である。FIG. 7 is a block diagram showing an electrical hardware configuration of the controller. 図8は、遊戯の準備手順に関するフローチャートである。FIG. 8 is a flowchart regarding the preparation procedure of the game. 図9は、モード選択に関するフローチャートである。FIG. 9 is a flowchart regarding mode selection. 図10は、ゲームの初期状態の画面図である。FIG. 10 is a screen view of the initial state of the game. 図11は、視差画像の表示例について示す説明図である。FIG. 11 is an explanatory diagram illustrating a display example of a parallax image. 図12は、全球画像を用いた場合の概念図である。FIG. 12 is a conceptual diagram when a global image is used. 図13は、ヘッドトラッキング処理に関するフローチャートである。FIG. 13 is a flowchart regarding the head tracking process. 図14は、座標系に関する説明図である。FIG. 14 is an explanatory diagram relating to the coordinate system. 図15は、座標系の整合に関する概念図である。FIG. 15 is a conceptual diagram relating to coordinate system matching. 図16は、ヘッドトラッキングの様子について説明する説明図である。FIG. 16 is an explanatory diagram for explaining the state of head tracking. 図17は、仮想空間内における移動動作に関する割込処理フローチャートである。FIG. 17 is an interrupt processing flowchart regarding the moving operation in the virtual space. 図18は、仮想空間における前進動作に関する説明図である。FIG. 18 is an explanatory diagram regarding the forward movement in the virtual space. 図19は、仮想空間内における観察方向の変更動作に関する割込処理フローチャート(その1)である。FIG. 19 is an interrupt processing flowchart (part 1) relating to the observation direction changing operation in the virtual space. 図20は、観察方向の変更態様に関する説明図(第1の実施形態)である。FIG. 20 is an explanatory diagram (first embodiment) regarding a change mode of an observation direction. 図21は、画格枠の移動軌道についての説明図である。FIG. 21 is an explanatory diagram of the movement trajectory of the picture frame. 図22は、仮想空間内における観察方向の変更動作に関する割込処理フローチャート(その2)である。FIG. 22 is an interrupt processing flowchart (part 2) relating to the observation direction changing operation in the virtual space. 図23は、観察方向の変更態様に関する説明図(第2の実施形態)である。FIG. 23 is an explanatory diagram (second embodiment) regarding a change mode of an observation direction. 図24は、観察方向の変更態様に関する説明図(第3の実施形態)である。FIG. 24 is an explanatory diagram (third embodiment) regarding a change mode of an observation direction. 図25は、観察方向の変更態様に関する説明図(第4の実施形態)である。FIG. 25 is an explanatory diagram (fourth embodiment) relating to a manner of changing the observation direction. 図26は、パノラマ画像を用いた場合の概念図である。FIG. 26 is a conceptual diagram when a panoramic image is used. 図27は、半球画像を用いた場合の概念図である。FIG. 27 is a conceptual diagram when hemispherical images are used. 図28は、主となる情報処理を外部装置にて行う場合の概念図である。FIG. 28 is a conceptual diagram when main information processing is performed by an external device. 図29は、非没入型の場合の変形例に関する説明図である。FIG. 29 is an explanatory diagram relating to a modified example in the case of the non-immersive type.

以下に、本発明に係る仮想空間観察用システムの好適な実施の一形態を、添付の図面を参照しながら詳細に説明する。   Hereinafter, a preferred embodiment of a virtual space observation system according to the present invention will be described in detail with reference to the accompanying drawings.

[1.第1の実施形態]
[1.1 システムの全体構成]
図1に、本発明に係る仮想空間観察システム1の一例の使用状態に関する外観図が示されている。同図から明らかな通り、この例にあっては、仮想空間観察システム1は、ユーザ(又は操作者)40の手に把持される手持ち型の操作装置であるコントローラ10と、ユーザ40の頭部41に頭周ベルト21を介して装着される頭部装着具20と、頭部装着具20の内部に組み込まれる情報処理装置であるスマートフォン50とから構成されている。なお、同図において、スマートフォン50は頭部装着具20の内部に組み込まれているため図示されていない。
[1. First Embodiment]
[1.1 Overall system configuration]
FIG. 1 shows an external view relating to a use state of an example of a virtual space observation system 1 according to the present invention. As is apparent from the figure, in this example, the virtual space observation system 1 includes a controller 10 that is a hand-held operating device held by the hand of the user (or operator) 40, and the head of the user 40. The head mounting device 20 is mounted on the head 41 via the head circumference belt 21, and the smartphone 50 is an information processing device incorporated in the head mounting device 20. In addition, in the same figure, since the smart phone 50 is built in the inside of the head mounting tool 20, it is not illustrated.

[1.2 頭部装着具の構成]
図2〜図4を参照しつつ、頭部装着具20の構成について説明する。図2及び図3に示される通り、頭部装着具20は、前面に開口24を有しかつ後面はユーザ40の両眼43にあてがわれる本体23を有する。この本体23は、ユーザ40の頭部周囲にあてがわれる頭周ベルト21と頭頂部にあてがわれる頭頂ベルト22と結合している。前面開口24には、外側へ開くようにした蓋板25が開閉自在にヒンジ結合されており、この蓋板25によって、前面開口24は閉じられ、蓋板留め具27、28によって両者は固定される。蓋板25の内面側には、表示画面51を内面側に向けて、スマートフォン50が適当な保持具26で固定される。
[1.2 Structure of head-mounted device]
The configuration of the head mounting tool 20 will be described with reference to FIGS. As shown in FIGS. 2 and 3, the head-mounted device 20 has a main body 23 having an opening 24 on the front surface and a rear surface applied to both eyes 43 of the user 40. The main body 23 is combined with a head belt 21 applied to the periphery of the head of the user 40 and a head belt 22 applied to the top of the head. A lid plate 25 that opens outward is hinged to the front opening 24 so as to be openable and closable. The lid plate 25 closes the front opening 24, and both are fixed by lid plate fasteners 27 and 28. The On the inner surface side of the cover plate 25, the smartphone 50 is fixed with an appropriate holder 26 with the display screen 51 facing the inner surface side.

図3(a)及び図3(b)に、頭部装着具20へのスマートフォン50の組み込み手順の詳細が示されている。まず、図3(a)に示される通り、スマートフォン50は、頭部装着具20の前面の蓋板25を開いた状態において、蓋板25の内面側に配置された4つの保持具26の中央部へと配置されて組み込まれる。スマートフォン50が組み込まれた後の頭部装着具20が図3(b)に示されている。同図から明らかな通り、スマートフォン50は、蓋板25の内面側の保持具26によりその各辺を着脱自在に保持されている。この状態において、雄側の蓋板留め具28と雌側の蓋板留め具27とを係合させて蓋板25を閉じることで、表示画面51を本体23の内面側に向けた状態でスマートフォン50を固定することができる。   3A and 3B show details of the procedure for incorporating the smartphone 50 into the head-mounted device 20. First, as shown in FIG. 3A, the smartphone 50 has the center of the four holders 26 arranged on the inner surface side of the lid plate 25 in a state where the lid plate 25 on the front surface of the head-mounted device 20 is opened. It is arranged and incorporated in the part. FIG. 3B shows the head mounted device 20 after the smartphone 50 is incorporated. As is clear from the figure, the smartphone 50 is detachably held on each side by a holder 26 on the inner surface side of the lid plate 25. In this state, by engaging the male lid plate fastener 28 and the female lid plate fastener 27 and closing the lid plate 25, the smartphone with the display screen 51 facing the inner surface side of the main body 23. 50 can be fixed.

ユーザ40が、スマートフォン50の組み込まれた頭部装着具20を頭部41に装着すると、図4に示されるように、操作者40の眼43の前には、仕切り板29に保持された光学系30を介して、スマートフォン50の表示画面51が対面する。そのため、頭部装着具20は、いわゆるヘッドマウントディスプレイ(HMD)として機能する。   When the user 40 wears the head wearing tool 20 in which the smartphone 50 is incorporated in the head 41, the optical held by the partition plate 29 is placed in front of the eyes 43 of the operator 40 as shown in FIG. 4. The display screen 51 of the smartphone 50 faces through the system 30. Therefore, the head mounting tool 20 functions as a so-called head mounted display (HMD).

[1.3 スマートフォンの構成]
スマートフォン50は、図3又は図6等に示される通り、一方の面の中央部にディスプレイ51、その上下に操作ボタン、スピーカ、インカメラを有し、他方の面にアウトカメラを有している。後に、図5を参照して説明するように、スマートフォン50には、モーションセンサを構成する3軸加速度センサ506、3軸角速度センサ507、及び3軸地磁気センサ508がそれぞれ組み込まれている。そのため、それらのセンサによって、スマートフォン10の位置、姿勢、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。
[1.3 Configuration of smartphone]
As shown in FIG. 3 or FIG. 6, the smartphone 50 has a display 51 at the center of one surface, operation buttons, speakers, and an in-camera above and below, and an out-camera on the other surface. . As will be described later with reference to FIG. 5, the smartphone 50 incorporates a triaxial acceleration sensor 506, a triaxial angular velocity sensor 507, and a triaxial geomagnetic sensor 508 that constitute a motion sensor. Therefore, it is possible to freely detect changes including the position, posture, and / or movement of the smartphone 10 by these sensors.

スマートフォンの電気的ハードウェア構成の一例を示すブロック図が、図5に示されている。同図に示されるように、スマートフォン50の電気回路は、制御部501、記憶部502、ディスプレイ部51、入力操作部(タッチパネル)504、入力操作部(ボタン)505、3軸加速度センサ506、3軸角速度センサ507、3軸地磁気センサ508、GPSユニット509、照度センサ510、タイマ511、バッテリ512、振動部513、通信ユニット514、音声出力部515、音声入力部516、スピーカ部517、カメラユニット518、及びコネクタ519を含んで構成される。   A block diagram showing an example of the electrical hardware configuration of the smartphone is shown in FIG. As shown in the figure, the electric circuit of the smartphone 50 includes a control unit 501, a storage unit 502, a display unit 51, an input operation unit (touch panel) 504, an input operation unit (button) 505, and a triaxial acceleration sensor 506, 3. Axial angular velocity sensor 507, triaxial geomagnetic sensor 508, GPS unit 509, illuminance sensor 510, timer 511, battery 512, vibration unit 513, communication unit 514, audio output unit 515, audio input unit 516, speaker unit 517, camera unit 518 And a connector 519.

制御部501は、スマートフォンの各種動作等を制御するプログラムを実行するCPU等(SoC(System−on−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)などを含む)を備える。   The control unit 501 includes a CPU (including a SoC (System-on-chip), MCU (Micro Control Unit), or FPGA (Field-Programmable Gate Array)) that executes programs for controlling various operations of the smartphone. Prepare.

記憶部502は、ROM,RAM又はストレージ等から構成され、スマートフォン50の一般的機能を実現するためのプログラムのほか、後述するゲームプログラムその他の各種のデータが保存される。   The storage unit 502 includes a ROM, a RAM, a storage, and the like, and stores a program for realizing general functions of the smartphone 50, a game program described later, and various other data.

ディスプレイ51は、液晶ディスプレイ、有機ELディスプレイ、又は無機ELディスプレイ等の表示デバイスを備えており、文字、図形又は記号等が表示される。このディスプレイ51は、本発明に関連して、ヘッドマウントディスプレイ(HMD)の表示部としても機能する。すなわち、このディスプレイ51の表示画面に、ビデオゲーム等を構成する画像が表示される。この画像は、好ましくは、公知の手法により3D処理が施される。3D表示を行う手法の一例として、ディスプレイ51の横長表示画面を左右に2分割し、それぞれに、視差を有する2つの画像を表示する手法が採用される。   The display 51 includes a display device such as a liquid crystal display, an organic EL display, or an inorganic EL display, and displays characters, figures, symbols, and the like. The display 51 also functions as a display unit of a head mounted display (HMD) in connection with the present invention. That is, an image constituting a video game or the like is displayed on the display screen of the display 51. This image is preferably subjected to 3D processing by a known method. As an example of a technique for performing 3D display, a technique is adopted in which a horizontally long display screen of the display 51 is divided into left and right parts and two images each having a parallax are displayed.

通信ユニット514は、外部機器とLAN又はインターネット等を介して無線通信を行うものである。無線通信規格としては例えば、2G、3G、4G、IEEE802.11、Bluetooth(登録商標)等の規格がある。特に、本発明と関連して、スマートフォン50は、操作部10との間でBluetoothを介して短距離通信を行う。   The communication unit 514 performs wireless communication with an external device via a LAN or the Internet. Examples of wireless communication standards include 2G, 3G, 4G, IEEE 802.11, Bluetooth (registered trademark), and the like. In particular, in connection with the present invention, the smartphone 50 performs short-range communication with the operation unit 10 via Bluetooth.

スピーカ部517は、当該スマートフォンから音楽等を出力するものであり、このスピーカ部517は、本発明に関連して、ゲームサウンドを生成するためにも使用される。   The speaker unit 517 outputs music or the like from the smartphone, and the speaker unit 517 is also used to generate a game sound in connection with the present invention.

3軸加速度センサ506は、スマートフォン筐体に働く加速度の方向及び大きさを検出するものであり、3軸角速度センサ507はスマートフォン筐体の角度及び角速度を検出するものであり、3軸地磁気センサ508は、地磁気の向きを検出するものである。これら3つのセンサ506、507、508によって、本発明におけるモーションセンサが構成されている。そして、それら3つのセンサ506,507,508の各出力に基づいて、ユーザ40の頭部41の向きが検出される。なお、各センサ506、507、508の詳細については後述する。   The triaxial acceleration sensor 506 detects the direction and magnitude of acceleration acting on the smartphone casing, and the triaxial angular velocity sensor 507 detects the angle and angular velocity of the smartphone casing, and the triaxial geomagnetic sensor 508. Detects the direction of geomagnetism. These three sensors 506, 507, and 508 constitute a motion sensor in the present invention. Then, the orientation of the head 41 of the user 40 is detected based on the outputs of the three sensors 506, 507, and 508. Details of the sensors 506, 507, and 508 will be described later.

カメラユニット518は、例えば、スマートフォン50の筐体の表面又は裏面に設けられるインカメラ又はアウトカメラ等と接続され、静止画像又は動画像を撮像する際に用いられるものである。カメラユニット518は、後述するように、本発明と関連して、ディスプレイ51の背面側に設けられたアウトカメラを用いて現実世界の画像を撮像したり、或いは、ディスプレイ51と同一の面に設けられたインカメラにより視線画像を取得することにも利用可能である。   The camera unit 518 is connected to, for example, an in camera or an out camera provided on the front surface or the back surface of the housing of the smartphone 50, and is used when capturing a still image or a moving image. As will be described later, the camera unit 518 captures an image of the real world using an out camera provided on the back side of the display 51 or is provided on the same surface as the display 51 in connection with the present invention. It can also be used to acquire a line-of-sight image with the in-camera provided.

音声入力部516は、スマートフォン50を用いて通話等を行う際に音声の入力を行うものである(マイク等)。本発明と関連して、後述するように、音声入力部516を介して入力された音声を解析して、スマートフォンやアプリケーションプログラムの種々の操作を行ってもよい。   The voice input unit 516 is for inputting voice (such as a microphone) when making a call or the like using the smartphone 50. As will be described later in connection with the present invention, the voice input via the voice input unit 516 may be analyzed to perform various operations on the smartphone or application program.

その他、振動部513は、各種アプリケーションプログラム等で用いられる振動部であり、例えば、電磁コイルを利用した振動機構その他各種の振動モータ等で構成することができる。コネクタ519は、他の機器との接続に用いられる端子である。当該端子は、USB、HDMI(登録商標)等の汎用的な端子であってもよい。音声出力部515は、当該スマートフォンを用いて通話等を行う際に音声出力を行うものである。入力操作部504は例えばタッチ方式の入力操作部であり、指、ペン又はスタイラスペン等の接触検知により、各種の入力を行うものである。GPS(Grand Positioning System)ユニット509は、スマートフォンの位置を検出する。照度センサ510は、照度を検出する。なお、照度とは、光の強さ、明るさ、又は輝度を示す。タイマ511は時間の計測を行うものである。なお、当該タイマはCPU等と一体に設けられても良い。バッテリ512は、充電により、スマートフォンの電源として機能するものである。   In addition, the vibration part 513 is a vibration part used by various application programs etc., for example, can be comprised with the vibration mechanism using an electromagnetic coil, various other vibration motors, etc. The connector 519 is a terminal used for connection with other devices. The terminal may be a general-purpose terminal such as USB or HDMI (registered trademark). The audio output unit 515 outputs audio when making a call or the like using the smartphone. The input operation unit 504 is, for example, a touch-type input operation unit, and performs various inputs by detecting contact with a finger, pen, stylus pen, or the like. A GPS (Grand Positioning System) unit 509 detects the position of the smartphone. The illuminance sensor 510 detects illuminance. The illuminance indicates light intensity, brightness, or luminance. The timer 511 measures time. Note that the timer may be provided integrally with the CPU or the like. The battery 512 functions as a power source for the smartphone by charging.

[1.4 コントローラの構成]
操作装置であるコントローラ10の外観斜視図が図6に示されている。コントローラ10は、長手方向の前面下部に窪みを有するよう形成されており、当該窪みの背後側に設けられユーザ40が握った時に少なくとも小指、薬指及び親指の付け根にて包まれて手に馴染む形状の握り部11と、前記握り部11と連接されて前記窪みの前面側に設けられた突設部12と、から構成されている。握り部11の上面には、把持した際に親指で操作される第1の操作子14と第2の操作子15が設けられている。突設部の前面側には、上下に、把持した際に人差し指又は中指にて操作される第3の操作子16及び第4の操作子17が設けられている。前記窪みの背面側にあたるコントローラ10の最上面には方向指示操作子13が設けられており、自在な方向指示が可能に構成されている。コントローラ10の側面には、切替式操作子18が設けられている。なお、これらの操作子はいずれも押し続けられている間、連続的に操作信号を生成するモメンタリ式の操作子である。
[1.4 Controller configuration]
FIG. 6 shows an external perspective view of the controller 10 which is an operation device. The controller 10 is formed so as to have a recess at the lower front portion in the longitudinal direction, and is provided behind the recess so as to be wrapped in at least the little finger, the ring finger and the base of the thumb when gripped by the user 40, and conform to the hand. , And a projecting portion 12 connected to the grip portion 11 and provided on the front side of the recess. Provided on the upper surface of the grip portion 11 are a first operating element 14 and a second operating element 15 that are operated with the thumb when gripped. On the front side of the projecting portion, there are provided a third operating element 16 and a fourth operating element 17 that are operated with an index finger or a middle finger when grasped vertically. A direction indicating operation element 13 is provided on the uppermost surface of the controller 10 corresponding to the back side of the depression, and can be freely specified. A switchable operation element 18 is provided on the side surface of the controller 10. Each of these operators is a momentary type operator that continuously generates an operation signal while being pressed.

後に、図7を参照して説明するように、コントローラ10には、操作装置用モーションセンサを構成する3軸加速度センサ1003、3軸角速度センサ1004、及び3軸地磁気センサ1005がそれぞれ組み込まれている。そのため、それらのセンサによって、コントローラ10の位置、姿勢、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。   As will be described later with reference to FIG. 7, the controller 10 incorporates a three-axis acceleration sensor 1003, a three-axis angular velocity sensor 1004, and a three-axis geomagnetic sensor 1005 that constitute a motion sensor for the operation device. . Therefore, it is possible to freely detect changes including the position, posture, and / or movement of the controller 10 by these sensors.

コントローラ10の電気的ハードウェア構成を示すブロック図が、図7に示されている。同図に示されるように、操作子内部の電気回路は、マイクロプロセッサやASIC等で構成されて、操作子全体を統括制御する制御部1001と.Bluetooth等の短距離通信を実現するための通信ユニット1002と、操作装置用モーションセンサを構成する3つのセンサ、すなわち3軸加速度センサ1003、3軸角速度センサ1004、及び3軸磁気センサ1005と、バッテリ1006と、記憶部1007と、第1の操作子14と連動してオンオフする第1のスイッチ14aと、第2の操作子15と連動してオンオフする第2のスイッチ15aと、第3の操作子16と連動してオンオフする第3のスイッチ16a、第4の操作子17と連動してオンオフする第4のスイッチ17aとを含んで構成されている。   A block diagram showing the electrical hardware configuration of the controller 10 is shown in FIG. As shown in the figure, an electric circuit inside the operation element is constituted by a microprocessor, an ASIC, or the like, and a control unit 1001 and. A communication unit 1002 for realizing short-range communication such as Bluetooth, three sensors constituting a motion sensor for an operation device, that is, a three-axis acceleration sensor 1003, a three-axis angular velocity sensor 1004, a three-axis magnetic sensor 1005, and a battery 1006, a storage unit 1007, a first switch 14 a that turns on and off in conjunction with the first operator 14, a second switch 15 a that turns on and off in conjunction with the second operator 15, and a third operation A third switch 16 a that is turned on / off in conjunction with the child 16 and a fourth switch 17 a that is turned on / off in conjunction with the fourth operator 17 are configured.

3軸加速度センサ1003とは、当業者にはよく知られているように、X軸・Y軸・Z軸の3方向の加速度を1つのデバイスで測定できるセンサであって、三次元の加速度が検出でき、重力(静的加速度)の計測にも対応できる。3軸加速度センサの多くは、半導体製造技術やレーザ加工技術などの微細加工技術を応用し、シリコン基板上に微小な機械構造を集積化する「微小電気機械素子創製技術(Micro Electro Mechanical Systems、MEMS、メムス、マイクロマシン)」により小型化されたMEMSセンサである。MEMS・3軸加速度センサは、±数gの範囲の測定が可能で、0Hz?数百Hzまでの加速度変動に追従できる「low g」タイプとよばれる。この場合の0Hzというのは、センサに重力加速度のみが加わっている状態であり、このときのX軸・Y軸・Z軸の加速ベクトルの合計から地面に対しての向きを測定することができる。MEMS・3軸加速度センサは、大きく分けて半導体ピエゾ抵抗型3軸加速度センサ、静電容量型3軸加速度センサ、熱検知型(ガス温度分布型)3軸加速度センサの3種類があり、それぞれ加速度の測定方法が異なる。半導体ピエゾ抵抗型3軸加速度センサは、加速度が錘に作用したときに発生するダイアフラムの歪みを検出して加速度を測定する。静電容量型3軸加速度センサは加速度の測定に静電容量の変化を、熱検知型(ガス温度分布型)3軸加速度センサは、ヒータで熱されたガスの移動を利用して加速度を測定する。   As is well known to those skilled in the art, the three-axis acceleration sensor 1003 is a sensor that can measure the acceleration in the three directions of the X axis, the Y axis, and the Z axis with a single device. It can be detected and can also measure gravity (static acceleration). Many 3-axis accelerometers apply microfabrication technology such as semiconductor manufacturing technology and laser processing technology to integrate micromechanical elements on a silicon substrate. “Micro Electro Mechanical Systems, MEMS” , Mems, Micromachine) ”. The MEMS 3-axis acceleration sensor is called “low g” type, which can measure in the range of ± several g and can follow the acceleration fluctuation from 0 Hz to several hundred Hz. In this case, 0 Hz is a state in which only gravitational acceleration is applied to the sensor, and the direction to the ground can be measured from the sum of the X-axis, Y-axis, and Z-axis acceleration vectors at this time. . There are three types of MEMS triaxial acceleration sensors: semiconductor piezoresistive triaxial acceleration sensors, capacitive triaxial acceleration sensors, and thermal detection (gas temperature distribution type) triaxial acceleration sensors. The measurement method is different. The semiconductor piezoresistive triaxial acceleration sensor measures the acceleration by detecting the distortion of the diaphragm generated when the acceleration acts on the weight. Capacitance type 3-axis acceleration sensor measures the change in capacitance for measuring acceleration, and heat detection type (gas temperature distribution type) 3-axis acceleration sensor measures the acceleration using the movement of gas heated by the heater To do.

3軸角速度センサ1004とは、当業者には、よく知られているように、回転角速度の測定を直交3軸(X軸,Y軸,Z軸)で実現する慣性センサの一種であって、ジャイロセンサとも称される。角速度センサは加速度センサでは反応しない回転の動きを測定する。ジャイロセンサは、回転を検知する方式により分類することができる。現在、最も一般的に民生機器に搭載されているのは、ICタイプのMEMS(Micro Electro Mechanical System)技術を使った振動式ジャイロセンサである。MEMS技術を利用した慣性センサはその名前が示す通り、機械的な動きをする素子と、その信号を処理する電子回路を組み合わせた技術でセンサを構成し、動きを検知する。振動式ジャイロセンサの中には、シリコンを使う静電容量方式と、水晶や他の圧電材料を使うピエゾ方式の種類がある。振動式ジャイロセンサ以外の種別としては、地磁気式、光学式、機械式などがある。3軸は、一般に上下、左右、前後の3つの軸として定義され、上下軸は「ヨー軸」、左右軸は「ピッチ(ピッチング)軸」、前後軸は「ロール軸」と呼ばれることが多い。振動式のジャイロセンサは全てコリオリの力(転向力)を利用して回転を検知する。   As is well known to those skilled in the art, the triaxial angular velocity sensor 1004 is a kind of inertial sensor that realizes measurement of rotational angular velocity with three orthogonal axes (X axis, Y axis, Z axis), It is also called a gyro sensor. Angular velocity sensors measure rotational movements that are not responsive to acceleration sensors. The gyro sensor can be classified by a method for detecting rotation. At present, vibration gyro sensors using IC type micro electro mechanical system (MEMS) technology are most commonly installed in consumer devices. As the name suggests, an inertial sensor using MEMS technology constitutes a sensor with a technology that combines an element that makes mechanical movement and an electronic circuit that processes the signal, and detects the movement. Among vibration-type gyro sensors, there are a capacitive type using silicon and a piezo type using crystal and other piezoelectric materials. Types other than the vibration type gyro sensor include a geomagnetic type, an optical type, and a mechanical type. The three axes are generally defined as three axes of up / down, left / right, and front / rear, and the up / down axis is often called a “yaw axis”, the left / right axis is called a “pitch (pitching) axis”, and the front / rear axis is often called a “roll axis”. All vibratory gyro sensors detect rotation using Coriolis force (turning force).

3軸地磁気センサ1005とは、当業者には、よく知られているように、磁気センサの一種であって、地磁気の向きを検知し,方位を直交3軸(X軸、Y軸、Z軸)の値で算出するセンサを言う。すなわち、このセンサは、前後方向と左右方向の第1、第2の磁気センサに加えて上下方向の地磁気を検出する第3の地磁気センサを持っている。このため、たとえば、操作子を持つ角度に電子コンパスを傾けた状態でも、何度傾けて持っているかがわかれば、その傾き分を差し引いて水平方向の地磁気を計算し、正しい方位を表示できる。3軸地磁気センサに組み込まれる地磁気センサICで利用されている磁気センサ素子には主に3種類が知られている。それらは、MR(magneto-resistive)素子,MI(magneto-impedance)素子,ホール素子である。MR素子は、例えば外部磁界の強度変化とともに抵抗値が変わるパーマロイ(NiFe)など金属軟磁性体のMR効果、MI素子は外部磁界が変動したときにインピーダンスが変わるアモルファス・ワイヤのMI効果を利用する。ワイヤにはパルス電流を流しておく。ホール素子では,半導体のホール効果によって生じた電位差を検出することで,外部磁界の変化を測定する。地磁気センサICには、一般にこうした磁気センサ素子のほか,駆動回路や増幅回路などを内蔵している。   As is well known to those skilled in the art, the three-axis geomagnetic sensor 1005 is a kind of magnetic sensor that detects the direction of geomagnetism and has three orthogonal axes (X axis, Y axis, Z axis). ) Refers to a sensor that is calculated with the value of. That is, this sensor has a third geomagnetic sensor that detects the vertical geomagnetism in addition to the first and second magnetic sensors in the front-rear direction and the left-right direction. For this reason, for example, even when the electronic compass is tilted at an angle with the operating element, if it is determined how many times the electronic compass is tilted, the horizontal magnetism can be calculated by subtracting the tilt and the correct orientation can be displayed. There are mainly three types of magnetic sensor elements that are used in geomagnetic sensor ICs incorporated in triaxial geomagnetic sensors. They are MR (magneto-resistive) elements, MI (magneto-impedance) elements, and Hall elements. The MR element uses, for example, the MR effect of a soft metal magnetic material such as permalloy (NiFe) whose resistance value changes with the intensity change of the external magnetic field, and the MI element uses the MI effect of an amorphous wire whose impedance changes when the external magnetic field changes. . A pulse current is allowed to flow through the wire. The Hall element measures the change in the external magnetic field by detecting the potential difference caused by the Hall effect of the semiconductor. In addition to such magnetic sensor elements, the geomagnetic sensor IC generally incorporates a drive circuit, an amplifier circuit, and the like.

[1.5 動作]
次に、本実施形態に係る仮想空間観察システムの動作について説明する。
[1.5 Operation]
Next, the operation of the virtual space observation system according to the present embodiment will be described.

[1.5.1 準備手順]
まず、図8及び図9を参照しつつ、本実施形態に係る仮想空間観察システム1を使用する場合の一連の準備手順について説明する。本実施形態に係る仮想空間観察システム1を使用するユーザ40は、まず、スマートフォン50とコントローラ10との間の近距離無線通信の接続設定を行う(S101)。これにより、スマートフォン50とコントローラ10との間で互いに通信が可能となり、例えば、コントローラ10からの操作信号やコントローラに備えられたモーションセンサ1003、1004、1005の検出値などの各種情報をスマートフォン50へと送信すること等が可能となる。通信規格は、公知のいずれの規格も採用可能であるが、本実施形態ではBluetooth(登録商標)が採用される。
[1.5.1 Preparation procedure]
First, a series of preparation procedures when using the virtual space observation system 1 according to the present embodiment will be described with reference to FIGS. 8 and 9. The user 40 who uses the virtual space observation system 1 according to the present embodiment first performs connection setting for short-range wireless communication between the smartphone 50 and the controller 10 (S101). Accordingly, the smartphone 50 and the controller 10 can communicate with each other. For example, various information such as operation signals from the controller 10 and detection values of the motion sensors 1003, 1004, and 1005 provided in the controller are transmitted to the smartphone 50. Can be transmitted. Any known standard can be adopted as the communication standard, but Bluetooth (registered trademark) is adopted in this embodiment.

近距離無線通信の接続設定がなされた後、スマートフォン50のタッチパネル504を操作して、アプリケーションプログラムの一覧から仮想空間画像を表示するアプリケーションプログラムを選択する(S102)。この選択操作により、アプリケーションプログラムが起動し、後述するように仮想空間の観察ゲームが開始することができる。なお、このアプリケーションプログラムは、アプリケーションプログラム配信サーバから予めダウンロードされ、記憶部502に記憶されていたものである。   After the connection setting for short-range wireless communication is made, the touch panel 504 of the smartphone 50 is operated to select an application program for displaying a virtual space image from the list of application programs (S102). By this selection operation, the application program is activated, and a virtual space observation game can be started as will be described later. This application program is downloaded in advance from the application program distribution server and stored in the storage unit 502.

アプリケーションプログラムが起動した状態のスマートフォン50は、図3で示した通りに頭部装着具20へと組み込まれ(S103)、当該頭部装着具20はユーザ40の頭部へと装着される(S104)。これらの工程により、ユーザ40の眼前にスマートフォン50のディスプレイ51が配置され、ユーザに仮想空間を提示することが可能となる。   The smartphone 50 in a state where the application program is activated is incorporated into the head-mounted device 20 as shown in FIG. 3 (S103), and the head-mounted device 20 is mounted on the head of the user 40 (S104). ). Through these steps, the display 51 of the smartphone 50 is arranged in front of the user 40, and the virtual space can be presented to the user.

その後、この例にあっては、アプリケーションプログラムの起動後、所定のモード選択を行う。図9に、モード選択に関するフローチャートが示されている。この例にあっては、「ゲーム開始」、「ゲーム終了」、「ゲーム設定」の3つのモードが用意されており、ユーザ40は、コントローラ10の姿勢や位置又は操作子の操作に対応して画面上に表示されるカーソルを用いて、それら3つの選択肢の中から1つを選択することができる。ユーザ40が、「ゲーム開始」を選択すると後述する仮想空間の観察ゲームが開始する(S202)。ユーザ40が「ゲーム終了」を選択すると、アプリケーションプログラムの実行を終了する(S203)。ユーザ40が「ゲーム設定」を選択すると、各種ゲームの設定処理を行うことができる(S204)。   Thereafter, in this example, a predetermined mode is selected after the application program is started. FIG. 9 shows a flowchart relating to mode selection. In this example, three modes of “game start”, “game end”, and “game setting” are prepared, and the user 40 corresponds to the posture and position of the controller 10 or the operation of the operator. One of these three options can be selected using the cursor displayed on the screen. When the user 40 selects “GAME START”, a virtual space observation game described later starts (S202). When the user 40 selects “End Game”, the execution of the application program is ended (S203). When the user 40 selects “game setting”, various game setting processes can be performed (S204).

[1.5.2 仮想空間観察ゲームの動作]
次に、仮想空間観察ゲームの一連の動作について説明する。
[1.5.2 Virtual space observation game operation]
Next, a series of operations of the virtual space observation game will be described.

[1.5.2.1 ゲームの初期画面]
図10〜図12を参照しつつ、ゲームの初期画面について説明する。ゲームが開始すると(S203)、ディスプレイ51上には、図10に示される初期画面が表示される。同図から明らかな通り、仮想空間におけるユーザ40の視野に対応する画像は、仮想空間における観察方向の画角枠に対応する背景画像52と、コントローラ10の延長上に配置される照準53とから構成されている。このような仮想空間を知覚させる画像により、ユーザ40は、あたかも宇宙空間を探索しているような体験をすることができる。
[1.5.2.1 Initial screen of game]
The initial screen of the game will be described with reference to FIGS. When the game starts (S203), an initial screen shown in FIG. As is clear from the figure, an image corresponding to the field of view of the user 40 in the virtual space is obtained from a background image 52 corresponding to an angle-of-view frame in the observation direction in the virtual space, and an aiming 53 arranged on the extension of the controller 10. It is configured. Such an image perceiving the virtual space allows the user 40 to experience as if searching for outer space.

なお、図10に示される初期画面は、ユーザ40に奥行き感を知覚させるものであり、実際には、スマートフォン50のディスプレイ51上には、図11で示される視差を有するL(左)画像とR(右)画像とが左右に配置されて表示されている。また、背景画像52は、宇宙空間を模擬した仮想空間の一部であり、図12に示される通り、実際には、ユーザ40の周囲には、全球状に画像が空間に固定されるよう配置されている。   Note that the initial screen shown in FIG. 10 is to allow the user 40 to perceive a sense of depth, and actually, on the display 51 of the smartphone 50, an L (left) image having parallax shown in FIG. An R (right) image is displayed on the left and right. The background image 52 is a part of a virtual space simulating outer space. As shown in FIG. 12, the background image 52 is actually arranged around the user 40 so that the image is fixed in a spherical shape. Has been.

[1.5.2.2 ヘッドトラッキング処理]
図13〜図15を参照しつつ、ヘッドトラッキング処理について説明する。ゲームが開始すると(S203)、ヘッドトラッキング処理が同時に開始される。図13に、ヘッドトラッキング処理に関するフローチャートが示されている。処理が開始すると、制御部501は、スマートフォン50に備えられた各モーションセンサ506、507、508の各検出値を取得する(S301)。各検出値の取得後、制御部501は、スマートフォン50の位置座標(すなわち、ユーザ40の頭部41の位置)P(p,q,r)と、当該位置からの観察方向(視線方向)V(θ1,φ1)を演算する(S302)。
[1.5.2.2 Head tracking process]
The head tracking process will be described with reference to FIGS. When the game starts (S203), the head tracking process is started simultaneously. FIG. 13 shows a flowchart relating to the head tracking process. When the process starts, the control unit 501 acquires the detection values of the motion sensors 506, 507, and 508 provided in the smartphone 50 (S301). After acquiring each detection value, the control unit 501 determines the position coordinates of the smartphone 50 (that is, the position of the head 41 of the user 40) P (p, q, r) and the observation direction (gaze direction) V from the position. (Θ1, φ1) is calculated (S302).

スマートフォン50の位置座標Pと観察方向Vとを演算するのに平行して、コントローラ10の制御部1001も、コントローラ10に備えられた各モーションセンサ1003、1004、1005の各検出値を取得する(S303)。各検出値の取得後、制御部1001は、コントローラ10の位置座標Q(u,v,w)と、当該位置からの指示方向U(θ2,φ2)を演算する(S304)。この演算の後、コントローラ10からスマートフォン50へと演算結果が送信される。   In parallel with calculating the position coordinate P and the observation direction V of the smartphone 50, the control unit 1001 of the controller 10 also acquires the detection values of the motion sensors 1003, 1004, and 1005 provided in the controller 10 ( S303). After acquiring each detection value, the control unit 1001 calculates the position coordinates Q (u, v, w) of the controller 10 and the instruction direction U (θ2, φ2) from the position (S304). After this calculation, the calculation result is transmitted from the controller 10 to the smartphone 50.

ここで、図14を参照しつつ、仮想空間における座標系について説明する。点P(p,q,r)は、仮想空間内におけるスマートフォン50の位置座標であり、当該点Pを中心として、球状に画像が観察される。点Pからの観察方向Vは、観察方向VとX−Y平面(又はX'−Y'平面)とのなす角φ1と、観察方向VをX−Y平面(又はX'−Y'平面)へと射影した直線とX軸(又はX'軸)とのなす角θ1とを用いて定義され、当該観察方向Vの所定画角枠内の画像が観察されることとなる。なお、コントローラ10についても同様に、コントローラ10の位置座標Q(u,v,w)と、その指示方向U(θ2,φ2)として定義される。なお、スマートン50の位置座標PとコントローラQの位置座標とは連動してもよい。   Here, a coordinate system in the virtual space will be described with reference to FIG. The point P (p, q, r) is a position coordinate of the smartphone 50 in the virtual space, and an image is observed in a spherical shape with the point P as the center. The observation direction V from the point P is the angle φ1 between the observation direction V and the XY plane (or X′-Y ′ plane), and the observation direction V is the XY plane (or X′-Y ′ plane). The image is defined using an angle θ1 formed by a straight line projected onto the X axis and the X axis (or X ′ axis), and an image within a predetermined field angle frame in the observation direction V is observed. Similarly, the controller 10 is defined as the position coordinate Q (u, v, w) of the controller 10 and its designated direction U (θ2, φ2). The position coordinates P of the smarton 50 and the position coordinates of the controller Q may be linked.

図13に戻り、スマートフォン50の現在位置P及びコントローラ10の現在位置Q、観察方向V及び指示方向Uが算出されると、次に、所定の演算処理により、ディスプレイ51上に最終的に表示される画像の描画領域の特定処理が行われる(S305)。この描画領域は、観察方向Vの延長線上であって観察中心から所定距離離れた位置に存在する平面上の画角枠に対応する領域である。   Returning to FIG. 13, when the current position P of the smartphone 50, the current position Q of the controller 10, the observation direction V, and the instruction direction U are calculated, next, they are finally displayed on the display 51 by a predetermined calculation process. An image drawing area specifying process is performed (S305). This drawing area is an area corresponding to a field angle frame on a plane which is on the extended line in the observation direction V and is located at a predetermined distance from the observation center.

また、この描画領域が決定した後、指示方向Uの延長線と画角枠内の描画領域とが交点を持つか否か、持つ場合には描画領域上のその座標が演算される。この演算を行うにあたっては、スマートフォン50とコントローラ10の座標系同士を整合させることにより行われる。図15に、座標系同士の整合の概念図が示されている。同図から明らかな通り、スマートフォン50を内部に組み込んだ頭部装着具20の座標系(図15(a))と、コントローラ10の座標系(図15(b))とは、図15(c)で示される通り、座標軸を共用するように整合される。このような座標系の整合により、共通の座標系上で、種々の演算を行うことが可能となる。   Further, after this drawing area is determined, whether or not the extension line in the pointing direction U and the drawing area in the angle of view frame have an intersection, and if so, the coordinates on the drawing area are calculated. In performing this calculation, the coordinate systems of the smartphone 50 and the controller 10 are matched with each other. FIG. 15 shows a conceptual diagram of matching between coordinate systems. As is clear from FIG. 15, the coordinate system (FIG. 15 (a)) of the head-mounted device 20 incorporating the smartphone 50 therein and the coordinate system (FIG. 15 (b)) of the controller 10 are the same as those in FIG. ) So that the coordinate axes are shared. By such coordinate system matching, various calculations can be performed on a common coordinate system.

描画領域の特定処理(S305)が終了すると、背景画像の描画処理及びディスプレイ51上への表示処理が行われる(S306)。また、上述の処理により、コントローラ10の指示方向Uと描画領域とが交点を持つ場合(S307YES)には、描画領域内に照準有りとして、背景画像上の交点座標に照準が描かれ表示される(S308)。その後、再び各モーションセンサのセンサ検出値を取得し、上述の処理が繰り返される。一方、コントローラ10の指示方向Uと描画領域とが交点を持たない場合(S307NO)には、描画領域内に照準無しとして、背景画像上に照準を描くことなく、再び各モーションセンサのセンサ検出値を取得し、上述の処理が繰り返される。すなわち、本実施形態に係るヘッドトラッキング処理によれば、ディスプレイ51上には、仮想空間内におけるスマートフォン50の観察方向(又は視線方向)と、コントローラ10の指示方向に対応して、所定の画格枠内の背景画像と照準画像とが、常に表示されることなる。   When the drawing area specifying process (S305) ends, a background image drawing process and a display process on the display 51 are performed (S306). Further, if the pointing direction U of the controller 10 and the drawing area have an intersection by the above-described processing (YES in S307), the aim is drawn and displayed at the intersection coordinates on the background image with the aim being in the drawing area. (S308). Thereafter, the sensor detection value of each motion sensor is acquired again, and the above-described processing is repeated. On the other hand, if the pointing direction U of the controller 10 and the drawing area do not have an intersection (NO in S307), the sensor detection value of each motion sensor is again set without drawing the aim on the background image without aiming in the drawing area. And the above-described processing is repeated. In other words, according to the head tracking process according to the present embodiment, a predetermined picture size is displayed on the display 51 in accordance with the observation direction (or line-of-sight direction) of the smartphone 50 in the virtual space and the instruction direction of the controller 10. The background image and the aiming image within the frame are always displayed.

図16を参照しつつ、ヘッドトラッキング処理がなされる場合の頭部の動きと表示画面との関係について具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が示されており、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。   The relationship between the head movement and the display screen when the head tracking process is performed will be specifically described with reference to FIG. The left side of the figure shows the user 40 holding the controller 10 with the right hand and the head wearing tool 20 attached to the head 41 as viewed from above, and the right side of the figure shows the head. An image within a predetermined field angle frame that is observed through the display 51 corresponding to the orientation of the unit 41 and the orientation of the controller 10 is shown.

図16(a)に示される通り、頭部41が「前方」を向き、操作装置10も「前方」であって画面中央を指示している場合、同図右側に示される通り、前方に配置される所定の背景画像と(S306)、背景画像の中央に照準53が描かれる(S307YES、S308)。   As shown in FIG. 16A, when the head 41 faces “front” and the operation device 10 is also “front” and points to the center of the screen, as shown on the right side of FIG. The aiming 53 is drawn at the center of the background image (S307 YES, S308).

一方、図16(b)に示される通り、頭部41が「右側方」を向き、操作装置10は「前方」を指示している場合、同図右側に示される通り、コントローラ10の指示方向上に頭部41の方向に対応する画角枠が存在しないため、照準53は描かれず(S307NO)、右側方に配置される所定の画格枠内の背景画像のみが描かれる(S306)。   On the other hand, as shown in FIG. 16B, when the head 41 is directed to the “right side” and the operating device 10 is instructing “forward”, as shown in the right side of FIG. Since there is no angle-of-view frame corresponding to the direction of the head 41 above, the aim 53 is not drawn (NO in S307), and only the background image within the predetermined picture frame arranged on the right side is drawn (S306).

すなわち、ユーザ40の頭部41の向きに応じて所定画角枠内の背景画像が描かれ、当該画像上にコントローラ10の指示方向の延長線との交点が存在する場合には、当該交点座標に対応する位置に照準画像53が描かれることとなる。   That is, when a background image within a predetermined field angle frame is drawn according to the orientation of the head 41 of the user 40 and an intersection with an extension line in the direction indicated by the controller 10 exists on the image, the intersection coordinates The aiming image 53 is drawn at a position corresponding to.

[1.5.2.3 仮想空間内における並進移動処理]
次に、図17および図18を参照しつつ、仮想空間内における並進移動動作について説明する。
[1.5.2.3 Translation processing in virtual space]
Next, the translational movement operation in the virtual space will be described with reference to FIGS. 17 and 18.

図17に、仮想空間内における観測地点の並進移動動作についての割込処理フローチャートが示されている。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の突設部12に設けられた第3の操作子16が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。   FIG. 17 shows an interrupt processing flowchart for the translational movement operation of the observation point in the virtual space. In this example, when the third operating element 16 provided in the protruding portion 12 of the controller 10 is operated in the state in which the head tracking process is being performed, an interrupt process for the head tracking process is performed. Starts.

割込処理が開始されると、まず、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(視線方向)Vを取得する(S401)。次に、当該現在位置Pと現在の観察方向Vとに基づいて、仮想空間内における並進移動処理を行う(S402)。具体的には、現在の観察位置Pから、現在の観察方向VへとΔLの距離だけ観察位置を移動させ、観察位置をPからP'へと移動させる。その後、新たな観察位置P'から観察方向Vに存在する画角枠内の背景画像が、ディスプレイ51上に表示される(S403)。このとき、制御部501は、コントローラ10に関する情報も取得し、コントローラ10の指示方向の延長線上に上記画角枠が存在する場合には、その交点に対応する座標に照準53を描画し表示する(S403)。このようにして、新たな観察位置(又は観察中心)からの所定の観察画像を表示した後、割込処理は終了する(割込リターン)。   When the interrupt process is started, first, the control unit 501 of the smartphone 50 is based on the detected values of the motion sensors 506, 507, and 508 on the virtual space of the smartphone 50 (or the head 41 of the user 40). The current position P and the current observation direction (gaze direction) V are acquired (S401). Next, based on the current position P and the current observation direction V, a translational movement process in the virtual space is performed (S402). Specifically, the observation position is moved from the current observation position P in the current observation direction V by a distance of ΔL, and the observation position is moved from P to P ′. Thereafter, the background image within the field angle frame existing in the observation direction V from the new observation position P ′ is displayed on the display 51 (S403). At this time, the control unit 501 also acquires information related to the controller 10, and when the angle of view frame exists on the extension line in the direction indicated by the controller 10, the sight 53 is drawn and displayed at the coordinates corresponding to the intersection. (S403). In this way, after displaying a predetermined observation image from a new observation position (or observation center), the interruption process ends (interrupt return).

図18を参照しつつ、仮想空間内における観察地点の移動動作について詳細に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が示されており、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。   The movement operation of the observation point in the virtual space will be described in detail with reference to FIG. The left side of the figure shows the user 40 holding the controller 10 with the right hand and the head wearing tool 20 attached to the head 41 as viewed from above, and the right side of the figure shows the head. An image within a predetermined field angle frame that is observed through the display 51 corresponding to the orientation of the unit 41 and the orientation of the controller 10 is shown.

図18(a)は、割込処理が行われる直前の状態を示しており、ユーザ40の頭部41は「前方」、コントローラ10の指示方向も「前方」である。また、このとき、眼前には、同図の右側で示される背景画像、及び、その中央に照準53が表示されている。   FIG. 18A shows a state immediately before the interruption process is performed, the head 41 of the user 40 is “front”, and the pointing direction of the controller 10 is also “front”. Further, at this time, a background image shown on the right side of FIG.

図18(b)は、図18(a)の状態において第3の操作子16を操作した後の状態を示している。第3の操作子16を操作したことにより、観察方向である「前方」に、ΔLだけ観察位置が移動すると(S402)、この移動に伴って、ΔL離れた新たな観察位置から観測される画像が新たに描画される(S403)。具体的には、同図右側の画面図から明らかな通り、ΔLだけ前方に進んでいることから、前方画像を若干拡大したような画面図が描写され表示される。   FIG. 18B shows a state after the third operator 16 is operated in the state of FIG. If the observation position is moved by ΔL to the “forward” direction, which is the observation direction, by operating the third operation element 16 (S402), an image observed from a new observation position that is separated by ΔL with this movement. Is newly drawn (S403). Specifically, as is clear from the screen diagram on the right side of the drawing, the image is advanced forward by ΔL, so that a screen diagram that slightly enlarges the front image is depicted and displayed.

このような構成によれば、仮想空間内において観察地点そのものも自在に移動させることができるので、仮想空間内を自在に探索することができる。   According to such a configuration, since the observation point itself can be freely moved in the virtual space, the virtual space can be freely searched.

[1.5.2.4 仮想空間内における観察方向変更処理]
次に、図19及び図20を参照しつつ、仮想空間内における観察方向の変更処理について説明する。
[1.5.2.4 Observation direction changing process in virtual space]
Next, the process of changing the observation direction in the virtual space will be described with reference to FIGS. 19 and 20.

図19は、仮想空間内における観察方向の変更動作に関する割込処理のフローチャートである。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の握り部11に設けられた押しボタン式の第2の操作子15が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。   FIG. 19 is a flowchart of an interrupt process related to an observation direction changing operation in the virtual space. In this example, when the push button type second operation element 15 provided in the grip portion 11 of the controller 10 is operated in a state where the head tracking process is being performed, the head tracking process is performed. Interrupt processing starts.

割込処理が開始すると、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(すなわち、視線方向)Vを取得する(S501)。現在位置Pと現在の観察方向Vを取得した後、制御部501は、観察方向Vへと所定角度Δθ1を加算し、新たな観察方向V'を得る(S502)。これにより、観察方向VをX−Y平面(又はX'−Y'平面)へと射影した直線とX軸とのなす角が大きくなり、鉛直上方から見た場合に、Z軸(又はZ'軸)まわりに時計回りに水平かつ連続的に観察方向(又は視線方向)が回転することとなる。   When the interrupt process starts, the control unit 501 of the smartphone 50 determines the current position P in the virtual space of the smartphone 50 (or the head 41 of the user 40) based on the detection values of the motion sensors 506, 507, and 508. And the present observation direction (namely, line-of-sight direction) V is acquired (S501). After acquiring the current position P and the current observation direction V, the control unit 501 adds a predetermined angle Δθ1 to the observation direction V to obtain a new observation direction V ′ (S502). As a result, the angle formed by the straight line projected from the observation direction V onto the XY plane (or X′-Y ′ plane) and the X axis increases, and when viewed from vertically above, the Z axis (or Z ′ The observation direction (or line-of-sight direction) rotates horizontally and continuously around the axis).

この新たな観察方向V'を取得した後、当該観察方向V'に対応する画角枠内の背景画像と、存在する場合には、照準画像が描写され、ディスプレイ51上に表示される(S503)。この表示処理の後、未だ押しボタン式の第2の操作子15において入力操作が継続されていると検出された場合には(S504YES)、再び所定角度Δθを加算する処理が繰り返される。すなわち、押しボタン式の第2の操作子15において入力操作が継続する限り、所定角度Δθが累積的に加算されていくこととなり、換言すれば、観察方向のZ軸まわりの回転が継続することとなる。   After acquiring this new observation direction V ′, the background image within the angle-of-view frame corresponding to the observation direction V ′ and, if present, the aiming image are drawn and displayed on the display 51 (S503). ). After this display process, when it is detected that the input operation is still continued in the push button type second operator 15 (YES in S504), the process of adding the predetermined angle Δθ is repeated again. That is, as long as the input operation is continued in the push button type second operation element 15, the predetermined angle Δθ is cumulatively added. In other words, the rotation around the Z axis in the observation direction is continued. It becomes.

一方、表示処理の後、押しボタン式の第2の操作子15において入力操作が検出されなかった場合(S504NO)、観察方向の回転は停止し、それまでのΔθの累積的な加算に基づく総回転量ΔΘが算出される。この総回転量ΔΘを用いて、新たな観察方向に対応するようにコントローラ10の指示方向の基準を補正した後(S505)、割込処理は終了する(割込リターン)。すなわち、ユーザ40は、仮想空間における直近の観察方向を、自身の正面方向と対応付けることができる。   On the other hand, if no input operation is detected by the push button type second operation element 15 after the display process (NO in S504), the rotation in the observation direction is stopped, and the total based on the cumulative addition of Δθ so far is stopped. A rotation amount ΔΘ is calculated. After correcting the reference of the indication direction of the controller 10 so as to correspond to the new observation direction using this total rotation amount ΔΘ (S505), the interruption process is ended (interrupt return). That is, the user 40 can associate the latest observation direction in the virtual space with the front direction of the user.

図20を参照しつつ、観察方向が変更される態様に関して具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図中央には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が、同図右側には、仮想空間内における水平面上の観察方向を矢印で示した概念図が示されている。   A mode in which the observation direction is changed will be specifically described with reference to FIG. The left side of the figure shows the user 40 holding the controller 10 with the right hand and the head wearing tool 20 attached to the head 41 as viewed from above. The center of the figure shows the orientation of the head 41. In addition, an image within a predetermined field angle frame observed through the display 51 corresponding to the orientation of the controller 10 is shown on the right side of the figure, and a conceptual diagram showing the observation direction on the horizontal plane in the virtual space with arrows. Has been.

図20(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。このときの仮想空間における観察方向は0度であり、すなわち、現実の頭部41の方向と一致している。   As shown in FIG. 20A, in the initial state, the head 41 of the user 40 is directed to “front” and the controller 10 is directed to “front”. A background image and a sight 53 within the direction angle frame are displayed. The observation direction in the virtual space at this time is 0 degree, that is, coincides with the direction of the actual head 41.

次に、ユーザがコントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を継続すると(S504YES)、ユーザ40の頭部41の物理的な方向及びコントローラ10の物理的な方向は変化していないにも拘わらず、仮想空間における観察方向のみが変更される(S502、S503)。図20(b)は、仮想空間における観察方向が回転していく過程において、90度観察方向が変化している状態を示している。このとき、実際の頭部41の方向とは90度のずれが生じている。   Next, when the user continues the input operation of the push button type second operation element 15 provided in the controller 50 (S504 YES), the physical direction of the head 41 of the user 40 and the physical direction of the controller 10 In spite of no change, only the observation direction in the virtual space is changed (S502, S503). FIG. 20B shows a state in which the 90-degree observation direction changes in the process of rotating the observation direction in the virtual space. At this time, a deviation of 90 degrees from the actual direction of the head 41 occurs.

図20(c)は、ユーザ40が、押しボタン式の第2の操作子15を介した入力操作を継続し、丁度180度観察方向が変化したところで入力操作を解除した場合(S504NO)の状態を示している。このときも、やはりユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているものの、仮想空間における観察方向は、現実の頭部41方向とは180度ずれている。   FIG. 20C shows a state in which the user 40 continues the input operation via the push button type second operation element 15 and cancels the input operation when the observation direction changes just 180 degrees (NO in S504). Is shown. Also at this time, although the head 41 of the user 40 is directed to “front” and the controller 10 is directed to “front”, the observation direction in the virtual space is shifted by 180 degrees from the actual head 41 direction. .

すなわち、このような構成によれば、首や上半身を後方に捻ることなく、仮想空間内における観察方向を任意に変更することができる。そのため、ヘッドトラッキング処理を基本としつつも、ディスプレイ姿勢を変化させることなく、必要に応じて仮想空間内における観察方向を任意に変更することができる。   That is, according to such a configuration, the observation direction in the virtual space can be arbitrarily changed without twisting the neck or upper body backward. Therefore, it is possible to arbitrarily change the observation direction in the virtual space as needed without changing the display posture while using the head tracking process as a basis.

また、仮想空間における観察方向が180度回転した直後に、上述の併進移動処理を行えば、仮想空間においては頭部41の観察方向である180度後方へと観察位置を進めることができる。すなわち、以上の構成によれば、ユーザ40は、仮想空間内を自在に探索することができる。   Further, if the above-described translational movement process is performed immediately after the observation direction in the virtual space is rotated by 180 degrees, the observation position can be advanced 180 degrees behind the observation direction of the head 41 in the virtual space. That is, according to the above configuration, the user 40 can freely search the virtual space.

さらに、このような構成によれば、観察方向が変更されていく過程を連続的な画像を通じて確認することができる。そのため、仮想空間内においてどちらの方向に向かって観察方向を変更しているのかを直感的に把握することができるのと共に、目的とする観察方向までの様子を観察することもできる。   Furthermore, according to such a configuration, the process of changing the observation direction can be confirmed through continuous images. Therefore, it is possible to intuitively understand which direction the observation direction is changed in the virtual space, and it is also possible to observe the state up to the target observation direction.

加えて、このような構成によれば、観察方向を回転させると、1周して再び元の方向へと戻って来ることとなる。そのため、仮想空間内において自身の観察方向を見失うおそれが少なくなる。   In addition, according to such a configuration, when the observation direction is rotated, it goes around once and returns to the original direction again. Therefore, there is less possibility of losing sight of its own observation direction in the virtual space.

また、このような構成によれば、水平面に沿って観察方向を回転させることができる。そのため、画面酔いのおそれが少なくなる。   Moreover, according to such a structure, an observation direction can be rotated along a horizontal surface. Therefore, the risk of screen sickness is reduced.

さらに、このような構成によれば、操作子による入力が行われている間だけ観察方向を変更することができる。そのため、観察方向の変更動作を、直感的かつ簡易な操作で実現することができる。   Furthermore, according to such a configuration, it is possible to change the observation direction only while an input is performed by the operator. Therefore, the observation direction changing operation can be realized by an intuitive and simple operation.

なお、本実形態の例においては、180度後方まで仮想空間における観察方向を変更することとしたが、目標角度はこれに限定されることはなく、例えば、操作子の入力操作を途中で解除すること(すなわち、押しボタンを離すこと)により、観察方向を任意に設定することができる。   In the example of the present embodiment, the observation direction in the virtual space is changed to 180 degrees behind, but the target angle is not limited to this. For example, the input operation of the operator is canceled halfway By doing (that is, releasing the push button), the observation direction can be arbitrarily set.

[1.6 変形例]
上述の実施形態においては、仮想空間における観察方向に対応する画角枠の移動は、水平面上の円軌道に沿って直線的に行われることとした。しかしながら、本発明はこのような構成に限定されない。
[1.6 Modification]
In the above-described embodiment, the movement of the view angle frame corresponding to the observation direction in the virtual space is performed linearly along a circular orbit on the horizontal plane. However, the present invention is not limited to such a configuration.

従って、例えば、図21(a)に示されるように、円軌道ではあっても水平面上の円軌道ではなく、他の軌道、例えば、斜め右上方向に画角枠が移動しそのまま1周する軌道、或いは、ほぼ垂直上方に画角枠が移動しそのまま1周する軌道としてもよい。   Therefore, for example, as shown in FIG. 21 (a), even if it is a circular orbit, it is not a circular orbit on the horizontal plane, but another orbit, for example, an orbit in which the angle-of-view frame moves in the diagonally upper right direction and makes one round Alternatively, it may be a trajectory in which the angle-of-view frame moves almost vertically upward and goes around as it is.

また、図21(b)に示されるように、直線的な軌道ではなく、他の軌道、例えば、曲線的な軌道に沿って画角枠を移動させてもよい。   In addition, as shown in FIG. 21B, the angle of view frame may be moved along another trajectory, for example, a curved trajectory, instead of a linear trajectory.

[2.第2の実施形態]
図22及び図23を参照しつつ、コントローラ10の姿勢や動きに応じて観察方向の変更処理を行う第2の実施形態について説明する。なお、本実施形態に係る仮想空間観察システムもスマートフォン50、頭部装着具20及びコントローラ10とから成り、各装置のハードウエア構成は第1の実施形態において説明したものと、以下の点を除き、略同一であるから、ここではハードウエア構成に関する説明を割愛する。
[2. Second Embodiment]
With reference to FIGS. 22 and 23, a second embodiment in which the observation direction changing process is performed according to the posture and movement of the controller 10 will be described. The virtual space observation system according to the present embodiment also includes the smartphone 50, the head-mounted device 20, and the controller 10, and the hardware configuration of each device is the same as that described in the first embodiment, except for the following points. Since they are substantially the same, a description of the hardware configuration is omitted here.

図22には、仮想空間内における観察方向の変更動作に関する割込処理のフローチャートが示されている。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の握り部11に設けられた押しボタン式の第2の操作子15が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。   FIG. 22 shows a flowchart of an interrupt process relating to the observation direction changing operation in the virtual space. In this example, when the push button type second operation element 15 provided in the grip portion 11 of the controller 10 is operated in a state where the head tracking process is being performed, the head tracking process is performed. Interrupt processing starts.

割込処理が開始すると、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(すなわち、視線方向)Vを取得する(S601)。   When the interrupt process starts, the control unit 501 of the smartphone 50 determines the current position P in the virtual space of the smartphone 50 (or the head 41 of the user 40) based on the detection values of the motion sensors 506, 507, and 508. Then, the current observation direction (that is, the line-of-sight direction) V is acquired (S601).

次に、コントローラ10は、各モーションセンサ1003、1004、1005の検出値などに基づいて、コントローラ10の仮想空間上における現在位置Q(u,v,w)と、コントローラ10の現在の指示方向U(θ2,φ2)とを取得し、それらをスマートフォン50へと送信する(S602)。   Next, the controller 10 determines the current position Q (u, v, w) in the virtual space of the controller 10 and the current indication direction U of the controller 10 based on the detection values of the motion sensors 1003, 1004, and 1005. (Θ2, φ2) is acquired and transmitted to the smartphone 50 (S602).

その後、制御部501は、コントローラ10の指示方向の延長線と仮想空間における観察方向Vに対応する画角枠内の画像領域との交点座標を演算し、当該座標を始点として記憶する(S603)。その後、コントローラ10を移動させると、コントローラ10の指示方向の延長線と仮想空間における観察方向Vに対応する画角枠内の画像領域との交点座標が指示点として演算され、上述の始点と指示点との相対的位置関係に対応して、画角枠、すなわち観察方向Vが前記始点を中心として点対称に移動される(S604)。この画角枠の移動に応じて所定の背景画像、及び、存在する場合には照準が表示される(S605)。   After that, the control unit 501 calculates the intersection coordinates of the extension line in the instruction direction of the controller 10 and the image area in the angle of view frame corresponding to the observation direction V in the virtual space, and stores the coordinates as the start point (S603). . Thereafter, when the controller 10 is moved, the intersection coordinates between the extension line of the indication direction of the controller 10 and the image area in the angle-of-view frame corresponding to the observation direction V in the virtual space are calculated as the indication point, and the above-described start point and indication Corresponding to the relative positional relationship with the point, the view angle frame, that is, the observation direction V is moved symmetrically with respect to the start point (S604). A predetermined background image is displayed according to the movement of the angle of view frame, and an aim is displayed if it exists (S605).

この表示処理の後、未だ押しボタン式の第2の操作子15において入力操作が継続されていると検出された場合には(S606YES)、再び指示点の演算処理からの処理が繰り返される。すなわち、押しボタン式の第2の操作子15において入力操作が継続された状態で、コントローラ10の指示点を変更することで、上述の始点を基準として、所謂ドラッグを行うかのように点対称に、画角枠乃至は観察方向を変更することができる。   After this display process, if it is detected that the input operation is still continued in the push button type second operation element 15 (YES in S606), the process from the calculation process of the indicated point is repeated again. That is, by changing the indication point of the controller 10 in a state where the input operation is continued in the push button type second operation element 15, point symmetry is performed as if so-called dragging is performed with respect to the above-described start point. In addition, the view angle frame or the observation direction can be changed.

一方、表示処理の後、押しボタン式の第2の操作子15において入力操作が検出されなかった場合(S606NO)、新たな観察方向と対応するようにコントローラ10の指示方向の基準を補正し(S607)、割込処理を終了する(割込リターン)。   On the other hand, after the display process, when no input operation is detected in the push button type second operator 15 (NO in S606), the reference direction reference of the controller 10 is corrected so as to correspond to the new observation direction ( S607), interrupt processing is terminated (interrupt return).

図23を参照しつつ、観察方向が変更される態様に関して具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。   A mode in which the observation direction is changed will be specifically described with reference to FIG. The left side of the figure shows the user 40 holding the controller 10 with the right hand and the head mounting device 20 on the head 41 as viewed from above. The right side of the figure shows the orientation of the head 41. In addition, an image within a predetermined field angle frame observed through the display 51 corresponding to the orientation of the controller 10 is shown.

図23(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。   As shown in FIG. 23A, in the initial state, the head 41 of the user 40 is directed to “front”, and the controller 10 is directed to “front”. A background image and a sight 53 within the direction angle frame are displayed.

次に、ユーザ40は、図23(b)に示される通り、画像を確認しつつ、コントローラ10の指示方向の延長に描画された照準53を用いて、始点とした領域、すなわち、この例にあっては、右上の輪を伴う惑星のやや下の領域を指示し、その状態でコントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を行う(押しボタンを押す)。これにより、本実施形態に係る割込処理が開始すると共に、当該領域が始点として記憶される(S603)。その後、第2の操作子15の入力状態を維持したまま、コントローラ10の指示領域に応じた照準53を移動させることで、前記始点と指示領域との関係とは点対称に前記画角枠、すなわち、観察方向が移動する(S604、S605、S606YES)。   Next, as shown in FIG. 23 (b), the user 40 confirms the image and uses the aim 53 drawn in the extension of the instruction direction of the controller 10 to use the region as the starting point, that is, in this example. In this case, a slightly lower area of the planet with the upper right wheel is indicated, and in this state, the input operation of the push button type second operation element 15 provided in the controller 50 is performed (pressing the push button). Thereby, the interrupt process according to the present embodiment is started and the area is stored as a start point (S603). Thereafter, by moving the aim 53 according to the indication area of the controller 10 while maintaining the input state of the second operation element 15, the relationship between the start point and the indication area is point-symmetric with respect to the angle of view frame, That is, the observation direction moves (S604, S605, S606 YES).

図23(c)は、第2の操作子15の入力状態を維持しつつ、図23(a)の状態へと再びコントローラ10を戻した状態を表している。この状態において、ユーザが第2の操作子15の入力状態を解除すると(S606NO)、上述の割込処理が終了する。このような一連の操作によれば、コントローラ10を用いて、始点とした所望の領域を仮想空間における自身の正面方向へと配置させることができる。特に、画面中央を終点として、照準を移動させれば、所望の観察方向をユーザ40の正面中心に配置することができる。   FIG. 23C illustrates a state in which the controller 10 is returned to the state of FIG. 23A while maintaining the input state of the second operation element 15. In this state, when the user cancels the input state of the second operator 15 (NO in S606), the above-described interrupt process ends. According to such a series of operations, the controller 10 can be used to arrange a desired area as a starting point in the front direction of the virtual space. In particular, if the aim is moved with the center of the screen as the end point, the desired observation direction can be arranged at the front center of the user 40.

すなわち、このような構成によれば、画角枠内の画像の所定領域を始点として、ドラッグするかのように仮想空間内における観察方向を変更することができる。   That is, according to such a configuration, it is possible to change the observation direction in the virtual space as if dragging, starting from a predetermined area of the image in the angle of view frame.

[3.第3の実施形態]
次に、第3の実施形態に係る仮想空間観察システムについて説明する。第3の実施形態に係る仮想空間観察システムの基本的な構成は、第2の実施形態に係る仮想空間観察システムと略同一である。すなわち、仮想空間内における観察方向を、頭部41の姿勢によらず、コントローラ10の姿勢や動きの変化により変更することができる。しかしながら、第2の実施形態とは異なり、第3の実施形態においては、所定画角枠内の所定領域を始点として指示領域を移動させたときに、始点を中心として、所定画角枠又は観察方向が点対称に移動するのではなく、始点と指示領域との間の相対的位置関係と一致するように移動する。
[3. Third Embodiment]
Next, a virtual space observation system according to the third embodiment will be described. The basic configuration of the virtual space observation system according to the third embodiment is substantially the same as that of the virtual space observation system according to the second embodiment. That is, the observation direction in the virtual space can be changed by a change in the posture or movement of the controller 10 regardless of the posture of the head 41. However, unlike the second embodiment, in the third embodiment, when the designated area is moved with the predetermined area in the predetermined angle frame as the starting point, the predetermined angle frame or observation is centered on the starting point. The direction does not move point-symmetrically, but moves so as to coincide with the relative positional relationship between the starting point and the pointing area.

図24を参照しつつ、第3の実施形態に係る観察方向の変更態様について具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。   With reference to FIG. 24, the aspect of changing the observation direction according to the third embodiment will be specifically described. The left side of the figure shows the user 40 holding the controller 10 with the right hand and the head mounting device 20 on the head 41 as viewed from above. The right side of the figure shows the orientation of the head 41. In addition, an image within a predetermined field angle frame observed through the display 51 corresponding to the orientation of the controller 10 is shown.

図24(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。この状態において、コントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を行うと(押しボタンを押すと)、本実施形態に係る割込処理が開始すると共に、照準53の位置と対応する指示領域が始点として記憶される(S603)。この例にあっては、始点は画面の中心である。   As shown in FIG. 24A, in the initial state, the head 41 of the user 40 is directed to “front” and the controller 10 is directed to “front”. A background image and a sight 53 within the direction angle frame are displayed. In this state, when the input operation of the push button type second operation element 15 provided in the controller 50 is performed (when the push button is pressed), the interrupt processing according to the present embodiment is started and the aim 53 is The pointing area corresponding to the position is stored as a starting point (S603). In this example, the starting point is the center of the screen.

次に、図24(b)に示される通り、ユーザ40は、第2の操作子15への入力状態を保持したまま(押しボタンを押したままの状態で)、コントローラ10を右側方へと90度移動する。このとき、ディスプレイ51上には、その過程において観察方向が前方画像から右側方画像まで所定画角枠内の画像が連続的に表示され、最終的に図24(b)の右側の図に示される右側方を向いたときの画像が表示される。このコントローラ10が右側方を向いた状態において、第2の操作子15の入力状態を解除する(押しボタンを離す)ことで、観察方向の変更動作は終了する。   Next, as shown in FIG. 24B, the user 40 moves the controller 10 to the right side while keeping the input state to the second operation element 15 (while pressing the push button). Move 90 degrees. At this time, on the display 51, images within a predetermined field angle frame are continuously displayed in the process from the front image to the right side image, and finally shown in the right side of FIG. The image when facing the right side is displayed. In the state where the controller 10 faces to the right side, the input state of the second operation element 15 is canceled (the push button is released), and the observation direction changing operation is completed.

その後、ユーザ40がコントローラ10を前方へと戻した後、照準53に関する所定のキャリブレーション操作などを行い、コントローラ10を前方中心に向けたときに照準53が再び中心と来るように設定すれば、図24(c)に示される通り、実際に首を右側方へと向けることなく、仮想空間上の観察方向のみを右側方へと向けることができる。   Thereafter, after the user 40 returns the controller 10 to the front, a predetermined calibration operation regarding the aiming 53 is performed, and when the controller 10 is set to the front center, the aiming 53 is set to be centered again. As shown in FIG. 24C, only the observation direction in the virtual space can be directed to the right side without actually turning the neck to the right side.

以上の構成によれば、コントローラ10を用いた直感的な操作により、観察方向を変更することができる。   According to the above configuration, the observation direction can be changed by an intuitive operation using the controller 10.

[4.第4の実施形態]
次に、第4の実施形態に係る仮想空間観察システムについて説明する。第1〜第3の実施形態に係る仮想空間観察システムは、没入型の頭部装着具20を用いてディスプレイ51上に完全に仮想的な空間画像を表示させるものであった。本実施形態では、ディスプレイ上に現実の世界画像を表示し、その上に特定のオブジェクト画像を表示させる所謂AR(Augmented Reality)技術への本発明の展開例を示す。本実施形態におけるスマートフォン50は、そのアウトカメラからの画像をカメラユニット518を介して制御部51へと取り込み、当該画像をディスプレイ51上に表示することができる。なお、仮想空間における観察方向の変更手法は第2の実施形態に係る仮想空間観察システムのそれと類似する。
[4. Fourth Embodiment]
Next, a virtual space observation system according to the fourth embodiment will be described. In the virtual space observation system according to the first to third embodiments, a completely virtual space image is displayed on the display 51 using the immersive head wearing tool 20. In the present embodiment, an example of the development of the present invention to a so-called AR (Augmented Reality) technique in which a real world image is displayed on a display and a specific object image is displayed thereon is shown. The smartphone 50 in the present embodiment can capture an image from the out-camera into the control unit 51 via the camera unit 518 and display the image on the display 51. The observation direction changing method in the virtual space is similar to that of the virtual space observation system according to the second embodiment.

図25を参照しつつ、観察方向の変更態様について説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図中央には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が、同図右側には、仮想空間内における水平面上の観察方向を矢印で示した概念図が示されている。   With reference to FIG. 25, an aspect of changing the observation direction will be described. The left side of the figure shows the user 40 holding the controller 10 with the right hand and the head wearing tool 20 attached to the head 41 as viewed from above. The center of the figure shows the orientation of the head 41. In addition, an image within a predetermined field angle frame observed through the display 51 corresponding to the orientation of the controller 10 is shown on the right side of the figure, and a conceptual diagram showing the observation direction on the horizontal plane in the virtual space with arrows. Has been.

図25(a)から明らかな通り、初期状態において、ヘッドトラッキング機能を備えたスマートフォン50を組み込んだ頭部装着具20を頭部41へと装着したユーザ40が、右側方を観察すると、右側方に存在する現実の道路画像上に、モンスターの形状を有するオブジェクト画像が重畳されて表示されて確認される。   As is apparent from FIG. 25A, in the initial state, when the user 40 wearing the head wearing device 20 incorporating the smartphone 50 having the head tracking function on the head 41 observes the right side, the right side The object image having the shape of a monster is superimposed and displayed on the actual road image existing on the road.

図25(b)に示される通り、右側方へと仮想空間における観察方向を変更したいユーザ40は、その頭部41を前方へと向けた後、コントローラ10を把持した右手を側方に伸ばし、押しボタン式の第2の操作子15の入力操作を行う(押しボタンを押す)。これにより、本実施形態に係る割込処理が開始すると共に、当該領域が始点として記憶される。その後、第2の操作子15の入力状態を維持したまま、コントローラ10の指示領域に応じた照準53を移動させることで、前記始点と指示領域との関係とは点対称な態様で前記画角枠、すなわち、観察方向が右側方へと90度回転する。   As shown in FIG. 25 (b), the user 40 who wants to change the observation direction in the virtual space to the right side, after directing the head 41 forward, extends the right hand holding the controller 10 to the side, An input operation of the push button type second operation element 15 is performed (push button is pressed). Thereby, the interrupt process according to the present embodiment is started and the area is stored as the start point. Thereafter, by moving the aim 53 according to the indication area of the controller 10 while maintaining the input state of the second operator 15, the angle of view is symmetric with respect to the relationship between the start point and the indication area. The frame, that is, the observation direction rotates 90 degrees to the right.

図25(c)は、第2の操作子15の入力状態を維持しつつ、図25(a)の状態へと再びコントローラ10の位置及び姿勢を戻した状態を表している。この状態において、ユーザが第2の操作子15の入力状態を解除すると、上述の割込処理が終了する。同図から明らかな通り、当初、ユーザ40の右側方に存在したオブジェクト画像は、ユーザ40の前方の現実世界画像に重畳されて表示されている。   FIG. 25C shows a state in which the position and posture of the controller 10 are returned to the state of FIG. 25A while maintaining the input state of the second operator 15. In this state, when the user cancels the input state of the second operation element 15, the above-described interrupt process ends. As is clear from the figure, the object image originally present on the right side of the user 40 is displayed superimposed on the real world image in front of the user 40.

すなわち、このような構成によれば、首や上半身を捻ることなく、仮想空間内における観察方向を任意に変更することができ、これにより、重畳させる仮想空間に関するオブジェクト画像のみを変更することができる。   That is, according to such a configuration, it is possible to arbitrarily change the observation direction in the virtual space without twisting the neck and upper body, thereby changing only the object image relating to the virtual space to be superimposed. .

[5.その他]
[5.1 音声入力を用いた変形例]
上述の実施形態においては、ディスプレイ姿勢の変化を伴わない仮想空間における観察方向の制御にあたり、コントローラ10の操作信号或いはコントローラの姿勢及び/又は動きを利用したが、本発明はこのような構成に限定されない。従って、例えば、音声を用いて仮想空間における観察方向の制御を行ってもよい。
[5. Others]
[5.1 Modification using voice input]
In the above-described embodiment, the operation signal of the controller 10 or the attitude and / or movement of the controller 10 is used for controlling the observation direction in the virtual space without changing the display attitude. However, the present invention is limited to such a configuration. Not. Therefore, for example, the observation direction in the virtual space may be controlled using sound.

本変形例においては、コントローラ10自体を用いないか、或いは、コントローラ10を仮想空間における観察方向の制御には用いない。その代わりに、スマートフォン50の制御部501には、音声入力部516を介して入力された音声を公知の音声解析アルゴリズムにより解析する音声入力処理部が設けられている。   In this modification, the controller 10 itself is not used, or the controller 10 is not used for controlling the observation direction in the virtual space. Instead, the control unit 501 of the smartphone 50 is provided with a voice input processing unit that analyzes a voice input via the voice input unit 516 using a known voice analysis algorithm.

音声入力処理部では、音声入力部516を介して「回転」との音声が入力されたことを検出すると、仮想空間内における観察方向を所定の方向、例えば右方向へと水平回転させる。また、「停止」との音声が入力されたことを検出すると、仮想空間内において回転中の観察方向を停止させる。すなわち、ユーザ40は、「回転」と「停止」の言葉を用いて自在に観察方向を変更することができる。なお、検出される言葉はこれらの言葉に限定されることはなく、命令にあたっては種々の言葉が採用可能である。   When the voice input processing unit detects that the voice “rotate” is input via the voice input unit 516, the voice input processing unit horizontally rotates the observation direction in the virtual space to a predetermined direction, for example, the right direction. Further, when it is detected that the voice of “stop” is input, the observation direction that is rotating in the virtual space is stopped. That is, the user 40 can freely change the observation direction using the words “rotation” and “stop”. Note that the words to be detected are not limited to these words, and various words can be used for the command.

このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。   According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.

[5.2 視線入力を用いた変形例]
上述の実施形態においては、ディスプレイ姿勢の変化を伴わない仮想空間における観察方向の制御にあたり、コントローラ10の操作信号或いはコントローラの姿勢及び/又は動きを利用したが、本発明はこのような構成に限定されない。従って、例えば、視線を用いて仮想空間における観察方向の制御を行ってもよい。
[5.2 Modification using eye-gaze input]
In the above-described embodiment, the operation signal of the controller 10 or the attitude and / or movement of the controller 10 is used for controlling the observation direction in the virtual space without changing the display attitude. However, the present invention is limited to such a configuration. Not. Therefore, for example, the observation direction in the virtual space may be controlled using the line of sight.

本変形例においては、コントローラ10自体を用いないか、或いは、コントローラ10を仮想空間における観察方向の制御には用いない。その代わりに、スマートフォン50の制御部501には、ディスプレイ51と同一の面に設けられたインカメラにより撮像された画像をカメラユニット518を介して制御部501へと取り込む。本変形例において、制御部501には、インカメラ画像に基づいて、公知の視線検出アルゴリズムによりユーザ40の視線を検出し、画面上のどの領域を見ているかを推定する視線検出処理部が設けられている。   In this modification, the controller 10 itself is not used, or the controller 10 is not used for controlling the observation direction in the virtual space. Instead, the image captured by the in-camera provided on the same surface as the display 51 is taken into the control unit 501 of the smartphone 50 into the control unit 501 via the camera unit 518. In the present modification, the control unit 501 is provided with a line-of-sight detection processing unit that detects the line of sight of the user 40 using a known line-of-sight detection algorithm based on the in-camera image and estimates which area on the screen is being viewed. It has been.

この視線検出処理部は、画像内の所定の領域に所定時間以上視線が置かれた場合には、当該領域を注視領域とし、当該注視領域が観察方向の中心となるように視線方向を変更する。すなわち、頭部姿勢などを変化させることなく、視線のみにより、仮想空間内における観察方向を変更することができる。   When the line of sight is placed in a predetermined area in the image for a predetermined time or longer, the line-of-sight detection processing unit changes the line-of-sight direction so that the area of interest is the center of the observation direction. . That is, the observation direction in the virtual space can be changed only by the line of sight without changing the head posture or the like.

このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。   According to such a configuration, there is no need to have any operation device or the like for the operation of changing the observation direction, both hands are free, and the field of view is limited or completely absent by wearing the head wearing tool. In addition, the observation direction in the virtual space can be changed appropriately.

[5.3 その他の変形例]
上述の実施形態においては全球状の仮想空間を想定したが、本発明はこのような構成に限定されない。従って、例えば、図26に示されたパノラマ画像のような仮想空間を採用してもよいし、或いは、図27に示された半球状の仮想空間を採用してもよい。
[5.3 Other Modifications]
In the above-described embodiment, an all-spherical virtual space is assumed, but the present invention is not limited to such a configuration. Therefore, for example, a virtual space such as a panoramic image shown in FIG. 26 may be adopted, or a hemispherical virtual space shown in FIG. 27 may be adopted.

また、上述の実施形態においては、制御部501がスマートフォン50の中等に含まれるものとしたが、本発明はこのような構成に限定されない。従って、例えば、図28に示されるように、情報処理部70を外部の装置として設け、比較的に演算コストの高い処理、或いはすべての演算処理を、当該外部の情報処理部70にて行う構成としてもよい。   Moreover, in the above-mentioned embodiment, although the control part 501 shall be contained in the smart phone 50 grade | etc., This invention is not limited to such a structure. Therefore, for example, as shown in FIG. 28, an information processing unit 70 is provided as an external device, and processing with a relatively high calculation cost or all calculation processing is performed by the external information processing unit 70. It is good.

さらに、上述の実施形態においては、ディスプレイ51以外の視界が遮られた、所謂没入型のヘッドマウントディスプレイが採用されていたものの、本発明はこのような構成に限定されない。従って、例えば、空間に固定された座標系を有する仮想空間内において、ディスプレイ51姿勢を検出可能なスマートフォン50などをかざすことにより、当該かざした方向の様子を観察する仮想空間観察システムを採用してもよい。   Furthermore, in the above-described embodiment, a so-called immersive head mounted display in which the field of view other than the display 51 is blocked is employed, but the present invention is not limited to such a configuration. Therefore, for example, in a virtual space having a coordinate system fixed in space, a virtual space observation system that observes the state of the holding direction by holding the smartphone 50 or the like that can detect the orientation of the display 51 is adopted. Also good.

図29は、空間に固定された座標系を有する仮想空間をスマートフォン50をかざすことにより観察する非没入型の仮想空間観察システムについての説明図である。図29(a)に示される通り、例えば、椅子などに座ったユーザ40は、手に持ったスマートフォン50のディスプレイ51を介して、周囲の仮想空間画像を確認することができる。スマートフォン50にはモーションセンサが組み込まれているので、スマートフォンの姿勢を変えることにより、仮想空間内の観察方向を変更することができる。このような状態において、ユーザ40が左右の仮想空間を観察するには、図29(b)に示される通り、首や上半身を左右へと捻り手に持ったスマートフォンを左右方向へとそれぞれ向けなければならず、やはりこの仮想空間観察システムにおいても仮想空間における観察方向の変更に伴う身体への負担が大きい。そこで、この例にあっては、図29(c)に示される通り、ディスプレイ51の背景画像52の右下の領域に、ディスプレイ姿勢を変えることなく仮想空間において観察方向を変更するためのソフトウエアボタンが設けられている。このソフトウエアボタンは、観察位置(又は観察中心)を観察方向へと進める前進動作ボタン54、右方向へと水平面上を回転させる右回転ボタン56、左方向へと水平面上を回転させる左回転ボタン58、上方向へと垂直に回転させる上回転ボタン55、下方向へと垂直に回転させる下回転ボタン57とを有しており、いずれのソフトウエアボタンも押下の間、入力信号が連続して生成されるモメンタリ式である。   FIG. 29 is an explanatory diagram of a non-immersive virtual space observation system for observing a virtual space having a coordinate system fixed in space by holding the smartphone 50 over it. As shown in FIG. 29A, for example, the user 40 sitting on a chair or the like can check the surrounding virtual space image via the display 51 of the smartphone 50 held in his hand. Since the smartphone 50 has a built-in motion sensor, the observation direction in the virtual space can be changed by changing the posture of the smartphone. In such a state, in order for the user 40 to observe the left and right virtual spaces, as shown in FIG. 29B, the smartphone with the neck and upper body twisted to the left and right and the hand held in the right and left directions must be directed respectively. In this virtual space observation system as well, the burden on the body accompanying the change of the observation direction in the virtual space is large. Therefore, in this example, as shown in FIG. 29C, software for changing the observation direction in the virtual space without changing the display posture in the lower right area of the background image 52 of the display 51. A button is provided. This software button includes a forward operation button 54 that advances the observation position (or observation center) in the observation direction, a right rotation button 56 that rotates the horizontal plane in the right direction, and a left rotation button that rotates the horizontal plane in the left direction. 58, an upper rotation button 55 that rotates vertically upward, and a lower rotation button 57 that rotates vertically downward. Any of the software buttons continuously input signals while pressed. This is a momentary expression that is generated.

このような構成によれば、ディスプレイを任意の方向に向けることなく、ソフトウエアボタンを操作することにより、仮想空間における観察方向を任意に変更することができる。   According to such a configuration, the observation direction in the virtual space can be arbitrarily changed by operating the software button without directing the display in an arbitrary direction.

なお、上述の実施形態ではいずれも仮想空間観察システムとして説明したが、それを構成する装置、その処理過程としての方法或いはプログラムとして観念することができることは勿論である。特に、上述の実施形態においては、汎用的なスマートフォン50を頭部装着具20へと組み込む構成としたが、本発明はこのような構成に限定されず、仮想空間観察システム専用のヘッドマウントディスプレイとして構成してもよい。   In the above-described embodiments, the virtual space observation system has been described, but it is needless to say that it can be considered as a device constituting the system, a method or program as a processing process thereof. In particular, in the above-described embodiment, the general-purpose smartphone 50 is incorporated into the head-mounted device 20, but the present invention is not limited to such a configuration, and is a head-mounted display dedicated to a virtual space observation system. It may be configured.

また、上述の説明では、ゲームを例示しつつ仮想空間観察システムについて説明したが、本発明はゲーム用途に限定されない。従って、本発明をあらゆる用途の仮想空間観察システムに適用可能であることは勿論である。   In the above description, the virtual space observation system has been described while exemplifying a game. However, the present invention is not limited to a game application. Therefore, it goes without saying that the present invention can be applied to a virtual space observation system for all uses.

本発明によれば、仮想空間観察システムが提供される。これにより、例えば、仮想空間内を観察又は探索するビデオゲームなどを提供することができる。   According to the present invention, a virtual space observation system is provided. Thereby, for example, a video game for observing or searching in the virtual space can be provided.

1 仮想空間観察システム
10 コントローラ
11 握り部
12 突設部
13 方向指示操作子
14 第1の操作子
15 第2の操作子
16 第3の操作子
17 第4の操作子
18 切替式操作子
1001 制御部
1002 通信ユニット
1003 3軸加速度センサ
1004 3軸角速度センサ
1005 3軸地磁気センサ
1006 バッテリ
20 頭部装着具
21 頭周ベルト
22 頭頂ベルト
23 本体
24 開口
25 蓋板
26 保持具
27 雌側の蓋板留め具
28 雄側の蓋板留め具
29 仕切り板
30 光学系
40 ユーザ
41 頭部
43 眼
50 スマートフォン(又は情報処理装置)
51 ディスプレイ
52 背景画像
52L 左眼用画像
52R 右眼用画像
53 照準
501 制御部
502 記憶部
504 入力操作部(タッチパネル)
505 入力操作部(ボタン)
506 三軸加速度センサ
507 三軸角速度センサ
508 三軸地磁気センサ
509 GPSユニット
510 照度センサ
511 タイマ
512 バッテリ
513 振動部
514 通信ユニット
515 音声出力部
516 音声入力部
517 スピーカ部
518 カメラユニット
519 コネクタ
54 前進動作ボタン
55 上回転ボタン
56 右回転ボタン
57 下回転ボタン
58 左回転ボタン
70 情報処理部
DESCRIPTION OF SYMBOLS 1 Virtual space observation system 10 Controller 11 Grip part 12 Projection part 13 Direction instruction | indication operation element 14 1st operation element 15 2nd operation element 16 3rd operation element 17 4th operation element 18 Switchable operation element 1001 Control Part 1002 Communication unit 1003 Three-axis acceleration sensor 1004 Three-axis angular velocity sensor 1005 Three-axis geomagnetic sensor 1006 Battery 20 Head mounting tool 21 Head belt 22 Head belt 23 Main body 24 Opening 25 Cover plate 26 Holder 27 Female side cover plate fastening Tool 28 Male lid plate fastener 29 Partition plate 30 Optical system 40 User 41 Head 43 Eye 50 Smartphone (or information processing device)
51 Display 52 Background Image 52L Left Eye Image 52R Right Eye Image 53 Aim 501 Control Unit 502 Storage Unit 504 Input Operation Unit (Touch Panel)
505 Input operation unit (button)
506 Triaxial acceleration sensor 507 Triaxial angular velocity sensor 508 Triaxial geomagnetic sensor 509 GPS unit 510 Illuminance sensor 511 Timer 512 Battery 513 Vibration unit 514 Communication unit 515 Audio output unit 516 Audio input unit 517 Speaker unit 518 Camera unit 519 Connector 54 Advance operation Button 55 Up rotation button 56 Right rotation button 57 Down rotation button 58 Left rotation button 70 Information processing section

Claims (17)

ディスプレイと、
前記ディスプレイの姿勢を検出可能なモーションセンサと、
前記ディスプレイ上に、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理部と、
を備えた仮想空間観察システムであって、
前記情報処理部は、さらに、
前記仮想空間観察システムのユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御部を備える、仮想空間観察システム。
Display,
A motion sensor capable of detecting the orientation of the display;
An information processing unit that displays an image in a predetermined field angle frame in a predetermined observation direction in a virtual space on the display in correspondence with the posture of the display detected by the motion sensor;
A virtual space observation system comprising:
The information processing unit further includes:
An observation direction control unit configured to change an observation direction in the virtual space in accordance with an observation direction control signal generated regardless of a change in posture of the display based on a predetermined operation by a user of the virtual space observation system; , Virtual space observation system.
前記観察方向制御部は、さらに、
連続的な観察方向制御信号に応じて、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示する、請求項1に記載の仮想空間観察システム。
The observation direction control unit further includes:
In response to a continuous observation direction control signal, the observation direction in the virtual space is continuously changed, thereby continuously displaying an image in a predetermined field angle frame corresponding to the observation direction on the display. The virtual space observation system according to claim 1, displayed on the screen.
前記所定の画角枠内の画像の連続的な表示は、前記仮想空間における観察地点を中心とする所定の円軌道に沿って行われる、請求項2に記載の仮想空間観察システム。   The virtual space observation system according to claim 2, wherein the continuous display of the image within the predetermined field angle frame is performed along a predetermined circular orbit centered on the observation point in the virtual space. 前記情報処理部は、さらに、
所定の観察地点移動信号に応じて、前記仮想空間における観察地点を直近の観察方向へと所定距離移動させる観察地点制御部を備える、請求項3に記載の仮想空間観察システム。
The information processing unit further includes:
The virtual space observation system according to claim 3, further comprising an observation point control unit that moves the observation point in the virtual space by a predetermined distance in a nearest observation direction in accordance with a predetermined observation point movement signal.
前記ディスプレイと、前記モーションセンサと、前記情報処理部とは、単一の情報処理装置に含まれ、
前記仮想空間観察システムは、さらに、
前記ディスプレイが眼前に配置されるように前記情報処理装置を組込可能であって、ユーザの頭部に装着可能な頭部装着具と、
所定の操作子を有し、前記情報処理装置と有線又は無線により通信接続可能な手持ち型又は身体装着型の操作装置と、を備える、請求項1に記載の仮想空間観察システム。
The display, the motion sensor, and the information processing unit are included in a single information processing device,
The virtual space observation system further includes:
A head-mounted device that can be incorporated into the information processing apparatus so that the display is placed in front of the eye and can be mounted on the user's head;
The virtual space observation system according to claim 1, further comprising: a hand-held or body-mounted operation device that has a predetermined operation element and can be connected to the information processing device by wired or wireless communication.
前記観察方向制御信号は、前記操作装置の前記操作子を操作することにより生成される、請求項5に記載の仮想空間観察システム。   The virtual space observation system according to claim 5, wherein the observation direction control signal is generated by operating the operation element of the operation device. 前記観察方向制御信号は、
前記操作装置の前記操作子を用いて入力操作が行われている間、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示するものである、請求項6に記載の仮想空間観察システム。
The observation direction control signal is
While the input operation is performed using the operation element of the operation device, the observation direction in the virtual space is continuously changed, and thereby a predetermined image corresponding to the observation direction is displayed on the display. The virtual space observation system according to claim 6, wherein images in the corner frame are continuously displayed.
前記操作装置は、さらに、前記操作装置の姿勢及び動きを検出する操作装置用モーションセンサを備え、
前記観察方向制御信号は、前記操作装置の姿勢又は動きに応じて生成される、請求項5に記載の仮想空間観察システム。
The operating device further includes a motion sensor for the operating device that detects the attitude and movement of the operating device,
The virtual space observation system according to claim 5, wherein the observation direction control signal is generated according to a posture or a movement of the operation device.
前記観察方向制御部は、
前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点を中心として、前記指示領域の移動とは点対称に観察方向を変更する、請求項8に記載の仮想空間観察システム。
The observation direction control unit is
The movement of the pointing area is centered on the starting point when the pointing area is moved from the starting point when the pointing area is moved from the starting point when the pointing direction is designated by the operating device. The virtual space observation system according to claim 8, wherein the observation direction is changed symmetrically.
前記観察方向制御部は、
前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点と前記指示領域との相対的位置関係と一致するように観察方向を変更する、請求項8に記載の仮想空間観察システム。
The observation direction control unit is
When the pointing area in the angle of view frame when a predetermined direction is instructed by the operating device is the starting point, and the pointing area is moved from the starting point, the relative positional relationship between the starting point and the pointing area coincides The virtual space observation system according to claim 8, wherein the observation direction is changed so as to.
前記仮想空間観察システムは、さらに、
現実世界画像を撮像するカメラを含み、
前記情報処理部は、前記ディスプレイ上に、前記現実世界画像を表示すると共に、前記現実世界画像に重畳して、前記所定の画角枠内の画像に代えて、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画像を表示する、請求項1に記載の仮想空間観察システム。
The virtual space observation system further includes:
Including a camera that captures real-world images,
The information processing unit displays the real world image on the display, and superimposes the real world image on the display, replacing the image within the predetermined field angle frame, and detecting the motion sensor. The virtual space observation system according to claim 1, wherein a predetermined image in a predetermined observation direction in the virtual space is displayed corresponding to the posture of the display.
前記仮想空間観察システムは、さらに、
音声入力のためのマイクを備え、
前記情報処理部は、さらに、
マイク入力に基づいて、前記観察方向制御信号を生成し、それにより、前記仮想空間内における前記観察方向を変更する音声入力処理部を備える、請求項1に記載の仮想空間観察システム。
The virtual space observation system further includes:
Has a microphone for voice input,
The information processing unit further includes:
The virtual space observation system according to claim 1, further comprising: an audio input processing unit that generates the observation direction control signal based on a microphone input and thereby changes the observation direction in the virtual space.
前記仮想空間観察システムは、さらに、
視線検出のためのカメラを備え、
前記観察方向制御部は、さらに、
カメラ入力に基づいて、前記所定画角枠内の画像内の注視領域を検出し、所定時間以上、同一の領域が注視されたことが検出された場合に、当該領域が画像の中心となるよう観察方向を変更する視線検出処理部を備える、請求項1に記載の仮想空間観察システム。
The virtual space observation system further includes:
Equipped with a camera for gaze detection,
The observation direction control unit further includes:
Based on a camera input, a gaze area in the image within the predetermined angle-of-view frame is detected, and when it is detected that the same area has been gaze for a predetermined time or more, the area becomes the center of the image. The virtual space observation system according to claim 1, comprising a line-of-sight detection processing unit that changes an observation direction.
前記モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含む、請求項1に記載の仮想空間観察システム。   The virtual space observation system according to claim 1, wherein the motion sensor includes at least a triaxial acceleration sensor, a triaxial angular velocity sensor, and a triaxial geomagnetic sensor. 前記操作装置用モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含む、請求項5に記載の仮想空間観察システム。   The virtual space observation system according to claim 5, wherein the motion sensor for the operating device includes at least a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and a 3-axis geomagnetic sensor. ディスプレイ上に表示された画像を通じて認識される仮想空間を観察する仮想空間観察方法であって、
前記ディスプレイの姿勢を検出するモーション検出ステップと、
前記ディスプレイ上に、前記モーション検出ステップにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理ステップと、を備え、
前記情報処理ステップは、さらに、
ユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御ステップを備える、仮想空間観察方法。
A virtual space observation method for observing a virtual space recognized through an image displayed on a display,
A motion detection step of detecting the orientation of the display;
An information processing step of displaying an image in a predetermined field angle frame in a predetermined observation direction in a virtual space on the display in correspondence with the posture of the display detected by the motion detection step;
The information processing step further includes:
A virtual space observation method comprising: an observation direction control step of changing an observation direction in the virtual space in accordance with an observation direction control signal generated regardless of a change in posture of the display based on a predetermined operation by a user.
コンピュータを、請求項1に記載の仮想空間観察システムにおける情報処理部として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as an information processing unit in the virtual space observation system according to claim 1.
JP2016167187A 2016-08-29 2016-08-29 Virtual space observation system, method and program Pending JP2018036720A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167187A JP2018036720A (en) 2016-08-29 2016-08-29 Virtual space observation system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167187A JP2018036720A (en) 2016-08-29 2016-08-29 Virtual space observation system, method and program

Publications (1)

Publication Number Publication Date
JP2018036720A true JP2018036720A (en) 2018-03-08

Family

ID=61567523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167187A Pending JP2018036720A (en) 2016-08-29 2016-08-29 Virtual space observation system, method and program

Country Status (1)

Country Link
JP (1) JP2018036720A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193705A (en) * 2018-05-01 2019-11-07 株式会社カプコン Game program and game device
WO2019231090A1 (en) * 2018-05-29 2019-12-05 삼성전자 주식회사 Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device
JP2020107092A (en) * 2018-12-27 2020-07-09 株式会社コロプラ Program, method and information processing apparatus
CN111461020A (en) * 2020-04-01 2020-07-28 浙江大华技术股份有限公司 Method and device for identifying behaviors of insecure mobile phone and related storage medium
WO2020166582A1 (en) * 2019-02-15 2020-08-20 株式会社Jvcケンウッド Image adjustment system, image adjustment device, and image adjustment method
JP2020134620A (en) * 2019-02-15 2020-08-31 株式会社Jvcケンウッド Image adjustment system, image adjustment device, and image adjustment method
CN112330823A (en) * 2020-11-05 2021-02-05 腾讯科技(深圳)有限公司 Virtual item display method, device, equipment and readable storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728591A (en) * 1993-05-13 1995-01-31 Toshiba Corp Space manipulation mouse system and space operation pattern input method
JP2009205245A (en) * 2008-02-26 2009-09-10 Nikon Corp Image reproduction system
JP2012048597A (en) * 2010-08-30 2012-03-08 Univ Of Tokyo Mixed reality display system, image providing server, display device and display program
JP2014002748A (en) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd Remote control device and method for controlling the same
JP2014153802A (en) * 2013-02-06 2014-08-25 Nintendo Co Ltd Information processing program, information processing device, information processing system, and information processing method
JP2017055173A (en) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image generation method
JP2017138832A (en) * 2016-02-04 2017-08-10 株式会社コロプラ Method and program for providing virtual space

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728591A (en) * 1993-05-13 1995-01-31 Toshiba Corp Space manipulation mouse system and space operation pattern input method
JP2009205245A (en) * 2008-02-26 2009-09-10 Nikon Corp Image reproduction system
JP2012048597A (en) * 2010-08-30 2012-03-08 Univ Of Tokyo Mixed reality display system, image providing server, display device and display program
JP2014002748A (en) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd Remote control device and method for controlling the same
JP2014153802A (en) * 2013-02-06 2014-08-25 Nintendo Co Ltd Information processing program, information processing device, information processing system, and information processing method
JP2017055173A (en) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image generation method
JP2017138832A (en) * 2016-02-04 2017-08-10 株式会社コロプラ Method and program for providing virtual space

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193705A (en) * 2018-05-01 2019-11-07 株式会社カプコン Game program and game device
WO2019231090A1 (en) * 2018-05-29 2019-12-05 삼성전자 주식회사 Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device
US11442274B2 (en) 2018-05-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device
JP2020107092A (en) * 2018-12-27 2020-07-09 株式会社コロプラ Program, method and information processing apparatus
JP7271171B2 (en) 2018-12-27 2023-05-11 株式会社コロプラ Program, method and information processing device
WO2020166582A1 (en) * 2019-02-15 2020-08-20 株式会社Jvcケンウッド Image adjustment system, image adjustment device, and image adjustment method
JP2020134620A (en) * 2019-02-15 2020-08-31 株式会社Jvcケンウッド Image adjustment system, image adjustment device, and image adjustment method
JP7167760B2 (en) 2019-02-15 2022-11-09 株式会社Jvcケンウッド image adjustment system
CN111461020A (en) * 2020-04-01 2020-07-28 浙江大华技术股份有限公司 Method and device for identifying behaviors of insecure mobile phone and related storage medium
CN111461020B (en) * 2020-04-01 2024-01-19 浙江大华技术股份有限公司 Recognition method, equipment and related storage medium for unsafe mobile phone behavior
CN112330823A (en) * 2020-11-05 2021-02-05 腾讯科技(深圳)有限公司 Virtual item display method, device, equipment and readable storage medium
CN112330823B (en) * 2020-11-05 2023-06-16 腾讯科技(深圳)有限公司 Virtual prop display method, device, equipment and readable storage medium

Similar Documents

Publication Publication Date Title
JP2018036720A (en) Virtual space observation system, method and program
US9703102B2 (en) Information processing device including head mounted display
US11353967B2 (en) Interacting with a virtual environment using a pointing controller
CN108780360B (en) Virtual reality navigation
JP6355978B2 (en) Program and image generation apparatus
CN109690447B (en) Information processing method, program for causing computer to execute the information processing method, and computer
EP3156110A1 (en) Information processing device provided with head-mounted display
JP6250592B2 (en) Head mounted display, information processing apparatus, display control method, and program
JP5959047B2 (en) Display control system, display control method, display control program, and display control apparatus
JP4413203B2 (en) Image presentation device
JP2020149584A (en) Information processing program, information processing apparatus, information processing system, and information processing method
WO2017136125A2 (en) Object motion tracking with remote device
JP6523233B2 (en) Information processing method, apparatus, and program for causing a computer to execute the information processing method
EP2466440B1 (en) Display control program, display control apparatus, display control system, and display control method
JP2013258614A (en) Image generation device and image generation method
JP7546116B2 (en) Systems and methods for augmented reality - Patents.com
JP2015231445A (en) Program and image generating device
CN108027987B (en) Information processing method, information processing apparatus, and information processing system
WO2020189254A1 (en) Information processing device, information processing method, and computer-readable recording medium
JPWO2009072471A1 (en) Input device, control device, control system, control method, and handheld device
JP6220937B1 (en) Information processing method, program for causing computer to execute information processing method, and computer
JP2018037034A (en) Information processing system
CN109844600A (en) Information processing equipment, information processing method and program
JP4678428B2 (en) Virtual space position pointing device
JP6227732B1 (en) Method and apparatus for supporting input in virtual space, and program causing computer to execute the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200909