JP7057197B2 - Image processing equipment, image processing methods, and programs - Google Patents
Image processing equipment, image processing methods, and programs Download PDFInfo
- Publication number
- JP7057197B2 JP7057197B2 JP2018077057A JP2018077057A JP7057197B2 JP 7057197 B2 JP7057197 B2 JP 7057197B2 JP 2018077057 A JP2018077057 A JP 2018077057A JP 2018077057 A JP2018077057 A JP 2018077057A JP 7057197 B2 JP7057197 B2 JP 7057197B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- image processing
- posture change
- display area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
本発明は、画像データを複数の装着型ディスプレイ装置に表示する場合に各ディスプレイ装置を装着するユーザの位置姿勢変化に基づき該ディスプレイ装置に表示する表示画像を生成する画像処理装置、画像処理方法、およびプログラムに関する。 The present invention is an image processing device, an image processing method, and an image processing device that generates a display image to be displayed on the display device based on a change in the position and orientation of a user who wears each display device when displaying image data on a plurality of wearable display devices. And about the program.
ヘッドマウントディスプレイは、ユーザの頭部に装着するディスプレイ装置のことであり、ウェアラブルコンピュータの一つとして位置付けられる。また、ヘッドマウントディスプレイは、外の世界を完全に見えなくし、かつユーザの顔の向きに連動させて画像を変化させて360度の視界を表現することで、より完全に近いバーチャルリアリティを実現できることから、近年注目される技術の一つとなっている。 A head-mounted display is a display device worn on the user's head, and is positioned as one of wearable computers. In addition, the head-mounted display can realize a more complete virtual reality by completely obscuring the outside world and changing the image in conjunction with the direction of the user's face to express a 360-degree field of view. Therefore, it has become one of the technologies that have been attracting attention in recent years.
ところで、ヘッドマウントディスプレイの利用法として、複数のユーザの各々が1つのディスプレイを装着し、これら複数のディスプレイに1つの画像を表示することで、複数のユーザが1つの画像を共有し得る技術が知られている。この場合、複数のユーザは、その1つの画像を介して1つの世界(仮想空間)にいることを実感できる。このようなヘッドマウントディスプレイを用いた画像共有に関する技術は、従来、例えば、特許文献1に開示されるようなものがある。
By the way, as a usage of a head-mounted display, there is a technique in which a plurality of users can share one image by wearing one display on each of the plurality of users and displaying one image on the plurality of displays. Are known. In this case, a plurality of users can realize that they are in one world (virtual space) through the one image. Techniques related to image sharing using such a head-mounted display are conventionally disclosed in, for example,
特許文献1は、1つの画像を複数のヘッドマウントディスプレイに表示する場合に、主となるユーザが装着するディスプレイからの視野情報に基づき、従となるユーザが装着するディスプレイの画像を制御する技術を開示する。これにより、従となるユーザも、主となるユーザと同じ画像を見ることが可能となる。また、引用文献2は、主となるユーザが装着するヘッドマウントディスプレイから得られた頭部の重力方向に対する傾きに基づき、従となるユーザが視聴するモニタ装置に表示する画像の傾きを制御する技術を開示する。
特許文献1および2の技術は、主となるユーザと従となるユーザとで1つの画像を共有する場合に、主となるユーザが装着するディスプレイの表示領域をそのまま利用して、従となるユーザのディスプレイまたはモニタ装置に表示する。従って、特許文献1および2の場合、主となるユーザが急な動きを行うと、その急な動きに基づく画像の変化が従となるユーザのディスプレイまたはモニタ装置にそのまま反映されてしまう。この場合、従となるユーザは、この急な動きによる画像の変化により、視覚的な不快感または映像酔いを引き起こす可能性がある。なお、急な動きは、ユーザの頭部の動きに起因するものとし、その動きが小さくても小刻みに長時間続く場合、および短時間でも大きい場合は、それぞれ急な動きに該当するものとする。
The techniques of
本発明は、1つの画像を複数の装着型ディスプレイ装置に表示する場合に、主となるユーザの急な動きが従となるユーザのディスプレイ装置に反映されなくすることで、従となるユーザの視覚的な不快感または映像酔いを低減させることを目的とする。 In the present invention, when one image is displayed on a plurality of wearable display devices, the sudden movement of the main user is not reflected on the display device of the subordinate user, so that the visual sense of the subordinate user is not reflected. The purpose is to reduce discomfort or image sickness.
本発明の例によれば、画像処理装置は、画像データを複数の装着型ディスプレイ装置に表示する場合に各ディスプレイ装置を装着するユーザの位置姿勢変化に基づき該ディスプレイ装置に表示する表示画像を生成する画像処理装置であって、前記複数のディスプレイ装置のうち第1のディスプレイ装置を装着する主となるユーザの第1の位置姿勢変化を取得し、かつ前記複数のディスプレイ装置のうち第2のディスプレイ装置を装着する従となるユーザの第2の位置姿勢変化を取得する取得手段と、前記第1の位置姿勢変化から前記主となるユーザの急な動きに起因する位置姿勢変化を除外する補正処理を行う位置姿勢変化補正手段と、前記補正処理が行われていない前記第1の位置姿勢変化に基づき第1の表示領域を算出し、前記補正処理が行われている前記第1の位置姿勢変化に基づき補正表示領域を算出し、かつ前記補正表示領域の中心座標を基準にして前記第2の位置姿勢変化に基づき第2の表示領域を算出する表示領域算出手段と、前記画像データおよび前記第1の表示領域に基づき前記第1のディスプレイ装置に表示すべき第1の表示画像を生成し、かつ前記画像データおよび前記第2の表示領域に基づき前記第2のディスプレイ装置に表示すべき第2の表示画像を生成する表示画像生成手段と、を備える。
According to the example of the present invention, when displaying image data on a plurality of wearable display devices, the image processing device generates a display image to be displayed on the display device based on a change in the position and orientation of a user who wears each display device. This is an image processing device for acquiring a first position / attitude change of a main user who wears the first display device among the plurality of display devices, and a second display among the plurality of display devices. An acquisition means for acquiring a second position / orientation change of a slave user who wears the device, and a correction process for excluding the position / orientation change caused by the sudden movement of the main user from the first position / attitude change. The first display area is calculated based on the position / orientation change correction means for performing the correction process and the first position / attitude change for which the correction process is not performed, and the first position / attitude change for which the correction process is performed. A display area calculation means for calculating a correction display area based on the above and calculating a second display area based on the second position / orientation change with reference to the center coordinates of the correction display area, the image data, and the first. A second display image to be displayed on the first display device is generated based on the
本発明の例によれば、1つの画像を複数の装着型ディスプレイ装置に表示する場合に、主となるユーザの急な動きが従となるユーザのディスプレイ装置に反映されなくすることで、従となるユーザの視覚的な不快感または映像酔いを低減させることが可能となる。 According to the example of the present invention, when one image is displayed on a plurality of wearable display devices, the sudden movement of the main user is not reflected on the display device of the subordinate user. It is possible to reduce the visual discomfort or image sickness of the user.
以下、本発明の実施形態を図面を参照して詳細に説明する。
(第1の実施形態)
図1は、HMDシステムの例を示す。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First Embodiment)
FIG. 1 shows an example of an HMD system.
このHMDシステムは、画像処理装置100と、第1のディスプレイ110と、第2のディスプレイ120と、を備える。第1のディスプレイ110は、主となるユーザが装着するヘッドマウントディスプレイ(ディスプレイ装置)であり、第2のディスプレイ120は、従となるユーザが装着するヘッドマウントディスプレイ(ディスプレイ装置)である。主となるユーザとは、複数のユーザが1つの映像または画像(以下、両者をまとめて単に画像と称する)を共有する場合に、その1つの画像の提供元となるユーザのことである。また、従となるユーザとは、複数のユーザが1つの画像を共有する場合に、その1つの画像の提供先となるユーザのことである。すなわち、主となるユーザが視聴している1つの画像が従となるユーザに提供されることで、複数のユーザが1つの画像を共有することができる。
This HMD system includes an
このシステムは、複数のヘッドマウントディスプレイを備える。本例では、第1および第2のディスプレイ110,120としての2つのヘッドマウントディスプレイを備える。但し、これは本実施形態の説明を簡単にするためのものであり、その数は、3つ以上であっても構わない。また、このシステムにおいては、複数のヘッドマウントディスプレイのうちの1つは、主となるユーザが装着するディスプレイとして機能し、残りは、従となるユーザが装着するディスプレイとして機能する。
The system includes multiple head-mounted displays. In this example, two head-mounted displays are provided as the first and
また、画像処理装置100の位置は、特に限定されない。例えば、画像処理装置100は、第1および第2のディスプレイ110,120を含む複数のヘッドマウントディスプレイとは独立に設けられる。この場合、画像処理装置100は、専用機器であってもよいし、パソコンなどの汎用機器であってもよいし、またはクラウドサービスにおける管理サーバであってもよい。なお、画像処理装置100が管理サーバ内に搭載される場合の例については、第2の実施形態で詳述する。
Further, the position of the
また、画像処理装置100は、複数のヘッドマウントディスプレイのうちの1つに搭載されていてもよい。例えば、画像処理装置100が搭載されるヘッドマウントディスプレイが第1のディスプレイ110でない場合、画像処理装置100は、第1のディスプレイ110に表示すべき第1の表示画像を第1のディスプレイ110に送信する送信部を備える。また、画像処理装置100が搭載されるヘッドマウントディスプレイが第2のディスプレイ120でない場合、画像処理装置100は、第2のディスプレイ120に表示すべき第2の表示画像を第2のディスプレイ120に送信する送信部を備える。
Further, the
さらに、画像処理装置100は、複数のヘッドマウントディスプレイの各々に搭載されていてもよい。
Further, the
画像処理装置100は、画像データ入力部101と、画像メモリ102と、表示領域制御部103と、を備える。第1のディスプレイ110は、位置姿勢変化検出部111と、画像表示部112と、を備える。第2のディスプレイ120は、位置姿勢変化検出部121と、画像表示部122と、を備える。
The
画像データ入力部101は、画像処理装置100に画像データが入力された場合に画像データを画像メモリ102へ供給する。画像メモリ102は、画像データ入力部101からの画像データを記憶する。画像データは、画像メモリ102から表示領域制御部103へ供給される。
The image
位置姿勢変化検出部111は、第1のディスプレイ110を装着する主となるユーザの第1の位置姿勢変化を検出する。同様に、位置姿勢変化検出部121は、第2のディスプレイ120を装着する従となるユーザの第2の位置姿勢変化を検出する。位置姿勢変化検出部111,121の各々は、加速度センサ、ジャイロセンサなどの検出センサを含む。
The position / posture
表示領域制御部103は、位置姿勢変化検出部111から主となるユーザの第1の位置姿勢変化を取得し、かつ位置姿勢変化検出部121から従となるユーザの第2の位置姿勢変化を取得する取得部を備える。
The display
そして、表示領域制御部103は、画像メモリ102から供給される画像データと、第1の位置姿勢変化と、に基づいて、第1のディスプレイ110に供給すべき第1の表示画像を生成する。また、表示領域制御部103は、画像メモリ102から供給される画像データと、第1の位置姿勢変化と、第2の位置姿勢変化とに基づいて、第2のディスプレイ120に供給すべき第2の表示画像を生成する。これら第1及び第2の表示画像の生成については、後述する。
Then, the display
画像表示部112は、表示領域制御部103により生成された第1の表示画像を表示する。また、画像表示部122は、表示領域制御部103により生成された第2の表示画像を表示する。
The
このようなシステムによれば、後述するように、表示領域制御部103により、第1の位置姿勢変化から主となるユーザの急な動きに起因する位置姿勢変化を除外する補正処理を行うことで、従となるユーザの映像酔いを防止できる。すなわち、表示領域制御部103は、補正処理が行われている第1の位置姿勢変化に基づき補正表示領域を算出し、かつ補正表示領域の中心座標を算出する。また、表示領域制御部103は、この中心座標を基準にして第2の位置姿勢変化に基づき第2の表示領域を算出する。この第2の表示領域は、主となるユーザの急な動きに起因する要素を含まない。
According to such a system, as will be described later, the display
従って、従となるユーザは、第2の表示領域に基づき生成された第2の表示画像を視聴することになるため、視覚的な不快感または映像酔いを引き起こすことがない。一方、第1の表示画像は、補正処理が行われていない第1の位置姿勢変化に基づき生成されるため、主となるユーザは、自らの動きをそのまま第1の表示画像として視聴可能となる。 Therefore, the subordinate user will view the second display image generated based on the second display area, and thus does not cause visual discomfort or image sickness. On the other hand, since the first display image is generated based on the first position / posture change that has not been corrected, the main user can view his / her movement as it is as the first display image. ..
次に、図1のHMDシステムの動作を説明する。
以下の説明では、図2のフローチャートをベースにHMDシステムの動作を説明する。
Next, the operation of the HMD system of FIG. 1 will be described.
In the following description, the operation of the HMD system will be described based on the flowchart of FIG.
まず、ステップS201において、画像データを準備する。すなわち、画像データは、画像データ入力部101に入力され、かつ画像データ入力部101を経由して画像メモリ102に記憶される。次に、ステップS202において、表示領域制御部103は、上述の取得部を用いて、位置姿勢変化検出部111から第1の位置姿勢変化を取得する。
First, in step S201, image data is prepared. That is, the image data is input to the image
ここで、図3を参酌して、第1および第2の位置姿勢変化のパラメータを説明する。各パラメータは、加速度センサ、ジャイロセンサなどの検出センサによって検出される。 Here, with reference to FIG. 3, the parameters of the first and second position-posture changes will be described. Each parameter is detected by a detection sensor such as an acceleration sensor or a gyro sensor.
例えば、第1および第2の位置姿勢変化は、三次元空間400内で、水平方向への加速度401をXad、垂直方向への加速度402をYad、および奥行き方向への加速度403をZadとして、加速度センサによって検出される。また、第1および第2の位置姿勢変化は、三次元空間400内で、水平方向を軸とする回転角速度411をXvr、垂直方向を軸とする回転角速度412をYvr、奥行き方向を軸とする回転角速度413をZvrとして、ジャイロセンサによって検出される。
For example, the first and second position-orientation changes are accelerated in the three-
すなわち、第1および第2の位置姿勢変化は、これら検出された各加速度を時間で積分することで、主となるユーザの速度および位置の変化、並びに従となるユーザの速度および位置の変化として、それぞれ算出可能となる。 That is, the first and second position-posture changes are the changes in the speed and position of the main user and the changes in the speed and position of the subordinate user by integrating each of these detected accelerations over time. , Each can be calculated.
具体的には、
Xvd=∫Xad dt ・・・式(1)
Yvd=∫Yad dt ・・・式(2)
Zvd=∫Zad dt ・・・式(3)
とすることで、水平方向への速度Xvd、垂直方向への速度Yvd、および奥行き方向への速度Zvdをそれぞれ算出できる。
specifically,
Xvd = ∫Xad dt ・ ・ ・ Equation (1)
Yvd = ∫Yad dt ・ ・ ・ Equation (2)
Zvd = ∫Zad dt ・ ・ ・ Equation (3)
Therefore, the horizontal velocity Xvd, the vertical velocity Yvd, and the depth velocity Zvd can be calculated, respectively.
また、
Xpd=∫Xvd dt ・・・式(4)
Ypd=∫Yvd dt ・・・式(5)
Zpd=∫Zvd dt ・・・式(6)
とすることで、水平方向への位置Xpd、垂直方向への位置Ypd、および奥行き方向への位置Zpdをそれぞれ算出できる。
also,
Xpd = ∫Xvd dt ・ ・ ・ Equation (4)
Ypd = ∫Yvd dt ・ ・ ・ Equation (5)
Zpd = ∫Zvd dt ・ ・ ・ Equation (6)
Therefore, the position Xpd in the horizontal direction, the position Ypd in the vertical direction, and the position Zpd in the depth direction can be calculated, respectively.
さらに、検出された各回転角速度をそれぞれ時間で微分および積分することで、回転方向の角加速度および回転角を算出できる。すなわち、
Xar=dXvr/dt ・・・式(7)
Yar=dYvr/dt ・・・式(8)
Zar=dZvr/dt ・・・式(9)
とすることで、水平方向を軸とする回転角加速度Xar、垂直方向を軸とする回転角加速度Yar、および奥行き方向を軸とする回転角加速度Zarをそれぞれ算出できる。
Further, the angular acceleration and the angle of rotation in the rotation direction can be calculated by differentiating and integrating each of the detected angular velocities with respect to time. That is,
Xar = dXvr / dt ... Equation (7)
Yar = dYvr / dt ・ ・ ・ Equation (8)
Zar = dZvr / dt ... Equation (9)
Therefore, the rotational angular acceleration Xar about the horizontal direction, the rotational angular acceleration Yar about the vertical direction, and the rotational angular acceleration Zar about the depth direction can be calculated.
また、
Xpr=∫Xvr dt ・・・式(10)
Ypr=∫Yvr dt ・・・式(11)
Zpr=∫Zvr dt ・・・式(12)
とすることで、水平方向を軸とする回転角Xpr、垂直方向を軸とする回転角Ypr、および奥行き方向を軸とする回転角Zprをそれぞれ算出できる。
also,
Xpr = ∫Xvr dt ・ ・ ・ Equation (10)
Ypr = ∫Yvr dt ・ ・ ・ Equation (11)
Zpr = ∫Zvr dt ・ ・ ・ Equation (12)
Therefore, the rotation angle Xpr about the horizontal direction, the rotation angle Ypr about the vertical direction, and the rotation angle Zpr about the depth direction can be calculated, respectively.
上記の式(1)~式(12)で算出される各パラメータについては、実際には加速度センサおよびジャイロセンサ内のドリフトに起因し、積分誤差が発生する。この積分誤差は、第1および第2の位置姿勢変化を正確に求めるための障害となる。そこで、この積分誤差を除去するために、ハイパスフィルタ、カルマンフィルタ、相補フィルタなどのフィルタ処理、さらには、地磁気、GPSなどの情報による補正処理を行うこと、すなわち、センサーフュージョン構成とすることは、有効である。 For each parameter calculated by the above equations (1) to (12), an integration error actually occurs due to the drift in the acceleration sensor and the gyro sensor. This integration error becomes an obstacle for accurately obtaining the first and second position-posture changes. Therefore, in order to eliminate this integration error, it is effective to perform filter processing such as a high-pass filter, Kalman filter, and complementary filter, and further, correction processing using information such as geomagnetism and GPS, that is, a sensor fusion configuration. Is.
なお、上記の式(1)~式(12)による算出工程は、第1および第2のディスプレイ110,120内の位置姿勢変化検出部111,121で行うことが可能である。この場合、表示領域制御部103は、第1および第2の位置姿勢変化を、上記の式(1)~式(12)による算出工程の結果として取得する。
The calculation steps according to the above equations (1) to (12) can be performed by the position / posture
また、上記の式(1)~式(12)による算出工程は、表示領域制御部103で行うことも可能である。この場合、表示領域制御部103は、第1および第2の位置姿勢変化を、上記の式(1)~式(12)の計算の元になる各パラメータとして取得する。
Further, the calculation steps according to the above equations (1) to (12) can also be performed by the display
図2のフローチャートの説明に戻る。
次に、ステップS203において、表示領域制御部103は、第1のディスプレイ110に表示すべき第1の表示画像を生成するか、または第2のディスプレイ120に表示すべき第2の表示画像を生成するか、を決定する。
Returning to the explanation of the flowchart of FIG.
Next, in step S203, the display
第1のディスプレイ110に表示すべき第1の表示画像を生成する場合、第1のディスプレイ110は、主となるユーザに装着されるものであるため、ステップS204へ進む。また、第2のディスプレイ120に表示すべき第2の表示画像を生成する場合、第2のディスプレイ120は、従となるユーザに装着されるものであるため、ステップS207へ進む。
When generating the first display image to be displayed on the
第1の表示画像は、以下のステップS204~S206により生成され、かつ第1のディスプレイ110に表示される。
The first display image is generated by the following steps S204 to S206 and is displayed on the
まず、ステップS204において、画像領域制御部103は、ステップS202で取得した第1の位置姿勢変化に基づき、第1のディスプレイ110の画像表示部112に表示すべき第1の表示領域を生成する。
First, in step S204, the image
次に、ステップS205において、画像領域制御部103は、画像データ、およびステップS204で生成した第1の表示領域に基づき、第1のディスプレイ110の画像表示部112に表示すべき第1の表示画像を生成する。そして、ステップS206において、画像領域制御部103は、この第1の表示画像を第1のディスプレイ110の画像表示部112に供給する。
Next, in step S205, the image
一方、第2の表示画像は、以下のステップS207~S210により生成され、かつ第2のディスプレイ120に表示される。
On the other hand, the second display image is generated by the following steps S207 to S210 and is displayed on the
まず、ステップS207において、表示領域制御部103は、上述の取得部を用いて、位置姿勢変化検出部121から第2の位置姿勢変化を取得する。そして、ステップS208において、画像領域制御部103は、ステップS202で取得した第1の位置姿勢変化、およびS207で取得した第2の位置姿勢変化に基づき、第2のディスプレイ120の画像表示部122に表示すべき第2の表示領域を生成する。
First, in step S207, the display
次に、ステップS209において、画像領域制御部103は、画像データ、およびステップS208で生成した第2の表示領域に基づき、第2のディスプレイ120の画像表示部122に表示すべき第2の表示画像を生成する。そして、ステップS210において、画像領域制御部103は、この第2の表示画像を第2のディスプレイ120の画像表示部122に供給する。
Next, in step S209, the image
ここで、第1の表示画像および第2の表示画像を生成する具体例を説明する。 Here, a specific example for generating the first display image and the second display image will be described.
例えば、図4に示すように、表示領域制御部103は、位置姿勢変化補正パラメータ算出部301と、位置姿勢変化補正部302と、表示領域算出部303と、表示画像生成部304と、を備える。位置姿勢変化補正パラメータ算出部301は、画像メモリ102内に記憶された画像データに基づき、位置姿勢変化補正パラメータを算出し、かつそれを位置姿勢変化補正部302へ供給する。
For example, as shown in FIG. 4, the display
位置姿勢変化補正部302は、第1のディスプレイ110内の位置姿勢検出部111で検出された第1の位置姿勢変化を位置姿勢変化補正パラメータに基づき補正する補正処理を行う。この補正処理は、第1の位置姿勢変化から主となるユーザの急な動きに起因する位置姿勢変化を除外する処理である。この補正処理が行われた第1の位置姿勢変化は、表示領域算出部303に供給される。
The position / posture
表示領域算出部303は、位置姿勢変化補正部302で補正処理が行われていない第1の位置姿勢変化に基づき第1の表示領域を算出する。また、表示領域算出部303は、位置姿勢変化補正部302で補正処理が行われている第1の位置姿勢変化に基づき補正表示領域を算出する。さらに、表示領域算出部303は、補正表示領域の中心座標を基準にして、位置姿勢変化検出部121から取得した第2の位置姿勢変化に基づき第2の表示領域を算出する。
The display
表示画像生成部304は、画像データ、および表示領域算出部303で算出された第1の表示領域に基づき、第1のディスプレイ110に供給すべき第1の表示画像を生成する。第1の表示画像は、画像表示部112に表示される。また、表示画像生成部304は、画像データ、および表示領域算出部303で算出された第2の表示領域に基づき、第2のディスプレイ120に供給すべき第2の表示画像を生成する。第2の表示画像は、画像表示部122に表示される。
The display
このように、第1の表示画像は、補正処理が行われていない第1の位置姿勢変化に基づき生成されるため、主となるユーザは、自らの動きをそのまま第1の表示画像として視聴可能となる。また、第2の表示画像は、補正処理が行われている第1の位置姿勢変化と、第2の位置姿勢変化とに基づき生成されるため、従となるユーザは、主となるユーザの急な動きの要素が排除された第2の表示画像を視聴可能となる。 In this way, since the first display image is generated based on the first position / posture change that has not been corrected, the main user can view his / her movement as it is as the first display image. It becomes. Further, since the second display image is generated based on the first position / posture change in which the correction process is performed and the second position / posture change, the subordinate user is suddenly the main user. The second display image from which the element of movement is excluded can be viewed.
図5は、第1の表示領域を算出する例を示す。
図5(A)は、画像データの垂直方向501と水平方向502に対して、第1の位置姿勢変化が検出されていない場合の第1の表示領域503の例である。図5(B)は、図5(A)の状態において第1の位置姿勢変化が検出された場合に、第1の位置姿勢変化に基づき第1の表示領域508を算出する例である。
FIG. 5 shows an example of calculating the first display area.
FIG. 5A is an example of the
本例では、第1の位置姿勢変化は、垂直方向501と水平方向502に対して、中心座標(x,y)507を中心にして回転角506だけ回転した場合を例とする。この場合、第1の位置姿勢変化後の第1の表示領域508は、垂直方向504と水平方向505とを有する。
In this example, the first position / posture change is taken as an example in which the
中心座標(x,y)507は、式(4)および式(5)より、
(x,y)=(Xpd,Ypd) ・・・式(13)
となる。また、回転角506は、式(12)より算出できる。第1の表示領域508は、式(13)と、回転角506と、主となるユーザが装着する第1のディスプレイ110の画像表示部112に表示可能な画像サイズとに基づき、決定する。
The center coordinates (x, y) 507 are obtained from the equations (4) and (5).
(X, y) = (Xpd, Ypd) ... Equation (13)
Will be. Further, the
以上より、第1の表示領域508は、主となるユーザの第1の位置姿勢変化から算出される。また、画像データのうち、第1の表示領域508内に含まれる画像データは、主となるユーザが装着する第1のディスプレイ110に供給すべき第1の表示画像となる。第1の表示画像は、第1のディスプレイ110の画像表示部112に表示される。
From the above, the
次に、第2の表示領域を算出する例を示す。
まず、上記のように、位置姿勢変化補正部302を用いて、第1の位置姿勢変化から主となるユーザの急な動きに起因する位置姿勢変化を除外する補正処理を行う。
Next, an example of calculating the second display area is shown.
First, as described above, the position / posture
図6は、補正処理の例を示す。
図6(A)は、ローパスフィルタ(LPF)601を用いた補正処理の例である。ローパスフィルタ601は、所定の閾値を有し、第1の位置姿勢変化と位置姿勢変化補正パラメータとに基づき、補正処理された第1の位置姿勢変化を出力する。すなわち、ローパスフィルタ601は、第1の位置姿勢変化の周波数が所定の閾値よりも大きい場合に、該周波数に係る位置変化を主となるユーザの急な動きとして除外する。
FIG. 6 shows an example of correction processing.
FIG. 6A is an example of correction processing using the low-pass filter (LPF) 601. The low-
図6(B)は、閾値処理部602による補正処理の例である。閾値処理部602は、第1の位置姿勢変化と位置姿勢変化補正パラメータとに基づき、所定の閾値を基準に第1の位置姿勢変化が有るか、または無いかを決める処理を行う。すなわち、閾値処理部602は、第1の位置姿勢変化が所定の閾値よりも大きい場合に、該位置姿勢変化が無いものとして処理し、主となるユーザの急な動きを除外する。
FIG. 6B is an example of correction processing by the threshold
また、画像データが画素毎に色情報と奥行き情報を有する場合、位置姿勢変化補正部302は、第1の表示領域508内の画素の奥行き情報に基づき、ローパスフィルタ601または閾値処理部602の所定の閾値を設定してもよい。この場合、近い距離情報を持つ画像が表示画角の多くを占めるときに、ローパスフィルタ601または閾値処理部602の効果を高め(所定の閾値を下げ)、第1の位置姿勢変化をなだらかにし、追従性を下げることができる。これにより、従となるユーザの視覚的な不快感または映像酔いが防止される。
When the image data has color information and depth information for each pixel, the position / orientation
図7は、図6(A)によるローパスフィルタ601によって第1の位置姿勢変化がどのように補正されるのかを説明した図である。
FIG. 7 is a diagram illustrating how the first position-posture change is corrected by the low-
横軸701は、時間軸を示し、縦軸702は、位置姿勢変化として水平方向の位置703を示す。水平方向の位置703は、第1のディスプレイ110の位置姿勢変化検出部111で検出された第1の位置姿勢変化である。なだらかな曲線704は、ローパスフィルタ601による補正処理が行われた第1の位置姿勢変化を示す。但し、縦軸702は、水平方向の位置に限らず、垂直方向の位置、奥行き方向の位置を示していてもよい。
The
ローパスフィルタ601は、伝達関数として、
G(s)=a/(s+a) ・・・式(14)
と表現される。但し、sは、角周波数であり、かつwと虚数jを用いて
s=jw ・・・式(15)
と表現される。
The low-
G (s) = a / (s + a) ... Equation (14)
It is expressed as. However, s is an angular frequency, and w and the imaginary number j are used to s = jw ... Equation (15).
It is expressed as.
さらに、角周波数wは、周波数fを用いて
w=2πf ・・・式(16)
と表現される。但し、aは、任意の正の定数で、かつ第1の位置姿勢変化の補正パラメータ設定値である。この時、ローパスフィルタ601の遮断周波数fcは、
fc=a/2π ・・・式(17)
の関係を有する。
Further, the angular frequency w uses the frequency f, and w = 2πf ... Equation (16).
It is expressed as. However, a is an arbitrary positive constant and is a correction parameter setting value of the first position / posture change. At this time, the cutoff frequency fc of the low-
fc = a / 2π ・ ・ ・ Equation (17)
Have a relationship of.
すなわち、ローパスフィルタ601の特性は、aの値、および遮断周波数fcを調整することにより制御可能となる。
That is, the characteristics of the low-
第1の位置姿勢変化の高周波成分(主となるユーザの急な動きに相当)は、ローパスフィルタ601により除去されるため、補正処理された第1の位置姿勢変化は、主となるユーザの急な動きに起因する位置姿勢変化を含まない。また、第1の位置姿勢変化の補正パラメータは、第1のディスプレイ110の表示範囲に含まれる画素の奥行き情報に基づき変更可能であり、これに基づき、式(14)の任意の正の定数aも変更可能である。
Since the high frequency component of the first position / posture change (corresponding to the sudden movement of the main user) is removed by the low-
すなわち、位置姿勢変化補正パラメータ算出部301は、補正処理を行う第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報に基づいて定数aを変更した後、定数aを位置姿勢変化補正部302へ供給する。第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報をZdとする。このとき、Zdをある定数からある定数の間で表現でき、Zdが小さいほど奥行き情報として奥行きがないと定義した場合、定数aは、
a=b×Zd ・・・式(18)
と表現される。但し、bは、任意の定数である。
That is, the position / attitude change correction
a = b × Zd ・ ・ ・ Equation (18)
It is expressed as. However, b is an arbitrary constant.
式(18)で定数aを決めることにより、例えば、風景のように奥行きがあるシーンの場合、Zdが大きい値となるため、それに比例して定数aも大きな値となる。従って、式(17)より、遮断周波数fcも大きな値となるため、ローパスフィルタ601の効果を弱めることができる。逆に、近くにものがあるシーンの場合、Zdが小さい値となるため、それに比例して定数aも小さな値となる。従って、式(17)より、遮断周波数fcも小さな値となるため、ローパスフィルタ601の効果を強めることができる。
By determining the constant a in the equation (18), for example, in the case of a scene having a depth such as a landscape, Zd becomes a large value, so that the constant a also becomes a large value in proportion to it. Therefore, according to the equation (17), the cutoff frequency fc also has a large value, so that the effect of the low-
以上のように、画像データの奥行き情報に応じてローパスフィルタ601の設定値を変えることにより、第1の位置姿勢変化の補正度合を変更可能となる。
As described above, by changing the set value of the low-
図8は、図6(B)による閾値処理部602によって第1の位置姿勢変化がどのように補正されるのかを説明した図である。同図は、第1の位置姿勢変化の位置、速度、および加速度の関係を示す。
FIG. 8 is a diagram illustrating how the first position / posture change is corrected by the threshold
図8(A)の横軸801は、時間軸を示し、縦軸804は、位置を示す。図8(B)の横軸802は、時間軸を示し、縦軸805は、速度を示す。図8(C)の横軸803は、時間軸を示し、縦軸806は、加速度を示す。第1の位置姿勢変化に関し、位置の時間的な変化807、および速度の時間的な変化808は、図3で説明したように、加速度の時間的な変化809から算出できる。以下の説明では、便宜上、位置、速度、および加速度の時間的な変化は、水平方向の変化を例とするが、それ以外の垂直方向、奥行き方向、および回転方向に対しても同様の処理が可能である。
The
図9は、図8(C)の加速度の時間的な変化に関し、所定の閾値を基準に、第1の位置姿勢変化を有りとするか、または無しとするか(主となるユーザの急な動きとして除去するか)を決める例を示す。 FIG. 9 shows whether or not the first position-posture change is present or absent based on a predetermined threshold value with respect to the temporal change of the acceleration of FIG. 8 (C) (a sudden change of the main user). An example of deciding whether to remove as a movement) is shown.
図9(A)の横軸810は、時間軸を示し、縦軸813は、加速度を示す。図9(B)の横軸811は、時間軸を示し、縦軸814は、位置を示す。図9(C)の横軸812は、時間軸を示し、縦軸815は、位置を示す。加速度の時間的な変化816は、図8(C)の加速度の時間的な変化と同じである。
The
図6の閾値処理部602は、図9(A)の加速度の時間的な変化816に基づき、検出された第1の位置姿勢変化を、主となるユーザの急な動きとして排除するか否かを決定する。例えば、閾値処理部602は、所定の閾値817,818を有する。ここでは、所定の閾値817の値をTH_Hとし、所定の閾値818の値をTH_Lとする。
Whether or not the threshold
点線819,820は、加速度が所定の閾値817,818を超えた時点を示す。この時、閾値処理部602による補正処理が行われないと、位置の変化は、破線821,824に示すようになり、図8(A)の位置の変化と同じとなる。一方、閾値処理部602による補正処理が行われると、位置の変化は、実線822,825に示すようになる。すなわち、加速度が所定の閾値817,818を超えた時点819,820から一定期間823は、第1の位置姿勢変化が無いものとして扱う。これにより、この一定期間823は、位置の更新が行われないため、主となるユーザの急な動きを排除することができる。
The
なお、一定期間823が経過した後に取得した第1の位置姿勢変化の加速度が所定の閾値を超えていない場合、現在位置を該第1の位置姿勢変化に基づく目標位置に変更することで、現在位置を主となるユーザの動きに追従させる。この場合、現在位置から目標位置までの加速度が所定の閾値を超えないように制御する必要がある。 If the acceleration of the first position / posture change acquired after a certain period of time has elapsed does not exceed a predetermined threshold value, the current position is changed to the target position based on the first position / posture change to present the current position. Make the position follow the movement of the main user. In this case, it is necessary to control the acceleration from the current position to the target position so as not to exceed a predetermined threshold value.
例えば、図9(B)の実線822に示すように、位置を急激に変化させると、図8(A)の場合と同様に、時点XPにおいて加速度が所定の閾値を超えてしまう可能性がある。そこで、現在位置を目標位置に変更する場合、図9(C)の実線825に示すように、位置姿勢変化補正部302は、位置を緩やかに変化させるような制御を行うのが望ましい。
For example, as shown by the
また、第1の位置姿勢変化の補正パラメータは、第1のディスプレイ110に表示すべき第1の表示範囲内の画素の奥行き情報に基づき閾値817,818の値TH_H,TH_Lを制御することで、変更することが可能である。例えば、位置姿勢変化補正パラメータ算出部301は、補正処理の対象となる第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報に基づき、閾値817,818の値TH_H,TH_Lを制御する。
Further, the correction parameter of the first position / orientation change controls the values TH_H and TH_L of the threshold values 817 and 818 based on the depth information of the pixels in the first display range to be displayed on the
第1の位置姿勢変化の(Xpd,Ypd)と対をなす奥行き情報をZdとすると、Zdは2つの定数の間の値として表現できる。また、Zdが小さいほど奥行き情報としての奥行きが小さいと定義した場合、TH_HおよびTH_Lは、
TH_H=c×Zd ・・・式(19)
TH_L=TH_H ・・・式(20)
と表現される。但し、cは任意の定数である。
Assuming that the depth information paired with (Xpd, Ypd) of the first position-posture change is Zd, Zd can be expressed as a value between two constants. Further, when it is defined that the smaller the Zd is, the smaller the depth as the depth information is, TH_H and TH_L are
TH_H = c × Zd ・ ・ ・ Equation (19)
TH_L = TH_H ... Equation (20)
It is expressed as. However, c is an arbitrary constant.
式(19)および式(20)によれば、例えば、風景のように奥行きがあるシーンの場合、Zdが大きな値となるため、それに比例してTH_HおよびTH_Lも大きな値となり、結果として、閾値処理部602の効果を弱めることができる。反対に、近くにものがあるシーンの場合、Zdが小さな値となるため、それに比例してTH_H,TH_Lも小さな値となり、結果として、閾値処理部602の効果を強めることができる。
According to the equations (19) and (20), for example, in the case of a scene having a depth such as a landscape, Zd becomes a large value, so TH_H and TH_L also become a large value in proportion to the value, and as a result, the threshold value becomes large. The effect of the
以上のように、画像データの奥行き情報に基づき、TH_HおよびTH_Lを変えることで、補正処理における補正度合、すなわち第1の位置姿勢変化から主となるユーザの急な動きとして排除される位置姿勢変化の度合い、を変更可能となる。 As described above, by changing TH_H and TH_L based on the depth information of the image data, the degree of correction in the correction process, that is, the position / posture change excluded as a sudden movement of the main user from the first position / posture change. The degree of can be changed.
図10は、第1の表示領域と第2の表示領域との関係を示す。
図10(A)は、主となるユーザが装着する第1のディスプレイ110に表示すべき第1の表示画像の第1の表示領域の例である。図10(B)は、従となるユーザが装着する第2のディスプレイ120に表示すべき第2の表示画像の第2の表示領域の例である。
FIG. 10 shows the relationship between the first display area and the second display area.
FIG. 10A is an example of a first display area of a first display image to be displayed on a
本例は、画像データの垂直方向901と水平方向902に対して、主となるユーザの第1の位置姿勢変化が中心座標(x,y)906を中心にして回転角905だけ回転した場合を例とする。第1の位置姿勢変化に基づく第1の表示領域907は、垂直方向903と水平方向904とを有する。
This example is a case where the first position / posture change of the main user is rotated by the
この時、第1の表示領域907における中心座標(x,y)906は、例えば、第1のディスプレイ110で検出された座標となり、式(13)より、
(x,y)=(Xpd,Ypd) ・・・式(21)
と表現される。
また、回転角905は、式(12)から算出できる。
At this time, the center coordinates (x, y) 906 in the
(X, y) = (Xpd, Ypd) ... Equation (21)
It is expressed as.
Further, the
従って、第1の表示領域907は、式(21)と、回転角905と、第1のディスプレイ110の画像表示部112に表示可能な画像サイズと、に基づき決定できる。
Therefore, the
また、第2の表示領域912は、第1の表示領域907と、従となるユーザの第2の位置姿勢変化と、に基づき決定できる。本例は、画像データの垂直方向901と水平方向902に対して、従となるユーザの第2の位置姿勢変化が中心座標(x,y)911を中心にして回転角910だけ回転した場合を例とする。第2の位置姿勢変化に基づく第2の表示領域912は、垂直方向908と水平方向909とを有する。
Further, the
この時、第2の表示領域912における中心座標(x,y)911は、上述の補正処理が行われた第1の位置姿勢変化に基づき算出された第1の表示領域(補正表示領域)907の中心座標(x,y)906とする。また、回転角910は、式(12)から算出できる。従って、第2の表示領域912は、式(21)と、回転角910と、第2のディスプレイ120の画像表示部122に表示可能な画像サイズと、に基づき決定できる。
At this time, the center coordinates (x, y) 911 in the
図11は、第2の表示領域を算出する例を示す。
本例は、補正表示領域に基づき画像データの切り出し領域を決定し、画像データの切り出し領域から第2の表示領域を算出する例である。なお、補正表示領域、第2の表示領域、および切り出し領域を算出する動作は、表示領域算出部303により実行される。
FIG. 11 shows an example of calculating the second display area.
This example is an example in which the cutout area of the image data is determined based on the corrected display area, and the second display area is calculated from the cutout area of the image data. The operation of calculating the correction display area, the second display area, and the cutout area is executed by the display
図11(A)では、表示領域算出部303は、補正表示領域1001内において、第2の位置姿勢変化に基づき、画像データの切り出し領域1002を決定する。また、表示領域算出部303は、第2のディスプレイ120の画像表示部122に表示可能な画像サイズに基づき、切り出し領域1002を拡大することにより、第2の表示領域を算出する。
In FIG. 11A, the display
図11(B)では、表示領域算出部303は、第2の位置姿勢変化に基づき、補正表示領域1001を含む切り出し領域1003を決定する。また、表示領域算出部303は、第2のディスプレイ120の画像表示部122に表示可能な画像サイズに基づき、切り出し領域1003を縮小することにより、第2の表示領域を算出する。
In FIG. 11B, the display
そして、表示画像生成部304は、第1の表示領域に基づき第1の表示画像を生成し、かつ第1の表示画像を第1のディスプレイ110の画像表示部112に供給する。また、表示画像生成部304は、第2の表示領域に基づき第2の表示画像を生成し、かつ第2の表示画像を第2のディスプレイ120の画像表示部122に供給する。
Then, the display
なお、第1の実施形態では、ロール(面内回転)の位置姿勢変化制御について説明したが、ヨーピッチ(あおり)成分、または前後/左右/上下の位置成分の制御について第1の実施形態を適用することも可能である。 In the first embodiment, the position / posture change control of the roll (in-plane rotation) has been described, but the first embodiment is applied to the control of the yaw pitch (tilt) component or the front / rear / left / right / up / down position component. It is also possible to do.
以上、説明したように、第1の実施形態によれば、補正処理が行われている第1の位置姿勢変化に基づき補正表示領域が算出され、かつ補正表示領域の中心座標が算出される。また、この中心座標を基準にして第2の位置姿勢変化に基づき第2の表示領域が算出される。すなわち、第2の表示領域は、主となるユーザの急な動きに起因する要素を含まない。 As described above, according to the first embodiment, the correction display area is calculated based on the first position / posture change in which the correction processing is performed, and the center coordinates of the correction display area are calculated. Further, the second display area is calculated based on the second position / posture change with reference to the center coordinates. That is, the second display area does not include elements caused by the sudden movement of the main user.
従って、従となるユーザは、第2の表示領域に基づき生成された第2の表示画像を視聴することにより、視覚的な不快感または映像酔いが低減される。一方、第1の表示領域は、補正処理が行われていない第1の位置姿勢変化に基づき生成されるため、主となるユーザは、自らの動きをそのまま第1の表示画像として視聴可能となる。 Therefore, the subordinate user can reduce the visual discomfort or the image sickness by viewing the second display image generated based on the second display area. On the other hand, since the first display area is generated based on the first position / posture change that has not been corrected, the main user can view his / her movement as it is as the first display image. ..
(第2の実施形態)
図12は、HMDシステムの例を示す。
第2の実施形態は、画像処理装置100が管理サーバ1100内に搭載される場合の例である。
(Second embodiment)
FIG. 12 shows an example of an HMD system.
The second embodiment is an example in which the
このHMDシステムは、管理サーバ1100と、第1のディスプレイ(ディスプレイ装置)1110と、第2のディスプレイ(ディスプレイ装置)1120と、を備える。第1および第2のディスプレイ1110,1120の定義については、第1の実施形態と同じである。また、複数のヘッドマウントディスプレイの数についても、第1の実施形態と同様に、2つに限られず、3つ以上であっても構わない。但し、複数のヘッドマウントディスプレイのうちの1つは、主となるユーザが装着するディスプレイとして機能し、残りは、従となるユーザが装着するディスプレイとして機能する。
This HMD system includes a
管理サーバ1100は、画像処理装置100と、外部通信インタフェース1101と、CPU1102と、メモリ1103と、を備える。画像処理装置100は、画像データ入力部101と、画像メモリ102と、画像領域制御部103と、を備える。これら画像データ入力部101、画像メモリ102、および画像領域制御部103は、第1の実施形態で既に説明したので、ここでの説明を省略する。
The
外部通信インタフェース1101は、CPU1102からの指示に基づき、第1および第2のディスプレイ1110,1120の外部通信インタフェース1114,1124と通信を行う。CPU1102は、画像処理装置100、外部インタフェース1101、およびメモリ1103を制御する。メモリ1103は、CPU1102からの指示に基づき、所定の情報を記憶する。所定の情報は、第1および第2の位置姿勢変化、第1および第2の表示画像、後述する第1および第2の主従信号など、の情報を含む。
The
第1のディスプレイ1110は、位置姿勢変化検出部1111と、画像表示部1112と、主従選択部1113と、外部通信インタフェース1114と、を備える。同様に、第2のディスプレイ1120は、位置姿勢変化検出部1121と、画像表示部1122と、主従選択部1123と、外部通信インタフェース1124と、を備える。
The
第1および第2のディスプレイ1110,1120において、位置姿勢変化検出部1111,1121および画像表示部1112,1122は、第1の実施形態における位置姿勢変化検出部111,121および画像表示部112,122と同じである。第2の実施形態では、第1および第2のディスプレイ1110,1120は、さらに、主従選択部1113,1123および外部通信インタフェース1114,1124を備える。
In the first and
主従選択部1113,1123は、自らが主となるユーザに装着される第1のディスプレイ1110となるか、または従となるユーザに装着される第2のディスプレイ1120となるかを選択する。この選択は、例えば、ユーザが各ディスプレイに装着されたスイッチ等の選択手段により実行する。
The master-
本例では、第1のディスプレイ1110は、主となるユーザに装着される。このため、主従選択部1113は、第1のディスプレイ1110が主となるユーザに装着されていることを示す第1の主従信号を、外部通信インタフェース1114から管理サーバ1100の外部通信インタフェース1101に送信する。また、第2のディスプレイ1120は、従となるユーザに装着される。このため、主従選択部1123は、第2のディスプレイ1120が従となるユーザに装着されていることを示す第2の主従信号を、外部通信インタフェース1124から管理サーバ1100の外部通信インタフェース1101に送信する。
In this example, the
従って、画像処理装置100は、CPU1102を介して、第1の主従信号を受信することにより、第1のディスプレイ1110が主となるユーザに装着されていることを確認できる。また、画像処理装置100は、CPU1102を介して、第2の主従信号を受信することにより、第2のディスプレイ1120が従となるユーザに装着されていることを確認できる。
Therefore, the
このようなシステムによれば、画像処理装置100が第1及び第2のディスプレイ1110,1120とは異なる管理サーバ1100内に搭載されても、主となるユーザの急な動きが従となるユーザのディスプレイに反映されなくすることができる。従って、第2の実施形態においても、従となるユーザに視覚的な不快感または映像酔いを引き起こさせない、という効果が実現できる。
According to such a system, even if the
次に、図12のHMDシステムの動作を説明する。
以下の説明では、図13のフローチャートをベースにHMDシステムの動作を説明する。
Next, the operation of the HMD system of FIG. 12 will be described.
In the following description, the operation of the HMD system will be described based on the flowchart of FIG.
まず、ステップS1201において、画像データを準備する。すなわち、画像データは、画像データ入力部101に入力され、かつ画像データ入力部101を経由して画像メモリ102に記憶される。次に、ステップS1202において、位置姿勢変化検出部1111は、第1の位置姿勢変化を検出し、かつ主従選択部1113は、第1の主従信号を検出する。
First, in step S1201, image data is prepared. That is, the image data is input to the image
次に、ステップS1203において、外部通信インタフェース1114は、第1の位置姿勢変化および第1の主従信号を管理サーバ1100に送信する。CPU1102は、これら第1の位置姿勢変化および第1の主従信号をメモリ1103内に記憶させる。
Next, in step S1203, the
次に、ステップS1204において、表示領域制御部103は、第1のディスプレイ1110に表示すべき第1の表示画像を生成するか、または第2のディスプレイ1120に表示すべき第2の表示画像を生成するか、を決定する。
Next, in step S1204, the display
第1のディスプレイ1110に表示すべき第1の表示画像を生成する場合、表示領域制御部103は、第1の主従信号から、第1のディスプレイ1110が主となるユーザに装着されるものであることを確認できるため、ステップS1205へ進む。
When generating the first display image to be displayed on the
第1の表示画像は、以下のステップS1205~S1208により生成され、かつ第1のディスプレイ1110に表示される。
The first display image is generated by the following steps S1205 to S1208 and is displayed on the
まず、ステップS1205において、画像領域制御部103は、第1の位置姿勢変化に基づき、第1のディスプレイ1110の画像表示部1112に表示すべき第1の表示領域を生成する。
First, in step S1205, the image
次に、ステップS1206において、画像領域制御部103は、画像データ、およびステップS1205で生成した第1の表示領域に基づき、第1のディスプレイ1110の画像表示部1112に表示すべき第1の表示画像を生成する。
Next, in step S1206, the image
そして、ステップS1207において、画像領域制御部103は、第1の表示画像をCPU1102に供給する。また、CPU1102は、外部通信インタフェース1101を用いて、第1の表示画像を第1のディスプレイ1110に送信する。最後に、ステップST1208において、第1の表示画像は、第1のディスプレイ1110の画像表示部1112に表示される。
Then, in step S1207, the image
一方、第2の表示画像は、以下のステップS1209~S1214により生成され、かつ第2のディスプレイ1120に表示される。
On the other hand, the second display image is generated by the following steps S1209 to S1214 and is displayed on the
まず、ステップS1209において、位置姿勢変化検出部1121は、第2の位置姿勢変化を検出し、かつ主従選択部1123は、第2の主従信号を検出する。
First, in step S1209, the position / attitude change detection unit 1121 detects the second position / attitude change, and the master-
次に、ステップS1210において、外部通信インタフェース1124は、第2の位置姿勢変化および第2の主従信号を管理サーバ1100に送信する。CPU1102は、これら第2の位置姿勢変化および第2の主従信号をメモリ1103内に記憶させる。
Next, in step S1210, the
また、ステップS1211において、画像領域制御部103は、第1の位置姿勢変化および第2の位置姿勢変化に基づき、第2のディスプレイ1120の画像表示部1122に表示すべき第2の表示領域を生成する。ここで、第2のディスプレイ1120に表示すべき第2の表示画像を生成する場合、表示領域制御部103は、第2の主従信号から、第2のディスプレイ1120が従となるユーザに装着されるものであることを確認できる。
Further, in step S1211, the image
次に、ステップS1212において、画像領域制御部103は、画像データ、およびステップS1211で生成した第2の表示領域に基づき、第2のディスプレイ1120の画像表示部1122に表示すべき第2の表示画像を生成する。
Next, in step S1212, the image
そして、ステップS1213において、画像領域制御部103は、第2の表示画像をCPU1102に供給する。また、CPU1102は、外部通信インタフェース1101を用いて、第2の表示画像を第2のディスプレイ1120に送信する。最後に、ステップST1214において、第2の表示画像は、第2のディスプレイ1120の画像表示部1122に表示される。
Then, in step S1213, the image
なお、上述のステップS1205において第1の表示領域を生成する方法は、第1の実施形態と同じであるため、ここでの説明を省略する。同様に、上述のステップS1211において第2の表示領域を生成する方法も、第1の実施形態と同じであるため、ここでの説明を省略する。 Since the method of generating the first display area in step S1205 is the same as that of the first embodiment, the description thereof will be omitted here. Similarly, the method of generating the second display area in step S1211 described above is the same as that of the first embodiment, and thus the description thereof is omitted here.
このように、第2の実施形態によれば、管理サーバ1100は、第1のディスプレイ1110で検出した第1の位置姿勢変化および第1の主従信号に基づき第1の表示画像を生成し、かつ第1の表示画像を第1のディスプレイ1110に送信する。従って、第1のディスプレイ1110は、主となるユーザの動き(第1の位置姿勢変化)がそのまま反映された第1の表示画像を画像表示部1112に表示できる。また、第2のディスプレイ1120は、主となるユーザの急な動きが排除された補正表示領域、および従となるユーザの動き(第2の位置姿勢変化)に基づき生成された第2の表示画像を画像表示部1122に表示できる。
As described above, according to the second embodiment, the
(その他の実施形態)
本発明は、上述の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステム/装置に供給し、そのシステム/装置のコンピュータにおける1つ以上のプロセッサが該プログラムを実行する場合にも適用可能である。また、本発明は、上述の1つ以上の機能を所定の回路(例えば、ASIC)によって実現することも可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more of the above functions to a system / device via a network or storage medium, and one or more processors in the computer of the system / device execute the program. It is also applicable to. The present invention can also realize one or more of the above-mentioned functions by a predetermined circuit (for example, ASIC).
(むすび)
以上、説明したように、本発明の例によれば、1つの画像を複数のヘッドマウントディスプレイに表示する場合に、主となるユーザの急な動きが従となるユーザのディスプレイに反映されなくすることができる。これにより、従となるユーザは、視覚的な不快感または映像酔いが低減される。
(Conclusion)
As described above, according to the example of the present invention, when one image is displayed on a plurality of head-mounted displays, the sudden movement of the main user is not reflected on the display of the subordinate user. be able to. This reduces visual discomfort or video sickness for the subordinate user.
本発明は、上述の実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and modifications can be made within the scope of the gist thereof.
100 画像処理装置
101 画像データ入力部
102 画像メモリ
103 表示領域制御部
110 第1のディスプレイ
111 位置姿勢変化検出部
112 画像表示部
120 第2のディスプレイ
121 位置姿勢変化検出部
122 画像表示部
301 位置姿勢変化補正パラメータ算出部
302 位置姿勢変化補正部
303 表示領域算出部
304 表示画像生成部
1100 サーバ
1101 外部通信インタフェース
1102 CPU
1103 メモリ
1110 第1のディスプレイ
1111 位置姿勢変化検出部
1112 画像表示部
1113 主従選択部
1114 外部通信インタフェース
1120 第2のディスプレイ
1121 位置姿勢変化検出部
1122 画像表示部
1123 主従選択部
1124 外部通信インタフェース
100
1103
Claims (16)
前記複数のディスプレイ装置のうち第1のディスプレイ装置を装着する主となるユーザの第1の位置姿勢変化を取得し、かつ前記複数のディスプレイ装置のうち第2のディスプレイ装置を装着する従となるユーザの第2の位置姿勢変化を取得する取得手段と、
前記第1の位置姿勢変化から前記主となるユーザの急な動きに起因する位置姿勢変化を除外する補正処理を行う位置姿勢変化補正手段と、
前記補正処理が行われていない前記第1の位置姿勢変化に基づき第1の表示領域を算出し、前記補正処理が行われている前記第1の位置姿勢変化に基づき補正表示領域を算出し、かつ前記補正表示領域の中心座標を基準にして前記第2の位置姿勢変化に基づき第2の表示領域を算出する表示領域算出手段と、
前記画像データおよび前記第1の表示領域に基づき前記第1のディスプレイ装置に表示すべき第1の表示画像を生成し、かつ前記画像データおよび前記第2の表示領域に基づき前記第2のディスプレイ装置に表示すべき第2の表示画像を生成する表示画像生成手段と、を備える
ことを特徴とする画像処理装置。 An image processing device that generates a display image to be displayed on a display device based on a change in the position and posture of a user who wears each display device when displaying image data on a plurality of wearable display devices.
A subordinate user who acquires the first position / posture change of the main user who wears the first display device among the plurality of display devices and wears the second display device among the plurality of display devices. The acquisition means for acquiring the second position / attitude change of
A position / posture change correction means that performs correction processing for excluding the position / posture change caused by the sudden movement of the main user from the first position / posture change.
The first display area is calculated based on the first position / posture change in which the correction process is not performed, and the correction display area is calculated based on the first position / posture change in which the correction process is performed. In addition, a display area calculation means for calculating a second display area based on the second position / posture change with reference to the center coordinates of the correction display area, and
A first display image to be displayed on the first display device is generated based on the image data and the first display area, and the second display device is based on the image data and the second display area. An image processing apparatus comprising: a display image generation means for generating a second display image to be displayed on the screen.
ことを特徴とする請求項1に記載の画像処理装置。 Each of the first and second display devices includes an accelerometer and a gyro sensor.
The image processing apparatus according to claim 1.
ことを特徴とする請求項1または2に記載の画像処理装置。 When the frequency of the first position / posture change is larger than a predetermined threshold value, the position / posture change correction means performs the correction process by excluding the position / posture change related to the frequency by a low-pass filter.
The image processing apparatus according to claim 1 or 2.
前記位置姿勢変化補正手段は、前記第1の表示領域の画素の奥行き情報に基づき前記所定の閾値を設定する、
請求項3に記載の画像処理装置。 The image data has color information and depth information for each pixel.
The position / posture change correction means sets the predetermined threshold value based on the depth information of the pixels in the first display area.
The image processing apparatus according to claim 3.
ことを特徴とする請求項1または2に記載の画像処理装置。 The position / posture change correction means performs the correction process so that there is no first position / posture change when the acceleration of the first position / posture change is larger than a predetermined threshold value.
The image processing apparatus according to claim 1 or 2.
前記位置姿勢変化補正手段は、前記第1の表示領域の画素の奥行き情報に基づき前記所定の閾値を設定する、
請求項5に記載の画像処理装置。 The image data has color information and depth information for each pixel.
The position / posture change correction means sets the predetermined threshold value based on the depth information of the pixels in the first display area.
The image processing apparatus according to claim 5.
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The display area calculation means determines a cutout area based on the second position / posture change in the correction display area, and calculates the second display area by enlarging the cutout area.
The image processing apparatus according to any one of claims 1 to 6.
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The display area calculation means determines a cutout area including the correction display area based on the second position / posture change, and determines the second display area by reducing the cutout area.
The image processing apparatus according to any one of claims 1 to 6.
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The first display device includes an image display means for displaying the first display image, and the second display device includes an image display means for displaying the second display image.
The image processing apparatus according to any one of claims 1 to 8.
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing device is provided independently of the plurality of display devices.
The image processing apparatus according to any one of claims 1 to 9.
前記第1の位置姿勢変化を前記第1のディスプレイ装置から受信し、かつ前記第2の位置姿勢変化を前記第2のディスプレイ装置から受信する受信手段と、
前記第1の表示画像を前記第1のディスプレイ装置に送信し、かつ前記第2の表示画像を前記第2のディスプレイ装置に送信する送信手段と、を備える、
ことを特徴とする請求項10に記載の画像処理装置。 When the image processing device is installed in a management server that manages the plurality of display devices, the image processing device may be installed.
A receiving means for receiving the first position / orientation change from the first display device and receiving the second position / attitude change from the second display device.
A transmission means for transmitting the first display image to the first display device and transmitting the second display image to the second display device is provided.
The image processing apparatus according to claim 10.
前記画像処理装置が搭載されるディスプレイ装置が前記第1のディスプレイ装置でない場合に、前記画像処理装置は、前記第1の表示画像を前記第1のディスプレイ装置に送信する送信手段をさらに備える、
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing device is mounted on one of the plurality of display devices.
When the display device on which the image processing device is mounted is not the first display device, the image processing device further includes a transmission means for transmitting the first display image to the first display device.
The image processing apparatus according to any one of claims 1 to 9.
前記画像処理装置が搭載されるディスプレイ装置が前記第2のディスプレイ装置でない場合に、前記画像処理装置は、前記第2の表示画像を前記第2のディスプレイ装置に送信する送信手段をさらに備える、
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing device is mounted on one of the plurality of display devices.
When the display device on which the image processing device is mounted is not the second display device, the image processing device further includes a transmission means for transmitting the second display image to the second display device.
The image processing apparatus according to any one of claims 1 to 9.
ことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。 Each of the plurality of display devices includes a master-slave selection means for selecting whether the display device itself is a display device worn by the main user or a display device worn by the slave user.
The image processing apparatus according to any one of claims 1 to 13.
前記複数のディスプレイ装置のうち第1のディスプレイ装置を装着する主となるユーザの第1の位置姿勢変化を取得し、かつ前記複数のディスプレイ装置のうち第2のディスプレイ装置を装着する従となるユーザの第2の位置姿勢変化を取得する取得工程と、
前記第1の位置姿勢変化から前記主となるユーザの急な動きに起因する位置姿勢変化を除外する補正処理を行う位置姿勢変化補正工程と、
前記補正処理が行われていない前記第1の位置姿勢変化に基づき第1の表示領域を算出し、前記補正処理が行われている前記第1の位置姿勢変化に基づき補正表示領域を算出し、かつ前記補正表示領域の中心座標を基準にして前記第2の位置姿勢変化に基づき第2の表示領域を算出する表示領域算出工程と、
前記画像データおよび前記第1の表示領域に基づき前記第1のディスプレイ装置に表示すべき第1の表示画像を生成し、かつ前記画像データおよび前記第2の表示領域に基づき前記第2のディスプレイ装置に表示すべき第2の表示画像を生成する表示画像生成工程と、を備える
ことを特徴とする画像処理方法。 An image processing method for generating a display image to be displayed on a display device based on a change in the position and posture of a user who wears each display device when displaying image data on a plurality of wearable display devices.
A subordinate user who acquires the first position / posture change of the main user who wears the first display device among the plurality of display devices and wears the second display device among the plurality of display devices. The acquisition process to acquire the second position / attitude change of
A position / posture change correction step of performing a correction process for excluding the position / posture change caused by the sudden movement of the main user from the first position / posture change.
The first display area is calculated based on the first position / posture change in which the correction process is not performed, and the correction display area is calculated based on the first position / posture change in which the correction process is performed. In addition, a display area calculation step of calculating a second display area based on the second position / posture change with reference to the center coordinates of the correction display area, and
A first display image to be displayed on the first display device is generated based on the image data and the first display area, and the second display device is based on the image data and the second display area. An image processing method comprising: a display image generation step of generating a second display image to be displayed in.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018077057A JP7057197B2 (en) | 2018-04-12 | 2018-04-12 | Image processing equipment, image processing methods, and programs |
JP2022060649A JP7419424B2 (en) | 2018-04-12 | 2022-03-31 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018077057A JP7057197B2 (en) | 2018-04-12 | 2018-04-12 | Image processing equipment, image processing methods, and programs |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022060649A Division JP7419424B2 (en) | 2018-04-12 | 2022-03-31 | Image processing device, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019184883A JP2019184883A (en) | 2019-10-24 |
JP7057197B2 true JP7057197B2 (en) | 2022-04-19 |
Family
ID=68340980
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018077057A Active JP7057197B2 (en) | 2018-04-12 | 2018-04-12 | Image processing equipment, image processing methods, and programs |
JP2022060649A Active JP7419424B2 (en) | 2018-04-12 | 2022-03-31 | Image processing device, image processing method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022060649A Active JP7419424B2 (en) | 2018-04-12 | 2022-03-31 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7057197B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12044845B2 (en) * | 2021-03-29 | 2024-07-23 | Tencent America LLC | Towards subsiding motion sickness for viewport sharing for teleconferencing and telepresence for remote terminals |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299326A (en) | 2006-05-02 | 2007-11-15 | Canon Inc | Information processor, its control method, image processor, program and storage medium |
WO2012063542A1 (en) | 2010-11-09 | 2012-05-18 | 富士フイルム株式会社 | Device for providing augmented reality |
US20160364198A1 (en) | 2015-06-11 | 2016-12-15 | Samsung Electronics Co., Ltd. | Method for sharing images and electronic device performing thereof |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010217719A (en) | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | Wearable display device, and control method and program therefor |
JP6428268B2 (en) | 2013-01-24 | 2018-11-28 | ソニー株式会社 | Image display device, image display method, and image display system |
JP2015019679A (en) | 2013-07-16 | 2015-02-02 | セイコーエプソン株式会社 | Information processing device, information processing method, and information processing system |
JP6308842B2 (en) | 2014-03-31 | 2018-04-11 | 株式会社日本総合研究所 | Display system and program |
JP6585929B2 (en) | 2015-06-02 | 2019-10-02 | キヤノン株式会社 | System, control method of system |
EP3496044A4 (en) | 2016-07-15 | 2019-10-09 | Nurve, Inc. | Image display device and image display system |
KR20180017736A (en) * | 2016-08-10 | 2018-02-21 | (주) 씽크브릿지 | Head mounted display and method for controlling the same |
US10613703B2 (en) | 2017-08-18 | 2020-04-07 | Adobe Inc. | Collaborative interaction with virtual reality video |
-
2018
- 2018-04-12 JP JP2018077057A patent/JP7057197B2/en active Active
-
2022
- 2022-03-31 JP JP2022060649A patent/JP7419424B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299326A (en) | 2006-05-02 | 2007-11-15 | Canon Inc | Information processor, its control method, image processor, program and storage medium |
WO2012063542A1 (en) | 2010-11-09 | 2012-05-18 | 富士フイルム株式会社 | Device for providing augmented reality |
US20160364198A1 (en) | 2015-06-11 | 2016-12-15 | Samsung Electronics Co., Ltd. | Method for sharing images and electronic device performing thereof |
Also Published As
Publication number | Publication date |
---|---|
JP7419424B2 (en) | 2024-01-22 |
JP2019184883A (en) | 2019-10-24 |
JP2022104972A (en) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6092437B1 (en) | Virtual space image providing method and program thereof | |
JP5996814B1 (en) | Method and program for providing image of virtual space to head mounted display | |
JP6002286B1 (en) | Head mounted display control method and head mounted display control program | |
JP6540691B2 (en) | Head position detection device and head position detection method, image processing device and image processing method, display device, and computer program | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
US10871822B2 (en) | Image generation apparatus, image generation system, and image generation method | |
EP3588447B1 (en) | Image processing device, image processing method, and image system | |
JP6899875B2 (en) | Information processing device, video display system, information processing device control method, and program | |
JPWO2016017245A1 (en) | Information processing apparatus, information processing method, and image display system | |
JP5869712B1 (en) | Head-mounted display system and computer program for presenting a user's surrounding environment in an immersive virtual space | |
JP2017021824A (en) | Head-mounted display control method and head-mounted display control program | |
EP3510437B1 (en) | Hmd delivery system and method | |
JP7419424B2 (en) | Image processing device, image processing method, and program | |
JP2018147086A (en) | Information processing method, program, virtual space distribution system, and device | |
JP2002312117A (en) | Cylindrical image spherical image control device | |
US20200241633A1 (en) | Display device and display device control method | |
KR101951406B1 (en) | Head mounted display and operating method for reducing virtual reality sickness | |
JP6289703B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP6738308B2 (en) | Information processing method, program, virtual space distribution system and device | |
JP2021022075A (en) | Video display control apparatus, method, and program | |
JP2017142769A (en) | Method and program for providing head-mounted display with virtual space image | |
CN114556187B (en) | Head mounted display device and display content control method | |
JP2023096844A (en) | Program, information processing method, and information processing apparatus | |
CN114253389A (en) | Augmented reality system and augmented reality display method integrating motion sensor | |
JP2020134615A (en) | Image adjustment system, image adjustment device, and image adjustment method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220407 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7057197 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |