JP2001269485A - Entertainment device, storage medium, and displayed object operating method - Google Patents
Entertainment device, storage medium, and displayed object operating methodInfo
- Publication number
- JP2001269485A JP2001269485A JP2001012276A JP2001012276A JP2001269485A JP 2001269485 A JP2001269485 A JP 2001269485A JP 2001012276 A JP2001012276 A JP 2001012276A JP 2001012276 A JP2001012276 A JP 2001012276A JP 2001269485 A JP2001269485 A JP 2001269485A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- operation target
- coordinate value
- predetermined
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ジョイスティック
などの操作軸を備えた操作装置を介して受け付けた操作
者の操作内容に応じて、表示装置に表示される仮想的な
世界中のオブジェクトの移動を制御する技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the movement of virtual objects around the world displayed on a display device in accordance with the operation contents of an operator received via an operation device having an operation axis such as a joystick. Related to the technology of controlling.
【0002】[0002]
【従来の技術】近年、3次元グラフィックアニメーショ
ンを利用して、フライトシミュレーションやドライブシ
ミュレーションなどを行うことが可能な、テレビゲーム
機などのエンタテインメント装置が普及している。2. Description of the Related Art In recent years, entertainment devices, such as video game machines, capable of performing flight simulation, drive simulation, and the like using three-dimensional graphic animation, have become widespread.
【0003】この種のエンタテインメント装置では、操
作者(プレイヤ)は、当該装置に接続された、操作軸と
操作ボタンを備えたアナログジョイスティックやゲーム
コントローラなどの操作装置を使用して、飛行機、自動
車などを表すオブジェクトを操作し、仮想的な3次元世
界中を移動させることができる。当該エンタテインメン
ト装置は、この3次元世界中を移動するオブジェクトを
仮想的なカメラで撮影することで得られる動画像を生成
し、当該装置に接続された表示装置の表示画面に表示す
る。[0003] In this type of entertainment apparatus, an operator (player) uses an operating device such as an analog joystick having an operation axis and operation buttons, a game controller, or the like, connected to the apparatus, to operate an airplane, an automobile, or the like. Can be moved around the virtual three-dimensional world. The entertainment device generates a moving image obtained by photographing the object moving in the three-dimensional world with a virtual camera, and displays the moving image on a display screen of a display device connected to the device.
【0004】従来、この種のエンタテイメント装置で
は、操作装置の操作軸に加えられた操作内容にしたがっ
て、仮想的な3次元世界中を移動するオブジェクトの姿
勢や移動方向を制御している。たとえば、フライトシミ
ュレーションでは、操作軸に操縦かんと同じ機能を持た
せ、操作軸に加えられた操作により、オブジェクトが表
す飛行機の左右の傾きや当該飛行機の機首の上下を決定
している。また、たとえば、ドライブシミュレーション
では、操作軸にハンドルと同じ機能を持たせ、操作軸に
加えられた操作により、オブジェクトが表す自動車のタ
イヤの向きを決定している。Conventionally, in this type of entertainment apparatus, the attitude and the moving direction of an object moving in a virtual three-dimensional world are controlled according to the operation content applied to the operation axis of the operation apparatus. For example, in a flight simulation, the operation axis has the same function as the control rod, and the operation applied to the operation axis determines the horizontal inclination of the airplane represented by the object and the vertical direction of the nose of the airplane. In the drive simulation, for example, the operation axis has the same function as the handle, and the direction of the tire of the vehicle represented by the object is determined by the operation applied to the operation axis.
【0005】[0005]
【発明が解決しようとする課題】ところで、現実の世界
において、操縦かんを用いて、飛行機を完全な旋回飛行
状態に移行させる行為や、ハンドルを用いて、自動車を
急回転させる行為などには、非常に高度な操縦が要求さ
れる。このため、上記従来のエンタテインメント装置の
ように、操作装置の操作軸に、操縦かんやハンドルと同
じ機能をそのまま持たせたのでは、不慣れなプレイヤに
とって、操作対象オブジェクトの操作が難し過ぎて、十
分にフライトシミュレーションやドライブシミュレーシ
ョンを楽しめなくなるかもしれない。By the way, in the real world, an act of shifting an airplane to a complete turning flight state by using a control rod or an act of rapidly turning a car by using a steering wheel include: Very advanced maneuvers are required. For this reason, if the operation axis of the operation device is provided with the same function as the steering wheel or handle as in the above-mentioned conventional entertainment device, it is too difficult for an inexperienced player to operate the operation target object, and You may not be able to enjoy flight simulation or drive simulation.
【0006】そこで、本発明は、不慣れなプレイヤで
も、フライトシミュレーションやドライブシミュレーシ
ョンなどを十分に楽しめることができるようにすること
を課題とする。Accordingly, an object of the present invention is to enable even an unskilled player to fully enjoy a flight simulation, a drive simulation, and the like.
【0007】[0007]
【課題を解決するための手段】前記課題達成のために、
本発明では、所定の支点を通る所定の軸に対し、当該支
点を中心にして傾倒可能に構成された操作軸を有する操
作装置を介して受け付けた操作者の操作内容に応じて、
仮想的な世界中を移動するオブジェクト(たとえば飛行
機や自動車を表すオブジェクト)を、表示装置に表示す
るエンタテインメント装置において、前記操作装置より
出力された、前記操作軸の前記所定の軸に対する傾き方
向とその角度より定まるX−Y座標上の座標値に応じた
信号に基づいて、前記オブジェクトの移動方向を決定す
るとともに、当該座標値が所定範囲にあるときは、前記
オブジェクトは特定の動作をするものとして、当該オブ
ジェクトの前記仮想的な世界中における動作を制御す
る。In order to achieve the above object,
In the present invention, for a predetermined axis passing through a predetermined fulcrum, according to the operation content of the operator received via an operation device having an operation axis configured to be tiltable about the fulcrum,
In an entertainment apparatus for displaying a virtual object (for example, an object representing an airplane or a car) moving around the world on a display device, a tilt direction of the operation axis with respect to the predetermined axis, which is output from the operation apparatus, and The moving direction of the object is determined based on a signal corresponding to a coordinate value on an XY coordinate determined from an angle. When the coordinate value is within a predetermined range, the object performs a specific operation. , Controlling the behavior of the object in the virtual world.
【0008】たとえば、前記エンタテインメント装置
が、前記操作装置を介して受け付けた操作者の操作内容
に応じて仮想的な3次元世界中を移動する飛行機を表す
オブジェクトを、仮想的なカメラで撮影することで得ら
れる動画像を、前記表示装置の表示画面上に表示するも
のである場合、前記操作内容受付手段は、前記操作装置
より出力された前記X−Y座標上の座標値に応じた信号
に基づいて、前記オブジェクトの移動方向(当該オブジ
ェクトが表す飛行機の左右の傾きや当該飛行機の機首の
上下)を決定するとともに、当該座標値が所定範囲にあ
るときは、前記オブジェクトは特定の動作(現実の世界
において、操縦が困難と思われる動作、たとえば急旋回
飛行)をするものとして、当該オブジェクトが前記特定
の動作を行うことができるように、前記オブジェクトの
移動方向を決定する。[0008] For example, the entertainment apparatus may use a virtual camera to photograph an object representing an airplane moving in a virtual three-dimensional world according to the operation contents of the operator received via the operation apparatus. When the moving image obtained in the above is to be displayed on the display screen of the display device, the operation content receiving means outputs a signal corresponding to the coordinate value on the XY coordinate output from the operation device. The moving direction of the object (horizontal inclination of the airplane represented by the object or up and down of the nose of the airplane) is determined based on the object, and when the coordinate value is within a predetermined range, the object performs a specific operation ( In the real world, it is assumed that the object performs the operation that is considered to be difficult to control (for example, a sharp turn flight). In order to be able to determine the moving direction of said object.
【0009】このようにすることで、不慣れなプレイヤ
であっても、操作軸に対する比較的簡単な操作で、現実
の世界において操縦が困難と思われる動作を、オブジェ
クトに行わせることが可能となる。したがって、不慣れ
なプレイヤでも、フライトシミュレーションやドライブ
シミュレーションなどを十分に楽しめることができ、娯
楽性が向上する。In this way, even an unskilled player can cause the object to perform an operation that is considered to be difficult to control in the real world by a relatively simple operation on the operation axis. . Therefore, even an unskilled player can fully enjoy the flight simulation, the drive simulation, and the like, and the amusement is improved.
【0010】[0010]
【発明の実施の形態】以下、本発明の一実施形態につい
て説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below.
【0011】まず、本発明の一実施形態に係るエンタテ
インメント装置のハードウエア構成について説明する。First, a hardware configuration of an entertainment apparatus according to an embodiment of the present invention will be described.
【0012】図1に本発明の一実施形態に係るエンタテ
インメント装置の外観を示す。FIG. 1 shows an appearance of an entertainment apparatus according to an embodiment of the present invention.
【0013】このエンタテインメント装置は、たとえ
ば、CD-ROMやDVD-ROMの光ディスク等に記憶されている
ゲームプログラムを読み出して、操作者(プレイヤ)か
らの指示に応じて実行するものである。なお、ゲームの
実行とは、主として、プレイヤからの指示に応じて、こ
のエンタテインメント装置に接続された表示装置(テレ
ビなど)の表示画面上に表示されている操作対象オブジ
ェクト(たとえば、飛行機や自動車などを表すオブジェ
クト)を動かし、これに伴い動画像の表示や音声を制御
して、ゲームを進行することをいう。This entertainment apparatus reads a game program stored on an optical disk such as a CD-ROM or a DVD-ROM, and executes it in response to an instruction from an operator (player). The execution of the game mainly refers to an operation target object (for example, an airplane or a car) displayed on a display screen of a display device (such as a television) connected to the entertainment device in response to an instruction from a player. Moving the object, and controlling the display and sound of the moving image in accordance with the movement of the moving object, thereby proceeding with the game.
【0014】図示するように、エンタテインメント装置
1の本体2は、その中央部にテレビゲーム等のアプリケー
ションプログラムやマルチメディアデータを供給するた
めの記録媒体であるCD-ROMやDVD-ROM等の光ティスクが
装着されるディスク装着部3と、ゲームをリセットする
ためのリセットスイッチ4と、電源スイッチ5と、光ディ
スクの装着を操作するためのディスク操作スイッチ6
と、たとえば2つのスロット部7A、7Bと、を備えてい
る。As shown, an entertainment device
A main body 2 of 1 has a disk mounting section 3 in the center of which an optical disk such as a CD-ROM or DVD-ROM as a recording medium for supplying an application program such as a video game or multimedia data is mounted, A reset switch 4 for resetting the game, a power switch 5, and a disk operation switch 6 for operating mounting of an optical disk.
And, for example, two slot portions 7A and 7B.
【0015】スロット部7A、7Bには、2つの操作装置20
を接続することができ、2人のプレイヤが対戦ゲームや
競争ゲームなどを行うことができる。また、このスロッ
ト部7A、7Bには、ゲームデータをセーブ(記憶)した
り、読み出すことができるメモリカード装置26や、本体
2と切り離してゲームを実行できる携帯用電子機器100を
装着することができる。Two operating devices 20 are provided in the slots 7A and 7B.
And two players can play a competitive game, a competitive game, and the like. The slot units 7A and 7B include a memory card device 26 capable of saving (storing) and reading game data, and a main body.
The portable electronic device 100 capable of executing a game separately from the portable electronic device 100 can be mounted.
【0016】操作装置20は、第1、第2の操作部21、22
と、Lボタン23Lと、Rボタン23Rと、スタートボタン24
と、選択ボタン25を有し、さらに、アナログ操作が可能
なアナログ操作部31、32と、これら操作部31、32の操作
モードを選択するモード選択スイッチ33と、選択された
操作モードを表示するための表示部34を有している。The operating device 20 includes first and second operating units 21 and 22.
, L button 23L, R button 23R, start button 24
, An analog operation unit 31, 32 having an operation button for selecting an operation mode of the operation unit 31, 32, and displaying the selected operation mode. Display unit 34 for display.
【0017】アナログ操作部31、32は、図2に示すよう
に、所定の支点aを通る所定の軸bに対し、支点aを中
心にして傾倒可能に且つ傾倒した状態で回転可能に構成
された操作軸31a、32aを有する。操作装置20は、操作軸
31a、32aの軸bに対する傾きとその傾き方向を検知し、
これらから定まるX−Y座標上の座標値に応じた信号を
出力する。この座標値は、図3に示すように、Y(垂
直)方向の値は操作軸31a、32aの上下方向の傾きに応じ
て「0」〜「255」の256段階の値で表現され、X
(水平)方向の値は、操作軸31a、32aの左右方向の傾き
に応じて「0」〜「255」の256段階の値で表現さ
れる。As shown in FIG. 2, the analog operation units 31 and 32 are configured to be tiltable about a fulcrum a and to be rotatable in a tilted state with respect to a predetermined axis b passing through a predetermined fulcrum a. Operating shafts 31a and 32a. The operation device 20 includes an operation axis
Detect the inclination of 31a, 32a with respect to axis b and the direction of the inclination,
A signal corresponding to the coordinate value on the XY coordinate determined from these is output. As shown in FIG. 3, the coordinate values in the Y (vertical) direction are represented by 256 levels of "0" to "255" in accordance with the vertical inclination of the operation axes 31a and 32a.
The value in the (horizontal) direction is represented by 256 levels of "0" to "255" according to the inclination of the operation axes 31a and 32a in the left-right direction.
【0018】次に、図4に、エンタテインメント装置1
の構成を示す。Next, FIG. 4 shows an entertainment device 1
Is shown.
【0019】図示するように、このエンタテインメント
装置1は、中央処理装置(CPU:CentRal Processing Uni
t)51およびその周辺装置等からなる制御系50と、フレ
ームバッファ63に描画を行なう画像処理装置(GPU:Grap
hic Processing Unit)62等からなるグラフィックシス
テム60と、楽音・効果音等のオーディオ信号を生成する
音声処理装置(SPU:Soud Processing Unit)71等からな
るサウンドシステム70と、アプリケーションプログラム
やマルチメディアデータが記録されている光ディスクの
制御を行なう光ディスク制御部80と、プレイヤからの指
示が入カされる操作装置20からの信号およびゲームの設
定等を記憶するメモリカード26や携帯用電子機器100か
らのデータの入出力を制御する通信制御部90と、上記の
各部が接続されているバスBUS等を備えている。As shown in the figure, the entertainment apparatus 1 has a central processing unit (CPU: CentRal Processing Uniform).
t) A control system 50 including 51 and its peripheral devices, and an image processing device (GPU: Graph:
hic Processing Unit) 62, a sound system 70 including an SPU (Soud Processing Unit) 71 for generating audio signals such as musical sounds and sound effects, and an application program and multimedia data. An optical disk control unit 80 for controlling the recorded optical disk, a signal from the operating device 20 to which an instruction from the player is input, a memory card 26 for storing game settings and the like, and data from the portable electronic device 100 A communication control unit 90 for controlling the input / output of the device and a bus BUS to which the above-mentioned units are connected are provided.
【0020】制御系50は、CPU51と、割り込み制御や
ダイレクトメモリアクセス(DMA:Direct Memory Acces
s)転送の制御等を行なう周辺装置制御部52と、ランダ
ムアクセスメモリ(RAM:Random Access Memory)からな
るメインメモリ(主記憶装置)53と、メインメモリ53や
グラフィックシステム60やサウンドシステム70等の管理
を行なう、いわゆるオペレーティングシステム等のプロ
グラムが格納されたリードオンリーメモリ(ROM:Read O
nly Memory)54と、を備えている。The control system 50 includes a CPU 51 and interrupt control and direct memory access (DMA).
s) Peripheral device control unit 52 that performs transfer control and the like, main memory (main storage device) 53 including a random access memory (RAM), and main memory 53, graphic system 60, sound system 70, and the like. A read-only memory (ROM: Read O
nly Memory) 54.
【0021】CPU51は、ROM54に記録されているオ
ペレーティングシステムを実行することにより、このエ
ンタテインメント装置1の全体を制御するもので、たと
えばRISC−CPUからなる。The CPU 51 controls the whole of the entertainment apparatus 1 by executing an operating system recorded in the ROM 54, and comprises, for example, a RISC-CPU.
【0022】そして、このエンタテインメント装置1
は、電源が投入されると、制御系50のCPU51がROM
54に記憶されているオペレーティングシステムを実行す
る。これにより、CPU51が、グラフィックシステム60
やサウンドシステム70等の制御を行なうようになってい
る。Then, the entertainment device 1
When the power is turned on, the CPU 51 of the control system 50
Run the operating system stored in 54. As a result, the CPU 51
And the sound system 70 and the like.
【0023】また、オペレーティングシステムが実行さ
れると、CPU51は、動作確認等のエンタテインメント
装置1全体の初期化を行った後、光ディスク制御部80を
制御して、光ディスクに記録されているゲーム等のアプ
リケーションプログラムを実行する。このゲーム等のプ
ログラムの実行により、CPU51は、プレイヤからの入
力に応じてグラフィックシスデム60やサウンドシステム
70等を制御して、画像の表示や効果音・楽音の発生を制
御する。When the operating system is executed, the CPU 51 initializes the entire entertainment apparatus 1 such as an operation check, and then controls the optical disk control unit 80 to execute a game or the like recorded on the optical disk. Execute the application program. By executing a program such as a game, the CPU 51 causes the graphics system 60 or the sound system 60 to respond to an input from a player.
70, etc., to control the display of images and the generation of sound effects and musical sounds.
【0024】また、グラフィックシステム60は、座標変
換等の処理を行なうジオメトリトランスファエンジン
(GTE:Geometry Transfer Engine)61と、CPU51から
の描画指示に従って描画を行なうGPU62と、このGP
U62により描画された画像を記憶するフレームバッファ
63と、離散コサイン変換等の直交変換により圧緒されて
符号化された画像データを復号する画像デコーダ64と、
を備えている。The graphic system 60 includes a geometry transfer engine (GTE: Geometry Transfer Engine) 61 for performing processing such as coordinate transformation, a GPU 62 for performing drawing in accordance with a drawing instruction from the CPU 51, and a GP 62.
Frame buffer for storing images drawn by U62
63, an image decoder 64 that decodes image data coded by being pressed by an orthogonal transform such as a discrete cosine transform,
It has.
【0025】GTE61は、たとえば複数の演算を並列に
実行する並列演算機構を備え、座標変換などの行列ある
いはベクトル等の演算を行なう。具体的には、このGT
E61は、たとえば、光ディスクに記録されているゲーム
等のアプリケーションプログラムがいわゆる3Dグラフ
ィックを利用する場合に、三角形状のポリゴンの集合で
仮想的な3次元オブジェクトを構成する。そして、この
3次元オブジェクトを仮想的なカメラで撮影することに
より得られる画像を生成するための諸計算、すなわち、
レンダリングを行う場合における透視変換(3次元オブ
ジェクトを構成する各ポリゴンの頂点を仮想的なカメラ
スクリーン上に投影した場合における座標値の計算)な
どを行う。The GTE 61 includes, for example, a parallel operation mechanism for executing a plurality of operations in parallel, and performs operations such as a matrix or a vector for coordinate transformation. Specifically, this GT
E61 forms a virtual three-dimensional object with a set of triangular polygons when, for example, an application program such as a game recorded on an optical disk uses so-called 3D graphics. Then, various calculations for generating an image obtained by photographing the three-dimensional object with a virtual camera, that is,
Perspective transformation (calculation of coordinate values when the vertices of each polygon constituting the three-dimensional object are projected on a virtual camera screen) in rendering is performed.
【0026】次に、GPU62は、CPU51からの命令に
従って、必要に応じてGTE61を利用しながら、フレー
ムバッファ63に対して3次元オブジェクトのレンダリン
グを行って、画像を作成する。そして、作成した画像を
表すビデオ信号を出力する。なお、レンダリングに用い
る隠線、隠面消去の手法としては、Zバッファ法、スキ
ャンライン法、レイトレーシング法などを使用する。陰
影付けを行うシェーディングの手法としては、フラット
シェーディング、グーローシェーディング、レイトレー
シング法などを使用する。また、3次元オブジェクトの
表面の表面材質や模様を表現する手法としてはテクスチ
ャマッピングなどを使用する。Next, the GPU 62 renders a three-dimensional object to the frame buffer 63 according to the instruction from the CPU 51 while using the GTE 61 as necessary, to create an image. Then, a video signal representing the created image is output. In addition, as a method of erasing hidden lines and hidden surfaces used for rendering, a Z buffer method, a scan line method, a ray tracing method, or the like is used. As shading methods for shading, flat shading, Gouraud shading, ray tracing, or the like is used. In addition, texture mapping or the like is used as a technique for expressing the surface material or pattern of the surface of the three-dimensional object.
【0027】次に、フレームバッファ63は、いわゆるデ
ュアルポートRAMからなり、GPU62のレンダリング
あるいはメインメモリからの転送と、表示のための読み
出しとを同時に行なうことができるようになっている。
また、このフレームバッファ63には、レンダリング、表
示のための読み出しが行われる画像領域の他に、前記テ
クスチャマッピングなどに用いられるテクスチャが記憶
されるテクスチヤ領域が設けられている。Next, the frame buffer 63 comprises a so-called dual port RAM, so that rendering of the GPU 62 or transfer from the main memory and reading for display can be performed simultaneously.
The frame buffer 63 is provided with a texture area in which a texture used for the texture mapping and the like is stored, in addition to an image area in which reading for rendering and display is performed.
【0028】次に、画像デコーダ64は、CPU51からの
制御により、メインメモリ53に記憶されている静止画あ
るいは動画の画像データを復号して、メインメモリ53に
記憶する。また、この再生された画像データは、GPU
62を介してフレームバッファ63に記憶することにより、
上述のGPU62によってレンダリングされる画像の背景
として使用することができるようになっている。Next, under the control of the CPU 51, the image decoder 64 decodes the still or moving image data stored in the main memory 53 and stores it in the main memory 53. The reproduced image data is stored in a GPU.
By storing in the frame buffer 63 via 62,
It can be used as a background of an image rendered by the GPU 62 described above.
【0029】次に、サウントシステム70は、CPU51か
らの指示に基づいて、楽音・効果音等のオーディオ信号
を出力するSPU71と、このSPU71により波形データ
等が記録されるサウンドバッファ72を備えている。Next, the sound system 70 includes an SPU 71 for outputting audio signals such as musical tones and sound effects based on an instruction from the CPU 51, and a sound buffer 72 in which waveform data and the like are recorded by the SPU 71. I have.
【0030】SPU71は、適応予測符号化(ADPCM:Adap
tive Differential PCM)された音声データを再生する
ADPCM復号機能と、サウンドバッファ72に記憶され
ている波形データを再生することにより、効果音等のオ
ーディオ信号を再生し出力する再生機能と、サウンドバ
ッファ72に記憶されている波形データを変調させて再生
する変調機能等を備えている。このような機能を備える
ことによって、このサウンドシステム70は、CPU51か
らの指示によりサウンドバッファ72に記憶された波形デ
ータに基づき楽音・効果音等のオーディオ信号を発生す
る、いわゆるサンプリング音源として使用することがで
きるように構成されている。The SPU 71 performs adaptive predictive coding (ADPCM: Adap
ADPCM decoding function for reproducing sound data subjected to tive differential PCM), a reproduction function for reproducing and outputting audio signals such as sound effects by reproducing waveform data stored in the sound buffer 72, and a sound buffer 72. And a modulation function for modulating and reproducing the waveform data stored in. By providing such a function, the sound system 70 can be used as a so-called sampling sound source that generates audio signals such as musical tones and sound effects based on waveform data stored in the sound buffer 72 in accordance with an instruction from the CPU 51. It is configured to be able to.
【0031】次に、光ディスク制御部80は、光ディスク
に記録されたプログラムやデータ等を再生する光ディス
ク装置81と、例えばエラー訂正符号(ECC:Error Correc
tionCode)が付加されて記録されているプログラムやデ
ータ等を復号するデコーダ82と、光ディスク装置81から
のデータを一時的に記憶することにより、光ディスクか
らのデータの読み出しを高速化するバッファ83を備えて
いる。デコーダ82には、サブCPU84が接続されてい
る。Next, the optical disk control unit 80 communicates with an optical disk device 81 that reproduces programs, data, and the like recorded on the optical disk, for example, by using an error correction code (ECC).
The decoder 82 includes a decoder 82 for decoding a program, data, and the like recorded with the addition of an option code, and a buffer 83 for temporarily storing data from the optical disk device 81 to speed up the reading of data from the optical disk. ing. The sub CPU 84 is connected to the decoder 82.
【0032】なお、光ティスク装置81で読み出される、
光ディスクに記録されている音声データとしては、上述
のADPCMデータの他にオーディオ信号をアナログ/
デジタル変換したいわゆるPCMデータがある。ADP
CMデータは、デコーダ82で復号された後、上述のSP
U71に供拾され、SPU71でデジタル/アナログ変換等
の処理が施された後、このエンタテインメント装置1に
接続されたオーディオ機器などの音響装置から楽音・効
果音等として出力される。また、PCMデータは、SP
U71でデジタル/アナログ変換等の処理が施された後、
同様に、音響装置から楽音・効果音等として出力され
る。The data is read out by the optical disc device 81.
As audio data recorded on the optical disc, in addition to the above-described ADPCM data, an audio signal
There is so-called PCM data that has been digitally converted. ADP
After the CM data is decoded by the decoder 82, the SP
After being supplied to the U71 and subjected to processing such as digital / analog conversion by the SPU 71, it is output as a musical sound / sound effect from an audio device such as an audio device connected to the entertainment device 1. PCM data is SP
After processing such as digital / analog conversion in U71,
Similarly, it is output from the audio device as a musical sound, a sound effect, or the like.
【0033】次に、通信制御部90は、バスBUSを介し
てCPU51との通信の制御を行なう通信制御機91を備え
ている。通信制御機91には、プレイヤからの指示を入カ
する操作装置20が接続される操作装置接続部12と、ゲー
ムの設定データ等を記憶する補助記憶装置としてメモリ
カード26や携帯用電子機器100が接続されるメモリカー
ド挿入部8A、8Bが設けられている。Next, the communication control section 90 includes a communication controller 91 for controlling communication with the CPU 51 via the bus BUS. The communication controller 91 includes an operation device connection unit 12 to which an operation device 20 for receiving an instruction from a player is connected, and a memory card 26 and a portable electronic device 100 as an auxiliary storage device for storing game setting data and the like. Are provided with memory card insertion sections 8A and 8B to which are connected.
【0034】操作装置接続部12に接続された操作装置20
は、プレイヤからの指示を入力するために、通信制御機
91からの指示に従って、前記各ボタンや操作部の状態
を、同期式通信により、通信制御機91に送信する。そし
て、通信制御機91は、操作装置20の前記各ボタンや操作
部の状態をCPU51に送信する。The operating device 20 connected to the operating device connection section 12
Is a communication controller to input instructions from the player.
In accordance with the instruction from 91, the state of each button and operation unit is transmitted to the communication controller 91 by synchronous communication. Then, the communication controller 91 transmits the states of the buttons and the operation unit of the operation device 20 to the CPU 51.
【0035】これにより、プレイヤからの指示がCPU
51に入カされ、CPU51は、実行しているゲームプログ
ラム等に基づいて、プレイヤからの指示に従った処理を
行なう。具体的には、制御系70の他の各部およびグラフ
ィックシステム60と連携して、操作対象オブジェクトを
含む画像を生成し、表示装置の表示画面に表示させる。
そして、操作装置20に入力されたプレイヤからの指示に
したがい、操作対象オブジェクトの表示位置や姿勢など
を変えた画像(必要に応じてその背景も変える)を順次
生成し、表示装置の表示画面に表示させることで、あた
かも、操作装置20に入力されたプレイヤの操作内容に応
じて、操作対象オブジェクトが操作されるように、動画
像を生成する。また、必要に応じて、サウントシステム
70と連携し、音声装置より出力する音声や音楽を制御す
る。Thus, the instruction from the player is transmitted to the CPU.
Input to the CPU 51, the CPU 51 performs a process according to an instruction from the player based on a game program or the like being executed. Specifically, an image including the operation target object is generated in cooperation with other units of the control system 70 and the graphic system 60, and displayed on the display screen of the display device.
Then, in accordance with an instruction from the player input to the operation device 20, an image in which the display position or orientation of the operation target object is changed (the background is also changed as necessary) is sequentially generated, and displayed on the display screen of the display device. By displaying the moving image, a moving image is generated so that the operation target object is operated in accordance with the operation content of the player input to the operation device 20. Also, if necessary, sound system
Cooperates with 70 to control audio and music output from audio devices.
【0036】ここで、メインメモリ53、GPU62、画像
デコーダ64およびデコーダ82等の間では、プログラムの
読み出し、画像の表示あるいは描画等を行なう際に、画
像データを高速に転送する必要がある。そこで、このエ
ンタテインメント装置1では、上述のようにCPU51を
介ざずに周辺装置制御部52からの制御によりメインメモ
リ53、GPU62、画像デコーダ64およびデコーダ82等の
間で直接データの転送を行なう、いわゆるDMA転送を
行なうことができるようになっている。これにより、デ
ータ転送によるCPU51の負荷を低減させることがで
き、高速なデータの転送を行なうことができる。Here, between the main memory 53, the GPU 62, the image decoder 64, the decoder 82 and the like, it is necessary to transfer image data at a high speed when reading a program, displaying an image or drawing. Therefore, in the entertainment apparatus 1, data is directly transferred between the main memory 53, the GPU 62, the image decoder 64, the decoder 82, and the like under the control of the peripheral device control unit 52 without the intervention of the CPU 51 as described above. So-called DMA transfer can be performed. Thus, the load on the CPU 51 due to data transfer can be reduced, and high-speed data transfer can be performed.
【0037】また、CPU51は、実行しているゲームの
設定データ等を記憶する必要があるときに、その記憶す
るデータを通信制御機91に送信し、通信制御機91は、C
PU51からのデータをメモリカード挿入部8Aまたは8Bの
スロットに装着されたメモリカード26や携帯用電子機器
100に書き込む。When it is necessary to store setting data and the like of the game being executed, the CPU 51 transmits the stored data to the communication controller 91, and the communication controller 91
The data from the PU 51 is inserted into the memory card insertion section 8A or 8B slot of the memory card 26 or a portable electronic device.
Write to 100.
【0038】ここで、通信制御機91には、電気的な破壊
を防止するための保護回路が内蔵されている。メモリカ
ード26や携帯用電子機器100は、バスBUSから分離さ
れており、装置本体の電源を入れた状態で、着脱するこ
とができる。従って、メモリカード26や携帯用電子機器
100の記憶容量が足りなくなった場合等に、装置本体の
電源を遮断することなく、新たなメモリカードなどを挿
着できる。このため、バツクアップする必要があるゲー
ムデータが失われてしまうことなく、新たなメモリカー
ドを装着して、必要なデータを新たなメモリカードに書
き込むことができる。Here, the communication controller 91 has a built-in protection circuit for preventing electrical destruction. The memory card 26 and the portable electronic device 100 are separated from the bus BUS, and can be detached while the power of the apparatus body is turned on. Therefore, memory cards 26 and portable electronic devices
When the storage capacity of 100 becomes insufficient, a new memory card or the like can be inserted without shutting off the power supply of the apparatus main body. Therefore, it is possible to insert a new memory card and write necessary data to the new memory card without losing game data that needs to be backed up.
【0039】なお、パラレルI/Oインタフェース(PI
O)96、および、シリアルI/Oインタフェース(SIO)9
7は、メモリカード26や携帯用電子機器100と、エンタテ
インメント装置1とを接続するためのインタフェースで
ある。The parallel I / O interface (PI
O) 96 and serial I / O interface (SIO) 9
Reference numeral 7 denotes an interface for connecting the memory card 26 or the portable electronic device 100 to the entertainment apparatus 1.
【0040】以上、エンタテインメント装置1のハード
ウエア構成について説明した。The hardware configuration of the entertainment apparatus 1 has been described above.
【0041】次に、上記構成のエンタテインメント装置
1において、CPU51が、ディスク装着部3に装着された
光ディスクから読み出されたアプリケーションプログラ
ムを実行することで、実現されるフライトシミュレーシ
ョンゲームについて説明する。Next, the entertainment apparatus having the above-described structure.
In 1, a flight simulation game realized by the CPU 51 executing an application program read from the optical disc mounted on the disc mounting section 3 will be described.
【0042】なお、ここで、フライトシミュレーション
ゲームとは、プレイヤが、エンタテインメント装置1に
接続された操作装置20を使用して、飛行機を表す操作対
象オブジェクトを操作し、仮想的な3次元世界中を移動
させることで、飛行機の操縦を仮想的に体験することが
できるゲームである。エンタテインメント装置1は、こ
の3次元世界中を移動する操作対象オブジェクトを仮想
的なカメラで撮影することで得られるCGアニメーショ
ン画像を生成し、当該エンタテインメント装置1に接続
された表示装置の表示画面に表示する。Here, a flight simulation game is a game in which a player operates an operation target object representing an airplane by using an operation device 20 connected to the entertainment device 1 and travels a virtual three-dimensional world. This game allows you to virtually experience the operation of an airplane by moving it. The entertainment device 1 generates a CG animation image obtained by photographing the three-dimensional operation target object moving around the world with a virtual camera, and displays the CG animation image on a display screen of a display device connected to the entertainment device 1. I do.
【0043】まず、光ディスクのデータ構成について説
明する。First, the data structure of the optical disk will be described.
【0044】図5は、ディスク装着部3に装着される光
ディスク85のデータ構成を説明するための図である。FIG. 5 is a diagram for explaining the data structure of the optical disk 85 mounted on the disk mounting unit 3.
【0045】図示するように、光ディスク85には、フラ
イトシミュレーションゲームを実現するためのアプリケ
ーションプログラム(PG)501と、オブジェクトデータ
(DA)502や地図データベース(DB)503を含む各種デー
タが記録されている。As shown in the figure, an optical disk 85 stores an application program (PG) 501 for realizing a flight simulation game and various data including an object data (DA) 502 and a map database (DB) 503. I have.
【0046】オブジェクトDA502には、フライトシミュ
レーションゲームにおいて、プレイヤが操作装置20を用
いて操作する操作対象オブジェクト(飛行機を表すオブ
ジェクト)の、3次元形状やテクスチャなどを特定する
ために必要な各種情報が格納されている。地図DB503に
は、フライトシミュレーションゲームにおいて、操作対
象オブジェクトが移動する仮想的な3次元世界中の地形
を特定する様々な地図構成要素の情報が格納されてい
る。In the object DA502, in a flight simulation game, various kinds of information necessary for specifying a three-dimensional shape, a texture, and the like of an operation target object (an object representing an airplane) operated by the player using the operation device 20 are provided. Is stored. The map DB 503 stores information on various map components that specify a virtual three-dimensional terrain around the world in which the operation target object moves in the flight simulation game.
【0047】次に、エンタテインメント装置1上に構築
される、フライトシミュレーションゲームを実現するた
めのソフトウエア構成について説明する。Next, a software configuration for realizing a flight simulation game built on the entertainment apparatus 1 will be described.
【0048】図6は、エンタテインメント装置1上に構
築されるフライトシミュレーションゲームを実現するた
めのソフトウエア構成を示した図である。なお、この図
に示す各構成要素は、光ディスク制御部80によりディス
ク装着部3に装着された光ディスク85から読み出され、
メインメモリ53上にロードされたアプリケーションPG50
1を、CPU51が実行することにより、プロセスとして
具現化される。FIG. 6 is a diagram showing a software configuration for realizing a flight simulation game built on the entertainment apparatus 1. Each component shown in this figure is read from the optical disk 85 mounted on the disk mounting unit 3 by the optical disk control unit 80,
Application PG50 loaded on main memory 53
1 is realized by the CPU 51 as a process.
【0049】図6において、操作内容受付部801は、操
作装置20に入力されたプレイヤの指示にしたがい、仮想
的な3次元世界中を移動する操作対象オブジェクトの移
動速度や移動方向を決定する。この処理は定期的に行わ
れる。In FIG. 6, an operation content receiving unit 801 determines a moving speed and a moving direction of an operation target object that moves in a virtual three-dimensional world according to a player's instruction input to the operating device 20. This process is performed periodically.
【0050】ここで、操作対象オブジェクトの移動速度
は、たとえば、操作装置20の第1、2の操作部21、22、
Lボタン23LおよびRボタン23Rのうちのいずれかに、ス
ロットルと同じ機能を持たせることで決定する。Here, the moving speed of the operation target object is, for example, the first and second operation units 21 and 22 of the operation device 20,
The determination is made by giving one of the L button 23L and the R button 23R the same function as the throttle.
【0051】すなわち、スロットルと同じ機能を持たせ
たボタンの検知信号が操作装置20から出力されていると
きは、スロットルオンと判断し、当該ボタンの検知信号
が出力されたいないときはスロットルオフと判断する。
そして、スロットルオンと判断された場合は、前回決定
した操作対象オブジェクトの移動速度に、予め定められ
たスロットルオンに応じた加速度と前回移動速度を決定
してからのスロットルオンの継続時間より求まる速度を
加算することで、操作対象オブジェクトの移動速度を決
定する。一方、スロットルオフと判断された場合は、前
回決定した操作対象オブジェクトの移動速度に、予め定
められたスロットルオフに応じた減速度と前回移動速度
を決定してからのスロットルオフの継続時間より求まる
速度を減算することで、操作対象オブジェクトの移動速
度を決定する。That is, when the detection signal of the button having the same function as the throttle is output from the operating device 20, it is determined that the throttle is on, and when the detection signal of the button is not output, the throttle is off. to decide.
If it is determined that the throttle is ON, the speed determined from the acceleration determined according to the predetermined throttle ON and the duration of the throttle ON since the previous speed was determined is added to the previously determined moving speed of the operation target object. Is added to determine the moving speed of the operation target object. On the other hand, when it is determined that the throttle is off, the moving speed of the operation target object previously determined is obtained from the deceleration corresponding to the predetermined throttle off and the duration of the throttle off since the previous moving speed was determined. The moving speed of the operation target object is determined by subtracting the speed.
【0052】また、操作対象オブジェクトの移動方向
は、たとえば操作装置20の操作軸31a、32aに、操縦かん
と同じ機能を持たせることで決定する。The moving direction of the operation target object is determined, for example, by providing the operation axes 31a and 32a of the operation device 20 with the same function as the control rod.
【0053】すなわち、操作軸31a、32aに加えられた操
作により、操作装置20から出力されたX−Y座標上の座
標値に応じた信号のX座標成分の値に応じて、操作対象
オブジェクトが表す飛行機の左右の傾きを決定し、Y座
標成分の値に応じて、当該飛行機の機首の上下を決定す
る。That is, by the operation applied to the operation axes 31a and 32a, the operation target object is changed according to the value of the X coordinate component of the signal corresponding to the coordinate value on the XY coordinate output from the operation device 20. The left and right inclinations of the plane to be represented are determined, and the nose up and down of the plane are determined according to the value of the Y coordinate component.
【0054】具体的には、図3において、X座標成分の
値が128〜255の場合は、その値が大きいほど飛行機が右
に大きく傾き、X座標成分の値が0〜126の場合は、その
値が小さいほど飛行機が左に大きく傾くものとする。そ
して、X座標成分の値が127の場合は飛行機の左右への
傾きなしとする。また、Y座標成分の値が128〜255の場
合は、その値が大きいほど飛行機の機首を大きく上げ、
Y座標成分の値が0〜126の場合は、値が小さいほど飛行
機の機首を大きく下げるものとする。そして、Y座標成
分の値が127の場合は飛行機の機首の上下はなしとす
る。Specifically, in FIG. 3, when the value of the X coordinate component is 128 to 255, the larger the value is, the more the plane tilts to the right, and when the value of the X coordinate component is 0 to 126, It is assumed that the smaller the value is, the more the airplane leans to the left. When the value of the X coordinate component is 127, it is determined that the airplane is not tilted left and right. In addition, when the value of the Y coordinate component is 128 to 255, the larger the value, the more the nose of the airplane is raised,
When the value of the Y coordinate component is from 0 to 126, the nose of the airplane is to be greatly lowered as the value is smaller. When the value of the Y coordinate component is 127, it is determined that there is no upper and lower part of the nose of the airplane.
【0055】そして、操作内容受付部801は、操作装置2
0から出力されたX−Y座標上の座標値に応じた信号に
より特定される、操作対象オブジェクトが表す飛行機の
左右の傾きおよび機首の上下より、前回決定した操作対
象オブジェクトの移動方向に対する相対的な移動方向の
変化分を求め、これを前回決定した操作対象オブジェク
トの移動方向に加算する。これにより、当該操作対象オ
ブジェクトの移動方向を決定する。Then, the operation content receiving unit 801 operates the operation device 2
Relative to the previously determined moving direction of the operation target object from the left and right inclination and vertical movement of the aircraft represented by the operation target object, specified by a signal corresponding to the coordinate value on the XY coordinates output from 0 The amount of change in the typical moving direction is obtained and added to the previously determined moving direction of the operation target object. Thereby, the moving direction of the operation target object is determined.
【0056】ところで、現実の世界において、操縦かん
を用いて、飛行機を完全な旋回飛行状態に移行させる行
為は、非常に高度な操縦が要求される。このため、操作
装置20の操作軸31a、32aに、操縦かんと同じ機能をその
まま持たせるのでは、不慣れなプレイヤにとって、操作
対象オブジェクトの操作が難し過ぎて、十分にフライト
シミュレーションゲームを楽しめなくなるかもしれな
い。By the way, in the real world, the act of using a control rod to shift an airplane to a complete turning flight state requires very advanced control. For this reason, if the operation axes 31a and 32a of the operation device 20 have the same function as that of the control lever, the operation of the operation target object may be too difficult for an inexperienced player, and the flight simulation game may not be sufficiently enjoyed. unknown.
【0057】そこで、本実施形態では、操作対象受付部
801に、操作軸31a、32aに加えられた操作により、操作
装置20から出力された信号が示すX−Y座標上の座標値
が、所定の範囲にある場合、操作内容受付部801は、操
作対象オブジェクトに所定の動作(現実の世界におい
て、操縦が困難と思われる動作)を行わせるものと判断
させている。そして、操作対象オブジェクトの移動方向
が、当該動作を行うために要求される方向となるように
決定している。図3に示す例では、操作内容受付部801
は、X−Y座標上の座標値がX座標値≧240、Y座標値
≦15の場合は、操作対象オブジェクトに右回りの急旋回
飛行を行わせるものと判断し、X座標値≦15、Y座標値
≦15の場合は、操作対象オブジェクトに左回りの急旋回
飛行を行わせるものと判断している。そして、操作対象
オブジェクトの移動方向を、当該飛行を行うのに要求さ
れる方向に決定している。Therefore, in this embodiment, the operation object receiving unit
If the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 by the operation applied to the operation axes 31a and 32a in the 801 are within a predetermined range, the operation content receiving unit 801 performs the operation. It is determined that the target object is to perform a predetermined operation (an operation that is considered difficult to steer in the real world). Then, the moving direction of the operation target object is determined to be the direction required to perform the operation. In the example shown in FIG. 3, the operation content receiving unit 801
If the coordinate value on the XY coordinate is X coordinate value ≧ 240 and Y coordinate value ≦ 15, it is determined that the operation target object is to make a sharp clockwise turn, and the X coordinate value ≦ 15, If the Y coordinate value ≤ 15, it is determined that the operation target object is to make a sharp left turn. Then, the moving direction of the operation target object is determined to be a direction required to perform the flight.
【0058】たとえば、右上回りの急旋回飛行を行うも
のと判断した場合は、操作対象オブジェクトが表す飛行
機を右に45度傾かせ、当該飛行機の機首を45度挙げ
たものとし、前回決定した操作対象オブジェクトの移動
方向から当該操作対象オブジェクトの移動方向を決定す
る。左回りの急旋回飛行を行うものと判断した場合は、
前記飛行機を左に45度傾かせ、前記飛行機の機首を4
5度挙げたものとし、前回決定した操作対象オブジェク
トの移動方向から当該操作対象オブジェクトの移動方向
を決定する。For example, if it is determined that a sharp turn in the upper right direction is to be performed, the airplane represented by the object to be operated is tilted to the right by 45 degrees, and the nose of the airplane is raised by 45 degrees, and it is determined last time. The moving direction of the operation target object is determined from the moving direction of the operation target object. If you decide to make a sharp left turn,
Tilt the plane 45 degrees to the left and raise the nose of the plane 4
The moving direction of the operation target object is determined from the moving direction of the operation target object determined last time, which is assumed to be five times.
【0059】次に、図6において、オブジェクト位置算
出部802は、仮想的な3次元世界中における操作対象オ
ブジェクトの位置と姿勢を算出する処理を、定期的に行
う。Next, in FIG. 6, the object position calculation unit 802 periodically performs a process of calculating the position and orientation of the operation target object in a virtual three-dimensional world.
【0060】具体的には、前回算出した操作対象オブジ
ェクトの位置および姿勢と、操作内容受付部801で決定
された操作対象オブジェクトの最新の移動速度から、現
時点での操作対象オブジェクトの位置を算出する。ま
た、操作内容受付部801で決定された操作対象オブジェ
クトの最新の移動方向にしたがって、現時点での操作対
象オブジェクトの姿勢を算出する。Specifically, the current position of the operation target object is calculated from the previously calculated position and orientation of the operation target object and the latest moving speed of the operation target object determined by the operation content receiving unit 801. . In addition, according to the latest moving direction of the operation target object determined by the operation content receiving unit 801, the current posture of the operation target object is calculated.
【0061】3次元地図作成部803は、オブジェクト位
置算出部802で算出された操作対象オブジェクトの位置
周辺に配置される地図構成要素を、光ディスク85に格納
された地図DB503から直接読み出し、あるいは、光ディ
スク85から読み出され、一旦メインメモリ53などに格納
された地図DB503から読み出し、3次元世界中に配置す
る。これにより、操作対象オブジェクトの位置周辺に展
開される地形を生成する。The three-dimensional map creator 803 directly reads out the map components arranged around the position of the operation target object calculated by the object position calculator 802 from the map DB 503 stored in the optical disk 85, or The data is read out from the map DB 503 and once stored in the main memory 53 or the like, and arranged three-dimensionally around the world. Thereby, the terrain developed around the position of the operation target object is generated.
【0062】なお、3次元地図作成部803における地形
生成処理は、必ずしも、オブジェクト位置算出部802で
操作対象オブジェクトの位置が算出される毎に行う必要
はない。たとえば、オブジェクト位置算出部802で操作
対象オブジェクトの位置が複数回算出される毎に行うよ
うにしてもよい。この場合、オブジェクト位置算出部80
2における複数回の操作対象オブジェクト位置算出処理
で当該操作対象オブジェクトが移動可能な範囲(これ
は、予め設定されている操作対象オブジェクトの最大移
動速度などから推定可能である)を考慮し、当該範囲周
辺に配置される地図構成要素を地図DB503から読み出し
て、3次元世界中に配置すればよい。The terrain generation processing in the three-dimensional map creation unit 803 does not necessarily need to be performed each time the position of the operation target object is calculated by the object position calculation unit 802. For example, it may be performed each time the position of the operation target object is calculated a plurality of times by the object position calculation unit 802. In this case, the object position calculation unit 80
In consideration of a range in which the operation target object can be moved in the plurality of operation target object position calculation processes in 2 (this can be estimated from a preset maximum moving speed of the operation target object, etc.), What is necessary is just to read out the map components arranged in the periphery from the map DB 503 and arrange them in the three-dimensional world.
【0063】オブジェクト配置部804は、3次元地図作
成部803により地形が展開された3次元世界中におい
て、光ディスク85に格納されたオブジェクトDA502によ
りその3次元形状など特定される操作対象オブジェクト
を、オブジェクト位置算出部802で算出した最新の操作
対象オブジェクトの位置に配置する。この際、操作対象
オブジェクトの姿勢が、オブジェクト位置算出部802で
算出した最新の操作対象オブジェクトの姿勢となるよう
に、操作対象オブジェクトを配置する。The object arranging unit 804 assigns an operation target object, such as its three-dimensional shape, specified by the object DA502 stored on the optical disk 85 to the three-dimensional world where the terrain is developed by the three-dimensional map creating unit 803. It is arranged at the position of the latest operation target object calculated by the position calculation unit 802. At this time, the operation target object is arranged such that the posture of the operation target object becomes the latest posture of the operation target object calculated by the object position calculation unit 802.
【0064】なお、3次元地図作成部803やオブジェク
ト配置部804は、図4において、たとえば、CPU51が
GTE61を利用することで実現される。The three-dimensional map creating unit 803 and the object arranging unit 804 are realized by the CPU 51 using the GTE 61 in FIG.
【0065】カメラ配置部805は、3次元地図作成部803
およびオブジェクト配置部804により地形および操作対
象オブジェクトが配置された3次元世界から2次元画像
を生成するために用いられる、仮想的なカメラの配置位
置(つまり視点)と向き(つまり視線方向と視線方向を
軸としたカメラの傾き)を設定する処理を行う。この処
理は、オブジェクト位置算出部802で操作対象オブジェ
クトの位置や姿勢が算出される毎に行う。以下に、カメ
ラ配置部805における、仮想的なカメラの配置位置と向
きの具体的な設定処理の一例について説明する。The camera arrangement unit 805 includes a three-dimensional map creation unit 803.
And a virtual camera arrangement position (that is, a viewpoint) and a direction (that is, a line-of-sight direction and a line-of-sight direction) used for generating a two-dimensional image from the three-dimensional world in which the terrain and the operation target object are arranged by the object arrangement unit 804. Of the camera with respect to the axis. This process is performed every time the position and orientation of the operation target object are calculated by the object position calculation unit 802. Hereinafter, an example of specific setting processing of the virtual camera arrangement position and orientation in the camera arrangement unit 805 will be described.
【0066】図7〜図9は、本実施形態における操作対
象オブジェクト601と仮想的なカメラ608との位置関係を
説明するための図である。FIGS. 7 to 9 are diagrams for explaining the positional relationship between the operation target object 601 and the virtual camera 608 in the present embodiment.
【0067】ここで、図7は、3次元世界中に配置され
たオブジェクト601と仮想的なカメラ609を、真上(Z軸
の無限遠方)から見下ろした様子を示しており、図8
は、3次元世界中に配置されたオブジェクト601と仮想
的なカメラ609を、真横(X軸の無限遠方)から見た様
子を示している。また、図9は、3次元世界中に配置さ
れたオブジェクト601と仮想的なカメラ609を、真横(Y
軸の無限遠方)から見た様子を示している。なお、これ
らの図では、3次元世界中に配置された地図構成要素の
図示を省略している。FIG. 7 shows a state in which the object 601 and the virtual camera 609 arranged in the three-dimensional world are looked down from directly above (infinity of the Z axis).
Shows a state in which the object 601 and the virtual camera 609 arranged in the three-dimensional world are viewed from the side (infinity of the X axis). FIG. 9 shows an object 601 and a virtual camera 609 arranged all over the three-dimensional world, placed beside (Y
(Infinity of the axis). In these drawings, illustration of map components arranged in the three-dimensional world is omitted.
【0068】(1)仮想的なカメラの配置位置(カメラ
設置点) 図7〜図9に示すように、カメラ配置部805は、仮想的
なカメラ609の配置位置であるカメラ設置点606を、下記
の条件-を満たす位置に設定する。(1) Virtual Camera Arrangement Position (Camera Installation Point) As shown in FIGS. 7 to 9, the camera arrangement unit 805 determines a camera installation point 606 which is an arrangement position of a virtual camera 609. Set to a position that satisfies the following conditions.
【0069】:オブジェクト位置算出部802で新たに
算出された操作対象オブジェクト601の位置602を通過す
る、操作内容受付部801で新たに算出された操作対象オ
ブジェクト601の移動方向に沿った線603上の、位置602
より距離Kだけ後方の位置より、所定値Hだけ上方の位
置に、カメラ追跡点604を設定する。A line 603 that passes through the position 602 of the operation target object 601 newly calculated by the object position calculation unit 802 and moves along the moving direction of the operation target object 601 newly calculated by the operation content reception unit 801 At position 602
A camera tracking point 604 is set at a position higher by a predetermined value H than a position further behind by a distance K.
【0070】:カメラ追跡点604および前回算出した
カメラ設置点606’間の距離Lを、所定値Mで割ること
で得られる距離L/Mだけ、前回算出したカメラ設置点6
06’からカメラ追跡点604に近づく位置に、カメラ設置
点606を設定する。したがって、カメラ設置点606と前回
算出したカメラ設置点606’とカメラ追跡点604は、以下
の関係を満たす。The distance L between the camera tracking point 604 and the previously calculated camera installation point 606 ′ is divided by a predetermined value M to obtain the previously calculated camera installation point 6 by the distance L / M.
A camera installation point 606 is set at a position approaching the camera tracking point 604 from 06 ′. Therefore, the camera installation point 606, the previously calculated camera installation point 606 ', and the camera tracking point 604 satisfy the following relationship.
【0071】点606のX座標値=(点604のX座標値-点60
6’のX座標値)/M+点606’のX座標値点606のY座標
値 =(点604のY座標値-点606’のY座標値)/M+点606’
のY座標値点606のZ座標値 =(点604のZ座標値-点606’のZ座標値)/M+点606’
のZ座標値 :上記において、距離Kは、操作内容受付部801で
新たに算出された操作対象オブジェクト601の移動速度
が大きくなるほど短くなるように(すなわち、カメラ追
跡点604が操作対象オブジェクト601に近づくように)設
定する。たとえば、操作対象オブジェクト601の移動速
度がAのときのKをkとし、以下の式を満たすように設
定する。X coordinate value of point 606 = (X coordinate value of point 604−point 60
X coordinate value of 6 ′) / M + X coordinate value of point 606 ′ Y coordinate value of point 606 = (Y coordinate value of point 604−Y coordinate value of point 606 ′) / M + point 606 ′
Z coordinate value of Y coordinate value point 606 = (Z coordinate value of point 604−Z coordinate value of point 606 ′) / M + point 606 ′
In the above, the distance K is set such that the distance K becomes shorter as the moving speed of the operation target object 601 newly calculated by the operation content receiver 801 increases (that is, the camera tracking point 604 To get closer). For example, when the moving speed of the operation target object 601 is A, K is set to k, and the following formula is set.
【0072】K=k-a(B-A) ここで、Bは操作内容受付部801で新たに算出された操
作対象オブジェクトの移動速度、aは所定の係数であ
る。係数aは、上記に示した所定値Mとの関係におい
て、以下の条件を満たすように設定する。K = ka (BA) Here, B is the moving speed of the operation target object newly calculated by the operation content receiving unit 801 and a is a predetermined coefficient. The coefficient a is set so as to satisfy the following condition in relation to the predetermined value M described above.
【0073】すなわち、カメラ追跡点604は、操作対象
オブジェクト601の移動速度が大きくなるほど操作対象
オブジェクト601に近づくけれども、カメラ設置点606
は、操作対象オブジェクト601の移動速度が大きくなる
ほど、操作対象オブジェクト601から遠ざかるように、
つまり、操作対象オブジェクト601の移動方向に対して
より後方へ移動するように、係数aと所定値Mを設定す
る。That is, although the camera tracking point 604 approaches the operation target object 601 as the moving speed of the operation target object 601 increases, the camera installation point 606
Is such that as the moving speed of the operation target object 601 increases, the distance from the operation target object 601 increases.
That is, the coefficient a and the predetermined value M are set so that the operation target object 601 moves backward with respect to the moving direction.
【0074】なお、初期状態(ゲーム開始時)におい
て、カメラ設置点606は、操作対象オブジェクト601との
相対的な位置関係で固定的に定まる所定位置に設定する
ようにすればよい。In the initial state (at the start of the game), the camera installation point 606 may be set to a predetermined position fixedly determined by the relative positional relationship with the operation target object 601.
【0075】(2)カメラの向き(カメラ視線方向) 図7〜図9に示すように、カメラ配置部805は、カメラ
設置点606に設置された仮想的なカメラ609が、カメラ参
照点607を向くように、カメラ視線方向610を設定する。
カメラ配置部805は、カメラ参照点607を、下記の条件
-を満たす位置に設定する。(2) Camera Orientation (Camera Viewing Direction) As shown in FIGS. 7 to 9, the camera placement unit 805 moves the virtual camera 609 installed at the camera installation point 606 to the camera reference point 607. The camera viewing direction 610 is set so as to face.
The camera placement unit 805 sets the camera reference point 607 under the following conditions.
-Set the position to satisfy.
【0076】:オブジェクト位置算出部802で新たに
算出された操作対象オブジェクトの位置602を通過す
る、操作内容受付部801で新たに算出された操作対象オ
ブジェクトの移動方向に沿った線603上の、位置602より
距離Jだけ前方の位置に、カメラ参照点607を設定す
る。A line 603 that passes through the position 602 of the operation target object newly calculated by the object position calculation unit 802 and moves along the moving direction of the operation target object newly calculated by the operation content receiving unit 801 A camera reference point 607 is set at a position ahead of the position 602 by a distance J.
【0077】:上記において、距離Jは、操作内容
受付部801で新たに算出された操作対象オブジェクト601
の移動速度が大きくなるほど長くなるように(すなわ
ち、カメラ参照点607が操作対象オブジェクト601から遠
ざかるように)設定する。たとえば、操作対象オブジェ
クト601の移動速度がAのときのJをjとし、以下の式
を満たすように設定する。In the above description, the distance J is the operation target object 601 newly calculated by the operation content receiving unit 801.
Are set to be longer as the moving speed of the camera becomes higher (that is, the camera reference point 607 moves away from the operation target object 601). For example, when the moving speed of the operation target object 601 is A, J is set to j and the following formula is set.
【0078】J=j+b(B-A) ここで、Bは操作内容受付部801で新たに算出された操
作対象オブジェクトの移動速度、bは所定の係数であ
る。J = j + b (BA) where B is the moving speed of the operation target object newly calculated by the operation content receiving unit 801 and b is a predetermined coefficient.
【0079】(3)カメラの向き(カメラ視線方向を軸
としたカメラの傾き) 図9に示すように、操作対象オブジェクト601が線603を
軸として左右に傾いている場合(すなわち、操作内容受
付部801で操作対象オブジェクト601が表す飛行機を左右
に傾かせる操作内容を受け付けた場合)には、その傾き
に応じて、仮想的なカメラ608を、カメラ視線方向610を
軸として回動させる。そして、操作対象オブジェクト60
1が線603を軸として回転した場合は、仮想的なカメラ60
8を、カメラ視線方向610を軸として回転させる。(3) Camera Orientation (Tilt of Camera Around Camera Viewing Direction) As shown in FIG. 9, the operation target object 601 is inclined left and right about the line 603 (that is, operation content reception). When the operation content for tilting the airplane represented by the operation target object 601 to the left or right is received by the unit 801), the virtual camera 608 is rotated around the camera viewing direction 610 according to the tilt. Then, the operation target object 60
If 1 rotates around line 603, virtual camera 60
8 is rotated about the camera viewing direction 610 as an axis.
【0080】図10、11は、本実施形態において、操
作対象オブジェクト601の動きに対し、仮想的なカメラ6
08がどのように振舞うかを説明するための図である。FIGS. 10 and 11 show the virtual camera 6 in response to the movement of the operation target object 601 in this embodiment.
It is a figure for explaining how 08 behaves.
【0081】ここで、図10は、操作対象オブジェクト
601が速度一定で直進状態から右回り旋回状態へ移行し
た場合における、操作対象オブジェクト601と仮想的な
カメラ608の関係を示しており、図11は、操作対象オ
ブジェクト601が直進状態において移動速度を徐々に増
加させた場合における、操作対象オブジェクト601と仮
想的なカメラ608の関係を示している。なお、両図と
も、操作対象オブジェクト601と仮想的なカメラ608を、
真上(Z軸の無限遠方)から見下ろした様子を示してお
り、これらの図では、3次元世界中に配置された地図構
成要素の図示を省略している。FIG. 10 shows the operation target object.
FIG. 11 shows a relationship between the operation target object 601 and the virtual camera 608 when the speed of the operation target object 601 changes from the straight traveling state to the clockwise turning state at a constant speed. The relationship between the operation target object 601 and the virtual camera 608 when gradually increasing is shown. In both figures, the operation target object 601 and the virtual camera 608 are
FIGS. 3A and 3B show a view from directly above (infinity of the Z axis), and in these figures, illustration of map components arranged in the three-dimensional world is omitted.
【0082】図12は、図10に示すようにして配置さ
れた仮想的なカメラ609で撮影した場合に得られる映像
の一例を示した図である。ここで、図12(a)は、図
10において、操作対象オブジェクト601が(a)の位
置にあるときに仮想的なカメラ609で撮影される映像
を、図12(b)は、操作対象オブジェクト601が
(b)の位置にあるときに仮想的なカメラ609で撮影さ
れる映像を、そして、図12(c)は、操作対象オブジ
ェクト601が(c)の位置にあるときに仮想的なカメラ6
09で撮影される映像を、それぞれ示している。また、図
12(d)は、図10において、操作対象オブジェクト
601が(d)の位置にあるときに仮想的なカメラ609で撮
影される映像を、図12(e)は操作対象オブジェクト
601が(e)の位置にあるときに仮想的なカメラ609で撮
影される映像を、それぞれ示している。FIG. 12 is a view showing an example of an image obtained when the image is taken by the virtual camera 609 arranged as shown in FIG. Here, FIG. 12A shows a video shot by the virtual camera 609 when the operation target object 601 is at the position of FIG. 10A in FIG. 10, and FIG. FIG. 12C shows an image captured by the virtual camera 609 when the object 601 is at the position (b), and FIG. 6
The images shot at 09 are shown respectively. FIG. 12D shows an operation target object in FIG.
FIG. 12E shows an image captured by the virtual camera 609 when the 601 is at the position shown in FIG.
Video images shot by the virtual camera 609 when the 601 is at the position (e) are shown.
【0083】図13は、図11に示すようにして配置さ
れた仮想的なカメラ609で撮影した場合に得られる映像
の一例を示した図である。ここで、図13(a)は、図
11において、操作対象オブジェクト601が(a)の位
置にあるときに仮想的なカメラ609で撮影される映像
を、図13(b)は、操作対象オブジェクト601が
(b)の位置にあるときに仮想的なカメラ609で撮影さ
れる映像を、そして、図13(c)は、操作対象オブジ
ェクト601が(c)の位置にあるときに仮想的なカメラ6
09で撮影される映像を、それぞれ示している。FIG. 13 is a diagram showing an example of an image obtained when the image is taken by the virtual camera 609 arranged as shown in FIG. Here, FIG. 13A shows an image captured by the virtual camera 609 when the operation target object 601 is at the position of FIG. 11A in FIG. 11, and FIG. FIG. 13C shows an image captured by the virtual camera 609 when the object 601 is at the position (b), and FIG. 13C shows a virtual camera when the operation target object 601 is at the position (c). 6
The images shot at 09 are shown respectively.
【0084】図10および図12から明らかなように、
上記の(1)-(3)に満たす条件を満足するように仮
想的なカメラ609の配置位置と向きを設定することによ
り、カメラ設置点606には、前回算出されたカメラ設置
点606’が考慮されるため、仮想的なカメラ609は、操作
対象オブジェクト601の動きに対し、少し遅れて操作対
象オブジェクト601の後ろを追従するように振舞う。ま
た、操作対象オブジェクト601が、移動方向を軸として
回動した(左右に傾いた)場合、仮想的なカメラ609
も、それに応じて、カメラ視線方向610を軸として回動
する。As is clear from FIGS. 10 and 12,
By setting the arrangement position and the orientation of the virtual camera 609 so as to satisfy the conditions satisfying the above (1) to (3), the camera installation point 606 ′ calculated last time becomes the camera installation point 606 ′. Therefore, the virtual camera 609 behaves so as to follow the movement of the operation target object 601 with a slight delay behind the operation target object 601. In addition, when the operation target object 601 is rotated around the movement direction as an axis (tilted right and left), the virtual camera 609
Also rotates about the camera viewing direction 610 as an axis.
【0085】また、図11および図13から明らかなよ
うに、上記の(1)-(3)に満たす条件を満足するよ
うに仮想的なカメラ609の配置位置と向きを設定するこ
とにより、仮想的なカメラ609は、操作対象オブジェク
ト601の移動速度が大きくなるほど、操作対象オブジェ
クト601から遠ざかる方向に移動することになる。ま
た、カメラ視線方向610は、操作対象オブジェクト601の
移動速度が大きくなるほど、操作対象オブジェクト601
の前方に向けられる。As is clear from FIGS. 11 and 13, by setting the arrangement position and the orientation of the virtual camera 609 so as to satisfy the conditions satisfying the above (1) to (3), The typical camera 609 moves in a direction away from the operation target object 601 as the moving speed of the operation target object 601 increases. Further, the camera viewing direction 610 is such that as the moving speed of the operation target object 601 increases, the operation target object
Pointed forward of
【0086】図6に戻って説明を続ける。Returning to FIG. 6, the description will be continued.
【0087】画像生成部806は、3次元地図作成部803お
よびオブジェクト配置部804により地形および操作対象
オブジェクトが配置された3次元世界を、カメラ配置部
805にて配置位置および視線方向が設定された仮想的な
カメラで撮影することで得られる2次元画像を生成す
る。具体的には、仮想的なカメラの配置位置を視点と
し、当該カメラの向きを視線方向として、かつ、操作対
象オブジェクト601の移動方向を軸とした左右に傾きに
応じて、仮想的なカメラ609を、カメラ視線方向610を軸
として回動させて、仮想的なカメラスクリーン上に、3
次元世界中にある操作対象オブジェクトや地図構成物を
投影する処理(レンダリング)を行うことで2次元画像
を生成する。The image generation unit 806 converts the three-dimensional world in which the terrain and the object to be operated are arranged by the three-dimensional map creation unit 803 and the object arrangement unit 804 into a camera arrangement unit.
At 805, a two-dimensional image obtained by photographing with a virtual camera in which the arrangement position and the viewing direction are set is generated. Specifically, the virtual camera 609 is set in accordance with the position of the virtual camera as the viewpoint, the direction of the camera as the line of sight, and the left and right tilts with the movement direction of the operation target object 601 as the axis. Is rotated about the camera viewing direction 610 as an axis, and 3
A two-dimensional image is generated by performing a process (rendering) of projecting an operation target object or a map component in a three-dimensional world.
【0088】表示制御部807は、画像生成部806で生成さ
れた2次元画像をビデオ信号に変換し、本エンタテイン
メント装置1に接続された表示装置に出力する。The display control unit 807 converts the two-dimensional image generated by the image generation unit 806 into a video signal, and outputs the video signal to a display device connected to the entertainment apparatus 1.
【0089】なお、画像生成部806や表示制御部807は、
図4において、たとえば、CPU51がGTE61およびG
PU62を利用することで実現される。次に、エンタテイ
ンメント装置1上に構築される、フライトシミュレーシ
ョンゲームを実現するためのソフトウエア構成の動作に
ついて説明する。Note that the image generation unit 806 and the display control unit 807
In FIG. 4, for example, CPU 51 has GTE 61 and GTE 61.
This is realized by using the PU62. Next, an operation of a software configuration for realizing a flight simulation game built on the entertainment apparatus 1 will be described.
【0090】図14は、エンタテインメント装置1上に
構築される、フライトシミュレーションゲームを実現す
るためのソフトウエア構成の動作を説明するためのフロ
ー図である。FIG. 14 is a flowchart for explaining the operation of the software configuration for realizing the flight simulation game, which is built on the entertainment apparatus 1.
【0091】まず、操作内容受付部801は、操作対象オ
ブジェクト601の移動速度を算出する(ステップS100
1)。具体的には、操作装置20の、スロットルの役割を
持たせたボタンの検知信号を検知することで、前回移動
速度を算出してからのスロットルのオン・オフ時間を測
定する。そして、前回算出した移動速度に、測定したス
ロットルオンの時間と予め定められた加速度より求まる
速度を加算し、および/または、測定したスロットルオ
フの時間と予め定められた減速度より求まる速度を減算
し、操作対象オブジェクト601の移動速度を算出する。First, the operation content receiving unit 801 calculates the moving speed of the operation target object 601 (step S100)
1). Specifically, by detecting a detection signal of a button having a role of a throttle of the operation device 20, the on / off time of the throttle since the previous movement speed was calculated is measured. Then, the speed calculated from the measured throttle-on time and the predetermined acceleration is added to the previously calculated moving speed, and / or the speed obtained from the measured throttle-off time and the predetermined deceleration is subtracted. Then, the moving speed of the operation target object 601 is calculated.
【0092】次に、操作内容受付部801は、操作対象オ
ブジェクト601の移動方向を算出する(ステップS1002〜
S1004)。Next, the operation content receiving unit 801 calculates the moving direction of the operation target object 601 (steps S1002 to S1002).
S1004).
【0093】具体的には、操作装置20の、操縦かんの役
割を持たせた操作軸31a、32aに加えられた操作により、
操作装置20から出力される信号が示すX−Y座標上の座
標値が、所定範囲内にあるか否かを調べる(ステップS1
002)。たとえば、図3に示す例では、X−Y座標上の
座標値がX座標値≧240、Y座標値≦15の範囲、あるい
は、X座標値≦15、Y座標値≦15の範囲にあるか否かを
調べる。Specifically, the operation of the operation device 20 applied to the operation shafts 31a and 32a having the role of the control rod is performed.
It is checked whether or not the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 are within a predetermined range (step S1).
002). For example, in the example shown in FIG. 3, whether the coordinate value on the XY coordinate is in the range of X coordinate value ≧ 240 and Y coordinate value ≦ 15 or in the range of X coordinate value ≦ 15 and Y coordinate value ≦ 15 Check whether or not.
【0094】所定範囲内にある場合は、操作対象オブジ
ェクト601に所定の動作を行わせるものとし、操作対象
オブジェクト601の移動方向が、当該動作を行うために
要求される方向となるように決定する(ステップS100
3)。たとえば、図3に示す例では、X−Y座標上の座
標値がX座標値≧240、Y座標値≦15の場合は、操作対
象オブジェクトに右回りの急旋回飛行を行わせるものと
判断し、前回算出した操作対象オブジェクト601の移動
方向から、操作対象オブジェクト601が表す飛行機を右
に45度傾かせ、当該飛行機の機首を45度挙げたもの
とし、当該操作対象オブジェクト601の移動方向を算出
する。X座標値≦15、Y座標値≦15の場合は、操作対象
オブジェクト601に左回りの急旋回飛行を行わせるもの
と判断し、前回算出した操作対象オブジェクト601の移
動方向から、前記飛行機を左に45度傾かせ、前記飛行
機の機首を45度挙げたものとし、当該操作対象オブジ
ェクト601の移動方向を決定する。If the movement is within the predetermined range, the operation target object 601 is caused to perform a predetermined operation, and the moving direction of the operation target object 601 is determined to be a direction required for performing the operation. (Step S100
3). For example, in the example shown in FIG. 3, when the coordinate values on the XY coordinates are X coordinate value ≧ 240 and Y coordinate value ≦ 15, it is determined that the operation target object is to make a sharp clockwise turn. From the movement direction of the operation target object 601 calculated last time, the airplane represented by the operation target object 601 is inclined to the right by 45 degrees, and the nose of the airplane is raised by 45 degrees. calculate. When the X coordinate value ≦ 15 and the Y coordinate value ≦ 15, it is determined that the operation target object 601 is to make a sharp left turn, and the airplane is moved leftward from the previously calculated movement direction of the operation target object 601. The nose of the airplane is raised by 45 degrees, and the moving direction of the operation target object 601 is determined.
【0095】一方、所定範囲内にない場合は、操作軸31
a、32aに加えられた操作により、操作装置20から出力さ
れる信号が示すX−Y座標上の座標値に応じて、操作対
象オブジェクト601が表す飛行機の左右の傾き、およ
び、当該飛行機の機首の上下を決定する。そして、前記
飛行機を、前回算出した操作対象オブジェクト601の移
動方向から、前記決定した角度だけ上下左右させたもの
とし、当該操作対象オブジェクト601の移動方向を決定
する(ステップS1004)。On the other hand, if it is not within the predetermined range, the operation shaft 31
In accordance with the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 by the operations applied to the a and 32a, the inclination of the airplane represented by the operation target object 601 and the aircraft Determine the neck up and down. Then, it is assumed that the airplane is moved up, down, left, and right by the determined angle from the previously calculated movement direction of the operation target object 601, and the movement direction of the operation target object 601 is determined (step S1004).
【0096】次に、オブジェクト位置算出部802は、仮
想的な3次元世界中における操作対象オブジェクト601
の位置と姿勢を算出する(ステップS1005)。Next, the object position calculation unit 802 operates a virtual three-dimensional operation object 601 around the world.
Is calculated (step S1005).
【0097】具体的には、前回算出した操作対象オブジ
ェクトの位置および姿勢と、操作内容受付部801で算出
された操作対象オブジェクト601の最新の移動速度か
ら、現時点での操作対象オブジェクト601の位置を算出
する。また、操作内容受付部801で決定された操作対象
オブジェクト601の最新の移動方向にしたがって、現時
点での操作対象オブジェクト601の姿勢を算出する。Specifically, the position of the operation target object 601 at the present time is determined from the position and orientation of the operation target object calculated last time and the latest moving speed of the operation target object 601 calculated by the operation content receiving unit 801. calculate. In addition, according to the latest moving direction of the operation target object 601 determined by the operation content receiving unit 801, the current posture of the operation target object 601 is calculated.
【0098】次に、3次元地図作成部803は、地図更新
の必要があるか否かを調べる(ステップS1006)。たと
えば、ステップS1005における操作対象オブジェクト601
の位置の算出処理がN回行われる毎に地図を更新する場
合は、カウンタを設け、カウント値がNに達したか否か
を調べる。Nに達した場合は、更新の必要ありと判断
し、カウント値をリセットして、ステップS1007に進
む。一方、カウント値がNに達していない場合は、カウ
ント値を1つインクリメントして、ステップS1008に進
む。Next, the three-dimensional map creation unit 803 checks whether or not the map needs to be updated (step S1006). For example, the operation target object 601 in step S1005
When the map is updated every time the position calculation processing is performed N times, a counter is provided and it is checked whether or not the count value has reached N. If the number has reached N, it is determined that updating is necessary, the count value is reset, and the process proceeds to step S1007. On the other hand, if the count value has not reached N, the count value is incremented by one and the process proceeds to step S1008.
【0099】ステップS1007では、3次元地図地図作成
部803は、ステップS1005において、オブジェクト位置算
出部802により算出された操作対象オブジェクトの位置
周辺に配置される地図構成要素を地図DB503から読み出
し、3次元世界中に配置する。これにより、操作対象オ
ブジェクトの位置周辺に展開される地形を展開する。In step S1007, the three-dimensional map map creator 803 reads from the map DB 503 the map components arranged around the position of the operation target object calculated by the object position calculator 802 in step S1005. Deploy all over the world. Thereby, the terrain developed around the position of the operation target object is developed.
【0100】ステップS1008では、オブジェクト配置部8
04は、ステップS1007において、3次元地図地図作成部8
03により地形が展開された3次元世界中において、オブ
ジェクトDA502によりその3次元形状など特定される操
作対象オブジェクト601を、ステップS1005において、オ
ブジェクト位置算出部802により算出した操作対象オブ
ジェクトの位置に配置する。この際、操作対象オブジェ
クトの姿勢が、ステップS1005において、オブジェクト
位置算出部802により算出した操作対象オブジェクトの
姿勢となるように、操作対象オブジェクトを配置する。In step S1008, the object placement unit 8
In step S1007, the three-dimensional map
In the three-dimensional world where the terrain is expanded by 03, the operation target object 601 specified by the object DA502, such as its three-dimensional shape, is arranged at the position of the operation target object calculated by the object position calculation unit 802 in step S1005. . At this time, the operation target object is arranged such that the posture of the operation target object becomes the posture of the operation target object calculated by the object position calculation unit 802 in step S1005.
【0101】次に、カメラ配置部805は、先に図7〜図
13を用いて説明した要領にしたがい、ステップS100
7、S1008において、3次元地図地図作成部803およびオ
ブジェクト配置部804により、地形および操作対象オブ
ジェクト601が配置された3次元世界から、2次元画像
を生成するために用いられる、仮想的なカメラ609の配
置位置と向きを設定する処理を行う(ステップS100
9)。Next, according to the procedure described earlier with reference to FIGS.
7. In S1008, a virtual camera 609 used by the three-dimensional map map creation unit 803 and the object placement unit 804 to generate a two-dimensional image from the three-dimensional world where the terrain and the operation target object 601 are placed. To set the arrangement position and orientation of the object (step S100
9).
【0102】上記のようにして、3次元世界中に操作対
象オブジェクト601および操作対象オブジェクト601周辺
の地形が配置され、この3次元世界中に配置された操作
対象オブジェクト601および操作対象オブジェクト601周
辺の地形を撮影する仮想的なカメラ609の配置位置と向
きが設定されると、画像生成部806は、この仮想的なカ
メラ609の配置位置を視点とし、当該カメラ609の向きを
視線方向として、かつ、操作対象オブジェクト601の移
動方向を軸とした左右に傾きに応じて、仮想的なカメラ
609を、カメラ視線方向610を軸として回動させて、この
3次元世界中に配置された操作対象オブジェクト601お
よび操作対象オブジェクト601を、仮想的なカメラスク
リーン上に投影するレンダリング処理を行う。これによ
り、2次元画像を生成する(ステップS1010)。As described above, the operation target object 601 and the terrain around the operation target object 601 are arranged around the three-dimensional world, and the operation target object 601 and the periphery of the operation object 601 arranged around the three-dimensional world are arranged. When the arrangement position and the orientation of the virtual camera 609 for photographing the terrain are set, the image generation unit 806 sets the arrangement position of the virtual camera 609 as a viewpoint, sets the orientation of the camera 609 as a line-of-sight direction, and , A virtual camera according to the left and right inclination with the movement direction of the operation target object 601 as an axis.
By rotating the 609 around the camera viewing direction 610 as an axis, a rendering process of projecting the operation target object 601 and the operation target object 601 arranged in the three-dimensional world on a virtual camera screen is performed. Thereby, a two-dimensional image is generated (step S1010).
【0103】それから、表示制御部807は、ステップS10
10において、画像生成部806により生成された2次元画
像をビデオ信号に変換し、本エンタテインメント装置1
に接続された表示装置に出力する(ステップS1011)。Then, the display control unit 807 determines in step S10
At 10, the two-dimensional image generated by the image generation unit 806 is converted into a video signal, and the entertainment device 1
Is output to the display device connected to (step S1011).
【0104】上述した図14に示すフローを繰り返し行
うことにより、本エンタテインメント装置1は、操作装
置20を介して受け付けたプレイヤの操作内容にしたがい
仮想的な3次元世界中を移動する操作対象オブジェクト
601を、仮想的なカメラ609で撮影することで得られる動
画像を、本エンタテインメント装置1に接続された表示
装置の表示画面上に表示する。By repeatedly performing the flow shown in FIG. 14 described above, the present entertainment apparatus 1 provides an operation target object that moves in a virtual three-dimensional world according to the operation content of the player received via the operation apparatus 20.
A moving image obtained by shooting 601 with the virtual camera 609 is displayed on a display screen of a display device connected to the entertainment device 1.
【0105】以上、本発明の実施形態について説明し
た。The embodiment of the present invention has been described above.
【0106】本実施形態によれば、仮想的なカメラ609
の配置位置であるカメラ設置点606に、前回算出された
カメラ設置点606’が考慮されるため、仮想的なカメラ6
09は、操作対象オブジェクト601の動きに対し、少し遅
れて操作対象オブジェクト601の後ろを追従するように
振舞う。また、操作対象オブジェクト601が移動方向を
軸として回動した場合には、仮想的なカメラ609も、そ
れに応じて、カメラ視線方向を軸として回動する。According to the present embodiment, the virtual camera 609
The camera installation point 606 ′ calculated last time is considered as the camera installation point 606 which is the arrangement position of the virtual camera 6
09 acts so as to follow the movement of the operation target object 601 with a slight delay with respect to the movement of the operation target object 601. Further, when the operation target object 601 rotates around the moving direction, the virtual camera 609 also rotates around the camera line of sight as an axis.
【0107】このため、プレイヤは、操作装置20を用い
て操作する操作対象オブジェクト601の仮想的な3次元
世界中における振る舞いを、表示画面を通して把握する
ことが容易となる。したがって、フライトシミュレーシ
ョンゲームの臨場感が増し、娯楽性が向上する。Therefore, it is easy for the player to grasp the virtual three-dimensional behavior of the operation target object 601 operated using the operation device 20 through the display screen. Therefore, the realism of the flight simulation game is increased, and the entertainment is improved.
【0108】また、本実施形態によれば、仮想的なカメ
ラ609は、操作対象オブジェクト601の移動速度が大きく
なるほど、操作対象オブジェクト601から遠ざかる方向
に移動することになる。According to the present embodiment, the virtual camera 609 moves in a direction away from the operation target object 601 as the moving speed of the operation target object 601 increases.
【0109】このため、プレイヤが、操作装置20を用い
て操作対象オブジェクト601の移動速度を上げた場合、
移動速度の増加分に応じて、仮想的なカメラ609に収め
られる(つまり表示装置の表示画面に表示される)オブ
ジェクト周囲の映像が広くなる。したがって、操作対象
オブジェクト601の移動速度を上げたときに、極端に操
作が難くなることを防ぐことができる。For this reason, when the player increases the moving speed of the operation target object 601 using the operation device 20,
In accordance with the increase in the moving speed, the image around the object contained in the virtual camera 609 (that is, displayed on the display screen of the display device) becomes wider. Therefore, it is possible to prevent the operation from becoming extremely difficult when the moving speed of the operation target object 601 is increased.
【0110】なお、操作対象オブジェクト601の移動速
度は、当該オブジェクト601の当該オブジェクト周囲に
配置された地形に対する相対速度として、表示装置の表
示画面に表示される動画像に反映されるため、操作対象
オブジェクト601の移動速度の増加分に応じて、仮想的
なカメラ609に収められるオブジェクト周囲の映像が広
くなっても、動画像から得られるスピード感は失われな
い。The moving speed of the operation target object 601 is reflected on the moving image displayed on the display screen of the display device as the relative speed of the object 601 with respect to the terrain arranged around the object. Even if the image around the object contained in the virtual camera 609 is widened according to the increase in the moving speed of the object 601, the sense of speed obtained from the moving image is not lost.
【0111】さらに、本実施形態では、仮想的なカメラ
609のカメラ視線方向610は、操作対象オブジェクト601
の移動速度が大きくなるほど、操作対象オブジェクト60
1の前方に向けられる。Further, in this embodiment, a virtual camera
609 camera gaze direction 610 is the operation target object 601
The higher the moving speed of the
Pointed forward one.
【0112】このため、プレイヤが、操作装置20を用い
て操作対象オブジェクト601の移動速度を上げた場合、
移動速度の増加分に応じて、仮想的なカメラ609に収め
られるオブジェクト周囲の映像がより遠方にまで広が
る。したがって、操作対象オブジェクト601の移動速度
を上げたときに、極端に操作が難くなることをさらに効
率よく防ぐことができる。For this reason, when the player increases the moving speed of the operation target object 601 using the operation device 20,
In accordance with the increase in the moving speed, the image around the object stored in the virtual camera 609 spreads farther. Therefore, when the moving speed of the operation target object 601 is increased, it is possible to more efficiently prevent the operation from becoming extremely difficult.
【0113】くわえて、本実施形態では、操作対象オブ
ジェクト609が表す飛行機の左右の傾きや機首の上下
を、操作装置20の操作軸31a、32aに加えられた操作によ
り、操作装置20から出力されたX−Y座標上の座標値に
応じて決定している。そして、前記X-Y座標値が所定
の範囲にある場合、操作対象オブジェクト601、所定の
動作(たとえば、急旋回などの、現実の世界において操
縦が困難と思われる動作)を行わせるものと判断させ、
操作対象オブジェクト601の移動方向が、当該動作を行
うために要求される方向となるように決定している。In addition, in the present embodiment, the inclination of the airplane represented by the operation target object 609 and the elevation of the nose are output from the operation device 20 by the operation applied to the operation axes 31a and 32a of the operation device 20. Is determined according to the coordinate values on the XY coordinates thus obtained. When the XY coordinate values are within a predetermined range, it is determined that the operation target object 601 is to perform a predetermined operation (for example, an operation that is difficult to steer in the real world, such as a sharp turn). Let
The moving direction of the operation target object 601 is determined to be the direction required to perform the operation.
【0114】このようにすることで、操作装置20の操作
軸31a、32aに、操縦かんと同じ機能をそのまま持たせる
場合に比べ、操作対象オブジェクト601の操作を簡単に
することができる。したがって、不慣れなプレイヤにと
っても、十分にフライトシミュレーションゲームを楽し
むことができる。In this way, the operation of the operation target object 601 can be simplified as compared with the case where the operation axes 31a and 32a of the operation device 20 have the same function as the control lever. Therefore, even an unskilled player can fully enjoy the flight simulation game.
【0115】なお、本発明は、上記の実施形態に限定さ
れるものではなく、その要旨の範囲内で様々な変形が可
能である。The present invention is not limited to the above embodiment, and various modifications are possible within the scope of the invention.
【0116】上記の実施形態では、仮想的なカメラ609
の配置位置であるカメラ設置点606に、前回算出された
カメラ設置点606’が考慮されるように設定している。
しかしながら、本発明はこれに限定されない。カメラ設
置点606は、少なくとも1つ前に算出されたカメラ設置
点を考慮して設定するものであればよい。In the above embodiment, the virtual camera 609
The camera installation point 606, which is the arrangement position of, is set so that the previously calculated camera installation point 606 ′ is considered.
However, the present invention is not limited to this. The camera installation point 606 only needs to be set in consideration of the camera installation point calculated at least one before.
【0117】たとえば、1つ前に算出されたカメラ設置
点606’およびカメラ追跡点604間の距離Lを所定値Mで
割ることで得られる距離L/Mだけ、前記カメラ設置点6
06’およびカメラ追跡点604間の中間点からカメラ追跡
点604へ近づく位置に、カメラ設置点606を設定するよう
にしてもよい。For example, the distance L / M obtained by dividing the distance L between the camera installation point 606 ′ and the camera tracking point 604 calculated immediately before by a predetermined value M is equal to the camera installation point 6.
The camera installation point 606 may be set at a position approaching the camera tracking point 604 from 06 ′ and an intermediate point between the camera tracking points 604.
【0118】あるいは、1つ前に算出されたカメラ設置
点606’と2つ前に算出されたカメラ設置点606”との中
間点およびカメラ追跡点604間の距離Lを所定値Mで割
ることで得られる距離L/Mだけ、前記中間点からカメ
ラ追跡点604へ近づく位置に、カメラ設置点606を設定す
るようにしてもよい。Alternatively, a distance L between an intermediate point between the camera installation point 606 ′ calculated immediately before and the camera installation point 606 ″ calculated two times before and the camera tracking point 604 is divided by a predetermined value M. The camera installation point 606 may be set at a position approaching the camera tracking point 604 from the intermediate point by the distance L / M obtained in the above.
【0119】また、上記の実施形態では、本エンタテイ
ンメント装置1を用いてフライトシミュレーションゲー
ムを行う場合を例にとり説明したが、本発明はこれに限
定されない。たとえば、本エンタテインメント装置1を
用いて、ドライブシミュレーションゲームなどの、操作
装置20を介して受け付けたプレイヤの操作内容にしたが
い仮想的な3次元世界中の操作対象オブジェクトの移動
させることが可能な、様々なテレビゲームを行う場合に
適用可能である。Further, in the above embodiment, the case where a flight simulation game is performed using the present entertainment apparatus 1 has been described as an example, but the present invention is not limited to this. For example, using the present entertainment apparatus 1, it is possible to move a virtual three-dimensional operation target object in the world according to the operation content of the player received via the operation apparatus 20, such as a drive simulation game. This is applicable when playing a simple video game.
【0120】なお、本エンタテインメント装置1を用い
てドライブシミュレーションゲームを行う場合、操作軸
31a、32aに加えられた操作により操作装置20から出力さ
れた信号が示すX−Y座標上の座標値が所定の範囲にあ
る場合、操作内容受付部801は、操作対象オブジェクト
に急回転などの、現実の世界において、操縦が困難と思
われる動作を行わせるものと判断させ、操作対象オブジ
ェクトの移動方向が、当該動作を行うために要求される
方向となるように決定すればよい。When a drive simulation game is performed using the entertainment apparatus 1, the operation axis
When the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 by the operations applied to the operations 31a and 32a are within a predetermined range, the operation content receiving unit 801 determines that the operation target object has a sudden rotation or the like. In the real world, it may be determined that an operation that is considered to be difficult to perform is performed, and the moving direction of the operation target object may be determined to be the direction required for performing the operation.
【0121】また、本発明における、仮想的なカメラ60
9の配置位置や向きの設定方法は、テレビゲームのみな
らず、仮想的な3次元世界中を移動する表示オブジェク
トを仮想的なカメラで撮影することで動画像を生成する
装置に広く適用可能である。In the present invention, the virtual camera 60
The method of setting the arrangement position and orientation of 9 can be widely applied not only to video games but also to a device that generates a moving image by shooting a virtual three-dimensional display object moving around the world with a virtual camera. is there.
【0122】また、エンタテインメント装置1の外観お
よびハードウエア構成は、図1、図2および図4に示し
たものに限定されない。エンタテインメント装置1は、
たとえば、CPUと、メモリと、ハードディスク装置な
どの外部記憶装置と、CD-ROMやDVD-ROMなど
の可搬性を有する記憶媒体からデータを読み取る読取装
置と、キーボードやマウスなどの入力装置と、ディスプ
レイなどの表示装置と、インターネットなどのネットワ
ークを介して通信を行うためのデータ通信装置と、上述
した各装置間のデータ送受を司るインターフェースとい
った、一般的な電子計算機の構成を有するものであって
もよい。The appearance and hardware configuration of the entertainment apparatus 1 are not limited to those shown in FIGS. 1, 2 and 4. The entertainment device 1
For example, a CPU, a memory, an external storage device such as a hard disk device, a reading device for reading data from a portable storage medium such as a CD-ROM or a DVD-ROM, an input device such as a keyboard and a mouse, and a display And the like, a data communication device for performing communication via a network such as the Internet, and an interface for controlling data transmission / reception between the above-described devices. Good.
【0123】また、エンタテインメント装置1上に、図
6に示すソフトウエア構成を構築するためのプログラム
や、3次元世界中に配置する地図構成要素および操作対
象オブジェクトの3次元形状などを特定するための各種
データは、読取装置を介して、可搬性を有する記憶媒体
から読み出され、メモリや外部記憶装置に記憶されるよ
うにしてもよいし、あるいは、データ通信装置を介し
て、ネットワークからダウンロードされ、メモリや外部
記憶装置に記憶されるようにしてもよい。Also, a program for constructing the software configuration shown in FIG. 6 on the entertainment apparatus 1, a map component to be arranged in a three-dimensional world, and a three-dimensional shape of an operation object are specified. The various data may be read from a portable storage medium via a reading device and stored in a memory or an external storage device, or may be downloaded from a network via a data communication device. May be stored in a memory or an external storage device.
【0124】[0124]
【発明の効果】以上のように、本発明によれば、不慣れ
なプレイヤでも、フライトシミュレーションやドライブ
シミュレーションなどを十分に楽しめることができるよ
うにすることが可能となる。As described above, according to the present invention, even an unskilled player can fully enjoy a flight simulation, a drive simulation, and the like.
【図1】本発明の一実施形態が適用されたエンタテイン
メント装置1および操作装置20の外観例を示した図であ
る。FIG. 1 is a view showing an example of the appearance of an entertainment apparatus 1 and an operation apparatus 20 to which an embodiment of the present invention is applied.
【図2】図1に示す操作装置20を示した図である。FIG. 2 is a view showing the operation device 20 shown in FIG.
【図3】図2に示す操作装置20の操作軸31a、32aを用
いて入力できる値を説明するための図である。FIG. 3 is a diagram for explaining values that can be input using the operation axes 31a and 32a of the operation device 20 shown in FIG. 2;
【図4】図1に示すエンタテインメント装置1のハード
ウエア構成例を示す図である。FIG. 4 is a diagram showing an example of a hardware configuration of the entertainment apparatus 1 shown in FIG.
【図5】エンタテインメント装置1のディスク装着部3
に装着される光ディスク85のデータ構成を説明するため
の図である。FIG. 5 shows a disc mounting unit 3 of the entertainment apparatus 1.
FIG. 3 is a diagram for explaining a data configuration of an optical disk 85 mounted on the optical disk 85.
【図6】図4に示すエンタテインメント装置1上に構築
される、フライトシミュレーションゲームを実現するた
めのソフトウエア構成を示した図である。6 is a diagram showing a software configuration for realizing a flight simulation game built on the entertainment device 1 shown in FIG.
【図7】図6に示すカメラ配置部805によって3次元世
界中に配置される仮想的なカメラ608と操作対象オブジ
ェクト601との位置関係を説明するための図である。7 is a diagram for explaining a positional relationship between a virtual camera 608 and an operation target object 601 which are arranged in a three-dimensional world by the camera arrangement unit 805 shown in FIG.
【図8】図6に示すカメラ配置部805によって3次元世
界中に配置される仮想的なカメラ608と操作対象オブジ
ェクト601との位置関係を説明するための図である。8 is a diagram for explaining a positional relationship between a virtual camera 608 and an operation target object 601 arranged around the three-dimensional world by the camera arrangement unit 805 shown in FIG.
【図9】図6に示すカメラ配置部805によって3次元世
界中に配置される仮想的なカメラ608と操作対象オブジ
ェクト601との位置関係を説明するための図である。9 is a diagram for explaining a positional relationship between a virtual camera 608 and an operation target object 601 arranged around the three-dimensional world by the camera arrangement unit 805 shown in FIG.
【図10】操作対象オブジェクト601の動きに対し、図
6に示すカメラ配置部805によって3次元世界中に配置
される仮想的なカメラ608がどのように振舞うかを説明
するための図である。FIG. 10 is a diagram for explaining how a virtual camera 608 arranged in the three-dimensional world by the camera arrangement unit 805 shown in FIG. 6 behaves in response to the movement of the operation target object 601.
【図11】操作対象オブジェクト601の動きに対し、図
6に示すカメラ配置部805によって3次元世界中に配置
される仮想的なカメラ608がどのように振舞うかを説明
するための図である。11 is a diagram for explaining how a virtual camera 608 arranged in the three-dimensional world by the camera arrangement unit 805 shown in FIG. 6 behaves in response to the movement of the operation target object 601.
【図12】図10に示すようにして配置された仮想的な
カメラ609で撮影した場合に得られる映像の一例を示し
た図である。12 is a diagram illustrating an example of a video obtained when photographing is performed by a virtual camera 609 arranged as illustrated in FIG. 10;
【図13】図11に示すようにして配置された仮想的な
カメラ609で撮影した場合に得られる映像の一例を示し
た図である。13 is a diagram illustrating an example of a video obtained when photographing is performed by a virtual camera 609 arranged as illustrated in FIG. 11;
【図14】図6に示した、エンタテインメント装置1上
に構築されるフライトシミュレーションゲームを実現す
るためのソフトウエア構成の動作を説明するためのフロ
ー図である。FIG. 14 is a flowchart for explaining the operation of the software configuration for realizing the flight simulation game built on the entertainment apparatus 1 shown in FIG. 6;
1…エンタテインメント装置 2…本体 3…ディスク装着部 4…リセットスイッチ 5…電源スイッチ 6…ディスク操作スイッチ 7A,7B…スロット部 8A,8B…メモリカード挿入部 12…操作装置接続部 20…操作装置 21,22…操作部 23L…Lボタン 23R…Rボタン 24…スタートボタン 25…選択ボタン 26…メモリカード 31,32…アナログ操作部 31a,32a…操作軸 33…モード選択スイッチ 34…表示部 50…制御系 51…中央処理装置(CPU:Central Prosessing Unit) 52…周辺装置制御部 53…メインメモリ 54…ROM 60…グラフィックシステム 61…ジオメトリトランスファエンジン(GTE:Geometry T
ransfer Engine) 62…画像処理装置(GPU:Graphic Processing Unit) 63…フレームバッファ 64…画像デコーダ 70…サウンドシステム 71…音声処理装置(SPU:Sound Processing Unit) 72…サウンドバッファ 73…スピーカ 80…光ディスク制御部 81…光ディスク装置 82…デコーダ 83…バッファ 84…サブCPU 90…通信制御部 91…通信制御機 100…携帯用電子機器 501…アプリケーションプログラム 502…オブジェクトデータ 503…地図データベース 601…操作対象オブジェクト 609…仮想的なカメラ 801…操作内容受付部 802…オブジェクト位置算出部 803…3次元地図作成部 804…オブジェクト配置部 805…カメラ配置部 806…画像生成部 807…表示制御部1 Entertainment unit 2 Main unit 3 Disk mounting unit 4 Reset switch 5 Power switch 6 Disk operation switch 7A, 7B Slot unit 8A, 8B Memory card insertion unit 12 Operating unit connection unit 20 Operating unit 21 , 22 ... Operation part 23L ... L button 23R ... R button 24 ... Start button 25 ... Select button 26 ... Memory card 31,32 ... Analog operation part 31a, 32a ... Operation axis 33 ... Mode selection switch 34 ... Display part 50 ... Control System 51 Central processing unit (CPU) 52 Peripheral device control unit 53 Main memory 54 ROM 60 Graphic system 61 Geometry transfer engine (GTE: Geometry T)
(ransfer Engine) 62 ... Graphic Processing Unit (GPU) 63 ... Frame Buffer 64 ... Image Decoder 70 ... Sound System 71 ... Sound Processing Unit (SPU) 72 ... Sound Buffer 73 ... Speaker 80 ... Optical Disk Control Unit 81 optical disk device 82 decoder 83 buffer 84 sub CPU 90 communication control unit 91 communication controller 100 portable electronic device 501 application program 502 object data 503 map database 601 operation object 609 Virtual camera 801… Operation content receiving unit 802… Object position calculation unit 803… 3D map creation unit 804… Object placement unit 805… Camera placement unit 806… Image generation unit 807… Display control unit
Claims (8)
点を中心にして傾倒可能に構成された操作軸を有する操
作装置を介して受け付けた操作者の操作内容に応じて、
仮想的な世界中を移動するオブジェクトを、表示装置に
表示するエンタテインメント装置であって、 前記操作装置より出力された、前記操作軸の前記所定の
軸に対する傾き方向とその角度より定まるX−Y座標上
の座標値に応じた信号に基づいて、前記オブジェクトの
移動方向を決定するとともに、当該座標値が所定範囲に
あるときは、前記オブジェクトは特定の動作をするもの
として、当該オブジェクトの移動方向を決定する操作内
容受付手段を有することを特徴とするエンタテインメン
ト装置。1. An apparatus according to claim 1, further comprising: a predetermined axis passing through a predetermined fulcrum, in accordance with an operation received by an operator via an operation device having an operation axis configured to be tiltable about the fulcrum.
An entertainment device for displaying a virtual object moving around the world on a display device, wherein an XY coordinate output from the operating device and determined by a tilt direction of the operating axis with respect to the predetermined axis and an angle thereof. Based on a signal corresponding to the above coordinate value, the moving direction of the object is determined, and when the coordinate value is within a predetermined range, the object performs a specific operation and the moving direction of the object is changed. An entertainment device comprising an operation content receiving means for determining.
あって、 当該エンタテインメント装置は、 前記操作装置を介して受け付けた操作者の操作内容に応
じて、仮想的な3次元世界中を移動するオブジェクト
を、仮想的なカメラで撮影することで得られる動画像
を、前記表示装置の表示画面上に表示するものであり、 前記オブジェクトは、 前記表示装置の表示画面上に、前記3次元世界中を移動
する飛行機として表示されるものであり、 前記操作内容受付手段は、 前記操作装置より出力された前記X−Y座標上の座標値
に応じた信号に基づいて、前記オブジェクトが表す飛行
機の左右の傾きおよび機首の上下を決定するとともに、
当該座標値が所定範囲にあるときは、前記オブジェクト
は特定の動作をするものとして、当該オブジェクトが表
す飛行機の左右の傾きおよび機首の上下を決定すること
を特徴とするエンタテインメント装置。2. The entertainment device according to claim 1, wherein the entertainment device is configured to control a virtual three-dimensional object moving around the world in accordance with an operation received by the operator via the operation device. Displaying a moving image obtained by photographing with a virtual camera on a display screen of the display device, wherein the object moves around the three-dimensional world on the display screen of the display device. The operation content receiving means, based on a signal corresponding to the coordinate value on the XY coordinates output from the operating device, the left and right inclination of the airplane represented by the object. And nose up and down,
When the coordinate value is within a predetermined range, the entertainment apparatus determines that the object performs a specific action and determines the horizontal inclination and the vertical nose of the airplane represented by the object.
あって、 前記特定の動作とは、旋回飛行動作であることを特徴と
するエンタテインメント装置。3. The entertainment device according to claim 2, wherein the specific operation is a turning flight operation.
グラムを記憶した記憶媒体であって、 前記プログラムは、前記電子計算機に読み取られて実行
されることで、 当該電子計算機に接続された、所定の支点を通る所定の
軸に対し、当該支点を中心にして傾倒可能に構成された
操作軸を有する操作装置を介して、操作者の操作内容を
受け付け、当該内容に応じて、仮想的な世界中を移動す
るオブジェクトを、表示装置に表示する手段を、当該電
子計算機上に構築するものであり、 前記表示する手段は、 前記操作装置より出力された、前記操作軸の前記所定の
軸に対する傾き方向とその角度より定まるX−Y座標上
の座標値に応じた信号に基づいて、前記オブジェクトの
移動方向を決定するとともに、当該座標値が所定範囲に
あるときは、前記オブジェクトは特定の動作をするもの
として、当該オブジェクトの移動方向を決定する操作内
容受付手段を有することを特徴とする記憶媒体。4. A storage medium storing a program which is read and executed by an electronic computer, wherein the program is read and executed by the electronic computer so that a predetermined program is connected to the electronic computer. With respect to a predetermined axis passing through the fulcrum, an operation content of the operator is received via an operation device having an operation axis configured to be tiltable about the fulcrum, and a virtual world is Means for displaying an object moving in the display device on a display device, wherein the display means comprises: a tilt of the operation axis output from the operation device with respect to the predetermined axis. The moving direction of the object is determined based on a signal corresponding to the coordinate value on the XY coordinate determined from the direction and the angle, and when the coordinate value is within a predetermined range, A storage medium, characterized in that the object performs a specific operation and includes an operation content receiving unit that determines a moving direction of the object.
じて、仮想的な3次元世界中を移動するオブジェクト
を、仮想的なカメラで撮影することで得られる動画像
を、前記表示装置の表示画面上に表示するものであり、 前記オブジェクトは、 前記表示装置の表示画面上に、前記3次元世界中を移動
する飛行機として表示されるものであり、 前記操作内容受付手段は、 前記操作装置より出力された前記X−Y座標上の座標値
に応じた信号に基づいて、前記オブジェクトが表す飛行
機の左右の傾きおよび機首の上下を決定するとともに、
当該座標値が所定範囲にあるときは、前記オブジェクト
は特定の動作をするものとして、当該オブジェクトが表
す飛行機の左右の傾きおよび機首の上下を決定すること
を特徴とする記憶媒体。5. The storage medium according to claim 4, wherein said displaying means is a virtual three-dimensional object which moves around the world in accordance with an operation content of an operator received via said operation device. Is displayed on a display screen of the display device, and a moving image obtained by photographing the object with a virtual camera is displayed on the display screen of the display device. It is displayed as a moving airplane, the operation content receiving means, based on a signal corresponding to the coordinate value on the XY coordinates output from the operating device, the left and right of the airplane represented by the object Determine the tilt and the nose up and down,
When the coordinate value is within a predetermined range, the object performs a specific operation, and determines the left-right inclination and the nose up-down of the airplane represented by the object.
する記憶媒体。6. The storage medium according to claim 5, wherein the specific operation is a turning flight operation.
点を中心にして傾倒可能に構成された操作軸を有する操
作装置を介して受け付けた操作者の操作内容に応じて、
表示装置に表示される仮想的な世界中のオブジェクトの
移動を制御する、表示オブジェクトの操作方法であっ
て、 前記操作装置より出力された、前記操作軸の前記所定の
軸に対する傾き方向とその角度より定まるX−Y座標上
の座標値に応じた信号に基づいて、前記オブジェクトの
移動方向を決定するとともに、当該座標値が所定範囲に
あるときは、前記オブジェクトは特定の動作をするもの
として、当該オブジェクトの移動方向を決定することを
特徴とする表示オブジェクトの操作方法。7. According to an operation received by an operator via an operation device having an operation axis configured to be tiltable about a fulcrum with respect to a predetermined axis passing through a predetermined fulcrum,
A method of operating a display object, which controls movement of a virtual object around the world displayed on a display device, wherein a tilt direction and an angle of the operation axis output from the operation device with respect to the predetermined axis. The moving direction of the object is determined based on a signal corresponding to the coordinate values on the X-Y coordinates that are determined, and when the coordinate values are within a predetermined range, the object performs a specific operation, A method for operating a display object, comprising determining a moving direction of the object.
グラムであって、 前記プログラムは、記憶装置に格納され、前記電子計算
機に読み取られて実行されることで、 当該電子計算機に接続された、所定の支点を通る所定の
軸に対し、当該支点を中心にして傾倒可能に構成された
操作軸を有する操作装置を介して、操作者の操作内容を
受け付け、当該内容に応じて、仮想的な世界中を移動す
るオブジェクトを、表示装置に表示する手段を、当該電
子計算機上に構築するものであり、 前記表示する手段は、 前記操作装置より出力された、前記操作軸の前記所定の
軸に対する傾き方向とその角度より定まるX−Y座標上
の座標値に応じた信号に基づいて、前記オブジェクトの
移動方向を決定するとともに、当該座標値が所定範囲に
あるときは、前記オブジェクトは特定の動作をするもの
として、当該オブジェクトの移動方向を決定する操作内
容受付手段を有することを特徴とするプログラム。8. A program that is read and executed by a computer, wherein the program is stored in a storage device, read and executed by the computer, and connected to the computer. With respect to a predetermined axis passing through a predetermined fulcrum, an operation content of the operator is received via an operation device having an operation axis configured to be tiltable about the fulcrum, and a virtual A means for displaying an object moving around the world on a display device is constructed on the computer. The display means outputs the operation axis with respect to the predetermined axis output from the operation device. The moving direction of the object is determined based on a signal corresponding to the coordinate value on the XY coordinate determined from the tilt direction and the angle, and when the coordinate value is within a predetermined range, A program according to claim 1, wherein the object performs a specific operation, and includes an operation content receiving unit that determines a moving direction of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001012276A JP2001269485A (en) | 2000-01-21 | 2001-01-19 | Entertainment device, storage medium, and displayed object operating method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000012811 | 2000-01-21 | ||
JP2000-12811 | 2000-01-21 | ||
JP2001012276A JP2001269485A (en) | 2000-01-21 | 2001-01-19 | Entertainment device, storage medium, and displayed object operating method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001269485A true JP2001269485A (en) | 2001-10-02 |
Family
ID=26583921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001012276A Pending JP2001269485A (en) | 2000-01-21 | 2001-01-19 | Entertainment device, storage medium, and displayed object operating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001269485A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007310748A (en) * | 2006-05-19 | 2007-11-29 | Sony Computer Entertainment Inc | Image processor, image processing method and program |
-
2001
- 2001-01-19 JP JP2001012276A patent/JP2001269485A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007310748A (en) * | 2006-05-19 | 2007-11-29 | Sony Computer Entertainment Inc | Image processor, image processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3884043B2 (en) | GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM | |
US6670957B2 (en) | Entertainment apparatus, storage medium and object display method | |
US6781598B1 (en) | Entertainment apparatus, image generation method, and storage medium | |
US6762746B2 (en) | Entertainment apparatus, storage medium and operation method of manipulating object | |
JP4187182B2 (en) | Image generation system, program, and information storage medium | |
EP1213044B1 (en) | Video game system, character action control method, and readable storage medium storing character action control program | |
US6774901B2 (en) | Three-dimensional image processing method and apparatus, readable storage medium storing three-dimensional image processing program and video game system | |
US6989832B2 (en) | Entertainment apparatus, storage medium and object display method | |
JP2003024624A (en) | Program, method and device for processing three- dimensional image | |
JP3583995B2 (en) | Entertainment device, storage medium, and object display method | |
US7145569B2 (en) | Data processing method | |
US20020115483A1 (en) | Recording medium, program executing system, and program executing device | |
US6769988B1 (en) | Entertainment unit, recording medium and method for setting its parameters | |
JP3602835B2 (en) | VIDEO GAME DEVICE, ITS CONTROL METHOD, AND GAME PROGRAM | |
JP3564440B2 (en) | Moving image generation program, moving image generation method and apparatus | |
US7985136B2 (en) | Image producing device, speed expressing method, and program | |
JP3583994B2 (en) | Entertainment device, storage medium, and object display method | |
JP2002304640A (en) | Method and device for three-dimensional image processing, three-dimensional image processing program, and video game device | |
JP2001269485A (en) | Entertainment device, storage medium, and displayed object operating method | |
JP3937179B2 (en) | Game screen display control method, character movement control method, game machine, and recording medium recording program | |
JPH11232483A (en) | Information processor and information recording medium | |
JP2010079564A (en) | Program, information storage medium and game apparatus | |
JP4001434B2 (en) | GAME DEVICE AND INFORMATION STORAGE MEDIUM | |
JP4826923B2 (en) | Game device | |
JP3629453B2 (en) | Game progress control program, game progress control method, and video game apparatus |