JP2017004543A - Information processing apparatus, information processing method, and game device - Google Patents
Information processing apparatus, information processing method, and game device Download PDFInfo
- Publication number
- JP2017004543A JP2017004543A JP2016147900A JP2016147900A JP2017004543A JP 2017004543 A JP2017004543 A JP 2017004543A JP 2016147900 A JP2016147900 A JP 2016147900A JP 2016147900 A JP2016147900 A JP 2016147900A JP 2017004543 A JP2017004543 A JP 2017004543A
- Authority
- JP
- Japan
- Prior art keywords
- input
- coordinates
- unit
- touch
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 42
- 238000003672 processing method Methods 0.000 title description 8
- 238000000034 method Methods 0.000 abstract description 59
- 238000012545 processing Methods 0.000 description 115
- 230000008569 process Effects 0.000 description 35
- 210000003811 finger Anatomy 0.000 description 22
- 230000015572 biosynthetic process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000007123 defense Effects 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000005674 electromagnetic induction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000012780 transparent material Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は,表示画面上における領域を指定することが可能な情報処理装置,情報処理方法,及びゲーム装置に関する。具体的に説明すると,本発明は,表示画面上における領域を指定することにより,例えば指定した領域に含まれる一又は複数のオブジェクトを選択する処理を行うことのできる情報処理装置等に関するものである。 The present invention relates to an information processing apparatus, an information processing method, and a game apparatus that can specify an area on a display screen. More specifically, the present invention relates to an information processing apparatus or the like that can perform a process of selecting one or a plurality of objects included in a specified area by specifying an area on a display screen, for example. .
従来から,タッチスクリーンやマウスポインタのようなポインティングデバイスを利用して,表示画面上の入力位置をスライドすることにより矩形の領域を指定する技術がよく知られている。このように,表示画面上で矩形の領域を指定することで,指定した領域に含まれる一又は複数のオブジェクトを選択したり,指定した領域内の画像を拡大,切り取り又は編集することが可能になる。このような従来の技術では,一般的に,ポインティングデバイスによって表示画面上の一点をタッチ入力(又はクリック入力)し,画面のタッチ入力を継続したままタッチ位置をスライド(スワイプ)させて,その後タッチ入力をリリースすることにより,最初のタッチ位置と最後のタッチ位置を繋ぐ線分を対角線とする矩形の領域を指定することとしている。 Conventionally, a technique for specifying a rectangular area by sliding an input position on a display screen using a pointing device such as a touch screen or a mouse pointer is well known. In this way, by specifying a rectangular area on the display screen, it is possible to select one or more objects included in the specified area, and to enlarge, cut, or edit an image in the specified area Become. In such a conventional technique, generally, a point on the display screen is touch-inputted (or click-inputted) with a pointing device, and the touch position is slid (swipe) while continuing to touch the screen, and then touched. By releasing the input, a rectangular area having a diagonal line connecting the first touch position and the last touch position is designated.
また,タッチパネルディスプレイを利用して画面上の複数のオブジェクトを利用する技術として,例えば特許文献1に開示されたものが知られている。特許文献1に開示された技術は,複数のオブジェクトを表示可能なモニタに重ねて配置されたタッチパネルディスプレイがタッチ操作された際のタッチ状態を検出し,検出されたタッチ状態に応じて,オブジェクトを選択する範囲を規定する選択エリアの大きさを決定するとともに,タッチ位置を基準に選択エリアを設定し,設定された選択エリアに少なくとも一部が重なるオブジェクトを選択候補とする。 As a technique for using a plurality of objects on a screen using a touch panel display, for example, one disclosed in Patent Document 1 is known. The technology disclosed in Patent Document 1 detects a touch state when a touch panel display arranged on a monitor capable of displaying a plurality of objects is touched, and detects objects according to the detected touch state. The size of the selection area that defines the selection range is determined, the selection area is set based on the touch position, and an object that at least partially overlaps the set selection area is set as a selection candidate.
ところで,近年,タッチパネルディスプレイを大型化することができるようになり,その用途も多様化しつつある。例えば,タッチパネルディスプレイにゲーム画像を表示し,ユーザがタッチパネルを指でタッチ操作することで,ゲーム進行に関する入力操作を行うことができるゲーム装置も開発されている。特に,ゲーム装置に大型のタッチパネルディスプレイを搭載して,アクションゲームを実行することにより,ユーザに対し臨場感の高いゲームを提供することができる。 Incidentally, in recent years, it has become possible to increase the size of touch panel displays, and their uses are also diversifying. For example, a game apparatus has been developed in which a game image is displayed on a touch panel display, and a user can perform an input operation related to the progress of the game by touching the touch panel with a finger. In particular, by mounting a large touch panel display on a game device and executing an action game, it is possible to provide a highly realistic game to the user.
このような大型のタッチパネルディスプレイによりアクションゲームが提供される場合,ユーザはせわしなくタッチ操作を行うことが必要となる。タッチパネルディスプレイのタッチ操作の手法としては,例えば,タッチパネルディスプレイの画面の一点をタッチする動作や,画面を指でなぞる動作,画面を指で弾く動作等が存在する。これらの操作には,それぞれ別々のコマンド(命令)が割り振られており,ユーザは,これらの操作手法を選択しながら種々のコマンドを繰り返し入力することで,ゲームを進めていく。特に,表示画面上に表示された複数のオブジェクトを選択しながらゲームを進行するようなゲーム装置においては,オブジェクトを選択するにあたり,一のオブジェクトの選択を望む場合にはそのオブジェクトが表示された画面上の一点をタッチし,複数のオブジェクトの選択を望む場合にはそれぞれのオブジェクトが表示された画面上をタッチしていくこともある。 When an action game is provided by such a large touch panel display, the user needs to perform a touch operation without any trouble. As a touch operation method of the touch panel display, there are, for example, an operation of touching one point of the screen of the touch panel display, an operation of tracing the screen with a finger, and an operation of flipping the screen with a finger. Separate commands (instructions) are assigned to these operations, and the user advances the game by repeatedly inputting various commands while selecting these operation methods. In particular, in a game device in which a game progresses while selecting a plurality of objects displayed on the display screen, when selecting one object, the screen on which the object is displayed is selected. When one point on the top is touched and selection of a plurality of objects is desired, the screen on which each object is displayed may be touched.
ここで,画面上に表示されているオブジェクトの中から多数のオブジェクトを選択することを希望するような場合に,選択を希望するオブジェクトを1つずつタッチすることは煩雑であり,ゲームの操作性を損なうものであった。そこで,上記特許文献1に開示された技術のように,タッチパネルディスプレイに対する一点のタッチ状態が継続している場合に,ユーザの手指が画面上をスライドした軌跡に基づいて選択エリアを決定し,その選択エリアに含まれるオブジェクトを選択する技術も提案されている。 Here, when it is desired to select a large number of objects from the objects displayed on the screen, it is troublesome to touch the objects to be selected one by one, and the operability of the game Was detrimental. Therefore, as in the technique disclosed in Patent Document 1, when a single touch state on the touch panel display continues, the selection area is determined based on the locus of the user's finger sliding on the screen, A technique for selecting an object included in a selection area has also been proposed.
しかしながら,特許文献1に開示された技術では,一のオブジェクトを選択する操作も,複数のオブジェクトを選択する操作も,基本的に一本の指のタッチ状態に基づいて行われる。このように,一のオブジェクトを選択する操作と複数のオブジェクトを選択する操作が,一本の指のタッチ状態が継続しているか否かという点のみによって区別されていると,ユーザがタッチ操作を誤り易いという問題があった。すなわち,ユーザが一のオブジェクトの選択を意図しているにも関わらず,誤ってタッチパネルディスプレイに対する継続したタッチ状態が検知されてしまったような場合に,意図しない他のオブジェクトが選択されてしまうという問題がある。反対に,ユーザが複数のオブジェクトの選択を意図しているにも関わらず,誤ってタッチパネルディスプレイに対する継続したタッチ状態が検知されなかったような場合には,一のオブジェクトのみが選択されるという問題がある。さらに,タッチパネルディスプレイの画面を一本の指でなぞる動作(スライドさせる動作)に対し別のコマンドが割り振られているような場合には,ユーザによって誤操作が行われる可能性はより高まる。 However, in the technique disclosed in Patent Document 1, an operation for selecting one object and an operation for selecting a plurality of objects are basically performed based on the touch state of one finger. As described above, when the operation of selecting one object and the operation of selecting a plurality of objects are distinguished only by whether or not the touch state of one finger is continued, the user performs the touch operation. There was a problem that it was easy to make mistakes. In other words, when the user intends to select one object but the touch state on the touch panel display is mistakenly detected, another unintended object is selected. There's a problem. On the other hand, when the user intends to select a plurality of objects but the continuous touch state on the touch panel display is not detected by mistake, only one object is selected. There is. Further, when another command is assigned to an operation of tracing the screen of the touch panel display with one finger (sliding operation), the possibility of an erroneous operation by the user is further increased.
そこで,現在では,表示画面上の任意領域を指定する入力操作を,一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することにより,ユーザによる誤操作を防止する技術が求められている。特に,大型のタッチパネルディスプレイをせわしなくタッチすることが必要なゲーム装置を想定すると,表示画面上の広い範囲の任意領域を,片手で容易に指定することのできる入力操作に関する技術が求められている。 Therefore, at present, by effectively distinguishing an input operation that specifies an arbitrary area on the display screen from a touch or click input operation that specifies a single point, or an operation that slides while continuing to input a single point, There is a demand for a technique for preventing an erroneous operation by a user. In particular, assuming a game device that needs to be touched without a large touch panel display, there is a need for a technique related to an input operation that can easily specify a wide range of an arbitrary area on a display screen with one hand.
そこで,本発明の発明者は,上記の従来発明の問題点を解決する手段について鋭意検討した結果,座標入力部に最初に同時に入力されている2点の座標から求められる中間座標と,座標入力部に最後に同時に入力されている2点の座標から求められる中間座標とに基づいて,表示画面上の所定領域を確定することにより,表示画面上の任意領域を指定する入力操作を,一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができるという知見を得た。しかも,上記操作手法によれば,表示画面上の広い範囲の領域を,片手で容易に指定することができるという知見を得た。そして,本発明者は,上記知見に基づけば,従来技術の課題を解決できることに想到し,本発明を完成させた。
具体的に,本発明は以下の構成を有する。
Therefore, the inventor of the present invention has intensively studied the means for solving the above-described problems of the conventional invention, and as a result, the intermediate coordinates obtained from the coordinates of the two points initially input to the coordinate input unit, and the coordinate input. An input operation for designating an arbitrary area on the display screen is determined by determining a predetermined area on the display screen based on the intermediate coordinates obtained from the coordinates of the last two points simultaneously input to the part. The knowledge that it can distinguish effectively from the operation of specified touch or click input and the operation of sliding while continuing to input one point. In addition, according to the above operation method, it has been found that a wide range area on the display screen can be easily specified with one hand. The inventor has conceived that the problems of the prior art can be solved based on the above knowledge, and has completed the present invention.
Specifically, the present invention has the following configuration.
本発明の第1の側面は,情報処理装置に関する。
本発明の情報処理装置は,画像を表示可能な表示部1と,表示部1の表示画面上における座標を入力するための座標入力部2と,座標入力部2に入力された座標に基づいて表示部1の表示画面上における領域Rを指定する領域指定部3と,を有する。
この領域指定部3は,まず,座標入力部に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する。
また,領域指定部3は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する。
そして,領域指定部3は,第1中間点M1の座標と第2中間点M2の座標に基づいて,表示部1の表示画面上における領域Rを確定する。
The first aspect of the present invention relates to an information processing apparatus.
The information processing apparatus of the present invention is based on a display unit 1 capable of displaying an image, a coordinate input unit 2 for inputting coordinates on the display screen of the display unit 1, and coordinates input to the coordinate input unit 2. And an area designating unit 3 for designating an area R on the display screen of the display unit 1.
The area designating unit 3 first determines the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points based on the coordinates of the first two points simultaneously input to the coordinate input unit.
The area designating unit 3 determines the coordinates of the second intermediate point M2 obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the two coordinates are not input simultaneously. To do.
Then, the area designating unit 3 determines the area R on the display screen of the display unit 1 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2.
上記構成のように,本発明の情報処理装置は,最初に同時に入力された2点の座標から1点の第1中間座標を求め,最後に同時に入力された2点の座標から1点の第2中間座標を求めることにより,第1中間座標と第2中間座標とに基づいて表示画面上の領域を確定する。このように,本発明は,表示画面上の領域を指定する入力操作として,座標入力部に対し2点の座標を同時に入力する操作を求めるものであるため,表示画面上の任意領域を指定する入力操作を,例えば一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができる。従って,本発明によれば,ユーザによる誤操作を防止できる。
さらに,本発明は,例えばタッチパネルディスプレイを想定した場合には,二本の指のタッチ位置から第1中間座標を得て,二本の指がスライドした後にリリースされたタッチ位置から第2中間座標を得て,これらの第1中間座標及び第2中間座標に基づいて表示画面上の領域を確定する。このため,ユーザは,表示画面上の広い範囲の任意領域を,片手で容易に指定することができる。
このように,本発明は,表示部と座標入力部を備えた情報処理装置の新しい操作手法を提案するものである。本発明よれば,情報処理装置の操作性を向上させることができる。
As described above, the information processing apparatus according to the present invention obtains one first intermediate coordinate from the coordinates of two points input at the same time at the beginning, and first one point from the coordinates of the two points input at the last time. By obtaining the two intermediate coordinates, an area on the display screen is determined based on the first intermediate coordinates and the second intermediate coordinates. As described above, according to the present invention, as an input operation for designating an area on the display screen, an operation for inputting the coordinates of two points at the same time to the coordinate input unit is required, so an arbitrary area on the display screen is designated. The input operation can be effectively distinguished from, for example, a touch or click input operation for designating one point and an operation for sliding while continuing to input one point. Therefore, according to the present invention, erroneous operation by the user can be prevented.
Further, in the case where a touch panel display is assumed, for example, the present invention obtains the first intermediate coordinate from the touch position of two fingers, and the second intermediate coordinate from the touch position released after the two fingers slide. And the area on the display screen is determined based on the first intermediate coordinates and the second intermediate coordinates. Therefore, the user can easily specify a wide range of arbitrary area on the display screen with one hand.
Thus, the present invention proposes a new operation method for an information processing apparatus including a display unit and a coordinate input unit. According to the present invention, the operability of the information processing apparatus can be improved.
本発明の情報処理装置において,表示部1は,表示画面上に複数のオブジェクトOを表示可能であることとしてもよい。この場合,本発明の情報処理装置は,領域指定部3により指定された領域Rに,少なくとも一部が含まれる一又は複数のオブジェクトOを選択するオブジェクト選択部4を,さらに有することが好ましい。 In the information processing apparatus of the present invention, the display unit 1 may be capable of displaying a plurality of objects O on the display screen. In this case, it is preferable that the information processing apparatus of the present invention further includes an object selection unit 4 that selects one or a plurality of objects O including at least part of the region R specified by the region specification unit 3.
上記構成のように,本発明の領域指定部によって表示画面上の領域を指定することの用途として,指定された領域内に含まれる一又は複数のオブジェクトを選択することが考えられる。例えば,画面上に表示された一のオブジェクトを選択する場合には,従来通り,ポインティングデバイスにより,所望のオブジェクトが表示された部分をタッチ又はクリック入力すればよい。そして,画面上に表示された複数のオブジェクトを選択する場合には,本発明の操作手法に従って,第1中間座標と第2中間座標に基づいて所定の領域を決定し,その所定の領域に所望のオブジェクトが含まれるようにすればよい。これにより,ユーザは,一のオブジェクトを選択する操作と複数のオブジェクトを選択する操作とを容易に区別できるようになる。 As in the above configuration, as an application of specifying an area on the display screen by the area specifying unit of the present invention, it is conceivable to select one or a plurality of objects included in the specified area. For example, when one object displayed on the screen is selected, a portion where the desired object is displayed may be touched or clicked with a pointing device as in the past. When a plurality of objects displayed on the screen are selected, a predetermined area is determined based on the first intermediate coordinates and the second intermediate coordinates in accordance with the operation method of the present invention, and the predetermined area is selected as desired. It is sufficient that the object is included. As a result, the user can easily distinguish between an operation for selecting one object and an operation for selecting a plurality of objects.
本発明の情報処理装置において,表示部1と座標入力部2は,座標入力部2が表示部1の前面に重ね合わされることによりタッチパネルディスプレイ10を形成していることが好ましい。タッチパネルディスプレイ10とは,座標入力部2にユーザの手指等が接触した点を,表示部1の画面上における座標として検出する装置である。 In the information processing apparatus of the present invention, it is preferable that the display unit 1 and the coordinate input unit 2 form the touch panel display 10 by overlapping the coordinate input unit 2 on the front surface of the display unit 1. The touch panel display 10 is a device that detects, as coordinates on the screen of the display unit 1, a point where a user's finger or the like has contacted the coordinate input unit 2.
上記構成のように,表示部と座標入力部によってタッチパネルディスプレイを形成することにより,ユーザは直感的な操作によって,表示画面上の所定領域を指定できるようになる。 As described above, the touch panel display is formed by the display unit and the coordinate input unit, so that the user can designate a predetermined area on the display screen by an intuitive operation.
本発明において,上記した領域Rは,例えば,第1中間点M1と第2中間点M2を繋ぐ線分を対角線とする多角形の領域であるか,第1中間点M1と第2中間点M2を繋ぐ線分を直径とする円形の領域であるか,若しくは,第1中間点M1と第2中間点M2を繋ぐ線分を長径又は短径とする楕円形の領域とすることができる。 In the present invention, the above-described region R is, for example, a polygonal region having a line segment connecting the first intermediate point M1 and the second intermediate point M2 as a diagonal line, or the first intermediate point M1 and the second intermediate point M2. Can be a circular region having a diameter of a line segment connecting the two or a elliptical region having a long or short axis as a line segment connecting the first intermediate point M1 and the second intermediate point M2.
本発明の第2の側面は,上記第1の側面に係る情報処理装置により実行される情報処理方法に関する。
すなわち,本発明の情報処理方法は,表示部1の表示画面上における座標を入力するための座標入力部2により検出された座標に基づいて,表示部1の表示画面上における領域を指定する。
本発明の情報処理方法では,まず,座標入力部2に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する工程を行う。
次に,本発明の情報処理方法は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する工程を行う。
そして,本発明の情報処理方法は,第1中間点M1の座標と第2中間点M2の座標に基づいて,表示部1の表示画面上における領域Rを確定する工程を行う。
The second aspect of the present invention relates to an information processing method executed by the information processing apparatus according to the first aspect.
That is, the information processing method of the present invention designates an area on the display screen of the display unit 1 based on the coordinates detected by the coordinate input unit 2 for inputting coordinates on the display screen of the display unit 1.
In the information processing method of the present invention, first, based on the coordinates of the first two points inputted simultaneously to the coordinate input unit 2, the step of determining the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points. I do.
Next, according to the information processing method of the present invention, the second intermediate point M2 obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the coordinates of the two points are not input simultaneously. A step of determining coordinates is performed.
And the information processing method of this invention performs the process of determining the area | region R on the display screen of the display part 1 based on the coordinate of the 1st intermediate point M1, and the coordinate of the 2nd intermediate point M2.
本発明の第3の側面は,ゲーム装置に関する。
本発明のゲーム装置は,タッチパネルディスプレイ100と,カードリーダ200と,カードリーダ200により読み取られた情報をタッチパネルディスプレイ100に表示してゲームを進行するゲーム本体部300と,を備える
タッチパネルディスプレイ100は,画像を表示可能なディスプレイ110と,ディスプレイ110の前面に重ね合わされの表示画面上における座標を入力するためのタッチスクリーン120と,を有する。
カードリーダ200は,所定のカード情報を有するコードが印刷されたカードが載置されるパネル210と,パネル210に載置されたカードのコードを読み取り,カード情報を検出するイメージセンサ230と,を有する。
また,ゲーム本体部300は,カード情報と関連付けてオブジェクトOに関する情報が記憶されるゲーム情報記憶部380と,カードリーダ200のイメージセンサ230により検出されたカード情報に基づいてゲーム情報記憶部380からオブジェクトOに関する情報を読み出し,読み出したオブジェクトOの画像をタッチパネルディスプレイ100のディスプレイ110に表示する制御を行う画像処理部330と,ゲーム処理部320と,を有する。
ここで,ゲーム処理部320は,まず,タッチパネルディスプレイ100のタッチスクリーン120に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点M1の座標を決定する。また,ゲーム処理部320は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点M2の座標を決定する。また,ゲーム処理部320は,第1中間点M1の座標と第2中間点M2の座標に基づいて,ディスプレイ110の表示画面上における領域Rを指定する。そして,ゲーム処理部320は,指定された領域Rに,少なくとも一部が含まれるように画像が表示されている一又は複数のオブジェクトOを選択して,ゲームを進行する。
A third aspect of the present invention relates to a game device.
The game apparatus according to the present invention includes a touch panel display 100, a card reader 200, and a game main body 300 that displays information read by the card reader 200 on the touch panel display 100 and progresses the game. A display 110 capable of displaying an image and a touch screen 120 for inputting coordinates on a display screen superimposed on the front surface of the display 110 are provided.
The card reader 200 includes a panel 210 on which a card printed with a code having predetermined card information is placed, and an image sensor 230 that reads the code of the card placed on the panel 210 and detects the card information. Have.
In addition, the game main unit 300 includes a game information storage unit 380 that stores information related to the object O in association with card information, and a game information storage unit 380 that is based on the card information detected by the image sensor 230 of the card reader 200. It has an image processing unit 330 that controls to read out information about the object O and display an image of the read object O on the display 110 of the touch panel display 100, and a game processing unit 320.
Here, based on the coordinates of the first two points simultaneously input to the touch screen 120 of the touch panel display 100, the game processing unit 320 first determines the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points. To decide. In addition, the game processing unit 320 determines the coordinates of the second intermediate point M2 obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the two coordinates are not input simultaneously. To do. In addition, the game processing unit 320 designates the region R on the display screen of the display 110 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2. Then, the game processing unit 320 selects one or a plurality of objects O on which images are displayed so that at least a part is included in the designated region R, and proceeds with the game.
上記構成のように,本発明のゲーム装置は,カードリーダとタッチパネルディスプレイを実装しており,これらの操作を組み合わせてゲームを進行していくものである。例えば,ゲームのユーザは,一方の手でカードリーダに載置されたカードの操作を行ってタッチパネルディスプレイに一又は複数のオブジェクトを表示させ,他方の手でタッチパネルディスプレイのタッチ操作を行うことで表示されたオブジェクトの選択を行う。このように,タッチパネルディスプレイを片手で操作してオブジェクトの選択を行わなければならないゲーム装置においては,上記したオブジェクト選択操作を採用することで,ゲームの操作性を向上させることができる。 As described above, the game device of the present invention is equipped with a card reader and a touch panel display, and advances the game by combining these operations. For example, a game user operates a card placed on a card reader with one hand to display one or a plurality of objects on the touch panel display, and displays by touching the touch panel display with the other hand. The selected object is selected. As described above, in a game device in which an object must be selected by operating the touch panel display with one hand, the operability of the game can be improved by adopting the object selection operation described above.
本発明は,最初に同時に入力された2点の座標から1点の第1中間座標を求め,最後に同時に入力された2点の座標から1点の第2中間座標を求めることにより,第1中間座標と第2中間座標とに基づいて表示画面上の領域を確定する。このように,本発明は,表示画面上の領域を指定する入力操作として,座標入力部に対し2点の座標を同時に入力する操作を求めるものである。このため,本発明によれば,表示画面上の領域を指定する入力操作を,例えば一点を指定するタッチ又はクリック入力の操作や,一点の入力を継続したままスライドする操作と,効果的に区別することができる。 The present invention obtains a first intermediate coordinate of one point from the coordinates of two points inputted at the same time first, and obtains a second intermediate coordinate of one point from the coordinates of the two points inputted last at the same time. An area on the display screen is determined based on the intermediate coordinates and the second intermediate coordinates. As described above, according to the present invention, as an input operation for designating an area on the display screen, an operation for simultaneously inputting two coordinates to the coordinate input unit is obtained. Therefore, according to the present invention, an input operation for designating an area on the display screen is effectively distinguished from, for example, a touch or click input operation for designating a single point or an operation for sliding while continuing to input a single point. can do.
さらに,本発明は,例えばタッチパネルディスプレイを想定した場合には,二本の指のタッチ位置から第1中間座標を得て,二本の指がスライドした後にリリースされたタッチ位置から第2中間座標を得て,これらの第1中間座標及び第2中間座標に基づいて表示画面上の領域を確定することができる。このため,本発明によれば,ユーザは,表示画面上の広い範囲の領域を,片手で容易に指定することができる。 Further, in the case where a touch panel display is assumed, for example, the present invention obtains the first intermediate coordinate from the touch position of two fingers, and the second intermediate coordinate from the touch position released after the two fingers slide. And the area on the display screen can be determined based on the first intermediate coordinates and the second intermediate coordinates. Therefore, according to the present invention, the user can easily specify a wide range area on the display screen with one hand.
以下,図面を用いて本発明を実施するための形態について説明する。本発明は,以下に説明する形態に限定されるものではなく,以下の形態から当業者が自明な範囲で適宜修正したものも含む。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below, but includes those appropriately modified by those skilled in the art from the following embodiments.
(1.情報処理装置及び情報処理方法)
まず,本発明に係る情報処理装置の基本構成について説明する。本発明の情報処理装置は,表示画面上の所定領域を指定することができ,指定した所定領域について種々の情報処理を行うことが可能である。例えば,本発明の情報処理装置は,指定した表示画面上の所定領域に含まれる一又は複数のオブジェクトを選択し,選択したオブジェクトの位置を移動させたりする等,選択したオブジェクトについて任意の命令を行うことができる。また,例えば,本発明の情報処理装置は,表示画面上の所定領域に含まれる画像を指定し,領域内の画像を拡大して表示したり,領域内の画像の切り取りを行う等の編集処理を行うこともできる。ただし,本発明により指定された所定領域の用途は,これらのものに限定されない。
以下では,本発明の情報処理装置ついて,指定した表示画面上の所定領域に含まれる一又は複数のオブジェクトを選択する実施形態を例に説明を行う。
(1. Information processing apparatus and information processing method)
First, the basic configuration of the information processing apparatus according to the present invention will be described. The information processing apparatus according to the present invention can designate a predetermined area on the display screen, and can perform various types of information processing on the designated predetermined area. For example, the information processing apparatus of the present invention selects an arbitrary command for the selected object, such as selecting one or more objects included in a predetermined area on the designated display screen and moving the position of the selected object. It can be carried out. Further, for example, the information processing apparatus of the present invention specifies an image included in a predetermined area on the display screen, enlarges and displays the image in the area, and cuts out the image in the area. Can also be done. However, the use of the predetermined area specified by the present invention is not limited to these.
In the following, the information processing apparatus according to the present invention will be described by way of an example in which one or a plurality of objects included in a predetermined area on a designated display screen are selected.
図1は,本発明の情報処理装置の基本的な機能構成を示したブロック図である。図1に示されるように,本発明の情報処理装置は,タッチパネルディスプレイ10と,制御部20と,記憶部30とを有している。 FIG. 1 is a block diagram showing a basic functional configuration of an information processing apparatus according to the present invention. As shown in FIG. 1, the information processing apparatus of the present invention includes a touch panel display 10, a control unit 20, and a storage unit 30.
タッチパネルディスプレイ10は,各種画像データをユーザが視認できる画像として表示し,かつユーザによって表示画面がタッチされた座標を検出可能な構成を有している。具体的に説明すると,タッチパネルディスプレイ10は,画像を表示できる表示部1の前面に,透明材料で形成された座標入力部2を配設して形成されている。表示部1は,例えばLCD(Liquid Crystal Display;液晶ディスプレイ)やOELD(Organic Electro LuminescenceDisplay;有機ELディスプレイ)のような表示装置である。表示部1は,制御部20からの入力信号に応じて,ユーザが情報処理装置を使用するにあたって必要とされる各種情報を静止画や動画として出力表示する。また,座標入力部2は,公知の静電容量方式,電磁誘導方式,赤外線走査方式,抵抗膜方式又は超音波表面弾性波方式などにより,ユーザの手指が接触したことを検知し,その座標情報を得ることができる。表示部1と座標入力部2の位置関係は互いにリンクしており,座標入力部2は,表示部1に表示された表示画面上におけるタッチ位置の座標情報を取得できる。これにより,座標入力部2は,ユーザの指が接触したことを検知し,ユーザの指が接触した表示部1の画面上の座標情報を得ることができる。例えば,座標入力部2は,ユーザが複数点をタッチした場合に,それらの複数点における座標情報を取得可能な,いわゆるマルチタッチに対応している。 The touch panel display 10 is configured to display various image data as images that can be visually recognized by the user and to detect coordinates at which the display screen is touched by the user. More specifically, the touch panel display 10 is formed by disposing a coordinate input unit 2 made of a transparent material on the front surface of the display unit 1 capable of displaying an image. The display unit 1 is a display device such as an LCD (Liquid Crystal Display) or an OELD (Organic Electro Luminescence Display). The display unit 1 outputs and displays various information necessary for the user to use the information processing apparatus as a still image or a moving image in accordance with an input signal from the control unit 20. The coordinate input unit 2 detects that the user's finger is touched by a known electrostatic capacity method, electromagnetic induction method, infrared scanning method, resistive film method, or ultrasonic surface acoustic wave method, and coordinates information thereof. Can be obtained. The positional relationship between the display unit 1 and the coordinate input unit 2 is linked to each other, and the coordinate input unit 2 can acquire coordinate information of the touch position on the display screen displayed on the display unit 1. Thereby, the coordinate input part 2 can detect that the user's finger | toe contacted, and can obtain the coordinate information on the screen of the display part 1 which the user's finger contacted. For example, the coordinate input unit 2 corresponds to so-called multi-touch in which coordinate information at a plurality of points can be acquired when the user touches a plurality of points.
本発明による操作手法によれば,ユーザは,表示画面上の広い範囲の領域を片手で容易に指定することができる。このため,本発明の情報処理装置は,比較的大型のタッチパネルディスプレイ10を搭載できる。例えば,タッチパネルディスプレイ10は,10インチ〜75インチ,16インチ〜40インチ,又は20インチ〜38インチのディスプレイであることが好ましい。 According to the operation method of the present invention, the user can easily specify a wide area on the display screen with one hand. For this reason, the information processing apparatus of the present invention can be equipped with a relatively large touch panel display 10. For example, the touch panel display 10 is preferably a display of 10 inches to 75 inches, 16 inches to 40 inches, or 20 inches to 38 inches.
ただし,本発明において,表示部1と座標入力部2は,両者が一体に構成されたタッチパネルディスプレイとして機能するものに限定されない。例えば,表示部1と座標入力部2は,それぞれ別々のハードウェアとして機能するものであってもよい。この場合,表示部1としては,例えばLCDやOELDのような通常の表示装置を用いればよい。また,座標入力部2は,マウスやタッチタブレットのような表示部1とは別途設けられるポインティングデバイスであってもよい。 However, in this invention, the display part 1 and the coordinate input part 2 are not limited to what functions as a touch panel display in which both were comprised integrally. For example, the display unit 1 and the coordinate input unit 2 may function as separate hardware. In this case, a normal display device such as an LCD or an OELD may be used as the display unit 1. The coordinate input unit 2 may be a pointing device provided separately from the display unit 1 such as a mouse or a touch tablet.
制御部20は,記憶部30に記憶されている制御プログラムを読み出して実行することにより,情報処理装置全体の動作を制御する。制御部20は,例えば,CPU(Central Processing Unit)やGPU(Graphics Processing Unit)により,その機能が達成される。制御部20は,記憶部30からオブジェクトの画像データを含む情報を読み出して,オブジェクトの画像を生成し,タッチパネルディスプレイ10に表示させる。また,制御部20は,タッチパネルディスプレイ10により検出されたタッチ位置の座標情報を記憶部30に記憶させる。制御部20は,タッチパネルディスプレイ10に入力された座標情報に基づいて,表示画面上における所定領域を指定する演算を行うことができる。また,制御部20は,タッチパネルディスプレイ10に表示されているオブジェクトの位置情報及びタッチパネルディスプレイ10入力された座標情報を解析することで,オブジェクトが選択されたか否かを判断できる。 The control unit 20 reads and executes the control program stored in the storage unit 30 to control the operation of the entire information processing apparatus. The function of the control unit 20 is achieved by, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The control unit 20 reads information including the image data of the object from the storage unit 30, generates an image of the object, and displays it on the touch panel display 10. Further, the control unit 20 causes the storage unit 30 to store coordinate information of the touch position detected by the touch panel display 10. Based on the coordinate information input to the touch panel display 10, the control unit 20 can perform an operation for designating a predetermined area on the display screen. Further, the control unit 20 can determine whether or not an object has been selected by analyzing the position information of the object displayed on the touch panel display 10 and the coordinate information input to the touch panel display 10.
図1に示されるように,制御部20は,その機能的な観点から領域指定部3とオブジェクト選択部4を有する。領域指定部3は,記憶部30に記憶されている制御プログラムに従って,タッチパネルディスプレイ10の表示画面上における選択領域を指定する機能を持つ。また,オブジェクト選択部4は,タッチパネルディスプレイ10により検出されたタッチ位置がオブジェクトと重なっている場合や,領域指定部3により指定された選択領域にオブジェクトが含まれている場合に,それらのオブジェクトを選択する機能を持つ。詳しい説明は後述する。 As shown in FIG. 1, the control unit 20 includes an area designation unit 3 and an object selection unit 4 from the functional viewpoint. The area designating unit 3 has a function of designating a selection area on the display screen of the touch panel display 10 according to a control program stored in the storage unit 30. Further, the object selection unit 4 selects the objects when the touch position detected by the touch panel display 10 overlaps with the object or when the objects are included in the selection area designated by the area designation unit 3. Has a function to select. Detailed description will be described later.
記憶部30は,本発明の情報処理装置による処理に必要とされる制御プログラムを含む種々の情報を記憶する。記憶部30は,ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置により実現できる。RAMとしては,例えばVRAM(Video RAM),DRAM(Dynamic RAM)又はSRAM(Static RAM)等を例に挙げることができる。記憶部30は,その機能的な観点からオブジェクト記憶部5と座標記憶部6を有する。オブジェクト記憶部5は,タッチパネルディスプレイ10に表示されるオブジェクトについて,その画像データ(オブジェクトの頂点座標,頂点テクスチャ座標,又は輝度データ等)を含む情報を記憶している。座標記憶部6は,タッチパネルディスプレイ10の座標入力部2により取得された座標情報を記憶する。座標記憶部6は,制御部20によって座標情報の読み書きがなされるものであり,例えばRAMの作業領域により実現される。 The storage unit 30 stores various information including a control program required for processing by the information processing apparatus of the present invention. The storage unit 30 can be realized by a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). Examples of the RAM include VRAM (Video RAM), DRAM (Dynamic RAM), SRAM (Static RAM), and the like. The storage unit 30 includes an object storage unit 5 and a coordinate storage unit 6 from the functional viewpoint. The object storage unit 5 stores information including image data (such as vertex coordinates, vertex texture coordinates, or luminance data) of the object displayed on the touch panel display 10. The coordinate storage unit 6 stores the coordinate information acquired by the coordinate input unit 2 of the touch panel display 10. The coordinate storage unit 6 reads and writes coordinate information by the control unit 20, and is realized by a work area of a RAM, for example.
続いて,図2を参照して,本発明の情報処理装置により実行される情報処理のフローについて説明する。すなわち,情報処理装置の制御部20は,記憶部30に記憶されている制御プログラムを読み出し,読み出した制御プログラムに従って,図2に示された処理を実行する。ここでは,制御部20が,タッチパネルディスプレイ10に表示されたオブジェクトのうち,一又は複数のオブジェクトを選択するまでの処理を具体的に示している。また,図3は,情報処理装置により実行されるオブジェクト選択の処理を示した模式図である。 Next, the flow of information processing executed by the information processing apparatus of the present invention will be described with reference to FIG. That is, the control unit 20 of the information processing apparatus reads the control program stored in the storage unit 30 and executes the process shown in FIG. 2 according to the read control program. Here, the processing until the control unit 20 selects one or a plurality of objects among the objects displayed on the touch panel display 10 is specifically shown. FIG. 3 is a schematic diagram showing object selection processing executed by the information processing apparatus.
ステップS1は,タッチパネルディスプレイ10の座標入力部2によりタッチ入力が検出されていないタッチ入力待機状態である。図3に示されるように,この段階において,タッチパネルディスプレイ10の表示部1には,オブジェクト記憶部5から読み出された複数のオブジェクトO(O1〜O5)が表示されている。当然,複数のオブジェクトO(O1〜O5)は,制御部20により制御されて表示部1の画面上を移動しているものであってもよいし,静止しているものであってもよい。また,表示部1の画面上には,オブジェクトOの他に背景画像等が表示されていてもよい。 Step S <b> 1 is a touch input standby state in which no touch input is detected by the coordinate input unit 2 of the touch panel display 10. As shown in FIG. 3, at this stage, the display unit 1 of the touch panel display 10 displays a plurality of objects O (O1 to O5) read from the object storage unit 5. Of course, the plurality of objects O (O1 to O5) may be controlled by the control unit 20 and moving on the screen of the display unit 1, or may be stationary. In addition to the object O, a background image or the like may be displayed on the screen of the display unit 1.
ステップS2において,タッチパネルディスプレイ10の座標入力部2により,第1点目のタッチ入力が検出される。図3に示されるように,第1点目のタッチ点P1は,例えばユーザの人差し指が座標入力部2に接触した点である。座標入力部2により第1点目のタッチ点P1の入力が検出されると,制御部20は第1点目のタッチ点P1の座標情報を取得し,取得した座標情報を座標記憶部6に一時的に記憶する。 In step S <b> 2, a first touch input is detected by the coordinate input unit 2 of the touch panel display 10. As shown in FIG. 3, the first touch point P <b> 1 is a point where, for example, the user's index finger contacts the coordinate input unit 2. When the input of the first touch point P1 is detected by the coordinate input unit 2, the control unit 20 acquires the coordinate information of the first touch point P1, and stores the acquired coordinate information in the coordinate storage unit 6. Memorize temporarily.
ステップS3において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力が継続しているか否かを判断する。第1点目のタッチ入力が継続していると判断した場合にはステップS4へと進み,第1点目のタッチ入力が継続していないと判断した場合にはステップS17へと進む。 In step S <b> 3, the control unit 20 determines whether or not the first point touch input is continued based on the information detected by the coordinate input unit 2. If it is determined that the first point touch input is continued, the process proceeds to step S4. If it is determined that the first point touch input is not continued, the process proceeds to step S17.
ステップS4において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力が継続している間に第2点目のタッチ入力が行われたか否かを判断する。図3に示されるように,第2点目のタッチ点P2は,例えばユーザの親指が座標入力部2に接触した点である。座標入力部2により第2点目のタッチ点P2の入力が検出されると,制御部20は第2点目のタッチ点P2の座標情報を取得し,取得した座標情報を座標記憶部6に一時的に記憶する。第1点目のタッチ入力が継続している間に第2点目のタッチ入力が行われたと判断した場合にはステップS5へと進み,第2点目のタッチ入力が行われなかったと判断した場合にはステップS17へと進む。なお,タッチ入力待機状態(ステップS1)において,第1点目のタッチ入力と第2点目のタッチ入力が同時に検出された場合には,ステップS2〜ステップS4までの処理を同時に行なってステップS5へと進むこともできる。 In step S4, based on the information detected by the coordinate input unit 2, the control unit 20 determines whether or not the second point touch input has been performed while the first point touch input is continued. to decide. As shown in FIG. 3, the second touch point P <b> 2 is a point where, for example, the user's thumb touches the coordinate input unit 2. When the input of the second touch point P2 is detected by the coordinate input unit 2, the control unit 20 acquires the coordinate information of the second touch point P2, and stores the acquired coordinate information in the coordinate storage unit 6. Memorize temporarily. When it is determined that the second point touch input is performed while the first point touch input is continued, the process proceeds to step S5, and it is determined that the second point touch input is not performed. In this case, the process proceeds to step S17. In the touch input standby state (step S1), when the first point touch input and the second point touch input are detected at the same time, the processes from step S2 to step S4 are performed simultaneously to perform step S5. You can also go to.
ステップS5において,制御部20は,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報を座標記憶部6から読み出し,これらの座標情報に基づいて第1中間点M1の座標を算出する。図3に示された例において,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2の丁度中間の位置に設定されている。すなわち,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上において,第1点目のタッチ点P1と第2点目のタッチ点P2との距離が等しくなる位置に設定されている。ただし,第1中間点M1を設定する位置は,上記のものに限定されず,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報に基づいて設定可能な位置であればどのような位置であってもよい。例えば,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上において,第1点目のタッチ点P1と第2点目のタッチ点P2との距離が,6:4となるような位置に設定されても良い。なお,第1点目のタッチ点P1と第2点目のタッチ点P2との距離の比率は任意に設定できる。その他,種々の条件に応じて,第1点目のタッチ点P1と第2点目のタッチ点P2の座標情報に基づいて第1中間点の座標を設定できる。 In step S5, the control unit 20 reads the coordinate information of the first touch point P1 and the second touch point P2 from the coordinate storage unit 6, and based on these coordinate information, the first intermediate point M1 is read. Calculate the coordinates. In the example shown in FIG. 3, the first intermediate point M1 is set at a position just between the first touch point P1 and the second touch point P2. That is, the first intermediate point M1 is located on a line segment connecting the first touch point P1 and the second touch point P2, and the first touch point P1 and the second touch point P2. Is set to a position where the distances between and are equal. However, the position where the first intermediate point M1 is set is not limited to the above, and may be a position that can be set based on the coordinate information of the first touch point P1 and the second touch point P2. Any position may be used. For example, the first intermediate point M1 is the first point touch point P1 and the second point touch point P2 on the line segment connecting the first point touch point P1 and the second point touch point P2. May be set at a position such that the distance to is 6: 4. The ratio of the distance between the first touch point P1 and the second touch point P2 can be arbitrarily set. In addition, the coordinates of the first intermediate point can be set based on the coordinate information of the first touch point P1 and the second touch point P2 according to various conditions.
また,図4には,別の条件により設定された第1中間点M1の例が示されている。図4の例において,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2が底角に位置する二等辺三角形の頂角の位置に設けられている。すなわち,図4に示されるように,第1中間点M1は,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分から,二等辺三角形の高さhの分だけ離れた位置に設定される。このように,第1中間点M1を,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分から所定距離hだけ離れた位置に設定することで,ユーザが,タッチパネルディスプレイ10に表示される第1中間点M1の位置を目視し易くなるという利点がある。つまり,第1点目のタッチ点P1と第2点目のタッチ点P2を結ぶ線分上に第1中間点M1を設定すると,第1中間点M1は,視る角度によってはユーザの手に隠れてしまい目視しにくくなるという問題がある。この点,図4に示される位置に第1中間点M1を設定することで,第1中間点M1がユーザの手に隠れることを防止でき,ユーザは第1中間点M1の位置を把握し易くなる。 FIG. 4 shows an example of the first intermediate point M1 set under different conditions. In the example of FIG. 4, the first intermediate point M1 is provided at the apex angle of an isosceles triangle in which the first touch point P1 and the second touch point P2 are located at the base angle. That is, as shown in FIG. 4, the first intermediate point M1 is separated from the line connecting the first point touch point P1 and the second point touch point P2 by the height h of the isosceles triangle. Set to the specified position. In this way, by setting the first intermediate point M1 at a position separated by a predetermined distance h from the line segment connecting the first touch point P1 and the second touch point P2, the user can touch the touch panel display. There is an advantage that the position of the first intermediate point M1 displayed at 10 can be easily seen. That is, when the first intermediate point M1 is set on a line segment connecting the first touch point P1 and the second touch point P2, the first intermediate point M1 may be placed on the user's hand depending on the viewing angle. There is a problem that it is hidden and difficult to see. In this regard, by setting the first intermediate point M1 at the position shown in FIG. 4, the first intermediate point M1 can be prevented from being hidden by the user's hand, and the user can easily grasp the position of the first intermediate point M1. Become.
ステップS5において算出された第1中間点M1の座標は,座標記憶部6に一時的に記憶される。第1中間点M1の座標の算出が完了すると,ステップS6へ進む。 The coordinates of the first intermediate point M1 calculated in step S5 are temporarily stored in the coordinate storage unit 6. When the calculation of the coordinates of the first intermediate point M1 is completed, the process proceeds to step S6.
ステップS6において,制御部20は,座標入力部2により検出された情報に基づいて,第1点目のタッチ入力と第2点目のタッチ入力が継続しているか否かを判断する。第1点目及び第2点目のタッチ入力が継続していると判断した場合にはステップS7へと進み,第1点目及び第2点目のタッチ入力の両方又はいずれか一方が継続していないと判断した場合にはステップS17へと進む。 In step S <b> 6, the control unit 20 determines whether or not the first point touch input and the second point touch input are continued based on the information detected by the coordinate input unit 2. If it is determined that the touch input of the first point and the second point is continued, the process proceeds to step S7, and both or one of the touch inputs of the first point and the second point is continued. If it is determined that it is not, the process proceeds to step S17.
ステップS7において,制御部20は,第1点目及び第2点目のタッチ入力が継続した状態で,2点のタッチ入力がスライドしたか否かを判断する。タッチ入力のスライドとは,タッチ入力の検出された座標が連続的に変位することを意味する。要するに,ステップS7では,ユーザの二本の指(例えば人差し指と親指)がタッチパネルディスプレイ10の座標入力部2に接した状態のまま,画面上のなぞるように移動したか否かを判断する。制御部20は,座標入力部2により連続的に検出される座標情報に基づいて,2点のタッチ入力がスライドしたことを判断できる。2点のタッチ入力がスライドすることにより連続的に検出される座標情報は,座標情報記憶部6に随時記憶される。2点のタッチ入力がスライドしたと判断した場合にはステップS8へと進み,第1点目及び第2点目のタッチ入力の両方又はいずれか一方がスライドしていないと判断した場合にはステップS17へと進む。 In step S <b> 7, the control unit 20 determines whether or not the touch input at the two points has been slid while the touch input at the first and second points is continued. The touch input slide means that the coordinates detected by the touch input are continuously displaced. In short, in step S7, it is determined whether or not the user's two fingers (for example, the index finger and the thumb) have moved so as to trace on the screen while in contact with the coordinate input unit 2 of the touch panel display 10. Based on the coordinate information continuously detected by the coordinate input unit 2, the control unit 20 can determine that two touch inputs have been slid. Coordinate information continuously detected by sliding two touch inputs is stored in the coordinate information storage unit 6 as needed. If it is determined that the touch input of two points has been slid, the process proceeds to step S8, and if it is determined that one or both of the touch inputs of the first point and the second point are not slid, step is performed. Proceed to S17.
ステップS8において,制御部20は,2点のタッチ入力がスライドすることにより連続的に検出された座標情報を座標情報記憶部6から読み出し,2点のタッチ点の座標情報に基づいて第2中間点候補の座標を随時算出する。
「第2中間点」とは,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる点である。「第2中間点候補」とは,上記第2中間点となり得る点である。
図3において,符号P3は,第1点目のタッチ点P1から継続したスライド入力がリリースされる直前に,座標入力部6により検出された第3点目のタッチ点(人差し指のリリース点)を示し,符号P4は,第2点目のタッチ点P2から継続したスライド入力がリリースされる直前に,座標入力部6により検出された第4点目のタッチ点(親指のリリース点)を示している。「第2中間点M2」の座標は,第3点目のタッチ点の座標と,第4点目のタッチ点の座標から求めることができる。第2中間点M2の座標を算出するための条件は,第1中間点M1の座標を算出するための条件と同じものとすればよい。
他方,図3において,符号P3´は,第1点目のタッチ点P1からのスライド入力が継続している途中の点を示し,符号P4´は,第2点目のタッチ点P2からのスライド入力が継続している途中の点を示している。これらの途中の点(P3´,P4´)は複数存在し,スライド入力が継続することで,途中の点(P3´,P4´)の座標は連続的に座標情報記憶部6に記憶されている。この途中の点(P3´,P4´)に基づいて,「第2中間点候補M2´」の座標が連続的に算出される。第2中間点候補M2´の座標を算出するための条件は,第2中間点M2の座標を算出するための条件と同じものである。算出された第2中間点候補M2´の座標は,座標記憶部6に随時記憶される。第2中間点候補M2´の座標が算出されると,ステップS9へと進む。
In step S8, the control unit 20 reads the coordinate information continuously detected by the sliding of the two touch inputs from the coordinate information storage unit 6, and based on the coordinate information of the two touch points, the second intermediate The coordinates of point candidates are calculated as needed.
The “second intermediate point” is a point obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the coordinates of the two points are not input simultaneously. The “second intermediate point candidate” is a point that can be the second intermediate point.
In FIG. 3, reference numeral P <b> 3 indicates the third touch point (index finger release point) detected by the coordinate input unit 6 immediately before the slide input continued from the first touch point P <b> 1 is released. Reference numeral P4 indicates a fourth touch point (thumb release point) detected by the coordinate input unit 6 immediately before the slide input continued from the second touch point P2 is released. Yes. The coordinates of the “second intermediate point M2” can be obtained from the coordinates of the third point touch point and the coordinates of the fourth point touch point. The conditions for calculating the coordinates of the second intermediate point M2 may be the same as the conditions for calculating the coordinates of the first intermediate point M1.
On the other hand, in FIG. 3, the symbol P3 ′ indicates a point in the middle of the slide input from the first touch point P1, and the symbol P4 ′ indicates a slide from the second touch point P2. The point where the input is continuing is shown. There are a plurality of these intermediate points (P3 ′, P4 ′), and by continuing the slide input, the coordinates of the intermediate points (P3 ′, P4 ′) are continuously stored in the coordinate information storage unit 6. Yes. Based on the intermediate points (P3 ′, P4 ′), the coordinates of the “second intermediate point candidate M2 ′” are continuously calculated. The conditions for calculating the coordinates of the second intermediate point candidate M2 ′ are the same as the conditions for calculating the coordinates of the second intermediate point M2. The calculated coordinates of the second intermediate point candidate M2 ′ are stored in the coordinate storage unit 6 as needed. When the coordinates of the second intermediate point candidate M2 ′ are calculated, the process proceeds to step S9.
ステップS9において,制御部20の領域指定部3は,上説した第1中間点M1の座標と,第2中間点候補M2´の座標に基づいて,選択領域候補A´を算出する。選択領域候補A´は,後述する選択領域Aとなり得る領域である。選択領域候補R´は,例えば第1中間点M1と第2中間点候補M2´を繋ぐ線分を対角線とする矩形の領域である。選択領域候補R´は,2点のタッチ入力がスライドし,第2中間点候補M2´の座標が変化するに伴って,その形状及び面積が変化する。このため,選択領域候補R´は,第2中間点候補M2´の座標の変化に応じて,連続的に算出される。選択領域候補R´が算出されると,ステップS10へと進む。 In step S9, the region designating unit 3 of the control unit 20 calculates a selection region candidate A ′ based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point candidate M2 ′ described above. The selection area candidate A ′ is an area that can become a selection area A described later. The selection area candidate R ′ is, for example, a rectangular area having a diagonal line connecting the first intermediate point M1 and the second intermediate point candidate M2 ′. The selection area candidate R ′ changes its shape and area as the touch input of two points slides and the coordinates of the second intermediate point candidate M2 ′ change. For this reason, the selection region candidate R ′ is continuously calculated according to the change in the coordinates of the second intermediate point candidate M2 ′. When the selection area candidate R ′ is calculated, the process proceeds to step S10.
ステップS10において,制御部20は,ステップS9において算出した選択領域候補R´をタッチパネルディスプレイ10に表示する。上述の通り,選択領域候補R´は連続的に算出されるものであるため,選択領域候補R´が算出された都度タッチパネルディスプレイ10に表示していく。これにより,ユーザは,タッチパネルディスプレイ10の表示によって選択領域候補R´を確認できるため,選択領域候補R´内に選択を希望するオブジェクトが含まれるようにタッチ位置を調節することができる。選択領域候補R´が表示されると,ステップS11へと進む。 In step S10, the control unit 20 displays the selection area candidate R ′ calculated in step S9 on the touch panel display 10. As described above, since the selection area candidate R ′ is continuously calculated, the selection area candidate R ′ is displayed on the touch panel display 10 each time the selection area candidate R ′ is calculated. Accordingly, the user can confirm the selection area candidate R ′ by displaying on the touch panel display 10, and thus can adjust the touch position so that the object desired to be selected is included in the selection area candidate R ′. When the selection area candidate R ′ is displayed, the process proceeds to step S11.
ステップS11において,制御部20は,第1点目のタッチ点P1及び第2点目のタッチ点P2から継続したスライド入力が,リリースされたか否かを判断する。すなわち,制御部20は,座標入力部2により,第1点目のタッチ点P1及び第2点目のタッチ点P2から継続していたタッチ入力が検出されなくなったときに,スライド入力がリリースされたと判断すればよい。スライド入力がリリースされたと判断された場合,ステップS12へと進む。他方,スライド入力がリリースされずに継続していると判断した場合には,スライド入力のリリースが検知されるまで,ステップS8〜ステップS10の処理を繰り返し行う。 In step S11, the control unit 20 determines whether or not the slide input continued from the first touch point P1 and the second touch point P2 has been released. That is, the control unit 20 releases the slide input when the coordinate input unit 2 no longer detects the touch input continued from the first touch point P1 and the second touch point P2. It can be judged that If it is determined that the slide input has been released, the process proceeds to step S12. On the other hand, if it is determined that the slide input continues without being released, the processes of steps S8 to S10 are repeated until the release of the slide input is detected.
ステップS12において,制御部20は,第2中間点M2の座標を確定する。すなわち,まず,制御部20は,図3に示されるように,ステップS11においてスライド入力がリリースされる直前に座標入力部2により検知された点を,第3点目のタッチ点P3及び第4点目のタッチ点P4と認定する。なお,第3点目のタッチ点P3は,第1点目のタッチ点P1から継続したスライド入力がリリースされる直前に座標入力部6により検出されたタッチ点である。また,第4点目のタッチ点P4は,第2点目のタッチ点P2から継続したスライド入力がリリースされる直前に,座標入力部6により検出されたタッチ点である。そして,制御部20は,第3点目のタッチ点P3の座標及び第4点目のタッチ点P4の座標に基づいて,第2中間点M2の座標を算出する。第2中間点M2の座標を算出するための条件は,第1中間点M1の座標を算出するための条件と同じものとすればよい。第2中間点M2の座標は,座標記憶部6に記憶される。第2中間点M2の座標が求まると,ステップS13へ進む。 In step S12, the control unit 20 determines the coordinates of the second intermediate point M2. That is, first, as shown in FIG. 3, the control unit 20 detects the points detected by the coordinate input unit 2 immediately before the slide input is released in step S11 as the third touch point P3 and the fourth touch point P3. The touch point P4 is recognized. Note that the third touch point P3 is a touch point detected by the coordinate input unit 6 immediately before the slide input continued from the first touch point P1 is released. Further, the fourth touch point P4 is a touch point detected by the coordinate input unit 6 immediately before the slide input continued from the second touch point P2 is released. Then, the control unit 20 calculates the coordinates of the second intermediate point M2 based on the coordinates of the third touch point P3 and the coordinates of the fourth touch point P4. The conditions for calculating the coordinates of the second intermediate point M2 may be the same as the conditions for calculating the coordinates of the first intermediate point M1. The coordinates of the second intermediate point M2 are stored in the coordinate storage unit 6. When the coordinates of the second intermediate point M2 are obtained, the process proceeds to step S13.
ステップS13において,制御部20の領域指定部3は,上説した第1中間点M1の座標と第2中間点M2の座標に基づいて,タッチパネルディスプレイ10の表示画面上の選択領域Rを確定する。図3に示された例おいて,選択領域Rは,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とし,かつ,表示画面のY軸に平行な二辺とX軸に平行な二辺により周囲を画定される矩形(四角形)の領域となっている。選択領域Rが指定されると,選択領域Rをなす形状の各頂点の座標が記憶部30に記憶される。 In step S13, the region designating unit 3 of the control unit 20 determines the selection region R on the display screen of the touch panel display 10 based on the coordinates of the first intermediate point M1 and the coordinates of the second intermediate point M2 described above. . In the example shown in FIG. 3, the selection region R includes two sides parallel to the Y axis of the display screen, with the line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2 as diagonal lines. It is a rectangular (quadrangle) area delimited by two sides parallel to the X axis. When the selection area R is designated, the coordinates of each vertex of the shape forming the selection area R are stored in the storage unit 30.
ただし,選択領域Rの形状は,上記のものに限定されず,第1中間点M1と第2中間点M2の2点の座標に基づいて決定できる形状であればよい。図5には,第1中間点M1と第2中間点M2の2点の座標に基づいて決定可能な選択領域Rの形状の例が示されている。
図5(a)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とする多角形の領域となっている。具体的に説明すると,図5(a)の例では,選択領域Aが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを対角線とし,かつ,第1中間点M1からX軸方向に延びる辺と,第2中間点M2からX軸方向に延びる辺が,平行である六角形となっている。
また,図5(b)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを直径とする正円形の領域となっている。
さらに,図5(c)に示された例では,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを長径とする楕円形の領域となっている。この場合,楕円形の領域の短径の長さは,一定の値としてもよいし,長径と比例する値としてもよい。また,図示は省略するが,選択領域Rが,第1中間点M1の座標と第2中間点M2を繋ぐ線分Dを短径とする楕円形の領域であってもよい。
このように,選択領域Rの形状は,その用途に応じて適宜設定することができる。
However, the shape of the selection region R is not limited to the above, and may be any shape that can be determined based on the coordinates of the two points of the first intermediate point M1 and the second intermediate point M2. FIG. 5 shows an example of the shape of the selection region R that can be determined based on the coordinates of the two points of the first intermediate point M1 and the second intermediate point M2.
In the example shown in FIG. 5A, the selection area R is a polygonal area having a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2 as a diagonal line. More specifically, in the example of FIG. 5A, the selection area A has a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2 as a diagonal line, and from the first intermediate point M1. The side extending in the X-axis direction and the side extending in the X-axis direction from the second intermediate point M2 are parallel hexagons.
In the example shown in FIG. 5B, the selection region R is a regular circular region having a diameter of a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2.
Further, in the example shown in FIG. 5C, the selection region R is an elliptical region having a major axis of a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2. In this case, the length of the minor axis of the elliptical region may be a constant value or a value proportional to the major axis. Although not shown in the figure, the selection region R may be an elliptical region having a minor axis of a line segment D connecting the coordinates of the first intermediate point M1 and the second intermediate point M2.
Thus, the shape of the selection region R can be set as appropriate according to the application.
ステップS14において,制御部20は確定された選択領域Rを,タッチパネルディスプレイ10に表示する。これにより,ユーザは,タッチパネルディスプレイ10の表示によって選択領域Rを確認できる。 In step S <b> 14, the control unit 20 displays the determined selection region R on the touch panel display 10. Thereby, the user can confirm the selection region R by displaying on the touch panel display 10.
ステップS15において,制御部20のオブジェクト選択部4は,表示画面上の選択領域R内にオブジェクトが存在するか否かを判断する。画面上に表示されている複数のオブジェクトOが存在する位置は制御部20によって把握されている。このため,表示画面上の選択領域Rをなす形状の各頂点座標と,オブジェクトOが存在する座標を参照することにより,選択領域R内にオブジェクトOが含まれるか否かを判断できる。図3に示された例において,タッチパネルディスプレイ10の画面上には,オブジェクトO1〜O5が表示されている。このうち,オブジェクO1〜03は,その全体又は一部が選択領域R内に含まれる。他方,オブジェクO4,05は,その全体が選択領域R外に位置している。このため,制御部20のオブジェクト選択部4は,複数のオブジェクトO1〜O5のうち,オブジェクO1〜03が選択領域R内に含まれると判断する。表示画面上の選択領域R内にオブジェクトが存在する場合には,ステップS16へ進む。
一方,選択領域R内にいずれのオブジェクトも含まれない場合には,ステップS1へ戻り,再びタッチ入力待機状態となる。
In step S15, the object selection unit 4 of the control unit 20 determines whether an object exists in the selection region R on the display screen. The position where the plurality of objects O displayed on the screen are present is grasped by the control unit 20. Therefore, it can be determined whether or not the object O is included in the selection region R by referring to each vertex coordinate of the shape forming the selection region R on the display screen and the coordinates where the object O exists. In the example shown in FIG. 3, objects O1 to O5 are displayed on the screen of the touch panel display 10. Among these, all or part of the objects O1 to 03 are included in the selection region R. On the other hand, the objects O4 and 05 are entirely located outside the selection region R. For this reason, the object selection unit 4 of the control unit 20 determines that the objects O1 to 03 are included in the selection region R among the plurality of objects O1 to O5. If an object exists in the selection area R on the display screen, the process proceeds to step S16.
On the other hand, if any object is not included in the selection region R, the process returns to step S1 and again enters the touch input standby state.
ステップS16において,制御部20のオブジェクト選択部4は,選択領域R内に含まれると判断した一又は複数のオブジェクトを選択する。選択されたオブジェクトに関する情報(各オブジェクトの識別番号等)は,記憶部30の作業領域に一時記憶される。 In step S <b> 16, the object selection unit 4 of the control unit 20 selects one or more objects determined to be included in the selection region R. Information about the selected object (such as the identification number of each object) is temporarily stored in the work area of the storage unit 30.
また,図2に示されるように,第1点目のタッチ入力が継続している間に,第2点目のタッチ入力がされなかったか,若しくは第2点目のタッチ入力がされたものの2点同時のスライド入力がされなかった場合に,ステップS17へと進む。この場合,ステップS17では,従来通り,第1点目のタッチ点P1に,表示画面上のオブジェクトが位置しているか否かを判断する。ここでは,第1点目のタッチ点P1の座標と,表示画面上にオブジェクトが存在する座標を参照し,両座標が一致した場合に,ステップS16へと進む。
ステップS16において,制御部20のオブジェクト選択部4は,第1点目のタッチ点P1と座標が一致した一のオブジェクトを選択する。選択されたオブジェクトに関する情報は,記憶部30の作業領域に一時記憶される。
In addition, as shown in FIG. 2, while the touch input at the first point is continued, the touch input at the second point has not been performed, or the touch input at the second point has been performed. If the slide input is not performed at the same time, the process proceeds to step S17. In this case, in step S17, it is determined whether or not an object on the display screen is located at the first touch point P1 as in the conventional case. Here, the coordinates of the first touch point P1 and the coordinates where the object exists on the display screen are referred to, and if both the coordinates match, the process proceeds to step S16.
In step S16, the object selection unit 4 of the control unit 20 selects one object whose coordinates coincide with the first touch point P1. Information about the selected object is temporarily stored in the work area of the storage unit 30.
上記のようにして,制御部20は,タッチパネルディスプレイ10に表示されたオブジェクトのうち,一又は複数のオブジェクトを選択する処理を行う。制御部20によりオブジェクトが選択された場合,例えば,オブジェクトが選択された状態でドラッグ操作を行うことで,オブジェクトの表示画面上における位置を移動させる等,公知となっている種々の情報処理を行うことができる。 As described above, the control unit 20 performs a process of selecting one or more objects among the objects displayed on the touch panel display 10. When an object is selected by the control unit 20, for example, by performing a drag operation in a state where the object is selected, various known information processing such as moving the position of the object on the display screen is performed. be able to.
(2.ゲーム装置)
続いて,本発明の実施形態に係るゲーム装置について説明する。本発明のゲーム装置は,基本的に,タッチパネルディスプレイを備える。そして,ゲーム装置は,タッチパネルディスプレイに表示される一又は複数のオブジェクトを,上述した方法によって選択し,選択したオブジェクトに対し種々の命令を付与することで,ゲームを進めることが可能である。
(2. Game device)
Next, the game device according to the embodiment of the present invention will be described. The game device of the present invention basically includes a touch panel display. And a game device can advance a game by selecting one or a plurality of objects displayed on a touch panel display by the above-mentioned method, and giving various commands to the selected objects.
[ゲーム装置の構成例]
図6は,ゲーム装置の構成例を示すブロック図である。このブロック図で表される実施形態は,特にアーケード型のゲーム装置として好適に利用することができる。図7は,ゲーム装置の筐体の外観例を示す斜視図である。
[Configuration example of game device]
FIG. 6 is a block diagram illustrating a configuration example of the game device. The embodiment represented by this block diagram can be suitably used particularly as an arcade game device. FIG. 7 is a perspective view showing an example of the external appearance of the housing of the game device.
図6に示されるように,ゲーム装置は,タッチパネルディスプレイ100と,カードリーダ200と,ゲーム本体部300を含む。タッチパネルディスプレイ100は,各種画像データをユーザが視認できる画像として表示でき,かつユーザによって表示画面がタッチされた座標を検出可能な構成を有している。また,カードリーダ200は,所定の識別コードが印刷されたカードが載置されたときに,そのカードに記録されている識別コードを読み取って,カード固有のカード情報を取得可能な構成を有している。また,ゲーム本体部300は,ゲーム装置全体の機能を制御するものである。特に,ゲーム本体部300は,カードリーダ200により読み取られた情報に基づいてタッチパネルディスプレイ100にオブジェクトを表示し,カードリーダ200に対するカード操作,及びタッチパネルディスプレイ100に対するタッチ操作に基づいて,ゲームを進行することができる。 As shown in FIG. 6, the game apparatus includes a touch panel display 100, a card reader 200, and a game main body 300. The touch panel display 100 has a configuration capable of displaying various image data as an image that can be visually recognized by the user and detecting coordinates at which the display screen is touched by the user. Further, the card reader 200 has a configuration capable of acquiring card information unique to a card by reading the identification code recorded on the card when a card on which a predetermined identification code is printed is placed. ing. The game main unit 300 controls the functions of the entire game device. In particular, the game main unit 300 displays an object on the touch panel display 100 based on information read by the card reader 200, and advances the game based on a card operation on the card reader 200 and a touch operation on the touch panel display 100. be able to.
図6に示されるように,タッチパネルディスプレイ100は,ディスプレイ110と,タッチスクリーン120を備える。タッチパネルディスプレイ100は,画像を表示できるディスプレイ100の前面に,透明材料で形成されたタッチスクリーン120を配設して形成されている。ディスプレイ110は,例えばLCD(Liquid Crystal Display;液晶ディスプレイ)やOELD(Organic Electro LuminescenceDisplay;有機ELディスプレイ)のような表示装置である。ディスプレイ110は,ゲーム本体部300からの入力信号に応じて,ユーザが情報処理装置を使用するにあたって必要とされる各種情報を静止画や動画として出力表示する。また,タッチスクリーン120は,公知の静電容量方式,電磁誘導方式,赤外線走査方式,抵抗膜方式又は超音波表面弾性波方式などにより,ユーザの手指が接触したことを検知し,そのタッチ位置の座標情報を得ることができる。ディスプレイ110とタッチスクリーン120の位置関係は互いにリンクしており,タッチスクリーン120は,ディスプレイ110に表示された表示画面上におけるタッチ位置の座標情報を取得できる。これにより,タッチスクリーン120は,ユーザの指が接触したことを検知し,ユーザの指が接触したディスプレイ110の画面上の座標情報を得ることができる。タッチスクリーン120により取得された座標情報は,ゲーム本体部300の一時記憶部370に記憶される。また,タッチスクリーン120は,ユーザが複数点をタッチした場合に,それらの複数点における座標情報を取得可能な,いわゆるマルチタッチに対応している。また,本発明のゲーム装置は,比較的大型のタッチパネルディスプレイ100を搭載することが好ましい。例えば,タッチパネルディスプレイ100は,10インチ〜75インチ,16インチ〜40インチ,又は20インチ〜38インチのディスプレイであることが好ましい。 As shown in FIG. 6, the touch panel display 100 includes a display 110 and a touch screen 120. The touch panel display 100 is formed by disposing a touch screen 120 made of a transparent material on the front surface of the display 100 that can display an image. The display 110 is a display device such as an LCD (Liquid Crystal Display) or an OELD (Organic Electro Luminescence Display). The display 110 outputs and displays various information necessary for the user to use the information processing apparatus as a still image or a moving image in accordance with an input signal from the game main body 300. The touch screen 120 detects that the user's finger has touched by a known capacitance method, electromagnetic induction method, infrared scanning method, resistive film method, or ultrasonic surface acoustic wave method, and detects the touch position. Coordinate information can be obtained. The positional relationship between the display 110 and the touch screen 120 is linked to each other, and the touch screen 120 can acquire coordinate information of the touch position on the display screen displayed on the display 110. Thereby, the touch screen 120 can detect that the user's finger has touched and can obtain coordinate information on the screen of the display 110 on which the user's finger has touched. The coordinate information acquired by the touch screen 120 is stored in the temporary storage unit 370 of the game main body unit 300. The touch screen 120 is compatible with so-called multi-touch, in which coordinate information at a plurality of points can be acquired when the user touches a plurality of points. Moreover, it is preferable that the game apparatus of the present invention is equipped with a relatively large touch panel display 100. For example, the touch panel display 100 is preferably a display of 10 inches to 75 inches, 16 inches to 40 inches, or 20 inches to 38 inches.
図6に示されるように,カードリーダ200は,カードCに記録された識別コードを撮像することができる装置であり,パネル210と,光源220と,イメージセンサ230を備える。カードCは,その表面には,例えばゲームで使用されるオブジェクトのイラストが印刷され,その裏面には,表面に印刷されたオブジェクトを識別するための識別コードが記録されている。また,カードCの裏面には,例えば可視光では視認できないインクにより識別コードが印刷されており,特定の不可視光を照射すると白と黒で印刷されたパターンが表出する。識別コードは,赤外線などの不可視光を吸収する特殊なインクで印刷されており,カードCの裏面に赤外線を照射すると,識別コードの黒部分を除く部分に照射された不可視光が反射するようになっている。例えば,カードCの識別コードには,少なくともカードに描かれたオブジェクトの識別番号や,カードの向き等に関する情報が記録されている。 As shown in FIG. 6, the card reader 200 is a device that can capture an image of the identification code recorded on the card C, and includes a panel 210, a light source 220, and an image sensor 230. For example, an illustration of an object used in a game is printed on the front surface of the card C, and an identification code for identifying the object printed on the front surface is recorded on the back surface of the card C. Further, an identification code is printed on the back surface of the card C using, for example, ink that is not visible with visible light, and when printed with specific invisible light, a pattern printed in white and black appears. The identification code is printed with special ink that absorbs invisible light such as infrared rays. When the back surface of the card C is irradiated with infrared rays, the invisible light irradiated on the portion other than the black portion of the identification code is reflected. It has become. For example, at least information regarding the identification number of the object drawn on the card, the card orientation, etc. is recorded in the identification code of the card C.
カードリーダ200上面にはパネル210が設けられ,パネル210上には複数枚のカードCを載置できる。また,ゲーム装置の筐体内部には,例えば,パネル210に載置されたカードCの裏面に対して赤外線(不可視光)を照射する光源220と,パネル210上に載置されたカードCの裏面を反射した赤外線を取得してカードCに記録されたカードデータのパターンを撮像するイメージセンサ230が設けられている。光源220の例は,赤外線や紫外線等の肉眼で見えない不可視光を発光する発光ダイオード(LED)である。イメージセンサ230の例は,カードCの裏面を反射してカードリーダ200内に入射した赤外線により識別コードを撮像する撮像素子である。そして,カードリーダ200は,この識別コードを解析することにより,カードC固有のカード情報を取得できる。カードリーダ200により取得されたカード情報は,ゲーム本体部300の処理部310に伝達されて,一時記憶部270に記憶される。 A panel 210 is provided on the upper surface of the card reader 200, and a plurality of cards C can be placed on the panel 210. Further, inside the game device casing, for example, a light source 220 that irradiates infrared rays (invisible light) to the back surface of the card C placed on the panel 210 and a card C placed on the panel 210. An image sensor 230 is provided that captures the pattern of card data recorded on the card C by acquiring infrared rays reflected from the back surface. An example of the light source 220 is a light emitting diode (LED) that emits invisible light that cannot be seen with the naked eye, such as infrared rays and ultraviolet rays. An example of the image sensor 230 is an image sensor that captures an identification code with infrared rays that are reflected from the back surface of the card C and incident on the card reader 200. The card reader 200 can acquire card information unique to the card C by analyzing the identification code. The card information acquired by the card reader 200 is transmitted to the processing unit 310 of the game main body unit 300 and stored in the temporary storage unit 270.
カードCの識別コードには,少なくともカードに描かれたオブジェクトの識別番号や,カードの向き等に関する情報が記録されている。このため,ゲーム本体部300の処理部310は,カードリーダ200から得たカード情報に基づいて,ゲーム情報記憶部380又は一時記憶部270に記憶されているオブジェクトテーブルを参照することで,カードCに記録されたオブジェクトのステータスや,種類,名前,属性,さらにはカードCの向きや位置に応じたオブジェクトの特性を把握することができる。オブジェクトの例は,ゲームキャラクタである。また,ゲーム本体部300の処理部310は,カードリーダ200のイメージセンサ230により赤外線光がカードCの裏面により反射された位置を検出することで,カードCがパネル210上に載置されている位置を座標情報として求めることができる。また,イメージセンサ230により赤外線光の反射位置を連続的に検出することで,パネル210上に載置されたカードCが,ある位置から他の位置まで移動したという情報を得ることもできる。 In the identification code of the card C, at least information regarding the identification number of the object drawn on the card, the card orientation, and the like is recorded. For this reason, the processing unit 310 of the game main body unit 300 refers to the object table stored in the game information storage unit 380 or the temporary storage unit 270 based on the card information obtained from the card reader 200, whereby the card C It is possible to grasp the status of the object, the type, the name, the attribute, and the object characteristics according to the direction and position of the card C. An example of the object is a game character. Further, the processing unit 310 of the game main body unit 300 detects the position where the infrared light is reflected by the back surface of the card C by the image sensor 230 of the card reader 200, so that the card C is placed on the panel 210. The position can be obtained as coordinate information. Further, by continuously detecting the reflection position of the infrared light by the image sensor 230, it is possible to obtain information that the card C placed on the panel 210 has moved from one position to another position.
さらに,カードリーダ200は,図8に示されるように,パネル210上が複数のエリアに区分されていることが好ましい。パネル210上の区分の数は,例えば2〜10とすることができる。図8に示された例において,カードリーダ200のパネル210は,オフェンシブエリアA1(第1エリア)とディフェンシブエリアA2(第2エリア)に二分割されている。このエリアは,パネルの座標に応じて区分されたものであり,各カードCは,オフェンシブエリアA1とディフェンシブエリアA2をスライド移動することができる。ゲーム本体部300の処理部310は,各カードCのパネル210上における位置を座標情報として取得することにより,各カードCが,オフェンシブエリアA1とディフェンシブエリアA2のいずれに属する位置にあるのかを判定することができる。 Further, the card reader 200 is preferably divided into a plurality of areas on the panel 210 as shown in FIG. The number of sections on the panel 210 can be 2-10, for example. In the example shown in FIG. 8, the panel 210 of the card reader 200 is divided into two parts, an offense area A1 (first area) and a defensive area A2 (second area). This area is divided according to the coordinates of the panel, and each card C can slide in the offense area A1 and the defensive area A2. The processing unit 310 of the game main body unit 300 determines whether each card C is in a position belonging to the offense area A1 or the defensive area A2 by acquiring the position of each card C on the panel 210 as coordinate information. can do.
また,図8に示されるように,カードリーダ200のパネル210上には,長方形のカードCを縦向き又は横向きにして載置することが可能であり,ゲーム本体部300の処理部310は,カードリーダ200からの検出情報に基づいて,載置されたカードCが縦向きであるか横向きであるかを判別することが可能である。例えば,カードCの裏面には,識別コードが印刷されている。この識別コードには,カードの向きに関する情報が含まれる。このため,ゲーム本体部300の処理部310は,カードリーダ200によって識別コードを読み取り,読み取った識別コードに基づいてカードCの向きを解析することで,カードCが縦向きであるか横向きであるかを判別できる。 Also, as shown in FIG. 8, a rectangular card C can be placed vertically or horizontally on the panel 210 of the card reader 200, and the processing unit 310 of the game main unit 300 is Based on the detection information from the card reader 200, it is possible to determine whether the placed card C is vertically or horizontally. For example, an identification code is printed on the back surface of the card C. This identification code includes information on the card orientation. For this reason, the processing unit 310 of the game main body unit 300 reads the identification code by the card reader 200 and analyzes the orientation of the card C based on the read identification code, so that the card C is in the portrait or landscape orientation. Can be determined.
ゲーム本体部300は,処理部310を備え,ゲームプログラムを読み出して実行し,ゲームプログラムに従ってゲーム装置全体の動作を制御する。図6に示されるように,ゲーム本体部300は,以下の構成を備えている。 The game main unit 300 includes a processing unit 310, reads out and executes a game program, and controls the operation of the entire game device according to the game program. As shown in FIG. 6, the game main unit 300 has the following configuration.
処理部310は,システム全体の制御,システム内の各ブロックへの命令の指示,ゲーム処理,画像処理,音処理などの各種の処理を行うものである。処理部310の機能は,各種プロセッサ(CPU,DSP等),又はASIC(ゲートアレイ等)などのハードウェアや,所与のプログラム(ゲームプログラム)により実現できる。 The processing unit 310 performs various processes such as control of the entire system, instruction instruction to each block in the system, game processing, image processing, and sound processing. The function of the processing unit 310 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.), or a given program (game program).
処理部310は,ゲーム処理部320,画像処理部330,及び音処理部350を含むものがあげられる。具体的には,メインプロセッサ,コプロセッサ,ジオメトリプロセッサ,描画プロセッサ,データ処理プロセッサ,四則演算回路又は汎用演算回路などがあげられる。これらは適宜バスなどにより連結され,信号の授受が可能とされる。また,圧縮された情報を伸張するためのデータ伸張プロセッサを備えても良い。 Examples of the processing unit 310 include a game processing unit 320, an image processing unit 330, and a sound processing unit 350. Specific examples include a main processor, a coprocessor, a geometry processor, a drawing processor, a data processor, four arithmetic operation circuits, or a general-purpose operation circuit. These are appropriately connected by a bus or the like so that signals can be exchanged. In addition, a data expansion processor for expanding compressed information may be provided.
ここでゲーム処理部320は,カードリーダ200により取得されたカード情報に基づいてディスプレイ110にオブジェクトを表示させる処理,ディスプレイ110における視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)をスクロールさせる処理,マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置する処理,オブジェクトを選択する処理,オブジェクトを動作させる処理(モーション処理),オブジェクトの位置や回転角度(X,Y又はZ軸回り回転角度)を求める処理,コイン(代価)を受け付ける処理,各種モードの設定処理,ゲームの進行処理,選択画面の設定処理,ヒットチェック処理,ゲーム結果(成果,成績)を演算する処理,複数のプレーヤが共通のゲーム空間でプレイするための処理,又はゲームオーバー処理などの種々のゲーム処理を,タッチスクリーン120や,カードリーダ200,操作部360からの入力データ,携帯型情報記憶装置392からの個人データ,保存データ,及びゲームプログラムなどに基づいて行う。 Here, the game processing unit 320 performs processing for displaying an object on the display 110 based on the card information acquired by the card reader 200, a viewpoint position (virtual camera position) and a line-of-sight angle (virtual camera rotation angle) on the display 110. ) Scrolling, processing to place objects such as map objects in the object space, processing to select objects, processing to move objects (motion processing), position and rotation angle of objects (rotation around X, Y or Z axis) Angle) processing, coin (price) receiving processing, various mode setting processing, game progress processing, selection screen setting processing, hit check processing, processing of game results (results, results), multiple players For playing in a common game space Various game processes such as physical process or game over process are applied to the touch screen 120, the card reader 200, the input data from the operation unit 360, the personal data from the portable information storage device 392, the stored data, and the game program. Based on.
画像処理部330は,ゲーム処理部320からの指示等に従って,各種の画像処理を行うものである。ゲーム処理部320は,視点の位置や視線角度の情報に基づいて,ゲーム情報記憶部380からオブジェクトやゲーム空間の画像情報を読み出し,読み出した画像情報を一時記憶部370に書き込む。ゲーム処理部320は,視点移動をさせるためのスクロールデータを画像処理部330に供給する。画像処理部330は,与えられたスクロールデータに基づいて,一時記憶部370から1フレーム毎に画像情報を読み出し,読み出した画像情報に応じてディスプレイ110に,オブジェクトやゲーム空間の画像を表示させる。これにより,ディスプレイ110には,視点に基づいてオブジェクトやゲーム空間が表示される。また,画像処理部330は,タッチスクリーン120に対する入力座標に応じてゲーム空間における視点を移動させる。そして,画像処理部330は移動する視点情報に基づいて,一時記憶部370からフレームを読み出して,読み出した画像をディスプレイ110に表示させる。このようにして,ゲーム空間の視点をスクロールさせることにより,表示画面が遷移する。 The image processing unit 330 performs various types of image processing in accordance with instructions from the game processing unit 320 and the like. The game processing unit 320 reads the image information of the object and the game space from the game information storage unit 380 based on the information on the viewpoint position and the line-of-sight angle, and writes the read image information in the temporary storage unit 370. The game processing unit 320 supplies scroll data for moving the viewpoint to the image processing unit 330. The image processing unit 330 reads image information for each frame from the temporary storage unit 370 based on the given scroll data, and causes the display 110 to display an image of an object or a game space according to the read image information. Thereby, the object and the game space are displayed on the display 110 based on the viewpoint. Further, the image processing unit 330 moves the viewpoint in the game space according to the input coordinates on the touch screen 120. Then, the image processing unit 330 reads the frame from the temporary storage unit 370 based on the moving viewpoint information, and displays the read image on the display 110. In this way, the display screen changes by scrolling the viewpoint of the game space.
また,画像処理部330は,一時記憶部370からカードリーダ200により取得されたカード情報を読み出し,そのカード情報に基づいて,ゲーム情報記憶部380に記憶されているオブジェクトテーブルを参照する。そして,オブジェクトテーブルに記憶されているリンク情報に基づいて,カード情報と関連付けられているオブジェクトの画像データを,一時記憶部370又はゲーム情報記憶部380から読み出す。そして,画像処理部330は,読み出したオブジェクトの画像データに応じてゲーム空間内にオブジェクトを発生させ,ディスプレイ110に表示させる。 Further, the image processing unit 330 reads the card information acquired by the card reader 200 from the temporary storage unit 370 and refers to the object table stored in the game information storage unit 380 based on the card information. Then, based on the link information stored in the object table, the image data of the object associated with the card information is read from the temporary storage unit 370 or the game information storage unit 380. Then, the image processing unit 330 generates an object in the game space according to the read image data of the object, and displays the object on the display 110.
ゲーム処理部320は,タッチスクリーン120に入力された座標情報や,カードリーダ200に載置されたカードの向きや位置,その他の操作部260(レバー,ボタン,又はコントローラ)からの操作情報に基づいて,ゲーム空間に登場させたオブジェクトの行動を制御する。例えば,ゲーム処理部320は,ディスプレイ110に表示されたオブジェクトの座標情報と,ディスプレイ110に入力された座標情報とを参照し,当該オブジェクトが,ユーザによりタッチされた否かを判定する。すなわち,ゲーム処理部320は,タッチスクリーン120に入力された位置情報と,オブジェクトの位置情報が一致している場合には,当該オブジェクトがタッチ選択されたと判定する。そして,選択されたオブジェクトに対し操作や指令が付与された場合,その操作や指令に応じて,ゲームプログラムに従った処理を行う。 The game processing unit 320 is based on the coordinate information input to the touch screen 120, the direction and position of the card placed on the card reader 200, and other operation information from the operation unit 260 (lever, button, or controller). And control the behavior of the objects that appear in the game space. For example, the game processing unit 320 refers to the coordinate information of the object displayed on the display 110 and the coordinate information input to the display 110, and determines whether or not the object has been touched by the user. That is, the game processing unit 320 determines that the object is touch-selected when the position information input to the touch screen 120 matches the position information of the object. When an operation or command is given to the selected object, processing according to the game program is performed according to the operation or command.
また,ゲーム処理部320は,タッチパネルディスプレイ100のディスプレイ110表示されたオブジェクトを選択する際には,上記した本発明特有の選択処理を行うことが好ましい。すなわち,ゲーム処理部320は,タッチパネルディスプレイ100のタッチスクリーン120に同時に入力されている最初の2点の座標に基づき,当該最初の2点の座標から求められる第1中間点の座標を決定する。また,ゲーム処理部320は,2点の座標が同時に入力されなくなる直前に検出された最後の2点の座標に基づき,当該最後の2点の座標から求められる第2中間点の座標を決定する。そして,ゲーム処理部320は,第1中間点の座標と第2中間点の座標に基づいて,ディスプレイ110の表示画面上における領域を指定し,指定された領域に,少なくとも一部が含まれるように画像が表示されている一又は複数のオブジェクトを選択する。また,ゲーム処理部320は,選択されたオブジェクトに対し操作や指令が付与された場合,その操作や指令に応じて,ゲームプログラムに従った処理を行う。例えば,ゲーム処理部320は,タッチスクリーン120に対する入力操作により,一又は複数のオブジェクトが選択された後に,再度,異なる座標情報がタッチスクリーン120に入力された場合,選択された一又は複数のオブジェクトを,再度入力された座標情報に移動させる制御を行う。このように,ゲーム処理部320は,カードリーダ120により取得されたカード情報と,タッチスクリーン110に入力された座標情報をリンクさせて,ゲームを進行することが好ましい。 In addition, when the game processing unit 320 selects an object displayed on the display 110 of the touch panel display 100, the game processing unit 320 preferably performs the above-described selection process unique to the present invention. That is, the game processing unit 320 determines the coordinates of the first intermediate point obtained from the coordinates of the first two points based on the coordinates of the first two points that are simultaneously input to the touch screen 120 of the touch panel display 100. In addition, the game processing unit 320 determines the coordinates of the second intermediate point obtained from the coordinates of the last two points based on the coordinates of the last two points detected immediately before the coordinates of the two points are not input simultaneously. . Then, the game processing unit 320 designates an area on the display screen of the display 110 based on the coordinates of the first intermediate point and the coordinates of the second intermediate point, so that at least a part of the designated area is included. One or a plurality of objects on which images are displayed are selected. In addition, when an operation or command is given to the selected object, the game processing unit 320 performs processing according to the game program according to the operation or command. For example, when one or more objects are selected by an input operation on the touch screen 120 and different coordinate information is input to the touch screen 120 again, the game processing unit 320 selects the one or more selected objects. Is moved to the input coordinate information again. Thus, it is preferable that the game processing unit 320 advances the game by linking the card information acquired by the card reader 120 and the coordinate information input to the touch screen 110.
音処理部250は,ゲーム処理部220からの指示等にしたがって,各種の音声を放音する。 The sound processing unit 250 emits various sounds according to instructions from the game processing unit 220 and the like.
ゲーム処理部320,画像処理部330,音処理部350の機能は,その全てをハードウェアにより実現してもよいし,その全てをプログラムにより実現してもよい。又は,ハードウェアとプログラムの両方により実現してもよい。
図6に示されるように,例えば,画像処理部330は,ジオメトリ処理部332(3次元座標演算部),描画部340(レンダリング部)を含むものがあげられる。
All of the functions of the game processing unit 320, the image processing unit 330, and the sound processing unit 350 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.
As illustrated in FIG. 6, for example, the image processing unit 330 includes a geometry processing unit 332 (three-dimensional coordinate calculation unit) and a drawing unit 340 (rendering unit).
ジオメトリ処理部332は,座標変換,クリッピング処理,透視変換,又は光源計算などの種々のジオメトリ演算(3次元座標演算)を行う。そして,ジオメトリ処理後(透視変換後)のオブジェクトデータ(オブジェクトの頂点座標,頂点テクスチャ座標,又は輝度データ等)は,例えば,一時記憶部370のメインメモリ372に格納されて,保存される。 The geometry processing unit 332 performs various geometry operations (three-dimensional coordinate operations) such as coordinate conversion, clipping processing, perspective conversion, or light source calculation. The object data (after the perspective transformation) after the geometry processing (object vertex coordinates, vertex texture coordinates, luminance data, etc.) is stored in the main memory 372 of the temporary storage unit 370 and saved, for example.
描画部340は,ジオメトリ演算後(透視変換後)のオブジェクトデータと,テクスチャ記憶部376に記憶されるテクスチャなどに基づいて,オブジェクトをフレームバッファ374に描画する。描画部340は,例えば,テクスチャマッピング部342,シェーディング処理部344を含むものがあげられる。具体的には,描画プロセッサにより実装できる。描画プロセッサは,テクスチャ記憶部,各種テーブル,フレームバッファ,VRAMなどとバスなどを介して接続され,更にディスプレイと接続される。 The drawing unit 340 draws an object in the frame buffer 374 based on the object data after the geometry calculation (after perspective transformation), the texture stored in the texture storage unit 376, and the like. Examples of the drawing unit 340 include a texture mapping unit 342 and a shading processing unit 344. Specifically, it can be implemented by a drawing processor. The drawing processor is connected to a texture storage unit, various tables, a frame buffer, a VRAM, and the like via a bus and further connected to a display.
テクスチャマッピング部242は,環境テクスチャをテクスチャ記憶部276から読み出し,読み出された環境テクスチャを,オブジェクトに対してマッピングする。 The texture mapping unit 242 reads the environment texture from the texture storage unit 276 and maps the read environment texture to the object.
シェーディング処理部344は,オブジェクトに対するシェーディング処理を行う。例えば,ジオメトリ処理部332が光源計算を行い,シェーディング処理用の光源の情報や,照明モデルや,オブジェクトの各頂点の法線ベクトルなどに基づいて,オブジェクトの各頂点の輝度(RGB)を求める。シェーディング処理部344は,この各頂点の輝度に基づいて,プリミティブ面(ポリゴン,曲面)の各ドットの輝度を例えば,ホンシェーディングや,グーローシェーディングなどにより求める。 The shading processing unit 344 performs shading processing on the object. For example, the geometry processing unit 332 performs light source calculation, and obtains the luminance (RGB) of each vertex of the object based on the light source information for shading processing, the illumination model, the normal vector of each vertex of the object, and the like. Based on the luminance of each vertex, the shading processing unit 344 obtains the luminance of each dot on the primitive surface (polygon, curved surface) by, for example, phone shading or goo shading.
ジオメトリ処理部332は,法線ベクトル処理部334を含むものがあげられる。法線ベクトル処理部334は,オブジェクトの各頂点の法線ベクトル(広義にはオブジェクトの面の法線ベクトル)を,ローカル座標系からワールド座標系への回転マトリクスで回転させる処理を行ってもよい。 An example of the geometry processing unit 332 includes a normal vector processing unit 334. The normal vector processing unit 334 may perform a process of rotating the normal vector of each vertex of the object (in a broad sense, the normal vector of the surface of the object) using a rotation matrix from the local coordinate system to the world coordinate system. .
操作部360は,プレーヤが操作データを入力するためのものである。操作部360は,の機能は,例えば,レバー,ボタン,及びハードウェアを備えたコントローラにより実現できる。操作部360からの処理情報は,シリアルインターフェース(I/F)やバスを介してメインプロセッサなどに伝えられる。 The operation unit 360 is for a player to input operation data. The function of the operation unit 360 can be realized by, for example, a controller including a lever, a button, and hardware. Processing information from the operation unit 360 is transmitted to a main processor or the like via a serial interface (I / F) or a bus.
ゲーム情報記憶部380は,ゲームプログラムや,ディスプレイ110に表示されるオブジェクト,ゲーム空間の画像データに関する情報を格納している。ゲーム情報記憶部380は,例えばROMであり,光ディスク(CD,DVD),光磁気ディスク(MO),磁気ディスク,ハードディスク,又は磁気テープなどの不揮発性のメモリにより実現できる。処理部310は,このゲーム情報記憶部380に格納される情報に基づいて種々の処理を行う。ゲーム情報記憶部380には,本発明(本実施形態)の手段(特に処理部310に含まれるブロック)を実行するための情報(プログラム又はプログラム及びデータ)が格納される。ゲーム情報記憶部380に格納される情報の一部又は全部は,例えば,システムへの電源投入時等に一時記憶部370に書き出されることとしてもよい。 The game information storage unit 380 stores information on game programs, objects displayed on the display 110, and game space image data. The game information storage unit 380 is a ROM, for example, and can be realized by a nonvolatile memory such as an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, a hard disk, or a magnetic tape. The processing unit 310 performs various processes based on information stored in the game information storage unit 380. The game information storage unit 380 stores information (program or program and data) for executing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 310). Part or all of the information stored in the game information storage unit 380 may be written into the temporary storage unit 370 when the system is powered on, for example.
ゲーム情報記憶部380に記憶される情報として,所定の処理を行うためのプログラムコード,画像データ,音データ,表示物の形状データ,テーブルデータ,リストデータ,本発明の処理を指示するための情報,その指示に従って処理を行うための情報等の少なくとも2つを含むものがあげられる。例えば,テーブルデータには,オブジェクトの識別番号と関連付けて,オブジェクトのステータスや,種類,名前,属性,カードの向きや位置に応じたオブジェクトの特性を記憶したオブジェクトテーブルのデータが含まれる。 As information stored in the game information storage unit 380, program code for performing a predetermined process, image data, sound data, display object shape data, table data, list data, information for instructing the process of the present invention , Information including at least two pieces of information for performing processing in accordance with the instruction. For example, the table data includes data of an object table that stores object characteristics in accordance with an object status, type, name, attribute, card orientation and position in association with the object identification number.
オブジェクトのステータスとは,移動速度,ヒットポイント,攻撃力,及び防御力等が数値として記憶される情報である。ゲーム処理部320は,オブジェクトテーブルに記憶されたステータスを参照することで,各オブジェクトについて,移動速度,ヒットポイント,攻撃力等の優劣を判断できる。また,ゲーム処理部320は,このステータスに関する数値に基づいて,ゲームを進行するための種々の演算を行うことができる。例えば,各オブジェクトの移動速度の数値は比較可能であり,オブジェクトテーブルを参照すれば,あるオブジェクトと他のオブジェクトはどちらの方が速い移動速度を有しているかということを把握できる。また,各オブジェクトの移動速度の数値に基づいて所定の演算処理を行うことで,オブジェクトが,ゲーム空間上のある地点から他の地点まで移動するのに必要とする時間を算出することもできる。 The object status is information in which moving speed, hit points, attack power, defense power, and the like are stored as numerical values. The game processing unit 320 can determine the superiority or inferiority of the moving speed, hit points, attack power, etc. for each object by referring to the status stored in the object table. Further, the game processing unit 320 can perform various calculations for proceeding with the game based on the numerical values related to the status. For example, the numerical values of the moving speeds of the respective objects can be compared, and by referring to the object table, it can be understood which one of the objects and the other object has the higher moving speed. In addition, by performing predetermined calculation processing based on the numerical value of the moving speed of each object, it is possible to calculate the time required for the object to move from one point in the game space to another point.
また,カードの向きに応じたオブジェクトの特性とは,カードリーダ200のパネル210に載置された向きに応じて変化するデータである。例えば,オブジェクトテーブルには,あるカードに関連したオブジェクトについて,カードが縦向きである場合と横向きで場合とで異なる情報が記憶されている。例えば,カードが縦向きである場合と横向きで場合とで,オブジェクトのステータスが変化することとしてもよい。
また,カードの位置に応じたオブジェクトの特性とは,カードリーダ200のパネル210に載置された位置に応じて変化するデータである。例えば,オブジェクトテーブルには,あるカードに関連したオブジェクトについて,カードがオフェンシブエリアA1(第1エリア)に位置する場合とディフェンシブエリアA2(第2エリア)に位置する場合とで異なる情報が記憶されている。例えば,カードがオフェンシブエリアA1に位置する場合とディフェンシブエリアA2に位置する場合とで,オブジェクトのステータスが変化することとしてもよい。
The characteristic of the object according to the card orientation is data that changes according to the orientation placed on the panel 210 of the card reader 200. For example, in the object table, different information is stored for an object related to a card depending on whether the card is in portrait orientation or landscape orientation. For example, the status of the object may change depending on whether the card is in portrait orientation or landscape orientation.
The characteristic of the object according to the card position is data that changes according to the position placed on the panel 210 of the card reader 200. For example, the object table stores different information for an object related to a certain card depending on whether the card is located in the offense area A1 (first area) or the defensive area A2 (second area). Yes. For example, the status of the object may change depending on whether the card is located in the offense area A1 or the defensive area A2.
また,ゲーム情報記憶部380は,ゲーム空間に関するデータが記憶されている。ゲーム空間は,ワールドともよばれる,本発明のゲーム装置におけるゲームの世界を意味する。ゲーム空間に関するデータは,表示される対象物の位置情報,表示される対象物の種類に関する情報,表示される対象物の画像データを含む。表示される対象物の例は,背景,建物,風景,植物,及びゲームに登場するオブジェクトである。この画像データは,ポリゴンデータとして記憶されることが好ましい。ポリゴンデータは,たとえば,頂点座標データ,色データ,テクスチャデータ,及び透明度データを含む。ゲーム情報記憶部380は,たとえば,プレイヤキャラクタの視点の向きや,位置,エリアなどに応じて,表示される対象物を分類して記憶する The game information storage unit 380 stores data related to the game space. The game space means the world of the game in the game device of the present invention, also called the world. The data relating to the game space includes position information of the displayed object, information related to the type of the displayed object, and image data of the displayed object. Examples of displayed objects are backgrounds, buildings, landscapes, plants, and objects that appear in the game. This image data is preferably stored as polygon data. Polygon data includes, for example, vertex coordinate data, color data, texture data, and transparency data. The game information storage unit 380 classifies and stores the displayed objects according to, for example, the orientation, position, and area of the player character's viewpoint.
音出力部390は,音を出力するものである。音出力部390の機能は,スピーカなどのハードウェアにより実現できる。音出力は,例えばバスを介してメインプロセッサなどと接続されたサウンドプロセッサにより,音処理が施され,スピーカなどの音出力部から出力される。 The sound output unit 390 outputs sound. The function of the sound output unit 390 can be realized by hardware such as a speaker. The sound output is processed by a sound processor connected to the main processor or the like via a bus, for example, and output from a sound output unit such as a speaker.
携帯型情報記憶装置392は,プレーヤの個人データやセーブデータなどが記憶されるものである。この携帯型情報記憶装置392としては,メモリカードや携帯型ゲーム装置などがあげられる。携帯型情報記憶装置392の機能は,メモリカード,フラッシュメモリ,ハードディスク,USBメモリなど公知の記憶手段により達成できる。ただし,携帯型情報記憶装置392は,必ずしも必要な構成ではなく,プレーヤの個人を識別する必要のある場合に,実装すればよい。 The portable information storage device 392 stores player personal data, save data, and the like. Examples of the portable information storage device 392 include a memory card and a portable game device. The functions of the portable information storage device 392 can be achieved by known storage means such as a memory card, flash memory, hard disk, USB memory and the like. However, the portable information storage device 392 is not necessarily required, and may be installed when it is necessary to identify the player.
通信部394は,外部(例えばホストサーバや他のゲーム装置)との間で通信を行うための各種の制御を行う任意のものである。通信部394を介して,ゲーム装置をネットワーク上のホストサーバや他のゲーム装置と接続することにより,ゲーム対戦プレイや協力プレイを行うことができる。通信部394の機能は,各種プロセッサ,又は通信用ASICなどのハードウェアや,プログラムなどにより実現できる。また,ゲーム装置を実行するためのプログラム又はデータは,ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部394を介してゲーム情報記憶部380に配信するようにしてもよい。 The communication unit 394 is an arbitrary unit that performs various controls for communicating with the outside (for example, a host server or another game device). By connecting the game device to a host server on the network or another game device via the communication unit 394, it is possible to perform game battle play and cooperative play. The function of the communication unit 394 can be realized by various processors, hardware such as a communication ASIC, a program, or the like. The program or data for executing the game device may be distributed from the information storage medium of the host device (server) to the game information storage unit 380 via the network and communication unit 394.
[ゲーム装置の動作例]
続いて,図9〜図11を参照して,上記した構成を有するゲーム装置の動作例について説明する。ここでは,上記ゲーム装置により実行されるゲームのシステムについて,一例を挙げて説明する。例えば,本発明のゲーム装置では,インターネット等の通信を利用した対戦ゲームを行うことができる。この対戦ゲームでは,各ゲームユーザが,一のゲーム空間に複数のオブジェクト(ゲームキャラクタ)を登場させて対戦を行う。ここで説明するゲームの例において,ユーザは,タッチパネルディスプレイ100やカードリーダ200等を介して,各オブジェクトの登場や,移動,攻撃,防御など指令操作を行い,例えば,敵オブジェクト(Enemy)の撃破や,塔(Tower)の制圧,石(Stone)の破壊などを目指す。
[Operation example of game device]
Subsequently, an operation example of the game apparatus having the above-described configuration will be described with reference to FIGS. Here, an example of a game system executed by the game device will be described. For example, the game device of the present invention can play a battle game using communication such as the Internet. In this battle game, each game user plays a battle by making a plurality of objects (game characters) appear in one game space. In the example of the game described here, the user performs command operations such as appearance, movement, attack, defense, etc. of each object via the touch panel display 100, the card reader 200, etc., for example, destroying an enemy object (Enemy) It aims to suppress towers and destroy stones.
図9は,本発明に係るゲーム装置を用いて,実際にゲームを行う際のタッチパネルディスプレイ100とカードリーダ200の状態を概念的に示している。ユーザは,所望のカードC1〜C7を,カードリーダ200上に載置する。各カードC1〜C7の裏面には,識別コードが印刷されている。カードリーダ200は,各カードC1〜C7の識別コードを読み取ると,識別コードに基づいてカード情報を解析し,カード情報はゲーム装置の処理部310へと伝達する。また,カードリーダ200は,各カードC1〜C7が向きや位置を把握することができる。図9に示された例では,カードリーダ200上において,カードC1,C2,C5,C6が縦向きとなり,カードC3,C4,C7が横向きとなっている。また,図9に示された例では,カードリーダ200上において,カードC1,C4,C6がオフェンシブエリアA1に位置し,カードC2,C3,C5,C7がディフェンシブエリアA2に位置している。カードリーダ200によって検出された情報は,処理部310へと伝達され,処理部310は,カード情報,カードの向き,カードの位置等の情報に基づいて,ゲーム情報記憶部380(又は一時記憶部370)に記憶されているオブジェクトテーブルを参照し,カード情報に関連付けられたオブジェクトの情報(画像データ,ステータス等)を読み出す。処理部310は,読み出した画像データに基づいて,タッチパネルディスプレイ100に画像を表示させる。例えば,タッチパネルディスプレイ100には,その下側の領域にカードの画像が表示されている。タッチパネルディスプレイ100に表示されたカードの画像は,カードリーダ200に載置されている各カードC1〜C7の並び順,及び各カード各カードC1〜C7の向きに対応している。このように,タッチパネルディスプレイ100の一部に,カードリーダ200に載置されている各カードC1〜C7の画像を表示することで,ユーザは,カードリーダ200を目視しなくても,タッチパネルディスプレイ100を視るだけで,各カードC1〜C7の配置や向きを把握することができるようになっている。なお,タッチパネルディスプレイ100には,カードリーダ200に載置された各カードC1〜C7の位置(例えばオフェンシブエリアA1とディフェンシブエリアA2のどちらに位置しているのか)の情報も表示可能である。 FIG. 9 conceptually shows the state of the touch panel display 100 and the card reader 200 when actually playing a game using the game apparatus according to the present invention. The user places desired cards C1 to C7 on the card reader 200. An identification code is printed on the back surface of each of the cards C1 to C7. When the card reader 200 reads the identification codes of the cards C1 to C7, the card reader 200 analyzes the card information based on the identification codes and transmits the card information to the processing unit 310 of the game device. Further, the card reader 200 can grasp the direction and position of each of the cards C1 to C7. In the example shown in FIG. 9, on the card reader 200, the cards C1, C2, C5, and C6 are vertically oriented, and the cards C3, C4, and C7 are horizontally oriented. In the example shown in FIG. 9, on the card reader 200, the cards C1, C4, and C6 are located in the offense area A1, and the cards C2, C3, C5, and C7 are located in the defensive area A2. Information detected by the card reader 200 is transmitted to the processing unit 310. The processing unit 310, based on information such as card information, card orientation, card position, etc., stores the game information storage unit 380 (or temporary storage unit). 370), the object information (image data, status, etc.) associated with the card information is read out by referring to the object table stored in 370). The processing unit 310 displays an image on the touch panel display 100 based on the read image data. For example, on the touch panel display 100, an image of a card is displayed in the lower area. The card image displayed on the touch panel display 100 corresponds to the arrangement order of the cards C1 to C7 placed on the card reader 200 and the direction of the cards C1 to C7. In this way, by displaying the images of the cards C1 to C7 placed on the card reader 200 on a part of the touch panel display 100, the user does not have to look at the card reader 200 to touch the touch panel display 100. It is possible to grasp the arrangement and orientation of the cards C1 to C7 simply by looking at. Note that the touch panel display 100 can also display information on the position of each of the cards C1 to C7 placed on the card reader 200 (for example, in which of the offense area A1 and the defensive area A2).
図9に示された例において,タッチパネルディスプレイ100の表示画面上には,各カードC1〜C6に対応したオブジェクト(ゲームキャラクタ)O1〜O6が表示されている。各オブジェクトは,それぞれ特有のステータスや,種類,名前,属性,カードの向きや位置に応じたオブジェクトの特性を有している。オブジェクトのステータスとは,移動速度,ヒットポイント,攻撃力,及び防御力等が数値として記憶される情報である。これらの情報は,各オブジェクトの識別情報に関連付けてオブジェクトテーブルに記憶されている。例えば,カードが縦向きに配置されているオブジェクトは通常の攻撃を行う一方,カードが横向きに配置されているオブジェクトは特殊な攻撃を行う等の設定とすることができる。また,カードがオフェンシブエリアA1に位置しているオブジェクトは攻撃力の数値が向上する一方,カードがディフェンシブエリアA2に位置しているオブジェクトは防御力の数値が向上する等の設定とすることができる。また,図9に示された例において,カードC7に対応したオブジェクト(O7)は,タッチパネルディスプレイ100上に表示されていない。オブジェクト(O7)をゲーム空間に登場させるためには,タッチパネルディスプレイ100上に表示されたカードC7の画像をタッチし,カードC7の画像を召喚ゲート(Gate)が表示されている位置までドラッグする。カードC7の画像が,召喚ゲート(Gate)の表示されている位置でドロップされると,ガードC7に対応したオブジェクト(O7)がゲーム空間に登場し,タッチパネルディスプレイ100に表示されるようになっている。なお,召喚ゲート(Gate)は,ゲーム空間における位置座標がゲーム情報記憶部380や一次記憶部370に記憶されており,ゲーム処理部320によってその位置が把握されている。 In the example shown in FIG. 9, on the display screen of the touch panel display 100, objects (game characters) O1 to O6 corresponding to the cards C1 to C6 are displayed. Each object has its own status, type, name, attribute, and object characteristics according to the card orientation and position. The object status is information in which moving speed, hit points, attack power, defense power, and the like are stored as numerical values. These pieces of information are stored in the object table in association with the identification information of each object. For example, an object in which a card is arranged in a vertical orientation makes a normal attack, while an object in which a card is arranged in a horizontal orientation makes a special attack. Further, an object in which the card is located in the offense area A1 has a higher attack power value, while an object in which the card is located in the defensive area A2 has a higher defense power value. . In the example shown in FIG. 9, the object (O7) corresponding to the card C7 is not displayed on the touch panel display 100. In order to make the object (O7) appear in the game space, the image of the card C7 displayed on the touch panel display 100 is touched, and the image of the card C7 is dragged to the position where the summon gate (Gate) is displayed. When the image of the card C7 is dropped at the position where the summon gate (Gate) is displayed, the object (O7) corresponding to the guard C7 appears in the game space and is displayed on the touch panel display 100. Yes. Note that the position of the summon gate (Gate) in the game space is stored in the game information storage unit 380 or the primary storage unit 370, and the position is grasped by the game processing unit 320.
図10は,タッチパネルディスプレイ100に表示されたオブジェクトの移動操作の例を示している。タッチパネルディスプレイ100は,ユーザによりタッチされると,そのタッチ位置の座標を得る。処理部310は,タッチ位置の座標とオブジェクトが表示されている座標を参照し,タッチ位置の座標が,オブジェクトが表示されている座標と一致するかを判定する。タッチ位置とオブジェクトの位置が一致した場合,処理部310は,そのオブジェクトが選択されたことを把握する。図10(a)の例では,オブジェクトO4が選択されている。また,オブジェクトO4が選択された状態で,ユーザがタッチパネルディスプレイ100の表示画面をタッチすると,処理部310は,そのタッチ位置の座標を一時的記憶部に記憶する。特に,オブジェクトO4が選択された状態で,ユーザにより複数のポイントがタッチされた場合,処理部310は,タッチされた順番の情報と共に,タッチ位置の座標を一時的記憶部に記憶する。そして,処理部310は,ユーザによりタッチ選択されたオブジェクトO4を,次にタッチされたポイントに移動させる処理を行う。移動速度は,各オブジェクトそれぞれによって異なる。そこで,処理部310は,オブジェクトテーブルから,オブジェクトO4に関する移動速度の数値を読み出す。そして,読み出した移動速度の数値に基づいて,オブジェクトO4を最初のポイントから移動先のポイントまで移動させる。また,複数点がタッチされている場合には,選択されたオブジェクトO4を,タッチされた順番に従って,順次各ポイントへと移動させる。なお,移動しているオブジェクトO4が,移動中に敵オブジェクト(Enemy)に遭遇した場合や,塔(Tower)に到達した場合には,公知のゲームシステムと同様に,敵オブジェクトとの対戦処理,塔を制圧するため処理を行えば良い。 FIG. 10 shows an example of an operation for moving an object displayed on the touch panel display 100. When the touch panel display 100 is touched by the user, the touch panel display 100 obtains coordinates of the touch position. The processing unit 310 refers to the coordinates of the touch position and the coordinates where the object is displayed, and determines whether the coordinates of the touch position match the coordinates where the object is displayed. When the touch position matches the object position, the processing unit 310 recognizes that the object has been selected. In the example of FIG. 10A, the object O4 is selected. When the user touches the display screen of the touch panel display 100 with the object O4 selected, the processing unit 310 stores the coordinates of the touch position in the temporary storage unit. In particular, when a plurality of points are touched by the user in a state where the object O4 is selected, the processing unit 310 stores the coordinates of the touch position in the temporary storage unit along with information on the touched order. Then, the processing unit 310 performs processing for moving the object O4 touch-selected by the user to the next touched point. The moving speed is different for each object. Therefore, the processing unit 310 reads the numerical value of the moving speed related to the object O4 from the object table. Then, based on the read value of the moving speed, the object O4 is moved from the first point to the destination point. When a plurality of points are touched, the selected object O4 is sequentially moved to each point according to the touched order. When the moving object O4 encounters an enemy object (Enemy) during movement or reaches the tower (Tower), the battle process with the enemy object, as in the known game system, Processing may be performed to control the tower.
ただし,図10に示された方法に従い,オブジェクトを1つずつタッチ選択して移動させる操作は,ユーザが,複数のオブジェクトを同時に移動させることを希望する場合に,すべてのオブジェクトを1つずつタッチ選択する必要が生じ,煩雑となる。また,上述の通り,移動速度は各オブジェクトそれぞれによって異なる。このため,ユーザが,複数のオブジェクトを同じポイントに移動させることを希望する場合であっても,それぞれのオブジェクトが指定されたポイントに到着するタイミングは,オブジェクトの移動速度に応じて異なってしまう。 However, according to the method shown in FIG. 10, the operation of selecting and moving objects one by one is performed by touching all objects one by one when the user desires to move a plurality of objects simultaneously. It becomes necessary to make a choice and becomes complicated. Further, as described above, the moving speed varies depending on each object. For this reason, even when the user desires to move a plurality of objects to the same point, the timing at which each object arrives at the designated point varies depending on the moving speed of the object.
そこで,図11に示されるように,本ゲームのシステムでは,表示画面上の複数のオブジェクトを一括して選択することができ,選択したオブジェクトについて編隊(Party)を形成することが可能になっている。図11(a)では,複数のオブジェクトO1〜O7を一括して選択する操作の例が示されている。なお,図11(a)に示された操作は,基本的に図3に示された操作と同様である。処理部310は,ユーザによりタッチパネルディスプレイ100が同時に入力されている最初の2点P1,P2の座標に基づき,当該最初の2点P1,P2の座標から求められる第1中間点M1の座標を決定する。また,処理部310は,ユーザによりドラッグされて,2点の座標が同時に入力されなくなる直前に検出された最後の2点P3,P4の座標に基づき,当該最後の2点P3,P4の座標から求められる第2中間点の座標M2を決定する。そして,処理部310は,第1中間点M1の座標と第2中間点の座標M2に基づいて,タッチパネルディスプレイ100の表示画面上における矩形の領域を指定する。そして,指定された矩形の領域に,少なくとも一部が含まれるように表示されている複数のオブジェクトO1〜O7を選択する。選択されたオブジェクトO1〜O7は,編隊を形成するオブジェクトとして,一時記憶部に関連付けて記憶される。 Therefore, as shown in FIG. 11, in the game system, a plurality of objects on the display screen can be selected at once, and a formation (Party) can be formed for the selected objects. Yes. FIG. 11A shows an example of an operation for selecting a plurality of objects O1 to O7 at once. The operation shown in FIG. 11A is basically the same as the operation shown in FIG. The processing unit 310 determines the coordinates of the first intermediate point M1 obtained from the coordinates of the first two points P1 and P2 based on the coordinates of the first two points P1 and P2 to which the touch panel display 100 is simultaneously input by the user. To do. Also, the processing unit 310 is based on the coordinates of the last two points P3 and P4 detected based on the coordinates of the last two points P3 and P4 that are detected immediately before the two coordinates are not input simultaneously by being dragged by the user. The coordinates M2 of the second intermediate point to be obtained are determined. Then, the processing unit 310 designates a rectangular area on the display screen of the touch panel display 100 based on the coordinates of the first intermediate point M1 and the coordinates M2 of the second intermediate point. Then, the plurality of objects O1 to O7 displayed so that at least a part is included in the designated rectangular area is selected. The selected objects O1 to O7 are stored in association with the temporary storage unit as objects forming a formation.
図11(b)は,選択された複数のオブジェクトO1〜O7が編隊(Party)を形成した例を示している。図11(b)に示されるように,一括して選択された複数のオブジェクトO1〜O7は,一箇所に集まり編隊を形成する。また,処理部310は,ユーザの操作により形成された編隊を,次にタッチされたポイントに移動させる処理を行う。すなわち,各オブジェクトO1〜O7は編隊を形成することにより,集合状態のまま移動する。このとき,編隊を形成する各オブジェクトの移動速度は,それぞれによって異なるものである。そこで,処理部310は,オブジェクトテーブルから,編隊を形成する各オブジェクトの移動速度の数値を読み出し,読み出した各オブジェクトの移動速度の数値に基づいて編隊の移動速度を求める。例えば,処理部310は,編隊を形成する各オブジェクトの移動速度のうち,最も遅いもの(最も数値が低いもの)を,編隊全体の移動速度として求めればよい。また,処理部310は,編隊を形成する複数のオブジェクトの移動速度の平均値を,編隊全体の移動速度としてもよい。また,処理部310は,編隊を形成する各オブジェクトの移動速度のうち,最も速いもの(最も数値が高いもの)を,編隊全体の移動速度とすることもできる。オブジェクトの編隊は,処理部310により算出された移動速度の値に従った移動速度で,指定されたポイントへと移動する。複数のポイントが指定されている場合には,処理部310は,オブジェクトの編隊を,指定された順番に従って,順次各ポイントへと移動させる。移動しているオブジェクトの編隊が,移動中に敵オブジェクト(Enemy)に遭遇した場合や,塔(Tower)に到達した場合には,公知のゲームシステムと同様に,敵オブジェクトとの対戦処理,塔を制圧するため処理を行えば良い。 FIG. 11B shows an example in which a plurality of selected objects O1 to O7 form a formation (Party). As shown in FIG. 11B, the plurality of objects O1 to O7 selected at once gather together in one place to form a formation. Further, the processing unit 310 performs a process of moving the formation formed by the user's operation to the next touched point. That is, the objects O1 to O7 move in the assembled state by forming a formation. At this time, the moving speeds of the objects forming the formation are different from each other. Therefore, the processing unit 310 reads the numerical value of the moving speed of each object forming the formation from the object table, and obtains the moving speed of the formation based on the read numerical value of the moving speed of each object. For example, the processing unit 310 may obtain the slowest (lowest numerical value) of the movement speeds of the objects forming the formation as the movement speed of the entire formation. Further, the processing unit 310 may use the average value of the movement speeds of a plurality of objects forming the formation as the movement speed of the entire formation. The processing unit 310 can also set the fastest (highest numerical value) of the movement speeds of the objects forming the formation as the movement speed of the entire formation. The formation of the object moves to a designated point at a movement speed according to the value of the movement speed calculated by the processing unit 310. When a plurality of points are designated, the processing unit 310 sequentially moves the object formation to each point in the designated order. When a moving object's formation encounters an enemy object (Enemy) during movement or reaches a tower (Tower), as in a known game system, Processing may be performed to suppress the above.
以上,本発明のゲーム装置により実行されるゲームについて,特徴的なシステムを主として説明した。その他のゲーム処理については,カードリーダを備える公知のゲーム装置や,タッチパネルディスプレイを備える公知のゲーム装置のものを適宜採用できる。 In the above, the characteristic system was mainly demonstrated about the game performed with the game device of this invention. As for other game processes, a known game device including a card reader or a known game device including a touch panel display can be appropriately employed.
本発明は,例えば,コンピュータ産業やゲーム産業にて好適に利用し得る。 The present invention can be suitably used, for example, in the computer industry or the game industry.
1 表示部
2 座標入力部
3 領域指定部
4 オブジェクト選択部
5 オブジェクト記憶部
6 座標記憶部
10 タッチパネルディスプレイ
20 制御部
30 記憶部
M1 第1中間点
M2 第2中間点
P1 第1点目のタッチ点
P2 第2点目のタッチ点
P3 第3点目のタッチ点
P4 第4点目のタッチ点
R 領域
O オブジェクト
DESCRIPTION OF SYMBOLS 1 Display part 2 Coordinate input part 3 Area | region designation | designated part 4 Object selection part 5 Object memory | storage part 6 Coordinate memory | storage part 10 Touch panel display 20 Control part 30 Memory | storage part M1 1st intermediate point M2 2nd intermediate point P1 1st touch point P2 Second point touch point P3 Third point touch point P4 Fourth point touch point R Region O Object
Claims (5)
画像表示可能な表示部の表示画面上で座標を入力するための座標入力部によって検出された入力が、第1の入力のみである場合は、該第1の入力は該表示画面上の任意箇所を指定する第1指定操作と判定し、該第1の入力が継続された状態で別の第2の入力が検出された場合は、該第1の入力及び該第2の入力は該第1指定操作とは異なる第2指定操作と判定する操作判定機能、
を実現させ、
前記操作判定機能では、前記第2指定操作と判定した状態において、前記第1の入力及び前記第2の入力のいずれか一方の入力が継続していない場合は、継続されている他方の入力を第1の入力とする第1指定操作と判定する機能、
を実現させるためのプログラム。 On the computer,
When the input detected by the coordinate input unit for inputting coordinates on the display screen of the display unit capable of displaying an image is only the first input, the first input is an arbitrary place on the display screen. If the second input is detected in a state where the first input is continued, the first input and the second input are determined as the first specifying operation. An operation determination function for determining a second specified operation different from the specified operation;
Realized,
In the operation determination function, when one of the first input and the second input is not continued in the state determined as the second designated operation, the other input that is continued is determined. A function for determining a first designated operation as a first input;
A program to realize
前記第1指定操作と判定された場合、前記座標入力部から取得した前記第1の入力の座標に基づいて、前記表示画面上における対応点を指定する点指定機能と、
前記第2指定操作と判定された場合、前記座標入力部から取得した前記第1の入力の座標及び前記第2の入力の座標の少なくとも一方に基づいて、前記表示画面上における領域を指定する領域指定機能と、
を実現させるための請求項1に記載のプログラム。 In addition to the computer,
A point designating function for designating corresponding points on the display screen based on the coordinates of the first input acquired from the coordinate input unit when it is determined as the first designating operation;
An area for designating an area on the display screen based on at least one of the coordinates of the first input and the coordinates of the second input acquired from the coordinate input unit when the second designation operation is determined A designated function;
The program of Claim 1 for implement | achieving.
実現させるための請求項2に記載のプログラム。 In the area designation function, the area is a reference coordinate for calculating the area based on at least one of the coordinates of the first input and the coordinates of the second input, and is included in a boundary line defining the area And a function for calculating reference coordinates different from the coordinates of the first input and the coordinates of the second input,
The program of Claim 2 for implement | achieving.
前記基準座標の前記表示画面上における対応点を前記表示部に表示させる機能を、
実現させるための請求項3に記載のプログラム。 In addition to the computer,
A function of displaying corresponding points on the display screen of the reference coordinates on the display unit;
The program of Claim 3 for implement | achieving.
前記表示部の表示画面上における座標を入力するための座標入力部と、
前記座標入力部によって検出された入力が、第1の入力のみである場合は、該第1の入力は前記表示画面上の任意箇所を指定する第1指定操作と判定し、該第1の入力が継続された状態で別の第2の入力が検出された場合は、該第1の入力及び該第2の入力は該第1指定操作とは異なる第2指定操作と判定する操作判定部と、
を有し、
前記操作判定部は、前記第2指定操作と判定した状態において、前記第1の入力及び前記第2の入力のいずれか一方の入力が継続していない場合は、継続されている他方の入力を第1の入力とする第1指定操作と判定する、
情報処理装置。 A display unit capable of displaying an image;
A coordinate input unit for inputting coordinates on the display screen of the display unit;
When the input detected by the coordinate input unit is only the first input, it is determined that the first input is a first specifying operation for specifying an arbitrary location on the display screen, and the first input An operation determination unit that determines that the second input is a second specified operation different from the first specified operation when another second input is detected in a state in which ,
Have
In the state where the operation determination unit determines that the operation is the second designation operation, if one of the first input and the second input is not continued, the other input that is continued is determined. It is determined that the first designation operation is the first input.
Information processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016147900A JP6230136B2 (en) | 2016-07-27 | 2016-07-27 | Information processing apparatus, information processing method, and game apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016147900A JP6230136B2 (en) | 2016-07-27 | 2016-07-27 | Information processing apparatus, information processing method, and game apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013195377A Division JP5980752B2 (en) | 2013-09-20 | 2013-09-20 | Information processing apparatus, information processing method, and game apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017198298A Division JP6480537B2 (en) | 2017-10-12 | 2017-10-12 | Information processing apparatus, information processing method, and game apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017004543A true JP2017004543A (en) | 2017-01-05 |
JP6230136B2 JP6230136B2 (en) | 2017-11-15 |
Family
ID=57751804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016147900A Active JP6230136B2 (en) | 2016-07-27 | 2016-07-27 | Information processing apparatus, information processing method, and game apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6230136B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111841000A (en) * | 2020-07-28 | 2020-10-30 | 网易(杭州)网络有限公司 | Method, device, equipment and storage medium for controlling display of game virtual character |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134382A (en) * | 1999-11-04 | 2001-05-18 | Sony Corp | Graphic processor |
JP2009104268A (en) * | 2007-10-22 | 2009-05-14 | Hitachi Displays Ltd | Coordinate detection device and operation method using touch panel |
JP2011100253A (en) * | 2009-11-05 | 2011-05-19 | Sharp Corp | Drawing device |
JP2011198000A (en) * | 2010-03-19 | 2011-10-06 | Rohm Co Ltd | Touch-panel input device |
JP2011205228A (en) * | 2010-03-24 | 2011-10-13 | Canon Inc | Image pickup device, control method for the same, and program |
JP2011215539A (en) * | 2010-04-02 | 2011-10-27 | Rohm Co Ltd | Digital camera |
JP2011227703A (en) * | 2010-04-20 | 2011-11-10 | Rohm Co Ltd | Touch panel input device capable of two-point detection |
JP2012008666A (en) * | 2010-06-23 | 2012-01-12 | Jvc Kenwood Corp | Information processing device and operation input method |
JP2013073484A (en) * | 2011-09-28 | 2013-04-22 | Jvc Kenwood Corp | Electronic apparatus, method for controlling electronic apparatus, and program |
-
2016
- 2016-07-27 JP JP2016147900A patent/JP6230136B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134382A (en) * | 1999-11-04 | 2001-05-18 | Sony Corp | Graphic processor |
JP2009104268A (en) * | 2007-10-22 | 2009-05-14 | Hitachi Displays Ltd | Coordinate detection device and operation method using touch panel |
JP2011100253A (en) * | 2009-11-05 | 2011-05-19 | Sharp Corp | Drawing device |
JP2011198000A (en) * | 2010-03-19 | 2011-10-06 | Rohm Co Ltd | Touch-panel input device |
JP2011205228A (en) * | 2010-03-24 | 2011-10-13 | Canon Inc | Image pickup device, control method for the same, and program |
JP2011215539A (en) * | 2010-04-02 | 2011-10-27 | Rohm Co Ltd | Digital camera |
JP2011227703A (en) * | 2010-04-20 | 2011-11-10 | Rohm Co Ltd | Touch panel input device capable of two-point detection |
JP2012008666A (en) * | 2010-06-23 | 2012-01-12 | Jvc Kenwood Corp | Information processing device and operation input method |
JP2013073484A (en) * | 2011-09-28 | 2013-04-22 | Jvc Kenwood Corp | Electronic apparatus, method for controlling electronic apparatus, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111841000A (en) * | 2020-07-28 | 2020-10-30 | 网易(杭州)网络有限公司 | Method, device, equipment and storage medium for controlling display of game virtual character |
CN111841000B (en) * | 2020-07-28 | 2023-10-27 | 网易(杭州)网络有限公司 | Method, device, equipment and storage medium for controlling display of game virtual character |
Also Published As
Publication number | Publication date |
---|---|
JP6230136B2 (en) | 2017-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5377709B2 (en) | Information processing apparatus, information processing method, and game apparatus | |
JP5450718B2 (en) | GAME DEVICE AND GAME PROGRAM | |
JP5449422B2 (en) | SCREEN SCROLL DEVICE, SCREEN SCROLL METHOD, AND GAME DEVICE | |
JP4326568B2 (en) | Information processing apparatus and information processing program | |
US8910075B2 (en) | Storage medium storing information processing program, information processing apparatus and information processing method for configuring multiple objects for proper display | |
JP5955884B2 (en) | Game device | |
JP6715361B2 (en) | Information processing device, information processing method, and game device | |
JP5350003B2 (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
JP4743721B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND METHOD | |
JP6480537B2 (en) | Information processing apparatus, information processing method, and game apparatus | |
JP6230136B2 (en) | Information processing apparatus, information processing method, and game apparatus | |
JP2006314632A (en) | Game program and game device | |
JP5725519B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5980752B2 (en) | Information processing apparatus, information processing method, and game apparatus | |
JP6235544B2 (en) | Program, computer apparatus, screen control method, and system | |
JP5826244B2 (en) | Game system | |
JP6612285B2 (en) | GAME PROGRAM AND GAME DEVICE | |
US9962606B2 (en) | Game apparatus | |
JP5738351B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5738372B2 (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
JP5483654B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6230136 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |