JP6154597B2 - 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP6154597B2
JP6154597B2 JP2012251896A JP2012251896A JP6154597B2 JP 6154597 B2 JP6154597 B2 JP 6154597B2 JP 2012251896 A JP2012251896 A JP 2012251896A JP 2012251896 A JP2012251896 A JP 2012251896A JP 6154597 B2 JP6154597 B2 JP 6154597B2
Authority
JP
Japan
Prior art keywords
sound
display
display image
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012251896A
Other languages
English (en)
Other versions
JP2014097266A (ja
Inventor
悟郎 阿部
悟郎 阿部
豪彦 細川
豪彦 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012251896A priority Critical patent/JP6154597B2/ja
Priority to US13/868,584 priority patent/US9108104B2/en
Publication of JP2014097266A publication Critical patent/JP2014097266A/ja
Application granted granted Critical
Publication of JP6154597B2 publication Critical patent/JP6154597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/22Selecting circuits for suppressing tones; Preference networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/135Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関し、特に例えば、スピーカから音声を出力する情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。
従来、1つの楽曲を複数の楽器を用いて合奏した音声を出力するゲーム装置がある(例えば、特許文献1参照)。上記特許文献1に記載されたゲーム装置は、ユーザ自身が担当するパートを選択し、担当パートの選択が完了すると、合奏が開始される。そして、ユーザは、担当パートに応じた入力操作を行うことによって、合奏に参加することができる。
特開2009−297221号公報
しかしながら、上記特許文献1で開示されたゲーム装置は、合奏される楽曲がモニタに設けられた1組のスピーカ等から音声出力されるだけである。したがって、合奏された楽曲であっても、他の音声出力と比べて変化に乏しいものになることがある。
それ故に、本発明の目的は、変化に富んだ音声出力が可能となる情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法を提供することである。
上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。
本発明の情報処理プログラムの一構成例は、第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理装置に含まれるコンピュータで実行される。情報処理プログラムは、第1表示画像生成手段、第1サウンド生成手段、第2サウンド選択手段、第1表示制御手段、第1サウンド出力制御手段、および第2サウンド出力制御手段としてコンピュータを機能させる。第1表示画像生成手段は、仮想世界の少なくとも一部を含む画像を第1表示画像として生成する。第1サウンド生成手段は、仮想世界において生じている第1サウンドを生成する。第2サウンド選択手段は、ユーザ操作に応じて、第1サウンドの一部を構成する第2サウンドを選択する。第1表示制御手段は、第1表示画像を第1の表示装置に表示する制御を行う。第1サウンド出力制御手段は、第1サウンド生成手段が生成した第1サウンドを、第1の表示装置に表示する第1表示画像と同期して第1のスピーカから出力する制御を行う。第2サウンド出力制御手段は、第2サウンド選択手段が選択した第2サウンドを、第2のスピーカから出力する制御を行う。
上記によれば、ユーザ操作に応じて、第1サウンドの一部を構成する第2サウンドを選択して別の装置を用いて聴くことができるため、変化に富んだ音声出力が可能となる。
また、上記第1サウンド生成手段は、第2サウンド選択手段によって第2サウンドが選択された場合、当該第2サウンドを除いて新たに第1サウンドを生成してもよい。
上記によれば、第1のサウンドから第2サウンドを除いた音声を第1の表示装置を用いて聴くことができるため、さらに変化に富んだ音声出力が可能となる。
また、上記第1表示画像生成手段は、仮想世界に複数のオブジェクトが配置された画像を、第1表示画像として生成してもよい。上記情報処理プログラムは、オブジェクト選択手段として、さらにコンピュータを機能させてもよい。オブジェクト選択手段は、ユーザ操作に応じて、複数のオブジェクトから少なくとも1つのオブジェクトを選択する。この場合、上記第1サウンド生成手段は、第1表示画像として表示されているオブジェクトに応じて、第1サウンドを生成してもよい。上記第2サウンド選択手段は、オブジェクト選択手段によって選択されたオブジェクトに応じて、第2サウンドを選択してもよい。
上記によれば、第1の表示装置に表示された複数のオブジェクトの少なくとも1つを選択することによって、当該オブジェクトに応じたサウンドが第2のスピーカから音声出力されるため、オブジェクト選択によって当該オブジェクトに応じた音声を選択して第2のスピーカから聴くような操作が可能となる。
また、上記第1表示画像生成手段は、オブジェクト選択手段によって選択されたオブジェクトを複数のオブジェクトから除いて、当該除いた後のオブジェクトが配置された画像を、第1表示画像として生成してもよい。上記第1サウンド生成手段は、オブジェクト選択手段によって選択されたオブジェクトに応じた第2サウンドを複数のオブジェクトに応じた第1サウンドから除くことによって除いた後のオブジェクトに応じたサウンドを生成し、当該サウンドを新たに第1サウンドとして生成してもよい。
上記によれば、第1の表示装置に表示された複数のオブジェクトの少なくとも1つを選択することによって、当該オブジェクトに応じたサウンドが第2のスピーカから音声出力されるとともに、当該オブジェクトに応じたサウンドが除かれた第1サウンドが第1のスピーカから音声出力されるため、オブジェクト選択によって当該オブジェクトに応じた音声出力を第1のスピーカから第2のスピーカへ移動させるような操作が可能となる。
また、上記別の装置は、表示画面を有する第2の表示装置であってもよい。上記情報処理プログラムは、第2表示画像生成手段、および第2表示制御手段として、さらにコンピュータを機能させてもよい。第2表示画像生成手段は、オブジェクト選択手段によって選択されたオブジェクトを示す画像を第2表示画像として生成する。第2表示制御手段は、第2表示画像を第2の表示装置に表示する制御を行う。この場合、上記第2サウンド選択手段は、第2表示画像として表示されているオブジェクトに応じて、第2サウンドを選択してもよい。
上記によれば、第1の表示装置に表示された複数のオブジェクトの少なくとも1つを第2の表示装置に表示させることによって、当該オブジェクトに応じたサウンドが第2の表示装置から音声出力されるため、画像ともに音声を選択して第2の表示装置を用いて視聴するような操作が可能となる。
また、上記第1サウンド生成手段は、第1表示画像として表示されているオブジェクトを音源とするサウンドを、第1サウンドとして生成してもよい。上記第2サウンド選択手段は、第2表示画像として表示されているオブジェクトを音源とするサウンドを、第2サウンドとして選択してもよい。
上記によれば、サウンドの音源となるオブジェクトを第2の表示装置に表示させることによって、当該オブジェクトを音源とするサウンドが第2の表示装置から音声出力されるため、音源を選択して第2の表示装置を用いて視聴するような操作が可能となる。
また、上記第1の表示装置は、据置型の表示装置であってもよい。上記第2の表示装置は、可搬型の表示装置であってもよい。
上記によれば、複数のオブジェクトが配置された仮想世界を据置型の表示装置に表示して当該複数のオブジェクトに応じたサウンドを当該据置型の表示装置から音声出力しながら、選択されたオブジェクトが配置された仮想世界を可搬型の表示装置に表示して当該選択されたオブジェクトに応じたサウンドを当該可搬型の表示装置から音声出力することができる。
また、上記第2の表示装置は、ユーザ操作入力に応じたデータを出力する操作入力手段を備えてもよい。この場合、上記情報処理プログラムは、データ取得手段、オブジェクト制御手段、第2サウンド変化手段として、さらにコンピュータを機能させてもよい。データ取得手段は、操作入力手段から出力されたデータを取得する。オブジェクト制御手段は、データ取得手段が取得したデータに応じて、第2表示画像として表示されているオブジェクトを制御する。第2サウンド変化手段は、データ取得手段が取得したデータに応じて、第2サウンドの音量、音質、音程、および発音数の少なくとも1つを変化させる。
上記によれば、第2の表示装置から音声出力する第2サウンドを変化させて聴くことができる。
また、上記第1サウンド生成手段は、仮想世界において1つの楽曲を複数の楽器を用いて合奏されるサウンドを、第1サウンドとして生成してもよい。上記第2サウンド選択手段は、ユーザ操作に応じて複数の楽器から選択された少なくとも1つの楽器が楽曲を演奏しているサウンドを、第2サウンドとして生成してもよい。上記第2サウンド出力制御手段は、第1のスピーカから第1サウンドとして出力されている楽曲の演奏と同期するように、第2のスピーカから当該楽曲を演奏している第2サウンドを出力してもよい。
上記によれば、複数の楽器を用いて合奏しているサウンドから、少なくとも1つの楽器が演奏しているサウンドを取り出して聴くことができる。
また、上記情報処理プログラムは、決定手段として、さらにコンピュータを機能させてもよい。決定手段は、ユーザ操作に応じて、第1表示画像として表示された仮想世界内に対する指示位置および/または指示方向を決定する。この場合、上記第1サウンド生成手段は、第1表示画像として表示されている仮想世界全体において生じている全体音を、第1サウンドとして生成してもよい。上記第2サウンド選択手段は、仮想世界における指示位置および/または指示方向に基づいて、当該仮想世界における指示位置の周辺に生じる音および/または指示方向に対して所定の範囲内に生じる音を生成し、当該音を第2サウンドとして選択してもよい。
上記によれば、仮想世界全体において生じている全体音を第1のスピーカから音声出力するとともに、仮想世界に対して指示した位置および/または方向に応じた音声を第2のスピーカから音声出力することができる。
また、本発明は、上記各手段を備える情報処理装置および情報処理システムや上記各手段で行われる動作を含む情報処理方法の形態で実施されてもよい。
本発明によれば、ユーザ操作に応じて、あるサウンドの一部を構成するサウンドを選択して別の装置を用いて聴くことができるため、変化に富んだ音声出力が可能となる。
情報処理システム1の一例を示すブロック図 情報処理システム1において表示される画像の一例を示す図 モニタ4に表示される仮想世界の全体画像および出力されるサウンドの一例を示す図 選択オブジェクトが選択された場合の端末装置2の表示画像および出力サウンドと、モニタ4の表示画像および出力サウンドとの一例を示す図 端末装置2に対する操作によって選択オブジェクトおよび出力サウンドが制御される一例を示す図 情報処理装置3のメモリ6に記憶される主なデータおよびプログラムの一例を示す図 楽曲データDcの一例を示す図 情報処理装置3において実行される情報処理の前半の一例を示すフローチャート 情報処理装置3において実行される情報処理の後半の一例を示すフローチャート
図1を参照して、本実施例に係る情報処理プログラムを実行する情報処理装置および当該情報処理装置を含む情報処理システムについて説明する。なお、図1は、情報処理装置3を含む情報処理システム1の一例を示すブロック図である。一例として、情報処理装置3は据置型のゲーム装置で構成され、情報処理システム1は当該ゲーム装置を含むゲームシステムで構成される。
図1において、情報処理システム1は、端末装置2、情報処理装置3、およびモニタ4を備える。本実施例における情報処理システム1は、画像(例えば、ゲーム画像)を生成して表示装置(端末装置2およびモニタ4)に表示するものである。
情報処理システム1においては、端末装置2に対する入力に応じて情報処理装置3が情報処理を実行し、実行の結果得られた画像が端末装置2および/またはモニタ4に表示される。このように、本実施例においては、情報処理システム1は、入力機能、情報処理機能、および表示機能が複数の装置によって実現される構成である。なお、他の実施例においては、情報処理システム1は、これらの機能を有する単一の情報処理装置(例えば携帯型あるいは可搬型の情報処理装置)で構成されてもよい。
端末装置2は、ユーザが把持可能な(可搬型の)入力装置である。端末装置2は、情報処理装置3と通信可能である。端末装置2は、端末装置2に対する操作を表す操作データを情報処理装置3へ送信する。また、本実施例においては、端末装置2は、表示部(LCD11)を備えており、端末装置2は表示装置でもある。情報処理装置3から画像が送信されてくる場合、端末装置2は、LCD11に当該画像を表示する。
また、端末装置2は、スピーカ12を備えており、端末装置2は表示装置および音声出力装置でもある。スピーカ12は、例えば一対のステレオスピーカであり、音声データの出力を制御する回路であるサウンドICによって出力制御されてもよい。情報処理装置3から音声が送信されてくる場合、端末装置2は、サウンドICを介してスピーカ12から当該音声を出力する。
また、端末装置2は、入力部として操作部13を備える。一例として、操作部13は、ハウジングに設けられる所定の入力面(例えば、表示部の画面)に対して入力された位置を検出するタッチパネルや、アナログスティック、十字キー、操作ボタン等を備えている。また、端末装置2は、入力部として加速度センサやジャイロセンサ等を備えてもよい。加速度センサやジャイロセンサは、端末装置2の所定軸方向に関する加速度や角速度を検出する。
情報処理装置3は、画像を生成する処理等、情報処理システム1において実行される各種の情報処理を実行する。本実施例においては、情報処理装置3は、CPU(制御部)5およびメモリ6を有し、CPU5がメモリ6を用いて所定の情報処理プログラムを実行することによって、情報処理装置3における各種機能が実現される。なお、情報処理装置3は、上記の情報処理を実行することができればどのような構成であってもよい。本実施例においては、情報処理装置3によって画像(例えば、ゲーム画像)が生成され、生成された画像は、表示装置である端末装置2およびモニタ4へ出力される。
モニタ4は、生成された画像を表示し生成された音声を出力する表示装置および音声出力装置の一例である。モニタ4は、情報処理装置3から送信されるデータを受信可能である。情報処理装置3において生成された画像および音声がモニタ4へ送信されてくると、モニタ4は当該画像を表示するとともにスピーカ41から当該音声を出力する。
次に、情報処理装置3が行う具体的な処理を説明する前に、図2〜図5を用いて情報処理装置3で行う情報処理の概要について説明する。図2は、情報処理システム1において表示される画像の一例を示す図である。図3は、モニタ4に表示される仮想世界の全体画像および出力されるサウンドの一例を示す図である。図4は、選択オブジェクトが選択された場合の端末装置2の表示画像および出力サウンドと、モニタ4の表示画像および出力サウンドとの一例を示す図である。図5は、端末装置2に対する操作によって選択オブジェクトおよび出力サウンドが制御される一例を示す図である。
図2に示すように、本実施例においては、一例として端末装置2およびモニタ4にそれぞれゲーム画像が表示される。例えば、ユーザは、端末装置2を把持しながら操作することによって、モニタ4に表示された仮想世界に配置されたオブジェクトを選択して端末装置2のLCD11に当該選択されたオブジェクトを表示することができる。
図2および図3に示すように、モニタ4には例えば仮想世界の全体画像が表示される。例えば、上記全体画像は、複数のオブジェクトOBJ(図3においては5つのオブジェクトOBJ1〜OBJ5)が表示される。そして、モニタ4のスピーカ41からは、複数のオブジェクトOBJがそれぞれ音源となって仮想世界に生じているサウンド全て(全体音)が出力される。一例として、複数のオブジェクトOBJは、仮想世界においてそれぞれ楽器を用いて同じ楽曲を演奏しており、複数のオブジェクトOBJが合奏している楽曲(すなわち、それぞれのオブジェクトOBJが同じ楽曲を演奏している音全てを合成した音声)が上記全体音として音声出力される。
ここで、ユーザは、端末装置2を操作(例えば、操作部13を用いた操作)することによって、モニタ4に表示された複数のオブジェクトOBJからオブジェクトOBJを選択することができる(以下、ユーザが選択したオブジェクトを選択オブジェクトと記載する)。なお、選択オブジェクトは、モニタ4に表示された複数のオブジェクトOBJから1つ選択されてもいいし、複数選択されてもよい。例えば、図4に示した一例では、ユーザがモニタ4に表示されたオブジェクトOBJ1を選択オブジェクトとして選択している。そして、選択オブジェクトOBJ1が選択された場合、モニタ4に表示された全体画像から選択オブジェクトOBJ1が消去され、端末装置2のLCD11に選択オブジェクトOBJ1が表示される。このように選択オブジェクトを表示制御することによって、モニタ4に表示された仮想世界から端末装置2に表示される仮想世界にあたかも選択オブジェクトが移動したかのように表現することができる。
このとき、端末装置2のスピーカ12からは、LCD11に表示されたオブジェクト(すなわち、選択オブジェクト)が音源となって仮想世界に生じているサウンド(選択音)が音声出力される。例えば、図4に示した一例では、選択オブジェクトOBJ1がLCD11に表示されており、選択オブジェクトOBJ1が上記楽曲を演奏しているサウンドがスピーカ12から音声出力される。つまり、ユーザが選択オブジェクトを選択する操作を行うことによって、モニタ4から音声出力されていた全体音の一部を構成するサウンドが選択音として端末装置2から音声出力されることになる。これによって、ユーザは、全体音としてモニタ4から音声出力されているサウンドに注目して視聴したいサウンドが含まれている場合、当該サウンドを取り出して端末装置2から音声出力することができるため、今までにない視聴環境をユーザに提供することができる。
また、モニタ4に表示されている複数のオブジェクトOBJから選択オブジェクトOBJ1が選択された場合、当該選択前にスピーカ41から音声出力されていた全体音から選択オブジェクトOBJ1を音源とするサウンドを除いた新たな全体音が生成され、当該新たな全体音がスピーカ41から音声出力される。例えば、図4に示した一例では、複数のオブジェクトOBJ1〜OBJ5が合奏することによって生成されていた全体音から、選択オブジェクトOBJ1が演奏していた選択音を除いたサウンド、すなわち複数のオブジェクトOBJ2〜OBJ5が合奏することによって生成されるサウンドが新たに全体音として生成されてスピーカ41から音声出力される。これによって、ユーザは、全体音としてモニタ4から音声出力されているサウンドに除きたいサウンドが含まれている場合、当該サウンドを除いてモニタ4から音声出力することができるため、今までにない視聴環境をユーザに提供することができる。
さらに、ユーザは、選択オブジェクトがLCD11に表示された状態で端末装置2を操作することによって、表示された選択オブジェクトの状態や動作等を制御することができる。例えば、図5に示した一例では、選択オブジェクトOBJ1がLCD11に表示された状態で操作部13を操作(例えば、LボタンやRボタンの操作)することによって、選択オブジェクトOBJ1が演奏している楽器が変更される。これによって、端末装置2のスピーカ12から音声出力されていた選択音(すなわち、選択オブジェクトOBJ1が変更前の楽器を演奏するサウンド)は、同じ楽曲であっても楽器変更に応じた音質(音色)が異なるサウンド(すなわち、選択オブジェクトOBJ1が変更後の楽器を演奏するサウンド)に変化し、ユーザが所望するサウンドを音声出力することができる。なお、選択オブジェクトに対する操作は、楽器変更に限らず、選択オブジェクトに対する他の状態や他の動作を変更可能にしてもかまわない。例えば、端末装置2を操作することによって、選択オブジェクトが使用している他の機器(例えば、エフェクタやエコー等、演奏や演唱に音響効果を加える機器)が変更されてもいいし、選択オブジェクトの演奏自体が当該操作に応じて行われるようにしてもいいし、選択オブジェクトの演奏動作が変更(例えば、演奏強弱、演奏手法、演奏優劣の変更)されてもよい。この場合、スピーカ12から音声出力されていた選択音は、上記操作に応じて、音質に限られず、音質、音量、音程、発音数の少なくとも1つが変化することになる。
なお、上述した説明では、選択オブジェクトが端末装置2に表示される例を用いたが、選択オブジェクトが端末装置2に表示されなくてもかまわない。この場合、第1の例として、端末装置2には選択オブジェクトが表示されずに選択音のみがスピーカ12から音声出力され、モニタ4には選択オブジェクトが消去された全体画像が表示されて当該選択音を除いた全体音がスピーカ41から音声出力される。第2の例として、端末装置2には選択オブジェクトが表示されずに選択音のみがスピーカ12から音声出力され、モニタ4には選択オブジェクトが消去されずに選択前の全体画像がそのまま表示されて選択前に音声出力されていた全体音がそのままスピーカ41から音声出力される。何れの例であっても、全体音から一部のサウンドを取り出して端末装置2から音声出力することが可能となるため、上述した効果の一部を得ることができる。
また、端末装置2に表示された選択オブジェクトは、所定の操作に応じてモニタ4に戻されて再び表示されてもよい。例えば、端末装置2に表示されたゲーム画像から選択オブジェクトが消去され、モニタ4の全体画像に選択オブジェクトが追加される。この場合、当該選択オブジェクトが全体画像に追加表示される前にスピーカ41から音声出力されていた全体音に、選択オブジェクトを音源とするサウンドを加えた新たな全体音が生成され、当該新たな全体音がスピーカ41から音声出力される。ここで、上述したように選択オブジェクトが演奏している選択音は、端末装置2に対する操作に応じて音質、音量、音程、発音数の少なくとも1つを変化させることができるため、新たに生成される全体音は、選択オブジェクトを選択する前と比較すると当該変化が加えられたサウンドとなる。
また、上述した説明では、それぞれ音源として配置された複数のオブジェクトの少なくとも1つを選択することによって、選択オブジェクトを音源とするサウンドが端末装置2から音声出力される例を用いたが、他の態様によって選択音が端末装置2から音声出力されてもかまわない。例えば、端末装置2の操作に応じて、モニタ4に表示された仮想世界に対する位置(指示位置)および/または方向(指示方向)が設定される。そして、モニタ4から音声出力されている上記仮想世界に生じている全体音のうち、上記仮想世界に対して設定された指示位置の周辺に生じている当該仮想世界の音(例えば、指示位置を基準に所定の範囲内に存在する音源からのサウンド)や、上記仮想世界に対して設定された指示方向に生じている当該仮想世界の音(例えば、指示方向を中心に所定の範囲内に存在する音源からのサウンド)が、端末装置2から音声出力される。具体的には、端末装置2の操作に応じて、モニタ4に表示された仮想世界に配置されたオブジェクトが選択された場合、当該オブジェクトの周辺に生じている音や当該オブジェクトの正面方向を基準とした所定範囲内に生じている音が、端末装置2から音声出力される。このように、モニタ4に表示された仮想世界に対する指示位置および/または指示方向が設定される場合であっても、モニタ4から音声出力されている全体音から一部を取り出して端末装置2から音声出力することができる。
次に、情報処理装置3において行われる情報処理(例えば、ゲーム処理)の詳細を説明する。なお、後述する情報処理の説明では、モニタ4に表示された複数のオブジェクトから選択された選択オブジェクトが端末装置2に表示され、同じ楽曲を演奏しているサウンドがモニタ4および端末装置2からそれぞれ音声出力される例(図2〜図5参照)を用いる。まず、図6および図7を参照して、情報処理において用いられる主なデータについて説明する。なお、図6は、情報処理装置3のメモリ6に記憶される主なデータおよびプログラムの一例を示す図である。図7は、楽曲データDcの一例を示す図である。
図6に示すように、メモリ6のデータ記憶領域には、端末操作データDa、オブジェクトデータDb、楽曲データDc、第1サウンドデータDd、第2サウンドデータDe、および画像データDf等が記憶される。なお、メモリ6には、図6に示すデータの他、実行するアプリケーションで用いるデータ等、情報処理に必要なデータ等が記憶されてもよい。また、メモリ6のプログラム記憶領域には、情報処理プログラムを構成する各種プログラム群Paが記憶される。
端末操作データDaは、端末装置2から送信データとして送信されてくる一連の操作情報(端末操作データ)が格納され、最新の端末操作データに更新される。例えば、端末操作データDaは、操作入力データDa1等を含んでいる。操作入力データDa1は、操作部13に対する操作内容を示すデータである。
オブジェクトデータDbは、端末装置2およびモニタ4にそれぞれ表示するオブジェクトを設定するためのデータである。例えば、オブジェクトデータDbは、表示位置データDb1および演奏楽器データDb2等を含んでいる。表示位置データDb1は、端末装置2および/またはモニタ4に表示されるオブジェクトそれぞれの表示位置を示すデータである。演奏楽器データDb2は、端末装置2および/またはモニタ4に表示されるオブジェクトそれぞれが演奏に用いる楽器の種類や演奏方法(演奏や演唱に音響効果を加える機器の種類、演奏強弱、演奏手法、演奏優劣等)を示すデータである。
楽曲データDcは、例えばストリーム形式で構成され、端末装置2およびモニタ4において音声出力される複数の楽曲を示すデータを含んでいる。例えば、図7に示すように、楽曲データDcは、複数の楽器をそれぞれ複数のストリームに割り当てることによって、各楽器に割り当てたストリーム番号で各々の楽器を指定して、複数の楽器による同じ楽曲の演奏を選択的に制御できるように構成されている。つまり、楽曲データDcでは、1つのストリームが音楽演奏上の1パート(1つの楽器)に割り当てられて構成されている。例えば、楽曲データDcは、情報処理装置3に設けられた音源(DSP(Digital Signal Processor)およびARAM(Audio RAM)等)によって、同じ楽曲を複数の楽器で合奏するために利用される。上記音源は、指定されたストリーム番号の演奏ストリームを重ね合わせて楽音を出力する。そして、上記音源は、CPU5から指示される演奏パラメータに基づいて指定された音程、音質、音量の楽音を指定された演奏テンポで上記楽音を発音する。
例えば、楽曲データDcは、用意される楽曲毎に複数の演奏ストリームを有している。各演奏ストリームには、ストリーム番号および楽器名称がそれぞれ対応付けられている。一例として、ストリーム番号「1」には楽器名称「ギター」の演奏ストリーム1、ストリーム番号「2」には楽器名称「ピアノ」の演奏ストリーム2のように、楽曲データDcには各ストリーム番号に異なった楽器が割り当てられ、それぞれ対応する演奏ストリームが記述されている。そして、情報処理装置3に設けられた音源(DSPおよびARAM)は、ストリーム番号および演奏タイミングが指示されることによって、指示されたストリーム番号の演奏ストリームを重ね合わせて指示された演奏タイミングで端末装置2のスピーカ12およびモニタ4のスピーカ41から音声出力することができる。
なお、楽曲データDcは、音声出力する装置(すなわち、端末装置2のスピーカ12およびモニタ4のスピーカ41)毎にそれぞれ演奏ストリームを用意してもかまわない。また、楽曲データDcは、他の形式のデータで構成されてもかまわない。例えば、楽曲データDcは、MIDI形式の音源制御データで構成されてもよい。具体的には、楽曲データDcは、複数の楽器をMIDIチャンネルと称する複数のトラック(チャンネル)に割り当てることによって、各楽器に割り当てたトラック番号で各々の楽器を指定して、複数の楽器による同じ楽曲の演奏を選択的に制御できるように構成されてもよい。また、出力される音声の音量は、端末装置2のスピーカ12から音声出力される場合とモニタ4のスピーカ41から音声出力する場合とによって、異なる音量に制御されてもよい。一例として、スピーカ41から音声出力される音量に対してスピーカ12から音声出力される音量が小さくなる場合、スピーカ41から音声出力される場合の音量に対してスピーカ12から音声出力される音量を所定倍(例えば、2倍)にして上記楽音を発音するようにしてもよい。
第1サウンドデータDdは、モニタ4のスピーカ41から音声出力する第1サウンド(モニタ用ゲーム音声)を示すデータであり、当該第1サウンドとして音声出力するストリーム番号や音程、音質、音量等を指定する演奏パラメータを示すデータである。第2サウンドデータDeは、端末装置2のスピーカ12から音声出力する第2サウンド(端末装置用ゲーム音声)を示すデータであり、当該第2サウンドとして音声出力するストリーム番号や音程、音質、音量等を指定する演奏パラメータおよび演奏ストリーム毎の演奏タイミング等を示すデータである。
画像データDfは、オブジェクト画像データDf1および背景画像データDf2等を含んでいる。オブジェクト画像データDf1は、仮想世界に各オブジェクトを配置してゲーム画像を生成するためのデータである。背景画像データDf2は、仮想世界に背景を配置してゲーム画像を生成するためのデータである。
次に、図8および図9を参照して、情報処理装置3において行われる情報処理の詳細を説明する。なお、図8は、情報処理装置3において実行される情報処理の前半の一例を示すフローチャートである。図9は、情報処理装置3において実行される情報処理の後半の一例を示すフローチャートである。ここで、図8および図9に示すフローチャートにおいては、情報処理装置3における情報処理のうち、端末装置2およびモニタ4にオブジェクトを表示してそれぞれの音声出力する処理について主に説明し、これらの処理と直接関連しない他の処理については詳細な説明を省略する。
CPU5は、メモリ6等を初期化し、情報処理装置3内の不揮発メモリまたは光ディスクに記憶される情報処理プログラムをメモリ6に読み込む。そして、CPU5によって当該情報処理プログラムの実行が開始される。図8および図9に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。
なお、図8および図9に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えておよび/または代えて別の処理が実行されてもよい。また、本実施例では、上記フローチャートの各ステップの処理をCPU5が実行するものとして説明するが、上記フローチャートにおける一部または全部のステップの処理を、上記CPU以外のプロセッサや専用回路が実行するようにしてもよい。
図8において、CPU5は、初期設定処理を実行し(ステップ61)、次のステップに処理を進める。例えば、CPU5は、以降の処理において複数のオブジェクトを配置してモニタ4に表示するための仮想世界および選択オブジェクトを配置して端末装置2に表示するための仮想世界をそれぞれ構築し、ゲーム処理で用いられる各パラメータを初期設定(例えば、第2サウンドデータDeはサウンドが音声出力されないように初期設定)する。
次に、CPU5は、以降の処理によって行われるゲームにおいて演奏される楽曲を選択し(ステップ62)、次のステップに処理を進める。例えば、CPU5は、ユーザ操作や所定のアルゴリズムに基づいて楽曲を選択し、当該楽曲に対して用意された複数の演奏ストリーム(図7参照)を準備して楽曲データDcに格納する。
次に、CPU5は、選択された楽曲を合奏するオブジェクトを設定し(ステップ63)、次のステップに処理を進める。例えば、CPU5は、上記ステップ62で選択された楽曲を合奏する複数のオブジェクト(複数の楽器)を抽出する。そして、CPU5は、抽出された複数のオブジェクトが仮想世界に表示される位置および演奏する楽器をそれぞれ設定し、当該複数のオブジェクト毎に当該設定を示すデータを表示位置データDb1および演奏楽器データDb2に格納する。
次に、CPU5は、第1サウンドに採用する演奏ストリームを選択し(ステップ64)、次のステップに処理を進める。例えば、CPU5は、上記ステップ63において設定されたオブジェクトがそれぞれ演奏する楽器に対応するストリーム番号を第1サウンドとして音声出力するストリーム番号として設定し、当該設定を示すデータを第1サウンドデータDdに格納する。また、CPU5は、第1サウンドとして音声出力する音程、音質、音量等を指定する演奏ストリーム毎の演奏パラメータおよび演奏ストリーム毎の演奏タイミングをそれぞれデフォルト設定し、当該設定を示すデータを第1サウンドデータDdに格納する。
次に、CPU5は、端末装置2から操作データを取得し、端末操作データDaを更新して(ステップ65)、次のステップに処理を進める。例えば、CPU5は、操作部13に対する操作内容を示すデータを用いて、操作入力データDa1を更新する。
次に、CPU5は、上記ステップ65で取得した操作データがオブジェクトを選択して端末装置2に表示された仮想世界へ移動させること示す操作であるか否かを判断する(ステップ66)。そして、CPU5は、オブジェクトを選択して移動させる操作である場合、ステップ67に処理を進める。一方、CPU5は、オブジェクトを選択して移動させる操作でない場合、ステップ71(図9参照)に処理を進める。
ステップ67において、上記ステップ65で取得した操作データに基づいてオブジェクトを設定し、次のステップに処理を進める。例えば、CPU5は、モニタ4に表示された複数のオブジェクトから、ユーザによって選択された選択オブジェクトを抽出する。そして、CPU5は、抽出された選択オブジェクトの表示位置を、端末装置2に表示される仮想世界内(例えば、LCD11の中央に選択オブジェクトが表示される位置)に変更し、当該変更後の表示位置を用いて当該選択オブジェクトの表示位置データDb1を更新する。
次に、CPU5は、第1サウンドに採用する演奏ストリームを設定し(ステップ68)、次のステップに処理を進める。例えば、CPU5は、上記ステップ65およびステップ66において選択された選択オブジェクトが演奏する楽器に対応するストリーム番号を第1サウンドとして音声出力するストリーム番号から削除し、当該ストリーム番号に対して設定されていた演奏パラメータおよび演奏タイミングを削除して、第1サウンドデータDdを更新する。なお、選択オブジェクトが移動することによって第1サウンドデータDdから削除されるストリーム番号、演奏パラメータ、および演奏タイミングを示すデータは、後述するステップ69の処理によって第2サウンドデータDeへ移動する。
次に、CPU5は、第2サウンドに採用する演奏ストリームを設定し(ステップ69)、ステップ71(図9参照)に処理を進める。例えば、CPU5は、上記ステップ65およびステップ66において選択された選択オブジェクトが演奏する楽器に対応するストリーム番号(すなわち、選択オブジェクトが移動することによって第1サウンドデータDdから削除されたストリーム番号)を第2サウンドとして音声出力するストリーム番号として設定し、当該設定を示すデータを第2サウンドデータDeに格納する。また、CPU5は、第2サウンドとして音声出力する音程、音質、音量等を指定する演奏ストリーム毎の演奏パラメータおよび演奏ストリーム毎の演奏タイミングを、それぞれ上記ステップ68においてデータを削除する前に設定されていた状態に設定し、当該設定を示すデータを第2サウンドデータDeに格納する。
図9に進み、ステップ71において、CPU5は、上記ステップ65で取得した操作データが選択オブジェクトに対する演奏操作を示すものであるか否かを判断する。ここで、上記演奏操作は、選択オブジェクトの状態や動作等を制御する操作であり、結果的に端末装置2のスピーカ12から音声出力されるサウンドの音量、音質、音程、発音数等が変化する操作を示している。そして、CPU5は、演奏操作である場合、ステップ72に処理を進める。一方、CPU5は、演奏操作でない場合、ステップ82に処理を進める。
ステップ72において、CPU5は、上記ステップ65で取得した操作データが選択オブジェクトによって演奏される楽器を変更する操作を示すものであるか否かを判断する。そして、CPU5は、楽器を変更する操作である場合、ステップ73に処理を進める。一方、CPU5は、楽器を変更する操作でない場合、ステップ75に処理を進める。
ステップ73において、CPU5は、上記ステップ65で取得した操作データに基づいてオブジェクトを設定し、次のステップに処理を進める。例えば、CPU5は、上記操作データに基づいて、選択オブジェクトによって演奏される楽器を変更し、変更後の楽器に応じて当該選択オブジェクトの演奏楽器データDb2を更新する。
次に、CPU5は、第2サウンドに採用する演奏ストリームを設定し(ステップ74)、ステップ82に処理を進める。例えば、CPU5は、上記ステップ73における楽器変更に基づいて、変更前の楽器に対応するストリーム番号に代えて変更後の楽器に対応するストリーム番号を第2サウンドとして音声出力するストリーム番号として設定して、第2サウンドデータDeを更新する。また、CPU5は、第2サウンドとして音声出力する音程、音質、音量等を指定する演奏ストリーム毎の演奏パラメータをデフォルト設定または楽器変更前の設定にするとともに、変更後のストリーム番号に対応する演奏ストリームの演奏タイミングを楽器変更前に設定されていたタイミングに設定して、第2サウンドデータDeを更新する。
ステップ75において、CPU5は、上記ステップ65で取得した操作データがユーザ演奏を行う操作を示すものであるか否かを判断する。そして、CPU5は、ユーザ演奏を行う操作である場合、ステップ76に処理を進める。一方、CPU5は、ユーザ演奏を行う操作でない場合、ステップ78に処理を進める。
ステップ76において、CPU5は、上記ステップ65で取得した操作データに基づいてオブジェクトを設定し、次のステップに処理を進める。例えば、CPU5は、上記操作データに基づいて、選択オブジェクトが楽器を演奏する動作を制御する。
次に、CPU5は、ユーザ操作に応じて、第2サウンドを生成し(ステップ77)、ステップ82に処理を進める。第1の例として、CPU5は、操作部13を操作されたタイミング(例えば、操作ボタンが押下されたタイミング)と選択オブジェクトが演奏する楽器に対応する演奏ストリームにおいて発音開始するタイミングとが所定の時間差内である場合、当該演奏ストリームに基づいたサウンドを第2サウンドとして設定して、第2サウンドデータDeを更新する。第2の例として、操作部13の操作に応じて設定されたサウンド(例えば、タッチパネルのタッチ位置と重なる仮想世界の位置に設定されている音程、かつ、選択オブジェクトが操作している楽器音色のサウンド)を第2サウンドとして設定して、第2サウンドデータDeを更新する。なお、他の例においては、ユーザ操作に応じた第2サウンドの生成は、他の方式を用いて生成されてもよい。
ステップ78において、CPU5は、上記ステップ65で取得した操作データが演奏や演唱に音響効果を加える機器の変更を行う操作を示すものであるか否かを判断する。そして、CPU5は、上記機器の変更を行うユーザ操作である場合、ステップ79に処理を進める。一方、CPU5は、上記機器の変更を行うユーザ操作でない場合、ステップ81に処理を進める。
ステップ79において、CPU5は、上記ステップ65で取得した操作データに基づいてオブジェクトを設定し、次のステップに処理を進める。例えば、CPU5は、上記操作データに基づいて、上記機器を変更し、変更後の機器に応じて当該選択オブジェクトの演奏楽器データDb2を更新する。
次に、CPU5は、ユーザ操作に応じて、第2サウンドの音量、音質、音程等を変更し(ステップ80)、ステップ82に処理を進める。例えば、CPU5は、上記ステップ79において行われた演奏方法の変更(演奏や演唱に音響効果を加える機器の変更)に応じて、演奏ストリームを第2サウンドとして音声出力する際の音程、音質、音量等を指定する演奏パラメータを変更し、当該変更後の演奏パラメータを用いて第2サウンドデータDeを更新する。
ステップ81において、CPU5は、上記ステップ65で取得した操作データに基づいて、その他の処理を行って、ステップ82に処理を進める。ここで、上記その他の処理は、上記ステップ72〜ステップ80において行った演奏操作に対応する処理とは異なる処理を示しており、上記操作データに基づいて選択オブジェクトの状態や動作等を制御するとともに、第2サウンドの音量、音質、音程、発音数等を変化させる処理である。そして、上記その他の処理においても、上記操作データに基づいて、オブジェクトデータDbおよび第2サウンドデータDeが更新される。
ステップ82において、CPU5は、端末装置2に表示するための端末装置用ゲーム画像を生成し、次のステップに処理を進める。例えば、CPU5は、上記ステップ61〜ステップ81のゲーム処理の結果を表す各データをメモリ6から読み出し、端末装置用ゲーム画像を生成するために必要なデータをVRAM(Video RAM)等から読み出してゲーム画像を生成し、生成された端末装置用ゲーム画像をVRAMに記憶する。一例として、端末装置用ゲーム画像は、オブジェクトデータDbに基づいて、端末装置2に表示する仮想世界にオブジェクトを配置して、所定の仮想カメラから見た当該仮想世界を計算することによって得られる3次元のCG画像によって生成される。
次に、CPU5は、モニタ4に表示するためのモニタ用ゲーム画像を生成し(ステップ83)、次のステップに処理を進める。例えば、CPU5は、上記ステップ61〜ステップ81のゲーム処理の結果を表す各データをメモリ6から読み出し、モニタ用ゲーム画像を生成するために必要なデータをVRAM等から読み出してゲーム画像を生成し、生成されたモニタ用ゲーム画像をVRAMに記憶する。一例として、モニタ用ゲーム画像は、オブジェクトデータDbに基づいて、モニタ4に表示する仮想世界にオブジェクトを配置して、所定の仮想カメラから見た当該仮想世界を計算することによって得られる3次元のCG画像によって生成される。
次に、CPU5は、端末装置2のスピーカ12に出力するための端末装置用ゲーム音声を生成し(ステップ84)、次のステップに処理を進める。例えば、CPU5は、第2サウンドデータDeを参照して音声出力するストリーム番号、演奏パラメータ、および演奏タイミングを設定する。そして、CPU5は、設定されている演奏パラメータおよび演奏タイミングに基づいて、設定されたストリーム番号に対応する演奏ストリームを演奏対象として重ね合わせて端末装置用ゲーム音声を生成する。具体的には、CPU5は、設定されたストリーム番号に対応する演奏ストリームをそれぞれ演奏パラメータに基づいて演奏音量、演奏音質、演奏音程等を調整し、当該演奏ストリームを重ね合わせることによって、端末装置用ゲーム音声を生成する。
次に、CPU5は、モニタ4のスピーカ41に出力するためのモニタ用ゲーム音声を生成し(ステップ85)、次のステップに処理を進める。例えば、CPU5は、第1サウンドデータDdを参照して音声出力するストリーム番号、演奏パラメータ、および演奏タイミングを設定し、当該ストリーム番号、演奏パラメータ、および演奏タイミングに基づいて、上記ステップ84と同様に演奏ストリームを重ね合わせることによってモニタ用ゲーム音声を生成する。
次に、CPU5は、端末装置用ゲーム画像および端末装置用ゲーム音声を端末装置2へ送信し(ステップ86)、次のステップに処理を進める。例えば、端末装置用ゲーム画像は、端末装置2によって受信され、LCD11に出力されて表示される。また、端末装置用ゲーム音声は、端末装置2によって受信され、スピーカ12から出力される。なお、情報処理装置3から端末装置2へ端末装置用ゲーム画像を送信する際、所定の圧縮処理が行われてもよい。この場合、圧縮処理が施された端末装置用ゲーム画像のデータが端末装置2に送られ、端末装置2によって所定の伸張処理が行われた後、端末装置用ゲーム画像の表示が行われる。
次に、CPU5は、モニタ用ゲーム画像およびモニタ用ゲーム音声をモニタ4へ出力し(ステップ87)、次のステップに処理を進める。例えば、モニタ用ゲーム画像は、モニタ4によって取得され、モニタ4の表示画面に出力されて表示される。また、モニタ用ゲーム音声は、モニタ4によって取得され、スピーカ41から出力される。
次に、CPU5は、ゲームを終了するか否かを判定する(ステップ88)。ゲームを終了する条件としては、例えば、ゲームオーバーやゲームクリアとなる条件が満たされたことや、ユーザがゲームを終了する操作を行ったこと等がある。CPU5は、ゲームを終了しない場合に上記ステップ65に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。以降、ステップ65〜ステップ88の一連の処理は、ステップ88でゲームを終了すると判定されるまで繰り返し実行される。
なお、上記実施例においては、情報処理システム1は端末装置2を1つのみ有する構成であったが、情報処理システム1は複数の端末装置2を有する構成であってもよい。すなわち、情報処理装置3は、複数の端末装置2とそれぞれ無線通信可能であり、画像および音声のデータを各端末装置2へ送信し、端末操作データを各端末装置2から受信するものであってもよい。そして、各端末装置2によって選択された選択オブジェクトを各端末装置2のLCD11に表示して各選択オブジェクトに対応する選択音が各端末装置2のスピーカ12からそれぞれ出力してもよい。なお、情報処理装置3は、複数の端末装置2のそれぞれと無線通信を行うが、このとき、情報処理装置3は、各端末装置2との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。
また、上述した端末装置2は、図8および図9を用いて説明した一連の処理や情報処理装置3で行われるような情報処理を実行しない、いわゆるシンクライアント端末として機能するものであった。例えば、複数の情報処理装置において情報処理が実行される場合には、各情報処理装置で実行される処理を同期させる必要があり、処理が複雑になってしまう。これに対して、上記実施例のように、情報処理が1つの情報処理装置3によって実行され、端末装置2が画像を受信して表示する場合(つまり、端末装置2がシンクライアント端末である場合)には、複数の情報処理装置間で処理の同期をとる必要がなく、処理を簡易化することができる。しかしながら、端末装置2は、例えば携帯ゲーム機のように、所定のプログラム(情報処理プログラム)によって所定の情報処理を実行する機能を有する装置であってもよい。この場合、上記実施例において情報処理装置3によって実行される一連の処理のうち、少なくとも一部の処理が端末装置2によって実行されてもよい。一例として、上記一連の処理の全部を実行可能な端末装置を少なくとも1つ用いて複数の端末装置にゲーム画像をそれぞれ表示する場合、当該実行可能な端末装置の1つを当該一連の処理を実行する主処理実行装置とし、他の端末装置の姿勢や操作に応じたゲーム画像を当該主処理実行装置から他の端末装置へ送信することによって、同様のゲーム画像を各端末装置に表示して出力することができる。
また、上述した説明では情報処理を情報処理装置3で行う例を用いたが、上記処理における処理ステップの少なくとも一部を端末装置2以外の他の装置で行ってもかまわない。例えば、情報処理装置3がさらに端末装置2以外の他の装置(例えば、別のサーバ、他のゲーム装置、他の携帯端末)と通信可能に構成されている場合、上記処理における処理ステップは、さらに当該他の装置が協働することによって実行してもよい。一例として、上記他の装置において、仮想世界および音声の生成や当該仮想世界を用いたゲーム処理が行われ、当該ゲーム処理の結果が端末装置2やモニタ4に表示されることも考えられる。このように、上記処理における処理ステップの少なくとも一部を他の装置で行うことによって、上述した処理と同様の処理が可能となる。また、上述した処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施例においては、情報処理装置3のCPU5が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、情報処理装置3が備える専用回路によって上記処理の一部または全部が行われてもよい。
ここで、上述した変形例によれば、いわゆるクラウドコンピューティングのシステム形態や分散型の広域ネットワークおよびローカルネットワークのシステム形態でも本発明を実現することが可能となる。例えば、分散型のローカルネットワークのシステム形態では、据置型の情報処理装置(据置型のゲーム装置)と携帯型の情報処理装置(携帯型のゲーム装置)との間で上記処理を協働により実行することも可能となる。なお、これらのシステム形態では、上述した処理の各ステップの処理をどの装置で行うかについては特に限定されず、どのような処理分担をしたとしても本発明を実現できることは言うまでもない。
また、上述したゲーム処理で用いられる処理順序、設定値、判定に用いられる条件等は、単なる一例に過ぎず他の順序、値、条件であっても、本実施例を実現できることは言うまでもない。
また、上記プログラムは、外部メモリ等の外部記憶媒体を通じて情報処理装置3に供給されるだけでなく、有線または無線の通信回線を通じて情報処理装置3に供給されてもよい。また、上記プログラムは、情報処理装置3内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープ、などでもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを記憶する揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施例の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。
以上のように、本発明は、変化に富んだ音声出力を得ること等を目的として、例えば情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法等として有用である。
1…情報処理システム
2…端末装置
3…情報処理装置
4…モニタ
5…CPU
6…メモリ
11…LCD
12、41…スピーカ
13…操作部

Claims (17)

  1. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理装置に含まれるコンピュータで実行される情報処理プログラムであって、
    前記コンピュータを、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段として機能させ
    前記第1表示画像生成手段は、仮想世界に複数のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記情報処理プログラムは、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択手段として、さらに前記コンピュータを機能させ、
    前記第1サウンド生成手段は、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドを生成し、
    前記第2サウンド選択手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じて、前記第2サウンドを選択し、
    前記第1表示画像生成手段は、前記オブジェクト選択手段によって選択されたオブジェクトを前記複数のオブジェクトから除いて、当該除いた後のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記第1サウンド生成手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じた第2サウンドを前記複数のオブジェクトに応じた第1サウンドから除くことによって前記除いた後のオブジェクトに応じたサウンドを生成し、当該サウンドを新たに前記第1サウンドとして生成する、情報処理プログラム。
  2. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理装置に含まれるコンピュータで実行される情報処理プログラムであって、
    前記コンピュータを、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段として機能させ、
    前記第1表示画像生成手段は、仮想世界に複数のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記情報処理プログラムは、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択手段として、さらに前記コンピュータを機能させ、
    前記第1サウンド生成手段は、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドを生成し、
    前記第2サウンド選択手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じて、前記第2サウンドを選択し、
    前記別の装置は、表示画面を有する第2の表示装置であり、
    前記情報処理プログラムは、
    前記オブジェクト選択手段によって選択されたオブジェクトを示す画像を第2表示画像として生成する第2表示画像生成手段と、
    前記第2表示画像を前記第2の表示装置に表示する制御を行う第2表示制御手段として、さらに前記コンピュータを機能させ、
    前記第2サウンド選択手段は、前記第2表示画像として表示されているオブジェクトに応じて、前記第2サウンドを選択する、情報処理プログラム。
  3. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理装置に含まれるコンピュータで実行される情報処理プログラムであって、
    前記コンピュータを、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段と、
    ユーザ操作に応じて、前記第1表示画像として表示された仮想世界内に対する指示位置および/または指示方向を決定する決定手段として機能させ、
    前記第1サウンド生成手段は、前記第1表示画像として表示されている仮想世界全体において生じている全体音を、前記第1サウンドとして生成し、
    前記第2サウンド選択手段は、前記仮想世界における指示位置および/または指示方向に基づいて、当該仮想世界における指示位置の周辺に生じる音および/または指示方向に対して所定の範囲内に生じる音を生成し、当該音を前記第2サウンドとして選択する、情報処理プログラム。
  4. 前記第1サウンド生成手段は、前記第2サウンド選択手段によって前記第2サウンドが選択された場合、当該第2サウンドを除いて新たに前記第1サウンドを生成する、請求項1乃至3の何れか1つに記載の情報処理プログラム。
  5. 前記第1サウンド生成手段は、前記第1表示画像として表示されているオブジェクトを音源とするサウンドを、前記第1サウンドとして生成し、
    前記第2サウンド選択手段は、前記第2表示画像として表示されているオブジェクトを音源とするサウンドを、前記第2サウンドとして選択する、請求項に記載の情報処理プログラム。
  6. 前記第1の表示装置は、据置型の表示装置であり、
    前記第2の表示装置は、可搬型の表示装置である、請求項またはに記載の情報処理プログラム。
  7. 前記第2の表示装置は、ユーザ操作入力に応じたデータを出力する操作入力手段を備え、
    前記情報処理プログラムは、
    前記操作入力手段から出力されたデータを取得するデータ取得手段と、
    前記データ取得手段が取得したデータに応じて、前記第2表示画像として表示されているオブジェクトを制御するオブジェクト制御手段と、
    前記データ取得手段が取得したデータに応じて、前記第2サウンドの音量、音質、音程、および発音数の少なくとも1つを変化させる第2サウンド変化手段として、さらに前記コンピュータを機能させる、請求項2、5、または6に記載の情報処理プログラム。
  8. 前記第1サウンド生成手段は、仮想世界において1つの楽曲を複数の楽器を用いて合奏されるサウンドを、前記第1サウンドとして生成し、
    前記第2サウンド選択手段は、ユーザ操作に応じて前記複数の楽器から選択された少なくとも1つの楽器が前記楽曲を演奏しているサウンドを、前記第2サウンドとして生成し、
    前記第2サウンド出力制御手段は、前記第1のスピーカから前記第1サウンドとして出力されている前記楽曲の演奏と同期するように、前記第2のスピーカから当該楽曲を演奏している前記第2サウンドを出力する、請求項1乃至の何れか1つに記載の情報処理プログラム。
  9. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理装置であって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段とを備え
    前記第1表示画像生成手段は、仮想世界に複数のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記情報処理装置は、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択手段を、さらに備え、
    前記第1サウンド生成手段は、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドを生成し、
    前記第2サウンド選択手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じて、前記第2サウンドを選択し、
    前記第1表示画像生成手段は、前記オブジェクト選択手段によって選択されたオブジェクトを前記複数のオブジェクトから除いて、当該除いた後のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記第1サウンド生成手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じた第2サウンドを前記複数のオブジェクトに応じた第1サウンドから除くことによって前記除いた後のオブジェクトに応じたサウンドを生成し、当該サウンドを新たに前記第1サウンドとして生成する、情報処理装置。
  10. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理装置であって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段とを備え、
    前記第1表示画像生成手段は、仮想世界に複数のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記情報処理装置は、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択手段を、さらに備え、
    前記第1サウンド生成手段は、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドを生成し、
    前記第2サウンド選択手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じて、前記第2サウンドを選択し、
    前記別の装置は、表示画面を有する第2の表示装置であり、
    前記情報処理装置は、
    前記オブジェクト選択手段によって選択されたオブジェクトを示す画像を第2表示画像として生成する第2表示画像生成手段と、
    前記第2表示画像を前記第2の表示装置に表示する制御を行う第2表示制御手段とを、さらに備え、
    前記第2サウンド選択手段は、前記第2表示画像として表示されているオブジェクトに応じて、前記第2サウンドを選択する、情報処理装置。
  11. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理装置であって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段と、
    ユーザ操作に応じて、前記第1表示画像として表示された仮想世界内に対する指示位置および/または指示方向を決定する決定手段とを備え、
    前記第1サウンド生成手段は、前記第1表示画像として表示されている仮想世界全体において生じている全体音を、前記第1サウンドとして生成し、
    前記第2サウンド選択手段は、前記仮想世界における指示位置および/または指示方向に基づいて、当該仮想世界における指示位置の周辺に生じる音および/または指示方向に対して所定の範囲内に生じる音を生成し、当該音を前記第2サウンドとして選択する、情報処理装置。
  12. 複数の装置が通信可能に構成され、第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理システムであって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段とを備え
    前記第1表示画像生成手段は、仮想世界に複数のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記情報処理システムは、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択手段を、さらに備え、
    前記第1サウンド生成手段は、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドを生成し、
    前記第2サウンド選択手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じて、前記第2サウンドを選択し、
    前記第1表示画像生成手段は、前記オブジェクト選択手段によって選択されたオブジェクトを前記複数のオブジェクトから除いて、当該除いた後のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記第1サウンド生成手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じた第2サウンドを前記複数のオブジェクトに応じた第1サウンドから除くことによって前記除いた後のオブジェクトに応じたサウンドを生成し、当該サウンドを新たに前記第1サウンドとして生成する、情報処理システム。
  13. 複数の装置が通信可能に構成され、第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理システムであって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段とを備え、
    前記第1表示画像生成手段は、仮想世界に複数のオブジェクトが配置された画像を、前記第1表示画像として生成し、
    前記情報処理システムは、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択手段を、さらに備え、
    前記第1サウンド生成手段は、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドを生成し、
    前記第2サウンド選択手段は、前記オブジェクト選択手段によって選択されたオブジェクトに応じて、前記第2サウンドを選択し、
    前記別の装置は、表示画面を有する第2の表示装置であり、
    前記情報処理システムは、
    前記オブジェクト選択手段によって選択されたオブジェクトを示す画像を第2表示画像として生成する第2表示画像生成手段と、
    前記第2表示画像を前記第2の表示装置に表示する制御を行う第2表示制御手段とを、さらに備え、
    前記第2サウンド選択手段は、前記第2表示画像として表示されているオブジェクトに応じて、前記第2サウンドを選択する、情報処理システム。
  14. 複数の装置が通信可能に構成され、第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する情報処理システムであって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成手段と、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成手段と、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択手段と、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御手段と、
    前記第1サウンド生成手段が生成した第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御手段と、
    前記第2サウンド選択手段が選択した第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御手段と、
    ユーザ操作に応じて、前記第1表示画像として表示された仮想世界内に対する指示位置および/または指示方向を決定する決定手段とを備え、
    前記第1サウンド生成手段は、前記第1表示画像として表示されている仮想世界全体において生じている全体音を、前記第1サウンドとして生成し、
    前記第2サウンド選択手段は、前記仮想世界における指示位置および/または指示方向に基づいて、当該仮想世界における指示位置の周辺に生じる音および/または指示方向に対して所定の範囲内に生じる音を生成し、当該音を前記第2サウンドとして選択する、情報処理システム。
  15. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する少なくとも1つの情報処理装置により構成されるシステムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成ステップと、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成ステップと、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択ステップと、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御ステップと、
    前記第1サウンド生成ステップにおいて生成された第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御ステップと、
    前記第2サウンド選択ステップにおいてが選択された第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御ステップとを含み、
    前記第1表示画像生成ステップでは、仮想世界に複数のオブジェクトが配置された画像が、前記第1表示画像として生成され、
    前記情報処理方法は、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択ステップを、さらに含み、
    前記第1サウンド生成ステップでは、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドが生成され、
    前記第2サウンド選択ステップでは、前記オブジェクト選択ステップにおいて選択されたオブジェクトに応じて、前記第2サウンドが選択され、
    前記第1表示画像生成ステップでは、前記オブジェクト選択ステップにおいて選択されたオブジェクトを前記複数のオブジェクトから除いて、当該除いた後のオブジェクトが配置された画像が、前記第1表示画像として生成され、
    前記第1サウンド生成ステップでは、前記オブジェクト選択ステップにおいて選択されたオブジェクトに応じた第2サウンドを前記複数のオブジェクトに応じた第1サウンドから除くことによって前記除いた後のオブジェクトに応じたサウンドが生成され、当該サウンドが新たに前記第1サウンドとして生成される、情報処理方法。
  16. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する少なくとも1つの情報処理装置により構成されるシステムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成ステップと、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成ステップと、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択ステップと、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御ステップと、
    前記第1サウンド生成ステップにおいて生成された第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御ステップと、
    前記第2サウンド選択ステップにおいてが選択された第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御ステップとを含み、
    前記第1表示画像生成ステップでは、仮想世界に複数のオブジェクトが配置された画像が、前記第1表示画像として生成され、
    前記情報処理方法は、ユーザ操作に応じて、前記複数のオブジェクトから少なくとも1つのオブジェクトを選択するオブジェクト選択ステップを、さらに含み、
    前記第1サウンド生成ステップでは、前記第1表示画像として表示されているオブジェクトに応じて、前記第1サウンドが生成され、
    前記第2サウンド選択ステップでは、前記オブジェクト選択ステップにおいて選択されたオブジェクトに応じて、前記第2サウンドが選択され、
    前記別の装置は、表示画面を有する第2の表示装置であり、
    前記情報処理方法は、
    前記オブジェクト選択ステップにおいて選択されたオブジェクトを示す画像を第2表示画像として生成する第2表示画像生成ステップと、
    前記第2表示画像を前記第2の表示装置に表示する制御を行う第2表示制御ステップとを、さらに含み、
    前記第2サウンド選択ステップでは、前記第2表示画像として表示されているオブジェクトに応じて、前記第2サウンドが選択される、情報処理方法。
  17. 第1のスピーカが設けられた第1の表示装置に画像およびサウンドを出力し、第2のスピーカが設けられた別の装置に少なくともサウンドを出力する少なくとも1つの情報処理装置により構成されるシステムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行される情報処理方法であって、
    仮想世界の少なくとも一部を含む画像を第1表示画像として生成する第1表示画像生成ステップと、
    前記仮想世界において生じている第1サウンドを生成する第1サウンド生成ステップと、
    ユーザ操作に応じて、前記第1サウンドの一部を構成する第2サウンドを選択する第2サウンド選択ステップと、
    前記第1表示画像を前記第1の表示装置に表示する制御を行う第1表示制御ステップと、
    前記第1サウンド生成ステップにおいて生成された第1サウンドを、前記第1の表示装置に表示する第1表示画像と同期して前記第1のスピーカから出力する制御を行う第1サウンド出力制御ステップと、
    前記第2サウンド選択ステップにおいてが選択された第2サウンドを、前記第2のスピーカから出力する制御を行う第2サウンド出力制御ステップと、
    ユーザ操作に応じて、前記第1表示画像として表示された仮想世界内に対する指示位置および/または指示方向を決定する決定ステップとを含み、
    前記第1サウンド生成ステップでは、前記第1表示画像として表示されている仮想世界全体において生じている全体音が、前記第1サウンドとして生成され、
    前記第2サウンド選択ステップでは、前記仮想世界における指示位置および/または指示方向に基づいて、当該仮想世界における指示位置の周辺に生じる音および/または指示方向に対して所定の範囲内に生じる音が生成され、当該音が前記第2サウンドとして選択される、情報処理方法。
JP2012251896A 2012-11-16 2012-11-16 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 Active JP6154597B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012251896A JP6154597B2 (ja) 2012-11-16 2012-11-16 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US13/868,584 US9108104B2 (en) 2012-11-16 2013-04-23 Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012251896A JP6154597B2 (ja) 2012-11-16 2012-11-16 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2014097266A JP2014097266A (ja) 2014-05-29
JP6154597B2 true JP6154597B2 (ja) 2017-06-28

Family

ID=50728441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012251896A Active JP6154597B2 (ja) 2012-11-16 2012-11-16 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Country Status (2)

Country Link
US (1) US9108104B2 (ja)
JP (1) JP6154597B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2879047A3 (en) * 2013-11-28 2015-12-16 LG Electronics Inc. Mobile terminal and controlling method thereof
AU2016101424A4 (en) * 2015-09-08 2016-09-15 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2590742Y2 (ja) * 1993-11-16 1999-02-17 株式会社学習研究社 学習装置
JPH11114223A (ja) * 1997-10-09 1999-04-27 Sony Corp ゲーム機用操作装置
JP3470596B2 (ja) * 1998-06-08 2003-11-25 ヤマハ株式会社 情報表示方法および情報表示プログラムが記録された記録媒体
WO2001006813A1 (fr) * 1999-07-15 2001-01-25 Sony Corporation Amplificateur de son et procede d'amplification sonore
JP2001327754A (ja) * 2000-05-24 2001-11-27 Alps Electric Co Ltd ゲーム用コントローラ
JP2003053027A (ja) * 2001-08-21 2003-02-25 Shinsedai Kk 音楽演奏ゲーム装置
JP3823847B2 (ja) * 2002-02-27 2006-09-20 ヤマハ株式会社 音制御装置、音制御方法、プログラムおよび記録媒体
JP3949701B1 (ja) * 2006-03-27 2007-07-25 株式会社コナミデジタルエンタテインメント 音声処理装置、音声処理方法、ならびに、プログラム
JP5731734B2 (ja) * 2008-06-12 2015-06-10 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US8663013B2 (en) * 2008-07-08 2014-03-04 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience

Also Published As

Publication number Publication date
JP2014097266A (ja) 2014-05-29
US9108104B2 (en) 2015-08-18
US20140141879A1 (en) 2014-05-22

Similar Documents

Publication Publication Date Title
JP3601350B2 (ja) 演奏画像情報作成装置および再生装置
US11514923B2 (en) Method and device for processing music file, terminal and storage medium
JP2013250838A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2018534631A (ja) オーディオコンテンツのダイナミック変更
KR20200087130A (ko) 신호 처리 장치 및 방법, 그리고 프로그램
JP6154597B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US7777124B2 (en) Music reproducing program and music reproducing apparatus adjusting tempo based on number of streaming samples
JP2008286946A (ja) データ再生装置、データ再生方法およびプログラム
KR20010016009A (ko) 디지털 음악 파일을 악기별로 연주가 가능한 연주용파일로 변환하는 방법 및 그를 이용한 음악 연주시스템
JP2013068657A (ja) 画像生成装置、画像生成方法及びそのプログラム、並びに演奏支援装置、演奏支援方法及びプログラム
JP6657866B2 (ja) 音響効果付与装置及び音響効果付与プログラム
JP7458127B2 (ja) 処理システム、音響システム及びプログラム
JP6159515B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理制御方法
JP2015138160A (ja) キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法
JP5510207B2 (ja) 楽音編集装置及びプログラム
JP2013156542A (ja) ギターコード表示装置及びプログラム
JP2017092832A (ja) 再生方法および再生装置
JP2009205039A (ja) オーディオデータ変換再生システム、オーディオデータ変換装置、オーディオデータ再生装置
JP4327179B2 (ja) 音声出力装置、音声出力装置の制御方法及びプログラム
JP5773956B2 (ja) 楽曲演奏装置、楽曲演奏制御方法及びプログラム
JP6390112B2 (ja) 音楽情報処理装置及びプログラム並びに方法
JP5399831B2 (ja) 音楽ゲームシステム及びそのコンピュータプログラム並びに効果音データの生成方法
JP2017138522A (ja) 楽曲演奏装置、楽曲演奏用プログラム及び楽曲演奏方法
JP2017021266A (ja) データ処理装置およびプログラム
CN117935767A (zh) 一种模拟生成音频的方法、装置、设备以及可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170602

R150 Certificate of patent or registration of utility model

Ref document number: 6154597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250