JP3405123B2 - Audio data processing device and medium recording data processing program - Google Patents

Audio data processing device and medium recording data processing program

Info

Publication number
JP3405123B2
JP3405123B2 JP14852297A JP14852297A JP3405123B2 JP 3405123 B2 JP3405123 B2 JP 3405123B2 JP 14852297 A JP14852297 A JP 14852297A JP 14852297 A JP14852297 A JP 14852297A JP 3405123 B2 JP3405123 B2 JP 3405123B2
Authority
JP
Japan
Prior art keywords
note
event
data
lyrics
kana
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14852297A
Other languages
Japanese (ja)
Other versions
JPH10319955A (en
Inventor
アユミ 深田
成彦 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP14852297A priority Critical patent/JP3405123B2/en
Publication of JPH10319955A publication Critical patent/JPH10319955A/en
Application granted granted Critical
Publication of JP3405123B2 publication Critical patent/JP3405123B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、音声データ処理技
術に関し、特に音声発音装置に音声を発音させるための
音声データの処理技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice data processing technique, and more particularly to a voice data processing technique for causing a voice producing apparatus to produce a voice.

【0002】[0002]

【従来の技術】音声発音装置に供給する音声データの処
理を行うことができる音声データ処理装置が知られてい
る。音声発音装置は、例えばフォルマント音源等の音声
合成回路を備えている。フォルマント音源は、音声を周
波数解析することにより形成されるフォルマントを合成
することにより音声信号を生成する。
2. Description of the Related Art There is known a voice data processing device capable of processing voice data supplied to a voice producing device. The voice pronunciation device includes a voice synthesis circuit such as a formant sound source. The formant sound source generates a sound signal by synthesizing a formant formed by frequency-analyzing the sound.

【0003】音節は、いわゆる50音のうちの1音等で
あり、例えば「か」である。音節は、時間軸上の音素列
に分解することができる。例えば、音節「か」は、音素
列「CL(7.5ms)+kha(4×7.5ms)+
aj(無限長)」に分解することができる。音素は、例
えば「CL」、「kha」、「aj」である。フォルマ
ント音源は、音素列を入力することにより音声信号を生
成する。
A syllable is one of the so-called 50 syllables, for example, "ka". Syllables can be decomposed into phoneme strings on the time axis. For example, the syllable “ka” has a phoneme sequence “CL (7.5 ms) + kha (4 × 7.5 ms) +
aj (infinite length) ”. Phonemes are, for example, “CL”, “kha”, and “aj”. The formant sound source generates a voice signal by inputting a phoneme string.

【0004】従来技術による音声データ処理装置とし
て、特開平9−50287号公報や特開平9−4417
9号公報が知られている。これらは、メロディデータと
歌詞データをメモリに記憶し、両方のデータをメモリか
ら順次読み出し、フォルマント音源へ供給する。フォル
マント音源は、データを受けて歌声を発生する。
As a voice data processing device according to the prior art, Japanese Patent Laid-Open Nos. 9-50287 and 9-4417 are available.
No. 9 publication is known. These store melody data and lyrics data in a memory, and read both data sequentially from the memory and supply them to the formant sound source. The formant sound source receives the data and generates a singing voice.

【0005】データ処理装置として、音節の編集を行う
ことができるワードプロセッサが知られている。しか
し、音素の編集を行うことができるデータ処理装置がな
いため、音声データはマニュアル設定を行っていた。
A word processor capable of editing syllables is known as a data processing device. However, since there is no data processing device capable of editing phonemes, the voice data is manually set.

【0006】[0006]

【発明が解決しようとする課題】特開平9−50287
号公報のデータ処理装置は、歌詞データをローマ字表記
で入力する必要があり、仮名又は漢字等を使うことがで
きないため、歌詞データの入力又は編集が不便である。
例えば、仮名又は漢字が混在した既存の歌詞データを使
用することができない。
[Patent Document 1] Japanese Patent Application Laid-Open No. 9-50287
The data processing device of the publication has to input lyrics data in Roman characters and cannot use kana or kanji, so that inputting or editing the lyrics data is inconvenient.
For example, existing lyrics data in which kana or kanji are mixed cannot be used.

【0007】また、各音符に歌詞データを割り当てるた
め、歌詞データ中に音符の区切り(歌詞区切り)記号を
設ける必要があるが、歌詞区切りは1つの記号(例えば
スペース「_」)のみに限定されている。そのため、改
行マーク(歌詞表示画面上において改行をする位置を示
すマーク)と副改行マーク(通常は利用されないが、表
示スペースが小さい等の表示器の都合により前記改行マ
ークまでの歌詞が1行に入りきらない場合に、改行マー
クよりも前で改行する位置を示すマーク)の2種類の改
行マークが含まれているカラオケ用の歌詞データにおい
て、改行マークのみを歌詞区切りとして用いることは可
能であっても、改行マークと副改行マークの両方を歌詞
区切りとして用いることはできない。
Further, since the lyrics data is assigned to each note, it is necessary to provide a note delimiter (lyric delimiter) symbol in the lyrics data, but the lyrics delimiter is limited to only one symbol (for example, space "_"). ing. Therefore, a line feed mark (a mark that indicates a line feed position on the lyrics display screen) and a sub-line feed mark (not normally used, but the lyrics up to the line feed mark are included in one line due to the display device such as a small display space) It is not possible to use only the line break mark as the lyrics delimiter in the lyrics data for karaoke that contains two types of line break marks (marks indicating the position where the line breaks before the line break mark) However, both the line break mark and the sub line break mark cannot be used as lyrics delimiters.

【0008】さらに、歌詞データ等は、独自のデータフ
ォーマットを有しており、歌詞データの再生装置として
専用の装置が必要となり、一般的なシーケンサ等での再
生ができない。
Further, lyrics data and the like have their own data format, and a dedicated device is required as a lyrics data reproducing device, and cannot be reproduced by a general sequencer or the like.

【0009】本発明の目的は、仮名等を含むテキストデ
ータを処理することができる音声データ処理装置又はコ
ンピュータプログラムの記録媒体を提供することであ
る。
An object of the present invention is to provide a voice data processing device or a recording medium of a computer program capable of processing text data including kana and the like.

【0010】本発明の他の目的は、音声データの編集を
容易に行うことができる音声データ処理装置又はコンピ
ュータプログラムの記録媒体を提供することである。
Another object of the present invention is to provide a recording medium for a voice data processing device or a computer program, which can easily edit voice data.

【0011】本発明の他の目的は、汎用性のある音声デ
ータを処理することができる音声データ処理装置又はコ
ンピュータプログラムの記録媒体を提供することであ
る。
Another object of the present invention is to provide a recording medium for a voice data processing device or a computer program capable of processing voice data having general versatility.

【0012】[0012]

【課題を解決するための手段】 本発明の一観点によれ
ば、音声データ処理装置は、非仮名とその読み仮名又は
ルビが対になったデータを含むテキストデータと音符単
位のデータを含むノートデータとを記憶する記憶手段
と、前記テキストデータ中の非仮名を破棄してその読み
仮名又はルビのみを前記ノートデータ中の音符のデータ
に割り当てて音声データを生成する生成手段とを有す
る。
According to an aspect of the present invention, a voice data processing device includes a note including text data including non-kana and its reading kana or data in which ruby is paired, and note-based data. And storage means for storing the data, and generating means for discarding the non-kana in the text data and allocating only the reading kana or ruby to the note data in the note data to generate voice data.

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【発明の実施の形態】図1は、パーソナルコンピュータ
1と外部音源装置21との接続を示す図である。パーソ
ナルコンピュータ1は、本実施例による音声データ処理
装置を含む。パーソナルコンピュータ1は、シーケンサ
でもよい。
1 is a diagram showing a connection between a personal computer 1 and an external sound source device 21. As shown in FIG. The personal computer 1 includes the audio data processing device according to this embodiment. The personal computer 1 may be a sequencer.

【0022】まず、外部音源装置21の構成を説明す
る。検出回路33は、スイッチ34の操作を検出し、ス
イッチ信号を生成する。スイッチ34は、例えば各種パ
ラメータを設定するためのスイッチを含む。
First, the configuration of the external sound source device 21 will be described. The detection circuit 33 detects the operation of the switch 34 and generates a switch signal. The switch 34 includes, for example, a switch for setting various parameters.

【0023】バス22には、検出回路33の他、RAM
24、ROM25、CPU26、表示回路28、MID
Iインターフェース23、音声合成回路32、楽音波形
合成回路29が接続される。
The bus 22 has a RAM in addition to the detection circuit 33.
24, ROM 25, CPU 26, display circuit 28, MID
The I interface 23, the voice synthesis circuit 32, and the tone waveform synthesis circuit 29 are connected.

【0024】ROM25は、音声を合成するためのフォ
ルマントデータ、その他の各種データ及びコンピュータ
プログラムを記憶する。RAM24は、フラグ、バッフ
ァ等を記憶する。コンピュータプログラムは、ROM2
5に記憶させる代わりに、RAM24に記憶させてもよ
い。CPU26は、ROM25又はRAM24に記憶さ
れているコンピュータプログラムに従い、演算または制
御を行う。
The ROM 25 stores formant data for synthesizing voice, other various data, and a computer program. The RAM 24 stores flags, buffers and the like. The computer program is ROM2
Instead of being stored in RAM 5, it may be stored in RAM 24. The CPU 26 performs calculation or control according to a computer program stored in the ROM 25 or the RAM 24.

【0025】CPU26は、MIDIインターフェース
23を介してパーソナルコンピュータ1から受信した演
奏データに基づいて楽音パラメータを生成し、楽音波形
合成回路29に供給する。楽音波形合成回路29は、供
給される楽音パラメータに応じて楽音信号を生成し、サ
ウンドシステム31に供給する。サウンドシステム31
は、D/A変換器およびスピーカを含み、供給されるデ
ジタル形式の楽音信号をアナログ形式に変換し、発音す
る。
The CPU 26 generates a musical tone parameter based on the performance data received from the personal computer 1 via the MIDI interface 23 and supplies it to the musical tone waveform synthesizing circuit 29. The musical tone waveform synthesis circuit 29 generates a musical tone signal according to the supplied musical tone parameter and supplies the musical tone signal to the sound system 31. Sound system 31
Includes a D / A converter and a speaker, converts a supplied digital tone signal into an analog format and produces a sound.

【0026】なお、楽音波形合成回路29は、波形メモ
リ方式、FM方式、物理モデル方式、高調波合成方式、
フォルマント合成方式、VCO+VCF+VCAのアナ
ログシンセサイザ方式等、どのような方式であってもよ
い。
The musical tone waveform synthesizer circuit 29 includes a waveform memory system, an FM system, a physical model system, a harmonic synthesis system,
Any method such as a formant synthesis method or a VCO + VCF + VCA analog synthesizer method may be used.

【0027】MIDIインターフェース23は、パーソ
ナルコンピュータ1のMIDIインターフェース8にM
IDIケーブルで接続される。外部音源装置21とパー
ソナルコンピュータ1は、MIDI通信を行うことがで
きる。
The MIDI interface 23 is an M interface for the MIDI interface 8 of the personal computer 1.
Connected with an IDI cable. The external sound source device 21 and the personal computer 1 can perform MIDI communication.

【0028】CPU26は、MIDIインターフェース
23を介して、パーソナルコンピュータ1から音声デー
タを受け取り、RAM24に格納する。音声データは、
ノート(音符)データと歌詞データを含む。
The CPU 26 receives voice data from the personal computer 1 via the MIDI interface 23 and stores it in the RAM 24. The voice data is
Includes note data and lyrics data.

【0029】CPU26は、RAM24に記憶されてい
る音声データを読み出し、ROM25に記憶されている
フォルマントデータ等に基づき、フォルマントデータや
ノートナンバ(音高)等を音声合成回路32に供給す
る。フォルマントデータは、例えばフォルマント中心周
波数データ、フォルマントバンド幅データ、フォルマン
トレベルデータ等である。
The CPU 26 reads out the voice data stored in the RAM 24, and supplies the formant data, the note number (pitch), etc. to the voice synthesis circuit 32 based on the formant data stored in the ROM 25. The formant data is, for example, formant center frequency data, formant bandwidth data, formant level data and the like.

【0030】音声合成回路32は、供給されるフォルマ
ントデータ等に応じて音声信号を生成する。音声信号
は、所定の音高を有し、歌声に相当する。音声合成回路
32は、フォルマント合成方式(フォルマント音源)で
もよいし、その他の方式でもよい。なお、音声合成回路
32の方式がフォルマント合成方式以外の場合は、供給
するデータもフォルマントデータではなく、その音声合
成方式に特有のデータとなる。
The voice synthesizing circuit 32 generates a voice signal according to the supplied formant data and the like. The voice signal has a predetermined pitch and corresponds to a singing voice. The voice synthesis circuit 32 may use a formant synthesis method (formant sound source) or any other method. When the method of the voice synthesizing circuit 32 is other than the formant synthesizing method, the supplied data is not the formant data but the data peculiar to the voice synthesizing method.

【0031】音声合成回路32がフォルマント音源であ
る場合を説明する。音声合成回路32には、音声データ
に応じて生成されたフォルマントデータ等が入力され
る。フォルマントデータは、フォルマント中心周波数デ
ータ、フォルマントレベルデータ、フォルマント帯域幅
データ等を含む。
A case where the voice synthesis circuit 32 is a formant sound source will be described. To the voice synthesis circuit 32, formant data or the like generated according to voice data is input. The formant data includes formant center frequency data, formant level data, formant bandwidth data, and the like.

【0032】音声合成回路32は、有声音合成グループ
VTGと無声音合成グループUTGを有する。有声音グ
ループVTGは、フォルマントデータ等に応じて、第1
〜4の有声音フォルマントをそれぞれ形成するための有
声音合成部V1、V2、V3、V4を有する。無声音合
成グループUTGは、フォルマントデータ等に応じて、
第1〜4の無声音フォルマントをそれぞれ形成するため
の無声音合成部U1、U2、U3、U4を有する。
The voice synthesis circuit 32 has a voiced sound synthesis group VTG and an unvoiced sound synthesis group UTG. The voiced sound group VTG is the first one according to the formant data and the like.
4 to 4 have voiced sound synthesis units V1, V2, V3, and V4 for forming voiced sound formants, respectively. The unvoiced sound synthesis group UTG, according to the formant data etc.,
It has unvoiced sound synthesis units U1, U2, U3, and U4 for forming first to fourth unvoiced sound formants, respectively.

【0033】第1フォルマント生成ユニットTG1は第
1フォルマントを形成するための有声音合成部V1と無
声音合成部U1を有し、第2フォルマント生成ユニット
TG2は第2フォルマントを形成するための有声音合成
部V2と無声音合成部U2を有し、第3フォルマント生
成ユニットTG3は第3フォルマントを形成するための
有声音合成部V3と無声音合成部U3を有し、第4フォ
ルマント生成ユニットTG4は第4フォルマントを形成
するための有声音合成部V4と無声音合成部U4を有す
る。
The first formant generation unit TG1 has a voiced sound synthesis unit V1 and an unvoiced sound synthesis unit U1 for forming the first formant, and the second formant generation unit TG2 has a voiced sound synthesis for forming the second formant. The third formant generation unit TG3 includes a voiced sound synthesis unit V3 and an unvoiced sound synthesis unit U3 for forming a third formant, and the fourth formant generation unit TG4 includes a fourth formant generation unit TG4. A voiced sound synthesizing section V4 and an unvoiced sound synthesizing section U4.

【0034】合成部V1〜V4,U1〜U4は、それぞ
れ生成したフォルマントに対応する音声信号を出力す
る。それらの音声信号は加算され、サウンドシステム3
1に供給される。サウンドシステム31は、供給される
デジタル形式の音声信号をアナログ形式に変換し、発音
する。
The synthesizers V1 to V4 and U1 to U4 output the audio signals corresponding to the generated formants, respectively. Those audio signals are added up, and the sound system 3
1 is supplied. The sound system 31 converts the supplied digital audio signal into an analog format and produces sound.

【0035】フォルマント音源のより具体的な構成は、
例えば特開平3−200299号公報の第1図に示され
ている。
A more specific structure of the formant sound source is as follows.
For example, it is shown in FIG. 1 of JP-A-3-200299.

【0036】なお、音声合成回路32は、4系統のフォ
ルマント生成ユニットTG1〜TG4を有する場合に限
定されない。それ以上又はそれ以下の系統のフォルマン
ト生成ユニットを有するものでもよい。
The voice synthesis circuit 32 is not limited to the case where it has four system formant generation units TG1 to TG4. It may have more or less formant generation units.

【0037】破裂音等の特殊な音は、専用のユニットを
設けるようにしてもよい。また、発音チャンネルを複数
用意し、2声以上の歌唱を発生させることができるよう
にしてもよい。この場合、1つの回路を時分割で使用す
ることによって複数の発音チャンネルを形成するような
ものでもよいし、1つの発音チャンネルが1つの回路で
構成されるような形式のものであってもよい。
A special unit may be provided for special sounds such as plosive sounds. Alternatively, a plurality of sound generation channels may be prepared so that a song with two or more voices can be generated. In this case, a plurality of tone generation channels may be formed by using one circuit in a time division manner, or one tone generation channel may be configured by one circuit. .

【0038】音声合成回路32と楽音波形合成回路29
は、専用のハードウエアを用いて構成するものに限ら
ず、DSP+マイクロプログラムを用いて構成してもよ
いし、CPU+ソフトウェアのプログラムで構成するよ
うにしてもよい。
Speech synthesis circuit 32 and tone waveform synthesis circuit 29
Is not limited to being configured by using dedicated hardware, but may be configured by using a DSP + microprogram, or may be configured by a program of CPU + software.

【0039】次に、パーソナルコンピュータ1の構成を
説明する。検出回路11は、キーボード12上のキー
(数字キーや文字キー等)入力を検出し、キー信号を生
成する。検出回路9は、マウス10の移動操作やスイッ
チ(右ボタン、左ボタン等)操作を検出し、マウス信号
を生成する。操作者は、マウス10又はキーボード12
を用いて、音声データの編集を行うことができる。
Next, the configuration of the personal computer 1 will be described. The detection circuit 11 detects input of a key (numerical key, character key, etc.) on the keyboard 12 and generates a key signal. The detection circuit 9 detects a movement operation of the mouse 10 and a switch (right button, left button, etc.) operation, and generates a mouse signal. The operator operates the mouse 10 or the keyboard 12
Can be used to edit the audio data.

【0040】表示回路7には、音声データ等を編集する
ための編集画面を表示することができる。操作者は、表
示回路7上の編集画面を参照しながら音声データの編集
を行うことができる。
The display circuit 7 can display an edit screen for editing voice data and the like. The operator can edit the voice data while referring to the edit screen on the display circuit 7.

【0041】バス2には、検出回路11、検出回路9及
び表示回路7の他、MIDIインターフェース8、RA
M3、ROM4、CPU5、外部記憶装置13、通信イ
ンターフェース14が接続される。
The bus 2 has a detection circuit 11, a detection circuit 9 and a display circuit 7, as well as a MIDI interface 8 and RA.
The M3, the ROM 4, the CPU 5, the external storage device 13, and the communication interface 14 are connected.

【0042】ROM4は、各種パラメータ及びコンピュ
ータプログラムを記憶する。RAM3は、フラグ、バッ
ファ、演奏データ、音声データ等を記憶する。また、R
AM3は、外部記憶装置13、又は通信インターフェー
ス14を介して外部から供給されたコンピュータプログ
ラムや演奏データ、音声データ等を記憶することもでき
る。CPU5は、RAM3又はROM4に記憶されてい
るコンピュータプログラムに従い、音声データの編集又
は処理等のための演算または制御を行う。
The ROM 4 stores various parameters and computer programs. The RAM 3 stores flags, buffers, performance data, voice data and the like. Also, R
The AM 3 can also store a computer program, performance data, voice data, etc. supplied from the outside via the external storage device 13 or the communication interface 14. The CPU 5 performs calculation or control for editing or processing of voice data according to a computer program stored in the RAM 3 or the ROM 4.

【0043】タイマ6は、CPU5に時間情報を供給す
る。CPU5は、当該時間情報に応じて、所定時間間隔
で割り込み処理を行うことができる。
The timer 6 supplies time information to the CPU 5. The CPU 5 can perform interrupt processing at predetermined time intervals according to the time information.

【0044】MIDIインターフェース8は、上記のよ
うに、外部音源装置21のMIDIインターフェース2
3にMIDIケーブルで接続される。パーソナルコンピ
ュータ1は、MIDIインターフェース8を介して、演
奏データや音声データを外部音源装置21に送信するこ
とができる。
The MIDI interface 8 is, as described above, the MIDI interface 2 of the external tone generator 21.
3 is connected with a MIDI cable. The personal computer 1 can transmit performance data and voice data to the external sound source device 21 via the MIDI interface 8.

【0045】通信インターフェース14は、ローカルエ
リアネットワーク(LAN)、インターネット、電話回
線等の通信ネットワーク41に接続される。通信ネット
ワーク41には、サーバコンピュータ42が接続されて
いる。パーソナルコンピュータ1は、通信ネットワーク
41を介して、サーバコンピュータ42から音声データ
又はコンピュータプログラムを受信することができる。
The communication interface 14 is connected to a communication network 41 such as a local area network (LAN), the Internet or a telephone line. A server computer 42 is connected to the communication network 41. The personal computer 1 can receive voice data or a computer program from the server computer 42 via the communication network 41.

【0046】外部記憶装置13は、外部記憶装置用のイ
ンターフェースを含み、そのインターフェースを介して
バス2に接続される。外部記憶装置13は、例えばフロ
ッピディスクドライブ(FDD)、ハードディスクドラ
イブ(HDD)、光磁気ディスク(MO)ドライブ、C
D−ROM(コンパクトディスク−リードオンリィメモ
リ)ドライブ、デジタル多目的ディスク(DVD)装置
等である。演奏データや音声データは、外部記憶装置1
3又はRAM3に記憶される。
The external storage device 13 includes an interface for the external storage device, and is connected to the bus 2 via the interface. The external storage device 13 is, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, C
Examples include D-ROM (compact disc-read only memory) drives, digital multipurpose disc (DVD) devices, and the like. Performance data and voice data are stored in the external storage device 1.
3 or RAM3.

【0047】コンピュータプログラム等をROM4に記
憶させずに、外部記憶装置13(例えばハードディス
ク)に記憶させることもできる。ハードディスクからR
AM3にコンピュータプログラム等を読み出すことによ
り、ROM4にコンピュータプログラム等を記憶させて
いる場合と同様の動作をCPU5にさせることができ
る。このようにすると、CD−ROM等の他の外部記憶
媒体からハードディスクにコンピュータプログラム等を
コピーすることでコンピュータプログラム等の追加やバ
ージョンアップ等が容易に行える。
The computer program or the like may be stored in the external storage device 13 (for example, hard disk) without being stored in the ROM 4. R from hard disk
By reading the computer program or the like into the AM 3, the CPU 5 can be caused to perform the same operation as when the computer program or the like is stored in the ROM 4. In this way, by adding the computer program or the like from another external storage medium such as a CD-ROM to the hard disk, it is possible to easily add or upgrade the computer program or the like.

【0048】通信インターフェース14は、ローカルエ
リアネットワーク(LAN)やインターネット、電話回
線等の通信ネットワーク41に接続されており、該通信
ネットワーク41を介して、サーバコンピュータ42と
接続される。外部記憶装置13内にコンピュータプログ
ラム等が記憶されていない場合、サーバコンピュータ4
2からコンピュータプログラム等をダウンロードするこ
とができる。クライアントとなるパーソナルコンピュー
タ1は、通信インターフェース14及び通信ネットワー
ク41を介してサーバコンピュータ42へとコンピュー
タプログラム等のダウンロードを要求するコマンドを送
信する。サーバコンピュータ42は、このコマンドを受
け、要求されたコンピュータプログラム等を、通信ネッ
トワーク41を介してパーソナルコンピュータ1へと配
信し、パーソナルコンピュータ1が通信インターフェー
ス14を介して、これらコンピュータプログラム等を受
信して外部記憶装置13内に蓄積することにより、ダウ
ンロードが完了する。
The communication interface 14 is connected to a communication network 41 such as a local area network (LAN), the Internet or a telephone line, and is connected to the server computer 42 via the communication network 41. If a computer program or the like is not stored in the external storage device 13, the server computer 4
2 can download computer programs and the like. The personal computer 1 serving as a client transmits a command requesting a download of a computer program or the like to the server computer 42 via the communication interface 14 and the communication network 41. Upon receiving this command, the server computer 42 delivers the requested computer program and the like to the personal computer 1 via the communication network 41, and the personal computer 1 receives these computer programs and the like via the communication interface 14. The download is completed by accumulating in the external storage device 13.

【0049】パーソナルコンピュータ1は、RAM3に
記憶している演奏データや音声データを、所定のテンポ
にしたがって再生し、再生した演奏データや音声データ
をMIDIインターフェース8を介して外部音源装置2
1へと送信する。外部音源装置21は、送信されてきた
演奏データや音声データをMIDIインターフェース2
3を介して受信し、受信した演奏データを楽音波形合成
回路29へ供給することにより伴奏楽音信号を形成する
とともに、受信した音声データを音声合成回路32へ供
給することにより歌唱信号を形成する。すなわち、パー
ソナルコンピュータ1と外部音源装置21により、伴奏
楽音を伴った歌唱を生成するシステムが構成される。
The personal computer 1 reproduces the performance data and voice data stored in the RAM 3 in accordance with a predetermined tempo, and reproduces the reproduced performance data and voice data via the MIDI interface 8 to the external tone generator 2.
Send to 1. The external sound source device 21 uses the MIDI interface 2 to send the transmitted performance data and voice data.
The received performance data is supplied to the musical tone waveform synthesizing circuit 29 to form an accompaniment tone signal, and the received voice data is supplied to the voice synthesizing circuit 32 to form a singing signal. That is, the personal computer 1 and the external sound source device 21 constitute a system for generating a song accompanied by an accompaniment tone.

【0050】次に、音声データ処理装置(パーソナルコ
ンピュータ1)が行う処理を説明する。
Next, the processing performed by the voice data processing device (personal computer 1) will be described.

【0051】図2は、インポート処理を示す図である。
インポート処理は、演奏データ51にテキストデータ
(歌詞データ)52を割り当て、ノートプラスデータ5
3を生成する処理である。本明細書では、演奏データ5
1、テキストデータ52、ノートプラスデータ53のい
ずれをも音声データという。
FIG. 2 is a diagram showing the import processing.
In the import process, the text data (lyric data) 52 is assigned to the performance data 51, and the note plus data 5
This is a process of generating 3. In this specification, performance data 5
1, the text data 52, and the note plus data 53 are all called voice data.

【0052】演奏データ51は、例えば、8つのノート
(音符)に対応するノートイベントN1〜N8を有す
る。ノートイベントN1〜N8の各々は、例えばノート
オンタイミングデータ、ノートナンバ(音高)、ベロシ
ティ(音量)、ゲートタイム(ノートオンからノートオ
フまでの時間)を含む。
The performance data 51 has, for example, note events N1 to N8 corresponding to eight notes (notes). Each of the note events N1 to N8 includes, for example, note-on timing data, note number (pitch), velocity (volume), and gate time (time from note-on to note-off).

【0053】テキストデータ52は、例えば「赤(あ
か)_い/夕日〔ゆう!ひ〕_が¥」である。ここで、
()内は読み仮名を示し、〔〕内はルビを示し、「_,
!」等は歌詞区切り記号を示し、「/,¥」等は呼気記
号を示す。
The text data 52 is, for example, "red (red) _i / sunset [yuu! Hi] _ is \". here,
() Indicates reading kana, [] indicates ruby, and “_,
!! ", Etc. indicate lyrics delimiters, and" /, \ "etc. indicate exhalation symbols.

【0054】呼気記号は、息継ぎを示す記号である。呼
気記号があるときは、その前の歌詞データはゲートタイ
ムだけ発音され、その後、無音状態になる。呼気記号が
ないときには、ある歌詞データとその次の歌詞データと
が滑らかにつながるように発音される。すなわち、ゲー
ムタイムが無視される。
The exhalation symbol is a symbol indicating breathing. When there is an exhalation symbol, the lyrics data before that is pronounced for the gate time, and then becomes silent. When there is no exhalation symbol, one lyric data and the next lyric data are pronounced so as to be smoothly connected. That is, the game time is ignored.

【0055】歌詞区切り記号は、1つの音符(ノートイ
ベント)に対応する歌詞データ(第1の歌詞イベント)
とその次の音符に対応する歌詞データ(第2の歌詞イベ
ント)の間に挿入される。歌詞データ52は、歌詞区切
り記号に従い、歌詞イベントに分解され、各ノートイベ
ントN1〜N8に割り当てられる。例えば、「N1,あ
か」、「N2,い▽」、「N3,ゆう」、「N4,
ひ」、「N5,が▽」のように割り当てられる。ここ
で、「▽」は、呼気記号「/,¥」に対応する呼気デー
タであり、息継ぎを示すとともに、「N2,い▽」の例
でも判るとおり、歌詞区切りの役割も果たしている。こ
のノートイベントと歌詞(文字列)イベントあるいは音
素列イベント(音素列イベントについては後述)の組を
ノートプラスイベント(ノートに対して歌詞イベントが
プラスされたイベント)と呼ぶ。ノートプラスデータ5
3は、ノートプラスイベントの集まりである。
The lyrics delimiter is the lyrics data (first lyrics event) corresponding to one note (note event).
And the lyrics data corresponding to the next note (the second lyrics event). The lyrics data 52 is decomposed into lyrics events according to the lyrics delimiter and assigned to each note event N1 to N8. For example, "N1, red", "N2, i ▽", "N3, Yu", "N4,"
Hi ”,“ N5, is ▽ ”. Here, “∇” is the exhalation data corresponding to the exhalation symbol “/, ¥”, and indicates the breathing and also serves as a lyrics delimiter, as can be seen in the example of “N2, i∇”. A set of the note event and the lyrics (character string) event or the phoneme string event (a phoneme string event will be described later) is called a note plus event (an event in which a lyrics event is added to a note). Note plus data 5
3 is a group of note plus events.

【0056】ノートプラスデータ53は、読み仮名及び
ルビを考慮し、漢字を削除してそれに対応する仮名のみ
を残す。読み仮名記号「()」があるときには、()の
前の漢字「赤」及び読み仮名記号「()」を削除し
て()内の仮名「かな」を残す。ルビ記号「〔〕」の場
合も同様である。
In the note-plus data 53, the kanji is deleted and only the corresponding kana is left in consideration of the reading kana and ruby. When there is a reading kana symbol "()", the kanji "red" and the reading kana symbol "()" before () are deleted and the kana "kana" in () is left. The same applies to the case of the ruby symbol "[]".

【0057】ノートプラスデータ53中の仮名は、音素
列に変換される。例えば、仮名「か」は、音素列「CL
(7.5ms)+kha(4×7.5ms)+aj(無
限長)」に変換される。「か」等の音節は、時間軸上の
音素列に分解することができる。音素は、例えば「C
L」、「kha」、「aj」である。
The kana in the note plus data 53 is converted into a phoneme string. For example, the kana "ka" is the phoneme sequence "CL
(7.5 ms) + kha (4 × 7.5 ms) + aj (infinite length) ”. A syllable such as "ka" can be decomposed into a phoneme string on the time axis. The phoneme is, for example, "C
L ”,“ kha ”, and“ aj ”.

【0058】パーソナルコンピュータ1は、仮名と音素
列との間で変換を行うためのテーブルを記憶している。
このテーブルを使い、仮名から音素列への変換を行うこ
とができる。しかし、漢字や記号や英数字等から音素列
への変換を行うことはできない。なぜなら、漢字や記号
や英数字等は、読み方が複数通り存在する可能性がある
からである。
The personal computer 1 stores a table for converting between kana and phoneme strings.
This table can be used to convert from kana to phoneme sequences. However, it is not possible to convert kanji, symbols, alphanumeric characters, etc. into phoneme strings. This is because there is a possibility that there are multiple ways of reading kanji, symbols, alphanumeric characters, etc.

【0059】仮名は音素列へ変換され、漢字や記号等は
そのまま残される。パーソナルコンピュータ1は、漢字
等から仮名へ変換を行うための辞書を記憶している。こ
の辞書を用いて、漢字等を仮名に変換し、さらにその仮
名を音素列に変換することができる。パーソナルコンピ
ュータ1は、音素列等を外部音源装置21(図1)に供
給する。外部音源装置21は、音素列等を受けて、音声
を発音する。
The kana is converted into a phoneme string, and the kanji and symbols are left as they are. The personal computer 1 stores a dictionary for converting Chinese characters and the like into kana. By using this dictionary, it is possible to convert kanji and the like into kana and then convert the kana into phoneme strings. The personal computer 1 supplies a phoneme string or the like to the external tone generator 21 (FIG. 1). The external sound source device 21 receives a phoneme string or the like and produces a sound.

【0060】パーソナルコンピュータ1は、歌詞データ
としてテキストデータを使用することができる。例えば
カラオケ用のテキストデータ等、既存のテキストデータ
を使用することができる。
The personal computer 1 can use text data as lyrics data. For example, existing text data such as text data for karaoke can be used.

【0061】また、歌詞区切り記号は「_,!」等であ
り、呼気記号は「/,¥」等であり、いずれも複数種類
設定することができる。例えば、カラオケ用のテキスト
データを使用する場合、改行マークと副改行マークの両
方を歌詞区切り記号とし、改ページマークを呼気記号と
して設定することができる。歌詞区切り記号を複数種類
設定することができるので、改行マークと副改行マーク
の両方を歌詞区切り記号として使用することができる。
Further, the lyrics delimiter is "_ ,!", etc., and the exhalation sign is "/, \" etc., and a plurality of types can be set for each. For example, when using text data for karaoke, it is possible to set both the line feed mark and the sub line feed mark as lyrics delimiters and the page break mark as an exhalation symbol. Since multiple types of lyrics delimiters can be set, both the line feed mark and the sub-line feed mark can be used as the lyrics delimiter.

【0062】改行マークは、歌詞を画面に表示する際
に、歌詞の1行分の区切りを示すマークである。副改行
マークは、小さい画面に表示する際にのみ用いる改行の
ためのマークである。すなわち、通常画面では改行マー
クのみで改行を行い、小画面では改行マークと副改行マ
ークの両方で改行を行う。例えば、改行マークとして
「_」を使用し、副改行マークとして「!」を使用する
ことができる。なお、歌詞区切り記号や呼気記号は、改
行マークや福改行マークのように本来は他の用途に用い
るために挿入された記号をこれら歌詞区切り記号や呼気
記号として流用する場合に限らず、ユーザが任意に設定
し挿入した記号を、歌詞区切り記号や呼気記号としても
よい。
The line feed mark is a mark indicating a line of lyrics when the lyrics are displayed on the screen. The sub-line feed mark is a mark for line feed used only when displaying on a small screen. That is, on the normal screen, a line feed is made only by the line feed mark, and on the small screen, a line feed is made by both the line feed mark and the sub line feed mark. For example, "_" can be used as a line feed mark and "!" Can be used as a sub line feed mark. Note that the lyrics delimiter and exhalation symbol are not limited to the case where a symbol originally inserted for other purposes such as a line feed mark or a lucky line mark is diverted as the lyrics delimiter or exhalation symbol. A symbol arbitrarily set and inserted may be used as a lyrics delimiter or an exhalation symbol.

【0063】図3は、パーソナルコンピュータ1のCP
Uが行うテキストインポート処理を示すフローチャート
である。テキストインポート処理は、上記のように(図
2)、演奏データ51にテキストデータ52を割り当て
て、ノートプラスデータ53を生成する処理である。
FIG. 3 shows the CP of the personal computer 1.
It is a flowchart which shows the text import process which U performs. As described above (FIG. 2), the text import process is a process of allocating the text data 52 to the performance data 51 and generating the note plus data 53.

【0064】ステップSA1では、インポートするテキ
ストファイルを選択する。テキストファイルはテキスト
データ52(図2)を含み、外部記憶装置13(図1)
等に記憶される。操作者は、マウス10等を用いて、1
つ又は複数のテキストファイルの中から1つを選択する
ことができる。
At step SA1, a text file to be imported is selected. The text file includes the text data 52 (FIG. 2) and is stored in the external storage device 13 (FIG. 1).
Etc. The operator uses the mouse 10 or the like to
One can be selected from one or more text files.

【0065】ステップSA2では、演奏データ51中の
最初のノートイベントN1の位置にポインタをセットす
る。演奏データ51は、RAM4又は外部記憶装置13
(図1)等に記憶される。
At step SA2, the pointer is set at the position of the first note event N1 in the performance data 51. The performance data 51 is stored in the RAM 4 or the external storage device 13.
(FIG. 1) and the like.

【0066】ステップSA3では、テキストデータ52
中の最初の文字コードの位置にポインタをセットする。
例えば、テキストデータ52中の「赤」の位置にポイン
タをセットする。
In step SA3, the text data 52
Set the pointer to the position of the first character code in.
For example, the pointer is set at the position of “red” in the text data 52.

【0067】ステップSA4では、当該文字コードが呼
気記号として設定されている文字コードのいずれかと一
致するか否かをチェックする。例えば、呼気記号とし
て、「/,¥」が設定されている。一致しないときに
は、NOの矢印に従い、ステップSA5へ進む。
In step SA4, it is checked whether the character code matches any of the character codes set as the exhalation symbol. For example, "/, \" is set as the exhalation symbol. If they do not match, the process proceeds to step SA5 following the NO arrow.

【0068】ステップSA5では、当該文字コードが歌
詞区切り記号として設定されている文字コードのいずれ
かと一致するか否かをチェックする。例えば、歌詞区切
り記号として、「_,!」が設定されている。一致しな
いときには、NOの矢印に従い、ステップSA6へ進
む。
In step SA5, it is checked whether the character code matches any of the character codes set as the lyrics delimiter. For example, “_ ,!” is set as the lyrics delimiter. If they do not match, the process proceeds to step SA6 following the NO arrow.

【0069】ステップSA6では、当該文字コードを文
字列レジスタの内容に追加する。文字列レジスタは、1
音符に対応する1又は複数の文字コード(以下、歌詞イ
ベントという)を記憶するためのレジスタであり、初期
時には何も記憶していない。
At step SA6, the character code is added to the contents of the character string register. String register is 1
It is a register for storing one or a plurality of character codes (hereinafter referred to as lyrics event) corresponding to a note, and stores nothing at the initial stage.

【0070】ステップSA7では、次の文字コードの位
置にポインタをセットする。例えば、テキストデータ5
2中の「(」の位置にポインタをセットする。その後、
ステップSA4へ戻り、上記の処理を繰り返す。
At step SA7, the pointer is set at the position of the next character code. For example, text data 5
Set the pointer to the position of "(" in 2. Then,
Returning to step SA4, the above processing is repeated.

【0071】ステップSA7でセットされたポインタの
位置における文字コードが「_」又は「!」であった場
合は、ステップSA4を介して、ステップSA5へ進
み、文字コード「_」又は「!」が歌詞区切り記号であ
ると判断し、YESの矢印に従いステップSA9へ進
む。
If the character code at the position of the pointer set in step SA7 is "_" or "!", The process proceeds to step SA5 via step SA4, and the character code "_" or "!" It judges that it is a lyric delimiter and follows the YES arrow to proceed to step SA9.

【0072】一方、ステップSA7でセットされたポイ
ンタの位置における文字コードが「/」又は「¥」あっ
た場合は、ステップSA4で文字コード「/」又は
「¥」が呼気記号であると判断し、YESの矢印に従い
ステップSA8へ進む。ステップSA8では、呼気マー
ク「▽」を文字列レジスタの内容に追加する。その後、
ステップSA9へ進む。
On the other hand, if the character code at the position of the pointer set in step SA7 is "/" or "\", it is determined in step SA4 that the character code "/" or "\" is an exhalation symbol. , YES to the step SA8. In step SA8, the exhalation mark “∇” is added to the contents of the character string register. afterwards,
Go to step SA9.

【0073】ステップSA9では、読み仮名及びルビ処
理を行う。具体的には、文字列レジスタに格納された歌
詞イベント内に読み仮名又はルビが含まれている場合に
は、漢字等を削除して仮名を残す処理である。この処理
の詳細は、後に図4のフローチャートを参照しながら説
明する。その後、ステップSA10へ進む。
In step SA9, phonetic kana and ruby processing is performed. Specifically, when the lyric event stored in the character string register includes a phonetic kana or ruby, the kanji or the like is deleted to leave the kana. Details of this processing will be described later with reference to the flowchart of FIG. Then, it progresses to step SA10.

【0074】ステップSA10では、文字列レジスタの
内容をポインタが位置するノートイベントに付加して、
ノートプラスイベントを生成する。例えば、文字列レジ
スタ内の歌詞イベント「あか」をノートイベントN1に
付加して、ノートプラスイベント「N1,あか」を生成
する。
At step SA10, the contents of the character string register are added to the note event where the pointer is located,
Generate a note plus event. For example, the lyrics event "red" in the character string register is added to the note event N1 to generate a note plus event "N1, red".

【0075】ステップSA11では、テキストデータ5
2の続きがあるか否かをチェックする。すなわち、テキ
ストデータ52が終わりか否かをチェックする。終わり
でないときには、YESの矢印に従い、ステップSA1
2へ進む。
In step SA11, the text data 5
Check if there is a continuation of 2. That is, it is checked whether the text data 52 is the end. If it is not the end, follow the YES arrow and follow step SA1.
Go to 2.

【0076】ステップSA12では、文字列レジスタの
内容をクリアし、次の歌詞イベントの格納に備える。
At step SA12, the contents of the character string register are cleared to prepare for the storage of the next lyrics event.

【0077】ステップSA13では、演奏データ51中
の次のノートイベントの位置にポインタをセットする。
例えば、ノートイベントN2の位置にポインタをセット
する。
At step SA13, the pointer is set at the position of the next note event in the performance data 51.
For example, the pointer is set at the position of the note event N2.

【0078】ステップSA14では、テキストデータ5
2中の次の文字コードの位置にポインタをセットする。
例えば、文字コード「い」の位置にポインタをセットす
る。その後、ステップSA4へ戻り、上記の処理を繰り
返す。
In step SA14, the text data 5
The pointer is set to the position of the next character code in 2.
For example, the pointer is set at the position of the character code “i”. Then, it returns to step SA4 and repeats the above process.

【0079】テキストデータ52の最後の文字コードの
処理が終了すると、ステップSA11でNOの矢印に従
い、テキストインポート処理を終了する。この処理によ
り、ノートプラスデータ53が生成される。
When the processing of the last character code of the text data 52 is completed, the text import processing is completed according to the NO arrow in step SA11. By this processing, note plus data 53 is generated.

【0080】なお、上記のフローチャートでは、テキス
トファイル中のテキストデータ52をインポートする場
合を説明したが、スタンダードMIDIファイル中の所
定トラックに含まれるテキストをインポートするように
してもよい。
In the above flow chart, the case of importing the text data 52 in the text file has been described, but the text included in the predetermined track in the standard MIDI file may be imported.

【0081】図4は、図3のステップSA9に示す読み
仮名及びルビ処理の詳細を示すフローチャートである。
FIG. 4 is a flow chart showing details of the reading kana and ruby processing shown in step SA9 of FIG.

【0082】ステップSB1では、文字列レジスタ中に
()又は〔〕に囲まれた仮名の文字コードがあるか否か
をチェックする。例えば、テキストデータ52中の
「(あか)」又は「〔ゆうひ〕」がこれに該当する。
At Step SB1, it is checked whether or not there is a character code of a kana enclosed by () or [] in the character string register. For example, “(red)” or “[Yuhi]” in the text data 52 corresponds to this.

【0083】また、「夕日〔ゆう!ひ〕_」の場合は、
文字列「夕日〔ゆう」と文字列「ひ〕」との両方もこれ
に該当する。すなわち、()又は〔〕のいずれかの片括
弧に囲まれた仮名文字があればこれに該当する。
In the case of "sunset [yu! Hi] _",
This applies to both the character string "Yu" and the character string "Hi". That is, if there is a kana character enclosed in brackets of either () or [], it corresponds to this.

【0084】当該文字コードがあるときには、YESの
矢印に従い、ステップSB2へ進む。当該文字コードが
ないときには、NOの矢印に従い、読み仮名及びルビ処
理を終了する。
When the character code is present, the YES arrow is followed and the process proceeds to step SB2. When there is no such character code, the reading kana and ruby processing is ended according to the NO arrow.

【0085】ステップSB2では、文字列レジスタ中の
()又は〔〕の前にある非仮名の文字コードを削除す
る。非仮名の文字コードは、漢字、記号、英数字を含
む。例えば、テキストデータ52中の「赤」や「夕日」
を削除する。
At step SB2, the non-kana character code in front of () or [] in the character string register is deleted. The non-kana character code includes kanji, symbols, and alphanumeric characters. For example, "red" or "sunset" in the text data 52
To delete.

【0086】ステップSB3では、文字列レジスタ中の
()又は〔〕を削除する。その結果、例えば、文字列
「夕日〔ゆう」は「ゆう」に変換され、文字列「ひ〕」
は「ひ」に変換される。その後、読み仮名及びルビ処理
を終了し、図3のテキストインポート処理に戻る。
At step SB3, () or [] in the character string register is deleted. As a result, for example, the character string "Yu" is converted into "Yu" and the character string "Hi""
Is converted to "hi". After that, the reading kana and ruby processing is ended, and the processing returns to the text import processing of FIG.

【0087】上記の処理により、読み仮名やルビが振ら
れた漢字等は、漢字等が削除されて仮名が残る。漢字等
は、発音に不必要な文字コードである。
By the above-described processing, the kanji or the like in the kana or the like in which the reading kana or ruby is attached is deleted and the kana remains. Kanji and the like are character codes unnecessary for pronunciation.

【0088】図5は、パーソナルコンピュータ1のCP
Uが行う音素列変換処理を示すフローチャートである。
音素列変換処理は、ノートプラスデータ53(図2)を
生成した後に、歌詞イベントを音素列に変換する処理で
ある。
FIG. 5 shows the CP of the personal computer 1.
It is a flowchart which shows the phoneme sequence conversion process which U performs.
The phoneme sequence conversion process is a process of converting the lyrics event into a phoneme sequence after the note plus data 53 (FIG. 2) is generated.

【0089】表示回路7においては、1つのノートプラ
スイベントが1行に表示されている。すなわち、1つの
行は1つのノートプラスイベントに対応する。ステップ
SC1では、ノートプラスデータ53中から変換する行
を選択する。操作者は、表示回路7に表示された各行の
表示内容を参照し、マウス10等を用いて、1行又は複
数行(すなわち1又は複数のノートプラスイベント)を
選択することができる。
In the display circuit 7, one note plus event is displayed on one line. That is, one row corresponds to one note plus event. In step SC1, the line to be converted is selected from the note plus data 53. The operator can refer to the display content of each line displayed on the display circuit 7 and select one line or a plurality of lines (that is, one or a plurality of note plus events) by using the mouse 10 or the like.

【0090】ステップSC2では、選択された行の中の
第1行目の位置にポインタをセットする。例えば、ノー
トプラスイベント「N1,あか」の位置にポインタをセ
ットする。
At step SC2, the pointer is set at the position of the first row in the selected row. For example, the pointer is set at the position of the note plus event "N1, red".

【0091】ステップSC3では、当該行の文字列(歌
詞イベント)は仮名のみか否かをチェックする。仮名の
みのときは、音素列変換を行うため、YESの矢印に従
いステップSC4へ進む。仮名のみでないときには、N
Oの矢印に従い、音素列変換を行わずにステップSC6
へ進む。なお、仮名以外に呼気記号も含まれている場合
は、仮名のみと判断する。
At step SC3, it is checked whether or not the character string (lyric event) of the line is only kana. If only kana is used, phoneme string conversion is performed, so the flow advances to step SC4 following the YES arrow. N if not only kana
Follow the arrow of O and perform step SC6 without performing phoneme sequence conversion.
Go to. If the exhalation symbol is included in addition to the kana, it is determined that only the kana is included.

【0092】ステップSC4では、仮名−音素列テーブ
ルを参照して、当該文字列に対応する音素列を求める。
例えば、文字列「あか」に対応する音素列を求める。
At step SC4, the phoneme string corresponding to the character string is obtained by referring to the kana-phoneme string table.
For example, a phoneme string corresponding to the character string “red” is obtained.

【0093】ステップSC5では、文字列と音素列との
置き換えを行う。すなわち、ノートプラスデータ53中
では、文字列「あか」が削除され、それに対応する音素
列が書き込まれる。その後、ステップSC6へ進む。
At step SC5, the character string and the phoneme string are replaced. That is, in the note plus data 53, the character string “red” is deleted and the phoneme string corresponding to it is written. Then, it progresses to step SC6.

【0094】ステップSC6では、選択範囲行の中に次
の行があるか否かをチェックする。選択範囲行が1行の
みの場合は次の行がないので、NOの矢印に従い、音素
列変換処理を終了する。次の行があるときには、YES
の矢印に従い、ステップSC7へ進む。
At step SC6, it is checked whether or not there is a next row in the selection range row. If there is only one selected range row, there is no next row, so the phoneme string conversion processing is ended following the NO arrow. YES if there is a next line
Follow the arrow to move to step SC7.

【0095】ステップSC7では、次の行の位置にポイ
ンタをセットする。例えば、ノートプラスイベント「N
2,い▽」の位置にポインタをセットする。その後、ス
テップSC3へ戻り、上記の処理を繰り返す。呼気記号
「▽」は音素列に変換されない。仮名「い」のみが音素
列に変換される。
At step SC7, the pointer is set at the position of the next row. For example, note plus event "N
2. Set the pointer to the position of "2. Then, it returns to step SC3 and repeats the above process. The exhalation symbol "▽" is not converted into a phoneme sequence. Only the kana "i" is converted into a phoneme sequence.

【0096】全ての行の処理が終了すると、ステップS
C6においてNOの矢印に従い、音素列変換処理を終了
する。後の処理で、変換された音素列は、外部音源装置
21(図1)へ供給され、発音される。
When all the lines have been processed, step S
In C6, the phoneme string conversion process is ended following the NO arrow. In a later process, the converted phoneme string is supplied to the external sound source device 21 (FIG. 1) and is sounded.

【0097】なお、音素列に変換された後は、当該音素
列を再び文字列に変換して、音素列と文字列の両方を表
示回路7上の画面に表示する。操作者は、文字列とそれ
に対応する音素列を知ることができる。また、音素列の
変換が正常に行われたか否かを知ることもできる。
After being converted into a phoneme string, the phoneme string is converted into a character string again, and both the phoneme string and the character string are displayed on the screen of the display circuit 7. The operator can know the character string and the corresponding phoneme string. Also, it is possible to know whether or not the conversion of the phoneme sequence has been normally performed.

【0098】次に、空白行挿入処理を説明する。上記の
ように、ノートイベントに歌詞イベントを割り当てた
後、歌詞の間に新たな歌詞を挿入したい場合がある。例
えば、歌詞の一部分が欠落しており、該欠落部分以降の
歌詞が前方に詰まった状態でノートイベントと歌詞イベ
ントが対応づけられてしまい、結果として、ノートイベ
ントと歌詞イベントの対応が間違った状態でノートプラ
スイベントが生成されてしまった場合等である。その場
合に、所望の場所に空白行を挿入し、その空白行に新た
な歌詞を埋めればよい。
Next, the blank line insertion processing will be described. As described above, after assigning the lyrics event to the note event, it may be desired to insert new lyrics between the lyrics. For example, a part of the lyrics is missing, and the note event and the lyrics event are associated with each other in a state where the lyrics after the missing part are jammed forward, and as a result, the correspondence between the note event and the lyrics event is incorrect. This is the case when a Note Plus event is generated in. In that case, a blank line may be inserted at a desired position and new lyrics may be filled in the blank line.

【0099】図6(A)〜(D)は、空白行挿入処理を
説明するための図である。図6(A)は、ノートプラス
データの例を示す。ノートプラスデータは、例えば8行
のノートプラスイベントを有する。第1行目のノートプ
ラスイベントは、ノートイベントN1と歌詞イベントL
1を有する。
FIGS. 6A to 6D are diagrams for explaining the blank line insertion processing. FIG. 6A shows an example of note plus data. The note plus data has, for example, eight rows of note plus events. The note plus event on the first line is note event N1 and lyrics event L
Has 1.

【0100】操作者は、マウス等を用いて、空白行を挿
入したい位置PTと行数LLを指定することができる。
例えば、挿入位置PTとして第3行目を指定し、挿入行
数LLとして2行を指定することができる。
The operator can use the mouse or the like to specify the position PT at which a blank line is to be inserted and the number of lines LL.
For example, the third row can be designated as the insertion position PT, and two rows can be designated as the number of inserted rows LL.

【0101】まず、図6(B)のバッファに、挿入位置
PT以降の歌詞イベントL3〜L8をコピーする。な
お、バッファ内には、空白行が含まれていてもよい。
First, the lyrics events L3 to L8 after the insertion position PT are copied to the buffer of FIG. 6 (B). Note that the buffer may include blank lines.

【0102】次に、図6(C)に示すように、図6
(A)のノートプラスデータの挿入位置PT(第3行
目)から挿入行数LL(2行)だけ歌詞イベントを消去
する。すなわち、歌詞イベントL3及びL4を消去す
る。
Next, as shown in FIG.
The lyric event is erased by the number of inserted lines LL (two lines) from the insertion position PT (third line) of the note plus data in (A). That is, the lyrics events L3 and L4 are deleted.

【0103】次に、図6(D)に示すように、図6
(C)のノートプラスデータ中の第5行目以降にバッフ
ァ(図6(B))内の歌詞イベントをコピーする。ただ
し、ノートイベントN8よりも後ろにはノートイベント
がないので、ノートイベントN8に残りの歌詞イベント
がまとめて割り当てられる。すなわち、ノートイベント
N8には、歌詞イベントL6〜L8が割り当てられる。
Next, as shown in FIG.
The lyrics event in the buffer (FIG. 6B) is copied to the fifth and subsequent lines in the note plus data in (C). However, since there is no note event behind the note event N8, the remaining lyrics events are collectively assigned to the note event N8. That is, the lyrics events L6 to L8 are assigned to the note event N8.

【0104】図6(D)のノートプラスデータでは、ノ
ートイベントN3及びN4に空白行の歌詞イベントが割
り当てられる。結果として、2行の空白行が挿入された
ことになる。そして、空白行挿入箇所以降のノートプラ
スイベントは、ノートイベントと歌詞イベントの対応づ
けが変更された状態となる。なお、空白行については、
歌詞イベントが消去されたため、ノートプラスイベント
ではなく、通常のノートイベントとなる。
In the note plus data of FIG. 6D, the lyric event on the blank line is assigned to the note events N3 and N4. As a result, two blank lines have been inserted. Then, in the note plus event after the blank line insertion position, the correspondence between the note event and the lyrics event is changed. For blank lines,
Since the lyrics event has been deleted, it becomes a normal note event instead of a note plus event.

【0105】図7は、上記の空白行挿入処理を実現する
ためのフローチャートである。ステップSD1では、空
白行の挿入位置PTと挿入行LLを指定する。
FIG. 7 is a flow chart for realizing the above blank line insertion processing. At step SD1, a blank row insertion position PT and an insertion row LL are designated.

【0106】ステップSD2では、挿入位置PT以降の
歌詞イベント(音素列/文字列)をバッファ(図6
(B))にコピーする。
At step SD2, the lyrics event (phoneme string / character string) after the insertion position PT is buffered (see FIG. 6).
(B)).

【0107】ステップSD3では、挿入位置PTから挿
入行数LL分の歌詞イベントを消去する(図6
(C))。
At step SD3, the lyric event for the number of insertion lines LL is deleted from the insertion position PT (FIG. 6).
(C)).

【0108】ステップSD4では、バッファ(図6
(B))の歌詞イベントを、挿入位置PTから挿入行数
LL分より後ろのノートイベントに割り当てる。このと
き、割り当てるべきノートイベントが無くなったにもか
かわらず歌詞イベントがバッファ内に残っているとき
は、残りの歌詞イベントを全て最後のノートイベントに
追加する。以上で、空白行の挿入処理を終了する。
At step SD4, the buffer (see FIG.
The lyric event of (B) is assigned to the note event after the insertion line number LL from the insertion position PT. At this time, if the lyrics event remains in the buffer even though there are no note events to be assigned, all the remaining lyrics events are added to the last note event. This completes the blank line insertion process.

【0109】なお、図6(A)のノートプラスデータに
空白行を挿入して図6(D)のノートプラスデータを生
成する方法は上記以外の方法でもよい。
The method of inserting a blank line in the note plus data of FIG. 6A to generate the note plus data of FIG. 6D may be a method other than the above.

【0110】図8(A)〜(F)は、歌詞イベント挿入
処理を説明するための図である。図8(A)は、ノート
プラスデータの例を示す。操作者は、マウス等を用い
て、挿入したい歌詞イベントの範囲RGを指定すること
ができる。例えば、範囲RGとして、歌詞イベントL5
及びL6を指定することができる。
FIGS. 8A to 8F are diagrams for explaining the lyrics event insertion processing. FIG. 8A shows an example of note plus data. The operator can use the mouse or the like to specify the range RG of the lyrics event to be inserted. For example, as the range RG, the lyrics event L5
And L6 can be specified.

【0111】まず、図8(B)のクリップボードに、範
囲RG内の歌詞イベントL5及びL6をコピーする。
First, the lyrics events L5 and L6 within the range RG are copied to the clipboard in FIG. 8B.

【0112】次に、図8(C)に示すように、操作者
は、マウス等を用いて、挿入位置PTを指定することが
できる。例えば、挿入位置PTとして、第3行目のノー
トプラスイベント「N3,L3」を指定することができ
る。
Next, as shown in FIG. 8C, the operator can specify the insertion position PT using a mouse or the like. For example, the note plus event “N3, L3” on the third line can be designated as the insertion position PT.

【0113】次に、図8(D)のバッファに、挿入位置
PT以降の歌詞イベントL3〜L8をコピーする。
Next, the lyrics events L3 to L8 after the insertion position PT are copied to the buffer of FIG.

【0114】次に、図8(E)に示すように、図8
(C)の挿入位置PT以降のノートイベントN3及びN
4に、クリップボード(図8(B))の歌詞イベントL
5及びL6を割り当てる。
Next, as shown in FIG.
(C) Note events N3 and N after the insertion position PT
4, the lyrics event L on the clipboard (Fig. 8 (B))
Assign 5 and L6.

【0115】次に、図8(F)に示すように、図8
(E)のノートプラスデータ中の第5行目「N5,L
5」以降に、バッファ(図8(D))内の歌詞イベント
L3〜L8を割り当てる。ただし、ノートイベントN8
よりも後ろにはノートイベントがないので、ノートイベ
ントN8に残りの歌詞イベントL6〜8をまとめて割り
当てる。その結果、図8(F)のノートプラスデータに
は、挿入位置PTに歌詞イベントL5及びL6が挿入さ
れたことになる。
Next, as shown in FIG.
The fifth line “N5, L in the note plus data of (E)
5 ”and thereafter, the lyrics events L3 to L8 in the buffer (FIG. 8D) are allocated. However, note event N8
Since there is no note event behind that, the remaining lyrics events L6 to 8 are assigned to the note event N8 all together. As a result, the lyrics events L5 and L6 are inserted at the insertion position PT in the note plus data of FIG. 8 (F).

【0116】図9は、上記の歌詞イベント挿入処理を実
現するためのフローチャートである。
FIG. 9 is a flow chart for realizing the above-mentioned lyrics event insertion processing.

【0117】ステップSE1では、任意行数RGの歌詞
イベントを指定し(図8(A))、クリップボード(図
8(B))にコピーする。
At step SE1, a lyrics event having an arbitrary number of lines RG is designated (FIG. 8A) and copied to the clipboard (FIG. 8B).

【0118】ステップSE2では、歌詞イベントの挿入
位置PTを指定する(図8(C))。
At step SE2, the insertion position PT of the lyrics event is designated (FIG. 8 (C)).

【0119】ステップSE3では、挿入位置PT以降の
歌詞イベントをバッファ(図8(D))にコピーする。
At step SE3, the lyrics event after the insertion position PT is copied to the buffer (FIG. 8D).

【0120】ステップSE4では、クリップボード(図
8(B))の歌詞イベントを、挿入位置PTから挿入行
数RG分だけノートプラスデータに割り当てる(図8
(E))。
At step SE4, the lyrics events on the clipboard (FIG. 8B) are assigned to the note plus data by the number RG of inserted lines from the insertion position PT (FIG. 8).
(E)).

【0121】ステップSE5では、バッファ(図8
(D))の歌詞イベントを、挿入位置PTから挿入行数
RG分より後ろのノートプラスデータに割り当てる(図
8(F))。以上で、歌詞イベント挿入処理を終了す
る。
At step SE5, the buffer (see FIG.
The lyrics event (D) is assigned to the note plus data after the insertion line number RG from the insertion position PT (FIG. 8 (F)). This is the end of the lyrics event insertion process.

【0122】なお、図8(A)のノートプラスデータに
所望の歌詞イベントを挿入して、図8(F)のノートプ
ラスデータを生成する方法は上記以外の方法でもよい。
The method of inserting the desired lyric event into the note plus data of FIG. 8A to generate the note plus data of FIG. 8F may be a method other than the above.

【0123】図10(A)〜(E)は、歌詞イベント削
除処理を説明するための図である。図10(A)は、ノ
ートプラスデータの例を示す。操作者は、マウス等を用
いて、削除したい歌詞イベントの範囲RGを指定するこ
とができる。例えば、範囲RGとして、歌詞イベントL
3及びL4を指定することができる。
FIGS. 10A to 10E are diagrams for explaining the lyrics event deletion process. FIG. 10A shows an example of note plus data. The operator can use the mouse or the like to specify the range RG of the lyrics event to be deleted. For example, as the range RG, the lyrics event L
3 and L4 can be specified.

【0124】まず、図10(B)のクリップボードに、
範囲RG内の歌詞イベントL3及びL4をコピーする。
このクリップボードの内容は、この後の処理で使用する
ことはないが、必要に応じて図8(B)のクリップボー
ドとして使用することができる。
First, in the clipboard of FIG. 10 (B),
Copy the lyrics events L3 and L4 within the range RG.
Although the contents of this clipboard are not used in the subsequent processing, they can be used as the clipboard of FIG. 8B if necessary.

【0125】次に、図10(C)のバッファに、範囲R
Gより後ろの歌詞イベントL5〜L8をコピーする。
Next, the range R is stored in the buffer of FIG.
Copy the lyrics events L5 to L8 behind G.

【0126】次に、図10(D)に示すように、図10
(A)の範囲RG以降の歌詞イベントL3〜L8を削除
する。
Next, as shown in FIG.
The lyrics events L3 to L8 after the range RG in (A) are deleted.

【0127】次に、図10(E)に示すように、図10
(D)の範囲RG以降のノートイベントN3〜N8に、
バッファ(図10(C))内の歌詞イベントL5〜L8
を割り当てる。ただし、歌詞イベントL3及びL4を削
除したため、最後のノートイベントN7及びN8には空
白行の歌詞イベントが割り当てられる。図10(E)の
ノートプラスデータでは、歌詞イベントL3及びN4が
削除されたため、歌詞イベントL2の次に歌詞イベント
L5が続く。
Next, as shown in FIG.
In the note events N3 to N8 after the range RG of (D),
Lyrics events L5 to L8 in the buffer (FIG. 10C)
Assign However, since the lyrics events L3 and L4 are deleted, the last note events N7 and N8 are assigned blank line lyrics events. In the note plus data of FIG. 10 (E), since the lyrics events L3 and N4 are deleted, the lyrics event L5 follows the lyrics event L2.

【0128】図11は、上記の歌詞イベント削除処理を
実現するためのフローチャートである。
FIG. 11 is a flow chart for realizing the above-mentioned lyrics event deletion processing.

【0129】ステップSF1では、削除すべき任意行数
RGの歌詞イベントを指定し(図10(A))、クリッ
プボード(図10(B))にコピーする。
At step SF1, a lyrics event of an arbitrary number of lines RG to be deleted is designated (FIG. 10 (A)) and copied to the clipboard (FIG. 10 (B)).

【0130】ステップSF2では、削除される行RGよ
り後ろの歌詞イベントをバッファ(図10(C))にコ
ピーする。
At step SF2, the lyrics event after the deleted row RG is copied to the buffer (FIG. 10C).

【0131】ステップSF3では、削除される行RG以
降の歌詞データを消去する(図10(D))。
At step SF3, the lyrics data on and after the line RG to be deleted is erased (FIG. 10 (D)).

【0132】ステップSF4では、バッファ(図10
(C))の歌詞イベントを、削除行RG以降のノートプ
ラスデータに割り当てる(図10(E))。以上で、歌
詞イベント削除処理を終了する。
At step SF4, the buffer (see FIG.
The lyrics event of (C)) is assigned to the note plus data on and after the deleted row RG (FIG. 10 (E)). This is the end of the lyrics event deletion process.

【0133】歌詞イベント削除処理は、演奏データをア
レンジしてノートイベントの数が少なくなったり、歌詞
データの入力ミスにより歌詞イベントの数が多くなった
場合等に有効な処理である。
The lyric event deleting process is effective when the number of note events is reduced by arranging performance data, or when the number of lyric events is increased due to an erroneous input of lyric data.

【0134】なお、図10(A)のノートプラスデータ
から所望の歌詞イベントを削除して図10(E)のノー
トプラスデータを生成する方法は上記以外の方法でもよ
い。
The method of deleting the desired lyric event from the note plus data of FIG. 10 (A) to generate the note plus data of FIG. 10 (E) may be a method other than the above.

【0135】図12(A)〜(D)は、第1の歌詞自動
割り当て処理を説明するための図である。
FIGS. 12A to 12D are diagrams for explaining the first lyrics automatic allocation processing.

【0136】図12(A)は、ノートプラスデータの例
を示す。操作者は、マウス等を用いて、自動割り当てを
行いたいノートプラスイベントの範囲RGを指定するこ
とができる。例えば、範囲RGとして、第2〜6のノー
トプラスイベントを指定することができる。
FIG. 12A shows an example of note plus data. The operator can use the mouse or the like to specify the range RG of the note plus event to be automatically assigned. For example, the second to sixth note plus events can be designated as the range RG.

【0137】まず、図12(B)のバッファに、範囲R
G内の歌詞イベント「いうえおかきく」をコピーする。
First, the range R is stored in the buffer of FIG.
Copy the lyrics event "Iou Okakiku" in G.

【0138】次に、図12(C)に示すように、図12
(A)の範囲RG内の歌詞イベントを削除する。
Next, as shown in FIG.
The lyrics event in the range RG of (A) is deleted.

【0139】次に、図12(D)に示すように、図12
(D)の範囲RG内のノートイベントN2〜N6に、バ
ッファ(図12(B))内の歌詞イベント「いうえおか
きく」を1文字ずつ割り当てる。ただし、最後のノート
イベントN6には、残りの文字列「かきく」を割り当て
る。図12(D)のノートプラスデータでは、範囲RG
内のノートイベントN2〜N5にそれぞれ1文字ずつ割
り当てられ、ノートイベントN6に3文字「かきく」が
割り当てられる。基本的に、1音符に1文字(音節)が
割り当てられる。
Next, as shown in FIG.
To the note events N2 to N6 in the range RG of (D), the lyric event “Iouokakiku” in the buffer (FIG. 12B) is assigned character by character. However, the remaining note string N6 is assigned to the last note event N6. In the note plus data of FIG. 12D, the range RG
One character is assigned to each of the note events N2 to N5, and three characters “Kakiku” are assigned to the note event N6. Basically, one character is assigned to one note (syllable).

【0140】第1の歌詞自動割り当て処理は、範囲RG
の行数内で、すなわち、行数を増減させることなく、各
行に自動的に歌詞イベントを割り当てる処理である。
The first lyrics automatic allocation processing is performed in the range RG.
Within this number of lines, that is, without increasing or decreasing the number of lines, a lyrics event is automatically assigned to each line.

【0141】図13は、上記の第1の歌詞自動割り当て
処理を実現するためのフローチャートである。
FIG. 13 is a flow chart for realizing the above-mentioned first lyrics automatic allocation processing.

【0142】ステップSG1では、歌詞を自動割り当て
する複数行RGを選択する(図12(A))。
In step SG1, a plurality of lines RG to which lyrics are automatically assigned are selected (FIG. 12 (A)).

【0143】ステップSG2では、選択された複数行R
Gに含まれる歌詞イベントをバッファ(図12(B))
にコピーする。ただし、歌詞イベントが音素列により構
成されているときには、バッファ中の音素列を文字デー
タに変換する。
At step SG2, the selected plural rows R
Buffer the lyrics event included in G (Fig. 12 (B))
To copy. However, when the lyrics event is composed of a phoneme string, the phoneme string in the buffer is converted into character data.

【0144】ステップSG3では、選択された複数行R
G内の歌詞イベントを消去する(図12(C))。
In step SG3, the selected plural rows R
The lyrics event in G is deleted (FIG. 12 (C)).

【0145】ステップSG4では、バッファ(図12
(B))内の文字列データを、選択された複数行RGの
ノートプラスデータに割り当てる(図12(D))。以
上で、第1の歌詞自動割り当て処理を終了する。
At step SG4, the buffer (FIG.
The character string data in (B)) is assigned to the note plus data of the selected plural rows RG (FIG. 12D). This is the end of the first lyrics automatic allocation processing.

【0146】図14(A)、(B)は、空白行自動挿入
処理を説明するための図である。図14(A)は、ノー
トプラスデータの例を示す。操作者は、マウス等を用い
て、空白行を挿入したい行RGを選択することができ
る。例えば、選択行RGとして、第4行のノートプラス
イベントを指定することができる。
14A and 14B are views for explaining the blank line automatic insertion processing. FIG. 14A shows an example of note plus data. The operator can select a row RG in which a blank row is to be inserted by using a mouse or the like. For example, the note plus event in the fourth row can be designated as the selected row RG.

【0147】まず、選択行RG内の歌詞イベントを構成
する文字数をカウントする。例えば、歌詞イベント「お
かきく」の文字数は4文字である。
First, the number of characters forming the lyrics event in the selected row RG is counted. For example, the number of characters in the lyrics event "Okakiku" is four.

【0148】次に、図14(B)に示すように、「当該
文字数−1」行の空白行を、選択行RGの位置に挿入す
る。例えば、4−1=3行の空白行を挿入する。選択行
RG以降のノートイベントN4〜N6には空白行が割り
当てられ、ノートイベントN7に歌詞イベント「おかき
く」が割り当てられる。
Next, as shown in FIG. 14B, a blank line of "the number of characters-1" is inserted at the position of the selected line RG. For example, 4-1 = 3 blank lines are inserted. A blank line is assigned to the note events N4 to N6 after the selected line RG, and a lyric event "Okakiku" is assigned to the note event N7.

【0149】なお、選択行RGの歌詞イベント「おかき
く」の前に空白行を挿入する場合に限定されず、歌詞イ
ベント「おかきく」の後ろに空白行を挿入してもよい。
The blank line may be inserted after the lyrics event "Okakiku" without being limited to the case where the blank line is inserted before the lyrics event "Okakiku" of the selected line RG.

【0150】この後、第4行〜第7行を選択して、図1
2に示した第1の歌詞自動割り当て処理を行えば、当該
空白行に歌詞イベントを割り当てることができる。具体
的には、「N4,お」、「N5,か」、「N6,き」、
「N7,く」のように割り当てることができる。
After that, the fourth to seventh rows are selected and the lines shown in FIG.
By performing the first lyrics automatic allocation processing shown in 2, it is possible to allocate the lyrics event to the blank line. Specifically, "N4, oh", "N5, ka", "N6, ki",
It can be assigned like "N7, Ku".

【0151】図15は、上記の空白行自動挿入処理を実
現するためのフローチャートである。
FIG. 15 is a flow chart for realizing the above blank line automatic insertion processing.

【0152】ステップSH1では、空白行を自動挿入す
る行RGを選択する(図14(A))。
In step SH1, a row RG in which a blank row is automatically inserted is selected (FIG. 14 (A)).

【0153】ステップSH2では、選択された行RG内
の歌詞イベントの文字数を検出する。歌詞イベントが音
素列により構成されるときには、音素列を文字に換算し
てから文字数を検出する。
At step SH2, the number of characters of the lyrics event in the selected row RG is detected. When the lyric event is composed of a phoneme string, the phoneme string is converted into characters and then the number of characters is detected.

【0154】ステップSH3では、「文字数−1」の行
数の空白行を選択行RGの位置に挿入する。この挿入
は、上記空白行挿入と同様に、バッファを用いて行うこ
とができる。以上で、空白行自動挿入処理を終了する。
In step SH3, blank lines having the number of characters "-1" are inserted at the position of the selected line RG. This insertion can be performed using a buffer as in the blank line insertion described above. This is the end of the blank line automatic insertion process.

【0155】図16(A)〜(D)は、第2の歌詞自動
割り当て処理を説明するための図である。
FIGS. 16A to 16D are diagrams for explaining the second lyrics automatic allocation processing.

【0156】図16(A)は、ノートプラスデータの例
を示す。操作者は、マウス等を用いて、自動割り当てを
行いたいノートプラスイベントの範囲RGを指定するこ
とができる。例えば、範囲RGとして、第2〜6のノー
トプラスイベントを指定することができる。
FIG. 16A shows an example of note plus data. The operator can use the mouse or the like to specify the range RG of the note plus event to be automatically assigned. For example, the second to sixth note plus events can be designated as the range RG.

【0157】まず、図16(B)のバッファに、範囲R
G内の歌詞イベント「いうえおかきく」をコピーする。
First, the range R is stored in the buffer of FIG.
Copy the lyrics event "Iou Okakiku" in G.

【0158】次に、図16(C)に示すように、バッフ
ァ内の文字数(7文字)が範囲RGの行数(5行)より
も2文字多いので、2行の空白行を範囲RGの位置に挿
入する。
Next, as shown in FIG. 16C, since the number of characters (7 characters) in the buffer is two characters more than the number of lines (5 lines) in the range RG, two blank lines are added to the range RG. Insert in position.

【0159】次に、図16(D)に示すように、選択行
RGの位置からバッファ(図16(B))内の文字数
(7文字)までの数のノートイベントN2〜N8に、バ
ッファ内の文字列「いうえおかきく」を1文字ずつ割り
当てる。ノートイベントN2〜N8には、それぞれ1文
字の歌詞イベントが割り当てられる。
Next, as shown in FIG. 16 (D), the number of note events N2 to N8 from the position of the selected row RG to the number of characters (7 characters) in the buffer (FIG. 16 (B)) are changed in the buffer. Allocate the character string “Iue Okakiku” one by one. A one-character lyrics event is assigned to each of the note events N2 to N8.

【0160】第2の歌詞自動割り当て処理は、選択され
た行RGに含まれる全ての文字が、必ず1ノートイベン
トに付き1文字割り当てられるようにする処理である。
The second lyrics automatic allocation processing is processing for ensuring that all the characters included in the selected line RG are allocated one character per one note event.

【0161】図17は、上記の第2の歌詞自動割り当て
処理を実現するためのフローチャートである。
FIG. 17 is a flow chart for realizing the above-mentioned second lyrics automatic allocation processing.

【0162】ステップSI1では、歌詞を自動割り当て
する複数行RGのノートプラスイベントを選択する(図
16(A))。
At step SI1, a note plus event of a plurality of lines RG to which lyrics are automatically assigned is selected (FIG. 16 (A)).

【0163】ステップSI2では、選択された複数行R
G内の歌詞イベントをバッファ(図16(B))にコピ
ーする。ただし、歌詞イベントが音素列により構成され
ているときには、バッファ中の音素列を文字データに変
換する。
At step SI2, the selected plural rows R
The lyrics event in G is copied to the buffer (FIG. 16 (B)). However, when the lyrics event is composed of a phoneme string, the phoneme string in the buffer is converted into character data.

【0164】ステップSI3では、バッファ内の文字数
を検出する。ステップSI4では、選択された行数RG
と検出された文字数を比較する。
At step SI3, the number of characters in the buffer is detected. In step SI4, the number of selected rows RG
And the number of characters detected.

【0165】ステップSI5では、比較した行数が等し
いか、多いか、少ないかをチェックする。行数が多いと
きにはステップSI6へ進み、余分な行数を削除し、ス
テップSI8へ進む。行数が少ないときにはステップS
I7へ進み、足りない行数を挿入し(図16(C))、
ステップSI8へ進む。行数が等しいときには、行数を
変更せずに、ステップSI8へ進む。
At step SI5, it is checked whether the compared numbers of rows are equal, large, or small. When the number of lines is large, the process proceeds to step SI6, the extra number of lines is deleted, and the process proceeds to step SI8. When the number of lines is small, step S
Proceed to I7, insert the missing number of lines (Fig. 16 (C)),
Go to step SI8. When the number of lines is the same, the process proceeds to step SI8 without changing the number of lines.

【0166】ステップSI8では、バッファ内の文字列
データを、選択行RGの先頭行から、選択行RGの行数
だけ、又は削除後の行数だけ、又は挿入後の行数だけ、
ノートプラスイベントに割り当てる(図16(D))。
以上で、第2の歌詞自動割り当て処理を終了する。
In step SI8, the character string data in the buffer is deleted from the first row of the selected row RG by the number of selected rows RG, the number of deleted rows, or the number of inserted rows.
It is assigned to a note plus event (FIG. 16 (D)).
This completes the second lyrics automatic allocation processing.

【0167】図18(A)〜(D)は、複数行併合処理
を説明するための図である。図18(A)は、ノートプ
ラスデータの例を示す。ノートプラスデータは、ノート
プラスイベント「N1,あ」、「N2,い」、「N3,
う」、「N4,え」、「N5,お」を有する。
FIGS. 18A to 18D are views for explaining the plural line merging process. FIG. 18A shows an example of note plus data. The note plus data is the note plus event "N1, a", "N2, i", "N3.
U ”,“ N4, E ”, and“ N5, O ”.

【0168】操作者は、マウス等を用いて、併合するノ
ートプラスイベントの範囲RGを指定することができ
る。例えば、範囲RGとして、第2及び3のノートプラ
スイベントを指定することができる。
The operator can specify the range RG of note plus events to be merged by using a mouse or the like. For example, the second and third note plus events can be designated as the range RG.

【0169】まず、図18(B)のバッファに、範囲R
G内の歌詞イベント「いう」をコピーする。
First, the range R is stored in the buffer of FIG.
Copy the lyrics event "say" in G.

【0170】次に、図18(C)に示すように、範囲R
G内の先頭行の歌詞イベント「い」だけを残し、残りの
行の歌詞イベント「う」を削除する。範囲RGより後ろ
の歌詞イベント「え、お」は、前の行に詰められる。ノ
ートプラスデータは、ノートプラスイベント「N1,
あ」、「N2,い」、「N3,え」、「N4,お」、
「N5,_」を有する。
Next, as shown in FIG. 18C, the range R
Only the lyrics event "i" in the first line in G is left, and the lyrics event "u" in the remaining lines is deleted. The lyric event "E, O" behind the range RG is packed in the previous line. The note plus data is the note plus event "N1,
"A", "N2, I", "N3, E", "N4, O",
It has “N5, _”.

【0171】次に、図18(D)に示すように、範囲R
G内の先頭行のノートイベントN2に、バッファ内の文
字列「いう」を割り当てる。第2のノートイベントN2
には、範囲RG内の歌詞イベント「いう」が併合されて
割り当てられる。
Next, as shown in FIG. 18D, the range R
The character string "say" in the buffer is assigned to the note event N2 in the first row in G. Second note event N2
, The lyrics event “say” within the range RG is merged and assigned.

【0172】上記の第1又は第2の歌詞自動割り当て処
理では、1つのノートイベントに1文字の歌詞イベント
が割り当てたが、その後にこの複数行併合処理を利用す
ることにより、1つのノートイベントに2文字以上の歌
詞イベントを割り当てるように修正することができる。
In the above-mentioned first or second lyrics automatic allocation processing, one note event is allocated to one note event. However, by using this plural line merging processing, one note event is allocated. It can be modified to assign a lyric event of two or more characters.

【0173】図19は、上記の複数行併合処理を実現す
るためのフローチャートである。ステップSJ1では、
歌詞イベントを併合する複数行RGを選択する(図18
(A))。
FIG. 19 is a flow chart for realizing the above-mentioned plural line merging process. In step SJ1,
Select multiple row RGs that merge lyrics events (Fig. 18
(A)).

【0174】ステップSJ2では、選択された複数行R
G内の歌詞イベントをバッファ(図18(B))にコピ
ーする。ただし、歌詞イベントが音素列により構成され
ているときには、バッファ中の音素列を文字データに変
換する。
At step SJ2, the selected plural rows R
The lyrics event in G is copied to the buffer (FIG. 18 (B)). However, when the lyrics event is composed of a phoneme string, the phoneme string in the buffer is converted into character data.

【0175】ステップSJ3では、選択された複数行R
Gのうち、1行を残して残りの行の歌詞イベントを削除
する(図18(C))。削除された後の歌詞イベント
は、前の行に詰められる。
At step SJ3, the selected plural rows R
Of G, one line is left and the lyrics events of the remaining lines are deleted (FIG. 18C). The lyrics event after being deleted is packed in the previous line.

【0176】ステップSJ4では、バッファ内の文字列
データを、範囲RG内の残った行のノートプラスデータ
内のノートイベントに割り当てる(図18(D))。以
上で、複数行併合処理を終了する。
In step SJ4, the character string data in the buffer is assigned to the note event in the note plus data of the remaining lines in the range RG (FIG. 18 (D)). This completes the multi-line merging process.

【0177】図20(A)、(B)は、歌詞イベント分
割処理を説明するための図である。図20(A)は、ノ
ートプラスデータの例を示す。ノートプラスデータは、
ノートプラスイベント「N1,あ」、「N2,いう」、
「N3,え」を有する。
20 (A) and 20 (B) are diagrams for explaining the lyrics event division processing. FIG. 20A shows an example of note plus data. Note Plus data is
Note plus event "N1, a", "N2, say",
Has "N3, E".

【0178】操作者は、マウス等を用いて、歌詞イベン
トの分割を行いたい行RGを選択し、その行内で分割を
行いたい文字位置にカーソルCSを設定する。例えば、
範囲RGとして、第2のノートプラスイベント「N2,
いう」を選択し、カーソルCSを「い」と「う」の間に
設定する。その後、操作者がリターンキー(実行キー)
を操作することにより、以下の分割処理が行われる。
The operator uses the mouse or the like to select the line RG in which the lyrics event is to be divided, and sets the cursor CS to the character position in the line where the division is desired. For example,
As the range RG, the second note plus event “N2,
"I" is selected and the cursor CS is set between "I" and "U". After that, the operator presses the return key (execute key)
The following division processing is performed by operating.

【0179】図20(B)に示すように、文字「い」と
「う」とが分割される。ノートプラスデータは、ノート
プラスイベント「N1,あ」、「N2,い」、「N3,
うえ」を有する。カーソルCSの後ろの文字「う」は、
選択行RGの後ろの行の歌詞イベント「え」と併合され
る。
As shown in FIG. 20B, the characters "i" and "u" are divided. The note plus data is the note plus event "N1, a", "N2, i", "N3.
Have "up". The character "U" behind the cursor CS is
It is merged with the lyrics event "E" in the line after the selected line RG.

【0180】空白行の歌詞イベントを多数挿入しておき
(図6)、先頭から順番に歌詞を割り当てる際に便利で
ある。
This is convenient when a large number of lyrics events in blank lines are inserted (FIG. 6) and lyrics are sequentially assigned from the beginning.

【0181】図21は、上記の歌詞イベント分割処理を
実現するためのフローチャートである。
FIG. 21 is a flow chart for realizing the above-mentioned lyrics event division processing.

【0182】ステップSK1では、分割する歌詞イベン
トを含む行RGを選択する(図20(A))。
At step SK1, the row RG including the lyrics event to be divided is selected (FIG. 20 (A)).

【0183】ステップSK2では、マウス操作等により
分割位置にカーソルCSを設定する(図20(A))。
At step SK2, the cursor CS is set at the division position by operating the mouse or the like (FIG. 20 (A)).

【0184】ステップSK3では、リターンキーの操作
に応じて、分割位置以降の歌詞イベントをその次の行の
ノートプラスデータ内の歌詞イベントに追加する(図2
0(B))。以上で、歌詞イベント分割処理を終了す
る。
At step SK3, the lyrics event after the division position is added to the lyrics event in the note plus data of the next line in response to the operation of the return key (FIG. 2).
0 (B)). This is the end of the lyrics event division process.

【0185】図22(A)〜(C)は、仮名変換処理を
説明するための図である。図22(A)は、ノートプラ
スデータの例を示す。ノートプラスデータは、ノートプ
ラスイベント「N1,あか」、「N2,い」、「N3,
夕」、「N4,日」を有する。
22A to 22C are diagrams for explaining the kana conversion processing. FIG. 22A shows an example of note plus data. The note plus data is the note plus event "N1, red", "N2, i", "N3.
"Evening" and "N4, day".

【0186】操作者は、マウスを用いて、仮名変換を行
いたい歌詞イベント「夕」の位置にマウスポインタ71
を移動し、マウスの右ボタンをクリックする。
The operator uses the mouse to move the mouse pointer 71 to the position of the lyric event "evening" for which kana conversion is desired.
Move and click the right mouse button.

【0187】図22(B)に示すように、歌詞イベント
「夕」の読み仮名候補がメニュー72に表示される。メ
ニュー72には、例えば「ゆう」、「せき」が表示され
る。操作者は、適切な読み仮名である文字列「ゆう」の
位置にマウスポインタ71を移動させ、マウスの左ボタ
ンをクリックする。
As shown in FIG. 22B, the phonetic candidate for the lyrics event "evening" is displayed on the menu 72. In the menu 72, for example, "Yu" and "cough" are displayed. The operator moves the mouse pointer 71 to the position of the proper reading kana character string "Yu" and clicks the left button of the mouse.

【0188】図22(C)に示すように、ノートイベン
トN3に割り当てられる歌詞イベントは漢字「夕」から
仮名「ゆう」に変換される。漢字の他、英数字や記号等
も仮名に変換することができる。漢字や英数字等を仮名
に変換すれば、その後に仮名から音素列に変換すること
ができるので(図5)、音素列の発音が可能になる。
As shown in FIG. 22C, the lyric event assigned to the note event N3 is converted from the Chinese character "evening" to the kana "Yu." In addition to kanji, alphanumeric characters and symbols can be converted into kana. If kanji or alphanumeric characters are converted to kana, then the kana can be converted to a phoneme string (FIG. 5), so that the phoneme string can be pronounced.

【0189】図23は、上記の仮名変換処理を実現する
ためのフローチャートである。ステップSL1では、仮
名変換する文字の行をマウスポインタ71で指定する
(図22(A))。
FIG. 23 is a flow chart for realizing the above-mentioned kana conversion processing. In step SL1, the line of characters to be converted into kana is designated by the mouse pointer 71 (FIG. 22 (A)).

【0190】ステップSL2では、マウスの右ボタンが
クリックされると、選択文字に対応する読み仮名をデー
タベースから検索し、読み仮名候補として表示する(図
22(B))。データベースは、漢字等から仮名への変
換するための辞書であり、外部記憶装置13又はRAM
3等に記憶される。
In step SL2, when the right mouse button is clicked, the phonetic alphabet corresponding to the selected character is retrieved from the database and displayed as a phonetic kana candidate (FIG. 22B). The database is a dictionary for converting Kanji or the like into kana, and is an external storage device 13 or RAM.
3 etc. are stored.

【0191】ステップSL3では、読み仮名候補のいず
れかをマウスポインタ71で指定する(図22
(B))。
At step SL3, one of the reading kana candidates is designated by the mouse pointer 71 (FIG. 22).
(B)).

【0192】ステップSL4では、マウスの左ボタンが
クリックされると、指定された読み仮名候補を指定行の
文字列として、ノートプラスデータ内のノートイベント
に割り当てる(図22(C))。以上で、仮名変換処理
を終了する。
In step SL4, when the left mouse button is clicked, the designated phonetic kana candidate is assigned to the note event in the note plus data as the character string of the designated line (FIG. 22 (C)). This is the end of the kana conversion processing.

【0193】以上のようにして作成されたノートプラス
イベント(図5の音素列変換処理によって文字列を音素
列に変換したもの)を、外部音源装置21へと供給する
ことによって、外部音源装置21内の音声合成回路32
において、歌唱音声信号を生成させることができる。な
お、本実施の形態において説明した音声データ処理装置
(パーソナルコンピュータ1)においては、ノートプラ
スデータを、そのままの形式で再生処理可能な、いわ
ば、専用の音声データ処理装置である。この音声データ
処理装置は、ノートイベントと歌詞イベント(音素列)
を適切な順序で送信することができる。
By supplying the note-plus event (character string converted into a phoneme string by the phoneme string conversion processing of FIG. 5) created as described above to the external sound source device 21, the external sound source device 21 Voice synthesis circuit 32
In, a singing voice signal can be generated. The audio data processing device (personal computer 1) described in the present embodiment is a so-called dedicated audio data processing device capable of reproducing the note plus data in the same format. This voice data processor is a note event and a lyrics event (phoneme sequence).
Can be sent in the proper order.

【0194】ここで、ノートイベントと歌詞イベントを
送信する際の適切な順序について説明する。図24
(A)、(B)は、ノートイベントと歌詞イベントの送
信順序を説明するための図である。ノートプラスイベン
トは、例えばノートイベントN1と歌詞イベントL1の
組である(図6(A)))。ノートイベントN1と歌詞
イベントL1は理論上は同じタイミングで送信するべき
であるが、MIDI通信はシリアル通信であるため、い
ずれを先に外部音源装置21(図1)へ送信すべきかが
問題になる。ノートイベントN1はノートオンイベント
に変換されて送信される。歌詞イベントは音素列に変換
(図5)されて送信される。
Now, an appropriate sequence for transmitting the note event and the lyrics event will be described. Figure 24
(A), (B) is a figure for demonstrating the transmission order of a note event and a lyrics event. The note plus event is, for example, a set of a note event N1 and a lyrics event L1 (FIG. 6 (A)). The note event N1 and the lyrics event L1 should theoretically be transmitted at the same timing, but since MIDI communication is serial communication, there is a problem which one should be transmitted to the external sound source device 21 (FIG. 1) first. . The note event N1 is converted into a note-on event and transmitted. The lyrics event is converted into a phoneme string (FIG. 5) and transmitted.

【0195】図24(A)は、音素列、ノートオンの順
序で送信するタイミングを示す。まず、音節「あ」に対
応する音素列「aj」を送信する。その後にノートオン
を送信すると、そのタイミングで「あ」の発音が開始す
る。次に、音節「い」に対応する音素列「ij」を送信
する。その後にノートオンを送信すると、そのタイミン
グで「あ」から「い」に発音が切り換わる。次に、音節
「う」に対応する音素列「uj」を送信する。その後に
ノートオンを送信すると、そのタイミングで「い」から
「う」に発音が切り換わる。
FIG. 24A shows the timing of transmission in the order of phoneme sequence and note-on. First, the phoneme sequence “aj” corresponding to the syllable “a” is transmitted. After that, when a note-on is sent, the pronunciation of "a" starts at that timing. Next, the phoneme string “ij” corresponding to the syllable “I” is transmitted. After that, when a note-on is sent, the pronunciation is switched from "a" to "i" at that timing. Next, the phoneme string "uj" corresponding to the syllable "u" is transmitted. When a note-on is sent after that, the pronunciation is switched from "i" to "u" at that timing.

【0196】図24(A)では、ノートオン(ノートイ
ベント)と音素列(歌詞イベント)との対応がとれてお
り、適正な歌を歌わせることができる。
In FIG. 24A, note-on (note event) and phoneme string (lyric event) are associated with each other, and an appropriate song can be sung.

【0197】図24(B)は、ノートオン、音素列の順
序で送信するタイミングを示す。まず、ノートオンを送
信する。この時点では、音素列が設定されていないの
で、例えば「あ」等の初期設定されている音素列が発音
を開始する。その後、音節「あ」に対応する音素列「a
j」を送信する。この時点では、発音に変化はなく初期
設定されている「あ」の発音が持続される。次に、ノー
トオンを送信すると、そのタイミングで初期設定された
音素列「あ」の発音から、送信された音素列「あ」の発
音に切り換わる。その後に、音節「い」に対応する音素
列「ij」を送信するが、発音に影響はない。次に、ノ
ートオンを送信すると、そのタイミングで「あ」から
「い」に発音が切り換わる。その後に、音節「う」に対
応する音素列「uj」を送信するが、発音に影響はな
い。
FIG. 24B shows the timing of transmission in the order of note-on and phoneme sequence. First, note-on is transmitted. At this point in time, since the phoneme string is not set, the initially set phoneme string such as "A" starts to sound. After that, the phoneme sequence "a" corresponding to the syllable "a"
j ”is transmitted. At this point, there is no change in pronunciation, and the initially set pronunciation of "A" is maintained. Next, when the note-on is transmitted, the pronunciation of the phoneme string “A” which is initially set at that timing is switched to the pronunciation of the transmitted phoneme string “A”. After that, the phoneme string "ij" corresponding to the syllable "i" is transmitted, but the pronunciation is not affected. Next, when a note-on is transmitted, the pronunciation is switched from "a" to "i" at that timing. After that, the phoneme string "uj" corresponding to the syllable "u" is transmitted, but the pronunciation is not affected.

【0198】図24(B)では、ノートオン(ノートイ
ベント)と音素列(歌詞イベント)との対応がとれてい
ず、1つのノート分だけ遅れて歌詞が発音されてしま
う。これでは、適正な歌を歌わせることができない。
In FIG. 24B, the note-on (note event) and the phoneme sequence (lyric event) are not associated with each other, and the lyrics are pronounced with a delay of one note. With this, the proper song cannot be sung.

【0199】外部音源装置21には、図24(A)に示
したように、まず音素列を送信し、その後、対応するノ
ートオンを送信する必要がある。上述したように、この
実施の形態における音声データ処理装置は、ノートプラ
スデータを正しく扱うことができる装置であり、つ1の
ノートプラスイベントについて、先に音素列を送信した
後、ノートオンを送信するようになっている。ところ
が、本音声データ処理装置以外のシーケンサ等において
は、ノートプラスイベントを正しく扱うとこができな
い。このため、本音声データ処理装置は、ノートプラス
データを、より汎用的なスタンダードMIDIファイル
に変換する機能を備えている。このとき、単純にスタン
ダードMIDIファイルに変換するだけでは、後述する
ような不都合が生じてしまう可能性があるため、上述し
たような送信順序を考慮しての変換をするようにしてい
る。以下、ノートイベントと歌詞イベント(音素列)の
送信順序を考慮して、ノートプラスデータを、スタンダ
ードMIDIファイルに変換する方法を説明する。
As shown in FIG. 24A, it is necessary to first transmit the phoneme string and then the corresponding note-on to the external tone generator 21. As described above, the voice data processing device according to the present embodiment is a device that can correctly handle note-plus data, and transmits the phoneme sequence first and then the note-on for the one note-plus event. It is supposed to do. However, note-plus events cannot be handled correctly in a sequencer or the like other than this voice data processing device. Therefore, the audio data processing device has a function of converting the note plus data into a more general-purpose standard MIDI file. At this time, if the standard MIDI file is simply converted, the inconvenience described below may occur. Therefore, the conversion is performed in consideration of the transmission order as described above. Hereinafter, a method of converting the note plus data into a standard MIDI file will be described in consideration of the transmission order of the note event and the lyrics event (phoneme string).

【0200】図25は、ノートプラスデータ75をスタ
ンダードMIDIファイル76に変換する方法を説明す
るための図である。
FIG. 25 is a diagram for explaining a method of converting the note plus data 75 into a standard MIDI file 76.

【0201】ノートプラスデータ75は、順にノートイ
ベントN1、歌詞イベントL1、デュレーションT2、
ノートイベントN2、歌詞イベントL2、デュレーショ
ンT3を有する。
The note plus data 75 includes note event N1, lyrics event L1, duration T2, and
It has a note event N2, a lyrics event L2, and a duration T3.

【0202】ノートイベントN1は、ノートオンイベン
トNON1とゲートタイムGT1を有する。ノートオン
イベントNON1は、例えばノートナンバ(音高)、ベ
ロシティ(音量)を含む。ゲートタイムGT1は、ノー
トオンからノートオフまでの時間であり、例えば450
である。歌詞イベントL1は、音素列により構成され
る。ただし、呼気記号や漢字等は文字列として歌詞イベ
ントL1内に含まれる。
The note event N1 has a note-on event NON1 and a gate time GT1. The note-on event NON1 includes, for example, a note number (pitch) and velocity (volume). The gate time GT1 is the time from note-on to note-off, and is, for example, 450
Is. The lyrics event L1 is composed of a phoneme string. However, the exhalation symbol and the Chinese character are included in the lyrics event L1 as a character string.

【0203】ノートイベントN2は、ノートイベントN
1と同様に、ノートオンイベントNON2とゲートタイ
ムGT2を有する。ゲートタイムGT2は、例えば22
0である。歌詞イベントL2は、歌詞イベントL1と同
様に、音素列により構成される。
The note event N2 is a note event N.
Similar to 1, it has a note-on event NON2 and a gate time GT2. The gate time GT2 is, for example, 22
It is 0. Like the lyrics event L1, the lyrics event L2 is composed of a phoneme string.

【0204】デュレーションT2は、ノートオンイベン
トNON1の発音開始からノートオンイベントNON2
の発音開始までの時間であり、例えば480である。デ
ュレーションT3は、ノートオンイベントNON2の発
音開始から次のノートオンイベントの発音開始までの時
間であり、例えば240である。ゲートタイムやデュレ
ーションの値は、クロック数で表される。1クロック
は、例えば4分音符長の1/480の時間である。
The duration T2 is the note-on event NON2 from the start of sounding of the note-on event NON1.
Is the time until the start of the sound generation of, for example, 480. The duration T3 is the time from the start of sounding the note-on event NON2 to the start of sounding the next note-on event, and is, for example, 240. The gate time and the duration value are represented by the number of clocks. One clock is, for example, 1/480 of a quarter note length.

【0205】スタンダードMIDIファイル76は、M
IDI規格に適した汎用フォーマットのファイルであ
る。スタンダードMIDIファイル76は、デュレーシ
ョンとイベントの組で構成される。
The standard MIDI file 76 is M
It is a file in a general format suitable for the IDI standard. The standard MIDI file 76 is composed of a set of duration and event.

【0206】スタンダードMIDIファイル76は、順
に、歌詞イベントL1、デュレーションTT1、ノート
オンイベントNON1、デュレーションTT2、ノート
オフイベントNOFF1、デュレーションTT3、歌詞
イベントL2、デュレーションTT4、ノートオンイベ
ントNON2、デュレーションTT5、ノートオフイベ
ントNOFF2、デュレーションTT6を有する。
The standard MIDI file 76 includes, in order, the lyrics event L1, the duration TT1, the note-on event NON1, the duration TT2, the note-off event NOFF1, the duration TT3, the lyrics event L2, the duration TT4, the note-on event NON2, the duration TT5, and the note. It has an off event NOFF2 and a duration TT6.

【0207】歌詞イベントL1及びノートオンイベント
NON1は、ノートプラスデータ75中の歌詞イベント
L1及びノートオンイベントNON1と同じであるが、
並び順が異なる。歌詞イベントL1をノートオンイベン
トNON1よりも先に送信することにより、図24
(A)のように正常な歌を歌わせることができる。
The lyrics event L1 and the note-on event NON1 are the same as the lyrics event L1 and the note-on event NON1 in the note plus data 75,
The order is different. By transmitting the lyrics event L1 before the note-on event NON1,
A normal song can be sung like (A).

【0208】デュレーションTT1は、歌詞イベントL
1の送信からノートオンイベントNON1の送信までの
時間であり、例えば5である。歌詞イベントL1をノー
トオンイベントNON1よりも前のアドレスに位置する
のであれば、理論的にはデュレーションTT1は0でも
よいと考えることができる。
The duration TT1 is the lyrics event L
It is the time from the transmission of 1 to the transmission of the note-on event NON1, which is, for example, 5. If the lyric event L1 is located at an address before the note-on event NON1, it can be considered that the duration TT1 may be 0 theoretically.

【0209】しかし、デュレーションTT1を0にする
と、スタンダードMIDIファイルを送信するパーソナ
ルコンピュータ1又はシーケンサによって送信順序が異
なることがある。すなわち、デュレーションTT1を0
にすると、歌詞イベントL1、ノートオンイベントNO
N1の順で送信されるとは限らず、ノートオンイベント
NON1、歌詞イベントL1の順で送信されることがあ
る。さらに、デュレーションTT1が0でなく、1又は
2であるときにも同様な現象が生じる。
However, if the duration TT1 is set to 0, the transmission order may differ depending on the personal computer 1 or sequencer that transmits the standard MIDI file. That is, the duration TT1 is set to 0
If set to, lyrics event L1, note-on event NO
The note-on event NON1 and the lyrics event L1 may be transmitted in this order, not necessarily in the order of N1. Further, a similar phenomenon occurs when the duration TT1 is not 0 but 1 or 2.

【0210】これは、シーケンサ等が歌詞イベントL1
とノートオンイベントNON1との重要度を比較し、ノ
ートオンイベントNON1の重要度が高いと判断し、ノ
ートオンイベントNON1を歌詞イベントL1よりも先
に送信しているものと考えられる。なお、歌詞イベント
は、MIDI規格で決められたシステムエクスクルーシ
ブメッセージにより送信することができる。
This is because the sequencer or the like has performed the lyrics event L1.
It is considered that the note-on event NON1 and the note-on event NON1 are compared, the note-on event NON1 is judged to be high in importance, and the note-on event NON1 is transmitted before the lyrics event L1. The lyrics event can be transmitted by a system exclusive message determined by the MIDI standard.

【0211】上記の弊害を防止するため、デュレーショ
ンTT1を5にする。デュレーションTT1は3以上が
好ましいが、値が大きすぎると前のイベントに悪影響を
与えることも考えられる。デュレーションTT1は、3
〜10が好ましい。ただし、これはクロックの音符分解
能が4分音符長の1/480の場合であって、音符分解
能が異なる場合は上記好ましい数値は他の値をとる。例
えば、クロックの音符分解能が4分音符の1/96であ
れば、1〜3程度が好ましい。
In order to prevent the above adverse effects, the duration TT1 is set to 5. The duration TT1 is preferably 3 or more, but too large a value may adversely affect the previous event. Duration TT1 is 3
-10 is preferable. However, this is the case where the note resolution of the clock is 1/480 of the quarter note length, and when the note resolution is different, the above preferable numerical value takes another value. For example, if the note resolution of the clock is 1/96 of a quarter note, about 1 to 3 is preferable.

【0212】デュレーションTT2は、ノートオンNO
N1からノートオフNOFF1までの時間であり、ノー
トプラスデータ75のゲートタイムGT1に相当し、例
えば450である。
Duration TT2 is note-on NO
It is the time from N1 to note-off NOFF1 and corresponds to the gate time GT1 of the note-plus data 75, which is 450, for example.

【0213】ノートプラスデータ75中のデュレーショ
ンT2は、ノートオンNON1から次のノートオンNO
N2までの時間であり、スタンダードMIDIファイル
76中のデュレーションTT2とTT3とTT4とに分
解される。
The duration T2 in the note plus data 75 is from the note-on NON1 to the next note-on NO.
It is the time until N2, and is decomposed into the durations TT2, TT3, and TT4 in the standard MIDI file 76.

【0214】デュレーションTT2は、上記のように、
ノートプラスデータ75のゲートタイムGT1と同じく
450である。デュレーションTT4は、歌詞イベント
L2の送信からノートオンイベントNON2の送信まで
の時間であり、デュレーションTT1と同様に5であ
る。デュレーションTT3は、ノートオフイベントNO
FF1の送信から歌詞イベントL2の送信までの時間で
あり、TT3=T2−TT2−TT4で表される。すな
わち、TT3=480−450−5=25である。
The duration TT2 is, as described above,
It is 450, which is the same as the gate time GT1 of the note plus data 75. The duration TT4 is the time from the transmission of the lyrics event L2 to the transmission of the note-on event NON2, and is 5 like the duration TT1. Duration TT3 is the note-off event NO
It is the time from the transmission of FF1 to the transmission of the lyrics event L2, and is represented by TT3 = T2-TT2-TT4. That is, TT3 = 480−450−5 = 25.

【0215】上記のように、歌詞イベントL1をノート
オンイベントNON1よりも前のアドレスに位置させ、
かつデュレーションTT1を5にすることにより、確実
に、歌詞イベントL1をノートオンイベントNON1よ
りも先に送信することができる。その際、ノートオンイ
ベントNON1のタイミングは変えずに、歌詞イベント
L1のタイミングを5だけ早めるので、ノートオンNO
N1による発音タイミングはずれることがない。
As described above, the lyrics event L1 is located at an address before the note-on event NON1,
Moreover, by setting the duration TT1 to 5, it is possible to reliably transmit the lyrics event L1 before the note-on event NON1. At that time, since the timing of the lyrics event L1 is advanced by 5 without changing the timing of the note-on event NON1, the note-on NO
The sound generation timing by N1 does not deviate.

【0216】また、ノートプラスデータ75をスタンダ
ードMIDIファイル76に変換することにより汎用性
が増し、他のシーケンサ等でも処理することが可能にな
ると共に、スタンダードMIDIファイル76をフロッ
ピディスク等でユーザに供給することが可能になる。
Also, by converting the note plus data 75 into the standard MIDI file 76, the versatility is increased, and it becomes possible to process it with other sequencers and the standard MIDI file 76 is supplied to the user by a floppy disk or the like. It becomes possible to do.

【0217】図26(A)に示すように、スタンダード
MIDIファイル(SMF)変換手段81は、ノートプ
ラスデータ75をSMFデータ76に変換することがで
きる。パーソナルコンピュータ1は、SMF変換手段8
1において、ノートプラスデータ75をスタンダードM
IDIファイル76に変換し、外部記憶装置13にセー
ブすることができる。セーブされたスタンダードMID
Iファイル76は、他のパーソナルコンピュータやシー
ケンサ等で使用することができる。また、パーソナルコ
ンピュータ1がスタンダードMIDIファイル76を外
部音源装置21に送信すれば、外部音源装置21はスタ
ンダードMIDIファイル76に応じて発音処理を行
う。
As shown in FIG. 26A, the standard MIDI file (SMF) conversion means 81 can convert the note plus data 75 into SMF data 76. The personal computer 1 has an SMF conversion means 8
In 1, the note plus data 75 is standard M
The IDI file 76 can be converted and saved in the external storage device 13. Standard MID saved
The I file 76 can be used in other personal computers, sequencers and the like. Further, when the personal computer 1 sends the standard MIDI file 76 to the external tone generator device 21, the external tone generator device 21 performs sound generation processing according to the standard MIDI file 76.

【0218】また、図26(B)に示すように、ノート
プラス変換手段82は、SMFデータ76をノートプラ
スデータ75に変換することができる。パーソナルコン
ピュータ1は、外部記憶装置13に記憶されているスタ
ンダードMIDIファイル76をロードし、ノートプラ
ス変換手段82において、ノートプラスデータ75に変
換してRAM3に記憶することができる。この際、上記
ノートプラスデータ75をスタンダードMIDIファイ
ル76に変換したのとは逆に、ノートイベントとは独立
して記憶されている歌詞イベントを、1つのノートプラ
スイベントにまとめる処理を行う。まず、スタンダード
MIDIファイル中のデータを先頭から順次サーチし、
ノートオンイベントが見つかったら対応するノートオフ
イベントを探してゲートタイムを含む1つのノートオン
イベントを生成する。そして、該ノートオンイベントよ
りも5クロック前までに存在する歌詞イベントをサーチ
して、見つかった場合は、該歌詞イベントをノートオン
イベントに付加してノートオンイベントと歌詞イベント
を組にしたノートプラスイベントを生成する。操作者
は、上記に示したように、ノートプラスデータ75につ
いて、種々の編集を行うことができる。なお、ノートプ
ラスデータ75をスタンダードMIDIファイルに変換
する際の処理と同様の処理を、スタンダードMIDIフ
ァイル以外の比較的汎用性の高いデータ形式に変換する
場合に適用してもよい。
Further, as shown in FIG. 26B, the note plus conversion means 82 can convert the SMF data 76 into the note plus data 75. The personal computer 1 can load the standard MIDI file 76 stored in the external storage device 13, convert it into the note plus data 75 in the note plus converting means 82, and store it in the RAM 3. At this time, contrary to the conversion of the note plus data 75 into the standard MIDI file 76, the lyrics event stored independently of the note event is processed into one note plus event. First, search the data in the standard MIDI file sequentially from the beginning,
When the note-on event is found, the corresponding note-off event is searched for and one note-on event including the gate time is generated. Then, the lyrics event existing up to 5 clocks before the note-on event is searched, and if found, the lyrics event is added to the note-on event and the note-on event and the lyrics event are paired. Generate an event. The operator can perform various edits on the note plus data 75, as described above. It should be noted that the same process as the process of converting the Note Plus data 75 into a standard MIDI file may be applied to the case of converting into a relatively versatile data format other than the standard MIDI file.

【0219】なお、外部音源装置21内の音声合成回路
に音素列を発音させる場合に限定されない。音声合成回
路を含む音源ボードをパーソナルコンピュータ1に差し
込み、当該音源ボードに音素列を発音させてもよい。そ
の場合は、パーソナルコンピュータ1に外部音源装置2
1を接続する必要はない。
The case is not limited to the case where the voice synthesis circuit in the external tone generator 21 is caused to generate a phoneme string. A sound source board including a voice synthesis circuit may be inserted into the personal computer 1 to cause the sound source board to generate a phoneme string. In that case, the external sound source device 2 is connected to the personal computer 1.
There is no need to connect one.

【0220】本実施例による音声データ処理装置は、パ
ソコンとアプリケーションソフトウエアとによる形態に
限らず、電子楽器やシーケンサの形態でもよい。アプリ
ケーションソフトウエアは、磁気ディスク、光ディス
ク、半導体メモリ等の記憶媒体に記憶させ、パソコンに
供給するようにしてもよいし、ネットワークを介して供
給するようにしてもよい。
The audio data processing device according to this embodiment is not limited to the form of a personal computer and application software, but may be of an electronic musical instrument or a sequencer. The application software may be stored in a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory and supplied to a personal computer, or may be supplied via a network.

【0221】音声データのフォーマットはスタンダード
MIDIファイルのような演奏イベントの発生時刻を1
つ前のイベントからの時間で表した「イベント+相対時
間」に限定されず、演奏イベントの発生時刻を曲や小節
内における絶対時間で表した「イベント+絶対時間」、
音符の音高と符長あるいは休符と休符長で演奏データを
表した「音高(休符)+符長」、演奏の最小分解能毎に
メモリの領域を確保し、演奏イベントの発生する時刻に
対応するメモリ領域に演奏イベントを記憶した「ベタ方
式」等の形式でもよい。
The audio data format is 1 at the time of occurrence of a performance event like a standard MIDI file.
Not limited to "event + relative time" expressed as the time from the previous event, "event + absolute time" expressed as the time when a performance event occurred in absolute time within a song or measure,
"Pitch (rest) + note length", which represents performance data by the pitch and note length of a note or rest and rest length, reserves a memory area for each minimum resolution of the performance, and a performance event occurs. A format such as a "solid method" in which performance events are stored in a memory area corresponding to time may be used.

【0222】音声データは、複数のチャンネルのデータ
が混在した形式であってもよいし、各チャンネルのデー
タがトラック毎に別れているような形式であってもよ
い。
The audio data may have a format in which data of a plurality of channels are mixed, or may have a format in which the data of each channel is divided for each track.

【0223】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
The present invention has been described above with reference to the embodiments.
The present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

【0224】[0224]

【発明の効果】以上説明したように、本発明によれば、
仮名又は漢字等を含むテキストデータを処理することが
できるので、テキストデータの入力又は編集が簡単であ
る。仮名又は漢字が混在した既存のテキストデータを使
用することができる。
As described above, according to the present invention,
Since text data including kana or kanji can be processed, inputting or editing of text data is easy. Existing text data in which kana or kanji are mixed can be used.

【0225】[0225]

【0226】また、音声データを例えばスタンダードM
IDIファイル形式で扱うことが可能になるので、汎用
性が増すと共に、MIDI通信を行うことができる。
[0226] Also, the voice data may be converted to the standard M, for example.
Since it can be handled in the IDI file format, versatility is increased and MIDI communication can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】 パーソナルコンピュータと外部音源装置とが
接続されたシステムのハード構成を示す図である。
FIG. 1 is a diagram showing a hardware configuration of a system in which a personal computer and an external tone generator are connected.

【図2】 ノートイベントにテキストイベントを割り当
てる処理を示す図である。
FIG. 2 is a diagram showing a process of assigning a text event to a note event.

【図3】 テキストインポート処理を示すフローチャー
トである。
FIG. 3 is a flowchart showing a text import process.

【図4】 図3のステップSA9に示す読み仮名及びル
ビ処理の詳細を示すフローチャートである。
FIG. 4 is a flowchart showing details of phonetic kana and ruby processing shown in step SA9 of FIG.

【図5】 音素列変換処理を示すフローチャートであ
る。
FIG. 5 is a flowchart showing a phoneme string conversion process.

【図6】 空白行挿入処理を説明するための図である。FIG. 6 is a diagram for explaining blank line insertion processing.

【図7】 空白行挿入処理を示すフローチャートであ
る。
FIG. 7 is a flowchart showing blank line insertion processing.

【図8】 歌詞イベント挿入処理を説明するための図で
ある。
FIG. 8 is a diagram for explaining lyrics event insertion processing.

【図9】 歌詞イベント挿入処理を示すフローチャート
である。
FIG. 9 is a flowchart showing a lyrics event insertion process.

【図10】 歌詞イベント削除処理を説明するための図
である。
FIG. 10 is a diagram illustrating a lyrics event deletion process.

【図11】 歌詞イベント削除処理を示すフローチャー
トである。
FIG. 11 is a flowchart showing a lyrics event deletion process.

【図12】 第1の歌詞自動割り当て処理を説明するた
めの図である。
FIG. 12 is a diagram for explaining a first lyrics automatic allocation process.

【図13】 第1の歌詞自動割り当て処理を示すフロー
チャートである。
FIG. 13 is a flowchart showing a first lyrics automatic allocation process.

【図14】 空白行自動挿入処理を説明するための図で
ある。
FIG. 14 is a diagram for explaining blank line automatic insertion processing.

【図15】 空白行自動挿入処理を示すフローチャート
である。
FIG. 15 is a flowchart showing a blank line automatic insertion process.

【図16】 第2の歌詞自動割り当て処理を説明するた
めの図である。
FIG. 16 is a diagram for explaining a second lyrics automatic allocation process.

【図17】 第2の歌詞自動割り当て処理を示すフロー
チャートである。
FIG. 17 is a flowchart showing a second lyrics automatic allocation process.

【図18】 複数行併合処理を説明するための図であ
る。
FIG. 18 is a diagram for explaining a process of merging a plurality of lines.

【図19】 複数行併合処理を示すフローチャートであ
る。
FIG. 19 is a flowchart showing a process of merging a plurality of lines.

【図20】 歌詞イベント分割処理を説明するための図
である。
FIG. 20 is a diagram for explaining lyrics event division processing.

【図21】 歌詞イベント分割処理を示すフローチャー
トである。
FIG. 21 is a flowchart showing lyrics event division processing.

【図22】 仮名変換処理を説明するための図である。FIG. 22 is a diagram for explaining a kana conversion process.

【図23】 仮名変換処理を示すフローチャートであ
る。
FIG. 23 is a flowchart showing a kana conversion process.

【図24】 図24(A)は音素列、ノートオンの順序
で送信した場合の発音を示し、図24(B)はノートオ
ン、音素列の順序で送信した場合の発音を示す図であ
る。
FIG. 24 (A) is a diagram showing pronunciation when phonemes are transmitted in the order of note-on, and FIG. 24 (B) is a diagram showing pronunciation when notes are transmitted in the order of phoneme sequence. .

【図25】 ノートプラスデータとスタンダードMID
Iファイルとの間の変換を示す図である。
FIG. 25: NotePlus data and standard MID
It is a figure which shows conversion with an I file.

【図26】 図26(A)はスタンダードMIDIファ
イル変換手段を示し、図26(B)はノートプラス変換
手段を示す図である。
FIG. 26 (A) shows a standard MIDI file converting means, and FIG. 26 (B) shows a note plus converting means.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータ、 2 バス、 3
RAM、 4 ROM、 5 CPU、 6 タ
イマ、 7 表示回路、 8 MIDIインターフ
ェース、 9,11 検出回路、 10 マウス、
12 キーボード、 13 外部記憶装置、
14 通信インターフェース、 21外部音源装置、
22 バス、 23 MIDIインターフェー
ス、24 RAM、 25 ROM、 26 CP
U、 28 表示回路、29 楽音波形合成回路、
31 サウンドシステム、 32 音声合成回路、
33 検出回路、 34 スイッチ、 41
通信ネットワーク、 42 サーバコンピュータ、
51 演奏データ、 52 テキストデータ、
53 ノートプラスデータ、 75 ノートプラスデ
ータ、76 スタンダードMIDIファイル、 81
スタンダードMIDIファイル変換手段、 82
ノートプラス変換手段
1 personal computer, 2 buses, 3
RAM, 4 ROM, 5 CPU, 6 timer, 7 display circuit, 8 MIDI interface, 9, 11 detection circuit, 10 mouse,
12 keyboard, 13 external storage device,
14 communication interface, 21 external sound source device,
22 bus, 23 MIDI interface, 24 RAM, 25 ROM, 26 CP
U, 28 display circuit, 29 musical tone waveform synthesizing circuit,
31 sound system, 32 speech synthesis circuit,
33 detection circuit, 34 switch, 41
Communication network, 42 server computer,
51 performance data, 52 text data,
53 note plus data, 75 note plus data, 76 standard MIDI files, 81
Standard MIDI file conversion means, 82
Note plus conversion means

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平9−50287(JP,A) 特開 平9−44179(JP,A) 特開 平7−146695(JP,A) 特開 平4−331990(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10H 1/00 - 7/00 G10L 13/00,13/04 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-9-50287 (JP, A) JP-A-9-44179 (JP, A) JP-A-7-146695 (JP, A) JP-A-4- 331990 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G10H 1/00-7/00 G10L 13 / 00,13 / 04

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 非仮名とその読み仮名又はルビが対にな
ったデータを含むテキストデータと音符単位のデータを
含むノートデータとを記憶する記憶手段と、前記テキス
トデータ中の非仮名を破棄してその読み仮名又はルビの
みを前記ノートデータ中の音符のデータに割り当てて音
声データを生成する生成手段とを有する音声データ処理
装置。
1. Storage means for storing text data containing non-kana and its reading kana or ruby paired data and note data containing note-unit data, and destroying non-kana in the text data. And a ruby kana or ruby only for the note data in the note data to generate voice data.
【請求項2】 非仮名とその読み仮名又はルビが対にな
ったデータを含むテキストデータと音符単位のデータを
含むノートデータを処理するコンピュータプログラムの
記録媒体であって、前記テキストデータ中の非仮名を破
棄してその読み仮名又はルビのみを前記ノートデータ中
の音符のデータに割り当てて音声データを生成する手順
をコンピュータに実行させるためのプログラムを記録し
た媒体。
2. A recording medium of a computer program for processing text data including data in which a non-kana and its reading kana or ruby are paired and note data including data in units of notes, wherein the non-character in the text data is A medium recording a program for causing a computer to execute a procedure of discarding a kana and assigning only the reading kana or ruby to note data in the note data to generate voice data.
JP14852297A 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program Expired - Fee Related JP3405123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14852297A JP3405123B2 (en) 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14852297A JP3405123B2 (en) 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002325914A Division JP4148755B2 (en) 2002-11-08 2002-11-08 Audio data processing apparatus and medium on which data processing program is recorded

Publications (2)

Publication Number Publication Date
JPH10319955A JPH10319955A (en) 1998-12-04
JP3405123B2 true JP3405123B2 (en) 2003-05-12

Family

ID=15454666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14852297A Expired - Fee Related JP3405123B2 (en) 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program

Country Status (1)

Country Link
JP (1) JP3405123B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3938015B2 (en) 2002-11-19 2007-06-27 ヤマハ株式会社 Audio playback device
JP4483188B2 (en) 2003-03-20 2010-06-16 ソニー株式会社 SINGING VOICE SYNTHESIS METHOD, SINGING VOICE SYNTHESIS DEVICE, PROGRAM, RECORDING MEDIUM, AND ROBOT DEVICE
JP2004287099A (en) * 2003-03-20 2004-10-14 Sony Corp Method and apparatus for singing synthesis, program, recording medium, and robot device
JP4415573B2 (en) * 2003-06-13 2010-02-17 ソニー株式会社 SINGING VOICE SYNTHESIS METHOD, SINGING VOICE SYNTHESIS DEVICE, PROGRAM, RECORDING MEDIUM, AND ROBOT DEVICE
JP4277697B2 (en) * 2004-01-23 2009-06-10 ヤマハ株式会社 SINGING VOICE GENERATION DEVICE, ITS PROGRAM, AND PORTABLE COMMUNICATION TERMINAL HAVING SINGING VOICE GENERATION FUNCTION
JP5515986B2 (en) * 2010-04-05 2014-06-11 ヤマハ株式会社 Information editing apparatus and program

Also Published As

Publication number Publication date
JPH10319955A (en) 1998-12-04

Similar Documents

Publication Publication Date Title
EP2733696B1 (en) Voice synthesizing method and voice synthesizing apparatus
US5857171A (en) Karaoke apparatus using frequency of actual singing voice to synthesize harmony voice from stored voice information
US6424944B1 (en) Singing apparatus capable of synthesizing vocal sounds for given text data and a related recording medium
US5747715A (en) Electronic musical apparatus using vocalized sounds to sing a song automatically
EP0566232A2 (en) Apparatus for automatically generating music
EP1011088B1 (en) Music data processing system
JP2011048335A (en) Singing voice synthesis system, singing voice synthesis method and singing voice synthesis device
JP3405123B2 (en) Audio data processing device and medium recording data processing program
JP4929604B2 (en) Song data input program
JP3239897B1 (en) Songwriting device and program
JP4821801B2 (en) Audio data processing apparatus and medium recording program
JP3518253B2 (en) Data editing device
US20220044662A1 (en) Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP4148755B2 (en) Audio data processing apparatus and medium on which data processing program is recorded
JP4821802B2 (en) Audio data processing apparatus and medium recording program
JP4026512B2 (en) Singing composition data input program and singing composition data input device
JP3963141B2 (en) SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING SINGE SYNTHESIS PROGRAM
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
JP2003099048A (en) Device and program for lyrics writing and music composition
WO2023171522A1 (en) Sound generation method, sound generation system, and program
JP3409644B2 (en) Data editing device and medium recording data editing program
JP2002182675A (en) Speech synthesizer, vocal data former and singing apparatus
JPH04331990A (en) Voice electronic musical instrument
JP3173310B2 (en) Harmony generator
EP0396141A2 (en) System for and method of synthesizing singing in real time

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030204

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090307

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090307

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100307

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees