JPS59162597A - Voice synthesizer - Google Patents
Voice synthesizerInfo
- Publication number
- JPS59162597A JPS59162597A JP58036177A JP3617783A JPS59162597A JP S59162597 A JPS59162597 A JP S59162597A JP 58036177 A JP58036177 A JP 58036177A JP 3617783 A JP3617783 A JP 3617783A JP S59162597 A JPS59162597 A JP S59162597A
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- information
- section
- word
- phrase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
産業上の利用分野
本発明は文から音声波形を合成する音声合成装置に関す
るものである。DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a speech synthesis device for synthesizing speech waveforms from sentences.
合成装置が実用化されている。それに2れて要求される
語東数が増大し、さらには任意の言葉を合成する音声応
答システムの開発が要求されてきている。このような音
声応答システムにおいては応答する語や文を文字系列で
記憶し伝送することは記憶容量や伝送速度において非常
に有利である。Synthesizers have been put into practical use. As a result, the number of words required has increased, and furthermore, there has been a demand for the development of voice response systems that can synthesize arbitrary words. In such a voice response system, it is very advantageous in terms of storage capacity and transmission speed to store and transmit the response word or sentence as a character sequence.
このような音声応答システムに用いられる音声合成装置
として、単語を受信する毎に単語音声を合成する音声合
成装置(以下、単語音声合成装置と呼ぶ)や、文を入力
として大全体を解析して文としての韻律を付与して音声
を合成する音声合成装置(以下、文音声合成装置と呼ぶ
)が開発されている。Speech synthesis devices used in such voice response systems include a speech synthesis device that synthesizes word speech each time it receives a word (hereinafter referred to as a word speech synthesis device), and a speech synthesis device that takes a sentence as input and analyzes the entire sentence. A speech synthesis device (hereinafter referred to as a sentence speech synthesis device) that synthesizes speech by adding prosody as a sentence has been developed.
以下、図面を参照しながら、上述したような従来の音声
合成装置について説明を行う。第1図は従来の単語音声
合成装置の構成を示すものである。Hereinafter, a conventional speech synthesis device as described above will be explained with reference to the drawings. FIG. 1 shows the configuration of a conventional word speech synthesis device.
第1図において、1は単語を受信する入力部、2は単語
を解析してスペクトル包絡情報Sと継続時間情報りと振
巾情報Aおよびピッチ情報Pを生成する単語解析部、3
は2の出力SとDとAおよびPを入力として音声波形を
生成する合成部、4は合成された合成音声波形出力を示
すものである。In FIG. 1, 1 is an input unit that receives words; 2 is a word analysis unit that analyzes words to generate spectral envelope information S, duration information, amplitude information A, and pitch information P; 3
2 is a synthesizer which generates a speech waveform by inputting the outputs S, D, A, and P, and 4 indicates an output of the synthesized speech waveform.
上記のように構成された単語音声合成装置において、入
力部1に受信された単語はただちに単語解析部2で解析
され、スペクトル包絡情報S(例えばパーコール係数や
ホルマント周波数とバンド巾の時系列)と継続時間情報
りと振巾情報Aとピッチ情報Pが生成される。そして上
記SとpとAふzよびPを入力することにより合成部3
で音声波形が合成され、合成音声波形出力を得る。In the word speech synthesis device configured as described above, a word received by the input unit 1 is immediately analyzed by the word analysis unit 2, and the word is analyzed by the word analysis unit 2, and is converted into spectral envelope information S (for example, Percoll coefficient, time series of formant frequency and bandwidth). Duration information, amplitude information A, and pitch information P are generated. Then, by inputting the above S, p, Afz and P, the synthesis section 3
The speech waveforms are synthesized in , and a synthesized speech waveform output is obtained.
しかしながら上記のような構成の単語音声合成装置では
、単語を受信する毎に単語音声を合成するため、単語が
連続した文を入力した場合、文としての自然なピンチを
付与することができないという欠点を有する。However, the word speech synthesis device configured as described above synthesizes word speech every time it receives a word, so when a sentence with consecutive words is input, it cannot give a natural pinch as a sentence. has.
第2図は従来の文音声合成装置の構成を示すものである
。第2図において、6は文を受信する入力部、6は入力
部6に入力された文を記憶する記憶部、7は文を解析し
て文基本周波数輸郭ノくターンFBを生成する文解析部
、8は単語を解析してスペクトル包絡情報Sと継続時間
情報り、と振巾情報Aおよび単語基本周波数輪郭ノ(タ
ーンFWを生成する単語解析部、9は上記FSと上記F
Wとからピッチ情報Pを生成するとピッチ情報生成部、
10は上記SとpとAおよびPを入力として音声波形を
生成する合成部、11は合成された合成音声波形出力・
を示すものである。FIG. 2 shows the configuration of a conventional sentence-to-speech synthesis device. In FIG. 2, 6 is an input unit that receives a sentence, 6 is a storage unit that stores the sentence input to the input unit 6, and 7 is a sentence unit that analyzes the sentence and generates a sentence fundamental frequency subtraction turn FB. An analysis unit 8 analyzes a word and generates spectrum envelope information S, duration information, amplitude information A and word fundamental frequency contour (turn FW); 9 a word analysis unit that generates the above FS and the above F;
When pitch information P is generated from W, a pitch information generation unit,
10 is a synthesis unit that generates a speech waveform by inputting the above-mentioned S, p, A, and P, and 11 is a synthesized speech waveform output.
This shows that.
上記のように構成された文音声合成装置において、入力
部6に受信された文は記憶部6に記憶される。文−折部
7は記憶部6に記憶された文を解析し、文の種類に応じ
て文基本周波数輪郭)(ターンFsを生成する。単語解
析部8は記憶部6から入力文中の個々の単語を読み取っ
て解析し、各単語毎にスペクトル包絡情報Sと継続時間
情報りと振巾情報Aおよび単語基本周波数輪郭Fwを生
成する。つぎに、ピッチ情報生成部9は文解析部子で生
成された文基本周波数輪郭パターンFSと単語解析部8
で生成された単語基本周波数輪郭)くターンFWとから
、合成部10に供給するピッチ情報Pを生成する。さら
に合成部10は単語解析部8で生成されたスペクトル包
絡情報Sと継続時間情報りと振巾情報Aおよびピッチ情
報生成部9で生成されたピッチ情報Pを用いて音声波形
を合成し、合成音声波形出力11を得る。In the sentence-to-speech synthesis device configured as described above, sentences received by the input section 6 are stored in the storage section 6. The sentence-folding unit 7 analyzes the sentence stored in the storage unit 6 and generates a sentence fundamental frequency contour (turn Fs) according to the type of sentence. The words are read and analyzed, and spectral envelope information S, duration information, amplitude information A, and word fundamental frequency contour Fw are generated for each word.Next, the pitch information generation unit 9 generates spectral envelope information S, duration information, amplitude information A, and word fundamental frequency contour Fw. Sentence fundamental frequency contour pattern FS and word analysis unit 8
Pitch information P to be supplied to the synthesis unit 10 is generated from the word fundamental frequency contour (F) and turn FW generated in . Furthermore, the synthesis unit 10 synthesizes a speech waveform using the spectrum envelope information S generated by the word analysis unit 8, the duration information, the amplitude information A, and the pitch information P generated by the pitch information generation unit 9. An audio waveform output 11 is obtained.
しかしながら、上記のような構成の文音声合成装置では
、文全体を入力し終るまでは合成を開始することが出来
ない。また文全体を解析するため多大な処理時間を要す
る。゛以上のことから、文の入力を開始してから合成音
声波形出力が得られるまでに多大な待ち時間が生じると
いう欠点があった。However, in the sentence-to-speech synthesis device configured as described above, synthesis cannot be started until the entire sentence has been input. Furthermore, it takes a lot of processing time to analyze the entire sentence. As a result of the above, there is a drawback that a large amount of waiting time occurs from the start of inputting a sentence until the output of a synthesized speech waveform is obtained.
発明の目的
本発明は上記欠点に鑑み、文としての自然なピッチを付
与した音声を合成し、かつ文の入力開始から合成音声波
形出力を得るまでの待ち時間力はIト常に小さい音声合
成装置を提供するものである。Purpose of the Invention In view of the above-mentioned drawbacks, the present invention provides a speech synthesis device that synthesizes speech with a natural pitch as a sentence, and that has a constant waiting time from the start of inputting a sentence to obtaining a synthesized speech waveform output. It provides:
発明の構成
本発明は文制御情報と文を受信する入力部と、上記文制
御情報と上記文を判別する判別部と、上記文に含まれる
単語を解析する単語解析部と、ピッチ情報生成部と、音
声波形を生成する合成部を備えた音声合成装置であり、
文として自然なピッチを付与した音声を非常に小さい待
ち時間で構成することのできるものである。Structure of the Invention The present invention comprises an input section that receives sentence control information and a sentence, a discrimination section that discriminates between the sentence control information and the sentence, a word analysis section that analyzes words included in the sentence, and a pitch information generation section. and a speech synthesizer equipped with a synthesis section that generates a speech waveform,
It is possible to compose speech with a natural pitch as a sentence with very little waiting time.
実施例の説明
以下、本発明の一実施例について図面を参照しながら説
明する。DESCRIPTION OF EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.
第3図は本発明の一実施例における音声合成装置の構成
を示すものである。第3図において、12は文の種類を
表す情報(以下、文識別情報と呼ぶ)と文に含まれる個
々の句を制御する情報(以下、句制御情報と呼ぶ)とか
ら成る文制御情報と文とを受信する入力部、13は入力
部12に入力された文制御情報と文を判別する判別部、
14は単語を解析してスペクトル包絡情報Sと継続時間
情報りと振IJ情報Aおよび単語基本周波数輪郭パター
ンFWを生成する単語解析部、15はピッチ情報生成部
、15aは句基本周波数輪郭パターンFPを生成する句
基本周波数輪郭パターン生成部、16bは文基本周波数
輪郭パターンFBを生成する文基本周波数輪郭パターン
生成部、15cは上記FWとFPとFsからピッチ情報
Pを生成するピッチ情報演算部、16は上記SとDとA
およびPから音声波形を合成する合成部、17は合成さ
れた合成音声波形出力を示すものである。FIG. 3 shows the configuration of a speech synthesizer according to an embodiment of the present invention. In FIG. 3, numeral 12 denotes sentence control information consisting of information indicating the type of sentence (hereinafter referred to as sentence identification information) and information controlling each phrase included in the sentence (hereinafter referred to as phrase control information). 13 is a determination unit that determines the sentence control information input to the input unit 12 and the sentence;
14 is a word analysis unit that analyzes words to generate spectral envelope information S, duration information, vibration IJ information A, and word fundamental frequency contour pattern FW; 15 is a pitch information generation unit; and 15a is phrase fundamental frequency contour pattern FP. 16b is a sentence fundamental frequency contour pattern generation section that generates a sentence fundamental frequency contour pattern FB; 15c is a pitch information calculation section that generates pitch information P from the above-mentioned FW, FP, and Fs; 16 is the above S, D and A
and a synthesizing section 17 for synthesizing a speech waveform from P and P. Reference numeral 17 indicates the output of the synthesized speech waveform.
以上のように構成された音声合成装置について以下その
動作について説明する。The operation of the speech synthesis device configured as described above will be explained below.
第4図は本発明の音声合成装置の入力の一例を示すもの
である。第4図において、1は文識別情報、2から7は
句制御情報を示すものである。FIG. 4 shows an example of input to the speech synthesizer of the present invention. In FIG. 4, 1 indicates sentence identification information, and 2 to 7 indicate phrase control information.
第6図は文識別情報に用いられる記号を示すものであり
、第6図は句制御情報に用いられる記号とその意味およ
び生成される句基本周波数輪郭パターンを示すものであ
る。FIG. 6 shows symbols used for sentence identification information, and FIG. 6 shows symbols used for phrase control information, their meanings, and generated phrase fundamental frequency contour patterns.
また第7図は、第6図に示した文識別情報に対応する文
基本周波数輪郭パターンの概形を示すものである。Further, FIG. 7 shows an outline of the sentence fundamental frequency contour pattern corresponding to the sentence identification information shown in FIG.
まず入力部12は「0」を受信し、判別部13へ送出す
る。次に判別部13では入力部12が送出したrOJを
千 文を示す識別情報と判別し、文識別情報Isを文基
本周波数輸郭パタ丁ン生成部16bへ送出する。次に文
基本周波数輸郭ノ々ターン生成部15bは平 文の文基
本周波数輸郭ノくターンを生成しFBとしてピッチ情報
演算部15cへ送出する。次に入力部12は「6」を受
信し、判別部13へ送出する。判別部13は「6」を句
の始めを示す句制御情報と判別し、句制御情報工Fを句
基本周波数輪郭パターン生成部16aへ送出する。次に
句基本周波数輪郭パターン生成部15aは句の始めの句
基本周波数輪郭パターンを生成しFPとしてピンチ情報
演算部15Cへ送出する。First, the input section 12 receives "0" and sends it to the determination section 13. Next, the determining section 13 determines the rOJ sent by the input section 12 as identification information indicating 1,000 sentences, and sends the sentence identification information Is to the sentence fundamental frequency translocation pattern generating section 16b. Next, the sentence fundamental frequency transposition number turn generation section 15b generates a sentence fundamental frequency transposition number turn of the plain text and sends it as an FB to the pitch information calculation section 15c. Next, the input unit 12 receives “6” and sends it to the determination unit 13. The determining section 13 determines "6" as phrase control information indicating the beginning of a phrase, and sends the phrase control information F to the phrase fundamental frequency contour pattern generating section 16a. Next, the phrase fundamental frequency contour pattern generation section 15a generates a phrase fundamental frequency contour pattern at the beginning of the phrase and sends it as an FP to the pinch information calculation section 15C.
次に入力部12は「6」を受信し判別部13へ送、出す
る。判別部13は「5」を句の終りを示す句制御情報と
判別し、句制御情報IFを句基本周波数輪郭パターン生
成部j5aへ送出する。句基本周波数輪郭パターン生成
部15aは句の終りの句基本周波数輪郭パターンを生成
しFPとしてピッチ情報演算部15cへ送出する。次に
入力部12は「Th1sJを受信し判別部13へ送出す
る。判別部13は[Th1s J を単語と判別し、
そのまま単語解析部14へ送出する。ついで単語解析部
14に「Th1eJを解析し、単語基本周波数輪郭パタ
ーンFWを生成しピッチ情報演算部15cへ送出する同
時に単語解析部14は[Th1sJ に対応するスペ
クトル包絡情報Sと継続時間情報りおよび振巾情報Aを
生成部16へ送出する。ピンチ情報演算部15cは単語
基本周波数輪郭パターンFWと句基本周波数輸郭パター
′ンFpおよび文基本周波数輪郭パターy F 3を第
8図に示すように合成し、ピッチ情報Pとして合成部1
6へ送出される。Next, the input section 12 receives "6" and sends it to the determination section 13 for output. The determining section 13 determines "5" as phrase control information indicating the end of the phrase, and sends the phrase control information IF to the phrase fundamental frequency contour pattern generating section j5a. The phrase fundamental frequency contour pattern generation section 15a generates a phrase fundamental frequency contour pattern at the end of a phrase and sends it as an FP to the pitch information calculation section 15c. Next, the input unit 12 receives Th1sJ and sends it to the discriminating unit 13. The discriminating unit 13 discriminates [Th1s J as a word,
It is sent as is to the word analysis section 14. Next, the word analysis section 14 analyzes "Th1eJ, generates a word fundamental frequency contour pattern FW, and sends it to the pitch information calculation section 15c. At the same time, the word analysis section 14 analyzes the spectral envelope information S, duration information, and The amplitude information A is sent to the generation unit 16.The pinch information calculation unit 15c generates the word fundamental frequency contour pattern FW, the phrase fundamental frequency transposition pattern Fp, and the sentence fundamental frequency contour pattern yF3 as shown in FIG. The synthesizer 1 synthesizes it as pitch information P.
6.
合成部1eは供給されたSとり、!:AおよびPがら1
−ThisJ に対応する音声波形を合成し、17に
合成音声波形出力を得る。同様にして、ri、Jとr−
Jおよび「pen」に対応する音声波形が順に得られる
。The synthesis section 1e takes the supplied S, and! :A and P 1
-Synthesize the audio waveform corresponding to ThisJ to obtain a synthesized audio waveform output at 17. Similarly, ri, J and r-
Speech waveforms corresponding to J and "pen" are obtained in sequence.
以上のように本実施例によれば、外部から供給される文
制御情報と文を判別する判別部13と、句基本周波数輪
郭パターンを生成する句基本周波数輪郭パターン生成部
16aと文基本周波数輪郭パターンを生成する文基本周
波数輪郭パターン生成部16bとピンチ情報を演算する
ピッ、チ情報演算部16cとから成るピッチ情報生成部
15を設けることにより、文の入力が終了するまでに、
文として自然なピッチを付与した音声波形の合成を開始
することができる。As described above, according to the present embodiment, the discrimination section 13 that discriminates between sentence control information and sentences supplied from the outside, the phrase fundamental frequency contour pattern generation section 16a that generates a phrase fundamental frequency contour pattern, and the sentence fundamental frequency contour By providing the pitch information generating section 15 consisting of a sentence fundamental frequency contour pattern generating section 16b that generates a pattern and a pitch/pitch information calculating section 16c that calculates pinch information, by the time input of a sentence is completed,
It is possible to start synthesizing a speech waveform that has been given a natural pitch as a sentence.
なお本実施例では、入力文の句毎に、句を開始する単語
の直前と句を終了する単語の直前に句制御情報を配した
が、その位置は限定されるものではない。例えば、句を
開始する単語の直後と句を終了する単語の直後に句制御
情報を配してもよい。In this embodiment, the phrase control information is placed immediately before the word that starts the phrase and immediately before the word that ends the phrase for each phrase of the input sentence, but the position thereof is not limited. For example, phrase control information may be placed immediately after a word that starts a phrase and immediately after a word that ends a phrase.
また、各々の句の句制御情報および句に含まれる単語の
数を文識別情報の直後に配してもよい。Further, the phrase control information of each phrase and the number of words included in the phrase may be placed immediately after the sentence identification information.
また単語の数のかわシに、句を開始する単語と句を終了
する単語の位置を示すものを用いてもよい。Furthermore, the number of words may be used to indicate the positions of the words that start a phrase and the words that end a phrase.
発明の効果
以上のように本発明は、外部から供給される文制御情報
と文を判別する判別部と、文制御情報からピッチ情報を
生成するピッチ情報生成部を設けることにより、文の入
力が終了するのを待たずに文として自然なピンチを付与
した音声波形の合成を開始することができ、その実用的
効果は大なるものがある。Effects of the Invention As described above, the present invention provides a discriminator that discriminates between sentence control information and a sentence supplied from the outside, and a pitch information generator that generates pitch information from the sentence control information. Synthesis of a speech waveform with a natural pinch added to it as a sentence can be started without waiting for it to finish, and this has great practical effects.
第1図および第2図は従来の音声合成装置のブロック図
、第3図は本発明の一実施例における音声合成装置のブ
ロック図、第4図は同実施例における入力の例を示す図
、第6図は同実施例における文識別情報の記号とその意
味を示す図、第6図は句制御情報の記号とその意味およ
び生成される句基本周波数輪郭パターンの示す図、第7
図は文識別情報の記号に対応して生成される物基本周波
数輪郭パターンを示す図、第8図は本発明の一実施例に
おけるピッチ情報演算部の演算を示す図である。
12・・・・・・入力部、13・・・・・・判別部、1
4・・・・・・単語解析部、16・・・・・・ピッチ情
報生成部、15a・・・・・・句基本周波数輪郭パター
ン生成部、16b・・・・・・文基本周波数輪郭パター
ン生成部、16C・・・・・ピッチ情報演算部、16・
・・・・・合成部。
代理人の氏名 弁理士 中 尾 敏 男 ほか1名第
4 図
第 5 図
116図
第7図
第8図1 and 2 are block diagrams of a conventional speech synthesis device, FIG. 3 is a block diagram of a speech synthesis device in an embodiment of the present invention, and FIG. 4 is a diagram showing an example of input in the same embodiment, FIG. 6 is a diagram showing symbols of sentence identification information and their meanings in the same embodiment, FIG. 6 is a diagram showing symbols of phrase control information, their meanings, and generated phrase fundamental frequency contour patterns, and FIG.
The figure shows an object fundamental frequency contour pattern generated corresponding to the symbol of sentence identification information, and FIG. 8 is a diagram showing calculations by the pitch information calculation section in one embodiment of the present invention. 12...Input section, 13...Discrimination section, 1
4...Word analysis unit, 16...Pitch information generation unit, 15a...Phrase fundamental frequency contour pattern generation unit, 16b...Sentence fundamental frequency contour pattern Generation unit, 16C...Pitch information calculation unit, 16.
...Synthesis department. Name of agent: Patent attorney Toshio Nakao and 1 other person
4 Figure 5 Figure 116 Figure 7 Figure 8
Claims (4)
部の出力を入力とし上記文制御情報と文とを判別する判
別部へ上記文に含まれる単語を解析してスペクトル包絡
情報、継続時間情報、振巾情報および単語基本周波数輪
郭パターンを生成する単語解析部と、上記文制御情報と
上記単語基本周波数輪郭パターンを入力としてピッチ情
報を生成するピッチ情報生成部と、上記単語解析部の出
力と上記ピッチ情報生成部の出力を入力として音声波形
°を生成する合成部とを具備した音声合成装置。(1) An input unit that receives the sentence control information and the sentence, and a discriminator that receives the output of the input unit and discriminates between the sentence control information and the sentence, and analyzes the words included in the sentence to obtain spectral envelope information. , a word analysis section that generates duration information, amplitude information, and a word fundamental frequency contour pattern; a pitch information generation section that generates pitch information by receiving the sentence control information and the word fundamental frequency contour pattern as input; and the word analysis section. A speech synthesis device comprising a synthesis section that receives an output of the section and an output of the pitch information generation section and generates a speech waveform.
報で表されている特許請求の範囲第1項記載の音声合成
装置。(2) The speech synthesis device according to claim 1, wherein a sentence is represented by phonetic symbols or equivalent symbols and accent information.
特許請求の範囲第1項記載の音声合成装置。(3) The speech synthesis device according to claim 1, wherein the sentence control information comprises sentence identification information and phrase control information.
成る特許請求の範囲第1項記載の音声合成装置。(4) The speech synthesis device according to claim 1, wherein the sentence control information comprises sentence identification information and phrase control information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58036177A JPS59162597A (en) | 1983-03-04 | 1983-03-04 | Voice synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58036177A JPS59162597A (en) | 1983-03-04 | 1983-03-04 | Voice synthesizer |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS59162597A true JPS59162597A (en) | 1984-09-13 |
Family
ID=12462452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP58036177A Pending JPS59162597A (en) | 1983-03-04 | 1983-03-04 | Voice synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS59162597A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61233795A (en) * | 1985-04-10 | 1986-10-18 | 株式会社日立製作所 | Voice synthesizer |
-
1983
- 1983-03-04 JP JP58036177A patent/JPS59162597A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61233795A (en) * | 1985-04-10 | 1986-10-18 | 株式会社日立製作所 | Voice synthesizer |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4754485A (en) | Digital processor for use in a text to speech system | |
US5524172A (en) | Processing device for speech synthesis by addition of overlapping wave forms | |
US5220629A (en) | Speech synthesis apparatus and method | |
US4685135A (en) | Text-to-speech synthesis system | |
EP0059880A2 (en) | Text-to-speech synthesis system | |
EP1668628A1 (en) | Method for synthesizing speech | |
JPS59162597A (en) | Voice synthesizer | |
JP3094622B2 (en) | Text-to-speech synthesizer | |
JPS6223888B2 (en) | ||
JPH1115497A (en) | Name reading-out speech synthesis device | |
JP2612030B2 (en) | Text-to-speech device | |
EP0205298A1 (en) | Speech synthesis device | |
JP2507374B2 (en) | Speech synthesizer | |
JP2586040B2 (en) | Voice editing and synthesis device | |
JP2839488B2 (en) | Speech synthesizer | |
Butler et al. | Articulatory constraints on vocal tract area functions and their acoustic implications | |
JP3297221B2 (en) | Phoneme duration control method | |
JPS626299A (en) | Electronic singing apparatus | |
May et al. | Speech synthesis using allophones | |
JPH028320B2 (en) | ||
JPS63262699A (en) | Voice analyzer/synthesizer | |
JPS6315297A (en) | Voice synthesizer | |
Sorace | The dialogue terminal | |
Yea et al. | Formant synthesis: Technique to account for source/tract interaction | |
Randolph et al. | Synthesis of continuous speech by concatenation of isolated words |