JP3589216B2 - 音声合成システム及び音声合成方法 - Google Patents

音声合成システム及び音声合成方法 Download PDF

Info

Publication number
JP3589216B2
JP3589216B2 JP2001337617A JP2001337617A JP3589216B2 JP 3589216 B2 JP3589216 B2 JP 3589216B2 JP 2001337617 A JP2001337617 A JP 2001337617A JP 2001337617 A JP2001337617 A JP 2001337617A JP 3589216 B2 JP3589216 B2 JP 3589216B2
Authority
JP
Japan
Prior art keywords
voice
data
server
speech synthesis
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001337617A
Other languages
English (en)
Other versions
JP2003140674A (ja
Inventor
篤司 福里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001337617A priority Critical patent/JP3589216B2/ja
Priority to US10/270,310 priority patent/US7313522B2/en
Priority to GB0224901A priority patent/GB2383502B/en
Priority to CNB021498121A priority patent/CN1208714C/zh
Publication of JP2003140674A publication Critical patent/JP2003140674A/ja
Priority to HK03105371.5A priority patent/HK1053221A1/zh
Application granted granted Critical
Publication of JP3589216B2 publication Critical patent/JP3589216B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、通信回線を介して互いに接続可能な携帯端末とサーバとを備えた音声合成システムに関し、詳しくは、携帯端末からテキストデータをサーバへ送信すると、サーバでテキストデータを音声合成データに変換して携帯端末へ返信する音声合成システムに関する。
【0002】
【従来の技術】
近年、携帯電話機では、iモードに代表されるインターネット接続サービスが普及することにより、テキストデータでの情報配信が行われるようになった。その結果、電子メールの送受信に加え、モバイル・バンキング、オンライン・トレード、チケット購入などの各種のサービスが、携帯電話機で利用できるようになっている。
【0003】
一方、テキストデータの情報には、次のような欠点があった。▲1▼.携帯電話の画面は狭いため、読みにくい。特に、高齢者にとって、その傾向が著しい。▲2▼.視覚障害者の方々にとっては、その情報は全く無意味である。
【0004】
そのため、テキストデータを読み上げる機能を備えた携帯電話機も提案されている。例えば特開2000−339137号公報に記載された携帯電話機では、予め用意された音声データの複数のカテゴリー(男性、女性、老人、子供など)の中からユーザが一つを選択すると、その選択された音声データを用いてテキストデータを音声に変換する。
【0005】
【発明が解決しようとする課題】
しかしながら、上記公報に記載された携帯電話機では、テキストデータを送信した者とは異なる声で音声合成データが再生されるので、ユーザにとって違和感が生じていた。
【0006】
【発明の目的】
そこで、本発明の目的は、現実性を向上させた音声合成システム及び音声合成方法を提供することにある。
【0007】
【課題を解決するための手段】
請求項1記載の音声合成システムは、通信回線を介して互いに接続可能な携帯端末とサーバとを備えた音声合成システムである。そして、携帯端末は、他の携帯端末からテキストデータを受信するテキストデータ受信手段と、受信したテキストデータに他の携帯端末のユーザの音声サンプリング名を添付してサーバへ送信するテキストデータ送信手段と、音声合成データをサーバから受信する音声合成データ受信手段と、受信した音声合成データを音声に再生する音声再生手段とを備えている。サーバは、テキストデータ及び音声サンプリング名を携帯端末から受信するテキストデータ受信手段と、受信した音声サンプリング名に対応する他の携帯端末のユーザの音声サンプリングデータを用いて、受信したテキストデータを音声合成データに変換する音声合成手段と、変換した音声合成データを携帯端末へ送信する音声合成データ送信手段とを備えている。
【0008】
請求項3記載の音声合成システムは、請求項1記載の音声合成システムにおいて、携帯端末を複数備えたものである。
【0009】
請求項3記載の音声合成システムは、請求項2記載の音声合成システムにおいて更に次の構成要素を備えている。各携帯端末は、それぞれのユーザの音声サンプリングデータを採取する音声サンプリングデータ採取手段と、採取した音声サンプリングデータをサーバへ送信する音声サンプリングデータ送信手段とを備えている。サーバは、音声サンプリングデータを各携帯端末から受信する音声サンプリングデータ受信手段と、受信した音声サンプリングデータに音声サンプリング名を付してデータベースを構築するデータベース構築手段とを備えている。
【0010】
本発明に係る音声合成方法は、本発明に係る音声合成システムに用いられるものである。
【0011】
換言すると、本発明は、JAVAアプリケーションと通信システムホスト端末とのデータプロトコルを用いて、受信したテキストデータを音声合成して携帯端末上で再生することを特徴とする。更に、このデータプロトコル内に音声合成に使用する音声サンプリングデータを指定することで、任意の音声合成データを出力することができる。また、携帯端末を使用してユーザの会話時にそのユーザの音声サンプリングデータを採取することで、ユーザの音声サンプリングデータを他のユーザへ配信することができる。
【0012】
更に換言すると、本発明は、携帯端末のJAVAアプリケーションを用いた音声合成データ再生方式であって、次の特徴を有する。▲1▼.携帯端末と通信ホスト端末との独自のデータプロトコルを持つ。▲2▼.音声合成されたデータを受信し、自動再生する。▲3▼.通信システムホスト端末において、音声サンプリングデータを元にテキストデータを音声合成して、音声合成データを作成する。▲4▼.携帯電話でのユーザの会話時の音声サンプリングデータを採取し、ユーザ固有の音声サンプリングデータのデータベースを作成する。▲5▼.ユーザの作成したデータベースを他のユーザに公開する手段を提供する。
【0013】
【発明の実施の形態】
図1は、本発明に係る音声合成システムの一実施形態を示す機能ブロック図である。以下、この図面に基づき説明する。なお、本発明に係る音声合成方法の実施形態についても同時に説明する。
【0014】
本実施形態の音声合成システム10は、通信回線11を介して互いに接続可能な携帯端末12とサーバ13とを備えている。携帯端末12は、一つのみを図示しているが、実際は複数設けられている。
【0015】
それぞれの携帯端末12は、テキストデータを受信するテキストデータ受信手段121と、受信したテキストデータに音声サンプリング名を添付してサーバ13へ送信するテキストデータ送信手段122と、音声合成データをサーバ13から受信する音声合成データ受信手段123と、受信した音声合成データを音声に再生する音声再生手段124と、携帯端末12のユーザの音声サンプリングデータを採取する音声サンプリングデータ採取手段125と、採取した音声サンプリングデータをサーバ13へ送信する音声サンプリングデータ送信手段126とを備えている。
【0016】
サーバ13は、テキストデータ及び音声サンプリング名を携帯端末12から受信するテキストデータ受信手段131と、受信した音声サンプリング名に対応する音声サンプリングデータを用いて、受信したテキストデータを音声合成データに変換する音声合成手段132と、変換した音声合成データを携帯端末12へ送信する音声合成データ送信手段133と、音声サンプリングデータを携帯端末12から受信する音声サンプリングデータ受信手段134と、受信した音声サンプリングデータに音声サンプリング名を付してデータベース135を構築するデータベース構築手段136とを備えている。
【0017】
通信回線11は、例えば電話回線及びインターネットである。携帯端末12は、コンピュータを内蔵した携帯電話機や携帯情報端末(PDA)などである。サーバ13は、パーソナルコンピュータなどのコンピュータである。携帯端末12及びサーバ13に具備された上記各手段は、コンピュータ・プログラムによって実現されている。また、データの送受信は、送受信回路(図示せず)及び通信回線11等のハードウェアを介して行なわれる。
【0018】
図2は、音声合成システム10の動作の一例を示すシーケンス図である。以下、図1及び図2に基づき説明する。なお、携帯端末12A,12Bは、それぞれ携帯端末12と同一構成である。
【0019】
まず、携帯端末12Aにおいて、音声サンプリングデータ採取手段125がユーザAの音声サンプリングデータaを採取し(ステップ101)、音声サンプリングデータ送信手段126が音声サンプリングデータaをサーバ13へ送信する(ステップ102)。すると、サーバ13では、音声サンプリングデータ受信手段134が音声サンプリングデータaを受信し(ステップ103)、データベース構築手段136が音声サンプリングデータaに音声サンプリング名A’を付してデータベース135を構築する(ステップ104)。同様に、携帯端末12Bにおいて、ユーザBの音声サンプリングデータbを採取し(ステップ105)、音声サンプリングデータbをサーバ13へ送信する(ステップ106)。すると、サーバ13では、音声サンプリングデータbを受信し(ステップ107)、音声サンプリングデータbに音声サンプリング名B’を付してデータベース135を構築する(ステップ108)。
【0020】
ここで、携帯端末12Aにおいて、携帯端末12Bから送信されたテキストデータb1をテキストデータ受信手段121が受信すると(ステップ109,110)、テキストデータ送信手段122がテキストデータb1に音声サンプリング名B’を添付してサーバ13へ送信する(ステップ111)。すると、サーバ13では、テキストデータ受信手段131がテキストデータb1及び音声サンプリング名B’を受信し(ステップ112)、音声合成手段132が音声サンプリング名B’に対応する音声サンプリングデータbを用いてテキストデータb1を音声合成データb2に変換し(ステップ113)、音声合成データ送信手段133が音声合成データb2を携帯端末12Aへ送信する(ステップ114)。すると、携帯端末12Aでは、音声合成データ受信手段123が音声合成データb2を受信し(ステップ115)、音声再生手段124が音声合成データb2を音声b3に再生する(ステップ116)。
【0021】
以上のように、音声合成システム10によれば、携帯端末12A,12BのユーザA,Bの音声サンプリングデータa,bがサーバ13内にデータベース化されている。そのため、携帯端末12Aでは、携帯端末12Bから送られてきたテキストデータb1をサーバ13へ送ると、携帯端末12BのユーザBの声からなる音声合成データb2がサーバ13から返ってくるので、ユーザBの声でテキストデータb1を読み上げることができる。したがって、現実性が向上する。
【0022】
また、各携帯端末12A,…がユーザA,…の音声サンプリングデータa,…を採取してサーバ13へ送信し、サーバ13が音声サンプリングデータa,…をデータベース化することにより、自動的かつ容易に音声合成システム10が拡張される。例えば、新たな携帯端末12CのユーザCが音声合成システム10に参加する場合も、即座に前述のサービスが受けられる。
【0023】
なお、音声サンプリングデータ採取手段125、音声サンプリングデータ送信手段126、音声サンプリングデータ受信手段134、及びデータベース構築手段136は、省略してもよい。この場合は、別の方法でデータベース135を構築しておく必要がある。
【0024】
また、音声の個人性に関する研究は、これまで主にスペクトルとピッチ周波数とを中心に行なわれている。例えば、ピッチ周波数の時間変化又は平均ピッチ周波数に関する研究として、ピッチ周波数の時間変化などの韻律情報の言語了解性に対する効果、3モーラ単語によるピッチ周波数の時間変化の個人性の抽出及びその制御などが報告されている。一方、スペクトルに関する研究として、ホルマント周波数とバンド幅による声道特性と個人性との関係、単母音のスペクトル包絡成分に注目した個人性の分析などが報告されている。
【0025】
【実施例】
次に、音声合成システム10を更に具体化した一実施例について説明する。
【0026】
図3は、本実施例の音声合成システムを示す構成図である。以下、この図面に基づき説明する。
【0027】
携帯端末12は、パケット情報受信端末であり、複数あるうちの一つのみを示す。サーバ13は、ゲートウェイサーバ137及び任意のサーバ138からなる。携帯端末12とゲートウェイサーバ137とは通信回線111を介して接続され、ゲートウェイサーバ137とサーバ138とは通信回線112を介して接続されている。ここで、携帯端末12の通信要求をゲートウェイサーバ137の中継により任意のサーバ138に伝達し、その応答として、任意のサーバ138がゲートウェイサーバ137を通して携帯端末12に情報を伝達する。
【0028】
携帯端末12は、サーバ13からの情報を受信するとともに、サーバ13に対する情報取得要求を送信する。ゲートウェイサーバ137は、携帯端末12と任意のサーバ138との中継点にあって、携帯端末12に応答情報を伝達する。任意のサーバ138は、携帯端末12から送信されてくる情報要求に対し、その応答として適当なデータを返すとともに、携帯端末12に対してPUSH型の自動配信を行う。
【0029】
図4[1]は携帯端末12のソフトウェア構成を示すブロック図であり、図4[2]は携帯端末12のハードウェア構成を示すブロック図である。以下、図3及び図4に基づき説明する。
【0030】
図4[1]に示すように、携帯端末12のソフトウェア20は、OS21、通信モジュール22、JAVA管理モジュール23,JAVA VM(Virtual Machine:仮想マシン)24及びJAVAアプリケーション25の五層から構成される。「JAVA」とは、オブジェクト指向のプログラミング言語の一種であり、JAVA VMというレイヤーが個々のOSやCPUの違いを吸収することにより、一つのバイナリ・アプリケーションでどの環境でも実行できるようにしたものである。
【0031】
OS21は、プラットフォームを表す。ただし、JAVAがプラットフォームに依存しないというメリットを持っていることから、OS21は特に特定されない。通信モジュール22は、パケット通信データを送受信するためのモジュールである。JAVA管理モジュール23、JAVA VM24及びJAVAアプリケーション25は、通信モジュール22を介してパケットデータを受信したことを関知する。JAVA管理モジュール23は、JAVA VM24の動作等の制御を管理する。JAVA管理モジュール23が、実際の携帯端末12上でのJAVAアプリケーション25の振る舞いを制御する。JAVA VM24は、機能として特に規定はしない。しかし、現在のパーソナルコンピュータ等に含まれているJAVA VMでは、携帯端末12に実装するとメモリ容量が不足する。したがって、JAVA VM24は、携帯端末12として使用するのに必要な機能しか持たないものとする。JAVAアプリケーション25は、通信モジュール22で受信したデータに基づいて動作するように作成されたアプリケーション・プログラムである。
【0032】
図4[2]に示すように、携帯端末12のハードウェア30は、システム制御部31、記憶メモリ32、音声認識部37、無線制御部38及びオーディオ部39からなる。更に、無線制御部38は通信データ受信部33及び通信データ送信部34を備え、オーディオ部39はスピーカ35及びマイク36を備えている。
【0033】
システム制御部31は、携帯端末12のメイン部分の動作を担い、図1に示す携帯端末12の各手段をコンピュータ・プログラムによって実現している。記憶メモリ32は、JAVAアプリケーション25によって採取した音声サンプリングデータを保存する領域として使用したり、サーバ13から取得した音声合成データを保存する領域として使用する。通信データ受信部33は、携帯端末12に入力される通信データを受信する。通信データ送信部34は、携帯端末12から通信データを出力する。スピーカ35は、受信した音声合成データを音声として外部に出力する。マイク36は、ユーザが発声した音声を携帯端末12内に入力する。音声認識部37は、マイク36から入力された音声データを認識し、JAVAアプリケーション25に対して通知する。
【0034】
次に、図5乃至図9に基づき、本実施例の音声合成システムにおける動作の一例を説明する。以下の「データベース」は、携帯端末のユーザごとに別々にサーバ内に設けられ、当該ユーザの許可がない限り、他のユーザがアクセスできないようになっている。
【0035】
図5は、テキストデータを受信した場合の携帯端末の動作を示すフローチャートである。以下、この図面に基づき説明する。
【0036】
まず、テキストデータを受信すると(ステップ41)、音声合成をするか否かを判定する(ステップ42)。その判定方法としては、ユーザが選択する、又は設定されたデータ(例えば音声合成をする又はしない)に従うなどがある。音声合成をする場合は、音声合成に使用する音声サンプリングデータを決定する(ステップ43)。このサンプリングデータの決定は、携帯端末のユーザ自身のデータベース内の音声サンプリングデータを使用するか、又は他のユーザのデータベース内の音声サンプリングデータを使用するか、を決定するものである。この動作により、ユーザ自身が所有する音声サンプリングデータだけでなく、他のユーザが所有する音声サンプリングデータを参照して、自己の携帯端末において音声合成データを再生することが可能になる。サーバのデータベースにアクセスする時は、自己のアクセス識別子を使用することによりアクセス許可を取得する。このとき、他のユーザが所有するデータベースにアクセスする時は、後述する図8及び図9に示すように、データベース参照許可を受ける。
【0037】
使用するサンプリングデータを決定した後は、音声サンプリングデータが保存されているデータベースに対してアクセスを要求する(ステップ44,45)。そのアクセスする際のサーバと携帯端末とのシーケンスについては、後述する図6に示す。データベースに対するアクセス許可が下りた場合は、音声合成をしてもらうためのテキストデータを送信する(ステップ46,47)。サーバから音声合成データが配信されると、その音声合成データを携帯端末が受信する(ステップ48)。これにより、受信した音声合成データを再生することができる(ステップ49)。
【0038】
図6は、携帯端末からサーバに対してアクセスする動作を示すシーケンス図である。以下、この図面に基づき説明する。
【0039】
まず、携帯端末からサーバに対して、携帯端末自身のアクセス識別子付きでデータベース参照要求を送信する(ステップ51〜53)。サーバ側では、その要求によりサーバ内のデータベースを検索し、アクセスできるユーザかどうかを判別する(ステップ54)。アクセス可能なユーザの場合はアクセスIDを送信し、次回からは携帯端末から送信されるヘッダ情報内のアクセスIDを確認することで、データベースの参照を許可する。すなわち、データベースにアクセス許可が下りた場合は、サーバ側から携帯端末側に対してアクセスIDを配布する(ステップ55)。携帯端末側では、サーバ側からアクセスIDをもらうことで、自己のアクセス識別子とアクセスIDとをデータ内のヘッダに入力して、音声合成をしてもらうためのテキストデータを送信する(ステップ56〜60)。
【0040】
サーバ側では、アクセスIDを識別することによりユーザのアクセス許可をチェックし、その後に受信したテキストデータの音声合成を開始する(ステップ61)。このとき、音声合成に使用する音声サンプリングデータは、アクセスIDを元に指定のデータベースから取得する。音声合成終了後、サーバは携帯端末に音声合成データを配信する(ステップ62)。すると、携帯端末側では、JAVAアプリケーションに対して受信通知が行われ、音声合成データをJAVAアプリケーションに引き渡す(ステップ63)。この動作により、JAVAアプリケーションは、音声合成データの受信を認知し、受信した音声合成データを再生することができる(ステップ64)。
【0041】
図7は、音声サンプリングデータをデータベース化する動作を示すシーケンス図である。以下、この図面に基づき説明する。
【0042】
まず、JAVAアプリケーション起動中に、ユーザが音声通話等で携帯端末のマイクに入力する音声データを、音声サンプリングデータとしてJAVAアプリケーションに引き渡す(ステップ71)。この音声サンプリングデータを携帯端末の記憶メモリに蓄積する(ステップ72)。音声サンプリングデータがある一定量記憶メモリに蓄積された時点(ステップ73)で、JAVAアプリケーションは、自動的に図6のサーバアクセスシーケンスを使用し(図6のステップ51〜61参照)、自己のデータベースへ記憶メモリ内の自己の音声サンプリングデータを保存する(ステップ74〜84)。この仕組みにより、ユーザは、自己の音声サンプリングデータをサーバ内のデータベースとして構築し、他のユーザに自己の音声サンプリングデータを公開することで、他のユーザの携帯端末で音声合成データを自己の音声で再生することを可能にする。
【0043】
図8及び図9は、ユーザが所有する音声サンプリングデータのデータベースを他のユーザに公開する動作を示すシーケンス図である。以下、この図面に基づき説明する。
【0044】
まず、携帯端末Aのユーザが所有するデータベースにアクセスを希望する携帯端末Bのメールアドレスを、携帯端末AのJAVAアプリケーション上から入力する(ステップ141)。続いて、そのメールアドレスをサーバへ送信する(ステップ142〜144)。サーバ側では、携帯端末Aのユーザのデータベースに対して携帯端末Aからアクセス要求があった場合に、メールアドレスが付加されていたら、仮のデータベースアクセス許可IDを発行し、メールアドレス先の携帯端末Bに仮のデータベースアクセス許可IDとデータベース接続先(サーバ)とを送付する(ステップ145〜153)。
【0045】
メールを受信した携帯端末B側では、ユーザがメール画面にてその仮のデータベースアクセス許可IDを選択した時に、メーラとJAVAアプリケーションとの連動により、JAVAアプリケーションにその仮のデータベースアクセス許可IDとデータベース接続先(サーバ)とを引き渡す(ステップ161〜164)。この動作により、JAVAアプリケーションはデータベース接続先(サーバ)に対して、自身のアクセス識別子と仮のデータベースアクセス許可IDとを送信する(ステップ165〜167)。サーバ側では、アクセス識別子と仮のデータベースアクセス許可IDとを受信することにより、次回から携帯端末Bのアクセスが許可されるようにデータベースの更新作業を行う(ステップ168)。
【0046】
【発明の効果】
本発明に係る音声合成システム及び音声合成方法によれば、複数の携帯端末のユーザの音声サンプリングデータがサーバ内にデータベース化されていることにより、他の携帯端末から送られてきたテキストデータをサーバへ送ると、その携帯端末のユーザの声からなる音声合成データがサーバから返ってくるので、その携帯端末のユーザの声でテキストデータを読み上げることができる。したがって、現実性を向上できる。
【0047】
また、各携帯端末がユーザの音声サンプリングデータを採取してサーバへ送信し、サーバがその音声サンプリングデータをデータベース化することにより、自動的かつ容易に当該音声合成システムを拡張することができる。すなわち、新たな携帯端末のユーザが当該音声合成システムに参加する場合も、即座に前述のサービスが受けられる。
【0048】
換言すると、本発明によれば、メール等で送信されてくるテキスト文書をユーザ選択により、任意の音声データに変換することで、文書の内容を自分で読まなくても、ユーザの聞きたい音声データで内容を再生することができるため、視覚的に障害を持つ方々にも便利な機能を提供することができる。
【図面の簡単な説明】
【図1】本発明に係る音声合成システムの一実施形態を示す機能ブロック図である。
【図2】図1の音声合成システムにおける動作の一例を示すシーケンス図である。
【図3】本発明に係る音声合成システムの一実施例を示す構成図である。
【図4】図3内の携帯端末の構成例を示すブロック図であり、図4[1]は携帯端末のソフトウェア構成、図4[2]は携帯端末のハードウェア構成である。
【図5】図3の音声合成システムにおける、テキストデータを受信した場合の携帯端末の動作を示すフローチャートである。
【図6】図3の音声合成システムにおける、携帯端末からサーバに対してアクセスする動作を示すシーケンス図である。
【図7】図3の音声合成システムにおける、音声サンプリングデータをデータベース化する動作を示すシーケンス図である。
【図8】図3の音声合成システムにおける、ユーザが所有する音声サンプリングデータのデータベースを他のユーザに公開する動作を示すシーケンス図である。
【図9】図3の音声合成システムにおける、ユーザが所有する音声サンプリングデータのデータベースを他のユーザに公開する動作を示すシーケンス図である。
【符号の説明】
10 音声合成システム
11 通信回線
13 サーバ
12,12A,12B 携帯端末
121 テキストデータ受信手段
122 テキストデータ送信手段
123 音声合成データ受信手段
124 音声再生手段
125 音声サンプリングデータ採取手段
126 音声サンプリングデータ送信手段
131 テキストデータ受信手段
132 音声合成手段
133 音声合成データ送信手段
134 音声サンプリングデータ受信手段
135 データベース構築手段

Claims (6)

  1. 通信回線を介して互いに接続可能な携帯端末とサーバとを備えた音声合成システムであって、
    前記携帯端末は、他の携帯端末からテキストデータを受信するテキストデータ受信手段と、受信した前記テキストデータに前記他の携帯端末のユーザの音声サンプリング名を添付して前記サーバへ送信するテキストデータ送信手段と、音声合成データを前記サーバから受信する音声合成データ受信手段と、受信した前記音声合成データを音声に再生する音声再生手段とを備え、
    前記サーバは、前記テキストデータ及び音声サンプリング名を前記携帯端末から受信するテキストデータ受信手段と、受信した前記音声サンプリング名に対応する前記他の携帯端末のユーザの音声サンプリングデータを用いて、受信した前記テキストデータを音声合成データに変換する音声合成手段と、変換した前記音声合成データを前記携帯端末へ送信する音声合成データ送信手段とを備えた、
    ことを特徴とする音声合成システム。
  2. 前記携帯端末を複数備えた、
    請求項1記載の音声合成システム。
  3. 前記各携帯端末は、それぞれのユーザの音声サンプリングデータを採取する音声サンプリングデータ採取手段と、採取した前記音声サンプリングデータを前記サーバへ送信する音声サンプリングデータ送信手段とを更に備え、
    前記サーバは、前記音声サンプリングデータを前記各携帯端末から受信する音声サンプリングデータ受信手段と、受信した前記音声サンプリングデータに前記音声サンプリング名を付してデータベースを構築するデータベース構築手段とを更に備えた、
    請求項2記載の音声合成システム。
  4. 通信回線を介して互いに接続可能な携帯端末とサーバとを備えた音声合成システムに用いられる音声合成方法であって、
    前記携帯端末は、他の携帯端末からテキストデータを受信するテキストデータ受信ステップと、受信した前記テキストデータに前記他の携帯端末のユーザの音声サンプリング名を添付して前記サーバへ送信するテキストデータ送信ステップと、音声合成データを前記サーバから受信する音声合成データ受信ステップと、受信した前記音声合成データを音声に再生する音声再生ステップとを備え、
    前記サーバは、前記テキストデータ及び音声サンプリング名を前記携帯端末から受信するテキストデータ受信ステップと、受信した前記音声サンプリング名に対応する前記他の携帯端末のユーザの音声サンプリングデータを用いて、受信した前記テキストデータを音声合成データに変換する音声合成ステップと、変換した前記音声合成データを前記携帯端末へ送信する音声合成データ送信ステップとを備えた、
    ことを特徴とする音声合成方法。
  5. 前記携帯端末を複数備えた、
    請求項4記載の音声合成方法。
  6. 前記各携帯端末は、それぞれのユーザの音声サンプリングデータを採取する音声サンプリングデータ採取ステップと、採取した前記音声サンプリングデータを前記サーバへ送信する音声サンプリングデータ送信ステップとを更に備え、
    前記サーバは、前記音声サンプリングデータを前記各携帯端末から受信する音声サンプリングデータ受信ステップと、受信した前記音声サンプリングデータに前記音声サンプリング名を付してデータベースを構築するデータベース構築ステップとを更に備えた、
    請求項5記載の音声合成方法。
JP2001337617A 2001-11-02 2001-11-02 音声合成システム及び音声合成方法 Expired - Fee Related JP3589216B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2001337617A JP3589216B2 (ja) 2001-11-02 2001-11-02 音声合成システム及び音声合成方法
US10/270,310 US7313522B2 (en) 2001-11-02 2002-10-15 Voice synthesis system and method that performs voice synthesis of text data provided by a portable terminal
GB0224901A GB2383502B (en) 2001-11-02 2002-10-25 Voice synthesis system and method,and portable terminal and server therefor
CNB021498121A CN1208714C (zh) 2001-11-02 2002-11-04 语音合成系统和语音合成方法
HK03105371.5A HK1053221A1 (zh) 2001-11-02 2003-07-25 以文本方式發送至便攜終端的語音綜合

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001337617A JP3589216B2 (ja) 2001-11-02 2001-11-02 音声合成システム及び音声合成方法

Publications (2)

Publication Number Publication Date
JP2003140674A JP2003140674A (ja) 2003-05-16
JP3589216B2 true JP3589216B2 (ja) 2004-11-17

Family

ID=19152222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001337617A Expired - Fee Related JP3589216B2 (ja) 2001-11-02 2001-11-02 音声合成システム及び音声合成方法

Country Status (5)

Country Link
US (1) US7313522B2 (ja)
JP (1) JP3589216B2 (ja)
CN (1) CN1208714C (ja)
GB (1) GB2383502B (ja)
HK (1) HK1053221A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040117454A1 (en) * 2002-12-13 2004-06-17 Koont Eren S. Collaboration cube for a portable computer device
GB0229860D0 (en) * 2002-12-21 2003-01-29 Ibm Method and apparatus for using computer generated voice
TWI265718B (en) * 2003-05-29 2006-11-01 Yamaha Corp Speech and music reproduction apparatus
CN100378725C (zh) * 2003-09-04 2008-04-02 摩托罗拉公司 一种产生用于提供与文本对应的语音的信号的方法
GB2413038B (en) * 2004-04-08 2008-05-14 Vodafone Ltd Transmission of data during communication sessions
US20050288930A1 (en) * 2004-06-09 2005-12-29 Vaastek, Inc. Computer voice recognition apparatus and method
JP2006018133A (ja) * 2004-07-05 2006-01-19 Hitachi Ltd 分散型音声合成システム、端末装置及びコンピュータ・プログラム
JP2006197041A (ja) * 2005-01-12 2006-07-27 Nec Corp PoCシステム、PoC携帯端末及びそれらに用いるポインタ表示方法並びにそのプログラム
US20080161057A1 (en) * 2005-04-15 2008-07-03 Nokia Corporation Voice conversion in ring tones and other features for a communication device
US8224647B2 (en) * 2005-10-03 2012-07-17 Nuance Communications, Inc. Text-to-speech user's voice cooperative server for instant messaging clients
US20080086565A1 (en) * 2006-10-10 2008-04-10 International Business Machines Corporation Voice messaging feature provided for immediate electronic communications
JP4859642B2 (ja) * 2006-11-30 2012-01-25 富士通株式会社 音声情報管理装置
US8514762B2 (en) * 2007-01-12 2013-08-20 Symbol Technologies, Inc. System and method for embedding text in multicast transmissions
KR101044323B1 (ko) * 2008-02-20 2011-06-29 가부시키가이샤 엔.티.티.도코모 음성 합성용 음성 데이터베이스를 구축하기 위한 통신 시스템, 이를 위한 중계 장치, 및 이를 위한 중계 방법
JP5049310B2 (ja) * 2009-03-30 2012-10-17 日本電信電話株式会社 音声学習・合成システム及び音声学習・合成方法
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
JP5881579B2 (ja) * 2012-10-26 2016-03-09 株式会社東芝 対話システム
CN104810015A (zh) * 2015-03-24 2015-07-29 深圳市创世达实业有限公司 语音转化装置、方法及使用该装置的支持文本存储的音箱

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04175049A (ja) 1990-11-08 1992-06-23 Toshiba Corp 音声応答装置
DE69232112T2 (de) * 1991-11-12 2002-03-14 Fujitsu Ltd., Kawasaki Vorrichtung zur Sprachsynthese
JPH08328575A (ja) 1995-05-29 1996-12-13 Sanyo Electric Co Ltd 音声合成装置
JPH08328590A (ja) 1995-05-29 1996-12-13 Sanyo Electric Co Ltd 音声合成装置
JPH0950286A (ja) 1995-05-29 1997-02-18 Sanyo Electric Co Ltd 音声合成装置及びこれに使用する記録媒体
US6453281B1 (en) * 1996-07-30 2002-09-17 Vxi Corporation Portable audio database device with icon-based graphical user-interface
US5721827A (en) * 1996-10-02 1998-02-24 James Logan System for electrically distributing personalized information
US5899975A (en) 1997-04-03 1999-05-04 Sun Microsystems, Inc. Style sheets for speech-based presentation of web pages
US5983190A (en) * 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
JP3224760B2 (ja) * 1997-07-10 2001-11-05 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声メールシステム、音声合成装置およびこれらの方法
JPH11109991A (ja) 1997-10-08 1999-04-23 Mitsubishi Electric Corp マンマシンインターフェースシステム
JPH11308270A (ja) 1998-04-22 1999-11-05 Olympus Optical Co Ltd 通信システム及びそれに用いられる端末装置
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
JP2000020417A (ja) 1998-06-26 2000-01-21 Canon Inc 情報処理方法及び装置、その記憶媒体
JP2000112845A (ja) 1998-10-02 2000-04-21 Nec Software Kobe Ltd 音声通知付電子メールシステム
JP2000339137A (ja) 1999-05-31 2000-12-08 Sanyo Electric Co Ltd 電子メール受信システム
JP2001022371A (ja) 1999-07-06 2001-01-26 Fujitsu Ten Ltd 音声合成電子メール送受信方法
US6516207B1 (en) * 1999-12-07 2003-02-04 Nortel Networks Limited Method and apparatus for performing text to speech synthesis
JP3712227B2 (ja) 2000-01-14 2005-11-02 本田技研工業株式会社 音声合成装置、音声合成方法におけるデータ作成方法、及び音声合成方法
JP2001222292A (ja) 2000-02-08 2001-08-17 Atr Interpreting Telecommunications Res Lab 音声処理システムおよび音声処理プログラムを記憶したコンピュータ読み取り可能な記録媒体
JP2001255884A (ja) 2000-03-13 2001-09-21 Antena:Kk 音声合成システム、そのシステムを使用してボイスメッセージの受注配送を行うことのできるボイスデリバリシステム、及びボイスデリバリ方法
DE10062379A1 (de) 2000-12-14 2002-06-20 Siemens Ag Verfahren und System zum Umsetzen von Text in Sprache
JP2002207671A (ja) 2001-01-05 2002-07-26 Nec Saitama Ltd 携帯電話機及び電子メール文章送信/再生方法
US6625576B2 (en) * 2001-01-29 2003-09-23 Lucent Technologies Inc. Method and apparatus for performing text-to-speech conversion in a client/server environment
DE10117367B4 (de) 2001-04-06 2005-08-18 Siemens Ag Verfahren und System zur automatischen Umsetzung von Text-Nachrichten in Sprach-Nachrichten
GB0113571D0 (en) 2001-06-04 2001-07-25 Hewlett Packard Co Audio-form presentation of text messages
FR2835087B1 (fr) 2002-01-23 2004-06-04 France Telecom Personnalisation de la presentation sonore de messages synthetises dans un terminal

Also Published As

Publication number Publication date
GB2383502B (en) 2005-11-02
CN1416053A (zh) 2003-05-07
GB0224901D0 (en) 2002-12-04
JP2003140674A (ja) 2003-05-16
US7313522B2 (en) 2007-12-25
GB2383502A (en) 2003-06-25
CN1208714C (zh) 2005-06-29
US20030088419A1 (en) 2003-05-08
HK1053221A1 (zh) 2003-10-10

Similar Documents

Publication Publication Date Title
JP3589216B2 (ja) 音声合成システム及び音声合成方法
US6618704B2 (en) System and method of teleconferencing with the deaf or hearing-impaired
US9214154B2 (en) Personalized text-to-speech services
JP2009112000A6 (ja) 実時間対話型コンテンツを無線交信ネットワーク及びインターネット上に形成及び分配する方法及び装置
US20090125312A1 (en) Method and system for providing news information by using three dimensional character for use in wireless communication network
JP2009112000A (ja) 実時間対話型コンテンツを無線交信ネットワーク及びインターネット上に形成及び分配する方法及び装置
JP2008061241A (ja) 周囲情報を連続的に記録する方法及び通信システム
JP2003114692A (ja) 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体
JP2003216564A (ja) コミュニケーション支援方法、これを用いたコミュニケーションサーバ及びコミュニケーション支援システム
US20030120492A1 (en) Apparatus and method for communication with reality in virtual environments
US6501751B1 (en) Voice communication with simulated speech data
JP4997022B2 (ja) 仮想空間提供サーバ及びシステム
JP2001109487A (ja) 電子メールの音声再生装置、その音声再生方法、及び音声再生プログラムを記録した記録媒体
KR20020003833A (ko) 음성아바타를 이용한 이메일 또는 채팅 시스템에서음향효과가 가미된 음성메일 또는 음성채팅 방법
KR100705954B1 (ko) 커뮤니티 사이트에 음성 메시지를 등록하는 방법 및 이를위한 시스템
JP2005274979A (ja) カラオケ処理装置、カラオケ演奏処理装置、サーバー装置、通信システム、カラオケ処理装置の制御方法、サーバー装置の制御方法、制御プログラムおよび記録媒体
JP2002186780A (ja) 運勢情報の提供方法
KR20040105999A (ko) 네트워크 기반 소리 아바타 생성 방법 및 시스템
JP2001127900A (ja) 通信装置、電話機および通信処理プログラムを記録した記録媒体
KR20000036756A (ko) 유명인사의 음성을 제공하기 위한 음성 포털 서비스 방법및 그 시스템
JP4017315B2 (ja) ボイスメールサービス方法及びボイスメールサービスシステム
JP2002351487A (ja) 音声ライブラリシステム及びその運用方法
CN103200309A (zh) 用于仅文本的应用的娱乐音频
KR100645255B1 (ko) 음성 아바타를 이용하는 언어장애인용 vms 서비스 시스템 및 그 방법
JP3830796B2 (ja) 情報通信装置、情報通信方法、及び情報通信プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040809

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070827

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080827

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080827

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090827

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090827

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100827

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110827

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110827

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120827

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees