JP2001215993A - 対話処理装置および対話処理方法、並びに記録媒体 - Google Patents

対話処理装置および対話処理方法、並びに記録媒体

Info

Publication number
JP2001215993A
JP2001215993A JP2000022225A JP2000022225A JP2001215993A JP 2001215993 A JP2001215993 A JP 2001215993A JP 2000022225 A JP2000022225 A JP 2000022225A JP 2000022225 A JP2000022225 A JP 2000022225A JP 2001215993 A JP2001215993 A JP 2001215993A
Authority
JP
Japan
Prior art keywords
user
emotion
information
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000022225A
Other languages
English (en)
Inventor
Koji Asano
康治 浅野
Seiichi Aoyanagi
誠一 青柳
Miyuki Tanaka
幸 田中
Jun Yokono
順 横野
Toshio Oe
敏生 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000022225A priority Critical patent/JP2001215993A/ja
Publication of JP2001215993A publication Critical patent/JP2001215993A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】 ユーザの感情の状態によって、バリエーショ
ンに富んだ対話を行う。 【解決手段】 音声認識部2では、ユーザからの音声が
認識されるとともに、その音声の韻律情報が抽出され
る。対話管理部3では、音声認識部2による音声認識結
果に含まれる語句の概念情報が抽出される。画像入力部
6では、ユーザの顔が撮像され、顔画像情報が出力され
る。生理情報入力部7では、ユーザの脈拍数等の生理情
報が感知される。そして、ユーザ感情情報更新部8は、
上述の韻律情報や、概念情報、顔画像情報、生理情報に
基づいて、ユーザの感情を推定し、対話管理部3および
文生成部4では、その感情の推定結果に基づいて、ユー
ザに出力する出力文が生成される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、対話処理装置およ
び対話処理方法、並びに記録媒体に関し、特に、例え
ば、ユーザの感情を考慮した対話を行うことができるよ
うにする対話処理装置および対話処理方法、並びに記録
媒体に関する。
【0002】
【従来の技術】いわゆる対話システムにおいては、ユー
ザから入力があると、その入力の意味内容に対応した応
答文が生成されて出力される。
【0003】
【発明が解決しようとする課題】従って、従来の対話シ
ステムでは、ユーザの感情がどのような状態であって
も、入力の意味内容が同一であれば、同じような応答文
が出力され、その結果、同じような対話が行われること
になる。
【0004】本発明は、このような状況に鑑みてなされ
たものであり、ユーザの感情の状態によって、バリエー
ションに富んだ対話を行うことができるようにするもの
である。
【0005】
【課題を解決するための手段】本発明の対話処理装置
は、ユーザから入力された語句の概念を抽出する概念抽
出手段と、ユーザから入力された語句の概念に基づい
て、ユーザの感情を推定し、その感情を表す感情情報を
出力する感情推定手段と、感情情報に基づいて、ユーザ
に出力する出力文を生成する出力文生成手段とを備える
ことを特徴とする。
【0006】感情推定手段には、出力文にも基づいて、
ユーザの感情を推定させることができる。
【0007】また、感情推定手段には、ユーザを撮像し
て得られる画像にも基づいて、ユーザの感情を推定させ
ることができる。
【0008】さらに、感情推定手段には、ユーザの生理
現象にも基づいて、ユーザの感情を推定させることがで
きる。
【0009】本発明の対話処理装置には、外部から得ら
れる音響信号を処理する音響処理手段をさらに設けるこ
とができ、この場合、感情推定手段には、音響処理手段
の処理結果にも基づいて、ユーザの感情を推定させるこ
とができる。
【0010】本発明の対話処理装置には、ユーザの音声
を認識する音声認識手段をさらに設けることができ、こ
の場合、概念抽出手段には、ユーザの音声の音声認識結
果に含まれる語句の概念を抽出させることができる。
【0011】感情推定手段には、ユーザの音声の韻律情
報にも基づいて、ユーザの感情を推定させることができ
る。
【0012】出力文生成手段には、感情情報に基づい
て、出力文の表現を変更させることができる。
【0013】出力文生成手段には、感情情報に基づい
て、出力文の個数を変更させることができる。
【0014】出力文は、相づちを意味するものとするこ
とができる。
【0015】本発明の対話処理装置には、感情情報を記
憶する記憶手段をさらに設けることができ、この場合、
出力文生成手段には、記憶手段に記憶された感情情報に
基づいて、出力文を生成させることができる。
【0016】本発明の対話処理装置には、出力文を出力
する出力文出力手段をさらに設けることができる。
【0017】出力文出力手段には、出力文を合成音で出
力させることができる。
【0018】また、出力文出力手段には、感情情報に基
づいて、合成音の韻律を制御させることができる。
【0019】本発明の対話処理方法は、ユーザから入力
された語句の概念を抽出する概念抽出ステップと、ユー
ザから入力された語句の概念に基づいて、ユーザの感情
を推定し、その感情を表す感情情報を出力する感情推定
ステップと、感情情報に基づいて、ユーザに出力する出
力文を生成する出力文生成ステップとを備えることを特
徴とする。
【0020】本発明の記録媒体は、ユーザから入力され
た語句の概念を抽出する概念抽出ステップと、ユーザか
ら入力された語句の概念に基づいて、ユーザの感情を推
定し、その感情を表す感情情報を出力する感情推定ステ
ップと、感情情報に基づいて、ユーザに出力する出力文
を生成する出力文生成ステップとを備えるプログラムが
記録されていることを特徴とする。
【0021】本発明の対話処理装置および対話処理方
法、並びに記録媒体においては、ユーザから入力された
語句の概念が抽出され、その概念に基づいて、ユーザの
感情が推定される。そして、その結果得られる感情情報
に基づいて、ユーザに出力する出力文が生成される。
【0022】
【発明の実施の形態】図1は、本発明を適用した対話シ
ステム(システムとは、複数の装置が論理的に集合した
ものをいい、各構成の装置が同一筐体中にあるか否かは
問わない)の一実施の形態の構成例を示している。
【0023】音声入力部1は、例えば、マイク(マイク
ロフォン)およびアンプ等で構成され、ユーザの音声
を、電気信号としての音声信号に変換し、必要に応じて
増幅して、その音声信号を、音声認識部2に供給する。
【0024】音声認識部2は、音声入力部1からの音声
信号を音響処理し、さらに、その音響処理結果に基づい
て、ユーザの音声を認識する。この音声認識結果は、対
話管理部3に供給される。また、音声認識部2は、音声
信号を音響処理することにより得られるユーザの音声の
韻律情報を、ユーザ感情情報更新部8に供給する。
【0025】対話管理部3は、ユーザ感情情報記録部9
が保持(記憶)している、ユーザの感情を表す感情情報
を考慮して、音声認識部2からの音声認識結果に対する
応答等としての、ユーザに出力する出力文の内容を生成
し、その内容を表す内容情報を、文生成部4に供給す
る。また、対話管理部3は、音声認識部2からの音声認
識結果に含まれる語句や、自身が生成した内容情報に対
応する出力文に含まれる語句の概念を抽出し、その概念
を表す概念情報を、ユーザ感情情報更新部8に供給す
る。
【0026】文生成部4は、ユーザ感情情報記録部9が
保持している感情情報を考慮しながら、対話管理部3か
らの内容情報に対応する、例えばテキストの出力文を生
成し、さらに、その出力文に対応する合成音の音声信号
を生成して、音声出力部5に供給する。
【0027】音声出力部5は、例えば、アンプおよびス
ピーカ等で構成され、文生成部4からの音声信号を、必
要に応じて増幅し、スピーカから出力する。
【0028】画像入力部6は、例えば、レンズ、CCD
(Charge Coupled Device)、A/D変換器等で構成さ
れ、ユーザの顔等を撮像して、その結果得られる顔画像
のディジタルデータ(画像データ)である顔画像情報
を、ユーザ感情情報更新部8に供給する。
【0029】生理情報入力部7は、例えば、脈拍計、発
汗量や熱を測定するセンサ等で構成され、ユーザの脈拍
や、発汗量、熱等の生理的な情報を感知し、その結果得
られる生理情報を、ユーザ感情情報更新部8に供給す
る。
【0030】ユーザ感情情報更新部8は、音声認識部2
からのユーザの音声の韻律情報や、対話管理部3からの
音声認識結果等に含まれる語句の概念情報、画像入力部
6からの顔画像情報、生理情報入力部7からの生理情報
に基づいて、ユーザの感情の状態を推定する。さらに、
ユーザ感情情報更新部8は、その推定の結果得られる感
情情報によって、ユーザ感情情報記録部9に保持されて
いる感情情報を更新する。
【0031】ユーザ感情情報記録部9は、ユーザの感情
としての、例えば、喜びや、怒り、驚き、悲しみ等の状
態を、所定の範囲の数値で表す感情情報を保持してい
る。
【0032】次に、図2のフローチャートを参照して、
図1の対話システムの基本的な処理の流れについて説明
する。
【0033】ユーザにより発話が行われると、音声入力
部1は、ステップS1において、その発話された音声に
対して音声入力処理を施し、その結果得られる音声信号
を、音声認識部2に出力する。即ち、音声入力部1は、
ユーザの音声を、電気信号としての音声信号に変換し、
その音声信号を、必要に応じて増幅して、音声認識部2
に供給する。
【0034】音声認識部2は、ステップS2において、
音声入力部2からの音声信号に基づいて、ユーザの音声
を認識し、その音声認識結果を、対話管理部3に供給す
る。さらに、音声認識部2は、音声入力部2からの音声
信号から、ユーザの音声の韻律情報を抽出し、ユーザ感
情情報更新部8に供給する。
【0035】その後、ステップS3に進み、ユーザ感情
情報記録部9に保持されている感情情報を更新する準備
を行う処理が行われる。
【0036】即ち、ステップS3では、対話管理部3
は、音声認識部2からのユーザの音声の音声認識結果等
に基づいて、感情情報を更新するのに用いる、上述の概
念情報を得る感情情報更新用対話管理処理を行い、その
概念情報を、ユーザ感情情報更新部8に供給する。さら
に、ステップS3では、画像入力部6は、ユーザの顔を
撮像して、顔画像情報を得る画像入力処理を行い、その
顔画像情報を、ユーザ感情情報更新部8に供給する。ま
た、ステップS3では、生理情報入力部7は、ユーザの
生理情報を得る生理情報入力処理を行い、その生理情報
を、ユーザ感情情報更新部8に供給する。
【0037】ユーザ感情情報更新部8は、ステップS4
において、音声認識部2からのユーザの音声の韻律情報
や、対話管理部3からの概念情報、画像入力部6からの
顔画像情報、生理情報入力部7からの生理情報に基づい
て、ユーザの感情の状態を推定する。さらに、ステップ
S4では、ユーザ感情情報更新部8は、その推定の結果
得られる感情情報によって、ユーザ感情情報記録部9に
保持されている感情情報を更新する。
【0038】その後、ステップS5において、対話管理
部3は、ユーザ感情情報記録部9が保持(記憶)してい
る、ユーザの感情を表す感情情報を考慮して、音声認識
部2からの音声認識結果に対する応答等としての、ユー
ザに出力する出力文の内容を表す内容情報を生成する文
生成用対話管理処理を行い、その内容情報を、文生成部
4に供給する。
【0039】そして、ステップS6において、文生成部
4は、ユーザ感情情報記録部9が保持している感情情報
を考慮しながら、対話管理部3からの内容情報に対応す
るテキストの出力文を生成し(文生成処理を行い)、さ
らに、その出力文に対応する合成音の音声信号を生成し
て、音声出力部5に供給する。
【0040】音声出力部5は、ステップS7において、
文生成部4からの音声信号を増幅し、スピーカから出力
する音声出力処理を行い、処理を終了する。
【0041】なお、上述の場合には、対話システムにお
いて、ユーザが何らかの発話を行ったことをトリガとし
て、合成音の出力(以下、適宜、対話システムの発話と
もいう)が行われるから、その合成音は、ユーザの発話
に対する応答となるが、対話システムにおいては、ユー
ザの発話以外をトリガとして、発話を行うようにするこ
とも可能である。
【0042】即ち、対話システムにおいては、例えば、
所定の時間ごとに発話を行うようにすることが可能であ
る。また、例えば、画像入力部6において、ユーザの顔
画像が得られたとき(単に、顔画像が得られたときの
他、所定の表情の顔画像が得られたときも含む)や、生
理情報入力部7において、所定の生理情報が得られたと
きに、発話を行うようにすることも可能である。さら
に、例えば、ユーザ感情情報記録部9に保持された感情
情報が所定の値以上または以下になったときに、発話を
行うようにすることも可能である。これらの場合は、対
話システムが、ユーザに話しかけ、その応答をユーザが
返す形で、対話が行われることになる。
【0043】次に、図3は、図1の音声認識部2の構成
例を示している。
【0044】音声入力部1からの音声信号は、AD(Ana
log Digtal)変換部11に供給されるようになってお
り、AD変換部11は、その音声信号を、アナログ信号
からディジタル信号に変換し、その結果得られる音声デ
ータを、特徴抽出部12に供給する。特徴抽出部12
は、AD変換部11からの音声データについて、適当な
フレームごとに音響処理を施すことで、例えば、スペク
トルや、線形予測係数、ケプストラム係数、線スペクト
ル対、MFCC(Mel Frequency Cepstrum Coefficient)
等の特徴パラメータを抽出し、マッチング部13に供給
する。
【0045】また、特徴抽出部12は、音声データに音
響処理を施すことにより得られる、例えば、発話速度
や、ピッチ周波数、パワー等の韻律情報を、ユーザ感情
情報更新部8に供給する。なお、発話速度としては、例
えば、1フレームあたりのモーラ数等を用いることがで
きる。
【0046】マッチング部13は、特徴抽出部12から
供給される特徴パラメータに基づき、音響モデルデータ
ベース14、辞書データベース15、および文法データ
ベース16を必要に応じて参照しながら、ユーザの音声
(入力音声)を認識する。
【0047】即ち、音響モデルデータベース14は、音
声認識する音声の言語における個々の音素や音節などの
音響的な特徴を表す音響モデルを記憶している。ここ
で、音響モデルとしては、例えば、HMM(Hidden Mark
ov Model)などを用いることができる。辞書データベー
ス15は、認識対象の各単語について、その発音に関す
る情報が記述された単語辞書を記憶している。文法デー
タベース16は、辞書データベース15の単語辞書に登
録されている各単語が、どのように連鎖する(つなが
る)かを記述した文法規則を記憶している。ここで、文
法規則としては、例えば、文脈自由文法(CFG)やH
PSG(Head-driven Phrase Structure Grammar)(主
辞駆動句構造文法)、統計的な単語連鎖確率(N−gr
am)などに基づく規則を用いることができる。
【0048】マッチング部13は、辞書データベース1
5の単語辞書を参照することにより、音響モデルデータ
ベース14に記憶されている音響モデルを接続すること
で、単語の音響モデル(単語モデル)を構成する。さら
に、マッチング部13は、幾つかの単語モデルを、文法
データベース16に記憶された文法規則を参照すること
により接続し、そのようにして接続された単語モデルを
用いて、特徴パラメータに基づき、例えば、HMM法等
によって、ユーザの音声を認識する。
【0049】そして、マッチング部13による音声認識
結果としての音韻情報は、例えば、テキストやワードグ
ラフ等で、対話管理部3に出力される。
【0050】次に、図4は、図1の対話管理部3の構成
例を示している。
【0051】音声認識部2が出力するユーザの音声認識
結果は、言語処理部21に供給されるようになってお
り、言語処理部21は、シソーラスデータベース23
や、言語処理用データベース24、履歴データベース2
5を必要に応じて参照しながら、音声認識結果を処理
し、その音声認識結果が表す意味や概念を、対話処理部
22に供給する。
【0052】即ち、シソーラスデータベース23には、
単語を、その概念によって階層構造に分類したシソーラ
スが記憶されており、言語処理部21は、このシソーラ
スを参照することにより、音声認識結果に含まれる単語
の概念を認識する。
【0053】ここで、シソーラスとしては、例えば、国
立国語研究所によって発表されている分類語彙表等を用
いることができる。
【0054】言語処理用データベース24には、各単語
の表記や必要な品詞情報などが記述された単語辞書と、
その単語辞書に記述された各単語の情報に基づいて、単
語連鎖に関する制約等が記述された構文/意味規則が記
憶されており、言語処理部21は、その単語辞書や構文
/意味規則に基づいて、そこに入力される音声認識結果
の形態素解析を行う。さらに、言語処理部21は、その
形態素解析結果に基づいて、音声認識結果の構文解析、
さらには、その意味内容の理解を行う。そして、言語処
理部21は、以上のようにして得られる音声認識結果を
構成する各単語の概念や、音声認識結果の意味内容の理
解の結果(以下、適宜、まとめて言語処理結果という)
を、対話処理部22に出力する。
【0055】ここで、言語処理部21では、例えば、正
規文法や、文脈自由文法、HPSG、統計的な単語連鎖
確率を用いて、構文解析や意味内容の理解を行うことが
できる。
【0056】また、言語処理部21は、必要に応じて、
履歴データベース25も参照しながら処理を行う。即
ち、履歴データベース25には、ユーザが発話した音声
の音声認識結果と、その発話に対して、対話システムが
出力した応答との組や、あるいは、対話システムの出力
と、その出力に対して、ユーザが発話した音声の音声認
識結果との組等の形で、ユーザと対話システムとの間の
対話の履歴(対話履歴)が記憶されるようになってお
り、言語処理部21は、対話履歴を参照することで、音
声認識結果における主語等の省略や、照応表現等の解析
を行い、これにより、例えば、ユーザの音声認識結果に
含まれる代名詞が、具体的に何を意味しているのか等を
認識するようになっている。
【0057】なお、シソーラスデータベース23および
言語処理用データベース24に記憶されている情報は、
基本的には更新されないから、いわば静的な情報という
ことができる。これに対して、履歴データベース25に
記憶されている対話履歴は、ユーザにより発話が行わ
れ、あるいは、対話システムが、ユーザに対して何らか
の出力を行うと、後述する対話処理部22によって更新
されていくので、いわば動的な情報ということができ
る。
【0058】上述したように、言語処理部21は、シソ
ーラスデータベース23を参照することで、音声認識結
果を構成する各単語(語彙)の概念を抽出するが、その
概念が、感情を表すものであるとき、その感情を表す概
念を、概念情報として、ユーザ感情情報更新部8に供給
する。即ち、言語処理部21は、シソーラス上におい
て、例えば、「喜び」や、「怒り」、「驚き」、「悲し
み」、「苦しさ」、「恥ずかしさ」、「楽しさ」等の、
感情を表す概念に属する単語が、音声認識結果に含まれ
るとき、その概念を表す概念情報を、ユーザ感情情報更
新部8に供給する。
【0059】なお、言語処理部21は、音声認識結果に
含まれる単語の概念情報の他、対話履歴として記憶され
ている対話システムの出力に含まれる単語の概念情報
も、必要に応じて抽出し、ユーザ感情情報更新部8に供
給するようになっている。
【0060】即ち、ユーザ感情情報更新部8は、上述の
ように、ユーザの感情の状態を推定するが、その推定に
あたっては、音声認識結果に含まれる単語の概念情報は
勿論であるが、対話システムの出力に含まれる単語の概
念情報も役に立つ場合がある。具体的には、例えば、対
話システムにおいて、ユーザを愚弄するような発話を行
った場合には、ユーザが怒ることが予想される。このた
め、言語処理部21は、対話履歴として記憶されている
対話システムの出力に含まれる単語の概念情報も、シソ
ーラスを参照することで抽出し、音声認識結果に含まれ
る単語の概念情報とともに、ユーザ感情情報更新部8に
供給するようになっている。
【0061】対話処理部22は、言語処理部21からの
言語処理結果、およびユーザ感情情報記録部9に保持さ
れている、ユーザの感情の状態を表す感情情報に基づ
き、履歴データベース25やシナリオデータベース26
を参照しながら、ユーザの音声認識結果に対する応答等
としての、ユーザに出力する出力文の内容を生成し、そ
の内容を表す内容情報を、文生成部4に供給する。
【0062】即ち、シナリオデータベース26は、例え
ば、ユーザとの対話パターンの規則としてのシナリオ
を、タスク(話題)ごとに記憶しており、対話処理部2
2は、基本的には、シナリオデータベース26に記憶さ
れているシナリオの中から、言語処理部21からの言語
処理結果に基づいて、ユーザとの対話に用いるものを決
定し、そのシナリオにしたがって、内容情報を生成す
る。
【0063】具体的には、例えば、ビデオ予約等の目的
志向型のタスクについては、例えば、次のようなシナリ
オが記憶されている。
【0064】 (action(Question(date,start_time,end_time,channel))) (date ???) #日付 (start_time ???)#開始時刻 (end_time ???) #終了時刻 (channel ???) #チャンネル ・・・(1)
【0065】ここで、(1)のシナリオによれば、言語
処理部21による言語処理結果が、録画の要求を表すも
のである場合には、対話処理部22において、録画を行
う日付、録画を開始する時刻、録画を終了する時刻、録
画を行うチャンネルを、そのような順番で質問する旨の
内容情報が生成される。
【0066】また、例えば、無目的型の対話(いわゆる
雑談)を行うためのシナリオとしては、次のようなもの
が記憶されている。
【0067】 If X exist then speak (Y) # X:キーワード, Y:応答文 (お金 何が欲しいの) # (X Y) (食べたい お腹がすいているの) ・・・(2)
【0068】ここで、(2)のシナリオによれば、言語
処理部21による言語処理結果に、「お金」というキー
ワードが含まれていれば、対話処理部22において、
「何が欲しいの」という、質問を行う旨の内容情報が生
成される。また、言語処理部21による言語処理結果
に、「食べたい」というキーワードが含まれていれば、
対話処理部22において、「お腹がすいているの」とい
う、質問を行う旨の内容情報が生成される。
【0069】また、対話処理部22は、例えば、言語処
理部21からの言語処理結果だけでなく、ユーザ感情情
報記録部9に保持されている感情情報にも基づいて、使
用するシナリオを決定する。即ち、例えば、言語処理部
21からの言語処理結果が、ユーザが挨拶をしたことを
表している場合において、感情情報が、「楽しさ」や
「うれしさ」が通常レベルであることを表しているとき
には、あるいは、「怒り」や「いらつき」が大であるこ
とを表しているときには、対話処理部22は、ユーザに
「こんにちは」と、単に挨拶を返すシナリオの使用を決
定する。また、例えば、例えば、言語処理部21からの
言語処理結果が、ユーザが挨拶をしたことを表している
場合において、感情情報が、「楽しさ」や「うれしさ」
が大であることを表しているときには、対話処理部22
は、ユーザに「何か良いことがあったのですか?」と問
い合わせるシナリオの使用を決定する。
【0070】なお、シナリオデータベース26には、シ
ナリオの他、ユーザと対話を行うにあたっての一般的な
知識も記憶されている。即ち、シナリオデータベース2
6には、例えば、言語処理部21による言語処理結果
が、ユーザが挨拶をしたことを表している場合には、そ
の挨拶に対する挨拶を行うことを指示する情報が、一般
的な知識として記憶されている。また、シナリオデータ
ベース26には、例えば、雑談時に使用する話題(トピ
ックス)なども、一般的な知識として記憶されている。
【0071】さらに、対話処理部22は、言語処理部2
1からの言語処理結果や、自身が生成した内容情報、さ
らには、その内容情報を生成するのに用いたシナリオに
関する情報等を、対話履歴として、履歴データベース2
5に記憶させる。
【0072】また、対話処理部22は、必要に応じて、
対話履歴を参照し、これにより、例えば、音声認識結果
や、その意味の理解に誤りがあったことが、後から判明
した場合等に対処するようにもなっている。
【0073】次に、図5は、図1の文生成部4の構成例
を示している。
【0074】テキスト文生成部31には、対話管理部3
から内容情報が供給されるようになっており、テキスト
文生成部31は、必要に応じて、辞書データベース34
および生成文法データベース35を参照しながら、内容
情報に対応する(即した)、テキストの出力文を生成す
る。
【0075】即ち、辞書データベース34には、各単語
の品詞情報や、読み、アクセント等の情報が記述された
単語辞書が記憶されており、生成用文法データベース3
5には、出力文の例のテンプレート、さらには、出力文
を生成するのに必要な単語の活用規則や、語順の制約情
報等の生成用文法規則が記憶されている。そして、テキ
スト文生成部31は、内容情報に対応するテンプレート
を選択し、さらに、必要な単語を単語辞書から選択す
る。さらに、テキスト文生成部31は、生成用文法規則
を参照して、語尾等を適切に変えながら、単語をテンプ
レートにあてはめることで、内容情報に対応する出力文
を生成する。
【0076】また、テキスト文生成部31には、ユーザ
感情情報記録部9に保持されている感情情報も供給され
るようになっており、テキスト文生成部31は、その感
情情報に基づいて、出力文の表現を変更する。即ち、生
成用文法データベース35には、同一内容のテンプレー
トで、表現の異なるものが記憶されており、テキスト文
生成部31は、そのような同一内容のテンプレートか
ら、所定の表現のものを、感情情報に基づいて選択す
る。また、テキスト文生成部31は、テンプレートにあ
てはめる単語についても、所定の表現のものを、感情情
報に基づいて選択する。さらに、テキスト文生成部31
は、語尾等の変更も、感情情報に基づいて行う。
【0077】これにより、例えば、感情情報が、「怒
り」や「悲しみ」のレベルが大であることを表している
ときには、テキスト生成部31において、比較的丁寧な
表現の出力文が生成される。また、例えば、感情情報
が、「楽しさ」や「喜び」のレベルが大であることを表
しているときには、テキスト生成部31において、いわ
ゆるラフな表現の出力文が生成される。
【0078】なお、出力文の生成の方法としては、テン
プレートを用いる方法の他、例えば、格構造に基づく方
法等を採用することも可能である。
【0079】テキスト文生成部31は、出力文を生成す
ると、その形態素解析や構文解析等を行い、後段の規則
合成部32で行われる規則音声合成に必要な情報を抽出
する。ここで、規則音声合成に必要な情報としては、例
えば、ポーズの位置や、アクセントおよびイントネーシ
ョンを制御するための情報その他の韻律情報や、各単語
の発音等の音韻情報などがある。
【0080】テキスト文生成部31で得られた情報は、
規則合成部32に供給され、規則合成部32では、音素
片データベース36を用いて、テキスト文生成部31に
おいて生成された出力文に対応する合成音の音声データ
(ディジタルデータ)が生成される。
【0081】即ち、音素片データベース36には、例え
ば、CV(Consonant, Vowel)や、VCV、CVC等の形
で音素片データが記憶されており、規則合成部32は、
テキスト文生成部31からの情報に基づいて、必要な音
素片データを接続し、さらに、ポーズ、アクセント、イ
ントネーション等を適切に付加することで、テキスト文
生成部31で生成された出力文に対応する合成音の音声
データを生成する。
【0082】また、規則合成部32には、ユーザ感情情
報記録部9に保持されている感情情報が供給されるよう
になっており、規則合成部32は、感情情報に基づい
て、接続された音素片データに付加するポーズや、アク
セント、イントネーション、さらには、発話速度、ピッ
チ周波数等の韻律情報を制御する。即ち、これにより、
規則合成部32では、例えば、感情情報が、ユーザが興
奮していることを表しているときには、ゆっくりとし
た、落ち着いた調子の合成音の音声データが生成され
る。また、例えば、感情情報が、ユーザが楽しそうであ
ることを表しているときには、規則合成部32では、や
はり、楽しそうな調子の合成音の音声データが生成され
る。
【0083】なお、感情と音声との関係については、例
えば、前川、「音声によるパラ言語情報の伝達;言語学
の立場から」、日本音響学会平成9年度秋季研究発表会
講演論文集1−3−10、pp.381-384、平成9年9月等
に、その詳細が記載されている。
【0084】規則合成部32で得られた合成音の音声デ
ータは、DA(Digital Analog)変換部33に供給され、
そこで、アナログ信号としての音声信号に変換される。
この音声信号は、音声出力部5に供給され、これによ
り、テキスト文生成部31で生成された出力文に対応す
る合成音が出力される。
【0085】次に、図6は、図1のユーザ感情情報更新
部8の構成例を示している。
【0086】音声認識部2が出力する韻律情報は韻律情
報処理部41に、対話管理部3が出力する概念情報は概
念情報処理部42に、画像入力部6が出力する顔画像情
報は画像情報処理部43に、生理情報入力部7が出力す
る生理情報は生理情報処理部44に、それぞれ供給され
るようになっている。
【0087】韻律情報処理部41は、そこに供給される
韻律情報を処理することにより、ユーザの感情を推定
し、その推定結果としての感情情報を、更新処理部45
に出力する。
【0088】なお、ユーザの音声の韻律情報から、その
ユーザの感情を推定する方法としては、例えば、特開平
10−55194号公報に記載されているもの等を用い
ることが可能である。
【0089】概念情報処理部42は、そこに供給される
概念情報を処理することにより、ユーザの感情を推定
し、その推定結果としての感情情報を、更新処理部45
に出力する。即ち、概念情報処理部42は、概念情報に
基づき、「喜び」や「怒り」等といった各感情を表す概
念に属する単語が、ユーザと対話システムとの対話にお
いて出現した出現頻度をカウントする。そして、概念情
報処理部42は、その出現頻度に基づいて、ユーザの感
情を推定し、その推定結果としての感情情報を、更新処
理部45に出力する。
【0090】画像情報処理部43は、そこに供給される
顔画像情報を処理することにより、ユーザの感情を推定
し、その推定結果としての感情情報を、更新処理部45
に出力する。
【0091】即ち、図7は、図6の画像情報処理部43
の構成例を示している。
【0092】顔画像情報は、特徴抽出部51に供給さ
れ、特徴抽出部51は、その顔画像情報の特徴量を抽出
する。即ち、特徴抽出部51は、例えば、顔画像情報を
ウェーブレット(Wavelet)変換し、空間周波数成分を表
す係数をコンポーネントとする特徴ベクトルを得て、ベ
クトル量子化部52に供給する。
【0093】ベクトル量子化部52は、コードブックデ
ータベース54に記憶されたコードブックにしたがっ
て、特徴抽出部51からの特徴ベクトルをベクトル量子
化し、これにより、1次元のシンボル(列)を得る。
【0094】即ち、コードブックデータベース54に
は、喜んでいる状態や、怒っている状態、驚いている状
態、悲しんでいる状態等の、各感情の状態における顔の
画像を用いて学習を行うことにより得られたコードブッ
クが記憶されている。なお、ここでは、量子化精度を高
めるために、例えば、喜び用コードブックや怒り用コー
ドブックのように、各感情ごとのコードブックが作成さ
れて記憶されている。
【0095】そして、ベクトル量子化部52は、コード
ブックデータベース54に記憶された各感情ごとのコー
ドブックにしたがって、特徴抽出部51からの特徴ベク
トルをベクトル量子化し、シンボル(コードブックのコ
ードベクトルに割り当てられたコード)を得て、マッチ
ング部53に出力する。従って、マッチング部53に
は、各感情ごとのベクトル量子化結果としてのシンボル
が供給される。
【0096】マッチング部53は、ベクトル量子化部5
2からのシンボルを用い、HMMデータベース55を参
照して、顔画像情報が、例えば、喜んでいる状態、怒っ
ている状態、驚いている状態、悲しんでいる状態等のう
ちのいずれの感情の状態における顔のものであるかのマ
ッチングを行う。
【0097】即ち、HMMデータベース55には、喜ん
でいる状態や、怒っている状態、驚いている状態、悲し
んでいる状態等の、各感情の状態における顔の画像を用
いて学習を行うことにより得られた、各感情における顔
についてのモデル(HMM)が記憶されている。
【0098】そして、マッチング部53は、ベクトル量
子化部52から得られるシンボル系列が観測される確率
が最も高いモデルを、ビタビ法により求める。さらに、
マッチング部53は、そのモデルに対応する感情を、ユ
ーザの感情として推定し、その推定結果としての感情情
報を、更新処理部45に出力する。
【0099】ここで、マッチング部53において、ベク
トル量子化部52から得られるシンボル系列が観測され
る確率の計算は、各感情ごとに行われる。即ち、例え
ば、喜び用コードブックを用いてベクトル量子化を行う
ことにより得られたシンボル系列が観測される確率の計
算は、喜んでいる状態の顔の画像を用いて学習が行われ
たHMM(喜び用HMM)を用いて行われる。また、例
えば、怒り用コードブックを用いてベクトル量子化を行
うことにより得られたシンボル系列が観測される確率の
計算は、怒っている状態の顔の画像を用いて学習が行わ
れたHMM(怒り用HMM)を用いて行われる。
【0100】なお、上述のようにして、顔画像情報か
ら、感情を推定する方法については、例えば、坂口、大
谷、岸野、「隠れマルコフモデルによる顔動画像からの
表情認識」、テレビジョン学会誌、VOL.49, no.8, pp.1
060-1067, 1995年8月等に、その詳細が記載されてい
る。
【0101】また、顔画像情報から、感情を推定する方
法としては、その他、例えば、坂口、森島、「空間周波
数情報に基づく基本表情の実時間認識」、第2回知能情
報メディアシンポジウム論文集,pp.75-82,1996年
12月等に記載されている方法を採用することも可能で
ある。
【0102】図6に戻り、生理情報処理部44は、そこ
に供給される生理情報を処理することにより、ユーザの
感情を推定し、その推定結果としての感情情報を、更新
処理部45に出力する。ここで、生理情報から、ユーザ
の感情を推定する方法としては、例えば、各感情と、脈
拍数や発汗量等の生理情報との相関を表す関数を、あら
かじめ統計的に求めておき、その関数を用いて行う方法
等がある。
【0103】更新処理部45は、韻律情報処理部41、
概念情報処理部42、画像情報処理部43、および生理
情報処理部44からの感情情報を総合的に用いて、ユー
ザ感情情報記録部9に保持されている感情情報を更新す
る最終的な更新値を求め、その更新値によって、ユーザ
感情情報記録部9の感情情報を更新する。即ち、更新処
理部45は、例えば、韻律情報処理部41、概念情報処
理部42、画像情報処理部43、生理情報処理部44そ
れぞれからの、各感情に対応する感情情報を重み付け加
算して正規化することで、各感情に対応する最終的な感
情情報を算出する。そして、更新処理部45は、この最
終的な感情情報によって、ユーザ感情情報記録部9の感
情情報を更新する。
【0104】ここで、図8は、ユーザ感情情報記録部9
が保持している感情情報を示している。各感情に対応す
る感情情報は、その感情の度合いを、例えば、0乃至1
の範囲の実数で表すもので、値が大きいほど、その感情
が強い(値が小さいほど、その感情が弱い)ことを示
す。更新処理部45では、このような感情情報としての
値が、各感情ごとに更新される。
【0105】次に、図9のフローチャートを参照して、
図6のユーザ感情情報更新部8の処理(感情情報更新処
理)について説明する。
【0106】まず最初に、ステップS11において、韻
律情報処理部41、概念情報処理部42、画像情報処理
部43、および生理情報処理部44は、上述したように
して、ユーザの感情を推定し、その推定結果としての感
情情報を、更新処理部45に出力する。
【0107】更新処理部45は、ステップS12におい
て、韻律情報処理部41、概念情報処理部42、画像情
報処理部43、および生理情報処理部44からの感情情
報を総合的に用いて、ユーザ感情情報記録部9に保持さ
れている感情情報を更新する最終的な更新値を求め、ス
テップS13に進み、その更新値によって、ユーザ感情
情報記録部9の感情情報を更新して、処理を終了する。
【0108】次に、上述した一連の処理は、専用のハー
ドウェアにより行うこともできるし、ソフトウェアによ
り行うこともできる。一連の処理をソフトウェアによっ
て行う場合には、そのソフトウェアを構成するプログラ
ムが、汎用のコンピュータ等にインストールされる。
【0109】そこで、図10は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
【0110】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク105やROM1
03に予め記録しておくことができる。
【0111】あるいはまた、プログラムは、フロッピー
ディスク、CD-ROM(Compact Disc Read Only Memory),M
O(Magneto optical)ディスク,DVD(Digital Versatile
Disc)、磁気ディスク、半導体メモリなどのリムーバブ
ル記録媒体111に、一時的あるいは永続的に格納(記
録)しておくことができる。このようなリムーバブル記
録媒体111は、いわゆるパッケージソフトウエアとし
て提供することができる。
【0112】なお、プログラムは、上述したようなリム
ーバブル記録媒体111からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部108で受信し、内蔵するハード
ディスク105にインストールすることができる。
【0113】コンピュータは、CPU(Central Processing
Unit)102を内蔵している。CPU102には、バス1
01を介して、入出力インタフェース110が接続され
ており、CPU102は、入出力インタフェース110を
介して、ユーザによって、キーボードやマウス等で構成
される入力部107が操作されることにより指令が入力
されると、それにしたがって、ROM(Read Only Memory)
103に格納されているプログラムを実行する。あるい
は、また、CPU102は、ハードディスク105に格納
されているプログラム、衛星若しくはネットワークから
転送され、通信部108で受信されてハードディスク1
05にインストールされたプログラム、またはドライブ
109に装着されたリムーバブル記録媒体111から読
み出されてハードディスク105にインストールされた
プログラムを、RAM(Random Access Memory)104にロ
ードして実行する。これにより、CPU102は、上述し
たフローチャートにしたがった処理、あるいは上述した
ブロック図の構成により行われる処理を行う。そして、
CPU102は、その処理結果を、必要に応じて、例え
ば、入出力インタフェース110を介して、LCD(Liquid
CryStal Display)やスピーカ等で構成される出力部1
06から出力、あるいは、通信部108から送信、さら
には、ハードディスク105に記録等させる。
【0114】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
【0115】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
【0116】以上のように、少なくとも、ユーザの音声
認識結果に含まれる語句の概念に基づいて、ユーザの感
情を推定するようにしたので、比較的精度良く、ユーザ
の感情を推定することができる。さらに、その他、韻律
情報や、顔画像情報、生理情報にも基づいて、ユーザの
感情を推定するようにしたので、より精度良く、ユーザ
の感情を推定することができる。さらに、そのような感
情の推定結果に基づいて、出力文を生成するようにした
ので、ユーザの感情の状態によって、バリエーションに
富んだ出力文を、ユーザに提供することが可能となる。
【0117】なお、本実施の形態では、音声入力部1に
入力された音(音声)について、音声認識を行うように
したが、音声入力部1に入力された音については、音声
認識を行わずに、例えば、その音が、机を叩いている音
であるとか、ユーザの息づかいであるといったことを検
出し、その検出結果に基づいて、ユーザの感情を推定す
ることも可能である。即ち、例えば、机を叩いているこ
とが連続して検出された場合には、ユーザが怒っている
ことを推定することができる。また、例えば、息づかい
が荒いことが検出された場合には、ユーザが興奮してい
ることを推定することができる。そして、この場合、そ
のような推定結果に基づいて、「怒り」や「興奮」を表
す感情情報の値を大きくするような、アドホック(ad ho
c)な更新ルールを適用することができる。
【0118】さらに、対話管理部3においては、感情状
態に応じて、出力文の生成回数を制御することにより、
ユーザに対する発話の回数を変化させることが可能であ
る。具合的には、例えば、ユーザが楽しそうな状態にあ
る場合には、例えば、相づちの回数を増やしたり、その
他、対話システムからの発話回数を増やして、積極的
に、ユーザとの対話を行うようにすることが可能であ
る。また、例えば、ユーザが悲しそうな状態にある場合
には、対話システムからの発話回数を減らして、ユーザ
に煩わしさを感じさせないようにすることが可能であ
る。
【0119】また、本実施の形態では、ユーザからの音
声を音声認識し、その音声認識結果に対する応答として
の発話を行うようにしたが、その他、例えば、ユーザが
キーボードを操作することにより入力される文に対し
て、応答を行うようにすることも可能である。
【0120】さらに、本実施の形態では、ユーザに対す
る応答等を、合成音で出力するようにしたが、その他、
例えば、テキスト等で表示するようにすることも可能で
ある。
【0121】また、本発明は、例えば、ディスプレイに
表示される仮想的なキャラクタや、あるいは実体のある
ロボット等とユーザとの間のユーザインタフェースとし
て用いることが可能である。この場合、ユーザに対する
応答等として、上述したように合成音を出力する他、仮
想的なキャラクタの表示状態を変えたり、ロボットに所
定の動作を行わせることで、マルチモーダルなインタフ
ェースを実現することができる。
【0122】
【発明の効果】本発明の対話処理装置および対話処理方
法、並びに記録媒体によれば、ユーザから入力された語
句の概念が抽出され、その概念に基づいて、ユーザの感
情が推定される。そして、その結果得られる感情情報に
基づいて、ユーザに出力する出力文が生成される。従っ
て、ユーザの感情の状態によって、例えば、バリエーシ
ョンに富んだ対話を行うことが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した対話システムの一実施の形態
の構成例を示すブロック図である。
【図2】図1の対話システムの処理を説明するためのフ
ローチャートである。
【図3】図1の音声認識部2の構成例を示すブロック図
である。
【図4】図1の対話管理部3の構成例を示すブロック図
である。
【図5】図1の文生成部4の構成例を示すブロック図で
ある。
【図6】図1のユーザ感情情報更新部8の構成例を示す
ブロック図である。
【図7】図6の画像情報処理部43の構成例を示すブロ
ック図である。
【図8】感情情報を示す図である。
【図9】図6のユーザ感情情報更新部8の処理を説明す
るためのフローチャートである。
【図10】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
【符号の説明】
1 音声入力部, 2 音声認識部, 3 対話管理
部, 4 文生成部,5 音声出力部, 6 画像入力
部, 7 生理情報入力部, 8 ユーザ感情情報更新
部, 9 ユーザ感情情報記録部, 11 AD変換
部, 12 特徴抽出部, 13 マッチング部, 1
4 音響モデルデータベース, 15 辞書データベー
ス, 16 文法データベース, 21 言語処理部,
22 対話処理部, 23 シソーラスデータベー
ス, 24 言語処理用データベース, 25 履歴デ
ータベース, 26 シナリオデータベース, 31
テキスト文生成部, 32 規則合成部, 33 DA
変換部, 34 辞書データベース, 35 生成用文
法データベース, 36 音素片データベース, 41
韻律情報処理部, 42 概念情報処理部, 43 画
像情報処理部, 44生理情報処理部, 51 特徴抽
出部, 52 ベクトル量子化部, 53マッチング
部, 54 コードブックデータベース, 55 HM
Mデータベース, 101 バス, 102 CPU,
103 ROM, 104 RAM, 105 ハードディス
ク, 106 出力部, 107 入力部, 108
通信部, 109 ドライブ, 110 入出力インタ
フェース, 111 リムーバブル記録媒体
───────────────────────────────────────────────────── フロントページの続き (72)発明者 田中 幸 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 横野 順 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大江 敏生 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5D015 AA06 LL07 LL10 5D045 AB01 AB07 AB30 9A001 DZ11 FF03 HH17 HH18 HH33

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】 ユーザとの対話を行う対話処理装置であ
    って、 ユーザから入力された語句の概念を抽出する概念抽出手
    段と、 前記ユーザから入力された語句の概念に基づいて、前記
    ユーザの感情を推定し、その感情を表す感情情報を出力
    する感情推定手段と、 前記感情情報に基づいて、前記ユーザに出力する出力文
    を生成する出力文生成手段とを備えることを特徴とする
    対話処理装置。
  2. 【請求項2】 前記感情推定手段は、前記出力文にも基
    づいて、前記ユーザの感情を推定することを特徴とする
    請求項1に記載の対話処理装置。
  3. 【請求項3】 前記感情推定手段は、前記ユーザを撮像
    して得られる画像にも基づいて、前記ユーザの感情を推
    定することを特徴とする請求項1に記載の対話処理装
    置。
  4. 【請求項4】 前記感情推定手段は、前記ユーザの生理
    現象にも基づいて、前記ユーザの感情を推定することを
    特徴とする請求項1に記載の対話処理装置。
  5. 【請求項5】 外部から得られる音響信号を処理する音
    響処理手段をさらに備え、 前記感情推定手段は、前記音響処理手段の処理結果にも
    基づいて、前記ユーザの感情を推定することを特徴とす
    る請求項1に記載の対話処理装置。
  6. 【請求項6】 前記ユーザの音声を認識する音声認識手
    段をさらに備え、 前記概念抽出手段は、前記ユーザの音声の音声認識結果
    に含まれる語句の概念を抽出することを特徴とする請求
    項1に記載の対話処理装置。
  7. 【請求項7】 前記感情推定手段は、前記ユーザの音声
    の韻律情報にも基づいて、前記ユーザの感情を推定する
    ことを特徴とする請求項6に記載の対話処理装置。
  8. 【請求項8】 前記出力文生成手段は、前記感情情報に
    基づいて、前記出力文の表現を変更することを特徴とす
    る請求項1に記載の対話処理装置。
  9. 【請求項9】 前記出力文生成手段は、前記感情情報に
    基づいて、前記出力文の個数を変更することを特徴とす
    る請求項1に記載の対話処理装置。
  10. 【請求項10】 前記出力文は、相づちを意味するもの
    であることを特徴とする請求項9に記載の対話処理装
    置。
  11. 【請求項11】 前記感情情報を記憶する記憶手段をさ
    らに備え、 前記出力文生成手段は、前記記憶手段に記憶された前記
    感情情報に基づいて、前記出力文を生成することを特徴
    とする請求項1に記載の対話処理装置。
  12. 【請求項12】 前記出力文を出力する出力文出力手段
    をさらに備えることを特徴とする請求項1に記載の対話
    処理装置。
  13. 【請求項13】 前記出力文出力手段は、前記出力文を
    合成音で出力することを特徴とする請求項12に記載の
    対話処理装置。
  14. 【請求項14】 前記出力文出力手段は、前記感情情報
    に基づいて、前記合成音の韻律を制御することを特徴と
    する請求項13に記載の対話処理装置。
  15. 【請求項15】 ユーザとの対話を行うための対話処理
    方法であって、 ユーザから入力された語句の概念を抽出する概念抽出ス
    テップと、 前記ユーザから入力された語句の概念に基づいて、前記
    ユーザの感情を推定し、その感情を表す感情情報を出力
    する感情推定ステップと、 前記感情情報に基づいて、前記ユーザに出力する出力文
    を生成する出力文生成ステップとを備えることを特徴と
    する対話処理方法。
  16. 【請求項16】 ユーザとの対話を行うための対話処理
    を、コンピュータに行わせるプログラムが記録されてい
    る記録媒体であって、 ユーザから入力された語句の概念を抽出する概念抽出ス
    テップと、 前記ユーザから入力された語句の概念に基づいて、前記
    ユーザの感情を推定し、その感情を表す感情情報を出力
    する感情推定ステップと、 前記感情情報に基づいて、前記ユーザに出力する出力文
    を生成する出力文生成ステップとを備えるプログラムが
    記録されていることを特徴とする記録媒体。
JP2000022225A 2000-01-31 2000-01-31 対話処理装置および対話処理方法、並びに記録媒体 Pending JP2001215993A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000022225A JP2001215993A (ja) 2000-01-31 2000-01-31 対話処理装置および対話処理方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000022225A JP2001215993A (ja) 2000-01-31 2000-01-31 対話処理装置および対話処理方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2001215993A true JP2001215993A (ja) 2001-08-10

Family

ID=18548551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000022225A Pending JP2001215993A (ja) 2000-01-31 2000-01-31 対話処理装置および対話処理方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2001215993A (ja)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002082423A1 (fr) * 2001-04-05 2002-10-17 Sony Corporation Dispositif d'elaboration de suites de mots
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
EP1574961A1 (en) * 2002-12-11 2005-09-14 Sony Corporation Information processing device and method, program, and recording medium
JP2006031467A (ja) * 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法
JP2006178063A (ja) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
JP2006188098A (ja) * 2004-12-28 2006-07-20 Pioneer Electronic Corp 対話装置、対話方法、対話プログラムおよびコンピュータに読み取り可能な記録媒体
JP2006349871A (ja) * 2005-06-14 2006-12-28 Toyota Motor Corp 運転者負荷推定装置
JP2007011308A (ja) * 2005-05-30 2007-01-18 Kyocera Corp 文書表示装置及び文書読み上げ方法
JP2007287177A (ja) * 2002-12-11 2007-11-01 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US7315821B2 (en) 2002-01-31 2008-01-01 Sanyo Electric Co., Ltd. System and method for health care information processing based on acoustic features
JP2008021058A (ja) * 2006-07-12 2008-01-31 Nec Corp 翻訳機能付き携帯電話装置、音声データ翻訳方法、音声データ翻訳プログラムおよびプログラム記録媒体
JP2010224153A (ja) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc 音声対話装置及びプログラム
US8185395B2 (en) 2004-09-14 2012-05-22 Honda Motor Co., Ltd. Information transmission device
JP2012185303A (ja) * 2011-03-04 2012-09-27 Toshiba Tec Corp 情報処理装置およびプログラム
JP2014153715A (ja) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd 音声対話機能を備えた携帯端末機及びその音声対話方法
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2016062550A (ja) * 2014-09-22 2016-04-25 ソフトバンク株式会社 会話処理システム及びプログラム
JP2016090775A (ja) * 2014-11-04 2016-05-23 トヨタ自動車株式会社 応答生成装置、応答生成方法およびプログラム
JP2018109663A (ja) * 2016-12-28 2018-07-12 シャープ株式会社 音声処理装置、対話システム、端末装置、プログラム及び音声処理方法
CN108630231A (zh) * 2017-03-22 2018-10-09 卡西欧计算机株式会社 信息处理装置、感情识别方法以及存储介质
KR20180118182A (ko) * 2016-03-31 2018-10-30 선전 쾅-츠 허종 테크놀로지 엘티디. 클라우드를 기반으로 한 설비 및 그 조작방법
WO2018198791A1 (ja) * 2017-04-26 2018-11-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
WO2018230669A1 (ja) * 2017-06-14 2018-12-20 ヤマハ株式会社 歌唱合成方法及び歌唱合成システム
JP2019505011A (ja) * 2015-12-07 2019-02-21 エスアールアイ インターナショナルSRI International 統合化された物体認識および顔表情認識を伴うvpa
JP2019158975A (ja) * 2018-03-08 2019-09-19 トヨタ自動車株式会社 発話システム
WO2019187590A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、プログラム
US10438586B2 (en) 2016-05-31 2019-10-08 Toyota Jidosha Kabushiki Kaisha Voice dialog device and voice dialog method
WO2019235190A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び対話システム
CN111341349A (zh) * 2018-12-03 2020-06-26 本田技研工业株式会社 情绪推断装置、情绪推断方法、及存储介质
JP2020126125A (ja) * 2019-02-04 2020-08-20 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置
US11113335B2 (en) * 2017-03-16 2021-09-07 National Institute Of Information And Communications Technology Dialogue system and computer program therefor
US11295736B2 (en) 2016-01-25 2022-04-05 Sony Corporation Communication system and communication control method
JP2023035549A (ja) * 2021-09-01 2023-03-13 ウェルヴィル株式会社 プログラム、情報処理装置、及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0956703A (ja) * 1995-08-23 1997-03-04 Hama Denshi:Kk 感情検出装置および心拍データ発信器および感情表示装置
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JPH11305985A (ja) * 1998-04-22 1999-11-05 Sharp Corp 対話装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0956703A (ja) * 1995-08-23 1997-03-04 Hama Denshi:Kk 感情検出装置および心拍データ発信器および感情表示装置
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JPH11305985A (ja) * 1998-04-22 1999-11-05 Sharp Corp 対話装置

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002082423A1 (fr) * 2001-04-05 2002-10-17 Sony Corporation Dispositif d'elaboration de suites de mots
US7315821B2 (en) 2002-01-31 2008-01-01 Sanyo Electric Co., Ltd. System and method for health care information processing based on acoustic features
JP4525712B2 (ja) * 2002-12-11 2010-08-18 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US7548891B2 (en) 2002-12-11 2009-06-16 Sony Corporation Information processing device and method, program, and recording medium
EP1574961A4 (en) * 2002-12-11 2011-10-26 Sony Corp INFORMATION PROCESSING DEVICE AND METHOD, PROGRAM AND RECORDING MEDIUM
EP1574961A1 (en) * 2002-12-11 2005-09-14 Sony Corporation Information processing device and method, program, and recording medium
JP2007287177A (ja) * 2002-12-11 2007-11-01 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US7881934B2 (en) 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2006031467A (ja) * 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP4508757B2 (ja) * 2004-07-16 2010-07-21 富士通株式会社 応答生成プログラム、応答生成方法、および応答生成装置
US8185395B2 (en) 2004-09-14 2012-05-22 Honda Motor Co., Ltd. Information transmission device
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法
JP2006178063A (ja) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
JP2006188098A (ja) * 2004-12-28 2006-07-20 Pioneer Electronic Corp 対話装置、対話方法、対話プログラムおよびコンピュータに読み取り可能な記録媒体
JP4694198B2 (ja) * 2004-12-28 2011-06-08 パイオニア株式会社 対話装置、対話方法、対話プログラムおよびコンピュータに読み取り可能な記録媒体
JP2007011308A (ja) * 2005-05-30 2007-01-18 Kyocera Corp 文書表示装置及び文書読み上げ方法
JP2006349871A (ja) * 2005-06-14 2006-12-28 Toyota Motor Corp 運転者負荷推定装置
JP4507996B2 (ja) * 2005-06-14 2010-07-21 トヨタ自動車株式会社 運転者負荷推定装置
JP2008021058A (ja) * 2006-07-12 2008-01-31 Nec Corp 翻訳機能付き携帯電話装置、音声データ翻訳方法、音声データ翻訳プログラムおよびプログラム記録媒体
JP2010224153A (ja) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc 音声対話装置及びプログラム
JP2012185303A (ja) * 2011-03-04 2012-09-27 Toshiba Tec Corp 情報処理装置およびプログラム
JP2014153715A (ja) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd 音声対話機能を備えた携帯端末機及びその音声対話方法
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2016062550A (ja) * 2014-09-22 2016-04-25 ソフトバンク株式会社 会話処理システム及びプログラム
JP2016090775A (ja) * 2014-11-04 2016-05-23 トヨタ自動車株式会社 応答生成装置、応答生成方法およびプログラム
JP7022062B2 (ja) 2015-12-07 2022-02-17 エスアールアイ インターナショナル 統合化された物体認識および顔表情認識を伴うvpa
JP2019505011A (ja) * 2015-12-07 2019-02-21 エスアールアイ インターナショナルSRI International 統合化された物体認識および顔表情認識を伴うvpa
US11295736B2 (en) 2016-01-25 2022-04-05 Sony Corporation Communication system and communication control method
JP2019518247A (ja) * 2016-03-31 2019-06-27 シェン ツェン クアン−チ ヘチョン テクノロジー リミティッド クラウドに基づく設備及びその操作方法
KR20180118182A (ko) * 2016-03-31 2018-10-30 선전 쾅-츠 허종 테크놀로지 엘티디. 클라우드를 기반으로 한 설비 및 그 조작방법
KR102156296B1 (ko) 2016-03-31 2020-09-15 선전 쾅-츠 허종 테크놀로지 엘티디. 클라우드에 기반을 둔 설비 및 그 조작방법
US10438586B2 (en) 2016-05-31 2019-10-08 Toyota Jidosha Kabushiki Kaisha Voice dialog device and voice dialog method
JP2018109663A (ja) * 2016-12-28 2018-07-12 シャープ株式会社 音声処理装置、対話システム、端末装置、プログラム及び音声処理方法
US11113335B2 (en) * 2017-03-16 2021-09-07 National Institute Of Information And Communications Technology Dialogue system and computer program therefor
CN108630231B (zh) * 2017-03-22 2024-01-05 卡西欧计算机株式会社 信息处理装置、感情识别方法以及存储介质
CN108630231A (zh) * 2017-03-22 2018-10-09 卡西欧计算机株式会社 信息处理装置、感情识别方法以及存储介质
WO2018198791A1 (ja) * 2017-04-26 2018-11-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
JPWO2018198791A1 (ja) * 2017-04-26 2020-03-05 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP7059524B2 (ja) 2017-06-14 2022-04-26 ヤマハ株式会社 歌唱合成方法、歌唱合成システム、及びプログラム
JP2019002999A (ja) * 2017-06-14 2019-01-10 ヤマハ株式会社 歌唱合成方法及び歌唱合成システム
CN110741430B (zh) * 2017-06-14 2023-11-14 雅马哈株式会社 歌唱合成方法及歌唱合成系统
WO2018230669A1 (ja) * 2017-06-14 2018-12-20 ヤマハ株式会社 歌唱合成方法及び歌唱合成システム
JP2022092032A (ja) * 2017-06-14 2022-06-21 ヤマハ株式会社 歌唱合成システム及び歌唱合成方法
JP7363954B2 (ja) 2017-06-14 2023-10-18 ヤマハ株式会社 歌唱合成システム及び歌唱合成方法
CN110741430A (zh) * 2017-06-14 2020-01-31 雅马哈株式会社 歌唱合成方法及歌唱合成系统
JP7192222B2 (ja) 2018-03-08 2022-12-20 トヨタ自動車株式会社 発話システム
JP2019158975A (ja) * 2018-03-08 2019-09-19 トヨタ自動車株式会社 発話システム
WO2019187590A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、プログラム
WO2019235190A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び対話システム
CN111341349A (zh) * 2018-12-03 2020-06-26 本田技研工业株式会社 情绪推断装置、情绪推断方法、及存储介质
CN111341349B (zh) * 2018-12-03 2023-07-25 本田技研工业株式会社 情绪推断装置、情绪推断方法、及存储介质
JP7230545B2 (ja) 2019-02-04 2023-03-01 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置
JP2020126125A (ja) * 2019-02-04 2020-08-20 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置
JP2023035549A (ja) * 2021-09-01 2023-03-13 ウェルヴィル株式会社 プログラム、情報処理装置、及び情報処理方法

Similar Documents

Publication Publication Date Title
JP2001215993A (ja) 対話処理装置および対話処理方法、並びに記録媒体
US20230012984A1 (en) Generation of automated message responses
US11062694B2 (en) Text-to-speech processing with emphasized output audio
US10140973B1 (en) Text-to-speech processing using previously speech processed data
JP5327054B2 (ja) 発音変動規則抽出装置、発音変動規則抽出方法、および発音変動規則抽出用プログラム
JP3994368B2 (ja) 情報処理装置および情報処理方法、並びに記録媒体
CN100371926C (zh) 通过响应输入语句而输出应答语句的交互对话装置和方法
JP4085130B2 (ja) 感情認識装置
US7280968B2 (en) Synthetically generated speech responses including prosodic characteristics of speech inputs
JP5066242B2 (ja) 音声翻訳装置、方法、及びプログラム
US20160379638A1 (en) Input speech quality matching
US11763797B2 (en) Text-to-speech (TTS) processing
JP4729902B2 (ja) 音声対話システム
JP5198046B2 (ja) 音声処理装置及びそのプログラム
JP2001101187A (ja) 翻訳装置および翻訳方法、並びに記録媒体
JP2001188781A (ja) 会話処理装置および方法、並びに記録媒体
JP2001188779A (ja) 情報処理装置および方法、並びに記録媒体
JP2016151736A (ja) 音声加工装置、及びプログラム
US20040006469A1 (en) Apparatus and method for updating lexicon
Sawada et al. The nitech text-to-speech system for the blizzard challenge 2016
JP2001209644A (ja) 情報処理装置および情報処理方法、並びに記録媒体
JP2001188782A (ja) 情報処理装置および方法、並びに記録媒体
JP4048473B2 (ja) 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
JPH1152987A (ja) 話者適応機能を持つ音声合成装置
JP2004279436A (ja) 音声合成装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100603