JP6465077B2 - 音声対話装置および音声対話方法 - Google Patents
音声対話装置および音声対話方法 Download PDFInfo
- Publication number
- JP6465077B2 JP6465077B2 JP2016109314A JP2016109314A JP6465077B2 JP 6465077 B2 JP6465077 B2 JP 6465077B2 JP 2016109314 A JP2016109314 A JP 2016109314A JP 2016109314 A JP2016109314 A JP 2016109314A JP 6465077 B2 JP6465077 B2 JP 6465077B2
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- user
- emotion
- voice
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 46
- 230000008451 emotion Effects 0.000 claims description 131
- 230000004044 response Effects 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 22
- 230000003993 interaction Effects 0.000 claims description 10
- 230000002452 interceptive effect Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
ユーザが発した音声と、当該音声を認識した結果を取得する音声処理手段と、それぞれ異なる方法によって前記ユーザの感情を推定する複数の推定手段と、前記推定したユーザの感情に基づいて応答文を生成し、前記ユーザに提供する応答手段と、を有し、前記応答手段は、前記複数の推定手段がそれぞれ推定したユーザの感情が一致しない場合に、前記ユーザに対して問い掛けを行い、得られた応答の内容に基づいて、いずれの推定結果を採用するかを決定することを特徴とする。
推定手段は、ユーザの感情を推定する手段である。ユーザの感情は、例えば、表情、声のピッチやトーン、発話内容などに基づいて推定することができるが、これらに限られない。本発明に係る音声対話装置は、それぞれ異なる方法によってユーザの感情を推定する複数の推定手段を有している。
て生成することができる。
ここで問題となるのが、複数の推定手段のうち一部が、他と異なる結果を出力した場合の扱いである。例えば、推定手段のうちの一部が「喜び」という感情を推定し、一部が「悲しみ」という感情を推定した場合、どの感情に基づいて応答文を生成すればよいかが問題となる。
かかる構成によると、不確かな推定結果に基づいて応答を生成することがなくなるため、ユーザに対してより自然な応答を返すことができる。
。
ユーザが発した音声と、当該音声を認識した結果を取得する音声処理手段と、それぞれ異なる方法によって前記ユーザの感情を推定する複数の推定手段と、前記推定したユーザの感情に基づいて応答文を生成し、前記ユーザに提供する応答手段と、を有し、前記応答手段は、前記複数の推定手段がそれぞれ出力した感情推定結果に不一致が発生した場合に、過去に感情の推定を行った結果である推定履歴を取得し、前記推定履歴に基づいて前記不一致を解消することを特徴とする。
本実施形態に係る音声対話システムは、ユーザが発した音声を取得して音声認識を行い、認識結果に基づいて応答文を生成することでユーザとの対話を行うシステムである。
<システム構成>
図1は、本実施形態に係る音声対話システムのシステム構成図である。本実施形態に係る音声対話システムは、ロボット10と、制御装置20と、サーバ装置30から構成される。
また、制御装置20は、ロボット10に対して制御命令を発行する装置である。本実施形態では、ロボット10はユーザインタフェースとしてのみ機能し、発話内容の認識、その他の処理など、システム全体を制御する処理は制御装置20が行う。
また、サーバ装置30は、制御装置20から送信された要求に応じて、ユーザに提供する応答(応答文)を生成する装置である。
ロボット10は、画像取得部11、音声入力部12、音声出力部13、近距離通信部14から構成される。
また、制御部23は、ロボット10から取得した情報に基づいて、ユーザの感情を推定する機能を有している。推定した感情はサーバ装置30に送信され、応答文生成の用に供される。具体的な処理内容については後述する。
通信部31が有する機能は、前述した通信部24と同様であるため、詳細な説明は省略する。
応答生成部32が取得した情報は、制御装置20へテキスト形式で送信され、その後、合成音声に変換され、ロボット10を介してユーザに向けて出力される。
次に、図1に示した各手段が行う処理とデータの流れについて、処理内容およびデータの流れを説明するフロー図である図2を参照しながら説明する。
まず、ステップS11で、ロボット10が有する音声入力部12が、マイクを通してユ
ーザが発話した音声を取得する。取得した音声は音声データに変換され、通信部を介して、制御装置20が有する音声認識部22へ送信される。
次に、ステップS12で、ロボット10が有する画像取得部11が、カメラを通してユーザの顔画像を取得する。取得した顔画像は、通信部を介して制御装置20が有する制御部23へ送信される。
感情の推定結果は、サーバ装置30が有する応答生成部32および質問生成部33へ送信され、一時的に記憶される。
なお、三つの推定結果がすべて同じであった場合、図3の処理は省略し、図5に示した処理に移行する(後述)。
ステップS16の終了後、サーバ装置30に送信された推定結果のうち、他と異なるものがあった場合、応答生成部32は、応答文の生成を一旦停止し、質問生成部33が、ユーザの感情を確定させるための質問を生成する。
ザの発話内容に基づいて、ユーザの感情を確認するための質問文を生成する。
図4は、三つの感情推定結果の組み合わせを示した図である。例示したように、三種類の推定結果のうち、少なくともいずれかが異なるパターンは6通りある。なお、図4に示したPはポジティブを、Nはネガティブを意味する。
例えば、顔画像に基づく推定結果が「ネガティブ」であり、音声に基づく推定結果が「ポジティブ」であり、発話内容に基づく推定結果が「ポジティブ」であった場合、「元気がないように見えるけど、本当に(ユーザの発話内容)?」といった質問を生成する。なお、(ユーザの発話内容)は、直前にユーザが発したセリフである。
例えば、ユーザが「楽しかった!」とロボットに話しかけた場合であって、「顔画像:ネガティブ」「音声:ポジティブ」「発話内容:ポジティブ」という判定を行った場合を考える。システムは、「元気がないように見えるけど、本当に楽しかった?」とユーザに問いかけ、これに対してユーザが、「疲れただけ。とても楽しかったよ」と回答したとする。この場合、ユーザが「ネガティブ」という感情極性を否定する発言をしているため、システムは、ユーザの感情が「ポジティブ」であると確定させる。この結果は、制御部23から応答生成部32へ送信される。
なお、図2の処理が終わった時点で、ユーザの感情が一意に確定している場合、図3の処理はスキップし、図5の処理が開始される。
生成された応答文は、制御装置20へ送信され、音声データに変換(ステップS32)されたのち、ロボット10を介してユーザに提供される(ステップS33)。この処理は、ステップS22およびS23と同様であるため、説明は省略する。
例えば、前述した例のように、ユーザが「疲れただけ。とても楽しかったよ」と回答した場合、「それは良かったね!」といったようなポジティブな回答がロボットから発せられる。
一方で、ユーザが「そう見える?本当は疲れてるんだよね」とネガティブな回答をした
場合、システムは、ユーザの感情が「ネガティブ」であると判断する。この結果、例えば、「そうなんだ。今日はお疲れさま」といったように、ネガティブないしはユーザを労う回答がロボットから発せられる。
第二の実施形態は、ステップS13〜S16の処理にて、過去に行った感情推定の結果を加味して感情を推定する実施形態である。
信頼度の算出は、例えば、感情の変化量に基づいて行ってもよい。例えば、急激な感情の変化が発生したと判定した場合、信頼度を低くしてもよい。
そして、当該信頼度に基づいて推定結果を確定させる。例えば、信頼度が所定の値以下である場合、推定結果を破棄し、直前における推定結果を採用するようにしてもよい。
なお、第二の実施形態では、図3に示した処理は必須ではない。例えば、ユーザへの問い掛けを行わず、前述した処理を行うことでユーザの感情を確定させてもよい。
第一の実施形態では、推定した感情に不一致が発生した場合、ユーザに問い掛けることで当該不一致を解消した。第三の実施形態は、これらの処理結果に基づいて、感情推定方法ごとの重みを算出し、当該重みを用いて感情の推定を行う実施形態である。
なお、重み係数は、ユーザと関連付けて記憶されることが好ましい。例えば、取得した
顔画像や音声に基づいてユーザを識別し、関連付けを行ってもよい。
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、実施形態の説明では、音声認識部22が音声認識を行ったが、音声認識をサーバ装置30で行うようにしてもよい。この場合、制御装置20が、音声データをサーバ装置に転送するようにしてもよい。
11・・・画像取得部
12・・・音声入力部
13・・・音声出力部
14,21・・・近距離通信部
20・・・制御装置
22・・・音声認識部
23・・・制御部
24,31・・・通信部
30・・・サーバ装置
32・・・応答生成部
33・・・質問生成部
Claims (5)
- ユーザが発した音声と、当該音声を認識した結果を取得する音声処理手段と、
それぞれ異なる方法によって前記ユーザの感情を推定する複数の推定手段と、
前記推定したユーザの感情に基づいて応答文を生成し、前記ユーザに提供する応答手段と、を有し、
前記応答手段は、前記複数の推定手段がそれぞれ出力した感情推定結果に不一致が発生した場合に、過去に感情の推定を行った結果である推定履歴を取得し、前記推定履歴に基づいて前記不一致を解消する、
音声対話装置。 - 前記推定履歴は、前記推定手段のそれぞれが過去に感情の推定を行った結果、正しい結果が得られたかに関する情報である正誤情報を含み、
前記応答手段は、前記正誤情報に基づいて前記推定手段ごとに重み付けを行う、
請求項1に記載の音声対話装置。 - 音声対話装置が、
ユーザが発した音声と、当該音声を認識した結果を取得する音声処理ステップと、
それぞれ異なる方法によって前記ユーザの感情を推定する複数の推定ステップと、
前記推定したユーザの感情に基づいて応答文を生成し、前記ユーザに提供する応答ステップと、を実行し、
前記応答ステップでは、前記複数の推定ステップでそれぞれ推定した感情推定結果に不一致が発生した場合に、過去に感情の推定を行った結果である推定履歴を取得し、前記推定履歴に基づいて前記不一致を解消する、
音声対話方法。 - 前記推定履歴は、前記推定ステップのそれぞれにおいて過去に感情の推定を行った結果、正しい結果が得られたかに関する情報である正誤情報を含み、
前記応答ステップでは、前記正誤情報に基づいて、複数の前記推定ステップにおいて推定した結果に重み付けを行う、
請求項3に記載の音声対話方法。 - 請求項3または4に記載の音声対話方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016109314A JP6465077B2 (ja) | 2016-05-31 | 2016-05-31 | 音声対話装置および音声対話方法 |
US15/598,478 US10438586B2 (en) | 2016-05-31 | 2017-05-18 | Voice dialog device and voice dialog method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016109314A JP6465077B2 (ja) | 2016-05-31 | 2016-05-31 | 音声対話装置および音声対話方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017215468A JP2017215468A (ja) | 2017-12-07 |
JP6465077B2 true JP6465077B2 (ja) | 2019-02-06 |
Family
ID=60418945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016109314A Active JP6465077B2 (ja) | 2016-05-31 | 2016-05-31 | 音声対話装置および音声対話方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10438586B2 (ja) |
JP (1) | JP6465077B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11107464B2 (en) * | 2018-12-03 | 2021-08-31 | Honda Motor Co., Ltd. | Feeling estimation device, feeling estimation method, and storage medium |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6465077B2 (ja) * | 2016-05-31 | 2019-02-06 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
JP7077603B2 (ja) * | 2017-12-19 | 2022-05-31 | 富士通株式会社 | 判定プログラム、判定方法及び画像生成装置 |
KR102051384B1 (ko) * | 2017-12-27 | 2019-12-03 | 한국항공대학교산학협력단 | 대화형 인공지능을 위한 다중 에이전트 시스템 |
CN111655149B (zh) | 2018-03-15 | 2024-08-23 | 松下知识产权经营株式会社 | 用于推断用户的心理状态的系统、记录介质以及方法 |
KR20190142219A (ko) * | 2018-06-15 | 2019-12-26 | 삼성전자주식회사 | 사용자의 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법 |
US11257500B2 (en) * | 2018-09-04 | 2022-02-22 | Newton Howard | Emotion-based voice controlled device |
KR102252195B1 (ko) * | 2018-09-14 | 2021-05-13 | 엘지전자 주식회사 | 감성 인식기 및 이를 포함하는 로봇, 서버 |
CN109542216B (zh) * | 2018-10-11 | 2022-11-22 | 平安科技(深圳)有限公司 | 人机交互方法、系统、计算机设备及存储介质 |
US10831442B2 (en) * | 2018-10-19 | 2020-11-10 | International Business Machines Corporation | Digital assistant user interface amalgamation |
KR20200113105A (ko) * | 2019-03-22 | 2020-10-06 | 삼성전자주식회사 | 응답을 제공하는 전자 장치와 이의 동작 방법 |
JP7279494B2 (ja) * | 2019-04-23 | 2023-05-23 | コニカミノルタ株式会社 | 会議支援装置、および会議支援システム |
WO2021002493A1 (ko) * | 2019-07-01 | 2021-01-07 | 엘지전자 주식회사 | 지능형 게이트웨이 장치 및 그를 포함하는 제어 시스템 |
CN110459210A (zh) * | 2019-07-30 | 2019-11-15 | 平安科技(深圳)有限公司 | 基于语音分析的问答方法、装置、设备及存储介质 |
US11019207B1 (en) * | 2019-11-07 | 2021-05-25 | Hithink Royalflush Information Network Co., Ltd. | Systems and methods for smart dialogue communication |
US11250853B2 (en) | 2020-04-30 | 2022-02-15 | Robert Bosch Gmbh | Sarcasm-sensitive spoken dialog system |
WO2021230100A1 (ja) * | 2020-05-13 | 2021-11-18 | ソニーグループ株式会社 | 情報処理装置および方法、並びにプログラム |
JP7423490B2 (ja) * | 2020-09-25 | 2024-01-29 | Kddi株式会社 | ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法 |
JPWO2022145038A1 (ja) * | 2020-12-31 | 2022-07-07 | ||
JP7465013B2 (ja) | 2020-12-31 | 2024-04-10 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
JP7500452B2 (ja) | 2021-01-27 | 2024-06-17 | 株式会社Nttドコモ | 心理状態管理装置 |
JPWO2022168181A1 (ja) * | 2021-02-02 | 2022-08-11 | ||
JPWO2022168183A1 (ja) * | 2021-02-02 | 2022-08-11 | ||
JPWO2022168177A1 (ja) * | 2021-02-02 | 2022-08-11 | ||
CN112579745B (zh) * | 2021-02-22 | 2021-06-08 | 中国科学院自动化研究所 | 基于图神经网络的对话情感纠错系统 |
JP7012295B1 (ja) | 2021-05-13 | 2022-01-28 | 株式会社ディーエスブランド | 情報処理装置、プログラム及び情報処理方法 |
JP7551579B2 (ja) | 2021-08-23 | 2024-09-17 | Kddi株式会社 | ネガティブな発話をポジティブなオウム返しで返答するプログラム、装置及び方法 |
JP7462995B1 (ja) | 2023-10-26 | 2024-04-08 | Starley株式会社 | 情報処理システム、情報処理方法及びプログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215993A (ja) | 2000-01-31 | 2001-08-10 | Sony Corp | 対話処理装置および対話処理方法、並びに記録媒体 |
JP4590555B2 (ja) * | 2004-09-02 | 2010-12-01 | 国立大学法人長岡技術科学大学 | 感性状態判別方法及び装置 |
US9240188B2 (en) * | 2004-09-16 | 2016-01-19 | Lena Foundation | System and method for expressive language, developmental disorder, and emotion assessment |
JP2006178063A (ja) * | 2004-12-21 | 2006-07-06 | Toyota Central Res & Dev Lab Inc | 対話処理装置 |
GB2434628B (en) * | 2005-01-14 | 2010-02-03 | Shell Int Research | System and method to install subsea pipelines |
US7584497B2 (en) * | 2005-05-24 | 2009-09-01 | Microsoft Corporation | Strategies for scheduling bandwidth-consuming media events |
ES2350514T3 (es) * | 2008-04-07 | 2011-01-24 | Ntt Docomo, Inc. | Sistema de mensajes con reconocimiento de emoción y servidor de almacenamiento de mensajes para el mismo. |
CN101981614B (zh) * | 2008-04-08 | 2012-06-27 | 株式会社Ntt都科摩 | 媒体处理服务器设备及其媒体处理方法 |
JP5382780B2 (ja) | 2009-03-17 | 2014-01-08 | 株式会社国際電気通信基礎技術研究所 | 発話意図情報検出装置及びコンピュータプログラム |
EP2790582A1 (en) * | 2011-12-16 | 2014-10-22 | Koninklijke Philips N.V. | History log of user's activities and associated emotional states |
JP5975947B2 (ja) | 2013-07-08 | 2016-08-23 | ユニロボット株式会社 | ロボットを制御するためのプログラム、及びロボットシステム |
JP5735592B2 (ja) * | 2013-08-28 | 2015-06-17 | ヤフー株式会社 | 情報処理装置、制御方法および制御プログラム |
US10038786B2 (en) * | 2014-03-05 | 2018-07-31 | [24]7.ai, Inc. | Method and apparatus for improving goal-directed textual conversations between agents and customers |
KR102155521B1 (ko) * | 2014-05-23 | 2020-09-14 | 삼성전자 주식회사 | 카메라를 구비하는 전자 장치의 부가 정보 획득 방법 및 장치 |
US9336268B1 (en) * | 2015-04-08 | 2016-05-10 | Pearson Education, Inc. | Relativistic sentiment analyzer |
US10092232B2 (en) * | 2015-06-14 | 2018-10-09 | Facense Ltd. | User state selection based on the shape of the exhale stream |
US10130261B2 (en) * | 2015-06-14 | 2018-11-20 | Facense Ltd. | Detecting physiological responses while taking into account consumption of confounding substances |
US20170046496A1 (en) * | 2015-08-10 | 2017-02-16 | Social Health Innovations, Inc. | Methods for tracking and responding to mental health changes in a user |
US20170143246A1 (en) * | 2015-11-20 | 2017-05-25 | Gregory C Flickinger | Systems and methods for estimating and predicting emotional states and affects and providing real time feedback |
JP6465077B2 (ja) * | 2016-05-31 | 2019-02-06 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
US10810238B2 (en) * | 2016-12-06 | 2020-10-20 | Sap Se | Decoupled architecture for query response generation |
US10311454B2 (en) * | 2017-06-22 | 2019-06-04 | NewVoiceMedia Ltd. | Customer interaction and experience system using emotional-semantic computing |
-
2016
- 2016-05-31 JP JP2016109314A patent/JP6465077B2/ja active Active
-
2017
- 2017-05-18 US US15/598,478 patent/US10438586B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11107464B2 (en) * | 2018-12-03 | 2021-08-31 | Honda Motor Co., Ltd. | Feeling estimation device, feeling estimation method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
US20170345424A1 (en) | 2017-11-30 |
JP2017215468A (ja) | 2017-12-07 |
US10438586B2 (en) | 2019-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6465077B2 (ja) | 音声対話装置および音声対話方法 | |
JP6654611B2 (ja) | 成長型対話装置 | |
JP3945356B2 (ja) | 音声対話装置及びプログラム | |
US20020111794A1 (en) | Method for processing information | |
WO2017112813A1 (en) | Multi-lingual virtual personal assistant | |
CN110570853A (zh) | 基于语音数据的意图识别方法和装置 | |
JP2014191030A (ja) | 音声認識端末およびコンピュータ端末を用いる音声認識方法 | |
JP6866715B2 (ja) | 情報処理装置、感情認識方法、及び、プログラム | |
US11615787B2 (en) | Dialogue system and method of controlling the same | |
JP2019020684A (ja) | 感情インタラクションモデル学習装置、感情認識装置、感情インタラクションモデル学習方法、感情認識方法、およびプログラム | |
JP2004037721A (ja) | 音声応答システム、音声応答プログラム及びそのための記憶媒体 | |
KR20180121831A (ko) | 흥미 판정 장치, 흥미 판정 방법, 및 기억 매체 | |
CN111986675A (zh) | 语音对话方法、设备及计算机可读存储介质 | |
US10269349B2 (en) | Voice interactive device and voice interaction method | |
CN109074809B (zh) | 信息处理设备、信息处理方法和计算机可读存储介质 | |
JP2004021121A (ja) | 音声対話制御装置 | |
JP6723907B2 (ja) | 言語認識システム、言語認識方法、及び言語認識プログラム | |
JP6580281B1 (ja) | 翻訳装置、翻訳方法、および翻訳プログラム | |
JP2020024293A (ja) | 音声対話システム | |
JP2016143050A (ja) | 音声認識装置および音声認識方法 | |
KR20190140803A (ko) | 감정 임베딩과 순환형 신경망을 이용한 대화 시스템 및 방법 | |
JP2019211689A (ja) | 認識装置、認識システム、端末装置、サーバ装置、方法及びプログラム | |
JP2023117068A (ja) | 音声認識装置、音声認識方法、音声認識プログラム、音声認識システム | |
JP2018132623A (ja) | 音声対話装置 | |
JP2010204442A (ja) | 音声認識装置、音声認識方法、音声認識プログラムおよびプログラム記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181224 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6465077 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |