CN110265021A - 个性化语音交互方法、机器人终端、装置及可读存储介质 - Google Patents
个性化语音交互方法、机器人终端、装置及可读存储介质 Download PDFInfo
- Publication number
- CN110265021A CN110265021A CN201910665234.0A CN201910665234A CN110265021A CN 110265021 A CN110265021 A CN 110265021A CN 201910665234 A CN201910665234 A CN 201910665234A CN 110265021 A CN110265021 A CN 110265021A
- Authority
- CN
- China
- Prior art keywords
- style
- voice
- robot terminal
- interactive
- voice style
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000002452 interceptive effect Effects 0.000 claims abstract description 153
- 230000003993 interaction Effects 0.000 claims description 31
- 238000012549 training Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 210000000214 mouth Anatomy 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 1
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 210000001584 soft palate Anatomy 0.000 description 1
- 210000002105 tongue Anatomy 0.000 description 1
- 210000000515 tooth Anatomy 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/12—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种个性化语音交互方法,包括以下步骤:在机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于语音数据确定声音数据和性格数据,基于声音数据、性格数据以及语音风格预测模型,确定待切换语音风格,获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定机器人终端是否满足语音交互风格的切换条件,在确定机器人终端满足语音交互风格的切换条件时,更新机器人终端的语音交互风格为待切换语音风格。本发明还公开了一种装置、机器人终端及可读存储介质。实现了机器人终端自适应对话人物风格,从而带来更加符合用户对话习惯的语音交互体验。
Description
技术领域
本发明涉及机器学习技术领域,尤其涉及一种个性化语音交互方法、机器人终端、装置及可读存储介质。
背景技术
近年来,随着语音识别技术在机器人终端控制中的应用,机器人终端的应用领域不断扩大,广泛应用于工业、家电、通信、汽车电子、医疗、家庭服务和消费电子类产品等领域。智能机器人终端语音交互是基于语音输入的新一代交互模式,通过说话就可以得到反馈结果。
目前,语音交互对话形式,尽管通过人工预先编辑应答格式,改善音色等,从表面上使得对话更接近人类对话,具备一定亲和感。但是智能机器人终端与人对话时都是一种口吻,一种音调,一种风格,因此,导致了与智能机器人终端对话缺乏个性化,显得无聊。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种个性化语音交互方法、机器人终端、装置及可读存储介质,旨在解决现有智能机器人终端与人对话时是一种口吻,一种音调,一种风格,无法自适应对话人物风格的技术问题。
为实现上述目的,本发明提供一种个性化语音交互方法,所述的个性化语音交互方法包括以下步骤:
在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据;
基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格;
获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件;
在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格。
进一步地,在一实施方式中,所述在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格的步骤之后,还包括:
获取人机对话的语音数据以及人机对话的视频信息;
基于所述语音数据以及所述视频信息确定所述机器人终端是否满足语音风格保持条件;
在确定所述机器人终端不满足语音风格保持条件时,更新所述机器人终端的语音交互风格为默认风格。
进一步地,在一实施方式中,所述在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格的步骤之后,还包括:
获取人机对话的语音数据;
确定所述语音数据中是否存在切换语音风格的信息;
在所述语音数据中存在切换语音风格的信息时,基于所述切换语音风格的信息执行语音切换操作。
进一步地,在一实施方式中,所述在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据的步骤之前,还包括:
在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息;
确定所述人脸信息是否满足预设条件;
在所述人脸信息满足预设条件时,基于人物与语音风格匹配库获取所述人脸信息对应的个性化语音风格;
更新所述机器人终端的语音交互风格为所述个性化语音风格。
进一步地,在一实施方式中,所述确定所述人脸信息是否满足预设条件的步骤之后,还包括:
在所述人脸信息不满足预设条件时,更新所述机器人终端的语音交互风格为默认风格。
进一步地,在一实施方式中,所述在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息的步骤之前,还包括:
基于预设数量的人物信息样本以及所述人物信息样本对应的语音风格生成所述人物与语音风格匹配库,其中,所述人物信息样本包括人脸信息、声音数据以及性格数据。
进一步地,在一实施方式中,所述在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息的步骤之前,还包括:
基于所述人物与语音风格匹配库,定时获取人物信息样本以及所述人物信息样本对应的语音风格;
基于所述人物信息样本以及所述人物信息样本对应的语音风格训练初始语音风格预测模型,得到所述语音风格预测模型。
进一步地,在一实施方式中,所述确定所述人脸信息是否满足预设条件的步骤包括:
确定所述人物与语音风格匹配库是否存在所述人脸信息,其中,在所述人物与语音风格匹配库存在所述人脸信息时,确定所述人脸信息满足预设条件。
进一步地,在一实施方式中,所述在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格的步骤之后,还包括:
在检测到人机对话结束指令时,获取所述人机对话结束指令对应的目标语音交互风格以及所述人机对话结束指令对应的目标人物信息,其中,所述目标人物信息包括:人脸信息、声音数据以及性格数据;
关联保存所述目标语音交互风格和所述目标人物信息至所述人物与语音风格匹配库。
进一步地,在一实施方式中,所述个性化语音交互装置包括:
获取模块,在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据;
确定模块,基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格;
判断模块,获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件;
更新模块,在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格。
此外,为实现上述目的,本发明还提供一种机器人终端,所述机器人终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的个性化语音交互程序,所述个性化语音交互程序被所述处理器执行时实现上述任一项所述的个性化语音交互方法的步骤。
此外,为实现上述目的,本发明还提供一种可读存储介质,所述可读存储介质上存储有个性化语音交互程序,所述个性化语音交互程序被处理器执行时实现上述任一项所述的个性化语音交互方法的步骤。
本发明在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据,而后基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格,然后获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件,最后在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格。通过人机对话的语音数据和语音风格预测模型确定机器人终端的语音风格,实现了机器人终端自适应对话人物风格,从而带来更加符合用户对话习惯的语音交互体验。
附图说明
图1是本发明实施例方案涉及的硬件运行环境中机器人终端的结构示意图;
图2为本发明个性化语音交互方法第一实施例的流程示意图;
图3为本发明个性化语音交互方法第二实施例的流程示意图;
图4为本发明个性化语音交互装置实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境中机器人终端的结构示意图。
如图1所示,该机器人终端可以包括:处理器1001,例如CPU,网络接口1004,客户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。客户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选客户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
可选地,机器人终端还可以包括摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。其中,传感器比如光传感器、运动传感器以及其他传感器等,在此不再赘述。
本领域技术人员可以理解,图1中示出的系统结构并不构成对机器人终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种可读存储介质的存储器1005中可以包括操作系统、网络通信模块、客户接口模块以及个性化语音交互程序。
在图1所示的系统中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;客户接口1003主要用于连接客户端(客户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的个性化语音交互程序。
在本实施例中,机器人终端包括:存储器1005、处理器1001及存储在所述存储器1005上并可在所述处理器1001上运行的个性化语音交互程序,其中,处理器1001调用存储器1005中存储的个性化语音交互程序时,执行本申请各个实施例提供的个性化语音交互方法的步骤。
本发明还提供一种个性化语音交互方法,参照图2,图2为本发明个性化语音交互方法第一实施例的流程示意图。
本发明实施例提供了个性化语音交互方法的实施例,需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中,该个性化语音交互方法包括:
步骤S10,在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据;
在本实施例中,语音作为人类所特有的能力,是人类之间交流及获取外界信息资源的重要的工具和渠道,对于人类文明的发展具有重要的意义。语音识别技术作为人机交互分支的重要组成,是人机交互的重要接口,对于人工智能的发展具有重要的实际意义。语音识别技术经过数十年的发展,已经取得了显著的进步,逐步开始从实验室慢慢走向市场。目前,针对特定说话人的语音识别系统已经有较高的识别精度。
目前,人机对话进入第三代,人机交流的内容主要是人习惯的自然交流语言,但是,机器人终端与人对话时过程中通常都是一种口吻和风格,无法满足用户对话习惯的语音交互风格。有鉴于此,本发明通过人机对话的语音数据和语音风格预测模型确定机器人终端的语音风格,实现了机器人终端自适应对话人物风格,从而带来更加符合用户对话习惯的语音交互体验。
具体地,在机器人终端与用户进行人机对话时,机器人终端可以实时获取人机对话的语音数据,根据语音数据,利用现有的语音识别技术可以确定该用户的声音数据和性格数据,其中,声音数据包括在语言学中被称为语音“四要素”的音高、音强、音长和音色,不同用户的语声是不同的,因为人的发声器官实际上存在着大小、形态及功能上的差异。发声控制器官包括声带、软颚、舌头、牙齿、唇等;发声共鸣器包括咽腔、口腔、鼻腔。这些器官的微小差异都会导致发声气流的改变,造成音质、音色的差别。此外,人发声的习惯亦有快有慢,用力有大有小,也造成音强、音长的差别;性格数据是用户的性格特点,根据语音数据的对话内容,利用NLP(Natural Language Processing,自然语言处理)技术对对话内容进行解析,从而分析出用户的性格,用户的性格可包括:活跃型、稳重型、幽默型、可爱型、较真型等。可选地,在人机对话时,机器人终端还可以通过提问的方式询问用户的性格,以及用户喜欢的语音风格,在进行对话内容解析时,就可以直接解析出用户的性格数据。
步骤S20,基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格;
在本实施例中,预测模型是指用于预测的,用数学语言或公式所描述的事物间的数量关系。它在一定程度上揭示了事物间的内在规律性,预测时把它作为计算预测值的直接依据。语音风格预测模型可以根据输入的用户的声音数据和性格数据得出该用户喜欢的语音风格,其中,语音风格预测模型是现有技术中的一种预测模型,在本发明中不做限定,该语音风格预测模型是利用大量的训练样本以及训练样本对应的语音风格训练的,训练样本包括人的人脸信息、声音数据和性格数据。具体地,根据人机对话的语音数据确定声音数据和性格数据,然后再根据声音数据、性格数据以及语音风格预测模型,确定待切换语音风格。
步骤S30,获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件;
在本实施例中,机器人终端与用户正在进行人机对话,机器人终端以一种语音交互风格与用户对话,故获取机器人终端当前的语音交互风格,并将机器人终端当前的语音交互风格与待切换语音风格进行比较,进而确定机器人终端是否需要进行语音交互风格切换。
具体地,当机器人终端当前的语音交互风格与待切换语音风格一致时,则说明不需要进行语音交互风格切换,反之,当机器人终端当前的语音交互风格与待切换语音风格不一致时,则说明需要进行语音交互风格切换,并将机器人终端的语音交互风格切换为待切换语音风格。
步骤S40,在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格;
在本实施例中,当机器人终端与用户正在进行人机对话时,实时获取的语音数据,可能因为用户的情绪、谈论的话题而引起用户当前语音风格的变化,机器人终端根据语音数据确定的声音数据和性格数据也会发证变化,故将有变化的声音数据和性格数据作为语音风格预测模型的输入后,该语音风格预测模型输出的待切换语音风格可能与机器人终端当前的语音风格是不同的,如果二者不同,则需要进行语音风格切换。具体地,当机器人终端当前的语音交互风格与待切换语音风格不一致时,则说明需要进行语音交互风格切换,故将机器人终端的语音交互风格切换为待切换语音风格。
举例说明,当机器人终端与用户正在进行人机对话时,获取人机对话的语音数据,并根据语音数据确定声音数据和性格数据,将声音数据和性格数据输入语音风格预测模型中,对该用户风格进行预测判断,输出待切换语音风格是可爱型,而获取机器人终端当前的语音交互风格是稳重型,即机器人终端当前的语音交互风格与待切换语音风格不一致,则将机器人终端的语音交互风格切换为可爱型。
进一步地,在一实施例中,步骤S50之后还包括:
步骤S50,获取人机对话的语音数据以及人机对话的视频信息;
在本实施例中,当机器人终端当前的语音交互风格与待切换语音风格不一致而进行语音交互风格切换后,机器人终端的交互风格发生变化,需要继续监测人机对话的对话内容,以及利用摄像头监测该用户的表情,根据人机对话的对话内容以及用户的表情进一步确定用户是否对切换后的语音交互风格满意。
步骤S60,基于所述语音数据以及所述视频信息确定所述机器人终端是否满足语音风格保持条件;
在本实施例中,根据获取的语音数据,利用NLP技术进行解析,进而确定用户与机器人终端对话过程中,用户没有出现不愉悦的话语,同时,利用摄像头监测该用户的有没有出现不愉悦的表情,进而确定是否保持当前语音风格,具体地,如果该用户未出现不愉悦的话语与表情,则机器人终端保持当前语音风格,如果该用户出现不愉悦的话语与表情,则机器人终端不保持当前语音风格。
步骤S70,在确定所述机器人终端不满足语音风格保持条件时,更新所述机器人终端的语音交互风格为默认风格。
在本实施例中,当确定机器人终端保持当前语音风格,即用户未出现不愉悦的话语与表情,则继续以该语音交互风格进行人机对话;当确定机器人终端不保持当前语音风格,即用户出现不愉悦的话语与表情,则机器人终端的语音交互风格切换到默认风格。
进一步地,在一实施例中,步骤S50之后还包括:
步骤a,获取人机对话的语音数据;
步骤b,确定所述语音数据中是否存在切换语音风格的信息;
步骤c,在所述语音数据中存在切换语音风格的信息时,基于所述切换语音风格的信息执行语音切换操作。
在本实施例中,获取人机对话的语音数据,根据获取的语音数据,利用NLP技术进行解析,进而确定用户与机器人终端对话过程中,用户有没有出现切换语音风格的内容。机器人终端不仅可以根据人物相关信息进行语音风格设定,也支持用户自主切换语音对话风格。
具体地,在人机对话过程中,获取人机对话的语音数据,进一步确定语音数据中是否存在切换语音风格的内容,当语音数据中存在切换语音风格的内容时,则机器人终端进行语音风格的切换操作,切换至用户希望的语音风格。
进一步地,在一实施例中,步骤S50之后还包括:
步骤d,在检测到人机对话结束指令时,获取所述人机对话结束指令对应的目标语音交互风格以及所述人机对话结束指令对应的目标人物信息,其中,所述目标人物信息包括:人脸信息、声音数据以及性格数据;
在本实施例中,当机器人终端检测到人机对话结束指令时,则结束人机对话,此时,获取机器人终端当前的语音交互风格,以及在人机对话结束前,与机器人终端进行对话的用户的人脸信息、声音数据以及性格数据。其中,人脸信息是在机器人终端启动人机对话时,基于摄像头获取的人脸信息;声音数据和性格数据是在机器人终端进行人机对话时,获取人机对话的语音数据,然后基于语音数据分析得到的声音数据以及性格数据。
步骤e,关联保存所述目标语音交互风格和所述目标人物信息至所述人物与语音风格匹配库。
在本实施例中,关联保存目标语音交互风格和目标人物信息至人物与语音风格匹配库。如果人物与语音风格匹配库之前已经保存该目标人物信息的历史数据,则将目标语音交互风格和目标人物信息替换该目标人物信息的历史数据,如果人物与语音风格匹配库之前未保存该目标人物信息的历史数据,则在人物与语音风格匹配库新建一条记录,保存目标语音交互风格和目标人物信息。
本实施例提出的个性化语音交互方法,通过在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据,而后基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格,然后获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件,最后在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格。通过人机对话的语音数据和语音风格预测模型确定机器人终端的语音风格,实现了机器人终端自适应对话人物风格,从而带来更加符合用户对话习惯的语音交互体验。
基于第一实施例,参照图3,提出本发明个性化语音交互方法的第二实施例,在本实施例中,步骤S10之后,还包括:
步骤S80,在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息;
在本实施例中,当有用户与机器人终端刚刚启动人机对话时,机器人终端通过摄像头采集用户面部图像,并基于现有技术中的图像识别技术,从用户面部图像中捕捉该用户的人脸信息,其中,摄像头可以是机器人终端的内置摄像头,也可以是外置摄像头,在本发明中不做限定。
步骤S90,确定所述人脸信息是否满足预设条件;
在本实施例中,在获取到用户的人脸信息后,进一步确定该人脸信息是否满足预设条件,人脸信息用于用户身份的识别,进而确定机器人终端与该用户进行人机对话时的初始语音交互风格。
具体地,步骤S90包括:确定所述人物与语音风格匹配库是否存在所述人脸信息,其中,在所述人物与语音风格匹配库存在所述人脸信息时,确定所述人脸信息满足预设条件
在本实施例中,人物与语音风格匹配库关联保存了人物信息以及该人物信息对应的语音风格,其中,人物信息包括人脸,常用音色、常用音调、声纹图像、人物性格、爱好等。需要说明的是,人物信息和人物信息对应的语音风格支持更新,同理,该人物与语音风格匹配库也支持更新,即可增加记录、删除记录、修改记录等。当机器人终端与用户停止人机对话后,将该用户的对应的语音交互风格和人物信息更新至人物与语音风格匹配库。
具体地,判断人物与语音风格匹配库是否存在当前获取到的人脸信息,即人物与语音风格匹配库是否保存了该用户的历史记录,如果人物与语音风格匹配库存在该人脸信息时,则确定人脸信息满足预设条件。
步骤S100,在所述人脸信息满足预设条件时,基于人物与语音风格匹配库获取所述人脸信息对应的个性化语音风格;
步骤S110,更新所述机器人终端的语音交互风格为所述个性化语音风格。
在本实施例中,当人物与语音风格匹配库存在当前获取到的人脸信息,即人物与语音风格匹配库保存了该用户的历史记录,则确定人脸信息满足预设条件,此时,可以直接从人物与语音风格匹配库获取该人脸信息对应的语音风格即个性化语音风格,故确定机器人终端与该用户进行人机对话时的初始语音交互风格为个性化语音风格,其中,个性化语音风格为活跃型、稳重型、幽默型、可爱型或较真型等。
而后,当确定了机器人终端与用户进行人机对话时的初始语音交互风格为个性化语音风格,则将机器人终端的语音交互风格设置为个性化语音风格。
进一步地,在一实施例中,步骤S90之后还包括:
步骤S120,在所述人脸信息不满足预设条件时,更新所述机器人终端的语音交互风格为默认风格;
在本实施例中,当人物与语音风格匹配库不存在当前获取到的人脸信息,即人物与语音风格匹配库未保存过该用户的历史记录,则确定人脸信息不满足预设条件,此时,确定机器人终端与该用户进行人机对话时的初始语音交互风格为默认风格,其中,默认风格是机器人终端一种标准的人机对话风格,在出厂时设定好。
进一步地,在一实施例中,步骤S80之前还包括:基于预设数量的人物信息样本以及所述人物信息样本对应的语音风格生成所述人物与语音风格匹配库,其中,所述人物信息样本包括人脸信息、声音数据以及性格数据。
在本实施例中,获取预设数量的人物信息样本,其中,人物信息样本包括人脸信息、声音数据以及性格数据,具体地,声音数据至少包括常用音色、常用音调,还可以包括音强、音量等;性格数据至少包括人物性格,还可以包括爱好、习惯等。另外,人物信息样本对应的语音风格是基于历史数据已经确定的。进一步地,根据人物信息样本以及人物信息样本对应的语音风格生成人物与语音风格匹配库,用于保存已经与机器人终端进行过人机交互的用户的相关信息。需要说明的是,该人物与语音风格匹配库支持更新,机器人终端在进行人机对话的时,如果发现该用户的信息未在数据库中,则在人机对话结束时,机器人终端会将该用户对应的人物信息和语音风格保存到人物与语音风格匹配库。
进一步地,在一实施例中,步骤S80之前,还包括:
步骤f,基于所述人物与语音风格匹配库,定时获取人物信息样本以及所述人物信息样本对应的语音风格;
步骤g,基于所述人物信息样本以及所述人物信息样本对应的语音风格训练初始语音风格预测模型,得到所述语音风格预测模型。
在本实施例中,在人物与语音风格匹配库中获取数据库中保存的人物信息和该人物信息对应的语音风格,其中,人物信息包括人脸信息、声音数据以及性格数据,具体地,声音数据至少包括常用音色、常用音调,还可以包括音强、音量等;性格数据至少包括人物性格,还可以包括爱好、习惯等。人物信息样本对应的语音风格是基于历史数据已经确定的,将人物信息样本以及人物信息样本对应的语音风格作为训练样本,训练初始语音风格预测模型,最终得到一个语音风格预测模型,其中,初始语音风格预测模型是现有技术中的一种预测模型,在本发明中不做限定。
需要说明的是,机器人终端在进行人机对话的时,如果发现该用户的信息未在数据库中,则在人机对话结束时,机器人终端会将该用户对应的人物信息和语音风格保存到人物与语音风格匹配库,该匹配库的样本数量越来越多,样本数量越多,得到的语音风格预测模型就越精确,故需要定期利用人物与语音风格匹配库的样本进行模型训练,以使语音风格预测模型的预测效果更好。
本实施例提出的个性化语音交互方法,通过在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息,而后确定所述人脸信息是否满足预设条件,然后在所述人脸信息满足预设条件时,基于人物与语音风格匹配库获取所述人脸信息对应的个性化语音风格,最后更新所述机器人终端的语音交互风格为所述个性化语音风格。通过确定人物与语音风格匹配库是否存在所述人脸信息,进而确定机器人终端与该用户进行人机对话时的初始语音交互风格,满足语音风格的个性化设置,提升用户体验。
本发明进一步提供一种个性化语音交互装置,参照图4,图4为本发明个性化语音交互装置实施例的功能模块示意图。
获取模块10,在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据;
确定模块20,基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格;
判断模块30,获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件;
更新模块40,在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格。
进一步地,所述个性化语音交互装置还用于:
第一采集模块,获取人机对话的语音数据以及人机对话的视频信息;
第一判别模块,基于所述语音数据以及所述视频信息确定所述机器人终端是否满足语音风格保持条件;
第一切换模块,在确定所述机器人终端不满足语音风格保持条件时,更新所述机器人终端的语音交互风格为默认风格。
进一步地,所述个性化语音交互装置还用于:
第二采集模块,获取人机对话的语音数据;
第二判别模块,确定所述语音数据中是否存在切换语音风格的信息;
第二切换模块,在所述语音数据中存在切换语音风格的信息时,基于所述切换语音风格的信息执行语音切换操作。
进一步地,所述个性化语音交互装置还用于:
第三采集模块,在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息;
第三判别模块,确定所述人脸信息是否满足预设条件;
筛选模块,在所述人脸信息满足预设条件时,基于人物与语音风格匹配库获取所述人脸信息对应的个性化语音风格;
第三切换模块,更新所述机器人终端的语音交互风格为所述个性化语音风格。
进一步地,所述个性化语音交互装置还用于:
第三切换模块,在所述人脸信息不满足预设条件时,更新所述机器人终端的语音交互风格为默认风格。
进一步地,所述个性化语音交互装置还用于:
生成模块,基于预设数量的人物信息样本以及所述人物信息样本对应的语音风格生成所述人物与语音风格匹配库,其中,所述人物信息样本包括人脸信息、声音数据以及性格数据。
进一步地,所述个性化语音交互装置还用于:
第四采集模块,基于所述人物与语音风格匹配库,定时获取人物信息样本以及所述人物信息样本对应的语音风格;
训练模块,基于所述人物信息样本以及所述人物信息样本对应的语音风格训练初始语音风格预测模型,得到所述语音风格预测模型。
进一步地,所述第三判别模块还用于:
确定所述人物与语音风格匹配库是否存在所述人脸信息,其中,在所述人物与语音风格匹配库存在所述人脸信息时,确定所述人脸信息满足预设条件。
进一步地,所述个性化语音交互装置还用于:
第五采集模块,在检测到人机对话结束指令时,获取所述人机对话结束指令对应的目标语音交互风格以及所述人机对话结束指令对应的目标人物信息,其中,所述目标人物信息包括:人脸信息、声音数据以及性格数据;
保存模块,关联保存所述目标语音交互风格和所述目标人物信息至所述人物与语音风格匹配库。
此外,本发明实施例还提出一种可读存储介质,所述可读存储介质上存储有个性化语音交互程序,所述个性化语音交互程序被处理器执行时实现上述各个实施例中个性化语音交互方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个可读存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台系统设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (12)
1.一种个性化语音交互方法,应用于机器人终端,其特征在于,所述的个性化语音交互方法包括以下步骤:
在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据;
基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格;
获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件;
在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格。
2.如权利要求1所述的个性化语音交互方法,其特征在于,所述在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格的步骤之后,还包括:
获取人机对话的语音数据以及人机对话的视频信息;
基于所述语音数据以及所述视频信息确定所述机器人终端是否满足语音风格保持条件;
在确定所述机器人终端不满足语音风格保持条件时,更新所述机器人终端的语音交互风格为默认风格。
3.如权利要求1所述的个性化语音交互方法,其特征在于,所述在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格的步骤之后,还包括:
获取人机对话的语音数据;
确定所述语音数据中是否存在切换语音风格的信息;
在所述语音数据中存在切换语音风格的信息时,基于所述切换语音风格的信息执行语音切换操作。
4.如权利要求1所述的个性化语音交互方法,其特征在于,所述在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据的步骤之前,还包括:
在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息;
确定所述人脸信息是否满足预设条件;
在所述人脸信息满足预设条件时,基于人物与语音风格匹配库获取所述人脸信息对应的个性化语音风格;
更新所述机器人终端的语音交互风格为所述个性化语音风格。
5.如权利要求4所述的个性化语音交互方法,其特征在于,所述确定所述人脸信息是否满足预设条件的步骤之后,还包括:
在所述人脸信息不满足预设条件时,更新所述机器人终端的语音交互风格为默认风格。
6.如权利要求4所述的个性化语音交互方法,其特征在于,所述在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息的步骤之前,还包括:
基于预设数量的人物信息样本以及所述人物信息样本对应的语音风格生成所述人物与语音风格匹配库,其中,所述人物信息样本包括人脸信息、声音数据以及性格数据。
7.如权利要求6所述的个性化语音交互方法,其特征在于,所述在检测到所述机器人终端启动人机对话时,基于摄像头获取人脸信息的步骤之前,还包括:
基于所述人物与语音风格匹配库,定时获取人物信息样本以及所述人物信息样本对应的语音风格;
基于所述人物信息样本以及所述人物信息样本对应的语音风格训练初始语音风格预测模型,得到所述语音风格预测模型。
8.如权利要求7所述的个性化语音交互方法,其特征在于,所述确定所述人脸信息是否满足预设条件的步骤包括:
确定所述人物与语音风格匹配库是否存在所述人脸信息,其中,在所述人物与语音风格匹配库存在所述人脸信息时,确定所述人脸信息满足预设条件。
9.如权利要求1至8中任一项所述的个性化语音交互方法,其特征在于,所述在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格的步骤之后,还包括:
在检测到人机对话结束指令时,获取所述人机对话结束指令对应的目标语音交互风格以及所述人机对话结束指令对应的目标人物信息,其中,所述目标人物信息包括:人脸信息、声音数据以及性格数据;
关联保存所述目标语音交互风格和所述目标人物信息至所述人物与语音风格匹配库。
10.一种个性化语音交互装置,其特征在于,所述个性化语音交互装置包括:
获取模块,在所述机器人终端当前进行人机对话时,获取人机对话的语音数据,并基于所述语音数据确定声音数据和性格数据;
确定模块,基于所述声音数据、所述性格数据以及语音风格预测模型,确定待切换语音风格;
判断模块,获取所述机器人终端当前的语音交互风格,基于所述待切换语音风格与所述当前的语音交互风格,确定所述机器人终端是否满足语音交互风格的切换条件;
更新模块,在确定所述机器人终端满足语音交互风格的切换条件时,更新所述机器人终端的语音交互风格为待切换语音风格。
11.一种机器人终端,其特征在于,所述机器人终端包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的个性化语音交互程序,所述个性化语音交互程序被所述处理器执行时实现如权利要求1至9中任一项所述的个性化语音交互方法的步骤。
12.一种可读存储介质,其特征在于,所述可读存储介质上存储有所述个性化语音交互程序,所述个性化语音交互程序被处理器执行时实现如权利要求1至9中任一项所述的个性化语音交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910665234.0A CN110265021A (zh) | 2019-07-22 | 2019-07-22 | 个性化语音交互方法、机器人终端、装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910665234.0A CN110265021A (zh) | 2019-07-22 | 2019-07-22 | 个性化语音交互方法、机器人终端、装置及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110265021A true CN110265021A (zh) | 2019-09-20 |
Family
ID=67927743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910665234.0A Pending CN110265021A (zh) | 2019-07-22 | 2019-07-22 | 个性化语音交互方法、机器人终端、装置及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110265021A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111312267A (zh) * | 2020-02-20 | 2020-06-19 | 广州市百果园信息技术有限公司 | 一种语音风格的转换方法、装置、设备和存储介质 |
CN111327772A (zh) * | 2020-02-25 | 2020-06-23 | 广州腾讯科技有限公司 | 进行自动语音应答处理的方法、装置、设备及存储介质 |
CN111639227A (zh) * | 2020-05-26 | 2020-09-08 | 广东小天才科技有限公司 | 一种虚拟角色的口语控制方法、电子设备及存储介质 |
CN111833854A (zh) * | 2020-01-08 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互方法与终端、计算机可读存储介质 |
CN112102831A (zh) * | 2020-09-15 | 2020-12-18 | 海南大学 | 跨数据、信息、知识模态的内容编解码方法及组件 |
CN112417117A (zh) * | 2020-11-18 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 会话消息生成方法、装置及设备 |
CN112420053A (zh) * | 2021-01-19 | 2021-02-26 | 南京纳新信息科技有限公司 | 智能交互式人机对话系统 |
CN112667796A (zh) * | 2021-01-05 | 2021-04-16 | 网易(杭州)网络有限公司 | 一种对话回复方法、装置、电子设备及可读存储介质 |
CN112836098A (zh) * | 2021-02-01 | 2021-05-25 | 三星电子(中国)研发中心 | 基于多角色的对话辅助方法和装置 |
CN112965590A (zh) * | 2021-02-03 | 2021-06-15 | 张德运 | 一种人工智能交互方法、系统、计算机设备及存储介质 |
CN113096625A (zh) * | 2021-03-24 | 2021-07-09 | 平安科技(深圳)有限公司 | 多人佛乐生成方法、装置、设备及存储介质 |
CN113409778A (zh) * | 2020-03-16 | 2021-09-17 | 阿里巴巴集团控股有限公司 | 语音交互方法、系统和终端 |
CN113689881A (zh) * | 2020-05-18 | 2021-11-23 | 北京中关村科金技术有限公司 | 针对语音画像进行音频交互的方法、装置以及存储介质 |
CN114490967A (zh) * | 2021-12-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 |
CN114999449A (zh) * | 2022-04-08 | 2022-09-02 | 北京百度网讯科技有限公司 | 数据处理方法和装置 |
CN117245644A (zh) * | 2022-12-12 | 2023-12-19 | 北京小米机器人技术有限公司 | 机器人及其机械性格控制方法和装置、终端、存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102117614A (zh) * | 2010-01-05 | 2011-07-06 | 索尼爱立信移动通讯有限公司 | 个性化文本语音合成和个性化语音特征提取 |
CN104123938A (zh) * | 2013-04-29 | 2014-10-29 | 富泰华工业(深圳)有限公司 | 语音控制系统、电子装置及语音控制方法 |
JP2015121760A (ja) * | 2013-11-25 | 2015-07-02 | 日本電信電話株式会社 | 音声認識装置、特徴量変換行列生成装置、音声認識方法、特徴量変換行列生成方法及びプログラム |
CN104881108A (zh) * | 2014-02-27 | 2015-09-02 | 青岛海尔机器人有限公司 | 一种智能人机交互方法及装置 |
US20160171387A1 (en) * | 2014-12-16 | 2016-06-16 | The Affinity Project, Inc. | Digital companions for human users |
CN106202238A (zh) * | 2016-06-30 | 2016-12-07 | 马根昌 | 真实人物模拟方法 |
CN108711423A (zh) * | 2018-03-30 | 2018-10-26 | 百度在线网络技术(北京)有限公司 | 智能语音交互实现方法、装置、计算机设备及存储介质 |
CN108847239A (zh) * | 2018-08-31 | 2018-11-20 | 上海擎感智能科技有限公司 | 语音交互/处理方法、系统、存储介质、车机端及服务端 |
CN108962217A (zh) * | 2018-07-28 | 2018-12-07 | 华为技术有限公司 | 语音合成方法及相关设备 |
US20190034414A1 (en) * | 2017-07-25 | 2019-01-31 | Samsung Sds Co., Ltd. | Method for providing dialogue service with chatbot assisted by human agents |
CN109346083A (zh) * | 2018-11-28 | 2019-02-15 | 北京猎户星空科技有限公司 | 一种智能语音交互方法及装置、相关设备及存储介质 |
-
2019
- 2019-07-22 CN CN201910665234.0A patent/CN110265021A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102117614A (zh) * | 2010-01-05 | 2011-07-06 | 索尼爱立信移动通讯有限公司 | 个性化文本语音合成和个性化语音特征提取 |
CN104123938A (zh) * | 2013-04-29 | 2014-10-29 | 富泰华工业(深圳)有限公司 | 语音控制系统、电子装置及语音控制方法 |
JP2015121760A (ja) * | 2013-11-25 | 2015-07-02 | 日本電信電話株式会社 | 音声認識装置、特徴量変換行列生成装置、音声認識方法、特徴量変換行列生成方法及びプログラム |
CN104881108A (zh) * | 2014-02-27 | 2015-09-02 | 青岛海尔机器人有限公司 | 一种智能人机交互方法及装置 |
US20160171387A1 (en) * | 2014-12-16 | 2016-06-16 | The Affinity Project, Inc. | Digital companions for human users |
CN106202238A (zh) * | 2016-06-30 | 2016-12-07 | 马根昌 | 真实人物模拟方法 |
US20190034414A1 (en) * | 2017-07-25 | 2019-01-31 | Samsung Sds Co., Ltd. | Method for providing dialogue service with chatbot assisted by human agents |
CN108711423A (zh) * | 2018-03-30 | 2018-10-26 | 百度在线网络技术(北京)有限公司 | 智能语音交互实现方法、装置、计算机设备及存储介质 |
CN108962217A (zh) * | 2018-07-28 | 2018-12-07 | 华为技术有限公司 | 语音合成方法及相关设备 |
CN108847239A (zh) * | 2018-08-31 | 2018-11-20 | 上海擎感智能科技有限公司 | 语音交互/处理方法、系统、存储介质、车机端及服务端 |
CN109346083A (zh) * | 2018-11-28 | 2019-02-15 | 北京猎户星空科技有限公司 | 一种智能语音交互方法及装置、相关设备及存储介质 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111833854A (zh) * | 2020-01-08 | 2020-10-27 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互方法与终端、计算机可读存储介质 |
CN111833854B (zh) * | 2020-01-08 | 2024-07-16 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互方法与终端、计算机可读存储介质 |
CN111312267A (zh) * | 2020-02-20 | 2020-06-19 | 广州市百果园信息技术有限公司 | 一种语音风格的转换方法、装置、设备和存储介质 |
CN111312267B (zh) * | 2020-02-20 | 2023-08-11 | 广州市百果园信息技术有限公司 | 一种语音风格的转换方法、装置、设备和存储介质 |
CN111327772A (zh) * | 2020-02-25 | 2020-06-23 | 广州腾讯科技有限公司 | 进行自动语音应答处理的方法、装置、设备及存储介质 |
CN111327772B (zh) * | 2020-02-25 | 2021-09-17 | 广州腾讯科技有限公司 | 进行自动语音应答处理的方法、装置、设备及存储介质 |
CN113409778A (zh) * | 2020-03-16 | 2021-09-17 | 阿里巴巴集团控股有限公司 | 语音交互方法、系统和终端 |
CN113689881A (zh) * | 2020-05-18 | 2021-11-23 | 北京中关村科金技术有限公司 | 针对语音画像进行音频交互的方法、装置以及存储介质 |
CN111639227A (zh) * | 2020-05-26 | 2020-09-08 | 广东小天才科技有限公司 | 一种虚拟角色的口语控制方法、电子设备及存储介质 |
CN111639227B (zh) * | 2020-05-26 | 2023-09-22 | 广东小天才科技有限公司 | 一种虚拟角色的口语控制方法、电子设备及存储介质 |
CN112102831A (zh) * | 2020-09-15 | 2020-12-18 | 海南大学 | 跨数据、信息、知识模态的内容编解码方法及组件 |
CN112417117A (zh) * | 2020-11-18 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 会话消息生成方法、装置及设备 |
CN112667796A (zh) * | 2021-01-05 | 2021-04-16 | 网易(杭州)网络有限公司 | 一种对话回复方法、装置、电子设备及可读存储介质 |
CN112667796B (zh) * | 2021-01-05 | 2023-08-11 | 网易(杭州)网络有限公司 | 一种对话回复方法、装置、电子设备及可读存储介质 |
CN112420053A (zh) * | 2021-01-19 | 2021-02-26 | 南京纳新信息科技有限公司 | 智能交互式人机对话系统 |
CN112836098A (zh) * | 2021-02-01 | 2021-05-25 | 三星电子(中国)研发中心 | 基于多角色的对话辅助方法和装置 |
CN112836098B (zh) * | 2021-02-01 | 2023-07-07 | 三星电子(中国)研发中心 | 基于多角色的对话辅助方法和装置 |
CN112965590A (zh) * | 2021-02-03 | 2021-06-15 | 张德运 | 一种人工智能交互方法、系统、计算机设备及存储介质 |
CN113096625A (zh) * | 2021-03-24 | 2021-07-09 | 平安科技(深圳)有限公司 | 多人佛乐生成方法、装置、设备及存储介质 |
CN114490967B (zh) * | 2021-12-28 | 2023-10-31 | 北京百度网讯科技有限公司 | 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 |
CN114490967A (zh) * | 2021-12-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 对话模型的训练方法、对话机器人的对话方法、装置和电子设备 |
CN114999449A (zh) * | 2022-04-08 | 2022-09-02 | 北京百度网讯科技有限公司 | 数据处理方法和装置 |
CN117245644A (zh) * | 2022-12-12 | 2023-12-19 | 北京小米机器人技术有限公司 | 机器人及其机械性格控制方法和装置、终端、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110265021A (zh) | 个性化语音交互方法、机器人终端、装置及可读存储介质 | |
CN110634483B (zh) | 人机交互方法、装置、电子设备及存储介质 | |
CN108363706B (zh) | 人机对话交互的方法和装置、用于人机对话交互的装置 | |
US6513011B1 (en) | Multi modal interactive system, method, and medium | |
US7065711B2 (en) | Information processing device and method, and recording medium | |
JP6902683B2 (ja) | 仮想ロボットのインタラクション方法、装置、記憶媒体及び電子機器 | |
EP2821992B1 (en) | Method for updating voiceprint feature model and terminal | |
CN112099628A (zh) | 基于人工智能的vr互动方法、装置、计算机设备及介质 | |
US10967508B2 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
WO2020019252A1 (zh) | 训练人工智能模型的方法、装置、存储介质及机器人 | |
CN106504743B (zh) | 一种用于智能机器人的语音交互输出方法及机器人 | |
US10994421B2 (en) | System and method for dynamic robot profile configurations based on user interactions | |
CN111145777A (zh) | 一种虚拟形象展示方法、装置、电子设备及存储介质 | |
CN105955490A (zh) | 一种基于增强现实的信息处理方法、装置和移动终端 | |
CN110569352B (zh) | 一种可定制外观和性格的虚拟助手的设计系统及方法 | |
US11331807B2 (en) | System and method for dynamic program configuration | |
CN113194350B (zh) | 推送待播报数据、播报数据的方法和装置 | |
CN113689879A (zh) | 实时驱动虚拟人的方法、装置、电子设备及介质 | |
CN107623622A (zh) | 一种发送语音动画的方法及电子设备 | |
CN113538628A (zh) | 表情包生成方法、装置、电子设备及计算机可读存储介质 | |
JP2009205370A (ja) | ユーザ端末、コンピュータプログラム、および仮想世界コミュニケーション支援システム | |
CN108364635A (zh) | 一种语音识别的方法和装置 | |
JP7204984B1 (ja) | プログラム、方法、情報処理装置 | |
CN114446268B (zh) | 一种音频数据处理方法、装置、电子设备、介质和程序产品 | |
CN113794927A (zh) | 信息显示方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190920 |