CN108847239A - 语音交互/处理方法、系统、存储介质、车机端及服务端 - Google Patents
语音交互/处理方法、系统、存储介质、车机端及服务端 Download PDFInfo
- Publication number
- CN108847239A CN108847239A CN201811010774.7A CN201811010774A CN108847239A CN 108847239 A CN108847239 A CN 108847239A CN 201811010774 A CN201811010774 A CN 201811010774A CN 108847239 A CN108847239 A CN 108847239A
- Authority
- CN
- China
- Prior art keywords
- occupant
- voice
- mood
- file
- interactive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 94
- 238000003672 processing method Methods 0.000 title abstract description 9
- 230000036651 mood Effects 0.000 claims abstract description 185
- 238000000034 method Methods 0.000 claims abstract description 78
- 230000003993 interaction Effects 0.000 claims abstract description 30
- 230000008921 facial expression Effects 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims description 68
- 238000004891 communication Methods 0.000 claims description 23
- 230000006855 networking Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 5
- 230000002996 emotional effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000005055 memory storage Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000003796 beauty Effects 0.000 description 8
- 206010027940 Mood altered Diseases 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 241001672694 Citrus reticulata Species 0.000 description 4
- 235000009508 confectionery Nutrition 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明提供一种语音交互/处理方法、系统、存储介质、车机端及服务端,语音交互方法包括:识别车内人员的面部表情及其外貌和性别,分析车内人员的心情参数;获取心情的影响因素;在车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调;将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件,并将上传文件传输至服务端,待形成带有情绪化的反馈文件后,接收带有情绪化的反馈文件;调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互。本发明使得语音交互更有人情味,不再是单一应答交互,不再是固定的语音语调,而是能看人说话,察颜观色,选择合择的说话内容,增加了人情味。
Description
技术领域
本发明属于人工智能技术领域,涉及一种交互/处理方法和系统,特别是涉及一种语音交互/处理方法、系统、存储介质、车机端及服务端。
背景技术
随着社会的快速发展,汽车在生活中越来越普及;尽管车辆自动驾驶的概念提出很久,但是还尚未普及;目前而言,车辆行驶过程中驾驶员的控制依然处于决定地位。但是,作为驾驶员的人或与该驾驶员交互的乘客在车辆行驶过程中可能会受到各种情绪的影响,而有些情绪则可能严重影响驾驶安全。
因此,如何提供一种语音交互/处理方法、系统、存储介质、车机端及服务端,以解决作为驾驶员的人或与该驾驶员交互的乘客在车辆行驶过程中可能会受到各种情绪的影响,而有些情绪则可能严重影响驾驶安全,而现有技术无法分析驾驶员或乘客情绪的缺陷,实已成为本领域技术人家亟待解决的技术问题。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种语音交互/处理方法、系统、存储介质、车机端及服务端,用于解决作为驾驶员的人或与该驾驶员交互的乘客在车辆行驶过程中可能会受到各种情绪的影响,而有些情绪则可能严重影响驾驶安全,而现有技术无法分析驾驶员或乘客情绪的问题。
为实现上述目的及其他相关目的,本发明一方面提供一种语音交互方法,应用于由车机端和服务端组成的车联网;所述语音交互方法包括:识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数;获取心情的影响因素;在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调;将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件,并将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件;调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互。
于本发明的一实施例中,若在执行调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互的步骤之前,所述语音交互方法还包括:根据车内人员的情绪参数,选择与该车内人员适合的智能性格;根据车内人员的外貌和性别,选择与该车内人员适合的性格年龄的语言声音引擎;发送交互请求至所述服务端,以从所述服务端获取与该车内人员适合的智能性格、车内人员的情绪参数、性格、年龄相关的带有情绪化的反馈文件。
于本发明的一实施例中,若在执行调用对应的预置语音朗读引擎与所述车内人员进行被动语音交互的步骤之前,所述语音交互方法还包括:为车内人员的心情进行打分,形成心情分值;为心情的影响因素打分,形成心情影响因素分值;将车内人员的语音信息、语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值打包成上传文件。
于本发明的一实施例中,所述调用对应的预置语音朗读引擎与所述车内人员进行被动语音交互的步骤包括:调用对应的预置语音朗读引擎直接朗读与从语音信息中提取的语音问题匹配的反馈文件。
于本发明的一实施例中,所述调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互的步骤之前,所述语音交互方法的步骤还包括:从所述语音信息中提取所述车内人员的口音,选择与该车内人员的口音对应的方言。
本发明另一方面提供一种基于所述语音交互方法的语音处理方法,应用于由车机端和服务后台组成的车联网;所述语音处理方法包括:接收源于所述车机端发送的上传文件;处理所述上传文件,形成带有情绪化的反馈文件;将所述反馈文件传输至所述车机端。
本发明另一方面再提供一种语音交互系统,应用于由车机端和服务后台组成的车联网;所述语音交互系统包括:第一处理模块,用于识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数;在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调;获取模块,用于获取心情的影响因素;打包模块,用于将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件;第一通信模块,用于将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件;调用模块,用于调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互。
本发明另一方面还提供一种基于语音交互系统的语音处理系统,应用于由车机端和服务后台组成的车联网;所述语音处理系统包括:第二通信模块,用于接收源于所述车机端发送的上传文件;第二处理模块,用于处理所述上传文件,形成带有情绪化的反馈文件;将所述反馈文件通过所述第二传输模块传输至所述车机端。
本发明又一方面提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现所述语音交互方法和/或执行时实现所述语音处理方法。
本发明再一方面提供一种车机端,包括:处理器及存储器;所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述车机端执行所述语音交互方法。
本发明最后一方面提供一种服务端,包括:处理器及存储器;所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述服务端执行所述语音处理方法。
如上所述,本发明的语音交互方法/系统和基于语音交互方法的语音处理方法/系统,存储介质、车机端及服务端,具有以下有益效果:
本发明所述语音交互方法/系统和基于语音交互方法的语音处理方法/系统,存储介质、车机端及服务端使得语音交互更有人情味,不再是单一应答交互,不再是固定的语音语调,而是能看人说话,察颜观色,选择合择的说话内容,增加了人情味。
附图说明
图1显示为本发明所应用的车联网的原理结构示意图。
图2A显示为本发明的语音交互方法中主动语音交互的实施例中的流程示意图。
图2B显示为本发明的语音交互方法中被动语音交互的实施例中的流程示意图。
图2C显示为本发明的基于语音交互方法的语音处理方法于一实施例中的流程示意图。
图3A显示为本发明的语音交互系统用于主动语音交互的实施例中的原理结构示意图。
图3B显示为本发明的基于语音交互系统的语音处理系统于一实施例中的原理结构示意图。
元件标号说明
31 语音交互系统
311 第一处理模块
312 获取模块
313 打包模块
314 第一通信模块
315 调用模块
32 基于语音交互系统的语音处理系统
321 第二通信模块
322 第二处理模块
S21~S25 步骤
S21’~S25’ 步骤
S31~S33 步骤
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
本发明所述语音交互/处理方法、系统、存储介质、车机端及服务端的技术原理如下:
1.语音识别时,通过摄像头获捉用户表情,得到“生气,高兴、烦躁,冷静“等参数,并从车主或乘客的坏心情到好心情进行打分;
2.获取天气、节日获取影响心情的因素,进行打分;
3.识别车主的语速语调;
4.识别车主或乘客的外貌(比如帅哥或美女);
5.语音交互模块在基本的交互上增加AI性格模块,支持不同性格,有热情多话,冷静少话,爱发牢骚,爱拍马屁赞美,爱打趣的特点;
6.语音朗读引擎支持多种人声从种情绪的发音包,如甜美女生生气时,甜美女生不高兴时,冷漠女神语调,贴心暧男热情语调等;
7.语音交互分为被动应答和主动交互;
8.对于被动应答的情况:(在识别到车主或乘客的语音问问题的情况下,识别说话内容进行应答);
A.将车主或乘客语音上传云端,同时加入1~3步不同类型的分值;
B.云端将语音转为文字,使用AI搜索引擎获取交互结果文字;
C.在B步搜索文字结果的基础上,根据1和3步识别的表情加入额外的交互文字或修改B步的文字结果。形成带有情绪化的应答文字发给车机端;
D.车机端根据4步识别的基础上,智能调用对对应的6步预置的语声引擎,如车主是帅哥就默认调用美女语声引擎来交互;
E.读取3步车主的语速语调,选择合适的方言;
F.将D步选择的主意引擎朗读C步获得的结果;
9.对于主动应答的情况(在未识别到车主或乘客的语音问题的情况下,主动说话):
A.读取1步车主的心情,选择合适的AI性格(也可以让车主手动指定);
B.读取4步车主的外貌,选择合适的AI性别年龄的发音引擎(也可以让车主手动指定);
C.读取3步车主的语速语调,选择合适的方言;
D.主动应用的语音内容,根据A和B选中的AI性格、性别、年龄、情绪,来主动从云端获取与上述四个因素相关的语音内容,如赞美话语,牢骚话,新闻时事,笑话,调侃话语等。
G.将D步云端返回的交互内容选择的B发声引擎朗读发声。
实施例一
本实施例提供一种语音交互方法,应用于由车机端和服务后台组成的车联网;所述语音交互方法包括:
识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数;
获取心情的影响因素;
在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调;
将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件,并将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件;
调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互。
本实施例还提供一种基于语音交互方法的语音处理方法,应用于由车机端和服务后台组成的车联网;所述语音处理方法包括:
接收源于所述车机端发送的上传文件;
处理所述上传文件,形成带有情绪化的反馈文件;
将所述反馈文件传输至所述车机端。
以下将结合图示对本实施例所提供的语音交互方法和基于语音交互方法的语音处理方法进行详细描述。本实施例所述语音交互方法应用于如图1所示车联网1,所述车联网1包括至少一车机端11,及与该车机端11通信链接的服务端12。
请参阅图2A,显示为语音交互方法中主动语音交互的实施例中的流程示意图。如图2A所示,所述语音交互方法具体包括以下几个步骤:
S21,识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数,并选择与该车内人员适合的智能性格。
在本实施例中,所述车内人员的心情参数例如为生气的心情参数、高兴的心情参数、烦躁的心情参数、冷静的心情参数等。
在本实施例中,可通过车内人员主动手动指定其的智能性格。
在本实施例中,车内人员的外貌为帅哥的外貌,美女的外貌。
在本实施例中,车内人员的性别为男或女。
S22,获取心情的影响因素。所述心情的影响因素包括天气、节日等。
S23,根据车内人员的外貌和性别,选择与该车内人员适合的性格年龄的语言声音引擎。
在本实施例中,也可以通过车内人员手动指定适合的性格年龄的语言声音引擎。
例如,车内人员为帅哥,则选择美女甜美的语声引擎;
例如,车内人员为美女,则选择男士的贴心热情的语声引擎。
S24,在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调,并从所述语音信息中提取所述车内人员的口音,选择与该车内人员的口音对应的方言。
所述车内人员开始发声的情况例如为,车内人员进入车内后与他人通话、车内人员进入车内后与同伴聊天等。
例如,该车内人员的口音为普通话,则选择普通话交互。
例如,该车内人员的口音为天津话,则选择天津话交互。
S25,将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件,并将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件。
在本实施例中,所述服务端在接收到所述上传文件后,解析所述上传文件,获取该车内人员智能性格、性别、年龄、情绪,搜索与车内人员智能性格、性别、年龄、情绪相关的语音内容,例如,赞美话语、牢骚话、新闻时事、笑话、调侃话语等语音内容,对所述语音内容进行修饰,以形成带有情绪化的反馈文件,并传输至所述车机端。在本实施例中,带有情绪化的反馈文件可以为增加热情多话智能性格的反馈文件、增加冷静少话智能性格的反馈文件、增加爱发牢骚智能性格的反馈文件、增加爱拍马屁赞美智能性格的反馈文件、增加爱打趣智能性格的反馈文件等。
S26,调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互。
在本实施例中,所述对应的预置语音朗读引擎为根据车内人员的外貌和性别所选择与该车内人员适合的性格年龄的语言声音引擎。
具体地,调用对应的预置语音朗读引擎朗读带有情绪化的反馈文件。
请参阅图2B,显示为语音交互方法中被动语音交互的实施例中的流程示意图。如图2B所示,所述语音交互方法具体包括以下几个步骤:
S21’,识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数,为车内人员的心情进行打分,形成心情分值。
所述车内人员的心情参数例如为生气的心情参数、高兴的心情参数、烦躁的心情参数、冷静的心情参数等。
对应车内人员的心情参数,从车内人员的坏心情到好心情进行打分。
S22’,获取心情的影响因素,为心情的影响因素打分,形成心情影响因素分值。所述心情的影响因素包括天气、节日等。
S23’,在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调,从所述语音信息中提取所述车内人员的口音,选择与该车内人员的口音对应的方言,并从所述语音信息中提取语音问题。
例如,从语音信息中提取到车内人员的口音为沪语,则选择沪语进行应答。
例如,从语音信息中提取语音问题为“能不能推荐一下北京的著名景点?”。
S24’,将车内人员的语音信息、语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值打包成上传文件,并将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件。
在本实施例中,所述服务端处理所述上传文件,形成带有情绪化的反馈文件的步骤具体包括:
从所述上传文件解析出语音信息后,将所述语音信息转换为文字信息,从所述文字信息中提取语音问题,搜索与该语音问题匹配的交互数据,根据车内人员的语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值对所述交互数据进行修饰或修改,以形成带有情绪化的反馈文件。
S25’,根据车内人员的外貌和性别,调用对应的预置语音朗读引擎,并根据所选择的方言直接朗读反馈文件;该反馈文件与从语音信息中提取的语音问题匹配。
例如,以热情多话智能性格、冷静少话智能性格、爱发牢骚智能性格、爱拍马屁赞美智能性格、或爱打趣智能性格,调用与车内人员性别相反的语声引擎直接朗读所述反馈文件。
请参阅图2C,显示为基于语音交互方法的语音处理方法于一实施例中的流程示意图。如图2C所示,所述基于语音交互方法的语音处理方法具体包括以下几个步骤:
S31,接收源于所述车机端发送的上传文件。所述上传文件包括车内人员的语音信息、语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值。
S32,处理所述上传文件,形成带有情绪化的反馈文件。
所述S32具体包括解析所述上传文件,获取该车内人员智能性格、性别、年龄、情绪,搜索与车内人员智能性格、性别、年龄、情绪相关的语音内容,例如,赞美话语、牢骚话、新闻时事、笑话、调侃话语等语音内容,对所述语音内容进行修饰,以形成带有情绪化的反馈文件,并传输至所述车机端。在本实施例中,带有情绪化的反馈文件可以为增加热情多话智能性格的反馈文件、增加冷静少话智能性格的反馈文件、增加爱发牢骚智能性格的反馈文件、增加爱拍马屁赞美智能性格的反馈文件、增加爱打趣智能性格的反馈文件等。
或所述S32具体包括从所述上传文件解析出语音信息后,将所述语音信息转换为文字信息,从所述文字信息中提取语音问题,搜索与该语音问题匹配的交互数据,根据车内人员的语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值对所述交互数据进行修饰或修改,以形成带有情绪化的反馈文件。
S33,将所述反馈文件传输至所述车机端。
本实施例还提供一种存储介质(亦称为计算机可读存储介质),其上存储有计算机程序,该程序被处理器执行时实现所述语音交互方法和/或执行时实现基于语音交互方法的语音处理方法。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过计算机程序相关的硬件来完成。前述的计算机程序可以存储于一计算机可读存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本实施例所提供的语音交互方法和基于语音交互方法的语音处理方法使得语音交互更有人情味,不再是单一应答交互,不再是固定的语音语调,而是能看人说话,察颜观色,选择合择的说话内容,增加了人情味。
实施例二
本实施例提供一种语音交互系统,应用于由车机端和服务后台组成的车联网;所述语音交互系统包括:
第一处理模块,用于识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数;在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调;
获取模块,用于获取心情的影响因素;
打包模块,用于将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件;
第一通信模块,用于将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件;
调用模块,用于调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互。
本实施例还提供一种基于语音交互系统的语音处理系统,应用于由车机端和服务后台组成的车联网;所述语音处理系统包括:
第二通信模块,用于接收源于所述车机端发送的上传文件;
第二处理模块,用于处理所述上传文件,形成带有情绪化的反馈文件;
将所述反馈文件通过所述第二传输模块传输至所述车机端。
以下将结合图示对本实施例所提供的语音交互系统和基于语音交互系统的语音处理系统进行详细描述。需要说明的是,应理解以下系统的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,x模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以下x模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以下各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以下这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digita lsingnal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以下某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
请参阅图3A,显示为语音交互系统于一实施例中的原理结构示意图。如图3A所示,所述语音交互系统31包括第一处理模块311、获取模块312、打包模块313、第一通信模块314及调用模块315。
所述第一处理模块311用于识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数,并选择与该车内人员适合的智能性格;根据车内人员的外貌和性别,选择与该车内人员适合的性格年龄的语言声音引擎;在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调,并从所述语音信息中提取所述车内人员的口音,选择与该车内人员的口音对应的方言。
在本实施例中,所述车内人员的心情参数例如为生气的心情参数、高兴的心情参数、烦躁的心情参数、冷静的心情参数等。
在本实施例中,可通过车内人员主动手动指定其的智能性格。
在本实施例中,车内人员的外貌为帅哥的外貌,美女的外貌。
在本实施例中,车内人员的性别为男或女。
例如,车内人员为帅哥,则选择美女甜美的语声引擎;
例如,车内人员为美女,则选择男士的贴心热情的语声引擎。
与所述第一处理模块311耦合的获取模块312用于获取心情的影响因素。所述心情的影响因素包括天气、节日等。
所述车内人员开始发声的情况例如为,车内人员进入车内后与他人通话、车内人员进入车内后与同伴聊天等。
例如,该车内人员的口音为普通话,则选择普通话交互。
例如,该车内人员的口音为天津话,则选择天津话交互。
与所述第一处理模块311和获取模块312耦合的打包模块313用于将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件,并通过所述第一通信模块314将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件。
在本实施例中,所述服务端在接收到所述上传文件后,解析所述上传文件,获取该车内人员智能性格、性别、年龄、情绪,搜索与车内人员智能性格、性别、年龄、情绪相关的语音内容,例如,赞美话语、牢骚话、新闻时事、笑话、调侃话语等语音内容,对所述语音内容进行修饰,以形成带有情绪化的反馈文件,并传输至所述车机端。在本实施例中,带有情绪化的反馈文件可以为增加热情多话智能性格的反馈文件、增加冷静少话智能性格的反馈文件、增加爱发牢骚智能性格的反馈文件、增加爱拍马屁赞美智能性格的反馈文件、增加爱打趣智能性格的反馈文件等。
与所述第一处理模块311、获取模块312及第一通信模块314耦合的调用模块315用于调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互。
在本实施例中,所述语音交互系统用于被动语音交互时,
所述第一处理模块311用于识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数,为车内人员的心情进行打分,形成心情分值;在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调,从所述语音信息中提取所述车内人员的口音,选择与该车内人员的口音对应的方言,并从所述语音信息中提取语音问题。
所述车内人员的心情参数例如为生气的心情参数、高兴的心情参数、烦躁的心情参数、冷静的心情参数等。
对应车内人员的心情参数,从车内人员的坏心情到好心情进行打分。
所述获取模块312用于获取心情的影响因素,为心情的影响因素打分,形成心情影响因素分值。所述心情的影响因素包括天气、节日等。
例如,从语音信息中提取到车内人员的口音为沪语,则选择沪语进行应答。
例如,从语音信息中提取语音问题为“能不能推荐一下北京的著名景点?”。
与所述第一处理模块311和获取模块312耦合的打包模块313用于将车内人员的语音信息、语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值打包成上传文件,并通过第一通信模块314将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件。
在本实施例中,所述服务端处理所述上传文件,形成带有情绪化的反馈文件的步骤具体包括:
从所述上传文件解析出语音信息后,将所述语音信息转换为文字信息,从所述文字信息中提取语音问题,搜索与该语音问题匹配的交互数据,根据车内人员的语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值对所述交互数据进行修饰或修改,以形成带有情绪化的反馈文件。
所述调用模块315根据车内人员的外貌和性别,调用对应的预置语音朗读引擎,并根据所选择的方言直接朗读反馈文件;该反馈文件与从语音信息中提取的语音问题匹配。
例如,以热情多话智能性格、冷静少话智能性格、爱发牢骚智能性格、爱拍马屁赞美智能性格、或爱打趣智能性格,调用与车内人员性别相反的语声引擎直接朗读所述反馈文件。
请参阅图3B,显示为基于语音交互系统的语音处理系统于一实施例中的原理结构示意图。如图3B所示,所述基于语音交互系统的语音处理系统32包括第二通信模块321和第二处理模块322。
所述第二通信模块321用于接收源于所述车机端发送的上传文件。所述上传文件包括车内人员的语音信息、语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值。
与所述第二通信模块321耦合的第二处理模块322用于处理所述上传文件,形成带有情绪化的反馈文件。
所述第二处理模块322具体用于解析所述上传文件,获取该车内人员智能性格、性别、年龄、情绪,搜索与车内人员智能性格、性别、年龄、情绪相关的语音内容,例如,赞美话语、牢骚话、新闻时事、笑话、调侃话语等语音内容,对所述语音内容进行修饰,以形成带有情绪化的反馈文件,并传输至所述车机端。在本实施例中,带有情绪化的反馈文件可以为增加热情多话智能性格的反馈文件、增加冷静少话智能性格的反馈文件、增加爱发牢骚智能性格的反馈文件、增加爱拍马屁赞美智能性格的反馈文件、增加爱打趣智能性格的反馈文件等。
或所述第二处理模块322具体用于从所述上传文件解析出语音信息后,将所述语音信息转换为文字信息,从所述文字信息中提取语音问题,搜索与该语音问题匹配的交互数据,根据车内人员的语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值对所述交互数据进行修饰或修改,以形成带有情绪化的反馈文件。
最后通过第二通信模块321将所述反馈文件传输至所述车机端。
实施例三
本申请实施例提供的一种车机端和服务端,所述车机端和服务端都包括:处理器、存储器、收发器、通信接口和系统总线;存储器和通信接口通过系统总线与处理器和收发器连接并完成相互间的通信,存储器用于存储计算机程序,通信接口用于和其他设备进行通信,处理器和收发器用于运行计算机程序,使所述车机端执行如实施例一所述语音交互方法的各个步骤,和使所述服务端执行如实施例一所述基于语音交互方法的语音处理方法的各个步骤。
上述提到的系统总线可以是外设部件互连标准(Peripheral PomponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
综上所述,本发明所述语音交互方法/系统和基于语音交互方法的语音处理方法/系统,存储介质、车机端及服务端使得语音交互更有人情味,不再是单一应答交互,不再是固定的语音语调,而是能看人说话,察颜观色,选择合择的说话内容,增加了人情味。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (11)
1.一种语音交互方法,其特征在于,应用于由车机端和服务端组成的车联网;所述语音交互方法包括:
识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数;
获取心情的影响因素;
在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调;
将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件,并将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件;
调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互。
2.根据权利要求1所述的语音交互方法,其特征在于,若在执行调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互的步骤之前,所述语音交互方法还包括:
根据车内人员的情绪参数,选择与该车内人员适合的智能性格;
根据车内人员的外貌和性别,选择与该车内人员适合的性格年龄的语言声音引擎;
发送交互请求至所述服务端,以从所述服务端获取与该车内人员适合的智能性格、车内人员的情绪参数、性格、年龄相关的带有情绪化的反馈文件。
3.根据权利要求1所述的语音交互方法,其特征在于,若在执行调用对应的预置语音朗读引擎与所述车内人员进行被动语音交互的步骤之前,所述语音交互方法还包括:
为车内人员的心情进行打分,形成心情分值;
为心情的影响因素打分,形成心情影响因素分值;
将车内人员的语音信息、语速语调、车内人员的心情参数和/或心情分值、心情的影响因素和/或心情影响因素分值打包成上传文件。
4.根据权利要求3所述的语音交互方法,其特征在于,所述调用对应的预置语音朗读引擎与所述车内人员进行被动语音交互的步骤包括:
调用对应的预置语音朗读引擎直接朗读与从语音信息中提取的语音问题匹配的反馈文件。
5.根据权利要求1-4任一项所述的语音交互方法,其特征在于,所述调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互的步骤之前,所述语音交互方法的步骤还包括:
从所述语音信息中提取所述车内人员的口音,选择与该车内人员的口音对应的方言。
6.一种基于权1至权5任一项所述语音交互方法的语音处理方法,其特征在于,应用于由车机端和服务后台组成的车联网;所述语音处理方法包括:
接收源于所述车机端发送的上传文件;
处理所述上传文件,形成带有情绪化的反馈文件;
将所述反馈文件传输至所述车机端。
7.一种语音交互系统,其特征在于,应用于由车机端和服务后台组成的车联网;所述语音交互系统包括:
第一处理模块,用于识别车内人员的面部表情及其外貌和性别,根据所述车内人员的面部表情,分析所述车内人员的心情参数;在所述车内人员开始发声后,收集该车内人员的语音信息及识别其语速语调;
获取模块,用于获取心情的影响因素;
打包模块,用于将车内人员的语音信息、语速语调、车内人员的心情参数、心情的影响因素打包成上传文件;
第一通信模块,用于将所述上传文件传输至所述服务端,待所述服务端处理所述上传文件,形成带有情绪化的反馈文件后,接收所述带有情绪化的反馈文件;
调用模块,用于调用对应的预置语音朗读引擎与所述车内人员进行主动语音交互或被动语音交互。
8.一种基于权7所述语音交互系统的语音处理系统,其特征在于,应用于由车机端和服务后台组成的车联网;所述语音处理系统包括:
第二通信模块,用于接收源于所述车机端发送的上传文件;
第二处理模块,用于处理所述上传文件,形成带有情绪化的反馈文件;
将所述反馈文件通过所述第二传输模块传输至所述车机端。
9.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至5中任一项所述语音交互方法和/或执行时实现权利要求6所述语音处理方法。
10.一种车机端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述车机端执行如权利要求1至5中任一项所述语音交互方法。
11.一种服务端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述服务端执行如权利要求6中任一项所述语音处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811010774.7A CN108847239A (zh) | 2018-08-31 | 2018-08-31 | 语音交互/处理方法、系统、存储介质、车机端及服务端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811010774.7A CN108847239A (zh) | 2018-08-31 | 2018-08-31 | 语音交互/处理方法、系统、存储介质、车机端及服务端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108847239A true CN108847239A (zh) | 2018-11-20 |
Family
ID=64233878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811010774.7A Pending CN108847239A (zh) | 2018-08-31 | 2018-08-31 | 语音交互/处理方法、系统、存储介质、车机端及服务端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108847239A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110085225A (zh) * | 2019-04-24 | 2019-08-02 | 北京百度网讯科技有限公司 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
CN110265021A (zh) * | 2019-07-22 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 个性化语音交互方法、机器人终端、装置及可读存储介质 |
CN111179903A (zh) * | 2019-12-30 | 2020-05-19 | 珠海格力电器股份有限公司 | 一种语音识别方法、装置、存储介质及电器 |
CN111292737A (zh) * | 2018-12-07 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 语音交互及语音唤醒检测方法、装置、设备及存储介质 |
CN111402925A (zh) * | 2020-03-12 | 2020-07-10 | 北京百度网讯科技有限公司 | 语音调节的方法、装置、电子设备、车载系统和可读介质 |
CN111966221A (zh) * | 2020-08-10 | 2020-11-20 | 广州汽车集团股份有限公司 | 车内互动处理方法及装置 |
CN112034989A (zh) * | 2020-09-04 | 2020-12-04 | 华人运通(上海)云计算科技有限公司 | 一种智能交互系统 |
CN112270816A (zh) * | 2020-10-22 | 2021-01-26 | 江苏峰鑫网络科技有限公司 | 一种基于云网络的远程呼叫系统 |
CN113555010A (zh) * | 2021-07-16 | 2021-10-26 | 广州三星通信技术研究有限公司 | 语音处理方法和语音处理装置 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5949854A (en) * | 1995-01-11 | 1999-09-07 | Fujitsu Limited | Voice response service apparatus |
JP2000310535A (ja) * | 1999-04-27 | 2000-11-07 | Alpine Electronics Inc | 車載情報機器設定装置 |
JP2001272991A (ja) * | 2000-03-24 | 2001-10-05 | Sanyo Electric Co Ltd | 音声対話方法及び音声対話装置 |
US20080065387A1 (en) * | 2006-09-11 | 2008-03-13 | Cross Jr Charles W | Establishing a Multimodal Personality for a Multimodal Application in Dependence Upon Attributes of User Interaction |
CN101685634A (zh) * | 2008-09-27 | 2010-03-31 | 上海盛淘智能科技有限公司 | 一种儿童语音情感识别方法 |
CN103927091A (zh) * | 2013-01-15 | 2014-07-16 | 华为终端有限公司 | 一种人机交互的方法、装置及系统 |
CN105247609A (zh) * | 2013-05-31 | 2016-01-13 | 雅马哈株式会社 | 利用言语合成对话语进行响应的技术 |
US20160063874A1 (en) * | 2014-08-28 | 2016-03-03 | Microsoft Corporation | Emotionally intelligent systems |
JP2016062077A (ja) * | 2014-09-22 | 2016-04-25 | シャープ株式会社 | 対話装置、対話システム、対話プログラム、サーバ、サーバの制御方法およびサーバ制御プログラム |
CN105700682A (zh) * | 2016-01-08 | 2016-06-22 | 北京乐驾科技有限公司 | 基于视觉和语音的智能性别、情绪识别检测系统及方法 |
US20170221470A1 (en) * | 2014-10-20 | 2017-08-03 | Yamaha Corporation | Speech Synthesis Device and Method |
CN107301168A (zh) * | 2017-06-01 | 2017-10-27 | 深圳市朗空亿科科技有限公司 | 智能机器人及其情绪交互方法、系统 |
WO2018073832A1 (en) * | 2016-10-20 | 2018-04-26 | Rn Chidakashi Technologies Pvt. Ltd. | Emotionally intelligent companion device |
US20180182385A1 (en) * | 2016-12-23 | 2018-06-28 | Soundhound, Inc. | Natural language grammar enablement by speech characterization |
-
2018
- 2018-08-31 CN CN201811010774.7A patent/CN108847239A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5949854A (en) * | 1995-01-11 | 1999-09-07 | Fujitsu Limited | Voice response service apparatus |
JP2000310535A (ja) * | 1999-04-27 | 2000-11-07 | Alpine Electronics Inc | 車載情報機器設定装置 |
JP2001272991A (ja) * | 2000-03-24 | 2001-10-05 | Sanyo Electric Co Ltd | 音声対話方法及び音声対話装置 |
US20080065387A1 (en) * | 2006-09-11 | 2008-03-13 | Cross Jr Charles W | Establishing a Multimodal Personality for a Multimodal Application in Dependence Upon Attributes of User Interaction |
CN101685634A (zh) * | 2008-09-27 | 2010-03-31 | 上海盛淘智能科技有限公司 | 一种儿童语音情感识别方法 |
CN103927091A (zh) * | 2013-01-15 | 2014-07-16 | 华为终端有限公司 | 一种人机交互的方法、装置及系统 |
CN105247609A (zh) * | 2013-05-31 | 2016-01-13 | 雅马哈株式会社 | 利用言语合成对话语进行响应的技术 |
US20160063874A1 (en) * | 2014-08-28 | 2016-03-03 | Microsoft Corporation | Emotionally intelligent systems |
JP2016062077A (ja) * | 2014-09-22 | 2016-04-25 | シャープ株式会社 | 対話装置、対話システム、対話プログラム、サーバ、サーバの制御方法およびサーバ制御プログラム |
US20170221470A1 (en) * | 2014-10-20 | 2017-08-03 | Yamaha Corporation | Speech Synthesis Device and Method |
CN105700682A (zh) * | 2016-01-08 | 2016-06-22 | 北京乐驾科技有限公司 | 基于视觉和语音的智能性别、情绪识别检测系统及方法 |
WO2018073832A1 (en) * | 2016-10-20 | 2018-04-26 | Rn Chidakashi Technologies Pvt. Ltd. | Emotionally intelligent companion device |
US20180182385A1 (en) * | 2016-12-23 | 2018-06-28 | Soundhound, Inc. | Natural language grammar enablement by speech characterization |
CN107301168A (zh) * | 2017-06-01 | 2017-10-27 | 深圳市朗空亿科科技有限公司 | 智能机器人及其情绪交互方法、系统 |
Non-Patent Citations (1)
Title |
---|
王晓荣,叶湘玉,牛百平: "青少年对牙颌状况认知水平及影响因素的研究", 实用口腔医学杂志, no. 03 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292737A (zh) * | 2018-12-07 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 语音交互及语音唤醒检测方法、装置、设备及存储介质 |
CN110085225A (zh) * | 2019-04-24 | 2019-08-02 | 北京百度网讯科技有限公司 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
CN110085225B (zh) * | 2019-04-24 | 2024-01-02 | 北京百度网讯科技有限公司 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
CN110265021A (zh) * | 2019-07-22 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 个性化语音交互方法、机器人终端、装置及可读存储介质 |
CN111179903A (zh) * | 2019-12-30 | 2020-05-19 | 珠海格力电器股份有限公司 | 一种语音识别方法、装置、存储介质及电器 |
CN111402925A (zh) * | 2020-03-12 | 2020-07-10 | 北京百度网讯科技有限公司 | 语音调节的方法、装置、电子设备、车载系统和可读介质 |
CN111402925B (zh) * | 2020-03-12 | 2023-10-10 | 阿波罗智联(北京)科技有限公司 | 语音调节的方法、装置、电子设备、车载系统和可读介质 |
CN111966221A (zh) * | 2020-08-10 | 2020-11-20 | 广州汽车集团股份有限公司 | 车内互动处理方法及装置 |
CN111966221B (zh) * | 2020-08-10 | 2024-04-26 | 广州汽车集团股份有限公司 | 车内互动处理方法及装置 |
CN112034989A (zh) * | 2020-09-04 | 2020-12-04 | 华人运通(上海)云计算科技有限公司 | 一种智能交互系统 |
CN112270816A (zh) * | 2020-10-22 | 2021-01-26 | 江苏峰鑫网络科技有限公司 | 一种基于云网络的远程呼叫系统 |
CN113555010A (zh) * | 2021-07-16 | 2021-10-26 | 广州三星通信技术研究有限公司 | 语音处理方法和语音处理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108847239A (zh) | 语音交互/处理方法、系统、存储介质、车机端及服务端 | |
CN105704013B (zh) | 基于上下文的话题更新数据处理方法及装置 | |
CN106295792B (zh) | 基于多模型输出的对话数据交互处理方法及装置 | |
CN105798918B (zh) | 一种面向智能机器人的交互方法和装置 | |
CN108804698A (zh) | 基于人物ip的人机交互方法、系统、介质及设备 | |
CN106951468A (zh) | 对话生成方法及装置 | |
CN107870994A (zh) | 用于智能机器人的人机交互方法及系统 | |
CN107894831A (zh) | 一种用于智能机器人的交互输出方法以及系统 | |
CN107728780A (zh) | 一种基于虚拟机器人的人机交互方法及装置 | |
CN109243432A (zh) | 话音处理方法以及支持该话音处理方法的电子设备 | |
CN105141587B (zh) | 一种虚拟玩偶互动方法及装置 | |
CN106503156A (zh) | 基于人工智能的人机交互方法及装置 | |
CN108108340A (zh) | 用于智能机器人的对话交互方法及系统 | |
CN106952646A (zh) | 一种基于自然语言的机器人交互方法和系统 | |
CN106773923A (zh) | 面向机器人的多模态情感数据交互方法及装置 | |
CN111241260A (zh) | 基于人机交互的数据处理方法、装置、设备及存储介质 | |
CN109712615A (zh) | 用于检测对话语音中的提示的系统和方法 | |
CN106992012A (zh) | 语音处理方法及电子设备 | |
CN108681390A (zh) | 信息交互方法和装置、存储介质及电子装置 | |
CN109979430A (zh) | 一种机器人讲故事的方法、装置、机器人及存储介质 | |
CN107515857A (zh) | 基于定制技能的语义理解方法及系统 | |
KR20200092166A (ko) | 감정을 인식하는 서버, 방법 및 컴퓨터 프로그램 | |
CN109784277A (zh) | 一种基于智能眼镜的情绪识别方法 | |
CN110533106A (zh) | 图像分类处理方法、装置及存储介质 | |
CN107958001A (zh) | 一种智能问答的实现方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181120 |