CN112099628A - 基于人工智能的vr互动方法、装置、计算机设备及介质 - Google Patents
基于人工智能的vr互动方法、装置、计算机设备及介质 Download PDFInfo
- Publication number
- CN112099628A CN112099628A CN202010936390.9A CN202010936390A CN112099628A CN 112099628 A CN112099628 A CN 112099628A CN 202010936390 A CN202010936390 A CN 202010936390A CN 112099628 A CN112099628 A CN 112099628A
- Authority
- CN
- China
- Prior art keywords
- target
- voice
- virtual image
- configuration file
- personalized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 31
- 230000004044 response Effects 0.000 claims abstract description 50
- 238000012795 verification Methods 0.000 claims abstract description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 32
- 238000003786 synthesis reaction Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 25
- 238000009432 framing Methods 0.000 claims description 19
- 238000001228 spectrum Methods 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000009877 rendering Methods 0.000 claims description 10
- 238000000926 separation method Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 230000000977 initiatory effect Effects 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims 1
- 230000002452 interceptive effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 abstract description 8
- 230000001976 improved effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000007654 immersion Methods 0.000 description 6
- 238000013139 quantization Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000037433 frameshift Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及通信领域,公开了一种基于人工智能的VR互动方法、装置、计算机设备及介质,所述方法包括:在接收到互动请求时,对客户端进行身份验证,得到目标标识,获取目标标识对应的配置文件,作为目标配置文件,并根据目标配置文件生成个性化机器人虚拟影像,并合成到原始VR场景中,得到合成VR场景,将合成VR场景展示给前端显示界面,同时,采用个性化机器人虚拟影像发起语音互动,在接收到录音设备发送的第二语音信号时,对第二语音信号进行语义理解,并根据得到的目标语义,生成应答文本,基于应答文本和目标配置文件,生成个性化回复语音信息,并采用个性化机器人虚拟影像,对个性化回复语音信息进行动画播报,本发明可增强VR交互性和沉浸感。
Description
技术领域
本发明涉及电通信技术领域,尤其涉及一种基于人工智能的VR互动方法、装置、计算机设备及介质。
背景技术
随着互联网技术的进步,人类的交流方式逐渐向虚拟现实时代迈进。虚拟现实(Virtual Reality,VR)技术能够为用户提供更加逼真的三维环境,使用户完全沉浸于VR之中。
目前,我们现在体验到的很多VR在游戏、地产、影视、教育、医疗等行业的应用,市面上的VR设备主要分为两种,一种是作为游戏的控制游览设备的专业VR设备,这种VR设备需要通过线缆接入高配置的电脑并使用手柄进行相应操作。另一种是VR眼镜,需要在智能终端中安装应用程序来播放相应的VR片源进行观看,但内容的介绍都采用画外音的方式进行介绍,用户操作需要通过人体移动来操作按钮和VR场景进行交互,有内容表现效果较差、不够智能的问题,使得VR的互动性较差。
发明内容
本发明实施例提供一种基于人工智能的VR互动方法、装置、计算机设备和存储介质,以提高VR交互的互动性。
为了解决上述技术问题,本申请实施例提供一种基于人工智能的VR互动方法,包括:
在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,其中,所述目标标识用于标识客户端的身份;
获取所述目标标识对应的配置文件,作为目标配置文件,并根据所述目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,其中,所述目标配置文件包含用于机器人虚拟影像设置的调节参数;
基于图像合成技术,将所述个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景;
将所述合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过所述个性化机器人虚拟影像发起语音互动;
在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对所述第二语音信号进行语义理解,得到目标语义,并根据所述目标语义,生成应答文本;
基于所述应答文本和所述目标配置文件,生成个性化回复语音信息,并采用所述个性化机器人虚拟影像,对所述个性化回复语音信息进行动画播报。
可选地,所述互动请求为语音信号,所述在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识包括:
获取所述互动请求中包含的第一语音信息;
从所述第一语音信息中提取目标声纹特征;
采用动态声纹识别模型,从预设的声纹数据库中,获取目标声纹对应的用户标识,作为所述目标标识。
可选地,所述从所述第一语音信息中提取目标声纹特征包括:
对所述第一语音信息进行声纹解析,得到初始声纹样本;
对所述初始声纹样本进行预加重处理,生成具有平坦频谱的加重处理声纹样本;
采用分帧和加窗的方式,对所述加重处理声纹样本进行分帧处理,得到初始语音帧;
对所述初始语音帧信号进行静默音分离,得到目标语音帧;
基于所述目标语音帧,提取所述目标声纹特征。
可选地,根据所述目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像包括:
获取所述初始机器人虚拟影像对应的初始配置文件;
将所述初始配置文件与所述目标配置文件进行对比分析,得到差异配置参数;
使用所述差异配置参数对所述初始机器人虚拟影像进行更新,得到所述个性化机器人虚拟影像。
可选地,所述根据所述目标语义,生成应答文本包括:
将所述目标语义输入到训练好的相似问模型中,通过所述训练好的相似问模型,确定所述目标语义对应的目标相似问,其中,所述训练好的相似问模型为采用VR问答语料对Transform模型训练得到;
从问答语料数据库中,获取所述目标相似问对应的标准答,作为所述应答文本。
可选地,所述基于所述应答文本和所述目标配置文件,生成个性化回复语音信息包括:
根据所述目标配置文件与预设的偏好判断条件,确定所述目标标识对应的个性偏好;
选取与所述个性偏好对应的语音合成方式,对所述应答文本进行语音合成,得到个性化回复语音信息。
为了解决上述技术问题,本申请实施例还提供一种基于人工智能的VR互动装置,包括:
身份识别模块,用于在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,其中,所述目标标识用于标识客户端的身份;
影像生成模块,用于获取所述目标标识对应的配置文件,作为目标配置文件,并根据所述目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,其中,所述目标配置文件包含用于机器人虚拟影像设置的调节参数;
场景合成模块,用于基于图像合成技术,将所述个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景;
语音交互模块,用于将所述合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过所述个性化机器人虚拟影像发起语音互动;
文本确定模块,用于在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对所述第二语音信号进行语义理解,得到目标语义,并根据所述目标语义,生成应答文本;
动画应答模块,用于基于所述应答文本和所述目标配置文件,生成个性化回复语音信息,并采用所述个性化机器人虚拟影像,对所述个性化回复语音信息进行动画播报。
可选地,所述身份识别模块包括:
语音信息获取单元,用于获取所述互动请求中包含的第一语音信息;
声纹特征提取单元,用于从所述第一语音信息中提取目标声纹特征;
目标标识识别单元,用于采用动态声纹识别模型,从预设的声纹数据库中,获取目标声纹对应的用户标识,作为所述目标标识。
可选地,语音信息获取单元包括:
声纹解析子单元,用于对所述第一语音信息进行声纹解析,得到初始声纹样本;
预加重子单元,用于对所述初始声纹样本进行预加重处理,生成具有平坦频谱的加重处理声纹样本;
分帧加窗子单元,用于采用分帧和加窗的方式,对所述加重处理声纹样本进行分帧处理,得到初始语音帧;
静默音分离子单元,用于对所述初始语音帧信号进行静默音分离,得到目标语音帧;
目标声纹特征提取子单元,用于基于所述目标语音帧,提取所述目标声纹特征。
可选地,所述影像生成模块包括:
初始配置文件获取单元,用于获取所述初始机器人虚拟影像对应的初始配置文件;
分析对比单元,用于将所述初始配置文件与所述目标配置文件进行对比分析,得到差异配置参数;
影像更新单元,用于使用所述差异配置参数对所述初始机器人虚拟影像进行更新,得到所述个性化机器人虚拟影像。
可选地,所述文本确定模块包括:
目标相似问确定单元,用于将所述目标语义输入到训练好的相似问模型中,通过所述训练好的相似问模型,确定所述目标语义对应的目标相似问,其中,所述训练好的相似问模型为采用VR问答语料对Transform模型训练得到;
应答文本确定单元,用于从问答语料数据库中,获取所述目标相似问对应的标准答,作为所述应答文本。
可选地,所述动画应答模块包括:
偏好判断单元,用于根据所述目标配置文件与预设的偏好判断条件,确定所述目标标识对应的个性偏好;
个性回复合成单元,用于选取与所述个性偏好对应的语音合成方式,对所述应答文本进行语音合成,得到个性化回复语音信息。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于人工智能的VR互动方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于人工智能的VR互动方法的步骤。
本发明实施例提供的基于人工智能的VR互动方法、装置、计算机设备及存储介质,一方面,通过在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,获取目标标识对应的配置文件,作为目标配置文件,并根据目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,基于图像合成技术,将个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景,将合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过个性化机器人虚拟影像发起语音互动,实现通过无感认证并生产与认证用户对应的个性化影像,有利于提高用户的沉浸感,另一方面,在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对第二语音信号进行语义理解,得到目标语义,并根据目标语义,生成应答文本,基于应答文本和目标配置文件,生成个性化回复语音信息,并采用个性化机器人虚拟影像,对个性化回复语音信息进行动画播报,实现通过语音交互的方式与用户进行互动,增强了交互性,同时,采用个性化的动画播报方式,也有利于提高沉浸感。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是本申请的基于人工智能的VR互动方法的一个实施例的流程图;
图3是根据本申请的基于人工智能的VR互动装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture E界面显示perts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureE界面显示perts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于人工智能的VR互动方法由服务器执行,相应地,基于人工智能的VR互动装置设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器,本申请实施例中的终端设备101、102、103具体可以对应的是实际生产中的应用系统。
请参阅图2,图2示出本发明实施例提供的一种基于人工智能的VR互动方法,以该方法应用在图1中的服务端为例进行说明,详述如下:
S201:在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,其中,目标标识用于标识客户端的身份。
具体地,在用户需要开启VR的某项体验时,通过客户端向服务端发送互动请求,服务端在接收到该互动请求后,通过互动请求中包含的信息,对客户端进行身份验证,得到标识客户端用户身份的目标标识。
在本实施例中,客户端具体可以是VR设备端。
其中,目标标识为用于唯一标识客户端的用户身份的标识符号,具体可以是数字、字母、汉字等中的一种或多种组合。
优选的,为提高VR交互性,本实施例的互动请求以语音信号的形式进行发送,例如,用户通过说出预设的唤醒词“开启虚拟过山车”,来发送互动请求。服务端从语音信息中进行声纹提取,根据声纹来对客户端用户进行身份认证,得到目标标识,具体过程可参考后续实施例,为避免重复,此处不再赘述。
S202:获取目标标识对应的配置文件,作为目标配置文件,并根据目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,其中,目标配置文件包含用于机器人虚拟影像设置的调节参数。
具体地,在用户第一次使用该VR设备,并录入声纹信息后,服务端会提供机器人虚拟影像的参数,来供用户自主配置,得到用户标识对应的配置文件,在本实施例中,用户自主配置的参数不同,使得机器人的虚拟影像会发生改变,基于此,用户可根据自己的偏好设置各项用于机器人虚拟影像设置的调节参数,得到个性化的配置文件,在获取到目标标识,也即,确定当前使用VR设备的用户身份后,根据用以指示用户身份的目标标识,获取对应的配置文件,作为目标配置文件,进而根据该目标目标配置文件和VR设备提供的初始机器人虚拟影像,来生成符合用户偏好的个性化机器人虚拟影像。
应理解,各项调节参数的类别和取值范围,可根据机器人虚拟影像的实际需求来进行设定,此处不做具体限定。
例如,在一具体实时方式中,涉及的各项调节参数类型包括形象、人设、个性等,其中,形象包括头发、皮肤、眼睛、嘴巴、脸型、鼻子、耳朵、身材等多个参数,根据各种类型的参数,可以生成个性化的机器人影像,如宅男可以定制选择日系卡哇伊外形、人设、性格的智能机器人影像,宅女可以定制选择韩系小鲜肉外形、人设、性格的智能机器人影像。通过这些设计极大的提升了VR内容的表现力,还能满足不同用户千差万别的个性化诉求,很大程度的优化了用户体验。
根据目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像的具体实现过程,可参考后续实施例的描述,为避免重复,此处不再赘述。
S203:基于图像合成技术,将个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景。
具体地,通过图像合成技术,将个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景。
其中,原始VR场景是指VR设备启用的初始场景画面或者预设场景画面。
其中,图像合成技术具体可以是但不限于:基于深度学习的语义控制图像合成、基于视点合成的深度图编码和最小通信开销的Direct Send并行图像合成方法等。
优选地,本实施例为提高合成速度,采用最小通信开销的Direct Send并行图像合成方法。
S204:将合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过个性化机器人虚拟影像发起语音互动。
具体地,服务端在得到合成VR场景后,通过网络传输的方式将该合成VR场景显示到VR设备上,并启用个性化机器人虚拟影像,通过VR设备向用户发起语音互动。
本实施例中,每个VR场景,均预先设置有开场提示语音信息,并存储该VR场景对应的非临时性可读计算机存储介质上,具体语音信息的内容,可根据VR场景的实际需要来设定,此处不做限定。
其中,三维VR渲染的方式具体包括但不限于:基于图像的实时稠密三维重建、基于空间patch扩散的方法、基于网格的高精度实时三维重建(High-resolution Mesh-basedReal-time 3D Reconstruction)和基于RGB-D实时三维重建等。
优选的,本实施例采用基于空间patch扩散的方法,对个性化机器人虚拟影像在发起语音互过程中的三维动画进行渲染。优选的,本实施例选用5G网络进行数据传输。
S205:在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对第二语音信号进行语义理解,得到目标语义,并根据目标语义,生成应答文本。
具体地,在现有的交互方式中,用户通过手势进行VR交互,这对用户本身的操作有较高要求,同时,准确程度也不是很高,本实施例中,用户通过语音的方式,与VR设备进行交互,用户在与VR交互中,通过录音设备,向服务端发送第二语音信号,服务端通过预设的语音识别模型,对第二语音信号中包含的语义进行理解,得到目标语义,再根据目标语义,生成应答文本。
其中,预设的语义识别模型具体包括但不限于:Bert模型、NLP模型和Transform模型等,相应地,对第二语音信号进行识别和语义理解,可以通过NLP的方式,或者Bert模型的方式来实现,由于这些技术较为成熟,属于本领域的技术人员所知晓,此处不进行赘述。
本实施例中,根据目标语义,生成应答文本,具体可以是采用规则库的方式,或者,智能问答机器人的方式,考虑到VR相关的问答与其他领域语料通用性不强,因而,本实施例采用预先设置VR交互相关的问答语料数据库,并采用训练好的相似问模型对目标语义进行识别,并根据识别结果,从问答语料数据库中,选取合适的应答文本,具体过程可参考后续实施例的描述,为避免重复,此处不再赘述。
S206:基于应答文本和目标配置文件,生成个性化回复语音信息,并采用个性化机器人虚拟影像,对个性化回复语音信息进行动画播报。
具体地,服务端根据目标配置文件,预测目标标识个性偏好,根据该个性偏好和应答文本,采用TTS合成个性化回复语音信息。
其中,TTS是Text To Speech的缩写,即“从文本到语音”,是人机对话的一部分,让机器能够说话。
例如,预测到目标标识的个性偏好为动漫,则采用TTS根据应答文本合成偏向中二语调的个性化回复语音信息。
基于应答文本和目标配置文件,生成个性化回复语音信息的具体实现方式,可参考后续实施例的描述,为避免重复,此处不再赘述。
本实施例中,通过在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,获取目标标识对应的配置文件,作为目标配置文件,并根据目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,基于图像合成技术,将个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景,将合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过个性化机器人虚拟影像发起语音互动,实现通过无感认证并生产与认证用户对应的个性化影像,有利于提高用户的沉浸感,同时,在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对第二语音信号进行语义理解,得到目标语义,并根据目标语义,生成应答文本,基于应答文本和目标配置文件,生成个性化回复语音信息,并采用个性化机器人虚拟影像,对个性化回复语音信息进行动画播报,实现通过语音交互的方式与用户进行互动,增强了交互性,同时,采用个性化的动画播报方式,也有利于提高沉浸感。
在本实施例的一些可选的实现方式中,步骤S201中,互动请求为语音信号,在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识包括:
获取互动请求中包含的第一语音信息;
从第一语音信息中提取目标声纹特征;
采用动态声纹识别模型,从预设的声纹数据库中,获取目标声纹对应的用户标识,作为目标标识。
本实施例中,具体地,用户通过与VR设备语音交互的方式,向VR设备发送互动请求,服务端接收该互动请求,并获取互动请求中包含的第一语音信息。
其中,第一语音信息具体可以是用于开启或唤醒VR设备的语音指令,也可以是预设好的其他任意语音信号。
需要说明的是,通过该第一语言信息激活VR设备,同时,在后续通过该第一语音信息进行解析,确定当前使用该VR的用户身份信息。
进一步地,在服务端预设有声纹数据库,在用户使用VR设备时,通过第一语音信号判断用户是否为第一次使用该VR设备,若是,则从第一语音信号中提取声纹特征,并将该声纹特征和用户标识存储到声纹数据库中;若否,则从第一语音信号中提取目标声纹特征,并采用动态声纹识别模型,对该目标声纹特征与声纹数据库中存储的声纹特征进行识别,判断目标声纹对应的用户标识,得到目标标识,也即,确定当前使用该VR设备的用户。
其中,声纹特征包括但不限于:声学特征、词法特征、韵律特征、语种方言口音信息和通道信息等。
其中,动态声纹识别模型是通过对采集到预设的声纹数据库中每个声纹特征进行训练,进而得到每个用户标识对应的综合声纹特征,该综合声纹特征用于识别预设的声纹数据库中的唯一用户标识,并基于用户标识与其对应的综合声纹特征,构建动态声纹识别模型。
其中,对每个用户标识对应的声纹特征进行训练,得到每个每个用户标识对应的综合声纹特征,所采用的训练方式包括但不限于:模板匹配方法、最近邻方法、神经网络方法、隐式马尔可夫模型(Hidden Markov Model,HMM)、矢量量化(Vector Quantization,VQ)方法、多项式分类器(Polynomial Classifiers)方法等。
优选的,服务端与VR设备通过5G网络连接,结合5G网络高带宽特点,将目前在主机或者头显中进行的大规模复杂计算移至云端和网络边缘,从而提升VR内容渲染质量。
在本实施例中,通过从互动请求中,提取出第一语音信息,进而通过对第一语音信息进行声纹识别,实现无感对客户端用户的识别认证,有利于提高身份认证的准确性和效率。
在本实施例的一些可选的实现方式中,从第一语音信息中提取目标声纹特征包括:
对第一语音信息进行声纹解析,得到初始声纹样本;
对初始声纹样本进行预加重处理,生成具有平坦频谱的加重处理声纹样本;
采用分帧和加窗的方式,对加重处理声纹样本进行分帧处理,得到初始语音帧;
对初始语音帧信号进行静默音分离,得到目标语音帧;
基于目标语音帧,提取目标声纹特征。
具体地,在获取到第一语音信息后,对第一语音信息进行语音信号提取,得到初始声纹样本,在对初始声纹样本进行预加重处理、分帧加窗和静默音分离,得到目标语音帧,进而基于目标语音帧,提取目标声纹特征。
进一步地,由于声门激励和口鼻辐射会对语音信号的平均功率谱产生影响,导致高频在超过800Hz时会按6dB/倍频跌落,所以在计算语音信号频谱时,频率越高相应的成分越小,为此要在预处理中进行预加重(Pre-emphasis)处理,预加重的目的是提高高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱,以便于频谱分析或者声道参数分析。预加重可在语音信号数字化时在反混叠滤波器之前进行,这样不仅可以进行预加重,而且可以压缩信号的动态范围,有效地提高信噪比。预加重可使用一阶的数字滤波器来实现,例如:有限脉冲响应(Finite Impulse Response,FIR)滤波器。
值得说明的是,利用设备获取的语音信号都是模拟信号,在对这些模拟信号进行预加重处理之前,需要经过采样和量化将模拟信息转化为数字信号,根据语音的频谱范围200-3400Hz,采样率可设置为8KHz,量化精度为16bit。
应理解,此处采样率和量化精度的数值范围,为本发明优选范围,但可以根据实际应用的需要进行设置,此处不做限制。
语音信号在经过预加重后,频谱的高频部分得到提升,信号也变得平坦,生成具有平坦频谱的加重处理声纹样本,有利于后续的声纹特征提取。
语音信号具有短时平稳的性质,语音信号在经过预加重处理后,需要对其进行分帧和加窗处理,来保持信号的短时平稳性,通常情况下,每秒钟包含的帧数在33~100帧之间。为了保持帧与帧之间的连续性,使得相邻两帧都能平滑过渡,采用交叠分帧的方式,如图3所示,图3示出了交叠分帧的样例,图3中第k帧和第k+1帧之间的交叠部分即为帧移。
优选地,帧移与帧长的比值的取值范围为(0,0.5)。
例如,在一具体实施方式中,预加重后的语音信号为s'(n),帧长为N个采样点,帧移为M个采样点。当第l帧对应的采样点为第n个时,原始语音信号xl(n)与各参数之间的对应关系为:
xl(n)=x[(l-1)M+n]
其中,n=0,1,...,N-1,N=256。
进一步地,声纹样本经过分帧之后,使用相应的窗函数w(n)与预加重后的语音信号s'(n)相乘,即得到加窗后的语音信号Sw,将该语音信号作为初始语音帧信号。
其中,窗函数包括但不限于:矩形窗(Rectangular)、汉明窗(Hamming)和汉宁窗(Hanning)等。
矩形窗表达式为:
汉明窗表达式为:
汉宁窗表达式为:
对经过预加重处理的声纹样本进行分帧和加窗处理,使得声纹样本保持帧与帧之间的连续性,并剔除掉一些异常的信号点,提高了声纹样本的鲁棒性。
本实施例中,具体地,在采集到的语音信息中,语音信号可分为激活期和静默期两个状态,静默期不传送任何语音信号,上、下行链路的激活期和静默期相互独立。在进行声纹特征提取的时候,需要检测出静默期状态,进而将静默期与激活期进行分离,以得到持续的激活期,将保留下来的持续的激活期的语音信号作为目标语音帧。
其中,检测静默音状态的方式包括但不限于:语音端点检测、FFMPEG探测音频静音算法和语音活动检测(Voice Activity Detection,VAD)算法等。
在经过预加重处理、分帧和加窗和静默音分离之后,获取了稳定性强的声纹样本,使用该样本进行声纹特征的提取。
其中,声纹特征提取是提取并选择对说话人的声纹具有可分性强、稳定性高等特性的声学或语言特征。
优选地,本发明选择提取的声纹特征为声学特征中的线性倒谱特征。
在本实施例中,通过对语音信息进行预加重处理、分帧和加窗和静默音分离之后,再进行声纹提取,提高了声纹提取的准确性,有利于后续快速准确地确定目标标识。
在本实施例的一些可选的实现方式中,步骤S202中,根据目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像包括:
获取初始机器人虚拟影像对应的初始配置文件;
将初始配置文件与目标配置文件进行对比分析,得到差异配置参数;
使用差异配置参数对初始机器人虚拟影像进行更新,得到个性化机器人虚拟影像。
具体地,获取服务端预先设置的初始机器人虚拟影像对应的初始配置文件,该初始配置文件中包含机器人虚拟影像的各个参数配置,并将该初始配置文件与目标配置文件进行对比,获取目标配置文件中与初始配置文件不同的参数,作为差异配置参数,并采用差异配置参数中的数值,对初始机器人虚拟影像进行调整更新,并进行图像边缘处理,得到个性化机器人虚拟影像。
在本实施例中,通过用户预先设置的目标配置文件,生成个性化机器人虚拟影像,有利于提高用户的沉浸感。
在本实施例的一些可选的实现方式中,步骤S205中,根据目标语义,生成应答文本包括:
将目标语义输入到训练好的相似问模型中,通过训练好的相似问模型,确定目标语义对应的目标相似问,其中,训练好的相似问模型为采用VR问答语料对Transform模型训练得到;
从问答语料数据库中,获取目标相似问对应的标准答,作为应答文本。
其中,相似问是指在自然语言处理领域由于语言习惯等一些因素影响,使得提问问题与标准问虽然语义上相同,但是字面上有所区别的若干问题。在本实施例中,针对获取到的第二语音信号,进行识别得到目标语义,VR影像机器人在作答时,需要参考问答语料数据库中的回答,因而,需要先进行相似问的识别。
在本实施例实施的过程中,还包括预先对问答语料数据库的构建,问答语料数据库的构建包括但不限于:相似问模型的训练和相似问的识别存储等。其中,相似问模型的训练采用VR问答语料对Transform模型训练来实现。
在本实施例中,通过训练好的相似问模型对目标语义进行相似问的确定,进而得到对应的应答文本,提高应答的准确性和效率。
在本实施例的一些可选的实现方式中,步骤S206中,基于应答文本和目标配置文件,生成个性化回复语音信息包括:
根据目标配置文件与预设的偏好判断条件,确定目标标识对应的个性偏好;
选取与个性偏好对应的语音合成方式,对应答文本进行语音合成,得到个性化回复语音信息。
具体地,服务端预先设置有偏好判断条件,根据目标配置文件与预设的偏好判断条件,确定目标标识对应的个性偏好,再选择个性偏好对应的语音合成方式,对应答文本进行语音合成,得到个性化回复语音信息。
例如,在一具体实施方式中,根据目标配置文件与预设的偏好判断条件,确定目标标识对应的个性偏好为中二爱好者,则采用中二爱好者对应的语调,对应答文本进行语音合成,得到偏向中二语调的回复语音信息。
其中,预设的偏好判断条件,可以根据对不同参数的取值范围已经组合来进行个性化设置,此处不做具体设定。
本实施例中,通过目标配置文件与预设的偏好判断条件,生成个性化回复语音信息,有利于提高用户体验和沉浸感。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
图3示出与上述实施例基于人工智能的VR互动方法一一对应的基于人工智能的VR互动装置的原理框图。如图3所示,该基于人工智能的VR互动装置包括身份识别模块31、影像生成模块32、场景合成模块33、语音交互模块34、文本确定模块35和动画应答模块36。各功能模块详细说明如下:
身份识别模块31,用于在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,其中,目标标识用于标识客户端的身份;
影像生成模块32,用于获取目标标识对应的配置文件,作为目标配置文件,并根据目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,其中,目标配置文件包含用于机器人虚拟影像设置的调节参数;
场景合成模块33,用于基于图像合成技术,将个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景;
语音交互模块34,用于将合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过个性化机器人虚拟影像发起语音互动;
文本确定模块35,用于在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对第二语音信号进行语义理解,得到目标语义,并根据目标语义,生成应答文本;
动画应答模块36,用于基于应答文本和目标配置文件,生成个性化回复语音信息,并采用个性化机器人虚拟影像,对个性化回复语音信息进行动画播报。
可选地,身份识别模块31包括:
语音信息获取单元,用于获取互动请求中包含的第一语音信息;
声纹特征提取单元,用于从第一语音信息中提取目标声纹特征;
目标标识识别单元,用于采用动态声纹识别模型,从预设的声纹数据库中,获取目标声纹对应的用户标识,作为目标标识。
可选地,语音信息获取单元包括:
声纹解析子单元,用于对第一语音信息进行声纹解析,得到初始声纹样本;
预加重子单元,用于对初始声纹样本进行预加重处理,生成具有平坦频谱的加重处理声纹样本;
分帧加窗子单元,用于采用分帧和加窗的方式,对加重处理声纹样本进行分帧处理,得到初始语音帧;
静默音分离子单元,用于对初始语音帧信号进行静默音分离,得到目标语音帧;
目标声纹特征提取子单元,用于基于目标语音帧,提取目标声纹特征。
可选地,影像生成模块32包括:
初始配置文件获取单元,用于获取初始机器人虚拟影像对应的初始配置文件;
分析对比单元,用于将初始配置文件与目标配置文件进行对比分析,得到差异配置参数;
影像更新单元,用于使用差异配置参数对初始机器人虚拟影像进行更新,得到个性化机器人虚拟影像。
可选地,文本确定模块35包括:
目标相似问确定单元,用于将目标语义输入到训练好的相似问模型中,通过训练好的相似问模型,确定目标语义对应的目标相似问,其中,训练好的相似问模型为采用VR问答语料对Transform模型训练得到;
应答文本确定单元,用于从问答语料数据库中,获取目标相似问对应的标准答,作为应答文本。
可选地,动画应答模块36包括:
偏好判断单元,用于根据目标配置文件与预设的偏好判断条件,确定目标标识对应的个性偏好;
个性回复合成单元,用于选取与个性偏好对应的语音合成方式,对应答文本进行语音合成,得到个性化回复语音信息。
关于基于人工智能的VR互动装置的具体限定可以参见上文中对于基于人工智能的VR互动方法的限定,在此不再赘述。上述基于人工智能的VR互动装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件连接存储器41、处理器42、网络接口43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或D界面显示存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如电子文件的控制的程序代码等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的程序代码或者处理数据,例如运行电子文件的控制的程序代码。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有界面显示程序,所述界面显示程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于人工智能的VR互动方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于人工智能的VR互动方法,其特征在于,包括:
在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,其中,所述目标标识用于标识客户端的身份;
获取所述目标标识对应的配置文件,作为目标配置文件,并根据所述目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,其中,所述目标配置文件包含用于机器人虚拟影像设置的调节参数;
基于图像合成技术,将所述个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景;
将所述合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过所述个性化机器人虚拟影像发起语音互动;
在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对所述第二语音信号进行语义理解,得到目标语义,并根据所述目标语义,生成应答文本;
基于所述应答文本和所述目标配置文件,生成个性化回复语音信息,并采用所述个性化机器人虚拟影像,对所述个性化回复语音信息进行动画播报。
2.如权利要求1所述的基于人工智能的VR互动方法,其特征在于,所述互动请求为语音信号,所述在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识包括:
获取所述互动请求中包含的第一语音信息;
从所述第一语音信息中提取目标声纹特征;
采用动态声纹识别模型,从预设的声纹数据库中,获取目标声纹对应的用户标识,作为所述目标标识。
3.如权利要求2所述的基于人工智能的VR互动方法,其特征在于,所述从所述第一语音信息中提取目标声纹特征包括:对所述第一语音信息进行声纹解析,得到初始声纹样本;
对所述初始声纹样本进行预加重处理,生成具有平坦频谱的加重处理声纹样本;
采用分帧和加窗的方式,对所述加重处理声纹样本进行分帧处理,得到初始语音帧;
对所述初始语音帧信号进行静默音分离,得到目标语音帧;
基于所述目标语音帧,提取所述目标声纹特征。
4.如权利要求1所述的基于人工智能的VR互动方法,其特征在于,根据所述目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像包括:
获取所述初始机器人虚拟影像对应的初始配置文件;
将所述初始配置文件与所述目标配置文件进行对比分析,得到差异配置参数;
使用所述差异配置参数对所述初始机器人虚拟影像进行更新,得到所述个性化机器人虚拟影像。
5.如权利要求1所述的基于人工智能的VR互动方法,其特征在于,所述根据所述目标语义,生成应答文本包括:
将所述目标语义输入到训练好的相似问模型中,通过所述训练好的相似问模型,确定所述目标语义对应的目标相似问,其中,所述训练好的相似问模型为采用VR问答语料对Transform模型训练得到;
从问答语料数据库中,获取所述目标相似问对应的标准答,作为所述应答文本。
6.如权利要求1至5任一项所述的基于人工智能的VR互动方法,其特征在于,所述基于所述应答文本和所述目标配置文件,生成个性化回复语音信息包括:
根据所述目标配置文件与预设的偏好判断条件,确定所述目标标识对应的个性偏好;
选取与所述个性偏好对应的语音合成方式,对所述应答文本进行语音合成,得到个性化回复语音信息。
7.一种基于人工智能的VR互动装置,其特征在于,包括:
身份识别模块,用于在接收到客户端发送的互动请求时,对客户端进行身份验证,得到目标标识,其中,所述目标标识用于标识客户端的身份;
影像生成模块,用于获取所述目标标识对应的配置文件,作为目标配置文件,并根据所述目标配置文件和初始机器人虚拟影像,生成个性化机器人虚拟影像,其中,所述目标配置文件包含用于机器人虚拟影像设置的调节参数;
场景合成模块,用于基于图像合成技术,将所述个性化机器人虚拟影像合成到原始VR场景中,得到合成VR场景;
语音交互模块,用于将所述合成VR场景展示给前端显示界面,并采用三维VR渲染的方式和预设的开场提示语音信息,通过所述个性化机器人虚拟影像发起语音互动;
文本确定模块,用于在接收到录音设备发送的第二语音信号时,基于预设的语义识别模型,对所述第二语音信号进行语义理解,得到目标语义,并根据所述目标语义,生成应答文本;
动画应答模块,用于基于所述应答文本和所述目标配置文件,生成个性化回复语音信息,并采用所述个性化机器人虚拟影像,对所述个性化回复语音信息进行动画播报。
8.如权利要求7所述的基于人工智能的VR互动装置,其特征在于,所述身份识别模块包括:
语音信息获取单元,用于获取所述互动请求中包含的第一语音信息;
声纹特征提取单元,用于从所述第一语音信息中提取目标声纹特征;
目标标识识别单元,用于采用动态声纹识别模型,从预设的声纹数据库中,获取目标声纹对应的用户标识,作为所述目标标识。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的基于人工智能的VR互动方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的基于人工智能的VR互动方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010936390.9A CN112099628A (zh) | 2020-09-08 | 2020-09-08 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
PCT/CN2021/090467 WO2022052481A1 (zh) | 2020-09-08 | 2021-04-28 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010936390.9A CN112099628A (zh) | 2020-09-08 | 2020-09-08 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112099628A true CN112099628A (zh) | 2020-12-18 |
Family
ID=73751831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010936390.9A Pending CN112099628A (zh) | 2020-09-08 | 2020-09-08 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112099628A (zh) |
WO (1) | WO2022052481A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112905007A (zh) * | 2021-01-28 | 2021-06-04 | 海信视像科技股份有限公司 | 一种虚拟现实设备及语音辅助交互方法 |
CN113066473A (zh) * | 2021-03-31 | 2021-07-02 | 建信金融科技有限责任公司 | 一种语音合成方法、装置、存储介质及电子设备 |
CN113160382A (zh) * | 2021-03-23 | 2021-07-23 | 清华大学 | 基于隐式模板映射的单视图车辆重建方法和装置 |
CN113407025A (zh) * | 2021-05-27 | 2021-09-17 | 广东职业技术学院 | 一种信息显示方法和系统 |
CN113763926A (zh) * | 2021-09-17 | 2021-12-07 | 中国第一汽车股份有限公司 | 一种整车语音交互性能测试系统 |
CN114155865A (zh) * | 2021-12-16 | 2022-03-08 | 广州城市理工学院 | 一种全息互动系统 |
WO2022052481A1 (zh) * | 2020-09-08 | 2022-03-17 | 平安科技(深圳)有限公司 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
CN114530155A (zh) * | 2022-02-18 | 2022-05-24 | 北京肿瘤医院(北京大学肿瘤医院) | 一种用于还原亲人生前声音并智能互动的方法及系统 |
CN115082602A (zh) * | 2022-06-15 | 2022-09-20 | 北京百度网讯科技有限公司 | 生成数字人的方法、模型的训练方法、装置、设备和介质 |
CN117523148A (zh) * | 2024-01-02 | 2024-02-06 | 小芒电子商务有限责任公司 | 虚拟ar的互动方法、系统、电子设备及存储介质 |
CN117975964A (zh) * | 2024-03-22 | 2024-05-03 | 联众智慧科技股份有限公司 | 一种基于Bert模型的智能机器人语音交互方法及其系统 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115001885B (zh) * | 2022-04-22 | 2024-01-26 | 青岛海尔科技有限公司 | 设备控制方法及装置、存储介质及电子装置 |
CN115509360B (zh) * | 2022-10-11 | 2023-10-20 | 云宝宝大数据产业发展有限责任公司 | 基于元宇宙虚拟现实vr交互系统 |
CN116866674B (zh) * | 2023-08-10 | 2024-02-27 | 广州阿凡提电子科技有限公司 | 应用人工智能的直播图像互动信息处理方法、系统及介质 |
CN116860114B (zh) * | 2023-09-04 | 2024-04-05 | 腾讯科技(深圳)有限公司 | 基于人工智能的扩展现实交互方法及相关装置 |
CN117273054B (zh) * | 2023-09-28 | 2024-06-25 | 江苏八点八智能科技有限公司 | 一种应用不同场景的虚拟人交互方法与系统 |
CN117079169B (zh) * | 2023-10-18 | 2023-12-22 | 一站发展(北京)云计算科技有限公司 | 一种地图场景适配方法及系统 |
CN117541444B (zh) * | 2023-12-04 | 2024-03-29 | 新励成教育科技股份有限公司 | 一种互动虚拟现实口才表达训练方法、装置、设备及介质 |
CN117908684B (zh) * | 2024-03-20 | 2024-06-18 | 南昌大学 | 一种虚拟现实实现方法及系统 |
CN118228188B (zh) * | 2024-05-23 | 2024-07-26 | 广州市广美电子科技有限公司 | 一种基于用户行为的智能互动式投影方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107728780A (zh) * | 2017-09-18 | 2018-02-23 | 北京光年无限科技有限公司 | 一种基于虚拟机器人的人机交互方法及装置 |
US20180198548A1 (en) * | 2017-01-08 | 2018-07-12 | At&T Intellectual Property I, L.P. | Interference cancelation for 5g or other next generation network |
CN108900725A (zh) * | 2018-05-29 | 2018-11-27 | 平安科技(深圳)有限公司 | 一种声纹识别方法、装置、终端设备及存储介质 |
CN108922538A (zh) * | 2018-05-29 | 2018-11-30 | 平安科技(深圳)有限公司 | 会议信息记录方法、装置、计算机设备及存储介质 |
CN109448694A (zh) * | 2018-12-27 | 2019-03-08 | 苏州思必驰信息科技有限公司 | 一种快速合成tts语音的方法及装置 |
CN110427472A (zh) * | 2019-08-02 | 2019-11-08 | 深圳追一科技有限公司 | 智能客服匹配的方法、装置、终端设备及存储介质 |
CN111291889A (zh) * | 2020-01-15 | 2020-06-16 | 深圳前海微众银行股份有限公司 | 一种知识库的构建方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274906A (zh) * | 2017-06-28 | 2017-10-20 | 百度在线网络技术(北京)有限公司 | 语音信息处理方法、装置、终端及存储介质 |
CN109473108A (zh) * | 2018-12-15 | 2019-03-15 | 深圳壹账通智能科技有限公司 | 基于声纹识别的身份验证方法、装置、设备及存储介质 |
CN111475020A (zh) * | 2020-04-02 | 2020-07-31 | 深圳创维-Rgb电子有限公司 | 一种信息的交互方法、交互装置、电子设备及存储介质 |
CN112099628A (zh) * | 2020-09-08 | 2020-12-18 | 平安科技(深圳)有限公司 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
-
2020
- 2020-09-08 CN CN202010936390.9A patent/CN112099628A/zh active Pending
-
2021
- 2021-04-28 WO PCT/CN2021/090467 patent/WO2022052481A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180198548A1 (en) * | 2017-01-08 | 2018-07-12 | At&T Intellectual Property I, L.P. | Interference cancelation for 5g or other next generation network |
CN107728780A (zh) * | 2017-09-18 | 2018-02-23 | 北京光年无限科技有限公司 | 一种基于虚拟机器人的人机交互方法及装置 |
CN108900725A (zh) * | 2018-05-29 | 2018-11-27 | 平安科技(深圳)有限公司 | 一种声纹识别方法、装置、终端设备及存储介质 |
CN108922538A (zh) * | 2018-05-29 | 2018-11-30 | 平安科技(深圳)有限公司 | 会议信息记录方法、装置、计算机设备及存储介质 |
CN109448694A (zh) * | 2018-12-27 | 2019-03-08 | 苏州思必驰信息科技有限公司 | 一种快速合成tts语音的方法及装置 |
CN110427472A (zh) * | 2019-08-02 | 2019-11-08 | 深圳追一科技有限公司 | 智能客服匹配的方法、装置、终端设备及存储介质 |
CN111291889A (zh) * | 2020-01-15 | 2020-06-16 | 深圳前海微众银行股份有限公司 | 一种知识库的构建方法及装置 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022052481A1 (zh) * | 2020-09-08 | 2022-03-17 | 平安科技(深圳)有限公司 | 基于人工智能的vr互动方法、装置、计算机设备及介质 |
CN112905007A (zh) * | 2021-01-28 | 2021-06-04 | 海信视像科技股份有限公司 | 一种虚拟现实设备及语音辅助交互方法 |
CN113160382A (zh) * | 2021-03-23 | 2021-07-23 | 清华大学 | 基于隐式模板映射的单视图车辆重建方法和装置 |
CN113160382B (zh) * | 2021-03-23 | 2022-10-28 | 清华大学 | 基于隐式模板映射的单视图车辆重建方法和装置 |
CN113066473A (zh) * | 2021-03-31 | 2021-07-02 | 建信金融科技有限责任公司 | 一种语音合成方法、装置、存储介质及电子设备 |
CN113407025A (zh) * | 2021-05-27 | 2021-09-17 | 广东职业技术学院 | 一种信息显示方法和系统 |
CN113763926A (zh) * | 2021-09-17 | 2021-12-07 | 中国第一汽车股份有限公司 | 一种整车语音交互性能测试系统 |
CN113763926B (zh) * | 2021-09-17 | 2024-03-15 | 中国第一汽车股份有限公司 | 一种整车语音交互性能测试系统 |
WO2023109415A1 (zh) * | 2021-12-16 | 2023-06-22 | 广州城市理工学院 | 一种全息互动系统 |
CN114155865A (zh) * | 2021-12-16 | 2022-03-08 | 广州城市理工学院 | 一种全息互动系统 |
CN114530155A (zh) * | 2022-02-18 | 2022-05-24 | 北京肿瘤医院(北京大学肿瘤医院) | 一种用于还原亲人生前声音并智能互动的方法及系统 |
CN115082602A (zh) * | 2022-06-15 | 2022-09-20 | 北京百度网讯科技有限公司 | 生成数字人的方法、模型的训练方法、装置、设备和介质 |
CN115082602B (zh) * | 2022-06-15 | 2023-06-09 | 北京百度网讯科技有限公司 | 生成数字人的方法、模型的训练方法、装置、设备和介质 |
CN117523148A (zh) * | 2024-01-02 | 2024-02-06 | 小芒电子商务有限责任公司 | 虚拟ar的互动方法、系统、电子设备及存储介质 |
CN117523148B (zh) * | 2024-01-02 | 2024-03-08 | 小芒电子商务有限责任公司 | 虚拟ar的互动方法、系统、电子设备及存储介质 |
CN117975964A (zh) * | 2024-03-22 | 2024-05-03 | 联众智慧科技股份有限公司 | 一种基于Bert模型的智能机器人语音交互方法及其系统 |
CN117975964B (zh) * | 2024-03-22 | 2024-10-01 | 联众智慧科技股份有限公司 | 一种基于Bert模型的智能机器人语音交互方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2022052481A1 (zh) | 2022-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022052481A1 (zh) | 基于人工智能的vr互动方法、装置、计算机设备及介质 | |
CN110288077B (zh) | 一种基于人工智能的合成说话表情的方法和相关装置 | |
CN109817213B (zh) | 用于自适应语种进行语音识别的方法、装置及设备 | |
CN110838286B (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN111048062B (zh) | 语音合成方法及设备 | |
CN111933110B (zh) | 视频生成方法、生成模型训练方法、装置、介质及设备 | |
CN108962255B (zh) | 语音会话的情绪识别方法、装置、服务器和存储介质 | |
US11514886B2 (en) | Emotion classification information-based text-to-speech (TTS) method and apparatus | |
US20200279553A1 (en) | Linguistic style matching agent | |
CN110838289A (zh) | 基于人工智能的唤醒词检测方法、装置、设备及介质 | |
CN110808034A (zh) | 语音转换方法、装置、存储介质及电子设备 | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
CN107657017A (zh) | 用于提供语音服务的方法和装置 | |
CN111145777A (zh) | 一种虚拟形象展示方法、装置、电子设备及存储介质 | |
CN112927674B (zh) | 语音风格的迁移方法、装置、可读介质和电子设备 | |
CN111554281B (zh) | 自动识别语种的车载人机交互方法、车载终端及存储介质 | |
CN113689879A (zh) | 实时驱动虚拟人的方法、装置、电子设备及介质 | |
CN116597858A (zh) | 语音口型匹配方法、装置、存储介质及电子设备 | |
WO2018079294A1 (ja) | 情報処理装置及び情報処理方法 | |
CN117370605A (zh) | 一种虚拟数字人驱动方法、装置、设备和介质 | |
CN112785667A (zh) | 视频生成方法、装置、介质及电子设备 | |
CN113870838A (zh) | 一种语音合成方法、装置、设备及介质 | |
CN108962226A (zh) | 用于检测语音的端点的方法和装置 | |
CN117292022A (zh) | 基于虚拟对象的视频生成方法、装置及电子设备 | |
CN117275485A (zh) | 一种音视频的生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201218 |