CN114972412A - 一种姿态估计方法、装置、系统及可读存储介质 - Google Patents
一种姿态估计方法、装置、系统及可读存储介质 Download PDFInfo
- Publication number
- CN114972412A CN114972412A CN202210515831.7A CN202210515831A CN114972412A CN 114972412 A CN114972412 A CN 114972412A CN 202210515831 A CN202210515831 A CN 202210515831A CN 114972412 A CN114972412 A CN 114972412A
- Authority
- CN
- China
- Prior art keywords
- event
- feature
- standard
- fusion
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000004927 fusion Effects 0.000 claims abstract description 96
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 230000008859 change Effects 0.000 claims abstract description 16
- 206010034719 Personality change Diseases 0.000 claims abstract description 12
- 238000001914 filtration Methods 0.000 claims description 51
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000007787 long-term memory Effects 0.000 claims description 4
- 230000006403 short-term memory Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种姿态估计方法、装置、系统及可读存储介质,该方法包括:基于事件数据获取事件图像及基于视频数据获取标准图像;将相邻事件图像及相邻标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征及标准图像特征;将事件图像特征及标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;将融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。通过本申请方案的实施,结合事件相机和标准相机两者收集的数据共同估计系统在运动过程中的姿态变化,当系统处于高速和高动态范围的场景下,可提供更多运动信息用以估计系统自身姿态变化,提高了姿态估计的精度和稳定性。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种姿态估计方法、装置、系统及可读存储介质。
背景技术
对于智能车辆的自主导航来说,车辆在运动过程中的自定位能力非常重要,通过融合各种传感器的数据来估计车辆的位置被定义为里程计。早期的车辆定位系统通常采用轮速编码器来计算车辆里程,然而这种方法存在严重的累积误差,而且轮胎打滑等因素会造成更加不可预测的后果。随着计算机视觉技术的发展,视觉传感器越来越多的被用来进行车辆的定位与运动估计中。视觉传感器不仅能提供丰富的感知信息,还具有低成本、小体积等特点。研究人员通常把通过视觉来获取相机姿态的问题称为视觉里程计(VO,VisualOdometry),在最近二十多年时间里,VO已经广泛应用于各类机器人的导航定位中。
然而,目前主流的VO方法主要是基于图像中物体的几何特性来估计相机的姿态,所以要求图像含有大量稳定的纹理特征,一旦场景中出现遮挡物或在雾天雨天取景,在没有其他传感器(IMU、激光、雷达等)的情况下,几何法的求解精度都会受到很严重的干扰。
发明内容
本申请实施例提供了一种姿态估计方法、装置、系统及可读存储介质,至少能够解决相关技术基于图像中物体的几何特性来估计相机的姿态,所导致的姿态估计精度较低的问题。
本申请实施例第一方面提供了一种姿态估计方法,应用于姿态估计系统,所述姿态估计系统配置有事件相机以及标准相机,所述事件相机用于采集事件数据,所述标准相机用于采集视频数据,所述姿态估计方法包括:
基于所述事件数据获取事件图像,以及基于所述视频数据获取标准图像;
将时序相邻的所述事件图像以及时序相邻的所述标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;
将所述事件图像特征以及所述标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;
将所述融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。
本申请实施例第二方面提供了一种姿态估计装置,应用于姿态估计系统,所述姿态估计系统配置有事件相机以及标准相机,所述事件相机用于采集事件数据,所述标准相机用于采集视频数据,所述姿态估计装置包括:
获取模块,用于基于所述事件数据获取事件图像,以及基于所述视频数据获取标准图像;
提取模块,用于将时序相邻的所述事件图像以及时序相邻的所述标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;
融合模块,用于将所述事件图像特征以及所述标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;
估计模块,用于将所述融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。
本申请实施例第三方面提供了一种姿态估计系统,包括:事件相机、标准相机、存储器及处理器,其中,事件相机用于采集事件数据,标准相机用于采集视频数据;处理器用于执行存储在存储器上的计算机程序,处理器执行计算机程序时,实现上述本申请实施例第一方面提供的姿态估计方法中的各步骤。
本申请实施例第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时,实现上述本申请实施例第一方面提供的姿态估计方法中的各步骤。
由上可见,根据本申请方案所提供的姿态估计方法、装置、系统及可读存储介质,基于事件数据获取事件图像,以及基于视频数据获取标准图像;将时序相邻的事件图像以及时序相邻的标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;将事件图像特征以及标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;将融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。通过本申请方案的实施,结合事件相机和标准相机两者收集的数据共同估计系统在运动过程中的姿态变化,当系统处于高速和高动态范围的场景下,可以提供更多运动信息用以估计系统自身的姿态变化,有效提高了姿态估计的精度和稳定性。
附图说明
图1为本申请第一实施例提供的一种姿态估计神经网络的结构示意图;
图2为本申请第一实施例提供的一种姿态估计方法的基础流程示意图;
图3为本申请第一实施例提供的一种事件图像示意图。
图4为本申请第二实施例提供的一种姿态估计方法的细化流程示意图;
图5为本申请第三实施例提供的姿态估计装置的程序模块示意图;
图6为本申请第四实施例提供的姿态估计系统的结构示意图。
具体实施方式
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而非全部实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请实施例中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请实施例中的具体含义。
以上所述仅为本申请的较佳实施例而已,并不用以限制本发明,凡在本申请的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本申请的保护范围之内。
在最近二十多年时间里,VO已经广泛应用于各类机器人的导航定位中,如美国NASA开发的火星探测器“勇气号”和“机遇号”,还有无人空中飞行器、水下机器人、陆地机器人等。这些主流的VO方法主要是基于图片中物体的几何特性来估计相机的位置,所以要求图片含有大量稳定的纹理特征,一旦场景中出现遮挡物或在雾天雨天取景,在没有其他传感器(IMU、激光、雷达等)的情况下,几何法的求解精度都会受到很严重的干扰。而很多实际应用中,诸多其他传感器也可能派不上用场,所以只通过视觉来定位的方法还有很大的研究空间。
为了解决相关技术中基于图像中物体的几何特性来估计相机的姿态,所导致的姿态估计精度较低的问题,本申请第一实施例提供了一种姿态估计方法,应用于姿态估计系统,该系统部署在移动物体上,姿态估计系统配置有事件相机以及标准相机,事件相机用于采集事件数据,标准相机用于采集视频数据,事件相机是一种新型的仿生传感器,可在相机上的所有像素上异步捕捉光强度的变化,与标准相机相比,它在捕捉快速移动和高动态范围的场景时具有更好的性能,标准相机优选的可以采用深度相机实现。应当理解的是,本实施例的事件相机以及标准相机可以是相互独立的两个相机,也可以是一个集成相机上独立设置的两个不同传感器单元,在实际应用中,两者协同工作同时触发数据采集,事件相机以事件流的形式记录事件数据,事件数据可以txt格式存储,标准相机以连续的图像帧的形式记录视频数据,视频数据可以一系列png格式的图片进行存储。
应当说明的是,为了实现本实施例的姿态估计方法,本实施例采用姿态估计神经网络执行姿态估计,如图1所示为本实施例提供的一种姿态估计神经网络的结构示意图,整体网络包括:特征提取分支网络A、特征融合分支网络B以及姿态估计分支网络C。
如图2为本实施例提供的姿态估计方法的基础流程示意图,该姿态估计方法包括以下的步骤:
步骤201、基于事件数据获取事件图像,以及基于视频数据获取标准图像。
具体的,在本实施例中,视频数据有多张时序相连的标准图像组成,视频中每一张标准图像记录的时间定义为t∈[t0,t1,…,tn-1],收集时间在tm和tm+1之间的事件数据,这些收集到的事件数据和第m张标准图像匹配在一起。应当说明的是,事件数据的表示形式为e={xi,yi,ti,pi},i∈0,1,…,n-1,在实际应用中可将事件数据根据时间分为多个体素,然后将一个体素的事件转换为一张二维事件图像,每一张事件图像与一张标准图像在时间上对齐。
在本实施例一种实施方式中,上述基于事件数据获取事件图像的步骤,包括:将事件数据根据事件划分为多个体素;其中,事件数据表示为e={xi,yi,ti,pi},i∈0,1,…,n-1,xi,yi表示像素坐标位置,ti表示时间戳,pi表示事件极性;基于预设转换公式将各体素转换为事件图像。该转换公式表示为:
其中,V(x,y,t)表示体素,B表示体素的数量。
应当理解的是,本实施例为了避免局部事件的过分堆积导致画面模糊,可以将特定时间采集的事件数据转换为一张高为260、宽为346的二维图像,具体请参阅如图3所示的事件图像示意图。
步骤202、将时序相邻的事件图像以及时序相邻的标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征。
请再次参阅图1,本实施例将源于标准相机(Standard Camera)的相邻标准图像以及源于事件相机(Event Camera)的相邻事件图像分别沿通道维度进行合并,然后作为特征提取分支网络的输入,由特征提取分支网络进行特征提取。应当理解的是,本实施例所选取的时序相邻的事件图像的数量以及时序相邻的标准图像的数量,优选地均可以为两张。
在本实施例一种实施方式中,上述将时序相邻的事件图像以及时序相邻的标准图像分别在通道维度合并的步骤之前,还包括:针对所有事件图像以及标准图像分别计算均值和方差,对所有事件图像以及标准图像进行归一化处理以及标准化处理;将各事件图像以及各标准图像分别复制三份后置于色彩三通道中,以预设维度的张量对事件图像以及标准图像进行表达。
具体的,在本实施例中,一方面,计算所有事件图像像素的均值和方差,对所有事件图像进行归一化和标准化的处理,将每一张代表事件的二维图像复制三份,放在三个不同的通道中,变成一个大小为[3,260,346]的张量,相邻的事件图像在通道这一维合并,变成大小为[6,260,346]的张量,得到的张量再输入至特征提取分支网络中,最后得到一个大小为[1024,5,6]的张量,也即最终所提取的事件图像特征;另一方面,计算整段视频数据中所有标准图像像素的均值和方差,对所有图像进行标准化和归一化的操作,视频中的每一张图像高为260宽为346,有RGB三个通道,是一个大小为[3,260,346]的张量,将相邻的图像在通道这一维合并,变成大小为[6,260,346]的张量,得到的张量输入至特征提取分支网络的网络结构中,最后得到一个大小为[1024,5,6]的张量,也即标准图像特征。
步骤203、将事件图像特征以及标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征。
具体的,在本实施例一种实施方式中,特征融合分支网络包括自注意力网络,请再次参阅图1,自注意力网络包括第一自注意力网络(也即图1中Self-attention(event))以及第二自注意力网络(也即图1中Self-attention(image))。相应的,上述将事件图像特征以及标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征的步骤,包括:将事件图像特征输入至特征融合分支网络的第一自注意力网络,获取事件图像特征相应的第一掩码,以及将标准图像特征输入至第二自注意力网络,获取标准图像特征相应的第二掩码;通过第一自注意力网络对事件图像特征与第一掩码进行乘法运算,得到第一粗过滤特征,以及通过第二自注意力网络对标准图像特征与第二掩码进行乘法运算,得到第二粗过滤特征;基于第一粗过滤特征以及第二粗过滤特征进行特征融合,得到融合特征。
应当理解的是,自注意力网络通过比较单个通道与所有通道的相似性来捕获长期依赖关系和全局通道相关性,其关注来自同一传感器的主要特征,允许更好的选择标准相机和事件相机收集的特征。
进一步地,在本实施例一种实施方式中,上述获取事件图像特征相应的第一掩码的步骤,包括:通过预设第一掩码计算公式获取事件图像特征相应的第一掩码;第一掩码计算公式表示为:其中,ei和ej分别表示事件图像特征的一个通道的特征向量,Wi和Wj分别表示将ei和ej投影到嵌入空间的可学习权重矩阵,g()表示将特征向量投影到新嵌入空间的函数。
具体的,本实施例针对事件图像特征以及标准图像特征分别进行上述掩码计算公式中的操作得到相应的掩码,事件图像特征和标准图像特征的掩码和大小均为[1024,1,1],和分别与e和f相乘后输出的张量eatt和fatt大小均为[1024,5,6],eatt和fatt也即第一粗过滤特征和第二粗过滤特征,两者为图像特征中经过自过滤后所得到的有用特征。
更进一步地,在本实施例一种实施方式中,特征融合分支网络还包括交叉注意力网络(也即图1中Cross-attention),交叉注意力网络旨在融合不同传感器互补的数据,更关注不同传感器在不同场景下的特征。
相应的,上述基于第一粗过滤特征以及第二粗过滤特征进行特征融合,得到融合特征的步骤,包括:将第一粗过滤特征输入至交叉注意力网络,获取标准图像特征相应的第三掩码,以及将第二粗过滤特征输入至交叉注意力网络,获取事件图像特征相应的第四掩码;通过交叉注意力网络对第一粗过滤特征与第四掩码进行乘法运算,得到第一细过滤特征,以及对第二粗过滤特征与第三掩码进行乘法运算,得到第二细过滤特征;对第一细过滤特征以及第二细过滤特征进行特征融合,得到融合特征。
本实施例优选地,上述获取标准图像特征相应的第三掩码的步骤,包括:通过预设第三掩码计算公式获取标准图像特征相应的第三掩码;第三掩码计算公式表示为:me→f=Sigmoid((We→fei)TWe→fej)。
以及,上述获取事件图像特征相应的第四掩码的步骤,包括:通过预设第四掩码计算公式获取事件图像特征相应的第四掩码;第四掩码计算公式表示为:mf→e=Sigmoid((Wf→eei)TWf→eej)。
应当说明的是,掩码mf→e和me→f的大小均为[1024,1,1],eatt和fatt分别乘以相应掩码得到输出eout和fout,eout和fout的大小均为[1024,5,6],eout和fout也即第一细过滤特征和第二细过滤特征,两者为原始提取的图像特征中更为有用的特征,把eout和fout从三个维度变成一个维度得到张量[30720],eout和fout在通道处连接,最后得到输出结果,特征融合公式表示为:
步骤204、将融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。
具体的,在本实施例中,姿态估计分支网络包括长短期记忆单元(也即图1中LSTM)以及全连接层,LSTM部分用于估计相机经历的帧到帧运动,在实际应用中,优选的采用两个LSTM堆叠,以获得更好的性能。本实施例将融合特征输入至姿态估计分支网络的长短期记忆单元进行时序上的建模,得到估计数据;将估计数据输入至全连接层进行处理,输出系统姿态变化数据。
基于上述本申请实施例的技术方案,基于事件数据获取事件图像,以及基于视频数据获取标准图像;将时序相邻的事件图像以及时序相邻的标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;将事件图像特征以及标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;将融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。通过本申请方案的实施,结合事件相机和标准相机两者收集的数据共同估计系统在运动过程中的姿态变化,当系统处于高速和高动态范围的场景下,可以提供更多运动信息用以估计系统自身的姿态变化,有效提高了姿态估计的精度和稳定性。
图4中的方法为本申请第二实施例提供的一种细化的姿态估计方法,该姿态估计方法包括:
步骤401、基于事件数据获取事件图像,以及基于视频数据获取深度图像。
具体的,在本实施例中,事件相机与深度相机协同工作同时触发数据采集,事件相机以事件流的形式记录事件数据,深度相机以连续的图像帧的形式记录视频数据。
步骤402、将时序相邻的两张事件图像以及时序相邻的两张深度图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及深度图像特征。
步骤403、将事件图像特征输入至特征融合分支网络的第一自注意力网络,获取事件图像特征相应的第一掩码,以及将深度图像特征输入至第二自注意力网络,获取深度图像特征相应的第二掩码。
步骤404、通过第一自注意力网络对事件图像特征与第一掩码进行乘法运算,得到第一粗过滤特征,以及通过第二自注意力网络对深度图像特征与第二掩码进行乘法运算,得到第二粗过滤特征。
具体的,自注意力网络通过比较单个通道与所有通道的相似性来捕获长期依赖关系和全局通道相关性,其关注来自同一传感器的主要特征,允许更好的选择标准相机和事件相机收集的特征。
步骤405、将第一粗过滤特征输入至交叉注意力网络,获取深度图像特征相应的第三掩码,以及将第二粗过滤特征输入至交叉注意力网络,获取事件图像特征相应的第四掩码。
步骤406、通过交叉注意力网络对第一粗过滤特征与第四掩码进行乘法运算,得到第一细过滤特征,以及对第二粗过滤特征与第三掩码进行乘法运算,得到第二细过滤特征。
具体的,交叉注意力网络旨在融合不同传感器互补的数据,更关注不同传感器在不同场景下的特征,可从自注意力网络所提取的有用特征中进一步提取更为有用的特征。
步骤407、对第一细过滤特征以及第二细过滤特征进行特征融合,得到融合特征。
步骤408、将融合特征输入至姿态估计分支网络的长短期记忆单元进行时序上的建模,得到估计数据;将估计数据输入至全连接层进行处理,输出系统姿态变化数据。
具体的,本实施例将上述得到的融合特征输入至LSTM进行时序上的建模,从而输出out大小为[1000],最后由全连接层输出代表位移的x、y、z和代表旋转的欧拉角,从而得到相邻时刻间系统的姿态变化。
应当理解的是,本实施例中各步骤的序号的大小并不意味着步骤执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成唯一限定。
基于本申请实施例上述方案,能够在多种场景下准确的预测系统自身的姿态变化,将系统部署在移动的设备上,根据事件相机和深度相机拍摄到的内容就可以得到系统的姿态变化。通过大量实验,结果表明,与仅在各种场景中使用深度相机的方法相比,本申请实施例通过自动采用来自不同来源的优势信息,可以大大提高轨迹估计精度。
图5为本申请第三实施例提供的一种姿态估计装置。该姿态估计装置应用于姿态估计系统,姿态估计系统配置有事件相机以及标准相机,事件相机用于采集事件数据,标准相机用于采集视频数据。如图5所示,该姿态估计装置主要包括:
获取模块501,用于基于事件数据获取事件图像,以及基于视频数据获取标准图像;
提取模块502,用于将时序相邻的事件图像以及时序相邻的标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;
融合模块503,用于将事件图像特征以及标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;
估计模块504,用于将融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。
在本实施例的一些实施方式中,获取模块在执行上述基于事件数据获取事件图像的功能时,具体用于:将事件数据根据事件划分为多个体素;其中,事件数据表示为e={xi,yi,ti,pi},i∈0,1,…,n-1,xi,yi表示像素坐标位置,ti表示时间戳,pi表示事件极性;基于预设转换公式将各体素转换为事件图像;转换公式表示为:
其中,V(x,y,t)表示体素,B表示体素的数量。
在本实施例的一些实施方式中,该姿态估计装置还包括:处理模块,用于针对所有事件图像以及标准图像分别计算均值和方差,对所有事件图像以及标准图像进行归一化处理以及标准化处理;将各事件图像以及各标准图像分别复制三份后置于色彩三通道中,以预设维度的张量对事件图像以及标准图像进行表达。
在本实施例的一些实施方式中,特征融合分支网络包括自注意力网络,自注意力网络包括第一自注意力网络以及第二自注意力网络。相应的,融合模块具体用于:将事件图像特征输入至特征融合分支网络的第一自注意力网络,获取事件图像特征相应的第一掩码,以及将标准图像特征输入至第二自注意力网络,获取标准图像特征相应的第二掩码;通过第一自注意力网络对事件图像特征与第一掩码进行乘法运算,得到第一粗过滤特征,以及通过第二自注意力网络对标准图像特征与第二掩码进行乘法运算,得到第二粗过滤特征;基于第一粗过滤特征以及第二粗过滤特征进行特征融合,得到融合特征。
进一步地,在本实施例的一些实施方式中,融合模块在执行上述获取事件图像特征相应的第一掩码的功能时具体用于:通过预设第一掩码计算公式获取事件图像特征相应的第一掩码;第一掩码计算公式表示为:其中,ei和ej分别表示事件图像特征的一个通道的特征向量,Wi和Wj分别表示将ei和ej投影到嵌入空间的可学习权重矩阵,g()表示将特征向量投影到新嵌入空间的函数。另外,融合模块在执行上述获取标准图像特征相应的第二掩码的功能时具体用于:通过预设第二掩码计算公式获取标准图像特征相应的第二掩码;第二掩码计算公式表示为: 其中,fi和fj分别表示标准图像特征的一个通道的特征向量。
进一步地,在本实施例的另一些实施方式中,特征融合分支网络还包括交叉注意力网络。相应的,融合模块在执行上述基于第一粗过滤特征以及第二粗过滤特征进行特征融合,得到融合特征的功能时,具体用于:将第一粗过滤特征输入至交叉注意力网络,获取标准图像特征相应的第三掩码,以及将第二粗过滤特征输入至交叉注意力网络,获取事件图像特征相应的第四掩码;通过交叉注意力网络对第一粗过滤特征与第四掩码进行乘法运算,得到第一细过滤特征,以及对第二粗过滤特征与第三掩码进行乘法运算,得到第二细过滤特征;对第一细过滤特征以及第二细过滤特征进行特征融合,得到融合特征。
更进一步地,在本实施例的一些实施方式中,融合模块在执行上述获取标准图像特征相应的第三掩码的功能时,具体用于:通过预设第三掩码计算公式获取标准图像特征相应的第三掩码;第三掩码计算公式表示为:me→f=Sigmoid((We→fei)TWe→fej)。另外,融合模块在执行上述获取事件图像特征相应的第四掩码的功能时,具体用于:通过预设第四掩码计算公式获取事件图像特征相应的第四掩码;第四掩码计算公式表示为:mf→e=Sigmoid((Wf→eei)TWf→eej)。
在本实施例的一些实施方式中,姿态估计分支网络包括长短期记忆单元以及全连接层。相应的,估计模块具体用于:将融合特征输入至姿态估计分支网络的长短期记忆单元进行时序上的建模,得到估计数据;将估计数据输入至全连接层进行处理,输出系统姿态变化数据。
应当说明的是,第一、二实施例中的姿态估计方法均可基于本实施例提供的姿态估计装置实现,所属领域的普通技术人员可以清楚的了解到,为描述的方便和简洁,本实施例中所描述的姿态估计装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
根据本实施例所提供的姿态估计装置,基于事件数据获取事件图像,以及基于视频数据获取标准图像;将时序相邻的事件图像以及时序相邻的标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;将事件图像特征以及标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;将融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。通过本申请方案的实施,结合事件相机和标准相机两者收集的数据共同估计系统在运动过程中的姿态变化,当系统处于高速和高动态范围的场景下,可以提供更多运动信息用以估计系统自身的姿态变化,有效提高了姿态估计的精度和稳定性。
图6为本申请第四实施例提供的一种姿态估计系统。该姿态估计系统可用于实现前述实施例中的姿态估计方法,主要包括:
存储器601、处理器602、事件相机603、标准相机604及存储在存储器601上并可在处理器602上运行的计算机程序605,存储器601和处理器602通过通信连接。处理器602执行该计算机程序605时,实现前述实施例一或二中的方法。其中,处理器的数量可以是一个或多个。
存储器601可以是高速随机存取记忆体(RAM,Random Access Memory)存储器,也可为非不稳定的存储器(non-volatile memory),例如磁盘存储器。存储器601用于存储可执行程序代码,处理器602与存储器601耦合。
进一步的,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述姿态估计系统中,该计算机可读存储介质可以是前述图6所示实施例中的存储器。
该计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现前述实施例中的姿态估计方法。进一步的,该计算机可存储介质还可以是U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个可读存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的可读存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上为对本申请所提供的姿态估计方法、装置、系统及可读存储介质的描述,对于本领域的技术人员,依据本申请实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。
Claims (11)
1.一种姿态估计方法,其特征在于,应用于姿态估计系统,所述姿态估计系统配置有事件相机以及标准相机,所述事件相机用于采集事件数据,所述标准相机用于采集视频数据,所述姿态估计方法包括:
基于所述事件数据获取事件图像,以及基于所述视频数据获取标准图像;
将时序相邻的所述事件图像以及时序相邻的所述标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;
将所述事件图像特征以及所述标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;
将所述融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。
3.根据权利要求1所述的姿态估计方法,其特征在于,所述将时序相邻的所述事件图像以及时序相邻的所述标准图像分别在通道维度合并的步骤之前,还包括:
针对所有所述事件图像以及所述标准图像分别计算均值和方差,对所有所述事件图像以及所述标准图像进行归一化处理以及标准化处理;
将各所述事件图像以及各所述标准图像分别复制三份后置于色彩三通道中,以预设维度的张量对所述事件图像以及所述标准图像进行表达。
4.根据权利要求1所述的姿态估计方法,其特征在于,所述特征融合分支网络包括自注意力网络,所述自注意力网络包括第一自注意力网络以及第二自注意力网络;
所述将所述事件图像特征以及所述标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征的步骤,包括:
将所述事件图像特征输入至所述特征融合分支网络的所述第一自注意力网络,获取所述事件图像特征相应的第一掩码,以及将所述标准图像特征输入至所述第二自注意力网络,获取所述标准图像特征相应的第二掩码;
通过所述第一自注意力网络对所述事件图像特征与所述第一掩码进行乘法运算,得到第一粗过滤特征,以及通过所述第二自注意力网络对所述标准图像特征与所述第二掩码进行乘法运算,得到第二粗过滤特征;
基于所述第一粗过滤特征以及所述第二粗过滤特征进行特征融合,得到融合特征。
6.根据权利要求4所述的姿态估计方法,其特征在于,所述特征融合分支网络还包括交叉注意力网络;
所述基于所述第一粗过滤特征以及所述第二粗过滤特征进行特征融合,得到融合特征的步骤,包括:
将所述第一粗过滤特征输入至所述交叉注意力网络,获取所述标准图像特征相应的第三掩码,以及将所述第二粗过滤特征输入至所述交叉注意力网络,获取所述事件图像特征相应的第四掩码;
通过所述交叉注意力网络对所述第一粗过滤特征与所述第四掩码进行乘法运算,得到第一细过滤特征,以及对所述第二粗过滤特征与所述第三掩码进行乘法运算,得到第二细过滤特征;
对所述第一细过滤特征以及所述第二细过滤特征进行特征融合,得到融合特征。
7.根据权利要求6所述的姿态估计方法,其特征在于,所述获取所述标准图像特征相应的第三掩码的步骤,包括:
通过预设第三掩码计算公式获取所述标准图像特征相应的第三掩码;所述第三掩码计算公式表示为:me→f=Sigmoid((We→fei)TWe→fej);
所述获取所述事件图像特征相应的第四掩码的步骤,包括:
通过预设第四掩码计算公式获取所述事件图像特征相应的第四掩码;所述第四掩码计算公式表示为:mf→e=Sigmoid((Wf→eei)TWf→eej)。
8.根据权利要求1至7中任意一项所述的姿态估计方法,其特征在于,所述姿态估计分支网络包括长短期记忆单元以及全连接层;
所述将所述融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据的步骤,包括:
将所述融合特征输入至所述姿态估计分支网络的所述长短期记忆单元进行时序上的建模,得到估计数据;
将所述估计数据输入至所述全连接层进行处理,输出系统姿态变化数据。
9.一种姿态估计装置,其特征在于,应用于姿态估计系统,所述姿态估计系统配置有事件相机以及标准相机,所述事件相机用于采集事件数据,所述标准相机用于采集视频数据,所述姿态估计装置包括:
获取模块,用于基于所述事件数据获取事件图像,以及基于所述视频数据获取标准图像;
提取模块,用于将时序相邻的所述事件图像以及时序相邻的所述标准图像分别在通道维度合并,然后分别输入至特征提取分支网络,提取事件图像特征以及标准图像特征;
融合模块,用于将所述事件图像特征以及所述标准图像特征输入至特征融合分支网络进行特征融合,得到融合特征;
估计模块,用于将所述融合特征输入至姿态估计分支网络进行姿态回归,得到系统姿态变化数据。
10.一种姿态估计系统,其特征在于,包括事件相机、标准相机、存储器及处理器,其中:
所述事件相机用于采集事件数据,所述标准相机用于采集视频数据;
所述处理器用于执行存储在所述存储器上的计算机程序;
所述处理器执行所述计算机程序时,实现权利要求1至8中任意一项所述方法中的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现权利要求1至8中的任意一项所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210515831.7A CN114972412B (zh) | 2022-05-12 | 2022-05-12 | 一种姿态估计方法、装置、系统及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210515831.7A CN114972412B (zh) | 2022-05-12 | 2022-05-12 | 一种姿态估计方法、装置、系统及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114972412A true CN114972412A (zh) | 2022-08-30 |
CN114972412B CN114972412B (zh) | 2024-10-15 |
Family
ID=82980524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210515831.7A Active CN114972412B (zh) | 2022-05-12 | 2022-05-12 | 一种姿态估计方法、装置、系统及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114972412B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116561649A (zh) * | 2023-07-10 | 2023-08-08 | 吉林大学 | 基于多源传感器数据的潜水员运动状态识别方法和系统 |
CN116708655A (zh) * | 2022-10-20 | 2023-09-05 | 荣耀终端有限公司 | 一种基于事件相机的屏幕控制方法及电子设备 |
WO2024061269A1 (zh) * | 2022-09-21 | 2024-03-28 | 华为技术有限公司 | 一种三维重建方法及相关装置 |
WO2024078032A1 (zh) * | 2022-10-14 | 2024-04-18 | 华为技术有限公司 | 信号处理方法、装置、设备、存储介质及计算机程序 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3451288A1 (en) * | 2017-09-04 | 2019-03-06 | Universität Zürich | Visual-inertial odometry with an event camera |
US20210035325A1 (en) * | 2019-07-31 | 2021-02-04 | Samsung Electronics Co., Ltd. | Pose estimation method, pose estimation apparatus, and training method for pose estimation |
CN112836652A (zh) * | 2021-02-05 | 2021-05-25 | 浙江工业大学 | 一种基于事件相机的多阶段人体姿态估计方法 |
-
2022
- 2022-05-12 CN CN202210515831.7A patent/CN114972412B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3451288A1 (en) * | 2017-09-04 | 2019-03-06 | Universität Zürich | Visual-inertial odometry with an event camera |
US20210035325A1 (en) * | 2019-07-31 | 2021-02-04 | Samsung Electronics Co., Ltd. | Pose estimation method, pose estimation apparatus, and training method for pose estimation |
CN112836652A (zh) * | 2021-02-05 | 2021-05-25 | 浙江工业大学 | 一种基于事件相机的多阶段人体姿态估计方法 |
Non-Patent Citations (1)
Title |
---|
路昊;石敏;李昊;朱登明;: "基于深度学习的动态场景相机姿态估计方法", 高技术通讯, no. 01, 15 January 2020 (2020-01-15) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024061269A1 (zh) * | 2022-09-21 | 2024-03-28 | 华为技术有限公司 | 一种三维重建方法及相关装置 |
WO2024078032A1 (zh) * | 2022-10-14 | 2024-04-18 | 华为技术有限公司 | 信号处理方法、装置、设备、存储介质及计算机程序 |
CN116708655A (zh) * | 2022-10-20 | 2023-09-05 | 荣耀终端有限公司 | 一种基于事件相机的屏幕控制方法及电子设备 |
CN116708655B (zh) * | 2022-10-20 | 2024-05-03 | 荣耀终端有限公司 | 一种基于事件相机的屏幕控制方法及电子设备 |
CN116561649A (zh) * | 2023-07-10 | 2023-08-08 | 吉林大学 | 基于多源传感器数据的潜水员运动状态识别方法和系统 |
CN116561649B (zh) * | 2023-07-10 | 2023-09-12 | 吉林大学 | 基于多源传感器数据的潜水员运动状态识别方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114972412B (zh) | 2024-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114972412B (zh) | 一种姿态估计方法、装置、系统及可读存储介质 | |
Guo et al. | Learning monocular depth by distilling cross-domain stereo networks | |
US11100401B2 (en) | Predicting depth from image data using a statistical model | |
US11064178B2 (en) | Deep virtual stereo odometry | |
CN110108258B (zh) | 一种单目视觉里程计定位方法 | |
Petrovai et al. | Exploiting pseudo labels in a self-supervised learning framework for improved monocular depth estimation | |
Park et al. | High-precision depth estimation with the 3d lidar and stereo fusion | |
Corke et al. | Omnidirectional visual odometry for a planetary rover | |
US7730406B2 (en) | Image processing system and method | |
US20170330375A1 (en) | Data Processing Method and Apparatus | |
JP2021518622A (ja) | 自己位置推定、マッピング、およびネットワークトレーニング | |
CN105141807A (zh) | 视频信号图像处理方法和装置 | |
CN112183506A (zh) | 一种人体姿态生成方法及其系统 | |
CN114581571B (zh) | 基于imu和前向变形场的单目人体重建方法及装置 | |
CN113673400A (zh) | 基于深度学习的实景三维语义重建方法、装置及存储介质 | |
CN110462685A (zh) | 三维模型重建方法和系统 | |
CN115035551A (zh) | 三维人体姿态估计方法、装置、设备及存储介质 | |
CN114757984A (zh) | 光场相机的场景深度估计方法及装置 | |
CN114812558A (zh) | 一种结合激光测距的单目视觉无人机自主定位方法 | |
CN117974786A (zh) | 一种基于多视觉动态环境重建和测量方法及系统 | |
Hosseinzadeh et al. | Unsupervised learning of camera pose with compositional re-estimation | |
CN114119678A (zh) | 光流估计方法、计算机程序产品、存储介质及电子设备 | |
Yu et al. | Scene-aware refinement network for unsupervised monocular depth estimation in ultra-low altitude oblique photography of UAV | |
CN113379797A (zh) | 一种无人机观测目标的实时跟踪方法及系统 | |
Sakai et al. | Separating background and foreground optical flow fields by low-rank and sparse regularization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |