CN113902856B - 一种语义标注的方法、装置、电子设备及存储介质 - Google Patents
一种语义标注的方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113902856B CN113902856B CN202111320552.7A CN202111320552A CN113902856B CN 113902856 B CN113902856 B CN 113902856B CN 202111320552 A CN202111320552 A CN 202111320552A CN 113902856 B CN113902856 B CN 113902856B
- Authority
- CN
- China
- Prior art keywords
- semantic annotation
- initial
- dimensional semantic
- cluster
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 239000013598 vector Substances 0.000 claims description 146
- 238000002372 labelling Methods 0.000 claims description 69
- 230000006870 function Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 abstract description 15
- 238000012937 correction Methods 0.000 abstract description 12
- 238000000638 solvent extraction Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种语义标注的方法、装置、电子设备及存储介质,其中,该方法包括:获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;将三维场景模型包括的各个三角面片划分为多个簇;基于初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个簇的初始三维语义标注结果;基于每个簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。本公开基于三维空间内簇的初始三维语义标注结果对二维空间内场景图像的初始二维语义标注结果进行了修正,使得修正后二维语义标注结果更为准确,同时,上述修正过程自动完成,使得标注效率更高。
Description
技术领域
本公开涉及语义标注技术领域,具体而言,涉及一种语义标注的方法、装置、电子设备及存储介质。
背景技术
语义分割技术是对图像像素级别的理解,是在图像上对物体进行像素级的分类,即将同属于同一类物体的像素归为一类,使用指定的标签(label)进行标记,被广泛应用于各种技术场景,如自动驾驶、室内导航、虚拟现实、图像识别等。
相关技术中,主要是通过预先训练好的图像分割网络对视频图像进行语义分割,在对图像分割网络的训练过程中,需要获取大量带标注的样本图像。现有的语义标注方法主要采用人工方式对二维的视频图像进行逐像素点的标注,标注的效率较低。
发明内容
本公开实施例至少提供一种语义标注的方法、装置、电子设备及存储介质。
第一方面,本公开实施例提供了一种语义标注的方法,所述方法包括:
获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;
将所述三维场景模型包括的各个三角面片划分为多个簇;
基于所述初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个所述簇的初始三维语义标注结果;
基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
采用上述语义标注的方法,在对基于场景图像重建的三维场景模型进行簇的划分的情况下,可以基于每张场景图像对应的初始二维语义标注结果,对划分的每个簇进行三维语义标注,确定对应的初始三维语义标注结果,基于初始三维语义标注结果可以确定针对每张场景图像的修正后二维语义标注结果,也即,本公开实施例是基于三维空间内簇的初始三维语义标注结果对二维空间内场景图像的初始二维语义标注结果进行了修正,由于三维空间内一个簇指向的三角面片可能是多个,而每个三角面片所指向的场景图像可能是多个,基于上述对应关系可以对簇进行聚合性的标注,这将使得修正后二维语义标注结果更为准确,与此同时,上述修正过程自动完成,使得标注效率更高。
在一种可能的实施方式中,所述将所述三维场景模型包括的各个三角面片划分为多个簇,包括:
从所述三维场景模型包括的各个三角面片中,随机选取预设数量个三角面片,将选取的每个三角面片的目标向量分别作为待划分的簇的中心向量;
确定所述各个三角面片中每个三角面片的所述目标向量,分别与每个所述中心向量之间的距离,并将该三角面片划分至对应的所述距离最小的中心向量所在的簇;
确定每个簇对应的新的中心向量,并基于该新的中心向量,返回执行划分簇的步骤,直到满足划分截止条件。
这里,可以基于三角面片的目标向量与各簇的中心向量实现至少一次簇的划分。每进行一次划分,均可以针对簇确定新的中心向量,从而进行下一次划分。由于划分到一个簇的多个三角面片很大程度上存在相关性,可以利用一个簇的多个三角面片所对应的标注结果来确定簇的初始三维语义标注结果,具有较高的准确性,从而进一步确保了后续修正后二维语义标注结果的准确性。
在一种可能的实施方式中,所述确定每个簇对应的新的中心向量,包括:
基于每个簇包括的各个三角面片的目标向量,确定各个三角面片的平均向量,将所述平均向量作为该簇对应的新的中心向量。
在一种可能的实施方式中,所述目标向量包括目标法向量和目标颜色向量,所述中心向量包括中心法向量和中心颜色向量;所述确定所述各个三角面片中每个三角面片的所述目标向量,分别与每个所述中心向量之间的距离,包括:
针对所述各个三角面片中的每个三角面片,基于该三角面片的目标法向量以及每个所述中心向量中的中心法向量,确定该三角面片与每个所述中心向量所在的簇之间的第一距离,以及,基于该三角面片的目标颜色向量以及每个所述中心向量中的中心颜色向量,确定该三角面片与每个所述中心向量所在的簇之间的第二距离;
基于所述第一距离及其对应的权重、以及所述第二距离及其对应的权重,确定该三角面片的所述目标向量,分别与每个所述中心向量之间的距离。
这里,考虑到三角面片的法向量以及颜色向量对于簇划分的影响程度并不相同,这里,可以基于加权求和方法实现上述有关三角面片的目标向量,分别与每个中心向量之间的距离的确定,适用性更强。
在一种可能的实施方式中,所述基于所述初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个所述簇的初始三维语义标注结果,包括:
针对每个三角面片,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,确定该三角面片在至少一张场景图像中对应的投影图像区域;以及,
基于该三角面片在所述至少一张场景图像中对应的所述投影图像区域的所述初始二维语义标注结果,确定该三角面片的初始三维语义标注结果;
针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果。
这里,可以基于场景图像的初始二维语义标注结果,共同确定对应三角面片的初始三维语义标注结果,还可以基于一个簇包括的多个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果,可见,有关簇的初始三维语义标注结果的确定依赖于多个三角面片的三维标注结果,而每个三角面片的标注结果又依赖于各张场景图像的二维标注结果,这使得最终所确定的簇的初始三维语义标注结果更为准确。
在一种可能的实施方式中,所述基于该三角面片在所述至少一张场景图像中对应的所述投影图像区域的所述初始二维语义标注结果,确定该三角面片的初始三维语义标注结果,包括:
针对每个所述三角面片,基于该三角面片在所述至少一张场景图像中对应的投影图像区域的初始二维语义标注结果,确定对应各种初始二维语义标注结果的标签数量;
基于对应各种初始二维语义标注结果的标签数量,确定为该三角面片的初始三维语义标注结果。
在一种可能的实施方式中,所述基于对应各种初始二维语义标注结果的标签数量,确定该三角面片的初始三维语义标注结果,包括:
将标签数量最多的一种初始二维语义标注结果,确定为该三角面片的初始三维语义标注结果;
所述针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果,包括:
基于每个簇包括的各个三角面片的初始三维语义标注结果,确定对应各种初始三维语义标注结果的三角面片的数量;
将对应的三角面片的数量最多的一种初始三维语义标注结果,确定该簇的初始三维语义标注结果。
在一种可能的实施方式中,所述基于对应各种初始二维语义标注结果的标签数量,确定该三角面片的初始三维语义标注结果,包括:
将对应各种初始二维语义标注结果的标签数量与标签总数量进行比值运算,确定该三角面片属于每种初始二维语义标注结果的概率值;
基于属于各种初始二维语义标注结果的概率值,确定该三角面片的初始三维语义标注结果;
所述针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果,包括:
针对划分得到的每个簇,基于该簇包括的每个三角面片对应的属于每种初始二维语义标注结果的概率值,以及针对该三角面片预先分配的指向每种初始二维语义标注结果的权重,确定该簇属于每种初始二维语义标注结果的概率值;
基于该簇属于各种初始二维语义标注结果的概率值,确定该簇的初始三维语义标注结果。
在一种可能的实施方式中,在确定任一簇属于多种初始二维语义标注结果的概率值大于预设阈值的情况下,所述方法还包括:
针对任一簇,将该簇划分为多个子簇;
所述基于所述初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个所述簇的初始三维语义标注结果,包括:
基于所述初始二维语义标注结果,对划分得到的每个子簇进行三维语义标注,确定每个子簇的初始三维语义标注结果;
所述基于每个所述簇的三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
基于所述每个子簇的初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
这里,在确定一个簇存在多种语义标注可能性的情况下,这里,可以先针对簇进行子簇的划分,进而基于划分后的子簇实现语义标注,这将提高标注精度。
在一种可能的实施方式中,所述基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
获取修正后三维语义标注结果;所述修正后三维语义标注结果为针对所述多个簇中至少部分簇的初始三维语义标注结果进行人工修正后的三维语义标注结果;
基于所述修正后三维语义标注结果,以及未经人工修正的其他簇的初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
这里,考虑到人工修正对于后续有关修正后二维语义标注结果的准确性的关键影响,这里,可以基于至少部分簇的人工修正的修正后三维语义标注结果来确定针对每张场景图像的修正后二维语义标注结果,进一步提升标注准确性。
在一种可能的实施方式中,所述基于所述每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
基于每个簇的初始三维语义标注结果,确定各个簇在语义标注层面对应的概率分布误差项;以及基于任意相邻的不属于同一三维语义标注结果的两个所述簇之间的夹角信息,确定每个簇在几何特征层面对应的夹角误差项;
根据所述概率分布误差项和所述夹角误差项,确定能量函数;
确定使得所述能量函数的值最小的情况下,针对每个簇确定的更新后三维语义标注结果;
基于针对每个簇的更新后三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
这里,可以基于各个簇指向的概率分布误差项以及相邻簇指向的夹角误差项针对每张场景图像进行二维语义标注结果的修正,自动实现,可以进一步提升标注效率。
在一种可能的实施方式中,所述基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
针对每个簇,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,从所述至少一张场景图像中确定与该簇包括的每个三角面片对应的场景图像;
针对每张场景图像,基于该张场景图像对应的三角面片所属簇的初始三维语义标注结果,确定针对该张场景图像的修正后二维语义标注结果。
在一种可能的实施方式中,所述初始二维语义标注结果为利用初始语义标注神经网络对所述每张场景图像进行语义标注得到的,所述确定针对所述每张场景图像的修正后二维语义标注结果之后,还包括:
基于所述每张场景图像的修正后二维语义标注结果对所述初始语义标注神经网络进行训练,得到训练好的语义标注神经网络。
第二方面,本公开实施例还提供了一种语义标注的装置,所述装置包括:
获取模块,用于获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;
划分模块,用于将所述三维场景模型包括的各个三角面片划分为多个簇;
第一标注模块,用于基于所述初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个所述簇的初始三维语义标注结果;
第二标注模块,用于基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
第三方面,本公开实施例还提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面及其各种实施方式任一所述的语义标注的方法的步骤。
第四方面,本公开实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面及其各种实施方式任一所述的语义标注的方法的步骤。
关于上述语义标注的装置、电子设备、及计算机可读存储介质的效果描述参见上述语义标注的方法的说明,这里不再赘述。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种语义标注的方法的流程图;
图2示出了本公开实施例所提供的一种语义标注的装置的示意图;
图3示出了本公开实施例所提供的一种电子设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
经研究发现,相关技术中,主要是通过预先训练好的图像分割网络对视频图像进行语义分割,在对图像分割网络的训练过程中,需要获取大量带标注的样本图像。现有的语义标注方法主要采用人工方式对二维的视频图像进行逐像素点的标注,标注的效率较低。
基于上述研究,本公开提供了一种语义标注的方法、装置、电子设备及存储介质,以提升标注效率。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种语义标注的方法进行详细介绍,本公开实施例所提供的语义标注的方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以为用户设备(UserEquipment,UE)、移动设备、用户终端、蜂窝电话、无绳电话、个人数字助理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该语义标注的方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
参见图1所示,为本公开实施例提供的语义标注的方法的流程图,方法包括步骤S101~S104,其中:
S101:获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;
S102:将三维场景模型包括的各个三角面片划分为多个簇;
S103:基于初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个簇的初始三维语义标注结果;
S104:基于每个簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。
为了便于理解本公开实施例提供的语义标注的方法,首先对该方法的应用场景进行简单说明。上述语义标注的方法可以应用于任何需要进行语义标注的场景中,例如,可以是自动驾驶场景中对于车辆、行人等的标注,还可以是室内导航中对于障碍物等的标注,还可以是其它场景下的标注,本公开实施例对此不做具体的限制。
相关技术中采用的是逐像素点的语义标注方式,该标注方式人工完成。考虑到在进行网络训练的过程中,往往需要大量标注好的样本图像,导致耗费大量的人力物力。
正是为了解决上述问题,本公开实施例才提供了一种自动进行语义标注的语义标注的方案,可以在三维空间内实现语义标注,然后基于三维空间与二维空间之间的转换关系,将三维空间内的语义标注结果投影到二维空间内,这可以大大提高标注效率。
为了实现在三维空间内的语义标注,这里可以首先获取基于一张或多张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果。
其中,上述三维场景模型可以是基于场景图像进行三维重建确定的。这里的三维重建一般可以分为三个步骤:稀疏重建、密集重建、表面重建。其中,稀疏重建用于完成所有相机位姿初始化计算,其输入可以是各张场景图像,输出的可以拍摄场景图像的相机的位姿;密集重建用于在相机位姿已知的前提下,逐像素的计算图像中每一个像素点对应的三维点,得到场景物体表面密集的三维点云,其输入可以是多视角的场景图像和相机位姿,输入可以是稠密点云;表面重建用于完成由稠密点云到三维场景模型的转换。
在具体应用中,可以采用colmap或者其它方式实现上述三维重建的过程。
另外,本公开实施例中有关场景图像的初始二维语义标注结果可以是利用初始语义标注神经网络标注得到的。基于有关场景图像的初始二维语义标注结果、以及三维空间与三维空间之间的坐标转换关系,可以实现针对三维场景模型包括的三角面片的三维语义标注。
上述初始语义标注神经网络可以是利用现有数据库中存储的已标注样本图像训练得到的,训练的可以是已标注样本图像与标注信息之间的对应关系。
本公开实施例中,三维场景模型可以是由三角面片拼接而成的,也即,三角面片可以是三维场景模型的最小组成单元。在实际应用中,考虑到不同三角面片所具备的语义可以是相同的,还可以是不同的,这里,可以按照语义对三角面片进行簇的划分,以便可以对簇内属于同一语义的三角面片进行统一的语义标注,从而可以在确保了标注准确性的前提下,提升标注效率。
本公开实施例中有关簇的初始三维语义标注结果可以是基于上述有关场景图像的初始二维语义标注结果来确定的。这主要是考虑到一个簇与多个三角面片之间的对应关系,一个三角面片与多张场景图像之间的对应关系,这样,在确定场景图像的初始二维语义标注结果的情况下,可以基于上述对应关系确定簇的初始三维语义标注结果。
本公开实施例中,在确定每个簇的初始三维语义标注结果的情况下,可以基于三维空间与二维空间的坐标转换关系,一次性的确定所有场景图像的修正后二维语义标注结果,相比二维空间下的人工标注方式,很大程度上提高了标注效率。
本公开实施例中,基于场景图像的修正后二维语义标注结果可以对初始语义标注神经网络进行训练。由于修正后二维语义标注结果的准确性更高,因而所训练得到的语义标注神经网络的标注准确性更好,便于后续进行各种场景下的应用。
考虑到簇的划分对于后续进行语义标注的关键作用,接下来可以对划分簇的方法进行详细描述。上述有关簇的划分方法具体包括如下步骤:
步骤一、从三维场景模型包括的各个三角面片中,随机选取预设数量个三角面片,将选取的每个三角面片的目标向量分别作为待划分的簇的中心向量;
步骤二、确定各个三角面片中每个三角面片的目标向量,分别与每个中心向量之间的距离,并将该三角面片划分至对应的距离最小的中心向量所在的簇;
步骤三、确定每个簇对应的新的中心向量,并基于该新的中心向量,返回执行划分簇的步骤,直到满足划分截止条件。
这里的目标向量包括目标法向量和/或目标颜色向量,可以从不同维度表征三角面片的特征。有关目标法向量和目标颜色向量可以是基于三维重建结果确定的。
本公开实施例可以基于各簇的中心向量与各三角面片的目标向量之间的距离进行至少一次划分操作,直到满足划分截止条件可以得到最终的划分结果。
在每次划分完成后,可以确定簇对应的心的中心向量,并基于这一中心向量进行下一次划分。有关簇的中心向量可以是该簇的各个三角面片的目标向量所确定的平均向量,也即,可以是对簇中所有三角面片的目标向量求取平均值。
本公开实施例中的划分截止条件可以是针对一个簇,多次计算的中心向量不再发生变化,还可以是划分次数达到预设次数,还可以是其它划分截止条件,本公开实施例对此不做具体的限制。
考虑到法向量和颜色向量对于簇划分的影响程度并不相同,因而,这里可以基于两种向量确定两个距离,并结合加权求和方式确定上述距离。
具体可以通过如下步骤来实现:
步骤一、针对各个三角面片中的每个三角面片,基于该三角面片的目标法向量以及每个中心向量中的中心法向量,确定该三角面片与每个中心向量所在的簇之间的第一距离,以及,基于该三角面片的目标颜色向量以及每个中心向量中的中心颜色向量,确定该三角面片与每个中心向量所在的簇之间的第二距离;
步骤二、基于第一距离及其对应的权重、以及第二距离及其对应的权重,确定该三角面片的目标向量,分别与每个中心向量之间的距离。
这里,可以依据不同的应用场景对上述第一距离对应的权重、以及第二距离对应的权重进行设置。例如,针对一些单一色彩的场景而言,颜色向量与中心颜色向量之间的一致性对于簇的划分至关重要,这时可以分配更高的权重。
本公开实施例提供的划分方法旨在使得相同语义的三角面片属于同一个簇,不同语义的三角面片属于不同的簇。这里,如一个簇的三角面片的目标向量由Ri表示,Ri包括目标法向量n(x)和中心颜色向量c(x),簇的中心向量为Pi,Pi包括中心法向量ni和中心颜色向量ci。为了实现上述技术目的,这里是找到一组簇可以使得如下公式所示的误差最小。
其中,误差函数
本公开实施例中,可以是基于场景图像对应的初始二维语义标注结果确定针对簇的初始三维语义标注结果,具体包括如下步骤:
步骤一、针对每个三角面片,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,确定该三角面片在至少一张场景图像中对应的投影图像区域;以及,
步骤二、基于该三角面片在至少一张场景图像中对应的投影图像区域的初始二维语义标注结果,确定该三角面片的初始三维语义标注结果;
步骤三、针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果。
这里,考虑到三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,可以先针对每个三角面片,确定该三角面片在各张场景图像中对应的投影图像区域。
这里的投影图像区域可以是根据三角面片的中心坐标、图像位姿、内参等数据投影到场景图像得到的各个像素点的集合。由于各张场景图像的初始二维语义标注结果是预先标注得到的,这样,场景图像对应的投影图像区域的初始二维语义标注结果也可以确定。
在针对三角面片确定其投影图像区域的初始二维语义标注结果的情况下,可以确定对应各种初始二维语义标注结果的标签数量,也即,可以得到三角面片分别属于某一标签类的票数,将各标签类的票数归一化可以得到三角面片属于某一标签类的语义概率,这里,可以选取语义概率最大,也即标签数量最多的初始二维语义标注结果,作为三角面片的初始三维语义标注结果。
这里的簇是基于三角面片组合而成的,这里,针对每个簇可以基于簇包括的各个三角面片的初始三维语义标注结果,确定对应各种初始三维语义标注结果的三角面片的数量,三角面片的数量越多的初始三维语义标注结果,对应为簇的初始三维语义标注结果的可能性也越高。这里,可以选取对应的三角面片的数量最多的初始三维语义标注结果,作为簇的初始三维语义标注结果。
除此之外,本公开实施例还可以按照如下步骤确定簇的初始三维语义标注结果:
步骤一、将对应各种初始二维语义标注结果的标签数量与标签总数量进行比值运算,确定该三角面片属于每种初始二维语义标注结果的概率值;
步骤二、基于属于各种初始二维语义标注结果的概率值,确定该三角面片的初始三维语义标注结果;
步骤三、针对划分得到的每个簇,基于该簇包括的每个三角面片对应的属于每种初始二维语义标注结果的概率值,以及针对该三角面片预先分配的指向每种初始二维语义标注结果的权重,确定该簇属于每种初始二维语义标注结果的概率值;
步骤四、基于该簇属于各种初始二维语义标注结果的概率值,确定该簇的初始三维语义标注结果。
这里,可以先对三角面片进行属于每种初始二维语义标注结果的概率值的确定,而后再结合一个簇包含的三角面片实现针对每个簇的初始三维语义标注结果的确定。
其中,有关一个三角面片属于每种初始二维语义标注结果的概率值是基于标签数量的比值实现的。这里,可以统计一个三角面片在指向各张各张场景图像中对应的投影图像区域的过程中,所确定的针对每种初始二维语义标注结果的投票数量(对应标签数量),还可以统计所有投票数量(对应标签总数量),通过两个数量的比值可以确定上述概率值。
在针对一个簇进行概率计算的过程中,可以基于该簇包括的每个三角面片预先分配的指向每种初始二维语义标注结果的权重来完成。
在具体应用中,上述权重可以是结合三角面片的面积来确定,面积越大的三角面片可以对应分配较大的权重,面积越小的三角面片可以对应分配较小的权重,这主要是考虑到大面积三角面片在投票过程往往占据更为关键的作用。这里,通过加权求和即可以确定出一个簇属于各种初始二维语义标注结果的概率值,一个簇的初始三维语义标注结果则可以看作是一个概率分布。
在实际应用中,可能会出现无法直接对簇进行语义标注的情况。为了解决这一问题,本公开实施例可以对簇再进一步进行划分,通过对划分的子簇的标注实现最终的标注效果。
这里,有关子簇的划分方式参见上述簇的划分方式,在此不再赘述。
考虑到人工修正方式对于标签准确性的强影响性,这里,可以先获取针对多个簇中至少部分簇的初始三维语义标注结果进行人工修正的修正后三维语义标注结果,而后基于获取的修正后三维语义标注结果,以及未经人工修正的其他簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。
本公开实施例可以基于web的标注器进行人工修正,也即,可以将各个簇的初始三维语义标注结果加载到基于web的标注器中,通过这一标注工具手动修正。
例如,可以是在确定串联的多个簇中存在不同语义的目标簇的情况下,可以调取这一目标簇,并在确定针对目标簇标注错误的情况下,手动修正到正确的标注结果。这里,修正的簇所属类别的概率设置为1,其它类别的概率为0。
需要说明的是,人工修正标注结果的情况下,有关簇以及簇内的三角面片的语义标注结果也将随之发生变化。
本公开实施例中,不仅可以基于人工修正方式进行簇的三维语义标注结果的修正,还可以基于预先定义的能量函数来更新簇的三维语义标注结果,以使得所确定的针对场景图像的修正后二维语义标注结果更为准确。
其中,上述三维语义标注结果的更新过程具体包括如下步骤:
步骤一、基于每个簇的初始三维语义标注结果,确定各个簇在语义标注层面对应的概率分布误差项;以及基于任意相邻的不属于同一三维语义标注结果的两个簇之间的夹角信息,确定每个簇在几何特征层面对应的夹角误差项;
步骤二、根据概率分布误差项和夹角误差项,确定能量函数;
步骤三、确定使得能量函数的值最小的情况下,针对每个簇确定的更新后三维语义标注结果。
为了便于理解上述更新过程,接下来可以结合如下能量函数公式来具体说明。
其中,
其中,上述e1(·)和e2(·)分别对应概率分布误差项和夹角误差项,F表示所有簇的集合,N表示相邻簇的集合,xf表示簇f所属的三维语义标注结果,P(f|xf)表示簇f属于三维语义标注结果xf的概率,θ(f,g)表示簇f和簇g的夹角。
需要说明的是,针对概率分布误差项而言,这里除了可以考虑簇的初始三维语义标注结果,还可以考虑人工修正后的标注结果,例如可以给予人工修正的标注结果以最大的语义概率。
通过最小化上述能量函数,可以确定每个簇的更新后三维语义标注结果。
本公开实施例中,可以基于每个簇的更新后三维语义标注结果实现针对场景图像的二维语义标注结果的修正。
这里,首先基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,可以针对每个,从至少一张场景图像中确定与该簇包括的每个三角面片对应的场景图像,而后针对每张场景图像,基于该张场景图像对应的三角面片所属簇的更新后三维语义标注结果,确定针对该张场景图像的修正后二维语义标注结果。也即,本公开实施例可以将带有三维语义的三维场景模型渲染到二维,从而得到场景图像对应的二维语义标注,自动实现,效率和准确性均较高。
其中,上述由三维到二维的渲染过程可以是基于opengl实现的,还可以是基于其它方式实现的,在此不做具体的限制。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与语义标注的方法对应的语义标注的装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述语义标注的方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图2所示,为本公开实施例提供的一种语义标注的装置的示意图,装置包括:获取模块201、划分模块202、第一标注模块203和第二标注模块204;其中,
获取模块201,用于获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;
划分模块202,用于将三维场景模型包括的各个三角面片划分为多个簇;
第一标注模块203,用于基于初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个簇的初始三维语义标注结果;
第二标注模块204,用于基于确定的每个簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。
本公开实施例中,在对基于场景图像重建的三维场景模型进行簇的划分的情况下,可以基于每张场景图像对应的初始二维语义标注结果,对划分的每个簇进行三维语义标注,确定对应的初始三维语义标注结果,基于初始三维语义标注结果可以确定针对每张场景图像的修正后二维语义标注结果,也即,本公开实施例是基于三维空间内簇的初始三维语义标注结果对二维空间内场景图像的初始二维语义标注结果进行了修正,由于三维空间内一个簇指向的三角面片可能是多个,而每个三角面片所指向的场景图像可能是多个,基于上述对应关系可以对簇进行聚合性的标注,这将使得修正后二维语义标注结果更为准确,与此同时,上述修正过程自动完成,使得标注效率更高。
在一种可能的实施方式中,划分模块202,用于按照如下步骤将三维场景模型包括的各个三角面片划分为多个簇:
从三维场景模型包括的各个三角面片中,随机选取预设数量个三角面片,将选取的每个三角面片的目标向量分别作为待划分的簇的中心向量;
确定各个三角面片中每个三角面片的目标向量,分别与每个中心向量之间的距离,并将该三角面片划分至对应的距离最小的中心向量所在的簇;
确定每个簇对应的新的中心向量,并基于该新的中心向量,返回执行划分簇的步骤,直到满足划分截止条件。
在一种可能的实施方式中,划分模块202,用于按照如下步骤确定每个簇对应的新的中心向量:
基于每个簇包括的各个三角面片的目标向量,确定各个三角面片的平均向量,将平均向量作为该簇对应的新的中心向量。
在一种可能的实施方式中,目标向量包括目标法向量和目标颜色向量,中心向量包括中心法向量和中心颜色向量;划分模块202,用于按照如下步骤确定各个三角面片中每个三角面片的目标向量,分别与每个中心向量之间的距离:
针对各个三角面片中的每个三角面片,基于该三角面片的目标法向量以及每个中心向量中的中心法向量,确定该三角面片与每个中心向量所在的簇之间的第一距离,以及,基于该三角面片的目标颜色向量以及每个中心向量中的中心颜色向量,确定该三角面片与每个中心向量所在的簇之间的第二距离;
基于第一距离及其对应的权重、以及第二距离及其对应的权重,确定该三角面片的目标向量,分别与每个中心向量之间的距离。
在一种可能的实施方式中,第一标注模块203,用于按照以下步骤基于初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个簇的初始三维语义标注结果:
针对每个三角面片,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,确定该三角面片在至少一张场景图像中对应的投影图像区域;以及,
基于该三角面片在至少一张场景图像中对应的投影图像区域的初始二维语义标注结果,确定该三角面片的初始三维语义标注结果;
针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果。
在一种可能的实施方式中,第一标注模块203,用于按照以下步骤基于该三角面片在至少一张场景图像中对应的投影图像区域的初始二维语义标注结果,确定该三角面片的初始三维语义标注结果:
针对每个三角面片,基于该三角面片在至少一张场景图像中对应的投影图像区域的初始二维语义标注结果,确定对应各种初始二维语义标注结果的标签数量;
基于对应各种初始二维语义标注结果的标签数量,确定为该三角面片的初始三维语义标注结果。
在一种可能的实施方式中,第一标注模块203,用于按照以下步骤针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果:
将标签数量最多的一种初始二维语义标注结果,确定为该三角面片的初始三维语义标注结果;
基于每个簇包括的各个三角面片的初始三维语义标注结果,确定对应各种初始三维语义标注结果的三角面片的数量;
将对应的三角面片的数量最多的一种初始三维语义标注结果,确定该簇的初始三维语义标注结果。
在一种可能的实施方式中,第一标注模块203,用于按照以下步骤针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果:
将对应各种初始二维语义标注结果的标签数量与标签总数量进行比值运算,确定该三角面片属于每种初始二维语义标注结果的概率值;
基于属于各种初始二维语义标注结果的概率值,确定该三角面片的初始三维语义标注结果;
针对划分得到的每个簇,基于该簇包括的每个三角面片对应的属于每种初始二维语义标注结果的概率值,以及针对该三角面片预先分配的指向每种初始二维语义标注结果的权重,确定该簇属于每种初始二维语义标注结果的概率值;
基于该簇属于各种初始二维语义标注结果的概率值,确定该簇的初始三维语义标注结果。
在一种可能的实施方式中,在确定任一簇属于多种初始二维语义标注结果的概率值大于预设阈值的情况下,上述划分模块202还用于:
针对任一簇,将该簇划分为多个子簇;
第一标注模块203,用于按照以下步骤基于初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个簇的初始三维语义标注结果:
基于初始二维语义标注结果,对划分得到的每个子簇进行三维语义标注,确定每个子簇的初始三维语义标注结果;
第二标注模块204,用于按照以下步骤基于确定的每个簇的三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果:
基于每个子簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。
在一种可能的实施方式中,第二标注模块204,用于按照以下步骤基于每个簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果:
获取修正后三维语义标注结果;修正后三维语义标注结果为针对多个簇中至少部分簇的初始三维语义标注结果进行人工修正后的三维语义标注结果;
基于的修正后三维语义标注结果,以及未经人工修正的其他簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。
在一种可能的实施方式中,第二标注模块204,用于按照以下步骤基于每个簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果:
基于每个簇的初始三维语义标注结果,确定各个簇在语义标注层面对应的概率分布误差项;以及基于任意相邻的不属于同一三维语义标注结果的两个簇之间的夹角信息,确定每个簇在几何特征层面对应的夹角误差项;
根据概率分布误差项和夹角误差项,确定能量函数;
确定使得能量函数的值最小的情况下,针对每个簇确定的更新后三维语义标注结果;
基于针对每个簇的更新后三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。
在一种可能的实施方式中,第二标注模块204,用于按照以下步骤基于每个簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果:
针对每个簇,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,从至少一张场景图像中确定与该簇包括的每个三角面片对应的场景图像;
针对每张场景图像,基于该张场景图像对应的三角面片所属簇的初始三维语义标注结果,确定针对该张场景图像的修正后二维语义标注结果。
在一种可能的实施方式中,初始二维语义标注结果为利用初始语义标注神经网络对每张场景图像进行语义标注得到的,上述装置还包括:
训练模块205,用于确定针对每张场景图像的修正后二维语义标注结果之后,基于每张场景图像的修正后二维语义标注结果对初始语义标注神经网络进行训练,得到训练好的语义标注神经网络。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
本公开实施例还提供了一种电子设备,如图3所示,为本公开实施例提供的电子设备结构示意图,包括:处理器301、存储器302、和总线303。存储器302存储有处理器301可执行的机器可读指令(比如,图2中的装置中获取模块201、划分模块202、第一标注模块203、第二标注模块204对应的执行指令等),当电子设备运行时,处理器301与存储器302之间通过总线303通信,机器可读指令被处理器301执行时执行如下处理:
获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;
将三维场景模型包括的各个三角面片划分为多个簇;
基于初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个簇的初始三维语义标注结果;
基于每个簇的初始三维语义标注结果,确定针对每张场景图像的修正后二维语义标注结果。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的语义标注的方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例还提供一种计算机程序产品,该计算机程序产品承载有程序代码,所述程序代码包括的指令可用于执行上述方法实施例中所述的语义标注的方法的步骤,具体可参见上述方法实施例,在此不再赘述。
其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。
Claims (14)
1.一种语义标注的方法,其特征在于,所述方法包括:
获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;
从所述三维场景模型包括的各个三角面片中,随机选取预设数量个三角面片,将选取的每个三角面片的目标向量分别作为待划分的簇的中心向量;确定所述各个三角面片中每个三角面片的所述目标向量,分别与每个所述中心向量之间的距离,并将该三角面片划分至对应的所述距离最小的中心向量所在的簇;确定每个簇对应的新的中心向量,并基于该新的中心向量,返回执行划分簇的步骤,直到满足划分截止条件;
针对每个三角面片,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,确定该三角面片在至少一张场景图像中对应的投影图像区域;以及,基于该三角面片在所述至少一张场景图像中对应的所述投影图像区域的所述初始二维语义标注结果,确定该三角面片的初始三维语义标注结果;针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果;
基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
2.根据权利要求1所述的方法,其特征在于,所述确定每个簇对应的新的中心向量,包括:
基于每个簇包括的各个三角面片的目标向量,确定各个三角面片的平均向量,将所述平均向量作为该簇对应的新的中心向量。
3.根据权利要求2所述的方法,其特征在于,所述目标向量包括目标法向量和目标颜色向量,所述中心向量包括中心法向量和中心颜色向量;所述确定所述各个三角面片中每个三角面片的所述目标向量,分别与每个所述中心向量之间的距离,包括:
针对所述各个三角面片中的每个三角面片,基于该三角面片的目标法向量以及每个所述中心向量中的中心法向量,确定该三角面片与每个所述中心向量所在的簇之间的第一距离,以及,基于该三角面片的目标颜色向量以及每个所述中心向量中的中心颜色向量,确定该三角面片与每个所述中心向量所在的簇之间的第二距离;
基于所述第一距离及其对应的权重、以及所述第二距离及其对应的权重,确定该三角面片的所述目标向量,分别与每个所述中心向量之间的距离。
4.根据权利要求1所述的方法,其特征在于,所述基于该三角面片在所述至少一张场景图像中对应的所述投影图像区域的所述初始二维语义标注结果,确定该三角面片的初始三维语义标注结果,包括:
针对每个所述三角面片,基于该三角面片在所述至少一张场景图像中对应的投影图像区域的初始二维语义标注结果,确定对应各种初始二维语义标注结果的标签数量;
基于对应各种初始二维语义标注结果的标签数量,确定该三角面片的初始三维语义标注结果。
5.根据权利要求4所述的方法,其特征在于,所述基于对应各种初始二维语义标注结果的标签数量,确定该三角面片的初始三维语义标注结果,包括:
将标签数量最多的一种初始二维语义标注结果,确定为该三角面片的初始三维语义标注结果;
所述针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果,包括:
基于每个簇包括的各个三角面片的初始三维语义标注结果,确定对应各种初始三维语义标注结果的三角面片的数量;
将对应的三角面片的数量最多的一种初始三维语义标注结果,确定该簇的初始三维语义标注结果。
6.根据权利要求4所述的方法,其特征在于,所述基于对应各种初始二维语义标注结果的标签数量,确定该三角面片的初始三维语义标注结果,包括:
将对应各种初始二维语义标注结果的标签数量与标签总数量进行比值运算,确定该三角面片属于每种初始二维语义标注结果的概率值;
基于属于各种初始二维语义标注结果的概率值,确定该三角面片的初始三维语义标注结果;
所述针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果,包括:
针对划分得到的每个簇,基于该簇包括的每个三角面片对应的属于每种初始二维语义标注结果的概率值,以及针对该三角面片预先分配的指向每种初始二维语义标注结果的权重,确定该簇属于每种初始二维语义标注结果的概率值;
基于该簇属于各种初始二维语义标注结果的概率值,确定该簇的初始三维语义标注结果。
7.根据权利要求6所述的方法,其特征在于,在确定任一簇属于多种初始二维语义标注结果的概率值大于预设阈值的情况下,所述方法还包括:
针对任一簇,将该簇划分为多个子簇;
所述基于所述初始二维语义标注结果,对划分得到的每个簇进行三维语义标注,确定每个所述簇的初始三维语义标注结果,包括:
基于所述初始二维语义标注结果,对划分得到的每个子簇进行三维语义标注,确定每个子簇的初始三维语义标注结果;
所述基于每个所述簇的三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
基于所述每个子簇的初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
8.根据权利要求1-7任一所述的方法,其特征在于,所述基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
获取修正后三维语义标注结果;所述修正后三维语义标注结果为针对多个簇中至少部分簇的初始三维语义标注结果进行人工修正后的三维语义标注结果;
基于所述修正后三维语义标注结果,以及未经人工修正的其他簇的初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
9.根据权利要求1-7任一所述的方法,其特征在于,所述基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
基于每个簇的初始三维语义标注结果,确定各个簇在语义标注层面对应的概率分布误差项;以及基于任意相邻的不属于同一三维语义标注结果的两个所述簇之间的夹角信息,确定每个簇在几何特征层面对应的夹角误差项;
根据所述概率分布误差项和所述夹角误差项,确定能量函数;
确定使得所述能量函数的值最小的情况下,针对每个簇确定的更新后三维语义标注结果;
基于针对每个簇的更新后三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
10.根据权利要求1-7任一所述的方法,其特征在于,所述基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果,包括:
针对每个簇,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,从所述至少一张场景图像中确定与该簇包括的每个三角面片对应的场景图像;
针对每张场景图像,基于该张场景图像对应的三角面片所属簇的初始三维语义标注结果,确定针对该张场景图像的修正后二维语义标注结果。
11.根据权利要求1-7任一所述的方法,其特征在于,所述初始二维语义标注结果为利用初始语义标注神经网络对所述每张场景图像进行语义标注得到的,所述确定针对所述每张场景图像的修正后二维语义标注结果之后,还包括:
基于所述每张场景图像的修正后二维语义标注结果对所述初始语义标注神经网络进行训练,得到训练好的语义标注神经网络。
12.一种语义标注的装置,其特征在于,所述装置包括:
获取模块,用于获取基于至少一张场景图像重建的三维场景模型、以及每张场景图像的初始二维语义标注结果;
划分模块,用于从所述三维场景模型包括的各个三角面片中,随机选取预设数量个三角面片,将选取的每个三角面片的目标向量分别作为待划分的簇的中心向量;确定所述各个三角面片中每个三角面片的所述目标向量,分别与每个所述中心向量之间的距离,并将该三角面片划分至对应的所述距离最小的中心向量所在的簇;确定每个簇对应的新的中心向量,并基于该新的中心向量,返回执行划分簇的步骤,直到满足划分截止条件;
第一标注模块,用于针对每个三角面片,基于三维场景模型对应的第一坐标系以及场景图像对应的第二坐标系之间的转换关系,确定该三角面片在至少一张场景图像中对应的投影图像区域;以及,基于该三角面片在所述至少一张场景图像中对应的所述投影图像区域的所述初始二维语义标注结果,确定该三角面片的初始三维语义标注结果;针对划分得到的每个簇,基于该簇包括的每个三角面片的初始三维语义标注结果,确定该簇的初始三维语义标注结果;
第二标注模块,用于基于每个所述簇的所述初始三维语义标注结果,确定针对所述每张场景图像的修正后二维语义标注结果。
13.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至11任一所述的语义标注的方法的步骤。
14.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至11任一所述的语义标注的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111320552.7A CN113902856B (zh) | 2021-11-09 | 2021-11-09 | 一种语义标注的方法、装置、电子设备及存储介质 |
PCT/CN2022/093649 WO2023082588A1 (zh) | 2021-11-09 | 2022-05-18 | 一种语义标注的方法、装置、电子设备、存储介质及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111320552.7A CN113902856B (zh) | 2021-11-09 | 2021-11-09 | 一种语义标注的方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113902856A CN113902856A (zh) | 2022-01-07 |
CN113902856B true CN113902856B (zh) | 2023-08-25 |
Family
ID=79193738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111320552.7A Active CN113902856B (zh) | 2021-11-09 | 2021-11-09 | 一种语义标注的方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113902856B (zh) |
WO (1) | WO2023082588A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113902856B (zh) * | 2021-11-09 | 2023-08-25 | 浙江商汤科技开发有限公司 | 一种语义标注的方法、装置、电子设备及存储介质 |
CN114827711B (zh) * | 2022-06-24 | 2022-09-20 | 如你所视(北京)科技有限公司 | 图像信息显示方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085840A (zh) * | 2020-09-17 | 2020-12-15 | 腾讯科技(深圳)有限公司 | 语义分割方法、装置、设备及计算机可读存储介质 |
CN113160420A (zh) * | 2021-05-17 | 2021-07-23 | 上海商汤临港智能科技有限公司 | 一种三维点云重建的方法、装置、电子设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2543749A (en) * | 2015-10-21 | 2017-05-03 | Nokia Technologies Oy | 3D scene rendering |
CN109242903B (zh) * | 2018-09-07 | 2020-08-07 | 百度在线网络技术(北京)有限公司 | 三维数据的生成方法、装置、设备及存储介质 |
US11361501B2 (en) * | 2020-02-27 | 2022-06-14 | Apple Inc. | Semantic labeling of point cloud clusters |
CN113362458B (zh) * | 2020-12-23 | 2024-04-02 | 深圳大学 | 模拟多视角成像的三维模型解译方法、终端及存储介质 |
CN113178014B (zh) * | 2021-05-27 | 2023-06-13 | 网易(杭州)网络有限公司 | 场景模型渲染方法、装置、电子设备和存储介质 |
CN113034566B (zh) * | 2021-05-28 | 2021-09-24 | 湖北亿咖通科技有限公司 | 高精度地图构建方法、装置、电子设备及存储介质 |
CN113902856B (zh) * | 2021-11-09 | 2023-08-25 | 浙江商汤科技开发有限公司 | 一种语义标注的方法、装置、电子设备及存储介质 |
-
2021
- 2021-11-09 CN CN202111320552.7A patent/CN113902856B/zh active Active
-
2022
- 2022-05-18 WO PCT/CN2022/093649 patent/WO2023082588A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085840A (zh) * | 2020-09-17 | 2020-12-15 | 腾讯科技(深圳)有限公司 | 语义分割方法、装置、设备及计算机可读存储介质 |
CN113160420A (zh) * | 2021-05-17 | 2021-07-23 | 上海商汤临港智能科技有限公司 | 一种三维点云重建的方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113902856A (zh) | 2022-01-07 |
WO2023082588A1 (zh) | 2023-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110648397B (zh) | 场景地图生成方法、装置、存储介质及电子设备 | |
CN109493417B (zh) | 三维物体重建方法、装置、设备和存储介质 | |
CN113160420B (zh) | 一种三维点云重建的方法、装置、电子设备及存储介质 | |
CN112907747B (zh) | 一种点云数据处理的方法、装置、电子设备及存储介质 | |
CN113902856B (zh) | 一种语义标注的方法、装置、电子设备及存储介质 | |
CN109460774B (zh) | 一种基于改进的卷积神经网络的鸟类识别方法 | |
CN112418129B (zh) | 一种点云数据处理的方法、装置、电子设备及存储介质 | |
WO2022134464A1 (zh) | 目标检测定位置信度确定方法、装置、电子设备及存储介质 | |
CN114565863B (zh) | 无人机图像的正射影像实时生成方法、装置、介质及设备 | |
CN104616247A (zh) | 一种用于基于超像素sift航拍地图拼接的方法 | |
CN113112542A (zh) | 一种视觉定位方法、装置、电子设备及存储介质 | |
Kang et al. | Yolo-6d+: single shot 6d pose estimation using privileged silhouette information | |
US9083961B2 (en) | System for correcting RPC camera model pointing errors using 2 sets of stereo image pairs and probabilistic 3-dimensional models | |
CN112802081A (zh) | 一种深度检测方法、装置、电子设备及存储介质 | |
CN115329111A (zh) | 一种基于点云与影像匹配的影像特征库构建方法及系统 | |
CN111368860B (zh) | 重定位方法及终端设备 | |
CN113298871B (zh) | 地图生成方法、定位方法及其系统、计算机可读存储介质 | |
CN112734772B (zh) | 图像处理方法、装置、电子设备以及存储介质 | |
CN114022567A (zh) | 位姿跟踪方法、装置、电子设备及存储介质 | |
CN113570713A (zh) | 一种面向动态环境的语义地图构建方法及装置 | |
CN112258647A (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
US20240273807A1 (en) | Virtual scene generation method, electronic device and storage medium | |
CN111914809A (zh) | 目标对象定位方法、图像处理方法、装置和计算机设备 | |
Li et al. | Stereo neural vernier caliper | |
CN103413328B (zh) | 运动物体的跟踪方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |