CN112581629A - 增强现实显示方法、装置、电子设备及存储介质 - Google Patents
增强现实显示方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112581629A CN112581629A CN202011429650.XA CN202011429650A CN112581629A CN 112581629 A CN112581629 A CN 112581629A CN 202011429650 A CN202011429650 A CN 202011429650A CN 112581629 A CN112581629 A CN 112581629A
- Authority
- CN
- China
- Prior art keywords
- target
- dimensional
- point cloud
- cloud data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 55
- 239000011159 matrix material Substances 0.000 claims abstract description 90
- 230000009466 transformation Effects 0.000 claims abstract description 88
- 238000013507 mapping Methods 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请适用于计算机技术领域,提供了增强现实显示方法、装置、电子设备及存储介质,包括:获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像;从所述二维图像中确定目标物体对应的二维目标区域;根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据;将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵;根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。本申请实施例能够高效准确地实现增强现实显示。
Description
技术领域
本申请属于计算机技术领域,尤其涉及一种增强现实显示方法、装置、电子设备及存储介质。
背景技术
增强现实(Augmented Reality,AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,在手术导航、智慧交通、娱乐游戏等领域有着越来越广泛的应用。增强现实技术具体是将计算机生成的虚拟信息内容叠加至真实环境中,使得虚拟模型与真实环境的真实物体能够在同一画面或者空间中同时存在,这一过程能够被人类感官所感知,从而实现超越现实的感官体验,实现对真实世界的“增强”。
然而,现有技术难以将虚拟模型高效准确地映射到真实物体对应的区域进行显示,即,现有的增强现实场景显示效率及准确性较低。
发明内容
有鉴于此,本申请实施例提供了增强现实显示方法、装置及电子设备,以解决现有技术中如何高效准确地实现增强现实显示的问题。
本申请实施例的第一方面提供了一种增强现实显示方法,包括:
获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像;
从所述二维图像中确定目标物体对应的二维目标区域;所述目标物体为位于所述目标环境中的真实物体;
根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据;
将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵;
根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。
可选地,所述二维目标区域为第一目标矩形框,所述从所述二维图像中确定目标物体对应的二维目标区域,包括:
对所述二维图像进行目标检测,确定目标物体对应的第一目标矩形框;所述第一目标矩形框用于标识所述二维图像中包含所述目标物体的二维图像信息的图像区域;
对应地,所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据,包括:
根据所述第一目标矩形框的四个顶点的二维坐标信息,在所述深度图像中确定与所述第一目标矩形框对应的第二目标矩形框;
根据所述四个顶点的二维坐标信息及所述第二目标矩形框中所包含的深度信息,确定所述目标物体对应的三维长方体区域;
根据所述三维长方体区域,从所述目标环境的点云数据中分割出所述三维长方体区域包含的点云数据作为所述目标三维点云数据。
可选地,所述从所述二维图像中确定目标物体对应的二维目标区域,包括:
通过训练后的目标神经网络模型对所述二维图像进行处理,确定所述目标物体对应的像素掩码区域;所述像素掩码区域由所述二维图像中包含所述目标物体的图像信息的各个像素点组成;
对应地,所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据,包括:
根据所述像素掩码区域的二维坐标信息,从所述深度图像中确定与所述像素掩码区域对应的深度图区域;
根据所述深度图区域的信息,确定所述目标物体对应的目标三维点云数据。
可选地,所述根据所述深度图区域的信息,确定所述目标物体对应的目标三维点云数据,包括:
根据所述深度图区域的信息,从所述目标环境的点云数据中分割出所述与所述像素掩码区域对应的待定三维点云数据;
对所述待定三维点云数据进行离群点去除处理,得到所述目标物体对应的目标三维点云数据。
可选地,所述获取目标环境图像,包括:
从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像;所述目标视频数据为拍摄所述目标环境得到的视频数据;
对应地,在所述根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示之后,还包括:
若在所述当前的目标环境图像之后存在下一帧视频帧图像,则返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以根据下一帧视频帧图像实时更新所述虚拟模型的显示。
可选地,在所述从所述二维图像中确定目标物体对应的二维目标区域后,还包括:
若所述二维目标区域与预存的历史二维目标区域完全一致,则判定当前无需更新显示所述虚拟模型,直接执行所述若在所述当前的目标环境图像之后存在下一帧视频帧图像,则返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以根据下一帧视频帧图像实时更新所述虚拟模型的显示;
否则,判定当前需要更新显示所述虚拟模型,执行所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据的步骤及后续的步骤,以更新所述虚拟模型的显示。
可选地,所述将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵,包括:
根据快速全局配准算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第一变换矩阵;
根据所述第一变换矩阵及迭代最近点算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第二变换矩阵;
根据所述第一变换矩阵及所述第二变换矩阵,确定所述虚拟模型与所述目标物体之间的变换矩阵。
本申请实施例的第二方面提供了一种增强现实显示装置,包括:
获取单元,用于获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像;
二维目标区域确定单元,用于从所述二维图像中确定目标物体对应的二维目标区域;所述目标物体为位于所述目标环境中的真实物体;
目标三维点云数据确定单元,用于根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据;
配准单元,用于将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵;
映射单元,用于根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。
本申请实施例的第三方面提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,当所述处理器执行所述计算机程序时,使得电子设备实现如所述增强现实显示方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时,使得电子设备实现如所述增强现实显示方法的步骤。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述第一方面中任一项所述的增强现实显示方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例中,通过获取目标环境图像,并确定目标环境的点云数据,之后,根据该目标环境图像中的二维图像来确定目标物体对应的二维目标区域,再根据该二维目标区域的二维坐标信息结合该目标环境图像中的深度图像的信息,准确地从目标环境对应的点云数据中分割出目标物体对应的目标三维点云数据,并将该目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定虚拟模型与目标物体之间的变换矩阵,从而根据该变换矩阵将虚拟模型映射到目标物体对应的区域进行显示。由于能够先根据二维图像准确地确定目标物体对应的二维目标区域,再根据该二维目标区域的信息来结合深度图像的信息确定目标物体的目标三维点云数据,因此能够借助二维图像的二维信息准确高效地从目标环境的点云数据中实现目标三维点云数据的分割,从而提高后续三维配准的效率及准确性,最终将虚拟模型准确地映射到目标物体对应的区域进行显示,进而高效准确地实现增强现实显示。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种增强现实显示方法的实现流程示意图;
图2是本申请实施例提供的增强现实显示装置的示意图;
图3是本申请实施例提供的电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
目前,增强现实技术越来越被广泛应用,其关键技术手段在于将虚拟模型映射到真实物体对应的区域进行显示。然而,现有技术中,真实环境中的点云数据庞大,难以高效准确地从中找出真实物体,也难以将虚拟模型准确地映射到真实物体对应的区域进行显示,即,现有的增强现实场景显示效率及准确性较低。为了解决该技术问题,本申请实施例提供了一种增强现实显示方法、装置、电子设备及存储介质,通过获取目标环境图像,并确定目标环境的点云数据,之后,根据该目标环境图像中的二维图像来确定目标物体对应的二维目标区域,再根据该二维目标区域的二维坐标信息结合该目标环境图像中的深度图像的信息,准确地从目标环境对应的点云数据中分割出目标物体对应的目标三维点云数据,并将该目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定虚拟模型与目标物体之间的变换矩阵,从而根据该变换矩阵将虚拟模型映射到目标物体对应的区域进行显示。由于能够先根据二维图像准确地确定目标物体对应的二维目标区域,再根据该二维目标区域的信息来结合深度图像的信息确定目标物体的目标三维点云数据,因此能够借助二维图像的二维信息准确高效地从目标环境的点云数据中实现目标三维点云数据的分割,从而提高后续三维配准的效率及准确性,最终将虚拟模型准确地映射到目标物体对应的区域进行显示,进而高效准确地实现增强现实显示。
实施例一:
图1示出了本申请实施例提供的一种增强现实显示方法的流程示意图,该增强现实显示方法的执行主体为电子设备,该电子设备包括但不限于电脑、服务器、投影设备、头戴式显示器等。该增强现实显示方法详述如下:
在S101中,获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像。
本申请实施例中,目标环境为当前需要进行增强现实显示的真实世界中的物理环境。目标环境图像为摄像机拍摄该目标环境得到的图像。具体地,该摄像机可以为包含深度摄像头的摄像机,该目标环境图像包括二维图像及深度图像。该二维图像可以为彩色图像,具体地,可以为RGB(Red,Green,Blue)图像。
在获取该包括二维图像及深度图像的目标环境图像的同时或者之后,确定目标环境的点云数据(Point Cloud)。其中,点云数据是描述三维场景的三维坐标系中的点数据的集合,点云数据中的每个点包含有三维坐标,还可能有颜色信息,反射强度信息等,通过该点云数据能够表征物体的表面特征。在一个实施例中,该拍摄目标环境图像的摄像机具有点云数据生成单元,在拍摄目标环境图像时自动生成该目标环境的点云数据。在另一个实施例中,可以在获取到该目标环境图像后,根据该目标环境图像的二维图像及深度图像,合成该目标环境的点云数据。
在S102中,从所述二维图像中确定目标物体对应的二维目标区域;所述目标物体为位于所述目标环境中的真实物体。
本申请实施例中,目标物体为位于目标环境中的真实物体,具体地,为待增强显示的真实物体。本步骤中,在获取到二维图像后,通过模板匹配或者目标检测算法,从该二维图像中找出目标物体对应在该二维图像中的图像区域,即得到目标物体对应的二维目标区域。
在S103中,根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据。
本步骤中,具体根据二维目标区域的二维坐标信息,从深度图像的信息中查找目标物体对应的深度信息,之后,结合该二维坐标信息及该深度信息,即可确定该目标物体对应的三维坐标信息。通过该三维坐标信息,即可从目标环境的点云数据中分割出与该三维坐标信息相符的点集合作为该目标物体对应的目标三维点云数据。
可选地,在步骤S103之前,还包括:
对齐所述二维图像及所述深度图像。
由于摄像机拍摄二维图像与拍摄深度图像通常采用的是不同的图像传感器,而不同的传感器拍摄到的不同图像的视场大小、坐标系通常不一致,因此,在步骤S103之前,先对二维图像和深度图像进行对齐,使得两个图像的视场大小、坐标系保持一致。之后,根据该二维目标区域的二维坐标信息即可在深度图像中与该二维坐标信息相对应的像素位置获取深度信息,该深度信息即为目标物体的深度信息。
在S104中,将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵。
本申请实施例中,虚拟模型为提前仿真构建的三维模型,例如虚拟头像、虚拟椅子、虚拟房子等。虚拟模型构建后,为该虚拟模型预设了对应的点云数据(简称为预设点云数据)来描述该虚拟模型。具体地,预设点云数据至少包含了该虚拟模型的三维坐标信息,还可以包括该虚拟模型的颜色信息等。
可选地,在上述步骤S102中确定了目标物体对应的二维目标区域或者上述步骤S103确定了目标物物体对应的目标三维点云数据后,可以根据该二维目标区域或者目标三维点云数据,确定目标物体的类别,并根据该目标物体的类别从虚拟模型库中获取与该类别相对应的虚拟模型作为当前的虚拟模型。例如,若根据目标物体的二维目标区域或者目标三维点云数据,判定该目标物体为椅子,则对应在虚拟模型库中获取虚拟椅子模型作为当前的虚拟模型。
本步骤中,在确定了目标物体对应的目标三维点云数据后,将该目标三维点云数据与虚拟模型的预设点云数据进行三维配准,从而确定虚拟模型变换到目标物体所在的三维坐标系对应的矩阵,即变换矩阵。
在S105中,根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。
在确定了变换矩阵后,即可以根据该变换矩阵以及该虚拟模型原来在预设点云数据中的三维坐标信息,进行坐标映射转换,将该虚拟模型的各个点数据映射到目标物体对应的区域进行显示。
在一个实施例中,目标物体对应的区域为该目标物体在目标环境中的实际物理区域,即该目标物体在真实世界的物理环境中的空间位置区域。此时,可以根据变换矩阵以及预设点云数据的三维坐标信息,将虚拟模型的各个点数据对应映射到目标环境中目标物体所在的区域进行显示,从而实现虚拟模型与目标物体在真实世界中同一空间位置的叠加显示,实现增强现实显示。例如可以通过本申请实施例的增强现实显示方法,以虚拟人物作为虚拟模型,将该虚拟人物映射到真实世界的舞台区域中,从而实现用户与虚拟人物的同台表演等。可选地,当本申请实施例的执行主体为电脑或者服务器等计算设备时,可以将通过变换矩阵将坐标转换后的虚拟模型的点数据输出至投影设备,以通过该投影设备将虚拟模型的各个点数据映射到真实世界中目标物体所在的空间位置区域进行显示。可选地,当本申请实施例的执行主体为投影设备时,可以直接通过该投影设备自身的投影单元,将虚拟模型的各个点数据映射到真实世界中目标物体所在的空间位置区域进行显示。
在另一个实施例中,目标物体对应的区域为该目标物体在成像画面中对应的成像区域。该成像画面可以为根据目标环境的点云数据构建的成像于头显设备或者其它显示设备的图像数据(可以为二维图像数据或者三维场景数据),该图像数据包含了目标环境的实景信息。根据该变换矩阵和预设点云数据的坐标信息,将虚拟模型的各个点云数据映射到该成像画面中目标物体对应的成像区域中,从而实现虚拟模型与目标物体在同一画面中的叠加显示,实现增强现实显示。例如,可以将虚拟模型叠加至指导手术进行的医学设备的成像画面中,或者将虚拟模型叠加至游戏玩家的头显设备显示的成像画面中,从而实现增强现实显示。示例性地,该成像画面可以为二维图像,也可以为三维场景;当该成像画面为二维图像时,目标物体对应的区域为该目标物体对应在该二维图像中的二维图像区域;当该成像画面为三维场景时,目标物体对应的区域为该目标物体对应在该三维场景中的三维成像区域。可选地,当本申请实施例的执行主体为电脑或者服务器等计算设备时,可以将通过变换矩阵映射转换后的虚拟模型的点数据输出至头戴式显示器等显示设备,以通过这些显示设备将虚拟模型映射到目标物体对应的成像区域进行显示。可选地,当本申请实施例的执行主体为诸如头戴式显示器等显示设备时,则可以直接通过自身的显示单元,将虚拟模型映射到目标物体对应的成像区域进行显示。
可选地,本申请实施中的二维目标区域为第一目标矩形框,上述的步骤S102,包括:
A1:对所述二维图像进行目标检测,确定目标物体对应的第一目标矩形框;所述第一目标矩形框用于标识所述二维图像中包含所述目标物体的二维图像信息的图像区域;
对应地,上述的步骤S103,包括:
A2:根据所述第一目标矩形框的四个顶点的二维坐标信息,在所述深度图像中确定与所述第一目标矩形框对应的第二目标矩形框;
A3根据所述四个顶点的二维坐标信息及所述第二目标矩形框中所包含的深度信息,确定所述目标物体对应的三维长方体区域;
A4:根据所述三维长方体区域,从所述目标环境的点云数据中分割出所述三维长方体区域包含的点云数据作为所述目标三维点云数据。
在步骤A1中,本申请实施例具体通过目标检测方法来确定目标物体对应的矩形框作为该目标物体对应的二维目标区域,为了以示区别,将该矩形框称为第一目标矩形框。该第一目标矩形框即为二维图像中,定位了该目标物体的二维图像区域的矩形框。具体地,本申请实施例的目标检测可以通过神经网络来实现,例如通过(You only look once,Yolo)目标检测算法中的Yolo v3神经网络作为二维目标检测器,对二维图像进行目标检测,从而得到该目标物体对应的第一目标矩形框。具体地,可以将二维图像裁剪为神经网络要求的输入大小,例如640*840像素大小后,再输入该神经网络进行目标检测处理。进一步地,考虑到在目标检测时,可能由于算法的问题,会在该二维图像中检测到该目标物体对应的多个相邻重叠的矩形框,因此本申请实施例中还可以通过非极大值抑制(Non-maximumSuperssion,NMS)算法对目标检测结果进行过滤筛选,最终得到一个匹配分数最高,最能够准确描述目标物体所在的二维图像区域的矩形框作为第一目标矩形框。
在步骤A2中,在确定了第一目标矩形框后,根据第一目标矩形框的四个顶点的二维坐标信息,在深度图像中确定与该第一目标矩形框位置相对应的第二目标矩形框,深度图像中该第二目标矩形框包围的区域的深度信息即包括目标物体的深度信息。具体地,若二维图像及深度图像提前进行了对齐处理,即二维图像的坐标系与深度图像的坐标系完全一致,则可以直接将第一目标矩形框的四个顶点的二维坐标信息直接确定为第二目标矩形框在深度图像中的四个顶点的二维坐标信息,从而从该深度图像中确定第一目标矩形框对应的第二目标矩形框。具体地,若二维图像及深度图像没有提前进行对齐处理,即二维图像的坐标系与深度图像的坐标系不一致,则可以根据第一目标矩形框的四个顶点的二维坐标信息以及预存的二维图像与深度图像的坐标系转换关系,在深度图像中确定与该四个顶点对应的四个目标点,以这四个目标点作为第二目标矩形框的四个顶点,即可得到该第二目标矩形框。
在步骤A3中,本申请实施例中,具体可以根据四个顶点的二维坐标信息,从中找出水平坐标(可称为x轴坐标)的最大值(xmax)及最小值(xmin),竖直坐标(可称为y轴坐标)的最大值(ymax)及最小值(ymin)。并且,根据第二目标矩形框中包含的深度信息,确定目标物体对应的深度坐标(可称为z轴坐标)的最大值(zmax)及最小值(zmin)。之后,根据xmax、xmin、ymax、ymin、zmax、zmin即可确定目标物体的三维空间范围,具体地,根据这6个坐标值组合得到8个顶点的三维坐标,连接这8个顶点即可得到一个长方体,该长方体即为该目标物体对应的三维长方体区域。
在步骤A4中,根据步骤A3确定的三维长方体区域,从步骤S101中去确定的目标环境的点云数据中分割出该三维长方体区域所包含的点云数据,即可得到该目标物体对应的目标三维点云数据。
本申请实施例中,通过目标检测算法快速地定位目标物体对应的第一目标矩形框,并根据该第一目标矩形框的四个顶点的二维坐标信息确定深度图像中对应的第二目标矩形框,从而能够根据该第一目标矩形框的四个顶点的二维坐标信息及该第二目标矩形框所包含的深度信息,准确地确定目标物体的三维坐标范围,确定目标物体在目标环境中的三维长方体区域,从而能够根据该三维长方体区域准确地从目标环境的点云数据中分割出目标三维点云数据。即,能够借助二维目标检测及简单的矩形框坐标关系,简便高效地从目标环境庞大的点云数据中分割出目标三维点云数据,提高目标三维点云数据的分割效率,进而提高增强现实显示效率。
可选地,上述的步骤S102,包括:
B1:通过训练后的目标神经网络模型对所述二维图像进行处理,确定所述目标物体对应的像素掩码区域;所述像素掩码区域由所述二维图像中包含所述目标物体的图像信息的各个像素点组成;
对应地,上述的步骤S103,包括:
B2:根据所述像素掩码区域的二维坐标信息,从所述深度图像中确定与所述像素掩码区域对应的深度图区域;
B3:根据所述深度图区域的信息,确定所述目标物体对应的目标三维点云数据。
在B1中,训练后的目标神经网络是用于从图像中提取物体的像素掩码区域的神经网络,其中,像素掩码区域指的是二维图像中用于表示该物体的图像信息的各个像素点组成的区域。具体地,该训练后的目标神经网络模型可以通过包含物体的图像信息,且携带有该物体对应的像素掩码区域的标识信息的二维图像作为样本数据训练得到。之后,将目标环境图像中的二维图像输入该训练后的目标神经网络进行处理,即可得到该目标物体对应的像素掩码区域,该像素掩码区域即由二维图像中表示该目标物体的图像信息的各个像素点组成。
在B2中,得到上述的像素掩码区域后,根据像素掩码区域的二维坐标信息,从深度图像中确定与二维图像中像素掩码区域的各个像素点的二维坐标一一对应的各个像素点(为了以示区别,深度图中对应的各个像素点称为深度图像素点),这些深度图像素点组成的区域即为深度图区域。
在B3中,根据深度图区域的信息,来确定目标物体对应的目标三维点云数据。具体地,深度图区域中各个深度图像素点的像素值即为目标物体的一个位置点对应的深度信息,因此根据各个深度图像素点的像素值,结合该深度图像素点在深度图中的二维坐标信息,即可确定目标物体对应的三维坐标信息,从而根据该三维坐标信息,从目标环境的点云数据中分割出与该三维坐标信息相符的点云数据作为目标物体对应的目标三维点云数据。
本申请实施例中,由于通过目标神经网络来确定目标物体对应的像素掩码区域,相对于上一实施例中通过目标检测定位矩形框的方式,能够更精确地定位目标物体的二维目标区域,从而进一步提高目标三维点云数据分割的准确性,进而提高增强现实显示的准确性。
可选地,步骤B3,具体包括:
B31:根据所述深度图区域的信息,从所述目标环境对应的点云数据中分割出所述与所述像素掩码区域对应的待定三维点云数据;
B32:对所述待定三维点云数据进行离群点去除处理,得到所述目标物体对应的目标三维点云数据。
本申请实施例中,由于通常像素掩码区域的边缘划定可能不够准确,即有些位于目标物体点的图像边缘附近、不是用于描述目标物体的图像信息的像素点也可能被误判为像素掩码区域中的像素点,因此,在根据该像素掩码区域得到深度图区域后,将根据该深度图区域的信息分割得到的像素掩码区域对应的三维点云数据作为待定三维点云数据。之后,对该待定三维点云数据进行离群点去除处理,将待定三维点云数据中的一些相对孤立、较稀疏的点数据视为误判的、不属于该目标物体的离群点,将这些离群点从待定三维点云数据中筛除,之后剩下的点云数据即为目标物体对应的目标三维点云数据。
可选地,离群点去除处理具体可以包括以下步骤:C1:求取待定三维点云数据中每个点的邻域密度值,即为每个点划定一个邻域范围(例如以该点为中心,以预设长度为半径的圆形区域或者以预设长度为边长的矩形区域等),并确定该邻域范围内包含的点的数量,将该数量确定为该点的邻域密度值;C2:将邻域密度值小于预设阈值的点判定为离群点,从待定三维点云数据中去除。
可选地,离群点去除处理还可以通过求点云数据中各点的距离,将距离其它点的位置较远的点判定为离群点。可选地,离群点去除处理还可以通过聚类的方式,确定一个或者多个指定聚类中的点作为该目标物体对应的点数据,而将该一个或者多个指定聚类以外的点判定为离群点,从待定三维点云数据中去除。
本申请实施例中,由于考虑到像素掩码区域中可能存在某些误判的像素点,因此通过在确定像素掩码区域对应的待定三维点云数据后,进一步通过离群点去除处理将待定三维点云数据中的离群点筛除,从而能够得到更准确的目标三维点云数据,进而提高增强现实显示的准确性。
可选地,上述的步骤S101,包括:
从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像;所述目标视频数据为拍摄所述目标环境得到的视频数据;
对应地,在上述的步骤S105之后,还包括:
S106:若在所述当前的目标环境图像之后存在下一帧视频帧图像,则返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以根据下一帧视频帧图像实时更新所述虚拟模型的显示。
本申请实施例中目标环境图像具体是目标视频数据中的一帧视频帧图像,该目标视频数据为拍摄该目标环境得到的视频数据。在步骤S101中,具体从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像来进行增强现实显示处理。可选地,可以按序间隔第一预设帧数来获取一帧视频帧图像作为当前的目标环境图像,即无需对目标环境图像中的每一帧视频帧图像都进行增强现实显示处理,而是通过间隔获取视频帧图像进行处理的方式来提高增强现实显示效率。
之后,在经过步骤S102-S105对该当前的目标环境图像进行处理后,在步骤S106中,检测该当前的目标环境图像之后是否存在下一帧视频帧图像,若存在,则继续从目标视频数据中获取下一帧视频帧图像作为更新后的当前的目标环境图像,继续进行增强现实显示处理,从而根据实时的目标视频数据实时更新虚拟模型的显示,以实现实时的增强现实显示。
可选地,在目标视频数据中,可以间隔第二预设帧数确定一帧视频图像为预设视频帧。当检测到当前进行处理的目标环境图像为预设视频帧时,可以通过上述的步骤B1-B3的方式来精确地确定目标物体的目标三维点云数据;而在当前处理的目标环境图像不为预设视频帧时,可以通过上述的步骤A1-A3的方式来快速地确定目标物体的目标三维点云数据,即,通过两种方式的结合,每隔第二预设帧数来通过步骤B1-B3进行一次精确地目标三维点云数据确定,而在其他大多数的视频帧中可以直接通过步骤A1-A3来快速确定目标三维点云数据,因此能够在平衡增强现实显示的准确性及效率,从而能够提升增强现实显示的效果。
可选地,在步骤S102之后,还包括:
若所述二维目标区域与预存的历史二维目标区域完全一致,则判定当前无需更新显示所述虚拟模型,直接返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以直接获取下一帧视频帧图像进行处理;
否则,判定当前需要更新显示所述虚拟模型,执行所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据的步骤及后续的步骤,以更新所述虚拟模型的显示。
本申请实施例中,预存的历史二维目标区域为前一帧视频帧图像在进行增强现实显示处理时缓存的二维目标区域。在每次确定当前的目标环境图像的二维目标区域后,将该二维目标区域和预存的历史二维目标区域进行比对,若完全一致,则说明当前目标环境中的目标物体的位置不变,因此当前虚拟模型的显示位置也不变,因此此时判定为当前无需更新显示虚拟模型,无需对当前的目标环境图像进行后续的步骤S103-S105的处理,直接跳转至S106,在还存在下一帧视频帧图像时继续跳转至步骤S101获取下一帧视频帧图像进行增强现实显示处理,在不存在下一帧视频帧图像时完成当前的增强现实显示。
相反地,若当前的二维目标区域与预存的历史二维目标区域不一致,则说明当前的目标物体发生了位置变化,相应地此时虚拟模型也需要更新显示位置,因此此时判定为当前需要更新显示虚拟模型,将该二维目标区域更新为新的历史二维目标区域以便下一次判断,并顺序执行步骤S103-S105来根据对当前的目标环境图像进行目标三维点云数据分割、三维配准,重新确定新的变换矩阵,以将虚拟模型重新映射到当前目标物体对应的区域进行显示,以实现增强现实显示的及时更新。
本申请实施例中,由于能够在确定当前的目标环境图像中目标物体对应的二维目标区域后,将该二维目标区域与预存的历史二维目标区域进行比对,在二维目标区域与历史二维目标区域一致时判定当前无需更新虚拟模型的显示,因此能够节省不必要的更新显示处理,减少不必要的运算资源及功耗。
可选地,上述的步骤S104,具体包括:
根据快速全局配准算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第一变换矩阵;
根据所述第一变换矩阵及迭代最近点算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第二变换矩阵;
根据所述第一变换矩阵及所述第二变换矩阵,确定所述虚拟模型与所述目标物体之间的变换矩阵。
目前,通常是通过迭代最近点算法(Iterative Closest Point,ICP)来实现两个点云数据之间的精确配准。然而,由于在使用迭代最近点算法时,初始误差较大,需要通过多次迭代才能实现精确配准,时间效率低。本申请实施例中,具体先通过快速全局配准(Global Fast Registration)算法,对目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第一变换矩阵。由于快速全局配准算法对精度的要求较低,因此通过该算法能够快速地进行粗配准,快速地得到第一变换矩阵。接着,再以该第一变换矩阵作为迭代最近点算法的初始变换矩阵,进一步进行迭代计算,实现目标三维点云数据与虚拟模型的预设点云数据的精确配准,得到更精确的第二变换矩阵。之后,根据上述确定的第一变换矩阵及第二变换矩阵,确定虚拟模型与目标物体之间的变换矩阵。由于第一变换矩阵为通过快速全局配准算法进行粗配准得到的变换矩阵,因此以该第一变换矩阵作为迭代最近点算法的初始变换矩阵进行迭代运算,可以节省迭代次数,得到更精确的第二变换矩阵,使得之后根据该第一变换矩阵及第二变换矩阵,能够较高效地实现精确配准,提高三维配准效率,进而提高增强现实显示效率。
在一个实施例中,下一步骤,即步骤S105所要用到的该变换矩阵具体为第一变换矩阵与第二变换矩阵的组合,即,将该第一变换矩阵与第二变换矩阵相乘,即得到最终完整描述虚拟模型与目标物体之间的位置变换关系的变换矩阵。之后,在步骤S105中,可以根据虚拟模型的预设点云数据及该变化矩阵,将虚拟模型映射到目标物体对应的区域进行显示。
在另一个实施例中,步骤S105所要用到的变换矩阵为第二变换矩阵。具体地,在步骤S104中,获得第一变换矩阵后,即根据该第一变换矩阵对该虚拟模型作第一次映射,将虚拟模型的初步映射到目标物体对应的区域,并将已经过初步映射后的虚拟模型的点云数据(即预设点云数据经过初步映射后得到的点云数据)称为第一映射点云数据。接着,根据该第一映射点云数据及迭代最近点算法,得到更精确的第二变换矩阵。之后,在步骤S105中,直接以第二变换矩阵作为步骤S105的变换矩阵,根据虚拟模型的第一映射点云数据及该第二变换矩阵,将虚拟模型精确地映射到目标物体对应的区域进行显示。
可选地,在通过快速全局算法或者迭代最近点算法进行配准运算之前,可以通过下采样的方式,从目标三维点云数据及预设点云数据中采样得到部分的点云数据作为代表进行配准计算。其中,采样的点的数量可以根据实际需求确定,例如可以为4096。通过合理的下采样,能够在保证配准精确度的同时进一步提高配准效率,从而进一步提高增强现实显示效率。
本申请实施例中,通过获取目标环境图像,并确定目标环境的点云数据,之后,根据该目标环境图像中的二维图像来确定目标物体对应的二维目标区域,再根据该二维目标区域的二维坐标信息结合该目标环境图像中的深度图像的信息,准确地从目标环境对应的点云数据中分割出目标物体对应的目标三维点云数据,并将该目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定虚拟模型与目标物体之间的变换矩阵,从而根据该变换矩阵将虚拟模型映射到目标物体对应的区域进行显示。由于能够先根据二维图像准确地确定目标物体对应的二维目标区域,再根据该二维目标区域的信息来结合深度图像的信息确定目标物体的目标三维点云数据,因此能够借助二维图像的二维信息准确高效地从目标环境的点云数据中实现目标三维点云数据的分割,从而提高后续三维配准的效率及准确性,最终将虚拟模型准确地映射到目标物体对应的区域进行显示,进而高效准确地实现增强现实显示。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例二:
图2示出了本申请实施例提供的一种增强现实显示装置的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分:
该增强现实显示装置包括:获取单元21、二维目标区域确定单元22、目标三维点云数据确定单元23、配准单元24及映射单元25。其中:
获取单元21,用于获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像。
二维目标区域确定单元22,用于从所述二维图像中确定目标物体对应的二维目标区域;所述目标物体为位于所述目标环境中的真实物体。
目标三维点云数据确定单元23,用于根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据。
配准单元24,用于将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵。
映射单元25,用于根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。
可选地,所述二维目标区域为第一目标矩形框,所述二维目标区域确定单元22,具体用于对所述二维图像进行目标检测,确定目标物体对应的第一目标矩形框;所述第一目标矩形框用于标识所述二维图像中包含所述目标物体的二维图像信息的图像区域;
对应地,所述目标三维点云数据确定单元23包括第二目标矩形框确定模块、三维长方体区域确定模块及第一点云数据确定模块:
第二目标矩形框确定模块,用于根据所述第一目标矩形框的四个顶点的二维坐标信息,在所述深度图像中确定与所述第一目标矩形框对应的第二目标矩形框;
三维长方体区域确定模块,用于根据所述四个顶点的二维坐标信息及所述第二目标矩形框中所包含的深度信息,确定所述目标物体对应的三维长方体区域;
第一点云数据确定模块,用于根据所述三维长方体区域,从所述目标环境的点云数据中分割出所述三维长方体区域包含的点云数据作为所述目标三维点云数据。
可选地,所述二维目标区域确定单元22,具体用于通过训练后的目标神经网络模型对所述二维图像进行处理,确定所述目标物体对应的像素掩码区域;所述像素掩码区域由所述二维图像中包含所述目标物体的图像信息的各个像素点组成;
对应地,所述目标三维点云数据确定单元23包括深度图区域确定模块及第二点云数据确定模块:
深度图区域确定模块,用于根据所述像素掩码区域的二维坐标信息,从所述深度图像中确定与所述像素掩码区域对应的深度图区域;
第二点云数据确定模块,用于根据所述深度图区域的信息,确定所述目标物体对应的目标三维点云数据。
可选地,所述第二点云数据确定模块,具体用于根据所述深度图区域的信息,从所述目标环境的点云数据中分割出所述与所述像素掩码区域对应的待定三维点云数据;对所述待定三维点云数据进行离群点去除处理,得到所述目标物体对应的目标三维点云数据。
可选地,所述获取单元21,具体用于从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像;所述目标视频数据为拍摄所述目标环境得到的视频数据;
对应地,所述增强现实显示装置还包括:
循环模块,用于若在所述当前的目标环境图像之后存在下一帧视频帧图像,则返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以根据下一帧视频帧图像实时更新所述虚拟模型的显示。
可选地,所述增强现实显示装置还包括:
判定模块,用于若所述二维目标区域与预存的历史二维目标区域完全一致,则判定当前无需更新显示所述虚拟模型,直接执行所述若在所述当前的目标环境图像之后存在下一帧视频帧图像,则返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以根据下一帧视频帧图像实时更新所述虚拟模型的显示;否则,判定当前需要更新显示所述虚拟模型,执行所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据的步骤及后续的步骤,以更新所述虚拟模型的显示。
可选地,所述配准单元24包括快速配准模块、精确配准模块及矩阵确定模块:
快速配准模块,用于根据快速全局配准算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第一变换矩阵;
精确配准模块,用于根据所述第一变换矩阵及迭代最近点算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第二变换矩阵;
矩阵确定模块,用于根据所述第一变换矩阵及所述第二变换矩阵,确定所述虚拟模型与所述目标物体之间的变换矩阵。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
实施例三:
图3是本申请一实施例提供的电子设备的示意图。如图3所示,该实施例的电子设备3包括:处理器30、存储器31以及存储在所述存储器31中并可在所述处理器30上运行的计算机程序32,例如增强现实显示程序。所述处理器30执行所述计算机程序32时实现上述各个增强现实显示方法实施例中的步骤,例如图1所示的步骤S101至S105。或者,所述处理器30执行所述计算机程序32时实现上述各装置实施例中各模块/单元的功能,例如图2所示单元21至25的功能。
示例性的,所述计算机程序32可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器31中,并由所述处理器30执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序32在所述电子设备3中的执行过程。例如,所述计算机程序32可以被分割成获取单元、二维目标区域确定单元、目标三维点云数据确定单元、配准单元、映射单元,各单元具体功能如下:
获取单元,用于获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像。
二维目标区域确定单元,用于从所述二维图像中确定目标物体对应的二维目标区域;所述目标物体为位于所述目标环境中的真实物体。
目标三维点云数据确定单元,用于根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据。
配准单元,用于将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵。
映射单元,用于根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。
所述电子设备3可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述电子设备可包括,但不仅限于,处理器30、存储器31。本领域技术人员可以理解,图3仅仅是电子设备3的示例,并不构成对电子设备3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器31可以是所述电子设备3的内部存储单元,例如电子设备3的硬盘或内存。所述存储器31也可以是所述电子设备3的外部存储设备,例如所述电子设备3上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器31还可以既包括所述电子设备3的内部存储单元也包括外部存储设备。所述存储器31用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器31还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种增强现实显示方法,其特征在于,包括:
获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像;
从所述二维图像中确定目标物体对应的二维目标区域;所述目标物体为位于所述目标环境中的真实物体;
根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据;
将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵;
根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。
2.如权利要求1所述的增强现实显示方法,其特征在于,所述二维目标区域为第一目标矩形框,所述从所述二维图像中确定目标物体对应的二维目标区域,包括:
对所述二维图像进行目标检测,确定目标物体对应的第一目标矩形框;所述第一目标矩形框用于标识所述二维图像中包含所述目标物体的二维图像信息的图像区域;
对应地,所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据,包括:
根据所述第一目标矩形框的四个顶点的二维坐标信息,在所述深度图像中确定与所述第一目标矩形框对应的第二目标矩形框;
根据所述四个顶点的二维坐标信息及所述第二目标矩形框中所包含的深度信息,确定所述目标物体对应的三维长方体区域;
根据所述三维长方体区域,从所述目标环境的点云数据中分割出所述三维长方体区域包含的点云数据作为所述目标三维点云数据。
3.如权利要求1所述的增强现实显示方法,其特征在于,所述从所述二维图像中确定目标物体对应的二维目标区域,包括:
通过训练后的目标神经网络模型对所述二维图像进行处理,确定所述目标物体对应的像素掩码区域;所述像素掩码区域由所述二维图像中包含所述目标物体的图像信息的各个像素点组成;
对应地,所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据,包括:
根据所述像素掩码区域的二维坐标信息,从所述深度图像中确定与所述像素掩码区域对应的深度图区域;
根据所述深度图区域的信息,确定所述目标物体对应的目标三维点云数据。
4.如权利要求3所述的增强现实显示方法,其特征在于,所述根据所述深度图区域的信息,确定所述目标物体对应的目标三维点云数据,包括:
根据所述深度图区域的信息,从所述目标环境的点云数据中分割出所述与所述像素掩码区域对应的待定三维点云数据;
对所述待定三维点云数据进行离群点去除处理,得到所述目标物体对应的目标三维点云数据。
5.如权利要求1至4任意一项所述的增强现实显示方法,其特征在于,所述获取目标环境图像,包括:
从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像;所述目标视频数据为拍摄所述目标环境得到的视频数据;
对应地,在所述根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示之后,还包括:
若在所述当前的目标环境图像之后存在下一帧视频帧图像,则返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以根据下一帧视频帧图像实时更新所述虚拟模型的显示。
6.如权利要求5所述的增强现实显示方法,其特征在于,在所述从所述二维图像中确定目标物体对应的二维目标区域后,还包括:
若所述二维目标区域与预存的历史二维目标区域完全一致,则判定当前无需更新显示所述虚拟模型,直接执行所述若在所述当前的目标环境图像之后存在下一帧视频帧图像,则返回执行所述从目标视频数据中按序获取一帧视频帧图像作为当前的目标环境图像的步骤及后续的步骤,以根据下一帧视频帧图像实时更新所述虚拟模型的显示;
否则,判定当前需要更新显示所述虚拟模型,执行所述根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据的步骤及后续的步骤,以更新所述虚拟模型的显示。
7.如权利要求1所述的增强现实显示方法,其特征在于,所述将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵,包括:
根据快速全局配准算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第一变换矩阵;
根据所述第一变换矩阵及迭代最近点算法,将所述目标三维点云数据与虚拟模型的预设点云数据进行配准,得到第二变换矩阵;
根据所述第一变换矩阵及所述第二变换矩阵,确定所述虚拟模型与所述目标物体之间的变换矩阵。
8.一种增强现实显示装置,其特征在于,包括:
获取单元,用于获取目标环境图像,并确定目标环境的点云数据;其中所述目标环境图像包括拍摄所述目标环境得到的二维图像及深度图像;
二维目标区域确定单元,用于从所述二维图像中确定目标物体对应的二维目标区域;所述目标物体为位于所述目标环境中的真实物体;
目标三维点云数据确定单元,用于根据所述二维目标区域的二维坐标信息及所述深度图像的信息,从所述目标环境的点云数据中分割出所述目标物体对应的目标三维点云数据;
配准单元,用于将所述目标三维点云数据与虚拟模型的预设点云数据进行三维配准,确定所述虚拟模型与所述目标物体之间的变换矩阵;
映射单元,用于根据所述变换矩阵,将所述虚拟模型映射到所述目标物体对应的区域进行显示。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,当所述处理器执行所述计算机程序时,使得电子设备实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,当所述计算机程序被处理器执行时,使得电子设备实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011429650.XA CN112581629B (zh) | 2020-12-09 | 2020-12-09 | 增强现实显示方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011429650.XA CN112581629B (zh) | 2020-12-09 | 2020-12-09 | 增强现实显示方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112581629A true CN112581629A (zh) | 2021-03-30 |
CN112581629B CN112581629B (zh) | 2024-05-28 |
Family
ID=75130375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011429650.XA Active CN112581629B (zh) | 2020-12-09 | 2020-12-09 | 增强现实显示方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112581629B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112991752A (zh) * | 2021-05-20 | 2021-06-18 | 武汉纵横智慧城市股份有限公司 | 基于ar与物联网道路车辆可视化展示方法、装置及设备 |
CN113256574A (zh) * | 2021-05-13 | 2021-08-13 | 中国科学院长春光学精密机械与物理研究所 | 一种三维目标检测方法 |
CN113345019A (zh) * | 2021-06-09 | 2021-09-03 | 山东信通电子股份有限公司 | 一种输电线路通道隐患目标测距方法、设备及介质 |
CN113570729A (zh) * | 2021-07-28 | 2021-10-29 | 上海哔哩哔哩科技有限公司 | 标记生成方法及装置、对象展示方法及装置 |
CN113808096A (zh) * | 2021-09-14 | 2021-12-17 | 成都主导软件技术有限公司 | 一种非接触式的螺栓松动检测方法及其系统 |
CN113838209A (zh) * | 2021-09-09 | 2021-12-24 | 深圳市慧鲤科技有限公司 | 目标环境的信息管理方法及相关增强现实的显示方法 |
CN113902927A (zh) * | 2021-12-09 | 2022-01-07 | 北京车网科技发展有限公司 | 一种融合了图像与点云信息的综合信息处理方法 |
CN114397958A (zh) * | 2021-12-07 | 2022-04-26 | 浙江大华技术股份有限公司 | 屏幕控制方法、装置、非触控屏系统和电子装置 |
CN114969917A (zh) * | 2022-05-25 | 2022-08-30 | 广州山水比德设计股份有限公司 | 一种3d植被图的生成方法、装置、电子设备和存储介质 |
WO2022213364A1 (zh) * | 2021-04-09 | 2022-10-13 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、终端及可读存储介质 |
CN115248501A (zh) * | 2021-04-27 | 2022-10-28 | 广州视享科技有限公司 | 增强现实设备的显示方法、装置和增强现实设备 |
CN115361576A (zh) * | 2022-07-20 | 2022-11-18 | 中国电信股份有限公司 | 视频数据处理方法、装置,以及,电子设备 |
CN115482269A (zh) * | 2022-09-22 | 2022-12-16 | 佳都科技集团股份有限公司 | 一种土方量计算方法、装置、终端设备以及存储介质 |
CN115546444A (zh) * | 2022-11-28 | 2022-12-30 | 上海牙典医疗器械有限公司 | 基于三维牙齿和牙冠配准的牙齿重建方法、系统及终端 |
CN115665400A (zh) * | 2022-09-06 | 2023-01-31 | 东软集团股份有限公司 | 增强现实抬头显示成像方法、装置、设备以及存储介质 |
CN115904294A (zh) * | 2023-01-09 | 2023-04-04 | 山东矩阵软件工程股份有限公司 | 一种环境可视化方法、系统、存储介质和电子设备 |
CN116310918A (zh) * | 2023-02-16 | 2023-06-23 | 东易日盛家居装饰集团股份有限公司 | 基于混合现实的室内关键物体识别定位方法、装置及设备 |
WO2023246189A1 (zh) * | 2022-06-24 | 2023-12-28 | 如你所视(北京)科技有限公司 | 图像信息显示方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3007136A1 (en) * | 2014-10-09 | 2016-04-13 | Huawei Technologies Co., Ltd. | Apparatus and method for generating an augmented reality representation of an acquired image |
CN106529573A (zh) * | 2016-10-14 | 2017-03-22 | 北京联合大学 | 一种结合三维点云分割和局部特征匹配的实时物体检测方法 |
CN108784832A (zh) * | 2017-04-26 | 2018-11-13 | 中国科学院沈阳自动化研究所 | 一种脊柱微创手术增强现实导航方法 |
CN111598770A (zh) * | 2020-05-15 | 2020-08-28 | 弗徕威智能机器人科技(上海)有限公司 | 一种基于三维数据和二维图像的物体检测方法和装置 |
-
2020
- 2020-12-09 CN CN202011429650.XA patent/CN112581629B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3007136A1 (en) * | 2014-10-09 | 2016-04-13 | Huawei Technologies Co., Ltd. | Apparatus and method for generating an augmented reality representation of an acquired image |
CN106529573A (zh) * | 2016-10-14 | 2017-03-22 | 北京联合大学 | 一种结合三维点云分割和局部特征匹配的实时物体检测方法 |
CN108784832A (zh) * | 2017-04-26 | 2018-11-13 | 中国科学院沈阳自动化研究所 | 一种脊柱微创手术增强现实导航方法 |
CN111598770A (zh) * | 2020-05-15 | 2020-08-28 | 弗徕威智能机器人科技(上海)有限公司 | 一种基于三维数据和二维图像的物体检测方法和装置 |
Non-Patent Citations (1)
Title |
---|
张雪 等: "基于轮廓分割的草莓叶片三维建模", 农业工程学报, vol. 33, no. 1, pages 206 - 209 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022213364A1 (zh) * | 2021-04-09 | 2022-10-13 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、终端及可读存储介质 |
CN115248501B (zh) * | 2021-04-27 | 2023-11-21 | 广州视享科技有限公司 | 增强现实设备的显示方法、装置和增强现实设备 |
CN115248501A (zh) * | 2021-04-27 | 2022-10-28 | 广州视享科技有限公司 | 增强现实设备的显示方法、装置和增强现实设备 |
CN113256574B (zh) * | 2021-05-13 | 2022-10-25 | 中国科学院长春光学精密机械与物理研究所 | 一种三维目标检测方法 |
CN113256574A (zh) * | 2021-05-13 | 2021-08-13 | 中国科学院长春光学精密机械与物理研究所 | 一种三维目标检测方法 |
CN112991752A (zh) * | 2021-05-20 | 2021-06-18 | 武汉纵横智慧城市股份有限公司 | 基于ar与物联网道路车辆可视化展示方法、装置及设备 |
CN113345019A (zh) * | 2021-06-09 | 2021-09-03 | 山东信通电子股份有限公司 | 一种输电线路通道隐患目标测距方法、设备及介质 |
CN113570729A (zh) * | 2021-07-28 | 2021-10-29 | 上海哔哩哔哩科技有限公司 | 标记生成方法及装置、对象展示方法及装置 |
CN113570729B (zh) * | 2021-07-28 | 2024-03-15 | 上海哔哩哔哩科技有限公司 | 标记生成方法及装置、对象展示方法及装置 |
CN113838209A (zh) * | 2021-09-09 | 2021-12-24 | 深圳市慧鲤科技有限公司 | 目标环境的信息管理方法及相关增强现实的显示方法 |
CN113808096A (zh) * | 2021-09-14 | 2021-12-17 | 成都主导软件技术有限公司 | 一种非接触式的螺栓松动检测方法及其系统 |
CN113808096B (zh) * | 2021-09-14 | 2024-01-30 | 成都主导软件技术有限公司 | 一种非接触式的螺栓松动检测方法及其系统 |
CN114397958A (zh) * | 2021-12-07 | 2022-04-26 | 浙江大华技术股份有限公司 | 屏幕控制方法、装置、非触控屏系统和电子装置 |
CN113902927A (zh) * | 2021-12-09 | 2022-01-07 | 北京车网科技发展有限公司 | 一种融合了图像与点云信息的综合信息处理方法 |
CN114969917A (zh) * | 2022-05-25 | 2022-08-30 | 广州山水比德设计股份有限公司 | 一种3d植被图的生成方法、装置、电子设备和存储介质 |
WO2023246189A1 (zh) * | 2022-06-24 | 2023-12-28 | 如你所视(北京)科技有限公司 | 图像信息显示方法和装置 |
CN115361576A (zh) * | 2022-07-20 | 2022-11-18 | 中国电信股份有限公司 | 视频数据处理方法、装置,以及,电子设备 |
CN115665400A (zh) * | 2022-09-06 | 2023-01-31 | 东软集团股份有限公司 | 增强现实抬头显示成像方法、装置、设备以及存储介质 |
CN115665400B (zh) * | 2022-09-06 | 2024-05-28 | 东软集团股份有限公司 | 增强现实抬头显示成像方法、装置、设备以及存储介质 |
CN115482269A (zh) * | 2022-09-22 | 2022-12-16 | 佳都科技集团股份有限公司 | 一种土方量计算方法、装置、终端设备以及存储介质 |
CN115546444B (zh) * | 2022-11-28 | 2023-03-10 | 上海牙典医疗器械有限公司 | 基于三维牙齿和牙冠配准的牙齿重建方法、系统及终端 |
CN115546444A (zh) * | 2022-11-28 | 2022-12-30 | 上海牙典医疗器械有限公司 | 基于三维牙齿和牙冠配准的牙齿重建方法、系统及终端 |
CN115904294A (zh) * | 2023-01-09 | 2023-04-04 | 山东矩阵软件工程股份有限公司 | 一种环境可视化方法、系统、存储介质和电子设备 |
CN115904294B (zh) * | 2023-01-09 | 2023-06-09 | 山东矩阵软件工程股份有限公司 | 一种环境可视化方法、系统、存储介质和电子设备 |
CN116310918A (zh) * | 2023-02-16 | 2023-06-23 | 东易日盛家居装饰集团股份有限公司 | 基于混合现实的室内关键物体识别定位方法、装置及设备 |
CN116310918B (zh) * | 2023-02-16 | 2024-01-09 | 东易日盛家居装饰集团股份有限公司 | 基于混合现实的室内关键物体识别定位方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112581629B (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112581629B (zh) | 增强现实显示方法、装置、电子设备及存储介质 | |
US20220036648A1 (en) | Method and terminal device for determining occluded area of virtual object | |
US10373380B2 (en) | 3-dimensional scene analysis for augmented reality operations | |
US10268917B2 (en) | Pre-segment point cloud data to run real-time shape extraction faster | |
CN113362446B (zh) | 基于点云数据重建对象的方法及装置 | |
US10853990B2 (en) | System and method for processing a graphic object | |
CN115439607A (zh) | 一种三维重建方法、装置、电子设备及存储介质 | |
CN109819226B (zh) | 在凸面体上投影的方法、投影设备及计算机可读存储介质 | |
CN111583381A (zh) | 游戏资源图的渲染方法、装置及电子设备 | |
CN114627244A (zh) | 三维重建方法及装置、电子设备、计算机可读介质 | |
CN111161398A (zh) | 一种图像生成方法、装置、设备及存储介质 | |
CN106997366B (zh) | 数据库构建方法、增强现实融合追踪方法及终端设备 | |
CN113240656B (zh) | 视觉定位方法及相关装置、设备 | |
CN111161348A (zh) | 一种基于单目相机的物体位姿估计方法、装置及设备 | |
CN113793349A (zh) | 目标检测方法及装置、计算机可读存储介质、电子设备 | |
CN117765039A (zh) | 点云粗配准方法、装置及设备 | |
CN113379826A (zh) | 物流件的体积测量方法以及装置 | |
CN117253022A (zh) | 一种对象识别方法、装置及查验设备 | |
CN117218364A (zh) | 三维目标检测方法、电子设备及存储介质 | |
CN114022358A (zh) | 一种激光相机与球幕相机的图像拼接方法、装置及服务器 | |
CN114546555B (zh) | 一种基于空间几何的图形拾取方法、装置及介质 | |
CN117422848B (zh) | 三维模型的分割方法及装置 | |
CN113157835B (zh) | 基于gis平台的图像处理方法、装置、平台及存储介质 | |
WO2024188110A1 (zh) | 一种基于复合数据生成城市三维纹理模型的方法和设备 | |
WO2024087137A1 (zh) | 一种渲染方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |