CN103500013B - 基于Kinect和流媒体技术的实时三维测图方法 - Google Patents
基于Kinect和流媒体技术的实时三维测图方法 Download PDFInfo
- Publication number
- CN103500013B CN103500013B CN201310490129.0A CN201310490129A CN103500013B CN 103500013 B CN103500013 B CN 103500013B CN 201310490129 A CN201310490129 A CN 201310490129A CN 103500013 B CN103500013 B CN 103500013B
- Authority
- CN
- China
- Prior art keywords
- stream media
- real
- kinect
- body sense
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
本发明公开了一种基于Kinect和流媒体技术的实时三维测图系统及方法,本发明系统包括:3D体感摄影机、流媒体终端、服务器和移动电源,流媒体终端固定于3D体感摄影机上,移动电源给3D体感摄影机提供电源,3D体感摄影机与服务器相连,服务器通过无线传输模块与流媒体终端相连。本发明以3D体感摄影机作为室内三维场景的扫描设备,使得三维测图更轻便、灵活、成本低廉,尤其适用于某些较拥挤、难携带大型设备及细节丰富的室内区域的实时三维测图。
Description
技术领域
本发明属于三维测图领域,特别涉及一种基于Kinect和流媒体技术的实时三维测图系统及方法。
背景技术
随着我国地理信息公共服务平台的不断深入,三维地理信息系统进一步从宏观走向精细,从室外走向室内。在这种形势下,传统技术不再适用,发展快速、轻便、全自动的新型室内三维测图技术(3DMapping)具有重要现实意义和应用前景。
当前室内场景三维测图技术主要基于LiDAR,LiDAR(LightDetectionAndRanging)是激光探测及测距系统的简称,其主要原理是用激光传感器通过计算激光回波时间,精确记录传感器与地物回波点之间的距离,由此可直接测量地面及地物各点的三维坐标。目前LiDAR在室内场景三维建模的使用中,主要是通过在多点架设固定站进行360度扫描,同时在通视位置布置标靶,将各固定站的场景进行配准和合并。(参考文献:VVerma,3dbuildingdetectionandmodelingfromaeriallidardata,ComputerVisionandPattern,2006)
相对于LiDAR,Kinect在形态和原理上具有较大不同。Kinect是一种微软开发并商品化生产的体感设备,它主要由一个彩色摄像头(RGBCamera)、一个红外线摄像头(IRCamera)和一个红外线投影仪(IRProjector)构成。通过红外线投影仪和摄像头的配合,Kinect能分析红外线立体像对以获取扫描对象的深度(距离)信息,从而建立对象的三维模型。因此Kinect能同时采集对象的深度和颜色信息,从而全自动完成模型的纹理映射。和笨重昂贵的LiDAR不同,Kinect廉价且轻便,价格约150美元,重量仅450克。(参考文献:https://www.ros.org/wiki/kinect_calibration/technical;Remondino,F.,HeritageRecordingand3DModelingwithPhotogrammetryand3DScanning.RemoteSensing,2011.)
作为Kinect的开发商,微软及其合作伙伴提供的基于Kinect的一种三维建模算法KinectFusion,可以实现利用一台围绕物体移动的kinect实时重建物体的三维模型。不同于简单的三维点云的拼接,该三维建模技术吸引人的特性在于:如果对物体进行持续扫描,三维重建精度可由粗到细逐渐提高,尤其适合应用在增强现实领域。该三维建模技术同时支持CPU和GPU级别的模型计算,核心思想是基于帧到帧表面追踪、实时建模和预测模式。(参考文献:RichardA.Newcombe,Shahramlzadi,KinectFusion:Real-TimeDenseSurfaceMappingandTracking,2011)
实时测图是一种新型测图概念,其理念与离线测图相对,在测图过程中允许人的参与,具有很高的灵活性。传统的离线测图在现场扫描完成后,再进行数据的离线建模。实时测图为移动测图,实时扫描、实时建模,并实时反馈当前建模结果给使用者。使用者根据当前建模结果,可对扫描过程进行动态调整,发挥主观能动性。传统离线测图对测图流程采用事先布置、事先计划的模式,当扫描数据出现问题,如遮挡、缺失、重影与粗误差等时,使用者并不实时知晓。当对数据进行离线建模得到反馈以后,补测工作已经较难进行,而实时测图则回避这种弊端。(参考文献:DLTulloch,Many,manymaps:Empowermentandonlineparticipatorymapping,2007;KurtKonoligeandMotilalAgrawal,Frame-FrameMatchingforRealtimeConsistentVisualMapping,IEEE,2007)。
发明内容
针对现有技术中离线测图存在的不足,本发明提供了一种轻便、灵活、成本低廉的基于Kinect和流媒体技术的实时三维测图系统及方法。
为解决上述问题,本发明采用如下技术方案:
一、一种基于Kinect和流媒体技术的实时三维测图系统,包括:3D体感摄影机、流媒体终端、服务器和移动电源,流媒体终端固定于3D体感摄影机上,移动电源给3D体感摄影机提供电源,3D体感摄影机与服务器相连,服务器通过无线传输模块与流媒体终端相连。
上述3D体感摄影机为微软公司的Kinect扫描设备。
上述流媒体终端为智能手机,优选安卓手机。
上述服务器为便携式电脑。
二、一种基于Kinect和流媒体技术的实时三维测图方法,包括:
通过3D体感摄影机采集室内场景的扫描数据,并将扫描数据传递至服务器,所述的扫描数据包括深度信息和颜色信息;
服务器基于扫描数据构建当前帧表面模型,基于当前帧表面模型实时更新全局体元模型并绘制反馈帧,将反馈帧发送至流媒体终端显示;
使用者根据流媒体终端显示的反馈帧调整扫描过程。
上述实时三维测图方法还包括特点:通过流媒体终端开启、暂定或关闭3D体感摄影机的扫描程序。
上述服务器和流媒体终端基于无线局域网络进行信息交互。
上述服务器基于扫描数据构建当前帧表面模型,基于当前帧表面模型实时更新全局体元模型并绘制反馈帧,将反馈帧发送至流媒体终端显示,具体为:
将扫描数据中的深度信息去噪后转换为三维点云,即当前帧表面模型;
将当前帧表面模型与全局体元模型的空间位置匹配,并反解出3D体感摄影机空间位置参数;
融合当前帧表面模型与全局体元模型获得更新后的全局体元模型,根据3D体感摄影机空间位置参数对更新后的全局体元模型进行光线渲染,光线渲染后的全局体元模型的截屏即为反馈帧。
上述使用者根据流媒体终端显示的反馈帧调整扫描过程,具体为:
若流媒体终端显示的反馈帧存在因遮挡造成的空洞,则移动3D体感摄影机并调整扫描角度以回避遮挡;或,以流媒体终端显示的反馈帧为目标进行重复扫描或采用“靠近”方式继续扫描,以加强当前帧表面模型重建精度。
目前,室内场景三维测图常采用昂贵且笨重的LiDAR激光扫描仪,需提前设置拍摄站点和标靶,扫描前期准备工作较长,且在拥挤环境中不易布站;所布扫描站不能移动,对于形态复杂、细节丰富的室内环境,易出现因遮挡导致的数据缺失等问题。由于扫描数据离线处理,不能实时检验扫描效果,导致扫描数据易存在粗误差、重影等缺陷。若采用手持LiDAR补测,也常因设备拍摄范围小、有效距离短等因素,导致采集效率较低;并且还存在测图工序相对复杂、后期拼接困难等问题。
与上述传统测图技术相比,本发明更灵活,且可实时发现扫描数据存在的问题,从而及时进行补测工作。
本发明的有益效果如下:
一、轻便、灵活、成本低廉。
本发明以3D体感摄影机作为室内三维场景的扫描设备。微软公司的Kinect扫描设备即为一种3D体感摄影机,Kinect扫描设备定价约150美元,重量仅450克,加上其他部件,价格不超过300美元,且系统重量较轻,单人即可轻松携带。对于某些较拥挤、难携带大型设备及细节丰富的室内区域(例如犯罪现场等场景)均也可进行测图,受空间环境影响小;同时,由于价格低廉,普通公众也具有购买能力;对于室内环境多变区域,可由公众自发进行数据更新,提高数据现势性。
二、实现实时测图。
使用时,使用者手持固定有流媒体终端的3D体感摄影机,将服务器和移动电源置于背包内背于身上。使用者可根据实际需要主动选择扫描路线和角度,可避免因遮挡而造成的场景数据的缺失。扫描数据实时发送至服务器,服务器处理扫描数据并将处理后获得的更新当前帧表面模型反馈至流媒体终端并显示。使用者根据流媒体终端上反馈的处理结果对扫描流程进行调整,以避免扫描数据的粗误差、重影等缺陷。
三、自动化程度高,测图精度高,测图效率高。
服务器根据接收到的实施扫描数据,将当前帧表面模型与总体场景模型之间自动实时匹配,相比于布置标靶等传统匹配方式,自动化程度更高,测图精度和测图效率也得到极大的改善。
四、前期工作耗时少,扫描效果好。
本发明无需在场景进行站点和标靶布置,单人携带本发明系统即可进场扫描,对场景环境无任何要求,且无前期准备工作;扫描过程可根据实际需求灵活取舍,对于感兴趣区域可通过重复扫描、靠近扫描等方式进行加强测图,对于墙壁、地板可快速扫描。
附图说明
图1为本发明系统结构框图;
图2为本发明系统的具体实施方式示意图;
图3为当前帧表面模型构建流程图;
图4为服务器将反馈帧以流媒体形式发送至客户端的流程图;
图5为流媒体终端处理交换指令的流程图。
图中,1-背包,2-电源线,3-数据线,4-移动电源,5-服务器,6-流媒体终端,7-3D体感摄影机,8-电缆。
具体实施方式
见图1~2,本发明系统包括:3D体感摄影机(7)、流媒体终端(6)、服务器(5)和移动电源(4)。流媒体终端(6)固定于3D体感摄影机(7)上,移动电源(4)给3D体感摄影机(7)提供电源,3D体感摄影机(7)与服务器(5)相连,服务器(5)通过无线传输模块与流媒体终端(6)相连。
固定有流媒体终端(6)的3D体感摄影机(7)为手持设备,服务器(5)和移动电源(4)置于背包(1)中。使用者背上背包(1),手持3D体感摄影机(7),对室内场景进行扫描。流媒体终端(6)与3D体感摄影机(7)通过无线网络方式进行信息交换。3D体感摄影机(7)通过电缆(8)与背包内置的服务器(5)和移动电源(4)相连,电缆(8)由数据线(3)和电源线(2)共线合成,电缆(8)一端与3D体感摄影机(7)相连,另一端分为电源接口和数据接口,电源接口与移动电源(4)相连,数据接口与服务器(5)的USB接口相连。
为达到便携的目的,本具体实施中采用的移动电源(4)外形尺寸为20cm*8cm*3cm,仅重约1.2kg;服务器(5)为便携式电脑;3D体感摄影机(7)为微软公司的Kinect扫描设备;流媒体终端(6)为智能手机,优选安卓手机。
3D体感摄影机(7)用来采集室内场景信息以获得扫描数据,并将扫描数据通过电缆(8)的数据接口传输至服务器(5),服务器(5)对接收的扫描数据实时建模获得当前帧表面模型,并将建模结果通过无线网络反馈于流媒体终端(6),使用者通过流媒体终端(6)显示的当前帧表面模型对扫描过程进行调整和控制。本发明中,流媒体终端除了能实时显示当前帧表面模型外,工作者还可以通过流媒体终端控制3D体感摄影机的扫描过程。
基于上述实时三维测图系统,本发明的实时三维测图方法包括步骤:
步骤一,通过流媒体终端开启3D体感摄影机,使3D体感摄影机进入扫描状态。
步骤二,移动3D体感摄影机采集室内场景的扫描数据,包括深度信息和颜色信息,并将扫描数据传递至服务器;本具体实施中,扫描数据以每秒30帧的速率传递至服务器。
步骤三,服务器实时处理扫描数据,基于扫描数据构建当前帧表面模型,基于当前帧表面模型实时更新全局体元模型并绘制反馈帧。
步骤四,将反馈帧在无线网络中发布,流媒体终端接收并实时显示。
步骤五,使用者根据流媒体终端显示的反馈帧调整扫描过程,例如:若流媒体终端显示的反馈帧存在因遮挡造成的空洞,则移动Kinect扫描设备并调整扫描角度以回避遮挡;若对细节对象等感兴趣,则以该细节对象为目标进行重复扫描,逐渐加强模型重建精度,也可采用“靠近”方式提高目标的扫描精度。
步骤六,移动Kinect扫描设备并重复步骤二~五,直到完成室内全部场景的扫描,通过流媒体终端关闭Kinect扫描设备的扫描状态。
下面将详细说明本发明的具体实现方式。
下述,流媒体终端以安卓手机为例,服务器以便携式电脑为例,3D体感摄影机以Kinect扫描设备为例。
(1)建立服务器和客户端环境。
本具体实施中,客户端指流媒体终端。首先,建立无线局域网络环境,具体建立方法可根据现场实际情况决定。
检索并记录便携式电脑的IP地址。在便携式电脑上的Kinect扫描程序上新建两个服务器进程:流媒体服务器进程和交互服务器进程。流媒体服务器用来将便携式电脑更新后的当前帧实时发送至客户端,设置流媒体服务器独立端口号(如5556),模式为“PUB”,PUB模式表示单向数据分发(Publish),即,流媒体服务器推送一组更新当前帧到客户端,无需要客户端回应。交互服务器用来回应客户端并发送各种指令,设置交互服务器独立端口号(如5555),模式为“REP”(Reply)。“REP”模式与下述“REQ”模式配合,为一种双向消息模式,必须得到对方回应后才能继续发送,从而可保证数据安全性。
同理,在安卓手机上的Kinect扫描程序建立两个客户端线程:流媒体客户端线程和交互客户端线程。流媒体客户端绑定便携式电脑IP的流媒体服务器端口(如5556),流媒体客户端模式为“SUB”(Subscribe),流媒体客户端用来接收便携式电脑发送的更新后的当前帧。交互客户端绑定便携式电脑的交互服务器端口(如5556),交互客户端模式为“REQ”(Request),交互客户端用来与便携式电脑发送并回应各种指令。
(2)Kinect扫描设备的扫描和建模。
Kinect扫描设备扫描的每幅深度信息可理解成场景的帧表面模型,本具体实施中,便携式电脑采用体重构技术基于扫描数据构建帧表面模型,具体为:
(a)预定义三维空间,将该三维空间细分成连续规整的体元,获得初始全局体元模型。初始时,各体元中均不包含任何数据。对当前深度信息去噪后转换为三维点云,即当前帧表面模型;通过多规模ICP(IterativeClosestPoint,迭代最近点)配准算法,将当前帧表面模型与全局体元模型的空间位置匹配,从而将各当前帧表面模型归化于同一坐标系下,并由此反解出Kinect扫描设备位置参数。
(b)通过TSDF(TruncatedSignedDistanceFunction,截断有向距离函数)将各当前帧表面模型与全局体元模型进行融合得到更新后的全局体元模型,具体为:利用TSDF计算三维空间任意点的值,从而生成有向距离场;场的正负相交处则为重建物体表面。该方法能很好地延续表面的弯曲趋势,并且能够很好地修复模型表面的空洞。同一个场景表面从不同方向有多幅深度数据,因此数据融合的时候应对多幅深度数据加权求平均,这样还可逐渐提高该场景表面的重建精度。
(c)同时,根据Kinect扫描设备位置参数,对融合后的更新后的全局体元模型进行光线跟踪(RayCasting),由此对当前影像范围的更新后的全局体元模型进行光影渲染;并将渲染后的全局体元模型作为反馈帧,输出至流媒体终端并显示,以使使用者对扫描效果进行检验。扫描结束后,最终全局体元模型即为扫描获得的室内三维场景模型。
(3)服务器将更新帧以流媒体形式发送至客户端并在客户端显示。
见图4。由“流媒体服务器”监听Kinect扫描程序主进程,每当更新帧生成便将更新帧内存位置传递进来。更新帧数据流为30Hz三通道640x480图像,其高达27M每秒,网络难以负担,所以,本具体实施采用Jpeg压缩模式对更新帧数据进行压缩,压缩后每秒数据流降至150K。接下来“流媒体服务器”将压缩数据进行编码(encode)并发送,具体编码方式为:根据压缩数据长度对压缩数据分组,各组根据已有协议加上表头信息,并在流媒体服务器端口进行发布。
与之对应,流媒体终端的“流媒体客户端”监听流媒体服务器端口,当流媒体服务器端口有新数据发布时则接收并解码数据,接收模式为异步通信模式(AsynchronousMessagePassing)。具体接收方式为分组接收数据,即,根据表头信息将各小组重新组合成完整的数据,即压缩图像;然后,将压缩图像的内存位置发送给主线程,主线程反解码压缩文件,获得位图(Bitmap)形式的图像;最后,在流媒体终端设定区域显示图像。
(4)流媒体终端接收并处理各种交互指令。
见图5。流媒体终端接受使用者的各种指令,如开始、结束、暂停等。交互客户端将指令相应的编号在交互服务器端口以“请求”(Request)形式发送,交互服务器接收到交互客户端发送的编号后与操作指令库进行匹配,如果无对应操作指令则“回应”(Reply)交互客户端其指令无效;如有相应操作指令则执行(如,开启或关闭相应的线程),并回应交互客户端“处理完毕”。
Claims (7)
1.基于Kinect和流媒体技术的实时三维测图方法,其特征是,包括:
通过3D体感摄影机采集室内场景的扫描数据,并将扫描数据传递至服务器,所述的扫描数据包括深度信息和颜色信息;
服务器基于扫描数据构建当前帧表面模型,基于当前帧表面模型实时更新全局体元模型并绘制反馈帧,将反馈帧发送至流媒体终端显示;本步骤具体为:
将扫描数据中的深度信息去噪后转换为三维点云,即当前帧表面模型;
将当前帧表面模型与全局体元模型的空间位置匹配,并反解出3D体感摄影机空间位置参数;
融合当前帧表面模型与全局体元模型获得更新后的全局体元模型,根据3D体感摄影机空间位置参数对更新后的全局体元模型进行光线渲染,光线渲染后的全局体元模型的截屏即为反馈帧;
使用者根据流媒体终端显示的反馈帧调整扫描过程;
所述的流媒体终端固定于3D体感摄影机上,移动电源给3D体感摄影机提供电源,3D体感摄影机与服务器相连,服务器通过无线传输模块与流媒体终端相连。
2.如权利要求1所述的基于Kinect和流媒体技术的实时三维测图方法,其特征是:
通过流媒体终端开启、暂定或关闭3D体感摄影机扫描程序。
3.如权利要求1所述的基于Kinect和流媒体技术的实时三维测图方法,其特征在于:
所述的使用者根据流媒体终端显示的反馈帧调整扫描过程,具体为:
若流媒体终端显示的反馈帧存在因遮挡造成的空洞,则移动3D体感摄影机并调整扫描角度以回避遮挡。
4.如权利要求1所述的基于Kinect和流媒体技术的实时三维测图方法,其特征在于:
所述的使用者根据流媒体终端显示的反馈帧调整扫描过程,具体为:
以流媒体终端显示的反馈帧为目标进行重复扫描或采用“靠近”方式继续扫描。
5.如权利要求1所述的基于Kinect和流媒体技术的实时三维测图方法,其特征在于:
所述的3D体感摄影机为微软公司的Kinect扫描设备。
6.如权利要求1所述的基于Kinect和流媒体技术的实时三维测图方法,其特征在于:
所述的流媒体终端为智能手机。
7.如权利要求1所述的基于Kinect和流媒体技术的实时三维测图方法,其特征在于:
所述的服务器为便携式电脑。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310490129.0A CN103500013B (zh) | 2013-10-18 | 2013-10-18 | 基于Kinect和流媒体技术的实时三维测图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310490129.0A CN103500013B (zh) | 2013-10-18 | 2013-10-18 | 基于Kinect和流媒体技术的实时三维测图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103500013A CN103500013A (zh) | 2014-01-08 |
CN103500013B true CN103500013B (zh) | 2016-05-11 |
Family
ID=49865232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310490129.0A Expired - Fee Related CN103500013B (zh) | 2013-10-18 | 2013-10-18 | 基于Kinect和流媒体技术的实时三维测图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103500013B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019091116A1 (en) * | 2017-11-10 | 2019-05-16 | Guangdong Kang Yun Technologies Limited | Systems and methods for 3d scanning of objects by providing real-time visual feedback |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103888738B (zh) * | 2014-04-03 | 2016-09-28 | 华中师范大学 | 一种多源多面阵无人车gis数据采集平台 |
CN104123751A (zh) * | 2014-07-24 | 2014-10-29 | 福州大学 | Kinect与关节臂结合的复合式测量和三维重建方法 |
CN104363673A (zh) * | 2014-09-17 | 2015-02-18 | 张灏 | 一种基于人体识别的按需照明节能控制系统 |
CN104639912A (zh) * | 2015-02-11 | 2015-05-20 | 尼森科技(湖北)有限公司 | 一种基于红外三维成像的单兵消防救灾设备与系统 |
CN104660995B (zh) * | 2015-02-11 | 2018-07-31 | 尼森科技(湖北)有限公司 | 一种救灾救援可视系统 |
CN106548466B (zh) * | 2015-09-16 | 2019-03-29 | 富士通株式会社 | 三维重建对象的方法和设备 |
CN105654492B (zh) * | 2015-12-30 | 2018-09-07 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
CN107798704B (zh) * | 2016-08-30 | 2021-04-30 | 成都理想境界科技有限公司 | 一种用于增强现实的实时图像叠加方法及装置 |
CN106412559B (zh) * | 2016-09-21 | 2018-08-07 | 北京物语科技有限公司 | 全视觉摄像装置 |
CN107749998B (zh) * | 2017-10-23 | 2020-03-31 | 西华大学 | 一种便携式3d扫描仪的流媒体可视化方法 |
CN108332660B (zh) * | 2017-11-10 | 2020-05-05 | 广东康云多维视觉智能科技有限公司 | 机器人三维扫描系统和扫描方法 |
CN108362223B (zh) * | 2017-11-24 | 2020-10-27 | 广东康云多维视觉智能科技有限公司 | 一种便携式3d扫描仪、扫描系统和扫描方法 |
CN108322742B (zh) * | 2018-02-11 | 2019-08-16 | 北京大学深圳研究生院 | 一种基于帧内预测的点云属性压缩方法 |
CN109509215B (zh) * | 2018-10-30 | 2022-04-01 | 浙江大学宁波理工学院 | 一种KinFu的点云辅助配准装置及其方法 |
CN114327334A (zh) * | 2021-12-27 | 2022-04-12 | 苏州金羲智慧科技有限公司 | 基于光线分析的环境信息传递系统及其传递方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102824176A (zh) * | 2012-09-24 | 2012-12-19 | 南通大学 | 一种基于Kinect传感器的上肢关节活动度测量方法 |
CN102938142A (zh) * | 2012-09-20 | 2013-02-20 | 武汉大学 | 基于Kinect的室内LiDAR缺失数据填补方法 |
CN103220543A (zh) * | 2013-04-25 | 2013-07-24 | 同济大学 | 基于Kinect的实时3D视频通信系统及其实现方法 |
-
2013
- 2013-10-18 CN CN201310490129.0A patent/CN103500013B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102938142A (zh) * | 2012-09-20 | 2013-02-20 | 武汉大学 | 基于Kinect的室内LiDAR缺失数据填补方法 |
CN102824176A (zh) * | 2012-09-24 | 2012-12-19 | 南通大学 | 一种基于Kinect传感器的上肢关节活动度测量方法 |
CN103220543A (zh) * | 2013-04-25 | 2013-07-24 | 同济大学 | 基于Kinect的实时3D视频通信系统及其实现方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019091116A1 (en) * | 2017-11-10 | 2019-05-16 | Guangdong Kang Yun Technologies Limited | Systems and methods for 3d scanning of objects by providing real-time visual feedback |
Also Published As
Publication number | Publication date |
---|---|
CN103500013A (zh) | 2014-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103500013B (zh) | 基于Kinect和流媒体技术的实时三维测图方法 | |
Chen et al. | Real-time 3D unstructured environment reconstruction utilizing VR and Kinect-based immersive teleoperation for agricultural field robots | |
US9648346B2 (en) | Multi-view video compression and streaming based on viewpoints of remote viewer | |
CN107274469A (zh) | 面向虚拟现实的协同渲染方法 | |
CN111415416A (zh) | 一种监控实时视频与场景三维模型融合方法及系统 | |
CN107330978B (zh) | 基于位置映射的增强现实建模体验系统及方法 | |
KR20190089957A (ko) | 부정합 검출 시스템, 복합 현실 시스템, 프로그램 및 부정합 검출 방법 | |
US11212507B2 (en) | Method and apparatus for processing three-dimensional images | |
CN109461210B (zh) | 一种在线家装的全景漫游方法 | |
Mossel et al. | Streaming and exploration of dynamically changing dense 3d reconstructions in immersive virtual reality | |
CN112270736B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN111241615A (zh) | 一种高度真实感的变电站多源融合三维建模方法 | |
CN110268225A (zh) | 在地图上定位设备的方法、服务端及移动机器人 | |
CN104376596A (zh) | 一种基于单幅图像的三维场景结构建模与注册方法 | |
CN103650001A (zh) | 动画分发服务器、动画播放装置、控制方法、程序、及记录介质 | |
CN109102566A (zh) | 一种变电站的室内外实景重建方法及其装置 | |
CN113487723B (zh) | 基于可量测全景三维模型的房屋在线展示方法及系统 | |
CN113379901A (zh) | 利用大众自拍全景数据建立房屋实景三维的方法及系统 | |
JP2018106661A (ja) | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 | |
CN109685893A (zh) | 空间一体化建模方法及装置 | |
CN105468154B (zh) | 电力系统运营互动全景展示系统 | |
CN114531700A (zh) | 一种非人工的基站天线工参采集系统及方法 | |
CN113532424A (zh) | 一种获取多维信息的一体化设备与协同测量方法 | |
CN111288970A (zh) | 一种便携式带电距离测量装置 | |
Rajan et al. | A realistic video avatar system for networked virtual environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160511 Termination date: 20211018 |
|
CF01 | Termination of patent right due to non-payment of annual fee |