CN103561258A - 一种Kinect深度视频时空联合修复方法 - Google Patents

一种Kinect深度视频时空联合修复方法 Download PDF

Info

Publication number
CN103561258A
CN103561258A CN201310442055.3A CN201310442055A CN103561258A CN 103561258 A CN103561258 A CN 103561258A CN 201310442055 A CN201310442055 A CN 201310442055A CN 103561258 A CN103561258 A CN 103561258A
Authority
CN
China
Prior art keywords
depth
image
color
region
kinect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310442055.3A
Other languages
English (en)
Other versions
CN103561258B (zh
Inventor
张冬冬
姚烨
刘典
陈艳毓
臧笛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201310442055.3A priority Critical patent/CN103561258B/zh
Publication of CN103561258A publication Critical patent/CN103561258A/zh
Application granted granted Critical
Publication of CN103561258B publication Critical patent/CN103561258B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种Kinect深度视频时空联合修复方法。基于具有相似颜色的邻域像素应当具有相似的深度值这一假设,对于第一帧深度图像和其后所有帧深度图像中提取出的运动区域,使用对应彩色图像的颜色分割图来引导深度填充。考虑到一些没有有效深度值的颜色偏暗区域的存在可能导致上述方法的失败,先检测出颜色偏暗区域,然后用相同颜色偏暗区域内的有效深度值修复空洞区域。对于Kinect拍摄到的深度视频中的静止区域,如果当前帧深度图出现空洞像素,则用前一帧深度图的对应位置深度值填充。使用基于深度图像的绘制技术绘制虚拟视点,本发明提出的方法对应得到的虚拟右视图的图像质量明显高于原始虚拟右视图的图像质量,可应用于3D绘制。

Description

一种Kinect深度视频时空联合修复方法
技术领域
本发明涉及图像/视频处理技术领域,可应用于3D绘制。
技术背景
三维立体电视已经被许多人认为能带来更自然、更生活化的视觉娱乐体验。随着立体显示技术和视频处理技术的发展,3D视频技术成为近年来的研究热点。目前,实现立体视频系统主要有两种方案:一种是多视方案,由多个摄像机阵列获取三维场景,在立体显示器上播放出来;另一种是“纹理+深度”方案,分别用彩色纹理视频和深度视频描述立体场景中的彩色纹理信息和深度信息,结合这两路视频信息,采用基于深度图像的绘制(DIBR)技术绘制虚拟视点,最后将合成的3D视频显示在显示器上。第二种方案相对于第一种方案,有数据传输带宽小、易于虚拟视点绘制等优点。
要获取深度信息,主要有两种方法:一是采用立体匹配算法被动获取深度信息,这种方法很难在算法复杂度和获取深度视频的质量上取得折中。二是使用深度摄像头主动获取深度信息,目前深度摄像头主要分为两类,一类是TOF(time of flight)摄像头,另一类是Kinect,它们都是通过发射和接收反射光或光斑来计算深度信息以实现深度信息的实时提取,也能够获取对应的实时彩色视频。Kinect因为其价格低廉,并且能提取相对较高分辨率的深度图,吸引了更多的关注。但是Kinect提取的深度视频质量较差,在遮挡区域、光滑物体表面存在较大的深度信息缺失空洞,并且同一静止区域的深度值也会随时间变化而产生变化,因此必须进行填充修复处理。
在已有的修复算法中,单纯的基于空间的修复算法比较多,对于深度视频中的光学噪声,一般采取中值滤波,双边滤波,联合双边滤波,线性插值等多种滤波方法进行噪声消减。例如文献1(参见Massimo Camplani and Luis Salgado.“Efficient Spatio-temporal Hole FillingStrategy for Kinect Depth Maps”,in Proceedings ofSPIE,82900E,2012.)中对于Kinect拍摄到的静态场景中空间域和时间域的相邻像素,迭代的使用一个联合双边滤波器去修复深度值。这些空间修复方法在消除细小空洞点,保护物体边界和平滑图像等方面效果显著。但是对于颜色偏暗区域或反光区域等容易产生大片空洞区域的填充修复,这些方法的效果并不明显。如果考虑到相似颜色块物体应当拥有相似深度值这点,填充修复大块空洞区域就可得到解决。另外受到光照影响,Kinect拍摄到的深度视频中背景物体在不同时刻的深度值并不稳定,有时甚至会出现空洞点的现象,因此基于时间的修复方法也需要引进。目前已经出现了一些基于时间的修复算法,例如文献2(参见Sung-Yeol Kim,Ji-Ho Cho,Andreas Koschan,andMongi A.Abidi,“Spatial and temporal enhancement of depth images captured by a time-of-flightdepth sensor”,in Proc.of the IEEE International Conference on Pattern Recognition(ICPR),pp.2358-2361,2010.)使用了一个联合双边滤波器和基于运动估计的时域连续来修复TOF摄像头获取的深度图像。这种方法能够有效地减少光学噪声和修复边界,但是却没有考虑反光和颜色偏暗区域的深度修复,而且这个方法的效果受到运动估计准确性的影响。
发明内容
针对大多数深度视频修复算法仅仅基于空间进行修复这个现象,本文提出了一种Kinect深度视频时空联合修复方法。基于具有相似颜色的邻域像素应当具有相似的深度值这一假设,对于第一帧深度图像和其后所有帧深度图像中提取出的运动区域,使用对应彩色图像的颜色分割图来引导深度填充。考虑到一些没有有效深度值的颜色偏暗区域的存在可能导致上述方法的失败,先检测出颜色偏暗区域,然后用相同颜色偏暗区域内的有效深度值修复空洞区域。对于Kinect拍摄到的深度视频中的静止区域,如果当前帧深度图出现空洞像素,则用前一帧深度图的对应位置深度值填充。概括地说,本发明给出技术方案实施步骤为:
步骤S1:对第一帧深度图,通过使用mean-shift算法对彩色图像进行颜色分割以获取对应的label图,接着对label图进行八联通域分割来进一步分离出各个连续的颜色块,当每一个颜色块内有效深度值所占比例超过一定阈值后,用该颜色块内所有有效深度值的中值填充空洞像素。
步骤S2:对于经过步骤S1修复后的第一帧深度图,通过将对应原始彩色RGB图像转换为YCbCr图像,对Y,Cb,Cr三分量分别设置阈值,将满足所有阈值条件的区域提取出来作为颜色偏暗区域,并且将空间上相连的区域标定为同块区域,使用同块区域内所有有效深度值的中值填充该块内的空洞像素,最后使用膨胀腐蚀操作修复深度图像中细小空洞区域。
步骤S3:对于第一帧之后的所有深度图像,通过对前后两帧彩图的灰度图进行差值处理,找出运动像素点,然后再将包含运动像素点的最小矩阵找出来,矩阵区域即视为运动区域,最后对运动区域进行步骤S1使用的空间修复。
步骤S4:对于第一帧之后的所有深度图像,在抠出矩形运动区域后,剩余的部分即是背景静止区域。若在静止区域出现空洞像素点,则用前一帧修复好的深度图的对应位置的深度值进行修复。
区别于现有技术,上述技术方案体现出具有技术贡献的关键技术要点:
1、针对大部分Kinect深度图像修复算法没有考虑对于颜色偏暗区域或反光区域等容易产生大片空洞区域的填充修复这个问题,本发明提出了颜色偏暗区域的空洞修复方法。首先要检测出颜色偏暗区域,通过将原始彩色RGB图像转换为YCbCr图像,对Y,Cb,Cr三分量分别设置阈值,将满足所有阈值条件的区域提取出来作为颜色偏暗区域。然后将空间上相连的区域标定为同块区域,使用同块区域内所有有效深度值的中值填充该块内的空洞像素。
2、本发明结合了空间修复算法和基于运动区域检测的时间修复算法,以解决单纯使用空间修复算法可能会出现的修复不准确和修复时间过长的问题,使得修复效果更优。
3、通过对颜色分割后得到的label图进一步进行八联通域分割来分离不连续分布的颜色块,使得颜色分割结果更准确。
4、在基于时间域的修复算法中,对检测出的运动点,用最小的矩阵区域包含它们,将矩阵区域视为运动区域,方便运动区域和静止区域的区分修复。
由此,与现有技术相比之,本发明方法技术方案具有的有益效果:颜色偏暗区域的空洞修复效果明显,在保证同样拍摄场景的前提下,使用本发明提出的Kinect深度视频修复方法得到的深度图像对比于原始深度图像,修复效果很好。使用基于深度图像的绘制(DIBR)技术绘制虚拟视点,本发明提出的方法对应得到的虚拟右视图的图像质量也明显高于原始虚拟右视图的图像质量。
附图说明
图1是本发明一种Kinect深度视频时空联合修复方法流程图。
图2是本发明实例Kinect拍摄到的三帧连续的彩色图像和深度图像。
图3是本发明实例Kinect拍摄到的第一帧经过步骤S1得到的(a)彩色图像颜色分割图和(b)修复后深度图。
图4是本发明实例Kinect拍摄到的第一帧经过步骤S2得到的(a)颜色偏暗区域(不同的颜色代表了不同的颜色偏暗区域,灰色区域不是偏暗区域)和(b)修复后深度图。
图5是本发明实例经过步骤S3得到的(a)第一帧灰度图,(b)第二帧灰度图,(c)第二帧的运动点分布图,(d)第二帧彩色图中放大后的运动区域子图,(e)第二帧运动区域对应的深度子图和(f)运动区域经过修复后的深度子图。
图6是本发明实例最终的效果图(a)未处理的深度图像,(b)修复后的深度图像,(c)未进行深度修复得到的虚拟右视图,(d)进行深度修复得到的虚拟右视图,(e)放大的(c)中的显示器区域,(f)放大的(d)中的显示器区域,(g)放大的(c)中的椅子右腿区域,(h)放大的(d)中的椅子右腿区域。
具体实施方式
下面以具体实例结合附图对本发明作进一步说明:
本发明使用由Kinect拍摄到的一段深度视频序列和对应的彩色视频序列来检测提出方法的效果。视频序列由100帧图像组成。图像分辨率是640×480。所有涉及实例采用MATLAB7作为仿真实验平台。
本发明的流程图如图1所示:对于第一帧深度图,只使用空间修复。使用其对应彩色图像的颜色分割图来引导初始的深度填充,然后对颜色偏暗区域进行空洞修复以进一步提高深度图质量。对于第一帧之后的所有深度图,首先提取出运动区域,单独对运动区域进行空间修复,然后用前一帧修复好的深度图对应位置的深度值填充余下静止区域内的空洞点。下面结合每个步骤详细描述本实例:
步骤(1),对当前需要修复的深度图像,这里选定实例图2中的第一帧深度图(d),先对其对应的彩色图像,即实例图2中的第一帧彩色图(a)进行mean-shift颜色分割,得到标识颜色信息的label图和颜色分割图,即实例图3(a)。设图像分辨率为n×m,每个像素点(i,j)都有一个代表颜色块索引的标签Lij,xij是该点的彩色值。对所有颜色数据聚类后,满足空间距离小于hC且颜色空间距离小于hL的一些点会被聚类。Cp代表特征集,q是所有特征个数。g(x)是图像特征空间中核函数的负导数。那么图像分割后得到的label图可用下式描述:
L ij = { p | z ij ∈ C p } p = 1,2 . . . , q z ij = lim k → ∞ Σ j = 1 m Σ i = 1 n x i g ( | | y k C - x ij C h C | | 2 ) g ( | | y k L - x ij L h L | | 2 ) Σ j = 1 m Σ i = 1 n g ( | | y k C - x ij C h C | | 2 ) g ( | | y k L - x ij L h L | | 2 ) y 1 = x ij - - - ( 1 )
考虑到一些具有相同颜色标签的区域并不相连,使用八联通域分割来进一步分离出各个连续的颜色块。设Dij k为第k个颜色块内空洞点(i,j)经过修复后的深度值,Sk是彩色图像中第k个颜色块,D(Sk)代表块内所有的有效深度值,n(Sk)是Sk中所有像素点个数,n(D(Sk))是Sk中拥有有效深度值的像素点个数,T是一个阈值。接下来就使用下式来填充空洞:
D ij k = median { D ( S k ) } if n ( D ( S k ) ) n ( S k ) ≥ T 0 Otherwise - - - ( 2 )
经过步骤(1)得到的修复后深度图如图3(b)所示。
步骤(2),经过步骤(1)修复后的深度图像仍可能存在大块的隶属于颜色偏暗区域的空洞点,为此首先将当前帧的原始彩色RGB图像转换为YCbCr图像,对Y,Cb,Cr三分量分别设置阈值,将满足所有阈值条件的区域提取出来作为颜色偏暗区域。设luma(i,j)为点(i,j)的Y分量值,blue_fiff(i,j)为蓝色色度差值,red_diff(i,j)为红色色度差值,Tluma,Tblue_diff和Tred_diff都是用大津法计算出来的阈值。l是设置为0.8的参数。采用下式后具有非零亮度值的区域就是颜色偏暗区域,图4(a)是从事例彩色图像图2(a)中提取出的颜色偏暗区域。
luma ( i , j ) = luma ( i , j ) if luma ( i , j ) ≤ λ T luma blue _ diff ( i , j ) ≤ T blue _ diff red _ diff ( i , j ) ≤ T red _ diff 0 Otherwise - - - ( 3 )
找到偏暗区域后,将空间上相连的区域标定为同块区域,使用同块区域内所有有效深度值Dxy的中值
Figure BDA0000387146780000057
填充该块内的空洞像素(i,j),如式4。最后使用半径为1,高度为3的椭圆结构元素的膨胀腐蚀操作(分别由and⊙表示)修复深度图像中细小空洞区域Dij,修复后深度值为
Figure BDA0000387146780000059
如式5。and⊙分别表示膨胀操作和腐蚀操作
D ~ ij = median Y D xy ( x , y ) ∈ the same dark region - - - ( 4 )
经过步骤(2)得到的修复后深度图如图4(b)所示。
步骤(3),对于第一帧之后的所有深度图,如式6所示,通过对前后两帧彩图的灰度图(图5(a)和(b))进行差值处理,用difference(i,j)表示点(i,j)的灰度差值,找出非零的motion_mask(i,j)对应的所有运动像素点(i,j),如图5(c)所示,再将包含运动像素点的最小矩阵找出来,矩阵区域即视为运动区域,图5(d)和(e)即分别是运动区域彩色子图和运动区域深度子图,最后对运动区域进行步骤(1)使用的空间修复,得到的修复后深度子图如图5(f)所示。
motion _ mask ( i , j ) = 1 if difference ( i , j ) ≥ T d 0 Otherwise - - - ( 6 )
步骤(4),对于第一帧之后的所有深度图像,在抠出矩形运动区域后,剩余的部分即是背景静止区域。若在静止区域出现空洞像素点(i,j),则用前一帧(第k-1帧)修复好的深度图的对应位置的深度值
Figure BDA0000387146780000055
进行修复,如下式所示:
D ~ ij k = D ~ ij k - 1 , ( i , j ) ∈ static area - - - ( 7 )
对于每一帧深度图而言,其都由修复后的运动区域深度图和静止区域深度图组成。
图6(a)和(b)分别显示了第三帧未处理的深度图和使用本发明处理后的深度图。使用DIBR技术绘制得到的对应右视图显示在图6(c)和(d)中。
从这些图像中,我们能够看出来本发明能够有效地修复深度图像,进而为3D绘制提供更清晰的深度图。用修复后的深度图像绘制的虚拟视图会比用原始Kinect拍摄到的深度图像绘制的虚拟视图具有更好的视觉质量。特别是一些比较重要的细节区域,如女孩的头发,显示器和椅子腿,修复后的深度图能够为3D绘制提供更平滑更好的纹理。
本发明的创新点:
Figure BDA0000387146780000061
采用了目前较少使用的时空联合的修复方法对由Kinect拍摄到的原始深度视频进行填充修复,提高了修复效率,效果显著。
Figure BDA0000387146780000062
提出了图像中颜色偏暗区域的查找方法,并对深度图中偏暗区域的空洞像素点进行了填充,取得了不错的效果。

Claims (1)

1.一种Kinect深度视频时空联合修复方法,其特征在于,包括步骤有,
步骤 S1:对第一帧深度图,通过使用mean-shift算法对彩色图像进行颜色分割以获取对应的label图,接着对label图进行八联通域分割来进一步分离出各个连续的颜色块,当每一个颜色块内有效深度值所占比例超过一定阈值后,用该颜色块内所有有效深度值的中值填充空洞像素;
步骤S2:对于经过步骤S1修复后的第一帧深度图,通过将对应原始彩色RGB图像转换为YCbCr图像,对Y, Cb, Cr三分量分别设置阈值,将满足所有阈值条件的区域提取出来作为颜色偏暗区域,并且将空间上相连的区域标定为同块区域,使用同块区域内所有有效深度值的中值填充该块内的空洞像素,最后使用膨胀腐蚀操作修复深度图像中细小空洞区域;
步骤S3:对于第一帧之后的所有深度图像,通过对前后两帧彩图的灰度图进行差值处理,找出运动像素点,然后再将包含运动像素点的最小矩阵找出来,矩阵区域即视为运动区域,最后对运动区域进行步骤S1使用的空间修复;
步骤S4:对于第一帧之后的所有深度图像,在抠出矩形运动区域后,剩余的部分即是背景静止区域;
若在静止区域出现空洞像素点,则用前一帧修复好的深度图的对应位置的深度值进行修复。
CN201310442055.3A 2013-09-25 2013-09-25 一种Kinect深度视频时空联合修复方法 Expired - Fee Related CN103561258B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310442055.3A CN103561258B (zh) 2013-09-25 2013-09-25 一种Kinect深度视频时空联合修复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310442055.3A CN103561258B (zh) 2013-09-25 2013-09-25 一种Kinect深度视频时空联合修复方法

Publications (2)

Publication Number Publication Date
CN103561258A true CN103561258A (zh) 2014-02-05
CN103561258B CN103561258B (zh) 2015-04-15

Family

ID=50015395

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310442055.3A Expired - Fee Related CN103561258B (zh) 2013-09-25 2013-09-25 一种Kinect深度视频时空联合修复方法

Country Status (1)

Country Link
CN (1) CN103561258B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103996174A (zh) * 2014-05-12 2014-08-20 上海大学 一种对Kinect深度图像进行空洞修复的方法
CN104299220A (zh) * 2014-07-10 2015-01-21 上海大学 一种对Kinect深度图像中的空洞进行实时填充的方法
CN105096311A (zh) * 2014-07-01 2015-11-25 中国科学院科学传播研究中心 基于gpu的深度图修复和虚实场景结合技术
CN105869115A (zh) * 2016-03-25 2016-08-17 浙江大学 一种基于kinect2.0的深度图像超分辨率方法
CN105894503A (zh) * 2016-03-30 2016-08-24 江苏大学 一种对Kinect植株彩色和深度检测图像的修复方法
CN106355611A (zh) * 2016-09-13 2017-01-25 江苏奥斯汀光电科技股份有限公司 一种基于时空间关联的裸眼3d超解像滤波方法
CN106355642A (zh) * 2016-08-31 2017-01-25 上海交通大学 一种基于深度图的绿色叶子的三维重建方法
CN106991370A (zh) * 2017-02-28 2017-07-28 中科唯实科技(北京)有限公司 基于颜色和深度的行人检索方法
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法
CN108399632A (zh) * 2018-03-02 2018-08-14 重庆邮电大学 一种联合彩色图像的rgb-d相机深度图像修复方法
CN108629756A (zh) * 2018-04-28 2018-10-09 东北大学 一种Kinect v2深度图像无效点修复方法
CN109949397A (zh) * 2019-03-29 2019-06-28 哈尔滨理工大学 一种结合激光点和均值漂移的深度图重建方法
CN110390681A (zh) * 2019-07-17 2019-10-29 海伯森技术(深圳)有限公司 一种基于深度相机的深度图物体轮廓快速提取方法及装置
CN112929628A (zh) * 2021-02-08 2021-06-08 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及存储介质
WO2021237471A1 (en) * 2020-05-26 2021-12-02 Baidu.Com Times Technology (Beijing) Co., Ltd. Depth-guided video inpainting for autonomous driving
WO2022188102A1 (zh) * 2021-03-11 2022-09-15 Oppo广东移动通信有限公司 深度图像的修复方法及装置、摄像头组件及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110081042A1 (en) * 2009-10-07 2011-04-07 Samsung Electronics Co., Ltd. Apparatus and method for adjusting depth
CN103220543A (zh) * 2013-04-25 2013-07-24 同济大学 基于Kinect的实时3D视频通信系统及其实现方法
CN103258078A (zh) * 2013-04-02 2013-08-21 上海交通大学 融合Kinect设备和Delmia环境的人机交互虚拟装配系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110081042A1 (en) * 2009-10-07 2011-04-07 Samsung Electronics Co., Ltd. Apparatus and method for adjusting depth
CN103258078A (zh) * 2013-04-02 2013-08-21 上海交通大学 融合Kinect设备和Delmia环境的人机交互虚拟装配系统
CN103220543A (zh) * 2013-04-25 2013-07-24 同济大学 基于Kinect的实时3D视频通信系统及其实现方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JINGJING FU,ET AL: "Kinect-like depth denoising", 《CIRCUITS AND SYSTEMS(ISCAS),2012 IEEE INTERNATIONAL SYMPOSIUM ON》, 23 May 2012 (2012-05-23), pages 512 - 515 *
SUNG-YEOL KIM,ET AL: "Spatial and Temporal Enhancement of Depth Images Captured by a Time-of-flight Depth Sensor", 《2010 INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》, 31 December 2010 (2010-12-31), pages 2358 - 2361 *
YU YU,ET AL: "A Shadow Repair Approach for Kinect Depth Maps", 《COMPUTER VISION - ACCV 2012,PART Ⅳ》, 9 November 2012 (2012-11-09), pages 615 - 626, XP047027216 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103996174B (zh) * 2014-05-12 2017-05-10 上海大学 一种对Kinect深度图像进行空洞修复的方法
CN103996174A (zh) * 2014-05-12 2014-08-20 上海大学 一种对Kinect深度图像进行空洞修复的方法
CN105096311A (zh) * 2014-07-01 2015-11-25 中国科学院科学传播研究中心 基于gpu的深度图修复和虚实场景结合技术
CN104299220A (zh) * 2014-07-10 2015-01-21 上海大学 一种对Kinect深度图像中的空洞进行实时填充的方法
CN104299220B (zh) * 2014-07-10 2017-05-31 上海大学 一种对Kinect深度图像中的空洞进行实时填充的方法
CN105869115B (zh) * 2016-03-25 2019-02-22 浙江大学 一种基于kinect2.0的深度图像超分辨率方法
CN105869115A (zh) * 2016-03-25 2016-08-17 浙江大学 一种基于kinect2.0的深度图像超分辨率方法
CN105894503A (zh) * 2016-03-30 2016-08-24 江苏大学 一种对Kinect植株彩色和深度检测图像的修复方法
CN105894503B (zh) * 2016-03-30 2019-10-01 江苏大学 一种对Kinect植株彩色和深度检测图像的修复方法
CN106355642A (zh) * 2016-08-31 2017-01-25 上海交通大学 一种基于深度图的绿色叶子的三维重建方法
CN106355642B (zh) * 2016-08-31 2019-04-02 上海交通大学 一种基于深度图的绿色叶子的三维重建方法
CN106355611B (zh) * 2016-09-13 2019-03-22 江苏奥斯汀光电科技股份有限公司 一种基于时空间关联的裸眼3d超解像滤波方法
CN106355611A (zh) * 2016-09-13 2017-01-25 江苏奥斯汀光电科技股份有限公司 一种基于时空间关联的裸眼3d超解像滤波方法
CN106991370A (zh) * 2017-02-28 2017-07-28 中科唯实科技(北京)有限公司 基于颜色和深度的行人检索方法
CN106991370B (zh) * 2017-02-28 2020-07-31 中科唯实科技(北京)有限公司 基于颜色和深度的行人检索方法
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法
CN108399632A (zh) * 2018-03-02 2018-08-14 重庆邮电大学 一种联合彩色图像的rgb-d相机深度图像修复方法
CN108399632B (zh) * 2018-03-02 2021-06-15 重庆邮电大学 一种联合彩色图像的rgb-d相机深度图像修复方法
CN108629756A (zh) * 2018-04-28 2018-10-09 东北大学 一种Kinect v2深度图像无效点修复方法
CN108629756B (zh) * 2018-04-28 2021-06-25 东北大学 一种Kinectv2深度图像无效点修复方法
CN109949397A (zh) * 2019-03-29 2019-06-28 哈尔滨理工大学 一种结合激光点和均值漂移的深度图重建方法
CN110390681A (zh) * 2019-07-17 2019-10-29 海伯森技术(深圳)有限公司 一种基于深度相机的深度图物体轮廓快速提取方法及装置
CN110390681B (zh) * 2019-07-17 2023-04-11 海伯森技术(深圳)有限公司 一种基于深度相机的深度图物体轮廓快速提取方法及装置
US11282164B2 (en) 2020-05-26 2022-03-22 Baidu Usa Llc Depth-guided video inpainting for autonomous driving
WO2021237471A1 (en) * 2020-05-26 2021-12-02 Baidu.Com Times Technology (Beijing) Co., Ltd. Depth-guided video inpainting for autonomous driving
CN112929628A (zh) * 2021-02-08 2021-06-08 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及存储介质
CN112929628B (zh) * 2021-02-08 2023-11-21 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及存储介质
WO2022188102A1 (zh) * 2021-03-11 2022-09-15 Oppo广东移动通信有限公司 深度图像的修复方法及装置、摄像头组件及电子设备

Also Published As

Publication number Publication date
CN103561258B (zh) 2015-04-15

Similar Documents

Publication Publication Date Title
CN103561258B (zh) 一种Kinect深度视频时空联合修复方法
CN105069808B (zh) 基于图像分割的视频图像深度估计方法
CN108564041B (zh) 一种基于rgbd相机的人脸检测和修复方法
TWI524734B (zh) 產生深度圖的方法及裝置
CN109462747B (zh) 基于生成对抗网络的dibr系统空洞填充方法
CN101765022B (zh) 一种基于光流与图像分割的深度表示方法
CN101699512B (zh) 一种基于背景差异抠图和稀疏光流法的深度的生成方法
Cheng et al. A novel 2Dd-to-3D conversion system using edge information
RU2382406C1 (ru) Способ улучшения карты диспарантности и устройство для реализации способа
CN103996174B (zh) 一种对Kinect深度图像进行空洞修复的方法
CN101271578A (zh) 一种平面视频转立体视频技术中的深度序列生成方法
CN103905813B (zh) 基于背景提取与分区修复的dibr空洞填补方法
CN105374039B (zh) 基于轮廓锐度的单目图像深度信息估计方法
CN102609950B (zh) 一种二维视频深度图的生成方法
CN107622480B (zh) 一种Kinect深度图像增强方法
CN105404888A (zh) 结合颜色和深度信息的显著性目标检测方法
CA2988360A1 (en) Method and apparatus for determining a depth map for an image
Xu et al. A method of hole-filling for the depth map generated by Kinect with moving objects detection
CN106447718B (zh) 一种2d转3d深度估计方法
KR101125061B1 (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法
JP5210416B2 (ja) 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
CN104661014B (zh) 时空结合的空洞填充方法
Yang et al. Depth map generation from a single image using local depth hypothesis
KR20140040407A (ko) 영상특성을 이용한 스테레오 매칭장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150415

Termination date: 20170925

CF01 Termination of patent right due to non-payment of annual fee