CN107105214A - 一种三维视频图像重定位方法 - Google Patents

一种三维视频图像重定位方法 Download PDF

Info

Publication number
CN107105214A
CN107105214A CN201710155439.5A CN201710155439A CN107105214A CN 107105214 A CN107105214 A CN 107105214A CN 201710155439 A CN201710155439 A CN 201710155439A CN 107105214 A CN107105214 A CN 107105214A
Authority
CN
China
Prior art keywords
mrow
coordinate position
value
dimensional
curved surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710155439.5A
Other languages
English (en)
Other versions
CN107105214B (zh
Inventor
邵枫
林文崇
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huzhou You Yan Intellectual Property Service Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201710155439.5A priority Critical patent/CN107105214B/zh
Publication of CN107105214A publication Critical patent/CN107105214A/zh
Application granted granted Critical
Publication of CN107105214B publication Critical patent/CN107105214B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种三维视频图像重定位方法,其通过提取左视点彩色图像的形状保护能量项、边界弯曲度能量项和舒适度保持能量项,并通过优化获取最佳相似变换矩阵,这样使得获得的重定位三维视频图像能够较好地保留重要的显著语义信息且保持视觉舒适性;其对三维视频图像在三维显示空间的水平坐标位置、垂直坐标位置和深度坐标位置同时进行调整,这样能保证重定位后的深度图像的深度值与重定位后的像素点的坐标位置是匹配的,从而能够保证重定位后的三维视频图像的舒适性。

Description

一种三维视频图像重定位方法
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种三维视频图像重定位方法。
背景技术
随着立体显示技术的快速发展,各种具有不同立体显示功能的立体显示终端也广泛出现,但是,由于立体显示终端的种类繁多,宽/高比规格不一,因此若将宽/高比一定的图像放在不同的立体显示终端上显示,则必须先对图像的尺寸进行调整,以达到立体显示的效果。传统的图像缩放方法是通过裁剪或者是按固定比例进行缩放,然而这样做可能会出现图像中的内容减少或者导致显著物体形变。
对于三维视频图像而言,如果将彩色图像的缩放关系直接应用到深度图像,则由于重定位后相机场景几何已发生严重变化,而若还保持深度值不变则会严重影响虚拟视点绘制效果,从而引起立体深度感发生变化,严重时会导致视觉不舒适,因此,如何对三维视频图像的彩色图像和深度图像同时进行缩放以减少图像形变、突出显著内容,同时如何保证缩放后的彩色图像和深度图像的视差/深度分布的一致性,从而降低视觉不舒适、增强深度感,都是在对三维视频图像进行重定位过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种符合显著语义特征,且能够有效地调整三维视频图像尺寸大小的三维视频图像重定位方法。
本发明解决上述技术问题所采用的技术方案为:一种三维视频图像重定位方法,其特征在于包括以下步骤:
①将待处理的三维视频图像的左视点彩色图像、右视点彩色图像、左视点深度图像及右视点深度图像对应记为{IL(x,y)}、{IR(x,y)}、{DL(x,y)}及{DR(x,y)},其中,(x,y)表示待处理的三维视频图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示待处理的三维视频图像的宽度,H表示待处理的三维视频图像的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,DL(x,y)表示{DL(x,y)}中坐标位置为(x,y)的像素点的像素值,DR(x,y)表示{DR(x,y)}中坐标位置为(x,y)的像素点的像素值;
②将{IL(x,y)}和{DL(x,y)}分割成个互不重叠的尺寸大小为40×40的四边形网格;然后以{IL(x,y)}中的每个四边形网格的左上、左下、右上和右下4个网格顶点的集合来描述{IL(x,y)}中的每个四边形网格,将{IL(x,y)}中的第k个四边形网格记为UL,k其中,1≤k≤M, 对应表示UL,k的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,
③计算{DL(x,y)}中的每个像素点的场景深度值,将{DL(x,y)}中坐标位置为(x,y)的像素点的场景深度值记为zL(x,y),然后计算{IL(x,y)}中的每个像素点在{IR(x,y)}中的对应坐标位置,将{IL(x,y)}中坐标位置为(x,y)的像素点在{IR(x,y)}中的对应坐标位置记为(xR,yR),xR=x'/w',yR=y'/w',接着计算{IL(x,y)}中的每个像素点的水平视差值,将{IL(x,y)}中坐标位置为(x,y)的像素点的水平视差值记为dL(x,y),dL(x,y)=xR-x;其中,znear表示最小的场景深度值,zfar表示最大的场景深度值,R1为左视点相机的旋转矩阵,A1为左视点相机的内参矩阵,T1为左视点相机的平移矩阵,R2为右视点相机的旋转矩阵,A2为右视点相机的内参矩阵,T2为右视点相机的平移矩阵,A1 -1为A1的逆矩阵,R2 -1为R2的逆矩阵;
④根据{IL(x,y)}中的每个四边形网格,获取对应的三维曲面网格,以{IL(x,y)}中的每个三维曲面网格的左上、左下、右上和右下4个网格顶点的集合来描述{IL(x,y)}中的每个三维曲面网格,将根据UL,k获取的对应的三维曲面网格记为VL,k其中,对应表示VL,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, de表示待处理的三维视频图像的左视点与右视点之间的水平基线距离,LD表示待处理的三维视频图像的左视点和右视点与显示器之间的观看距离,Wd表示显示器的水平宽度,R表示显示器的水平分辨率,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值;
⑤根据{IL(x,y)}中的所有三维曲面网格对应的P个候选目标三维曲面网格,对{IL(x,y)}中的每个三维曲面网格的各个网格顶点分别进行相似变换,使得原三维曲面网格与原三维曲面网格经过相似变换后得到的候选目标三维曲面网格的变换误差最小,得到{IL(x,y)}中的每个三维曲面网格对应的各个候选目标三维曲面网格的相似变换矩阵,将VL,k对应的第p个候选目标三维曲面网格的相似变换矩阵记为 其中,1≤p≤P,表示VL,k对应的第p个候选目标三维曲面网格, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,表示的第i个网格顶点,i=1,2,3,4, 对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,(AL,k)T为AL,k的转置,((AL,k)TAL,k)-1为(AL,k)TAL,k的逆;
⑥获取{DL(x,y)}中的每个像素点的左方向最大可容忍失真值和右方向最大可容忍失真值;然后根据{DL(x,y)}中的每个像素点的左方向最大可容忍失真值和右方向最大可容忍失真值,提取出{DL(x,y)}的最大可容忍失真分布图像,记为{SL(x,y)};其中,SL(x,y)表示{SL(x,y)}中坐标位置为(x,y)的像素点的像素值,亦表示{DL(x,y)}中坐标位置为(x,y)的像素点的最大可容忍失真值;
⑦采用基于图论的视觉显著模型提取出{IL(x,y)}的显著图,记为{ML(x,y)};然后根据{ML(x,y)}和{SL(x,y)},获取{IL(x,y)}的视觉显著图,记为中坐标位置为(x,y)的像素点的像素值记为 其中,ML(x,y)表示{ML(x,y)}中坐标位置为(x,y)的像素点的像素值,λ1表示ML(x,y)的权重,λ2表示SL(x,y)的权重,λ12=1;
⑧根据{IL(x,y)}中的每个三维曲面网格对应的各个候选目标三维曲面网格的相似变换矩阵,并结合计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的形状保护能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的形状保护能量项记为 其中,表示VL,k中的所有像素点的视觉显著值的均值,也即表示中与VL,k对应的区域中的所有像素点的像素值的均值,符号“|| ||”为求欧氏距离符号;
⑨根据{IL(x,y)}中的每个三维曲面网格的各个网格顶点的边缘和{IL(x,y)}中的每个三维曲面网格经过每次相似变换后得到的候选目标三维曲面网格的各个网格顶点的边缘,计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的边界弯曲度能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的边界弯曲度能量项记为 其中,符号“|| ||”为求欧氏距离符号,eL,k表示VL,k的所有网格顶点的边缘组成的矩阵,(eL,k)T为eL,k的转置,((eL,k)TeL,k)-1为(eL,k)TeL,k的逆,表示的所有网格顶点的边缘组成的矩阵,
⑩根据{IL(x,y)}中的每个三维曲面网格的各个网格顶点的深度值和{IL(x,y)}中的每个三维曲面网格经过每次相似变换后得到的候选目标三维曲面网格的各个网格顶点的深度值,计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的舒适度保持能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的舒适度保持能量项记为 其中,表示VL,k的第i个网格顶点的深度坐标位置,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,Zmax表示{IL(x,y)}在显示空间的最大深度值,Zmin表示{IL(x,y)}在显示空间的最小深度值, CVZmin表示最小舒适观看区域范围,η1表示最小舒适观看视角,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角,表示的第i个网格顶点的深度坐标位置;
计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的总能量,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的总能量记为 然后令表示在{IL(x,y)}中的所有三维曲面网格对应的所有候选目标三维曲面网格的最佳相似变换矩阵下{IL(x,y)}的总能量,根据{IL(x,y)}中的所有三维曲面网格对应的所有候选目标三维曲面网格的相似变换矩阵,通过最小二乘法求解得到并将相应的VL,k对应的最佳相似变换矩阵记为
根据{IL(x,y)}中的每个三维曲面网格对应的最佳相似变换矩阵,计算{IL(x,y)}中的每个三维曲面网格的各个网格顶点经最佳相似变换后的三维坐标值,将VL,k中三维坐标值为(X'L,k,Y'L,k,Z'L,k)的网格顶点经最佳相似变换后的三维坐标值记为 通过求解得到,其中,X'L,k,Y'L,k,Z'L,k对应表示VL,k中的一个网格顶点的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示VL,k中三维坐标值为(X'L,k,Y'L,k,Z'L,k)的网格顶点经最佳相似变换后得到的水平坐标位置、垂直坐标位置和深度坐标位置,(A'L,k)T为A'L,k的转置,((A'L,k)TA'L,k)-1为(A'L,k)TA'L,k的逆,
根据{IL(x,y)}中的所有三维曲面网格的网格顶点经最佳相似变换后的三维坐标值,获取{DL(x,y)}中的每个四边形网格的各个网格顶点到重定位后的左视点深度图像中的映射函数值,假设(x2,y2)为{DL(x,y)}中的一个四边形网格的其中一个网格顶点的坐标位置,则将{DL(x,y)}中坐标位置为(x2,y2)的网格顶点到重定位后的左视点深度图像中的映射函数值记为f(DL(x2,y2)),β1、β2、β3、β4和β5是通过求解得到的,其中,(x2,y2)∈Ω,Ω表示{IL(x,y)}中的所有三维曲面网格中的网格顶点的坐标位置构成的集合,β1、β2、β3、β4和β5均为系数,DL(x2,y2)表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点的像素值,表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点经重定位后的深度值, 表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点经重定位后的场景深度值,f表示水平相机阵列中各相机的水平焦距,表示{IL(x,y)}中坐标位置为(x2,y2)的网格顶点经最佳相似变换后的三维坐标值的深度坐标位置;
采用相同的最佳相似变换矩阵对{IL(x,y)}中的每个三维曲面网格中的所有像素点进行相似变换,得到{IL(x,y)}中的每个三维曲面网格中的每个像素点经最佳相似变换后的三维坐标值,并进而获得重定位后的左视点彩色图像及左视点深度图像,对应记为中坐标位置为(x',y')的像素点的像素值记为中坐标位置为(x',y')的像素点的像素值记为 其中,1≤x'≤W',1≤y'≤H,W'表示重定位后的三维视频图像的宽度,H亦表示重定位后的三维视频图像的高度,f(DL(x,y))表示{DL(x,y)}中坐标位置为(x,y)的像素点到重定位后的左视点深度图像中的映射函数值,表示{DL(x,y)}中坐标位置为(x,y)的像素点经重定位后的像素值, 表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的水平坐标位置,表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的垂直坐标位置,表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的深度坐标位置;
根据获取重定位后的右视点彩色图像及右视点深度图像,对应记为中坐标位置为(x”,y”)的像素点的像素值记为中坐标位置为(x”,y”)的像素点的像素值记为其中,1≤x”≤W',1≤y”≤H,表示中坐标位置为(x',y')的像素点的像素值,
所述的步骤⑥的具体过程为:
⑥_1、将{DL(x,y)}中当前待处理的像素点定义为当前像素点;
⑥_2、将当前像素点的坐标位置记为(x1,y1),如果1≤x1≤W且y1=1,则直接将当前像素点的横坐标作为当前像素点的左方向最大可容忍失真值,记为δl(x1,y1);如果1≤x1≤W且1<y1≤H,则在{IL(x,y)}中位于坐标位置为(x1,y1)的像素点的水平左侧的所有像素点中,找出亮度分量的值与坐标位置为(x1,y1)的像素点的亮度分量的值相等的所有像素点,再计算找出的每个像素点的横坐标与坐标位置为(x1,y1)的像素点的横坐标x1的横坐标差值,最后将所有横坐标差值中值最小的横坐标差值作为当前像素点的左方向最大可容忍失真值,记为δl(x1,y1);同样,如果1≤x1≤W且y1=H,则直接将当前像素点的横坐标作为当前像素点的右方向最大可容忍失真值,记为δr(x1,y1);如果1≤x1≤W且1≤y1<H,则在{IL(x,y)}中位于坐标位置为(x1,y1)的像素点的水平右侧的所有像素点中,找出亮度分量的值与坐标位置为(x1,y1)的像素点的亮度分量的值相等的所有像素点,再计算找出的每个像素点的横坐标与坐标位置为(x1,y1)的像素点的横坐标x1的横坐标差值,最后将所有横坐标差值中值最大的横坐标差值作为当前像素点的右方向最大可容忍失真值,记为δr(x1,y1);其中,1≤x1≤W,1≤y1≤H;
⑥_3、根据δl(x1,y1)和δr(x1,y1),确定当前像素点的最大可容忍失真值,记为SL(x1,y1),SL(x1,y1)=min(|δl(x1,y1)|,|δr(x1,y1)|),其中,min()为取最小值函数,符号“||”为取绝对值符号;
⑥_4、将{DL(x,y)}中下一个待处理的像素点作为当前像素点,然后返回步骤⑥_2继续执行,直至{DL(x,y)}中的所有像素点处理完毕,得到{DL(x,y)}中的每个像素点的最大可容忍失真值,再由{DL(x,y)}中的所有像素点的最大可容忍失真值得到{DL(x,y)}的最大可容忍失真分布图像{SL(x,y)}。
与现有技术相比,本发明的优点在于:
1)本发明方法通过提取左视点彩色图像的形状保护能量项、边界弯曲度能量项和舒适度保持能量项,并通过优化获取最佳相似变换矩阵,这样使得获得的重定位三维视频图像能够较好地保留重要的显著语义信息且保持视觉舒适性。
2)本发明方法对三维视频图像在三维显示空间的水平坐标位置、垂直坐标位置和深度坐标位置同时进行调整,这样能保证重定位后的深度图像的深度值与重定位后的像素点的坐标位置是匹配的,从而能够保证重定位后的三维视频图像的舒适性。
附图说明
图1为本发明方法的总体实现框图;
图2a为“Poznan Street”的原始左视点彩色图像;
图2b为“Poznan Street”的重定位到原始左视点彩色图像的宽度80%后的左视点彩色图像;
图2c为“Poznan Street”的重定位到原始左视点彩色图像的宽度70%后的左视点彩色图像;
图2d为“Poznan Street”的重定位到原始左视点彩色图像的宽度50%后的左视点彩色图像;
图3a为“Poznan Street”的原始左视点深度图像;
图3b为“Poznan Street”的重定位到原始左视点深度图像的宽度80%后的左视点深度图像;
图3c为“Poznan Street”的重定位到原始左视点深度图像的宽度70%后的左视点深度图像;
图3d为“Poznan Street”的重定位到原始左视点深度图像的宽度50%后的左视点深度图像;
图4a为“Undo Dance”的原始左视点彩色图像;
图4b为“Undo Dance”的重定位到原始左视点彩色图像的宽度80%后的左视点彩色图像;
图4c为“Undo Dance”的重定位到原始左视点彩色图像的宽度70%后的左视点彩色图像;
图4d为“Undo Dance”的重定位到原始左视点彩色图像的宽度50%后的左视点彩色图像;
图5a为“Undo Dance”的原始左视点深度图像;
图5b为“Undo Dance”的重定位到原始左视点深度图像的宽度80%后的左视点深度图像;
图5c为“Undo Dance”的重定位到原始左视点深度图像的宽度70%后的左视点深度图像;
图5d为“Undo Dance”的重定位到原始左视点深度图像的宽度50%后的左视点深度图像;
图6a为“Newspaper”的原始左视点彩色图像;
图6b为“Newspaper”的重定位到原始左视点彩色图像的宽度80%后的左视点彩色图像;
图6c为“Newspaper”的重定位到原始左视点彩色图像的宽度70%后的左视点彩色图像;
图6d为“Newspaper”的重定位到原始左视点彩色图像的宽度50%后的左视点彩色图像;
图7a为“Newspaper”的原始左视点深度图像;
图7b为“Newspaper”的重定位到原始左视点深度图像的宽度80%后的左视点深度图像;
图7c为“Newspaper”的重定位到原始左视点深度图像的宽度70%后的左视点深度图像;
图7d为“Newspaper”的重定位到原始左视点深度图像的宽度50%后的左视点深度图像。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种三维视频图像重定位方法,其总体实现框图如图1所示,其包括以下步骤:
①将待处理的三维视频图像的左视点彩色图像、右视点彩色图像、左视点深度图像及右视点深度图像对应记为{IL(x,y)}、{IR(x,y)}、{DL(x,y)}及{DR(x,y)},其中,(x,y)表示待处理的三维视频图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示待处理的三维视频图像的宽度,H表示待处理的三维视频图像的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,DL(x,y)表示{DL(x,y)}中坐标位置为(x,y)的像素点的像素值,DR(x,y)表示{DR(x,y)}中坐标位置为(x,y)的像素点的像素值。
②将{IL(x,y)}和{DL(x,y)}分割成个互不重叠的尺寸大小为40×40的四边形网格;然后以{IL(x,y)}中的每个四边形网格的左上、左下、右上和右下4个网格顶点的集合来描述{IL(x,y)}中的每个四边形网格,将{IL(x,y)}中的第k个四边形网格记为UL,k其中,1≤k≤M, 对应表示UL,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,
③计算{DL(x,y)}中的每个像素点的场景深度值,将{DL(x,y)}中坐标位置为(x,y)的像素点的场景深度值记为zL(x,y),然后计算{IL(x,y)}中的每个像素点在{IR(x,y)}中的对应坐标位置,将{IL(x,y)}中坐标位置为(x,y)的像素点在{IR(x,y)}中的对应坐标位置记为(xR,yR),xR=x'/w',yR=y'/w',接着计算{IL(x,y)}中的每个像素点的水平视差值,将{IL(x,y)}中坐标位置为(x,y)的像素点的水平视差值记为dL(x,y),dL(x,y)=xR-x;其中,znear表示最小的场景深度值,zfar表示最大的场景深度值,在本实施例中znear和zfar的值根据具体的测试序列确定,R1为左视点相机的旋转矩阵,A1为左视点相机的内参矩阵,T1为左视点相机的平移矩阵,R2为右视点相机的旋转矩阵,A2为右视点相机的内参矩阵,T2为右视点相机的平移矩阵,A1 -1为A1的逆矩阵,R2 -1为R2的逆矩阵。
④根据{IL(x,y)}中的每个四边形网格,获取对应的三维曲面网格,以{IL(x,y)}中的每个三维曲面网格的左上、左下、右上和右下4个网格顶点的集合来描述{IL(x,y)}中的每个三维曲面网格,将根据UL,k获取的对应的三维曲面网格记为VL,k其中,对应表示VL,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, de表示待处理的三维视频图像的左视点与右视点之间的水平基线距离,LD表示待处理的三维视频图像的左视点和右视点与显示器之间的观看距离,Wd表示显示器的水平宽度,R表示显示器的水平分辨率,在本实施例中取de=65、LD=800、Wd=750、R=1920,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值。
⑤根据{IL(x,y)}中的所有三维曲面网格对应的P个候选目标三维曲面网格,对{IL(x,y)}中的每个三维曲面网格的各个网格顶点分别进行相似变换,使得原三维曲面网格与原三维曲面网格经过相似变换后得到的候选目标三维曲面网格的变换误差最小,得到{IL(x,y)}中的每个三维曲面网格对应的各个候选目标三维曲面网格的相似变换矩阵,将VL,k对应的第p个候选目标三维曲面网格的相似变换矩阵记为 其中,1≤p≤P,表示VL,k对应的第p个候选目标三维曲面网格, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,表示的第i个网格顶点,i=1,2,3,4, 对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,(AL,k)T为AL,k的转置,((AL,k)TAL,k)-1为(AL,k)TAL,k的逆。
⑥获取{DL(x,y)}中的每个像素点的左方向最大可容忍失真值和右方向最大可容忍失真值;然后根据{DL(x,y)}中的每个像素点的左方向最大可容忍失真值和右方向最大可容忍失真值,提取出{DL(x,y)}的最大可容忍失真分布图像,记为{SL(x,y)};其中,SL(x,y)表示{SL(x,y)}中坐标位置为(x,y)的像素点的像素值,亦表示{DL(x,y)}中坐标位置为(x,y)的像素点的最大可容忍失真值。
在此具体实施例中,步骤⑥的具体过程为:
⑥_1、将{DL(x,y)}中当前待处理的像素点定义为当前像素点。
⑥_2、将当前像素点的坐标位置记为(x1,y1),如果1≤x1≤W且y1=1,则直接将当前像素点的横坐标作为当前像素点的左方向最大可容忍失真值,记为δl(x1,y1);如果1≤x1≤W且1<y1≤H,则在{IL(x,y)}中位于坐标位置为(x1,y1)的像素点的水平左侧的所有像素点中,找出亮度分量的值与坐标位置为(x1,y1)的像素点的亮度分量的值相等的所有像素点,再计算找出的每个像素点的横坐标与坐标位置为(x1,y1)的像素点的横坐标x1的横坐标差值,最后将所有横坐标差值中值最小的横坐标差值作为当前像素点的左方向最大可容忍失真值,记为δl(x1,y1);同样,如果1≤x1≤W且y1=H,则直接将当前像素点的横坐标作为当前像素点的右方向最大可容忍失真值,记为δr(x1,y1);如果1≤x1≤W且1≤y1<H,则在{IL(x,y)}中位于坐标位置为(x1,y1)的像素点的水平右侧的所有像素点中,找出亮度分量的值与坐标位置为(x1,y1)的像素点的亮度分量的值相等的所有像素点,再计算找出的每个像素点的横坐标与坐标位置为(x1,y1)的像素点的横坐标x1的横坐标差值,最后将所有横坐标差值中值最大的横坐标差值作为当前像素点的右方向最大可容忍失真值,记为δr(x1,y1);其中,1≤x1≤W,1≤y1≤H。
⑥_3、根据δl(x1,y1)和δr(x1,y1),确定当前像素点的最大可容忍失真值,记为SL(x1,y1),SL(x1,y1)=min(|δl(x1,y1)|,|δr(x1,y1)|),其中,min()为取最小值函数,符号“||”为取绝对值符号。
⑥_4、将{DL(x,y)}中下一个待处理的像素点作为当前像素点,然后返回步骤⑥_2继续执行,直至{DL(x,y)}中的所有像素点处理完毕,得到{DL(x,y)}中的每个像素点的最大可容忍失真值,再由{DL(x,y)}中的所有像素点的最大可容忍失真值得到{DL(x,y)}的最大可容忍失真分布图像{SL(x,y)}。
⑦采用现有的基于图论的视觉显著(Graph-Based Visual Saliency,GBVS)模型提取出{IL(x,y)}的显著图,记为{ML(x,y)};然后根据{ML(x,y)}和{SL(x,y)},获取{IL(x,y)}的视觉显著图,记为中坐标位置为(x,y)的像素点的像素值记为 其中,ML(x,y)表示{ML(x,y)}中坐标位置为(x,y)的像素点的像素值,λ1表示ML(x,y)的权重,λ2表示SL(x,y)的权重,λ12=1,在本实施例中取λ1=λ2=0.5。
⑧根据{IL(x,y)}中的每个三维曲面网格对应的各个候选目标三维曲面网格的相似变换矩阵,并结合计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的形状保护能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的形状保护能量项记为 其中,表示VL,k中的所有像素点的视觉显著值的均值,也即表示中与VL,k对应的区域中的所有像素点的像素值的均值,符号“|| ||”为求欧氏距离符号。
⑨根据{IL(x,y)}中的每个三维曲面网格的各个网格顶点的边缘和{IL(x,y)}中的每个三维曲面网格经过每次相似变换后得到的候选目标三维曲面网格的各个网格顶点的边缘,计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的边界弯曲度能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的边界弯曲度能量项记为 其中,符号“|| ||”为求欧氏距离符号,eL,k表示VL,k的所有网格顶点的边缘组成的矩阵,(eL,k)T为eL,k的转置,((eL,k)TeL,k)-1为(eL,k)TeL,k的逆,表示的所有网格顶点的边缘组成的矩阵,
⑩根据{IL(x,y)}中的每个三维曲面网格的各个网格顶点的深度值和{IL(x,y)}中的每个三维曲面网格经过每次相似变换后得到的候选目标三维曲面网格的各个网格顶点的深度值,计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的舒适度保持能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的舒适度保持能量项记为 其中,表示VL,k的第i个网格顶点的深度坐标位置,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,Zmax表示{IL(x,y)}在显示空间的最大深度值,Zmin表示{IL(x,y)}在显示空间的最小深度值, CVZmin表示最小舒适观看区域范围,η1表示最小舒适观看视角,在本实施例中取η1=-1°,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角,在本实施例中取η2=1°,表示的第i个网格顶点的深度坐标位置。
计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的总能量,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的总能量记为 然后令表示在{IL(x,y)}中的所有三维曲面网格对应的所有候选目标三维曲面网格的最佳相似变换矩阵下{IL(x,y)}的总能量,根据{IL(x,y)}中的所有三维曲面网格对应的所有候选目标三维曲面网格的相似变换矩阵,通过最小二乘法求解得到并将相应的VL,k对应的最佳相似变换矩阵记为
根据{IL(x,y)}中的每个三维曲面网格对应的最佳相似变换矩阵,计算{IL(x,y)}中的每个三维曲面网格的各个网格顶点经最佳相似变换后的三维坐标值,将VL,k中三维坐标值为(X'L,k,Y'L,k,Z'L,k)的网格顶点经最佳相似变换后的三维坐标值记为 通过求解得到,其中,X'L,k,Y'L,k,Z'L,k对应表示VL,k中的一个网格顶点的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示VL,k中三维坐标值为(X'L,k,Y'L,k,Z'L,k)的网格顶点经最佳相似变换后得到的水平坐标位置、垂直坐标位置和深度坐标位置,(A'L,k)T为A'L,k的转置,((A'L,k)TA'L,k)-1为(A'L,k)TA'L,k的逆,
根据{IL(x,y)}中的所有三维曲面网格的网格顶点经最佳相似变换后的三维坐标值,获取{DL(x,y)}中的每个四边形网格的各个网格顶点到重定位后的左视点深度图像中的映射函数值,假设(x2,y2)为{DL(x,y)}中的一个四边形网格的其中一个网格顶点的坐标位置,则将{DL(x,y)}中坐标位置为(x2,y2)的网格顶点到重定位后的左视点深度图像中的映射函数值记为f(DL(x2,y2)),β1、β2、β3、β4和β5是通过求解得到的,其中,(x2,y2)∈Ω,Ω表示{IL(x,y)}中的所有三维曲面网格中的网格顶点的坐标位置构成的集合,β1、β2、β3、β4和β5均为系数,DL(x2,y2)表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点的像素值,表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点经重定位后的深度值, 表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点经重定位后的场景深度值,f表示水平相机阵列中各相机的水平焦距,在本实施例中,f的值根据具体的测试序列确定,表示{IL(x,y)}中坐标位置为(x2,y2)的网格顶点经最佳相似变换后的三维坐标值的深度坐标位置。
采用相同的最佳相似变换矩阵对{IL(x,y)}中的每个三维曲面网格中的所有像素点进行相似变换,得到{IL(x,y)}中的每个三维曲面网格中的每个像素点经最佳相似变换后的三维坐标值,并进而获得重定位后的左视点彩色图像及左视点深度图像,对应记为中坐标位置为(x',y')的像素点的像素值记为中坐标位置为(x',y')的像素点的像素值记为 其中,1≤x'≤W',1≤y'≤H,W'表示重定位后的三维视频图像的宽度,H亦表示重定位后的三维视频图像的高度,f(DL(x,y))表示{DL(x,y)}中坐标位置为(x,y)的像素点到重定位后的左视点深度图像中的映射函数值,在此将步骤中的{DL(x,y)}中的网格顶点到重定位后的左视点深度图像中的映射关系应用于{DL(x,y)}中的每个像素点上,表示{DL(x,y)}中坐标位置为(x,y)的像素点经重定位后的像素值, 表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的水平坐标位置,表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的垂直坐标位置,表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的深度坐标位置。
根据获取重定位后的右视点彩色图像及右视点深度图像,对应记为中坐标位置为(x”,y”)的像素点的像素值记为中坐标位置为(x”,y”)的像素点的像素值记为其中,1≤x”≤W',1≤y”≤H, 中坐标位置为(x',y')的像素点的像素值,
以下就利用本发明方法分别对“Poznan Street”、“Undo Dance”和“Newspaper”三维立体视频测试序列中的两个视点进行处理。在本实施例中,取“Poznan Street”三维立体视频测试序列的第5个和第3个视点分别作为三维视频图像的左视点和右视点,取“UndoDance”的三维立体视频测试序列的第1个和第9个视点分别作为三维视频图像的左视点和右视点,取“Newspaper”的三维立体视频测试序列的第2个和第6个视点分别作为三维视频图像的左视点和右视点。在本实施例中,“Poznan Street”三维立体视频测试序列的f、znear和zfar分别为1732.875727、-34.506386和-2760.510889;“Undo Dance”三维立体视频测试序列的f、znear和zfar分别为2302.852541609168、2289和213500;“Newspaper”三维立体视频测试序列的f、znear和zfar分别为2929.4940521927465、-2715.181648和-9050.605493。
图2a给出了“Poznan Street”的原始左视点彩色图像、图2b给出了“PoznanStreet”的重定位到原始左视点彩色图像的宽度80%后的左视点彩色图像、图2c给出了“Poznan Street”的重定位到原始左视点彩色图像的宽度70%后的左视点彩色图像、图2d给出了“Poznan Street”的重定位到原始左视点彩色图像的宽度50%后的左视点彩色图像;图3a给出了“Poznan Street”的原始左视点深度图像、图3b给出了“Poznan Street”的重定位到原始左视点深度图像的宽度80%后的左视点深度图像、图3c给出了“PoznanStreet”的重定位到原始左视点深度图像的宽度70%后的左视点深度图像、图3d给出了“Poznan Street”的重定位到原始左视点深度图像的宽度50%后的左视点深度图像;图4a给出了“Undo Dance”的原始左视点彩色图像、图4b给出了“Undo Dance”的重定位到原始左视点彩色图像的宽度80%后的左视点彩色图像、图4c给出了“Undo Dance”的重定位到原始左视点彩色图像的宽度70%后的左视点彩色图像、图4d给出了“Undo Dance”的重定位到原始左视点彩色图像的宽度50%后的左视点彩色图像;图5a给出了“Undo Dance”的原始左视点深度图像、图5b给出了“Undo Dance”的重定位到原始左视点深度图像的宽度80%后的左视点深度图像、图5c给出了“Undo Dance”的重定位到原始左视点深度图像的宽度70%后的左视点深度图像、图5d给出了“Undo Dance”的重定位到原始左视点深度图像的宽度50%后的左视点深度图像;图6a给出了“Newspaper”的原始左视点彩色图像、图6b给出了“Newspaper”的重定位到原始左视点彩色图像的宽度80%后的左视点彩色图像、图6c给出了“Newspaper”的重定位到原始左视点彩色图像的宽度70%后的左视点彩色图像、图6d给出了“Newspaper”的重定位到原始左视点彩色图像的宽度50%后的左视点彩色图像;图7a给出了“Newspaper”的原始左视点深度图像、图7b给出了“Newspaper”的重定位到原始左视点深度图像的宽度80%后的左视点深度图像、图7c给出了“Newspaper”的重定位到原始左视点深度图像的宽度70%后的左视点深度图像、图7d给出了“Newspaper”的重定位到原始左视点深度图像的宽度50%后的左视点深度图像。从图2a至图7d中可以看出,采用本发明方法得到的彩色图像能够较好地保留重要的显著语义信息,同时深度图像又能根据重定位后的视点位置进行自适应调整。

Claims (2)

1.一种三维视频图像重定位方法,其特征在于包括以下步骤:
①将待处理的三维视频图像的左视点彩色图像、右视点彩色图像、左视点深度图像及右视点深度图像对应记为{IL(x,y)}、{IR(x,y)}、{DL(x,y)}及{DR(x,y)},其中,(x,y)表示待处理的三维视频图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示待处理的三维视频图像的宽度,H表示待处理的三维视频图像的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,DL(x,y)表示{DL(x,y)}中坐标位置为(x,y)的像素点的像素值,DR(x,y)表示{DR(x,y)}中坐标位置为(x,y)的像素点的像素值;
②将{IL(x,y)}和{DL(x,y)}分割成个互不重叠的尺寸大小为40×40的四边形网格;然后以{IL(x,y)}中的每个四边形网格的左上、左下、右上和右下4个网格顶点的集合来描述{IL(x,y)}中的每个四边形网格,将{IL(x,y)}中的第k个四边形网格记为UL,k其中,1≤k≤M, 对应表示UL,k的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,
③计算{DL(x,y)}中的每个像素点的场景深度值,将{DL(x,y)}中坐标位置为(x,y)的像素点的场景深度值记为zL(x,y),然后计算{IL(x,y)}中的每个像素点在{IR(x,y)}中的对应坐标位置,将{IL(x,y)}中坐标位置为(x,y)的像素点在{IR(x,y)}中的对应坐标位置记为(xR,yR),xR=x'/w',yR=y'/w',接着计算{IL(x,y)}中的每个像素点的水平视差值,将{IL(x,y)}中坐标位置为(x,y)的像素点的水平视差值记为dL(x,y),dL(x,y)=xR-x;其中,znear表示最小的场景深度值,zfar表示最大的场景深度值,R1为左视点相机的旋转矩阵,A1为左视点相机的内参矩阵,T1为左视点相机的平移矩阵,R2为右视点相机的旋转矩阵,A2为右视点相机的内参矩阵,T2为右视点相机的平移矩阵,A1 -1为A1的逆矩阵,R2 -1为R2的逆矩阵;
④根据{IL(x,y)}中的每个四边形网格,获取对应的三维曲面网格,以{IL(x,y)}中的每个三维曲面网格的左上、左下、右上和右下4个网格顶点的集合来描述{IL(x,y)}中的每个三维曲面网格,将根据UL,k获取的对应的三维曲面网格记为VL,k其中,对应表示VL,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, 在三维显示空间的水平坐标位置垂直坐标位置和深度坐标位置来描述, de表示待处理的三维视频图像的左视点与右视点之间的水平基线距离,LD表示待处理的三维视频图像的左视点和右视点与显示器之间的观看距离,Wd表示显示器的水平宽度,R表示显示器的水平分辨率,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值,表示{IL(x,y)}中坐标位置为的像素点的水平视差值;
⑤根据{IL(x,y)}中的所有三维曲面网格对应的P个候选目标三维曲面网格,对{IL(x,y)}中的每个三维曲面网格的各个网格顶点分别进行相似变换,使得原三维曲面网格与原三维曲面网格经过相似变换后得到的候选目标三维曲面网格的变换误差最小,得到{IL(x,y)}中的每个三维曲面网格对应的各个候选目标三维曲面网格的相似变换矩阵,将VL,k对应的第p个候选目标三维曲面网格的相似变换矩阵记为 其中, 表示VL,k对应的第p个候选目标三维曲面网格, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,表示的第i个网格顶点,i=1,2,3,4, 对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示的水平坐标位置、垂直坐标位置和深度坐标位置,(AL,k)T为AL,k的转置,((AL,k)TAL,k)-1为(AL,k)TAL,k的逆;
⑥获取{DL(x,y)}中的每个像素点的左方向最大可容忍失真值和右方向最大可容忍失真值;然后根据{DL(x,y)}中的每个像素点的左方向最大可容忍失真值和右方向最大可容忍失真值,提取出{DL(x,y)}的最大可容忍失真分布图像,记为{SL(x,y)};其中,SL(x,y)表示{SL(x,y)}中坐标位置为(x,y)的像素点的像素值,亦表示{DL(x,y)}中坐标位置为(x,y)的像素点的最大可容忍失真值;
⑦采用基于图论的视觉显著模型提取出{IL(x,y)}的显著图,记为{ML(x,y)};然后根据{ML(x,y)}和{SL(x,y)},获取{IL(x,y)}的视觉显著图,记为中坐标位置为(x,y)的像素点的像素值记为 其中,ML(x,y)表示{ML(x,y)}中坐标位置为(x,y)的像素点的像素值,λ1表示ML(x,y)的权重,λ2表示SL(x,y)的权重,λ12=1;
⑧根据{IL(x,y)}中的每个三维曲面网格对应的各个候选目标三维曲面网格的相似变换矩阵,并结合计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的形状保护能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的形状保护能量项记为 其中,表示VL,k中的所有像素点的视觉显著值的均值,也即表示中与VL,k对应的区域中的所有像素点的像素值的均值,符号“|| ||”为求欧氏距离符号;
⑨根据{IL(x,y)}中的每个三维曲面网格的各个网格顶点的边缘和{IL(x,y)}中的每个三维曲面网格经过每次相似变换后得到的候选目标三维曲面网格的各个网格顶点的边缘,计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的边界弯曲度能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的边界弯曲度能量项记为 其中,符号“|| ||”为求欧氏距离符号,eL,k表示VL,k的所有网格顶点的边缘组成的矩阵,
(eL,k)T为eL,k的转置,((eL,k)TeL,k)-1为(eL,k)TeL,k的逆,表示的所有网格顶点的边缘组成的矩阵,
<mrow> <msubsup> <mover> <mi>e</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mi>p</mi> </msubsup> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>2</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>2</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>2</mn> </mrow> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>2</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>3</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>2</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>3</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>2</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>3</mn> </mrow> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>3</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>4</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>3</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>4</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>3</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>4</mn> </mrow> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>4</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>X</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>1</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>4</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Y</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>1</mn> </mrow> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>4</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>Z</mi> <mo>~</mo> </mover> <mrow> <mi>L</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>p</mi> <mo>,</mo> <mn>1</mn> </mrow> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
⑩根据{IL(x,y)}中的每个三维曲面网格的各个网格顶点的深度值和{IL(x,y)}中的每个三维曲面网格经过每次相似变换后得到的候选目标三维曲面网格的各个网格顶点的深度值,计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的舒适度保持能量项,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的舒适度保持能量项记为 其中,表示VL,k的第i个网格顶点的深度坐标位置,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,Zmax表示{IL(x,y)}在显示空间的最大深度值,Zmin表示{IL(x,y)}在显示空间的最小深度值, CVZmin表示最小舒适观看区域范围,η1表示最小舒适观看视角,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角,表示的第i个网格顶点的深度坐标位置;
计算在{IL(x,y)}中的所有三维曲面网格对应的同一个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的总能量,将在{IL(x,y)}中的所有三维曲面网格对应的第p个候选目标三维曲面网格的相似变换矩阵下{IL(x,y)}的总能量记为 然后令表示在{IL(x,y)}中的所有三维曲面网格对应的所有候选目标三维曲面网格的最佳相似变换矩阵下{IL(x,y)}的总能量,根据{IL(x,y)}中的所有三维曲面网格对应的所有候选目标三维曲面网格的相似变换矩阵,通过最小二乘法求解得到并将相应的VL,k对应的最佳相似变换矩阵记为
根据{IL(x,y)}中的每个三维曲面网格对应的最佳相似变换矩阵,计算{IL(x,y)}中的每个三维曲面网格的各个网格顶点经最佳相似变换后的三维坐标值,将VL,k中三维坐标值为(X'L,k,Y'L,k,Z'L,k)的网格顶点经最佳相似变换后的三维坐标值记为 通过求解得到,其中,X'L,k,Y'L,k,Z'L,k对应表示VL,k中的一个网格顶点的水平坐标位置、垂直坐标位置和深度坐标位置,对应表示VL,k中三维坐标值为(X'L,k,Y'L,k,Z'L,k)的网格顶点经最佳相似变换后得到的水平坐标位置、垂直坐标位置和深度坐标位置,(A'L,k)T为A'L,k的转置,((A'L,k)TA'L,k)-1为(A'L,k)TA'L,k的逆,
根据{IL(x,y)}中的所有三维曲面网格的网格顶点经最佳相似变换后的三维坐标值,获取{DL(x,y)}中的每个四边形网格的各个网格顶点到重定位后的左视点深度图像中的映射函数值,假设(x2,y2)为{DL(x,y)}中的一个四边形网格的其中一个网格顶点的坐标位置,则将{DL(x,y)}中坐标位置为(x2,y2)的网格顶点到重定位后的左视点深度图像中的映射函数值记为f(DL(x2,y2)),β1、β2、β3、β4和β5是通过求解得到的,其中,(x2,y2)∈Ω,Ω表示{IL(x,y)}中的所有三维曲面网格中的网格顶点的坐标位置构成的集合,β1、β2、β3、β4和β5均为系数,DL(x2,y2)表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点的像素值,表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点经重定位后的深度值, 表示{DL(x,y)}中坐标位置为(x2,y2)的网格顶点经重定位后的场景深度值,f表示水平相机阵列中各相机的水平焦距,表示{IL(x,y)}中坐标位置为(x2,y2)的网格顶点经最佳相似变换后的三维坐标值的深度坐标位置;
采用相同的最佳相似变换矩阵对{IL(x,y)}中的每个三维曲面网格中的所有像素点进行相似变换,得到{IL(x,y)}中的每个三维曲面网格中的每个像素点经最佳相似变换后的三维坐标值,并进而获得重定位后的左视点彩色图像及左视点深度图像,对应记为中坐标位置为(x',y')的像素点的像素值记为中坐标位置为(x',y')的像素点的像素值记为 其中,1≤x'≤W',1≤y'≤H,W'表示重定位后的三维视频图像的宽度,H亦表示重定位后的三维视频图像的高度,f(DL(x,y))表示{DL(x,y)}中坐标位置为(x,y)的像素点到重定位后的左视点深度图像中的映射函数值,表示{DL(x,y)}中坐标位置为(x,y)的像素点经重定位后的像素值, 表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的水平坐标位置,表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的垂直坐标位置,表示{IL(x,y)}中坐标位置为(x,y)的网格顶点经最佳相似变换后的三维坐标值的深度坐标位置;
根据获取重定位后的右视点彩色图像及右视点深度图像,对应记为中坐标位置为(x”,y”)的像素点的像素值记为中坐标位置为(x”,y”)的像素点的像素值记为其中,1≤x”≤W',1≤y”≤H, 表示中坐标位置为(x',y')的像素点的像素值,
2.根据权利要求1所述的一种三维视频图像重定位方法,其特征在于所述的步骤⑥的具体过程为:
⑥_1、将{DL(x,y)}中当前待处理的像素点定义为当前像素点;
⑥_2、将当前像素点的坐标位置记为(x1,y1),如果1≤x1≤W且y1=1,则直接将当前像素点的横坐标作为当前像素点的左方向最大可容忍失真值,记为δl(x1,y1);如果1≤x1≤W且1<y1≤H,则在{IL(x,y)}中位于坐标位置为(x1,y1)的像素点的水平左侧的所有像素点中,找出亮度分量的值与坐标位置为(x1,y1)的像素点的亮度分量的值相等的所有像素点,再计算找出的每个像素点的横坐标与坐标位置为(x1,y1)的像素点的横坐标x1的横坐标差值,最后将所有横坐标差值中值最小的横坐标差值作为当前像素点的左方向最大可容忍失真值,记为δl(x1,y1);同样,如果1≤x1≤W且y1=H,则直接将当前像素点的横坐标作为当前像素点的右方向最大可容忍失真值,记为δr(x1,y1);如果1≤x1≤W且1≤y1<H,则在{IL(x,y)}中位于坐标位置为(x1,y1)的像素点的水平右侧的所有像素点中,找出亮度分量的值与坐标位置为(x1,y1)的像素点的亮度分量的值相等的所有像素点,再计算找出的每个像素点的横坐标与坐标位置为(x1,y1)的像素点的横坐标x1的横坐标差值,最后将所有横坐标差值中值最大的横坐标差值作为当前像素点的右方向最大可容忍失真值,记为δr(x1,y1);其中,1≤x1≤W,1≤y1≤H;
⑥_3、根据δl(x1,y1)和δr(x1,y1),确定当前像素点的最大可容忍失真值,记为SL(x1,y1),SL(x1,y1)=min(|δl(x1,y1)|,|δr(x1,y1)|),其中,min()为取最小值函数,符号“| |”为取绝对值符号;
⑥_4、将{DL(x,y)}中下一个待处理的像素点作为当前像素点,然后返回步骤⑥_2继续执行,直至{DL(x,y)}中的所有像素点处理完毕,得到{DL(x,y)}中的每个像素点的最大可容忍失真值,再由{DL(x,y)}中的所有像素点的最大可容忍失真值得到{DL(x,y)}的最大可容忍失真分布图像{SL(x,y)}。
CN201710155439.5A 2017-03-16 2017-03-16 一种三维视频图像重定位方法 Active CN107105214B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710155439.5A CN107105214B (zh) 2017-03-16 2017-03-16 一种三维视频图像重定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710155439.5A CN107105214B (zh) 2017-03-16 2017-03-16 一种三维视频图像重定位方法

Publications (2)

Publication Number Publication Date
CN107105214A true CN107105214A (zh) 2017-08-29
CN107105214B CN107105214B (zh) 2018-11-09

Family

ID=59675200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710155439.5A Active CN107105214B (zh) 2017-03-16 2017-03-16 一种三维视频图像重定位方法

Country Status (1)

Country Link
CN (1) CN107105214B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108307170A (zh) * 2017-12-22 2018-07-20 宁波大学 一种立体图像重定位方法
CN108449588A (zh) * 2018-03-14 2018-08-24 宁波大学 一种立体图像重定位方法
CN108805825A (zh) * 2018-05-03 2018-11-13 宁波大学 一种重定位图像质量评价方法
CN109859300A (zh) * 2019-01-24 2019-06-07 宁波大学 一种基于美学的立体图像内容编辑方法
CN112449170A (zh) * 2020-10-13 2021-03-05 宁波大学 一种立体视频重定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574404A (zh) * 2015-01-14 2015-04-29 宁波大学 一种立体图像重定位方法
CN105376553A (zh) * 2015-11-24 2016-03-02 宁波大学 一种三维视频重定位方法
CN106504186A (zh) * 2016-09-30 2017-03-15 天津大学 一种立体图像重定向方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574404A (zh) * 2015-01-14 2015-04-29 宁波大学 一种立体图像重定位方法
CN105376553A (zh) * 2015-11-24 2016-03-02 宁波大学 一种三维视频重定位方法
CN106504186A (zh) * 2016-09-30 2017-03-15 天津大学 一种立体图像重定向方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FENG SHAO: "An Energy-Constrained Video Retargeting Approach for Color-Plus-Depth 3D Video", 《JOURNAL OF DISPLAY TECHNOLOGY》 *
FENG SHAO: "Stereoscopic Visual Attention Guided Seam Carving for Stereoscopic Image Retargeting", 《JOURNAL OF DISPLAY TECHNOLOGY》 *
林文崇: "一种基于人眼视觉注意力的三维视频重定向方法", 《光电子.激光》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108307170A (zh) * 2017-12-22 2018-07-20 宁波大学 一种立体图像重定位方法
CN108307170B (zh) * 2017-12-22 2019-09-10 宁波大学 一种立体图像重定位方法
CN108449588A (zh) * 2018-03-14 2018-08-24 宁波大学 一种立体图像重定位方法
CN108805825A (zh) * 2018-05-03 2018-11-13 宁波大学 一种重定位图像质量评价方法
CN108805825B (zh) * 2018-05-03 2021-04-27 宁波大学 一种重定位图像质量评价方法
CN109859300A (zh) * 2019-01-24 2019-06-07 宁波大学 一种基于美学的立体图像内容编辑方法
CN109859300B (zh) * 2019-01-24 2022-12-23 宁波大学 一种基于美学的立体图像内容编辑方法
CN112449170A (zh) * 2020-10-13 2021-03-05 宁波大学 一种立体视频重定位方法
CN112449170B (zh) * 2020-10-13 2023-07-28 万维仁和(北京)科技有限责任公司 一种立体视频重定位方法

Also Published As

Publication number Publication date
CN107105214B (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
CN107105214B (zh) 一种三维视频图像重定位方法
CN102592275B (zh) 虚拟视点绘制方法
CN104574501B (zh) 一种针对复杂三维场景的高质量纹理映射方法
EP1703470B1 (en) Depth image-based modeling method and apparatus
CN102098528B (zh) 一种平面图像的立体转换方法及装置
CN102609950B (zh) 一种二维视频深度图的生成方法
CN102724529B (zh) 虚拟视点视频序列的生成方法及生成装置
CN105678687A (zh) 基于图像内容的立体图像拼接方法
CN106570900B (zh) 一种立体图像重定位方法
CN109410133B (zh) 一种基于3dmm的人脸纹理修复方法
CN106919257B (zh) 基于图像亮度信息力触觉交互纹理力再现方法
CN104301704A (zh) 内容感知显示适应方法
CN100591143C (zh) 一种立体电视系统中虚拟视点图像绘制的方法
CN104166992B (zh) 基于网格变形的内容感知双目图像缩放方法
TWI489859B (zh) 影像形變方法及其電腦程式產品
CN109461197B (zh) 一种基于球面uv和重投影的云实时绘制优化方法
CN116503577A (zh) 一种虚拟仿真场景三维模型快速采集方法及系统
CN102496140A (zh) 一种基于多层嵌套笼体的实时交互式图像变形方法
CN108307170B (zh) 一种立体图像重定位方法
CN108810512B (zh) 一种基于对象的立体图像深度调整方法
CN102831637B (zh) 基于移动设备的三维重建方法
CN103970432A (zh) 一种模拟真实翻页效果的方法与装置
CN112449170B (zh) 一种立体视频重定位方法
CN108833876B (zh) 一种立体图像内容重组方法
CN114022609A (zh) 一种基于遥感图像的三维模型构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201202

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University