CN118368401A - 一种显示设备及其控制方法、控制装置 - Google Patents

一种显示设备及其控制方法、控制装置 Download PDF

Info

Publication number
CN118368401A
CN118368401A CN202310090456.0A CN202310090456A CN118368401A CN 118368401 A CN118368401 A CN 118368401A CN 202310090456 A CN202310090456 A CN 202310090456A CN 118368401 A CN118368401 A CN 118368401A
Authority
CN
China
Prior art keywords
position information
eye image
image
display device
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310090456.0A
Other languages
English (en)
Inventor
谢月飞
宋碧薇
陈宇宸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yinwang Intelligent Technology Co ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202310090456.0A priority Critical patent/CN118368401A/zh
Publication of CN118368401A publication Critical patent/CN118368401A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

提供一种显示设备及其控制方法、控制装置,涉及立体显示领域,能够在不同位置提供更加接近观看真实物体的3D观看效果。该显示设备的控制方法,包括:获取观看者的位置信息,位置信息至少包括:人体位置、人眼位置、瞳孔位置中的任一;根据位置信息,生成待显示对象的左眼图像和右眼图像;将左眼图像和右眼图像输出至显示设备的显示模组进行显示。该显示设备的控制方法应用于裸眼3D显示。

Description

一种显示设备及其控制方法、控制装置
技术领域
本申请的实施例涉及立体显示领域,尤其涉及一种显示设备及其控制方法、控制装置。
背景技术
由于人两眼之间存在一定的距离,观看物体时两眼中观看到的图像是有差别的。立体显示技术正是基于这一原理,通过显示设备将左眼图像和右眼图像分别送入对应的人眼,最终实现立体显示的效果。立体显示技术包括:佩戴眼镜式立体显示技术、裸眼立体显示技术。
其中,裸眼立体显示技术具有不需要观看者佩戴辅助式设备(比如眼镜等)的优势,能够给观看者带来全新的体验。在进行裸眼立体显示时,通常,将左眼图像直接送进左眼、右眼图像直接送进右眼来实现立体显示的效果。当前,随着立体(3-dimension,3D或三维)电影和3D直播等裸眼立体显示相关行业的快速发展,裸眼立体显示技术应用的范围也越来越广,裸眼立体显示技术及其应用已经成为显示领域的研究热点。
但是,在裸眼立体显示的过程中,观看者从不同角度观看,进行观看的视角也会随之变化。对于同一帧3D图像的显示,通常的做法是显示设备将相同的左眼图像和右眼图像分别映射到左右眼。但是,由于并不考虑观看者所处的位置,因此观看者仅能在固定的观看范围内观看到良好的3D效果。另外,在一些方案中,考虑到观看者可能在水平方向不同的位置观看显示设备的因素,对于同一帧3D图像的显示,显示设备也会预设不同的左眼图像和右眼图像,其中,为了更加有利于在水平方向上的不同位置均能观看到更加符合真实物体的3D效果,该左眼图像和右眼图像的图像信息分别适应性的根据观看者在水平方向上的若干个位置观看该3D图像而做出了调整。然而,该左眼图像和右眼图像的图像信息仅仅有利于观看者在水平方向上的若干个位置的观看效果,其他位置仍然不能取得更好的观看效果。
发明内容
本申请的实施例提供一种显示设备及其控制方法、控制装置,能够在不同位置提供更加接近观看真实物体的3D观看效果。
第一方面,提供了一种显示设备的控制方法。该显示设备用于裸眼3D显示,该方法包括:首先,获取观看者的位置信息,其中在一些示例中,该位置信息至少包括人体位置、人眼位置、瞳孔位置中的任一;然后,根据观看者的位置信息,生成待显示对象的左眼图像和右眼图像;最后,将生成的左眼图像和右眼图像输出至显示设备的显示模组进行显示。
这样,由于本申请的实施例提供的显示设备的控制方法能够首先获取观看者的位置信息,其中该位置信息可以是人体位置、人眼位置、瞳孔位置中的任一,因此进一步的可以根据观看位置生成待显示对象的左眼图像和右眼图像,然后将生成的左眼图像和右眼图像输出至显示设备进行显示,相对于采用相同的左眼图像和右眼图像分别映射到左右眼,或者直接为便于在水平方向上的若干个位置观看而预设不同的左眼图像和右眼图像,由于显示设备能够直接根据观看者的位置信息适应性的调整待显示对象的左眼图像和右眼图像,因此能够在不同位置提供更加接近观看真实物体的3D观看效果。
在一种可能的实现方式中,位置信息包括第一参考位置信息和第二参考位置信息,第一参考位置信息和第二参考位置信息相同或不同;根据位置信息,生成待显示对象的左眼图像和右眼图像,包括:根据第一参考位置信息生成待显示对象的左眼图像;根据第二参考位置信息生成待显示对象的右眼图像。具体的,根据获取位置信息的精确度不同,该第一参考位置和第二参考位置可以是相同的也可以是不同的,当位置信息获取的精确度更高,第一参考位置与第二参考位置不同,生成的左眼图像和右眼图像也不同,这样,观看者即使在同一位置进行观看,也可以观看到更加接近观看真实物体的3D观看效果,提升了观看者的观看体验。
在一种可能的实现方式中,第一参考位置信息,包括:左眼位置或左眼瞳孔位置;所述第二参考位置信息,包括:右眼位置或右眼瞳孔位置。示例性的,第一参考位置可以是左眼位置、第二参考位置可以是右眼位置,第一参考位置可以是左眼瞳孔位置、第二参考位置可是右眼瞳孔位置。实际中,第一参考位置和第二参考位置可以依据实际采用的获取位置信息的精确度不同而有所区别,例如第一参考位置可以是精确度较低的左眼位置,第二参考位置可以是精确度较高的右眼瞳孔位置,或者第一参考位置可以是精确度较高的左眼瞳孔位置、第二参考位置可以是精确度较低的右眼位置,这样可以提高计算左眼图像和右眼图像的灵活性,提高了显示过程的稳定性。
在一种可能的实现方式中,获取观看者的位置信息,包括:获取观看者的图像信息,根据图像信息计算观看者的位置信息。具体的,可以是将获取的观看者的图像信息输入深度学习模型计算出该观看者的位置信息,其中该深度学习模型用于表示观看者的图像特征和观看者的位置信息之间的关系。
在一种可能的实现方式中,获取观看者的位置信息,包括:获取观看者的图像信息,将图像信息发送至计算设备;接收计算设备根据图像信息计算的观看者的位置信息。考虑到实际显示设备的计算能力有限,也可以是显示设备获取观看者的图像信息后,将图像信息发送至计算设备(例如可以是服务器),由计算设备将图像信息输入深度学习模型计算出该观看者的位置信息,显示设备接收计算设备根据图像信息计算的观看者的位置信息。由于不需要显示设备根据图像信息计算观看者的位置,因此对其计算能力要求较低。
此外,位置信息也可以是由其他具有摄像头的第三方设备生成。只要该第三方设备能够获取到观看者的位置信息,并将该位置信息回传给显示设备即可。
在一种可能的实现方式中,根据位置信息,生成待显示对象的左眼图像和右眼图像;包括:获取待显示对象的三维3D模型;根据观看者的位置信息转换3D模型;将转换后的3D模型映射至二维2D图像空间,生成左眼图像和右眼图像。
在一种可能的实现方式中,位置信息包括第一参考位置信息和第二参考位置信息,根据观看者的位置信息转换3D模型,包括:根据第一参考位置信息转换3D模型,生成第一3D模型;根据第二参考位置信息转换3D模型,生成第二3D模型;将转换后的3D模型映射至2D图像空间,生成左眼图像和右眼图像,包括:将第一3D模型映射至2D图像空间,生成左眼图像;将第二3D模型映射至2D图像空间,生成右眼图像。
在一种可能的实现方式中,左眼图像中的像素的像素值为3D模型中对应位置的颜色值;右眼图像中的像素的像素值为3D模型中对应位置的颜色值。那么,由于直接将3D模型中对应位置的颜色值分别作为左眼图像中的像素的像素值以及右眼图像中的像素的像素值,所生成的左眼图像和右眼图像能够更接近待显示对象的真实状态,提升了显示效果。应理解,所生成的左眼图和右眼图像的像素的像素值在取值时也可以采用其他合理的颜色值,并不受限于此种取值方式。
第二方面,提供了一种显示设备的控制装置用于实现上述各种方法。该显示设备的控制装置包括实现上述第一方面及其可能的实现方式提供的显示设备的控制方法相应的模块、单元、或手段(means),该模块、单元、或means可以通过硬件实现,软件实现,或者通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块或单元。
第三方面,提供了一种显示设备的控制装置,包括:处理器以及接口电路;所述处理器被配置为调用存储在存储器中的程序指令以控制接口电路执行如第一方面及其可能的实现方式所述的显示设备的控制方法。
第四方面,提供了一种显示设备。显示设备用于裸眼3D显示;显示设备包括:显示模组,以及如第二方面或第三方面所述的显示设备的控制装置。
第五方面,提供了一种计算机可读存储介质,该计算机可读存储介质中存储有程序指令,当该程序指令在计算机或处理器上运行时,使得计算机或处理器可以执行上述第一方面及其可能的实现方式所述的方法。
第六方面,提供了一种包含指令的计算机程序产品,当该指令在计算机或处理器上运行时,使得计算机或处理器可以执行上述第一方面及其可能的实现方式所述的方法。
其中,第二方面至第六方面中任一种设计方式所带来的技术效果可参见上述第一方面及其可能的实现方式中不同设计方式所带来的技术效果,此处不再赘述。
附图说明
图1为本申请的实施例提供的一种显示设备的结构示意图;
图2为本申请的实施例提供的一种显示设备的显示模组的结构示意图;
图3为本申请的实施例提供的一种显示模组显示左眼图像的示意图;
图4为本申请的实施例提供的一种显示模组显示右眼图像的示意图;
图5为本申请的另一实施例提供的一种显示设备的架构示意图;
图6为本申请的实施例提供的一种显示设备的控制方法的流程图;
图7为本申请的另一实施例提供的一种显示设备的控制方法的流程图;
图8为本申请的实施例提供的一种显示设备的控制装置结构示意图;
图9为本申请的另一实施例提供的一种显示设备的控制装置的硬件结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
除非另有定义,否则本文所用的所有科技术语都具有与本领域普通技术人员公知的含义相同的含义。在本申请的实施例中,“第一”、“第二”等字样并不对数量和次序进行限定。
需要说明的是,本申请中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
下面将结合附图,对本申请实施例中的技术方案进行描述。
参考图1所示,本申请的实施例提供一种显示设备10的结构示意图,显示设备10的结构示意图。显示设备10可以是广告屏(广告牌)、显示器、3D显示器、电视(如智慧屏)、笔记本电脑、平板电脑等大屏显示设备。可选的,在一些场景下,显示设备10可以是手机、电子阅读器或可穿戴设备等设备。可选的,在另一些场景下,显示设备10还可以是车载显示设备,例如抬头显示(head up display,HUD)、副驾显示、椅背显示等设备。其中,图1所示的显示设备10是以显示器为例进行说明。
显示设备10可以包括显示模组100和壳体200。当然,图1示出的只是显示设备10的一种示例,该示例并不对显示设备10的结构构成限定,在其他示例中,显示设备10还可以包括更多的结构或部件。
壳体200可以包括边框和后盖。边框可以环绕设于后盖的周缘。壳体200例如可以包括显示设备10的中框。在一个示例中,显示设备10的中框可以收容于边框的内周。在另一个示例中,显示设备10的中框可以充当壳体200的边框。
显示模组100用于提供显示功能。用户可以观看显示模组100所显示的图像、视频等媒体资源。显示模组100可以安装于壳体200上。显示模组100的周缘可以抵靠在边框的内沿。边框可以将显示模组100固定在壳体200上。显示模组100和后盖可以分别安装于边框的两侧,使得壳体200可以为显示设备内部的器件,尤其是显示模组100上的器件,提供机械保护的功能。显示模组100例如可以固定于显示设备10的中框上。
当然,图1示出的只是显示设备10的一种示例,该示例并不对显示设备10的结构构成限定,在其他示例中,显示设备10还可以包括更多的结构或部件。
下面结合图2,对本申请实施例提供的显示设备10中的显示模组100进一步进行阐述,具体的,该显示模组100包括:显示面板101、光学单元102以及背光模组103。其中,光学单元102可以设置在显示面板101的出光侧或入光侧。其中在图2示出的示例中,依次展示了显示面板101、设置于显示面板入光侧的光学单元102以及背光模组103;其中,光学单元设置在显示面板101的出光侧未示出。
在一些示例中,显示设备10还可以包括处理器。以图2示出的显示模组100为例,处理器用于根据显示内容(即图像信号,在本申请的实施例中可以是左眼图像或右眼图像)向背光模组103发送背光控制信号,背光模组103根据背光控制信号控制背光(打开或关闭),并将发出的光传输至光学单元102;光学单元102,用于接收背光模组所发出的光,并调整光的传输方向,使得光的传输方向指向观看者的左眼(右眼),透射至显示面板101;显示面板101,可以是液晶显示器(liquid crystal display,LCD),用于提供显示功能,具体的,用于接收光学单元所投射的光,并根据处理器输出的图像信号(在本申请的实施例中可以是左眼图像或右眼图像)进行显示,使得观看者的左眼接收到左眼图像(右眼接收到右眼图像)其中,左眼图像与右眼图像存在视差。
图1所示的显示设备10用于通过图2示出的显示模组100显示图像,显示设备10向观看显示设备的观看者提供视觉感受。其中,立体图像更能呈现真实的世界,因此显示设备10不断朝着显示立体图像的方向发展。显示设备10显示立体图像是基于视觉移位特性,例如当两幅具有不同深度信息的平面图像分别投射至观看者的左眼以及右眼时,观看者的大脑对两幅具有不同深度信息的平面图像进行解读,进而可以观看到立体图像。
示例性的,显示设备10显示立体图像的技术也被称为三维(3-dimension,3D)技术。3D技术分为佩戴眼镜式3D技术以及裸眼3D技术两类,佩戴眼镜式3D技术主要是通过给观看者佩戴左右眼设置有不同偏振态的镜片,进而使得观看者的左眼接收到左眼图像,右眼接收到右眼图像,左眼图像与右眼图像具有不同深度信息,观看者看到的左眼图像与右眼图像存在视差,观看者在其大脑中对左眼图像以及右眼图像进行图像融合、深度重建、立体成像,进而可以观看到立体图像。
裸眼3D技术相较于佩戴眼镜式3D技术,优点在于不需要使用眼镜。目前,裸眼3D技术包括光屏障式技术、柱透镜技术和指向背光技术。
其中,光屏障技术是在背光模组103与显示面板101之间通过设置液晶层和偏振膜作为光学单元102制造出一系列方向为90°的垂直条纹,形成视差障壁,利用视差屏障使得观看者的左眼接收到左眼图像,右眼接收到右眼图像,左眼图像与右眼图像具有不同深度信息,进而使得观看者观看到立体图像。其中,光屏障技术主要是通过视差屏障阻挡传输至右眼的光线进而使得观看者的左眼接收到左眼图像,阻挡传输至左眼的光线进而使得观看者的右眼接收到右眼图像的,但是,视差屏障阻挡光线往往会降低显示设备10的分辨率,因此光屏障技术会造成显示设备10的分辨率降低。
柱状透镜技术是在显示面板101的出光侧设置柱状透镜作为光学单元102,利用柱状透镜的折射使得观看者的左眼接收到左眼图像,右眼接收到右眼图像,左眼图像与右眼图像具有不同深度信息,进而使得观看者观看到立体图像。其中,柱状透镜中的视点数会影响显示设备10的分辨率,因此柱状透镜技术也会造成显示设备10的分辨率降低。
指向背光技术是在背光模组103与显示面板101之间设置光学透镜作为光学单元102,光学透镜将背光模组103发出的光指向性的透射至观看者的左眼以及右眼,使得观看者的左眼接收到左眼图像,右眼接收到右眼图像,左眼图像与右眼图像具有不同深度信息,进而使得观看者观看到立体图像。通常,指向背光技术通过在时间差较小的不同时刻分别显示左眼图像与右眼图像的方式使得观看者观看到立体图像,这样不会造成显示设备10的分辨率的降低,在裸眼3D技术中,指向背光技术相较于光屏障技术以及柱状透镜技术有较大的优势。
应理解,本申请的实施例中所采用的显示设备的显示模组,可以采用指向背光技术、光屏障式技术和柱透镜技术等立体显示技术进行立体显示,显示模组的结构和器件组成并不对所采用的显示技术造成限定。
具体的,结合图3和图4,对显示设备10进行立体显示的过程作出说明。
其中,当观看者处于图3示出的固定位置时,图3示出了显示模组100显示左眼图像的示意图。在显示模组100显示左眼图像时,处理器根据左眼图像控制背光模组103开启与观看者的左眼对应的背光(例如左眼对应的背光可以是由设置在背光模组103上的一个或多个LED光源提供),显示面板101根据处理器输出的左眼图像,显示与观看者的左眼对应的左眼图像,具体的,由于背光模组103中开启了左眼对应的背光,光传输至光学单元102,光学单元102调整光的传输方向使得光的传输方向指向观看者的左眼,进而使得观看者的左眼接收到左眼图像。
图4示出了显示模组100显示右眼图像的示意图。在显示模组100显示右眼图像时,处理器根据右眼图像控制背光模组103开启与观看者的右眼对应的背光(例如右眼对应的背光可以是由设置在背光模组103上的一个或多个LED光源提供),显示面板101根据处理器输出的右眼图像,显示与观看者的右眼对应的右眼图像,具体的,由于背光模组103中开启了右眼对应的背光,光传输至光学单元102,光学单元102调整光的传输方向使得光的传输方向指向观看者的右眼,进而使得观看者的右眼接收到右眼图像。
这样,由于显示设备可以将左眼图像和右眼图像分别送入对应的人眼,观看者将看到立体图像。同时,显示设备播放左眼图像和右眼图像的间隔比较小时,基于视觉暂留原理,观看者的眼睛相当于同时接收到左眼图像和右眼图像,但由于人两眼之间存在一定的距离,观看者接收到的左眼图像与右眼图像存在视差,观看者在其大脑中对左眼图像以及右眼图像进行图像融合,然后再进行深度重建,最后立体成像,观看者将观看到立体图像。
但是,目前的方案中,对于同一帧3D图像的显示,通常的做法是显示设备将相同的左眼图像和右眼图像分别映射到左右眼。虽然,指向性背光技术能够结合观看者的位置信息调整背光的传输方向,从而进一步优化不同位置的观看者的3D观看效果。但是,由于显示设备对于不同位置的观看者仍然播放相同的左眼图像和右眼图像,因此观看者仅能在固定的观看范围内观看到良好的3D效果。另外,在一些方案中,考虑到用户可能在水平方向不同的位置观看显示设备的因素,对于同一帧3D图像的显示,显示设备也会预设不同的左眼图像和右眼图像,其中,为了更加有利于在水平方向上的不同位置均能观看到更加符合真实物体的3D效果,该左眼图像和右眼图像的图像信息分别适应性的根据用户设备在水平方向上的若干个位置观看该3D图像而做出了调整。然而,该左眼图像和右眼图像的图像信息仅仅有利于用户设备在水平方向上的若干个位置的观看效果,其他位置仍然不能取得更好的观看效果。
为了解决上述问题,参照图5所示,本申请的实施例提供一种显示设备10的架构图,包括:显示模组100以及显示设备的控制装置300。其中,显示设备的控制装置300用于执行显示设备的控制方法,实现显示设备的3D显示控制。基于上述图5示出的显示设备10的架构图,参照图6所示,提供了一种显示设备的控制方法,包括如下步骤:
步骤501、获取观看者的位置信息。
具体的,参照图5所示,显示设备10还可以包括位置检测器400,用于获取观看者的位置信息。
参照图5所示,观看者在观看位置1时,位置检测器400可以检测到观看位置1的位置信息;当观看者在观看位置2时,位置检测器400可以检测到观看位置2的位置信息。通常位置检测器400可以是摄像头,其中,显示设备10中的位置检测器400每间隔预定时间获取一次视场角内的图像,获取观看者的图像信息,根据图像信息计算观看者的位置信息。具体的,可以是将获取的观看者的图像信息输入深度学习模型计算出该观看者的位置信息,其中该深度学习模型用于表示观看者的图像特征和观看者的位置信息之间的关系。当然,考虑到位置检测器400的计算能力有限,也可以是获取观看者的图像信息后,将图像信息发送至计算设备(例如可以是服务器);并接收计算设备根据图像信息计算的观看者的位置信息。例如,在t1时刻,观看位置1的观看者进入到位置检测器400的视场角范围内,位置检测器400获取到视场角内的图像,并在图像中检测观看位置1的观看者的位置信息。在t2时刻,观看位置2的观看者进入到位置检测器400的视场角范围内,位置检测器400获取到视场角内的图像,并在图像中检测观看位置2的观看者的位置信息。当然,该位置信息可以是观看者的人体位置,该人体位置可以用一个三维空间的坐标点表示,例如,本实施例中观看位置1的观看者的位置信息可以用三维空间坐标(x1,y1,z1)表示,观看位置2的观看者的位置信息用三维空间坐标(x2,y2,z2)表示。
在图5示出的显示设备10的架构中,同时包括了位置检测器400,当然,在一些示例中该位置检测器400也可以集成于单独的设备中,例如该位置检测器可以是其他具有摄像头的第三方设备。只要该第三方设备能够检测到观看显示设备10的观看者的位置信息,并将该位置信息回传给显示设备10即可。
步骤502、根据所获取到的位置信息,生成待显示对象的左眼图像和右眼图像。
参照图5所示,显示设备的控制装置300,用于接收位置检测器400所获取的观看者位置信息,生成待显示对象的左眼图像和右眼图像,具体的,控制装置300可以获取待显示对象的3D模型(该3D模型可以用一系列的三维空间坐标点进行表示),根据所接收到的位置检测器400所获取的观看者的位置信息,将待显示对象的3D模型对应所获取的观看者位置信息进行转换,再将转换后的3D模型映射至二维2D图像空间生成左眼图像和右眼图像,其中,左眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值,右眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。
示例性的,具体的转换计算过程如下:
其中,待显示对象的3D模型由N(N为正整数)个3D坐标点组成,单个坐标值设为(xn,yn,zn)(其中n属于正整数,并且小于N)。
1)首先,将待显示对象的3D模型的每一坐标点转换为以观看位置1观看者的位置信息(x1,y1,z1)为3D坐标系原点的坐标点,将待显示对象的3D模型的每一坐标点转换为以观看位置2的观看者的位置信息(x2,y2,z2)为3D坐标系原点的坐标点,那么,观看位置1观看者的位置信息对应的转换后的3D模型数据值为(xn-1,yn-1,zn-1),观看位置2观看者的位置信息对应的转换后的3D模型数据值为(xn-2,yn-2,zn-2),计算方式如下所示:
(xn-1,yn-1,zn-1)=(xn,yn,zn)-(x1,y1,z1);
(xn-2,yn-2,zn-2)=(xn,yn,zn)-(x2,y2,z2);
2)将转换后的3D模型映射至二维2D图像空间,生成左眼图像和右眼图像,具体的,计算方式如下所示:
设3D模型坐标点到2D图像的关系转换矩阵为:其中,u表示图像宽的一半,单位为像素;v表示图像高的一半,单位为像素;vx和vy为一经验值,在实际中通常根据瞳孔到眼球中心的距离进行设置,单位是像素。具体的,因为每个观看者的瞳孔到眼球中心的距离是不一样的,所以vx和vy的取值可以改变。因此,在下述实施例中,当显示设备获取的观看者的位置信息中包含瞳孔位置以及眼睛位置(例如眼睛位置可以是眼球中心位置)时,也可以根据观看者的位置信息确定观看者的瞳孔到眼球中心的距离,在进行转换时根据不同观看者的瞳孔到眼球中心的距离,从预设的vx值和vy值中适应性选取合适的vx值和vy值,并生成对应的关系转换矩阵A,进行该步骤的转换计算。
观看位置1观看者的位置信息(x1,y1,z1)对应的左眼图像的2D图像坐标值为(xn-2d1,yn-2d1),则3D模型坐标对应到左眼图像的2D图像坐标的计算过程如下所示:
(xn-t1,yn-t1,zn-t1)=A×(xn-1,yn-1,zn-1)T
(xn-2d1,yn-2d1)=[xn-t1/zn-t1,yn-t1/zn-t1];
其中,观看位置1生成左眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。其中,上述过程对于观看者在观看位置1时,是参考位置信息(x1,y1,z1)将3D模型坐标转换到2D图像坐标,生成了左眼图像;那么由于只确立了一个参考坐标点,因此右眼图像也可以参考位置信息(x1,y1,z1)将3D模型坐标转换到2D图像坐标,生成与左眼图像相同的右眼图像。
观看位置2观看者的位置信息(x2,y2,z2)对应的左眼图像的2D图像坐标值为(xn-2d2,yn-2d2),则3D模型坐标对应到2D图像坐标的计算过程如下所示:
(xn-t2,yn-t2,zn-t2)=A×(xn-2,yn-2,zn-2)T
(xn-2d2,yn-2d2)=[xn-t2/zn-t2,yn-t2/zn-t2];
其中,观看位置2生成左眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。其中,上述过程对于观看者在观看位置2时,是参考位置信息(x2,y2,z2)将3D模型坐标转换到2D图像坐标,生成了左眼图像;那么由于只确立了一个参考坐标点,因此右眼图像也可以参考位置信息(x1,y1,z1)将3D模型坐标转换到2D图像坐标,生成与左眼图像相同的右眼图像。
可选的,在一些示例中,控制装置300生成的左眼图像和右眼图像的像素的像素值在取值时也可以采用其他合理的颜色值,而并不受限于此种取值方式。
可见,观看者在观看位置1时,根据待显示对象生成的2D图像的坐标值(xn-2d1,yn-2d1),是与位置信息(x1,y1,z1)相关的;观看者在观看位置2时,根据待显示对象生成的2D图像的坐标值(xn-2d2,yn-2d2),是与位置信息(x2,y2,z2)相关的;因此,观看者在不同位置观看时的左眼图像(右眼图像)是不同的。
步骤503、将生成左眼图像和右眼图像输出至显示设备的显示模组进行显示。
控制装置300将生成的左眼图像和右眼图像输出至显示设备10,显示设备10,用于将生成的左眼图像和右眼图像输出至显示模组100进行显示,最终使观看者观看到立体图像。
可选的,该显示模组100可以采用上述裸眼3D技术进行显示(包括光屏障式技术、柱透镜技术和指向背光技术),此处不作限定。
这样,由于本申请的实施例提供的显示设备的控制方法能够首先获取观看者的位置信息,(上述实施例中以人体位置为例作出说明),进一步根据所获取的位置信息生成待显示对象的左眼图像和右眼图像,然后将生成的左眼图像和右眼图像输出至显示设备的显示模组进行显示,相对于采用相同的左眼图像和右眼图像分别映射到左右眼,由于显示设备能够根据观看者位置信息适应性的对待显示对象的左眼图像和右眼图像进行调整,因此能够在不同位置提供更加接近观看真实物体的3D观看效果,保证了观看者在不同位置都能有更好的观看效果。
为此,结合图5所示架构,本实施例提供了一种显示设备的控制方法,参照图7所示,该方法包括:
步骤601、获取观看者的位置信息,位置信息包括第一参考信息和第二参考信息。
具体的,参照图5所示,显示设备10还可以包括位置检测器400,用于获取观看者的位置信息。
参照图5所示,观看者在观看位置1时,位置检测器400可以检测到观看位置1的位置信息,观看者在观看位置2时,位置检测器400可以检测到观看位置2的位置信息。通常位置检测器400可以是摄像头,其中,显示设备100中的位置检测器400每间隔预定时间获取一次视场角内的图像,获取观看者的图像信息,根据图像信息计算观看者的位置信息。具体的,可以是将获取的观看者的图像信息输入深度学习模型计算出该观看者的位置信息,其中该深度学习模型用于表示观看者的图像特征和观看者的位置信息之间的关系。当然,考虑到位置检测器400的计算能力有限,也可以是获取观看者的图像信息后,将图像信息发送至计算设备(例如可以是服务器);并接收计算设备根据图像信息计算的观看者的位置信息。例如,在t1时刻,观看位置1的观看者进入到位置检测器400的视场角范围内,位置检测器400获取到视场角内的图像,并在图像中检测观看位置1的观看者的位置信息。在t2时刻,观看位置2的观看者进入到位置检测器400的视场角范围内,位置检测器400获取到视场角内的图像,并在图像中检测观看位置2的观看者的位置信息。根据位置检测器400所采用的的摄像头的检测精度,该位置信息也可以采用比人体位置精确度更高的人眼位置或瞳孔位置,例如,当采用高清晰度摄像头实现该位置检测器400时,获取的图片可以直接检测到人眼,甚至瞳孔,那么可以采用检测到的人眼位置或瞳孔位置作为位置信息。因此,当采用高清晰度摄像头实现该位置检测器400时,该位置信息包括:第一参考位置信息和第二参考位置信息,即观看位置1包括第一参考位置和第二参考位置,观看位置2包括第一参考位置和第二参考位置。
可选的,第一参考位置信息,包括:左眼位置或左眼瞳孔位置,第二参考位置信息,包括:右眼位置或右眼瞳孔位置,示例性的,第一参考位置可以是左眼位置、第二参考位置可以是右眼位置,第一参考位置可以是左眼瞳孔位置、第二参考位置可是右眼瞳孔位置。实际中,第一参考位置和第二参考位置可以依据实际采用的获取位置信息的精确度不同而有所区别,例如第一参考位置可以是精确度较低的左眼位置,第二参考位置可以是精确度较高的右眼瞳孔位置,或者第一参考位置可以是精确度较高的左眼瞳孔位置、第二参考位置可以是精确度较低的右眼位置,第一参考位置和第二参考位置可以依据位置检测器的精度进行选择,并不局限。
本实施例中将以瞳孔位置为例进行说明,具体的,第一参考位置为左眼瞳孔位置,第二次参考位置为右眼瞳孔位置,那么,第一位置信息对应生成左眼图像,第二位置信息对应生成右眼图像,该瞳孔位置可以用于一个三维空间的坐标点表示。示例性的,本实施例中观看位置1的观看者的第一参考位置信息用(x11,y11,z11)表示、观看位置1的观看者的第二参考位置信息用(x12,y12,z12)表示,观看位置2的观看者的第一参考位置信息用(x21,y21,z21)表示、观看位置2的观看者的第二参考位置信息用(x22,y22,z22)表示。
在图5示出的显示设备10的架构中,同时包括了位置检测器400,当然,在一些示例中该位置检测器400也可以集成于单独的设备中,例如该位置检测器可以是其他具有摄像头的第三方设备。只要该第三方设备能够检测到观看显示设备10的观看者的位置信息,并将该位置信息回传给显示设备10即可。
步骤602、根据第一参考位置信息,生成待显示对象的左眼图像。
参照图5所示,显示设备的控制装置300,用于接收位置检测器400所获取的观看者位置信息,生成待显示对象的左眼图像,具体的,控制装置300获取待显示对象的3D模型(该3D模型可以用一系列的三维空间坐标点进行表示),根据所接收到的位置检测器400所获取的观看位置1的第一参考位置信息和观看位置2的第一参考位置信息,将待显示对象的3D模型对应进行转换,再将转换后的3D模型映射至二维2D图像空间生成待显示对象在观看位置1和观看位置2的左眼图像,其中,左眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。
示例性的,具体的转换计算过程如下:
其中,待显示的3D模型由N(N为正整数)个3D坐标数据组成,单个坐标值设为(xn,yn,zn)(其中n属于正整数,并且小于N)。
1)首先,将待显示对象的3D模型的坐标点转换为以观看位置1的第一参考位置信息(x11,y11,z11)为3D坐标系原点的坐标点,将待显示对象的3D模型的坐标点转换为以观看位置2的第一参考位置信息(x21,y21,z21)为3D坐标系原点的坐标点,那么,观看位置1的第一参考位置信息对应的3D模型数据值为(xn-11,yn-11,zn-11),观看位置2的第一参考位置信息对应的3D模型数据值为(xn-21,yn-21,zn-21)计算方式如下所示:
(xn-11,yn-11,zn-11)=(xn,yn,zn)-(x11,y11,z11);
(xn-21,yn-21,zn-21)=(xn,yn,zn)-(x21,y21,z21);
2)将转换后的3D模型映射至二维2D图像空间,生成左眼图像,具体的,计算方式如下所示:
设3D模型坐标点到2D图像的关系转换矩阵为:其中,u表示图像宽的一半,单位为像素;v表示图像高的一半,单位为像素;vx和vy为一经验值,在实际中通常根据瞳孔到眼球中心的距离进行设置,单位是像素。在本实施例中取vx=609.5,vy=608.1,u=640,v=480。
观看位置1的第一参考位置信息对应的左眼图像的2D图像的坐标值为(xn-2d11,yn-2d11),则3D模型坐标对应到左眼图像的2D图像坐标的计算如下所示:
(xn-t11,yn-t11,zn-t11)=A×(xn-11,yn-11,zn-11)T
(xn-2d11,yn-2d11)=[xn-t11/zn-t11,yn-t11/zn-t11];
观看位置2的第一参考位置信息对应的左眼图像的2D图像的坐标值为(xn-2d21,yn-2d21),则3D模型坐标对应到左眼图像的2D图像坐标的计算公式所示:
(xn-t21,yn-t21,zn-t21)=A×(xn-21,yn-21,zn-21)T
(xn-2d21,yn-2d21)=[xn-t21/zn-t21,yn-t21/zn-t21];
其中,观看位置1生成左眼图像中的像素的像素值为待显示对象3D模型中对应位置的颜色值,观看位置2生成左眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。可选的,在一些示例中,控制装置300生成的左眼图像的像素的像素值在取值时也可以采用其他合理的颜色值,而并不受限于此种取值方式。
步骤603、将左眼图像输出至显示设备的显示模组进行显示。
控制装置300将生成的观看位置1对应的左眼图像和观看位置2对应的左眼图像输出至显示设备10的显示模组100进行显示。
步骤604、根据第二参考位置信息,生成待显示对象的右眼图像。
显示设备的控制装置300,用于接收位置检测器400所获取的观看者位置信息,生成待显示对象的右眼图像,具体的,控制装置300获取待显示对象的3D模型(该3D模型可以用一系列的三维空间坐标点进行表示),根据所接收到的位置检测器400所获取的观看位置1的第二参考位置信息和观看位置2的第二参考位置信息,将待显示对象的3D模型对应进行转换,再将转换后的3D模型映射至二维2D图像空间生成待显示对象在观看位置1和观看位置2对应的右眼图像,其中,右眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。
示例性的,具体的转换计算过程如下:
其中,待显示对象的3D模型由N(N为正整数)个3D坐标数据组成,单个坐标值设为(xn,yn,zn)(其中n属于正整数,并且小于N)。
1)首先,将待显示对象的3D模型的坐标点转换为以观看位置1的第二参考位置信息(x12,y12,z12)为3D坐标系原点的坐标点,将待显示对象的3D模型的坐标点转换为以观看位置2的第二参考位置信息(x22,y22,z22)为3D坐标系原点的坐标点,那么,观看位置1的第二参考位置信息对应的3D模型数据值为(xn-12,yn-12,zn-12),观看位置2的第二参考位置信息对应的3D模型数据值为(xn-22,yn-22,zn-22),计算方式如下所示:
(xn-12,yn-12,zn-12)=(xn,yn,zn)-(x11,y11,z11);
(xn-22,yn-22,zn-22)=(xn,yn,zn)-(x21,y21,z21);
2)将转换后的3D模型映射至二维2D图像空间,生成右眼图像,具体的,计算方式如下所示:
设3D模型坐标点到2D图像的关系转换矩阵为:其中,u表示图像宽的一半,单位为像素;v表示图像高的一半,单位为像素;vx和vy为一经验值,在实际中通常根据瞳孔到眼球中心的距离进行设置,单位是像素。在本实施例中取vx=609.5,vy=608.1,u=640,v=480。
观看位置1的第二参考位置信息对应的右眼图像的2D图像的坐标值为(xn-2d12,yn-2d12),则3D模型坐标对应到右眼图像的2D图像坐标的计算如下所示:
(xn-t12,yn-t12,zn-t12)=A×(xn-12,yn-12,zn-12)T
(xn-2d12,yn-2d12)=[xn-t12/zn-t12,yn-t12/zn-t12];
观看位置2的第二参考位置信息对应的右眼图像的2D图像的坐标值为(xn-2d22,yn-2d22),则3D模型坐标对应到右眼图像的2D图像坐标的计算如下所示:
(xn-t22,yn-t22,zn-t22)=A×(xn-22,yn-22,zn-22)T
(xn-2d22,yn-2d22)=[xn-t22/zn-t22,yn-t22/zn-t22];
其中,观看位置1生成右眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值,观看位置2生成右眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。
可选的,在一些示例中,控制装置300生成的右眼图像的像素的像素值在取值时也可以采用其他合理的颜色值,而并不受限于此种取值方式。
步骤605、将右眼图像输出至显示设备的显示模组进行显示。
控制装置300将生成的观看位置1对应的右眼图像和观看位置2对应的右眼图像输出至显示设备10的显示模组100进行显示。
可见,观看者在观看位置1时,根据待显示对象生成的左眼图像的2D图像的坐标值(xn-2d11,yn-2d11),是与观看位置1的第一参考位置信息(x11,y11,z11)相关的,根据待显示对象生成的右眼图像的2D图像的坐标值(xn-2d12,yn-2d12),是与观看位置1的第二参考位置信息(x12,y12,z12)相关的;观看者在观看位置2时,根据待显示对象生成的左眼图像的2D图像的坐标值(xn-2d12,yn-2d12),是与观看位置2的第一参考位置信息(x21,y21,z21)相关的,根据待显示对象生成的右眼图像的2D图像的坐标值(xn-2d22,yn-2d22),是与观看位置2的第二参考位置信息(x22,y22,z22)相关的;因此,观看者在同一位置时的左眼图像(右眼图像)是不同的,观看者在不同位置时的左眼图像(右眼图像)也是不同的。
这样,由于本实施例提供的显示设备的控制方法能够首先获取人眼位置、瞳孔位置中的任一,因此在第一参考位置信息和第二参考位置信息不同时,分别生成待显示对象的左眼图像和右眼图像,然后将生成的左眼图像和右眼图像分别输出至显示设备进行显示,具体的,即使观看位置相同,由于观看位置信息采用两个人眼位置信息或两个瞳孔位置信息,根据位置信息生成的左眼图像和右眼图像不同,相对于位置信息只采用单一位置生成的左眼图像和右眼图像相同,由于本实施例根据位置信息生成的左眼图像和右眼图像不同,能够进行精确度更高的显示,使得显示效果更接近待显示内容的真实状态,进一步提高了观看者的观看体验。
可以理解的是,以上各个实施例中,由显示设备的控制装置实现的方法和/或步骤,也可以由可用于显示设备的控制装置的部件(例如芯片或者电路)实现。
可以理解的是,该显示设备的控制装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请的实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法实施例中对显示设备的控制装置进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
参照图8所示,示出了一种显示设备的控制装置300的结构示意图。该显示设备的控制装置应用于显示设备,该显示设备用于裸眼3D显示;该装置包括:获取单元301、处理单元302和接口单元303。
获取单元301,用于获取观看者的位置信息,该位置信息至少包括:人体位置、人眼位置、瞳孔位置中的任一;
处理单元302,用于根据获取单元301获取的位置信息,生成待显示对象的左眼图像和右眼图像;
接口单元303,用于将处理单元302生成的左眼图像和右眼图像输出至显示设备的显示模组进行显示。
可选的,获取单元301获取的位置信息包括第一参考位置信息和第二参考位置信息,第一参考位置信息和第二参考位置信息相同或不同;处理单元302,具体用于根据第一参考位置信息生成待显示对象的左眼图像;根据第二参考位置信息生成待显示对象的右眼图像。
可选的,第一参考位置信息,包括:左眼位置或左眼瞳孔位置;第二参考位置信息,包括:右眼位置或右眼瞳孔位置。
可选的,获取单元301,具体用于获取观看者的图像信息,根据图像信息计算观看者的位置信息。
可选的,获取单元301,具体用于获取观看者的图像信息,将图像信息发送至计算设备;接收计算设备根据图像信息计算的观看者的位置信息。
可选的,处理单元,具体用于获取待显示对象的3D模型;根据观看者的位置信息转换3D模型;将转换后的3D模型映射至2D图像空间,生成左眼图像和右眼图像。
可选的,处理单元302,具体用于根据第一参考位置信息转换3D模型,生成第一3D模型;根据第二参考位置信息转换3D模型,生成第二3D模型;将第一3D模型映射至2D图像空间,生成左眼图像。将第二3D模型映射至2D图像空间,生成右眼图像。
可选的,左眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值;右眼图像中的像素的像素值为待显示对象的3D模型中对应位置的颜色值。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
如图9所示,本申请的又一实施例提供一种显示设备的控制装置300的硬件结构示意图。
其中,显示设备的控制装置包括至少一个处理器(图9中示例性的以包括一个处理器3001为例进行说明)和至少一个接口电路3002。
处理器3001和接口电路3002通过通信线路相连接。通信线路可包括一通路,在上述组件之间传送信息。
处理器3001可以是通用中央处理器(central processing unit,CPU)、微处理器、特定应用集成电路(application-specific integrated circuit,ASIC),或者一个或多个用于控制本申请方案程序执行的集成电路。在具体实现中,作为一种实施例,处理器3001也可以包括多个CPU,并且处理器3001可以是单核(single-CPU)处理器或多核(multi-CPU)处理器。这里的处理器可以指一个或多个设备、电路或用于处理数据(例如计算机程序指令)的处理核。
其中,处理器3001,执行存储器中存储的程序指令,控制接口电路3002实现如上述的显示设备的控制方法。
或者,可选的,本申请实施例中,也可以是处理器3001执行本申请下述实施例提供的显示设备的控制装置中的处理相关的功能,接口电路3002负责与其他部件连接以实现信号的传输,例如向显示模组传输生成的左眼图像和右眼图像等,本申请实施例对此不作具体限定。
可选的,本申请实施例中的计算机执行指令也可以称之为应用程序代码或者计算机程序代码,本申请实施例对此不作具体限定。
在具体实现中,作为一种实施例,处理器3001可以包括一个或多个CPU,例如图9中的CPU0和CPU1。
在具体实现中,作为一种实施例,显示设备的控制装置可以包括多个处理器,例如图8中的处理器3003和处理器3004。这些处理器中的每一个可以是一个单核(single-CPU)处理器,也可以是一个多核(multi-CPU)处理器。这里的处理器可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
显示设备的控制装置中的处理器3001可以通过计算机执行指令,使得显示设备的控制装置执行上述方法实施例中的方法。具体的,图8中的获取单元301、处理单元302的功能/实现过程可以通过图9所示的显示设备的控制装置中的处理器3001中计算机执行指令来实现。由于本实施例提供的图像信号处理装置可执行上述的方法,因此其所能获得的技术效果可参考上述方法实施例,在此不再赘述。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。本申请实施例中,计算机可以包括前面所述的装置。
尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
尽管结合具体特征及其实施例对本申请进行了描述,显而易见的,在不脱离本申请的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本申请的示例性说明,且视为已覆盖本申请范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (20)

1.一种显示设备的控制方法,其特征在于,所述显示设备用于裸眼立体3D显示;该方法包括:
获取观看者的位置信息,所述位置信息至少包括:人体位置、人眼位置、瞳孔位置中的任一;
根据所述位置信息,生成待显示对象的左眼图像和右眼图像;
将所述左眼图像和所述右眼图像输出至所述显示设备的显示模组进行显示。
2.根据权利要求1所述的显示设备的控制方法,其特征在于,所述位置信息包括第一参考位置信息和第二参考位置信息,所述第一参考位置信息和所述第二参考位置信息相同或不同;
根据所述位置信息,生成待显示对象的左眼图像和右眼图像,包括:
根据第一参考位置信息生成待显示对象的左眼图像;根据第二参考位置信息生成待显示对象的右眼图像。
3.根据权利要求2所述的显示设备的控制方法,其特征在于,
所述第一参考位置信息,包括:左眼位置或左眼瞳孔位置;
所述第二参考位置信息,包括:右眼位置或右眼瞳孔位置。
4.根据权利要求1-3任一项所述的显示设备的控制方法,其特征在于,所述获取观看者的位置信息,包括:
获取所述观看者的图像信息,根据所述图像信息计算所述观看者的位置信息。
5.根据权利要求1-3任一项所述的显示设备的控制方法,其特征在于,所述获取观看者的位置信息,包括:
获取所述观看者的图像信息,将所述图像信息发送至计算设备;
接收所述计算设备根据所述图像信息计算的所述观看者的位置信息。
6.根据权利要求1-5任一项所述的显示设备的控制方法,其特征在于,根据所述位置信息,生成待显示对象的左眼图像和右眼图像;包括:
获取所述待显示对象的三维3D模型;
根据所述观看者的位置信息转换所述3D模型;
将转换后的所述3D模型映射至二维2D图像空间,生成所述左眼图像和右眼图像。
7.根据权利要求6所述的显示设备的控制方法,其特征在于,所述位置信息包括第一参考位置信息和第二参考位置信息,所述根据所述观看者的位置信息转换所述3D模型,包括:
根据所述第一参考位置信息转换所述3D模型,生成第一3D模型;
根据所述第二参考位置信息转换所述3D模型,生成第二3D模型;
将转换后的所述3D模型映射至2D图像空间,生成所述左眼图像和所述右眼图像,包括:
将第一3D模型映射至2D图像空间,生成所述左眼图像;
将第二3D模型映射至2D图像空间,生成所述右眼图像。
8.根据权利要求6所述的显示设备的控制方法,其特征在于,
所述左眼图像中的像素的像素值为所述3D模型中对应位置的颜色值;
所述右眼图像中的像素的像素值为所述3D模型中对应位置的颜色值。
9.一种显示设备的控制装置,其特征在于,应用于显示设备,所述显示设备用于裸眼3D显示;包括:
获取单元,用于获取观看者的位置信息,所述位置信息至少包括:人体位置、人眼位置、瞳孔位置中的任一;
处理单元,用于根据所述位置信息,生成待显示对象的左眼图像和右眼图像;
接口单元,用于将所述处理单元生成的所述左眼图像和所述右眼图像输出至所述显示设备的显示模组进行显示。
10.根据权利要求9所述的显示设备的控制装置,其特征在于,所述位置信息包括第一参考位置信息和第二参考位置信息,所述第一参考位置信息和所述第二参考位置信息相同或不同;
所述处理单元,具体用于根据第一参考位置信息生成待显示对象的左眼图像;根据第二参考位置信息生成待显示对象的右眼图像。
11.根据权利要求10所述的显示设备的控制装置,其特征在于,
所述第一参考位置信息,包括:左眼位置或左眼瞳孔位置;
所述第二参考位置信息,包括:右眼位置或右眼瞳孔位置。
12.根据权利要求9-11任一项所述的显示设备的控制装置,其特征在于,所述获取单元,具体用于获取所述观看者的图像信息,根据所述图像信息计算所述观看者的位置信息。
13.根据权利要求9-11任一项所述的显示设备的控制装置,其特征在于,所述获取单元,具体用于获取所述观看者的图像信息,将所述图像信息发送至计算设备;接收所述计算设备根据所述图像信息计算的所述观看者的位置信息。
14.根据权利要求9-13任一项所述的显示设备的控制装置,其特征在于,所述处理单元,具体用于获取所述待显示对象的3D模型;根据所述观看者的位置信息转换所述3D模型;将转换后的所述3D模型映射至2D图像空间,生成所述左眼图像和右眼图像。
15.根据权利要求14所述的显示设备的控制装置,其特征在于,所述位置信息包括第一参考位置信息和第二参考位置信息;
所述处理单元,具体用于所述根据所述第一参考位置信息转换所述3D模型,生成第一3D模型;所述根据所述第二参考位置信息转换所述3D模型,生成第二3D模型;将第一3D模型映射至2D图像空间,生成所述左眼图像;将第二3D模型映射至2D图像空间,生成所述右眼图像。
16.根据权利要求14所述的显示设备的控制装置,其特征在于,
所述左眼图像中的像素的像素值为所述3D模型中对应位置的颜色值;
所述右眼图像中的像素的像素值为所述3D模型中对应位置的颜色值。
17.一种显示设备的控制装置,其特征在于,应用于显示设备,所述显示设备用于裸眼3D显示;包括:处理器以及接口电路;
所述处理器,用于执行存储器中存储的程序指令,控制接口电路实现如权利要求1-8任一项所述的显示设备的控制方法。
18.一种显示设备,其特征在于,所述显示设备用于裸眼3D显示;所述显示设备包括:显示模组,以及如权利要求9-17任一项所述的显示设备的控制装置。
19.一种计算机可读存储介质,其特征在于,包括程序指令,当所述程序指令在所述显示设备上执行时,用于实现如权利要求1-8任一项所述的显示设备的控制方法。
20.一种计算机程序产品,其特征在于,包括程序指令,当所述程序指令在所述显示设备上执行时,用于实现如权利要求1-8任一项所述的显示设备的控制方法。
CN202310090456.0A 2023-01-19 2023-01-19 一种显示设备及其控制方法、控制装置 Pending CN118368401A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310090456.0A CN118368401A (zh) 2023-01-19 2023-01-19 一种显示设备及其控制方法、控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310090456.0A CN118368401A (zh) 2023-01-19 2023-01-19 一种显示设备及其控制方法、控制装置

Publications (1)

Publication Number Publication Date
CN118368401A true CN118368401A (zh) 2024-07-19

Family

ID=91877116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310090456.0A Pending CN118368401A (zh) 2023-01-19 2023-01-19 一种显示设备及其控制方法、控制装置

Country Status (1)

Country Link
CN (1) CN118368401A (zh)

Similar Documents

Publication Publication Date Title
US12028502B2 (en) Three dimensional glasses free light field display using eye location
US9866825B2 (en) Multi-view image display apparatus and control method thereof
US9191661B2 (en) Virtual image display device
US9848184B2 (en) Stereoscopic display system using light field type data
US10237539B2 (en) 3D display apparatus and control method thereof
US8723920B1 (en) Encoding process for multidimensional display
US20180184066A1 (en) Light field retargeting for multi-panel display
CN108769664B (zh) 基于人眼跟踪的裸眼3d显示方法、装置、设备及介质
CN103348682A (zh) 在多视图系统中提供单一视觉的方法和装置
CN108076208B (zh) 一种显示处理方法及装置、终端
CN104065944B (zh) 一种超高清三维转换装置及三维显示系统
Nakamura et al. Analysis of longitudinal viewing freedom of reduced‐view super multi‐view display and increased longitudinal viewing freedom using eye‐tracking technique
CN118368401A (zh) 一种显示设备及其控制方法、控制装置
EP2469867A2 (en) Image processing apparatus and image processing method
US9270980B2 (en) Autostereoscopic display system and method
CN102256160B (zh) 一种立体图像处理设备及方法
CN102256152B (zh) 一种立体图像处理设备及方法
CN114020150A (zh) 图像显示方法、装置、电子设备及介质
CN103002296A (zh) 立体影像显示方法及立体影像显示系统
JP4481275B2 (ja) 3次元映像情報の伝送方法
US20130182087A1 (en) Information processing apparatus and display control method
US20240121373A1 (en) Image display method and 3d display system
US20240251069A1 (en) Display device and display method therefor
US20240236288A9 (en) Method And Apparatus For Generating Stereoscopic Display Contents
Wang et al. An Introduction to Immersive Display Technologies

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right

Effective date of registration: 20241106

Address after: 518129 Huawei Headquarters Office Building 101, Wankecheng Community, Bantian Street, Longgang District, Shenzhen, Guangdong

Applicant after: Shenzhen Yinwang Intelligent Technology Co.,Ltd.

Country or region after: China

Address before: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen

Applicant before: HUAWEI TECHNOLOGIES Co.,Ltd.

Country or region before: China