CN114827711B - 图像信息显示方法和装置 - Google Patents

图像信息显示方法和装置 Download PDF

Info

Publication number
CN114827711B
CN114827711B CN202210720304.XA CN202210720304A CN114827711B CN 114827711 B CN114827711 B CN 114827711B CN 202210720304 A CN202210720304 A CN 202210720304A CN 114827711 B CN114827711 B CN 114827711B
Authority
CN
China
Prior art keywords
dimensional
image
display
display area
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210720304.XA
Other languages
English (en)
Other versions
CN114827711A (zh
Inventor
谢独放
李阳
李浩正
王怡丁
焦弟琴
黄晓艺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
You Can See Beijing Technology Co ltd AS
Original Assignee
You Can See Beijing Technology Co ltd AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by You Can See Beijing Technology Co ltd AS filed Critical You Can See Beijing Technology Co ltd AS
Priority to CN202210720304.XA priority Critical patent/CN114827711B/zh
Publication of CN114827711A publication Critical patent/CN114827711A/zh
Application granted granted Critical
Publication of CN114827711B publication Critical patent/CN114827711B/zh
Priority to PCT/CN2023/081391 priority patent/WO2023246189A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本公开实施例公开了一种图像信息显示方法和装置,涉及计算机技术领域,其中的方法包括:获取二维图像中的像素的分类信息,生成与二维图像相对应的语义图;基于语义图确定与二维图像中的目标物体相对应的候选显示区域;获取与候选显示区域相对应的三维显示平面,在与各个目标物体对应的三维显示平面中选取三维目标显示区域;根据显示位置信息以及图像观测位置,确定与三维目标显示区域相对应的二维屏幕显示区域,对图像信息进行显示处理;本公开实施例可以在用户浏览时,在真实空间平面以及虚拟空间平面上展示与用户进行交互的图像信息,提供MR信息展示能力以及场景化信息,提高了用户的空间浏览体验。

Description

图像信息显示方法和装置
技术领域
本公开涉及计算机技术领域,尤其涉及一种图像信息显示方法、装置以及存储介质、电子设备、程序产品。
背景技术
VR(Virtual Reality虚拟现实)全景技术是一种新兴技术,由于VR全景技术可以720度无死角的为用户呈现三维空间场景,给用户带来浸入式视觉体验,用户可以通过VR看房挑选房间的模拟装修方案,可以在VR场景中实现房屋装修效果模拟等。用户在进行VR看房过程中,可以通过确定虚拟观察点在VR模型内的位置信息和视角信息,基于位置信息和视角信息确定显示的观察画面,能够看到观察画面中的物品,包括窗户、墙壁、镜面、桌面、电视等具有平面的物品。目前,在用户浏览观察画面时,在窗户、墙壁、镜面、桌面、电视等的平面上没有显示与用户进行交互的图像信息,图像信息可以为对房屋、物品、环境的介绍信息等,与场景无任何融合,使用户缺少与空间场景进行交互的体验,用户的体验度不高。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种图像信息显示方法、装置以及存储介质、电子设备、程序产品。
根据本公开实施例的第一方面,提供一种图像信息显示方法,包括:获取二维图像中的像素的分类信息,基于所述分类信息生成与所述二维图像相对应的语义图;基于所述语义图确定与所述二维图像中的目标物体相对应的候选显示区域;根据与所述二维图像相对应的深度图像,获取与所述候选显示区域相对应的三维显示平面;获取与所述二维图像相对应的三维模型,确定与所述三维模型相对应的图像观测位置,基于所述图像观测位置在与各个目标物体对应的三维显示平面中选取三维目标显示区域;获取与所述三维目标显示区域相对应的显示位置信息以及图像信息,根据所述显示位置信息以及所述图像观测位置,确定与所述三维目标显示区域相对应的二维屏幕显示区域;在所述二维屏幕显示区域中对所述图像信息进行显示处理。
可选地,所述获取二维图像中的像素的分类信息,基于所述分类信息生成与所述二维图像相对应的语义图包括:使用训练好的神经网络模型对所述二维图像中的各个像素进行分类处理,获取所述二维图像中各个像素的类别标签;基于所述二维图像中的各个像素的位置信息以及对应的类别标签,生成所述语义图。
可选地,所述基于所述语义图确定与所述二维图像中的目标物体相对应的候选显示区域包括:基于所述语义图中的类别标签,在所述语义图中确定与所述目标物体对应的至少一个目标区域;使用预设的图像连通算法将与所述目标物体对应的多个目标区域进行图像连通处理,生成至少一个像素聚合簇;根据所述至少一个像素聚合簇确定所述候选显示区域。
可选地,所述根据所述至少一个像素聚合簇确定所述候选显示区域包括:判断所述像素聚合簇的数量是否大于1,如果否,则将此像素聚合簇设置为候选簇;如果是,则根据预设的聚合簇评分因素对各个像素聚合簇进行评分处理,并基于所述各个像素聚合簇的评分在多个像素聚合簇中确定候选簇;其中,所述聚合簇评分因素包括:像素聚合簇的位置分布以及大小;将所述候选簇设置为前景并将所述语义图中的其余像素设置为背景,生成二值图;在所述二值图中获取与所述前景相对应的最大矩形,作为所述候选显示区域。
可选地,所述根据与所述二维图像相对应的深度图像,获取与所述候选显示区域相对应的三维显示平面包括:基于所述深度图像将所述候选显示区域中的二维像素坐标转换为对应的三维像素坐标;根据所述三维像素坐标生成与所述候选显示区域相对应的三维点云;根据平面检测算法对所述三维点云进行平面检测;如果通过检测,则获取与所述三维点云相对应的三维显示平面。
可选地,所述基于所述图像观测位置在与各个目标物体对应的三维显示平面中选取三维目标显示区域包括:根据所述图像观测位置,获取与各个目标物体相对应的三维显示平面相对应的展示因素;其中,所述展示因素包括:三维显示平面的朝向、三维显示平面与所述图像观测位置之间的距离;基于所述展示因素确定与各个目标物体相对应的三维显示平面的展示评分;根据所述展示评分选取所述三维目标显示区域。
可选地,所述显示位置信息包括:所述三维目标显示区域的顶点三维坐标信息;所述根据所述显示位置信息以及所述图像观测位置,确定与所述三维目标显示区域相对应的二维屏幕显示区域包括:基于所述顶点三维坐标信息以及所述图像观测位置,确定所述三维目标显示区域的顶点二维坐标信息;根据所述二维坐标信息,在所述三维模型与所述图像观测位置相对应的二维屏幕显示图像中确定所述二维屏幕显示区域。
可选地,所述在所述二维屏幕显示区域中对所述图像信息进行显示处理包括:获取所述二维屏幕显示区域的背景信息,基于所述背景信息对所述图像信息的显示元素进行调整;其中,所述图像信息的显示元素包括:图片和对应的文字、符号中的至少一项。
可选地,所述在所述二维屏幕显示区域中对所述图像信息进行显示处理包括:获取所述三维目标显示区域与所述图像观测位置之间的观测距离,并确定所述二维屏幕显示区域的区域大小;基于所述区域大小和所述观测距离,确定所述图像信息的显示方式和大小。
可选地,所述二维图像包括:与房屋室内相对应的彩色二维图像;所述目标物体包括:窗户、墙壁、镜面、桌面、电视中的至少一个。
根据本公开实施例的第二方面,提供一种图像信息显示装置,包括:图像分析模块,用于获取二维图像中的像素的分类信息,基于所述分类信息生成与所述二维图像相对应的语义图;候选区域确定模块,用于基于所述语义图确定与所述二维图像中的目标物体相对应的候选显示区域;三维平面获取模块,用于根据与所述二维图像相对应的深度图像,获取与所述候选显示区域相对应的三维显示平面;目标区域确定模块,用于获取与所述二维图像相对应的三维模型,确定与所述三维模型相对应的图像观测位置,基于所述图像观测位置在与各个目标物体对应的三维显示平面中选取三维目标显示区域;显示区域确定模块,用于获取与所述三维目标显示区域相对应的显示位置信息以及图像信息,根据所述显示位置信息以及所述图像观测位置,确定与所述三维目标显示区域相对应的二维屏幕显示区域;显示处理模块,用于在所述二维屏幕显示区域中对所述图像信息进行显示处理。
可选地,所述图像分析模块,具体用于使用训练好的神经网络模型对所述二维图像中的各个像素进行分类处理,获取所述二维图像中各个像素的类别标签;基于所述二维图像中的各个像素的位置信息以及对应的类别标签,生成所述语义图。
可选地,所述候选区域确定模块,包括:目标区域确定单元,用于基于所述语义图中的类别标签,在所述语义图中确定与所述目标物体对应的至少一个目标区域;区域连通处理单元,用于使用预设的图像连通算法将与所述目标物体对应的多个目标区域进行图像连通处理,生成至少一个像素聚合簇;候选区域选取单元,用于根据所述至少一个像素聚合簇确定所述候选显示区域。
可选地,所述候选区域选取单元,用于判断所述像素聚合簇的数量是否大于1,如果否,则将此像素聚合簇设置为候选簇;如果是,则根据预设的聚合簇评分因素对各个像素聚合簇进行评分处理,并基于所述各个像素聚合簇的评分在多个像素聚合簇中确定候选簇;其中,所述聚合簇评分因素包括:像素聚合簇的位置分布以及大小;将所述候选簇设置为前景并将所述语义图中的其余像素设置为背景,生成二值图;在所述二值图中获取与所述前景相对应的最大矩形,作为所述候选显示区域。
可选地,所述三维平面获取模块,包括:坐标转换单元,用于基于所述深度图像将所述候选显示区域中的二维像素坐标转换为对应的三维像素坐标;点云生成单元,用于根据所述三维像素坐标生成与所述候选显示区域相对应的三维点云;平面检测单元,用于根据平面检测算法对所述三维点云进行平面检测;平面确定单元,用于如果通过检测,则获取与所述三维点云相对应的三维显示平面。
可选地,所述目标区域确定模块,具体用于根据所述图像观测位置,获取与各个目标物体相对应的三维显示平面相对应的展示因素;其中,所述展示因素包括:三维显示平面的朝向、三维显示平面与所述图像观测位置之间的距离;基于所述展示因素确定与各个目标物体相对应的三维显示平面的展示评分;根据所述展示评分选取所述三维目标显示区域。
可选地,所述显示位置信息包括:所述三维目标显示区域的顶点三维坐标信息;所述显示区域确定模块,具体用于基于所述顶点三维坐标信息以及所述图像观测位置,确定所述三维目标显示区域的顶点二维坐标信息;根据所述二维坐标信息,在所述三维模型与所述图像观测位置相对应的二维屏幕显示图像中确定所述二维屏幕显示区域。
可选地,所述显示处理模块,用于获取所述二维屏幕显示区域的背景信息,基于所述背景信息对所述图像信息的显示元素进行调整;其中,所述图像信息的显示元素包括:图片和对应的文字、符号中的至少一项。
可选地,所述显示处理模块,用于获取所述三维目标显示区域与所述图像观测位置之间的观测距离,并确定所述二维屏幕显示区域的区域大小;基于所述区域大小和所述观测距离,确定所述图像信息的显示方式和大小。
可选地,所述二维图像包括:与房屋室内相对应的彩色二维图像;所述目标物体包括:窗户、墙壁、镜面、桌面、电视中的至少一个。
根据本公开实施例的第三方面,提供一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于执行上述的方法。
根据本公开实施例的第四方面,提供一种计算机程序产品,包括计算机程序指令,其特征在于,该计算机程序指令被处理器执行时实现上述所述的方法。
基于本公开上述实施例提供的图像信息显示方法、装置以及存储介质、电子设备、程序产品,能够在用户浏览时,在真实空间平面以及虚拟空间平面上展示与用户进行交互的图像信息,提供MR信息展示能力以及场景化信息,向用户提供空间场景交互体验,提高了用户的空间浏览体验,有效改善了用户的感受度。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征以及优势将变得更加明显。附图用来提供对本公开实施例的进一步的理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为本公开的图像信息显示方法的一个实施例的流程图;
图2为本公开的图像信息显示方法的一个实施例中的确定候选显示区域的流程图;
图3为本公开的图像信息显示方法的一个实施例中的确定三维显示平面的流程图;
图4为本公开的图像信息显示方法的一个实施例中的选取三维目标显示区域的流程图;
图5为本公开的图像信息显示方法的一个实施例中的确定二维屏幕显示区域的流程图;
图6A为二维屏幕显示区域的示意图,图6B为在二维屏幕显示区域内显示图像信息的示意图;
图7为本公开的图像信息显示装置的一个实施例的结构示意图;
图8为本公开的图像信息显示装置的一个实施例中的候选区域确定模块的结构示意图;
图9为本公开的图像信息显示装置的一个实施例中的三维平面获取模块的结构示意图;
图10是本公开的电子设备的一个实施例的结构图。
具体实施方式
下面将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或者两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅是一种描述关联对象的关联关系,表示可以存在三种关系,如A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开的实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或者专用计算系统环境或配置一起操作。适于与终端设备、计算机系统或者服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统和包括上述任何系统的分布式云计算技术环境等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施。在分布式云计算环境中,任务可以是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
申请概述
在实现本公开的过程中,发明人发现,在用户浏览观察画面时,在窗户、墙壁、镜面、桌面、电视等的平面上没有显示与用户进行交互的图像信息,用户缺少与空间场景进行交互的体验,使用户的看房体验不高。因此,需要一种新的图像信息显示方案。
本公开提供的图像信息显示方法,获取二维图像中的像素的分类信息,生成与二维图像相对应的语义图;基于语义图确定与二维图像中的目标物体相对应的候选显示区域;根据与二维图像相对应的深度图像,获取与候选显示区域相对应的三维显示平面;获取与二维图像相对应的三维模型,确定与三维模型相对应的图像观测位置,在与各个目标物体对应的三维显示平面中选取三维目标显示区域;根据显示位置信息以及图像观测位置,确定与三维目标显示区域相对应的二维屏幕显示区域,对图像信息进行显示处理;能够在用户浏览时,在真实空间平面以及虚拟空间平面上展示与用户进行交互的图像信息,提供MR信息展示能力以及场景化信息,提高了用户的空间浏览体验。
示例性方法
本公开中的步骤标号,例如“步骤一”、“步骤二”、“S101”、“S102”等,仅为了区分不同步骤,不代表步骤之间的先后顺序,具有不同标号的步骤在执行时可以调整顺序。
图1为本公开的图像信息显示方法的一个实施例的流程图,如图1所示的方法包括步骤:S101-S106。下面对各步骤分别进行说明。
S101,获取二维图像中的像素的分类信息,基于分类信息生成与二维图像相对应的语义图。
在一个实施例中,二维图像可以为与房屋室内相对应的彩色二维图像,例如,二维图像为客体、卧室、体育馆室内的彩色图像等。二维图像中的目标物体可以为窗户、墙壁、镜面、桌面、电视等,目标物体具有平面结构,能够在其上播放视频、设置图片等。
二维图像中的像素的分类信息包括窗户、墙壁、镜面、桌面、电视、地面、墙壁等分类信息。基于分类信息生成与二维图像相对应的语义图可以使用多种方法。例如,使用训练好的神经网络模型对二维图像中的各个像素进行分类处理,获取二维图像中各个像素的类别标签。神经网络模型可以卷积神经网络、对抗式神经网络模型等,可以采用现有的多种训练方法进行训练。
将二维图像输入训练好的神经网络模型,通过神经网络模型能够确定二维图像中的像素属于窗户、墙壁、镜面、桌面、电视、地面、墙壁等,并对二维图像中各个像素设置对应的类别标签,类别标签可以为标签窗户、墙壁、镜面、桌面、电视、地面、墙壁等标签。
基于二维图像中的各个像素的位置信息以及对应的类别标签,生成语义图。可以在二维图像中的各个像素的所在位置处设置与此像素相对应的类别标签,例如表征像素属于窗户、墙壁、镜面、桌面、电视、地面、墙壁等的类别标签,生成语义图。
S102,基于语义图确定与二维图像中的目标物体相对应的候选显示区域。
可以根据生成的语义图,确定二维图像中的窗户、墙壁、镜面、桌面、电视、地面、墙壁等目标物体的候选显示区域。
S103,根据与二维图像相对应的深度图像,获取与候选显示区域相对应的三维显示平面。
S104,获取与二维图像相对应的三维模型,确定与三维模型相对应的图像观测位置,基于图像观测位置在与各个目标物体对应的三维显示平面中选取三维目标显示区域。
在一个实施例中,深度图像可以为使用深度相机等拍摄的客体、卧室、体育馆室内等的深度图像,深度图像中的像素具有三维坐标信息。基于深度图像并使用现有的多种方法可以建立客体、卧室、体育馆室内等的三维模型,此三维模型能够支持VR场景展示功能,即为VR模型,可以通过此三维模型为用户呈现三维空间场景。
用户在观看VR场景展示时,可以设置与三维模型相对应的图像观测位置(虚拟观测点),三维模型能够基于定图像观测位置确定需要在二维屏幕上进行显示的二维图像。
S105,获取与三维目标显示区域相对应的显示位置信息以及图像信息,根据显示位置信息以及图像观测位置,确定与三维目标显示区域相对应的二维屏幕显示区域。
S106,在二维屏幕显示区域中对图像信息进行显示处理。
在一个实施例中,图像信息可以为混合现实技术MR信息,图像信息可以为多种,例如为小区介绍、环境说明、房屋优势说明等图像信息,能够为用户提供场景化信息。可以在真实空间的平面以及虚拟空间内的平面上,例如窗户、墙壁、镜面、桌面、电视、地面、墙壁等目标物体上的二维屏幕显示区域中展示图像信息,提供MR展示能力,向用户提供空间场景交互体验,提高了用户的空间浏览体验。
图2为本公开的图像信息显示方法的一个实施例中的确定候选显示区域的流程图,如图2所示的方法包括步骤:S201-S203。下面对各步骤分别进行说明。
S201,基于语义图中的类别标签,在语义图中确定与目标物体对应的至少一个目标区域。
S202,使用预设的图像连通算法将与目标物体对应的多个目标区域进行图像连通处理,生成至少一个像素聚合簇。图像连通算法可以为多种,例如为现有的图像区域生长算法等。
S203,根据至少一个像素聚合簇确定候选显示区域。
判断像素聚合簇的数量是否大于1,如果否,则将此像素聚合簇设置为候选簇;如果是,则根据预设的聚合簇评分因素对各个像素聚合簇进行评分处理,并基于各个像素聚合簇的评分在多个像素聚合簇中确定候选簇。
聚合簇评分因素包括像素聚合簇的位置分布以及大小。例如,目标物体为窗户,基于语义图中的类别标签,在语义图中确定与窗户对应的多个目标区域。使用现有的图像区域生长算法将窗户的多个目标区域进行图像连通处理,生成多个像素聚合簇。
聚合簇评分因素包括像素聚合簇的位置分布以及大小等,可以设置与聚合簇评分因素相对应的评分标准,例如,像素聚合簇越大,则此项的评分越高;像素聚合簇的位置距离多个像素聚合簇的中心位置的距离越远,则此项的评分越低等。根据评分标准分别对多个像素聚合簇进行评分,将分值大于阈值的像素聚合簇确定为候选簇,候选簇的数量可以为一个或多个。将候选簇设置为前景并将语义图中的其余像素设置为背景,生成二值图,在二值图中获取与前景相对应的最大矩形,作为候选显示区域。
在一个实施例中,使用训练好的前馈神经网络模型对二维彩色图像进行处理,提取彩色图像中的特征,并基于特征对二维彩色图像中的每个像素进行分类,对每个像素确定一个语义类别标签,类别标签包括窗户、墙壁、镜面、桌面、电视等类别标签。基于与原彩色图像素一一对应的类别标签构成一张语义图。
使用语义图可以初步筛选窗户、墙壁、镜面、桌面、电视等目标物体,获取目标物体在二维彩色图像中的位置,生成目标区域,此时获取的目标区域是二维的,且目标区域分布零散、逐像素的,不构成一个合围的区域。
通过把零散的目标区域聚合成连通的部分,并结合深度图拟合三维物体的表面。例如,采用图像区域生长算法生成连通部分,把相邻的同类别的像素聚合成像素聚合簇。在得到的多个像素聚合簇中,根据位置分布、簇大小等评分标准,对结果进行排序,选取符合标准的候选簇。
像素候选簇可能是不规则形状,需要处理成规则形状。把当前候选簇设置为前景,其余的图像像素的位置设置为背景,得到一张二值图。对二值图运行使用现有的最大矩形查找算法,得到规则的矩形,构成一个合围区域,作为候选显示区域。
图3为本公开的图像信息显示方法的一个实施例中的确定三维显示平面的流程图,如图3所示的方法包括步骤:S301-S304。下面对各步骤分别进行说明。
S301,基于深度图像将候选显示区域中的二维像素坐标转换为对应的三维像素坐标。
S302,根据三维像素坐标生成与候选显示区域相对应的三维点云。
S303,根据平面检测算法对三维点云进行平面检测。平面检测算法可以为多种,例如为现有的随机采样一致性算法等。
S304,如果通过检测,则获取与三维点云相对应的三维显示平面。
在一个实施例中,三维显示平面可以通过现有的三维重建技术构造,三维显示平面可以为空间中适合展示信息的多个区域,每个区域由多个边界角点的三维坐标合围构成。候选显示区域缺少三维位置信息,需要基于深度图的处理得到三维坐标。
使用深度图把候选显示区域的各个像素对应的二维坐标变换到三维空间,得到对应的三维点云,对三维点云使用随机采样一致性算法进行随机采样一致性检测,能够拟合与目标物体相对应的三维平面,作为三维显示平面。
选取三维目标显示区域可以采用多种方法。图4为本公开的图像信息显示方法的一个实施例中的选取三维目标显示区域的流程图,如图4所示的方法包括步骤:S401-S403。下面对各步骤分别进行说明。
S401,根据图像观测位置,获取与各个目标物体相对应的三维显示平面相对应的展示因素。
在一个实施例中,展示因素包括三维显示平面的朝向、三维显示平面与图像观测位置之间的距离等因素。显示位置信息可以为三维目标显示区域的顶点三维坐标信息等。
S402,基于展示因素确定与各个目标物体相对应的三维显示平面的展示评分。
S403,根据展示评分选取三维目标显示区域。
在一个实施例中,根据每个与三维模型相对应的图像观测位置(虚拟观测点),获取与窗户、墙壁、镜面、桌面、电视、地面、墙壁等目标物体相对应的三维显示平面的展示因素,展示因素包括三维显示平面的朝向、三维显示平面与图像观测位置之间的距离等。
可以设置展示评分标准,例如,三维显示平面的朝向越偏离屏幕,则此项的评分越低;三维显示平面与图像观测位置之间的距离近,则此项的评分越高等。根据评分标准并基于三维显示平面的朝向、三维显示平面与图像观测位置之间的距离等因素,确定与各个目标物体相对应的三维显示平面的展示评分,将分值大于阈值的三维显示平面确定为三维目标显示区域,三维目标显示区域的数量可以为一个或多个。
图5为本公开的图像信息显示方法的一个实施例中的确定二维屏幕显示区域的流程图,如图5所示的方法包括步骤:S501-S502。下面对各步骤分别进行说明。
S501,基于顶点三维坐标信息以及图像观测位置,确定三维目标显示区域的顶点二维坐标信息。
在一个实施例中,显示位置信息包括三维目标显示区域的顶点三维坐标信息。例如,三维目标显示区域可以为位于窗户上的显示区域,如图6A所示,三维目标显示区域为矩形区域,显示位置信息包括此矩形区域的四个顶点的三维坐标信息。
确定三维目标显示区域的四个顶点,四个顶点围成的区域为需要展示UI的矩形区域,可以将图像信息贴到对应的三维目标显示区域的矩形区域。当用户发生游走、旋转等手势时,图像观测位置发生了变化,则确定新的显示位置信息,并根据新的显示位置信息以及图像观测位置,确定三维目标显示区域的顶点二维坐标信息。
S502,根据二维坐标信息,在三维模型与图像观测位置相对应的二维屏幕显示图像中确定二维屏幕显示区域。
获取二维屏幕显示区域的背景信息,基于背景信息对图像信息的显示元素进行调整,图像信息的显示元素包括图片和对应的文字、符号等。通过实现MR信息展示,可以将信息与环境联系更加紧密。例如,在三维空间中的窗户、墙壁、镜面、桌面、电视等的二维屏幕显示区域展示图像信息。
使用线性图片配合文案的形式展示信息,能够直观的展示数据信息。为使图像展示更加清晰,信息展示有两种样式:1、信息文字符号等选用白色为主色,搭配外发光,具有黑色半透蒙层或背景模糊效果;2、通过现有的算法识别背景色色值,针对不同背景色色值,信息符号等元素选用不同颜色进行展示。
在一个实施例中,获取三维目标显示区域与图像观测位置之间的观测距离,并确定二维屏幕显示区域的区域大小,基于区域大小和观测距离,确定图像信息的显示方式和大小。
当用户处于VR空间时,随着图像观测位置的变化,与MR信息显示的距离会随之变化,如果MR信息显示的大小为固定的,可能在用户观察时会出现MR信息显示过大或过小的情况,影响整体的展示效果。
MR信息显示在空间的展示效果,受到两个参数的影响,即MR展示区域大小(由于UI效果长宽比一定,以二维屏幕显示区域的区域宽度D进行显示限制)和观察距离L,在用户观测时,通过如下表1进行MR信息显示控制,能够保证MR信息的展示效果,MR信息的展示控制效果如图6B所示。
距离L\大小D 0.4-0.6m 0.6-1.2m
0-1.5m 自适应宽度 定宽0.4m
1.5-3m 隐藏 定宽0.6m
表1-MR信息的展示控制表
基于本公开的图像信息显示方法,能够在用户浏览时,在真实空间平面以及虚拟空间平面上展示与用户进行交互的图像信息,提供MR信息展示能力以及场景化信息,向用户提供空间场景交互体验,提高了用户的空间浏览体验。
示例性装置
在一个实施例中,如图7所示,本公开提供一种图像信息显示装置,包括图像分析模块71、候选区域确定模块72、三维平面获取模块73、目标区域确定模块74、显示区域确定模块75和显示处理模块76。
图像分析模块71获取二维图像中的像素的分类信息,基于分类信息生成与二维图像相对应的语义图。图像分析模块71使用训练好的神经网络模型对二维图像中的各个像素进行分类处理,获取二维图像中各个像素的类别标签;图像分析模块71基于二维图像中的各个像素的位置信息以及对应的类别标签,生成语义图。
候选区域确定模块72基于语义图确定与二维图像中的目标物体相对应的候选显示区域。三维平面获取模块73根据与二维图像相对应的深度图像,获取与候选显示区域相对应的三维显示平面。
目标区域确定模块74获取与二维图像相对应的三维模型,确定与三维模型相对应的图像观测位置,基于图像观测位置在与各个目标物体对应的三维显示平面中选取三维目标显示区域。显示区域确定模块75获取与三维目标显示区域相对应的显示位置信息以及图像信息,根据显示位置信息以及图像观测位置,确定与三维目标显示区域相对应的二维屏幕显示区域。显示处理模块76在二维屏幕显示区域中对图像信息进行显示处理。
在一个实施例中,如图8所示,候选区域确定模块72包括目标区域确定单元721、区域连通处理单元722和候选区域选取单元723。目标区域确定单元721基于语义图中的类别标签,在语义图中确定与目标物体对应的至少一个目标区域。区域连通处理单元722使用预设的图像连通算法将与目标物体对应的多个目标区域进行图像连通处理,生成至少一个像素聚合簇;其中,图像连通算法包括图像区域生长算法。候选区域选取单元723根据至少一个像素聚合簇确定候选显示区域。
候选区域选取单元723判断像素聚合簇的数量是否大于1,如果否,则候选区域选取单元723将此像素聚合簇设置为候选簇;如果是,则候选区域选取单元723根据预设的聚合簇评分因素对各个像素聚合簇进行评分处理,并基于各个像素聚合簇的评分在多个像素聚合簇中确定候选簇;其中,聚合簇评分因素包括:像素聚合簇的位置分布以及大小。候选区域选取单元723将候选簇设置为前景并将语义图中的其余像素设置为背景,生成二值图。候选区域选取单元723在二值图中获取与前景相对应的最大矩形,作为候选显示区域。
在一个实施例中,如图9所示,三维平面获取模块73包括坐标转换单元731、点云生成单元732、平面检测单元733和平面确定单元734。坐标转换单元731基于深度图像将候选显示区域中的二维像素坐标转换为对应的三维像素坐标。点云生成单元732根据三维像素坐标生成与候选显示区域相对应的三维点云。平面检测单元733根据平面检测算法对三维点云进行平面检测;其中,平面检测算法包括随机采样一致性算法。如果通过检测,则平面确定单元734获取与三维点云相对应的三维显示平面。
在一个实施例中,目标区域确定模块74根据图像观测位置,获取与各个目标物体相对应的三维显示平面相对应的展示因素;其中,展示因素包括三维显示平面的朝向、三维显示平面与图像观测位置之间的距离等。目标区域确定模块74基于展示因素确定与各个目标物体相对应的三维显示平面的展示评分,根据展示评分选取三维目标显示区域。
显示位置信息包括三维目标显示区域的顶点三维坐标信息;显示区域确定模块75基于顶点三维坐标信息以及图像观测位置,确定三维目标显示区域的顶点二维坐标信息。显示区域确定模块75根据二维坐标信息,在三维模型与图像观测位置相对应的二维屏幕显示图像中确定二维屏幕显示区域。
显示处理模块76获取二维屏幕显示区域的背景信息,基于背景信息对图像信息的显示元素进行调整;其中,图像信息的显示元素包括图片和对应的文字、符号。显示处理模块76获取三维目标显示区域与图像观测位置之间的观测距离,并确定二维屏幕显示区域的区域大小,基于区域大小和观测距离,确定图像信息的显示方式和大小。
图10是本公开的电子设备的一个实施例的结构图,如图10所示,电子设备101包括一个或多个处理器1011和存储器1012。
处理器1011可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备101中的其他组件以执行期望的功能。
存储器1012可以存储器可以存储一个或多个计算机程序产品,所述存储器可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序产品,处理器可以运行所述计算机程序产品。以实现上文所述的本公开的各个实施例的图像信息显示方法以及/或者其他期望的功能。
在一个示例中,电子设备101还可以包括:输入装置1013以及输出装置1014等,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。此外,该输入设备1013还可以包括例如键盘、鼠标等等。该输出装置1014可以向外部输出各种信息。该输出设备1014可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图10中仅示出了该电子设备101中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备101还可以包括任何其他适当的组件。
除了上述方法和设备以外,除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例的图像信息显示方法中的步骤。
计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的图像信息显示方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列举)可以包括:具有一个或者多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势以及效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
上述实施例中的图像信息显示方法、装置以及存储介质、电子设备、程序产品,能够在用户浏览时,在真实空间平面以及虚拟空间平面上展示与用户进行交互的图像信息,提供MR信息展示能力以及场景化信息,向用户提供空间场景交互体验,提高了用户的空间浏览体验,有效改善了用户的感受度。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备以及系统。诸如“包括”、“包含、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述,以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改等对于本领域技术人员而言,是非常显而易见的,并且在此定义的一般原理可以应用于其他方面,而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式中。尽管以上已经讨论了多个示例方面以及实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (8)

1.一种图像信息显示方法,其特征在于,包括:
获取二维图像中的像素的分类信息,基于所述分类信息生成与所述二维图像相对应的语义图;
基于所述语义图确定与所述二维图像中的目标物体相对应的候选显示区域,包括:
基于所述语义图中的类别标签,在所述语义图中确定与所述目标物体对应的至少一个目标区域;使用预设的图像连通算法将与所述目标物体对应的多个目标区域进行图像连通处理,生成至少一个像素聚合簇;根据所述至少一个像素聚合簇确定所述候选显示区域;
根据与所述二维图像相对应的深度图像,获取与所述候选显示区域相对应的三维显示平面;
获取与所述二维图像相对应的三维模型,确定与所述三维模型相对应的图像观测位置,基于所述图像观测位置在与各个目标物体对应的三维显示平面中选取三维目标显示区域,包括:
根据所述图像观测位置,获取与各个目标物体相对应的三维显示平面相对应的展示因素;其中,所述展示因素包括:三维显示平面的朝向、三维显示平面与所述图像观测位置之间的距离;基于所述展示因素确定与各个目标物体相对应的三维显示平面的展示评分;根据所述展示评分选取所述三维目标显示区域;
获取与所述三维目标显示区域相对应的显示位置信息以及图像信息,根据所述显示位置信息以及所述图像观测位置,确定与所述三维目标显示区域相对应的二维屏幕显示区域;
在所述二维屏幕显示区域中对所述图像信息进行显示处理。
2.如权利要求1所述的方法,其特征在于,所述获取二维图像中的像素的分类信息,基于所述分类信息生成与所述二维图像相对应的语义图包括:
使用训练好的神经网络模型对所述二维图像中的各个像素进行分类处理,获取所述二维图像中各个像素的类别标签;
基于所述二维图像中的各个像素的位置信息以及对应的类别标签,生成所述语义图。
3.如权利要求2所述的方法,其特征在于,所述根据所述至少一个像素聚合簇确定所述候选显示区域包括:
判断所述像素聚合簇的数量是否大于1,如果否,则将此像素聚合簇设置为候选簇;如果是,则根据预设的聚合簇评分因素对各个像素聚合簇进行评分处理,并基于所述各个像素聚合簇的评分在多个像素聚合簇中确定候选簇;其中,所述聚合簇评分因素包括:像素聚合簇的位置分布以及大小;
将所述候选簇设置为前景并将所述语义图中的其余像素设置为背景,生成二值图;
在所述二值图中获取与所述前景相对应的最大矩形,作为所述候选显示区域。
4.如权利要求3所述的方法,其特征在于,所述根据与所述二维图像相对应的深度图像,获取与所述候选显示区域相对应的三维显示平面包括:
基于所述深度图像将所述候选显示区域中的二维像素坐标转换为对应的三维像素坐标;
根据所述三维像素坐标生成与所述候选显示区域相对应的三维点云;
根据平面检测算法对所述三维点云进行平面检测;如果通过检测,则获取与所述三维点云相对应的三维显示平面。
5.如权利要求4所述的方法,其特征在于,所述显示位置信息包括:所述三维目标显示区域的顶点三维坐标信息;所述根据所述显示位置信息以及所述图像观测位置,确定与所述三维目标显示区域相对应的二维屏幕显示区域包括:
基于所述顶点三维坐标信息以及所述图像观测位置,确定所述三维目标显示区域的顶点二维坐标信息;
根据所述二维坐标信息,在所述三维模型与所述图像观测位置相对应的二维屏幕显示图像中确定所述二维屏幕显示区域。
6.如权利要求5所述的方法,其特征在于,所述在所述二维屏幕显示区域中对所述图像信息进行显示处理包括:
获取所述二维屏幕显示区域的背景信息,基于所述背景信息对所述图像信息的显示元素进行调整;
其中,所述图像信息的显示元素包括:图片和对应的文字、符号中的至少一项。
7.如权利要求5所述的方法,其特征在于,所述在所述二维屏幕显示区域中对所述图像信息进行显示处理包括:
获取所述三维目标显示区域与所述图像观测位置之间的观测距离,并确定所述二维屏幕显示区域的区域大小;
基于所述区域大小和所述观测距离,确定所述图像信息的显示方式和大小。
8.一种图像信息显示装置,其特征在于,包括:
图像分析模块,用于获取二维图像中的像素的分类信息,基于所述分类信息生成与所述二维图像相对应的语义图;
候选区域确定模块,用于基于所述语义图确定与所述二维图像中的目标物体相对应的候选显示区域;
其中,所述候选区域确定模块,包括:目标区域确定单元,用于基于所述语义图中的类别标签,在所述语义图中确定与所述目标物体对应的至少一个目标区域;区域连通处理单元,用于使用预设的图像连通算法将与所述目标物体对应的多个目标区域进行图像连通处理,生成至少一个像素聚合簇;候选区域选取单元,用于根据所述至少一个像素聚合簇确定所述候选显示区域;
三维平面获取模块,用于根据与所述二维图像相对应的深度图像,获取与所述候选显示区域相对应的三维显示平面;
目标区域确定模块,用于获取与所述二维图像相对应的三维模型,确定与所述三维模型相对应的图像观测位置,基于所述图像观测位置在与各个目标物体对应的三维显示平面中选取三维目标显示区域;
其中,所述目标区域确定模块,具体用于根据所述图像观测位置,获取与各个目标物体相对应的三维显示平面相对应的展示因素;其中,所述展示因素包括:三维显示平面的朝向、三维显示平面与所述图像观测位置之间的距离;基于所述展示因素确定与各个目标物体相对应的三维显示平面的展示评分;根据所述展示评分选取所述三维目标显示区域;
显示区域确定模块,用于获取与所述三维目标显示区域相对应的显示位置信息以及图像信息,根据所述显示位置信息以及所述图像观测位置,确定与所述三维目标显示区域相对应的二维屏幕显示区域;
显示处理模块,用于在所述二维屏幕显示区域中对所述图像信息进行显示处理。
CN202210720304.XA 2022-06-24 2022-06-24 图像信息显示方法和装置 Active CN114827711B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210720304.XA CN114827711B (zh) 2022-06-24 2022-06-24 图像信息显示方法和装置
PCT/CN2023/081391 WO2023246189A1 (zh) 2022-06-24 2023-03-14 图像信息显示方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210720304.XA CN114827711B (zh) 2022-06-24 2022-06-24 图像信息显示方法和装置

Publications (2)

Publication Number Publication Date
CN114827711A CN114827711A (zh) 2022-07-29
CN114827711B true CN114827711B (zh) 2022-09-20

Family

ID=82522122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210720304.XA Active CN114827711B (zh) 2022-06-24 2022-06-24 图像信息显示方法和装置

Country Status (2)

Country Link
CN (1) CN114827711B (zh)
WO (1) WO2023246189A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827711B (zh) * 2022-06-24 2022-09-20 如你所视(北京)科技有限公司 图像信息显示方法和装置
CN115631291B (zh) * 2022-11-18 2023-03-10 如你所视(北京)科技有限公司 用于增强现实的实时重光照方法和装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060230A (zh) * 2019-01-18 2019-07-26 商汤集团有限公司 三维场景分析方法、装置、介质及设备
CN111178191A (zh) * 2019-11-11 2020-05-19 贝壳技术有限公司 信息播放方法、装置、计算机可读存储介质及电子设备
CN113129362A (zh) * 2021-04-23 2021-07-16 北京地平线机器人技术研发有限公司 一种三维坐标数据的获取方法及装置
CN113902856A (zh) * 2021-11-09 2022-01-07 浙江商汤科技开发有限公司 一种语义标注的方法、装置、电子设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030095707A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Computer vision method and system for blob-based analysis using a probabilistic pramework
CN105989594B (zh) * 2015-02-12 2019-02-12 阿里巴巴集团控股有限公司 一种图像区域检测方法及装置
KR101928689B1 (ko) * 2015-05-20 2018-12-12 미쓰비시덴키 가부시키가이샤 점군 화상 생성 장치 및 표시 시스템
JP6586824B2 (ja) * 2015-08-27 2019-10-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN110400337B (zh) * 2019-07-10 2021-10-26 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN112581629B (zh) * 2020-12-09 2024-05-28 中国科学院深圳先进技术研究院 增强现实显示方法、装置、电子设备及存储介质
CN113793255A (zh) * 2021-09-09 2021-12-14 百度在线网络技术(北京)有限公司 用于图像处理的方法、装置、设备、存储介质和程序产品
CN113934297B (zh) * 2021-10-13 2024-05-31 西交利物浦大学 一种基于增强现实的交互方法、装置、电子设备及介质
CN114827711B (zh) * 2022-06-24 2022-09-20 如你所视(北京)科技有限公司 图像信息显示方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060230A (zh) * 2019-01-18 2019-07-26 商汤集团有限公司 三维场景分析方法、装置、介质及设备
CN111178191A (zh) * 2019-11-11 2020-05-19 贝壳技术有限公司 信息播放方法、装置、计算机可读存储介质及电子设备
CN113129362A (zh) * 2021-04-23 2021-07-16 北京地平线机器人技术研发有限公司 一种三维坐标数据的获取方法及装置
CN113902856A (zh) * 2021-11-09 2022-01-07 浙江商汤科技开发有限公司 一种语义标注的方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2023246189A1 (zh) 2023-12-28
CN114827711A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
US10242265B2 (en) Actor/person centric auto thumbnail
Wu et al. Subjective quality database and objective study of compressed point clouds with 6DoF head-mounted display
US9330501B2 (en) Systems and methods for augmenting panoramic image data with performance related data for a building
CN114827711B (zh) 图像信息显示方法和装置
CN109771951B (zh) 游戏地图生成的方法、装置、存储介质和电子设备
JP4916548B2 (ja) 画像のドミナントライン(dominantline)の確定及び使用
CN111985036B (zh) 户型框线图绘制方法和装置、存储介质、电子设备
CN107798725B (zh) 基于Android的二维住房户型识别和三维呈现方法
CN104598470B (zh) 基于偏好的数据表示框架
Du et al. Video fields: fusing multiple surveillance videos into a dynamic virtual environment
US20240203030A1 (en) 3d model rendering method and apparatus, electronic device, and storage medium
US11250643B2 (en) Method of providing virtual exhibition space using 2.5-dimensionalization
US11049273B2 (en) Systems and methods for generating a visibility counts per pixel of a texture atlas associated with a viewer telemetry data
CN113920282B (zh) 图像处理方法和装置、计算机可读存储介质、电子设备
CN114842175A (zh) 三维标签的交互呈现方法、装置、设备、介质和程序产品
CN107481306B (zh) 一种三维交互的方法
CN114170381A (zh) 三维路径展示方法、装置、可读存储介质及电子设备
CN115063564B (zh) 用于二维显示图像中的物品标签展示方法、装置及介质
CN112927200B (zh) 本征图像分解方法、装置、可读存储介质及电子设备
CN111652831B (zh) 对象融合方法、装置、计算机可读存储介质及电子设备
CN114238677A (zh) 一种多视图展示方法、装置、设备和介质
CN115516517A (zh) 用于构建三维几何图形的方法和装置
US9111395B2 (en) Automatic placement of shadow map partitions
CN113762173A (zh) 人脸光流估计及光流值预测模型的训练方法和装置
CN111696193A (zh) 基于三维场景的物联网控制方法、系统、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant