[go: up one dir, main page]

CN107464278B - 全视向的球体光场渲染方法 - Google Patents

全视向的球体光场渲染方法 Download PDF

Info

Publication number
CN107464278B
CN107464278B CN201710783621.5A CN201710783621A CN107464278B CN 107464278 B CN107464278 B CN 107464278B CN 201710783621 A CN201710783621 A CN 201710783621A CN 107464278 B CN107464278 B CN 107464278B
Authority
CN
China
Prior art keywords
camera
depth
rendering
sphere
reference camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710783621.5A
Other languages
English (en)
Other versions
CN107464278A (zh
Inventor
虞晶怡
虞煌杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Overlapping Digital Technology (shanghai) Co Ltd
Original Assignee
Overlapping Digital Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Overlapping Digital Technology (shanghai) Co Ltd filed Critical Overlapping Digital Technology (shanghai) Co Ltd
Priority to CN201710783621.5A priority Critical patent/CN107464278B/zh
Publication of CN107464278A publication Critical patent/CN107464278A/zh
Priority to PCT/CN2018/095778 priority patent/WO2019042028A1/zh
Priority to US16/641,635 priority patent/US10909752B2/en
Priority to KR1020207005629A priority patent/KR102143319B1/ko
Priority to JP2020512610A priority patent/JP6852224B2/ja
Priority to GB2002591.2A priority patent/GB2584753B/en
Application granted granted Critical
Publication of CN107464278B publication Critical patent/CN107464278B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明涉及一种全视向的球体光场渲染方法,包括:预备步骤,即将相关文件进行预备输入与加载;预计算网格状密布于球体上的参考相机位置的深度图;移动渲染相机,其移动范围为所述球体表面,并计算、识别渲染相机四周包围其的参考相机;反投影渲染相机的像素,与所述四个参考相机进行深度测试;对通过深度测试的参考相机进行插值,得到的即为最终渲染的像素值。本发明能够快速且实时看到渲染的结果;可以从球面上任意角度观察物体,可以感受到更加真实的浸入感。

Description

全视向的球体光场渲染方法
技术领域
本发明涉及一种计算机图形技术领域,具体地说是可实现利用多视点图像实时渲染真实物体的全视向的球体光场渲染方法。
背景技术
目前,公知的3D模型渲染引擎采用模型与材质贴图的组合,利用光栅化渲染管线渲染成图。当前游戏领域里的角色和场景大多是使用这种方法渲染得到的。然而随着虚拟现实技术的发展,此类人造的渲染结果因为缺少真实感,已经不符合人们的预期。
目前的渲染引擎主要存在以下两个问题:
第一、需要消耗大量的人力资源制造渲染数据,具体指建模师需要花费大量时间构建类似真实物体的模型,以及调试模型的材质与贴图使其外表接近真实物体,此过程可能需要反复迭代;
第二、渲染结果与真实物体有较大的区别,由于传统渲染引擎输入的三维模型与材质贴图都是手工制作的,因此无法保留物体的许多细节,而这些细节正是体现一个物体真实性的最好表达,因此渲染得到的图像和真实肉眼看到的图像总是有较大的区别。
以上问题普遍存在于现有的3D渲染引擎,于是本发明提出了一种渲染方法,其需要的数据可以利用相机拍摄得到省略了调试材质贴图的步骤;渲染结果更加逼真,增加了沉浸感;与传统渲染方法类似,本发明也提供“全视向”功能,即能从任意角度观察物体。
发明内容
本发明为克服现有的渲染引擎无法渲染真实物体的不足,旨在提供一种全视向的球体光场渲染方法,不仅可以实现实时渲染,更可利用多视点图像渲染出真实的物体各个视角的图像。
为了达到上述目的,本发明采用的技术方案包括如下步骤:
步骤一,预备步骤,即将相关文件进行预备输入与加载;
步骤二,预计算网格状密布于球体上的参考相机位置的深度图;
步骤三:移动渲染相机,其移动范围为所述球体表面,并计算、识别渲染相机四周包围其的四个参考相机;
步骤四:反投影渲染相机的像素,与所述四个参考相机进行深度测试;
步骤五,对通过深度测试的参考相机进行插值,得到的即为最终渲染的像素值。其中,步骤四中如果不存在通过深度测试的参考相机,则选取位于所述四个参考相机外圈的其他参考相机,直到有通过深度测试的存在。
其中,步骤四中的深度测试:点P到参考相机的光心的垂直距离为:P在此相机下的深度值记为Depth1,同时取出参考相机预存深度图在PixelR处的深度值记为Depth2,如果Depth1=Depth2,则说明参考相机通过了点P的深度测试。
其中,步骤五中,完成深度测试后分别赋予四个参考相机权重,其计算公式为:
Figure GDA0002274604230000021
其中在上文定义为从球心指向渲染相机的向量;
Figure GDA0002274604230000023
定义为从球心指向参考相机的向量;WR的取值范围为[0.5,∞);
对WR进行归一化后进而渲染相机在PixelD处的像素值为
其中R为通过深度测试的参考相机集合。
其中,步骤一中相关文件包括低精度的物体三维模型、参考相机的外参、内参以及相同数量的图片、描述参考相机相对位置关系的文件与描述此数据集属性的配置文件。
其中,所述低精度的物体三维模型的面数为3万-10万。
和现有技术相比,本发明节约了计算资源,用户只需要普通的计算设备如手机或手提电脑便能够快速且实时看到渲染的结果;用户通过滑动操作界面与渲染引擎交互,从而可以从球面上任意角度观察物体,即所谓“全视向”;本发明提供的“全视向”效果保证了用户可以不必漏过自己想要观察的角度,在许多领域都有更好的效果;例如,网上购物的时候用户能看到物体的全貌而不是单一的几个角度的图片;并且由于渲染结果完全取自真实图片的数据(图像集),其真实性也得到了加强,用户可以感受到更加真实的浸入感。
附图说明
图1a为输入格式图片的示意图;
图1b、图1c、图1d分别为输入图片的示意图;
图1e为本发明实施例中参考相机分布于球体网格状的示意图;
图2为本发明的渲染流程说明图;
图3为渲染相机与参考相机的相对位置示意图;
图4为投影与反投影的说明参考图。
具体实施方式
现结合附图对本发明作进一步地说明。
参见图1a至图4,图1a至图4展示的是本发明的一个实施例,本实施例实现了一种采用非传统方法的光场渲染引擎,其不仅可以实现实时渲染,更可利用多视点图像渲染出物体的真实的所有视角的图像,具体实施步骤如下所述:图1a至图1d为本实施例的数据输入格式输入格式图片,本实施例的输入数据包括:一个低精度的物体三维模型(面数3万-10万)、200-300组参考相机的外参与内参、相同数量的图片、描述参考相机相对位置关系的文件与描述此数据集属性的配置文件,具体的数据说明请参考示意图标注。
参见图3,以下所称参考相机即为采集输入图片的相机;渲染相机为用户通过交互决定的相机,用于渲染输出图片;两者的参数可以相同也可以不相同。图1a是物体的三维模型,一共包含3万个顶点与14万个面;图1b-1d是图像集的三个实例,分别是从三个不同角度拍摄的物体图片;上述图像集内还包括了其他角度拍摄的类似图片。
下表是描述某一个参考相机外参的数据,其分为4行,每行包含3个数值,各行分别代表相机的Z轴向量、X轴向量、Y轴向量与坐标;其他参考相机均有自己的对应数值。
Figure GDA0002274604230000031
下表是描述一个参考相机的内参矩阵,包含相机的光心坐标与焦距数据;其他参考相机均有自己的对应数值。
Figure GDA0002274604230000041
图1e是可视化的参考相机的位置示意图,参考相机均匀固定地排布在一个球体上。
下表描述了输入数据的额外属性,从上至下各条目的含义分别是高分辨率图片的数量、低分辨率图片的数量、高横向分辨率、高纵向分辨率、低横向分辨率、低纵向分辨率、参考相机中心坐标、参考相机所在球面的半径、参考相机的近平面和参考相机的远平面。
Figure GDA0002274604230000042
参见图2,为本实施例提供的一种渲染方法的流程图。其主要包括以下步骤:
步骤一:预计算参考相机位置的深度图。
步骤二:移动渲染相机,范围为参考相机所在的球面,计算渲染相机被哪四个参考相机所包围。
步骤三:反投影渲染相机的像素,与上一步四个参考相机进行深度测试,对通过深度测试的相机进行插值,得到的即为最终渲染的像素值。
上述过程中,在数据读取阶段,本实施例需要预先计算每个参考相机位置的深度图,用于随后的深度测试。
渲染相机决定了用户能从什么角度观察物体,即决定了渲染的输出图像;参见图1e,参考相机所在的球面决定了渲染相机的移动范围。本实施例需要计算当渲染相机位置固定时,其周围的四个参考相机的编号,如图3所示。由于参考相机的编号可以是打乱顺序的,因此输入数据需要包括参考相机的位置关系,即图1e,然后利用向量-四边形相交算法。
首先计算向量
Figure GDA0002274604230000051
起点为参考相机的中心,终点为渲染相机的坐标。因为参考相机球面可以看作是多个四边形组成的,因此可以利用向量与四边形相交的算法检测
Figure GDA0002274604230000052
与哪个四边形相交,然后查看输入相机位置文件,便得到四个候选参考相机的编号。
参见图4,步骤三中反投影渲染相机CamD的每一个像素PixelD至物体表面的点P,在将P投影到四个参考相机(图4中只示意了两个,另两个同理),分别得到像素PixelR1、PixelR2、PixelR3与PixelR4。此时可能的情况是在参考相机的视图下,点P被物体的其余部分遮挡而导致不可见,因此在进行插值前,需要进行深度测试。
然后进行深度测试:点P到参考相机CamR1的光心的垂直距离为P在此相机下的深度,记为Depth1,同时取出CamR1预存深度图在PixelR1处的深度值,记为Depth2,如果Depth1=Depth2,则说明参考相机CamR1通过了点P的深度测试。同理,可以对CamR2、CamR3与CamR4分别进行深度测试。
分别赋予四个参考相机权重,其计算公式为:
Figure GDA0002274604230000053
其中,在上文定义为从球心指向渲染相机的向量,
Figure GDA0002274604230000055
定义为从球心指向参考相机CamR的向量。WR的取值范围为[0.5,∞),对于没通过深度测试的参考相机,其权重赋值为0,对于通过深度测试的参考相机,其权重计算后统一进行归一化。
如果通过深度测试的相机数量不为0,则最终渲染相机在PixelD处的像素值为
PixelD=∑WRPixelR
其中R为通过深度测试的参考相机集合。
如果不存在通过深度的相机,则选取包围上述四个相机的参考相机,直到有通过深度测试的存在。具体而言,如果四个参考相机都没有通过深度测试则继续扩展四个参考相机周围的相机,在外侧的十二个参考相机组成的矩形中重复步骤四,也即进行反投影与深度测试;此时可以保证超过99%的像素值都能通过深度测试,继而可以考虑本次渲染结束。
本实施例可以通过软件至于智能手机或者电脑中,给用户交互手段以移动渲染相机;由于本发明所需要的计算资源较少,结合具体输入数据便可在上述设备中实现实时获得渲染结果。
上面结合附图及实施例描述了本发明的实施方式,实施例给出的结构并不构成对本发明的限制,本领域内熟练的技术人员可依据需要做出调整,在所附权利要求的范围内做出各种变形或修改均在保护范围内。

Claims (5)

1.一种全视向的球体光场渲染方法,其特征在于包括如下步骤:
步骤一,预备步骤,即将相关文件进行预备输入与加载;
步骤二,预计算网格状密布于球体上的参考相机位置的深度图;
步骤三:移动渲染相机,其移动范围为所述球体表面,并计算、识别渲染相机四周包围其的四个参考相机;
步骤四:反投影渲染相机的像素,与所述四个参考相机进行深度测试:点P到参考相机的光心的垂直距离为:P在此相机下的深度值记为Depth1,同时取出参考相机预存深度图在PixelR处的深度值记为Depth2,如果Depth1=Depth2,则说明参考相机通过了点P的深度测试;
步骤五,对通过深度测试的参考相机进行插值,得到的即为最终渲染的像素值。
2.根据权利要求1所述的一种全视向的球体光场渲染方法,其特征在于:步骤四中如果不存在通过深度测试的参考相机,则选取位于所述四个参考相机外圈的其他参考相机,直到有通过深度测试的存在。
3.根据权利要求1所述的一种全视向的球体光场渲染方法,其特征在于:步骤五中,完成深度测试后分别赋予四个参考相机权重,其计算公式为:
Figure FDA0002274604220000011
其中
Figure FDA0002274604220000012
在上文定义为从球心指向渲染相机的向量;定义为从球心指向参考相机的向量;WR的取值范围为[0.5,∞);
进而渲染相机在PixelD处的像素值为
PixelD=∑WRPixelR
其中R为通过深度测试的参考相机集合。
4.根据权利要求1所述的一种全视向的球体光场渲染方法,其特征在于:步骤一中相关文件包括低精度的物体三维模型、参考相机的外参、内参以及相同数量的图片、描述参考相机相对位置关系的文件与描述此数据集属性的配置文件。
5.根据权利要求4所述的一种全视向的球体光场渲染方法,其特征在于:所述低精度的物体三维模型的面数为3万-10万。
CN201710783621.5A 2017-09-01 2017-09-01 全视向的球体光场渲染方法 Active CN107464278B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201710783621.5A CN107464278B (zh) 2017-09-01 2017-09-01 全视向的球体光场渲染方法
PCT/CN2018/095778 WO2019042028A1 (zh) 2017-09-01 2018-07-16 全视向的球体光场渲染方法
US16/641,635 US10909752B2 (en) 2017-09-01 2018-07-16 All-around spherical light field rendering method
KR1020207005629A KR102143319B1 (ko) 2017-09-01 2018-07-16 전방향의 구형 라이트 필드 렌더링 방법
JP2020512610A JP6852224B2 (ja) 2017-09-01 2018-07-16 全視角方向の球体ライトフィールドレンダリング方法
GB2002591.2A GB2584753B (en) 2017-09-01 2018-07-16 All-around spherical light field rendering method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710783621.5A CN107464278B (zh) 2017-09-01 2017-09-01 全视向的球体光场渲染方法

Publications (2)

Publication Number Publication Date
CN107464278A CN107464278A (zh) 2017-12-12
CN107464278B true CN107464278B (zh) 2020-01-24

Family

ID=60551663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710783621.5A Active CN107464278B (zh) 2017-09-01 2017-09-01 全视向的球体光场渲染方法

Country Status (6)

Country Link
US (1) US10909752B2 (zh)
JP (1) JP6852224B2 (zh)
KR (1) KR102143319B1 (zh)
CN (1) CN107464278B (zh)
GB (1) GB2584753B (zh)
WO (1) WO2019042028A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107464278B (zh) * 2017-09-01 2020-01-24 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
CN111553972B (zh) * 2020-04-27 2023-06-30 北京百度网讯科技有限公司 用于渲染增强现实数据的方法、装置、设备及存储介质
CN115202174B (zh) * 2022-07-14 2023-11-10 浙江理工大学 基于光场图像的全息体视图获取方法、系统和应用

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101222647A (zh) * 2007-10-12 2008-07-16 四川虹微技术有限公司 多视角视频图像的场景全局深度估计方法
CN103500467A (zh) * 2013-10-21 2014-01-08 深圳市易尚展示股份有限公司 基于图像的三维模型构成方法
CN103530907A (zh) * 2013-10-21 2014-01-22 深圳市易尚展示股份有限公司 基于图像的复杂三维模型绘制方法
CN105741341A (zh) * 2016-01-27 2016-07-06 桂林长海发展有限责任公司 一种三维空间环境成像系统及方法
CN106570938A (zh) * 2016-10-21 2017-04-19 哈尔滨工业大学深圳研究生院 基于opengl 的全景监控方法及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877356A (ja) * 1994-09-09 1996-03-22 Fujitsu Ltd 三次元多眼画像の処理方法及び処理装置
JP4474743B2 (ja) * 2000-07-03 2010-06-09 ソニー株式会社 三次元画像生成装置および三次元画像生成方法、並びにプログラム記録媒体
JP2003337953A (ja) * 2002-05-20 2003-11-28 Sony Corp 画像処理装置および画像処理方法、並びにコンピュータ・プログラム
KR100528343B1 (ko) * 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
JP5004650B2 (ja) * 2007-05-09 2012-08-22 株式会社ソニー・コンピュータエンタテインメント グラフィックスプロセッサ、描画処理装置および描画処理方法
US8155513B2 (en) * 2008-04-12 2012-04-10 Hien Tu Le Off center motor, ground glass on center post with ball bearing(S), X-Y image position adjustment and on-the-fly back focus adjustment with lock down on 35mm spinning ground glass adapters
US8994732B2 (en) * 2011-03-07 2015-03-31 Microsoft Corporation Integration of sketch-based interaction and computer data analysis
TW201237801A (en) 2011-03-11 2012-09-16 J Touch Corp Method for processing three-dimensional image vision effects
US20130016099A1 (en) * 2011-07-13 2013-01-17 2XL Games, Inc. Digital Rendering Method for Environmental Simulation
US20140306958A1 (en) * 2013-04-12 2014-10-16 Dynamic Digital Depth Research Pty Ltd Stereoscopic rendering system
CN103345771B (zh) * 2013-06-28 2016-08-10 中国科学技术大学 一种基于建模的图像高效渲染方法
CN104715504A (zh) * 2015-02-12 2015-06-17 四川大学 一种鲁棒的大场景稠密三维重建方法
US9852539B2 (en) * 2015-02-26 2017-12-26 Qualcomm Incorporated Single pass surface splatting
CN106910242B (zh) * 2017-01-23 2020-02-28 中国科学院自动化研究所 基于深度相机进行室内完整场景三维重建的方法及系统
JP6824579B2 (ja) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
CN107085824A (zh) * 2017-03-14 2017-08-22 佛山科学技术学院 一种三维模型的极视图提取方法
CN107464278B (zh) * 2017-09-01 2020-01-24 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101222647A (zh) * 2007-10-12 2008-07-16 四川虹微技术有限公司 多视角视频图像的场景全局深度估计方法
CN103500467A (zh) * 2013-10-21 2014-01-08 深圳市易尚展示股份有限公司 基于图像的三维模型构成方法
CN103530907A (zh) * 2013-10-21 2014-01-22 深圳市易尚展示股份有限公司 基于图像的复杂三维模型绘制方法
CN105741341A (zh) * 2016-01-27 2016-07-06 桂林长海发展有限责任公司 一种三维空间环境成像系统及方法
CN106570938A (zh) * 2016-10-21 2017-04-19 哈尔滨工业大学深圳研究生院 基于opengl 的全景监控方法及系统

Also Published As

Publication number Publication date
JP2020532022A (ja) 2020-11-05
GB2584753B (en) 2021-05-26
WO2019042028A1 (zh) 2019-03-07
KR102143319B1 (ko) 2020-08-10
KR20200024946A (ko) 2020-03-09
US10909752B2 (en) 2021-02-02
US20200380770A1 (en) 2020-12-03
JP6852224B2 (ja) 2021-03-31
GB2584753A (en) 2020-12-16
CN107464278A (zh) 2017-12-12
GB202002591D0 (en) 2020-04-08

Similar Documents

Publication Publication Date Title
US11748934B2 (en) Three-dimensional expression base generation method and apparatus, speech interaction method and apparatus, and medium
CN110889890B (zh) 图像处理方法及装置、处理器、电子设备及存储介质
WO2022205760A1 (zh) 三维人体重建方法、装置、设备及存储介质
WO2022205762A1 (zh) 三维人体重建方法、装置、设备及存储介质
CN110648274B (zh) 鱼眼图像的生成方法及装置
CN112150575A (zh) 场景数据获取方法及模型训练方法、装置及计算机设备
US11315309B2 (en) Determining pixel values using reference images
JP2004537082A (ja) 仮想現実環境における実時間バーチャル・ビューポイント
GB2569979A (en) Image generating device and method of generating an image
CN111739134B (zh) 虚拟角色的模型处理方法、装置及可读存储介质
CN116228943B (zh) 虚拟对象面部重建方法、面部重建网络训练方法及装置
CN107464278B (zh) 全视向的球体光场渲染方法
WO2024212849A1 (zh) 全视角深度信息的构建方法、装置、设备及存储介质
CN111105489A (zh) 数据合成方法和装置、存储介质和电子装置
CN106530384B (zh) 一种三维模型的外观纹理合成方法及装置
US20240169568A1 (en) Method, device, and computer program product for room layout
CN118864754A (zh) 神经辐射场的重建方法、装置、设置、介质和程序
CN114519761B (zh) 一种人脸纹理图的生成方法、装置、存储介质及设备
CN117173314B (zh) 一种图像处理方法、装置、设备、介质及程序产品
Chou et al. Fast octree construction endowed with an error bound controlled subdivision scheme
CN114904272B (zh) 一种游戏渲染方法、装置、电子设备和介质
US12307620B2 (en) Object deformation with bindings and deformers interpolated from key poses
Rumpler Real-time distortion correction methods for curved monitors
CN118356646A (zh) 一种游戏渲染处理方法、装置、电子设备及存储介质
HK40086951B (zh) 虚拟对象面部重建方法、面部重建网络训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant