[go: up one dir, main page]

CN116402943A - 基于符号距离场的室内三维重建方法和装置 - Google Patents

基于符号距离场的室内三维重建方法和装置 Download PDF

Info

Publication number
CN116402943A
CN116402943A CN202310242343.8A CN202310242343A CN116402943A CN 116402943 A CN116402943 A CN 116402943A CN 202310242343 A CN202310242343 A CN 202310242343A CN 116402943 A CN116402943 A CN 116402943A
Authority
CN
China
Prior art keywords
field network
signed distance
distance field
loss
indoor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310242343.8A
Other languages
English (en)
Inventor
王锐
霍宇驰
朱璟森
鲍虎军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202310242343.8A priority Critical patent/CN116402943A/zh
Publication of CN116402943A publication Critical patent/CN116402943A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于符号距离场的室内三维重建方法和装置,在训练符号距离场网络和神经辐射场网络时,基于渲染图像与真实图像中像素值差值大的像素点对应的三维稀疏点云,引入细节矫正损失,同时配合基于渲染图像真实图像构建的整体监督损失,来优化符号距离场网络和神经辐射场网络,使得网络预测性能更强,能够顾高质量重现场景的几何形状和光照外观,同时能够防止室内场景内家具等细节的缺失。

Description

基于符号距离场的室内三维重建方法和装置
技术领域
本发明属于三维重建技术领域,具体涉及一种基于符号距离场的室内三维重建方法和装置。
背景技术
场景建模在计算机视觉领域一直是研究热点,高精度的三维场景建模是机器人感知、虚拟现实等技术得以实现的前提。三维重建一般包含三部分,首先使用手持相机对待重建目标进行多个视角的扫描,然后对扫描到的多帧图片进行特征的提取、匹配、与相机位姿估算,最后通过立体视觉技术完成二维像素到三维坐标点的映射,得到最终重建的模型。
随着人工智能和深度学习算法的发展,基于神经网络的三维视觉重建技术逐步发展起来。例如专利文献CN115147543A公开的一种基于深度神经网络的面部三维重建方法,包括预处理、特征提取、检索和匹配步骤,能够在直接从三维点云学习到数据分布规律,以进行三维重建,再例如专利文献CN109410321A公开的一种基于卷积神经网络的三维重建方法,包括:采集一张二维人脸图像,通过人脸矫正模块获得矫正后的人脸图像,将人脸矫正图像通过三维重建模块得到人脸3D数据。这两个专利文献公开的神经三维重建算法是一种端到端的自动优化算法,优化过程不需要过多的人为干预,可以节省建模从业者的人力资源,并且自动重现出人力难以手动模拟的真实重现效果。另外,表示三维场景的神经网络的空间占用大小通常远小于传统的三角网格,并且具有较好的空间连续性。
然而,已有的基于神经网络的三维视觉重建技术的重建质量仍然有待提升,在室内场景的三维重建中,通常会出现家具丢失、细节缺失的问题。
发明内容
鉴于上述,本发明的目的是提供一种基于符号距离场的室内三维重建方法和装置,提升室内三维重建的质量,防止室内场景内家具等细节的缺失。
为实现上述发明目的,实施例提供了一种基于符号距离场的室内三维重建方法,包括以下步骤:
构建符号距离场网络和神经辐射场网络;
将场景中的三维点分别输入至符号距离场网络和神经辐射场网络进行几何预测和光照预测,依据几何预测结果和光照预测结果进行体渲染得到渲染图像;
依据相机参数和深度图计算场景的三维稀疏点云,计算渲染图像和作为监督标签的真实图像的逐像素误差,并筛选像素误差高的像素对应的目标三维稀疏点,利用符号距离场网络对目标三维稀疏点进行几何预测,并依据目标三维稀疏点对应的几何预测结果的绝对值来构建细节矫正损失;
依据渲染图像和作为监督标签的真实图像的逐像素误差构建整体监督损失,利用细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化;
利用参数优化的符号距离场网络和神经辐射场网络进行几何预测和光照预测,并依据几何预测结果和光照预测结果进行三维重建和体渲染。
在一个实施例中,所述符号距离场网络表示为符号距离函数,该符号距离函数定义为场景内任意三维点距离场景所有表面的距离中的最小值,几何预测结果表示为符号距离函数值,符号距离函数值为零的表示为符号距离函数的零点;
三维点输入至神经辐射场网络经过计算输出RGB值,该RGB值作为光照预测结果。
在一个实施例中,所述依据几何预测结果和光照预测结果进行体渲染得到渲染图像,包括:
依据拉普拉斯表面分布的峰值点位于符号距离函数的零点,将符号距离函数与拉普拉斯表面分布的密度函数对应,依据对应关系和作为几何预测结果的符号距离函数值计算密度值,将密度值与作为光照预测结果的RGB值进行数值积分,以将RGB值叠加得到每个像素的最终颜色值形成渲染图像。
在一个实施例中,所述相机参数和深度图计算场景的三维稀疏点云,包括:
根据相机的内参、外参与场景的深度图,通过逆投影算法从深度图的深度像素值计算出对应的三维点坐标,所有三维点坐标组成了场景的三维稀疏点云。
在一个实施例中,所述方法还包括:将场景中的三维点输入至符号距离场网络进行几何预测后进行体渲染得到深度信息;依据深度信息与作为监督标签的深度图构建深度监督损失函数;利用深度监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化。
在一个实施例中,所述方法还包括:将场景中的三维点输入至符号距离场网络进行几何预测后进行体渲染得到法向信息;依据法向信息与作为监督标签的法向图构建法向监督损失函数;利用法向监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化,或利用法向监督损失函数、深度监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化。
在一个实施例中,依据几何预测结果进行三维重建,包括:
采用等值面提取算法对作为几何预测结果的符号距离函数值进行等值面提取,提取出符号距离场所定义的显式几何结构,并通过三角网格的形式进行重现。
为实现上述发明目的,实施例提供了一种基于符号距离场的室内三维重建装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,所述处理器执行所述计算机程序时实现上述基于符号距离场的室内三维重建方法。
与现有技术相比,本发明具有的有益效果至少包括:
在训练符号距离场网络和神经辐射场网络时,基于渲染图像与真实图像中像素值差值大的像素点对应的三维稀疏点云,引入细节矫正损失,同时配合基于渲染图像真实图像构建的整体监督损失,来优化符号距离场网络和神经辐射场网络,使得网络预测性能更强,能够顾高质量重现场景的几何形状和光照外观,同时能够防止室内场景内家具等细节的缺失。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是实施例提供的基于符号距离场的室内三维重建方法的流程图;
图2是实施例提供的网络训练的流程图;
图3是实施例提供的应用流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
针对现有方法在室内场景的三维重建中,通常会出现家具丢失、细节缺失的问题。本发明实施例提出了一种基于符号距离场的室内三维重建方法和装置,在符号距离场上对重建中缺失的物体细节进行补全和优化,从而实现高质量的室内场景重建结果。
图1是实施例提供的基于符号距离场的室内三维重建方法的流程图,图2是实施例提供的网络训练的流程图。如图1和图2所示,实施例提供的基于符号距离场的室内三维重建方法,包括以下步骤:
步骤1,构建符号距离场网络和神经辐射场网络。
实施例中,以多层感知机等神经网络作为网络构建符号距离场网络、神经辐射场网络。其中,符号距离场网络用于表达三维场景几何,具体根据三维点坐标进行几何预测,得到几何预测结果。三维场景的拟合目标是符号距离场,通过基于表面定义的符号距离函数定义,即将符号距离场网络表示为符号距离函数,该符号距离函数定义为场景内任意三维点距离场景所有表面的距离中的最小值,几何预测结果表示为符号距离函数值,当符号距离函数值为零时,表示符号距离场的零点,当符号距离函数值大于零时,表示三维点在场景的内部,当符号距离函数值小于零时,表示三维点在场景外部,提取符号距离函数值为零的三维点构成几何表面。
神经辐射场网络用于表达场景光照,具体根据三维点坐标进行光照预测,输出第三RGB值作为光照预测结果。
步骤2,将场景中的三维点分别输入至符号距离场网络和神经辐射场网络进行几何预测和光照预测,依据几何预测结果和光照预测结果进行体渲染得到渲染图像。
实施例中,采用重要性采样方法在视场内透射光线上采样多个三维点,并将三维点坐标输入至符号距离场网络和神经辐射场网络进行几何预测和光照预测,然后依据几何预测结果和光照预测结果进行体渲染得到渲染图像,进行体渲染的具体过程包括:
依据拉普拉斯表面分布的峰值点位于符号距离函数的零点,将符号距离函数与拉普拉斯表面分布的密度函数对应,依据对应关系和作为几何预测结果的符号距离函数值计算密度值,将密度值与作为光照预测结果的RGB值进行数值积分,以将RGB值叠加得到每个像素的最终颜色值形成渲染图像。
实施例中,使用体渲染方法叠加出场景的深度信息和法向信息,具体地,将符号距离函数的梯度与拉普拉斯表面分布的密度函数加权累加得到法向信息。将采样点到相机位置的距离与拉普拉斯表面分布的密度函数加权累加得到深度信息。
步骤3,依据相机参数和深度图计算场景的三维稀疏点云。
实施例中,根据相机的内参、外参与场景的深度图,通过逆投影算法从深度图的深度像素值计算出对应的三维点坐标,所有三维点坐标组成了场景的三维稀疏点云。
步骤4,利用三维稀疏点云构建细节矫正损失。
实施例中,计算渲染图像和作为监督标签的真实图像的逐像素误差,并筛选像素误差高的像素对应的目标三维稀疏点,利用目标三维稀疏点对符号距离函数值进行监督,以优化符号距离场网络,即利用符号距离场网络对目标三维稀疏点进行几何预测,并依据目标三维稀疏点对应的几何预测结果的绝对值来构建细节矫正损失,以最小化细节矫正损失作为训练目标以使目标三维稀疏点位于符号距离场的零点。
步骤5,依据渲染图像构建整体监督损失,并进行参数优化。
实施例中,依据渲染图像和作为监督标签的真实图像的逐像素误差构建整体监督损失,采用梯度下降算法利用细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化,整体监督损失的优化目标是最小化逐像素误差。
在一个可能的实施方式中,依据深度信息与作为监督标签的深度图构建深度监督损失函数;采用梯度下降算法利用深度监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化,深度监督损失函数的优化目标是最小化深度信息与深度图的差值。
在一个可能的实施方式中,依据法向信息与作为监督标签的法向图构建法向监督损失函数;采用梯度下降算法利用法向监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化,法向监督损失函数的优化目标是最小化法向信息与法向图的差值。
在一个可能的实施方式中,采用梯度下降算法利用法向监督损失函数、深度监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化。
上述任意一种参数优化方式,由于均采用了细节矫正损失,均能够实现零点优化,即在符号距离场上对丢失的家具进行优化,以提高网络对各个细节预测精度。
步骤6,利用参数优化的符号距离场网络和神经辐射场网络进行几何预测和光照预测,并依据几何预测结果和光照预测结果进行三维重建和体渲染。
实施例中,在得到参数优化的符号距离场网络和神经辐射场网络后,如图3所示,可以利用利用参数优化的符号距离场网络和神经辐射场网络进行新视角下三维点的几何预测和光照预测,并依据几何预测结果和光照预测结果进行三维重建和体渲染。
针对三维重建,采用等值面提取算法对作为几何预测结果的符号距离函数值进行等值面提取,提取出符号距离场所定义的显式几何结构,并通过三角网格的形式进行重现。
针对体渲染,依据将符号距离函数与拉普拉斯表面分布的密度函数的对应关系,计算符号距离场网络输出的符号距离函数值对应的密度值,然后将将密度值与神经辐射场网络输出的RGB值进行数值积分,以将RGB值叠加得到每个像素的最终颜色值形成新视角下的渲染图像。
实施例提供的基于符号距离场的室内三维重建方法,可以高质量无丢失地重建出室内场景的三维模型,并渲染出逼真的场景图像。
基于同样的发明构思,实施例还提供了一种基于符号距离场的室内三维重建装置,包括存储器、处理器以及存储在存储器中并可在处理器上执行的计算机程序,处理器执行所述计算机程序时上述基于符号距离场的室内三维重建方法,包括以下步骤:
步骤1,构建符号距离场网络和神经辐射场网络;
步骤2,将场景中的三维点分别输入至符号距离场网络和神经辐射场网络进行几何预测和光照预测,依据几何预测结果和光照预测结果进行体渲染得到渲染图像;
步骤3,依据相机参数和深度图计算场景的三维稀疏点云;
步骤4,利用三维稀疏点云构建细节矫正损失;
步骤5,依据渲染图像构建整体监督损失,并进行参数优化;
步骤6,利用参数优化的符号距离场网络和神经辐射场网络进行几何预测和光照预测,并依据几何预测结果和光照预测结果进行三维重建和体渲染。
其中,存储器可以为在近端的易失性存储器,如RAM,还可以是非易失性存储器,如ROM,FLASH,软盘,机械硬盘等,还可以是远端的存储云。处理器可以为中央处理器(CPU)、微处理器(MPU)、数字信号处理器(DSP)、或现场可编程门阵列(FPGA),即可以通过这些处理器实现基于符号距离场的室内三维重建方法的步骤。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于符号距离场的室内三维重建方法,其特征在于,包括以下步骤:
构建符号距离场网络和神经辐射场网络;
将场景中的三维点分别输入至符号距离场网络和神经辐射场网络进行几何预测和光照预测,依据几何预测结果和光照预测结果进行体渲染得到渲染图像;
依据相机参数和深度图计算场景的三维稀疏点云,计算渲染图像和作为监督标签的真实图像的逐像素误差,并筛选像素误差高的像素对应的目标三维稀疏点,利用符号距离场网络对目标三维稀疏点进行几何预测,并依据目标三维稀疏点对应的几何预测结果的绝对值来构建细节矫正损失;
依据渲染图像和作为监督标签的真实图像的逐像素误差构建整体监督损失,利用细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化;
利用参数优化的符号距离场网络和神经辐射场网络进行几何预测和光照预测,并依据几何预测结果和光照预测结果进行三维重建和体渲染。
2.根据权利要求1所述的基于符号距离场的室内三维重建方法,其特征在于,所述符号距离场网络表示为符号距离函数,该符号距离函数定义为场景内任意三维点距离场景所有表面的距离中的最小值,几何预测结果表示为符号距离函数值,符号距离函数值为零的表示为符号距离函数的零点;
三维点输入至神经辐射场网络经过计算输出RGB值,该RGB值作为光照预测结果。
3.根据权利要求2所述的基于符号距离场的室内三维重建方法,其特征在于,所述依据几何预测结果和光照预测结果进行体渲染得到渲染图像,包括:
依据拉普拉斯表面分布的峰值点位于符号距离函数的零点,将符号距离函数与拉普拉斯表面分布的密度函数对应,依据对应关系和作为几何预测结果的符号距离函数值计算密度值,将密度值与作为光照预测结果的RGB值进行数值积分,以将RGB值叠加得到每个像素的最终颜色值形成渲染图像。
4.根据权利要求1所述的基于符号距离场的室内三维重建方法,其特征在于,所述相机参数和深度图计算场景的三维稀疏点云,包括:
根据相机的内参、外参与场景的深度图,通过逆投影算法从深度图的深度像素值计算出对应的三维点坐标,所有三维点坐标组成了场景的三维稀疏点云。
5.根据权利要求1所述的基于符号距离场的室内三维重建方法,其特征在于,还包括:将场景中的三维点输入至符号距离场网络进行几何预测后进行体渲染得到深度信息;依据深度信息与作为监督标签的深度图构建深度监督损失函数;利用深度监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化。
6.根据权利要求1或5所述的基于符号距离场的室内三维重建方法,其特征在于,还包括:将场景中的三维点输入至符号距离场网络进行几何预测后进行体渲染得到法向信息;依据法向信息与作为监督标签的法向图构建法向监督损失函数;利用法向监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化,或利用法向监督损失函数、深度监督损失函数、细节矫正损失和整体监督损失对符号距离场网络和神经辐射场网络进行参数优化。
7.根据权利要求2所述的基于符号距离场的室内三维重建方法,其特征在于,依据几何预测结果进行三维重建,包括:
采用等值面提取算法对作为几何预测结果的符号距离函数值进行等值面提取,提取出符号距离场所定义的显式几何结构,并通过三角网格的形式进行重现。
8.一种基于符号距离场的室内三维重建装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-7任意一项所述的基于符号距离场的室内三维重建方法。
CN202310242343.8A 2023-03-08 2023-03-08 基于符号距离场的室内三维重建方法和装置 Pending CN116402943A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310242343.8A CN116402943A (zh) 2023-03-08 2023-03-08 基于符号距离场的室内三维重建方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310242343.8A CN116402943A (zh) 2023-03-08 2023-03-08 基于符号距离场的室内三维重建方法和装置

Publications (1)

Publication Number Publication Date
CN116402943A true CN116402943A (zh) 2023-07-07

Family

ID=87009408

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310242343.8A Pending CN116402943A (zh) 2023-03-08 2023-03-08 基于符号距离场的室内三维重建方法和装置

Country Status (1)

Country Link
CN (1) CN116402943A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118154791A (zh) * 2024-05-10 2024-06-07 江西求是高等研究院 一种基于联合点云先验的隐式三维表面加速方法及系统
CN118644602A (zh) * 2024-08-14 2024-09-13 南京航空航天大学 一种基于多时序场景的三维渲染方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118154791A (zh) * 2024-05-10 2024-06-07 江西求是高等研究院 一种基于联合点云先验的隐式三维表面加速方法及系统
CN118154791B (zh) * 2024-05-10 2024-07-05 江西求是高等研究院 一种基于联合点云先验的隐式三维表面加速方法及系统
CN118644602A (zh) * 2024-08-14 2024-09-13 南京航空航天大学 一种基于多时序场景的三维渲染方法及系统

Similar Documents

Publication Publication Date Title
CN110363858B (zh) 一种三维人脸重建方法及系统
CN115082639B (zh) 图像生成方法、装置、电子设备和存储介质
CN111598998B (zh) 三维虚拟模型重建方法、装置、计算机设备和存储介质
US12293465B2 (en) Method and apparatus for constructing three-dimensional face mesh, device, and storage medium
CN109255831B (zh) 基于多任务学习的单视图人脸三维重建及纹理生成的方法
CN108648264B (zh) 基于运动恢复的水下场景重建方法及存储介质
CN110223370B (zh) 一种从单视点图片生成完整人体纹理贴图的方法
CN113628327B (zh) 一种头部三维重建方法及设备
US20200057778A1 (en) Depth image pose search with a bootstrapped-created database
CN116402943A (zh) 基于符号距离场的室内三维重建方法和装置
CN114998514B (zh) 一种虚拟角色的生成方法及设备
CN114049464A (zh) 一种三维模型的重建方法及设备
CN114429531B (zh) 虚拟视点图像的生成方法及装置
CN117036620B (zh) 基于单幅图像的三维人脸重建方法
CN116958379A (zh) 图像渲染方法、装置、电子设备、存储介质及程序产品
CN116485994A (zh) 基于神经隐式表达的场景逆向绘制方法和装置
CN118247429A (zh) 一种空地协同快速三维建模方法及系统
CN109064533B (zh) 一种3d漫游方法及系统
CN113674141A (zh) 实时仿妆方法、基于仿妆的神经网络训练获取方法及装置
CN118505878A (zh) 一种单视角重复对象场景的三维重建方法与系统
CN111243062A (zh) 一种将平面壁画转化为立体高清数字壁画的制作方法
CN118710846A (zh) 数字孪生场景几何建模方法和装置
CN116912433B (zh) 三维模型骨骼绑定方法、装置、设备及存储介质
CN109166176B (zh) 三维人脸图像的生成方法与装置
CN116912393A (zh) 人脸重建方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination