CN109598749B - 一种三维人脸模型的参数配置方法、装置、设备及介质 - Google Patents
一种三维人脸模型的参数配置方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN109598749B CN109598749B CN201811458670.2A CN201811458670A CN109598749B CN 109598749 B CN109598749 B CN 109598749B CN 201811458670 A CN201811458670 A CN 201811458670A CN 109598749 B CN109598749 B CN 109598749B
- Authority
- CN
- China
- Prior art keywords
- face
- parameter
- parameters
- recommended value
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Probability & Statistics with Applications (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提供了一种三维人脸模型的参数配置方法,包括:获取人脸参照图;对人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;根据参照坐标从人脸参数取值空间中确定人脸参数的推荐值;其中,该人脸参数的推荐值对应的三维人脸模型,投影至参照坐标的坐标系所得的人脸关键点的投影坐标与参照坐标的接近程度满足预设条件,如此,将该推荐值用于三维人脸模型的参数配置,可以捏出与指定人物相似的虚拟相貌。该方法基于人脸参照图提供了人脸参数的推荐值,无需用户根据自己的主观判断不断调整人脸参数的值,通过简单操作即可实现参数配置,降低了用户操作难度,提高了配置效率。本申请还提供了对应的装置、设备以及介质。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种三维人脸模型的参数配置方法、装置、设备以及计算机可读存储介质。
背景技术
为了给用户提供沉浸感较强的应用体验,很多应用采用捏脸系统为用户提供捏脸功能,以供用户制作出自己满意的虚拟角色样貌,所谓捏脸是指对虚拟角色样貌进行DIY(Do it yourself,自己动手制作)的数据操作。
例如,目前比较热门的网络游戏应用都会为用户提供捏脸功能,由用户通过配置三维人脸模型的参数来自定义出自己满意的虚拟角色的虚拟样貌,也即用户对虚拟角色样貌进行DIY,以DIY出自己满意的虚拟角色样貌,从而增加游戏乐趣,提供用户的游戏沉浸感。
目前应用为用户提供手动赋值的方式,应用为用户先提供每个人脸参数的默认值,由用户根据自己判断手动选择数值重新为人脸参数赋值,应用会根据用户为人脸参数所选择的值生成人脸模型,即生成虚拟相貌。在实际应用中,用户往往会以指定人物的相貌基准,例如以自己相貌或者自己喜欢的明星的相貌为基准,以希望捏出与指定人物相似的虚拟相貌。
然而,基于目前应用所提供的这种手动赋值方式,用户需要根据自己的主观判断,不断调整人脸参数的值,通过多次手动操作尝试才可能捏出最终的虚拟相貌;而且,为了提高捏脸效果的多样性,应用一般都会为用户提供多种多样的人脸参数,但在为用户提供更多选择的同时这也增加了用户操作难度,导致用户在实际操作过程中很难快速配置出与指定人物相似的脸。
发明内容
本申请实施例提供了一种三维人脸模型的人脸参数配置方法,通过对人脸参照图进行人脸关键点检测得到参照坐标,根据参照坐标从人脸参数取值空间中确定人脸参数推荐值,用于三维人脸模型的参数配置,从而能够实现快速配置出与指定人物相似的三维人脸模型,降低了用户操作难度。对应地,本申请还提供了一种三维人脸模型的参数配置装置、设备以及介质。
有鉴于此,本申请第一方面提供了一种三维人脸模型的参数配置方法,包括:
获取人脸参照图;
对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;
根据所述参照坐标从人脸参数取值空间中确定人脸参数的推荐值,所述人脸参数的推荐值用于三维人脸模型的参数配置;
其中,所述人脸参数的推荐值对应的三维人脸模型,投影至所述人脸参照图的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
本申请第二方面提供了一种三维人脸模型的参数配置方法,包括:
向服务器发送参数获取请求,所述参数获取请求中携带有人脸参照图;
接收所述服务器根据所述参数获取请求所返回的人脸参数的推荐值,所述人脸参数的推荐值对应的三维人脸模型投影至参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件,所述参照坐标是从所述人脸参照图中检测得到人脸关键点对应的关键点坐标;
显示所述人脸参数的推荐值。
本申请第三方面提供了一种三维人脸模型的参数配置装置,包括:
获取模块,用于获取人脸参照图;
检测模块,用于对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;
确定模块,用于根据所述参照坐标从人脸参数取值空间中确定人脸参数的推荐值,所述人脸参数的推荐值用于三维人脸模型的参数配置;其中,所述人脸参数的推荐值对应的三维人脸模型投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
本申请第四方面提供了一种三维人脸模型的参数配置装置,包括:
发送模块,用于向服务器发送参数获取请求,所述参数获取请求中携带有人脸参照图;
接收模块,用于接收所述服务器根据所述参数获取请求所返回的人脸参数的推荐值,所述捏脸参数的推荐值对应的三维人脸模型投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件,所述参照坐标是从所述人脸参照图中检测得到人脸关键点对应的关键点坐标;
显示模块,用于显示所述人脸参数的推荐值。
本申请第五方面提供了一种设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行本申请第一方面所述的三维人脸模型的参数配置方法或者本申请第二方面所述的三维人脸模型的参数配置方法。
本申请第六方面提供了一种计算机存储介质,所述存储当其在计算机上运行时,使得所述计算机执行本申请第一方面所述的三维人脸模型的参数配置方法或者执行本申请第二方面所述的三维人脸模型的参数配置方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请提供了一种三维人脸模型的参数配置方法,在该方法中,将包括指定人物脸部特征的图像作为人脸参照图,通过对人脸参照图进行人脸关键点检测得到关键点坐标作为参照坐标,然后根据该参照坐标从人脸参数取值空间中确定捏脸参数的推荐值,其中,该捏脸参数的推荐值对应的三维人脸模型,投影至参照坐标的坐标系所得的人脸关键点的投影坐标,与参照坐标的接近程度满足预设条件,如此,将该人脸参数的推荐值用于三维人脸模型的参数配置,可以配置出与指定人物相似的虚拟相貌。由此可见,该方法基于人脸参照图提供了人脸参数的推荐值,无需用户根据自己的主观判断不断调整人脸参数的值,通过简单操作即可实现三维人脸模型的参数配置,降低了用户操作难度,提高了三维人脸模型的配置效率。
附图说明
图1为本申请实施例中一种三维人脸模型的参数配置方法的场景架构图;
图2为本申请实施例中一种三维人脸模型的参数配置方法的流程图;
图3为本申请实施例中一种三维人脸模型的参数配置方法的流程图;
图4为本申请实施例中一种三维人脸模型的参数配置方法的流程图;
图5为本申请实施例中一种三维人脸模型的参数配置方法的流程图;
图6A为本申请实施例中游戏应用场景下三维人脸模型的参数配置方法的流程图;
图6B为本申请实施例中游戏应用场景下三维人脸模型的参数配置方法的硬件结构图;
图7为本申请实施例中一种三维人脸模型的参数配置装置的结构示意图;
图8为本申请实施例中一种三维人脸模型的参数配置装置的结构示意图;
图9为本申请实施例中一种三维人脸模型的参数配置装置的结构示意图;
图10为本申请实施例中一种三维人脸模型的参数配置装置的结构示意图;
图11为本申请实施例中一种三维人脸模型的参数配置装置的结构示意图;
图12为本申请实施例中一种用于三维人脸模型的参数配置的设备的结构示意图;
图13为本申请实施例中一种用于三维人脸模型的参数配置的设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
针对现有技术中需要用户根据自己的主观判断不断调整人脸参数的值实现三维人脸模型的参数配置,进而导致用户操作难度增加,难以快速配置出与指定人物相似的脸这一技术问题,本申请提供了一种三维人脸模型的参数配置方法,在该方法中,将包括指定人物脸部特征的图像作为人脸参照图,通过对人脸参照图进行人脸关键点检测得到关键点坐标作为参照坐标,然后根据该参照坐标从人脸参数取值空间中确定捏脸参数的推荐值,其中,该捏脸参数的推荐值对应的三维人脸模型,投影至参照坐标的坐标系所得的人脸关键点的投影坐标,与参照坐标的接近程度满足预设条件,如此,将该人脸参数的推荐值用于三维人脸模型的参数配置,可以配置出与指定人物相似的虚拟相貌。
由此可见,该方法基于人脸参照图提供了人脸参数的推荐值,无需用户根据自己的主观判断不断调整人脸参数的值,通过简单操作即可实现三维人脸模型的参数配置,降低了用户操作难度,提高了三维人脸模型的配置效率,使得用户可以快速配置出与指定人物相似的脸,增强了用户的代入感。
本申请提供的三维人脸模型的参数配置方法可以应用于服务器或终端。其中,服务器是用于提供三维人脸模型的参数配置服务的计算设备,其可以是独立的服务器,也可以是多个服务器形成的服务器集群。终端可以是现有的、正在研发的或将来研发的、能够通过任何形式的有线和/或无线连接(例如,Wi-Fi、LAN、蜂窝、同轴电缆等)实现与服务器交互的任何用户设备,包括但不限于:现有的、正在研发的或将来研发的智能手机、非智能手机、平板电脑、膝上型个人计算机、桌面型个人计算机等。
需要说明的是,该方法也可以由终端和服务器协同执行,其以应用程序的形式存储于终端或服务器中。终端或服务器通过执行上述应用程序实现三维人脸模型的参数配置方法。该应用程序可以是基于客户端/服务器(Client/Server,C/S)结构开发形成,终端上安装客户端,通过客户端与服务器交互实现三维人脸模型的参数配置方法。当然,在一些情况下,如在网页游戏场景下,该应用程序也可以是基于浏览器/服务器(Browser/Server,B/S)结构开发形成,终端通过浏览器与服务器交互实现三维人脸模型的参数配置方法。
为了使得本申请的技术方案更加清楚、易于理解,下面将结合具体场景对本申请的三维人脸模型的参数配置方法进行介绍。参见图1所示的三维人脸模型的参数配置方法的场景架构图,该场景中包括终端10和服务器20,其中,终端10上安装有客户端,服务器20中存储有该三维人脸模型的参数配置方法对应的应用程序。
具体地,终端10上的客户端提供有上传控件,用户可以基于该上传控件上传自身的图片或者喜爱的明星、角色的图片作为人脸参照图,服务器20从终端10获取该人脸参照图,对人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标,然后根据参照坐标从人脸参数取值空间中确定人脸参数的推荐值,服务器20将该人脸参数的推荐值返回给终端10,用户可以基于终端10显示的人脸参数的推荐值进行三维人脸模型的参数配置,从而捏出与用户上传的人脸参照图相似的人脸。
接下来,将从服务器的角度对本申请实施例提供的三维人脸模型的参数配置方法进行介绍。参见图2所示的三维人脸模型的参数配置方法的流程图,该方法包括:
S201:获取人脸参照图。
其中,所述人脸参照图中包括目标人脸,目标人脸具体是指用户期望捏出的人脸,其可以是真实人脸,如用户自身的脸或者明星等公众人物的脸,也可以是虚拟人脸,如动画片等文艺作品中虚拟角色的人脸。在本申请实施例中,服务器将人脸参照图中的目标人脸作为基准进行三维人脸模型的参数配置,以配置出与目标人脸相似的人脸。
在具体实现时,服务器可以响应于终端发送的参数获取请求,从参数获取请求中获取人脸参照图以用于三维人脸模型的参数配置。
S202:对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标。
具体地,服务器可以通过预先训练的神经网络模型识别人脸参照图,将其中的人脸部分裁剪出来,然后利用训练好的检测人脸关键点的神经网络模型对人脸关键点进行检测,得到一组关键点坐标,记作landmarks_2d。其中,人脸关键点的数量可以根据实际需求定义,例如,可以为234个,也可以为68个或168个。
S203:根据所述参照坐标从人脸参数取值空间中确定人脸参数的推荐值。
其中,所述人脸参数的推荐值对应的三维人脸模型,投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。可以理解,投影坐标越接近参照坐标,将该人脸参数的推荐值用于三维人脸模型的参数配置时所捏出的人脸越接近目标人脸。
在本实施例中,投影坐标与参照坐标的接近程度可以通过投影坐标与参照坐标之间的距离进行表征。投影坐标与参照坐标之间的距离是指投影坐标与参照坐标差向量的模值。在具体实现时,可以针对各个人脸关键点,分别计算其投影坐标与参照坐标的差值,然后计算差值的平方和,再执行开平方运算,从而得到投影坐标与参照坐标之间的距离。
其中,投影坐标可以通过将三维人脸模型投影至参照坐标的坐标系得到。在具体实现时,服务器可以根据基准三维人脸模型的人脸关键点的坐标与所述参照坐标确定转换参数;针对任一取值组合,根据所述转换参数将该取值组合对应的三维人脸模型投影至所述参照坐标的坐标系得到人脸关键点的投影坐标。
在本实施例中,基准三维人脸模型是指所有人脸参数均为初始默认参数的三维人脸模型,初始默认参数可以是不同三维人脸模型的人脸参数的平均值。在具体实现时,可以在基准三维人脸模型中人工标注人脸关键点,将二维的人脸参照图中的人脸关键点与基准三维人脸模型中的点位进行对应,如此,服务器可以根据基准三维人脸模型和参照坐标,结合位姿估计算法确定转换参数,该转换参数可以包括旋转角度R和缩放系数A。旋转角度R包括至少三个维度的旋转角度,其可以通过矩阵进行表征,因此,也可记作旋转矩阵R。位姿估计算法可以包括透视n点定位(pespective-n-point,PnP)算法或者重投影误差(bundleadjustment,BA)算法。
可以理解,针对任意一个人脸参数的任意一个取值,服务器维护有与该取值对应的差值矩阵。针对任一取值组合,将基准三维人脸模型与该取值组合中各个取值对应的差值矩阵进行叠加,可以得到与该取值组合对应的三维人脸模型。接着,将该取值组合对应的三维人脸模型按照旋转矩阵R进行旋转,并按照缩放系数R进行缩放,然后投影至参照坐标的坐标系,例如X-Y平面,可以得到人脸关键点的投影坐标。
预设条件具体可以为投影坐标与参照坐标之间的距离小于预设距离,或者投影坐标与参照坐标之间的距离趋于收敛状态。基于此,服务器可以通过遍历人脸参数取值空间,确定使得投影坐标与参照坐标之间的距离小于预设距离或者趋于收敛状态的参数值,将其作为人脸参数的推荐值,用于三维人脸模型的参数配置,以配置出满足用户需求的人脸。
由上可知,本申请实施例提供了一种三维人脸模型的参数配置方法,在该方法中,将包括指定人物脸部特征的图像作为人脸参照图,通过对人脸参照图进行人脸关键点检测得到关键点坐标,将该关键点坐标作为参照坐标,然后根据该参照坐标从人脸参数取值空间中确定捏脸参数的推荐值,其中,该捏脸参数的推荐值对应的三维人脸模型,投影至参照坐标的坐标系所得的人脸关键点的投影坐标,与参照坐标的接近程度满足预设条件,如此,将该人脸参数的推荐值用于三维人脸模型的参数配置,可以配置出与指定人物相似的虚拟相貌。由此可见,该方法基于人脸参照图提供了人脸参数的推荐值,无需用户根据自己的主观判断不断调整人脸参数的值,通过简单操作即可实现三维人脸模型的参数配置,降低了用户操作难度,提高了三维人脸模型的配置效率。
在图2所示实施例中,确定人脸参数的推荐值有两种实现方式,一种实现方式为,将人脸参数分组,对每个参数小组分别确定各自的推荐取值组合,然后基于此确定人脸参数的推荐值,一种实现方式为,根据人脸参数各自对应的取值空间,确定所有人脸参数的多种取值组合,确定每种取值组合对应的投影坐标,进而确定投影坐标与参照坐标的距离,从而确定人脸参数的推荐值。
接下来将对这两种实现方式进行介绍。
参见图3所示的三维人脸模型的参数配置方法的流程图,本实施例是对图2所示实施例上的改进,本实施例仅就其与图2所示实施例的区别进行说明,该方法包括:
S301:对所有人脸参数进行分组得到多个参数小组。
在本实施例中,服务器对所有人脸参数进行分组得到多个参数小组,根据参数小组确定对应的推荐值,可以降低计算复杂度。为了便于理解,举例说明。若人脸参数共有15个,每个人脸参数有3种取值,则在不分组的情况下,遍历所有人脸参数的取值空间,确定的取值组合的个数为315。但若采用本实施例中的分组方式,若将这15个人脸参数分为5组,每个参数小组中有3个参数,则只需针对每个参数小组分别遍历对应的取值空间,每个参数小组的取值组合个数为33,则基于分组遍历所有人脸参数的取值组合总个数为33*5,而针对每一种取值组合都要执行相应的计算,都要耗费相同的计算量,可见相比不分组的情况,本实施例提供的分组方式,能够大幅降低计算量。
可以理解的是,不同人脸参数对三维人脸模型的影响程度是不同的,例如,眼距、眼睛长度、嘴巴长度、嘴角角度等人脸参数对对三维人脸模型的影响长度较大,而眼睑角度等对三维人脸模型的影响相对较小,基于人脸参数对三维人脸模型的影响程度进行分组,有利于针对性地对三维人脸模型进行调整。并且,有些人脸参数之间还存在相关性,在对人脸参数进行分组时,还可以基于人脸参数之间的相关性进行分组,将具有相关性或者相关性较强的人脸参数划分在同一参数小组,将不具有相关性或者相关性较弱的人脸参数划分在不同组,如此,各个参数小组之间互不干扰。基于此,在一些可能的实现方式中,服务器可以根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性,对所有人脸参数进行分组以得到多个参数小组。
在具体实现时,本申请实施例还给出了一个根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性对所有人脸参数进行分组的示例。在该示例中,服务器根据人脸参数与指定脸部区域的相关性,将与指定脸部区域相关的人脸参数划分为一个参数小组,以得到多个参数小组,其中,一个参数小组包括属于一个指定脸部区域的至少一个参数;指定脸部区域包括脸颊、眼部、眉毛、嘴巴以及鼻子。也即,服务器将人脸参数按照其属于脸颊、眼部、眉毛、嘴巴或鼻子等部位分为多个参数小组,一个参数小组包括属于一个指定脸部区域的至少一个参数。在一个示例中,人脸参数共有34个,具体明细参见表1:
表1人脸参数明细
在具体实现时,首先按照该人脸参数所属脸部区域进行划分,如此,可以划分为5组,具体为(1至10)、(11、12)、(13至18)、(19至26)以及(27至34),对于同一脸部区域,再按照人脸参数的相关性进行划分,如此,可以将参数小组(1至10)划分为(1至4)、(5、6)以及(7至10)3个参数小组,将参数小组(13至18)划分为(13、14)、(15、16)以及(17、18)3个参数小组,将参数小组(19至26)划分为(19、20)、(21、22)、(23、24)以及(25、26)4个参数小组,而将参数小组(27至34)划分为(27至29)、(30、31)、(32、33)以及(34)等4个参数小组,如此将34个人脸参数共划分为15个参数小组。
需要说明,在上述示例中,数字1至34指代人脸参数的编号,可以参见表1将其替换为编号对应的人脸参数。
S302:针对每个参数小组,确定该参数小组对应的多种取值组合,并从所述多种取值组合中确定取值组合对应的投影坐标,与所述参照坐标的距离最小的取值组合,作为该参数小组的推荐取值组合。
在本实施例中,服务器针对每个参数小组,分别确定该参数小组对应的推荐取值组合,以便得到所有人脸参数的推荐取值组合。需要说明的是,参数小组对应的推荐取值组合是参数小组对应的多种取值组合中投影坐标与参照坐标的距离最小的一种取值组合。
基于此,针对每个参数小组,服务器需要针对该参数小组的每种取值组合,分别计算该取值组合对应的投影坐标与参照坐标的距离,然后将距离最小的取值组合,作为该参数小组的推荐取值组合。
S303:将所有参数小组各自的推荐取值组合合并成一个取值组合,作为人脸参数的推荐取值组合。
在本实施例中,服务器将所有参数小组各自的推荐取值组合合并成一个取值组合,可以得到人脸参数的推荐取值组合。其中,本实施例中的合并是指在一参数小组的推荐取值组合的新维度上增加其他参数小组的推荐取值组合。例如,参数小组A、B、C各自的推荐取值组合为(A1、A2、A3)、(B1、B2、B3)以及(C1、C2、C3),则将A、B、C各自的推荐取值组合合并后的推荐取值组合为(A1、A2、A3、B1、B2、B3、C1、C2、C3),该推荐取值组合即为人脸参数的推荐取值组合。
S304:确定所述人脸参数的推荐取值组合对应的投影坐标,与所述参照坐标的距离,作为所述人脸参数的推荐取值组合对应的接近程度。
针对人脸参数的推荐取值组合,服务器可以根据推荐取值组合中各个取值对应的差值矩阵以及基础三维人脸模型确定与该推荐取值组合对应的三维人脸模型。并且,服务器可以根据基准三维人脸模型的关键点与参照坐标确定包括旋转矩阵R和缩放系数A在内的转换参数。如此,服务器可以按照旋转矩阵R和缩放系数A对推荐取值组合所对应的三维人脸模型旋转和缩放,然后投影至参照坐标的坐标系,如X-Y平面,从而得到人脸参数的推荐取值组合对应的投影坐标。
接着,服务器计算投影坐标与参照坐标的差向量的模值作为投影坐标与参照坐标的距离,该距离可以表征人脸参数的推荐取值组合对应的接近程度。其中,人脸参数的推荐取值组合对应的接近程度具体是指人脸参数的推荐取值组合对应的三维人脸模型投影至参照坐标的坐标系所得的人脸关键点的投影坐标与参照坐标的接近程度。
S305:根据所述该人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值。
在具体实现时,若该人脸参数的推荐取值组合对应的接近程度满足预设条件,则将该人脸参数的推荐取值组合中各个人脸参数的取值确定为人脸参数的推荐值;若人脸参数的推荐取值组合对应的接近程度并不满足预设条件,则表明人脸参数还有优化空间,可以对其进行进一步优化。
由上可知,本申请实施例提供了一种三维人脸模型的参数配置方法,该方法是通过对人脸参数分组得到多个参数小组,针对每个参数小组,分别从其对应的多种取值组合中确定投影坐标与参照坐标的距离最小的取值组合,作为该参数小组的推荐取值组合,然后再将各个参数小组的推荐取值组合合并,得到人脸参数的推荐取值组合,若该推荐取值组合对应的投影坐标与参照坐标的距离,满足预设条件,则可以将该推荐取值组合确定为人脸参数的推荐值。在该方法中,由于将人脸参数分为参数小组,对每个小组分别确定对应的推荐取值组合,然后将各小组的推荐取值组合合并得到人脸参数的推荐取值组合,如此,可以大大减少确定推荐取值组合的计算量,缩短了确定推荐取值组合的时间,进而缩短了确定人脸参数的推荐值的时间,提高了三维人脸模型的配置效率。
接着,请参见图4所示的人脸参数配置方法的流程图,该实施例是在图2所示实施例上改进得到的,主要对人脸参数不分组的情况下,如何确定人脸参数的推荐值进行介绍,该方法包括:
S401:根据人脸参数各自对应的取值空间,确定所有人脸参数的多种取值组合。
针对每一人脸参数,服务器可以从人脸参数各自对应的取值空间中分别取任一取值进行组合,得到所有人脸参数的取值组合。当改变取值组合中任意一个参数的取值时,将形成新的取值组合。基于此,可以确定所有人脸参数的多种取值组合。
S402:针对每种取值组合,确定该取值组合对应的投影坐标与所述参照坐标的距离,将距离最小的取值组合作为人脸参数的推荐取值组合,并将最小距离作为所述人脸参数的推荐取值组合对应的接近程度。
针对每种取值组合,服务器可以分别确定该取值组合对应的投影坐标,并计算投影坐标与参照坐标的距离,其中,距离最小的取值组合即为投影坐标最接近参照坐标的取值组合,可以将其作为人脸参数的推荐取值组合。投影坐标与参照坐标的距离越小,则表明投影坐标与参照坐标越接近,基于此,服务器可以采用人脸参数的推荐取值组合对应的投影坐标与参照坐标的距离,也即最小距离,作为人脸参数的推荐取值组合对应的接近程度。
其中,确定取值组合对应的投影坐标的具体实现可以参见上文相关内容描述,在此不再赘述。
S403:根据所述人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值。
本步骤的具体实现与S305相同,可以参见S305相关内容描述,在此不再赘述。
由上可知,本申请实施例提供了一种人脸参数配置方法,该方法是根据人脸参数各自对应的取值空间确定所有人脸参数的多种取值组合,然后从多种取值组合中确定投影坐标与参照坐标距离最小的取值组合,作为人脸参数的推荐取值组合,并将其投影坐标与参照坐标的距离,作为人脸参数的推荐取值组合对应的接近程度,若接近程度满足预设条件,则根据推荐取值组合确定人脸参数的推荐值。该方法基于各取值组合的投影坐标与参照坐标的距离给出了推荐取值组合,并基于推荐取值组合提供了人脸参数的推荐值,用户可以直接根据该推荐值进行人脸参数配置,无需根据自己的主观判断不断调整人脸参数的值,降低了用户操作难度,提高了三维人脸模型的配置效率。
在图3和图4所示实施例中,无论是否对人脸参数分组,均需要确定人脸参数的推荐取值组合,及其对应的投影坐标与参照坐标的接近程度,并依据人脸参数的推荐取值组合对应的接近程度和预设条件确定人脸参数的推荐值。
基于预设条件不同,确定人脸参数的推荐值可以有多种实现方式。
在一种实现方式中,服务器可以判断人脸参数的推荐取值组合对应的接近程度是否小于预设接近程度阈值,若是,则将人脸参数的推荐取值组合作为人脸参数的推荐值。其中,预设接近程度阈值是预先设置的、表征投影坐标与参照坐标接近程度的阈值,其可以根据经验值进行设置。
在另一种实现方式中,服务器可以判断人脸参数的推荐取值组合对应的接近程度是否处于收敛状态,若是,则表明人脸参数的推荐取值组合对应的接近程度趋于稳定,优化空间较小,服务器可以将人脸参数的推荐取值组合作为人脸参数的推荐值。
若推荐取值组合对应的接近程度并不小于预设接近程度阈值,并且,人脸参数的推荐取值组合对应的接近程度也不属于收敛状态,服务器还可以根据人脸参数的推荐取值组合更新基准三维人脸模型,然后再基于更新后的基准三维人脸模型与参照坐标之间的转换参数,以返回执行确定人脸参数的推荐取值组合的步骤。
在具体实现时,服务器可以将推荐取值组合中各个人脸参数的取值对应的差值矩阵与基准三维人脸模型叠加,以更新基准三维人脸模型。然后,服务器可以根据更新后的基准三维人脸模型的人脸关键点与参照坐标确定转换参数。接着,服务器可以基于该转换参数重新执行确定人脸参数的推荐取值组合的步骤。具体地,针对各个取值组合,服务器以更新后的基准三维人脸模型所确定出的转换参数确定取值组合对应的投影坐标,然后计算投影坐标与参照坐标的距离,并将其中距离最小的取值组合作为推荐取值组合。当取值组合为参数小组的取值组合时,还可以对各个参数小组的推荐取值组合进行合并以得到人脸参数的推荐取值组合。如此,服务器可以基于推荐取值组合进一步确定人脸参数的推荐值。
可以理解,本申请实施例提供的三维人脸模型的参数配置方法可以应用于游戏应用中。在确定人脸参数的推荐值后,服务器可以根据人脸参数的推荐值生成虚拟人脸模型,该虚拟人脸模型可以作为游戏玩家的虚拟角色样貌。
接下来,将从终端的角度对本申请实施例提供的三维人脸模型的参数配置方法进行介绍。参见图5所示的三维人脸模型的参数配置方法的流程图,该方法包括:
S501:向服务器发送参数获取请求。
具体地,终端向服务器发送参数获取请求,该参数获取请求用于请求人脸参数的推荐值。其中,所述参数获取请求中携带有人脸参照图,以便服务器根据该人脸参照图提供对应的人脸参数的推荐值,从而使得用户可以根据该人脸参数的推荐值进行参数配置,进而配置出与人脸参照图中的人脸相似的虚拟人脸模型。
在本实施例中,终端可以响应于用户触发的捏脸操作,向服务器发送参数获取请求。具体地,终端可以显示虚拟角色配置界面,该界面承载有捏脸控件,用户可以通过点击、触摸或者语音控制等方式触发该捏脸控件,并上传人脸参照图,终端响应于用户通过捏脸控件触发的捏脸操作,获取人脸参照图,根据包括该人脸参照图在内的信息生成参数获取请求,并向服务器发送该参数获取请求。
S502:接收所述服务器根据所述参数获取请求所返回的人脸参数的推荐值,所述人脸参数的推荐值对应的三维人脸模型投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
终端接收服务器返回的人脸参数的推荐值,该人脸参数的推荐值对应的三维人脸模型投影至参考坐标的坐标系所得的人脸关键点的投影坐标,与参照坐标的接近程度满足预设条件,也就是投影坐标和参照坐标较为接近,如此,该人脸参数的推荐值对应的三维人脸模型与人脸参照图中的人脸相似。
其中,捏脸参数的推荐值是服务器根据人脸参照图确定的,服务器获取人脸参照图,对人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标,然后根据参照坐标从人脸参数取值空间中确定人脸参数的推荐值,具体确定过程可以参见上文相关内容描述,在此不再赘述。
S503:显示所述人脸参数的推荐值。
在本申请实施例中,终端显示人脸参数的推荐值,以便用户根据该人脸参数的推荐值进行三维人脸模型的参数配置。需要说明的是,用户可以直接将人脸参数的推荐值作为人脸参数的参数值进行三维人脸模型的参数配置,也可以根据实际需求将人脸参数的推荐值进行微调,将调整后的数值作为人脸参数的参数值进行三维人脸模型的参数配置。
在一些可能的实现方式中,终端可以在虚拟角色配置界面上显示所述人脸参数的推荐值,所述虚拟角色配置界面上还显示有与人脸参数对应的调整控件,如此,用户可以直接将人脸参数的推荐值作为人脸参数的参数值,也可以通过调整控件,对人脸参数的参数值进行微调。
由上可知,本申请实施例提供了一种三维人脸模型的参数配置方法,在该方法中,终端向服务器发送参数获取请求,该参数获取请求中携带有人脸参照图,如此,服务器可以根据人脸参照图提供对应的人脸参数的推荐值,然后,终端接收服务器返回的人脸参数的推荐值,并显示该人脸参数的推荐值,如此,用户可以根据该人脸参数的推荐值进行三维人脸模型的参数配置,以快速配置出与人脸参照图中的人脸相似的虚拟人脸模型,而无需根据自己的主观判断不断调整人脸参数的值,降低了用户操作难度,提高了三维人脸模型的配置效率。
为了使得本申请的技术方案更加易于理解,下面将以游戏应用的具体场景对本申请实施例提供的三维人脸模型的参数配置方法进行介绍。参见图6A所示的该应用场景中三维人脸模型的参数配置方法的流程图,以及图6B所示的应用场景中三维人脸模型的参数配置方法的硬件结构图,该应用场景是以终端10和服务器20交互实现三维人脸模型的参数配置为例进行说明的。
在该应用场景中,终端10上安装有游戏客户端,该游戏客户端提供有虚拟角色配置界面,该虚拟角色配置界面上承载有捏脸控件,具体可以参见图6B中110所示的界面示意图。用户通过该捏脸控件上传包括自身人脸的图像或者公众人物、艺术作品中的人物的人脸图像作为人脸参照图,如图6B中120所示,终端10响应于用户触发的捏脸操作,获取人脸参照图,根据包括人脸参照图在内的信息生成参数获取请求,并向服务器发送参数获取请求。
服务器20接收到终端10发送的参数获取请求,从该参数获取请求中获取人脸参照图,如图6B中210所示,然后利用预先训练的第一神经网络模型进行人脸检测,将人脸参照图中的人脸部分裁剪出来,再利用训练好的检测人脸关键点的第二神经网络模型检测人脸关键点,得到关键点坐标作为参照坐标。服务器可以根据基准三维人脸模型的关键点与参照坐标,结合位姿估计算法,如PnP算法,确定转换参数,该转换参数包括旋转矩阵R和缩放系数A。
服务器20在接收到参数获取请求时,还将所有人脸参数按照对三维人脸模型的影响程度以及人脸参数之间的相关性分组以得到多个参数小组,然后针对每个参数小组,分别确定该参数小组对应的多种取值组合,并遍历该参数小组对应的多种取值组合,通过将取值组合中的每个取值对应的差值矩阵叠加到基准三维人脸模型,得到与该取值组合对应的三维人脸模型。
如此,服务器20可以根据旋转矩阵R和缩放系数A对取值组合对应的三维人脸模型进行旋转和缩放,然后将其投影至参照坐标的坐标系,也即X-Y平面,得到各个该取值组合对应的三维人脸模型中人脸关键点的投影坐标。图6B中的220示出了各个人脸关键点的参照坐标和投影坐标,本实施例采用不同灰度的点,对参照坐标和投影坐标进行区分。针对每一参数小组,服务器可以分别计算每种取值组合对应的投影坐标和参照坐标之间的距离,将距离最小的取值组合,也即220中不同灰度的点最接近的取值组合,作为该参数小组的推荐取值组合,然后将各参数小组的推荐取值组合合并,可以得到人脸参数的推荐取值组合。
服务器20将人脸参数的推荐取值组合中各个取值对应的差值矩阵叠加到基准三维人脸模型,可以得到推荐取值组合对应的三维人脸模型,然后再根据旋转矩阵R和缩放系数A进行旋转和缩放,并投影至X-Y平面,可以获得人脸参数的推荐取值组合对应的投影坐标,接着,服务器20计算包含全部参数的推荐取值组合对应的投影坐标和参照坐标之间的距离,作为投影坐标和参照坐标的接近程度,若接近程度满足预设条件,则将推荐取值组合中的取值作为人脸参数的推荐值,否则,根据推荐取值组合更新基准三维人脸模型,并基于更新后的基准三维人脸模型重新计算转换参数,并基于该转换参数重新执行确定推荐取值组合的步骤,以便获得人脸参数的推荐值,如此,确定人脸参数的推荐值的流程结束。
终端10接收服务器20返回的人脸参数的推荐值,并显示该人脸参数的推荐值,用户可以直接将该人脸参数的推荐值作为人脸参数的参数值,或者在人脸参数的推荐值的基础上进行微调,将微调后的数值作为人脸参数的参数值,从而实现人脸参数配置。然后,终端10获取用户配置的人脸参数的参数值,将其上传给服务器20,服务器20根据人脸参数的参数值捏出虚拟人脸模型,并将其返回给终端10,终端10可以显示该虚拟人脸模型,以便用户确认该虚拟人脸模型是否符合自身需求,若符合,则用户可将其设置为虚拟角色的头像。
以上为本申请实施例提供的一种三维人脸模型的参数配置方法的具体实现方式,基于此,本申请实施例还提供了对应的三维人脸模型的参数配置装置,下面将从功能模块化的角度对本申请实施例提供的装置进行介绍。
参见图7所示的三维人脸模型的参数配置装置的结构示意图,该三维人脸模型的参数配置装置700包括:
获取模块710,用于获取人脸参照图;
检测模块720,用于对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;
确定模块730,用于根据所述参照坐标从人脸参数取值空间中确定人脸参数的推荐值,所述人脸参数的推荐值用于三维人脸模型的参数配置;
其中,所述人脸参数的推荐值对应的三维人脸模型投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
可选的,参见图8,图8为本申请实施例提供的三维人脸模型的参数配置装置的一个结构示意图,在图7所示结构的基础上,所述确定模块730具体包括:
分组子模块731,用于对所有人脸参数进行分组得到多个参数小组;
第一确定子模块732,用于针对每个参数小组,确定该参数小组对应的多种取值组合,并从所述多种取值组合中确定取值组合对应的投影坐标,与所述参照坐标的距离最小的取值组合,作为该参数小组的推荐取值组合;
合并子模块733,用于将所有参数小组各自的推荐取值组合合并成一个取值组合,作为人脸参数的推荐取值组合;
第二确定子模块734,用于确定所述人脸参数的推荐取值组合对应的投影坐标,与所述参照坐标的距离,作为所述人脸参数的推荐取值组合对应的接近程度;
第三确定子模块735,用于根据所述该人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值。
可选的,所述分组子模块731具体用于:
根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性,对所有人脸参数进行分组以得到多个参数小组。
可选的,所述分组子模块731具体用于:
根据人脸参数与指定脸部区域的相关性,将与指定脸部区域相关的人脸参数划分为一个参数小组,以得到多个参数小组,其中,一个参数小组包括属于一个指定脸部区域的至少一个参数;所述指定脸部区域包括脸颊、眼部、眉毛、嘴巴以及鼻子。
可选的,参见图9,图9为本申请实施例提供的三维人脸模型的参数配置装置的一个结构示意图,在图7所示结构的基础上,所述确定模块730具体包括:
第四确定子模块736,用于根据人脸参数各自对应的取值空间,确定所有人脸参数的多种取值组合;
第五确定子模块737,用于针对每种取值组合,确定该取值组合对应的投影坐标与所述参照坐标的距离,将距离最小的取值组合作为人脸参数的推荐取值组合,并将最小距离作为所述人脸参数的推荐取值组合对应的接近程度;
第六确定子模块738,用于根据所述人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值。
可选的,第二确定子模块734或者第五确定子模块737在确定投影坐标与所述参照坐标的距离时,通过以下方式确定任一取值组合对应的投影坐标与所述参照坐标的距离:
根据基准三维人脸模型的人脸关键点的坐标与所述参照坐标确定转换参数;
针对任一取值组合,根据所述转换参数将该取值组合对应的三维人脸模型投影至所述参照坐标的坐标系得到人脸关键点的投影坐标;
确定该投影坐标与所述参照坐标的差向量的模值,作为该投影坐标与所述参照坐标的距离。
可选的,第三确定子模块735或者第六确定子模块738在根据所述该人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值时,具体用于:
判断所述人脸参数的推荐取值组合对应的接近程度是否小于预设接近程度阈值,若是,则将所述人脸参数的推荐取值组合作为所述人脸参数的推荐值;或者,
判断所述人脸参数的推荐取值组合对应的接近程度是否处于收敛状态,若是,则将所述人脸参数的推荐取值组合作为所述人脸参数的推荐值。
可选的,所述第三确定子模块735或者第六确定子模块738在根据所述该人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值时,还用于:
若否,则根据所述人脸参数的推荐取值组合更新所述基准三维人脸模型,再基于更新后的基准三维人脸模型与所述参照坐标之间的转换参数,以返回执行用于确定人脸参数的推荐取值组合的步骤。
可选的,参见图10,图10为本申请实施例提供的三维人脸模型的参数配置装置的一个结构示意图,在图7所示结构的基础上,所述装置700还包括:
生成模块740,用于根据所述人脸参数的推荐值生成虚拟人脸模型,将所述虚拟人脸模型作为游戏玩家的虚拟角色样貌。
接下来,参见图11所示的三维人脸模型的参数配置装置的结构示意图,该装置1100包括:
发送模块1110,用于向服务器发送参数获取请求,所述参数获取请求中携带有人脸参照图;
接收模块1120,用于接收所述服务器根据所述参数获取请求所返回的人脸参数的推荐值,所述人脸参数的推荐值对应的三维人脸模型投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件,所述参照坐标是从所述人脸参照图中检测得到人脸关键点对应的关键点坐标;
显示模块1130,用于显示所述人脸参数的推荐值。
可选的,所述显示模块1130具体用于:
在虚拟角色配置界面上显示所述人脸参数的推荐值,所述虚拟角色配置界面上还显示有与人脸参数对应的调整控件。
本申请还提供了一种用于三维人脸模型的参数配置的设备,该设备具体可以为服务器,参见图12,图12是本申请实施例提供的一种用于三维人脸模型的参数配置的服务器结构示意图,该服务器1200可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)1222(例如,一个或一个以上处理器)和存储器1232,一个或一个以上存储应用程序1242或数据1244的存储介质1230(例如一个或一个以上海量存储设备)。其中,存储器1232和存储介质1230可以是短暂存储或持久存储。存储在存储介质1230的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1222可以设置为与存储介质1230通信,在服务器1200上执行存储介质1230中的一系列指令操作。
服务器1200还可以包括一个或一个以上电源1226,一个或一个以上有线或无线网络接口1250,一个或一个以上输入输出接口1258,和/或,一个或一个以上操作系统1241,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图12所示的服务器结构。
其中,CPU 1222用于执行如下步骤:
获取人脸参照图;
对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;
根据所述参照坐标从人脸参数取值空间中确定人脸参数的推荐值,所述人脸参数的推荐值用于三维人脸模型的参数配置;
其中,所述人脸参数的推荐值对应的三维人脸模型,投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
可选的,CPU1222还可以执行本申请实施例中三维人脸模型的参数配置方法任一具体实现方式的方法步骤。
本申请实施例还提供了另一种用于三维人脸模型的参数配置的设备,该设备可以为终端设备,如图13所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该终端可以为包括手机、平板电脑、个人数字助理(英文全称:Personal Digital Assistant,英文缩写:PDA)、销售终端(英文全称:Point of Sales,英文缩写:POS)、车载电脑等任意终端设备,以终端为手机为例:
图13示出的是与本申请实施例提供的终端相关的手机的部分结构的框图。参考图13,手机包括:射频(英文全称:Radio Frequency,英文缩写:RF)电路1310、存储器1320、输入单元1330、显示单元1340、传感器1350、音频电路1360、无线保真(英文全称:wirelessfidelity,英文缩写:WiFi)模块1370、处理器1380、以及电源1390等部件。本领域技术人员可以理解,图13中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图13对手机的各个构成部件进行具体的介绍:
RF电路1310可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1380处理;另外,将设计上行的数据发送给基站。通常,RF电路1310包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(英文全称:LowNoise Amplifier,英文缩写:LNA)、双工器等。此外,RF电路1310还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(英文全称:Global System of Mobile communication,英文缩写:GSM)、通用分组无线服务(英文全称:General Packet Radio Service,GPRS)、码分多址(英文全称:CodeDivision Multiple Access,英文缩写:CDMA)、宽带码分多址(英文全称:Wideband CodeDivision Multiple Access,英文缩写:WCDMA)、长期演进(英文全称:Long TermEvolution,英文缩写:LTE)、电子邮件、短消息服务(英文全称:Short Messaging Service,SMS)等。
存储器1320可用于存储软件程序以及模块,处理器1380通过运行存储在存储器1320的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1330可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1330可包括触控面板1331以及其他输入设备1332。触控面板1331,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1331上或在触控面板1331附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1331可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1380,并能接收处理器1380发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1331。除了触控面板1331,输入单元1330还可以包括其他输入设备1332。具体地,其他输入设备1332可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1340可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1340可包括显示面板1341,可选的,可以采用液晶显示器(英文全称:Liquid Crystal Display,英文缩写:LCD)、有机发光二极管(英文全称:Organic Light-Emitting Diode,英文缩写:OLED)等形式来配置显示面板1341。进一步的,触控面板1331可覆盖显示面板1341,当触控面板1331检测到在其上或附近的触摸操作后,传送给处理器1380以确定触摸事件的类型,随后处理器1380根据触摸事件的类型在显示面板1341上提供相应的视觉输出。虽然在图13中,触控面板1331与显示面板1341是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1331与显示面板1341集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1350,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1341的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1341和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1360、扬声器1361,传声器1362可提供用户与手机之间的音频接口。音频电路1360可将接收到的音频数据转换后的电信号,传输到扬声器1361,由扬声器1361转换为声音信号输出;另一方面,传声器1362将收集的声音信号转换为电信号,由音频电路1360接收后转换为音频数据,再将音频数据输出处理器1380处理后,经RF电路1310以发送给比如另一手机,或者将音频数据输出至存储器1320以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块1370可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图13示出了WiFi模块1370,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1380是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1320内的软件程序和/或模块,以及调用存储在存储器1320内的数据,执行手机的各种功能和处理数据。可选的,处理器1380可包括一个或多个处理单元;优选的,处理器1380可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1380中。
手机还包括给各个部件供电的电源1390(比如电池),优选的,电源可以通过电源管理系统与处理器1380逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本申请实施例中,该终端所包括的处理器1380还具有以下功能:
向服务器发送参数获取请求,所述参数获取请求中携带有人脸参照图;
接收所述服务器根据所述参数获取请求所返回的人脸参数的推荐值,所述人脸参数的推荐值对应的三维人脸模型投影至参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件,所述参照坐标是从所述人脸参照图中检测得到人脸关键点对应的关键点坐标;
显示所述人脸参数的推荐值。
可选的,处理器1380还可以执行本申请实施例中三维人脸模型的参数配置方法任一具体实现方式的方法步骤。
此外,本申请还提供了一种用于三维人脸模型的参数配置的设备,该设备具体可以为终端设备,该终端设备的结构与图13所示的用于三维人脸模型的参数配置的设备的结构类似,其中的处理器用于执行以下步骤:
获取人脸参照图;
对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;
根据所述参照坐标从人脸参数取值空间中确定人脸参数的推荐值,所述人脸参数的推荐值用于三维人脸模型的参数配置;
其中,所述人脸参数的推荐值对应的三维人脸模型,投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
可选的,处理器还可以执行本申请实施例中三维人脸模型的参数配置方法任一具体实现方式的方法步骤。
本申请实施例还提供一种计算机可读存储介质,用于存储程序代码,该程序代码用于执行前述各个实施例所述的三维人脸模型的参数配置方法中的任意一种实施方式。
本申请实施例还提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行前述各个实施例所述的一种三维人脸模型的参数配置方法中的任意一种实施方式。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (12)
1.一种三维人脸模型的参数配置方法,其特征在于,包括:
获取人脸参照图;
对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;
根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性,对所有人脸参数进行分组以得到多个参数小组,其中,先按照人脸参数所属脸部区域进行划分,得到多个参数组,再对于同一脸部区域,按照人脸参数的相关性,将强相关性的人脸参数划分为同一组,将弱相关性的人脸参数划分在不同组,进而得到多个参数小组;不同的人脸参数对所述三维人脸模型的影响程度不同;
针对每个参数小组,确定该参数小组对应的多种取值组合,并从所述多种取值组合中确定取值组合对应的投影坐标与所述参照坐标的距离最小的取值组合,作为该参数小组的推荐取值组合;
将所有参数小组各自的推荐取值组合合并成一个取值组合,作为人脸参数的推荐取值组合;
确定所述人脸参数的推荐取值组合对应的投影坐标,与所述参照坐标的距离,作为所述人脸参数的推荐取值组合对应的接近程度;
根据所述人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值,所述人脸参数的推荐值用于三维人脸模型的参数配置;
其中,所述人脸参数的推荐值对应的三维人脸模型,投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
2.根据权利要求1所述方法,其特征在于,所述根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性,对所有人脸参数进行分组以得到多个参数小组,包括:
根据人脸参数与指定脸部区域的相关性,将与指定脸部区域相关的人脸参数划分为一个参数小组,以得到多个参数小组,其中,一个参数小组包括属于一个指定脸部区域的至少一个参数;所述指定脸部区域包括脸颊、眼部、眉毛、嘴巴以及鼻子。
3.根据权利要求1所述方法,其特征在于,通过以下方式确定任一取值组合对应的投影坐标与所述参照坐标的距离:
根据基准三维人脸模型的人脸关键点的坐标与所述参照坐标确定转换参数;
针对任一取值组合,根据所述转换参数将该取值组合对应的三维人脸模型投影至所述参照坐标的坐标系得到人脸关键点的投影坐标;
确定该投影坐标与所述参照坐标的差向量的模值,作为该投影坐标与所述参照坐标的距离。
4.根据权利要求3所述方法,其特征在于,根据所述人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值,包括:
判断所述人脸参数的推荐取值组合对应的接近程度是否小于预设接近程度阈值,若是,则将所述人脸参数的推荐取值组合作为所述人脸参数的推荐值;或者,
判断所述人脸参数的推荐取值组合对应的接近程度是否处于收敛状态,若是,则将所述人脸参数的推荐取值组合作为所述人脸参数的推荐值。
5.根据权利要求4所述方法,其特征在于,所述方法还包括:
若否,则根据所述人脸参数的推荐取值组合更新所述基准三维人脸模型,再基于更新后的基准三维人脸模型与所述参照坐标之间的转换参数,以返回执行用于确定人脸参数的推荐取值组合的步骤。
6.根据权利要求1至5任一项所述方法,其特征在于,所述方法还包括:
根据所述人脸参数的推荐值生成虚拟人脸模型,将所述虚拟人脸模型作为游戏玩家的虚拟角色样貌。
7.一种三维人脸模型的参数配置方法,其特征在于,包括:
向服务器发送参数获取请求,所述参数获取请求中携带有人脸参照图;
接收所述服务器根据所述参数获取请求所返回的人脸参数的推荐值,所述人脸参数的推荐值对应的三维人脸模型投影至参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件,所述参照坐标是从所述人脸参照图中检测得到人脸关键点对应的关键点坐标;
显示所述人脸参数的推荐值;
所述服务器用于根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性,对所有人脸参数进行分组以得到多个参数小组,其中,先按照人脸参数所属脸部区域进行划分,得到多个参数组,再对于同一脸部区域,按照人脸参数的相关性,将强相关性的人脸参数划分为同一组,将弱相关性的人脸参数划分在不同组,进而得到多个参数小组;不同的人脸参数对所述三维人脸模型的影响程度不同;针对每个参数小组,确定该参数小组对应的多种取值组合,并从所述多种取值组合中确定取值组合对应的投影坐标与所述参照坐标的距离最小的取值组合,作为该参数小组的推荐取值组合;将所有参数小组各自的推荐取值组合合并成一个取值组合,作为人脸参数的推荐取值组合;确定所述人脸参数的推荐取值组合对应的投影坐标,与所述参照坐标的距离,作为所述人脸参数的推荐取值组合对应的接近程度;根据所述人脸参数的推荐取值组合对应的接近程度和预设条件,确定所述人脸参数的推荐值。
8.根据权利要求7所述方法,其特征在于,所述显示所述人脸参数的推荐值,包括:
在虚拟角色配置界面上显示所述人脸参数的推荐值,所述虚拟角色配置界面上还显示有与人脸参数对应的调整控件。
9.一种三维人脸模型的参数配置装置,其特征在于,包括:
获取模块,用于获取人脸参照图;
检测模块,用于对所述人脸参照图进行人脸关键点检测得到关键点坐标,作为参照坐标;
确定模块,用于根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性,对所有人脸参数进行分组以得到多个参数小组,其中,先按照人脸参数所属脸部区域进行划分,得到多个参数组,再对于同一脸部区域,按照人脸参数的相关性,将强相关性的人脸参数划分为同一组,将弱相关性的人脸参数划分在不同组,进而得到多个参数小组;不同的人脸参数对所述三维人脸模型的影响程度不同;针对每个参数小组,确定该参数小组对应的多种取值组合,并从所述多种取值组合中确定取值组合对应的投影坐标与所述参照坐标的距离最小的取值组合,作为该参数小组的推荐取值组合;将所有参数小组各自的推荐取值组合合并成一个取值组合,作为人脸参数的推荐取值组合;确定所述人脸参数的推荐取值组合对应的投影坐标,与所述参照坐标的距离,作为所述人脸参数的推荐取值组合对应的接近程度;根据所述人脸参数的推荐取值组合对应的接近程度和预设条件,确定人脸参数的推荐值,所述人脸参数的推荐值用于三维人脸模型的参数配置;
其中,所述人脸参数的推荐值对应的三维人脸模型,投影至所述参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标的接近程度满足预设条件。
10.一种三维人脸模型的参数配置装置,其特征在于,包括:
发送模块,用于向服务器发送参数获取请求,所述参数获取请求中携带有人脸参照图;
接收模块,用于接收所述服务器根据所述参数获取请求所返回的人脸参数的推荐值,所述人脸参数的推荐值对应的三维人脸模型,投影至参照坐标的坐标系所得的人脸关键点的投影坐标,与所述参照坐标接近程度满足预设条件,所述参照坐标是从所述人脸参照图中检测得到人脸关键点对应的关键点坐标;
显示模块,用于显示所述人脸参数的推荐值;
所述服务器用于根据人脸参数对三维人脸模型的影响程度以及人脸参数之间的相关性,对所有人脸参数进行分组以得到多个参数小组,其中,先按照人脸参数所属脸部区域进行划分,得到多个参数组,再对于同一脸部区域,按照人脸参数的相关性,将强相关性的人脸参数划分为同一组,将弱相关性的人脸参数划分在不同组,进而得到多个参数小组;不同的人脸参数对所述三维人脸模型的影响程度不同;针对每个参数小组,确定该参数小组对应的多种取值组合,并从所述多种取值组合中确定取值组合对应的投影坐标与所述参照坐标的距离最小的取值组合,作为该参数小组的推荐取值组合;将所有参数小组各自的推荐取值组合合并成一个取值组合,作为人脸参数的推荐取值组合;确定所述人脸参数的推荐取值组合对应的投影坐标,与所述参照坐标的距离,作为所述人脸参数的推荐取值组合对应的接近程度;根据所述人脸参数的推荐取值组合对应的接近程度和预设条件,确定所述人脸参数的推荐值。
11.一种设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1至6任一项所述的三维人脸模型的参数配置方法或者执行权利要求7至8中任一项所述的三维人脸模型的参数配置方法。
12.一种计算机存储介质,其特征在于,所述存储当其在计算机上运行时,使得所述计算机执行权利要求1至6任一项所述的三维人脸模型的参数配置方法或者执行权利要求7至8中任一项所述的三维人脸模型的参数配置方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811458670.2A CN109598749B (zh) | 2018-11-30 | 2018-11-30 | 一种三维人脸模型的参数配置方法、装置、设备及介质 |
PCT/CN2019/120282 WO2020108404A1 (zh) | 2018-11-30 | 2019-11-22 | 三维人脸模型的参数配置方法、装置、设备及存储介质 |
US17/187,219 US11373384B2 (en) | 2018-11-30 | 2021-02-26 | Parameter configuration method, apparatus, and device for three-dimensional face model, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811458670.2A CN109598749B (zh) | 2018-11-30 | 2018-11-30 | 一种三维人脸模型的参数配置方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109598749A CN109598749A (zh) | 2019-04-09 |
CN109598749B true CN109598749B (zh) | 2023-03-10 |
Family
ID=65959317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811458670.2A Active CN109598749B (zh) | 2018-11-30 | 2018-11-30 | 一种三维人脸模型的参数配置方法、装置、设备及介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11373384B2 (zh) |
CN (1) | CN109598749B (zh) |
WO (1) | WO2020108404A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598749B (zh) | 2018-11-30 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 一种三维人脸模型的参数配置方法、装置、设备及介质 |
CN110263617B (zh) * | 2019-04-30 | 2021-10-22 | 北京永航科技有限公司 | 三维人脸模型获取方法及装置 |
CN110288705B (zh) * | 2019-07-02 | 2023-08-04 | 北京字节跳动网络技术有限公司 | 生成三维模型的方法和装置 |
JP7102554B2 (ja) * | 2019-09-30 | 2022-07-19 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | 画像処理方法、装置及び電子機器 |
CN110781782B (zh) * | 2019-10-15 | 2021-03-23 | 腾讯科技(深圳)有限公司 | 面部模型的确定方法及装置 |
CN112767520A (zh) * | 2021-01-07 | 2021-05-07 | 深圳追一科技有限公司 | 数字人生成方法、装置、电子设备及存储介质 |
CN112785500A (zh) * | 2021-01-15 | 2021-05-11 | 京东方科技集团股份有限公司 | 发型的预览方法、存储介质及电子设备 |
CN113256797B (zh) * | 2021-06-03 | 2025-03-07 | 广州虎牙科技有限公司 | 一种语义点确定方法、装置、电子设备及计算机可读存储介质 |
CN113506351B (zh) * | 2021-07-28 | 2025-02-28 | 维沃移动通信(杭州)有限公司 | ToF相机的标定方法、装置、电子设备及存储介质 |
CN113808007B (zh) | 2021-09-16 | 2022-07-19 | 北京百度网讯科技有限公司 | 调整虚拟脸部模型的方法、装置、电子设备及存储介质 |
CN114265526B (zh) * | 2021-12-10 | 2023-07-28 | 北京金堤科技有限公司 | 图谱缩放方法、装置、存储介质及电子设备 |
CN116778076B (zh) * | 2022-03-11 | 2025-01-21 | 腾讯科技(深圳)有限公司 | 一种人脸样本构建方法和相关装置 |
CN114882550B (zh) * | 2022-04-14 | 2024-05-14 | 支付宝(杭州)信息技术有限公司 | 一种人脸注册留底方法、装置以及设备 |
CN115407308A (zh) * | 2022-07-18 | 2022-11-29 | 奥比中光科技集团股份有限公司 | 一种3d传感模组、3d传感方法及电子设备 |
CN117392734B (zh) * | 2023-12-12 | 2024-05-14 | 深圳市宗匠科技有限公司 | 面部数据处理方法、装置、计算机设备和存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8902232B2 (en) * | 2008-01-31 | 2014-12-02 | University Of Southern California | Facial performance synthesis using deformation driven polynomial displacement maps |
TW201023092A (en) * | 2008-12-02 | 2010-06-16 | Nat Univ Tsing Hua | 3D face model construction method |
TWI430185B (zh) * | 2010-06-17 | 2014-03-11 | Inst Information Industry | 臉部表情辨識系統及其辨識方法及其電腦程式產品 |
CN104966046B (zh) * | 2015-05-20 | 2017-07-21 | 腾讯科技(深圳)有限公司 | 一种人脸关键点位定位结果的评估方法,及评估装置 |
CN106652015B (zh) * | 2015-10-30 | 2020-10-30 | 深圳超多维光电子有限公司 | 一种虚拟人物头像生成方法及装置 |
CN106447785A (zh) * | 2016-09-30 | 2017-02-22 | 北京奇虎科技有限公司 | 一种驱动虚拟角色的方法和装置 |
US10860841B2 (en) * | 2016-12-29 | 2020-12-08 | Samsung Electronics Co., Ltd. | Facial expression image processing method and apparatus |
CN108171789B (zh) * | 2017-12-21 | 2022-01-18 | 迈吉客科技(北京)有限公司 | 一种虚拟形象生成方法和系统 |
CN108765551B (zh) * | 2018-05-15 | 2022-02-01 | 福建省天奕网络科技有限公司 | 一种实现3d模型捏脸的方法及终端 |
CN109598749B (zh) * | 2018-11-30 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 一种三维人脸模型的参数配置方法、装置、设备及介质 |
-
2018
- 2018-11-30 CN CN201811458670.2A patent/CN109598749B/zh active Active
-
2019
- 2019-11-22 WO PCT/CN2019/120282 patent/WO2020108404A1/zh active Application Filing
-
2021
- 2021-02-26 US US17/187,219 patent/US11373384B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11373384B2 (en) | 2022-06-28 |
WO2020108404A1 (zh) | 2020-06-04 |
US20210183166A1 (en) | 2021-06-17 |
CN109598749A (zh) | 2019-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598749B (zh) | 一种三维人脸模型的参数配置方法、装置、设备及介质 | |
US10870053B2 (en) | Perspective mode switching method and terminal | |
US10805248B2 (en) | Instant messaging method and apparatus for selecting motion for a target virtual role | |
CN108184050B (zh) | 一种拍照方法、移动终端 | |
WO2016188318A1 (zh) | 一种3d人脸重建方法、装置及服务器 | |
EP3370204A1 (en) | Method for detecting skin region and device for detecting skin region | |
CN110163045B (zh) | 一种手势动作的识别方法、装置以及设备 | |
US11845007B2 (en) | Perspective rotation method and apparatus, device, and storage medium | |
CN109151367B (zh) | 一种视频通话方法及终端设备 | |
CN106406530B (zh) | 一种屏幕显示方法及其移动终端 | |
CN108513671B (zh) | 一种2d应用在vr设备中的显示方法及终端 | |
CN110032309B (zh) | 一种分屏方法及终端设备 | |
CN106445340B (zh) | 一种双屏终端显示立体图像的方法和装置 | |
CN106204423A (zh) | 一种基于增强现实的图片调整方法、装置及终端 | |
WO2020187065A1 (zh) | 一种视频的评价方法、终端、服务器及相关产品 | |
CN109947312A (zh) | 一种控制方法及终端设备 | |
CN112206517A (zh) | 一种渲染方法、装置、存储介质及计算机设备 | |
WO2021104162A1 (zh) | 显示方法及电子设备 | |
CN110209449B (zh) | 一种游戏中光标定位方法和装置 | |
CN110007821B (zh) | 一种操作方法及终端设备 | |
CN107797723B (zh) | 一种显示样式的切换方法及终端 | |
WO2019071562A1 (zh) | 一种数据处理方法及终端 | |
CN108536513B (zh) | 一种图片显示方向调整方法及移动终端 | |
CN106210514A (zh) | 拍照对焦的方法、装置及智能设备 | |
CN107809474B (zh) | 下载状态的提示方法、装置和终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |