CN111103967A - 虚拟对象的控制方法和装置 - Google Patents
虚拟对象的控制方法和装置 Download PDFInfo
- Publication number
- CN111103967A CN111103967A CN201811251781.6A CN201811251781A CN111103967A CN 111103967 A CN111103967 A CN 111103967A CN 201811251781 A CN201811251781 A CN 201811251781A CN 111103967 A CN111103967 A CN 111103967A
- Authority
- CN
- China
- Prior art keywords
- hand
- virtual object
- information
- human hand
- controlling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000009471 action Effects 0.000 claims abstract description 48
- 238000009877 rendering Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 9
- 239000002245 particle Substances 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000001145 finger joint Anatomy 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开公开了一种虚拟对象的控制方法、装置、电子设备和计算机可读存储介质。其中该虚拟对象的控制方法包括:获取视频,所述视频中包括虚拟对象和人手;获取第一虚拟对象的位置;识别所述视频中的第一人手,得到第一人手的第一信息;识别第一人手的第一动作;根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。本公开实施例通过人手的动作和人手的信息直接控制已经显示的虚拟对象显示属性,解决了现有技术中对虚拟对象的显示控制不灵活的技术问题。
Description
技术领域
本公开涉及图像处理领域,尤其涉及一种虚拟对象的控制方法、装置、电子设备及计算机可读存储介质。
背景技术
随着计算机技术的发展,智能终端的应用范围得到了广泛的提高,例如可以通过智能终端听音乐、玩游戏、上网聊天和拍照等。对于智能终端的拍照技术来说,其拍照像素已经达到千万像素以上,具有较高的清晰度和媲美专业相机的拍照效果。
目前在采用智能终端进行拍照时,不仅可以使用出厂时内置的拍照软件实现传统功能的拍照效果,还可以通过从网络端下载应用程序(Application,简称为:APP)来实现具有附加功能的拍照效果,例如可以实现暗光检测、美颜相机和超级像素等功能的APP。智能终端的美颜功能通常包括肤色调整、磨皮、大眼和瘦脸等美颜处理效果,能对图像中已识别出的所有人脸进行相同程度的美颜处理。目前也有APP可以实现简单的显示虚拟对象的功能,比如在屏幕的固定位置显示一个固定的虚拟对象,虚拟对象可以做一些简单的动作。
然而目前的虚拟对象,只能在固定的位置固定的时间显示,如果需要改变虚拟的显示属性,需要直接对虚拟对象本身进行修改或者需要通过控件对虚拟对象进行控制,因此虚拟对象的控制很不灵活。
发明内容
第一方面,本公开实施例提供一种虚拟对象的控制方法,包括:获取视频,所述视频中包括虚拟对象和人手;获取第一虚拟对象的位置;识别所述视频中的第一人手,得到第一人手的第一信息;识别第一人手的第一动作;根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。
进一步的,所述识别视频中的第一人手,得到第一人手的第一信息,包括:
识别所述视频中的第一人手,获取第一人手的第一位置以及第一人手的关键点。
进一步的,所述识别第一人手的第一动作,包括:根据所述第一人手的关键点,识别所述第一人手的手势。
进一步的,所述根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置所述第一虚拟对象的显示,包括:当所述第一人手的第一位置与所述虚拟对象的位置小于第一阈值,且所述第一人手的第一动作为预定的第一动作,控制所述第一虚拟对象的显示属性。
进一步的,所述控制所述第一虚拟对象的显示属性,包括:根据所述预定的第一动作和所述的第一信息获取图像渲染信息;根据所述图像渲染信息,控制所述第一虚拟对象的显示属性。
进一步的,所述显示属性包括:是否显示、显示的位置、显示的颜色、显示大小及显示的透明度中的一个或者多个。
进一步的,在所述根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置所述第一虚拟对象的显示之后,还包括:跟踪所述第一人手,得到所述第一人手的第二信息;识别所述第一人手的第二动作;根据所述第一人手的第二动作、第一人手的第二信息控制所述第一虚拟对象的显示。
进一步的,所述跟踪所述第一人手,得到所述第一人手的第二信息,包括:跟踪所述第一人手的移动,当所述第一人手停止移动,获取第一人手的第二位置以及第一人手的关键点。
进一步的,所述根据所述第一人手的第二动作、第一人手的第二信息控制所述第一虚拟对象的显示,包括:当所述第一人手的第二动作为预定的第二动作,根据所述第一人手的第二信息控制所述虚拟对象的显示属性。
进一步的,所述视频中还包括第二虚拟对象,所述控制方法还包括:获取第二虚拟对象的位置;识别所述视频中的第二人手,得到第二人手的第一信息;识别第二人手的第一动作;根据所述第二人手的第一动作、第二人手的第一信息以及所述第二虚拟对象的位置控制所述第二虚拟对象的显示。
第二方面,本公开实施例提供一种虚拟对象的控制装置,包括:
视频获取模块,用于获取视频,所述视频中包括虚拟对象和人手;
位置获取模块,用于获取第一虚拟对象的位置;
人手信息获取模块,用于识别所述视频中的第一人手,得到第一人手的第一信息;
人手动作识别模块,用于识别第一人手的第一动作;
虚拟对象控制模块,用于根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。
进一步的,所述人手信息获取模块,包括:
人手识别模块,用于识别所述视频中的第一人手,获取第一人手的第一位置以及第一人手的关键点。
进一步的,所述人手动作识别模块,用于:根据所述第一人手的关键点,识别所述第一人手的手势。
进一步的,所述虚拟对象控制模块,用于:
当所述第一人手的第一位置与所述虚拟对象的位置小于第一阈值,且所述第一人手的第一动作为预定的第一动作,控制所述第一虚拟对象的显示属性。
进一步的,所述虚拟对象控制模块,用于:
根据所述预定的第一动作和所述的第一信息获取图像渲染信息;
根据所述图像渲染信息,控制所述第一虚拟对象的显示属性。
进一步的,所述显示属性包括:是否显示、显示的位置、显示的颜色、显示大小及显示的透明度中的一个或者多个。
进一步的,所述虚拟对象的控制装置,还包括:
跟踪模块,用于跟踪所述第一人手,得到所述第一人手的第二信息;
人手动作识别第一模块,用于识别所述第一人手的第二动作;
虚拟对象控制第一模块,用于根据所述第一人手的第二动作、第一人手的第二信息控制所述第一虚拟对象的显示。
进一步的,所述跟踪模块,用于跟踪所述第一人手的移动,当所述第一人手停止移动,获取第一人手的第二位置以及第一人手的关键点。
进一步的,所述虚拟对象控制第一模块,用于当所述第一人手的第二动作为预定的第二动作,根据所述第一人手的第二信息控制所述虚拟对象的显示属性。
进一步的,所述虚拟对象的控制装置,还包括:
位置获取第一模块,用于获取第二虚拟对象的位置;
人手信息获取第一模块,用于识别所述视频中的第二人手,得到第二人手的第一信息;
人手动作识别第二模块,用于识别第二人手的第一动作;
虚拟对象控制第二模块,用于根据所述第二人手的第一动作、第二人手的第一信息以及所述第二虚拟对象的位置控制所述第二虚拟对象的显示。
第三方面,本公开实施例提供一种电子设备,包括:至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有能被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面中的任一所述虚拟对象的控制方法。
第四方面,本公开实施例提供一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行前述第一方面中的任一所述虚拟对象的控制方法。
本公开公开了一种虚拟对象的控制方法、装置、电子设备和计算机可读存储介质。其中该虚拟对象的控制方法包括:获取视频,所述视频中包括虚拟对象和人手;获取第一虚拟对象的位置;识别所述视频中的第一人手,得到第一人手的第一信息;识别第一人手的第一动作;根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。本公开实施例通过人手的动作和人手的信息直接控制已经显示的虚拟对象显示属性,解决了现有技术中对虚拟对象的显示控制不灵活的技术问题。
上述说明仅是本公开技术方案的概述,为了能更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为让本公开的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的虚拟对象的控制方法实施例一的流程图;
图2为本公开实施例提供的虚拟对象的控制方法实施例二的流程图;
图3为本公开实施例提供的虚拟对象的控制方法实施例三的流程图;
图4a-4e为本公开实施例提供的虚拟对象的控制方法的具体实例示意图;
图5为本公开实施例提供的虚拟对象的控制装置实施例一的结构示意图;
图6为本公开实施例提供的虚拟对象的控制装置实施例二的结构示意图;
图7为本公开实施例提供的虚拟对象的控制装置实施例三的结构示意图;
图8为根据本公开实施例提供的电子设备的结构示意图。
具体实施方式
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
图1为本公开实施例提供的虚拟对象的控制方法实施例一的流程图,本实施例提供的该虚拟对象的控制方法可以由一虚拟对象的控制装置来执行,该虚拟对象的控制装置可以实现为软件,或者实现为软件和硬件的组合,该虚拟对象的控制装置可以集成设置在图像处理系统中的某设备中,比如图像处理服务器或者图像处理终端设备中。如图1所示,该方法包括如下步骤:
步骤S101,获取视频,所述视频中包括第一虚拟对象和人手;
获取视频可以通过图像传感器获取,所述图像传感器指可以采集图像的各种设备,典型的图像传感器为摄像机、摄像头、相机等。在该实施例中,所述图像传感器可以是移动终端上的摄像头,比如智能手机上的前置或者后置摄像头,摄像头采集的视频图像可以直接显示在手机的显示屏上,在该步骤中,获取图像传感器所拍摄的图像视频,用于在下一步进一步识别图像。
所述视频中包括虚拟对象,此处的虚拟对象可以是任何2D或者3D的虚拟对象,典型的如虚拟的宝剑、虚拟的手枪等虚拟武器,虚拟的笔、虚拟的书等虚拟文具,虚拟的手套、虚拟的戒指等虚拟可穿戴物品等等,虚拟的星星、月亮等等,在此不做具体的限制,任何虚拟对象都可以引入到本公开中。虚拟对象可以有类型,比如适合手握的类型,如上述的宝剑、手枪、笔,适合穿戴的类型,如手套、戒指等,适合放置于手掌上的类型,如书等,当然同一个虚拟对象可以有不止一种类型,比如书,既可以放置于手掌上也可以手握。在该步骤中,获取虚拟对象的同时,可以获取虚拟对象的类型,获取虚拟对象的类型可以直接从虚拟对象的属性数据中获取,或者获取虚拟对象的ID,通过ID查询该ID的类型,类型的获取方式可以任选,无论何种方式都可以应用到本公开中。
所述视频中还包括人手,所述人手可以是通过所述图像传感器采集到的人手。
步骤S102,获取第一虚拟对象的位置;
在该步骤中,获取虚拟对象在视频中的位置,此处的第一虚拟对象不特指某个虚拟对象,在视频中可能只包括一个虚拟对象也可能包括多个虚拟对象,在该步骤中,获取所有虚拟对象在视频中的位置,所述的虚拟对象在视频中的位置,可以是虚拟对象在显示装置中的坐标,该坐标可以是虚拟对象的中心点的坐标或者是虚拟对象的某个特征点的坐标,在此不做具体限制
步骤S103,识别所述视频中的第一人手,得到第一人手的第一信息;
在识别人手时,可以使用颜色特征定位人手的位置,将人手从背景中分割出来,对找到和分割出的人手图像进行特征提取与识别。具体的,使用图像传感器获取图像的颜色信息以及颜色信息的位置信息;将所述颜色信息与预设的人手颜色信息对比;识别第一颜色信息,所述第一颜色信息与所述预设的人手颜色信息的误差小于第一阈值;利用所述第一颜色信息的位置信息形成人手的轮廓。优选的,为了避免环境亮度对颜色信息的干扰,可以将图像传感器采集到的RGB颜色空间的图像数据映射到HSV颜色空间,使用HSV颜色空间中的信息作为对比信息,优选的,将HSV颜色空间中的色调值作为颜色信息,色调信息受亮度的影响最小,可以很好的过滤亮度的干扰。使用人手轮廓粗略确定人手的位置,之后对人手进行关键点提取。在图像上进行人手关键点提取,相当于寻找每个人手轮廓关键点在人手图像中的对应位置坐标,即关键点定位,这一过程需要基于关键点对应的特征进行,在获得了能够清晰标识关键点的图像特征之后,依据此特征在图像中进行搜索比对,在图像上精确定位关键点的位置。由于关键点在图像中仅占据非常小的面积(通常只有几个至几十个像素的大小),关键点对应的特征在图像上所占据的区域通常也是非常有限和局部的,目前用的特征提取方式有两种:(1)沿轮廓垂向的一维范围图像特征提取;(2)关键点方形邻域的二维范围图像特征提取。上述两种方式有很多种实现方法,如ASM和AAM类方法、统计能量函数类方法、回归分析方法、深度学习方法、分类器方法、批量提取方法等等。上述各种实现方法所使用的关键点个数,准确度以及速度各不相同,适用于不同的应用场景。同样的,对于其他的目标物体,也可以使用同样的原理来识别目标物体。
在识别出人手之后,在人手的外轮廓之外圈定一个多边形,作为人手的外接检测框,该外接检测框用于替代所述人手,描述所述人手的位置,在此以矩形为例,在识别出人手的关键点之后,可以计算人手最宽处的宽度以及最长处的长度,以该宽度和长度识别出人手的外接检测框。计算人手的最长处和最宽处的一个实现方式为,提取人手的边界关键点,计算X坐标距离最远的两个边界关键点的X坐标之差,作为矩形宽的长度,计算Y坐标距离最远的两个边界关键点的Y坐标之差,作为矩形长的长度。如果人手缩成拳头状,可以设定外接检测框为覆盖拳头的最小圆形。具体的,可以用外接检测框的中心点作为手的位置,所述外接检测框的中心点为外接检测框对角线的交点;也可以用所述圆形的圆心代替拳头的位置。
人手信息还包括检测出来的人手关键点,所述关键点的数量可以设置,一般来说可以包括人手轮廓的关键点和关节关键点,每个关键点有固定编号,比如可以按照轮廓关键点、大拇指关节关键点、食指关节关键点、中指关节关键点、无名指关节关键点、小拇指关节关键点的顺序,从上到下编号,在一个典型的应用中,所述关键点为22个,每个关键点有固定编号。在一个实施例中,也可以使用手掌中心的关键点来表示人手的位置。
在一个实施例中,在计算所述人手信息之前,还包括对人手的识别数据进行平滑和坐标归一化处理的步骤。具体的,所述平滑处理可以是将多帧视频中的图像进行平均,将平均之后的图像作为识别出的图像,对应到本公开中的人手上,可以对多帧图像中的人手进行识别,之后将人手图像做加权平均,将平均之后得到的人手图像作为识别出的人手,计算人手信息,这样可以在丢失某些帧或者某些帧识别的图像不是很清晰的情况下,依然可以确定人手的图像并计算人手的信息。坐标归一化处理,是将坐标范围统一,如摄像头所采集到的人手图像和显示在显示屏上的人手图像的坐标并不统一,需要有一个映射关系来将大坐标系映射到一个小坐标系上。经过平滑处理和归一化处理之后,得到人手的信息。
步骤S104,识别第一人手的第一动作;
所述人手动作可以包括手势和/或人手的运动轨迹;
手势的识别可以利用步骤S103中所获取的人手图像信息,放入深度学习模型中识别,如将人手的关键点信息输入深度学习模型,将人手的手势识别出来,在此不再赘述。
在该步骤中,还可以识别人手的动作,所述人手的动作记录人手的运动轨迹,并分析所述运动轨迹来识别。具体的,记录人手的运动轨迹首先需要跟踪人手的运动,在基于视觉的人手动作识别系统中,人手运动轨迹跟踪是跟踪手势在图片序列中的位置变化,获取人手在连续时间上的位置信息,人手运动轨迹跟踪效果的优劣直接影响人手动作识别的效果。常用的动作跟踪方法有粒子滤波算法、均值漂移(Mean-shift)算法、卡尔曼滤波法和骨骼跟踪法等。
其中,基于粒子滤波的目标跟踪是在随机运动模型中获取目标分布的后验概率估计的随机搜索过程,粒子滤波主要分为两步:初步采样和重复采样。初步采样是在一副图像中随机放置粒子,然后计算每个粒子和跟踪目标特征的相似度,进而获得每个粒子的权重。重采样阶段主要是根据初步采样中粒子的权重,改变粒子的分布情况。重复初步采样和重采样的过程,直到跟踪到目标。
均值漂移法(Mean-shift)是非参数概率密度梯度估计算法。在人手动作识别中,利用Mean-shift算法来跟踪人手的基本思路是:首先建立人手的模型,即计算初始图像帧中属于手部的像素在特征空间的特征值的概率;然后建立当前帧的模型,计算人手可能存在区域的所有像素的特征值概率;最后通过求取初始人手模型和当前帧的人手模型的相似性来得到人手均值漂移量。根据均值漂移算法的收敛性,迭代计算手部的均值漂移量,达到收敛到当前图像帧中人手位置的目的。
卡尔曼滤波是利用一系列数学方程预测线性系统在现在或将来的状态。在人手运动轨迹跟踪中,卡尔曼滤波主要是观测一系列图像帧中人手的位置信息,然后预测下一帧中人手的位置。因为卡尔曼滤波是在每个时间间隔的后验概率估计的假设上成立的,所以卡尔曼滤波方法在高斯分布环境下能取得较好的跟踪效果。这种方法能去除噪声,并在手势变形下仍能取得较好的人手跟踪效果。
随着微软Kinect的广泛应用,许多研究者利用微软的Microsoft Kinect传感器特有的骨骼点跟踪来做人手跟踪的研究。在传感器的视野范围内,Kinect可以提供一名或者两名用户完整的骨骼跟踪,即全身20个关节点的跟踪。骨骼点跟踪分为主动跟踪和被动跟踪,在主动跟踪的模式下,在视野内选择两个可能的用户进行跟踪,在被动跟踪模式下,最多可以跟踪6个用户的骨骼点,多余的四个只作位置跟踪。Kinect的骨骼跟踪的原理是在获取的深度图像的基础上,通过对人体的32个部分进行分类和机器学习的方法,找到各个部分的骨骼关节点信息。
由于在该步骤中可以采集人手骨骼的关键点,因此在本公开中可以优先使用基于骨骼跟踪的人手运动轨迹跟踪方法。在分析运动轨迹识别人手动作时,需要识别人手动作的起点和终点,在本公开中,可以计算人手关键点在连续两帧图像中的移动距离,当距离小于一个预设阈值时,认为关键点的位置保持不变,当关键点的预设的连续几帧都保持位置不变时,将手部的位置识别为人手动作的起点或终点,典型的比如所述阈值可以设为1cm,当连续6帧内关键点位置没有发生变化时,将人手的位置作为人手动作的起点或终点。之后可以计算起点和终点之间的图像帧中关键点的位置,所有图像帧中的关键点所形成的轨迹即为人手的运动轨迹,将起点和终点之间的运动轨迹与预设的运动轨迹进行对比识别,当相似度大于一个预设的相似阈值时,将所述运动轨迹识别为一个人手动作。
步骤S105,根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。
在该步骤中,当识别到预定的人手动作,比如握拳,则确定虚拟对象的显示属性,比如是否显示、显示的位置、显示的颜色、显示大小及显示的透明度等。在一个具体实施方式中,当所述第一人手的第一位置与所述虚拟对象的位置小于第一阈值时,判断所述第一人手和所述虚拟对象重合,此时识别所述第一人手的第一动作,当所述第一动作为预定的第一动作时,控制所述第一虚拟对象的显示属性。在一个实施例中,当识别出所述第一人手的第一动作为预定的第一动作时,根据所述预定的第一动作获取图像渲染信息;根据所述图像渲染信息,控制所述第一虚拟对象的显示属性。
在一个具体的实施方式中,通过所述图像渲染信息可以获取虚拟对象的显示属性,如否显示、显示的位置、显示的颜色、显示大小及显示的透明度等。所述是否显示,控制所述虚拟对象的显示与否,在一个实施例中,当识别到所述第一人手的第一动作为预定的第一动作时,不显示所述虚拟对象。所述显示位置,可以与人手显示位置关联,在一个实施例中,人手的位置由外接检测框的中心点确定,则虚拟对象的显示位置可以直接跟中心点重合,此时可以将虚拟对象的中心位置与外接检测框的中心点重合;或者所述虚拟对象的显示位置可以与所述中心点保持一定的位置关系,比如虚拟对象的显示位置可以位于所述中心点Y轴正向上1个长度单位的位置,所述长度单位可以是自定义的长度单位,如1个长度单位等于1cm等等,在此不做限制。总之,可以通过一定的关系来确定虚拟对象的显示位置。为了显示位置更加精确,可以加入人手的关键点,此时可以设置虚拟对象挂载于人手的某几个关键点上,在一个实现方式中,可以在虚拟对象上设置3个点,这3个点与人手上的3个关键点对应,通过这种对应关系,可以确定虚拟对象的显示位置。
在一个实施例中,所述预定的第一动作可以与虚拟对象的颜色关联,当所述第一人手的第一动作为预定的第一动作时,改变所述虚拟对象的颜色为预定的颜色。
在一个具体实施方式中,还可以根据人手信息获取所述虚拟对象的显示大小信息,比如可以通过人手的外接检测框面积来确定虚拟对象的大小,可以预先设置外接检测框与虚拟对象的大小对应关系,或者根据外接检测框的大小动态确定虚拟对象的大小,以动态确定虚拟对象的大小为例,可以将第一次检测到人手的人手外接检测框的原始面积大小设置为1,此时显示虚拟对象的原始大小,当人手相对于图像传感器做前后运动时,外接检测框的面积发生变化,比如人手向后移动,外接检测框的面积变为第一次检测到人手的人手外接检测框的面积的0.5倍,则虚拟对象也缩放成原始大小的0.5倍;当人手向前移动,外接检测框的面积变为第一次检测到人手的人手外接检测框的面积的2倍,则虚拟对象也缩放成原始大小的2倍,由此可以灵活的控制虚拟对象的缩放;当然缩放比例可以通过一定的函数来控制,比如设置外接检测框的原始面积为S,当前面积为S1,设虚拟对象的缩放比例为R,则可以设置R=(S1/S)2,这样虚拟对象的缩放不是线性的,可以实现更多的效果。当然这个缩放比例的控制函数可以根据需要任意设置,上述方式只是举例。所述的根据人手信息获取所述虚拟对象的显示大小信息中的人手信息不限于外接检测框的面积,也可以是外接检测框的边长,或者人手关键点之间的距离等,在此也不做限制。
在一个实施例中,所述根据所述预定的第一动作获取图像渲染信息,包括:读取渲染配置文件;使用所述预定的第一动作和第一信息,从所述渲染配置文件中获取图像渲染信息。
在该实施例中,所述渲染配置文件中保存了虚拟对象的序列帧的保存路径,步骤S101中获取到虚拟对象的名称或ID,根据该名称或者ID可以在配置文件中获取虚拟对象的序列帧,所有序列帧可以组成一个完整的虚拟对象。具体的,可以在渲染配置文件中设置参数“range”:[idx_start,idx_end],表示在文件的列表中从第idx_start开始到第idx_end结束的连续文件,组成该序列帧;或者设置参数"idx":[idx0,idx1,……],表示在文件的列表中的第idx0、第idx1、……等文件,按次序组成该序列帧。
所述渲染配置文件中还包括虚拟对象位置的关联参数,所述关联参数描述序列帧关联哪几个人手关键点,默认可以关联所有关键点,也可以设置跟随其中的几个关键点。除了关联参数外,渲染配置文件中还包括虚拟对象与关键点的位置关系参数"point","point"中可以包括两组关联点,"point0"表示第一组关联点,"point1"表示第二组。对于每一组关联点,"point"描述了camera中的锚点位置,通过对若干组关键点及其权重,求加权平均得到;使用"idx"字段描述了关键点的序号,对于包括了检测框的人手,还可以使用"topleft"、"topright"、"bottomleft"、"bottomright",分别对应人手外接检测框的四个角(或前景的屏幕四个角)。举例来说,设置虚拟对象跟随人手的4个关键点,分别为9号、10号、11号和12号关键点,切每个关键点的权重为0.25,其中每个关键点的坐标分别为(X9,Y9),(X10,Y10),(X11,Y11),(X12,Y12),则可以得到虚拟对象所跟随的锚点的X轴坐标为Xa=X9*0.25+X10*0.25+X11*0.25+X12*0.25,锚点的Y轴坐标为Ya=Y9*0.25+Y10*0.25+Y11*0.25+Y12*0.25。可以理解的是,"point"中可以包括任一组关联点,并不局限于两组。在上述具体实例中,可以得到两个锚点,虚拟对象跟随这两个锚点的位置发生移动。而实际上,锚点可以不止两个,这与所使用的关联点的组数有关。其中每个关键点的坐标可以有步骤S103中所获取的人手信息中获得。其他渲染参数不再一一举例,总之在该渲染配置文件中保存有渲染图像所需的参数,并且这些参数与虚拟对象以及人手信息有对应关系或者需要虚拟对象和人手信息进行一定的计算得到。
进一步的,在读取渲染配置文件,还可以包括渲染配置文件的设置步骤,以对渲染配置文件中的渲染参数进行配置。
本公开公开了一种虚拟对象的控制方法、装置、电子设备和计算机可读存储介质。其中该虚拟对象的控制方法包括:获取视频,所述视频中包括虚拟对象和人手;获取第一虚拟对象的位置;识别所述视频中的第一人手,得到第一人手的第一信息;识别第一人手的第一动作;根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。本公开实施例通过人手的动作和人手的信息直接控制已经显示的虚拟对象显示属性,解决了现有技术中对虚拟对象的显示控制不灵活的技术问题。
如图2所示,在本公开的虚拟对象的控制方法的实施例二中,在所述根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置所述第一虚拟对象的显示之后,还包括:
S201:跟踪所述第一人手,得到所述第一人手的第二信息;
S202:识别所述第一人手的第二动作;
S203:根据所述第一人手的第二动作、第一人手的第二信息控制所述第一虚拟对象的显示。
该实施例接着第一个实施例中的步骤,此时所述第一人手已经做出了预定的第一动作,并且所述虚拟对象已经按照显示属性所显示,此时跟踪人手,其中包括跟踪人手的移动,得到第一人手的第二信息,此处的第二信息中主要包括第一人手关键点以及第一人手的第二位置,也就是说人手可以发生移动,当然可以理解的是所述的第二位置也可以与第一位置相同,也就是说人手未发生移动。在一个实施例中,跟踪所述第一人手的移动,当所述第一人手停止移动,获取第一人手的第二位置以及第一人手的关键点。识别所述第一人手的第二动作,所述第二动作的识别方法可以与上一实施例中相同,此处不再赘述。当所述第一人手的第二动作为预定的第二动作,根据所述第一人手的第二信息控制所述虚拟对象的显示属性。同样的,可以根据配置文件中的渲染信息控制虚拟对象的显示属性,方法与上一实施例中相同,此处不再赘述。
该实施例,在上一实施例的基础上,继续追踪人手的信息和动作,并根据新的人手信息和动作控制虚拟对象的显示,可以理解的是,可以一直循环上述步骤,形成对单一虚拟对象的连续多次显示控制。
如图3所示,在本公开的虚拟对象的控制方法的实施例三中,在实施例一的基础上,所述视频中还包括第二虚拟对象,所述控制方法还包括:
S301:获取第二虚拟对象的位置;
S302:识别所述视频中的第二人手,得到第二人手的第一信息;
S303:识别第二人手的第一动作;
S304:根据所述第二人手的第一动作、第二人手的第一信息以及所述第二虚拟对象的位置控制所述第二虚拟对象的显示。
所述步骤S301-S304的具体实现方式可以参见实施例一中的描述,此处不再赘述。在该实施例中,所述人手和虚拟对象均有多个,使用多个人手同时对多个虚拟对象进行控制,典型的,使用左手和右手分别对不同的虚拟对象进行显示控制。
为了方便理解,参见附图4a-4e为本公开所公开的一种虚拟对象的控制方法的具体实例。参见附图4a,获取视频,该视频中包括虚拟对象星星、月亮和太阳以及人手;如图4b所示,人手移动到其中一个星星处,做出握拳的手势;如图4c所示,星星随着握拳的手势消失,人手随后发生移动;如图4d所示,人手停止移动,并做出五指张开的手势;如图4d所示,在所述人手的位置,显示之前消失的星星。
图5为本公开实施例提供的虚拟对象的控制装置实施例一的结构示意图,如图5所示,该装置500包括:视频获取模块501、位置获取模块502、人手信息获取模块503、人手动作识别模块504和虚拟对象控制模块505。其中,
视频获取模块501,用于获取视频,所述视频中包括虚拟对象和人手;
位置获取模块502,用于获取第一虚拟对象的位置;
人手信息获取模块503,用于识别所述视频中的第一人手,得到第一人手的第一信息;
人手动作识别模块504,用于识别第一人手的第一动作;
虚拟对象控制模块505,用于根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。
进一步的,所述人手信息获取模块503,包括:
人手识别模块,用于识别所述视频中的第一人手,获取第一人手的第一位置以及第一人手的关键点。
进一步的,所述人手动作识别模块504,用于:根据所述第一人手的关键点,识别所述第一人手的手势。
进一步的,所述虚拟对象控制模块505,用于:
当所述第一人手的第一位置与所述虚拟对象的位置小于第一阈值,且所述第一人手的第一动作为预定的第一动作,控制所述第一虚拟对象的显示属性。
进一步的,所述虚拟对象控制模块505,用于:
根据所述预定的第一动作和所述的第一信息获取图像渲染信息;
根据所述图像渲染信息,控制所述第一虚拟对象的显示属性。
进一步的,所述显示属性包括:是否显示、显示的位置、显示的颜色、显示大小及显示的透明度中的一个或者多个。
图5所示装置可以执行图1所示实施例的方法,本实施例未详细描述的部分,可参考对图1所示实施例的相关说明。该技术方案的执行过程和技术效果参见图1所示实施例中的描述,在此不再赘述。
图6为本公开实施例提供的虚拟对象的控制装置实施例二的结构示意图,如图6所示,该装置600除了虚拟对象的控制装置实施例一的结构外,还包括:跟踪模块601、人手动作识别第一模块602和虚拟对象控制第一模块603。
跟踪模块601,用于跟踪所述第一人手,得到所述第一人手的第二信息;
人手动作识别第一模块602,用于识别所述第一人手的第二动作;
虚拟对象控制第一模块603,用于根据所述第一人手的第二动作、第一人手的第二信息控制所述第一虚拟对象的显示。
进一步的,所述跟踪模块601,用于跟踪所述第一人手的移动,当所述第一人手停止移动,获取第一人手的第二位置以及第一人手的关键点。
进一步的,所述虚拟对象控制第一模块603,用于当所述第一人手的第二动作为预定的第二动作,根据所述第一人手的第二信息控制所述虚拟对象的显示属性。
图6所示装置可以执行图2所示实施例的方法,本实施例未详细描述的部分,可参考对图2所示实施例的相关说明。该技术方案的执行过程和技术效果参见图2所示实施例中的描述,在此不再赘述。
图7为本公开实施例提供的虚拟对象的控制装置实施例二的结构示意图,如图7所示,该装置700除了虚拟对象的控制装置实施例一的结构外,还包括:位置获取第一模块701、人手信息获取第一模块702、人手动作识别第二模块703、和虚拟对象控制第二模块704。
位置获取第一模块701,用于获取第二虚拟对象的位置;
人手信息获取第一模块702,用于识别所述视频中的第二人手,得到第二人手的第一信息;
人手动作识别第二模块703,用于识别第二人手的第一动作;
虚拟对象控制第二模块704,用于根据所述第二人手的第一动作、第二人手的第一信息以及所述第二虚拟对象的位置控制所述第二虚拟对象的显示。
图7所示装置可以执行图3所示实施例的方法,本实施例未详细描述的部分,可参考对图3所示实施例的相关说明。该技术方案的执行过程和技术效果参见图3所示实施例中的描述,在此不再赘述。
下面参考图8,其示出了适于用来实现本公开实施例的电子设备800的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括所述至少两个网际协议地址的节点评价请求,其中,所述节点评价设备从所述至少两个网际协议地址中,选取网际协议地址并返回;接收所述节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从所述至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (13)
1.一种虚拟对象的控制方法,其特征在于,包括:
获取视频,所述视频中包括虚拟对象和人手;
获取第一虚拟对象的位置;
识别所述视频中的第一人手,得到第一人手的第一信息;
识别第一人手的第一动作;
根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。
2.如权利要求1所述的虚拟对象的控制方法,其特征在于,所述识别视频中的第一人手,得到第一人手的第一信息,包括:
识别所述视频中的第一人手,获取第一人手的第一位置以及第一人手的关键点。
3.如权利要求2所述的虚拟对象的控制方法,其特征在于,所述识别第一人手的第一动作,包括:
根据所述第一人手的关键点,识别所述第一人手的手势。
4.如权利要求2所述的虚拟对象的控制方法,其特征在于,所述根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置所述第一虚拟对象的显示,包括:
当所述第一人手的第一位置与所述虚拟对象的位置小于第一阈值,且所述第一人手的第一动作为预定的第一动作,控制所述第一虚拟对象的显示属性。
5.如权利要求4所述的虚拟对象的控制方法,其特征在于,所述控制所述第一虚拟对象的显示属性,包括:
根据所述预定的第一动作和所述的第一信息获取图像渲染信息;
根据所述图像渲染信息,控制所述第一虚拟对象的显示属性。
6.如权利要求4所述的虚拟对象的控制方法,其特征在于,所述显示属性包括:是否显示、显示的位置、显示的颜色、显示大小及显示的透明度中的一个或者多个。
7.如权利要求1所述的虚拟对象的控制方法,其特征在于,在所述根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置所述第一虚拟对象的显示之后,还包括:
跟踪所述第一人手,得到所述第一人手的第二信息;
识别所述第一人手的第二动作;
根据所述第一人手的第二动作、第一人手的第二信息控制所述第一虚拟对象的显示。
8.如权利要求7所述的虚拟对象的控制方法,其特征在于,所述跟踪所述第一人手,得到所述第一人手的第二信息,包括:
跟踪所述第一人手的移动,当所述第一人手停止移动,获取第一人手的第二位置以及第一人手的关键点。
9.如权利要求7所述的虚拟对象的控制方法,其特征在于,所述根据所述第一人手的第二动作、第一人手的第二信息控制所述第一虚拟对象的显示,包括:
当所述第一人手的第二动作为预定的第二动作,根据所述第一人手的第二信息控制所述虚拟对象的显示属性。
10.如权利要求1所述的虚拟对象的控制方法,其特征在于,所述视频中还包括第二虚拟对象,所述控制方法还包括:
获取第二虚拟对象的位置;
识别所述视频中的第二人手,得到第二人手的第一信息;
识别第二人手的第一动作;
根据所述第二人手的第一动作、第二人手的第一信息以及所述第二虚拟对象的位置控制所述第二虚拟对象的显示。
11.一种虚拟对象的控制装置,其特征在于,包括:
视频获取模块,用于获取视频,所述视频中包括虚拟对象和人手;
位置获取模块,用于获取第一虚拟对象的位置;
人手信息获取模块,用于识别所述视频中的第一人手,得到第一人手的第一信息;
人手动作识别模块,用于识别第一人手的第一动作;
虚拟对象控制模块,用于根据所述第一人手的第一动作、第一人手的第一信息以及所述第一虚拟对象的位置控制所述第一虚拟对象的显示。
12.一种电子设备,包括:
存储器,用于存储非暂时性计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述处理器执行时实现根据权利要求1-10中任意一项所述的虚拟对象的控制方法。
13.一种计算机可读存储介质,用于存储非暂时性计算机可读指令,当所述非暂时性计算机可读指令由计算机执行时,使得所述计算机执行权利要求1-10中任意一项所述的虚拟对象的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811251781.6A CN111103967A (zh) | 2018-10-25 | 2018-10-25 | 虚拟对象的控制方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811251781.6A CN111103967A (zh) | 2018-10-25 | 2018-10-25 | 虚拟对象的控制方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111103967A true CN111103967A (zh) | 2020-05-05 |
Family
ID=70418645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811251781.6A Pending CN111103967A (zh) | 2018-10-25 | 2018-10-25 | 虚拟对象的控制方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111103967A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111880657A (zh) * | 2020-07-30 | 2020-11-03 | 北京市商汤科技开发有限公司 | 一种虚拟对象的控制方法、装置、电子设备及存储介质 |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050024388A1 (en) * | 2003-07-30 | 2005-02-03 | Canon Kabushiki Kaisha | Image displaying method and apparatus |
US20110107216A1 (en) * | 2009-11-03 | 2011-05-05 | Qualcomm Incorporated | Gesture-based user interface |
US20110261083A1 (en) * | 2010-04-27 | 2011-10-27 | Microsoft Corporation | Grasp simulation of a virtual object |
US20120117514A1 (en) * | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
US20120113223A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
US20130093788A1 (en) * | 2011-10-14 | 2013-04-18 | James C. Liu | User controlled real object disappearance in a mixed reality display |
CN104740869A (zh) * | 2015-03-26 | 2015-07-01 | 北京小小牛创意科技有限公司 | 一种融合真实环境的虚实结合的交互方法及系统 |
WO2015123771A1 (en) * | 2014-02-18 | 2015-08-27 | Sulon Technologies Inc. | Gesture tracking and control in augmented and virtual reality |
CN105378593A (zh) * | 2012-07-13 | 2016-03-02 | 索夫特克尼特科软件公司 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
US20160093107A1 (en) * | 2013-04-16 | 2016-03-31 | Sony Corporation | Information processing apparatus and information processing method, display apparatus and display method, and information processing system |
US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
US20160239080A1 (en) * | 2015-02-13 | 2016-08-18 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US20170069134A1 (en) * | 2015-09-09 | 2017-03-09 | Microsoft Technology Licensing, Llc | Tactile Interaction In Virtual Environments |
CN106804007A (zh) * | 2017-03-20 | 2017-06-06 | 合网络技术(北京)有限公司 | 一种网络直播中自动匹配特效的方法、系统及设备 |
CN107885316A (zh) * | 2016-09-29 | 2018-04-06 | 阿里巴巴集团控股有限公司 | 一种基于手势的交互方法及装置 |
US20180113505A1 (en) * | 2016-10-26 | 2018-04-26 | Htc Corporation | Virtual reality interaction method, apparatus and system |
US20180158222A1 (en) * | 2016-12-01 | 2018-06-07 | Canon Kabushiki Kaisha | Image processing apparatus displaying image of virtual object and method of displaying the same |
US9996797B1 (en) * | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Interactions with virtual objects for machine control |
CN108273265A (zh) * | 2017-01-25 | 2018-07-13 | 网易(杭州)网络有限公司 | 虚拟对象的显示方法及装置 |
CN108289180A (zh) * | 2018-01-30 | 2018-07-17 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
-
2018
- 2018-10-25 CN CN201811251781.6A patent/CN111103967A/zh active Pending
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050024388A1 (en) * | 2003-07-30 | 2005-02-03 | Canon Kabushiki Kaisha | Image displaying method and apparatus |
US20110107216A1 (en) * | 2009-11-03 | 2011-05-05 | Qualcomm Incorporated | Gesture-based user interface |
US20110261083A1 (en) * | 2010-04-27 | 2011-10-27 | Microsoft Corporation | Grasp simulation of a virtual object |
US20120117514A1 (en) * | 2010-11-04 | 2012-05-10 | Microsoft Corporation | Three-Dimensional User Interaction |
US20120113223A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
US20130093788A1 (en) * | 2011-10-14 | 2013-04-18 | James C. Liu | User controlled real object disappearance in a mixed reality display |
US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
CN105378593A (zh) * | 2012-07-13 | 2016-03-02 | 索夫特克尼特科软件公司 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
US20160093107A1 (en) * | 2013-04-16 | 2016-03-31 | Sony Corporation | Information processing apparatus and information processing method, display apparatus and display method, and information processing system |
US9996797B1 (en) * | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Interactions with virtual objects for machine control |
WO2015123771A1 (en) * | 2014-02-18 | 2015-08-27 | Sulon Technologies Inc. | Gesture tracking and control in augmented and virtual reality |
US20160239080A1 (en) * | 2015-02-13 | 2016-08-18 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
CN104740869A (zh) * | 2015-03-26 | 2015-07-01 | 北京小小牛创意科技有限公司 | 一种融合真实环境的虚实结合的交互方法及系统 |
US20170069134A1 (en) * | 2015-09-09 | 2017-03-09 | Microsoft Technology Licensing, Llc | Tactile Interaction In Virtual Environments |
CN107885316A (zh) * | 2016-09-29 | 2018-04-06 | 阿里巴巴集团控股有限公司 | 一种基于手势的交互方法及装置 |
US20180113505A1 (en) * | 2016-10-26 | 2018-04-26 | Htc Corporation | Virtual reality interaction method, apparatus and system |
US20180158222A1 (en) * | 2016-12-01 | 2018-06-07 | Canon Kabushiki Kaisha | Image processing apparatus displaying image of virtual object and method of displaying the same |
CN108273265A (zh) * | 2017-01-25 | 2018-07-13 | 网易(杭州)网络有限公司 | 虚拟对象的显示方法及装置 |
CN106804007A (zh) * | 2017-03-20 | 2017-06-06 | 合网络技术(北京)有限公司 | 一种网络直播中自动匹配特效的方法、系统及设备 |
CN108289180A (zh) * | 2018-01-30 | 2018-07-17 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
Non-Patent Citations (1)
Title |
---|
未来3D: ""ManoPong-First ever integration of ARKit with Gesture Reco"", pages 14, Retrieved from the Internet <URL:https://www.bilibili.com/video/av14276051/> * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111880657A (zh) * | 2020-07-30 | 2020-11-03 | 北京市商汤科技开发有限公司 | 一种虚拟对象的控制方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517319B (zh) | 一种相机姿态信息确定的方法及相关装置 | |
CN110555883B (zh) | 相机姿态追踪过程的重定位方法、装置及存储介质 | |
US10043308B2 (en) | Image processing method and apparatus for three-dimensional reconstruction | |
CN109934065B (zh) | 一种用于手势识别的方法和装置 | |
WO2019205853A1 (zh) | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 | |
CN110400304B (zh) | 基于深度学习的物体检测方法、装置、设备及存储介质 | |
CN110072046B (zh) | 图像合成方法和装置 | |
CN108986016B (zh) | 图像美化方法、装置及电子设备 | |
CN111062981B (zh) | 图像处理方法、装置及存储介质 | |
CN110287891B (zh) | 基于人体关键点的手势控制方法、装置及电子设备 | |
CN108830186B (zh) | 文本图像的内容提取方法、装置、设备及存储介质 | |
CN111738914B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN111833461B (zh) | 一种图像特效的实现方法、装置、电子设备及存储介质 | |
CN110858409A (zh) | 动画生成方法和装置 | |
CN110069125B (zh) | 虚拟对象的控制方法和装置 | |
CN103679788A (zh) | 一种移动终端中3d图像的生成方法和装置 | |
CN110941327A (zh) | 虚拟对象的显示方法和装置 | |
CN111199169A (zh) | 图像处理方法和装置 | |
CN113362260B (zh) | 图像优化方法及装置、存储介质及电子设备 | |
CN110069126B (zh) | 虚拟对象的控制方法和装置 | |
US20250039537A1 (en) | Screenshot processing method, electronic device, and computer readable medium | |
CN113129411A (zh) | 一种仿生动画生成方法及电子设备 | |
JP7514331B2 (ja) | 制御方法、装置、端末および記憶媒体 | |
CN111258413A (zh) | 虚拟对象的控制方法和装置 | |
Akman et al. | Multi-cue hand detection and tracking for a head-mounted augmented reality system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Country or region after: China Address after: 100080 408, 4th floor, 51 Zhichun Road, Haidian District, Beijing Applicant after: Tiktok Technology Co.,Ltd. Address before: 100080 408, 4th floor, 51 Zhichun Road, Haidian District, Beijing Applicant before: BEIJING MICROLIVE VISION TECHNOLOGY Co.,Ltd. Country or region before: China |
|
CB02 | Change of applicant information |