CN105469059A - 一种视频中的人物识别、定位和统计方法 - Google Patents
一种视频中的人物识别、定位和统计方法 Download PDFInfo
- Publication number
- CN105469059A CN105469059A CN201510868820.7A CN201510868820A CN105469059A CN 105469059 A CN105469059 A CN 105469059A CN 201510868820 A CN201510868820 A CN 201510868820A CN 105469059 A CN105469059 A CN 105469059A
- Authority
- CN
- China
- Prior art keywords
- video
- point
- sample point
- frame
- video image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000005070 sampling Methods 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 238000007621 cluster analysis Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 4
- 238000007619 statistical method Methods 0.000 claims 9
- 230000008878 coupling Effects 0.000 claims 4
- 238000010168 coupling process Methods 0.000 claims 4
- 238000005859 coupling reaction Methods 0.000 claims 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种视频中的人物识别、定位和统计方法,从视频图像中每个点的形状上下文的匹配的角度来实现对于视频中行人的识别、定位和统计,通过建立包含样本点的形状上下文特征的标准特征库,与输入的要求识别的视频中每一帧图像上的采样点进行匹配,这样无需对标准特征库进行大量的训练,只需建立包含典型的人体姿势的标准特征库,且即使人体具有复杂性,则将人体图像分割为每个采样点,由每个采样点与标准特征库中的样本点匹配,这种方法识别度较高,减少了识别误差,此外这种方法应用面较广,可以进一步应用于视频中的主体识别和主体跟踪等重要问题。
Description
技术领域
本发明涉及一种人物识别、定位和统计方法,尤其涉及一种视频中的人物识别、定位和统计方法。
背景技术
人物识别是计算机图像和视频处理中的重要问题之一。图像和视频中的人物识别的本质是给定训练和测试图像集,根据给定的前提条件对图像中的主体进行分类和标定。有效的目标识别可以发现图像中的重要主体,包括人物或其他要进行识别的各类物体,从而为进一步的识别和跟踪提供依据和线索。目前,已经有很多文献提出和创建了图像或视频中的主体识别模型。例如,在识别具有纹理特征的物体时,可以采用常用的纹理特征算子对物体进行分类。在另一些方法中,通过给定一些固定的场景,利用全局或局部特征来分析相关图像。还有一些方法提出了模仿物体各个关节部位的空间分布来进行分析,例如Weber等人提出通过局部特征来计算目标物体关节部位空间分布的方法。Agarwal等创建了大量的物体部位库,利用特征分类来实现识别各个物体部位的空间分布。其他方法包括利用变形模板或主动外观模型等进行学习,以及结合图分割方法和识别同步进行识别的方法等。
上述方法都源于使用目标物体的空间分布来进行识别和分类。其中全局特征和局部特征方法由于是较为被动地学习,需要大量训练数据,增加了识别的难度。而通过关节空间分布的方法由于人体先天的复杂性,因此仅限于较少部位之间识别。部位库方法需要不断重复观察空间中各个主体小部位的出现,增加了数据量和处理的复杂度。变形模板方法需要事先做出符合人体形状姿势的各种模板,而应用图分割方法目前只能识别较少的目标物体。
发明内容
本发明提供一种人物识别、定位和统计方法,目的在于克服上述方法的不足,针对给定的视频文件,提出基于形状上下文特征算子匹配和基于聚类分析的行人识别、定位和统计的方法。
为了实现上述目的,本发明提供了一种视频中的人物识别、定位和统计方法,包括如下步骤:
步骤一:提供待训练的视频图像,对所述待训练的视频图像进行采样,得到各个样本点,计算每个样本点的形状上下文特征,并建立包含样本点的形状上下文特征的标准特征库;
步骤二:提供待测试的视频图像,在每一帧待测试的视频图像中生成采样点,将各个采样点与步骤一中的标准特征库中的样本点进行匹配,设定第一阈值,当找到匹配的样本点的采样点的大于该第一阈值时,则可认定该帧待测试的视频图像为人物帧,并计算得到所有待测试的视频图像中每个人物帧的候选中心集合;
步骤三:采用聚类算法对候选中心集合进行聚类分析,则聚类的数目为人物帧中人像的数目,每个聚类中心点为该人像的中心点。
作为优选,步骤一中对待训练的视频图像进行边缘提取、均匀采样,得到人像形状的样本点集合I={p1,p2,...,pk},其中p1、p2......pk为人像形状上的各个样本点,在样本点集合中对人像轮廓上各标准部位上的样本点进行形状上下文特征提取,建立包含有提取的样本点的形状上下文特征的标准特征库。
作为优选,所述各标准部位为人物的头部、肩部、腿部和肘部。
作为优选,对待训练的视频图像进行边缘提取的方法为:手工分割出每一帧待训练的视频图像中未知物体的前景掩码,得到前景掩码的边界及边界的信息。
作为优选,建立标准特征库的方法为:在前景掩码的边界的各标准部位上提取样本点,构成包含有所有所述提取样本点信息的标准特征库FB={fi},fi={si,δi},其中fi为标准特征库中每个样本点的形状上下文特征值,si是每个样本点的形状上下文,δi是标准特征库中模型物体中心的坐标。
作为优选,步骤二中对于每一帧待测试的视频图像,利用索贝尔算子提取每一帧待测试的视频图像中的边界及边界信息,并在提取的边界上等距离生成采样点,计算每个采样点的形状上下文特征并在标准特征库中查找与该采样点匹配的样本点。
作为优选,采用χ2(X,Y)来计算每个采样点的形状上下文特征与标准特征库中样本点的匹配程度,具体为设X和Y分别是待测试的视频图像的视频帧上的采样点和标准特征库中任意一个样本点的形状上下文特征向量,其中X={x1,x2,......xi},Y={y1,y2,......yi},设定χ2(X,Y)的第一阈值,当χ2(X,Y)小于等于第一阈值时,则该待测试的视频图像的视频帧上的采样点和所述标准特征库中样本点匹配,设定在标准特征库中找到匹配的样本点的采样点的个数的第二阈值,当相匹配的点的个数大于设定的第二阈值时,则该待测试的视频图像的视频帧为人物帧,即待测试的视频图像的视频帧上包含有人像。
作为优选,计算在所述标准特征库中找到匹配的样本点的采样点的形状上下文特征值其中ηi是该采样点的形状上下文,εi则等于与该采样点所匹配的样本点对应的δi,每个εi成为所述人物帧中一个候选中心,所有的候选中心组成所述人物帧的候选中心集合C。
作为优选,步骤三中所述聚类算法为硬聚类算法中的K-means算法。
与现有技术相比,本发明提供了一种视频中的人物识别、定位和统计方法,包括如下步骤:
步骤一:提供待训练的视频图像,对所述待训练的视频图像进行采样,得到各个样本点,计算每个样本点的形状上下文特征,并建立包含样本点的形状上下文特征的标准特征库;
步骤二:提供待测试的视频图像,在每一帧待测试的视频图像中生成采样点,将各个采样点与步骤一中的标准特征库中的样本点进行匹配,设定第一阈值,当找到匹配的样本点的采样点的大于该第一阈值时,则可认定该帧待测试的视频图像为人物帧,并计算得到所有待测试的视频图像中每个人物帧的候选中心集合;
步骤三:采用聚类算法对候选中心集合进行聚类分析,则聚类的数目为人物帧中人像的数目,每个聚类中心点为该人像的中心点。
本发明的从视频图像中每个点的形状上下文的匹配的角度来实现对于视频中行人的识别、定位和统计,通过建立包含样本点的形状上下文特征的标准特征库,与输入的要求识别的视频中每一帧图像上的采样点进行匹配,这样无需对标准特征库进行大量的训练,只需建立包含典型的人体姿势的标准特征库,且即使人体具有复杂性,则将人体图像分割为每个采样点,由每个采样点与标准特征库中的样本点匹配,这种方法识别度较高,减少了识别误差,此外这种方法应用面较广,可以进一步应用于视频中的主体识别和主体跟踪等重要问题。
附图说明
图1为本发明提供的方法流程图;
图2为训练过程与标准特征库的建立过程示意图。
具体实施方式
为了使本发明的内容更加清楚和易懂,下面结合具体实施例对本发明的内容进行详细描述。
目前,图像中常用的特征点有纹理特征、空间分布特征、形状特征等。本发明采用形状上下文特征,它是一种利用物体表面轮廓表征物体形状信息的特征算子,定义为特征点周围nr个半径上的直方图区间和nθ个角度方向上的直方图区间,其值是一个特征向量这里hi(i=1,2,...,nrnθ)是直方图中每个区间中像素点的数目。请参照图2中的特征点A,其中nr=2,nθ=8,图中以A为圆心形成两个圆,外圆所包含的平面空间即为特征点A的直方图区间,nr×nθ=16,则特征点A的形状上下文特征即为h={h1,h2,......,h16}。
请参照图1,本发明提供的基于形状上下文特征的视频中行人识别与统计流程具体步骤如下:
步骤一:使用训练图像建立标准特征库。
提供若干待训练的视频图像,对这些视频图像的每一帧图像进行边缘提取、均匀采样,具体为对于每一帧待训练视频图像,手工分割出该视频图像上物体的前景掩码,只有处于前景掩码中的边界的信息才用来计算形状上下文直方图。然后利用上述前景掩码的边界构造标准特征库,也就是在前景掩码的边界上取样本点,得到一个行人形状图像上的样本点集合I={p1,p2,...,pk},其中p1、p2......pk为人像形状上的各个样本点,并对该样本点集合中,位于行人形状或者轮廓上各标准部位上的样本点进行形状上下文特征提取,构成标准特征库FB={fi},fi={si,δi},其中fi为标准特征库中每个样本点的形状上下文特征值,si是每个样本点的形状上下文,δi是标准特征库中模型物体中心的坐标,图2中A点箭头顶端的点即为模型物体的中心,标准特征库中所包含的信息对应若干个模型物体。
这里的各标准部位为人物的头部、肩部、腿部和肘部。因为大部分图片中的行人与背景间的互相遮挡,会造成身体某些部位的缺失,因此在样本点集合I上只提取各标准部位点的形状上下文特征。
步骤二:测试。首先进行测试输入的视频中人物帧的自动提取。这里输入的视频即为待测试的视频图像,即给定一段视频文件,包含的视频帧中可能有人像的内容,也可能没有这些内容。
对于每一帧待测试的视频图像,首先利用索贝尔算子提取边缘信息,即利用索贝尔算子计算出该帧视频图像中未知物体的边界信息以及边界点的相关坐标,对应形成未知物体的边界轮廓。其次,在该边界轮廓的边界线上等距离生成采样点,计算每个采样点的形状上下文特征并在标准特征库中查找与之最匹配的样本点,这里采用χ2来计算二者之间的匹配程度,这是一种表征向量之间距离的参数,根据χ2(X,Y)大小定义第一阈值,如χ2(X,Y)大小接近于0,那么可设定第一阈值为0.5,设X和Y分别是待测试的视频图像的视频帧上的采样点和标准特征库中任意一个样本点的形状上下文特征向量,其中X=(x1,x2,......xi),Y=(y1,y2,......yi),则
当χ2(X,Y)的值小于等于第一阈值时,则可认为该采样点与标准特征库中的该样本点匹配,当χ2(X,Y)的值大于第一阈值时,则可认为该采样点与标准特征库中的该样本点不匹配,有些采样点在标准特征库中无法找到与之相匹配的样本点,设定在标准特征库中找到匹配的样本点的采样点的个数的第二阈值,如n,若找到相匹配的样本点的采样点的个数大于设定的第二阈值即n时,则该帧待测试的视频图像为人物帧,即该帧视频图像中包含有人像。
计算上述在标准特征库中找到匹配的样本点的采样点的特征值其中ηi是该采样点的形状上下文,εi则等于与该采样点所匹配的样本点对应的δi,每个εi成为所述人物帧中一个候选中心,所有的候选中心组成所述人物帧的候选中心集合C。
步骤三:采用K-means算法对候选中心集合C进行聚类分析,则聚类的数目为帧中人像或者行人的数目,每个聚类中心点为该帧待测试视频图像中该行人的中心点。
本发明的从视频图像中每个点的形状上下文的匹配的角度来实现对于视频中行人的识别、定位和统计,通过建立包含样本点的形状上下文特征的标准特征库,与输入的要求识别的视频中每一帧图像上的采样点进行匹配,这样无需对标准特征库进行大量的训练,只需建立包含典型的人体姿势的标准特征库,且即使人体具有复杂性,则将人体图像分割为每个采样点,由每个采样点与标准特征库中的样本点匹配,这种方法识别度较高,减少了识别误差,此外这种方法应用面较广,可以进一步应用于视频中的主体识别和主体跟踪等重要问题。
可以理解的是,虽然本发明已以较佳实施例披露如上,然而上述实施例并非用以限定本发明。对于任何熟悉本领域的技术人员而言,在不脱离本发明技术方案范围情况下,都可利用上述揭示的技术内容对本发明技术方案作出许多可能的变动和修饰,或修改为等同变化的等效实施例。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。
Claims (9)
1.一种视频中的人物识别、定位和统计方法,其特征在于,包括如下步骤:
步骤一:提供待训练的视频图像,对所述待训练的视频图像进行采样,得到各个样本点,计算每个样本点的形状上下文特征,并建立包含样本点的形状上下文特征的标准特征库;
步骤二:提供待测试的视频图像,在每一帧待测试的视频图像中生成采样点,将各个采样点与步骤一中的标准特征库中的样本点进行匹配,设定第一阈值,当找到匹配的样本点的采样点的大于该第一阈值时,则可认定该帧待测试的视频图像为人物帧,并计算得到所有待测试的视频图像中每个人物帧的候选中心集合;
步骤三:采用聚类算法对候选中心集合进行聚类分析,则聚类的数目为人物帧中人像的数目,每个聚类中心点为该人像的中心点。
2.根据权利要求1所述的视频中的人物识别、定位和统计方法,其特征在于,步骤一中对待训练的视频图像进行边缘提取、均匀采样,得到人像形状的样本点集合I={p1,p2,...,pk},其中p1、p2......pk为人像形状上的各个样本点,在样本点集合中对人像轮廓上各标准部位上的样本点进行形状上下文特征提取,建立包含有提取的样本点的形状上下文特征的标准特征库。
3.根据权利要求2所述的视频中的人物识别、定位和统计方法,其特征在于,所述各标准部位为人物的头部、肩部、腿部和肘部。
4.根据权利要求2所述的视频中的人物识别、定位和统计方法,其特征在于,对待训练的视频图像进行边缘提取的方法为:手工分割出每一帧待训练的视频图像中未知物体的前景掩码,得到前景掩码的边界及边界的信息。
5.根据权利要求4所述的视频中的人物识别、定位和统计方法,其特征在于,建立标准特征库的方法为:在前景掩码的边界的各标准部位上提取样本点,构成包含所有所述提取样本点信息的标准特征库FB={fi},fi={si,δi},其中fi为标准特征库中每个样本点的形状上下文特征值,si是每个样本点的形状上下文,δi是标准特征库中模型物体中心的坐标。
6.根据权利要求5所述的视频中的人物识别、定位和统计方法,其特征在于,步骤二中对于每一帧待测试的视频图像,利用索贝尔算子提取每一帧待测试的视频图像中的边界及边界信息,并在提取的边界上等距离生成采样点,计算每个采样点的形状上下文特征并在标准特征库中查找与该采样点匹配的样本点。
7.根据权利要求6所述的视频中的人物识别、定位和统计方法,其特征在于,采用χ2(X,Y)来计算每个采样点的形状上下文特征与标准特征库中样本点的匹配程度,具体为设X和Y分别是待测试的视频图像的视频帧上的采样点和标准特征库中任意一个样本点的形状上下文特征向量,其中X={x1,x2,......xi},Y={y1,y2,......yi},设定χ2(X,Y)的第一阈值,当χ2(X,Y)小于等于第一阈值时,则该待测试的视频图像的视频帧上的采样点和所述标准特征库中样本点匹配,设定在标准特征库中找到匹配的样本点的采样点的个数的第二阈值,当相匹配的点的个数大于设定的第二阈值时,则该待测试的视频图像的视频帧为人物帧,即待测试的视频图像的视频帧上包含有人像。
8.根据权利要求7所述的视频中的人物识别、定位和统计方法,其特征在于,计算在所述标准特征库中找到匹配的样本点的采样点的形状上下文特征值其中ηi是该采样点的形状上下文,εi则等于与该采样点所匹配的样本点对应的δi,每个εi成为所述人物帧中一个候选中心,所有的候选中心组成所述人物帧的候选中心集合C。
9.根据权利要求1所述的视频中的人物识别、定位和统计方法,其特征在于,步骤三中所述聚类算法为硬聚类算法中的K-means算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510868820.7A CN105469059A (zh) | 2015-12-01 | 2015-12-01 | 一种视频中的人物识别、定位和统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510868820.7A CN105469059A (zh) | 2015-12-01 | 2015-12-01 | 一种视频中的人物识别、定位和统计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105469059A true CN105469059A (zh) | 2016-04-06 |
Family
ID=55606730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510868820.7A Pending CN105469059A (zh) | 2015-12-01 | 2015-12-01 | 一种视频中的人物识别、定位和统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105469059A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107437076A (zh) * | 2017-08-02 | 2017-12-05 | 陈雷 | 基于视频分析的景别划分的方法及系统 |
CN108228776A (zh) * | 2017-12-28 | 2018-06-29 | 广东欧珀移动通信有限公司 | 数据处理方法、装置、存储介质及电子设备 |
CN110399823A (zh) * | 2019-07-18 | 2019-11-01 | Oppo广东移动通信有限公司 | 主体跟踪方法和装置、电子设备、计算机可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070127754A1 (en) * | 2005-12-07 | 2007-06-07 | Siemens Corporate Research Inc | Method and Apparatus for the Classification of Surface Features of an Ear Impression |
CN101853391A (zh) * | 2009-01-29 | 2010-10-06 | 索尼公司 | 信息处理设备和方法、程序及记录介质 |
CN102436645A (zh) * | 2011-11-04 | 2012-05-02 | 西安电子科技大学 | 基于mod字典学习采样的谱聚类图像分割方法 |
CN102637251A (zh) * | 2012-03-20 | 2012-08-15 | 华中科技大学 | 基于参考特征的人脸识别方法 |
CN103425757A (zh) * | 2013-07-31 | 2013-12-04 | 复旦大学 | 融合多模态信息的跨媒体人物新闻检索方法与系统 |
CN103425979A (zh) * | 2013-09-06 | 2013-12-04 | 天津工业大学 | 手形认证方法 |
CN104156729A (zh) * | 2014-07-21 | 2014-11-19 | 武汉理工大学 | 一种教室人数统计方法 |
CN105046214A (zh) * | 2015-07-06 | 2015-11-11 | 南京理工大学 | 基于聚类的在线式多人脸图像处理的方法 |
-
2015
- 2015-12-01 CN CN201510868820.7A patent/CN105469059A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070127754A1 (en) * | 2005-12-07 | 2007-06-07 | Siemens Corporate Research Inc | Method and Apparatus for the Classification of Surface Features of an Ear Impression |
CN101853391A (zh) * | 2009-01-29 | 2010-10-06 | 索尼公司 | 信息处理设备和方法、程序及记录介质 |
CN102436645A (zh) * | 2011-11-04 | 2012-05-02 | 西安电子科技大学 | 基于mod字典学习采样的谱聚类图像分割方法 |
CN102637251A (zh) * | 2012-03-20 | 2012-08-15 | 华中科技大学 | 基于参考特征的人脸识别方法 |
CN103425757A (zh) * | 2013-07-31 | 2013-12-04 | 复旦大学 | 融合多模态信息的跨媒体人物新闻检索方法与系统 |
CN103425979A (zh) * | 2013-09-06 | 2013-12-04 | 天津工业大学 | 手形认证方法 |
CN104156729A (zh) * | 2014-07-21 | 2014-11-19 | 武汉理工大学 | 一种教室人数统计方法 |
CN105046214A (zh) * | 2015-07-06 | 2015-11-11 | 南京理工大学 | 基于聚类的在线式多人脸图像处理的方法 |
Non-Patent Citations (1)
Title |
---|
BELONGIE SERGE: "Shape Matching and Object Recognition Using Shape Context", 《IEEE TRANSACTION ON PATTERN ANALYSIS & MACHINE INTELLIGENCE》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107437076A (zh) * | 2017-08-02 | 2017-12-05 | 陈雷 | 基于视频分析的景别划分的方法及系统 |
CN107437076B (zh) * | 2017-08-02 | 2019-08-20 | 逄泽沐风 | 基于视频分析的景别划分的方法及系统 |
CN108228776A (zh) * | 2017-12-28 | 2018-06-29 | 广东欧珀移动通信有限公司 | 数据处理方法、装置、存储介质及电子设备 |
CN108228776B (zh) * | 2017-12-28 | 2020-07-07 | Oppo广东移动通信有限公司 | 数据处理方法、装置、存储介质及电子设备 |
CN110399823A (zh) * | 2019-07-18 | 2019-11-01 | Oppo广东移动通信有限公司 | 主体跟踪方法和装置、电子设备、计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kishore et al. | Estimation of yoga postures using machine learning techniques | |
CN104573614B (zh) | 用于跟踪人脸的设备和方法 | |
CN106355147A (zh) | 一种活体人脸检测头部姿态回归器的获取方法及检测方法 | |
CN103186775B (zh) | 基于混合描述子的人体运动识别方法 | |
CN104200200B (zh) | 融合深度信息和灰度信息实现步态识别的系统及方法 | |
CN104156693B (zh) | 一种基于多模态序列融合的动作识别方法 | |
CN103810491B (zh) | 融合深度和灰度图像特征点的头姿估计兴趣点检测方法 | |
Nalepa et al. | Fast and accurate hand shape classification | |
CN105022982A (zh) | 手部运动识别方法和装置 | |
CN105787448A (zh) | 基于时空级联形状回归的人脸形状跟踪方法 | |
CN103500340B (zh) | 基于主题知识迁移的人体行为识别方法 | |
CN102629385A (zh) | 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法 | |
Sethi et al. | Signpro-an application suite for deaf and dumb | |
CN103778436A (zh) | 一种基于图像处理的行人姿态检测方法 | |
CN104794441A (zh) | 复杂背景下基于主动形状模型和poem纹理模型的人脸特征定位方法 | |
KR101326691B1 (ko) | 지역적 특징의 통계적 학습을 통한 강건한 얼굴인식방법 | |
CN103020614A (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
CN105469059A (zh) | 一种视频中的人物识别、定位和统计方法 | |
CN108154176A (zh) | 一种针对单一深度图像的3d人体姿态估计算法 | |
CN111639562A (zh) | 一种手掌感兴趣区域的智能定位方法 | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
CN103020631B (zh) | 基于星型模型的人体运动识别方法 | |
Işikdoğan et al. | Automatic recognition of Turkish fingerspelling | |
US9659210B1 (en) | System and method for detecting and tracking facial features in images | |
Vasconcelos et al. | Methodologies to build automatic point distribution models for faces represented in images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160406 |
|
RJ01 | Rejection of invention patent application after publication |