CN111950507B - 数据处理和模型训练方法、装置、设备及介质 - Google Patents
数据处理和模型训练方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111950507B CN111950507B CN202010863364.8A CN202010863364A CN111950507B CN 111950507 B CN111950507 B CN 111950507B CN 202010863364 A CN202010863364 A CN 202010863364A CN 111950507 B CN111950507 B CN 111950507B
- Authority
- CN
- China
- Prior art keywords
- sample
- detection frame
- head
- value
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了数据处理和模型训练方法、装置、设备及介质,用以解决现有确定客流数据的过程计算量大、效率低、占用存储空间大的问题。本发明实施例中通过联合检测模型,便能够获取该待识别图像中每个包含有人头的目标检测框的位置信息、以及每个所述目标检测框中是否包含有人脸的信息,从而实现只需输入一次待识别图像到联合检测模型中,即可提取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个所述目标检测框中是否包含有人脸的信息,减少了用于多次提取目标检测框在待识别图像中的区域的特征向量所需的计算量,并提高了客流数据的确定过程效率。
Description
技术领域
本发明涉及数据分析技术领域,尤其涉及一种数据处理和联合检测模型的训练方法、装置、设备及介质。
背景技术
目前,可以通过分析统计的客流数据,即客流值参数以及注意力次数参数,以评估该设备在场景中招揽顾客的效果,从而为商家做出更好的商业决策提供技术支持。因此,如何统计客流数据是近几年来人们日益关注的问题。
现有技术中,在确定注意力次数参数的过程中,一般先通过预先训练完成的人头检测模型,获取待识别图像中包含有人头的目标检测框的位置信息,针对每个目标检测框,通过预先训练完成的人脸分类模型,基于该目标检测框在待识别图像中的区域,识别该目标检测框中是否包含人脸的信息。然后针对每个目标检测框,确定该目标检测框的标识信息,当确定该目标检测框中包含有人脸,且该目标检测框的标识信息满足预设的更新条件时,则更新当前保存的客流数据中的注意力次数参数。
对于上述确定客流数据中的注意力次数参数的方法,由于需要分别保存人头检测模型和人脸分类模型,会浪费大量的存储空间,且通过人头检测模型和人脸分类模型,在获取待识别图像中包含的每个目标检测框和识别每个目标检测框中是否包含有人脸的信息的过程中,会不可避免地重复提取目标检测框在待识别图像中的区域的特征向量,造成在确定注意力次数参数的过程中所需的计算量大,且效率低。
发明内容
本发明实施例提供了一种数据处理和联合检测模型的训练方法、装置、设备及介质,用以解决现有确定客流数据的过程计算量大、效率低、占用存储空间大的问题。
本发明实施例提供了一种数据处理方法,方法包括:
通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息;
根据目标检测框的位置信息和/或目标检测框中是否包含有人脸的信息,确定客流数据。
本发明实施例提供了一种联合检测模型的训练方法,方法包括:
获取样本集中任一样本图像,样本图像中标记有每个样本人头框的第一位置信息、每个样本人头框对应的第一标识值以及第二标识值,其中,第一标识值用于标识样本人头框中包含有人头,第二标识值用于标识样本人头框中是否包含有人脸;
通过原始联合检测模型,获取样本图像中每个包含有人头的样本检测框的第二位置信息、以及每个样本检测框中是否包含有人脸的信息;
根据样本检测框的第二位置信息与对应的样本人头框的第一位置信息、样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、以及样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值,对原始联合检测模型进行训练。
本发明实施例提供了一种数据处理装置,装置包括:
获取单元,用于通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、及每个目标检测框中是否包含有人脸的信息;
处理单元,用于根据目标检测框的位置信息和/或目标检测框中是否包含有人脸的信息,确定客流数据。
本发明实施例提供了一种联合检测模型的训练装置,装置包括:
第一获取模块,用于获取样本集中任一样本图像,样本图像中标记有每个样本人头框的第一位置信息、每个样本人头框对应的第一标识值以及第二标识值,其中,第一标识值用于标识样本人头框中包含有人头,第二标识值用于标识样本人头框中是否包含有人脸;
第二获取模块,用于通过原始联合检测模型,获取样本图像中每个包含有人头的样本检测框的第二位置信息、以及每个样本检测框中是否包含有人脸的信息;
训练模块,用于根据样本检测框的第二位置信息与对应的样本人头框的第一位置信息、样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、以及样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值,对原始联合检测模型进行训练。
本发明实施例还提供了一种电子设备,电子设备至少包括处理器和存储器,处理器用于执行存储器中存储的计算机程序时,实现如上述数据处理方法的步骤、或者如上述联合检测模型的训练方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,其存储有计算机程序,计算机程序被处理器执行时实现如上述数据处理方法的步骤、或者如上述联合检测模型的训练方法的步骤。
本发明实施例通过联合检测模型,便能够获取该待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息,从而实现只需输入一次待识别图像到联合检测模型中,即可提取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息,减少了用于多次提取目标检测框在待识别图像中的区域的特征向量所需的计算量,并提高了客流数据的确定过程效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种数据处理过程示意图;
图2为本发明实施例提供的人脸的每个角度值的示意图;
图3为本发明实施例提供的具体的数据处理流程示意图;
图4为本发明实施例提供的一种联合检测模型的训练过程示意图;
图5为本发明实施例提供的一种样本人头框的每个关键点的示意图;
图6为本发明实施例提供的一种联合检测模型的结构示意图;
图7为本发明实施例提供的一种数据处理装置的结构示意图;
图8为本发明实施例提供的一种联合检测模型的训练装置的结构示意图;
图9为本发明实施例提供的一种电子设备结构示意图;
图10为本发明实施例提供的一种电子设备结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1:图1为本发明实施例提供的一种数据处理过程示意图,包括:
S101:通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息。
本发明实施例应用于电子设备,该电子设备可以为智能设备,例如智能机器人、智慧屏、智能监控系统等,也可以为服务器等。
电子设备获取到待识别图像后,基于本发明实施例提供的数据处理方法,对该待识别图像进行分析,从而确定客流数据。其中,该待识别图像可以是电子设备自身采集的,也可以是其他图像采集设备发送的,在此不做限定。
为了提高确定客流数据的效率,在本发明实施例中,预先训练有联合检测模型。当电子设备获取到待识别图像后,通过该预先训练完成的联合检测模型对该待识别图像进行处理,从而获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息。
其中,目标检测框的位置信息,即为待识别图像中各人头所在的区域的坐标(如像素坐标,即待识别图像中各人头所在的区域的像素坐标),后续可以根据每个目标检测框的位置信息,比如,目标检测框左上角的像素点在待识别图像中的坐标值,以及目标检测框右下角的像素点在待识别图像中的坐标值,分别确定每个目标检测框在待识别图像中的区域。
需要说明的是,获取的每个目标检测框中是否包含有人脸的信息,可以是目标检测框中是否包含有人脸的标识值,比如,目标检测框中包含有人脸的标识值为“1”,目标检测框不包含有人脸的标识值为“0”;也可以是目标检测框中是否包含有人脸的概率。
在一种可能的实施方式中,若该联合检测模型输出的是每个目标检测框中是否包含有人脸的概率,则为了确定目标检测框中是否包含有人脸,预先设置有决策阈值。当基于上述实施例获取到每个目标检测框中是否包含有人脸的概率之后,针对每个目标检测框,将该目标检测框中是否包含有人脸的概率与决策阈值进行比较,从而确定该目标检测框中是否包含有人脸。具体的,针对每个目标检测框,若该目标检测框中是否包含有人脸的概率大于决策阈值,则确定该目标检测框中包含有人脸,否则,确定该目标检测框不包含有人脸。比如,决策阈值为0.8,某一目标检测框中是否包含有人脸的概率为0.9,确定该概率0.9大于该决策阈值0.8,确定该目标检测框中包含有人脸。
其中,该决策阈值可以是根据经验进行设置,也可以不同的场景设置不同的值。比如,如果对目标检测框中是否包含有人脸的信息的准确度要求较高,则可以将该决策阈值设置的大一些;如果希望可以尽可能的识别出包含人脸目标检测框,则可以将该决策阈值设置的小一些。具体的,可以根据实际的需求,进行灵活的设置,在此不做具体限定。
S102:根据目标检测框的位置信息和/或目标检测框中是否包含有人脸的信息,确定客流数据。
当基于上述实施例获取到每个目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息后,进行后续的处理,确定客流数据,即确定客流数据中的客流值参数和/或注意力次数参数。其中,注意力次数参数统计的是看向智能设备的行人的数量。比如,在办事大厅中,基于统计的看向智能机器人的行人的人数,进行相应的数据分析,确定当前场景下行人希望与智能机器人进行交互的可能性;或者,在商场中,通过统计当前场景下看向智能投屏的人数,进行相应的数据分析,从而评估在当前场景下通过智能投屏播放广告吸引顾客的效果等。在统计注意力次数时,可以周期性进行统计,如一天、一周、一个月等。
在一种可能的实施方式中,由于待识别图像中包含有人头的目标检测框一般归属于当前进入场景的行人的,而这些行人则是需要统计到客流数据中的客流值参数中的。因此,在本发明实施例中,可以直接根据获取的目标检测框的位置信息,进行相应的处理,确定客流数据,即客流值参数。
在另一种可能的实施方式中,当获取到的目标检测框中包含有人脸,则该目标检测框所归属的行人有可能正在看向智能设备,而这样的行人看向智能设备的次数是需要统计到客流数据中的注意力次数参数中的。因此,在本发明实施例中,可以根据目标检测框中是否包含有人脸的信息,确定客流数据,即确定客流数据中的注意力次数参数。比如,根据包含有人脸的目标检测框的数量,确定客流值中的注意力次数参数。
此外,由于注意力次数参数统计的是看向智能设备的行人的人数,而在实际应用场景下,可能出现同一个人一直盯着智能设备看,或,同一个人多次看向智能设备的情况。如果直接根据待识别图像中每个包含有人脸的目标检测框,便对当前保存的客流数据中的注意力次数参数进行更新的话,则会将同一个人多次统计到注意力次数参数中,使统计的注意力次数参数的精确度不高。因此,为了提高确定的客流数据的准确性,在本发明实施例中,可以根据目标检测框的位置信息和目标检测框中是否包含有人脸的信息,进行相应的处理,确定客流数据,即确定客流数据中的注意力次数参数。
实施例2:为了准确地确定客流数据,在上述实施例的基础上,在本发明实施例中,确定客流数据,包括:
确定目标检测框的标识信息;若该标识信息满足预设的第一更新条件且该目标检测框中包含有人脸,更新当前保存的客流数据中的注意力次数参数。
为了避免多次将同一人看向智能设备的次数均统计到注意力次数参数中,在本发明实施例中,获取到目标检测框之后,确定目标检测框的标识信息,并为了确定目标检测框的标识信息,预先设置有跟踪队列,该跟踪队列中保存有跟踪人头框以及每个跟踪人头框对应的标识信息。当获取到待识别图像中每个包含有人头的目标检测框的位置信息后,针对每个目标检测框,根据该目标检测框的位置信息,提取出该目标检测框在待识别图像中的区域。电子设备基于该目标检测框在待识别图像中的区域与当前跟踪队列保存的每个跟踪人头框,进行相应的处理,确定该目标检测框的标识信息。后续电子设备可以基于该目标检测框的标识信息,进行相应的处理,确定客流数据。其中,该跟踪人头框为已获取到的周围环境中的行人的人头框。在设置初始跟踪队列时,该跟踪队列可以为空,在后续进行数据处理的过程中,根据每个分配了标识信息的目标检测框,对该跟踪队列进行实时的更新。
在一种可能的实施方式中,确定该目标检测框的标识信息的过程包括:分别确定该目标检测框与当前跟踪队列中的每个跟踪人头框的相似度,通过匈牙利算法以及每个相似度,确定与该目标检测框相似度较高的跟踪人头框的标识信息,若确定该标识信息对应的任一跟踪人头框与该目标检测框的相似度大于设定阈值,则确定该标识信息为目标检测框的标识信息;否则,为该目标检测框分配新的标识信息,并将新分配的标识信息确定为该目标检测框的标识信息。
其中,在确定该目标检测框与当前跟踪队列中的每个跟踪人头框的相似度时,该相似度的确定方法可以是计算该目标检测框与当前跟踪队列中的每个跟踪人头框的区域重叠比例,即分别计算任一跟踪人头框与该目标检测框在待识别图像中的区域的重叠率,也可以是计算该目标检测框在待识别图像中的区域与当前跟踪队列中的每个跟踪人头框的空间距离,比如欧式距离、切比雪夫距离等。具体确定相似度的方式在此不作具体限定。
需要说明的是,目标检测框的标识信息用于唯一标识该目标检测框所归属的对象的身份信息,该标识信息可以为数字、字母、特殊符号、字符串等,也可以为其他形式的,只要能唯一标识该目标检测框所归属的对象的身份信息均可作为本发明实施例中的标识信息。
在本发明实施例中,为了提高确定的注意力次数参数的精确度,还预先设置有第一更新条件,该第一更新条件可以为获取的目标检测框的标识信息是否与当前统计队列保存的任一统计标识均不匹配。该匹配是指当前统计队列中保存有与该目标检测框的标识信息相同的统计标识。
具体的,基于上述实施例的方法,确定目标检测框的标识信息之后,将目标检测框的标识信息与当前统计队列保存的任一统计标识进行匹配,若确定该目标检测框的标识信息与当前统计队列保存的任一统计标识均不匹配,说明该目标检测框的标识信息满足预设的第一更新条件;否则,说明该目标检测框的标识信息不满足预设的第一更新条件。
其中,该统计队列包括周围环境中已被统计到注意力次数参数中的行人的标识信息。在设置初始统计队列时,该统计队列可以为空,在后续进行注意力次数参数的确定过程中,根据每个分配了标识信息的目标检测框,对该统计队列进行实时的更新。具体实施中,当确定该目标检测框中包含有人脸,且确定目标检测框的标识信息满足预设的第一更新条件时,则更新当前保存的客流数据中的注意力次数参数。
进一步地,当更新当前保存的客流数据中的注意力次数参数之后,便将该目标检测框的标识信息更新到当前统计队列中,以方便后续不再根据该标识信息的目标检测框,更新当前保存的客流数据中的注意力次数参数。
在另一种可能的实施方式中,该方法还包括:通过联合检测模型,获取每个目标检测框对应的第一角度标识值,第一角度标识值用于标识包含有人脸的目标检测框中的人脸的角度值,或者标识目标检测框中不包含有人脸;
确定标识信息满足预设的第一更新条件,包括:若标识信息与当前统计队列中保存的任一统计标识均不匹配,且该标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件,确定该标识信息满足第一更新条件。
在实际应用过程中,采集的待识别图像中,虽然该目标检测框中包含有人脸,但该人脸所归属的对象并不一定是看向智能设备,比如,包含人脸的目标检测框A所归属的对象朝天空看,包含人脸的目标检测框B所归属的对象转头看向别处等。而一般看向智能设备的人脸,该人脸的角度是在一定范围内的。因此,为了进一步提高统计的注意力次数参数的精确度,在本发明实施例中,预设的第一更新条件还可以为目标检测框的标识信息与当前统计队列中保存的任一统计标识均不匹配,且该标识信息对应的目标检测框的角度标识值(记为第一角度标识值)满足预设的第三更新条件。该第三更新条件为该标识信息对应的任一目标检测框的角度值是否均小于预设的角度阈值。
其中,第一角度标识值用于标识包含有人脸的目标检测框中的人脸的角度值,或者标识目标检测框中不包含有人脸。比如,包含有人脸的目标检测框A对应的第一角度标识值为30,其标识该目标检测框A中的人脸的俯仰角为30度,不包含有人脸的目标检测框B对应的第一角度标识值为null。
需要说明的是,该角度值可以是人脸的俯仰角度值,和/或,偏航角度值。图2为本发明实施例提供的人脸的每个角度值的示意图,Yaw所对应的角度值为偏航角度值,Pitch所对应的角度值为俯仰角度值。
需要说明的是,用于标识目标检测框中不包含有人脸的第一角度标识值,可以为任一大于180度的角度值,也可以为字符等其他形式,只要可以与包含有人脸的目标检测框中人脸的角度值区分开,并标识该目标检测框中不包含有人脸的标识值均可以均用本发明实施例。
本发明实施例中,将待识别图像输入至联合检测模型,通过该联合检测模型,不仅可以获取到待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息,还可以获取到每个目标检测框对应的第一角度标识值。
针对获取到的每个目标检测框,根据该目标检测框的位置信息,基于上述实施例的方法,确定该目标检测框的标识信息,然后判断该标识信息是否与当前统计队列中保存的任一统计标识均不匹配,并确定该标识信息对应的目标检测框对应的第一角度标识值是否满足预设的第二更新条件,即确定该标识信息对应的任一目标检测框对应的第一角度标识值是否均小于预设的角度阈值。若该标识信息与当前统计队列中保存的任一统计标识均不匹配,且标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件,则确定标识信息满足第一更新条件。
由于包含有人脸的目标检测框对应的第一角度标识值所标识的角度值可能包括俯仰角度值和偏航角度值。在设置预设的角度阈值时,俯仰角度值和偏航角度值对应的角度阈值可以相同,也可以不同。具体设置时可以根据需求进行灵活设置,在此不做具体限定。但需要说明的是,不论俯仰角度值和偏航角度值对应的角度阈值是否相同,标识信息对应的目标检测框中人脸的俯仰角度值和偏航角度值均需分别小于对应的预设的角度阈值,才确定该标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件。
例如,俯仰角度值和偏航角度值对应的预设的角度阈值分别为30,35,确定某标识信息A对应的任一目标检测框中人脸的俯仰角度值6和偏航角度值12,确定该目标检测框的俯仰角度值6小于对应的角度阈值30,该目标检测框的偏航角度值12小于对应的角度阈值35,则确定该标识信息A对应的目标检测框对应的第一角度标识值满足预设的第二更新条件。
在实际过程中,采集到的待识别图像中可能包含有正在转头的行人的人脸,该行人实际上并没有看向智能设备,但获取到包含该行人的人头的目标检测框的位置信息、该目标检测框中是否包含有人脸的信息、以及该目标检测框对应的第一角度标识值之后,基于上述实施例的方法,进行相应的处理后,很可能满足第一更新条件,导致确定的客流数据中的注意力次数参数不准确。因此,为了提高确定的客流数据中的注意力次数参数的准确性,在本发明实施例中,预设的第二更新条件可以是获取到的连续设定数量的待识别图像中是否均存在某一标识信息对应的目标检测框,且该连续设定数量的待识别图像中该标识信息对应的目标检测框对应的第一角度标识值是否均小于预设的角度阈值。具体的,确定该标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件,包括:
若连续设定数量的待识别图像中均存在该标识信息对应的目标检测框,且该连续设定数量的待识别图像中该标识信息对应的目标检测框对应的第一角度标识值均小于预设的角度阈值,则确定该标识信息对应的目标检测框对应的第一角度标识值满足第二更新条件。
具体实施中,当确定了某一目标检测框的标识信息之后,确定获取到的连续设定数量的待识别图像中是否均存在该标识信息对应的目标检测框,且在该连续设定数量的待识别图像中该标识信息对应的目标检测框对应的第一角度标识值是否均小于预设的角度阈值。若均为是,说明该标识信息对应的目标检测框所归属的对象极有可能是在看向智能设备,则确定该标识信息对应的目标检测框对应的第一角度标识值满足第二更新条件;否则,说明该标识信息对应的目标检测框所归属的对象并没有看向智能设备,则确定该标识信息对应的目标检测框对应的第一角度标识值不满足第二更新条件。
例如,预设的俯仰角度值和偏航角度值对应的角度阈值均为30,设定数量为3,针对某一目标检测框,确定该目标检测框的标识信息为A,获取到的连续3张待识别图像1、2、3中均包含该标识信息A的目标检测框,其中,待识别图像1中该标识信息A的目标检测框对应的俯仰角度值和偏航角度值分别为17和18,待识别图像2中该标识信息A的目标检测框对应的俯仰角度值和偏航角度值分别为24和18,待识别图像3中该标识信息A的目标检测框对应的俯仰角度值和偏航角度值分别为27和28,确定该连续3张待识别图像1、2、3中该标识信息A对应的目标检测框对应的俯仰角度值和偏航角度值均小于预设的角度阈值,则确定该标识信息A对应的目标检测框对应的第一角度标识值满足第二更新条件。
其中,在设置设定数量的时候,可以根据不同的场景,设置不同的值。为了尽可能的统计到看向智能设备的行人,可以将该设定数量设置的小一些,为了提高确定的注意力次数参数的精确度,可以将该设定数量设置的大一些。具体实施过程中,可以根据实际需求进行灵活设置,在此不作具体限定。
实施例3:为了准确地确定客流数据中的客流值参数,在上述各实施例的基础上,在本发明实施例中,确定客流数据,包括:
确定目标检测框的标识信息;若目标检测框的标识信息满足预设的第三更新条件,更新当前保存的客流数据中的客流值参数。
一般情况下,电子设备获取的待识别图像是按照预设的时间间隔采集的,比如50ms、100ms等,并且为了保证可以实时采集到所有进入拍摄范围的人的图像,该预设的时间间隔不会设置的很大。但是因为在实际应用的过程中,同一个人从进入拍摄范围到离开拍摄范围所花费的时间,一般是大于预设的时间间隔的,导致获取的多张待识别图像中均包含有同一个人的目标检测框。如果直接根据从待识别图像获取的每个目标检测框中包含的数量,确定客流数据中的客流值参数的话,则会多次统计同一个人,使确定客流数据中的客流值参数精确度不高。
因此,在本发明实施例中,在确定客流数据中的客流值参数之前,确定目标检测框的标识信息。针对每个目标检测框,基于目标检测框的标识信息,确定是否满足预设的第三更新条件,从而确定是否更新当前保存的客流数据中的客流值参数。其中,确定目标检测框的标识信息的具体方法,与上述实施例中描述的内容相同,重复之处不做赘述。
在一种可能的实施方式中,该预设的第三更新条件可以为该目标检测框的标识信息是否与当前跟踪队列保存的任一标识信息相同。若确定该目标检测框的标识信息与当前跟踪队列保存的任一标识信息相同,说明该目标检测框所归属的对象已经被统计到客流值参数中,则确定该目标检测框的标识信息不满足预设的第三更新条件,不更新当前保存的客流数据中的客流值参数。若确定该目标检测框的标识信息与当前跟踪队列保存的任一标识信息均不相同,说明该目标检测框所归属的对象还未被统计到客流值参数中,则确定该目标检测框的标识信息满足预设的第三更新条件,更新当前保存的客流数据中的客流值参数。
在另一种可能的实施方式中,由于有可能出现获取的待识别图像是在如办事大厅、商场、公交车等应用场景的门口处采集的,虽然在这些应用场景的门口处采集的待识别图像中可能包含每一个进入该应用场景的对象的目标检测框,但又极易包含有从该应用场景的门口路过的对象的目标检测框。比如,统计公交车的客流数据的场景下,一般待识别图像是在公交车上车车门处采集的,在采集到的待识别图像中,不仅包含有要上公交车的对象的目标检测框,还可能包含从公交车门口处路过的对象的目标检测框,如果后续直接根据当前跟踪队列中是否保存有与该目标检测框的标识信息相同的标识信息,来确定该目标检测框的标识信息是否满足预设的第三更新条件的话,则容易造成确定的客流数据不准确。
因此,预设的第三更新条件还可以为该标识信息对应的跟踪人头框的数量是否大于设定的数量阈值,且基于采集时间相邻的每两个该标识信息对应的跟踪人头框的图像信息,确定的距离之和是否大于设定的距离阈值。具体的,当基于上述实施例获取到目标检测框的标识信息之后,确定当前跟踪队列中,是否保存有该标识信息对应的跟踪人头框,若保存有该标识信息对应的跟踪人头框,则获取该标识信息对应的跟踪人头框,然后根据采集时间相邻的每两个跟踪人头框的图像信息,确定该两个跟踪人头框对应的移动距离。然后根据获取到的每个移动距离,确定距离之和。判断该标识信息对应的跟踪人头框的数量是否大于数量阈值,且获取的距离之和是否大于距离阈值。
进一步的,若该标识信息对应的跟踪人头框的数量大于数量阈值,且获取的距离之和大于距离阈值,说明该标识信息满足预设的第三更新条件,则更新当前保存的客流数据中的客流值参数;若该标识信息对应的跟踪人头框的数量不大于数量阈值,或获取的距离之和不大于距离阈值,说明该标识信息不满足预设的第三更新条件,则不执行更新当前保存的客流数据中的客流值参数的处理。
其中,确定每两个跟踪人头框对应的移动距离时,可以根据该两个跟踪人头框设定位置的像素点在待识别图像中的位置信息确定。比如,根据该两个跟踪人头框左上角的像素点在待识别图像的坐标值的距离、跟踪人头框右下角的像素点在待识别图像的坐标值的距离、跟踪人头框对角线中点处的像素点在待识别图像的坐标值的距离等。
其中,该数量阈值一般不大于根据预设的拍摄范围中最大拍摄距离与时间间隔和平均速度的乘积所确定的商。为了提高确定的客流数据中的客流值参数的准确性,该数量阈值不宜过小;为了避免由于对象的行走速度过快,从而出现漏统计该对象的情况,该数量阈值不宜过大。具体实施中可以根据实际需求进行灵活设置,在此不做具体限定。
该距离阈值一般不大于预设的拍摄范围中最大拍摄距离。为了提高确定的客流数据中的客流值参数的准确性,该距离阈值不宜过小;为了避免由于对象的行走速度过快,从而出现漏统计该对象的情况,该距离阈值不宜过大。具体实施中可以根据实际需求进行灵活设置,在此不做具体限定。
实施例4:为了实现只需通过联合检测模型,即可获取到待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息,在上述各实施例的基础上,在本发明实施例中,通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息,包括:
通过联合检测模型的特征提取网络层,获取待识别图像的特征向量;将特征向量分别输入至联合检测模型的位置检测层、人头分类层和人脸分类层,以获取在待识别图像中识别到的各检测框对应的第一位置向量、各检测框对应的第一人头分类向量以及各检测框对应的第一人脸分类向量;通过联合检测模型的输出层,基于第一位置向量、第一人头分类向量、以及第一人脸分类向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息。
本发明实施例中,联合检测模型的网络结构中包括特征提取网络层、位置检测层、人头分类层、人脸分类层以及输出层。图6为本发明实施例提供的一种联合检测模型的网络结构示意图,该联合检测模型的位置检测层、人头分类层、人脸分类层均分别与特征提取网络层、以及输出层连接。具体的,当获取到待识别图像之后,将该待识别图像输入到预先训练完成的联合检测模型中,通过该联合检测模型中的特征提取网络层,可以获取到该输入的待识别图像的特征向量。其中,为了方便获取待识别图像的特征向量,该特征提取网络层一般为计算量小、参数少且量化友好的网络结构,比如,FBNet、Mobilenet with QF等网络结构。
在本发明实施例中,联合检测模型中的特征提取网络层同时连接有多个网络层,即位置检测层、人头分类层和人脸分类层。具体实施过程中,联合检测模型的特征提取网络层获取到待识别图像的特征向量之后,将该特征向量分别输入至该联合检测模型的位置检测层、人头分类层和人脸分类层;通过该联合检测模型的位置检测层,基于该特征向量,获取待识别图像中识别到的各检测框对应的第一位置向量;并通过该联合检测模型的人头分类层,基于该特征向量,获取待识别图像中识别到的各检测框对应的第一人头分类向量;并通过该联合检测模型的人脸分类层,基于该特征向量,获取待识别图像中识别到的各检测框对应的第一人脸分类向量;以及通过联合检测模型的输出层,基于上述获取的第一位置向量、第一人头分类向量、以及第一人脸分类向量,进行相应的处理,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息。
在一种可能的实施方式中,通过联合检测模型的输出层,基于第一位置向量、第一人头分类向量、以及第一人脸分类向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息,包括:
通过联合检测模型的输出层,基于第一位置向量,按照顺序依次确定每个检测框对应的位置信息以及第一索引值,第一索引值用于标识检测框对应的位置信息在第一位置向量中的位置;并基于第一人头分类向量,按照顺序依次确定每个检测框是否包含有人头的信息以及第二索引值,第二索引值用于标识检测框是否包含有人头的信息在第一人头分类向量中的位置;并基于第一人脸分类向量,按照顺序依次确定每个检测框是否包含有人脸的信息以及第三索引值,第三索引值用于标识检测框是否包含有人脸的信息在第一人脸分类向量中的位置;从第二索引值中确定包含有人头的目标检测框对应的目标第二索引值,从第一索引值中确定与目标第二索引值相同的目标第一索引值,以及从第三索引值中确定与目标第二索引值相同的目标第三索引值;将目标第一索引值对应的检测框的位置信息、目标第三索引值对应的检测框是否包含有人脸的信息,确定为目标检测框的位置信息、以及目标检测框中是否包含有人脸的信息。
在本发明实施例中,第一位置向量包括待识别图像中识别到的各检测框的位置信息,而用于确定各检测框的位置信息所需第一位置向量中元素的第一数量是预先配置的,比如4个。因此,通过联合检测模型的输出层,可以按照预设的第一数量,依次将输入的第一位置向量划分成多个子位置向量,并确定每个子位置向量对应的索引值(记为第一索引值),其中每个子位置向量中包含的第一数量的元素为一个检测框的位置信息,任一子位置向量对应的第一索引值用于标识该子位置向量在第一位置向量中的位置,即用于标识检测框对应的位置信息在第一位置向量中的位置。
而第一人头分类向量包括待识别图像中识别到的各检测框中是否包含有人头的信息,而用于确定各检测框中是否包含有人头的信息所需第一人头分类向量中元素的第二数量也是预先配置的。因此,通过联合检测模型的输出层,可以按照预设第二数量,依次将输入的第一人头分类向量划分成多个子人头分类向量,并确定每个子人头分类向量对应的索引值(记为第二索引值),其中每个子人头分类向量中包含的第二数量的元素为一个检测框中是否包含有人头的信息,任一子人头分类向量对应的第二索引值用于标识该子人头分类向量在第一人头分类向量中的位置,即用于标识检测框中是否包含有人头的信息在第一人头分类向量中的位置。
同样的,第一人脸分类向量包括待识别图像中识别到的各检测框中是否包含有人脸的信息,而用于确定各检测框中是否包含有人脸的信息所需第一人脸分类向量中元素的第三数量也是预设的。因此,通过联合检测模型的输出层,可以按照预设第三数量,依次将输入的第一人脸分类向量划分成多个子人脸分类向量,并确定每个子人脸分类向量对应的索引值(为了方便描述,记为第三索引值),其中每个子人脸分类向量中包含的第三数量的元素为一个检测框中是否包含有人脸的信息,任一子人脸分类向量对应的第三索引值用于标识该子人脸分类向量在第一人脸分类向量中的位置,即用于标识检测框中是否包含有人脸的信息在第一人脸分类向量中的位置。
针对上述获取到的每个第二索引值,若确定该第二索引值对应的检测框中包含有人头,则确定该第二索引值为目标第二索引值,并将该目标第二索引值对应的检测框确定为目标检测框,然后从获取到的每个第一索引值中查找与该目标第二索引值相同的第一索引值(记为目标第一索引值),并从获取到的每个第三索引值中查找与该目标第二索引值相同的第三索引值(记为目标第三索引值),最后将该目标第一索引值对应的检测框的位置信息、该目标第三索引值对应的检测框是否包含有人脸的信息,确定为该目标检测框的位置信息、以及该目标检测框中是否包含有人脸的信息。
在另一种可能的实施方式中,为了获取到待识别图像中每个包含人头的目标检测框对应的第一角度标识值,该联合检测模型还包括角度检测层,该角度检测层分别与该联合检测模型中的特征提取网络层、以及输出层连接。当通过联合检测模型中的特征提取网络层,获取到待识别图像的特征向量之后,将该特征向量也输入至该联合检测模型的角度检测层,以获取在待识别图像中识别到的各检测框对应的第一角度标识向量。因此,将特征向量分别输入至联合检测模型的位置检测层、人头分类层和人脸分类层,以获取在待识别图像中识别到的各检测框对应的第一位置向量、各检测框对应的第一人头分类向量以及各检测框对应的第一人脸分类向量,还包括:将特征向量输入至联合检测模型的角度检测层,以获取各检测框对应的第一角度标识向量;
通过联合检测模型的输出层,基于第一位置向量、第一人头分类向量、以及第一人脸分类向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息,包括:通过联合检测模型的输出层,基于第一位置向量、第一人头分类向量、第一人脸分类向量、以及第一角度标识向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、每个目标检测框中是否包含有人脸的信息、以及每个目标检测框对应的第一角度标识值。
在本发明实施例中,联合检测模型的角度检测层获取到该第一角度标识向量之后,将该第一角度标识向量也输入至联合检测模型的输出层,以获取待识别图像中每个包含有人头的目标检测框对应的第一角度标识值。
具体的,第一角度标识向量包括待识别图像中识别到的各检测框对应的第一角度标识值,而用于确定各检测框对应的第一角度标识值所需第一角度标识向量中元素的第四数量也是预先配置的。因此,通过联合检测模型的输出层,可以按照预设第四数量,依次将输入的第一角度标识向量划分成多个子角度标识向量,并确定每个子角度标识向量对应的索引值(记为第四索引值),其中每个子角度标识向量中包含的第四数量的元素为一个检测框对应的第一角度标识值,任一子角度标识向量对应的第四索引值用于标识该子角度标识向量在第一角度标识向量中的位置,即用于标识检测框对应的第一角度标识值在第一角度标识向量中的位置。
进一步地,当基于上述实施例从每个第二索引值中确定了包含有人头的目标检测框对应的目标第二索引值之后,针对每个目标第二索引值,从获取的每个第四索引值中确定与该目标第二索引值相同的第四索引值(记为目标第四索引值),将目标第一索引值对应的检测框的位置信息、目标第三索引值对应的检测框是否包含有人脸的信息、以及目标第四索引值对应的检测框对应的第一角度标识值,确定为该目标检测框的位置信息、该目标检测框中是否包含有人脸的信息、以及该目标检测框对应的第一角度标识值。
图3为本发明实施例提供的具体的数据处理流程示意图,该流程包括:
S301:通过联合检测模型,分别获取待识别图像中每个包含有人头的目标检测框的位置信息、每个目标检测框中是否包含有人脸的信息、以及每个目标检测框对应的第一角度标识值。
上述步骤获取的待识别图像中包含的目标检测框可能有多个,对获取到的每个目标检测框均执行以下的处理:
S302:确定目标检测框的标识信息。
若确定客流数据中包含注意力次数参数,则继续执行S303~S307;若确定客流数据中包含客流值参数,则继续执行S308~S310。
S303:判断该目标检测框中是否包含有人脸,若是,执行S304,否则,执行S307。
S304:判断该标识信息与当前统计队列中保存的任一统计标识均不匹配,若是,执行S305,否则,执行S307。
S305:判断连续设定数量的待识别图像中是否均存在标识信息对应的目标检测框,且连续设定数量的待识别图像中标识信息对应的目标检测框对应的第一角度标识值是否均小于预设的角度阈值,若是,执行S306,否则,执行S307。
S306:更新当前保存的客流数据中的注意力次数参数。
S307:不更新当前保存的客流数据中的注意力次数参数。
S308:判断该目标检测框的标识信息是否与当前跟踪队列中的任一跟踪人头框的标识信息相同,若是,执行S309,否则,执行S310。
其中,针对跟踪队列中保存的每个标识信息,根据包含有该标识信息的跟踪人头框的每张待识别图像,确定该标识信息的跟踪人头框所归属的对象的运动轨迹,从而实现短时跟踪。
S309:更新当前保存的客流数据中的客流值参数。
S310:不更新当前保存的客流数据中的客流值参数。
实施例5:为了提高数据处理的效率,本发明实施例还提供了一种联合检测模型的训练方法。如图4所示,该方法包括:
S401:获取样本集中任一样本图像,样本图像中标记有每个样本人头框的第一位置信息、每个样本人头框对应的第一标识值以及第二标识值,其中,第一标识值用于标识样本人头框中包含有人头,第二标识值用于标识样本人头框中是否包含有人脸。
S402:通过原始联合检测模型,获取样本图像中每个包含有人头的样本检测框的第二位置信息、以及每个样本检测框中是否包含有人脸的信息。
S403:根据样本检测框的第二位置信息与对应的样本人头框的第一位置信息、样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、以及样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值,对原始联合检测模型进行训练。
本发明实施例提供的联合检测模型的训练方法应用于电子设备,该电子设备可以为服务器等。该训练原始联合检测模型的设备可以与上述实施例中进行数据处理的电子设备相同,也可以不同。
为了提高数据处理的效率,可以根据预先获取的样本集中的任一样本图像,对原始联合检测模型进行训练。其中,该样本图像中标记有样本人头框的位置信息(记为第一位置信息)、样本人头框对应的包含有人头的标识值(记为第一标识值)以及是否包含有人脸的标识值(记为第二标识值)。
其中,第一标识值和第二标识值均可以用数字进行表示,比如,包含有人脸的第二标识值为“1”,不包含有人脸的第二标识值为“0”,也可以用如字符串等其他形式进行表示。但为了区分第一标识值和第二标识值,该第一标识值和第二标识值的具体内容或者表示形式不同,比如,包含有人头的第一标识值为“a”,包含有人脸的第二标识值为“1”,不包含有人脸的第二标识值为“0”。具体实施中可以根据实际需求进行灵活设置,在此不做具体限定。
此外,为了增加样本图像的多样性,对于包含有同一人的多张样本图像中,该人在每张样本图像中的人脸的角度应尽可能的不同,比如,某人x在样本图像a中的人脸为该人的正脸、某人x在样本图像b中的人脸为该人向右转45度的侧脸,某人x在样本图像b中的人脸为该人向左转45度的侧脸。
在本发明实施例中,可以通过原始联合检测模型,获取样本图像中每个包含有人头的样本检测框的位置信息(记为第二位置信息)、以及每个样本检测框中是否包含有人脸的信息。具体的,先通过原始联合检测模型的特征提取网络层,获取样本图像的特征向量,然后将该特征向量分别输入至原始联合检测模型的位置检测层、人头分类层以及人脸分类层,获取在该样本图像中识别到的各检测框对应的位置向量(记为第二位置向量)、各检测框对应的人头分类向量(记为第二人头分类向量)以及各检测框对应的人脸分类向量(记为第二人脸分类向量)。最后通过原始联合检测模型的输出层,基于该第二位置向量、第二人头分类向量、第二人脸分类向量,获取样本图像中每个包含有人头的样本检测框的第二位置信息、以及每个样本检测框中是否包含有人脸的信息。
后续根据样本检测框的第二位置信息与对应的样本人头框的第一位置信息、样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、以及样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值,对原始联合检测模型进行训练。
需要的说明的是,为了方便说明对原始联合检测模型的训练过程,本发明实施例针对获取的任一样本图像的训练过程进行详细说明的。在实际训练过程中,针对样本集中的每个样本图像,均进行上述的操作,当满足预设的收敛条件时,确定该联合检测模型训练完成。
其中,满足预设的收敛条件可以为样本集中的样本图像通过该联合检测模型,被正确识别的样本图像个数大于设定数量,或对联合检测模型进行训练的迭代次数达到设置的最大迭代次数等。具体实施中可以灵活进行设置,在此不做具体限定。
在一种可能的实施方式中,在对原始联合检测模型进行训练时,可以把样本集中的样本图像分为训练样本图像和测试样本图像,先基于训练样本图像对原始联合检测模型进行训练,再基于测试样本图像对上述已训练的联合检测模型的可靠程度进行验证。
实施例6:为了可以通过训练完成的联合检测模型获取目标检测框对应的角度标识值,实现根据包含有人脸的目标检测框中的人脸的角度值,准确地确定目标检测框所归属的人是否看向智能设备,进而提高确定的客流数据的准确性,在上述各实施例的基础上,在本发明实施例中,样本图像中还标记有每个样本人头框对应的第三角度标识值,第三角度标识值用于标识包含有人脸的样本人头框中的人脸的角度值,或者标识样本人头框中不包含有人脸;
方法还包括:通过原始联合检测模型,获取样本检测框对应的第二角度标识值,第二角度标识值用于标识包含有人脸的样本检测框中的人脸的角度值,或者标识样本检测框中不包含有人脸;
对原始联合检测模型进行训练,还包括:根据样本检测框对应的第二角度标识值与对应的样本人头框对应的第三角度标识值,对原始联合检测模型进行训练。
在上述实施例中,在确定目标检测框的标识信息是否满足预设的第一更新条件时,需要获取该标识信息对应的目标检测框对应的第一角度标识值,而在本发明实施例中,可以通过联合检测模型获取目标检测框对应的第一角度标识值。因此,样本集中任一样本图像中还标记有每个样本人头框对应的角度标识值(记为第三角度标识值)。其中,第三角度标识值用于包含有人脸的样本人头框中的人脸的角度值,或者标识样本人头框中不包有人脸。
为了进一步获取到精度更高的联合检测模型,在本发明实施例中,该角度值包括偏航角度值、俯仰角度值以及横滚角度值中的至少一个,比如,可以将该样本人头框中人脸的偏航角度值、俯仰角度值以及横滚角度值均作为监督信息,对原始联合检测模型进行训练。如图2所示,Roll所对应的角度标识值为横滚角度值。
当获取样本集中任一样本图像之后,通过原始联合检测模型,还可以获取该样本图像中样本检测框对应的角度标识值(记为第二角度标识值)。其中,第二角度标识值用于包含有人脸的样本检测框中的人脸的角度值,或者标识样本检测框中不包有人脸。后续在对该原始联合检测模型进行训练的时候,还可以根据获取的样本检测框对应的第二角度标识值与对应的样本人头框对应的第三角度标识值,对原始联合检测模型进行训练。
具体的,通过原始联合检测模型,获取样本检测框对应的第二角度标识值的过程包括:当通过原始联合检测模型的特征提取网络层,获取样本图像的特征向量之后,将该特征向量也输入至原始联合检测模型的角度检测层,以获取样本图像中识别到的各检测框对应的第二角度标识向量。通过原始联合检测模型的输入层,基于该第二位置向量、第二人头分类向量、第二人脸分类向量、以及第二角度标识向量,获取样本图像中每个包含有人头的样本检测框的第二位置信息、每个样本检测框中是否包含有人脸的信息、以及每个样本检测框对应的第二角度标识值。
后续还可以根据样本检测框对应的第二角度标识值与对应的样本人头框对应的第三角度标识值,对原始联合检测模型进行训练。
实施例7:由于包含有人脸的目标检测框中的人脸一定包含有人脸上的关键点,而人脸上的关键点的位置信息有利于确定包含有人脸的目标检测框中的人脸的角度值,为了通过联合检测模型获取每个样本检测框对应的关键点位置向量,根据样本检测框对应的关键点位置向量与对应的预先标记的样本人头框对应的样本关键点位置向量,对原始联合检测模型进行训练,以通过增加用于训练联合检测模型的监督信息,进一步提高训练的联合检测模型的精确度,在上述各实施例的基础上,在本发明实施例中,样本图像中还标记有每个样本人头框对应的样本关键点位置向量;
通过原始联合检测模型,获取样本图像中每个样本检测框对应的第二角度标识值,还包括:通过原始联合检测模型,获取样本图像中每个样本检测框对应的关键点位置向量;
对原始联合检测模型进行训练,还包括:根据样本检测框对应的关键点位置向量与对应的样本人头框对应的样本关键点位置向量,对原始联合检测模型进行训练。
由于在实际应用过程中,一般包含有人脸的检测框中,该检测框中一定包含有人脸上的关键点,且包含有人脸的检测框中的人脸的角度值,是通过人脸上的关键点的位置信息确定的,比如,鼻尖、唇峰、眼头等关键点的位置信息,该人脸的角度值的准确度与提取的关键点的位置信息有较强的相关性。因此,为了进一步提高训练的联合检测模型的精确度,在本发明实施例中,可以将包含有人脸的检测框中的人脸的关键点的位置信息作为监督信息,对原始联合检测模型进行训练。
具体实施过程中,样本图像中还标记有每个样本人头框对应的样本关键点位置向量,该样本关键点位置向量包括该样本人头框中人脸的关键点的位置信息。为了通过该原始联合检测模型,获取样本图像中每个检测框对应的关键点位置向量,该原始联合检测模型中还包括关键点检测层。如图6所示,该关键点检测层分别与该原始联合检测模型中的特征提取网络层以及输出层连接,以使通过该原始检测模型,获取样本图像中每个样本检测框对应的关键点位置向量,从而提高训练原始联合检测模型的精度。
具体的,通过原始联合检测模型,获取样本图像中每个样本检测框对应的关键点位置向量的过程包括:当通过原始联合检测模型的特征提取网络层,获取样本图像的特征向量之后,将该特征向量也输入至原始联合检测模型的关键点检测层,以获取样本图像中识别到的各检测框对应的总关键点位置向量。通过原始联合检测模型的输入层,基于该第二位置向量、第二人头分类向量、第二人脸分类向量、第二角度标识向量、以及总关键点位置向量,获取样本图像中每个包含有人头的样本检测框的第二位置信息、每个样本检测框中是否包含有人脸的信息、每个样本检测框对应的第二角度标识值、以及每个样本检测框对应的关键点位置向量。
图5为本发明实施例提供的一种样本人头框的每个关键点的示意图,在样本人头框中人脸的鼻尖、唇峰、唇角、眼头等位置均标记有关键点,根据这些关键点的位置信息,即可确定该样本人头框对应的样本关键点位置向量。
其中,在包含有人脸的样本人头框标记的关键点的数量,可以根据场景的不同,设置不同的值。如果希望减少用于原始检测模型的训练所耗费的时间,则可以将该关键点的数量设置的小一些;如果希望获取的原始检测模型的精度更高,可以将该关键点的数量设置的大一些。但不宜过大,过大则易造成训练原始检测模型时计算量非常的大,且不容易获取到训练完成的原始检测模型。较佳的,该关键点的数量一般为96点,106点等。
后续在对原始联合检测模型进行训练时,还可以通过获取的样本检测框对应的关键点位置向量以及对应的样本人头框对应的样本关键点位置向量,对原始联合检测模型进行训练。
在一种可能的实施方式中,对原始联合检测模型进行训练,包括:
针对每个样本检测框,若该样本检测框与任一样本人头框匹配,根据该样本检测框的第二位置信息以及所匹配的样本人头框的第一位置信息,确定位置损失值;根据该样本检测框是否包含有人头的信息以及所匹配的样本人头框对应的第一标识值,确定第一人头损失值;根据该样本检测框是否包含有人脸的信息以及所匹配的样本人头框对应的第二标识值,确定人脸损失值;根据该样本检测框对应的第二角度标识值、以及所匹配的样本人头框对应的第三角度标识值,确定角度损失值;根据该样本检测框对应的关键点位置向量、以及所匹配的样本人头框对应的样本关键点位置向量,确定关键点损失值;根据位置损失值、第一人头损失值、人脸损失值、角度损失值以及关键点损失值,确定子损失值;若该样本检测框与任一样本人头框均不匹配,根据该样本检测框是否包含有人头的信息以及预设的第一数值,确定第二人头损失值;根据第二人头损失值,确定子损失值;根据每个样本检测框对应的子损失值的和对原始联合检测模型进行训练。
在本发明实施例中,在根据确定的位置损失值、第一人头损失值、人脸损失值、角度损失值以及关键点损失值,确定子损失值时,可以直接根据确定的位置损失值、第一人头损失值、人脸损失值、角度损失值以及关键点损失值的和,确定子损失值,也可以对位置损失值、第一人头损失值、人脸损失值、角度损失值、以及关键点损失值进行一定的算法处理后,确定子损失值,比如,先确定位置损失值与对应的权重值的乘积、第一人头损失值与对应的权重值的乘积、人脸损失值与对应的权重值的乘积、角度损失值与对应的权重值的乘积以及关键点损失值与对应的权重值的乘积,根据每个乘积的和,确定子损失值。
由于不同的信息对原始联合检测模型的训练影响不同,因此,可以设置位置损失值、第一人头损失值、人脸损失值、角度损失值以及关键点损失值分别对应的权重值可以相同,也可以不同。每个权重值可以通过自适应算法进行设置,也可以通过人为的经验值进行设置,在此不做具体限定。
由于对于不包含有人脸的样本人头框对应的第三角度标识值只是用于标识该样本人头框中不包含有人脸的。因此,当确定某一样本检测框所匹配的样本人头框对应的第三角度标识值标识所匹配的样本人头框中不包含有人脸,则无需根据该样本检测框对应的第二角度标识值、以及所匹配的样本人头框对应的第三角度标识,确定角度损失值,可以直接将预设的第二数值确定为角度损失值。具体的,根据该样本检测框对应的第二角度标识值、以及所匹配的样本人头框对应的第三角度标识值,确定角度损失值,包括:
若所匹配的样本人头框对应的第三角度标识值标识所匹配的样本人头框中不包含有人脸,将预设的第二数值确定为角度损失值。
其中,为了提高训练的联合检测模型的精度,该预设的第二数值一般为如“0”、“0.1”等较小的数值。
同样的,由于不包含有人脸的样本人头框对应的样本关键点位置向量也只是用于标识该样本人头框中不包含有人脸。因此,当确定某一样本检测框所匹配的样本人头框对应的样本关键点位置向量标识所匹配的样本人头框中不包含有人脸,则无需根据该样本检测框对应的关键点位置向量、以及所匹配的样本人头框对应的样本关键点位置向量,确定关键点损失值,可以直接将预设的第三数值确定为关键点损失值。具体的,根据该样本检测框对应的关键点位置向量、以及所匹配的样本人头框对应的样本关键点位置向量,确定关键点损失值,包括:若所匹配的样本人头框对应的样本关键点位置向量标识所匹配的样本人头框中不包含有人脸,将预设的第三数值确定为关键点损失值。
其中,为了提高训练的联合检测模型的精度,该预设的第三数值一般为如“0”、“0.1”等较小的数值。
在另一种可能的实施方式中,针对每个样本检测框,将该样本检测框与任一样本人头框进行匹配,若该样本检测框与任一样本人头框均不匹配,说明该样本检测框为不包含有人头的检测框,则直接根据该样本检测框是否包含有人头的信息以及预设的第一数值,确定人头损失值(为了方便说明,记为第二人头损失值);根据该第二人头损失值,确定子损失值。
其中,为了提高训练的联合检测模型的精度,该第一数值一般为“0”、“0.1”等较小的数值。在本发明实施例中,第一数值、第二数值以及第三数值可以相同,也可以不同,在此不作具体限定。
需要说明的是,根据该第二人头损失值,确定子损失值时,可以直接将该第二人头损失值确定为子损失值,也可以将该第二人头损失值进行一定的算法处理后,确定子损失值,比如,根据该第二子损失值与对应的权重值的乘积,确定子损失值。根据上述获取的每个子损失值的和,对原始联合检测模型进行训练,以对原始联合检测模型中的参数的值进行更新。具体实施中,在根据每个子损失值的和,对原始联合检测模型进行训练时,可以采用梯度下降算法,对原始联合检测模型中的参数的梯度进行反向传播,从而对原始联合检测模型的参数的值进行更新。
实施例8:图7为本发明实施例提供的一种数据处理装置的结构示意图,装置包括:
获取单元71,用于通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息;
处理单元72,用于根据目标检测框的位置信息和/或目标检测框中是否包含有人脸的信息,确定客流数据。
在一种可能的实施方式中,处理单元72,具体用于:确定目标检测框的标识信息;若该标识信息满足预设的第一更新条件且该目标检测框中包含有人脸,更新当前保存的客流数据中的注意力次数参数。
在一种可能的实施方式中,获取单元71,还用于通过联合检测模型,获取每个目标检测框对应的第一角度标识值,第一角度标识值用于标识包含有人脸的目标检测框中的人脸的角度值,或者标识目标检测框中不包含有人脸;
处理单元72,具体用于:若标识信息与当前统计队列中保存的任一统计标识均不匹配,且该标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件,确定该标识信息满足第一更新条件。
在一种可能的实施方式中,处理单元72,具体用于:若连续设定数量的待识别图像中均存在标识信息对应的目标检测框,且该连续设定数量的待识别图像中该标识信息对应的目标检测框对应的第一角度标识值均小于预设的角度阈值,则确定该标识信息对应的目标检测框对应的第一角度标识值满足第二更新条件。
在一种可能的实施方式中,获取单元71,具体用于:通过联合检测模型的特征提取网络层,获取待识别图像的特征向量;将特征向量分别输入至联合检测模型的位置检测层、人头分类层和人脸分类层,以获取在待识别图像中识别到的各检测框对应的第一位置向量、各检测框对应的第一人头分类向量以及各检测框对应的第一人脸分类向量;通过联合检测模型的输出层,基于第一位置向量、第一人头分类向量、以及第一人脸分类向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息。
在一种可能的实施方式中,获取单元71,具体用于:
通过联合检测模型的输出层,基于第一位置向量,按照顺序依次确定每个检测框对应的位置信息以及第一索引值,第一索引值用于标识检测框对应的位置信息在第一位置向量中的位置;并基于第一人头分类向量,按照顺序依次确定每个检测框是否包含有人头的信息以及第二索引值,第二索引值用于标识检测框是否包含有人头的信息在第一人头分类向量中的位置;并基于第一人脸分类向量,按照顺序依次确定每个检测框是否包含有人脸的信息以及第三索引值,第三索引值用于标识检测框是否包含有人脸的信息在第一人脸分类向量中的位置;从第二索引值中确定包含有人头的目标检测框对应的目标第二索引值,从第一索引值中确定与目标第二索引值相同的目标第一索引值,以及从第三索引值中确定与目标第二索引值相同的目标第三索引值;将目标第一索引值对应的检测框的位置信息、目标第三索引值对应的检测框是否包含有人脸的信息,确定为目标检测框的位置信息、以及该目标检测框中是否包含有人脸的信息。
在一种可能的实施方式中,处理单元72,还用于确定目标检测框的标识信息;若该目标检测框的标识信息满足预设的第三更新条件,更新当前保存的客流数据中的客流值参数。
实施例9:图8为本发明实施例提供的一种联合检测模型的训练装置的结构示意图,装置包括:
第一获取模块81,用于获取样本集中任一样本图像,样本图像中标记有每个样本人头框的第一位置信息、每个样本人头框对应的第一标识值以及第二标识值,其中,第一标识值用于标识样本人头框中包含有人头,第二标识值用于标识样本人头框中是否包含有人脸;
第二获取模块82,用于通过原始联合检测模型,获取样本图像中每个包含有人头的样本检测框的第二位置信息、以及每个样本检测框中是否包含有人脸的信息;
训练模块83,用于根据样本检测框的第二位置信息与对应的样本人头框的第一位置信息、样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、以及样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值,对原始联合检测模型进行训练。
在一种可能的实施方式中,样本图像中还标记有每个样本人头框对应的第三角度标识值,第三角度标识值用于标识包含有人脸的样本人头框中的人脸的角度值,或者标识样本人头框中不包含有人脸;
第二获取模块82,还用于通过原始联合检测模型,获取样本检测框对应的第二角度标识值,第二角度标识值用于标识包含有人脸的样本检测框中的人脸的角度值,或者标识样本检测框中不包含有人脸;
训练模块83,还用于根据样本检测框对应的第二角度标识值与对应的样本人头框对应的第三角度标识值,对原始联合检测模型进行训练。
在一种可能的实施方式中,样本图像中还标记有每个样本人头框对应的样本关键点位置向量;
第二获取模块82,还用于通过原始联合检测模型,获取样本图像中每个样本检测框对应的关键点位置向量;
训练模块83,还用于根据样本检测框对应的关键点位置向量与对应的样本人头框对应的样本关键点位置向量,对原始联合检测模型进行训练。
在一种可能的实施方式中,训练模块83,具体用于:
针对每个样本检测框,若该样本检测框与任一样本人头框匹配,根据该样本检测框的第二位置信息及所匹配的样本人头框的第一位置信息,确定位置损失值;根据该样本检测框是否包含有人头的信息以及所匹配的样本人头框对应的第一标识值,确定第一人头损失值;根据该样本检测框是否包含有人脸的信息及所匹配的样本人头框对应的第二标识值,确定人脸损失值;根据该样本检测框对应的第二角度标识值、及所匹配的样本人头框对应的第三角度标识值,确定角度损失值;根据该样本检测框对应的关键点位置向量、以及所匹配的样本人头框对应的样本关键点位置向量,确定关键点损失值;根据位置损失值、第一人头损失值、人脸损失值、角度损失值以及关键点损失值,确定子损失值;若该样本检测框与任一样本人头框均不匹配,根据该样本检测框是否包含有人头的信息以及预设的第一数值,确定第二人头损失值;根据第二人头损失值,确定子损失值;以及根据每个样本检测框对应的子损失值的和,对原始联合检测模型进行训练。
在一种可能的实施方式中,训练模块83,具体用于:
若所匹配的样本人头框对应的第三角度标识值标识所匹配的样本人头框中不包含有人脸,将预设的第二数值确定为角度损失值。
在一种可能的实施方式中,训练模块83,具体用于:
若所匹配的样本人头框对应的样本关键点位置向量标识所匹配的样本人头框中不包含有人脸,将预设的第三数值确定为关键点损失值。
实施例10:如图9为本发明实施例提供的一种电子设备结构示意图,在上述各实施例的基础上,电子设备包括:处理器91、通信接口92、存储器93和通信总线94,其中,处理器91,通信接口92,存储器93通过通信总线94完成相互间的通信;存储器93中存储有计算机程序,当程序被处理器91执行时,使得处理器91执行如下步骤:
通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息;根据目标检测框的位置信息和/或目标检测框中是否包含有人脸的信息,确定客流数据。
由于上述电子设备解决问题的原理与数据处理方法相似,因此上述电子设备的实施可以参见方法的实施,重复之处不再赘述。
实施例11:如图10为本发明实施例提供的一种电子设备结构示意图,在上述各实施例的基础上,电子设备包括:处理器1001、通信接口1002、存储器1003和通信总线1004,其中,处理器1001,通信接口1002,存储器1003通过通信总线1004完成相互间的通信;
存储器1003中存储有计算机程序,当程序被处理器1001执行时,使得处理器1001执行如下步骤:获取样本集中任一样本图像,样本图像中标记有每个样本人头框的第一位置信息、每个样本人头框对应的第一标识值以及第二标识值,其中,第一标识值用于标识样本人头框中包含有人头,第二标识值用于标识样本人头框中是否包含有人脸;通过原始联合检测模型,获取样本图像中每个包含有人头的样本检测框的第二位置信息、以及每个样本检测框中是否包含有人脸的信息;根据样本检测框的第二位置信息与对应的样本人头框的第一位置信息、样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、以及样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值,对原始联合检测模型进行训练。
由于上述电子设备解决问题的原理与联合检测模型的训练方法相似,因此上述电子设备的实施可以参见方法的实施,重复之处不再赘述。
上述实施例中电子设备提到的通信总线可以是外设部件互连标准(PeripheralComponent Interconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口1002用于上述电子设备与其他设备之间的通信。存储器可以包括随机存取存储器(RandomAccess Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选地,存储器还可以是至少一个位于远离前述处理器的存储装置。上述处理器可以是通用处理器,包括中央处理器、网络处理器(Network Processor,NP)等;还可以是数字指令处理器(Digital Signal Processing,DSP)、专用集成电路、现场可编程门陈列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
实施例12:在上述各实施例的基础上,本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质内存储有可由处理器执行的计算机程序,当程序在处理器上运行时,使得处理器执行时实现如下步骤:
通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个目标检测框中是否包含有人脸的信息;根据目标检测框的位置信息和/或目标检测框中是否包含有人脸的信息,确定客流数据。
由于计算机可读存储介质解决问题的原理与上述实施例中的数据处理方法相似,因此具体实施可以参见数据处理方法的实施,重复之处不再赘述。
实施例13:在上述各实施例的基础上,本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质内存储有可由处理器执行的计算机程序,当程序在处理器上运行时,使得处理器执行时实现如下步骤:
获取样本集中任一样本图像,样本图像中标记有每个样本人头框的第一位置信息、每个样本人头框对应的第一标识值以及第二标识值,其中,第一标识值用于标识样本人头框中包含有人头,第二标识值用于标识样本人头框中是否包含有人脸;通过原始联合检测模型,获取样本图像中每个包含有人头的样本检测框的第二位置信息、以及每个样本检测框中是否包含有人脸的信息;根据样本检测框的第二位置信息与对应的样本人头框的第一位置信息、样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、以及样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值,对原始联合检测模型进行训练。
由于计算机可读存储介质解决问题的原理与上述实施例中的联合检测模型的训练方法相似,因此具体实施可以参见数据处理方法的实施。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (23)
1.一种数据处理方法,其特征在于,所述方法包括:
通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、每个所述目标检测框中是否包含有人脸的信息、以及每个所述目标检测框对应的第一角度标识值,其中,所述第一角度标识值用于标识包含有人脸的目标检测框中的人脸的角度值,或者标识所述目标检测框中不包含有人脸;
根据所述目标检测框的位置信息、所述目标检测框中是否包含有人脸的信息以及所述目标检测框对应的第一角度标识值,确定客流数据;
其中,所述确定客流数据,包括:
确定所述目标检测框的标识信息;
若所述标识信息与当前统计队列中保存的任一统计标识均不匹配,且所述标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件,确定所述标识信息满足第一更新条件;
若所述标识信息满足预设的第一更新条件且所述目标检测框中包含有人脸,更新当前保存的客流数据中的注意力次数参数。
2.根据权利要求1所述的方法,其特征在于,确定所述标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件,包括:
若连续设定数量的待识别图像中均存在所述标识信息对应的目标检测框,且所述连续设定数量的待识别图像中所述标识信息对应的目标检测框对应的第一角度标识值均小于预设的角度阈值,则确定所述标识信息对应的目标检测框对应的第一角度标识值满足所述第二更新条件。
3.根据权利要求1所述的方法,其特征在于,所述通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个所述目标检测框中是否包含有人脸的信息,包括:
通过所述联合检测模型的特征提取网络层,获取所述待识别图像的特征向量;
将所述特征向量分别输入至所述联合检测模型的位置检测层、人头分类层和人脸分类层,以获取在所述待识别图像中识别到的各检测框对应的第一位置向量、各检测框对应的第一人头分类向量以及各检测框对应的第一人脸分类向量;
通过所述联合检测模型的输出层,基于所述第一位置向量、所述第一人头分类向量、以及所述第一人脸分类向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个所述目标检测框中是否包含有人脸的信息。
4.根据权利要求3所述的方法,其特征在于,所述通过所述联合检测模型的输出层,基于所述第一位置向量、所述第一人头分类向量、以及所述第一人脸分类向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个所述目标检测框中是否包含有人脸的信息,包括:
通过所述联合检测模型的输出层,基于所述第一位置向量,按照顺序依次确定每个检测框对应的位置信息以及第一索引值,所述第一索引值用于标识所述检测框对应的位置信息在所述第一位置向量中的位置;并基于所述第一人头分类向量,按照顺序依次确定所述每个检测框是否包含有人头的信息以及第二索引值,所述第二索引值用于标识所述检测框是否包含有人头的信息在所述第一人头分类向量中的位置;并基于所述第一人脸分类向量,按照顺序依次确定所述每个检测框是否包含有人脸的信息以及第三索引值,所述第三索引值用于标识所述检测框是否包含有人脸的信息在所述第一人脸分类向量中的位置;
从所述第二索引值中确定包含有人头的目标检测框对应的目标第二索引值,从所述第一索引值中确定与所述目标第二索引值相同的目标第一索引值,以及从所述第三索引值中确定与所述目标第二索引值相同的目标第三索引值;
将所述目标第一索引值对应的检测框的位置信息、所述目标第三索引值对应的检测框是否包含有人脸的信息,确定为所述目标检测框的位置信息、以及所述目标检测框中是否包含有人脸的信息。
5.根据权利要求1所述的方法,其特征在于,所述确定客流数据,还包括:
若所述目标检测框的标识信息满足预设的第三更新条件,更新当前保存的客流数据中的客流值参数。
6.根据权利要求1所述的方法,其特征在于,所述联合检测模型的训练过程包括:
获取样本集中任一样本图像,所述样本图像中标记有每个样本人头框的第一位置信息、所述每个样本人头框对应的第一标识值、第二标识值及样本关键点位置向量,其中,所述第一标识值用于标识所述样本人头框中包含有人头,所述第二标识值用于标识所述样本人头框中是否包含有人脸;
通过原始联合检测模型,获取所述样本图像中每个包含有人头的样本检测框的第二位置信息、每个所述样本检测框中是否包含有人脸的信息、以及每个所述样本检测框对应的关键点位置向量;
根据所述样本检测框的第二位置信息与对应的样本人头框的第一位置信息、所述样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、所述样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值、以及所述样本检测框对应的关键点位置向量与对应的样本人头框对应的样本关键点位置向量,对所述原始联合检测模型进行训练。
7.根据权利要求6所述的方法,其特征在于,所述样本图像中还标记有所述每个样本人头框对应的第三角度标识值,所述第三角度标识值用于标识包含有人脸的样本人头框中的人脸的角度值,或者标识所述样本人头框中不包含有人脸;
所述方法还包括:通过所述原始联合检测模型,获取所述样本检测框对应的第二角度标识值,所述第二角度标识值用于标识包含有人脸的样本检测框中的人脸的角度值,或者标识所述样本检测框中不包含有人脸;
对所述原始联合检测模型进行训练,还包括:根据所述样本检测框对应的第二角度标识值与对应的样本人头框对应的第三角度标识值,对所述原始联合检测模型进行训练。
8.根据权利要求6所述的方法,其特征在于,对所述原始联合检测模型进行训练,包括:
针对每个样本检测框,若该样本检测框与任一样本人头框匹配,根据该样本检测框的第二位置信息以及所匹配的样本人头框的第一位置信息,确定位置损失值;根据该样本检测框是否包含有人头的信息以及所匹配的样本人头框对应的第一标识值,确定第一人头损失值;根据该样本检测框是否包含有人脸的信息以及所匹配的样本人头框对应的第二标识值,确定人脸损失值;根据该样本检测框对应的第二角度标识值、以及所匹配的样本人头框对应的第三角度标识值,确定角度损失值;根据该样本检测框对应的关键点位置向量、以及所匹配的样本人头框对应的样本关键点位置向量,确定关键点损失值;根据所述位置损失值、所述第一人头损失值、所述人脸损失值、所述角度损失值以及所述关键点损失值,确定子损失值;若该样本检测框与任一样本人头框均不匹配,根据该样本检测框是否包含有人头的信息以及预设的第一数值,确定第二人头损失值;根据所述第二人头损失值,确定子损失值;
根据每个样本检测框对应的子损失值的和,对所述原始联合检测模型进行训练。
9.根据权利要求8所述的方法,其特征在于,所述根据该样本检测框对应的第二角度标识值、以及所匹配的样本人头框对应的第三角度标识值,确定角度损失值,包括:
若所匹配的样本人头框对应的第三角度标识值标识所匹配的样本人头框中不包含有人脸,将预设的第二数值确定为所述角度损失值。
10.根据权利要求8所述的方法,其特征在于,所述根据该样本检测框对应的关键点位置向量、以及所匹配的样本人头框对应的样本关键点位置向量,确定关键点损失值,包括:
若所匹配的样本人头框对应的样本关键点位置向量标识所匹配的样本人头框中不包含有人脸,将预设的第三数值确定为所述关键点损失值。
11.根据权利要求7所述的方法,其特征在于,所述角度值包括偏航角度值、俯仰角度值以及横滚角度值中的至少一个。
12.一种数据处理装置,其特征在于,所述装置包括:
获取单元,用于通过联合检测模型,获取待识别图像中每个包含有人头的目标检测框的位置信息、每个所述目标检测框中是否包含有人脸的信息、以及每个所述目标检测框对应的第一角度标识值,其中,所述第一角度标识值用于标识包含有人脸的目标检测框中的人脸的角度值,或者标识所述目标检测框中不包含有人脸;
处理单元,用于根据所述目标检测框的位置信息、所述目标检测框中是否包含有人脸的信息以及所述目标检测框对应的第一角度标识值,确定客流数据;
所述处理单元具体用于:确定所述目标检测框的标识信息;若所述标识信息与当前统计队列中保存的任一统计标识均不匹配,且所述标识信息对应的目标检测框对应的第一角度标识值满足预设的第二更新条件,确定所述标识信息满足第一更新条件;若所述标识信息满足预设的第一更新条件且所述目标检测框中包含有人脸,更新当前保存的客流数据中的注意力次数参数。
13.根据权利要求12所述的装置,其特征在于,所述处理单元具体用于:
若连续设定数量的待识别图像中均存在所述标识信息对应的目标检测框,且所述连续设定数量的待识别图像中所述标识信息对应的目标检测框对应的第一角度标识值均小于预设的角度阈值,则确定所述标识信息对应的目标检测框对应的第一角度标识值满足所述第二更新条件。
14.根据权利要求12所述的装置,其特征在于,所述获取单元具体用于:
通过所述联合检测模型的特征提取网络层,获取所述待识别图像的特征向量;将所述特征向量分别输入至所述联合检测模型的位置检测层、人头分类层和人脸分类层,以获取在所述待识别图像中识别到的各检测框对应的第一位置向量、各检测框对应的第一人头分类向量以及各检测框对应的第一人脸分类向量;通过所述联合检测模型的输出层,基于所述第一位置向量、所述第一人头分类向量、以及所述第一人脸分类向量,获取待识别图像中每个包含有人头的目标检测框的位置信息、以及每个所述目标检测框中是否包含有人脸的信息。
15.根据权利要求14所述的装置,其特征在于,所述获取单元具体用于:
通过所述联合检测模型的输出层,基于所述第一位置向量,按照顺序依次确定每个检测框对应的位置信息以及第一索引值,所述第一索引值用于标识所述检测框对应的位置信息在所述第一位置向量中的位置;并基于所述第一人头分类向量,按照顺序依次确定所述每个检测框是否包含有人头的信息以及第二索引值,所述第二索引值用于标识所述检测框是否包含有人头的信息在所述第一人头分类向量中的位置;并基于所述第一人脸分类向量,按照顺序依次确定所述每个检测框是否包含有人脸的信息以及第三索引值,所述第三索引值用于标识所述检测框是否包含有人脸的信息在所述第一人脸分类向量中的位置;从所述第二索引值中确定包含有人头的目标检测框对应的目标第二索引值,从所述第一索引值中确定与所述目标第二索引值相同的目标第一索引值,以及从所述第三索引值中确定与所述目标第二索引值相同的目标第三索引值;将所述目标第一索引值对应的检测框的位置信息、所述目标第三索引值对应的检测框是否包含有人脸的信息,确定为所述目标检测框的位置信息、以及所述目标检测框中是否包含有人脸的信息。
16.根据权利要求12所述的装置,其特征在于,所述处理单元还用于:
若所述目标检测框的标识信息满足预设的第三更新条件,更新当前保存的客流数据中的客流值参数。
17.根据权利要求12所述的装置,其特征在于,所述装置还包括:
第一获取模块,用于获取样本集中任一样本图像,所述样本图像中标记有每个样本人头框的第一位置信息、所述每个样本人头框对应的第一标识值、第二标识值及样本关键点位置向量,其中,所述第一标识值用于标识所述样本人头框中包含有人头,所述第二标识值用于标识所述样本人头框中是否包含有人脸;
第二获取模块,用于通过原始联合检测模型,获取所述样本图像中每个包含有人头的样本检测框的第二位置信息、每个所述样本检测框中是否包含有人脸的信息、以及每个所述样本检测框对应的关键点位置向量;
训练模块,用于根据所述样本检测框的第二位置信息与对应的样本人头框的第一位置信息、所述样本检测框是否包含有人头的信息与对应的样本人头框对应的第一标识值、所述样本检测框是否包含有人脸的信息与对应的样本人头框对应的第二标识值、以及所述样本检测框对应的关键点位置向量与对应的样本人头框对应的样本关键点位置向量,对所述原始联合检测模型进行训练。
18.根据权利要求17所述的装置,其特征在于,所述样本图像中还标记有所述每个样本人头框对应的第三角度标识值,所述第三角度标识值用于标识包含有人脸的样本人头框中的人脸的角度值,或者标识所述样本人头框中不包含有人脸;
所述第二获取模块,还用于通过所述原始联合检测模型,获取所述样本检测框对应的第二角度标识值,所述第二角度标识值用于标识包含有人脸的样本检测框中的人脸的角度值,或者标识所述样本检测框中不包含有人脸;
所述训练模块,还用于根据所述样本检测框对应的第二角度标识值与对应的样本人头框对应的第三角度标识值,对所述原始联合检测模型进行训练。
19.根据权利要求17所述的装置,其特征在于,所述训练模块具体用于:
针对每个样本检测框,若该样本检测框与任一样本人头框匹配,根据该样本检测框的第二位置信息以及所匹配的样本人头框的第一位置信息,确定位置损失值;根据该样本检测框是否包含有人头的信息以及所匹配的样本人头框对应的第一标识值,确定第一人头损失值;根据该样本检测框是否包含有人脸的信息以及所匹配的样本人头框对应的第二标识值,确定人脸损失值;根据该样本检测框对应的第二角度标识值、以及所匹配的样本人头框对应的第三角度标识值,确定角度损失值;根据该样本检测框对应的关键点位置向量、以及所匹配的样本人头框对应的样本关键点位置向量,确定关键点损失值;根据所述位置损失值、所述第一人头损失值、所述人脸损失值、所述角度损失值以及所述关键点损失值,确定子损失值;若该样本检测框与任一样本人头框均不匹配,根据该样本检测框是否包含有人头的信息以及预设的第一数值,确定第二人头损失值;根据所述第二人头损失值,确定子损失值;
根据每个样本检测框对应的子损失值的和,对所述原始联合检测模型进行训练。
20.根据权利要求19所述的装置,其特征在于,所述训练模块具体用于:
若所匹配的样本人头框对应的第三角度标识值标识所匹配的样本人头框中不包含有人脸,将预设的第二数值确定为所述角度损失值。
21.根据权利要求19所述的装置,其特征在于,所述训练模块具体用于:
若所匹配的样本人头框对应的样本关键点位置向量标识所匹配的样本人头框中不包含有人脸,将预设的第三数值确定为所述关键点损失值。
22.一种电子设备,其特征在于,所述电子设备至少包括处理器和存储器,所述处理器用于执行存储器中存储的计算机程序时,实现如权利要求1-11中任一所述数据处理方法的步骤。
23.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时,实现如权利要求1-11中任一所述数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010863364.8A CN111950507B (zh) | 2020-08-25 | 2020-08-25 | 数据处理和模型训练方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010863364.8A CN111950507B (zh) | 2020-08-25 | 2020-08-25 | 数据处理和模型训练方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111950507A CN111950507A (zh) | 2020-11-17 |
CN111950507B true CN111950507B (zh) | 2024-06-11 |
Family
ID=73367614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010863364.8A Active CN111950507B (zh) | 2020-08-25 | 2020-08-25 | 数据处理和模型训练方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111950507B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613540A (zh) * | 2020-12-07 | 2021-04-06 | 北京迈格威科技有限公司 | 目标检测方法、装置和电子系统 |
CN113822111B (zh) * | 2021-01-19 | 2024-05-24 | 北京京东振世信息技术有限公司 | 人群检测模型训练方法、装置以及人群计数方法、装置 |
CN113627403B (zh) * | 2021-10-12 | 2022-03-08 | 深圳市安软慧视科技有限公司 | 一种选图推图方法、系统及相关设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222673A (zh) * | 2019-06-21 | 2019-09-10 | 杭州宇泛智能科技有限公司 | 一种基于头部检测的客流统计方法 |
CN111274848A (zh) * | 2018-12-04 | 2020-06-12 | 北京嘀嘀无限科技发展有限公司 | 一种图像检测方法、装置、电子设备及存储介质 |
CN111444850A (zh) * | 2020-03-27 | 2020-07-24 | 北京爱笔科技有限公司 | 一种图片检测的方法和相关装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5391951B2 (ja) * | 2009-09-10 | 2014-01-15 | 大日本印刷株式会社 | 顔検出結果分析システム,顔検出結果分析装置及びコンピュータプログラム |
CN103021059A (zh) * | 2012-12-12 | 2013-04-03 | 天津大学 | 一种基于视频监控的公交客流计数方法 |
TW201501044A (zh) * | 2013-06-24 | 2015-01-01 | Utechzone Co Ltd | 偵測臉部動作以產生訊號的裝置、方法以及電腦可讀取紀錄媒體 |
-
2020
- 2020-08-25 CN CN202010863364.8A patent/CN111950507B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111274848A (zh) * | 2018-12-04 | 2020-06-12 | 北京嘀嘀无限科技发展有限公司 | 一种图像检测方法、装置、电子设备及存储介质 |
CN110222673A (zh) * | 2019-06-21 | 2019-09-10 | 杭州宇泛智能科技有限公司 | 一种基于头部检测的客流统计方法 |
CN111444850A (zh) * | 2020-03-27 | 2020-07-24 | 北京爱笔科技有限公司 | 一种图片检测的方法和相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111950507A (zh) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416250B (zh) | 人数统计方法及装置 | |
US11188783B2 (en) | Reverse neural network for object re-identification | |
CN112132119B (zh) | 客流统计方法、装置、电子设备和存储介质 | |
CN109272509B (zh) | 一种连续图像的目标检测方法、装置、设备及存储介质 | |
CN109325964B (zh) | 一种人脸追踪方法、装置及终端 | |
CN108009473A (zh) | 基于目标行为属性视频结构化处理方法、系统及存储装置 | |
CN109978893A (zh) | 图像语义分割网络的训练方法、装置、设备及存储介质 | |
CN108052859A (zh) | 一种基于聚类光流特征的异常行为检测方法、系统及装置 | |
CN113177968A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN111950507B (zh) | 数据处理和模型训练方法、装置、设备及介质 | |
CN108230291B (zh) | 物体识别系统训练方法、物体识别方法、装置和电子设备 | |
EP4035070B1 (en) | Method and server for facilitating improved training of a supervised machine learning process | |
CN107025658A (zh) | 采用单个相机检测运动物体的方法和系统 | |
CN106897681A (zh) | 一种遥感图像对比分析方法及系统 | |
CN110147699A (zh) | 一种图像识别方法、装置以及相关设备 | |
CN115690545B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN111652181A (zh) | 目标跟踪方法、装置及电子设备 | |
CN109902681B (zh) | 用户群体关系确定方法、装置、设备及存储介质 | |
CN113673308B (zh) | 对象识别方法、装置和电子系统 | |
CN111539390A (zh) | 一种基于Yolov3的小目标图像识别方法、设备和系统 | |
Yao et al. | Mask guided GAN for density estimation and crowd counting | |
CN111626212B (zh) | 图片中对象的识别方法和装置、存储介质及电子装置 | |
CN112446355A (zh) | 一种公共场所行人识别方法及人流统计系统 | |
CN101567088B (zh) | 一种运动物体检测的方法和装置 | |
CN111291597B (zh) | 一种基于图像的人群态势分析方法、装置、设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |