[go: up one dir, main page]

CN105844128A - 身份识别方法和装置 - Google Patents

身份识别方法和装置 Download PDF

Info

Publication number
CN105844128A
CN105844128A CN201510019275.4A CN201510019275A CN105844128A CN 105844128 A CN105844128 A CN 105844128A CN 201510019275 A CN201510019275 A CN 201510019275A CN 105844128 A CN105844128 A CN 105844128A
Authority
CN
China
Prior art keywords
identity
image data
user
classifier
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510019275.4A
Other languages
English (en)
Other versions
CN105844128B (zh
Inventor
王晓涛
王强
毛文涛
郭萍
王山东
邵光琪
李圭彬
朴根柱
柳賢錫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Original Assignee
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Samsung Telecommunications Technology Research Co Ltd, Samsung Electronics Co Ltd filed Critical Beijing Samsung Telecommunications Technology Research Co Ltd
Priority to CN201510019275.4A priority Critical patent/CN105844128B/zh
Priority to KR1020150173971A priority patent/KR102465532B1/ko
Priority to US14/995,275 priority patent/US10127439B2/en
Publication of CN105844128A publication Critical patent/CN105844128A/zh
Application granted granted Critical
Publication of CN105844128B publication Critical patent/CN105844128B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

本发明提供了一种身份识别方法和装置,所述方法包括:利用动态视觉传感器采集信号并输出检测的事件点;累积一段时间内的事件点形成图像数据;利用身份分类器根据所述图像数据进行身份识别;其中,所述身份分类器是用户身份注册时,根据所述动态视觉传感器针对所述用户采集的信号所形成的图像数据预先训练出来的。应用本发明,可以以低能耗、简单方便的操作进行身份识别,同时保护用户的隐私。

Description

身份识别方法和装置
技术领域
本发明涉及智能设备技术领域,具体而言,本发明涉及一种身份识别方法和装置。
背景技术
随着安全性需求的不断增长,身份识别技术广泛应用于监控、门禁系统、智能设备领域。例如,智能设备在解锁之前,可以先对智能设备的持有者进行身份识别,若识别出的身份与预先注册的用户身份符合,则智能设备进行解锁;否则,可以仍处于上锁状态、或进行告警。其中,智能设备可以具体为智能手机、智能眼镜、智能电视、智能家居、智能汽车等。
目前,传统的身份识别方法主要包括两种;一种是通过钥匙、身份证、智能卡等物品进行身份识别;另一种是基于认证信息(比如,口令、密码、特定操作等)进行身份识别。例如,在智能手机上弹出的交互界面输入已设置好的解锁密码,通过验证密码完成身份识别;或者,也可以通过在智能手机的屏幕上按照特定方式进行滑动(比如滑动屏幕中的方块或者按照特定顺序连接屏幕中的点等)完成身份识别。
然而,由于密码、口令等认证信息、以及钥匙、智能卡等认证物品存在可能会被其他用户获取的情况,因此,导致上述传统的身份识别方法存在易被冒名顶替的问题,即安全性不高。而且,通过上述身份识别方法进行身份识别的操作较为繁琐,例如在输入密码、连接屏幕中的点时,需要通过触摸屏幕完成操作,且往往需要双手协调操作,降低用户的体验度。
考虑到相比传统的认证信息、认证物品,人物属性并不容易被获取,因此,现有还存在一种安全性更高的、基于人物属性的身份识别方法,其主要是通过传统的基于CCD(Charge-coupled Device,电荷耦合元件)或CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)的摄像设备获取用户的人物图像信息(比如,眼睛、脸部、手部、动作图像等),将采集的用户的人物图像信息与预存的注册用户的人物图像信息进行匹配,识别用户身份。
然而,现有的基于人物属性的身份识别方法存在能耗高的不足。虽然,现有可以通过先唤醒再解锁的方式来节省电能,但增加了用户操作。因此,有必要提供一种操作简单、且能耗低的身份识别方法。
发明内容
本发明的目的旨在至少解决上述技术缺陷之一,特别是操作繁琐、能耗高的问题。
本发明提供了一种身份识别方法,包括:
利用动态视觉传感器采集信号并输出检测的事件点;
累积一段时间内的事件点形成图像数据;
利用身份分类器根据所述图像数据进行身份识别。
本发明方案还提供了身份识别装置,包括:
信号采集单元,用于利用动态视觉传感器采集信号并输出检测的事件点;
目标成像单元,用于累积所述信号采集单元输出的一段时间内的事件点形成图像数据;
身份识别子单元,用于利用身份分类器根据所述目标成像单元输出的所述图像数据进行身份识别。
本实施例的方案中,可以利用动态视觉传感器针对身份注册的用户采集信号,并根据采集的信号所形成的图像数据预先训练出身份分类器。这样,在后续进行身份识别时,可以利用动态视觉传感器采集信号,将检测出的事件点累计一段时间形成图像数据;利用身份分类器根据形成的图像数据进行身份识别。
相比现有的身份识别方法,本发明提供的方案中,低能耗的动态视觉传感器可以时时采集信号,只要用户在动态视觉传感器的视场内移动,动态视觉传感器就可以及时有效的捕捉用户以及用户的动作;并根据动态视觉传感器采集的信号进行身份识别,不需要用户先唤醒终端设备、也不需要用户在终端设备的屏幕上进行额外的操作,操作简单方便。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1a为本发明实施例的身份分类器训练方法的流程示意图;
图1b为本发明实施例的用户图像数据的图像示意图;
图2为本发明实施例的基于动态视觉技术的身份识别方法的流程示意图;
图3a为本发明实施例的利用身份分类器进行身份识别的方法流程示意图;
图3b为本发明实施例检测出的目标区域的图像示意图;
图4为本发明实施例的部件分类器训练方法的流程示意图;
图5为本发明实施例的基于动态视觉技术的身份识别装置的结构示意图;
图6为本发明实施例的身份识别子单元的内部结构示意图;
图7为本发明实施例的动作识别单元的内部结构示意图。
具体实施方式
以下将结合附图对本发明的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本发明所保护的范围。
本申请使用的“模块”、“系统”等术语旨在包括与计算机相关的实体,例如但不限于硬件、固件、软硬件组合、软件或者执行中的软件。例如,模块可以是,但并不仅限于:处理器上运行的进程、处理器、对象、可执行程序、执行的线程、程序和/或计算机。举例来说,计算设备上运行的应用程序和此计算设备都可以是模块。一个或多个模块可以位于执行中的一个进程和/或线程内,一个模块也可以位于一台计算机上和/或分布于两台或更多台计算机之间。
本发明的发明人发现,现有的基于人物属性的身份识别方法存在能耗高的原因在于:在进行身份识别的过程中,需要一直开启传统的摄像设备进行人物图像信息的采集,而传统的摄像设备的能耗通常比较大,由此造成整个身份识别过程的能耗大。
进一步地,本发明的发明人还发现,动态视觉传感器只对像素亮度变化在一定程度以上的事件点做出响应,且具有能耗低、光照条件宽泛等特点。而能耗低可以使其在移动设备等终端待机时处于工作状态,能够及时、快速地采集信号;一旦用户需要解锁终端设备时能够及时做出响应。光照条件宽泛可以使得动态视觉传感器在不同的环境背景下有效工作,即使处于黑暗光源很弱的环境也可以采集信号。
而且,基于动态视觉传感器采集的信号所形成的图像只大致反映了移动目标的轮廓信息,没有颜色、纹理等常规模态信息,并且自动剔除了移动目标所处的场景中未发生移动的背景,使得动态视觉传感器还具有保密性强的特点,这样,即使在终端设备被攻击的情况下也不会泄漏用户的信息,有利于保护用户的隐私、提高用户信息的安全性、以及用户的体验度。
因此,本发明的发明人考虑到,可以利用动态视觉传感器针对注册用户采集信号,并根据采集的信号所形成的图像数据预先训练出身份分类器。这样,在后续进行身份识别时,可以利用动态视觉传感器针对待识别的用户采集信号,将检测出的事件点累计一段时间形成图像数据;继而,利用身份分类器根据形成的图像数据进行身份识别。
相比现有的身份识别方法,本发明提供的方案中,低能耗的动态视觉传感器可以时时采集信号,用户只需在动态视觉传感器的视场内移动,动态视觉传感器就可以及时有效地捕捉用户及用户的动作;继而,根据动态视觉传感器采集的信号即可进行身份识别,不需要用户事先唤醒终端设备、也不需要用户在终端设备的屏幕上进行额外的操作来进行身份识别,操作简单方便。
下面结合附图详细说明本发明的技术方案。
本发明实施例中,在进行身份识别之前,可以预先训练用于进行身份识别的身份分类器;例如,智能设备可以在用户身份注册时,根据动态视觉传感器针对用户采集的信号所形成的图像数据预先训练出来上述身份分类器;具体地,如图1a所示,可以通过如下步骤进行训练:
S101:在进行用户身份注册时,利用动态视觉传感器针对用户采集动态视觉信号。
具体地,可以在智能设备中先进行用户身份的注册。例如,注册的用户可以通过按键、语音等方式向智能设备输入注册指令,智能设备接收到注册指令后,进入注册模式;
在注册模式中,智能设备利用动态视觉传感器针对该用户进行动态视觉信号的采集。例如,在注册模式中,用户在智能设备的动态视觉传感器的视场内移动自己的头部时,将动态视觉传感器采集的信号作为用户头部的动态视觉信号。
事实上,智能设备的注册的用户可以是一个或多个;针对用户所采集的动态视觉信号,可以是指针对用户的某个部位所采集的动态视觉信号,也可以是指针对用户整体采集的动态视觉信号。
S102:从采集的动态视觉信号中检测出事件点并将动态视觉传感器输出的事件点作为用户事件点。
实际应用中,由于动态视觉传感器只对像素亮度变化一定程度以上的事件点做出响应,传输并存储响应的事件点。因此,可以将动态视觉传感器输出的事件点作为智能设备在注册模式中所使用的用户事件点。
S103:将一段时间内的事件点映射为图像数据,即,累积一段时间内的用户事件点形成用户图像数据。
具体地,智能设备可以累积一段时间内(比如,20ms)的用户事件点后,根据各用户事件点的坐标位置、响应先后关系及空间临近关系,将步骤S102所得到的用户事件点转换成相应的图像信号,形成用户图像数据。从如图1b所示的用户图像数据中可以看出,转换的图像信号只大致反映了移动的注册用户的轮廓和部分纹理信息,而直接忽略了背景中不会移动的物体,这样,有利于后续快速、准确地进行身份分类器的训练。
S104:利用用户图像数据、为用户图像数据标定的注册者身份,对深度卷积网络进行训练,得到身份分类器。
本步骤中,智能设备可以对步骤S103得到的注册用户的用户图像数据进行身份标定,例如可以直接标定为注册者。
而且,本领域技术人员还可以在智能设备中预先存储确定为非注册者的用户的图像数据(后续可以简称为非用户图像数据),并针对非用户图像数据对应存储预先标定的非注册者身份。
这样,智能设备可以将用户图像数据、以及非用户图像数据作为样本数据,并为样本数据标定相应的标定结果;其中,样本数据的标定结果具体包括:为用户图像数据标定的注册者身份,以及为非用户图像数据标定的非注册者身份。继而,可以利用样本数据及其标定结果,对深度卷积网络进行训练,得到身份分类器。实际应用中,利用深度卷积网络自动学习用户图像数据中的用户特征,以此训练身份预测模型并经过后向传播的方法优化网络参数后,可以提高最终得到的身份分类器的分类准确度。本领域技术人员可以采用现有方法对深度卷积网络进行训练,此处不再赘述。
实际应用中,得到的身份分类器可以用于对待识别的用户的身份进行识别,即识别用户是否为注册者,或者,更优地,在智能设备的注册用户为多个的情况下,身份分类器还可以用于进一步识别出用户具体是哪个注册用户。
因此,更优地,智能设备对步骤S103所形成的注册用户的用户图像数据进行身份标定时,为用户图像数据标定的注册者身份还可以进一步包括:注册者的用户标识。这样,得到的身份分类器在对用户身份进行识别后,其所输出的识别结果除了可以包括注册者、或者非注册者之外,还可以进一步包括:识别为注册者的用户标识。
其中,关于注册者的用户标识的标定,具体可以通过如下方式实现:在注册模式中,智能设备在利用动态视觉传感器针对该用户进行动态视觉信号的采集后,根据各个注册用户的先后关系进行自行标定,例如,标定的注册者的用户标识可以是注册者A、注册者B、或注册者C等。
或者,智能设备可以向注册用户返回提示输入自定义用户标识的提示信息,这样,注册用户可以通过按键、语音等方式向智能设备输入注册者的用户标识;智能设备接收到用户输入的注册者的用户标识后,利用接收到的注册者的用户标识为用户图像数据标定注册者身份。
实际应用中,在动态视觉传感器针对注册用户的某个部位的动态视觉信号进行采集的情况下,基于该动态视觉信号所训练得到的身份分类器是基于该部位的运动特征的身份分类器;运用该身份分类器可以针对不同用户的该部位的运动特征进行用户的身份识别。
更优地,还可以将动态视觉传感器针对注册用户的不同部位(比如用户的耳朵、脸部、头部、上半身等)采集的信号所形成的图像数据,都作为深度卷积网络的训练数据,对深度卷积网络进行训练,以此得到可以针对不同用户的各部位的综合运动特征进行用户的身份识别的身份分类器。由于通过该方法训练出来的身份分类器可以综合用户各部位的运动特征进行用户的身份识别,避免从一个部位的运动特征进行用户身份识别的局限性,从而可以进一步提高身份分类器进行身份识别的准确度。
基于上述身份分类器,本发明提供了一种基于动态视觉技术的身份识别方法,其具体流程如图2所示,可以包括如下步骤:
S201:利用动态视觉传感器采集信号并输出检测的事件点。
具体地,智能设备可以利用动态视觉传感器实时进行信号的采集,当待识别的用户在动态视觉传感器的视场内进行移动时,动态视觉传感器可以采集到待识别的用户的动态视觉信号,并输出检测的事件点。
例如,当待识别的用户将智能设备从头部以下的位置移动到耳边时,由于动态视觉传感器一直处于开启状态,因此动态视觉传感器可以快速地捕捉到用户的动作并采集到待识别的用户的动态视觉信号。
其中,对于动态视觉传感器输出的每一个事件点,该事件点具有一个像素坐标位置,但是同一个像素坐标位置可能对应多个事件点。因此,动态视觉传感器在输出事件点之前,需要根据事件点的响应先后关系去除掉重复的事件点,保留最新产生的事件点并输出。
实际应用中,在采集的信号中可能会存在系统、环境等造成的噪声,因此,动态视觉传感器可以根据事件点的响应先后关系及空间临近关系,去除信号中的噪声。
S202:将一段时间内的事件点映射为图像数据,即,累积一段时间内的事件点形成图像数据。
本步骤中,智能设备可以累积一段时间内(比如,20ms)的事件点,即累积待识别的用户在一段时间内移动时所响应的事件点;结合每个事件点的位置,将累积的事件点转换成图像数据。
S203:利用身份分类器根据图像数据进行身份识别;若识别结果为注册者,执行步骤S204;若识别结果为非注册者,则不执行后续步骤。
本步骤中,智能设备可以利用身份分类器根据上述步骤S202所得到的图像数据进行身份识别,得到的识别结果可以是注册者、或非注册者。因此,在进行身份识别后,可以进一步判断识别结果是否为注册者,若待识别的用户的识别结果为注册者,则执行步骤S204;否则,智能设备可以不执行后续步骤,并继续保持当前的状态。
更优地,在智能设备的注册用户为多个的情况下,若利用身份分类器得到的识别结果为注册者,则识别结果中还可以进一步包括:识别为注册者的用户标识。
其中,身份分类器可以通过上述步骤S101-S104训练得到,也可以通过其他训练方法来训练得到。例如,可以采用传统的拍摄设备采集设定数量的用户的图像数据,并作为样本放入注册用户的样本集中;将各样本经翻转、旋转、平移、放缩等变换增益样本集生成训练数据后,根据预先设计的目标特征,训练特征分类模型,得到用于对用户身份进行识别的身份分类器。其中,预先设计的目标特征可以是传统的人脸识别的HOG(Histogram of Oriented Gradient,梯度直方图)、M-SHIFT(Mean-Shift均值偏移)等;特征分类模型可以是KNN(k-Nearest Neighbor,k最邻近)分类算法、SVM(Support Vector Machine,支持向量机)、Boosting(推进)算法等。
关于智能设备如何利用身份分类器根据步骤S202所形成的图像数据进行身份识别,将在后续详细介绍。
实际应用中,智能设备在通过身份分类器识别出用户的身份后,可以根据识别结果进行一定的操作,例如,进行解锁操作或向注册用户发出告警等。
更优地,智能设备在通过上述步骤S201-S203识别用户身份的过程中、或者在识别出待识别的用户为注册者后,可以进行用户的动作识别。这样,在识别出待识别的用户为注册者后,可以根据识别出的注册者的动作匹配出相应的指令,并执行相应的操作,比如接听来电、开启车门等。
关于用户的动作的识别过程,具体可以包括如下步骤:
S204:根据检测出的事件点识别出运动部件的运动轨迹。
具体地,若智能设备通过步骤S203识别出待识别的用户的身份为注册者,则可以利用部件分类器针对步骤S201当前检测出的事件点识别出运动部件的类别和位置;并根据依次识别出的类别的运动部件的位置确定运动部件的运动轨迹。
其中,部件分类器是根据动态视觉传感器采集的样本信号所训练出来的,可以由其他设备训练得到、并存储于智能设备中,也可以由智能设备预先训练。关于部件分类器的训练方法将在后续详细介绍。
本步骤中,智能设备可以利用部件分类器根据当前检测出的事件点的邻居点,确定出该事件点所属运动部件的类别。
其中,事件点的邻居点可以通过如下方式来确定:
针对当前检测的事件点,确定出动态视觉传感器在检测出该事件点之前的设定时间间隔内所采集的所有事件点,从中选出在该事件点周边的设定空间范围(比如,80×80像素的矩形)内的事件点,并确定为该事件点的邻居点。
进一步地,智能设备在确定出所有检测出的事件点的所属运动部件的类别之后,还可以针对每种类别的运动部件,根据属于该类别的运动部件的各事件点的位置,确定出该类别的运动部件的位置。
例如,可以计算出属于同一类别的运动部件的事件点的中心位置;将计算出的中心位置作为该类别的运动部件的位置。实际应用中,可以使用本领域技术人员所公知的任何常用的聚类方式获得该中心位置。例如,可以采用K-means聚类方法获得运动部件的中心位置,以便于后续的运动部件的准确跟踪。
本步骤中,在通过步骤S202识别出运动部件的类别和位置后,可以根据依次识别出的该类别的运动部件的位置,确定出该类别的运动部件的运动轨迹。
实际应用中,可以使用本领域技术人员常用的跟踪算法来进行运动部件的运动轨迹的确定,比如,平滑滤波器、时序跟踪算法等等,在此不再详述。
更优地,本发明实施例中,智能设备在识别出运动部件的类别和位置后,还可以对识别出的运动部件的类别进行区域合理性验证,将错误判断的运动部件的位置进行排除,以此提高后续运动部件的跟踪效率,提高动作识别的准确度。
具体地,智能设备可以判断当前识别出的类别的运动部件的位置是否在合理区域范围内;若是,则通过验证;否则,验证不通过。若识别出的运动部件的类别通过验证,则将识别出的运动部件的类别和位置对应记录。比如,可以记录在预先构建的跟踪部件列表中,跟踪部件列表中用于对运动部件的位置进行跟踪记录。这样,可以根据跟踪部件列表中依次记录的该类别的运动部件的位置确定运动轨迹。
其中,合理区域范围是根据上次记录的该类别的运动部件的位置以及该类别的运动部件的位置范围先验知识确定的。例如,当运动部件具体为人体的头部、或手部等具体部位时,可以将当前识别出的该类别的运动部件(比如,头部、或手部)的位置与上次记录的该类别的运动部件的位置进行距离计算,如果距离符合一定的条件,且符合常规人体形态的经验知识时,说明当前识别出的类别的运动部件的位置在合理区域范围内。
实际应用中,由于动态视觉传感器成像的特殊性,在运动部件出现短暂的暂停时,根据动态视觉传感器检测出的事件点所反映出的运动部件可能会出现运动轨迹短暂消失的情况。因此,可以通过维护跟踪部件列表来实现对不同运动部件的连续的跟踪,并且对运动位置进行平滑处理。其中,平滑处理的过程可以使用常用的平滑处理手段比如卡尔曼滤波方式等。
S205:根据运动部件的运动轨迹匹配出相应指令。
具体地,智能设备可以从上一步骤S204确定出的运动部件的运动轨迹中提取轨迹特征;在动作字典中针对运动部件查找是否存储有与提取的轨迹特征相匹配的特征;若有,则将与查找到的特征相对应的指令作为与运动部件的运动轨迹相应的指令。
其中,动作字典由技术人员进行预先构建;动作字典中预先针对每种类别的运动部件,存储有与该类别的运动部件相匹配的运动轨迹的特征,且对应记录有预先设定的动作指令,比如,接听手机指令、开启车门指令等。
S206:根据匹配出的指令执行相应操作。
具体地,智能设备可以根据步骤S205所匹配出的指令执行相应操作。
例如,当通过步骤S204识别出运动部件的类别为鼻子或耳朵时,智能设备可以通过步骤S205确定出鼻子或耳朵的运动轨迹,并根据确定出的鼻子或耳朵的运动轨迹匹配出相应指令,比如自动接听指令。这样,智能设备可以根据指令执行相应操作,比如执行自动接听操作。
或者,当通过步骤S204识别出运动部件的类别为鼻子、眼睛、或手指;相应地,智能设备可以根据鼻子、眼睛、或手指的运动轨迹匹配出相应的自动开锁/危险提醒指令后,执行开锁/危险提醒操作。
本发明实施例中,关于步骤S203所提及的如何利用身份分类器根据步骤S202所形成的图像数据进行身份识别的过程,具体如图3a所示,可以通过如下步骤来实现:
S301:检测图像数据中的目标区域。
具体地,智能设备可以对步骤S202形成的每一帧图像数据进行检测,从图像数据中检测出目标区域;其中,目标区域是预先设定的,例如人脸区域、头部区域、手部区域、身体区域等等。
实际应用中,由于动态视觉传感器采集的信号中已经自动滤除了不会移动的背景,再通过去除信号中系统、环境等导致的噪声后,理论上动态视觉传感器输出的所有的事件点都应该是待识别的用户移动所产生的响应。因此,可以采用本领域技术人员所熟知的现有方法,基于图像数据的水平、竖直方向的投影直方图,确定出目标区域的水平、竖直的边界。
例如,在目标区域具体是指头部区域时,可以将竖直方向固定深度的图像向水平轴投影(去除肩膀等的影响),得到投影直方图,根据直方图的连续性确定目标头部的宽度值及左右边界;再根据预设的头部的平均长宽比计算出目标头部的高度,即得到了目标头部的上下边界,进而检测到头部区域,如图3b所示。
S302:对目标区域进行正则化。
实际应用中,由于用户在不同时刻的移动过程中,智能设备与用户的物理距离可能不同,这样会导致步骤S301所检测出的目标区域(例如头部)在图像中的大小不同;若直接利用这样的输入进行身份识别将影响识别结果的准确性。因此,智能设备可以将检测的目标区域转化到同一尺寸上,即进行尺寸的归一化处理。例如,可以在得到目标区域的宽度后,将其缩放到固定的宽度,并记录缩放的比例,在竖直方向上做同样的操作。
进一步地,考虑到光照条件对图像数据的影响,智能设备还可以对检测目标区域进行光照条件的正则化。例如,检测到当前图像数据的光照条件值后,自动调整成像,使得在不同光照条件下目标区域的成像特征基本保持一致。
更优地,智能设备还可以进行移动速度的正则化,例如,通过事件点的时间标签与其邻域内的其他事件点时间标签的差异,将目标区域的移动速度分级,根据运动速度级别的不同选择不同的积分时间生成移动速度正则化后的图像数据,达到不同速度下具有一致的成像模态。
S303:利用身份分类器根据正则化后的图像数据进行身份识别。
实际应用中,由于动态视觉传感器只对发生变化的事件点做出响应,因此,有时转换的图像数据中包含的有效像素点非常少、或者只包含用户的部分响应像素。而对于有效像素点少、部位不正确的图像数据往往对识别结果有不良影响的图像,即该图像数据属于不适合识别的图像数据。
因此,更优地,智能设备在对检测的目标区域进行正则化后,还可以利用过滤分类器对正则化后的图像数据进行过滤处理,将标定为不适合识别的图像数据去除。这样,相应地,智能设备可以利用身份分类器根据过滤处理后的图像数据进行身份识别。
其中,过滤分类器是根据动态视觉传感器采集的正负样本预先训练出来的。其中,正负样本是由动态视觉传感器输出的事件点所形成的、并经正则化后的图像数据。而由动态视觉传感器输出的事件点是针对注册用户或其他用户所采集的动态视觉信号中检测出来的。
并且,可以根据有效像素点的多少、响应像素的位置等信息,对由动态视觉传感器输出的事件点所形成的、并经正则化后的图像数据进行标定,标定结果具体可以是正样本、或负样本。其中,正样本具体是指标定为适合识别的图像数据;负样本具体是指标定为不适合识别的图像数据。而适合识别的图像数据与不适合识别的图像数据是由技术人员预先标定的。
实际应用中,过滤分类器可以由智能设备在进行身份识别之前预先训练,也可以由其他设备预先训练后存储于智能设备上。而无论是智能设备还是其他设备,其在采集正负样本后,可以通过聚类或训练分类器的方式得到过滤分类器。比如,可以基于正负样本训练SVM(Support VectorMachine,支持向量机)分类器,得到过滤分类器。
本发明实施例中,关于步骤S204中提及的部件分类器的训练方法,其流程如图4所示,具体可以包括如下步骤:
S401:根据动态视觉传感器采集样本信号输出的事件点生成训练样本。
本步骤中,可以先利用动态视觉传感器针对运动部件采集样本信号;并将动态视觉传感器输出的事件点作为样本事件点。例如,用户在动态视觉传感器的视场内移动自己的头部后,动态视觉传感器可以采集到针对用户的头部的样本信号。
考虑到由累积一段时间内的事件点所形成的图像数据,在一定程度上能够很好的描述用户的运动轮廓,而这些运动产生的轮廓信息也可以表达用户自身的形状信息。
因此,在确定将动态视觉传感器采集样本信号输出的事件点作为样本事件点之后,可以确定当前输出的样本事件点的邻居点;将当前输出的样本事件点,以及该样本事件点的邻居点,作为一个训练样本。
进一步地,根据样本事件点及其邻居点的位置,对该样本事件点进行分类,即判断出该样本事件点所属的运动部件的类别。其中,运动部件的类别具体可以是用户的头部、手部、身体等。这样,可以将判断出的该样本事件点所属的运动部件的类别对该训练样本的运动部件的类别进行标定。
S402:利用生成的训练样本及其标定结果,对深度置信网络进行训练,得到部件分类器。
其中,训练样本的标定结果指的是为该训练样本标定的运动部件的类别。
本步骤中,可以将步骤S401生成的多个训练样本组成训练样本集,利用训练样本集、以及该训练样本集中的每个训练样本的标定结果对深度置信网络进行训练,得到部件分类器。其中,关于如何对深度置信网络进行训练,可以采用本领域技术人员常用的技术手段。
例如,利用生成的训练样本及其标定结果,对深度置信网络进行多次迭代训练。其中,一次迭代训练过程具体包括:将多个训练样本组成的训练样本集作为深度置信网络的输入;继而,将深度置信网络的输出与各训练样本的标定结果进行比较;并根据比较结果调整深度置信网络的层级参数继续下次迭代,或停止迭代得到部件分类器。
其中,深度置信网络的输出实际上是对样本事件点所属运动部件的类别的猜测,这样,通过将猜测的所属运动部件的类别与预先标定的、较为准确的标定结果进行比较,将两者产生的误差值通过后向传播的训练技术对深度置信网络的各层级参数进行调整,提高最终得到的部件分类器的类别划分准确度,以此便于后续用户动作的准确识别与响应。
基于上述基于动态视觉技术的身份识别方法,本发明实施例提供的一种基于动态视觉技术的身份识别装置,如图5所示,具体可以包括:信号采集单元501、目标成像单元502、身份识别子单元503。
其中,信号采集单元501用于利用动态视觉传感器采集信号并输出检测的事件点。
目标成像单元502用于累积信号采集单元501输出的一段时间内的事件点形成图像数据。
身份识别子单元503用于利用身份分类器根据目标成像单元502输出的图像数据进行身份识别。
实际应用中,身份识别子单元503输出的识别结果可以是:注册者、或非注册者。更优地,在注册用户为多个的情况下,身份识别子单元503输出的识别结果还可以包括:识别为注册者的用户标识。
实际应用中,身份分类器是用户身份注册时,根据动态视觉传感器针对用户采集的信号所形成的图像数据预先训练出来的。
更优地,本发明实施例中,基于动态视觉技术的身份识别装置中还可以包括:身份分类器训练单元504。
身份分类器训练单元504用于在进行用户身份注册时,利用动态视觉传感器针对用户采集动态视觉信号,并将动态视觉传感器输出的事件点作为用户事件点;累积一段时间内的用户事件点形成用户图像数据;利用样本数据及其标定结果,对深度卷积网络进行训练,得到身份分类器。
其中,样本数据包括:用户图像数据、以及非用户图像数据;样本数据的标定结果包括:为用户图像数据标定的注册者身份、以及为非用户图像数据标定的非注册者身份。
进一步地,本发明实施例中,基于动态视觉技术的身份识别装置中还可以包括:动作识别单元505、指令匹配单元506、以及指令响应单元507。
其中,动作识别单元505用于接收身份识别子单元503输出的识别结果,并在识别结果为注册者时,根据信号采集单元501检测出的事件点识别出运动部件的运动轨迹。
指令匹配单元506用于根据动作识别单元505识别出的运动部件的运动轨迹匹配出相应指令。
指令响应单元507用于根据指令匹配单元506匹配出的指令执行相应操作。
实际应用中,如图6所示,身份识别子单元503可以具体包括:目标区域检测子单元601、目标区域正则化子单元602、以及身份识别子单元603。
其中,目标区域检测子单元601用于检测目标成像单元502输出的图像数据中的目标区域。
目标区域正则化子单元602用于对目标区域检测子单元601检测出的目标区域进行正则化。
具体地,可以将对目标区域检测子单元601检测出的目标区域进行尺寸正则化、光照条件正则化、以及移动速度正则化。
身份识别子单元603用于利用身份分类器根据目标区域正则化子单元602正则化后的图像数据进行身份识别。
进一步地,身份识别子单元503还可以进一步包括:图像过滤处理子单元604。
图像过滤处理子单元604用于利用过滤分类器对目标区域正则化子单元602正则化后的图像数据进行过滤处理。相应地,身份识别子单元603具体用于利用身份分类器根据图像过滤处理子单元604过滤处理后的图像数据进行身份识别。
其中,过滤分类器是根据动态视觉传感器采集的正负样本预先训练出来的,正负样本是由动态视觉传感器输出的事件点所形成的、并经正则化后的图像数据;以及正样本是标定为适合识别的图像数据,负样本是标定为不适合识别的图像数据。实际应用中,过滤分类器具体可以由基于动态视觉技术的身份识别装置预先训练得到,也可以由其他装置训练后存储于基于动态视觉技术的身份识别装置中。
实际应用中,如图7所示,动作识别单元505具体可以包括:部件识别子单元701、以及轨迹跟踪子单元702。
其中,部件识别子单元701用于利用部件分类器针对信号采集单元501当前检测出的事件点识别出运动部件的类别和位置。其中,部件分类器是根据动态视觉传感器采集的样本信号预先训练出来的。
轨迹跟踪子单元702用于根据部件识别子单元701依次识别出的类别的运动部件的位置确定运动部件的运动轨迹。
这样,指令匹配单元506具体用于从轨迹跟踪子单元702确定出的运动部件的运动轨迹中提取轨迹特征;在动作字典中针对运动部件查找是否存储有与提取的轨迹特征相匹配的特征;若有,则将与查找到的特征相对应的指令作为与运动部件的运动轨迹相应的指令。
实际应用中,部件分类器可以由其他装置预先训练出来后存储于基于动态视觉技术的身份识别装置中,也可以由基于动态视觉技术的身份识别装置预先训练出来。
因此,更优地,动作识别单元505还可以包括:部件分类器训练子单元703。
部件分类器训练子单元703用于根据动态视觉传感器采集样本信号输出的事件点生成训练样本;利用生成的训练样本及其标定结果,对深度置信网络进行训练,得到部件分类器。
其中,训练样本的标定结果指的是为该训练样本标定的运动部件的类别。
本发明实施例中,基于动态视觉技术的身份识别装置中的各单元、以及单元下的子单元的具体功能实现,可以参照上述基于动态视觉技术的身份识别方法的具体步骤,在此不再详述。
实际应用中,上述的智能设备可以是智能手机。这样,配置有上述身份识别装置的智能手机可以识别出智能手机的当前持有者的身份,若识别结果为注册者,即智能手机的注册用户,则智能手机进行解锁;进一步地,智能手机还可以根据低能耗的动态视觉传感器实时采集信号识别出用户的动作,匹配出相应的动作指令,并执行相应的操作,比如自动接听来电、自动播放等。
例如,注册用户只需要单手手持智能手机在面前按自己设置的轨迹晃动智能手机即可进行智能手机的解锁,不需要与智能手机屏幕接触,也不需要一只手手持智能手机,另一只手在屏幕上做解锁动作,操作简单方便。
当智能手机有来电时,用户只需要将智能手机按常规的轨迹移动到耳边,智能手机即可自动接听,而不需要触发接听键或完成接听滑动操作,方便用户使用。另一方面,即使非注册用户按照注册用户的操作方式进行操作,也无法解锁智能手机、或接听手机,提高智能手机的保密性。
或者,上述的智能设备可以是指应用于盲人导航的智能眼镜。例如,盲人外出时,可以佩戴配置有上述动态视觉技术的身份识别装置的智能眼镜,在行进中通过上述动态视觉技术的身份识别装置中的动态视觉传感器采集前方场景中相对盲人移动的物体的信号,对当前采集的信号进行身份识别;若识别行进前方出现道路标志或危险物品,则可以通过不同的声音或者触觉提醒盲人采取不同的行进措施。由于动态视觉传感器能耗低的特点,可以一直处于开机工作状态,并且待机时间长,非常适合盲人导航。
或者,上述的智能设备可以是指配置有上述动态视觉技术的身份识别装置汽车。例如,将动态视觉传感器安装在汽车的车门上方实时进行信号采集。这样,当车主逐渐靠近汽车时,低能耗的动态视觉传感器可以及时快速地采集到车主的面部信息、以及运动轨迹信息,完成门锁的自动开启或汽车通电等动作,操作简单快速,提高了用户体验度。而且,注册用户未按照注册动作操作无法响应,非注册用户按照注册用户的操作方式无法响应,可以提高车辆的安全性。
或者,上述的智能设备可以是配置有上述身份识别装置的智能电视。例如,可以将上述动态视觉技术的身份识别装置中的动态视觉传感器设置在智能电视的上方进行信号采集,而当用户在动态视觉传感器的视场内移动时,可以采集到用户的动态视觉信号(比如人脸、身体等),并通过上述动态视觉技术的身份识别装置识别出用户的身份,若识别为不受限制的用户,智能电视可以自动跳转到该用户最感兴趣的频道,或者弹出该用户的观看历史记录供选择;若识别为受限制的用户,智能电视可以屏蔽相关频道,禁止受限制用户观看;并统计当日受限用户的观看时间,超过设置时限不提供观看功能。这样,通过简单的操作即可根据身份信息限制响应频道的观看权限,例如小孩子的看电视时间等,提高用户体验。
本发明的技术方案中,可以利用动态视觉传感器针对身份注册的用户采集信号,并根据采集的信号所形成的图像数据预先训练出身份分类器。这样,在后续进行身份识别时,可以利用动态视觉传感器采集信号,将检测出的事件点累计一段时间形成图像数据;利用身份分类器根据形成的图像数据进行身份识别。相比现有的身份识别方法,本发明提供的方案中,低能耗的动态视觉传感器可以时时采集信号,只要用户在动态视觉传感器的视场内移动,动态视觉传感器就可以及时有效的捕捉用户以及用户的动作;根据动态视觉传感器采集的信号进行身份识别,不需要用户先唤醒终端设备、也不需要用户在终端设备的屏幕上进行额外的操作,操作简单方便。
本技术领域技术人员可以理解,本发明包括涉及用于执行本申请中所述操作中的一项或多项的设备。这些设备可以为所需的目的而专门设计和制造,或者也可以包括通用计算机中的已知设备。这些设备具有存储在其内的计算机程序,这些计算机程序选择性地激活或重构。这样的计算机程序可以被存储在设备(例如,计算机)可读介质中或者存储在适于存储电子指令并分别耦联到总线的任何类型的介质中,所述计算机可读介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-OnlyMemory,只读存储器)、RAM(Random Access Memory,随即存储器)、EPROM(Erasable Programmable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically Erasable Programmable Read-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,可读介质包括由设备(例如,计算机)以能够读的形式存储或传输信息的任何介质。
本技术领域技术人员可以理解,可以用计算机程序指令来实现这些结构图和/或框图和/或流图中的每个框以及这些结构图和/或框图和/或流图中的框的组合。本技术领域技术人员可以理解,可以将这些计算机程序指令提供给通用计算机、专业计算机或其他可编程数据处理方法的处理器来实现,从而通过计算机或其他可编程数据处理方法的处理器来执行本发明公开的结构图和/或框图和/或流图的框或多个框中指定的方案。
本技术领域技术人员可以理解,本发明中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本发明中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本发明中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (22)

1.一种身份识别方法,其特征在于,包括:
利用动态视觉传感器采集信号并输出检测的事件点;
累积一段时间内的事件点形成图像数据;
利用身份分类器根据所述图像数据进行身份识别。
2.如权利要求1所述的方法,其特征在于,所述利用身份分类器根据所述图像数据进行身份识别,包括:
检测所述图像数据中的目标区域;
对所述目标区域进行正则化;
利用所述身份分类器根据正则化后的图像数据进行身份识别。
3.如权利要求2所述的方法,其特征在于,在所述对所述目标区域进行正则化后,还包括:
利用过滤分类器对正则化后的图像数据进行过滤处理;
其中,所述过滤分类器是根据所述动态视觉传感器采集的正负样本预先训练出来的;
其中,所述正负样本是由所述动态视觉传感器输出的事件点所形成的、并经正则化后的图像数据;以及
所述正样本是标定为适合识别的图像数据,所述负样本是标定为不适合识别的图像数据。
4.如权利要求3所述的方法,其特征在于,所述身份分类器根据正则化后的图像数据进行身份识别具体为:
利用所述身份分类器根据过滤处理后的图像数据进行身份识别。
5.如权利要求1-4任一所述的方法,其特征在于,所述身份分类器根据所述图像数据进行身份识别输出的识别结果为:注册者、或非注册者。
6.如权利要求5所述的方法,其特征在于,所述注册用户为多个,以及所述识别结果还包括:识别为注册者的用户标识。
7.如权利要求1-4任一所述的方法,其特征在于,所述身份分类器是用户身份注册时,根据所述动态视觉传感器针对所述用户采集的信号所形成的图像数据预先训练出来的:
在进行用户身份注册时,利用所述动态视觉传感器针对所述用户采集动态视觉信号,并将所述动态视觉传感器输出的事件点作为用户事件点;
累积一段时间内的用户事件点形成用户图像数据;
利用样本数据及其标定结果,对深度卷积网络进行训练,得到所述身份分类器;
其中,所述样本数据包括:所述用户图像数据、以及非用户图像数据;
所述样本数据的标定结果包括:为所述用户图像数据标定的注册者身份、以及为所述非用户图像数据标定的非注册者身份。
8.如权利要求7所述的方法,其特征在于,为所述用户图像数据标定的注册者身份具体包括注册者的用户标识。
9.如权利要求5所述的方法,其特征在于,在所述利用身份分类器根据所述图像数据进行身份识别后,还包括:
若识别结果为注册者,则:
根据检测出的事件点识别出运动部件的运动轨迹;
根据所述运动部件的运动轨迹匹配出相应指令后,根据所述指令执行相应操作。
10.如权利要求9所述的方法,其特征在于,所述根据检测出的事件点识别出运动部件的运动轨迹,包括:
利用部件分类器针对当前检测出的事件点识别出运动部件的类别和位置;
根据依次识别出的所述类别的运动部件的位置确定所述运动部件的运动轨迹。
11.如权利要求10所述的方法,其特征在于,所述部件分类器具体根据如下方法训练得到:
根据所述动态视觉传感器采集样本信号输出的事件点生成训练样本;
利用生成的训练样本及其标定结果,对深度置信网络进行训练,得到所述部件分类器;
其中,所述训练样本的标定结果指的是为该训练样本标定的运动部件的类别。
12.如权利要求11所述的方法,其特征在于,所述训练样本具体通过如下方式生成:
将所述动态视觉传感器采集样本信号输出的事件点作为样本事件点;
确定当前输出的样本事件点的邻居点;
将当前输出的样本事件点,以及该样本事件点的邻居点,作为一个训练样本。
13.如权利要求9所述的方法,其特征在于,所述根据所述运动部件的运动轨迹匹配出相应指令,包括:
从所述运动部件的运动轨迹中提取轨迹特征;
在动作字典中针对所述运动部件查找是否存储有与提取的轨迹特征相匹配的特征;
若有,则将与查找到的特征相对应的指令作为与所述运动部件的运动轨迹相应的指令。
14.如权利要求10所述的方法,其特征在于,所述运动部件的类别为鼻子或耳朵;以及
根据所述运动部件的运动轨迹匹配出相应指令后,根据所述指令执行相应操作,包括:
根据所述鼻子或耳朵的运动轨迹匹配出相应的自动接听指令后,执行自动接听操作。
15.如权利要求10所述的方法,其特征在于,所述运动部件的类别为鼻子、眼睛、或手指;以及
根据所述运动部件的运动轨迹匹配出相应指令后,根据所述指令执行相应操作,包括:
根据所述鼻子、眼睛、或手指的运动轨迹匹配出相应的自动开锁/危险提醒指令后,执行开锁/危险提醒操作。
16.一种身份识别装置,其特征在于,包括:
信号采集单元,用于利用动态视觉传感器采集信号并输出检测的事件点;
目标成像单元,用于累积所述信号采集单元输出的一段时间内的事件点形成图像数据;
身份识别子单元,用于利用身份分类器根据所述目标成像单元输出的所述图像数据进行身份识别。
17.如权利要求16所述的装置,其特征在于,所述身份识别子单元具体包括:
目标区域检测子单元,用于检测所述目标成像单元输出的所述图像数据中的目标区域;
目标区域正则化子单元,用于对所述目标区域检测子单元检测出的目标区域进行正则化;
身份识别子单元,用于利用所述身份分类器根据所述目标区域正则化子单元正则化后的图像数据进行身份识别。
18.如权利要求16或17所述的装置,其特征在于,所述身份识别子单元输出的识别结果为:注册者、或非注册者。
19.如权利要求16或17所述的装置,其特征在于,还包括:
身份分类器训练单元,用于在进行用户身份注册时,利用所述动态视觉传感器针对所述用户采集动态视觉信号,并将所述动态视觉传感器输出的事件点作为用户事件点;累积一段时间内的用户事件点形成用户图像数据;利用样本数据及其标定结果,对深度卷积网络进行训练,得到所述身份分类器;
其中,所述样本数据包括:所述用户图像数据、以及非用户图像数据;所述样本数据的标定结果包括:为所述用户图像数据标定的注册者身份、以及为所述非用户图像数据标定的非注册者身份。
20.如权利要求18所述的装置,其特征在于,还包括:
动作识别单元,用于接收所述身份识别子单元输出的识别结果,并在所述识别结果为注册者时,根据所述信号采集单元检测出的事件点识别出运动部件的运动轨迹;
指令匹配单元,用于根据所述动作识别单元识别出的所述运动部件的运动轨迹匹配出相应指令;
指令响应单元,用于根据所述指令匹配单元匹配出的所述指令执行相应操作。
21.如权利要求20所述的装置,其特征在于,所述动作识别单元具体包括:
部件识别子单元,用于利用部件分类器针对所述信号采集单元当前检测出的事件点识别出运动部件的类别和位置;其中,所述部件分类器是根据所述动态视觉传感器采集的样本信号预先训练出来的;
轨迹跟踪子单元,用于根据所述部件识别子单元依次识别出的所述类别的运动部件的位置确定所述运动部件的运动轨迹。
22.如权利要求21所述的装置,其特征在于,
所述指令匹配单元具体用于从所述轨迹跟踪子单元确定出的所述运动部件的运动轨迹中提取轨迹特征;在动作字典中针对所述运动部件查找是否存储有与提取的轨迹特征相匹配的特征;若有,则将与查找到的特征相对应的指令作为与所述运动部件的运动轨迹相应的指令。
CN201510019275.4A 2015-01-15 2015-01-15 身份识别方法和装置 Active CN105844128B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510019275.4A CN105844128B (zh) 2015-01-15 2015-01-15 身份识别方法和装置
KR1020150173971A KR102465532B1 (ko) 2015-01-15 2015-12-08 객체 인식 방법 및 장치
US14/995,275 US10127439B2 (en) 2015-01-15 2016-01-14 Object recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510019275.4A CN105844128B (zh) 2015-01-15 2015-01-15 身份识别方法和装置

Publications (2)

Publication Number Publication Date
CN105844128A true CN105844128A (zh) 2016-08-10
CN105844128B CN105844128B (zh) 2021-03-02

Family

ID=56579904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510019275.4A Active CN105844128B (zh) 2015-01-15 2015-01-15 身份识别方法和装置

Country Status (2)

Country Link
KR (1) KR102465532B1 (zh)
CN (1) CN105844128B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106597463A (zh) * 2016-12-29 2017-04-26 天津师范大学 基于动态视觉传感器芯片的光电式接近传感器及探测方法
CN108563937A (zh) * 2018-04-20 2018-09-21 邓坚 一种基于静脉的身份认证方法及手环
CN108764078A (zh) * 2018-05-15 2018-11-06 上海芯仑光电科技有限公司 一种事件数据流的处理方法及计算设备
CN110796040A (zh) * 2019-10-15 2020-02-14 武汉大学 一种基于多元空间轨迹关联的行人身份识别方法
CN110929242A (zh) * 2019-11-20 2020-03-27 上海交通大学 基于无线信号进行姿态无关的连续用户认证方法及系统
CN111083354A (zh) * 2019-11-27 2020-04-28 维沃移动通信有限公司 一种视频录制方法及电子设备
CN111177669A (zh) * 2019-12-11 2020-05-19 宇龙计算机通信科技(深圳)有限公司 终端的识别方法、装置、终端及存储介质
CN112114653A (zh) * 2019-06-19 2020-12-22 北京小米移动软件有限公司 终端设备的操控方法、装置、设备及存储介质
CN112118380A (zh) * 2019-06-19 2020-12-22 北京小米移动软件有限公司 相机操控方法、装置、设备及存储介质
CN112669344A (zh) * 2020-12-24 2021-04-16 北京灵汐科技有限公司 一种运动物体的定位方法、装置、电子设备及存储介质
CN114077730A (zh) * 2021-11-26 2022-02-22 广域铭岛数字科技有限公司 一种登陆验证方法、车辆解锁系统、设备及存储介质

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102720734B1 (ko) * 2016-08-02 2024-10-22 삼성전자주식회사 이벤트 신호 처리 방법 및 장치
KR102785792B1 (ko) 2016-11-28 2025-03-26 삼성전자주식회사 객체 인식 방법 및 장치
KR102070956B1 (ko) * 2016-12-20 2020-01-29 서울대학교산학협력단 영상 처리 장치 및 방법
KR20180073118A (ko) 2016-12-22 2018-07-02 삼성전자주식회사 컨볼루션 신경망 처리 방법 및 장치
KR20180092778A (ko) 2017-02-10 2018-08-20 한국전자통신연구원 실감정보 제공 장치, 영상분석 서버 및 실감정보 제공 방법
RU2656708C1 (ru) * 2017-06-29 2018-06-06 Самсунг Электроникс Ко., Лтд. Способ разделения текстов и иллюстраций в изображениях документов с использованием дескриптора спектра документа и двухуровневой кластеризации
WO2019017720A1 (ko) * 2017-07-20 2019-01-24 주식회사 이고비드 사생활 보호를 위한 카메라 시스템 및 그 방법
KR101876433B1 (ko) * 2017-07-20 2018-07-13 주식회사 이고비드 행동인식 기반 해상도 자동 조절 카메라 시스템, 행동인식 기반 해상도 자동 조절 방법 및 카메라 시스템의 영상 내 행동 자동 인식 방법
KR102086042B1 (ko) * 2018-02-28 2020-03-06 서울대학교산학협력단 영상 처리 장치 및 방법
KR102108953B1 (ko) * 2018-05-16 2020-05-11 한양대학교 산학협력단 센서 품질 저하에 강인한 딥러닝 기반 카메라, 라이더 센서 융합 인지 방법 및 시스템
KR102108951B1 (ko) * 2018-05-16 2020-05-11 한양대학교 산학협력단 영상의 전역 문맥 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 시스템
KR102083192B1 (ko) 2018-09-28 2020-03-02 주식회사 이고비드 익명화 성능을 향상시키기 위한 영상 익명화 장치의 제어 방법 및 이를 위한 장치
WO2021202518A1 (en) * 2020-03-30 2021-10-07 Sg Gaming, Inc. Gaming environment tracking optimization
US12080121B2 (en) 2020-03-30 2024-09-03 Lnw Gaming, Inc. Gaming state object tracking
KR102346215B1 (ko) * 2020-03-31 2022-01-03 주식회사 세컨핸즈 객체에 관한 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR102261880B1 (ko) * 2020-04-24 2021-06-08 주식회사 핀텔 딥러닝 기반 비대면 안면 인식 서비스 제공 방법, 장치 및 시스템
KR20220052620A (ko) 2020-10-21 2022-04-28 삼성전자주식회사 객체 추적 방법 및 이를 수행하는 장치
KR20220102044A (ko) * 2021-01-12 2022-07-19 삼성전자주식회사 상시 동작 카메라에 기반한 정보 획득 방법
KR102422962B1 (ko) 2021-07-26 2022-07-20 주식회사 크라우드웍스 다중 인공지능 모델의 연속 처리 구조에 기반한 이미지 자동 분류 및 처리 방법, 그리고 이를 실행시키기 위해 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램
KR20230056482A (ko) * 2021-10-20 2023-04-27 한화비전 주식회사 영상 압축 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129570A (zh) * 2010-01-19 2011-07-20 中国科学院自动化研究所 用于动态视觉的基于流形正则化的半监督分类器设计方法
CN103533234A (zh) * 2012-07-05 2014-01-22 三星电子株式会社 图像传感器芯片、操作方法和包括图像传感器芯片的系统
CN103761460A (zh) * 2013-12-18 2014-04-30 微软公司 显示设备上的用户认证
CN103955639A (zh) * 2014-03-18 2014-07-30 深圳市中兴移动通信有限公司 一种体感游戏机及其体感游戏的登录方法和装置
CN104182169A (zh) * 2013-05-23 2014-12-03 三星电子株式会社 用于基于手势的用户界面的方法和设备
US20140354537A1 (en) * 2013-05-29 2014-12-04 Samsung Electronics Co., Ltd. Apparatus and method for processing user input using motion of object

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101034189B1 (ko) * 2009-07-08 2011-05-12 (주)엑스퍼넷 객체 분석과 멀티리사이징스캔을 이용한 성인영상 검출 방법
KR101880998B1 (ko) * 2011-10-14 2018-07-24 삼성전자주식회사 이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법
KR101441285B1 (ko) * 2012-12-26 2014-09-23 전자부품연구원 다중 신체 추적 방법 및 이를 지원하는 단말 장치
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
KR102227494B1 (ko) * 2013-05-29 2021-03-15 삼성전자주식회사 오브젝트의 움직임을 이용하여 사용자 입력을 처리하는 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129570A (zh) * 2010-01-19 2011-07-20 中国科学院自动化研究所 用于动态视觉的基于流形正则化的半监督分类器设计方法
CN103533234A (zh) * 2012-07-05 2014-01-22 三星电子株式会社 图像传感器芯片、操作方法和包括图像传感器芯片的系统
CN104182169A (zh) * 2013-05-23 2014-12-03 三星电子株式会社 用于基于手势的用户界面的方法和设备
US20140354537A1 (en) * 2013-05-29 2014-12-04 Samsung Electronics Co., Ltd. Apparatus and method for processing user input using motion of object
CN103761460A (zh) * 2013-12-18 2014-04-30 微软公司 显示设备上的用户认证
CN103955639A (zh) * 2014-03-18 2014-07-30 深圳市中兴移动通信有限公司 一种体感游戏机及其体感游戏的登录方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JURGEN KOGLER ET AL: "Event-Based Stereo Matching Approaches for Frameless Address Event Stereo Data", 《ISVC 2011》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106597463B (zh) * 2016-12-29 2019-03-29 天津师范大学 基于动态视觉传感器芯片的光电式接近传感器及探测方法
CN106597463A (zh) * 2016-12-29 2017-04-26 天津师范大学 基于动态视觉传感器芯片的光电式接近传感器及探测方法
CN108563937A (zh) * 2018-04-20 2018-09-21 邓坚 一种基于静脉的身份认证方法及手环
CN108563937B (zh) * 2018-04-20 2021-10-15 北京锐思智芯科技有限公司 一种基于静脉的身份认证方法及手环
CN108764078A (zh) * 2018-05-15 2018-11-06 上海芯仑光电科技有限公司 一种事件数据流的处理方法及计算设备
CN112114653A (zh) * 2019-06-19 2020-12-22 北京小米移动软件有限公司 终端设备的操控方法、装置、设备及存储介质
US11336818B2 (en) 2019-06-19 2022-05-17 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for controlling camera, device and storage medium
CN112118380A (zh) * 2019-06-19 2020-12-22 北京小米移动软件有限公司 相机操控方法、装置、设备及存储介质
CN110796040A (zh) * 2019-10-15 2020-02-14 武汉大学 一种基于多元空间轨迹关联的行人身份识别方法
CN110796040B (zh) * 2019-10-15 2022-07-05 武汉大学 一种基于多元空间轨迹关联的行人身份识别方法
CN110929242A (zh) * 2019-11-20 2020-03-27 上海交通大学 基于无线信号进行姿态无关的连续用户认证方法及系统
CN111083354A (zh) * 2019-11-27 2020-04-28 维沃移动通信有限公司 一种视频录制方法及电子设备
CN111177669A (zh) * 2019-12-11 2020-05-19 宇龙计算机通信科技(深圳)有限公司 终端的识别方法、装置、终端及存储介质
CN112669344A (zh) * 2020-12-24 2021-04-16 北京灵汐科技有限公司 一种运动物体的定位方法、装置、电子设备及存储介质
CN112669344B (zh) * 2020-12-24 2024-05-28 北京灵汐科技有限公司 一种运动物体的定位方法、装置、电子设备及存储介质
CN114077730A (zh) * 2021-11-26 2022-02-22 广域铭岛数字科技有限公司 一种登陆验证方法、车辆解锁系统、设备及存储介质

Also Published As

Publication number Publication date
KR102465532B1 (ko) 2022-11-11
CN105844128B (zh) 2021-03-02
KR20160088224A (ko) 2016-07-25

Similar Documents

Publication Publication Date Title
CN105844128A (zh) 身份识别方法和装置
US10127439B2 (en) Object recognition method and apparatus
CN102831404B (zh) 手势检测方法及系统
WO2021000587A1 (zh) 车门解锁方法及装置、系统、车、电子设备和存储介质
CN109145742B (zh) 一种行人识别方法及系统
US10339402B2 (en) Method and apparatus for liveness detection
CN102831439B (zh) 手势跟踪方法及系统
Shi et al. Real-time traffic light detection with adaptive background suppression filter
CN105612533B (zh) 活体检测方法、活体检测系统以及计算机程序产品
CN108280418A (zh) 脸部图像的欺骗识别方法及装置
WO2017143948A1 (zh) 一种唤醒智能机器人的方法及智能机器人
JP2018032391A (ja) ライブネス検査方法及び装置
KR20200062284A (ko) 차량 및 차량 도어 잠금 해제 제어 방법, 장치 및 차량 도어 잠금 해제 시스템
WO2017071064A1 (zh) 区域提取方法、模型训练方法及装置
JP6234762B2 (ja) 眼部検出装置、方法、およびプログラム
US20170053156A1 (en) Human face recognition method, apparatus and terminal
US10521704B2 (en) Method and apparatus for distributed edge learning
CN105844659A (zh) 运动部件的跟踪方法和装置
US12266215B2 (en) Face liveness detection using background/foreground motion analysis
KR20120139100A (ko) 얼굴 인증을 이용한 보안 장치 및 방법
CN108198159A (zh) 一种图像处理方法、移动终端以及计算机可读存储介质
CN104238733B (zh) 触发信号的方法及车用电子装置
CN112562159B (zh) 一种门禁控制方法、装置、计算机设备和存储介质
Wu et al. An intelligent interactive system based on hand gesture recognition algorithm and kinect
JP5061563B2 (ja) 検出装置、生体判定方法、およびプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant