[go: up one dir, main page]

CN109523574B - 一种行走轨迹预测方法和电子设备 - Google Patents

一种行走轨迹预测方法和电子设备 Download PDF

Info

Publication number
CN109523574B
CN109523574B CN201811609759.4A CN201811609759A CN109523574B CN 109523574 B CN109523574 B CN 109523574B CN 201811609759 A CN201811609759 A CN 201811609759A CN 109523574 B CN109523574 B CN 109523574B
Authority
CN
China
Prior art keywords
historical
distance
sensitivity attribute
distance sensitivity
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811609759.4A
Other languages
English (en)
Other versions
CN109523574A (zh
Inventor
杨大业
宋建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201811609759.4A priority Critical patent/CN109523574B/zh
Publication of CN109523574A publication Critical patent/CN109523574A/zh
Application granted granted Critical
Publication of CN109523574B publication Critical patent/CN109523574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请提供了一种行走轨迹预测方法和电子设备,方法包括:获得第一对象的运动轨迹;至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,所述距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离;至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹,本申请提高了行走轨迹的预测精度。

Description

一种行走轨迹预测方法和电子设备
技术领域
本公开涉及轨迹预测技术领域,更具体地说,涉及一种行走轨迹预测方法和电子设备。
背景技术
随着视频监控的普及,数字化的视频影像为实时预测对象的行走轨迹提供了依据。通过预测对象的行走轨迹可以提前预警可能发生的事,如通过预测人的行走轨迹能够为商场人流控制、嫌疑人员排查等提供的可靠依据。
发明内容
本公开的目的是提供一种行走轨迹预测方法和电子设备,以提高对象的行走轨迹的预测范围,并提高预测精准度。
为实现上述目的,本公开提供了如下技术方案:
一种行走轨迹预测方法,包括:
获得第一对象的运动轨迹;
至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;
获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,所述距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离;
至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
优选的,所述第一对象的运动轨迹基于视频图像获得,所述获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,包括:
确定不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息;
基于不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
优选的,所述获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,包括:
获取设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
优选的,所述至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹,包括:
按照预置的距离敏感度属性与行为模式类别的对应关系,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性所归属的行为模式类别;
至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹。
优选的,所述至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹,包括:
将不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别输入到预先训练出的递归神经网络模型,以通过所述递归神经网络模型输出所述第一对象的行走轨迹。
优选的,所述递归神经网络模型为基于多个样本用户的在多个不同时刻的位置、行走速度以及行为模式类别训练得到的。
优选的,所述至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离;
以及
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。
一种电子设备,包括:
存储器,用于获得第一对象的运动轨迹;
处理器,用于至少基于所述运动轨迹,确定不同历史时刻所述视频图像中第一对象的历史位置、历史行走速度,获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,所述距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离,至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
优选的,还包括:
采集设备,用于采集第一对象的运动轨迹。
一种电子设备,包括:
第一获取单元,用于获得第一对象的运动轨迹;
第一确定单元,用于至少基于所述运动轨迹,确定不同历史时刻所述视频图像中第一对象的历史位置、历史行走速度;
第二确定单元,用于获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,所述距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离;
第一预测单元,用于至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
通过以上方案可知,本公开实施例提供了一种行走轨迹预先方法,通过获得第一对象的运动轨迹,基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度,获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,从而至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹,而距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离,由此可见,本申请中,能够充分利用第一对象的历史位置、历史行走速度以及与第一对象对应的距离敏感度属性对第一对象的行走轨迹进行预测,提高了行走轨迹的预测精度。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请方法实施例一提供的一种行走轨迹预测方法的流程示意图;
图2为本申请方法实施例二提供的一种行走轨迹预测方法的流程示意图;
图3为本申请方法实施例二提供的第一对象和第二对象相对位置的示意图;
图4为本申请方法实施例三提供的一种行走轨迹预测方法的流程示意图;
图5为本申请方法实施例四提供的一种行走轨迹预测方法的流程示意图;
图6为本申请方法实施例四提供的第一对应关系的示意图;
图7为本申请方法实施例五提供的一种行走轨迹预测方法的流程示意图;
图8a为本申请方法实施例五提供的长短记忆神经网络模型的一种结构模型图;
图8b为本申请方法实施例五提供的长短记忆神经网络模型的一种功能结构图;
图9为本申请装置实施例一提供的一种电子设备的结构示意图;
图10为本申请装置实施例五提供的一种电子设备的结构示意图。
说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的部分,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示的以外的顺序实施。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
本申请方法实施例一提供了一种行走轨迹预测方法,如图1所示,该方法包括如下步骤:
步骤101:获得第一对象的运动轨迹;
该运动轨迹优选基于视频图像获取,视频图像包含有第一对象的运动轨迹,具体可以通过采集设备对第一对象的行为进行监控获取。而该视频图像中可以包含有第一对象,也可以不包含有第一对象。
视频图像中包含第一对象,第一对象能够位于至少一个采集设备的采集区域。如果至少两个采集设备采集有第一对象的运动轨迹,那么,可以获取该至少两个采集设备采集的包含第一对象的运动轨迹的视频图像。
视频图像中不包含第一对象,那么用于采集第一对象的运动轨迹的采集设备可以设置在第一对象上,以第一对象的角度采集视频图像,该视频图像也能够体现出第一对象的运动轨迹。
需说明的是,本申请提供的一种行走轨迹预测方法可以应用于设置有采集设备的电子设备中,或者也可以应用于能够与采集设备通信的电子设备中。
另外,运动轨迹的获取也可以通过其它方式,如用户携带的带有定位功能的电子设备,如电子手表、手机。
步骤102:至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;
通过对第一运动轨迹分析能够确定出在不同历史时刻第一对象所处的历史位置以及历史行走速度。
历史时刻为已经过去的时刻,具体可以为与当前时刻的相邻的前多个时刻,以提高对与当前时刻相邻的下一时刻第一对象的行走轨迹预测的准确性。这种情况下,可以对运动轨迹进行定位,以确定与当前时刻的相邻的前多个时刻视频图像中第一对象的历史位置、历史行走速度。
当前时刻为当前执行所述一种行走轨迹预测方法的时刻,具体可以将获取第一对象的运动轨迹的时刻看作为当前时刻。
其中,历史行走速度可以由两个相邻历史时刻第一对象所移动的距离和两个相邻历史时刻相距的时间获得。应当说明的是,这里的历史行走速度包含了第一对象的运动方向信息。
步骤103:获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性;
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。
需说明的是,在本申请中,第一对象的类型有多种,具体的,第一对象可以为真正的人,也可以为智能设备,如无人驾驶汽车、物流机器人、足球比赛过程中的比赛机器人等等。不同类型的对象确定距离敏感度属性的方式可能不同,具体会在后文详细描述。
步骤104:至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
需说明的是,预测第一对象的行走轨迹可以为预测第一对象在当前时刻的下一时刻的行走轨迹,因此具有及时性。
由此可见,在本实施例中,通过获取第一对象的运动轨迹,基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度,获取不同历史时刻所述第一对象对应的至少一种距离敏感度属性,从而至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹,而距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离,由此可见,本申请中,能够充分利用对象的位置、行走速度以及与第一对象对应的距离敏感度属性对第一对象的行走轨迹进行预测,提高了预测精度。
在本申请中,确定距离敏感度属性的方式有多种,具体的,本申请方法实施例二提供了一种行走轨迹预测方法,如图2所示,该方法包括如下步骤:
步骤201:获取第一对象的运动轨迹;
步骤202:至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;
步骤203:确定不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息;
在本实施例中,第一对象的运动轨迹基于视频图像获得,在视频图像中不仅包含第一对象的运动轨迹,还包括除第一对象之外的至少一个第二对象的运动轨迹,该第二对象为视频图像中除第一对象之外的任意一个对象。那么通过对视频图像进行分析能够确定出在不同历史时刻下,第一对象与第二对象之间的历史相对移动信息。该历史相对移动信息至少用于表征第一对象与第二对象之间的移动距离。
步骤204:基于不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性;
其中,步骤203和步骤204为步骤获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性的具体实现。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。例如,第一对象在正常行走过程中,其前方具有一个与其同方向行走的第二对象,那么,第一对象为了防止与第二对象发生接触,会与前方行走的第二对象保持一定的距离,该距离即为第一距离敏感度属性。
比如说,在多个历史时刻下,通过对视频图像进行分析确定第一对象维持与第二对象相距1.2m,那么可以确定第一距离敏感度属性值为1.2m。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。例如,第一对象在正常行走过程中,其前方有一个第二对象与其相向而行,第一对象发现第二对象可能会碰撞到自己时更改了行走轨迹,那么更改行走轨迹时与第二对象之间的距离即为第二距离敏感度属性。
比如,如图3所示,第一对象P1和第二对象P2在第一历史时刻相距D1,在第二历史时刻相距D2,在第三历史时刻第一对象P1更改行走轨迹,那么,第三历史时刻下第一对象P1和第二对象P2之间的距离D3即为第二距离敏感度属性值。
在本实施例中,第一对象可以为人。当然也可以为智能设备,智能设备可以为无人驾驶汽车、物流机器人、比赛机器人如足球比赛过程中的比赛机器人等等。需说明的是,智能设备没有正常人的意识,因此其第一距离敏感度属性和/或第二距离敏感度属性会设置在系统中,这种设置可能是预先设置的,也可能是在实际使用中随时调整的,智能设备在行走过程中,会基于设置的第一距离敏感度属性和/或第二距离敏感度属性与其他第二对象保持一定的安全距离,那么通过对视频图像进行分析也能够确定出与智能设备对应的第一距离敏感度属性和/或第二距离敏感度属性。
第二对象可以为处于运动状态的对象,包括与第一对象为同一类型的处于运动状态的对象,和/或,与第一对象为不同类型的处于运动状态的对象。
如第一对象为人,第二对象也可以人。第一对象为智能设备,第二对象可以为智能设备,也可以为人。
步骤205:至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
由此可见,在本实施例中,能够充分利用第一对象的历史位置、历史行走速度以及与第一对象对应的距离敏感度属性对第一对象的行走轨迹进行预测,提高了预测精度。
本申请方法实施例三提供了一种行走轨迹预测方法,如图4所示,该方法包括如下步骤:
步骤401:获取第一对象的运动轨迹;
步骤402:至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;
步骤403:获取设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性;
其中,步骤403为步骤获取不同历史时刻所述第一对象对应的至少一种距离敏感度属性的具体实现。
在本实施例中,第一对象为智能设备,为了防止智能设备在移动过程中与其他对象发生碰撞,会为智能设备设定距离敏感度属性,那么在本步骤中,能够获取到设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
第二对象可以为处于运动状态的对象,包括与第一对象为同一类型的处于运动状态的对象,和/或,与第一对象为不同类型的处于运动状态的对象。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。例如,设定第一距离敏感度属性为0.5m,那么,智能设备会保持与其他行走对象至少0.5m的安全距离。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。例如,设定第二距离敏感度属性为0.3m,那么第一对象在正常行走过程中,若发现第二对象与其相距0.3m则更改行走轨迹。
需说明的是,本实施例提供的一种行走轨迹的预测方法可以应用于智能设备中,当然也可以应用于区别于智能设备的电子设备中,那么,电子设备可以通过与智能设备(第一对象)通信获取距离敏感度属性,或者电子设备中预先存储有不同智能设备的距离敏感度属性,通过获取当前预测的智能设备的标识来确定与智能设备对应的距离敏感度属性。
步骤404:至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
由此可见,在本实施例中,能够充分利用第一对象的历史位置、历史行走速度以及与第一对象对应的距离敏感度属性对第一对象的行走轨迹进行预测,提高了预测精度。
本申请方法实施例四提供了一种行走轨迹预测方法,如图5所示,该方法包括如下步骤:
步骤501:获取第一对象的运动轨迹;
步骤502:至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;
步骤503:获取不同历史时刻所述第一对象对应的至少一种距离敏感度属性;
步骤504:按照预置的距离敏感度属性与行为模式类别的对应关系,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性所归属的行为模式类别;
在本实施例中,预先建立有距离敏感度属性与行为模式类别的对应关系,具体的,如果距离敏感度属性包括第一距离敏感度属性和第二距离敏感度属性,那么,该对应关系可以为第一距离敏感度属性和第二距离敏感度属性与行为模式类别的第一对应关系。
例如,如图6所示,第一距离敏感度属性用D1表示,第二距离敏感度属性用D2表示,那么具有如下对应关系:
D1大于d1,且D2大于d2对应行为模式类别1;
D1小于d1,且D2大于d2对应行为模式类别2;
D1小于d1,且D2小于d2对应行为模式类别3;
D1大于d1,且D2小于d2对应行为模式类别4。
通过第一对应关系,能够确定出不同历史时刻第一对象对应的第一距离敏感度属性和第二距离敏感度属性所归属的行为模式类别。
如果距离敏感度属性仅包括用于第一距离敏感度属性,那么该对应关系可以为第一距离敏感度属性与行为模式类别的第二对应关系。
例如,第一距离敏感度属性用D1表示,具有如下对应关系:
D1小于d1对应行为模式类别5;
D1大于d1对应行为模式类别6。
通过第二对应关系,能够确定出不同历史时刻第一对象对应的第一距离敏感度属性所归属的行为模式类别。
如果距离敏感度属性仅包括第二距离敏感度属性,那么该对应关系可以为第二距离敏感度属性与行为模式类别的第三对应关系。
例如,第二距离敏感度属性用D2表示,具有如下对应关系:
D2小于d2对应行为模式类别7;
D1大于d2对应行为模式类别8。
通过第三对应关系,能够确定出不同历史时刻第一对象对应的第二距离敏感度属性所归属的行为模式类别。
步骤505:至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹。
其中,步骤504和步骤505为步骤至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹的具体实现。
其中,至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹,可以包括:
将不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别输入到预先训练出的递归神经网络模型,以通过所述递归神经网络模型输出所述第一对象的行走轨迹。
该递归神经网络模型为基于多个样本用户的在多个不同时刻的位置、行走速度以及行为模式类别训练得到的。
为便于理解,本申请方法实施例五提供了关于一种行走轨迹预测方法的具体实例,如图7所示,该方法包括如下步骤:
步骤701:获取包含第一人物的运动轨迹的视频图像;
步骤702:从该视频图像中,提取第一人物在不同历史时刻的历史位置,并计算出在不同历史时刻的历史行走速度,以及距离周围多个第二人物的历史相对移动信息;
步骤703:基于该历史相对移动信息,确定出第一人物与周围多个第二人物的第一距离敏感度属性和第二距离敏感度属性;
步骤704:使用第一距离敏感度属性和第二距离敏感度属性对第一人物进行分类,获取第一人物所归属的行为模式类别,分类方式参照附图6;
步骤705:将不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别输入到预先训练出的长短记忆神经网络模型,以通过所述长短记忆神经网络模型输出所述第一对象的行走轨迹。
其中,长短记忆神经网络模型为递归神经网络模型的一种具体模型,结构模型图如图8a所示,功能图如图8b所示,由图8b可以看出,通过把行为模式类别作为一个隐藏状态层关联各个长短记忆神经网络模型,即通过某个对象的长短记忆神经网络模型可以作为其他对象的隐藏状态层的行为模式类别的输入。
与上述一种行走轨迹预测方法对应的,本申请实施例还提供了一种电子设备,如图9所示,在本申请装置实施例一中,一种电子设备包括:存储器100和处理器200;
存储器100用于获得第一对象的运动轨迹;
该运动轨迹优选基于视频图像获取,视频图像包含有第一对象的运动轨迹,具体可以通过采集设备对第一对象的行为进行监控获取,当电子设备获取到视频图像时,将其存储在存储器100中。
而该视频图像中可以包含有第一对象,也可以不包含有第一对象。
视频图像中包含第一对象,第一对象能够位于至少一个采集设备的采集区域。如果至少两个采集设备采集有第一对象的运动轨迹,那么,可以获取该至少两个采集设备采集的包含第一对象的运动轨迹的视频图像。
视频图像不包含第一对象,那么用于采集第一对象的运动轨迹的采集设备可以设置在第一对象上,以第一对象的角度采集视频图像,该视频图像也能够体现出第一对象的运动轨迹。
需说明的是,本申请提供的电子设备还可以包括用于采集包含第一对象运动轨迹的视频图像的采集设备。或者本申请提供的电子设备也可以与采集设备通信,以获取包含第一对象运动轨迹的视频图像,并将其存储在存储器中。
另外,运动轨迹的获取也可以通过其它方式,如用户携带的带有定位功能的电子设备,如电子手表、手机。
处理器200,用于至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性,至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
历史时刻为已经过去的时刻,具体可以为与当前时刻的相邻的前多个时刻,以提高对与当前时刻相邻的下一时刻第一对象的行走轨迹预测的准确性。这种情况下,可以对运动轨迹进行定位,以确定与当前时刻的相邻的前多个时刻视频图像中第一对象的历史位置、历史行走速度。
当前时刻为当前执行所述一种行走轨迹预测方法的时刻,具体可以将获取包含第一对象的运动轨迹的时刻看作为当前时刻。
其中,历史行走速度可以由两个相邻历史时刻第一对象所移动的距离和两个相邻历史时刻相距的时间获得。应当说明的是,这里的历史行走速度包含了第一对象的运动方向信息。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。
需说明的是,在本申请中,第一对象的类型有多种,具体的,第一对象可以为真正的人,也可以为智能设备,如无人驾驶汽车、物流机器人、足球比赛过程中的比赛机器人等等。不同类型的对象确定距离敏感度属性的方式可能不同,具体会在后文详细描述。
需说明的是,预测第一对象的行走轨迹可以为预测第一对象在当前时刻的下一时刻的行走轨迹,因此具有及时性。
由此可见,在本实施例中,通过获取第一对象的运动轨迹,基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性,从而至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹,而距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离,由此可见,本申请中,能够充分利用对象的位置、行走速度以及与第一对象对应的距离敏感度属性对第一对象的行走轨迹进行预测,提高了预测精度。
在本申请装置实施例二中,处理器获取不同历史时刻所述第一对象对应的至少一种距离敏感度属性,包括:确定不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息,基于不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
在本实施例中,第一对象的运动轨迹基于视频图像获得,在视频图像中不仅包含第一对象的运动轨迹,还包括除第一对象之外的至少一个第二对象的运动轨迹,该第二对象为视频图像中除第一对象之外的任意一个对象。那么通过对视频图像进行分析能够确定出在不同历史时刻下,第一对象与第二对象之间的历史相对移动信息。该历史相对移动信息用于表征第一对象与第二对象之间的距离。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。例如,第一对象在正常行走过程中,其前方具有一个与其同方向行走的第二对象,那么,第一对象为了防止与第二对象发生接触,会与前方行走的第二对象保持一定的距离,该距离即为第一距离敏感度属性。
比如说,在多个历史时刻下,通过对视频图像进行分析确定第一对象维持与第二对象相距1.2m,那么可以确定第一距离敏感度属性值为1.2m。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。例如,第一对象在正常行走过程中,其前方有一个第二对象与其相向而行,第一对象发现第二对象可能会碰撞到自己时更改了行走轨迹,那么更改行走轨迹时与第二对象之间的距离即为第二距离敏感度属性。
在本实施例中,第一对象可以为人,当然也可以为智能设备,智能设备可以为无人驾驶汽车、物流机器人、比赛机器人如足球比赛过程中的比赛机器人等等。需说明的是,智能设备没有正常人的意识,因此其第一距离敏感度属性和/或第二距离敏感度属性会设置在系统中,,这种设置可能是预先设置的,也可能是在实际使用中随时调整的,智能设备在行走过程中,会基于其预先设定的第一距离敏感度属性和/或第二距离敏感度属性与其他第二对象保持一定的安全距离,那么处理器通过对视频图像进行分析也能够确定出与智能设备对应的第一距离敏感度属性和/或第二距离敏感度属性。
第二对象可以为处于运动状态的对象,包括与第一对象为同一类型的处于运动状态的对象,和/或,与第一对象为不同类型的处于运动状态的对象。
在本申请装置实施例三中,处理器获取不同历史时刻所述第一对象对应的至少一种距离敏感度属性,包括:获取设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
在本实施例中,第一对象为智能设备,为了防止智能设备在行走过程中与其他对象发生碰撞,会为智能设备设定距离敏感度属性,那能够获取到设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
第二对象可以为处于运动状态的对象,包括与第一对象为同一类型的处于运动状态的对象,和/或,与第一对象为不同类型的处于运动状态的对象。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,至少包括以下一种:
具体的,该至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。例如,设定第一距离敏感度属性为0.5m,那么,智能设备会保持与其他行走对象至少0.5m的安全距离。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。例如,设定第二距离敏感度属性为0.3m,那么第一对象在正常行走过程中,若发现第二对象与其相距0.3m则更改行走轨迹。
需说明的是,本实施例提供的电子设备可以为智能设备,当然也可以区别于智能设备。当区别于智能设备时,电子设备可以通过与智能设备(第一对象)通信获取距离敏感度属性,或者电子设备中预先存储有不同智能设备的距离敏感度属性,通过获取当前预测的智能设备的标识来确定与智能设备对应的距离敏感度属性。
在本申请装置实施例四中,处理器至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹,包括:按照预置的距离敏感度属性与行为模式类别的对应关系,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性所归属的行为模式类别,至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹。
在本实施例中,预先建立有距离敏感度属性与行为模式类别的对应关系,具体的,如果距离敏感度属性包括第一距离敏感度属性和第二距离敏感度属性,那么,该对应关系可以为第一距离敏感度属性和第二距离敏感度属性与行为模式类别的第一对应关系。
处理器通过第一对应关系,能够确定出不同历史时刻第一对象对应的第一距离敏感度属性和第二距离敏感度属性所归属的行为模式类别。
如果距离敏感度属性仅包括第一距离敏感度属性,那么该对应关系可以为第一距离敏感度属性与行为模式类别的第二对应关系。
处理器通过第二对应关系,能够确定出不同历史时刻第一对象对应的第一距离敏感度属性所归属的行为模式类别。
如果距离敏感度属性仅包括第二距离敏感度属性,那么该对应关系可以为第二距离敏感度属性与行为模式类别的第三对应关系。
处理器通过第三对应关系,能够确定出不同历史时刻第一对象对应的第二距离敏感度属性所归属的行为模式类别。
具体的,处理器至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹,包括:将不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别输入到预先训练出的递归神经网络模型,以通过所述递归神经网络模型输出所述第一对象的行走轨迹。
该递归神经网络模型为基于多个样本用户的在多个不同时刻的位置、行走速度以及行为模式类别训练得到的。
本申请还提供了一种电子设备,如图10所示,在本申请装置实施例五中,一种电子设备包括:第一获取单元1001、第一确定单元1002、第二确定单元1003以及第一预测单元1004;其中:
第一获取单元1001,用于获得第一对象的运动轨迹;
该运动轨迹优选基于视频图像获取,视频图像包含有第一对象的运动轨迹,具体可以通过采集设备对第一对象的行为进行监控获取。而该视频图像中可以包含有第一对象,也可以不包含有第一对象。
视频图像包含第一对象,第一对象能够位于至少一个采集设备的采集区域。如果至少两个采集设备采集有第一对象的运动轨迹,那么,可以获取该至少两个采集设备采集的包含第一对象的运动轨迹的视频图像。
视频图像不包含第一对象,那么用于采集第一对象的运动轨迹的采集设备可以设置在第一对象上,以第一对象的角度采集视频图像,该视频图像也能够体现出第一对象的运动轨迹。
需说明的是,本申请提供的电子设备可以具有用于采集包含第一对象运动轨迹的视频图像的采集设备。或者本申请提供的电子设备也可以与采集设备通信,以获取包含第一对象运动轨迹的视频图像。
另外,运动轨迹的获取也可以通过其它方式,如用户携带的带有定位功能的电子设备,如电子手表、手机。
第一确定单元1002,用于至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;
历史时刻为已经过去的时刻,具体可以为与当前时刻的相邻的前多个时刻,以提高对与当前时刻相邻的下一时刻第一对象的行走轨迹预测的准确性。这种情况下,可以对视频图像进行定位,以确定与当前时刻的相邻的前多个时刻视频图像中第一对象的历史位置、历史行走速度。
当前时刻为当前行走轨迹预测方法的时刻,具体可以将第一获取单元获取包含第一对象的运动轨迹的时刻看作为当前时刻。
其中,历史行走速度可以由两个相邻历史时刻第一对象所移动的距离和两个相邻历史时刻相距的时间获得。应当说明的是,这里的历史行走速度包含了第一对象的运动方向信息。
第二确定单元1003,用于获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。
需说明的是,在本申请中,第一对象的类型有多种,具体的,第一对象可以为真正的人,也可以为智能设备,如无人驾驶汽车、物流机器人、足球比赛过程中的比赛机器人等等。不同类型的对象确定距离敏感度属性的方式可能不同,具体会在后文详细描述。
第一预测单元1004,用于至少依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹。
需说明的是,预测第一对象的行走轨迹可以为预测第一对象在当前时刻的下一时刻的行走轨迹,因此具有及时性。
由此可见,在本实施例中,通过获取第一对象的运动轨迹,基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性,从而依据不同历史时刻所述第一对象的历史位置、历史行走速度以及所述至少一种距离敏感度属性,预测所述第一对象的行走轨迹,而距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离,由此可见,本申请中,能够充分利用对象的位置、行走速度以及与第一对象对应的距离敏感度属性对第一对象的行走轨迹进行预测,提高了预测精度。
在本申请装置实施例六中,第二确定单元包括:第一确定模块和第二确定模块,其中:
第一确定模块,用于确定不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息;
在本实施例中,第一对象的运动轨迹基于视频图像获得,在视频图像中不仅包含第一对象的运动轨迹,还包括除第一对象之外的至少一个第二对象的运动轨迹,该第二对象为视频图像中除第一对象之外的任意一个对象。那么通过对视频图像进行分析能够确定出在不同历史时刻下,第一对象与第二对象之间的历史相对移动信息。该历史相对移动信息用于表征第一对象与第二对象之间的移动距离。
第二确定模块,用于基于不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。例如,第一对象在正常行走过程中,其前方具有一个与其同方向行走的第二对象,那么,第一对象为了防止与第二对象发生接触,会与前方行走的第二对象保持一定的距离,该距离即为第一距离敏感度属性。
比如说,在多个历史时刻下,通过对视频图像进行分析确定第一对象维持与第二对象均相距1.2m,那么可以确定第一距离敏感度属性值为1.2m。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。例如,第一对象在正常行走过程中,其前方有一个第二对象与其相向而行,第一对象发现第二对象可能会碰撞到自己时更改了行走轨迹,那么更改行走轨迹时与第二对象之间的距离即为第二距离敏感度属性。
在本实施例中,第一对象可以为人,当然也可以为智能设备,智能设备可以为无人驾驶汽车、物流机器人、比赛机器人如足球比赛过程中的比赛机器人等等。需说明的是,智能设备没有正常人的意识,因此其第一距离敏感度属性和/或第二距离敏感度属性会设置在系统中,这种设置可能是预先设置的,也可能是在实际使用中随时调整的,智能设备在行走过程中,会基于其设定的第一距离敏感度属性和/或第二距离敏感度属性与其他第二对象保持一定的安全距离,那么通过对视频图像进行分析也能够确定出与智能设备对应的第一距离敏感度属性和/或第二距离敏感度属性。
第二对象可以为处于运动状态的对象,包括与第一对象为同一类型的处于运动状态的对象,和/或,与第一对象为不同类型的处于运动状态的对象。
在本申请装置实施例七中,第二确定单元包括:第一获取模块,用于获取设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
在本实施例中,第一对象为智能设备,为了防止智能设备在行走过程中与其他对象发生碰撞,会为智能设备设定距离敏感度属性,第一获取模块能够获取到设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
第二对象可以为处于运动状态的对象,包括与第一对象为同一类型的处于运动状态的对象,和/或,与第一对象为不同类型的处于运动状态的对象。
该距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离。
具体的,该至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离。通俗来讲,第一距离敏感度属性为第一对象在移动过程中,为了防止主动接触第二对象而所预留出的安全距离。例如,设定第一距离敏感度属性为0.5m,那么,智能设备会保持与其他行走对象至少0.5m的安全距离。
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离。
通俗来讲,第二距离敏感度属性为第一对象发现第二对象可能会接触到自己时更改当前状态以防止被撞所预留的安全距离。如暂停移动,或者更改当前行走轨迹均是第一对象更改当前状态的方式。例如,设定第二距离敏感度属性为0.3m,那么第一对象在正常行走过程中,若发现第二对象与其相距0.3m则更改行走轨迹。
需说明的是,本实施例提供的电子设备可以为智能设备中,当然也可以区别于智能设备。当电子设备区别于智能设备时,电子设备可以通过与智能设备(第一对象)通信获取距离敏感度属性,或者电子设备中预先存储有不同智能设备的距离敏感度属性,通过获取当前预测的智能设备的标识来确定与智能设备对应的距离敏感度属性。
在本申请装置实施例八中,第一预测单元包括第三确定模块和第一预测模块;其中:
第三确定模块,用于按照预置的距离敏感度属性与行为模式类别的对应关系,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性所归属的行为模式类别;
在本实施例中,预先建立有距离敏感度属性与行为模式类别的对应关系,具体的,如果距离敏感度属性包括第一距离敏感度属性和第二距离敏感度属性,那么,该对应关系可以为第一距离敏感度属性和第二距离敏感度属性与行为模式类别的第一对应关系。
通过第一对应关系,能够确定出不同历史时刻第一对象对应的第一距离敏感度属性和第二距离敏感度属性所归属的行为模式类别。
如果距离敏感度属性仅包括第一距离敏感度属性,那么该对应关系可以为第一距离敏感度属性与行为模式类别的第二对应关系。
通过第二对应关系,能够确定出不同历史时刻第一对象对应的第一距离敏感度属性所归属的行为模式类别。
如果距离敏感度属性仅包括第二距离敏感度属性,那么该对应关系可以为第二距离敏感度属性与行为模式类别的第三对应关系。
通过第三对应关系,能够确定出不同历史时刻第一对象对应的第二距离敏感度属性所归属的行为模式类别。
第一预测模块,用于基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹。
其中,第一预测模块具体用于将不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别输入到预先训练出的递归神经网络模型,以通过所述递归神经网络模型输出所述第一对象的行走轨迹。
该递归神经网络模型为基于多个样本用户的在多个不同时刻的位置、行走速度以及行为模式类别训练得到的。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本公开。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (7)

1.一种行走轨迹预测方法,包括:
获得第一对象的运动轨迹;
至少基于所述运动轨迹,确定不同历史时刻所述第一对象的历史位置、历史行走速度;
获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,所述距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离;
按照预置的距离敏感度属性与行为模式类别的对应关系,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性所归属的行为模式类别;
至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹;
所述至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离;
以及,
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离,所述第二距离敏感度属性为所述第一对象发现第二对象会接触到自己时,更改当前状态以防止被撞所预留的安全距离;
所述第一对象的运动轨迹基于视频图像获得,所述获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,包括:
确定不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息;
基于不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
2.根据权利要求1所述的行走轨迹预测方法,所述获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,包括:
获取设定的不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
3.根据权利要求1所述的行走轨迹预测方法,所述至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹,包括:
将不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别输入到预先训练出的递归神经网络模型,以通过所述递归神经网络模型输出所述第一对象的行走轨迹。
4.根据权利要求3所述的行走轨迹预测方法,所述递归神经网络模型为基于多个样本用户的在多个不同时刻的位置、行走速度以及行为模式类别训练得到的。
5.一种电子设备,包括:
存储器,用于获得第一对象的运动轨迹;
处理器,用于至少基于所述运动轨迹,确定不同历史时刻视频图像中第一对象的历史位置、历史行走速度,获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,所述距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离,按照预置的距离敏感度属性与行为模式类别的对应关系,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性所归属的行为模式类别;至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹;
所述至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离;
以及,
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离,所述第二距离敏感度属性为所述第一对象发现第二对象会接触到自己时,更改当前状态以防止被撞所预留的安全距离;
所述第一对象的运动轨迹基于视频图像获得,所述获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,包括:
确定不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息;
基于不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
6.根据权利要求5所述的电子设备,还包括:
采集设备,用于采集第一对象的运动轨迹。
7.一种电子设备,包括:
第一获取单元,用于获得第一对象的运动轨迹;
第一确定单元,用于至少基于所述运动轨迹,确定不同历史时刻视频图像中第一对象的历史位置、历史行走速度;
第二确定单元,用于获得不同历史时刻所述第一对象对应的至少一种距离敏感度属性,所述距离敏感度属性用于表征所述第一对象与所述第一对象之外的至少一个第二对象之间所需保持的安全距离;
第一预测单元,用于按照预置的距离敏感度属性与行为模式类别的对应关系,确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性所归属的行为模式类别;至少基于不同时刻所述第一对象的历史位置、历史行走速度以及所归属的行为模式类别,预测所述第一对象的行走轨迹;所述至少一种距离敏感度属性,至少包括以下一种:
第一距离敏感度属性,用于表征所述第一对象在移动中为避免主动与至少一个第二对象发生接触而预留的安全距离;
以及,
第二距离敏感度属性,用于表征所述第一对象为避免被动与至少一个第二对象发生接触而预留的安全距离,所述第二距离敏感度属性为所述第一对象发现第二对象会接触到自己时,更改当前状态以防止被撞所预留的安全距离;
所述第一对象的运动轨迹基于视频图像获得,所述第二确定单元具体用于:
确定不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息;
基于不同历史时刻所述第一对象与所述第一对象之外的至少一个第二对象之间的历史相对移动信息确定不同历史时刻所述第一对象对应的至少一种距离敏感度属性。
CN201811609759.4A 2018-12-27 2018-12-27 一种行走轨迹预测方法和电子设备 Active CN109523574B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811609759.4A CN109523574B (zh) 2018-12-27 2018-12-27 一种行走轨迹预测方法和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811609759.4A CN109523574B (zh) 2018-12-27 2018-12-27 一种行走轨迹预测方法和电子设备

Publications (2)

Publication Number Publication Date
CN109523574A CN109523574A (zh) 2019-03-26
CN109523574B true CN109523574B (zh) 2022-06-24

Family

ID=65797395

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811609759.4A Active CN109523574B (zh) 2018-12-27 2018-12-27 一种行走轨迹预测方法和电子设备

Country Status (1)

Country Link
CN (1) CN109523574B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827326B (zh) * 2019-11-14 2023-05-02 清华大学苏州汽车研究院(吴江) 模拟人车冲突场景模型生成方法、装置、设备和存储介质
EP4074563A4 (en) * 2019-12-30 2022-12-28 Huawei Technologies Co., Ltd. TRAJECTORY PREDICTION METHOD AND ASSOCIATED DEVICE
CN113689660B (zh) * 2020-05-19 2023-08-29 三六零科技集团有限公司 可穿戴设备的安全预警方法、可穿戴设备
CN112183221B (zh) * 2020-09-04 2024-05-03 北京科技大学 一种基于语义的动态物体自适应轨迹预测方法
CN113504527B (zh) * 2021-09-13 2021-12-14 北京海兰信数据科技股份有限公司 一种雷达目标预测处理方法及系统
CN113951767A (zh) * 2021-11-08 2022-01-21 珠海格力电器股份有限公司 可移动设备的控制方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104827963A (zh) * 2015-04-01 2015-08-12 北京京东尚科信息技术有限公司 一种用于车辆防撞智能预警的方法、控制系统以及控制装置
CN106023647A (zh) * 2016-05-05 2016-10-12 苏州京坤达汽车电子科技有限公司 驾驶习惯和状态自适应的车辆安全距离预警控制装置
CN106023244A (zh) * 2016-04-13 2016-10-12 南京邮电大学 基于最小二乘法轨迹预测及智能避障模型的行人跟踪方法
CN106926844A (zh) * 2017-03-27 2017-07-07 西南交通大学 一种基于实时环境信息的动态自动驾驶换道轨迹规划方法
CN108255182A (zh) * 2018-01-30 2018-07-06 上海交通大学 一种基于深度强化学习的服务机器人行人感知避障方法
US10156850B1 (en) * 2017-12-08 2018-12-18 Uber Technologies, Inc. Object motion prediction and vehicle control systems and methods for autonomous vehicles

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104882025B (zh) * 2015-05-13 2017-02-22 东华大学 一种基于车联网技术的碰撞检测预警方法
CN108803617B (zh) * 2018-07-10 2020-03-20 深圳大学 轨迹预测方法及装置
CN108958263A (zh) * 2018-08-03 2018-12-07 江苏木盟智能科技有限公司 一种机器人避障方法及机器人

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104827963A (zh) * 2015-04-01 2015-08-12 北京京东尚科信息技术有限公司 一种用于车辆防撞智能预警的方法、控制系统以及控制装置
CN106023244A (zh) * 2016-04-13 2016-10-12 南京邮电大学 基于最小二乘法轨迹预测及智能避障模型的行人跟踪方法
CN106023647A (zh) * 2016-05-05 2016-10-12 苏州京坤达汽车电子科技有限公司 驾驶习惯和状态自适应的车辆安全距离预警控制装置
CN106926844A (zh) * 2017-03-27 2017-07-07 西南交通大学 一种基于实时环境信息的动态自动驾驶换道轨迹规划方法
US10156850B1 (en) * 2017-12-08 2018-12-18 Uber Technologies, Inc. Object motion prediction and vehicle control systems and methods for autonomous vehicles
CN108255182A (zh) * 2018-01-30 2018-07-06 上海交通大学 一种基于深度强化学习的服务机器人行人感知避障方法

Also Published As

Publication number Publication date
CN109523574A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN109523574B (zh) 一种行走轨迹预测方法和电子设备
CN111857356B (zh) 识别交互手势的方法、装置、设备和存储介质
CN109686109B (zh) 一种基于人工智能的停车场安全监控管理系统及方法
CN109785368B (zh) 一种目标跟踪方法和装置
US20180124423A1 (en) Dynamic scene prediction with multiple interacting agents
CN106682572A (zh) 目标跟踪方法、系统和第一电子设备
Ji et al. A method for LSTM-based trajectory modeling and abnormal trajectory detection
US10296785B1 (en) Apparatuses, systems, and methods for vehicle operator gesture recognition and transmission of related gesture data
CN110264495A (zh) 一种目标跟踪方法及装置
CN107944382B (zh) 目标跟踪方法、装置及电子设备
CN109803127A (zh) 基于大数据和物联网技术的城市安全工地监控系统和方法
CN115471865A (zh) 作业现场数字化安全管控方法、装置、设备和存储介质
US10997474B2 (en) Apparatus and method for person detection, tracking, and identification utilizing wireless signals and images
Li et al. DBUS: Human driving behavior understanding system
CN112800841B (zh) 一种行人计数方法、装置、系统及计算机可读存储介质
Li et al. Efficient health-related abnormal behavior detection with visual and inertial sensor integration
CN107786746B (zh) 交通应用的控制方法、装置以及系统、存储介质
CN110803170B (zh) 智能用户接口的驾驶辅助系统
US20220335725A1 (en) Monitoring presence or absence of an object using local region matching
CN118918537B (zh) 基于打伞行人的客流统计方法、装置和计算机设备
CN111783717B (zh) 一种生物特征运动模态智能识别方法及其应用
CN106601009A (zh) 一种停车信息生成方法及装置
Pech et al. Real time recognition of non-driving related tasks in the context of highly automated driving
CN109815921A (zh) 加氢站中活动类别的预测方法及装置
Raman et al. Beyond estimating discrete directions of walk: a fuzzy approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant