[go: up one dir, main page]

CN116092037B - 融合轨迹空间-语义特征的车辆类型识别方法 - Google Patents

融合轨迹空间-语义特征的车辆类型识别方法 Download PDF

Info

Publication number
CN116092037B
CN116092037B CN202310171830.XA CN202310171830A CN116092037B CN 116092037 B CN116092037 B CN 116092037B CN 202310171830 A CN202310171830 A CN 202310171830A CN 116092037 B CN116092037 B CN 116092037B
Authority
CN
China
Prior art keywords
vehicle
micro
track
point
travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310171830.XA
Other languages
English (en)
Other versions
CN116092037A (zh
Inventor
张云菲
谢亚君
郝威
朱攀
谭剑波
周访滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha University of Science and Technology
Original Assignee
Changsha University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University of Science and Technology filed Critical Changsha University of Science and Technology
Priority to CN202310171830.XA priority Critical patent/CN116092037B/zh
Publication of CN116092037A publication Critical patent/CN116092037A/zh
Application granted granted Critical
Publication of CN116092037B publication Critical patent/CN116092037B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种融合轨迹空间‑语义特征的车辆类型识别方法,对原始车辆轨迹数据进行预处理,包括重复轨迹过滤、停留点识别和微行程划分;基于车辆轨迹数据、停留点和微行程,计算车辆运动特征和关联的地理语义特征;基于车辆运动特征和关联的地理语义特征,进行车辆类型识别。停留点识别的具体操作为:选择某车辆轨迹点中移动距离小于距离阈值且理论速度小于速度阈值的轨迹点进行DBSCAN聚类,聚类以空间距离和速度差异为双邻域约束,聚类后每个簇分别对应该车辆的一个停留点。微行程划分,是当相邻轨迹点时间间隔大于时间阈值秒或遇到停留点时,打断车辆轨迹,即得到各车辆行驶的微行程。有效提高车辆类型识别精度。

Description

融合轨迹空间-语义特征的车辆类型识别方法
技术领域
本发明属于车辆类型识别领域,涉及一种融合轨迹空间-语义特征的车辆类型识别方法。
背景技术
近年来,随着物联网、传感网和精密定位技术的不断成熟和推广,积累了海量丰富的移动轨迹数据。这些轨迹数据蕴含了丰富、有价值的居民出行活动和城市交通运行信息,可为生态宜居环境构建和健康社会治理提供重要的决策依据。另一方面,获取路网中运行车辆类型信息,有助于准确估计道路交通荷载、机动车碳排放等,也有利于制定个性化车辆导航指引和实现智慧城市交通管控。
目前车辆类型识别方法主要分为侵入式和非侵入式两大类。传统的侵入式方法主要依靠固定位置传感器(如感应线圈、动态称重系统等)直接记录车辆类型,该方法识别结果准确、效率高,但运维成本高、容易干扰交通,故难以全路段覆盖。非侵入式方法主要利用雷达、红外、声学、视觉摄像头等传感器设备非接触式地识别行驶车辆类别,该方法技术成熟、结果准确而不干扰交通,但同样存在运维成本较高、难以大范围推广等问题,且在恶劣天气条件存在一定局限性。近年来,在“人人都是传感器”的众包感知模式下,持续累积的车辆轨迹数据提供了一种持续动态、覆盖面广、获取成本更低的交通监测数据,一定程度上克服了现有方法运维成本高、对环境敏感和容易产生交通干扰等问题,逐渐成为车辆类型识别、交通模式分类与驾驶行为分析的重要手段。
利用轨迹数据提取车辆类型,其原理与交通模式检测类似,首先根据轨迹时空信息计算速度、加速度、减速度等行驶特征,进而利用支持向量机、随机森林、深度学习等经典分类模型识别不同车辆类型。例如,SUN Z,BAN X,Vehicle classification using GPSdata[J].Transportation Research Part C:Emerging Technologies,Volume 37,2013,Pages102-117计算了加、减速度标准差及加、减速度大于1m/s2的轨迹占比等特征指标,结合支持向量机(Support Vector Machine,SVM)与二次核函数实现客车和货车的二分类;在此基础上,SUN Z,BAN X.Identifying multiclass vehicles using global positioningsystem data[J].Journal of Intelligent Transportation Systems,2018,22(1):1-9提出使用加、减速度区间累积频率并改进SVM二分类实现客车、小型货车及大型货车的三分类。之后,SIMONCINI M,TACCARI L,SAMBO F,et al,Vehicle classification from low-frequency GPS data with recurrent neural networks[J].Transportation ResearchPart C:Emerging Technologies,Volume 91,2018,Pages 176-191,提出一种基于长短时记忆(LSTM)循环神经网络(Recurrent Neural Network,RNN)的车辆分类方法,分别应用于在轻型、重型车辆二分类和轻型、中型、重型车辆三分类,精度达到86.7%和75.8%,精度相较于固定传感器仍有待提高。
发明内容
本发明实施例的目的在于提供一种融合轨迹空间-语义特征的车辆类型识别方法,以解决现有利用轨迹数据提取车辆类型的方法的精度有待提高的问题。
本发明实施例所采用的技术方案是:融合轨迹空间-语义特征的车辆类型识别方法,包括以下步骤:
步骤S1、对原始车辆轨迹数据进行预处理,包括重复轨迹过滤、停留点识别和微行程划分;
步骤S2、基于车辆轨迹数据、停留点和微行程,计算车辆运动特征和关联的地理语义特征;
步骤S3、基于车辆运动特征和关联的地理语义特征,进行车辆类型识别。
进一步的,步骤S1的停留点识别的具体操作为:选择某车辆轨迹点中移动距离小于距离阈值且理论速度小于速度阈值的轨迹点进行DBSCAN聚类,聚类以空间距离和速度差异为双邻域约束,聚类后每个簇分别对应该车辆的一个停留点。
进一步的,DBSCAN聚类的空间距离约束阈值Epss=500m、速度差异阈值Epsv=3m/s、最小点数阈值MinPts=10。
进一步的,步骤S1的微行程划分,是当相邻轨迹点时间间隔大于时间阈值或遇到停留点时,打断车辆轨迹,即得到各车辆行驶的微行程。
进一步的,步骤S2的车辆运动特征包括每段微行程的速度标准差、加速度标准差、每个速度区间的轨迹点所占比例、每个加速度区间的轨迹点所占比例、行驶距离和停驶率。
进一步的,每个加速度区间的轨迹点所占比例的计算公式如下:
式中,为车辆V(i)的微行程TS(i)中处于绝对加速度区间ARk的轨迹点所占比例,p为微行程TS(i)中某一轨迹点,为微行程TS(i)中轨迹点p的理论绝对加速度,count{}为对应集合的元素个数;
每个速度区间的轨迹点所占比例的计算公式如下:
式中,为车辆V(i)的微行程TS(i)中处于速度区间VRk的轨迹点所占比例,为微行程TS(i)中轨迹点p的理论速度,count{}为对应集合的元素个数。
进一步的,每段微行程的行驶距离的计算公式如下:
式中,di为微行程TS(i)中相邻两点间的距离,Dj (i)为微行程TS(i)的行驶距离;
每段微行程的停驶率的计算公式如下:
式中,p为微行程TS(i)中某一轨迹点,为微行程TS(i)中轨迹点p的理论速度,count{}为对应集合的元素个数,为微行程TS(i)中速度为0的轨迹点所占比例。
进一步的,步骤S2的车辆运动特征包括每段微行程的车辆途径道路特征,车辆途径道路特征计算公式如下:
式中,为车辆V(i)的微行程TS(i)中匹配至第rj级道路上的轨迹点比例,rj为道路等级,j=1~5,分别对应高速公路、国道、省道、县道和乡镇道路;Rp为轨迹点p所匹配的道路等级,count{}为对应集合元素个数。
进一步的,步骤S2的车辆运动特征包括车辆停留地点特征,车辆停留地点特征计算公式如下:
式中,为车辆V(i)的所有停留点SS(i)中第sj类兴趣点占比最高的停留点所占比例,sj为兴趣点类型,j=1~5,分别对应公交站、服务区、长途汽车站、火车站和其他;q为车辆V(i)的某一停留点,POIq为停留点q的500米范围内占比最高的兴趣点类型。
进一步的,步骤S3中基于车辆运动特征和关联的地理语义特征,采用多核支持向量机、概率神经网络级配随机森林进行车辆类型识别。
本发明实施例的有益效果是:
(1)本发明实施例利用DBSCAN聚类方法有效识别车辆停留点信息,并据此对车辆轨迹进行行程分割,以确保行程轨迹运动特征稳定,提高不同类型车辆可分性。
(2)除车辆本身运动特征外,本发明实施例利用导航道路地图和兴趣点数据提取车辆途径道路类型、停留地点等地理语义特征,扩展车辆类型识别的特征集。
(3)实验采用多核支持向量机、概率神经网络、随机森林三种经典机器学习方法进行综合验证,结果表明随机森林分类精度最高,平均精确率和召回率达到92%以上,可有效适用于客车、货车、牵引车分类。
(4)对比固定长度行程分割和基于停留点识别的可变长度行程分割,后者具更高的分类精度;而对比不同特征组合方式,综合考虑运动特征、途径道路和停留地点信息的车辆分类精度显著提高,精度达到83%~93%,说明车辆运动特征与地理语义特征的结合可有效提高车辆类型识别精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是融合轨迹空间-语义特征的车辆类型识别方法的技术路线图。
图2是行驶轨迹上的停留点识别与微行程划分示意图。
图3是客车、货车、牵引车行驶轨迹的平均速度与速度标准差的统计相关特征图。
图4是客车、货车、牵引车行驶轨迹的速度变异系数与最大速度的统计相关特征图。
图5是客车、货车、牵引车的行驶速度区间分布图。
图6是客车、货车、牵引车的行驶加速度区间分布图。
图7是客车、货车、牵引车的行驶道路等级分布图。
图8是客车、货车、牵引车的停留点分布图。
图9是概率神经网络的基本结构图。
图10是随机森林算法示意图。
图11是不同特征和行程分割方式组合下的不同分类器的分类精度对比图。
具体实施方式
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本实施例提出一种融合轨迹空间-语义特征的车辆类型识别方法,如图1所示,包括以下步骤:
步骤S1、对原始车辆轨迹数据进行预处理,包括重复轨迹过滤、停留点识别和微行程划分,以确保参与车辆分类的轨迹行程可靠、运动特征平稳;
步骤S2、基于车辆轨迹数据以及识别的停留点和划分的微行程进行空间语义特征提取,计算车辆运动特征和关联的地理语义特征;
步骤S3、采用车辆分类模型进行车辆类型识别。
轨迹数据是记录个体或群体移动轨迹的一系列带有时间戳的位置数据集合,设原始轨迹数据集中车辆V(i)的行驶轨迹为TV(i)={P1 (i)…Pj (i)…PN (i)},其中,轨迹点数据Pj (i)=(V(i),tj (i),pj (i),vj (i)),记录车辆V(i)在tj (i)时刻的空间位置pj (i)和瞬时速度vj (i)
基于以上观测信息,首先可计算各轨迹点的理论速度和理论加速度等基本运动特征,公式如下:
式中,dj (i)为车辆V(i)的轨迹点j到前一轨迹点j-1的欧氏距离,为车辆V(i)的轨迹点j+1到前一轨迹点j的欧氏距离;为车辆V(i)的轨迹点j+1对应的时间,为车辆V(i)的轨迹点j对应的时间,为车辆V(i)的轨迹点j-1对应的时间;为车辆V(i)的轨迹点j的理论速度,为车辆V(i)的轨迹点j-1的理论速度。
由于车辆轨迹定位精度的不确定性,需要对原始车辆轨迹数据进行预处理,包括重复轨迹过滤、停留点识别和微行程划分三个步骤:
步骤S11、重复轨迹点过滤:删除同一车辆、同一时刻记录的重复轨迹点,如果车辆V(i)的某部分轨迹段{ph (i)…pj (i)...pk (i)}满足|tj (i)tj+1 (i)|=0,j=h…k-1,则除第一个轨迹点ph (i)外,删除该段其他轨迹点,过滤后TV(i)={P1 (i)…Ph (i),Pk+1 (i)…PN (i)};
步骤S12、停留点识别:选择某车辆轨迹点中移动距离小于设定的距离阈值且理论速度小于设定的速度阈值的轨迹点进行DBSCAN聚类,聚类以空间距离和速度差异为双邻域约束,聚类后每个簇分别对应该车辆的一个停留点,其他车辆轨迹分别按以上过程识别停留点;距离阈值和速度阈值可依据车辆历史轨迹点数据中两个停留点之间的距离以及停留点及其附近车辆的速度进行选取,本实施例经大量试验以及分析得到距离阈值为100m、速度阈值为10m/s、DBSCAN聚类的空间距离约束阈值Epss=500m、速度差异阈值Epsv=3m/s、最小点数阈值MinPts=10时,DBSCAN聚类判断停留点的准确度最高;
步骤S13、微行程划分:当相邻轨迹点时间间隔大于设定的时间阈值或遇到停留点时,车辆轨迹被打断,打断后即得到各车辆行驶的微行程。时间阈值可依据车辆历史轨迹点数据中两段微行程之间的停留时间进行选取,在步骤S12考虑行驶速度和距离进行停留点判断基础上,复合停留时间,提高微行程划分的准确度,本实施例经大量试验以及分析得到时间阈值为1200秒时,微行程划分的准确度最高。
如图2为某车辆的行驶轨迹图,水平轴为经纬度,纵轴为时间轴,红色点(停留点1)、绿色点(停留点2)、蓝色点(停留点3)分别为识别出来的3个停留点,黑色轨迹段为对应车辆划分的微行程,可以看到,微行程1和微行程3为往返两段长距离微行程,微行程2为一段短距离微行程。
不同类型车辆,其驾驶行为、停留位置和路径选择等都独具特点,本实施例从车辆运动特征和地理语义特征两个方面探索轨迹数据蕴含的驾驶行为和车辆类型信息。在微行程划分后,本实施例首先分别计算每段微行程的最大速度、最小速度、平均速度、速度标准差、速度变异系数等统计指标。图3为客车、货车、牵引车行驶轨迹的平均速度与速度标准差的统计相关特征,图4为客车、货车、牵引车行驶轨迹的速度变异系数与最大速度的统计相关特征,每个散点代表对应类型车辆的一个微行程。由图可见,不同类型车辆的散点交错分布,仅用速度统计特征难以准确进行车辆分类。
进一步分析各类型车辆微行程中速度、加速度的区间分布情况,即分别计算各类型车辆微行程中处于各速度区间(以km/h为单位))和处于绝对加速度区间(以m/s2为单位))的轨迹点所占比例,结果如图5~6所示。
假设原始车辆行驶轨迹TV(i)被划分为m段微行程TS(i)和n个停留点SS(i),则处于绝对加速度区间(以m/s2为单位)的轨迹点所占比例的计算公式如下:
式中,计算为微行程TS(i)中处于绝对加速度区间ARk的轨迹点所占比例,绝对加速度区间ARk以及绝对加速度区间数可根据要求精度自行划分,如划分为[0,0.1)、[0.1,0.2)、[0.2,0.3)、[0.3,0.4)、[0.4,0.5)、[0.5,+∞);p为微行程TS(i)中某一轨迹点,为微行程TS(i)中轨迹点p的理论绝对加速度,通过公式(2)计算;count{}为对应集合{p|(ap∈ARk&p∈TS(i)}的元素个数。
处于速度区间(以km/h为单位)的轨迹点所占比例的计算公式如下:
式中,为车辆V(i)的微行程TS(i)中处于速度区间VRk的轨迹点所占比例,为微行程TS(i)中轨迹点p的理论速度,通过公式(1)计算;count{}为对应集合元素个数。速度区间VRk以及速度区间数可根据要求精度自行划分,如划分为[0,20)、[20,40)、[40,60)、[60,80)、[80,100)、[100,+∞)。
进一步计算每段微行程的行驶距离:
式中,di为微行程TS(i)中相邻两点间的距离,为微行程TS(i)的行驶距离。
进一步计算每段微行程的停驶率:
式中,p为微行程TS(i)中某一轨迹点,为微行程TS(i)中轨迹点p的理论速度,count{}为对应集合{p|vp=0}、{p|p∈TS(i)}的元素个数,为微行程TS(i)中速度为0的轨迹点所占比例。
由图5可见,牵引车行驶速度相对较高,且主要集中于60-80km/h,这是由于牵引车多行驶长途路线,车速较高。而客车和货车行驶速度分布相对均匀、无明显区别。由图6可知,相较于客车、货车,牵引车行驶加速度更小,加速度介于0-0.1m/s2的分布比例明显大于客车、货车。因此,单纯使用车辆运动特征无法有效进行车辆类型识别,由于车辆行驶速度对行驶道路类型、交通状况等环境因素较为敏感,而行驶加速度与载重、性能等车辆因素关系密切,故考虑融合道路类型、停留地点等地理语义特征。
本实施例利用导航道路地图和兴趣点数据,分析得到车辆途径道路类型及停留地点等地理语义特征,辅助用于车辆类型识别。考虑到单个微行程难以准确完整地表征车辆典型出行活动,计算整车辆行驶微行程中位于不同等级道路上的比例和所有停留点中位于不同类型兴趣点的比例,以此作为同一车辆所有微行程的地理语义特征。
首先,基于空间距离建立各轨迹点与道路匹配关系,进而计算各车辆途径道路和停留地点特征。
车辆途径道路特征计算公式如下:
式中,RVj (i)为车辆V(i)行驶微行程中匹配至第rj级道路上的轨迹点比例,rj为道路等级,j=1~5,分别对应高速公路、国道、省道、县道和乡镇道路;Rp为轨迹点p所匹配的道路等级,count{}为对应集合{p|Rp∈rj&p∈TS(i)}、{p|p∈TS(i)}的元素个数。
车辆停留地点特征计算公式如下:
式中,SVj (i)为车辆V(i)的所有停留点SS(i)中第sj类兴趣点占比最高的停留点所占比例,sj为兴趣点类型,j=1~5,分别对应公交站、服务区、长途汽车站、火车站和其他;q为车辆V(i)的某一停留点,POIq为停留点q的500米范围内占比最高的兴趣点类型(Point ofInterest)类型,count{}为对应集合元素个数。
如图7~8所示,不同类型车辆途径的道路特征和停留点具有显著差异。如图7所示,超过60%的牵引车轨迹点位于高速公路,90%以上货车轨迹点行驶在非高速公路,而近80%客车轨迹点行驶在省道及以下道路上。如图8所示,虽然不同类型车辆在公交车站停留比例都较高,但在其他停留地点各不相同,如客车在长途汽车站停留比例远超其他车辆。此外,考虑到单个微行程不具有代表性,本实施例将同一车辆微行程和停留点所计算得到的车辆途径道路特征和车辆停留地点特征作为该车辆各微行程的地理语义特征,用于车辆分类。
基于以上运动特征和地理语义特征,本实施例分别使用多核支持向量机(SVM)、概率神经网络和随机森林三种经典的监督学习方法进行车辆类型识别。
如公式(9)所示,多核SVM是寻求一种基于多个基本核函数的线性加权组合作为合成核以获得更高分类精度的学习模型:
式中,Xi为输入的车辆运动特征矩阵,且该车辆运动特征矩阵的每行代表一个微行程的运动特征,运动特征包含6个速度区间的轨迹点所占比例、6个加速度区间的轨迹点所占比例以及每段微行程的速度标准差、加速度标准差、行驶距离和停驶率;Xj为输入的车辆地理语义特征矩阵,车辆地理语义特征包含5个车辆途径道路特征和5个车辆停留地点特征,K(Xi,Xj)是合成核函数,km(Xi,Xj)是基本核函数,dm是对应的基本核函数km(Xi,Xj)的权重,为待学习的参数,M为基本核函数的总数。本实施例选择线性核函数、多项式核函数、径向核函数、Sigmoid核函数作为基本核函数,将计算的车辆运动特征和地理语义特征映射到最优核函数,通过训练分类器确定每个核函数的权重dm,获得车辆分类结果。
概率神经网络的基本结构如图9所示,包括输入层、隐含层、求和层和输出层。输入层接受样本数据X=(X1…XM)并传递给隐含层,输入层的神经元个数等于输入向量长度M;第二层隐含层按照公式(10)计算输入向量X与各训练样本的相似性,故神经元个数与训练样本数一致;第三层求和层按照公式(11)计算输入向量X属于各类的后验概率vi,故神经元个数与类别数相同;输出层接收求和层的输出,选择具有最大后验概率的神经元类别作为输入变量的最终类别:
式中,Xij为第i类中第j个训练样本,δ是待设置的平滑因子,表示输入向量X与训练样本Xij之间相似性;
其中,Li为隐含层中第i个神经元对应的训练样本数,vi为求和层中第i个(类)神经元的输出。
随机森林的主要思想如图10所示,首先利用bootstrap自助采样法随机生成包含n个样本的K个训练集;然后对K个随机生成的训练集分别构建决策分类树组成随机森林;基于生成的随机森林,获得测试数据的K个分类结果,再根据投票法确定最终分类结果。
实施例2
利用2018年10月19日采集的1958车辆的行驶轨迹数据进行空间语义特征分析及车辆类型识别的综合验证。实验的行驶轨迹数据包含客车、货车和牵引车,对应为657、665、636车辆的行驶轨迹点共计2359290个。如表1所示,原始轨迹数据平均采样间隔为45秒、平均采样间距为126.63米。经过停留点识别和微行程划分后,客车、货车、牵引车分别被划分成2413、1127、1288段微行程,表1列出单一车辆行驶轨迹包含停留点个数和微行程个数。
由于客车微行程数据相对较多,本发明实施例随机选择1254个客车微行程用于分类实验,以确保不同类型车辆数据规模相近而避免分类过拟合。进而计算每个微行程的速度、加速度区间分布等16个运动特征和车辆途径道路特征和停留地点特征等10个地理语义特征,共计26个轨迹特征,本实施例实验选择80%微行程用于训练模型,20%微行程用于分类测试。
表2为综合使用轨迹空间语义特征的不同车辆分类方法的混淆矩阵,对角线元素注明了正确识别车辆类型的微行程个数,非对角元素表示错误识别车辆类型的微行程个数。总体而言,三种方法分类精确率介于76.61%~93.80%之间,召回率介于76.11%~93.42%之间,其中随机森林分类精度最高,概率神经网络次之,支持向量机分类精度最低。对比不同类型车辆分类精度发现,客车分类精度最高,精确率和召回率最高分别达93.80%和93.42%,牵引车其次,货车最低,误分类车辆主要集中于货车和牵引车之间。
表1原始轨迹数据、车辆停留点和微行程基本统计特征
表2基于SVM、概率神经网络和随机森林的车辆分类混淆矩阵
表3不同特征组合和行程分割方式下分类精度对比
图11和表3为不同特征组合、不同行程分割方式下三种车辆分类方法的精度统计和提升幅度。一方面,通过停留点识别和可变长度微行程划分,使得车辆分类精度相较于固定长度分割提升了7.83%~17.18%。另一方面,考虑途径道路和停留地点等地理语义特征,使得车辆分类精度相较于单纯基于运动特征的分类精度也显著提升,随机森林方法提升幅度达25.07%。最后,不同分类方法对比来看,尽管采用不同特征组合、不同行程分割方式,随机森林分类方法始终保持精度最高,概率神经网络其次,支持向量机分类精度最低。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (5)

1.融合轨迹空间-语义特征的车辆类型识别方法,其特征在于,包括以下步骤:
步骤S1、对原始车辆轨迹数据进行预处理,包括重复轨迹过滤、停留点识别和微行程划分;
步骤S2、基于车辆轨迹数据、停留点和微行程,计算车辆运动特征和关联的地理语义特征;
步骤S3、基于车辆运动特征和关联的地理语义特征,进行车辆类型识别;
步骤S2的车辆运动特征包括每段微行程的速度标准差、加速度标准差、每个速度区间的轨迹点所占比例、每个加速度区间的轨迹点所占比例、行驶距离和停驶率;
每个加速度区间的轨迹点所占比例的计算公式如下:
式中,为车辆V(i)的微行程TS(i)中处于绝对加速度区间ARk的轨迹点所占比例,p为微行程TS(i)中某一轨迹点,为微行程TS(i)中轨迹点p的理论绝对加速度,count{}为对应集合的元素个数;
每个速度区间的轨迹点所占比例的计算公式如下:
式中,为车辆V(i)的微行程TS(i)中处于速度区间VRk的轨迹点所占比例,为微行程TS(i)中轨迹点p的理论速度,count{}为对应集合的元素个数;
每段微行程的行驶距离的计算公式如下:
式中,di为微行程TS(i)中相邻两点间的距离,为微行程TS(i)的行驶距离;
每段微行程的停驶率的计算公式如下:
式中,p为微行程TS(i)中某一轨迹点,为微行程TS(i)中轨迹点p的理论速度,count{}为对应集合的元素个数,为微行程TS(i)中速度为0的轨迹点所占比例;
步骤S2的车辆运动特征包括每段微行程的车辆途径道路特征,车辆途径道路特征计算公式如下:
式中,RVj (i)为车辆V(i)的微行程TS(i)中匹配至第rj级道路上的轨迹点比例,rj为道路等级,j=1~5,分别对应高速公路、国道、省道、县道和乡镇道路;Rp为轨迹点p所匹配的道路等级,count{}为对应集合元素个数;
步骤S2的车辆运动特征包括车辆停留地点特征,车辆停留地点特征计算公式如下:
式中,为车辆V(i)的所有停留点SS(i)中第sj类兴趣点占比最高的停留点所占比例,sj为兴趣点类型,j=1~5,分别对应公交站、服务区、长途汽车站、火车站和其他;q为车辆V(i)的某一停留点,POIq为停留点q的500米范围内占比最高的兴趣点类型,count{}为对应集合元素个数。
2.根据权利要求1所述的融合轨迹空间-语义特征的车辆类型识别方法,其特征在于,步骤S1的停留点识别的具体操作为:选择某车辆轨迹点中移动距离小于距离阈值且理论速度小于速度阈值的轨迹点进行DBSCAN聚类,聚类以空间距离和速度差异为双邻域约束,聚类后每个簇分别对应该车辆的一个停留点。
3.根据权利要求2所述的融合轨迹空间-语义特征的车辆类型识别方法,其特征在于,DBSCAN聚类的空间距离约束阈值Epss=500m、速度差异阈值Epsv=3m/s、最小点数阈值MinPts=10。
4.根据权利要求1所述的融合轨迹空间-语义特征的车辆类型识别方法,其特征在于,步骤S1的微行程划分,是当相邻轨迹点时间间隔大于时间阈值或遇到停留点时,打断车辆轨迹,即得到各车辆行驶的微行程。
5.根据权利要求1~4任一项所述的融合轨迹空间-语义特征的车辆类型识别方法,其特征在于,步骤S3中基于车辆运动特征和关联的地理语义特征,采用多核支持向量机、概率神经网络级配随机森林进行车辆类型识别。
CN202310171830.XA 2023-02-13 2023-02-13 融合轨迹空间-语义特征的车辆类型识别方法 Active CN116092037B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310171830.XA CN116092037B (zh) 2023-02-13 2023-02-13 融合轨迹空间-语义特征的车辆类型识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310171830.XA CN116092037B (zh) 2023-02-13 2023-02-13 融合轨迹空间-语义特征的车辆类型识别方法

Publications (2)

Publication Number Publication Date
CN116092037A CN116092037A (zh) 2023-05-09
CN116092037B true CN116092037B (zh) 2023-07-28

Family

ID=86204472

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310171830.XA Active CN116092037B (zh) 2023-02-13 2023-02-13 融合轨迹空间-语义特征的车辆类型识别方法

Country Status (1)

Country Link
CN (1) CN116092037B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116010885A (zh) * 2022-12-21 2023-04-25 重庆邮电大学 一种长序列条件下的车辆异常时空数据检测方法及系统
CN116561604B (zh) * 2023-07-10 2023-09-29 北京千方科技股份有限公司 货车的识别方法、装置、电子设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340427A (zh) * 2020-03-02 2020-06-26 西南交通大学 一种基于轨迹数据的货车运行状态识别方法
CN113887659A (zh) * 2021-10-22 2022-01-04 沈阳世纪高通科技有限公司 一种基于朴素贝叶斯的车辆类型分类算法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107463940B (zh) * 2017-06-29 2020-02-21 清华大学 基于手机数据的车辆类型识别方法和设备
CN109686085B (zh) * 2018-12-17 2020-05-05 北京交通大学 基于gps数据危险货物运输车辆停留节点活动类型识别方法
EP3680858A1 (en) * 2019-01-11 2020-07-15 Tata Consultancy Services Limited Dynamic multi-camera tracking of moving objects in motion streams
CN110570658B (zh) * 2019-10-23 2022-02-01 江苏智通交通科技有限公司 基于层次聚类的路口异常车辆轨迹识别分析方法
CN114117261B (zh) * 2022-01-29 2022-04-22 腾讯科技(深圳)有限公司 轨迹检测方法、装置、电子设备及存储介质
CN115330521A (zh) * 2022-08-17 2022-11-11 奇瑞徽银汽车金融股份有限公司 基于gps轨迹数据的车辆贷款逾期风险评估方法及系统
CN115436972A (zh) * 2022-08-31 2022-12-06 湖南省交通科学研究院有限公司 基于重载货车gps轨迹识别停留点的方法、系统及介质
CN115619103B (zh) * 2022-11-15 2023-03-31 湖南省交通科学研究院有限公司 基于货车行驶轨迹的典型行业物流联运分析方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340427A (zh) * 2020-03-02 2020-06-26 西南交通大学 一种基于轨迹数据的货车运行状态识别方法
CN113887659A (zh) * 2021-10-22 2022-01-04 沈阳世纪高通科技有限公司 一种基于朴素贝叶斯的车辆类型分类算法

Also Published As

Publication number Publication date
CN116092037A (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
CN115035491B (zh) 一种基于联邦学习的驾驶行为路况预警方法
CN117273964B (zh) 一种自适应行驶数据的智能车险策略生成系统及方法
CN108062857B (zh) 用于出租车乘客出行目的的预测方法
CN114091581B (zh) 一种基于稀疏轨迹的车辆运营行为类型识别方法
CN105825310A (zh) 基于信息熵的出租车寻客路线推荐方法
Xue et al. A context-aware framework for risky driving behavior evaluation based on trajectory data
CN116092037B (zh) 融合轨迹空间-语义特征的车辆类型识别方法
Wang et al. ARIMA model and few‐shot learning for vehicle speed time series analysis and prediction
CN111144446B (zh) 一种基于时空网格的司机身份识别方法和系统
Wang et al. Vehicle reidentification with self-adaptive time windows for real-time travel time estimation
Oh et al. Real-time inductive-signature-based level of service for signalized intersections
CN106157657A (zh) 一种移动用户的运动状态识别系统及其方法
Raslan et al. IoT for measuring road network quality index
Chen et al. Detecting and analyzing unlicensed taxis: A case study of Chongqing City
Paredes et al. Intelligent collision risk detection in medium-sized cities of developing countries, using naturalistic driving: A review
Yan et al. An efficient division method of traffic cell based on improved K-means clustering algorithm for the location of infrastructure in vehicular networks
Muñoz-Organero et al. Detecting different road infrastructural elements based on the stochastic characterization of speed patterns
CN113887659A (zh) 一种基于朴素贝叶斯的车辆类型分类算法
Van Hinsbergh et al. Vehicle point of interest detection using in-car data
Ali et al. Employment of instrumented vehicles to identify real-time snowy weather conditions on freeways using supervised machine learning techniques–A naturalistic driving study
Choi et al. Real-time prediction of arterial vehicle trajectories: An application to predictive route guidance for an emergency vehicle
CN119068659A (zh) 一种基于北斗定位的车辆异常行为检测方法
CN114495519B (zh) 一种高速公路智慧可视化展示系统
CN117475624A (zh) 一种监测高速公路基本路段交通状态的里程桩布设方法
Scora et al. Real-time roadway emissions estimation using visual traffic measurements

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant