CN111033510A - 用于运行驾驶员辅助系统的方法和装置以及驾驶员辅助系统和机动车 - Google Patents
用于运行驾驶员辅助系统的方法和装置以及驾驶员辅助系统和机动车 Download PDFInfo
- Publication number
- CN111033510A CN111033510A CN201880050181.5A CN201880050181A CN111033510A CN 111033510 A CN111033510 A CN 111033510A CN 201880050181 A CN201880050181 A CN 201880050181A CN 111033510 A CN111033510 A CN 111033510A
- Authority
- CN
- China
- Prior art keywords
- motion
- living
- motor vehicle
- equation
- driver assistance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000033001 locomotion Effects 0.000 claims abstract description 212
- 238000005259 measurement Methods 0.000 claims abstract description 48
- 230000001133 acceleration Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 3
- 230000008054 signal transmission Effects 0.000 claims description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 26
- 238000012544 monitoring process Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000001846 repelling effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4043—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种用于运行驾驶员辅助系统(12)的方法和装置(14)、以及驾驶员辅助系统(12)和机动车(10),其中,在该方法中预测在机动车(10)的环境(17)中的至少一个活的对象(16)的运动,方法包括以下步骤:a)针对对象类别的组合存储表征运动的运动模型;b)接收涉及环境(17)的测量数据;c)识别在环境(17)中的活的对象(16)和至少一个另外的对象(18、20、22)以及确定对象(16、18、20、22)彼此间的相对位置;d)鉴别所识别的对象(16、18、20、22)的对象类别;e)对于活的对象(16):i)至少根据活的对象(16)相对于另外的对象(18、20、22)的相应的相对位置以及针对鉴别出的对象类别的组合存储的运动模型来建立运动方程;ii)借助运动方程预测运动;以及f)在将预测的运动考虑在内的情况下运行驾驶员辅助系统(12)。
Description
技术领域
本发明涉及用于运行机动车的驾驶员辅助系统的方法,在该方法中预测在机动车的环境中的至少一个活的对象的运动。本发明还涉及用于执行所述方法的装置以及驾驶员辅助系统和机动车。
背景技术
当今的机动车通常装备有驾驶员辅助系统,例如导航系统或定速控制系统。驾驶员辅助系统中的一些还设计用于保护车辆乘员和其他交通参与者。它们可在确定的危险情况下辅助机动车的驾驶员。因此,碰撞警告装置大多通过摄像机或也经由雷达传感器或激光雷达传感器识别与其他车辆的距离,还包括速度差在内,并且在识别到碰撞的危险时警告驾驶员。还存在这样的驾驶员辅助系统,其构造成至少部分自动地或在确定的情况下甚至全自动地驾驶机动车。在此,当前自动驾驶的应用场景非常受限,例如限于泊车或具有非常好地限定的边界条件、如在高速公路上的行驶情况。机动车越自动,对于机动车的环境的探测和监测的要求越高。机动车必须借助于传感器单元尽可能精确地探测环境,以便识别在环境中的对象。机动车对环境“了解”得越精确,就能越好地例如避免事故。
例如DE 10 2014 215 372 A1示出了一种机动车的驾驶员辅助系统,其具有环境摄像机和用于对环境摄像机的图像数据进行处理的图像处理单元。驾驶员辅助系统还包括图像评估单元,其设计用于评估处理过的图像数据。
发明内容
本发明的目的在于,提供进一步降低事故风险的可行方案。
该目的通过独立权利要求的主题来实现。本发明的有利的改进方案通过从属权利要求、下文的说明以及附图来说明。
本发明基于的认识是,虽然在现有技术中很好地识别了很大的和/或静态的对象,然而很难识别和监测动态对象、例如行人。尤其是从中得到的积极效果在运行驾驶员辅助系统时尚未充分利用。即,如果成功预测到行人的运动并且在运行驾驶员辅助系统时加以考虑,可显著降低事故的风险。
为了能尽可能好地监测动态的活的对象、例如行人,有帮助的是,可预测其运动,即可估计其将来的行为。对于静态监测摄像机,已经存在用于监测的方法。因此,Helbing为模拟行人的运动提出了所谓的“社会力模型(Social Force Model)”[HELBING,Dirk;MOLNAR,Peter.Social force model for pedestrian dynamics.Physical review E,1995年,第51卷,第5册,第4282页]。在该模型中,每个行人都处在一个力场中,由于该力场,通过力的相加得到作用于行人的总力。该模型在模拟人群时已经得到了证实,因此它已经在过去用于追踪人群。
当前,“社会力模型”的实施例如用在借助于静态监测摄像机对行人的监测中,然而未用于驾驶员辅助系统中。在当前的文献中,对此的示例是:[K.Yamaguchi,A.C.Berg,L.E.Ortiz,T.L.Berg,“Who are you with and where are you going?”,IEEE计算机视觉和模式识别(CVPR,2011)国际会议,2011年,第1345-1352页]或[S.Yi,H.Li,X.Wang,“Understanding pedestrian behaviors from stationary crowd groups”,IEEE计算机视觉和模式识别国际会议论文集,2015年,第3488-3496页]。
本发明的基础是,可将在预测人群运动方面的知识用于单个人的运动,并且因此可特别有利地在运行驾驶员辅助系统时加以利用。
因此,通过本发明提供了一种用于运行机动车的驾驶员辅助系统的方法,借助于该方法预测在机动车的环境中的至少一个活的对象、尤其是行人的运动。在方法的步骤a)中,存储运动模型,其中,每个相应的运动模型描述了活的对象的运动的与另外的对象相关的至少一个变化。活的对象和至少一个另外的对象属于各一个对象类别。运动模型是针对对象类别的组合来存储的。在方法的步骤b)中,接收涉及机动车环境的测量数据。在方法的步骤c)中,借助接收的测量数据识别在机动车的环境中的至少一个活的对象和至少一个另外的对象,以及确定对象彼此间的相对位置。在方法的步骤d)中,鉴别所识别的对象的对象类别。在方法的步骤e)中,针对至少一个探测到的活的对象,在第一子步骤e)i中建立活的对象的运动方程。在此,运动方程至少依赖于活的对象相对于至少一个另外的对象的相应的相对位置以及至少一个针对在步骤d)中鉴别出的、活的对象和至少一个另外的对象的对象类别的组合所存储的运动模型。在第二子步骤e)ii中,借助在第一子步骤e)i中建立的运动方程来预测活的对象的运动。在方法的步骤f)中,在考虑在步骤e)中预测出的、至少一个活的对象的运动的情况下运行驾驶员辅助系统,这就是说,对运动的预测影响驾驶员辅助系统的行为。例如,在借助于根据本发明的方法预测到运动的行人将与行驶的机动车相撞的情况下,可例如在至少半自动行驶时进行辅助制动和/或路线修正。
至少一个活的对象尤其可理解成行人,在此,例如可在儿童、成年人和老年人之间进行区分。例如还可考虑到具有限制了该人员的行动能力的身体缺陷的人员。此外,可考虑到例如儿童是否在轮滑上,和/或成年人是否在骑自行车等等。在此,任意的组合都是可能的。此外,活的对象可为动物,例如狗。
至少一个另外的对象可为到目前为止提到的对象中的一个,即,一个活的对象和/或一组活的对象,或者别的对象,例如机动车、球、机器人、自动取款机和/或入口门。尤其是,另外的对象是动态的对象、即本身可运动的对象。然而,另外的对象可为半静态或静态对象。提到的对象中的每个单个对象可分配给或分类成各一个对象类别。对象类别的示例是:“成年行人”、“狗”或“机动车”。
在步骤a)中存储的运动模型至少含有活的对象如何对另外的对象中的一个进行反应的信息,即,相应的另外的对象将或能将哪些影响施加给活的对象的运动。在“社会力模型”的场景中谈及了另外的对象将哪些力施加给活的对象。换句话说,运动模型表征了对象(例如狗)对活的对象(例如行人)的影响。为此,针对各组合、例如针对组合“行人-狗”存储相应的运动模型。简言之,在步骤a)中,针对至少一个活的对象的对象类别和至少一个另外的对象的对象类别的组合来存储运动模型,其中,运动模型分别描述了与相应的运动模型的对象类别相关联的活的对象的基于与相应的运动模型的对象类别相关联的另外的对象的运动变化。
此外,可在相应的运动模型中存储这样的信息,其例如预给定在活的对象的运动中的确定的极限值,例如活的对象的最大速度和/或最大可能的制动减速和/或对活的对象的自由的或无作用力的运动进行描述的参数。在此,“自由的”或“无作用力的”可理解成,活的对象的运动不受别的对象的影响,即,没有力被别的对象作用于活的对象。这些表征活的对象的运动的附加信息可概括称为活的对象的动态性。该动态性受到至少一个另外的对象的影响。对活的对象(例如行人)的影响基于活的对象对相应的别的对象的了解,并且因此对于行人来说用作相应的信息源,该信息源影响其动态性。
通过存储的运动模型可对相应的信息源单个地、即没有彼此的影响地建模并且进行参数化。通过该方法发生动态性和信息源的分开,这可称为根据本发明的方法的边界条件。为活的对象添加表征或影响其运动的意图,例如要到达的目的地。通过运动模型进行动态性和至少一个另外的信息源(即,至少一个另外的对象的影响)的参数化,由此特别有利地产生少的参数。这在根据本发明的方法的步骤e)中在建立运动方程时是有利的,因为该方法由此例如可特别容易地扩展。
在根据本发明的方法的步骤b)中接收涉及机动车环境的测量数据。这可例如为至少一个摄像机的一个图像或多个尤其是时间上相继的图像。
在步骤c)中,例如通过至少一种合适的算法,识别在测量数据中、例如在至少一个图像中的对象。在此,在识别对象时,尤其探测在机动车的环境中的至少一个活的对象和该对象的位置。为了可在步骤e)中建立运动方程(该运动方程考虑活的对象的运动基于至少一个另外的对象的变化),应识别至少一个另外的对象。在识别另外的对象时,探测该另外的对象的位置。为了能借助于在步骤e)中的运动方程特别有利地说明另外的对象对活的对象的运动的影响,从所识别的位置确定对象彼此间的相对位置。
在步骤d)中对所识别的对象的对象类别进行鉴别。为此例如,借助于被设计成分类器的合适的算法对所识别的对象、更确切地说所识别的对象的特征与对象类别的特征性特征进行比较。
在步骤e)中,针对探测到的至少一个应监测其运动的活的对象,在第一子步骤中建立运动方程。这根据活的对象相对于至少一个另外的对象的相应的相对位置和所述针对对象的对象类别的组合所存储的运动模型来进行。
在步骤e)的第二子步骤中,借助所建立的运动方程预测活的对象的运动,即,给出尤其是动态的运动方向,必要时一起给出速度和/或加速度。
在此要注意的是,相应的运动模型例如已从之前观察的经验值中产生,并且不必具有通用性。因此,在现实中可能的是,个别行人被狗吸引,尽管运动模型预言行人通常会与狗保持距离。因此,相应的运动模型可附加地包含活的对象对另外的对象的反应的表现的概率性。借助于该概率性可在运动方程中考虑相应的加权因子,从而作用于运动的相应的运动模型根据其统计上的表现来进行探测。
在方法的步骤f)中,在考虑到至少一个活的对象的在步骤e)中预测出的运动的情况下运行驾驶员辅助系统。由此,驾驶员辅助系统例如可特别可靠地运行,并且避免了机动车与所识别的对象的碰撞。借助于根据本发明的方法,可特别有利地实现运动方程和进而对活的对象、尤其是行人的运动的预测,并且驾驶员辅助系统可特别有利地运行。
因此,根据本发明的方法提供的优点是,针对活的对象考虑自身的受不同信息源影响的动态性。该方法特别高效且可扩展,这是因为例如对相应的信息源单独建模和参数化。尤其不同于现有技术,通过将信息源加入到活的对象的意图、即期望的运动方向中,参数的数量减到最小,并且易于理解。此外,动态性与各个别的信息源无关地来计算,由此所述方法尤其是在可使用的信息源或运动模型方面是可扩展的。通过巧妙地选择运动模型产生特别好的参数化可行方案,其尤其导致在预测活的对象的运动时的改善的最终结果。方法的另一优点是,通过表征机动车环境的唯一一组测量数据(例如在第一时刻的图像)便已可以预测活的对象的运动。
在根据本发明的方法的有利的设计方案中,在步骤e)中附加地根据相应的对象取向来确定运动方程,其中,为此在步骤c)中一并确定对象取向。对象取向可理解成对象在空间中的方位或对象在环境中的空间取向。借助活的对象的对象取向,通过该方法可特别好地预估其意图。通过将对象取向考虑在内可将运动方程改变成,使得可特别好地预测活的对象的运动。例如如果在步骤c)中识别到,活的对象、例如行人朝另外的对象(例如狗)不可见的方向看,则狗不会影响行人的运动。换句话说,在此,对于行人来说,缺乏可影响其动态性的信息源。位于为活的对象分配的视域或视场中的至少一个所识别的另外的对象用作信息源,基于该信息源,活的对象可改变其动态性。针对对于活的对象来说已知的对象而存储的相应的运动模型一起包括在运动方程中。对于活的对象未知的对象的运动模型可予以摒弃。此外,另外的对象的对象取向可同样在确定运动方程时起作用。
在根据本发明的方法的有利的设计方案中,在步骤e)中附加地根据活的对象和/或至少一个另外的对象的相应的运动方向和/或速度和/或加速度来建立运动方程。为此,将所识别的对象的从在第一时刻的测量数据中确定的相应的位置与从在至少一个另外的时刻的测量数据中确定的相应的位置进行比较,由此可确定各个对象的相应的运动方向和/或相应的速度和/或相应的加速度。在此,除了相应的位置之外还可调用相应的确定的对象取向,由此可改善相应的运动方向和/或速度和/或加速度的确定。通过把基于至少两个不同的时刻的测量数据而确定的运动方向和/或速度和/或加速度考虑在内,可改良运动方程,由此运动的预测特别精确。
在本发明的另外的有利的设计方案中,各个运动模型借助于相应的势场来描述,势场尤其描述了势的标量场。换句话说,另外的对象对活的对象的影响通过势场或势来确定或描述,势场或势例如可具有相对于活的对象的吸引性或排斥性的特性。通过使用势场,相应的运动模型可特别简单地并且因此例如可容易计算地加入到运动方程中。
在另外的有利的设计方案中,从各个势场形成相应的梯度,并且至少根据相应的梯度来建立运动方程。借助于相应的梯度例如可求出相应的势场的相应的加速度矢量。相应的加速度矢量可特别简单地用于形成运动方程或用于预测运动。视所选的运动模型而定,如果运动模型例如类似于已知的“社会力模型”的力来选择,可通过使用势场和梯度将模型概括化成势方程(Potenzialansatz)。为此,针对尤其被活的对象注意到的每个信息源、即每个另外的对象,算出势。相应的加速度矢量可从势场或相应的势场的梯度来求出。为此,确定在活的对象的位置处的相应的势场的梯度。因此,加速度矢量和可由此预测出的运动可用作在监测时、即在追踪活的对象时的所谓的控制参量。相应的势场可例如在使用“社会力模型”的知识的情况下是可定义的或可估计的。通过基于势场的势,进行活的对象和至少一个另外的对象(即,相对于活的对象的意图的信息源)的动态性的特别简单的参数化。在此,意图是活的对象的通过其运动将到达的真实目的地。此外,通过使用至少一个势场和所属的梯度,可特别简单地分开动态性和信息源。
在本发明的另外的有利的设计方案中,在方法的步骤e)中可执行另一子步骤。在该另一子步骤中,比较运动方程与机动车的环境的地图,并且如果借助于在步骤e)i中确定的运动方程识别到在步骤e)ii中预测出的运动基于地图信息是不可实施的,则借助地图信息修正运动方程和对运动的预测。换句话说,发生地图比较,其中,在地图中可含有不能借助于测量数据探测到或不能由测量数据推导出的信息。例如在地图中可含有关于如下对象的信息,该对象在至少一个探测测量数据的传感器单元的作用范围之外或被探测到的对象遮住。这样的地图信息例如可含有障碍物诸如河流和/或道路封锁等等。此外,例如还可含有关于上述提到的自动取款机和/或例如可能对活的对象特别有吸引力的景点的信息。因此,例如可特别好地预估活的对象的意图。地图的信息可附加地在确定运动方程时或在预测时加以考虑。通过比较预测出的运动和/或运动方程与地图,预测可提供特别好的结果。
在本发明的另外的有利的设计方案中,对于探测到并分类为至少两个另外的对象的情况下,基于在至少两个另外的对象之间的彼此的相互作用和至少一个活的对象的运动方程来考虑各个另外的对象的相应运动的相应变化。在此,相互作用由相应的存储的运动模型和相应的相对位置来确定。与机动车具有最小距离的活的对象可为需监测的对象。例如如果在环境中存在两个与机动车的距离更大的另外的对象,则可求得这两个另外的对象彼此之间的对相应另一对象的相应运动的影响。这些针对至少两个另外的对象尤其附加地确定的运动在确定运动方程时可予以考虑。两个对象中的一者例如可为儿童,而另一对象可为成年人。对于对象中的每个对象,可通过相应的存储的运动模型借助于本方法预测运动。因此,可特别接近现实地考虑到所述至少两个另外的对象对活的对象的运动方程的影响,并且确定对对象的相应运动的特别好的预测。由此得到的优点是,可进一步提升至少一个活的对象的预测精度。此外,由此存在将多个人合并成人群的可能性。如果存储了运动模型针对或关于人群描述的对象类别,则运动基于人群的变化可在运动方程中探测到。人群可引起不同于多个单个人的行人运动变化。如果可考虑这一点,则由此改善了预测。
在本发明的另外的有利的设计方案中,至少一个另外的对象是机动车本身。这意味着,将机动车本身考虑为对活的对象的运动的影响因子。本方法获知机动车的对象类别以及位置和运动。由此同样得到改善的对活的对象的运动的预测。由此例如可避免通过驾驶员辅助系统的不必要的制动操纵,因为机动车通常排斥性地作用于活的对象,因此,活的对象自己试图与机动车至少保持最小距离。在没有将机动车作为对象的情况下,该信息不会引入到运动方程中,因此驾驶员辅助系统包含预言有更大概率会出现碰撞的信息,这可导致制动操纵。
本发明还包括用于运行机动车的驾驶员辅助系统的装置,其中,分配给驾驶员辅助系统的装置可通过至少一个信号传输接口与至少一个传感器单元连接。装置被构造成,借助通过至少一个传感器单元产生并在接口处接收的测量数据,探测在机动车的环境中的至少一个活的对象以及至少一个另外的对象和其相应的对象位置。装置被构造成,将借助测量数据探测到的对象分入对象类别中,其中,针对活的对象的对象类别和另外的对象的对象类别的相应组合,相应的运动模型存储在装置中和/或可由装置调取。相应的运动模型表征:属于活的对象的对象类别的对象由于属于另外的对象的对象类别的对象而产生的运动变化。装置被构造成,至少根据与对象类别的组合相关联的运动模型、活的对象的对象位置、和至少一个另外的对象的对象位置,建立至少一个活的对象的运动方程。此外,装置还构造成,借助运动方程预测至少一个活的对象的运动,并且将表征预测出的活的对象的运动的数据在另外的接口处提供给驾驶员辅助系统。
在本发明的另外的设计方案中,测量数据为至少一个摄像机的至少一个图像。这意味着,装置通过信号传输接口接收至少一个被构造成摄像机的传感器单元的至少一个图像。对此的优点是,图像可容易地产生,并且可含有很多信息,即,用一个图像可简单地探测很多对象。
在本发明的另外的设计方案中,装置被构造成,在通过多于一个的传感器单元探测测量数据时,各个传感器单元的相应测量数据通过与相应的其他传感器单元的相应的其他测量数据融合而合并成一组共同的融合的测量数据。为了监测活的对象,有利的是,活的对象的所有可用信息可尽可能地引入现有的融合算法、例如卡尔曼滤波器或粒子滤波器中。通过例如借助于卡尔曼滤波器实现的融合,可将在融合的测量数据的所述共同组中的不同测量数据的误差保持得尽可能小。正是例如在多摄像机场景中,这有利于保证例如在行人人群中的各个行人的明确的分配。
本发明还包括驾驶员辅助系统,其具有根据本发明的装置和/或被构造成执行根据本发明的方法。
本发明还包括机动车,其具有根据本发明的装置和/或驾驶员辅助系统。
属于本发明的还有根据本发明的装置、驾驶员辅助系统以及机动车的改进方案,其具有如已经结合根据本发明的方法的改进方案描述过的特征。出于该原因,在此不再赘述根据本发明的装置、驾驶员辅助系统和机动车的相应的改进方案。本发明还包括根据本发明的方法、驾驶员辅助系统以及机动车的改进方案,其具有如已经结合根据本发明的装置的改进方案描述过的特征。出于该原因,在此不再赘述根据本发明的方法、驾驶员辅助系统以及机动车的相应的改进方案。
附图说明
下面说明本发明的实施例。其中:
图1示出了在机动车的环境中的具有驾驶员辅助系统和可执行根据本发明的方法的根据本发明的装置的机动车的示意性的俯视图,在机动车的环境中存在至少一个活的对象以及其他对象;并且
图2示出了在监测活的对象时所述方法的各部件的共同作用的示意图。
具体实施方式
下文阐述的实施例是本发明的优选的实施方式。在所述实施例中,实施方式的所说明的部件相应为本发明的可彼此独立地看待的单个特征,这些特征还相应彼此独立地改进本发明,并因此还可单独地或者以不同于所示组合的组合看作本发明的组成部分。此外,所说明的实施方式还可通过本发明的已经说明的特征中的其他特征来补充。
在附图中,功能相同的元件相应设有相同的附图标记。
图1示出了具有驾驶员辅助系统12和装置14的机动车10的示意性的俯视图。装置14被构造用于执行方法,借助于该方法可运行机动车10的驾驶员辅助系统12。在该方法中,预测在机动车10的环境17中的至少一个活的对象16的运动。通过预测,驾驶员辅助系统可特别有利地运行,因为例如可避免与活的对象16碰撞。为此,装置14被构造成使得可借助测量数据探测在机动车10的环境17中的至少一个活的对象16以及至少一个其他对象18、20、22及其相应的对象位置。通过至少一个传感器单元24提供的测量数据可由装置14在接口26处接收。
在方法的步骤a)中,存储运动模型,其中,相应的运动模型说明了活的对象16的运动的与至少一个其他对象18、20、22相关的变化,其中,活的对象16和至少一个其他对象18、20、22分别属于一个对象类别,并且针对对象类别的组合存储运动模型。
为了执行步骤a),装置14被构造成例如具有存储装置,在该存储装置中存储各对象类别的运动模型或者对象类别的组合的运动模型,和/或该装置可经由另外的接口调取所存储的运动模型。在方法的步骤b)中,接收涉及机动车10环境17的测量数据,为此,装置14具有接口26。在方法的步骤c)中,识别在机动车10的环境17中的至少一个活的对象16和至少一个其他对象18、20、22,以及借助经由接口26接收的测量数据至少确定该至少一个活的对象相对于至少一个其他对象18、20、22的相对位置。附加地,同样也借助于该方法可探测或可确定其他对象18、20、22彼此间的相对位置以及对象16至22的相应的对象取向/方位。在方法的另一步骤d)中,鉴别所识别的对象16、18、20、22的对象类别。
在分成至少两个子步骤的步骤e)中,对于探测到的活的对象16,在第一子步骤中至少根据活的对象16相对于至少一个其他对象18、20、22的相应的相对位置建立运动方程。此外,该运动方程依赖于针对活的对象16和至少一个其他对象18、20、22的在步骤d)中鉴别出的对象类别的组合分别存储的运动模型。此外,对象16至22的相应的取向可作为附加的依赖条件含入运动方程中。在步骤e)的第二子步骤中,借助所建立的运动方程预测活的对象16的运动。
在图1中示出的示例中,其他的对象18为狗,对象20是自行车骑行者,并且对象22是人群。在该示例中,狗属于对象类别“狗”,并且自行车骑行者属于对象类别“自行车骑行者”。人群中的单个的人可作为整体分配给对象类别“人群”。但是,人也可单独地作为分别一个对象分配给对象类别“行人”,活的对象16也属于该对象类别“行人”。如果人群例如散开,则它们的状态也可能在两个在不同的时刻记录的测量数据之间有变化。
在步骤f)中,在将在步骤e)中预测的至少一个活的对象16、即行人的运动包括在内的情况下来运行驾驶员辅助系统12,使得可通过驾驶员辅助系统12防止例如与行人基于在该方法中预测的运动而碰撞。
示出的实施方式的传感器单元24被构造为摄像机。可使用多个传感器单元24,以便例如探测环境17的更大的部分,和/或在不利的可见性条件下探测关于在测量数据中的对象的尽可能多的信息,例如通过使用多个摄像机,这些摄像机分别在不同的光谱中记录测量数据。在使用多个传感器单元时,可将测量数据融合在一起,例如借助于卡尔曼滤波器进行融合,以便例如将测量数据中的误差保持得很小。
为了使方法的各个步骤a)至f)可由装置14执行,该装置例如具有电子计算装置,在该电子计算装置上可执行用于经由接口26接收的测量数据的评估软件,从而在测量数据中探测到对象16至22,并且还确定它们在车辆的空间或环境17中的位置和对象取向。附加地,借助于电子计算装置例如可实现分类器,分类器将对象16至22确定或分类到对象类别中。此外,装置14可具有另外的接口28,该另外的接口可为驾驶员辅助系统12提供关于预测的运动的信息,从而驾驶员辅助系统例如能以对交通来说特别安全的方式来运行。
活的对象16即行人这样取向,即,其视向(其可等同于对象取向)指向环境17的右侧人行道30。该对象取向通过视向32示出。通过对象取向探测到活的对象16即行人和位于环境中的所有其他对象18至22即狗、自行车骑行者和人群。这意味着,这些对象18至22中的相应一个形成用于行人即活的对象16的信息源,通过该信息源,行人可以在其运动中受到影响或偏转。如果传感器单元24在测量数据中检测到环境17的这种状态,则将用于“行人-狗”、“行人-自行车骑行者”和“行人-人群”这些组合的各一个运动模型引入运动方程中。
例如,运动模型“行人-狗”可说明行人对狗的反应,例如行人排斥狗。换句话说,由狗引发的斥力作用于行人,尤其是例如如果对于运动模型基于“社会力模型”的变量来假定势场方法的话。狗例如如此影响行人的运动,即,使得行人与狗保持一定的最小距离。即,如果狗至少位于行人所沿着运动的路线的附近,则行人修改其路线,并且在行人重新跟随原本的去往其目的地的路线运动之前,行人例如至少以最小距离绕着狗划了个弧。例如如果行人以较快的速度行进和/或没有及时注意到狗,则可能低于该最小距离。相应的运动模型有利地构造成可一起考虑到这些情况。如果要将狗作为活的对象进行监测,并且将对象类别“行人”的对象对狗的影响一起引入到运动方程中,则应存储“狗-行人”运动模型。
有利地,相应的运动模型通过相应的势场来说明。例如,从相应的势场确定在行人的位置处势场的相应梯度,为此可使用相对位置。也就是说,在示出的示例中,使用相对于活的对象16的相对位置:“行人相对于狗”、“行人相对于自行车骑行者”以及“行人相对于人群”。由相应的梯度可求得相应的加速度矢量,其表征活的对象16的运动变化的相应的部分。在运动方程中,相应的加速度矢量用于预测运动。基于该方法,可对势场方法进行直观的参数化,以改善对活的对象、尤其是行人的运动的监测。
存储的运动模型和/或测量数据越好,对活的对象16的运动的预测就越好。运动模型例如可从已知的“社会力模型”或从用于说明行人运动的类似模型中导出。运动模型可考虑一些细节,例如,小孩至少在成人附近被该成人陪同,因为在此该成人通常是小孩的双亲中至少一方。
为了改善运动的预测,有利的是,评估在可区分的相继的时刻的测量数据,并且借助该测量数据在每个这些时刻重复该方法。根据时刻之间的间隔,可准连续地监测行人,即所谓的行人追踪。为了在这种连续的行人追踪中改善预测的精度,可凭借该方法借助测量数据的评估检查各个识别的对象的相应的位置。此外,例如可通过对时间上连续的测量数据形成微分来确定相应的对象的运动。从中可确定相应对象的相应的速度和/或加速度和/或运动方向,其可引入运动方程中。例如,狗可在第一时刻休息,并且由此不那么影响行人、即活的对象16的运动。然而,如果狗朝行人的方向运动,则狗的影响会变大,该方法可将此考虑在内。
有利地,将例如同样可存储在装置14中的环境地图与所求得的运动方程进行比较。因此,对于在地图上例如识别出障碍物和/或行人感兴趣的对象(例如自动取款机)的情况,这可借助运动方程引入运动的预测中。因此,在该示例中,行人的运动可独立于对其实际目的地、即右侧人行道30的认识来确定。然而,凭借地图信息,显而易见的是,行人、即活的对象16要横穿街道,这可从视向32导出。因此可更好地确定行人的意图,即,行人可到达的目的地。
有利地,尤其在如在图1中示出的情况中,如果为活的对象16预测的路径与机动车10的行驶方向34相交,则将机动车10本身作为其他的对象一起包含在该方法中。
人群、即其他对象22是对于如下情况的示例,即,探测到并且分类为至少两个其他对象,基于在至少两个其他对象(在此为示出的形成人群的四个行人)之间的彼此的相互作用,确定相应的其他对象的相应运动的相应变化,并且在至少一个活的对象16的运动方程中考虑该变化。在此,相互作用由相应的存储的运动模型和相应的相对位置来确定。这就是说,多个紧密靠近的行人、如人群可在其运动方面显示出共同的动态性,并且可由此有利地不再看作自由运动的单个对象。通过考虑其彼此的相互作用,因此改善了活的对象16的运动方程。在示出的方法中可遵循以下所谓的边界条件:使动态性和信息源分开;相对于活的对象的意图对动态性和信息源进行参数化;在定义各个势场时使用“社会力模型”的知识。由此例如可得到特别少的对此直观的参数。
图2示出了用于监测活的对象16的方法的各个部件的相互作用的示意图。在此,例如基于地图信息38、活的对象16的意图40以及组合在方框42中的、尤其是动态的其他对象(例如对象18、20和22)进行监测,即所谓的追踪36。在此,动态对象可为行人、狗、自行车骑行者和/或机动车。此外,代替动态对象,在该方法中可考虑半动态的对象(例如流动的交通信号灯)和/或静态对象(如电话亭等等)。从活的对象16的意图40可导出该活的对象的运动,其具有动态性44。行人的动态性例如可说明其最大可达到的速度和/或制动和/或其在换向时的速度。这些信息有利地存储包含在相应的运动模型中,所述运动模型说明了由于方框42中的其他对象而对活的对象16的运动的变化的影响。为了能尽可能简单地确定行人的运动方程,分别对例如地图信息38和/或组合在方框42中的其他对象进行参数化。参数化通过箭头44来说明,并且应显现出相应参数的可能的相应的不相关性。此外,地图信息38以及方框42的对象分别可具有自己的动态性46。在地图信息38的情况下,这种动态性46例如可为交通状况的实时信息,由此例如可考虑到道路封锁。
总体上,示例示出了如何通过本发明提供方法和/或装置14和/或驾驶员辅助系统12和/或机动车10,借此以特别有利的方式预测至少一个活的对象16的运动,并且由此可在将预测包含在内的情况下特别有利地运行尤其是驾驶员辅助系统12。
Claims (13)
1.一种用于运行机动车(10)的驾驶员辅助系统(12)的方法,在该方法中,预测在机动车(10)的环境(17)中的至少一个活的对象(16)的运动,该方法包括以下步骤:
a)存储运动模型,其中,相应的运动模型说明了所述活的对象(16)的运动的与至少一个另外的对象(18、20、22)相关的变化,其中,所述活的对象(16)和所述至少一个另外的对象(18、20、22)分别属于各自的对象类别,并且针对对象类别的组合存储运动模型;
b)接收与机动车(10)的环境(17)有关的测量数据;
c)借助接收到的测量数据识别在机动车(10)的环境(17)中的至少一个活的对象(16)和至少一个另外的对象(18、20、22)以及确定各对象(16、18、20、22)彼此间的相对位置;
d)鉴别所识别的对象(16至22)的对象类别;
e)对于至少一个探测到的活的对象(16):
i.至少根据所述活的对象(16)相对于至少一个另外的对象(18、20、22)的相应的相对位置以及针对在步骤d)中鉴别出的对象类别的组合所存储的至少一个运动模型来建立所述活的对象(16)的运动方程;
ii.借助在步骤e)i中建立的运动方程预测所述活的对象(16)的运动;以及
f)在将至少一个活的对象的在步骤e)中预测出的运动考虑在内的情况下运行驾驶员辅助系统(12)。
2.根据权利要求1所述的方法,其特征在于,在步骤e)中附加地根据相应的对象取向确定运动方程,其中,为此在步骤c)中一起确定对象取向。
3.根据权利要求1或2所述的方法,其特征在于,在步骤e)中附加地根据所述活的对象(16)和/或至少一个另外的对象(18、20、22)的相应的运动方向和/或速度和/或加速度来建立运动方程,其中,对所识别的对象(16至22)的从在第一时刻的测量数据中确定的位置与从在至少一个另外的时刻的测量数据中确定的位置进行比较,由此确定各个对象(16至22)的相应的运动方向和/或相应的速度和/或相应的加速度。
4.根据上述权利要求中任一项所述的方法,其特征在于,借助于相应的势场描述相应的运动模型。
5.根据权利要求3所述的方法,其特征在于,由相应的势场形成相应的梯度,并且至少根据相应的梯度来建立运动方程。
6.根据上述权利要求中任一项所述的方法,其特征在于,所述方法在步骤e)中还包括另外的子步骤,在该另外的子步骤中,对运动方程与机动车(10)的环境(17)的地图进行比较,并且如果根据在步骤e)i中确定的运动方程识别出:在步骤e)ii中预测出的运动基于地图信息是不能实施的,则借助地图的信息修正运动方程和对运动的预测。
7.根据上述权利要求中任一项所述的方法,其特征在于,对于至少两个另外的对象(18、20、22)被探测到并分类的情况下,确定各个另外的对象(18、20、22)的相应运动由于在所述至少两个另外的对象(18、20、22)之间的彼此的相互作用而产生的相应变化,并在至少一个活的对象(16)的运动方程中对该变化加以考虑,其中,由相应的存储的运动模型和相应的相对位置确定所述相互作用。
8.根据上述权利要求中任一项所述的方法,其特征在于,所述至少一个另外的对象为机动车(10)本身。
9.一种用于运行机动车(10)的驾驶员辅助系统(12)的装置(14),其中,分配给驾驶员辅助系统(12)的所述装置(14)能通过至少一个信号传输接口(26)与至少一个传感器单元(24)连接,其特征在于,所述装置(14)被构造成:
-借助由至少一个传感器单元(24)产生并在所述接口(26)处接收的测量数据探测在机动车(10)的环境(17)中的至少一个活的对象(16)和至少一个另外的对象(18、20、22)以及它们的相应的对象位置;
-将借助测量数据探测到的对象(16至22)分为各个对象类别,其中,针对活的对象(16)的对象类别和另外的对象(18、20、22)的对象类别的各个组合将相应的运动模型存储在所述装置(14)中和/或能由所述装置调用,其中,相应的运动模型表征:由于属于另外的对象(18、20、22)的对象类别的对象而产生的、属于活的对象(16)的对象类别的对象的运动变化;
-至少根据与对象类别的组合相对应的运动模型、活的对象(16)的对象位置和至少一个另外的对象(18、20、22)的对象位置来建立至少一个活的对象(16)的运动方程;
-借助运动方程预测至少一个活的对象(16)的运动,并且将表征预测出的活的对象(16)的运动的数据在另一接口(28)提供给驾驶员辅助系统(12)。
10.根据权利要求9所述的装置(14),其特征在于,所述测量数据为至少一个摄像机的至少一个图像。
11.根据上述权利要求中任一项所述的装置(14),其特征在于,所述装置(14)被构造成,在通过多于一个的传感器单元(24)探测测量数据时,相应的传感器单元(24)的相应的测量数据通过与相应的其他的传感器单元(24)的相应的其他的测量数据融合而合并成融合的测量数据的一共同组。
12.一种驾驶员辅助系统(12),其具有根据权利要求9所述的装置(14)和/或被构造成执行根据权利要求1至8中任一项所述的方法。
13.一种机动车(10),其具有根据权利要求9所述的装置(14)和/或具有根据权利要求12所述的驾驶员辅助系统(12)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017217056.5A DE102017217056B4 (de) | 2017-09-26 | 2017-09-26 | Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug |
DE102017217056.5 | 2017-09-26 | ||
PCT/EP2018/075500 WO2019063416A1 (de) | 2017-09-26 | 2018-09-20 | Verfahren und einrichtung zum betreiben eines fahrerassistenzsystems sowie fahrerassistenzsystem und kraftfahrzeug |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111033510A true CN111033510A (zh) | 2020-04-17 |
CN111033510B CN111033510B (zh) | 2024-02-13 |
Family
ID=63685967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880050181.5A Active CN111033510B (zh) | 2017-09-26 | 2018-09-20 | 用于运行驾驶员辅助系统的方法和装置以及驾驶员辅助系统和机动车 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200211395A1 (zh) |
CN (1) | CN111033510B (zh) |
DE (1) | DE102017217056B4 (zh) |
WO (1) | WO2019063416A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112562314A (zh) * | 2020-11-02 | 2021-03-26 | 福瑞泰克智能系统有限公司 | 基于深度融合的路端感知方法、装置、路端设备和系统 |
CN112581756A (zh) * | 2020-11-16 | 2021-03-30 | 东南大学 | 一种基于混合交通的行车风险评估方法 |
CN112686421A (zh) * | 2019-10-18 | 2021-04-20 | 本田技研工业株式会社 | 将来行动推定装置、将来行动推定方法及存储介质 |
CN114590248A (zh) * | 2022-02-23 | 2022-06-07 | 阿波罗智能技术(北京)有限公司 | 行驶策略的确定方法、装置、电子设备和自动驾驶车辆 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6983309B2 (ja) * | 2018-04-16 | 2021-12-17 | 三菱電機株式会社 | 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法 |
DE102018214635A1 (de) * | 2018-08-29 | 2020-03-05 | Robert Bosch Gmbh | Verfahren zur Vorhersage zumindest eines zukünftigen Geschwindigkeitsvektors und/oder einer zukünftigen Pose eines Fußgängers |
US11667301B2 (en) * | 2018-12-10 | 2023-06-06 | Perceptive Automata, Inc. | Symbolic modeling and simulation of non-stationary traffic objects for testing and development of autonomous vehicle systems |
GB2587836B (en) * | 2019-05-07 | 2021-11-10 | Motional Ad Llc | Systems and methods for planning and updating a vehicle's trajectory |
CN114364591B (zh) * | 2019-06-06 | 2025-02-25 | 移动眼视觉科技有限公司 | 用于交通工具导航系统和方法 |
CN112242069B (zh) | 2019-07-17 | 2021-10-01 | 华为技术有限公司 | 一种确定车速的方法和装置 |
DE102019213222B4 (de) * | 2019-09-02 | 2022-09-29 | Volkswagen Aktiengesellschaft | Verfahren zum Vorhersagen einer zukünftigen Fahr-Situation eines am Straßenverkehr teilnehmenden Fremd-Objektes, Vorrichtung, Fahrzeug |
DE102019215141B4 (de) * | 2019-10-01 | 2023-10-12 | Volkswagen Aktiengesellschaft | Verfahren zum Prognostizieren einer zukünftigen Verkehrssituation in einer Umgebung eines Kraftfahrzeugs durch Bestimmen mehrerer in sich konsistenter Gesamtszenarios für unterschiedliche Verkehrsteilnehmer; Kraftfahrzeug |
DE102019127176A1 (de) * | 2019-10-09 | 2021-04-15 | Ford Global Technologies, Llc | Steuern eines autonomen Fahrzeugs |
US11912271B2 (en) | 2019-11-07 | 2024-02-27 | Motional Ad Llc | Trajectory prediction from precomputed or dynamically generated bank of trajectories |
DE102019218455A1 (de) * | 2019-11-28 | 2021-06-02 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben einer Fahrassistenzvorrichtung eines Fahrzeugs, Fahrassistenzvorrichtung und Fahrzeug, aufweisend zumindest eine Fahrassistenzvorrichtung |
CN114829219A (zh) * | 2019-12-18 | 2022-07-29 | 沃尔沃卡车集团 | 用于为车辆提供肯定决策信号的方法 |
CN113131981B (zh) * | 2021-03-23 | 2022-08-26 | 湖南大学 | 一种混合波束成形方法、装置及存储介质 |
DE102021208191A1 (de) | 2021-07-29 | 2023-02-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs |
CN113306552B (zh) * | 2021-07-31 | 2021-10-01 | 西华大学 | 混合道路拥堵状态下无人驾驶汽车的超低速蠕行方法 |
DE102021213304A1 (de) | 2021-11-25 | 2023-05-25 | Psa Automobiles Sa | Soziale-Kräfte-Modelle zur Trajektorien-Prädiktion anderer Verkehrsteilnehmer |
DE102021213538A1 (de) | 2021-11-30 | 2023-06-01 | Psa Automobiles Sa | Simulation zur Validierung einer automatisierenden Fahrfunktion für ein Fahrzeug |
DE102023201784A1 (de) | 2023-02-27 | 2024-08-29 | Stellantis Auto Sas | Adaptive realdatenbasierte Simulation eines zentralisiert koordinierten Verkehrsraums |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080065328A1 (en) * | 2006-09-08 | 2008-03-13 | Andreas Eidehall | Method and system for collision avoidance |
CN105473408A (zh) * | 2013-08-20 | 2016-04-06 | 奥迪股份公司 | 机动车和用于控制机动车的方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10325762A1 (de) * | 2003-06-05 | 2004-12-23 | Daimlerchrysler Ag | Bildverarbeitungssystem für ein Fahrzeug |
JP4967015B2 (ja) * | 2007-04-02 | 2012-07-04 | パナソニック株式会社 | 安全運転支援装置 |
JP5172366B2 (ja) * | 2008-01-22 | 2013-03-27 | アルパイン株式会社 | 車両運転支援装置 |
DE102013202463A1 (de) * | 2013-02-15 | 2014-08-21 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Ermitteln eines Bewegungsmodells |
DE102013206023A1 (de) * | 2013-04-05 | 2014-10-09 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zum Verbessern der Verkehrssicherheit von Kindern und Jugendlichen |
DE102013017626A1 (de) * | 2013-10-23 | 2015-04-23 | Audi Ag | Verfahren zur Warnung weiterer Verkehrsteilnehmer vor Fußgängern durch ein Kraftfahrzeug und Kraftfahrzeug |
DE102014215372A1 (de) | 2014-08-05 | 2016-02-11 | Conti Temic Microelectronic Gmbh | Fahrerassistenzsystem |
DE102015206335A1 (de) * | 2015-04-09 | 2016-10-13 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Warnen eines Verkehrsteilnehmers |
DE102015015021A1 (de) * | 2015-11-20 | 2016-05-25 | Daimler Ag | Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs |
-
2017
- 2017-09-26 DE DE102017217056.5A patent/DE102017217056B4/de active Active
-
2018
- 2018-09-20 CN CN201880050181.5A patent/CN111033510B/zh active Active
- 2018-09-20 US US16/632,610 patent/US20200211395A1/en not_active Abandoned
- 2018-09-20 WO PCT/EP2018/075500 patent/WO2019063416A1/de active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080065328A1 (en) * | 2006-09-08 | 2008-03-13 | Andreas Eidehall | Method and system for collision avoidance |
CN105473408A (zh) * | 2013-08-20 | 2016-04-06 | 奥迪股份公司 | 机动车和用于控制机动车的方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686421A (zh) * | 2019-10-18 | 2021-04-20 | 本田技研工业株式会社 | 将来行动推定装置、将来行动推定方法及存储介质 |
CN112686421B (zh) * | 2019-10-18 | 2024-05-03 | 本田技研工业株式会社 | 将来行动推定装置、将来行动推定方法及存储介质 |
CN112562314A (zh) * | 2020-11-02 | 2021-03-26 | 福瑞泰克智能系统有限公司 | 基于深度融合的路端感知方法、装置、路端设备和系统 |
CN112562314B (zh) * | 2020-11-02 | 2022-06-24 | 福瑞泰克智能系统有限公司 | 基于深度融合的路端感知方法、装置、路端设备和系统 |
CN112581756A (zh) * | 2020-11-16 | 2021-03-30 | 东南大学 | 一种基于混合交通的行车风险评估方法 |
CN114590248A (zh) * | 2022-02-23 | 2022-06-07 | 阿波罗智能技术(北京)有限公司 | 行驶策略的确定方法、装置、电子设备和自动驾驶车辆 |
CN114590248B (zh) * | 2022-02-23 | 2023-08-25 | 阿波罗智能技术(北京)有限公司 | 行驶策略的确定方法、装置、电子设备和自动驾驶车辆 |
Also Published As
Publication number | Publication date |
---|---|
WO2019063416A1 (de) | 2019-04-04 |
DE102017217056B4 (de) | 2023-10-12 |
DE102017217056A1 (de) | 2019-03-28 |
CN111033510B (zh) | 2024-02-13 |
US20200211395A1 (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111033510B (zh) | 用于运行驾驶员辅助系统的方法和装置以及驾驶员辅助系统和机动车 | |
CN110001658B (zh) | 用于车辆的路径预测 | |
CN110895674B (zh) | 用于基于自我中心视觉的未来车辆定位的系统和方法 | |
JP6925796B2 (ja) | 車両を運転する際に当該車両の運転者を支援する方法及びシステム、車両、並びにコンピュータプログラム | |
US9767368B2 (en) | Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system | |
Bonnin et al. | Pedestrian crossing prediction using multiple context-based models | |
JP5938569B2 (ja) | 方位情報を考慮する高度運転者支援システム、及びその動作方法 | |
CN110738870A (zh) | 用于避免碰撞路线的系统和方法 | |
Dueholm et al. | Trajectories and maneuvers of surrounding vehicles with panoramic camera arrays | |
Bonnin et al. | A generic concept of a system for predicting driving behaviors | |
JP7472832B2 (ja) | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム | |
JP2021082286A (ja) | 車線変更の検出を改良するためのシステム、非一時的コンピュータ可読媒体および方法 | |
Rajendar et al. | Prediction of stopping distance for autonomous emergency braking using stereo camera pedestrian detection | |
CN115546756A (zh) | 提高车辆内的情境感知能力 | |
JP5895728B2 (ja) | 車群管理装置 | |
WO2023179494A1 (zh) | 危险预警的方法、装置和车辆 | |
CN111081045A (zh) | 姿态轨迹预测方法及电子设备 | |
CN112365730A (zh) | 自动驾驶方法、装置、设备、存储介质以及车辆 | |
US10719718B2 (en) | Device for enabling a vehicle to automatically resume moving | |
CN118053321A (zh) | 车辆碰撞威胁评估 | |
CN114782748B (zh) | 车辆车门检测方法、装置、存储介质及自动驾驶方法 | |
JP2020019301A (ja) | 挙動決定装置 | |
JP2023085060A (ja) | 点灯状態識別装置、点灯状態識別方法及び点灯状態識別用コンピュータプログラム | |
Iqbal et al. | Adjacent vehicle collision warning system using image sensor and inertial measurement unit | |
US20240092359A1 (en) | Vehicle camera-based prediction of change in pedestrian motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |