KR102592830B1 - 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 - Google Patents
차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 Download PDFInfo
- Publication number
- KR102592830B1 KR102592830B1 KR1020180155005A KR20180155005A KR102592830B1 KR 102592830 B1 KR102592830 B1 KR 102592830B1 KR 1020180155005 A KR1020180155005 A KR 1020180155005A KR 20180155005 A KR20180155005 A KR 20180155005A KR 102592830 B1 KR102592830 B1 KR 102592830B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- learning
- sensor fusion
- prediction
- fusion target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 214
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000005259 measurement Methods 0.000 claims description 124
- 230000001133 acceleration Effects 0.000 claims description 24
- 230000006399 behavior Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000000306 recurrent effect Effects 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/114—Yaw movement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/12—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
Abstract
Description
도 2는 도 1의 센서퓨전 타겟 예측 과정을 설명하기 위한 도면이다.
도 3은 도 2의 학습 과정을 설명하기 위한 도면이다.
도 4 및 도 5는 도 2의 예측 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 센서퓨전 타겟 예측 방법을 설명하기 위한 흐름도이다.
200: 예측부
300: 타겟 추적부
Claims (32)
- 센서퓨전 타겟 정보를 수신하여 학습하는 학습부;
현재 센서퓨전 타겟 정보가 수신되면 상기 학습부로부터 학습된 파라미터를 기반으로 상기 현재 센서퓨전 타겟 정보에 대한 예측값을 산출하는 예측부; 그리고,
상기 센서퓨전 타겟 정보의 수신 여부를 확인하고, 상기 센서퓨전 타겟 정보가 수신되지 않으면 상기 예측부로부터 이전에 수신된 이전 센서퓨전 타겟 정보에서 산출된 예측값으로 타겟을 추적하는 타겟 추적부를 포함하며,
상기 학습부는,
상기 센서퓨전 타겟 정보를 수신할 때, 상기 타겟에 대한 횡 속도 정보, 종 속도 정보, 횡 위치 정보, 종 위치 정보, 헤딩 각도 정보, 종가속도 정보, 자차의 요레이트(yawrate) 정보, 및 도로 곡률 정보를 수신하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 삭제
- 제1 항에 있어서, 상기 학습부는,
상기 센서퓨전 타겟 정보를 수신하면 상기 수신한 센서퓨전 타겟 정보를 학습 항목별로 분류하고, 상기 각 학습 항목에 상응하는 정보를 측정 시점에 따라 연속적으로 학습하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제3 항에 있어서, 상기 학습부는,
상기 수신한 센서퓨전 타겟 정보를 학습 항목별로 분류할 때, 횡 속도 정보를 학습하기 위한 제1 학습 항목, 종 속도 정보를 학습하기 위한 제2 학습 항목, 횡 위치 정보를 학습하기 위한 제3 학습 항목, 종 위치 정보를 학습하기 위한 제4 학습 항목, 헤딩 각도 정보를 학습하기 위한 제5 학습 항목, 종가속도 정보를 학습하기 위한 제6 학습 항목, 자차의 요레이트(yawrate) 정보를 학습하기 위한 제7 학습 항목, 도로 곡률 정보를 학습하기 위한 제8 학습 항목으로 분류하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제3 항에 있어서, 상기 학습부는,
상기 각 학습 항목에 상응하는 정보를 측정 시점에 따라 연속적으로 학습할 때, 상기 각 학습 항목에 상응하는 정보를 측정 시점마다 누적하여 연속적으로 학습하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제5 항에 있어서, 상기 학습부는,
상기 각 학습 항목에 상응하는 정보를 측정 시점마다 누적하여 연속적으로 학습할 때, 현재 측정 시점 t로부터 과거 측정 시점 t-1 ~ t-9까지 측정된 10개 정보를 누적하여 학습하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제1 항에 있어서, 상기 예측부는,
상기 현재 센서퓨전 타겟 정보가 수신되면 상기 수신한 현재 센서퓨전 타겟 정보를 예측 항목별로 분류하고, 상기 각 예측 항목에 상응하는 학습 정보를 상기 학습부로부터 수신하며, 상기 수신한 학습 정보를 토대로 현재 측정 시점 t 이후의 다음 측정 시점 t+1에 대한 제1 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제7 항에 있어서, 상기 예측부는,
상기 수신한 현재 센서퓨전 타겟 정보를 예측 항목별로 분류할 때, 횡 속도 정보를 예측하기 위한 제1 예측 항목, 종 속도 정보를 예측하기 위한 제2 예측 항목, 횡 위치 정보를 예측하기 위한 제3 예측 항목, 종 위치 정보를 예측하기 위한 제4 예측 항목, 헤딩 각도 정보를 예측하기 위한 제5 예측 항목, 종가속도 정보를 예측하기 위한 제6 예측 항목, 자차의 요레이트(yawrate) 정보를 예측하기 위한 제7 예측 항목, 도로 곡률 정보를 예측하기 위한 제8 예측 항목으로 분류하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제7 항에 있어서, 상기 예측부는,
상기 각 예측 항목에 상응하는 학습 정보를 상기 학습부로부터 수신할 때, 현재 측정 시점 t로부터 과거 측정 시점 t-1 ~ t-9까지 측정된 10개 정보를 누적하여 학습한 학습 정보를 수신하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제7 항에 있어서, 상기 예측부는,
상기 제1 예측값을 산출할 때, 상기 분류된 예측 항목에 상응하는 제1 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제7 항에 있어서, 상기 예측부는,
상기 현재 측정 시점 t 이후의 다음 측정 시점 t+1에 대한 제1 예측값을 산출하면 상기 산출된 제1 예측값 및 상기 제1 예측값에 상응하는 학습 정보를 토대로 다음 측정 시점 t+2에 대한 제2 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제11 항에 있어서, 상기 제1 예측값에 상응하는 학습 정보는,
상기 현재 측정 시점 t로부터 과거 측정 시점 t-1 ~ t-8까지 측정된 9개 정보를 포함하는 학습 정보인 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제11 항에 있어서, 상기 예측부는,
상기 제2 예측값을 산출할 때, 상기 제1 예측값이 산출된 이후에 상기 현재 센서퓨전 타겟 정보가 수신되지 않으면 상기 다음 측정 시점 t+2에 대한 제2 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제11 항에 있어서, 상기 예측부는,
상기 제2 예측값을 산출할 때, 상기 제1 예측값이 산출된 이후에 상기 현재 센서퓨전 타겟 정보가 상기 현재 측정 시점 t 이후의 다음 측정 시점 t+1 및 t+2에 연속적으로 수신되지 않으면 상기 다음 측정 시점 t+2에 대한 제2 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 제1 항에 있어서, 상기 타겟 추적부는,
상기 센서퓨전 타겟 정보의 수신 여부를 확인할 때, 상기 센서퓨전 타겟 정보가 수신되면 상기 수신한 센서퓨전 타겟 정보를 토대로 상기 타겟을 추적하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 장치. - 센서퓨전 타겟 정보를 수신하는 단계;
상기 수신한 센서퓨전 타겟 정보를 학습하는 단계;
상기 학습된 파라미터를 기반으로 현재 센서퓨전 타겟 정보에 대한 예측값을 산출하는 단계;
상기 센서퓨전 타겟 정보의 수신 여부를 확인하는 단계; 그리고,
상기 센서퓨전 타겟 정보가 수신되지 않으면 이전에 수신된 이전 센서퓨전 타겟 정보에서 산출된 예측값으로 타겟을 추적하는 단계를 포함하며,
상기 센서퓨전 타겟 정보를 수신하는 단계는,
상기 타겟에 대한 횡 속도 정보, 종 속도 정보, 횡 위치 정보, 종 위치 정보, 헤딩 각도 정보, 종가속도 정보, 자차의 요레이트(yawrate) 정보, 및 도로 곡률 정보를 수신하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 삭제
- 제16 항에 있어서, 상기 수신한 센서퓨전 타겟 정보를 학습하는 단계는,
상기 수신한 센서퓨전 타겟 정보를 학습 항목별로 분류하는 단계; 그리고,
상기 각 학습 항목에 상응하는 정보를 측정 시점에 따라 연속적으로 학습하는 단계를 포함하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제18 항에 있어서, 상기 수신한 센서퓨전 타겟 정보를 학습 항목별로 분류하는 단계는,
횡 속도 정보를 학습하기 위한 제1 학습 항목, 종 속도 정보를 학습하기 위한 제2 학습 항목, 횡 위치 정보를 학습하기 위한 제3 학습 항목, 종 위치 정보를 학습하기 위한 제4 학습 항목, 헤딩 각도 정보를 학습하기 위한 제5 학습 항목, 종가속도 정보를 학습하기 위한 제6 학습 항목, 자차의 요레이트(yawrate) 정보를 학습하기 위한 제7 학습 항목, 도로 곡률 정보를 학습하기 위한 제8 학습 항목으로 분류하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제18 항에 있어서, 상기 각 학습 항목에 상응하는 정보를 측정 시점에 따라 연속적으로 학습하는 단계는,
상기 각 학습 항목에 상응하는 정보를 측정 시점마다 누적하여 연속적으로 학습하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제18 항에 있어서, 상기 각 학습 항목에 상응하는 정보를 측정 시점에 따라 연속적으로 학습하는 단계는,
현재 측정 시점 t로부터 과거 측정 시점 t-1 ~ t-9까지 측정된 10개 정보를 누적하여 학습하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제16 항에 있어서, 상기 현재 센서퓨전 타겟 정보에 대한 예측값을 산출하는 단계는,
상기 현재 센서퓨전 타겟 정보를 수신하는 단계;
상기 수신한 현재 센서퓨전 타겟 정보를 예측 항목별로 분류하는 단계;
상기 각 예측 항목에 상응하는 학습 정보를 수신하는 단계; 그리고,
상기 수신한 학습 정보를 토대로 현재 측정 시점 t 이후의 다음 측정 시점 t+1에 대한 제1 예측값을 산출하는 단계를 포함하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제22 항에 있어서, 상기 수신한 현재 센서퓨전 타겟을 예측 항목별로 분류하는 단계는,
횡 속도 정보를 예측하기 위한 제1 예측 항목, 종 속도 정보를 예측하기 위한 제2 예측 항목, 횡 위치 정보를 예측하기 위한 제3 예측 항목, 종 위치 정보를 예측하기 위한 제4 예측 항목, 헤딩 각도 정보를 예측하기 위한 제5 예측 항목, 종가속도 정보를 예측하기 위한 제6 예측 항목, 자차의 요레이트(yawrate) 정보를 예측하기 위한 제7 예측 항목, 도로 곡률 정보를 예측하기 위한 제8 예측 항목으로 분류하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제22 항에 있어서, 상기 각 예측 항목에 상응하는 학습 정보를 수신하는 단계는,
현재 측정 시점 t로부터 과거 측정 시점 t-1 ~ t-9까지 측정된 10개 정보를 누적하여 학습한 학습 정보를 수신하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제22 항에 있어서, 상기 제1 예측값을 산출하는 단계는,
상기 분류된 예측 항목에 상응하는 제1 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제22 항에 있어서, 상기 제1 예측값을 산출하는 단계는,
상기 현재 측정 시점 t 이후의 다음 측정 시점 t+1에 대한 제1 예측값이 산출되면 상기 산출된 제1 예측값 및 상기 제1 예측값에 상응하는 학습 정보를 토대로 다음 측정 시점 t+2에 대한 제2 예측값을 산출하는 단계를 더 포함하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제26 항에 있어서, 상기 제1 예측값에 상응하는 학습 정보는,
상기 현재 측정 시점 t로부터 과거 측정 시점 t-1 ~ t-8까지 측정된 9개 정보를 포함하는 학습 정보인 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제26 항에 있어서, 상기 제2 예측값을 산출하는 단계는,
상기 제1 예측값이 산출된 이후에 상기 현재 센서퓨전 타겟 정보가 수신되지 않으면 상기 다음 측정 시점 t+2에 대한 제2 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제26 항에 있어서, 상기 제2 예측값을 산출하는 단계는,
상기 제1 예측값이 산출된 이후에 상기 현재 센서퓨전 타겟 정보가 상기 현재 측정 시점 t 이후의 다음 측정 시점 t+1 및 t+2에 연속적으로 수신되지 않으면 상기 다음 측정 시점 t+2에 대한 제2 예측값을 산출하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제16 항에 있어서, 상기 센서퓨전 타겟 정보의 수신 여부를 확인하는 단계는,
상기 센서퓨전 타겟 정보가 수신되면 상기 수신된 센서퓨전 타겟 정보를 토대로 상기 타겟을 추적하는 것을 특징으로 하는 차량용 센서퓨전 타겟 예측 방법. - 제16항, 제18항 내지 제30항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
- 타겟의 거동을 센싱하는 센서 퓨전 장치; 그리고,
상기 센서 퓨전 장치에 통신 연결되어 상기 타겟의 거동을 예측하는 센서퓨전 타겟 예측 장치를 포함하고,
상기 센서퓨전 타겟 예측 장치는,
센서퓨전 타겟 정보를 수신하여 학습하는 학습부;
현재 센서퓨전 타겟 정보가 수신되면 상기 학습부로부터 학습된 파라미터를 기반으로 상기 현재 센서퓨전 타겟 정보에 대한 예측값을 산출하는 예측부; 그리고,
상기 센서퓨전 타겟 정보의 수신 여부를 확인하고, 상기 센서퓨전 타겟 정보가 수신되지 않으면 상기 예측부로부터 이전에 수신된 이전 센서퓨전 타겟 정보에서 산출된 예측값으로 타겟을 추적하는 타겟 추적부를 포함하며,
상기 학습부는,
상기 센서퓨전 타겟 정보를 수신할 때, 상기 타겟에 대한 횡 속도 정보, 종 속도 정보, 횡 위치 정보, 종 위치 정보, 헤딩 각도 정보, 종가속도 정보, 자차의 요레이트(yawrate) 정보, 및 도로 곡률 정보를 수신하는 것을 특징으로 하는 차량.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180155005A KR102592830B1 (ko) | 2018-12-05 | 2018-12-05 | 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 |
US16/525,973 US11748593B2 (en) | 2018-12-05 | 2019-07-30 | Sensor fusion target prediction device and method for vehicles and vehicle including the device |
CN201910769834.1A CN111267860B (zh) | 2018-12-05 | 2019-08-20 | 用于车辆的传感器融合目标预测装置和方法、以及车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180155005A KR102592830B1 (ko) | 2018-12-05 | 2018-12-05 | 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200068258A KR20200068258A (ko) | 2020-06-15 |
KR102592830B1 true KR102592830B1 (ko) | 2023-10-23 |
Family
ID=70972449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180155005A Active KR102592830B1 (ko) | 2018-12-05 | 2018-12-05 | 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11748593B2 (ko) |
KR (1) | KR102592830B1 (ko) |
CN (1) | CN111267860B (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4012603B1 (en) * | 2020-12-10 | 2023-12-06 | Aptiv Technologies Limited | Method for classifying a tracked object |
KR20220131646A (ko) * | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
JP7376547B2 (ja) * | 2021-10-12 | 2023-11-08 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
CN114084129A (zh) * | 2021-10-13 | 2022-02-25 | 武汉光庭信息技术股份有限公司 | 一种基于融合的车辆自动驾驶控制方法及系统 |
CN114494360B (zh) * | 2022-01-25 | 2025-03-25 | 东风商用车有限公司 | 一种车道保持控制方法、装置、设备及可读存储介质 |
CN115588184A (zh) * | 2022-10-28 | 2023-01-10 | 摩尔线程智能科技(北京)有限责任公司 | 检测目标行驶装置的方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5063851B2 (ja) * | 2000-08-16 | 2012-10-31 | ヴァレオ・レイダー・システムズ・インコーポレーテッド | 近接物体検出システム |
JP2018173816A (ja) * | 2017-03-31 | 2018-11-08 | パナソニックIpマネジメント株式会社 | 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4510739B2 (ja) | 2005-09-29 | 2010-07-28 | 富士重工業株式会社 | 車両挙動推定予測装置および車両安定化制御システム |
JP2011118755A (ja) * | 2009-12-04 | 2011-06-16 | Sony Corp | 学習装置、学習方法、およびプログラム |
US9650043B2 (en) * | 2015-04-30 | 2017-05-16 | GM Global Technology Operations LLC | Real-time anticipatory speed control |
US9711050B2 (en) * | 2015-06-05 | 2017-07-18 | Bao Tran | Smart vehicle |
US9815462B2 (en) * | 2015-08-27 | 2017-11-14 | Toyota Motor Engineering & Manufacturing North America, Inc. | Path determination for automated vehicles |
KR101813697B1 (ko) | 2015-12-22 | 2017-12-29 | 한국항공대학교산학협력단 | 딥 러닝을 이용한 무인기 비행 제어 시스템 및 방법 |
US10410113B2 (en) | 2016-01-14 | 2019-09-10 | Preferred Networks, Inc. | Time series data adaptation and sensor fusion systems, methods, and apparatus |
JP2017174244A (ja) | 2016-03-25 | 2017-09-28 | 株式会社日立製作所 | 情報提供装置 |
KR102576697B1 (ko) * | 2016-04-01 | 2023-09-12 | 주식회사 에이치엘클레무브 | 충돌방지장치 및 충돌방지방법 |
KR101813790B1 (ko) * | 2016-04-14 | 2017-12-29 | 국방과학연구소 | 특징 기반 다중 센서 정보 융합 장치 및 방법 |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
US11120353B2 (en) | 2016-08-16 | 2021-09-14 | Toyota Jidosha Kabushiki Kaisha | Efficient driver action prediction system based on temporal fusion of sensor data using deep (bidirectional) recurrent neural network |
KR101864860B1 (ko) | 2016-09-13 | 2018-06-05 | 오토시맨틱스 주식회사 | 딥러닝을 통한 자동차 상태 진단 방법 |
KR102072757B1 (ko) * | 2017-10-31 | 2020-02-03 | 국방과학연구소 | 딥 러닝을 이용한 이종 센서 정보 융합 장치 및 방법 |
CN108573270B (zh) * | 2017-12-15 | 2020-04-28 | 上海蔚来汽车有限公司 | 使多传感器目标信息融合与多传感器感测同步的方法及装置、计算机设备和记录介质 |
US20190050729A1 (en) * | 2018-03-26 | 2019-02-14 | Intel Corporation | Deep learning solutions for safe, legal, and/or efficient autonomous driving |
US11592818B2 (en) * | 2018-06-20 | 2023-02-28 | Zoox, Inc. | Restricted multi-scale inference for machine learning |
CN109829386B (zh) * | 2019-01-04 | 2020-12-11 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
-
2018
- 2018-12-05 KR KR1020180155005A patent/KR102592830B1/ko active Active
-
2019
- 2019-07-30 US US16/525,973 patent/US11748593B2/en active Active
- 2019-08-20 CN CN201910769834.1A patent/CN111267860B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5063851B2 (ja) * | 2000-08-16 | 2012-10-31 | ヴァレオ・レイダー・システムズ・インコーポレーテッド | 近接物体検出システム |
JP2018173816A (ja) * | 2017-03-31 | 2018-11-08 | パナソニックIpマネジメント株式会社 | 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム |
Also Published As
Publication number | Publication date |
---|---|
US11748593B2 (en) | 2023-09-05 |
CN111267860B (zh) | 2024-09-13 |
KR20200068258A (ko) | 2020-06-15 |
CN111267860A (zh) | 2020-06-12 |
US20200180646A1 (en) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102592830B1 (ko) | 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 | |
CN111971725B (zh) | 用于确定车辆的变道说明的方法、可读存储介质以及车辆 | |
AU2019253703B2 (en) | Improving the safety of reinforcement learning models | |
CN113228040B (zh) | 多级对象行进方向估计的系统和方法 | |
JP6838241B2 (ja) | 移動体挙動予測装置 | |
US10809735B2 (en) | System and method for a framework of robust and safe reinforcement learning application in real world autonomous vehicle application | |
KR102569900B1 (ko) | 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량 | |
US20170031361A1 (en) | Vehicle trajectory determination | |
KR102699140B1 (ko) | 동시 차로 변경 차량 예측 장치 및 그의 예측 방법과 그를 이용하는 차량 | |
AU2019396213A1 (en) | Techniques for kinematic and dynamic behavior estimation in autonomous vehicles | |
EP3154835A1 (en) | Top-down refinement in lane marking navigation | |
US10579888B2 (en) | Method and system for improving object detection and object classification | |
CN108960083B (zh) | 基于多传感器信息融合的自动驾驶目标分类方法及系统 | |
JP6418574B2 (ja) | 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム | |
RU2750243C2 (ru) | Способ и система для формирования траектории для беспилотного автомобиля (sdc) | |
CN114475656B (zh) | 行驶轨迹预测方法、装置、电子设备以及存储介质 | |
JP2022172444A (ja) | 原動機付き車両の走行動作を補助する方法及びアシスト装置並びに原動機付き車両 | |
CN111352414B (zh) | 用于车辆的假目标移除装置和方法及包括该装置的车辆 | |
KR20200133122A (ko) | 차량 충돌 방지 장치 및 방법 | |
CN114207627A (zh) | 用于路径规划系统的极端情况检测和收集 | |
Jeong | Predictive lane change decision making using bidirectional long shot-term memory for autonomous driving on highways | |
EP4336445A2 (en) | Multi-object tracking system and its motion trajectory optimization apparatus and optimization method | |
US20180197020A1 (en) | Periphery recognition device | |
US11257239B2 (en) | Image selection device and image selection method | |
KR102257893B1 (ko) | 차선 변경 정보 제공 장치, 이의 차선 변경 정보 제공 방법 및 이를 수행하기 위한 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20181205 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20211110 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20181205 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20221108 Patent event code: PE09021S01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230525 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230824 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20231018 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20231019 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |