KR102705940B1 - System and method for determining location of a vehicle using historical information of roads and lanes - Google Patents
System and method for determining location of a vehicle using historical information of roads and lanes Download PDFInfo
- Publication number
- KR102705940B1 KR102705940B1 KR1020210136044A KR20210136044A KR102705940B1 KR 102705940 B1 KR102705940 B1 KR 102705940B1 KR 1020210136044 A KR1020210136044 A KR 1020210136044A KR 20210136044 A KR20210136044 A KR 20210136044A KR 102705940 B1 KR102705940 B1 KR 102705940B1
- Authority
- KR
- South Korea
- Prior art keywords
- road
- vehicle
- lane
- information
- history information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000001133 acceleration Effects 0.000 claims abstract description 27
- 230000005484 gravity Effects 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims description 28
- 238000001514 detection method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18063—Creeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/16—Pitch
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/18—Roll
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/05—Type of road, e.g. motorways, local streets, paved or unpaved roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/10—Number of lanes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/15—Road slope, i.e. the inclination of a road segment in the longitudinal direction
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Navigation (AREA)
Abstract
본 발명은 도로와 차선의 이력 정보를 이용한 차량 위치 결정 방법과 이를 적용한 시스템을 제공한다. 본 발명에 따른 차량 위치 결정 시스템은, 차량이 주행 중인 도로/차선 정보와 상기 차량의 관성 센싱 정보를 수집하는 센서부; 상기 도로/차선 정보와 상기 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하는 도로/차선 이력 정보 생성부; 및 상기 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 상기 차량의 정밀맵에서의 위치를 결정하는 위치 결정부;를 포함한다. 상기 도로/차선 정보는 도로의 폭, 도로의 곡률, 차선의 폭, 차선의 곡률, 차선의 개수 및 차선의 종류 중 적어도 어느 하나를 포함하며, 상기 관성 센싱 정보는 상기 차량의 속도, 가속도, 요각, 요각속도, 피치각, 피치각속도, 롤각, 롤각속도, 중력가속도 및 중력 중 적어도 어느 하나를 포함한다.The present invention provides a vehicle position determination method using history information of roads and lanes and a system applying the same. The vehicle position determination system according to the present invention includes a sensor unit that collects road/lane information on which a vehicle is driving and inertial sensing information of the vehicle; a road/lane history information generation unit that generates road/lane shape history information by fusing the road/lane information and the inertial sensing information; and a position determination unit that determines the position of the vehicle in a precision map using a result of matching the road/lane shape history information and precision map information. The road/lane information includes at least one of a road width, a road curvature, a lane width, a lane curvature, the number of lanes, and a lane type, and the inertial sensing information includes at least one of a speed, an acceleration, a yaw angle, a yaw velocity, a pitch angle, a pitch angular velocity, a roll angle, a roll angular velocity, a gravitational acceleration, and a gravity of the vehicle.
Description
본 발명은 센싱 정보를 이용하여 자차 위치를 결정하거나 보정하는 시스템과 방법에 관한 것이다.The present invention relates to a system and method for determining or correcting a vehicle's position using sensing information.
자율주행은 카메라 및 레이다 등 환경 센서를 이용하여 주변 장애물과 차선, 도로 정보를 파악하며, GNSS(Global Navigation Satellite System: 위성항법시스템) 정보를 수신하여 현재 차량의 위치를 추정하여 향후 진행할 경로를 안내하고 주변 장애물과의 사고 회피를 고려하여 세부적인 차량 거동 제어를 수행한다.Autonomous driving uses environmental sensors such as cameras and radar to identify surrounding obstacles, lanes, and road information, and receives GNSS (Global Navigation Satellite System) information to estimate the current vehicle location, guide the future route, and perform detailed vehicle behavior control considering avoidance of accidents with surrounding obstacles.
GNSS 정보 수신이 원활하지 않을 경우 관성 센서(속도, 가속도, 요각속도(yawrate)) 값으로 차량의 거동을 추정하여 임시적으로 차량의 위치를 추정하는 추측항법(DR: Dead Reckoning, 이하 DR)을 통해 경로 안내를 수행한다. 그러나, 관성 센서를 통한 DR은 시간이 경과할수록 오차가 누적되므로, 경로 안내에 활용하는 데 있어서 안전성 측면의 문제가 있다. 특히 서울의 고가 밑과 같이 주변 빌딩으로 둘러싸인 상황에서 고가도로 아래의 경로를 주행할 경우 GNSS 신호가 수신되지 않는데, 이 경우 도로가 복잡하므로 관성 센서를 통한 정확한 경로 안내가 용이하지 않다는 문제가 있다.When GNSS information reception is not smooth, route guidance is performed through dead reckoning (DR), which temporarily estimates the vehicle's location by estimating the vehicle's behavior using inertial sensor (velocity, acceleration, yaw rate) values. However, since DR through inertial sensors accumulates errors over time, there is a safety issue when using it for route guidance. In particular, when driving on a route under an overpass surrounded by surrounding buildings, such as under an overpass in Seoul, GNSS signals are not received. In this case, there is a problem that accurate route guidance using inertial sensors is not easy because the road is complex.
본 발명은 상기와 같은 문제를 해결하기 위하여, 환경인식을 위한 카메라 등의 센서로 취득된 차선 정보 또는 도로 정보를 GNSS 정보의 수신이 어려운 상황에서 보정에 활용하거나 GNSS를 대체하여 차량이 거동하도록 하는 자차 위치 결정 방법과 이를 적용한 시스템을 제공하는 것을 목적으로 한다.The present invention aims to provide a method for determining a vehicle's own position and a system applying the same, which uses lane information or road information acquired by a sensor such as a camera for environmental recognition for correction or as a substitute for GNSS in a situation where it is difficult to receive GNSS information, to enable a vehicle to move, in order to solve the above-mentioned problems.
본 발명에 따른 자차 위치 결정 방법과 이를 적용한 시스템은, 카메라를 이용한 차선 인식 정보(도로와 차선의 폭과 곡률 등)와 차량 센서 정보(속도, 가속도, 요각, 피치각, 롤각, 중력가속도/중력 등)를 융합하여 도로의 곡률, 구배(고저정보)를 포함하는 도로/차선 형상 이력 정보를 생성하고 이를 이용함으로써 GNSS에 기반한 맵 매칭 위치 결정의 신뢰성을 높이며, GNSS의 수신이 원활하지 않은 터널 등에서 도로 차선 형상 이력 정보와 정밀맵 정보를 비교하여 차량의 위치를 결정해주는 기능을 수행하여 자율주행 차량의 주행 성능을 고도화하는 것을 목적으로 한다.The present invention provides a method for determining a vehicle's own position and a system applying the same, which generates road/lane shape history information including road curvature and gradient (elevation information) by fusing lane recognition information (width and curvature of roads and lanes, etc.) using a camera and vehicle sensor information (speed, acceleration, yaw angle, pitch angle, roll angle, gravitational acceleration/gravity, etc.) and uses the same to increase the reliability of GNSS-based map matching position determination, and performs a function of determining the vehicle's position by comparing the road lane shape history information with precision map information in tunnels, etc., where GNSS reception is not smooth, thereby enhancing the driving performance of autonomous vehicles.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은, 차량이 주행 중인 도로/차선 정보와 상기 차량의 관성 센싱 정보를 수집하는 센서부; 상기 도로/차선 정보와 상기 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하는 도로/차선 이력 정보 생성부; 및 상기 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 상기 차량의 정밀맵에서의 위치를 결정하는 위치 결정부;를 포함한다. 상기 도로/차선 정보는 도로의 폭, 도로의 곡률, 차선의 폭, 차선의 곡률, 차선의 개수 및 차선의 종류 중 적어도 어느 하나를 포함하며, 상기 관성 센싱 정보는 상기 차량의 속도, 가속도, 요각, 요각속도, 피치각, 피치각속도, 롤각, 롤각속도, 중력가속도 및 중력 중 적어도 어느 하나를 포함한다.According to one embodiment of the present invention for achieving the above object, a vehicle position determination system includes: a sensor unit for collecting road/lane information on which a vehicle is driving and inertial sensing information of the vehicle; a road/lane history information generation unit for generating road/lane shape history information by fusing the road/lane information and the inertial sensing information; and a position determination unit for determining a position of the vehicle in a precision map by using a result of matching the road/lane shape history information and precision map information. The road/lane information includes at least one of a road width, a road curvature, a lane width, a lane curvature, the number of lanes, and a lane type, and the inertial sensing information includes at least one of a speed, an acceleration, a yaw angle, a yaw velocity, a pitch angle, a pitch angular velocity, a roll angle, a roll angular velocity, a gravitational acceleration, and a gravity of the vehicle.
상기 센서부는 도로/차선 인식 카메라를 통해 상기 도로/차선 정보를 인식하는 도로/차선 인식부; 및 상기 차량의 관성 센싱 정보를 획득하는 관성 센서부;를 포함할 수 있다.The above sensor unit may include a road/lane recognition unit that recognizes the road/lane information through a road/lane recognition camera; and an inertial sensor unit that obtains inertial sensing information of the vehicle.
상기 도로/차선 이력 정보 생성부는, 소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보가 포함된 도로/차선 형상 이력 정보를 생성할 수 있다.The above road/lane history information generation unit can generate road/lane shape history information including curvature and slope information of the road on which the vehicle has driven from a predetermined time ago to the present.
또한, 상기 도로/차선 이력 정보 생성부는, 상기 도로/차선 형상 이력 정보를 내부 저장소에 저장하며, 도로의 구배 및 곡률 중 적어도 어느 하나를 기준으로 상기 도로/차선 형상 이력 정보의 수집 주기를 달리할 수 있다.In addition, the road/lane history information generation unit stores the road/lane shape history information in internal storage, and can vary the collection cycle of the road/lane shape history information based on at least one of the slope and curvature of the road.
상기 위치 결정부는, 도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 상기 차량의 상기 정밀맵에서의 위치를 결정할 수 있다.The above position determining unit can determine the position of the vehicle in the precision map by comparing a predetermined section of the precision map and the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
그리고, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은, GNSS 신호를 기반으로 차량의 글로벌 위치를 검출하는 위치 검출부; 상기 글로벌 위치에 정밀맵을 매칭하여 상기 정밀맵에서의 차량의 위치를 인식하는 위치 인식부; 및 도로/차선 형상 이력 정보와 상기 정밀맵을 매칭한 결과를 활용하여 상기 정밀맵에서의 차량의 위치를 보정하는 위치 보정부;를 포함한다.And, a vehicle position determination system according to one embodiment of the present invention includes a position detection unit that detects a global position of a vehicle based on a GNSS signal; a position recognition unit that matches a precision map to the global position to recognize the position of the vehicle in the precision map; and a position correction unit that corrects the position of the vehicle in the precision map by utilizing the result of matching the road/lane shape history information and the precision map.
상기 위치 보정부는 소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보가 포함된 도로/차선 형상 이력 정보를 생성할 수 있다.The above position correction unit can generate road/lane shape history information including curvature and slope information of the road on which the vehicle has driven from a predetermined time ago to the present.
또한, 상기 위치 보정부는 상기 도로/차선 형상 이력 정보를 내부 저장소에 저장하며, 도로의 구배 및 곡률 중 적어도 어느 하나를 기준으로 상기 도로/차선 형상 이력 정보의 수집 주기를 달리할 수 있다.In addition, the position correction unit stores the road/lane shape history information in an internal storage, and can vary the collection cycle of the road/lane shape history information based on at least one of the slope and curvature of the road.
또한, 상기 위치 보정부는 도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 상기 정밀맵에서의 위치를 결정할 수 있다.In addition, the position correction unit can determine the position of the vehicle in the precision map by comparing a predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
또한, 상기 위치 보정부는 상기 위치 검출부가 GNSS 신호를 수신하지 못한 경우, 상기 도로/차선의 형상 이력 정보와 상기 정밀맵의 매칭을 통해 차량의 위치를 결정할 수 있다.In addition, the position correction unit can determine the position of the vehicle by matching the shape history information of the road/lane and the precision map when the position detection unit fails to receive a GNSS signal.
그리고, 본 발명의 일 실시예에 따른 차량 위치 결정 방법은, 센서를 통해 차량이 주행 중인 도로/차선 정보를 인식하는 단계; 상기 차량의 관성 센싱 정보를 획득하는 단계; 상기 도로/차선 정보와 상기 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하는 도로/차선 이력 정보 생성 단계; 및 상기 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 상기 정밀맵에서의 차량의 위치를 결정하는 단계;를 포함한다. 상기 도로/차선 정보는 도로의 폭, 도로의 곡률, 차선의 폭, 차선의 곡률, 차선의 개수 및 차선의 종류 중 적어도 어느 하나를 포함하며, 상기 관성 센싱 정보는 상기 차량의 속도, 가속도, 요각, 요각속도, 피치각, 피치각속도, 롤각, 롤각속도, 중력가속도 및 중력 중 적어도 어느 하나를 포함한다.And, a vehicle position determination method according to one embodiment of the present invention includes a step of recognizing road/lane information on which a vehicle is driving through a sensor; a step of obtaining inertial sensing information of the vehicle; a road/lane history information generation step of generating road/lane shape history information by fusing the road/lane information and the inertial sensing information; and a step of determining a vehicle position in the precision map using a result of matching the road/lane shape history information with precision map information. The road/lane information includes at least one of a road width, a road curvature, a lane width, a lane curvature, a number of lanes, and a lane type, and the inertial sensing information includes at least one of a speed, an acceleration, a yaw angle, a yaw velocity, a pitch angle, a pitch angular velocity, a roll angle, a roll angular velocity, a gravitational acceleration, and gravity of the vehicle.
상기 도로/차선 이력 정보 생성 단계에서, 소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보가 포함된 도로/차선 형상 이력 정보를 생성할 수 있다.In the above road/lane history information generation step, road/lane shape history information including curvature and slope information of the road on which the vehicle has driven from a predetermined time ago to the present can be generated.
상기 차량의 위치를 결정하는 단계에서, 도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 상기 정밀맵에서의 위치를 결정할 수 있다.In the step of determining the position of the vehicle, the position of the vehicle in the precision map can be determined by comparing a predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
그리고, 본 발명의 일 실시예에 따른 차량 위치 결정 방법은, GNSS 신호를 기반으로 차량의 글로벌 위치를 검출하는 위치 검출 단계; 상기 글로벌 위치에 정밀맵을 매칭하여 상기 정밀맵에서의 차량의 위치를 인식하는 위치 인식 단계; 및 도로/차선 형상 이력 정보와 상기 정밀맵을 매칭한 결과를 활용하여 상기 정밀맵에서의 차량의 위치를 보정하는 위치 보정 단계;를 포함한다.And, a vehicle position determination method according to one embodiment of the present invention includes a position detection step for detecting a global position of a vehicle based on a GNSS signal; a position recognition step for recognizing a position of a vehicle in a precision map by matching the global position with the precision map; and a position correction step for correcting the position of the vehicle in the precision map by utilizing a result of matching the road/lane shape history information and the precision map.
상기 위치 보정 단계에서, 소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보가 포함된 도로/차선 형상 이력 정보를 생성할 수 있다.In the above position correction step, road/lane shape history information including curvature and slope information of the road on which the vehicle has driven from a predetermined time ago to the present can be generated.
상기 위치 보정 단계에서, 도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 상기 정밀맵에서의 위치를 결정할 수 있다.In the above position correction step, the position of the vehicle in the precision map can be determined by comparing a predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
본 발명의 일 실시예에 따른 자차 위치 결정 방법과 이를 적용한 시스템은, 도로/차선 형상 이력 정보를 생성하고 이를 이용함으로써 GNSS에 기반한 맵 매칭 위치 결정의 신뢰성을 높이며, GNSS의 수신이 원활하지 않은 터널 등에서 도로 차선 형상 이력 정보와 정밀맵 정보를 비교하여 차량의 위치를 소정 오차 범위 내에서 결정해줄 수 있다.A method for determining a vehicle's own position according to one embodiment of the present invention and a system applying the same generate road/lane shape history information and use the same, thereby increasing the reliability of GNSS-based map matching position determination, and can determine a vehicle's position within a predetermined error range by comparing road/lane shape history information with precision map information in tunnels or the like where GNSS reception is not smooth.
본 발명의 일 실시예에 따른 자차 위치 결정 방법과 이를 적용한 시스템은 GNSS 수신이 가능한 지역에서는 위치 보정을 통해 자차 위치 인식의 신뢰도를 향상시키는 효과가 있으며, GNSS 수신이 원활하지 않은 음영지역에서도 종래의 DR 방식이나 정밀맵 매칭 방식보다 정밀하게 측위 기능을 수행할 수 있다는 효과가 있다.A method for determining a vehicle's own position according to one embodiment of the present invention and a system applying the same have the effect of improving the reliability of vehicle position recognition through position correction in an area where GNSS reception is possible, and have the effect of performing a positioning function more precisely than the conventional DR method or precision map matching method even in a shadow area where GNSS reception is not smooth.
도 1은 본 발명의 제1 실시예에 따른 차량 위치 결정 시스템의 구성을 나타낸 블록도.
도 2는 본 발명의 제1 실시예에 따른 차량 위치 결정 방법을 나타낸 흐름도.
도 3은 본 발명의 제2 실시예에 따른 차량 위치 결정 시스템의 구성을 나타낸 블록도.
도 4는 본 발명의 제2 실시예에 따른 차량 위치 결정 방법을 나타낸 흐름도.FIG. 1 is a block diagram showing the configuration of a vehicle position determination system according to the first embodiment of the present invention.
Figure 2 is a flow chart showing a vehicle position determination method according to the first embodiment of the present invention.
FIG. 3 is a block diagram showing the configuration of a vehicle position determination system according to the second embodiment of the present invention.
Figure 4 is a flowchart showing a vehicle position determination method according to a second embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The advantages and features of the present invention, and the methods for achieving them, will become clear with reference to the embodiments described in detail below together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments are provided to make the disclosure of the present invention complete, and to fully inform a person having ordinary skill in the art to which the present invention belongs of the scope of the invention, and the present invention is defined only by the scope of the claims. Meanwhile, the terminology used in this specification is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated in the phrase. The terms "comprises" and/or "comprising" as used in the specification do not exclude the presence or addition of one or more other components, steps, operations, and/or elements mentioned.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description is omitted.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. In order to facilitate overall understanding in describing the present invention, the same reference numbers will be used for the same means regardless of the drawing numbers.
자율주행시스템은 GNSS 신호를 수신하여 글로벌 위치를 추정한다. 고층 빌딩이나, 터널 등 GNSS 음영지역에서는 차량의 관성 센서를 이용한 추측항법(DR)을 통해 임시적으로 차량의 위치를 추정한다. 추측항법은 시간이 지남에 따라 오차가 누적되어 위치 추정 정확도가 떨어져서 차량 제어가 어려워지는 단점이 있다. 따라서 자율주행시스템은 차량의 위치를 식별하여 정밀맵을 이용하여 자율주행을 위한 경로 생성을 수행하는 것이 일반적이다. 정밀맵은 도로, 지형, 주변 건물 등을 모두 나타낼 수 있는 고정밀 지도(high definition map)를 의미한다. 정밀맵은 도로의 위치(높이 포함), 도로와 차선의 폭과 형상(곡률, 구배 등), 차선, 노면 마크, 신호등, 표지판 등의 정보를 포함한다.Autonomous driving systems receive GNSS signals to estimate global location. In GNSS shadow areas such as high-rise buildings or tunnels, the vehicle's location is temporarily estimated through dead reckoning (DR) using the vehicle's inertial sensor. Dead reckoning has a disadvantage in that errors accumulate over time, which reduces location estimation accuracy and makes vehicle control difficult. Therefore, autonomous driving systems typically identify the location of the vehicle and use a precision map to generate a path for autonomous driving. A precision map is a high definition map that can represent all roads, terrain, and surrounding buildings. A precision map includes information such as the location of the road (including height), the width and shape (curvature, gradient, etc.) of the road and lane, lanes, road markings, traffic lights, and signs.
참고로, GPS(Global Positioning System)는 GNSS의 일종이므로, 본 발명에서 GNSS는 GPS까지 포함하는 의미로 사용된다.For reference, GPS (Global Positioning System) is a type of GNSS, so in the present invention, GNSS is used to mean including GPS.
자율주행을 위한 주요 요소 기능은 고장 상황에서 안전을 확보하기 위한 기능안전 적용 설계가 필수적으로 고려되어야 한다. 기능안전 적용 설계를 위해서는 GNSS의 신호가 적절히 수신되지 않는 상황에서도 임시적으로 차량의 정상적인 주행이 가능하도록 하는 백업 장치 또는 보조 기술이 구비되어야 한다. 현재 레벨3 수준의 자율주행에서는 백업 장치로 주행 가능한 시간을 수 초(예, 4초 등)로 설정하여 DR을 통해 임시적으로 주행이 가능하나, 향후 레벨4 수준의 자율주행에서는 고장 시에도 수 분(예, 10분)을 사고 없이 주행이 가능하여야 한다. 이를 위해서는 글로벌 위치를 식별해주는 부가적인 기술이 필요하며, 차량에서 인식하는 다양한 정보 중에 차선과 도로 형상 정보가 정밀맵과 매칭이 가능하며, 대부분의 자율주행 차량을 차선과 도로 말단 정보를 인식하도록 설계하고 있어, 도로 및 차선 이력 정보가 자율주행을 위한 글로벌 위치 인식에 활용될 수 있다.The main element function for autonomous driving is that functional safety application design must be considered to ensure safety in the event of a failure. In order to apply functional safety, backup devices or auxiliary technologies must be provided to enable normal vehicle driving temporarily even in situations where GNSS signals are not properly received. Currently, in the case of Level 3 autonomous driving, the driving time with a backup device is set to several seconds (e.g., 4 seconds) and temporary driving is possible through DR, but in the future, in the case of Level 4 autonomous driving, driving without accidents for several minutes (e.g., 10 minutes) should be possible even in the event of a failure. To this end, additional technology that identifies the global location is required, and among the various pieces of information recognized by the vehicle, lane and road shape information can be matched with a precision map, and most autonomous vehicles are designed to recognize lane and road end information, so road and lane history information can be utilized for global location recognition for autonomous driving.
본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 자율주행을 위하여 GNSS 신호를 기반으로 위치를 검출하고, 이를 정밀맵과 연계하여 위치를 결정하되, 어느 한 시점의 도로 및/또는 차선 형상 정보를 정밀맵과 매칭하는 것이 아니라 주행 중 생성하는 도로/차선 형상 이력 정보를 토대로 소정 구간에 대한 정밀맵 매칭을 수행하여 높은 신뢰도의 측위를 수행한다.A vehicle position determination system according to one embodiment of the present invention detects a position based on a GNSS signal for autonomous driving, and determines a position by linking the position with a precision map. However, rather than matching road and/or lane shape information at a certain point in time with the precision map, the system performs precision map matching for a predetermined section based on road/lane shape history information generated during driving, thereby performing highly reliable positioning.
또한, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 자율주행을 위한 차선 인식 카메라를 통해 인식된 도로/차선 정보(도로/차선의 폭, 차선의 개수와 종류)와 차량의 관성 센서로 취득된 요각, 피치각, 롤각, 속도, 중력 정보를 융합하여 주행 중 도로와 차선의 형상 정보를 지속적으로 수집하여 이를 기초로 도로와 차선의 형상 이력 정보를 생성하여 저장한다.In addition, the vehicle position determination system according to one embodiment of the present invention continuously collects shape information of the road and lane during driving by fusing road/lane information (width of the road/lane, number and type of lanes) recognized by a lane recognition camera for autonomous driving and yaw angle, pitch angle, roll angle, speed, and gravity information acquired by an inertial sensor of the vehicle, and generates and stores shape history information of the road and lane based on this.
또한, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 전방카메라와 후방카메라의 차선 및 도로 인식 정보를 융합하여 도로와 차선의 형상 이력 정보를 실시간으로 생성하는 것을 특징으로 한다.In addition, a vehicle position determination system according to one embodiment of the present invention is characterized by generating road and lane shape history information in real time by fusing lane and road recognition information of a front camera and a rear camera.
또한, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 카메라로 인식된 차선 정보와 도로 정보를 차량의 주행을 통해 실제 곡률과 구배 정보에 따라 보정하여 주행 거리별/위치별 도로와 차선 정보의 이력을 만들 수 있으며, 이 정보를 정밀맵의 차선 또는 도로 정보와 비교하여 현재 차량의 위치를 찾을 수 있다.In addition, a vehicle position determination system according to one embodiment of the present invention can correct lane information and road information recognized by a camera according to actual curvature and gradient information through driving of a vehicle to create a history of road and lane information by driving distance/location, and can find the current location of the vehicle by comparing this information with lane or road information of a precision map.
또한, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 도로/차선 형상 이력 정보와 정밀맵 정보를 비교하여 차량의 위치를 식별하거나 보정한다.Additionally, the vehicle position determination system according to one embodiment of the present invention identifies or corrects the position of the vehicle by comparing road/lane shape history information and precision map information.
또한, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 커브, 직선, 구배 등의 특징을 이용하여 정밀맵과 도로 차선 형상 이력 정보의 허용 오차 이내에서의 비교를 통해 현재의 글로벌 위치를 추정하는 것을 특징으로 한다. In addition, a vehicle position determination system according to one embodiment of the present invention is characterized by estimating a current global position by comparing a precision map and road lane shape history information within an allowable error using features such as curves, straight lines, and gradients.
또한, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 주행하는 도로의 차선 정보(3차선, 4차선 등)와 교차로, 지하차도, 분기점, 신호등 위치 정보를 도로/차선 이력정보와 융합하여 정밀맵 내에서의 자차 위치를 결정하는 것을 특징으로 한다.In addition, a vehicle position determination system according to one embodiment of the present invention is characterized by determining the vehicle position within a precision map by fusing lane information (3 lanes, 4 lanes, etc.) of a road on which the vehicle is driving and location information of intersections, underpasses, junctions, and traffic lights with road/lane history information.
또한, 본 발명의 일 실시예에 따른 차량 위치 결정 시스템은 GNSS의 고장 또는 터널과 같은 음영지역 주행 시 도로/차선 형상 이력 정보를 이용하여 현재 위치를 추정하며, 이를 기반으로 정밀맵에서의 위치를 결정한다.In addition, a vehicle position determination system according to one embodiment of the present invention estimates a current position using road/lane shape history information when driving in a shaded area such as a GNSS failure or tunnel, and determines a position on a precision map based on the information.
도 1은 본 발명의 제1 실시예에 따른 차량 위치 결정 시스템의 구성을 나타낸 블록도이다.FIG. 1 is a block diagram showing the configuration of a vehicle position determination system according to the first embodiment of the present invention.
본 발명의 제1 실시예에 따른 차량 위치 결정 시스템은, 도로/차선 인식부(110), 관성 센서부(120), 도로/차선 이력 정보 생성부(130) 및 위치 결정부(140)를 포함한다.A vehicle position determination system according to a first embodiment of the present invention includes a road/lane recognition unit (110), an inertial sensor unit (120), a road/lane history information generation unit (130), and a position determination unit (140).
제1 실시예에 따른 차량 위치 결정 시스템은 도로/차선 형상 이력 정보와 정밀맵을 매칭한 결과를 활용하여 차량의 정밀맵에서의 위치를 결정한다. 제1 실시예에 따른 차량 위치 결정 시스템은, GNSS의 고장 또는 터널과 같은 음영지역 주행 시 도로/차선 형상 이력 정보를 이용하여 차량의 현재 위치를 결정할 수 있다.The vehicle position determination system according to the first embodiment determines the position of the vehicle on the precision map by utilizing the result of matching the road/lane shape history information with the precision map. The vehicle position determination system according to the first embodiment can determine the current position of the vehicle by utilizing the road/lane shape history information when driving in a shaded area such as a GNSS failure or a tunnel.
도로/차선 인식부(110)는 도로/차선 인식 카메라를 통해 도로/차선 정보를 인식한다. 상기 도로/차선 인식 카메라에는 전방카메라와 후방카메라 중 적어도 어느 하나가 포함되며, 상기 도로/차선 정보에는 도로/차선의 폭과 곡률 및 차선의 개수와 종류 중 적어도 어느 하나가 포함된다. 또한, 상기 도로/차선 정보에는 도로 구조물(교차로, 지하차도, 분기점, 신호)의 위치 정보가 포함될 수 있다.The road/lane recognition unit (110) recognizes road/lane information through a road/lane recognition camera. The road/lane recognition camera includes at least one of a front camera and a rear camera, and the road/lane information includes at least one of the width and curvature of the road/lane and the number and types of lanes. In addition, the road/lane information may include location information of road structures (intersections, underpasses, junctions, signals).
관성 센서부(120)는 차량의 관성 센싱 정보를 획득한다. 상기 관성 센싱 정보에는 차량의 속도, 가속도, 요각/요각속도, 피치각/피치각속도, 롤각/롤각속도 및 중력가속도/중력 중 적어도 어느 하나가 포함된다.The inertial sensor unit (120) obtains inertial sensing information of the vehicle. The inertial sensing information includes at least one of the vehicle's speed, acceleration, yaw angle/yaw velocity, pitch angle/pitch angular velocity, roll angle/roll angular velocity, and gravitational acceleration/gravity.
도로/차선 이력 정보 생성부(130)는 도로/차선 정보와 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하고, 이를 내부저장소에 저장한다. 도로/차선 형상 이력 정보에는 차량이 현재 위치한 도로/차선의 형상 정보뿐만 아니라, 과거의 도로/차선의 형상 정보가 포함된다. 즉, 도로/차선 형상 이력 정보에는 소정 시간 이전부터 현재까지 차량이 주행한 도로/차선의 곡률과 도로의 구배 정보가 포함된다. 또한, 도로/차선 형상 이력 정보에는 도로/차선의 곡률뿐만 아니라, 도로의 구배(오르막/내리막)에 관한 3차원 정보가 포함된다. 예를 들어, 도로/차선 이력 정보 생성부(130)는 관성 센싱 정보 중 중력 정보 또는 중력가속도 정보를 이용하여 차량의 Z축 상의 가속도 정보를 도출할 수 있으며, 차량의 Z축 상의 가속도 정보를 이용하여 도로의 구배에 관한 이력 정보를 산출할 수 있다.The road/lane history information generation unit (130) generates road/lane shape history information by fusing road/lane information and inertial sensing information, and stores it in the internal storage. The road/lane shape history information includes not only the shape information of the road/lane on which the vehicle is currently located, but also the shape information of the road/lane in the past. That is, the road/lane shape history information includes the curvature and road gradient information of the road/lane on which the vehicle has driven from a predetermined time ago to the present. In addition, the road/lane shape history information includes not only the curvature of the road/lane, but also three-dimensional information about the gradient (uphill/downhill) of the road. For example, the road/lane history information generation unit (130) can derive acceleration information on the Z-axis of the vehicle by using gravity information or gravitational acceleration information among the inertial sensing information, and can calculate history information about the gradient of the road by using the acceleration information on the Z-axis of the vehicle.
한편, 도로/차선 이력 정보 생성부(130)는 전방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보와 후방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보를 모두 생성할 수 있다.Meanwhile, the road/lane history information generation unit (130) can generate both the road/lane shape history information recognized through the image captured by the front camera and the road/lane shape history information recognized through the image captured by the rear camera.
도로/차선 이력 정보 생성부(130)의 내부 저장소 공간은 한정되어 있으므로, 본 발명의 목적(위치 결정의 신뢰성 향상)을 고려한 도로/차선 이력 정보의 관리 정책이 필요하다.Since the internal storage space of the road/lane history information generation unit (130) is limited, a management policy for road/lane history information that takes into account the purpose of the present invention (improving the reliability of position determination) is required.
도로/차선 이력 정보 생성부(130)가 도로/차선 형상 이력 정보를 유지하는 시간 구간(예를 들어, 10초)은 설정에 따라 달라질 수 있다. 또한, 상기 시간 구간은 도로의 구배나 곡률에 따라 달라질 수 있다. 예컨대, 직선 도로에서는 시간 구간을 20초로 정하였다면, 곡선 도로(도로의 특정 곡률을 기준값으로 할 수 있음)에서는 시간 구간을 5초로 정할 수 있다. 즉, 직선 도로에서는 20초 전부터 현재까지의 도로/차선 형상 정보를 기초로 도로/차선 형상 이력 정보를 생성한다면, 곡선 도로에서는 5초 전부터 현재까지의 도로/차선 형상 정보를 기초로 도로/차선 형상 이력 정보를 생성할 수 있다.The time interval (for example, 10 seconds) during which the road/lane history information generation unit (130) maintains the road/lane shape history information may vary depending on the setting. In addition, the time interval may vary depending on the slope or curvature of the road. For example, if the time interval is set to 20 seconds on a straight road, the time interval may be set to 5 seconds on a curved road (wherein a specific curvature of the road may be used as a reference value). That is, if the road/lane shape history information is generated based on the road/lane shape information from 20 seconds ago to the present on a straight road, the road/lane shape history information may be generated based on the road/lane shape information from 5 seconds ago to the present on a curved road.
또한, 도로/차선 이력 정보 생성부(130)는 일정한 주기로 저장하여 데이터 크기를 관리할 수도 있으나, 도로의 구배나 곡률에 따라 도로/차선 형상 정보의 수집 주기(sampling time)를 달리할 수 있다. 도로의 구배의 절대값이나 변화율 또는 도로의 곡률의 절대값이나 변화율의 크기가 소정 기준 대비 큰 경우, 수집 주기를 짧게 할 수 있다. 예를 들어, 도로의 순간 곡률 분석 결과 차량의 헤딩각이 40도 이상 변할 경우, 수집 주기를 직선 도로의 1초보다 짧은 0.5초로 변경할 수 있다. 정밀맵과 비교할 수 있는 정보를 세밀하게 수집하여 위치 결정부(140)에서 결정한 위치 정보에 대한 신뢰도를 높이기 위함이다. In addition, the road/lane history information generation unit (130) can manage the data size by saving at regular intervals, but can vary the collection cycle (sampling time) of the road/lane shape information depending on the slope or curvature of the road. If the absolute value or rate of change of the road slope or the absolute value or rate of change of the road curvature is greater than a predetermined standard, the collection cycle can be shortened. For example, if the vehicle's heading angle changes by 40 degrees or more as a result of the instantaneous curvature analysis of the road, the collection cycle can be changed to 0.5 seconds, which is shorter than 1 second for a straight road. This is to collect detailed information that can be compared with a precision map and increase the reliability of the location information determined by the location determination unit (140).
덧붙여, 도로/차선 이력 정보 생성부(130)는 변화가 감지되는 구간 정보를 이용하여 도로/차선 형상 이력 정보를 저장하고 관리할 수도 있다. 예를 들어, 도로/차선 이력 정보 생성부(130)는 1km 직선 구간에 관한 도로/차선 형상 정보를 저장하는데 있어서, 이 구간 주행 정보를 모두 저장하는 것이 아니라, 이 구간이 직선이라는 정보만 저장하고 시작 지점과 끝 지점을 저장하는 형태로 도로/차선 형상 이력 정보를 저장하고 관리할 수 있다.In addition, the road/lane history information generation unit (130) may store and manage road/lane shape history information using section information where changes are detected. For example, when the road/lane history information generation unit (130) stores road/lane shape information for a 1 km straight section, instead of storing all driving information for the section, it may store and manage road/lane shape history information by only storing information that the section is a straight line and storing the start point and the end point.
한편, 도로/차선 이력 정보 생성부(130)는 차량이 직선 구간에 진입(예를 들어, 차량이 20m 주행하는 동안 헤딩각의 최대값과 최소값의 차이가 5도 이내)하는 경우, 현 위치 확인 후 이전의 곡선 구간의 도로/차선 형상 이력 정보를 삭제하는 관리 정책을 취할 수 있다. 현 위치를 확인한 이상, 과거 곡선 구간의 도로/차선 형상 이력 정보를 저장하는 것은 활용도가 낮기 때문이다.Meanwhile, the road/lane history information generation unit (130) can take a management policy of deleting the road/lane shape history information of the previous curved section after confirming the current position when the vehicle enters a straight section (for example, when the difference between the maximum and minimum values of the heading angle is within 5 degrees while the vehicle is driving 20 m). This is because, once the current position is confirmed, storing the road/lane shape history information of the past curved section has low utility.
위치 결정부(140)는 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 차량의 정밀맵에서의 위치를 결정한다. 위치 결정부(140)는 도로의 만곡/직선(곡률), 구배 중 적어도 어느 하나의 특징을 기준으로 정밀맵의 소정 구간과 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 정밀맵에서의 위치를 결정한다. 위치 결정부(140)는 전방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보와 후방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보를 함께 이용하여 차량의 정밀맵에서의 위치를 결정할 수 있다.The position determination unit (140) determines the position of the vehicle on the precision map by using the result of matching the road/lane shape history information and the precision map information. The position determination unit (140) compares a predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the road curve/straight line (curvature) and gradient, and determines the position of the vehicle on the precision map. The position determination unit (140) can determine the position of the vehicle on the precision map by using the road/lane shape history information recognized through the image captured by the front camera and the road/lane shape history information recognized through the image captured by the rear camera together.
도 2는 본 발명의 제1 실시예에 따른 차량 위치 결정 방법을 나타낸 흐름도이다. 본 발명의 제1 실시예에 따른 차량 위치 결정 방법은 S210 단계 내지 S2240 단계를 포함한다.Fig. 2 is a flowchart illustrating a vehicle position determination method according to the first embodiment of the present invention. The vehicle position determination method according to the first embodiment of the present invention includes steps S210 to S2240.
S210 단계는 차선을 인식하는 단계이다. 도로/차선 인식 카메라를 통해 도로/차선 정보를 인식한다. 상기 도로/차선 인식 카메라에는 전방카메라와 후방카메라 중 적어도 어느 하나가 포함되며, 상기 도로/차선 정보에는 도로/차선의 폭과 곡률 및 차선의 개수와 종류 중 적어도 어느 하나가 포함된다. 또한, 상기 도로/차선 정보에는 도로 구조물(교차로, 지하차도, 분기점, 신호)의 위치 정보가 포함될 수 있다.Step S210 is a step for recognizing lanes. Road/lane information is recognized through a road/lane recognition camera. The road/lane recognition camera includes at least one of a front camera and a rear camera, and the road/lane information includes at least one of the width and curvature of the road/lane and the number and types of lanes. In addition, the road/lane information may include location information of road structures (intersections, underpasses, junctions, signals).
S220 단계는 차량의 관성 센싱 정보를 획득하는 단계이다. 상기 관성 센싱 정보에는 차량의 속도, 가속도, 요각/요각속도, 피치각/피치각속도, 롤각/롤각속도 및 중력가속도/중력 중 적어도 어느 하나가 포함된다.Step S220 is a step of acquiring inertial sensing information of the vehicle. The inertial sensing information includes at least one of the vehicle's speed, acceleration, yaw angle/yaw velocity, pitch angle/pitch angular velocity, roll angle/roll angular velocity, and gravitational acceleration/gravity.
S230 단계는 도로/차선 이력 정보를 생성하는 단계이다. 도로/차선 정보와 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하고, 이를 내부저장소에 저장한다. 도로/차선 형상 이력 정보의 내용과 관리 정책에 대해서는 도로/차선 이력 정보 생성부(130)에 관한 설명에 전술하였다.Step S230 is a step for generating road/lane history information. Road/lane information and inertial sensing information are fused to generate road/lane shape history information, which is then stored in the internal storage. The contents and management policy of the road/lane shape history information have been described above in the description of the road/lane history information generation unit (130).
S240 단계는 위치를 결정하는 단계이다. 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 차량의 정밀맵에서의 위치를 결정한다. 도로의 만곡/직선, 구배 등의 특징을 기준으로 정밀맵과 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 정밀맵에서의 위치를 결정한다.Step S240 is the step of determining the location. The location of the vehicle on the precision map is determined using the result of matching the road/lane shape history information and the precision map information. Based on the characteristics of the road, such as curvature/straightness and gradient, the precision map and the road/lane shape history information are compared within the allowable error to determine the location of the vehicle on the precision map.
도 3은 본 발명의 제2 실시예에 따른 차량 위치 결정 시스템의 구성을 나타낸 블록도이다.FIG. 3 is a block diagram showing the configuration of a vehicle position determination system according to the second embodiment of the present invention.
본 발명의 제2 실시예에 따른 차량 위치 결정 시스템은 위치 검출부(310), 위치 인식부(320) 및 위치 보정부(330)를 포함한다. 또한, 본 발명의 제2 실시예에 따른 차량 위치 결정 시스템은 위치정보 출력부(340)를 더 포함할 수 있다.The vehicle position determination system according to the second embodiment of the present invention includes a position detection unit (310), a position recognition unit (320), and a position correction unit (330). In addition, the vehicle position determination system according to the second embodiment of the present invention may further include a position information output unit (340).
위치 검출부(310)는 차량의 글로벌 위치를 검출한다. 위치 검출부(310)는 GNSS 신호를 수신하여 이를 기반으로 차량의 글로벌 위치를 추정한다. 또한, 위치 검출부(310)는 고층 빌딩이나, 터널 등 GNSS 음영지역에서 차량의 관성 센서를 이용한 추측항법(DR)을 통해 임시적으로 차량의 위치를 추정할 수 있다. 즉, 위치 검출부(310)는 GNSS 신호를 수신할 수 없는 경우 관성 센싱 정보로 차량의 거동을 분석하고 이를 바탕으로 차량의 글로벌 위치를 추정한다.The position detection unit (310) detects the global position of the vehicle. The position detection unit (310) receives a GNSS signal and estimates the global position of the vehicle based on this. In addition, the position detection unit (310) can temporarily estimate the position of the vehicle through a dead reckoning (DR) using the inertial sensor of the vehicle in a GNSS shadow area such as a high-rise building or a tunnel. That is, when the position detection unit (310) cannot receive a GNSS signal, it analyzes the behavior of the vehicle using inertial sensing information and estimates the global position of the vehicle based on this.
위치 인식부(320)는 차량의 글로벌 위치에 정밀맵을 매칭(연계)하여 차량의 정밀맵에서의 위치를 인식한다.The location recognition unit (320) matches (links) the precision map to the global location of the vehicle and recognizes the location of the vehicle in the precision map.
위치 보정부(330)는 도로/차선 형상 이력 정보와 정밀맵을 매칭한 결과를 활용하여 차량의 정밀맵에서의 위치를 보정한다. 위치 보정부(330)는 도로/차선 인식 모듈(331), 관성 센서 모듈(332), 도로/차선 이력 정보 생성 모듈(333) 및 보정 모듈(334)을 포함한다. 위치 검출부(310)에서 글로벌 위치를 추정하지 못하여 위치 인식부(320)가 차량의 위치를 인식할 수 없는 경우, 위치 보정부(330)는 도로/차선의 형상 이력 정보와 정밀맵의 매칭을 통해 차량의 위치를 결정할 수 있다. 예를 들어, GNSS 신호의 미수신 또는 통신 오류로 인해 위치 검출부(310)에서 글로벌 위치를 추정하지 못하고, 위치 검출부(310)가 대체수단(예컨대 추측항법(DR))을 사용하지 않아, 위치 인식부(320)가 차량의 위치를 인식할 수 없는 경우, 위치 보정부(330)는 도로/차선의 형상 이력 정보와 정밀맵의 매칭을 통해 차량의 위치를 결정할 수 있다. 또한 위치 보정부(330)는 GNSS 신호를 수신할 수는 없으나 추측항법(DR)을 통해 차량의 글로벌 위치를 추정한 경우, 위치 인식부(320)가 인식한 정밀맵에서의 위치를 보정할 수 있다.The position correction unit (330) corrects the position of the vehicle on the precision map by utilizing the result of matching the road/lane shape history information with the precision map. The position correction unit (330) includes a road/lane recognition module (331), an inertial sensor module (332), a road/lane history information generation module (333), and a correction module (334). When the position detection unit (310) fails to estimate the global position and the position recognition unit (320) cannot recognize the position of the vehicle, the position correction unit (330) can determine the position of the vehicle by matching the road/lane shape history information with the precision map. For example, if the position detection unit (310) cannot estimate the global position due to non-reception of GNSS signals or a communication error, and the position detection unit (310) does not use an alternative means (e.g., dead reckoning (DR)), and the position recognition unit (320) cannot recognize the position of the vehicle, the position correction unit (330) can determine the position of the vehicle by matching the shape history information of the road/lane with the precision map. In addition, if the position correction unit (330) cannot receive a GNSS signal, but estimates the global position of the vehicle through dead reckoning (DR), it can correct the position in the precision map recognized by the position recognition unit (320).
도로/차선 인식 모듈(331)은 도로/차선 인식 카메라를 통해 도로/차선 정보를 인식한다. 상기 도로/차선 인식 카메라에는 전방카메라와 후방카메라 중 적어도 어느 하나가 포함된다. 상기 도로/차선 정보에는 도로/차선의 폭과 곡률 및 차선의 개수와 종류 중 적어도 어느 하나가 포함된다. 상기 도로/차선 정보에는 도로 구조물(교차로, 지하차도, 분기점, 신호)의 위치 정보가 포함될 수 있다.The road/lane recognition module (331) recognizes road/lane information through a road/lane recognition camera. The road/lane recognition camera includes at least one of a front camera and a rear camera. The road/lane information includes at least one of the width and curvature of the road/lane and the number and types of lanes. The road/lane information may include location information of road structures (intersections, underpasses, junctions, signals).
관성 센서 모듈(332)은 차량의 관성 센싱 정보를 획득한다. 상기 관성 센싱 정보에는 차량의 속도, 가속도, 요각/요각속도, 피치각/피치각속도, 롤각/롤각속도 및 중력가속도/중력 중 적어도 어느 하나가 포함된다.The inertial sensor module (332) acquires inertial sensing information of the vehicle. The inertial sensing information includes at least one of the vehicle's speed, acceleration, yaw angle/yaw velocity, pitch angle/pitch angular velocity, roll angle/roll angular velocity, and gravitational acceleration/gravity.
도로/차선 이력 정보 생성 모듈(333)은 도로/차선 정보와 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하고, 이를 내부저장소에 저장한다. The road/lane history information generation module (333) generates road/lane shape history information by fusing road/lane information and inertial sensing information, and stores it in internal storage.
도로/차선 형상 이력 정보에는 차량이 현재 위치한 도로/차선의 형상 정보뿐만 아니라, 과거의 도로/차선의 형상 정보가 포함된다. 즉, 도로/차선 형상 이력 정보에는 소정 시간 이전부터 현재까지 차량이 주행한 도로/차선의 곡률과 도로의 구배 정보가 포함된다. 또한, 도로/차선 형상 이력 정보에는 도로/차선의 곡률뿐만 아니라, 도로의 구배(오르막/내리막)에 관한 3차원 정보가 포함된다. 예를 들어, 도로/차선 이력 정보 생성부(130)는 관성 센싱 정보 중 중력 정보 또는 중력가속도 정보를 이용하여 차량의 Z축 상의 가속도 정보를 도출할 수 있으며, 차량의 Z축 상의 가속도 정보를 이용하여 도로의 구배에 관한 이력 정보를 산출할 수 있다.The road/lane shape history information includes not only the shape information of the road/lane on which the vehicle is currently located, but also the shape information of the road/lane in the past. That is, the road/lane shape history information includes the curvature and road gradient information of the road/lane on which the vehicle has driven from a predetermined time ago to the present. In addition, the road/lane shape history information includes not only the curvature of the road/lane, but also three-dimensional information about the gradient (uphill/downhill) of the road. For example, the road/lane history information generation unit (130) can derive acceleration information on the Z-axis of the vehicle by using gravity information or gravitational acceleration information among the inertial sensing information, and can calculate history information about the gradient of the road by using the acceleration information on the Z-axis of the vehicle.
한편, 도로/차선 이력 정보 생성 모듈(333)은 전방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보와 후방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보를 모두 생성할 수 있다.Meanwhile, the road/lane history information generation module (333) can generate both the road/lane shape history information recognized through the image captured by the front camera and the road/lane shape history information recognized through the image captured by the rear camera.
도로/차선 이력 정보 생성 모듈(333)이 도로/차선 형상 이력 정보를 유지하는 시간 구간(예를 들어, 10초)은 설정에 따라 달라질 수 있다. 또한, 상기 시간 구간은 도로의 구배나 곡률에 따라 달라질 수 있다. 예컨대, 직선 도로에서는 시간 구간을 20초로 정하였다면, 곡선 도로(도로의 특정 곡률을 기준값으로 할 수 있음)에서는 시간 구간을 5초로 정할 수 있다. 즉, 직선 도로에서는 20초 전부터 현재까지의 도로/차선 형상 정보를 기초로 도로/차선 형상 이력 정보를 생성한다면, 곡선 도로에서는 5초 전부터 현재까지의 도로/차선 형상 정보를 기초로 도로/차선 형상 이력 정보를 생성할 수 있다.The time interval (for example, 10 seconds) for which the road/lane history information generation module (333) maintains the road/lane shape history information may vary depending on the setting. In addition, the time interval may vary depending on the slope or curvature of the road. For example, if the time interval is set to 20 seconds on a straight road, the time interval may be set to 5 seconds on a curved road (wherein a specific curvature of the road may be used as a reference value). That is, if the road/lane shape history information is generated based on the road/lane shape information from 20 seconds ago to the present on a straight road, the road/lane shape history information may be generated based on the road/lane shape information from 5 seconds ago to the present on a curved road.
또한, 도로/차선 이력 정보 생성 모듈(333)은 도로의 구배나 곡률에 따라 도로/차선 형상 정보의 수집 주기(sampling time)를 달리할 수 있다. 도로의 구배의 절대값이나 변화율 또는 도로의 곡률의 절대값이나 변화율의 크기가 소정 기준 대비 큰 경우, 수집 주기를 짧게 할 수 있다. 예를 들어, 도로의 순간 곡률 분석 결과 차량의 헤딩각이 40도 이상 변할 경우, 수집 주기를 직선 도로의 1초보다 짧은 0.5초로 변경할 수 있다. 정밀맵과 비교할 수 있는 정보를 세밀하게 수집하여 위치 결정부(140)에서 결정한 위치 정보에 대한 신뢰도를 높이기 위함이다.In addition, the road/lane history information generation module (333) can vary the collection cycle (sampling time) of the road/lane shape information according to the slope or curvature of the road. If the absolute value or rate of change of the road slope or the absolute value or rate of change of the road curvature is greater than a predetermined standard, the collection cycle can be shortened. For example, if the vehicle's heading angle changes by 40 degrees or more as a result of the instantaneous curvature analysis of the road, the collection cycle can be changed to 0.5 seconds, which is shorter than 1 second for a straight road. This is to collect detailed information that can be compared with a precision map and to increase the reliability of the location information determined by the location determination unit (140).
덧붙여, 도로/차선 이력 정보 생성 모듈(333)은 변화가 감지되는 구간 정보를 이용하여 도로/차선 형상 이력 정보를 저장하고 관리할 수도 있다. 예를 들어, 도로/차선 이력 정보 생성 모듈(333)은 1km 직선 구간에 관한 도로/차선 형상 정보를 저장하는데 있어서, 이 구간 주행 정보를 모두 저장하는 것이 아니라, 이 구간이 직선이라는 정보만 저장하고 시작 지점과 끝 지점을 저장하는 형태로 도로/차선 형상 이력 정보를 저장하고 관리할 수 있다.In addition, the road/lane history information generation module (333) can store and manage road/lane shape history information using section information where changes are detected. For example, when the road/lane history information generation module (333) stores road/lane shape information for a 1 km straight section, instead of storing all driving information for the section, it can store and manage road/lane shape history information by only storing information that the section is straight and storing the start point and the end point.
한편, 도로/차선 이력 정보 생성 모듈(333)은 차량이 직선 구간에 진입(예를 들어, 차량이 20m 주행하는 동안 헤딩각의 최대값과 최소값의 차이가 5도 이내)하는 경우, 현 위치 확인 후 이전의 곡선 구간의 도로/차선 형상 이력 정보를 삭제하는 관리 정책을 취할 수 있다. 현 위치를 확인한 이상, 과거 곡선 구간의 도로/차선 형상 이력 정보를 저장하는 것은 활용도가 낮기 때문이다.Meanwhile, the road/lane history information generation module (333) can take a management policy of deleting the road/lane shape history information of the previous curved section after confirming the current position when the vehicle enters a straight section (for example, when the difference between the maximum and minimum values of the heading angle is within 5 degrees while the vehicle is driving 20 m). This is because, once the current position is confirmed, storing the road/lane shape history information of the past curved section has low utility.
보정 모듈(334)은 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 차량의 정밀맵에서의 위치를 보정한다. 보정 모듈(334)은 도로의 만곡/직선(곡률), 구배 중 적어도 어느 하나의 특징을 기준으로 정밀맵과 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 정밀맵에서의 위치를 보정한다.The correction module (334) corrects the position of the vehicle on the precision map by using the result of matching the road/lane shape history information and the precision map information. The correction module (334) corrects the position of the vehicle on the precision map by comparing the precision map and the road/lane shape history information within an allowable error based on at least one feature of the road's curve/straight line (curvature) and gradient.
한편, 보정 모듈(334)는 전방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보와 후방카메라가 촬영한 영상을 통해 인식된 도로/차선의 형상 이력 정보를 함께 이용하여 차량의 정밀맵에서의 위치를 보정할 수 있다.Meanwhile, the correction module (334) can correct the vehicle's position on the precision map by using the shape history information of the road/lane recognized through the image captured by the front camera and the shape history information of the road/lane recognized through the image captured by the rear camera.
위치정보 출력부(340)는 차량의 위치 정보를 사용자에 제공한다. 예를 들어, 상기 제공 방법은 시각/청각 등의 방법이 사용될 수 있다. 상기 차량의 위치 정보는 차량의 글로벌 위치, 정밀맵에서의 위치 중 적어도 어느 하나가 포함된다.The location information output unit (340) provides the vehicle's location information to the user. For example, the providing method may use a visual/auditory method, etc. The vehicle's location information includes at least one of the vehicle's global location and location on a precision map.
도 4는 본 발명의 제2 실시예에 따른 차량 위치 결정 방법을 나타낸 흐름도이다.Figure 4 is a flowchart illustrating a vehicle position determination method according to a second embodiment of the present invention.
본 발명의 제2 실시예에 따른 차량 위치 결정 방법은 S410 단계 내지 S430 단계를 포함하며, S440 단계를 더 포함할 수 있다.A vehicle position determination method according to a second embodiment of the present invention includes steps S410 to S430, and may further include step S440.
S410 단계는 차량의 글로벌 위치를 검출하는 단계이다. GNSS 신호를 수신하여 이를 기반으로 차량의 글로벌 위치를 추정한다. 또한, 고층 빌딩이나, 터널 등 GNSS 음영지역에서 차량의 관성 센서를 이용한 추측항법(DR)을 통해 임시적으로 차량의 위치를 추정할 수 있다. 즉, GNSS 신호를 수신할 수 없는 경우 관성 센싱 정보로 차량의 거동을 분석하고 이를 바탕으로 차량의 글로벌 위치를 추정한다.Step S410 is a step for detecting the global position of the vehicle. It receives GNSS signals and estimates the global position of the vehicle based on them. In addition, the vehicle position can be temporarily estimated through dead reckoning (DR) using the vehicle's inertial sensor in GNSS shadow areas such as high-rise buildings or tunnels. In other words, when GNSS signals cannot be received, the vehicle's behavior is analyzed using inertial sensing information and the vehicle's global position is estimated based on this.
S420 단계는 차량의 글로벌 위치에 정밀맵을 매칭(연계)하여 차량의 정밀맵에서의 위치를 인식하는 단계이다.Step S420 is the step of recognizing the vehicle's location on the precision map by matching (linking) the precision map to the vehicle's global location.
S430 단계는 차량의 정밀맵에서의 위치를 보정하는 단계이다. 도로/차선 형상 이력 정보와 정밀맵을 매칭한 결과를 활용하여 차량의 정밀맵에서의 위치를 보정한다.Step S430 is the step for correcting the vehicle's position on the precision map. The vehicle's position on the precision map is corrected by using the result of matching the road/lane shape history information and the precision map.
먼저, 도로/차선 인식 카메라를 통해 도로/차선 정보를 인식한다. 상기 도로/차선 인식 카메라에는 전방카메라와 후방카메라 중 적어도 어느 하나가 포함된다. 상기 도로/차선 정보에는 도로/차선의 폭과 곡률 및 차선의 개수와 종류 중 적어도 어느 하나가 포함된다. 상기 도로/차선 정보에는 도로 구조물(교차로, 지하차도, 분기점, 신호)의 위치 정보가 포함될 수 있다.First, road/lane information is recognized through a road/lane recognition camera. The road/lane recognition camera includes at least one of a front camera and a rear camera. The road/lane information includes at least one of the width and curvature of the road/lane and the number and types of lanes. The road/lane information may include location information of road structures (intersections, underpasses, junctions, signals).
또한, 차량의 관성 센싱 정보를 획득한다. 상기 관성 센싱 정보에는 차량의 속도, 가속도, 요각/요각속도, 피치각/피치각속도, 롤각/롤각속도 및 중력가속도/중력 중 적어도 어느 하나가 포함된다.In addition, inertial sensing information of the vehicle is acquired. The inertial sensing information includes at least one of the vehicle's speed, acceleration, yaw angle/yaw velocity, pitch angle/pitch angular velocity, roll angle/roll angular velocity, and gravitational acceleration/gravity.
그리고, 도로/차선 정보와 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하고, 이를 내부저장소에 저장한다. 도로/차선 형상 이력 정보의 내용과 관리 정책에 대해서는 도로/차선 이력 정보 생성 모듈(333)에 관한 설명에 전술하였다.And, by fusing road/lane information and inertial sensing information, road/lane shape history information is generated and stored in the internal storage. The contents and management policy of the road/lane shape history information are described above in the description of the road/lane history information generation module (333).
이후, 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 차량의 정밀맵에서의 위치를 보정한다. 즉, 도로의 만곡/직선, 구배 등의 특징을 기준으로 정밀맵과 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 정밀맵에서의 위치를 보정한다.Afterwards, the vehicle's position on the precision map is corrected using the result of matching the road/lane shape history information and the precision map information. That is, the vehicle's position on the precision map is corrected by comparing the precision map and the road/lane shape history information within an allowable error based on the road's features such as curves/straights and gradients.
S410 단계에서 글로벌 위치를 추정하지 못하여, S420 단계에서 차량 위치의 인식 작업이 수행되지 않은 경우, S430 단계에서 도로/차선의 형상 이력 정보와 정밀맵의 매칭을 통해 차량의 위치를 결정할 수 있다. 예를 들어, S410 단계에서 GNSS 신호의 미수신 또는 통신 오류로 인해 글로벌 위치를 추정하지 못하고, 추측항법(DR) 또한 사용되지 않아, S420 단계에서 차량 위치의 인식 작업이 수행되지 못한 경우, S430 단계에서 도로/차선의 형상 이력 정보와 정밀맵의 매칭을 통해 차량의 위치를 결정할 수 있다. 또한 S410 단계에서 GNSS 신호를 수신할 수는 없으나 추측항법(DR)을 통해 차량의 글로벌 위치를 추정한 경우, S430 단계에서 도로/차선의 형상 이력 정보와 정밀맵의 매칭을 통해 정밀맵에서의 위치 인식 결과를 보정할 수 있다.If the global position cannot be estimated at step S410 and the vehicle position recognition task is not performed at step S420, the vehicle position can be determined by matching the road/lane shape history information with the precision map at step S430. For example, if the global position cannot be estimated at step S410 due to non-reception of a GNSS signal or a communication error and the dead reckoning (DR) is not used, and the vehicle position recognition task is not performed at step S420, the vehicle position can be determined by matching the road/lane shape history information with the precision map at step S430. In addition, if the GNSS signal cannot be received at step S410 but the global position of the vehicle is estimated through dead reckoning (DR), the position recognition result in the precision map can be corrected by matching the road/lane shape history information with the precision map at step S430.
S440 단계는 위치 정보를 출력하는 단계이다. 즉, 본 단계에서 차량의 위치 정보를 사용자에 제공한다. 상기 제공 방법은 시각/청각 등의 방법이 사용될 수 있다. 상기 차량의 위치 정보는 차량의 글로벌 위치, 정밀맵에서의 위치 중 적어도 어느 하나가 포함된다.Step S440 is a step for outputting location information. That is, in this step, the location information of the vehicle is provided to the user. The providing method may use a visual/auditory method, etc. The location information of the vehicle includes at least one of the global location of the vehicle and the location on the precision map.
참고로, 본 발명의 실시예에 따른 구성 요소들은 소프트웨어 또는 DSP(digital signal processor), FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, components according to embodiments of the present invention may be implemented in the form of software or hardware such as a digital signal processor (DSP), a field programmable gate array (FPGA), or an application specific integrated circuit (ASIC), and may perform predetermined roles.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not limited to software or hardware, and each component may be configured to be on an addressable storage medium or configured to execute one or more processors.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, components include components such as software components, object-oriented software components, class components, and task components, as well as processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within those components may be combined into a smaller number of components or further separated into additional components.
이 때, 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터를 이용하거나 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터를 이용하거나 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this time, it will be understood that each block of the flowchart drawings and combinations of the flowchart drawings can be performed by computer program instructions. These computer program instructions can be loaded onto a processor of a general-purpose computer, a special-purpose computer, or other programmable data processing equipment, so that the instructions executed by the processor of the computer or other programmable data processing equipment create a means for performing the functions described in the flowchart block(s). These computer program instructions can also be stored in a computer-readable memory or used to direct a computer or other programmable data processing equipment to perform the functions in a specific manner, so that the instructions used in the computer or stored in the computer-readable memory can also produce an article of manufacture including an instruction means for performing the functions described in the flowchart block(s). Since the computer program instructions may be installed on a computer or other programmable data processing apparatus, a series of operational steps may be performed on the computer or other programmable data processing apparatus to produce a computer-executable process, so that the instructions executing the computer or other programmable data processing apparatus may also provide steps for executing the functions described in the flowchart block(s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that contains one or more executable instructions for performing a particular logical function(s). It should also be noted that in some alternative implementation examples, the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may in fact be performed substantially concurrently, or the blocks may sometimes be performed in reverse order, depending on the functionality they perform.
이 때, 본 실시예에서 사용되는 '~부' 또는 '모듈'이라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부' 또는 '모듈'은 어떤 역할들을 수행한다. 그렇지만 '~부' 또는 '모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부' 또는 '모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부' 또는 '모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 복수 개의 구성요소, '~부' 또는 '모듈' 안에서 제공되는 기능은 더 작은 수의 구성요소들, '~부' 또는 모듈 들로 결합되거나 추가적인 구성요소들과 '~부' 또는 '모듈'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들, '~부' 및 '모듈'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.Here, the term 'part' or 'module' used in the present embodiment means software or hardware components such as FPGAs or ASICs, and the 'part' or 'module' performs certain roles. However, the 'part' or 'module' is not limited to software or hardware. The 'part' or 'module' may be configured to be in an addressable storage medium and may be configured to cause one or more processors to be played. Accordingly, as an example, the 'part' or 'module' includes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within a plurality of components, 'parts' or 'modules' may be combined into a smaller number of components, 'parts' or modules, or further separated into additional components and 'parts' or 'modules'. In addition, the components, 'parts' and 'modules' may be implemented to regenerate one or more CPUs within the device or the secure multimedia card.
전술한 제1 실시예에 따른 차량 위치 결정 방법과 제2 실시예에 따른 차량 위치 결정 방법은 도면에 제시된 흐름도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The vehicle position determination method according to the first embodiment described above and the vehicle position determination method according to the second embodiment have been described with reference to the flowcharts presented in the drawings. For simplicity, the method has been depicted and described as a series of blocks; however, the present invention is not limited to the order of the blocks, and some blocks may occur in a different order or simultaneously with other blocks than depicted and described herein, and various other branches, flow paths, and orders of blocks that achieve the same or similar results may be implemented. Furthermore, not all of the depicted blocks may be required to implement the method described herein.
이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진 자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호범위는 상기 상세한 설명보다는 후술한 특허청구범위에 의하여 정해지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태는 본 발명의 기술적 범위에 포함되는 것으로 해석되어야 한다.Hereinafter, the configuration of the present invention has been described in detail with reference to the attached drawings, but this is only an example, and it is obvious that those with ordinary knowledge in the technical field to which the present invention pertains can make various modifications and changes within the scope of the technical idea of the present invention. Therefore, the protection scope of the present invention is determined by the claims described below rather than the detailed description above, and all changes or modified forms derived from the scope of the claims and their equivalent concepts should be interpreted as being included in the technical scope of the present invention.
100: 차량 위치 결정 시스템
110: 도로/차선 인식부
120: 관성 센서부
130: 도로/차선 이력 정보 생성부
140: 위치 결정부
300: 차량 위치 결정 시스템
310: 위치 검출부
320: 위치 인식부
330: 위치 보정부
331: 도로/차선 인식 모듈 332: 관성 센서 모듈
333: 도로/차선 이력 정보 생성 모듈 334: 보정 모듈
340: 위치정보 출력부100: Vehicle Positioning System
110: Road/Lane Recognition Unit
120: Inertial sensor section
130: Road/lane history information generation unit
140: Positioning Unit
300: Vehicle Positioning System
310: Position detection unit
320: Location recognition unit
330: Position correction part
331: Road/Lane Recognition Module 332: Inertial Sensor Module
333: Road/lane history information generation module 334: Correction module
340: Location information output section
Claims (16)
상기 도로/차선 정보와 상기 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하는 도로/차선 이력 정보 생성부; 및
상기 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 상기 차량의 정밀맵에서의 위치를 결정하는 위치 결정부;를 포함하며,
상기 도로/차선 정보는 도로의 폭, 도로의 곡률, 차선의 폭, 차선의 곡률, 차선의 개수 및 차선의 종류 중 적어도 어느 하나를 포함하며,
상기 관성 센싱 정보는 상기 차량의 속도, 가속도, 요각, 요각속도, 피치각, 피치각속도, 롤각, 롤각속도, 중력가속도 및 중력 중 적어도 어느 하나를 포함하며,
상기 도로/차선 형상 이력 정보는, 소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보가 포함된 것
인 차량 위치 결정 시스템.A sensor unit that collects road/lane information on which a vehicle is driving and inertial sensing information of the vehicle;
A road/lane history information generation unit that generates road/lane shape history information by fusing the above road/lane information and the above inertial sensing information; and
It includes a position determination unit that determines the position of the vehicle on the precision map by using the result of matching the road/lane shape history information and the precision map information;
The above road/lane information includes at least one of road width, road curvature, lane width, lane curvature, number of lanes, and lane type.
The above inertial sensing information includes at least one of the vehicle's speed, acceleration, yaw angle, yaw velocity, pitch angle, pitch angular velocity, roll angle, roll angular velocity, gravitational acceleration and gravity,
The above road/lane shape history information includes information on the curvature and slope of the road on which the vehicle has driven from a certain time ago to the present.
A vehicle positioning system.
도로/차선 인식 카메라를 통해 상기 도로/차선 정보를 인식하는 도로/차선 인식부; 및
상기 차량의 관성 센싱 정보를 획득하는 관성 센서부;를 포함하는 것
인 차량 위치 결정 시스템.In the first paragraph, the sensor part,
A road/lane recognition unit that recognizes the road/lane information through a road/lane recognition camera; and
Including an inertial sensor unit for obtaining inertial sensing information of the above vehicle;
A vehicle positioning system.
상기 도로/차선 형상 이력 정보를 내부 저장소에 저장하며, 도로의 구배 및 곡률 중 적어도 어느 하나를 기준으로 상기 도로/차선 형상 이력 정보의 수집 주기를 달리하는 것
인 차량 위치 결정 시스템.In the first paragraph, the road/lane history information generation unit,
The above road/lane shape history information is stored in an internal storage, and the collection cycle of the road/lane shape history information is varied based on at least one of the slope and curvature of the road.
A vehicle positioning system.
도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 상기 차량의 상기 정밀맵에서의 위치를 결정하는 것
인 차량 위치 결정 시스템.In the first paragraph, the position determining unit,
Determining the position of the vehicle in the precision map by comparing a predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
A vehicle positioning system.
상기 글로벌 위치에 정밀맵을 매칭하여 상기 정밀맵에서의 차량의 위치를 인식하는 위치 인식부; 및
소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보가 포함된 도로/차선 형상 이력 정보를 생성하고, 상기 도로/차선 형상 이력 정보와 상기 정밀맵을 매칭한 결과를 활용하여 상기 정밀맵에서의 차량의 위치를 보정하는 위치 보정부;
를 포함하는 차량 위치 결정 시스템.A position detection unit that detects the global position of the vehicle based on GNSS signals;
A location recognition unit that recognizes the location of a vehicle in the precision map by matching the precision map to the global location; and
A position correction unit that generates road/lane shape history information including curvature and slope information of a road on which the vehicle has driven from a predetermined time ago to the present, and corrects the position of the vehicle in the precision map by utilizing the result of matching the road/lane shape history information and the precision map;
A vehicle positioning system comprising:
상기 도로/차선 형상 이력 정보를 내부 저장소에 저장하며, 도로의 구배 및 곡률 중 적어도 어느 하나를 기준으로 상기 도로/차선 형상 이력 정보의 수집 주기를 달리하는 것
인 차량 위치 결정 시스템.In the sixth paragraph, the position correction unit,
The above road/lane shape history information is stored in an internal storage, and the collection cycle of the road/lane shape history information is varied based on at least one of the slope and curvature of the road.
A vehicle positioning system.
도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 상기 정밀맵에서의 위치를 결정하는 것
인 차량 위치 결정 시스템.In the sixth paragraph, the position correction unit,
Determining the position of the vehicle in the precision map by comparing the predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
A vehicle positioning system.
상기 위치 검출부가 GNSS 신호를 수신하지 못한 경우, 상기 도로/차선의 형상 이력 정보와 상기 정밀맵의 매칭을 통해 차량의 위치를 결정하는 것
인 차량 위치 결정 시스템.In the sixth paragraph, the position correction unit,
If the above location detection unit fails to receive a GNSS signal, the vehicle's location is determined by matching the road/lane shape history information with the above precision map.
A vehicle positioning system.
상기 차량의 관성 센싱 정보를 획득하는 단계;
상기 도로/차선 정보와 상기 관성 센싱 정보를 융합하여 도로/차선 형상 이력 정보를 생성하는 도로/차선 이력 정보 생성 단계; 및
상기 도로/차선 형상 이력 정보와 정밀맵 정보를 매칭한 결과를 이용하여 상기 정밀맵에서의 차량의 위치를 결정하는 단계;를 포함하며,
상기 도로/차선 정보는 도로의 폭, 도로의 곡률, 차선의 폭, 차선의 곡률, 차선의 개수 및 차선의 종류 중 적어도 어느 하나를 포함하며,
상기 관성 센싱 정보는 상기 차량의 속도, 가속도, 요각, 요각속도, 피치각, 피치각속도, 롤각, 롤각속도, 중력가속도 및 중력 중 적어도 어느 하나를 포함하고,
상기 도로/차선 이력 정보 생성 단계는,
소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보를 포함시켜 상기 도로/차선 형상 이력 정보를 생성하는 것을 포함하는 것
인 차량 위치 결정 방법.A step of recognizing road/lane information on which a vehicle is driving through a sensor;
A step of acquiring inertial sensing information of the above vehicle;
A road/lane history information generation step for generating road/lane shape history information by fusing the above road/lane information and the above inertial sensing information; and
A step of determining the location of a vehicle in the precision map by using the result of matching the road/lane shape history information and the precision map information;
The above road/lane information includes at least one of road width, road curvature, lane width, lane curvature, number of lanes, and lane type.
The above inertial sensing information includes at least one of the vehicle's speed, acceleration, yaw angle, yaw velocity, pitch angle, pitch angular velocity, roll angle, roll angular velocity, gravitational acceleration and gravity,
The above road/lane history information generation step is:
Including generating the road/lane shape history information by including the curvature and slope information of the road on which the vehicle has driven from a predetermined time ago to the present.
A method for determining the position of a vehicle.
도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 상기 정밀맵에서의 위치를 결정하는 것
인 차량 위치 결정 방법.In the 11th paragraph, the step of determining the position of the vehicle is:
Determining the position of the vehicle in the precision map by comparing the predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
A method for determining the position of a vehicle.
상기 글로벌 위치에 정밀맵을 매칭하여 상기 정밀맵에서의 차량의 위치를 인식하는 위치 인식 단계; 및
소정 시간 이전부터 현재까지 상기 차량이 주행한 도로의 곡률과 구배 정보가 포함된 도로/차선 형상 이력 정보를 생성하고, 상기 도로/차선 형상 이력 정보와 상기 정밀맵을 매칭한 결과를 활용하여 상기 정밀맵에서의 차량의 위치를 보정하는 위치 보정 단계;
를 포함하는 차량 위치 결정 방법.A position detection step for detecting the global position of a vehicle based on GNSS signals;
A location recognition step for recognizing the location of a vehicle in the precision map by matching the precision map to the global location; and
A position correction step for generating road/lane shape history information including curvature and slope information of a road on which the vehicle has driven from a predetermined time ago to the present, and correcting the position of the vehicle in the precision map by utilizing the result of matching the road/lane shape history information and the precision map;
A method for determining a vehicle position, comprising:
도로의 곡률 및 구배 중 적어도 어느 하나의 특징을 기준으로 상기 정밀맵의 소정 구간과 상기 도로/차선 형상 이력 정보를 허용 오차 이내에서 비교하여 차량의 상기 정밀맵에서의 위치를 결정하는 것
인 차량 위치 결정 방법.In the 14th paragraph, the position correction step,
Determining the position of the vehicle in the precision map by comparing the predetermined section of the precision map with the road/lane shape history information within an allowable error based on at least one feature of the curvature and gradient of the road.
A method for determining the position of a vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210136044A KR102705940B1 (en) | 2021-10-13 | 2021-10-13 | System and method for determining location of a vehicle using historical information of roads and lanes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210136044A KR102705940B1 (en) | 2021-10-13 | 2021-10-13 | System and method for determining location of a vehicle using historical information of roads and lanes |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230053054A KR20230053054A (en) | 2023-04-21 |
KR102705940B1 true KR102705940B1 (en) | 2024-09-13 |
Family
ID=86098432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210136044A KR102705940B1 (en) | 2021-10-13 | 2021-10-13 | System and method for determining location of a vehicle using historical information of roads and lanes |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102705940B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019537414A (en) * | 2016-11-09 | 2019-12-19 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Method and apparatus for recovering vehicle braking energy |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180076913A (en) * | 2016-12-28 | 2018-07-06 | 엘지전자 주식회사 | Driver assistance apparatus |
KR102483649B1 (en) * | 2018-10-16 | 2023-01-02 | 삼성전자주식회사 | Vehicle localization method and vehicle localization apparatus |
-
2021
- 2021-10-13 KR KR1020210136044A patent/KR102705940B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019537414A (en) * | 2016-11-09 | 2019-12-19 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Method and apparatus for recovering vehicle braking energy |
Also Published As
Publication number | Publication date |
---|---|
KR20230053054A (en) | 2023-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102483649B1 (en) | Vehicle localization method and vehicle localization apparatus | |
JP5747787B2 (en) | Lane recognition device | |
US10074281B2 (en) | Method and apparatus for determining lane identification in a roadway | |
US11740093B2 (en) | Lane marking localization and fusion | |
US7349802B2 (en) | Apparatus and method for detecting vehicle location in navigation system | |
US9208389B2 (en) | Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor | |
CN102529975B (en) | Systems and methods for precise sub-lane vehicle positioning | |
KR101558786B1 (en) | Apparatus and method for recognizing driving lane of vehicle | |
KR101209062B1 (en) | Gps correction system using image recognition information and its method | |
KR101704405B1 (en) | System and method for lane recognition | |
KR20180106417A (en) | System and Method for recognizing location of vehicle | |
CN112074885A (en) | Lane marking location | |
KR20200044420A (en) | Method and device to estimate position | |
KR102371984B1 (en) | Method for detecting the changing point of road | |
KR20220033477A (en) | Appratus and method for estimating the position of an automated valet parking system | |
KR102331312B1 (en) | 3D vehicular navigation system using vehicular internal sensor, camera, and GNSS terminal | |
CN112797998A (en) | Vehicle lane level positioning method, corresponding program carrier, product, device and vehicle | |
KR102660497B1 (en) | System for positioning location information of car | |
US11928871B2 (en) | Vehicle position estimation device and traveling position estimation method | |
KR101553898B1 (en) | System and method for estimating position of autonomous vehicle using position information of geographic feature | |
CN113405555B (en) | Automatic driving positioning sensing method, system and device | |
CN110018503B (en) | Vehicle positioning method and positioning system | |
JP4591777B2 (en) | Self-recognition system | |
KR20210029323A (en) | Apparatus and method for improving cognitive performance of sensor fusion using precise map | |
KR101837821B1 (en) | Method for estimating position using multi-structure filter and System thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211013 |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220810 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20211013 Comment text: Patent Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231130 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240828 |
|
PG1601 | Publication of registration |