[go: up one dir, main page]

KR102660497B1 - System for positioning location information of car - Google Patents

System for positioning location information of car Download PDF

Info

Publication number
KR102660497B1
KR102660497B1 KR1020160170358A KR20160170358A KR102660497B1 KR 102660497 B1 KR102660497 B1 KR 102660497B1 KR 1020160170358 A KR1020160170358 A KR 1020160170358A KR 20160170358 A KR20160170358 A KR 20160170358A KR 102660497 B1 KR102660497 B1 KR 102660497B1
Authority
KR
South Korea
Prior art keywords
data
processor
time
location information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020160170358A
Other languages
Korean (ko)
Other versions
KR20180068555A (en
Inventor
이원오
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020160170358A priority Critical patent/KR102660497B1/en
Publication of KR20180068555A publication Critical patent/KR20180068555A/en
Application granted granted Critical
Publication of KR102660497B1 publication Critical patent/KR102660497B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/248Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons generated by satellites, e.g. GPS
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/31Acquisition or tracking of other signals for positioning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/50Internal signals, i.e. from sensors located in the vehicle, e.g. from compasses or angular sensors
    • G05D2111/52Internal signals, i.e. from sensors located in the vehicle, e.g. from compasses or angular sensors generated by inertial navigation means, e.g. gyroscopes or accelerometers

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)

Abstract

본 발명에 따른 차량의 위치 정보 측위 시스템은 차량에 장착된 하나 이상의 센서를 포함하는 센서부, 상기 센서부의 센싱 데이터를 기반으로 데드 레코닝을 수행하여 데드 레코닝 데이터를 생성하고, GNSS 데이터를 획득하며, 상기 센서부에 포함된GPS의 pps 신호를 이용하여 실시간 타이머를 생성하는 제 1 프로세서 및 상기 데드 레코닝 데이터, GNSS 데이터 및 실시간 타이머를 획득한 뒤 로컬 타임 태그를 부착하여 타임 동기화를 수행하고, 상기 타임 동기화가 수행된 결과에 기초하여 상기 차량의 현재 위치가 추정된 융합 측위 결과를 생성하여 상기 제 1 프로세서로 전달하는 제 2 프로세서를 포함하되, 상기 제 1 프로세서는 상기 융합 측위 결과에 기초하여 상기 차량의 최종 위치를 출력한다.The vehicle location information positioning system according to the present invention generates dead reckoning data by performing dead reckoning based on a sensor unit including one or more sensors mounted on the vehicle and sensing data from the sensor unit, and obtains GNSS data. A first processor that generates a real-time timer using the pps signal of the GPS included in the sensor unit, and the dead recording data, GNSS data, and real-time timer are acquired, and then a local time tag is attached to perform time synchronization. , A second processor generating a fusion positioning result in which the current location of the vehicle is estimated based on the result of the time synchronization and transmitting it to the first processor, wherein the first processor generates a fusion positioning result based on the fusion positioning result. The final location of the vehicle is then output.

Description

차량의 위치 정보 측위 시스템{SYSTEM FOR POSITIONING LOCATION INFORMATION OF CAR}Vehicle location information positioning system {SYSTEM FOR POSITIONING LOCATION INFORMATION OF CAR}

본 발명은 위치 정보 측위 시스템에 관한 것이다.The present invention relates to a location information determination system.

자율주행 시스템은 GPS와 각종 센서(Radar, LiDAR, 카메라 등)를 이용하여 구축한 도로맵 정보를 바탕으로, 주행 중 획득되는 GPS 및 차량 데이터, 센서 신호 데이터와의 비교를 통해 자차의 위치를 결정한다.The autonomous driving system determines the location of the vehicle based on road map information constructed using GPS and various sensors (Radar, LiDAR, cameras, etc.), and compares it with GPS, vehicle data, and sensor signal data acquired during driving. do.

자율주행에서는 안정적으로 자차의 위치를 파악하는 것이 가장 중요한 기술적 특징 중 하나이며, 이를 위해 GPS의 위치 정확도를 향상시킬 수 있는 DGPS(Differential GPS), RTK-DGPS(Real Time Kinematic-Differential GPS) 등을 사용하기도 한다.In autonomous driving, stably determining the location of the vehicle is one of the most important technical features, and for this purpose, DGPS (Differential GPS) and RTK-DGPS (Real Time Kinematic-Differential GPS), which can improve the location accuracy of GPS, are used. It is also used.

또한, 필연적으로 발생하는 GPS의 위치 오차를 보정하기 위해 미리 구축해 놓은 맵과 센서에서 입력되는 신호를 비교하는 맵 매칭 기술을 사용하여 그 오차를 보정하기도 한다.In addition, in order to correct the inevitable GPS positioning error, the error is corrected using map matching technology that compares the signal input from the sensor with a pre-constructed map.

도 8은 종래 기술에 따른 무인 자율주행 자동차의 항법 시스템(800)의 블록도이다.Figure 8 is a block diagram of a navigation system 800 for an unmanned autonomous vehicle according to the prior art.

종래 기술은 위치정보를 측정하는 위치 측정부(800), 저장된 지도정보에 근거하여 주행경로를 설정하는 가상경로 설정부(820), 차선정보 설정부를 통해 설정된 주행경로를 따라 주행 중인 무인 자율주행 자동차의 실제 차선정보를 획득하는 주행정보 검출부(830), 가상 차선정보 및 실제 차선정보의 맵매칭을 통하여 위치 정보를 보정하는 위치정보 보정부(840), 보정된 위치 정보를 출력하는 위치정보 출력부(850)로 이루어진다.The prior art includes a location measuring unit 800 that measures location information, a virtual route setting unit 820 that sets a driving route based on stored map information, and an unmanned autonomous vehicle driving along a driving path set through a lane information setting unit. A driving information detection unit 830 that acquires actual lane information, a location information correction unit 840 that corrects location information through map matching of virtual lane information and actual lane information, and a location information output unit that outputs corrected location information. It consists of (850).

자율주행 측위 기술은 현재시간에서의 차량의 제어 출력에 직접적인 영향을 주기 때문에, 실시간성 및 안정성이 보장되어야 한다.Since autonomous driving positioning technology directly affects the vehicle's control output at the current time, real-time and stability must be guaranteed.

그러나 종래 기술에 따른 자율주행 측위 기술은 측위를 위해 각종 센서, 고정밀 지도, GPS 등의 방대한 데이터를 처리해야 하므로 실시간성 및 출력 주기의 안정성 등을 보장하기 어렵다는 문제가 있다.However, the autonomous driving positioning technology according to the prior art has a problem in that it is difficult to guarantee real-time and stability of the output cycle because it must process a large amount of data from various sensors, high-precision maps, GPS, etc. for positioning.

본 발명의 실시예는 차량의 각종 센서, 고정밀 지도 및 GPS 등의 방데한 데이터를 실시간으로 처리함과 동시에 안정성을 보장할 수 있는 차량의 위치 정보 측위 시스템을 제공한다.An embodiment of the present invention provides a vehicle location information positioning system that can guarantee stability while processing various data such as various sensors of the vehicle, high-precision maps, and GPS in real time.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenge that this embodiment aims to achieve is not limited to the technical challenges described above, and other technical challenges may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 차량의 위치 정보 측위 시스템은 차량에 장착된 하나 이상의 센서를 포함하는 센서부, 상기 센서부의 센싱 데이터를 기반으로 데드 레코닝(Dead reckoning)을 수행하여 데드 레코닝 데이터를 생성하고, GNSS(Global Navigation Satellite System) 데이터를 획득하며, 상기 센서부에 포함된GPS의 pps(pulse per second) 신호를 이용하여 실시간 타이머(Real Time Timer)를 생성하는 제 1 프로세서 및 상기 데드 레코닝 데이터, GNSS 데이터 및 실시간 타이머를 획득한 뒤 로컬 타임 태그를 부착하여 타임 동기화를 수행하고, 상기 타임 동기화가 수행된 결과에 기초하여 상기 차량의 현재 위치가 추정된 융합 측위 결과를 생성하여 상기 제 1 프로세서로 전달하는 제 2 프로세서를 포함한다. 이때, 상기 제 1 프로세서는 상기 융합 측위 결과에 기초하여 상기 차량의 최종 위치를 출력한다.As a technical means for achieving the above-mentioned technical problem, a vehicle location information positioning system according to an embodiment of the present invention includes a sensor unit including one or more sensors mounted on the vehicle, and a dead signal based on sensing data of the sensor unit. Dead reckoning is performed to generate dead reckoning data, GNSS (Global Navigation Satellite System) data is acquired, and the pps (pulse per second) signal of the GPS included in the sensor unit is used to generate dead reckoning data. After acquiring the dead reckoning data, GNSS data, and real-time timer, and attaching a local time tag, time synchronization is performed, and based on the results of the time synchronization, the vehicle's It includes a second processor that generates a fusion positioning result in which the current location is estimated and transmits it to the first processor. At this time, the first processor outputs the final location of the vehicle based on the fusion positioning result.

상기 제 1 프로세서는 기 설정된 주기마다 동작하고, 상기 제 2 프로세서는 비동기적으로 동작할 수 있다.The first processor may operate at preset intervals, and the second processor may operate asynchronously.

상기 제 1 프로세서는 상기 데드 레코닝 데이터 및 실시간 타이머를 상기 기 설정된 주기마다 상기 제 2 프로세서로 출력하고, 상기 GNSS 데이터를 상기 기 설정된 주기 미만으로 상기 제 2 프로세서로 출력할 수 있다.The first processor may output the dead recording data and the real-time timer to the second processor at each preset period, and output the GNSS data to the second processor at less than the preset period.

상기 제 2 프로세서는 상기 제 1 프로세서로부터 획득한 데드 레코닝 데이터를 독립적으로 누적한 제 2 궤적 데이터에 기초하여 상기 타임 동기화를 수행할 수 있다.The second processor may perform the time synchronization based on second trajectory data that independently accumulates dead recording data obtained from the first processor.

상기 제 1 프로세서는 상기 생성된 데드 레코닝 데이터를 독립적으로 누적한 제 1 궤적 데이터를 이용하여 상기 융합 측위 결과의 시간 지연을 보상할 수 있다.The first processor may compensate for the time delay of the fusion positioning result using first trajectory data independently accumulated from the generated dead recording data.

상기 제 1 궤적 데이터는 기 설정된 일정 시간 동안 누적되어 링 버퍼에 저장될 수 있다.The first trajectory data may be accumulated over a preset period of time and stored in a ring buffer.

상기 제 2 프로세서는 상기 센서부로부터 전처리된 센서 데이터를 수신하고, 상기 전처리된 센서 데이터, 미리 저장된 맵 데이터 및 상기 제 2 궤적 데이터에 기초하여 맵 매칭을 수행하되, 상기 전처리된 센서 데이터, 미리 저장된 맵 데이터 및 상기 제 2 궤적 데이터에는 각각 상기 로컬 타임 태그가 부착될 수 있다.The second processor receives pre-processed sensor data from the sensor unit, performs map matching based on the pre-processed sensor data, pre-stored map data, and the second trajectory data, and includes the pre-processed sensor data and the pre-stored map data. The local time tag may be attached to each of the map data and the second trajectory data.

상기 제 2 프로세서는 보간법에 기초하여 상기 맵 데이터의 좌표계를 상기 전처리된 센서 데이터의 좌표계로 변경되도록 하여 상기 타임 동기화를 수행할 수 있다.The second processor may perform the time synchronization by changing the coordinate system of the map data to the coordinate system of the preprocessed sensor data based on an interpolation method.

상기 제 2 프로세서는 상기 전처리된 센서 데이터의 로컬 타임 태그를 기준으로 상기 맵 데이터를 동기화시킬 수 있다.The second processor may synchronize the map data based on the local time tag of the preprocessed sensor data.

상기 맵 매칭은 상기 전처리된 센서 데이터에 대응되는 각 센서마다 수행되되, 상기 전처리된 센서 데이터에 대응되는 각 센서에는 상기 로컬 타임 태그가 부착되어 동기화됨에 따라 서로 다른 시간 정보를 가지며, 상기 제 2 프로세서는 각 서로 다른 시간 정보 마다 각각 지연 시간을 보상하여 상기 타임 동기화를 수행할 수 있다.The map matching is performed for each sensor corresponding to the pre-processed sensor data, and each sensor corresponding to the pre-processed sensor data has different time information as the local time tag is attached and synchronized, and the second processor The time synchronization can be performed by compensating for the delay time for each different time information.

상기 제 1 프로세서는 상기 융합 측위 결과가 생성되어 전달되는 동안의 지연 시간을 보상하여 상기 타임 동기화를 수행하되, 상기 제 1 프로세서는 상기 실시간 타이머와 상기 제 1 궤적 데이터를 기준으로 상기 타임 동기화를 수행할 수 있다.The first processor performs the time synchronization by compensating for the delay time while the fusion positioning result is generated and delivered, and the first processor performs the time synchronization based on the real-time timer and the first trajectory data. can do.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 자율주행 차량에 있어 실시간성 및 안정성을 보장할 수 있는 위치 정보 측위 결과를 제공할 수 있다.According to any one of the means for solving the problems of the present invention described above, it is possible to provide location information positioning results that can guarantee real-time and stability in autonomous vehicles.

도 1은 본 발명의 일 실시예에서의 자율 주행 시스템을 개략적으로 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 위치 정보 측위 시스템의 블록도이다.
도 3a 및 도 3b는 본 발명의 일 실시예에 따른 제 1 및 제 2 프로세서의 기능 블록도이다.
도 4는 제 1 및 제 2 궤적 데이터를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에서 수행되는 타임 동기화의 각 과정을 설명하기 위한 도면이다.
도 6은 맵 데이터를 타임 동기화하는 일 예시이다.
도 7은 타임 동기화된 결과를 설명하기 위한 도면이다.
도 8은 종래 기술에 따른 무인 자율주행 자동차의 항법 시스템의 블록도이다.
1 is a diagram schematically explaining an autonomous driving system in an embodiment of the present invention.
Figure 2 is a block diagram of a location information determination system according to an embodiment of the present invention.
3A and 3B are functional block diagrams of first and second processors according to an embodiment of the present invention.
Figure 4 is a diagram for explaining first and second trajectory data.
Figure 5 is a diagram for explaining each process of time synchronization performed in an embodiment of the present invention.
Figure 6 is an example of time synchronizing map data.
Figure 7 is a diagram to explain the time synchronized result.
Figure 8 is a block diagram of a navigation system for an unmanned autonomous vehicle according to the prior art.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain element, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary.

본 발명은 차량의 위치 정보 측위 시스템(100)에 관한 것이다.The present invention relates to a vehicle location information determination system 100.

본 발명의 일 실시예에 따르면, 각종 센서, 고정밀 지도 및 GPS 등의 방데한 데이터를 실시간으로 처리함과 동시에 안정성을 보장할 수 있다.According to an embodiment of the present invention, it is possible to process various data such as various sensors, high-precision maps, and GPS in real time and at the same time ensure stability.

도 1은 본 발명의 일 실시예에서의 자율 주행 시스템(1)을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating an autonomous driving system 1 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 자율 주행 시스템(1)은 위치 정보 측위 시스템(100), 주변환경 인지 시스템(10), 주행경로 생성 시스템(20) 및 차량 제어 시스템(30)을 포함한다.The autonomous driving system 1 according to an embodiment of the present invention includes a location information determination system 100, a surrounding environment recognition system 10, a driving path creation system 20, and a vehicle control system 30.

위치 정보 측위 시스템(100)은 다양한 센서 및 미리 구축된 지도를 이용하여 정확한 자차의 측위 정보를 추정할 수 있다. The location information positioning system 100 can estimate accurate positioning information of the own vehicle using various sensors and a pre-built map.

주변환경 인지 시스템(10)은 차량, 보행자, 장애물 등의 주변환경 정보를 감지할 수 있으며, 주행경로 생성 시스템(20)은 측위 정보와 주변환경 정보를 융합하여 주행경로를 생성한다.The surrounding environment recognition system 10 can detect surrounding environment information such as vehicles, pedestrians, and obstacles, and the driving path creation system 20 fuses the positioning information and surrounding environment information to create a driving path.

차량 제어 시스템(30)은 생성된 경로를 기반으로 차량을 제어한다.The vehicle control system 30 controls the vehicle based on the generated path.

본 발명은 이러한 자율 주행 시스템의 각 구성 중 위치 정보 측위 시스템(100)에 관한 것이다.The present invention relates to the location information determination system 100 among the components of such an autonomous driving system.

이러한 본 발명의 일 실시예에 따른 위치 정보 측위 시스템(100)에 적용되는 자율 주행을 위한 측위 기술을 설명하면 다음과 같다.The positioning technology for autonomous driving applied to the location information positioning system 100 according to an embodiment of the present invention will be described as follows.

먼저 위성 측위 기술은 GPS, DGPS, Network-RTK 등 GNSS(Global Navigation Satellite System)를 기반으로 하는 측위 방법으로서, 절대 좌표를 위성을 통해 전달받을 수 있으며 그 오차는 5-~50m로 가변적이다.First, satellite positioning technology is a positioning method based on GNSS (Global Navigation Satellite System) such as GPS, DGPS, and Network-RTK. Absolute coordinates can be received through satellite, and the error is variable at 5-~50m.

이와 같은 위성 측위 기술은 도심 지역 등 멀티 패스 발생 지역에서는 정보를 신뢰할 수 없다는 단점이 있다.This satellite positioning technology has the disadvantage that the information is unreliable in areas where multi-paths occur, such as urban areas.

이러한 단점을 보완하기 위하여, 본 발명의 일 실시예에 따른 위치 정보 측위 시스템(100)은 차량 거동 기반의 추측 항법(Dead Reckoning)에 기초하여 위성 측위 기술에서 획득한 위치 정보를 보정할 수 있다.In order to compensate for these shortcomings, the location information positioning system 100 according to an embodiment of the present invention can correct the location information obtained from satellite positioning technology based on dead reckoning based on vehicle behavior.

즉, 차량 센서 및 차속, 조향각, 휠오도미터, 요 레이트, 가속도 등을 측정하는 관성 측정 장치(IMU, Inertial Measurement Unit)를 활용하여 위성 기술에 의해 측정된 위치 정보를 보정할 수 있다.In other words, the location information measured by satellite technology can be corrected by utilizing vehicle sensors and an inertial measurement unit (IMU) that measures vehicle speed, steering angle, wheel odometer, yaw rate, acceleration, etc.

차량 거동 기반의 추측 항법은 자차의 움직임을 누적함으로써 계산되며, 시간이 지남에 따라 그 오차는 누적되게 된다. 그 오차는 1~10m정도로 위성 측위를 보정할 수 있으나, 오차 누적이 계속하여 발생하게 된다.Dead reckoning based on vehicle behavior is calculated by accumulating the movement of the own vehicle, and the error accumulates over time. Satellite positioning can be corrected to an error of about 1 to 10 m, but error accumulation continues to occur.

이를 위해 본 발명의 일 실시예는 미리 저장된 자율 주행용 정밀 지도를 이용하는 맵 매칭 기법에 기초하여 차량 거동 기반의 추측 항법에 의한 위치 정보를 보정할 수 있다.To this end, an embodiment of the present invention can correct location information by dead-reckoning based on vehicle behavior based on a map matching technique that uses a pre-stored precision map for autonomous driving.

맵 매칭 기법은 자율 주행용 정밀 지도와 자차에 설치된 하나 이상의 센서(예를 들어, 카메라, 스테레오 카메라, AVM 카메라, 라이다 등)를 통해 획득한 데이터의 비교 결과에 기초하여 차량의 위치를 상대적으로 추정한 위치 정보를 획득하는 방법이다. The map matching technique determines the vehicle's location relatively based on the results of comparison between a precision map for autonomous driving and data acquired through one or more sensors installed on the vehicle (e.g., camera, stereo camera, AVM camera, lidar, etc.). This is a method of obtaining estimated location information.

여기에서 정밀 지도란 차선, 노면 정보, 표지판 정보, 신호등 정보 등의 3차원 좌표 등을 현실 세계(Real World)와 최대한 비슷하게 구축해놓은 지도를 의미한다.Here, a precision map refers to a map constructed with three-dimensional coordinates of lanes, road surface information, sign information, and traffic light information as similar to the real world as possible.

이를 통해 자율주행이 가능한 수준의 정확도를 확보할 수 있으나, 센서의 가격이 비싸고 주변 매칭할 정보의 양에 따라 그 오차가 가변적일 수 있다.Through this, it is possible to secure a level of accuracy that enables autonomous driving, but the price of the sensor is expensive and the error can be variable depending on the amount of information to be matched to the surroundings.

이러한 위치 정보 측위 시스템(100)을 구현하기 위하여, 본 발명의 일 실시예는 상기 기술들을 처리 로직이 상대적으로 단순하며 실시간성 및 안정성이 보장되어야 하는 기술(safety core 즉, 제 1 프로세서)과 처리 로직이 복잡하고 다루는 데이터 양이 방대하나 실시간성이 보장되지 않아도 되는 기술(performance core 즉, 제 2 프로세서)을 통해 위치 정보를 측위할 수 있다.In order to implement such a location information positioning system 100, an embodiment of the present invention combines the above technologies with a technology (safety core, i.e. first processor) and processing in which the processing logic is relatively simple and real-time and stability must be guaranteed. Although the logic is complex and the amount of data handled is enormous, location information can be determined through technology (performance core, i.e. second processor) that does not require real-time guarantee.

이하에서는 도 2 내지 도 8를 참조하여 설명하도록 한다.Hereinafter, it will be described with reference to FIGS. 2 to 8.

도 2는 본 발명의 일 실시예에 따른 위치 정보 측위 시스템(100)의 블록도이다. 도 3a 및 도 3b는 본 발명의 일 실시예에 따른 제 1 및 제 2 프로세서(120, 130)의 기능 블록도이다.Figure 2 is a block diagram of a location information determination system 100 according to an embodiment of the present invention. 3A and 3B are functional block diagrams of the first and second processors 120 and 130 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 차량의 위치 정보 측위 시스템(100)은 센서부(110), 제 1 프로세서(120) 및 제 2 프로세서(130)를 포함한다.Referring to FIG. 2, the vehicle location information positioning system 100 according to an embodiment of the present invention includes a sensor unit 110, a first processor 120, and a second processor 130.

센서부(110)는 차량에 장착된 하나 이상의 센서를 포함한다. 이러한 센서부(110)는 요 센서, 방향 센서, 휠 스피드 센서, 변속 감지 센서, GNSS 모듈, AVM, LiDAR, FCAM 등을 포함할 수 있다.The sensor unit 110 includes one or more sensors mounted on the vehicle. This sensor unit 110 may include a yaw sensor, direction sensor, wheel speed sensor, shift detection sensor, GNSS module, AVM, LiDAR, FCAM, etc.

제 1 프로세서(120)는 실시간(Real time) ECU, 마이크로 오토박스(micro autobox) 등 경성 실시간(hard real time) 하드웨어 플랫폼으로써, 실시간성 및 안정성이 검증된 플랫폼에 해당한다.The first processor 120 is a hard real time hardware platform such as a real time ECU and micro autobox, and corresponds to a platform whose real time and stability have been verified.

제 1 프로세서(120)에 구현되는 기술로는 차량거동기반 추측항법(Dead Reckoning) 기술과, 인지/플래닝/제어 모듈(140)에 현재의 자차 위치를 출력할 수 있는 현재위치 추정 기술이 있다.Technologies implemented in the first processor 120 include dead reckoning technology based on vehicle behavior and current location estimation technology that can output the current vehicle location to the recognition/planning/control module 140.

제 2 프로세서(130)는 CPU/GPU 기반의 하드웨어 플랫폼으로써, PC를 포함한 다양한 고성능 자율주행용 플랫폼이다. 제 2 프로세서(130)에 의해 구현되는 기술로는 센서 데이터 처리 기술, 맵 매칭 기술, 위성측위/추측 항법/맵 매칭으로 추정된 위치좌표를 융합(fusion)하는 위치 융합 기술이 있다.The second processor 130 is a CPU/GPU-based hardware platform and is a variety of high-performance autonomous driving platforms, including PCs. Technologies implemented by the second processor 130 include sensor data processing technology, map matching technology, and location fusion technology that fuses location coordinates estimated by satellite positioning/dead reckoning/map matching.

이때, 제 1 프로세서(120)에 구현된 로직은 기 설정된 주기마다 동작하게 되며, 제 2 프로세서(130)에 구현된 로직은 비동기적(First Input First Output(FIFO), Triggered, Sampling)으로 동작하는 것을 특징으로 한다.At this time, the logic implemented in the first processor 120 operates at preset intervals, and the logic implemented in the second processor 130 operates asynchronously (First Input First Output (FIFO), Triggered, Sampling). It is characterized by

이러한 제 1 및 제 2 프로세서(120, 130)에 의해 구현되는 각 기능에 대하여 도 3a 내지도 5를 참조하여 설명하도록 한다.Each function implemented by the first and second processors 120 and 130 will be described with reference to FIGS. 3A to 5.

한편, 제 1 및 제 2 프로세서(120, 130)는 메모리(미도시)에 각각 저장된 프로그램을 실행시킴으로써 구동될 수 있다. 이러한 프로그램이 저장된 메모리는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. Meanwhile, the first and second processors 120 and 130 may be driven by executing programs respectively stored in memory (not shown). The memory in which these programs are stored is a general term for non-volatile storage devices and volatile storage devices that continue to retain stored information even when power is not supplied.

예를 들어, 메모리는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, memory can be found in compact flash (CF) cards, secure digital (SD) cards, memory sticks, solid-state drives (SSD), and micro SD cards. It may include magnetic computer storage devices such as NAND flash memory and hard disk drives (HDD), and optical disc drives such as CD-ROM and DVD-ROM.

도 3a는 제 1 프로세서(120)의 기능 블록도이고, 도 3b는 제 2 프로세서(130)의 기능 블록도이다. 도 4는 제 1 및 제 2 궤적 데이터를 설명하기 위한 도면이다. 도 5는 본 발명의 일 실시예에서 수행되는 타임 동기화의 각 과정을 설명하기 위한 도면이다.FIG. 3A is a functional block diagram of the first processor 120, and FIG. 3B is a functional block diagram of the second processor 130. Figure 4 is a diagram for explaining first and second trajectory data. Figure 5 is a diagram for explaining each process of time synchronization performed in an embodiment of the present invention.

먼저, 도 3a를 참조하면 제 1 프로세서(120)는 차량 센서와 IMU를 포함하는 센서부(110)의 센싱 데이터를 기반으로 데드 레코닝을 수행하여 데드 레코닝 데이터를 생성한다. First, referring to FIG. 3A, the first processor 120 generates dead accounting data by performing dead accounting based on the sensing data of the sensor unit 110 including the vehicle sensor and IMU.

이때, 수행된 데드 레코닝 데이터는 제 1 궤적 관리부에서 일정 시간동안 누적되며, 이는 짧은 시간동안 누적된 값으로서 신뢰할 수 있는 데이터에 해당한다.At this time, the dead recording data performed is accumulated for a certain period of time in the first trajectory management unit, and this is a value accumulated over a short period of time and corresponds to reliable data.

또한, 제 1 프로세서(120)는 GNSS로부터 GNSS 데이터(위경도, 헤딩, 속도, 퀄리티 등)를 획득하고, GPS pps(pulse per second) 신호를 이용하여 시간 관리자에서 실시간 타이머(Real Time Timer)를 생성한다.In addition, the first processor 120 acquires GNSS data (latitude, longitude, heading, speed, quality, etc.) from GNSS and sets a real time timer in the time manager using the GPS pps (pulse per second) signal. Create.

이때, 실시간 타이머는 ms 단위의 신뢰할 수 있는 타이머로서, 자차의 최종 위치를 출력하는데 기준이 되는 시간이다.At this time, the real-time timer is a reliable timer in ms units and is the standard time for outputting the final position of the own vehicle.

한편, 제 1 프로세서(120)는 기 설정된 주기마다 동작(예를 들어 20ms의 주기로 1초 동안 저장한다고 가정하면 50개의 차량 위치 데이터가 저장됨)되며, 이에 따라 제 1 궤적 데이터는 기 설정된 일정 시간동안 누적되어 링 버퍼에 저장될 수 있다.Meanwhile, the first processor 120 operates at a preset period (for example, assuming storage for 1 second at a period of 20ms, 50 vehicle location data are stored), and accordingly, the first trajectory data is stored for a preset certain time. It can be accumulated over time and stored in the ring buffer.

제 1 프로세서(120)는 생성된 데드 레코닝 데이터를 독립적으로 누적한 제 1 궤적 데이터를 이용하여 제 2 프로세서(130)로부터 전달받은 융합 측위 결과의 지연 시간을 보상할 수 있다.The first processor 120 may compensate for the delay time of the fusion positioning result received from the second processor 130 using the first trajectory data independently accumulated from the generated dead reckoning data.

제 1 프로세서(120)는 매 타이밍에 계산된 데드 레코닝 데이터 및 실시간 타이머를 기 설정된 주기(예를 들어, 1초에 50번)마다 제 2 프로세서(130)로 출력할 수 있으며, GNSS 출력은 GPS 출력 주기에 따라 데드 레코닝 데이터의 출력보다는 저주파수인 기 설정된 주기 미만(예를 들어 1초에 2회)으로 출력할 수 있다.The first processor 120 may output dead recording data and a real-time timer calculated at each timing to the second processor 130 at a preset period (for example, 50 times per second), and the GNSS output may be Depending on the GPS output cycle, the dead recording data may be output at a lower frequency than a preset cycle (for example, twice per second).

제 1 프로세서(120)는 이와 같이 획득한 데드 레코닝 데이터, GNSS 데이터 및 실시간 타이머를 제 2 프로세서(130)로 전달한다(P1).The first processor 120 transmits the dead reckoning data, GNSS data, and real-time timer obtained in this way to the second processor 130 (P1).

제 2 프로세서(130)는 도 3b와 같이, 제 1 프로세서(120)로부터 데드 레코닝 데이터, GNSS 데이터 및 실시간 타이머(P1)를 전달받아, 현재 자차의 위치를 추정할 수 있다.As shown in FIG. 3B, the second processor 130 receives dead recording data, GNSS data, and a real-time timer (P1) from the first processor 120 and can estimate the current location of the own vehicle.

이때, 제 2 프로세서(130)는 센서부(110)에 포함된 여러 센서(예를 들어, AVM, LIDAR, FCAM 등)로부터 오는 데이터를 사용하므로, 제 2 프로세서(130)는 비동기적으로 동작되며, 처리시간의 실시간성 역시 보장되지 않는다.At this time, since the second processor 130 uses data from several sensors (e.g., AVM, LIDAR, FCAM, etc.) included in the sensor unit 110, the second processor 130 operates asynchronously. , real-time processing time is also not guaranteed.

이에 따라, 제 2 프로세서(130)에서 생성되는 결과값들은 시간 지연이 발생하게 되는바, 이러한 시간 지연을 보상하기 위하여 제 2 프로세서(130)는 자체적인 로컬 타임 태그를 각 데이터에 부착하여 타임 동기화 과정을 수행한다.Accordingly, the result values generated by the second processor 130 have a time delay. To compensate for this time delay, the second processor 130 attaches its own local time tag to each data to achieve time synchronization. Carry out the process.

이와 같이 타임 태그가 추가된 데이터는 서로 다른 시간 정보를 가지게 되며, 이는 서로 다른 차량의 위치에서 취득된 데이터라는 의미를 가지게 된다. 따라서, 이를 보상하기 위하여 제 2 프로세서(130)는 제 1 프로세서(120)로부터 획득한 데드 레코닝 데이터를 받아, 제 2 궤적 관리부를 통해 자체적으로 누적한 제 2 궤적 데이터에 기초하여 타임 동기화를 수행할 수 있다. Data to which time tags are added in this way have different time information, meaning that they are data acquired from different vehicle locations. Therefore, in order to compensate for this, the second processor 130 receives the dead recording data obtained from the first processor 120 and performs time synchronization based on the second trajectory data accumulated by itself through the second trajectory management unit. can do.

이때, 제 2 궤적 데이터는 제 1 프로세서(120)에 의해 생성된 제 1 궤적 데이터와는 완전히 독립적으로 생성된 것으로서, 짧은 시간동안 획득된 매우 신뢰할 수 있는 값에 해당한다. At this time, the second trajectory data is generated completely independently from the first trajectory data generated by the first processor 120, and corresponds to a very reliable value acquired over a short period of time.

즉, 제 1 프로세서(120)에 의해 생성된 제 1 궤적 데이터는 전술한 바와 같이 짧은 시간 동안은 정확하지만 시간 경과에 따른 에러 누적은 피할 수 없기 때문에 현재의 차량 궤적과는 상이한 값을 가지게 된다. That is, the first trajectory data generated by the first processor 120 is accurate for a short time as described above, but since error accumulation over time is unavoidable, it has a different value from the current vehicle trajectory.

따라서, 제 2 프로세서(130)는 제 2 궤적 관리부를 통해 도 4와 같이 제 1 프로세서(120)로부터 획득한 데드 레코닝 데이터(제 1 궤적 데이터, P3)를 현재 위치에 맞게 회전 또는 이동 변환 등을 통해 수정하여 제 2 궤적 데이터(P4)를 생성할 수 있다.Accordingly, the second processor 130 rotates or moves the dead reckoning data (first trajectory data, P3) acquired from the first processor 120 as shown in FIG. 4 to the current position through the second trajectory management unit. The second trajectory data (P4) can be generated by modifying through .

제 2 프로세서(130)는 이와 같이 생성한 제 2 궤적 데이터를 이용하여 타임 동기화를 수행할 수 있으며, 타임 동기화가 수행된 결과에 기초하여 차량의 현재 위치가 추정된 융합 측위 결과(P2)를 생성하여 제 1 프로세서(120)로 전달하고, 이에 따라 제 1 프로세서(120)는 융합 측위 결과(P2)에 기초하여 현재의 좌표로 치환함에 따라, 차량의 최종 위치를 출력할 수 있다.The second processor 130 may perform time synchronization using the second trajectory data generated in this way, and generate a fusion positioning result (P2) in which the current location of the vehicle is estimated based on the time synchronization result. This is transmitted to the first processor 120, and the first processor 120 can output the final location of the vehicle by replacing it with the current coordinates based on the fusion positioning result (P2).

한편, 제 1 프로세서(120)가 전달받은 융합 측위 결과(P2)는 데이터 처리 시간, 통신 시간 등에 따라 지연이 반영되어 있으므로, 제 1 프로세서(120)는 제 1 궤적 관리부로부터 생성된 제 1 궤적 데이터를 이용하여 이를 보상할 수 있다. Meanwhile, since the fusion positioning result (P2) received by the first processor 120 reflects delay depending on data processing time, communication time, etc., the first processor 120 uses the first trajectory data generated from the first trajectory management unit. You can compensate for this by using .

이를 바탕으로 인지/플래닝/제어 모듈(140)에서는 차량의 현재 위치가 어디인지를 알 수 있으며, 향후의 주행 계획을 세울 수 있다.Based on this, the recognition/planning/control module 140 can determine the current location of the vehicle and make a future driving plan.

이하에서는 도 5를 참조하여 본 발명의 일 실시예에 따른 제 1 및 제 2 프로세서(120, 130)에서 수행되는 타임 동기화에 대해 보다 구체적으로 설명하도록 한다.Hereinafter, time synchronization performed in the first and second processors 120 and 130 according to an embodiment of the present invention will be described in more detail with reference to FIG. 5.

제 2 프로세서(130)는 센서부(110)로부터 전처리된 센서 데이터를 수신하고, 전처리된 센서 데이터와, 미리 저장된 맵 데이터와, 제 2 궤적 데이터에 기초하여 맵 매칭을 수행할 수 있다. The second processor 130 may receive pre-processed sensor data from the sensor unit 110 and perform map matching based on the pre-processed sensor data, pre-stored map data, and second trajectory data.

이때, 전처리된 센서 데이터, 미리 저장된 맵 데이터 및 제 2 궤적 데이터에는 각각 제 2 프로세서(130)에 대응되는 로컬 타임 태그가 부착될 수 있다. At this time, a local time tag corresponding to the second processor 130 may be attached to the pre-processed sensor data, pre-stored map data, and second trajectory data, respectively.

제 2 프로세서(130)는 도 5의 (a)와 같이 보간법에 기초하여 맵 데이터의 좌표계를 전처리된 센서 데이터의 좌표계로 변경되도록 하여 타임 동기화를 수행할 수 있다. The second processor 130 may perform time synchronization by changing the coordinate system of the map data to the coordinate system of the preprocessed sensor data based on an interpolation method, as shown in (a) of FIG. 5.

또한, 제 2 프로세서(130)는 도 6과 같이 센서 데이터의 로컬 타임 태그를 기준으로 맵 데이터를 동기화시킬 수 있으며, 이때 시간의 경과에 따른 차량의 이동량은 제 2 궤적 데이터를 활용한다.Additionally, the second processor 130 can synchronize map data based on the local time tag of sensor data as shown in FIG. 6, and in this case, the amount of movement of the vehicle over time utilizes the second trajectory data.

제 2 프로세서(130)는 맵 매칭을 전처리된 센서 데이터에 대응되는 각 센서마다 수행할 수 있다. 즉, AVM, LIDAR, 전방 카메라 등의 각 센서마다 맵 매칭을 수행할 수 있다.The second processor 130 may perform map matching for each sensor corresponding to the preprocessed sensor data. In other words, map matching can be performed for each sensor such as AVM, LIDAR, and front camera.

이러한 전처리된 센서 데이터에 대응되는 각 센서에는 로컬 타임 태그가 부착되어 동기화됨에 따라 서로 다른 시간 정보를 가질 수 있으며, 맵 매칭이 수행되는 동안 시간이 흘러 이는 모두 과거의 데이터가 되었으므로, 제 2 프로세서(130)는 도 5의 (b)와 같이 각 서로 다른 시간 정보마다 각각 지연 시간을 보상하여 타임 동기화를 수행할 수 있다.Each sensor corresponding to this preprocessed sensor data may have different time information as a local time tag is attached and synchronized. As time passes while map matching is performed, this all becomes past data, so the second processor ( 130) can perform time synchronization by compensating the delay time for each different time information, as shown in (b) of FIG. 5.

제 1 프로세서(130)는 융합 측위 결과가 생성되어 제 2 프로세서(130)에서 제 1 프로세서(120)로 전달되는 동안의 지연 시간을 보상하여 타임 동기화를 수행할 수 있다. 즉, 제 2 프로세서(130)에 의해 생성된 융합 측위 결과는 이를 생성하는 시간 및 제 1 프로세서(120)로 전달하는 통신 시간에 의해서 과거의 데이터가 되므로, 제 1 프로세서(130)는 도 5의 (c)와 같이 이를 보상하는 타임 동기화를 수행한다.The first processor 130 may perform time synchronization by compensating for a delay time while the fusion positioning result is generated and transmitted from the second processor 130 to the first processor 120. That is, since the fusion positioning result generated by the second processor 130 becomes past data depending on the time of generating it and the communication time of transmitting it to the first processor 120, the first processor 130 is the data of FIG. 5. Time synchronization to compensate for this is performed as shown in (c).

이때, 제 1 프로세서(130)는 실시간 타이머와 제 1 궤적 데이터를 기준으로 하여 타임 동기화를 수행할 수 있다.At this time, the first processor 130 may perform time synchronization based on the real-time timer and the first trajectory data.

도 7은 타임 동기화된 결과를 설명하기 위한 도면이다.Figure 7 is a diagram to explain the time synchronized result.

도 7을 참조하면 이전 시점에서의 맵 매칭 결과(A1)에 대하여 제 2 프로세서(130)는 제 2 궤적 데이터를 이용하여 현재 시점에 대응되는 위치(A2)를 추정할 수 있다. 그리고 제 2 프로세서(130)는 위치 분포 범위(A3) 내에서 지연 시간을 보상하여 현재시점에 대응되는 맵 매칭 결과(A4)를 생성한다. Referring to FIG. 7, with respect to the map matching result (A1) at the previous viewpoint, the second processor 130 may estimate the location (A2) corresponding to the current viewpoint using the second trajectory data. Then, the second processor 130 compensates for the delay time within the location distribution range A3 and generates a map matching result A4 corresponding to the current time.

그 다음 제 1 프로세서(120)는 실시간 타이머와 제 1 궤적 데이터를 기준으로 하여 타임 동기화를 수행하여 최종적인 융합 측위 결과(A5)를 생성할 수 있다.Next, the first processor 120 may perform time synchronization based on the real-time timer and the first trajectory data to generate the final fusion positioning result (A5).

한편, 제 2 프로세서(130)는 ICP, Hungarian action, linear fitting algorithm 등의 데이터 정렬 알고리즘을 사용하여 맵 매칭을 수행할 수 있으며, EKF(Extended Kalman Filter), weighted sum 등의 알고리즘을 사용하여 융합 측위 결과를 생성할 수 있다.Meanwhile, the second processor 130 can perform map matching using data sorting algorithms such as ICP, Hungarian action, and linear fitting algorithm, and fusion positioning using algorithms such as EKF (Extended Kalman Filter) and weighted sum. can produce results.

이와 같이 본 발명의 일 실시예에 따른 위치 정보 측위 시스템(100)은 실시간성을 가지는 제 1 프로세서(120)와 연산성이 높은 제 2 프로세서(130) 간의 로직 분리 및 타임 동기화를 통해 실시간으로 현재 위치를 인지/플래닝/제어 모듈(140)로 전달할 수 있다.As such, the location information positioning system 100 according to an embodiment of the present invention provides real-time current information through logic separation and time synchronization between the first processor 120, which has real-time performance, and the second processor 130, which has high computational efficiency. The location can be transmitted to the recognition/planning/control module 140.

참고로, 본 발명의 실시예에 따른 도 3에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, the components shown in FIG. 3 according to an embodiment of the present invention may be implemented in the form of software or hardware such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and perform certain roles. can do.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not limited to software or hardware, and each component may be configured to reside on an addressable storage medium or may be configured to run on one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, and sub-processes. Includes routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within them may be combined into a smaller number of components or further separated into additional components.

이와 같은 본 발명의 일 실시예 중 어느 하나에 의하면, 자율주행 차량에 있어 실시간성 및 안정성을 보장할 수 있는 위치 정보 측위 결과를 제공할 수 있다.According to one of the embodiments of the present invention, it is possible to provide location information positioning results that can guarantee real-time and stability in autonomous vehicles.

한편, 본 발명의 일 실시예는 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. Meanwhile, an embodiment of the present invention may also be implemented in the form of a computer program stored on a medium executed by a computer or a recording medium containing instructions executable by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery medium.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with respect to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 위치 정보 측위 시스템
110: 센서부
120: 제 1 프로세서
130: 제 2 프로세서
100: Location information positioning system
110: sensor unit
120: first processor
130: second processor

Claims (11)

차량의 위치 정보 측위 시스템에 있어서,
차량에 장착된 하나 이상의 센서를 포함하는 센서부,
상기 센서부의 센싱 데이터를 기반으로 데드 레코닝(Dead reckoning)을 수행하여 데드 레코닝 데이터를 생성하고, GNSS(Global Navigation Satellite System) 데이터를 획득하며, 상기 센서부에 포함된GPS의 pps(pulse per second) 신호를 이용하여 실시간 타이머(Real Time Timer)를 생성하는 제 1 프로세서 및
상기 데드 레코닝 데이터, GNSS 데이터 및 실시간 타이머를 획득한 뒤 로컬 타임 태그를 부착하여 타임 동기화를 수행하고, 상기 타임 동기화가 수행된 결과에 기초하여 상기 차량의 현재 위치가 추정된 융합 측위 결과를 생성하여 상기 제 1 프로세서로 전달하는 제 2 프로세서를 포함하되,
상기 제 1 프로세서는 상기 융합 측위 결과에 기초하여 상기 차량의 최종 위치를 출력하고,
상기 제 1 프로세서는 기 설정된 주기마다 동작하고, 상기 제 2 프로세서는 비동기적으로 동작하는 것인 차량의 위치 정보 측위 시스템.
In the vehicle location information positioning system,
A sensor unit including one or more sensors mounted on the vehicle,
Dead reckoning is performed based on the sensing data of the sensor unit to generate dead reckoning data, GNSS (Global Navigation Satellite System) data is acquired, and pps (pulse per second) of the GPS included in the sensor unit is generated. second) a first processor that generates a real time timer using a signal, and
After acquiring the dead reckoning data, GNSS data, and real-time timer, time synchronization is performed by attaching a local time tag, and a fusion positioning result in which the current location of the vehicle is estimated is generated based on the time synchronization result. and a second processor that transmits the information to the first processor,
The first processor outputs the final location of the vehicle based on the fusion positioning result,
The location information positioning system for a vehicle, wherein the first processor operates at preset intervals, and the second processor operates asynchronously.
삭제delete 제 1 항에 있어서,
상기 제 1 프로세서는 상기 데드 레코닝 데이터 및 실시간 타이머를 상기 기 설정된 주기마다 상기 제 2 프로세서로 출력하고, 상기 GNSS 데이터를 상기 기 설정된 주기 미만으로 상기 제 2 프로세서로 출력하는 것인 위치 정보 측위 시스템.
According to claim 1,
The first processor outputs the dead recording data and the real-time timer to the second processor at the preset period, and outputs the GNSS data to the second processor at less than the preset period. .
제 1 항에 있어서,
상기 제 2 프로세서는 상기 제 1 프로세서로부터 획득한 데드 레코닝 데이터를 독립적으로 누적한 제 2 궤적 데이터에 기초하여 상기 타임 동기화를 수행하는 것인 위치 정보 측위 시스템.
According to claim 1,
The location information positioning system wherein the second processor performs the time synchronization based on second trajectory data that independently accumulates dead reckoning data obtained from the first processor.
제 4 항에 있어서,
상기 제 1 프로세서는 상기 생성된 데드 레코닝 데이터를 독립적으로 누적한 제 1 궤적 데이터를 이용하여 상기 융합 측위 결과의 시간 지연을 보상하는 것인 위치 정보 측위 시스템.
According to claim 4,
The location information positioning system wherein the first processor compensates for the time delay of the fusion positioning result using first trajectory data independently accumulated from the generated dead recording data.
제 5 항에 있어서,
상기 제 1 궤적 데이터는 기 설정된 일정 시간 동안 누적되어 링 버퍼에 저장되는 것인 위치 정보 측위 시스템.
According to claim 5,
The location information positioning system wherein the first trajectory data is accumulated over a preset period of time and stored in a ring buffer.
제 5 항에 있어서,
상기 제 2 프로세서는 상기 센서부로부터 전처리된 센서 데이터를 수신하고, 상기 전처리된 센서 데이터, 미리 저장된 맵 데이터 및 상기 제 2 궤적 데이터에 기초하여 맵 매칭을 수행하되,
상기 전처리된 센서 데이터, 미리 저장된 맵 데이터 및 상기 제 2 궤적 데이터에는 각각 상기 로컬 타임 태그가 부착되는 것인 위치 정보 측위 시스템.
According to claim 5,
The second processor receives pre-processed sensor data from the sensor unit and performs map matching based on the pre-processed sensor data, pre-stored map data, and the second trajectory data,
The location information positioning system wherein the local time tag is attached to the pre-processed sensor data, the pre-stored map data, and the second trajectory data, respectively.
제 7 항에 있어서,
상기 제 2 프로세서는 보간법에 기초하여 상기 맵 데이터의 좌표계를 상기 전처리된 센서 데이터의 좌표계로 변경되도록 하여 상기 타임 동기화를 수행하는 것인 위치 정보 측위 시스템.
According to claim 7,
The location information positioning system wherein the second processor performs the time synchronization by changing the coordinate system of the map data to the coordinate system of the preprocessed sensor data based on an interpolation method.
제 7 항에 있어서,
상기 제 2 프로세서는 상기 전처리된 센서 데이터의 로컬 타임 태그를 기준으로 상기 맵 데이터를 동기화시키는 것인 위치 정보 측위 시스템.
According to claim 7,
The location information positioning system wherein the second processor synchronizes the map data based on a local time tag of the preprocessed sensor data.
제 7 항에 있어서,
상기 맵 매칭은 상기 전처리된 센서 데이터에 대응되는 각 센서마다 수행되되,
상기 전처리된 센서 데이터에 대응되는 각 센서에는 상기 로컬 타임 태그가 부착되어 동기화됨에 따라 서로 다른 시간 정보를 가지며, 상기 제 2 프로세서는 각 서로 다른 시간 정보 마다 각각 지연 시간을 보상하여 상기 타임 동기화를 수행하는 것인 위치 정보 측위 시스템.
According to claim 7,
The map matching is performed for each sensor corresponding to the preprocessed sensor data,
Each sensor corresponding to the preprocessed sensor data has different time information as the local time tag is attached and synchronized, and the second processor performs the time synchronization by compensating for the delay time for each different time information. A location information positioning system that does this.
제 5 항에 있어서,
상기 제 1 프로세서는 상기 융합 측위 결과가 생성되어 전달되는 동안의 지연 시간을 보상하여 상기 타임 동기화를 수행하되,
상기 제 1 프로세서는 상기 실시간 타이머와 상기 제 1 궤적 데이터를 기준으로 상기 타임 동기화를 수행하는 것인 차량의 위치 정보 측위 시스템.
According to claim 5,
The first processor performs the time synchronization by compensating for the delay time while the fusion positioning result is generated and delivered,
The first processor performs the time synchronization based on the real-time timer and the first trajectory data.
KR1020160170358A 2016-12-14 2016-12-14 System for positioning location information of car Active KR102660497B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160170358A KR102660497B1 (en) 2016-12-14 2016-12-14 System for positioning location information of car

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160170358A KR102660497B1 (en) 2016-12-14 2016-12-14 System for positioning location information of car

Publications (2)

Publication Number Publication Date
KR20180068555A KR20180068555A (en) 2018-06-22
KR102660497B1 true KR102660497B1 (en) 2024-04-24

Family

ID=62768459

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160170358A Active KR102660497B1 (en) 2016-12-14 2016-12-14 System for positioning location information of car

Country Status (1)

Country Link
KR (1) KR102660497B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102105590B1 (en) * 2018-11-05 2020-04-28 한국교통대학교산학협력단 System and method for improving accuracy of low-cost commercial GNSS Receiver
KR102696094B1 (en) 2019-03-19 2024-08-20 현대모비스 주식회사 Appratus and method for estimating the position of an automated valet parking system
EP3961340B1 (en) * 2020-09-01 2023-05-31 Sandvik Mining and Construction Oy Underground worksite vehicle positioning control
KR102691515B1 (en) * 2022-02-14 2024-08-05 국방과학연구소 Navigation device and method for performing gnss calibration based on fpga
CN114624754B (en) * 2022-03-28 2024-05-14 智己汽车科技有限公司 Automatic driving positioning device and method for space-time positioning and near-field compensation
CN115507861B (en) * 2022-09-02 2024-07-09 智己汽车科技有限公司 Automatic driving positioning method, device, computer equipment, medium and program product
CN116261885A (en) * 2022-12-28 2023-06-13 北京小米移动软件有限公司 Information reporting method, device, communication equipment and storage medium
CN117130015B (en) * 2023-08-30 2024-08-30 迈思数字(深圳)科技有限公司 GPS position synchronization device and method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100520166B1 (en) 2003-03-14 2005-10-10 삼성전자주식회사 Apparatus and method for locating of vehicles in navigation system
KR100742612B1 (en) * 2005-08-19 2007-07-25 한국전자통신연구원 Combined navigation system using dead reckoning and GPS

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101141984B1 (en) * 2010-04-12 2012-05-07 주식회사 디유에이엔아이 DR/GPS Data Fusion Method
KR101535873B1 (en) * 2013-11-29 2015-07-24 현대모비스 주식회사 Car navition system and method merged gnss with dr

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100520166B1 (en) 2003-03-14 2005-10-10 삼성전자주식회사 Apparatus and method for locating of vehicles in navigation system
KR100742612B1 (en) * 2005-08-19 2007-07-25 한국전자통신연구원 Combined navigation system using dead reckoning and GPS

Also Published As

Publication number Publication date
KR20180068555A (en) 2018-06-22

Similar Documents

Publication Publication Date Title
KR102660497B1 (en) System for positioning location information of car
US11802769B2 (en) Lane line positioning method and apparatus, and storage medium thereof
JP7559296B2 (en) Method, system and program
US12147242B2 (en) Crowdsourcing a sparse map for autonomous vehicle navigation
KR102463176B1 (en) Device and method to estimate position
US10788830B2 (en) Systems and methods for determining a vehicle position
CN102565832B (en) Method of augmenting GPS or gps/sensor vehicle positioning using additional in-vehicle vision sensors
US9255989B2 (en) Tracking on-road vehicles with sensors of different modalities
Tao et al. Mapping and localization using GPS, lane markings and proprioceptive sensors
KR20200044420A (en) Method and device to estimate position
Atia et al. A low-cost lane-determination system using GNSS/IMU fusion and HMM-based multistage map matching
KR102680011B1 (en) Apparatus and method for recognizing object
US11579628B2 (en) Method for localizing a vehicle
EP3899684A1 (en) Generation of structured map data from vehicle sensors and camera arrays
CN113405555B (en) Automatic driving positioning sensing method, system and device
JP2018028489A (en) Position estimation device and position estimation method
WO2015122121A1 (en) Host vehicle travel position specification device and host vehicle travel position specification program product
KR102336071B1 (en) Apparatus for determining position of vehicle and method thereof
EP4113063A1 (en) Localization of autonomous vehicles using camera, gps, and imu
KR102336070B1 (en) Apparatus for determining position of vehicle and method thereof
EP3339808B1 (en) Positioning objects in an augmented reality display
CN113390422B (en) Automobile positioning method and device and computer storage medium
Meguro et al. Road ortho-image generation based on accurate vehicle trajectory estimation by GPS Doppler
Li et al. AutoMine: A Multimodal Dataset for Robot Navigation in Open‐Pit Mines
CN111486837B (en) Vehicle position estimation method based on graph structure and vehicle using same

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000