[go: up one dir, main page]

KR102656945B1 - Apparatus for sensor fusion of vehicle and method thereof - Google Patents

Apparatus for sensor fusion of vehicle and method thereof Download PDF

Info

Publication number
KR102656945B1
KR102656945B1 KR1020190022270A KR20190022270A KR102656945B1 KR 102656945 B1 KR102656945 B1 KR 102656945B1 KR 1020190022270 A KR1020190022270 A KR 1020190022270A KR 20190022270 A KR20190022270 A KR 20190022270A KR 102656945 B1 KR102656945 B1 KR 102656945B1
Authority
KR
South Korea
Prior art keywords
object information
fusion
sensor
lidar
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190022270A
Other languages
Korean (ko)
Other versions
KR20200106234A (en
Inventor
이건용
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190022270A priority Critical patent/KR102656945B1/en
Priority to KR1020200055283A priority patent/KR102336654B1/en
Publication of KR20200106234A publication Critical patent/KR20200106234A/en
Priority to KR1020240034917A priority patent/KR102730150B1/en
Application granted granted Critical
Publication of KR102656945B1 publication Critical patent/KR102656945B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 차량의 센서 융합 장치 및 방법에 관한 것으로서, 차량에 장착된 카메라 센서 및 레이더 센서를 통해 각각 획득된 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성하는 제1 센서 융합부로서, 카메라 오브젝트 정보 및 레이더 오브젝트 정보는 차량의 주변에 위치한 동적 오브젝트의 정보인, 제1 센서 융합부, 및 카메라 오브젝트 정보, 1차 융합 오브젝트 정보, 및 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리를 수행하고, 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 속성 정보를 부가하여 라이다 오브젝트 정보를 보정한 후, 보정된 라이다 오브젝트 정보를 기반으로 1차 융합 오브젝트 정보를 갱신하여 최종 융합 오브젝트 정보를 생성하는 제2 센서 융합부로서, 라이다 오브젝트 정보는 차량의 주변에 위치한 동적 오브젝트 및 정적 오브젝트의 정보를 포함하는, 제2 센서 융합부를 포함하는 것을 특징으로 한다.The present invention relates to a sensor fusion device and method for a vehicle, which fuses camera object information and radar object information obtained respectively through a camera sensor and a radar sensor mounted on the vehicle through a predefined fusion algorithm to produce primary fusion object information. A first sensor fusion unit that generates a first sensor fusion unit, where the camera object information and radar object information are information of dynamic objects located around the vehicle, and the camera object information, primary fusion object information, and mounted on the vehicle. Perform preprocessing to synchronize the LiDAR object information acquired through the LiDAR sensor, correct the LiDAR object information by adding attribute information of the object to the synchronized LiDAR object information, and then create the corrected LiDAR object. A second sensor fusion unit that generates final fusion object information by updating the first fusion object information based on the information, wherein the lidar object information includes information on dynamic objects and static objects located around the vehicle, the second sensor It is characterized by including a fusion portion.

Description

차량의 센서 융합 장치 및 방법{APPARATUS FOR SENSOR FUSION OF VEHICLE AND METHOD THEREOF}Sensor fusion device and method for vehicle {APPARATUS FOR SENSOR FUSION OF VEHICLE AND METHOD THEREOF}

본 발명은 차량의 센서 융합 장치 및 방법에 관한 것으로서, 더욱 상세하게는 차량에 장착된 복수의 센서에 의해 획득된 오브젝트 정보를 융합하는 차량의 센서 융합 장치 및 방법에 관한 것이다.The present invention relates to a sensor fusion device and method for a vehicle, and more particularly, to a sensor fusion device and method for a vehicle that fuses object information obtained by a plurality of sensors mounted on the vehicle.

자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다. 자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않아도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행할 수 있다. 예를 들어, 직선 도로에서는 가속을 수행하고, 곡선 도로에서는 도로의 곡률에 대응하여 주행 방향을 변경하면서 감속을 수행할 수 있다.An autonomous vehicle refers to a vehicle that recognizes the surrounding environment through external information detection and processing functions when driving, determines its own driving path, and drives independently using its own power. Self-driving vehicles can drive to their destination on their own, preventing collisions with obstacles in the driving path and adjusting vehicle speed and driving direction according to the shape of the road, without the driver having to operate the steering wheel, accelerator pedal, or brakes. there is. For example, acceleration can be performed on a straight road, and deceleration can be performed on a curved road by changing the driving direction in response to the curvature of the road.

자율 주행 차량에 적용되는 측위 시스템은 GPS(Global Positioning System) 및 각종센서(Radar, LiDAR, Camera 등)를 이용하여 구축한 도로맵 정보를 바탕으로, 주행 중 획득되는 GPS 위치데이터 및 차량에 탑재된 센서를 통해 획득되는 센서 데이터 등을 통해 차량의 현재 위치를 결정한다. 자율 주행의 안정성을 확보하기 위해서는 차량의 현재 위치를 정확하게 파악하는 것이 중요하며, 이를 위해 GPS의 위치 정확도를 향상시킬 수 있는 DGPS(Differential GPS), RTK-DGPS(Real Time Kinematic-DGPS) 등을 사용하기도 한다. 또한, 필연적으로 발생하는 GPS 위치 데이터의 오차를 보정하기 위해 미리 구축하여 놓은 도로맵과 센서 데이터를 비교하는 맵매칭 기술이 적용되기도 한다.The positioning system applied to autonomous vehicles is based on road map information constructed using GPS (Global Positioning System) and various sensors (Radar, LiDAR, Camera, etc.), GPS location data acquired while driving, and The current location of the vehicle is determined through sensor data obtained through sensors. In order to ensure the stability of autonomous driving, it is important to accurately determine the current location of the vehicle, and for this purpose, DGPS (Differential GPS) and RTK-DGPS (Real Time Kinematic-DGPS), which can improve the location accuracy of GPS, are used. Sometimes it happens. In addition, map matching technology that compares sensor data with a pre-constructed road map is sometimes applied to correct errors in GPS location data that inevitably occur.

또한, 차량의 현재 위치와 함께, 차량에 장착된 센서를 통해 차량 주위에 존재하는 오브젝트를 정확하게 검출하여 차량의 주행 제어에 활용하여야 하며, 자율 주행 차량에 적용되는 센싱 시스템의 고도화에 따라 그 센서의 수가 증가하고 있는 현재의 기술 수준을 고려하면, 각 센서를 통해 획득된 주변 오브젝트 정보를 융합하여 보다 정확하게 주변 오브젝트를 검출할 수 있는 아키텍처가 요구된다.In addition, along with the current location of the vehicle, objects existing around the vehicle must be accurately detected through sensors mounted on the vehicle and used to control the vehicle's driving. As the sensing system applied to autonomous vehicles becomes more advanced, the sensor's Considering the current level of technology, which is increasing in number, an architecture that can detect surrounding objects more accurately by fusing surrounding object information acquired through each sensor is required.

본 발명의 배경기술은 대한민국 공개특허공보 제10-2017-0098071호(2017.08.29. 공개)에 개시되어 있다.The background technology of the present invention is disclosed in Republic of Korea Patent Publication No. 10-2017-0098071 (published on August 29, 2017).

본 발명의 일 측면에 따른 목적은 차량의 장착된 복수의 객체 검출 센서, 특히 카메라 센서, 레이더 센서 및 라이다 센서를 통해 획득된 오브젝트 정보를 융합하여 오브젝트에 대한 검출 오차가 최소화될 수 있는 차량의 센서 융합 장치 및 방법을 제공하는 것이다.The purpose of one aspect of the present invention is to develop a vehicle in which detection errors for objects can be minimized by fusing object information obtained through a plurality of object detection sensors mounted on a vehicle, especially camera sensors, radar sensors, and lidar sensors. To provide a sensor fusion device and method.

본 발명의 일 측면에 따른 차량의 센서 융합 장치는 차량에 장착된 카메라 센서 및 레이더 센서를 통해 각각 획득된 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성하는 제1 센서 융합부로서, 상기 카메라 오브젝트 정보 및 상기 레이더 오브젝트 정보는 상기 차량의 주변에 위치한 동적 오브젝트의 정보인, 제1 센서 융합부, 및 상기 카메라 오브젝트 정보, 상기 1차 융합 오브젝트 정보, 및 상기 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리를 수행하고, 상기 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 속성 정보를 부가하여 상기 라이다 오브젝트 정보를 보정한 후, 상기 보정된 라이다 오브젝트 정보를 기반으로 상기 1차 융합 오브젝트 정보를 갱신하여 최종 융합 오브젝트 정보를 생성하는 제2 센서 융합부로서, 상기 라이다 오브젝트 정보는 상기 차량의 주변에 위치한 동적 오브젝트 및 정적 오브젝트의 정보를 포함하는, 제2 센서 융합부를 포함하는 것을 특징으로 한다.The sensor fusion device for a vehicle according to one aspect of the present invention fuses camera object information and radar object information obtained through a camera sensor and a radar sensor mounted on the vehicle, respectively, through a predefined fusion algorithm to produce primary fusion object information. A first sensor fusion unit that generates, wherein the camera object information and the radar object information are information of dynamic objects located around the vehicle, and the camera object information, the first fusion object information, And performing preprocessing to synchronize the LiDAR object information obtained through the LiDAR sensor mounted on the vehicle, and correcting the LiDAR object information by adding attribute information of the object to the synchronized LiDAR object information. Then, a second sensor fusion unit that updates the first fusion object information based on the corrected LiDAR object information to generate final fusion object information, wherein the LiDAR object information includes dynamic objects located around the vehicle and It is characterized in that it includes a second sensor fusion unit containing information about the static object.

본 발명에 있어 상기 제2 센서 융합부는, 상기 카메라 오브젝트 정보 및 상기 1차 융합 오브젝트 정보의 좌표를 상기 라이다 센서의 좌표계로 변환하여 좌표 동기화를 수행하고, 상기 좌표 동기화된 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보와 상기 라이다 오브젝트 정보의 시간을 일치시키는 시간 동기화를 수행하여 상기 전처리를 수행하는 것을 특징으로 한다.In the present invention, the second sensor fusion unit performs coordinate synchronization by converting the coordinates of the camera object information and the primary fusion object information into the coordinate system of the LiDAR sensor, and the coordinate-synchronized camera object information and the primary fusion object information. The preprocessing is performed by performing time synchronization to match the times of the fusion object information and the lidar object information.

본 발명에 있어 상기 제2 센서 융합부는, 상기 카메라 오브젝트 정보를 이용하여, 상기 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 종류에 따른 속성 정보를 부가하는 것을 특징으로 한다.In the present invention, the second sensor fusion unit is characterized by adding attribute information according to the type of the object to the synchronized lidar object information using the camera object information.

본 발명에 있어 상기 제2 센서 융합부는, 상기 보정된 라이다 오브젝트 정보에 반영되어 있는 정적 오브젝트 정보를 상기 1차 융합 오브젝트 정보에 부가하는 방식을 통해 상기 1차 융합 오브젝트 정보를 갱신하여 상기 최종 융합 오브젝트 정보를 생성하는 것을 특징으로 한다.In the present invention, the second sensor fusion unit updates the first fusion object information by adding static object information reflected in the corrected lidar object information to the first fusion object information to perform the final fusion. It is characterized by generating object information.

본 발명에 있어 상기 제2 센서 융합부는, 상기 최종 융합 오브젝트 정보에 대한 해당 오브젝트를 미리 정의된 트랙킹 알고리즘을 이용하여 트래킹을 수행한 후, 후처리를 통해 해당 오브젝트의 위치 정보를 출력하는 한다.In the present invention, the second sensor fusion unit tracks the object for the final fusion object information using a predefined tracking algorithm and then outputs the location information of the object through post-processing.

본 발명에 있어 상기 카메라 센서는 전방 카메라 센서를 포함하고, 상기 레이더센서는 전방 레이더 및 코너 레이더를 포함하며, 상기 라이다 센서는 전방 라이다 센서를 포함하는 것을 특징으로 한다.In the present invention, the camera sensor includes a front camera sensor, the radar sensor includes a front radar and a corner radar, and the LIDAR sensor includes a front LIDAR sensor.

본 발명의 일 측면에 따른 차량의 센서 융합 방법은 제1 센서 융합부가, 차량에 장착된 카메라 센서 및 레이더 센서를 통해 각각 획득된 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성하는 단계로서, 상기 카메라 오브젝트 정보 및 상기 레이더 오브젝트 정보는 상기 차량의 주변에 위치한 동적 오브젝트의 정보인, 단계, 제2 센서 융합부가, 상기 카메라 오브젝트 정보, 상기 1차 융합 오브젝트 정보, 및 상기 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리를 수행하는 단계로서, 상기 라이다 오브젝트 정보는 상기 차량의 주변에 위치한 동적 오브젝트 및 정적 오브젝트의 정보를 포함하는, 단계, 상기 제2 센서 융합부가, 상기 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 속성 정보를 부가하여 상기 라이다 오브젝트 정보를 보정하는 단계, 및 상기 제2 센서 융합부가, 상기 보정된 라이다 오브젝트 정보를 기반으로 상기 1차 융합 오브젝트 정보를 갱신하는 단계를 포함하는 것을 특징으로 한다.In the sensor fusion method for a vehicle according to an aspect of the present invention, the first sensor fusion unit fuses camera object information and radar object information respectively acquired through a camera sensor and a radar sensor mounted on the vehicle through a predefined fusion algorithm. Generating primary fusion object information, wherein the camera object information and the radar object information are information on dynamic objects located around the vehicle, wherein a second sensor fusion unit performs the camera object information and the primary fusion. A step of performing preprocessing to synchronize object information and LiDAR object information acquired through a LiDAR sensor mounted on the vehicle, wherein the LiDAR object information is information on dynamic objects and static objects located around the vehicle Comprising a step, wherein the second sensor fusion unit corrects the LiDAR object information by adding attribute information of the object to the synchronized LiDAR object information, and the second sensor fusion unit corrects the corrected LiDAR object information. Characterized by including the step of updating the first fusion object information based on lidar object information.

본 발명의 일 측면에 따르면, 본 발명은 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 1차 융합한 후 라이다 오브젝트 정보를 통해 1차 융합 결과를 보정하고 트랙킹 후처리를 수행함으로써 차량 주변의 오브젝트에 대한 검출 오차를 최소화시킬 수 있다.According to one aspect of the present invention, the present invention detects objects around the vehicle by first fusion of camera object information and radar object information, then correcting the first fusion result through lidar object information and performing tracking post-processing. Errors can be minimized.

도 1은 본 발명의 일 실시예에 따른 차량의 센서 융합 장치를 설명하기 위한 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 차량의 센서 융합 장치의 세부 구성을 보인 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 차량의 센서 융합 장치에 적용되는 전방 카메라, 전방 레이더, 코너 레이더 및 전방 라이다의 FOV(Field Of View)를 보인 예시도이다.
도 4는 본 발명의 일 실시예에 따른 차량의 센서 융합 장치에서 제2 센서 융합부의 전처리부 및 측정치 융합부의 동작을 설명하기 위한 기능 블록도이다.
도 5는 본 발명의 일 실시예에 따른 차량의 센서 융합 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating a sensor fusion device for a vehicle according to an embodiment of the present invention.
Figure 2 is a block diagram showing the detailed configuration of a sensor fusion device for a vehicle according to an embodiment of the present invention.
Figure 3 is an example diagram showing the FOV (Field of View) of a front camera, front radar, corner radar, and front lidar applied to a sensor fusion device for a vehicle according to an embodiment of the present invention.
Figure 4 is a functional block diagram for explaining the operation of the preprocessing unit and the measurement value fusion unit of the second sensor fusion unit in the sensor fusion device for a vehicle according to an embodiment of the present invention.
Figure 5 is a flowchart illustrating a sensor fusion method for a vehicle according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 차량의 센서 융합 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of a sensor fusion device and method for a vehicle according to the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 차량의 센서 융합 장치를 설명하기 위한 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 차량의 센서 융합 장치의 세부 구성을 보인 블록구성도이며, 도 3은 본 발명의 일 실시예에 따른 차량의 센서 융합 장치에 적용되는 전방 카메라, 전방 레이더, 코너 레이더 및 전방 라이다의 FOV(Field Of View)를 보인 예시도이고, 도 4는 본 발명의 일 실시예에 따른 차량의 센서 융합 장치에서 제2 센서 융합부의 전처리부 및 측정치 융합부의 동작을 설명하기 위한 기능 블록도이다.FIG. 1 is a block diagram for explaining a sensor fusion device for a vehicle according to an embodiment of the present invention, and FIG. 2 is a block diagram showing the detailed configuration of a sensor fusion device for a vehicle according to an embodiment of the present invention. , FIG. 3 is an exemplary diagram showing the FOV (Field of View) of the front camera, front radar, corner radar, and front lidar applied to the sensor fusion device of a vehicle according to an embodiment of the present invention, and FIG. This is a functional block diagram for explaining the operation of the preprocessing unit and the measurement value fusion unit of the second sensor fusion unit in the sensor fusion device for a vehicle according to an embodiment of.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 차량의 센서 융합 장치는 제1 센서 융합부(100) 및 제2 센서 융합부(200)를 포함할 수 있고, 제2 센서 융합부(200)는 전처리부(210), 측정치 융합부(220), 트랙킹부(230) 및 후처리부(240)를 포함할 수 있다.Referring to Figures 1 and 2, the sensor fusion device for a vehicle according to an embodiment of the present invention may include a first sensor fusion unit 100 and a second sensor fusion unit 200, and the second sensor fusion unit 200 The unit 200 may include a pre-processing unit 210, a measurement fusion unit 220, a tracking unit 230, and a post-processing unit 240.

제1 센서 융합부(100)는 차량에 장착된 카메라 센서 및 레이더 센서를 통해 각각 획득된 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성할 수 있다. 여기서, 카메라 오브젝트 정보 및 레이더 오브젝트 정보는 차량의 주변에서 움직이는 동적 오브젝트(예: 타차량, 자전거, 보행자 등)의 정보를 의미하며, 예를 들어 동적 오브젝트의 위치, 방향(헤딩각), 가속도, 속도, 형상 및 크기, 종류와, 동적 오브젝트의 존재에 대한 정보가 동적 오브젝트 정보에 해당될 수 있다. 이에 따라, 제1 센서 융합부(100)는 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성할 수 있으며, 융합 알고리즘에 따른 오브젝트 융합 과정에서 소정 정보(예: 차량 자세 정보 등)가 필요할 경우에는 C-CAN 통신을 통해 전달받을 수도 있다.The first sensor fusion unit 100 may fuse camera object information and radar object information obtained through a camera sensor and a radar sensor mounted on the vehicle, respectively, through a predefined fusion algorithm to generate primary fusion object information. . Here, the camera object information and radar object information refer to information on dynamic objects (e.g., other vehicles, bicycles, pedestrians, etc.) moving around the vehicle, such as the position, direction (heading angle), acceleration, and Information about speed, shape and size, type, and existence of a dynamic object may correspond to dynamic object information. Accordingly, the first sensor fusion unit 100 can generate primary fusion object information by fusing camera object information and radar object information through a predefined fusion algorithm, and generates predetermined information during the object fusion process according to the fusion algorithm. If necessary (e.g. vehicle attitude information, etc.), it can be received through C-CAN communication.

제2 센서 융합부(200)는 카메라 오브젝트 정보, 1차 융합 오브젝트 정보, 및 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리를 수행하고, 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 속성 정보를 부가하여 라이다 오브젝트 정보를 보정한 후, 보정된 라이다 오브젝트 정보를 기반으로 1차 융합 오브젝트 정보를 갱신하여 최종 융합 오브젝트 정보를 생성할 수 있다. 여기서, 라이다 오브젝트 정보는 차량의 주변에 위치한 동적 오브젝트 및 정적 오브젝트(예: 신호등, 이정표, 고정 장애물 등)의 정보를 포함할 수 있다.The second sensor fusion unit 200 performs preprocessing to synchronize camera object information, primary fusion object information, and LiDAR object information acquired through a LiDAR sensor mounted on the vehicle, and synchronized LiDAR object information. After correcting the LiDAR object information by adding attribute information of the corresponding object, the final fusion object information can be generated by updating the first fusion object information based on the corrected LiDAR object information. Here, the LIDAR object information may include information on dynamic objects and static objects (e.g., traffic lights, signposts, fixed obstacles, etc.) located around the vehicle.

본 실시예에서 카메라 센서는 전방 카메라 센서를 포함할 수 있고, 레이더 센서는 전방 레이더 및 코너 레이더를 포함할 수 있으며, 라이다 센서는 전방 라이다 센서를 포함할 수 있다. 도 3은 각 센서의 FOV(Field Of View)의 예시를 도시하고 있으며, 다만 각 센서의 FOV는 설계자의 의도와 실험적 결과에 기초하여 다양한 범위로 설계될 수도 있다.In this embodiment, the camera sensor may include a front camera sensor, the radar sensor may include a front radar and a corner radar, and the LiDAR sensor may include a front LiDAR sensor. Figure 3 shows an example of the FOV (Field of View) of each sensor, however, the FOV of each sensor may be designed in various ranges based on the designer's intention and experimental results.

이하에서는 제2 센서 융합부(200)의 기능을 그 하위 구성을 통해 구체적으로 설명한다. 도 2에 도시된 것과 같이 제2 센서 융합부(200)는 전처리부(210), 측정치 융합부(220), 트랙킹부(230) 및 후처리부(240)를 포함할 수 있다. 도 4는 전처리부(210) 및 측정치 융합부(220)의 동작을 설명하기 위한 기능 블록도로서, 이하의 전처리부(210) 및 측정치 융합부(220)의 동작 설명은 도 4를 참조하기로 한다.Hereinafter, the function of the second sensor fusion unit 200 will be described in detail through its sub-configurations. As shown in FIG. 2, the second sensor fusion unit 200 may include a pre-processing unit 210, a measurement fusion unit 220, a tracking unit 230, and a post-processing unit 240. FIG. 4 is a functional block diagram for explaining the operation of the pre-processing unit 210 and the measurement fusion unit 220. The following description of the operation of the pre-processing unit 210 and the measurement fusion unit 220 will refer to FIG. 4. do.

전처리부(210)는 카메라 오브젝트 정보, 1차 융합 오브젝트 정보, 및 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리(Pre-Processing)를 수행할 수 있다. 여기서, 오브젝트 정보의 동기화는 좌표 동기화 및 시간 동기화를 의미할 수 있다.The pre-processing unit 210 may perform pre-processing to synchronize camera object information, primary fusion object information, and LiDAR object information acquired through a LiDAR sensor mounted on the vehicle. Here, synchronization of object information may mean coordinate synchronization and time synchronization.

구체적으로, 전처리부(210)는 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보의 좌표를 라이다 센서의 좌표계로 변환하여 좌표 동기화를 수행할 수 있으며, 이를 위해 전처리부(210)에는 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보의 좌표를 라이다 좌표로 변화하기 위한 변환 매트릭스가 미리 정의되어 있을 수 있다. 그리고, 전처리부(210)는 좌표 동기화된 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보와 라이다 오브젝트 정보의 시간을 일치시키는 시간 동기화를 수행할 수 있다. 나아가, 전처리부(210)는 자차량의 움직임과, 각 오브젝트 정보에 반영된 해당 오브젝트의 움직임을 고려하여 해당 오브젝트에 대한 위치를 보상할 수도 있다.Specifically, the preprocessor 210 can perform coordinate synchronization by converting the coordinates of the camera object information and the first fusion object information into the coordinate system of the LiDAR sensor. To this end, the preprocessor 210 includes camera object information and 1 A transformation matrix for changing the coordinates of car fusion object information into LiDAR coordinates may be predefined. Additionally, the preprocessor 210 may perform time synchronization to match the times of the coordinate-synchronized camera object information and primary fusion object information with the lidar object information. Furthermore, the preprocessor 210 may compensate for the position of the corresponding object by considering the movement of the host vehicle and the movement of the corresponding object reflected in each object information.

측정치 융합부(Measuring Fusion Unit, 200)는 전처리부(210)에 의해 좌표 동기화 및 시간 동기화가 이루어진 라이다 오브젝트 정보에 해당 오브젝트의 속성 정보를 부가하여 라이다 오브젝트 정보를 보정할 수 있다. 라이다 오브젝트 정보가 보정된 상태라 함은 라이다 센서에 의해 획득된 라이다 오브젝트 정보의 동기화가 이루어진 후 해당 오브젝트의 속성 정보가 부가된 상태인 것으로 표기한다. 이때, 측정치 융합부(220)는 카메라 오브젝트 정보를 이용하여, 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 종류(예: 승용차, 트럭, 자전거, 보행자 등)에 따른 속성 정보(Flag)를 부가할 수 있다.The Measuring Fusion Unit (200) may correct the LiDAR object information by adding attribute information of the object to the LiDAR object information for which coordinates and time synchronization have been achieved by the preprocessor (210). The state in which the LiDAR object information is corrected refers to the state in which the attribute information of the object is added after synchronization of the LiDAR object information acquired by the LiDAR sensor is achieved. At this time, the measurement fusion unit 220 can use the camera object information to add attribute information (Flag) according to the type of object (e.g., car, truck, bicycle, pedestrian, etc.) to the synchronized lidar object information. there is.

그리고, 측정치 융합부(220)는 보정된 라이다 오브젝트 정보를 기반으로 1차 융합 오브젝트 정보를 갱신하여 최종 융합 오브젝트 정보를 생성할 수 있다. 구체적으로는, 측정치 융합부(220)는 보정된 라이다 오브젝트 정보에 반영되어 있는 정적 오브젝트 정보를 1차 융합 오브젝트 정보에 부가하는 방식을 통해 1차 융합 오브젝트 정보를 갱신하여 최종 융합 오브젝트 정보를 생성할 수 있다. 1차 융합 오브젝트 정보는 동적 오브젝트 정보인 카메라 오브젝트 정보 및 레이더 오브젝트 정보의 융합 정보이므로, 라이다 오브젝트 정보에 반영되어 있는 정적 오브젝트 정보를 1차 융합 오브젝트 정보에 부가함으로써, 최종 융합 오브젝트 정보에는 차량 주변의 동적 오브젝트 및 정적 오브젝트 정보가 반영되게 되며, 최종 융합 오브젝트 정보에 대한 해당 오브젝트의 속성 정보도 포함되게 된다.Additionally, the measurement fusion unit 220 may update the first fusion object information based on the corrected LIDAR object information to generate final fusion object information. Specifically, the measurement fusion unit 220 updates the primary fusion object information by adding static object information reflected in the corrected LiDAR object information to the primary fusion object information to generate final fusion object information. can do. Since the first fusion object information is fusion information of camera object information and radar object information, which are dynamic object information, by adding the static object information reflected in the lidar object information to the first fusion object information, the final fusion object information includes the surrounding areas of the vehicle. The dynamic object and static object information of is reflected, and the attribute information of the corresponding object for the final fused object information is also included.

트랙킹부(230)는 최종 융합 오브젝트 정보에 대한 해당 오브젝트를 미리 정의된 트랙킹 알고리즘을 이용하여 트랙킹(Tracking)을 수행할 수 있다. 도 2에 도시된 것과 같이 트랙킹부(230)는 일반적인 타겟 추적 알고리즘에 따라 예측(Prediction), 데이터 연관(Data Association) 및 업데이트(Update) 방식을 통해 해당 오브젝트를 트랙킹할 수 있다. 1차 융합 오브젝트 정보 및 라이다 오브젝트 정보는 각각 별도의 트랙킹 과정을 통해 획득되는 정보로서, 트랙킹부(230)를 통해 추가적인 트랙킹을 수행함으로써 해당 오브젝트에 대한 트랙킹 오차를 감소시킬 수 있다.The tracking unit 230 may perform tracking of the corresponding object for the final fused object information using a predefined tracking algorithm. As shown in FIG. 2, the tracking unit 230 can track the object through prediction, data association, and update methods according to a general target tracking algorithm. The primary fusion object information and lidar object information are information acquired through separate tracking processes, and the tracking error for the corresponding object can be reduced by performing additional tracking through the tracking unit 230.

이후, 후처리부(240)는 후처리(Post-Processing)를 통해 트랙킹되는 해당 오브젝트의 위치 정보를 최종적으로 출력할 수 있으며, 해당 오브젝트의 위치 정보와 함께 방향(헤딩각), 가속도, 속도, 형상 및 크기, 종류에 대한 정보도 출력할 수 있다.Afterwards, the post-processing unit 240 can finally output the position information of the object being tracked through post-processing, and the direction (heading angle), acceleration, speed, and shape along with the position information of the object. Information on size and type can also be output.

도 5는 본 발명의 일 실시예에 따른 차량의 센서 융합 방법을 설명하기 위한 흐름도이다.Figure 5 is a flowchart for explaining a sensor fusion method for a vehicle according to an embodiment of the present invention.

도 5를 참조하여 본 발명의 일 실시예에 따른 차량의 센서 융합 방법을 설명하면, 먼저 제1 센서 융합부(100)는 차량에 장착된 카메라 센서 및 레이더 센서를 통해 각각 획득된 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성한다(S100). 카메라 오브젝트 정보 및 레이더 오브젝트 정보는 차량의 주변에 위치한 동적 오브젝트의 정보를 의미한다.When describing the sensor fusion method of a vehicle according to an embodiment of the present invention with reference to FIG. 5, first, the first sensor fusion unit 100 receives camera object information and camera object information respectively acquired through a camera sensor and a radar sensor mounted on the vehicle. Radar object information is fused through a predefined fusion algorithm to generate primary fusion object information (S100). Camera object information and radar object information refer to information on dynamic objects located around the vehicle.

이어서, 제2 센서 융합부(200)는 카메라 오브젝트 정보, 1차 융합 오브젝트 정보, 및 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리를 수행한다(S200). 라이다 오브젝트 정보는 차량의 주변에 위치한 동적 오브젝트 및 정적 오브젝트의 정보를 포함한다.Next, the second sensor fusion unit 200 performs preprocessing to synchronize the camera object information, the first fusion object information, and the LiDAR object information acquired through the LiDAR sensor mounted on the vehicle (S200). Lidar object information includes information on dynamic objects and static objects located around the vehicle.

S200 단계에서, 제2 센서 융합부(200)는 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보의 좌표를 라이다 센서의 좌표계로 변환하여 좌표 동기화를 수행하고, 좌표 동기화된 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보와 라이다 오브젝트 정보의 시간을 일치시키는 시간 동기화를 수행하여 전처리를 수행한다.In step S200, the second sensor fusion unit 200 performs coordinate synchronization by converting the coordinates of the camera object information and the first fusion object information into the coordinate system of the LiDAR sensor, and coordinate-synchronized camera object information and the first fusion object. Preprocessing is performed by performing time synchronization to match the time of the information and the lidar object information.

이어서, 제2 센서 융합부(200)는 S200 단계를 통해 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 속성 정보를 부가하여 라이다 오브젝트 정보를 보정한다(S300). S300 단계에서, 제2 센서 융합부(200)는 카메라 오브젝트 정보를 이용하여, S200 단계를 통해 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 종류에 따른 속성 정보를 부가한다.Next, the second sensor fusion unit 200 corrects the LiDAR object information by adding attribute information of the object to the LiDAR object information synchronized through step S200 (S300). In step S300, the second sensor fusion unit 200 uses camera object information to add attribute information according to the type of the object to the LiDAR object information synchronized through step S200.

이어서, 제2 센서 융합부(200)는 S200 단계 및 S300 단계를 통해 보정된 라이다 오브젝트 정보를 기반으로 1차 융합 오브젝트 정보를 갱신한다(S400). S400 단계에서, 제2 센서 융합부(200)는 보정된 라이다 오브젝트 정보에 반영되어 있는 정적 오브젝트 정보를 1차 융합 오브젝트 정보에 부가하는 방식을 통해 1차 융합 오브젝트 정보를 갱신한다. S400 단계를 통해 최종 융합 오브젝트 정보가 생성된다.Subsequently, the second sensor fusion unit 200 updates the first fusion object information based on the lidar object information corrected through steps S200 and S300 (S400). In step S400, the second sensor fusion unit 200 updates the primary fusion object information by adding static object information reflected in the corrected lidar object information to the primary fusion object information. Final fusion object information is generated through step S400.

이어서, 제2 센서 융합부(200)는 S400 단계에서 최종 융합 오브젝트 정보에 대한 해당 오브젝트를 미리 정의된 트랙킹 알고리즘을 이용하여 트래킹을 수행한 후, 후처리를 통해 해당 오브젝트의 위치 정보를 출력하며(S500), 해당 오브젝트의 위치 정보와 함께 방향(헤딩각), 가속도, 속도, 형상 및 크기, 종류에 대한 정보도 출력할 수 있다.Subsequently, the second sensor fusion unit 200 tracks the object for the final fusion object information using a predefined tracking algorithm in step S400, and then outputs the location information of the object through post-processing ( S500), along with the location information of the object, information on direction (heading angle), acceleration, speed, shape, size, and type can also be output.

이와 같이 본 실시예는 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 1차 융합한 후 라이다 오브젝트 정보를 통해 1차 융합 결과를 보정하고 트랙킹 후처리를 수행함으로써 차량 주변의 오브젝트에 대한 검출 오차를 최소화시킬 수 있다.In this way, in this embodiment, the detection error for objects around the vehicle can be minimized by first fusion of camera object information and radar object information, then correcting the first fusion result through lidar object information and performing tracking post-processing. there is.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and those skilled in the art will recognize that various modifications and other equivalent embodiments can be made therefrom. You will understand. Therefore, the true technical protection scope of the present invention should be determined by the scope of the patent claims below.

100: 제1 센서 융합부
200: 제2 센서 융합부
210: 전처리부
220: 측정치 융합부
230: 트랙킹부
240: 후처리부
100: First sensor fusion unit
200: Second sensor fusion unit
210: preprocessing unit
220: Measurement fusion unit
230: Tracking unit
240: Post-processing unit

Claims (11)

차량에 장착된 카메라 센서 및 레이더 센서를 통해 각각 획득된 동적 오브젝트 정보로서, 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성하는 제1 센서 융합부; 및
상기 카메라 오브젝트 정보, 상기 1차 융합 오브젝트 정보, 및 상기 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리를 수행하고, 상기 카메라 오브젝트 정보를 이용하여 상기 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 종류에 따른 속성 정보를 부가하여 상기 라이다 오브젝트 정보를 보정한 후, 상기 보정된 라이다 오브젝트 정보를 기반으로 상기 1차 융합 오브젝트 정보를 갱신하여 최종 융합 오브젝트 정보를 생성하는 제2 센서 융합부를 포함하고;
상기 갱신은 상기 보정된 라이다 오브젝트 정보의 정적 오브젝트 정보를 상기 1차 융합 오브젝트 정보에 부가하여 수행되고,
상기 카메라 센서는 전방 카메라 센서를 포함하고, 상기 레이더 센서는 전방 레이더 및 코너 레이더를 포함하며, 상기 라이다 센서는 전방 라이다 센서를 포함하는 것을 특징으로 하는 차량의 센서 융합 장치.
A first sensor fusion unit that generates primary fusion object information by fusing the camera object information and radar object information as dynamic object information acquired through a camera sensor and a radar sensor respectively mounted on the vehicle through a predefined fusion algorithm; and
Perform preprocessing to synchronize the camera object information, the primary fusion object information, and the LiDAR object information acquired through the LiDAR sensor mounted on the vehicle, and use the camera object information to After correcting the LiDAR object information by adding attribute information according to the type of the object to the object information, the first fusion object information is updated based on the corrected LiDAR object information to generate final fusion object information. It includes a second sensor fusion unit;
The update is performed by adding static object information of the corrected lidar object information to the primary fusion object information,
The sensor fusion device for a vehicle, wherein the camera sensor includes a front camera sensor, the radar sensor includes a front radar and a corner radar, and the lidar sensor includes a front lidar sensor.
제1항에 있어서,
상기 제2 센서 융합부는, 상기 카메라 오브젝트 정보 및 상기 1차 융합 오브젝트 정보의 좌표를 상기 라이다 센서의 좌표계로 변환하여 좌표 동기화를 수행하고, 상기 좌표 동기화된 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보와 상기 라이다 오브젝트 정보의 시간을 일치시키는 시간 동기화를 수행하여 상기 전처리를 수행하는 것을 특징으로 하는 차량의 센서 융합 장치.
According to paragraph 1,
The second sensor fusion unit performs coordinate synchronization by converting the coordinates of the camera object information and the first fusion object information into the coordinate system of the LiDAR sensor, and the coordinate-synchronized camera object information and the first fusion object information A sensor fusion device for a vehicle, characterized in that the preprocessing is performed by performing time synchronization to match the time of the lidar object information.
삭제delete 삭제delete 제1항에 있어서,
상기 제2 센서 융합부는, 상기 최종 융합 오브젝트 정보에 대한 해당 오브젝트를 미리 정의된 트랙킹 알고리즘을 이용하여 트랙킹을 수행한 후, 후처리를 통해 해당 오브젝트의 위치 정보를 출력하는 것을 특징으로 하는 차량의 센서 융합 장치.
According to paragraph 1,
The second sensor fusion unit tracks the object for the final fusion object information using a predefined tracking algorithm and then outputs the location information of the object through post-processing. Fusion device.
삭제delete 제1 센서 융합부가, 차량에 장착된 카메라 센서 및 레이더 센서를 통해 각각 획득된 동적 오브젝트 정보로서, 카메라 오브젝트 정보 및 레이더 오브젝트 정보를 미리 정의된 융합 알고리즘을 통해 융합하여 1차 융합 오브젝트 정보를 생성하는 단계;
제2 센서 융합부가, 상기 카메라 오브젝트 정보, 상기 1차 융합 오브젝트 정보, 및 상기 차량에 장착된 라이다 센서를 통해 획득된 라이다 오브젝트 정보를 동기화하기 위한 전처리를 수행하는 단계;
상기 제2 센서 융합부가, 상기 카메라 오브젝트 정보를 이용하여 상기 동기화된 라이다 오브젝트 정보에 해당 오브젝트의 종류에 따른 속성 정보를 부가하여 상기 라이다 오브젝트 정보를 보정하는 단계; 및
상기 제2 센서 융합부가, 상기 보정된 라이다 오브젝트 정보를 기반으로 상기 1차 융합 오브젝트 정보를 갱신하여 최종 융합 오브젝트 정보를 생성하는 단계;를 포함하고,
상기 갱신은 상기 보정된 라이다 오브젝트 정보의 정적 오브젝트 정보를 상기 1차 융합 오브젝트 정보에 부가하여 수행되고,
상기 카메라 센서는 전방 카메라 센서를 포함하고, 상기 레이더 센서는 전방 레이더 및 코너 레이더를 포함하며, 상기 라이다 센서는 전방 라이다 센서를 포함하는 것을 특징으로 하는 차량의 센서 융합 방법.
The first sensor fusion unit generates first fusion object information by fusing dynamic object information obtained through a camera sensor and a radar sensor mounted on the vehicle, respectively, and camera object information and radar object information through a predefined fusion algorithm. step;
A second sensor fusion unit performing preprocessing to synchronize the camera object information, the primary fusion object information, and the LiDAR object information obtained through a LiDAR sensor mounted on the vehicle;
The second sensor fusion unit corrects the LiDAR object information by adding attribute information according to the type of the object to the synchronized LiDAR object information using the camera object information; and
A step of the second sensor fusion unit updating the first fusion object information based on the corrected lidar object information to generate final fusion object information,
The update is performed by adding static object information of the corrected lidar object information to the primary fusion object information,
The sensor fusion method for a vehicle, wherein the camera sensor includes a front camera sensor, the radar sensor includes a front radar and a corner radar, and the lidar sensor includes a front lidar sensor.
제7항에 있어서,
상기 전처리를 수행하는 단계에서, 상기 제2 센서 융합부는,
상기 카메라 오브젝트 정보 및 상기 1차 융합 오브젝트 정보의 좌표를 상기 라이다 센서의 좌표계로 변환하여 좌표 동기화를 수행하고, 상기 좌표 동기화된 카메라 오브젝트 정보 및 1차 융합 오브젝트 정보와 상기 라이다 오브젝트 정보의 시간을 일치시키는 시간 동기화를 수행하여 상기 전처리를 수행하는 것을 특징으로 하는 차량의 센서 융합 방법.
In clause 7,
In the step of performing the preprocessing, the second sensor fusion unit,
Coordinate synchronization is performed by converting the coordinates of the camera object information and the first fusion object information into the coordinate system of the LiDAR sensor, and the time of the coordinate-synchronized camera object information and the first fusion object information and the LiDAR object information A sensor fusion method for a vehicle, characterized in that the preprocessing is performed by performing time synchronization to match.
삭제delete 삭제delete 제7항에 있어서,
상기 제2 센서 융합부가, 상기 최종 융합 오브젝트 정보에 대한 해당 오브젝트를 미리 정의된 트랙킹 알고리즘을 이용하여 트랙킹을 수행한 후, 후처리를 통해 해당 오브젝트의 위치 정보를 출력하는 단계;를 더 포함하는 것을 특징으로 하는 차량의 센서 융합 방법.
In clause 7,
The second sensor fusion unit tracks the object for the final fusion object information using a predefined tracking algorithm, and then outputs location information of the object through post-processing. Characterized by a sensor fusion method for a vehicle.
KR1020190022270A 2019-02-26 2019-02-26 Apparatus for sensor fusion of vehicle and method thereof Active KR102656945B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190022270A KR102656945B1 (en) 2019-02-26 2019-02-26 Apparatus for sensor fusion of vehicle and method thereof
KR1020200055283A KR102336654B1 (en) 2019-02-26 2020-05-08 Method And Apparatus for Sensor Fusion of Vehicle
KR1020240034917A KR102730150B1 (en) 2019-02-26 2024-03-13 Apparatus for sensor fusion of vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190022270A KR102656945B1 (en) 2019-02-26 2019-02-26 Apparatus for sensor fusion of vehicle and method thereof

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020200055283A Division KR102336654B1 (en) 2019-02-26 2020-05-08 Method And Apparatus for Sensor Fusion of Vehicle
KR1020240034917A Division KR102730150B1 (en) 2019-02-26 2024-03-13 Apparatus for sensor fusion of vehicle and method thereof

Publications (2)

Publication Number Publication Date
KR20200106234A KR20200106234A (en) 2020-09-14
KR102656945B1 true KR102656945B1 (en) 2024-04-12

Family

ID=72471558

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190022270A Active KR102656945B1 (en) 2019-02-26 2019-02-26 Apparatus for sensor fusion of vehicle and method thereof
KR1020240034917A Active KR102730150B1 (en) 2019-02-26 2024-03-13 Apparatus for sensor fusion of vehicle and method thereof

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240034917A Active KR102730150B1 (en) 2019-02-26 2024-03-13 Apparatus for sensor fusion of vehicle and method thereof

Country Status (1)

Country Link
KR (2) KR102656945B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114578373A (en) * 2020-12-01 2022-06-03 保时捷股份公司 Marking method
KR102541430B1 (en) * 2021-04-02 2023-06-13 인하대학교 산학협력단 System and Method for Automated Evaluation of Driving Ability of Self-Driving Cars
KR102614378B1 (en) * 2022-09-30 2023-12-15 한국전자기술연구원 Autonomous vehicle location fine asynchronization method based on CCTV video
EP4414746A1 (en) 2023-02-08 2024-08-14 Continental Autonomous Mobility Germany GmbH Multi-object detection and tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137288A (en) * 2013-01-17 2014-07-28 Mitsubishi Electric Corp Device and method for monitoring surroundings of vehicle
WO2018105136A1 (en) * 2016-12-06 2018-06-14 本田技研工業株式会社 Vehicle surrounding information acquisition device and vehicle
JP2019015606A (en) * 2017-07-06 2019-01-31 本田技研工業株式会社 Information processing method and information processing apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101996419B1 (en) * 2016-12-30 2019-07-04 현대자동차주식회사 Sensor integration based pedestrian detection and pedestrian collision prevention apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137288A (en) * 2013-01-17 2014-07-28 Mitsubishi Electric Corp Device and method for monitoring surroundings of vehicle
WO2018105136A1 (en) * 2016-12-06 2018-06-14 本田技研工業株式会社 Vehicle surrounding information acquisition device and vehicle
JP2019015606A (en) * 2017-07-06 2019-01-31 本田技研工業株式会社 Information processing method and information processing apparatus

Also Published As

Publication number Publication date
KR20240036550A (en) 2024-03-20
KR20200106234A (en) 2020-09-14
KR102730150B1 (en) 2024-11-13

Similar Documents

Publication Publication Date Title
US10988139B2 (en) Vehicle position control method and device vehicle position control device for correcting position in drive-assisted vehicle
KR102730150B1 (en) Apparatus for sensor fusion of vehicle and method thereof
CN109669451B (en) Autonomous driving support device and method
US11526173B2 (en) Traveling trajectory correction method, traveling control method, and traveling trajectory correction device
CN115427759B (en) Map information correction method, driving assistance method, and map information correction device
JP6809531B2 (en) Vehicle determination method, travel route correction method, vehicle determination device, and travel route correction device
KR102336654B1 (en) Method And Apparatus for Sensor Fusion of Vehicle
BR102016010430B1 (en) DEVICE FOR DETERMINING ERRONEOUS RECOGNITION BASED ON DISPLACEMENT PARAMETERS FOR DRIVING CONTROL OF A VEHICLE
CN107054361A (en) The steering control device of vehicle
US20230245469A1 (en) Method and processor circuit for localizing a motor vehicle in an environment during a driving operation and accordingly equipped motor vehicle
WO2019065564A1 (en) Automatic driving controller and method
KR20220078831A (en) Driver assistance system and driver assistance method
WO2016194168A1 (en) Travel control device and method
WO2023054655A1 (en) Preceding vehicle determination system
US20250304104A1 (en) Vehicle control device, control method, and computer readable medium storing control program
US12008905B2 (en) Curb detection system for commercial vehicles
JP2018185156A (en) Target position estimation method and target position estimation apparatus
JP7669836B2 (en) Vehicle control method and vehicle control device
JP2023151345A (en) Track shape estimation method and track shape estimation device
JP7800262B2 (en) Leading vehicle determination method and leading vehicle determination device
KR20220111763A (en) Apparatus and method for tracking vehicle based on v2v communication and lidar
JP7753958B2 (en) Driving control method and driving control device
US20250026346A1 (en) Vehicle Control Method and Vehicle Control Device
JP2022129177A (en) Driving support method and driving support device

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20190226

PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20200508

Patent event code: PA01071R01D

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20210929

Comment text: Request for Examination of Application

Patent event code: PA02011R04I

Patent event date: 20200508

Comment text: Divisional Application of Patent

Patent event code: PA02011R01I

Patent event date: 20190226

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230710

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240110

A107 Divisional application of patent
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20240313

Patent event code: PA01071R01D

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240408

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240408

End annual number: 3

Start annual number: 1

PG1601 Publication of registration