KR102680011B1 - Apparatus and method for recognizing object - Google Patents
Apparatus and method for recognizing object Download PDFInfo
- Publication number
- KR102680011B1 KR102680011B1 KR1020160168678A KR20160168678A KR102680011B1 KR 102680011 B1 KR102680011 B1 KR 102680011B1 KR 1020160168678 A KR1020160168678 A KR 1020160168678A KR 20160168678 A KR20160168678 A KR 20160168678A KR 102680011 B1 KR102680011 B1 KR 102680011B1
- Authority
- KR
- South Korea
- Prior art keywords
- location information
- vehicle
- interest
- image
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000001514 detection method Methods 0.000 claims abstract description 39
- 230000003213 activating effect Effects 0.000 claims abstract description 5
- 238000004891 communication Methods 0.000 claims description 16
- 230000006399 behavior Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001112258 Moca Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명에 따른 객체 인식 방법은 자차의 위치 정보를 획득하는 단계; 상기 자차의 위치 정보에 기초하여 객체를 검출하기 위한 검출 로직을 활성화시키는 단계; 카메라에 의해 촬영된 영상에서 상기 객체를 검출하기 위한 관심 영역을 결정하는 단계; 상기 결정된 관심 영역 상에서 검출기를 이용하여 상기 객체를 검출하는 단계 및 미리 학습된 인식기를 통해 상기 검출된 객체가 참-양성(true positive) 및 거짓-양성(false positive) 중 어느 것인지 여부를 판단하여 인식 결과를 생성하는 단계를 포함한다.An object recognition method according to the present invention includes the steps of acquiring location information of an own vehicle; activating detection logic to detect an object based on the location information of the own vehicle; determining a region of interest for detecting the object in an image captured by a camera; Detecting the object using a detector on the determined region of interest and recognizing the detected object by determining whether it is a true positive or a false positive through a pre-trained recognizer. Includes steps for generating results.
Description
본 발명은 객체 인식 장치 및 방법에 관한 것이다.The present invention relates to an object recognition device and method.
종래 기술에 따른 표지판 검출 시스템은 한국공개특허공보 제10-2015-0085988호, 제10-2015-0082823호, 제10-2015-0081480호에 개시된 바와 같이, 카메라로부터 영상을 입력받고 학습된 분류기(검출용)를 통해서 표지판의 후보 영역을 검출한 다음, 검출된 후보 영역을 학습된 분류기(인식용)를 이용하여 인식하는 로직으로 구성된다.A sign detection system according to the prior art, as disclosed in Korean Patent Publication Nos. 10-2015-0085988, 10-2015-0082823, and 10-2015-0081480, receives images from a camera and uses a learned classifier ( It consists of logic that detects the candidate area of the sign (for detection) and then recognizes the detected candidate area using a learned classifier (for recognition).
이러한 종래 기술의 경우 트레이닝된 검출기 및 인식기를 이용하므로, 트레이닝을 위한 데이터베이스의 양과 질이 매우 좋아야 하며, 이를 충족하더라도 미검출 및 오검출이 발생하는 경우가 매우 빈번하다는 문제가 있다.In the case of this prior art, since trained detectors and recognizers are used, the quantity and quality of the database for training must be very good, and even if this is met, there is a problem in that non-detection and false detection occur very frequently.
또한, 카메라 영상의 경우 카메라와 물체 간의 거리에 따라 영상 내 물체의 크기가 달라지도록 트레이닝된 검출기를 다양한 크기로 적용해야 하므로, 이에 따라 객체 인식을 위한 처리 속도가 매우 느려지게 되는 문제가 있다.Additionally, in the case of camera images, detectors trained so that the size of objects in the image vary depending on the distance between the camera and the object must be applied in various sizes, which causes the problem that the processing speed for object recognition becomes very slow.
이와 더불어, 수십 종의 표지판을 모두 인식하기 위해 다양한 검출기 및 인식기를 사용하게 되므로, 복잡도가 매우 증가되고 처리 속도 또한 저하될 수밖에 없다.In addition, since various detectors and recognizers are used to recognize dozens of types of signs, complexity greatly increases and processing speed inevitably decreases.
이러한 문제는 TLR(Traffic Light Recognition) 시스템에서도 동일하게 적용되며, 특징이 많은 표지판에 비해 신호등은 영상 특징이 부족하므로 이를 인식하기 위한 난이도가 매우 높다.This problem also applies to the TLR (Traffic Light Recognition) system. Compared to signs with many features, traffic lights lack image features, so the difficulty in recognizing them is very high.
한편, 한국등록특허공보 제10-1339255호는 정밀 지도를 활용하여 차선 검출 관심 영역(ROI)을 설정하는 내용을 개시하고 있다. 이때 차선 검출은 트레이닝된 검출기를 사용하지 않기 때문에 위 특허에서는 관심 영역 설정에만 정밀 지도를 활용할 수 있다는 한계가 존재한다.Meanwhile, Korean Patent Publication No. 10-1339255 discloses setting a lane detection region of interest (ROI) using a precision map. At this time, since lane detection does not use a trained detector, there is a limitation in the above patent that a precise map can only be used to set the area of interest.
정리하면, 종래 기술에 따른 TSR(Traffic Sign Recognition) 및 TLR은 다음과 같은 문제점이 존재한다.In summary, Traffic Sign Recognition (TSR) and TLR according to the prior art have the following problems.
먼저, 종래 기술의 경우 표지판 및 신호등의 크기가 작아 고화소 카메라를 사용해야 하며, 이 경우 영상의 크기가 커지므로 검출 시간이 오래 걸리게 된다는 문제가 있다.First, in the case of the prior art, the size of signs and traffic lights is small, so a high-pixel camera must be used. In this case, there is a problem that the detection time takes a long time because the image size is large.
또한, 카메라와 타겟 객체의 거리에 따라 영상 내 객체의 크기가 달라지게 되므로, 다양한 크기의 검출기를 사용해야 하는데, 이를 위해 검출기의 크기를 한번 변경시킬 때마다 처리시간이 한배씩 증가하게 된다.In addition, since the size of the object in the image varies depending on the distance between the camera and the target object, detectors of various sizes must be used. For this, the processing time increases by one time each time the size of the detector is changed.
또한, 작은 물체를 검출해야 하는바, 검출기가 사전에 매우 정교하게 튜닝되어 있어야 하며, 이에 따라 미검출율이 상승하게 된다.Additionally, since small objects must be detected, the detector must be tuned very precisely in advance, which increases the non-detection rate.
또한, 다양한 타겟 객체를 검출하기 위해서 검출기 및 인식기의 수가 증가하게 되는데, 이는 결국 처리 복잡도 및 처리 시간을 증가시키는 문제가 있다.Additionally, in order to detect various target objects, the number of detectors and recognizers increases, which ultimately increases processing complexity and processing time.
마지막으로, 미검출율을 줄이기 위해서 검출기의 임계값을 낮출 경우, 수많은 오검출이 발생하게 된다. 즉, 도심 등 다양한 배경 환경에서 영상 특징이 많지 않은 표지판과 신호등만을 정확하게 인식하는 것은 매우 어려운 문제이며, 검출기의 트레이닝을 아무리 완벽하게 수행하더라 하더라도 미검출율을 낮추기는 쉽지 않은 실정이다.Lastly, if the detector threshold is lowered to reduce the non-detection rate, numerous false detections will occur. In other words, it is a very difficult problem to accurately recognize only signs and traffic lights that do not have many image features in various background environments such as urban centers, and it is not easy to lower the non-detection rate no matter how perfectly the detector training is performed.
상술한 문제점이 발생하는 기본적이고 근본적인 원인은 도 1에 도시된 바와 같다.The basic and fundamental cause of the above-mentioned problem is as shown in FIG. 1.
도 1은 종래 기술에 따른 객체 인식 방법의 문제점을 설명하기 위한 도면이다.Figure 1 is a diagram to explain the problems of the object recognition method according to the prior art.
도 1에 도시된 바와 같이, 현재 입력되는 카메라 영상 내에서 표지판 및 신호등의 정확한 위치를 알 수 없어 영상 전체를 다양한 크기의 검출기를 통해 스캔(P1)해야하며, 이에 따라 객체 인식에 걸리는 처리 시간이 증가하게 되는 문제가 발생하게 되며, 또한 다양한 배경 환경(P2)을 가지는 경우 오검출이 발생하므로 객체 인식의 정확도가 낮아지게 되는 문제가 발생하게 된다.As shown in Figure 1, the exact location of signs and traffic lights within the currently input camera image is unknown, so the entire image must be scanned (P1) through detectors of various sizes, and as a result, the processing time required for object recognition is reduced. In addition, when there is a diverse background environment (P2), false detections occur and the accuracy of object recognition decreases.
본 발명의 실시예는 정밀 측위 기법에 기초하여 자차의 위치 정보를 획득하고, 영상으로부터 관심 영역을 설정하여 객체를 검출 및 인식함으로써, TSR, TLR의 기술적 문제인 미검출, 오검출 문제와 처리속도 감소 문제를 해소할 수 있는 객체 인식 장치 및 방법을 제공한다.The embodiment of the present invention acquires the location information of the own vehicle based on a precision positioning technique, sets an area of interest from the image, detects and recognizes the object, and reduces the processing speed and non-detection and false detection problems, which are technical problems of TSR and TLR. Provides an object recognition device and method that can solve the problem.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenge that this embodiment aims to achieve is not limited to the technical challenges described above, and other technical challenges may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 자차의 카메라에 의해 촬영된 영상으로부터 객체를 인식 방법은 자차의 위치 정보를 획득하는 단계; 상기 자차의 위치 정보에 기초하여 객체를 검출하기 위한 검출 로직을 활성화시키는 단계; 카메라에 의해 촬영된 영상에서 상기 객체를 검출하기 위한 관심 영역을 결정하는 단계; 상기 결정된 관심 영역 상에서 검출기를 이용하여 상기 객체를 검출하는 단계 및 미리 학습된 인식기를 통해 상기 검출된 객체가 참-양성(true positive) 및 거짓-양성(false positive) 중 어느 것인지 여부를 판단하여 인식 결과를 생성하는 단계를 포함한다.As a technical means for achieving the above-described technical problem, a method for recognizing an object from an image captured by a camera of the own vehicle according to the first aspect of the present invention includes the steps of acquiring location information of the own vehicle; activating detection logic to detect an object based on the location information of the own vehicle; determining a region of interest for detecting the object in an image captured by a camera; Detecting the object using a detector on the determined region of interest and recognizing the detected object by determining whether it is a true positive or a false positive through a pre-trained recognizer. Includes steps for generating results.
또한, 본 발명의 제 2 측면에 따른 자차의 카메라에 의해 촬영된 영상으로부터 객체를 인식하는 장치는 카메라에 의해 촬영된 영상을 수신하는 통신모듈, 객체를 인식하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 자차의 위치 정보에 기초하여 객체를 검출하기 위한 검출 로직을 활성화시키고, 상기 촬영된 영상에서 상기 객체를 검출하기 위한 관심 영역을 결정하여 검출기에 기초하여 상기 객체를 검출하고, 미리 학습된 인식기를 통해 상기 검출된 객체가 참-양성(true positive) 및 거짓-양성(false positive) 중 어느 것인지 여부를 판단하여 상기 객체의 인식 결과를 생성한다.In addition, a device for recognizing an object from an image captured by a camera of a vehicle according to the second aspect of the present invention includes a communication module that receives the image captured by the camera, a memory storing a program for recognizing the object, and the memory. Includes a processor that executes stored programs. At this time, as the processor executes the program, it activates detection logic for detecting an object based on the location information of the own vehicle, determines a region of interest for detecting the object in the captured image, and detects the object based on the detector. The object is detected, and a recognition result of the object is generated by determining whether the detected object is a true positive or a false positive through a pre-trained recognizer.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 표지판 또는 신호등이 존재할 가능성이 있는 일부 영역만 검색하고, 이미지 피라미드 기법, 다양한 크기의 검출기 사용 등 중복 검색할 필요가 없는바, 객체 인식에 소요되는 처리 시간을 최소화시킬 수 있다.According to one of the means for solving the problem of the present invention described above, only some areas where signs or traffic lights are likely to exist are searched, and there is no need for redundant searches such as the image pyramid technique or the use of detectors of various sizes, which are required for object recognition. Processing time can be minimized.
또한, 표지판이 확실히 존재하는 좁은 관심 영역에서만 검출 기법을 진행하면 되므로 미검출율, 오검출율을 최소화시킬 수 있다.In addition, since the detection technique only needs to be performed in a narrow area of interest where signs clearly exist, the non-detection rate and false detection rate can be minimized.
또한, 어떤 종류의 표지판이 존재하는지 정밀 지도를 통해 미리 알고 있는바, 모든 종류의 검출기 및 인식기를 사용할 필요가 없게 된다.Additionally, since what types of signs exist are known in advance through precise maps, there is no need to use all kinds of detectors and recognizers.
도 1은 종래 기술에 따른 객체 인식 방법의 문제점을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따라 객체를 인식하는 방법의 예시도이다.
도 3은 본 발명의 일 실시예에 따른 객체 인식 장치의 블록도이다.
도 4는 정밀 지도 내 자차의 위치와 객체의 위치를 도시한 도면이다.
도 5는 측위 위치 변경을 통해 관심 영역을 변경시키는 예시도이다.
도 6은 본 발명의 일 실시예를 통해 객체가 인식된 결과를 도시한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 객체 인식 방법의 순서도이다.Figure 1 is a diagram to explain the problems of the object recognition method according to the prior art.
Figure 2 is an exemplary diagram of a method for recognizing an object according to an embodiment of the present invention.
Figure 3 is a block diagram of an object recognition device according to an embodiment of the present invention.
Figure 4 is a diagram showing the location of the own vehicle and the location of the object within the precision map.
Figure 5 is an example of changing the area of interest by changing the positioning position.
Figure 6 is an example diagram showing the result of object recognition through an embodiment of the present invention.
Figure 7 is a flowchart of an object recognition method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part "includes" a certain element, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary.
본 발명은 객체 인식 장치(100) 및 방법에 관한 것이다.The present invention relates to an object recognition device 100 and method.
본 발명의 일 실시예에 따르면, 정밀 측위 기법에 기초하여 자차의 위치 정보를 획득하고, 영상으로부터 관심 영역을 설정하여 객체를 검출 및 인식함으로써, TSR, TLR의 기술적 문제인 미검출, 오검출 문제와 처리속도 감소 문제를 해소할 수 있다.According to an embodiment of the present invention, location information of the own vehicle is acquired based on a precision positioning technique, an area of interest is set from the image, and the object is detected and recognized, thereby solving the non-detection and false detection problems that are technical problems of TSR and TLR. This can solve the problem of reduced processing speed.
도 2는 본 발명의 일 실시예에 따라 객체를 인식하는 방법의 예시도이다.Figure 2 is an exemplary diagram of a method for recognizing an object according to an embodiment of the present invention.
즉, 도 2에 도시된 바와 같이 입력 영상 내에서 신호등 및 표지판이 있는 위치에 대해 대략적인 관심 영역(P3)을 결정해주고, 영상 내 표지판의 대략적인 크기를 알려준다면 종래 기술에 따른 문제를 해소할 수 있게 된다.In other words, as shown in FIG. 2, if the approximate area of interest (P3) is determined for the location of the traffic lights and signs in the input image and the approximate size of the sign in the image is known, the problems caused by the prior art can be solved. It becomes possible.
이하에서는 도 3 내지 도 6를 참조하여 본 발명의 일 실시예에 따른 자차의 카메라(10)에 의해 촬영된 영상으로부터 객체를 인식하는 장치(100)에 대해 설명하도록 한다.Hereinafter, with reference to FIGS. 3 to 6, an apparatus 100 for recognizing an object from an image captured by a camera 10 of a vehicle according to an embodiment of the present invention will be described.
도 3은 본 발명의 일 실시예에 따른 객체 인식 장치(100)의 블록도이다.Figure 3 is a block diagram of an object recognition device 100 according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 객체 인식 장치(100)는 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다.The object recognition device 100 according to an embodiment of the present invention includes a communication module 110, a memory 120, and a processor 130.
통신모듈(110)은 카메라(10)에 의해 촬영된 영상을 수신한다. 이러한 카메라(10)는 자차에 미리 설치된 전방 카메라 등일 수 있다. 또는, 스마트폰의 카메라나 별도의 영상을 촬영하는 카메라일 수 있으며, 이 경우 촬영된 영상은 무선 또는 유선 네트워크를 통해 자차의 통신모듈로 전송될 수 있다.The communication module 110 receives images captured by the camera 10. This camera 10 may be a front camera pre-installed in the vehicle. Alternatively, it may be a smartphone camera or a camera that captures separate images. In this case, the captured images may be transmitted to the vehicle's communication module through a wireless or wired network.
이와 같은 통신모듈(110)은 유선 통신모듈 및 무선 통신모듈을 모두 포함할 수 있다. 유선 통신모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신모듈은 WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다. This communication module 110 may include both a wired communication module and a wireless communication module. The wired communication module can be implemented as a power line communication device, telephone line communication device, cable home (MoCA), Ethernet, IEEE1294, integrated wired home network, and RS-485 control device. Additionally, wireless communication modules can be implemented with WLAN (wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, wireless USB technology, and wireless HDMI technology.
바람직하게 통신모듈(110)은 CAN(Controller Area Network)로 구현될 수 있다.Preferably, the communication module 110 may be implemented as CAN (Controller Area Network).
메모리(120)에는 객체를 인식하기 위한 프로그램이 저장된다. 여기에서 객체는 신호등 또는 표지판을 의미하는 것이나 반드시 이에 한정되는 것은 아니며, 교통 정보를 획득하기 위한 다양한 식별 가능한 대상일 수 있다.A program for recognizing objects is stored in the memory 120. Here, the object refers to a traffic light or sign, but is not necessarily limited thereto, and may be a variety of identifiable objects for obtaining traffic information.
이때, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. At this time, the memory 120 is a general term for non-volatile storage devices and volatile storage devices that continue to retain stored information even when power is not supplied.
예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, memory 120 may include compact flash (CF) cards, secure digital (SD) cards, memory sticks, solid-state drives (SSD), and micro SD. This includes NAND flash memory such as cards, magnetic computer storage devices such as hard disk drives (HDD), and optical disc drives such as CD-ROM, DVD-ROM, etc. You can.
프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시키며, 프로그램을 실행시킴에 따라 촬영된 영상으로부터 객체를 인식할 수 있다. The processor 130 executes a program stored in the memory 120, and by executing the program, an object can be recognized from the captured image.
구체적으로 프로세서는 먼저 자차의 위치 정보를 획득한다. 이때, 프로세서(130)는 위성 항법, 차량 거동 기반의 추측 항법 및 맵 매칭 기법을 이용하여 자차의 정밀 측위를 수행할 수 있다.Specifically, the processor first obtains location information of the own vehicle. At this time, the processor 130 can perform precise positioning of the own vehicle using satellite navigation, dead reckoning based on vehicle behavior, and map matching techniques.
프로세서(130)는 위성 항법에 기초하여 자차의 제 1 위치 정보를 획득한다. 위성 항법이란 GPS, DGPS, Network-RTK 등 GNSS(Global Navigation Satellite System)를 기반으로 하는 측위 방법으로서, 절대 좌표를 위성을 통해 전달받을 수 있는 기법이다. The processor 130 obtains first location information of the own vehicle based on satellite navigation. Satellite navigation is a positioning method based on GNSS (Global Navigation Satellite System) such as GPS, DGPS, and Network-RTK, and is a technique that allows absolute coordinates to be transmitted through satellites.
위치 항법의 경우 오차는 5~50m로 가변적인바, 도심 지역 등 멀티 패스가 발생하는 지역에서는 획득한 위치 정보를 전적으로 신뢰할 수 없다는 단점이 있다.In the case of location navigation, the error is variable at 5 to 50 m, and there is a disadvantage that the acquired location information cannot be completely trusted in areas where multi-paths occur, such as urban areas.
이러한 단점을 보완하기 위하여, 프로세서(130)는 차량 거동 기반의 추측 항법(Dead Reckoning)에 기초하여 제 1 위치 정보를 보정한 제 2 위치 정보를 획득한다. 차량 거동 기반의 추측 항법은 차량 센서 및 차속, 조향각, 휠오도미터, 요 레이트, 가속도 등을 측정하는 관성 측정 장치(IMU, Inertial Measurement Unit)를 활용하여 위성 항법에 의해 측정된 제 1 위치 정보를 보정하는 방법이다.In order to compensate for this shortcoming, the processor 130 acquires second location information by correcting the first location information based on dead reckoning based on vehicle behavior. Dead reckoning based on vehicle behavior utilizes vehicle sensors and an inertial measurement unit (IMU) that measures vehicle speed, steering angle, wheel odometer, yaw rate, acceleration, etc. to provide first position information measured by satellite navigation. This is a way to correct it.
차량 거동 기반의 추측 항법은 자차의 움직임을 누적함으로써 계산되며, 시간이 지남에 따라 오차는 누적되게 된다. 그 오차는 1~10m정도로 제 1 위치 정보를 보정할 수 있으나, 오차 누적이 계속하여 발생하게 된다.Dead reckoning based on vehicle behavior is calculated by accumulating the movement of the own vehicle, and errors accumulate over time. The first location information can be corrected with an error of about 1 to 10 m, but error accumulation continues to occur.
이를 위해 프로세서(130)는 미리 저장된 자율 주행용 정밀 지도를 이용하는 맵 매칭 기법에 기초하여 제 2 위치 정보를 보정한 제 3 위치 정보를 획득하여 자차의 최종 위치 정보로 적용할 수 있다.To this end, the processor 130 may obtain third location information by correcting the second location information based on a map matching technique using a pre-stored precision map for autonomous driving and apply it as the final location information of the own vehicle.
맵 매칭 기법은 자율 주행용 정밀 지도와 자차에 설치된 하나 이상의 센서(예를 들어, 카메라, 스테레오 카메라, AVM 카메라, 라이다 등)를 통해 획득한 데이터의 비교 결과에 기초하여 차량의 위치를 상대적으로 추정한 제 3 위치 정보를 획득하는 방법이다. The map matching technique determines the vehicle's location relatively based on the results of comparison between a precision map for autonomous driving and data acquired through one or more sensors installed on the vehicle (e.g., camera, stereo camera, AVM camera, lidar, etc.). This is a method of obtaining estimated third location information.
여기에서 정밀 지도란 차선, 노면 정보, 표지판 정보, 신호등 정보 등의 3차원 좌표 등을 현실 세계(Real World)와 최대한 비슷하게 구축해놓은 지도를 의미한다.Here, a precision map refers to a map constructed with three-dimensional coordinates of lanes, road surface information, sign information, and traffic light information as similar to the real world as possible.
이와 같은 과정을 통해 프로세서(130)는 최종적으로 cm단위의 자율 주행이 가능한 수준의 위치 정보를 획득할 수 있다.Through this process, the processor 130 can ultimately obtain location information at a level that enables autonomous driving in cm units.
자차의 위치 정보를 획득하고 나면, 프로세서(130)는 자차의 위치 정보에 기초하여 객체를 검출하기 위한 검출 로직을 활성화시킨다.After obtaining the location information of the own vehicle, the processor 130 activates detection logic to detect an object based on the location information of the own vehicle.
도 4는 정밀 지도 내 자차의 위치와 객체의 위치를 도시한 도면이다.Figure 4 is a diagram showing the location of the own vehicle and the location of the object within the precision map.
구체적으로 프로세서는 정밀 지도에서의 자차의 위치(P5)와, 정밀 지도 내에 구축된 객체의 3차원 위치 정보(P4)를 비교하고, 비교 결과 자차의 위치와 기 설정된 거리(P6) 내에 객체가 존재하는지 여부를 판단하여, 기 설정된 거리(P6) 내에 존재하는 경우 검출 로직을 활성화시킨다.Specifically, the processor compares the position of the own vehicle in the precision map (P5) with the 3D location information (P4) of the object built in the precision map, and as a result of the comparison, the object exists within the position of the own vehicle and a preset distance (P6). It determines whether or not it is present, and activates the detection logic if it is within a preset distance (P6).
이러한 과정을 통해 검출 로직을 활성화시키게 되면, 근처에 표지판 또는 신호등 등의 객체가 없는 경우에는 검출 로직이 비활성화되어 동작하지 않게 되므로, 객체 인식을 위한 처리 시간을 감소시킬 수 있으며 오검출되는 현상을 줄일 수 있는 효과도 기대할 수 있다.When the detection logic is activated through this process, if there are no objects such as signs or traffic lights nearby, the detection logic is deactivated and does not operate, which can reduce the processing time for object recognition and reduce the phenomenon of false detection. Possible effects can also be expected.
한편, 검출 로직이 활성화된 경우 프로세서(130)는 카메라(10)에 의해 촬영된 영상에서 객체를 검출하기 위한 관심 영역을 결정한다. 이때, 프로세서(130)는 촬영된 영상과 정밀 지도를 영상의 타임 스탬프(time stamp)에 기초하여 타임 동기화 시킨다. 이는 자차의 위치가 연속해서 변하기 때문에, 같은 위치에서 얻은 영상 및 정밀 지도가 필요하기 때문이다.Meanwhile, when the detection logic is activated, the processor 130 determines a region of interest for detecting an object in the image captured by the camera 10. At this time, the processor 130 time-synchronizes the captured image and the precision map based on the time stamp of the image. This is because the position of the own vehicle changes continuously, so images and precise maps obtained from the same location are needed.
타임 동기화는 영상의 타임 스탬프를 기준으로 하여 정밀 지도를 이동 또는 회전 변환시키며, 시간의 차이에 따라 차량의 위치 차이는 추측 항법의 궤적 정보를 통해 계산될 수 있다.Time synchronization moves or rotates the precision map based on the time stamp of the image, and the difference in vehicle position according to the time difference can be calculated through dead-reckoning trajectory information.
타임 동기화를 수행한 다음, 프로세서(130)는 정밀 지도 내의 차량 중심 좌표계로 표현된 객체의 3차원 위치 정보를 식 1을 통해 영상 좌표계로 매핑한다.After performing time synchronization, the processor 130 maps the 3D location information of the object expressed in the vehicle-centered coordinate system in the precision map to the image coordinate system through Equation 1.
여기에서, (X, Y, Z)는 실제 현실에서의 3차원 좌표를 의미하며, (u, v)는 픽셀의 투영된 좌표를 의미한다. 그리고 A는 카메라 행렬 또는 카메라의 고유 파라미터를 의미하며, (cx, cy)는 영상 중심에서의 주요 좌표 정보(principal point)를 의미하고, (fx, fy)는 픽셀 단위에서 의 초첨 거리(focal lengths)를 의미한다.Here, (X, Y, Z) means three-dimensional coordinates in reality, and (u, v) means the projected coordinates of the pixel. And A refers to the camera matrix or unique parameters of the camera, (c x , c y ) refers to the principal point of the image center , and ( f It refers to distances (focal lengths).
한편, 차량의 종방향 및 횡방향의 측위가 정확할 경우, 영상 내의 관심 영역(ROI)는 정확히 결정될 수 있다. 그러나 차선 등을 활용하는 맵 매칭 기법의 특성상, 종방향의 정확도가 횡방향 측위의 정확도보다 상대적으로 낮을 수 있다.Meanwhile, if the longitudinal and lateral positioning of the vehicle is accurate, the region of interest (ROI) in the image can be accurately determined. However, due to the nature of the map matching technique that utilizes lanes, etc., the accuracy in the longitudinal direction may be relatively lower than the accuracy of the lateral positioning.
따라서, 종방향 측위 오차로 인해 관심 영역 결정에 오류가 포함될 수 있다.Therefore, errors may be included in determining the region of interest due to longitudinal positioning errors.
이와 같은 문제를 해소하기 위하여, 본 발명의 일 실시예에서는 프로세서(130)가 도 5에 도시된 바와 같이 차량의 종방향 위치를 변경해가며 관심 영역을 변경시킨다. 그리고 변경된 관심 영역에 객체가 검출된 경우 프로세서(130)는 해당 영역을 관심 영역으로 결정할 수 있다.To solve this problem, in one embodiment of the present invention, the processor 130 changes the area of interest by changing the longitudinal position of the vehicle, as shown in FIG. 5. And when an object is detected in the changed area of interest, the processor 130 may determine the area to be the area of interest.
도 5는 측위 위치 변경을 통해 관심 영역을 변경시키는 예시도이다.Figure 5 is an example of changing the area of interest by changing the positioning position.
차량의 종방향 위치 변화는 현재 추정된 측위 위치에서 일정 범위만큼 이동하며, 가까운 곳에서 점점 먼 곳으로 이동한다(③ → ②, ④ → ①, ⑤). 이때, 종방향의 측위가 정확한 경우에는 한번의 시도로 관심 영역 결정이 완료될 수도 있다.The change in the longitudinal position of the vehicle moves within a certain range from the currently estimated positioning position, moving from closer to farther away (③ → ②, ④ → ①, ⑤). At this time, if the longitudinal positioning is accurate, determination of the area of interest may be completed in one attempt.
만약, 프로세서(130)가 일정 횟수(예를 들어 5회)만큼 종방향을 이동하여 오브젝트 검출을 시도하였으나, 검출이 되지 않은 경우 해당 결과를 실패 처리하며, 실패 처리가 기 설정된 횟수 이상 누적되게 되면 프로세서(130)는 자차의 위치 정보가 잘못 획득된 것으로 판단할 수 있다.If the processor 130 attempts to detect an object by moving in the longitudinal direction a certain number of times (for example, 5 times), but is not detected, the result is treated as a failure, and if the failure process accumulates more than a preset number of times, The processor 130 may determine that the location information of the own vehicle was obtained incorrectly.
이와 같은 본 발명의 일 실시예는 결정된 관심 영역을 참고하여 자차의 종방향 측위 오차 보정에도 활용할 수 있다.This embodiment of the present invention can also be used to correct longitudinal positioning error of the own vehicle by referring to the determined area of interest.
관심 영역이 결정되고 나면, 프로세서(130)는 결정된 관심 영역 내에서 정해진 검출기에 기초하여 객체를 검출할 수 있다. 이때, 검출기는 정밀 지도에 등록되어 있는 객체의 종류(예를 들어 표지판 또는 신호등의 종류)에 따라 미리 학습되어 있을 수 있다. Once the area of interest is determined, the processor 130 may detect an object within the determined area of interest based on a determined detector. At this time, the detector may be trained in advance according to the type of object registered in the precision map (for example, the type of sign or traffic light).
이에 따라 프로세서(130)는 학습된 검출기 중 객체의 종류에 대응되는 검출기를 선택하여 사용할 수 있다. 예를 들어 객체의 종류가 속도 표지판인 경우, 속도 표지판, 주의 표지판, 지시 표지판 중 속도 표지판에 대응되는 검출기를 선택하여 사용할 수 있다.Accordingly, the processor 130 can select and use a detector corresponding to the type of object among the learned detectors. For example, if the type of object is a speed sign, the detector corresponding to the speed sign can be selected and used among speed signs, caution signs, and instruction signs.
또한, 프로세서(130)는 정밀 지도에 등록되어 있는 객체의 크기를 식 1에 대입하여, 영상에 포함된 객체의 크기를 산출할 수 있다. 이에 따라, 본 발명의 일 실시예는 정해진 크기의 검출기만을 사용하여 객체를 검출할 수 있다.Additionally, the processor 130 may calculate the size of the object included in the image by substituting the size of the object registered in the precision map into Equation 1. Accordingly, an embodiment of the present invention can detect an object using only a detector of a fixed size.
이와 같이 영상으로부터 객체가 검출되었다면, 프로세서(130)는 검출된 객체에 대하여 미리 학습된 인식기를 통해 참-양성(true positive) 및 거짓 양성(false positive) 중 어느 것인지 여부를 판단하여 객체의 인식 결과를 생성할 수 있다.In this way, if an object is detected from the image, the processor 130 determines whether the detected object is a true positive or a false positive through a recognizer learned in advance, and results in recognition of the object. can be created.
도 6은 본 발명의 일 실시예를 통해 객체가 인식된 결과를 도시한 예시도이다.Figure 6 is an example diagram showing the result of object recognition through an embodiment of the present invention.
도 6을 참조하면, 영상 내에 포함된 신호등 및 표지판에 대응되는 관심 영역(P6)을 결정할 수 있으며, 해당 관심 영역(P6) 내에 포함된 신호등, 표지판(P7)을 정확히 검출할 수 있다.Referring to FIG. 6, the area of interest (P6) corresponding to the traffic light and sign included in the image can be determined, and the traffic light and sign (P7) included within the area of interest (P6) can be accurately detected.
참고로, 본 발명의 실시예에 따른 도 3에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, the components shown in FIG. 3 according to an embodiment of the present invention may be implemented in the form of software or hardware such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and perform certain roles. can do.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not limited to software or hardware, and each component may be configured to reside on an addressable storage medium or may be configured to run on one or more processors.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, and sub-processes. Includes routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within them may be combined into a smaller number of components or further separated into additional components.
이하에서는 도 7을 참조하여 본 발명의 일 실시예에 따른 객체 인식 장치(100)에서의 객체 인식 방법을 설명하도록 한다.Hereinafter, an object recognition method in the object recognition device 100 according to an embodiment of the present invention will be described with reference to FIG. 7.
도 7은 본 발명의 일 실시예에 따른 객체 인식 방법의 순서도이다.Figure 7 is a flowchart of an object recognition method according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 객체 인식 방법은 먼저, 위성 항법, 차량 거동 기반의 추측 항법 및 맵 매칭 기법에 기초하여 자차의 위치 정보를 획득한다(S110).The object recognition method according to an embodiment of the present invention first acquires location information of the own vehicle based on satellite navigation, dead reckoning based on vehicle behavior, and map matching techniques (S110).
다음으로, 자차의 위치 정보에 기초하여 객체를 검출하기 위한 검출 로직을 활성화시킨다(S120). 이러한 검출 로직은 정밀 지도에서의 자차의 위치와 정밀 지도 내에 구축된 객체의 3차원 위치 정보를 비교하여 기 설정된 거리 내에 존재하는 경우, 검출 로직을 활성화시킬 수 있다.Next, detection logic for detecting an object is activated based on the location information of the own vehicle (S120). This detection logic compares the position of the own vehicle on the precision map with the 3D location information of the object constructed within the precision map, and can activate the detection logic if the object is within a preset distance.
다음으로, 카메라(10)에 의해 촬영된 영상에서 객체를 검출하기 위한 관심 영역을 결정한다(S130). 이때, 관심 영역을 결정함에 있어, 자차의 종방향 위치를 변경하여 관심 영역을 변경하고, 변경된 관심 영역에 객체가 검출된 경우 해당 영역을 관심 영역으로 결정할 수 있다.Next, a region of interest for detecting an object in the image captured by the camera 10 is determined (S130). At this time, in determining the area of interest, the area of interest may be changed by changing the longitudinal position of the own vehicle, and if an object is detected in the changed area of interest, the area may be determined as the area of interest.
또한, 기 설정된 횟수 이상 변경된 관심 영역에 객체가 검출되지 않은 경우에는 자차의 위치 정보가 잘못 획득된 것으로 판단할 수 있다.Additionally, if an object is not detected in the area of interest that has changed more than a preset number of times, it may be determined that the location information of the own vehicle has been obtained incorrectly.
다음으로, 결정된 관심 영역 상에서 검출기를 이용하여 객체를 검출한다(S140). 검출기는 정밀 지도에 포함된 객체의 종류에 따라 미리 학습되어 있으며, 학습된 검출기 중 객체의 종류에 대응되는 검출기를 선택하여 사용할 수 있다.Next, an object is detected using a detector on the determined area of interest (S140). The detector is learned in advance according to the type of object included in the precision map, and the detector corresponding to the type of object can be selected and used among the learned detectors.
다음으로, 미리 학습된 인식기를 통해 상기 검출된 객체가 참-양성(true positive) 및 거짓-양성(false positive) 중 어느 것인지 여부를 판단하여 최종 인식 결과를 생성한다(S150). Next, a pre-trained recognizer determines whether the detected object is a true positive or a false positive to generate a final recognition result (S150).
한편, 상술한 설명에서, 단계 S110 내지 S150은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 2 내지 도 6에서 이미 기술된 내용은 도 7의 객체 인식 방법에도 적용될 수 있다. Meanwhile, in the above description, steps S110 to S150 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present invention. Additionally, some steps may be omitted or the order between steps may be changed as needed. In addition, even if other omitted content, the content already described in FIGS. 2 to 6 can also be applied to the object recognition method of FIG. 7.
이와 같은 본 발명의 일 실시예 중 어느 하나에 의하면, 표지판 또는 신호등이 존재할 가능성이 있는 일부 영역만 검색하고, 이미지 피라미드 기법, 다양한 크기의 검출기 사용 등 중복 검색할 필요가 없는바, 객체 인식에 소요되는 처리 시간을 최소화시킬 수 있다.According to one of the embodiments of the present invention, only some areas where signs or traffic lights are likely to exist are searched, and there is no need for redundant searches such as the image pyramid technique or the use of detectors of various sizes, which are required for object recognition. Processing time can be minimized.
또한, 표지판이 확실히 존재하는 좁은 관심 영역에서만 검출 기법을 진행하면 되므로 미검출율, 오검출율을 최소화시킬 수 있다.In addition, since the detection technique only needs to be performed in a narrow area of interest where signs clearly exist, the non-detection rate and false detection rate can be minimized.
또한, 어떤 종류의 표지판이 존재하는지 정밀 지도를 통해 미리 알고 있는바, 모든 종류의 검출기 및 인식기를 사용할 필요가 없게 된다.Additionally, since what types of signs exist are known in advance through precise maps, there is no need to use all kinds of detectors and recognizers.
한편, 본 발명의 일 실시예는 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. Meanwhile, an embodiment of the present invention may also be implemented in the form of a computer program stored on a medium executed by a computer or a recording medium containing instructions executable by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery medium.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with respect to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
10: 카메라
100: 객체 인식 장치
110: 통신모듈
120: 메모리
130: 프로세서10: Camera
100: object recognition device
110: Communication module
120: memory
130: processor
Claims (13)
자차의 위치 정보를 획득하는 단계;
상기 자차의 위치 정보에 기초하여 객체를 검출하기 위한 검출 로직을 활성화시키는 단계;
카메라에 의해 촬영된 영상에서 상기 객체를 검출하기 위한 관심 영역을 결정하는 단계;
상기 결정된 관심 영역 상에서 검출기를 이용하여 상기 객체를 검출하는 단계 및
미리 학습된 인식기를 통해 상기 검출된 객체가 참-양성(true positive) 및 거짓-양성(false positive) 중 어느 것인지 여부를 판단하여 인식 결과를 생성하는 단계를 포함하고,
상기 자차의 위치 정보를 획득하는 단계는,
위성 항법에 기초하여 자차의 제 1 위치 정보를 획득하는 단계;
차량 거동 기반의 추측 항법에 기초하여 상기 제 1 위치 정보를 보정한 제 2 위치 정보를 획득하는 단계 및
미리 저장된 자율 주행용 정밀 지도를 이용하는 맵 매칭 기법에 기초하여 상기 제 2 위치 정보를 보정한 제 3 위치 정보를 획득하여 상기 위치 정보로 적용하는 단계를 포함하며,
상기 자차의 위치 정보에 기초하여 검출 로직을 활성화시키는 단계는,
상기 정밀 지도에서의 상기 자차의 위치와, 상기 정밀 지도 내에 구축된 객체의 3차원 위치 정보를 비교하는 단계;
상기 비교 결과 기 설정된 거리 내에 상기 객체가 존재하는지 여부를 판단하는 단계 및
상기 판단 결과 기 설정된 거리 내에 존재하는 경우, 상기 검출 로직을 활성화시키는 단계를 포함하고,
상기 관심 영역을 결정 하는 단계는,
상기 촬영된 영상과 상기 정밀 지도를 상기 영상의 타임 스탬프에 기초하여 타임 동기화시키는 단계;
상기 타임 동기화된 상기 정밀 지도 내의 객체의 3차원 위치 정보를 영상 좌표계로 매핑하는 단계를 포함하는 것
인 객체 인식 방법.
In a method of recognizing an object from an image captured by a vehicle's camera,
Obtaining location information of the own vehicle;
activating detection logic to detect an object based on the location information of the own vehicle;
determining a region of interest for detecting the object in an image captured by a camera;
detecting the object using a detector on the determined area of interest; and
Generating a recognition result by determining whether the detected object is a true positive or a false positive through a pre-trained recognizer,
The step of acquiring the location information of the own vehicle is,
Obtaining first location information of the own vehicle based on satellite navigation;
Obtaining second location information by correcting the first location information based on dead reckoning based on vehicle behavior, and
Obtaining third location information corrected for the second location information based on a map matching technique using a pre-stored precision map for autonomous driving and applying it as the location information,
The step of activating the detection logic based on the location information of the own vehicle includes:
Comparing the position of the own vehicle in the precise map and 3D location information of an object constructed in the precise map;
Determining whether the object exists within a preset distance as a result of the comparison, and
When it is determined that the distance is within a preset distance, activating the detection logic;
The step of determining the area of interest is,
Time-synchronizing the captured image and the precise map based on a time stamp of the image;
Comprising the step of mapping 3D location information of objects in the time-synchronized precise map into an image coordinate system.
Object recognition method.
상기 차량 거동 기반의 추측 항법은 상기 자차에 설치된 차량 센서 및 IMU를 이용하여 상기 제 1 위치 정보를 보정하는 것인 객체 인식 방법.
According to claim 1,
The vehicle behavior-based dead-reckoning method is an object recognition method that corrects the first location information using a vehicle sensor and IMU installed in the own vehicle.
상기 맵 매칭 기법은 상기 자율 주행용 정밀 지도와 상기 자차에 설치된 하나 이상의 센서를 통해 획득한 데이터의 비교 결과에 기초하여 상기 자차의 상대적 위치가 추정된 제 3 위치 정보를 획득하는 것인 객체 인식 방법.
According to claim 1,
The map matching technique is an object recognition method that obtains third location information in which the relative position of the own vehicle is estimated based on a comparison result between the precision map for autonomous driving and data acquired through one or more sensors installed in the own vehicle. .
상기 관심 영역을 결정하는 단계는,
상기 자차의 종방향 위치를 변경하여 관심 영역을 변경하는 단계;
상기 변경된 관심 영역에 상기 객체가 검출된 경우 상기 관심 영역으로 결정하는 단계를 포함하는 것인 객체 인식 방법.
According to claim 1,
The step of determining the region of interest is,
changing the area of interest by changing the longitudinal position of the own vehicle;
An object recognition method comprising determining the changed region of interest as the region of interest when the object is detected in the changed region of interest.
상기 변경된 관심 영역에 상기 객체가 검출된 경우 상기 관심 영역으로 결정하는 단계는,
기 설정된 횟수 이상 변경된 관심 영역에서 객체가 검출되지 않는 경우, 상기 자차의 위치 정보가 잘못 획득된 것으로 판단하는 것인 객체 인식 방법.
According to claim 7,
When the object is detected in the changed area of interest, the step of determining the area of interest is:
An object recognition method in which, when an object is not detected in an area of interest that has changed more than a preset number of times, it is determined that the location information of the own vehicle has been obtained incorrectly.
상기 검출기는 상기 정밀 지도에 포함된 상기 객체의 종류에 따라 미리 학습되어 있고,
상기 객체를 검출하는 단계는,
상기 학습된 검출기 중 상기 객체의 종류에 대응되는 검출기를 선택하여 사용하는 것인 객체 인식 방법.
According to claim 1,
The detector is trained in advance according to the type of the object included in the precision map,
The step of detecting the object is,
An object recognition method that selects and uses a detector corresponding to the type of the object among the learned detectors.
상기 정밀 지도에 포함된 상기 객체의 크기를 산출하는 단계를 더 포함하는 객체 인식 방법.
According to claim 1,
An object recognition method further comprising calculating the size of the object included in the precision map.
카메라에 의해 촬영된 영상을 수신하는 통신모듈,
객체를 인식하기 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 자차의 위치 정보에 기초하여 객체를 검출하기 위한 검출 로직을 활성화시키고, 상기 촬영된 영상에서 상기 객체를 검출하기 위한 관심 영역을 결정하여 검출기에 기초하여 상기 객체를 검출하고, 미리 학습된 인식기를 통해 상기 검출된 객체가 참-양성(true positive) 및 거짓-양성(false positive) 중 어느 것인지 여부를 판단하여 상기 객체의 인식 결과를 생성하고,
상기 프로세서는 위성 항법에 기초한 자차의 제 1 위치 정보를 획득하고, 차량 거동 기반의 추측 항법에 기초하여 상기 제 1 위치 정보를 보정한 제 2 위치 정보를 획득한 뒤, 미리 저장된 자율 주행용 정밀 지도를 이용하는 맵 매칭 기법에 기초하여 상기 제 2 위치 정보를 보정한 제 3 위치 정보를 획득하여 상기 위치 정보로 적용하며,
상기 프로세서는 상기 정밀 지도에서의 상기 자차의 위치와, 상기 정밀 지도 내에 구축된 객체의 3차원 위치 정보를 비교한 결과, 기 설정된 거리 내에 상기 객체가 존재하는지 여부를 판단하고, 상기 판단 결과 기 설정된 거리 내에 존재하는 경우, 상기 검출 로직을 활성화시키고,
상기 프로세서는 상기 촬영된 영상과 상기 정밀 지도를 상기 영상의 타임 스탬프에 기초하여 타임 동기화시키고, 상기 타임 동기화된 상기 정밀 지도 내의 객체의 3차원 위치 정보를 영상 좌표계로 매핑하는 것
인 객체 인식 장치.
In a device that recognizes an object from an image captured by a vehicle's camera,
A communication module that receives images captured by a camera,
Memory where a program for recognizing objects is stored and
Including a processor that executes the program stored in the memory,
As the processor executes the program, it activates detection logic for detecting an object based on the location information of the own vehicle, determines a region of interest for detecting the object in the captured image, and detects the object based on the detector. Detecting an object, determining whether the detected object is a true positive or a false positive through a pre-trained recognizer, and generating a recognition result of the object,
The processor acquires first location information of the own vehicle based on satellite navigation, acquires second location information corrected for the first location information based on dead reckoning based on vehicle behavior, and then generates a pre-stored precision map for autonomous driving. Obtain third location information that corrects the second location information based on a map matching technique using and apply it as the location information,
The processor determines whether the object exists within a preset distance as a result of comparing the position of the own vehicle in the precision map and the 3D position information of the object constructed in the precision map, and determines whether the object exists within a preset distance as a result of the determination. If present within the distance, activate the detection logic,
The processor time-synchronizes the captured image and the precision map based on the time stamp of the image, and maps the 3D location information of the object in the time-synchronized precision map into an image coordinate system.
Object recognition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160168678A KR102680011B1 (en) | 2016-12-12 | 2016-12-12 | Apparatus and method for recognizing object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160168678A KR102680011B1 (en) | 2016-12-12 | 2016-12-12 | Apparatus and method for recognizing object |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180067199A KR20180067199A (en) | 2018-06-20 |
KR102680011B1 true KR102680011B1 (en) | 2024-07-02 |
Family
ID=62769814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160168678A Active KR102680011B1 (en) | 2016-12-12 | 2016-12-12 | Apparatus and method for recognizing object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102680011B1 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101948728B1 (en) | 2018-09-28 | 2019-02-15 | 네이버랩스 주식회사 | Method and system for collecting data |
KR102692320B1 (en) * | 2018-12-07 | 2024-08-07 | 현대자동차주식회사 | Apparatus for managing driving pattern based on object recognition, vehicle driving controlling apparatus using the same and method thereof |
KR102270799B1 (en) * | 2018-12-07 | 2021-06-29 | 아진산업(주) | Around View Monitor System with camera blind spot restoration |
EP3904835A4 (en) * | 2018-12-24 | 2022-10-05 | LG Electronics Inc. | Route providing device and route providing method thereof |
KR102742357B1 (en) * | 2019-01-22 | 2024-12-13 | 현대모비스 주식회사 | Apparatus and method for detecting object |
KR102196838B1 (en) | 2019-10-23 | 2020-12-30 | 주식회사 세븐미어캣 | Apparatus for recognition the pollution level and breakage level of object |
KR102337034B1 (en) * | 2020-02-26 | 2021-12-09 | 슈어소프트테크주식회사 | Autonomous driving situation recognition program performance test method and apparatus for porceeding the same |
KR102475911B1 (en) | 2020-03-08 | 2022-12-13 | 주식회사 아이언맨 | Electrical signal processing apparatus using Deep learning image processing technology |
KR102214488B1 (en) * | 2020-07-07 | 2021-02-10 | 마스코리아 주식회사 | Entry control system for autonomous vehicles at intersections |
CN118259316B (en) * | 2024-05-31 | 2024-07-30 | 国家海洋环境监测中心 | Sea area ship track prediction method and system based on Beidou system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119591A (en) * | 2004-09-22 | 2006-05-11 | Mitsubishi Electric Corp | Map information generation method, map information generation program and map information collection apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100723834B1 (en) * | 2005-06-17 | 2007-05-31 | 한국전자통신연구원 | Apparatus and method for correcting vehicle position in a vehicle navigation system |
KR101454153B1 (en) * | 2013-09-30 | 2014-11-03 | 국민대학교산학협력단 | Navigation system for unmanned ground vehicle by sensor fusion with virtual lane |
KR20150145685A (en) * | 2014-06-20 | 2015-12-30 | 주식회사 세인전장 | Apparatus for recognizing target and method thereof using global positioning system |
-
2016
- 2016-12-12 KR KR1020160168678A patent/KR102680011B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119591A (en) * | 2004-09-22 | 2006-05-11 | Mitsubishi Electric Corp | Map information generation method, map information generation program and map information collection apparatus |
Non-Patent Citations (3)
Title |
---|
한국 공개특허공보 제10-2006-0132302호(2006.12.21.) 1부.* |
한국 공개특허공보 제10-2015-0145685호(2015.12.30.) 1부.* |
한국 등록특허공보 제10-1454153호(2014.11.03.) 1부.* |
Also Published As
Publication number | Publication date |
---|---|
KR20180067199A (en) | 2018-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102680011B1 (en) | Apparatus and method for recognizing object | |
US11915099B2 (en) | Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data | |
EP4145393B1 (en) | Vehicle localization | |
US10788830B2 (en) | Systems and methods for determining a vehicle position | |
CN110895826B (en) | Image processing training data generation method, image processing method and device | |
CN107235044B (en) | A kind of restoring method realized based on more sensing datas to road traffic scene and driver driving behavior | |
US11086334B2 (en) | Crowdsourcing a sparse map for autonomous vehicle navigation | |
Schreiber et al. | Laneloc: Lane marking based localization using highly accurate maps | |
US11200432B2 (en) | Method and apparatus for determining driving information | |
RU2720140C1 (en) | Method for self-position estimation and self-position estimation device | |
CN111902694A (en) | System and method for determining navigation parameters | |
KR20200044420A (en) | Method and device to estimate position | |
KR102660497B1 (en) | System for positioning location information of car | |
US9336595B2 (en) | Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function | |
JP6758160B2 (en) | Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection | |
JP6520740B2 (en) | Object detection method, object detection device, and program | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
US11087145B2 (en) | Gradient estimation device, gradient estimation method, computer program product, and controlling system | |
CN111833443B (en) | Landmark Position Reconstruction in Autonomous Machine Applications | |
KR20200002257A (en) | Corner detection-based road sign detecting method and apparatus | |
JP2024177451A (en) | Measurement device, measurement method, and program | |
JP7526858B2 (en) | Measurement device, measurement method, and program | |
JP7234840B2 (en) | position estimator | |
WO2018212286A1 (en) | Measurement device, measurement method and program | |
JPWO2018212280A1 (en) | Measuring device, measuring method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20161212 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20211118 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20161212 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231026 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240529 |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240626 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240627 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |