[go: up one dir, main page]

KR102267256B1 - Method and apparatus for detecting obstacle, and computer readable medium the same - Google Patents

Method and apparatus for detecting obstacle, and computer readable medium the same Download PDF

Info

Publication number
KR102267256B1
KR102267256B1 KR1020150139226A KR20150139226A KR102267256B1 KR 102267256 B1 KR102267256 B1 KR 102267256B1 KR 1020150139226 A KR1020150139226 A KR 1020150139226A KR 20150139226 A KR20150139226 A KR 20150139226A KR 102267256 B1 KR102267256 B1 KR 102267256B1
Authority
KR
South Korea
Prior art keywords
block
obstacle
movement
prediction line
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020150139226A
Other languages
Korean (ko)
Other versions
KR20170039965A (en
Inventor
윤성원
권구도
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150139226A priority Critical patent/KR102267256B1/en
Publication of KR20170039965A publication Critical patent/KR20170039965A/en
Application granted granted Critical
Publication of KR102267256B1 publication Critical patent/KR102267256B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06K9/00805
    • G06K9/00362
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

장애물을 구별하여 움직임을 파악하기 위한 장애물 검출 방법, 장치 및 그를 컴퓨터 판독 가능한 기록매체가 개시된다.
이를 위해, 본 실시예는 영상내에서 검출된 적어도 하나의 물체 움직임을 군집화하고, 상기 군집화된 물체를 적어도 하나의 블럭안에 배치되도록 하위 블럭화하며, 이로부터 적어도 하나의 물체 움직임 궤적과 적어도 하나의 물체 움직임 예측선을 추출하고, 추출된 적어도 하나의 물체 움직임 궤적과 적어도 하나의 물체 움직임 예측선 간의 궤적 일치 여부를 판단하여 허상 물체, 정지 물체 및 이동 물체 중 어느 하나로 인식하는 메카니즘을 제공한다.
이에, 본 실시예는 모든 종류의 장애물 검출을 통해 사고를 미연해 방지할 수 있다.
Disclosed are an obstacle detecting method, apparatus, and a computer-readable recording medium for identifying an obstacle by identifying a movement thereof.
To this end, the present embodiment clusters at least one object movement detected in an image, sub-blocks the clustered object to be placed in at least one block, and from this, at least one object movement trajectory and at least one object A mechanism is provided for extracting a motion prediction line, determining whether a trajectory coincides between the extracted at least one object motion trajectory and the at least one object motion prediction line, and recognizing it as any one of a virtual object, a stationary object, and a moving object.
Accordingly, the present embodiment can prevent an accident in advance by detecting all kinds of obstacles.

Description

장애물 검출 방법, 장치 및 그를 컴퓨터 판독 가능한 기록매체{METHOD AND APPARATUS FOR DETECTING OBSTACLE, AND COMPUTER READABLE MEDIUM THE SAME}Obstacle detection method, apparatus, and a computer-readable recording medium therefor {METHOD AND APPARATUS FOR DETECTING OBSTACLE, AND COMPUTER READABLE MEDIUM THE SAME}

본 실시예는 장애물 검출 기술에 관한 것으로서, 더욱 상세하게는 장애물을 구별하여 움직임을 파악하기 위한 장애물 검출 방법, 장치 및 그를 컴퓨터 판독 가능한 기록매체에 관한 것이다.The present embodiment relates to an obstacle detection technology, and more particularly, to an obstacle detection method, apparatus, and computer-readable recording medium for identifying an obstacle by distinguishing the movement.

기존의 장애물 검출 기술은 영상의 차이 또는 옵티컬 플로우(optical flow)의 연산을 통해 움직임이 있는 물체의 위치와 밝기 변화를 분석하여 장애물을 검출하고 있다.The existing obstacle detection technology detects an obstacle by analyzing the position and brightness change of a moving object through image difference or optical flow calculation.

이때, 주행 중인 차량의 카메라가 이동하는 경우, 기존의 장애물 검출 기술은 주변에 이동 물체의 움직임과 차량의 이동이 동시에 검출될 수 있는데, 차량의 이동에 따른 움직임(주변 배경의 움직임)을 전체 움직임에서 제거하면, 이동 물체의 움직임만이 검출됨으로써, 이동 물체를 검출하였다.In this case, when the camera of the driving vehicle moves, the existing obstacle detection technology can detect the movement of a moving object and the movement of the vehicle at the same time. If removed from , only the movement of the moving object is detected, thereby detecting the moving object.

이때, 주변 배경의 움직임에는 도로면 표식이나 크랙과 같이 높이를 갖지 않지만, 차량 또는 카메라의 이동에 따라 영상이 변화하는 허상 장애물과, 실제 높이를 가지고 움직임이 표현되는 실상의 장애물이 동시에 존재하게 되는데, 거리 센서나 양안 카메라의 경우, 대상물까지의 거리와 지표면 조건에 기초하여 허상 장애물과 실상 장애물을 구분하였다.At this time, the movement of the surrounding background does not have a height such as road markings or cracks, but an imaginary obstacle whose image changes according to the movement of a vehicle or camera and a real obstacle in which movement is expressed with an actual height exist at the same time. , in the case of a distance sensor or a binocular camera, virtual obstacles and real obstacles were classified based on the distance to the object and ground surface conditions.

그러나, 단안 카메라를 사용하는 경우에는 전술한 장애물들의 구분이 어렵기 때문에 이동 물체만이 검출되었다.However, when a monocular camera is used, only a moving object is detected because it is difficult to distinguish the aforementioned obstacles.

이와 같이, 기존의 장애물 검출 기술은 차량이 움직일 때 이동 물체 검출에만 유용할 뿐, 정지 물체를 동시에 검출하진 못한 문제점이 있었다.As such, the existing obstacle detection technology is useful only for detecting a moving object when the vehicle is moving, but has a problem in that it cannot detect a stationary object at the same time.

본 실시예는 전술한 문제점을 해결하기 위하여, 차량이 움직일 때 이동 장애물 뿐만 아니라, 정지 장애물 또는 허상 장애물을 동시에 인식하기 장애물 검출 방법, 장치 및 그를 컴퓨터 판독 가능한 기록매체를 제공하는데 그 목적이 있다.An object of the present embodiment is to provide an obstacle detecting method and apparatus for simultaneously recognizing a stationary obstacle or a virtual obstacle as well as a moving obstacle when a vehicle is moving, and a computer readable recording medium therefor, in order to solve the above problems.

하나의 실시예에 따르면, 장애물 검출 장치에서 수행되는 장애물 검출 방법으로서, 카메라를 통해 촬영된 영상내에서 포착된 적어도 하나의 물체 움직임을 검출하는 단계, 상기 검출된 적어도 하나의 물체 움직임을 군집화하고, 상기 군집화된 물체를 적어도 하나의 블럭안에 배치되도록 하위 블럭화하는 단계, 물체 추적을 이용하여 상기 하위 블럭내에서 각 블럭 중심에 기초한 적어도 하나의 물체 움직임 궤적을 추출하고, 차량 이동 예측선을 이용하여 상기 하위 블럭내에서 적어도 하나의 물체 움직임 예측선을 추출하는 단계, 및 추출된 상기 적어도 하나의 물체 움직임 궤적과 상기 적어도 하나의 물체 움직임 예측선 간의 궤적 일치 여부를 판단하여 허상 물체, 정지 물체 및 이동 물체 중 어느 하나로 인식하는 단계를 포함하는 장애물 검출 방법을 제공한다.According to one embodiment, there is provided an obstacle detection method performed in an obstacle detection apparatus, the method comprising: detecting at least one object movement captured in an image captured by a camera; clustering the detected at least one object movement; sub-blocking the clustered object to be placed in at least one block, extracting at least one object movement trajectory based on the center of each block within the sub-block using object tracking, and using the vehicle movement prediction line extracting at least one object motion prediction line from within the lower block, and determining whether a trajectory coincides between the extracted at least one object motion trajectory and the at least one object motion prediction line to determine whether a virtual object, a stationary object, or a moving object It provides an obstacle detection method comprising the step of recognizing any one.

상기 하위 블럭화하는 단계는 상기 군집화된 물체가 없는 경우, 해당하는 블럭을 상기 하위 블럭에서 제외시킬 수 있다.In the sub-blocking step, when there is no clustered object, the corresponding block may be excluded from the sub-block.

상기 하위 블럭은 상기 군집화된 물체를 나뉘어 배치된 다수의 블럭으로 이루어진 블럭을 가리킬 수 있다.The lower block may refer to a block composed of a plurality of blocks arranged by dividing the clustered object.

상기 물체 추적은 상기 각 블럭 중심의 위치 이동을 추적하는 것을 가리킬 수 있다.The object tracking may refer to tracking the movement of the center of each block.

상기 차량 이동 예측선은 조향 정보, 차량 정보 및 시점 변환(Bird's eye view) 중 적어도 하나로부터 추출될 수 있다.The vehicle movement prediction line may be extracted from at least one of steering information, vehicle information, and bird's eye view.

상기 판단하는 단계는 상기 적어도 하나의 물체 움직임과 상기 적어도 하나의 물체 움직임 예측선을 비교하여 부분적으로 궤적 일치할 경우, 상기 정지 장애물로 인식할 수 있다.The determining may include comparing the motion of the at least one object with the prediction line of the at least one motion of the at least one object, and when the trajectory is partially identical, the stationary obstacle may be recognized.

상기 판단하는 단계는 상기 적어도 하나의 물체 움직임과 상기 적어도 하나의 물체 움직임 예측선을 비교하여 모두 궤적 불일치할 경우, 상기 이동 장애물로 인식할 수 있다.The determining may include comparing the movement of the at least one object with the prediction line of the movement of the at least one object and recognizing it as the moving obstacle when the trajectories do not match.

상기 판단하는 단계는 상기 적어도 하나의 물체 움직임과 상기 적어도 하나의 물체 움직임 예측선을 비교하여 모두 궤적 일치할 경우, 상기 허상 장애물로 인식할 수 있다.The determining may include comparing the motion of the at least one object with the prediction line of the at least one motion of the object, and when all of the trajectories are identical, it may be recognized as the virtual obstacle.

하나의 실시예에 따르면, 장애물 검출 장치에서 수행되는 장애물 검출 방법으로서, 카메라를 통해 촬영된 영상내에서 표착된 적어도 하나의 물체 움직임을 검출하는 단계, 상기 검출된 적어도 하나의 물체 움직임을 군집화하고, 상기 군집화된 물체를 적어도 하나의 블럭안에 배치되도록 하위 블럭화하는 단계, 물체 추적을 이용하여 상기 하위 블럭내에서 각 블럭 중심에 기초한 적어도 하나의 물체 움직임 궤적을 추출하고, 차량 이동 예측선을 이용하여 상기 하위 블럭 내에서 각 블럭의 물체 움직임 예측선을 추출하는 단계, 및 상기 하위 블럭화된 적어도 하나의 블럭을 주기마다 추적하여 갱신한 후, 각 블럭의 중심으로부터 상기 추출된 각 블럭의 물체 움직임 예측선과의 최단 거리 합이 한계치를 초과하였는지의 여부를 판단하는 단계를 포함하는 장애물 검출 방법을 제공한다.According to one embodiment, there is provided an obstacle detection method performed by an obstacle detection apparatus, the method comprising: detecting movement of at least one object attached to an image captured by a camera; clustering the movement of the detected at least one object; sub-blocking the clustered object to be placed in at least one block, extracting at least one object movement trajectory based on the center of each block within the sub-block using object tracking, and using the vehicle movement prediction line Extracting the object motion prediction line of each block from within the sub-block, and after tracking and updating at least one sub-blocked block at every cycle, from the center of each block, the extracted object motion prediction line of each block Provided is an obstacle detection method comprising the step of determining whether the sum of the shortest distances exceeds a limit value.

상기 하위 블럭화하는 단계는 상기 군집화된 물체가 없는 경우, 해당하는 블럭을 상기 하위 블럭에서 제외시킬 수 있다.In the sub-blocking step, when there is no clustered object, the corresponding block may be excluded from the sub-block.

상기 물체 추적은 상기 각 블럭 중심의 위치 이동을 추적하고, 상기 차량 이동 예측선은 조향 정보, 차량 정보 및 시점 변환(Bird's eye view) 중 적어도 하나로부터 추출될 수 있다.The object tracking tracks the position movement of the center of each block, and the vehicle movement prediction line may be extracted from at least one of steering information, vehicle information, and bird's eye view.

상기 하위 블럭은 상기 군집화된 물체를 나뉘어 배치된 다수의 블럭으로 이루어질 수 있다.The lower block may be composed of a plurality of blocks arranged by dividing the clustered object.

상기 판단하는 단계는 상기 한계치의 이하이면, 상기 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 일치하는 것으로 간주하여 허상 장애물로 인식할 수 있다.In the determining step, if the threshold is less than the threshold value, the object motion prediction line of each block may be regarded as coincident with the at least one object motion trajectory, and may be recognized as a virtual obstacle.

상기 판단하는 단계는 상기 한계치의 이상이면, 상기 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 불일치하는 것으로 간주하여 이동 장애물로 인식할 수 있다.In the determining step, if the threshold value is greater than the threshold value, the object motion prediction line of each block may be regarded as a movement trajectory inconsistent with the at least one object motion trajectory and recognized as a moving obstacle.

상기 판단하는 단계는 일부가 상기 한계치의 이상이고, 나머지 일부가 한계치 이하이면, 상기 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 부분적 일치하는 것으로 간주하여 정지 장애물로 인식할 수 있다.In the determining step, if some are above the threshold and some are below the threshold, it is considered that the object motion prediction line of each block partially coincides with the at least one object motion trajectory, and it can be recognized as a stationary obstacle. .

이상과 같이, 본 실시예는 영상내 모든 물체 움직임에서 카메라의 움직임을 제거하여 이동 물체의 움직임을 검출하는 방식과 달리, 영상내 모든 물체 움직임에서 카메라의 움직임과 이동 물체의 움직임을 구분하고, 카메라의 움직임을 추가 분석하여 허상 장애물(노면 표식 등) 과 실제 장애물(이동 장애물, 정지 장애물)을 구분함으로써, 모든 종류의 장애물 검출을 통해 사고를 미연해 방지할 수 있다.As described above, in the present embodiment, unlike the method of detecting the movement of a moving object by removing the movement of the camera from all movement of objects in the image, the movement of the camera and movement of the moving object are distinguished from movement of the camera in all movement of objects in the image, By additionally analyzing the movement of the vehicle to distinguish virtual obstacles (road markings, etc.) from real obstacles (moving obstacles, stationary obstacles), it is possible to prevent accidents in advance by detecting all kinds of obstacles.

본 실시예는 전술한 장애물 검출 기법을 통해 장애물이 존재하는 위치를 정확하게 사용자에게 알려줌으로써, 주차 및/또는 출차시 및 차량 주행중에 맞다뜨린 장애물과의 충돌을 예방할 수 있다.The present embodiment can prevent a collision with an obstacle hit when parking and/or exiting the vehicle and while driving the vehicle by accurately notifying the user of the location of the obstacle through the above-described obstacle detection technique.

본 실시예는 기존 단안 카메라의 장애물 인식이 형태가 일정한 물체 또는 스스로 이동중인 장애물의 경우에만 적용되는 것으로부터 벗어나, 무인 주행 차량이 움직일 때 필요한 차량 주변의 모든 종류(이동/정지/허상 등)의 장애물 인식할 수 있는 효가가 있다.This embodiment deviates from the fact that the obstacle recognition of the existing monocular camera is applied only to an object with a certain shape or an obstacle that is moving by itself. It has the effect of recognizing obstacles.

도 1은 일 실시예에 따른 장애물 검출 방법의 일례를 나타낸 순서도이다.
도 2 내지 도 6과 도 10은 도 1 및 도 7의 장애물 검출 방법의 각 단계에서 처리되는 영상 화면을 나타낸 도면이다.
도 7은 일 실시예에 따른 장애물 검출 방법의 다른 일례를 나타낸 순서도이다.
도 8은 도 7의 장애물 검출 방법의 S240 단계에서 사용하는 궤적 상태를 나타낸 도면이다.
도 9는 일 실시예에 따른 장애물 검출 장치의 구성 일례를 나타낸 도면이다.
1 is a flowchart illustrating an example of an obstacle detecting method according to an embodiment.
2 to 6 and 10 are views illustrating image screens processed in each step of the method of detecting an obstacle of FIGS. 1 and 7 .
7 is a flowchart illustrating another example of an obstacle detection method according to an embodiment.
8 is a view showing a state of a trajectory used in step S240 of the obstacle detection method of FIG.
9 is a diagram illustrating an example of the configuration of an obstacle detecting apparatus according to an embodiment.

이하의 실시예들이 적용된 다양한 방법, 장치들에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 본 명세서에서 개시되는 접미사인 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Various methods and devices to which the following embodiments are applied will be described in more detail with reference to the drawings. The suffix “part” disclosed in the present specification below is given or used in consideration of ease of writing the specification, and does not have a meaning or role distinct from each other by itself.

이하의 실시예에서 개시되는 '및/또는'은 열거되는 관련 항목들 중 하나 이상의 항목에 대한 임의의 및 모든 가능한 조합들을 포함하는 것으로 이해되어야 한다.It should be understood that 'and/or' disclosed in the examples below includes any and all possible combinations of one or more of the listed related items.

이하의 실시예에서 개시되는 "포함하다", "이루어지다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것으로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 구비하는 것으로 이해되어야 한다.Terms such as "include", "consist of" or "have" disclosed in the examples below, unless otherwise stated, mean that the corresponding component may be embedded, and other components It should be understood as further including other components rather than excluding them.

<장애물 검출 방법의 예><Example of obstacle detection method>

도 1은 일 실시예에 따른 장애물 검출 방법의 일례를 나타낸 순서도이고, 도 2 내지 도 6은 도 1의 장애물 검출 방법의 각 단계에서 처리되는 영상 화면을 나타낸 도면이다.1 is a flowchart illustrating an example of an obstacle detection method according to an embodiment, and FIGS. 2 to 6 are views illustrating image screens processed in each step of the obstacle detection method of FIG. 1 .

도 2 내지 도 6은 도 1의 각 단계를 설명할 때 해당 단계에서 보조적으로 인용된다.2 to 6 are referred to as ancillary for each step in FIG. 1 .

도 1를 참조하면, 일 실시예에 따른 장애물 검출 방법(S100)은 장애물 검출 장치에서 정지 장애물, 이동 장애물 및/또는 허상 장매물과 같은 장애물들의 상태를 구분하여 검출하는 메카니즘을 실현시킨다.Referring to FIG. 1 , an obstacle detecting method S100 according to an embodiment realizes a mechanism for classifying and detecting states of obstacles such as stationary obstacles, moving obstacles, and/or virtual objects in the obstacle detecting apparatus.

여기에 적용된 장애물 검출 장치는 차량에 설치된 전자제어유닛(ECU), 헤드 유닛, 네비게이션 장치 및 텔레매틱스 단말기 클러스터 디스플레이 기기 또는 이들 기기 중 적어도 하나이거나 이들 중 적어도 하나와 연동되는 차량 단말기일 수 있다.The obstacle detecting device applied here may be an electronic control unit (ECU) installed in a vehicle, a head unit, a navigation device, and a telematics terminal cluster display device, at least one of these devices, or a vehicle terminal interworking with at least one of these devices.

이러한 장애물 검출 장치는 차량에 설치된 카메라와 연결되어 카메라로부터 영상을 취득하고, 취득된 영상을 통해 모든 종류의 장애물을 정확히 검출하는데 사용한다.Such an obstacle detecting device is connected to a camera installed in a vehicle to acquire an image from the camera, and is used to accurately detect all kinds of obstacles through the acquired image.

상기 카메라는 예컨대 차량의 후방 카메라, 전방 카메라 및/또는 좌우 카메라 중 적어도 하나일 수 있다.The camera may be, for example, at least one of a rear camera, a front camera and/or a left and right camera of the vehicle.

이러한 장애물 검출 장치에서 수행되는 장애물 검출 방법(S100)은 S110 단계 내지 S140 단계를 포함할 수 있다.The obstacle detecting method ( S100 ) performed by the obstacle detecting apparatus may include steps S110 to S140 .

먼저, S110 단계는 카메라를 통해 촬영된 적어도 하나의 영상 정보를 장애물 검출 장치에서 취득하고, 취득된 영상 정보 내에서 포착된 적어도 하나의 물체 움직임을 검출한다.First, in step S110, at least one piece of image information photographed through a camera is acquired by the obstacle detection device, and at least one object movement captured in the acquired image information is detected.

물체 움직임을 검출하기 위한 기법으로는 영상내의 물체를 담고 있는 영상 프레임간의 차이를 검출하는 기법 또는 옵티컬 플로우(optical flow)의 연산 기법 등이 사용될 수 있다.As a technique for detecting the motion of an object, a technique for detecting a difference between image frames containing an object in an image, a technique for calculating an optical flow, or the like may be used.

이러한 기법들은 모두 공지된 기술이므로, 그 설명은 생략하기로 한다. 그러나, 전술한 공지 기법에 한정되지 않으며, 다른 물체 검출 기법이 있다면, 본 실시예에서도 적용될 수 있음은 물론이다.Since these techniques are all known techniques, a description thereof will be omitted. However, the present invention is not limited to the above-described known technique, and if there is another object detection technique, it is of course applicable to the present embodiment.

실시예에서, S120 단계는 S110 단계에 의해 검출된 적어도 하나의 물체 움직임을 군집화한다. 군집화된 예는 도 2와 같이 나타낼 수 있다. 즉, 도 2에 도시된 적어도 하나의 움직임 물체(101)를 묶어 하나의 군집화를 이루어, 적어도 하나의 군집 영역(102)을 가질 수 있다.In an embodiment, step S120 clusters at least one object movement detected by step S110. A clustered example may be represented as shown in FIG. 2 . That is, at least one moving object 101 shown in FIG. 2 may be bundled to form one cluster, and at least one cluster region 102 may be provided.

군집화의 기법으로는 k-means 및 c-means를 포함한 클러스터링(clustering) 기법, snake 등의 모션 세그먼트(motion segmentation) 기법 등이 사용될 수 있다.As a clustering technique, a clustering technique including k-means and c-means, a motion segmentation technique such as snake, etc. may be used.

이러한 기법들은 공지된 기법이므로 그 설명은 생략하지만 본 실시예서 동일하게 적용되며, 아울러, 전술한 군집화 기법에 국한시키지 않고 다양한 공지 기법들이 사용될 수도 있다.Since these techniques are known techniques, their description is omitted, but the same is applied in the present embodiment, and in addition, various known techniques may be used without being limited to the aforementioned clustering technique.

이어서, S120 단계는 군집화된 군집 영역(102)을 적어도 하나의 블럭(103)안에 배치되도록 하위 블럭(104)화하는 과정을 수행한다. 하위 블럭(104)은 임의의 군집 영역(102)안에 군집화된 물체(101)를 나뉘어 배치된 다수의 블럭(103)으로 이루어질 수 있다.Subsequently, in step S120 , a process of forming the clustered cluster region 102 into a lower block 104 is performed so that the clustered cluster region 102 is disposed in at least one block 103 . The lower block 104 may be composed of a plurality of blocks 103 arranged by dividing the clustered object 101 in an arbitrary clustering area 102 .

그러나, 군집 영역(102)을 갖는 모든 블럭(103)에 움직임 물체(101)가 존재하는 것은 아니다. 즉, 군집화된 물체가 없는 경우에는 해당하는 블럭은 하위 블럭(104)에서 제외시킨다.However, not all blocks 103 having clustered areas 102 have moving objects 101 . That is, when there is no clustered object, the corresponding block is excluded from the lower block 104 .

예를 들면, 도 2에 도시된 움직임 물체(101)를 커버하는 군집화 영역(102)이 4개의 블럭(103)안에 걸쳐 있을 경우, 도 3에 도시된 바와 같이, 움직임 물체(101)가 존재하지 않는 군집 영역(102)을 커버하는 2개의 블럭(103a)은 하위 블럭(104)에서 제외시킬 수 있다. 즉, 우측의 두 블럭(103a)은 제외시킬 수 있다.For example, when the clustering area 102 covering the moving object 101 shown in FIG. 2 spans within four blocks 103, as shown in FIG. 3 , the moving object 101 does not exist. The two blocks 103a covering the non-clustered area 102 may be excluded from the lower block 104 . That is, the two blocks 103a on the right may be excluded.

이런 경우, S120 단계는 도 3에서와 같이 제외되지 않은 블럭(103)마다 중심점을 계산하고, 계산된 중심점의 좌표를 시점 변환(조감도, bird's eye view)의 좌표로 변환 시킬 수 있다. 그러나, 원 영상을 초기에 시점 변환하였다면 이 과정은 생략될 수도 있다.In this case, step S120 may calculate a center point for each block 103 that is not excluded as in FIG. 3 , and convert the calculated coordinates of the center point into coordinates of a viewpoint transformation (a bird's eye view). However, if the original image is initially view-converted, this process may be omitted.

실시예에서, S130 단계는 색상, 특징점, 움직임 벡터 등을 이용한 매 프레임 마다 하위 블럭(104)내의 각 블럭(103) 중심의 위치 이동을 추적하는 물체 추적 기법을 활용하여, 각 블럭(103) 중심의 위치를 영상 정보로부터 추출할 수 있다.In the embodiment, step S130 utilizes an object tracking technique that tracks the position movement of the center of each block 103 in the lower block 104 for every frame using color, feature point, motion vector, etc., and the center of each block 103 can be extracted from the image information.

물체 추적 기법으로는 KLT와 같이 특징점-optical flow를 이용한 방법, 블럭 매칭, cam-shift와 같은 clustering 기반 추적 기법 등을 사용할 수 있다.As an object tracking method, a method using a feature point-optical flow such as KLT, a clustering-based tracking method such as block matching and cam-shift, etc. can be used.

이러한 기법들은 모두 공지된 기술이므로, 그 설명은 생략하기로 한다. 그러나, 전술한 공지 기법에 국한되지 않으며, 다른 물체 추적 기법이 있다면, 본 실시예에서도 적용될 수 있음은 물론이다.Since these techniques are all known techniques, a description thereof will be omitted. However, it is not limited to the above-described known technique, and if there is another object tracking technique, it is of course applicable to the present embodiment.

이에 따라, S130 단계는 하위 블럭(104)내에서 추출된 각 블럭(103) 중심의 위치 이동을 하나의 영상에 누적시킨 후, 이에 기초하여 적어도 하나의 물체 움직임 궤적을 추출할 수 있다. 추출된 적어도 하나의 물체 움직임 궤적에 대한 일례는 도 4와 같이 나타낼 수 있다.Accordingly, in step S130, after accumulating the positional movement of the center of each block 103 extracted within the lower block 104 in one image, at least one object movement trajectory may be extracted based on this. An example of the extracted at least one object movement trajectory may be represented as shown in FIG. 4 .

예를 들면, 도 4에서와 같이 하위 블럭(104)안의 각 2 블럭(103b)은 각각 중심 위치를 지나는 물체 움직임 궤적(108)이 하나씩 생성될 수 있다. 이와 마찬가지로, 하위 블럭(104)안의 각 3 블럭(103c)의 중심 위치를 지나는 3개의 물체 움직임 궤적(109)이 생성될 수 있다. 도 4에 도시된 다른 블럭들도 동일한 원리가 적용되므로 생략하기로 한다.For example, as shown in FIG. 4 , in each of the two blocks 103b in the lower block 104, one object movement trajectory 108 passing through a central position may be generated. Similarly, three object movement trajectories 109 passing through the central position of each of the three blocks 103c in the lower block 104 may be generated. The other blocks shown in FIG. 4 are also omitted because the same principle is applied.

이어서, S130 단계는 카메라, 예컨대 후방 카메라의 조향 연동 등에 사용되는 차량 이동 예측선을 조향 정보, 차량 정보 및 시점 변환(Bird's eye view) 중 적어도 하나로부터 추출할 수 있다. 이러한 차량 이동 예측선은 공지된 기술이므로 그 설명은 생략하기로 한다.Subsequently, in step S130, a vehicle movement prediction line used for steering interlocking of a camera, for example, a rear camera, etc. may be extracted from at least one of steering information, vehicle information, and viewpoint conversion (Bird's eye view). Since such a vehicle movement prediction line is a known technology, a description thereof will be omitted.

이를 통해, S130 단계는 추출된 차량 이동 예측선을 이용하여 하위 블럭(104)내에서 적어도 하나의 물체 움직임 예측선을 추출할 수 있다. 추출된 적어도 하나의 물체 움직임 예측선에 대한 일례는 도 5와 같이 나타낼 수 있다.Through this, step S130 may extract at least one object motion prediction line in the lower block 104 using the extracted vehicle motion prediction line. An example of the extracted at least one object motion prediction line may be represented as shown in FIG. 5 .

예를 들면, 도 5에서와 같이, 하위 블럭(104)안의 2 블럭(103b)은 각각 중심 위치를 지나는 물체 움직임 예측선(105)이 하나씩 생성되고, 하위 블럭(104)안의 각 3 블럭(103c)의 중심 위치를 지나는 3개의 물체 움직임 예측선(106)이 생성되며, 나머지 다른 블럭들도 동일한 원리로 생성되므로 그 설명은 생략하기로 한다.For example, as shown in Fig. 5, in each of the two blocks 103b in the lower block 104, one object motion prediction line 105 passing through the center position is generated, and each of the three blocks 103c in the lower block 104 is generated. ), three object motion prediction lines 106 passing through the center position are generated, and the other blocks are also generated according to the same principle, so a description thereof will be omitted.

여기서, 차량 이동 예측선을 y=f(x)라 정의하면, 도 6에서와 같이, 제1 블럭(103b)내의 제1 물체 움직임 예측선 y= f(x-Xa1)+Ya1(A1 블럭의 중심(CA1)에 대하여)이고, 제1 블럭내(103b)의 제2 물체 움직임 예측선 y= f(x-Xa2)+Ya2(A2 블럭의 중심(CA2)에 대하여)일 수 있다.Here, if the vehicle motion prediction line is defined as f=a(x), as shown in FIG. 6 , the first object motion prediction line in the first block 103b is f=b(x− Xb1 )+ Ya1 (A1 block). the number of days the center (C A1)) with respect to a first block within a (second object motion prediction line y = f (x-x a2) + Y a2 (a2 block center (C a2 of the 103b)) with respect to) have.

이와 마찬가지로, 도 6에서와 같이, 제2 블럭(103d)내의 제1 물체 움직임 예측선 y = f(x-Xb1) + Yb1 (B1 블럭의 중심 (CB1)에 대하여)이고, 제2 블럭(103d)내의 제2 물체 움직임 예측선 y = f(x-Xb2) + Yb2 (B2 블럭의 중심 (CB2) 에 대하여)이며, 제2 블럭(103d)내의 제3 물체 움직임 예측선 y = f(x-Xb3) + Yb3 (B3 블럭의 중심 (CB3)에 대하여)일 수 있다.Similarly, as in FIG. 6 , the first object motion prediction line y = f(xX b1 ) + Y b1 (with respect to the center of block B1 (C B1 )) in the second block 103d, and the second block ( The second object motion prediction line in 103d) is y = f(xX b2 ) + Y b2 (with respect to the center of block B2 (C B2 )), and the third object motion prediction line in the second block 103d is y = f( xX b3 ) + Y b3 (relative to the center of block B3 (C B3 )).

이와 마찬가지로, 제3 블럭(103c)내의 물체 움직임 예측선들 y = f(x-Xcn) + Ycn (Cn 블럭의 중심 (CCn)에 대하여, n=1,2,3)이고, 제4 블럭(103e)내의 물체 움직임 예측선들 y = f(x-Xdn) + Ydn (Dn 블럭의 중심 (CDn) 에 대하여, n=1,2)이며, 제5 블럭(103f)내의 물체 움직임 예측선 y = f(x-Xen) + Yen (En 블럭의 중심 (CEn) 에 대하여, n=1,2)일 수 있다.Similarly, the object motion prediction lines in the third block 103c are y = f(xX cn ) + Y cn (with respect to the center of the Cn block (C Cn ), n=1,2,3), and the fourth block ( The object motion prediction lines in 103e) are y = f(xX dn ) + Y dn (for the center (C Dn ) of the Dn block, n=1,2), and the object motion prediction lines y = f(xX dn ) in the fifth block 103f f(xX en ) + Y en (for the center (C En ) of the En block, n=1,2).

이와 같은 방식으로 모든 하위 블럭내의 적어도 하나의 물체 움직임 예측선을 구할 수 있다.In this way, it is possible to obtain at least one object motion prediction line in all sub-blocks.

마지막으로, S140 단계는 전술한 S130 단계에 의해 추출된 적어도 하나의 물체 움직임 궤적과 적어도 하나의 물체 움직임 예측선을 비교하여 궤적 일치 여부를 판단할 수 있다.Finally, in operation S140 , it is possible to determine whether the trajectories match by comparing the at least one object movement trajectory extracted by the above-described operation S130 with the at least one object movement prediction line.

예를 들면, S140 단계는 도 4 내지 도 6에서와 같이, 해당 블럭(103c)내의 제1 물체 움직임 궤적(109)과 해당 블럭(103c)내의 제1 물체 움직임 예측선(y, 106)을 비교하여 궤적 불일치로 판단하고, 같은 블럭(103c)내의 제2 물체 움직임 궤적과 같은 블럭(103c)내의 제2 물체 움직임 예측선을 비교하여 궤적 일치로 판단할 경우, 부분적으로 궤적이 일치하므로, 해당 블럭(103c)내의 물체를 정지 장애물로 장애물 검출 장치에서 인식할 수 있다.For example, in step S140, as shown in FIGS. 4 to 6, the first object motion trajectory 109 in the corresponding block 103c is compared with the first object motion prediction line y, 106 in the corresponding block 103c. to determine the trajectory mismatch, and compare the second object movement trajectory in the same block 103c with the second object motion prediction line in the same block 103c to determine the trajectory coincidence, since the trajectories are partially identical, the corresponding block The object in 103c can be recognized by the obstacle detecting device as a stationary obstacle.

다른 예로서, S140 단계는 도 4 내지 도 6에서와 같이, 해당 블럭(103d)내의 제1 물체 움직임 궤적과 해당 블럭(103d)내의 제1 물체 움직임 예측선을 비교하여 궤적 불일치로 판단하고, 같은 블럭(103d)내의 제2 물체 움직임 궤적과 같은 블럭(103d)내의 제2 물체 움직임 예측선을 비교하여 궤적 일치로 판단하며, 같은 블럭(103d)내의 제3 물체 움직임 궤적과 같은 블럭(103d)내의 제3 물체 움직임 예측선을 비교하여 궤적 일치로 판단할 경우, 부분적으로 궤적이 일치하므로, 해당 블럭(103d)내의 물체를 정지 장애물로 장애물 검출 장치에서 인식할 수 있다.As another example, in step S140, as in FIGS. 4 to 6, the first object movement trajectory in the block 103d is compared with the first object movement prediction line in the block 103d to determine the trajectory mismatch, and the same The second object movement trajectory in the block 103d is compared with the second object movement prediction line in the same block 103d to determine the trajectory coincidence, and the third object movement trajectory in the same block 103d is determined to be the same in the same block 103d. When it is determined that the trajectory coincides by comparing the third object motion prediction lines, since the trajectories are partially coincident, the object in the block 103d can be recognized as a stationary obstacle in the obstacle detection apparatus.

또 다른 예로서, S140 단계는 도 4 및 도 6에서와 같이 해당 블럭(103e)내의 제1 물체 움직임 궤적과 같은 블럭(103e)내의 제1 물체 움직임 예측선을 비교하여 궤적 불일치로 판단하고, 같은 블럭(103e)내의 제2 물체 움직임 궤적과 같은 블럭(103e)내의 제2 물체 움직임 예측선을 비교하여 궤적 불일치로 판단할 경우, 모두 궤적이 불일치하므로, 해당 블럭(103e)내의 물체를 이동 장애물로 장애물 검출 장치에서 인식할 수 있다.As another example, in step S140, as in FIGS. 4 and 6, the first object motion trajectory in the corresponding block 103e is compared with the first object motion prediction line in the block 103e, and it is determined as a trajectory mismatch, and the same When the second object motion prediction line in the block 103e is compared with the second object motion trajectory in the block 103e and it is determined that the trajectory is inconsistent, the trajectories are all inconsistent, so the object in the block 103e is set as a moving obstacle. It can be recognized by the obstacle detection device.

또 다른 예로서, S140 단계는 도 4 내지 도 6에서와 같이 해당 블럭(103f)내의 제1 물체 움직임 궤적과 같은 블럭(103f)내의 제1 물체 움직임 예측선을 비교하여 궤적 일치로 판단하고, 같은 블럭(103f)내의 제2 물체 움직임 궤적과 같은 블럭(103f)내의 제2 물체 움직임 예측선을 비교하여 궤적 일치로 판단할 경우, 모두 궤적이 일치하므로, 해당 블럭(103f)내의 물체를 허상 장애물로 장애물 검출 장치에서 인식할 수 있을 것이다.As another example, in step S140, as in FIGS. 4 to 6, the first object movement trajectory in the corresponding block 103f is compared with the first object movement prediction line in the block 103f to determine the trajectory match, and the same When the second object motion prediction line in the block 103f is compared with the motion trajectory of the second object in the block 103f and it is determined that the trajectory is coincident, the trajectories are all identical, so the object in the block 103f is regarded as a virtual obstacle. It may be recognized by the obstacle detection device.

이와 같이, 본 실시예는 물체 움직임 궤적과 예측선의 비교를 통해 허상 물체, 정지 물체 및 이동 물체 중 어느 하나로 인식함으로써, 모든 이동 장애물 뿐만 아니라, 정지 장애물 및/또는 허상 장애물까지도 모두 확인함으로써, 장애물의 정확한 식별에 보탬이 될 수 있다.As such, in this embodiment, by recognizing any one of a virtual object, a stationary object, and a moving object through comparison of the object movement trajectory and the prediction line, not only all moving obstacles, but also all of the stationary obstacles and/or virtual obstacles It can help with accurate identification.

전술한 장애물 검출 방법(S100)은 하드웨어 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다.The above-described obstacle detection method S100 may be implemented in the form of program instructions that may be executed through hardware components and recorded in a computer-readable recording medium.

언급된 기록 매체는 ROM, 자기 디스크 혹은 콤팩트 디스크 등 일 수 있으나, 이에 받드시 한정되지는 않는다.The mentioned recording medium may be a ROM, a magnetic disk or a compact disk, but is not limited thereto.

<장애물 검출 방법의 다른 예><Another example of an obstacle detection method>

도 7은 일 실시예에 따른 장애물 검출 방법의 다른 일례를 나타낸 순서도이고, 도 8은 도 7의 장애물 검출 방법의 S240 단계에서 사용하는 궤적 상태를 나타낸 도면이다.7 is a flowchart illustrating another example of an obstacle detection method according to an embodiment, and FIG. 8 is a diagram illustrating a trajectory state used in step S240 of the obstacle detection method of FIG. 7 .

여기서, 전술한 도 2 내지 6 및 도 8은 도 7의 각 단계를 설명할 때 해당 단계에서 인용하기로 한다.Here, the aforementioned FIGS. 2 to 6 and FIG. 8 will be referred to in the corresponding steps when describing each step of FIG. 7 .

도 7를 참조하면, 일 실시예에 따른 장애물 검출 방법(S200)은 장애물 검출 장치에서 정지 장애물, 이동 장애물 및/또는 허상 장매물과 같은 장애물들의 상태를 구분하여 검출하는 메카니즘을 실현시킨다.Referring to FIG. 7 , the obstacle detecting method S200 according to an embodiment realizes a mechanism for classifying and detecting states of obstacles such as stationary obstacles, moving obstacles, and/or virtual objects in the obstacle detecting apparatus.

여기에 적용된 장애물 검출 장치는 차량에 설치된 전자제어유닛(ECU), 헤드 유닛, 네비게이션 장치 및 텔레매틱스 단말기 클러스터 디스플레이 기기 또는 이들 기기 중 적어도 하나이거나 이들 중 적어도 하나와 연동되는 차량 단말기일 수 있다.The obstacle detecting device applied here may be an electronic control unit (ECU) installed in a vehicle, a head unit, a navigation device, and a telematics terminal cluster display device, at least one of these devices, or a vehicle terminal interworking with at least one of these devices.

이러한 장애물 검출 장치는 차량에 설치된 카메라와 연결되어 카메라로부터 영상을 취득하고, 취득된 영상을 통해 모든 종류의 장애물을 정확히 검출하는데 사용한다.Such an obstacle detecting device is connected to a camera installed in a vehicle to acquire an image from the camera, and is used to accurately detect all kinds of obstacles through the acquired image.

상기 카메라는 예컨대 차량의 후방 카메라, 전방 카메라 및/또는 좌우 카메라 중 적어도 하나일 수 있다.The camera may be, for example, at least one of a rear camera, a front camera and/or a left and right camera of the vehicle.

이러한 장애물 검출 장치에서 수행되는 장애물 검출 방법(S200)은 S210 단계 내지 S240 단계를 포함할 수 있다.The obstacle detecting method ( S200 ) performed by the obstacle detecting apparatus may include steps S210 to S240 .

먼저, S210 단계는 카메라를 통해 촬영된 적어도 하나의 영상 정보를 장애물 검출 장치에서 취득하고, 취득된 영상 정보 내에서 포착된 적어도 하나의 물체 움직임을 검출한다.First, in step S210, at least one piece of image information captured by the camera is acquired by the obstacle detection device, and at least one object movement captured in the acquired image information is detected.

물체 움직임을 검출하기 위한 기법으로는 영상내의 물체를 담고 있는 영상 프레임간의 차이를 검출하는 기법 또는 옵티컬 플로우(optical flow)의 연산 기법 등이 사용될 수 있다. As a technique for detecting the motion of an object, a technique for detecting a difference between image frames containing an object in an image, a technique for calculating an optical flow, or the like may be used.

이러한 기법들은 모두 공지된 기술이므로, 그 설명은 생략하기로 한다. 그러나, 전술한 공지 기법에 한정되지 않으며, 다른 물체 검출 기법이 있다면, 본 실시예에서도 적용될 수 있음은 물론이다.Since these techniques are all known techniques, a description thereof will be omitted. However, the present invention is not limited to the above-described known technique, and if there is another object detection technique, it is of course applicable to the present embodiment.

실시예에서, S220 단계는 S210 단계에 의해 검출된 적어도 하나의 물체 움직임을 군집화한다. 군집화된 예는 도 2와 같이 나타낼 수 있다. 즉, 도 2에 도시된 적어도 하나의 움직임 물체(101)를 묶어 하나의 군집화를 이루어, 적어도 하나의 군집 영역(102)을 가질 수 있다.In an embodiment, step S220 clusters at least one object movement detected by step S210. A clustered example may be represented as shown in FIG. 2 . That is, at least one moving object 101 shown in FIG. 2 may be bundled to form one cluster, and at least one cluster region 102 may be provided.

군집화의 기법으로는 k-means 및 c-means를 포함한 클러스터링(clustering) 기법, snake 등의 모션 세그먼트(motion segmentation) 기법 등이 사용될 수 있다.As a clustering technique, a clustering technique including k-means and c-means, a motion segmentation technique such as snake, etc. may be used.

이러한 기법들은 공지된 기법이므로 그 설명은 생략하지만 본 실시예서 동일하게 적용되며, 아울러, 전술한 군집화 기법에 국한시키지 않고 다양한 공지 기법들이 사용될 수도 있다.Since these techniques are known techniques, their description is omitted, but the same is applied in the present embodiment, and in addition, various known techniques may be used without being limited to the aforementioned clustering technique.

이어서, S220 단계는 군집화된 군집 영역(102)을 적어도 하나의 블럭(103)안에 배치되도록 하위 블럭(104)화하는 과정을 수행한다. 하위 블럭(104)은 임의의 군집 영역(102)안에 군집화된 물체(101)를 나뉘어 배치된 다수의 블럭(103)으로 이루어질 수 있다.Subsequently, in step S220 , the process of forming the clustered cluster area 102 into a lower block 104 to be disposed in at least one block 103 is performed. The lower block 104 may be composed of a plurality of blocks 103 arranged by dividing the clustered object 101 in an arbitrary clustering area 102 .

그러나, 군집 영역(102)을 갖는 모든 블럭(103)에 움직임 물체(101)가 존재하는 것은 아니다. 즉, 군집화된 물체가 없는 경우에는 해당하는 블럭은 하위 블럭(104)에서 제외시킨다.However, not all blocks 103 having clustered areas 102 have moving objects 101 . That is, when there is no clustered object, the corresponding block is excluded from the lower block 104 .

예를 들면, 도 2에 도시된 움직임 물체(101)를 커버하는 군집화 영역(102)이 4개의 블럭(103)안에 걸쳐 있을 경우, 도 3에 도시된 바와 같이, 움직임 물체(101)가 존재하지 않는 군집 영역(102)을 커버하는 2개의 블럭(103a)은 하위 블럭(104)에서 제외시킬 수 있다. 즉, 우측의 두 블럭(103a)은 제외시킬 수 있다.For example, when the clustering area 102 covering the moving object 101 shown in FIG. 2 spans within four blocks 103, as shown in FIG. 3 , the moving object 101 does not exist. The two blocks 103a covering the non-clustered area 102 may be excluded from the lower block 104 . That is, the two blocks 103a on the right may be excluded.

이런 경우, S220 단계는 도 3에서와 같이 제외되지 않은 블럭(103)마다 중심점을 계산하고, 계산된 중심점의 좌표를 시점 변환(조감도, bird's eye view)의 좌표로 변환 시킬 수 있다. 그러나, 원 영상을 초기에 시점 변환하였다면 이 과정은 생략될 수도 있다.In this case, step S220 may calculate a center point for each block 103 that is not excluded as in FIG. 3 , and convert the calculated coordinates of the center point into coordinates of a viewpoint transformation (a bird's eye view). However, if the original image is initially view-converted, this process may be omitted.

실시예에서, S230 단계는 색상, 특징점, 움직임 벡터 등을 이용하여 매 프레임 마다 하위 블록 중심점의 위치 이동을 추적하는 물체 추적 기범을 이용하여, 블록 중심점의 위치를 영상으로부터 추출할 수 있다.In the embodiment, in step S230, the position of the central point of the block may be extracted from the image using an object tracking standard that tracks the positional movement of the central point of a lower block in every frame using a color, a feature point, a motion vector, and the like.

물체 추적 기법으로는 KLT와 같이 특징점-optical flow를 이용한 방법, 블록 매칭, cam-shift와 같은 clustering기반 추적 기법 등을 사용할 수 있다.As an object tracking method, a method using a feature point-optical flow such as KLT, block matching, and a clustering-based tracking method such as cam-shift can be used.

이러한 기법들은 모두 공지된 기술이므로, 그 설명은 생략하기로 한다. 그러나, 전술한 공지 기법에 국한되지 않으며, 다른 물체 추적 기법이 있다면, 본 실시예에서도 적용될 수 있음은 물론이다.Since these techniques are all known techniques, a description thereof will be omitted. However, it is not limited to the above-described known technique, and if there is another object tracking technique, it is of course applicable to the present embodiment.

이에 따라, S230 단계는 하위 블럭(104)내에서 추출된 각 블럭(103) 중심의 위치 이동을 하나의 영상에 누적시킨 후, 이에 기초하여 적어도 하나의 물체 움직임 궤적을 추출할 수 있다. 추출된 적어도 하나의 물체 움직임 궤적에 대한 일례는 도 4와 같이 나타낼 수 있다.Accordingly, in step S230, after accumulating the positional movement of the center of each block 103 extracted within the lower block 104 in one image, at least one object movement trajectory may be extracted based on this. An example of the extracted at least one object movement trajectory may be represented as shown in FIG. 4 .

예를 들면, 도 4에서와 같이 하위 블럭(104)안의 2 블럭(103b)은 각각 중심 위치를 지나는 물체 움직임 궤적(108)이 하나씩 생성될 수 있다. 이와 마찬가지로, 하위 블럭(104)안의 각 3 블럭(103c)의 중심 위치를 지나는 3개의 물체 움직임 궤적(109)이 생성될 수 있다. 도 4에 도시된 다른 블럭들도 동일한 원리가 적용되므로 생략하기로 한다.For example, as shown in FIG. 4 , in each of the two blocks 103b in the lower block 104 , one object movement trajectory 108 passing through a central position may be generated. Similarly, three object movement trajectories 109 passing through the central position of each of the three blocks 103c in the lower block 104 may be generated. The other blocks shown in FIG. 4 are also omitted because the same principle is applied.

이어서, S230 단계는 카메라, 예컨대 후방 카메라의 조향 연동 등에 사용되는 차량 이동 예측선을 조향 정보, 차량 정보 및 시점 변환(Bird's eye view) 중 적어도 하나로부터 추출할 수 있다. 이러한 차량 이동 예측선은 공지된 기술이므로 그 설명은 생략하기로 한다.Subsequently, in step S230, a vehicle movement prediction line used for steering interlocking of a camera, for example, a rear camera, etc. may be extracted from at least one of steering information, vehicle information, and viewpoint conversion (Bird's eye view). Since such a vehicle movement prediction line is a known technology, a description thereof will be omitted.

이를 통해, S230 단계는 추출된 차량 이동 예측선을 이용하여 하위 블럭내에서 적어도 하나의 물체 움직임 예측선을 추출할 수 있다. 추출된 적어도 하나의 물체 움직임 예측선에 대한 일례는 도 5와 같이 나타낼 수 있다.Through this, step S230 may extract at least one object motion prediction line in the lower block using the extracted vehicle movement prediction line. An example of the extracted at least one object motion prediction line may be represented as shown in FIG. 5 .

예를 들면, 도 5에서와 같이, 하위 블럭(104)안의 2 블럭(103b)은 각각 중심 위치를 지나는 물체 움직임 예측선(105)이 하나씩 생성되고, 하위 블럭(104)안의 각 3 블럭(103c)의 중심 위치를 지나는 3개의 물체 움직임 예측선(106)이 생성되며, 나머지 다른 블럭들도 동일한 원리로 생성되므로 그 설명은 생략하기로 한다.For example, as shown in Fig. 5, in each of the two blocks 103b in the lower block 104, one object motion prediction line 105 passing through the center position is generated, and each of the three blocks 103c in the lower block 104 is generated. ), three object motion prediction lines 106 passing through the center position are generated, and the other blocks are also generated according to the same principle, so a description thereof will be omitted.

여기서, 차량 이동 예측선을 y=f(x)라 정의하면, 도 6에서와 같이, 제1 블럭(103b)내의 제1 물체 움직임 예측선 y= f(x-Xa1)+Ya1(A1 블럭의 중심(CA1)에 대하여)이고, 제1 블럭내(103b)의 제2 물체 움직임 예측선 y= f(x-Xa2)+Ya2(A2 블럭의 중심(CA2)에 대하여)일 수 있다.Here, if the vehicle motion prediction line is defined as f=a(x), as shown in FIG. 6 , the first object motion prediction line in the first block 103b is f=b(x− Xb1 )+ Ya1 (A1 block). the number of days the center (C A1)) with respect to a first block within a (second object motion prediction line y = f (x-x a2) + Y a2 (a2 block center (C a2 of the 103b)) with respect to) have.

이와 마찬가지로, 도 6에서와 같이, 제2 블럭(103d)내의 제1 물체 움직임 예측선 y = f(x-Xb1) + Yb1 (B1 블럭의 중심 (CB1)에 대하여)이고, 제2 블럭(103d)내의 제2 물체 움직임 예측선 y = f(x-Xb2) + Yb2 (B2 블럭의 중심 (CB2) 에 대하여)이며, 제2 블럭(103d)내의 제3 물체 움직임 예측선 y = f(x-Xb3) + Yb3 (B3 블럭의 중심 (CB3)에 대하여)일 수 있다.Similarly, as in FIG. 6 , the first object motion prediction line y = f(xX b1 ) + Y b1 (with respect to the center of block B1 (C B1 )) in the second block 103d, and the second block ( The second object motion prediction line in 103d) is y = f(xX b2 ) + Y b2 (with respect to the center of block B2 (C B2 )), and the third object motion prediction line in the second block 103d is y = f( xX b3 ) + Y b3 (relative to the center of block B3 (C B3 )).

또한, 도 6에서와 같이, 제3 블럭(103c)내의 물체 움직임 예측선들 y = f(x-Xcn) + Ycn (Cn 블럭의 중심 (CCn)에 대하여, n=1,2,3)이고, 제4 블럭(103e)내의 물체 움직임 예측선들 y = f(x-Xdn) + Ydn (Dn 블럭의 중심 (CDn) 에 대하여, n=1,2)이며, 제5 블럭(103f)내의 물체 움직임 예측선 y = f(x-Xen) + Yen (En 블럭의 중심 (CEn) 에 대하여, n=1,2)일 수 있다.Also, as in FIG. 6 , the object motion prediction lines in the third block 103c are y = f(xX cn ) + Y cn (with respect to the center (C Cn ) of the Cn block, n=1,2,3), and , object motion prediction lines in the fourth block 103e y = f(xX dn ) + Y dn (with respect to the center (C Dn ) of the Dn block, n=1,2), and the object in the fifth block 103f The motion prediction line y = f(xX en ) + Y en (for the center (C En ) of the En block, n=1,2) may be.

이와 같은 방식으로 모든 하위 블럭내의 적어도 하나의 물체 움직임 예측선을 구할 수 있다.In this way, it is possible to obtain at least one object motion prediction line in all sub-blocks.

마지막으로, S240 단계는 하위 블럭에 포함된 적어도 하나의 블럭을 주기마다 예컨대 t0, t0+△, t0+2△, … t0+n△의 주기마다 추적하여 적어도 하나의 블럭을 장애물 검출 장치에서 갱신시킬 수 있다.Finally, in step S240, for example, t0, t0+Δ, t0+2Δ, . At least one block may be updated in the obstacle detecting apparatus by tracking every period of t0+nΔ.

이러한 S240 단계는 갱신된 각 블럭의 중심으로부터 추출된 각 블럭의 물체 움직임 예측선과의 최단 거리(예: en, n=1,2 ...)의 합(E)이 한계치(threshold)를 초과하였는지의 여부를 판단한다.This step S240 determines whether the sum (E) of the shortest distance (eg, en, n=1,2 ...) to the object motion prediction line of each block extracted from the center of each updated block exceeds a threshold. to determine whether

예를 들면, S240 단계는 도 8에서와 같이, 각 블럭(103)의 해당하는 물체 움직임 예측선(107)과의 최단 거리(예: en, n=1,2 ...)의 합(E)이 한계치(threshold)의 이하인 것으로 장애물 검출 장치에서 판단하면, S230 단계에 의해 추출된 각 블럭의 해당 물체 움직임 예측선이 해당하는 적어도 하나의 물체 움직임 궤적과 일치하는 것으로 간주함으로써, 하위 블럭내의 해당 물체를 허상 장애물로 장애물 검출 장치에서 인식할 수 있다.For example, in step S240, as in FIG. 8, the sum (E) of the shortest distance (eg, en, n=1,2 ...) with the corresponding object motion prediction line 107 of each block 103 . ) is less than or equal to the threshold, by considering that the corresponding object motion prediction line of each block extracted in step S230 coincides with the corresponding at least one object motion trajectory, the corresponding object in the lower block The object may be recognized by the obstacle detection device as a virtual obstacle.

다른 예로서, S240 단계는 도 8에서와 같이, 각 블럭(103)의 해당하는 물체 움직임 예측선(107)과의 최단 거리(예: en, n=1,2 ...)의 합(E)이 한계치(threshold)의 이상인 것으로 장애물 검출 장치에서 판단하면, S230 단계에 의해 추출된 각 블럭의 물체 움직임 예측선이 적어도 하나의 물체 움직임 궤적과 불일치하는 것으로 간주함으로써, 하위 블럭내의 해당 물체를 이동 장애물로 인식할 수 있다.As another example, in step S240, as in FIG. 8, the sum (E) of the shortest distance (eg, en, n=1,2 ...) with the corresponding object motion prediction line 107 of each block 103 . ) is greater than or equal to the threshold, the object movement prediction line of each block extracted in step S230 is considered to be inconsistent with at least one object movement trajectory, so that the object in the lower block is moved can be perceived as an obstacle.

또 다른 예로서, S240 단계는 도 8에서와 같이 각 블럭(103)의 해당하는 물체 움직임 예측선(107)과의 최단 거리(예: en, n=1,2 ...)의 합이 일부가 한계치 이상이고, 나머지 일부가 한계치 이하인 것으로 장애물 검출 장치에서 판단하면, S230 단계에 의해 추출된 각 블럭의 물체 움직임 예측선이 적어도 하나의 물체 움직임 궤적과 부분적 일치하는 것으로 간주함으로써, 하위 블럭내의 해당 물체를 정지 장애물로 인식할 수 있다.As another example, in step S240, the sum of the shortest distance (eg, en, n=1,2 ...) with the corresponding object motion prediction line 107 of each block 103 is a part as shown in FIG. 8 . If the obstacle detecting device determines that is above the threshold and the remaining part is below the threshold, the object motion prediction line of each block extracted in step S230 is considered to be partially consistent with at least one object motion trajectory, so that Objects can be recognized as stationary obstacles.

본 실시예는 물체 움직임 궤적과 예측선의 비교를 통해 허상 물체, 정지 물체 및 이동 물체 중 어느 하나로 인식함으로써, 모든 이동 장애물 뿐만 아니라, 정지 장애물 및/또는 허상 장애물까지도 모두 확인함으로써, 장애물의 정확한 식별에 보탬이 될 수 있다.In this embodiment, by recognizing any one of a virtual object, a stationary object, and a moving object by comparing the object movement trajectory and the prediction line, not only all moving obstacles, but also all moving obstacles, as well as stationary obstacles and/or virtual obstacles, are identified. It can be helpful.

전술한 장애물 검출 방법(S200)은 하드웨어 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다.The above-described obstacle detection method S200 may be implemented in the form of program instructions that may be executed through hardware components and recorded in a computer-readable recording medium.

언급된 기록 매체는 ROM, 자기 디스크 혹은 콤팩트 디스크 등 일 수 있으나, 이에 받드시 한정되지는 않는다.The mentioned recording medium may be a ROM, a magnetic disk or a compact disk, but is not limited thereto.

참고로, 전술한 S140 단계 및 S240 단계의 비교 대상인 도 4 및 도 5를 합성하면, 일례로서 도 10과 같이 나타낼 수 있다.For reference, if FIGS. 4 and 5, which are the comparison objects of steps S140 and S240, are synthesized, it can be shown as in FIG. 10 as an example.

도 10에서와 같이, 물체 움직임 궤적과 물체 움직임 예측선을 비교한 결과, 도 6의 참조부호 A1, C1, C2, C3, D1, D2는 불일치하고 있음을 알 수 있으며, A2, E2, E3, B2, B3는 일치하고 있음을 확인할 수 있다.As shown in FIG. 10 , as a result of comparing the object motion trajectory with the object motion prediction line, it can be seen that reference numerals A1, C1, C2, C3, D1, and D2 in FIG. 6 do not match, A2, E2, E3, It can be confirmed that B2 and B3 match.

도 9는 일 실시예에 따른 장애물 검출 장치의 구성 일례를 나타낸 도면이다.9 is a diagram illustrating an example of the configuration of an obstacle detecting apparatus according to an embodiment.

도 9를 참조하면, 일 실시예에 따른 장애물 검출 장치(100)는 전술한 장애물 검출 방법을 알고리즘화 하고, 이를 처리할 수 있다.Referring to FIG. 9 , the obstacle detecting apparatus 100 according to an embodiment may algorithmize the above-described obstacle detecting method and process it.

이를 위하여, 장애물 검출 장치(100)는 입력부(110), 적어도 하나의 코어를 처리하는 프로세서(120), 메모리(130), 표시부(140) 및 출력부(150)를 포함할 수 있다.To this end, the obstacle detecting apparatus 100 may include an input unit 110 , a processor 120 processing at least one core, a memory 130 , a display unit 140 , and an output unit 150 .

입력부(110)는 터치 패널(111) 및/또는 기타 입력 장치(132)를 포함할 수 있다.The input unit 110 may include a touch panel 111 and/or other input devices 132 .

터치 패널(111)은 전술한 장애물 검출 방법과 관련한 터치 동작(예를 들면 사용자가 손가락이나 터치팬 등의 임의의 적합한 물건이나 부속품을 사용하여 터치센시티브 표면 혹은 터치센시티브표면 부근에 대하여 터치를 진행하는 조작)을 수집함과 동시에 미리 설정된 프로그램에 따라 관련된 접속 장치를 구동시킬 수 있다.The touch panel 111 is a touch operation related to the above-described obstacle detection method (for example, a user performs a touch on the touch sensitive surface or the vicinity of the touch sensitive surface using any suitable object or accessory such as a finger or a touch pen. operation) and at the same time, according to a preset program, the related connection device can be driven.

이러한 터치 패널(111)은 터치 검출 수단 및 터치 제어기 중 적어도 하나를 포함할 수 있다. 터치 검출 수단은 사용자의 터치 위치를 검출함과 동시에 터치 동작에 의한 신호를 검출하고 그 터치 정보를 터치 제어기에 송신한다. 터치 제어기는 터치 검출 수단으로부터 터치 정보를 수신하고 해당하는 정보를 접촉점 좌표로 변환하여 프로세서(140)에 송신함과 동시에 프로세서(140)로부터의 명령어를 수신하여 실행한다.The touch panel 111 may include at least one of a touch detection means and a touch controller. The touch detection means detects a user's touch position and simultaneously detects a signal by a touch operation and transmits the touch information to the touch controller. The touch controller receives touch information from the touch detection means, converts the corresponding information into contact point coordinates, transmits it to the processor 140 , and simultaneously receives and executes a command from the processor 140 .

기타 입력 장치(112)는 전술한 장애물 검출 방법과 관련한 사용자 입력을 인식하기 위한 물리적인 키보드, 기능키(예를 들면 볼륨 버튼, 스위치 버튼 등), 트랙 볼, 마우스, 조이 스틱 등 중 적어도 하나를 포함하지만, 이에 제한되지는 않는다. 이러한 입력 장치(112)는 터치 패널(111)의 보조적 수단으로서 사용될 수도 있다.The other input device 112 uses at least one of a physical keyboard, a function key (eg, a volume button, a switch button, etc.), a track ball, a mouse, a joystick, etc. for recognizing a user input related to the above-described obstacle detection method. including, but not limited to. Such an input device 112 may be used as an auxiliary means of the touch panel 111 .

실시예에서, 프로세서(120)는 장애물 검출 장치(100)의 제어 센터이며 각종 인터페이스 및/또는 회로를 경유하여 각 부분에 접속되며, 메모리(130) 내에 저장된 소프트웨어 프로그램 및/또는 모듈을 작동시킴과 동시에, 메모리(130) 내에 저장된 데이터를 호출하는 것을 통하여 장애물 검출 장치(100)의 각종 기능 실행 및 데이터 처리가 가능하도록 도와줄 수 있다.In an embodiment, the processor 120 is the control center of the obstacle detection device 100 and is connected to each part via various interfaces and/or circuits, and operates a software program and/or module stored in the memory 130; At the same time, by calling data stored in the memory 130 , it is possible to help the obstacle detection apparatus 100 to execute various functions and process data.

여기서, 소프트웨어 프로그램은 도 1 내지 도 8에서 설명한 장애물 검출 방법을 코드화한 결과를 지칭하며, 모듈은 전술한 장애물 검출 장치(100)의 각 구성을 지칭할 수도 있다.Here, the software program refers to the result of coding the obstacle detecting method described in FIGS. 1 to 8 , and the module may refer to each component of the obstacle detecting apparatus 100 described above.

예를 들면, 프로세서(120)는 카메라를 통해 촬영된 영상내에서 포착된 적어도 하나의 물체 움직임을 검출하는 단계, 검출된 적어도 하나의 물체 움직임을 군집화하고, 상기 군집화된 군집 영역을 적어도 하나의 블럭안에 배치되도록 하위 블럭화하는 단계, 물체 추적을 이용하여 하위 블럭내에서 각 블럭 중심에 기초한 적어도 하나의 물체 움직임 궤적을 추출하고, 차량 이동 예측선을 이용하여 상기 하위 블럭내에서 적어도 하나의 물체 움직임 예측선을 추출하는 단계 및 추출된 상기 적어도 하나의 물체 움직임 궤적과 상기 적어도 하나의 물체 움직임 예측선 간의 궤적 일치 여부를 판단하여 허상 물체, 정지 물체 및 이동 물체 중 어느 하나로 인식하는 단계를 포함한 장애물 검출 방법을 알고리즘화하여 처리할 수 있다.For example, the processor 120 detects at least one object movement captured in an image captured by a camera, clusters the detected at least one object movement, and divides the clustered cluster area into at least one block. sub-blocking so as to be disposed within, extracting at least one object motion trajectory based on the center of each block within the sub-block using object tracking, and predicting at least one object motion within the sub-block using a vehicle motion prediction line An obstacle detection method comprising the steps of extracting a line and determining whether a trajectory coincides between the extracted at least one object motion trajectory and the at least one object motion prediction line, and recognizing it as any one of a virtual object, a stationary object, and a moving object can be algorithmically processed.

또는, 프로세서(120)는 카메라를 통해 촬영된 영상내에서 포착된 적어도 하나의 물체 움직임을 검출하는 단계, 검출된 적어도 하나의 물체 움직임을 군집화하고, 상기 군집화된 물체를 적어도 하나의 블럭안에 배치되도록 하위 블럭화하는 단계, 물체 추적을 이용하여 상기 하위 블럭내에서 각 블럭 중심에 기초한 적어도 하나의 물체 움직임 궤적을 추출하고, 차량 이동 예측선을 이용하여 상기 하위 블럭 내에서 각 블럭의 물체 움직임 예측선을 추출하는 단계, 및 하위 블럭화된 적어도 하나의 블럭을 주기마다 추적하여 갱신한 후, 각 블럭의 중심으로부터 상기 추출된 각 블럭의 물체 움직임 예측선과의 최단 거리 합이 한계치를 초과하였는지의 여부를 판단하는 단계를 포함한 장애물 검출 방법을 알고리즘화하여 처리할 수 있다.Alternatively, the processor 120 may perform the steps of detecting at least one object movement captured in an image captured by the camera, clustering the detected at least one object movement, and placing the clustered object in at least one block. sub-blocking, extracting at least one object motion trajectory based on the center of each block within the sub-block using object tracking, and using the vehicle motion prediction line to determine the object motion prediction line of each block in the sub-block After extracting and updating at least one sub-blocked block every period, it is determined whether the sum of the shortest distance from the center of each block to the object motion prediction line of each block exceeds a limit value. The obstacle detection method including the steps can be processed by algorithmizing it.

여기서, 하위 블럭은 상기 군집화된 물체를 나뉘어 배치된 다수의 블럭으로 이루어진 블럭을 의미하며, 하위 블럭화하는 단계는 군집화된 물체가 없는 경우, 해당하는 블럭을 상기 하위 블럭에서 제외시킬 수 있다.Here, the lower block means a block composed of a plurality of blocks arranged by dividing the clustered object, and in the step of sub-blocking, if there is no clustered object, the corresponding block may be excluded from the lower block.

또한, 전술한 물체 추적은 색상, 특징점, 움직임 벡터 등을 이용한 매 프레임 마다 하위 블럭(104)내의 각 블럭 중심의 위치 이동을 추적하는 기법을 의미하며, 차량 이동 예측선은 조향 정보, 차량 정보 및 시점 변환(Bird's eye view)를 통해 추출될 수 있다.In addition, the above-described object tracking refers to a technique for tracking the position movement of the center of each block in the lower block 104 for every frame using color, feature point, motion vector, etc., and the vehicle movement prediction line includes steering information, vehicle information and It can be extracted through bird's eye view.

일 실시예에서, 프로세서(120)는 추출된 적어도 하나의 물체 움직임과 적어도 하나의 물체 움직임 예측선을 비교하여 부분적으로 궤적 일치할 경우, 정지 장애물로 인식하고, 추출된 적어도 하나의 물체 움직임과 적어도 하나의 물체 움직임 예측선을 비교하여 모두 궤적 불일치할 경우, 이동 장애물로 인식하며, 적어도 하나의 물체 움직임과 상기 적어도 하나의 물체 움직임 예측선을 비교하여 모두 궤적 일치할 경우, 허상 장애물로 인식하여 처리할 수 있다.In an embodiment, the processor 120 compares the extracted at least one object motion with the at least one object motion prediction line and, if the trajectory is partially identical, recognizes it as a stationary obstacle and matches the extracted at least one object motion with at least one When one object motion prediction line is compared and all trajectories do not match, it is recognized as a moving obstacle. When the trajectories are identical by comparing at least one object motion with the at least one object motion prediction line, it is recognized and processed as a virtual obstacle. can do.

또는, 프로세서(120)는 전술한 한계치의 이하이면, 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 일치하는 것으로 간주하여 허상 장애물로 인식하고, 전술한 한계치의 이상이면, 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 불일치하는 것으로 간주하여 이동 장애물로 인식하며, 일부가 전술한 한계치의 이상이고, 나머지 일부가 한계치 이하이면, 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 부분적 일치하는 것으로 간주하여 정지 장애물로 인식하여 처리할 수 있다.Alternatively, if the processor 120 is less than or equal to the above-described threshold, the object motion prediction line of each block is regarded as coincident with the at least one object movement trajectory and is recognized as a virtual obstacle. If it is greater than or equal to the above-described threshold, each block The object motion prediction line of the block is considered to be inconsistent with the at least one object motion trajectory and recognized as a moving obstacle. At least one object movement trajectory may be regarded as partially coincident, and it may be recognized and processed as a stationary obstacle.

이와 같이, 본 실시예는 물체 움직임 궤적과 예측선의 비교를 통해 허상 물체, 정지 물체 및 이동 물체 중 어느 하나로 인식함으로써, 모든 이동 장애물 뿐만 아니라, 정지 장애물 및/또는 허상 장애물까지도 모두 확인함으로써, 장애물의 정확한 식별에 보탬이 될 수 있다.As such, in this embodiment, by recognizing any one of a virtual object, a stationary object, and a moving object through comparison of the object movement trajectory and the prediction line, not only all moving obstacles, but also all of the stationary obstacles and/or virtual obstacles are identified, It can help with accurate identification.

이와 같은 처리를 위하여, 프로세서(120)는 선택적으로 1 개 또는 복수 개의 코어를 포함할 수 있다. 예를 들면, 전술한 장애물 검출 방법을 처리하는 동작 프로세서와 모듈 프로세서를 집적하여 구성할 수 있으며, 하기의 메모리(130)를 내장하여 처리할 수도 있다.For such processing, the processor 120 may optionally include one or a plurality of cores. For example, an operation processor and a module processor for processing the above-described obstacle detection method may be integrated and configured, and the following memory 130 may be built-in for processing.

동작 프로세서는 주로 OS, 사용자 인터페이스 및 전술한 장애물 검출 방법 등을 처리하고, 모듈 프로세서는 카메라 연동을 처리할 수 있다. 그러나, 모듈 프로세서는 프로세서(130)에 집적되지 않을 수도 있다.The operation processor mainly processes the OS, the user interface, and the above-described obstacle detection method, and the module processor may process camera interworking. However, the modular processor may not be integrated into the processor 130 .

일 실시예에서, 메모리(140)는 전술한 프로세서(120)에 의해 처리된 데이터를 저장하고, 각 처리에 필요한 백그라운드 데이터, 예컨대 차량 정보 및 조향 정보 등을 저장할 수 있다.In an embodiment, the memory 140 may store data processed by the processor 120 described above, and may store background data required for each processing, for example, vehicle information and steering information.

이러한 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리 (예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장 매체일 수 있다.Such a memory 130 is a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), card type memory (for example, SD or XD memory, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, It may be a storage medium of at least one type of a magnetic disk and an optical disk.

그러나, 이에 한정되지 않는다. 예를 들면, 메모리(130)는 전술한 장애물 처리 방법을 컴퓨터 판독 가능한 기록매체일 수 있다.However, the present invention is not limited thereto. For example, the memory 130 may be a computer-readable recording medium for the above-described obstacle handling method.

일 실시예에서, 표시부(140)는 사용자가 입력한 정보나 사용자에게 제공된 정보, 및 장애물 검출 장치(100)의 각 종 그래픽 사용자 인터페이스(GUI)를 표시하기 위한 것이며, 이러한 그래픽 사용자 인터페이스는 도형, 텍스트, 아이콘, 비디오 및 그들의 임의의 조합으로 구성될 수 있다.In one embodiment, the display unit 140 is for displaying information input by the user or information provided to the user, and various types of graphic user interfaces (GUIs) of the obstacle detection apparatus 100, such graphic user interfaces include figures, It may consist of text, icon, video, and any combination thereof.

이러한 표시부(150)는 표시 패널(141)을 포함할 수 있다. 표시 패널(141)은 LCD(Liquid Crystal Display)및 OLED(Organic Light-Emitting Diode)중 적어도 하나일 수 있다.The display unit 150 may include a display panel 141 . The display panel 141 may be at least one of a liquid crystal display (LCD) and an organic light-emitting diode (OLED).

여기서, 터치 패널(111)과 표시 패널(141)은 2 개의 독립적인 부품으로서 출력 및 입력 기능이 실현되도록 구성될 수 있지만, 하나로 구성하여 입력 및 출력 기능을 실현시킬 수도 있다.Here, the touch panel 111 and the display panel 141 may be configured to realize the output and input functions as two independent parts, but may be configured as one to realize the input and output functions.

마지막으로, 출력부(150)는 전술한 프로세서(120)에 의해 처리된 결과, 예컨대 장애물을 인식하여 경보를 발령하거나 인식 상태를 음성 형태로 알려주고, 이를 출력시키기 위하여 오디오 회로(151) 및 스피커(152)를 포함할 수 있다.Finally, the output unit 150 recognizes the result of processing by the above-described processor 120, for example, recognizes an obstacle and issues an alert or informs the recognition state in the form of a voice, and an audio circuit 151 and a speaker ( 152) may be included.

그러나, 이에 한정되지 않으며, 출력부(150)는 경보 음성 내용을 문자 형태로 출력시킬 수도 있다.However, the present invention is not limited thereto, and the output unit 150 may output the alert voice content in the form of text.

이상에서와 같이, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.As described above, the embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains are implemented in other specific forms without changing the technical spirit or essential features of the present invention You will understand that you can do it. Accordingly, the embodiments described above are illustrative in all respects and not restrictive.

1. 후방 카메라 기반 자율 주차/SPAS 등에 적용 가능하다. 예컨대 후방 카메라의 응용으로, 장애물 경보 또는 자율 주차 중 장애물 인식에 적용 할 수 있다.1. Applicable to rear camera-based autonomous parking/SPAS, etc. For example, as an application of a rear camera, it can be applied to obstacle warning or obstacle recognition during autonomous parking.

2. 전방 카메라 기반 cut-in 인식 등에 적용 가능하다. 예컨대 주행 차량의 좌우에서 추월 후 cut-in 되는 순간(아직 차량의 전체 형태가 파악되지 않아 형상 인식 기반 차량 인식 기능을 수행할 수 없을 때)을 장애물 인식에 적용 할 수 있다.2. Applicable to front camera-based cut-in recognition. For example, the moment of being cut-in after overtaking on the left and right sides of the driving vehicle (when the shape recognition-based vehicle recognition function cannot be performed because the overall shape of the vehicle is not yet grasped) can be applied to obstacle recognition.

100 : 장애물 검출 장치 110 : 입력부
120 : 프로세서 130 : 메모리
140 : 표시부 150 : 출력부
100: obstacle detection device 110: input unit
120: processor 130: memory
140: display unit 150: output unit

Claims (17)

장애물 검출 장치에서 수행되는 장애물 검출 방법으로서,
카메라를 통해 촬영된 영상내에서 포착된 적어도 하나의 물체 움직임을 검출하는 단계;
상기 검출된 적어도 하나의 물체 움직임을 군집화하고, 상기 군집화된 군집 영역을 적어도 하나의 블럭안에 배치되도록 하위 블럭화하는 단계;
물체 추적 기법을 이용하여 상기 하위 블럭내에서 각 블럭 중심의 위치 이동을 하나의 영상에 누적시킨 후, 이에 기초한 적어도 하나의 물체 움직임 궤적을 추출하고, 추출된 차량 이동 예측선을 이용하여 상기 하위 블럭내에서 적어도 하나의 물체 움직임 예측선을 추출하는 단계; 및
추출된 상기 적어도 하나의 물체 움직임 궤적과 상기 적어도 하나의 물체 움직임 예측선 간의 궤적 일치 여부 및 궤적 일치 정도를 판단하여 허상 장애물, 정지 장애물 및 이동 장애물 중 어느 하나로 인식하는 단계
를 포함하는 장애물 검출 방법.
An obstacle detection method performed by an obstacle detection apparatus, comprising:
detecting movement of at least one object captured in an image captured by a camera;
clustering the detected at least one object movement, and sub-blocking the clustered cluster area to be disposed in at least one block;
After accumulating the positional movement of the center of each block in one image using the object tracking technique, at least one object movement trajectory is extracted based on this, and the lower block using the extracted vehicle movement prediction line extracting at least one object motion prediction line from within; and
Recognizing as any one of a virtual obstacle, a stationary obstacle, and a moving obstacle by determining whether or not the trajectory coincides between the extracted at least one object movement trajectory and the at least one object movement prediction line and the trajectory coincidence degree
An obstacle detection method comprising a.
제1항에 있어서,
상기 하위 블럭화하는 단계는,
상기 군집화된 물체가 없는 경우, 해당하는 블럭은 상기 하위 블럭에서 제외시키는 장애물 검출 방법.
According to claim 1,
The step of sub-blocking is,
When there is no clustered object, the corresponding block is excluded from the lower block.
제2항에 있어서,
상기 하위 블럭은 상기 군집화된 물체를 나뉘어 배치된 다수의 블럭으로 이루어진 장애물 검출 방법.
3. The method of claim 2,
The sub-block is an obstacle detection method consisting of a plurality of blocks arranged by dividing the clustered object.
제1항에 있어서,
상기 물체 추적 기법은, 상기 각 블럭 중심의 위치 이동을 추적하는 것인 장애물 검출 방법.
According to claim 1,
The object tracking method is an obstacle detection method that tracks the position movement of the center of each block.
제1항에 있어서,
상기 차량 이동 예측선은, 조향 정보, 차량 정보 및 시점 변환(Bird's eye view) 중 적어도 하나로부터 추출되는 장애물 검출 방법.
According to claim 1,
The vehicle movement prediction line is an obstacle detection method that is extracted from at least one of steering information, vehicle information, and a bird's eye view.
제2항에 있어서,
상기 판단하는 단계는,
상기 적어도 하나의 물체 움직임 궤적과 상기 적어도 하나의 물체 움직임 예측선을 비교하여 부분적으로 궤적 일치할 경우, 상기 정지 장애물로 인식하는 장애물 검출 방법.
3. The method of claim 2,
The determining step is
An obstacle detecting method for recognizing the stationary obstacle by comparing the at least one object motion trajectory with the at least one object motion prediction line and partially matching the trajectory.
제2항에 있어서,
상기 판단하는 단계는,
상기 적어도 하나의 물체 움직임 궤적과 상기 적어도 하나의 물체 움직임 예측선을 비교하여 모두 궤적 불일치할 경우, 상기 이동 장애물로 인식하는 장애물 검출 방법.
3. The method of claim 2,
The determining step is
An obstacle detecting method for comparing the at least one object motion trajectory with the at least one object motion prediction line and recognizing the moving obstacle when the trajectories do not match.
제2항에 있어서,
상기 판단하는 단계는,
상기 적어도 하나의 물체 움직임 궤적과 상기 적어도 하나의 물체 움직임 예측선을 비교하여 모두 궤적 일치할 경우, 상기 허상 장애물로 인식하는 장애물 검출 방법.
3. The method of claim 2,
The determining step is
An obstacle detecting method for recognizing the virtual obstacle by comparing the at least one object motion trajectory with the at least one object motion prediction line, and when all trajectories match.
장애물 검출 장치에서 수행되는 장애물 검출 방법으로서,
카메라를 통해 촬영된 영상내에서 포착된 적어도 하나의 물체 움직임을 검출하는 단계;
상기 검출된 적어도 하나의 물체 움직임을 군집화하고, 상기 군집화된 물체를 적어도 하나의 블럭안에 배치되도록 하위 블럭화하는 단계;
물체 추적 기법을 이용하여 상기 하위 블럭내에서 각 블럭 중심의 위치 이동을 하나의 영상에 누적시킨 후, 이에 기초한 적어도 하나의 물체 움직임 궤적을 추출하고, 추출된 차량 이동 예측선을 이용하여 상기 하위 블럭 내에서 각 블럭의 물체 움직임 예측선을 추출하는 단계; 및
상기 하위 블럭화된 적어도 하나의 블럭을 주기마다 추적하여 갱신한 후, 각 블럭의 중심으로부터 상기 추출된 각 블럭의 물체 움직임 예측선과의 최단 거리 합이 한계치를 초과하였는지의 여부를 판단하는 단계
를 포함하는 장애물 검출 방법.
An obstacle detection method performed by an obstacle detection apparatus, comprising:
detecting movement of at least one object captured in an image captured by a camera;
clustering the detected at least one object movement, and sub-blocking the clustered object to be placed in at least one block;
After accumulating the positional movement of the center of each block in one image using the object tracking technique, at least one object movement trajectory is extracted based on this, and the lower block using the extracted vehicle movement prediction line extracting an object motion prediction line of each block within; and
Determining whether the sum of the shortest distance from the center of each block to the object motion prediction line of each block exceeds a threshold value after tracking and updating the at least one sub-blocked block at each period
An obstacle detection method comprising a.
제9항에 있어서,
상기 하위 블럭화하는 단계는,
상기 군집화된 물체가 없는 경우, 해당하는 블럭은 상기 하위 블럭에서 제외시키는 장애물 검출 방법.
10. The method of claim 9,
The step of sub-blocking is,
When there is no clustered object, the corresponding block is excluded from the lower block.
제9항에 있어서,
상기 물체 추적 기법은, 상기 각 블럭 중심의 위치 이동을 추적하는 것인 장애물 검출 방법.
10. The method of claim 9,
The object tracking method is an obstacle detection method that tracks the position movement of the center of each block.
제10항에 있어서,
상기 하위 블럭은 상기 군집화된 물체를 나뉘어 배치된 다수의 블럭으로 이루어진 장애물 검출 방법.
11. The method of claim 10,
The sub-block is an obstacle detection method consisting of a plurality of blocks arranged by dividing the clustered object.
제9항에 있어서,
상기 차량 이동 예측선은, 조향 정보, 차량 정보 및 시점 변환(Bird's eye view) 중 적어도 하나로부터 추출되는 장애물 검출 방법.
10. The method of claim 9,
The vehicle movement prediction line is an obstacle detection method that is extracted from at least one of steering information, vehicle information, and a bird's eye view.
제10항에 있어서,
상기 판단하는 단계는,
상기 한계치의 이하이면, 상기 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 일치하는 것으로 간주하여 허상 장애물로 인식하는 장애물 검출 방법.
11. The method of claim 10,
The determining step is
If it is less than the threshold, the object motion prediction line of each block is regarded as coincident with the at least one object motion trajectory, and is recognized as a virtual obstacle.
제10항에 있어서,
상기 판단하는 단계는,
상기 한계치의 이상이면, 상기 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 불일치하는 것으로 간주하여 이동 장애물로 인식하는 장애물 검출 방법.
11. The method of claim 10,
The determining step is
If the threshold is greater than the threshold, the object movement prediction line of each block is considered to be inconsistent with the at least one object movement trajectory, and is recognized as a moving obstacle.
제10항에 있어서,
상기 판단하는 단계는,
일부가 상기 한계치의 이상이고, 나머지 일부가 한계치 이하이면, 상기 각 블럭의 물체 움직임 예측선이 상기 적어도 하나의 물체 움직임 궤적과 부분적 일치하는 것으로 간주하여 정지 장애물로 인식하는 장애물 검출 방법.
11. The method of claim 10,
The determining step is
An obstacle detection method for recognizing as a stationary obstacle by considering that the object motion prediction line of each block partially coincides with the at least one object motion trajectory when a part is greater than the threshold value and the remaining part is less than or equal to the threshold value.
메모리; 및 프로세서를 포함하고,
상기 프로세서는, 청구항 1 내지 16 중 어느 한 항에 따른 장애물 검출 방법을 처리하고,
상기 메모리는, 상기 프로세서에 의해 처리된 데이터를 저장하는 장애물 검출 장치.
Memory; and a processor;
The processor processes the obstacle detection method according to any one of claims 1 to 16,
The memory is an obstacle detecting device for storing data processed by the processor.
KR1020150139226A 2015-10-02 2015-10-02 Method and apparatus for detecting obstacle, and computer readable medium the same Active KR102267256B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150139226A KR102267256B1 (en) 2015-10-02 2015-10-02 Method and apparatus for detecting obstacle, and computer readable medium the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150139226A KR102267256B1 (en) 2015-10-02 2015-10-02 Method and apparatus for detecting obstacle, and computer readable medium the same

Publications (2)

Publication Number Publication Date
KR20170039965A KR20170039965A (en) 2017-04-12
KR102267256B1 true KR102267256B1 (en) 2021-06-22

Family

ID=58580502

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150139226A Active KR102267256B1 (en) 2015-10-02 2015-10-02 Method and apparatus for detecting obstacle, and computer readable medium the same

Country Status (1)

Country Link
KR (1) KR102267256B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210112672A (en) 2020-03-05 2021-09-15 삼성전자주식회사 Processor for detecting objects, and objects detecting method
CN112158197B (en) * 2020-08-21 2021-08-27 恒大新能源汽车投资控股集团有限公司 Vehicle blind area obstacle avoiding method, device and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110394A (en) * 2002-09-18 2004-04-08 Toyota Motor Corp Obstacle detection device for vehicles
JP2011095914A (en) * 2009-10-28 2011-05-12 Nec Corp System, method and program for tracking vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150054021A (en) * 2013-11-08 2015-05-20 현대오트론 주식회사 Apparatus for displaying object using head-up display and method thereof
KR101558732B1 (en) * 2014-02-05 2015-10-07 현대자동차주식회사 Apparatus and Method for Detection of Obstacle of Image Data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110394A (en) * 2002-09-18 2004-04-08 Toyota Motor Corp Obstacle detection device for vehicles
JP2011095914A (en) * 2009-10-28 2011-05-12 Nec Corp System, method and program for tracking vehicle

Also Published As

Publication number Publication date
KR20170039965A (en) 2017-04-12

Similar Documents

Publication Publication Date Title
KR101543105B1 (en) Method And Device for Recognizing a Pedestrian and Vehicle supporting the same
KR101982298B1 (en) Method and apparatus for detecting sudden moving objecj appearance at vehicle
Prioletti et al. Part-based pedestrian detection and feature-based tracking for driver assistance: real-time, robust algorithms, and evaluation
WO2016129403A1 (en) Object detection device
JP4692344B2 (en) Image recognition device
KR20180042254A (en) Systems and methods for object tracking
KR101534742B1 (en) System and method for gesture recognition of vehicle
JP2013225295A5 (en)
CN111583660B (en) Vehicle steering behavior detection method, device, equipment and storage medium
WO2016002900A1 (en) Method and device for detecting objects, and computer program product
JP7185419B2 (en) Method and device for classifying objects for vehicles
KR20160135482A (en) Apparatus and method for predicting moving of on-road obstable
CN106203423A (en) A kind of weak structure perception visual target tracking method of integrating context detection
Liu et al. Vehicle detection and ranging using two different focal length cameras
KR102267256B1 (en) Method and apparatus for detecting obstacle, and computer readable medium the same
KR102074209B1 (en) Apparatus and method for guiding caution information of driving
JP5997962B2 (en) In-vehicle lane marker recognition device
Hariri et al. Vision based smart in-car camera system for driver yawning detection
CN105320928A (en) Object recognition apparatus
JP2012118683A (en) Pedestrian recognition device
JP6962365B2 (en) Object detection system and program
Guo et al. CADAS: A multimodal advanced driver assistance system for normal urban streets based on road context understanding
KR20130019908A (en) System for predicting the possibility or impossibility of vehicle parking using support vector machine
US20150178577A1 (en) Image processing apparatus, and image processing method
JP6869672B2 (en) Object tracking system, object tracking device, object tracking method, and object tracking program

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20151002

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20191002

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20151002

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20201127

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210428

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210615

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210616

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240527

Start annual number: 4

End annual number: 4