KR101603293B1 - Lane recognition method - Google Patents
Lane recognition method Download PDFInfo
- Publication number
- KR101603293B1 KR101603293B1 KR1020150012110A KR20150012110A KR101603293B1 KR 101603293 B1 KR101603293 B1 KR 101603293B1 KR 1020150012110 A KR1020150012110 A KR 1020150012110A KR 20150012110 A KR20150012110 A KR 20150012110A KR 101603293 B1 KR101603293 B1 KR 101603293B1
- Authority
- KR
- South Korea
- Prior art keywords
- straight line
- average
- lane
- image
- points
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000001186 cumulative effect Effects 0.000 claims description 16
- 239000000284 extract Substances 0.000 description 12
- 238000003708 edge detection Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 카메라에서 제공하는 촬영영상을 이진 에지영상으로 변환하는 단계, 에지영상을 영상처리하여 소실점 및 소실점을 지나는 직선인 지평선 위치를 파악하는 단계, 에지영상을 영상처리하여 도로와 차량의 보닛이 만나는 직선인 보닛 위치를 파악하는 단계, 에지영상에서 지평선 위치와 보닛 위치 사이에 위치한 직선 중 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계, 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 지평선 위치와 보닛 위치 사이에 위치시켜 지평선 위치에 교차되는 제1 주요점, 보닛 위치에 교차되는 제2 및 제3 주요점을 파악하는 단계, 하나의 촬영영상에 대한 제1 내지 제3 주요점을 누적 저장하는 단계, 누적 저장한 횟수가 설정 횟수이면 누적 저장된 복수의 제1 주요점의 평균, 복수의 제2 주요점의 평균 및 복수의 제3 주요점의 평균을 산출하는 단계, 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 제1 거리 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 제2 거리를 산출하는 단계, 그리고 상기 제1 및 제2 거리가 설정 임계값 이하이면 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 직선 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 직선을 양쪽 차선으로 판정하는 단계를 포함한다.The method includes the steps of converting a shot image provided by a camera into a binary edge image, image processing the edge image, determining a position of a horizon line passing through a vanishing point and a vanishing point, processing the edge image, Selecting one left lane straight line and one right lane straight line by using a slope of a straight line and a brightness of a pixel located between a horizon position and a bonnet position in an edge image; Placing the left lane straight line and the right lane straight line between the horizon position and the bonnet position to grasp the first main point intersecting the horizon position and the second and third main points intersecting the bonnet position, Accumulating the first to third main points for the image, if the accumulated number of times is a preset number, Calculating a mean of one principal point, a mean of a plurality of second principal points and a plurality of third principal points, a first distance between an average of the first principal points and an average of the second principal points, Calculating a second distance between an average of the first principal points and an average of the third principal points, and if the first and second distances are less than or equal to a preset threshold value, Determining a straight line between the averages and a straight line between an average of the first principal points and an average of the third principal points as both lanes.
Description
본 발명은 촬영영상을 이용한 차선인식방법에 관한 것이다.The present invention relates to a lane recognition method using a photographed image.
자동차가 보급된 이래로 주행 중 안전에 대한 관심은 끊임없이 제기되어 왔다. 도로의 차선이나 앞서가는 차량은 각각 주행 중인 차량에서 가장 주의해야 할 대상 중 하나라고 할 수 있다. 각종 기반기술들이 발전해감에 따라, 차선인식, 차량인식 등 도로안전을 위한 다양한 파생기술들이 주목을 받게 되었다.Since the spread of automobiles, there has been constant interest in safety during driving. The lane of the road or the vehicle ahead is one of the most noticeable objects on the road. As various infrastructure technologies have developed, various derivative technologies for road safety such as lane recognition and vehicle recognition have been attracting attention.
내비게이션이나 차량용 블랙박스에 부가적인 기능으로 차선이탈경고(Lane Departure Warning) 시스템이나, 전방차량충돌경보(Forward Collision Avoidance Warning) 시스템 등이 최근 스마트 카(smart car)에 실용화되고 있는 상황이다.Lane Departure Warning system and Forward Collision Avoidance Warning system have been recently put into practical use for smart car as an additional function to navigation or vehicle black box.
그러나 이러한 운전자 보조 장치는 현재까지 일부 고급차량에만 장착되어 있고, 아직도 대부분의 차량에서는 아직까지 활용되지 못하고 있으며 그 원인은 대부분이 비용 상의 문제에 기인한다.However, these driver aids have only been installed in some high-end vehicles to date, and are still not yet available in most vehicles, largely due to cost problems.
따라서 본 발명이 이루고자 하는 기술적 과제는 신뢰할만한 정확도를 가지면서도 비용이 적게 드는 차선인식방법을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a lane recognition method which has reliable accuracy and low cost.
본 발명의 특징에 따른 차선인식방법은 차내에 위치한 카메라는 주행 방향으로 시간 간격을 두고 연속적으로 촬영하며, 상기 카메라로부터 촬영영상을 수신하는 단계, 수신된 촬영영상을 이진 에지영상으로 변환하는 단계, 상기 에지영상을 영상처리하여 소실점 및 상기 소실점을 지나는 직선인 지평선 위치를 파악하는 단계, 상기 에지영상을 영상처리하여 도로와 차량의 보닛이 만나는 직선인 보닛 위치를 파악하는 단계, 상기 에지영상에서 상기 지평선 위치와 상기 보닛 위치 사이에 위치한 직선 중 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계, 상기 하나의 좌측 차선 직선과 상기 하나의 우측 차선 직선을 상기 지평선 위치와 상기 보닛 위치 사이에 위치시켜 상기 지평선 위치에 교차되는 제1 주요점, 상기 보닛 위치에 교차되는 제2 및 제3 주요점을 파악하는 단계, 하나의 촬영영상에 대한 상기 제1 내지 제3 주요점을 누적 저장하는 단계, 누적 저장한 횟수가 설정 횟수이면 누적 저장된 복수의 제1 주요점의 평균, 복수의 제2 주요점의 평균 및 복수의 제3 주요점의 평균을 산출하는 단계, 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 제1 거리 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 제2 거리를 산출하는 단계, 그리고 상기 제1 및 제2 거리가 설정 임계값 이하이면 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 직선 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 직선을 양쪽 차선으로 판정하는 단계를 포함한다.A method of recognizing a lane according to an embodiment of the present invention includes the steps of capturing continuously a camera located in a vehicle with a time interval in a driving direction, receiving a photographed image from the camera, converting a received photographed image into a binary edge image, The method of
상기에서 지평선 위치를 파악하는 단계는 상기 에지영상에 허프 변환을 하고 설정범위 이내의 영상에서 차선으로 추측할 수 있는 직선을 추출하고, 추출한 직선 중에서 기울기가 30도 ~ 90도인 하나의 직선과 기울기가 -30 ~ -90도인 하나의 직선을 각각 추출하며, 추출한 2개의 직선의 교점을 소실점으로 파악한다.In the step of grasping the horizon position, a straight line which can be estimated as a lane in an image within a set range is subjected to Hough transform to the edge image, and one straight line having a slope of 30 to 90 degrees and a slope Extract one straight line from -30 to -90 degrees, and identify the intersection of the extracted two straight lines as a vanishing point.
상기에서 보닛 위치를 파악하는 단계는 복수의 촬영영상 각각에 대한 복수의 에지영상에서 가로방향의 직선을 추출하고, 추출한 직선 중 위치변경이 없는 직선을 보닛 위치로 파악한다.In the step of grasping the bonnet position, a straight line in a horizontal direction is extracted from a plurality of edge images for each of a plurality of shot images, and a straight line without a position change among the extracted straight lines is grasped as a bonnet position.
상기 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계는 기울기가 30도 ~ 90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 좌측 차선으로 선별하며, 기울기가 -30도 ~ -90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 우측 차선으로 선별한다. The step of selecting one left lane straight line and one right lane straight line using the slope of the straight line and the brightness of the pixel may be performed by using one straight line made up of pixels having a slope of 30 degrees to 90 degrees and having the highest pixel brightness as the left lane And selects one straight line having a slope of -30 degrees to -90 degrees and pixels with the highest pixel brightness as the right lane.
본 발명의 실시 예에 따르면, 차선 인식의 정확도를 향상시키고 내비게이션이나 블랙박스 등에 탑재되거나 연동하여 사용함으로써 저비용으로 차선 인식 기능을 이용할 수 있게 하는 효과가 있다.According to the embodiment of the present invention, it is possible to improve the accuracy of the lane recognition and to use the lane recognition function at low cost by being mounted on the navigation device, the black box, or the like.
도 1은 본 발명의 실시 예에 따른 차량에 설치된 차선인식장치의 구성을 보인 도면이다.
도 2는 본 발명의 실시 예에 따른 차선인식방법의 순서도이다.
도 3은 본 발명의 실시 예에 따른 차선인식방법을 통해 파악하는 주요요소를 보인 도면이다.
도 4는 본 발명의 실시 예에 따른 차선인식방법에 의해 생성되는 영상들을 보인 도면이다.
도 5는 본 발명의 실시 예에 따른 차선인식방법에서 영상 데이터 누적 방법을 보인 도면이다.1 is a diagram showing the configuration of a lane recognizing apparatus installed in a vehicle according to an embodiment of the present invention.
2 is a flowchart of a lane recognition method according to an embodiment of the present invention.
FIG. 3 is a diagram showing main elements to be grasped through a lane recognition method according to an embodiment of the present invention.
4 is a diagram showing images generated by the lane recognition method according to the embodiment of the present invention.
5 is a diagram illustrating an image data accumulation method in a lane recognition method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 따른 차선인식방법을 설명한다.Hereinafter, a lane recognition method according to an embodiment of the present invention will be described with reference to the accompanying drawings.
도 1에 도시된 바와 같이, 본 발명의 실시 예에 따른 차선인식장치(200)는 차량(A)의 내부에 위한 카메라(100)에 연결되어 사용된다. 이때 카메라(100)는 차량의 정면을 향하도록 설치되고 일정 속력 이상으로 주행 중인 차량(A)에서 주행 중인 도로를 촬영한다. 그리고 차선인식장치(200)는 차량(A)의 내부에 탑재되거나 내비게이션 또는 블랙박스에 내장되어 사용된다.1, the
이러한 차선인식장치(200)는 에지영상 생성부(210), 지평선 결정부(220), 보닛(bonnet)영역 결정부(230), 주요점 추출부(240), 누적저장 관리부(250) 및 차선 추출부(260)를 포함한다.The
에지영상 생성부(210)는 카메라(10)로부터 시간간격을 두고 연속적으로(즉, 시퀀스하게) 촬영된 즉, 시퀀스하게 촬영된 촬영영상을 각각 수신하고 각 촬영영상에 대하여 캐니 에지 검출(Canny edge detection) 방식을 이용하여 에지영상을 생성한다. 캐니 에지 검출 방식은 John F. Canny에 의해 제시된 에지 검출 방식으로, 공지공용의 기술이다. The edge
지평선 결정부(220)는 에지영상 생성부(210)에 의해 생성된 에지영상에서 도로가 나타나는 가장 상단 부분인 지평선을 파악하고 지평선의 위치를 결정한다. 예컨대, 도 3에 도시된 촬영 영상을 예로 하면, 지평선 결정부(220)는 직선 형태로 나타나는 지평선(h1)을 파악하고 지평선의 위치를 결정한다.The horizon
보닛(bonnet)영역 결정부(230)는 카메라(100)에서 촬영한 촬영 영상에서 차량의 보닛과 도로의 경계 부분 즉, 보닛 위치를 결정한다. 예컨대, 도 3에 도시된 촬영 영상을 예로 하면, 보닛영역 결정부(230)는 직선 형태로 나타나는 보닛 위치(h2)를 파악한다.The bonnet
주요점 추출부(240)는 에지영상 생성부(210)에 의해 생성된 에지영상에서 차선의 폭을 결정하는 2개의 예상차선을 추출하고, 추출한 2개의 예상차선과 지평선 결정부(220)에 의해 결정된 지평선 위치와 보닛영역 결정부(230)에 의해 결정된 보닛 위치를 이용하여 3개의 주요점을 추출하고, 추출한 3개의 주요점이 표시된 영상프레임을 생성한다. 여기서 도 3에 도시된 바와 같이 제1 주요점(Pv)는 지평선 위치에 위치하고 있으며, 제2 및 제3 주요점(Pl, Pr)은 보닛 위치에 위치하고 있다. 여기서 제1 주요점(Pv)는 도로 차선에 대한 소실점이다.The main
누적저장 관리부(250)는 주요점 추출부(240)에서 생성한 영상프레임 즉, 3개의 주요점(Pv, Pl, Pr)이 표시된 영상프레임(이하 "누적 영상프레임"이라 함)을 누적하여 저장하고, 누적 저장량(저장 개수)이 설정 저장량(저장 개수)만큼 저장되게 한다. 만약, 주요점 추출부(240)에서 3개의 주요점(Pv, Pl, Pr)을 영상프레임으로 제공하지 않고 3개의 주요점(Pv, Pl, Pr)에 대한 정보로 제공하는 경우이면, 누적 저장량은 누적 저장한 횟수이고 설정 저장량은 설정 횟수가 된다.The cumulative
누적저장 관리부(250)는 도 5에 도시된 바와 같이 누적 영상프레임을 시간 순서에 따라 순차적으로 누적 저장하여 설정 저장량만큼 저장시키고, 설정 저장량만큼 저장되면 이후에 새로이 누적 영상프레임(frame n)이 수신되는 경우에 새로운 영상프레임(frame n)은 저장시키고, 가장 오래된 영상프레임(frame 1)은 삭제한다.5, the cumulative
차선 추출부(260)는 누적저장 관리부(250)에 의해 누적 영상프레임의 저장량이 설정 저장량 이상인 경우에 설정 저장량의 영상프레임 각각에 표시된 3개의 주요점들에 대하여 각 평균치를 산출하고, 산출한 평균치의 주요점 중 주요점(Pv)와 주요점(Pl) 간의 직선 및 주요점(Pv)와 주요점(Pr) 간의 직선을 차선으로 추출한다.The
이상과 같이 구성된 본 발명의 실시 예에 따른 차선인식장치에 의해 이루어지는 차선인식방법을 설명한다. A lane recognizing method performed by the lane recognizing apparatus according to the embodiment of the present invention configured as described above will be described.
차내에 설치된 카메라(100)에서는 일정 속도로 주행중인 상태에서 전방을 향해 촬영을 하여 촬영 영상을 생성한다(S201). 이때 촬영영상은 예컨대 도 4의 (a)와 같으며, 전방 도로의 형상을 포함하고, 디지털 데이터로 이루어져 있다.The
촬영영상은 차선인식장치(200)의 에지영상 생성부(210)에 입력되고, 에지영상 생성부(210)는 촬영영상을 캐니 에지 검출 방식의 영상 처리를 수행하여 에지영상을 생성한다(S202). 참고로 도 4의 (a)에 도시된 촬영영상을 캐니 에지 검출 방식으로 영상 처리하여 얻은 에지영상이 도 4의 (b)에 도시되어 있다.The photographed image is input to the edge
에지영상 생성부(210)에 의해 생성된 에지영상은 지평선 결정부(220), 보닛영역 결정부(230) 및 주요점 추출부(220)에 입력된다. The edge image generated by the edge
지평선 결정부(220)는 수신한 에지영상에 허프 변환을 하여 차선으로 추측할 수 있는 직선을 추출한다. 이때 지평선 결정부(220)는 기울기를 이용하여 직선을 추출한다. 일반적으로 왼쪽 차선과 오른쪽은 전방에서 촬영시에 화면의 중심을 향하게 된다. 즉 왼쪽 차선의 기울기는 90도 이내이고, 오른쪽 차선의 기울기는 90도보다 크고 180도 보다 작다.Horizon
따라서 지평선 결정부(220)는 왼쪽 차선에 대응한 하나의 직선으로 30도에서 90도 사이의 각도를 가진 직선을 추출하고, 오른쪽 차선에 대응한 하나의 직선으로 -30도에서 -90 사이의 각도를 가진 직선을 추출한다. 여기서 지평선 결정부(220)는 왼쪽 차선에 대응한 하나의 직선과 오른쪽 차선에 대응한 하나의 직선을 추출하기 위해 화면의 중심선(세로선) 또는 설정위치의 세로선에 위치한 픽셀로부터 좌측은 왼쪽 방향으로 설정된 제1 범위만큼 스캔하고, 우측은 오른쪽 방향으로 설정된 제1 범위만큼 스캔한다. 그리고 스캔 중에 각 행(row)별로 처음 만나는 에지 픽셀을 추출한다. 추출된 각 행별 에지 픽셀을 조합하면 직선의 형태가 나타난다. 만약 직선이 추출되지 않으면 스캔범위를 제1 범위에서 제2 범위로 확장하여 스캔을 한다.Therefore, the horizon
참고로 도 4의 (b)에 도시된 에지영상에서 추출한 왼쪽 차선에 대응한 직선 및 오른쪽 차선에 대응한 직선을 이용하여 생성한 영상이 도 4의 (c)에 도시되어 있다.4 (c) shows an image generated by using a straight line corresponding to the left lane and a straight line corresponding to the right lane extracted from the edge image shown in (b) of FIG.
그런 다음 지평선 결정부(220)는 도 4의 (d)에 도시된 바와 같이 추출한 왼쪽 차선에 대응한 직선 및 오른쪽 차선에 대응한 직선을 각각 연장시켜 두 직선의 교점을 파악하고 파악한 교점을 두 직선의 소실점으로 결정하며, 소실점을 지나치는 수평한 직선(화면상에서 가로 직선)을 수평선(h1)으로 결정한다(S203).Then, the horizon
한편 지평선 결정부(220)는 순차적으로 입력되는 복수개의 촬영영상(즉, 복수개의 영상프레임) 각각에 대하여 각각 오른쪽 차선과 왼쪽 차선을 추출하고, 추출한 복수개의 오른쪽 차선과 왼쪽 차선의 교차점을 찾으며, 교차되는 직선의 수가 가장 많은 교차점을 소실점으로 결정할 수 있다.On the other hand, the horizontal
보닛영역 결정부(230)는 복수의 촬영영상 각각에 대한 복수의 에지영상에서 수평방향(즉, 가로방향)의 직선을 추출하고, 추출한 직선 중 위치변경이 없는 직선을 보닛 위치로 파악한다(S204). The bonnet
여기서 각 에지영상에 대하여 가로축 수평에지 히스토그램을 구하여 최대값을 파악하면, 최대값은 보닛 위치와 일치한다. 물론 히스토그램의 최대값이 설정치 이하이면 히스토그램의 최대값에 대한 평균을 산출하고 평균값에 해당하는 직선을 보닛 위치로 할 수 있다.Here, the horizontal axis and the horizontal edge histogram are obtained for each edge image, and when the maximum value is obtained, the maximum value coincides with the bonnet position. Of course, if the maximum value of the histogram is less than the set value, the average of the maximum value of the histogram can be calculated and the straight line corresponding to the average value can be set as the bonnet position.
지평선 결정부(220)의 지평선 위치(h1)와 보닛유닛 결정부(230)의 보닛 위치(h2)는 주요점 추출부(240)에 제공된다. 주요점 추출부(240)는 에지영상에서 각 행별로 양쪽 차선 픽셀을 하나씩 선별한다(S205). 이때 검출되는 차선의 픽셀은 지평선 위치(h1)와 보닛 위치(h2) 사이에 위치한 픽셀들 중에서 추출되며, 추출되는 픽셀은 소실점의 좌표를 중심으로 좌, 우 방향을 향해 탐색하여 파악된 임계값 이상의 밝기를 가진 픽셀 중 가장 밝은 픽셀이다.The horizon position h1 of the horizon
주요점 추출부(240)는 양쪽 차선 픽셀을 선별하고 이를 허프변환을 적용하여 직선들을 추출하며(S206), 추출한 직선들 중 30도 ~ 90도의 기울기를 가진 하나의 직선(좌측 차선에 대응한 직선)과 -30도 ~ -90도의 기울기를가진 하나의 직선(우측 차선에 대응한 직선)을 선별한다(S207).The main
그런 다음 주요점 추출부(240)는 추출한 좌측 차선의 직선과 우측 차선의 직선을 지평선 결정부(220)로부터 획득한 지평선의 위치(h1)와 보닛위치 결정부(230)로부터 획득한 보닛 위치(h2) 사이에 위치시켜 제1 내지 제3 주요점(Pv, Pl, Pr)을 파악하고(S208), 파악한 제1 내지 제3 주요점(Pv, Pl, Pr)을 누적저장 관리부(250)를 통해 저장한다(S209).The main
누적저장 관리부(250)는 누적 저장량이 설정 저장량 이상인지를 판단하고(S210), 누적 저장량이 설정 저장량 이상이 되는 경우에 누적 저장된 제1 내지 제3 주요점(Pv, Pl, Pr)을 차선 추출부(260)에 제공하여 차선 추출을 지시한다.The cumulative
이에 차선 추출부(260)는 누적 저장된 제1 내지 제3 주요점(Pv, Pl, Pr)들의 평균값을 산출하여 제1 주요점평균(AVGPv), 제2 주요점평균(AVGPl) 및 제3 주요점평균(AVGPr)을 파악한다(S211). 그런 다음 차선 추출부(260)는 제1 주요점평균(AVGPv)과 제2 주요점평균(AVGPl) 간의 제1 거리와 제1 주요점평균(AVGPv)과 제3 주요점평균(AVGPr) 간의 제2 거리를 산출하고, 산출한 제1 및 제2 거리를 각각 설정된 임계치와 비교하여 임계치보다 작으면 최종적으로 제1 주요점평균(AVGPv)과 제2 주요점평균(AVGPl) 간의 직선(좌측 차선)과 제1 주요점평균(AVGPv)과 제3 주요점평균(AVGPr) 간의 차선(우측 차선)을 올바른 차선이라고 판정한다(S212).The
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
100 : 카메라 200 : 차선인식장치
210 : 에지영상 생성부 220 : 지평선 결정부
230 : 보닛영역 결정부 240 : 주요점 추출부
250 : 누적저장 관리부 260 : 차선 추출부100: camera 200: lane recognition device
210: edge image generating unit 220: horizon determining unit
230: bonnet area determining unit 240: main point extracting unit
250: cumulative storage management unit 260: lane-
Claims (4)
상기 카메라로부터 촬영영상을 수신하는 단계,
수신된 촬영영상을 이진 에지영상으로 변환하는 단계,
상기 에지영상을 영상처리하여 소실점 및 상기 소실점을 지나는 직선인 지평선 위치를 파악하는 단계,
상기 에지영상을 영상처리하여 도로와 차량의 보닛이 만나는 직선인 보닛 위치를 파악하는 단계,
상기 에지영상에서 상기 지평선 위치와 상기 보닛 위치 사이에 위치한 직선 중 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계,
상기 하나의 좌측 차선 직선과 상기 하나의 우측 차선 직선을 상기 지평선 위치와 상기 보닛 위치 사이에 위치시켜 상기 지평선 위치에 교차되는 제1 주요점, 상기 보닛 위치에 교차되는 제2 및 제3 주요점을 파악하는 단계,
하나의 촬영영상에 대한 상기 제1 내지 제3 주요점을 누적 저장하는 단계,
누적 저장한 횟수가 설정 횟수이면 누적 저장된 복수의 제1 주요점의 평균, 복수의 제2 주요점의 평균 및 복수의 제3 주요점의 평균을 산출하는 단계,
상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 제1 거리 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 제2 거리를 산출하는 단계, 그리고
상기 제1 및 제2 거리가 설정 임계값 이하이면 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 직선 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 직선을 양쪽 차선으로 판정하는 단계
를 포함하는 차선인식방법.The camera located in the vehicle continuously photographs at a time interval in the running direction,
Receiving a photographed image from the camera,
Converting the received photographed image into a binary edge image,
Processing the edge image to obtain a vanishing point and a horizon line position passing through the vanishing point,
Image processing of the edge image to grasp the bonnet position, which is a straight line where the road meets the bonnet of the vehicle,
Selecting one left lane straight line and one right lane straight line using the slope of the straight line and the brightness of the pixel located between the horizon position and the bonnet position in the edge image,
Placing the one left lane straight line and the one right lane straight line between the horizon position and the bonnet position to form a first main point intersecting the horizon position and a second main point intersecting the bonnet position Step to grasp,
Cumulatively storing the first to third principal points for one shot image;
Calculating a mean of a plurality of cumulative first stored points, an average of a plurality of second significant points, and an average of a plurality of third significant points when the accumulated cumulative number of times is a preset number,
Calculating a first distance between an average of the first principal points and an average of the second principal points and a second distance between an average of the first principal points and an average of the third principal points,
A straight line between an average of the first principal points and an average of the second principal points and a straight line between an average of the first principal points and an average of the third principal points, A step of judging as a lane
The lane recognition method comprising:
상기 지평선 위치를 파악하는 단계는
상기 에지영상에 허프 변환을 하고 설정범위 이내의 영상에서 차선으로 추측할 수 있는 직선을 추출하고, 추출한 직선 중에서 기울기가 30도 ~ 90도인 하나의 직선과 기울기가 -30 ~ -90도인 하나의 직선을 각각 추출하며, 추출한 2개의 직선의 교점을 소실점으로 파악하는 차선인식방법.The method of claim 1,
The step of grasping the horizon position
A straight line having a slope of 30 to 90 degrees and a straight line having a slope of -30 to -90 degrees among the extracted straight lines are extracted from the extracted image, Respectively, and recognizing the intersection of the extracted two straight lines as a vanishing point.
상기 보닛 위치를 파악하는 단계는
복수의 촬영영상 각각에 대한 복수의 에지영상에서 가로방향의 직선을 추출하고, 추출한 직선 중 위치변경이 없는 직선을 보닛 위치로 파악하는 차선인식방법.3. The method according to claim 1 or 2,
The step of grasping the bonnet position
A lane recognition method for extracting a straight line in a horizontal direction from a plurality of edge images for each of a plurality of shot images and grasping a straight line without a position change among the extracted straight lines as a bonnet position.
상기 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계는
기울기가 30도 ~ 90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 좌측 차선으로 선별하며, 기울기가 -30도 ~ -90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 우측 차선으로 선별하는 차선인식방법.4. The method of claim 3,
The step of selecting one left lane straight line and one right lane straight line using the slope of the straight line and the brightness of the pixel
One straight line made up of pixels with a slope of 30 degrees to 90 degrees and having the highest pixel brightness is selected as the left lane and one straight line made up of pixels having a slope of -30 degrees to -90 degrees and the brightest pixel is called a right lane A lane recognition method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150012110A KR101603293B1 (en) | 2015-01-26 | 2015-01-26 | Lane recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150012110A KR101603293B1 (en) | 2015-01-26 | 2015-01-26 | Lane recognition method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101603293B1 true KR101603293B1 (en) | 2016-03-16 |
Family
ID=55649877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150012110A KR101603293B1 (en) | 2015-01-26 | 2015-01-26 | Lane recognition method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101603293B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647572A (en) * | 2018-04-04 | 2018-10-12 | 华南理工大学 | A kind of lane departure warning method based on Hough transformation |
KR102119033B1 (en) * | 2019-09-27 | 2020-06-05 | 한국건설기술연구원 | Apparatus and method for providing road marking information using image data and vibration |
KR102425389B1 (en) | 2021-04-29 | 2022-07-27 | 한국전자기술연구원 | Performance enhancement and driving control method of lane recognition algorithm for bicycle roads and trails |
-
2015
- 2015-01-26 KR KR1020150012110A patent/KR101603293B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647572A (en) * | 2018-04-04 | 2018-10-12 | 华南理工大学 | A kind of lane departure warning method based on Hough transformation |
KR102119033B1 (en) * | 2019-09-27 | 2020-06-05 | 한국건설기술연구원 | Apparatus and method for providing road marking information using image data and vibration |
KR102425389B1 (en) | 2021-04-29 | 2022-07-27 | 한국전자기술연구원 | Performance enhancement and driving control method of lane recognition algorithm for bicycle roads and trails |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108243623B (en) | Automobile anti-collision early warning method and system based on binocular stereo vision | |
JP4437714B2 (en) | Lane recognition image processing device | |
JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
CN104050654B (en) | road edge detection method and device | |
US8848980B2 (en) | Front vehicle detecting method and front vehicle detecting apparatus | |
EP2924654A2 (en) | Image processing apparatus and image processing method | |
JP6130809B2 (en) | Lane recognition device | |
CN107273788B (en) | Imaging system for performing lane detection in a vehicle and vehicle imaging system | |
US9747507B2 (en) | Ground plane detection | |
EP2960829A2 (en) | Lane boundary estimation device and lane boundary estimation method | |
US10037470B2 (en) | Pitch angle estimation apparatus | |
US20090052742A1 (en) | Image processing apparatus and method thereof | |
CN103366155B (en) | Temporal coherence in unobstructed pathways detection | |
CN110658539B (en) | Vehicle positioning method, device, vehicle and computer readable storage medium | |
KR101035761B1 (en) | Image Processing Method and System for Lane Recognition | |
US9508000B2 (en) | Object recognition apparatus | |
KR20090098167A (en) | Lane Recognition Method and System Using Distance Sensor | |
KR101603293B1 (en) | Lane recognition method | |
US9916672B2 (en) | Branching and merging determination apparatus | |
US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
KR102372296B1 (en) | Apparatus and method for recognize driving lane on image | |
KR101910256B1 (en) | Lane Detection Method and System for Camera-based Road Curvature Estimation | |
Hultqvist et al. | Detecting and positioning overtaking vehicles using 1D optical flow | |
JP5189556B2 (en) | Lane detection device | |
JP2015064735A (en) | Apparatus and method for estimating vehicle position |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150126 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20151030 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20160226 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20160308 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20160309 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20190327 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20190327 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20210217 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20220216 Start annual number: 7 End annual number: 7 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20231219 |