[go: up one dir, main page]

KR101603293B1 - Lane recognition method - Google Patents

Lane recognition method Download PDF

Info

Publication number
KR101603293B1
KR101603293B1 KR1020150012110A KR20150012110A KR101603293B1 KR 101603293 B1 KR101603293 B1 KR 101603293B1 KR 1020150012110 A KR1020150012110 A KR 1020150012110A KR 20150012110 A KR20150012110 A KR 20150012110A KR 101603293 B1 KR101603293 B1 KR 101603293B1
Authority
KR
South Korea
Prior art keywords
straight line
average
lane
image
points
Prior art date
Application number
KR1020150012110A
Other languages
Korean (ko)
Inventor
조재수
김기석
박종섭
박요한
유광준
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020150012110A priority Critical patent/KR101603293B1/en
Application granted granted Critical
Publication of KR101603293B1 publication Critical patent/KR101603293B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 카메라에서 제공하는 촬영영상을 이진 에지영상으로 변환하는 단계, 에지영상을 영상처리하여 소실점 및 소실점을 지나는 직선인 지평선 위치를 파악하는 단계, 에지영상을 영상처리하여 도로와 차량의 보닛이 만나는 직선인 보닛 위치를 파악하는 단계, 에지영상에서 지평선 위치와 보닛 위치 사이에 위치한 직선 중 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계, 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 지평선 위치와 보닛 위치 사이에 위치시켜 지평선 위치에 교차되는 제1 주요점, 보닛 위치에 교차되는 제2 및 제3 주요점을 파악하는 단계, 하나의 촬영영상에 대한 제1 내지 제3 주요점을 누적 저장하는 단계, 누적 저장한 횟수가 설정 횟수이면 누적 저장된 복수의 제1 주요점의 평균, 복수의 제2 주요점의 평균 및 복수의 제3 주요점의 평균을 산출하는 단계, 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 제1 거리 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 제2 거리를 산출하는 단계, 그리고 상기 제1 및 제2 거리가 설정 임계값 이하이면 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 직선 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 직선을 양쪽 차선으로 판정하는 단계를 포함한다.The method includes the steps of converting a shot image provided by a camera into a binary edge image, image processing the edge image, determining a position of a horizon line passing through a vanishing point and a vanishing point, processing the edge image, Selecting one left lane straight line and one right lane straight line by using a slope of a straight line and a brightness of a pixel located between a horizon position and a bonnet position in an edge image; Placing the left lane straight line and the right lane straight line between the horizon position and the bonnet position to grasp the first main point intersecting the horizon position and the second and third main points intersecting the bonnet position, Accumulating the first to third main points for the image, if the accumulated number of times is a preset number, Calculating a mean of one principal point, a mean of a plurality of second principal points and a plurality of third principal points, a first distance between an average of the first principal points and an average of the second principal points, Calculating a second distance between an average of the first principal points and an average of the third principal points, and if the first and second distances are less than or equal to a preset threshold value, Determining a straight line between the averages and a straight line between an average of the first principal points and an average of the third principal points as both lanes.

Description

차선인식방법{Lane recognition method}Lane recognition method [0002]

본 발명은 촬영영상을 이용한 차선인식방법에 관한 것이다.The present invention relates to a lane recognition method using a photographed image.

자동차가 보급된 이래로 주행 중 안전에 대한 관심은 끊임없이 제기되어 왔다. 도로의 차선이나 앞서가는 차량은 각각 주행 중인 차량에서 가장 주의해야 할 대상 중 하나라고 할 수 있다. 각종 기반기술들이 발전해감에 따라, 차선인식, 차량인식 등 도로안전을 위한 다양한 파생기술들이 주목을 받게 되었다.Since the spread of automobiles, there has been constant interest in safety during driving. The lane of the road or the vehicle ahead is one of the most noticeable objects on the road. As various infrastructure technologies have developed, various derivative technologies for road safety such as lane recognition and vehicle recognition have been attracting attention.

내비게이션이나 차량용 블랙박스에 부가적인 기능으로 차선이탈경고(Lane Departure Warning) 시스템이나, 전방차량충돌경보(Forward Collision Avoidance Warning) 시스템 등이 최근 스마트 카(smart car)에 실용화되고 있는 상황이다.Lane Departure Warning system and Forward Collision Avoidance Warning system have been recently put into practical use for smart car as an additional function to navigation or vehicle black box.

그러나 이러한 운전자 보조 장치는 현재까지 일부 고급차량에만 장착되어 있고, 아직도 대부분의 차량에서는 아직까지 활용되지 못하고 있으며 그 원인은 대부분이 비용 상의 문제에 기인한다.However, these driver aids have only been installed in some high-end vehicles to date, and are still not yet available in most vehicles, largely due to cost problems.

한국등록특허 제10-0975749호(등록일자: 2010년 08월 06일)Korean Registered Patent No. 10-0975749 (registered on August 06, 2010) 한국등록특허 제10-1169338호(등록일자: 2012년 07월 23일)Korean Registered Patent No. 10-1169338 (registered on July 23, 2012)

따라서 본 발명이 이루고자 하는 기술적 과제는 신뢰할만한 정확도를 가지면서도 비용이 적게 드는 차선인식방법을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a lane recognition method which has reliable accuracy and low cost.

본 발명의 특징에 따른 차선인식방법은 차내에 위치한 카메라는 주행 방향으로 시간 간격을 두고 연속적으로 촬영하며, 상기 카메라로부터 촬영영상을 수신하는 단계, 수신된 촬영영상을 이진 에지영상으로 변환하는 단계, 상기 에지영상을 영상처리하여 소실점 및 상기 소실점을 지나는 직선인 지평선 위치를 파악하는 단계, 상기 에지영상을 영상처리하여 도로와 차량의 보닛이 만나는 직선인 보닛 위치를 파악하는 단계, 상기 에지영상에서 상기 지평선 위치와 상기 보닛 위치 사이에 위치한 직선 중 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계, 상기 하나의 좌측 차선 직선과 상기 하나의 우측 차선 직선을 상기 지평선 위치와 상기 보닛 위치 사이에 위치시켜 상기 지평선 위치에 교차되는 제1 주요점, 상기 보닛 위치에 교차되는 제2 및 제3 주요점을 파악하는 단계, 하나의 촬영영상에 대한 상기 제1 내지 제3 주요점을 누적 저장하는 단계, 누적 저장한 횟수가 설정 횟수이면 누적 저장된 복수의 제1 주요점의 평균, 복수의 제2 주요점의 평균 및 복수의 제3 주요점의 평균을 산출하는 단계, 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 제1 거리 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 제2 거리를 산출하는 단계, 그리고 상기 제1 및 제2 거리가 설정 임계값 이하이면 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 직선 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 직선을 양쪽 차선으로 판정하는 단계를 포함한다.A method of recognizing a lane according to an embodiment of the present invention includes the steps of capturing continuously a camera located in a vehicle with a time interval in a driving direction, receiving a photographed image from the camera, converting a received photographed image into a binary edge image, The method of claim 1, further comprising: processing the edge image to identify a position of a horizon line that is a straight line passing through the vanishing point and the vanishing point; image processing of the edge image to identify a bonnet position where the road meets the bonnet of the vehicle; Selecting one left lane straight line and one right lane straight line using the slope of the straight line and the brightness of the pixel located between the horizon position and the bonnet position and selecting the one left lane straight line and the one right lane straight line Is located between the horizon position and the bonnet position and intersects the horizon position The method comprising the steps of: identifying a first main point, second and third main points intersecting the bonnet position, accumulating the first to third main points for one photographed image, Calculating an average of a plurality of first main points accumulated in the number of times, an average of a plurality of second main points, and an average of a plurality of third main points, calculating an average of the first main points and an average Calculating a second distance between an average of the first principal points and an average of the third principal points, and if the first and second distances are less than or equal to a preset threshold value, And a straight line between an average of the second main points and a straight line between an average of the first main points and an average of the third main points as both lanes.

상기에서 지평선 위치를 파악하는 단계는 상기 에지영상에 허프 변환을 하고 설정범위 이내의 영상에서 차선으로 추측할 수 있는 직선을 추출하고, 추출한 직선 중에서 기울기가 30도 ~ 90도인 하나의 직선과 기울기가 -30 ~ -90도인 하나의 직선을 각각 추출하며, 추출한 2개의 직선의 교점을 소실점으로 파악한다.In the step of grasping the horizon position, a straight line which can be estimated as a lane in an image within a set range is subjected to Hough transform to the edge image, and one straight line having a slope of 30 to 90 degrees and a slope Extract one straight line from -30 to -90 degrees, and identify the intersection of the extracted two straight lines as a vanishing point.

상기에서 보닛 위치를 파악하는 단계는 복수의 촬영영상 각각에 대한 복수의 에지영상에서 가로방향의 직선을 추출하고, 추출한 직선 중 위치변경이 없는 직선을 보닛 위치로 파악한다.In the step of grasping the bonnet position, a straight line in a horizontal direction is extracted from a plurality of edge images for each of a plurality of shot images, and a straight line without a position change among the extracted straight lines is grasped as a bonnet position.

상기 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계는 기울기가 30도 ~ 90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 좌측 차선으로 선별하며, 기울기가 -30도 ~ -90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 우측 차선으로 선별한다. The step of selecting one left lane straight line and one right lane straight line using the slope of the straight line and the brightness of the pixel may be performed by using one straight line made up of pixels having a slope of 30 degrees to 90 degrees and having the highest pixel brightness as the left lane And selects one straight line having a slope of -30 degrees to -90 degrees and pixels with the highest pixel brightness as the right lane.

본 발명의 실시 예에 따르면, 차선 인식의 정확도를 향상시키고 내비게이션이나 블랙박스 등에 탑재되거나 연동하여 사용함으로써 저비용으로 차선 인식 기능을 이용할 수 있게 하는 효과가 있다.According to the embodiment of the present invention, it is possible to improve the accuracy of the lane recognition and to use the lane recognition function at low cost by being mounted on the navigation device, the black box, or the like.

도 1은 본 발명의 실시 예에 따른 차량에 설치된 차선인식장치의 구성을 보인 도면이다.
도 2는 본 발명의 실시 예에 따른 차선인식방법의 순서도이다.
도 3은 본 발명의 실시 예에 따른 차선인식방법을 통해 파악하는 주요요소를 보인 도면이다.
도 4는 본 발명의 실시 예에 따른 차선인식방법에 의해 생성되는 영상들을 보인 도면이다.
도 5는 본 발명의 실시 예에 따른 차선인식방법에서 영상 데이터 누적 방법을 보인 도면이다.
1 is a diagram showing the configuration of a lane recognizing apparatus installed in a vehicle according to an embodiment of the present invention.
2 is a flowchart of a lane recognition method according to an embodiment of the present invention.
FIG. 3 is a diagram showing main elements to be grasped through a lane recognition method according to an embodiment of the present invention.
4 is a diagram showing images generated by the lane recognition method according to the embodiment of the present invention.
5 is a diagram illustrating an image data accumulation method in a lane recognition method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 따른 차선인식방법을 설명한다.Hereinafter, a lane recognition method according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1에 도시된 바와 같이, 본 발명의 실시 예에 따른 차선인식장치(200)는 차량(A)의 내부에 위한 카메라(100)에 연결되어 사용된다. 이때 카메라(100)는 차량의 정면을 향하도록 설치되고 일정 속력 이상으로 주행 중인 차량(A)에서 주행 중인 도로를 촬영한다. 그리고 차선인식장치(200)는 차량(A)의 내부에 탑재되거나 내비게이션 또는 블랙박스에 내장되어 사용된다.1, the lane recognizing apparatus 200 according to the embodiment of the present invention is used in connection with a camera 100 for the interior of the vehicle A. At this time, the camera 100 photographs the road running on the vehicle A, which is installed so as to face the front of the vehicle and is traveling at a constant speed or more. The lane recognizing device 200 is mounted in the interior of the vehicle A or used in a navigation or black box.

이러한 차선인식장치(200)는 에지영상 생성부(210), 지평선 결정부(220), 보닛(bonnet)영역 결정부(230), 주요점 추출부(240), 누적저장 관리부(250) 및 차선 추출부(260)를 포함한다.The lane recognizing apparatus 200 includes an edge image generating unit 210, a horizon line determining unit 220, a bonnet area determining unit 230, a main point extracting unit 240, an accumulated storage managing unit 250, And an extracting unit 260.

에지영상 생성부(210)는 카메라(10)로부터 시간간격을 두고 연속적으로(즉, 시퀀스하게) 촬영된 즉, 시퀀스하게 촬영된 촬영영상을 각각 수신하고 각 촬영영상에 대하여 캐니 에지 검출(Canny edge detection) 방식을 이용하여 에지영상을 생성한다. 캐니 에지 검출 방식은 John F. Canny에 의해 제시된 에지 검출 방식으로, 공지공용의 기술이다. The edge image generating unit 210 receives the sequentially captured (i.e., sequenced) shot images from the camera 10 at intervals of time, that is, sequentially captured shot images, and performs canny edge detection detection method is used to generate an edge image. The canyon edge detection method is an edge detection method proposed by John F. Canny and is a publicly known technique.

지평선 결정부(220)는 에지영상 생성부(210)에 의해 생성된 에지영상에서 도로가 나타나는 가장 상단 부분인 지평선을 파악하고 지평선의 위치를 결정한다. 예컨대, 도 3에 도시된 촬영 영상을 예로 하면, 지평선 결정부(220)는 직선 형태로 나타나는 지평선(h1)을 파악하고 지평선의 위치를 결정한다.The horizon line determining unit 220 grasps the horizon line which is the uppermost part where the road appears in the edge image generated by the edge image generating unit 210 and determines the position of the horizon line. 3, the horizon line determining unit 220 grasps the horizon line h1 appearing in a straight line shape and determines the position of the horizon line.

보닛(bonnet)영역 결정부(230)는 카메라(100)에서 촬영한 촬영 영상에서 차량의 보닛과 도로의 경계 부분 즉, 보닛 위치를 결정한다. 예컨대, 도 3에 도시된 촬영 영상을 예로 하면, 보닛영역 결정부(230)는 직선 형태로 나타나는 보닛 위치(h2)를 파악한다.The bonnet area determining unit 230 determines the boundary between the bonnet and the road of the vehicle, that is, the bonnet position, from the photographed image photographed by the camera 100. [ For example, taking the shot image shown in FIG. 3 as an example, the bonnet area determination unit 230 grasps the bonnet position h2 appearing in a straight line.

주요점 추출부(240)는 에지영상 생성부(210)에 의해 생성된 에지영상에서 차선의 폭을 결정하는 2개의 예상차선을 추출하고, 추출한 2개의 예상차선과 지평선 결정부(220)에 의해 결정된 지평선 위치와 보닛영역 결정부(230)에 의해 결정된 보닛 위치를 이용하여 3개의 주요점을 추출하고, 추출한 3개의 주요점이 표시된 영상프레임을 생성한다. 여기서 도 3에 도시된 바와 같이 제1 주요점(Pv)는 지평선 위치에 위치하고 있으며, 제2 및 제3 주요점(Pl, Pr)은 보닛 위치에 위치하고 있다. 여기서 제1 주요점(Pv)는 도로 차선에 대한 소실점이다.The main point extracting unit 240 extracts two predicted lanes that determine the width of the lane in the edge image generated by the edge image generating unit 210, and extracts the two predicted lanes and the horizon line determining unit 220 Three main points are extracted using the determined horizon position and the bonnet position determined by the bonnet area determination unit 230, and an image frame in which the extracted three principal points are displayed is generated. Here, as shown in FIG. 3, the first principal point Pv is located at the horizon position, and the second and third principal points Pl and Pr are located at the bonnet position. Here, the first principal point Pv is a vanishing point for the road lane.

누적저장 관리부(250)는 주요점 추출부(240)에서 생성한 영상프레임 즉, 3개의 주요점(Pv, Pl, Pr)이 표시된 영상프레임(이하 "누적 영상프레임"이라 함)을 누적하여 저장하고, 누적 저장량(저장 개수)이 설정 저장량(저장 개수)만큼 저장되게 한다. 만약, 주요점 추출부(240)에서 3개의 주요점(Pv, Pl, Pr)을 영상프레임으로 제공하지 않고 3개의 주요점(Pv, Pl, Pr)에 대한 정보로 제공하는 경우이면, 누적 저장량은 누적 저장한 횟수이고 설정 저장량은 설정 횟수가 된다.The cumulative storage management unit 250 cumulatively stores image frames (hereinafter referred to as "cumulative image frames") in which image frames generated by the main point extracting unit 240, i.e., three main points Pv, , And causes the cumulative storage amount (storage number) to be stored for the set storage amount (storage number). If the main point extracting unit 240 does not provide the three main points Pv, Pl and Pr as image frames but provides information on the three main points Pv, Pl and Pr, And the set storage amount is the set number of times.

누적저장 관리부(250)는 도 5에 도시된 바와 같이 누적 영상프레임을 시간 순서에 따라 순차적으로 누적 저장하여 설정 저장량만큼 저장시키고, 설정 저장량만큼 저장되면 이후에 새로이 누적 영상프레임(frame n)이 수신되는 경우에 새로운 영상프레임(frame n)은 저장시키고, 가장 오래된 영상프레임(frame 1)은 삭제한다.5, the cumulative image management unit 250 sequentially accumulates the cumulative image frames according to the time sequence and stores the cumulative image frames as much as the set cumulative storage amount. When the cumulative image frames are stored as the set storage amount, , The new image frame (frame n) is stored and the oldest image frame (frame 1) is deleted.

차선 추출부(260)는 누적저장 관리부(250)에 의해 누적 영상프레임의 저장량이 설정 저장량 이상인 경우에 설정 저장량의 영상프레임 각각에 표시된 3개의 주요점들에 대하여 각 평균치를 산출하고, 산출한 평균치의 주요점 중 주요점(Pv)와 주요점(Pl) 간의 직선 및 주요점(Pv)와 주요점(Pr) 간의 직선을 차선으로 추출한다.The lane extracting unit 260 calculates each average value of the three main points displayed in each image frame of the set storage amount when the accumulated amount of the accumulated image frames is equal to or greater than the set storage amount by the accumulated storage management unit 250, A straight line between the main point Pv and the main point Pl and a straight line between the main point Pv and the main point Pr are extracted as a lane.

이상과 같이 구성된 본 발명의 실시 예에 따른 차선인식장치에 의해 이루어지는 차선인식방법을 설명한다. A lane recognizing method performed by the lane recognizing apparatus according to the embodiment of the present invention configured as described above will be described.

차내에 설치된 카메라(100)에서는 일정 속도로 주행중인 상태에서 전방을 향해 촬영을 하여 촬영 영상을 생성한다(S201). 이때 촬영영상은 예컨대 도 4의 (a)와 같으며, 전방 도로의 형상을 포함하고, 디지털 데이터로 이루어져 있다.The camera 100 installed in the vehicle shoots forward while being driven at a constant speed to generate a photographed image (S201). At this time, the photographed image is, for example, as shown in FIG. 4 (a), including the shape of the front road, and is composed of digital data.

촬영영상은 차선인식장치(200)의 에지영상 생성부(210)에 입력되고, 에지영상 생성부(210)는 촬영영상을 캐니 에지 검출 방식의 영상 처리를 수행하여 에지영상을 생성한다(S202). 참고로 도 4의 (a)에 도시된 촬영영상을 캐니 에지 검출 방식으로 영상 처리하여 얻은 에지영상이 도 4의 (b)에 도시되어 있다.The photographed image is input to the edge image generating unit 210 of the lane recognizing apparatus 200. The edge image generating unit 210 performs the image processing of the photographed image with the canyon edge detection method to generate an edge image (S202) . 4 (b) shows an edge image obtained by image processing the photographed image shown in Fig. 4 (a) by the canyon edge detection method.

에지영상 생성부(210)에 의해 생성된 에지영상은 지평선 결정부(220), 보닛영역 결정부(230) 및 주요점 추출부(220)에 입력된다. The edge image generated by the edge image generation unit 210 is input to the horizon line determination unit 220, the bonnet area determination unit 230, and the main point extraction unit 220.

지평선 결정부(220)는 수신한 에지영상에 허프 변환을 하여 차선으로 추측할 수 있는 직선을 추출한다. 이때 지평선 결정부(220)는 기울기를 이용하여 직선을 추출한다. 일반적으로 왼쪽 차선과 오른쪽은 전방에서 촬영시에 화면의 중심을 향하게 된다. 즉 왼쪽 차선의 기울기는 90도 이내이고, 오른쪽 차선의 기울기는 90도보다 크고 180도 보다 작다.Horizon line determination unit 220 performs Hough transformation on the received edge image to extract a straight line that can be guessed as a lane. At this time, the horizon line determination unit 220 extracts a straight line using a slope. In general, the left lane and the right are directed toward the center of the screen when shooting from the front. That is, the slope of the left lane is within 90 degrees, and the slope of the right lane is greater than 90 degrees and smaller than 180 degrees.

따라서 지평선 결정부(220)는 왼쪽 차선에 대응한 하나의 직선으로 30도에서 90도 사이의 각도를 가진 직선을 추출하고, 오른쪽 차선에 대응한 하나의 직선으로 -30도에서 -90 사이의 각도를 가진 직선을 추출한다. 여기서 지평선 결정부(220)는 왼쪽 차선에 대응한 하나의 직선과 오른쪽 차선에 대응한 하나의 직선을 추출하기 위해 화면의 중심선(세로선) 또는 설정위치의 세로선에 위치한 픽셀로부터 좌측은 왼쪽 방향으로 설정된 제1 범위만큼 스캔하고, 우측은 오른쪽 방향으로 설정된 제1 범위만큼 스캔한다. 그리고 스캔 중에 각 행(row)별로 처음 만나는 에지 픽셀을 추출한다. 추출된 각 행별 에지 픽셀을 조합하면 직선의 형태가 나타난다. 만약 직선이 추출되지 않으면 스캔범위를 제1 범위에서 제2 범위로 확장하여 스캔을 한다.Therefore, the horizon line determination unit 220 extracts a straight line having an angle between 30 degrees and 90 degrees with one straight line corresponding to the left lane, and extracts a straight line corresponding to the right lane from an angle between -30 degrees and -90 degrees . Here, the horizon determining unit 220 determines whether the left side is set to the left from the pixel located on the center line (vertical line) of the screen or the vertical line of the setting position to extract one straight line corresponding to the left lane and the straight line corresponding to the right lane The first range is scanned by the first range and the right is scanned by the first range set in the right direction. Then, during the scan, edge pixels that meet first for each row are extracted. The shape of the straight line appears when the extracted edge pixels of each row are combined. If a straight line is not extracted, the scan range is expanded from the first range to the second range and the scan is performed.

참고로 도 4의 (b)에 도시된 에지영상에서 추출한 왼쪽 차선에 대응한 직선 및 오른쪽 차선에 대응한 직선을 이용하여 생성한 영상이 도 4의 (c)에 도시되어 있다.4 (c) shows an image generated by using a straight line corresponding to the left lane and a straight line corresponding to the right lane extracted from the edge image shown in (b) of FIG.

그런 다음 지평선 결정부(220)는 도 4의 (d)에 도시된 바와 같이 추출한 왼쪽 차선에 대응한 직선 및 오른쪽 차선에 대응한 직선을 각각 연장시켜 두 직선의 교점을 파악하고 파악한 교점을 두 직선의 소실점으로 결정하며, 소실점을 지나치는 수평한 직선(화면상에서 가로 직선)을 수평선(h1)으로 결정한다(S203).Then, the horizon line determining unit 220 extends the straight line corresponding to the extracted left lane and the straight line corresponding to the right lane, as shown in FIG. 4 (d), and grasps the intersection point of the two straight lines, And determines a horizontal straight line passing through the vanishing point (horizontal straight line on the screen) as a horizontal line h1 (S203).

한편 지평선 결정부(220)는 순차적으로 입력되는 복수개의 촬영영상(즉, 복수개의 영상프레임) 각각에 대하여 각각 오른쪽 차선과 왼쪽 차선을 추출하고, 추출한 복수개의 오른쪽 차선과 왼쪽 차선의 교차점을 찾으며, 교차되는 직선의 수가 가장 많은 교차점을 소실점으로 결정할 수 있다.On the other hand, the horizontal line determination unit 220 extracts the right lane and the left lane for each of the plurality of shot images (i.e., the plurality of image frames) sequentially input, searches for the intersection of the extracted right lane and left lane, The intersection with the largest number of intersecting straight lines can be determined as the vanishing point.

보닛영역 결정부(230)는 복수의 촬영영상 각각에 대한 복수의 에지영상에서 수평방향(즉, 가로방향)의 직선을 추출하고, 추출한 직선 중 위치변경이 없는 직선을 보닛 위치로 파악한다(S204). The bonnet area determination unit 230 extracts a straight line in a horizontal direction (i.e., a horizontal direction) from a plurality of edge images for each of a plurality of shot images, and grasps a straight line without a position change among the extracted straight lines as a bonnet position ).

여기서 각 에지영상에 대하여 가로축 수평에지 히스토그램을 구하여 최대값을 파악하면, 최대값은 보닛 위치와 일치한다. 물론 히스토그램의 최대값이 설정치 이하이면 히스토그램의 최대값에 대한 평균을 산출하고 평균값에 해당하는 직선을 보닛 위치로 할 수 있다.Here, the horizontal axis and the horizontal edge histogram are obtained for each edge image, and when the maximum value is obtained, the maximum value coincides with the bonnet position. Of course, if the maximum value of the histogram is less than the set value, the average of the maximum value of the histogram can be calculated and the straight line corresponding to the average value can be set as the bonnet position.

지평선 결정부(220)의 지평선 위치(h1)와 보닛유닛 결정부(230)의 보닛 위치(h2)는 주요점 추출부(240)에 제공된다. 주요점 추출부(240)는 에지영상에서 각 행별로 양쪽 차선 픽셀을 하나씩 선별한다(S205). 이때 검출되는 차선의 픽셀은 지평선 위치(h1)와 보닛 위치(h2) 사이에 위치한 픽셀들 중에서 추출되며, 추출되는 픽셀은 소실점의 좌표를 중심으로 좌, 우 방향을 향해 탐색하여 파악된 임계값 이상의 밝기를 가진 픽셀 중 가장 밝은 픽셀이다.The horizon position h1 of the horizon line determining unit 220 and the bonnet position h2 of the bonnet unit determining unit 230 are provided to the main point extracting unit 240. [ The main point extracting unit 240 selects one of the two lane pixels for each row from the edge image (S205). At this time, the pixels of the detected lane are extracted from the pixels located between the horizon position h1 and the bonnet position h2, and the pixels to be extracted are searched toward the left and right around the coordinates of the vanishing point, It is the brightest pixel among the brightest pixels.

주요점 추출부(240)는 양쪽 차선 픽셀을 선별하고 이를 허프변환을 적용하여 직선들을 추출하며(S206), 추출한 직선들 중 30도 ~ 90도의 기울기를 가진 하나의 직선(좌측 차선에 대응한 직선)과 -30도 ~ -90도의 기울기를가진 하나의 직선(우측 차선에 대응한 직선)을 선별한다(S207).The main point extracting unit 240 selects both lane pixels and extracts straight lines by applying Hough transform (S206). The main point extracting unit 240 extracts one straight line having a slope of 30 to 90 degrees from the extracted straight lines (a straight line corresponding to the left lane And a straight line having a slope of -30 degrees to -90 degrees (a straight line corresponding to the right lane) (S207).

그런 다음 주요점 추출부(240)는 추출한 좌측 차선의 직선과 우측 차선의 직선을 지평선 결정부(220)로부터 획득한 지평선의 위치(h1)와 보닛위치 결정부(230)로부터 획득한 보닛 위치(h2) 사이에 위치시켜 제1 내지 제3 주요점(Pv, Pl, Pr)을 파악하고(S208), 파악한 제1 내지 제3 주요점(Pv, Pl, Pr)을 누적저장 관리부(250)를 통해 저장한다(S209).The main point extracting unit 240 then extracts the straight line of the extracted left lane and the straight line of the right lane from the horizon line position h1 obtained from the horizon line determining unit 220 and the bonnet position Pl and Pr of the first to third main points Pv, Pl and Pr are detected in step S208 and the detected first to third main points Pv, Pl and Pr are stored in the cumulative storage management part 250 (S209).

누적저장 관리부(250)는 누적 저장량이 설정 저장량 이상인지를 판단하고(S210), 누적 저장량이 설정 저장량 이상이 되는 경우에 누적 저장된 제1 내지 제3 주요점(Pv, Pl, Pr)을 차선 추출부(260)에 제공하여 차선 추출을 지시한다.The cumulative storage management unit 250 determines whether the cumulative storage amount is equal to or greater than the preset storage amount (S210). If the cumulative storage amount is equal to or greater than the preset storage amount, the cumulative storage management unit 250 stores the cumulatively stored first to third main points Pv, Pl, (260) to instruct the extraction of the lane.

이에 차선 추출부(260)는 누적 저장된 제1 내지 제3 주요점(Pv, Pl, Pr)들의 평균값을 산출하여 제1 주요점평균(AVGPv), 제2 주요점평균(AVGPl) 및 제3 주요점평균(AVGPr)을 파악한다(S211). 그런 다음 차선 추출부(260)는 제1 주요점평균(AVGPv)과 제2 주요점평균(AVGPl) 간의 제1 거리와 제1 주요점평균(AVGPv)과 제3 주요점평균(AVGPr) 간의 제2 거리를 산출하고, 산출한 제1 및 제2 거리를 각각 설정된 임계치와 비교하여 임계치보다 작으면 최종적으로 제1 주요점평균(AVGPv)과 제2 주요점평균(AVGPl) 간의 직선(좌측 차선)과 제1 주요점평균(AVGPv)과 제3 주요점평균(AVGPr) 간의 차선(우측 차선)을 올바른 차선이라고 판정한다(S212).The lane extracting unit 260 calculates an average value of the accumulated first to third main points Pv, Pl and Pr and calculates a first major point average AVGPv, a second major point average AVGPl, The point average AVGPr is grasped (S211). Then, the lane-extracting unit 260 extracts a lane between the first main point average AVGPv and the second main point average AVGPl, the first main point average AVGPv and the third main point average AVGPr, (Left lane) between the first main point average (AVGPv) and the second main point average (AVGPl) if the calculated first and second distances are smaller than the threshold, (Right lane) between the first principal point average (AVGPv) and the third principal point average (AVGPr) is a correct lane (S212).

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 카메라 200 : 차선인식장치
210 : 에지영상 생성부 220 : 지평선 결정부
230 : 보닛영역 결정부 240 : 주요점 추출부
250 : 누적저장 관리부 260 : 차선 추출부
100: camera 200: lane recognition device
210: edge image generating unit 220: horizon determining unit
230: bonnet area determining unit 240: main point extracting unit
250: cumulative storage management unit 260: lane-

Claims (4)

차내에 위치한 카메라는 주행 방향으로 시간 간격을 두고 연속적으로 촬영하며,
상기 카메라로부터 촬영영상을 수신하는 단계,
수신된 촬영영상을 이진 에지영상으로 변환하는 단계,
상기 에지영상을 영상처리하여 소실점 및 상기 소실점을 지나는 직선인 지평선 위치를 파악하는 단계,
상기 에지영상을 영상처리하여 도로와 차량의 보닛이 만나는 직선인 보닛 위치를 파악하는 단계,
상기 에지영상에서 상기 지평선 위치와 상기 보닛 위치 사이에 위치한 직선 중 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계,
상기 하나의 좌측 차선 직선과 상기 하나의 우측 차선 직선을 상기 지평선 위치와 상기 보닛 위치 사이에 위치시켜 상기 지평선 위치에 교차되는 제1 주요점, 상기 보닛 위치에 교차되는 제2 및 제3 주요점을 파악하는 단계,
하나의 촬영영상에 대한 상기 제1 내지 제3 주요점을 누적 저장하는 단계,
누적 저장한 횟수가 설정 횟수이면 누적 저장된 복수의 제1 주요점의 평균, 복수의 제2 주요점의 평균 및 복수의 제3 주요점의 평균을 산출하는 단계,
상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 제1 거리 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 제2 거리를 산출하는 단계, 그리고
상기 제1 및 제2 거리가 설정 임계값 이하이면 상기 제1 주요점의 평균과 상기 제2 주요점의 평균 간의 직선 및 상기 제1 주요점의 평균과 상기 제3 주요점의 평균 간의 직선을 양쪽 차선으로 판정하는 단계
를 포함하는 차선인식방법.
The camera located in the vehicle continuously photographs at a time interval in the running direction,
Receiving a photographed image from the camera,
Converting the received photographed image into a binary edge image,
Processing the edge image to obtain a vanishing point and a horizon line position passing through the vanishing point,
Image processing of the edge image to grasp the bonnet position, which is a straight line where the road meets the bonnet of the vehicle,
Selecting one left lane straight line and one right lane straight line using the slope of the straight line and the brightness of the pixel located between the horizon position and the bonnet position in the edge image,
Placing the one left lane straight line and the one right lane straight line between the horizon position and the bonnet position to form a first main point intersecting the horizon position and a second main point intersecting the bonnet position Step to grasp,
Cumulatively storing the first to third principal points for one shot image;
Calculating a mean of a plurality of cumulative first stored points, an average of a plurality of second significant points, and an average of a plurality of third significant points when the accumulated cumulative number of times is a preset number,
Calculating a first distance between an average of the first principal points and an average of the second principal points and a second distance between an average of the first principal points and an average of the third principal points,
A straight line between an average of the first principal points and an average of the second principal points and a straight line between an average of the first principal points and an average of the third principal points, A step of judging as a lane
The lane recognition method comprising:
제1항에서,
상기 지평선 위치를 파악하는 단계는
상기 에지영상에 허프 변환을 하고 설정범위 이내의 영상에서 차선으로 추측할 수 있는 직선을 추출하고, 추출한 직선 중에서 기울기가 30도 ~ 90도인 하나의 직선과 기울기가 -30 ~ -90도인 하나의 직선을 각각 추출하며, 추출한 2개의 직선의 교점을 소실점으로 파악하는 차선인식방법.
The method of claim 1,
The step of grasping the horizon position
A straight line having a slope of 30 to 90 degrees and a straight line having a slope of -30 to -90 degrees among the extracted straight lines are extracted from the extracted image, Respectively, and recognizing the intersection of the extracted two straight lines as a vanishing point.
제1항 또는 제2항에서,
상기 보닛 위치를 파악하는 단계는
복수의 촬영영상 각각에 대한 복수의 에지영상에서 가로방향의 직선을 추출하고, 추출한 직선 중 위치변경이 없는 직선을 보닛 위치로 파악하는 차선인식방법.
3. The method according to claim 1 or 2,
The step of grasping the bonnet position
A lane recognition method for extracting a straight line in a horizontal direction from a plurality of edge images for each of a plurality of shot images and grasping a straight line without a position change among the extracted straight lines as a bonnet position.
제3항에서,
상기 직선의 기울기와 픽셀의 밝기를 이용하여 하나의 좌측 차선 직선과 하나의 우측 차선 직선을 선별하는 단계는
기울기가 30도 ~ 90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 좌측 차선으로 선별하며, 기울기가 -30도 ~ -90도이고 픽셀 밝기가 가장 밝은 픽셀로 이루어진 하나의 직선을 우측 차선으로 선별하는 차선인식방법.
4. The method of claim 3,
The step of selecting one left lane straight line and one right lane straight line using the slope of the straight line and the brightness of the pixel
One straight line made up of pixels with a slope of 30 degrees to 90 degrees and having the highest pixel brightness is selected as the left lane and one straight line made up of pixels having a slope of -30 degrees to -90 degrees and the brightest pixel is called a right lane A lane recognition method.
KR1020150012110A 2015-01-26 2015-01-26 Lane recognition method KR101603293B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150012110A KR101603293B1 (en) 2015-01-26 2015-01-26 Lane recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150012110A KR101603293B1 (en) 2015-01-26 2015-01-26 Lane recognition method

Publications (1)

Publication Number Publication Date
KR101603293B1 true KR101603293B1 (en) 2016-03-16

Family

ID=55649877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150012110A KR101603293B1 (en) 2015-01-26 2015-01-26 Lane recognition method

Country Status (1)

Country Link
KR (1) KR101603293B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647572A (en) * 2018-04-04 2018-10-12 华南理工大学 A kind of lane departure warning method based on Hough transformation
KR102119033B1 (en) * 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration
KR102425389B1 (en) 2021-04-29 2022-07-27 한국전자기술연구원 Performance enhancement and driving control method of lane recognition algorithm for bicycle roads and trails

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647572A (en) * 2018-04-04 2018-10-12 华南理工大学 A kind of lane departure warning method based on Hough transformation
KR102119033B1 (en) * 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration
KR102425389B1 (en) 2021-04-29 2022-07-27 한국전자기술연구원 Performance enhancement and driving control method of lane recognition algorithm for bicycle roads and trails

Similar Documents

Publication Publication Date Title
CN108243623B (en) Automobile anti-collision early warning method and system based on binocular stereo vision
JP4437714B2 (en) Lane recognition image processing device
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
CN104050654B (en) road edge detection method and device
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
EP2924654A2 (en) Image processing apparatus and image processing method
JP6130809B2 (en) Lane recognition device
CN107273788B (en) Imaging system for performing lane detection in a vehicle and vehicle imaging system
US9747507B2 (en) Ground plane detection
EP2960829A2 (en) Lane boundary estimation device and lane boundary estimation method
US10037470B2 (en) Pitch angle estimation apparatus
US20090052742A1 (en) Image processing apparatus and method thereof
CN103366155B (en) Temporal coherence in unobstructed pathways detection
CN110658539B (en) Vehicle positioning method, device, vehicle and computer readable storage medium
KR101035761B1 (en) Image Processing Method and System for Lane Recognition
US9508000B2 (en) Object recognition apparatus
KR20090098167A (en) Lane Recognition Method and System Using Distance Sensor
KR101603293B1 (en) Lane recognition method
US9916672B2 (en) Branching and merging determination apparatus
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
KR102372296B1 (en) Apparatus and method for recognize driving lane on image
KR101910256B1 (en) Lane Detection Method and System for Camera-based Road Curvature Estimation
Hultqvist et al. Detecting and positioning overtaking vehicles using 1D optical flow
JP5189556B2 (en) Lane detection device
JP2015064735A (en) Apparatus and method for estimating vehicle position

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150126

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20151030

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20160226

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20160308

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20160309

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20190327

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210217

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20220216

Start annual number: 7

End annual number: 7

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20231219