[go: up one dir, main page]

KR101815840B1 - Around view monitoring apparatus based on video estimation process - Google Patents

Around view monitoring apparatus based on video estimation process Download PDF

Info

Publication number
KR101815840B1
KR101815840B1 KR1020160124657A KR20160124657A KR101815840B1 KR 101815840 B1 KR101815840 B1 KR 101815840B1 KR 1020160124657 A KR1020160124657 A KR 1020160124657A KR 20160124657 A KR20160124657 A KR 20160124657A KR 101815840 B1 KR101815840 B1 KR 101815840B1
Authority
KR
South Korea
Prior art keywords
image
moving object
images
camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020160124657A
Other languages
Korean (ko)
Inventor
정영현
Original Assignee
주식회사 엠씨넥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠씨넥스 filed Critical 주식회사 엠씨넥스
Priority to KR1020160124657A priority Critical patent/KR101815840B1/en
Application granted granted Critical
Publication of KR101815840B1 publication Critical patent/KR101815840B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • G06T3/0012
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • H04N5/2258

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 영상 추정 기반 어라운드 뷰 모니터링 장치에 관한 것으로, 차량이나 항공기 등과 같은 이동체에 설치되는 전,후방 카메라만 이용하여 이동체의 현재 위치에 대한 좌우 영상을 추정하여 어라운드 뷰 영상을 얻을 수 있도록 한 것이다.The present invention relates to an apparatus and method for monitoring an ambient view based on image estimation, in which a left and right image of a current position of a moving object is estimated using only front and rear cameras installed in a moving object such as a vehicle or an airplane, .

Figure R1020160124657
Figure R1020160124657

Description

영상 추정 기반 어라운드 뷰 모니터링 장치{Around view monitoring apparatus based on video estimation process}Around view monitoring apparatus based on video estimation process

본 발명은 어라운드 뷰 모니터링(AVM : Around View Monitoring) 기술에 관련한 것으로, 특히 영상 추정 기반 어라운드 뷰 모니터링 장치에 관한 것이다.The present invention relates to an ambient view monitoring (AVM) technique, and more particularly to an image estimation based surround view monitoring apparatus.

차량이나 항공기 등과 같은 이동체에 설치되는 전,후,좌,우 4개의 카메라를 사용하여 어라운드 뷰 모니터링(AVM : Around View Monitoring) 기능을 구현할 경우 비용이 많이 소요된다.Implementing the Around View Monitoring (AVM) function using four cameras installed on a moving object such as a vehicle or an aircraft is costly.

저가의 보급형 어라운드 뷰 모니터링(AVM) 기능을 차량이나 항공기 등과 같은 이동체에 구현하기 위한 하나의 방편으로 카메라를 최소로 사용하는 방법이 있을 수 있다.There may be a way to minimize the use of the camera as a way to implement the low-cost AV view (AVM) function on vehicles such as vehicles and aircraft.

대한민국 공개특허 제10-2003-0024857호(2003.03.26)에서 차량의 뒤에 설치된 카메라의 시야를 벗어난 장면을 추정하여, 이 추정된 부분을 포함하는 차량의 후방 영역의 이미지를 묘사할 수 있는 차량 주변 이미지 처리 기술을 제안하고 있다.Korean Patent Laid-Open No. 10-2003-0024857 (Mar. 23, 2003) discloses a method for estimating a scene out of the view of a camera installed behind a vehicle and estimating an image of a rear region of the vehicle including the estimated portion, Image processing technology.

대한민국 공개특허 제10-2003-0024857호(2003.03.26)Korean Patent Publication No. 10-2003-0024857 (March 23, 2003)

본 발명은 차량이나 항공기 등과 같은 이동체에 설치되는 전,후방 카메라만 이용하여 이동체의 현재 위치에 대한 좌우 영상을 추정하여 어라운드 뷰 영상을 얻을 수 있는 영상 추정 기반 어라운드 뷰 모니터링 장치를 제공함을 그 목적으로 한다.The object of the present invention is to provide an image estimation based surround view monitoring apparatus capable of estimating left and right images of a current position of a moving object by using only front and rear cameras mounted on a moving object such as a vehicle or an aircraft to obtain an eye view image do.

상기한 목적을 달성하기 위한 본 발명의 일 양상에 따르면, 영상 추정 기반 어라운드 뷰 모니터링 장치가 이동체의 전방 카메라와 후방 카메라 각각에 의해 실시간 촬영되는 영상들을 임시 저장하는 영상 버퍼부와; 상기 영상 버퍼부에 저장된 과거 영상들을 분석해 이동체의 현재 위치에서의 좌우 영상을 추정하는 영상 추정부와; 이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 영상 추정부에 의해 추정된 좌우 영상을 정합하여 어라운드 뷰 영상을 생성하는 영상 정합부와; 상기 영상 정합부에 의해 생성된 어라운드 뷰 영상을 이동체의 디스플레이 화면에 표시하는 영상 표시부를; 포함하여 이루어지는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for monitoring an ambient view based on an image, the apparatus comprising: an image buffer unit for temporarily storing images captured by a forward camera and a rear camera of a moving object; An image estimator for analyzing past images stored in the image buffer unit and estimating left and right images at a current position of the moving object; An image matching unit for matching the current image photographed by the forward camera and the backward camera of the moving object with the left and right images estimated by the image estimating unit to generate an overview image; An image display unit for displaying the surround view image generated by the image matching unit on the display screen of the moving object; And the like.

본 발명의 부가적인 양상에 따르면, 상기 영상 추정부가 이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 영상 버퍼부에 저장된 이전 영상들을 분석해 영상간 경계면의 유사성을 판단해 이전 영상들중 적어도 하나의 영상을 선택해 이동체의 현재 위치에서의 좌우 영상으로 추정하는 것을 특징으로 한다.According to a further aspect of the present invention, the image estimating unit analyzes the current image photographed by each of the front camera and the rear camera of the moving object and the previous images stored in the image buffer unit, determines the similarity between the images, And estimates the at least one image as a left and right image at the current position of the moving object.

본 발명의 부가적인 양상에 따르면, 상기 영상 추정부가 이동체의 전진시에는 이동체의 전방 카메라에 의해 촬영되어 상기 영상 버퍼부에 저장된 이전 전방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하는 것을 특징으로 한다.According to a further aspect of the present invention, the image estimating unit estimates the left and right images at the current position of the moving object from the previous forward images captured by the forward camera of the moving object and stored in the image buffer unit, .

본 발명의 부가적인 양상에 따르면, 상기 영상 추정부가 이동체의 후진시에는 이동체의 후방 카메라에 의해 촬영되어 상기 영상 버퍼부에 저장된 이전 후방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하는 것을 특징으로 한다.According to a further aspect of the present invention, the image estimating unit estimates the left and right images at the current position of the moving object from the previous backward images captured by the rear camera of the moving object and stored in the image buffer unit when the moving object moves backward .

본 발명의 부가적인 양상에 따르면, 상기 영상 정합부가 상기 영상 버퍼부에 저장된 인접한 이전 두 영상들의 경계면에서의 겹치는 부분은 어느 하나의 영상에서 제거하는 것을 특징으로 한다.According to a further aspect of the present invention, the image matching unit removes overlapping portions of the adjacent two previous images stored in the image buffer unit from one image.

본 발명의 부가적인 양상에 따르면, 상기 영상 추정 기반 어라운드 뷰 모니터링 장치가 이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 영상 추정부에 의해 추정된 좌우 영상간의 밝기 차이에 의한 이질감을 개선하는 영상 보정부를; 더 포함하는 것을 특징으로 한다.According to a further aspect of the present invention, the above-mentioned image estimation based surround-view monitoring apparatus may further include a motion estimation unit for estimating a motion of the moving image based on the difference of brightness between the current image captured by each of the forward camera and the backward camera of the moving object, An image correction unit for improving the image quality; And further comprising:

본 발명의 부가적인 양상에 따르면, 상기 영상 보정부가 전조등 또는 미등 온(On) 신호를 감지시, 상기 이동체의 전방 카메라 또는 후방 카메라 각각에 의해 촬영되는 현재 영상의 밝기를 상기 추정된 좌우 영상 밝기 수준으로 조정하는 것을 특징으로 한다.According to a further aspect of the present invention, when the image correction unit senses a headlight or an on-off signal, the brightness of the current image photographed by the front camera or the rear camera of the moving object is converted into the estimated left and right image brightness levels .

본 발명은 차량이나 항공기 등과 같은 이동체에 설치되는 전,후방 카메라만 이용하여 이동체의 현재 위치에 대한 좌우 영상을 추정하여 어라운드 뷰 영상을 얻을 수 있으므로, 저가의 보급형 어라운드 뷰 모니터링 장치 구현이 가능한 효과가 있다. Since the present invention can obtain a surrounding view image by estimating the left and right images with respect to the current position of the moving object by using only the front and rear cameras mounted on a moving object such as a vehicle or an aircraft, it is possible to implement a low- have.

도 1 은 본 발명에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치의 일 실시예의 구성을 도시한 블럭도이다.
도 2 는 차량 직진 후진시의 좌우 영상 추정 개념도이다.
도 3 은 차량 회전 후진시의 좌우 영상 추정 개념도이다.
도 4 는 본 발명에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치에 의해 생성되는 어라운드 뷰 화면 영역을 도시한 도면이다.
도 5 는 본 발명에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치의 어라운드 뷰 영상 생성 절차를 도시한 흐름도이다.
1 is a block diagram showing a configuration of an embodiment of an apparatus for monitoring an ambient view based on image estimation according to the present invention.
2 is a conceptual diagram of right and left image estimation at the time of vehicle straight backward movement.
3 is a conceptual diagram of right and left image estimation at the time of vehicle backward rotation.
4 is a view showing an area of an overview view generated by an apparatus for monitoring the surrounding view based on the image estimation according to the present invention.
FIG. 5 is a flowchart illustrating a procedure for generating an overview image of an apparatus for monitoring an ambient view based on an image estimation according to the present invention.

이하, 첨부된 도면을 참조하여 기술되는 바람직한 실시예를 통하여 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 기술하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명 실시예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명 명세서 전반에 걸쳐 사용되는 용어들은 본 발명 실시예에서의 기능을 고려하여 정의된 용어들로서, 사용자 또는 운용자의 의도, 관례 등에 따라 충분히 변형될 수 있는 사항이므로, 이 용어들의 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.The terms used throughout the specification of the present invention have been defined in consideration of the functions of the embodiments of the present invention and can be sufficiently modified according to the intentions and customs of the user or operator. It should be based on the contents of.

도 1 은 본 발명에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치의 일 실시예의 구성을 도시한 블럭도이다. 도 1 에 도시한 바와 같이, 이 실시예에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치(100)는 영상 버퍼부(110)와, 영상 추정부(120)와, 영상 정합부(130)와, 영상 표시부(140)를 포함하여 이루어진다.1 is a block diagram showing a configuration of an embodiment of an apparatus for monitoring an ambient view based on image estimation according to the present invention. As shown in FIG. 1, the apparatus for monitoring an ambient view based on an image estimation according to the present embodiment includes an image buffer unit 110, an image estimating unit 120, an image matching unit 130, (140).

상기 영상 버퍼부(110)는 이동체의 전방 카메라(200)와 후방 카메라(300) 각각에 의해 실시간 촬영되는 영상들을 임시 저장한다. 이 때, 영상 버퍼부(110)가 복수의 버퍼(Buffer)로 구현되어, 두 버퍼 각각에 전방 카메라(200)와 후방 카메라(300) 각각에 의해 실시간 촬영되는 영상들을 임시 저장하도록 구현될 수 있다. 한편, 상기 영상 버퍼부(110)로 순환 버퍼(Circulation Buffer)를 사용할 수 있다.The image buffer unit 110 temporarily stores images captured by the front camera 200 and the rear camera 300 of the moving object. In this case, the image buffer unit 110 may be implemented as a plurality of buffers, and temporarily store the images captured by the front camera 200 and the rear camera 300 in the two buffers, respectively . Meanwhile, the image buffer unit 110 may use a circular buffer.

상기 영상 추정부(120)는 상기 영상 버퍼부(110)에 저장된 과거 영상들을 분석해 이동체의 현재 위치에서의 좌우 영상을 추정한다. 이 때, 상기 영상 추정부(120)가 이동체의 전방 카메라(200)와 후방 카메라(300) 각각에 의해 촬영되는 현재 영상과, 상기 영상 버퍼부(110)에 저장된 이전 영상들을 분석해 영상간 경계면의 유사성을 판단해 이전 영상들중 적어도 하나의 영상을 선택해 이동체의 현재 위치에서의 좌우 영상으로 추정하도록 구현될 수 있다.The image estimating unit 120 analyzes past images stored in the image buffer unit 110 and estimates left and right images at the current position of the moving object. At this time, the image estimating unit 120 analyzes the current image photographed by each of the front camera 200 and the rear camera 300 of the mobile body and the previous images stored in the image buffer unit 110, Judging similarity, and selecting at least one image from the previous images to estimate the left and right images at the current position of the moving object.

예컨대, 상기 영상 추정부(120)가 이동체의 전진시에는 이동체의 전방 카메라(200)에 의해 촬영되어 상기 영상 버퍼부(110)에 저장된 이전 전방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하도록 구현될 수 있다.For example, the image estimating unit 120 estimates the left and right images at the current position of the moving object from the previous forward images captured by the forward camera 200 of the moving object and stored in the image buffer unit 110, . ≪ / RTI >

이와는 달리, 상기 영상 추정부(120)가 이동체의 후진시에는 이동체의 후방 카메라(300)에 의해 촬영되어 상기 영상 버퍼부(110)에 저장된 이전 후방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하도록 구현될 수 있다.Alternatively, the image estimating unit 120 may calculate the left and right images at the current position of the moving object from the previous backward images captured by the rear camera 300 of the moving object and stored in the image buffer unit 110, . ≪ / RTI >

도 2 및 도 3 을 통해 차량 후진시의 좌우 영상 추정 동작을 알아본다. 도 2 는 차량 직진 후진시의 좌우 영상 추정 개념도, 도 3 은 차량 회전 후진시의 좌우 영상 추정 개념도이다. 2 and 3, a right and left image estimation operation at the time of vehicle backward movement will be described. FIG. 2 is a conceptual diagram of right and left image estimation at the time of vehicle straight-ahead backward, and FIG. 3 is a conceptual diagram of right and left image estimation at the time of vehicle backward rotation.

도 2 및 도 3 에서 현재 시각 t에서의 차량 위치가 가장 오른쪽에 표시되어 있다. 도 2 및 도 3 의 가장 오른쪽에서 상부의 4개의 영역은 과거 t-3, t-2, t-1 시각에서 전방 카메라에 의해 촬영되어 영상 버퍼부(110)에 저장된 과거 전방 영상 및 현재 시각 t에서 전방 카메라에 의해 촬영된 전방 영상이다.2 and 3, the vehicle position at the current time t is displayed on the rightmost side. 2 and FIG. 3, the four regions from the right to the uppermost are the past forward image captured by the forward camera at the time t-3, t-2, and t-1 and stored in the image buffer unit 110, Is a front image photographed by a front camera.

도 2 및 도 3 의 가장 오른쪽에서 하부의 4개의 영역은 과거 t-3, t-2, t-1 시각에서 후방 카메라에 의해 촬영되어 영상 버퍼부(110)에 저장된 과거 후방 영상 및 현재 시각 t에서 전방 카메라에 의해 촬영된 후방 영상이다.2 and 3, the four regions from the right to the bottom are the past backward image photographed by the rear camera at the time t-3, t-2, and t-1 and stored in the image buffer unit 110, Is a rear image photographed by a front camera.

차량 후진시에는 후방 카메라에 의해 촬영되어 영상 버퍼부(110)에 저장된 과거 후방 영상이 이동체의 현재 위치에서의 좌우 영상 추정에 사용되므로, 도 2 및 도 3 의 가장 오른쪽에서 하부의 과거 t-3, t-2, t-1 영상이 이동체의 현재 위치에서의 좌우 영상으로 선택된다.2 and 3, since the past backward image captured by the rear camera and stored in the image buffer unit 110 is used to estimate the left and right images at the current position of the moving object, , t-2, and t-1 are selected as the left and right images at the current position of the moving object.

상기 영상 정합부(130)는 이동체의 전방 카메라(200)와 후방 카메라(300) 각각에 의해 촬영되는 현재 영상과, 상기 영상 추정부(120)에 의해 추정된 좌우 영상을 정합하여 어라운드 뷰 영상을 생성한다.The image matching unit 130 matches the current image photographed by the forward camera 200 and the backward camera 300 of the moving object with the left and right images estimated by the image estimating unit 120, .

예컨대, 상기 영상 정합부(130)가 상기 영상 버퍼부(110)에 저장된 인접한 이전 두 영상들의 경계면에서의 겹치는 부분은 어느 하나의 영상에서 제거한 후 인접한 이전 영상들을 합성하고, 합성된 이전 영상에 이동체의 전방 카메라(200)와 후방 카메라(300) 각각에 의해 촬영되는 현재 영상을 합성하여 어라운드 뷰 영상을 생성하도록 구현될 수 있다.For example, when the image matching unit 130 removes the overlapping portions of the adjacent two images stored in the image buffer unit 110 from one image and then synthesizes the adjacent previous images, The current image captured by the front camera 200 and the rear camera 300 may be combined to generate the surround view image.

상기 영상 표시부(140)는 상기 영상 정합부(130)에 의해 생성된 어라운드 뷰 영상을 이동체의 디스플레이(400) 화면에 표시한다. 예컨대, 상기 영상 표시부(140)가 전방 주행 영상 또는 후방 주차 영상으로 상기 영상 정합부(130)에 의해 생성된 어라운드 뷰 영상을 표시하도록 구현될 수 있다.The image display unit 140 displays the surrounding view image generated by the image matching unit 130 on the screen of the display 400 of the moving object. For example, the image display unit 140 may be configured to display the surround view image generated by the image matching unit 130 as a forward running image or a backward parked image.

도 4 는 본 발명에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치에 의해 생성되는 어라운드 뷰 화면 영역을 도시한 도면이다. 도 4 에서 상부 영역과 하부 영역은 현재 시각에서의 이동체의 전방 카메라(200)와 후방 카메라(300)에 의해 각각 촬영되는 실제 영상이고, 중앙 영역은 영상 버퍼부(110)에 저장된 과거 영상들로부터 추정된 좌우 영상이다.4 is a view showing an area of an overview view generated by an apparatus for monitoring the surrounding view based on the image estimation according to the present invention. 4, the upper region and the lower region are actual images respectively captured by the front camera 200 and the rear camera 300 of the moving object at the current time, and the central region is the actual image captured from the past images stored in the image buffer unit 110 The estimated left and right images.

이와 같이 구현함에 의해 본 발명은 차량이나 항공기 등과 같은 이동체에 설치되는 전,후방 카메라만 이용하여 이동체의 현재 위치에 대한 좌우 영상을 추정하여 어라운드 뷰 영상을 얻을 수 있으므로, 저가의 보급형 어라운드 뷰 모니터링 장치 구현이 가능하다. According to the present invention, since the left and right images of the current position of the moving object can be estimated using only the front and rear cameras mounted on the moving object such as the vehicle or the airplane to obtain the surrounding view image, Implementation is possible.

한편, 상기 영상 추정부(120)가 상기 영상 버퍼부(110)에 저장된 과거 영상들로부터 이동체의 현재 위치에서의 좌우 영상들을 추정시, 이동체의 속도에 따라 선택되는 좌우 영상 개수가 가변될 수 있다. 그 이유는 이동체가 고속일 경우 저속일 경우에 비해 단위 시각당 영상 버퍼부(110)에 저장되는 영상 수가 적기 때문이다.Meanwhile, when the image estimating unit 120 estimates the left and right images at the current position of the moving object from the past images stored in the image buffer unit 110, the number of left and right images selected according to the speed of the moving object may be varied . This is because the number of images stored in the image buffer unit 110 per unit time is smaller than that in the case where the moving object is at a high speed.

한편, 발명의 부가적인 양상에 따르면, 상기 영상 추정 기반 어라운드 뷰 모니터링 장치(100)가 영상 보정부(150)를 더 포함할 수 있다. 상기 영상 보정부(150)는 이동체의 전방 카메라(200)와 후방 카메라(300) 각각에 의해 촬영되는 현재 영상과, 상기 영상 추정부(120)에 의해 추정된 좌우 영상간의 밝기 차이에 의한 이질감을 개선한다.According to a further aspect of the present invention, the image estimation based surround view monitoring apparatus 100 may further include an image correction unit 150. The image correcting unit 150 corrects for the difference in brightness between the current image photographed by each of the front camera 200 and the rear camera 300 of the moving object and the left and right images estimated by the image estimating unit 120 Improve.

예컨대, 상기 영상 보정부(150)가 전조등 또는 미등 온(On) 신호를 감지시, 상기 이동체의 전방 카메라(200) 또는 후방 카메라(300) 각각에 의해 촬영되는 현재 영상의 밝기를 상기 추정된 좌우 영상 밝기 수준으로 조정하도록 구현될 수 있다. For example, when the image correcting unit 150 senses a headlight or an on-off signal, the brightness of the current image photographed by each of the front camera 200 and the rear camera 300 of the moving object is estimated To be adjusted to the image brightness level.

차량의 야간 주행시 영상 추정 기반 어라운드 뷰 모니터링 장치(100)에 의해 생성되는 어라운드 뷰 영상에 포함되는 현재 시각에서의 전방 카메라(200)에 의해 촬영되는 영상은 전조등에 의해 밝고, 어라운드 뷰 영상에 포함되는 현재 시각에서의 후방 카메라(300)에 의해 촬영되는 영상은 미등에 의해 어둡다.An image photographed by the front camera 200 at the current time included in the surrounding view image generated by the image estimation-based surrounding view monitoring apparatus 100 during the nighttime driving of the vehicle is bright by the headlight, The image photographed by the rear camera 300 at the current time is dark by the taillight.

그리고, 영상 버퍼부(110)로부터 추정되는 좌우 영상은 이동체 전진시에는 전방 카메라(200)에 의해 촬영되어 영상 버퍼부(110)에 저장되는 과거 영상으로부터 추정된 것이므로 밝고, 이동체 후진시에는 후방 카메라(300)에 의해 촬영되어 영상 버퍼부(110)에 저장되는 과거 영상으로부터 추정된 것이므로 어두우므로, 영상 추정 기반 어라운드 뷰 모니터링 장치(100)에 의해 생성되는 어라운드 뷰 영상의 밝기를 조정하지 않을 경우 이질감이 발생한다.Since the left and right images estimated from the image buffer unit 110 are estimated from past images captured by the front camera 200 and stored in the image buffer unit 110 at the time of moving forward, When the brightness of the surround view image generated by the image estimation based surround view monitoring apparatus 100 is not adjusted because it is estimated from the past image captured by the image sensing unit 300 and stored in the image buffer unit 110, Lt; / RTI >

이러한 이질감을 상기 영상 보정부(150)를 통해 전조등 또는 미등 온(On) 신호를 감지시, 상기 이동체의 전방 카메라(200) 또는 후방 카메라(300) 각각에 의해 촬영되는 현재 영상의 밝기를 상기 추정된 좌우 영상 밝기 수준으로 조정하여 개선할 수 있다.The brightness of the current image photographed by each of the front camera 200 and the rear camera 300 of the moving object is estimated based on the estimated brightness when the headlamp or the non-turned on signal is sensed through the image corrector 150, To the left and right image brightness levels.

이상에서 설명한 바와 같은 본 발명에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치의 어라운드 뷰 영상 생성 과정을 도 5 를 참조하여 알아본다. 도 5 는 본 발명에 따른 영상 추정 기반 어라운드 뷰 모니터링 장치의 어라운드 뷰 영상 생성 절차를 도시한 흐름도이다.The process of generating the surround view image of the surrounding view monitoring apparatus based on the image estimation according to the present invention will be described with reference to FIG. FIG. 5 is a flowchart illustrating a procedure for generating an overview image of an apparatus for monitoring an ambient view based on an image estimation according to the present invention.

먼저, 단계 510에서 영상 추정 기반 어라운드 뷰 모니터링 장치가 이동체의 전방 카메라와 후방 카메라 각각에 의해 실시간 촬영되는 영상들을 임시 저장한다. 이 때, 복수의 버퍼(Buffer) 각각에 전방 카메라와 후방 카메라 각각에 의해 실시간 촬영되는 영상들을 임시 저장하도록 구현될 수 있다. First, in step 510, an image estimation based surround view monitoring apparatus temporarily stores images captured by the front camera and the rear camera of the moving object in real time. In this case, it is possible to temporarily store images captured in real time by the front camera and the rear camera in each of the plurality of buffers.

그 다음, 단계 520에서 영상 추정 기반 어라운드 뷰 모니터링 장치가 상기 단계 510에 의해 임시 저장된 과거 영상들을 분석해 이동체의 현재 위치에서의 좌우 영상을 추정한다.Next, in step 520, the image estimation based surround view monitoring apparatus analyzes the past images temporarily stored by the step 510 to estimate the left and right images at the current position of the moving object.

이 때, 이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 단계 510에 의해 임시 저장된 이전 영상들을 분석해 영상간 경계면의 유사성을 판단해 이전 영상들중 적어도 하나의 영상을 선택해 이동체의 현재 위치에서의 좌우 영상으로 추정하도록 구현될 수 있다.At this time, by analyzing the current image photographed by each of the forward camera and the backward camera of the moving object and the previous images temporarily stored by the step 510, it is determined whether the similarity of the boundary between the images is at least one, It can be implemented to estimate the left and right images at the current position.

예컨대, 상기 단계 520에서 이동체의 전진시에는 이동체의 전방 카메라에 의해 촬영되어 상기 단계 510에 의해 임시 저장된 이전 전방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하도록 구현될 수 있다.For example, in step 520, when the moving object is moved forward, the left and right images at the current position of the moving object may be estimated from the previous forward images captured by the forward camera of the moving object and temporarily stored by the step 510.

이와는 달리, 상기 단계 520에서 이동체의 후진시에는 이동체의 후방 카메라에 의해 촬영되어 상기 단계 510에 의해 임시 저장된 이전 후방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하도록 구현될 수 있다.Alternatively, in step 520, the left and right images at the current position of the moving object may be estimated from the previous backward images captured by the rear camera of the moving object and temporarily stored in step 510, when the moving object is backward.

그 다음, 단계 530에서 영상 추정 기반 어라운드 뷰 모니터링 장치가 이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 단계 520에 의해 추정된 좌우 영상을 정합하여 어라운드 뷰 영상을 생성한다.Next, in step 530, the image estimation based surround view monitoring apparatus matches the current image captured by the front camera and the rear camera of the moving object with the left and right images estimated by the above step 520, thereby generating the surround view image.

예컨대, 상기 단계 530에서 상기 510에 의해 임시 저장된 인접한 이전 두 영상들의 경계면에서의 겹치는 부분은 어느 하나의 영상에서 제거한 후 인접한 이전 영상들을 합성하고, 합성된 이전 영상에 이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상을 합성하여 어라운드 뷰 영상을 생성하도록 구현될 수 있다.For example, in step 530, the overlapped portions of the adjacent two previous images temporarily stored by the 510 are removed from any one of the images, and the adjacent previous images are synthesized, and the front and rear cameras of the moving object And generates the surround view image.

그 다음, 단계 540에서 영상 추정 기반 어라운드 뷰 모니터링 장치가 생성된 어라운드 뷰 영상에 포함되는 이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 단계 520에 의해 추정된 좌우 영상간의 밝기 차이에 의한 이질감을 개선한다.Next, in step 540, the brightness estimation difference between the current image photographed by each of the forward camera and the backward camera of the moving object included in the generated surround view image based on the image estimation based surround view monitoring apparatus, Thereby improving the sense of heterogeneity caused by the above.

예컨대, 상기 단계 540에서 전조등 또는 미등 온(On) 신호를 감지시, 상기 이동체의 전방 카메라 또는 후방 카메라 각각에 의해 촬영되는 현재 영상의 밝기를 상기 추정된 좌우 영상 밝기 수준으로 조정하도록 구현될 수 있다. For example, when the headlight or the non-turn-on signal is detected in step 540, the brightness of the current image captured by the front camera or the rear camera of the moving object may be adjusted to the estimated left and right image brightness levels .

그 다음, 단계 550에서 영상 추정 기반 어라운드 뷰 모니터링 장치가 밝기 차이에 의한 이질감이 개선된 어라운드 뷰 영상을 이동체의 디스플레이 화면에 표시한다.Then, in step 550, the image estimation based surround view monitoring apparatus displays the surround view image with improved sense of heterogeneity due to the brightness difference on the display screen of the moving object.

이와 같이 구현함에 의해 본 발명은 차량이나 항공기 등과 같은 이동체에 설치되는 전,후방 카메라만 이용하여 이동체의 현재 위치에 대한 좌우 영상을 추정하여 어라운드 뷰 영상을 얻을 수 있으므로, 저가의 보급형 어라운드 뷰 모니터링 장치 구현이 가능하므로, 상기에서 제시한 본 발명의 목적을 달성할 수 있다.According to the present invention, since the left and right images of the current position of the moving object can be estimated using only the front and rear cameras mounted on the moving object such as the vehicle or the airplane to obtain the surrounding view image, So that the object of the present invention can be achieved.

본 발명은 첨부된 도면에 의해 참조되는 바람직한 실시예를 중심으로 기술되었지만, 이러한 기재로부터 후술하는 특허청구범위에 의해 포괄되는 범위내에서 본 발명의 범주를 벗어남이 없이 다양한 변형이 가능하다는 것은 명백하다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. .

본 발명은 어라운드 뷰 모니터링(AVM : Around View Monitoring) 기술분야 및 이의 응용 기술분야에서 산업상으로 이용 가능하다.INDUSTRIAL APPLICABILITY The present invention is industrially applicable in the field of AVM (Around View Monitoring) technology and its application technology.

100 : 어라운드 뷰 모니터링 장치
110 : 영상 버퍼부
120 : 영상 추정부
130 : 영상 정합부
140 : 영상 표시부
150 : 영상 보정부
200 : 전방 카메라
300 : 후방 카메라
400 : 디스플레이
100: Around view monitoring device
110:
120:
130:
140:
150:
200: Front camera
300: rear camera
400: Display

Claims (7)

이동체의 전방 카메라와 후방 카메라 각각에 의해 실시간 촬영되는 영상들을 임시 저장하는 영상 버퍼부와;
상기 영상 버퍼부에 저장된 과거 영상들을 분석해 이전 영상들중 적어도 하나의 영상을 선택해 이동체의 현재 위치에서의 좌우 영상을 추정하되, 이동체의 속도에 따라 선택되는 좌우 영상 개수가 가변되는 영상 추정부와;
이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 영상 추정부에 의해 추정된 좌우 영상을 정합하여 어라운드 뷰 영상을 생성하는 영상 정합부와;
상기 영상 정합부에 의해 생성된 어라운드 뷰 영상을 이동체의 디스플레이 화면에 표시하는 영상 표시부를;
포함하여 이루어지는 것을 특징으로 하는 영상 추정 기반 어라운드 뷰 모니터링 장치.
An image buffer unit for temporarily storing images photographed in real time by the front camera and the rear camera of the moving body;
An image estimator for analyzing past images stored in the image buffer unit and estimating right and left images at a current position of the moving object by selecting at least one image from previous images, wherein the number of left and right images selected according to the speed of the moving object is variable;
An image matching unit for matching the current image photographed by the forward camera and the backward camera of the moving object with the left and right images estimated by the image estimating unit to generate an overview image;
An image display unit for displaying the surround view image generated by the image matching unit on the display screen of the moving object;
Based on the estimated image information.
제 1 항에 있어서,
상기 영상 추정부가:
이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 영상 버퍼부에 저장된 이전 영상들을 분석해 영상간 경계면의 유사성을 판단해 이전 영상들중 적어도 하나의 영상을 선택해 이동체의 현재 위치에서의 좌우 영상으로 추정하는 것을 특징으로 하는 영상 추정 기반 어라운드 뷰 모니터링 장치.
The method according to claim 1,
The image estimating unit:
The current image captured by the forward camera and the backward camera of the moving object and the previous images stored in the image buffer unit are analyzed to determine the similarity of the boundary between the images to select at least one image from the previous images, And estimates the image based on the left and right images.
제 2 항에 있어서,
상기 영상 추정부가:
이동체의 전진시에는 이동체의 전방 카메라에 의해 촬영되어 상기 영상 버퍼부에 저장된 이전 전방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하는 것을 특징으로 하는 영상 추정 기반 어라운드 뷰 모니터링 장치.
3. The method of claim 2,
The image estimating unit:
And estimates the left and right images based on the current position of the moving object from the previous forward images captured by the forward camera of the moving object and stored in the image buffer unit when the moving object is advanced.
제 2 항에 있어서,
상기 영상 추정부가:
이동체의 후진시에는 이동체의 후방 카메라에 의해 촬영되어 상기 영상 버퍼부에 저장된 이전 후방 영상들로부터 이동체의 현재 위치에서의 좌우 영상을 추정하는 것을 특징으로 하는 영상 추정 기반 어라운드 뷰 모니터링 장치.
3. The method of claim 2,
The image estimating unit:
And estimates the left and right images at the current position of the moving object from the previous backward images captured by the rear camera of the moving object and stored in the image buffer unit when the moving object moves backward.
제 2 항에 있어서,
상기 영상 정합부가:
상기 영상 버퍼부에 저장된 인접한 이전 두 영상들의 경계면에서의 겹치는 부분은 어느 하나의 영상에서 제거하는 것을 특징으로 하는 영상 추정 기반 어라운드 뷰 모니터링 장치.
3. The method of claim 2,
Wherein the image matching unit comprises:
Wherein the overlapping part of the boundary between the two adjacent images stored in the image buffer unit is removed from any one of the images.
제 1 항 내지 제 5 항 중의 어느 한 항에 있어서,
상기 영상 추정 기반 어라운드 뷰 모니터링 장치가:
이동체의 전방 카메라와 후방 카메라 각각에 의해 촬영되는 현재 영상과, 상기 영상 추정부에 의해 추정된 좌우 영상간의 밝기 차이에 의한 이질감을 개선하는 영상 보정부를;
더 포함하는 것을 특징으로 하는 영상 추정 기반 어라운드 뷰 모니터링 장치.
6. The method according to any one of claims 1 to 5,
Wherein the image estimation based surround view monitoring apparatus comprises:
An image correcting unit for improving a sense of heterogeneity due to a difference in brightness between a current image photographed by each of a front camera and a rear camera of the moving object and a right and left image estimated by the image estimator;
Based on the estimated information.
제 6 항에 있어서,
상기 영상 보정부가:
전조등 또는 미등 온(On) 신호를 감지시, 상기 이동체의 전방 카메라 또는 후방 카메라 각각에 의해 촬영되는 현재 영상의 밝기를 상기 추정된 좌우 영상 밝기 수준으로 조정하는 것을 특징으로 하는 영상 추정 기반 어라운드 뷰 모니터링 장치.
The method according to claim 6,
The image correcting unit:
And adjusting the brightness of the current image photographed by each of the front camera or the rear camera of the moving object to the estimated left and right image brightness levels when the headlight or the on-off signal is sensed. Device.
KR1020160124657A 2016-09-28 2016-09-28 Around view monitoring apparatus based on video estimation process Active KR101815840B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160124657A KR101815840B1 (en) 2016-09-28 2016-09-28 Around view monitoring apparatus based on video estimation process

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160124657A KR101815840B1 (en) 2016-09-28 2016-09-28 Around view monitoring apparatus based on video estimation process

Publications (1)

Publication Number Publication Date
KR101815840B1 true KR101815840B1 (en) 2018-01-08

Family

ID=61003883

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160124657A Active KR101815840B1 (en) 2016-09-28 2016-09-28 Around view monitoring apparatus based on video estimation process

Country Status (1)

Country Link
KR (1) KR101815840B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190117213A (en) * 2018-04-06 2019-10-16 주식회사 와이즈오토모티브 Apparatus and method for generating bird eye view image
KR20230067218A (en) 2021-11-09 2023-05-16 에이엠알오 주식회사 3D space information monitoring system
KR102836908B1 (en) * 2020-09-25 2025-07-21 현대모비스 주식회사 Surround view generating system and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190117213A (en) * 2018-04-06 2019-10-16 주식회사 와이즈오토모티브 Apparatus and method for generating bird eye view image
KR102103418B1 (en) 2018-04-06 2020-04-23 주식회사 와이즈오토모티브 Apparatus and method for generating bird eye view image
KR102836908B1 (en) * 2020-09-25 2025-07-21 현대모비스 주식회사 Surround view generating system and method
KR20230067218A (en) 2021-11-09 2023-05-16 에이엠알오 주식회사 3D space information monitoring system

Similar Documents

Publication Publication Date Title
JP4882571B2 (en) Vehicle monitoring device
US11420559B2 (en) Apparatus and method for generating a composite image from images showing adjacent or overlapping regions external to a vehicle
KR101610038B1 (en) Around view monitoring apparatus and Method of thereof
JP6364797B2 (en) Image analysis apparatus and image analysis method
JP6750519B2 (en) Imaging device, imaging display method, and imaging display program
CN108460734A (en) The system and method that vehicle driver's supplementary module carries out image presentation
JP5262515B2 (en) Vehicle display device and display method
KR20150115488A (en) Apparatus and method for peripheral image generation of vehicle
JP6338930B2 (en) Vehicle surrounding display device
KR101815840B1 (en) Around view monitoring apparatus based on video estimation process
KR101405085B1 (en) Device and method for video analysis
US7865029B2 (en) Image processing device and method
US10943334B2 (en) Method and system for representation of vehicle surroundings with reduced artefacts
CN108293106B (en) Display control device and display control method
JP2014106740A (en) In-vehicle parking frame recognizing device
US9827906B2 (en) Image processing apparatus
EP3396620B1 (en) Display control device and display control method
JP5541099B2 (en) Road marking line recognition device
KR20160107529A (en) Apparatus and method for parking assist animated a car image
KR101628931B1 (en) Method and apparatus for controlling view angle of blackbox
WO2017188245A1 (en) Image processing device, image processing method, and program
JP2006178667A (en) Video correcting apparatus and method for vehicle
US20230171510A1 (en) Vision system for a motor vehicle
JP5907405B2 (en) Image analysis apparatus and object detection apparatus using the same
KR102713056B1 (en) Apparatus and method for a vehicle for expressing actualized display objects

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20160928

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20170620

Patent event code: PE09021S01D

PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170929

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20180102

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20180102

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20210104

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20220103

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20230102

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20241231

Start annual number: 8

End annual number: 8