[go: up one dir, main page]

KR101666959B1 - 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 - Google Patents

카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 Download PDF

Info

Publication number
KR101666959B1
KR101666959B1 KR1020150041293A KR20150041293A KR101666959B1 KR 101666959 B1 KR101666959 B1 KR 101666959B1 KR 1020150041293 A KR1020150041293 A KR 1020150041293A KR 20150041293 A KR20150041293 A KR 20150041293A KR 101666959 B1 KR101666959 B1 KR 101666959B1
Authority
KR
South Korea
Prior art keywords
image
camera
automatic correction
distortion
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020150041293A
Other languages
English (en)
Other versions
KR20160116075A (ko
Inventor
이준석
박규로
Original Assignee
㈜베이다스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ㈜베이다스 filed Critical ㈜베이다스
Priority to KR1020150041293A priority Critical patent/KR101666959B1/ko
Priority to US15/561,104 priority patent/US10176595B2/en
Priority to CN201580080388.3A priority patent/CN107660336A/zh
Priority to PCT/KR2015/004514 priority patent/WO2016153100A1/ko
Publication of KR20160116075A publication Critical patent/KR20160116075A/ko
Application granted granted Critical
Publication of KR101666959B1 publication Critical patent/KR101666959B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • H04N5/217
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N5/23287
    • H04N5/238
    • H04N5/243
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법에 관한 것으로, 카메라 주변의 임의의 장소에 하나 이상이 설치될 수 있는 자동보정패턴과, 상기 카메라로부터 영상을 입력받아 상기 영상처리장치로 전송하는 입출력모듈과, 상기 카메라로부터 획득된 영상의 왜곡을 보정하기 위한 알고리듬이 수록된 처리부인 영상처리모듈을 포함하되, 상기 입출력모듈은, 상기 카메라와 상기 영상처리모듈사이에서 데이터를 송수신하는 영상입출력부와, 상기 영상처리모듈에서 처리된 정보가 저장되는 저장부를 포함하고, 상기 영상처리모듈은, 수신된 영상에서 상기 자동보정패턴의 특징점들을 추출하고, 추출된 특징점들에 대한 기지의 정보를 이용하여 상기 카메라의 절대적 위치와 설치각을 추정하고, 상기 저장부에 저장된 내부 파라미터를 이용하여 렌즈 왜곡 보정을 수행하는 왜곡보정부와, 상기 왜곡보정부에서 추정된 카메라의 절대적 위치와 설치각에 대한 정보를 이용하여 영상에서 변경 파라미터로서 카메라 설치위치 및 회전오차를 추정하는 이미지정렬추정부 및 상기 이미지정렬추정부에서 추정된 변경 파라미터를 이용하여 영상의 3차원 위치 및 크기를 보정하는 이미지정렬생성부를 포함하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치를 제공한다.

Description

카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법{IMAGE PROCESSING APPARATUS HAVING A FUNCTION FOR AUTOMATICALLY CORRECTING IMAGE ACQUIRED FROM THE CAMERA AND METHOD THEREFOR}
본 발명은 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법에 관한 것으로, 더욱 상세하게는 카메라로부터 획득한 영상을 통해 차량에 장착된 카메라의 장착 오차를 자동으로 보정하여 영상을 처리할 수 있는 자동보정기능을 구비한 영상처리장치 및 그 방법에 관한 것이다.
근래에 들어서 정보통신 기술의 발달과 인터넷 사용인구의 증가로 인하여 다양한 카메라가 널리 보급되어 왔고 더불어 이를 이용한 영상 분석 및 활용에 대한 요구가 점차 증가하고 있다. 하지만 카메라 렌즈의 특성으로 인하여 카메라로부터 획득한 영상은 왜곡이 발생하는데, 영상을 분석하고 활용하기 위해서는 이와 같은 영상의 왜곡을 보정하여야만 한다.
그중에서도 자동차에 장착되는 카메라 등과 같이 넓은 화각을 가지는 광각 카메라의 경우에는 촬영 영상이 일반 카메라로 촬영한 영상보다 왜곡이 더욱 심하게 되어서 카메라의 영상을 영상 출력장치 내에 모두 표현하게 되면 영상이 수평과 수직으로 압축된 왜곡 영상이 나타나게 된다. 특히 렌즈의 중심에서 멀어질수록 원래 위치보다 안쪽 또는 바깥쪽으로 이동하는 방사형 왜곡을 보정하는 것이 필요하다.
이와 같은 영상의 왜곡 현상은 렌즈를 사용하는 모든 카메라에서 나타나므로 오래전부터 다양한 분야에서 왜곡된 영상을 보정하기 위한 기술들이 연구 개발 되어 왔다. 그중에서도 차량에 사용되는 카메라는 그 기능과 목적에 있어서 매우 다양하게 사용되고 있으므로 더욱 이러한 기술들이 많이 활용되어 왔다.
차량에 사용되는 카메라는 후방 카메라가 대표적인데, 후방 카메라는 외부의 카메라와 그 카메라의 영상을 단순히 그대로 출력해주는 출력 장치만이 필요하지만 최근에는 첨단운전자보조시스템(ADAS)의 개발 및 발전과 더불어 단순히 카메라의 영상을 그대로 출력하는 것이 아닌 카메라의 영상을 사용자의 요구나 제어 시스템의 요구에 적합한 형태로 가공 표현해야 할 필요성이 대두 되었다. 즉, 파노라마 형식의 뷰를 요구하거나 탑뷰 형식의 뷰를 요구하는 것과 같이 사용자나 시스템의 요구에 맞춰서 카메라의 영상을 가공 표현할 수 있어야 한다.
이렇게 차량에 필요한 영상을 가공 표현할 수 있으려면 상술한 바와 같이 왜곡된 카메라 영상에 대한 보정이 선결되어야 하는데, 그 왜곡 보정을 위한 대표적인 방법은 대략적으로 다음과 같은 과정을 따른다. 즉, 카메라 모델을 정의하고, 보정 패턴으로부터 모델의 내부 및 외부 파라미터를 추정한 다음 모델의 역변환을 통해 복원하는 방법이다.
여기서 보정 패턴으로부터 파라미터를 추정하는 과정에서는 카메라 보정을 위해 특정 패턴 도구를 사용하게 된다. 이렇게 패턴 도구를 사용하게 되면 패턴 상의 특정 마커의 상대적인 위치를 미리 정확하게 알 수 있어 정밀한 결과를 얻을 수 있는 장점이 있으나, 무거운 특정 패턴 도구를 늘 가지고 다녀야 하므로 번거로움이 있는 단점이 있다.
관련 선행기술로는 한국공개특허 2009-0065198호(공개일: 2009. 06. 22)가 있다.
본 발명은 카메라로부터 획득한 영상의 왜곡을 보정할 때, 자동보정패턴으로부터 카메라의 렌즈 왜곡 보정을 수행함과 동시에 카메라의 위치 및 자세에 대한 오차 보정도 수행할 수 있도록 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법을 제공하기 위한 것이다.
본 발명의 또 다른 목적은 카메라로부터 획득한 영상의 왜곡을 보정하는 과정 중에서 자동보정패턴으로부터 파라미터를 추정하는 과정에 있어서, 특정한 자동보정패턴 없이도 삼각형, 사각형, 원형 또는 기타 다각형 등의 다양한 형상만으로 이루어진 패턴을 이용하여 간단하게 카메라의 영상을 보정할 수 있도록 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법을 제공하기 위한 것이다.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않는다.
상기 과제를 달성하기 위한 본 발명의 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치는, 카메라 주변의 임의의 장소에 하나 이상이 설치될 수 있는 자동보정패턴과, 상기 카메라로부터 영상을 입력받아 상기 영상처리장치로 전송하는 입출력모듈과, 상기 카메라로부터 획득된 영상의 왜곡을 보정하기 위한 알고리듬이 수록된 처리부인 영상처리모듈을 포함하되, 상기 입출력모듈은, 상기 카메라와 상기 영상처리모듈사이에서 데이터를 송수신하는 영상입출력부와, 상기 영상처리모듈에서 처리된 정보가 저장되는 저장부를 포함하고, 상기 영상처리모듈은, 수신된 영상에서 상기 자동보정패턴의 특징점들을 추출하고, 추출된 특징점들에 대한 기지의 정보를 이용하여 상기 카메라의 절대적 위치와 설치각을 추정하고, 상기 저장부에 저장된 내부 파라미터를 이용하여 렌즈 왜곡 보정을 수행하는 왜곡보정부와, 상기 왜곡보정부에서 추정된 카메라의 절대적 위치와 설치각에 대한 정보를 이용하여 영상에서 변경 파라미터로서 카메라 설치위치 및 회전오차를 추정하는 이미지정렬추정부 및 상기 이미지정렬추정부에서 추정된 변경 파라미터를 이용하여 영상의 3차원 위치 및 크기를 보정하는 이미지정렬생성부를 포함하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치를 포함할 수 있다.
구체적으로, 상기 자동보정패턴의 형상은 삼각형, 사각형, 다각형 및 원형 중 어느 하나인 것을 특징으로 할 수 있다.
구체적으로, 상기 자동보정패턴에 대한 모양, 크기, 또는 색상 등과 같은 도형의 규격에 대한 정보와, 모서리, 모멘트 등과 같은 기하 정보는 기지의 정보인 것을 특징으로 할 수 있다.
구체적으로, 상기 내부 파라미터는 광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함할 수 있다.
구체적으로, 상기 이미지정렬추정부는 변경 파라미터로서 카메라 설치위치 및 회전오차를 추정할 때 그 오차가 최소가 되도록 최적화 알고리듬 기법을 이용하는 것을 특징으로 할 수 있다.
구체적으로, 상기 최적화 알고리듬은 LM(Levenberg-Marquadts), LMS(Least Mean Square), ACO(Ant Colony Optimization), PSO(Particle Swarm Optimization) 중 어느 하나 일 수 있다.
구체적으로, 상기 이미지정렬생성부는 영상을 보정할 때 추정된 정보들은 저장부에 저장될 수 있되, LUT(Look-up Table), GPU texture 좌표 매핑 방법에 의한 Vertex, 사용자 정의 메타 데이터 포맷 (meta-data format, e.g. XML format) 등과 같은 다양한 형식으로 생성하여 저장할 수 있는 것을 특징으로 할 수 있다.
구체적으로, 카메라가 촬영한 자동보정패턴 영상을 입출력모듈로부터 영상처리모듈이 수신하는 자동보정패턴 영상수신 단계와, 상기 영상처리모듈의 왜곡보정부가 상기 자동보정패턴에 대한 기지의 정보를 이용하여 수신한 영상에서 자동보정패턴의 특징점들을 추출하는 특징점 추출 단계와, 상기 왜곡보정부에서 추출된 상기 자동보정패턴의 특징점들을 이용하여 영상을 획득할 당시의 카메라의 절대적 위와 설치각을 추정하는 절대적 위치와 설치각 추정 단계와, 상기 왜곡보정부가 수신 영상을 이용하여 렌즈 왜곡 보정을 위한 내부 파라미터를 획득하는 내부 파라미터 획득 단계와, 상기 획득된 내부 파라미터를 이용하여 왜곡 보정 알고리듬을 통해 렌즈 왜곡 영상을 보정하는 렌즈 왜곡 보정 수행 단계 및 이미지정렬추정부가 변경 파라미터를 추정하고, 이미지정렬생성부는 상기 변경 파라미터를 이용하여 최종적으로 영상 보정을 수행하는 변경 파라미터 추정 및 영상 보정 수행 단계를 포함 할 수 있다.
구체적으로, 상기 렌즈 왜곡 보정 수행 단계에서, 렌즈 왜곡 영상을 보정하는 방법은 비선형 왜곡 보정 방법 또는 가우시안 구(Gaussian Sphere) 매핑을 통한 왜곡 보정 방법 중 어느 하나인 것을 특징으로 할 수 있다.
구체적으로, 상기 비선형 왜곡 보정 방법은, 핀홀 기반 방법(pinhole based) 또는 광선 캡처 기반 방법(captured ray based)일 수 있으며, 상기 광선 캡처 기반 방법(captured ray based)에 사용되는 투영 방정식은 등거투영(Equidistant projection), 직각투영(Orthographic projection), 등방각투영(Equisolid angle projection) 및 입체촬영투영(Stereographic projection) 중 어느 하나인 것을 특징으로 할 수 있다.
구체적으로, 상기 변경 파라미터 추정 및 영상 보정 수행 단계는, 하기의 수학식에 의해 실제 자동보정패턴과 패턴 매칭을 수행하는 것을 특징으로 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법을 포함할 수 있다.
수학식
Figure 112015029077926-pat00001
Figure 112015029077926-pat00002
Figure 112015029077926-pat00003
여기서, XYc는 왜곡 보정된 영상의 한 점의 직교 좌표이고, XYp는 XYc를 지면에 매핑한 점의 2차원 좌표이고, Sc는 스케일 요소이고, fpc는 3차원의 좌표를 평면의 한 점으로 매핑하는 함수이고, R(θ) 및 R(ψ)은 수학식 3과 같이 3차원 좌표의 회전 행렬로 φ는 x축을 중심으로 회전된 각, θ는 y축을 중심으로 회전된 각, ψ는 z축을 중심으로 회전된 각을 각각 의미함.
구체적으로, 상기 변경 파라미터 추정 및 영상 보정 수행 단계에서, 실제 자동보정패턴과 영상 내의 자동보정패턴과의 오차를 최소화하기위한 최적화 알고리듬은 LM(Levenberg-Marquadts), LMS(Least Mean Square), ACO(Ant Colony Optimization), PSO(Particle Swarm Optimization) 중 어느 하나일 수 있다.
이상에서 설명한 바와 같이 본 발명은 자동보정패턴으로부터 렌즈 왜곡 보정과 카메라 장착오차 보정도 동시에 자동으로 수행할 수 있기 때문에 렌즈 왜곡 보정을 수행하기 위한 보정 패턴과 카메라의 장착오차를 보정하기 위한 보정 패턴을 따로 준비할 필요 없이 동일한 보정 패턴의 사용에 의한 카메라 영상 보정만으로도 카메라로부터 획득한 영상을 곧바로 가공 활용할 수 있도록 할 수 있는 효과가 있다.
또한, 본 발명은 패턴 도구를 사용하여 카메라의 영상을 보정하는데 있어서, 기존의 체스판과 같은 광범위한 영역에 설치해야 하는 특정한 패턴 도구가 아니라 자동보정패턴 내부에 무늬 모양이 없는 삼각형, 사각형, 원형 또는 기타 다각형 등의 형상만의 간소화된 패턴을 이용하기 때문에 간단하고 용이하게 카메라 영상 보정 작업을 할 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치를 나타낸 다이어그램이다.
도 2는 본 발명의 실시예에 따른 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법을 나타낸 순서도이다.
도 3은 도1에 도시된 자동보정패턴이 지면에 설치된 일예를 나타낸 도면이다.
도 4는 도3에 도시된 자동보정패턴을 촬영한 예시도이다.
도 5는 본 발명의 실시예에 따른 최적화 알고리듬 기법의 흐름도이다.
도 6은 도 5의 최적화 알고리듬 기법의 결과를 나타낸 그래프이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다. 도면들 중 동일한 구성요소들은 가능한 어느 곳에서든지 동일한 부호로 표시한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.
도 1은 본 발명의 실시예에 따른 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치를 나타낸 다이어그램으로서, 카메라(10), 자동보정패턴(100), 입출력모듈(200) 및 영상처리모듈(300)을 포함한다.
카메라(10)는 임의의 위치에 설치되어서, 지면에 설치된 자동보정패턴(300)과 지상면을 촬영한 후 이를 전기적 신호로 변환하여 영상입출력부(210)를 통해 영상처리장치(100)로 전송한다(도 2 참조). 그리고 자동보정패턴(300)은 반드시 지면에 형성될 필요 없고 자동보정패턴(300)에 대한 기지의 정보를 제공할 수 있다면 지면 또는 구조물 등과 같이 임의의 장소에 설치가 가능하다.
카메라(10)는 단순한 광학기구 뿐만 아니라 광학신호를 전기적 신호로 변환하는 이미지센서 등의 전기적 장치를 포함하는 개념이다. 또한, 차량에 장착되는 카메라(100)는 보다 넓은 시야각 확보를 위해 초광각 렌즈를 주로 사용하지만, 본 발명에서 자동보정 기능을 수행할 수 있는 카메라(100)의 종류는 화각에 상관없이 적용이 가능하다.
자동보정패턴(100)은 기지의 패턴으로서 카메라에서 시야가 확보되는 지면에 설치되며 하나 이상이 설치될 수 있다. 이 때 자동보정패턴(100)의 형상은 사각형일 수 있으나 삼각형이나 원형또는 그 외의 다각형도 가능하다.
이러한 자동보정패턴(100)은 설치된 카메라(10)의 절대적 위치 및 설치 각을 구함과 동시에 왜곡된 영상을 보정할 수 있는 매개수단이 되는 장치로서 지면에 설치된 후에 카메라로 촬영하여 사용하게 된다.
자동보정패턴(100)의 설치 위치는 카메라(10) 주변이라면 어느 곳이든 설치가 가능하고 시인성을 확보하기 위해서 각각의 자동보정패턴(100)은 지면의 배경과 명도차가 큰 색을 선택하는 것이 바람직하다.
그리고, 자동보정패턴(100)의 모양, 크기, 또는 색상 등과 같은 해당 패턴의 규격과 모서리, 모멘트 등의 기하 정보는 기지의 정보이여야 한다. 즉, 자동보정패턴(100)을 사용하여 영상을 보정하는 단계에서, 자동보정패턴(100)의 특징점들에 대한 물리적 위치정보는 미리 알고 있는 것으로 가정하여 이를 바탕으로 왜곡된 영상을 보정하게 된다.
입출력모듈(200)은 카메라(10)로부터 영상을 입력받아 영상처리모듈(300)로 출력하는 영상입출력부(210)와 영상처리모듈(300)로부터 출력되는 보정이 완료된 영상정보를 저장하는 저장부(220)를 포함한다.
영상입출력부(210)는 지면에 설치된 자동보정패턴(100)과 주변 지상면이 촬영된 영상을 차량에 설치된 카메라(10)로부터 입력 받아 입력된 영상을 영상처리모듈(300)로 전송한다. 이 때 필요한 경우 영상입출력부(210)에서는 필터 등에 의해 영상 전처리 과정을 수행할 수도 있다.
저장부(220)는 카메라(10) 렌즈의 고유 특성에 해당하는 초점거리, 주점, 왜곡계수 등과 같은 내부 파라미터에 대한 정보와, 영상처리모듈(300)에서 추정된 카메라(10)의 3차원 위치, 자세 또는 설치각 등과 같은 외부 파라미터에 대한 정보 및 영상처리모듈(300)에서 영상을 보정할 때 추정된 결과들에 대한 정보가 저장된다.
저장된 정보는 다양한 장치에 제공될 수 있는데, 특히, 보정이 완료된 영상에 대한 정보는 자동차 탑뷰 시스템, 파노라마 뷰 시스템 등과 같은 다양한 장치들에서 가공 활용되기 위해 제공될 수 있다.
영상처리모듈(300)은 카메라(10)에서 획득된 영상의 왜곡을 보정하기 위한 알고리듬이 수록된 모듈로서, 왜곡보정부(310), 이미지정렬추정부(320) 및 이미지정렬생성부(330)를 포함할 수 있다.
왜곡보정부(310)는 카메라(10)를 통해 촬영된 자동보정패턴(100)의 영상을 영상입출력부(210)에서 입력받아 자동보정패턴(100)의 특징점들을 추출하여 추출된 특징점들의 기지의 물리적 위치정보를 이용하여 카메라의 절대적 위치와 설치각을 추정한 후, 이러한 정보를 저장부(220)에 저장한다. 즉, 왜곡보정부(310)에서는 지면의 기준패턴(10)을 바탕으로 카메라가 놓인 절대적 위치와 카메라의 기울어진 각도를 추정하여 저장한다.
또한, 왜곡보정부(310)는 렌즈의 왜곡보정을 위하여 저장부(220)에 저장된 광중심과 같은 내부 파라미터를 획득하여, 획득된 내부 파라미터를 이용하여 렌즈 왜곡 보정을 수행한다.
여기서, 렌즈 왜곡 보정을 위한 내부 파라미터 또는 광학 파라미터는 광중심(optical center), 종횡비(aspect ratio), 투영 유형 및 초점거리(focal length) 중 적어도 어느 하나 이상을 포함할 수 있다. 그리고 종횡비 및 초점거리는 센서의 데이터 시트를 통해 얻을 수 있으며, 광중심은 촬영된 영상의 렌즈 서클 또는 타원의 중심으로 파악할 수 있다.
이미지정렬추정부(320)는 왜곡보정부(310)에서 추정된 카메라의 절대적 위치와 설치각에 대한 정보를 이용하여, 왜곡보정부(310)에서 보정된 영상을 최적화 알고리듬으로 처리하여 카메라 설치위치 (X,Y,Z) 및 회전오차 (Φ,Θ,Ψ)를 추정한다.
이러한 추정 과정은, 왜곡보정부(310)에서 보정되어 이미지정렬추정부(320)로 전송된 렌즈 왜곡 보정영상에 나타난 자동보정패턴(100)과 실제의 자동보정패턴(100)이 모양과 간격 등에서 서로 일치될 수 있도록 각도와 거리를 변경하여 정렬하는 과정이다.
즉, 이미지정렬추정부(320)에서는 최적화 알고리듬 기법을 사용하여 렌즈 왜곡 보정영상 내의 자동보정패턴(100)과 실제 자동보정패턴(100)을 비교하여 둘 사이의 오차인 거리 정보 등이 최소가 되도록 하는 변경 파라미터인 설치위치 (X,Y,Z) 및 회전오차 (Φ,Θ,Ψ)를 추정해낸다.
이러한 최적화 알고리듬은 LM(Levenberg-Marquadts), LMS(Least Mean Square), ACO(Ant Colony Optimization), PSO(Particle Swarm Optimization) 중 어느 하나일 수 있다.
이미지정렬생성부(330)는 이미지정렬추정부(320)에서 추정된 정보인 변경 파라미터 등을 이용하여 왜곡보정부(310)에서 렌즈 왜곡 보정 영상을 다시 보정하는 처리부이다.
이와 같이 이미지정렬생성부(330)에서 영상을 보정할 때 추정된 정보들은 저장부(220)에 저장될 수 있으며, 다양한 형식으로 저장될 수 있다. 저장 형식은 단순 좌표 매핑 방법에 의한 LUT(Look-up Table)를 생성하여 저장하거나, GPU texture 좌표 매핑 방법에 의한 Vertex를 생성하여 저장하거나, 사용자 정의 메타 데이터 포맷 (meta-data format, e.g. XML format)을 생성하여 저장할 수 있다.
상술한 바와 같이 구성된 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법을 첨부된 도면을 참조하여 구체적으로 살펴보고자 한다.
도 2는 본 발명의 실시예에 따른 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법을 나타낸 순서도로서, 자동보정패턴 영상수신 단계(S310), 특징점 추출 단계(S320), 절대적 위치와 설치각 추정 단계(S330), 내부 파라미터 획득 단계(S340), 렌즈 왜곡 보정 수행 단계(S350), 변경 파라미터 추정 및 영상 보정 수행 단계(S360)를 포함한다.
먼저, 기지의 자동보정패턴(100)을 지면에 설치한다. 도 3과 도 4에 자동보정패턴(100)이 지면에 설치된 일예와 실제 자동보정패턴(100)을 촬영한 것을 나타내었다. 이와 같이 설치된 자동보정패턴(100)에서 각 패턴의 크기, 모양 또는 색상 등과 같은 규격과 카메라와 패턴과의 거리 등은 영상처리모듈(300)에서 미리 알고 있다고 가정한다. 또한 패턴의 모양은 기지의 사항이라면 삼각형, 사각형, 원형 또는 다각형 등과 같이 그 형태는 상관이 없다.
각각의 패턴을 차량에 설치된 카메라에서 관측이 가능한 위치에 설치한다. 도 3은 자동보정패턴(100) 설치의 실시예로서 패턴의 모양은 정사각형이며 그 크기는 70ㅧ 70cm 이고 차량과 중앙에 위치한 패턴과의 거리는 30cm이다. 이때의 크기와 패턴과의 거리는 정해진 것이 아니며 차량 혹은 설치대와 패턴 크기에 따라서 변경 가능하다.
자동보정패턴 영상수신 단계(S310)는, 카메라(10)가 지면에 설치된 자동보정패턴(100)을 촬영하여 영상입출력부(210)로 촬영된 영상을 전송하고, 영상처리모듈(300)은 영상입출력부(210)로부터 자동보정패턴(100)이 촬영된 영상을 수신하는 단계이다.
특징점 추출 단계(S320)는, 영상입출력부(210)의 왜곡보정부(310)는 자동보정패턴(100)에 대한 기지의 정보를 이용하여 수신한 영상에서 자동보정패턴(100)을 찾아 자동보정패턴(100)의 특징점들을 추출하는 단계이다.
구체적으로는, 먼저 수신한 영상 내에서 윤곽선을 찾아 후보군을 만든 후에, 자동보정패턴(100)이 사각형일 경우 4개의 꼭짓점, 콘벡스(convex), 제한된 종횡비 내의 윤곽선 등과 같은 기지의 정보를 이용하여 수신한 영상에서 자동보정패턴(100)을 찾고 찾아낸 자동보정패턴(100)에 대하여 특징점들을 추출하게 된다.
절대적 위치와 설치각 추정 단계(S330)는, 왜곡보정부(310)가 특징점 추출 단계(S320)에서 추출된 자동보정패턴(100)의 특징점인 모서리, 모멘트 등과 같은 정보를 이용하여 영상을 획득할 당시의 카메라의 절대적 위치와 설치각을 추정하는 단계이다.
여기서, 영상처리모듈(300)는 추정된 카메라의 절대적 위치와 설치각에 대한 정보를 저장부(220)에 저장한다. 즉, 영상처리모듈(300)은 지면의 자동보정패턴(100)을 바탕으로 카메라가 놓인 절대적 위치와 카메라의 기울어진 각도만을 추정한다.
내부 파라미터 획득 단계(S340)는, 왜곡보정부(310)가 촬영된 영상을 이용하여 렌즈의 왜곡 보정을 위하여 광학 파라미터인 내부 파라미터를 획득하는 단계이다. 여기서, 광학 파라미터는 광중심(optical center), 종횡비(aspect ratio), 투영 유형 및 초점거리(focal length) 중 적어도 어느 하나 이상을 포함할 수 있다.
즉, 절대적 위치와 설치각 추정 단계(S330)에서 카메라의 절대적 위치와 설치각을 추정하고 나면 영상처리모듈(300)은 촬영된 영상을 이용하여 렌즈 왜곡 보정을 위한 렌즈의 광중심을 포함한 광학 파라미터를 획득하게 된다.
렌즈 왜곡 보정 수행 단계(S350)는, 왜곡보정부(310)가 내부 파라미터 획득 단계(S340)에서 획득된 내부 파라미터를 이용하여 왜곡 보정 알고리듬을 통하여 렌즈 왜곡된 영상을 보정하는 단계로서, 다양한 왜곡 보정 방법이 사용 가능하다.
렌즈 왜곡에는 크게 방사형 왜곡과 접선왜곡이 있는데, 특히, 넓은 범위를 촬영할 수 있는 광각 렌즈의 경우에는 일반 렌즈로 촬영한 영상보다 렌즈의 중심에서 멀어질수록 원래 위치보다 안쪽 또는 바깥쪽으로 이동하는 방사형 왜곡을 보정하는 것이 필요하다.
그리고 렌즈 왜곡 보정은 일반적으로 핀홀 카메라가 아닌 광각 렌즈를 사용하는 카메라에서 렌즈의 곡률을 역연산하고 이를 바탕으로 입사점을 광중심으로 균일화시킴으로써 곡률의 차이에서 발생하는 렌즈의 왜곡 현상을 제거하는 것이다.
따라서 왜곡 보정 과정에서는 렌즈 곡률에 대한 모형식(투영식)이 주어질 경우 이를 바탕으로 왜곡 정도를 파악하게 되고, 보정 단계를 거쳐 영상 내 원근 왜곡만을 남기게 된다.
이러한 렌즈 왜곡을 보정하는 방법으로는 비선형 왜곡 보정 방법을 통한 방법과 가우시안 구 매핑을 통한 왜곡 보정 방법이 있다. 그리고 비선형 왜곡 보정 방법으로는 핀홀 기반 방법(pinhole based)과 광선 캡처 기반 방법(captured ray based) 등이 있다.
핀홀 기반 방법은 영상 내 공간 좌표와 광축 (principal axis)을 이용하여 왜곡을 보정하는 방법으로서 실제 계산은 다항식 (polynomial)으로 구성된 함수가 활용될 수 있다.
광선 캡처 기반 방법은 광축과 입사광의 각도를 이용하여 왜곡을 보정하는 방법으로서, 광선 캡처 기반에 의한 방사형 왜곡을 보정하는 것은 렌즈의 굴절을 없애는 의미에서 핀홀 투영(Pin-hole projection)과 동일한 것으로 볼 수 있다. 이에 사용되는 투영 방정식(Projection equation)으로는 수학식 1에 기술된 등거투영(Equidistant projection), 직각투영(Orthographic projection), 등방각투영(Equisolid angle projection) 및 입체촬영투영(Stereographic projection)의 방정식이 주로 사용될 수 있다. 이때 Rf 는 평판 이미지(image plane)에서의 투영 거리(projected distance)이며, f는 초점거리, ω는 입사광선(incident ray)의 입사각을 나타낸다. 이외에도 다양한 수식이 이용될 수 있다.
Figure 112015029077926-pat00004
그리고 광중심은 촬영된 영상의 렌즈 서클 또는 타원의 중심으로 파악할 수 있다. 초점거리는 렌즈 제조시에 주어지는 값과 이미지센서의 데이터 시트를 참고해서 구할 수 있다. 다른 방법으로는 초점거리는 투영 방정식에 맞춰 영상의 왜곡을 제거했을 때 직선이 왜곡 없이 나타날 때의 초점거리 값으로 정의할 수 있기 때문에 이를 추정하여 초점거리를 획득할 수 있다.
변경 파라미터 추정 및 영상 보정 수행 단계(360)는, 이미지정렬추정부(320)가 왜곡보정부(310)에서 추정된 카메라의 절대적 위치와 설치각에 대한 정보를 이용하여 왜곡보정부(310)에서 보정된 영상이 자동보정패턴(100)을 기준으로 하였을 때 어느 위치에 어느 정도로 기울어진 상태로 놓여 있는지를 계산하여 이를 변경 파라미터로서 추정하고, 이미지정렬생성부(330)는 추정된 값으로 최종적으로 영상 보정을 수행하는 단계이다. 여기서 변경 파라미터는 카메라 설치위치 (X,Y,Z) 및 회전오차 (Φ,Θ,Ψ)로 표현된다.
구체적으로, 이와 같은 변경 파라미터 추정 및 영상 보정을 수행하는 과정은, 먼저 3차원 가상의 구에 패턴 매칭을 수행한 다음, 3차원 가상의 구에 매핑된 영상속의 자동보정패턴(100)의 모양이 원래의 자동보정패턴(100) 형태가 되도록 3차원 가상의 구를 회전시켜 실제 자동보정패턴(100)과의 차이를 변경 파라미터로 추정하고 영상 보정을 수행한다. 이때 실제 자동보정패턴(100)과의 차이를 최소화하기 위한 방법으로 최적화 알고리듬 기법이 사용된다(도 5의 두 번째 그림 참조).
그리고, 여기서 자동보정패턴(100)을 이용한다는 것은 자동보정패턴(100)의 모서리, 코너, 모멘트(moment) 등의 추출된 정보를 이용한다는 것이다(도 5의 첫 번째 그림 참조).
또한, 위와 같은 추출된 정보를 이용하여 영상속의 모든 패턴의 모양이 원래의 정사각형 형태가 될 때까지 반복적으로 3차원 가상의 구를 회전시켜 최종적으로 자동보정패턴(100)의 영상이 위치와 스케일이 일치되도록 한다(도 5의 두 번째 및 세 번째 그림 참조).
즉, 영상처리모듈(300)의 왜곡보정부(310)에서 렌즈 왜곡 보정된 영상을 3차원 가상의 구에 매핑한 후, 이미지정렬추정부(320)는 추정된 카메라의 절대적 위치와 설치각을 이용하여 3차원 가상의 구를 실제 자동보정패턴(100)과 일치되도록 각도와 거리를 변경하여 최종적으로 이미지정렬생성부(330)가 이미지를 3차원 가상공간에 배열하게 된다.
그리고 이와 같이 이미지정렬생성부(330)가 이미지를 3차원 가상공간에 배열하는 과정은 카메라를 상징하는 3차원 가상의 구들이 지면의 자동보정패턴(100)을 바탕으로 어느 위치에 어떻게 기울어진 상태로 놓여 있는지 추정한 다음, 추정된 값으로 가상공간에 배열하는 것이다. 가상의 구들은 가상의 3차원 공간상에 배열되어 실제 차량에 설치된 카메라를 묘사한다. 추정과정은 가상의 구를 회전 및 이동시킨 다음에 가상의 구에 매핑되어 있는 영상을 다시 지면에 매핑했을 때, 실제 자동보정패턴(100)과의 일치정도를 높이는 방향으로 회전각도와 이동거리를 바꾸는 형태로 진행한다. 가상의 구는 수학식 2에 의해 실제 자동보정패턴(100)과 매칭될 수 있다.
Figure 112015029077926-pat00005
여기서 XYc는 왜곡 보정된 영상의 한 점의 직교 좌표로서 (Xc, Yc, Zc)와 같이 나타낼 수 있으며, XYp는 XYc를 지면에 매핑한 점의 2차원 좌표이다. Sc는 스케일 요소(scale factor)이고, fpc는 3차원의 좌표를 평면의 한 점으로 매핑하는 함수이고, R(θ) 및 R(ψ)은 수학식 3과 같이 3차원 좌표의 회전 행렬로 나타낼 수 있다. 카메라가 바라보는 시점을 y축, 그 직교 방향을 x축, 차량의 수직 방향을 z축으로 정의 하였을 때, φ는 x축을 중심으로 회전된 각을, θ는 y축을 중심으로 회전된 각을, ψ는 z축을 중심으로 회전된 각을 각각 의미한다.
Figure 112015029077926-pat00006
수학식 2와 수학식 3을 모두 다 전개하여 정리하면 아래 수학식 4와 같다. 이 때, Xpd는 가상의 구가 x축 방향으로 이동한 거리를 나타내고, Ypd는 가상의 구가 y축 방향으로 이동한 거리를 나타낸다.
Figure 112015029077926-pat00007
수학식 2 내지 수학식 4를 이용하여 패턴 매칭을 수행한 다음, 회전각도와 이동거리인 변경 파라미터를 바꿔가는 방법으로 영상 내의 자동보정패턴(100)과 실제 자동보정패턴(100)과의 차이를 최소화하기 위한 방법으로 최적화 알고리듬 기법을 적용할 수 있다. 최적화 알고리듬은 LM(Levenbeig-Marquadts), LMS(Least Mean Square), LMSE(Least mean square estimation), ACO(Ant-Colony Optimization), PSO(Particle Swarm Optimization), GD(Gradient descent) 등과 같은 최적화 알고리듬이 사용될 수 있다.
이와 같은 최적화 알고리듬 기법을 통해 오차가 최소가 되는 변경 파라미터로서 카메라 설치위치 (X,Y,Z) 및 회전오차 (Φ,Θ,Ψ)를 추정할 수 있게 되고, 이미지정렬생성부(330)는 추정된 변경 파라미터를 이용하여 최종적으로 영상 보정하게 된다.
도 6을 참조하면, 이와 같이 최적화 알고리듬의 반복적인 적용을 통해 자동보정패턴(100)의 상대적인 최소한의 제한조건인 위치와 크기가 만족되어 최종적인 영상 보정이 수행 결과를 그래프로 도시하였다.
이상과 같이 3차원 영상의 왜곡을 보정한 후 영상처리모듈(300)은 영상의 화소에 대한 카메라와 원좌표를 추적하여 룩업테이블 (LUT)을 생성하거나 GPU texture 좌표 매핑 방법에 의한 Vertex를 생성하거나, 사용자 정의 메타 데이터 포맷 (meta-data format, e.g. XML format)을 생성하여 저장할 수 있다.
도 7에서는 룩업테이블 표에 대한 일례를 나타낸 것으로, 룩업테이블은 카메라(10)로부터 획득되는 입력 영상을 구성하는 각각의 화소들이 모니터와 같은 영상출력장치로 보내질 영상의 화소에 대응되는 관계에 대한 영상 매핑데이터를 저장하는 수단이다.
도 7을 참조하면, 룩업테이블은 광각카메라(10)로부터 획득되는 입력 영상을 구성하는 각각의 화소들의 원좌표(x,y)에 대하여 출력될 영상의 화소의 최종좌표(t11, t12, ..., tmn)로 대응시킨 관계를 규정하는 일종의 매핑 테이블로 볼 수 있다. 출력될 영상의 최종좌표(t11, t12, ..., tmn) 각각은 입력되는 영상에 대응된다. 이는 카메라(10)가 광각 렌즈를 사용할 경우에 획득되는 영상은 넓은 시야각을 갖는 왜곡된 영상이므로, 이를 평면화된 영상으로 대응 시킬 때, 각 영상의 화소는 1:1이 아닌 N:1의 관계로 대응되는 경우가 있기 때문이다.
예컨대, 최종좌표인 T11은 3곳의 입력 원좌표((x1,y2),(x3,y5),(x4,y6))에 대응 될 수도 있다. 이러한 룩업테이블은 카메라(10)가 다수일 경우, 획득되는 입력 영상의 개수, 즉 카메라(10)의 개수만큼 구비하고 각각의 입력 영상별로 대응되는 합성영상의 좌표값을 포함하도록 한다.
이러한 룩업테이블을 생성하는 과정은, 룩업테이블을 생성하기 위한 샘플 영상의 각각의 화소에 대한 출력을 얻기 위해 필요한 연산의 역연산(inverse operation)을 수행하여 영상의 각 화소에 대응하는 입력 영상의 각 화소의 좌표를 구하게 된다.
예컨대 영상을 구성하는 화소 중 어느 하나의 화소를 선택하면, 이러한 화소는 좌표를 기준으로 선택되고, 좌표는 출력될 영상의 최종좌표가 된다.
선택된 화소의 최종좌표가 카메라에 의해 획득되는 입력 영상에서의 원좌표가 어디인지를 알 수 있게 된다. 따라서, 특정 화소의 최종좌표에 대응되는 원좌표를 획득하여 기록해 둔다.
이와 같은 과정을 영상의 모든 화소에 대해서 순차적으로 수행하여 임의 화소의 최종좌표에 대응된 원좌표를 획득할 수 있다.
획득된 원좌표를 해당 화소의 최종좌표와 매핑시켜 도 7과 같은 룩업테이블(LUT)을 생성할 수 있게 된다. 여기에서, 입력 영상의 모든 화소가 영상처리모듈(300)이 3차원 영상의 왜곡을 보정한 후의 영상의 최종좌표와 매핑되는 것은 아니다. 이는 입력 영상 중에서 불필요한 화소는 최종좌표에 대응되지 않고 버려질 수 있다는 것을 의미한다. 일반적으로 입력 영상의 일정 영역에 있는 화소만, 즉 20% 내지 50% 정도만 최종적으로 영상처리모듈(300)이 처리하는 영상으로 변환되므로, 룩업테이블을 참조하여 변환되는 입력 영상의 화소에 대해서만 매핑 과정을 수행하여 그만큼 영상처리시의 부하와 시간을 줄일 수 있게 된다.
영상처리모듈(300)은 룩업테이블을 생성한 후, 생성된 룩업테이블을 입출력모듈(200)로 전송하여 저장부(220)에 저장한다. 이후 저장부(220)에 저장된 룩업테이블을 참조함으로써 카메라(10)를 통해 입력된 영상을 본 발명과 같은 합성 과정을 실시하지 않고 입력 영상의 화소를 최종 출력 영상에 바로 매핑시켜 간단하고 신속하게 3차원 영상을 생성 및 디스플레이 할 수 있다.
상기와 같은 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법은 위에서 설명된 실시예들의 구성과 작동 방식에 한정되는 것이 아니다. 상기 실시예들은 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있도록 구성될 수도 있다.
10: 카메라
100: 자동보정패턴 200: 입출력모듈
210: 영상입출력부 220: 저장부
300: 영상처리모듈 310: 왜곡보정부
320: 이미지정렬추정부 330: 이미지정렬생성부

Claims (12)

  1. 카메라가 지면에 설치된 자동보정패턴을 촬영하여 획득한 영상을 입출력모듈로 전송하면 영상처리모듈이 상기 영상을 수신하여 왜곡된 영상을 보정하는 자동보정기능을 구비한 영상처리장치에 있어서,
    카메라 주변의 임의의 장소에 상기 카메라 하나 당 하나일 경우에는 단독으로 또는 복수 개일 경우에는 서로 이격 되도록 지면에 설치될 수 있는 자동보정패턴;
    상기 카메라로부터 영상을 입력받아 상기 영상처리모듈로 전송하는 입출력모듈; 및
    상기 카메라로부터 획득된 영상의 왜곡을 보정하기 위한 알고리듬이 수록된 처리부인 영상처리모듈;을 포함하되,
    상기 자동보정패턴은,
    내부에 무늬 모양이 없는 다각형의 형상이고, 상기 자동보정패턴의 크기, 모양, 색상의 도형 규격 정보와, 모서리, 코너, 모멘트의 기하정보는 기지의 정보이고,
    상기 입출력모듈은,
    상기 카메라와 상기 영상처리모듈사이에서 데이터를 송수신하는 영상입출력부;와, 상기 영상처리모듈에서 처리된 정보가 저장되는 저장부;를 포함하고
    상기 영상처리모듈은,
    먼저 수신한 영상 내에서 윤곽선을 찾아 후보군을 만든 후에, 자동보정패턴에서 기지의 모서리, 코너, 꼭짓점, 모멘트, 콘백스 또는 제한된 종횡비의 윤곽선 정보를 이용하여 상기 자동보정패턴을 찾고, 이후에 모서리, 코너 및 모멘트의 특징점을 추출하고, 추출된 특징점들에 대한 기지의 정보를 이용하여 상기 카메라의 절대적 위치와 설치각을 추정하고, 상기 저장부에 저장된 내부 파라미터를 이용하여 렌즈 왜곡 보정을 수행하는 왜곡보정부;
    상기 왜곡보정부에서 추정된 카메라의 절대적 위치와 설치각에 대한 정보를 이용하여 영상에서 변경 파라미터로서 카메라 설치위치 및 회전오차를 추정하는 이미지정렬추정부; 및
    상기 이미지정렬추정부에서 추정된 변경 파라미터를 이용하여 영상의 3차원 위치 및 크기를 보정하는 이미지정렬생성부;를 포함하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치.
  2. 삭제
  3. 삭제
  4. 청구항 1에 있어서,
    상기 내부 파라미터는 광중심, 종횡비, 투영 유형 및 초점거리 중 어느 하나 이상을 포함하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치.
  5. 청구항 1에 있어서,
    상기 이미지정렬추정부는 변경 파라미터로서 카메라 설치위치 및 회전오차를 추정할 때 그 오차가 최소가 되도록 최적화 알고리듬 기법을 이용하는 것을 특징으로 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치.
  6. 청구항 5에 있어서,
    상기 최적화 알고리듬은 LM(Levenberg-Marquadts), LMS(Least Mean Square), ACO(Ant Colony Optimization), PSO(Particle Swarm Optimization) 중 어느 하나인 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치.
  7. 청구항 1에 있어서,
    상기 이미지정렬생성부는 영상을 보정할 때 추정된 정보들을 저장부에 저장할 수 있되, LUT(Look-up Table), GPU texture 좌표 매핑 방법에 의한 Vertex, 사용자 정의 메타 데이터 포맷 (meta-data format, e.g. XML format) 중 적어도 어느 하나의 형식으로 생성하여 저장할 수 있는 것을 특징으로 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치.
  8. 내부에 무늬 모양이 없는 다각형의 형상이고 크기, 모양, 색상의 도형 규격 정보와, 모서리, 코너, 모멘트의 기하 정보는 기지의 정보인 자동보정패턴을 카메라 주변의 임의의 장소에 상기 카메라 하나 당 하나일 경우에는 단독으로 또는 복수 개일 경우에는 서로 이격되도록 지면에 설치한 후 카메라가 촬영하고, 영상처리모듈은 촬영된 자동보정패턴 영상을 입출력모듈로부터 수신하는 자동보정패턴 영상수신 단계;
    상기 영상처리모듈의 왜곡보정부가 먼저 수신한 영상 내에서 윤곽선을 찾아 후보군을 만든 후에 자동보정패턴에서 기지의 모서리, 코너, 꼭짓점, 모멘트, 콘벡스 또는 제한된 종횡비 내의 윤곽선 정보를 이용하여 상기 자동보정패턴을 찾고, 이후에 모서리, 코너 및 모멘트의 특징점을 추출하는 특징점 추출 단계;
    상기 왜곡보정부에서 추출된 상기 자동보정패턴의 특징점들을 이용하여 영상을 획득할 당시의 카메라의 절대적 위와 설치각을 추정하는 절대적 위치와 설치각 추정 단계;
    상기 왜곡보정부가 수신 영상을 이용하여 렌즈 왜곡 보정을 위한 내부 파라미터를 획득하는 내부 파라미터 획득 단계;
    상기 획득된 내부 파라미터를 이용하여 왜곡 보정 알고리듬을 통해 렌즈 왜곡 영상을 보정하는 렌즈 왜곡 보정 수행 단계; 및
    이미지정렬추정부가 변경 파라미터를 추정하고, 이미지정렬생성부는 상기 변경 파라미터를 이용하여 최종적으로 영상 보정을 수행하는 변경 파라미터 추정 및 영상 보정 수행 단계;를 포함하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법.
  9. 청구항 8에 있어서,
    상기 렌즈 왜곡 보정 수행 단계에서,
    렌즈 왜곡 영상을 보정하는 방법은 비선형 왜곡 보정 방법 또는 가우시안 구(Gaussian Sphere) 매핑을 통한 왜곡 보정 방법 중 어느 하나인 것을 특징으로 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법.
  10. 청구항 9에 있어서,
    상기 비선형 왜곡 보정 방법은, 핀홀 기반 방법(pinhole based) 또는 광선 캡처 기반 방법(captured ray based)일 수 있으며, 상기 광선 캡처 기반 방법(captured ray based)에 사용되는 투영 방정식은 등거투영(Equidistant projection), 직각투영(Orthographic projection), 등방각투영(Equisolid angle projection) 및 입체촬영투영(Stereographic projection) 중 어느 하나인 것을 특징으로 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법.
  11. 청구항 8에 있어서,
    상기 변경 파라미터 추정 및 영상 보정 수행 단계는, 하기의 수학식에 의해 실제 자동보정패턴과 패턴 매칭을 수행하는 것을 특징으로 하는 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법.
    수학식
    Figure 112016026629567-pat00008

    Figure 112016026629567-pat00009

    Figure 112016026629567-pat00010

    여기서, XYc는 왜곡 보정된 영상의 한 점의 직교 좌표이고, XYp는 XYc를 지면에 매핑한 점의 2차원 좌표이고, Sc는 스케일 요소이고, fpc는 3차원의 좌표를 평면의 한 점으로 매핑하는 함수이고,
    R(θ) 및 R(ψ)은 하기의 수학식과 같이 3차원 좌표의 회전 행렬로 φ는 x축을 중심으로 회전된 각, θ는 y축을 중심으로 회전된 각, ψ는 z축을 중심으로 회전된 각을 각각 의미함.
    수학식
    Figure 112016026629567-pat00018

  12. 청구항 8에 있어서,
    상기 변경 파라미터 추정 및 영상 보정 수행 단계에서,
    실제 자동보정패턴과 영상 내의 자동보정패턴과의 오차를 최소화하기위한 최적화 알고리듬은 LM(Levenberg-Marquadts), LMS(Least Mean Square), ACO(Ant Colony Optimization), PSO(Particle Swarm Optimization) 중 어느 하나인 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리방법.
KR1020150041293A 2015-03-25 2015-03-25 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 Active KR101666959B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020150041293A KR101666959B1 (ko) 2015-03-25 2015-03-25 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
US15/561,104 US10176595B2 (en) 2015-03-25 2015-05-06 Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof
CN201580080388.3A CN107660336A (zh) 2015-03-25 2015-05-06 对于从摄像机获得的图像,具备自动补正功能的图像处理装置及其方法
PCT/KR2015/004514 WO2016153100A1 (ko) 2015-03-25 2015-05-06 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150041293A KR101666959B1 (ko) 2015-03-25 2015-03-25 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20160116075A KR20160116075A (ko) 2016-10-07
KR101666959B1 true KR101666959B1 (ko) 2016-10-18

Family

ID=56978753

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150041293A Active KR101666959B1 (ko) 2015-03-25 2015-03-25 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법

Country Status (4)

Country Link
US (1) US10176595B2 (ko)
KR (1) KR101666959B1 (ko)
CN (1) CN107660336A (ko)
WO (1) WO2016153100A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101713244B1 (ko) 2016-11-04 2017-03-09 서광항업 주식회사 왜곡된 영상정보를 보정하고 업데이트하는 영상신호 보정 처리장치
KR20190038134A (ko) * 2017-09-29 2019-04-08 에스케이텔레콤 주식회사 360 영상 라이브 스트리밍 서비스 방법 및 서버장치

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201405527D0 (en) * 2014-03-27 2014-05-14 Mill Facility The Ltd A driveable vehicle unit
EP3173979A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for identification of characteristic points of a calibration pattern within a set of candidate points in an image of the calibration pattern
EP3174007A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for calibrating the orientation of a camera mounted to a vehicle
KR101704362B1 (ko) * 2016-11-18 2017-02-08 최재용 룩업테이블 기반의 실시간 파노라마 영상 제작 시스템 및 이를 이용한 실시간 파노라마 영상 제작 방법
KR102013935B1 (ko) * 2017-05-25 2019-08-23 삼성전자주식회사 위험 상황을 감지하는 방법 및 시스템
CN109086650B (zh) * 2017-06-14 2022-04-12 现代摩比斯株式会社 校准方法和校准设备
CN107317953B (zh) * 2017-06-30 2020-09-01 上海兆芯集成电路有限公司 图像获取方法及其装置
CN109215077B (zh) * 2017-07-07 2022-12-06 腾讯科技(深圳)有限公司 一种相机姿态信息确定的方法及相关装置
IL272826B2 (en) 2017-09-19 2023-03-01 Agnetix Inc Lighting methods and devices based on cooled liquid leds for controlled environment agriculture
CN111630850B (zh) * 2018-01-23 2022-11-04 Lg电子株式会社 用于发送或接收包括相机镜头信息的360度视频的方法和设备
WO2019155903A1 (ja) * 2018-02-08 2019-08-15 ソニー株式会社 情報処理装置および方法
EP3534333A1 (en) * 2018-02-28 2019-09-04 Aptiv Technologies Limited Method for calibrating the position and orientation of a camera relative to a calibration pattern
EP3534334B1 (en) 2018-02-28 2022-04-13 Aptiv Technologies Limited Method for identification of characteristic points of a calibration pattern within a set of candidate points derived from an image of the calibration pattern
WO2019171984A1 (ja) * 2018-03-08 2019-09-12 ソニー株式会社 信号処理装置、信号処理方法、及び、プログラム
EP3557523B1 (de) * 2018-04-18 2021-07-28 B&R Industrial Automation GmbH Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
KR102367361B1 (ko) * 2018-06-07 2022-02-23 우이시 테크놀로지스 (베이징) 리미티드. 위치 측정 및 동시 지도화 방법 및 장치
DE102018127465A1 (de) * 2018-11-05 2020-05-07 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben einer Fischaugenkamera durch Nutzung eines ersten Kompressionsalgorithmus und eines zweiten Kompressionsalgorithmus, elektronische Recheneinrichtung, Fischaugenkamera sowie Fahrerassistenzsystem
WO2020122361A1 (ko) * 2018-12-12 2020-06-18 엘지전자 주식회사 카메라 렌즈 정보를 포함한 360도 비디오를 디스플레이하는 방법 및 그 장치
KR102225043B1 (ko) * 2019-07-08 2021-03-09 한국과학기술원 3차원 산업용 컴퓨터 단층 영상 기법에서 금속으로 인한 인공음영 제거 방법 및 장치
US11648723B2 (en) * 2019-12-03 2023-05-16 Racing Optics, Inc. Method and apparatus for reducing non-normal incidence distortion in glazing films
EP4072264A2 (en) * 2019-12-10 2022-10-19 Agnetix, Inc. Multisensory imaging methods and apparatus for controlled environment horticulture using irradiators and cameras and/or sensors
CN115087833A (zh) 2019-12-12 2022-09-20 阿格尼泰克斯股份有限公司 受控环境园艺近距种植系统中基于流体冷却led的照明器材
KR102738395B1 (ko) * 2022-04-26 2024-12-04 (주) 루리텍 거리 측정 기능을 가지는 카메라를 위한 향상된 초점거리 정확도를 가지는 카메라 보정 방법
CN118196310B (zh) * 2024-05-17 2024-07-19 江西六湛科技有限公司 用于图像识别计算中的图像处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (ja) * 2006-06-29 2008-01-17 Hitachi Ltd 車載カメラのキャリブレーション装置、プログラムおよびカーナビゲーションシステム
JP2009171537A (ja) 2007-12-17 2009-07-30 Fujitsu Ltd 車両用画像処理装置、車両用画像処理プログラム、車両用画像処理方法
JP2010031638A (ja) 2008-07-24 2010-02-12 Saint-Gobain Weber France 被覆用タイル

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4513374A (en) * 1981-09-25 1985-04-23 Ltv Aerospace And Defense Memory system
EP0662600A4 (en) * 1993-06-10 1997-02-12 Oh Yoh Keisoku Kenkyusho Kk DEVICE FOR MEASURING THE POSITION OF A MOVABLE OBJECT.
KR100250323B1 (ko) * 1997-10-10 2000-04-01 정몽규 무인 자동차의 화상 처리 장치 및 방법
JP4715334B2 (ja) * 2005-06-24 2011-07-06 日産自動車株式会社 車両用画像生成装置および方法
JP5124147B2 (ja) * 2007-02-01 2013-01-23 三洋電機株式会社 カメラ校正装置及び方法並びに車両
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
JP2009126270A (ja) * 2007-11-21 2009-06-11 Sanyo Electric Co Ltd 画像処理装置及び方法、運転支援システム、車両
KR100966592B1 (ko) 2007-12-17 2010-06-29 한국전자통신연구원 영상에서 평행 사변형의 호모그래피를 이용한 카메라의 보정 방법
US9449378B2 (en) * 2008-05-22 2016-09-20 Matrix Electronic Measuring Properties, Llc System and method for processing stereoscopic vehicle information
JP5029645B2 (ja) * 2008-12-24 2012-09-19 株式会社富士通ゼネラル 画像データ変換装置
JP5456330B2 (ja) 2009-02-04 2014-03-26 アルパイン株式会社 画像表示装置及びそのカメラ取り付け角度算出方法
WO2010098024A1 (ja) * 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
TW201226237A (en) * 2010-12-16 2012-07-01 Weltrend Semiconductor Inc Calibration circuit for automatically calibrating a view image around a car and method thereof
EP2523163B1 (en) * 2011-05-10 2019-10-16 Harman Becker Automotive Systems GmbH Method and program for calibrating a multicamera system
KR101265667B1 (ko) * 2011-06-21 2013-05-22 ㈜베이다스 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
KR101351911B1 (ko) 2012-08-03 2014-01-17 주식회사 이미지넥스트 카메라의 영상 처리 장치 및 방법
US9225942B2 (en) * 2012-10-11 2015-12-29 GM Global Technology Operations LLC Imaging surface modeling for camera modeling and virtual view synthesis
US9202123B2 (en) * 2012-11-06 2015-12-01 Novatel Inc. Spherical pin-hole model for use with camera lens image data
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
CN103617615B (zh) * 2013-11-27 2016-08-17 华为技术有限公司 径向畸变参数获取方法及获取装置
JP6034775B2 (ja) * 2013-11-29 2016-11-30 クラリオン株式会社 カメラ校正装置
KR20150104022A (ko) * 2014-02-03 2015-09-14 가부시키가이샤 프로스퍼 크리에이티브 화상검사장치 및 화상검사 프로그램
JP6330383B2 (ja) * 2014-03-12 2018-05-30 株式会社デンソー 合成画像生成装置、および合成画像生成プログラム
US9641830B2 (en) * 2014-04-08 2017-05-02 Lucasfilm Entertainment Company Ltd. Automated camera calibration methods and systems
JP2016046747A (ja) * 2014-08-26 2016-04-04 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (ja) * 2006-06-29 2008-01-17 Hitachi Ltd 車載カメラのキャリブレーション装置、プログラムおよびカーナビゲーションシステム
JP2009171537A (ja) 2007-12-17 2009-07-30 Fujitsu Ltd 車両用画像処理装置、車両用画像処理プログラム、車両用画像処理方法
JP2010031638A (ja) 2008-07-24 2010-02-12 Saint-Gobain Weber France 被覆用タイル

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101713244B1 (ko) 2016-11-04 2017-03-09 서광항업 주식회사 왜곡된 영상정보를 보정하고 업데이트하는 영상신호 보정 처리장치
KR20190038134A (ko) * 2017-09-29 2019-04-08 에스케이텔레콤 주식회사 360 영상 라이브 스트리밍 서비스 방법 및 서버장치
KR102076139B1 (ko) * 2017-09-29 2020-02-11 에스케이 텔레콤주식회사 360 영상 라이브 스트리밍 서비스 방법 및 서버장치

Also Published As

Publication number Publication date
KR20160116075A (ko) 2016-10-07
CN107660336A (zh) 2018-02-02
US10176595B2 (en) 2019-01-08
US20180122099A1 (en) 2018-05-03
WO2016153100A1 (ko) 2016-09-29

Similar Documents

Publication Publication Date Title
KR101666959B1 (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
CN110809786B (zh) 校准装置、校准图表、图表图案生成装置和校准方法
JP5739584B2 (ja) 車両周辺視角化のための3次元映像合成装置およびその方法
JP4825980B2 (ja) 魚眼カメラの校正方法。
CN113841384B (zh) 校准装置,用于校准的图表和校准方法
CN112444242A (zh) 一种位姿优化方法及装置
CN103839227B (zh) 鱼眼图像校正方法和装置
CN112132906A (zh) 一种深度相机与可见光相机之间的外参标定方法及系统
KR20180105875A (ko) 단일 영상을 이용한 카메라 캘리브레이션 방법 및 이를 위한 장치
JP2015022510A (ja) 自由視点画像撮像装置およびその方法
JP7675288B2 (ja) 撮影測定方法、装置、機器及び記憶媒体
CN111383264B (zh) 一种定位方法、装置、终端及计算机存储介质
CN110490943B (zh) 4d全息捕捉系统的快速精确标定方法、系统及存储介质
JP7432793B1 (ja) 三次元点群に基づくマッピング方法、装置、チップ及びモジュール機器
JP4825971B2 (ja) 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
JP2005275789A (ja) 三次元構造抽出方法
KR102631472B1 (ko) 어안 왜곡 이미지의 무손실 보정 방법 및 장치
CN109990756A (zh) 一种双目测距方法及系统
CN115760560A (zh) 深度信息获取方法及装置、设备、存储介质
KR102107465B1 (ko) 방향코사인을 이용한 에피폴라 영상 제작 시스템 및 그 제작 방법
WO2021014538A1 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム
KR101999304B1 (ko) 왜곡된 영상정보를 보정하고 업데이트하는 영상신호 보정 처리시스템
CN113223163B (en) Point cloud map construction method and device, equipment and storage medium
JP2013109643A (ja) 球面勾配検出方法、エッジ点検出方法、球面勾配検出装置、エッジ点検出装置、球面勾配検出プログラム及びエッジ点検出プログラム
CN120147425A (zh) 基于线和平面特征关联的相机-LiDAR外参标定方法及装置

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150325

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20151119

Patent event code: PE09021S01D

PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20160714

PG1501 Laying open of application
GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20161011

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20161011

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20191010

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20191010

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20201012

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20221011

Start annual number: 7

End annual number: 7