[go: up one dir, main page]

KR101188588B1 - 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법 - Google Patents

모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법 Download PDF

Info

Publication number
KR101188588B1
KR101188588B1 KR1020080028581A KR20080028581A KR101188588B1 KR 101188588 B1 KR101188588 B1 KR 101188588B1 KR 1020080028581 A KR1020080028581 A KR 1020080028581A KR 20080028581 A KR20080028581 A KR 20080028581A KR 101188588 B1 KR101188588 B1 KR 101188588B1
Authority
KR
South Korea
Prior art keywords
parking space
dimensional structure
parking
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020080028581A
Other languages
English (en)
Other versions
KR20090103165A (ko
Inventor
서재규
정호기
배광혁
김재희
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020080028581A priority Critical patent/KR101188588B1/ko
Priority to DE102009012435.7A priority patent/DE102009012435B4/de
Priority to US12/410,126 priority patent/US8134479B2/en
Publication of KR20090103165A publication Critical patent/KR20090103165A/ko
Application granted granted Critical
Publication of KR101188588B1 publication Critical patent/KR101188588B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 단안 모션 스테레오 기반의 자동 주차 공간 검출 시스템(Monocular Motion Stereo-Based Automatic Free Parking Space Detection System)에 관한 것이다.
본 발명은 영상 시퀀스(Image Sequences)를 하나의 후방 어안 카메라(Rearview Fisheye Camera)로 획득하고 차량의 후방의 모습을 대응점(Point Correspondences)을 이용하여 3차원으로 재구성하며, 측량 정보(Metric Information)를 알려진 카메라 높이로부터 복구하여 주변 차량들의 위치를 예측함으로써 주차 공간을 검출한다.
본 발명에 따르면, 역회전 기반의 방법과 3차원 구조 모자이크 방법 통해 에피폴 근처에서 주변 구조가 부정확해지는 문제를 해결할 수 있고, 3차원 점 구름에서 주차 공간의 위치를 효율적으로 측정할 수 있으며, 정확도가 도로 사정에 크게 의존되어 신뢰성이 떨어지는 오도메트리를 사용하지 않을 수 있다.
모노큘러 모션 스테레오, 주차 공간 검출, 오도메트리, Range data Mosaiking

Description

모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및 방법{Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method}
본 발명은 모노큘러 모션 스테리오 기반의 주차 공간 검출 장치 및 방법에 관한 것으로서, 차량의 후방의 모습을 촬영하고 촬영한 영상에서 주차 공간을 검출하는 장치 및 방법에 관한 것이다.
자동 주차 시스템은 주차 공간을 자동으로 탐색하고 주차 공간들로 자동차를 조향함으로써 운전자들에게 편리함을 제공한다. 최근, 자동 주차 시스템에 대한 관심이 증가하고 있다. 소비자의 관심과 몇몇 자동 주차 시스템의 성공적인 예로 인해, 많은 자동차 제조사들과 부품 제조사들은 자동 주차 제품의 양산을 준비하고 있다.
자동 주차 시스템은 세 개의 구성 즉, 경로 계획(주차 공간 검출을 포함), 계획된 궤도를 구현하는데 사용되는 자동 조향 시스템과 자동 브레이크 시스템 및 운전자의 입력을 받고 주차 과정을 진행하는 과정에서의 시각 정보를 제공하는 데 사용될 수 있는 HMI(Human Machine Interface)로 구성된다.
주차 공간 검출은 다양한 방법들 즉, 초음파 센서 기반 방법, 레이저 스캐너 기반 방법, 단거리 레이더 네트워크 기반 방법 및 비전(Vision) 기반 방법을 이용하여 구현되어 왔다. 이러한 방법들 중에서 비전 기반 방법이 주차 상황을 시각화하고 운전자로 하여금 안전한 느낌이 들도록 하는 절차들을 수행하기 때문에 운전자들에게 가장 매력적인 방법으로 검증되었다. 비전 기반 방법은 네 가지의 접근법들 즉, 주차 공간 표시 기반 접근법, 바이노큘러 스테레오 기반 접근법, 빛줄무늬 투영 기반 접근법과 모노큘러 스테리오/오도메트리 기반 접근법(Parking Space Marking-based Approach, Binocular Stereo-based Approach, Light Stripe Projection-based Approach, Monocular Motion Stereo and Odometry-based approach)으로 분류될 수 있다.
첫 번째 접근법은 주차 공간 표시들을 인식한다. 쿠(Xu) 등은 주차 공간의 컬러 비전 기반 위치 측정(Developed Color Vision-based Localization of Parking Spaces)을 개발했다. 이 방법은 RCE 신경망을 기반으로 한 색상 분할(컬러 세그먼테이션), 최소 자승법(Least Square Method)을 기반으로 한 윤곽 추출(Contour Extraction)과 역 투영 변환(Inverse Perspective Transformation). 정 등은 광각 카메라로 캡쳐한 조감도 이미지에서 호프 변환을 이용하여 표시선들을 인식하는 반자동 주차 보조 시스템을 제안했다. 이러한 방법에서, 목표 공간들은 상대적으로 낮은 계산적 비용으로 하나의 이미지로 검출될 수 있다. 또한, 후방 카메라(하나의 어안 카메라)의 일반적인 설정이 사용될 수 있다. 하지만, 주차 공간 표시들이 보이지 않을 때는 사용될 수 없다. 또한, 얼룩, 그림자 또는 주변 차량들에 의한 폐색과 같은 열악한 시각 조건들에 의해 성능이 저하될 수 있다.
두 번째 접근법은 단안 스테레오 기반의 3차원 재구성 방법을 이용하여 주변 차량들을 인식한다. 캡첸 등은 특징 기반의 스테레오 알고리즘, 깊이 맵(Depth Map)상에서의 템플릿 매칭 알고리즘과 차량의 2차원 평면 모델에 대한 3차원 맞춤을 이용한 주차 공간 평가 시스템을 개발했다. 이 접근법은 기초선의 정해진 길이로부터 측량 정보를 쉽게 복구할 수 있고 카메라의 외부 파라메터가 매번 평가될 필요가 없다. 그러나, 이 접근법은 스테레오 카메라가 후방 카메라의 일반적인 설정이 아니기 때문에 장비를 위한 추가의 비용과 공간이 필요하다. en 대의 카메라 사이의 거리가 가까운 경우에는 서브-픽셀 정확도를 얻는 것이 필요하게 되고, 거리가 먼 경우에는 대응점들을 추출하기가 어려워 진다.
정 등은 주차 공간 표시를 기반으로 한 접근법과 단안 스테레오를 기반으로한 접근법을 결합한 방법을 개발했다. 이 연구원들은 탐색 영역을 수립하기 위해 장애물 깊이 맵을 이용했고 주차 공간의 정확한 위치를 찾기 위해 간단한 템플릿 매칭을 이용했다. 이 방법은 주차 공간 표시 기반의 방법과 비교할 때 얼룩, 쓰레기와 그림자와 같은 잡음 요인들에 강인하지만, 장애물 깊이 맵과 주차 공간 표시들을 모두 이용할 수 있을 때만 사용될 수 있다.
세 번째 접근법은 레이저 투영기와 하나의 후방 카메라를 이용하여 주변 차량들을 인식한다. 정 등은 레이저 투영기에 의해 생성되는 (후방의 장애물상의) 빛줄무늬를 분석함으로써 주차 공간을 인식하는 방법을 개발했다. 이 접근법은 어두운 지하 주차장에 적용될 수 있고 3차원 정보를 획득하기 위한 알고리즘이 상대적으로 간단하다. 후방 카메라의 일반적인 설정이 사용될 수 있다. 하지만, 이 접근 법은 햇빛의 존재 때문에 낮 동안에는 사용될 수 없다.
네 번째 접근법은 모노큘러 모션 스테레오 방법과 오도메트리를 이용하여 주변 차량들을 인식한다. 핀첼 등은 주차 상황과 절차를 더욱 잘 이해하기 위해 가상의 시점으로부터 묘사된 이미지를 제공하는 시스템을 제안했다. 이 시스템은 오도메트리로부터 외부의 파라미터들과 측량 정보를 얻고 대응점들을 이용하여 주차 공간의 3차원 구조를 재구성한다. 하지만, 이 연구원들은 주차 공간 검출 방법을 제안하지 않았다. 후방 카메라의 일반적인 설정은 이용될 수 있다. 하지만, 비나 눈으로 인해 도로 사정이 미끄러울 때에는 오도메트리 정보가 잘못될 수 있다.
전술한 문제점을 해결하기 위해 본 발명은, 자동차의 후방 영상 촬영부로 주차 공간을 촬영하여 영상 시퀀스를 획득하고 영상 시퀀스 상의 대응점들을 이용하여 3차원 구조를 재구성하며, 알려진 영상 촬영부 높이로부터 3차원 구조상의 거리 정보를 복구하고 주변 차량들의 위치를 예측함으로써 주차 공간을 검출하는 데 그 주된 목적이 있다.
전술한 목적을 달성하기 위해 본 발명은, 차량의 주차 공간을 검출하는 장치에 있어서, 영상 촬영부로부터 입력 영상을 수신하고 입력 영상을 분석하여 대응점을 획득함으로써 특징점을 추적하는 특징점 추적부; 특징점을 이용하여 주차 공간을 3차원으로 재구성하여 3차원 구조를 생성하는 3차원 구조 생성부; 역회전 기반 특징 선택을 이용하여 특징점을 재선택하여 3차원 구조를 재구성하고 닮음 변환을 평가함으로써 재구성한 3차원 구조를 모자이크로 구성하여 3차원 구조 모자이크를 생성하는 3차원 모자이크 구조 생성부; 영상 촬영부 높이 비율을 이용하여 3차원 구조 모자이크에서 거리 정보를 획득하는 거리 복구부; 및 3차원 구조 모자이크에서 주변 차량의 위치를 예측함으로써 주차 공간을 검출하는 공간 검출부를 포함하는 것을 특징으로 하는 주차 공간 검출 장치를 제공한다.
또한, 본 발명의 다른 목적에 의하면, 차량의 주차를 보조하는 주차 보조 시스템에 있어서, 주차 공간을 촬영하여 입력 영상을 생성하고 전달하는 영상 촬영부; 주차 공간을 검출한 출력 영상을 출력하는 사용자 인터페이스부; 입력 영상을 전달받으면 입력 영상을 분석하여 대응점을 획득함으로써 특징점을 추적하고, 특징점을 이용하여 주차 공간을 3차원으로 재구성하여 3차원 구조를 생성하며, 역회전 기반 특징 선택을 이용하여 특징점을 재선택하여 3차원 구조를 재구성하고 닮음 변환을 평가함으로써 재구성한 3차원 구조를 모자이크로 구성하여 3차원 구조 모자이크를 생성하며, 영상 촬영부 높이 비율을 이용하여 3차원 구조 모자이크에서 거리 정보를 획득하고 3차원 구조 모자이크에서 주변 차량의 위치를 예측함으로써 주차 공간을 검출하여 주차 공간 검출 결과를 생성하여 전달하는 주차 공간 검출부; 차량의 운전상황을 인식하기 위한 다수 개의 센서를 구비하여 차량의 운전상황정보를 생성하여 전달하는 감지부; 감지부로부터 운전상황정보를 수신하여 차량의 위치를 추정하며, 주차 공간 검출 결과를 전달받아 주차 공간으로 주차하기 위한 경로 계획을 생성하고 주차 공간으로 주차하기 위한 제어 신호를 생성하여 전달하는 주차 보조 제어부; 제어 신호를 수신하면 제어 신호에 따라 차량을 조향하는 능동 조향부; 및 제어 신호를 수신하면 제어 신호에 따라 차량을 제동하는 능동 제동부를 포 함하는 것을 특징으로 하는 주차 공간 검출 장치를 이용한 주차 보조 시스템을 제공한다.
또한, 본 발명의 또 다른 목적에 의하면, 주차 공간 검출 장치가 주차 공간을 검출하는 방법에 있어서, (a) 영상 촬영부로부터 입력 영상을 수신하고 입력 영상을 분석하여 대응점을 획득함으로써 특징점을 추적하는 단계; (b) 특징점을 이용하여 주차 공간을 3차원으로 재구성하여 3차원 구조를 생성하는 단계; (c) 역회전 기반 특징 선택을 이용하여 특징점을 재선택하여 3차원 구조를 재구성하는 단계; (d) 닮음 변환을 평가함으로써 재구성한 3차원 구조를 모자이크로 구성하여 3차원 구조 모자이크를 생성하는 단계; (e) 영상 촬영부 높이 비율을 이용하여 3차원 구조 모자이크에서 거리 정보를 획득하는 단계; 및 (f) 3차원 구조 모자이크에서 주변 차량의 위치를 예측함으로써 주차 공간을 검출하는 단계를 포함하는 것을 특징으로 하는 주차 공간 검출 방법을 제공한다.
이상에서 설명한 바와 같이 본 발명에 의하면, 에피폴 근처의 3차원 구조의 저급화를 역 회전 기반의 특징 선택과 3차원 구조 모자이크를 이용하여 해결할 수 있다.
또한, 3차원 구름에서 주차 공간을 검출하기 위한 효과적인 방법을 제안할 수 있다.
또한, 외부 파라미터들은 단지 영상 정보만을 이용하여 예측하고 측량 정보는 재구성된 세상과 실제 세상에서의 카메라 높이의 비율로부터 복구함으로써, 정확도가 도로 사정들에 의존적이어서 신뢰성이 떨어지는 오도메트리를 사용하지 않 을 수 있다.
이를 통해, 모노큘러 모션 스테레오 기반 자동 주차 공간 검출 시스템을 실질적으로 구현할 수 있다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치(Monocular Motion Stereo-Based Free Parking Space Detection Apparatus)를 이용한 주차 보조 시스템의 구성을 간략하게 나타낸 블록 구성도이다.
본 발명의 일 실시예에 따른 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치를 이용한 주차 보조 시스템(100)은 영상 촬영부(110), 사용자 인터페이스부(120), 주차 공간 검출부(130), 주차 보조 제어부(140), 감지부(150), 능동 조향부(160) 및 능동 제동부(170)를 포함한다.
영상 촬영부(110)는 차량에 장착되어 촬영하는 촬영 수단으로서, 차량의 전방, 후방, 측방 등 다양한 위치에 장착되어 주차 공간을 촬영하여 입력 영상을 생 성한 후 사용자 인터페이스부(120), 주차 공간 검출부(130)와 주차 보조 제어부(140) 등으로 전달한다. 이를 위해, 영상 촬영부(110)는 필름 카메라, 디지털 카메라, 디지털 캠코더, CCTV 등 다양한 촬영 장치로 구현될 수 있다.
사용자 인터페이스부(120)는 차량에 장착되어 데이터 또는 명령어를 입력하고 출력하는 입출력수단으로서, 차량의 실내, 운전석이나 보조석 주위에 장착되어 운전자로부터 데이터 또는 명령어를 입력받아 주차 공간 검출부(130)와 주차 보조 제어부(140) 등으로 전달하고 영상 촬영부(110), 주차 공간 검출부(130), 주차 보조 제어부(140) 등으로부터 데이터를 수신하여 출력한다.
또한, 사용자 인터페이스부(120)는 영상 촬영부(110)로부터 입력 영상을 수신하면 출력하고 주차 공간 검출부(130)로 전달한다. 이를 위해, 사용자 인터페이스부(120)는 액정화면(LCD: Liquid Crystal Display), 터치 패드(Touch Pad), 키보드, 마우스, 터치 스크린(Touch Screen) 등 다양한 입출력 장치로 구현될 수 있다.
주차 공간 검출부(130)는 데이터 통신과 연산을 수행하는 데이터 처리 수단으로서, 영상 촬영부(110)로부터 입력 영상을 수신하면 입력 영상에서 주차 공간을 검출하고 검출된 주차 공간을 표시한 영상을 출력 영상으로서 생성하여 사용자 인터페이스부(120)로 전달함으로써 사용자 인터페이스부(120)가 출력 영상을 출력하도록 제어한다.
이를 위해, 주차 공간 검출부(130)는 특징점 추적부(132), 3차원 구조 생성부(134), 3차원 모자이크 구조 생성부(136), 거리 복구부(138) 및 공간 검출부(139)를 포함하여 구성된다.
특징점 추적부(132)는 영상 촬영부(110)로부터 입력 영상을 수신하고 입력 영상을 분석하여 대응점(Point Correspondences)을 획득함으로써 특징점(Feature Point)을 추적한다. 여기서, 특징점 추적부(132)는 입력 영상을 분석하여 특징점을 검출하고 루카스-케네디 방법(Lucas-Kanade Method)을 이용하여 입력 영상을 통해 특징점을 추적한다.
3차원 구조 생성부(134)는 특징점을 이용하여 주차 공간을 3차원으로 재구성하여 3차원 구조(3 Dimensional Structure)를 생성한다. 여기서, 3차원 구조 생성부(134)는 입력 영상의 키 프레임(Key Frame)을 선택하고 키 프레임에서 움직임 변수(Motion Parameters)를 예측한 후 선형 삼각법(Linear Triangulation Method)을 이용하여 특징점의 3차원 좌표를 계산함으로써 3차원 구조를 생성한다.
3차원 모자이크 구조 생성부(136)는 역회전 기반 특징 선택(De-Rotation-Based Feature Selection)을 이용하여 특징점을 선택하여 3차원 구조를 재구성하고 닮음 변환(Similarity Transformation)을 평가함으로써 재구성한 3차원 구조를 모자이킹(Mosaicking)하여 3차원 구조 모자이크(3 Dimensional Structure Mosaic)를 생성한다.
거리 복구부(138)는 카메라 높이 비율을 이용하여 3차원 구조 모자이크에서 거리 정보를 획득한다. 여기서, 거리 복구부(138)는 경사각을 보상하고(Tilting Angle Compensation), 밀도 예측 기반으로 지면을 검출(Density Estimation Based Ground Plane Detection)하며, 3차원 평면 예측 기반으로 지면의 위치와 방향을 예측함으로써 3차원 모자이크 구조에서의 카메라 높이를 결정하여 카메라 높이 비율 을 획득한다.
공간 검출부(139)는 3차원 구조 모자이크에서 주변 차량의 위치를 예측함으로써 주차 공간을 검출한다. 여기서, 공간 검출부(139)는 평면 시야(Top-View)를 이용하여 3차원 구조 모자이크의 차원(Dimension)을 줄이고, 이웃(Neighborhood)들로부터 고립된 점(Isolated Point)을 제거하며, 입력각과 카메라 중심으로부터의 거리를 이용하여 주변 차량의 외곽점(Outline Points)을 구하고 주변 차량의 모서리 점(Corner Point)과 방향(Orientation)을 예측함으로써 주차 공간을 검출한다.
또한, 공간 검출부는(139)는 소정의 반경을 갖는 원을 검색 영역(Search Range)으로 설정하여 주변 차량의 반대편의 다른 차량을 추가로 예측한다. 여기서, 원의 중심은 전술한 주변 차량의 방향과 직교하는 방향에서 모서리 점으로부터 소정의 거리에 위치하도록 설정된다.
여기서, 주차 공간 검출부(130)와 그를 구성하는 특징점 추적부(132), 3차원 구조 생성부(134), 3차원 모자이크 구조 생성부(136), 거리 복구부(138) 및 공간 검출부(139)는 해당 기능을 수행하는 프로그램을 저장하는 메모리와 메모리에 저장된 프로그램을 실행하는 마이크로프로세서 등을 구비하는 하나의 독립적인 장치로서 구현될 수 있지만, 주차 보조 시스템(100)에 구비되는 하드웨어(메모리와 마이크로프로세서 등)에서 동작하는 소프트웨어 모듈로서 구현될 수도 있을 것이다.
주차 보조 제어부(140)는 감지부(150)로부터 운전상황정보를 수신하여 차량의 위치를 추정하며, 주차 공간 검출부(130)로부터 주차 공간 검출 결과를 수신하여 주차 공간으로 주차하기 위한 경로 계획을 생성하고 주차 공간으로 주차하기 위 한 제어 신호를 생성하여 능동 조향부(160)와 능동 제어부(170)로 송신한다.
또한, 주차 보조 제어부(140)는 생성한 경로 계획을 사용자 인터페이스부(120)로 송신하여 출력하도록 제어하고, 주차 공간으로 주차하는 과정을 영상 촬영부(110)를 이용하여 촬영하고 촬영한 영상을 사용자 인터페이스부(120)로 송신하여 출력하도록 제어할 수 있다.
이를 위해, 주차 보조 제어부(140)는 주차 공간 검출부(130)로부터 전달된 주차 공간 검출 결과를 이용하여 주차하기 위한 경로 계획을 설정하는 경로 계획 생성부(142), 차량의 위치와 운전상황을 고려하고 설정한 경로 계획을 추적하여 차량을 주차 공간으로 주차하도록 제어하기 위한 제어 신호를 생성한 후 능동 조향부(160)와 능동 제동부(170)로 송신하는 경로 추적 제어부(144) 및 감지부(150)로부터 수신하는 운전상황정보를 이용하여 차량의 위치를 추정하는 위치 추정부(146)를 포함한다.
여기서, 주차 보조 제어부(140)와 그를 구성하는 경로 계획 생성부(142), 경로 추적 제어부(144) 및 위치 추정부(146)는 해당 기능을 수행하는 프로그램을 저장하는 메모리와 메모리에 저장된 프로그램을 실행하는 마이크로프로세서 등을 구비하는 하나의 독립적인 장치로서 구현될 수 있지만, 주차 보조 시스템(100)에 구비되는 하드웨어(메모리와 마이크로프로세서 등)에서 동작하는 소프트웨어 모듈로서 구현될 수도 있을 것이다.
감지부(150)는 차량의 운전상황을 인식하기 위한 다수 개의 센서 즉, 차륜속 센서, 조향각 센서, 요레이트(Yaw Rate) 센서, 가속도 센서 등을 구비하여 차량의 운전 상황을 감지하고 그에 따른 전기적인 신호인 감지 신호를 차량의 운전상황정보로서 생성하여 주차 보조 제어부(140)의 위치 추정부(146)로 송신한다.
능동 조향부(160)는 운전자의 조향 입력에 대해 각종 센서와 제어 장치를 이용하여 조향의 안전성을 획득할 수 있도록 조향을 유도하는 조향 보조 장치로서, 주차 보조 제어부(140)로부터 수신하는 제어 신호에 따라 차량을 조향한다.
이를 위해, 능동 조향부(160)는 전동식 조향장치(EPS: Electronic Power Steering), 모터구동 조향장치(MDPS: Motor Driven Power Steering), 능동전륜 조향장치(AFS: Active Front Steering) 등을 포함하는 개념일 수 있으나 반드시 이에 한정되는 것은 아니다.
능동 제동부(170)는 차량의 이동 속도를 제한하는 제동 장치로서, 주차 보조 제어부(140)로부터 수신하는 제어 신호에 따라 차량의 제동 상태를 변환하여 차량을 제동한다.
이를 위해, 능동 제동부(170)는 안티록 브레이크 시스템(ABS: Anti-lock Brake System), 전자 안정성 제어(ESC: Electronic Stability Control) 시스템 등을 포함하는 개념일 수 있지만, 반드시 이에 한정되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른 모노큘러 모션 스테레오 기반의 주차 공간 검출 방법을 설명하기 위한 순서도이다.
본 발명의 일 실시예에 따른 모노큘러 모션 스테레오 기반의 주차 공간 검출 방법은 주차 공간 검출 장치(100)가 영상 촬영부(110)로부터 주차 공간을 촬영한 입력 영상을 수신하면(210), 입력 영상에서 특징점을 추적하고(S220), 특징점을 이 용하여 주차 공간의 구조를 3차원으로 재구성하며(S230), 역회전 기반 특징 선택을 이용하여 특징점을 선택하여(S240), 선택된 특징점을 이용하여 3차원 구조들을 재구성하고 닮음 변환을 평가하여 재구성한 3차원 구조들을 3차원 구조 모자이크로 구성한 후(S250), 카메라 높이 비율을 이용하여 3차원 구조의 거리를 복구하고(S260), 주변 차량의 위치를 예측하여 주차 공간을 검출(S270)한다. 이때, 주차 공간 검출 장치(100)는 검출된 주차 공간을 표시한 영상을 출력 영상으로 생성하여 사용자 인터페이스부(120)로 전달하여 출력하도록 할 수 있다(S280).
본 발명에서는 동영상(이미지 시퀀스) 획득, 특징점 추적, 3차원 재구성, 3차원 구조 모자이킹, 거리 복구와 주차 공간 검출 등의 절차를 통해, 하나의 어안 카메라를 이용하여 후방 구조들을 3차원으로 재구성하며 3차원 구조에서 주차 공간들을 탐색한다.
종래 기술과 비교할 때, 본 발명은 후술하는 바와 같은 세 개의 중요한 장점이 있다. 첫째로, 에피폴 근처의 3차원 구조의 저급화를 역 회전 기반의 특징 선택 방법과 3차원 구조 모자이킹에 의해 해결할 수 있다. 에피폴은 통상적으로 정확하게 재구성되어야 하는 주변 차량의 영상위에 위치하기 때문에 자동차의 후방 카메라를 이용하여 3차원 구조들을 재구성할 때 중요한 문제이다. 둘째로, 3차원 구름에서 효율적으로 주차 공간을 검출할 수 있다. 셋째로, 정확도가 도로 사정들에 의존적일 수 있어 신뢰성이 떨어지는 오도메트리(Odometry)를 사용하지 않을 수 있다. 외부 변수들은 단지 영상 정보만을 이용하여 평가할 수 있으며, 측량 정보를 재구성된 세상과 실제 세상에서의 카메라 높이의 비율로부터 복구할 수 있다.
이하에서는, 본 발명의 구체적인 실시예를 섹션 1 내지 섹션 4을 통해 설명한다. 섹션 1에서는 대응점들과 3차원 재구성을 위한 과정을 설명한다. 섹션 2에서는 에피폴의 문제를 설명하고 해법을 설명한다. 섹션 3에서는 거리 복구와 주차 공간 검출 절차를 설명한다. 섹션 4에서는 레이저 스캐너 데이터와 비교할 때의 실험 결과를 설명한다. 또한, 이하에서는 설명의 편의를 위해 영상 촬영부(110)를 '카메라'로 칭하기로 한다.
1. 모노큘러 모션 스테레오 기반 3차원 재구성(Monocular Motion Stereo-Based 3D Recinstruction)
1.1 대응점들(Point Correspondences)
움직임 변수(Motion Parameter)들과 3차원 구조들을 평가하기 위해서는 이동하는 카메라를 이용하여 획득한 두 개의 다른 영상들에서 대응점들을 찾아야 한다. 본 발명에서는 세 개의 다른 접근법들이 비교된다. 첫 번째 접근법은 영상 쌍에서 소수의 신뢰할 수 있는 대응점들을 통해 펀더멘털 행렬을 추정하고 에피폴 구속조건을 이용하여 다수의 특징점들을 대응시키는 방법이다. 이는 대응점 재탐색(Guided Matching)이라고 불리는데, 이를 위해서는 왜곡이 보정되고 수정된 어안 영상이 필요하다.
두 번째 접근법은 단순한 알고리즘을 이용하여 대응점들을 찾고, 지능형 차량들의 카메라들을 위해 고안된 아웃라이어 배제 방법을 이용하여 잘못 대응된 것 들을 배제한다. 이러한 접근법이 빠르고 잘못 대응된 것들은 몇 안되게 산출함에도 불구하고, 자동차 표면들에서는 특징들이 없기 때문에 자동차 표면들에서 대응점을 찾기 어렵다.
세 번째 접근법은 특징점을 검출하고 영상 시퀀스들을 통해 특징점들을 추적한다. 이 방법은 연속하는 영상들 중에서 특징점들을 추적하기 때문에, 자동차 표면들에서 많은 대응점들을 찾을 수 있다. 하지만, 알고리즘이 많은 영상들에 적용되어야 하므로 연산량이 많다.
첫 번째와 두 번째 접근법들은 적어도 두 개의 영상을 필요로 한다. 영상들을 저장하는 데 필요한 메모리 크기는 작지만, 전체의 시퀀스를 저장하지 않고 키 프레임들을 선택하기가 어렵다. 세 번째 접근법 또한 FPGA(Field-Programmable Gate Array)를 이용하여 실시간으로 구현된다면, 매 순간마다 적어도 두 개의 영상들을 필요로 한다. 각 프레임에 대해 대응점들을 저장하기 때문에, 추적 결과들을 이용하여 키 프레임들을 선택할 수 있다. 이러한 비교를 통해, 본 발명에서는 세 번째 접근법인 추적 접근법을 사용한다.
본 발명에서는 추적을 위해, 루카스-카나데 방법(Lucas-Kanade Method)을 선택한다. 루카스-카나데 방법은 정확한 결과들을 산출하고, 적절한 연산량을 요구하며, 실시간 하드웨어 구현 예들이 몇 가지 존재하기 때문이다. 또한, 루카스-카나데 방법은 광흐름(Optical Flows)의 최소 자승 해법(Least Square Solution)을 이용한다.
Figure 112008022348517-pat00001
Figure 112008022348517-pat00002
가 두 개의 연속된 영상들이고,
Figure 112008022348517-pat00003
Figure 112008022348517-pat00004
가 각각 특징 위 치(Feature Location)와
Figure 112008022348517-pat00005
의 작은 공간적 이웃(Small Spatial Neighborhood)을 표시한다면, 광흐름 벡터
Figure 112008022348517-pat00006
는 수학식 1과 같이 축약될 수 있다.
Figure 112008022348517-pat00007
수학식 1의 해법을 이용하면,
Figure 112008022348517-pat00008
는 수학식 2를 통해 구할 수 있다.
Figure 112008022348517-pat00009
Figure 112008022348517-pat00010
Figure 112008022348517-pat00011
Figure 112008022348517-pat00012
는 각각 수평 방향들과 수직 방향들에서의 영상 기울기(Image Gradient)들이고,
Figure 112008022348517-pat00013
는 영상 픽셀 차이다. 행렬
Figure 112008022348517-pat00014
는 비단일 행렬(Non-Singular Matrix)이어야 하기 때문에, 행렬
Figure 112008022348517-pat00015
의 최소 고유치(Minimum Eigenvalue)가 임계값(Threshold)보다 큰 영상 위치가 특징점으로서 선택되고 영상 시퀀스를 통해 추적된다.
1.2 3차원 재구성(3D Reconstruction)
대응점들이 획득되면, 주차 공간의 구조는 세 개의 단계들 즉, 키 프레임 선택(Key Frame Selection), 움직임 변수 예측(Motion Parameter Estimation) 및 삼각화(Triangulation)를 이용하여 3차원으로 재구성된다. 3차원 재구성을 위해서는 3차원 재구성 간격을 결정하는 키 프레임들이 선택되어야 한다. 두 개의 프레임들 간에 충분한 카메라 움직임이 없다면 펀더멘털 행렬에 대한 연산이 부정확해지며, 반대의 경우에는 대응점의 수가 감소될 수 있다.
본 발명에서는 광흐름의 평균 길이를 이용하는 방법을 사용한다. 회전적 움직임(Rotational Motion)은 항상 차량의 후방 카메라(Rearview Canera)들에서의 변환적 움직임(Translational Motion)에 의해 야기되기 때문에 이 방법은 잘 동작한다. 주차 공간들은 운전자의 요청으로 재구성되기 때문에, 마지막 프레임은 첫 번째 키 프레임으로서 선택된다. 두 번째 키 프레임은 광흐름의 평균 길이가 임계값을 초과할 때 첫 번째 키 프레임으로부터 선택된다. 다음 키 프레임은 같은 방법으로 선택된다. 임계값은 50 픽셀들로 설정되고 이는 기초선이 약 100~150 cm가 되도록 한다.
키 프레임들이 선택되면, 펀더멘털 행렬이 상대적 회전(Relative Rotation)과 두 개의 카메라들 간의 변환값(Translation Value)들을 추출하기 위해 평가된다. 이러한 작업을 위해, 랜덤 샘플 컨센서스(RANSAC: Random Sample Consensus, 이하 'RANSAC'라 칭함) 방법과 M-예측기(M-Estimator) 방법을 이용했다. 위의 조합 은 토르와 머레이(Torr and Murray)에 의해 경험적으로 적정한 결합(Combination)임을 밝혀졌다.
RANSAC는 선형 방법(Linear Method)을 이용함으로써 펀더멘털 행렬의 후보들을 연산하기 위해 일련의 점들을 임의로 선택하는 것에 기초한다. RANSAC는 각 펀더멘털 행렬을 위한 인라이어(Inlier)들의 수를 계산하고 그 수를 최대화하기 위한 하나를 선택한다. 실험에서, 펀더멘털 행렬이 결정되면, 모든 인라이어들을 이용하여 정제된다. M-예측기는 각 대응점의 나머지값을 측정함으로써 아웃라이어(Outlier)들의 영향을 줄이는 데 사용된다.
Figure 112008022348517-pat00016
Figure 112008022348517-pat00017
의 나머지값이며,
Figure 112008022348517-pat00018
Figure 112008022348517-pat00019
가 두 개의 영상에서 대응점의 좌표들이고,
Figure 112008022348517-pat00020
는 펀더멘털 행렬이라고 가정하면, M-예측기들은 수학식 3에 기반하여 예측한다.
Figure 112008022348517-pat00021
여기서,
Figure 112008022348517-pat00022
는 무게 함수이고, 수학식 4와 같은 허버(Huber) 함수를 사용한다.
Figure 112008022348517-pat00023
Figure 112008022348517-pat00024
를 구하기 위해, 수학식 5와 같은 신뢰있는 표준편차를 사용한다.
Figure 112008022348517-pat00025
필수 행렬(Essential Matrix)은 펀더멘털 행렬과 카메라 내부 변수 행렬(Camera Intrinsic Parameter Matrix,
Figure 112008022348517-pat00026
)을 이용함으로써 계산된다. 본 발명에서 카메라 내부 변수들은 바뀌지 않기 때문에 미리 측정된다. 회전 행렬(Rotation Matrix,
Figure 112008022348517-pat00027
)과 변환 벡터(Translation Vector,
Figure 112008022348517-pat00028
)의 네 개의 조합(Combination)은 필수 행렬로부터 추출된다. 오직 올바른 조합만이 3차원 점들을 두 개의 카메라들 앞에 위치하도록 할 수 있기 때문에, 임의로 선택된 여러 개의 점들을 사용하여 올바른 조합을 선택한다. 이후, 각 대응점의 3차원 좌표들이 선형 삼각법(Linear Triangulation Method)을 이용하여 계산된다.
Figure 112008022348517-pat00029
Figure 112008022348517-pat00030
가 두 개의 카메라들의 투영 행렬(Projection Matrix)을 나타내고
Figure 112008022348517-pat00031
가 대응점들의 3차원 좌표들을 나타낸다면, 수학식 6이 도출된다.
Figure 112008022348517-pat00032
수학식 6에서 나타낸 두 개의 방정식을
Figure 112008022348517-pat00033
의 형태로 조합함으로써, 3차원 좌표(
Figure 112008022348517-pat00034
)는 가장 작은 특이값(Singular Value)
Figure 112008022348517-pat00035
와 대응하는 단위 특이 벡터(Singular Vector)를 찾음으로써 간단히 구해진다. 이것은 특이값 분해(SVD: Singular Value Decomposition)를 이용함으로써 구해진다. 행렬
Figure 112008022348517-pat00036
는 수학식 7과 같이 나타낼 수 있다.
Figure 112008022348517-pat00037
Figure 112008022348517-pat00038
Figure 112008022348517-pat00039
는 각각
Figure 112008022348517-pat00040
Figure 112008022348517-pat00041
의 i 번째 열들을 나타내고,
Figure 112008022348517-pat00042
Figure 112008022348517-pat00043
는 대응점들의 영상 좌표들을 나타낸다. 계산을 위한 비용이 너무 많이 소요되기 때문에, 3차원 재구성을 위해 번들 조정(Bundle Adjustment)과 같은 복잡한 최적화 알고리즘을 이용하지 않는다.
2. 특징 선택과 3차원 구조 모자이킹(Feature Selection and 3D Structure Mosaicking)
2.1 에피폴 근처의 3차원 구조 저급화(Degradation of 3D Structure near Epipole)
일반적으로 3차원 구조들을 재구성할 때, 상당한 저급화가 에피폴 근처에서 나타날 수 있다. 이것은 삼각법이 매우 작은 각도에서 수행되어야 하기 때문에 대응점 추출의 오차와 영상의 양자화 오차가 3차원 좌표의 정확도에 큰 영향을 미치게 되기 때문이다. 이 것은 수학식 7에서 나타낸 행렬
Figure 112008022348517-pat00044
의 등급 비효율로서 나타날 수 있다. 두 개의 카메라들의 투영 행렬(Projection Matrix)들은 각각 수학식 8과 같은
Figure 112008022348517-pat00045
Figure 112008022348517-pat00046
로서 나타낼 수 있다.
Figure 112008022348517-pat00047
Figure 112008022348517-pat00048
Figure 112008022348517-pat00049
는 각각 3×3 카메라 내부 변수 행렬과 3×3 단위 행렬(Identity Matrix)을 나타내고
Figure 112008022348517-pat00050
Figure 112008022348517-pat00051
는 3×3 회전 행렬과 3×1 변환 벡터를 나타내며,
Figure 112008022348517-pat00052
는 에피폴이다.
Figure 112008022348517-pat00053
의 마지막 열이 에피폴의 좌표들을 나타내므로, 대응점들이 에피폴 근저에 있을 때
Figure 112008022348517-pat00054
의 마지막 열이 0에 더욱 가까워 진다.
이러한 문제가 3차원 재구성에서 매우 중요함에도 불구하고 두 가지의 이유 때문에 종래 기술에서는 실제로 다루어지지 않았다. 첫째, 에피폴은 카메라 설정 때문에 많은 적용예에서 영상 내에 위치하지 않는다. 이러한 현상은, 3차원 구조가 스테레오 카메라 또는 광학축 방향의 변환이 다른 축 방향의 변환보다 상대적으로 주요하지 않은 이동 카메라를 이용함으로써 재구성될 때 발생한다. 둘째, 에피폴은 영상 안에 위치하지만 목표물상에 있지 않다. 이러한 형상은, 하나의 전방(또는 후방) 주시 카메라를 갖는 이동 로봇이 도로 또는 복도를 따라 이동할 때, 발생한다. 이러한 경우, 에피폴은 영상 안에 위치하지만 통상적으로 카메라로부터 멀리 떨어진 사물위에 있어서, 에피폴 주변의 지역은 관심의 대상이 아니다.
제안된 방법에서, 광학축에서의 변환은 꽤 주요하다. 그래서, 에피폴은 항상 영상 안에 위치한다. 또한, 에피폴은 통상적으로 주차 공간의 위치를 파악하기 위해 사용되는 우리의 목표물인 주변 차량위에 위치한다.
도 3은 전형적인 주차 상황에서의 에피폴 위치를 나타낸 예시도이다.
도시한 바와 같이, 에피폴은 자동차의 후방 카메라의 움직임 특성으로 인해 통상적으로 주변 차량의 영상위에 위치한다. 이러한 이유로, 주변 차량의 3차원 구조는 잘못 재구성된다.
도 4는 영상 시퀀스의 마지막 프레임에서 에피폴의 위치와 재구성된 후방 구 조이다.
4A는 전형적인 에피폴의 위치를 나타낸 것이고, 4B는 지면 근처의 점들을 제거한 후 위에서 바라본 재구성된 3차원 구조를 나타낸 것이다.
지면 근처에서 점들을 제거한 후 위에서 바라본 구조를 나타내면 도 4A와 같다. 도 4A에서 주변 차량 위의 에피폴 근처의 3차원 점들은 정확도가 매우 떨어지게 되고 이것은 주차 공간 결정에 악영항을 미치게 된다. 이러한 문제점을 해결하기 위해, 역회전 기반 특징 선택(De-Rotation-Based Feature Selection)과 3차원 구조 모자이킹(3D Structure Mosaicking)을 사용한다.
2.2 역회전 기반 특징 선택과 3차원 구조 모자이킹
에피폴의 문제를 해결하고 정확한 3차원 후방 구조를 구하기 위해, 두 단계로 이루어진 방법을 사용한다. 첫 번째 단계에서, 광흐름으로부터 회전적 효과(Rotational Effect)를 제거하고 변환 효과(Translation Effect)만을 남긴다. 순변환(Pure Translation)에서의 광흐름 길이(Optical Flow Length)가 3차원 구조 정확도에 비례하므로, 우리는 임계값보다 더 짧은 광흐름 길이들을 갖는 대응점들을 제거한다. 이 것은 3차원 구조가 잘못 재구성된 점들을 포함하는 것을 방지한다. 광흐름의 회전적 효과를 제거하기 위해서, 콘주게이트 회전(Conjugate Rotation)가 이용된다.
Figure 112008022348517-pat00055
Figure 112008022348517-pat00056
가 순회전(Pure Rotation) 전후의 3차원 점
Figure 112008022348517-pat00057
의 영상들이라면, 수학식 9와 같이 나타낼 수 있다.
Figure 112008022348517-pat00058
따라서,
Figure 112008022348517-pat00059
일 때,
Figure 112008022348517-pat00060
가 된다. 이러한 호모그래피를 이용함으로써 회전 효과물 없애고 순변환에 의한 효과만을 남길 수 있게 된다.
도 5는 역회전 기반 특징 선택 절차를 나타낸 예시도이다.
5A는 왜곡되지 않은 대응점들을 나타낸 것이고, 5B는 역회전된 대응점들을 나타낸 것이다. 먼저 어안 영상에서 대응점들의 왜곡을 제거하여 5A와 같이 변환한다. 그 후, 왜곡되지 않은 대응점들은 5B에 도시한 바와 같이 호모그래피를 이용하여 역회전된다. 회전적 영향이 완전히 제거되기 때문에 모든 대응점들과 만나는 선들은 에피폴의 방향을 가리킨다. 이 경우, 에피폴은 확장의 중심(Focus of Expansion)으로서 알려진다.
빨간색 선들은 역회전 기반 방법에 의해 분류된 신뢰할 수 없는 대응점들을 가리킨다. 신뢰할 수 없는 대응점들은 에피폴 근처의 특징점들을 포함하고 카메라로부터 멀리 떨어져 있다. 광흐름 길이에 대한 임계값은 10 픽셀로 정해진다.
두번 째 절차에서, 선택된 대응점들을 이용하여 여러 개의 3차원 구조들을 재구성하고 닮음 변환(Similarity Transformation)을 추정함으로써 재구성한 3차원 구조들을 모자이크로 만들어 하나의 구조가 되게 한다.
닮음 변환 파라미터들은
Figure 112008022348517-pat00061
(3×3 회전 행렬),
Figure 112008022348517-pat00062
(3×1 변환 행렬)과
Figure 112008022348517-pat00063
(스케일링)으로 구성되고 추적 결과들로부터 알려진 3차원 대응점들로 최소 자승 조절(Least Square Fitting) 방법을 사용한다. 재구성된 3차원 점들이 잘못될 수도 있고 아웃라이어들을 포함할 수 있으므로, RANSAC 접근법은 파라미터 평가에 활용된다. 최소 자승 조절 방법은 다음과 같이 설명될 수 있다. 3차원 공간에서 두 개의 대응점 세트
Figure 112008022348517-pat00064
Figure 112008022348517-pat00065
(여기서, i=1, 2, …, n)가 주어지고,
Figure 112008022348517-pat00066
Figure 112008022348517-pat00067
가 3×1 열 벡터들이며, n이 3 보다 크거나 같다고 가정하면,
Figure 112008022348517-pat00068
Figure 112008022348517-pat00069
간의 관계는 수학식 10과 같이 나타낼 수 있다.
Figure 112008022348517-pat00070
두 개의 세트의 점들의 평균 제곱 오차(Mean Square Error)는 수학식 11과 같이 나타낼 수 있다.
Figure 112008022348517-pat00071
Figure 112008022348517-pat00072
Figure 112008022348517-pat00073
가 각각
Figure 112008022348517-pat00074
Figure 112008022348517-pat00075
의 3×n 행 렬이고,
Figure 112008022348517-pat00076
Figure 112008022348517-pat00077
(
Figure 112008022348517-pat00078
)라면, 평균 제곱 오차를 최소화하는 변환 파라미터(Translation Parameter)들은 수학식 12를 통해 계산될 수 있다.
Figure 112008022348517-pat00079
그리고
Figure 112008022348517-pat00080
,
Figure 112008022348517-pat00081
Figure 112008022348517-pat00082
는 수학식 13과 같이 정의될 수 있다.
Figure 112008022348517-pat00083
도 6은 특징 선택과 3차원 모자이킹 방법을 사용할 때와 사용하지 않을 때 재구성한 3차원 구조들을 나타낸 예시도이다.
6A는 키 프레임 영상들을 나타낸 것이고, 6B는 특징 선택 방법을 사용하지 않고 재구성한 3차원 구조들이며, 6C는 특징 선택 방법을 사용하여 재구성한 3차원 구조들이다.
3차원 구조들은 (지면 근처에서 점들을 제거한 후) 위에서 바라본 것처럼 나타난다. 6A에서는 키 프레임 영상들과 키 프레임 영상들의 에피폴 위치들을 나타내었다. 에피폴들은 주변 차량에 따라 다른 위치에 있음 알 수 있다. 6B에서는 각 키 프레임을 재구성한 3차원 구조들을 나타내었다. 나타낸 바와 같이, 에피폴들 근처의 구조들은 좋지 않게 재구성된다. 하지만, 하나의 구조에서 잘못 재구성된 부분은 또 다른 구조에서 올바르게 재구성된다. 6C에서는 역회전 기반 방법을 이용함으로써 대응점들을 제거한 후 각 키프레임을 재구성한 3차원 구조들을 나타내었다. 6B에서 나타난 잘못된 3차원 점들의 대부분이 제거된다.
도 7은 특징점 선택과 3차원 모자이킹 방법을 이용한 경우와 이용하지 않은 경우의 3차원 구조들을 나타낸 예시도이다.
7A는 특징점 선택과 3차원 모자이킹 방법을 이용한 경우의 3차원 구조들을 나타낸 것이고, 7B는 특징점 선택과 3차원 모자이킹 방법을 사용하지 않은 경우의 3차원 구조들을 나타낸 것이다. 빨간 점들은 카메라 중심을 가리킨다. 에피폴 근처의 3차원 구조의 저급화는 본 발명에 따른 방법에 의해 해결된다.
3. 주차 공간 검출(Free Parking Space Detection)
3.1 카메라 높이 비율을 이용한 거리 복구(Metic Recovery by Using Camera Height Ratio)
센티미터 단위로 주차 공간의 위치를 측정하기 위해서는, 3차원 구조의 측량 정보가 복구 되어야 한다. 이는 통상적으로 이미 알려진 기초선(Baseline) 길이 또는 3차원 구조의 사전 정보(Prior Knowledge) 를 이용하여 이루어진다. 본 발며에서 실제 세계에서의 카메라 높이는 미리 알고 있기 때문에, 재구성된 세계에서의 카메라 높이를 예측하고 이 두 카메라 높이의 비율을 이용하여 거리를 복구한다. 실제 세계에서의 카메라 높이는 정해진 것으로 가정한다. 높이 센서는 화물들이나 승객들의 변화로 인해 발생할 수 있는 카메라 높이의 변동으로 활용될 수 있다.
카메라 위치는 원점으로 설정되기 때문에 카메라 높이 비율을 계산하기 위해서는 재구성된 세계의 지면이 예측될 수 있어야 한다. 예측 절차는 세 개의 절차 즉, 경사각 보상; 밀도 예측 기반 지면 검출 및 3차원 평면 예측 기반 지면 정화로 구성된다. 경사각이 계산되면 3차원 구조는 이 계산에 따라 회전된다. 이러한 절차는 지면이 XZ-평면과 평행이 되도록 한다.
도 8은 후방 카메라의 설정을 나타낸 예시도이다.
도 8에 도시한 바와 같은 카메라 설정에서, 경사각(
Figure 112008022348517-pat00084
)은 수학식 14를 이용하여 계산된다.
Figure 112008022348517-pat00085
Figure 112008022348517-pat00086
Figure 112008022348517-pat00087
는 각각 에피폴과 주점(Principal Point)의 y축 좌표이다.
Figure 112008022348517-pat00088
는 카메라의 초점 거리(Focal Length)이다.
지면은 Y-축에서 3차원 점들의 밀도를 이용하여 거칠게 검출된다. XZ-평면과 평행한 것은 통상적으로 하나의 평면(지면)이므로, 3차원 점들의 Y-축 좌표의 밀도는 지면의 위치에서 최대값이 된다.
도 9은 3차원 점들의 Y-축 좌표의 밀도를 나타낸 예시도이다.
도 9에서 최대 위치는 지면의 위치로부터 인식되고 최대 위치로부터의 원점까지의 거리는 3차원 구조에서 카메라 높이로서 인식된다.
실험에서, 지면의 정확한 위치와 방향은 3차원 평면 예측에 의해 추정된다. 거칠게 예측된 지면 근처의 3차원 점들이 선택되고 RANSAC 접근법이 3차원 평면을 예측하기 위해 사용된다. 카메라 높이는 카메라 원점과 지면 간의 수직 거리를 계산함으로써 정의된다. 3차원 구조는 카메라 높이 비율을 이용하여 센티미터로 크기가 결정된다. 그런 후, 카메라 원점으로부터 멀리 떨어진 3차원 점들은 제거되고 남아있는 점들은 지면을 XZ-평면과 평행하도록 하기 위해 3차원 평면 방향에 따라 회전된다.
도 10은 거리 복구의 최종 결과를 나타낸 예시도이다.
10A는 카메라로부터의 시야에서의 거리 복구 결과를 나타낸 것이고, 10B는 위로부터 시야에서의 거리 복구 결과를 나타낸 것이다. 여기서, 좌표 (0, 0, 0)의 점은 카메라 중심을 카리킨다.
3.2 주차 공간 검출(Free Parking Space Detection)
후방 시야의 유클리드의 3차원 구조가 재구성되면, 3차원 점들의 그름 사이에서 주차공간을 설정해야 한다. 이러한 작업을 위해, 주변 차량들의 위치를 예측하고 그에 따라 주차 공간의 위치를 측정한다. 위치 예측은 복잡하고 시간이 소요되기 때문에, 평면 시야(Top-view)를 이용하여 3차원으로부터 2차원으로 구조의 차 원을 줄인다. 지면으로부터의 높이가 30~160 cm 사이인 3차원 점들이 선택되고, 높이 정보가 차원을 줄이기 위해 제거된다.
도 11은 차원 축소 결과를 나타낸 예시도이다.
11A는 차원 축소 결과를 나타낸 것이고, 11B는 고립된 점을 제거한 결과를 나타낸 것이다.
도시한 바와 같이, 차원 축소 결과에서는 주변 차량의 아웃라이어들과 다른 장애물들이 나타날 수 있다. 도 11에서는 3차원 재구성 오류로 인해 발생할 수 있는 몇 개의 고립된 점들이 존재하므로, 수학식 15로 정의되는 이웃들의 수를 세어 고립된 점들을 제거한다.
Figure 112008022348517-pat00089
Figure 112008022348517-pat00090
Figure 112008022348517-pat00091
는 2차원 점들을 나타내고
Figure 112008022348517-pat00092
은 반경을 나타낸다.
Figure 112008022348517-pat00093
가 임계값이하라면
Figure 112008022348517-pat00094
는 고립된 점으로서 정의되어 제거된다.
11B에 도시한 결과는
Figure 112008022348517-pat00095
과 임계값을 각각 10cm와 3으로 설정했을 때, 고립된 점들을 제거한 결과이다. 여기서, 점 (0, 0)은 카메라 중심을 가리킨다.
도 11에서 모든 점들은 자동차의 최외곽 표면에 속하지 않기 때문에, 입력각과 카메라 중심으로부터 거리 간의 관계를 이용하여 외곽 점들을 선택한다. 이러한 절차는 주변 차량의 위치를 더욱 잘 예측하기 위해 수행된다. 입력각은 카메라 중 심과 2차원 점이 만나는 선과 수평축 간의 각도이다.
도 12은 외곽점 선택을 나타낸 예시도이다.
12A는 입력각과 카메라 중심으로부터의 거리로 2차원 점들을 다시 나타낸 것이고, 12B는 외곽점 선택 결과를 나타낸 것이다.
12B는 입력각과 카메라 중심으로부터의 거리를 이용하여 12A와 같이 다시 도시될 있다. 12A에서 나타낸 같은 수직선 상의 점들은 같은 입력각으로부터 도출될 수 있으므로, 같은 수직선 상의 점들 중에서 카메라 중심으로부터 가장 가까운 점을 외곽점으로서 인식할 수 있다.
차량의 모양이 위에서 바라보는 것처럼 사각형이라면, 주변 차량의 위치는 모서리 점과 방향에 의해 나타낼 수 있다. 그러므로, 주변 차량의 모서리 점과 방향을 예측하고 주차 공간의 위치를 측정하는 데 이 모서리 점과 방향을 이용한다. 재구성된 구조는 잡음이 있고 주변 차량들뿐만 아니라 다른 장애물들도 포함하고 있으므로, 투영 기반 방법을 사용한다. 이러한 방법은 2차원 점들을 회전시키고 X-축과 Z-축으로 투영한다. 이를 통해, 두 개의 투영 결과들의 최대 값의 합을 최대화하는 회전각이 구해진다. 투영 결과 최대값의 합을 가장 크게 만드는 회전각과 위치는 각각 방향과 모서리 점으로서 인식된다. 이러한 방법은 방향과 모서리점을 동시에 예측하며 잡음이 많은 데이터에서도 신뢰할 만한 결과를 얻을 수 있게 해준다.
하지만, 이러한 방법을 이용하면 예측된 방향이 세로인지 가로인지 여부를 알 수가 없다. 이를 결정하기 위해, 주차 공간이 좌측에 있을 때 운전자는 오른쪽 으로 돌리며 그 반대인 경우에는 그 반대로 돌린다고 가정한다. 이러한 가정을 이용하면, 예측된 방향이 세로인지 또는 가로인지 여부를 결정할 수 있다. 자동차의 회전 방향은 펀더멘털 행렬로부터 추출된 회전 행렬로부터 예측된다.
방향과 모서리 점을 예측한 후, 주변 차량의 세로 방향에서의 점들을 선택하고 RANSAC 기반의 선 예측을 이용하여 방향을 정하는 데 사용한다. 자동차들의 가로측이 통상적으로 구부러져서 세로측이 더욱 정확한 방향 정보를 제공하기 때문에 이러한 절차가 요구된다. 모서리 점 또한 정해진 방향에따라 추정된다.
도 13은 다른 주변 차량의 검색 영역과 주차 공간 위치 측정을 나타낸 예시도이다.
13A는 다른 주변 차량의 검색 영역을 나타낸 것이고, 13B는 주차 공간 위치 측정을 나타낸 것이다. 가장 올바른 주차 공간의 위치를 측정하기 위해서는 예측된 차량 반대에 위치한 다른 주변 차량들도 검색된다. 검색 영역은 예측된 모서리 점과 방향을 이용하여 13A와 같이 설정된다. 150 cm의 반경을 갖는 원을 설정하고 그 중심이 방향과 직교하는 방향에서의 모서리 점으로부터 300 cm에 위치하는 것으로 설정한다.
검색 영역 내에서의 점 구름들이 있다면, 다른 차량이 있는 것으로 간주하며 주차 공간은 가로 방향에서의 두 개의 차량들의 중앙에 위치한다. 두 개의 주변 차량들의 모서리 점들은 세로 방향으로 투영되고 바깥쪽 하나는 주차 공간의 위치를 측정하는 데 사용된다. 13B에서 이러한 과정을 설명한다. 13B에서 모서리 점(Corner Point) 1은 외곽의 한 점이기 때문에 선택된다. 다른 차량이 찾아지지 않는다면(모서리 점(Corner Oint) 2가 찾아지지 않는다면), 주차 공간은 검출된 차량 옆에서 50cm 간격을 두고 위치한다.
도 14는 영상 시퀀스의 마지막 프레임에 그려진 주차 공간 검출의 최종 결과를 나타낸 예시도이다.
도 14에서는 주차 공간의 폭과 길이가 각각 180 cm와 480 cm로서 설정되었다.
4. 실험 결과
본 발명에 따라 154 개의 다른 주차 상황에서 실험하였다. 데이터베이스로부터 53 개의 시퀀스들이 레이저 스캐너 데이터로 취해졌고 101 개의 시퀀스들이 레이저 스캐너 데이터 없이 취하여, 성공률과 검출 정확도의 관점에서 결과를 분석했다.
4,1 재구성된 후방 구조(Rearview Structure)들의 비교
이 실험에서, 본 발명에 따라 특징 선택과 3차원 모자이킹 방법을 사용할 때와 사용하지 않을 때의 3차원 후방 시야 구조들을 재구성하고 레이저 스케너 데이터와 비교하였다. 사용된 레이저 스캐너의 각도 해상도와 깊이 해상도는 각각 0.125°와 3.9mm이고 구조적인 오류는 ±25mm이다.
도 15은 자동차에 탑재된 어안 카메라와 레이저 스캐너를 나타낸 예시도이다.
이러한 두 개의 센서의 관계는 미리 파악되었다.
도 16는 제안된 방법을 이용할 때와 이용하지 않을 때의 재구성된 후방 시야 구조들의 비교를 나타낸 예시도이다.
16A는 두 개의 영상 시퀀스들의 마지막 프레임들을 나타낸 것이고, 16B는 제안된 방법을 이용할 때 재구성된 후방 시야 구조들을 나타낸 것이며, 16C는 제안된 방법을 사용하지 않을 때 재구성된 후방 시야 구조들을 나타낸 것이다.
재구성된 구조들은 지면 근처의 점들을 제거한 후, 위에서 바라본 모습으로 다시 도시되었다. 차량 위의 점들은 에피폴들의 위치를 가리킨다. 16B와 16C에서 파란색과 빨간색의 점들은 각각 재구성된 점들과 레이저 스캐너 데이터를 가리킨다.
이러한 비교를 통해, 다음과 같은 장점을 도출하였다. 첫째, 본 발명에 따르면 잘못 재구성된 점들의 수가 준다. 본 발명에서는 에피폴의 근처에 있고 카메라 중심으로부터 멀리 떨어진 대응점들을 제거하기 때문에 16C에서는 16B에서 보다 더 많은 그라운드 트루쓰 데이터 밖의 잘못된 점들이 나타난다. 둘째, 본 발명에 따르면 주변 차량에 대한 정보의 양이 증가한다. 주변 차량 위의 점들의 밀도가 모자이크된 3차원 구조들에 의해 증가하므로 16B에서의 구조가 16C에서의 구조보다 더 자세하다. 마지막으로, 본 발명에 따르면 거리 복구 결과가 향상된다. 16C에서, 재구성된 구조의 크기는 그라운드 트루쓰와 다르다. 이는 본 발명에 따르면 지면상에 더 많은 점들을 생산하여 지면 평가를 더욱 정확하게 하기 때문이다.
4.2 주차 공간 검출 결과
본 발명은 154 개의 실제 주차 상황에 적용되었다. 지면은 아스팔트, 흙, 눈, 물과 주차 표시선으로 덮혔다. 자동차들은 어두운 색으로부터 밝은 색까지 다양했고 승용차, SUV, 트럭, 밴과 버스 등을 포함했다. 환경은 다양한 형식의 빌딩들, 차량들과 나무들을 포함햇다.
도 17는 여섯 개의 성공적인 예제들을 나타낸 예시도이다.
17A와 17C는 영상 시퀀스들의 마지막 프레임들을 나타내고, 17B와 17D는 각각 17A와 17C와 대응하는 후방 시야 구조들을 나타낸 것이다. 도 17에서 (0, 0)은 카메라 중심을 가리킨다.
시스템이 성공적으로 동작하는지 여부를 결정하기 위해, 영상 시퀀스의 마지막 프레임에서 검출된 주차 공간을 출력한다. 두 개의 주변 차량들 사이의 주차 공간 내에 검출된 주차 공간이 위치한다면, 결과는 성공한 것으로 볼 수 있다. 이러한 방식으로 시스템은 139 개의 상황들에서 성공했고 15 개의 상황들에서 실패해서, 검출률은 90.3%가 되었다.
도 18은 4 개의 실패한 예를 나타낸 예시도이다.
18A는 반사된 햇빛으로 인해 실패한 형태를 나타내고, 18B는 그림자진 지역 아래의 어두운 차량으로 인해 실패한 형태를 나타내고, 18C는 멀리 떨어진 주차 공간으로 인해 실패한 형태를 나타내며, 18D는 울퉁불퉁한 지면으로 인해 실패한 형태를 나타낸 것이다.
18A에서는 태양이 주변 차량과 피면에 표면에 강하게 반사되어 특징 점 추적에 실패하였다. 18B에서는 주변 차량이 매우 어둡고 그림자가 진 지역 내에 위치하여 몇 안되는 점들만이 차량의 표면 위에서 검출되고 추적되었다. 18C에서는 주차 공간이 카메라로부터 아주 멀리 떨어져 있어서, 하얀색 차량의 옆이 회색 밴의 옆보다 더욱 자세히 재구성되었다. 이것이 잘못된 검출을 야기했다. 18D에서는 주차 공간(더욱 어두운 지역)상의 지면의 일부가 아스팔트로 덮여서, 지면이 평평하지 않았다. 이것이 지면 예측이 잘못되도록 만든다.
15 개의 실패들 중 세 개는 18A와 같이 다시 도시할 수 있고, 9 개는 16B와 같이 다시 도시할 수 있으며, 두 개는 18C와 같이 다시 도시할 수 있으며, 한 개는 16D와 같이 다시 도시할 수 있다.
4.3 주변 차량 검출의 정확도
본 발명에 따른 자동 주차 검출 방법은 주변 차량의 모서리 점과 방향을 예측하고 그에 따라 목표 공간의 위치를 측정한다. 검출 결과는 모서리 점과 방향의 예측에 의존하기 때문에, 이들을 사용하여 정확도를 평가하였다. 모서리 점과 방향의 그라운드 트루쓰는 레이저 스캐너 데이터를 이용함으로써 획득된다. 모서리 점들의 오류는 예측된 점으로부터 측정된 점까지의 유클리드 거리이고 방향의 오류는 예측된 각도와 측정된 각도 간의 절대값의 차이다. 이러한 평가를 위해, 47 개의 영상 시퀀스들과 그에 대응하는 레이저 스캐너 데이터가 사용되었다. 주변 차량의 모서리 점과 방향은 각 영상 시퀀스마다 10 번씩 예측되었다. 이는 재구성된 구조가 파라미터 예측 결과로 인해 매번 조금씩 다를 수 있기 때문이다.
도 19는 레이저 데이터를 이용한 평가 결과를 나타낸 예시도이다.
19A는 모서리 점 오류를 나타낸 것이고, 19B는 방향 오류를 나타낸 것이다.
19A와 19B에서, 모서리 점과 방향의 오류는 히스토그램으로 다시 도시될 수 있다. 모서리 점의 평균과 최대 오류는 각각 14.9cm와 42.7cm이다. 모서리 점과 카메라 중심 간의 거리는 281.4 cm와 529.2cm이다. 두 개의 차량 간의 가로의 거리가 통상적인 주차장 주차 상황에서 약 280 cm와 300 cm이므로, 차량의 각 측면에서 약 50 cm의 추가 공간이 있다. 이는 모서리 점의 최대 오류가 주차 공간의 위치 측정에서 허용될 만한 수준임을 의미한다. 방향의 평균과 최대 오류는 각각 1.4°와 7.7°이었다. 방향의 평균 오류는 허용될 만했지만, 방향의 최대 오류는 다소 컸다. 특징의 부재로 인해 자동차의 측면은 몇 안되는 대응점을 나타내고 이는 방향 예측을 어렵게 하기 때문이다. 이러한 평가는 제안된 시스템이 주차 공간을 검출하기 위한 허용할 만한 결과를 산출한다는 것을 나타낸다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어 야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치를 이용한 주차 보조 시스템의 구성을 간략하게 나타낸 블록 구성도,
도 2는 본 발명의 일 실시예에 따른 모노큘러 모션 스테레오 기반의 주차 공간 검출 방법을 설명하기 위한 순서도,
도 3은 전형적인 주차 상황에서의 에피폴 위치를 나타낸 예시도,
도 4는 영상 시퀀스의 마지막 프레임에서 에피폴의 위치와 재구성된 후방 구조도,
도 5는 역회전 기반 특징 선택 절차를 나타낸 예시도,
도 6은 특징 선택과 3차원 모자이킹 방법을 사용할 때와 사용하지 않을 때 재구성한 3차원 구조들을 나타낸 예시도,
도 7은 특징점 선택과 3차원 모자이킹 방법을 이용한 경우와 이용하지 않은 경우의 3차원 구조들을 나타낸 예시도,
도 8은 후방 카메라의 설정을 나타낸 예시도,
도 9은 3차원 점들의 Y-축 좌표의 밀도를 나타낸 예시도,
도 10은 거리 복구의 최종 결과를 나타낸 예시도,
도 11은 차원 축소 결과를 나타낸 예시도,
도 12은 외곽점 선택을 나타낸 예시도,
도 13은 다른 주변 차량의 검색 영역과 주차 공간 위치 측정을 나타낸 예시도,
도 14는 영상 시퀀스의 마지막 프레임에 그려진 주차 공간 검출의 최종 결과를 나타낸 예시도,
도 15은 자동차에 탑재된 어안 카메라와 레이저 스캐너를 나타낸 예시도,
도 16는 제안된 방법을 이용할 때와 이용하지 않을 때의 재구성된 후방 시야 구조들의 비교를 나타낸 예시도,
도 17는 여섯 개의 성공적인 예제들을 나타낸 예시도,
도 18은 4 개의 실패한 예를 나타낸 예시도,
도 19는 레이저 데이터를 이용한 평가 결과를 나타낸 예시도이다.

Claims (8)

  1. 차량의 주차 공간을 검출하는 장치에 있어서,
    영상 촬영부로부터 입력 영상을 수신하고 상기 입력 영상을 분석하여 대응점을 획득함으로써 특징점을 추적하는 특징점 추적부;
    상기 특징점을 이용하여 상기 주차 공간을 3차원으로 재구성하여 3차원 구조를 생성하는 3차원 구조 생성부;
    역회전 기반 특징 선택을 이용하여 상기 특징점을 재선택하여 상기 3차원 구조를 재구성하고 닮음 변환을 평가함으로써 상기 재구성한 3차원 구조를 모자이크로 구성하여 3차원 구조 모자이크를 생성하는 3차원 모자이크 구조 생성부;
    영상 촬영부 높이 비율을 이용하여 상기 3차원 구조 모자이크에서 거리 정보를 획득하는 거리 복구부; 및
    상기 3차원 구조 모자이크에서 주변 차량의 위치를 예측함으로써 상기 주차 공간을 검출하는 공간 검출부
    를 포함하는 것을 특징으로 하는 주차 공간 검출 장치.
  2. 제 1 항에 있어서, 상기 특징점 추적부는,
    상기 특징점을 검출하고 루카스-케네디 방법을 이용하여 상기 입력 영상을 통해 상기 특징점을 추적하는 것을 특징으로 하는 주차 공간 검출 장치.
  3. 제 1 항에 있어서, 상기 3차원 구조 생성부는,
    상기 입력 영상의 키 프레임을 선택하고 상기 키 프레임에서 움직임 변수를 예측한 후 선형 삼각법을 이용하여 상기 특징점의 3차원 좌표를 계산함으로써 상기 3차원 구조를 생성하는 것을 특징으로 하는 주차 공간 검출 장치.
  4. 제 1 항에 있어서, 상기 공간 검출부는,
    평면 시야를 이용하여 상기 3차원 구조 모자이크의 차원을 줄이고, 이웃들로부터 고립된 점을 제거하며, 입력각과 영상 촬영부 중심으로부터의 거리를 이용하여 상기 주변 차량의 외곽점을 구하고 상기 주변 차량의 모서리 점과 방향을 예측함으로써 상기 주차 공간을 검출하는 것을 특징으로 하는 주차 공간 검출 장치.
  5. 제 4 항에 있어서, 상기 공간 검출부는,
    소정의 반경을 갖는 원을 검색 영역으로 설정하여 상기 주변 차량의 반대편의 다른 차량을 추가로 예측하되, 상기 원의 중심은 상기 방향과 직교하는 방향에서 상기 모서리 점으로부터 소정의 거리에 위치하도록 설정되는 것을 특징으로 하는 주차 공간 검출 장치.
  6. 제 1 항에 있어서, 상기 거리 복구부는,
    경사각을 보상하고 밀도 예측 기반으로 지면을 검출하며 3차원 평면 예측 기 반으로 상기 지면의 위치와 방향을 예측함으로써 상기 3차원 모자이크 구조에서의 영상 촬영부 높이를 결정하여 상기 영상 촬영부 높이 비율을 획득하는 것을 특징으로 하는 주차 공간 검출 장치.
  7. 차량의 주차를 보조하는 주차 보조 시스템에 있어서,
    주차 공간을 촬영하여 입력 영상을 생성하고 전달하는 영상 촬영부;
    상기 주차 공간을 검출한 출력 영상을 출력하는 사용자 인터페이스부;
    상기 입력 영상을 전달받으면 상기 입력 영상을 분석하여 대응점을 획득함으로써 특징점을 추적하고, 상기 특징점을 이용하여 상기 주차 공간을 3차원으로 재구성하여 3차원 구조를 생성하며, 역회전 기반 특징 선택을 이용하여 상기 특징점을 재선택하여 상기 3차원 구조를 재구성하고 닮음 변환을 평가함으로써 상기 재구성한 3차원 구조를 모자이크로 구성하여 3차원 구조 모자이크를 생성하며, 영상 촬영부 높이 비율을 이용하여 상기 3차원 구조 모자이크에서 거리 정보를 획득하고 상기 3차원 구조 모자이크에서 주변 차량의 위치를 예측함으로써 상기 주차 공간을 검출하여 주차 공간 검출 결과를 생성하여 전달하는 주차 공간 검출부
    상기 차량의 운전상황을 인식하기 위한 다수 개의 센서를 구비하여 상기 차량의 운전상황정보를 생성하여 전달하는 감지부;
    상기 감지부로부터 상기 운전상황정보를 수신하여 상기 차량의 위치를 추정하며, 상기 주차 공간 검출 결과를 전달받아 상기 주차 공간으로 주차하기 위한 경로 계획을 생성하고 상기 주차 공간으로 주차하기 위한 제어 신호를 생성하여 전달 하는 주차 보조 제어부;
    상기 제어 신호를 수신하면 상기 제어 신호에 따라 상기 차량을 조향하는 능동 조향부; 및
    상기 제어 신호를 수신하면 상기 제어 신호에 따라 상기 차량을 제동하는 능동 제동부
    를 포함하는 것을 특징으로 하는 주차 공간 검출 장치를 이용한 주차 보조 시스템.
  8. 주차 공간 검출 장치가 주차 공간을 검출하는 방법에 있어서,
    (a) 영상 촬영부로부터 입력 영상을 수신하고 상기 입력 영상을 분석하여 대응점을 획득함으로써 특징점을 추적하는 단계;
    (b) 상기 특징점을 이용하여 상기 주차 공간을 3차원으로 재구성하여 3차원 구조를 생성하는 단계;
    (c) 역회전 기반 특징 선택을 이용하여 상기 특징점을 재선택하여 상기 3차원 구조를 재구성하는 단계;
    (d) 닮음 변환을 평가함으로써 상기 재구성한 3차원 구조를 모자이크로 구성하여 3차원 구조 모자이크를 생성하는 단계;
    (e) 영상 촬영부 높이 비율을 이용하여 상기 3차원 구조 모자이크에서 거리 정보를 획득하는 단계; 및
    (f) 상기 3차원 구조 모자이크에서 주변 차량의 위치를 예측함으로써 상기 주차 공간을 검출하는 단계
    를 포함하는 것을 특징으로 하는 주차 공간 검출 방법.
KR1020080028581A 2008-03-27 2008-03-27 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법 Active KR101188588B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020080028581A KR101188588B1 (ko) 2008-03-27 2008-03-27 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
DE102009012435.7A DE102009012435B4 (de) 2008-03-27 2009-03-10 Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
US12/410,126 US8134479B2 (en) 2008-03-27 2009-03-24 Monocular motion stereo-based free parking space detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080028581A KR101188588B1 (ko) 2008-03-27 2008-03-27 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법

Publications (2)

Publication Number Publication Date
KR20090103165A KR20090103165A (ko) 2009-10-01
KR101188588B1 true KR101188588B1 (ko) 2012-10-08

Family

ID=41116295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080028581A Active KR101188588B1 (ko) 2008-03-27 2008-03-27 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법

Country Status (3)

Country Link
US (1) US8134479B2 (ko)
KR (1) KR101188588B1 (ko)
DE (1) DE102009012435B4 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111845713A (zh) * 2019-04-26 2020-10-30 东莞潜星电子科技有限公司 一种基于车载3d全景环视的泊车路线规划方法

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201100279A (en) * 2009-06-23 2011-01-01 Automotive Res & Testing Ct Composite-image-type parking auxiliary system
US9361706B2 (en) * 2009-11-30 2016-06-07 Brigham Young University Real-time optical flow sensor design and its application to obstacle detection
US8866901B2 (en) * 2010-01-15 2014-10-21 Honda Elesys Co., Ltd. Motion calculation device and motion calculation method
US8872887B2 (en) * 2010-03-05 2014-10-28 Fotonation Limited Object detection and rendering for wide field of view (WFOV) image acquisition systems
US10776635B2 (en) * 2010-09-21 2020-09-15 Mobileye Vision Technologies Ltd. Monocular cued detection of three-dimensional structures from depth images
DE102010047162A1 (de) 2010-09-30 2012-04-05 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zum Erkennen von freien Parkplätzen
US8744693B2 (en) * 2010-11-22 2014-06-03 Caterpillar Inc. Object detection system having adjustable focus
US8751103B2 (en) * 2010-11-22 2014-06-10 Caterpillar Inc. Object detection system having interference avoidance strategy
US9900522B2 (en) * 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
DE102010063133A1 (de) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und System zur Bestimmung einer Eigenbewegung eines Fahrzeugs
CN103348296B (zh) * 2011-01-31 2015-11-25 丰田自动车株式会社 车辆控制装置
US8723959B2 (en) 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
JP5732988B2 (ja) * 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
US20150197281A1 (en) * 2011-04-19 2015-07-16 Ford Global Technologies, Llc Trailer backup assist system with lane marker detection
DE102011112577A1 (de) * 2011-09-08 2013-03-14 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung für ein Assistenzsystem in einem Fahrzeg zur Durchführung eines autonomen oder teilautonomen Fahrmanövers
US8493459B2 (en) 2011-09-15 2013-07-23 DigitalOptics Corporation Europe Limited Registration of distorted images
DE102011113916A1 (de) * 2011-09-21 2013-03-21 Volkswagen Aktiengesellschaft Verfahren zur Klassifikation von Parkszenarien für ein Einparksystem eines Kraftfahrzeugs
US8693734B2 (en) * 2011-11-18 2014-04-08 Adobe Systems Incorporated Detecting poorly conditioned points in bundle adjustment
GB2496905B (en) * 2011-11-28 2017-11-29 Nissan Motor Mfg (Uk) Limited Parking assistance apparatus and parking method
AU2011253973B2 (en) 2011-12-12 2015-03-12 Canon Kabushiki Kaisha Keyframe selection for parallel tracking and mapping
DE102012201891A1 (de) * 2012-02-09 2013-08-14 Robert Bosch Gmbh Parkassistenzverfahren und Parkassistenzsystem zur Ermittlung einer Parklücke
FR2988504B1 (fr) * 2012-03-23 2014-05-09 Commissariat Energie Atomique Procede de determination d'un plan du sol a partir d'une image de profondeur
KR101947826B1 (ko) * 2012-04-10 2019-02-13 현대자동차주식회사 차량의 주차구획 인식방법
JP5845131B2 (ja) * 2012-04-17 2016-01-20 株式会社日本自動車部品総合研究所 駐車空間検知装置
JP2013225245A (ja) 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
KR101374878B1 (ko) * 2012-05-25 2014-03-18 주식회사 만도 차량의 주차제어시스템 및 그를 이용한 주차 제어 방법
ES2436845B1 (es) * 2012-06-29 2014-11-14 Seat, S.A. Procedimiento para memorizar y para reproducir una trayectoria realizada por un vehículo, y sistema que lo implementa.
US8928730B2 (en) 2012-07-03 2015-01-06 DigitalOptics Corporation Europe Limited Method and system for correcting a distorted input image
US8700258B2 (en) * 2012-09-12 2014-04-15 GM Global Technology Operations LLC Park assist system
JP5910434B2 (ja) * 2012-09-25 2016-04-27 トヨタ自動車株式会社 衝突予測装置
FR2998400B1 (fr) * 2012-11-21 2016-01-15 Thales Sa Procede de reconstruction 3d et de mosaiquage 3d panoramique d'une scene
WO2014083830A1 (ja) * 2012-11-27 2014-06-05 日産自動車株式会社 車両用加速抑制装置及び車両用加速抑制方法
JP5987660B2 (ja) * 2012-11-30 2016-09-07 富士通株式会社 画像処理装置、画像処理方法及びプログラム
DE102013001308A1 (de) 2013-01-26 2014-07-31 Audi Ag Verfahren und Navigationsvorrichtung zum Bereitstellen von Informationen über einen Parkplatz
US8957786B2 (en) 2013-05-21 2015-02-17 Ford Global Technologies, Llc Enhanced alignment method for park assist
JP6197388B2 (ja) * 2013-06-11 2017-09-20 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
US9224062B2 (en) * 2013-08-09 2015-12-29 Xerox Corporation Hybrid method and system of video and vision based access control for parking stall occupancy determination
US8923565B1 (en) * 2013-09-26 2014-12-30 Chengdu Haicun Ip Technology Llc Parked vehicle detection based on edge detection
US10373018B2 (en) * 2013-10-08 2019-08-06 Apple Inc. Method of determining a similarity transformation between first and second coordinates of 3D features
US9189689B2 (en) * 2013-10-30 2015-11-17 Nec Laboratories America, Inc. Robust scale estimation in real-time monocular SFM for autonomous driving
US9275547B2 (en) 2013-11-08 2016-03-01 International Business Machines Corporation Prediction of free parking spaces in a parking area
DE102014209137B4 (de) * 2014-05-14 2023-02-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE112014006493T5 (de) 2014-05-27 2017-01-19 Application Solutions (Electronics and Vision) Ltd. Bestimmen eines Massstabs dreidimensonaler Informationen
US9805602B2 (en) * 2014-07-21 2017-10-31 Ford Global Technologies, Llc Parking service
US9157757B1 (en) 2014-09-03 2015-10-13 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US9625912B2 (en) 2014-09-03 2017-04-18 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US20180339655A1 (en) * 2015-03-03 2018-11-29 HangZhou HaiCun Information Technology Co., Ltd. Detecting Method for Front-Parked Vehicles At Night
US10737617B2 (en) * 2015-03-03 2020-08-11 HangZhou HaiCun Information Technology Co., Ltd. Detecting method for front-parked vehicles at night
DE102015104065A1 (de) * 2015-03-18 2016-09-22 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Position eines Objekts in einem dreidimensionalen Weltkoordinatensystem, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
JP2018517228A (ja) * 2015-03-23 2018-06-28 フィリップス ライティング ホールディング ビー ヴィ 照明器具による駐車誘導
KR102267562B1 (ko) * 2015-04-16 2021-06-22 한국전자통신연구원 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
DE102015208058B4 (de) * 2015-04-30 2017-06-29 Robert Bosch Gmbh Automatisiertes Parksystem
DE102015209147A1 (de) * 2015-05-19 2016-11-24 Hella Kgaa Hueck & Co. Verfahren zur Parkflächenerkennung
DE102015209154A1 (de) * 2015-05-19 2016-11-24 Hella Kgaa Hueck & Co. Verfahren zur Parkflächenlokalisierung
JP6723798B2 (ja) * 2015-05-20 2020-07-15 キヤノン株式会社 情報処理装置、方法、プログラム
GB2533983A (en) * 2015-06-04 2016-07-13 Ford Global Tech Llc Parking assist method and system
CN104916163B (zh) * 2015-06-29 2017-05-03 惠州华阳通用电子有限公司 泊车位检测方法
DE102015214743A1 (de) 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
US11691619B2 (en) 2015-08-12 2023-07-04 Hyundai Motor Company Automatic parking system and automatic parking method
US10392009B2 (en) 2015-08-12 2019-08-27 Hyundai Motor Company Automatic parking system and automatic parking method
US10906530B2 (en) * 2015-11-10 2021-02-02 Hyundai Motor Company Automatic parking system and automatic parking method
US10919574B2 (en) * 2015-11-10 2021-02-16 Hyundai Motor Company Automatic parking system and automatic parking method
CN105451000B (zh) * 2015-12-27 2019-02-15 高田汽车电子(上海)有限公司 一种基于单目后视摄像头的车载全景环视系统及方法
US10156441B2 (en) 2016-01-05 2018-12-18 Texas Instruments Incorporated Ground plane estimation in a computer vision system
CN108885108B (zh) * 2016-01-14 2022-05-10 福特全球技术公司 基于操纵难度的u形转弯辅助
JP6564713B2 (ja) * 2016-02-01 2019-08-21 三菱重工業株式会社 自動運転制御装置、車両及び自動運転制御方法
US9996083B2 (en) 2016-04-28 2018-06-12 Sharp Laboratories Of America, Inc. System and method for navigation assistance
KR101780048B1 (ko) * 2016-07-04 2017-09-19 포항공과대학교 산학협력단 단안 카메라를 이용한 동적 상황에서의 움직이는 물체 검출 방법
KR101864127B1 (ko) * 2016-09-06 2018-06-29 국방과학연구소 무인 차량을 위한 주변 환경 매핑 방법 및 장치
DE102016220079B4 (de) 2016-10-14 2023-04-06 Audi Ag Verfahren zur Ermittlung von Entfernungsdaten
DE102016224131B3 (de) * 2016-12-05 2017-10-26 Audi Ag Ermittlung von Bewegungsdaten eines fahrzeugexternen Objekts durch ein Fahrerassistenzsystem
DE102016124888A1 (de) * 2016-12-20 2018-06-21 Connaught Electronics Ltd. Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken unter Verwendung einer Fahrerassistenzvorrichtung, entsprechendes Computerprogrammprodukt und Fahrerassistenzvorrichtung
KR101915167B1 (ko) * 2016-12-30 2018-11-06 현대자동차주식회사 자동 주차 시스템 및 자동 주차 방법
JP6770903B2 (ja) * 2017-01-19 2020-10-21 株式会社デンソーテン 距離算出装置及び距離算出方法
DE102017201620B4 (de) * 2017-02-01 2025-04-30 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zum automatisierten, teilautomatisierten oder assistierenden Rangieren eines Kraftfahrzeugs
DE102017104957A1 (de) 2017-03-09 2018-09-13 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102017208385A1 (de) * 2017-05-18 2018-11-22 Ford Global Technologies, Llc Verfahren zum Unterstützen eines Einparkvorgangs eines Kraftfahrzeugs, elektronisches Einparkhilfesystem sowie Kraftfahrzeug
WO2019005999A1 (en) * 2017-06-28 2019-01-03 Magic Leap, Inc. METHOD AND SYSTEM FOR PERFORMING SIMULTANEOUS MAPPING AND LOCALIZATION USING CONVOLUTIONAL IMAGE TRANSFORMATION
CN107316492B (zh) * 2017-07-25 2020-10-23 纵目科技(上海)股份有限公司 在图像中定位停车位的方法及系统
KR20190041173A (ko) * 2017-10-12 2019-04-22 엘지전자 주식회사 자율주행 차량 및 그 제어 방법
EP3480624B1 (en) * 2017-11-07 2021-12-29 Veoneer Sweden AB Detection of parking row orientation
KR102008257B1 (ko) * 2017-11-10 2019-08-07 현대오트론 주식회사 차량 추적 장치 및 그것의 동작 방법
DE102018101513A1 (de) * 2018-01-24 2019-07-25 Valeo Schalter Und Sensoren Gmbh Verfahren zur Detektion von Garagenparkplätzen
KR102698110B1 (ko) * 2018-04-18 2024-08-23 모빌아이 비젼 테크놀로지스 엘티디. 카메라를 이용한 차량 환경 모델링
DE102018205879A1 (de) * 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
CN110733373B (zh) * 2018-07-03 2023-10-03 奥迪股份公司 用于车辆充电的导引方法及系统、装置以及计算机设备
US10778943B2 (en) 2018-07-17 2020-09-15 C-Tonomy, LLC Autonomous surveillance duo
CN109102559B (zh) * 2018-08-16 2021-03-23 Oppo广东移动通信有限公司 三维模型处理方法和装置
JP7236857B2 (ja) 2018-12-14 2023-03-10 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095624A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置、および画像処理方法
JP7203587B2 (ja) 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP7226986B2 (ja) 2018-12-14 2023-02-21 株式会社デンソーテン 画像処理装置および画像処理方法
JP7203586B2 (ja) 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP7141940B2 (ja) 2018-12-14 2022-09-26 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095623A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095620A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP7359541B2 (ja) 2018-12-14 2023-10-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP7252750B2 (ja) 2018-12-14 2023-04-05 株式会社デンソーテン 画像処理装置および画像処理方法
JP7195131B2 (ja) 2018-12-14 2022-12-23 株式会社デンソーテン 画像処理装置および画像処理方法
CN109829935B (zh) * 2018-12-29 2021-02-19 百度在线网络技术(北京)有限公司 车辆的场景序列跟踪处理方法、装置及车辆
US10628688B1 (en) * 2019-01-30 2020-04-21 Stadvision, Inc. Learning method and learning device, and testing method and testing device for detecting parking spaces by using point regression results and relationship between points to thereby provide an auto-parking system
CN109785639A (zh) * 2019-03-01 2019-05-21 北京猎户智芯科技有限公司 一种基于虚拟摄像机的车辆识别方法
US10755571B1 (en) * 2019-03-01 2020-08-25 Amazon Technologies, Inc. Identifying parking location using single camera reverse projection
US10867192B1 (en) * 2019-08-06 2020-12-15 Black Sesame International Holding Limited Real-time robust surround view parking space detection and tracking
KR102673307B1 (ko) * 2019-08-09 2024-06-12 현대자동차주식회사 주차 제어 장치, 그를 포함한 시스템 및 그 방법
CN111160172B (zh) * 2019-12-19 2024-04-16 武汉佑驾创新科技有限公司 泊车位检测方法、装置、计算机设备和存储介质
US11961304B2 (en) * 2020-07-07 2024-04-16 Lyft, Inc. Systems and methods for deriving an agent trajectory based on multiple image sources
US11961241B2 (en) 2020-07-07 2024-04-16 Lyft, Inc. Systems and methods for deriving an agent trajectory based on tracking points within images
US12300105B2 (en) * 2021-04-21 2025-05-13 Waymo Llc Identifying parkable areas for autonomous vehicles
CN113240734B (zh) * 2021-06-01 2024-05-17 深圳市捷顺科技实业股份有限公司 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质
CN115503689A (zh) * 2021-06-03 2022-12-23 上海汽车集团股份有限公司 一种基于立体车位的泊车方法和装置
KR20230000585A (ko) * 2021-06-25 2023-01-03 삼성전자주식회사 센서 캘리브레이션 방법 및 장치
DE102021118658A1 (de) 2021-07-20 2023-01-26 Avl Software And Functions Gmbh Verfahren zur Erkennung von Parkflächen für ein Fahrzeug
JP2023017466A (ja) * 2021-07-26 2023-02-07 株式会社Subaru 駐車支援装置
US20230031425A1 (en) * 2021-08-02 2023-02-02 DUS Operating Inc, Methodology to estimate slot line direction for parking slot detection
CN113753029B (zh) * 2021-08-27 2023-11-17 惠州华阳通用智慧车载系统开发有限公司 一种基于光流法的自动泊车方法及系统
CN113870613B (zh) * 2021-10-14 2022-09-30 中国第一汽车股份有限公司 停车位确定方法、装置、电子设备及存储介质
DE102021127748A1 (de) 2021-10-26 2023-04-27 Valeo Schalter Und Sensoren Gmbh Verfahren, computerprogrammprodukt, parkassistenzsystem und fahrzeug
CN114648890B (zh) * 2022-03-23 2023-02-28 深圳一清创新科技有限公司 一种停车位状态检测方法、装置及智能车
CN115206130B (zh) * 2022-07-12 2023-07-18 合众新能源汽车股份有限公司 一种车位检测方法、系统、终端及存储介质
US12260759B2 (en) * 2023-04-14 2025-03-25 Volvo Car Corporation Parking spot identification and annotation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003118522A (ja) 2001-10-18 2003-04-23 Clarion Co Ltd 駐車支援装置
JP2006096312A (ja) 2004-09-30 2006-04-13 Clarion Co Ltd 駐車支援システム
JP2007176244A (ja) 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE20105340U1 (de) * 2001-03-26 2001-07-26 Daimler Chrysler Ag Dimensionale Umfelderfassung
DE10138719A1 (de) * 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
JP4839325B2 (ja) * 2005-01-19 2011-12-21 タカタ・ペトリ アーゲー 自動車用ステアリングホイールアセンブリ
US7457433B2 (en) * 2005-01-20 2008-11-25 International Business Machines Corporation System and method for analyzing video from non-static camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003118522A (ja) 2001-10-18 2003-04-23 Clarion Co Ltd 駐車支援装置
JP2006096312A (ja) 2004-09-30 2006-04-13 Clarion Co Ltd 駐車支援システム
JP2007176244A (ja) 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111845713A (zh) * 2019-04-26 2020-10-30 东莞潜星电子科技有限公司 一种基于车载3d全景环视的泊车路线规划方法

Also Published As

Publication number Publication date
DE102009012435B4 (de) 2014-08-28
DE102009012435A1 (de) 2010-01-07
US8134479B2 (en) 2012-03-13
KR20090103165A (ko) 2009-10-01
US20090243889A1 (en) 2009-10-01

Similar Documents

Publication Publication Date Title
KR101188588B1 (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
US11679635B2 (en) Vehicular trailer hitching assist system with coupler height and location estimation
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
Suhr et al. Automatic free parking space detection by using motion stereo-based 3D reconstruction
US10652466B2 (en) Method and device for stabilization of a surround view image
US8102427B2 (en) Camera egomotion estimation from an infra-red image sequence for night vision
US7321386B2 (en) Robust stereo-driven video-based surveillance
US10650255B2 (en) Vehicular vision system with object detection
EP2948927B1 (en) A method of detecting structural parts of a scene
JP6767998B2 (ja) 画像の線からのカメラの外部パラメータ推定
EP2570993A2 (en) Egomotion estimation system and method
EP3803790B1 (en) Motion segmentation in video from non-stationary cameras
JP6032034B2 (ja) 物体検知装置
EP3259732B1 (en) Method and device for stabilization of a surround view image
JP4344860B2 (ja) ステレオ画像を用いた道路平面領域並びに障害物検出方法
EP3566206B1 (en) Visual odometry
KR20100066952A (ko) 스테레오 비전을 이용하여 장애물을 추적하는 장치 및 방법
JP7311407B2 (ja) 姿勢推定装置、および、姿勢推定方法
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
KR101071061B1 (ko) 차량의 특징점을 이용한 운전 보조 장치 및 방법과 이에 사용되는 마이크로프로세서 및 기록매체
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
US20230421739A1 (en) Robust Stereo Camera Image Processing Method and System
WO2022269875A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
Jung Target position designation method for parking assistant system
Deigmoeller et al. Monocular rear approach indicator for motorcycles

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20080327

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20100611

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20080327

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20120523

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
GRNT Written decision to grant
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20120927

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20120927

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20120927

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20150630

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20160630

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20160630

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20170622

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20170622

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20180626

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20180626

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20200617

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20210802

Start annual number: 10

End annual number: 10

PR1001 Payment of annual fee

Payment date: 20220620

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20230622

Start annual number: 12

End annual number: 12

PR1001 Payment of annual fee

Payment date: 20240624

Start annual number: 13

End annual number: 13

PR1001 Payment of annual fee

Payment date: 20250623

Start annual number: 14

End annual number: 14