[go: up one dir, main page]

KR20180000205A - 지능형 영상 분석 장치 및 방법 - Google Patents

지능형 영상 분석 장치 및 방법 Download PDF

Info

Publication number
KR20180000205A
KR20180000205A KR1020160078085A KR20160078085A KR20180000205A KR 20180000205 A KR20180000205 A KR 20180000205A KR 1020160078085 A KR1020160078085 A KR 1020160078085A KR 20160078085 A KR20160078085 A KR 20160078085A KR 20180000205 A KR20180000205 A KR 20180000205A
Authority
KR
South Korea
Prior art keywords
feature information
filtering
detection
information
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020160078085A
Other languages
English (en)
Other versions
KR102407202B1 (ko
Inventor
최성록
이재영
정재찬
조재일
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160078085A priority Critical patent/KR102407202B1/ko
Publication of KR20180000205A publication Critical patent/KR20180000205A/ko
Application granted granted Critical
Publication of KR102407202B1 publication Critical patent/KR102407202B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

지능형 영상 분석 장치 및 방법이 개시된다. 본 발명에 따른 지능형 영상 분석 장치는, 영상 정보에 포함된 물체를 검출하는 물체 검출부, 상기 영상 정보를 촬영한 촬영 장치의 3차원 위치 및 자세 정보를 이용하여, 검출된 상기 물체의 특징 정보를 추출하는 특징 정보 추출부, 추출된 상기 특징 정보를 이용하여, 상기 물체의 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함하는 오탐지 필터링을 수행하는 오탐지 필터링부, 그리고 상기 오탐지 필터링 결과 상기 물체가 최종 검출 물체인 것으로 판단된 경우, 상기 최종 검출 물체가 탐지되었음을 알리는 탐지 결과를 생성하는 탐지 결과 생성부를 포함한다.

Description

지능형 영상 분석 장치 및 방법{APPARATUS AND METHOD FOR INTELLIGENTLY ANALYZING VIDEO}
본 발명은 지능형 영상 분석 기술에 관한 것으로, 특히 영상에 포함된 물체의 오탐지 필터링을 수행하고, 오탐지 필터링 결과 최종 검출 물체인 것으로 판단된 경우, 최종 검출 물체가 탐지되었음을 알리는 기술에 관한 것이다.
오늘날, 사건 및 사고를 모니터링하거나, 증거를 확보하기 위하여 CCTV가 많이 설치되었으며, 앞으로 더 많은 CCTV가 설치될 것으로 예상된다. 종래의 CCTV들은 단순히 영상을 모니터링하고, 촬영한 영상을 저장하는 기능만 수행하였으며, 사람이 CCTV를 모니터링하며 이벤트의 발생을 감시하였다.
그러나 미국 Buyer Beware의 2002년도 연구 결과에 따르면, 한 사람이 두 대 이상의 CCTV를 22분 이상 모니터링 할 경우, 중요 이벤트의 95%를 감지하지 못하였다. 또한 매년 추가적으로 설치되는 CCTV의 개수가 크게 증가하고, HD급 이상의 고화질 CCTV가 보급됨에 따라 영상 정보량이 급증하였으며, 사람에 의한 CCTV 운영 감시에는 한계가 발생하였다.
이에 따라, CCTV의 영상을 분석하여, 이상 행동 및 이상 상황을 감지하고 알려주는 지능형 영상 감시 및 지능형 영상 분석 기술 개발의 필요성이 증가하였다. 그러나, 현재 제품으로 출시된 지능형 영상 감시 시스템은 오탐지 및 오검출과 같은 성능의 한계로 인하여 널리 사용되지 못하고 있다.
예를 들어, 철도 선로를 침범하는 사람을 인지하는 지능형영상감시 시스템의 경우, 사람이 아닌 카메라 앞의 움직이는 날벌레를 사람으로 오인식하는 경우가 많다.
또한, 지능형 영상 감시 시스템은 사건 및 사고를 카메라 단위 또는 픽셀 단위로 표현한다. 종래의 지능형 영상 감시 시스템은 예를 들어, "7번 카메라에서 사건 A가 감지되었다." 또는 "7번 카메라의 (329, 417) 픽셀에서 사건 A가 감지되었다"라고 사용자에게 알려줄 뿐, 구체적으로 어느 위치에서 사건이 발생하였는지에 대한 정보는 제공하지 않았다.
따라서 사건이나 사고가 발생한 정확한 위치를 확인하기 어렵고, 사고 대응까지 많은 시간이 소요된다. 특히, 다수의 카메라가 설치된 공간이나, PTZ카메라(pan-tilt-zoom camera)나 어안카메라(fisheye camera)와 같이 촬영 범위가 넓은 카메라를 이용하는 경우 발생한 사고의 정확한 위치를 파악하기 위해서는 사용자가 직접 영상을 보고 판단해야 하는 불편함이 많다.
따라서, 감지된 물체의 오탐지 문제를 해결하고, 감지된 사고가 발생한 정확한 위치를 실제 공간의 정보와 매핑하여 제공하는 기술의 개발이 필요하다.
한국 공개 특허 제10-2010-0097886호, 2010년 09월 06일 공개(명칭: 다수의 가상 평면 정보를 이용한 3차원 물체의 기하 정보 추출 방법)
본 발명의 목적은 종래의 지능형 감시 시스템의 성능 한계 및 표현 한계를 해결하는 것이다.
또한, 본 발명의 목적은 2차원 평면 상에 위치하지 않는 물체를 필터링하여, 지능형 감시 시스템의 오탐률을 낮추는 것이다.
또한, 본 발명의 목적은 탐지 대상의 특징 정보 범위에 포함되지 않는 물체를 필터링하여, 지능형 감시 시스템의 오탐률을 낮추는 것이다.
또한, 본 발명의 목적은 사건 발생 위치를 지도 상에 표시하거나, 가장 가까운 시설물의 위치를 이용하여 탐지 결과를 표시함으로써, 사용자가 직관적으로 사건 발생 위치를 파악할 수 있도록 하는 것이다.
상기한 목적을 달성하기 위한 본 발명에 따른 지능형 영상 분석 장치는 영상 정보에 포함된 물체를 검출하는 물체 검출부, 상기 영상 정보를 촬영한 촬영 장치의 3차원 위치 및 자세 정보를 이용하여, 검출된 상기 물체의 특징 정보를 추출하는 특징 정보 추출부, 추출된 상기 특징 정보를 이용하여, 상기 물체의 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함하는 오탐지 필터링을 수행하는 오탐지 필터링부, 그리고 상기 오탐지 필터링 결과 상기 물체가 최종 검출 물체인 것으로 판단된 경우, 상기 최종 검출 물체가 탐지되었음을 알리는 탐지 결과를 생성하는 탐지 결과 생성부를 포함한다.
이때, 상기 3D 위치 필터링은, 상기 물체가 2차원 평면 상에 위치하는지 여부를 확인하는 것 일 수 있다.
이때, 상기 특징 정보 필터링은, 상기 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것 일 수 있다.
이때, 상기 특징 정보 필터링은, 상기 탐지 대상의 특징 정보와 상기 물체의 특징 정보 간 확률적 거리를 이용하여, 상기 물체의 특징 정보가 상기 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것 일 수 있다.
이때, 상기 특징 정보 필터링은, 상기 3D 위치 필터링을 수행한 결과, 상기 물체가 상기 2차원 평면 상에 위치하는 것으로 판단된 경우 수행될 수 있다.
이때, 상기 탐지 대상의 특징 정보 범위는, 기 촬영된 상기 영상 정보들을 분석한 결과를 통계적으로 추정하여 생성된 것 일 수 있다.
이때, 상기 탐지 결과 생성부는, 지도, 도면 및 지리 정보 체계(GIS) 중 적어도 하나를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 출력할 수 있다.
이때, 상기 탐지 결과 생성부는,
시설물 위치 DB를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 문장 형태로 출력할 수 있다.
이때, 상기 특징 정보는, 검출된 상기 물체의 위치, 크기, 이동 궤적 및 이동 속도 중 적어도 하나를 포함할 수 있다.
이때, 상기 특징 정보는, 미터 및 마일 중 적어도 어느 하나의 길이 단위인 것을 특징으로 하며, 상기 탐지 결과는, 상기 길이 단위를 이용하여 상기 최종 검출 물체에 상응하는 사건의 발생을 알리도록 생성되는 것 일 수 있다.
또한, 본 발명의 일실시예에 따른 지능형 영상 분석 장치에 의해 수행되는 지능형 영상 분석 방법은 영상 정보에 포함된 물체를 검출하는 단계, 상기 영상 정보를 촬영한 촬영 장치의 3차원 위치 및 자세 정보를 이용하여, 검출된 상기 물체의 특징 정보를 추출하는 단계, 추출된 상기 특징 정보를 이용하여, 상기 물체의 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함하는 오탐지 필터링을 수행하는 단계, 그리고 상기 오탐지 필터링 결과 상기 물체가 최종 검출 물체인 것으로 판단된 경우, 상기 최종 검출 물체가 탐지되었음을 알리는 탐지 결과를 생성하는 단계를 포함한다.
이때, 상기 3D 위치 필터링은, 상기 물체가 2차원 평면 상에 위치하는지 여부를 확인하는 것일 수 있다.
이때, 상기 특징 정보 필터링은, 상기 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것일 수 있다.
이때, 상기 특징 정보 필터링은, 상기 탐지 대상의 특징 정보와 상기 물체의 특징 정보 간 확률적 거리를 이용하여, 상기 물체의 특징 정보가 상기 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것일 수 있다.
이때, 상기 특징 정보 필터링은, 상기 3D 위치 필터링을 수행한 결과, 상기 물체가 상기 2차원 평면 상에 위치하는 것으로 판단된 경우 수행될 수 있다.
이때, 상기 탐지 대상의 특징 정보 범위는, 기 촬영된 상기 영상 정보들을 분석한 결과를 통계적으로 추정하여 생성된 것일 수 있다.
이때, 상기 탐지 결과를 생성하는 단계는, 지도, 도면 및 지리 정보 체계(GIS) 중 적어도 하나를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 출력할 수 있다.
이때, 상기 탐지 결과를 생성하는 단계는, 시설물 위치 DB를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 문장 형태로 출력할 수 있다.
이때, 상기 특징 정보는, 검출된 상기 물체의 위치, 크기, 이동 궤적 및 이동 속도 중 적어도 하나를 포함할 수 있다.
이때, 상기 특징 정보는, 미터 및 마일 중 적어도 어느 하나의 길이 단위인 것을 특징으로 하며, 상기 탐지 결과는, 상기 길이 단위를 이용하여 상기 최종 검출 물체에 상응하는 사건의 발생을 알리도록 생성되는 것일 수 있다.
본 발명에 따르면, 종래의 지능형 감시 시스템의 성능 한계 및 표현 한계를 해결할 수 있다.
또한 본 발명에 따르면, 2차원 평면 상에 위치하지 않는 물체를 필터링하여, 지능형 감시 시스템의 오탐률을 낮출 수 있다.
또한 본 발명에 따르면, 탐지 대상의 특징 정보 범위에 포함되지 않는 물체를 필터링하여, 지능형 감시 시스템의 오탐률을 낮출 수 있다.
또한 본 발명에 따르면, 사건 발생 위치를 지도 상에 표시하거나, 가장 가까운 시설물의 위치를 이용하여 탐지 결과를 표시함으로써, 사용자가 직관적으로 사건 발생 위치를 파악할 수 있다.
도 1은 본 발명의 일실시예에 따른 지능형 영상 분석 장치가 적용되는 환경을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 지능형 영상 분석 장치의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 지능형 영상 분석 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 일실시예에 따른 지능형 영상 분석 장치의 최종 검출 물체 판단 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따른 탐지 결과 생성 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따라 생성된 탐지 결과의 일 예를 나타낸 예시도이다.
도 7은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 지능형 영상 분석 장치가 적용되는 환경을 개략적으로 나타낸 도면이다.
도 1에 도시한 바와 같이, 지능형 영상 분석 시스템은 하나 이상의 촬영 장치(100), 지능형 영상 분석 장치(200), 특징 정보 DB(310), 시설물 위치 DB(350) 및 탐지 결과 출력 장치(400)를 포함한다.
먼저, 촬영 장치(100)는 실내 또는 실외에 설치된 CCTV일 수 있으며, 지정된 촬영 영역을 촬영하는 통상의 카메라를 의미할 수 있다. 촬영 장치(100)는 설치 목적과 설치 장소 및 관리 규모 등을 고려하여 하나 이상 설치될 수 있으며, 촬영 장치(100)는 촬영한 영상 정보를 지능형 영상 분석 장치(200)로 전송한다.
또한, 촬영 장치(100)의 촬영 영역에 상응하는 공간은 평면이고, 감지하고자 하는 객체인 물체는 그 평면 위에 있을 수 있다. 그리고 공간은 하나의 평면 또는 복수 개의 평면으로 구성될 수 있다.
예를 들어, 촬영 영역이 철도 역사인 경우, 승객들이 열차에 탑승하거나 하차하는 공간은 승객들이 서있는 승강장인 제1 평면과 선로가 있는 지면인 제2 평면, 즉 2개의 평면으로 표현될 수 있다.
그리고 지능형 영상 분석 장치(200)는 영상 정보에 포함된 물체를 검출하고, 검출된 물체의 특징 정보를 추출한다. 또한, 지능형 영상 분석 장치(200)는 물체의 특징 정보를 이용하여, 검출된 물체가 최종 검출 물체인지 여부를 판단하며, 최종 검출 물체인 것으로 판단된 경우, 탐지 결과를 생성한다.
이때, 지능형 영상 분석 장치(200)는 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함하는 오탐지 필터링을 수행하여, 검출된 물체가 최종 검출 물체인지 여부를 판단할 수 있다.
또한, 특징 정보 DB(310)는 탐지 대상의 특징 정보를 저장하며, 지능형 영상 분석 장치(200)는 특징 정보 DB(310)에 저장된 탐지 대상의 특징 정보를 이용하여, 검출된 물체가 최종 검출 물체인지 여부를 판단할 수 있다.
그리고 시설물 위치 DB(350)는 촬영 장치(100)가 촬영하는 공간에 상응하는 시설물의 위치 정보를 저장하고, 지능형 영상 분석 장치(200)는 시설물 위치 DB(350)에 저장된 시설물의 위치 정보를 이용하여 탐지 결과를 생성할 수 있다.
마지막으로, 탐지 결과 출력 장치(400)는 지능형 영상 분석장치(200)로부터 탐지 결과를 수신하고, 수신된 탐지 결과를 사용자에게 출력한다. 이때, 탐지 결과 출력 장치(400)는 음성, 문자, 이미지 및 영상 중 적어도 하나의 방법으로 탐지 결과를 출력할 수 있다.
설명의 편의상, 탐지 결과 출력 장치(400)가 탐지 결과를 출력하는 것으로 설명하였으나 이에 한정하지 않고, 지능형 영상 분석 장치(200)가 구비된 출력부를 통하여 탐지 결과를 출력할 수도 있다.
도 2는 본 발명의 일실시예에 따른 지능형 영상 분석 장치의 구성을 나타낸 블록도이다.
도 2에 도시한 바와 같이, 지능형 영상 분석 장치(200)는 물체 검출부(210), 특징 정보 추출부(220), 오탐지 필터링부(230) 및 탐지 결과 생성부(240)를 포함한다.
먼저, 물체 검출부(210)는 영상 정보에 포함된 물체를 검출한다. 이때, 영상 정보는 지능형 영상 분석 장치(200)가 직접 촬영한 것이거나, 하나 이상의 촬영 장치로부터 수신한 것 일 수 있다.
그리고 특징 정보 추출부(220)는 영상 정보를 촬영한 촬영 장치의 3차원 위치 및 자세 정보를 이용하여, 검출된 물체의 특징 정보를 추출한다.
물체의 특징 정보는 검출된 물체의 위치, 크기, 이동 궤적 및 이동 속도 중 적어도 하나를 포함한다. 또한, 특징 정보는 미터 단위 또는 마일 단위와 같이 길이 단위로 표현될 수 있다.
다음으로 오탐지 필터링부(230)는 추출된 물체의 특징 정보를 이용하여, 물체의 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함하는 오탐지 필터링을 수행한다.
여기서, 3D 위치 필터링은, 물체가 2차원 평면 상에 위치하는지 여부를 확인하는 필터링을 의미하고, 특징 정보 필터링은 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함 되는지 여부를 판단하는 필터링을 의미할 수 있다.
이때, 특징 정보 필터링은 탐지 대상의 특징 정보와 물체의 특징 정보 간 확률적 거리를 이용하여 물체의 특징 정보가 탐지 대상의 특징 정보 범위 내에 포함되는지 여부를 판단할 수 있다. 또한, 탐지 대상의 특징 정보 범위는 지능형 영상 분석 장치(200)가 기 촬영된 영상 정보들을 분석하여 통계적으로 추정한 것일 수 있다.
그리고 오탐지 필터링부(230)는 3D 위치 필터링 및 특징 정보 필터링 중 어느 하나를 수행하거나, 3D 위치 필터링을 수행한 후, 3D 위치 필터링 결과에 따라 특징 정보 필터링을 수행할 수도 있다.
마지막으로, 탐지 결과 생성부(240)는 오탐지 필터링 결과 물체가 최종 검출 물체인 것으로 판단된 경우, 최종 검출 물체가 탐지되었음을 알리는 탐지 결과를 생성한다.
이때, 탐지 결과는 탐지된 최종 검출 물체의 유형, 최종 검출 물체에 상응하는 사건/사고의 종류 및 사건/사고가 발생한 위치 등을 포함할 수 있으며, 미터 또는 마일과 같이 길이 단위를 이용하여 최종 검출 물체에 상응하는 사건의 발생을 알리도록 생성된 것일 수 있다.
그리고 탐지 결과 생성부(240)는 지도, 도면 및 지리 정보 체계(GIS) 중 적어도 하나를 이용하여 최종 검출 물체의 탐지 결과를 출력할 수 있다.
이하에서는 도 3 내지 도 6을 통하여, 본 발명의 일실시예에 따른 지능형 영상 분석 장치에 의해 수행되는 지능형 영상 분석 방법에 대하여 더욱 상세하게 설명한다.
도 3은 본 발명의 일실시예에 따른 지능형 영상 분석 방법을 설명하기 위한 순서도이다.
먼저, 지능형 영상 분석 장치(200)는 영상 정보에 포함된 물체를 검출한다(S310).
지능형 영상 분석 장치(200)는 하나 이상의 촬영 장치 또는 영상 관리 서버 등으로부터 영상 정보를 수신하거나, 지능형 영상 분석 장치(200)에 구비된 촬영부를 이용하여 직접 영상을 촬영할 수 있다. 또한 지능형 영상 분석 장치(200)는 실시간으로 촬영된 영상 정보를 수신하여 물체를 검출할 수 있다.
그리고 지능형 영상 분석 장치(200)는 영상 정보 상에 포함된 물체를 검출한다. 이때, 물체는 사람, 동물 및 물건과 같은 객체일 수 있으며, 특히 움직임이 있거나 이동성을 가질 수 있다.
지능형 영상 분석 장치(200)가 검출하는 물체의 종류 및 유형은 사전에 정의된 것일 수 있으며, 지능형 영상 분석 장치(200)는 기 정의된 물체의 종류 및 유형에 상응하는 객체를 S310 단계에서 검출할 수 있다.
그리고 지능형 영상 분석 장치(200)는 검출된 물체의 특징 정보를 추출한다(S320).
지능형 영상 분석 장치(200)는 영상 정보를 촬영한 촬영 장치의 3차원 위치 및 자세 정보를 이용하여, S310 단계에서 검출된 물체의 특징 정보를 추출한다. 이때, 촬영 장치의 3차원 위치는 정해진 절대 좌표를 기준으로 하는 x좌표, y좌표, z좌표를 포함하고, 촬영 장치의 자세 정보는 롤(roll), 요(yaw), 피치(pitch)를 포함할 수 있다.
설명의 편의상, 지능형 영상 분석 장치(200)가 촬영 장치의 3차원 위치 및 자세 정보를 이용하여 물체의 특징 정보를 추출하는 것으로 설명하였으나 이에 한정하지 않고 지능형 영상 분석 장치(200)는 스테레오 카메라나 거리측정 센서 등을 이용하여 물체의 특징 정보를 추출할 수도 있다.
지능형 영상 분석 장치(200)가 추출하는 물체의 특징 정보는 검출된 물체의 위치, 크기, 이동 궤적 및 이동 속도 중 적어도 하나를 포함할 수 있다. 특히, 지능형 영상 분석 장치(200)는 픽셀 단위로 표현되는 영상에서의 물체의 위치 및 크기를 실제 공간 상에서 물체의 위치 및 실제 크기로 표현할 수 있다. 그리고 물체의 위치 및 크기는 미터 및 마일 중 적어도 어느 하나의 길이 단위로 표현될 수 있다.
물체의 위치는 공간 내에서 물체의 실제 위치를 의미하며, 영상 정보 상에서 물체와 바닥 면이 맞닿는 점(접점)으로부터 물체의 위치에 상응하는 특징 정보를 추출할 수 있다.
또한, 물체의 크기는 공간 내에서 물체의 실제 크기를 의미하며, 영상 정보 상에서 접점과 영상 정보 상에서 물체의 크기(폭, 높이)로부터 물체의 실제 크기에 상응하는 특징 정보를 추출할 수 있다.
그리고 지능형 영상 분석 장치(200)는 기 설정된 시간 동안의 물체의 위치 및 크기를 이용하여, 물체의 이동 궤적 및 물체의 속도를 연산할 수 있다. 이때, 물체의 이동 궤적 및 물체의 속도는 물체의 위치 및 크기와 동일하게, 길이 단위로 표현될 수 있다.
지능형 영상 분석 장치(200)는 S320 단계를 통하여, 영상 정보 내의 픽셀 단위로 특징 정보를 추출하는 종래 기술과 달리, 실제 공간 평면 상의 길이 단위로 물체의 특징 정보를 추출할 수 있으며, 추출된 특징 정보는 기하학적 의미를 갖는다.
다음으로, 지능형 영상 분석 장치(200)는 추출된 특징 정보를 이용하여, 검출된 물체의 오탐지 필터링을 수행하고(S330), 오탐지 필터링 결과를 이용하여, 검출된 물체가 최종 검출 물체인지 여부를 판단한다(S340).
오탐지 필터링은 물체의 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함할 수 있다. 지능형 영상 분석 장치(200)는 검출된 물체가 잘못 감지된 물체이거나, 최종 검출 물체가 아닌 경우를 제외하여 오탐지를 줄이기 위하여, 오탐지 필터링을 수행한다.
오탐지 필터링 중, 3D 위치 필터링은 물체가 2차원 평면 상에 위치하는지 여부를 확인하는 것의 의미하고, 특징 정보 필터링은 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것을 의미할 수 있다.
예를 들어, 지능형 영상 분석 장치(200)가 철도 역사의 승강장에 위치한 사람을 감지하는 경우, 탐지 대상은 승강장 위에 위치한 사람을 의미한다. 그리고 탐지 대상의 특징 정보는 승강장 위의 사람의 위치, 승강장 위의 사람의 크기, 승강장 위의 사람의 이동 궤적 및 승강장 위의 사람의 이동 속도 중 적어도 하나를 포함할 수 있다.
그리고 승강장 위의 사람의 위치는 승강장, 선로, 계단 및 에스컬레이터 위 일 수 있고, 승강장 위의 사람의 크기는 폭이 0.3m 내지 0.8m 일 수 있으며, 높이는 0.8m 내지 2.0m 일 수 있다. 또한, 사람의 크기 값의 변화량은 거의 일정하게 유지되므로, 사람의 크기 값의 변화량에 상응하는 값을 크기 기준값으로 설정할 수 있다.
또한, 승강장 위의 사람의 이동 궤적은 특징이 없으므로 탐지 대상의 특징 정보로 설정되지 않을 수 있으며, 승강장 위의 사람의 이동 속도는 0 내지 1m/s일 수 있다.
이러한 탐지 대상의 특징 정보는 사용자가 정의한 것이거나, 지능형 영상 분석 장치(200)가 과거에 기 촬영된 영상 정보들을 분석하여 통계적으로 추정하고, 기계 학습을 수행한 결과로 생성한 것 일 수 있다.
그리고 S330 단계에서, 검출된 물체가 촬영 장치 앞을 이동하는 날벌레인 경우, 지능형 영상 분석 장치(200)는 3D 위치 필터링을 수행하여 날벌레를 최종 검출 물체가 아닌 것으로 판단할 수 있다.
예를 들어, 영상 정보 상에서는 날벌레가 사람 크기만큼 크게 보일 수 있으며, 날벌레의 특징 정보 추출 결과, 날벌레의 크기는 1m 내지 4m 범위에서 크기 기준값보다 크게 변화하고, 날벌레의 이동 속도는 0 내지 5m/s의 범위에서 이동 속도 기준값보다 크게 변화할 수 있다.
날벌레가 평면 위를 움직이는 것이 아니므로 날벌레의 특징 정보는 탐지 대상의 특징 정보 범위에 포함되지 않을 수 있으며, 지능형 영상 분석 장치(200)는 3D 위치 필터링을 수행하여 날벌레에 상응하는 물체를 최종 검출 물체가 아닌 것으로 판단할 수 있다.
즉, 지능형 영상 분석 장치(200)는 날벌레의 특징 정보와 탐지 대상의 특징 정보를 비교하여 2차원 위치 필터링을 수행함으로써, 날벌레에 의한 오탐지 문제를 해결할 수 있다.
설명의 편의상, 지능형 영상 분석 장치(200)가 물체의 특징 정보를 이용하여 3D 위치 필터링을 수행하는 것으로 설명하였으나 이에 한정하지 않고, 지능형 영상 분석 장치(200)는 검출된 물체와 공간의 평면상 접점을 탐색하고, 접점이 공간의 평면 상에 존재하지 않을 경우, 해당 물체는 최종 검출 물체가 아닌 것으로 판단하여 물체의 오탐률을 줄일 수도 있다.
또한, 지능형 영상 분석 장치(200)는 특징 정보 필터링을 수행하여, S310 단계에서 검출된 물체가 최종 검출 물체인지 여부를 판단할 수 있다.
예를 들어, S310 단계에서 검출된 물체가 공이고, S320 단계에서 공의 크기가 0.25m 내지 0.28m 범위 내에서 기 설정된 크기 기준값보다 작게 변화한다는 공의 특징 정보를 추출한 경우, 지능형 영상 분석 장치(200)는 공의 특징 정보와 탐지 대상의 특징 정보 범위를 비교하여 공에 의한 오탐지 문제를 해결할 수도 있다.
여기서, 지능형 영상 분석 장치(200)는 각 조건이 독립적이라는 가정하에, 탐지 대상의 특징 정보 범위에 검출된 물체의 특징 정보가 모두 포함되는지 여부를 판단하여 3D 위치 필터링을 수행할 수 있다.
또한, 지능형 영상 분석 장치(200)는 탐지 대상의 특징 정보를 평균, 표준편차 및 히스토그램 중 적어도 어느 하나와 같이 확률적으로 표현하고, 확률적으로 표현된 탐지 대상의 특징 정보와 물체의 특징 정보 간 확률적 거리를 계산한다. 그리고 지능형 영상 분석 장치(200)는 계산된 확률적 거리를 이용하여 해당 물체가 최종 검출 물체인지 여부를 판단할 수 있다.
이때, 지능형 영상 분석 장치(200)는 확률적 거리로 마할라노비스 거리(Mahalanobis distance)를 계산할 수 있으며, 지능형 영상 분석 장치(200)가 계산하는 확률적 거리의 종류는 이에 한정되지 않는다.
또한, 지능형 영상 분석 장치(200)는 3D 위치 필터링 및 특징 정보 필터링 중에서 어느 하나를 수행하거나, 3D 위치 필터링 결과 검출된 물체가 2차원 평면 상에 위치하는 것으로 판단된 경우 특징 정보 필터링을 수행할 수도 있다.
이를 통하여, 지능형 영상 분석 장치(200)는 기준이 되는 평면 위에 위치하지 않은 물체(예, 날벌레) 및 기준이 되는 평면 위에 위치하지만, 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함되지 않는 물체(예, 공)에 대한 오탐지 문제를 해결할 수 있다.
설명의 편의상 탐지 대상의 특징 정보가 사람에 상응하는 특징 정보인 것으로 설명하고, 지능형 영상 분석 장치(200)가 탐지 대상의 특징 정보를 이용하여 사람이 아닌 물체의 탐지를 오탐지로 간주하는 것으로 설명하였으나 이에 한정하지 않고, 탐지 대상은 사람 이외의 동물, 차량 등과 같은 물체일 수 있으며, 탐지 대상에 상응하도록 탐지 대상의 특징 정보가 설정될 수 있다.
도 4는 본 발명의 일실시예에 따른 지능형 영상 분석 장치의 최종 검출 물체 판단 과정을 설명하기 위한 도면이다.
도 4에 도시한 바와 같이, 지능형 영상 분석 장치(200)는 특징 정보 DB에 저장된 탐지 대상의 특징 정보 범위와 추출된 물체의 특징 정보를 비교한다.
특징 정보 비교 결과, 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함될 경우, 지능형 영상 분석 장치(200)는 해당 물체가 최종 검출 물체인 것으로 판단한다. 반면, 물체의 특징 정보가 탐지 대상의 특징 정보 범위 내에 포함되지 않을 경우, 지능형 영상 분석 장치(200)는 해당 물체가 오탐지된 물체인 것으로 판단한다.
그리고 물체가 최종 검출 물체인 것으로 판단된 경우, 지능형 영상 분석 장치(200)는 탐지 결과를 생성한다(S350).
지능형 영상 분석 장치(200)는 최종 검출 물체의 유형, 최종 검출 물체에 상응하는 사건/사고의 종류 및 사건/사고가 발생한 위치 등 중에서 적어도 하나를 포함할 수 있다.
또한, 지능형 영상 분석 장치(200)는 시설물 위치 DB에 저장된 시설물의 위치 정보를 이용하여 탐지 결과를 생성 및 출력할 수 있으며, 지도, 도면 및 지리 정보 체계(GIS) 중 적어도 하나를 이용하여 최종 검출 물체의 탐지 결과를 출력할 수도 있다.
그리고 지능형 영상 분석 장치(200)는 음성, 문자, 이미지 및 영상 중 적어도 하나의 방법으로 탐지 결과를 생성할 수 있으며, 생성된 탐지 결과를 구비된 출력부를 통하여 직접 출력하거나, 외부의 탐지 결과 출력 장치로 전송할 수도 있다.
도 5는 본 발명의 일실시예에 따른 탐지 결과 생성 과정을 설명하기 위한 도면이다.
도 5에 도시한 바와 같이, 지능형 영상 분석 장치(200)는 최종 검출 물체의 종류 및 위치를 지도, 도면 및 GIS 정보 중 적어도 하나와 합성하여 탐지 결과를 생성할 수 있다. 이때, 탐지 결과는 지도, 도면 및 GIS 상에 표시될 수 있다.
또한, 지능형 영상 분석 장치(200)는 최종 검출 물체의 종류 및 위치를 시설물 위치 DB와 합성하여 문장 형태의 탐지 결과를 생성할 수 있다.
도 6은 본 발명의 일실시예에 따라 생성된 탐지 결과의 일 예를 나타낸 예시도이다.
도 6과 같이, 지능형 영상 분석 장치(200)는 최종 검출 물체의 종류 및 위치와 시설물 위치 DB에 저장된 시설물 위치 정보를 이용하여 탐지 결과를 생성할 수 있다.
즉, 지능형 영상 분석 장치(200)는 시설물 위치 DB에 저장된 시설물 중, 최종 검출 물체의 위치와 가장 가까운 시설물을 검색하고, 검색된 시설물의 이름 또는 식별정보를 이용하여 탐지 결과를 생성할 수 있다.
또한, 지능형 영상 분석 장치(200)는 최종 검출 물체의 특징 정보의 변화량 또는 각종 영상 분석 기술을 적용하여, 선로에 사람이 뛰어드는 사건이나 넘어지는 사고와 같이 최종 검출 물체에 상응하는 사건의 종류를 파악할 수도 있다.
예를 들어 도 6에 도시된 바와 같이, 최종 검출 물체가 사람이고, 최종 검출 물체의 위치가 707호 출입구 부근인 경우, 지능형 영상 분석 장치(200)는 "707호 출입구 5m 근처에서 사람 넘어짐 발생"이라는 탐지 결과를 문장 형태로 생성할 수 있다. 그리고 지능형 영상 분석 장치(200)는 생성된 문장 형태의 탐지 결과를 음성 또는 문자로 출력하거나, 지도, 도면 및 GIS 상에 문자로 표시할 수도 있다.
그리고 지능형 영상 분석 장치(200)는 "7층 계단 근처에서 침입자가 감지되었습니다."와 같은 문장 형태로 표현된 탐지 결과를, 시설물 담당자 또는 최종 검출 물체와 근거리에 위치한 직원의 단말기로 이메일 또는 문자 형태로 전송할 수도 있다.
이와 같이, 시설물 위치 정보를 이용하여 최종 검출 물체에 상응하는 사건의 탐지 결과를 생성함으로써, 지능형 영상 분석 장치(200)는 모니터링 요원 및 관리자가 사건의 위치를 쉽게 파악할 수 있도록 한다.
본 발명의 실시예에 따른 지능형 영상 분석 장치(200)가 수행하는 특징 정보 비교 방법은, 종래의 픽셀 단위 특징 정보를 이용하는 영상 처리 방법에 비하여 촬영 장치의 위치 및 자세 정보에 따른 영향을 적게 받는다.
일반적으로, 영상 정보에 포함된 물체는 투영 왜곡(perspective projection distorsion) 현상이 발생한다. 따라서 설치된 촬영 장치와 승강장 사이의 거리가 멀 경우 사람이 작게 보이고, 거리가 가까울수록 사람이 크게 보인다. 또한, 촬영 장치의 각도에 따라, 이동하는 사람의 크기가 다르게 보인다.
이로 인하여 영상 정보 내의 픽셀 단위로 물체의 크기, 위치 및 속도와 같은 특징값을 표현할 경우, 촬영 장치의 설치 위치 및 자세 정보에 따라 물체의 특징값이 달라지므로, 검출된 물체가 오탐지된 물체인지 여부를 판단하기 어렵다.
그러나, 본 발명의 일실시예에 따른 지능형 영상 분석 장치(200)는 미터와 같은 길이 단위의 특징 정보를 이용하므로, 특징 정보의 변화가 크기 않다. 따라서, 지능형 영상 분석 장치(200)는 용이하게 2차원 평면 상에 위치하지 않은 물체 및 탐지 대상과 특징 정보가 상이한 물체를 오탐지 물체로 판단할 수 있다. 또한, 복수의 촬영 장치가 다양한 자세로 설치된 환경에서, 동일한 알고리즘으로 다양한 영상 정보를 분석할 수 있으므로, 실 생활에 더욱 편리하게 적용될 수 있다.
도 7은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
도 7을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(700)에서 구현될 수 있다. 도 7에 도시된 바와 같이, 컴퓨터 시스템(700)은 버스(720)를 통하여 서로 통신하는 하나 이상의 프로세서(710), 메모리(730), 사용자 입력 장치(740), 사용자 출력 장치(750) 및 스토리지(760)를 포함할 수 있다. 또한, 컴퓨터 시스템(700)은 네트워크(780)에 연결되는 네트워크 인터페이스(770)를 더 포함할 수 있다. 프로세서(710)는 중앙 처리 장치 또는 메모리(730)나 스토리지(760)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(730) 및 스토리지(760)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(731)이나 RAM(732)을 포함할 수 있다.
따라서, 본 발명의 실시예는 컴퓨터로 구현된 방법이나 컴퓨터에서 실행 가능한 명령어들이 기록된 비일시적인 컴퓨터에서 읽을 수 있는 매체로 구현될 수 있다. 컴퓨터에서 읽을 수 있는 명령어들이 프로세서에 의해서 수행될 때, 컴퓨터에서 읽을 수 있는 명령어들은 본 발명의 적어도 한 가지 태양에 따른 방법을 수행할 수 있다.
이상에서와 같이 본 발명에 따른 지능형 영상 분석 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
100: 촬영 장치 200: 지능형 영상 분석 장치
210: 물체 검출부 220: 특징 정보 추출부
230: 오탐지 필터링부 240: 탐지 결과 생성부
310: 특징 정보 DB 350: 시설물 위치 DB
400: 탐지 결과 출력 장치 700: 컴퓨터 시스템
710: 프로세서 720: 버스
730: 메모리 731: 롬
732: 램 740: 사용자 입력 장치
750: 사용자 출력 장치 760: 스토리지
770: 네트워크 인터페이스 780: 네트워크

Claims (20)

  1. 영상 정보에 포함된 물체를 검출하는 물체 검출부,
    상기 영상 정보를 촬영한 촬영 장치의 3차원 위치 및 자세 정보를 이용하여, 검출된 상기 물체의 특징 정보를 추출하는 특징 정보 추출부,
    추출된 상기 특징 정보를 이용하여, 상기 물체의 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함하는 오탐지 필터링을 수행하는 오탐지 필터링부, 그리고
    상기 오탐지 필터링 결과 상기 물체가 최종 검출 물체인 것으로 판단된 경우, 상기 최종 검출 물체가 탐지되었음을 알리는 탐지 결과를 생성하는 탐지 결과 생성부
    를 포함하는 지능형 영상 분석 장치.
  2. 제1항에 있어서,
    상기 3D 위치 필터링은,
    상기 물체가 2차원 평면 상에 위치하는지 여부를 확인하는 것을 특징으로 하는 지능형 영상 분석 장치.
  3. 제2항에 있어서,
    상기 특징 정보 필터링은,
    상기 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것을 특징으로 하는 지능형 영상 분석 장치.
  4. 제3항에 있어서,
    상기 특징 정보 필터링은,
    상기 탐지 대상의 특징 정보와 상기 물체의 특징 정보 간 확률적 거리를 이용하여, 상기 물체의 특징 정보가 상기 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것을 특징으로 하는 지능형 영상 분석 장치.
  5. 제3항에 있어서,
    상기 특징 정보 필터링은,
    상기 3D 위치 필터링을 수행한 결과, 상기 물체가 상기 2차원 평면 상에 위치하는 것으로 판단된 경우 수행되는 것을 특징으로 하는 지능형 영상 분석 장치.
  6. 제3항에 있어서,
    상기 탐지 대상의 특징 정보 범위는,
    기 촬영된 상기 영상 정보들을 분석한 결과를 통계적으로 추정하여 생성된 것을 특징으로 하는 지능형 영상 분석 장치.
  7. 제1항에 있어서,
    상기 탐지 결과 생성부는,
    지도, 도면 및 지리 정보 체계(GIS) 중 적어도 하나를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 출력하는 것을 특징으로 하는 지능형 영상 분석 장치.
  8. 제1항에 있어서,
    상기 탐지 결과 생성부는,
    시설물 위치 DB를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 문장 형태로 출력하는 것을 특징으로 하는 지능형 영상 분석 장치.
  9. 제1항에 있어서,
    상기 특징 정보는,
    검출된 상기 물체의 위치, 크기, 이동 궤적 및 이동 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 지능형 영상 분석 장치.
  10. 제9항에 있어서,
    상기 특징 정보는,
    미터 및 마일 중 적어도 어느 하나의 길이 단위인 것을 특징으로 하며,
    상기 탐지 결과는,
    상기 길이 단위를 이용하여 상기 최종 검출 물체에 상응하는 사건의 발생을 알리도록 생성되는 것을 특징으로 하는 지능형 영상 분석 장치.
  11. 지능형 영상 분석 장치에 의해 수행되는 지능형 영상 분석 방법에 있어서,
    영상 정보에 포함된 물체를 검출하는 단계,
    상기 영상 정보를 촬영한 촬영 장치의 3차원 위치 및 자세 정보를 이용하여, 검출된 상기 물체의 특징 정보를 추출하는 단계,
    추출된 상기 특징 정보를 이용하여, 상기 물체의 3D 위치 필터링 및 특징 정보 필터링 중 적어도 하나를 포함하는 오탐지 필터링을 수행하는 단계, 그리고
    상기 오탐지 필터링 결과 상기 물체가 최종 검출 물체인 것으로 판단된 경우, 상기 최종 검출 물체가 탐지되었음을 알리는 탐지 결과를 생성하는 단계
    를 포함하는 지능형 영상 분석 방법.
  12. 제11항에 있어서,
    상기 3D 위치 필터링은,
    상기 물체가 2차원 평면 상에 위치하는지 여부를 확인하는 것을 특징으로 하는 지능형 영상 분석 방법.
  13. 제12항에 있어서,
    상기 특징 정보 필터링은,
    상기 물체의 특징 정보가 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것을 특징으로 하는 지능형 영상 분석 방법.
  14. 제13항에 있어서,
    상기 특징 정보 필터링은,
    상기 탐지 대상의 특징 정보와 상기 물체의 특징 정보 간 확률적 거리를 이용하여, 상기 물체의 특징 정보가 상기 탐지 대상의 특징 정보 범위에 포함되는지 여부를 판단하는 것을 특징으로 하는 지능형 영상 분석 방법.
  15. 제13항에 있어서,
    상기 특징 정보 필터링은,
    상기 3D 위치 필터링을 수행한 결과, 상기 물체가 상기 2차원 평면 상에 위치하는 것으로 판단된 경우 수행되는 것을 특징으로 하는 지능형 영상 분석 방법.
  16. 제13항에 있어서,
    상기 탐지 대상의 특징 정보 범위는,
    기 촬영된 상기 영상 정보들을 분석한 결과를 통계적으로 추정하여 생성된 것을 특징으로 하는 지능형 영상 분석 방법.
  17. 제11항에 있어서,
    상기 탐지 결과를 생성하는 단계는,
    지도, 도면 및 지리 정보 체계(GIS) 중 적어도 하나를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 출력하는 것을 특징으로 하는 지능형 영상 분석 방법.
  18. 제11항에 있어서,
    상기 탐지 결과를 생성하는 단계는,
    시설물 위치 DB를 이용하여, 상기 최종 검출 물체의 상기 탐지 결과를 문장 형태로 출력하는 것을 특징으로 하는 지능형 영상 분석 방법.
  19. 제11항에 있어서,
    상기 특징 정보는,
    검출된 상기 물체의 위치, 크기, 이동 궤적 및 이동 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 지능형 영상 분석 방법.
  20. 제19항에 있어서,
    상기 특징 정보는,
    미터 및 마일 중 적어도 어느 하나의 길이 단위인 것을 특징으로 하며,
    상기 탐지 결과는,
    상기 길이 단위를 이용하여 상기 최종 검출 물체에 상응하는 사건의 발생을 알리도록 생성되는 것을 특징으로 하는 지능형 영상 분석 방법.
KR1020160078085A 2016-06-22 2016-06-22 지능형 영상 분석 장치 및 방법 Active KR102407202B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160078085A KR102407202B1 (ko) 2016-06-22 2016-06-22 지능형 영상 분석 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160078085A KR102407202B1 (ko) 2016-06-22 2016-06-22 지능형 영상 분석 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20180000205A true KR20180000205A (ko) 2018-01-02
KR102407202B1 KR102407202B1 (ko) 2022-06-10

Family

ID=61004612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160078085A Active KR102407202B1 (ko) 2016-06-22 2016-06-22 지능형 영상 분석 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102407202B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241913A (zh) * 2019-12-19 2020-06-05 北京文安智能技术股份有限公司 一种检测人员摔倒的方法、装置及系统
KR20230018066A (ko) * 2021-07-29 2023-02-07 한국전자통신연구원 무선 충전 시스템에서 영상 처리 기반 이물질 탐지 방법 및 이를 수행하는 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342497A (ja) * 1992-06-09 1993-12-24 Mazda Motor Corp 車両の障害物検出装置
JP2007226761A (ja) * 2006-01-26 2007-09-06 Nippon Hoso Kyokai <Nhk> 映像オブジェクトの軌跡画像合成装置、映像オブジェクトの軌跡画像表示装置およびそのプログラム
JP2007267294A (ja) * 2006-03-30 2007-10-11 Hitachi Ltd 複数カメラを用いた移動物体監視装置
KR20100097886A (ko) 2009-02-27 2010-09-06 숭실대학교산학협력단 다수의 가상 평면 정보를 이용한 3차원 물체의 기하 정보 추출 기법
KR20130128279A (ko) * 2012-05-16 2013-11-26 삼성테크윈 주식회사 물체 탐지 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342497A (ja) * 1992-06-09 1993-12-24 Mazda Motor Corp 車両の障害物検出装置
JP2007226761A (ja) * 2006-01-26 2007-09-06 Nippon Hoso Kyokai <Nhk> 映像オブジェクトの軌跡画像合成装置、映像オブジェクトの軌跡画像表示装置およびそのプログラム
JP2007267294A (ja) * 2006-03-30 2007-10-11 Hitachi Ltd 複数カメラを用いた移動物体監視装置
KR20100097886A (ko) 2009-02-27 2010-09-06 숭실대학교산학협력단 다수의 가상 평면 정보를 이용한 3차원 물체의 기하 정보 추출 기법
KR20130128279A (ko) * 2012-05-16 2013-11-26 삼성테크윈 주식회사 물체 탐지 장치 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241913A (zh) * 2019-12-19 2020-06-05 北京文安智能技术股份有限公司 一种检测人员摔倒的方法、装置及系统
KR20230018066A (ko) * 2021-07-29 2023-02-07 한국전자통신연구원 무선 충전 시스템에서 영상 처리 기반 이물질 탐지 방법 및 이를 수행하는 장치
US12260565B2 (en) 2021-07-29 2025-03-25 Electronics And Telecommunications Research Institute Image processing-based foreign substance detection method in wireless charging system and device performing method

Also Published As

Publication number Publication date
KR102407202B1 (ko) 2022-06-10

Similar Documents

Publication Publication Date Title
US11417134B2 (en) Image analysis device, image analysis method, and recording medium
US9641763B2 (en) System and method for object tracking and timing across multiple camera views
CN113256924A (zh) 一种轨道列车的监控系统,监控方法及监控装置
US11776274B2 (en) Information processing apparatus, control method, and program
CN107657244A (zh) 一种基于多摄像机的人体跌倒行为检测系统及其检测方法
KR102557769B1 (ko) 디지털 트윈 가상 모델을 활용한 cctv 기반 사고 지점의 공간 좌표 인식 기술 시스템
CN111160220B (zh) 一种基于深度学习的包裹检测方法、装置、存储介质
CN107122743B (zh) 安防监控方法、装置和电子设备
CN112270253A (zh) 一种高空抛物的检测方法及装置
JP2018156408A (ja) 画像認識撮像装置
CN110544312A (zh) 虚拟场景中的视频显示方法、装置、电子设备与存储装置
JP2023126352A (ja) プログラム、映像監視方法及び映像監視システム
JP4707019B2 (ja) 映像監視装置及び方法
KR102407202B1 (ko) 지능형 영상 분석 장치 및 방법
CN108111802B (zh) 视频监控方法及装置
KR101560810B1 (ko) 템플릿 영상을 이용한 공간 관리 방법 및 장치
JP2005284652A (ja) 動きベクトルを用いた映像監視方法及び装置
KR101355206B1 (ko) 영상분석을 이용한 출입 계수시스템 및 그 방법
KR101669885B1 (ko) 영상 기반 보행자 추돌 자동 검출 방법 및 이를 적용한 사물 인터넷 장치
JP6954416B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Mohamed et al. Automated Traffic Safety Assessment Tool Utilizing Monocular 3D Convolutional Neural Network Based Detection Algorithm at Signalized Intersections
Foresti et al. Vehicle detection and tracking for traffic monitoring
KR102289550B1 (ko) 항공 영상 데이터와 gis 데이터의 매칭을 위한 이미지 학습을 이용한 ar 정보 제공 방법 및 시스템
KR102161342B1 (ko) 스트림 리즈닝 그룹이탈 감시 시스템
KR102663282B1 (ko) 군중 밀집도 자동 측정 시스템

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20160622

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20190903

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20160622

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210219

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20210928

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20220311

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20220603

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20220607

End annual number: 3

Start annual number: 1

PG1601 Publication of registration