[go: up one dir, main page]

KR100876494B1 - Integrated file format structure composed of multi video and metadata, and multi video management system based on the same - Google Patents

Integrated file format structure composed of multi video and metadata, and multi video management system based on the same Download PDF

Info

Publication number
KR100876494B1
KR100876494B1 KR1020070094693A KR20070094693A KR100876494B1 KR 100876494 B1 KR100876494 B1 KR 100876494B1 KR 1020070094693 A KR1020070094693 A KR 1020070094693A KR 20070094693 A KR20070094693 A KR 20070094693A KR 100876494 B1 KR100876494 B1 KR 100876494B1
Authority
KR
South Korea
Prior art keywords
video
metadata
information
video data
file format
Prior art date
Application number
KR1020070094693A
Other languages
Korean (ko)
Other versions
KR20080093847A (en
Inventor
김문철
임정연
Original Assignee
한국정보통신대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국정보통신대학교 산학협력단 filed Critical 한국정보통신대학교 산학협력단
Publication of KR20080093847A publication Critical patent/KR20080093847A/en
Application granted granted Critical
Publication of KR100876494B1 publication Critical patent/KR100876494B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/302Detection related to theft or to other events relevant to anti-theft systems using recording means, e.g. black box
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/305Detection related to theft or to other events relevant to anti-theft systems using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 적어도 하나의 카메라로부터 획득되는 멀티비디오를 입력받아 각 비디오 내용을 분석하고 특징을 추출한 정보와 카메라 정보를 함께 메타데이터로 생성하고 이를 멀티비디오 데이터와 함께 통합된 파일로 저장할 수 있는 멀티비디오 및 메타데이터 응용 포맷을 정의하고, 멀티비디오 및 메타데이터 응용 포맷 기반 멀티비디오 및 메타데이터를 저장하고 메타데이터를 이용한 멀티비디오의 내용 기반 검색 및 탐색, 브라우징 기능을 제공함으로써 효율적인 멀티비디오 관리 및 소비를 가능하게 할 뿐만 아니라 이를 감시비디오 환경에 응용할 수 있는 파일 포맷과 시스템, 그리고 자동차에 적용하여 자동차 외부 시청각 비디오 데이터 및 내용분석 메타데이터 정보 및 차량 상태 정보를 통합하여 저장할 수 있는 멀티비디오 통합 파일 포맷 구조 및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법을 제공한다.The present invention analyzes the contents of each video by inputting the multi-video obtained from at least one camera, generates the extracted information and the camera information together as a metadata, and saves them as a file integrated with the multi-video data. Multi-video and metadata based on multi-video and metadata application formats, and provides content-based search, navigation, and browsing capabilities for multi-video using metadata. A file format and system that can be applied to a surveillance video environment, as well as a multi-video integrated file format that can be applied to a vehicle to integrate and store audio and video video data, content analysis metadata, and vehicle status information. And it provides this multi-party video management systems that are based on and how.

Description

멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조 및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법{A INTEGRATED FILE FORMAT STRUCTURE WITH MULTI-VIDEO DATA AND META DATA, AND THE RESULTING MULTI-VIDEO MANAGEMENT SYSTEM AND METHODS}Integrated file format structure composed of multi video and metadata, and multi video management system based on the same, and method therefor {A INTEGRATED FILE FORMAT STRUCTURE WITH MULTI-VIDEO DATA AND META DATA, AND THE RESULTING MULTI-VIDEO MANAGEMENT SYSTEM AND METHODS}

본 발명은 멀티비디오 및 그의 분석 메타데이터를 포함하는 통합 파일 포맷 구조 및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 멀티비디오를 획득하고, 획득된 멀티비디오를 분석하여 내용 정보를 메타데이터로 표현하고 이를 멀티비디오 데이터와 함께 저장하여 감시비디오에 활용하는 멀티비디오 획득, 처리, 관리 및 소비에 관한 것이다.The present invention relates to an integrated file format structure including multi-video and its analysis metadata, and to a multi-video management system and method based thereon. More particularly, the present invention relates to obtaining a multi-video and analyzing the acquired multi-video. It is about multi-video acquisition, processing, management, and consumption that represent content information as metadata and store it with multi-video data for use in surveillance video.

일반적으로, 멀티비디오(Multi-Video)를 획득하여 이를 저장하고 4채널, 16채널 등 멀티비디오를 분할 화면에 디스플레이 하는 방식이 주류를 이루었다.In general, a method of acquiring and storing a multi-video and storing the multi-video and displaying the multi-video such as 4 and 16 channels on a split screen has become mainstream.

이러한 멀티비디오를 저장하고 필요한 부분을 재생하기 위해서는 녹화된 비디오를 재생하여 빨리 가기(Fast Forward, FF) 등의 기능을 통해 원하는 비디오 구 에 접근하여 재생하는 방식이 일반적이며, 비디오 분석은 녹화되는 비디오에 움직이는 물체가 나타날 경우 이를 기록하였다가 관련 비디오 구간을 탐색할 때에 활용하는 방식 등이 있다.In order to store such multi-video and play the necessary part, it is common to play the recorded video by accessing and playing the desired video phrase through a function such as fast forward (FF). If a moving object appears at, it is recorded and used to search for the relevant video section.

이러한 종래의 기술들은 각기 서로 다른 파일 저장 포맷 및 제한된 콘텐츠 분석 정보로 인해 콘텐츠의 상호호환성이 보장되지 않아 서로 다른 시스템에서 획득된 비디오 데이터에 대해 콘텐츠 변환 또는 관련 시스템을 준비하여 비디오 또는 메타데이터를 재생하여야 하는 어려움이 있었다.These conventional techniques do not guarantee content interoperability due to different file storage formats and limited content analysis information, so that video or metadata may be played by preparing a content conversion or related system for video data obtained from different systems. There was a difficulty to do.

한편, 기존의 비디오 획득 장치를 차량에 이용하는 경우, 안전 운전의 보조적인 수단으로서 전방 또는 후방 카메라를 통해 획득되는 비디오 데이터를 운전석 옆에 설치된 디스플레이 장치로 출력하게 하여 후방 시야를 확보하거나 야간에는 전방 시야를 더욱 명확히 확보하기 위한 장치로 사용하고 있다.On the other hand, when the existing video acquisition device is used in a vehicle, as a supplementary means of safe driving, the video data acquired through the front or rear camera is output to the display device installed next to the driver's seat to secure the rear view or the front view at night. It is used as a device to secure more clearly.

본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 멀티비디오를 획득하고, 획득된 멀티비디오를 분석하여 내용정보를 추출하여 메타데이터로 생성하여 획득된 멀티비디오와 함께 저장하여 감시비디오에 활용하는 멀티비디오 획득, 처리, 관리 및 소비할 수 있도록 한 멀티비디오 통합 파일 포맷 구조 및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법을 제공하는데 있다.The present invention has been made to solve the above-described problems, an object of the present invention is to obtain a multi-video, to analyze the obtained multi-video to extract the content information to generate as metadata to store with the obtained multi-video The present invention provides a multi-video integrated file format structure that enables multi-video acquisition, processing, management, and consumption for surveillance video, and a multi-video management system and method based thereon.

본 발명의 다른 목적은, 차량의 전/후방, 좌/우측, 내부 등 필요한 위치에 하나 이상의 카메라를 설치하고 하나 이상의 카메라로부터 입력되는 비디오 데이터와 이를 분석한 비디오 메타데이터(예컨대, 움직임 물체 검출 및 검출 시각, 움직임 물체 궤적, 물체 컬러/형태, 물체 변화 여부 등), 차량 운행 정보(예컨대, 위치(GPS), 속도, 진행 방향, 가속 페달 누름 정도, 브레이크 페달 누름 정도, 핸들 각도, 경적 누름 여부 및 정도, 차량 실내 온도, 차량 내/외부 소리 등) 등을 하나의 통합 파일 포맷으로 저장하여 저장 감시비디오에 대한 검색, 탐색 및 소비를 용이하게 할 수 있도록 한 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법을 제공하는데 있다.Another object of the present invention is to install one or more cameras in necessary positions, such as front / rear, left / right, and inside of a vehicle, and input video data from one or more cameras and video metadata (eg, moving object detection and Detection time, moving object trajectory, object color / shape, whether the object changes, etc., vehicle driving information (e.g., position (GPS), speed, direction of travel, acceleration pedal depressed, brake pedal depressed, steering wheel angle, horn depressed) Based on the multi-video integrated file format structure, which can easily search, search, and consume the saved surveillance video by storing the information such as the degree, the room temperature, and the interior / exterior sound of the vehicle in one integrated file format. The present invention provides a multi-video management system and a method thereof.

본 발명의 또 다른 목적은, 하나 이상의 카메라로부터 획득된 비디오 데이터를 분석하는 것으로서, 비디오 내의 움직임 물체 검출 및 추적, 움직임 물체의 움직임 궤적, 물체의 위치, 고정된 물체의 위치 변화 정보, 그리고 물체의 컬러 정 보, 윤곽정보 및 텍스쳐 정보, 소리 정보(예컨대, 물체 파손 소리, 소음, 뛰는 소리, 비명, 폭발음, 경적, 싸우는 소리, 음악 소리, 총소리 등) 정보 등을 입력되는 멀티비디오를 분석하여 자동 추출하고, MPEG-7 메타데이터 또는 일반적인 XML 메타데이터로 표현하는 방법을 제공하는데 있다.Still another object of the present invention is to analyze video data obtained from one or more cameras, and to detect and track moving objects in video, motion trajectories of moving objects, position of objects, position change information of fixed objects, and Color video, contour information, texture information, sound information (e.g. object breakdown sound, noise, running sound, scream, explosion sound, horn, fighting sound, music sound, gunshot, etc.) The present invention provides a method of extracting and expressing MPEG-7 metadata or general XML metadata.

본 발명의 또 다른 목적은, 하나 이상의 카메라로부터 획득된 비디오 데이터에 대해 분석된 메타데이터를 로컬 또는 원격 저장 장치에 파일 형태 또는 데이터베이스에 저장하고 해당 메타데이터에 대해 검색하고 검색된 결과를 사용자 인터페이스를 통해 제공하는 방법, 또는 메타데이터를 획득하는 과정에서 설정된 중요 정보를 미리 알림 형태로 사용자 인터페이스를 통해 방법을 제공하는 방법을 제공하는데 있다.Still another object of the present invention is to store metadata analyzed for video data obtained from one or more cameras in a file or database in a local or remote storage device, search for the metadata, and retrieve the retrieved results through a user interface. The present invention provides a method of providing a method through a user interface in the form of a reminder of important information set in the process of obtaining the metadata or the metadata.

전술한 목적을 달성하기 위하여 본 발명의 제1 측면은, 적어도 하나의 비디오 데이터 및 관련 생성 메타데이터를 하나의 파일 포맷으로 구성하는 멀티비디오 통합 파일 포맷 구조로서, 파일의 타입 정보를 기록하기 위한 에프타입(ftyp) 박스; 하나 이상의 비디오 데이터 및 시각 정보(예컨대, 각 비디오 데이터 위치, 데이터 크기, 데이터 샘플 크기 및 위치, 획득 카메라 정보 등)를 가지는 메타데이터에 대한 정보를 기록하기 위한 무브(moov) 박스; 적어도 하나의 비디오 데이터 및 해당 메타데이터를 저장하기 위한 엠닷(mdat) 박스; 및 통합 파일 전체의 생성 정보(예컨대, 생성자, 생성 장소, 파일 크기, 생성 일자 등)에 대한 파일 레벨의 메 타데이터를 기록하기 위한 메타(meta) 박스를 포함하는 멀티비디오 통합 파일 포맷 구조를 제공하는 것이다.In order to achieve the above object, a first aspect of the present invention is a multi-video unified file format structure in which at least one video data and associated generated metadata are configured in one file format, and is used for recording file type information. Ftyp box; A moov box for recording information on metadata having one or more video data and visual information (eg, each video data location, data size, data sample size and location, acquisition camera information, etc.); An mdat box for storing at least one video data and corresponding metadata; And a meta box for recording file-level metadata about creation information (eg, creator, creation location, file size, creation date, etc.) of the entire integration file. It is.

여기서, 상기 엠닷(mdat) 박스에서 각 비디오 및 관련 메타데이터는 각각 별도의 파일로 외부에 저장됨이 바람직하다.Here, each video and related metadata in the mdat box is preferably stored externally as a separate file.

바람직하게, 상기 엠닷(mdat) 박스에 저장된 각 비디오 및 메타데이터의 파일 포맷 구조는, ISO/IEC 14496-12 ISO Base Media 파일 포맷이다.Preferably, the file format structure of each video and metadata stored in the mdat box is an ISO / IEC 14496-12 ISO Base Media file format.

바람직하게, 상기 엠닷(mdat) 박스에 저장된 각 비디오 및 메타데이터의 파일 포맷 구조는, 파일의 타입 정보를 기록하기 위한 에프타입(ftyp) 박스; 비디오 데이터에 대한 정보를 기록하기 위한 무브(moov) 박스; 비디오 데이터를 기록하기 위한 엠닷(mdat) 박스; 및 상기 비디오 데이터의 위치 정보 및 메타데이터를 기록하기 위한 메타(meta) 박스를 포함한다.Preferably, the file format structure of each video and metadata stored in the mdat box includes: a ftyp box for recording type information of a file; A move box for recording information on the video data; An mdat box for recording video data; And a meta box for recording location information and metadata of the video data.

바람직하게, 상기 메타(meta) 박스 내에는 비디오 ID, 비디오 이름, 적용 콘텐츠 보호 인덱스, 콘텐츠 타입, 또는 콘텐츠 부호화 또는 비디오 관련 메타데이터 중 적어도 하나의 해당 비디오 데이터에 대한 정보를 기록한다.Preferably, information about at least one of video ID, video name, applied content protection index, content type, or content encoding or video related metadata is recorded in the meta box.

바람직하게, 각 비디오 관련 메타데이터는, 각 비디오를 생성하기 위한 비디오 생성 메타데이터; 및 각 비디오를 분석하기 위한 비디오 분석 메타데이터를 포함한다.Preferably, each video related metadata comprises: video generation metadata for generating each video; And video analysis metadata for analyzing each video.

바람직하게, 상기 비디오 생성 메타데이터는, 비디오 장비 및 생성 날짜, 비디오 획득 장소에 대한 정보를 기록한 메타데이터이다.Preferably, the video generation metadata is metadata that records information on the video equipment, the creation date, and the video acquisition location.

바람직하게, 상기 비디오 생성 메타데이터를 위한 데이터 타입은, 획득 콘텐 츠의 타이틀(Title), 생성자(Creator), 생성 위치 좌표와 날짜(CreationCoordinates), 생성 도구(CreationTool), 및 저작권(CopyrightString)을 포함하는 콘텐츠 타입(ContentType); 그레고리안(Gregorian) 기준을 따라 날짜 및 시각 정보를 나타내는 에이전트(Agent)로 이루어진 생성자 타입(CreatorType); 장소 이름(Name), 지역 이름(Region), 우편 주소(PostalAddress), 및 전자 우편 주소(ElectronicAddress)를 포함하는 장소 타입(PlaceType); 시간 시작점(TimePoint) 및 시간 길이(Duration)를 포함하는 시간 타입(TimeType); 및 비디오 카메라에 대한 정보(Tool), 및 비디오 획득을 위한 카메라 환경 파라미터 구성정보와 설정 값을 나타내는 셋팅(Setting)을 포함하는 생성 툴 타입(CreationToolType), 주석(annotation) 텍스트 중 하나 이상을 포함하는 것으로 이루어진다.Preferably, the data type for the video generation metadata includes title, creator, creation position coordinates and date (CreationCoordinates), creation tool (CreationTool), and copyright (CopyrightString) of the acquired content. A content type (ContentType); A CreatorType comprising an Agent representing date and time information according to a Gregorian criterion; PlaceType including Place Name, Region Name, PostalAddress, and ElectronicAddress; A time type (TimeType) including a time start point (TimePoint) and a time duration (Duration); And a creation tool type and annotation text including information about a video camera, a setting indicating a camera environment parameter configuration information and a setting value for video acquisition. It consists of

바람직하게, 상기 비디오 분석 메타데이터는, 움직임 객체 검출 및 추적, 객체 컬러 정보, 윤곽 정보, 텍스쳐 정보, 및 소리 정보를 분석하여 그 특징을 추출하고 이를 메타데이터 형태로 표현한 것이다.Preferably, the video analytics metadata analyzes motion object detection and tracking, object color information, contour information, texture information, and sound information to extract features and express them in metadata.

바람직하게, 상기 비디오 분석 메타데이터를 위한 데이터 타입은, RGB, YCbCr, HSV 및 HMMD 컬러공간, 각 컬러공간 간 변환 매트릭스(LinearMatrix), 및 흑백 컬러공간(Monochrome)을 포함하는 컬러공간 타입(ColorSpaceType); 컬러공간(ColorSpace), 컬러양자화(ColorQuantization), 컬러 정보의 공간상관계수(SpatialCoherency), 및 우세 컬러 데이터의 비율을 나타내는 값(Value)을 포함하는 우세컬러 타입(DominantColorType); 의미적 정보(Semantic), 미디어 시각(MediaTime), 및 시각 서술자(VisualDescriptor)를 포함하는 비디오 세그먼트 타 입(VideoSegmentType); 비디오 요약 이름(Name), 원 비디오의 식별자 ID(SourceID), 원 비디오의 위치(SourceLocator), 및 원 비디오의 정보(SourceInformation)를 포함하는 요약 타입(SummaryType); 비디오 요약 그룹 이름(Name) 및 비디오 요약을 주요 세그먼트로 표현하는 요약 세그먼트(SummarySegment)를 포함하는 요약 세그먼트 그룹 타입(SummarySegmentGroupType); 비디오 요약 타입(SummaryType), 요약 비디오의 주제 목록(SummaryThemeList), 및 요약 세그먼트 그룹(SummarySegmentGroup)을 포함하는 계층적 요약 타입(HierarchicalSummaryType); 비디오 요약 타입(SummaryType) 및 원 비디오의 시공간적 특성(VisualSummaryComponent)을 포함하는 순차적 요약 타입(SequentialSummaryType); 의미기본타입(SemanticBaseType), 의미묶음타입(SemanticBagType), 의미타입(SemanticType), 객체타입(ObjectType), 에이전트객체타입(AgentObjectType), 이벤트타입(EventType), 개념타입(ConceptType), 의미상태타입(SemanticStateType), 의미장소타입(SemanticPlaceType), 및 의미시각타입(SemanticTimeType)을 포함하는 의미(Semantic); 미디어 시간 시작점(MediaTimePoint), 미디어 상대 시간 시작점(MediaRelTimePoint), 미디어 시간 상대증분 시작점(MediaRelIncrTimePoint), 미디어 시간 길이(MediaDuration), 및 미디어 상대시간 길이(MediaIncrDuration)를 포함하는 미디어 시간(Media Time); 구역위치지정자 타입(RegionLocatorType), 격자구조분할 타입(GridLayoutType), 시공간위치 타입(SpatialTemporalLocatorType), 형상 궤적 표시자 타입(FigureTrajectoryType), 및 파라미터표현 궤적 타입(ParameterTrajectoryType) 을 포함하는 비주얼 서술자(VisualDescriptor); 및 오디오위치지정자 타입(AudioLocatorType), 오디오콘텐츠 타입(AudioContentType), 및 오디오콘텐츠주석 타입(AudioContentAnnotationType)을 포함하는 오디오 서술자(AudioDescriptor) 중 적어도 하나 이상으로 구성된 것을 특징으로 한다.Preferably, the data type for the video analytics metadata is a color space type (ColorSpace Type) including an RGB, YCbCr, HSV and HMMD color space, a transformation matrix (LinearMatrix) between each color space, and a monochrome color space (Monochrome). ; A DominantColorType including a ColorSpace, a Color Quantization, a Spatial Coherency of Color Information, and a Value representing a ratio of Dominant Color Data; A video segment type (VideoSegmentType) including semantic information (Semantic), media time (MediaTime), and visual descriptor (VisualDescriptor); A summary type including a video summary name (Name), an identifier ID (SourceID) of the original video, a location (SourceLocator) of the original video, and source information (SourceInformation); A Summary Segment GroupType including a Video Summary Group Name and a Summary Segment representing the Video Summary as a Major Segment; HierarchicalSummaryType including a video summary type (SummaryType), a summary list of subjects (SummaryThemeList), and a summary segment group (SummarySegmentGroup); SequentialSummaryType including a video summary type (SummaryType) and the spatio-temporal characteristics (VisualSummaryComponent) of the original video; SemanticBaseType, SemanticBagType, SemanticType, ObjectType, ObjectType, AgentObjectType, EventType, ConceptType, SemanticStateType Semantic including), semantic place type (SemanticPlaceType), and semantic time type (SemanticTimeType); Media Time including Media Time Start Point (MediaTimePoint), Media Relative Time Start Point (MediaRelTimePoint), Media Time Relative Increment Start Point (MediaRelIncrTimePoint), Media Time Length (MediaDuration), and Media Relative Time Length (MediaIncrDuration); A VisualDescriptor including a RegionLocatorType, a GridLayoutType, a SpatialTemporalLocatorType, a Shape Trajectory Type, a FigureTrajectoryType, and a Parameter Representation Trajectory Type; And an audio descriptor (AudioDescriptor) including an audio locator type (AudioLocatorType), an audio content type (AudioContentType), and an audio content annotation type (AudioContentAnnotationType).

본 발명의 제2 측면은, 서로 다른 위치에 설치된 복수개의 카메라를 통해 비디오 데이터를 획득하는 비디오 획득부; 상기 획득된 비디오 데이터의 내용을 분석하여 비디오 및 오디오 특징정보를 추출하는 비디오 내용분석부; 상기 추출된 비디오 및 오디오 특징정보를 메타데이터 형태로 생성하는 메타데이터 생성부; 상기 획득된 비디오 데이터 및 상기 생성된 메타데이터를 하나의 통합 파일 포맷으로 생성하는 파일 포맷 생성부; 상기 생성된 통합 파일 포맷을 저장하는 데이터베이스; 및 상기 데이터베이스와 연동되어 사용자가 원하는 비디오를 특정 키워드로 요청하고 해당 비디오를 검색하여 이를 사용자가 용이하게 볼 수 있도록 디스플레이하기 위한 내용 기반 검색수단 포함하는 멀티비디오 관리 시스템을 제공하는 것이다.A second aspect of the present invention, the video acquisition unit for acquiring video data through a plurality of cameras installed at different locations; A video content analyzer configured to analyze the content of the obtained video data and extract video and audio feature information; A metadata generator for generating the extracted video and audio feature information in the form of metadata; A file format generator for generating the obtained video data and the generated metadata into one integrated file format; A database for storing the generated unified file format; And a content-based retrieval means for interworking with the database to request a video desired by a user with a specific keyword and to search for and display the corresponding video so that the user can easily view the video.

여기서, 상기 비디오 획득부로부터 실시간으로 획득된 비디오 데이터를 파싱하여 랜더링을 수행하고 이를 상기 데이터베이스에 저장되도록 전송하는 비디오 렌더링부를 더 포함함이 바람직하다.The video rendering unit may further include a video rendering unit which parses video data obtained in real time from the video acquisition unit, performs rendering, and transmits the image data to be stored in the database.

바람직하게, 상기 복수개의 카메라는 차량의 내/외측에 탑재될 수 있다.Preferably, the plurality of cameras can be mounted on the inside / outside of the vehicle.

바람직하게, 상기 비디오 획득부로부터 획득된 비디오 데이터는 MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding(또는 H.264), 또는 MPEG-4 Scalable Video Coding 중 적어도 하나의 압축 방식을 사용하여 획득된다.Preferably, the video data obtained from the video acquisition unit is MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding (or H.264), or MPEG- 4 is obtained using at least one compression scheme of Scalable Video Coding.

바람직하게, 상기 데이터베이스는 차량에 물리적으로 탑재된 저장 장치이다.Preferably, the database is a storage device physically mounted in a vehicle.

바람직하게, 상기 데이터베이스는 인터넷을 통해 접속이 가능한 네트워크 상의 저장 장치이다.Preferably, the database is a storage device on a network accessible via the Internet.

바람직하게, 상기 내용 기반 검색수단은, 사용자가 원하는 비디오를 특정 키워드로 요청하고, 상기 요청된 결과를 사용자가 용이하게 볼 수 있도록 디스플레이하기 위한 사용자 인터페이스부; 상기 사용자 인터페이스부로부터 요청된 특정 키워드를 제공받아 해당 사용자의 질의를 처리하여 전송하는 사용자 질의 처리부; 상기 데이터베이스와 연동되어 상기 사용자 질의 처리부로부터 전송된 사용자의 질의를 제공받아 사용자가 원하는 비디오 데이터를 검색하는 내용 기반 검색부; 및 상기 내용 기반 검색부로부터 검색된 비디오 데이터를 제공받아 비디오 목록 및 해당 정보를 파싱 분석하여 상기 사용자 인터페이스부로 전송하는 검색 결과 분석부를 포함한다.Preferably, the content-based retrieval means comprises: a user interface for requesting a video desired by a user with a specific keyword and for displaying the requested result so that the user can easily view it; A user query processor which receives a specific keyword requested from the user interface and processes and transmits a query of a corresponding user; A content-based retrieval unit interworking with the database and receiving a user's query transmitted from the user's query processing unit to retrieve video data desired by the user; And a search result analysis unit which receives the video data retrieved from the content-based search unit, parses the video list and the corresponding information, and transmits the parsed and analyzed information to the user interface unit.

본 발명의 제3 측면은, (a) 적어도 하나의 카메라로부터 비디오 데이터를 획득하는 단계; (b) 상기 획득된 각 비디오 데이터에 대한 내용 기반 특징을 분석하고 이를 메타데이터로 생성하는 단계; 및 (c) 상기 획득된 비디오 데이터와 상기 생성된 메타데이터를 하나의 통합 파일 포맷으로 생성하여 데이터베이스에 저장하는 단계를 포함하는 멀티비디오 관리 방법을 제공하는 것이다.A third aspect of the invention includes the steps of (a) acquiring video data from at least one camera; (b) analyzing content-based features of each of the acquired video data and generating them as metadata; And (c) generating the obtained video data and the generated metadata in one integrated file format and storing the generated video data in a database.

바람직하게, 상기 단계(b)에서, 상기 생성된 메타데이터는 비디오를 생성하기 위한 비디오 장비 식별자 및 생성 날짜, 비디오 획득 장소, 날씨 조건, 비디오 획득 관련 카메라 파라미터 값, 또는 비디오 저작권 중 적어도 하나의 정보를 포함한다.Preferably, in step (b), the generated metadata may include at least one of a video equipment identifier for generating a video and a creation date, a video acquisition location, a weather condition, a camera parameter value related to video acquisition, or a video copyright. It includes.

바람직하게, 상기 단계(b)에서, 상기 내용 기반 특징은 움직임 객체 검출 및 추적, 객체의 움직임 궤적, 객체의 위치, 고정된 객체의 위치 변화, 객체의 컬러, 윤곽 및 텍스쳐, 또는 소리 정보 중 적어도 하나의 정보를 포함한다.Preferably, in the step (b), the content-based feature may include at least one of motion object detection and tracking, motion trajectory of the object, position of the object, change of position of the fixed object, color, contour and texture of the object, or sound information. Contains one piece of information.

바람직하게, 상기 단계(c)에서, 상기 통합 파일 포맷의 구조는 적어도 하나의 비디오 데이터 및 메타데이터를 저장하기 위한 파일 구조로서, 엠닷(mdat) 박스 내에 적어도 하나 이상의 독립적인 비디오 데이터 및 메타데이터를 저장한다.Preferably, in step (c), the integrated file format is a file structure for storing at least one video data and metadata, and includes at least one independent video data and metadata in an mdat box. Save it.

바람직하게, 상기 단계(c)에서, 적어도 하나의 비디오 데이터에 대한 메타데이터는 무브(moov) 레벨 메타(meta) 박스와 트랙(trak) 레벨 메타(meta) 박스 내에 저장하고, 상기 비디오 데이터는 엠닷(mdat) 박스 내에 저장하거나, 실제 저장 위치 포인터를 저장할 수 있다.Preferably, in step (c), metadata for the at least one video data is stored in a move level meta box and a track level meta box, and the video data is M dot. (mdat) can be stored in the box, or the actual storage location pointer can be stored.

바람직하게, 상기 단계(c)에서, 적어도 하나의 비디오 데이터에 대한 메타데이터는 통합 파일 생성 정보(예컨대, 생성 위치, 날짜, 및 주석 정보 등)에 관한 메타데이터는 무브(moov) 레벨 메타(meta) 박스에 저장되고 트랙(trak) 레벨 메타(meta) 박스 내에 저장하고, 상기 비디오 데이터는 엠닷(mdat) 박스 내에 저장하거나, 실제 저장 위치 포인터를 저장할 수 있다.Preferably, in step (c), the metadata for the at least one video data is metadata related to the integrated file generation information (e.g., creation location, date, and annotation information, etc.). Box) and store in a track level meta box, the video data may be stored in an mdat box, or may store an actual storage location pointer.

본 발명의 제4 측면은, (a') 적어도 하나의 카메라로부터 비디오 데이터를 획득하는 단계; (b') 상기 획득된 각 비디오 데이터에 대한 내용 기반 특징을 분석하고 이를 메타데이터로 생성하는 단계; (c') 상기 획득된 비디오 데이터와 상기 생성된 메타데이터를 하나의 통합 파일 포맷으로 저장하는 단계; (d') 사용자의 요청에 의해 상기 저장된 통합 파일 포맷에 대한 검색을 수행하는 단계; 및 (e') 상기 검색 결과에 해당하는 비디오를 사용자가 용이하게 볼 수 있도록 디스플레이 하는 단계를 포함하는 멀티비디오 관리 방법을 제공하는 것이다.A fourth aspect of the invention includes the steps of (a ') acquiring video data from at least one camera; (b ') analyzing content-based features of each of the obtained video data and generating them as metadata; (c ') storing the obtained video data and the generated metadata in one integrated file format; (d ') performing a search for the stored integrated file format at the request of a user; And (e ') displaying the video corresponding to the search result so that the user can easily view the video.

바람직하게, 상기 단계(a')에서, 상기 비디오 데이터는 MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding(또는 H.264), 또는 MPEG-4 Part 10 Scalable Extension - Scalable Video Coding 중 적어도 하나의 압축 방식을 사용하여 획득한다.Preferably, in step (a '), the video data is MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding (or H.264), or MPEG-4 Part 10 Scalable Extension-Obtained using at least one compression scheme among scalable video coding.

바람직하게, 상기 단계(b')에서, 상기 비디오 분석 결과를 디스플레이 장치나 스피커로 출력한다.Preferably, in step (b '), the video analysis result is output to a display device or a speaker.

바람직하게, 상기 단계(b')는 사용자 인터페이스를 통해 감시하고자 하는 구역 및 감시 대상 객체 지정, 감시 추적 경로를 설정하고 해당 대상에 대한 메타데이터를 생성한다.Preferably, the step (b ') is to set the area to be monitored and the object to be monitored, the path of monitoring tracking through the user interface, and generates metadata about the object.

바람직하게, 상기 단계(c')에서, 상기 통합 파일 포맷은 차량에 탑재된 저장 장치 또는 인터넷을 통해 접속할 수 있는 네트워크 상의 저장 장치에 저장한다.Preferably, in step (c '), the integrated file format is stored in a vehicle-mounted storage device or a storage device on a network accessible via the Internet.

본 발명의 제5 측면은, (a") 차량의 전/후/좌/우측 방향에 탑재된 카메라를 통해 복수의 비디오 데이터를 획득하는 단계; (b") 상기 획득된 비디오 데이터를 디스플레이 장치를 통해 디스플레이 하는 단계; 및 (c") 상기 획득된 비디오 데이터를 분석하여 차량 접근 또는 훼손의 특징 정보를 분석하고 이를 디스플레이 또는 스피커 장치에 경보하는 단계를 포함하는 멀티비디오 관리 방법을 제공하는 것이다.According to a fifth aspect of the present invention, (a ") obtaining a plurality of video data through a camera mounted in the front / rear / left / right direction of the vehicle; (b") the display device to display the obtained video data Displaying through; And (c ") analyzing the acquired video data to analyze characteristic information of a vehicle approach or damage and alert the display or speaker device.

본 발명의 제6 측면은, 상술한 멀티비디오 관리 방법을 실행시키기 위한 프로그램을 기록한 기록매체를 제공한다.A sixth aspect of the present invention provides a recording medium on which a program for executing the above-described multi-video management method is recorded.

본 발명의 제7 측면은, 적어도 하나의 카메라를 차량의 전후방, 좌우측, 내부 또는 원하는 어떤 방향에 설치하고, 멀티 채널로부터 입력되는 비디오를 자동 분석하고 메타데이터를 생성하여 멀티비디오 데이터와 함께 로컬 또는 원격지 저장장치에 저장하며, 또한 멀티 입력 비디오를 차량 내부의 디스플레이 장치에 디스플레이 함으로써 후방 또는 사각 지대에 대한 시야를 확보하기 위한 양상 정보를 제공하며, 비디오 분석을 통해 차량 주변의 물체(예컨대, 사람, 동물, 또는 장애물 등) 존재 여부 검출된 정보를 디스플레이 장치로 알림으로써 안전 운전을 향상할 수 있는 시스템 및 방법을 제공하는 것이다.According to a seventh aspect of the present invention, at least one camera is installed in a front, rear, left, and right sides of a vehicle, or in any desired direction, and automatically analyzes video input from multi-channels and generates metadata to locally or with multi-video data. It is stored in a remote storage device, and also displays aspect information for securing a view of the rear or blind spot by displaying a multi-input video on a display device inside the vehicle, and through video analysis, objects (eg, people, An object of the present invention is to provide a system and method for improving safety driving by notifying a display device of presence or absence of an animal or an obstacle.

이상에서 설명한 바와 같은 본 발명의 멀티비디오 통합 파일 포맷 구조 및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법에 따르면, 하나 이상의 카메라로부터 획득된 비디오 데이터를 분석하는 것으로서, 비디오 내의 움직임 물체 검출 및 추적, 움직임 물체의 움직임 궤적, 물체의 위치, 고정된 물체의 위치 변화 정보, 그리고 물체의 컬러 정보, 윤곽정보 및 텍스처 정보, 소리 정보 등을 입력되는 멀티비디오를 분석하여 자동 추출하고, MPEG-7 메타데이터 또는 일반적인 XML 메타데이터로 표현하고 이를 통합된 파일 포맷으로 저장 및 관리할 수 있는 이점이 있다.According to the multi-video integrated file format structure of the present invention as described above, and a multi-video management system and method based thereon, by analyzing video data obtained from at least one camera, detecting and tracking a moving object in the video, MPEG-7 metadata is automatically extracted by analyzing the moving video of the moving object, the position of the object, the change of the position of the fixed object, the color information, the contour information, the texture information, the sound information, etc. Alternatively, they can be represented as common XML metadata and stored and managed in a unified file format.

또한, 본 발명에 따르면, 하나 이상의 카메라로부터 획득된 비디오 데이터에 대해 분석된 메타데이터를 로컬 또는 원격 저장 장치에 파일 형태 또는 데이터베이스 시스템에 저장하고 해당 메타데이터에 대해 검색하고 검색된 결과를 사용자 인터페이스를 통해 용이하게 제공할 수 있으며, 메타데이터를 획득하는 과정에서 설정된 중요 정보를 미리 알림 형태로 사용자 인터페이스를 통해 제공할 수 있는 이점이 있다.In addition, according to the present invention, metadata analyzed for video data obtained from one or more cameras is stored in a file or database system on a local or remote storage device, retrieved for the metadata, and the retrieved results are retrieved through a user interface. It can be easily provided, there is an advantage that can provide important information set in the process of acquiring metadata in the form of a reminder through the user interface.

또한, 본 발명에 따르면, 하나 이상의 카메라를 자동차 전/후방, 좌/우측, 내부 또는 원하는 어떤 방향에 설치하고 다중 채널로부터 입력되는 멀티비디오 데이터, 비디오 분석 메타데이터 및 차량 운행 정보 메타데이터가 통합 파일 포맷으로 차량 블랙박스로 저장되어 교통사고 시 운행 기록 및 주변 정황 자료로 사용될 수 있으며, 차량 도난이나 차량 파손 시 주변 정황 자료를 획득하여 확인하는 자료로 사용가능하며, 차량에 탑재된 모니터를 통해 전후방 및 측방 비디오 데이터를 디스플레이 함으로써 사각지대 시야 확보, 주변 접근 차량 경보 등을 동시에 수행 하여 차량 주행의 안전을 제공할 수 있는 이점이 있다.In addition, according to the present invention, the multi-video data, video analysis metadata and vehicle driving information metadata that is installed from one or more cameras in the front / rear, left / right, inside or any desired direction of the car and input from multiple channels are integrated files It is saved as a vehicle black box in the format and can be used as driving record and surrounding situation data in case of traffic accident.It can be used to obtain and confirm surrounding situation data in case of vehicle theft or vehicle damage. And by displaying the lateral video data there is an advantage that can provide the safety of the vehicle driving by simultaneously performing blind spot visibility, surrounding approach vehicle alarm, and the like.

이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나, 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되어지는 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, embodiments of the present invention illustrated below may be modified in many different forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art.

도 1은 본 발명의 일 실시예에 적용된 하나 이상의 비디오 및 메타데이터 저장을 위한 파일 포맷 구조의 형태를 나타낸 도면이다.1 is a diagram illustrating a form of a file format structure for storing one or more videos and metadata applied to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 적용된 다중 비디오 및 메타데이터 저장을 위한 감시비디오 통합 파일 포맷 구조는, 크게 파일의 타입 정보를 기록하기 위한 에프타입(ftyp) 박스와, 적어도 하나 이상의 비디오 데이터 파일 정보(예컨대, 각 비디오 데이터 위치, 데이터 크기, 데이터 샘플 크기 및 위치, 획득 카메라 정보 등)를 나타내기 위한 무브(moov) 박스; 적어도 하나의 비디오 데이터(AVC video) 및 해당 메타데이터를 기록하기 위한 엠닷(mdat) 박스와, 비디오 데이터(AVC video)의 엠닷(mdat) 박스 내의 위치 정보 및 메타데이터를 기록하기 위한 무브 박스내 트랙(trak)-레벨의 메타(meta) 박스, MAF 파일 레벨의 정보(예컨대, MAF 파일명, 제작일, 제작 장소 등)를 나타내기 위한 메타(meta) 박스를 포함하여 구성되어 있다.Referring to FIG. 1, a surveillance video integrated file format structure for multiple video and metadata storage according to an embodiment of the present invention includes a ftyp box for recording file type information, and at least one or more files. A move box for indicating video data file information (eg, each video data location, data size, data sample size and location, acquisition camera information, etc.); Mdat box for recording at least one video data (AVC video) and the corresponding metadata, and tracks in the move box for recording location information and metadata in the mdat box of video data (AVC video) It comprises a (trak) -level meta box, and a meta box for indicating information of the MAF file level (for example, a MAF file name, a production date, a production place, and the like).

여기서, 트랙(trak)-레벨의 메타(meta) 박스 내에 비디오 데이터(AVC video)의 위치 정보는 메타(meta) 박스 내의 iloc(item loaction) 박스에 의해 기록할 수 있으며, iinf는 해당 비디오(아이템) 데이터에 대한 정보를 기록하는 박스로서 아이템 ID, 아이템 이름, 적용 콘텐츠 보호 인덱스, 콘텐츠 타입, 콘텐츠 부호화 또는 비디오 관련 메타데이터를 기록할 수 있다.Here, the position information of the video data (AVC video) in the track-level meta box can be recorded by an iloc (item loaction) box in the meta box, and the iinf is a corresponding video (item). As a box for recording information on data, item ID, item name, applied content protection index, content type, content encoding, or video related metadata can be recorded.

이와 같은 다중 비디오 및 메타데이터 저장을 위한 파일 포맷 구조는 예컨대, ISO/IEC 14496-12 ISO Base Media 파일 포맷을 사용함이 바람직하다.Such a file format structure for multiple video and metadata storage preferably uses the ISO / IEC 14496-12 ISO Base Media file format.

도 2는 본 발명의 일 실시예에 따른 멀티비디오 획득 및 관련 생성 메타데이터를 하나의 통합 파일 포맷으로 저장하기 위한 개념도이다.2 is a conceptual diagram for storing multi-video acquisition and related generated metadata in one unified file format according to an embodiment of the present invention.

도 2에서 비디오 관련 메타데이터 생성은, 크게 비디오 생성 메타데이터와 비디오 분석 메타데이터로 나뉜다. 여기서, 상기 비디오 생성 메타데이터는 비디오를 생성하기 위한 비디오 장비 및 생성 날짜, 비디오 획득 장소 등에 대한 정보를 기록한 메타데이터를 의미한다.In FIG. 2, video-related metadata generation is largely divided into video generation metadata and video analysis metadata. Here, the video generation metadata refers to metadata that records information on a video equipment for generating video, a creation date, a video acquisition place, and the like.

이와 같은 멀티비디오 데이터 및 해당 메타데이터의 저장을 위한 파일 구조는 ISO/IEC 14496-12 ISO Base Media 파일 포맷에 국한되는 것은 아니다.The file structure for storing such multi-video data and corresponding metadata is not limited to the ISO / IEC 14496-12 ISO Base Media file format.

도 3은 본 발명의 일 실시예에 적용된 비디오 생성 메타데이터를 위한 데이터 타입을 표 형태로 나타낸 도면이며, 도 4는 도 2 및 도 3을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면이다.FIG. 3 is a table illustrating data types for video generation metadata applied to an embodiment of the present invention in a tabular form. FIG. 4 is a diagram illustrating an example of video generation metadata generated using FIGS. 2 and 3. to be.

도 3 및 도 4를 참조하면, 전술한 도 2에서의 관련된 메타데이터를 생성하기 위해 도 3과 같이 표 형태로 데이터 타입을 정의하여 사용할 수 있다.3 and 4, data types may be defined and used in a table form as shown in FIG. 3 to generate related metadata in FIG. 2.

즉, 상기 비디오 생성 메타데이터를 위한 데이터 타입은, 획득 콘텐츠의 타이틀(Title), 생성자(Creator), 생성 위치 좌표와 날짜(CreationCoordinates), 생성 도구(CreationTool), 및 저작권(CopyrightString)을 포함하는 콘텐츠 타입(ContentType)과, 그레고리안(Gregorian) 기준을 따라 날짜 및 시각 정보를 나타내는 에이전트(Agent)로 이루어진 생성자 타입(CreatorType)과, 장소 이름(Name), 지역 이름(Region), 우편 주소(PostalAddress), 및 전자 우편 주소(ElectronicAddress)를 포함하는 장소 타입(PlaceType)과, 시간 시작점(TimePoint) 및 시간 길이(Duration)를 포함하는 시간 타입(TimeType)과, 비디오 카메라에 대한 정보(Tool), 및 비디오 획득을 위한 카메라 환경 파라미터 구성정보와 설정 값을 나타내는 셋팅(Setting)을 포함하는 생성 툴 타입(CreationToolType), 또는 주석(annotation) 텍스트 중 하나 이상을 포함하는 것으로 이루어진다.That is, the data type for the video generation metadata includes content including title, creator, creation position coordinates and date (CreationCoordinates), creation tool, and copyright (CopyrightString) of the acquired content. CreatorType consisting of ContentType, Agent representing date and time information according to Gregorian criteria, Place Name, Region Name, Postal Address PlaceType including,, and ElectronicAddress, TimeType including Time Start Point and Time Duration, Information about Video Camera (Tool), and Video Contains one or more of the CreationToolType, or annotation text, which contains settings for the camera environment parameter configuration information and settings for acquisition. Done that.

도 5a 및 도 5b는 본 발명의 일 실시예에 적용된 비디오 분석 메타데이터를 위한 데이터 타입을 표 형태로 나타낸 도면이고, 도 6은 도 5의 격자구조분할 타입을 설명하기 위해 비디오 내의 한 영상 격자분할 구조를 나타낸 도면이며, 도 7은 도 5 및 도 6의 격자구조분할 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면이다.5A and 5B are diagrams showing data types for video analysis metadata applied in an embodiment of the present invention in a tabular form, and FIG. 6 illustrates one image lattice splitting in a video to explain the lattice splitting type of FIG. 5. FIG. 7 is a diagram illustrating an example of video generation metadata generated by using the grid division type of FIGS. 5 and 6.

도 5 내지 도 7을 참조하면, 본 발명의 일 실시예에 적용된 비디오 분석은 예컨대, 움직임 객체 검출 및 추적, 객체 컬러 정보, 윤곽정보, 텍스쳐 정보 및 소리 정보(예컨대, 물체 파손 소리, 소음, 뛰는 소리, 비명, 폭발음, 경적, 싸우는 소리, 음악 소리, 총소리 등) 등을 분석하여 특징을 추출하고 이를 메타데이터 형태로 표현한다.5 to 7, video analysis applied to an embodiment of the present invention, for example, moving object detection and tracking, object color information, contour information, texture information and sound information (eg, object breakage sound, noise, running) Sounds, screams, explosions, horns, fighting sounds, music sounds, gunshots, etc.) to extract features and express them in the form of metadata.

도 5a 및 도 5b에 도시된 바와 같이, 비디오 분석 메타데이터를 위한 데이터 타입은, RGB, YCbCr, HSV 및 HMMD 컬러공간, 각 컬러공간 간 변환 매트릭스(LinearMatrix), 및 흑백 컬러공간(Monochrome)을 포함하는 컬러공간 타입(ColorSpaceType)과, 컬러공간(ColorSpace), 컬러양자화(ColorQuantization), 컬러 정보의 공간상관계수(SpatialCoherency), 및 우세 컬러 데이터의 비율을 나타내는 값(Value)을 포함하는 우세컬러 타입(DominantColorType)과, 의미적 정보(Semantic), 미디어 시각(MediaTime), 및 시각 서술자(VisualDescriptor)를 포함하는 비디오 세그먼트 타입(VideoSegmentType)과, 비디오 요약 이름(Name), 원 비디오의 식별자 ID(SourceID), 원 비디오의 위치(SourceLocator), 및 원 비디오의 정보(SourceInformation)를 포함하는 요약 타입(SummaryType)과, 비디오 요약 그룹 이름(Name) 및 비디오 요약을 주요 세그먼트로 표현하는 요약 세그먼트(SummarySegment)를 포함하는 요약 세그먼트 그룹 타입(SummarySegmentGroupType)과, 비디오 요약 타입(SummaryType), 요약 비디오의 주제 목록(SummaryThemeList), 및 요약 세그먼트 그룹(SummarySegmentGroup)을 포함하는 계층적 요약 타입(HierarchicalSummaryType)과, 비디오 요약 타입(SummaryType) 및 원 비디오의 시공간적 특성(VisualSummaryComponent)을 포함하는 순차적 요약 타입(SequentialSummaryType)과, 의미기본타입(SemanticBaseType), 의미묶음타입(SemanticBagType), 의미타입(SemanticType), 객체타입(ObjectType), 에이전트객체타입(AgentObjectType), 이벤트타입(EventType), 개념타입(ConceptType), 의미상태타입(SemanticStateType), 의미장소타입(SemanticPlaceType), 및 의미시각타입(SemanticTimeType)을 포함하는 의미(Semantic)와, 미디어 시간 시작점(MediaTimePoint), 미디어 상대 시간 시작점(MediaRelTimePoint), 미디어 시간 상대증분 시작점(MediaRelIncrTimePoint), 미디어 시간 길이(MediaDuration), 및 미디어 상대시간 길이(MediaIncrDuration)를 포함하는 미디어 시간(Media Time)과, 구역위치지정자 타입(RegionLocatorType), 격자구조분할 타입(GridLayoutType), 시공간위치 타입(SpatialTemporalLocatorType), 형상 궤적 표시자 타입(FigureTrajectoryType), 및 파라미터표현 궤적 타입(ParameterTrajectoryType)을 포함하는 비주얼 서술자(VisualDescriptor)과, 오디오위치지정자 타입(AudioLocatorType), 오디오콘텐츠 타입(AudioContentType), 및 오디오콘텐츠주석 타입(AudioContentAnnotationType)을 포함하는 오디오 서술자(AudioDescriptor) 중 적어도 하나 이상으로 이루어진다.As shown in FIGS. 5A and 5B, data types for video analytics metadata include RGB, YCbCr, HSV and HMMD color spaces, a transformation matrix between each color space (LinearMatrix), and a monochrome color space (Monochrome). A dominant color type including a color space type (ColorSpaceType), a color space, a color quantization (ColorQuantization), a spatial coherency of color information, and a value representing a ratio of dominant color data. DominantColorType, VideoSegmentType including Semantic, MediaTime, and VisualDescriptor, Video Summary Name, Source ID, The summary type including the location of the original video (SourceLocator) and the information of the source video (SourceInformation), the video summary group name, and the video summary are represented as main segments. Is a summary segment group type (SummarySegmentGroupType) containing a summary segment (SummarySegment), a hierarchical summary type (HierarchicalSummaryType) including a video summary type (SummaryType), a summary list of subjects (SummaryThemeList), and a summary segment group (SummarySegmentGroup). ), A sequential summary type (SummaryType) including the video summary type (SummaryType) and the spatio-temporal characteristics of the original video (VisualSummaryComponent), a semantic base type (SemanticBaseType), a semantic package type (SemanticBagType), a semantic type, and an object. Semantics including type (ObjectType), agent object type (AgentObjectType), event type (EventType), concept type (ConceptType), semantic state type (SemanticStateType), semantic place type (SemanticPlaceType), and semantic time type (SemanticTimeType) Semantic), media time start point (MediaTimePoint), media relative time start point (MediaRelTimePoint), media time Media Time, including Relative Increment Start Point (MediaRelIncrTimePoint), Media Time Length (MediaDuration), and Media Relative Time Length (MediaIncrDuration), RegionLocatorType, GridLayoutType, SpaceTime Visual Descriptor including position type (SpatialTemporalLocatorType), shape trajectory indicator type (FigureTrajectoryType), and parameter expression trajectory type (ParameterTrajectoryType), audiolocator type (AudioLocatorType), audio content type (AudioContentType), and audio At least one of an audio descriptor (AudioDescriptor) including a content annotation type (AudioContentAnnotationType).

여기서, 격자구조분할 타입(GridLayoutType)은 비디오 내의 영상을 격자구조로 분할하여 비주얼 특징정보를 서술할 수 있는 데이터 타입이다(도 6 참조).Here, the grid structure split type (GridLayoutType) is a data type that can describe visual feature information by dividing an image in a video into a grid structure (see FIG. 6).

도 8은 본 발명의 일 실시예에 적용된 비디오 내의 움직임 물체의 검출, 영역 정의 및 움직임 궤적 추적을 개념적으로 나타낸 도면이고, 도 9는 도 8과 도 5b의 시공간위치 타입과 형상 궤적 표시자 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면이다.FIG. 8 conceptually illustrates detection of motion objects, region definition, and movement trajectory tracking in a video applied to an embodiment of the present invention, and FIG. 9 illustrates the spatiotemporal position type and shape trajectory indicator types of FIGS. 8 and 5B. FIG. 1 is a diagram illustrating an example of video generation metadata generated by using.

도 8 및 도 9를 참조하면, 먼저, 영상 내에서 움직임 구역이 자동 검출되고 움직임 영역이 한 일 예로서 사각형 형태로 정의된다(다각형 또는 타원형, 원형, 임의의 외각 정보로 구성된 영역으로 정의 가능함). 움직임 구역이 시간에 따라 움직임을 사각형 박스의 꼭지점 이동 정보를 이용하여 궤적 정보로 나타낼 수 있다.Referring to FIGS. 8 and 9, first, a motion zone is automatically detected in an image and a motion region is defined as a quadrangle as an example (can be defined as a polygon or an ellipse, a circle, and an area composed of arbitrary external information). . The movement zone may represent the movement according to time as the trajectory information using the vertex movement information of the rectangular box.

도 10은 본 발명의 일 실시예에 적용된 비디오 내의 움직임 물체 영역의 우세 컬러 정보를 표현한 일 예를 나타낸 도면이고, 도 11은 도 10과 도 5a의 우세컬러 타입(DominantColor)을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면이다.FIG. 10 is a diagram illustrating an example of dominant color information of a moving object region in a video applied to an embodiment of the present invention, and FIG. 11 is a video generated using the dominant color type (DominantColor) of FIGS. 10 and 5A. A diagram illustrating an example of generation metadata.

도 12는 도 5a의 비디오 세그먼트 타입(VideoSegmentType)을 이용하여 비디오 구간 분할 및 비주얼 서술자(visual descriptor)를 연결하여 표현한 일 예를 나타낸 도면이고, 도 13은 도 12, 도 5a의 비디오 세그먼트 타입(VideoSegmentType) 및 도 5b의 격자구조분할 타입(GridLayoutType)과 구역위치지정자 타입(RegionLocatorType)을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면이다.FIG. 12 is a diagram illustrating an example of a video segmentation and a visual descriptor connected by using the video segment type (VideoSegmentType) of FIG. 5A. FIG. 13 is a video segment type (VideoSegmentType) of FIGS. 12 and 5A. FIG. 5B illustrates an example of video generation metadata generated by using a grid split type (GridLayoutType) and a region locator type (RegionLocatorType).

도 14는 본 발명의 일 실시예에 적용된 비디오 요약 생성을 위한 비디오 주요구간 선택 및 모음에 관한 일 예를 나타낸 도면이고, 도 15는 도 14와 도 5a의 계층적 요약 타입(HierarchicalSummary)을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면이다.FIG. 14 is a diagram illustrating an example of selecting and voweling a video main section for generating a video summary applied to an embodiment of the present invention. FIG. 15 uses the hierarchical summary type (HierarchicalSummary) of FIGS. 14 and 5A. FIG. 1 is a diagram illustrating an example of generated video generation metadata. FIG.

도 16은 도 5a의 순차적 요약 타입(SequentialSummary)을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면이고, 도 17a 내지 도 17c는 도 5a 및 도 5b의 다양한 데이터 타입을 사용하여 생성한 보다 풍부한 비디오 생성 메타데이터의 일 예를 나타낸 도면이다.FIG. 16 is a diagram illustrating an example of video generation metadata generated by using the sequential summary type of FIG. 5A, and FIGS. 17A to 17C are better than those generated by using various data types of FIGS. 5A and 5B. A diagram illustrating an example of rich video generation metadata.

전술한 바와 같이 생성된 메타데이터는 비디오 데이터와 함께 통합 파일 포맷으로 저장되어 관리되거나 데이터베이스(Database)를 통해 관리될 수 있다.The metadata generated as described above may be stored and managed together with the video data in an integrated file format or may be managed through a database.

도 18은 본 발명의 일 실시예에 따른 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 시스템을 나타낸 전체적인 블록 구성도로서, 예컨대, 차량의 내/외측에 설치된 감시용 카메라들을 이용하여 멀티비디오 관리 시스템을 구현하였지만, 이에 국한하지 않으며, 서로 다른 위치에 설치된 복수개의 카메라를 이용한 경우면 모두 구현 가능하다.FIG. 18 is a block diagram illustrating a multi-video management system based on a multi-video integrated file format structure according to an embodiment of the present invention. For example, FIG. 18 illustrates a multi-video using surveillance cameras installed inside and outside a vehicle. Although the management system is implemented, the present invention is not limited thereto, and any management system may be implemented using a plurality of cameras installed at different locations.

도 18을 참조하면, 본 발명의 일 실시예에 따른 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 시스템은, 크게 비디오 획득부(100), 비디오 내용분석부(200), 메타데이터 생성부(300), 파일 포맷 생성부(400), 데이터베이스(DB)(500), 및 내용 기반 검색장치(600)를 포함하여 이루어진다.Referring to FIG. 18, a multi-video management system based on a multi-video integrated file format structure according to an embodiment of the present invention includes a video acquirer 100, a video content analyzer 200, and a metadata generator. 300, a file format generation unit 400, a database (DB) 500, and a content-based retrieval device 600.

여기서, 비디오 획득부(100)는 서로 다른 위치에 설치된 복수개의 카메라(110a 내지 110d)를 통해 다양한 위치의 비디오 데이터를 획득하는 기능을 수행한다.Here, the video acquisition unit 100 performs a function of acquiring video data at various positions through the plurality of cameras 110a to 110d installed at different positions.

또한, 비디오 획득부(100)로부터 획득된 비디오 데이터는 예컨대, MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding(또는 H.264), 또는 MPEG-4 Scalable Video Coding 중 적어도 하나의 압축 방식을 사용하여 획득됨이 바람직하다.In addition, the video data obtained from the video acquisition unit 100 is, for example, MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding (or H.264), Or it is preferably obtained using at least one compression scheme of MPEG-4 Scalable Video Coding.

한편, 복수개의 카메라(110a 내지 110d)는 차량(10)의 내/외측 예컨대, 상/하방 및 좌/우측에 탑재됨이 바람직하지만, 이에 국한하지 않으며, 차량(10)의 다양한 위치에 탑재가 가능하다.On the other hand, the plurality of cameras (110a to 110d) is preferably mounted on the inside / outside of the vehicle 10, for example, up / down and left / right, but is not limited to this, it is mounted in various positions of the vehicle 10 It is possible.

비디오 내용분석부(200)는 비디오 획득부(100)로부터 획득된 비디오 데이터의 내용을 분석하여 비디오 및 오디오 특징정보를 자동적으로 추출하는 기능을 수행한다.The video content analyzer 200 performs a function of automatically extracting video and audio feature information by analyzing content of video data acquired from the video acquirer 100.

이때, 상기 비디오 및 오디오 특징정보는 예컨대, 비디오 내의 움직임 객체 검출 및 추적, 객체의 움직임 궤적, 객체의 위치, 고정된 객체의 위치 변화, 객체의 컬러, 윤곽 및 텍스쳐, 또는 소리 정보(예컨대, 물체 파손 소리, 소음, 뛰는 소리, 비명, 폭발음, 경적, 싸우는 소리, 음악 소리, 총소리 등) 중 적어도 하나의 정보로 이루어질 수 있다.In this case, the video and audio feature information may be, for example, detecting and tracking a moving object in a video, a motion trajectory of an object, a position of an object, a change in the position of a fixed object, a color, an outline and a texture of an object, or sound information (eg, an object). Breakage sound, noise, running sound, screaming, explosion sound, horn, fighting sound, music sound, gunshot, etc.).

메타데이터 생성부(300)는 비디오 내용분석부(200)로부터 추출된 비디오 및 오디오 특징정보를 제공받아 메타데이터 형태로 생성하는 기능을 수행한다.The metadata generator 300 receives the video and audio feature information extracted from the video content analyzer 200 and generates the metadata in the form of metadata.

파일 포맷 생성부(400)는 비디오 획득부(100)로부터 획득된 비디오 데이터 및 메타데이터 생성부(300)로부터 생성된 메타데이터를 하나의 통합 파일 포맷으로 생성하는 기능을 수행한다.The file format generation unit 400 generates a video data obtained from the video acquisition unit 100 and metadata generated from the metadata generation unit 300 in one integrated file format.

데이터베이스(DB)(500)는 파일 포맷 생성부(400)로부터 생성된 통합 파일 포맷을 데이터베이스화하여 저장 및 관리하는 기능을 수행한다.The database 500 performs a function of database-saving and managing the integrated file format generated from the file format generation unit 400.

즉, 메타데이터 생성부(300)로부터 생성된 메타데이터와 비디오 획득부(100) 로부터 획득된 비디오 데이터를 하나의 파일로 저장하도록 하는 파일 포맷 생성부(400)를 통해 하나의 콘텐츠로 데이터베이스(500)에 저장된다.That is, the database 500 as one content through the file format generation unit 400 for storing the metadata generated from the metadata generation unit 300 and the video data acquired from the video acquisition unit 100 as one file. )

한편, 데이터베이스(500)는 차량(10)에 물리적으로 탑재된 저장 장치일 수 있고, 인터넷(Internet)을 통해 접속이 가능한 네트워크 상의 저장 장치일 수 있다.Meanwhile, the database 500 may be a storage device physically mounted in the vehicle 10 or may be a storage device on a network that can be accessed through the Internet.

다른 한편, 상기 통합 파일 포맷의 구조는 전술한 도 1 내지 도 17에 도시된 바와 같은 통합 파일 포맷의 구조와 동일하므로, 이에 대한 구체적인 설명은 생략하기로 한다.On the other hand, since the structure of the unified file format is the same as that of the unified file format shown in FIGS. 1 to 17, a detailed description thereof will be omitted.

내용 기반 검색장치(600)는 데이터베이스(500)와 연동되어 사용자가 원하는 비디오를 특정 키워드로 요청하고 해당 비디오를 검색하여 이를 사용자가 용이하게 볼 수 있도록 디스플레이(Display)하는 기능을 수행한다.The content-based retrieval apparatus 600 performs a function of interworking with the database 500 so as to request a video desired by a user with a specific keyword, search for the corresponding video, and display the video for easy viewing by the user.

이러한 내용 기반 검색장치(600)는, 사용자가 원하는 비디오를 특정 키워드로 요청하고, 상기 요청된 결과를 사용자가 용이하게 볼 수 있도록 디스플레이하기 위한 사용자 인터페이스부(610)와, 사용자 인터페이스부(610)로부터 요청된 특정 키워드를 제공받아 해당 사용자의 질의를 처리하여 전송하는 사용자 질의 처리부(620)와, 데이터베이스(500)와 연동되어 사용자 질의 처리부(620)로부터 전송된 사용자의 질의를 제공받아 사용자가 원하는 비디오 데이터를 검색하는 내용 기반 검색부(630)와, 내용 기반 검색부(630)로부터 검색된 비디오 데이터를 제공받아 비디오 목록 및 해당 정보를 파싱 분석하여 사용자 인터페이스부(610)로 전송하는 검색 결과 분석부(640)를 포함하여 구성된다.The content-based retrieval apparatus 600 includes a user interface unit 610 and a user interface unit 610 for requesting a video desired by a user with a specific keyword and displaying the requested result for the user to easily view. The user query processor 620 receives a specific keyword requested from the user and processes and transmits the user's query, and the user's query received from the user query processor 620 in conjunction with the database 500 is provided to the user. The content-based search unit 630 for searching video data and the search result analysis unit for receiving the video data retrieved from the content-based search unit 630, parsing and analyzing the video list and the corresponding information, and transmitting the same to the user interface unit 610. And 640.

이와 같이 구성된 내용 기반 검색장치(600)의 사용자 인터페이스부(610)를 통해 사용자는 비디오의 자세한 정보 및 필요한 부분을 골라 시청할 수 있다.Through the user interface 610 of the content-based retrieval apparatus 600 configured as described above, a user may select and view detailed information of a video and a necessary part.

추가적으로, 비디오 획득부(100)로부터 실시간으로 획득된 비디오 데이터를 파싱하여 랜더링을 수행하고 이를 데이터베이스(500)에 저장되도록 전송하는 비디오 렌더링부(700)를 더 포함할 수 있다.Additionally, the video rendering unit 700 may further include a video renderer 700 that parses video data obtained in real time from the video acquisition unit 100 to perform rendering and store the same in the database 500.

즉, 사용자는 차량(10) 내에 탑재된 비디오 렌더링부(700)를 통해 획득된 비디오 데이터를 실시간으로 감시할 수 있다. 또한, 단순히 복수개의 카메라(110a 내지 110d)를 통해 획득된 비디오 데이터를 렌더링할 뿐만 아니라 데이터베이스(500)에 저장된 비디오를 디스플레이(Display)할 수 있도록 내용 기반 검색장치(600)의 기능도 포함할 수 있다.That is, the user may monitor in real time the video data acquired through the video rendering unit 700 mounted in the vehicle 10. In addition, it may not only render the video data obtained through the plurality of cameras (110a to 110d), but may also include a function of the content-based search device 600 to display the video stored in the database 500. have.

전술한 바와 같이, 본 발명은 멀티비디오 데이터와 비디오 분석 메타데이터 및 차량 운행 정보를 전술한 통합 파일 포맷으로 저장관리 하며 필요시 검색 및 탐색을 제공하고, 동시에 멀티비디오의 경우 차량에 탑재된 모니터를 통해 전/후방 및 좌/우측방 비디오 데이터를 디스플레이 함으로써, 사각지대 시야 확보, 주변 접근 차량 경보 등을 동시에 수행하여 차량 주행의 안전을 제공할 수 있다. 뿐만 아니라 저장된 통합 파일 포맷으로 저장된 멀티비디오 데이터, 비디오 분석 메타데이터 및 차량 운행 정보 메타데이터는 차량 블랙박스로 저장되어 교통사고 시 운행 기록 및 주변 정황 자료로 사용될 수 있으며, 차량 도난이나 차량 파손 시 주변 정황 자료를 획득하여 확인하는 자료로 사용될 수 있는 장점이 있다.As described above, the present invention stores and manages multi-video data, video analysis metadata, and vehicle driving information in the aforementioned integrated file format, provides search and search if necessary, and simultaneously monitors a vehicle mounted on a vehicle. By displaying the front / rear and left / right video data through it, it is possible to provide safety of vehicle driving by simultaneously performing blind spot visibility and surrounding approach vehicle warning. In addition, multi-video data, video analysis metadata, and vehicle driving information metadata stored in the integrated file format can be stored as a vehicle black box and used as driving records and surroundings in case of a traffic accident. There is an advantage that can be used as data to obtain and confirm context data.

또한, 기존의 비디오 데이터를 단순 저장하고 비디오 시스템 화면을 통해 디스플레이(Display)하는 형태에 머물러 있었으나, 본 발명은 첫째, 멀티비디오 획득 및 멀티비디오 데이터 분석 메타데이터 생성, 그리고 이를 차량 운행 정보 메타데이터와 결합하여 저장함으로써 파일 포맷간 상호호환성을 제공할 수 있다.In addition, although the conventional video data was simply stored and displayed through a video system screen, the present invention firstly, multi-video acquisition and multi-video data analysis metadata generation, and vehicle driving information metadata and Combining and storing can provide interoperability between file formats.

둘째, 이를 지능형 감시 비디오 시스템으로 구현함으로써 감시비디오 데이터에 대한 내용기반 검색 및 탐색을 통해 원하는 비디오 구간에 쉽게 접근하고 탐색 할 수 있을 뿐만 아니라, 감시 비디오 분석을 통해 위험 경고가 가능하다.Second, by implementing this as an intelligent surveillance video system, users can easily access and search the desired video section through content-based search and search for surveillance video data, as well as risk warning through surveillance video analysis.

셋째, 멀티비디오 데이터, 비디오 분석 메타데이터 및 차량 운행 정보 메타데이터가 통합 파일 포맷으로 차량 블랙박스로 저장되어 교통사고 시 운행 기록 및 주변 정황 자료로 사용될 수 있고, 차량 도난이나 차량 파손 시 주변 정황 자료를 획득하여 확인하는 자료로 사용가능하며, 차량에 탑재된 모니터를 통해 전/후방 및 좌/우측방 비디오 데이터를 디스플레이 함으로써 사각지대 시야 확보, 주변 접근 차량 경보 등을 동시에 수행하여 차량 주행의 안전을 제공할 수 있다.Third, multi-video data, video analysis metadata, and vehicle driving information metadata can be stored as a vehicle black box in an integrated file format that can be used as a driving record and surrounding situation data in case of a traffic accident. It can be used as a data for acquiring and confirming the data, and the front / rear and left / right video data are displayed on the monitor mounted on the vehicle to secure blind spots and to alert the neighboring vehicles at the same time. Can provide.

도 19는 본 발명의 일 실시예에 따른 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 방법을 설명하기 위한 전체적인 흐름도이다.19 is a flowchart illustrating a multi-video managing method based on a multi-video integrated file format structure according to an embodiment of the present invention.

도 18 및 도 19를 참조하면, 본 발명의 일 실시예에 따른 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 방법은, 먼저 서로 다른 위치에 설치된 적어도 하나의 카메라(110a 내지 110d)로부터 여러 위치의 비디오 데이터를 획득하여 비디오 획득부(100)로 전송한다(S100).18 and 19, a multi-video management method based on a multi-video integrated file format structure according to an embodiment of the present invention, first, from at least one camera (110a to 110d) installed in different locations The video data of the position is obtained and transmitted to the video acquisition unit 100 (S100).

이때, 상기 비디오 데이터는 예컨대, MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding(또는 H.264), 또는 MPEG-4 Part 10 Scalable Extension - Scalable Video Coding 중 적어도 하나의 압축 방식을 사용하여 획득함이 바람직하다.In this case, the video data may be, for example, MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding (or H.264), or MPEG-4 Part 10 Scalable Extension. Obtaining using at least one compression scheme of scalable video coding.

한편, 상기 단계S100에서 획득된 비디오 데이터는 별도의 디스플레이 장치를 통해 디스플레이(Display)하는 과정을 더 포함할 수 있다.On the other hand, the video data obtained in step S100 may further include a process of displaying through a separate display device.

다른 한편, 적어도 하나의 카메라(110a 내지 110d)는 차량(10)의 내/외측 예컨대, 상/하방 및 좌/우측에 탑재됨이 바람직하지만, 이에 국한하지 않으며, 차량(10)의 다양한 위치에 탑재가 가능하다.On the other hand, the at least one camera (110a to 110d) is preferably mounted on the inside / outside of the vehicle 10, for example, up / down and left / right, but is not limited to this, in various locations of the vehicle 10 Can be mounted.

다음으로, 비디오 내용분석부(200) 및 메타데이터 생성부(300)를 통해 상기 단계S100에서 획득된 각 비디오 데이터에 대한 내용 기반 특징을 분석하고 이를 메타데이터로 생성한다(S200).Next, the content-based feature of each video data acquired in step S100 is analyzed through the video content analyzer 200 and the metadata generator 300 and generated as metadata (S200).

이때, 상기 단계S200에서 생성된 메타데이터는 비디오를 생성하기 위한 비디오 장비 식별자 및 생성 날짜, 비디오 획득 장소, 날씨 조건, 비디오 획득 관련 카메라 파라미터 값, 또는 비디오 저작권 중 적어도 하나의 정보를 포함할 수 있다.In this case, the metadata generated in step S200 may include at least one of a video equipment identifier for generating a video, a creation date, a video acquisition location, a weather condition, a camera parameter value related to video acquisition, and a video copyright. .

또한, 상기 단계S200에서의 내용 기반 특징은 예컨대, 움직임 객체 검출 및 추적, 객체의 움직임 궤적, 객체의 위치, 고정된 객체의 위치 변화, 객체의 컬러, 윤곽 및 텍스쳐, 또는 소리 정보(예컨대, 물체 파손 소리, 소음, 뛰는 소리, 비명, 폭발음, 경적, 싸우는 소리, 음악 소리, 총소리 등) 중 적어도 하나의 정보를 포함할 수 있다.In addition, the content-based feature in the step S200 is, for example, moving object detection and tracking, the movement trajectory of the object, the position of the object, the change of the position of the fixed object, the color, contour and texture of the object, or sound information (eg, object Breakage sound, noise, running sound, screaming, explosion sound, horn, fighting sound, music sound, gunfire, and the like.

또한, 상기 단계S200에서 비디오 분석된 결과를 별도의 디스플레이 장치나 스피커 등을 통해 출력하는 과정을 더 포함할 수 있다.The method may further include outputting the result of the video analysis in step S200 through a separate display device or a speaker.

또한, 상기 단계S200에서는 별도의 사용자 인터페이스부(610)를 통해 감시하고자 하는 구역 및 감시 대상 객체 지정, 감시 추적 경로를 설정하고 해당 대상에 대한 메타데이터를 생성할 수 있다.In addition, in step S200, an area to be monitored and a target object to be monitored and a monitoring trace path may be set through a separate user interface 610, and metadata for the corresponding object may be generated.

또한, 상기 단계S200은 상기 단계S100에서 획득된 비디오 데이터를 분석하여 차량 접근 또는 훼손의 특징 정보를 분석하고 이를 디스플레이 또는 스피커 장치에 경보하는 과정을 더 포함할 수 있다.In addition, the step S200 may further include analyzing feature information of a vehicle approach or damage by analyzing the video data obtained in the step S100 and alerting the display or speaker device.

이후에, 파일 포맷 생성부(400)를 통해 상기 단계S100에서 획득된 비디오 데이터와 상기 단계S200에서 생성된 메타데이터를 하나의 통합 파일 포맷으로 생성하여 데이터베이스(500)에 저장한다(S300).Subsequently, the video data obtained in step S100 and the metadata generated in step S200 are generated through the file format generation unit 400 in one integrated file format and stored in the database 500 (S300).

이때, 상기 통합 파일 포맷의 구조는 적어도 하나의 비디오 데이터 및 메타데이터를 저장하기 위한 파일 구조로서, 엠닷(mdat) 박스 내에 적어도 하나의 독립적인 단일 비디오 데이터 및 메타데이터를 저장하거나, 엠닷(mdat) 박스 내에 적어도 하나의 독립적인 단일 비디오 데이터 및 메타데이터의 위치를 지정하는 파일 포인터를 저장할 수 있다(도 1 내지 도 17 참조).In this case, the integrated file format is a file structure for storing at least one video data and metadata, and stores at least one independent single video data and metadata in an mdat box, or mdat. A file pointer may be stored in the box that specifies the location of at least one independent single video data and metadata (see FIGS. 1-17).

또한, 적어도 하나의 비디오 데이터에 대한 메타데이터는 메타(meta) 박스 내에 저장하고, 상기 비디오 데이터는 엠닷(mdat) 박스 내에 저장하거나, 실제 저장 위치 포인터에 저장함이 바람직하다.In addition, it is preferable that metadata for at least one video data is stored in a meta box, and the video data is stored in an mdat box or stored in an actual storage location pointer.

또한, 상기 통합 파일 포맷은 차량(10)에 탑재된 저장 장치 또는 인터넷을 통해 접속할 수 있는 네트워크 상의 저장 장치에 저장할 수 있다.In addition, the integrated file format may be stored in a storage device mounted on the vehicle 10 or a storage device on a network accessible through the Internet.

추가적으로, 내용 기반 검색장치(600)를 통해 사용자의 요청에 의해 상기 저장된 통합 파일 포맷에 대한 검색을 수행하는 과정(S400)과, 상기 검색 결과에 해당하는 비디오를 사용자가 용이하게 볼 수 있도록 디스플레이(Display)하는 과정(S500)을 더 포함할 수 있다.In addition, a process of performing a search for the stored integrated file format by a user's request through the content-based retrieval device 600 (S400), and displaying a video corresponding to the search result so that the user can easily view the video ( Display process may further include (S500).

한편, 본 발명의 실시예에 따른 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.Meanwhile, the multi-video management method based on the multi-video integrated file format structure according to the embodiment of the present invention may also be embodied as computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.

예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피디스크, 이동식 저장장치, 비휘발성 메모리(Flash Memory), 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다.For example, the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a hard disk, a floppy disk, a removable storage device, a nonvolatile memory (Flash memory). Optical data storage, and the like, and also implemented in the form of a carrier wave (eg, transmission over the Internet).

또한, 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.The computer readable recording medium can also be distributed over computer systems connected over a computer network so that the computer readable code is stored and executed in a distributed fashion.

전술한 본 발명에 따른 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조 및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.Although the foregoing has described a preferred embodiment of the integrated file format structure composed of multi-video and metadata according to the present invention, a multi-video management system based on the same, and a method thereof, the present invention is not limited thereto. It is possible to carry out various modifications within the scope of the invention and the accompanying drawings and this also belongs to the invention.

도 1은 본 발명의 일 실시예에 적용된 하나 이상의 비디오 및 메타데이터 저장을 위한 파일 포맷 구조의 형태를 나타낸 도면.1 is a diagram showing the form of a file format structure for storing one or more videos and metadata applied to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 멀티비디오 획득 및 관련 생성 메타데이터를 하나의 통합 파일 포맷으로 저장하기 위한 개념도.2 is a conceptual diagram for storing multi-video acquisition and associated generated metadata in one unified file format according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 적용된 비디오 생성 메타데이터를 위한 데이터 타입을 표 형태로 나타낸 도면.3 is a table showing data types for video generation metadata applied to an embodiment of the present invention.

도 4는 도 2 및 도 3을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면.4 is a diagram illustrating an example of video generation metadata generated using FIGS. 2 and 3.

도 5a 및 도 5b는 본 발명의 일 실시예에 적용된 비디오 분석 메타데이터를 위한 데이터 타입을 표 형태로 나타낸 도면.5A and 5B are tabular data types for video analytics metadata applied in an embodiment of the invention.

도 6은 도 5의 격자구조분할 타입을 설명하기 위해 비디오 내의 한 영상 격자분할 구조를 나타낸 도면.FIG. 6 is a diagram illustrating an image grid division structure in a video to explain the grid division type of FIG. 5; FIG.

도 7은 도 5 및 도 6의 격자구조분할 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면.FIG. 7 is a diagram illustrating an example of video generation metadata generated by using the grid division type of FIGS. 5 and 6.

도 8은 본 발명의 일 실시예에 적용된 비디오 내의 움직임 물체의 검출, 영역 정의 및 움직임 궤적 추적을 개념적으로 나타낸 도면.FIG. 8 conceptually illustrates detection, region definition and motion trajectory tracking of a moving object in a video applied to an embodiment of the present invention. FIG.

도 9는 도 8과 도 5b의 시공간위치 타입과 형상 궤적 표시자 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면.FIG. 9 illustrates an example of video generation metadata generated by using the spatiotemporal position type and shape trajectory indicator type of FIGS. 8 and 5B.

도 10은 본 발명의 일 실시예에 적용된 비디오 내의 움직임 물체 영역의 우 세 컬러 정보를 표현한 일 예를 나타낸 도면.FIG. 10 is a diagram illustrating an example of dominant color information of a moving object region in a video applied to an embodiment of the present invention. FIG.

도 11은 도 10과 도 5a의 우세컬러 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면.FIG. 11 illustrates an example of video generation metadata generated by using the dominant color type of FIGS. 10 and 5A.

도 12는 도 5a의 비디오 세그먼트 타입을 이용하여 비디오 구간 분할 및 비주얼 서술자를 연결하여 표현한 일 예를 나타낸 도면.FIG. 12 illustrates an example of a video segmentation and a visual descriptor connected by using the video segment type of FIG. 5A. FIG.

도 13은 도 12, 도 5a의 비디오 세그먼트 타입 및 도 5b의 격자구조분할 타입과 구역위치지정자 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면.FIG. 13 is a diagram illustrating an example of video generation metadata generated by using the video segment type of FIGS. 12 and 5A and the grid segmentation type and the locator type of FIG. 5B.

도 14는 본 발명의 일 실시예에 적용된 비디오 요약 생성을 위한 비디오 주요구간 선택 및 모음에 관한 일 예를 나타낸 도면.FIG. 14 is a diagram illustrating an example of a video main section selection and a collection for generating a video summary applied to an embodiment of the present invention. FIG.

도 15는 도 14와 도 5a의 계층적 요약 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면.FIG. 15 illustrates an example of video generation metadata generated using the hierarchical summary types of FIGS. 14 and 5A.

도 16은 도 5a의 순차적 요약 타입을 사용하여 생성한 비디오 생성 메타데이터의 일 예를 나타낸 도면.FIG. 16 illustrates an example of video generation metadata generated using the sequential summary type of FIG. 5A. FIG.

도 17a 내지 도 17c는 도 5a 및 도 5b의 다양한 데이터 타입을 사용하여 생성한 보다 풍부한 비디오 생성 메타데이터의 일 예를 나타낸 도면.17A-17C illustrate an example of richer video generation metadata generated using the various data types of FIGS. 5A and 5B.

도 18은 본 발명의 일 실시예에 따른 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 시스템을 나타낸 전체적인 블록 구성도.FIG. 18 is a block diagram illustrating a multi-video management system based on a multi-video integrated file format structure according to an embodiment of the present invention. FIG.

도 19는 본 발명의 일 실시예에 따른 멀티비디오 통합 파일 포맷 구조를 기반으로 하는 멀티비디오 관리 방법을 설명하기 위한 전체적인 흐름도.19 is a flowchart illustrating a multi-video management method based on a multi-video integrated file format structure according to an embodiment of the present invention.

Claims (36)

삭제delete 적어도 하나의 비디오 데이터 및 관련 생성 메타데이터를 하나의 파일 포맷으로 구성하는 멀티비디오 통합 파일 포맷 구조로서,A multi-video unified file format structure comprising at least one video data and associated creation metadata in one file format, 파일의 타입 정보를 기록하기 위한 에프타입(ftyp) 박스;A ftyp box for recording type information of the file; 하나 이상의 비디오 데이터 및 시각 정보를 가지는 메타데이터(timed metadata)에 대한 정보를 기록하기 위한 무브(moov) 박스;A move box for recording information on metadata having one or more video data and visual information; 적어도 하나의 비디오 데이터 및 해당 메타데이터를 저장하기 위한 엠닷(mdat) 박스; 및An mdat box for storing at least one video data and corresponding metadata; And 통합 파일 전체의 생성 정보에 대한 파일 레벨의 메타데이터를 기록하기 위한 메타(meta) 박스를 포함하되,A meta box for recording file-level metadata of the creation information of the entire integration file, 상기 엠닷(mdat) 박스에서 각 비디오 및 관련 메타데이터는 각각 별도의 파일로 외부에 저장되는 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.In the mdat box, each video and related metadata are stored externally as separate files, respectively. 제 2 항에 있어서,The method of claim 2, 상기 엠닷(mdat) 박스에 저장된 각 비디오 및 메타데이터의 파일 포맷 구조는, ISO/IEC 14496-12 ISO Base Media 파일 포맷인 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.The file format structure of each video and metadata stored in the mdat box is an ISO / IEC 14496-12 ISO Base Media file format. 제 2 항에 있어서,The method of claim 2, 상기 엠닷(mdat) 박스에 저장된 각 비디오 및 메타데이터의 파일 포맷 구조는, 파일의 타입 정보를 기록하기 위한 에프타입(ftyp) 박스;The file format structure of each video and metadata stored in the mdat box includes: a ftyp box for recording type information of a file; 비디오 데이터에 대한 정보를 기록하기 위한 무브(moov) 박스;A move box for recording information on the video data; 비디오 데이터를 기록하기 위한 엠닷(mdat) 박스; 및An mdat box for recording video data; And 상기 비디오 데이터의 위치 정보 및 메타데이터를 기록하기 위한 메타(meta) 박스를 포함하는 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.And a meta box for recording location information and metadata of the video data. 제 4 항에 있어서,The method of claim 4, wherein 상기 메타(meta) 박스 내에는 비디오 ID, 비디오 이름, 적용 콘텐츠 보호 인덱스, 콘텐츠 타입, 또는 콘텐츠 부호화 또는 비디오 관련 메타데이터 중 적어도 하나의 해당 비디오 데이터에 대한 정보를 기록하는 것을 특징으로 하는 멀티비디 오 및 메타데이터로 구성된 통합 파일 포맷 구조.The meta box records information on at least one corresponding video data among a video ID, a video name, an applied content protection index, a content type, or content encoding or video related metadata. And an integrated file format structure consisting of metadata. 제 4 항에 있어서,The method of claim 4, wherein 비디오 관련 메타데이터는,Video related metadata, 비디오를 생성하기 위한 비디오 생성 메타데이터; 및Video generation metadata for generating video; And 비디오를 분석하기 위한 비디오 분석 메타데이터를 포함하는 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.An integrated file format structure consisting of multivideo and metadata, including video analytics metadata for analyzing the video. 제 6 항에 있어서,The method of claim 6, 상기 비디오 생성 메타데이터는,The video generation metadata, 비디오 장비 및 생성 날짜, 비디오 획득 장소에 대한 정보를 기록한 메타데이터인 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.Integrated file format structure consisting of multi-video and metadata, characterized in that the recorded information on the video equipment, the creation date, the location of the video acquisition. 제 6 항에 있어서,The method of claim 6, 상기 비디오 생성 메타데이터를 위한 데이터 타입은,The data type for the video generation metadata is 획득 콘텐츠의 타이틀(Title), 생성자(Creator), 생성 위치 좌표와 날 짜(CreationCoordinates), 생성 도구(CreationTool), 및 저작권(CopyrightString)을 포함하는 콘텐츠 타입(ContentType);A content type including a title, a creator, a creation position coordinate and a date, a creation tool, a creation tool, and a copyright string of the acquired content; 그레고리안(Gregorian) 기준을 따라 날짜 및 시각 정보를 나타내는 에이전트(Agent)로 이루어진 생성자 타입(CreatorType);A CreatorType comprising an Agent representing date and time information according to a Gregorian criterion; 장소 이름(Name), 지역 이름(Region), 우편 주소(PostalAddress), 및 전자 우편 주소(ElectronicAddress)를 포함하는 장소 타입(PlaceType);PlaceType including Place Name, Region Name, PostalAddress, and ElectronicAddress; 시간 시작점(TimePoint) 및 시간 길이(Duration)를 포함하는 시간 타입(TimeType); 또는A time type (TimeType) including a time start point (TimePoint) and a time duration (Duration); or 비디오 카메라에 대한 정보(Tool), 및 비디오 획득을 위한 카메라 환경 파라미터 구성정보와 설정 값을 나타내는 셋팅(Setting)을 포함하는 생성 툴 타입(CreationToolType) 중 적어도 하나로 이루어진 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.Multi-video and metadata, characterized in that at least one of the creation tool type (Tool), including information about the video camera (Tool), and configuration information and settings of the camera environment parameter configuration for video acquisition (Setting) Integrated file format structure. 제 6 항에 있어서,The method of claim 6, 상기 비디오 분석 메타데이터는,The video analytics metadata, 움직임 객체 검출 및 추적, 객체 컬러 정보, 윤곽 정보, 텍스쳐 정보, 및 소리 정보를 분석하여 그 특징을 추출하고 이를 메타데이터 형태로 표현한 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.An integrated file format structure consisting of multi-video and metadata characterized by extracting and expressing features in the form of metadata by analyzing motion object detection and tracking, object color information, contour information, texture information, and sound information. 제 6 항에 있어서, The method of claim 6, 상기 비디오 분석 메타데이터를 위한 데이터 타입은,The data type for the video analytics metadata is RGB, YCbCr, HSV 및 HMMD 컬러공간, 각 컬러공간 간 변환 매트릭스(LinearMatrix), 및 흑백 컬러공간(Monochrome)을 포함하는 컬러공간 타입(ColorSpaceType);A color space type (ColorSpaceType) including an RGB, YCbCr, HSV and HMMD color space, a transformation matrix between each color space (LinearMatrix), and a monochrome color space (Monochrome); 컬러공간(ColorSpace), 컬러양자화(ColorQuantization), 컬러 정보의 공간상관계수(SpatialCoherency), 및 우세 컬러 데이터의 비율을 나타내는 값(Value)을 포함하는 우세컬러 타입(DominantColorType);A DominantColorType including a ColorSpace, a Color Quantization, a Spatial Coherency of Color Information, and a Value representing a ratio of Dominant Color Data; 의미적 정보(Semantic), 미디어 시각(MediaTime), 및 시각 서술자(VisualDescriptor)를 포함하는 비디오 세그먼트 타입(VideoSegmentType);A video segment type (VideoSegmentType) including semantic information (Semantic), media time (MediaTime), and visual descriptor (VisualDescriptor); 비디오 요약 이름(Name), 원 비디오의 식별자 ID(SourceID), 원 비디오의 위치(SourceLocator), 및 원 비디오의 정보(SourceInformation)를 포함하는 요약 타입(SummaryType);A summary type including a video summary name (Name), an identifier ID (SourceID) of the original video, a location (SourceLocator) of the original video, and source information (SourceInformation); 비디오 요약 그룹 이름(Name) 및 비디오 요약을 주요 세그먼트로 표현하는 요약 세그먼트(SummarySegment)를 포함하는 요약 세그먼트 그룹 타입(SummarySegmentGroupType);A Summary Segment GroupType including a Video Summary Group Name and a Summary Segment representing the Video Summary as a Major Segment; 비디오 요약 타입(SummaryType), 요약 비디오의 주제 목록(SummaryThemeList), 및 요약 세그먼트 그룹(SummarySegmentGroup)을 포함하는 계층적 요약 타입(HierarchicalSummaryType);HierarchicalSummaryType including a video summary type (SummaryType), a summary list of subjects (SummaryThemeList), and a summary segment group (SummarySegmentGroup); 비디오 요약 타입(SummaryType) 및 원 비디오의 시공간적 특성(VisualSummaryComponent)을 포함하는 순차적 요약 타입(SequentialSummaryType);SequentialSummaryType including a video summary type (SummaryType) and the spatio-temporal characteristics (VisualSummaryComponent) of the original video; 의미기본타입(SemanticBaseType), 의미묶음타입(SemanticBagType), 의미타입(SemanticType), 객체타입(ObjectType), 에이전트객체타입(AgentObjectType), 이벤트타입(EventType), 개념타입(ConceptType), 의미상태타입(SemanticStateType), 의미장소타입(SemanticPlaceType), 및 의미시각타입(SemanticTimeType)을 포함하는 의미(Semantic);SemanticBaseType, SemanticBagType, SemanticType, ObjectType, ObjectType, AgentObjectType, EventType, ConceptType, SemanticStateType Semantic including), semantic place type (SemanticPlaceType), and semantic time type (SemanticTimeType); 미디어 시간 시작점(MediaTimePoint), 미디어 상대 시간 시작점(MediaRelTimePoint), 미디어 시간 상대증분 시작점(MediaRelIncrTimePoint), 미디어 시간 길이(MediaDuration), 및 미디어 상대시간 길이(MediaIncrDuration)를 포함하는 미디어 시간(Media Time);Media Time including Media Time Start Point (MediaTimePoint), Media Relative Time Start Point (MediaRelTimePoint), Media Time Relative Increment Start Point (MediaRelIncrTimePoint), Media Time Length (MediaDuration), and Media Relative Time Length (MediaIncrDuration); 구역위치지정자 타입(RegionLocatorType), 격자구조분할 타입(GridLayoutType), 시공간위치 타입(SpatialTemporalLocatorType), 형상 궤적 표시자 타입(FigureTrajectoryType), 및 파라미터표현 궤적 타입(ParameterTrajectoryType)을 포함하는 비주얼 서술자(VisualDescriptor); 또는A VisualDescriptor comprising a RegionLocatorType, a GridLayoutType, a SpatialTemporalLocatorType, a Shape Trajectory Type, a FigureTrajectoryType, and a Parameter Representation Trajectory Type; or 오디오위치지정자 타입(AudioLocatorType), 오디오콘텐츠 타입(AudioContentType), 및 오디오콘텐츠주석 타입(AudioContentAnnotationType)을 포함하는 오디오 서술자(AudioDescriptor) 중 적어도 하나로 이루어진 것을 특징으로 하는 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조.An integrated file format structure consisting of multi-video and metadata, characterized in that it comprises at least one of an audio descriptor (AudioLocatorType), an audio content type (AudioContentType), and an audio content annotation type (AudioContentAnnotationType). . 삭제delete 서로 다른 위치에 설치된 복수개의 카메라를 통해 비디오 데이터를 획득하는 비디오 획득부;A video acquisition unit which acquires video data through a plurality of cameras installed at different locations; 상기 획득된 비디오 데이터의 내용을 분석하여 비디오 및 오디오 특징정보를 추출하는 비디오 내용분석부;A video content analyzer configured to analyze the content of the obtained video data and extract video and audio feature information; 상기 추출된 비디오 및 오디오 특징정보를 메타데이터 형태로 생성하는 메타데이터 생성부;A metadata generator for generating the extracted video and audio feature information in the form of metadata; 상기 획득된 비디오 데이터 및 상기 생성된 메타데이터를 하나의 통합 파일 포맷으로 생성하는 파일 포맷 생성부;A file format generator for generating the obtained video data and the generated metadata into one integrated file format; 상기 생성된 통합 파일 포맷을 저장하는 데이터베이스;A database for storing the generated unified file format; 상기 데이터베이스와 연동되어 사용자가 원하는 비디오를 특정 키워드로 요청하고 해당 비디오를 검색하여 이를 사용자가 용이하게 볼 수 있도록 디스플레이하기 위한 내용 기반 검색수단; 및Content-based retrieval means for interworking with the database and requesting a video desired by a user with a specific keyword, searching for the video, and displaying the video for easy viewing by the user; And 상기 비디오 획득부로부터 실시간으로 획득된 비디오 데이터를 파싱하여 랜더링을 수행하고 이를 상기 데이터베이스에 저장되도록 전송하는 비디오 렌더링부를 포함하는 멀티비디오 관리 시스템.And a video rendering unit for parsing video data obtained in real time from the video obtaining unit, performing rendering, and transmitting the same to be stored in the database. 제 12 항에 있어서,The method of claim 12, 상기 복수개의 카메라는 차량의 내/외측에 탑재되는 것을 특징으로 하는 멀티비디오 관리 시스템.The plurality of cameras are mounted on the inside / outside of the vehicle multi-video management system, characterized in that. 제 12 항에 있어서,The method of claim 12, 상기 비디오 획득부로부터 획득된 비디오 데이터는 MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding(또는 H.264), 또는 MPEG-4 Scalable Video Coding 중 적어도 하나의 압축 방식을 사용하여 획득되는 것을 특징으로 하는 멀티비디오 관리 시스템.The video data obtained from the video acquisition unit may be MPEG-2 Video, H.26x, VC1, Motion JPEG, MPEG-4 Visual, MPEG-4 Part 10 Advanced Video Coding (or H.264), or MPEG-4 Scalable Video. Multi-video management system, characterized in that obtained by using at least one compression scheme of the coding. 제 12 항에 있어서,The method of claim 12, 상기 비디오 및 오디오 특징정보는,The video and audio feature information, 움직임 객체 검출 및 추적, 객체의 움직임 궤적, 객체의 위치, 고정된 객체의 위치 변화, 객체의 컬러, 윤곽 및 텍스쳐, 또는 소리 정보 중 적어도 하나의 정보로 이루어진 것을 특징으로 하는 멀티비디오 관리 시스템.A moving object detection and tracking, the movement trajectory of the object, the position of the object, the change of the position of the fixed object, the color, contour and texture of the object, or multi-video management system comprising at least one information. 제 12 항에 있어서,The method of claim 12, 상기 통합 파일 포맷의 구조는,The structure of the integrated file format, 파일의 타입 정보를 기록하기 위한 에프타입(ftyp) 박스;A ftyp box for recording type information of the file; 하나 이상의 비디오 데이터 및 시각 정보를 가지는 메타데이터(timed metadata)에 대한 정보를 기록하기 위한 무브(moov) 박스;A move box for recording information on metadata having one or more video data and visual information; 적어도 하나의 비디오 데이터 및 해당 메타데이터를 저장하기 위한 엠닷(mdat) 박스; 및An mdat box for storing at least one video data and corresponding metadata; And 통합 파일 전체의 생성 정보에 대한 파일 레벨의 메타데이터를 기록하기 위한 메타(meta) 박스를 포함하는 것을 특징으로 하는 멀티비디오 관리 시스템.And a meta box for recording file-level metadata for creation information of the entire integrated file. 제 16 항에 있어서,The method of claim 16, 상기 엠닷(mdat) 박스에 저장된 각 비디오 및 메타데이터의 파일 포맷 구조는, 파일의 타입 정보를 기록하기 위한 에프타입(ftyp) 박스;The file format structure of each video and metadata stored in the mdat box includes: a ftyp box for recording type information of a file; 비디오 데이터에 대한 정보를 기록하기 위한 무브(moov) 박스;A move box for recording information on the video data; 비디오 데이터를 기록하기 위한 엠닷(mdat) 박스; 및An mdat box for recording video data; And 상기 비디오 데이터의 위치 정보 및 메타데이터를 기록하기 위한 메타(meta) 박스를 포함하는 것을 특징으로 하는 멀티비디오 관리 시스템.And a meta box for recording the location information and the metadata of the video data. 제 17 항에 있어서,The method of claim 17, 비디오 관련 메타데이터는,Video related metadata, 비디오를 생성하기 위한 비디오 생성 메타데이터; 및Video generation metadata for generating video; And 비디오를 분석하기 위한 비디오 분석 메타데이터를 포함하는 것을 특징으로 하는 멀티비디오 관리 시스템.And a video analysis metadata for analyzing the video. 제 18 항에 있어서,The method of claim 18, 상기 비디오 생성 메타데이터는,The video generation metadata, 비디오 장비 및 생성 날짜, 비디오 획득 장소에 대한 정보를 기록한 메타데이터인 것을 특징으로 하는 멀티비디오 관리 시스템.Multi-video management system, characterized in that the metadata recording information on the video equipment, the creation date, the location of video acquisition. 제 18 항에 있어서,The method of claim 18, 상기 비디오 분석 메타데이터는,The video analytics metadata, 움직임 객체 검출 및 추적, 객체 컬러 정보, 윤곽 정보, 텍스쳐 정보, 및 소리 정보를 분석하여 그 특징을 추출하고 이를 메타데이터 형태로 표현한 것을 특징으로 하는 멀티비디오 관리 시스템.A multi-video management system comprising moving object detection and tracking, object color information, contour information, texture information, and sound information, extracting their features, and expressing them in the form of metadata. 제 12 항에 있어서,The method of claim 12, 상기 데이터베이스는 차량에 물리적으로 탑재된 저장 장치인 것을 특징으로 하는 멀티비디오 관리 시스템.And the database is a storage device physically mounted in a vehicle. 제 12 항에 있어서,The method of claim 12, 상기 데이터베이스는 인터넷을 통해 접속이 가능한 네트워크 상의 저장 장치인 것을 특징으로 하는 멀티비디오 관리 시스템.And the database is a storage device on a network accessible through the Internet. 제 12 항에 있어서,The method of claim 12, 상기 내용 기반 검색수단은,The content-based search means, 사용자가 원하는 비디오를 특정 키워드로 요청하고, 상기 요청된 결과를 사용자가 용이하게 볼 수 있도록 디스플레이하기 위한 사용자 인터페이스부;A user interface unit for requesting a video desired by a user with a specific keyword and displaying the requested result so that the user can easily view the video; 상기 사용자 인터페이스부로부터 요청된 특정 키워드를 제공받아 해당 사용자의 질의를 처리하여 전송하는 사용자 질의 처리부;A user query processor which receives a specific keyword requested from the user interface and processes and transmits a query of a corresponding user; 상기 데이터베이스와 연동되어 상기 사용자 질의 처리부로부터 전송된 사용자의 질의를 제공받아 사용자가 원하는 비디오 데이터를 검색하는 내용 기반 검색부; 및A content-based retrieval unit interworking with the database and receiving a user's query transmitted from the user's query processing unit to retrieve video data desired by the user; And 상기 내용 기반 검색부로부터 검색된 비디오 데이터를 제공받아 비디오 목록 및 해당 정보를 파싱 분석하여 상기 사용자 인터페이스부로 전송하는 검색 결과 분석부를 포함하는 것을 특징으로 하는 멀티비디오 관리 시스템.And a search result analyzing unit receiving the video data retrieved from the content-based searching unit, parsing and analyzing the video list and the corresponding information, and transmitting the parsing result to the user interface unit. 삭제delete (a) 적어도 하나의 카메라로부터 비디오 데이터를 획득하는 단계;(a) acquiring video data from at least one camera; (b) 상기 획득된 각 비디오 데이터에 대한 내용 기반 특징을 분석하고 이를 메타데이터로 생성하는 단계; 및(b) analyzing content-based features of each of the acquired video data and generating them as metadata; And (c) 상기 획득된 비디오 데이터와 상기 생성된 메타데이터를 하나의 통합 파일 포맷으로 생성하여 데이터베이스에 저장하는 단계를 포함하되,(c) generating the obtained video data and the generated metadata in one integrated file format and storing them in a database; 상기 단계(b)에서, 상기 생성된 메타데이터는 비디오를 생성하기 위한 비디오 장비 식별자 및 생성 날짜, 비디오 획득 장소, 날씨 조건, 비디오 획득 관련 카메라 파라미터 값, 또는 비디오 저작권 중 적어도 하나의 정보를 포함하는 것을 특징으로 하는 멀티비디오 관리 방법.In step (b), the generated metadata includes at least one of a video equipment identifier for generating a video and a date of creation, video acquisition location, weather condition, video acquisition related camera parameter value, or video copyright. Multi video management method characterized in that. 제 25 항에 있어서,The method of claim 25, 상기 단계(b)에서, 상기 내용 기반 특징은 움직임 객체 검출 및 추적, 객체의 움직임 궤적, 객체의 위치, 고정된 객체의 위치 변화, 객체의 컬러, 윤곽 및 텍스쳐, 또는 소리 정보 중 적어도 하나의 정보를 포함하는 것을 특징으로 하는 멀티비디오 관리 방법.In the step (b), the content-based feature may include at least one of moving object detection and tracking, movement trajectory of the object, position of the object, change of the position of the fixed object, color, contour and texture of the object, or sound information. Multi-video management method comprising a. 제 25 항에 있어서,The method of claim 25, 상기 단계(c)에서, 상기 생성된 메타데이터는 무브(moov) 및 트랙(trak) 레벨의 메타(meta) 박스 내에 저장하고, 상기 획득된 비디오 데이터는 엠닷(mdat) 박스 내에 저장하거나, 실제 저장 위치 포인터를 저장하는 것을 특징으로 하는 멀티비디오 관리 방법.In step (c), the generated metadata is stored in a meta box of moov and track levels, and the obtained video data is stored in an mdat box or actually stored. And storing a location pointer. 제 25 항에 있어서,The method of claim 25, 상기 단계(c)에서, 상기 통합 파일 포맷의 구조는 적어도 하나의 비디오 데이터 및 메타데이터를 저장하기 위한 파일 구조로서, 엠닷(mdat) 박스 내에 적어도 하나의 독립적인 비디오 데이터 및 메타데이터의 위치를 지정하는 파일 포인터를 저장하는 것을 특징으로 하는 멀티비디오 관리 방법.In step (c), the structure of the integrated file format is a file structure for storing at least one video data and metadata, and designates the location of at least one independent video data and metadata in an mdat box. And storing a file pointer. 삭제delete 삭제delete 삭제delete (a') 적어도 하나의 카메라로부터 비디오 데이터를 획득하는 단계;(a ') acquiring video data from at least one camera; (b') 상기 획득된 각 비디오 데이터에 대한 내용 기반 특징을 분석하고 이를 메타데이터로 생성하는 단계;(b ') analyzing content-based features of each of the obtained video data and generating them as metadata; (c') 상기 획득된 비디오 데이터와 상기 생성된 메타데이터를 하나의 통합 파일 포맷으로 저장하는 단계;(c ') storing the obtained video data and the generated metadata in one integrated file format; (d') 사용자의 요청에 의해 상기 저장된 통합 파일 포맷에 대한 검색을 수행하는 단계; 및(d ') performing a search for the stored integrated file format at the request of a user; And (e') 상기 검색 결과에 해당하는 비디오를 사용자가 용이하게 볼 수 있도록 디스플레이 하는 단계를 포함하되,(e ') displaying the video corresponding to the search result so that a user can easily view the same, 상기 단계(b')에서, 상기 비디오 분석 결과를 디스플레이 장치나 스피커로 출력하는 것을 특징으로 하는 멀티비디오 관리 방법.And outputting the video analysis result to a display device or a speaker in the step (b '). 제 32 항에 있어서,The method of claim 32, 상기 단계(b')는 사용자 인터페이스를 통해 감시하고자 하는 구역 및 감시 대상 객체 지정, 감시 추적 경로를 설정하고 해당 대상에 대한 메타데이터를 생성하는 것을 특징으로 하는 멀티비디오 관리 방법.The step (b ') is a multi-video management method, characterized in that to set the area to be monitored and the object to be monitored, the monitoring tracking path through the user interface and to generate metadata for the target. 제 32 항에 있어서,The method of claim 32, 상기 단계(c')에서, 상기 통합 파일 포맷은 차량에 탑재된 저장 장치 또는 인터넷을 통해 접속할 수 있는 네트워크 상의 저장 장치에 저장하는 것을 특징으로 하는 멀티비디오 관리 방법.In the step (c '), the integrated file format is stored in a storage device mounted on a vehicle or a storage device on a network accessible through the Internet. (a") 차량의 전/후/좌/우측 방향에 탑재된 카메라를 통해 복수의 비디오 데이터를 획득하는 단계;(a ") acquiring a plurality of video data through a camera mounted in the front / rear / left / right directions of the vehicle; (b") 상기 획득된 비디오 데이터를 디스플레이 장치를 통해 디스플레이 하는 단계; 및(b ") displaying the obtained video data through a display device; and (c") 상기 획득된 비디오 데이터를 분석하여 차량 접근 또는 훼손의 특징 정보를 분석하고 이를 디스플레이 또는 스피커 장치에 경보하는 단계를 포함하는 멀티비디오 관리 방법.(c ") analyzing the acquired video data to analyze characteristic information of a vehicle approach or damage and alerting the display or speaker device of the feature information. 제 25 항 내지 제 28 항, 또는 제 32 항 내지 제35 항 중 어느 한 항의 방법을 컴퓨터로 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program capable of executing the method of any one of claims 25 to 28 or 32-35.
KR1020070094693A 2007-04-18 2007-09-18 Integrated file format structure composed of multi video and metadata, and multi video management system based on the same KR100876494B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20070037895 2007-04-18
KR1020070037895 2007-04-18

Publications (2)

Publication Number Publication Date
KR20080093847A KR20080093847A (en) 2008-10-22
KR100876494B1 true KR100876494B1 (en) 2008-12-31

Family

ID=40154297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070094693A KR100876494B1 (en) 2007-04-18 2007-09-18 Integrated file format structure composed of multi video and metadata, and multi video management system based on the same

Country Status (1)

Country Link
KR (1) KR100876494B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101015408B1 (en) 2009-06-12 2011-02-22 엠텍비젼 주식회사 Storage device and method for transport information
US10043079B2 (en) 2015-01-15 2018-08-07 Hanwha Techwin Co., Ltd. Method and apparatus for providing multi-video summary
US10681312B2 (en) 2014-08-14 2020-06-09 Hanwha Techwin Co., Ltd. Intelligent video analysis system and method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120055488A (en) * 2010-11-23 2012-05-31 삼성전자주식회사 Method and apparatus for generating a media file for multi layer pictures in a multimedia system
KR102066939B1 (en) * 2013-09-27 2020-01-16 한화테크윈 주식회사 Image monitoring system
US20220406065A1 (en) * 2019-11-13 2022-12-22 Taehoon KANG Tracking system capable of tracking a movement path of an object
US11064175B2 (en) 2019-12-11 2021-07-13 At&T Intellectual Property I, L.P. Event-triggered video creation with data augmentation
CN113555040B (en) * 2021-09-18 2021-12-14 南京美乐威电子科技有限公司 Write method of moov container in multimedia file and computer readable storage medium
KR102573263B1 (en) * 2023-02-10 2023-08-31 국방과학연구소 Imagery information integration method and electronic device therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005120072A2 (en) 2004-06-01 2005-12-15 L-3 Communications Corporation Video flashlight/vision alert

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005120072A2 (en) 2004-06-01 2005-12-15 L-3 Communications Corporation Video flashlight/vision alert

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101015408B1 (en) 2009-06-12 2011-02-22 엠텍비젼 주식회사 Storage device and method for transport information
US10681312B2 (en) 2014-08-14 2020-06-09 Hanwha Techwin Co., Ltd. Intelligent video analysis system and method
US11064162B2 (en) 2014-08-14 2021-07-13 Hanwha Techwin Co., Ltd. Intelligent video analysis system and method
US10043079B2 (en) 2015-01-15 2018-08-07 Hanwha Techwin Co., Ltd. Method and apparatus for providing multi-video summary

Also Published As

Publication number Publication date
KR20080093847A (en) 2008-10-22

Similar Documents

Publication Publication Date Title
KR100876494B1 (en) Integrated file format structure composed of multi video and metadata, and multi video management system based on the same
US20210397848A1 (en) Scene marking
CA3082257C (en) Driving oriented digital video recorder system
CN105323656B (en) The method of imaging device and offer image-forming information
Tiwari et al. A survey of recent work on video summarization: approaches and techniques
EP3253042B1 (en) Intelligent processing method and system for video data
US9509968B2 (en) Apparatus, system, and method for annotation of media files with sensor data
US20130139209A1 (en) Context Relevant Interactive Television
Vijayakumar et al. A study on video data mining
CN112800255B (en) Data labeling, object tracking method, device, equipment and storage medium
CN100452871C (en) Video analysis, archiving and alerting methods and apparatus for a video surveillance system
CN104335594A (en) Automatic digital curation and tagging of action videos
KR20160097870A (en) System and method for browsing summary image
US11543729B2 (en) Systems and methods to transform events and/or mood associated with playing media into lighting effects
EP3229174A1 (en) Method for video investigation
CN105893387B (en) Intelligent multimedia processing method and system
Sabha et al. Data-driven enabled approaches for criteria-based video summarization: a comprehensive survey, taxonomy, and future directions
Chiang et al. Quick browsing and retrieval for surveillance videos
Black et al. A hierarchical database for visual surveillance applications
CN112437270B (en) Monitoring video playing method and device and readable storage medium
US20230125724A1 (en) Computer-implemented method and non-transitory computer-readable medium for generating a thumbnail from a video stream or file, and video surveillance system
Perrott et al. Real-time multimedia tagging and content-based retrieval for CCTV surveillance systems
Tung et al. AI-based video analysis for traffic monitoring
KR20070098395A (en) Media file formats, media file playback methods, and media file playback devices
Merkus et al. CANDELA-Integrated Storage, Analysis and Distribution of Video Content for Intelligent Information Systems.

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20070918

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20080526

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20081021

PG1501 Laying open of application
GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20081222

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20081222

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20111129

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20111129

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20121130

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20121130

Start annual number: 5

End annual number: 5

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee