[go: up one dir, main page]

KR101037710B1 - Automatic production system of photographed video - Google Patents

Automatic production system of photographed video Download PDF

Info

Publication number
KR101037710B1
KR101037710B1 KR1020090050366A KR20090050366A KR101037710B1 KR 101037710 B1 KR101037710 B1 KR 101037710B1 KR 1020090050366 A KR1020090050366 A KR 1020090050366A KR 20090050366 A KR20090050366 A KR 20090050366A KR 101037710 B1 KR101037710 B1 KR 101037710B1
Authority
KR
South Korea
Prior art keywords
lecturer
image
module
cameras
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020090050366A
Other languages
Korean (ko)
Other versions
KR20100131659A (en
Inventor
오덕신
이상엽
Original Assignee
삼육대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼육대학교산학협력단 filed Critical 삼육대학교산학협력단
Priority to KR1020090050366A priority Critical patent/KR101037710B1/en
Publication of KR20100131659A publication Critical patent/KR20100131659A/en
Application granted granted Critical
Publication of KR101037710B1 publication Critical patent/KR101037710B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/07Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information characterised by processes or methods for the generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 다수 카메라를 통해 동시 촬영되는 피사체에 대한 동영상 연출을 자동으로 수행해서 동영상의 체계와 구성을 효과적으로 정리할 수 있도록 하는 촬영 영상물의 자동 연출시스템에 관한 것으로, 피사체인 보드(B)와 강의자(M)를 각각 촬영하는 제1,2카메라(11, 12); 제1,2카메라(11, 12)의 촬영방향과 배율을 조정하는 촬영위치 조정수단(20); 제2카메라(12)에 촬영된 강의자(M)의 영상 중 안면 영역과, 안면 영역 내 이목구비의 각 영역들 중 선택된 하나 이상의 영역을 확인하는 영상분석모듈(30); 안면 영역을 기준으로 이목구비의 각 영역들 중 선택된 하나 이상 영역의 위치 편중을 확인해서, 강의자(M)의 행동을 확인하는 행동확인모듈(40); 강의자(M)의 행동에 따른 설정데이터를 확인하고, 제1,2카메라(11, 12)에서 촬영된 영상물을 해당 설정데이터에 따라 편집하며, 제1,2카메라(11, 12)의 조작을 위해 설정데이터에 따른 제어데이터를 전송하는 이미지편집모듈(50); 이미지편집모듈(50)의 제어데이터에 따라 촬영위치 조정수단(20)을 조작하는 제어모듈(60); 및 이미지편집모듈(50)에서 편집된 제작된 영상데이터를 저장하는 영상물DB(70)를 포함하는 것이다.The present invention relates to a system for automatically directing a photographed video to effectively organize a video and a composition of a video by automatically performing a video for a subject simultaneously taken through a plurality of cameras, the board (B) and the lecturer (subject) First and second cameras 11 and 12 respectively photographing M); Photographing position adjusting means (20) for adjusting photographing directions and magnifications of the first and second cameras (11, 12); An image analysis module 30 for identifying a facial region among the images of the lecturer M photographed by the second camera 12 and at least one selected region among the regions of the eye area within the facial region; An action checking module 40 for checking a position bias of at least one selected area of each area of the eye area based on the face area, and confirming the behavior of the lecturer M; Check the setting data according to the behavior of the lecturer (M), edit the video photographed by the first and second cameras 11 and 12 according to the setting data, and operate the first and second cameras 11 and 12. An image editing module 50 for transmitting control data according to the setting data; A control module 60 for manipulating the photographing position adjusting means 20 according to the control data of the image editing module 50; And an image DB 70 that stores the produced image data edited by the image editing module 50.

Description

촬영 영상물의 자동 연출시스템{Presentation system of the picture}Automatic presentation system of filmed images {Presentation system of the picture}

본 발명은 다수 카메라를 통해 동시 촬영되는 피사체에 대한 동영상 연출을 자동으로 수행해서 동영상의 체계와 구성을 효과적으로 정리할 수 있도록 하는 촬영 영상물의 자동 연출시스템에 관한 것이다.The present invention relates to an automatic production system of a photographed video object to automatically organize a moving picture for a subject photographed simultaneously through a plurality of cameras to effectively organize the structure and configuration of the moving picture.

동영상 또는 정지영상 등과 같은 영상물을 아날로그 또는 디지털 방식으로 기록할 수 있는 기기들이 고도화 및 대중화되면서, 전문가는 물론 비전문가인 일반인들도 다양한 용도와 목적을 갖는 정지영상 및 동영상을 촬영하고 기록할 수 있게 되었다.With the advancement and popularization of devices that can record video such as moving pictures or still images in an analog or digital manner, the general public, as well as experts, can shoot and record still images and videos for various purposes and purposes. .

한편, 인터넷 등과 같은 각종 통신수단의 이용이 급증하고 그 활용이 용이해지면서, 사람들은 자신이 대중에게 표현하고 싶은 내용을 글로 업로드하거나, 정지영상 또는 동영상으로 제작해 업로드하는 행태가 빈번하였다. 이외에도 자신이 직접 제작한 영상물을 비디오테이프에 기록하거나, 각종 CD 또는 디스크 등과 같은 기록매체에 기록해서 오프라인에서도 자신의 내용을 알리거나 전파시킬 수 있었다.On the other hand, as the use of various communication means such as the Internet has rapidly increased and the utilization thereof is easy, people frequently upload the contents they want to express to the public in writing, or produce and upload still images or videos. In addition, he recorded his own video on videotape or recorded on various recording media such as CDs or discs, so that his contents could be notified or propagated offline.

이러한 영상물 중에는 강의와 같은 특수한 목적의 동영상이 있다. 이러한 동영상은 강의하는 자(이하 '강의자'로 함)에 대한 촬영과, 강의자가 기록하는 칠 판 또는 화이트보드(이하 '보드'로 함)에 대한 촬영이 혼합되면서, 강의 내용의 전달 효율이 향상되도록 전문가에 의해 연출 및 편집된다. 좀 더 구체적으로 설명하면, 강의를 목적으로 하는 동영상은 강의자만을 촬영해 보여주거나, 강의자의 행동에 따라 보드에 기록되는 내용을 클로즈업하거나, 강의자와 보드를 함께 보여주는 등의 연출기법을 통해 강의 내용이 시청자에게 효과적으로 전달될 수 있도록 제작되는 것이다.Among these videos are special purpose videos such as lectures. These videos are mixed with the filming of the lecturer (hereinafter referred to as the "lecturer") and the recording of the blackboard or whiteboard (hereinafter referred to as the "board") recorded by the lecturer, improving the efficiency of delivering the lecture contents. It is directed and edited by an expert as much as possible. More specifically, the video for the purpose of teaching the lecture contents through the directing technique such as showing only the lecturer, close-up the contents recorded on the board according to the lecturer's action, or show the lecturer and the board together. It is designed to be effectively delivered to viewers.

그러나, 비전문가인 일반인은 강의를 목적으로 하는 동영상 제작 시 전술한 연출기법을 효과적으로 적용할 수 없고, 특히 두 대의 카메라를 이용해 동영상 제작을 진행할 시에는 단독으로 상기 연출기법을 적용하는데 한계가 있었다. 결국, 강의와 같은 전문적인 연출기법이 적용되어야 하는 특수한 목적의 동영상 제작은 일반인들에게 쉽지 않은 작업이었다.However, the general public who is not an expert can not effectively apply the above-described directing technique when producing a video for the purpose of teaching, especially when the video production using two cameras, there was a limit to apply the directing technique alone. In the end, producing a special-purpose video that required professional directing techniques such as lectures was not easy for the general public.

이에 본 발명은 상기와 같은 문제를 해소하기 위해 안출된 것으로, 강의와 같은 특수한 목적을 가지면서 다양한 연출기법이 적용되어야 하는 동영상 제작 작업을 비전문가가 혼자서도 효과적으로 진행할 수 있도록 하는 촬영 영상물의 자동 연출시스템의 제공을 기술적 과제로 한다.Accordingly, the present invention has been made to solve the above problems, and has a special purpose, such as lectures of the automatic production system of the photographing video that allows the non-experts to proceed effectively the video production work that should be applied to a variety of directing techniques alone Provision is a technical task.

상기의 기술적 과제를 달성하기 위하여 본 발명은,According to an aspect of the present invention,

피사체인 보드와 강의자를 각각 촬영하는 제1,2카메라;First and second cameras for photographing a board and a lecturer as a subject;

제1,2카메라의 촬영방향과 배율을 조정하는 촬영위치 조정수단;Photographing position adjusting means for adjusting photographing directions and magnifications of the first and second cameras;

제2카메라에 촬영된 강의자의 영상 중 안면 영역과, 안면 영역 내 이목구비의 각 영역들 중 선택된 하나 이상의 영역을 확인하는 영상분석모듈;An image analysis module configured to identify a facial area of the lecturer's image photographed by the second camera and at least one selected area among respective areas of the eye area within the facial area;

안면 영역을 기준으로 이목구비의 각 영역들 중 선택된 하나 이상 영역의 위치 편중을 확인해서, 강의자의 행동을 확인하는 행동확인모듈;An action checking module for checking a position bias of at least one selected area of each area of the eye area based on the face area, and confirming the lecturer's behavior;

강의자의 행동에 따른 설정데이터를 확인하고, 제1,2카메라에서 촬영된 영상물을 해당 설정데이터에 따라 편집하며, 제1,2카메라의 조작을 위해 설정데이터에 따른 제어데이터를 전송하는 이미지편집모듈;An image editing module that checks the setting data according to the lecturer's actions, edits the image taken by the first and second cameras according to the setting data, and transmits the control data according to the setting data for the operation of the first and second cameras. ;

이미지편집모듈의 제어데이터에 따라 촬영위치 조정수단을 조작하는 제어모듈; 및A control module for operating the photographing position adjusting means according to the control data of the image editing module; And

이미지편집모듈에서 편집된 제작된 영상데이터를 저장하는 영상물DB;Image material DB for storing the produced image data edited in the image editing module;

를 포함하는 촬영 영상물의 자동 연출시스템이다.It is an automatic rendering system of the photographed video including.

상기의 본 발명은, 비전문가 혼자서도 다양한 연출기법을 통해 강의와 같은 동영상을 손쉽게 제작할 수 있고, 이렇게 제작된 동영상은 강의자의 행동과 강의 내용에 따라 최적화된 표현이 가능하므로, 시청자는 동영상이 전달하고자 하는 내용을 효과적으로 습득할 수 있도록 하는 효과가 있다.According to the present invention, a non-specialist alone can easily produce a video such as a lecture through various directing techniques, and the produced video can be optimized according to the lecturer's behavior and the contents of the lecture. It is effective to learn the contents effectively.

이하 본 발명을 첨부된 예시도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 연출시스템이 적용된 촬영 현장의 모습을 개략적으로 도시한 평면도이고, 도 2는 본 발명에 따른 연출시스템의 모습을 도시한 블록도인 바, 이를 참조해 설명한다.1 is a plan view schematically showing a state of a shooting site to which the directing system according to the present invention is applied, and FIG. 2 is a block diagram showing a state of the directing system according to the present invention.

본 발명에 따른 연출시스템은 최소한 두 개 이상의 제1,2카메라(11, 12)와, 제1,2카메라(11, 12)의 촬영방향을 조정하는 촬영위치 조정수단(20)과, 제1,2카메라(11, 12)에 촬영된 영상을 분석하는 영상분석모듈(30)과, 강의자의 행동을 확인하는 행동확인모듈(40)과, 강의자의 행동에 따라 설정된 제1,2카메라(11, 12)의 촬영방향 및 촬영방식 등을 확인하는 이미지편집모듈(50)과, 촬영위치 조정수단(20)ㆍ영상분석모듈(30)ㆍ행동확인모듈(40)ㆍ이미지편집모듈(50)의 구동을 제어하는 제어모듈(60)과, 편집된 영상물을 저장하는 영상물DB(70)를 포함하고, 필요에 따라 당해 영상물을 출력하는 출력모듈(80)과, 촬영 영상물를 재설정할 수 있는 설정모듈(90)을 더 포함할 수 있다.The production system according to the present invention comprises at least two or more first and second cameras 11 and 12, photographing position adjusting means 20 for adjusting a photographing direction of the first and second cameras 11 and 12, and a first one. , An image analysis module 30 for analyzing images captured by the two cameras 11 and 12, an action checking module 40 for checking the lecturer's behavior, and first and second cameras 11 set according to the lecturer's behavior. 12, the image editing module 50 for checking the shooting direction and the shooting method, and the shooting position adjusting means 20, the image analysis module 30, the behavior checking module 40, and the image editing module 50. A control module 60 for controlling the driving, an image DB 70 for storing the edited image, an output module 80 for outputting the image as necessary, and a setting module for resetting the captured image ( 90) may be further included.

상기 제1,2카메라(11, 12)는 피사체인 강의자(M)와 보드(B)를 각각 촬영하는 통상적인 촬영수단으로, 촬영방향의 조정은 물론 줌인 또는 줌아웃과 같은 일반적인 촬영방식의 실시가 가능한 공지된 기기이다.The first and second cameras 11 and 12 are conventional photographing means for photographing the lecturer M and the board B, which are subjects, respectively. Possible known devices.

상기 촬영위치 조정수단(20)은 제1,2카메라(11, 12)의 촬영방향을 조정하는 것으로, 제1,2카메라(11, 12)의 승하강, 제1,2카메라(11, 12)의 상하좌우 회동 등과 같은 기계적인 움직임을 조정한다. 일반적으로, 제1,2카메라(11, 12)와 촬영위치 조정수단(20)을 결합해 틸트 카메라로 칭한다. 아울러, 촬영위치 조정수단(20)은 제2카메라(12)가 강의자(M)의 이동을 감지해서 강의자(M)의 움직임을 따라 지속적으로 촬영하도록 조정할 수 있다. 이를 위해 촬영위치 조정수단(20)은 강의자(M)의 체온 또는 발음소리 등을 감지하는 센서(미도시함)를 통해 강의자(M)를 감지하고, 감지한 방향으로 제2카메라(12)의 촬영방향을 조준할 것이다. The photographing position adjusting means 20 adjusts the photographing direction of the first and second cameras 11 and 12, and ascends and descends the first and second cameras 11 and 12, and the first and second cameras 11 and 12. Adjust mechanical movements such as up, down, left, and right rotation. In general, the first and second cameras 11 and 12 and the photographing position adjusting means 20 are combined to be called tilt cameras. In addition, the photographing position adjusting means 20 may be adjusted so that the second camera 12 continuously senses the movement of the lecturer M by detecting the movement of the lecturer M. FIG. To this end, the photographing position adjusting means 20 detects the lecturer M through a sensor (not shown) that detects the body temperature or the pronunciation sound of the lecturer M, and the second camera 12 in the detected direction. Aim the shooting direction.

한편, 촬영위치 조정수단(20)은 제1,2카메라(11, 12) 각각의 기계적인 움직임을 조정할 수 있는 장치라면 무엇이든지 적용 가능할 것이다. 일 예를 들면, 제1,2카메라(11, 12)의 승하강 또는 수평이동은 볼스크류 구조를 적용해서 볼스크류 및 가이드를 따라 직선이동이 가능토록 할 수 있고, 제1,2카메라(11, 12)의 회동은 회전모터 및 회전축 기어 등을 통해 가능토록 할 수도 있을 것이다.Meanwhile, the photographing position adjusting means 20 may be applied to any device capable of adjusting the mechanical movement of each of the first and second cameras 11 and 12. For example, the raising or lowering or horizontal movement of the first and second cameras 11 and 12 may enable a linear movement along the ball screw and the guide by applying a ball screw structure, and the first and second cameras 11 and 12. , 12) may be enabled by a rotating motor and a rotating shaft gear.

기타, 촬영위치 조정수단(20)은 제1,2카메라(11, 12)의 위치 및 촬영방향을 조정할 수 있는 장치라면 이하의 청구범위를 벗어나지 않는 한도 내에서 다양하게 변형실시될 수 있을 것이다.In addition, the photographing position adjusting means 20 may be variously modified within the scope of the following claims as long as the device can adjust the position and the photographing direction of the first and second cameras 11 and 12.

상기 영상분석모듈(30)은 제1,2카메라(11, 12)에 촬영되는 피사체를 구분하 기 위해 영상물을 분석하는 것으로, 도시한 바와 같이 제2카메라(12)에 촬영된 강의자(M)의 안면, 이목구비 및 신체 등을 확인한다. 이를 위한 영상분석모듈(30)의 구동모습을 아래에서 상세히 설명한다.The image analysis module 30 analyzes an image to distinguish subjects photographed by the first and second cameras 11 and 12, and the lecturer M photographed by the second camera 12 as illustrated. Check your face, throat, and body. Driving of the image analysis module 30 for this purpose will be described in detail below.

상기 행동확인모듈(40)은 영상분석모듈(30)에서 확인된 피사체인 강의자(M)의 행동을 확인해서, 강의자(M)가 현재 어떠한 행동을 취하는지 감지한다.The behavior checking module 40 checks the behavior of the lecturer M, which is the subject identified in the image analysis module 30, and detects what behavior the lecturer M is currently taking.

상기 이미지편집모듈(50)은 행동확인모듈(40)에서 확인된 강의자(M)의 행동에 따른 촬영 영상물를 확인해서, 촬영위치 조정수단(20)을 제어하는 제어모듈(60)로 상기 촬영 영상물에 대한 제어데이터를 전송한다.The image editing module 50 checks the photographed video object according to the behavior of the lecturer M identified in the action confirming module 40, and controls the photographing position adjusting unit 20 to the photographed video object. Send control data for

상기 제어모듈(60)은 이미지편집모듈(50)로부터 전송된 제어데이터에 따라 촬영위치 조정수단(20)의 동작을 제어하고, 영상분석모듈(30)ㆍ행동확인모듈(40)ㆍ이미지편집모듈(50)의 온/오프 등을 제어한다.The control module 60 controls the operation of the photographing position adjusting means 20 according to the control data transmitted from the image editing module 50, and controls the image analysis module 30, the behavior checking module 40, and the image editing module. The on / off of 50 is controlled.

상기 영상물DB(70)는 편집이 완료된 영상물을 영상데이터로 저장한다.The image object DB 70 stores the edited image object as image data.

상기 출력모듈(80)은 영상물을 출력하는 통상적인 디스플레이어다.The output module 80 is a conventional displayer for outputting an image.

상기 설정모듈(90)은 영상분석모듈(30)의 설정 색상 또는 이미지편집모듈(50)의 촬영 영상물 등과 같은 설정 값을 피사체에 맞춰 작업자의 조작으로 재설정할 수 있도록 하는 것이다. 여기서, 설정모듈(90)은 통상적인 컴퓨터로, 영상분석모듈(30) 및 이미지편집모듈(50)의 실행기준이 되는 설정 값의 입력 및 편집 등을 처리하도록 프로그래밍 된 것이다.The setting module 90 may be configured to reset the setting values, such as the color set in the image analysis module 30 or the photographed image of the image editing module 50 in accordance with the subject's operation. Here, the setting module 90 is a conventional computer, and is programmed to process input and editing of setting values, which are the execution criteria of the image analysis module 30 and the image editing module 50.

도 3은 본 발명에 따른 연출방법의 제1실시모습을 순차 도시한 플로우차트이 고, 도 4는 본 발명에 따른 연출시스템이 수행하는 안면 레이블링 모습을 도시한 도면이고, 도 5는 본 발명에 따른 연출시스템이 강의자의 시선을 확인하는 원리를 보인 도면인 바, 이를 참조해 설명한다.3 is a flowchart sequentially showing a first embodiment of the rendering method according to the present invention, Figure 4 is a view showing a face labeling state performed by the rendering system according to the present invention, Figure 5 according to the present invention The drawing system shows the principle of checking the lecturer's gaze.

S11; 대상물 촬영단계S11; Object shooting stage

피사체를 향해 제1,2카메라(11, 12)를 배치한다.The first and second cameras 11 and 12 are disposed toward the subject.

참고로, 본 발명에 따른 연출시스템의 실시모습을 명확히 설명하기 위해 상기 피사체는 강의자(M)의 강의모습으로 한다.For reference, in order to clearly describe the implementation of the production system according to the present invention, the subject is a lecture of the lecturer (M).

제1카메라(11)는 보드(B)를 촬영하고, 제2카메라(12)는 강의자(M)를 촬영한다. 이때, 제1카메라(11)는 보드(B) 전체 또는 보드(B)의 일 지점만을 선택적으로 촬영할 수 있고, 제2카메라(12)는 강의자(M)의 전신, 상반신 또는 손 등만을 선택적으로 촬영할 수 있다. 즉, 촬영위치 조정수단(20)에 의해 제1,2카메라(11, 12)는 위치 조정 및 촬영방향과 배율 등에 대한 조정이 이루어지면서, 강의자(M) 및 보드(B)를 필요에 따라 전체적으로 또는 부분적으로 촬영할 수 있는 것이다.The first camera 11 photographs the board B, and the second camera 12 photographs the lecturer M. FIG. In this case, the first camera 11 may selectively photograph the entire board B or only one point of the board B, and the second camera 12 selectively selects only the whole body, the upper body or the hand of the lecturer M, and the like. You can shoot. In other words, the first and second cameras 11 and 12 are photographed by the photographing position adjusting means 20, and the lecturer M and the board B are generally used as necessary while the position adjustment and the photographing direction and the magnification are adjusted. Or you can shoot partially.

피사체인 강의자(M)와 보드(B)는 지속적으로 촬영될 수 있고, 이렇게 촬영된 영상물은 임시 저장될 수 있을 것이다. 이외에도, 제1,2카메라(11, 12)는 필요시에만 선택적으로 구동할 수도 있음은 물론이다.The subject lecturer M and the board B may be continuously photographed, and the photographed image may be temporarily stored. In addition, the first and second cameras 11 and 12 may be selectively driven only when necessary.

S12; 피사체의 자세확인단계S12; Checking the posture of the subject

영상분석모듈(30)은 제2카메라(12)가 촬영한 강의자(M)의 모습을 분석한다.The image analysis module 30 analyzes the appearance of the lecturer M photographed by the second camera 12.

이를 위해 영상분석모듈(30)은 제2카메라(12)에 촬영된 영상물을 픽셀단위로 분리한 후 각 픽셀에 감지된 색상을 확인한다. 이때, 영상분석모듈(30)은 인간인 강의자(M)를 확인하므로, 상기 색상은 피부색이 될 것이다. 여기서 피부색은 통상적인 색상이 적용될 것이며, 인종에 따라 확인 대상 색상을 다양하게 설정할 수도 있을 것이다. 참고로, 피부색을 설정하는 설정 값의 재설정은 설정모듈(90)에서 작업자가 직접 진행할 수 있을 것이다.To this end, the image analysis module 30 separates the image photographed by the second camera 12 in units of pixels and checks the detected color of each pixel. At this time, the image analysis module 30 checks the human lecturer (M), the color will be the skin color. In this case, the skin color may be a normal color, and the color to be checked may be variously set according to race. For reference, the setting value for setting the skin color may be directly performed by the operator in the setting module 90.

본 발명에 따른 실시예에서 영상분석모듈(30)은 상기 색상(피부색)이 확인된 픽셀을 감지해서 이를 레이블링하는 방식으로 영상을 분석한다.In an embodiment of the present invention, the image analysis module 30 analyzes an image by detecting a pixel in which the color (skin color) is identified and labeling it.

영상분석모듈(30)은 제2카메라(12)를 통해 촬영된 영상물 중 피부색을 감지하는 픽셀을 확인한 후, 당해 픽셀을 '1'로, 그 외 픽셀을 '0'으로 레이블링한다. 즉, 도 4(a)에 도시한 바와 같이, 1차적으로 강의자(M)의 안면 영역을 감지하는 것이다. 참고로, 도 4(a)에는 강의자(M)의 안면 전체가 '1'로 레이블링 된 것처럼 도시하였지만, 실제로는 강의자(M)의 안면으로 확인되는 가장자리를 따라 '1'로 레이블링되면서 안면 영역의 윤곽을 추정하도록 될 수도 있을 것이다.The image analysis module 30 checks the pixel for detecting the skin color in the image captured by the second camera 12, and then labels the pixel as '1' and other pixels as '0'. That is, as shown in FIG. 4 (a), the face area of the lecturer M is primarily sensed. For reference, FIG. 4 (a) shows the entire face of the lecturer M as labeled '1', but is actually labeled as '1' along the edge identified as the face of the lecturer M, while It may be possible to estimate the contour.

안면 영역의 감지가 완료되면, 안면 영역 내의 픽셀이 감지한 색상을 다시 확인해서 피부색이 아닌 부분을 '1'로 레이블링하고, 피부색인 부분을 '0'으로 레이블링한다. 즉, 도 4(b)에 도시한 바와 같이 2차적으로 상기 안면 영역에서 강의자(M)의 이목구비 영역을 감지하는 것이다.When the detection of the facial area is completed, the color detected by the pixels in the facial area is checked again, and the non-skin part is labeled as '1', and the skin part is labeled as '0'. That is, as shown in FIG. 4 (b), the second eye area of the lecturer M is detected in the facial area.

도 4(b)에 도시한 바와 같이, 강의자(M)의 안면 영역과 이목구비의 위치 확인을 통해 강의자(M)의 시선을 추정할 수 있다. 이를 좀 더 상세히 설명하면, 행 동확인모듈(40)은 영상분석모듈(30)에서 분석된 촬영이미지를 통해 강의자(M)의 안면 영역을 기준으로 눈과 코 또는 입 등에 대한 위치를 확인해서, 강의자(M)의 시선을 확인할 수 있는 것이다.As shown in FIG. 4 (b), the eye gaze of the lecturer M may be estimated by identifying the face area of the lecturer M and the position of the eyes. To explain this in more detail, the behavior checking module 40 checks the position of the eye and the nose or the mouth based on the face region of the lecturer M through the photographed image analyzed by the image analysis module 30, The lecturer (M) can see the eye.

일 예로, 도 5(a)는 제2카메라(12)에 촬영된 강의자(M)의 모습을 보인 것으로, 본 도면의 강의자(M)는 카메라를 응시하고 있다. 행동확인모듈(40)은 당해 강의자(M)의 눈과 코 또는 입이 안면 영역의 중앙에 위치하는 것을 확인하면서, 강의자(M)의 시선이 정면, 즉 제2카메라(12)를 향하고 있음을 추정한다.For example, FIG. 5 (a) illustrates the appearance of the lecturer M photographed by the second camera 12, and the lecturer M of the figure stares at the camera. The behavior check module 40 confirms that the eye, nose or mouth of the lecturer M is located at the center of the face area, and the gaze of the lecturer M faces the front, that is, the second camera 12. Estimate.

반면, 도 5(b)에 보인 바와 같이, 행동확인모듈(40)은 당해 강의자(M)의 눈과 코 또는 입이 안면 영역의 우측(강의자 기준)으로 편중된 것을 확인하면서, 강의자(M)의 시선이 우측을 향하고 있음을 추정한다.On the other hand, as shown in Figure 5 (b), the behavior check module 40 confirms that the eye and nose or mouth of the lecturer (M) to the right side of the face area (based on the lecturer), lecturer (M) It is assumed that the line of sight is facing to the right.

참고로, 시선의 편중 여부는 안면 영역 내에서 이목구비에 해당하는 픽셀의 좌우 픽셀 개수를 통해 확인될 수 있을 것이다.For reference, whether the gaze is biased may be determined by the number of left and right pixels of the pixel corresponding to the eye area in the facial area.

S13; 시선대상 출력 확인단계S13; Eye output check step

이미지편집모듈(50)은 행동확인모듈(40)이 추정한 강의자(M)의 시선 정보를 수신하고, 해당 시선 정보에 따라 강의자(M)의 행동이 설정된 촬영 영상물를 확인한다.The image editing module 50 receives the gaze information of the lecturer M estimated by the behavior checking module 40 and checks the photographed image in which the behavior of the lecturer M is set according to the corresponding gaze information.

여기서 설정데이터란, 강의자(M)의 시선 방향에 따라 제1,2카메라(11, 12)에 촬영되고 있는 영상물의 합성 및 편집 등에 대한 연출정보가 세팅된 것이다. 즉, 상기 연출정보는 강의자(M)의 시선이 정면을 향하고 있음이 확인되면 제2카메 라(12)에 촬영되는 강의자(M)의 영상물만을 출력하고, 강의자(M)의 시선이 좌측 또는 우측을 향하고 있음이 확인되면 제1,2카메라(11, 12) 각각에 촬영되는 영상물을 합성하거나, 제1카메라(11) 또는 제2카메라(12) 중 강의자(M)와 보드(B)가 모두 촬영되고 있는 카메라의 영상물이 출력되도록 제어하는 것이다. 참고로, 강의자(M)의 시선이 위쪽 또는 아래쪽을 향하고 있음이 확인되면 강의자(M)는 자신이 기록한 메모를 읽거나 특정한 제스처를 취하는 것이므로, 강의자(M)가 정면을 보는 것으로 간주할 수 있을 것이다.Here, the setting data is set by the director information about the composition, editing, and the like of the video images photographed by the first and second cameras 11 and 12 according to the direction of the lecturer's eye. That is, when it is confirmed that the gaze of the lecturer M faces the front, the direction information outputs only an image of the lecturer M photographed on the second camera 12, and the gaze of the lecturer M is left or right. When it is confirmed that the camera is facing the first or second cameras (11, 12), the image taken by each of the composite, or the lecturer (M) and the board (B) of either the first camera 11 or the second camera 12 This is to control the video output of the camera being photographed. For reference, when it is confirmed that the eye of the lecturer M faces upward or downward, the lecturer M reads a memo or takes a specific gesture, so the lecturer M may be regarded as facing. will be.

이외에도, 강의자(M)의 시선 편중 정도를 확인해서, 강의자(M)의 시선이 어디를 향하는지를 추정할 수도 있다. 좀 더 상세히 설명하면, 강의자(M)의 정면 시선을 90도라 할 때, 제2카메라(12)에 촬영된 강의자(M)의 시선이 20도(기준값) 이내이면 강의자(M)가 현재 보드(B)를 보는 것으로 간주하고, 20도를 초과하면 강의자(M)가 정면을 보는 것으로 간주할 수 있다. 이러한 기준은 강의자(M)의 실제 강의 모습 및 패턴 등에 따라 설정모듈(90)을 통해 직접 조정될 수도 있을 것이다.In addition, the degree of gaze bias of the lecturer M may be checked, and it may be estimated where the gaze of the lecturer M faces. In more detail, when the front line of sight of the lecturer M is 90 degrees, if the line of sight of the lecturer M photographed by the second camera 12 is within 20 degrees (reference value), the lecturer M is the current board ( B) can be considered to be viewed, and if it exceeds 20 degrees, the lecturer (M) can be considered to be facing the front. This criterion may be directly adjusted through the setting module 90 according to the shape and pattern of the actual lecturer (M).

S17; 영상처리단계S17; Image processing step

이미지편집모듈(50)은 강의자(M)의 시선 각도를 확인해서 당해 시선 각도가 기준값 이내이면 제1,2카메라(11, 12)에 촬영되는 강의자(M)와 보드(B)를 합성 또는 함께 출력되도록 편집하거나 보드(B)만이 출력되도록 편집하고, 기준값을 초과하면 제2카메라(12)에 촬영되는 강의자(M)만이 출력되도록 편집할 수 있다.The image editing module 50 checks the eye angle of the lecturer M and synthesizes or combines the lecturer M and the board B photographed by the first and second cameras 11 and 12 when the eye angle is within the reference value. The output may be edited or edited so that only the board B is output. When the reference value is exceeded, only the lecturer M photographed by the second camera 12 may be edited.

S18; 출력단계S18; Output stage

제어모듈(60)은 이미지편집모듈(50)에서 편집된 영상물을 확인해 출력모듈(80)로 전달하고, 출력모듈(80)은 상기 영상물을 출력한다.The control module 60 checks the image edited in the image editing module 50 and transmits it to the output module 80, and the output module 80 outputs the image.

물론, 출력모듈(80)은 필수구성이 아니므로, 제어모듈(60)은 당해 영상물에 대한 출력을 진행하지 않을 수 있다.Of course, since the output module 80 is not an essential configuration, the control module 60 may not proceed to output the image.

아울러, 상기 영상물은 온라인(네트워크) 전송을 통해 실시간으로 방송될 수도 있다. 즉, 별도의 편집과정을 진행할 필요가 없으므로, 생방송 진행이 가능한 것이다.In addition, the video material may be broadcast in real time through an online (network) transmission. In other words, there is no need to proceed a separate editing process, it is possible to proceed live.

S19; 저장단계S19; Save step

제어모듈(60)은 이미지편집모듈(50)에서 편집된 영상물을 확인해 영상물DB(70)로 전달하고, 영상물DB(70)는 상기 영상물을 저장한다.The control module 60 checks the image edited in the image editing module 50 and transmits the image to the image DB 70, and the image DB 70 stores the image.

참고로, 영상물DB(70)는 통상적인 하드웨어일 수 있으나, 비디오테이프 또는 CD 등과 같은 통상적인 기록매체(소프트웨어)일 수도 있다.For reference, the image object DB 70 may be conventional hardware, but may also be a conventional recording medium (software) such as a video tape or a CD.

도 6은 본 발명에 따른 연출방법의 제2실시모습을 순차 도시한 플로우차트이고, 도 7은 본 발명에 따른 연출시스템이 수행하는 안면 레이블링 모습을 도시한 도면인 바, 이를 참조해 설명한다.FIG. 6 is a flowchart sequentially illustrating a second embodiment of the directing method according to the present invention, and FIG. 7 is a view illustrating a face labeling performed by the directing system according to the present invention.

본 발명에 따른 연출시스템은 강의자(M)의 시선은 물론 강의자(M)의 행동까지 확인해서, 강의에 대한 전달력과 시청자의 이해도를 높일 수 있도록 된다.The production system according to the present invention can check not only the eyes of the lecturer M but also the behavior of the lecturer M, so as to enhance the delivery power and understanding of the lecturer.

이하에서는 본 발명에 따른 제1실시모습에서 설명한 부분에 대한 설명은 생략한다.Hereinafter, a description of the parts described in the first embodiment according to the present invention will be omitted.

S15; 가리킴대상 출력 확인단계S15; Check output point

영상분석모듈(30)은 강의자(M)의 안면을 확인한 후 안면 영역의 하단 부분에 대한 색상을 확인한다. 이때 확인된 색상은 강의자(M)의 신체(상반신) 색상으로 간주하고, 동일 또는 유사 색상에 대한 영역을 확인한다.The image analysis module 30 checks the color of the lower part of the face area after checking the face of the lecturer (M). At this time, the identified color is regarded as the body (upper body) color of the lecturer M, and the area for the same or similar color is identified.

참고로, 강의자(M)가 입은 의복은 피부색과 달리 다양할 수 있으므로, 영상분석모듈(30)은 안면 영역의 하단 경계 이후에 확인되는 픽셀이 감지한 색상을 강의자(M)의 의복 색상으로 자동 설정할 것이다. 그러나, 설정모듈(90)을 통해 작업자가 강의자(M)의 의복 색상을 별도로 설정해서 영상분석모듈(30)이 이를 확인토록 할 수도 있음은 물론이다. 한편, 영상분석모듈(30)은 안면 영역을 확인했던 방식과 동일하게, 강의자(M)의 신체로 간주된 픽셀 부분을 '1'로 레이블링하고 그외 픽셀 부분은 '0'으로 레이블링해서, 신체 영역을 구체적으로 확인할 수 있다.For reference, since the clothing worn by the lecturer M may be different from the skin color, the image analysis module 30 automatically converts the color detected by the pixel checked after the lower boundary of the facial area into the clothing color of the lecturer M. Will set. However, through the setting module 90, the operator may set the clothes color of the lecturer M separately so that the image analysis module 30 may check this. On the other hand, the image analysis module 30 is labeled in the same way as the facial area, the body portion of the lecturer (M) as the label '1' and other pixel portion is labeled as '0', body area It can be specifically confirmed.

계속해서, 행동확인모듈(40)은 영상분석모듈(30)에서 확인한 신체 영역의 수평 폭을 확인해서 강의자(M)의 신체가 어떤 상태인지를 추정할 수 있다. 좀 더 상세히 설명하면, 도 7(a),(b)에 도시한 바와 같이 신체 영역에 해당하는 부분의 수평 폭이 차이가 있는데, 이러한 차이는 강의자(M)의 자세가 다름을 의미하는 것으로, 도 7(a)는 강의자(M)가 제2카메라(12)를 향해 서 있는 것이고, 도 7(b)는 강의자(M)가 강의를 위해 보드(B)를 향해 서 있는 것임을 행동확인모듈(40)이 확인할 수 있다.Subsequently, the behavior check module 40 may estimate the state of the body of the lecturer M by checking the horizontal width of the body region identified by the image analysis module 30. In more detail, as shown in Figure 7 (a), (b) there is a difference in the horizontal width of the portion corresponding to the body region, this difference means that the lecturer (M) is different, FIG. 7 (a) shows that the lecturer M is standing toward the second camera 12, and FIG. 7 (b) shows that the lecturer M is standing toward the board B for lecture. 40) This can be confirmed.

한편, 도 7(b)에 도시한 바와 같이, 강의자(M)는 팔의 움직임을 통해 가리킴대상(P)을 한정할 수도 있다. 물론, 팔의 움직임 여부는 신체 영역의 인출 여부를 통해 추정할 수 있고, 행동확인모듈(40)은 인출된 신체 영역의 말단을 가리킴 대상(P)으로 간주할 수 있다.On the other hand, as shown in Figure 7 (b), the lecturer (M) may define the target point (P) through the movement of the arm. Of course, whether or not the movement of the arm can be estimated through the withdrawal of the body region, the behavior check module 40 may be regarded as the target (P) to indicate the end of the drawn body region.

이미지편집모듈(50)은 가리킴 대상(P)이 확인되면, 가리킴 대상(P)의 출력 여부를 결정한다. 즉, 강의자(M)가 보드(B)의 일 지점을 가리킴 대상(P)으로 하면, 시청자가 당해 가리킴 대상(P)에 집중할 수 있도록 제1카메라(11)로 촬영되는 보드(B)를 출력하는 것이다. 물론, 이미지편집모듈(50)은 보드(B)만을 출력할 수도 있고, 보드(B)와 강의자(M)를 함께 출력할 수도 있다.The image editing module 50 determines whether to output the pointing object P when the pointing object P is confirmed. That is, when the lecturer M points to a point P of the board B, the board B photographed by the first camera 11 is output so that the viewer can concentrate on the point P. It is. Of course, the image editing module 50 may output only the board B, or may output the board B and the lecturer M together.

한편, 이미지편집모듈(50)은 강의자(M)가 일시적으로 보드(B)를 가리키는 경우에는 화면전환의 남발을 방지하기 위해, 가리킴 대상(P)을 출력하지 않고 강의자(M)만을 지속적으로 출력할 수도 있다. 가리킴 대상(P)의 출력 여부 결정 기준은 강의자(M)의 가리킴 시간이 될 것이고, 이 또한 설정모듈(90)을 통해 재설정될 수 있음은 물론이다.Meanwhile, when the lecturer M temporarily points to the board B, the image editing module 50 continuously outputs only the lecturer M without outputting the pointed object P, in order to prevent the screen transition from occurring. You may. Criteria for determining whether or not the output of the target object (P) will be the pointing time of the lecturer (M), which can also be reset through the setting module 90, of course.

S16; 가리킴 대상 상태조정단계S16; Target status adjustment stage

강의자(M)가 보드(B)에 필기를 하거나, 보드(B)에 게시된 그림 등과 같은 영상물의 일지점을 지속적으로 가리킬 경우엔, 시청자가 해당 가리킴 대상(P)을 효과적으로 인식하고 인지할 수 있도록 하기 위해, 상기 가리킴 대상(P)만을 크게 확장 할 수 있다. 즉, 상기 가리킴 대상(P)을 줌인할 수 있는 것이다.When the lecturer (M) writes on the board (B) or continuously points to a point of the video such as a picture posted on the board (B), the viewer can effectively recognize and recognize the pointed object (P). In order to ensure that, only the point P may be greatly expanded. That is, the pointed object (P) can be zoomed in.

따라서, 가리킴 대상(P)의 상태를 조정하는 것으로 설정되면, 이미지편집몸듈(50)은 촬영위치 조정수단(20)을 제어모듈(60)을 매개로 제어해서 제1,2카메라(11, 12)의 촬영방향 또는 배율을 조정한다. 결국, 제1,2카메라(11, 12)는 가리킴 대상(P)만을 줌인해 출력할 수 있도록 동작한다.Therefore, when it is set to adjust the state of the object to be pointed (P), the image editing body 50 controls the photographing position adjusting means 20 via the control module 60, the first and second cameras (11, 12) ) Adjust the shooting direction or magnification. As a result, the first and second cameras 11 and 12 operate to zoom in and output only the pointed object P. FIG.

한편, 이미지편집모듈(50)은 강의자(M)가 지적한 부분을 영상처리해서 시각적으로 강조할 수도 있다. 좀 더 상세히 설명하면, 강의자(M)가 지적한 부분이 글자일 경우엔 글자 이미지를 확인해서 색상처리 또는 자동 밑줄 추가 등을 진행해 글자 이미지를 강조하거나, 지적한 부분이 그림일 경우엔 그림 이미지의 경계를 확인해서 상기 그림 이미지에 테두리 선을 그을 수 있는 것이다. 이외에도 각종 크로마킹 기법 등이 적용될 수 있을 것이다.On the other hand, the image editing module 50 may visually highlight the point indicated by the lecturer (M) by image processing. In more detail, if the point indicated by the lecturer (M) is a letter, the character image is checked and color processing or automatic underlining is performed to emphasize the letter image, or when the point is a picture, the boundary of the picture image is defined. You can check and draw a border line on the picture image. In addition, various chromatographic techniques may be applied.

이렇게 처리된 영상물은 출력단계(S18) 또는 저장단계(S19)를 통해 처리되어서, 시청자가 이를 시청할 수 있도록 한다.The processed image is processed through an output step S18 or a storage step S19, so that the viewer can watch it.

도 1은 본 발명에 따른 연출시스템이 적용된 촬영 현장의 모습을 개략적으로 도시한 평면도이고,1 is a plan view schematically showing the appearance of the shooting scene to which the directing system according to the present invention is applied,

도 2는 본 발명에 따른 연출시스템의 모습을 도시한 블록도이고,2 is a block diagram showing a state of the production system according to the present invention,

도 3은 본 발명에 따른 연출방법의 제1실시모습을 순차 도시한 플로우차트이고,3 is a flowchart sequentially showing a first embodiment of the directing method according to the present invention;

도 4는 본 발명에 따른 연출시스템이 수행하는 안면 레이블링 모습을 도시한 도면이고, 4 is a view showing a face labeling state performed by the rendering system according to the present invention,

도 5는 본 발명에 따른 연출시스템이 강의자의 시선을 확인하는 원리를 보인 도면이고,5 is a view showing a principle of the system to check the lecturer's gaze according to the present invention,

도 6은 본 발명에 따른 연출방법의 제2실시모습을 순차 도시한 플로우차트이고,6 is a flowchart sequentially showing a second embodiment of the rendering method according to the present invention;

도 7은 본 발명에 따른 연출시스템이 수행하는 신체 레이블링 모습을 도시한 도면이다.7 is a view showing a body labeling state performed by the rendering system according to the present invention.

Claims (5)

피사체인 보드(B)와 강의자(M)를 각각 촬영하는 제1,2카메라(11, 12);First and second cameras 11 and 12 photographing the board B and the lecturer M, which are the subjects, respectively; 제1,2카메라(11, 12)의 촬영방향과 배율을 조정하는 촬영위치 조정수단(20);Photographing position adjusting means (20) for adjusting photographing directions and magnifications of the first and second cameras (11, 12); 제2카메라(12)에 촬영된 강의자(M)의 영상 중 안면 영역과, 안면 영역 내 이목구비의 각 영역들 중 선택된 하나 이상의 영역을 확인하되, 제2카메라(12)에 촬영된 강의자(M)의 영상에서 픽셀에 감지된 색상을 기준으로 강의자(M)의 안면 영역과 이목구비의 각 영역들 중 선택된 하나 이상의 영역을 확인하는 영상분석모듈(30);The lecturer M photographed by the second camera 12 while checking the facial area and at least one selected area among the areas of the eye area in the facial area of the image of the lecturer M photographed by the second camera 12. An image analysis module 30 for identifying a face region of the lecturer M and at least one region selected from among regions of the eye area based on the color detected by the pixel in the image of the image; 안면 영역을 기준으로 이목구비의 각 영역들 중 선택된 하나 이상 영역의 위치 편중을 확인해서, 강의자(M)의 행동을 확인하는 행동확인모듈(40);An action checking module 40 for checking a position bias of at least one selected area of each area of the eye area based on the face area, and confirming the behavior of the lecturer M; 강의자(M)의 행동에 따른 설정데이터를 확인하고, 제1,2카메라(11, 12)에서 촬영된 영상물을 해당 설정데이터에 따라 편집하며, 제1,2카메라(11, 12)의 조작을 위해 설정데이터에 따른 제어데이터를 전송하는 이미지편집모듈(50);Check the setting data according to the behavior of the lecturer (M), edit the video photographed by the first and second cameras 11 and 12 according to the setting data, and operate the first and second cameras 11 and 12. An image editing module 50 for transmitting control data according to the setting data; 이미지편집모듈(50)의 제어데이터에 따라 촬영위치 조정수단(20)을 조작하는 제어모듈(60); 및A control module 60 for manipulating the photographing position adjusting means 20 according to the control data of the image editing module 50; And 이미지편집모듈(50)에서 편집된 제작된 영상데이터를 저장하는 영상물DB(70);An image material DB 70 for storing the produced image data edited by the image editing module 50; 를 포함하는 것을 특징으로 하는 촬영 영상물의 자동 연출시스템.Automatic production system of the photographed video, characterized in that it comprises a. 제 1 항에 있어서,The method of claim 1, 상기 설정데이터 또는 색상에 대한 정보인 설정 값을 피사체에 따라 재설정할 수 있도록, 이미지편집모듈(50) 또는 영상분석모듈(30)의 구동 기준인 설정 값의 입력 및 편집을 처리하는 설정모듈(90)을 더 포함하는 것을 특징으로 하는 촬영 영상물의 자동 연출시스템.The setting module 90 processes inputting and editing of setting values which are driving standards of the image editing module 50 or the image analysis module 30 so that the setting values which are the setting data or the color information may be reset according to the subject. Automatic production system of the photographed video, characterized in that it further comprises a). 피사체인 보드(B)와 강의자(M)를 각각 촬영하는 제1,2카메라(11, 12);First and second cameras 11 and 12 photographing the board B and the lecturer M, which are the subjects, respectively; 제1,2카메라(11, 12)의 촬영방향과 배율을 조정하는 촬영위치 조정수단(20);Photographing position adjusting means (20) for adjusting photographing directions and magnifications of the first and second cameras (11, 12); 제2카메라(12)에 촬영된 강의자(M)의 영상 중 안면 영역과, 안면 영역 내 이목구비의 각 영역들 중 선택된 하나 이상의 영역을 확인하되, 안면 영역 하부 픽셀에 감지된 색상을 기준으로 강의자(M)의 신체 영역을 확인하고, 행동확인모듈(40)은 확인된 신체 영역의 수평 폭을 확인해서 강의자(M)의 자세를 확인하는 영상분석모듈(30);The facial area and the one or more selected areas of the eye area in the facial area are checked among the images of the lecturer M photographed by the second camera 12, but the lecturer (based on the color detected by the pixel below the facial area) Checking the body region of M), the behavior check module 40 checks the horizontal width of the identified body region to determine the posture of the lecturer (M) (30); 안면 영역을 기준으로 이목구비의 각 영역들 중 선택된 하나 이상 영역의 위치 편중을 확인해서, 강의자(M)의 행동을 확인하는 행동확인모듈(40);An action checking module 40 for checking a position bias of at least one selected area of each area of the eye area based on the face area, and confirming the behavior of the lecturer M; 강의자(M)의 행동에 따른 설정데이터를 확인하고, 제1,2카메라(11, 12)에서 촬영된 영상물을 해당 설정데이터에 따라 편집하며, 제1,2카메라(11, 12)의 조작을 위해 설정데이터에 따른 제어데이터를 전송하는 이미지편집모듈(50);Check the setting data according to the behavior of the lecturer (M), edit the video photographed by the first and second cameras 11 and 12 according to the setting data, and operate the first and second cameras 11 and 12. An image editing module 50 for transmitting control data according to the setting data; 이미지편집모듈(50)의 제어데이터에 따라 촬영위치 조정수단(20)을 조작하는 제어모듈(60); 및A control module 60 for manipulating the photographing position adjusting means 20 according to the control data of the image editing module 50; And 이미지편집모듈(50)에서 편집된 제작된 영상데이터를 저장하는 영상물DB(70);An image material DB 70 for storing the produced image data edited by the image editing module 50; 를 포함하는 것을 특징으로 하는 촬영 영상물의 자동 연출시스템.Automatic production system of the photographed video, characterized in that it comprises a. 제 3 항에 있어서,The method of claim 3, wherein 상기 영상분석모듈(30)은 확인된 신체 영역에서 인출된 신체 영역을 확인하고, 인출된 신체 영역의 말단이 위치한 보드(B)의 일지점을 가리킴 대상(P)으로 설정하며, 이미지편집모듈(50)은 가리킴 대상(P)의 상태를 조정하는 것을 특징으로 하는 촬영 영상물의 자동 연출시스템.The image analysis module 30 checks the body region drawn out from the identified body region, sets the target point P to a point of the board B where the end of the drawn body region is located, and sets the image editing module ( 50) is an automatic rendering system of the photographed video, characterized in that for adjusting the state of the pointing object (P). 삭제delete
KR1020090050366A 2009-06-08 2009-06-08 Automatic production system of photographed video Expired - Fee Related KR101037710B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090050366A KR101037710B1 (en) 2009-06-08 2009-06-08 Automatic production system of photographed video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090050366A KR101037710B1 (en) 2009-06-08 2009-06-08 Automatic production system of photographed video

Publications (2)

Publication Number Publication Date
KR20100131659A KR20100131659A (en) 2010-12-16
KR101037710B1 true KR101037710B1 (en) 2011-05-30

Family

ID=43507577

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090050366A Expired - Fee Related KR101037710B1 (en) 2009-06-08 2009-06-08 Automatic production system of photographed video

Country Status (1)

Country Link
KR (1) KR101037710B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102780686B1 (en) * 2024-07-18 2025-03-12 주식회사 컬쳐제이 System and method for derermining the planning direction of live content based on real-time viewer participation information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153051A (en) * 1992-11-02 1994-05-31 Nippon Telegr & Teleph Corp <Ntt> Mobile objection tracking image pickup device
KR100311605B1 (en) * 1998-10-20 2001-12-28 김경남 Computer Vision Based Eye Tracking Method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153051A (en) * 1992-11-02 1994-05-31 Nippon Telegr & Teleph Corp <Ntt> Mobile objection tracking image pickup device
KR100311605B1 (en) * 1998-10-20 2001-12-28 김경남 Computer Vision Based Eye Tracking Method

Also Published As

Publication number Publication date
KR20100131659A (en) 2010-12-16

Similar Documents

Publication Publication Date Title
US20150332091A1 (en) Device and method of processing image
CN108369816B (en) Apparatus and method for creating video clips from omnidirectional video
US11848031B2 (en) System and method for performing a rewind operation with a mobile image capture device
US20160073029A1 (en) Method and system for creating a video
US11778330B2 (en) Image capture device with a spherical capture mode and a non-spherical capture mode
JP2007251429A (en) Moving image imaging unit, and zoom adjustment method
JP6628343B2 (en) Apparatus and related methods
CN114422692A (en) Video recording method and device and electronic equipment
US20020130955A1 (en) Method and apparatus for determining camera movement control criteria
KR101037710B1 (en) Automatic production system of photographed video
Liao et al. An automatic lecture recording system using pan-tilt-zoom camera to track lecturer and handwritten data
JP4883530B2 (en) Device control method based on image recognition Content creation method and apparatus using the same
KR101026521B1 (en) Real time production method of photographed video
WO2022205085A1 (en) Video photographing method, apparatus and system
TWI709337B (en) Image-capturing system
US20240292106A1 (en) 360 vr-ppp
Engelbert et al. The use and benefit of a Xbox Kinect based tracking system in a lecture recording service
Mitarai et al. Shooting assistance by recognizing user's camera manipulation for intelligible video production
WO2022030275A1 (en) Imaging device, information processing device, information processing method, and program
CN103281508B (en) Video picture switching process, system, recorded broadcast server and video recording and broadcasting system
Ozeki et al. Automated camerawork for capturing desktop presentations
CN113973145A (en) Programmable automatic camera system
Mitarai et al. Development of video shooting assistant system for better expression of affective information
CN118368517A (en) Video shooting method, device, electronic device, readable storage medium and chip
KR20240124516A (en) Sensitive directing system that changes the shooting angle according to the user&#39;s emotional expression

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20090608

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20100920

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20110512

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20110523

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20110524

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20140409

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20140409

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20150313

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20150313

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20160523

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20160523

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20180514

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20180514

Start annual number: 8

End annual number: 8

FPAY Annual fee payment

Payment date: 20190508

Year of fee payment: 9

PR1001 Payment of annual fee

Payment date: 20190508

Start annual number: 9

End annual number: 9

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20210303