KR101037710B1 - Automatic production system of photographed video - Google Patents
Automatic production system of photographed video Download PDFInfo
- Publication number
- KR101037710B1 KR101037710B1 KR1020090050366A KR20090050366A KR101037710B1 KR 101037710 B1 KR101037710 B1 KR 101037710B1 KR 1020090050366 A KR1020090050366 A KR 1020090050366A KR 20090050366 A KR20090050366 A KR 20090050366A KR 101037710 B1 KR101037710 B1 KR 101037710B1
- Authority
- KR
- South Korea
- Prior art keywords
- lecturer
- image
- module
- cameras
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 12
- 238000010191 image analysis Methods 0.000 claims abstract description 24
- 230000001815 facial effect Effects 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 16
- 210000000746 body region Anatomy 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 7
- 239000000463 material Substances 0.000 claims description 3
- 239000000203 mixture Substances 0.000 abstract description 2
- 238000002372 labelling Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004587 chromatography analysis Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/02—Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
- H04H60/07—Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information characterised by processes or methods for the generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Human Resources & Organizations (AREA)
- Educational Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
본 발명은 다수 카메라를 통해 동시 촬영되는 피사체에 대한 동영상 연출을 자동으로 수행해서 동영상의 체계와 구성을 효과적으로 정리할 수 있도록 하는 촬영 영상물의 자동 연출시스템에 관한 것으로, 피사체인 보드(B)와 강의자(M)를 각각 촬영하는 제1,2카메라(11, 12); 제1,2카메라(11, 12)의 촬영방향과 배율을 조정하는 촬영위치 조정수단(20); 제2카메라(12)에 촬영된 강의자(M)의 영상 중 안면 영역과, 안면 영역 내 이목구비의 각 영역들 중 선택된 하나 이상의 영역을 확인하는 영상분석모듈(30); 안면 영역을 기준으로 이목구비의 각 영역들 중 선택된 하나 이상 영역의 위치 편중을 확인해서, 강의자(M)의 행동을 확인하는 행동확인모듈(40); 강의자(M)의 행동에 따른 설정데이터를 확인하고, 제1,2카메라(11, 12)에서 촬영된 영상물을 해당 설정데이터에 따라 편집하며, 제1,2카메라(11, 12)의 조작을 위해 설정데이터에 따른 제어데이터를 전송하는 이미지편집모듈(50); 이미지편집모듈(50)의 제어데이터에 따라 촬영위치 조정수단(20)을 조작하는 제어모듈(60); 및 이미지편집모듈(50)에서 편집된 제작된 영상데이터를 저장하는 영상물DB(70)를 포함하는 것이다.The present invention relates to a system for automatically directing a photographed video to effectively organize a video and a composition of a video by automatically performing a video for a subject simultaneously taken through a plurality of cameras, the board (B) and the lecturer (subject) First and second cameras 11 and 12 respectively photographing M); Photographing position adjusting means (20) for adjusting photographing directions and magnifications of the first and second cameras (11, 12); An image analysis module 30 for identifying a facial region among the images of the lecturer M photographed by the second camera 12 and at least one selected region among the regions of the eye area within the facial region; An action checking module 40 for checking a position bias of at least one selected area of each area of the eye area based on the face area, and confirming the behavior of the lecturer M; Check the setting data according to the behavior of the lecturer (M), edit the video photographed by the first and second cameras 11 and 12 according to the setting data, and operate the first and second cameras 11 and 12. An image editing module 50 for transmitting control data according to the setting data; A control module 60 for manipulating the photographing position adjusting means 20 according to the control data of the image editing module 50; And an image DB 70 that stores the produced image data edited by the image editing module 50.
Description
본 발명은 다수 카메라를 통해 동시 촬영되는 피사체에 대한 동영상 연출을 자동으로 수행해서 동영상의 체계와 구성을 효과적으로 정리할 수 있도록 하는 촬영 영상물의 자동 연출시스템에 관한 것이다.The present invention relates to an automatic production system of a photographed video object to automatically organize a moving picture for a subject photographed simultaneously through a plurality of cameras to effectively organize the structure and configuration of the moving picture.
동영상 또는 정지영상 등과 같은 영상물을 아날로그 또는 디지털 방식으로 기록할 수 있는 기기들이 고도화 및 대중화되면서, 전문가는 물론 비전문가인 일반인들도 다양한 용도와 목적을 갖는 정지영상 및 동영상을 촬영하고 기록할 수 있게 되었다.With the advancement and popularization of devices that can record video such as moving pictures or still images in an analog or digital manner, the general public, as well as experts, can shoot and record still images and videos for various purposes and purposes. .
한편, 인터넷 등과 같은 각종 통신수단의 이용이 급증하고 그 활용이 용이해지면서, 사람들은 자신이 대중에게 표현하고 싶은 내용을 글로 업로드하거나, 정지영상 또는 동영상으로 제작해 업로드하는 행태가 빈번하였다. 이외에도 자신이 직접 제작한 영상물을 비디오테이프에 기록하거나, 각종 CD 또는 디스크 등과 같은 기록매체에 기록해서 오프라인에서도 자신의 내용을 알리거나 전파시킬 수 있었다.On the other hand, as the use of various communication means such as the Internet has rapidly increased and the utilization thereof is easy, people frequently upload the contents they want to express to the public in writing, or produce and upload still images or videos. In addition, he recorded his own video on videotape or recorded on various recording media such as CDs or discs, so that his contents could be notified or propagated offline.
이러한 영상물 중에는 강의와 같은 특수한 목적의 동영상이 있다. 이러한 동영상은 강의하는 자(이하 '강의자'로 함)에 대한 촬영과, 강의자가 기록하는 칠 판 또는 화이트보드(이하 '보드'로 함)에 대한 촬영이 혼합되면서, 강의 내용의 전달 효율이 향상되도록 전문가에 의해 연출 및 편집된다. 좀 더 구체적으로 설명하면, 강의를 목적으로 하는 동영상은 강의자만을 촬영해 보여주거나, 강의자의 행동에 따라 보드에 기록되는 내용을 클로즈업하거나, 강의자와 보드를 함께 보여주는 등의 연출기법을 통해 강의 내용이 시청자에게 효과적으로 전달될 수 있도록 제작되는 것이다.Among these videos are special purpose videos such as lectures. These videos are mixed with the filming of the lecturer (hereinafter referred to as the "lecturer") and the recording of the blackboard or whiteboard (hereinafter referred to as the "board") recorded by the lecturer, improving the efficiency of delivering the lecture contents. It is directed and edited by an expert as much as possible. More specifically, the video for the purpose of teaching the lecture contents through the directing technique such as showing only the lecturer, close-up the contents recorded on the board according to the lecturer's action, or show the lecturer and the board together. It is designed to be effectively delivered to viewers.
그러나, 비전문가인 일반인은 강의를 목적으로 하는 동영상 제작 시 전술한 연출기법을 효과적으로 적용할 수 없고, 특히 두 대의 카메라를 이용해 동영상 제작을 진행할 시에는 단독으로 상기 연출기법을 적용하는데 한계가 있었다. 결국, 강의와 같은 전문적인 연출기법이 적용되어야 하는 특수한 목적의 동영상 제작은 일반인들에게 쉽지 않은 작업이었다.However, the general public who is not an expert can not effectively apply the above-described directing technique when producing a video for the purpose of teaching, especially when the video production using two cameras, there was a limit to apply the directing technique alone. In the end, producing a special-purpose video that required professional directing techniques such as lectures was not easy for the general public.
이에 본 발명은 상기와 같은 문제를 해소하기 위해 안출된 것으로, 강의와 같은 특수한 목적을 가지면서 다양한 연출기법이 적용되어야 하는 동영상 제작 작업을 비전문가가 혼자서도 효과적으로 진행할 수 있도록 하는 촬영 영상물의 자동 연출시스템의 제공을 기술적 과제로 한다.Accordingly, the present invention has been made to solve the above problems, and has a special purpose, such as lectures of the automatic production system of the photographing video that allows the non-experts to proceed effectively the video production work that should be applied to a variety of directing techniques alone Provision is a technical task.
상기의 기술적 과제를 달성하기 위하여 본 발명은,According to an aspect of the present invention,
피사체인 보드와 강의자를 각각 촬영하는 제1,2카메라;First and second cameras for photographing a board and a lecturer as a subject;
제1,2카메라의 촬영방향과 배율을 조정하는 촬영위치 조정수단;Photographing position adjusting means for adjusting photographing directions and magnifications of the first and second cameras;
제2카메라에 촬영된 강의자의 영상 중 안면 영역과, 안면 영역 내 이목구비의 각 영역들 중 선택된 하나 이상의 영역을 확인하는 영상분석모듈;An image analysis module configured to identify a facial area of the lecturer's image photographed by the second camera and at least one selected area among respective areas of the eye area within the facial area;
안면 영역을 기준으로 이목구비의 각 영역들 중 선택된 하나 이상 영역의 위치 편중을 확인해서, 강의자의 행동을 확인하는 행동확인모듈;An action checking module for checking a position bias of at least one selected area of each area of the eye area based on the face area, and confirming the lecturer's behavior;
강의자의 행동에 따른 설정데이터를 확인하고, 제1,2카메라에서 촬영된 영상물을 해당 설정데이터에 따라 편집하며, 제1,2카메라의 조작을 위해 설정데이터에 따른 제어데이터를 전송하는 이미지편집모듈;An image editing module that checks the setting data according to the lecturer's actions, edits the image taken by the first and second cameras according to the setting data, and transmits the control data according to the setting data for the operation of the first and second cameras. ;
이미지편집모듈의 제어데이터에 따라 촬영위치 조정수단을 조작하는 제어모듈; 및A control module for operating the photographing position adjusting means according to the control data of the image editing module; And
이미지편집모듈에서 편집된 제작된 영상데이터를 저장하는 영상물DB;Image material DB for storing the produced image data edited in the image editing module;
를 포함하는 촬영 영상물의 자동 연출시스템이다.It is an automatic rendering system of the photographed video including.
상기의 본 발명은, 비전문가 혼자서도 다양한 연출기법을 통해 강의와 같은 동영상을 손쉽게 제작할 수 있고, 이렇게 제작된 동영상은 강의자의 행동과 강의 내용에 따라 최적화된 표현이 가능하므로, 시청자는 동영상이 전달하고자 하는 내용을 효과적으로 습득할 수 있도록 하는 효과가 있다.According to the present invention, a non-specialist alone can easily produce a video such as a lecture through various directing techniques, and the produced video can be optimized according to the lecturer's behavior and the contents of the lecture. It is effective to learn the contents effectively.
이하 본 발명을 첨부된 예시도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 연출시스템이 적용된 촬영 현장의 모습을 개략적으로 도시한 평면도이고, 도 2는 본 발명에 따른 연출시스템의 모습을 도시한 블록도인 바, 이를 참조해 설명한다.1 is a plan view schematically showing a state of a shooting site to which the directing system according to the present invention is applied, and FIG. 2 is a block diagram showing a state of the directing system according to the present invention.
본 발명에 따른 연출시스템은 최소한 두 개 이상의 제1,2카메라(11, 12)와, 제1,2카메라(11, 12)의 촬영방향을 조정하는 촬영위치 조정수단(20)과, 제1,2카메라(11, 12)에 촬영된 영상을 분석하는 영상분석모듈(30)과, 강의자의 행동을 확인하는 행동확인모듈(40)과, 강의자의 행동에 따라 설정된 제1,2카메라(11, 12)의 촬영방향 및 촬영방식 등을 확인하는 이미지편집모듈(50)과, 촬영위치 조정수단(20)ㆍ영상분석모듈(30)ㆍ행동확인모듈(40)ㆍ이미지편집모듈(50)의 구동을 제어하는 제어모듈(60)과, 편집된 영상물을 저장하는 영상물DB(70)를 포함하고, 필요에 따라 당해 영상물을 출력하는 출력모듈(80)과, 촬영 영상물를 재설정할 수 있는 설정모듈(90)을 더 포함할 수 있다.The production system according to the present invention comprises at least two or more first and
상기 제1,2카메라(11, 12)는 피사체인 강의자(M)와 보드(B)를 각각 촬영하는 통상적인 촬영수단으로, 촬영방향의 조정은 물론 줌인 또는 줌아웃과 같은 일반적인 촬영방식의 실시가 가능한 공지된 기기이다.The first and
상기 촬영위치 조정수단(20)은 제1,2카메라(11, 12)의 촬영방향을 조정하는 것으로, 제1,2카메라(11, 12)의 승하강, 제1,2카메라(11, 12)의 상하좌우 회동 등과 같은 기계적인 움직임을 조정한다. 일반적으로, 제1,2카메라(11, 12)와 촬영위치 조정수단(20)을 결합해 틸트 카메라로 칭한다. 아울러, 촬영위치 조정수단(20)은 제2카메라(12)가 강의자(M)의 이동을 감지해서 강의자(M)의 움직임을 따라 지속적으로 촬영하도록 조정할 수 있다. 이를 위해 촬영위치 조정수단(20)은 강의자(M)의 체온 또는 발음소리 등을 감지하는 센서(미도시함)를 통해 강의자(M)를 감지하고, 감지한 방향으로 제2카메라(12)의 촬영방향을 조준할 것이다. The photographing position adjusting means 20 adjusts the photographing direction of the first and
한편, 촬영위치 조정수단(20)은 제1,2카메라(11, 12) 각각의 기계적인 움직임을 조정할 수 있는 장치라면 무엇이든지 적용 가능할 것이다. 일 예를 들면, 제1,2카메라(11, 12)의 승하강 또는 수평이동은 볼스크류 구조를 적용해서 볼스크류 및 가이드를 따라 직선이동이 가능토록 할 수 있고, 제1,2카메라(11, 12)의 회동은 회전모터 및 회전축 기어 등을 통해 가능토록 할 수도 있을 것이다.Meanwhile, the photographing position adjusting means 20 may be applied to any device capable of adjusting the mechanical movement of each of the first and
기타, 촬영위치 조정수단(20)은 제1,2카메라(11, 12)의 위치 및 촬영방향을 조정할 수 있는 장치라면 이하의 청구범위를 벗어나지 않는 한도 내에서 다양하게 변형실시될 수 있을 것이다.In addition, the photographing position adjusting means 20 may be variously modified within the scope of the following claims as long as the device can adjust the position and the photographing direction of the first and
상기 영상분석모듈(30)은 제1,2카메라(11, 12)에 촬영되는 피사체를 구분하 기 위해 영상물을 분석하는 것으로, 도시한 바와 같이 제2카메라(12)에 촬영된 강의자(M)의 안면, 이목구비 및 신체 등을 확인한다. 이를 위한 영상분석모듈(30)의 구동모습을 아래에서 상세히 설명한다.The
상기 행동확인모듈(40)은 영상분석모듈(30)에서 확인된 피사체인 강의자(M)의 행동을 확인해서, 강의자(M)가 현재 어떠한 행동을 취하는지 감지한다.The
상기 이미지편집모듈(50)은 행동확인모듈(40)에서 확인된 강의자(M)의 행동에 따른 촬영 영상물를 확인해서, 촬영위치 조정수단(20)을 제어하는 제어모듈(60)로 상기 촬영 영상물에 대한 제어데이터를 전송한다.The
상기 제어모듈(60)은 이미지편집모듈(50)로부터 전송된 제어데이터에 따라 촬영위치 조정수단(20)의 동작을 제어하고, 영상분석모듈(30)ㆍ행동확인모듈(40)ㆍ이미지편집모듈(50)의 온/오프 등을 제어한다.The
상기 영상물DB(70)는 편집이 완료된 영상물을 영상데이터로 저장한다.The image object DB 70 stores the edited image object as image data.
상기 출력모듈(80)은 영상물을 출력하는 통상적인 디스플레이어다.The
상기 설정모듈(90)은 영상분석모듈(30)의 설정 색상 또는 이미지편집모듈(50)의 촬영 영상물 등과 같은 설정 값을 피사체에 맞춰 작업자의 조작으로 재설정할 수 있도록 하는 것이다. 여기서, 설정모듈(90)은 통상적인 컴퓨터로, 영상분석모듈(30) 및 이미지편집모듈(50)의 실행기준이 되는 설정 값의 입력 및 편집 등을 처리하도록 프로그래밍 된 것이다.The
도 3은 본 발명에 따른 연출방법의 제1실시모습을 순차 도시한 플로우차트이 고, 도 4는 본 발명에 따른 연출시스템이 수행하는 안면 레이블링 모습을 도시한 도면이고, 도 5는 본 발명에 따른 연출시스템이 강의자의 시선을 확인하는 원리를 보인 도면인 바, 이를 참조해 설명한다.3 is a flowchart sequentially showing a first embodiment of the rendering method according to the present invention, Figure 4 is a view showing a face labeling state performed by the rendering system according to the present invention, Figure 5 according to the present invention The drawing system shows the principle of checking the lecturer's gaze.
S11; 대상물 촬영단계S11; Object shooting stage
피사체를 향해 제1,2카메라(11, 12)를 배치한다.The first and
참고로, 본 발명에 따른 연출시스템의 실시모습을 명확히 설명하기 위해 상기 피사체는 강의자(M)의 강의모습으로 한다.For reference, in order to clearly describe the implementation of the production system according to the present invention, the subject is a lecture of the lecturer (M).
제1카메라(11)는 보드(B)를 촬영하고, 제2카메라(12)는 강의자(M)를 촬영한다. 이때, 제1카메라(11)는 보드(B) 전체 또는 보드(B)의 일 지점만을 선택적으로 촬영할 수 있고, 제2카메라(12)는 강의자(M)의 전신, 상반신 또는 손 등만을 선택적으로 촬영할 수 있다. 즉, 촬영위치 조정수단(20)에 의해 제1,2카메라(11, 12)는 위치 조정 및 촬영방향과 배율 등에 대한 조정이 이루어지면서, 강의자(M) 및 보드(B)를 필요에 따라 전체적으로 또는 부분적으로 촬영할 수 있는 것이다.The
피사체인 강의자(M)와 보드(B)는 지속적으로 촬영될 수 있고, 이렇게 촬영된 영상물은 임시 저장될 수 있을 것이다. 이외에도, 제1,2카메라(11, 12)는 필요시에만 선택적으로 구동할 수도 있음은 물론이다.The subject lecturer M and the board B may be continuously photographed, and the photographed image may be temporarily stored. In addition, the first and
S12; 피사체의 자세확인단계S12; Checking the posture of the subject
영상분석모듈(30)은 제2카메라(12)가 촬영한 강의자(M)의 모습을 분석한다.The
이를 위해 영상분석모듈(30)은 제2카메라(12)에 촬영된 영상물을 픽셀단위로 분리한 후 각 픽셀에 감지된 색상을 확인한다. 이때, 영상분석모듈(30)은 인간인 강의자(M)를 확인하므로, 상기 색상은 피부색이 될 것이다. 여기서 피부색은 통상적인 색상이 적용될 것이며, 인종에 따라 확인 대상 색상을 다양하게 설정할 수도 있을 것이다. 참고로, 피부색을 설정하는 설정 값의 재설정은 설정모듈(90)에서 작업자가 직접 진행할 수 있을 것이다.To this end, the
본 발명에 따른 실시예에서 영상분석모듈(30)은 상기 색상(피부색)이 확인된 픽셀을 감지해서 이를 레이블링하는 방식으로 영상을 분석한다.In an embodiment of the present invention, the
영상분석모듈(30)은 제2카메라(12)를 통해 촬영된 영상물 중 피부색을 감지하는 픽셀을 확인한 후, 당해 픽셀을 '1'로, 그 외 픽셀을 '0'으로 레이블링한다. 즉, 도 4(a)에 도시한 바와 같이, 1차적으로 강의자(M)의 안면 영역을 감지하는 것이다. 참고로, 도 4(a)에는 강의자(M)의 안면 전체가 '1'로 레이블링 된 것처럼 도시하였지만, 실제로는 강의자(M)의 안면으로 확인되는 가장자리를 따라 '1'로 레이블링되면서 안면 영역의 윤곽을 추정하도록 될 수도 있을 것이다.The
안면 영역의 감지가 완료되면, 안면 영역 내의 픽셀이 감지한 색상을 다시 확인해서 피부색이 아닌 부분을 '1'로 레이블링하고, 피부색인 부분을 '0'으로 레이블링한다. 즉, 도 4(b)에 도시한 바와 같이 2차적으로 상기 안면 영역에서 강의자(M)의 이목구비 영역을 감지하는 것이다.When the detection of the facial area is completed, the color detected by the pixels in the facial area is checked again, and the non-skin part is labeled as '1', and the skin part is labeled as '0'. That is, as shown in FIG. 4 (b), the second eye area of the lecturer M is detected in the facial area.
도 4(b)에 도시한 바와 같이, 강의자(M)의 안면 영역과 이목구비의 위치 확인을 통해 강의자(M)의 시선을 추정할 수 있다. 이를 좀 더 상세히 설명하면, 행 동확인모듈(40)은 영상분석모듈(30)에서 분석된 촬영이미지를 통해 강의자(M)의 안면 영역을 기준으로 눈과 코 또는 입 등에 대한 위치를 확인해서, 강의자(M)의 시선을 확인할 수 있는 것이다.As shown in FIG. 4 (b), the eye gaze of the lecturer M may be estimated by identifying the face area of the lecturer M and the position of the eyes. To explain this in more detail, the
일 예로, 도 5(a)는 제2카메라(12)에 촬영된 강의자(M)의 모습을 보인 것으로, 본 도면의 강의자(M)는 카메라를 응시하고 있다. 행동확인모듈(40)은 당해 강의자(M)의 눈과 코 또는 입이 안면 영역의 중앙에 위치하는 것을 확인하면서, 강의자(M)의 시선이 정면, 즉 제2카메라(12)를 향하고 있음을 추정한다.For example, FIG. 5 (a) illustrates the appearance of the lecturer M photographed by the
반면, 도 5(b)에 보인 바와 같이, 행동확인모듈(40)은 당해 강의자(M)의 눈과 코 또는 입이 안면 영역의 우측(강의자 기준)으로 편중된 것을 확인하면서, 강의자(M)의 시선이 우측을 향하고 있음을 추정한다.On the other hand, as shown in Figure 5 (b), the
참고로, 시선의 편중 여부는 안면 영역 내에서 이목구비에 해당하는 픽셀의 좌우 픽셀 개수를 통해 확인될 수 있을 것이다.For reference, whether the gaze is biased may be determined by the number of left and right pixels of the pixel corresponding to the eye area in the facial area.
S13; 시선대상 출력 확인단계S13; Eye output check step
이미지편집모듈(50)은 행동확인모듈(40)이 추정한 강의자(M)의 시선 정보를 수신하고, 해당 시선 정보에 따라 강의자(M)의 행동이 설정된 촬영 영상물를 확인한다.The
여기서 설정데이터란, 강의자(M)의 시선 방향에 따라 제1,2카메라(11, 12)에 촬영되고 있는 영상물의 합성 및 편집 등에 대한 연출정보가 세팅된 것이다. 즉, 상기 연출정보는 강의자(M)의 시선이 정면을 향하고 있음이 확인되면 제2카메 라(12)에 촬영되는 강의자(M)의 영상물만을 출력하고, 강의자(M)의 시선이 좌측 또는 우측을 향하고 있음이 확인되면 제1,2카메라(11, 12) 각각에 촬영되는 영상물을 합성하거나, 제1카메라(11) 또는 제2카메라(12) 중 강의자(M)와 보드(B)가 모두 촬영되고 있는 카메라의 영상물이 출력되도록 제어하는 것이다. 참고로, 강의자(M)의 시선이 위쪽 또는 아래쪽을 향하고 있음이 확인되면 강의자(M)는 자신이 기록한 메모를 읽거나 특정한 제스처를 취하는 것이므로, 강의자(M)가 정면을 보는 것으로 간주할 수 있을 것이다.Here, the setting data is set by the director information about the composition, editing, and the like of the video images photographed by the first and
이외에도, 강의자(M)의 시선 편중 정도를 확인해서, 강의자(M)의 시선이 어디를 향하는지를 추정할 수도 있다. 좀 더 상세히 설명하면, 강의자(M)의 정면 시선을 90도라 할 때, 제2카메라(12)에 촬영된 강의자(M)의 시선이 20도(기준값) 이내이면 강의자(M)가 현재 보드(B)를 보는 것으로 간주하고, 20도를 초과하면 강의자(M)가 정면을 보는 것으로 간주할 수 있다. 이러한 기준은 강의자(M)의 실제 강의 모습 및 패턴 등에 따라 설정모듈(90)을 통해 직접 조정될 수도 있을 것이다.In addition, the degree of gaze bias of the lecturer M may be checked, and it may be estimated where the gaze of the lecturer M faces. In more detail, when the front line of sight of the lecturer M is 90 degrees, if the line of sight of the lecturer M photographed by the
S17; 영상처리단계S17; Image processing step
이미지편집모듈(50)은 강의자(M)의 시선 각도를 확인해서 당해 시선 각도가 기준값 이내이면 제1,2카메라(11, 12)에 촬영되는 강의자(M)와 보드(B)를 합성 또는 함께 출력되도록 편집하거나 보드(B)만이 출력되도록 편집하고, 기준값을 초과하면 제2카메라(12)에 촬영되는 강의자(M)만이 출력되도록 편집할 수 있다.The
S18; 출력단계S18; Output stage
제어모듈(60)은 이미지편집모듈(50)에서 편집된 영상물을 확인해 출력모듈(80)로 전달하고, 출력모듈(80)은 상기 영상물을 출력한다.The
물론, 출력모듈(80)은 필수구성이 아니므로, 제어모듈(60)은 당해 영상물에 대한 출력을 진행하지 않을 수 있다.Of course, since the
아울러, 상기 영상물은 온라인(네트워크) 전송을 통해 실시간으로 방송될 수도 있다. 즉, 별도의 편집과정을 진행할 필요가 없으므로, 생방송 진행이 가능한 것이다.In addition, the video material may be broadcast in real time through an online (network) transmission. In other words, there is no need to proceed a separate editing process, it is possible to proceed live.
S19; 저장단계S19; Save step
제어모듈(60)은 이미지편집모듈(50)에서 편집된 영상물을 확인해 영상물DB(70)로 전달하고, 영상물DB(70)는 상기 영상물을 저장한다.The
참고로, 영상물DB(70)는 통상적인 하드웨어일 수 있으나, 비디오테이프 또는 CD 등과 같은 통상적인 기록매체(소프트웨어)일 수도 있다.For reference, the
도 6은 본 발명에 따른 연출방법의 제2실시모습을 순차 도시한 플로우차트이고, 도 7은 본 발명에 따른 연출시스템이 수행하는 안면 레이블링 모습을 도시한 도면인 바, 이를 참조해 설명한다.FIG. 6 is a flowchart sequentially illustrating a second embodiment of the directing method according to the present invention, and FIG. 7 is a view illustrating a face labeling performed by the directing system according to the present invention.
본 발명에 따른 연출시스템은 강의자(M)의 시선은 물론 강의자(M)의 행동까지 확인해서, 강의에 대한 전달력과 시청자의 이해도를 높일 수 있도록 된다.The production system according to the present invention can check not only the eyes of the lecturer M but also the behavior of the lecturer M, so as to enhance the delivery power and understanding of the lecturer.
이하에서는 본 발명에 따른 제1실시모습에서 설명한 부분에 대한 설명은 생략한다.Hereinafter, a description of the parts described in the first embodiment according to the present invention will be omitted.
S15; 가리킴대상 출력 확인단계S15; Check output point
영상분석모듈(30)은 강의자(M)의 안면을 확인한 후 안면 영역의 하단 부분에 대한 색상을 확인한다. 이때 확인된 색상은 강의자(M)의 신체(상반신) 색상으로 간주하고, 동일 또는 유사 색상에 대한 영역을 확인한다.The
참고로, 강의자(M)가 입은 의복은 피부색과 달리 다양할 수 있으므로, 영상분석모듈(30)은 안면 영역의 하단 경계 이후에 확인되는 픽셀이 감지한 색상을 강의자(M)의 의복 색상으로 자동 설정할 것이다. 그러나, 설정모듈(90)을 통해 작업자가 강의자(M)의 의복 색상을 별도로 설정해서 영상분석모듈(30)이 이를 확인토록 할 수도 있음은 물론이다. 한편, 영상분석모듈(30)은 안면 영역을 확인했던 방식과 동일하게, 강의자(M)의 신체로 간주된 픽셀 부분을 '1'로 레이블링하고 그외 픽셀 부분은 '0'으로 레이블링해서, 신체 영역을 구체적으로 확인할 수 있다.For reference, since the clothing worn by the lecturer M may be different from the skin color, the
계속해서, 행동확인모듈(40)은 영상분석모듈(30)에서 확인한 신체 영역의 수평 폭을 확인해서 강의자(M)의 신체가 어떤 상태인지를 추정할 수 있다. 좀 더 상세히 설명하면, 도 7(a),(b)에 도시한 바와 같이 신체 영역에 해당하는 부분의 수평 폭이 차이가 있는데, 이러한 차이는 강의자(M)의 자세가 다름을 의미하는 것으로, 도 7(a)는 강의자(M)가 제2카메라(12)를 향해 서 있는 것이고, 도 7(b)는 강의자(M)가 강의를 위해 보드(B)를 향해 서 있는 것임을 행동확인모듈(40)이 확인할 수 있다.Subsequently, the
한편, 도 7(b)에 도시한 바와 같이, 강의자(M)는 팔의 움직임을 통해 가리킴대상(P)을 한정할 수도 있다. 물론, 팔의 움직임 여부는 신체 영역의 인출 여부를 통해 추정할 수 있고, 행동확인모듈(40)은 인출된 신체 영역의 말단을 가리킴 대상(P)으로 간주할 수 있다.On the other hand, as shown in Figure 7 (b), the lecturer (M) may define the target point (P) through the movement of the arm. Of course, whether or not the movement of the arm can be estimated through the withdrawal of the body region, the
이미지편집모듈(50)은 가리킴 대상(P)이 확인되면, 가리킴 대상(P)의 출력 여부를 결정한다. 즉, 강의자(M)가 보드(B)의 일 지점을 가리킴 대상(P)으로 하면, 시청자가 당해 가리킴 대상(P)에 집중할 수 있도록 제1카메라(11)로 촬영되는 보드(B)를 출력하는 것이다. 물론, 이미지편집모듈(50)은 보드(B)만을 출력할 수도 있고, 보드(B)와 강의자(M)를 함께 출력할 수도 있다.The
한편, 이미지편집모듈(50)은 강의자(M)가 일시적으로 보드(B)를 가리키는 경우에는 화면전환의 남발을 방지하기 위해, 가리킴 대상(P)을 출력하지 않고 강의자(M)만을 지속적으로 출력할 수도 있다. 가리킴 대상(P)의 출력 여부 결정 기준은 강의자(M)의 가리킴 시간이 될 것이고, 이 또한 설정모듈(90)을 통해 재설정될 수 있음은 물론이다.Meanwhile, when the lecturer M temporarily points to the board B, the
S16; 가리킴 대상 상태조정단계S16; Target status adjustment stage
강의자(M)가 보드(B)에 필기를 하거나, 보드(B)에 게시된 그림 등과 같은 영상물의 일지점을 지속적으로 가리킬 경우엔, 시청자가 해당 가리킴 대상(P)을 효과적으로 인식하고 인지할 수 있도록 하기 위해, 상기 가리킴 대상(P)만을 크게 확장 할 수 있다. 즉, 상기 가리킴 대상(P)을 줌인할 수 있는 것이다.When the lecturer (M) writes on the board (B) or continuously points to a point of the video such as a picture posted on the board (B), the viewer can effectively recognize and recognize the pointed object (P). In order to ensure that, only the point P may be greatly expanded. That is, the pointed object (P) can be zoomed in.
따라서, 가리킴 대상(P)의 상태를 조정하는 것으로 설정되면, 이미지편집몸듈(50)은 촬영위치 조정수단(20)을 제어모듈(60)을 매개로 제어해서 제1,2카메라(11, 12)의 촬영방향 또는 배율을 조정한다. 결국, 제1,2카메라(11, 12)는 가리킴 대상(P)만을 줌인해 출력할 수 있도록 동작한다.Therefore, when it is set to adjust the state of the object to be pointed (P), the
한편, 이미지편집모듈(50)은 강의자(M)가 지적한 부분을 영상처리해서 시각적으로 강조할 수도 있다. 좀 더 상세히 설명하면, 강의자(M)가 지적한 부분이 글자일 경우엔 글자 이미지를 확인해서 색상처리 또는 자동 밑줄 추가 등을 진행해 글자 이미지를 강조하거나, 지적한 부분이 그림일 경우엔 그림 이미지의 경계를 확인해서 상기 그림 이미지에 테두리 선을 그을 수 있는 것이다. 이외에도 각종 크로마킹 기법 등이 적용될 수 있을 것이다.On the other hand, the
이렇게 처리된 영상물은 출력단계(S18) 또는 저장단계(S19)를 통해 처리되어서, 시청자가 이를 시청할 수 있도록 한다.The processed image is processed through an output step S18 or a storage step S19, so that the viewer can watch it.
도 1은 본 발명에 따른 연출시스템이 적용된 촬영 현장의 모습을 개략적으로 도시한 평면도이고,1 is a plan view schematically showing the appearance of the shooting scene to which the directing system according to the present invention is applied,
도 2는 본 발명에 따른 연출시스템의 모습을 도시한 블록도이고,2 is a block diagram showing a state of the production system according to the present invention,
도 3은 본 발명에 따른 연출방법의 제1실시모습을 순차 도시한 플로우차트이고,3 is a flowchart sequentially showing a first embodiment of the directing method according to the present invention;
도 4는 본 발명에 따른 연출시스템이 수행하는 안면 레이블링 모습을 도시한 도면이고, 4 is a view showing a face labeling state performed by the rendering system according to the present invention,
도 5는 본 발명에 따른 연출시스템이 강의자의 시선을 확인하는 원리를 보인 도면이고,5 is a view showing a principle of the system to check the lecturer's gaze according to the present invention,
도 6은 본 발명에 따른 연출방법의 제2실시모습을 순차 도시한 플로우차트이고,6 is a flowchart sequentially showing a second embodiment of the rendering method according to the present invention;
도 7은 본 발명에 따른 연출시스템이 수행하는 신체 레이블링 모습을 도시한 도면이다.7 is a view showing a body labeling state performed by the rendering system according to the present invention.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090050366A KR101037710B1 (en) | 2009-06-08 | 2009-06-08 | Automatic production system of photographed video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090050366A KR101037710B1 (en) | 2009-06-08 | 2009-06-08 | Automatic production system of photographed video |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100131659A KR20100131659A (en) | 2010-12-16 |
KR101037710B1 true KR101037710B1 (en) | 2011-05-30 |
Family
ID=43507577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090050366A Expired - Fee Related KR101037710B1 (en) | 2009-06-08 | 2009-06-08 | Automatic production system of photographed video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101037710B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102780686B1 (en) * | 2024-07-18 | 2025-03-12 | 주식회사 컬쳐제이 | System and method for derermining the planning direction of live content based on real-time viewer participation information |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06153051A (en) * | 1992-11-02 | 1994-05-31 | Nippon Telegr & Teleph Corp <Ntt> | Mobile objection tracking image pickup device |
KR100311605B1 (en) * | 1998-10-20 | 2001-12-28 | 김경남 | Computer Vision Based Eye Tracking Method |
-
2009
- 2009-06-08 KR KR1020090050366A patent/KR101037710B1/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06153051A (en) * | 1992-11-02 | 1994-05-31 | Nippon Telegr & Teleph Corp <Ntt> | Mobile objection tracking image pickup device |
KR100311605B1 (en) * | 1998-10-20 | 2001-12-28 | 김경남 | Computer Vision Based Eye Tracking Method |
Also Published As
Publication number | Publication date |
---|---|
KR20100131659A (en) | 2010-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20150332091A1 (en) | Device and method of processing image | |
CN108369816B (en) | Apparatus and method for creating video clips from omnidirectional video | |
US11848031B2 (en) | System and method for performing a rewind operation with a mobile image capture device | |
US20160073029A1 (en) | Method and system for creating a video | |
US11778330B2 (en) | Image capture device with a spherical capture mode and a non-spherical capture mode | |
JP2007251429A (en) | Moving image imaging unit, and zoom adjustment method | |
JP6628343B2 (en) | Apparatus and related methods | |
CN114422692A (en) | Video recording method and device and electronic equipment | |
US20020130955A1 (en) | Method and apparatus for determining camera movement control criteria | |
KR101037710B1 (en) | Automatic production system of photographed video | |
Liao et al. | An automatic lecture recording system using pan-tilt-zoom camera to track lecturer and handwritten data | |
JP4883530B2 (en) | Device control method based on image recognition Content creation method and apparatus using the same | |
KR101026521B1 (en) | Real time production method of photographed video | |
WO2022205085A1 (en) | Video photographing method, apparatus and system | |
TWI709337B (en) | Image-capturing system | |
US20240292106A1 (en) | 360 vr-ppp | |
Engelbert et al. | The use and benefit of a Xbox Kinect based tracking system in a lecture recording service | |
Mitarai et al. | Shooting assistance by recognizing user's camera manipulation for intelligible video production | |
WO2022030275A1 (en) | Imaging device, information processing device, information processing method, and program | |
CN103281508B (en) | Video picture switching process, system, recorded broadcast server and video recording and broadcasting system | |
Ozeki et al. | Automated camerawork for capturing desktop presentations | |
CN113973145A (en) | Programmable automatic camera system | |
Mitarai et al. | Development of video shooting assistant system for better expression of affective information | |
CN118368517A (en) | Video shooting method, device, electronic device, readable storage medium and chip | |
KR20240124516A (en) | Sensitive directing system that changes the shooting angle according to the user's emotional expression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20090608 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20100920 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20110512 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20110523 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20110524 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20140409 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20140409 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150313 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20150313 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160523 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20160523 Start annual number: 6 End annual number: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180514 Year of fee payment: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20180514 Start annual number: 8 End annual number: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190508 Year of fee payment: 9 |
|
PR1001 | Payment of annual fee |
Payment date: 20190508 Start annual number: 9 End annual number: 9 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20210303 |