[go: up one dir, main page]

KR101203787B1 - Contents production method and system using interface based image cognition - Google Patents

Contents production method and system using interface based image cognition Download PDF

Info

Publication number
KR101203787B1
KR101203787B1 KR1020100008074A KR20100008074A KR101203787B1 KR 101203787 B1 KR101203787 B1 KR 101203787B1 KR 1020100008074 A KR1020100008074 A KR 1020100008074A KR 20100008074 A KR20100008074 A KR 20100008074A KR 101203787 B1 KR101203787 B1 KR 101203787B1
Authority
KR
South Korea
Prior art keywords
marker
artificial
auxiliary
image recognition
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020100008074A
Other languages
Korean (ko)
Other versions
KR20110088252A (en
Inventor
백성욱
최호철
지수미
김성국
우경덕
이정중
강경일
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020100008074A priority Critical patent/KR101203787B1/en
Publication of KR20110088252A publication Critical patent/KR20110088252A/en
Application granted granted Critical
Publication of KR101203787B1 publication Critical patent/KR101203787B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템에 관한 것이다. 본 발명에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법은, 인터페이스부에 배치된 인공 마커 및 보조 마커를 인식하는 단계, 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계, 그리고 보조 마커에 대응하여 오브젝트의 형태 또는 동작을 변경하여 상기 화면에 표시하는 단계를 포함한다.
이와 같이 본 발명에 의하면, 영상인식 기술을 이용하는 인터페이스로 콘텐츠 제작이 이루어지기 때문에 구상한 콘텐츠 장면을 간단하고 빠르게 생성 및 수정 할 수 있으며, 의미 기반의 마커를 사용하기 때문에 직관적으로 오브젝트를 생성할 수 있다. 또한 마커의 조합과 움직임을 이용하는 직관적인 명령어로 콘텐츠의 다양한 설정이 가능하여 연령대에 상관없이 일반사용자가 쉽게 콘텐츠를 제작 할 수 있는 편의성을 제공한다.
The present invention relates to a content production method and system using an image recognition-based interface. Content production method using the image recognition-based interface according to the present invention, the step of recognizing the artificial marker and the auxiliary marker disposed on the interface unit, displaying the object corresponding to the artificial marker on the screen, and corresponding to the auxiliary marker And changing the shape or operation of the object to display on the screen.
Thus, according to the present invention, since the content is produced by the interface using the image recognition technology, it is possible to create and modify the content scene easily and quickly, and to use the meaning-based markers to intuitively create the object. have. In addition, intuitive commands using a combination of markers and movements enable various settings of content, providing convenience for general users to easily create content regardless of age.

Description

영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템{CONTENTS PRODUCTION METHOD AND SYSTEM USING INTERFACE BASED IMAGE COGNITION}CONTENT PRODUCTION METHOD AND SYSTEM USING INTERFACE BASED IMAGE COGNITION}

본 발명은 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템에 관한 것으로, 보다 상세하게는 명령어 보드에 배치된 인공 마커의 패턴, 움직임을 카메라로 입력받는 직관적인 영상인식 기반 인터페이스를 사용하여 인터랙션 애니메이션이나 게임의 콘텐츠 장면을 제작하는 수단을 제공하는 방법에 관한 것이다. The present invention relates to a method and system for producing a content using an image recognition-based interface, and more specifically, to an interaction animation using an intuitive image recognition-based interface that receives a pattern and movement of an artificial marker placed on a command board by a camera. Or a method for producing a content scene of a game.

일반적으로 콘텐츠 제작 프로그램은 키보드의 입력 또는 마우스의 클릭과 같은 인터페이스를 사용하여 애니메이션이나 게임 콘텐츠의 장면을 제작한다. 이와 같은 인터페이스의 콘텐츠 제작 방식은 제작 프로그램 안에서 오브젝트의 아이콘 또는 오브젝트의 이름을 Drag & Drop 하거나 더블 클릭하는 방법을 사용하여 콘텐츠 제작 화면에 오브젝트를 불러오고 이동시켜 장면을 구성해 나간다. 그리고 오브젝트를 화면에 하나씩 불러와 카메라 시점을 돌려가면서 다른 오브젝트를 기준으로 장면을 구성해 나가기 때문에 장면을 구성하는 오브젝트 간의 위치적 상관관계를 한눈에 파악하기 어렵다. Generally, a content creation program creates an animation or scene of game content using an interface such as a keyboard input or a mouse click. The content creation method of this interface uses a method of dragging & dropping or double-clicking an object's icon or object's name in the production program to load and move an object on the content creation screen to compose a scene. In addition, it is difficult to grasp the positional correlation between the objects constituting the scene because objects are composed on the basis of other objects while the objects are loaded on the screen and the camera views are rotated.

종래의 영상인식 기술을 이용한 콘텐츠 제작 방법은 마커가 고정되어 있는 배경그림 또는 문서에 동영상, 오디오, 이미지들을 연결하여 증강현실 콘텐츠를 제작하거나 간단한 패턴의 마커를 이용하여 제작 프로그램에서 메뉴의 초기화, 오브젝트 선택, 카메라 줌인 & 줌아웃, 삭제 등의 간단한 명령어를 수행하기 위한 컨트롤로 사용한다. 또는 정해진 마커를 이용해 마우스와 같은 컨트롤러를 제작 환경에 증강하여 그 컨트롤러를 이용해 콘텐츠를 제작한다. Content production method using the conventional image recognition technology is to create augmented reality content by connecting video, audio, images to a background picture or document with a fixed marker, or initialize the menu in the production program using a simple pattern marker, object Use as controls to perform simple commands such as select, zoom in & zoom out, and delete. Or a controller, such as a mouse, is augmented in the production environment using a predetermined marker to create content using the controller.

즉, 종래 기술에 따른 콘텐츠 제작 프로그램의 제작 방식은 키보드, 마우스를 이용하여 직접입력이나 Drag & Drop을 이용하여 오브젝트를 화면에 배치하고 속성을 설정하여 장면을 구성하여 콘텐츠를 제작하였다. In other words, in the production method of a content production program according to the prior art, a content is produced by arranging a scene by setting an object and setting an object on the screen using direct input or drag & drop using a keyboard and a mouse.

그러나 이와 같이 간단한 명령어 기능만 제공하거나 증강된 컨트롤러를 이용해 한 개씩 불러와 일일이 작성하는 방법은 상당한 노력과 시간이 필요하며 콘텐츠 장면을 생성하는 과정이 복잡하다. 또한 제작 인터페이스의 사용방법이 직관적이지 않아 사용자는 인터페이스에 숙달 되어야 한다.However, such a simple command function or augmented controller to call and write one by one requires considerable effort and time, and the process of creating a content scene is complicated. In addition, the usage of the production interface is not intuitive, so the user must be familiar with the interface.

따라서 사용자가 콘텐츠 장면의 제작에 있어서 전체적이 장면의 구성 요소들을 한눈에 파악하여 제작에 반영할 수 있으며, 제작 툴의 사용에 있어서 사용자가 쉽게 사용할 수 있는 직관적인 인터페이스 방법으로 쉽고, 빠르게 콘텐츠를 제작할 수 있는 방안이 필요하다. Therefore, in the production of content scenes, the user can grasp the elements of the scene at a glance and reflect them in the production.In the use of the production tools, the user can easily and quickly produce the content by using an intuitive interface method. We need a way to do it.

본 발명이 해결하고자 하는 과제는 사용자가 간편하고 빠르게 콘텐츠를 제작할 수 있는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템을 제공하기 위한 것이다. The problem to be solved by the present invention is to provide a content production method and system using an image recognition-based interface that allows the user to easily and quickly produce content.

이러한 기술적 과제를 해결하기 위한 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법은, 인터페이스부에 배치된 인공 마커 및 보조 마커를 인식하는 단계, 상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계, 그리고 상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 상기 화면에 표시하는 단계를 포함한다.According to an aspect of the present invention, there is provided a content production method using an image recognition-based interface, including: recognizing an artificial marker and an auxiliary marker disposed on an interface unit, and displaying an object corresponding to the artificial marker. And displaying on the screen by changing the shape or operation of the object in response to the auxiliary marker.

상기 인공 마커 및 보조 마커를 인식하는 단계는, 상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 단계, 그리고 상기 촬상 정보를 이용하여 상기 인공 마커 및 보조 마커를 인식하는 단계를 포함할 수 있다. Recognizing the artificial marker and the auxiliary marker, imaging the artificial marker and the auxiliary marker disposed on the interface unit, generating imaging information for the artificial marker and the auxiliary marker, and using the imaging information Recognizing an artificial marker and an auxiliary marker may be included.

상기 보조 마커는, 상기 오브젝트의 상황 또는 배경을 설정하는 환경 설정 마커를 포함할 수 있다.The auxiliary marker may include an environment setting marker for setting a situation or a background of the object.

상기 보조 마커는, 상기 오브젝트의 동작을 나타내기 위한 동작 마커를 포함할 수 있다.The auxiliary marker may include an operation marker for indicating an operation of the object.

상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계는, 상기 오브젝트를 상기 인공 마커에 대응되는 동일한 상대 좌표에 표시할 수 있다.In the displaying of the object corresponding to the artificial marker on the screen, the object may be displayed at the same relative coordinates corresponding to the artificial marker.

1개의 인공 마커가 하나의 오브젝트와 매칭되거나, 2개 이상의 인공 마커가 조합되어 하나의 오브젝트와 매칭되어 저장될 수 있다.One artificial marker may be matched with one object, or two or more artificial markers may be combined and stored with one object.

본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템은, 인공마커와 오브젝트가 매칭되어 저장되어 있는 저장부, 상기 인공 마커 및 보조 마커가 배치되는 인터페이스부, 상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 촬상부, 그리고 상기 촬상 정보로부터 상기 인공 마커 및 보조 마커를 인식하여, 상기 인공 마커에 매칭되는 상기 오브젝트를 화면 표시부에 표시하고, 상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 표시하는 제어부를 포함한다. Contents production system using an image recognition-based interface according to an embodiment of the present invention, the storage unit is the artificial marker and the object is matched and stored, the interface unit is disposed the artificial marker and the auxiliary marker, the interface unit is disposed An image pickup unit which picks up an artificial marker and an auxiliary marker, generates imaging information for the artificial marker and the auxiliary marker, and recognizes the artificial marker and the auxiliary marker from the imaging information, and displays the object matching the artificial marker. And a controller configured to display on the display unit and to change and display the shape or operation of the object in response to the auxiliary marker.

이와 같이 본 발명에 의하면, 영상인식 기술을 이용하는 인터페이스로 콘텐츠 제작이 이루어지기 때문에 구상한 콘텐츠 장면을 간단하고 빠르게 생성 및 수정 할 수 있으며, 의미 기반의 마커를 사용하기 때문에 직관적으로 오브젝트를 생성할 수 있다. 또한 마커의 조합과 움직임을 이용하는 직관적인 명령어로 콘텐츠의 다양한 설정이 가능하여 연령대에 상관없이 일반사용자가 쉽게 콘텐츠를 제작 할 수 있는 편의성을 제공한다.Thus, according to the present invention, since the content is produced by the interface using the image recognition technology, it is possible to create and modify the content scene easily and quickly, and to use the meaning-based markers to intuitively create the object. have. In addition, intuitive commands using a combination of markers and movements enable various settings of content, providing convenience for general users to easily create content regardless of age.

도 1은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하여 콘텐츠를 제작하는 과정을 나타내는 간략도이다.
도 4는 본 발명의 실시예에 따른 영상인식 기반 인터페이스로 사용하는 매직보드에 대한 도면이다.
도 5a 내지 도 5c는 본 발명의 실시예에 따른 인공 마커와 오브젝트 상관관계에 대한 도면을 나타낸 것이다.
도 6은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 이용하여 화면을 구성하는 과정을 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 인공 마커와 화면 상의 오브젝트의 관계를 나타내는 도면이다.
도 8a 및 도 8b는 본 발명의 실시예에 따른 환경 설정 마커를 이용한 배경화면 생성 모습이다.
도 9a 내지 도 9c는 본 발명의 실시예에 따른 오브젝트의 동작을 설정하기 위한 방법을 설명하기 위한 도면이다.
1 is a view showing a content production system using an image recognition-based interface according to an embodiment of the present invention.
2 is a view showing a content production method using an image recognition-based interface according to an embodiment of the present invention.
3 is a simplified diagram illustrating a process of producing content using an image recognition-based interface according to an embodiment of the present invention.
4 is a diagram of a magic board used as an image recognition-based interface according to an embodiment of the present invention.
5A to 5C are diagrams illustrating an artificial marker and object correlation according to an embodiment of the present invention.
6 is a diagram illustrating a process of configuring a screen using an image recognition-based interface according to an embodiment of the present invention.
7 is a diagram illustrating a relationship between an artificial marker and an object on a screen according to an exemplary embodiment of the present invention.
8A and 8B illustrate a background screen generation using an environment setting marker according to an embodiment of the present invention.
9A to 9C are diagrams for describing a method for setting an operation of an object according to an exemplary embodiment of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

도 1은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템을 나타낸 도면이다. 1 is a view showing a content production system using an image recognition-based interface according to an embodiment of the present invention.

도 1에 나타낸 콘텐츠 제작 시스템은 저장부(10), 촬상부(20), 제어부(30), 인터페이스부(40) 및 화면 표시부(50)를 포함한다. 저장부(10), 제어부(30), 인터페이스브(40) 및 화면 표시부(50)는 매직보드에 구현되며, 촬상부(20)는 마커가 배치된 매직보드를 촬상한다. The content production system shown in FIG. 1 includes a storage unit 10, an imaging unit 20, a control unit 30, an interface unit 40, and a screen display unit 50. The storage unit 10, the control unit 30, the interface tab 40, and the screen display unit 50 are implemented on a magic board, and the imaging unit 20 captures a magic board on which a marker is disposed.

저장부(10)는 인공 마커와 오브젝트가 매칭되어 저장되어 있으며, 보조 마커에 대응하는 각종 상황, 배경 또는 동작이 매칭되어 저장된다. 인공 마커와 보조 마커는 종이와 같은 평면 물질상에 표시될 수 있으며, 큐브 형태의 육면체의 한 면에 붙인 상태로 형성될 수 있다. In the storage unit 10, an artificial marker and an object are matched and stored, and various situations, backgrounds, or motions corresponding to the auxiliary marker are matched and stored. The artificial marker and the auxiliary marker may be displayed on a planar material such as paper, and may be formed while being attached to one side of a cube-shaped cube.

또한 인공 마커는 오브젝트와 대응되는 마커로서, 마커로부터 오브젝트를 직감할 수 있는 의미기반 인공 마커와 마커로부터 직접적으로 오브젝트를 직감할 수 없는 이미지 마커를 포함한다. 또한, 보조 마커는 오브젝트의 상황 또는 배경을 설정하는 환경 설정 마커와 오브젝트의 동작을 나타내기 위한 동작 마커를 포함한다. In addition, the artificial marker is a marker corresponding to the object, and includes a marker based artificial marker that can directly feel the object from the marker and an image marker that can not directly feel the object from the marker. In addition, the auxiliary marker includes an environment setting marker for setting a situation or a background of the object and an action marker for indicating an operation of the object.

촬상부(20)는 매직보드 상에 배치된 인공 마커와 보조 마커를 정면에서 촬상하여, 배치된 마커에 대한 촬상 정보를 생성한다. 촬상부(20)는 멀티카메라 형태로 구현될 수 있으며, 실시간으로 인공 마커와 보조 마커에 대한 촬상 정보를 생성한다. The imaging unit 20 photographs the artificial marker and the auxiliary marker disposed on the magic board from the front, and generates imaging information on the disposed marker. The imaging unit 20 may be implemented in the form of a multi-camera, and generates imaging information about an artificial marker and an auxiliary marker in real time.

제어부(30)는 촬상부(20)로부터 촬상 정보를 수신하고, 촬상 정보로부터 매직보드에 배치된 마커를 인식하여, 인공 마커에 매칭되는 오브젝트를 화면 표시부(50)에 표시하도록 하고, 보조 마커에 대응하여 오브젝트의 형태 또는 동작을 화면 표시부(50)에 표시하도록 한다. The control unit 30 receives the imaging information from the imaging unit 20, recognizes the marker disposed on the magic board from the imaging information, and displays an object matching the artificial marker on the screen display unit 50, and displays the auxiliary marker. Correspondingly, the form or operation of the object is displayed on the screen display unit 50.

인터페이스부(40)는 인공 마커와 보조 마커가 배치되는 영역으로, 오브젝트의 모양 또는 동작을 변경시킬 수 있도록 사용자로부터 명령을 입력받는다. 즉, 인터페이스부(40)는 오브젝트와 매칭되는 인공 마커 또는 오브젝트의 상황을 설정하고 동작을 수행할 수 있는 보조 마커를 통하여 명령을 입력받는다. The interface unit 40 is an area in which the artificial marker and the auxiliary marker are disposed, and receives a command from the user to change the shape or operation of the object. That is, the interface unit 40 receives a command through an artificial marker that matches the object or an auxiliary marker that can set the situation of the object and perform an operation.

도 2는 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법을 나타낸 도면이다. 2 is a view showing a content production method using an image recognition-based interface according to an embodiment of the present invention.

먼저 제어부(30)는 인터페이스부(40)에 배치된 인공 마커 및 보조 마커를 인식한다(S210). 여기서 제어부(30)는 촬상부(20)로부터 촬상된 마커들에 대한 촬상 정보를 이용하여 인공 마커 및 보조 마커를 인식하게 된다. First, the controller 30 recognizes an artificial marker and an auxiliary marker disposed on the interface unit 40 (S210). Herein, the controller 30 recognizes the artificial marker and the auxiliary marker by using the imaging information on the markers captured by the imaging unit 20.

그리고, 제어부(30)는 인공 마커에 대응되는 오브젝트를 화면 표시부(50)에 표시한다(S220). 여기서 인공 마커에 대응되는 오브젝트는 저장부(10)에 기 저장되어 있다. The controller 30 displays an object corresponding to the artificial marker on the screen display unit 50 (S220). Here, the object corresponding to the artificial marker is pre-stored in the storage unit 10.

다음으로, 제어부(30)는 보조 마커에 대응하여 오브젝트의 형태 또는 동작을 설정하여 화면 표시부(50)에 표시하게 된다(S230). Next, the controller 30 sets the shape or operation of the object in response to the auxiliary marker and displays it on the screen display unit 50 (S230).

이하에서는 도 3 내지 도 9c를 통하여 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법에 대하여 더욱 상세하게 설명한다.Hereinafter, a method for producing content using an image recognition based interface according to an embodiment of the present invention will be described in more detail with reference to FIGS. 3 to 9C.

도 3은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하여 콘텐츠를 제작하는 과정을 나타내는 간략도이다. 3 is a simplified diagram illustrating a process of producing content using an image recognition-based interface according to an embodiment of the present invention.

본 발명의 실시예에 따른 영상인식 기반 인터페이스부(40)는 실시간으로 멀티카메라를 이용하여 매직보드 위에 위치하는 의미기반 인공 마커 또는 보조 마커들의 정보를 획득하여 인터페이스로 활용한다. The image recognition-based interface unit 40 according to an embodiment of the present invention obtains information on the meaning-based artificial markers or auxiliary markers located on the magic board using a multi-camera in real time, and utilizes the information as an interface.

도 3과 같이, 사용자는 먼저 매직보드에 의미기반의 인공 마커 또는 보조 마커를 배치하여 장면을 조성하고 설정한다(S310). 콘텐츠 제작 시스템은 멀티카메라로 획득한 영상에서 의미기반 인공 마커 또는 보조 마커를 인식하고, 인공 마커 또는 보조 마커의 위치, 패턴, 방향, 이동경로 등의 정보를 분석하여 화면에 인공 마커 또는 보조 마커에 대응하는 오브젝트를 위치시키거나 옵션을 설정하여 콘텐츠 장면을 구성한다(S320). 이와 같은 과정을 통하여 도 3의 오른쪽과 같이 최종적인 콘텐츠를 완성한다(S330). As shown in FIG. 3, the user first places a meaning-based artificial marker or an auxiliary marker on a magic board to create and set a scene (S310). The content production system recognizes the meaning-based artificial markers or auxiliary markers from the images acquired by the multi-camera, and analyzes information such as the position, pattern, direction, and movement paths of the artificial markers or auxiliary markers and displays them on the screen. A content scene is configured by placing a corresponding object or setting an option (S320). Through this process, the final content is completed as shown in the right side of FIG. 3 (S330).

이하에서는 도 4를 통하여 본 발명의 실시예에 따른 인터페이스부(40)에 대하여 설명한다. Hereinafter, the interface unit 40 according to the embodiment of the present invention will be described with reference to FIG. 4.

도 4는 본 발명의 실시예에 따른 영상인식 기반 인터페이스로 사용하는 매직보드에 대한 도면이다. 매직보드(200)에 포함되는 인터페이스부는 명령 공간(Command Space)(210), 제어 공간(Control space)(220), 작업 공간(work space)(230)의 3개의 공간으로 구성되어 있다. 4 is a diagram of a magic board used as an image recognition-based interface according to an embodiment of the present invention. The interface unit included in the magic board 200 includes three spaces: a command space 210, a control space 220, and a work space 230.

명령 공간(210)은 명령어 선택 버튼(211), 텍스쳐 다이얼 버튼(212) 및 마커 명령어 다이얼(213)을 포함한다. 먼저 명령어 선택 버튼(211)은 각각 영상인식 기반의 인터페이스의 오브젝트 등록 및 오브젝트 크기 조절, 배경 로드, 이동경로 설정, 모션 설정의 기능을 선택할 수 있도록 한다. 명령어 선택 버튼(211) 중에서 빨간 색으로 표시된 버튼은 각각의 기능 중에서 비활성화 된 것을 나타낸다. The command space 210 includes a command selection button 211, a texture dial button 212 and a marker command dial 213. First, the command selection button 211 allows the user to select the functions of object registration and object size adjustment, background load, movement path setting, and motion setting of the image recognition-based interface. Among the command selection buttons 211, the red buttons indicate that the buttons are inactive.

텍스쳐 다이얼 버튼(212)은 선택된 오브젝트의 텍스쳐를 변경하기 위한 버튼으로, 사용자가 화살표가 가리키는 방향을 다이얼 형태로 돌리게 되면 오브젝트의 색상 또는 텍스쳐가 변경된다. The texture dial button 212 is a button for changing the texture of the selected object. When the user turns the direction indicated by the arrow in a dial form, the color or texture of the object is changed.

마커 명령어 다이얼 버튼(213)은 마커의 패턴을 이용하는 것으로, 마커 명령어 다이얼 버튼(213)을 통하여 더욱 다양하고 상세하게 모드의 오브젝트를 나타낼 수 있다. The marker command dial button 213 uses a pattern of markers, and may display objects in various and detailed modes through the marker command dial button 213.

제어 공간(220)은 환경 설정 명령 공간(221)과 마커 제스처 명령 공간(222)을 포함한다. 환경 설정 명령 공간(221)은 환경 설정 마커(224)를 등록하거나 조합하는 방법을 이용하여 상황 또는 배경을 설정하도록 한다. 즉, 환경 설정 명령 공간(221)에 상황 또는 배경을 설정할 수 있는 환경 설정 마커를 배치시키면 오브젝트는 설정된 상황 또는 배경에 따라 동작이 달라진다. The control space 220 includes a preference command space 221 and a marker gesture command space 222. The preference command space 221 sets a situation or a background using a method of registering or combining the preference markers 224. That is, when the environment setting marker for setting the situation or the background is arranged in the environment setting command space 221, the object may be changed according to the setting situation or the background.

마커 제스처 명령 공간(222)은 오브젝트의 이동 방향과 경로를 설정할 수 있는 공간으로, 사용자는 마커 제스처 명령 공간(222)에 배치된 동작 마커(223)를 직접 움직여 오브젝트의 동작을 설정할 수 있다. 또한 마커 제스처 명령어 공간(222)에서 동작 마커(223)의 상하좌우 이동 제스처로 선택된 오브젝트의 크기를 조절할 수 있다. 즉, 기준이 되는 마커와 동작 마커 사이의 거리가 커질수록 선택된 오브젝트의 크기가 커지며, 반대로 거리가 짧아질수록 선택된 오브젝트의 크기가 작아진다.The marker gesture command space 222 is a space in which the movement direction and the path of the object can be set, and the user can directly set the operation of the object by moving the operation marker 223 disposed in the marker gesture command space 222. In addition, the size of the object selected by the up, down, left, and right movement gestures of the operation marker 223 may be adjusted in the marker gesture command space 222. That is, the larger the distance between the reference marker and the motion marker, the larger the size of the selected object. On the contrary, the shorter the distance, the smaller the size of the selected object.

작업 공간(230)은 인공 마커를 실제로 배치하여 화면 표시부(50)에 오브젝트가 표시되도록 한다. 작업 공간(230)에 인공 마커(231)를 놓으면, 제어부(30)가 인공 마커의 패턴과 위치 방향을 분석하여 화면 표시부(50)를 통하여 인공 마커(231)와 대응되는 오브젝트를 배치시킨다. 이와 같이, 본 발명의 실시예에 따르면 명령 공간(210), 제어 공간(220), 작업 공간(230)을 영상인식 기반 인터페이스로 이용하여 콘텐츠 제작을 수행한다. The work space 230 actually arranges an artificial marker so that the object is displayed on the screen display unit 50. When the artificial marker 231 is placed in the work space 230, the controller 30 analyzes the pattern and the position direction of the artificial marker to place the object corresponding to the artificial marker 231 through the screen display unit 50. As described above, according to the exemplary embodiment of the present invention, content production is performed using the command space 210, the control space 220, and the work space 230 as an image recognition-based interface.

도 5a 내지 도 5c는 본 발명의 실시예에 따른 인공 마커와 오브젝트 상관관계에 대한 도면을 나타낸 것이다. 5A to 5C are diagrams illustrating an artificial marker and object correlation according to an embodiment of the present invention.

영상인식 기반 인터페이스에서 사용하는 인공 마커 중에서 의미기반 인공 마커의 경우 일반적인 마커 간의 구분을 위한 단순 패턴 표식이 아닌 사용자가 인공 마커를 보고 생성될 오브젝트의 모습을 유추할 수 있도록 의미를 부여해서 사용할 수 있다. 따라서 도 5a와 같이 생성되는 오브젝트의 모습과 유사 모습의 패턴을 이용하여 의미기반 인공 마커로 사용하도록 한다. 즉, 의미기반 인공 마커(231)를 작업 공간(230)에 배치하면 콘텐츠 제작화면에 패턴과 동일한 모양을 지닌 오브젝트(232)가 생성된다. Of the artificial markers used in the image recognition-based interface, meaning-based artificial markers can be used by assigning meanings so that the user can infer the shape of the object to be created by looking at the artificial markers, rather than a simple pattern marker for distinguishing between general markers. . Therefore, using the pattern of the object and the similar appearance generated as shown in Figure 5a to use as a meaning-based artificial marker. That is, when the meaning-based artificial marker 231 is disposed in the work space 230, an object 232 having the same shape as the pattern is generated on the content creation screen.

그러나 의미기반 인공 마커는 단순히 생성되는 오브젝트의 모양만을 패턴으로 이용하지 않는다. 간단한 예로 도 5b와 같이 집을 나타내는 패턴이 있고 십자가를 뜻하는 패턴이 있다고 가정하면, 그것을 조합하여 집 위에 십자가가 놓여있으면 사람들은 교회라는 것을 생각할 수 있다. 이렇듯 의미를 가지는 패턴을 조합하여 하나의 오브젝트를 나타내는 패턴으로 사용할 수 있다. However, the semantic marker does not simply use the shape of the object as a pattern. As a simple example, assume that there is a pattern representing a house and a pattern representing a cross as shown in FIG. 5B. If a cross is placed on the house in combination, people may think that it is a church. In this way, a pattern having a meaning can be combined and used as a pattern representing an object.

또한 도 5c와 같이 의미기반 인공 마커와 숫자 마커의 조합을 이용하여 인덱스 개념으로 오브젝트를 생성할 수 있다. 즉, 다양한 모양을 가지는 동일 오브젝트에 대하여 마커의 조합을 이용해 원하는 오브젝트를 콘텐츠 제작 화면에 생성할 수 있다. 그리고 사용자에 따라서 패턴의 모양으로 인식되는 오브젝트의 모습이 다를 수 있기 때문에 사용자는 콘텐츠 제작 시스템을 통해 의미기반 패턴에 생성되기 원하는 오브젝트의 설정을 변경할 수 있다. In addition, as shown in FIG. 5C, an object may be generated using an index concept using a combination of a semantic-based artificial marker and a numeric marker. That is, a desired object may be generated on the content creation screen by using a combination of markers for the same object having various shapes. In addition, since the shape of an object recognized as a pattern may vary depending on the user, the user may change a setting of an object that is desired to be created in the semantic pattern through the content production system.

도 6은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 이용하여 화면을 구성하는 과정을 나타낸 도면이다. 6 is a diagram illustrating a process of configuring a screen using an image recognition-based interface according to an embodiment of the present invention.

일반적으로 장면을 구성하는데 있어서 간단한 스케치를 이용하여 하나의 콘텐츠 장면을 구상하는 경우가 많다. 이러한 스케치는 오브젝트의 위치를 한 눈에 파악 할 수 있는 장점이 있다. In general, in constructing a scene, a simple sketch is often used to envision a content scene. Such a sketch has an advantage that the position of the object can be identified at a glance.

매직보드의 작업 공간(230)은 화이트보드 기능이 가능하여 콘텐츠의 전체적인 구상내용을 스케치 하듯이 매직보드를 사용해 장면 스케치를 생성할 수 있다(S610). 이렇게 만들어진 매직보드에 스케치된 내용을 기반으로 의미기반의 인공 마커를 작업 공간(230)에 배치한다(S620). 그러면 영상인식 기반 인터페이스는 의미기반 인공 마커의 패턴, 위치, 방향 등을 인식하여 제작 프로그램의 화면에 연결된 오브젝트를 배치해서 콘텐츠를 생성한다(S630).The work space 230 of the magic board may be a whiteboard function to generate a scene sketch using the magic board as if sketching the overall concept of the content (S610). The artificial marker based on the meaning is placed in the work space 230 based on the sketched content on the magic board thus created (S620). Then, the image recognition-based interface generates a content by recognizing a pattern, a position, a direction, and the like of a semantic artificial marker and arranging an object connected to the screen of the production program (S630).

이렇게 영상인식 기반의 인터페이스를 이용해서 인공 마커의 배치로 콘텐츠의 장면을 생성하면 제작이 간단하고 빠르며, 직관적으로 오브젝트를 배치하여 장면을 생성할 수 있다. 그리고 스케치를 하듯이 장면을 생성하기 때문에 배치되어있는 오브젝트 사이의 위치적 상관관계를 한눈에 파악하는 것이 가능하여 제작이 용이하다. When the scene of the content is generated by arranging artificial markers using the image recognition-based interface, the production is simple and fast, and the scene can be intuitively arranged to create the scene. And since the scene is created like a sketch, it is possible to grasp the positional correlation between the arranged objects at a glance, making it easy to manufacture.

도 7은 본 발명의 실시예에 따른 인공 마커와 화면 상의 오브젝트의 관계를 나타내는 도면이다. 7 is a diagram illustrating a relationship between an artificial marker and an object on a screen according to an exemplary embodiment of the present invention.

콘텐츠 제작 시스템의 화면 표시부(50)는 매직보드의 작업 공간(230)과 동일한 공간의 상대 좌표를 갖는다. 따라서 작업 공간(230)에 배치되는 인공 마커(231)와 다른 인공 마커와의 상대적인 거리는 화면 표시부(50)에 생성되는 오브젝트(232)와 다른 인공 마커에 의해 생성된 오브젝트와의 상대적인 거리가 동일하게 표현된다. 또한 작업 공간(230) 상에 배치된 의미기반 인공 마커의 이동 방향은 화면 표시부(50)에 생성되는 오브젝트의 이동 방향을 결정한다. The screen display unit 50 of the content creation system has relative coordinates in the same space as the work space 230 of the magic board. Therefore, the relative distance between the artificial marker 231 disposed in the work space 230 and another artificial marker is equal to the distance between the object 232 generated on the screen display unit 50 and the object generated by another artificial marker. Is expressed. In addition, the moving direction of the semantic based artificial marker disposed on the work space 230 determines the moving direction of the object created on the screen display unit 50.

이와 같이 의미기반 인공 마커에 대응하는 오브젝트가 화면 표시부(50)에 생성되면, 사용자는 환경 설정 마커와 동작 마커를 이용하여 오브젝트의 동작 특성에 대한 콘텐츠를 제작할 수 있다. As such, when an object corresponding to the meaning-based artificial marker is generated on the screen display unit 50, the user may create content regarding the operation characteristic of the object by using the environment setting marker and the operation marker.

도 8a 및 도 8b는 본 발명의 실시예에 따른 환경 설정 마커를 이용한 배경화면 생성 모습이다.8A and 8B illustrate a background screen generation using an environment setting marker according to an embodiment of the present invention.

매직보드의 제어 공간(220) 상단의 환경 설정 명령 공간(221)에 콘텐츠 제작 시스템의 저장부(10)에 등록되어 있는 환경 설정 마커(224)를 배치하면, 콘텐츠 제작 시스템은 환경 설정 마커의 패턴 특징을 분석하여 화면 표시부(50)에 패턴의 특징으로 저장되어 있는 콘텐츠 장면을 불러와 화면을 생성한다. When the preference marker 224 registered in the storage unit 10 of the content creation system is placed in the configuration command space 221 on the top of the control space 220 of the magic board, the content creation system generates a pattern of the preference marker. By analyzing the feature, the screen scene 50 retrieves the content scene stored as the feature of the pattern to generate a screen.

여기서 환경 설정 마커(224)는 그림, 전경 등의 이미지를 인공 마커의 패턴으로 사용한다. 이로써 사용자는 도 8b와 같이 미리 저장되어 있는 배경이나 장면을 가지는 환경 설정 마커(224)를 환경 설정 명령 공간(221)에 배치하면 오른쪽과 같이 대응하는 배경 장면을 생성할 수 있다. Here, the preference marker 224 uses an image such as a picture or a foreground as a pattern of an artificial marker. Thus, when the user places the preference marker 224 having a background or scene previously stored as shown in FIG. 8B in the preference setting space 221, the user may generate a corresponding background scene as shown on the right side.

도 9a 내지 도 9c는 본 발명의 실시예에 따른 오브젝트의 동작을 설정하기 위한 방법을 설명하기 위한 도면이다. 9A to 9C are diagrams for describing a method for setting an operation of an object according to an exemplary embodiment of the present invention.

매직보드를 이용해 오브젝트의 모션을 선택하는 방법은 도 9a와 같이 환경 설정 마커 패턴을 이용한 선택 단계(S710)과 마커 이동 경로를 이용한 모드 마커 선택 단계(S720)의 두 단계 과정으로 구성되어 있다. The method of selecting the motion of the object using the magic board is composed of two steps, a selection step using a preference marker pattern (S710) and a mode marker selection step (S720) using a marker movement path as shown in FIG. 9A.

먼저 환경 설정 마커는 오브젝트가 직면하는 상황이나 환경을 나타내는 마커로서, 도 9a와 같이 일반 생활, 전투/무술, 스포츠 등과 같은 상위 환경 마커(224a)와 각각의 상위 환경 마커(224a)에 해당하는 하위 환경 마커(224b)를 포함한다. 도 9a에서 예로 든 것처럼, 스포츠를 나타내는 상위 환경 마커(224a)의 경우 체조, 축구 등을 나타내는 하위 환경 마커(224b)를 포함할 수 있다. First, the environment setting marker is a marker representing a situation or environment facing an object, and as shown in FIG. 9A, a high level environment marker 224a such as general life, combat / martial arts, sports, etc., and a low level corresponding to each high environment marker 224a. Environment marker 224b. As illustrated in FIG. 9A, the upper environment marker 224a representing sports may include a lower environment marker 224b representing gymnastics, soccer, and the like.

도 9b에서는 환경 설정 마커(224)들을 예시하였으며, 연관성이 있는 환경 마커들을 그룹핑하여 Tree 구조로 만들고 사용자가 선택할 수 있도록 한다. In FIG. 9B, the environment setting markers 224 are illustrated, and related environment markers are grouped to form a tree structure and can be selected by the user.

따라서, 만일 오브젝트가 격투하는 장면을 표시하고자 하는 경우에는, 환경 설정 명령 공간(221)에 도 9b에 나타낸 스포츠를 나타내는 환경 마커와 격투를 나타내는 환경 마커를 순차적으로 배치하도록 한다. Therefore, in the case where it is desired to display the scene in which the object is fought, the environment marker indicating sport and the environment marker indicating fighting are sequentially arranged in the environment setting command space 221.

마커 패턴을 이용한 선택 단계(S710)가 완료되면 마커 제스처를 이용한 동작 마커 선택 단계(S720)가 이루어진다. 제스처를 이용한 선택은 제어 공간(220)의 마커 제스처 명령 공간(222)에서 이루어지며, 선택된 모션 분야에서 오브젝트에 설정하고자 하는 모션과 유사한 움직임을 마커 제스처로 표현하여 사용한다. When the selection step S710 using the marker pattern is completed, the operation marker selection step S720 using the marker gesture is performed. The selection using the gesture is made in the marker gesture command space 222 of the control space 220, and the motion similar to the motion to be set for the object in the selected motion field is expressed as the marker gesture.

마커 제스처 행동은 상하좌우 4가지 방향으로 이루어져 있으며 도 9c와 같이 머리, 발, 손, 몸의 동작 마커(223) 중 두 개의 마커 행동을 같이 사용하는 제스처 조합으로 모션 선택 명령어를 만들어 오브젝트의 모션을 선택한다. The marker gesture action consists of four directions: up, down, left, and right, and as shown in FIG. 9C, the motion of the object is created by using a combination of gestures using two marker actions among the motion markers 223 of the head, foot, hand, and body. Choose.

따라서 마커를 이용하는 제스처는 상하좌우 4가지 움직임과 좌측과 우측으로 존재하는 머리, 발, 손, 몸의 의미기반 마커를 조합하여 이용하기 때문에 총 256개의 모션을 설정하여 표현하는 것이 가능하다. 예를 들어 콘텐츠 장면에서 캐릭터가 머리를 숙여 관중에게 인사하는 동작을 설정 할 때, 머리를 숙이는 행동은 머리가 위에서 아래로 움직이는 것을 알 수 있다. 이와 같은 원리로 머리를 의미하는 마커 한 개를 아래쪽 방향으로 움직여 선택 오브젝트에 목례 인사하는 모션을 설정할 수 있으며, 머리를 의미하는 마커 두 개를 아래쪽으로 움직이면 큰 각도로 목례 인사하는 것을 나타낸다. Therefore, the gesture using the marker uses a combination of four movements up, down, left, and right, and meaning-based markers of the head, foot, hand, and body that exist to the left and the right, so that a total of 256 motions can be set and expressed. For example, when setting a character's bow bow to greet the audience in a content scene, bow bow can be seen that the head moves from top to bottom. With this principle, you can set a motion to say hello to a selected object by moving one marker, which means head, and to move the two markers, which means head, to say hello at a large angle.

이와 같이 도 9c와 같은 동작 마커는 오브젝트의 동작을 나타내는 마커로서, 머리, 발, 손, 몸의 동작을 나타낸다. 예를 들면 도 9c에서 머리 모양의 동작 마커는 인사하기, 헤딩, 좌우로 흔들기 등의 동작을 나타낼 수 있으며, 발 모양의 동작 마커는 발차기, 슛팅, 뛰기, 걷기 등의 동작을 나타낼 수 있다. 마찬가지로 손 모양의 동작 마커는 박수치기, 손 흔들기, 손 들기, 주먹 지르기 등의 동작을 나타낼 수 있으며, 몸통 모양의 동작 마커는 좌우로 흔들기, 춤추기, 엎드리기 등의 동작을 나타낼 수 있다. 물론 구체적인 동작은 사용자가 동작 마커를 이동시키는 방식에 따라서 결정된다. As such, the motion marker as shown in FIG. 9C is a marker indicating the motion of the object and indicates the motion of the head, foot, hand, and body. For example, in FIG. 9C, the head-shaped motion marker may represent an action such as greeting, heading, shaking from side to side, and the foot-shaped motion marker may represent an action of kicking, shooting, running, walking, and the like. Similarly, a hand-shaped motion marker may represent an action such as clapping, shaking hands, raising a hand, or clenching a fist, and a body-shaped motion marker may represent an action such as shaking from side to side, dancing, or lying down. Of course, the specific motion is determined according to the manner in which the user moves the motion marker.

이하에서는 도 9a 내지 도 9c에서 설명한 환경 설정 마커와 동작 마커를 이용하여 구체적인 오브젝트의 움직임에 대하여 설명한다. Hereinafter, the movement of a specific object will be described using the environment setting marker and the operation marker described with reference to FIGS. 9A to 9C.

먼저, 환경 설정 명령 공간(221)에서 사용자가 격투를 나타내는 환경 설정 마커들을 배치시킨 후, 마커 제스처 명령어 공간(222)에서 도 9a와 같이 왼발과 오른발 중에서 오른발을 나타내는 동작 마커를 위쪽으로 이동시킨 경우를 예를 들어 설명한다. 이 경우 현재 격투 장면을 환경 설정한 상태이므로, 오브젝트는 오른 발차기 동작을 수행하게 된다. First, when a user arranges environment setting markers indicating fighting in the environment setting command space 221 and then moves an action marker indicating a right foot among the left foot and the right foot in the marker gesture command space 222 as shown in FIG. 9A. Will be described with an example. In this case, since the current fight scene is configured, the object performs the right kicking operation.

또한 환경 설정 명령 공간(221)에서 사용자가 축구를 나타내는 환경 설정 마커들을 배치시킨 후, 마커 제스처 명령어 공간(222)에서 마찬가지로 오른발을 나타내는 동작 마커를 위쪽으로 이동시킨 경우에는, 오브젝트는 오른 발 슛 동작을 수행하게 된다. In addition, when the user places the preference markers representing soccer in the preference command space 221 and then moves the motion marker indicating the right foot upward in the marker gesture command space 222, the object moves to the right foot shot. Will be performed.

이와 같이 동일한 동작 마커를 동일한 방법으로 이동시키더라도 설정된 상황에 따라서 오브젝트의 동작을 달라진다는 것을 알 수 있다. In this way, even if the same operation marker is moved in the same way, it can be seen that the operation of the object varies according to the set situation.

이와 같이 의미기반 인공 마커를 이용한 모션 분야 선택과 유사한 마커의 움직임을 이용하여 오브젝트의 동작을 선택하기 때문에 직관적인 방법으로 다양한 동작을 선택하여 콘텐츠 제작을 할 수 있다. In this way, the motion of the object is selected using the movement of the marker similar to the selection of the motion field using the semantic marker. Therefore, various motions can be selected and produced in an intuitive manner.

이로써 마커의 영상인식 기술을 이용한 콘텐츠 제작 인터페이스로 간단하고 빠르게 장면을 구성하는 것이 가능하며, 의미 기반의 마커와 제스처를 이용한 직관적인 제작 방법으로 누구나 쉽게 콘텐츠를 제작할 수 있는 편의성을 제공한다.Thus, it is possible to compose a scene simply and quickly with the content production interface using the image recognition technology of the marker, and provides the convenience that anyone can easily produce the content by the intuitive production method using the semantic marker and gesture.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

10: 저장부, 20: 촬상부,
30: 제어부, 40: 인터페이스부,
50: 화면 표시부, 210: 명령 공간,
220: 제어 공간 230: 동작 마커,
224: 환경 설정 마커 230: 작업 공간,
231: 인공 마커 232: 오브젝트,
10: storage unit, 20: imaging unit,
30: control unit, 40: interface unit,
50: screen display, 210: command space,
220: control space 230: motion marker,
224: preference marker 230: workspace,
231: artificial marker 232: object,

Claims (11)

콘텐츠 제작 시스템을 이용한 콘텐츠 제작 방법에 있어서,
영상인식을 기반으로 하는 인터페이스부에 배치된 인공 마커 및 보조 마커를 인식하는 단계,
상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계, 그리고
상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 상기 화면에 표시하는 단계를 포함하며,
상기 보조 마커는,
상기 오브젝트의 상황 또는 배경을 설정하기 위한 환경 설정 마커 및 상기 오브젝트의 동작을 나타내기 위한 동작 마커를 포함하며,
상기 환경 설정 마커에 의해 설정된 상황과 상기 동작 마커에 의해 선택된 동작에 대응하여 상기 오브젝트의 동작을 결정하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법.
In the content production method using a content production system,
Recognizing artificial markers and auxiliary markers disposed on the interface unit based on image recognition;
Displaying an object corresponding to the artificial marker on a screen, and
And changing the shape or operation of the object in response to the auxiliary marker and displaying the same on the screen.
The auxiliary marker,
A configuration marker for setting a situation or a background of the object and an operation marker for indicating an operation of the object,
And an image recognition-based interface for determining an operation of the object in response to a situation set by the preference marker and an operation selected by the operation marker.
제1항에 있어서,
상기 인공 마커 및 보조 마커를 인식하는 단계는,
상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 단계, 그리고
상기 촬상 정보를 이용하여 상기 인공 마커 및 보조 마커를 인식하는 단계를 포함하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법.
The method of claim 1,
Recognizing the artificial marker and the auxiliary marker,
Imaging the artificial marker and the auxiliary marker arranged in the interface unit, generating imaging information for the artificial marker and the auxiliary marker, and
And recognizing the artificial marker and the auxiliary marker using the sensing information.
삭제delete 삭제delete 제2항에 있어서,
상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계는,
상기 오브젝트를 상기 인공 마커에 대응되는 동일한 상대 좌표에 표시하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법.
The method of claim 2,
Displaying an object corresponding to the artificial marker on the screen,
And an image recognition-based interface displaying the object at the same relative coordinates corresponding to the artificial marker.
제1항에 있어서,
1개의 인공 마커가 하나의 오브젝트와 매칭되거나, 2개 이상의 인공 마커가 조합되어 하나의 오브젝트와 매칭되어 저장되는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법.
The method of claim 1,
A method of producing a content using an image recognition-based interface in which one artificial marker is matched with one object or two or more artificial markers are combined and stored with one object.
인공마커와 오브젝트가 매칭되어 저장되어 있는 저장부,
영상인식을 기반으로 하며, 상기 인공 마커 및 보조 마커가 배치되는 인터페이스부,
상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 촬상부, 그리고
상기 촬상 정보로부터 상기 인공 마커 및 보조 마커를 인식하여, 상기 인공 마커에 매칭되는 상기 오브젝트를 화면 표시부에 표시하고, 상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 표시하는 제어부를 포함하며,
상기 보조 마커는,
상기 오브젝트의 상황 또는 배경을 설정하기 위한 환경 설정 마커 및 상기 오브젝트의 동작을 나타내기 위한 동작 마커를 포함하며,
상기 제어부는,
상기 환경 설정 마커에 의해 설정된 상황과 상기 동작 마커에 의해 선택된 동작에 대응하여 상기 오브젝트의 동작을 결정하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템.
A storage unit in which an artificial marker and an object are matched and stored;
An interface unit based on image recognition, wherein the artificial marker and the auxiliary marker are disposed;
An imaging unit which picks up the artificial marker and the auxiliary marker arranged in the interface unit, and generates imaging information for the artificial marker and the auxiliary marker, and
And a controller configured to recognize the artificial marker and the auxiliary marker from the imaging information, to display the object matching the artificial marker on a screen display unit, and to change and display a shape or an operation of the object corresponding to the auxiliary marker. ,
The auxiliary marker,
A configuration marker for setting a situation or a background of the object and an operation marker for indicating an operation of the object,
The control unit,
And an image recognition-based interface for determining an operation of the object in response to a situation set by the preference marker and an operation selected by the operation marker.
제7항에 있어서,
상기 화면 표시부는,
상기 인공 마커와 매칭되는 오브젝트를 대응되는 상대 좌표에 표시하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템.
The method of claim 7, wherein
The screen display unit,
And an image recognition-based interface displaying an object matching the artificial marker at a corresponding relative coordinate.
제7항에 있어서,
상기 저장부는,
1개의 인공 마커를 하나의 오브젝트로 매칭하여 저장하거나, 2개 이상의 인공 마커를 조합하여 하나의 오브젝트로 매칭하여 저장하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템.
The method of claim 7, wherein
Wherein,
1. A content production system using an image recognition-based interface for matching and storing one artificial marker as one object or combining and storing two or more artificial markers as one object.
삭제delete 삭제delete
KR1020100008074A 2010-01-28 2010-01-28 Contents production method and system using interface based image cognition Expired - Fee Related KR101203787B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100008074A KR101203787B1 (en) 2010-01-28 2010-01-28 Contents production method and system using interface based image cognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100008074A KR101203787B1 (en) 2010-01-28 2010-01-28 Contents production method and system using interface based image cognition

Publications (2)

Publication Number Publication Date
KR20110088252A KR20110088252A (en) 2011-08-03
KR101203787B1 true KR101203787B1 (en) 2012-11-21

Family

ID=44926891

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100008074A Expired - Fee Related KR101203787B1 (en) 2010-01-28 2010-01-28 Contents production method and system using interface based image cognition

Country Status (1)

Country Link
KR (1) KR101203787B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100912264B1 (en) 2008-02-12 2009-08-17 광주과학기술원 User responsive augmented image generation method and system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100912264B1 (en) 2008-02-12 2009-08-17 광주과학기술원 User responsive augmented image generation method and system

Also Published As

Publication number Publication date
KR20110088252A (en) 2011-08-03

Similar Documents

Publication Publication Date Title
US12067160B2 (en) Systems and methods for controlling secondary devices using mixed, virtual or augmented reality
US11238619B1 (en) Multi-device interaction with an immersive environment
US9071808B2 (en) Storage medium having stored information processing program therein, information processing apparatus, information processing method, and information processing system
US11826636B2 (en) Depth sensing module and mobile device including the same
US9910509B2 (en) Method to control perspective for a camera-controlled computer
US10691216B2 (en) Combining gestures beyond skeletal
US10831278B2 (en) Display with built in 3D sensing capability and gesture control of tv
JP5800501B2 (en) Display control program, display control apparatus, display control system, and display control method
EP2521097B1 (en) System and Method of Input Processing for Augmented Reality
US8947365B2 (en) Storage medium storing image processing program for implementing image processing according to input coordinate, and information processing device
EP2512141A1 (en) System and method of user interaction in augmented reality
US11250633B2 (en) Image processing apparatus, display method, and non-transitory computer-readable storage medium, for displaying a virtual viewpoint image including an object at different points in time
JP5928757B2 (en) Information processing device
JP2015041126A (en) Information processing device and information processing method
US11889222B2 (en) Multilayer three-dimensional presentation
CN118922865A (en) User-controlled three-dimensional scene
JP7664396B2 (en) Information processing device, information processing method, and computer program
KR101203787B1 (en) Contents production method and system using interface based image cognition
CN210109742U (en) Head-mounted virtual-real interaction device
JP2011092657A (en) Game system for performing operation by using a plurality of light sources
US20240296615A1 (en) Image processing apparatus for generating virtual viewpoint image, image processing method, and storage medium
US20230149805A1 (en) Depth sensing module and mobile device including the same
EP4567565A1 (en) Interaction method and apparatus, storage medium, device, and program product
JP2025005681A (en) Image processing device, image processing method, and program
JP3138822U (en) Bingo game machine

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20100128

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20110628

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20121030

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20121115

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20121115

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20161101

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20161101

Start annual number: 5

End annual number: 5

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20180826