KR101203787B1 - Contents production method and system using interface based image cognition - Google Patents
Contents production method and system using interface based image cognition Download PDFInfo
- Publication number
- KR101203787B1 KR101203787B1 KR1020100008074A KR20100008074A KR101203787B1 KR 101203787 B1 KR101203787 B1 KR 101203787B1 KR 1020100008074 A KR1020100008074 A KR 1020100008074A KR 20100008074 A KR20100008074 A KR 20100008074A KR 101203787 B1 KR101203787 B1 KR 101203787B1
- Authority
- KR
- South Korea
- Prior art keywords
- marker
- artificial
- auxiliary
- image recognition
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 30
- 230000019771 cognition Effects 0.000 title 1
- 239000003550 marker Substances 0.000 claims abstract description 194
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 abstract description 36
- 238000010586 diagram Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템에 관한 것이다. 본 발명에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법은, 인터페이스부에 배치된 인공 마커 및 보조 마커를 인식하는 단계, 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계, 그리고 보조 마커에 대응하여 오브젝트의 형태 또는 동작을 변경하여 상기 화면에 표시하는 단계를 포함한다.
이와 같이 본 발명에 의하면, 영상인식 기술을 이용하는 인터페이스로 콘텐츠 제작이 이루어지기 때문에 구상한 콘텐츠 장면을 간단하고 빠르게 생성 및 수정 할 수 있으며, 의미 기반의 마커를 사용하기 때문에 직관적으로 오브젝트를 생성할 수 있다. 또한 마커의 조합과 움직임을 이용하는 직관적인 명령어로 콘텐츠의 다양한 설정이 가능하여 연령대에 상관없이 일반사용자가 쉽게 콘텐츠를 제작 할 수 있는 편의성을 제공한다.The present invention relates to a content production method and system using an image recognition-based interface. Content production method using the image recognition-based interface according to the present invention, the step of recognizing the artificial marker and the auxiliary marker disposed on the interface unit, displaying the object corresponding to the artificial marker on the screen, and corresponding to the auxiliary marker And changing the shape or operation of the object to display on the screen.
Thus, according to the present invention, since the content is produced by the interface using the image recognition technology, it is possible to create and modify the content scene easily and quickly, and to use the meaning-based markers to intuitively create the object. have. In addition, intuitive commands using a combination of markers and movements enable various settings of content, providing convenience for general users to easily create content regardless of age.
Description
본 발명은 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템에 관한 것으로, 보다 상세하게는 명령어 보드에 배치된 인공 마커의 패턴, 움직임을 카메라로 입력받는 직관적인 영상인식 기반 인터페이스를 사용하여 인터랙션 애니메이션이나 게임의 콘텐츠 장면을 제작하는 수단을 제공하는 방법에 관한 것이다. The present invention relates to a method and system for producing a content using an image recognition-based interface, and more specifically, to an interaction animation using an intuitive image recognition-based interface that receives a pattern and movement of an artificial marker placed on a command board by a camera. Or a method for producing a content scene of a game.
일반적으로 콘텐츠 제작 프로그램은 키보드의 입력 또는 마우스의 클릭과 같은 인터페이스를 사용하여 애니메이션이나 게임 콘텐츠의 장면을 제작한다. 이와 같은 인터페이스의 콘텐츠 제작 방식은 제작 프로그램 안에서 오브젝트의 아이콘 또는 오브젝트의 이름을 Drag & Drop 하거나 더블 클릭하는 방법을 사용하여 콘텐츠 제작 화면에 오브젝트를 불러오고 이동시켜 장면을 구성해 나간다. 그리고 오브젝트를 화면에 하나씩 불러와 카메라 시점을 돌려가면서 다른 오브젝트를 기준으로 장면을 구성해 나가기 때문에 장면을 구성하는 오브젝트 간의 위치적 상관관계를 한눈에 파악하기 어렵다. Generally, a content creation program creates an animation or scene of game content using an interface such as a keyboard input or a mouse click. The content creation method of this interface uses a method of dragging & dropping or double-clicking an object's icon or object's name in the production program to load and move an object on the content creation screen to compose a scene. In addition, it is difficult to grasp the positional correlation between the objects constituting the scene because objects are composed on the basis of other objects while the objects are loaded on the screen and the camera views are rotated.
종래의 영상인식 기술을 이용한 콘텐츠 제작 방법은 마커가 고정되어 있는 배경그림 또는 문서에 동영상, 오디오, 이미지들을 연결하여 증강현실 콘텐츠를 제작하거나 간단한 패턴의 마커를 이용하여 제작 프로그램에서 메뉴의 초기화, 오브젝트 선택, 카메라 줌인 & 줌아웃, 삭제 등의 간단한 명령어를 수행하기 위한 컨트롤로 사용한다. 또는 정해진 마커를 이용해 마우스와 같은 컨트롤러를 제작 환경에 증강하여 그 컨트롤러를 이용해 콘텐츠를 제작한다. Content production method using the conventional image recognition technology is to create augmented reality content by connecting video, audio, images to a background picture or document with a fixed marker, or initialize the menu in the production program using a simple pattern marker, object Use as controls to perform simple commands such as select, zoom in & zoom out, and delete. Or a controller, such as a mouse, is augmented in the production environment using a predetermined marker to create content using the controller.
즉, 종래 기술에 따른 콘텐츠 제작 프로그램의 제작 방식은 키보드, 마우스를 이용하여 직접입력이나 Drag & Drop을 이용하여 오브젝트를 화면에 배치하고 속성을 설정하여 장면을 구성하여 콘텐츠를 제작하였다. In other words, in the production method of a content production program according to the prior art, a content is produced by arranging a scene by setting an object and setting an object on the screen using direct input or drag & drop using a keyboard and a mouse.
그러나 이와 같이 간단한 명령어 기능만 제공하거나 증강된 컨트롤러를 이용해 한 개씩 불러와 일일이 작성하는 방법은 상당한 노력과 시간이 필요하며 콘텐츠 장면을 생성하는 과정이 복잡하다. 또한 제작 인터페이스의 사용방법이 직관적이지 않아 사용자는 인터페이스에 숙달 되어야 한다.However, such a simple command function or augmented controller to call and write one by one requires considerable effort and time, and the process of creating a content scene is complicated. In addition, the usage of the production interface is not intuitive, so the user must be familiar with the interface.
따라서 사용자가 콘텐츠 장면의 제작에 있어서 전체적이 장면의 구성 요소들을 한눈에 파악하여 제작에 반영할 수 있으며, 제작 툴의 사용에 있어서 사용자가 쉽게 사용할 수 있는 직관적인 인터페이스 방법으로 쉽고, 빠르게 콘텐츠를 제작할 수 있는 방안이 필요하다. Therefore, in the production of content scenes, the user can grasp the elements of the scene at a glance and reflect them in the production.In the use of the production tools, the user can easily and quickly produce the content by using an intuitive interface method. We need a way to do it.
본 발명이 해결하고자 하는 과제는 사용자가 간편하고 빠르게 콘텐츠를 제작할 수 있는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템을 제공하기 위한 것이다. The problem to be solved by the present invention is to provide a content production method and system using an image recognition-based interface that allows the user to easily and quickly produce content.
이러한 기술적 과제를 해결하기 위한 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법은, 인터페이스부에 배치된 인공 마커 및 보조 마커를 인식하는 단계, 상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계, 그리고 상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 상기 화면에 표시하는 단계를 포함한다.According to an aspect of the present invention, there is provided a content production method using an image recognition-based interface, including: recognizing an artificial marker and an auxiliary marker disposed on an interface unit, and displaying an object corresponding to the artificial marker. And displaying on the screen by changing the shape or operation of the object in response to the auxiliary marker.
상기 인공 마커 및 보조 마커를 인식하는 단계는, 상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 단계, 그리고 상기 촬상 정보를 이용하여 상기 인공 마커 및 보조 마커를 인식하는 단계를 포함할 수 있다. Recognizing the artificial marker and the auxiliary marker, imaging the artificial marker and the auxiliary marker disposed on the interface unit, generating imaging information for the artificial marker and the auxiliary marker, and using the imaging information Recognizing an artificial marker and an auxiliary marker may be included.
상기 보조 마커는, 상기 오브젝트의 상황 또는 배경을 설정하는 환경 설정 마커를 포함할 수 있다.The auxiliary marker may include an environment setting marker for setting a situation or a background of the object.
상기 보조 마커는, 상기 오브젝트의 동작을 나타내기 위한 동작 마커를 포함할 수 있다.The auxiliary marker may include an operation marker for indicating an operation of the object.
상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계는, 상기 오브젝트를 상기 인공 마커에 대응되는 동일한 상대 좌표에 표시할 수 있다.In the displaying of the object corresponding to the artificial marker on the screen, the object may be displayed at the same relative coordinates corresponding to the artificial marker.
1개의 인공 마커가 하나의 오브젝트와 매칭되거나, 2개 이상의 인공 마커가 조합되어 하나의 오브젝트와 매칭되어 저장될 수 있다.One artificial marker may be matched with one object, or two or more artificial markers may be combined and stored with one object.
본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템은, 인공마커와 오브젝트가 매칭되어 저장되어 있는 저장부, 상기 인공 마커 및 보조 마커가 배치되는 인터페이스부, 상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 촬상부, 그리고 상기 촬상 정보로부터 상기 인공 마커 및 보조 마커를 인식하여, 상기 인공 마커에 매칭되는 상기 오브젝트를 화면 표시부에 표시하고, 상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 표시하는 제어부를 포함한다. Contents production system using an image recognition-based interface according to an embodiment of the present invention, the storage unit is the artificial marker and the object is matched and stored, the interface unit is disposed the artificial marker and the auxiliary marker, the interface unit is disposed An image pickup unit which picks up an artificial marker and an auxiliary marker, generates imaging information for the artificial marker and the auxiliary marker, and recognizes the artificial marker and the auxiliary marker from the imaging information, and displays the object matching the artificial marker. And a controller configured to display on the display unit and to change and display the shape or operation of the object in response to the auxiliary marker.
이와 같이 본 발명에 의하면, 영상인식 기술을 이용하는 인터페이스로 콘텐츠 제작이 이루어지기 때문에 구상한 콘텐츠 장면을 간단하고 빠르게 생성 및 수정 할 수 있으며, 의미 기반의 마커를 사용하기 때문에 직관적으로 오브젝트를 생성할 수 있다. 또한 마커의 조합과 움직임을 이용하는 직관적인 명령어로 콘텐츠의 다양한 설정이 가능하여 연령대에 상관없이 일반사용자가 쉽게 콘텐츠를 제작 할 수 있는 편의성을 제공한다.Thus, according to the present invention, since the content is produced by the interface using the image recognition technology, it is possible to create and modify the content scene easily and quickly, and to use the meaning-based markers to intuitively create the object. have. In addition, intuitive commands using a combination of markers and movements enable various settings of content, providing convenience for general users to easily create content regardless of age.
도 1은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하여 콘텐츠를 제작하는 과정을 나타내는 간략도이다.
도 4는 본 발명의 실시예에 따른 영상인식 기반 인터페이스로 사용하는 매직보드에 대한 도면이다.
도 5a 내지 도 5c는 본 발명의 실시예에 따른 인공 마커와 오브젝트 상관관계에 대한 도면을 나타낸 것이다.
도 6은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 이용하여 화면을 구성하는 과정을 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 인공 마커와 화면 상의 오브젝트의 관계를 나타내는 도면이다.
도 8a 및 도 8b는 본 발명의 실시예에 따른 환경 설정 마커를 이용한 배경화면 생성 모습이다.
도 9a 내지 도 9c는 본 발명의 실시예에 따른 오브젝트의 동작을 설정하기 위한 방법을 설명하기 위한 도면이다. 1 is a view showing a content production system using an image recognition-based interface according to an embodiment of the present invention.
2 is a view showing a content production method using an image recognition-based interface according to an embodiment of the present invention.
3 is a simplified diagram illustrating a process of producing content using an image recognition-based interface according to an embodiment of the present invention.
4 is a diagram of a magic board used as an image recognition-based interface according to an embodiment of the present invention.
5A to 5C are diagrams illustrating an artificial marker and object correlation according to an embodiment of the present invention.
6 is a diagram illustrating a process of configuring a screen using an image recognition-based interface according to an embodiment of the present invention.
7 is a diagram illustrating a relationship between an artificial marker and an object on a screen according to an exemplary embodiment of the present invention.
8A and 8B illustrate a background screen generation using an environment setting marker according to an embodiment of the present invention.
9A to 9C are diagrams for describing a method for setting an operation of an object according to an exemplary embodiment of the present invention.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.
도 1은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템을 나타낸 도면이다. 1 is a view showing a content production system using an image recognition-based interface according to an embodiment of the present invention.
도 1에 나타낸 콘텐츠 제작 시스템은 저장부(10), 촬상부(20), 제어부(30), 인터페이스부(40) 및 화면 표시부(50)를 포함한다. 저장부(10), 제어부(30), 인터페이스브(40) 및 화면 표시부(50)는 매직보드에 구현되며, 촬상부(20)는 마커가 배치된 매직보드를 촬상한다. The content production system shown in FIG. 1 includes a
저장부(10)는 인공 마커와 오브젝트가 매칭되어 저장되어 있으며, 보조 마커에 대응하는 각종 상황, 배경 또는 동작이 매칭되어 저장된다. 인공 마커와 보조 마커는 종이와 같은 평면 물질상에 표시될 수 있으며, 큐브 형태의 육면체의 한 면에 붙인 상태로 형성될 수 있다. In the
또한 인공 마커는 오브젝트와 대응되는 마커로서, 마커로부터 오브젝트를 직감할 수 있는 의미기반 인공 마커와 마커로부터 직접적으로 오브젝트를 직감할 수 없는 이미지 마커를 포함한다. 또한, 보조 마커는 오브젝트의 상황 또는 배경을 설정하는 환경 설정 마커와 오브젝트의 동작을 나타내기 위한 동작 마커를 포함한다. In addition, the artificial marker is a marker corresponding to the object, and includes a marker based artificial marker that can directly feel the object from the marker and an image marker that can not directly feel the object from the marker. In addition, the auxiliary marker includes an environment setting marker for setting a situation or a background of the object and an action marker for indicating an operation of the object.
촬상부(20)는 매직보드 상에 배치된 인공 마커와 보조 마커를 정면에서 촬상하여, 배치된 마커에 대한 촬상 정보를 생성한다. 촬상부(20)는 멀티카메라 형태로 구현될 수 있으며, 실시간으로 인공 마커와 보조 마커에 대한 촬상 정보를 생성한다. The
제어부(30)는 촬상부(20)로부터 촬상 정보를 수신하고, 촬상 정보로부터 매직보드에 배치된 마커를 인식하여, 인공 마커에 매칭되는 오브젝트를 화면 표시부(50)에 표시하도록 하고, 보조 마커에 대응하여 오브젝트의 형태 또는 동작을 화면 표시부(50)에 표시하도록 한다. The
인터페이스부(40)는 인공 마커와 보조 마커가 배치되는 영역으로, 오브젝트의 모양 또는 동작을 변경시킬 수 있도록 사용자로부터 명령을 입력받는다. 즉, 인터페이스부(40)는 오브젝트와 매칭되는 인공 마커 또는 오브젝트의 상황을 설정하고 동작을 수행할 수 있는 보조 마커를 통하여 명령을 입력받는다. The
도 2는 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법을 나타낸 도면이다. 2 is a view showing a content production method using an image recognition-based interface according to an embodiment of the present invention.
먼저 제어부(30)는 인터페이스부(40)에 배치된 인공 마커 및 보조 마커를 인식한다(S210). 여기서 제어부(30)는 촬상부(20)로부터 촬상된 마커들에 대한 촬상 정보를 이용하여 인공 마커 및 보조 마커를 인식하게 된다. First, the
그리고, 제어부(30)는 인공 마커에 대응되는 오브젝트를 화면 표시부(50)에 표시한다(S220). 여기서 인공 마커에 대응되는 오브젝트는 저장부(10)에 기 저장되어 있다. The
다음으로, 제어부(30)는 보조 마커에 대응하여 오브젝트의 형태 또는 동작을 설정하여 화면 표시부(50)에 표시하게 된다(S230). Next, the
이하에서는 도 3 내지 도 9c를 통하여 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법에 대하여 더욱 상세하게 설명한다.Hereinafter, a method for producing content using an image recognition based interface according to an embodiment of the present invention will be described in more detail with reference to FIGS. 3 to 9C.
도 3은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 사용하여 콘텐츠를 제작하는 과정을 나타내는 간략도이다. 3 is a simplified diagram illustrating a process of producing content using an image recognition-based interface according to an embodiment of the present invention.
본 발명의 실시예에 따른 영상인식 기반 인터페이스부(40)는 실시간으로 멀티카메라를 이용하여 매직보드 위에 위치하는 의미기반 인공 마커 또는 보조 마커들의 정보를 획득하여 인터페이스로 활용한다. The image recognition-based
도 3과 같이, 사용자는 먼저 매직보드에 의미기반의 인공 마커 또는 보조 마커를 배치하여 장면을 조성하고 설정한다(S310). 콘텐츠 제작 시스템은 멀티카메라로 획득한 영상에서 의미기반 인공 마커 또는 보조 마커를 인식하고, 인공 마커 또는 보조 마커의 위치, 패턴, 방향, 이동경로 등의 정보를 분석하여 화면에 인공 마커 또는 보조 마커에 대응하는 오브젝트를 위치시키거나 옵션을 설정하여 콘텐츠 장면을 구성한다(S320). 이와 같은 과정을 통하여 도 3의 오른쪽과 같이 최종적인 콘텐츠를 완성한다(S330). As shown in FIG. 3, the user first places a meaning-based artificial marker or an auxiliary marker on a magic board to create and set a scene (S310). The content production system recognizes the meaning-based artificial markers or auxiliary markers from the images acquired by the multi-camera, and analyzes information such as the position, pattern, direction, and movement paths of the artificial markers or auxiliary markers and displays them on the screen. A content scene is configured by placing a corresponding object or setting an option (S320). Through this process, the final content is completed as shown in the right side of FIG. 3 (S330).
이하에서는 도 4를 통하여 본 발명의 실시예에 따른 인터페이스부(40)에 대하여 설명한다. Hereinafter, the
도 4는 본 발명의 실시예에 따른 영상인식 기반 인터페이스로 사용하는 매직보드에 대한 도면이다. 매직보드(200)에 포함되는 인터페이스부는 명령 공간(Command Space)(210), 제어 공간(Control space)(220), 작업 공간(work space)(230)의 3개의 공간으로 구성되어 있다. 4 is a diagram of a magic board used as an image recognition-based interface according to an embodiment of the present invention. The interface unit included in the
명령 공간(210)은 명령어 선택 버튼(211), 텍스쳐 다이얼 버튼(212) 및 마커 명령어 다이얼(213)을 포함한다. 먼저 명령어 선택 버튼(211)은 각각 영상인식 기반의 인터페이스의 오브젝트 등록 및 오브젝트 크기 조절, 배경 로드, 이동경로 설정, 모션 설정의 기능을 선택할 수 있도록 한다. 명령어 선택 버튼(211) 중에서 빨간 색으로 표시된 버튼은 각각의 기능 중에서 비활성화 된 것을 나타낸다. The
텍스쳐 다이얼 버튼(212)은 선택된 오브젝트의 텍스쳐를 변경하기 위한 버튼으로, 사용자가 화살표가 가리키는 방향을 다이얼 형태로 돌리게 되면 오브젝트의 색상 또는 텍스쳐가 변경된다. The
마커 명령어 다이얼 버튼(213)은 마커의 패턴을 이용하는 것으로, 마커 명령어 다이얼 버튼(213)을 통하여 더욱 다양하고 상세하게 모드의 오브젝트를 나타낼 수 있다. The marker
제어 공간(220)은 환경 설정 명령 공간(221)과 마커 제스처 명령 공간(222)을 포함한다. 환경 설정 명령 공간(221)은 환경 설정 마커(224)를 등록하거나 조합하는 방법을 이용하여 상황 또는 배경을 설정하도록 한다. 즉, 환경 설정 명령 공간(221)에 상황 또는 배경을 설정할 수 있는 환경 설정 마커를 배치시키면 오브젝트는 설정된 상황 또는 배경에 따라 동작이 달라진다. The
마커 제스처 명령 공간(222)은 오브젝트의 이동 방향과 경로를 설정할 수 있는 공간으로, 사용자는 마커 제스처 명령 공간(222)에 배치된 동작 마커(223)를 직접 움직여 오브젝트의 동작을 설정할 수 있다. 또한 마커 제스처 명령어 공간(222)에서 동작 마커(223)의 상하좌우 이동 제스처로 선택된 오브젝트의 크기를 조절할 수 있다. 즉, 기준이 되는 마커와 동작 마커 사이의 거리가 커질수록 선택된 오브젝트의 크기가 커지며, 반대로 거리가 짧아질수록 선택된 오브젝트의 크기가 작아진다.The marker
작업 공간(230)은 인공 마커를 실제로 배치하여 화면 표시부(50)에 오브젝트가 표시되도록 한다. 작업 공간(230)에 인공 마커(231)를 놓으면, 제어부(30)가 인공 마커의 패턴과 위치 방향을 분석하여 화면 표시부(50)를 통하여 인공 마커(231)와 대응되는 오브젝트를 배치시킨다. 이와 같이, 본 발명의 실시예에 따르면 명령 공간(210), 제어 공간(220), 작업 공간(230)을 영상인식 기반 인터페이스로 이용하여 콘텐츠 제작을 수행한다. The
도 5a 내지 도 5c는 본 발명의 실시예에 따른 인공 마커와 오브젝트 상관관계에 대한 도면을 나타낸 것이다. 5A to 5C are diagrams illustrating an artificial marker and object correlation according to an embodiment of the present invention.
영상인식 기반 인터페이스에서 사용하는 인공 마커 중에서 의미기반 인공 마커의 경우 일반적인 마커 간의 구분을 위한 단순 패턴 표식이 아닌 사용자가 인공 마커를 보고 생성될 오브젝트의 모습을 유추할 수 있도록 의미를 부여해서 사용할 수 있다. 따라서 도 5a와 같이 생성되는 오브젝트의 모습과 유사 모습의 패턴을 이용하여 의미기반 인공 마커로 사용하도록 한다. 즉, 의미기반 인공 마커(231)를 작업 공간(230)에 배치하면 콘텐츠 제작화면에 패턴과 동일한 모양을 지닌 오브젝트(232)가 생성된다. Of the artificial markers used in the image recognition-based interface, meaning-based artificial markers can be used by assigning meanings so that the user can infer the shape of the object to be created by looking at the artificial markers, rather than a simple pattern marker for distinguishing between general markers. . Therefore, using the pattern of the object and the similar appearance generated as shown in Figure 5a to use as a meaning-based artificial marker. That is, when the meaning-based
그러나 의미기반 인공 마커는 단순히 생성되는 오브젝트의 모양만을 패턴으로 이용하지 않는다. 간단한 예로 도 5b와 같이 집을 나타내는 패턴이 있고 십자가를 뜻하는 패턴이 있다고 가정하면, 그것을 조합하여 집 위에 십자가가 놓여있으면 사람들은 교회라는 것을 생각할 수 있다. 이렇듯 의미를 가지는 패턴을 조합하여 하나의 오브젝트를 나타내는 패턴으로 사용할 수 있다. However, the semantic marker does not simply use the shape of the object as a pattern. As a simple example, assume that there is a pattern representing a house and a pattern representing a cross as shown in FIG. 5B. If a cross is placed on the house in combination, people may think that it is a church. In this way, a pattern having a meaning can be combined and used as a pattern representing an object.
또한 도 5c와 같이 의미기반 인공 마커와 숫자 마커의 조합을 이용하여 인덱스 개념으로 오브젝트를 생성할 수 있다. 즉, 다양한 모양을 가지는 동일 오브젝트에 대하여 마커의 조합을 이용해 원하는 오브젝트를 콘텐츠 제작 화면에 생성할 수 있다. 그리고 사용자에 따라서 패턴의 모양으로 인식되는 오브젝트의 모습이 다를 수 있기 때문에 사용자는 콘텐츠 제작 시스템을 통해 의미기반 패턴에 생성되기 원하는 오브젝트의 설정을 변경할 수 있다. In addition, as shown in FIG. 5C, an object may be generated using an index concept using a combination of a semantic-based artificial marker and a numeric marker. That is, a desired object may be generated on the content creation screen by using a combination of markers for the same object having various shapes. In addition, since the shape of an object recognized as a pattern may vary depending on the user, the user may change a setting of an object that is desired to be created in the semantic pattern through the content production system.
도 6은 본 발명의 실시예에 따른 영상인식 기반 인터페이스를 이용하여 화면을 구성하는 과정을 나타낸 도면이다. 6 is a diagram illustrating a process of configuring a screen using an image recognition-based interface according to an embodiment of the present invention.
일반적으로 장면을 구성하는데 있어서 간단한 스케치를 이용하여 하나의 콘텐츠 장면을 구상하는 경우가 많다. 이러한 스케치는 오브젝트의 위치를 한 눈에 파악 할 수 있는 장점이 있다. In general, in constructing a scene, a simple sketch is often used to envision a content scene. Such a sketch has an advantage that the position of the object can be identified at a glance.
매직보드의 작업 공간(230)은 화이트보드 기능이 가능하여 콘텐츠의 전체적인 구상내용을 스케치 하듯이 매직보드를 사용해 장면 스케치를 생성할 수 있다(S610). 이렇게 만들어진 매직보드에 스케치된 내용을 기반으로 의미기반의 인공 마커를 작업 공간(230)에 배치한다(S620). 그러면 영상인식 기반 인터페이스는 의미기반 인공 마커의 패턴, 위치, 방향 등을 인식하여 제작 프로그램의 화면에 연결된 오브젝트를 배치해서 콘텐츠를 생성한다(S630).The
이렇게 영상인식 기반의 인터페이스를 이용해서 인공 마커의 배치로 콘텐츠의 장면을 생성하면 제작이 간단하고 빠르며, 직관적으로 오브젝트를 배치하여 장면을 생성할 수 있다. 그리고 스케치를 하듯이 장면을 생성하기 때문에 배치되어있는 오브젝트 사이의 위치적 상관관계를 한눈에 파악하는 것이 가능하여 제작이 용이하다. When the scene of the content is generated by arranging artificial markers using the image recognition-based interface, the production is simple and fast, and the scene can be intuitively arranged to create the scene. And since the scene is created like a sketch, it is possible to grasp the positional correlation between the arranged objects at a glance, making it easy to manufacture.
도 7은 본 발명의 실시예에 따른 인공 마커와 화면 상의 오브젝트의 관계를 나타내는 도면이다. 7 is a diagram illustrating a relationship between an artificial marker and an object on a screen according to an exemplary embodiment of the present invention.
콘텐츠 제작 시스템의 화면 표시부(50)는 매직보드의 작업 공간(230)과 동일한 공간의 상대 좌표를 갖는다. 따라서 작업 공간(230)에 배치되는 인공 마커(231)와 다른 인공 마커와의 상대적인 거리는 화면 표시부(50)에 생성되는 오브젝트(232)와 다른 인공 마커에 의해 생성된 오브젝트와의 상대적인 거리가 동일하게 표현된다. 또한 작업 공간(230) 상에 배치된 의미기반 인공 마커의 이동 방향은 화면 표시부(50)에 생성되는 오브젝트의 이동 방향을 결정한다. The
이와 같이 의미기반 인공 마커에 대응하는 오브젝트가 화면 표시부(50)에 생성되면, 사용자는 환경 설정 마커와 동작 마커를 이용하여 오브젝트의 동작 특성에 대한 콘텐츠를 제작할 수 있다. As such, when an object corresponding to the meaning-based artificial marker is generated on the
도 8a 및 도 8b는 본 발명의 실시예에 따른 환경 설정 마커를 이용한 배경화면 생성 모습이다.8A and 8B illustrate a background screen generation using an environment setting marker according to an embodiment of the present invention.
매직보드의 제어 공간(220) 상단의 환경 설정 명령 공간(221)에 콘텐츠 제작 시스템의 저장부(10)에 등록되어 있는 환경 설정 마커(224)를 배치하면, 콘텐츠 제작 시스템은 환경 설정 마커의 패턴 특징을 분석하여 화면 표시부(50)에 패턴의 특징으로 저장되어 있는 콘텐츠 장면을 불러와 화면을 생성한다. When the
여기서 환경 설정 마커(224)는 그림, 전경 등의 이미지를 인공 마커의 패턴으로 사용한다. 이로써 사용자는 도 8b와 같이 미리 저장되어 있는 배경이나 장면을 가지는 환경 설정 마커(224)를 환경 설정 명령 공간(221)에 배치하면 오른쪽과 같이 대응하는 배경 장면을 생성할 수 있다. Here, the
도 9a 내지 도 9c는 본 발명의 실시예에 따른 오브젝트의 동작을 설정하기 위한 방법을 설명하기 위한 도면이다. 9A to 9C are diagrams for describing a method for setting an operation of an object according to an exemplary embodiment of the present invention.
매직보드를 이용해 오브젝트의 모션을 선택하는 방법은 도 9a와 같이 환경 설정 마커 패턴을 이용한 선택 단계(S710)과 마커 이동 경로를 이용한 모드 마커 선택 단계(S720)의 두 단계 과정으로 구성되어 있다. The method of selecting the motion of the object using the magic board is composed of two steps, a selection step using a preference marker pattern (S710) and a mode marker selection step (S720) using a marker movement path as shown in FIG. 9A.
먼저 환경 설정 마커는 오브젝트가 직면하는 상황이나 환경을 나타내는 마커로서, 도 9a와 같이 일반 생활, 전투/무술, 스포츠 등과 같은 상위 환경 마커(224a)와 각각의 상위 환경 마커(224a)에 해당하는 하위 환경 마커(224b)를 포함한다. 도 9a에서 예로 든 것처럼, 스포츠를 나타내는 상위 환경 마커(224a)의 경우 체조, 축구 등을 나타내는 하위 환경 마커(224b)를 포함할 수 있다. First, the environment setting marker is a marker representing a situation or environment facing an object, and as shown in FIG. 9A, a high
도 9b에서는 환경 설정 마커(224)들을 예시하였으며, 연관성이 있는 환경 마커들을 그룹핑하여 Tree 구조로 만들고 사용자가 선택할 수 있도록 한다. In FIG. 9B, the
따라서, 만일 오브젝트가 격투하는 장면을 표시하고자 하는 경우에는, 환경 설정 명령 공간(221)에 도 9b에 나타낸 스포츠를 나타내는 환경 마커와 격투를 나타내는 환경 마커를 순차적으로 배치하도록 한다. Therefore, in the case where it is desired to display the scene in which the object is fought, the environment marker indicating sport and the environment marker indicating fighting are sequentially arranged in the environment setting
마커 패턴을 이용한 선택 단계(S710)가 완료되면 마커 제스처를 이용한 동작 마커 선택 단계(S720)가 이루어진다. 제스처를 이용한 선택은 제어 공간(220)의 마커 제스처 명령 공간(222)에서 이루어지며, 선택된 모션 분야에서 오브젝트에 설정하고자 하는 모션과 유사한 움직임을 마커 제스처로 표현하여 사용한다. When the selection step S710 using the marker pattern is completed, the operation marker selection step S720 using the marker gesture is performed. The selection using the gesture is made in the marker
마커 제스처 행동은 상하좌우 4가지 방향으로 이루어져 있으며 도 9c와 같이 머리, 발, 손, 몸의 동작 마커(223) 중 두 개의 마커 행동을 같이 사용하는 제스처 조합으로 모션 선택 명령어를 만들어 오브젝트의 모션을 선택한다. The marker gesture action consists of four directions: up, down, left, and right, and as shown in FIG. 9C, the motion of the object is created by using a combination of gestures using two marker actions among the
따라서 마커를 이용하는 제스처는 상하좌우 4가지 움직임과 좌측과 우측으로 존재하는 머리, 발, 손, 몸의 의미기반 마커를 조합하여 이용하기 때문에 총 256개의 모션을 설정하여 표현하는 것이 가능하다. 예를 들어 콘텐츠 장면에서 캐릭터가 머리를 숙여 관중에게 인사하는 동작을 설정 할 때, 머리를 숙이는 행동은 머리가 위에서 아래로 움직이는 것을 알 수 있다. 이와 같은 원리로 머리를 의미하는 마커 한 개를 아래쪽 방향으로 움직여 선택 오브젝트에 목례 인사하는 모션을 설정할 수 있으며, 머리를 의미하는 마커 두 개를 아래쪽으로 움직이면 큰 각도로 목례 인사하는 것을 나타낸다. Therefore, the gesture using the marker uses a combination of four movements up, down, left, and right, and meaning-based markers of the head, foot, hand, and body that exist to the left and the right, so that a total of 256 motions can be set and expressed. For example, when setting a character's bow bow to greet the audience in a content scene, bow bow can be seen that the head moves from top to bottom. With this principle, you can set a motion to say hello to a selected object by moving one marker, which means head, and to move the two markers, which means head, to say hello at a large angle.
이와 같이 도 9c와 같은 동작 마커는 오브젝트의 동작을 나타내는 마커로서, 머리, 발, 손, 몸의 동작을 나타낸다. 예를 들면 도 9c에서 머리 모양의 동작 마커는 인사하기, 헤딩, 좌우로 흔들기 등의 동작을 나타낼 수 있으며, 발 모양의 동작 마커는 발차기, 슛팅, 뛰기, 걷기 등의 동작을 나타낼 수 있다. 마찬가지로 손 모양의 동작 마커는 박수치기, 손 흔들기, 손 들기, 주먹 지르기 등의 동작을 나타낼 수 있으며, 몸통 모양의 동작 마커는 좌우로 흔들기, 춤추기, 엎드리기 등의 동작을 나타낼 수 있다. 물론 구체적인 동작은 사용자가 동작 마커를 이동시키는 방식에 따라서 결정된다. As such, the motion marker as shown in FIG. 9C is a marker indicating the motion of the object and indicates the motion of the head, foot, hand, and body. For example, in FIG. 9C, the head-shaped motion marker may represent an action such as greeting, heading, shaking from side to side, and the foot-shaped motion marker may represent an action of kicking, shooting, running, walking, and the like. Similarly, a hand-shaped motion marker may represent an action such as clapping, shaking hands, raising a hand, or clenching a fist, and a body-shaped motion marker may represent an action such as shaking from side to side, dancing, or lying down. Of course, the specific motion is determined according to the manner in which the user moves the motion marker.
이하에서는 도 9a 내지 도 9c에서 설명한 환경 설정 마커와 동작 마커를 이용하여 구체적인 오브젝트의 움직임에 대하여 설명한다. Hereinafter, the movement of a specific object will be described using the environment setting marker and the operation marker described with reference to FIGS. 9A to 9C.
먼저, 환경 설정 명령 공간(221)에서 사용자가 격투를 나타내는 환경 설정 마커들을 배치시킨 후, 마커 제스처 명령어 공간(222)에서 도 9a와 같이 왼발과 오른발 중에서 오른발을 나타내는 동작 마커를 위쪽으로 이동시킨 경우를 예를 들어 설명한다. 이 경우 현재 격투 장면을 환경 설정한 상태이므로, 오브젝트는 오른 발차기 동작을 수행하게 된다. First, when a user arranges environment setting markers indicating fighting in the environment setting
또한 환경 설정 명령 공간(221)에서 사용자가 축구를 나타내는 환경 설정 마커들을 배치시킨 후, 마커 제스처 명령어 공간(222)에서 마찬가지로 오른발을 나타내는 동작 마커를 위쪽으로 이동시킨 경우에는, 오브젝트는 오른 발 슛 동작을 수행하게 된다. In addition, when the user places the preference markers representing soccer in the
이와 같이 동일한 동작 마커를 동일한 방법으로 이동시키더라도 설정된 상황에 따라서 오브젝트의 동작을 달라진다는 것을 알 수 있다. In this way, even if the same operation marker is moved in the same way, it can be seen that the operation of the object varies according to the set situation.
이와 같이 의미기반 인공 마커를 이용한 모션 분야 선택과 유사한 마커의 움직임을 이용하여 오브젝트의 동작을 선택하기 때문에 직관적인 방법으로 다양한 동작을 선택하여 콘텐츠 제작을 할 수 있다. In this way, the motion of the object is selected using the movement of the marker similar to the selection of the motion field using the semantic marker. Therefore, various motions can be selected and produced in an intuitive manner.
이로써 마커의 영상인식 기술을 이용한 콘텐츠 제작 인터페이스로 간단하고 빠르게 장면을 구성하는 것이 가능하며, 의미 기반의 마커와 제스처를 이용한 직관적인 제작 방법으로 누구나 쉽게 콘텐츠를 제작할 수 있는 편의성을 제공한다.Thus, it is possible to compose a scene simply and quickly with the content production interface using the image recognition technology of the marker, and provides the convenience that anyone can easily produce the content by the intuitive production method using the semantic marker and gesture.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
10: 저장부, 20: 촬상부,
30: 제어부, 40: 인터페이스부,
50: 화면 표시부, 210: 명령 공간,
220: 제어 공간 230: 동작 마커,
224: 환경 설정 마커 230: 작업 공간,
231: 인공 마커 232: 오브젝트,10: storage unit, 20: imaging unit,
30: control unit, 40: interface unit,
50: screen display, 210: command space,
220: control space 230: motion marker,
224: preference marker 230: workspace,
231: artificial marker 232: object,
Claims (11)
영상인식을 기반으로 하는 인터페이스부에 배치된 인공 마커 및 보조 마커를 인식하는 단계,
상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계, 그리고
상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 상기 화면에 표시하는 단계를 포함하며,
상기 보조 마커는,
상기 오브젝트의 상황 또는 배경을 설정하기 위한 환경 설정 마커 및 상기 오브젝트의 동작을 나타내기 위한 동작 마커를 포함하며,
상기 환경 설정 마커에 의해 설정된 상황과 상기 동작 마커에 의해 선택된 동작에 대응하여 상기 오브젝트의 동작을 결정하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법.In the content production method using a content production system,
Recognizing artificial markers and auxiliary markers disposed on the interface unit based on image recognition;
Displaying an object corresponding to the artificial marker on a screen, and
And changing the shape or operation of the object in response to the auxiliary marker and displaying the same on the screen.
The auxiliary marker,
A configuration marker for setting a situation or a background of the object and an operation marker for indicating an operation of the object,
And an image recognition-based interface for determining an operation of the object in response to a situation set by the preference marker and an operation selected by the operation marker.
상기 인공 마커 및 보조 마커를 인식하는 단계는,
상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 단계, 그리고
상기 촬상 정보를 이용하여 상기 인공 마커 및 보조 마커를 인식하는 단계를 포함하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법.The method of claim 1,
Recognizing the artificial marker and the auxiliary marker,
Imaging the artificial marker and the auxiliary marker arranged in the interface unit, generating imaging information for the artificial marker and the auxiliary marker, and
And recognizing the artificial marker and the auxiliary marker using the sensing information.
상기 인공 마커에 대응되는 오브젝트를 화면에 표시하는 단계는,
상기 오브젝트를 상기 인공 마커에 대응되는 동일한 상대 좌표에 표시하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법. The method of claim 2,
Displaying an object corresponding to the artificial marker on the screen,
And an image recognition-based interface displaying the object at the same relative coordinates corresponding to the artificial marker.
1개의 인공 마커가 하나의 오브젝트와 매칭되거나, 2개 이상의 인공 마커가 조합되어 하나의 오브젝트와 매칭되어 저장되는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법. The method of claim 1,
A method of producing a content using an image recognition-based interface in which one artificial marker is matched with one object or two or more artificial markers are combined and stored with one object.
영상인식을 기반으로 하며, 상기 인공 마커 및 보조 마커가 배치되는 인터페이스부,
상기 인터페이스부에 배치된 인공 마커 및 보조 마커를 촬상하여, 상기 인공 마커 및 보조 마커에 대한 촬상 정보를 생성하는 촬상부, 그리고
상기 촬상 정보로부터 상기 인공 마커 및 보조 마커를 인식하여, 상기 인공 마커에 매칭되는 상기 오브젝트를 화면 표시부에 표시하고, 상기 보조 마커에 대응하여 상기 오브젝트의 형태 또는 동작을 변경하여 표시하는 제어부를 포함하며,
상기 보조 마커는,
상기 오브젝트의 상황 또는 배경을 설정하기 위한 환경 설정 마커 및 상기 오브젝트의 동작을 나타내기 위한 동작 마커를 포함하며,
상기 제어부는,
상기 환경 설정 마커에 의해 설정된 상황과 상기 동작 마커에 의해 선택된 동작에 대응하여 상기 오브젝트의 동작을 결정하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템. A storage unit in which an artificial marker and an object are matched and stored;
An interface unit based on image recognition, wherein the artificial marker and the auxiliary marker are disposed;
An imaging unit which picks up the artificial marker and the auxiliary marker arranged in the interface unit, and generates imaging information for the artificial marker and the auxiliary marker, and
And a controller configured to recognize the artificial marker and the auxiliary marker from the imaging information, to display the object matching the artificial marker on a screen display unit, and to change and display a shape or an operation of the object corresponding to the auxiliary marker. ,
The auxiliary marker,
A configuration marker for setting a situation or a background of the object and an operation marker for indicating an operation of the object,
The control unit,
And an image recognition-based interface for determining an operation of the object in response to a situation set by the preference marker and an operation selected by the operation marker.
상기 화면 표시부는,
상기 인공 마커와 매칭되는 오브젝트를 대응되는 상대 좌표에 표시하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템. The method of claim 7, wherein
The screen display unit,
And an image recognition-based interface displaying an object matching the artificial marker at a corresponding relative coordinate.
상기 저장부는,
1개의 인공 마커를 하나의 오브젝트로 매칭하여 저장하거나, 2개 이상의 인공 마커를 조합하여 하나의 오브젝트로 매칭하여 저장하는 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 시스템. The method of claim 7, wherein
Wherein,
1. A content production system using an image recognition-based interface for matching and storing one artificial marker as one object or combining and storing two or more artificial markers as one object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100008074A KR101203787B1 (en) | 2010-01-28 | 2010-01-28 | Contents production method and system using interface based image cognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100008074A KR101203787B1 (en) | 2010-01-28 | 2010-01-28 | Contents production method and system using interface based image cognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110088252A KR20110088252A (en) | 2011-08-03 |
KR101203787B1 true KR101203787B1 (en) | 2012-11-21 |
Family
ID=44926891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100008074A Expired - Fee Related KR101203787B1 (en) | 2010-01-28 | 2010-01-28 | Contents production method and system using interface based image cognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101203787B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100912264B1 (en) | 2008-02-12 | 2009-08-17 | 광주과학기술원 | User responsive augmented image generation method and system |
-
2010
- 2010-01-28 KR KR1020100008074A patent/KR101203787B1/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100912264B1 (en) | 2008-02-12 | 2009-08-17 | 광주과학기술원 | User responsive augmented image generation method and system |
Also Published As
Publication number | Publication date |
---|---|
KR20110088252A (en) | 2011-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12067160B2 (en) | Systems and methods for controlling secondary devices using mixed, virtual or augmented reality | |
US11238619B1 (en) | Multi-device interaction with an immersive environment | |
US9071808B2 (en) | Storage medium having stored information processing program therein, information processing apparatus, information processing method, and information processing system | |
US11826636B2 (en) | Depth sensing module and mobile device including the same | |
US9910509B2 (en) | Method to control perspective for a camera-controlled computer | |
US10691216B2 (en) | Combining gestures beyond skeletal | |
US10831278B2 (en) | Display with built in 3D sensing capability and gesture control of tv | |
JP5800501B2 (en) | Display control program, display control apparatus, display control system, and display control method | |
EP2521097B1 (en) | System and Method of Input Processing for Augmented Reality | |
US8947365B2 (en) | Storage medium storing image processing program for implementing image processing according to input coordinate, and information processing device | |
EP2512141A1 (en) | System and method of user interaction in augmented reality | |
US11250633B2 (en) | Image processing apparatus, display method, and non-transitory computer-readable storage medium, for displaying a virtual viewpoint image including an object at different points in time | |
JP5928757B2 (en) | Information processing device | |
JP2015041126A (en) | Information processing device and information processing method | |
US11889222B2 (en) | Multilayer three-dimensional presentation | |
CN118922865A (en) | User-controlled three-dimensional scene | |
JP7664396B2 (en) | Information processing device, information processing method, and computer program | |
KR101203787B1 (en) | Contents production method and system using interface based image cognition | |
CN210109742U (en) | Head-mounted virtual-real interaction device | |
JP2011092657A (en) | Game system for performing operation by using a plurality of light sources | |
US20240296615A1 (en) | Image processing apparatus for generating virtual viewpoint image, image processing method, and storage medium | |
US20230149805A1 (en) | Depth sensing module and mobile device including the same | |
EP4567565A1 (en) | Interaction method and apparatus, storage medium, device, and program product | |
JP2025005681A (en) | Image processing device, image processing method, and program | |
JP3138822U (en) | Bingo game machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20100128 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20110628 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20121030 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20121115 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20121115 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20161101 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20161101 Start annual number: 5 End annual number: 5 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20180826 |