[go: up one dir, main page]

KR102102994B1 - 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템 - Google Patents

증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템 Download PDF

Info

Publication number
KR102102994B1
KR102102994B1 KR1020190000581A KR20190000581A KR102102994B1 KR 102102994 B1 KR102102994 B1 KR 102102994B1 KR 1020190000581 A KR1020190000581 A KR 1020190000581A KR 20190000581 A KR20190000581 A KR 20190000581A KR 102102994 B1 KR102102994 B1 KR 102102994B1
Authority
KR
South Korea
Prior art keywords
augmented reality
image
user
queue
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190000581A
Other languages
English (en)
Other versions
KR20190132191A (ko
Inventor
남정규
박태준
고상혁
Original Assignee
고상혁
남정규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고상혁, 남정규 filed Critical 고상혁
Priority to KR1020190000581A priority Critical patent/KR102102994B1/ko
Publication of KR20190132191A publication Critical patent/KR20190132191A/ko
Application granted granted Critical
Publication of KR102102994B1 publication Critical patent/KR102102994B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 실시예에 따른 증강현실 편집 시스템은 사용자 인터페이스에 사용자가 선택 가능한 증강현실 큐를 제공하는 증강현실관리모듈로서, 상기 증강현실 큐는 증강현실 콘텐츠에서 증강현실 기능이 구현되는 하나의 단위를 결정하는 것이고, 상기 증강현실 큐는 상기 사용자 인터페이스에서 미리 정해진 형상으로 시각화되는 것인, 증강현실관리모듈을 포함하고, 상기 증강현실 콘텐츠에서 증강현실발현조건이 만족되면 상기 사용자 인터페이스에서 상기 증강현실 큐에 대하여 사용자에 의해 설정된 사항이 상기 증강현실 콘텐츠에서 구현된다.

Description

증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템{AUGMENTED REALITY EDITING SYSTEM TO MAKE AND EDIT AUGMENTED REALITY CONTENTS, AND AUGMENTED REALITY PROCESSING SYSTEM}
본 발명은 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템에 관한 것으로, 사용자가 손쉽게 증강현실 콘텐츠를 제작하고 편집하는 것은 물론 퍼블리싱하는 것까지 가능한 증강현실 편집 시스템과 제작된 증강현실 콘텐츠를 재생할 수 있는 증강현실 구현 시스템에 관한 것이다.
스마트폰 또는 태블릿 PC와 같은 모바일 장치의 대중화에 힘입어 최근 광고나 게임 등의 분야에서 증강현실 기술이 주목 받고 있다. 증강현실 기술이 적용된 증강현실 콘텐츠에서 현실의 이미지나 배경에 가상의 이미지가 덧입혀져 표현된다. 사용자는 익숙한 현실의 이미지 상에 표시되는 가상의 이미지를 통해 증강현실 콘텐츠에 대한 색다른 재미를 느끼거나 유용한 정보를 얻을 수 있기 때문에 증강현실 콘텐츠는 사용자로부터 큰 호응을 얻고 있다.
이 때문에 웹(web)이나 앱(App)을 통해 사용자에게 서비스를 제공하는 서비스 제공자 입장에서는 비즈니스에서 증강현실 기술을 활용하기를 원하는 경우가 많다. 그러나 증강현실 기술은 그 복잡성으로 인해 개발 난이도가 높은 편이기 때문에, 높은 개발비용으로 인해 전문 서비스 제공자가 개발자에게 증강현실 콘텐츠의 개발을 의뢰하기가 쉽지 않아서 증강현실 콘텐츠 보급의 장애가 되고 있다.
공개특허공보 제10-2016-0084583호
최근에는 전문 개발자가 아니라도 손쉽게 프로그램(또는 애플리케이션)을 만들 수 있도록 지원하는 편집 시스템이 출시되고 있다. 그러나 기존에 출시된 편집 시스템은 증강현실 콘텐츠를 제작하는 기능을 지원하고 있지는 않다. 전문 개발자가 아닌 서비스 제공자 입장에서 자신의 서비스에 증강현실 기술을 접목시키는 것은 여전히 어려운 상황이다. 따라서 전문 개발자가 아니라고 하더라도 증강현실 콘텐츠를 제작할 수 있도록 지원할 수 있는 편집 시스템이 절실한 상황이다.
본 발명이 해결하고자 하는 과제는, 증강현실 콘텐츠의 제작을 위한 사용자 인터페이스에 증강현실 큐를 제공함으로써 사용자가 전문 개발자에게 개발을 의뢰하지 않더라도 손쉽게 증강현실 콘텐츠를 제작할 수 있는 증강현실 편집 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는, 증강현실 편집 시스템에서 코드블록을 이용하여 증강현실발현조건이 만족되는 경우 증강현실 단말에 표시되는 디자인 이미지의 동작을 손쉽게 정의할 수 있는 증강현실 편집 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는, 제작된 증강현실 콘텐츠를 구현할 수 있는 증강현실 전용 애플리케이션에 대한 설치 파일을 생성함으로써 사용자가 제작된 증강현실 콘텐츠를 손쉽게 퍼블리싱할 수 있는 증강현실 편집 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는, 증강현실발현조건이 만족되는 경우 증강현실 단말에 표시되는 디자인 이미지의 동작을 정의하는 코드를 증강현실 단말에 제공하는 증강현실 구현 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 증강현실 편집 시스템은, 증강현실 콘텐츠의 제작이 가능한 증강현실 편집 시스템에 있어서, 사용자 인터페이스에 시각화되며 사용자가 선택 가능한 하나 이상의 증강현실 큐를 제공하는 증강현실관리모듈; 및 상기 증강현실 편집 시스템을 통해 제작된 상기 증강현실 콘텐츠에 대한 하나 이상의 오브젝트를 생성하는 오브젝트생성모듈;을 포함하며, 상기 증강현실 콘텐츠에서 증강현실발현조건이 만족되면 상기 사용자 인터페이스에서 해당 증강현실 큐에 배치된 디자인 이미지가 사용자 설정에 따라 상기 증강현실 콘텐츠에서 표시되도록 하며, 상기 사용자 인터페이스에서 증강현실 버튼이 선택된 경우, 증강현실발현조건에 따라 구분된 위치 기반의 증강현실 큐, 이미지 기반의 증강현실 큐 및 사용자 기반의 증강현실 큐를 제공하며, 상기 위치 기반의 증강현실 큐가 선택된 경우, 사용자 단말에 의해 증강현실 기능이 발현되기 위한 위치 또는 좌표에 대한 정보 입력에 대한 사용자 인터페이스를 제공하고, 상기 이미지 기반의 증강현실 큐가 선택된 경우, 사용자 단말에 의해 증강현실 기능이 발현되기 위한 타겟 이미지에 대한 정보 입력에 대한 사용자 인터페이스를 제공하고, 상기 오브젝트는, 상기 증강현실 콘텐츠에서 시각적으로 표시되는 대상에 대한 시각적 데이터인 이미지 데이터, 상기 증강현실 콘텐츠에서 상기 디자인 이미지 또는 증강현실 큐의 작동을 정의하는 코드블록에 대한 프로그래밍 데이터가 저장된 코드블록 데이터, 상기 증강현실 콘텐츠에서 상기 증강현실 큐와 디자인 이미지가 겹치는 경우, 또는 서로 다른 제1디자인 이미지와 제2디자인 이미지가 겹치는 경우 이들 사이의 상대적인 배치에 대한 데이터가 저장된 계층구조 데이터, 및 상기 증강현실 콘텐츠에서 표시되는 상기 디자인 이미지의 크기, 화면 상의 위치를 포함하는 절대적인 배치에 대한 데이터가 저장된 설정데이터를 포함한다.
또한, 상기 사용자 기반의 증강현실 큐가 선택된 경우, 사용자로부터 증강현실 단말에 저장된 이미지 또는 증강현실 단말에 의해 촬영된 이미지를 증강현실발현조건으로서의 타겟 이미지로 선택받으며, 상기 위치 기반의 증강현실 큐, 이미지 기반의 증강현실 큐 및 사용자 기반의 증강현실 큐에 의해 설정된 증강현실조건이 만족되는 경우, 증강현실 단말에 표시되는 디자인 이미지는 배경 이미지와 무관하게 증강현실 단말에 표시되는 것을 특징으로 한다.
또한, 상기 증강현실 편집 시스템은, 상기 증강현실 단말에서 증강현실 콘텐츠를 재생할 수 있는 증강현실 전용 애플리케이션의 설치 파일을 생성하는 퍼블리싱모듈로서, 상기 사용자로부터 입력된 식별 데이터를 상기 증강현실 전용 애플리케이케션에 고정하는 것인, 퍼블리싱모듈;을 더 포함할 수 있다.
또한, 상기 사용자 인터페이스에 상기 사용자가 선택 가능한 코드블록을 제공하는 코드블록관리모듈; 상기 사용자 인터페이스에 상기 사용자가 선택 가능한 배경 이미지를 제공하는 배경관리모듈;을 더 포함하며, 상기 코드블록은 상기 증강현실 콘텐츠에서 타겟이 미리 정해진 작동을 하도록 모듈화된 프로그래밍 코드에 대응되는 것이고, 상기 사용자 인터페이스에서 미리 정해진 형상으로 시각화되는 것이다.
또한, 상기 증강현실 편집 시스템은, 상기 증강현실 단말의 카메라를 통해 촬영된 이미지를 수신하는 증강현실 서버;를 더 포함하며, 상기 증강현실 서버는, 상기 증강현실 단말을 통해 촬영된 이미지와 저장된 타겟 이미지를 비교하여 매칭되는 타겟 이미지가 증강현실 서버에 저장되어 있는지 판별하고, 촬영된 이미지와 동일한 타겟 이미지가 확인되면 메타 데이터를 콘텐츠 서버에 전송하고, 상기 콘텐츠 서버는, 로그인된 식별 데이터와, 상기 증강현실 서버로부터 전송된 메타 데이터와 연관된 식별 데이터가 일치하는 경우, 이미지 데이터를 상기 증강현실 서버로 전송할 수 있다.
또한, 상기 증강현실 편집 시스템은, 상기 증강현실 단말을 통해 촬영된 이미지가 증강현실 서버로 전송되기 전에 전송되는 인공지능 서버;를 더 포함하며, 상기 인공지능 서버는, 상기 증강현실 단말을 통해 촬영된 이미지를 인식하고, 해당 이미지가 무엇인지 구분할 수 있도록 머신 러닝 또는 딥러닝 방식을 통해 학습을 수행하며, 상기 촬영된 이미지를 판별하여 판별 데이터를 생성하고, 상기 생성된 판별 데이터를 상기 증강현실 서버로 전송하고, 상기 증강현실 서버는, 상기 판별 데이터에 대응되는 타겟 이미지 또는 타겟 이미지 데이터가 저장되어 있는지 여부를 판별하고, 상기 타겟 이미지 또는 타겟 이미지 데이터가 확인되면 메타 데이터를 상기 콘텐츠 서버로 전송할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면, 사용자 인터페이스에 증강현실 큐를 제공함으로써 사용자가 전문 개발자에게 개발을 의뢰하지 않더라도 손쉽게 증강현실 콘텐츠를 제작할 수 있다.
본 발명에 따르면, 증강현실 편집 시스템에서 코드블록을 이용하여 증강현실발현조건이 만족되는 경우 증강현실 단말에 표시되는 디자인 이미지의 동작을 손쉽게 정의할 수 있다.
본 발명에 따르면, 제작된 증강현실 콘텐츠를 구현할 수 있는 증강현실 전용 애플리케이션에 대한 설치파일을 생성함으로써 사용자가 제작된 증강현실 콘텐츠를 손쉽게 퍼블리싱할 수 있다.
본 발명에 따르면, 증강현실 단말에 표시되는 디자인 이미지의 동작을 정의하는 코드가 증강현실 구현 시스템에 저장되었다가 증강현실발현조건이 만족되는 경우 디자인 이미지와 함께 증강현실 단말에 제공되기 때문에, 사용자가 필요에 따라 증강현실 구현 시스템에 저장되는 코드를 변경함으로써 증강현실 단말 상에 표시되는 디자인 이미지의 동작을 손쉽게 변경할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 증강현실 편집 시스템 및 증강현실 구현 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 증강현실 편집 시스템의 구성을 나타내는 블록도이다.
도 3은 도 2의 증강현실 편집 시스템에 의해 사용자 단말에 제공되는 사용자 인터페이스를 나타내는 도면이다.
도 4 내지 도 7은 도 3의 사용자 인터페이스에서 증강현실 콘텐츠를 제작하는 것을 설명하기 위한 도면이다.
도 8은 오브젝트를 설명하기 위한 도면이다.
도 9는 증강현실 일반 애플리케이션을 이용하여 증강현실 콘텐츠를 퍼블리싱하는 방법을 설명하기 위한 블록도이다.
도 10은 증강현실 전용 애플리케이션을 이용하여 증강현실 콘텐츠를 퍼블리싱하는 방법을 설명하기 위한 블록도이다.
도 11은 본 발명의 일 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 다른 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명하기 위한 도면이다.
도 13은 인공지능 서버를 포함하는 증강현실 구현 시스템의 블록도이다.
도 14는 본 발명의 또 다른 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하, 도면을 참조하여 본 발명의 일 실시예에 따른 증강현실 편집 시스템(100)과 증강현실 구현 시스템(200)을 설명한다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 증강현실 편집 시스템(100)은 사용자가 사용자 단말(1)을 이용하여 사용자 인터페이스(10)를 통해 증강현실 콘텐츠의 제작 및 편집을 할 수 있도록 지원하는 시스템이고, 본 발명의 일 실시예에 따른 증강현실 구현 시스템(200)은 증강현실 편집 시스템(100)을 통해 제작 또는 편집된 증강현실 콘텐츠가 증강현실 단말(2)에서 재생되거나 작동할 수 있도록 데이터를 처리하는 시스템이다. 증강현실 편집 시스템(100)과 증강현실 구현 시스템(200)은 증강현실 시스템을 구성할 수 있다.
증강현실 편집 시스템(100)과 증강현실 구현 시스템(200)은 네트워크에 의해 연결되어 데이터를 송수신할 수 있으며, 예컨대 증강현실 편집 시스템(100)으로부터 오브젝트(161)가 증강현실 구현 시스템(200)으로 전송될 수 있는데, 이에 대하여 자세하게 후술한다.
여기서, 전술한 바와 같이 증강현실 편집 시스템(100)과 증강현실 구현 시스템(200)은 물리적으로 분리된 별도의 서버로 구성될 수도 있지만, 몇몇 실시예에서 하나의 서버 내에서 논리적으로 분리되어 구성될 수도 있다.
[증강현실 콘텐츠의 편집]
우선, 도 2 내지 도 8을 참조하여 본 발명의 일 실시예에 따른 증강현실 편집 시스템(100)을 설명한다. 도 2는 본 발명의 일 실시예에 따른 증강현실 편집 시스템(100)의 구성을 나타내는 블록도이고, 도 3은 도 2의 증강현실 편집 시스템(100)에 의해 사용자 단말에 제공되는 사용자 인터페이스(10)를 나타내는 도면이고, 도 4 내지 도 7은 도 3의 사용자 인터페이스(10)에서 증강현실 콘텐츠를 제작하는 것을 설명하기 위한 도면이고, 도 8은 오브젝트(161)를 설명하기 위한 도면이다.
증강현실 편집 시스템(100)은 사용자가 증강현실 콘텐츠의 제작 및 편집을 할 수 있도록 사용자 단말(1)에 프로그래밍 편집 툴을 제공할 수 있다. 예컨대 증강현실 편집 시스템(100)은 웹 기반 또는 앱 기반의 프로그래밍 편집 툴을 사용자 단말(1)에 제공할 수 있지만, 이에 제한되지 않고 증강현실 편집 시스템(100)은 소프트웨어로서 사용자 단말(1) 내에 설치되어 구동될 수도 있다. 따라서 몇몇 실시예에서 증강현실 편집 시스템(100)은 서버로서 사용자 단말(1)과 통신을 통해 연결될 수 있으며, 몇몇 실시예에서 증강현실 편집 시스템(100)은 서버와의 연결 없이 사용자 단말(1) 내에서 구동할 수도 있다.
여기서, 사용자 단말(1)은 증강현실 편집 시스템(100)을 통해 증강현실 콘텐츠를 제작 및 편집하려는 사용자가 이용하는 단말이고, 증강현실 단말(2)은 증강현실 구현 시스템(200)을 통해 증강현실 콘텐츠를 재생 및 구현시키려는 사용자가 이용하는 단말로서, 증강현실 단말(2)은 증강현실 기능의 구현을 위해 카메라(촬상 장치), GPS 장치 및 중력 센서(또는 자이로스코프 센서) 등을 포함할 수 있다.
도 2를 참조하면, 증강현실 편집 시스템(100)은 증강현실관리모듈(110), 이미지관리모듈(120), 코드블록관리모듈(130), 배경관리모듈(140), GUI관리모듈(150), 오브젝트생성모듈(160) 및 퍼블리싱모듈(170)을 포함할 수 있다. 다만, 몇몇 실시예에서 증강현실 편집 시스템(100)은 도 2에 도시된 구성요소보다 상대적으로 적은 구성요소를 포함하거나 도 2에 도시된 구성요소보다 상대적으로 많은 구성요소를 포함할 수도 있다.
증강현실관리모듈(110)은 사용자 인터페이스(10)에 사용자가 선택 가능한 증강현실 큐(22a)를 제공한다. 여기서, 증강현실 큐(22a)는 증강현실 콘텐츠에서 증강현실 기능이 구현되는 하나의 단위를 결정할 수 있다. 예컨대, 사용자 인터페이스(10) 상에서 증강현실 큐(22a)가 선택되고 해당 증강현실 큐(22a) 상에 배치되는 모든 디자인 이미지(22b)는 향후 증강현실 콘텐츠가 증강현실 단말(2) 상에서 구현될 때 해당 증강현실 큐(22a)에 대하여 설정된 증강현실발현조건과 해당 증강현실 큐(22a)에 대하여 코드블록(16a)을 통해 프로그래밍된 것에 영향을 받는다.
증강현실 큐(22a)는 사용자 인터페이스(10)에서 시각화될 수 있으며, 증강현실 큐(22a)는 정형적으로 시각화될 수도 있지만 비정형적으로 시각화될 수도 있다. 예컨대 도 3 및 도 4를 참조하여 사용자 인터페이스(10)의 추가기능 영역(12)에 있는 증강현실 버튼(12a)이 선택되는 경우, 증강현실 큐(22a)가 디스플레이 영역(11)에 표시될 수 있으며, 여기서 증강현실 큐(22a)는 점선으로 된 타원 형상으로 표시되었다. 다만, 증강현실 큐(22a)의 형상은 이에 제한되지 않으며 증강현실 큐(22a)의 형상은 2차원 형상뿐 아니라 3차원 형상일 수도 있다.
사용자 인터페이스(10)에서 디스플레이 영역(11)은 이미지를 편집하는 영역으로서 증강현실 단말(2)에서 증강현실 콘텐츠가 재생되는 경우 디스플레이 영역(11)에 표시된 이미지가 증강현실 단말(2)의 화면에 표시된다. 따라서 사용자는 증강현실 기능을 이용하고자 하는 경우 추가기능 영역(12)에서 증강현실 버튼(12a)을 선택하고 디스플레이 영역(11)에서 증강현실 기능이 구현되기를 원하는 위치에 증강현실 큐(22a)를 위치시킬 수 있다.
사용자 단말(1)에 의한 선택에 따라 복수의 증강현실 큐(22a)가 디스플레이 영역(11)에 위치할 수 있으며, 각각의 증강현실 큐(22a)는 별개의 단위로서 증강현실 콘텐츠에서 독립적으로 증강현실 기능을 수행할 수 있다. 따라서 본 실시예에 따른 증강현실 편집 시스템(100)을 이용하면 사용자는 증강현실 큐(22a)를 이용하여 직관적으로 증강현실 콘텐츠를 제작할 수 있으며, 복수의 증강현실 큐(22a)를 이용함으로써 하나의 증강현실 콘텐츠에서 서로 다른 조건으로 복수의 증강현실 기능이 구현되도록 할 수 있다.
다만, 증강현실 콘텐츠가 재생되는 경우 증강현실 큐(22a) 자체가 증강현실 단말(2)의 화면에 표시되는 것은 아니며, 증강현실발현조건이 만족하면 증강현실 큐(22a) 상에 배치된 디자인 이미지(22b)가 증강현실 단말(2)의 화면에 표시된다. 따라서 증강현실 큐(22a)는 사용자가 사용자 인터페이스(10)에서 증강현실 기능을 쉽게 구현할 수 있도록 매개체 역할을 하는 것이다.
증강현실 콘텐츠가 증강현실 단말(2)에서 재생될 때 증강현실 기능은 항상 발현되는 것은 아니고 증강현실 단말(2)이 미리 정해진 위치(또는 좌표)에 도달하였거나 증강현실 단말(2)의 카메라를 통해 미리 정해진 이미지가 인식된 경우와 같이 증강현실발현조건이 만족된 경우에만 발현된다. 즉, 증강현실 큐(22a)는 증강현실발현조건에 따라 위치 기반의 증강현실 큐(22a), 이미지 기반의 증강현실 큐(22a) 및 사용자 기반의 증강현실 큐(22a)로 구분될 수 있으며, 몇몇 실시예에서 위치 기반의 증강현실 큐(22a), 이미지 기반의 증강현실 큐(22a) 및 사용자 기반의 증강현실 큐(22a)가 서로 구분될 수 있도록 사용자 인터페이스(10)에 서로 다른 형상으로 표시되거나 각각의 큐를 선택하기 위한 버튼이 사용자 인터페이스(10) 상에 따로 배치될 수도 있다.
사용자 인터페이스(10)에서 사용자 단말(1)에 의해 증강현실 버튼(12a)이 선택된 경우 위치 기반의 증강현실 큐(22a), 이미지 기반의 증강현실 큐(22a) 및 사용자 기반의 증강현실 큐(22a) 중 어느 하나의 종류의 증강현실 큐(22a)를 선택하도록 선택지가 제공될 수 있으며, 사용자 단말(1)에 의해 어느 하나의 종류의 증강현실 큐(22a)가 선택되면 해당 종류의 증강현실 큐(22a)에 맞는 증강현실발현조건이 사용자 단말(1)에 의해 선택되도록 사용자 인터페이스(10)가 제공될 수 있다.
예컨대, 위치 기반의 증강현실 큐(22a)가 선택된 경우에는 사용자 단말(1)에 의해 증강현실 기능이 발현되기 위한 위치에 대한 정보가 입력되도록 사용자 인터페이스(10)가 형성될 수 있으며, 이미지 기반의 증강현실 큐(22a)가 선택된 경우에는 사용자 단말(1)에 의해 증강현실 기능이 발현되기 위한 타겟 이미지에 대한 정보가 입력되도록 사용자 인터페이스(10)가 형성될 수 있다.
이 밖에 사용자 기반의 증강현실 큐(22a)가 선택된 경우에는 증강현실발현조건의 입력을 위한 사용자 인터페이스(10)가 제공되지 않을 수 있다. 사용자 기반의 증강현실 큐(22a)가 선택된 경우에는 관련된 증강현실 콘텐츠를 재생하는 증강현실 단말(2)에서 증강현실발현조건으로서 타겟 이미지를 입력 또는 선택하도록 할 수 있다.
즉, 사용자 기반의 증강현실 큐(22a)를 포함하는 증강현실 콘텐츠가 증강현실 단말(2)에서 재생될 때 사용자는 증강현실 단말(2)에 저장된 이미지 또는 증강현실 단말(2)에 의해 촬영된 이미지를 증강현실발현조건으로서의 타겟 이미지로 선택할 수 있다.
한편, 증강현실발현조건이 만족되는 경우 증강현실 단말(2)에 표시되는 디자인 이미지(22b)는 증강현실발현조건과 무관하게 증강현실 단말(2)에 표시되는 배경 이미지(22c)와는 구별될 수 있다. 증강현실 큐(22a) 상에 위치하는 디자인 이미지(22b)는 증강현실 큐(22a)와 무관한 배경 이미지(22c)와는 달리 증강현실발현조건이 만족하는 경우에만 증강현실 단말(2)에 표시된다. 예컨대, 도 5를 참조하면 증강현실 큐(22a) 상에 위치하는 사람에 대한 디자인 이미지(22b)는 증강현실발현조건이 만족하는 경우에만 증강현실 단말(2)에 표시되는데 비해 증강현실 큐(22a)로부터 이격하여 위치하는 학교에 대한 배경 이미지(22c)는 증강현실발현조건과 무관하게 증강현실 단말(2)에 표시될 수 있다.
따라서 본 발명의 증강현실 편집 시스템(100)에 따르면 사용자는 증강현실 큐(22a)를 통해 증강현실발현조건이 만족되는 경우 표시하고 싶은 사항을 손쉽게 선택하여 증강현실 콘텐츠를 개발할 수 있다.
한편, 사용자가 사용자 단말(1)을 통해 사용자 인터페이스(10)에서 증강현실 버튼(12a)을 선택하면 증강현실 큐(22a)가 사용자 인터페이스(10) 중 디스플레이 영역(11)에 표시되고 증강현실관리모듈(110)은 사용자 단말(1)에 증강현실발현조건을 입력하도록 요청할 수 있다. 다만, 사용자 기반의 증강현실 큐(22a)가 선택된 경우에는 증강현실발현조건을 입력하는 단계가 생략될 수 있다.
사용자는 사용자 단말(1)을 통해 특정한 타겟 이미지가 증강현실 단말(2)의 카메라에 의해 확인된 경우를 증강현실발현조건으로 설정할 수 있으며, 몇몇 실시예에서 사용자는 증강현실 단말(2)이 특정한 위치(또는 좌표)에 있는 경우를 증강현실발현조건으로 설정할 수도 있다. 사용자의 설정에 따라 증강현실발현조건으로 타겟 이미지와 타겟 이미지에 대한 메타 데이터가 결정될 수 있고, 타겟 이미지와 메타 데이터는 증강현실 큐(22a)와 관련된 오브젝트(161)에 포함될 수 있다. 또한, 사용자의 설정에 따라 증강현실발현조건으로 위치 데이터가 결정될 수 있고, 위치 데이터는 증강현실 큐(22a)과 관련된 오브젝트(161)에 포함될 수 있다.
몇몇 실시예에서 사용자가 위치 기반의 증강현실 큐(22a), 이미지 기반의 증강현실 큐(22a) 및 사용자 기반의 증강현실 큐(22a)를 명확히 구분할 수 있도록 사용자 인터페이스(10)에서 증강현실 버튼(12a) 또한 위치 기반의 증강현실 버튼(12a). 이미지 기반의 증강현실 버튼(12a) 및 사용자 기반의 증강현실 버튼(12a)으로 구분될 수 있으며, 사용자 인터페이스(10) 상에 표시되는 위치 기반의 증강현실 큐(22a), 이미지 기반의 증강현실 큐(22a) 및 사용자 기반의 증강현실 큐(22a)의 형상이 상이할 수도 있다.
한편, 사용자는 증강현실 큐(22a)에 대하여 다양한 설정을 함으로써 증강현실 콘텐츠를 제작할 수 있으며, 증강현실 콘텐츠에서 증강현실발현조건이 만족되면 사용자 인터페이스(10)에서 증강현실 큐(22a)에 대하여 사용자에 의해 설정된 사항이 증강현실 콘텐츠에서 구현될 수 있다.
예컨대, 사용자는 스크립트 영역(16) 및 프로그래밍 영역(17)을 이용하여 증강현실 큐(22a)에 대하여 프로그래밍을 진행함으로써 증강현실발현조건이 만족한 경우 증강현실 단말(2)의 화면 상에 어떠한 변화가 일어나고 증강현실 단말(2)이 어떻게 반응하도록 설정을 할 수 있다.
몇몇 실시예에서, 도 5를 참조하면, 증강현실 큐(22a) 상에 디자인 이미지(22b)를 삽입함으로써 증강현실발현조건이 만족한 경우 증강현실 단말(2)의 화면 상에 해당되는 디자인 이미지(22b)가 표시되도록 할 수도 있다. 다만, 증강현실 큐(22a) 상에 디자인 이미지(22b)가 배치되는 것과 같이 증강현실 큐(22a)과 디자인 이미지(22b) 사이의 이미지의 겹침 또는 서로 다른 디자인 이미지(22b) 사이의 이미지 겹침이 발생하는 경우 증강현실 큐(22a)와 디자인 이미지(22b) 사이 또는 서로 다른 디자인 이미지(22b) 사이의 상대적인 배치에 대한 계층구조 데이터(161c)가 생성되고 오브젝트(161)에 포함됨으로써 증강현실 단말(2)에서 증강현실 콘텐츠가 재생될 때 설정된 대로 계층구조가 표시되어 증강현실 콘텐츠가 재생될 수 있도록 한다.
이미지관리모듈(120)은 사용자 인터페이스(10)에 사용자가 선택 가능한 디자인 이미지(22b)를 제공한다. 증강현실 콘텐츠를 제작하기 위해 다양한 종류의 디자인 이미지(22b)가 필요할 수 있기 때문에, 이미지관리모듈(120)은 다양한 종류의 디자인 이미지(22b)를 제공할 수 있으며, 몇몇 실시예에서 사용자는 이미지관리모듈(120)이 제공하는 디자인 이미지(22b) 이외에 필요한 디자인 이미지(22b)를 추가해서 사용할 수도 있다. 여기서, 디자인 이미지(22b)는 2차원 이미지일 수도 있고 3차원 이미지일 수 있지만, 이에 제한되지 않는다.
사용자가 사용자 인터페이스(10)에서 라이브러리 버튼(12b)을 누른 경우 사용자가 선택할 수 있는 다양한 디자인 이미지(22b)가 사용자 인터페이스(10)에 표시될 수 있으며, 사용자는 표시된 디자인 이미지(22b) 중 적어도 하나를 선택하여 사용자 인터페이스(10)에서 증강현실 큐(22a) 상에 디자인 이미지(22b)를 위치시킬 수 있으며, 증강현실 콘텐츠에서 증강현실발현조건이 만족되면 디자인 이미지(22b)가 증강현실 단말(2)의 화면에 표시될 수 있다.
한편, 도 5를 참조하면, 사람에 대한 디자인 이미지(22b)와 가방에 대한 디자인 이미지(22b)가 겹쳐져서 디스플레이 영역(11)에 표시된다. 이와 같이 서로 다른 디자인 이미지(22b) 사이에 겹침이 발생하는 경우 디자인 이미지(22b) 사이의 상대적인 배치에 대한 계층구조 데이터(161c)가 생성되고 오브젝트(161)에 포함됨으로써 증강현실 단말(2)에서 증강현실 콘텐츠가 재생될 때 설정된 대로 증강현신 콘텐츠가 재생될 수 있도록 한다.
코드블록관리모듈(130)은 사용자 인터페이스(10)에 사용자가 선택 가능한 코드블록을 제공한다. 구체적으로, 코드블록은 증강현실 콘텐츠에서 타겟이 미리 정해진 작동을 하도록 모듈화된 프로그래밍 코드에 대응되는 것이고, 코드블록은 사용자 인터페이스(10)에서 미리 정해진 형상으로 시각화될 수 있다.
예컨대, 사용자가 프로그래밍하여 작동을 정의하려고 하는 디자인 이미지(22b) 또는 증강현실 큐(22a)를 디스플레이 영역(11)에서 선택할 수 있으며, 선택된 디자인 이미지(22b) 또는 증강현실 큐(22a)에 대하여 코드블록(16a)을 이용하여 프로그래밍을 할 수 있다.
여기서, 코드블록(16a) 마다 기능이 할당되어 있으며, 드래그 앤 드롭(drag & drop) 방식으로 특정 기능을 가진 코드블록(16a)을 선택하는 것만으로 해당 기능이 수행되도록 코드블록(16a)에 대응되는 프로그램 코드가 입력되는 효과를 얻을 수 있기 때문에, 본 실시예에 따른 증강현실 편집 시스템(100)을 이용하면 프로그래밍 언어에 대하여 정확히 이해하지 못한다고 하더라도 프로그래밍에 관한 간단한 규칙의 이해만으로 동적(dynamic) 증강현실 콘텐츠의 제작이 가능하다.
도 6을 참조하면, 우선 사용자 인터페이스(10)의 스크립트 영역(16)에서 사용자가 추가하려고 하는 코드블록(16a)을 찾아야 하는데, 이를 위해 사용자는 스크립트 영역(16) 내에 있는 카테고리 중 어느 하나를 선택할 수 있다. 사용자가 스크립트 영역(16) 내에 있는 카테고리 중 어느 하나를 선택하면, 해당 카테고리와 관련된 코드블록(16a)이 사용자가 선택할 수 있도록 스크립트 영역(16)에 리스트로 표시될 수 있다. 사용자는 표시된 코드블록(16a) 중 어느 하나를 선택하여 프로그래밍 영역(17)으로 해당 코드블록(16a)을 이동시킴으로써 선택된 디자인 이미지(22b) 또는 증강현실 큐(22a)가 해당 코드블록(16a)에 의해 정의되는 프로그램에 따라 작동할 수 있도록 프로그래밍할 수 있다.
따라서 본 발명의 일 실시예에 따른 증강현실 구현 시스템(200)에 따르면 사용자가 코드블록(16a)을 이용하여 프로그래밍 작업을 수행함으로써 프로그래밍에 대하여 간단한 로직을 이해하면 손쉽게 프로그래밍하여 동적 증강현실 콘텐츠를 제작하거나 편집할 수 있다.
배경관리모듈(140)은 사용자 인터페이스(10)에 사용자가 선택 가능한 배경 이미지(22c)를 제공한다. 증강현실 콘텐츠를 제작하기 위해 다양한 종류의 배경 이미지(22c)가 필요할 수 있기 때문에, 이미지관리모듈(120)은 다양한 종류의 배경 이미지(22c)를 제공할 수 있으며, 몇몇 실시예에서 사용자가 필요한 배경 이미지(22c)를 추가해서 사용할 수 있도록 할 수도 있다. 사용자가 선택한 배경 이미지(22c)는 증강현실 콘텐츠의 배경이 될 수 있다.
사용자가 사용자 인터페이스(10)에서 배경 버튼(12c)을 누른 경우 사용자가 선택할 수 있는 다양한 배경 이미지(22c)가 사용자 인터페이스(10)에 표시될 수 있으며, 사용자는 표시된 배경 이미지(22c) 중 적어도 하나를 선택하여 디스플레이 영역(11)에 표시할 수 있다. 배경 이미지(22c)가 사용자 인터페이스(10)의 디스플레이 영역(11)에 표시되는 경우 해당 배경 이미지(22c)는 증강현실 콘텐츠에서 시각적으로 표시될 수 있다.
GUI관리모듈(150)은 사용자 인터페이스(10)에 사용자가 선택 가능한 GUI 버튼(12d)를 제공한다. 여기서, GUI 버튼(12d)은 증강현실 단말(2)에서 구현되는 증강현실 콘텐츠에서 사용자로부터 입력을 받을 수 있는 인터페이스로 이용될 수 있다.
예컨대, 도 7을 참조하면, 사용자가 사용자 인터페이스(10)에서 GUI 버튼(12d)을 누른 경우 사용자가 선택할 수 있는 다양한 GUI가 사용자 인터페이스(10)에 표시될 수 있으며, 사용자는 표시된 GUI 중 적어도 하나를 선택하여 디스플레이 영역(11)에 표시할 수 있다. 선택된 GUI(22d)가 사용자 인터페이스(10)의 디스플레이 영역(11)에 표시되는 경우 해당 GUI(22d)는 증강현실 콘텐츠에도 시각적으로 표시될 수 있으며, 사용자는 증강현실 단말(2)의 화면 상에 표시된 GUI를 이용하여 재생 중인 증강현실 콘텐츠를 제어할 수 있다.
오브젝트생성모듈(160)은 증강현실 편집 시스템(100)을 통해 제작된 증강현실 콘텐츠에 대한 오브젝트(161)를 생성할 수 있다. 사용자가 사용자 인터페이스(10)를 통해 증강현실 콘텐츠를 제작하는 과정에서 복수의 오브젝트(161)가 생성될 수 있으며, 증강현실 단말(2)은 오브젝트(161)를 증강현실 단말(2)에 설치된 소프트웨어(또는 애플리케이션)를 통해 해석하여 증강현실 콘텐츠를 재생할 수 있다.
예컨대, 도 8을 참조하면 오브젝트(161)는 이미지 데이터(161a), 코드블록 데이터(161b), 계층구조 데이터(161c) 및 설정데이터(161d)를 포함할 수 있다.
구체적으로, 이미지 데이터(161a)는 증강현실 콘텐츠가 재생될 때 증강현실 단말(2)의 화면에 표시되는 대상에 대한 시각적 데이터를 의미할 수 있다. 예컨대 사용자에 의해 선택된 디자인 이미지(22b)가 이미지 데이터(161a)로 저장될 수 있으며, 사용자에 의해 선택된 배경 이미지(22c) 또는 GUI(22d) 또한 이미지 데이터(161a)로 저장될 수 있다. 여기서, 이미지 데이터(161a)는 2차원 이미지 또는 3차원 이미지 등에 대한 데이터일 수 있다.
코드블록 데이터(161b)는 증강현실 콘텐츠에서 대상의 작동을 정의하는 코드블록(16a)에 대한 데이터로서, 사용자 인터페이스(10)에서 선택된 디자인 이미지(22b) 또는 증강현실 큐(22a)에 대하여 코드블록(16a)을 이용한 프로그래밍이 수행된 경우 프로그래밍 데이터가 코드블록 데이터(161b)로 저장될 수 있다. 예컨대, 코드블록(16a)에 대응하는 프로그래밍 코드가 프로그래밍 데이터로서 코드블록 데이터(161b)로 저장될 수도 있고, 선택된 코드블록(16a)이 프로그래밍 데이터로서 코드블록 데이터(161b)로 저장될 수도 있다.
계층구조(hierarchy) 데이터는 증강현실 콘텐츠에서 대상과 다른 대상 사이의 상대적인 배치에 대한 데이터이다. 즉, 증강현실 큐(22a)와 디자인 이미지(22b)가 겹쳐진 경우 또는 서로 다른 디자인 이미지(22b)가 겹쳐진 경우 이들 사이의 상대적인 배치에 대한 데이터가 계층구조 데이터(161c)로 저장될 수 있다.
설정데이터(161d)는 증강현실 콘텐츠에서 대상의 절대적인 배치에 대한 데이터로서, 예컨대 디자인 이미지(22b)의 크기나 화면 상의 위치 등과 같은 데이터는 설정데이터(161d)로 저장될 수 있다. 계층구조 데이터(161c)는 서로 다른 대상 사이의 상대적인 배치에 관한 데이터인데 비해 설정데이터(161d)는 증강현실 콘텐츠에서 해당 대상 자체의 절대적인 배치에 대한 데이터라는 점에서 차이가 있다.
[증강현실 콘텐츠의 퍼블리싱 ]
이하, 증강현실 편집 시스템(100)을 통해 만들어진 증강현실 콘텐츠를 증강현실 편집 시스템(100) 및 증강현실 구현 시스템(200)을 통해 퍼블리싱(publishing)하는 방법을 설명한다.
우선, 도 9를 참조하여 증강현실 일반 애플리케이션을 이용하여 증강현실 콘텐츠를 퍼블리싱하는 방법을 설명한다. 도 9는 증강현실 일반 애플리케이션을 이용하여 증강현실 콘텐츠를 퍼블리싱하는 방법을 설명하기 위한 블록도이다. 아래의 사항은 퍼블리싱모듈(160)에 의해 수행될 수 있다.
증강현실 편집 시스템(100)은 사용자 인터페이스(10)에 퍼블리싱을 위한 버튼(미도시)을 마련할 수 있으며, 사용자 단말(1)로부터 사용자 인터페이스(10)의 증강현실 일반 애플리케이션을 이용한 퍼블리싱 버튼(미도시)이 선택되면, 증강현실 편집 시스템(100)은 오브젝트(161), 타겟 이미지(162a), 메타 데이터(162b) 및 식별 데이터(163a)를 증강현실 구현 시스템(200)으로 전송할 수 있다.
다만, 위치 기반의 증강현실 큐(22a) 또는 사용자 기반의 증강현실 큐(22a)를 이용하여 증강현실 콘텐츠가 제작된 경우에는 타겟 이미지(162a)가 선택되지 않기 때문에 증강현실 편집 시스템(100)은 증강현실 구현 시스템(200)에 타겟 이미지(162a)를 전송하지 않는다. 여기서는 이미지 기반의 증강현실 큐(22a)를 이용하여 증강현실 콘텐츠가 제작된 경우를 예로 들어 설명하며, 위치 기반의 증강현실 큐(22a) 또는 사용자 기반의 증강현실 큐(22a)를 이용하여 증강현실 콘텐츠가 제작된 경우에는 타겟 이미지(162a)에 대한 내용만 제외하고 동일한 설명이 적용될 수 있다.
여기서, 증강현실 구현 시스템(200)은 예컨대 제어 서버(210), 콘텐츠 서버(220) 및 증강현실 서버(230)를 포함할 수 있으며, 각각의 서버는 물리적으로 분리된 별도의 서버로 구성될 수도 있고 하나의 서버 내에서 논리적으로 분리되어 구성될 수도 있다.
증강현실 일반 애플리케이션은 증강현실 단말(2)에 설치되어 이미지 데이터(161a)를 증강현실 처리하는 소프트웨어로써, 해당 애플리케이션의 사용자가 고정되어 있지 않으며 사용자는 식별 데이터(163a)를 입력한 후에 증강현실 콘텐츠를 이용할 수 있도록 설계된다. 식별 데이터(163a)는 증강현실 편집 시스템(100) 및 증강현실 구현 시스템(200)에서 사용자를 인식하기 위한 데이터 일 수 있으며, 예컨대 아이디나 패스워드와 같은 사용자 로그인 데이터이거나 세션 데이터 또는 쿠키 데이터일 수도 있다.
제어 서버(210)는 증강현실 편집 시스템(100)으로부터 받은 데이터를 다른 서버로 전달하는 역할을 할 수 있으며, 제어 서버(210)는 이미지 데이터(161a), 코드블록 데이터(161b), 계층구조 데이터(161c), 설정데이터(161d) 및 식별 데이터(163a)를 콘텐츠 서버(220)로 전송할 수 있으며, 식별 데이터(163a)는 이미지 데이터(161a), 코드블록 데이터(161b), 계층구조 데이터(161c) 및 설정데이터(161d)와 연계되어 콘텐츠 서버(220)에 저장될 수 있다. 또한, 제어 서버(210)는 타겟 이미지(162a) 및 메타 데이터(162b)는 증강현실 서버(230)로 전송할 수 있다.
본 실시예를 통해 퍼블리싱 되는 증강현실 콘텐츠를 이용하기 위해서는 사용자가 플레이어로서 증강현실 일반 애플리케이션을 설치하고 식별 데이터(163a)를 입력하여 본인 확인을 거쳐야 하며, 식별 데이터(163a) 확인 후에 증강현실 구현 시스템(200)으로부터 증강현실 단말(2)에 데이터를 받을 수 있다.
구체적으로, 사용자가 증강현실 편집 시스템(100)을 이용하여 증강현실 콘텐츠를 생성하고 그 결과로서 생성된 오브젝트(161)를 포함한 데이터를 증강현실 구현 시스템(200)에 전송함으로써 퍼블리싱이 수행된다. 즉, 증강현실 콘텐츠를 이용하려는 사용자는 증강현실 일반 애플리케이션이 설치된 증강현실 단말(2)을 통해 증강현실 구현 시스템(200)에 고유의 식별 데이터(163a)를 이용하여 접속하고 증강현실 단말(2)에 설치된 증강현실 일반 애플리케이션을 통해 증강현실 구현 시스템(200)으로부터 제공되는 증강현실 콘텐츠를 재생시킬 수 있다. 이와 관련하여 자세하게 후술한다.
이어서, 도 10을 참조하여 증강현실 전용 애플리케이션을 이용하여 증강현실 콘텐츠를 퍼블리싱하는 방법을 설명한다. 도 10은 증강현실 전용 애플리케이션을 이용하여 증강현실 콘텐츠를 퍼블리싱하는 방법을 설명하기 위한 블록도이다. 다만, 증강현실 전용 애플리케이션을 이용하여 증강현실 콘텐츠를 퍼블리싱하는 방법과의 차이점을 위주로 설명한다.
본 실시예를 통해 퍼블리싱 되는 증강현실 콘텐츠를 이용하기 위해서 사용자는 플레이어로서 증강현실 전용 애플리케이션을 설치하기만 하면 별도의 추가적인 인증 절차 없이 증강현실 단말(2)을 이용하여 증강현실 콘텐츠를 재생시킬 수 있다. 사용자가 퍼블리싱된 증강현실 전용 애플리케이션을 이용함으로써 추가적인 인증 절차 없이 증강현실 콘텐츠를 이용할 수 있는 방법은 다양할 수 있으며, 이하 하나의 실시예에 대해 설명한다.
예컨대, 증강현실 전용 애플리케이션은 증강현실 단말(2)에 설치되어 이미지 데이터(161a)를 증강현실 처리하는 것이라는 측면에서는 증강현실 일반 애플리케이션과 동일하지만, 증강현실 전용 애플리케이션마다 식별 데이터(163a)가 미리 정해져 있다는 점에서 사용자로부터 식별 데이터(163a)를 입력 받아야 하는 증강현실 일반 애플리케이션과는 차이가 있다.
사용자 단말(1)로부터 사용자 인터페이스(10)의 증강현실 전용 애플리케이션을 이용한 퍼블리싱 버튼(미도시)이 선택되면, 증강현실 구현 시스템(200)은 증강현실 편집 시스템(100)으로부터 오브젝트(161), 타겟 이미지(162a), 메타 데이터(162b) 및 식별 데이터(163a) 등을 전송 받을 수 있다.
이와 함께, 사용자는 증강현실 편집 시스템(100)으로부터 증강현실 전용 애플리케이션에 대해 미리 정해지는 식별 데이터(163a)를 입력할 것을 요청 받을 수 있다. 증강현실 편집 시스템(100)은 사용자 단말(1)을 통해 입력된 식별 데이터(163a) 를 증강현실 일반 애플리케이션에 고정시킴으로써 증강현실 전용 애플리케이션을 만들고 예컨대 APK와 같은 설치 파일을 생성할 수 있다.
여기서, 증강현실 전용 애플리케이션은 증강현실 일반 애플리케이션에서 일부를 변경하여 생성되는 것이며, 예컨대 사용자 단말(1)로부터 사용자 인터페이스(10)의 증강현실 전용 애플리케이션을 이용한 퍼블리싱 버튼(미도시)이 선택되면, 증강현실 편집 시스템(100)은 사용자로부터 증강현실 전용 애플리케이션의 디자인(예컨대, 회사 로고, 설명 등)을 입력 받고, 증강현실 전용 애플리케이션에 대해 미리 정해지는 식별 데이터(163a)를 입력 받음으로써, 증강현실 콘텐츠를 제작한 제작자에게 커스터마이징된 증강현실 애플리케이션을 만들 수 있다. 다만, 증강현실 편집 시스템(100)은 사용자로부터 식별 데이터(163a)를 따로 입력 받지 않고 현재 로그인 된 식별 데이터(163a)를 그대로 이용할 수도 있다.
사용자는 다른 사용자가 생성된 설치 파일을 다운로드 받을 수 있도록 구글 플레이 스토어나 애플 앱 스토어와 같은 애플리케이션 스토어에 업로드를 하거나 다른 사용자에게 생성된 설치 파일을 직접 제공할 수 있다. 증강현실 단말(2)에 설치된 증강현실 전용 애플리케이션은 식별 데이터(163a)가 고정되도록 설정되어 있기 때문에 사용자가 개별적으로 식별 데이터(163a)를 입력하지 않더라도 정해진 식별 데이터(163a)를 통해 증강현실 콘텐츠를 이용할 수 있다.
[증강현실 콘텐츠의 재생]
이하, 도 11을 참조하여 본 발명의 일 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명한다. 도 11은 본 발명의 일 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명하기 위한 도면이다.
우선, 증강현실 단말(2)에서 식별 데이터(163a)를 이용하여 증강현실 서버(230)에 접속할 수 있는데, 여기서 증강현실 전용 애플리케이션을 이용할 때에는 식별 데이터(163a)가 미리 정해져 있어서 사용자가 식별 데이터(163a)를 따로 입력할 필요가 없으며, 증강현실 일반 애플리케이션을 이용할 때에는 사용자가 식별 데이터(163a)를 입력해야 한다.이어서, 증강현실 단말(2)은 카메라를 이용하여 이미지를 촬영하고 촬영된 이미지를 증강현실 서버(230)에 전송할 수 있다(S10).
이어서, 증강현실 서버(230)는 저장된 타겟 이미지(162a)와 촬영된 이미지를 비교하여 촬영된 이미지와 매칭되는 타겟 이미지(162a)가 증강현실 서버(230)에 저장되어 있는지 판별하고, 촬영된 이미지와 동일한 타겟 이미지(162a)가 확인되면 증강현실 처리 데이터 및 메타 데이터(162b)를 증강현실 단말(2)에 전송할 수 있다(S20).
여기서, 증강현실 처리 데이터는 예컨대 코드블록 데이터(161b)를 포함할 수 있으며, 증강현실 구현 시스템(200)은 증강현실 편집 시스템(100)을 통해 프로그래밍된 이미지 데이터(161a)의 작동과 관련된 정보를 증강현실 단말(2)에 전송함으로써 증강현실 단말(2)에서 증강현실발현조건이 만족한 경우 이미지 데이터(161a)를 설계된 대로 작동시킬 수 있다.
이어서, 증강현실 단말(2)은 증강현실 서버(230)로부터 전송된 메타 데이터(162b)를 콘텐츠 서버(220)로 전송한다(S30).
이어서, 콘텐츠 서버(220)는 로그인 된 식별 데이터(163a)와, 전송된 메타 데이터(162b)와 연관된 식별 데이터(163a)가 일치하는 경우, 이미지 데이터(161a)를 증강현실 단말(2)에 전송할 수 있다(S40).
여기서, 로그인 된 식별 데이터(163a)는 증강현실 전용 애플리케이션을 이용할 때에는 미리 정해진 식별 데이터(163a)일 수 있고, 증강현실 일반 애플리케이션을 이용할 때에는 사용자가 입력한 식별 데이터(163a)일 수 있다.
이어서, 증강현실 단말(2)은 증강현실 처리 데이터를 이용하여 이미지 데이터(161a)를 처리함으로써 증강현실 콘텐츠를 재생할 수 있다(S50).
이하, 도 12를 참조하여 본 발명의 다른 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명한다. 도 12는 본 발명의 다른 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명하기 위한 도면이다.
우선, 증강현실 단말(2)에서 식별 데이터(163a)를 이용하여 증강현실 서버(230)에 접속할 수 있는데, 여기서 증강현실 전용 애플리케이션을 이용할 때에는 식별 데이터(163a)가 미리 정해져 있어서 사용자가 식별 데이터(163a)를 따로 입력할 필요가 없으며, 증강현실 일반 애플리케이션을 이용할 때에는 사용자가 식별 데이터(163a)를 입력해야 한다.
이어서, 증강현실 단말(2)은 카메라를 이용하여 이미지를 촬영하고 촬영된 이미지를 증강현실 서버(230)에 전송할 수 있다(S110).
이어서, 증강현실 서버(230)는 저장된 타겟 이미지(162a)와 촬영된 이미지를 비교하여 매칭되는 촬영된 이미지와 매칭되는 타겟 이미지(162a)가 증강현실 서버(230)에 저장되어 있는지 판별하고, 촬영된 이미지와 동일한 타겟 이미지(162a)가 확인되면 메타 데이터를 콘텐츠 서버(220)에 전송할 수 있다(S120).
이어서, 콘텐츠 서버(220)는 로그인 된 식별 데이터(163a)와, 전송된 메타 데이터(162b)와 연관된 식별 데이터(163a)가 일치하는 경우, 이미지 데이터(161a)를 증강현실 서버(220)에 전송할 수 있다(S130).
이어서, 증강현실 서버(230)는 증강현실 처리 데이터 및 이미지 데이터(161a)를 증강현실 단말(2)에 전송할 수 있다(S140).
이어서, 증강현실 단말(2)은 증강현실 처리 데이터를 이용하여 이미지 데이터(161a)를 처리함으로써 증강현실 콘텐츠를 재생할 수 있다(S50).
이하, 도 13 및 도 14를 참조하여, 인공지능 서버를 포함하는 증강현실 구현 시스템(200)을 설명한다. 도 13은 인공지능 서버를 포함하는 증강현실 구현 시스템의 블록도이고, 도 14는 본 발명의 또 다른 실시예에 따른 증강현실 콘텐츠의 재생 방법을 설명하기 위한 도면이다.
도 13을 참조하면, 증강현실 구현 시스템(200)은 인공지능 서버(240)를 더 포함할 수 있다. 여기서, 인공지능 서버(240)는 증강현실 단말(2)에 의해 촬영된 이미지를 인식하고 해당 이미지가 무엇인지를 구분할 수 있도록 머신 러닝 또는 딥 러닝 방식을 통해 학습을 수행할 수 있다.
따라서 도 14를 참조하면, 증강현실 단말(2)을 통해 이미지가 촬영이 되는 경우 촬영된 이미지가 증강현실 서버(230)로 바로 전송되는 것이 아니라 인공지능 서버(20)로 전송될 수 있다(S210).
이에 따라 인공지능 서버(240)에서는 촬영된 이미지가 무엇인지를 판별하여 판별 데이터를 생성할 수 있으며, 생성된 판별 데이터를 증강현실 서버(230)에 전송할 수 있다(S220).
따라서 증강현실 서버(230)는 저장된 타겟 이미지와 촬영된 이미지를 비교하여 촬영된 이미지와 매칭되는 타겟 이미지가 증강현실 서버(230)에 저장되어 있는지 판별하는 것이 아니라, 판별 데이터에 대응되는 타겟 이미지 또는 타겟 이미지 데이터가 증강현실 서버(230)에 저장되어 있는지 여부를 판별하고, 촬영된 이미지에 대한 판별 데이터에 대응되는 타겟 이미지 또는 타겟 이미지 데이터가 확인되면 메타 데이터를 콘텐츠 서버(220)에 전송할 수 있다.
여기서, 타겟 이미지 데이터는 타겟 이미지 자체가 아니라 타겟 이미지의 종류와 같이 타겟 이미지에 대한 판별 데이터를 의미할 수 있으며, 타겟 이미지 데이터는 다음의 방식으로 설정될 수 있다.
예컨대, 사용자 기반의 증강현실 큐(22a)를 이용하여 제작된 증강현실 콘텐츠가 증강현실 단말(2)에서 재생 및 구현되는 경우, 증강현실발현조건이 되는 타겟 이미지가 선택되지 않은 상황이기 때문에, 증강현실 일반 애플리케이션 또는 증강현실 전용 애플리케이션이 설치된 증강현실 단말(2)은 사용자에게 타겟 이미지가 될 수 있는 데이터를 요청할 수 있으며, 이에 따라 사용자는 증강현실 단말(2)을 이용하여 촬영된 이미지 또는 증강현실 단말(2)에 저장된 이미지를 타겟 이미지로 선택할 수 있다.
증강현실 단말(2)에 의해 선택된 타겟 이미지는 증강현실 구현 시스템(200)에 전송되어 증강현실 서버(230)에 저장될 수 있다. 다만, 몇몇 실시예에서 증강현실 단말(2)에 의해 선택된 타겟 이미지는 인공지능 서버(240)에 전송될 수 있으며, 인공지능 서버(240)에 의해 타겟 이미지가 무엇인지를 판별하여 타겟 이미지 데이터가 생성될 수 있다.
이후에 인공지능 서버(240)로부터 타겟 이미지 데이터가 증강현실 서버(230)에 전송되어 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 사용자 인터페이스 100: 증강현실 편집 시스템
200: 증강현실 구현 시스템

Claims (10)

  1. 증강현실 콘텐츠의 제작이 가능한 증강현실 편집 시스템에 있어서,
    사용자 인터페이스에 시각화되며 사용자가 선택 가능한 하나 이상의 증강현실 큐를 제공하는 증강현실관리모듈; 및
    상기 증강현실 편집 시스템을 통해 제작된 상기 증강현실 콘텐츠에 대한 하나 이상의 오브젝트를 생성하는 오브젝트생성모듈을 포함하며,
    상기 증강현실 콘텐츠에서 증강현실발현조건이 만족되면 상기 사용자 인터페이스에서 해당 증강현실 큐에 배치된 디자인 이미지가 사용자 설정에 따라 상기 증강현실 콘텐츠에서 표시되도록 하며,
    상기 사용자 인터페이스에서 증강현실 버튼이 선택된 경우, 증강현실발현조건에 따라 구분된 위치 기반의 증강현실 큐, 이미지 기반의 증강현실 큐 및 사용자 기반의 증강현실 큐를 제공하며,
    상기 위치 기반의 증강현실 큐가 선택된 경우, 사용자 단말에 의해 증강현실 기능이 발현되기 위한 위치 또는 좌표에 대한 정보 입력에 대한 사용자 인터페이스를 제공하고,
    상기 이미지 기반의 증강현실 큐가 선택된 경우, 사용자 단말에 의해 증강현실 기능이 발현되기 위한 타겟 이미지에 대한 정보 입력에 대한 사용자 인터페이스를 제공하고,
    상기 사용자 기반의 증강현실 큐가 선택된 경우, 사용자로부터 증강현실 단말에 저장된 이미지 또는 증강현실 단말에 의해 촬영된 이미지를 증강현실발현조건으로서의 타겟 이미지를 선택받으며,
    상기 위치 기반의 증강현실 큐, 이미지 기반의 증강현실 큐 및 사용자 기반의 증강현실 큐에 의해 설정된 증강현실조건이 만족되는 경우, 증강현실 단말에 표시되는 디자인 이미지는 배경 이미지와 무관하게 증강현실 단말에 표시되고,
    상기 증강현실 편집 시스템은,
    상기 증강현실 단말에서 증강현실 콘텐츠를 재생할 수 있는 증강현실 전용 애플리케이션의 설치 파일을 생성하는 퍼블리싱모듈로서, 상기 사용자로부터 입력된 식별 데이터를 상기 증강현실 전용 애플리케이션에 고정하는 것인, 퍼블리싱모듈을 더 포함하는, 증강현실 편집 시스템.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 사용자 인터페이스에 상기 사용자가 선택 가능한 코드블록을 제공하는 코드블록관리모듈;
    상기 사용자 인터페이스에 상기 사용자가 선택 가능한 배경 이미지를 제공하는 배경관리모듈;을 더 포함하며,
    상기 코드블록은 상기 증강현실 콘텐츠에서 타겟이 미리 정해진 작동을 하도록 모듈화된 프로그래밍 코드에 대응되는 것이고, 상기 사용자 인터페이스에서 미리 정해진 형상으로 시각화되는 것인, 증강현실 편집 시스템.
  5. 제1항에 있어서,
    상기 증강현실 편집 시스템은,
    상기 증강현실 단말의 카메라를 통해 촬영된 이미지를 수신하는 증강현실 서버;를 더 포함하며,
    상기 증강현실 서버는,
    상기 증강현실 단말을 통해 촬영된 이미지와 저장된 타겟 이미지를 비교하여 매칭되는 타겟 이미지가 증강현실 서버에 저장되어 있는지 판별하고, 촬영된 이미지와 동일한 타겟 이미지가 확인되면 메타 데이터를 콘텐츠 서버에 전송하고,
    상기 콘텐츠 서버는,
    로그인된 식별 데이터와, 상기 증강현실 서버로부터 전송된 메타 데이터와 연관된 식별 데이터가 일치하는 경우, 이미지 데이터를 상기 증강현실 서버로 전송하는, 증강현실 편집 시스템.
  6. 제5항에 있어서,
    상기 증강현실 편집 시스템은,
    상기 증강현실 단말을 통해 촬영된 이미지가 증강현실 서버로 전송되기 전에 전송되는 인공지능 서버;를 더 포함하며,
    상기 인공지능 서버는,
    상기 증강현실 단말을 통해 촬영된 이미지를 인식하고, 해당 이미지가 무엇인지 구분할 수 있도록 머신 러닝 또는 딥러닝 방식을 통해 학습을 수행하며, 상기 촬영된 이미지를 판별하여 판별 데이터를 생성하고, 상기 생성된 판별 데이터를 상기 증강현실 서버로 전송하고,
    상기 증강현실 서버는,
    상기 판별 데이터에 대응되는 타겟 이미지 또는 타겟 이미지 데이터가 저장되어 있는지 여부를 판별하고, 상기 타겟 이미지 또는 타겟 이미지 데이터가 확인되면 메타 데이터를 상기 콘텐츠 서버로 전송하는, 증강현실 편집 시스템.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
KR1020190000581A 2019-01-03 2019-01-03 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템 Active KR102102994B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190000581A KR102102994B1 (ko) 2019-01-03 2019-01-03 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190000581A KR102102994B1 (ko) 2019-01-03 2019-01-03 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180056739A Division KR101936755B1 (ko) 2018-05-17 2018-05-17 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템

Publications (2)

Publication Number Publication Date
KR20190132191A KR20190132191A (ko) 2019-11-27
KR102102994B1 true KR102102994B1 (ko) 2020-05-29

Family

ID=68730200

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190000581A Active KR102102994B1 (ko) 2019-01-03 2019-01-03 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템

Country Status (1)

Country Link
KR (1) KR102102994B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102174039B1 (ko) 2018-12-12 2020-11-04 한국광기술원 증강현실을 이용하여 어디에서도 파일을 편집할 수 있는 장치 및 방법
TWI744737B (zh) * 2019-12-11 2021-11-01 中華電信股份有限公司 擴增實境之內容控制系統、方法及電腦可讀儲存媒介
KR102282739B1 (ko) 2020-12-30 2021-07-29 주식회사 버넥트 3차원 공간 기반 증강현실 콘텐츠 배치 조작 방법 및 시스템
KR102388442B1 (ko) * 2021-11-03 2022-04-20 김병걸 증강현실 기반의 메타버스 서비스 장치 및 그 장치의 구동방법
KR20240162355A (ko) * 2023-05-08 2024-11-15 삼성전자주식회사 콘텐트를 제공하는 방법 및 전자 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101984915B1 (ko) * 2012-12-03 2019-09-03 삼성전자주식회사 증강 현실 컨텐츠 운용 방법 및 이를 지원하는 단말기와 시스템
KR20160084583A (ko) 2015-01-06 2016-07-14 주식회사 인디고엔터테인먼트 인터랙티브 증강현실 구현 시스템 및 방법
KR20170125618A (ko) * 2016-05-04 2017-11-15 시크릿타운 주식회사 증강현실 플랫폼을 통해 가상 영역에 표시할 컨텐츠를 생성하는 방법 및 이를 지원하는 전자 장치

Also Published As

Publication number Publication date
KR20190132191A (ko) 2019-11-27

Similar Documents

Publication Publication Date Title
KR102102994B1 (ko) 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템
JP7077463B2 (ja) スマートデバイスの識別および制御
US10430976B2 (en) Method and apparatus for producing and reproducing augmented reality contents in mobile terminal
JP6684883B2 (ja) カメラエフェクトを提供する方法およびシステム
DK2996015T3 (en) PROCEDURE TO USE IMPROVED REALITY AS HMI VIEW
CN103003783B (zh) 功能扩展装置、功能扩展方法、功能扩展程序以及集成电路
JP2023512410A (ja) 接続リソースを使用したユーザデバイスアプリケーションの投影、制御、および管理
WO2022205772A1 (zh) 直播间的页面元素展示方法及装置
CN113424132B (zh) 将增强或虚拟现实(ar/vr)应用与配套设备接口同步
KR102287905B1 (ko) 멀티미디어 기기, 온라인 교육 시스템 및 이들의 컨텐츠 제공 방법
WO2012036816A2 (en) User-specific attribute customization
KR20210023680A (ko) 증강 현실 환경에서의 콘텐트 생성
KR101989089B1 (ko) 클라우드 소싱 기반의 ar 컨텐츠 템플릿을 수집하여 ar 컨텐츠를 자동으로 생성하는 방법 및 시스템
US11527108B2 (en) Method and system for verifying users
CN113454573B (zh) 增强或虚拟现实(ar/vr)配套设备技术
WO2022169668A1 (en) Integrating artificial reality and other computing devices
US11227075B2 (en) Product design, configuration and decision system using machine learning
JP2021163482A (ja) 画像内の文字色と背景色を抽出して提供する方法、システム、およびコンピュータプログラム
WO2019151877A1 (en) Method and system for augmented reality assembly guidance
US20220138383A1 (en) Product design, configuration and decision system using machine learning
KR101936755B1 (ko) 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템
CN112579144B (zh) 数据处理方法及装置
KR102602378B1 (ko) 메신저를 통해 리소스를 요청하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
KR20220115395A (ko) 스케치 이미지에 대한 자동 채색 모델 관리 방법 및 그 장치
JP7085311B2 (ja) 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20190103

Patent event code: PA01071R01D

Filing date: 20180517

Application number text: 1020180056739

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20190422

Comment text: Request for Examination of Application

Patent event code: PA02011R04I

Patent event date: 20190103

Comment text: Divisional Application of Patent

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190904

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20200304

PN2301 Change of applicant

Patent event date: 20200408

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20200414

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20200414

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20230403

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20240514

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20250414

Start annual number: 6

End annual number: 6