KR20260018858A - Create interactive and immersive virtual and augmented reality environments that correspond to digital twins of real-world elements. - Google Patents
Create interactive and immersive virtual and augmented reality environments that correspond to digital twins of real-world elements.Info
- Publication number
- KR20260018858A KR20260018858A KR1020257042149A KR20257042149A KR20260018858A KR 20260018858 A KR20260018858 A KR 20260018858A KR 1020257042149 A KR1020257042149 A KR 1020257042149A KR 20257042149 A KR20257042149 A KR 20257042149A KR 20260018858 A KR20260018858 A KR 20260018858A
- Authority
- KR
- South Korea
- Prior art keywords
- digital
- audio
- server
- reality environment
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/50—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23412—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2209/00—Additional information or applications relating to cryptographic mechanisms or cryptographic arrangements for secret or secure communication H04L9/00
- H04L2209/60—Digital content management, e.g. content distribution
Abstract
상호작용형 가상 환경을 위한 라이브 이벤트의 디지털 트윈을 생성하는 방법 및 시스템. 상기 시스템은 비디오 데이터 스트림 및 오디오 데이터 스트림을 수신하도록 구성된 서버를 포함한다. 상기 서버는 비디오 데이터 스트림 및 대응하는 메타데이터를 분석하고, 비디오 데이터 스트림의 이미지 사이의 공간 깊이를 결정하고, 각 이미지에서의 객체들을 가상 공간의 좌표 행렬에 매칭시키고, 3D 오디오 필드를 가상 공간의 좌표 행렬에 매칭시키고, 이미지, 상기 대응하는 메타데이터, 상기 공간 깊이, 상기 미리 결정된 좌표들의 세트 및 상기 좌표 행렬에 기초하여 상기 라이브 이벤트의 디지털 트윈을 생성하도록 구성된 컴퓨팅 모듈을 동작시킨다. 상기 서버는 적어도 하나의 360도 디지털 표현 및 복수의 단방향 디지털 표현을 포함하는 라이브 이벤트의 다수의 방향들 유래의 복수의 디지털 표현들을 생성하도록 구성된다.A method and system for generating a digital twin of a live event for an interactive virtual environment. The system comprises a server configured to receive a video data stream and an audio data stream. The server operates a computing module configured to analyze the video data stream and corresponding metadata, determine a spatial depth between images of the video data stream, match objects in each image to a coordinate matrix in a virtual space, match a 3D audio field to the coordinate matrix in the virtual space, and generate a digital twin of the live event based on the images, the corresponding metadata, the spatial depth, the set of predetermined coordinates, and the coordinate matrix. The server is configured to generate a plurality of digital representations derived from a plurality of orientations of the live event, including at least one 360-degree digital representation and a plurality of unidirectional digital representations.
Description
본 기술은 실생활 요소(real-life elements)의 디지털 트윈(digital twins)에 대응하는 상호작용형 가상 또는 증강 현실 환경을 생성하는 전자 시스템 및 방법에 관한 것으로, 실생활 요소는 특히 공연 예술, 음악 및 스포츠에서의 라이브 이벤트들(live events)을 포함하는 라이브 이벤트들과 관련된 것이다.The present technology relates to electronic systems and methods for creating interactive virtual or augmented reality environments that correspond to digital twins of real-life elements, the real-life elements being particularly relevant to live events, including live events in the performing arts, music, and sports.
증강 현실(Augmented reality) 및 가상 현실(virtual reality) 애플리케이션들이 본 기술 분야에 잘 알려져 있다. 이러한 애플리케이션들 중 일부는 증강 현실 기술을 사용하여 디지털 오버레이들(digital overlays)로 실생활 경험을 향상시킨다. 다른 애플리케이션들은 가상 현실을 통해 그것들을 시뮬레이션하기 위해 실생활 요소들을 디지털화한다. 예를 들어, 디지털 가상 세계인 메타버스(metaverse)에, 물리 법칙들을 시뮬레이션하는 것을 목표로 하는 디지털 요소들을 통합하여, 사용자들이 실생활 객체들과 유사한 객체들을 사용할 수 있게 하는 것이 알려져 있다. 이것은 디지털 게임들의 기술 분야에서 잘 알려져 있다. Augmented reality (AR) and virtual reality (VR) applications are well-known in this field. Some of these applications use AR technology to enhance real-world experiences with digital overlays. Others digitize real-world elements to simulate them in VR. For example, it is known that digital elements aimed at simulating the laws of physics are integrated into the metaverse, a digital virtual world, allowing users to interact with objects similar to real-world objects. This is well-known in the field of digital games.
그러나 대규모 라이브 이벤트들을 컴퓨팅하여 여러 사용자에게 공급하기가 어렵기 때문에 그것들을 디지털화하기 위해 해결해야 할 많은 기술적 문제들이 존재한다. 상기 기술의 발전은 미래에 적합한 기술적 해결책을 제공할 수 있다. 일반적으로 많은 특허 문헌들이 증강 현실 및 가상 현실 기술들의 다양한 측면들을 교시하고 있다.However, digitizing large-scale live events presents numerous technical challenges, making it difficult to compute and distribute them to multiple users. Advances in these technologies could provide suitable solutions for the future. In general, numerous patent documents describe various aspects of augmented reality and virtual reality technologies.
예를 들어, 2020년 5월 12일자로 등록된 Pankaj N Topiwala 등에 의한 '완전 몰입형 가상 현실을 위한 방법 및 시스템(Method and system for fully immersive virtual reality)'에 대한 미국 특허 번호 10,650,590호는, 현실의 모델 기반 뷰를 생성하기 위해 영역에 걸친 비디오 센서 그리드 및 광범위한 신호 처리를 사용하는 방법 및 시스템을 교시한다. 그리드 기반 동기식 캡처, 포인트 클라우드 생성 및 정제, 형태학(morphology), 다각형 타일링 및 표면 표현, 텍스처 매핑, 데이터 압축 및 사용자 지향 신호 처리를 위한 시스템 레벨 구성요소는 사용자 요구 시에, 캡처의 간격 내에서 언제든지 임의의 시간에, 임의의 시선 방향으로, 영역 내의 임의의 위치로부터 볼 수 있는 가상화된 세계를 생성하는 데 사용된다. 이러한 데이터 스트림은 근거리 네트워크 기반 전송 및 5G를 위해 송신된다. 마지막으로, 상기 가상화된 세계는, 그것이 본질적으로 모델 기반이기 때문에, 증강(또는 삭제)과 통합되어, 현실 세계와 합성 세계의 조화롭고 광현실적(photorealistic)인 혼합을 생성한다. 이것은 제스처를 사용하여 완전 상호작용성이 지원되는 완전 몰입형 혼합 현실 세계를 제공한다. For example, U.S. Patent No. 10,650,590, issued May 12, 2020, to Pankaj N Topiwala et al. for “Method and system for fully immersive virtual reality,” teaches a method and system that uses a grid of video sensors spanning an area and extensive signal processing to generate a model-based view of reality. System-level components for grid-based synchronous capture, point cloud generation and refinement, morphology, polygonal tiling and surface representation, texture mapping, data compression, and user-directed signal processing are used to generate a virtualized world viewable from any location within the area, at any time within the capture interval, in any viewing direction, and on user demand. This data stream is transmitted for short-range network-based transmission and 5G. Finally, the virtualized world, because it is inherently model-based, is integrated with augmentation (or subtraction) to create a harmonious, photorealistic blend of the real and synthetic worlds. It provides a fully immersive mixed reality world with full interactivity supported using gestures.
예를 들어, 2021년 12월 7일에 등록된 Cevat Yerli에 의한 '병합 현실 라이브 이벤트 관리 시스템 및 방법(Merged reality live event management system and method)'에 대한 미국 특허 번호 US11,196,964호는, 실제 또는 가상 이벤트를 원격으로 보고 참여하는 것을 가능하게 하도록 구성된 정확하고 유연한 병합된 현실 시스템 및 방법을 교시한다. 상기 병합된 현실 시스템에서, 상기 실제 또는 가상 세계의 적어도 하나의 부분은 상기 가상 세계 시스템 내에 포함된 대응하는 하위-유니버스들로 각각 복제되거나 스트리밍될 수 있고, 여기서 상기 하위-유니버스들의 일부는 게스트들이 하나 이상의 연관된 게스트 물리적 위치로부터 보고 상호작용할 수 있는 이벤트를 포함한다. 순수하게 가상 객체들 또는 애플리케이션들 및 게임들의 그래픽 표현과 같은 다른 가상 요소가 또한 상기 가상 세계 시스템에 포함될 수 있다. 상기 가상 객체들은 자체 컴퓨팅 능력 및 자율적 동작을 제공하는 로직, 가상 데이터 및 모델들을 포함한다. 상기 시스템은 게스트들이 상기 가상 세계 시스템을 통해 이벤트 내에서 가상으로 방문하고, 상호작용하고, 거래하는 것을 가능하게 한다. For example, U.S. Patent No. US11,196,964, issued December 7, 2021, to Cevat Yerli for "Merged reality live event management system and method," teaches an accurate and flexible merged reality system and method configured to enable remote viewing and participation in a real or virtual event. In the merged reality system, at least one portion of the real or virtual world can be replicated or streamed into corresponding sub-universes contained within the virtual world system, wherein some of the sub-universes contain events that guests can view and interact with from one or more associated guest physical locations. Other virtual elements, such as purely virtual objects or graphical representations of applications and games, may also be included in the virtual world system. The virtual objects include logic, virtual data, and models that provide their own computing capabilities and autonomous behavior. The system enables guests to virtually visit, interact, and transact within the event via the virtual world system.
예를 들어, 2021년 12월 14일에 등록된 Cevat Yerli에 의한 '병합 현실을 통한 가상 존재 시스템 및 방법(Virtual presence system and method through merged reality)'에 대한 미국 특허 번호 US11,202,037호는, 적어도 하나의 프로세서 및 실제 세계 요소들의 하나 이상의 가상 복제본들을 포함하는 영구적 가상 세계 시스템을 저장하는 데이터 저장소를 포함하는 메모리로 구성된 서버로 구성된 가상 존재 병합 현실 시스템을 교시한다. 상기 가상 복제본들은 자체-컴퓨팅 능력 및 자율적 동작을 제공한다. 상기 영구적 가상 세계 시스템은 라이브 이벤트를 호스팅하는 물리적 위치의 가상 복제본을 포함하고, 여기서 상기 영구적 가상 세계 시스템은 상기 영구적 가상 세계 시스템을 업데이트하는 것을 가능하게 하는 상기 라이브 이벤트의 현실 세계 데이터를 캡처하도록 구성된 감지 메커니즘들을 포함하는 복수의 연결된 장치들과 네트워크를 통해 통신하도록 구성된다. 상기 시스템은 게스트들이 상기 영구적 가상 세계 시스템을 통해 상기 라이브 이벤트 내에서 가상으로 방문하고, 상호작용하고, 거래를 행하는 것을 가능하게 한다. 이의 컴퓨터-구현된 방법들이 또한 제공된다. For example, U.S. Patent No. US11,202,037, issued December 14, 2021, to Cevat Yerli for "Virtual presence system and method through merged reality," teaches a virtual presence merged reality system comprising a server comprising at least one processor and a memory comprising a data storage that stores a persistent virtual world system comprising one or more virtual replicas of real-world elements. The virtual replicas provide self-computing capabilities and autonomous operation. The persistent virtual world system comprises a virtual replica of a physical location hosting a live event, wherein the persistent virtual world system is configured to communicate over a network with a plurality of connected devices that include sensing mechanisms configured to capture real-world data of the live event to enable updating the persistent virtual world system. The system allows guests to virtually visit, interact, and transact within the live event via the persistent virtual world system. Computer-implemented methods thereof are also provided.
예를 들어, 2021년 12월 24일에 공개된 Cevat Yerli에 의한 '가상 트윈 현실을 통해 실세계 아이템 및 대응하는 데이터베이스와 상호작용(Interacting with real-world items and corresponding databases through a virtual twin reality)'에 대한 미국 특허 출원 번호 US20200401576호는, 적어도 하나의 프로세서 및 메모리를 포함하는 클라우드 서버 컴퓨터 시스템의 적어도 하나의 클라우드 서버로 구성된 시스템을 교시하고, 상기 메모리는 가상 데이터 및 모델들을 포함하는 하나 이상의 가상 객체들로 구성된 영구 가상 세계 시스템을 저장한다. 상기 가상 객체들은 가상 트윈, 순수 가상 객체 또는 애플리케이션 중 하나 이상을 포함하고, 여기서 상기 가상 객체들 중 적어도 하나는 적어도 하나의 스토어의 제품들과 연관된 주기적으로 업데이트되는 데이터베이스에 연결된 실세계 아이템들의 스토어를 나타낸다. 사용자들은 상기 스토어 내의 요소와의 그리고 그 요소 사이의 상호작용을 가능하게 하는 사용자 장치를 통해 상기 영구적인 가상 세계 시스템을 통해 상기 스토어에 액세스할 수 있다. For example, U.S. Patent Application No. US20200401576 to Cevat Yerli, published December 24, 2021, for "Interacting with real-world items and corresponding databases through a virtual twin reality," teaches a system comprising at least one cloud server of a cloud server computer system comprising at least one processor and memory, the memory storing a persistent virtual world system comprising one or more virtual objects comprising virtual data and models. The virtual objects include one or more of a virtual twin, a purely virtual object, or an application, wherein at least one of the virtual objects represents a store of real-world items connected to a periodically updated database associated with products in at least one store. Users can access the store through the persistent virtual world system via a user device that enables interaction with and between elements within the store.
예를 들어, 2022년 2월 8일에 등록된 Cevat Yerli에 의한 '가상 공간의 병합 현실 공간 스트리밍(Merged reality spatial streaming of virtual spaces)'에 대한 미국 특허 번호 US11,245,872호는, 하나 이상의 가상 객체들을 포함하는 가상 세계 시스템을 저장하는 적어도 하나의 서버를 포함하는 병합된 현실 시스템을 교시하며, 상기 가상 객체들은 적어도 제1 위치, 제2 위치 및 상기 적어도 제1 및 제2 위치들 내의 실세계 요소들의 가상 복제본들을 포함한다. 상기 적어도 하나의 서버는, 네트워크를 통해 상기 적어도 하나의 서버와 통신하는 복수의 접속된 장치들로부터, 상기 제1 및 제2 위치들 내의 실세계 요소들로부터 실세계 데이터를 수신하고; 상기 대응하는 실세계 요소들과 상기 가상 복제본들을 풍부하게 하고 동기화하기 위해 상기 가상 세계 시스템에서 상기 제1 및 제2 위치들로부터의 상기 실세계 데이터를 사용하며; 상기 제2 위치로부터의 상기 실세계 데이터의 적어도 일부분을, 예를 들어, 상기 제1 위치의 상기 가상 복제본의 하나 이상의 표면들 상에 오버랩하고 스트리밍하도록 구성된다. For example, U.S. Patent No. US11,245,872, issued February 8, 2022 to Cevat Yerli for 'Merged reality spatial streaming of virtual spaces' teaches a merged reality system comprising at least one server storing a virtual world system comprising one or more virtual objects, the virtual objects comprising at least a first location, a second location, and virtual replicas of real-world elements within the at least the first and second locations. The at least one server is configured to receive real-world data from real-world elements within the first and second locations from a plurality of connected devices communicating with the at least one server over a network; use the real-world data from the first and second locations in the virtual world system to enrich and synchronize the corresponding real-world elements with the virtual replicas; and overlap and stream at least a portion of the real-world data from the second location onto, for example, one or more surfaces of the virtual replica of the first location.
예를 들어, 2021년 6월 8일에 등록된 Haritaoglu 등에 의한 '360도 비디오 재생을 위한 공간적으로 향상된 적응형 비트레이트 라이브 스트리밍을 위한 방법 및 장치(Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback)'에 대한 미국 특허 번호 제1,032,588호는, 가상 현실 또는 360도 라이브 스트리밍 비디오를 위한 공간적으로 향상된 라이브 스트리밍 경험을 전달하기 위한 장치 및 방법을 개시한다. 라이브 스트리밍 비디오 신호는 다양한 해상도들의 다수의 스트림들로 인코딩된다. 전체 360도 뷰 내의 시야(field of view)에 대응하는 고해상도 비디오 스트림의 일부는 저해상도 비디오 스트림과 병합된다. 결과적인 비디오 스트림은 공간 적응형 비디오 스트림으로 지칭된다. 다수의 공간 적응형 비디오 스트림들은 전체 360도에 걸쳐 고해상도 시야를 제공하도록 생성된다. 시청자가 상이한 방향을 볼 때, 상기 비디오 플레이어는 상기 시청자가 보고 있는 방향에 따라 상기 공간 적응형 비디오 스트림들 중 하나를 재생한다.For example, U.S. Patent No. 1,032,588, issued June 8, 2021, to Haritaoglu et al., for "Method and apparatus for spatially enhanced adaptive bitrate live streaming for 360 degree video playback," discloses a device and method for delivering a spatially enhanced live streaming experience for virtual reality or 360 degree live streaming video. A live streaming video signal is encoded into multiple streams of various resolutions. Portions of the high-resolution video stream corresponding to fields of view within the full 360-degree view are merged with lower-resolution video streams. The resulting video stream is referred to as a spatially adaptive video stream. The multiple spatially adaptive video streams are generated to provide a high-resolution field of view across the full 360 degrees. When a viewer looks in different directions, the video player plays one of the spatially adaptive video streams depending on the direction from which the viewer is looking.
또 다른 예에서, 2019년 9월 9일자로 출원되고 2020년 3월 12일자로 공개된 발명자 Regev에 의한 '암호화폐 지갑과 통합된 증강, 혼합 또는 가상 현실 플랫폼을 위한 결제 시스템(Payment system for augmented, mixed, or virtual reality platforms integrated with cryptocurrency wallet)'에 대한 미국 특허 공개 제2020/0082389호는, 구매될 아이템의 이미지 또는 전송될 자금의 표현이 AR 디스플레이에서 암호화폐 지갑의 이미지로 드래그 앤 드롭되는 상호작용과 같은, 상기 전자 현실 시스템에서 행해진 상호작용에 기초하여 송신자들과 수신자들 사이에 자금을 전송하기 위해 암호화폐 지갑을 통합하는 개선된 전자 현실 시스템(예를 들어, 증강 현실, 혼합 현실 및/또는 가상 현실 시스템)을 개시한다.In another example, U.S. Patent Publication No. 2020/0082389, filed September 9, 2019 and published March 12, 2020, to inventor Regev, entitled “Payment system for augmented, mixed, or virtual reality platforms integrated with cryptocurrency wallet,” discloses an improved electronic reality system (e.g., an augmented reality, mixed reality, and/or virtual reality system) that integrates a cryptocurrency wallet to transfer funds between senders and receivers based on interactions performed in the electronic reality system, such as an interaction where an image of an item to be purchased or a representation of funds to be transferred is dragged and dropped from an AR display to an image of a cryptocurrency wallet.
더욱이, 구글(Google Inc) 및 애플(Apple Inc)과 같은 회사들은 사용자들이 가상 및 증강 현실 애플리케이션들을 사용하는 것을 가능하게 하는 것을 목표로 하는 장치들, 예를 들어, 구글 글래스(Google Glasses) 및 애플 글래스(Apple Glass), 애플 AR/VR 헤드셋(Apple AR/VR Headset), 매직 리프 VR(Magic Leap VR)을 연구하고 있다. 다른 회사들은 또한 사용자들을 위한 다양한 가상 및 증강 현실 장치들을 개발하고 있다. 이러한 장치들은 개발자들이 그것들과 호환가능한 가상 및 증강 현실 애플리케이션들을 생성하기 위한 액세스를 제공하는 애플리케이션 프로그래밍 인터페이스들(API들)을 갖는다. Moreover, companies such as Google Inc. and Apple Inc. are working on devices aimed at enabling users to use virtual and augmented reality applications, such as Google Glass, Apple Glass, the Apple AR/VR Headset, and Magic Leap VR. Other companies are also developing various virtual and augmented reality devices for users. These devices have application programming interfaces (APIs) that give developers access to create compatible virtual and augmented reality applications.
지금까지의 발명들은 다수의 단점들을 겪는 것으로 알려져 있으며, 그 단점들은 데이터 부하가 큰(data-heady) 가상 현실 환경들을 호스팅하기에 만족스러운 컴퓨팅 파워의 부족, 데이터 트래픽 제어의 불충분한 유연성뿐만 아니라, 대규모 라이브 이벤트들을 구현하기에 비용이 많이 든다는 점을 포함한다. Previous inventions are known to suffer from a number of drawbacks, including a lack of sufficient computing power to host data-heavy virtual reality environments, insufficient flexibility in controlling data traffic, and the high cost of implementing large-scale live events.
본원에서 설명된 하나 이상의 문제점들 및/또는 본 명세서에 익숙해진 본 기술 분야의 통상의 기술자가 인식할 수 있는 하나 이상의 문제점들을 해결하는 방법 및/또는 시스템이 요구된다.What is needed is a method and/or system that addresses one or more of the problems described herein and/or one or more problems recognizable to one of ordinary skill in the art having read the present disclosure.
본 기술의 목적은 실생활 요소 및/또는 라이브 이벤트의 디지털 트윈에 대응하는 상호작용형 가상 또는 증강 현실 환경을 생성하고, 상호작용형 가상 현실 환경을 메타버스로 효과적으로 통합하기 위한 효율적인 방법 및 시스템을 제공하는 것이다. 본 방법 및 시스템은 기존의 시스템 및 방법에 비해 신뢰성 있고, 용이하게 설치 가능하고, 비용 효율적일 뿐만 아니라 인터넷 사용자에게 더 많이 액세스 가능해야 한다.The purpose of this technology is to provide an efficient method and system for creating interactive virtual or augmented reality environments that correspond to digital twins of real-world elements and/or live events, and for effectively integrating these interactive virtual reality environments into the metaverse. Compared to existing systems and methods, the method and system should be reliable, easy to install, cost-effective, and more accessible to internet users.
본 기술의 또 다른 목적은 공간 웹 컴퓨팅을 사용하여 실시간으로 라이브 이벤트를 디지털화하기 위해 상호작용형 가상 또는 증강 현실 환경을 생성하는 기술을 적응시키기 위한 효율적인 방법 및 시스템을 제공하는 것이다. 본 방법 및 시스템은 기존의 시스템 및 방법보다 신뢰성 있고, 용이하게 설치 가능하고, 더 비용 효율적일 뿐만 아니라 인터넷 사용자에게 더 액세스 가능해야 한다.Another objective of the present invention is to provide an efficient method and system for adapting the technology to create interactive virtual or augmented reality environments for digitizing live events in real time using spatial web computing. The method and system should be more reliable, easier to install, more cost-effective, and more accessible to Internet users than existing systems and methods.
따라서, 본 기술의 목적은 종래 기술에 존재하는 불편함 중 적어도 일부를 개선하는 것이다.Therefore, the purpose of the present technology is to improve at least some of the inconveniences present in the prior art.
본 발명은 안정적인 디지털 가상 현실 표현을 생성하는 것을 목적으로 비디오 피드들로부터 물리적 공간 및/또는 대규모 이벤트의 그래픽 표현을 생성하는 것에 관한 것으로, 사용자가 상기 디지털 가상 현실 표현에 액세스하고 상기 디지털 가상 현실 표현에 의해 생성된 환경의 디지털 요소들과 상호작용하기에 충분한 양의 트래픽을 처리할 수 있도록 한다. The present invention relates to generating graphical representations of physical spaces and/or large-scale events from video feeds for the purpose of generating stable digital virtual reality representations, which are capable of handling a sufficient amount of traffic to allow a user to access said digital virtual reality representations and interact with digital elements of the environment generated by said digital virtual reality representations.
본 기술의 실시예는 디지털 가상 또는 증강 현실을 생성하고 유지하기 위한 종래 기술의 접근법과 관련된 적어도 하나의 기술적 문제를 연구자의 이해에 기초하여 개발되었다. 상기 엔지니어는 분산 원장 기술, 블록체인 기술 및 비디오 게임 환경 프로그래밍과 관련된 자동화 기술을 적용하는 가능성들을 고려하였다.Embodiments of the present technology were developed based on the researcher's understanding of at least one technical issue related to conventional approaches for creating and maintaining digital virtual or augmented reality. The engineer considered the possibilities of applying distributed ledger technology, blockchain technology, and automation techniques related to video game environment programming.
예를 들어, 현재 알려진 종래 기술의 시스템은 현대의 컴퓨팅 능력의 발전과 블록체인 기술의 보안 향상을 고려하지 않는 것으로 보인다. For example, currently known conventional systems do not appear to take into account the advancements in modern computing power and the security improvements of blockchain technology.
상기 연구자들은 공간 환경의 디지털 표현을 생성하기 위해 동일한 네트워크에 접속되는 몇몇 독립적인 서버 네트워크 구성을 사용할 수 있는 시스템을 제공하는 것이 유익할 것이라는 것을 추가로 발견하였다. The above researchers further found that it would be beneficial to provide a system that could utilize several independent server network configurations connected to the same network to generate a digital representation of a spatial environment.
본 명세서의 맥락에서, 달리 구체적으로 제공되지 않는 한, "제1", "제2", "제3" 등의 단어는 형용사로서 문법적으로 사용될 때, 이들은 그것들이 수식하는 명사들을 서로 구별하는 것을 허용하기 위한 목적으로만 형용사로서 사용되었고, 이들 명사들 사이의 임의의 특정 관계를 설명하기 위한 목적으로 사용되지 않았다. 따라서, 예를 들어, "제1" 서버 또는 "제2" 서버라는 용어의 사용은 상기 서버의/사이의 임의의 특정 기능, 순서, 유형, 연대, 계층 또는 순위(예를 들어)를 암시하려는 의도가 아니며, 그것들의 사용(그 자체로 또는 조합으로)이 임의의 주어진 상황에서 임의의 "제1" 또는 "제2" 서버가 반드시 존재해야 한다는 것을 암시하려는 의도도 아님을 이해해야 한다. 또한, 본 명세서에서 다른 맥락에서 논의된 바와 같이, "제1" 요소 및 "제2" 요소에 대한 언급은 2개의 요소가 동일한 실제 실세계 요소인 것을 배제하지 않는다. 따라서, 예를 들어, 일부 예에서, "제1" 또는 "제2" 서버는 동일한 소프트웨어 및/또는 하드웨어일 수 있고, 다른 경우에 이들은 상이한 소프트웨어 및/또는 하드웨어일 수 있다.In the context of this specification, unless specifically provided otherwise, the words "first," "second," "third," etc., when used grammatically as adjectives, are used as adjectives solely to allow us to distinguish the nouns they modify from one another, and not to describe any particular relationship between those nouns. Thus, for example, it should be understood that the use of the terms "first" server or "second" server is not intended to imply any particular function, order, type, age, hierarchy, or ranking (for example) of/among said servers, nor is their use (by itself or in combination) intended to imply that there must necessarily be any "first" or "second" server in any given situation. Furthermore, as discussed elsewhere in this specification, reference to a "first" element and a "second" element does not preclude the two elements from being the same actual, real-world element. Thus, for example, in some instances, the "first" or "second" server may be the same software and/or hardware, while in other instances they may be different software and/or hardware.
본 기술의 제1광범위한 측면에 따르면, 상호작용형 가상 또는 증강 현실 환경에서 디지털 트윈((digital twin)을 생성하는 시스템이 제공된다. 상기 디지털 트윈은 물리적 라이브 이벤트, 예를 들어, 라이브 공연, 라이브 공연 예술 이벤트, 스포츠 이벤트, 콘서트, 공공 이벤트, 사설 이벤트 등에 대응한다. 상기 디지털 트윈은 또한 라이브 이벤트의 일부, 예를 들어, 파라미터들이 레코딩되고 디지털화된 상기 라이브 이벤트의 임의의 실생활 요소에 대응할 수 있으며, 이는 콘서트 홀, 이벤트 장소, 엔터테인먼트 장소, 엔터테인먼트 공원, 스타디움, 아레나의 기하학적 구조 또는 예술가, 운동선수 또는 그들의 그룹의 공연, 상기 콘서트 홀 또는 스타디움에 전시된 전시회의 일부 등일 수 있다. 상기 시스템은 네트워크에 접속된 복수의 비디오 캡처 장치들을 포함한다. 각 비디오 캡처 장치는 상기 라이브 이벤트의 미리 결정된 좌표들의 세트 내에서 동작하도록 적응된다. 상기 좌표들의 세트는 상기 라이브 이벤트가 발생하는 물리적 공간을 정의한다. 각 비디오 캡처 장치는 원격으로 제어되도록 적응된다. 상기 비디오 캡처 장치들은 서로 독립적으로 제어되거나 장치의 그룹으로서 제어될 수 있다. 상기 제어는 상기 시스템에 미리 프로그래밍되거나 운영자에 의해 부분적으로 또는 완전히 제어될 수 있다. 상기 비디오 캡처 장치들의 각각은 상기 라이브 이벤트의 비디오들을 캡처하도록 적응된다. 상기 비디오 캡처 장치들은 상기 가상 현실 환경에 대한 그래픽 표현을 생성하기 위해 디지털화될 수 있는 데이터를 수집하기에 적합한 임의의 장치들을 포함할 수 있음이 이해되며, 예를 들어, 상기 비디오 캡처 장치들은 비디오 카메라, 적외선 카메라, 특수(거리) 측정 카메라, 드론 등일 수 있다. 이들 특정 방법은 본 발명의 범위 내에 있으면서 미래에 개발 기술에 따라 개발 및 변경될 수 있다는 것이 당업자에 의해 이해된다. According to a first broad aspect of the present technology, a system is provided for creating a digital twin in an interactive virtual or augmented reality environment. The digital twin corresponds to a physical live event, for example, a live performance, a live performing arts event, a sporting event, a concert, a public event, a private event, etc. The digital twin may also correspond to a portion of the live event, for example, any real-life element of the live event whose parameters have been recorded and digitized, such as the geometry of a concert hall, an event venue, an entertainment venue, an entertainment park, a stadium, an arena, or a performance by an artist, athlete, or their group, or a portion of an exhibition displayed in the concert hall or stadium, etc. The system comprises a plurality of video capture devices connected to a network. Each video capture device is adapted to operate within a set of predetermined coordinates of the live event. The set of coordinates defines the physical space in which the live event occurs. Each video capture device is adapted to be controlled remotely. The video capture devices may be controlled independently of one another or as a group of devices. The control may be pre-programmed into the system or may be partially or fully controlled by an operator. Each of the video capture devices is configured to: Adapted to capture videos of the above live event. It is understood that the video capture devices may include any device suitable for collecting data that can be digitized to create a graphical representation of the virtual reality environment. For example, the video capture devices may be video cameras, infrared cameras, special (range) measuring cameras, drones, etc. It is understood by those skilled in the art that these specific methods, while within the scope of the present invention, may be developed and modified in the future as technology develops.
이해의 용이함을 위해, 본 명세서에서 용어 "비디오"는 비디오 캡처 장치에 의해 캡처될 수 있고 상기 가상 현실 환경에 대한 그래픽 표현을 생성하기 위해 사용될 수 있는 임의의 데이터에 대응한다. For ease of understanding, the term "video" in this specification corresponds to any data that can be captured by a video capture device and used to generate a graphical representation of the virtual reality environment.
본 기술의 제1광범위한 측면을 계속하면, 각 캡처된 비디오는 대응하는 메타데이터를 갖는다. 본 명세서에서의 메타데이터는 다른 데이터에 관한 정보를 제공하지만 상기 데이터의 콘텐츠는 제공하지 않는 데이터이다. 예를 들어, 상기 비디오에 대한 대응하는 메타데이터는, 상기 비디오로 캡처된 아티스트, 운동선수 또는 공연의 설명과 같이 상기 비디오와 연관될 수 있는 다른 데이터 뿐만 아니라 상기 비디오의 캡처의 위치, 상기 비디오를 캡처하는 장치의 유형, 임의의 인코더 또는 라이브러리 또는 캡처된 비디오에 기초하여 디지털 트윈을 생성하는데 유용할 수 있는 인코더 또는 라이브러리 또는 다른 데이터를 포함한다. Continuing with the first broad aspect of the present technology, each captured video has corresponding metadata. Metadata, as used herein, is data that provides information about other data but does not provide the content of that data. For example, corresponding metadata for a video may include the location of the capture of the video, the type of device used to capture the video, any encoder or library, or other data that may be useful for creating a digital twin based on the captured video, as well as other data that may be associated with the video, such as a description of the artist, athlete, or performance captured in the video.
상기 시스템은 또한 상기 라이브 이벤트의 하나 이상의 오디오 트랙을 레코딩하고, 상기 라이브 이벤트의 부분들, 예를 들어, 음악, 음성, 주변 사운드 등을 레코딩하도록 적응될 수 있는 복수의 오디오 레코딩 장치들을 갖는다. 상기 복수의 오디오 레코딩 장치는 또한 상기 라이브 이벤트의 3-D 오디오 필드를 레코딩할 뿐만 아니라, 상기 라이브 이벤트가 발생하는 물리적 공간의 상이한 위치에서 상이한 오디오 트랙의 상이한 강도를 레코딩하도록 적응될 수 있다. The system also has a plurality of audio recording devices adapted to record one or more audio tracks of the live event, and to record portions of the live event, such as music, voices, ambient sounds, etc. The plurality of audio recording devices may also be adapted to record not only a 3-D audio field of the live event, but also different intensities of different audio tracks at different locations in the physical space where the live event occurs.
상기 시스템은 또한 서버 또는 각 비디오 캡처 장치 및 각 오디오 레코딩 장치로부터 데이터를 수신하도록 구성된 서버 또는 복수의 서버들을 갖는다. 상기 서버는 컴퓨팅 모듈을 동작시키고 있다. 상기 모듈은 상기 캡처된 비디오 및 상기 대응하는 메타데이터를 분석하도록 구성되며, 이는 상이한 비디오 캡처 장치에 의해 캡처된 이미지 사이의 공간 깊이를 결정하는 것, 각 캡처된 비디오를 상기 라이브 이벤트가 발생하고 있는 상기 물리적 공간의 좌표 행렬에 매칭시키는 것, 상기 3-D 오디오 필드를 상기 물리적 공간의 좌표 행렬에 매칭시키는 것, 상기 캡처된 비디오, 상기 대응하는 메타데이터, 상기 공간 깊이, 상기 미리 결정된 좌표들의 세트 및 상기 좌표 행렬에 기초하여 상기 라이브 이벤트 중 적어도 일부의 디지털 트윈을 생성하는 것을 포함하지만 이에 제한되지 않는다. 상기 서버는 적어도 하나의 360도 디지털 표현 및 복수의 단방향 디지털 표현들을 포함하는 라이브 이벤트의 다수의 방향들 유래의 복수의 디지털 표현들을 생성하도록 구성되며, 각 디지털 표현은 상기 상호작용형 가상 현실 환경에서의 상기 디지털 트윈 내의 시야각(viewing angle)에 대응한다. 상기 서버는 상기 라이브 이벤트가 발생하고 있는 상기 물리적 공간의 치수를 결정하고, 상기 라이브 이벤트가 발생하고 있는 상기 물리적 공간 내에 존재하는 형상 뿐만 아니라 이들 형상들 각 사이의 거리를 결정하고, 상기 라이브 이벤트가 발생하고 있는 물리적 공간의 그래픽 표현, 상기 라이브 이벤트가 발생하고 있는 물리적 공간 내에 존재하는 형상 및 이들 형상 각 사이의 거리로 구성되는 디지털 트윈을 생성하기 위해 임의의 적합한 컴퓨팅 기술을 사용할 수 있다. 상기 시스템은 상기 디지털 표현 및 상기 오디오가 상기 라이브 이벤트의 상호작용형 가상 현실 환경에 참여하는 사용자의 수신 장치로 송신되도록 추가로 구성된다. The system also has a server or a plurality of servers configured to receive data from each video capture device and each audio recording device. The server operates a computing module. The module is configured to analyze the captured video and the corresponding metadata, including but not limited to determining a spatial depth between images captured by different video capture devices, matching each captured video to a coordinate matrix of the physical space in which the live event is occurring, matching the 3-D audio field to the coordinate matrix of the physical space, and generating a digital twin of at least a portion of the live event based on the captured video, the corresponding metadata, the spatial depth, the set of predetermined coordinates, and the coordinate matrix. The server is configured to generate a plurality of digital representations derived from a plurality of orientations of the live event, including at least one 360-degree digital representation and a plurality of unidirectional digital representations, each digital representation corresponding to a viewing angle within the digital twin in the interactive virtual reality environment. The server may use any suitable computing technology to determine dimensions of the physical space in which the live event is occurring, determine shapes existing within the physical space in which the live event is occurring as well as distances between each of these shapes, and generate a digital twin comprising a graphical representation of the physical space in which the live event is occurring, shapes existing within the physical space in which the live event is occurring, and distances between each of these shapes. The system is further configured to transmit the digital representation and the audio to a receiving device of a user participating in an interactive virtual reality environment of the live event.
본 기술의 다른 측면에서, 상기 시스템은 데이터를 상기 시스템에 공급(feed)하기 위해 사용자의 장치로부터 데이터를 수신하도록 추가로 구성되며, 이에 의해 상기 데이터는 예를 들어, 사용자의 위치, 사용자의 움직임 및 사용자의 시선과 관련된 데이터를 포함하는, 가상 현실 환경과의 사용자의 상호작용에 대응할 수도 있다.In another aspect of the present technology, the system is further configured to receive data from a user's device to feed data to the system, whereby the data may correspond to the user's interaction with the virtual reality environment, including, for example, data relating to the user's location, the user's movements, and the user's gaze.
상기 장치는 통합된 모션 캡처 센서들이 있는 임의의 웨어러블 장치, 인공 지능 안경, 가상 현실 안경, 바이노럴 사운드(binaural sound)를 위한 인공 지능 이어폰, 가상 현실 헤드셋, 모바일 폰, 컴퓨터, 랩톱, 스마트워치, 게임 콘솔 및 크로스 네트워크 장치일 수 있다.The device may be any wearable device with integrated motion capture sensors, artificial intelligence glasses, virtual reality glasses, artificial intelligence earphones for binaural sound, virtual reality headset, mobile phone, computer, laptop, smartwatch, game console, and cross-network device.
상기 사용자의 장치는 본 특허 출원의 일부로서 청구되지 않으며, 상기 사용자, 상기 사용자의 장치 또는 상기 사용자의 장치에 의해 생성되고 상기 시스템으로 전송되는 데이터에 대한 참고는 상기 시스템의 일부가 아니며, 단지 청구범위의 범위를 제한하지 않고 이해의 용이함을 위해 단순히 언급되는 것으로 이해된다.It is understood that the user's device is not claimed as part of this patent application, and that any reference to the user, the user's device, or data generated by the user's device and transmitted to the system is not part of the system, and is merely mentioned for ease of understanding without limiting the scope of the claims.
상기 기술의 또 다른 측면에서, 상기 모듈은 상기 가상 현실 환경에서 상기 디지털 트윈의 그래픽 표현 내에 있기에 적합한 실생활 요소(real-life elements)를 결정하도록 추가로 구성된다. 이와 같이, 상기 모듈은 상기 캡처된 비디오에 존재할 수도 있는 실생활 요소들 중 어느 것을 상기 디지털 표현에서 생략할지 및 어느 실생활 요소를 상기 디지털 표현의 일부로서 유지할지를 결정하도록 구성된다. 상기 모듈은 상기 디지털 트윈 내에 디지털화하고 유지하기 위한 실생활 요소을 결정하기 위해 다양한 파라미터를 사용할 수도 있다. 예를 들어, 상기 모듈은 상기 사용자의 시야각을 결정하고, 상기 사용자의 시선(line of sight) 내에 있는 실생활 요소만을 유지할 수도 있다. 예를 들어, 상기 모듈은 상기 디지털 트윈 내에 유지하기 위해 실생활 요소를 디지털화하는 컴퓨팅 복잡도를 추정할 수도 있고, 상기 복잡도가 특정 임계값을 초과하는 경우, 상기 컴퓨팅 모듈은 실생활 요소를 생략할 것이고, 즉, 디지털화되지 않을 것이고, 상기 디지털 트윈 내에 추가/유지되지 않을 것이다.In another aspect of the technology, the module is further configured to determine which real-life elements are suitable to be included in the graphical representation of the digital twin in the virtual reality environment. In this way, the module is configured to determine which real-life elements that may be present in the captured video are to be omitted from the digital representation and which real-life elements are to be retained as part of the digital representation. The module may use various parameters to determine which real-life elements to digitize and retain within the digital twin. For example, the module may determine the user's field of view and retain only those real-life elements that are within the user's line of sight. For example, the module may estimate the computational complexity of digitizing a real-life element to retain within the digital twin, and if the complexity exceeds a certain threshold, the computing module will omit the real-life element, i.e., will not be digitized and will not be added/retained within the digital twin.
상기 기술의 또 다른 측면에서, 상기 디지털 표현은 실시간으로(in real-time) 또는 상기 라이브 이벤트 후 지연된 시간에 상기 장치에 송신된다. 예를 들어, 라이브 이벤트는 실시간으로 사용자들에 의해 액세스가능할 수도 있는 가상 현실 환경에서 디지털 트윈을 생성하도록 디지털화될 수도 있다. 다른 이벤트는 상기 라이브 이벤트가 지나간 이후 사용자들에 의해 액세스될 수도 있는 가상 현실 환경에서 디지털 트윈을 생성하도록 디지털화될 수도 있고, 따라서 상기 디지털 트윈은 사용자들이 언제든지 액세스할 수 있는 영구적 가상 현실 환경이 되어, 사용자들이 그들이 원하는 상기 라이브 이벤트의 임의의 부분에 참여하도록 허용할 수 있다.In another aspect of the technology, the digital representation is transmitted to the device in real time or at a delayed time after the live event. For example, a live event may be digitized to create a digital twin in a virtual reality environment that users can access in real time. Other events may be digitized to create a digital twin in a virtual reality environment that users can access after the live event has passed, thus creating a persistent virtual reality environment that users can access at any time, allowing users to participate in any part of the live event they wish.
상기 기술의 또 다른 측면에서, 상기 디지털 표현, 오디오 레코딩, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터는 적어도 부분적인 온디맨드(on demand) 재배포를 위해 상기 시스템에 의해 파싱되어(parsed) 데이터베이스에 저장된다. 예를 들어, 상기 가상 현실 환경에서의 디지털 트윈은 독립적인 서버 상에서 호스팅되고 다양한 프로토콜 상에서 실행되는 상이한 메타버스에 추가될 수도 있다. 이와 같이, 상기 라이브 이벤트의 디지털 트윈의 임의의 부분은 하나 또는 복수의 메타버스의 사용자들에 의해 액세스가능한 가상 현실 환경을 생성하는데 사용될 수도 있다.In another aspect of the technology, the digital representation, audio recording, corresponding metadata, and corresponding coordinate matrix data are parsed by the system and stored in a database for at least partial on-demand redistribution. For example, the digital twin in the virtual reality environment may be hosted on an independent server and added to different metaverses running on various protocols. In this way, any portion of the digital twin of the live event may be used to create a virtual reality environment accessible to users of one or more metaverses.
상기 기술의 또 다른 측면에서, 상기 디지털 표현, 오디오 레코딩, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터는 블록체인 기술에 의한 분산 방식으로 저장된다. 상기 디지털 트윈은 상기 가상 현실 환경의 원하는 기술적 특성에 따라 분산 방식으로 또는 중앙집중화된 방식으로 저장될 수도 있다는 것으로 이해된다. 일부 경우에서, 자원의 분산된 사용이 상기 라이브 이벤트의 디지털 트윈의 가상 현실 환경을 생성 및 실행하는 컴퓨팅 파워를 증가시키기 위해 자원들의 탈중앙화된 사용을 허용하는 것을 목표로 블록체인 기술을 사용하여 분산 방식으로 상기 디지털 트윈을 저장하는 것이 기술적으로 유익할 수도 있다. 예를 들어, 이는 사용자들이 라이브 이벤트의 디지털 트윈의 가상 현실 환경에 실시간으로 액세스하는 것을 허용하는데 유익할 수도 있다. In another aspect of the above technology, the digital representation, audio recording, corresponding metadata, and corresponding coordinate matrix data are stored in a distributed manner using blockchain technology. It is understood that the digital twin may be stored in a distributed or centralized manner, depending on the desired technical characteristics of the virtual reality environment. In some cases, it may be technically advantageous to store the digital twin in a distributed manner using blockchain technology, with the goal of allowing for the decentralized use of resources to increase the computing power needed to create and execute the virtual reality environment of the digital twin of the live event. For example, this may be advantageous in allowing users to access the virtual reality environment of the digital twin of the live event in real time.
상기 기술의 또 다른 측면에서, 대체 불가능 토큰들(non-fungible tokens)이 상기 디지털 표현, 오디오 레코딩, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터를 포함하는 상기 디지털 트윈의 적어도 일부에 할당된다. 예를 들어, 제1대체 불가능 토큰은 제1오디오 레코딩에 할당될 수도 있고, 제2대체 불가능 토큰은 제2오디오 레코딩에 할당될 수도 있고, 제3대체 불가능 토큰은 제3오디오 레코딩에 할당될 수도 있고, 제4대체 불가능 토큰은 제1비디오에 할당될 수도 있고, 제4대체 불가능 토큰은 제2비디오에 할당될 수도 있고, 제5대체 불가능 토큰은 제1메타데이터에 할당될 수도 있고, 제6대체 불가능 토큰은 제1 좌표 행렬 데이터 세트에 할당될 수도 있는 식이다. 상기 대체 불가능 토큰들은 일반적으로 NFT 로서 약칭될 수도 있다. In another aspect of the technology, non-fungible tokens are assigned to at least a portion of the digital twin, including the digital representation, the audio recording, the corresponding metadata, and the corresponding coordinate matrix data. For example, a first non-fungible token may be assigned to a first audio recording, a second non-fungible token may be assigned to a second audio recording, a third non-fungible token may be assigned to a third audio recording, a fourth non-fungible token may be assigned to a first video, a fourth non-fungible token may be assigned to a second video, a fifth non-fungible token may be assigned to the first metadata, and a sixth non-fungible token may be assigned to the first coordinate matrix data set. The non-fungible tokens may be generally abbreviated as NFTs.
일부 구현에서, 대체 가능 토큰들 또한 사용자들 사이 또는 상기 시스템과 사용자들 사이에서 결제 수단, 교환 수단 또는 통신 수단으로서 상기 시스템에 의해 사용될 수 있음이 이해된다. In some implementations, it is understood that fungible tokens may also be used by the system as a means of payment, exchange, or communication between users or between the system and users.
상기 기술의 또 다른 측면에서, 상기 시스템은 사용자에 의해 구매된 대체 불가능 토큰을 식별하고 대응하는 대체 불가능 토큰 권한을 사용자에게 할당하도록 적응된 결제 처리기(payment processor)를 포함한다. 예를 들어, 상기 결제 처리기는 상기 시스템에 통합될 수 있거나 제3자 결제 처리기가 네트워크를 통해 상기 시스템과 통신할 수 있다. "결제 처리기"라는 용어는 본 명세서에서 가능한 가장 넓은 의미로 사용되고, 화폐 수단들 및 암호화폐, 디지털 쿠폰, 할인 카드, 포인트 등과 같은 비화폐 수단들로 동작하는 임의의 기술을 포함하는 것으로 이해된다. 대체 불가능 토큰(NFT)의 구매는 본 명세서에서 대체 불가능 토큰을 사용하는 기술의 당업자가 이해할 수 있는 것으로 이해되며, 이러한 고유 권한은 NFT와 연관될 수 있고, 이들 권한은 임의의 적합한 블록체인 프로토콜을 포함하는 임의의 적합한 컴퓨팅 프로토콜에 의해 그의 구매자에게 전달될 수 있다.In another aspect of the technology, the system includes a payment processor adapted to identify a non-fungible token purchased by a user and assign corresponding non-fungible token rights to the user. For example, the payment processor may be integrated with the system, or a third-party payment processor may communicate with the system via a network. The term "payment processor" is used herein in the broadest sense possible and is understood to encompass any technology that operates with monetary instruments and non-monetary instruments such as cryptocurrencies, digital coupons, discount cards, points, etc. The purchase of a non-fungible token (NFT) is understood herein to be understood by those skilled in the art of using non-fungible tokens, and such unique rights may be associated with the NFT, and these rights may be conveyed to its purchaser by any suitable computing protocol, including any suitable blockchain protocol.
상기 기술의 또 다른 측면에서, 상기 시스템은 상기 라이브 이벤트의 디지털 트윈에 대체 불가능 토큰을 할당한다. 예를 들어, 상기 전체 디지털 트윈의 NFT의 소유자가 상기 디지털 트윈의 부분에 대한 추가의 하위 권한의 할당을 제어할 수 있도록, 상기 전체 디지털 트윈에 권한을 할당하는 것이 가능하다. 예를 들어, 상기 전체 디지털 트윈의 NFT의 소유자가 다수의 사용자에게 상기 디지털 트윈의 부분에 대한 추가의 하위 권한의 할당을 제어할 수 있도록 상기 전체 디지털 트윈에 권한을 할당하는 것이 가능하며, 이는 분할 소유권(fractionalized ownership)으로도 알려져 있다. In another aspect of the above technology, the system assigns a non-fungible token to the digital twin of the live event. For example, it is possible to assign permissions to the entire digital twin, such that the owner of the NFT of the entire digital twin can control the assignment of additional sub-permissions to portions of the digital twin. For example, it is possible to assign permissions to the entire digital twin, such that the owner of the NFT of the entire digital twin can control the assignment of additional sub-permissions to portions of the digital twin to multiple users, also known as fractionalized ownership.
상기 기술의 또 다른 측면에서, 상기 시스템은 그래픽 표현들을 생성하기 위해 인공 지능을 사용한다. 예를 들어, 상기 인공 지능 알고리즘은 상기 라이브 이벤트의 전체 디지털 트윈을 조립하기 전에 상기 디지털 트윈을 생성하기 위해 실생활 요소의 형상 및 치수의 디지털화를 근사화하는 방법을 결정하는 데 사용될 수 있다. 예를 들어, 상기 인공 지능은 무대의 형상, 공연자의 모습, 경기장의 크기, 운동 선수의 치수, 관중 좌석, 댄스 플로어, 매쉬 피트(mash pit), 군중, 테이블 및 의자를 갖는 식당 영역, 벽, 창문, 발코니, 악기, 스포츠 장비 등을 근사화할 수 있다. In another aspect of the technology, the system utilizes artificial intelligence to generate graphical representations. For example, the artificial intelligence algorithm may be used to determine how to approximate the digitized shapes and dimensions of real-world elements to create a digital twin of the live event before assembling the entire digital twin. For example, the artificial intelligence may approximate the shape of the stage, the appearance of the performers, the size of the stadium, the dimensions of the athletes, the seating arrangements of the audience, the dance floor, the mash pit, the crowd, the dining area with tables and chairs, walls, windows, balconies, musical instruments, sports equipment, and more.
상기 기술의 또 다른 측면에서, 상기 시스템은 사용자 장치에 의해 수신되는 데이터 스트림을 생성하고, 상기 데이터 스트림은 상기 사용자 장치에 사용자를 위한 증강 현실 효과를 생성하도록 명령하며, 이는 (a) 물리적 요소 상에 또는 홀로그램으로서의 그래픽 투영 및상기 라이브 이벤트 또는 실생활 요소의 디지털 트윈의 적어도 일부의 오디오 스트림 (b) 상기 라이브 이벤트 또는 실생활 요소의 디지털 트윈의 적어도 일부의 사용자를 위한 사용자 장치에 의한 그래픽 표현 및 오디오 스트림, 또는 (c) 본 명세서에서 설명되는 (a) 및 (b)의 조합을 포함한다. 이에 의해, 상기 사용자를 위해 생성된 증강 현실 효과는 상기 사용자 장치가 상기 디지털 트윈 증강 현실 환경으로 디지털화되는 물리적 위치의 경험을 사용자에게 전달하는 것을 가능하게 한다.In another aspect of the technology, the system generates a data stream that is received by a user device, the data stream instructing the user device to generate an augmented reality effect for the user, the augmented reality effect comprising (a) a graphical projection on a physical element or as a hologram and an audio stream of at least a portion of a digital twin of the live event or real-life element, (b) a graphical representation and an audio stream for the user of at least a portion of the digital twin of the live event or real-life element, or (c) a combination of (a) and (b) as described herein. Thereby, the augmented reality effect generated for the user enables the user device to convey to the user an experience of a physical location that is digitized into the digital twin augmented reality environment.
상기 기술의 제2 광범위한 측면에 따르면, 메타버스에서 상호작용형 가상 현실 환경을 생성하는 방법이 제공된다. 상기 환경은 그래픽 표현으로 디지털화된 실생활 요소들의 복수의 디지털 트윈들을 포함한다. 상기 복수의 디지털 트윈들은 시각 요소, 오디오 요소, 공간 요소 및 촉각 요소(tactitional element) 중 적어도 하나로 구성될 수 있다. 예를 들어, 시각 요소는 캡처된 비디오의 그래픽 표현, 즉 상기 캡처된 비디오가 처리되어 메타버스에 통합될 수 있는 적절한 파일 형식으로 디지털화된 후의 것이다. 예를 들어, 그것은 비디오 게임과 같은 그래픽 표현일 수 있거나, 컴퓨터 생성 가상 현실과 같은 그래픽 표현일 수도 있다. 상기 시각 요소는 자신의 아바타가 다양한 각도에서 메타버스를 관찰할 때 자신의 사용자 장치를 통해 자신의 아바타의 눈을 통해 볼 수 있는 그래픽 표현이다. 예를 들어, 오디오 요소는 사용자가 자신의 사용자 장치를 통해 듣는 오디오 트랙일 수 있다. 공간 요소는 예를 들어, 사용자의 아바타가 상기 메타버스의 가상 현실 환경에서 한 위치 또는 다른 위치로 이동해야 하는 거리 또는 상기 아바타가 바라보거나 물체를 던지거나 소리를 들을 수 있는 방향 등을 결정할 수 있는 컴퓨터 코드일 수 있다. 촉각 요소(tactitial element)는 예를 들어 사용자가 상기 메타버스와 상호 작용하는 동안 상기 사용자의 장치 인터페이스를 통해 느낄 수 있는 촉각적 감각(tacit sensation)을 시뮬레이션하기 위해 사용자의 장치에 명령을 생성하는 것을 목표로 하는 컴퓨터 코드일 수 있다. 상기 촉각적 감각은 예를 들어 진동, 밀림, 전기 펄스, 온도 차이 등일 수 있다. 상기 촉각 요소는 상기 사용자의 장치에 통합된 메커니즘에 의해 생성되고, 사용자를 참여시키기 위해 상기 장치에 명령을 전송하여 시스템에 의해 제어될 수 있고, 예를 들어, 사용자가 상기 메타버스에서 진동하는 물체를 만지면 사용자의 장치가 이에 따라 진동할 수 있다. 상기 디지털 트윈의 가상 현실 환경은 복잡한 컴퓨팅 작업을 쉽게 수행하고 및/또는 사용자의 장치와 상기 메타버스 호스팅 서버들 간의 통신을 용이하게 하기 위해 분산 원장 기술(distributed ledger technology)에 연결될 수 있다. 상기 방법은 이하 단계를 포함한다:According to a second broad aspect of the technology, a method for creating an interactive virtual reality environment in a metaverse is provided. The environment comprises a plurality of digital twins of real-world elements digitized into graphical representations. The plurality of digital twins may comprise at least one of a visual element, an audio element, a spatial element, and a tactical element. For example, the visual element may be a graphical representation of captured video, i.e., after the captured video has been processed and digitized into a suitable file format that can be integrated into the metaverse. For example, the visual element may be a graphical representation, such as a video game, or a graphical representation, such as a computer-generated virtual reality. The visual element may be a graphical representation that a user can see through the eyes of their avatar when viewing the metaverse from various angles through their user device. For example, the audio element may be an audio track that a user hears through their user device. The spatial element may be computer code that determines, for example, the distance a user's avatar must travel from one location to another in the virtual reality environment of the metaverse, or the direction in which the avatar can look, throw an object, or hear a sound. A tactile element may be, for example, computer code that generates commands to a user's device to simulate tactile sensations that the user may experience through the user's device interface while interacting with the metaverse. The tactile sensations may be, for example, vibrations, pushes, electrical pulses, temperature differences, etc. The tactile element may be generated by a mechanism integrated into the user's device and may be controlled by the system by sending commands to the device to engage the user, for example, when the user touches a vibrating object in the metaverse, the user's device may vibrate accordingly. The virtual reality environment of the digital twin may be connected to distributed ledger technology to facilitate complex computing tasks and/or communication between the user's device and the metaverse hosting servers. The method comprises the following steps:
(ⅰ) 다음을 실행하여 상기 실생활 요소의 디지털 트윈을 생성하는 단계(i) A step of creating a digital twin of the above real-life element by executing the following:
(a) 비디오를 캡처하여 상기 디지털 표현인 상기 시각 요소를 생성하고, 오디오를 레코딩하여 그것의 대응하는 디지털 오디오 요소인 오디오 요소를 생성하고, 상기 디지털 트윈 내 객체의 촉각적 특성을 결정하여 촉각 요소를 생성하고, 상기 디지털 트윈의 가상 현실 환경에서 형상들 및/또는 공간들 사이의 거리 및 공간 좌표들을 측정하여 공간 요소를 생성하는 것, 및 (a) capturing video to generate the visual element which is the digital representation, recording audio to generate an audio element which is its corresponding digital audio element, determining tactile characteristics of an object within the digital twin to generate a tactile element, and measuring distances and spatial coordinates between shapes and/or spaces in a virtual reality environment of the digital twin to generate a spatial element, and
(b) 상기 시각 요소, 상기 오디오 요소, 상기 공간 요소 및 상기 촉각 요소 중 하나에 대응하는 메타데이터를 레코딩하는 것;(b) recording metadata corresponding to one of the visual element, the audio element, the spatial element and the tactile element;
(ⅱ) 상기 디지털 트윈을 서버에 저장하는 단계;(ⅱ) a step of storing the digital twin on a server;
(ⅲ) 상기 시각 요소, 상기 오디오 요소, 상기 공간 요소 및 상기 촉각 요소 중 적어도 하나에 토큰들을 할당하는 단계;(ⅲ) a step of assigning tokens to at least one of the visual element, the audio element, the spatial element and the tactile element;
(ⅳ) 상기 서버를 메타버스 호스팅 서버에 연결하는 단계;(ⅳ) a step of connecting the server to a metaverse hosting server;
(ⅴ) 상기 디지털 트윈에 대응하는 상기 가상 현실 환경을 생성함으로써 상기 디지털 트윈을 상기 메타버스에 통합하는 단계; (ⅴ) a step of integrating the digital twin into the metaverse by creating the virtual reality environment corresponding to the digital twin;
(ⅵ) 사용자가 시각 요소, 오디오 요소, 공간 요소 및 촉각 요소 중 적어도 하나와 상호 작용할 수 있도록 함으로써 상기 가상 현실 환경 내에서 상호 작용하는 경험을 위해서 상기 가상 현실 환경에 대한 액세스를 사용자 장치에 제공하는 단계. (vi) providing a user device with access to the virtual reality environment for an interactive experience within the virtual reality environment by allowing the user to interact with at least one of a visual element, an audio element, a spatial element, and a tactile element.
상기 기술의 다른 측면에서, 서버에 상기 디지털 트윈을 저장하는 단계는 블록체인 기술에 의한 분산 방식으로 디지털 트윈을 저장하는 단계를 더 포함한다.In another aspect of the above technology, the step of storing the digital twin on the server further includes the step of storing the digital twin in a distributed manner using blockchain technology.
상기 기술의 또 다른 측면에서, 상기 방법은 사용자 장치와 토큰 데이터를 통신하는 단계를 더 포함한다. 예를 들어, 상기 토큰 데이터는 사용자에 의한 시각 요소, 오디오 요소, 공간 요소 및 촉각 요소 중 적어도 하나와의 상호작용 및/또는 권한 관리를 위해 사용될 수도 있다. In another aspect of the above technology, the method further comprises communicating token data with the user device. For example, the token data may be used for user interaction with at least one of a visual element, an audio element, a spatial element, and a tactile element, and/or for authorization management.
상기 기술의 또 다른 측면에서, 상기 토큰은 대체 불가능 토큰이다.In another aspect of the above technology, the token is a non-fungible token.
상기 기술의 또 다른 측면에서, 상기 가상 현실 환경에 대한 액세스를 사용자의 장치에 제공하는 단계는 통합된 모션 캡처 센서를 갖는 사용자의 웨어러블 장치, 인공 지능 안경, 가상 현실 안경, 바이노럴 사운드를 위한 인공 지능 이어폰, 가상 현실 헤드셋, 모바일 폰, 컴퓨터, 랩톱, 스마트워치, 게이밍 콘솔 및 메타버스 호스팅 서버에 의해 또는 미리 프로그래밍된 서버에 의한 크로스-네트워크 장치로부터 명령을 수신하는 단계를 포함한다. In another aspect of the technology, the step of providing access to the virtual reality environment to the user's device comprises receiving commands from the user's wearable device having an integrated motion capture sensor, artificial intelligence glasses, virtual reality glasses, artificial intelligence earphones for binaural sound, virtual reality headset, mobile phone, computer, laptop, smartwatch, gaming console and cross-network devices by the metaverse hosting server or by a pre-programmed server.
상기 기술의 또 다른 측면에서, 거리 및 공간 좌표를 측정하는 단계는 상기 시각 요소의 형상, 제1시각 요소 및 제2시각 요소의 거리 및 이동하는 시각 요소와 연관된 속도 중 적어도 하나를 결정하는 단계를 포함한다. In another aspect of the technology, the step of measuring distance and spatial coordinates comprises determining at least one of a shape of the visual element, a distance between the first visual element and the second visual element, and a velocity associated with the moving visual element.
상기 기술의 또 다른 측면에서, 구매된 토큰과 구매된 토큰의 대응하는 권한을 식별하도록 적응된 결제 처리기를 연결하는 단계를 더 포함한다. In another aspect of the above technology, the method further comprises the step of connecting a payment processor adapted to identify a purchased token and a corresponding authorization of the purchased token.
상기 기술의 또 다른 측면에서, 상기 가상 현실 환경에 대한 액세스를 제공하는 단계는 상기 사용자가 가상 현실 환경 내의 임의의 위치로 자신의 디지털 자아(digital self)를 진입(launch)시키는 것을 허용하는 단계를 포함한다. In another aspect of the technology, the step of providing access to the virtual reality environment comprises the step of allowing the user to launch his or her digital self into any location within the virtual reality environment.
상기 기술의 또 다른 측면에서, 상기 방법은 상기 디지털 트윈의 가상 현실 환경에 기초하여 상기 메타버스의 일부를 생성하는 단계를 더 포함한다.In another aspect of the technology, the method further comprises the step of generating a portion of the metaverse based on a virtual reality environment of the digital twin.
상기 기술의 또 다른 측면에서, 상기 방법은 다수의 디지털 트윈에 대응하는 다수의 가상 현실 환경을 생성하는 단계를 더 포함한다. In another aspect of the above technology, the method further comprises the step of generating a plurality of virtual reality environments corresponding to the plurality of digital twins.
상기 기술의 또 다른 양태에서, 상기 방법은 다수의 디지털 트윈을 상기 가상 현실 환경에 통합하는 단계를 더 포함한다. In another aspect of the above technology, the method further comprises the step of integrating a plurality of digital twins into the virtual reality environment.
상기 기술의 또 다른 양태에서, 상기 방법은 상기 디지털 트윈 내의 디지털화를 위해 실생활 요소를 선택하는 단계를 더 포함한다. 예를 들어, 상기 단계는 어느 실생활 요소가 디지털화되어 가상 현실 환경 내의 디지털 요소로서 추가될 것인지, 그리고 상기 캡처된 비디오, 레코딩된 오디오, 측정된 공간 데이터, 측정된 촉각 데이터의 일부인 어떤 요소들이 디지털 트윈으로부터 생략되고 및/또는 메타버스 내에서 생성되는 최종 가상 현실 환경으로부터 삭제될지를 결정하는 것을 포함한다. 다른 실시예에서, 실생활 요소를 선택하는 단계는 시각 요소, 오디오 요소, 촉각 요소, 공간 요소 또는 이들의 조합으로서 표현되는 실생활 요소의 근사치를 생성하는 단계를 포함한다. 상기 근사치는 가상 현실 환경의 원하는 특성에 따라 대략적이거나 상세화될 수 있다.In another aspect of the above technology, the method further comprises selecting real-world elements for digitization within the digital twin. For example, the step may include determining which real-world elements will be digitized and added as digital elements within the virtual reality environment, and which elements that are part of the captured video, recorded audio, measured spatial data, and measured tactile data will be omitted from the digital twin and/or deleted from the final virtual reality environment generated within the metaverse. In another embodiment, the step of selecting real-world elements comprises generating an approximation of the real-world elements, which is represented as a visual element, an audio element, a tactile element, a spatial element, or a combination thereof. The approximation may be coarse or detailed, depending on the desired characteristics of the virtual reality environment.
상기 기술의 제3광범위한 측면에 따르면, 가상 현실 환경에서 3-d 그래픽 표현을 생성하는 시스템에 의해 동작되는 방법이 제공된다. 상기 3-d 그래픽 표현은 실생활 요소 또는 라이브 이벤트에 대응한다. 상기 시스템은 네트워크에 연결된다. 상기 시스템은 비디오 캡처 장치, 대응하는 메타데이터 레코딩 장치, 오디오 레코딩 장치, 비디오 캡처 장치, 오디오 레코딩 장치, 메타데이터 레코딩 장치로부터 데이터를 수신하도록 구성된 서버를 포함한다. 상기 서버는 상기 캡처된 비디오, 레코딩된 오디오 및 레코딩된 대응하는 메타데이터를 분석할 뿐만 아니라 상기 캡처된 비디오의 이미지에 보여지고 대응하는 메타데이터에 의해 적어도 부분적으로 식별되는 객체들을 디지털화하여 상기 실생활 요소 또는 라이브 이벤트의 상기 3-d 그래픽 표현을 생성하도록 구성된 컴퓨팅 모듈을 동작시킨다. 상기 방법은 다음의 단계들을 포함한다: According to a third broad aspect of the technology, a method is provided, which is operated by a system for generating a 3-D graphical representation in a virtual reality environment. The 3-D graphical representation corresponds to a real-world element or a live event. The system is connected to a network. The system includes a video capture device, a corresponding metadata recording device, an audio recording device, and a server configured to receive data from the video capture device, the audio recording device, and the metadata recording device. The server operates a computing module configured to analyze the captured video, the recorded audio, and the corresponding recorded metadata, as well as to digitize objects that appear in the images of the captured video and are at least partially identified by the corresponding metadata to generate the 3-D graphical representation of the real-world element or the live event. The method comprises the following steps:
a. 상기 캡처된 비디오의 이미지에 보여지는 객체들에 기초하여, 상기 캡처된 비디오의 이미지에 보여지는 객체들 사이의 거리들을 결정하는 것에 기초하여, 그리고 분석된 대응하는 메타데이터에 기초하여 3-d 그래픽 표현 모델을 생성하는 단계; a. A step of generating a 3-D graphical representation model based on objects shown in an image of the captured video, based on determining distances between objects shown in an image of the captured video, and based on analyzed corresponding metadata;
b. 오디오 트랙을 상기 3-d 그래픽 표현의 요소에 연결하는 단계; b. a step of linking an audio track to an element of the 3-d graphic representation;
c. 상기 서버에 3-d 그래픽 표현을 저장하는 단계; c. A step of storing a 3-d graphic representation in the above server;
d. 상기 서버를 메타버스 호스팅 서버에 연결하는 단계; d. A step of connecting the above server to a metaverse hosting server;
e. 상기 3-d 그래픽 표현에 대응하는 상기 가상 현실 환경을 생성함으로써 상기 3-d 그래픽 표현을 상기 메타버스에 통합하는 단계; e. A step of integrating the 3-D graphic representation into the metaverse by creating the virtual reality environment corresponding to the 3-D graphic representation;
f. 상기 가상 현실 환경에 대한 액세스를 사용자의 장치에 제공하는 단계. f. A step of providing access to the virtual reality environment to the user's device.
상기 방법은 또한 상기 실생활 요소에 대응하는 물리적 공간의 좌표 행렬을 생성하고, 상기 실생활 요소의 적어도 일부의 3-d 그래픽 표현을 생성할 수 있다. The method can also generate a coordinate matrix of a physical space corresponding to the real-life element, and generate a 3-D graphical representation of at least a portion of the real-life element.
상기 방법은 또한 상기 캡처된 비디오의 이미지에 도시된 객체의 촉각적 특성을 결정하고, 이들 특성을 사용자의 장치 또는 사용자의 아바타와의 미래의 상호작용을 위해 상기 3-d 그래픽 표현에 할당할 수 있다. The method may also determine tactile characteristics of objects depicted in images of the captured video and assign these characteristics to the 3-D graphical representation for future interactions with the user's device or the user's avatar.
상기 방법은 또한 상기 3-d 그래픽 표현의 공간 좌표를 결정하고, 이들 좌표를 상기 캡처된 비디오의 이미지에 도시된 객체에 할당할 수 있다.The method can also determine spatial coordinates of the 3-D graphical representation and assign these coordinates to objects depicted in the images of the captured video.
상기 방법은 또한 사용자가 상기 캡처된 비디오의 이미지에 도시된 객체의 디지털 트윈과 상호작용할 수 있게 함으로써 상기 가상 현실 환경 내에서의 상호작용 경험을 가능하게 할 수 있다.The method may also enable an interactive experience within the virtual reality environment by allowing a user to interact with a digital twin of an object depicted in an image of the captured video.
본 기술의 제4광범위한 측면에 따르면, 적어도 하나의 실생활 요소에 대응하는, 상호작용형 가상 현실 환경에서 디지털 트윈을 생성하는 시스템이 제공된다. 상기 시스템은 네트워크에 연결된다. 상기 시스템은 비디오 캡처 장치, 대응하는 메타데이터 레코딩 장치, 오디오 레코딩 장치, 비디오 캡처 장치, 오디오 레코딩 장치, 메타데이터 레코딩 장치로부터 데이터를 수신하도록 구성된 서버를 포함한다. 상기 서버는 (a) 상기 캡처된 비디오, 레코딩된 오디오 및 레코딩된 대응하는 메타데이터를 분석하고, (b) 상기 캡처된 비디오에서의 객체들의 형상 및 상기 캡처된 비디오에서의 객체들 사이의 거리를 결정하고, (c) 상기 실생활 요소의 디지털 트윈을 포함하는 3-d 가상 공간의 좌표 행렬을 결정하도록 구성된 컴퓨팅 모듈을 동작시킨다. According to a fourth broad aspect of the present technology, a system is provided for generating a digital twin in an interactive virtual reality environment corresponding to at least one real-world element. The system is connected to a network. The system includes a video capture device, a corresponding metadata recording device, an audio recording device, and a server configured to receive data from the video capture device, the audio recording device, and the metadata recording device. The server operates a computing module configured to (a) analyze the captured video, the recorded audio, and the corresponding recorded metadata, (b) determine shapes of objects in the captured video and distances between objects in the captured video, and (c) determine a coordinate matrix of a 3-D virtual space comprising a digital twin of the real-world element.
본 기술의 제5광범위한 측면에 따르면, 실생활 요소의 디지털 트윈에 대응하는 상호작용형 가상 현실 환경을 통합하기 위한 시스템이 제공된다. 상기 시스템은 네트워크에 연결된다. 상기 시스템은 비디오 캡처 장치, 대응하는 메타데이터 레코딩 장치, 오디오 레코딩 장치, 비디오 캡처 장치, 오디오 레코딩 장치, 메타데이터 레코딩 장치로부터 데이터를 수신하도록 구성된 서버를 포함한다. 상기 서버는 (a) 비디오 캡처 장치에 의해 캡처되고 오디오 장치에 의해 레코딩되거나 메타데이터 장치에 의해 레코딩된 실생활 요소 사이의 공간 깊이를 결정하기 위해, 상기 캡처된 비디오, 레코딩된 오디오 및 레코딩된 대응하는 메타데이터를 분석하고, (b) 실생활 요소의 형상들을 근사화하고, (c) 디지털화에 적합한 실생활 요소를 결정하고, (d) 실생활 요소의 적어도 일부의 디지털 트윈을 생성하도록 구성된 컴퓨팅 모듈을 동작시킨다. 상기 서버는 상호작용형 가상 현실 환경을 상기 메타버스에 통합하기 위해 메타버스 호스팅 서버에 데이터를 전송하도록 구성된다. According to a fifth broad aspect of the present technology, a system is provided for integrating an interactive virtual reality environment corresponding to a digital twin of a real-world element. The system is connected to a network. The system includes a video capture device, a corresponding metadata recording device, an audio recording device, and a server configured to receive data from the video capture device, the audio recording device, and the metadata recording device. The server operates a computing module configured to (a) analyze the captured video, the recorded audio, and the corresponding recorded metadata to determine a spatial depth between the real-world element captured by the video capture device and recorded by the audio device or recorded by the metadata device, (b) approximate the shapes of the real-world element, (c) determine the real-world element suitable for digitization, and (d) generate a digital twin of at least a portion of the real-world element. The server is configured to transmit the data to a metaverse hosting server to integrate the interactive virtual reality environment into the metaverse.
본 기술의 제6광범위한 측면에 따르면, 라이브 음악 이벤트, 라이브 공연 예술 및 라이브 스포츠 이벤트로서 분류된 모든 이벤트를 모방하고, 전용하며, 디지털화된 공간의 분할된 데이터베이스를 제공하기 위해, 증강 현실, 혼합 현실, 가상 현실, 지오펜싱(geofencing), 암호화폐 및 다른 기술을 통합하는 계산 공간을 생성하는 시스템이 제공된다. According to a sixth broad aspect of the present technology, a system is provided for generating a computational space that integrates augmented reality, mixed reality, virtual reality, geofencing, cryptocurrency and other technologies to provide a segmented database of digitized spaces that mimic, dedicate and digitize all events classified as live music events, live performing arts and live sporting events.
상기 기술의 다른 실시예에서, 공유된 가상 또는 증강 현실 환경을 제공하기 위한 시스템 및 방법이 제공되어, 사용자의 아바타의 디지털 오버레이 스킨이 공유된 가상 또는 증강 현실 환경에서 다른 참가자들에 의해 보여질 수 있게 한다.In another embodiment of the above technology, a system and method for providing a shared virtual or augmented reality environment is provided, whereby a digital overlay skin of a user's avatar can be viewed by other participants in the shared virtual or augmented reality environment.
상기 기술의 또 다른 실시예에서, 동적 팝업 및/또는 광고를 포함하는 음악, 라이브 엔터테인먼트 및 스포츠 이벤트에 대한 다가오는 관련 이벤트의 증강 또는 가상 현실 환경에서 참가자에게 통지하기 위한 시스템 및 방법이 제공된다.In another embodiment of the above technology, a system and method are provided for notifying attendees in an augmented or virtual reality environment of upcoming related events for music, live entertainment and sporting events that include dynamic pop-ups and/or advertisements.
상기 기술의 또 다른 실시예에서, 메타버스에 통합된 "Play To Earn Gaming Framework"와 호환가능한 프로토콜을 통한 통신을 허용하는 애플리케이션 프로그래밍 인터페이스를 상기 디지털 트윈에 통합하기 위한 시스템 및 방법이 제공된다. In another embodiment of the above technology, a system and method are provided for integrating an application programming interface into the digital twin that allows communication via a protocol compatible with a "Play To Earn Gaming Framework" integrated into the metaverse.
상기 기술의 또 다른 실시예에서, 참가자들이 동적 팝업 및/또는 광고를 포함하는 증강 또는 가상 현실 환경에서 이벤트 관련 수집품들, 이벤트 티켓 또는 다른 아이템을 구매할 수 있게 하는 시스템 및 방법이 제공된다.In another embodiment of the above technology, a system and method are provided that allows participants to purchase event-related collectibles, event tickets, or other items in an augmented or virtual reality environment that includes dynamic pop-ups and/or advertisements.
상기 기술의 또 다른 측면에서, 상기 메타버스 이벤트는 상기 디지털 트윈에 대응하는 라이브 이벤트의 것과 상이할 수도 있다. 상기 가상 또는 증강 현실 몰입형 이벤트는 라이브 이벤트의 메인 디지털 트윈으로서 레코딩, 디지털화 및 방송되는 라이브 이벤트 장소의 가상 또는 증강 현실 환경에 더하여 다수의 가상 또는 증강 현실 환경들에서 호스팅될 수도 있다. 예를 들어, 상기 디지털 메타버스 이벤트 공간은 다른 방 또는 다른 장소로서 메타버스에서 표현될 수도 있는 시스템(100)에 의해 생성된 2차 가상 또는 증강 현실 환경을 가질 수도 있으며, 여기서, 주요 라이브 이벤트에 관련되거나 및/또는 관련되지 않은 가상 객체들이 제시될 수도 있다. 예를 들어, 이러한 가상 객체는 본 명세서에서 설명된 방법에 의해 생성되는 디지털 NFT 아트 갤러리들을 포함할 수도 있으며, 이에 의해, 이들 디지털 NFT 아트 갤러리들은 라이브 이벤트 가상 또는 증강 현실 환경의 디지털 트윈에 대응하는 원래의 장소 메타버스의 오프셋이다.In another aspect of the technology, the metaverse event may differ from the live event corresponding to the digital twin. The virtual or augmented reality immersive event may be hosted in multiple virtual or augmented reality environments in addition to the virtual or augmented reality environment of the live event venue that is recorded, digitized, and broadcast as the main digital twin of the live event. For example, the digital metaverse event space may have a secondary virtual or augmented reality environment generated by the system (100), which may be represented in the metaverse as another room or another location, where virtual objects related and/or unrelated to the main live event may be presented. For example, such virtual objects may include digital NFT art galleries generated by the methods described herein, whereby these digital NFT art galleries are offsets in the metaverse of the original venue corresponding to the digital twin of the live event virtual or augmented reality environment.
상기 기술의 또 다른 측면에서, 상기 기술은 빌딩, 도시 공간, 공원, 방, 경기장 등과 같은 실생활 물리적 환경과 상호작용하도록 구성된 증강 현실 환경을 포함한다. 상기 증강 현실 환경은 컴퓨터 처리기 및 데이터베이스를 갖는 서버에서 동작한다. 상기 서버는 상기 증강 현실 환경이 복수의 사용자 장치(예를 들어, 스마트폰, 컴퓨터, AR/VR 헤드셋 등)와 통신하는 것이 가능하도록 네트워크에 연결된다. 상기 증강 현실 환경은 임의의 적합한 컴퓨터 프로그램 및/또는 모바일 애플리케이션에 의해 사용자 장치와 통신할 수 있다. 상기 사용자 장치는 사용자 장치의 카메라에 의해 캡처된 것을 표시하도록 구성되며, 적어도 하나의 디지털 오버레이가 상기 증강 현실 환경에 의해 이미지에 추가된다. 일 실시예에서, 사용자 장치와 연관된 카메라 및/또는 LiDAR 시스템은 공간을 매핑하는 포인트 클라우드를 생성하도록 동작 가능하다. 상기 포인트 클라우드는 환경의 이미지뿐만 아니라 환경을 3차원 공간으로 매핑하기 위한 상기 환경 내 객체의 깊이 및 상대 각도들도제공한다. LiDAR 포인트 클라우드를 생성하는 방법들은 미국 특허 공개 20200/0158869호 및 2019/0244378호에 설명되어 있으며, 이들 각각은 그 전체가 본 명세서에 참조로 포함된다.In another aspect of the technology, the technology includes an augmented reality environment configured to interact with a real-world physical environment, such as a building, an urban space, a park, a room, a stadium, etc. The augmented reality environment operates on a server having a computer processor and a database. The server is connected to a network so that the augmented reality environment can communicate with multiple user devices (e.g., smartphones, computers, AR/VR headsets, etc.). The augmented reality environment can communicate with the user devices via any suitable computer program and/or mobile application. The user devices are configured to display what is captured by a camera of the user device, and at least one digital overlay is added to the image by the augmented reality environment. In one embodiment, a camera and/or LiDAR system associated with the user device is operable to generate a point cloud that maps the space. The point cloud provides not only an image of the environment, but also depth and relative angles of objects within the environment for mapping the environment into three-dimensional space. Methods for generating LiDAR point clouds are described in U.S. Patent Publication Nos. 20200/0158869 and 2019/0244378, each of which is incorporated herein by reference in its entirety.
상기 기술의 또 다른 측면에서, 상기 가상 또는 증강 현실 환경은 이와 상호작용하는 사용자의 프로필을 레코딩하도록 구성된다. 각 사용자 프로필은 사용자 연관 데이터, 예를 들어, 선호도, 연령, 성별, 하나 이상의 암호화폐 및/또는 하나 이상의 화폐에 관한 정보를 저장하도록 구성되는 연관된 디지털 지갑 등을 갖는다.In another aspect of the above technology, the virtual or augmented reality environment is configured to record the profile of a user interacting with it. Each user profile has an associated digital wallet configured to store user-related data, such as preferences, age, gender, information about one or more cryptocurrencies, and/or one or more currencies.
상기 기술의 또 다른 측면에서, 상기 가상 또는 증강 현실 환경은 가상 또는 증강 현실 환경 내의 상품을 구매하고, 상기 환경 내의 이벤트에 대해 결제하고, 상기 환경 내의 이벤트 및/또는 게임에 대해 베팅하고 및/또는 상기 환경 내의 특정 영역에 액세스하는데 사용되도록 구성된 미리 결정된 암호화폐와 연관된다. 예를 들어, 상기 암호화폐는 상기 가상 또는 증강 현실 환경 및/또는 상기 메타버스에 고유한(native) 암호화폐일 수 있고, 상기 가상 또는 증강 현실 환경 내에서 교환되도록만 동작 가능하다. 일 실시예에서, 상기 암호화폐가 사용될 수 있는 영역은 적어도 하나의 지오펜스(geofence)에 의해 정의된다.In another aspect of the technology, the virtual or augmented reality environment is associated with a predetermined cryptocurrency configured to be used to purchase goods within the virtual or augmented reality environment, pay for events within the environment, place bets on events and/or games within the environment, and/or access specific areas within the environment. For example, the cryptocurrency may be a cryptocurrency native to the virtual or augmented reality environment and/or the metaverse, and is operable only to be exchanged within the virtual or augmented reality environment. In one embodiment, the area in which the cryptocurrency can be used is defined by at least one geofence.
상기 기술의 또 다른 측면에서, 상기 가상 또는 증강 현실 환경의 상이한 영역은 고유 식별자들, 예를 들어, ID 번호, 암호화폐 토큰, QR 코드, 바코드 등으로 표시된다. 예를 들어, 상기 식별자들은 이미지들, 소리들, 3차원 객체들, 포인트 클라우드 표현들 등일 수 있다.In another aspect of the technology, different areas of the virtual or augmented reality environment are marked with unique identifiers, such as ID numbers, cryptocurrency tokens, QR codes, barcodes, etc. For example, the identifiers may be images, sounds, three-dimensional objects, point cloud representations, etc.
가상 또는 증강 현실 환경 내에 있거나 이와 연관된 데이터는 상기 가상 또는 증강 현실 환경을 호스팅하는 서버의 중앙집중형 또는 분산형 데이터베이스에 저장되는 것으로 이해된다. 상기 가상 또는 증강 현실 환경 내의 모든 가상 객체는 고유 식별자에 의해 인덱싱된다. 일부 실시예에서, 상기 고유 식별자는 상대적 광 레벨, 고도, 위치 색상, 위치 목적(예를 들어, 게임실, 상점, 복도 등) 및/또는 다른 고유 식별자들과 비교한 그것의 상대적 위치에 관한 정보와 연관될 수 있다. 상기 고유 식별자와 연관된 정보는 해당 고유 식별자들 위에 어떤 디지털 오버레이가 제공되는지를 결정하는데 사용된다.Data within or associated with a virtual or augmented reality environment is understood to be stored in a centralized or distributed database on a server hosting the virtual or augmented reality environment. Every virtual object within the virtual or augmented reality environment is indexed by a unique identifier. In some embodiments, the unique identifier may be associated with information regarding relative light levels, elevation, location color, location purpose (e.g., game room, store, hallway, etc.), and/or its relative position relative to other unique identifiers. Information associated with the unique identifier is used to determine which digital overlay is provided over the corresponding unique identifier.
상기 기술의 또 다른 측면에서, 상기 가상 또는 증강 현실 환경은 목적지로서 지리적 위치(geolocation)의 선택을 가능하게 한다. 상기 지리적 위치가 선택될 때, 상기 가상 또는 증강 현실 환경은 선택을 행하는 사용자 장치 내의 적어도 하나의 지리적 위치 센서로부터의 센서 데이터의 수집을 통해 선택의 원점(point of origin ((예를 들어, 목적지 지리적 위치가 선택될 때 사용자가 있는 위치)을 자동으로 결정한다. 다른 실시형태에서, 선택의 원점은 그 전체가 본 명세서에 참조로 포함되는 미국 특허 공개 번호 2017/0295461호에서와 같이, 당업계에 알려진 방법을 통해(예를 들어, WI-FI, BLUETOOTH, WIMAX 등에 기초하여) 사용자 장치와 복수의 비컨들(beacons) 사이의 수신 신호 강도 표시(RSSI)를 통해 결정된다. 선택된 목적지 지리적 위치 및 결정된 원점 지리적 위치를 사용하여, 증강 현실 플랫폼은 그 전체가 본 명세서에 참조로 포함되는 미국 특허 번호 9,886,036호에 설명된 바와 같이, 당업계에서 사용되는 임의의 방법을 사용하여 2개의 위치 사이의 최적의 경로(예를 들어, 트래픽을 고려한 최단 경로)를 자동으로 생성한다.In another aspect of the above technology, the virtual or augmented reality environment enables selection of a geolocation as a destination. When the geographic location is selected, the virtual or augmented reality environment automatically determines a point of origin of the selection (e.g., where the user is when the destination geographic location is selected) through the collection of sensor data from at least one geographic location sensor within the user device making the selection. In another embodiment, the point of origin of the selection is determined via received signal strength indication (RSSI) between the user device and a plurality of beacons (e.g., based on WI-FI, BLUETOOTH, WIMAX, etc.) using methods known in the art, such as those described in U.S. Patent Publication No. 2017/0295461, which is incorporated herein by reference in its entirety. Using the selected destination geographic location and the determined origin geographic location, the augmented reality platform automatically generates an optimal route (e.g., a traffic-aware shortest route) between the two locations using any method known in the art, such as those described in U.S. Patent No. 9,886,036, which is incorporated herein by reference in its entirety.
상기 기술의 또 다른 측면에서, 지오펜스 기술이 사용된다. 본 명세서에 기술된 지오펜스는 종래 기술, 예컨대 미국 특허 번호 10,375,514호, 10,841,734호, 10,834,212호 및 10,979,849호에 기술된 바와 같이 생성되며, 이들 각각은 그 전체가 본 명세서에 참조로 포함된다.In another aspect of the above technology, geofencing technology is utilized. The geofences described herein are created as described in prior art, such as U.S. Patent Nos. 10,375,514, 10,841,734, 10,834,212, and 10,979,849, each of which is incorporated herein by reference in its entirety.
상기 기술의 또 다른 측면에서, 상기 가상 또는 증강 현실 환경은 미국 특허 제9,275,269호에 설명된 것과 같은 당업계에 알려진 임의의 얼굴 인식 기술을 사용하여, 사용자의 얼굴 인식에 기초하여 다른 사용자를 인식하며, 이는 그 전체가 본 명세서에 참조로 포함된다.In another aspect of the technology, the virtual or augmented reality environment recognizes another user based on facial recognition of the user, using any facial recognition technology known in the art, such as described in U.S. Patent No. 9,275,269, which is incorporated herein by reference in its entirety.
상기 가상 또는 증강 현실 환경은 네트워크에 접속된 컴퓨터 시스템에서 동작하며, 복수의 컴퓨팅 장치들, 서버, 및 데이터베이스를 갖는다. 상기 서버는 네트워크를 통해 복수의 컴퓨팅 장치들과 통신하도록 구성된다. 상기 서버는 통상적으로, 당업계에 공지된 바와 같이 운영 체제를 갖는 프로세싱 유닛을 포함한다. 상기 운영 체제는 상기 가상 또는 증강 현실 환경을 생성 및 운영적으로 유지하기 위해 컴퓨터 프로그램을 실행한다. 상기 데이터베이스는 통상적으로, 상기 운영 체제를 동작시키는데 필요한 데이터, 메모리 및 상기 가상 또는 증강 현실 환경을 생성 및 유지하는데 필요한 프로그램을 저장하는데 사용된다.The virtual or augmented reality environment operates on a computer system connected to a network and includes a plurality of computing devices, a server, and a database. The server is configured to communicate with the plurality of computing devices via the network. The server typically includes a processing unit having an operating system, as is known in the art. The operating system executes computer programs to create and operationally maintain the virtual or augmented reality environment. The database is typically used to store data, memory, and programs necessary to operate the operating system and to create and maintain the virtual or augmented reality environment.
본 명세서의 맥락에서, 달리 구체적으로 제공되지 않는 한, "서버"는 적절한 하드웨어 상에서 실행되고 네트워크를 통해 요청을 수신하고(예를 들어, 장치로부터), 요청을 수행하거나 요청이 수행되도록 할 수 있는 컴퓨터 프로그램이다. 상기 하드웨어는 하나의 물리적 컴퓨터 또는 하나의 물리적 컴퓨터 시스템일 수 있지만, 본 기술과 관련하여 둘다 그럴 필요는 없다. 본 맥락에서, "서버" 라는 표현의 사용은 모든 작업(예를 들어, 수신된 명령 또는 요청) 또는 임의의 특정 작업이 동일한 서버(즉, 동일한 소프트웨어 및/또는 하드웨어)에 의해 수신되거나, 수행되거나 또는 수행되게 하는 것을 의미하려는 의도가 아니며; 임의의 수의 소프트웨어 요소 또는 하드웨어 장치가 임의의 작업 또는 요청을 수신/전송, 수행 또는 수행되도록 하는데 관련될 수 있으며, 어떠한 작업 또는 요청의 결과도 이에 포함될 수 있음을 의미한다; 또한 이러한 소프트웨어 및 하드웨어 모두는 하나의 서버 또는 다수의 서버일 수 있으며, 이들 둘 모두는 표현 "적어도 하나의 서버" 내에 포함된다.In the context of this specification, unless specifically provided otherwise, a "server" is a computer program running on suitable hardware that receives requests over a network (e.g., from a device) and performs the requests or causes requests to be performed. The hardware may be a single physical computer or a single physical computer system, but need not be both in the context of the present disclosure. In this context, the use of the expression "server" is not intended to imply that all operations (e.g., received commands or requests) or any particular operation are received, performed, or caused to be performed by the same server (i.e., the same software and/or hardware); it is intended that any number of software components or hardware devices may be involved in receiving/transmitting, performing, or causing to be performed any operation or request, and the results of any operation or request may be included therein; furthermore, all such software and hardware may be one server or multiple servers, both of which are encompassed within the expression "at least one server."
본 명세서의 맥락에서, 달리 구체적으로 제공되지 않는 한, "모듈"은 적절한 하드웨어에서 실행되고 일부 계산 작업을 수행하거나 그러한 작업이 수행되게 할 수 있는 컴퓨터 프로그램이다. 용어 "모듈"은 "서버"보다 더 넓은 기술적 의미를 갖는 것을 의미하며, 어떠한 하드웨어에도 구속되지 않는다. 용어 "모듈"은 하나 이상의 모듈들을 의미할 수 있으며, 모듈들 또는 그와 함께 사용되는 하드웨어의 임의의 조합으로 제한되지 않는다.In the context of this specification, unless specifically provided otherwise, a "module" is a computer program that runs on suitable hardware and performs or causes some computational task to be performed. The term "module" has a broader technical meaning than "server" and is not bound to any specific hardware. The term "module" may refer to one or more modules, and is not limited to any combination of modules or hardware used therewith.
본 명세서의 맥락에서, 달리 구체적으로 제공되지 않는 한, "장치"는 당면한 관련 작업에 적절한 소프트웨어를 실행할 수 있는 임의의 컴퓨터 하드웨어이다. 따라서, 장치의 일부 (비제한적인) 예들은 개인용 컴퓨터 (데스크탑, 랩탑, 넷북 등), 스마트폰 및 태블릿 뿐만 아니라 라우터, 스위치 및 게이트웨이와 같은 네트워크 장비를 포함한다. 본 맥락에서 사용자 장치로서 동작하는 장치는 서버 또는 모듈로서 다른 장치에 대해 동작하는 것이 배제되지 않는다는 점에 유의해야 한다. "장치"라는 표현의 사용은 임의의 작업 또는 요청 또는 임의의 작업 또는 요청의 결과 또는 본 명세서에 설명된 임의의 방법의 단계의 수신/송신, 수행 또는 수행되게 하는데 사용되는 다수의 장치를 배제하지 않는다.In the context of this specification, unless specifically provided otherwise, a "device" is any computer hardware capable of executing software appropriate for the relevant task at hand. Thus, some (non-limiting) examples of devices include personal computers (desktops, laptops, netbooks, etc.), smartphones and tablets, as well as network equipment such as routers, switches, and gateways. It should be noted that a device operating as a user device in this context is not excluded from operating as a server or module with respect to another device. The use of the expression "device" does not exclude multiple devices used to receive/transmit, perform, or cause to be performed any operation or request, or the result of any operation or request, or any method step described herein.
본 명세서의 맥락에서, 달리 구체적으로 제공되지 않는 한, "데이터베이스"는 그의 특정 구조, 데이터베이스 관리 소프트웨어 또는 데이터가 저장되거나 구현되거나 또는 그렇지 않으면 사용을 위해 이용가능하게 랜더링되는 컴퓨터 하드웨어에 관계없이, 데이터의 임의의 구조화된 집합이다. 데이터베이스는 상기 데이터베이스에 저장된 정보를 저장하거나 사용하는 프로세스와 동일한 하드웨어에 존재할 수 있거나 또는 전용 서버 또는 복수의 서버들과 같은 별개의 하드웨어에 존재할 수 있다.In the context of this specification, unless specifically provided otherwise, a "database" is any structured collection of data, regardless of its specific structure, database management software, or computer hardware on which the data is stored, implemented, or otherwise rendered available for use. A database may reside on the same hardware as the processor that stores or uses the information contained in the database, or it may reside on separate hardware, such as a dedicated server or multiple servers.
본 명세서의 맥락에서, 달리 구체적으로 제공되지 않는 한, "정보" 라는 표현은 데이터베이스에 저장될 수 있는 어떠한 성질 또는 종류의 정보를 포함한다. 따라서, 상기 정보는 시청각 저작물(이미지, 영화, 사운드 레코드, 프리젠테이션 등), 데이터(위치 데이터, 수치 데이터 등), 텍스트(의견, 댓글, 질문, 메시지 등), 문서, 스프레드시트 등을 포함하지만, 이들로 제한되지 않는다. In the context of this specification, unless specifically provided otherwise, the term "information" encompasses any nature or type of information that can be stored in a database. Accordingly, such information includes, but is not limited to, audiovisual works (e.g., images, movies, sound recordings, presentations, etc.), data (e.g., location data, numerical data, etc.), text (e.g., opinions, comments, questions, messages, etc.), documents, spreadsheets, etc.
본 명세서의 문맥에서, 달리 구체적으로 제공되지 않는 한, 표현 "구성요소(component)"는 참조되는 특정 기능(들)을 달성하기에 충분하고 필요한 소프트웨어(특정 하드웨어 문맥에 적절함)를 포함하는 것을 의미한다.In the context of this specification, unless specifically provided otherwise, the expression "component" means including software (as appropriate to the particular hardware context) sufficient and necessary to achieve the particular function(s) referenced.
본 명세서의 문맥에서, 달리 구체적으로 제공되지 않는 한, 표현 "디지털 표현" 및 "그래픽 표현"은 상호 교환가능하게 사용된다.In the context of this specification, unless specifically provided otherwise, the expressions “digital representation” and “graphical representation” are used interchangeably.
본 명세서에서, 특별히 달리 규정하지 않는 한, "컴퓨터 사용가능 정보 저장 매체"라는 표현은 RAM, ROM, 디스크(CD-ROM, DVD, 플로피 디스크, 하드 드라이브 등), USB 키, 솔리드 스테이트 드라이브, 테이프 드라이브 등을 포함하여 어떠한 성질 및 종류의 매체도 포함하는 것으로 의도된다.In this specification, unless specifically stated otherwise, the expression "computer usable information storage media" is intended to include media of any nature and type, including RAM, ROM, disks (CD-ROM, DVD, floppy disks, hard drives, etc.), USB keys, solid state drives, tape drives, etc.
본 기술의 구현예들 각각은 전술한 목적 및/또는 측면 중 적어도 하나를 갖지만, 반드시 이들 모두를 가질 필요는 없다. 전술한 목적을 달성하려는 시도로부터 초래된 본 기술의 일부 측면들은 목적을 충족시키지 않을 수도 있고 및/또는 본 명세서에 구체적으로 인용되지 않은 다른 목적을 충족시킬 수도 있다는 것을 이해해야 한다.Each embodiment of the present technology has at least one of the aforementioned objectives and/or aspects, but not necessarily all of them. It should be understood that some aspects of the present technology resulting from attempts to achieve the aforementioned objectives may not satisfy the aforementioned objectives and/or may satisfy other objectives not specifically recited herein.
본 기술의 구현의 추가적인 및/또는 대안적인 특징, 측면 및 이점은 다음의 설명, 첨부 도면 및 첨부된 청구항으로부터 명백해질 것이다.Additional and/or alternative features, aspects and advantages of the implementation of the present technology will become apparent from the following description, the accompanying drawings and the appended claims.
본 기술의 더 나은 이해를 위해, 본 기술의 다른 측면들 및 추가적인 특징들뿐만 아니라, 첨부 도면들과 함께 사용될 다음의 설명을 참조하며, 여기서:
도 1은 본 기술의 일 실시예에 따라 구현되는 메타버스 및 사용자 장치들과 통신하는 시스템의 개략도이다;
도 2는 본 기술의 일 실시예에 따라 사용자 장치들과 통신하는 시스템의 대안적인 구현의 개략도이다;
도 3은 본 기술의 일 실시예에 따라 사용자 장치들과 통신하는 시스템의 다른 대안적인 구현의 개략도이다;
도 4는 본 기술의 일 실시예에 따라 사용자 장치들과 통신하는 시스템의 다른 대안적인 구현의 개략도이다;
도 5는 본 기술의 일 실시예에 따라 구현되는 다른 대안적인 방법의 블록도가 도시되어 있다;
도 6은 본 기술의 일 실시예에 따라 구현되는 다른 대안적인 방법의 블록도가 도시되어 있다;
도 7은 본 기술의 일 실시예에 따라 구현되는 다른 대안적인 방법의 블록도가 도시되어 있다;
도 8은 본 기술의 일 실시예에 따라 구현되는 3-D 디지털 트윈을 생성하는 방법의 블록도가 도시되어 있다;
도 9는 본 기술의 일 실시예에 따라 구현되는 3-D 디지털 트윈을 생성하는 다른 방법의 블록도가 도시되어 있다;
도 10은 본 기술의 일 실시예에 따라 구현되는 3-D 디지털 트윈을 생성하는 다른 방법의 블록도가 도시되어 있다;
도 11은 본 기술의 일 실시예에 따라 구현되는 가상 현실 환경과의 사용자 상호작용의 방법의 블록도가 도시되어 있다;
도 12는 본 기술의 일 실시예에 따라 구현되는 사용자 장치의 개략도이다.For a better understanding of the present technology, as well as other aspects and additional features of the technology, reference is made to the following description to be used in conjunction with the accompanying drawings, wherein:
FIG. 1 is a schematic diagram of a system for communicating with a metaverse and user devices implemented according to one embodiment of the present technology;
FIG. 2 is a schematic diagram of an alternative implementation of a system for communicating with user devices according to one embodiment of the present technology;
FIG. 3 is a schematic diagram of another alternative implementation of a system for communicating with user devices according to one embodiment of the present technology;
FIG. 4 is a schematic diagram of another alternative implementation of a system for communicating with user devices according to one embodiment of the present technology;
FIG. 5 is a block diagram of another alternative method implemented according to one embodiment of the present technology;
FIG. 6 is a block diagram of another alternative method implemented according to one embodiment of the present technology;
FIG. 7 is a block diagram of another alternative method implemented according to one embodiment of the present technology;
FIG. 8 is a block diagram illustrating a method for creating a 3-D digital twin implemented according to one embodiment of the present technology;
FIG. 9 is a block diagram of another method for creating a 3-D digital twin implemented according to one embodiment of the present technology;
FIG. 10 is a block diagram of another method for creating a 3-D digital twin implemented according to one embodiment of the present technology;
FIG. 11 is a block diagram illustrating a method of user interaction with a virtual reality environment implemented according to one embodiment of the present technology;
FIG. 12 is a schematic diagram of a user device implemented according to one embodiment of the present technology.
이제, 본 발명의 기술을 이해하기에 적합한 것으로 본 발명자들에 의해 고려되는 본 발명을 수행하는 일부 모드들을 포함하는 본 발명의 실시예의 일부 특정 예들에 대한 참조가 상세히 이루어질 것이다. 특정 실시예의 예들이 첨부 도면들에 예시된다. 본 기술이 이들 특정 실시예과 함께 설명되지만, 본 발명을 설명된 실시예로 제한하도록 의도되지 않는다는 것이 이해될 것이다. 반대로, 첨부된 청구항들에 의해 정의된 바와 같은 본 발명의 범위 내에 포함될 수 있는 대안들, 수정들, 및 균등물들을 커버하도록 의도된다. Reference will now be made in detail to certain specific examples of embodiments of the present invention, including certain modes of carrying out the invention, which the inventors consider suitable for understanding the technology of the present invention. Examples of specific embodiments are illustrated in the accompanying drawings. While the present technology has been described in conjunction with these specific embodiments, it will be understood that the present invention is not intended to be limited to the embodiments described. On the contrary, it is intended to cover alternatives, modifications, and equivalents that may be included within the scope of the present invention as defined by the appended claims.
본 기술의 기법들 및 메커니즘들은 본 기술의 맥락에서 설명될 수도 있다. 그러나, 본 기술의 기법들 및 메커니즘들은 다양한 양상들의 조합에 적용되며, 단지 개략화된 예들 및 실시형태들에 적용되지 않는다는 것에 유의해야 한다. 다음의 설명에서, 본 기술의 철저한 이해를 제공하기 위해 특정 세부사항들이 제시된다. 본 기술의 특정 예시적인 실시형태들은 이들 특정 세부사항들의 일부 또는 전부 없이 구현될 수도 있다. 다른 경우에서, 널리 공지된 프로세스 동작들은 본 기술을 불필요하게 모호하게 하지 않기 위해 상세히 설명되지 않았다. The techniques and mechanisms of the present technology may be described within the context of the present technology. However, it should be noted that the techniques and mechanisms of the present technology apply to a variety of combinations of aspects and are not limited to merely schematic examples and embodiments. In the following description, specific details are presented to provide a thorough understanding of the present technology. Certain exemplary embodiments of the present technology may be implemented without some or all of these specific details. In other instances, well-known process operations have not been described in detail to avoid unnecessarily obscuring the present technology.
본 개시 내용은 사용자가 보기 위해 및/또는 참여하기 위해 선택할 수 있는 완전 몰입형 가상 현실 환경 및 부분 몰입형(party immersive) 증강 현실 환경을 원격으로 생성하는 것을 가능하게 하도록 구성된 유연한 가상 및 증강 현실 시스템들 및 방법들을 설명한다. 가상 및 증강 현실 시스템은 실생활 요소 및 공간의 디지털화, 그리고 현실 환경 자체 내에서의 인공 객체들의 생성을 병합하여 생성된다. 상기 현실 또는 가상 세계의 적어도 하나의 부분은 메타버스의 대응하는 공간으로 각각 복제되거나 스트리밍되어 더 큰 가상 세계의 하위 유니버스(sub-universes)들 및/또는 하위 공간들을 생성할 수 있다. 상기 하위-유니버스들 및/또는 하위-공간들은 사용자들이 하나 이상의 연관된 사용자 물리적 위치로부터 보거나 및/또는 상호작용할 수 있는 라이브 이벤트의 디지털 트윈을 호스팅하도록 적응될 수 있다. 순수 가상 객체들 및 애플리케이션들, 게임 및 캐릭터의 그래픽 표현인 가상 요소들은 시스템에 의해 생성되거나 네트워크를 통해 가상 세계로 액세스할 수 있는 제3자 자원들에 의해 생성될 수 있다.The present disclosure describes flexible virtual and augmented reality systems and methods configured to enable remote generation of fully immersive virtual reality environments and partially immersive augmented reality environments that users can choose to view and/or participate in. The virtual and augmented reality systems are generated by merging the digitization of real-world elements and spaces with the creation of artificial objects within the real-world environment itself. At least one portion of the real or virtual world may be replicated or streamed to a corresponding space in the metaverse, respectively, to create sub-universes and/or sub-spaces of the larger virtual world. The sub-universes and/or sub-spaces may be adapted to host digital twins of live events that users can view and/or interact with from one or more associated user physical locations. Virtual elements, which are purely virtual objects and graphical representations of applications, games, and characters, may be generated by the system or by third-party resources accessible to the virtual world over a network.
도 1은 시스템(100)의 예시적인 실시예를 도시한다. 상기 시스템(100)은 실생활 요소 및/또는 라이브 이벤트의 디지털 트윈을 생성하고, 이들을 실시간으로 디지털화하여, 가상 또는 증강 현실 환경으로서 메타버스 및/또는 하위-유니버스 또는 가상 공간으로 통합될 수 있는 3D 모델로 조립되는 상호작용형 3D 디지털 표현을 생성하도록 구성된다. 상기 시스템(100)은 단일 서버 또는 서버의 조합 상에서 호스팅될 수 있다. 본 실시예에서, 시스템(100)은 장치 제어 및 데이터 수집 서버(101) 및 컴퓨팅 서버(106)를 갖는다. 서버(101,106)는 각각 복수의 서버들 및/또는 이하에서 더 상세히 설명되는 다수의 모듈들을 호스팅하는 클라우드 기반 컴퓨팅 구성 및/또는 이하에서 더 상세히 설명되는 다수의 모듈들을 실행하도록 구성되는 분산 원장(distributed ledger)에서 호스팅되는 블록체인 기술 구성일 수 있다는 것이 당업자에 의해 이해된다. Figure 1 illustrates an exemplary embodiment of a system (100). The system (100) is configured to create digital twins of real-world elements and/or live events, digitize them in real time, and create interactive 3D digital representations that are assembled into 3D models that can be integrated into a metaverse and/or sub-universe or virtual space as a virtual or augmented reality environment. The system (100) may be hosted on a single server or a combination of servers. In this embodiment, the system (100) has a device control and data acquisition server (101) and a computing server (106). It will be appreciated by those skilled in the art that the servers (101, 106) may each be a cloud-based computing configuration hosting multiple servers and/or multiple modules, as described in more detail below, and/or a blockchain technology configuration hosted on a distributed ledger configured to execute multiple modules, as described in more detail below.
상기 시스템(100)은 무선 또는 유선 통신을 위해 그리고 적어도 하나의 모바일 통신 컴퓨팅 장치에 의한 처리를 위해 네트워크, 예를 들어 인터넷에 연결된다. 대안적으로, 본 명세서에 설명된 장치과 구성요소 사이의 무선 및 유선 통신 및 연결은 WI-FI, WIMAX(WORLDWIDE INTEROPERABILITY FOR MICROWAVE ACCESS), RF 식별(RFID)을 포함하는 RF(radio frequency) 통신(Radio Frequency (RF) communication including RF identification (RFID), NFC(Near FIELD COMMUNICATION), BLE(BLUETOOTH LOW ENERGY)를 포함하는 BLUETOOTH, ZIGBEE, IR(Infrared) 통신, 셀룰러 통신, 위성 통신, USB(Universal Serial Bus), 이더넷 통신, 광섬유 케이블을 통한 통신, 동축 케이블, 트위스트 페어 케이블 및/또는 임의의 다른 유형의 무선 또는 유선 통신과 같은 무선 네트워크 통신을 포함한다. 상기 시스템(100)은 장치 제어 및 데이터 수집 서버(101)와 컴퓨팅 서버(106)에서 본 명세서에 제시된 소프트웨어 및/또는 애플리케이션 구성요소의 임의의 또는 모든 측면들을 실행할 수 있는 가상화된 컴퓨팅 시스템일 수 있다. 특정 측면들에서, 상기 컴퓨터 시스템(100)은 하드웨어 또는 소프트웨어와 하드웨어의 조합을 사용하여, 전용 컴퓨팅 장치에서, 또는 다른 개체에 통합되거나 또는 다수의 개체들 또는 컴퓨팅 장치에 걸쳐 분산되어 구현되도록 동작 가능하다.The above system (100) is connected to a network, for example, the Internet, for wireless or wired communication and for processing by at least one mobile communication computing device. Alternatively, the wireless and wired communications and connections between the devices and components described herein include wireless network communications such as WI-FI, WIMAX (WORLDWIDE INTEROPERABILITY FOR MICROWAVE ACCESS), Radio Frequency (RF) communication including RF identification (RFID), Near Field Communication (NFC), BLUETOOTH including BLUETOOTH LOW ENERGY (BLE), ZIGBEE, Infrared (IR) communication, cellular communications, satellite communications, USB (Universal Serial Bus), Ethernet communications, communications via fiber optic cables, coaxial cables, twisted pair cables, and/or any other type of wireless or wired communications. The system (100) may be a virtualized computing system capable of executing any or all aspects of the software and/or application components presented herein on the device control and data acquisition server (101) and the computing server (106). In certain aspects, the computer The system (100) may be implemented using hardware or a combination of software and hardware, on a dedicated computing device, integrated into another entity, or distributed across multiple entities or computing devices.
상기 장치 제어 및 데이터 수집 서버(101)와 컴퓨팅 서버(106)는 적어도 프로세서 및 메모리를 포함하는 임의의 적절한 전자 장치, 예컨대 서버, 블레이드 서버, 메인프레임, 모바일 폰, 개인 휴대 정보 단말기(PDA), 스마트폰, 데스크톱 컴퓨터, 넷북 컴퓨터, 태블릿 컴퓨터, 워크스테이션, 랩톱 및 다른 유사한 컴퓨팅 장치일 수 있다. 여기에 도시된 구성요소, 이들의 연결 및 관계 및 이들의 기능은 단지 예시적인 것으로 의도되며, 본 출원에서 설명 및/또는 청구되는 본 발명의 구현을 제한하는 것으로 의도되지 않는다. 예를 들어, 상기 장치 제어 및 데이터 수집 서버(101) 및/또는 상기 컴퓨팅 서버(106)는 프로세서, 랜덤 액세스 메모리(RAM) 및 판독 전용 메모리(ROM)를 갖는 시스템 메모리 및 메모리를 프로세서(미도시)에 결합하는 시스템 버스와 같은 구성요소를 포함한다. 상기 장치 제어 및 데이터 수집 서버(101) 및 상기 컴퓨팅 서버(106)는 운영 체제 및 하나 이상의 애플리케이션 프로그램들을 저장하기 위한 저장 장치, 네트워크 인터페이스 유닛 및/또는 입력/출력 컨트롤러(미도시)와 같은 구성요소를 포함하도록 구성될 수 있다. 각 구성요소는 적어도 하나의 버스를 통해 서로 결합되도록 동작 가능하다. 상기 입력/출력 컨트롤러는 영숫자 입력 장치, 마우스들, 전자 스타일러스, 디스플레이 유닛, 터치 스크린, 신호 생성 장치(예를 들어, 스피커) 또는 프린터를 포함하지만 이에 제한되지 않는 다수의 다른 장치로부터 입력을 수신하고 처리하거나 또는 이들에 출력을 제공하도록 동작 가능하다. 상기 프로세서는 범용 마이크로프로세서(예를 들어, 중앙 처리 유닛(CPU)), 그래픽 처리 유닛(GPU), 마이크로컨트롤러, 디지털 신호 프로세서(DSP), 특정 응용 분야 집적 회로(Application Specific Integrated Circuit , ASIC), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array , FPGA), 프로그래머블 로직 장치(Programmable Logic Device, PLD), 컨트롤러, 상태 머신(state machine), 게이트 또는 트랜지스터 로직, 이산 하드웨어 구성요소 또는 계산을 수행하고, 실행을 위한 명령들을 처리하고 및/또는 정보의 다른 조작들을 수행할 수 있는는 임의의 다른 적절한 개체 또는 이들의 조합일 수 있다.The device control and data collection server (101) and the computing server (106) may be any suitable electronic device including at least a processor and a memory, such as a server, a blade server, a mainframe, a mobile phone, a personal digital assistant (PDA), a smart phone, a desktop computer, a netbook computer, a tablet computer, a workstation, a laptop, and other similar computing devices. The components, their connections and relationships, and their functions depicted herein are intended to be exemplary only and are not intended to limit the implementation of the invention described and/or claimed in this application. For example, the device control and data collection server (101) and/or the computing server (106) may include components such as a processor, a system memory having random access memory (RAM) and read-only memory (ROM), and a system bus coupling the memory to the processor (not shown). The above device control and data collection server (101) and the computing server (106) may be configured to include components such as a storage device for storing an operating system and one or more application programs, a network interface unit, and/or an input/output controller (not shown). Each component is operable to be coupled to one another via at least one bus. The input/output controller is operable to receive and process input from or provide output to a number of other devices, including but not limited to alphanumeric input devices, mice, electronic styluses, display units, touch screens, signal generating devices (e.g., speakers), or printers. The processor may be a general purpose microprocessor (e.g., a central processing unit (CPU)), a graphics processing unit (GPU), a microcontroller, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), a programmable logic device (PLD), a controller, a state machine, gate or transistor logic, a discrete hardware component, or any other suitable entity or combination thereof that can perform computations, process instructions for execution, and/or perform other manipulations of information.
다수의 프로세서들, 다수의 버스들, 다수의 유형의 다수의 메모리들(예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들, DSP 코어와 결합된 하나 이상의 마이크로프로세서)가 있을 수 있다는 것을 이해해야 한다. 다수의 컴퓨팅 장치가 접속되도록 동작할 수 있으며, 각 장치는 필요한 동작들(예를 들어, 서버 뱅크, 블레이드 서버의 그룹, 또는 다중 프로세서 시스템)의 일부를 제공한다. 대안적으로, 일부 단계 또는 방법은 주어진 기능에 특정한 회로에 의해 수행되도록 동작할 수 있다. It should be understood that there may be multiple processors, multiple buses, and multiple types of memories (e.g., a combination of DSPs and microprocessors, multiple microprocessors, or one or more microprocessors combined with a DSP core). Multiple computing devices may be connected, each providing a portion of the required operations (e.g., a server bank, a group of blade servers, or a multiprocessor system). Alternatively, some steps or methods may be implemented by circuitry specific to a given function.
상기 시스템(100)은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현되도록 동작가능한 명령들을 생성한다. 컴퓨터 판독 가능 매체는 운영 체제, 데이터 구조, 프로그램 모듈, 애플리케이션 또는 본 명세서에 설명된 방법론 또는 기능 중 임의의 하나 이상을 구현하는 다른 데이터와 같은 하나 이상의 명령 세트들을 위한 휘발성 또는 비휘발성 저장소를 제공하도록 동작가능하다. 상기 컴퓨터 판독가능 매체는 메모리, 프로세서 및/또는 저장 매체를 포함하도록 동작 가능하고, 하나 이상의 명령 세트들을 저장하는 단일 매체 또는 다수의 매체(예를 들어, 중앙집중식 또는 분산형 컴퓨터 시스템)일 수 있다. 비일시적 컴퓨터 판독가능 매체(Non-transitory computer readable medium)는 모든 컴퓨터 판독가능 매체를 포함하며, 유일한 예외는 일시적인 전파 신호 그 자체이다. 상기 명령들은 네트워크 인터페이스 유닛을 통해 네트워크를 통해 송신 또는 수신될 수 있으며, 이는 반송파 또는 다른 전송 메커니즘과 같은 변조된 데이터 신호를 포함하도록 동작 가능하고 임의의 전달 매체를 포함한다. 용어 "변조된 데이터 신호"는 정보를 신호 내에 인코딩하는 방식으로 그 특성들 중 하나 이상이 변경되거나 설정된 신호를 의미한다.The system (100) generates instructions operable to be implemented in hardware, software, firmware, or any combination thereof. A computer-readable medium is operable to provide volatile or non-volatile storage for one or more sets of instructions, such as an operating system, data structures, program modules, applications, or other data implementing any one or more of the methodologies or functions described herein. The computer-readable medium is operable to include memory, a processor, and/or a storage medium, and may be a single medium or multiple media (e.g., a centralized or distributed computer system) that store one or more sets of instructions. A non-transitory computer-readable medium includes any computer-readable medium, the only exception being a transitory radio signal itself. The instructions may be transmitted or received over a network via a network interface unit, which includes any transmission medium operable to include a modulated data signal, such as a carrier wave or other transport mechanism. The term "modulated data signal" means a signal having one or more of its characteristics changed or set in such a manner as to encode information within the signal.
저장 장치와 메모리는 캐시, RAM, ROM, EPROM, EEPROM, FLASH 메모리 또는 다른 솔리드 스테이트 메모리 기술; 디스크들(예를 들어, 디지털 다기능 디스크들(DVD), HD-DVD, BLU-RAY, 컴팩트 디스크(CD) 또는 CD-ROM) 또는 다른 광학 저장소; 자기 카세트들, 자기 테이프, 자기 디스크 저장소, 플로피 디스크들 또는 다른 자기 저장 장치; 또는 컴퓨터 판독 가능 명령들을 저장하는 데 사용될 수 있고 시스템(100)에 의해 액세스될 수 있는 임의의 다른 매체와 같은 휘발성 및 비휘발성 매체를 포함하지만, 이들로 제한되지 않는다.Storage devices and memory include, but are not limited to, volatile and nonvolatile media such as cache, RAM, ROM, EPROM, EEPROM, FLASH memory or other solid state memory technology; disks (e.g., digital versatile disks (DVD), HD-DVD, BLU-RAY, compact disks (CD) or CD-ROM) or other optical storage; magnetic cassettes, magnetic tape, magnetic disk storage, floppy disks or other magnetic storage devices; or any other medium that can be used to store computer readable instructions and that can be accessed by the system (100).
상기 장치 제어 및 데이터 수집 서버(101)는 라이브 데이터 수집 모듈(105) 및 제어 모듈(105a)을 갖는다. 상기 데이터 수집 모듈(105)은 하나의 장치 제어 및 데이터 수집 서버(101)에 있을 수 있고, 상기 제어 모듈(105a)은 다른 장치 제어 및 데이터 수집 서버(101)에 있을 수 있다는 것으로 이해된다. The above device control and data collection server (101) has a live data collection module (105) and a control module (105a). It is understood that the data collection module (105) may be located in one device control and data collection server (101), and the control module (105a) may be located in another device control and data collection server (101).
상기 제어 모듈(105a)은 복수의 비디오 캡처 장치(102), 복수의 오디오 레코딩 장치(103) 및 복수의 센서(104)를 제어한다. 임의의 수의 비디오 캡처 장치(102), 오디오 캡처 장치(103) 및 센서(104)가 즉 하나에서 수백개까지 존재할 수 있다는 것을 이해해야 한다. 상기 비디오 캡처 장치(102), 오디오 캡처 장치(103) 및 센서(104)의 양은 캡처되고 디지털화될 필요가 있는 물리적 공간 및/또는 실생활 요소에 따라 달라진다. 때때로 단일 비디오 캡처 장치(102), 단일 오디오 캡처 장치(103) 및 단일 센서(104)로 충분할 것이다. 다른 경우에 임의의 다른 장치가 없는 단일 또는 여러 비디오 캡처 장치(102)로 충분할 것이다. 다른 경우에 임의의 다른 장치가 없는 단일 또는 여러 오디오 캡처 장치(103)로 충분할 것이다. 비디오 캡처 장치(102), 오디오 캡처 장치(103) 및 센서(104)의 순열(permutation)은 라이브 이벤트 또는 실생활 요소를 디지털화하는데 필요할 수 있는 데이터 스트림의 양에 따라 달라진다. 상기 비디오 캡처 장치(102)는 모든 유형의 카메라, 예를 들어 비디오 카메라, 적외선 카메라, 자외선 카메라 등을 포함한다. 오디오 캡처 장치(103)는 공간을 매핑하는데 사용될 수 있고/있거나 라이브 이벤트에서 생성되는 모든 유형의 소리를 레코딩하는 장치를 포함한다. 상기 센서(104)는 모션 센서, 위치 센서, 근접 센서, 열 센서(thermos sensors), 가속도계 등을 포함한다. 상기 센서(104)는 전형적으로 라이브 이벤트가 발생하는 물리적 공간의 물체의 유형, 형상 및 거리와 좌표뿐만 아니라 위치 및 움직임 공연자, 운동선수, 장식, 장비 등을 식별하는데 도움이 될 수 있는 보조 데이터 스트림 소스로서 사용되고, 또한 상기 가상 또는 증강 현실 환경의 3D 모델에 포함하기 위해 디지털화되는 물체의 광도, 텍스처, 온도 및 다른 특성을 포함한다. The control module (105a) controls a plurality of video capture devices (102), a plurality of audio recording devices (103), and a plurality of sensors (104). It should be understood that any number of video capture devices (102), audio capture devices (103), and sensors (104) may exist, from one to hundreds. The number of video capture devices (102), audio capture devices (103), and sensors (104) depends on the physical space and/or real-world elements that need to be captured and digitized. Sometimes, a single video capture device (102), a single audio capture device (103), and a single sensor (104) will suffice. In other cases, a single or multiple video capture devices (102) without any other devices will suffice. In other cases, a single or multiple audio capture devices (103) without any other devices will suffice. The permutations of the video capture device (102), audio capture device (103), and sensors (104) will depend on the amount of data stream that may be required to digitize the live event or real-world elements. The video capture device (102) may include any type of camera, such as a video camera, an infrared camera, an ultraviolet camera, etc. The audio capture device (103) may include a device that may be used to map the space and/or record any type of sound produced at the live event. The sensors (104) may include motion sensors, position sensors, proximity sensors, thermo sensors, accelerometers, etc. The sensors (104) are typically used as a source of auxiliary data streams that may help identify the type, shape, and distance and coordinates of objects in the physical space where the live event occurs, as well as the location and movement of performers, athletes, decorations, equipment, etc., and also include luminance, texture, temperature, and other characteristics of the objects that are to be digitized for inclusion in a 3D model of the virtual or augmented reality environment.
상기 비디오 캡처 장치(102), 상기 오디오 레코딩 장치(103) 및 상기 센서(104)는 상기 제어 모듈(105a)에 의해 원격으로 제어된다. 통상적으로, 상기 비디오 캡처 장치(102), 상기 오디오 레코딩 장치(103) 및 상기 센서(104) 각각은 상기 라이브 이벤트가 발생하는 물리적 공간에서 미리 결정된 위치를 갖고, 상기 물리적 공간 내에서 알려진 좌표를 갖고, 알려진 레코딩 범위를 갖고, 알려진 레코딩 각도(예를 들어: 시야 각도)을 갖고, 알려진 감도를 갖고, 알려진 움직임 범위를 갖고, 등등이다. 이들 알려진 파라미터는 본 명세서에서 대응하는 메타데이터로서 조합된다. 이와 같이, 상기 비디오 캡처 장치(102), 상기 오디오 레코딩 장치(103) 및 상기 센서(104) 각각은 그 특정 장치에 대응하는 메타데이터를 갖는다. 상기 비디오 캡처 장치(102), 상기 오디오 레코딩 장치(103) 및 상기 센서(104) 각각은 각 라이브 이벤트에 대해 보정되고, 이러한 보정 파라미터는 또한 메타데이터의 일부이다.The video capture device (102), the audio recording device (103), and the sensor (104) are remotely controlled by the control module (105a). Typically, the video capture device (102), the audio recording device (103), and the sensor (104) each have a predetermined location in the physical space where the live event occurs, have known coordinates within the physical space, have a known recording range, have a known recording angle (e.g., field of view), have a known sensitivity, have a known motion range, and so on. These known parameters are combined herein as corresponding metadata. In this way, the video capture device (102), the audio recording device (103), and the sensor (104) each have metadata corresponding to that particular device. The video capture device (102), the audio recording device (103), and the sensor (104) are each calibrated for each live event, and these calibration parameters are also part of the metadata.
상기 장치 제어 및 데이터 수집 서버(101)의 라이브 데이터 수집 모듈(105)은 라이브 이벤트의 레코딩 동안 상기 비디오 캡처 장치(102), 상기 오디오 레코딩 장치(103) 및 상기 센서(104)로부터 데이터 스트림을 수신하도록 구성된다. 본 기술의 일부 실시예에서, 이들 장치의 상이한 구성들은 라이브 이벤트의 데이터를 레코딩하도록 배치될 수 있다. 예를 들어, 상기 비디오 캡처 장치(102)는 상기 오디오 레코딩 장치(103) 및 상기 센서(104)와 통합될 수 있다. 이와 같이, 그것은 비디오, 오디오, 위치, 움직임, 가속 등을 레코딩하는 스마트 폰, 비디오 카메라 또는 드론과 같은 단일 장치일 수 있다. 다른 구성들에서, 비디오 및 오디오를 레코딩하는 비디오 카메라가 존재할 수 있지만, 라이브 이벤트 장소의 물리적 공간 내의 그것의 위치 및 그것의 움직임들은 별개의 센서(104)에 의해 측정될 수 있고, 이것은 삼각대 또는 드론에 위치될 수 있거나 또는 그렇지 않으면 카메라를 이동시키는 장치에 부착될 수 있다. 다른 구성들에서, 상기 비디오 카메라 움직임은 미리 레코딩될 수 있고, 상기 비디오 카메라는 특정 궤적을 따라 움직일 것이다. 다른 구성들에서, 상기 오디오는 상기 비디오 캡처 장치(102) 및 상기 센서(104)로부터 독립적인 오디오 레코딩 장치(103)에 의해 레코딩될 수 있고, 예를 들어, 이러한 오디오 레코딩 장치(103)는 라이브 이벤트의 공연자에 부착된 마이크로폰일 수 있다. 예를 들어, 악기, 공연자, 청중 등과 같은 사운드의 소스가 있기 때문에 마이크로폰과 같은 많은 오디오 레코딩 장치(103)가 존재할 수 있다는 것으로 이해된다. The live data collection module (105) of the device control and data collection server (101) is configured to receive data streams from the video capture device (102), the audio recording device (103), and the sensor (104) during the recording of a live event. In some embodiments of the present technology, different configurations of these devices may be arranged to record data of a live event. For example, the video capture device (102) may be integrated with the audio recording device (103) and the sensor (104). As such, it may be a single device, such as a smartphone, a video camera, or a drone, that records video, audio, position, movement, acceleration, etc. In other configurations, a video camera that records video and audio may be present, but its position and its movements within the physical space of the live event venue may be measured by a separate sensor (104), which may be positioned on a tripod or drone, or otherwise attached to a device that moves the camera. In other configurations, the video camera movements may be pre-recorded, and the video camera will move along a specific trajectory. In other configurations, the audio may be recorded by an audio recording device (103) independent of the video capture device (102) and the sensor (104), for example, such an audio recording device (103) may be a microphone attached to a performer at a live event. It is understood that there may be multiple audio recording devices (103), such as microphones, as there may be sources of sound, such as musical instruments, performers, audience members, etc.
당업자는 비디오 캡처 장치(102), 오디오 레코딩 장치(103) 및 센서(104)의 임의의 수의 구성이 가능하고 이들 구성이 본 기술의 범위 내에 있다는 것을 이해할 것이다. 그러한 구성에 관계없이, 라이브 데이터 수집 모듈은 라이브 이벤트 장소의 물리적 공간 및/또는 라이브 이벤트에 참여하는 공연자/선수/관객/스태프의 3D 모델을 생성하기 위해 캡처된 비디오, 레코딩된 오디오 및 센서 데이터(광도, 움직임, 위치, 가속도, 온도 등)를 포함할 수 있는 충분한 수의 데이터 스트림을 수집한다는 것으로 이해된다. Those skilled in the art will appreciate that any number of configurations of the video capture device (102), audio recording device (103), and sensor (104) are possible and are within the scope of the present technology. Regardless of such configuration, it is understood that the live data collection module collects a sufficient number of data streams that may include captured video, recorded audio, and sensor data (e.g., luminance, motion, position, acceleration, temperature) to generate a 3D model of the physical space of the live event venue and/or the performers/athletes/audience/staff participating in the live event.
상기 라이브 데이터 수집 모듈(105)은 상기 시스템(100)에 의한 처리에 적합한 디지털 형식으로 모든 데이터 스트림을 수신한다. 상기 데이터 스트림은 상기 시스템(100)에 따라 인덱싱된 후에 상기 라이브 데이터 수집 모듈(105)에 저장된다. 각 개별 데이터 스트림은 예를 들어, 파일 유형, 파일 크기, 데이터를 레코딩한 장치에 관한 정보, 대응하는 메타데이터 등과 같이 당업자에게 알려진 추정할 모든 필요한 정보에 의해 식별된다. 상기 데이터 스트림을 식별하기 위한 정보는 상기 데이터 스트림을 분석하고 상기 가상 또는 증강 현실 환경에 대한 디지털 트윈을 생성하기 위해 3D 모델에 통합된 실생활 요소를 갖는 라이브 이벤트 물리적 공간의 3D 모델을 생성하기 위해 상기 컴퓨팅 서버(106)에 의해 사용되는 컴퓨터 모델에 따라 달라진다. The live data acquisition module (105) receives all data streams in a digital format suitable for processing by the system (100). The data streams are indexed by the system (100) and then stored in the live data acquisition module (105). Each individual data stream is identified by all necessary information known to those skilled in the art, such as, for example, file type, file size, information about the device that recorded the data, corresponding metadata, etc. The information for identifying the data streams depends on the computer model used by the computing server (106) to analyze the data streams and generate a 3D model of the live event physical space with real-world elements integrated into the 3D model to create a digital twin of the virtual or augmented reality environment.
상기 컴퓨팅 서버(106)는 상기 장치 제어 및 데이터 수집 서버(101)로부터 데이터를 수신한다. 상기 컴퓨팅 서버(106)는 다음의 2가지 접근법에 의해 수신된 데이터를 처리할 수 있다:The computing server (106) receives data from the device control and data collection server (101). The computing server (106) can process the received data using the following two approaches:
(a) 컴퓨팅 서버(106)는 도 1, 도 2 및 도 3에 도시된 바와 같이 상기 저장된 데이터 모듈(107)에 위치된 데이터/정보에 의해 상기 라이브 데이터 수집 모듈(105)로부터 수신된 데이터를 보충할 것이고, 상기 컴퓨팅 서버(106)는 3D 모델 및 라이브 이벤트의 디지털 트윈을 생성하기 위해 상기 저장된 데이터 모듈(107)에 저장된 데이터에 의해 보충된 라이브 데이터 수집 모듈(105)의 데이터에 하나 이상의 기술을 적용할 것이고; 또는 (a) the computing server (106) will supplement the data received from the live data collection module (105) with data/information located in the stored data module (107) as illustrated in FIGS. 1, 2 and 3, and the computing server (106) will apply one or more techniques to the data of the live data collection module (105) supplemented by the data stored in the stored data module (107) to create a 3D model and a digital twin of the live event; or
(b) 상기 컴퓨팅 서버(106)는 도 4에 도시된 바와 같이 저장된 데이터 모듈(107)에 위치된 정보에 의해 상기 라이브 데이터 수집 모듈(105)로부터 수신된 데이터를 보충하지 않을 것이고, 상기 컴퓨팅 서버(106)는 상기 3D 모델 및 라이브 이벤트의 상기 디지털 트윈을 생성하기 위한 하나 이상의 기술을 상기 라이브 데이터 수집 모듈(105)로부터 수신된 데이터에만 적용할 것이다. (b) The computing server (106) will not supplement the data received from the live data collection module (105) with information located in the stored data module (107) as illustrated in FIG. 4, and the computing server (106) will only apply one or more techniques for generating the 3D model and the digital twin of the live event to the data received from the live data collection module (105).
3D 모델 및 라이브 이벤트의 디지털 트윈을 생성하기 위한 기술들은 다음 중 적어도 하나를 포함한다:Technologies for creating digital twins of 3D models and live events include at least one of the following:
(a) 이미지 기반 모델링 및 렌더링 기술(IBMR)은 이미지 기반 렌더링 모듈 108에서 계산될 수 있으며, 그 방법은 Manuel M. Oliveira의 저서, Image-Based Modeling and Rendering Techniques: A Survey. Instituto de Informatica, UFRGS, Caixa Postal 15064, CEP 91501-970, Porto Alegre, RS, Brasil; Heung-Yeung Shum 및 Sing Bing Kang의 저서, A Review of Image-based Rendering Techniques. Microsoft Research에 기술되어 있으며, 각각 그 전문이 본 명세서에 참조로 포함된다.(a) Image-based modeling and rendering techniques (IBMR) can be computed in the image-based rendering module 108, the method of which is described in Manuel M. Oliveira, Image-Based Modeling and Rendering Techniques: A Survey. Instituto de Informatica, UFRGS, Caixa Postal 15064, CEP 91501-970, Porto Alegre, RS, Brasil; Heung-Yeung Shum and Sing Bing Kang, A Review of Image-based Rendering Techniques. Microsoft Research, each of which is incorporated herein by reference in its entirety.
(b) 사진 측량(Photogrammetry) 및 근거리 사진 측량 기술은 사진 측량 모듈 109에서 계산될 수 있으며, 그 방법은 T Luhmann, S Robson, S Kyle 및 I Harley의 저서, Close Range Photogrammetry; Principles, techniques and applications.. Whittles Publishing, Dunbeath Mains Cottages, Dunbeath, Caithness KW6 6EY, Scotland, UK, 2006년 출판, ISBN 1-870325-50-8; Surendra Pal Singh, Kamal Jain, V. Ravibabu Mandla. 근거리 사진측량법을 이용한 이미지 기반 가상 3D 도시 모델링에 대한 새로운 접근 방식(A new approach towards image based virtual 3d city modeling by using close range photogrammetry). 인도 공과대학교(Indian Institute of Technology, Roorkee) 토목공학과 측지공학과.)에 기술되어 있으며, 각 저서의 전문은 본 명세서에 참조로 포함된다. (b) Photogrammetry and close range photogrammetry techniques can be computed in the photogrammetry module 109, and the methods are described in the book Close Range Photogrammetry; Principles, techniques and applications by T Luhmann, S Robson, S Kyle and I Harley, published by Whittles Publishing, Dunbeath Mains Cottages, Dunbeath, Caithness KW6 6EY, Scotland, UK, 2006, ISBN 1-870325-50-8; Surendra Pal Singh, Kamal Jain, V. Ravibabu Mandla, A new approach towards image based virtual 3D city modelling by using close range photogrammetry, Department of Geodesy, Department of Civil Engineering, Indian Institute of Technology, Roorkee, the entire contents of each of which are herein incorporated by reference.
(c) 하이브리드 기술에는 SFM을 기반으로 한 다중 뷰 3D 재구성 기술, IBMR과 근거리 사진측량의 조합, 레이저 스캐닝 기술, 컴퓨터 비전 기술 등이 포함되며, 이는 하이브리드 모듈 110에서 계산될 수 있으며, 이러한 방법은 다음 문서에 적어도 부분적으로 설명되어 있으며, 각각은 본문에 전체적으로 참조로 포함된다. (c) Hybrid techniques include multi-view 3D reconstruction techniques based on SFM, combinations of IBMR and close-range photogrammetry, laser scanning techniques, computer vision techniques, etc., which can be computed in the hybrid module 110, and these methods are at least partially described in the following documents, each of which is incorporated herein by reference in its entirety.
a. Lei Gao, Yingbao Zhao, Jingchang Han, Huixian Liu. SFM 기반 멀티뷰 3D 재구성 기술 연구(Research on Multi-View 3D Reconstruction Technology Based on SFM. School of Electrical Engineering). 중국 스자좡시 050018 허베이과학기술대학교 전기공학과; a. Lei Gao, Yingbao Zhao, Jingchang Han, Huixian Liu. Research on Multi-View 3D Reconstruction Technology Based on SFM. School of Electrical Engineering. Department of Electrical Engineering, Hebei University of Science and Technology, Shijiazhuang 050018, China;
b. Shen, XL; Dou, Y.; Mills, S.; Eyers, DM; Feng, H.; Huang, Z. "3차원 점 분할 및 비동기 통신 기반 분산 희소 번들 조정 알고리즘(Distributed sparse bundle adjustment algorithm based on three-dimension al point partition and asynchronous communication)". Front. Inf. Technol. Electron. Eng. 2018, 19, 889-904;b. Shen, XL; Dou, Y.; Mills, S.; Eyers, DM; Feng, H.; Huang, Z. "Distributed sparse bundle adjustment algorithm based on three-dimensional point partition and asynchronous communication". Front. Inf. Technol. Electron. Eng. 2018, 19, 889-904;
c. Crosilla, F.; Beinat, A.; Fusiello, A.; Maset, E.; Visintini, D. 컴퓨터 비전의 기초. 사진측량 컴퓨터 비전에서의 고급 프로크루스테스 분석 모델(Basics of computer vision. In Advanced Procrustes Analysis Models in Photogrammetric Computer Vision); Springer International Publishing: Cham, Switzerland, 2019; c. Crosilla, F.; Beinat, A.; Fusiello, A.; Maset, E.; Visintini, D. Basics of computer vision. In Advanced Procrustes Analysis Models in Photogrammetric Computer Vision; Springer International Publishing: Cham, Switzerland, 2019;
d. DeTone, D.; Malisiewicz, T.; Rabinovich, A. 슈퍼포인트: 자기 감독 관심 지점 탐지 및 기술. IEEE 컴퓨터 비전 및 패턴 인식 워크숍 회의록(Self-supervised interest point detection and description. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops), 미국 유타주 솔트레이크시티, 2018년 6월 18일~23일; 224~236쪽;d. DeTone, D.; Malisiewicz, T.; Rabinovich, A. Superpoints: Self-supervised interest point detection and description. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, Salt Lake City, Utah, USA, June 18–23, 2018; pp. 224–236.
e. Zhu, S.; Shen, T.; Zhou, L.; Zhang, R.; Wang, J.; Fang, T.; Quan, L. 국소적 증가에서 전역 평균으로의 동작의 병렬 구조(Parallel structure from motion from local increment to g1obal averaging). arXiv 2017, arXiv:1702.08601;e. Zhu, S.; Shen, T.; Zhou, L.; Zhang, R.; Wang, J.; Fang, T.; Quan, L. Parallel structure from motion from local increment to global averaging. arXiv 2017, arXiv:1702.08601;
f. Schonberger, J.L.; Hardmeicr, H.; Sattler, T.; Pollefeys, M. 수작업 및 학습된 국소적 특징의 비교 평가. IEEE 컴퓨터 비전 및 패턴 인식 컨퍼런스 논문집(Comparative evaluation of hand-crafted and learned local features. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition), 미국 하와이주 호놀룰루, 2017년 7월 21일~26일; pp. 1482-1491;f. Schonberger, J.L.; Hardmeicr, H.; Sattler, T.; Pollefeys, M. Comparative evaluation of hand-crafted and learned local features. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, HI, USA, July 21–26, 2017; pp. 1482–1491;
g. Bian, J.W.; Lin, W.Y.; Matsushita, Y.; Yeung, S.K.; Nguyen, T.D.; Cheng, M.M. GMS: 빠르고 매우 견고한 특징 대응을 위한 그리드 기반 동작 통계. IEEE 컴퓨터 비전 및 패턴 인식 컨퍼런스 논문집(Grid-based motion statistics for fast, ultra- robust feature correspondence. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognitio), 미국 하와이주 호놀룰루, 2017년 7월 21일~26일; 4181~4190쪽;g. Bian, J.W.; Lin, W.Y.; Matsushita, Y.; Yeung, S.K.; Nguyen, T.D.; Cheng, M.M. GMS: Grid-based motion statistics for fast, ultra-robust feature correspondence. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, HI, USA, July 21–26, 2017; pp. 4181–4190;
h. Sweeney, C.; Sattler, T.; Hollerer, T.; Turk, M.; Pollefeys, M. 구조-동작 간략화를 위한 뷰잉 그래프 최적화. IEEE 컴퓨터 비전 국제 컨퍼런스 논문집(Optimizing the viewing graph for structure-frommotion. In Proceedings of the IEEE International Conference on Computer Vision), 칠레 산티아고, 2015년 12월 7일~13일;h. Sweeney, C.; Sattler, T.; Hollerer, T.; Turk, M.; Pollefeys, M. Optimizing the viewing graph for structure-frommotion simplification. In Proceedings of the IEEE International Conference on Computer Vision, Santiago, Chile, December 7–13, 2015;
i. Wilson, K.; Snavely, N. 1dsfm을 사용한 견고한 글로벌 번역. 유럽 컴퓨터 비전 컨퍼런스 논문집(In European Conference on Computer Vision; Springer); Springer: Cham, 스위스, 2014;i. Wilson, K.; Snavely, N. Robust global translation using 1dsfm. In Proceedings of the European Conference on Computer Vision (Springer); Springer: Cham, Switzerland, 2014;
j. Sweeney, C.; Fragoso, V.; Hollerer, T.; Turk, M. 분산 카메라 모델을 사용한 대규모 SfM. 2016년 4회 3D 비전(3DV) 국제 학술대회 논문집(In Proceedings of the 2016 4th International Conference on 3D Vision (3DV)), 미국 캘리포니아주 스탠퍼드, 2016년 10월 25일~28일; 230~238쪽;j. Sweeney, C.; Fragoso, V.; Hollerer, T.; Turk, M. Large-scale SfM using distributed camera models. In Proceedings of the 2016 4th International Conference on 3D Vision (3DV), Stanford, CA, USA, October 25–28, 2016; pp. 230–238;
k. Schonberger, J.L.; Frahm, J.M. 동작에서 구조 재검토. 미국 네바다주 라스베이거스에서 개최된 IEEE 컴퓨터 비전 및 패턴 인식 학술대회 논문집(In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition), 2016년 6월 27일~30일;k. Schonberger, J.L.; Frahm, J.M. Rethinking architecture in motion. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, June 27–30, 2016;
l. Yao, Y.; Luo, Z.; Li, S.; Fang, T.; Quan, L. Mvsnet: 비정형 멀티뷰 스테레오를 위한 깊이 추론. 유럽 컴퓨터 비전 학술대회(ECCV) 논문집(Depth inference for unstructured multi-view stereo. In Proceedings of the European Conference on Computer Vision (ECCV)), 독일 뮌헨, 2018년 9월 8일~14일; 767~783쪽;l. Yao, Y.; Luo, Z.; Li, S.; Fang, T.; Quan, L. Mvsnet: Depth inference for unstructured multi-view stereo. In Proceedings of the European Conference on Computer Vision (ECCV), Munich, Germany, September 8–14, 2018; pp. 767–783;
m. Knapitsch, A.; Park, J.; Zhou, Q.Y.; Koltun, V. 탱크와 사원: 대규모 장면 재구성 벤치마킹. ACM Trans. Graph(Tanks and temples: Benchmarking large-scale scene reconstruction. ACM Trans). 2017, 36, 78-90;m. Knapitsch, A.; Park, J.; Zhou, Q.Y.; Koltun, V. Tanks and temples: Benchmarking large-scale scene reconstruction. ACM Trans. Graph(Tanks and temples: Benchmarking large-scale scene reconstruction. ACM Trans). 2017, 36, 78-90;
n. Berger, M.; Tagliasacchi, A.; Seversky, L.M. 포인트 클라우드를 이용한 표면 재구성에 대한 조사(A survey of surface reconstruction from point clouds. Comput. Graph). Comput. Graph. Forum 2017, 36, 301-329;n. Berger, M.; Tagliasacchi, A.; Seversky, L.M. A survey of surface reconstruction from point clouds. Comput. Graph. Comput. Graph. Forum 2017, 36, 301-329;
o. Zhu, S.; Zhang, R.; Zhou, L.; Shen, T.; Fang, T.; Tan, P.; Quan, L. 분산 동작 평균화를 이용한 매우 대규모 글로벌 SfM. IEEE 컴퓨터 비전 및 패턴 인식 워크숍 회의록(Very large-scale global SfM by distributed motion averaging. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops), 미국 유타주 솔트레이크시티, 2018년 6월 18일~23일;o. Zhu, S.; Zhang, R.; Zhou, L.; Shen, T.; Fang, T.; Tan, P.; Quan, L. Very large-scale global SfM by distributed motion averaging. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, Salt Lake City, UT, USA, June 18–23, 2018;
p. Kasten, Y.; Geifman, A.; Galun, M.; Basri, R. GPSFM: 다중 시점 기본 행렬에 대한 대수적 제약 조건을 사용하는 전역 사영 sfm. IEEE 컴퓨터 학회 컴퓨터 비전 및 패턴 인식 컨퍼런스 논문집(Global projective sfm using algebraic constraints on multi-view fundamental matrices. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition), 미국 캘리포니아주 롱비치, 2019년 6월 15일~20일;p. Kasten, Y.; Geifman, A.; Galun, M.; Basri, R. GPSFM: Global projective sfm using algebraic constraints on multi-view fundamental matrices. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Long Beach, CA, USA, June 15–20, 2019;
q. Liu, H.; Zhang, G.; Bao, H. 증강 현실을 위한 견고한 키프레임 기반 단안 SLAM. 2016 IEEE 국제 혼합 및 증강 현실 심포지엄 논문집(keyframe-based monocular SLAM for augmented reality. In Proceedings of the 2016 IEEE International Symposium on Mixed and Augmented Reality), ISMAR Adjunct 2016, 멕시코 메리다, 2016년 9월 19일~23일;q. Liu, H.; Zhang, G.; Bao, H. Robust keyframe-based monocular SLAM for augmented reality. In Proceedings of the 2016 IEEE International Symposium on Mixed and Augmented Reality, ISMAR Adjunct 2016, Mérida, Mexico, September 19–23, 2016;
r. Ke, T.; Roumeliotis, S.I. 원근법-3점 문제에 대한 효율적인 대수적 해법. IEEE 컴퓨터 비전 및 패턴 인식 컨퍼런스 논문집(An efficient algebraic solution to the perspective-three-point problem. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition), 미국 하와이주 호놀룰루, 2017년 7월 21일~26일; 7225~7233쪽;r. Ke, T.; Roumeliotis, S.I. An efficient algebraic solution to the perspective-three-point problem. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, HI, USA, July 21–26, 2017; pp. 7225–7233.
s. Cefalu, A.; Haala, N.; Fritsch, D. 전역 이미지 방향과 구조 없는 번들 조정을 결합한 동작의 계층적 구조(Hierarchical structure from motion combining global image orientation and structureless bundle adjustment). 국제 건축 사진측량학 원격 감지 스파트 정보 과학(Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. ) 2017, 42, 535~542;s. Cefalu, A.; Haala, N.; Fritsch, D. Hierarchical structure from motion combining global image orientation and structureless bundle adjustment. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. 2017, 42, 535–542;
t. Wang, R.; Lin, J.; Li, L.; Xiao, Z.; Hui, Y.; Xin, Y. 마크가 있는 지상 제어 평면을 사용한 노두의 SfM-MVS 점군에 대한 개정된 방향 기반 보정 방법(A revised orientation-based correction method for SfM-MVS point clouds of outcrops using ground control planes with marks). J. Struct. Geol. 2021, 143, 104266;t. Wang, R.; Lin, J.; Li, L.; Xiao, Z.; Hui, Y.; Xin, Y. A revised orientation-based correction method for SfM-MVS point clouds of outcrops using ground control planes with marks. J. Struct. Geol. 2021, 143, 104266;
u. Dugan, U.; Sangsoo, L. 마이크로스케일 3D 표면 재구성을 위한 동작 기반 미세 구조(SfM). Sensors(Microscopic structure from motion (SfM) for microscale 3D surface reconstruction. Sensors) 2020, 20, 5599;u. Dugan, U.; Sangsoo, L. Microscopic structure from motion (SfM) for microscale 3D surface reconstruction. Sensors (Microscopic structure from motion (SfM) for microscale 3D surface reconstruction. Sensors) 2020, 20, 5599;
v. Khalil, M.; Ismanto, I.; Fu'ad, M.N. 컴퓨터 비전 기반 동작 기반 구조(SFM) 알고리즘과 다시점 입체(MVS)를 이용한 3D 재구성(3D reconstruction using structure from motion (SFM) algorithm and multi view stereo (MVS) based on computer vision). IOP Conf. Ser. Mater. Sci. Eng. 2021, 1073, 012066;v. Khalil, M.; Ismanto, I.; Fu'ad, M.N. 3D reconstruction using structure from motion (SFM) algorithm and multi-view stereo (MVS) based on computer vision. IOP Conf. Ser. Mater. Sci. Eng. 2021, 1073, 012066;
w. Mali, V.K.; Venu, P.; Nagaraj, M.K.; Kuiry, S.N. 세굴공 분석을 위한 동작 기반 구조(SfM) 및 다시점 입체(MVS) 근거리 사진측량 기법 시연(Demonstration of structure-from-motion (SfM) and multi-view stereo (MVS) close range photogrammetry technique for scour hole analysis). Sa dhana 2021, 46, 227;w. Mali, V.K.; Venu, P.; Nagaraj, M.K.; Kuiry, S.N. Demonstration of structure-from-motion (SfM) and multi-view stereo (MVS) close-range photogrammetry technique for scour hole analysis. Sa dhana 2021, 46, 227;
x. Yu, Q.; Yang, C.; Wei, H. 단일 이미지로부터 3D 포인트 클라우드 재구성을 위한 부분적 AtlasNet(Part-wise AtlasNet for 3D point cloud reconstruction from a single image). Knowl.-Based Syst. 2022, 242, 108395;x. Yu, Q.; Yang, C.; Wei, H. Part-wise AtlasNet for 3D point cloud reconstruction from a single image. Knowl.-Based Syst. 2022, 242, 108395;
y. Mur-Artal, R.; Tardos, J.D. ORB-SLAM2: 단안, 스테레오 및 RGB-D 카메라용 오픈 소스 SLAM 시스템(An open-source SLAM system for monocular, stereo, and RGB-D cameras). IEEE Trans.Robot. 2017, 33, 1255-1262.y. Mur-Artal, R.; Tardos, J.D. ORB-SLAM2: An open-source SLAM system for monocular, stereo, and RGB-D cameras. IEEE Trans.Robot. 2017, 33, 1255-1262.
상기 컴퓨팅 서버(106)는 또한 비디오 캡처 장치(102)로부터 수신된 라이브 이벤트의 이미지에서 캡처된 실생활 요소의 객체, 형상 및 깊이의 식별을 용이하게 할 정보를 갖는 라이브 데이터 수집 모듈(105)로부터 수신된 데이터를 향상시키기 위해 사용될 수 있는 인공 지능 컴퓨팅 모듈(111)(AI 컴퓨팅 모듈(111))을 갖는다. 상기 AI 컴퓨팅 모듈(111)은 저장된 데이터 모듈(107)의 라이브러리 내의 알려진 샘플 디지털화된 객체를 갖는 비디오 캡처 장치(102)의 데이터 스트림으로부터의 이미지에서 캡처된 유사 실생활 요소를 타겟팅하고 매칭하기 위해 저장된 데이터 모듈(107)과 함께 기능할 수 있다. 예를 들어, 상기 비디오 캡처 장치(102)에 의해 이미지에 의해 캡처되고 상기 라이브 데이터 수집 모듈(105)에 의해 처리되는 특정 의자의 형상 및 형태는 저장된 데이터 모듈(107) 내의 유사한 의자의 형상 및 형태에 타겟팅되고 매칭될 수 있는데, 이는 이들 의자의 치수, 텍스처 및 디지털 표현이 상기 비디오 캡처 장치(102)에 의한 라이브 이벤트의 캡처 이전에 상기 저장된 데이터 모듈(107)에 저장되었기 때문에, 상기 디지털 트윈의 3D 모델에서 상기 의자의 디지털화의 처리를 용이하게 하기 때문이다.The computing server (106) also has an artificial intelligence computing module (111) (AI computing module (111)) that can be used to enhance data received from the live data collection module (105) with information that facilitates identification of objects, shapes, and depths of real-life elements captured in images of live events received from the video capture device (102). The AI computing module (111) can function in conjunction with the stored data module (107) to target and match similar real-life elements captured in images from the data stream of the video capture device (102) with known sample digitized objects within a library of the stored data module (107). For example, the shape and form of a particular chair captured as an image by the video capture device (102) and processed by the live data acquisition module (105) may be targeted and matched to the shape and form of a similar chair in the stored data module (107), since the dimensions, textures and digital representations of these chairs were stored in the stored data module (107) prior to the capture of the live event by the video capture device (102), thereby facilitating the processing of the digitization of the chair in the 3D model of the digital twin.
도 1은 상기 컴퓨팅 서버(106)가 3D 모델 랜더링 모듈(112)을 갖는 것을 도시한다. 상기 3D 모델 랜더링 모듈(112)은 상기 라이브 이벤트 장소에 존재하는 실생활 요소의 디지털 표현뿐만 아니라 상기 라이브 이벤트 장소 자체의 디지털 표현에 기초하여 상기 디지털 트윈을 생성한다. Figure 1 illustrates that the computing server (106) has a 3D model rendering module (112). The 3D model rendering module (112) creates the digital twin based on a digital representation of the live event venue itself as well as digital representations of real-life elements present at the live event venue.
상기 디지털 트윈이 상기 컴퓨팅 서버(106)에 의해 생성된 후에, 상기 시스템(100)은 가상 또는 증강 현실 환경을 생성하고, 가상 또는 증강 현실 환경은 이어서 메타버스 서버(113)의 메타버스로 통신되거나 메타버스 내에서 구성된다. 상기 메타버스 서버(113)는 중앙집중형 데이터베이스(centralized database) 또는 분산 원장(disturbed ledger)으로서 동작하는 서버의 구성일 수 있다.After the digital twin is generated by the computing server (106), the system (100) generates a virtual or augmented reality environment, and the virtual or augmented reality environment is then communicated to the metaverse of the metaverse server (113) or configured within the metaverse. The metaverse server (113) may be configured as a server that operates as a centralized database or a disturbed ledger.
상기 메타버스 서버(113)는 상기 라이브 이벤트의 디지털 트윈의 가상 또는 증강 현실 환경을 사용자 장치(114)에 제공하는 상기 사용자 장치(114)와 통신한다.The metaverse server (113) communicates with the user device (114) to provide a virtual or augmented reality environment of the digital twin of the live event to the user device (114).
일부 실시예에서, 상기 라이브 이벤트의 디지털 트윈의 가상 또는 증강 현실 환경은 상기 메타버스 서버(113)에 저장될 수 있다. 다른 실시예에서, 상기 라이브 이벤트의 디지털 트윈의 가상 또는 증강 현실 환경의 일부만이 상기 메타버스 서버(113)에 저장될 수 있고, 상기 라이브 이벤트의 디지털 트윈의 가상 또는 증강 현실 환경의 다른 부분은 상기 시스템(100)과 상기 메타버스 서버(113) 간의 요청에 후속하여 상기 메타버스 서버(113)에 업로드된다. In some embodiments, the virtual or augmented reality environment of the digital twin of the live event may be stored on the metaverse server (113). In other embodiments, only a portion of the virtual or augmented reality environment of the digital twin of the live event may be stored on the metaverse server (113), and other portions of the virtual or augmented reality environment of the digital twin of the live event are uploaded to the metaverse server (113) following a request between the system (100) and the metaverse server (113).
도 2는 시스템(100)이 비디오 캡처 장치(102), 오디오 레코딩 장치(103) 및 센서(104)를 포함하는 실시예를 도시한다. 본 실시예에서, 상기 시스템(100)은 비디오 캡처 장치(102), 오디오 레코딩 장치(103) 및 센서(104)의 통합된 세트를 가지며, 통합된 세트는 예를 들어 스타디움과 같은 주어진 장소에 위치될 수 있으며, 이는 그곳에서 발생하는 상기 라이브 이벤트의 디지털 트윈을 생성함으로써 그곳에서의 상기 이벤트의 3D 모델을 생성하도록 설계된다.FIG. 2 illustrates an embodiment in which a system (100) includes a video capture device (102), an audio recording device (103), and a sensor (104). In this embodiment, the system (100) has an integrated set of video capture devices (102), audio recording devices (103), and sensors (104), which may be located at a given location, such as a stadium, and which is designed to create a 3D model of the event there by creating a digital twin of the live event occurring there.
도 3은 상기 시스템(100)이 시스템(100) 내에서 호스팅되고 상기 사용자 장치(114)가 상기 통신 모듈(115)을 통해 시스템(100)과 통신할 수 있게 하는 라이브 이벤트의 디지털 트윈의 가상 또는 증강 현실을 생성하는 실시예를 도시한다. FIG. 3 illustrates an embodiment of a system (100) that creates a virtual or augmented reality digital twin of a live event hosted within the system (100) and enabling the user device (114) to communicate with the system (100) via the communication module (115).
상기 시스템(100), 상기 메타버스 서버(113), 상기 통신 모듈(115), 상기 사용자 장치(114)는 인터넷, 이더넷 등일 수 있는 네트워크를 통해 통신한다는 것으로 이해된다. 상기 비디오 캡처 장치(102), 상기 오디오 레코딩 장치(103) 및 상기 센서(104)는 또한 네트워크를 통해 또는 당업계에 공지된 임의의 다른 방식으로 상기 제어 및 데이터 수집 서버(101)와 통신할 수 있다. It is understood that the system (100), the metaverse server (113), the communication module (115), and the user device (114) communicate via a network, which may be the Internet, Ethernet, or the like. The video capture device (102), the audio recording device (103), and the sensor (104) may also communicate with the control and data collection server (101) via a network or in any other manner known in the art.
도 4는 저장된 데이터 모듈(107)을 갖지 않는 예시적인 실시예를 도시한다. 본 실시예에서, 상기 AI 컴퓨팅 모듈(111)은 인터넷을 통해 3D 모델을 생성하기 위해 요구될 수 있는 임의의 추가 데이터에 액세스할 수 있다.Figure 4 illustrates an exemplary embodiment that does not have a stored data module (107). In this embodiment, the AI computing module (111) can access any additional data that may be required to generate a 3D model via the Internet.
도 5는 본 기술에 따라 가상 또는 증강 현실 환경을 생성하기 위한 디지털 트윈을 생성하는 방법(500)의 예시적인 실시예를 도시한다. 상기 방법(400)은 다음의 예시적인 단계들로 구성된다: Figure 5 illustrates an exemplary embodiment of a method (500) for creating a digital twin for creating a virtual or augmented reality environment according to the present technology. The method (400) comprises the following exemplary steps:
a) 비디오를 캡처하고 상기 시각 요소를 생성하고, 오디오를 레코딩하고 상기 오디오 요소를 생성하고, 촉각적 특성들을 결정하고 상기 촉각 요소를 생성하고, 거리 및 공간 좌표들을 측정하고 공간 요소를 생성하는 단계; a) capturing video and generating the visual element, recording audio and generating the audio element, determining tactile characteristics and generating the tactile element, and measuring distance and spatial coordinates and generating the spatial element;
b) 상기 시각 요소, 상기 오디오 요소, 상기 공간 요소 및 상기 촉각 요소 중 하나에 대응하는 메타데이터를 레코딩하는 단계; b) recording metadata corresponding to one of the visual element, the audio element, the spatial element and the tactile element;
c) 상기 실생활 요소의 디지털 트윈을 생성하는 단계;c) a step of creating a digital twin of the above real-life element;
d) 서버에 상기 디지털 트윈을 저장하는 단계; d) a step of storing the digital twin on a server;
e) 상기 시각 요소, 상기 오디오 요소, 상기 공간 요소 및 상기 촉각 요소 중 적어도 하나에 토큰들을 할당하는 단계; e) assigning tokens to at least one of the visual element, the audio element, the spatial element and the tactile element;
f) 서버를 메타버스 호스팅 서버에 연결하는 단계; f) Step of connecting the server to the metaverse hosting server;
g) 상기 디지털 트윈에 대응하는 가상 현실 환경을 생성함으로써 상기 메타버스에 상기 디지털 트윈을 통합하는 단계; 및 g) a step of integrating the digital twin into the metaverse by creating a virtual reality environment corresponding to the digital twin; and
h) 상기 디지털 트윈에 대응하는 상기 가상 현실 환경에 대한 액세스를 사용자 장치에 제공하는 단계. h) providing the user device with access to the virtual reality environment corresponding to the digital twin.
도 6은 암호화폐 토큰들이 할당된 실생활 요소들의 다수의 디지털 트윈들을 갖는 가상 또는 증강 현실 환경을 생성하는 방법(500)의 예시적인 실시예를 도시한다. 상기 방법(500)의 가상 또는 증강 현실 환경은 다수의 사용자 장치에 대하여 액세스를 제공하는 메타버스에 통합된다. 상기 방법은 다음의 단계들을 갖는다: Figure 6 illustrates an exemplary embodiment of a method (500) for creating a virtual or augmented reality environment with multiple digital twins of real-world elements to which cryptocurrency tokens are assigned. The virtual or augmented reality environment of the method (500) is integrated into a metaverse that provides access to multiple user devices. The method comprises the following steps:
a) 대응하는 메타데이터를 갖는 디지털 비디오 스트림을 수신하고, 대응하는 메타데이터를 갖는 디지털 오디오 스트림을 수신하고, 센서로부터 보충 데이터를 수신하는 단계; a) receiving a digital video stream having corresponding metadata, receiving a digital audio stream having corresponding metadata, and receiving supplementary data from a sensor;
b) (1) 비디오 요소를 결정하는 상기 비디오 스트림 내의 이미지들로부터, (2) 오디오 스트림 오디오 요소로부터, 그리고 (3) 데이터 촉각 요소들과 공간 요소들의 조합으로부터 생성하는 단계; b) generating (1) from images in said video stream that determine a video element, (2) from audio stream audio elements, and (3) from a combination of data tactile elements and spatial elements;
c) 상기 비디오 스트림의 이미지에서 캡처된 다수의 실생활 요소의 디지털 트윈을 생성하고, 대응하는 비디오 요소, 오디오 요소, 촉각 요소 및 공간 요소를 각 디지털 트윈에 할당하는 단계; c) creating digital twins of a plurality of real-life elements captured from images of the video stream, and assigning corresponding video elements, audio elements, tactile elements, and spatial elements to each digital twin;
d) 상기 블록체인에서 분산 방식으로 각 생성된 디지털 트윈에 대하여 참조들을 저장하는 단계; d) a step of storing references to each digital twin created in a distributed manner in the blockchain;
e) 암호화폐 토큰들을 적어도 하나의 디지털 트윈 비주얼에 할당하는 단계; e) assigning cryptocurrency tokens to at least one digital twin visual;
f) 디지털 트윈을 호스팅하는 가상 또는 증강 현실 환경을 생성하는 단계; f) creating a virtual or augmented reality environment hosting the digital twin;
g) 가상 또는 증강 현실 환경을 상기 메타버스에 통합하는 단계; 및 g) a step of integrating a virtual or augmented reality environment into the metaverse; and
h) 사용자 장치에 대응하는 상기 가상 현실 환경에 대한 액세스를 제공하는 단계. h) A step of providing access to the virtual reality environment corresponding to the user device.
상기 방법(600)은 상기 가상 또는 증강 현실 환경의 상이한 가상 요소들에 암호화폐 토큰들을 할당한다. 본 명세서에서 디지털 트윈은 가상 객체에 관한 것이며, 여기에는 다음 중 어느 하나가 포함될 수 있다: 라이브 공연의 디지털화된 부분, 디지털화된 노래 또는 행위, 디지털화된 공연에서의 좌석의 특정 세트, 디지털화된 공연의 특정 시야각(angles of view), 실생활 객체의 디지털 트윈일 수 있거나 드래곤, 아바타, 파이어볼 등과 같은 순수 가상 객체일 수 있는 특정 객체, 공연의 디지털화된 이미지의 시퀀스, 라이브 이벤트 현장에서의 실제 물리적 공간에 대응하는 특정 디지털 공간 및 가상 또는 증강 현실 환경 내의 임의의 다른 가상 객체. 암호화폐 토큰들은 대체가능한 토큰들 또는 대체 불가능 토큰들일 수 있다. The method (600) assigns cryptocurrency tokens to different virtual elements of the virtual or augmented reality environment. In this specification, a digital twin refers to a virtual object, which may include any of the following: a digitized portion of a live performance, a digitized song or act, a specific set of seats in a digitized performance, specific angles of view in a digitized performance, a specific object that may be a digital twin of a real-world object or a purely virtual object such as a dragon, an avatar, a fireball, etc., a sequence of digitized images of the performance, a specific digital space corresponding to an actual physical space at a live event venue, and any other virtual object within the virtual or augmented reality environment. The cryptocurrency tokens may be fungible tokens or non-fungible tokens.
상기 시스템(100)의 일부 실시예에서, 또한, 암호화폐 결제 처리 시스템들이 생성된 가상 또는 증강 현실 환경에 통합되어, 사용자가 사용자 장치를 통해 상호작용하여 암호화폐 토큰에 대해 가상 또는 증강 현실 환경 내의 임의의 디지털 트윈뿐만 아니라 실제 가상 또는 증강 현실 환경 자체를 획득할 수 있다. 이를 가능하게 하기 위해, 상기 시스템(100)은 블록체인의 가상 또는 증강 현실 환경 내의 각 디지털 트윈에 영구적 또는 반영구적 참조들을 할당한다. 상기 시스템(100)이 현재 시장에 존재하거나 미래에 존재할 수 있는 임의의 블록체인에 참조들을 할당할 수 있다는 것이 당업자에 의해 이해된다. 상기 참조들을 할당하는 것은 주어진 블록체인의 상기 디지털 트윈에 고유 식별자들을 제공하는 것을 포함한다.In some embodiments of the system (100), cryptocurrency payment processing systems are also integrated into a generated virtual or augmented reality environment, allowing a user to interact with a user device to obtain a digital twin of a cryptocurrency token within the virtual or augmented reality environment, as well as the actual virtual or augmented reality environment itself. To facilitate this, the system (100) assigns permanent or semi-permanent references to each digital twin within the virtual or augmented reality environment of a blockchain. Those skilled in the art will appreciate that the system (100) can assign references to any blockchain currently in existence or that may exist in the future. Assigning the references includes providing unique identifiers to the digital twin of a given blockchain.
상기 가상 또는 증강 현실 환경은 또한 분산 원장에서 호스팅될 수 있고 블록체인 기술에서 완전히 동작 가능할 수 있다. 상기 컴퓨팅 서버(106)의 컴퓨팅 파워는 그 다음 블록체인에 기록되고 요청시 상기 시스템(100)에 의해 액세스될 수 있는 별개의 작업을 각각 수행하는 다수의 머신에 걸쳐 분산될 것이다. The virtual or augmented reality environment may also be hosted on a distributed ledger and fully operational on blockchain technology. The computing power of the computing server (106) would then be distributed across multiple machines, each performing a separate task that would be recorded on the blockchain and accessible by the system (100) upon request.
도 7은 가상 또는 증강 현실 환경이 시스템(100)에 의해 생성된 후에, 사용자가 사용자 장치와 메타버스 내의 가상 또는 증강 현실 환경 사이에서 블록체인을 통해 토큰 데이터를 통신할 수 있게 하는 방법(700)을 예시한다. 많은 메타버스들 및 많은 가상 또는 증강 현실 환경들은 상기 사용자가 상기 가상 또는 증강 현실 환경에서 상기 디지털 트윈만을 보고 청취할 수 있게 하여, 상기 사용자와 상기 메타버스 또는 가상 또는 증강 현실 환경의 다른 상호작용을 제한할 수 있다는 것으로 이해된다. 일부 경우에서, 이것은 상기 메타버스를 호스팅하는 서버(113) 또는 사용자 장치(114)와 통신하는 상기 통신 모듈(115)의 컴퓨팅 파워를 최적화할 수 있다. FIG. 7 illustrates a method (700) for enabling a user to communicate token data via a blockchain between a user device and a virtual or augmented reality environment within a metaverse after the virtual or augmented reality environment has been created by the system (100). It is understood that many metaverses and many virtual or augmented reality environments may only allow the user to see and hear the digital twin within the virtual or augmented reality environment, thereby limiting other interactions between the user and the metaverse or virtual or augmented reality environment. In some cases, this may optimize the computing power of the communication module (115) that communicates with the server (113) hosting the metaverse or the user device (114).
도 8은 라이브 이벤트의 가상 또는 증강 현실 환경에 대한 디지털 트윈을 생성하는 방법(800)의 예시적인 실시예를 예시하며, 여기서, 상기 시스템(100)은 장소의 적절한 수의 실생활 요소의 디지털 표현들과 시스템(100) 또는 메타버스 서버(113)에 의해 가상 또는 증강 현실 환경에 통합된 가상 객체들을 갖는 라이브 이벤트 장소의 3D 모델을 초기에 생성한다. 일부 경우에서, 먼저 라이브 이벤트의 전체 3D 가상 또는 증강 현실 환경을 생성하고, 그 다음, 상기 오디오 요소를 상기 가상 또는 증강 현실 환경에 추가하는 것이 유용할 수 있다. 상기 오디오 요소는 라이브 이벤트의 가상 또는 증강 현실 환경의 상이한 부분에 상이하게 추가될 수 있는데, 예를 들어, 라이브 이벤트의 가상 또는 증강 현실 환경의 일부 위치에서, 사운드는 조용할 수 있고 다른 것은 더 크게 될 수 있다. 또한, 상기 오디오는 상이한 트랙에 의해 분할될 수 있으며, 이에 의해 각 트랙은 사운드의 개별 소스에 대응한다. 상기 방법(800)이 예시하는 바와 같이, 라이브 이벤트의 가상 또는 증강 현실 환경 내의 오디오 요소에 대응하는 상기 오디오 트랙은 상기 디지털 트윈이 생성된 후에 추가될 수 있다. 일부 실시예에서, 오디오 트랙을 갖는 실제 파일은 상기 시스템(100)의 서버에서 호스팅되지 않을 수 있고, 네트워크를 통해 그것에 연결될 수 있다. FIG. 8 illustrates an exemplary embodiment of a method (800) for creating a digital twin of a virtual or augmented reality environment of a live event, wherein the system (100) initially creates a 3D model of the live event venue with digital representations of an appropriate number of real-world elements of the venue and virtual objects integrated into the virtual or augmented reality environment by the system (100) or a metaverse server (113). In some cases, it may be useful to first create the entire 3D virtual or augmented reality environment of the live event, and then add audio elements to the virtual or augmented reality environment. The audio elements may be added differently to different parts of the virtual or augmented reality environment of the live event, for example, sounds may be quiet in some locations of the virtual or augmented reality environment of the live event, while others may be louder. Additionally, the audio may be segmented into different tracks, whereby each track corresponds to a separate source of sound. As exemplified by the method (800), the audio track corresponding to an audio element within the virtual or augmented reality environment of the live event may be added after the digital twin is created. In some embodiments, the actual file containing the audio track may not be hosted on the server of the system (100) and may be connected to it via a network.
일부 실시예에서, 상기 시스템(100)은 캡처된 비디오 데이터 스트림, 오디오 데이터 스트림 및 센서로부터의 데이터 스트림을 저장할 수 있고, 다른 실시예에서, 상기 시스템(100)은 라이브 이벤트의 가상 또는 증강 현실 환경에 대한 3D 모델을 생성하기 위해 이러한 데이터 스트림들을 사용할 수 있고, 실제 비디오, 오디오 및 센서 데이터는 별개의 서버에 저장될 수 있고, 상기 시스템(100)은 그것의 컴퓨팅 모듈(106)을 그곳에 연결하여 실생활 요소들과 라이브 이벤트의 디지털 표현들을 생성할 수 있는 것으로 이해된다. In some embodiments, the system (100) may store captured video data streams, audio data streams, and data streams from sensors, and in other embodiments, the system (100) may use these data streams to create a 3D model of a virtual or augmented reality environment of a live event, and it is understood that the actual video, audio, and sensor data may be stored on a separate server, and the system (100) may connect its computing module (106) thereto to create real-world elements and digital representations of the live event.
도 9는 상기 컴퓨팅 서버(106)에 의해 실생활 요소의 3D 모델 디지털 트윈을 생성하는 방법(900)의 예시적인 실시예를 도시하며, 다음의 단계들을 포함한다:FIG. 9 illustrates an exemplary embodiment of a method (900) for creating a 3D model digital twin of a real-life element by the computing server (106), comprising the following steps:
a) 비디오, 오디오, 센서 데이터 스트림을 수신하는 단계; a) receiving video, audio, and sensor data streams;
b) 라이브 데이터 프로세싱 단계; b) Live data processing stage;
c) 깊이/범위 프로세싱 단계; c) Depth/range processing stage;
d) AI 분석 및 데이터 향상 프로세싱 단계; d) AI analysis and data enhancement processing steps;
e) 메시(mesh) 생성 단계; e) Mesh generation step;
f) 포인트 클라우드 생성 단계; f) Point cloud creation step;
g) 3D 모델 근사화 단계; g) 3D model approximation step;
h) 시점(viewpoint) 생성 단계; h) Viewpoint creation step;
i) 압축/송신 단계 i) Compression/transmission stage
당업자는 상기 방법(900)을 변경하여 본 기술의 범위 내에 머물 수 있는 것으로 이해된다.It will be understood that one skilled in the art can modify the above method (900) to remain within the scope of the present technology.
도 10은 멀티-뷰 3D 재구성 기술에 기초하여 멀티-뷰 화상으로부터 실생활 요소 또는 라이브 이벤트 장소의 디지털 트윈의 3D 모델을 생성하는 방법(1000)의 예시적인 실시예를 도시한다.FIG. 10 illustrates an exemplary embodiment of a method (1000) for generating a 3D model of a digital twin of a real-life element or a live event venue from a multi-view image based on a multi-view 3D reconstruction technique.
도 11은 가상 또는 증강 현실 환경과 상호작용하는 사용자 장치의 방법(1100)의 예시적인 실시예를 도시한다. 상기 가상 또는 증강 현실 환경과의 사용자 장치 상호작용의 임의의 적절한 모델이 본 기술의 범위 내에 있다는 것으로 이해된다. FIG. 11 illustrates an exemplary embodiment of a method (1100) of a user device interacting with a virtual or augmented reality environment. It is understood that any suitable model of user device interaction with the virtual or augmented reality environment is within the scope of the present technology.
도 12는 사용자 장치(1200)의 예시적인 실시예를 도시한다. 상기 사용자 장치(1200)는 가상 현실 헤드셋으로서 예시되지만, 상기 사용자 장치는 또한 스마트폰, 스마트 안경, 컴퓨터, 태블릿, 게임패드 등(여기에 예시되지 않음)을 포함할 수 있다. FIG. 12 illustrates an exemplary embodiment of a user device (1200). The user device (1200) is illustrated as a virtual reality headset, but the user device may also include a smartphone, smart glasses, a computer, a tablet, a gamepad, etc. (not illustrated herein).
일부 실시예에서, 상기 시스템(100)은 상기 저장된 데이터 모듈(107)에 저장된 라이브 이벤트가 발생하는 장소의 물리적 공간의 3D 모델을 가질 수 있다는 것으로 이해된다. 이와 같이, 상기 시스템(100)은 상기 장소에서 발생하는 실제 공연과 관련된 비디오, 오디오 및 센서 데이터 스트림만을 캡처할 것이다. 상기 장치 제어 및 데이터 수집 서버(101)는 상기 라이브 이벤트 장소에 존재하는 공연자, 운동선수 및/또는 장식 및 애니메이션의 비디오, 오디오 및 센서 데이터 스트림을 캡처하기 위해 상기 라이브 데이터 수집 모듈(105)을 동작시킬 것이다. 그 다음, 상기 컴퓨팅 서버(106)는 상기 저장된 데이터 모듈(107)에 저장된 장소의 물리적 공간의 디지털 트윈의 3D 모델을 상기 이미지 기반 랜더링 모듈(108), 상기 사진 측량 모듈(109) 및/또는 상기 하이브리드 모듈(110) 중 임의의 하나에 의해 생성된 디지털 트윈과 매칭시킬 것이다. 상기 AI 컴퓨팅 모듈(111)은 상기 물리적 공간의 미리 저장된 3D 디지털 트윈과 상기 라이브 이벤트의 생성된 3D 디지털 트윈 사이의 호환성을 용이하게 하고/하거나 향상시키기 위해 활성화될 수 있다. 일부 실시예에서, 상기 AI 컴퓨팅 모듈(111)의 사용은 생략될 수 있다. 상기 3D 모델 랜더링 모듈(112)은 상기 장소의 물리적 공간과 상기 라이브 이벤트의 물리적 공간에 대응하는 상기 디지털 트윈의 최종 3D 모델을 생성하며, 이는 가상 또는 증강 현실 환경을 생성한다. In some embodiments, it is understood that the system (100) may have a 3D model of the physical space of the venue where the live event takes place stored in the stored data module (107). As such, the system (100) will only capture video, audio, and sensor data streams related to actual performances occurring at the venue. The device control and data collection server (101) will operate the live data collection module (105) to capture video, audio, and sensor data streams of performers, athletes, and/or decorations and animations present at the live event venue. The computing server (106) will then match the 3D model of the digital twin of the physical space of the venue stored in the stored data module (107) with the digital twin generated by any one of the image-based rendering module (108), the photogrammetry module (109), and/or the hybrid module (110). The AI computing module (111) may be activated to facilitate and/or enhance compatibility between a pre-stored 3D digital twin of the physical space and a generated 3D digital twin of the live event. In some embodiments, the use of the AI computing module (111) may be omitted. The 3D model rendering module (112) generates a final 3D model of the digital twin corresponding to the physical space of the location and the physical space of the live event, which creates a virtual or augmented reality environment.
상기 컴퓨팅 서버(106)는 어떤 라이브 이벤트의 실생활 요소들이 디지털화될지 어떤 것들이 시스템(100)에 의해 디지털화되지 않을지, 그리고 어떤 것들이 시스템(100)에 의해 라이브 이벤트의 코스 동안 디지털화되어 주어진 시간에 상기 가상 또는 증강 현실 환경에 통합될지를 결정할 가능성을 통합함으로써 상기 시스템(100)이 실시간 또는 준실시간으로 충분한 정확도로 상기 가상 또는 증강 현실 환경을 생성할 수 있도록 허용한다. 이러한 기술은 디지털화될 큰 컴퓨팅 부하를 요구하는 실시간 요소를 선택적으로 식별하기 위해 적용될 수 있다. 예를 들어, 불꽃놀이, 화재, 분수대 등은 디지털화되는 것으로부터 완전히 생략될 수 있고, 대신에 상기 저장된 데이터 모듈(107)에 저장되거나 상기 인터넷을 통해 이용가능한 가상 객체의 라이브러리로부터의 가상 객체에 의해 대체될 수 있다.The computing server (106) allows the system (100) to generate the virtual or augmented reality environment with sufficient accuracy in real time or near real time by incorporating the ability to determine which real-life elements of the live event will be digitized, which will not be digitized by the system (100), and which will be digitized by the system (100) during the course of the live event and integrated into the virtual or augmented reality environment at a given time. This technique can be applied to selectively identify real-time elements that require a large computational load to be digitized. For example, fireworks, fires, fountains, etc., can be omitted from being digitized entirely and instead replaced with virtual objects from a library of virtual objects stored in the stored data module (107) or available via the Internet.
본 기술의 일부 실시예에서, 상기 시스템(100)은 경기장 또는 콘서트 홀과 같은 라이브 이벤트의 큰 물리적 장소의 디지털 트윈의 3D 모델을 생성할 수 있다. 생성된 상기 가상 또는 증강 현실 환경은 상기 장소의 크기에 가상으로 대응할 것이다. 사용자가 상기 가상 또는 증강 현실 환경에 자신의 아바타를 배치할 때, 상기 사용자는 자신의 아바타의 위치로부터 상기 라이브 이벤트를 경험할 수 있을 수 있다. 많은 사용자들이 상기 가상 또는 증강 현실 환경에서 그들의 아바타를 가질 것이고 각 사용자가 상기 가상 또는 증강 현실 환경 내에서의 상호작용을 위해 그에 할당된 상이한 권한을 가질 수 있는 경우가 있을 수 있다. 사용자가 어떤 권한을 갖고 자신이 상기 가상 또는 증강 현실 환경과 어떻게 상호작용할 수 있는지를 결정하기 위해, 상기 시스템(100)은 각 사용자 또는 사용자들의 그룹의 각 아바타 주위에 가상 지오펜스(virtual geofences)를 생성할 수 있다. 상기 가상 지오펜스는 또한 상기 가상 또는 증강 현실 환경의 상이한 위치에서 생성될 수 있으며, 이에 의해 각 위치들은 그에 할당된 유사하거나 상이한 권한을 가질 수 있다. 추가적으로, 상기 지오펜스는 암호화폐 토큰과 연관될 수 있다. 이와 같이, 상기 지오펜스는 상기 사용자들이 상기 토큰을 사용하여 상기 지오펜스 내의 가상 객체를 구매 또는 교환하게 할 수 있다. 추가적으로, 특정 지오펜스에 진입하기 위해, 상기 사용자는 암호화폐 토큰을 구매 또는 교환하도록 요구될 수 있는데, 이는 일반 사용자가 예를 들어 라이브 이벤트의 VIP 구역에 진입하기 위해 실생활에서 행하는 것과 같다.In some embodiments of the present technology, the system (100) can generate a 3D model of a digital twin of a large physical location, such as a stadium or concert hall, for a live event. The generated virtual or augmented reality environment will virtually correspond to the size of the location. When a user places their avatar in the virtual or augmented reality environment, the user can experience the live event from the location of their avatar. Multiple users may have their avatars in the virtual or augmented reality environment, and each user may have different permissions assigned to them for interacting within the virtual or augmented reality environment. To determine which permissions a user has and how they can interact with the virtual or augmented reality environment, the system (100) can generate virtual geofences around each avatar of each user or group of users. The virtual geofences can also be generated at different locations within the virtual or augmented reality environment, whereby each location may have similar or different permissions assigned to it. Additionally, the geofences can be associated with cryptocurrency tokens. In this way, the geofence can allow users to purchase or exchange virtual objects within the geofence using the token. Additionally, to enter a specific geofence, the user may be required to purchase or exchange cryptocurrency tokens, similar to what a regular user might do in real life, for example, to enter a VIP area at a live event.
상기 시스템(100)은 위치 주위에 가상 경계를 생성하기 위해 글로벌 포지셔닝 시스템(GPS) 위성 네트워크 및/또는 로컬 무선 주파수 식별자들(Wi-Fi 노드 또는 블루투스 비콘과 같은)의 사용으로 제한되지 않는 임의의 적절한 지오펜싱 기술 또는 균등물을 사용할 수 있다는 것으로 이해된다. 상기 가상 또는 증강 현실 환경 지오펜스는 상기 메타버스의 좌표 시스템뿐만 아니라 상기 매트릭스 및 다른 유형들의 경계 계산 기들을 사용하여 생성될 수 있다. 상기 지오펜스는 그 후 사용자 장치의 소프트웨어 애플리케이션과 또는 상기 메타버스 또는 상기 가상 또는 증강 현실 환경의 파라미터에 의해 지시되는 바와 같은 일부 방식으로 경계에 응답하는 암호화폐 토큰과 페어링될 수 있다. It is understood that the system (100) may utilize any suitable geofencing technology or equivalent, including but not limited to the use of a global positioning system (GPS) satellite network and/or local radio frequency identifiers (such as Wi-Fi nodes or Bluetooth beacons), to create a virtual boundary around a location. The virtual or augmented reality environment geofence may be created using the coordinate system of the metaverse, as well as the matrix and other types of boundary calculators. The geofence may then be paired with a software application on the user device or with a cryptocurrency token that responds to the boundary in some manner, such as dictated by parameters of the metaverse or the virtual or augmented reality environment.
상기 시스템(100)은 AR/VR/혼합 현실 브로드캐스팅의 목적을 위해 라이브 이벤트를 동작적으로 레코딩하고, 그 디지털 트윈을 생성하고, 데이터를 메타버스로 전달하도록 설계될 수 있다. 이와 같이, 사용자 장치(1200)의 예들은 AR/VR/혼합 현실 브로드캐스팅을 가능하게 하는 장치를 포함한다. 본원에 설명된 시스템(100) 및 방법은 라이브 이벤트 방송 또는 방송의 부분을 디지털 트윈에 부착하고, 그와 함께 가상 현실 또는 증강 현실 환경을 생성하는 것의 조합에 대한 기술적 솔루션을 제공한다. The system (100) may be designed to operatively record a live event, create a digital twin thereof, and transmit the data to the metaverse for the purpose of AR/VR/mixed reality broadcasting. Thus, examples of user devices (1200) include devices that enable AR/VR/mixed reality broadcasting. The system (100) and methods described herein provide a technical solution for the combination of attaching a live event broadcast or portion of a broadcast to a digital twin and creating a virtual reality or augmented reality environment therewith.
일부 실시예에서, 본 명세서에 기술된 시스템 및 방법은 디지털 트윈 및 방송 또는 그것의 일부를 지오펜싱(geofencing) 또는 동등한 기술의 사용자와 함께 블록체인에 부착하는 것과 NFT를 포함하는 암호화폐 기술의 가능한 조합을 가능하게 한다. 이것은 시스템(100)이 메타버스 라이브 이벤트에서 사용하기 위한 "Play to Earn" 기능의 임의의 적절한 조합을 가상 현실 또는 증강 현실 환경에 통합할 수 있게 한다. 상기 라이브 이벤트의 가상 현실 또는 증강 현실 환경에 통합된 가상 객체에 부착된 NFT의 임의의 조합이 있을 수 있음이 이해된다.In some embodiments, the systems and methods described herein enable the attachment of digital twins and broadcasts, or portions thereof, to a blockchain using geofencing or equivalent techniques, along with possible combinations of cryptocurrency technologies, including NFTs. This allows the system (100) to integrate any suitable combination of "Play to Earn" functionality for use in a metaverse live event into a virtual reality or augmented reality environment. It is understood that any combination of NFTs attached to virtual objects integrated into the virtual reality or augmented reality environment of the live event may be present.
일부 실시예에서, 상기 라이브 데이터 수집 모듈(105)은 WEB3 프레임워크 내에서 동작하고 상기 메타버스로의 효과적인 전송에 적합한 데이터를 생성하도록 구성된다.In some embodiments, the live data collection module (105) is configured to operate within a WEB3 framework and generate data suitable for effective transmission to the metaverse.
일부 실시예에서, 상기 블록체인 기술은 라이브 이벤트 동안 또는 그 후에 상기 가상 현실 또는 증강 현실 환경 내의 가상 객체의 카탈로그화 및 재배포를 가능하게 하기 위해 상기 시스템(100)에 의해 사용된다.In some embodiments, the blockchain technology is used by the system (100) to enable cataloging and redistribution of virtual objects within the virtual reality or augmented reality environment during or after a live event.
전술한 바와 같이, 상기 시스템(100)은 실생활 요소의 디지털 트윈을 생성하기 위한 3D 모델링을 위해 임의의 적절한 기술을 사용할 수 있다.As described above, the system (100) may use any suitable technique for 3D modeling to create a digital twin of a real-life element.
본 기술의 다양한 기술들과 메커니즘들은 때때로 명확성을 위해 단수 형태로 설명될 것이다. 그러나, 일부 실시예는 달리 언급되지 않는 한, 기술의 다수의 반복 또는 메커니즘의 다수의 인스턴스화를 포함한다는 점에 유의해야 한다. 예를 들어, 시스템은 다양한 맥락에서 프로세서를 사용한다. 그러나, 달리 언급되지 않는 한, 시스템은 다수의 프로세서, 클라우드 컴퓨팅, 분산 원장 기술, 다중-코어 프로세서, 비디오 카드 또는 그래픽 가속기, 양자 컴퓨터 또는 이들의 조합을 사용할 수 있으며, 여전히 본 발명의 범위 내에 남아 있다는 점이 이해될 것이다. 또한, 본 기술의 기술들 및 메커니즘들은 때때로 2개의 개체 사이의 연결을 설명할 것이다. 다양한 다른 개체가 2개의 개체 사이에 존재할 수 있기 때문에, 2개의 개체 사이의 연결은 반드시 직접적인 방해받지 않은 연결을 의미하지는 않는다는 점에 유의해야 한다. 예를 들어, 프로세서는 메모리에 연결될 수 있지만, 다양한 브리지 및 컨트롤러가 프로세서와 메모리 사이에 존재할 수 있다는 점이 이해될 것이다. 결과적으로, 달리 언급되지 않는 한, 연결은 반드시 직접적이고 방해받지 않는 연결을 의미하지는 않는다 The various techniques and mechanisms of the present technology will sometimes be described in the singular for clarity. However, it should be noted that some embodiments include multiple iterations of the technique or multiple instantiations of the mechanism, unless otherwise noted. For example, the system uses a processor in various contexts. However, it will be appreciated that the system could utilize multiple processors, cloud computing, distributed ledger technology, multi-core processors, video cards or graphics accelerators, quantum computers, or any combination thereof, and still remain within the scope of the present invention. Furthermore, the techniques and mechanisms of the present technology will sometimes describe a connection between two entities. It should be noted that a connection between two entities does not necessarily imply a direct, unobstructed connection, as various other entities may exist between the two entities. For example, a processor may be connected to memory, but it will be appreciated that various bridges and controllers may exist between the processor and the memory. Consequently, unless otherwise noted, a connection does not necessarily imply a direct, unobstructed connection.
위의 설명에서, 다수의 특정 세부사항들이 설명되지만, 본 발명의 실시예는 이러한 특정 세부사항 없이 실시될 수 있다. 잘 알려진 회로, 구조 및 기술은 본 설명의 이해를 모호하게 하는 것을 회피하기 위해 상세하게 도시되지 않았다. "실시예", "다양한 실시예" 등은 그렇게 설명된 실시예(들)가 특정 특징, 구조 또는 특성을 포함할 수 있지만, 모든 실시예가 반드시 특정 특징, 구조 또는 특성을 포함하는 것은 아님을 나타낸다. 일부 실시예는 다른 실시예에 대해 설명된 특징 중 일부, 전부 또는 전부를 갖지 않을 수 있다. "연결된"은 요소가 서로 직접 물리적 또는 전기적으로 접촉하고 있음을 나타낼 수 있고, "결합된"은 요소가 서로 협력하거나 상호작용하지만, 그것들이 직접 물리적 또는 전기적 접촉하고 있거나 그렇지 않을 수 있음을 나타낼 수 있다. 또한, 유사하거나 동일한 번호가 상이한 도면들에서 동일하거나 유사한 부분을 지정하기 위해 사용될 수 있지만, 그렇게 하는 것은 유사하거나 동일한 번호를 포함하는 모든 도면들이 단일 또는 동일한 실시예를 구성함을 의미하지는 않는다.Although numerous specific details are set forth in the above description, embodiments of the present invention may be practiced without these specific details. Well-known circuits, structures, and techniques have not been shown in detail to avoid obscuring the understanding of this description. Terms such as "embodiment," "various embodiments," and the like indicate that the described embodiment(s) may include certain features, structures, or characteristics, but not all embodiments necessarily include the particular features, structures, or characteristics. Some embodiments may not have some, all, or all of the features described with respect to other embodiments. "Connected" may indicate that elements are in direct physical or electrical contact with one another, and "coupled" may indicate that elements cooperate or interact with one another, but may or may not be in direct physical or electrical contact. Furthermore, while similar or identical numbers may be used to designate the same or similar parts in different drawings, doing so does not imply that all drawings including similar or identical numbers constitute a single or identical embodiment.
당업자는 본 설명이 사용자로부터 데이터를 수신하는 것을 실행하는 전자 장치가 사용자로부터 전자(또는 다른) 신호를 수신할 수 있다는 것을 사용자로부터 "데이터 수신"을 지칭할 때를 이해할 것이다. 당업자는 또한 사용자-그래픽 인터페이스(전자 장치의 스크린 등과 같은)를 통해 사용자에게 데이터를 표시하는 것이 사용자-그래픽 인터페이스에 신호를 송신하는 것을 포함할 수 있고, 데이터를 포함하는 신호는 데이터가 조작될 수 있고 데이터의 적어도 일부가 사용자-그래픽 인터페이스를 사용하여 사용자에게 표시될 수 있다는 것을 이해할 것이다.Those skilled in the art will understand that when the present description refers to "receiving data" from a user, the electronic device that receives the data from the user can receive an electronic (or other) signal from the user. Those skilled in the art will also understand that displaying the data to the user via a user-graphical interface (such as a screen of the electronic device) can include sending a signal to the user-graphical interface, and that the signal containing the data can be manipulated and at least a portion of the data can be displayed to the user using the user-graphical interface.
이들 단계와 신호 송신-수신의 일부는 당업계에 잘 알려져 있으며, 이와 같이, 간략화를 위해 본 설명의 특정 부분에서는 생략되었다. 상기 신호는 광학 수단(예를 들어, 광섬유 접속), 전자 수단(예를 들어, 유선 또는 무선 접속을 사용함) 및 기계적 수단(예를 들어, 압력-기반, 온도-기반 또는 임의의 다른 적절한 물리적 파라미터-기반)을 사용하여 송신-수신될 수 있다.Some of these steps and signal transmission-reception are well known in the art and, as such, have been omitted from certain portions of this description for brevity. The signal may be transmitted-received using optical means (e.g., fiber optic connections), electronic means (e.g., using wired or wireless connections), and mechanical means (e.g., pressure-based, temperature-based, or any other suitable physical parameter-based).
본 기술의 전술한 구현에 대한 수정 및 개선은 당업자에게 명백해질 수 있다. 전술한 설명은 제한적이기보다는 예시적인 것으로 의도되었다. 따라서, 본 기술의 범위는 첨부된 청구항들의 범위에 의해서만 제한되는 것으로 의도되었다.Modifications and improvements to the aforementioned implementations of this technology will become apparent to those skilled in the art. The foregoing description is intended to be illustrative rather than restrictive. Accordingly, the scope of this technology is intended to be limited only by the scope of the appended claims.
Claims (34)
상기 디지털 트윈은 라이브 이벤트에 대응하는 것이고,
상기 시스템은:
네트워크에 연결된 복수의 비디오 캡처 장치들 - 각 비디오 캡처 장치는 상기 라이브 이벤트의 비디오들을 캡처하기 위한 것이고, 각 캡처된 비디오는 대응하는 메타데이터를 가짐- ;
상기 라이브 이벤트의 오디오를 레코딩하기 위한 복수의 오디오 레코딩 장치들;
각 비디오 캡처 장치와 각 오디오 레코딩 장치로부터 데이터를 수신하도록 구성된 서버;
를 포함하고,
상기 서버는 컴퓨팅 모듈을 동작시키되,
상기 모듈은:
상기 캡처된 비디오들과 상기 대응하는 메타데이터(metadata)를 분석하고,
상이한 비디오 캡처 장치들에 의해 캡처되는 이미지들 사이의 공간 깊이(spatial depth)를 결정하고,
각 캡처된 비디오를 가상 공간의 좌표 행렬(coordinate matrix)에 매칭시키고,
상기 오디오를 상기 가상 공간의 좌표 행렬에 매칭시키고,
상기 캡처된 비디오들, 상기 대응하는 메타데이터, 상기 공간 깊이, 미리 결정된 좌표들의 세트 및 상기 좌표 행렬에 기초하여 상기 라이브 이벤트 중 적어도 일부의 디지털 트윈을 생성하도록 구성되고,
상기 서버는,
적어도 하나의 360도 디지털 표현과 복수의 단방향 디지털 표현들을 포함하는, 상기 라이브 이벤트의 다수의 방향들 유래의 복수의 디지털 표현들을 생성하되, 각 디지털 표현은 상기 상호작용형 가상 현실 환경에서 상기 디지털 트윈 내의 시야각(viewing angle)에 대응하도록 구성되고,
상기 디지털 표현들 및 오디오는 동작 중에 상기 라이브 이벤트의 상기 상호작용형 가상 현실 환경에 참여하는 사용자의 장치로 송신될 수 있는, 시스템.A system for creating a digital twin in an interactive virtual reality environment,
The above digital twin corresponds to a live event,
The above system:
A plurality of video capture devices connected to a network, each video capture device being configured to capture video of the live event, each captured video having corresponding metadata;
A plurality of audio recording devices for recording audio of the above live event;
A server configured to receive data from each video capture device and each audio recording device;
Including,
The above server operates a computing module,
The above module:
Analyze the captured videos and the corresponding metadata,
Determining the spatial depth between images captured by different video capture devices,
Match each captured video to a coordinate matrix in virtual space,
Matching the above audio to the coordinate matrix of the virtual space,
configured to generate a digital twin of at least a portion of the live event based on the captured videos, the corresponding metadata, the spatial depth, a set of predetermined coordinates, and the coordinate matrix;
The above server,
Generating a plurality of digital representations from multiple orientations of the live event, including at least one 360-degree digital representation and a plurality of unidirectional digital representations, each digital representation configured to correspond to a viewing angle within the digital twin in the interactive virtual reality environment;
The system wherein the digital representations and audio can be transmitted to a device of a user participating in the interactive virtual reality environment of the live event during operation.
상기 시스템은 사용자의 장치로부터 데이터를 수신하도록 추가 구성되고, 상기 데이터는 상기 가상 현실 환경과의 사용자의 상호작용들에 대응하는, 시스템.In the first paragraph,
The system is further configured to receive data from a user's device, the data corresponding to the user's interactions with the virtual reality environment.
상기 컴퓨팅 모듈은 상기 가상 현실 환경에서 상기 디지털 트윈의 상기 디지털 표현 내에 있기에 적합한 실생활 요소(real-life elements)를 결정하기 위한 임계값을 계산하도록 추가 구성되는, 시스템.In the second paragraph,
The system wherein the computing module is further configured to calculate a threshold value for determining real-life elements suitable to be present within the digital representation of the digital twin in the virtual reality environment.
상기 서버는 상기 디지털 표현들을 실시간으로(real-time) 또는 상기 라이브 이벤트 후 지연된 시간에 상기 장치로 송신하도록 추가 구성되는, 시스템. In claim 1, claim 2 or claim 3,
The system wherein the server is further configured to transmit the digital representations to the device in real-time or at a delayed time after the live event.
상기 디지털 표현들, 오디오 레코딩들, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터는 적어도 부분적인 온디맨드 재배포(on demand re-distribution)를 위해 상기 시스템에 의해서 파싱되어(parsed) 데이터베이스에 저장되는, 시스템.In any one of the first to fourth paragraphs,
A system wherein the digital representations, audio recordings, corresponding metadata and corresponding coordinate matrix data are parsed by the system and stored in a database for at least partial on demand re-distribution.
상기 디지털 표현들, 오디오 레코딩들, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터는 블록체인 기술에 의한 분산 방식으로 저장되는, 시스템.In any one of the first to fifth paragraphs,
A system wherein the above digital representations, audio recordings, corresponding metadata and corresponding coordinate matrix data are stored in a distributed manner using blockchain technology.
대체 불가능 토큰들(non-fungible tokens)이 상기 디지털 표현들, 오디오 레코딩, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터를 포함하는 상기 디지털 트윈의 적어도 일부에 할당되는, 시스템.In paragraph 6,
A system wherein non-fungible tokens are assigned to at least a portion of the digital twin, including the digital representations, audio recordings, corresponding metadata, and corresponding coordinate matrix data.
상기 시스템은 상기 사용자에 의해 구매된 대체 불가능 토큰을 식별하고 대응하는 대체 불가능 토큰 권한을 상기 사용자에게 할당하도록 적응된 결제 처리기(payment processor)를 포함하는, 시스템.In paragraph 7,
A system comprising a payment processor adapted to identify a non-fungible token purchased by the user and assign a corresponding non-fungible token entitlement to the user.
상기 시스템은 상기 라이브 이벤트의 상기 디지털 트윈에 대체 불가능 토큰을 할당하는, 시스템.In any one of claims 1 to 8,
The system assigns a non-fungible token to the digital twin of the live event.
상기 서버는 디지털 표현들을 생성하기 위해 인공 지능을 사용하는, 시스템.In any one of claims 1 to 9,
The above server is a system that uses artificial intelligence to generate digital representations.
상기 환경은 시각 요소, 오디오 요소, 공간 요소 및 촉각 요소 중 적어도 하나로 이루어진 실생활 요소의 디지털 트윈을 포함하고,
상기 환경은 분산 원장 기술(distributed ledger technology)에 연결되고,
상기 방법은:
다음 중 적어도 하나로부터 상기 실생활 요소의 디지털 트윈을 생성하는 단계 -
(a) 비디오를 캡처하여 상기 시각 요소를 생성하고, 오디오를 레코딩하여 상기 오디오 요소를 생성하고, 촉각적 특성들을 결정하여 상기 촉각 요소를 생성하고, 거리 및 공간 좌표들을 측정하여 공간 요소를 생성하는 것, 및
(b) 상기 시각 요소, 상기 오디오 요소, 상기 공간 요소 및 상기 촉각 요소 중 하나에 대응하는 메타데이터를 레코딩하는 것 - ;
상기 디지털 트윈을 서버에 저장하는 단계;
상기 시각 요소, 상기 오디오 요소, 상기 공간 요소 및 상기 촉각 요소 중 적어도 하나에 토큰들을 할당하는 단계;
상기 서버를 메타버스 호스팅 서버에 연결하는 단계;
상기 디지털 트윈에 대응하는 상기 가상 현실 환경을 생성함으로써 상기 디지털 트윈을 상기 메타버스에 통합하는 단계;
상기 디지털 트윈에 대응하는 상기 가상 현실 환경에 대한 액세스를 사용자 장치에 제공하는 단계;
를 포함하는, 방법.A method for creating an interactive virtual reality environment in the metaverse,
The above environment includes a digital twin of a real-life element comprising at least one of a visual element, an audio element, a spatial element, and a tactile element,
The above environment is connected to distributed ledger technology,
The above method is:
A step of creating a digital twin of said real-life element from at least one of the following:
(a) capturing video to generate the visual element, recording audio to generate the audio element, determining tactile characteristics to generate the tactile element, and measuring distance and spatial coordinates to generate the spatial element, and
(b) recording metadata corresponding to one of the visual element, the audio element, the spatial element and the tactile element;
A step of storing the above digital twin on a server;
A step of assigning tokens to at least one of the visual element, the audio element, the spatial element and the tactile element;
A step of connecting the above server to a metaverse hosting server;
A step of integrating the digital twin into the metaverse by creating the virtual reality environment corresponding to the digital twin;
providing a user device with access to the virtual reality environment corresponding to the digital twin;
A method comprising:
상기 디지털 트윈을 서버에 저장하는 단계는, 블록체인 기술에 의한 분산 방식으로 저장하는 단계를 더 포함하는, 방법.In Article 11,
A method wherein the step of storing the digital twin on a server further includes the step of storing it in a distributed manner using blockchain technology.
상기 방법은 사용자 장치와 토큰 데이터를 통신하는 단계를 더 포함하는, 방법.In claim 11 or 12,
The method further comprises the step of communicating token data with the user device.
상기 토큰은 대체 불가능 토큰인, 방법.In Article 13,
A method wherein the above token is a non-fungible token.
거리 및 공간 좌표들을 측정하는 것은 상기 시각 요소의 형상, 제1 시각 요소 및 제2 시각 요소 사이의 거리 및 이동하는 시각 요소와 연관된 속도 중 적어도 하나를 결정하는 것을 포함하는, 방법.In any one of Articles 11 to 14,
A method wherein measuring distance and spatial coordinates comprises determining at least one of a shape of the visual element, a distance between the first visual element and the second visual element, and a velocity associated with the moving visual element.
구매된 토큰과 상기 구매된 토큰의 대응하는 권한을 식별하도록 적응된 결제 처리기를 연결하는 단계를 더 포함하는, 방법.In any one of Articles 11 to 15,
A method further comprising the step of connecting a payment processor adapted to identify a purchased token and a corresponding authorization of the purchased token.
상기 가상 현실 환경에 대한 액세스를 제공하는 단계는, 상기 사용자가 자신의 디지털 자아(digital self)를 가상 현실 환경 내의 임의의 위치로 진입(launch)시키는 것을 허용하는 단계를 포함하는, 방법.In any one of Articles 11 to 16,
A method wherein the step of providing access to the virtual reality environment comprises the step of allowing the user to launch his or her digital self into any location within the virtual reality environment.
상기 디지털 트윈의 가상 현실 환경에 기초하여 상기 메타버스의 일부를 생성하는 단계를 더 포함하는, 방법.In any one of Articles 11 to 17,
A method further comprising the step of creating a portion of the metaverse based on the virtual reality environment of the digital twin.
다수의 디지털 트윈에 대응하는 다수의 가상 현실 환경들을 생성하는 단계를 더 포함하는 방법.In any one of Articles 11 to 18,
A method further comprising the step of generating a plurality of virtual reality environments corresponding to a plurality of digital twins.
다수의 디지털 트윈을 상기 가상 현실 환경들에 통합하는 단계를 더 포함하는, 방법.In any one of Articles 11 to 19,
A method further comprising the step of integrating a plurality of digital twins into said virtual reality environments.
상기 디지털 트윈 내의 디지털화를 위한 실생활 요소를 선택하는 단계를 더 포함하는, 방법.In any one of Articles 11 to 20,
A method further comprising the step of selecting real-life elements for digitization within the digital twin.
상기 3-d 그래픽 표현은 실생활 요소에 대응하고, 상기 시스템은 네트워크에 연결되고,
상기 시스템은 비디오 캡처 장치, 대응하는 메타데이터 레코딩 장치, 오디오 레코딩 장치, 상기 비디오 캡처 장치, 오디오 레코딩 장치, 상기 메타데이터 레코딩 장치로부터 데이터를 수신하도록 구성된 서버를 포함하고,
상기 서버는 상기 실생활 요소의 3-d 그래픽 표현을 생성하기 위해 상기 캡처된 비디오의 이미지들에 표시된 객체들을 디지털화하기 위해 상기 캡처된 비디오들, 레코딩된 오디오 및 레코딩된 대응하는 메타데이터를 분석하도록 구성된 컴퓨팅 모듈을 동작시키되,
상기 방법은:
a. 상기 캡처된 비디오의 이미지들에 표시된 객체들에 기초하여, 상기 캡처된 비디오의 이미지들에 표시된 객체들 간의 거리를 결정하는 것에 기초하여, 그리고 분석된 대응하는 메타데이터에 기초하여 3-d 그래픽 표현 모델을 생성하는 단계;
b. 오디오 트랙들을 상기 3-d 그래픽 표현의 요소들에 연결하는 단계;
c. 상기 서버에 상기 3-d 그래픽 표현을 저장하는 단계;
d. 상기 서버를 메타버스 호스팅 서버에 연결하는 단계;
e. 상기 3-d 그래픽 표현에 대응하는 상기 가상 현실 환경을 생성함으로써 상기 3-d 그래픽 표현을 상기 메타버스에 통합하는 단계; 및
f. 상기 가상 현실 환경에 대한 액세스를 사용자의 장치에 제공하는 단계;
를 포함하는, 방법.A method operated by a system for generating a 3-D graphical representation in a virtual reality environment,
The above 3-D graphical representation corresponds to real-life elements, and the system is connected to a network,
The system comprises a video capture device, a corresponding metadata recording device, an audio recording device, and a server configured to receive data from the video capture device, the audio recording device, and the metadata recording device.
The server operates a computing module configured to analyze the captured videos, recorded audio and recorded corresponding metadata to digitize objects displayed in the images of the captured videos to generate a 3-D graphical representation of the real-life elements,
The above method is:
a. A step of generating a 3-D graphical representation model based on objects displayed in images of the captured video, determining distances between objects displayed in images of the captured video, and based on analyzed corresponding metadata;
b. a step of linking audio tracks to elements of the 3-d graphic representation;
c. a step of storing the 3-d graphic representation in the server;
d. A step of connecting the above server to a metaverse hosting server;
e. a step of integrating the 3-D graphic representation into the metaverse by creating the virtual reality environment corresponding to the 3-D graphic representation; and
f. providing access to the virtual reality environment to the user's device;
A method comprising:
상기 디지털 트윈은 실생활 요소에 대응하고, 상기 시스템은 네트워크에 연결되고,
상기 시스템은:
비디오 캡처 장치;
대응하는 메타데이터 레코딩 장치;
오디오 레코딩 장치;
상기 비디오 캡처 장치, 오디오 레코딩 장치, 상기 메타데이터 레코딩 장치로부터 데이터를 수신하도록 구성된 서버;
를 포함하고,
상기 서버는, 상기 캡처된 비디오들, 레코딩된 오디오 및 레코딩된 대응하는 메타데이터를 분석하고, 상기 캡처된 비디오에서의 객체들의 형상들 및 상기 캡처된 비디오들에서의 객체들 간의 거리를 결정하고, 상기 실생활 요소의 디지털 트윈을 포함하는 3-d 가상 공간의 좌표 행렬을 결정하도록 구성된 컴퓨팅 모듈을 동작시키는, 시스템.As a system for creating digital twins in an interactive virtual reality environment,
The above digital twin corresponds to real-life elements, and the system is connected to a network,
The above system:
video capture device;
Corresponding metadata recording device;
audio recording device;
A server configured to receive data from the video capture device, the audio recording device, and the metadata recording device;
Including,
A system wherein the server operates a computing module configured to analyze the captured videos, recorded audio and recorded corresponding metadata, determine shapes of objects in the captured videos and distances between objects in the captured videos, and determine a coordinate matrix of a 3-D virtual space including a digital twin of the real-life element.
상기 시스템은 네트워크에 연결되고,
상기 시스템은:
비디오 캡처 장치;
대응하는 메타데이터 레코딩 장치;
오디오 레코딩 장치;
상기 비디오 캡처 장치, 오디오 레코딩 장치, 상기 메타데이터 레코딩 장치로부터 데이터를 수신하도록 구성된 서버;
를 포함하고,
상기 서버는, 상기 캡처된 비디오들, 레코딩된 오디오 및 레코딩된 대응하는 메타데이터를 분석하고, 비디오 캡처 장치들에 의해 캡처되거나, 오디오 장치에 의해 레코딩되거나, 메타데이터 장치에 의해 레코딩된 실생활 요소 간의 공간 깊이를 결정하고, 실생활 요소의 형상들을 근사화하고, 디지털화에 적합한 실생활 요소를 결정하고, 그리고 상기 실생활 요소의 적어도 일부의 디지털 트윈을 생성하도록 구성된 컴퓨팅 모듈을 (동작시키고,
상기 서버는, 상기 상호작용형 가상 현실 환경을 상기 메타버스에 통합하기 위해 데이터를 메타버스 호스팅 서버로 전송하도록 구성되는, 시스템.A system that integrates an interactive virtual reality environment corresponding to a digital twin of real-life elements into the metaverse.
The above system is connected to a network,
The above system:
video capture device;
Corresponding metadata recording device;
audio recording device;
A server configured to receive data from the video capture device, the audio recording device, and the metadata recording device;
Including,
The server (operates a computing module configured to analyze the captured videos, recorded audio and recorded corresponding metadata, determine a spatial depth between real-life elements captured by video capture devices, recorded by audio devices or recorded by metadata devices, approximate shapes of the real-life elements, determine real-life elements suitable for digitization, and generate a digital twin of at least a portion of the real-life elements.
A system wherein the server is configured to transmit data to a metaverse hosting server to integrate the interactive virtual reality environment into the metaverse.
상기 디지털 트윈은 라이브 이벤트에 대응하는 것이고,
상기 시스템은:
네트워크를 통해 수신된 복수의 비디오 데이터 스트림들, - 각 비디오 스트림은 상기 라이브 이벤트의 물리적 공간의 미리 결정된 좌표들의 세트에 대응하고 대응하는 메타데이터를 가짐- ;
상기 라이브 이벤트의 3-D 오디오 필드에 대응하는 복수의 오디오 데이터 스트림들;
상기 비디오 데이터 스트림들과 상기 오디오 데이터 스트림들을 수신하도록 구성된 서버;
를 포함하고,
컴퓨팅 모듈을 동작시키는 상기 서버, 상기 모듈은:
상기 비디오 데이터 스트림들 및 상기 대응하는 메타데이터를 분석하고,
상기 비디오 데이터 스트림들의 이미지들 사이의 공간 깊이를 결정하고,
각 이미지에서의 객체들을 가상 공간의 좌표 행렬에 매칭시키고,
상기 3-D 오디오 필드를 상기 가상 공간의 좌표 행렬에 매칭시키며,
상기 이미지들, 상기 대응하는 메타데이터, 상기 공간 깊이, 상기 미리 결정된 좌표들의 세트 및 상기 좌표 행렬에 기초하여 상기 라이브 이벤트 중 적어도 일부의 디지털 트윈을 생성하도록 구성되고,
상기 서버는:
적어도 하나의 360도 디지털 표현과 복수의 단방향 디지털 표현들을 포함하는 상기 라이브 이벤트의 다수의 방향들 유래의 복수의 디지털 표현들을 생성하고 - 각 디지털 표현은 상기 상호작용형 가상 현실 환경에서 상기 디지털 트윈 내의 시야각에 대응함 -, 그리고
상기 디지털 표현들 및 오디오를 네트워크를 통해 사용자 장치로 송신하도록 구성되는, 시스템.A system for creating digital twins in an interactive virtual reality environment.
The above digital twin corresponds to a live event,
The above system:
A plurality of video data streams received over a network, each video stream corresponding to a set of predetermined coordinates in the physical space of the live event and having corresponding metadata;
A plurality of audio data streams corresponding to the 3-D audio field of the above live event;
A server configured to receive the video data streams and the audio data streams;
Including,
The server that operates the computing module, the module:
Analyzing the above video data streams and the corresponding metadata,
Determining the spatial depth between images of the above video data streams,
Match the objects in each image to the coordinate matrix of the virtual space,
Matching the above 3-D audio field to the coordinate matrix of the virtual space,
configured to generate a digital twin of at least a portion of the live event based on the images, the corresponding metadata, the spatial depth, the set of predetermined coordinates, and the coordinate matrix;
The above server:
Generating a plurality of digital representations from multiple orientations of said live event, said digital representation comprising at least one 360-degree digital representation and a plurality of unidirectional digital representations, each digital representation corresponding to a viewing angle within said digital twin in said interactive virtual reality environment, and
A system configured to transmit the above digital representations and audio to a user device over a network.
상기 시스템은 상기 사용자 장치로부터 데이터를 수신하도록 추가로 구성되고, 상기 데이터는 상기 가상 현실 환경과의 사용자의 상호작용들에 대응하는, 시스템.In Article 25,
The system is further configured to receive data from the user device, the data corresponding to the user's interactions with the virtual reality environment.
상기 컴퓨팅 모듈은 상기 가상 현실 환경에서 상기 디지털 트윈의 그래픽 표현 내에 있기에, 그리고 상기 실생활 요소의 디지털 표현들을 근사화하기에 적합한 실생활 요소를 결정하기 위해 임계값을 계산하도록 추가로 구성되는, 시스템.In Article 26,
The system wherein the computing module is further configured to calculate a threshold value to determine a real-life element suitable for approximating digital representations of the real-life element within the graphical representation of the digital twin in the virtual reality environment.
상기 디지털 표현들은 실시간으로 또는 상기 라이브 이벤트 후 지연된 시간에 상기 장치로 송신되는, 시스템.In Article 25, Article 26 or Article 27,
The system wherein the digital representations are transmitted to the device in real time or at a delayed time after the live event.
상기 디지털 표현들, 오디오, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터는 적어도 부분적으로 온디맨드 재배포(on demand re-distribution)를 위해 상기 시스템에 의해 파싱되어 데이터베이스에 저장되는, 시스템.In any one of Articles 25 to 28,
A system wherein the digital representations, audio, corresponding metadata and corresponding coordinate matrix data are at least partially parsed by the system and stored in a database for on demand re-distribution.
상기 디지털 표현들, 오디오, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터는 블록체인 기술에 의한 분산 방식으로 저장되는, 시스템.In any one of Articles 25 to 29,
A system in which the above digital representations, audio, corresponding metadata and corresponding coordinate matrix data are stored in a distributed manner using blockchain technology.
대체 불가능 토큰들이 상기 디지털 표현들, 오디오 레코딩들, 대응하는 메타데이터 및 대응하는 좌표 행렬 데이터를 포함하는 상기 디지털 트윈의 적어도 일부에 할당되는, 시스템.In Article 30,
A system wherein non-fungible tokens are assigned to at least a portion of said digital twin, said digital representations, audio recordings, corresponding metadata, and corresponding coordinate matrix data.
상기 시스템은 상기 사용자에 의해 구매된 대체 불가능 토큰을 식별하고 대응하는 대체 불가능 토큰 권한을 상기 사용자에게 할당하도록 적응된 결제 처리기를 포함하는, 시스템.In Article 31,
A system comprising a payment processor adapted to identify a non-fungible token purchased by the user and assign a corresponding non-fungible token entitlement to the user.
상기 시스템은 상기 라이브 이벤트의 상기 디지털 트윈에 대체 불가능 토큰을 할당하는, 시스템.In any one of Articles 25 to 32,
The system assigns a non-fungible token to the digital twin of the live event.
상기 서버는 디지털 표현들을 생성하기 위해 인공 지능을 사용하는, 시스템.In any one of Articles 25 to 33,
The above server is a system that uses artificial intelligence to generate digital representations.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US63/504,614 | 2023-05-26 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20260018858A true KR20260018858A (en) | 2026-02-09 |
Family
ID=
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11202037B2 (en) | Virtual presence system and method through merged reality | |
| US11845008B2 (en) | Building virtual reality (VR) gaming environments using real-world virtual reality maps | |
| US10970934B2 (en) | Integrated operating environment | |
| US11113891B2 (en) | Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality | |
| US10506003B1 (en) | Repository service for managing digital assets | |
| US20140267598A1 (en) | Apparatus and method for holographic poster display | |
| JP2023504609A (en) | hybrid streaming | |
| CN112102465A (en) | Computing platform based on 3D structure engine | |
| WO2019099912A1 (en) | Integrated operating environment | |
| WO2014189840A1 (en) | Apparatus and method for holographic poster display | |
| KR20260018858A (en) | Create interactive and immersive virtual and augmented reality environments that correspond to digital twins of real-world elements. | |
| Soares et al. | Designing a highly immersive interactive environment: The virtual mine | |
| Singh et al. | 8 Exploring practical use-cases of augmented reality using photogrammetry and other 3D reconstruction tools in the Metaverse | |
| WO2024243685A1 (en) | Generating interactive and immersive virtual and augmented reality environments corresponding to digital twins of real-life elements | |
| Jürgen et al. | Virtual And Augmented Reality In a Cultural Context | |
| Howse | Illusion SDK: An Augmented Reality Engine for Flash 11 |