KR101923640B1 - Method and apparatus for providing virtual reality broadcast - Google Patents
Method and apparatus for providing virtual reality broadcast Download PDFInfo
- Publication number
- KR101923640B1 KR101923640B1 KR1020160127396A KR20160127396A KR101923640B1 KR 101923640 B1 KR101923640 B1 KR 101923640B1 KR 1020160127396 A KR1020160127396 A KR 1020160127396A KR 20160127396 A KR20160127396 A KR 20160127396A KR 101923640 B1 KR101923640 B1 KR 101923640B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- virtual reality
- providing
- broadcast
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
- H04N21/4385—Multiplex stream processing, e.g. multiplex stream decrypting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 가상 현실 방송을 제공하는 방법 및 장치에 관한 발명이며, 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법은 영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계 및 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 표시부를 통해 동시에 제공하는 단계를 포함하고, 가상 현실 촬영 장치로부터 촬영된 영상의 시점을 보다 다양한 방법을 통해 조작할 수 있고, 가상 현실 촬영 장치로부터 촬영된 영상에 대한 부가적인 정보를 영상과 함께 제공할 수 있는 효과가 있다.A method for providing a virtual reality broadcast according to an exemplary embodiment of the present invention is a method for providing a virtual reality broadcast by providing a first image and a virtual reality Requesting streaming of a second image photographed from a photographing apparatus, not a photographing apparatus, and a second image window displaying a first image and a second image in response to the request, The virtual reality photographing apparatus includes a virtual reality photographing device and a virtual reality photographing device. The virtual reality photographing device is capable of operating the viewpoint of the photographed image from a virtual reality photographing device through various methods, .
Description
본 발명은 가상 현실 방송을 제공하는 방법 및 장치에 관한 것으로서, 보다 상세하게는 가상 현실 촬영 영상과 개인 영상을 동시에 제공하면서 가상 현실 촬영 영상의 시점을 용이하게 변동할 수 있는 방법 및 장치에 관한 것이다. The present invention relates to a method and an apparatus for providing a virtual reality broadcast, and more particularly, to a method and an apparatus capable of easily changing a viewpoint of a virtual reality shot image while simultaneously providing a virtual reality shot image and a personal image .
가상 현실 (Virtual Reality, VR) 이란, 특정한 환경이나 상황을 영상으로 만들어서, 사용자가 마치 실제 상황 및 환경에 존재하는 것과 같이 만들어주는 사용자와 컴퓨터 사이의 인터페이스를 의미한다. 즉, 가상 현실은 경험 중심적인 관점에서 사용자가 가상 현실을 경험하게 해주는 시뮬레이션 환경이라고 할 수 있다. 가상 현실은 사용자가 일상적으로 경험하기 어려운 환경을 인터페이스로 제공하여 사용자가 그 환경에 들어와 있는 것처럼 느끼게 해주고, 환경을 조작할 수 있는 장점이 있다. Virtual Reality (VR) is the interface between a user and a computer that creates a picture of a specific environment or situation and makes the user feel as if they are in real life situations and environments. In other words, virtual reality is a simulation environment that enables users to experience virtual reality from an experiential viewpoint. Virtual reality has the advantage of providing users with an interface that is difficult for users to experience on a daily basis, making them feel as if they are entering the environment, and manipulating the environment.
이에 따라, 최근 사물 인터넷 (Internet Of Things, IoT) 을 포함하여 다양한 정보 통신 기기들의 기능 또한 발전함으로써 가상 현실 관련 기술이 상용화되고 있다. 구체적으로, 정보 통신 기기들에 포함된 입력 및 출력 장치 기능의 발달, 높은 처리 속도를 가지는 마이크로 프로세서의 상용화, 대용량 저장 장치 크기의 소형화, 그래픽 엔진 기술의 발달 및 보급형 HMD (Head Mounted Display) 장비의 출현으로 가상 현실 관련 기술의 보급이 가속화되고 있다.As a result, the functions of various information communication devices including the Internet of Things (IoT) have been developed, and virtual reality related technologies have been commercialized. Specifically, development of input and output device functions included in information communication devices, commercialization of a microprocessor having a high processing speed, miniaturization of a mass storage device size, development of a graphic engine technology, and development of an entry-level HMD (Head Mounted Display) The emergence of virtual reality technology is accelerating.
가상 현실은 사용자가 일상적으로 경험하기 어려운 환경을 인터페이스로 제공하여 사용자가 그 환경에 들어와 있는 것처럼 느끼게 해주고, 환경을 조작할 수 있기 때문에 가상 현실 관련 콘텐츠의 공급 및 수요도 증가하고 있다.Since virtual reality provides users with an interface that is difficult for users to experience on a daily basis, the user can feel as if they are in the environment, and manipulate the environment, so that the supply and demand of contents related to virtual reality are increasing.
나아가, 가상 현실 관련 콘텐츠를 여러 형태로 제공하여 사용자가 보다 다양한 체험을 할 수 있고 보다 많은 정보를 습득할 수 있도록 하는 방법에 대한 요구가 존재한다.Further, there is a need for a method of providing virtual reality related contents in various forms so that users can experience various experiences and acquire more information.
[관련기술문헌][Related Technical Literature]
가상현실에서의 동작 제어 시스템 및 방법 (등록특허 10-0947735호)Operation control system and method in virtual reality (Patent No. 10-0947735)
본 발명이 해결하고자 하는 과제는 가상 현실 촬영 장치로부터 촬영된 영상과 방송 영상을 함께 제공하고, 이를 위한 사용자 인터페이스를 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for providing a virtual reality broadcast capable of providing a user interface for providing an image and a broadcast image together from a virtual reality photographing apparatus.
본 발명이 해결하고자 하는 다른 과제는 가상 현실 촬영 장치로부터 촬영된 영상에 대한 부가적인 정보와 조작을 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공하는 것이다.Another object of the present invention is to provide a method and apparatus for providing a virtual reality broadcast capable of providing additional information and manipulation of an image photographed by a virtual reality photographing apparatus.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법은 영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계 및 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 표시부를 통해 동시에 제공하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for providing a virtual reality broadcast in a video management server, including: receiving a first image photographed from a virtual reality photographing apparatus, Requesting streaming of the second image, and providing a first image window displaying the first image and a second image window displaying the second image in response to the request through the display unit at the same time.
본 발명의 다른 특징에 따르면, 제1 영상 및 제2 영상에 대한 스트리밍을 요청하는 단계는, 제2 영상이 제공되는 상태에서 제1 영상에 대한 출력 요청에 따라 제1 영상의 제공을 요청하는 단계일 수 있다.According to another aspect of the present invention, the step of requesting streaming of the first image and the second image includes requesting the provision of the first image according to an output request for the first image in a state where the second image is provided Lt; / RTI >
본 발명의 다른 특징에 따르면, 제1 영상창 및 제2 영상창을 동시에 제공하는 단계는, 제1 영상창에 제2 영상창을 추가하는 동시에 제2 영상창의 크기를 변동시키는 단계일 수 있다.According to another aspect of the present invention, simultaneously providing the first image window and the second image window may include adding a second image window to the first image window and varying a size of the second image window.
본 발명의 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 제1 영상에 대한 시점 변동 신호를 수신하는 단계 및 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시하는 단계를 포함할 수 있다.According to another aspect of the present invention, a method for providing a virtual reality broadcast includes receiving a viewpoint change signal for a first image, and displaying the first image in a first image window at a time point corresponding to the viewpoint change signal Step < / RTI >
본 발명의 또 다른 특징에 따르면, 시점 변동 신호를 수신하는 단계는, 제1 영상창에서 터치 입력 장치 또는 포인팅 입력 장치를 통해 드래그 신호를 수신하는 단계일 수 있다.According to another aspect of the present invention, the step of receiving the viewpoint change signal may include receiving a drag signal through the touch input device or the pointing input device in the first image window.
본 발명의 또 다른 특징에 따르면, 시점 변동 신호를 수신하는 단계는, 센서로부터 디바이스의 각도 정보를 수신하는 단계일 수 있다.According to another aspect of the present invention, the step of receiving the viewpoint change signal may be a step of receiving angle information of the device from the sensor.
본 발명의 또 다른 특징에 따르면, 제1 영상에 대한 시점을 2차원 이미지 또는 3차원 이미지로 제1 영상창 내에 또는 별도로 제공하는 단계를 더 포함하고, 시점 변동 신호를 수신하는 단계는, 2차원 이미지 또는 3차원 이미지에서 변동할 시점에 대응하는 입력을 수신하는 단계일 수 있다.According to another aspect of the present invention, there is provided a method for generating a viewpoint image, the method comprising the steps of: providing a viewpoint for a first image in a first image window or separately as a two-dimensional image or a three- Image or an input corresponding to a point of time to vary in the three-dimensional image.
본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 제1 영상에 대한 타임 라인 변동 신호를 수신하는 단계 및 타임 라인 변동 신호에 대응하여 변동된 시간에서의 제1 영상을 제1 영상창에 표시하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, a method for providing a virtual reality broadcast includes receiving a time line variation signal for a first image, and receiving a first image at a changed time corresponding to a time line variation signal, And displaying it on the window.
본 발명의 또 다른 특징에 따르면, 가상 현실 촬영 장치에 포함된 위치 감지 센서로부터 수신한 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 표시부를 통해 제공하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method for providing a map image in which a first image received from a position sensor included in a virtual reality photographing apparatus, .
본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 지도 이미지에 위치 정보 또는 경로 이동 정보에 대응하는 타임 라인 정보를 표시하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, a method of providing a virtual reality broadcast may further include displaying time information corresponding to location information or path movement information on a map image.
본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 제1 영상에 대한 추가 객체 데이터를 수신하는 단계 및 추가 객체 데이터를 제1 영상에 적용하여 제공하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, a method of providing virtual reality broadcasting may further include receiving additional object data for a first image and applying additional object data to a first image.
본 발명의 또 다른 특징에 따르면, 추가 객체 데이터는 제1 영상 내의 위치 정보를 포함할 수 있다.According to another aspect of the present invention, the additional object data may include position information in the first image.
본 발명의 또 다른 특징에 따르면, 디바이스는 모바일 디바이스이고, 제1 영상을 요청에 따라 스테레오 스코픽 방식으로 표시하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the device is a mobile device, and may further include displaying the first image in a stereoscopic manner upon request.
본 발명의 또 다른 특징에 따르면, 제1 영상을 스테레오 스코픽 방식으로 표시하는 단계는, 제2 영상에 대한 음성만을 제공하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the step of displaying the first image in a stereoscopic manner may further include the step of providing only audio for the second image.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 장치는 영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 프로세서 및 프로세서를 통해 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 제공하는 표시부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for providing a virtual reality broadcast, the apparatus including: a first image picked up from a virtual reality image pickup apparatus and a second image picked up from a photographing apparatus, And a display unit for providing a first image window displaying a first image and a second image window displaying a second image in response to a request through a processor and a processor requesting streaming of the second image.
본 발명의 다른 특징에 따르면, 가상 현실 방송을 제공하는 장치는 제1 영상에 대한 시점 변동 신호를 수신하는 입력부를 포함하고, 표시부는, 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시할 수 있다.According to another aspect of the present invention, an apparatus for providing a virtual reality broadcast includes an input unit for receiving a viewpoint change signal for a first image, and the display unit displays a first image at a time point corresponding to the viewpoint change signal, 1 It can be displayed in the image window.
본 발명의 또 다른 특징에 따르면, 입력부는, 제1 영상창에서 드래그 신호를 수신할 수 있다.According to another aspect of the present invention, the input unit may receive the drag signal in the first image window.
본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 장치는 가상 현실 방송을 제공하는 장치의 각도 정보를 감지하는 센서를 더 포함할 수 있다.According to another aspect of the present invention, an apparatus for providing a virtual reality broadcast may further include a sensor for detecting angle information of a device providing a virtual reality broadcast.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.
본 발명은 가상 현실 촬영 장치로부터 촬영된 영상과 방송 영상을 함께 제공하고, 이를 위한 사용자 인터페이스를 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공할 수 있는 효과가 있다.The present invention provides a method and an apparatus for providing a virtual reality broadcast capable of providing a user interface for providing an image and a broadcast image together from a virtual reality photographing apparatus.
본 발명은 가상 현실 촬영 장치로부터 촬영된 영상에 대한 부가적인 정보와 조작을 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공할 수 있는 효과가 있다.The present invention provides a method and apparatus for providing a virtual reality broadcast capable of providing additional information and manipulation of an image photographed from a virtual reality photographing apparatus.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the specification.
도 1은 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치, 영상 관리 서버 및 가상 현실 방송 시청 장치의 관계를 설명하기 위한 개략도이다.
도 2는 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치 및 가상 현실 방송 시청 장치의 개략적인 구성을 도시한 불록도이다.
도 3은 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법에 따라 가상 현실 방송을 제공하는 절차를 도시한 순서도이다.
도 4a 내지 도 4c는 본 발명의 다른 실시예에 따른 방송 제작자가 가상 현실 방송을 제작하는 화면을 도시한 것이다.
도 5는 본 발명의 일 실시예에 따라 시청자가 가상 현실 방송을 시청하는 화면을 도시한 것이다.
도 6a 내지 도 6b는 본 발명의 실시예에 따라 제1 영상의 시점에 대한 2차원 이미지 및 3차원 이미지를 제공하는 화면을 도시한 것이다.
도 7은 본 발명의 실시예에 따라 제1 영상에 대응하는 지도 이미지를 제공하는 화면을 도시한 것이다.
도 8은 본 발명의 실시예에 따라 추가 객체 데이터가 포함된 제1 영상에 대한 화면을 도시한 것이다.
도 9a 내지 도 9b는 본 발명의 실시예에 따라 스마트 폰을 장착할 수 있는 안경 형태의 프레임 장치에서의 제1 영상 화면을 도시한 것이다.FIG. 1 is a schematic view for explaining a relation between a virtual reality broadcast production apparatus, a video management server, and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a schematic configuration of a virtual reality broadcast production apparatus and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a procedure for providing a virtual reality broadcast according to a method of providing a virtual reality broadcast according to an embodiment of the present invention.
4A to 4C illustrate a screen for a broadcast producer to produce a virtual reality broadcast according to another embodiment of the present invention.
FIG. 5 illustrates a screen for a viewer to view a virtual reality broadcast according to an embodiment of the present invention.
FIGS. 6A and 6B illustrate a screen for providing a two-dimensional image and a three-dimensional image with respect to a viewpoint of a first image according to an embodiment of the present invention.
FIG. 7 illustrates a screen for providing a map image corresponding to a first image according to an embodiment of the present invention.
FIG. 8 illustrates a screen for a first image including additional object data according to an embodiment of the present invention.
9A and 9B illustrate a first image screen in a spectacle-type frame device capable of mounting a smartphone according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우, '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다.The shapes, sizes, ratios, angles, numbers, and the like disclosed in the drawings for describing the embodiments of the present invention are illustrative, and thus the present invention is not limited thereto. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Where the terms 'comprises', 'having', 'done', and the like are used herein, other parts may be added as long as '~ only' is not used. Unless the context clearly dictates otherwise, including the plural unless the context clearly dictates otherwise.
구성요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.In interpreting the constituent elements, it is construed to include the error range even if there is no separate description.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although the first, second, etc. are used to describe various components, these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, the first component mentioned below may be the second component within the technical spirit of the present invention.
별도로 명시하지 않는 한 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout the specification unless otherwise specified.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.It is to be understood that each of the features of the various embodiments of the present invention may be combined or combined with each other partially or entirely and technically various interlocking and driving is possible as will be appreciated by those skilled in the art, It may be possible to cooperate with each other in association.
도 1은 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치, 영상 관리 서버 및 가상 현실 방송 시청 장치의 관계를 설명하기 위한 개략도이다.FIG. 1 is a schematic view for explaining a relation between a virtual reality broadcast production apparatus, a video management server, and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention.
도 1을 참조하면, 가상 현실 방송 제공 시스템 (1000) 은 방송 제공자가 제작한 가상 현실 방송을 관리하여 시청자에게 다양한 형태로 제공하는 시스템이다. 이 때, 가상 현실 방송 제공 시스템 (1000) 은 가상 현실 방송 제작 장치 (100), 영상 관리 서버 (200) 및 가상 현실 방송 시청 장치 (300) 를 포함한다.Referring to FIG. 1, a virtual reality
가상 현실 방송 제작 장치 (100) 는 방송 제공자가 시청자에게 제공할 가상 현실 방송을 제작하는 장치이다. 가상 현실 방송 제작 장치 (100) 는 다양한 전자 장치를 포함한다. 구체적으로, 가상 현실 방송 제작 장치 (100) 는 가상 현실 촬영 장치로부터 촬영된 제1 영상과 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상을 처리하는 데스크탑 또는 랩탑을 포함하나 이에 제한되지 않는다. 이 때, 촬영 장치는 데스크탑 또는 랩탑과 연결된 웹캠 (Webcam) 일 수도 있고, 랩탑에 내장된 카메라일 수 있으나, 이에 제한되지 않는다. 더 나아가, 가상 현실 방송 제작 장치 (100) 는 제1 영상을 촬영하는 가상 현실 촬영 장치도 포함할 수 있다. 따라서, 가상 현실 방송 제작 장치 (100) 가 가상 현실 촬영 장치를 포함하는 경우, 가상 현실 촬영 장치는 제1 영상을 처리하는 데스크탑 또는 랩탑 또는 스마트 폰과 연결되어 실시간으로 데스크탑 또는 랩탑 또는 스마트 폰에 제공할 수 있다.The virtual reality
영상 관리 서버 (200) 는 가상 현실 방송 제작 장치 (100) 로부터 제1 영상 및 제2 영상을 포함하는 가상 현실 방송을 수신하여 시청자에게 제공하는 서버이다. 따라서, 영상 관리 서버 (200) 는 가상 현실 방송 제작 장치 (100) 및 가상 현실 방송 시청 장치 (300) 와 통신한다. 예를 들어, 도 1에 도시된 바와 같이, 영상 관리 서버 (200) 는 가상 현실 방송 제작 장치 (100) 및 가상 현실 방송 시청 장치 (300) 와 네트워크로 연결될 수 있다. 여기서, 영상 관리 서버 (200) 는 코로케이션 서버 (Co-location Server), 클라우드 서버 등일 수 있으나, 이에 제한되지 않는다. The
가상 현실 방송 시청 장치 (300) 는 방송 제공자가 가상 현실 방송 제작 장치 (100) 를 통해 제작한 가상 현실 방송을 시청자가 시청할 수 있도록 제공하는 장치이다. 가상 현실 방송 시청 장치 (300) 는 데스크탑, 랩탑, 태블릿 PC 또는 스마트폰을 포함한다. 또한, 가상 방송 시청 장치 (300) 는 스마트폰을 장착할 수 있는 안경 형태의 프레임 장치를 포함할 수 있다.The virtual reality
도 1에서는 설명의 편의를 위해 가상 현실 방송 제작 장치 (100) 와 가상 현실 방송 시청 장치 (300) 는 1개인 것으로 도시되었으나, 이에 제한되지 않고, 복수의 가상 현실 방송 제작 장치 및 복수의 가상 현실 방송 시청 장치가 영상 관리 서버 (200) 와 통신할 수 있다.1, the virtual reality
이하에서는, 가상 현실 방송 제공 시스템 (1000) 에서의 가상 현실 방송 제공 방법에 대한 보다 상세한 설명을 위해 도 2를 함께 참조한다.Hereinafter, FIG. 2 will be referred to for a more detailed description of a virtual reality broadcast providing method in the virtual reality
도 2는 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치 및 가상 현실 방송 시청 장치의 개략적인 구성을 도시한 불록도이다. 설명의 편의를 위해 도 1을 참조하여 설명한다.2 is a block diagram illustrating a schematic configuration of a virtual reality broadcast production apparatus and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention. Will be described with reference to Fig. 1 for convenience of explanation.
이하에서는 가상 현실 방송을 제작하는 방송 제공자와 제공된 가상 현실 방송을 시청 및 참여하는 시청자가 공통으로 가지는 유저 인터페이스에 대해서 설명한다. 가상 현실 방송은 가상 현실 촬영 장치로부터 촬영된 제1 영상과 촬영 장치로부터 촬영되고 평면의 영상으로 제공되는 제2 영상이 동시에 전달되는 형식일 수 있다. 제1 영상과 제2 영상 즉, 가상 현실 영상과 방송 제공자가 나타나는 영상이 동시에 제공됨으로써, 단순히 가상 현실 영상을 재생하는 것에 더하여 방송 제공자가 나타나는 영상을 통해 방송 제작자의 해설이나 코멘트를 들을 수 있다. 이러한 가상 현실 영상과 방송 제공자가 나타나는 영상의 조합에서 두 영상을 어떻게 조화롭게 배치하고 어떠한 사용자 경험을 제공할 것인가가 매우 중요할 수 있다. 방송 제작자와 시청자의 유저 인터페이스에는 가상 현실 영상과 방송 제작자가 나타나는 영상이 공통적으로 표시된다. 나아가 가상 현실 영상에 대한 조작과 표시에 대한 부분은 방송 제작자와 시청자의 인터페이스에서 실질적으로 동일하게 동작한다.Hereinafter, a user interface common to a broadcast provider for producing a virtual reality broadcast and viewers participating in viewing and participating in a provided virtual reality broadcast will be described. The virtual reality broadcast may be a form in which a first image photographed from the virtual reality photographing apparatus and a second image photographed from the photographing apparatus and provided as a flat image are simultaneously transmitted. The first and second images, that is, the virtual reality image and the image in which the broadcast provider appears, are simultaneously provided, so that the virtual reality image is simply reproduced, and the comment or comment of the broadcast producer can be heard through the image in which the broadcast provider appears. It is very important how the two images are arranged in harmony and which user experience is to be provided in the combination of the virtual reality image and the image in which the broadcast provider appears. In the user interface of the broadcast producer and the viewer, images in which the virtual reality image and the broadcast producer appear are commonly displayed. Further, the operation and display of the virtual reality image are substantially the same at the interface between the broadcasting producer and the viewer.
도 2를 참조하면, 가상 현실 방송 제작 장치 (100) 는 프로세서 (110), 표시부 (120) 및 입력부 (130) 를 포함한다. Referring to FIG. 2, a virtual reality
가상 현실 방송 제작 장치 (100) 의 프로세서 (110) 는 영상 관리 서버 (200) 에 가상 현실 촬영 장치로부터 촬영된 제1 영상에 대한 스트리밍을 요청한다. 가상 현실 제작 장치 (100) 에 가상 현실 촬영 장치가 포함된 경우, 프로세서 (110) 는 가상 현실 촬영 장치에 제1 영상에 대한 실시간 스트리밍을 요청한다. 또한, 프로세서 (110) 는 스트리밍 요청된 제1 영상과 가상 현실 촬영 장치가 아닌 촬영 장치, 예를 들어, 웹캠으로부터 촬영된 제2 영상에 대한 송출을 요청한다.The
또한, 프로세서 (110) 는 제1 영상에 대한 시점 변동 신호에 대한 처리를 수행한다. 여기서, 시점 변동 신호란, 표시부 (120) 에 표시되고 있는 제1 영상에 대한 시점을 변동하는 입력에 대응하는 신호를 의미한다. 시점 변동 신호는 입력부 (130) 를 통해 입력될 수 있다. 또한, 프로세서 (110) 는 제1 영상에 대한 타임 라인 변동 신호에 대한 처리를 수행한다. 여기서, 타임 라인 변동 신호란, 표시부 (120) 에 표시되고 있는 제1 영상에 대한 재생 시간을 변동하는 입력에 대응하는 신호를 의미한다. 예를 들어, 타임 라인 변동 신호란, 00:03:23 재생 시간에 해당하는 제1 영상이 표시부 (120) 에 표시되고 있으나, 00:10:10 재생 시간에 해당하는 제1 영상을 표시하려고 타임 라인을 변동하는 신호이다.In addition, the
가상 현실 방송 제작 장치 (100) 의 표시부 (120) 는 프로세서 (110) 를 통해 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상창을 표시하는 제2 영상창을 제공하는 표시한다. 또한, 표시부 (120) 는 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시한다. 더 나아가, 표시부 (120) 는 제1 영상창에 타임 라인 변동 신호에 대응하여 변동된 시간에서의 제1 영상을 제1 영상창에 표시한다.The
가상 현실 방송 제작 장치 (100) 의 입력부 (130) 는 제1 영상에 대한 시점 변동 신호 및 타임 라인 변동 신호를 수신한다. 또한, 입력부 (130) 는 제1 영상에 추가적으로 제공할 데이터인 추가 객체 데이터에 대한 입력을 수신한다. 추가 객체 데이터란, 시청자에게 점수를 부여하기 위해 제1 영상에 표시되는 이미지에 대한 데이터를 의미한다. 여기서, 입력부 (130) 는 키보드 또는 포인팅 입력 장치인 마우스일 수 있다.The
도 2를 참조하면, 가상 현실 방송 시청 장치 (300) 는 프로세서 (310), 표시부 (320), 입력부 (330) 및 센서 (340) 를 포함한다.Referring to FIG. 2, the virtual reality
가상 현실 방송 시청 장치 (300) 의 프로세서 (310) 는 영상 관리 서버 (200) 에 제1 영상 및 제2 영상에 대한 스트리밍을 요청한다. 프로세서 (310) 는 시청자의 요청에 따라 제1 영상에 대한 스트리밍만을 요청할 수도 있다. 이 때, 프로세서 (310) 는 제2 영상에 포함된 소리에 대한 스트리밍을 요청한다.The processor 310 of the virtual reality
더 나아가, 프로세서 (310) 는 제1 영상에 추가적으로 제공할 데이터인 지도 이미지에 대한 처리를 수행한다. 여기서, 지도 이미지란, 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 이미지를 의미한다. 또한, 프로세서 (310) 는 가상 현실 방송 제작 장치 (100) 의 입력부 (130) 에 입력된 추가 객체 데이터에 대한 처리를 수행한다. 따라서, 프로세서 (310) 는 제1 영상에 지도 이미지 또는 추가 객체 데이터를 제공하기 위한 처리를 수행한다.Furthermore, the processor 310 performs processing on the map image, which is data to be additionally provided to the first image. Here, the map image means an image in which the first image is photographed or an image in which path movement information according to time is displayed. In addition, the processor 310 performs processing on the additional object data input to the
가상 현실 방송 시청 장치 (300) 의 표시부 (320) 는 프로세서 (310) 를 통해 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 표시한다. 이 때, 표시부 (320) 는 가상 현실 방송 제작 장치 (100) 의 입력부 (130) 에 수신된 시점 변동 신호가 적용된 제1 영상을 표시할 수도 있다. 또한, 표시부 (320) 는 가상 현실 방송 제작 장치 (100) 의 입력부 (130) 에 수신된 타임 라인 변동 신호가 적용된 제1 영상을 표시한다. 또한, 표시부 (320) 는 제1 영상에 지도 이미지 또는 추가 객체 데이터가 적용된 제1 영상을 제1 영상창에 표시한다.The
또한, 표시부 (320) 는 제1 영상을 스테레오 스코픽 방식으로 표시할 수 있다. 여기서, 스테레오 스코픽 방식이란, 제1 영상을 왼쪽 눈과 오른쪽 눈에 각각 표시하여 3차원적인 입체감을 지각할 수 있게 해주는 입체 영상 구현 방식이다. 따라서, 표시부 (320) 는 스테레오 스코픽 방식에 따라 제1 영상을 왼쪽 눈과 오른쪽 눈에 대응하는 두 개의 영역에 표시할 수 있다.Also, the
또한, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상에 대한 시점 변동 신호를 수신한다. 가상 현실 방송 시청 장치 (300) 의 입력부 (330) 는 터치 입력 장치일 수 있다.Also, the
가상 현실 방송 시청 장치 (300) 의 센서 (340) 는 가상 현실 방송 시청 장치 (300) 의 각도 정보를 감지한다. 구체적으로, 가상 현실 방송 시청 장치 (300) 가 스마트 폰을 장착할 수 있는 안경 형태의 프레임 장치를 포함하는 경우, 센서 (340) 는 변동된 가상 현실 방송 시청 장치 (300) 의 각도 정보를 감지한다. 여기서, 각도 정보란, x축, y축 및 z축을 기초로 기준 각도에서 변동된 각도에 대한 정보를 의미한다. 센서 (340) 가 가상 현실 방송 시청 장치 (300) 의 각도 정보를 감지함으로써, 표시부 (320) 는 각도 정보에 따라 변동된 시점으로 제1 영상을 표시할 수 있다. The
이에 따라, 가상 현실 방송 제작 장치 (100) 는 프로세서 (110), 표시부 (120) 및 입력부 (130) 를 포함하여 제2 영상과 함께 시점을 변동하거나 타임 라인을 변동한 제1 영상을 함께 시청자에게 제공할 수 있다. 또한, 가상 현실 방송 제공 장치 (300) 는 프로세서 (310), 표시부 (320), 입력부 (330) 및 센서 (340) 를 포함하여 가상 현실 방송 제작 장치 (100) 가 제공한 제1 영상과 제1 영상에 대한 해설 또는 코멘트를 제공하는 제2 영상을 시청자가 시청할 수 있도록 하고, 필요에 따라 제1 영상의 시점을 변동할 수 있도록 한다. Accordingly, the virtual reality
이하에서는 가상 현실 방송 제작 장치 (100) 및 가상 현실 방송 제공 장치 (300) 에서의 가상 현실 방송을 제공하는 방법에 대한 보다 상세한 설명을 위해 도 3을 함께 참조한다.Hereinafter, a method of providing a virtual reality broadcast in the virtual reality
도 3은 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법에 따라 가상 현실 방송을 제공하는 절차를 도시한 순서도이다. 설명의 편의를 위해 도 1 및 도 2의 구성 요소들과 도면 부호를 참조하여 설명한다.3 is a flowchart illustrating a procedure for providing a virtual reality broadcast according to a method of providing a virtual reality broadcast according to an embodiment of the present invention. For convenience of explanation, the components will be described with reference to FIG. 1 and FIG. 2 and reference numerals.
가상 현실 방송 제공 장치 (300) 의 프로세서 (310) 는 영상 관리 서버 (200) 에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청한다 (S310).The processor 310 of the virtual reality
구체적으로, 프로세서 (310) 는 제2 영상이 제공되는 상태에서 제1 영상에 대한 출력 요청에 따라 제1 영상의 제공을 요청한다. 여기서, 제2 영상은 제1 영상과 연관된 영상으로, 방송 제작자 예를 들어 BJ (Broadcast Jacky) 가 직접 출연하여 제1 영상에 대해 설명하는 영상을 의미한다. 따라서, 표시부 (320) 에는 제2 영상이 먼저 표시되고 있는 상태에서 제1 영상에 대한 출력 요청에 따라 제1 영상이 표시된다. Specifically, the processor 310 requests the presentation of the first image according to an output request for the first image in a state where the second image is provided. Here, the second image is an image associated with the first image, which means that the broadcast producer, for example, BJ (Broadcast Jacky) directly displays the first image. Accordingly, the first image is displayed on the
이어서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 제공한다 (S320).In response to the request, the
구체적으로, 표시부 (320) 는 프로세서 (310) 가 제1 영상창에 제2 영상창을 추가하는 동시에 제2 영상창의 크기를 변동시킴으로써 제1 영상창과 제2 영상창을 모두 제공한다. 예를 들어, 표시부 (320) 는 초기의 제2 영상창보다 작은 크기의 제2 영상창과 제2 영상창의 크기보다 큰 제1 영상창을 제공할 수 있다. 구체적인 제1 영상창 및 제2 영상창의 구성에 대해서는 도 4a 내지 도 4c 및 도 5를 참조하여 상세히 후술한다. 표시부 (320) 가 제1 영상 및 제2 영상을 동시에 제공함으로써, 시청자는 제2 영상을 통해 방송 제작자와 방송 제작자의 해설이나 코멘트를 들음으로써 제1 영상에 대해 상세한 정보를 습득할 수 있다.Specifically, the
이어서, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상에 대한 시점 변동 신호를 수신한다 (S330). 여기서, 시점 변동 신호는 입력부 (330) 가 아닌 센서 (340) 에 의해 수신될 수도 있으며, 센서에 의한 시점 변동 신호에 따른 제1 영상 표시에 대해서는 후술한다.Then, the
구체적으로, 입력부 (330) 는 제1 영상창에서 드래그 신호를 수신할 수 있다. 예를 들어, 시청자가 제1 영상에 대해 시점을 오른쪽으로 변동하려 하는 경우, 입력부 (330) 는 오른쪽에서 왼쪽으로 이동하는 드래그 신호를 수신할 수 있다. 또한, 시청자가 제1 영상에 대해 시점을 위로 변동하려 하는 경우, 입력부 (330) 는 위에서 아래으로 이동하는 드래그 신호를 수신할 수 있다. 구체적인 드래그 신호를 수신하는 화면에 대해서는 도 5를 참조하여 상세히 후술한다.Specifically, the
시점 변동 신호가 센서 (340) 에 의해 수신된 경우, 프로세서 (310) 는 센서 (340) 로부터 각도 정보를 수신한다. 즉, 프로세서 (310) 는 센서 (340) 로부터 기준점의 각도 정보를 수신하고, 기준점에서 변경된 각도 정보를 수신한다. 시점 변동 신호가 센서 (340) 에 의해 수신되는 경우는 가상 현실 방송 제공 장치 (300) 가 안경 형태의 프레임 장치에 장착될 수 있다. 따라서, 센서 (340) 는 별도의 조작 요청이 없이도 시청자의 움직임을 감지하여 제1 영상에 대한 시점을 변동할 수 있도록 한다.When the view change signal is received by the
또한, 입력부 (330) 는 제1 영상에 대한 시점을 표현한 2차원 이미지 또는 3차원 이미지를 통해 시점 변동 신호를 수신할 수 있다. 구체적으로, 표시부 (120) 는 제1 영상에 대한 시점을 2차원 이미지 또는 3차원 이미지로 제1 영상창 내에 또는 별도로 제공한다. 이어서, 입력부 (400) 는 2차원 이미지 또는 3차원 이미지에서 변동할 시점에 대응하는 입력을 수신한다. 이 때, 2차원 이미지의 경우, 입력부 (400) 는 적어도 하나의 포인트에 대응하는 입력을 수신한다. 또한, 3차원 이미지의 경우, 입력부 (330) 는 적어도 두 개의 포인트에 대응하는 입력을 수신한다. 구체적인 2차원 이미지 및 3차원 이미지에 대한 구성은 도 6a 및 도 6b를 참조하여 후술한다. 시점 변동 신호를 2차원 이미지 또는 3차원 이미지를 통해 수신함으로써, 시청자가 제1 영상에서 변동할 시점에 대한 위치를 용이하게 파악할 수 있으며, 원하는 변동 시점을 정확하게 입력할 수 있다.Also, the
이어서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시한다 (S340).Then, the
구체적으로, 표시부 (320) 가 제1 영상창에 표시한 제1 영상에는 프로세서 (310) 에 의해 드래그 신호에 대응하는 변동된 시점이 적용된다. 또한, 표시부 (320) 가 제1 영상창에 표시한 제1 영상에는 프로세서 (310) 에 의해 2차원 이미지 또는 3차원 이미지에서 입력된 신호에 대응하는 변동된 시점이 적용된다. 가상 현실 방송 제공 장치 (300) 가 안경 형태의 프레임 장치에 장착된 경우에도, 표시부 (320) 가 제1 영상창에 표시한 제1 영상에는 프로세서 (310) 에 의해 각도 정보에 대응하는 변동된 시점이 적용된다. 구체적인 각도 정보에 대응하는 변동된 시점이 적용된 제1 영상에 대해서는 도 9를 참조하여 상세히 후술한다.Specifically, the changed time corresponding to the drag signal is applied to the first image displayed on the first image window by the
한편, 또 다른 실시예에서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 방송 제작자가 입력한 타임 라인 변동 신호에 대응하는 타임 라인이 적용된 제1 영상을 제1 영상창에 표시할 수도 있다. 이 때, 시청자는 표시부 (320) 에 표시되는 제1 영상에 대한 타임 라인은 변동할 수 없도록 구현될 수 있다.On the other hand, in another embodiment, the
또한, 또 다른 실시예에서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 가상 현실 촬영 장치에 포함된, 또는 별도의 장치, 예를 들어 스마트폰에 포함된 위치 감지 센서로부터 수신한 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 제공한다. 제공된 지도 이미지에는 위치 정보에 대응하는 타임 라인 정보 또는 경로 이동 정보에 대응하는 타임 라인 정보가 표시된다. 즉, 지도 이미지에는 제1 영상이 촬영된 장소와 촬영된 장소가 출력되는 시점에 대응하는 제1 영상의 재생 시간이 표시된다. 또한, 지도 이미지에는 제1 영상이 촬영된 경로 이동에 대응하는 제1 영상의 재생 시간이 표시된다. 구체적인 제1 영상에 대한 지도 이미지 제공 화면에 대해서는 도 7을 참조하여 상세히 후술한다. 표시부 (320) 가 지도 이미지를 통해 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보를 제공함으로써, 외부 이동 방송 또는 여행 방송인 경우, 시청자가 영상에 표시되는 위치를 용이하게 습득할 수 있고, 시간에 따른 경로 이동 정보를 한눈에 확인할 수 있다.In addition, in another embodiment, the
또한, 또 다른 실시예에서, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상에 대한 추가 객체 데이터를 수신한다. 여기서, 추가 객체 데이터는 표시될 제1 영상 내에 배치되는 이미지 오브젝트, 위치 정보, 점수 또는 입력 신호에 따른 애니메이션 등을 포함할 수 있다. 따라서, 표시부 (320) 는 추가 객체 데이터가 적용된 제1 영상을 제공할 수 있다. 추가 객체 데이터는 프로세서 (310) 에 의해 제1 영상에 적용될 수 있다. 이 때, 추가 객체 데이터는 프로세서 (310) 에 의해 실시간으로 제1 영상에 적용될 수도 있다. 구체적인 추가 객체 데이터가 적용된 제1 영상은 도 8을 참조하여 상세히 후술한다. Further, in another embodiment, the
가상 현실 방송 제공 장치 (300) 가 안경 형태의 프레임 장치에 장착된 경우, 표시부 (320) 는 제1 영상을 요청에 따라 스테레오 스코프 방식으로 표시한다. 이 때, 프로세서 (310) 는 제1 영상과 함께 제2 영상에 대한 음성만을 제공한다. 구체적인 스테레오 스코픽 방식으로 표시된 제1 영상에 대해서는 도 9를 참조하여 상세히 후술한다. 스트레오 스코프 방식으로 제1 영상을 제공함으로써, 시청자는 제1 영상 안에 위치한 것 처럼을 보다 실감나게 제1 영상을 시청할 수 있다.When the virtual reality
도 4a 내지 도 4c는 본 발명의 다른 실시예에 따른 방송 제작자가 가상 현실 방송을 제작하는 화면을 도시한 것이다.4A to 4C illustrate a screen for a broadcast producer to produce a virtual reality broadcast according to another embodiment of the present invention.
도 4a를 참조하면, 가상 현실 방송 제작 장치 (100) 의 표시부 (120) 는 가상 현실 방송을 제작하는 화면을 표시한다. 가상 현실 방송 제작 화면은 방송 시작 버튼 (410), 녹화 시작 버튼 (430) 및 VR 버튼 (430) 를 포함한다. Referring to FIG. 4A, a
도 4a를 참조하면, 입력부 (130) 를 통해 방송 시작 버튼 (410) 에 대한 신호를 수신하는 경우, 표시부 (120) 는 촬영 장치로부터 촬영된 제2 영상 (420) 을 표시한다. 녹화 시작 버튼 (430) 에 대한 신호는 촬영된 제2 영상에 대한 녹화를 의미한다. 즉, 입력부 (130) 를 통해 녹화 시작 버튼 (430) 에 대한 신호를 수신하는 경우, 프로세서 (120) 는 표시부 (120) 를 통해 표시되는 제2 영상 (420) 을 녹화하여 영상 관리 서버 (200) 로 전송한다. 이어서, 입력부 (130) 를 통해 VR 버튼 (440) 에 대한 신호를 수신하는 경우, 표시부 (120) 는 가상 현실 촬영 장치로부터 촬영된 제1 영상과 제2 영상에 대한 표시를 준비한다. 가상 현실 활영 장치로부터 촬영된 제1 영상은 기 저장된 가상 현실 영상일 수도 있으며, 가상 현실 촬영 장치를 이용하여 실시간으로 제공되는 영상일 수 있다. 이하에서는 본 발명의 일 실시예로 기 저장된 가상 현실 영상인 제1 영상을 제공하는 방법을 예시적으로 설명한다.Referring to FIG. 4A, when a signal for the
도 4b를 참조하면, 표시부 (120) 는 제2 영상 (420) 과 함께 표시할 기 저장된 제1 영상 (450) 에 대한 선택을 위한 화면을 표시한다. 표시부 (120) 는 미리 저장된 제1 영상에 대한 목록 (441) 을 표시할 수도 있고, 가상 현실 촬영 장치로부터 촬영된 제1 영상 (450) 을 실시간으로 스트리밍하도록 하는 버튼을 표시할 수도 있다. 따라서, 입력부 (130) 를 통해 미리 저장된 제1 영상에 대한 목록 (441) 에서 제1 영상에 대한 선택 신호를 수신하는 경우, 표시부 (120) 는 선택 신호에 대응하는 제1 영상 (450) 을 표시한다. 가상 현실 촬영 장치로부터 촬영된 제1 영상 (450) 을 실시간으로 스트리밍하는 경우, 입력부 (130) 를 통해 미리 저장된 제1 영상에 대한 목록 (441) 에서 제1 영상에 대한 선택 신호를 수신하지 않고, 실시간으로 스트리밍하도록 하는 버튼에 대한 선택 신호를 수신할 수도 있다.Referring to FIG. 4B, the
도 4b를 참조하면, 표시부 (120) 는 제1 영상 (450) 에 대한 시점을 2차원 이미지 (451) 로 표시할 수 있다. 구체적인 2차원 이미지에 대한 구성은 도 6a를 통해 상세히 후술한다. 이 때, 입력부 (130) 를 통해 제1 영상과 함께 제2 영상을 표시할지에 대한 제2 영상 표시 여부 버튼 (442) 에 대한 신호를 수신할 수 있다. 즉, 제2 영상 표시 여부 버튼 (442) 을 통해 표시 신호를 수신한 경우, 표시부 (120) 는 제1 영상 (450) 과 제2 영상 (420) 을 함께 표시한다. 반면, 제2 영상 표시 여부 버튼 (442) 을 통해 숨김 신호를 수신한 경우, 표시부 (120) 는 제1 영상 (450) 만을 표시한다. 이어서, 입력부 (130) 를 통해 VR 시작 버튼 (443) 에 대한 신호를 수신한다.Referring to FIG. 4B, the
도 4c를 참조하면, 입력부 (130) 가 VR 시작 버튼 (443) 에 대한 신호를 수신함에 따라, 표시부 (120) 는 제1 영상 (450) 과 제2 영상 (420) 을 표시한다. 더 나아가, 표시부 (120) 는 제1 영상 (450) 에 대한 시점을 나타낸 2차원 이미지 (451) 도 함께 표시한다. 표시부 (120) 에서는 VR 방송 시작에 따라 제1 영상 (450) 과 제2 영상 (420) 의 크기가 변하지 않으나, 시청자에게는 제1 영상 (450) 의 크기가 확대되며 제2 영상 (420) 의 크기는 축소되어 제1 영상 (450) 의 우측 하단에 제2 영상 (420) 이 표시된다.4C, when the
이에 따라, 가상 현실 방송 제작 장치 (100) 는 가상 현실 방송을 제공하기 위한 절차에 대응하는 기능을 제공함으로써 방송 제작자가 시청자에게 가상 현실 방송을 보다 용이하게 제공할 수 있다. 또한, 가상 현실 방송 제작 장치 (100) 는 표시부 (120) 를 통해 제1 영상 (450) 과 제2 영상 (420) 을 동시에 표시함으로써, 방송 제작자가 시청자에게 제공할 영상을 한눈에 확인할 수 있다.Accordingly, the virtual reality
도 5는 본 발명의 일 실시예에 따라 시청자가 가상 현실 방송을 시청하는 화면을 도시한 것이다.FIG. 5 illustrates a screen for a viewer to view a virtual reality broadcast according to an embodiment of the present invention.
도 5를 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 방송 제작자가 제작한 제1 영상 (450) 및 제2 영상 (420) 을 표시한다. 구체적으로, 표시부 (320) 는 제1 영상 (450) 을 메인으로 표시하고 제1 영상 (450) 의 우측 하단에 작은 크기로 표시된다. 이 때, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상 (450) 에 대한 시점 변동 신호를 수신할 수 있다. 구체적으로, 입력부 (330) 는 제1 영상 (450) 에 입력된 드래그 신호 (452) 를 수신할 수 있다. 예를 들어, 입력부 (330) 를 통해 오른쪽에서 왼쪽 방향으로 이동하는 드래그 신호 (452) 를 수신한 경우, 표시부 (320) 는 오른쪽으로 변경된 시점에 대응하는 제1 영상 (450) 을 표시한다. 또한, 입력부 (330) 를 통해 위쪽에서 아랫쪽 방향으로 이동하는 드래그 신호 (452) 를 수신한 경우, 표시부 (320) 는 윗쪽으로 변경된 시점에 대응하는 제1 영상 (450) 을 표시한다. 이 때, 제1 영상 (450) 에 대한 타임 라인은 가상 현실 방송 제공 장치 (300) 에 의해 변동될 수 없도록 구현될 수 있다. Referring to FIG. 5, the
한편, 또 다른 실시예에서, 표시부 (320) 는 방송 제작자가 변동한 제1 영상 (450) 에 대한 시점 및 타임 라인이 적용된 제1 영상 (450) 을 표시할 수도 있다. 여기서, 프로세서 (310) 는 방송 제작자가 변동한 제1 영상 (450) 에 대한 시점 및 타임 라인을 동기화하여 표시부 (320) 에 제공할 수 있다.Meanwhile, in another embodiment, the
도 5에서는 설명의 편의를 위해 가상 현실 방송 제공 장치 (300) 가 데스크탑인 것으로 도시되었으나, 이에 제한되지 않고, 터치 입력 장치를 포함한 스마트폰일 수도 있다. 따라서, 가상 현실 방송 제공 장치 (300) 가 스마트 폰인 경우, 터치 입력 장치를 통해 드래그 신호 (452) 를 입력받을 수 있다.In FIG. 5, the virtual reality
이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상 및 제1 영상에 대한 방송 제작자의 해설이나 코멘트에 대한 방송인 제2 영상을 동시에 제공할 수 있는 인터베이스를 제공함으로써, 시청자가 제1 영상 뿐만 아니라 제1 영상에 대한 설명을 습득할 수 있다. Accordingly, the virtual reality
도 6a 내지 도 6b는 본 발명의 실시예에 따라 제1 영상의 시점에 대한 2차원 이미지 및 3차원 이미지를 제공하는 화면을 도시한 것이다.FIGS. 6A and 6B illustrate a screen for providing a two-dimensional image and a three-dimensional image with respect to a viewpoint of a first image according to an embodiment of the present invention.
도 6a를 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상에 대한 시점 구체적으로, 제1 영상에 대한 좌우 시점을 용이하게 변동할 수 있도록 제1 영상에 대한 시점에 대해 표현한 2차원 이미지를 표시한다. 입력부 (330) 를 통해 원 둘레에 포인트 (453)의 입력이 수신된 경우, 프로세서 (310) 는 포인트 (453) 의 입력으로부터 미리 결정된 거리까지의 시점을 제1 영상 (450) 에 적용한다. 따라서, 표시부 (320) 는 2차원 이미지를 통해 좌우로 변동된 시점을 적용한 제1 영상 (450) 을 표시한다. Referring to FIG. 6A, the
도 6b를 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상에 대한 시점 구체적으로, 제1 영상에 대한 상하좌우 시점을 용이하게 변동할 수 있도록 제1 영상에 대한 시점에 대해 표현한 3차원 이미지 (454) 를 표시한다. 입력부 (330) 를 통해 구면에 포인트 (453) 가 수신된 경우, 프로세서 (310) 는 포인트 (453) 로부터 미리 결정된 거리까지로 결정된 범위에 해당하는 시점을 제1 영상 (450) 에 적용한다. 예를 들어, 입력부 (330) 를 통해 포인트 (453) 가 구면의 윗쪽에서 수신된 경우, 프로세서 (310) 는 제1 영상에 대한 시점을 윗쪽으로 적용한다. 따라서, 표시부 (320) 는 3차원 이미지를 통해 변동된 상하좌우 시점을 적용한 제1 영상 (450) 을 표시한다.Referring to FIG. 6B, the
도 6a 및 도 6b에서는 설명의 편의를 위해 가상 현실 방송 제공 장치 (300) 가 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 통해 제1 영상에 대한 시점을 변동하는 것으로 도시되었으나, 이에 제한되지 않고, 가상 현실 방송 제작 장치 (100) 도 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 표시함으로써, 방송 제작자가 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 통해 제1 영상에 대한 시점을 변동할 수 있다. 가상 현실 방송 제작 장치 (100) 에 표시된 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 통해 제1 영상에 대한 시점이 변동된 경우, 변동된 시점은 가상 현실 방송 제공 장치 (300) 에 표시되는 제1 영상에 적용된다. 6A and 6B, the virtual reality
이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상에 대한 전체적인 시점을 한눈에 확인할 수 있으며,보다 입체적으로 표현한 2차원 이미지 또는 3차원 이미지를 제공하여, 제공한 2차원 이미지 또는 3차원 이미지를 통해 제1 영상에 적용된 시점을 정확하게 파악할 수 있고, 시점을 용이하게 변동할 수 있도록 한다.Accordingly, the virtual reality
도 7은 본 발명의 실시예에 따라 제1 영상에 대응하는 지도 이미지를 제공하는 화면을 도시한 것이다.FIG. 7 illustrates a screen for providing a map image corresponding to a first image according to an embodiment of the present invention.
도 7을 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상에 대응하는 지도 이미지 (455) 를 제1 영상 (450) 과 함께 표시한다. 구체적으로, 표시부 (320) 는 가상 현실 촬영 장치 또는 연결된 스마트 폰에 포함된 위치 감지 센서로부터 수신한 제1 영상 (450) 이 촬영된 위치 정보 (456) 또는 시간에 따른 경로 이동 정보 (457) 가 나타나는 지도 이미지 (455) 를 표시한다. 예를 들어, 가상 현실 촬영 장치를 통해 광화문, 홍례문, 경복궁 및 자경전이 촬영된 경우, 표시부 (320) 는 광화문, 홍례문, 경복궁 및 자경전에 대한 위치 정보 (456) 가 나타나는 지도 이미지 (455) 를 표시한다. 또한, 표시부 (320) 는 광화문, 홍례문, 경복궁 및 자경전을 촬영하면서 지나간 경로 즉, 시간에 따른 경로 이동 정보 (457) 가 나타나는 지도 이미지 (455) 를 표시한다. 더 나아가, 표시부 (320) 는 지도 이미지 (455) 에 제1 영상 (450) 이 촬영된 위치 정보 (456) 또는 경로 이동 정보 (457) 에 대응하는 타임 라인 정보 (458) 을 표시한다. 예를 들어, 표시부 (320) 는 경복궁 (456) 이 촬영된 제1 영상 (450) 의 시간을 지도 이미지 (455) 에 표시할 수 있다. 또한, 표시부 (320) 는 현재 표시되는 제1 영상 (450) 의 타임 라인에 대응하는 위치 정보 (459) 도 표시할 수 있다. Referring to FIG. 7, the
이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상이 촬영된 위치 정보 및 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 제공함으로써, 외부 이동 방송, 여행 방송인 경우, 시청자가 제1 영상에 촬영된 장소에 대한 위치 정보 및 경로 이동 정보를 습득할 수 있도록 한다.Accordingly, the virtual reality
도 8은 본 발명의 실시예에 따라 추가 객체 데이터가 포함된 제1 영상에 대한 화면을 도시한 것이다.FIG. 8 illustrates a screen for a first image including additional object data according to an embodiment of the present invention.
도 8을 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상 (450) 에 적용된 추가 객체 데이터 (461) 를 표시한다. 구체적으로, 방송 제작자가 제1 영상 (450) 에 적용할 추가 객체 이미지, 애니메이션, 추가 객체 이미지에 부여된 점수에 대해 입력하는 경우, 표시부 (320) 는 입력된 요소에 따른 추가 객체 데이터 (461) 를 표시한다. 따라서, 입력부 (330) 를 통해 추가 객체 데이터 (461) 에 대한 선택을 수신하는 경우, 프로세서 (310) 는 시청자에게 미리 결정된 점수를 부여한다.Referring to FIG. 8, the
이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상에 추가 객체 데이터를 표시함으로써, 시청자에게 보다 적극적인 영상 시청을 유도할 수 있다.Accordingly, the virtual reality
도 9a 내지 도 9b는 본 발명의 실시예에 따라 스마트 폰을 장착할 수 있는 안경 형태의 프레임 장치에서의 제1 영상 화면을 도시한 것이다.9A and 9B illustrate a first image screen in a spectacle-type frame device capable of mounting a smartphone according to an embodiment of the present invention.
도 9a를 참조하면, 안경 형태의 프레임 장치에서 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 스테레오 스코픽 방식에 따라 동일한 제1 영상을 제1 영역 (321) 및 제2 영역 (322) 에 표시한다. 구체적으로, 표시부 (320) 는 두 개의 제1 영상을 각각 좌안 및 우안에 대응하는 제1 영역 (321) 및 제2 영역 (322) 에 표시한다. 제1 영역 (321) 및 제2 영역 (322) 에 각각 제1 영상을 표시함으로써, 시청자는 제1 영상에 대한 입체감을 느낄 수 있다.9A, the
도 9b를 참조하면, 안경 형태의 프레임 장치에서 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 센서 (340) 로부터 수신한 각도 정보를 적용한 제1 영상을 표시한다. 예를 들어, 센서 (340) 로부터 윗쪽을 향하는 각도 정보를 수신한 경우, 표시부 (320) 는 제1 영상의 시점을 윗쪽으로 변동하여 표시한다. 또한, 센서 (340) 로부터 오른쪽을 향하는 각도 정보를 수신한 경우, 표시부 (320) 는 제1 영상의 시점을 오른쪽으로 변동하여 표시한다. 마찬가지로, 센서 (340) 로부터 아래로 향하는 각도 정보를 수신한 경우, 표시부 (320) 는 제1 영상의 시점을 아래로 변동하여 표시한다. 이 때, 제2 영상은 표시되지 않으나 제2 영상에 대한 음성 (421) 은 출력된다. 제1 영상의 변동되는 시점은 센서 (340) 로부터 수신한 각도 정보를 기초로 미리 결정된 계산식에 따라 결정된다. Referring to FIG. 9B, in a spectacle-type frame device, the
이에 따라, 안경 형태의 프레임 장치에서 가상 현실 방송 제공 장치 (300) 는 제2 영상은 제1 영상과 함께 표시되지 않지만, 제2 영상에 대한 음성을 시청자에게 제공함으로써, 시청자가 제1 영상을 시청할 때 제1 영상에 대한 설명을 인식할 수 있다.Accordingly, in the eyeglass-type frame apparatus, the virtual reality
본 명세서에서, 각 블록 또는 각 단계는 특정된 논리적 기능 (들) 을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In this specification, each block or each step may represent a part of a module, segment or code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.
본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈 또는 그 2 개의 결합으로 직접 구현될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM 또는 당업계에 알려진 임의의 다른 형태의 저장 매체에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로 (ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by a processor, or in a combination of the two. The software module may reside in a RAM memory, a flash memory, a ROM memory, an EPROM memory, an EEPROM memory, a register, a hard disk, a removable disk, a CD-ROM or any other form of storage medium known in the art. An exemplary storage medium is coupled to the processor, which is capable of reading information from, and writing information to, the storage medium. Alternatively, the storage medium may be integral with the processor. The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in detail with reference to the accompanying drawings, it is to be understood that the present invention is not limited to those embodiments and various changes and modifications may be made without departing from the scope of the present invention. . Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
100: 가상 현실 방송 제작 장치
110, 310: 프로세서
120, 320: 표시부
130, 330: 입력부
200: 영상 관리 서버
300: 가상 현실 방송 시청 장치
321: 제1 영역
322: 제2 영역
340: 센서
410: 방송 시작 버튼
420: 제2 영상
430: 녹화 시작 버튼
440: VR 버튼
450: 제1 영상
451: 2차원 이미지
452: 드래그 신호
453: 포인트
454: 3차원 이미지
455: 지도 이미지
456: 위치 정보
457: 경로 이동 정보
458: 타임 라인 정보
459: 타임 라인에 대응하는 위치 정보
461: 추가 객체 데이터
1000: 가상 현실 방송 제공 시스템100: Virtual reality broadcast production device
110, 310: Processor
120, 320:
130, 330:
200: video management server
300: Virtual reality broadcast viewing device
321: First area
322: second region
340: sensor
410: Broadcast start button
420: Second image
430: Start recording button
440: VR button
450: First image
451: Two-dimensional image
452: Drag signal
453: Points
454: Three-dimensional image
455: Map image
456: Location information
457: Path movement information
458: Timeline information
459: Location information corresponding to timeline
461: Additional object data
1000: Virtual Reality Broadcasting System
Claims (18)
영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 상기 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계;
상기 요청에 응답하여 상기 제1 영상을 표시하는 제1 영상창 및 상기 제2 영상을 표시하는 제2 영상창을 상기 표시부를 통해 동시에 제공하는 단계; 및
상기 가상 현실 촬영 장치에 포함된 위치 감지 센서로부터 수신한 상기 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 상기 표시부를 통해 제공하는 단계를 포함하는, 가상 현실 방송을 제공하는 방법.A method of providing a virtual reality broadcast to a device including a display unit,
Requesting a video management server to stream a first video shot from a virtual reality shooting device and a second video shot from an imaging device other than the virtual reality shooting device;
Providing a first image window displaying the first image and a second image window displaying the second image simultaneously in response to the request; And
And providing a map image through which the first image received from the position sensor included in the virtual reality photographing apparatus is photographed or in which a path movement information according to time is displayed through the display unit, How to provide.
상기 제1 영상 및 상기 제2 영상에 대한 스트리밍을 요청하는 단계는,
상기 제2 영상이 제공되는 상태에서 상기 제1 영상에 대한 출력 요청에 따라 상기 제1 영상의 제공을 요청하는 단계인, 가상 현실 방송을 제공하는 방법.The method according to claim 1,
Wherein the step of requesting streaming for the first video and the second video comprises:
And requesting to provide the first image according to an output request for the first image in a state where the second image is provided.
상기 제1 영상창 및 상기 제2 영상창을 동시에 제공하는 단계는,
상기 제1 영상창에 상기 제2 영상창을 추가하는 동시에 상기 제2 영상창의 크기를 변동시키는 단계인, 가상 현실 방송을 제공하는 방법.The method according to claim 1,
Wherein the step of simultaneously providing the first image window and the second image window comprises:
And adding the second image window to the first image window and varying the size of the second image window.
상기 제1 영상에 대한 시점 변동 신호를 수신하는 단계; 및
상기 시점 변동 신호에 대응하여 변동된 시점으로 상기 제1 영상을 상기 제1 영상창에 표시하는 단계를 포함하는, 가상 현실 방송을 제공하는 방법.The method according to claim 1,
Receiving a viewpoint change signal for the first image; And
And displaying the first image on the first image window at a time point corresponding to the viewpoint change signal.
상기 시점 변동 신호를 수신하는 단계는,
상기 제1 영상창에서 터치 입력 장치 또는 포인팅 입력 장치를 통해 드래그 신호를 수신하는 단계인, 가상 현실 방송을 제공하는 방법.5. The method of claim 4,
Wherein the step of receiving the view-
And receiving a drag signal through the touch input device or the pointing input device in the first image window.
상기 시점 변동 신호를 수신하는 단계는,
센서로부터 상기 디바이스의 각도 정보를 수신하는 단계인, 가상 현실 방송을 제공하는 방법.5. The method of claim 4,
Wherein the step of receiving the view-
And receiving angle information of the device from a sensor.
상기 제1 영상에 대한 시점을 2차원 이미지 또는 3차원 이미지로 상기 제1 영상창 내에 또는 별도로 제공하는 단계를 더 포함하고,
상기 시점 변동 신호를 수신하는 단계는,
상기 2차원 이미지 또는 상기 3차원 이미지에서 변동할 시점에 대응하는 입력을 수신하는 단계인, 가상 현실 방송을 제공하는 방법.5. The method of claim 4,
Further comprising providing a viewpoint for the first image in the first image window or separately as a two-dimensional image or a three-dimensional image,
Wherein the step of receiving the view-
And receiving an input corresponding to a point of time to change in the two-dimensional image or the three-dimensional image.
영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 상기 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계;
상기 요청에 응답하여 상기 제1 영상을 표시하는 제1 영상창 및 상기 제2 영상을 표시하는 제2 영상창을 상기 표시부를 통해 동시에 제공하는 단계;
상기 제1 영상에 대한 타임 라인 변동 신호를 수신하는 단계; 및
상기 타임 라인 변동 신호에 대응하여 변동된 시간에서의 상기 제1 영상을 상기 제1 영상창에 표시하는 단계를 포함하는, 가상 현실 방송을 제공하는 방법.A method of providing a virtual reality broadcast to a device including a display unit,
Requesting a video management server to stream a first video shot from a virtual reality shooting device and a second video shot from an imaging device other than the virtual reality shooting device;
Providing a first image window displaying the first image and a second image window displaying the second image simultaneously in response to the request;
Receiving a timeline variation signal for the first image; And
And displaying the first video in the first video window at a time varying in time corresponding to the timeline variation signal.
상기 지도 이미지에 상기 위치 정보 또는 상기 경로 이동 정보에 대응하는 타임 라인 정보를 표시하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.The method according to claim 1,
And displaying timeline information corresponding to the location information or the path movement information in the map image.
상기 제1 영상에 대한 추가 객체 데이터를 수신하는 단계; 및
상기 추가 객체 데이터를 상기 제1 영상에 적용하여 제공하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.The method according to claim 1,
Receiving additional object data for the first image; And
And applying the additional object data to the first image to provide the additional object data.
상기 추가 객체 데이터는 상기 제1 영상 내의 위치 정보를 포함하는, 가상 현실 방송을 제공하는 방법.12. The method of claim 11,
Wherein the additional object data comprises location information in the first video.
상기 디바이스는 모바일 디바이스이고,
상기 제1 영상을 요청에 따라 스테레오 스코픽 방식으로 표시하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.The method according to claim 1,
Wherein the device is a mobile device,
And displaying the first image in a stereoscopic manner upon request. ≪ Desc / Clms Page number 21 >
상기 제1 영상을 상기 스테레오 스코픽 방식으로 표시하는 단계는,
상기 제2 영상에 대한 음성만을 제공하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.14. The method of claim 13,
Wherein the step of displaying the first image in the stereoscopic manner comprises:
Further comprising providing only audio for the second video. ≪ Desc / Clms Page number 21 >
상기 프로세서를 통해 상기 요청에 응답하여 상기 제1 영상을 표시하는 제1 영상창 및 상기 제2 영상을 표시하는 제2 영상창을 제공하는 표시부를 포함하고,
상기 표시부는 상기 가상 현실 촬영 장치에 포함된 위치 감지 센서로부터 수신한 상기 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 더 표시하는, 가상 현실 방송을 제공하는 장치.A processor for requesting a video management server to stream a first image photographed from the virtual reality photographing apparatus and a second image photographed from the photographing apparatus, not the virtual reality photographing apparatus; And
And a display unit for providing a first image window for displaying the first image and a second image window for displaying the second image in response to the request through the processor,
Wherein the display unit further displays a map image in which the first image received from the position sensor included in the virtual reality photographing apparatus is photographed or path movement information according to time is displayed.
상기 제1 영상에 대한 시점 변동 신호를 수신하는 입력부를 포함하고,
상기 표시부는,
상기 시점 변동 신호에 대응하여 변동된 시점으로 상기 제1 영상을 상기 제1 영상창에 표시하는, 가상 현실 방송을 제공하는 장치.16. The method of claim 15,
And an input unit for receiving a viewpoint change signal for the first image,
The display unit includes:
Wherein the first image is displayed on the first image window at a time point corresponding to the viewpoint change signal.
상기 입력부는,
상기 제1 영상창에서 드래그 신호를 수신하는, 가상 현실 방송을 제공하는 장치.17. The method of claim 16,
Wherein the input unit comprises:
And receiving a drag signal in the first image window.
상기 가상 현실 방송을 제공하는 장치의 각도 정보를 감지하는 센서를 포함하는, 가상 현실 방송을 제공하는 장치.17. The method of claim 16,
And a sensor for sensing angle information of a device providing the virtual reality broadcast.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160127396A KR101923640B1 (en) | 2016-10-04 | 2016-10-04 | Method and apparatus for providing virtual reality broadcast |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160127396A KR101923640B1 (en) | 2016-10-04 | 2016-10-04 | Method and apparatus for providing virtual reality broadcast |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20180037366A KR20180037366A (en) | 2018-04-12 |
| KR101923640B1 true KR101923640B1 (en) | 2018-11-29 |
Family
ID=61969396
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020160127396A Active KR101923640B1 (en) | 2016-10-04 | 2016-10-04 | Method and apparatus for providing virtual reality broadcast |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101923640B1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014520317A (en) | 2011-06-01 | 2014-08-21 | コーニンクレッカ フィリップス エヌ ヴェ | Timeline display tool |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101222134B1 (en) * | 2010-12-29 | 2013-01-15 | 전자부품연구원 | system for controlling a point of view in virtual reality and method for controlling a point of view using the same |
| KR102275685B1 (en) * | 2015-01-29 | 2021-07-12 | 한국전자통신연구원 | Contents offer method and the method perfoming contents offer server, commentator apparatus |
-
2016
- 2016-10-04 KR KR1020160127396A patent/KR101923640B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014520317A (en) | 2011-06-01 | 2014-08-21 | コーニンクレッカ フィリップス エヌ ヴェ | Timeline display tool |
Non-Patent Citations (1)
| Title |
|---|
| 블로그: 아프리카 TV, http://www.kbench.com/?q=node/162105, (2016.04.16.) |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20180037366A (en) | 2018-04-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11024083B2 (en) | Server, user terminal device, and control method therefor | |
| US20200120386A1 (en) | Information processing apparatus and method, display control apparatus and method, reproducing apparatus and method, and information processing system | |
| US9686466B1 (en) | Systems and methods for environment content sharing | |
| CN109407821B (en) | Collaborative interaction with virtual reality video | |
| CN107636534A (en) | General sphere catching method | |
| WO2010008518A1 (en) | Image capture and display configuration | |
| US20210058611A1 (en) | Multiviewing virtual reality user interface | |
| CN104243961A (en) | Display system and method of multi-view image | |
| US20230405475A1 (en) | Shooting method, apparatus, device and medium based on virtual reality space | |
| CN111352239A (en) | Augmented reality display device and interaction method applying same | |
| KR20180051202A (en) | Display apparatus and control method thereof | |
| CN111630848B (en) | Image processing device, image processing method, program and projection system | |
| WO2019072861A1 (en) | Selection of animated viewing angle in an immersive virtual environment | |
| US20240331317A1 (en) | Information processing device, information processing system and method | |
| US20220036075A1 (en) | A system for controlling audio-capable connected devices in mixed reality environments | |
| KR101923640B1 (en) | Method and apparatus for providing virtual reality broadcast | |
| KR101919428B1 (en) | Method and apparatus for providing virtual reality broadcast video | |
| GB2565628A (en) | Collaborative interaction with virtual reality video | |
| CN116193246A (en) | Prompt method and device for shooting video, electronic equipment and storage medium | |
| CN121126063A (en) | Display control methods, devices, equipment, media and products | |
| CN120568152A (en) | Method, device, equipment, storage medium and product for editing stereoscopic video by one key | |
| CN117459745A (en) | Information interaction methods, devices, electronic equipment and storage media | |
| CN118689363A (en) | Method, device, electronic device and storage medium for displaying 3D images | |
| CN117641040A (en) | Video processing methods, devices, electronic equipment and storage media | |
| TWM520772U (en) | Panoramic image recording and dummy viewing system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 8 |
