[go: up one dir, main page]

KR101923640B1 - Method and apparatus for providing virtual reality broadcast - Google Patents

Method and apparatus for providing virtual reality broadcast Download PDF

Info

Publication number
KR101923640B1
KR101923640B1 KR1020160127396A KR20160127396A KR101923640B1 KR 101923640 B1 KR101923640 B1 KR 101923640B1 KR 1020160127396 A KR1020160127396 A KR 1020160127396A KR 20160127396 A KR20160127396 A KR 20160127396A KR 101923640 B1 KR101923640 B1 KR 101923640B1
Authority
KR
South Korea
Prior art keywords
image
virtual reality
providing
broadcast
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020160127396A
Other languages
Korean (ko)
Other versions
KR20180037366A (en
Inventor
김도성
Original Assignee
주식회사 아프리카티비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아프리카티비 filed Critical 주식회사 아프리카티비
Priority to KR1020160127396A priority Critical patent/KR101923640B1/en
Publication of KR20180037366A publication Critical patent/KR20180037366A/en
Application granted granted Critical
Publication of KR101923640B1 publication Critical patent/KR101923640B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4385Multiplex stream processing, e.g. multiplex stream decrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 가상 현실 방송을 제공하는 방법 및 장치에 관한 발명이며, 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법은 영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계 및 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 표시부를 통해 동시에 제공하는 단계를 포함하고, 가상 현실 촬영 장치로부터 촬영된 영상의 시점을 보다 다양한 방법을 통해 조작할 수 있고, 가상 현실 촬영 장치로부터 촬영된 영상에 대한 부가적인 정보를 영상과 함께 제공할 수 있는 효과가 있다.A method for providing a virtual reality broadcast according to an exemplary embodiment of the present invention is a method for providing a virtual reality broadcast by providing a first image and a virtual reality Requesting streaming of a second image photographed from a photographing apparatus, not a photographing apparatus, and a second image window displaying a first image and a second image in response to the request, The virtual reality photographing apparatus includes a virtual reality photographing device and a virtual reality photographing device. The virtual reality photographing device is capable of operating the viewpoint of the photographed image from a virtual reality photographing device through various methods, .

Figure 112016095652097-pat00003
Figure 112016095652097-pat00003

Description

가상 현실 방송을 제공하는 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING VIRTUAL REALITY BROADCAST}[0001] METHOD AND APPARATUS FOR PROVIDING VIRTUAL REALITY BROADCAST [0002]

본 발명은 가상 현실 방송을 제공하는 방법 및 장치에 관한 것으로서, 보다 상세하게는 가상 현실 촬영 영상과 개인 영상을 동시에 제공하면서 가상 현실 촬영 영상의 시점을 용이하게 변동할 수 있는 방법 및 장치에 관한 것이다. The present invention relates to a method and an apparatus for providing a virtual reality broadcast, and more particularly, to a method and an apparatus capable of easily changing a viewpoint of a virtual reality shot image while simultaneously providing a virtual reality shot image and a personal image .

가상 현실 (Virtual Reality, VR) 이란, 특정한 환경이나 상황을 영상으로 만들어서, 사용자가 마치 실제 상황 및 환경에 존재하는 것과 같이 만들어주는 사용자와 컴퓨터 사이의 인터페이스를 의미한다. 즉, 가상 현실은 경험 중심적인 관점에서 사용자가 가상 현실을 경험하게 해주는 시뮬레이션 환경이라고 할 수 있다. 가상 현실은 사용자가 일상적으로 경험하기 어려운 환경을 인터페이스로 제공하여 사용자가 그 환경에 들어와 있는 것처럼 느끼게 해주고, 환경을 조작할 수 있는 장점이 있다. Virtual Reality (VR) is the interface between a user and a computer that creates a picture of a specific environment or situation and makes the user feel as if they are in real life situations and environments. In other words, virtual reality is a simulation environment that enables users to experience virtual reality from an experiential viewpoint. Virtual reality has the advantage of providing users with an interface that is difficult for users to experience on a daily basis, making them feel as if they are entering the environment, and manipulating the environment.

이에 따라, 최근 사물 인터넷 (Internet Of Things, IoT) 을 포함하여 다양한 정보 통신 기기들의 기능 또한 발전함으로써 가상 현실 관련 기술이 상용화되고 있다. 구체적으로, 정보 통신 기기들에 포함된 입력 및 출력 장치 기능의 발달, 높은 처리 속도를 가지는 마이크로 프로세서의 상용화, 대용량 저장 장치 크기의 소형화, 그래픽 엔진 기술의 발달 및 보급형 HMD (Head Mounted Display) 장비의 출현으로 가상 현실 관련 기술의 보급이 가속화되고 있다.As a result, the functions of various information communication devices including the Internet of Things (IoT) have been developed, and virtual reality related technologies have been commercialized. Specifically, development of input and output device functions included in information communication devices, commercialization of a microprocessor having a high processing speed, miniaturization of a mass storage device size, development of a graphic engine technology, and development of an entry-level HMD (Head Mounted Display) The emergence of virtual reality technology is accelerating.

가상 현실은 사용자가 일상적으로 경험하기 어려운 환경을 인터페이스로 제공하여 사용자가 그 환경에 들어와 있는 것처럼 느끼게 해주고, 환경을 조작할 수 있기 때문에 가상 현실 관련 콘텐츠의 공급 및 수요도 증가하고 있다.Since virtual reality provides users with an interface that is difficult for users to experience on a daily basis, the user can feel as if they are in the environment, and manipulate the environment, so that the supply and demand of contents related to virtual reality are increasing.

나아가, 가상 현실 관련 콘텐츠를 여러 형태로 제공하여 사용자가 보다 다양한 체험을 할 수 있고 보다 많은 정보를 습득할 수 있도록 하는 방법에 대한 요구가 존재한다.Further, there is a need for a method of providing virtual reality related contents in various forms so that users can experience various experiences and acquire more information.

[관련기술문헌][Related Technical Literature]

가상현실에서의 동작 제어 시스템 및 방법 (등록특허 10-0947735호)Operation control system and method in virtual reality (Patent No. 10-0947735)

본 발명이 해결하고자 하는 과제는 가상 현실 촬영 장치로부터 촬영된 영상과 방송 영상을 함께 제공하고, 이를 위한 사용자 인터페이스를 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for providing a virtual reality broadcast capable of providing a user interface for providing an image and a broadcast image together from a virtual reality photographing apparatus.

본 발명이 해결하고자 하는 다른 과제는 가상 현실 촬영 장치로부터 촬영된 영상에 대한 부가적인 정보와 조작을 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공하는 것이다.Another object of the present invention is to provide a method and apparatus for providing a virtual reality broadcast capable of providing additional information and manipulation of an image photographed by a virtual reality photographing apparatus.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법은 영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계 및 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 표시부를 통해 동시에 제공하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for providing a virtual reality broadcast in a video management server, including: receiving a first image photographed from a virtual reality photographing apparatus, Requesting streaming of the second image, and providing a first image window displaying the first image and a second image window displaying the second image in response to the request through the display unit at the same time.

본 발명의 다른 특징에 따르면, 제1 영상 및 제2 영상에 대한 스트리밍을 요청하는 단계는, 제2 영상이 제공되는 상태에서 제1 영상에 대한 출력 요청에 따라 제1 영상의 제공을 요청하는 단계일 수 있다.According to another aspect of the present invention, the step of requesting streaming of the first image and the second image includes requesting the provision of the first image according to an output request for the first image in a state where the second image is provided Lt; / RTI >

본 발명의 다른 특징에 따르면, 제1 영상창 및 제2 영상창을 동시에 제공하는 단계는, 제1 영상창에 제2 영상창을 추가하는 동시에 제2 영상창의 크기를 변동시키는 단계일 수 있다.According to another aspect of the present invention, simultaneously providing the first image window and the second image window may include adding a second image window to the first image window and varying a size of the second image window.

본 발명의 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 제1 영상에 대한 시점 변동 신호를 수신하는 단계 및 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시하는 단계를 포함할 수 있다.According to another aspect of the present invention, a method for providing a virtual reality broadcast includes receiving a viewpoint change signal for a first image, and displaying the first image in a first image window at a time point corresponding to the viewpoint change signal Step < / RTI >

본 발명의 또 다른 특징에 따르면, 시점 변동 신호를 수신하는 단계는, 제1 영상창에서 터치 입력 장치 또는 포인팅 입력 장치를 통해 드래그 신호를 수신하는 단계일 수 있다.According to another aspect of the present invention, the step of receiving the viewpoint change signal may include receiving a drag signal through the touch input device or the pointing input device in the first image window.

본 발명의 또 다른 특징에 따르면, 시점 변동 신호를 수신하는 단계는, 센서로부터 디바이스의 각도 정보를 수신하는 단계일 수 있다.According to another aspect of the present invention, the step of receiving the viewpoint change signal may be a step of receiving angle information of the device from the sensor.

본 발명의 또 다른 특징에 따르면, 제1 영상에 대한 시점을 2차원 이미지 또는 3차원 이미지로 제1 영상창 내에 또는 별도로 제공하는 단계를 더 포함하고, 시점 변동 신호를 수신하는 단계는, 2차원 이미지 또는 3차원 이미지에서 변동할 시점에 대응하는 입력을 수신하는 단계일 수 있다.According to another aspect of the present invention, there is provided a method for generating a viewpoint image, the method comprising the steps of: providing a viewpoint for a first image in a first image window or separately as a two-dimensional image or a three- Image or an input corresponding to a point of time to vary in the three-dimensional image.

본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 제1 영상에 대한 타임 라인 변동 신호를 수신하는 단계 및 타임 라인 변동 신호에 대응하여 변동된 시간에서의 제1 영상을 제1 영상창에 표시하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, a method for providing a virtual reality broadcast includes receiving a time line variation signal for a first image, and receiving a first image at a changed time corresponding to a time line variation signal, And displaying it on the window.

본 발명의 또 다른 특징에 따르면, 가상 현실 촬영 장치에 포함된 위치 감지 센서로부터 수신한 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 표시부를 통해 제공하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method for providing a map image in which a first image received from a position sensor included in a virtual reality photographing apparatus, .

본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 지도 이미지에 위치 정보 또는 경로 이동 정보에 대응하는 타임 라인 정보를 표시하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, a method of providing a virtual reality broadcast may further include displaying time information corresponding to location information or path movement information on a map image.

본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 방법은 제1 영상에 대한 추가 객체 데이터를 수신하는 단계 및 추가 객체 데이터를 제1 영상에 적용하여 제공하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, a method of providing virtual reality broadcasting may further include receiving additional object data for a first image and applying additional object data to a first image.

본 발명의 또 다른 특징에 따르면, 추가 객체 데이터는 제1 영상 내의 위치 정보를 포함할 수 있다.According to another aspect of the present invention, the additional object data may include position information in the first image.

본 발명의 또 다른 특징에 따르면, 디바이스는 모바일 디바이스이고, 제1 영상을 요청에 따라 스테레오 스코픽 방식으로 표시하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the device is a mobile device, and may further include displaying the first image in a stereoscopic manner upon request.

본 발명의 또 다른 특징에 따르면, 제1 영상을 스테레오 스코픽 방식으로 표시하는 단계는, 제2 영상에 대한 음성만을 제공하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the step of displaying the first image in a stereoscopic manner may further include the step of providing only audio for the second image.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 장치는 영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 프로세서 및 프로세서를 통해 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 제공하는 표시부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for providing a virtual reality broadcast, the apparatus including: a first image picked up from a virtual reality image pickup apparatus and a second image picked up from a photographing apparatus, And a display unit for providing a first image window displaying a first image and a second image window displaying a second image in response to a request through a processor and a processor requesting streaming of the second image.

본 발명의 다른 특징에 따르면, 가상 현실 방송을 제공하는 장치는 제1 영상에 대한 시점 변동 신호를 수신하는 입력부를 포함하고, 표시부는, 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시할 수 있다.According to another aspect of the present invention, an apparatus for providing a virtual reality broadcast includes an input unit for receiving a viewpoint change signal for a first image, and the display unit displays a first image at a time point corresponding to the viewpoint change signal, 1 It can be displayed in the image window.

본 발명의 또 다른 특징에 따르면, 입력부는, 제1 영상창에서 드래그 신호를 수신할 수 있다.According to another aspect of the present invention, the input unit may receive the drag signal in the first image window.

본 발명의 또 다른 특징에 따르면, 가상 현실 방송을 제공하는 장치는 가상 현실 방송을 제공하는 장치의 각도 정보를 감지하는 센서를 더 포함할 수 있다.According to another aspect of the present invention, an apparatus for providing a virtual reality broadcast may further include a sensor for detecting angle information of a device providing a virtual reality broadcast.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.

본 발명은 가상 현실 촬영 장치로부터 촬영된 영상과 방송 영상을 함께 제공하고, 이를 위한 사용자 인터페이스를 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공할 수 있는 효과가 있다.The present invention provides a method and an apparatus for providing a virtual reality broadcast capable of providing a user interface for providing an image and a broadcast image together from a virtual reality photographing apparatus.

본 발명은 가상 현실 촬영 장치로부터 촬영된 영상에 대한 부가적인 정보와 조작을 제공할 수 있는 가상 현실 방송을 제공하는 방법 및 장치를 제공할 수 있는 효과가 있다.The present invention provides a method and apparatus for providing a virtual reality broadcast capable of providing additional information and manipulation of an image photographed from a virtual reality photographing apparatus.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the specification.

도 1은 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치, 영상 관리 서버 및 가상 현실 방송 시청 장치의 관계를 설명하기 위한 개략도이다.
도 2는 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치 및 가상 현실 방송 시청 장치의 개략적인 구성을 도시한 불록도이다.
도 3은 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법에 따라 가상 현실 방송을 제공하는 절차를 도시한 순서도이다.
도 4a 내지 도 4c는 본 발명의 다른 실시예에 따른 방송 제작자가 가상 현실 방송을 제작하는 화면을 도시한 것이다.
도 5는 본 발명의 일 실시예에 따라 시청자가 가상 현실 방송을 시청하는 화면을 도시한 것이다.
도 6a 내지 도 6b는 본 발명의 실시예에 따라 제1 영상의 시점에 대한 2차원 이미지 및 3차원 이미지를 제공하는 화면을 도시한 것이다.
도 7은 본 발명의 실시예에 따라 제1 영상에 대응하는 지도 이미지를 제공하는 화면을 도시한 것이다.
도 8은 본 발명의 실시예에 따라 추가 객체 데이터가 포함된 제1 영상에 대한 화면을 도시한 것이다.
도 9a 내지 도 9b는 본 발명의 실시예에 따라 스마트 폰을 장착할 수 있는 안경 형태의 프레임 장치에서의 제1 영상 화면을 도시한 것이다.
FIG. 1 is a schematic view for explaining a relation between a virtual reality broadcast production apparatus, a video management server, and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a schematic configuration of a virtual reality broadcast production apparatus and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a procedure for providing a virtual reality broadcast according to a method of providing a virtual reality broadcast according to an embodiment of the present invention.
4A to 4C illustrate a screen for a broadcast producer to produce a virtual reality broadcast according to another embodiment of the present invention.
FIG. 5 illustrates a screen for a viewer to view a virtual reality broadcast according to an embodiment of the present invention.
FIGS. 6A and 6B illustrate a screen for providing a two-dimensional image and a three-dimensional image with respect to a viewpoint of a first image according to an embodiment of the present invention.
FIG. 7 illustrates a screen for providing a map image corresponding to a first image according to an embodiment of the present invention.
FIG. 8 illustrates a screen for a first image including additional object data according to an embodiment of the present invention.
9A and 9B illustrate a first image screen in a spectacle-type frame device capable of mounting a smartphone according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우, '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다.The shapes, sizes, ratios, angles, numbers, and the like disclosed in the drawings for describing the embodiments of the present invention are illustrative, and thus the present invention is not limited thereto. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Where the terms 'comprises', 'having', 'done', and the like are used herein, other parts may be added as long as '~ only' is not used. Unless the context clearly dictates otherwise, including the plural unless the context clearly dictates otherwise.

구성요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.In interpreting the constituent elements, it is construed to include the error range even if there is no separate description.

비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although the first, second, etc. are used to describe various components, these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, the first component mentioned below may be the second component within the technical spirit of the present invention.

별도로 명시하지 않는 한 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout the specification unless otherwise specified.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.It is to be understood that each of the features of the various embodiments of the present invention may be combined or combined with each other partially or entirely and technically various interlocking and driving is possible as will be appreciated by those skilled in the art, It may be possible to cooperate with each other in association.

도 1은 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치, 영상 관리 서버 및 가상 현실 방송 시청 장치의 관계를 설명하기 위한 개략도이다.FIG. 1 is a schematic view for explaining a relation between a virtual reality broadcast production apparatus, a video management server, and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention.

도 1을 참조하면, 가상 현실 방송 제공 시스템 (1000) 은 방송 제공자가 제작한 가상 현실 방송을 관리하여 시청자에게 다양한 형태로 제공하는 시스템이다. 이 때, 가상 현실 방송 제공 시스템 (1000) 은 가상 현실 방송 제작 장치 (100), 영상 관리 서버 (200) 및 가상 현실 방송 시청 장치 (300) 를 포함한다.Referring to FIG. 1, a virtual reality broadcast providing system 1000 manages a virtual reality broadcast produced by a broadcast provider and provides the viewer with various types of information. In this case, the virtual reality broadcast providing system 1000 includes a virtual reality broadcast production apparatus 100, a video management server 200, and a virtual reality broadcast viewing apparatus 300.

가상 현실 방송 제작 장치 (100) 는 방송 제공자가 시청자에게 제공할 가상 현실 방송을 제작하는 장치이다. 가상 현실 방송 제작 장치 (100) 는 다양한 전자 장치를 포함한다. 구체적으로, 가상 현실 방송 제작 장치 (100) 는 가상 현실 촬영 장치로부터 촬영된 제1 영상과 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상을 처리하는 데스크탑 또는 랩탑을 포함하나 이에 제한되지 않는다. 이 때, 촬영 장치는 데스크탑 또는 랩탑과 연결된 웹캠 (Webcam) 일 수도 있고, 랩탑에 내장된 카메라일 수 있으나, 이에 제한되지 않는다. 더 나아가, 가상 현실 방송 제작 장치 (100) 는 제1 영상을 촬영하는 가상 현실 촬영 장치도 포함할 수 있다. 따라서, 가상 현실 방송 제작 장치 (100) 가 가상 현실 촬영 장치를 포함하는 경우, 가상 현실 촬영 장치는 제1 영상을 처리하는 데스크탑 또는 랩탑 또는 스마트 폰과 연결되어 실시간으로 데스크탑 또는 랩탑 또는 스마트 폰에 제공할 수 있다.The virtual reality broadcast production apparatus 100 is a device for producing a virtual reality broadcast to be provided to a viewer by a broadcast provider. The virtual reality broadcast production apparatus 100 includes various electronic devices. Specifically, the virtual reality broadcast production apparatus 100 includes, but is not limited to, a desktop or a laptop that processes a first image photographed from the virtual reality photographing apparatus and a second image photographed from the photographing apparatus rather than the virtual reality photographing apparatus . At this time, the photographing apparatus may be a webcam connected to a desktop or a laptop, or may be a camera incorporated in a laptop, but is not limited thereto. Furthermore, the virtual reality broadcast production apparatus 100 may include a virtual reality photographing apparatus for photographing the first image. Therefore, when the virtual reality broadcast production apparatus 100 includes a virtual reality photographing apparatus, the virtual reality photographing apparatus is connected to a desktop or a laptop or a smart phone processing the first image, and is provided to a desktop, a laptop or a smart phone in real time can do.

영상 관리 서버 (200) 는 가상 현실 방송 제작 장치 (100) 로부터 제1 영상 및 제2 영상을 포함하는 가상 현실 방송을 수신하여 시청자에게 제공하는 서버이다. 따라서, 영상 관리 서버 (200) 는 가상 현실 방송 제작 장치 (100) 및 가상 현실 방송 시청 장치 (300) 와 통신한다. 예를 들어, 도 1에 도시된 바와 같이, 영상 관리 서버 (200) 는 가상 현실 방송 제작 장치 (100) 및 가상 현실 방송 시청 장치 (300) 와 네트워크로 연결될 수 있다. 여기서, 영상 관리 서버 (200) 는 코로케이션 서버 (Co-location Server), 클라우드 서버 등일 수 있으나, 이에 제한되지 않는다. The video management server 200 is a server for receiving virtual reality broadcasts including a first video and a second video from a virtual reality broadcast production apparatus 100 and providing the virtual reality broadcasts to viewers. Accordingly, the video management server 200 communicates with the virtual reality broadcast production apparatus 100 and the virtual reality broadcast viewing apparatus 300. [ For example, as shown in FIG. 1, the video management server 200 may be connected to the virtual reality broadcast production apparatus 100 and the virtual reality broadcast viewing apparatus 300 through a network. Here, the video management server 200 may be a co-location server, a cloud server, or the like, but is not limited thereto.

가상 현실 방송 시청 장치 (300) 는 방송 제공자가 가상 현실 방송 제작 장치 (100) 를 통해 제작한 가상 현실 방송을 시청자가 시청할 수 있도록 제공하는 장치이다. 가상 현실 방송 시청 장치 (300) 는 데스크탑, 랩탑, 태블릿 PC 또는 스마트폰을 포함한다. 또한, 가상 방송 시청 장치 (300) 는 스마트폰을 장착할 수 있는 안경 형태의 프레임 장치를 포함할 수 있다.The virtual reality broadcast viewing apparatus 300 is a device for providing a viewer with a virtual reality broadcast produced by a broadcast provider through the virtual reality broadcast production apparatus 100. The virtual reality broadcast viewing apparatus 300 includes a desktop, a laptop, a tablet PC, or a smart phone. In addition, the virtual broadcast viewing apparatus 300 may include a frame device in the form of a spectacle capable of mounting a smart phone.

도 1에서는 설명의 편의를 위해 가상 현실 방송 제작 장치 (100) 와 가상 현실 방송 시청 장치 (300) 는 1개인 것으로 도시되었으나, 이에 제한되지 않고, 복수의 가상 현실 방송 제작 장치 및 복수의 가상 현실 방송 시청 장치가 영상 관리 서버 (200) 와 통신할 수 있다.1, the virtual reality broadcast producing apparatus 100 and the virtual reality broadcast viewing apparatus 300 are shown as one apparatus for convenience of explanation. However, the present invention is not limited thereto, and a plurality of virtual reality broadcast production apparatuses and a plurality of virtual reality broadcast The viewing apparatus can communicate with the video management server 200.

이하에서는, 가상 현실 방송 제공 시스템 (1000) 에서의 가상 현실 방송 제공 방법에 대한 보다 상세한 설명을 위해 도 2를 함께 참조한다.Hereinafter, FIG. 2 will be referred to for a more detailed description of a virtual reality broadcast providing method in the virtual reality broadcast providing system 1000. FIG.

도 2는 본 발명의 일 실시예에 따른 가상 현실 방송 제작 장치 및 가상 현실 방송 시청 장치의 개략적인 구성을 도시한 불록도이다. 설명의 편의를 위해 도 1을 참조하여 설명한다.2 is a block diagram illustrating a schematic configuration of a virtual reality broadcast production apparatus and a virtual reality broadcast viewing apparatus according to an embodiment of the present invention. Will be described with reference to Fig. 1 for convenience of explanation.

이하에서는 가상 현실 방송을 제작하는 방송 제공자와 제공된 가상 현실 방송을 시청 및 참여하는 시청자가 공통으로 가지는 유저 인터페이스에 대해서 설명한다. 가상 현실 방송은 가상 현실 촬영 장치로부터 촬영된 제1 영상과 촬영 장치로부터 촬영되고 평면의 영상으로 제공되는 제2 영상이 동시에 전달되는 형식일 수 있다. 제1 영상과 제2 영상 즉, 가상 현실 영상과 방송 제공자가 나타나는 영상이 동시에 제공됨으로써, 단순히 가상 현실 영상을 재생하는 것에 더하여 방송 제공자가 나타나는 영상을 통해 방송 제작자의 해설이나 코멘트를 들을 수 있다. 이러한 가상 현실 영상과 방송 제공자가 나타나는 영상의 조합에서 두 영상을 어떻게 조화롭게 배치하고 어떠한 사용자 경험을 제공할 것인가가 매우 중요할 수 있다. 방송 제작자와 시청자의 유저 인터페이스에는 가상 현실 영상과 방송 제작자가 나타나는 영상이 공통적으로 표시된다. 나아가 가상 현실 영상에 대한 조작과 표시에 대한 부분은 방송 제작자와 시청자의 인터페이스에서 실질적으로 동일하게 동작한다.Hereinafter, a user interface common to a broadcast provider for producing a virtual reality broadcast and viewers participating in viewing and participating in a provided virtual reality broadcast will be described. The virtual reality broadcast may be a form in which a first image photographed from the virtual reality photographing apparatus and a second image photographed from the photographing apparatus and provided as a flat image are simultaneously transmitted. The first and second images, that is, the virtual reality image and the image in which the broadcast provider appears, are simultaneously provided, so that the virtual reality image is simply reproduced, and the comment or comment of the broadcast producer can be heard through the image in which the broadcast provider appears. It is very important how the two images are arranged in harmony and which user experience is to be provided in the combination of the virtual reality image and the image in which the broadcast provider appears. In the user interface of the broadcast producer and the viewer, images in which the virtual reality image and the broadcast producer appear are commonly displayed. Further, the operation and display of the virtual reality image are substantially the same at the interface between the broadcasting producer and the viewer.

도 2를 참조하면, 가상 현실 방송 제작 장치 (100) 는 프로세서 (110), 표시부 (120) 및 입력부 (130) 를 포함한다. Referring to FIG. 2, a virtual reality broadcast production apparatus 100 includes a processor 110, a display unit 120, and an input unit 130.

가상 현실 방송 제작 장치 (100) 의 프로세서 (110) 는 영상 관리 서버 (200) 에 가상 현실 촬영 장치로부터 촬영된 제1 영상에 대한 스트리밍을 요청한다. 가상 현실 제작 장치 (100) 에 가상 현실 촬영 장치가 포함된 경우, 프로세서 (110) 는 가상 현실 촬영 장치에 제1 영상에 대한 실시간 스트리밍을 요청한다. 또한, 프로세서 (110) 는 스트리밍 요청된 제1 영상과 가상 현실 촬영 장치가 아닌 촬영 장치, 예를 들어, 웹캠으로부터 촬영된 제2 영상에 대한 송출을 요청한다.The processor 110 of the virtual reality broadcast production apparatus 100 requests the video management server 200 to stream the first image photographed from the virtual reality photographing apparatus. When the virtual reality photographing apparatus 100 is included in the virtual reality photographing apparatus 100, the processor 110 requests the virtual reality photographing apparatus to perform real-time streaming of the first image. In addition, the processor 110 requests transmission of the first video requested to be streamed and a second video captured from a photographing apparatus, for example, a webcam, rather than a virtual reality photographing apparatus.

또한, 프로세서 (110) 는 제1 영상에 대한 시점 변동 신호에 대한 처리를 수행한다. 여기서, 시점 변동 신호란, 표시부 (120) 에 표시되고 있는 제1 영상에 대한 시점을 변동하는 입력에 대응하는 신호를 의미한다. 시점 변동 신호는 입력부 (130) 를 통해 입력될 수 있다. 또한, 프로세서 (110) 는 제1 영상에 대한 타임 라인 변동 신호에 대한 처리를 수행한다. 여기서, 타임 라인 변동 신호란, 표시부 (120) 에 표시되고 있는 제1 영상에 대한 재생 시간을 변동하는 입력에 대응하는 신호를 의미한다. 예를 들어, 타임 라인 변동 신호란, 00:03:23 재생 시간에 해당하는 제1 영상이 표시부 (120) 에 표시되고 있으나, 00:10:10 재생 시간에 해당하는 제1 영상을 표시하려고 타임 라인을 변동하는 신호이다.In addition, the processor 110 performs processing on the viewpoint change signal with respect to the first image. Here, the viewpoint change signal means a signal corresponding to an input that changes the viewpoint of the first image displayed on the display unit 120. [ The viewpoint change signal may be input through the input unit 130. [ In addition, the processor 110 performs processing on the time line variation signal for the first image. Here, the time line variation signal means a signal corresponding to an input that varies the reproduction time with respect to the first video displayed on the display unit 120. [ For example, in the case of the time line variation signal, the first image corresponding to the 00:03:23 reproduction time is displayed on the display unit 120, but the time for displaying the first image corresponding to the 00:10:10 reproduction time It is a signal that fluctuates the line.

가상 현실 방송 제작 장치 (100) 의 표시부 (120) 는 프로세서 (110) 를 통해 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상창을 표시하는 제2 영상창을 제공하는 표시한다. 또한, 표시부 (120) 는 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시한다. 더 나아가, 표시부 (120) 는 제1 영상창에 타임 라인 변동 신호에 대응하여 변동된 시간에서의 제1 영상을 제1 영상창에 표시한다.The display unit 120 of the virtual reality broadcast production apparatus 100 displays a first image window for displaying a first image and a second image window for displaying a second image window in response to a request through the processor 110 do. Also, the display unit 120 displays the first image on the first image window at a time point corresponding to the view-change signal. Further, the display unit 120 displays the first image in the first image window at a time corresponding to the time line variation signal in the first image window.

가상 현실 방송 제작 장치 (100) 의 입력부 (130) 는 제1 영상에 대한 시점 변동 신호 및 타임 라인 변동 신호를 수신한다. 또한, 입력부 (130) 는 제1 영상에 추가적으로 제공할 데이터인 추가 객체 데이터에 대한 입력을 수신한다. 추가 객체 데이터란, 시청자에게 점수를 부여하기 위해 제1 영상에 표시되는 이미지에 대한 데이터를 의미한다. 여기서, 입력부 (130) 는 키보드 또는 포인팅 입력 장치인 마우스일 수 있다.The input unit 130 of the virtual reality broadcast production apparatus 100 receives the viewpoint change signal and the time line variation signal for the first image. In addition, the input unit 130 receives an input for additional object data, which is data to be additionally provided to the first image. The additional object data means data on an image displayed on the first image to give a score to the viewer. Here, the input unit 130 may be a keyboard or a mouse that is a pointing input device.

도 2를 참조하면, 가상 현실 방송 시청 장치 (300) 는 프로세서 (310), 표시부 (320), 입력부 (330) 및 센서 (340) 를 포함한다.Referring to FIG. 2, the virtual reality broadcast viewing apparatus 300 includes a processor 310, a display unit 320, an input unit 330, and a sensor 340.

가상 현실 방송 시청 장치 (300) 의 프로세서 (310) 는 영상 관리 서버 (200) 에 제1 영상 및 제2 영상에 대한 스트리밍을 요청한다. 프로세서 (310) 는 시청자의 요청에 따라 제1 영상에 대한 스트리밍만을 요청할 수도 있다. 이 때, 프로세서 (310) 는 제2 영상에 포함된 소리에 대한 스트리밍을 요청한다.The processor 310 of the virtual reality broadcast viewing apparatus 300 requests the video management server 200 to stream the first video and the second video. The processor 310 may request only streaming of the first image in response to a viewer's request. At this time, the processor 310 requests streaming of sound included in the second image.

더 나아가, 프로세서 (310) 는 제1 영상에 추가적으로 제공할 데이터인 지도 이미지에 대한 처리를 수행한다. 여기서, 지도 이미지란, 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 이미지를 의미한다. 또한, 프로세서 (310) 는 가상 현실 방송 제작 장치 (100) 의 입력부 (130) 에 입력된 추가 객체 데이터에 대한 처리를 수행한다. 따라서, 프로세서 (310) 는 제1 영상에 지도 이미지 또는 추가 객체 데이터를 제공하기 위한 처리를 수행한다.Furthermore, the processor 310 performs processing on the map image, which is data to be additionally provided to the first image. Here, the map image means an image in which the first image is photographed or an image in which path movement information according to time is displayed. In addition, the processor 310 performs processing on the additional object data input to the input unit 130 of the virtual reality broadcast production apparatus 100. Thus, the processor 310 performs processing to provide a map image or additional object data to the first image.

가상 현실 방송 시청 장치 (300) 의 표시부 (320) 는 프로세서 (310) 를 통해 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 표시한다. 이 때, 표시부 (320) 는 가상 현실 방송 제작 장치 (100) 의 입력부 (130) 에 수신된 시점 변동 신호가 적용된 제1 영상을 표시할 수도 있다. 또한, 표시부 (320) 는 가상 현실 방송 제작 장치 (100) 의 입력부 (130) 에 수신된 타임 라인 변동 신호가 적용된 제1 영상을 표시한다. 또한, 표시부 (320) 는 제1 영상에 지도 이미지 또는 추가 객체 데이터가 적용된 제1 영상을 제1 영상창에 표시한다.The display unit 320 of the virtual reality broadcast viewing apparatus 300 displays a first image window displaying the first image and a second image window displaying the second image in response to the request through the processor 310. [ At this time, the display unit 320 may display the first image to which the viewpoint change signal received in the input unit 130 of the virtual reality broadcast production apparatus 100 is applied. In addition, the display unit 320 displays a first image to which the received time line variation signal is applied to the input unit 130 of the virtual reality broadcast production apparatus 100. In addition, the display unit 320 displays a first image to which the map image or the additional object data is applied on the first image in the first image window.

또한, 표시부 (320) 는 제1 영상을 스테레오 스코픽 방식으로 표시할 수 있다. 여기서, 스테레오 스코픽 방식이란, 제1 영상을 왼쪽 눈과 오른쪽 눈에 각각 표시하여 3차원적인 입체감을 지각할 수 있게 해주는 입체 영상 구현 방식이다. 따라서, 표시부 (320) 는 스테레오 스코픽 방식에 따라 제1 영상을 왼쪽 눈과 오른쪽 눈에 대응하는 두 개의 영역에 표시할 수 있다.Also, the display unit 320 can display the first image in a stereoscopic manner. Here, the stereoscopic method is a stereoscopic image realization method that enables a three-dimensional stereoscopic effect to be perceived by displaying the first image on the left eye and the right eye, respectively. Therefore, the display unit 320 can display the first image in two areas corresponding to the left eye and the right eye according to the stereoscopic method.

또한, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상에 대한 시점 변동 신호를 수신한다. 가상 현실 방송 시청 장치 (300) 의 입력부 (330) 는 터치 입력 장치일 수 있다.Also, the input unit 330 of the virtual reality broadcast providing apparatus 300 receives the viewpoint change signal for the first image. The input unit 330 of the virtual reality broadcast viewing apparatus 300 may be a touch input device.

가상 현실 방송 시청 장치 (300) 의 센서 (340) 는 가상 현실 방송 시청 장치 (300) 의 각도 정보를 감지한다. 구체적으로, 가상 현실 방송 시청 장치 (300) 가 스마트 폰을 장착할 수 있는 안경 형태의 프레임 장치를 포함하는 경우, 센서 (340) 는 변동된 가상 현실 방송 시청 장치 (300) 의 각도 정보를 감지한다. 여기서, 각도 정보란, x축, y축 및 z축을 기초로 기준 각도에서 변동된 각도에 대한 정보를 의미한다. 센서 (340) 가 가상 현실 방송 시청 장치 (300) 의 각도 정보를 감지함으로써, 표시부 (320) 는 각도 정보에 따라 변동된 시점으로 제1 영상을 표시할 수 있다. The sensor 340 of the virtual reality broadcast viewing apparatus 300 senses the angle information of the virtual reality broadcast viewing apparatus 300. Specifically, when the virtual reality broadcast viewing apparatus 300 includes a frame-shaped frame device capable of mounting a smartphone, the sensor 340 senses the angle information of the changed virtual reality broadcast viewing apparatus 300 . Here, the angle information means information about an angle that varies from a reference angle based on x-axis, y-axis, and z-axis. By sensing the angle information of the virtual reality broadcast viewing apparatus 300 by the sensor 340, the display unit 320 can display the first image at the changed time according to the angle information.

이에 따라, 가상 현실 방송 제작 장치 (100) 는 프로세서 (110), 표시부 (120) 및 입력부 (130) 를 포함하여 제2 영상과 함께 시점을 변동하거나 타임 라인을 변동한 제1 영상을 함께 시청자에게 제공할 수 있다. 또한, 가상 현실 방송 제공 장치 (300) 는 프로세서 (310), 표시부 (320), 입력부 (330) 및 센서 (340) 를 포함하여 가상 현실 방송 제작 장치 (100) 가 제공한 제1 영상과 제1 영상에 대한 해설 또는 코멘트를 제공하는 제2 영상을 시청자가 시청할 수 있도록 하고, 필요에 따라 제1 영상의 시점을 변동할 수 있도록 한다. Accordingly, the virtual reality broadcast production apparatus 100 includes a processor 110, a display unit 120, and an input unit 130 so that a first image, . The virtual reality broadcast providing apparatus 300 includes a processor 310, a display unit 320, an input unit 330 and a sensor 340. The virtual reality broadcast providing apparatus 300 includes a first image provided by the virtual reality broadcast production apparatus 100, The viewer can view a second image providing commentary or comment on the image and change the viewpoint of the first image as needed.

이하에서는 가상 현실 방송 제작 장치 (100) 및 가상 현실 방송 제공 장치 (300) 에서의 가상 현실 방송을 제공하는 방법에 대한 보다 상세한 설명을 위해 도 3을 함께 참조한다.Hereinafter, a method of providing a virtual reality broadcast in the virtual reality broadcast production apparatus 100 and the virtual reality broadcast providing apparatus 300 will be described in detail with reference to FIG.

도 3은 본 발명의 일 실시예에 따른 가상 현실 방송을 제공하는 방법에 따라 가상 현실 방송을 제공하는 절차를 도시한 순서도이다. 설명의 편의를 위해 도 1 및 도 2의 구성 요소들과 도면 부호를 참조하여 설명한다.3 is a flowchart illustrating a procedure for providing a virtual reality broadcast according to a method of providing a virtual reality broadcast according to an embodiment of the present invention. For convenience of explanation, the components will be described with reference to FIG. 1 and FIG. 2 and reference numerals.

가상 현실 방송 제공 장치 (300) 의 프로세서 (310) 는 영상 관리 서버 (200) 에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청한다 (S310).The processor 310 of the virtual reality broadcast providing apparatus 300 transmits the first image photographed from the virtual reality photographing apparatus and the second image photographed from the photographing apparatus rather than the virtual reality photographing apparatus to the video management server 200 (S310).

구체적으로, 프로세서 (310) 는 제2 영상이 제공되는 상태에서 제1 영상에 대한 출력 요청에 따라 제1 영상의 제공을 요청한다. 여기서, 제2 영상은 제1 영상과 연관된 영상으로, 방송 제작자 예를 들어 BJ (Broadcast Jacky) 가 직접 출연하여 제1 영상에 대해 설명하는 영상을 의미한다. 따라서, 표시부 (320) 에는 제2 영상이 먼저 표시되고 있는 상태에서 제1 영상에 대한 출력 요청에 따라 제1 영상이 표시된다. Specifically, the processor 310 requests the presentation of the first image according to an output request for the first image in a state where the second image is provided. Here, the second image is an image associated with the first image, which means that the broadcast producer, for example, BJ (Broadcast Jacky) directly displays the first image. Accordingly, the first image is displayed on the display unit 320 in response to a request for outputting the first image while the second image is displayed first.

이어서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 요청에 응답하여 제1 영상을 표시하는 제1 영상창 및 제2 영상을 표시하는 제2 영상창을 제공한다 (S320).In response to the request, the display unit 320 of the virtual reality broadcast providing apparatus 300 provides a first video window for displaying the first video and a second video window for displaying the second video in operation S320.

구체적으로, 표시부 (320) 는 프로세서 (310) 가 제1 영상창에 제2 영상창을 추가하는 동시에 제2 영상창의 크기를 변동시킴으로써 제1 영상창과 제2 영상창을 모두 제공한다. 예를 들어, 표시부 (320) 는 초기의 제2 영상창보다 작은 크기의 제2 영상창과 제2 영상창의 크기보다 큰 제1 영상창을 제공할 수 있다. 구체적인 제1 영상창 및 제2 영상창의 구성에 대해서는 도 4a 내지 도 4c 및 도 5를 참조하여 상세히 후술한다. 표시부 (320) 가 제1 영상 및 제2 영상을 동시에 제공함으로써, 시청자는 제2 영상을 통해 방송 제작자와 방송 제작자의 해설이나 코멘트를 들음으로써 제1 영상에 대해 상세한 정보를 습득할 수 있다.Specifically, the display unit 320 provides both the first image window and the second image window by changing the size of the second image window while the processor 310 adds the second image window to the first image window. For example, the display unit 320 may provide a first image window having a size smaller than that of the initial second image window and a second image window having a size larger than that of the second image window. Concrete configurations of the first image window and the second image window will be described later in detail with reference to FIGS. 4A to 4C and FIG. The display unit 320 simultaneously provides the first image and the second image so that the viewer can learn detailed information about the first image by listening to the commentary or comment of the broadcast producer and the broadcast producer through the second image.

이어서, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상에 대한 시점 변동 신호를 수신한다 (S330). 여기서, 시점 변동 신호는 입력부 (330) 가 아닌 센서 (340) 에 의해 수신될 수도 있으며, 센서에 의한 시점 변동 신호에 따른 제1 영상 표시에 대해서는 후술한다.Then, the input unit 330 of the virtual reality broadcast providing apparatus 300 receives the viewpoint change signal for the first image (S330). Here, the viewpoint change signal may be received by the sensor 340 instead of the input unit 330, and the first video display according to the viewpoint change signal by the sensor will be described later.

구체적으로, 입력부 (330) 는 제1 영상창에서 드래그 신호를 수신할 수 있다. 예를 들어, 시청자가 제1 영상에 대해 시점을 오른쪽으로 변동하려 하는 경우, 입력부 (330) 는 오른쪽에서 왼쪽으로 이동하는 드래그 신호를 수신할 수 있다. 또한, 시청자가 제1 영상에 대해 시점을 위로 변동하려 하는 경우, 입력부 (330) 는 위에서 아래으로 이동하는 드래그 신호를 수신할 수 있다. 구체적인 드래그 신호를 수신하는 화면에 대해서는 도 5를 참조하여 상세히 후술한다.Specifically, the input unit 330 can receive the drag signal in the first image window. For example, when the viewer tries to change the viewpoint to the right with respect to the first image, the input unit 330 may receive the drag signal moving from right to left. Also, when the viewer tries to change the viewpoint of the first image upward, the input unit 330 can receive the drag signal moving from top to bottom. A screen for receiving a specific drag signal will be described later in detail with reference to FIG.

시점 변동 신호가 센서 (340) 에 의해 수신된 경우, 프로세서 (310) 는 센서 (340) 로부터 각도 정보를 수신한다. 즉, 프로세서 (310) 는 센서 (340) 로부터 기준점의 각도 정보를 수신하고, 기준점에서 변경된 각도 정보를 수신한다. 시점 변동 신호가 센서 (340) 에 의해 수신되는 경우는 가상 현실 방송 제공 장치 (300) 가 안경 형태의 프레임 장치에 장착될 수 있다. 따라서, 센서 (340) 는 별도의 조작 요청이 없이도 시청자의 움직임을 감지하여 제1 영상에 대한 시점을 변동할 수 있도록 한다.When the view change signal is received by the sensor 340, the processor 310 receives the angle information from the sensor 340. That is, the processor 310 receives the angle information of the reference point from the sensor 340 and receives the changed angle information from the reference point. When the viewpoint change signal is received by the sensor 340, the virtual reality broadcast providing apparatus 300 may be mounted on a frame device of a glasses type. Accordingly, the sensor 340 can detect the motion of the viewer without a separate operation request, and can change the viewpoint of the first image.

또한, 입력부 (330) 는 제1 영상에 대한 시점을 표현한 2차원 이미지 또는 3차원 이미지를 통해 시점 변동 신호를 수신할 수 있다. 구체적으로, 표시부 (120) 는 제1 영상에 대한 시점을 2차원 이미지 또는 3차원 이미지로 제1 영상창 내에 또는 별도로 제공한다. 이어서, 입력부 (400) 는 2차원 이미지 또는 3차원 이미지에서 변동할 시점에 대응하는 입력을 수신한다. 이 때, 2차원 이미지의 경우, 입력부 (400) 는 적어도 하나의 포인트에 대응하는 입력을 수신한다. 또한, 3차원 이미지의 경우, 입력부 (330) 는 적어도 두 개의 포인트에 대응하는 입력을 수신한다. 구체적인 2차원 이미지 및 3차원 이미지에 대한 구성은 도 6a 및 도 6b를 참조하여 후술한다. 시점 변동 신호를 2차원 이미지 또는 3차원 이미지를 통해 수신함으로써, 시청자가 제1 영상에서 변동할 시점에 대한 위치를 용이하게 파악할 수 있으며, 원하는 변동 시점을 정확하게 입력할 수 있다.Also, the input unit 330 may receive the viewpoint change signal through the two-dimensional image or the three-dimensional image expressing the viewpoint of the first image. Specifically, the display unit 120 provides the viewpoints for the first image in the first image window or separately as the two-dimensional image or the three-dimensional image. Then, the input unit 400 receives an input corresponding to the point of time of the change in the two-dimensional image or the three-dimensional image. At this time, in the case of a two-dimensional image, the input unit 400 receives an input corresponding to at least one point. Further, in the case of a three-dimensional image, the input unit 330 receives input corresponding to at least two points. Configurations for specific two-dimensional images and three-dimensional images will be described later with reference to Figs. 6A and 6B. By receiving the viewpoint change signal through the two-dimensional image or the three-dimensional image, the viewer can easily grasp the position with respect to the point of time of the change in the first image, and can accurately input the desired point of change.

이어서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 시점 변동 신호에 대응하여 변동된 시점으로 제1 영상을 제1 영상창에 표시한다 (S340).Then, the display unit 320 of the virtual reality broadcast providing apparatus 300 displays the first image on the first image window at a time point corresponding to the view-change signal (S340).

구체적으로, 표시부 (320) 가 제1 영상창에 표시한 제1 영상에는 프로세서 (310) 에 의해 드래그 신호에 대응하는 변동된 시점이 적용된다. 또한, 표시부 (320) 가 제1 영상창에 표시한 제1 영상에는 프로세서 (310) 에 의해 2차원 이미지 또는 3차원 이미지에서 입력된 신호에 대응하는 변동된 시점이 적용된다. 가상 현실 방송 제공 장치 (300) 가 안경 형태의 프레임 장치에 장착된 경우에도, 표시부 (320) 가 제1 영상창에 표시한 제1 영상에는 프로세서 (310) 에 의해 각도 정보에 대응하는 변동된 시점이 적용된다. 구체적인 각도 정보에 대응하는 변동된 시점이 적용된 제1 영상에 대해서는 도 9를 참조하여 상세히 후술한다.Specifically, the changed time corresponding to the drag signal is applied to the first image displayed on the first image window by the display unit 320 by the processor 310. In addition, the first image displayed on the first image window by the display unit 320 is applied to the two-dimensional image or the three-dimensional image by the processor 310. [ Even when the virtual reality broadcast providing apparatus 300 is mounted on the frame device of the glasses type, the first image displayed on the first image window by the display unit 320 is displayed on the first image displayed on the first image window by the processor 310, Is applied. The first image to which the changed viewpoint corresponding to the specific angle information is applied will be described later in detail with reference to FIG.

한편, 또 다른 실시예에서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 방송 제작자가 입력한 타임 라인 변동 신호에 대응하는 타임 라인이 적용된 제1 영상을 제1 영상창에 표시할 수도 있다. 이 때, 시청자는 표시부 (320) 에 표시되는 제1 영상에 대한 타임 라인은 변동할 수 없도록 구현될 수 있다.On the other hand, in another embodiment, the display unit 320 of the virtual reality broadcast providing apparatus 300 may display the first video to which the time line corresponding to the time line variation signal input by the broadcast producer is applied in the first video window have. At this time, the viewer can be implemented such that the time line for the first image displayed on the display unit 320 can not be changed.

또한, 또 다른 실시예에서, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 가상 현실 촬영 장치에 포함된, 또는 별도의 장치, 예를 들어 스마트폰에 포함된 위치 감지 센서로부터 수신한 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 제공한다. 제공된 지도 이미지에는 위치 정보에 대응하는 타임 라인 정보 또는 경로 이동 정보에 대응하는 타임 라인 정보가 표시된다. 즉, 지도 이미지에는 제1 영상이 촬영된 장소와 촬영된 장소가 출력되는 시점에 대응하는 제1 영상의 재생 시간이 표시된다. 또한, 지도 이미지에는 제1 영상이 촬영된 경로 이동에 대응하는 제1 영상의 재생 시간이 표시된다. 구체적인 제1 영상에 대한 지도 이미지 제공 화면에 대해서는 도 7을 참조하여 상세히 후술한다. 표시부 (320) 가 지도 이미지를 통해 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보를 제공함으로써, 외부 이동 방송 또는 여행 방송인 경우, 시청자가 영상에 표시되는 위치를 용이하게 습득할 수 있고, 시간에 따른 경로 이동 정보를 한눈에 확인할 수 있다.In addition, in another embodiment, the display unit 320 of the virtual reality broadcast providing apparatus 300 may display a virtual reality image, which is included in the virtual reality photographing apparatus or is received from a separate apparatus, for example, 1 provides a map image in which positional information of the image is photographed or path movement information according to time. Timeline information corresponding to the position information or timeline information corresponding to the path movement information is displayed in the provided map image. That is, the map image displays the location where the first image was shot and the playback time of the first image corresponding to the point at which the shot location is output. The map image displays the playback time of the first video corresponding to the movement of the first video. The detailed map image providing screen for the first image will be described later in detail with reference to FIG. The display unit 320 provides location information on which the first image is photographed, or route movement information according to time, through the map image, thereby enabling the viewer to easily acquire the position to be displayed on the image, , It is possible to confirm the route movement information according to time at a glance.

또한, 또 다른 실시예에서, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상에 대한 추가 객체 데이터를 수신한다. 여기서, 추가 객체 데이터는 표시될 제1 영상 내에 배치되는 이미지 오브젝트, 위치 정보, 점수 또는 입력 신호에 따른 애니메이션 등을 포함할 수 있다. 따라서, 표시부 (320) 는 추가 객체 데이터가 적용된 제1 영상을 제공할 수 있다. 추가 객체 데이터는 프로세서 (310) 에 의해 제1 영상에 적용될 수 있다. 이 때, 추가 객체 데이터는 프로세서 (310) 에 의해 실시간으로 제1 영상에 적용될 수도 있다. 구체적인 추가 객체 데이터가 적용된 제1 영상은 도 8을 참조하여 상세히 후술한다. Further, in another embodiment, the input unit 330 of the virtual reality broadcast providing apparatus 300 receives the additional object data for the first image. Here, the additional object data may include an image object placed in the first image to be displayed, position information, a score, or animation according to the input signal. Accordingly, the display unit 320 can provide the first image to which the additional object data is applied. The additional object data may be applied by the processor 310 to the first image. At this time, the additional object data may be applied to the first image by the processor 310 in real time. A first image to which concrete additional object data is applied will be described later in detail with reference to FIG.

가상 현실 방송 제공 장치 (300) 가 안경 형태의 프레임 장치에 장착된 경우, 표시부 (320) 는 제1 영상을 요청에 따라 스테레오 스코프 방식으로 표시한다. 이 때, 프로세서 (310) 는 제1 영상과 함께 제2 영상에 대한 음성만을 제공한다. 구체적인 스테레오 스코픽 방식으로 표시된 제1 영상에 대해서는 도 9를 참조하여 상세히 후술한다. 스트레오 스코프 방식으로 제1 영상을 제공함으로써, 시청자는 제1 영상 안에 위치한 것 처럼을 보다 실감나게 제1 영상을 시청할 수 있다.When the virtual reality broadcast providing apparatus 300 is mounted on a frame apparatus of a glasses type, the display unit 320 displays the first image in a stereo scope manner upon a request. At this time, the processor 310 provides only the audio for the second video together with the first video. A first image displayed in a specific stereoscopic manner will be described later in detail with reference to FIG. By providing the first image in a stereoscopic manner, the viewer can view the first image more realistically as if it is located in the first image.

도 4a 내지 도 4c는 본 발명의 다른 실시예에 따른 방송 제작자가 가상 현실 방송을 제작하는 화면을 도시한 것이다.4A to 4C illustrate a screen for a broadcast producer to produce a virtual reality broadcast according to another embodiment of the present invention.

도 4a를 참조하면, 가상 현실 방송 제작 장치 (100) 의 표시부 (120) 는 가상 현실 방송을 제작하는 화면을 표시한다. 가상 현실 방송 제작 화면은 방송 시작 버튼 (410), 녹화 시작 버튼 (430) 및 VR 버튼 (430) 를 포함한다. Referring to FIG. 4A, a display unit 120 of a virtual reality broadcast production apparatus 100 displays a screen for producing a virtual reality broadcast. The virtual reality broadcast production screen includes a broadcast start button 410, a recording start button 430, and a VR button 430.

도 4a를 참조하면, 입력부 (130) 를 통해 방송 시작 버튼 (410) 에 대한 신호를 수신하는 경우, 표시부 (120) 는 촬영 장치로부터 촬영된 제2 영상 (420) 을 표시한다. 녹화 시작 버튼 (430) 에 대한 신호는 촬영된 제2 영상에 대한 녹화를 의미한다. 즉, 입력부 (130) 를 통해 녹화 시작 버튼 (430) 에 대한 신호를 수신하는 경우, 프로세서 (120) 는 표시부 (120) 를 통해 표시되는 제2 영상 (420) 을 녹화하여 영상 관리 서버 (200) 로 전송한다. 이어서, 입력부 (130) 를 통해 VR 버튼 (440) 에 대한 신호를 수신하는 경우, 표시부 (120) 는 가상 현실 촬영 장치로부터 촬영된 제1 영상과 제2 영상에 대한 표시를 준비한다. 가상 현실 활영 장치로부터 촬영된 제1 영상은 기 저장된 가상 현실 영상일 수도 있으며, 가상 현실 촬영 장치를 이용하여 실시간으로 제공되는 영상일 수 있다. 이하에서는 본 발명의 일 실시예로 기 저장된 가상 현실 영상인 제1 영상을 제공하는 방법을 예시적으로 설명한다.Referring to FIG. 4A, when a signal for the broadcast start button 410 is received through the input unit 130, the display unit 120 displays the second image 420 captured by the photographing apparatus. The signal for the recording start button 430 indicates recording for the second image photographed. That is, when receiving the signal for the recording start button 430 through the input unit 130, the processor 120 records the second image 420 displayed through the display unit 120, Lt; / RTI > When receiving a signal for the VR button 440 through the input unit 130, the display unit 120 prepares the display of the first image and the second image photographed from the virtual reality photographing apparatus. The first image photographed from the virtual reality changing apparatus may be a previously stored virtual reality image or an image provided in real time using the virtual reality photographing apparatus. Hereinafter, a method of providing a first image, which is a previously stored virtual reality image, will be described as an exemplary embodiment of the present invention.

도 4b를 참조하면, 표시부 (120) 는 제2 영상 (420) 과 함께 표시할 기 저장된 제1 영상 (450) 에 대한 선택을 위한 화면을 표시한다. 표시부 (120) 는 미리 저장된 제1 영상에 대한 목록 (441) 을 표시할 수도 있고, 가상 현실 촬영 장치로부터 촬영된 제1 영상 (450) 을 실시간으로 스트리밍하도록 하는 버튼을 표시할 수도 있다. 따라서, 입력부 (130) 를 통해 미리 저장된 제1 영상에 대한 목록 (441) 에서 제1 영상에 대한 선택 신호를 수신하는 경우, 표시부 (120) 는 선택 신호에 대응하는 제1 영상 (450) 을 표시한다. 가상 현실 촬영 장치로부터 촬영된 제1 영상 (450) 을 실시간으로 스트리밍하는 경우, 입력부 (130) 를 통해 미리 저장된 제1 영상에 대한 목록 (441) 에서 제1 영상에 대한 선택 신호를 수신하지 않고, 실시간으로 스트리밍하도록 하는 버튼에 대한 선택 신호를 수신할 수도 있다.Referring to FIG. 4B, the display unit 120 displays a screen for selecting a previously stored first image 450 to be displayed together with the second image 420. The display unit 120 may display a list 441 for the first image stored in advance or a button for allowing the first image 450 photographed from the virtual reality photographing apparatus to be streamed in real time. Accordingly, when receiving the selection signal for the first image from the list 441 for the first image stored in advance through the input unit 130, the display unit 120 displays the first image 450 corresponding to the selection signal do. When the first image 450 captured from the virtual reality photographing apparatus is streamed in real time, the selection signal for the first image is not received from the list 441 for the first image stored in advance through the input unit 130, And may receive a selection signal for a button to be streamed in real time.

도 4b를 참조하면, 표시부 (120) 는 제1 영상 (450) 에 대한 시점을 2차원 이미지 (451) 로 표시할 수 있다. 구체적인 2차원 이미지에 대한 구성은 도 6a를 통해 상세히 후술한다. 이 때, 입력부 (130) 를 통해 제1 영상과 함께 제2 영상을 표시할지에 대한 제2 영상 표시 여부 버튼 (442) 에 대한 신호를 수신할 수 있다. 즉, 제2 영상 표시 여부 버튼 (442) 을 통해 표시 신호를 수신한 경우, 표시부 (120) 는 제1 영상 (450) 과 제2 영상 (420) 을 함께 표시한다. 반면, 제2 영상 표시 여부 버튼 (442) 을 통해 숨김 신호를 수신한 경우, 표시부 (120) 는 제1 영상 (450) 만을 표시한다. 이어서, 입력부 (130) 를 통해 VR 시작 버튼 (443) 에 대한 신호를 수신한다.Referring to FIG. 4B, the display unit 120 may display the viewpoint of the first image 450 as a two-dimensional image 451. The configuration for the specific two-dimensional image will be described later in detail with reference to FIG. 6A. At this time, it is possible to receive a signal for the second video display button 442 on whether to display the second video together with the first video through the input unit 130. That is, when a display signal is received through the second image display enable button 442, the display unit 120 displays the first image 450 and the second image 420 together. On the other hand, when receiving the hidden signal through the second video display / non-display button 442, the display unit 120 displays only the first video 450. Then, a signal for the VR start button 443 is received through the input unit 130.

도 4c를 참조하면, 입력부 (130) 가 VR 시작 버튼 (443) 에 대한 신호를 수신함에 따라, 표시부 (120) 는 제1 영상 (450) 과 제2 영상 (420) 을 표시한다. 더 나아가, 표시부 (120) 는 제1 영상 (450) 에 대한 시점을 나타낸 2차원 이미지 (451) 도 함께 표시한다. 표시부 (120) 에서는 VR 방송 시작에 따라 제1 영상 (450) 과 제2 영상 (420) 의 크기가 변하지 않으나, 시청자에게는 제1 영상 (450) 의 크기가 확대되며 제2 영상 (420) 의 크기는 축소되어 제1 영상 (450) 의 우측 하단에 제2 영상 (420) 이 표시된다.4C, when the input unit 130 receives a signal for the VR start button 443, the display unit 120 displays the first image 450 and the second image 420. Furthermore, the display unit 120 also displays a two-dimensional image 451 indicating the viewpoint of the first image 450. [ The size of the first image 450 and the size of the second image 420 are not changed according to the start of the VR broadcast in the display unit 120 but the size of the first image 450 is enlarged to the viewer, And the second image 420 is displayed on the lower right side of the first image 450.

이에 따라, 가상 현실 방송 제작 장치 (100) 는 가상 현실 방송을 제공하기 위한 절차에 대응하는 기능을 제공함으로써 방송 제작자가 시청자에게 가상 현실 방송을 보다 용이하게 제공할 수 있다. 또한, 가상 현실 방송 제작 장치 (100) 는 표시부 (120) 를 통해 제1 영상 (450) 과 제2 영상 (420) 을 동시에 표시함으로써, 방송 제작자가 시청자에게 제공할 영상을 한눈에 확인할 수 있다.Accordingly, the virtual reality broadcast production apparatus 100 can provide the viewer with the virtual reality broadcast more easily by providing the function corresponding to the procedure for providing the virtual reality broadcast. The virtual reality broadcast production apparatus 100 simultaneously displays the first image 450 and the second image 420 through the display unit 120 so that the broadcast producer can check the image to be provided to the viewer at a glance.

도 5는 본 발명의 일 실시예에 따라 시청자가 가상 현실 방송을 시청하는 화면을 도시한 것이다.FIG. 5 illustrates a screen for a viewer to view a virtual reality broadcast according to an embodiment of the present invention.

도 5를 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 방송 제작자가 제작한 제1 영상 (450) 및 제2 영상 (420) 을 표시한다. 구체적으로, 표시부 (320) 는 제1 영상 (450) 을 메인으로 표시하고 제1 영상 (450) 의 우측 하단에 작은 크기로 표시된다. 이 때, 가상 현실 방송 제공 장치 (300) 의 입력부 (330) 는 제1 영상 (450) 에 대한 시점 변동 신호를 수신할 수 있다. 구체적으로, 입력부 (330) 는 제1 영상 (450) 에 입력된 드래그 신호 (452) 를 수신할 수 있다. 예를 들어, 입력부 (330) 를 통해 오른쪽에서 왼쪽 방향으로 이동하는 드래그 신호 (452) 를 수신한 경우, 표시부 (320) 는 오른쪽으로 변경된 시점에 대응하는 제1 영상 (450) 을 표시한다. 또한, 입력부 (330) 를 통해 위쪽에서 아랫쪽 방향으로 이동하는 드래그 신호 (452) 를 수신한 경우, 표시부 (320) 는 윗쪽으로 변경된 시점에 대응하는 제1 영상 (450) 을 표시한다. 이 때, 제1 영상 (450) 에 대한 타임 라인은 가상 현실 방송 제공 장치 (300) 에 의해 변동될 수 없도록 구현될 수 있다. Referring to FIG. 5, the display unit 320 of the virtual reality broadcast providing apparatus 300 displays a first image 450 and a second image 420 produced by a broadcast producer. Specifically, the display unit 320 displays the first image 450 as a main display, and displays the first image 450 as a small size at the lower right of the first image 450. In this case, the input unit 330 of the virtual reality broadcast providing apparatus 300 can receive the viewpoint change signal for the first image 450. Specifically, the input unit 330 can receive the drag signal 452 input to the first image 450. For example, when receiving the drag signal 452 moving from right to left through the input unit 330, the display unit 320 displays the first image 450 corresponding to the point of time when the right is changed. In addition, when the drag signal 452 moving from the upper side to the lower side is received through the input unit 330, the display unit 320 displays the first image 450 corresponding to the changed time point. At this time, the time line for the first image 450 can be implemented so that it can not be changed by the virtual reality broadcast providing apparatus 300.

한편, 또 다른 실시예에서, 표시부 (320) 는 방송 제작자가 변동한 제1 영상 (450) 에 대한 시점 및 타임 라인이 적용된 제1 영상 (450) 을 표시할 수도 있다. 여기서, 프로세서 (310) 는 방송 제작자가 변동한 제1 영상 (450) 에 대한 시점 및 타임 라인을 동기화하여 표시부 (320) 에 제공할 수 있다.Meanwhile, in another embodiment, the display unit 320 may display the first image 450 to which the time producer and the time line are applied. Here, the processor 310 may synchronize the viewpoint and the time line of the first image 450, which is changed by the broadcast producer, and provide the same to the display unit 320.

도 5에서는 설명의 편의를 위해 가상 현실 방송 제공 장치 (300) 가 데스크탑인 것으로 도시되었으나, 이에 제한되지 않고, 터치 입력 장치를 포함한 스마트폰일 수도 있다. 따라서, 가상 현실 방송 제공 장치 (300) 가 스마트 폰인 경우, 터치 입력 장치를 통해 드래그 신호 (452) 를 입력받을 수 있다.In FIG. 5, the virtual reality broadcast providing apparatus 300 is shown as a desktop for convenience of explanation, but the present invention is not limited thereto, and it may be a smartphone including a touch input device. Accordingly, when the virtual reality broadcast providing apparatus 300 is a smart phone, the drag signal 452 can be input through the touch input device.

이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상 및 제1 영상에 대한 방송 제작자의 해설이나 코멘트에 대한 방송인 제2 영상을 동시에 제공할 수 있는 인터베이스를 제공함으로써, 시청자가 제1 영상 뿐만 아니라 제1 영상에 대한 설명을 습득할 수 있다. Accordingly, the virtual reality broadcast providing apparatus 300 provides an interface that can simultaneously provide the second image, which is a broadcast for commentary or comment of the broadcast producer on the first image and the first image, It is possible to acquire a description of the first image.

도 6a 내지 도 6b는 본 발명의 실시예에 따라 제1 영상의 시점에 대한 2차원 이미지 및 3차원 이미지를 제공하는 화면을 도시한 것이다.FIGS. 6A and 6B illustrate a screen for providing a two-dimensional image and a three-dimensional image with respect to a viewpoint of a first image according to an embodiment of the present invention.

도 6a를 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상에 대한 시점 구체적으로, 제1 영상에 대한 좌우 시점을 용이하게 변동할 수 있도록 제1 영상에 대한 시점에 대해 표현한 2차원 이미지를 표시한다. 입력부 (330) 를 통해 원 둘레에 포인트 (453)의 입력이 수신된 경우, 프로세서 (310) 는 포인트 (453) 의 입력으로부터 미리 결정된 거리까지의 시점을 제1 영상 (450) 에 적용한다. 따라서, 표시부 (320) 는 2차원 이미지를 통해 좌우로 변동된 시점을 적용한 제1 영상 (450) 을 표시한다. Referring to FIG. 6A, the display unit 320 of the virtual reality broadcast providing apparatus 300 may display the first image at a point in time with respect to the first image so that the right and left viewpoints of the first image can be easily changed. Dimensional image represented by the two-dimensional image. The processor 310 applies a point of view from the input of the point 453 to the first image 450 to a predetermined distance when the input of the point 453 is received around the circle through the input 330. [ Accordingly, the display unit 320 displays the first image 450 to which the time-varying viewpoint is applied through the two-dimensional image.

도 6b를 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상에 대한 시점 구체적으로, 제1 영상에 대한 상하좌우 시점을 용이하게 변동할 수 있도록 제1 영상에 대한 시점에 대해 표현한 3차원 이미지 (454) 를 표시한다. 입력부 (330) 를 통해 구면에 포인트 (453) 가 수신된 경우, 프로세서 (310) 는 포인트 (453) 로부터 미리 결정된 거리까지로 결정된 범위에 해당하는 시점을 제1 영상 (450) 에 적용한다. 예를 들어, 입력부 (330) 를 통해 포인트 (453) 가 구면의 윗쪽에서 수신된 경우, 프로세서 (310) 는 제1 영상에 대한 시점을 윗쪽으로 적용한다. 따라서, 표시부 (320) 는 3차원 이미지를 통해 변동된 상하좌우 시점을 적용한 제1 영상 (450) 을 표시한다.Referring to FIG. 6B, the display unit 320 of the virtual reality broadcast providing apparatus 300 displays a viewpoint of a first image, specifically, a viewpoint of a first image so that a viewpoint of a first image can be easily changed Dimensional image 454 represented by the three-dimensional image 454. When the point 453 is received on the spherical surface through the input unit 330, the processor 310 applies the point of time corresponding to the range determined from the point 453 to the predetermined distance to the first image 450. For example, if the point 453 is received above the spherical surface through the input 330, the processor 310 applies the viewpoint for the first image upward. Accordingly, the display unit 320 displays the first image 450 to which the up, down, left, and right viewpoints changed by the three-dimensional image are applied.

도 6a 및 도 6b에서는 설명의 편의를 위해 가상 현실 방송 제공 장치 (300) 가 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 통해 제1 영상에 대한 시점을 변동하는 것으로 도시되었으나, 이에 제한되지 않고, 가상 현실 방송 제작 장치 (100) 도 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 표시함으로써, 방송 제작자가 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 통해 제1 영상에 대한 시점을 변동할 수 있다. 가상 현실 방송 제작 장치 (100) 에 표시된 2차원 이미지 (452) 또는 3차원 이미지 (454) 를 통해 제1 영상에 대한 시점이 변동된 경우, 변동된 시점은 가상 현실 방송 제공 장치 (300) 에 표시되는 제1 영상에 적용된다. 6A and 6B, the virtual reality broadcast providing apparatus 300 is shown to change the viewpoint on the first image through the two-dimensional image 452 or the three-dimensional image 454. However, The virtual reality broadcast production apparatus 100 also displays the two-dimensional image 452 or the three-dimensional image 454 so that the broadcast producer can display the first image 452 or the third image 454 through the two- Can be changed. When the viewpoint of the first image is changed through the two-dimensional image 452 or the three-dimensional image 454 displayed on the virtual reality broadcast production apparatus 100, the changed viewpoint is displayed on the virtual reality broadcast providing apparatus 300 Is applied to the first image.

이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상에 대한 전체적인 시점을 한눈에 확인할 수 있으며,보다 입체적으로 표현한 2차원 이미지 또는 3차원 이미지를 제공하여, 제공한 2차원 이미지 또는 3차원 이미지를 통해 제1 영상에 적용된 시점을 정확하게 파악할 수 있고, 시점을 용이하게 변동할 수 있도록 한다.Accordingly, the virtual reality broadcast providing apparatus 300 can confirm the entire viewpoint of the first image at a glance, and provides a two-dimensional image or a three-dimensional image expressed in a more stereoscopic manner, It is possible to accurately grasp the time point applied to the first image and to easily change the viewpoint.

도 7은 본 발명의 실시예에 따라 제1 영상에 대응하는 지도 이미지를 제공하는 화면을 도시한 것이다.FIG. 7 illustrates a screen for providing a map image corresponding to a first image according to an embodiment of the present invention.

도 7을 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상에 대응하는 지도 이미지 (455) 를 제1 영상 (450) 과 함께 표시한다. 구체적으로, 표시부 (320) 는 가상 현실 촬영 장치 또는 연결된 스마트 폰에 포함된 위치 감지 센서로부터 수신한 제1 영상 (450) 이 촬영된 위치 정보 (456) 또는 시간에 따른 경로 이동 정보 (457) 가 나타나는 지도 이미지 (455) 를 표시한다. 예를 들어, 가상 현실 촬영 장치를 통해 광화문, 홍례문, 경복궁 및 자경전이 촬영된 경우, 표시부 (320) 는 광화문, 홍례문, 경복궁 및 자경전에 대한 위치 정보 (456) 가 나타나는 지도 이미지 (455) 를 표시한다. 또한, 표시부 (320) 는 광화문, 홍례문, 경복궁 및 자경전을 촬영하면서 지나간 경로 즉, 시간에 따른 경로 이동 정보 (457) 가 나타나는 지도 이미지 (455) 를 표시한다. 더 나아가, 표시부 (320) 는 지도 이미지 (455) 에 제1 영상 (450) 이 촬영된 위치 정보 (456) 또는 경로 이동 정보 (457) 에 대응하는 타임 라인 정보 (458) 을 표시한다. 예를 들어, 표시부 (320) 는 경복궁 (456) 이 촬영된 제1 영상 (450) 의 시간을 지도 이미지 (455) 에 표시할 수 있다. 또한, 표시부 (320) 는 현재 표시되는 제1 영상 (450) 의 타임 라인에 대응하는 위치 정보 (459) 도 표시할 수 있다. Referring to FIG. 7, the display unit 320 of the virtual reality broadcast providing apparatus 300 displays a map image 455 corresponding to the first image together with the first image 450. Specifically, the display unit 320 displays location information 456 on which the first image 450 received from the position sensor included in the virtual reality photographing apparatus or the connected smart phone is photographed, or path movement information 457 according to time And displays the map image 455 appearing. For example, when a virtual reality photographing device is used to photograph Gwanghwamun, Hongryeomun, Gyeongbokgung, and Gyeongjeonjeon, the display unit 320 displays a map image 455 in which location information 456 for Gwanghwamun, Hongryeomun, . In addition, the display unit 320 displays a map image 455 in which the past travel path information 457 is displayed while photographing the Gwanghwamun, Hongryeomun, Gyeongbokgung Palace, The display unit 320 displays the time information 458 corresponding to the position information 456 or the path movement information 457 in which the first image 450 is photographed in the map image 455. Further, For example, the display unit 320 may display the time of the first image 450 captured by Kyng-bokkung 456 on the map image 455. In addition, the display unit 320 may display the position information 459 corresponding to the time line of the first image 450 currently displayed.

이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상이 촬영된 위치 정보 및 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 제공함으로써, 외부 이동 방송, 여행 방송인 경우, 시청자가 제1 영상에 촬영된 장소에 대한 위치 정보 및 경로 이동 정보를 습득할 수 있도록 한다.Accordingly, the virtual reality broadcast providing apparatus 300 provides the map image in which the first image is photographed and the path movement information according to the time, so that in the case of an external mobile broadcast or a travel broadcast, And acquire positional information and path movement information on the location where the robot is located.

도 8은 본 발명의 실시예에 따라 추가 객체 데이터가 포함된 제1 영상에 대한 화면을 도시한 것이다.FIG. 8 illustrates a screen for a first image including additional object data according to an embodiment of the present invention.

도 8을 참조하면, 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 제1 영상 (450) 에 적용된 추가 객체 데이터 (461) 를 표시한다. 구체적으로, 방송 제작자가 제1 영상 (450) 에 적용할 추가 객체 이미지, 애니메이션, 추가 객체 이미지에 부여된 점수에 대해 입력하는 경우, 표시부 (320) 는 입력된 요소에 따른 추가 객체 데이터 (461) 를 표시한다. 따라서, 입력부 (330) 를 통해 추가 객체 데이터 (461) 에 대한 선택을 수신하는 경우, 프로세서 (310) 는 시청자에게 미리 결정된 점수를 부여한다.Referring to FIG. 8, the display unit 320 of the virtual reality broadcast providing apparatus 300 displays additional object data 461 applied to the first image 450. Specifically, when the broadcast producer inputs the additional object image, the animation, and the score given to the additional object image to be applied to the first image 450, the display unit 320 displays the additional object data 461 according to the input element, . Thus, when receiving a selection for additional object data 461 via the input 330, the processor 310 gives the viewer a predetermined score.

이에 따라, 가상 현실 방송 제공 장치 (300) 는 제1 영상에 추가 객체 데이터를 표시함으로써, 시청자에게 보다 적극적인 영상 시청을 유도할 수 있다.Accordingly, the virtual reality broadcast providing apparatus 300 can display the additional object data in the first video, thereby inducing the viewer to watch the video more aggressively.

도 9a 내지 도 9b는 본 발명의 실시예에 따라 스마트 폰을 장착할 수 있는 안경 형태의 프레임 장치에서의 제1 영상 화면을 도시한 것이다.9A and 9B illustrate a first image screen in a spectacle-type frame device capable of mounting a smartphone according to an embodiment of the present invention.

도 9a를 참조하면, 안경 형태의 프레임 장치에서 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 스테레오 스코픽 방식에 따라 동일한 제1 영상을 제1 영역 (321) 및 제2 영역 (322) 에 표시한다. 구체적으로, 표시부 (320) 는 두 개의 제1 영상을 각각 좌안 및 우안에 대응하는 제1 영역 (321) 및 제2 영역 (322) 에 표시한다. 제1 영역 (321) 및 제2 영역 (322) 에 각각 제1 영상을 표시함으로써, 시청자는 제1 영상에 대한 입체감을 느낄 수 있다.9A, the display unit 320 of the virtual reality broadcast providing apparatus 300 in the eyeglass-type frame apparatus displays the same first image in the first region 321 and the second region 322 according to the stereoscopic scheme Display. Specifically, the display unit 320 displays the two first images in the first area 321 and the second area 322 corresponding to the left and right eyes, respectively. By displaying the first image in the first area 321 and the second area 322 respectively, the viewer can feel the stereoscopic effect on the first image.

도 9b를 참조하면, 안경 형태의 프레임 장치에서 가상 현실 방송 제공 장치 (300) 의 표시부 (320) 는 센서 (340) 로부터 수신한 각도 정보를 적용한 제1 영상을 표시한다. 예를 들어, 센서 (340) 로부터 윗쪽을 향하는 각도 정보를 수신한 경우, 표시부 (320) 는 제1 영상의 시점을 윗쪽으로 변동하여 표시한다. 또한, 센서 (340) 로부터 오른쪽을 향하는 각도 정보를 수신한 경우, 표시부 (320) 는 제1 영상의 시점을 오른쪽으로 변동하여 표시한다. 마찬가지로, 센서 (340) 로부터 아래로 향하는 각도 정보를 수신한 경우, 표시부 (320) 는 제1 영상의 시점을 아래로 변동하여 표시한다. 이 때, 제2 영상은 표시되지 않으나 제2 영상에 대한 음성 (421) 은 출력된다. 제1 영상의 변동되는 시점은 센서 (340) 로부터 수신한 각도 정보를 기초로 미리 결정된 계산식에 따라 결정된다. Referring to FIG. 9B, in a spectacle-type frame device, the display unit 320 of the virtual reality broadcast providing apparatus 300 displays a first image to which angle information received from the sensor 340 is applied. For example, when angle information on the upward direction is received from the sensor 340, the display unit 320 displays the first viewpoint of the first image in an upward direction. In addition, when angle information directed to the right from the sensor 340 is received, the display unit 320 displays the first viewpoint of the video image to the right. Likewise, when angle information directed downward from the sensor 340 is received, the display unit 320 displays the first viewpoint of the video image downwardly. At this time, the second image is not displayed, but the voice 421 for the second image is outputted. The changed time point of the first image is determined according to a predetermined calculation formula based on the angle information received from the sensor 340. [

이에 따라, 안경 형태의 프레임 장치에서 가상 현실 방송 제공 장치 (300) 는 제2 영상은 제1 영상과 함께 표시되지 않지만, 제2 영상에 대한 음성을 시청자에게 제공함으로써, 시청자가 제1 영상을 시청할 때 제1 영상에 대한 설명을 인식할 수 있다.Accordingly, in the eyeglass-type frame apparatus, the virtual reality broadcast providing apparatus 300 does not display the second video together with the first video, but provides the viewer with the audio of the second video so that the viewer can watch the first video The description of the first image can be recognized.

본 명세서에서, 각 블록 또는 각 단계는 특정된 논리적 기능 (들) 을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In this specification, each block or each step may represent a part of a module, segment or code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈 또는 그 2 개의 결합으로 직접 구현될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM 또는 당업계에 알려진 임의의 다른 형태의 저장 매체에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로 (ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by a processor, or in a combination of the two. The software module may reside in a RAM memory, a flash memory, a ROM memory, an EPROM memory, an EEPROM memory, a register, a hard disk, a removable disk, a CD-ROM or any other form of storage medium known in the art. An exemplary storage medium is coupled to the processor, which is capable of reading information from, and writing information to, the storage medium. Alternatively, the storage medium may be integral with the processor. The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in detail with reference to the accompanying drawings, it is to be understood that the present invention is not limited to those embodiments and various changes and modifications may be made without departing from the scope of the present invention. . Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 가상 현실 방송 제작 장치
110, 310: 프로세서
120, 320: 표시부
130, 330: 입력부
200: 영상 관리 서버
300: 가상 현실 방송 시청 장치
321: 제1 영역
322: 제2 영역
340: 센서
410: 방송 시작 버튼
420: 제2 영상
430: 녹화 시작 버튼
440: VR 버튼
450: 제1 영상
451: 2차원 이미지
452: 드래그 신호
453: 포인트
454: 3차원 이미지
455: 지도 이미지
456: 위치 정보
457: 경로 이동 정보
458: 타임 라인 정보
459: 타임 라인에 대응하는 위치 정보
461: 추가 객체 데이터
1000: 가상 현실 방송 제공 시스템
100: Virtual reality broadcast production device
110, 310: Processor
120, 320:
130, 330:
200: video management server
300: Virtual reality broadcast viewing device
321: First area
322: second region
340: sensor
410: Broadcast start button
420: Second image
430: Start recording button
440: VR button
450: First image
451: Two-dimensional image
452: Drag signal
453: Points
454: Three-dimensional image
455: Map image
456: Location information
457: Path movement information
458: Timeline information
459: Location information corresponding to timeline
461: Additional object data
1000: Virtual Reality Broadcasting System

Claims (18)

표시부를 포함하는 디바이스에 가상 현실 방송을 제공하는 방법으로서,
영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 상기 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계;
상기 요청에 응답하여 상기 제1 영상을 표시하는 제1 영상창 및 상기 제2 영상을 표시하는 제2 영상창을 상기 표시부를 통해 동시에 제공하는 단계; 및
상기 가상 현실 촬영 장치에 포함된 위치 감지 센서로부터 수신한 상기 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 상기 표시부를 통해 제공하는 단계를 포함하는, 가상 현실 방송을 제공하는 방법.
A method of providing a virtual reality broadcast to a device including a display unit,
Requesting a video management server to stream a first video shot from a virtual reality shooting device and a second video shot from an imaging device other than the virtual reality shooting device;
Providing a first image window displaying the first image and a second image window displaying the second image simultaneously in response to the request; And
And providing a map image through which the first image received from the position sensor included in the virtual reality photographing apparatus is photographed or in which a path movement information according to time is displayed through the display unit, How to provide.
제1항에 있어서,
상기 제1 영상 및 상기 제2 영상에 대한 스트리밍을 요청하는 단계는,
상기 제2 영상이 제공되는 상태에서 상기 제1 영상에 대한 출력 요청에 따라 상기 제1 영상의 제공을 요청하는 단계인, 가상 현실 방송을 제공하는 방법.
The method according to claim 1,
Wherein the step of requesting streaming for the first video and the second video comprises:
And requesting to provide the first image according to an output request for the first image in a state where the second image is provided.
제1항에 있어서,
상기 제1 영상창 및 상기 제2 영상창을 동시에 제공하는 단계는,
상기 제1 영상창에 상기 제2 영상창을 추가하는 동시에 상기 제2 영상창의 크기를 변동시키는 단계인, 가상 현실 방송을 제공하는 방법.
The method according to claim 1,
Wherein the step of simultaneously providing the first image window and the second image window comprises:
And adding the second image window to the first image window and varying the size of the second image window.
제1항에 있어서,
상기 제1 영상에 대한 시점 변동 신호를 수신하는 단계; 및
상기 시점 변동 신호에 대응하여 변동된 시점으로 상기 제1 영상을 상기 제1 영상창에 표시하는 단계를 포함하는, 가상 현실 방송을 제공하는 방법.
The method according to claim 1,
Receiving a viewpoint change signal for the first image; And
And displaying the first image on the first image window at a time point corresponding to the viewpoint change signal.
제4항에 있어서,
상기 시점 변동 신호를 수신하는 단계는,
상기 제1 영상창에서 터치 입력 장치 또는 포인팅 입력 장치를 통해 드래그 신호를 수신하는 단계인, 가상 현실 방송을 제공하는 방법.
5. The method of claim 4,
Wherein the step of receiving the view-
And receiving a drag signal through the touch input device or the pointing input device in the first image window.
제4항에 있어서,
상기 시점 변동 신호를 수신하는 단계는,
센서로부터 상기 디바이스의 각도 정보를 수신하는 단계인, 가상 현실 방송을 제공하는 방법.
5. The method of claim 4,
Wherein the step of receiving the view-
And receiving angle information of the device from a sensor.
제4항에 있어서,
상기 제1 영상에 대한 시점을 2차원 이미지 또는 3차원 이미지로 상기 제1 영상창 내에 또는 별도로 제공하는 단계를 더 포함하고,
상기 시점 변동 신호를 수신하는 단계는,
상기 2차원 이미지 또는 상기 3차원 이미지에서 변동할 시점에 대응하는 입력을 수신하는 단계인, 가상 현실 방송을 제공하는 방법.
5. The method of claim 4,
Further comprising providing a viewpoint for the first image in the first image window or separately as a two-dimensional image or a three-dimensional image,
Wherein the step of receiving the view-
And receiving an input corresponding to a point of time to change in the two-dimensional image or the three-dimensional image.
표시부를 포함하는 디바이스에 가상 현실 방송을 제공하는 방법으로서,
영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 상기 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 단계;
상기 요청에 응답하여 상기 제1 영상을 표시하는 제1 영상창 및 상기 제2 영상을 표시하는 제2 영상창을 상기 표시부를 통해 동시에 제공하는 단계;
상기 제1 영상에 대한 타임 라인 변동 신호를 수신하는 단계; 및
상기 타임 라인 변동 신호에 대응하여 변동된 시간에서의 상기 제1 영상을 상기 제1 영상창에 표시하는 단계를 포함하는, 가상 현실 방송을 제공하는 방법.
A method of providing a virtual reality broadcast to a device including a display unit,
Requesting a video management server to stream a first video shot from a virtual reality shooting device and a second video shot from an imaging device other than the virtual reality shooting device;
Providing a first image window displaying the first image and a second image window displaying the second image simultaneously in response to the request;
Receiving a timeline variation signal for the first image; And
And displaying the first video in the first video window at a time varying in time corresponding to the timeline variation signal.
삭제delete 제1항에 있어서,
상기 지도 이미지에 상기 위치 정보 또는 상기 경로 이동 정보에 대응하는 타임 라인 정보를 표시하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.
The method according to claim 1,
And displaying timeline information corresponding to the location information or the path movement information in the map image.
제1항에 있어서,
상기 제1 영상에 대한 추가 객체 데이터를 수신하는 단계; 및
상기 추가 객체 데이터를 상기 제1 영상에 적용하여 제공하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.
The method according to claim 1,
Receiving additional object data for the first image; And
And applying the additional object data to the first image to provide the additional object data.
제11항에 있어서,
상기 추가 객체 데이터는 상기 제1 영상 내의 위치 정보를 포함하는, 가상 현실 방송을 제공하는 방법.
12. The method of claim 11,
Wherein the additional object data comprises location information in the first video.
제1항에 있어서,
상기 디바이스는 모바일 디바이스이고,
상기 제1 영상을 요청에 따라 스테레오 스코픽 방식으로 표시하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.
The method according to claim 1,
Wherein the device is a mobile device,
And displaying the first image in a stereoscopic manner upon request. ≪ Desc / Clms Page number 21 >
제13항에 있어서,
상기 제1 영상을 상기 스테레오 스코픽 방식으로 표시하는 단계는,
상기 제2 영상에 대한 음성만을 제공하는 단계를 더 포함하는, 가상 현실 방송을 제공하는 방법.
14. The method of claim 13,
Wherein the step of displaying the first image in the stereoscopic manner comprises:
Further comprising providing only audio for the second video. ≪ Desc / Clms Page number 21 >
영상 관리 서버에 가상 현실 촬영 장치로부터 촬영된 제1 영상 및 상기 가상 현실 촬영 장치가 아닌 촬영 장치로부터 촬영된 제2 영상에 대한 스트리밍을 요청하는 프로세서; 및
상기 프로세서를 통해 상기 요청에 응답하여 상기 제1 영상을 표시하는 제1 영상창 및 상기 제2 영상을 표시하는 제2 영상창을 제공하는 표시부를 포함하고,
상기 표시부는 상기 가상 현실 촬영 장치에 포함된 위치 감지 센서로부터 수신한 상기 제1 영상이 촬영된 위치 정보 또는 시간에 따른 경로 이동 정보가 나타나는 지도 이미지를 더 표시하는, 가상 현실 방송을 제공하는 장치.
A processor for requesting a video management server to stream a first image photographed from the virtual reality photographing apparatus and a second image photographed from the photographing apparatus, not the virtual reality photographing apparatus; And
And a display unit for providing a first image window for displaying the first image and a second image window for displaying the second image in response to the request through the processor,
Wherein the display unit further displays a map image in which the first image received from the position sensor included in the virtual reality photographing apparatus is photographed or path movement information according to time is displayed.
제15항에 있어서,
상기 제1 영상에 대한 시점 변동 신호를 수신하는 입력부를 포함하고,
상기 표시부는,
상기 시점 변동 신호에 대응하여 변동된 시점으로 상기 제1 영상을 상기 제1 영상창에 표시하는, 가상 현실 방송을 제공하는 장치.
16. The method of claim 15,
And an input unit for receiving a viewpoint change signal for the first image,
The display unit includes:
Wherein the first image is displayed on the first image window at a time point corresponding to the viewpoint change signal.
제16항에 있어서,
상기 입력부는,
상기 제1 영상창에서 드래그 신호를 수신하는, 가상 현실 방송을 제공하는 장치.
17. The method of claim 16,
Wherein the input unit comprises:
And receiving a drag signal in the first image window.
제16항에 있어서,
상기 가상 현실 방송을 제공하는 장치의 각도 정보를 감지하는 센서를 포함하는, 가상 현실 방송을 제공하는 장치.
17. The method of claim 16,
And a sensor for sensing angle information of a device providing the virtual reality broadcast.
KR1020160127396A 2016-10-04 2016-10-04 Method and apparatus for providing virtual reality broadcast Active KR101923640B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160127396A KR101923640B1 (en) 2016-10-04 2016-10-04 Method and apparatus for providing virtual reality broadcast

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160127396A KR101923640B1 (en) 2016-10-04 2016-10-04 Method and apparatus for providing virtual reality broadcast

Publications (2)

Publication Number Publication Date
KR20180037366A KR20180037366A (en) 2018-04-12
KR101923640B1 true KR101923640B1 (en) 2018-11-29

Family

ID=61969396

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160127396A Active KR101923640B1 (en) 2016-10-04 2016-10-04 Method and apparatus for providing virtual reality broadcast

Country Status (1)

Country Link
KR (1) KR101923640B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520317A (en) 2011-06-01 2014-08-21 コーニンクレッカ フィリップス エヌ ヴェ Timeline display tool

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101222134B1 (en) * 2010-12-29 2013-01-15 전자부품연구원 system for controlling a point of view in virtual reality and method for controlling a point of view using the same
KR102275685B1 (en) * 2015-01-29 2021-07-12 한국전자통신연구원 Contents offer method and the method perfoming contents offer server, commentator apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520317A (en) 2011-06-01 2014-08-21 コーニンクレッカ フィリップス エヌ ヴェ Timeline display tool

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
블로그: 아프리카 TV, http://www.kbench.com/?q=node/162105, (2016.04.16.)

Also Published As

Publication number Publication date
KR20180037366A (en) 2018-04-12

Similar Documents

Publication Publication Date Title
US11024083B2 (en) Server, user terminal device, and control method therefor
US20200120386A1 (en) Information processing apparatus and method, display control apparatus and method, reproducing apparatus and method, and information processing system
US9686466B1 (en) Systems and methods for environment content sharing
CN109407821B (en) Collaborative interaction with virtual reality video
CN107636534A (en) General sphere catching method
WO2010008518A1 (en) Image capture and display configuration
US20210058611A1 (en) Multiviewing virtual reality user interface
CN104243961A (en) Display system and method of multi-view image
US20230405475A1 (en) Shooting method, apparatus, device and medium based on virtual reality space
CN111352239A (en) Augmented reality display device and interaction method applying same
KR20180051202A (en) Display apparatus and control method thereof
CN111630848B (en) Image processing device, image processing method, program and projection system
WO2019072861A1 (en) Selection of animated viewing angle in an immersive virtual environment
US20240331317A1 (en) Information processing device, information processing system and method
US20220036075A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
KR101923640B1 (en) Method and apparatus for providing virtual reality broadcast
KR101919428B1 (en) Method and apparatus for providing virtual reality broadcast video
GB2565628A (en) Collaborative interaction with virtual reality video
CN116193246A (en) Prompt method and device for shooting video, electronic equipment and storage medium
CN121126063A (en) Display control methods, devices, equipment, media and products
CN120568152A (en) Method, device, equipment, storage medium and product for editing stereoscopic video by one key
CN117459745A (en) Information interaction methods, devices, electronic equipment and storage media
CN118689363A (en) Method, device, electronic device and storage medium for displaying 3D images
CN117641040A (en) Video processing methods, devices, electronic equipment and storage media
TWM520772U (en) Panoramic image recording and dummy viewing system

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 8