[go: up one dir, main page]

JP6921204B2 - Information processing device and image output method - Google Patents

Information processing device and image output method Download PDF

Info

Publication number
JP6921204B2
JP6921204B2 JP2019537504A JP2019537504A JP6921204B2 JP 6921204 B2 JP6921204 B2 JP 6921204B2 JP 2019537504 A JP2019537504 A JP 2019537504A JP 2019537504 A JP2019537504 A JP 2019537504A JP 6921204 B2 JP6921204 B2 JP 6921204B2
Authority
JP
Japan
Prior art keywords
image
display
information
reduced
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019537504A
Other languages
Japanese (ja)
Other versions
JPWO2019038885A1 (en
Inventor
晋平 山口
晋平 山口
篠原 隆之
隆之 篠原
智 又吉
智 又吉
森貞 英彦
英彦 森貞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019038885A1 publication Critical patent/JPWO2019038885A1/en
Application granted granted Critical
Publication of JP6921204B2 publication Critical patent/JP6921204B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、カメラで撮影した画像を出力する技術に関する。 The present invention relates to a technique for outputting an image taken by a camera.

ヘッドマウントディスプレイ(HMD)はユーザの視野全体に画像を提供し、ユーザの映像世界への没入感を高める。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢や位置と連動して3次元空間の画像を提供することで、映像世界への没入感をさらに高められるようになる。 A head-mounted display (HMD) provides an image over the entire field of view of the user, enhancing the user's immersive feeling in the visual world. By providing the HMD with a head tracking function and providing an image of the three-dimensional space in conjunction with the posture and position of the user's head, the immersive feeling in the video world can be further enhanced.

たとえばコンサート会場を撮影したカメラ映像をHMDにライブ配信することで、会場にいるかのような臨場感をユーザに与えられることが期待される。コンサート会場に複数のカメラが設置されている場合、ユーザは、視聴したいカメラ映像を自由に選択できることが好ましい。なおHMDを利用する場合に限らず、テレビなどの出力装置にカメラ映像をライブ配信する場合であっても、ユーザがカメラ映像を自由に選択できるように、選択肢を効果的にユーザに提示するユーザインタフェースが提供されることが好ましい。 For example, it is expected that the user can be given a sense of realism as if he / she is at the venue by live-streaming the camera image of the concert hall to the HMD. When a plurality of cameras are installed in a concert hall, it is preferable that the user can freely select the camera image to be viewed. Not only when using HMD, but also when live-streaming camera images to an output device such as a television, a user who effectively presents options to the user so that the user can freely select the camera image. It is preferred that an interface be provided.

本発明はこうした課題に鑑みてなされたものであり、その目的は、複数のカメラで撮影した撮影画像の選択肢を効果的にユーザに提示する技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for effectively presenting a user with options of captured images taken by a plurality of cameras.

上記課題を解決するために、本発明のある態様の情報処理装置は、ユーザ操作を受け付ける受付部と、受付部が受け付けたユーザ操作にもとづいて、複数のカメラで撮影した撮影画像をそれぞれ縮小した複数の縮小画像を取得する画像取得部と、複数の縮小画像のそれぞれを、撮影したカメラの位置に対応する位置に配置した表示画像を出力する表示制御部と、を備える。 In order to solve the above problems, the information processing apparatus according to the present invention reduces the captured images taken by a plurality of cameras based on the reception unit that accepts the user operation and the user operation received by the reception unit. It includes an image acquisition unit that acquires a plurality of reduced images, and a display control unit that outputs a display image in which each of the plurality of reduced images is arranged at a position corresponding to the position of the captured camera.

本発明の別の態様は、画像出力方法であって、ユーザ操作を受け付けるステップと、ユーザ操作にもとづいて、複数のカメラで撮影した撮影画像をそれぞれ縮小した複数の縮小画像を取得するステップと、複数の縮小画像のそれぞれを、撮影したカメラの位置に対応する位置に配置した表示画像を出力するステップとを有する。 Another aspect of the present invention is an image output method, which comprises a step of accepting a user operation and a step of acquiring a plurality of reduced images obtained by reducing each of the captured images taken by a plurality of cameras based on the user operation. Each of the plurality of reduced images has a step of outputting a display image arranged at a position corresponding to the position of the captured camera.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components, the expression of the present invention converted between a method, a device, a system, a computer program, a recording medium in which a computer program is readable, a data structure, and the like are also used in the present invention. It is effective as an aspect of.

本発明によれば、複数のカメラで撮影した撮影画像の選択肢をユーザに提示する技術を提供できる。 According to the present invention, it is possible to provide a technique for presenting a user with options for captured images taken by a plurality of cameras.

実施例における情報処理システムの構成例を示す図である。It is a figure which shows the configuration example of the information processing system in an Example. HMDの外観形状の例を示す図である。It is a figure which shows the example of the appearance shape of an HMD. HMDの機能ブロックを示す図である。It is a figure which shows the functional block of HMD. 情報処理装置の機能ブロックを示す図である。It is a figure which shows the functional block of an information processing apparatus. HMDに表示されるライブ映像の一例を示す図である。It is a figure which shows an example of the live image displayed on the HMD. 表示する撮影画像をユーザが決定するためのユーザインタフェースを示す図である。It is a figure which shows the user interface for the user to determine the photographed image to be displayed. 縮小画像の選択が変更された状態を示す図である。It is a figure which shows the state which the selection of the reduced image is changed. ユーザインタフェースを拡大表示した例を示す図である。It is a figure which shows the example which enlarged-displayed the user interface.

図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は、情報処理装置10と、ヘッドマウントディスプレイ(HMD)100と、ユーザが手指で操作する入力装置16と、HMD100を装着したユーザを撮影する撮像装置14と、画像を表示する出力装置15とを備える。出力装置15はテレビであってよい。情報処理装置10は、アクセスポイント(AP)17を介して、インターネットなどの外部のネットワーク2に接続される。AP17は無線アクセスポイントおよびルータの機能を有し、情報処理装置10はAP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。 FIG. 1 shows a configuration example of the information processing system 1 in the embodiment. The information processing system 1 includes an information processing device 10, a head-mounted display (HMD) 100, an input device 16 operated by a user with fingers, an imaging device 14 for photographing a user wearing the HMD 100, and an output for displaying an image. The device 15 is provided. The output device 15 may be a television. The information processing device 10 is connected to an external network 2 such as the Internet via an access point (AP) 17. The AP 17 has the functions of a wireless access point and a router, and the information processing device 10 may be connected to the AP 17 by a cable or by a known wireless communication protocol.

情報処理装置10は、ネットワーク2経由で、配信サーバ18と接続する。配信サーバ18は、コンサートホールやサッカー場などのイベント会場で、複数のカメラで撮影した撮影画像をライブ中継するストリーミング配信装置である。実施例においてイベント会場では、6台のカメラA〜Fがそれぞれ異なる位置で、ステージに向けられて設置されている。 The information processing device 10 connects to the distribution server 18 via the network 2. The distribution server 18 is a streaming distribution device that lively relays captured images taken by a plurality of cameras at an event venue such as a concert hall or a soccer field. In the example, at the event venue, six cameras A to F are installed at different positions toward the stage.

このイベント会場は、2階席のあるコンサートホールであってよい。ここでカメラBは、ステージ正面近くの客席に配置されており、カメラA、Cは、ステージの両脇に配置されている。またカメラD〜Fは、会場の2階席にそれぞれ配置され、ステージに向かってカメラDは2階席の左側、カメラEは2階席の中央、カメラFは2階席の右側にそれぞれ配置されている。各カメラの撮影形式はライブ中継の演出用途に応じて異なってよく、カメラA、C、Eは魚眼カメラ、カメラB、D、Fは通常のカメラであってよい。なお各カメラの撮影方向は固定されていてもよいが、特定の対象者の動きに合わせて動かされてもよい。 This event venue may be a concert hall with upstairs seats. Here, the cameras B are arranged in the audience seats near the front of the stage, and the cameras A and C are arranged on both sides of the stage. Cameras D to F are placed on the second floor seats of the venue, camera D is placed on the left side of the second floor seats, camera E is placed in the center of the second floor seats, and camera F is placed on the right side of the second floor seats when facing the stage. Has been done. The shooting format of each camera may be different depending on the production application of the live broadcast, and the cameras A, C, and E may be fisheye cameras, and the cameras B, D, and F may be ordinary cameras. The shooting direction of each camera may be fixed, but it may be moved according to the movement of a specific target person.

HMD100はユーザの頭部に装着されて映像世界をユーザに提供する。実施例でHMD100は、配信サーバ18から提供されるカメラ映像をユーザに提供する。HMD100にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画像を更新することで、イベント会場の臨場感を与えられるようになる。実施例でユーザは頭部の姿勢や位置を動かすことで、所望の視線方向、視点位置で、ライブ映像を見ることができる。 The HMD 100 is worn on the user's head to provide the user with a video world. In the embodiment, the HMD 100 provides the user with a camera image provided by the distribution server 18. By providing the HMD 100 with a head tracking function and updating the displayed image in conjunction with the movement of the user's head, the presence of the event venue can be given. In the embodiment, the user can view the live image in a desired line-of-sight direction and viewpoint position by moving the posture and position of the head.

情報処理装置10は、処理装置11、出力制御装置12および記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、配信サーバ18から配信されるカメラ映像をHMD100に提供する端末装置である。処理装置11と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。なお実施例の処理装置11は、HMD100の位置情報および姿勢情報を、視線位置および視線方向を変更するためのユーザの操作情報として受け付けて、HMD100に表示する画像を更新する機能をもつ。出力制御装置12は、処理装置11で生成された画像データをHMD100に出力する処理ユニットであり、出力制御装置12とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。 The information processing device 10 includes a processing device 11, an output control device 12, and a storage device 13. The processing device 11 is a terminal device that receives the operation information input to the input device 16 by the user and provides the camera image distributed from the distribution server 18 to the HMD 100. The processing device 11 and the input device 16 may be connected by a cable, or may be connected by a known wireless communication protocol. The processing device 11 of the embodiment has a function of accepting the position information and the posture information of the HMD 100 as the user's operation information for changing the line-of-sight position and the line-of-sight direction, and updating the image displayed on the HMD 100. The output control device 12 is a processing unit that outputs the image data generated by the processing device 11 to the HMD 100, and the output control device 12 and the HMD 100 may be connected by a cable or by a known wireless communication protocol. May be good.

撮像装置14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置11はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。 The image pickup device 14 is a stereo camera, which takes a picture of a user wearing the HMD 100 at a predetermined cycle and supplies the shot image to the processing device 11. As will be described later, the HMD 100 is provided with a marker (tracking LED) for tracking the user's head, and the processing device 11 detects the movement of the HMD 100 based on the position of the marker included in the captured image. The HMD 100 is equipped with an attitude sensor (accelerometer and gyro sensor), and the processing device 11 acquires the sensor data detected by the attitude sensor from the HMD 100, so that the image taken by the marker can be used and the accuracy is high. Tracking process is performed. Various methods have been conventionally proposed for the tracking process, and any tracking method may be adopted as long as the processing device 11 can detect the movement of the HMD 100.

ユーザはHMD100で画像を見るため、HMD100を装着したユーザにとって出力装置15は必ずしも必要ではないが、出力装置15を用意することで、別のユーザが出力装置15の表示画像を見ることができる。出力制御装置12または処理装置11は、HMD100を装着したユーザが見ている画像と同じ画像を出力装置15に表示させてよい。 Since the user views the image on the HMD 100, the output device 15 is not always necessary for the user wearing the HMD 100, but by preparing the output device 15, another user can view the display image of the output device 15. The output control device 12 or the processing device 11 may display the same image as the image viewed by the user wearing the HMD 100 on the output device 15.

HMD100は、ユーザが頭部に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。 The HMD 100 is a display device that displays an image on a display panel located in front of the user when the user wears it on the head. The HMD 100 separately displays an image for the left eye on the display panel for the left eye and an image for the right eye on the display panel for the right eye. These images constitute parallax images viewed from the left and right viewpoints, and realize stereoscopic vision. Since the user sees the display panel through the optical lens, the information processing device 10 supplies the parallax image data corrected for the optical distortion caused by the lens to the HMD 100. The optical distortion correction process may be performed by either the processing device 11 or the output control device 12.

出力制御装置12による機能は、処理装置11に組み込まれてよい。情報処理装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下、画像をHMD100に提供する機能を、まとめて情報処理装置10の機能として説明する。 The function of the output control device 12 may be incorporated in the processing device 11. The processing unit of the information processing device 10 may be composed of one processing device 11 or may be composed of the processing device 11 and the output control device 12. Hereinafter, the functions of providing images to the HMD 100 will be collectively described as the functions of the information processing apparatus 10.

情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標(緯度、経度)であってよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾きである。なお基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。 The information processing device 10 detects the position coordinates and the posture of the user's head (actually, HMD100) by performing the user's head tracking process. Here, the position coordinates of the HMD 100 are position coordinates in a three-dimensional space with the reference position as the origin, and the reference position may be the position coordinates (latitude, longitude) when the power of the HMD 100 is turned on. The posture of the HMD 100 is an inclination in the three-axis direction with respect to the reference posture in the three-dimensional space. The reference posture is a posture in which the line-of-sight direction of the user is horizontal, and the reference posture may be set when the power of the HMD 100 is turned on.

情報処理装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標および姿勢を検出でき、さらに撮像装置14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。 The information processing device 10 can detect the position coordinates and the posture of the HMD 100 only from the sensor data detected by the posture sensor of the HMD 100, and further, by image-analyzing the marker (tracking LED) of the HMD 100 taken by the image pickup device 14. The position coordinates and orientation of the HMD 100 can be detected with high accuracy.

図2は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。 FIG. 2 shows an example of the appearance shape of the HMD 100. The HMD 100 is composed of an output mechanism unit 102 and a mounting mechanism unit 104. The mounting mechanism unit 104 includes a mounting band 106 that goes around the head and fixes the HMD 100 to the head when the user wears it. The wearing band 106 has a material or structure whose length can be adjusted according to the user's head circumference.

出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよく、外付けのヘッドホンが接続されるように構成されてもよい。 The output mechanism 102 includes a housing 108 having a shape that covers the left and right eyes when the HMD 100 is worn by the user, and internally includes a display panel that faces the eyes when worn. The display panel may be a liquid crystal panel, an organic EL panel, or the like. Inside the housing 108, a pair of left and right optical lenses, which are located between the display panel and the user's eyes and expand the viewing angle of the user, are further provided. The HMD 100 may further include a speaker or earphone at a position corresponding to the user's ear, and may be configured to be connected to external headphones.

筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢や位置を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。 Light emitting markers 110a, 110b, 110c, 110d are provided on the outer surface of the housing 108. In this example, the tracking LED constitutes the light emitting marker 110, but it may be another type of marker, and in any case, it is photographed by the imaging device 14 and the information processing device 10 can perform image analysis of the marker position. All you need is. The number and arrangement of the light emitting markers 110 are not particularly limited, but the number and arrangement must be such that the posture and position of the HMD 100 can be detected. In the illustrated example, the light emitting markers 110 are provided at the four corners on the front surface of the housing 108. Further, the light emitting marker 110 may be provided on the side portion or the rear portion of the mounting band 106 so that the user can take a picture even when the user turns his / her back to the imaging device 14.

HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータを情報処理装置10に送信し、また情報処理装置10から出力された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。 The HMD 100 may be connected to the information processing apparatus 10 with a cable or may be connected with a known wireless communication protocol. The HMD 100 transmits the sensor data detected by the posture sensor to the information processing device 10, receives the image data output from the information processing device 10, and displays the image data on the left-eye display panel and the right-eye display panel.

図3は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。 FIG. 3 shows a functional block of the HMD 100. The control unit 120 is a main processor that processes and outputs various data such as image data, audio data, and sensor data, as well as instructions. The storage unit 122 temporarily stores data, instructions, and the like processed by the control unit 120. The attitude sensor 124 detects the attitude information of the HMD 100. The attitude sensor 124 includes at least a 3-axis accelerometer and a 3-axis gyro sensor.

通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。 The communication control unit 128 transmits the data output from the control unit 120 to the external information processing device 10 via a network adapter or an antenna by wired or wireless communication. Further, the communication control unit 128 receives data from the information processing device 10 via a network adapter or an antenna by wired or wireless communication, and outputs the data to the control unit 120.

制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。 When the control unit 120 receives the image data or the audio data from the information processing device 10, the control unit 120 supplies the image data or the audio data to the display panel 130 for display, and supplies the image data or the audio data to the audio output unit 132 for audio output. The display panel 130 is composed of a left-eye display panel 130a and a right-eye display panel 130b, and a pair of parallax images are displayed on each display panel. Further, the control unit 120 causes the communication control unit 128 to transmit the sensor data from the attitude sensor 124 and the voice data from the microphone 126 to the information processing device 10.

図4は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、センサデータ受信部20、カメラ画像受信部22、入力データ受信部24、画像取得部40および画像提供部52を備える。情報処理装置10は、さらにHMD情報取得部30、視線情報決定部32、受付部34および表示制御部50を備える。 FIG. 4 shows a functional block of the information processing device 10. The information processing device 10 includes a sensor data receiving unit 20, a camera image receiving unit 22, an input data receiving unit 24, an image acquisition unit 40, and an image providing unit 52 as input / output interfaces with the outside. The information processing device 10 further includes an HMD information acquisition unit 30, a line-of-sight information determination unit 32, a reception unit 34, and a display control unit 50.

図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 In FIG. 4, each element described as a functional block that performs various processes can be composed of a circuit block, a memory, and other LSIs in terms of hardware, and is loaded into the memory in terms of software. It is realized by a program or the like. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.

センサデータ受信部20は、ユーザが装着したHMD100の姿勢センサ124から所定の周期でセンサデータを受信して、HMD情報取得部30に供給する。カメラ画像受信部22は、撮像装置14から所定の周期でHMD100を撮影した画像を受信して、HMD情報取得部30に供給する。たとえば撮像装置14は(1/60)秒ごとに前方の空間を撮影し、カメラ画像受信部22は(1/60)秒ごとにカメラ画像を受信する。実施例においてHMD情報取得部30は、センサデータおよび撮影画像から、ユーザの頭部に装着されたHMD100の姿勢を示す姿勢情報および位置を示す位置情報を導出する。HMD情報取得部30は、導出した姿勢情報および位置情報を、視線情報決定部32に供給する。 The sensor data receiving unit 20 receives sensor data from the posture sensor 124 of the HMD 100 worn by the user at a predetermined cycle and supplies the sensor data to the HMD information acquisition unit 30. The camera image receiving unit 22 receives an image obtained by capturing the HMD 100 from the imaging device 14 at a predetermined cycle, and supplies the image to the HMD information acquisition unit 30. For example, the image pickup apparatus 14 captures the space in front every (1/60) seconds, and the camera image receiving unit 22 receives the camera image every (1/60) seconds. In the embodiment, the HMD information acquisition unit 30 derives posture information indicating the posture of the HMD 100 mounted on the user's head and position information indicating the position from the sensor data and the captured image. The HMD information acquisition unit 30 supplies the derived posture information and position information to the line-of-sight information determination unit 32.

HMD情報取得部30は、姿勢センサ124のセンサデータから、HMD100の姿勢および位置の変化を検出する。このときHMD情報取得部30は3軸ジャイロセンサのセンサデータから、HMD100の姿勢変化を特定し、3軸加速度センサのセンサデータから位置変化を特定してよい。なおHMD情報取得部30は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化および位置変化の検出精度を高めることが好ましい。視線情報決定部32は、HMD100の姿勢情報および位置情報に応じてユーザの視線方向および視点位置を定める。視線情報決定部32は、決定した視線方向および視点位置を、表示制御部50に提供する。なお視線情報決定部32は、視線方向および視点位置の双方ではなく、いずれか一方だけを決定して、表示制御部50に提供してもよい。 The HMD information acquisition unit 30 detects changes in the attitude and position of the HMD 100 from the sensor data of the attitude sensor 124. At this time, the HMD information acquisition unit 30 may specify the attitude change of the HMD 100 from the sensor data of the 3-axis gyro sensor, and specify the position change from the sensor data of the 3-axis acceleration sensor. It is preferable that the HMD information acquisition unit 30 further utilizes the shooting result of the light emitting marker 110 for tracking to improve the detection accuracy of the posture change and the position change. The line-of-sight information determination unit 32 determines the line-of-sight direction and the viewpoint position of the user according to the posture information and the position information of the HMD 100. The line-of-sight information determination unit 32 provides the display control unit 50 with the determined line-of-sight direction and viewpoint position. The line-of-sight information determination unit 32 may determine only one of the line-of-sight direction and the viewpoint position and provide it to the display control unit 50.

入力データ受信部24は入力装置16から、ユーザが入力したキーデータを受信して、受付部34に供給する。受付部34は、入力装置16に入力されたユーザ操作を受け付ける。 The input data receiving unit 24 receives the key data input by the user from the input device 16 and supplies the key data to the receiving unit 34. The reception unit 34 receives the user operation input to the input device 16.

情報処理装置10は、イベント会場で開催されているライブイベントの撮影映像を配信サーバ18から取得して、HMD100に提供する機能をもつ。この映像提供機能は、配信サーバ18にアクセスして撮影映像を取得し、HMD100に提供するライブ中継アプリケーションにより実現される。ユーザはコンテンツサーバからライブ中継アプリケーションを情報処理装置10にダウンロードすることで、ライブ中継アプリケーションを利用できるようになる。 The information processing device 10 has a function of acquiring a captured image of a live event held at an event venue from a distribution server 18 and providing it to the HMD 100. This video providing function is realized by a live relay application that accesses the distribution server 18, acquires a captured video, and provides it to the HMD 100. The user can use the live relay application by downloading the live relay application from the content server to the information processing device 10.

ユーザがライブ中継アプリケーションを起動すると、画像取得部40が、カメラ画像の配信要求を配信サーバ18に送信する。配信サーバ18は、情報処理装置10からの配信要求を受けて、配信用にデフォルト設定されているカメラ(たとえばカメラB)の撮影画像を、情報処理装置10にストリーミング配信する。画像取得部40は、ストリーミング配信されるカメラ撮影画像を取得し、表示制御部50に提供する。後述するが、このとき画像取得部40は、高解像度のカメラ撮影画像を取得している。 When the user starts the live relay application, the image acquisition unit 40 transmits a distribution request for the camera image to the distribution server 18. In response to the distribution request from the information processing device 10, the distribution server 18 streams and distributes the captured image of the camera (for example, camera B) set as default for distribution to the information processing device 10. The image acquisition unit 40 acquires a camera-photographed image to be streamed and provides it to the display control unit 50. As will be described later, at this time, the image acquisition unit 40 acquires a high-resolution camera-photographed image.

図5は、HMD100に表示されるライブ映像の一例を示す。ここで<画像B>は、カメラBにより撮影されているライブ画像であることを示す。表示制御部50は、画像取得部40が取得した高解像度のカメラ撮影画像を用いて、HMD100の視線方向および視点位置に応じた表示画像を生成して、画像提供部52に出力する。このとき表示制御部50は、左目用の表示画像と右目用の表示画像を生成する。画像提供部52が、左目用表示画像と右目用表示画像をHMD100に提供し、HMD100が、表示パネル130に表示する。これによりユーザは、イベント会場で配信用にデフォルト設定されているカメラBの撮影画像を視聴できる。この状態でユーザは、入力装置16の所定のボタンを操作すると、視聴しているカメラ撮影画像を切り替えるためのユーザインタフェースを表示パネル130に表示させられる。 FIG. 5 shows an example of a live image displayed on the HMD 100. Here, <image B> indicates that it is a live image taken by the camera B. The display control unit 50 uses the high-resolution camera-captured image acquired by the image acquisition unit 40 to generate a display image according to the line-of-sight direction and the viewpoint position of the HMD 100, and outputs the display image to the image providing unit 52. At this time, the display control unit 50 generates a display image for the left eye and a display image for the right eye. The image providing unit 52 provides the display image for the left eye and the display image for the right eye to the HMD 100, and the HMD 100 displays the display image on the display panel 130. As a result, the user can view the captured image of the camera B, which is set by default for distribution at the event venue. In this state, when the user operates a predetermined button of the input device 16, the user interface for switching the image captured by the camera being viewed is displayed on the display panel 130.

受付部34が、表示する撮影画像をユーザが決定するためのユーザインタフェースを表示させるユーザ操作を受け付ける。このユーザ操作は、たとえば入力装置16の所定のボタンの押下操作であってよい。この所定ボタンは、ユーザインタフェースの表示、非表示を決定するためのボタンである。高解像度のカメラ撮影画像が表示されている状態で、所定ボタンが押下操作されると、カメラ撮影画像が低解像度で表示されるとともに、表示画像を決定するためのユーザインタフェースが重畳表示される。一方、ユーザインタフェースが重畳表示された状態で、所定ボタンが押下操作されると、ユーザインタフェースが非表示とされて、高解像度のカメラ撮影画像が表示されるようになる。 The reception unit 34 accepts a user operation for displaying a user interface for determining a captured image to be displayed. This user operation may be, for example, an operation of pressing a predetermined button of the input device 16. This predetermined button is a button for determining display / non-display of the user interface. When a predetermined button is pressed while the high-resolution camera-captured image is displayed, the camera-captured image is displayed at a low resolution and the user interface for determining the display image is superimposed and displayed. On the other hand, when a predetermined button is pressed while the user interface is superimposed and displayed, the user interface is hidden and a high-resolution camera-captured image is displayed.

ユーザインタフェースが非表示の状態で、受付部34が、所定ボタンの押下操作を受け付けると、画像取得部40が、複数のカメラ画像の配信要求を配信サーバ18に送信する。配信サーバ18は、情報処理装置10からの配信要求を受けて、複数のカメラA〜Fで撮影した撮影画像をそれぞれ縮小した(低解像度化した)複数の縮小画像をまとめて、情報処理装置10にストリーミング配信する。画像取得部40は、配信される複数のカメラA〜Fの縮小画像を取得し、表示制御部50に提供する。それぞれの縮小画像は、カメラ撮影画像の低解像度版となる。 When the reception unit 34 accepts the operation of pressing a predetermined button while the user interface is hidden, the image acquisition unit 40 transmits a distribution request for a plurality of camera images to the distribution server 18. In response to the distribution request from the information processing device 10, the distribution server 18 collects a plurality of reduced images (reduced in resolution) obtained by reducing the captured images taken by the plurality of cameras A to F, and collects the plurality of reduced images. Stream to. The image acquisition unit 40 acquires the reduced images of the plurality of cameras A to F to be distributed and provides them to the display control unit 50. Each reduced image is a low-resolution version of the camera-taken image.

表示制御部50は、HMD100の視線方向および視点位置にもとづいて、複数の縮小画像のそれぞれを、撮影したカメラの位置に対応する位置に配置した表示画像を生成して画像提供部52に出力する。 The display control unit 50 generates a display image in which each of the plurality of reduced images is arranged at a position corresponding to the position of the captured camera based on the line-of-sight direction and the viewpoint position of the HMD 100, and outputs the display image to the image providing unit 52. ..

図6は、表示する撮影画像をユーザが決定するためのユーザインタフェースを示す。表示制御部50は、バックグランドにカメラ撮影画像を表示させつつ、ユーザインタフェース200を背景画像に重畳させた表示画像を生成する。表示制御部50は、複数の縮小画像をユーザインタフェース200に配置する。ユーザインタフェース200は、複数のカメラA〜Fが配置された会場を模した仮想会場を表現する形状を有し、仮想会場において、カメラA〜Fの位置に対応する位置に、各カメラ撮影画像の縮小画像が配置される。 FIG. 6 shows a user interface for the user to determine a captured image to be displayed. The display control unit 50 generates a display image in which the user interface 200 is superimposed on the background image while displaying the image captured by the camera in the background. The display control unit 50 arranges a plurality of reduced images on the user interface 200. The user interface 200 has a shape that represents a virtual venue that imitates a venue in which a plurality of cameras A to F are arranged, and in the virtual venue, the images captured by each camera are located at positions corresponding to the positions of the cameras A to F. A reduced image is placed.

具体的に表示制御部50は、実際の会場に配置されたカメラ位置に対応するユーザインタフェース200における位置に、表示ウィンドウ210を配置し、表示ウィンドウ210内で縮小画像を表示する。上記したように実際の会場で、カメラBは、ステージ正面近くの客席に、カメラA、Cは、ステージの両脇に配置されている。またステージに向かってカメラDは2階席の左側、カメラEは2階席の中央、カメラFは2階席の右側にそれぞれ配置されている。 Specifically, the display control unit 50 arranges the display window 210 at a position in the user interface 200 corresponding to the camera position arranged in the actual venue, and displays a reduced image in the display window 210. As described above, in the actual venue, the cameras B are arranged in the audience seats near the front of the stage, and the cameras A and C are arranged on both sides of the stage. When facing the stage, the camera D is located on the left side of the second floor seat, the camera E is located in the center of the second floor seat, and the camera F is located on the right side of the second floor seat.

そこで表示制御部50は、ユーザインタフェース200で表現される仮想会場において、カメラAの撮影画像を表示する表示ウィンドウ210aを左前方の位置に、カメラBの撮影画像を表示する表示ウィンドウ210bを中央前方の位置に、カメラCの撮影画像を表示する表示ウィンドウ210cを右前方の位置に、それぞれ配置する。また表示制御部50は、カメラDの撮影画像を表示する表示ウィンドウ210dを左後方の位置に、カメラEの撮影画像を表示する表示ウィンドウ210eを中央後方の位置に、カメラFの撮影画像を表示する表示ウィンドウ210fを右後方の位置に、それぞれ配置する。 Therefore, in the virtual venue represented by the user interface 200, the display control unit 50 sets the display window 210a for displaying the captured image of the camera A at the left front position and the display window 210b for displaying the captured image of the camera B at the center front. A display window 210c for displaying the captured image of the camera C is arranged at the position of the front right. Further, the display control unit 50 displays the captured image of the camera F at the rear left position of the display window 210d for displaying the captured image of the camera D, and the captured image of the camera F at the rear rear position of the display window 210e for displaying the captured image of the camera E. The display windows 210f to be displayed are arranged at the rear right positions.

このように表示制御部50が、仮想会場を表現したユーザインタフェース200を画面中に配置して、ユーザインタフェース200に複数の縮小画像を、実際の会場のカメラ位置に対応する位置に配置する。これによりユーザは、会場におけるカメラ位置を感覚的に理解するとともに、各表示ウィンドウ210に表示される縮小画像を確認することで、各カメラがどのような映像を撮影しているのかを知ることができる。 In this way, the display control unit 50 arranges the user interface 200 representing the virtual venue on the screen, and arranges a plurality of reduced images on the user interface 200 at positions corresponding to the camera positions of the actual venue. As a result, the user can intuitively understand the camera position in the venue and know what kind of image each camera is shooting by checking the reduced image displayed in each display window 210. can.

表示制御部50は、カメラA〜Fに関する情報を、各縮小画像に関連づけて配置する。ここでは表示制御部50が、カメラに関する情報として、カメラの撮影形式に関する情報を表示ウィンドウ210の下方に配置している。なお(16:9)は撮影画像のアスペクト比を、(魚眼)は魚眼レンズでの撮影であることを、それぞれ表現している。なお表示制御部50は、カメラに関する情報として、カメラの撮影方向に関する情報、撮影対象に関する情報などを、縮小画像に関連づけて配置してもよい。 The display control unit 50 arranges information about the cameras A to F in association with each reduced image. Here, the display control unit 50 arranges information on the shooting format of the camera below the display window 210 as information on the camera. Note that (16: 9) expresses the aspect ratio of the photographed image, and (fisheye) expresses that the photographed image is taken with a fisheye lens. The display control unit 50 may arrange information about the shooting direction of the camera, information about the shooting target, and the like as information about the camera in association with the reduced image.

また表示制御部50は、ユーザインタフェース200のバックグランドに、1つの縮小画像を引き伸ばした画像を表示させる。図6に示す例では、図5に示す状態で、ユーザインタフェース200の表示要求が生成されたために、カメラBの撮影画像がユーザインタフェース200の背景画像として、そのまま表示されている。なお図5に示す画面では、表示制御部50が、高解像度のカメラBの撮影画像を用いて表示画像を生成していたが、図6に示す画面では、表示制御部50が、低解像度のカメラBの縮小画像を引き伸ばして、背景画像を生成している。 Further, the display control unit 50 displays a magnified image of one reduced image on the background of the user interface 200. In the example shown in FIG. 6, since the display request of the user interface 200 is generated in the state shown in FIG. 5, the captured image of the camera B is displayed as it is as the background image of the user interface 200. In the screen shown in FIG. 5, the display control unit 50 generated a display image using the captured image of the high-resolution camera B, but in the screen shown in FIG. 6, the display control unit 50 has a low resolution. The reduced image of the camera B is enlarged to generate a background image.

表示制御部50は、バックグランド表示されている縮小画像の表示ウィンドウ210に、選択されていることを示す選択マーク220を付加する。ここでは表示ウィンドウ210bに選択マーク220が付加されており、ユーザは、バックグランド表示されている画像が、どのカメラによって撮影されたものであるか容易に知ることができる。 The display control unit 50 adds a selection mark 220 indicating that the reduced image is selected to the display window 210 of the reduced image displayed in the background. Here, a selection mark 220 is added to the display window 210b, so that the user can easily know which camera the image displayed in the background was taken by.

ユーザは入力装置16の矢印ボタンを操作して、バックグランド表示させる縮小画像を選択できる。受付部34が、ユーザによる縮小画像の選択操作として、矢印ボタン操作を受け付けると、表示制御部50は、矢印ボタン操作にしたがって、選択マーク220を、選択された表示ウィンドウ210の上方に配置するように動かす。このとき表示制御部50は、ユーザインタフェース200における複数の縮小画像の配置はそのままに、選択マーク220が上方に配置された表示ウィンドウ210の縮小画像を引き伸ばして背景画像とした表示画像を生成する。 The user can operate the arrow buttons of the input device 16 to select a reduced image to be displayed in the background. When the reception unit 34 accepts the arrow button operation as the user's selection operation of the reduced image, the display control unit 50 arranges the selection mark 220 above the selected display window 210 according to the arrow button operation. Move to. At this time, the display control unit 50 generates a display image as a background image by stretching the reduced image of the display window 210 in which the selection mark 220 is arranged above while keeping the arrangement of the plurality of reduced images in the user interface 200.

図7は、縮小画像の選択が変更された状態を示す。図7に示す例では、選択マーク220が表示ウィンドウ210fの上方に付加されており、表示制御部50が、ユーザインタフェース200における複数の縮小画像の配置に変更を加えることなく、カメラFの縮小画像を引き伸ばして背景画像とした表示画像を生成している。バックグランド画像として表示されるカメラFの画像は低解像度であるが、ユーザは、プレビュー画面としてカメラFの画像を視聴することで、カメラFの撮影画像を表示画像として決定するべきか判断できる。 FIG. 7 shows a state in which the selection of the reduced image is changed. In the example shown in FIG. 7, a selection mark 220 is added above the display window 210f, and the display control unit 50 does not change the arrangement of the plurality of reduced images in the user interface 200, and the reduced image of the camera F is used. Is generated as a background image by enlarging. Although the image of the camera F displayed as the background image has a low resolution, the user can determine whether the captured image of the camera F should be determined as the display image by viewing the image of the camera F as the preview screen.

なお実施例において、表示画像はHMD100の姿勢情報、位置情報に連動し、ユーザは、HMD100を動かすことで、表示画像を変更できる。たとえばユーザは、撮像装置14に対して前方に移動することで、表示画像を拡大できる。 In the embodiment, the display image is linked to the posture information and the position information of the HMD 100, and the user can change the display image by moving the HMD 100. For example, the user can enlarge the displayed image by moving forward with respect to the image pickup device 14.

図8は、ユーザインタフェース200を拡大表示した例を示す。図8に示す例では、表示ウィンドウ210dが画面に拡大表示され、ユーザは、表示ウィンドウ210d内に表示されるカメラDの画像を確認しやすくなっている。このようにユーザインタフェース200は、複数の表示ウィンドウ210のそれぞれに縮小画像を表示した形態を有しているため、ユーザは、選択マーク220を動かさなくても、各表示ウィンドウ210を拡大表示することで、各カメラ画像の内容を容易に確認できるようになる。 FIG. 8 shows an example in which the user interface 200 is enlarged and displayed. In the example shown in FIG. 8, the display window 210d is enlarged and displayed on the screen, so that the user can easily check the image of the camera D displayed in the display window 210d. In this way, since the user interface 200 has a form in which a reduced image is displayed on each of the plurality of display windows 210, the user can enlarge and display each display window 210 without moving the selection mark 220. Then, the contents of each camera image can be easily confirmed.

ユーザインタフェース200が表示された状態で、ユーザが入力装置16の所定のボタンを操作すると、受付部34が、ユーザインタフェース200における縮小画像の決定操作として受け付ける。このとき画像取得部40は、選択マーク220が配置されているカメラ画像の配信要求を配信サーバ18に送信する。配信サーバ18は、情報処理装置10からの配信要求を受けて、指定されたカメラで撮影した高解像度の撮影画像を、情報処理装置10にストリーミング配信する。画像取得部40は、決定された縮小画像に対応する高解像度の撮影画像を取得し、表示制御部50は、取得した撮影画像を画像提供部52に出力する。このとき表示制御部50は、HMD100の視線方向および視点位置に応じた表示画像を生成して、画像提供部52に出力する。画像提供部52は、表示画像をHMD100に提供し、これによりユーザは、選択したカメラからのライブ映像を見ることができる。 When the user operates a predetermined button of the input device 16 while the user interface 200 is displayed, the reception unit 34 accepts the reduced image as a determination operation in the user interface 200. At this time, the image acquisition unit 40 transmits a distribution request for the camera image on which the selection mark 220 is arranged to the distribution server 18. The distribution server 18 receives a distribution request from the information processing device 10 and streams and distributes a high-resolution photographed image captured by the designated camera to the information processing device 10. The image acquisition unit 40 acquires a high-resolution captured image corresponding to the determined reduced image, and the display control unit 50 outputs the acquired captured image to the image providing unit 52. At this time, the display control unit 50 generates a display image according to the line-of-sight direction and the viewpoint position of the HMD 100, and outputs the display image to the image providing unit 52. The image providing unit 52 provides the display image to the HMD 100, whereby the user can see the live image from the selected camera.

以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例では、ユーザが自由にカメラ撮影画像を選択できるものとしたが、所定の表示モードを選択することで、配信サーバ18側で選択されたカメラ撮影画像が表示されるようにしてもよい。 The present invention has been described above based on examples. Examples are examples, and it will be understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. In the embodiment, the user can freely select the camera-captured image, but by selecting a predetermined display mode, the camera-captured image selected on the distribution server 18 side may be displayed.

変形例では、複数のスクリーンを仮想3次元空間に配置して、各スクリーンにおいて、カメラ撮影画像を表示させるようにしてもよい。このときユーザが複数のスクリーンの配置を自由に設定できるようにしてもよく、また各スクリーンに表示するカメラ撮影画像をユーザが自由に設定できるようにしてもよい。 In the modified example, a plurality of screens may be arranged in a virtual three-dimensional space, and images taken by the camera may be displayed on each screen. At this time, the user may freely set the arrangement of the plurality of screens, or the user may freely set the camera-captured image to be displayed on each screen.

実施例では、ライブ画像を配信することを説明したが、配信する画像はライブ画像でなくてよく、撮影済のものであってもよい。この場合、情報処理装置10は、配信サーバ18からカメラ撮影画像の提供を受けてもよく、またDVDなどの記録媒体からカメラ撮影画像を提供されてもよい。 In the embodiment, it has been described that the live image is delivered, but the delivered image does not have to be a live image and may be a photographed one. In this case, the information processing device 10 may be provided with the camera-captured image from the distribution server 18, or may be provided with the camera-captured image from a recording medium such as a DVD.

1・・・情報処理システム、10・・・情報処理装置、18・・・配信サーバ、20・・・センサデータ受信部、22・・・カメラ画像受信部、24・・・入力データ受信部、30・・・HMD情報取得部、32・・・視線情報決定部、34・・・受付部、40・・・画像取得部、50・・・表示制御部、52・・・画像提供部、100・・・HMD。 1 ... Information processing system, 10 ... Information processing device, 18 ... Distribution server, 20 ... Sensor data receiving unit, 22 ... Camera image receiving unit, 24 ... Input data receiving unit, 30 ... HMD information acquisition unit, 32 ... line-of-sight information determination unit, 34 ... reception unit, 40 ... image acquisition unit, 50 ... display control unit, 52 ... image provision unit, 100 ... HMD.

本発明は、カメラ撮影画像を出力する技術に関する。 The present invention relates to a technique for outputting a camera-captured image.

Claims (8)

ユーザ操作を受け付ける受付部と、
前記受付部が受け付けたユーザ操作にもとづいて、複数のカメラで撮影した撮影画像をそれぞれ縮小した複数の低解像度の縮小画像を取得する画像取得部と、
ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢情報および/または位置情報を取得するHMD情報取得部と、
ヘッドマウントディスプレイの姿勢情報および/または位置情報に応じて、視線方向および/または視点位置を定める視線情報決定部と、
ヘッドマウントディスプレイの視線方向および/または視点位置にもとづいて、複数の低解像度の縮小画像のそれぞれを、撮影したカメラの位置に対応する位置に配置した表示画像を生成する表示制御部と、を備え、
前記表示制御部は、複数のカメラが配置された会場を模した仮想会場を画像内に配置し、当該仮想会場におけるカメラ位置に対応する位置に縮小画像を配置
前記受付部が、縮小画像の選択操作を受け付けると、前記表示制御部は、複数の縮小画像の配置はそのままに、選択された縮小画像を引き伸ばして背景画像とした表示画像を生成し、
前記受付部が、縮小画像の決定操作を受け付けると、前記画像取得部は、決定された縮小画像に対応する高解像度の撮影画像を取得し、前記表示制御部は、取得した高解像度の撮影画像を用いて、ヘッドマウントディスプレイの視線方向および/または視点位置に応じた表示画像を生成する、
ことを特徴とする情報処理装置。
The reception department that accepts user operations and
An image acquisition unit that acquires a plurality of low-resolution reduced images obtained by reducing each of the captured images taken by a plurality of cameras based on the user operation received by the reception unit.
An HMD information acquisition unit that acquires posture information and / or position information of a head-mounted display mounted on the user's head, and
A line-of-sight information determination unit that determines the line-of-sight direction and / or viewpoint position according to the posture information and / or position information of the head-mounted display.
It is provided with a display control unit that generates a display image in which each of a plurality of low-resolution reduced images is arranged at a position corresponding to the position of the captured camera based on the line-of-sight direction and / or the viewpoint position of the head-mounted display. ,
Wherein the display control unit, place a virtual venue simulating a venue in which a plurality of cameras are arranged in the image, place the reduced image at a position corresponding to the camera position in the virtual venue,
When the reception unit receives the operation of selecting the reduced image, the display control unit generates a display image as a background image by stretching the selected reduced image while keeping the arrangement of the plurality of reduced images.
When the reception unit receives the operation of determining the reduced image, the image acquisition unit acquires a high-resolution captured image corresponding to the determined reduced image, and the display control unit acquires the acquired high-resolution captured image. Is used to generate a display image according to the line-of-sight direction and / or the viewpoint position of the head-mounted display.
An information processing device characterized by this.
前記表示制御部は、選択操作された縮小画像に対して、選択されたことを示すマークを付加する、
ことを特徴とする請求項に記載の情報処理装置。
The display control unit adds a mark indicating that the selected reduced image has been selected to the reduced image.
The information processing apparatus according to claim 1.
前記受付部が、縮小画像の決定操作を受け付けると、前記表示制御部は、仮想会場に配置した複数の縮小画像を非表示とする、When the reception unit receives the operation of determining the reduced image, the display control unit hides the plurality of reduced images arranged in the virtual venue.
ことを特徴とする請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2.
前記画像取得部は、ストリーミング配信される画像を取得する、
ことを特徴とする請求項1からのいずれかに記載の情報処理装置。
The image acquisition unit acquires an image to be streamed.
The information processing apparatus according to any one of claims 1 to 3.
前記表示制御部は、カメラに関する情報を、縮小画像に関連づけて配置する、
ことを特徴とする請求項1からのいずれかに記載の情報処理装置。
The display control unit arranges information about the camera in association with the reduced image.
The information processing apparatus according to any one of claims 1 to 4.
前記表示制御部は、カメラに関する情報として、カメラの撮影形式に関する情報、カメラの撮影方向に関する情報、撮影対象に関する情報の少なくとも1つを、縮小画像に関連づけて配置する、
ことを特徴とする請求項に記載の情報処理装置。
The display control unit arranges at least one of information about the shooting format of the camera, information about the shooting direction of the camera, and information about the shooting target as information about the camera in association with the reduced image.
The information processing apparatus according to claim 5.
複数のカメラで撮影した撮影画像をそれぞれ縮小した複数の低解像度の縮小画像を取得するステップと、
ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢情報および/または位置情報を取得するステップと、
ヘッドマウントディスプレイの姿勢情報および/または位置情報に応じて、視線方向および/または視点位置を定めるステップと、
ヘッドマウントディスプレイの視線方向および/または視点位置にもとづいて、複数のカメラが配置された会場を模した仮想会場を画像内に配置し、複数の低解像度の縮小画像のそれぞれを、複数のカメラのそれぞれの位置に対応する位置に配置した表示画像を生成するステップと、
縮小画像の選択操作を受け付けるステップと、
選択操作にもとづいて、複数の縮小画像の配置はそのままに、選択された縮小画像を引き伸ばして背景画像とした表示画像を生成するステップと、
縮小画像の決定操作を受け付けるステップと、
決定操作にもとづいて、決定された縮小画像に対応する高解像度の撮影画像を取得するステップと、
取得した高解像度の撮影画像を用いて、ヘッドマウントディスプレイの視線方向および/または視点位置に応じた表示画像を生成するステップと、
を有することを特徴とする画像出力方法。
Steps to acquire multiple low-resolution reduced images, each of which is a reduced image taken by multiple cameras,
The step of acquiring the posture information and / or the position information of the head-mounted display mounted on the user's head, and
Steps to determine the line-of-sight direction and / or viewpoint position according to the posture information and / or position information of the head-mounted display, and
Based on the line-of-sight direction and / or viewpoint position of the head-mounted display, a virtual venue that imitates a venue where multiple cameras are arranged is arranged in the image, and each of the multiple low-resolution reduced images is displayed on the multiple cameras. Steps to generate a display image placed at the position corresponding to each position,
The step of accepting the selection operation of the reduced image and
Based on the selection operation, the step of enlarging the selected reduced image to generate a display image as a background image while keeping the arrangement of multiple reduced images as it is,
The step of accepting the decision operation of the reduced image and
The step of acquiring a high-resolution captured image corresponding to the determined reduced image based on the determination operation,
Using the acquired high-resolution captured image, a step of generating a display image according to the line-of-sight direction and / or the viewpoint position of the head-mounted display, and
An image output method characterized by having.
コンピュータに、
複数のカメラで撮影した撮影画像をそれぞれ縮小した複数の低解像度の縮小画像を取得する機能と、
ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢情報および/または位置情報を取得する機能と、
ヘッドマウントディスプレイの姿勢情報および/または位置情報に応じて、視線方向および/または視点位置を定める機能と、
ヘッドマウントディスプレイの視線方向および/または視点位置にもとづいて、複数のカメラが配置された会場を模した仮想会場を画像内に配置し、複数の低解像度の縮小画像のそれぞれを、複数のカメラのそれぞれの位置に対応する位置に配置した表示画像を生成する機能と、
縮小画像の選択操作を受け付ける機能と、
選択操作にもとづいて、複数の縮小画像の配置はそのままに、選択された縮小画像を引き伸ばして背景画像とした表示画像を生成する機能と、
縮小画像の決定操作を受け付ける機能と、
決定操作にもとづいて、決定された縮小画像に対応する高解像度の撮影画像を取得する機能と、
取得した高解像度の撮影画像を用いて、ヘッドマウントディスプレイの視線方向および/または視点位置に応じた表示画像を生成する機能と、
を実現させるためのプログラム。
On the computer
A function to acquire multiple low-resolution reduced images, which are reduced images taken by multiple cameras, and
A function to acquire posture information and / or position information of a head-mounted display mounted on the user's head, and
A function to determine the line-of-sight direction and / or the viewpoint position according to the posture information and / or the position information of the head-mounted display, and
Based on the line-of-sight direction and / or viewpoint position of the head-mounted display, a virtual venue that imitates a venue where multiple cameras are arranged is arranged in the image, and each of the multiple low-resolution reduced images is displayed on the multiple cameras. A function to generate a display image placed at the position corresponding to each position, and
A function that accepts the selection operation of reduced images and
Based on the selection operation, the function to generate a display image as a background image by enlarging the selected reduced image while keeping the arrangement of multiple reduced images,
A function that accepts the decision operation of the reduced image and
A function to acquire a high-resolution captured image corresponding to the determined reduced image based on the determination operation, and
A function to generate a display image according to the line-of-sight direction and / or the viewpoint position of the head-mounted display using the acquired high-resolution captured image, and
A program to realize.
JP2019537504A 2017-08-24 2017-08-24 Information processing device and image output method Active JP6921204B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/030335 WO2019038885A1 (en) 2017-08-24 2017-08-24 Information processing device and image output method

Publications (2)

Publication Number Publication Date
JPWO2019038885A1 JPWO2019038885A1 (en) 2020-05-28
JP6921204B2 true JP6921204B2 (en) 2021-08-18

Family

ID=65438474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019537504A Active JP6921204B2 (en) 2017-08-24 2017-08-24 Information processing device and image output method

Country Status (2)

Country Link
JP (1) JP6921204B2 (en)
WO (1) WO2019038885A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025009694A1 (en) * 2023-07-03 2025-01-09 삼성전자주식회사 Wearable device and method for processing camera image on basis of region of interest, and non-transitory computer-readable storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022015647A (en) 2020-07-09 2022-01-21 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344929A (en) * 2001-05-21 2002-11-29 Toshiba Corp Camera monitoring system and video distribution server
JP5870841B2 (en) * 2012-05-17 2016-03-01 株式会社デンソー Vehicle display device
JP5942933B2 (en) * 2013-07-04 2016-06-29 ブラザー工業株式会社 Terminal device and program
JP6518582B2 (en) * 2015-12-21 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and operation reception method
JP6124985B1 (en) * 2015-12-24 2017-05-10 株式会社コロプラ Video content distribution system and content management server

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025009694A1 (en) * 2023-07-03 2025-01-09 삼성전자주식회사 Wearable device and method for processing camera image on basis of region of interest, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JPWO2019038885A1 (en) 2020-05-28
WO2019038885A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
JP6511386B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP6845111B2 (en) Information processing device and image display method
US11030771B2 (en) Information processing apparatus and image generating method
US10627628B2 (en) Information processing apparatus and image generating method
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP6576536B2 (en) Information processing device
JP2015149634A (en) Image display device and method
JP2019046291A (en) Information processing apparatus and image display method
WO2020129115A1 (en) Information processing system, information processing method and computer program
JP6921204B2 (en) Information processing device and image output method
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP6649010B2 (en) Information processing device
WO2021049356A1 (en) Playback device, playback method, and recording medium
JP6916896B2 (en) Information processing device and image generation method
WO2017056597A1 (en) Information processing apparatus
JP2022015647A (en) Information processing apparatus and image display method
EP4325842A1 (en) Video display system, information processing device, information processing method, and program
US20240066394A1 (en) Information processing apparatus and image generation method
WO2022255058A1 (en) Information processing device and image generation method
WO2024042929A1 (en) Information processing device and image generation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210727

R150 Certificate of patent or registration of utility model

Ref document number: 6921204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150