JP2017527230A - コンテンツを配信および/または再生するための方法及び装置 - Google Patents
コンテンツを配信および/または再生するための方法及び装置 Download PDFInfo
- Publication number
- JP2017527230A JP2017527230A JP2017515038A JP2017515038A JP2017527230A JP 2017527230 A JP2017527230 A JP 2017527230A JP 2017515038 A JP2017515038 A JP 2017515038A JP 2017515038 A JP2017515038 A JP 2017515038A JP 2017527230 A JP2017527230 A JP 2017527230A
- Authority
- JP
- Japan
- Prior art keywords
- content
- image
- stream
- view
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000012913 prioritisation Methods 0.000 claims description 31
- 239000002131 composite material Substances 0.000 claims description 24
- 230000004913 activation Effects 0.000 claims description 9
- 230000000977 initiatory effect Effects 0.000 claims description 5
- 230000011664 signaling Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 155
- 230000008859 change Effects 0.000 description 40
- 238000004891 communication Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 20
- 238000009877 rendering Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 230000000007 visual effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000009471 action Effects 0.000 description 13
- 239000000872 buffer Substances 0.000 description 13
- 210000005069 ears Anatomy 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000010348 incorporation Methods 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000003365 glass fiber Substances 0.000 description 2
- 229910002804 graphite Inorganic materials 0.000 description 2
- 239000010439 graphite Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 208000034423 Delivery Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000004826 seaming Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 210000003454 tympanic membrane Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/24—Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
- H04N21/2402—Monitoring of the downstream path of the transmission network, e.g. bandwidth available
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2662—Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/64—Addressing
- H04N21/6405—Multicasting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Information Transfer Between Computers (AREA)
Abstract
コンテンツ配信及び再生方法と装置が記載される。方法と装置は、360度環境に対応して、コンテンツの配信と再生のために良好に適用され、スポーツゲーム等のイベントに対応して、例えば、イベントが進行中の間、または、イベントが終了した後、例えば、3Dコンテンツ等のコンテンツのストリーミング、及び/または、リアルタイム配信をサポートするために使用され得る。環境の部分は、異なる位置に設けられたカメラによって取り込まれる。異なる場所から取り込まれたコンテンツは、エンコードされ、配信のために利用可能にされる。再生デバイスは、ユーザの頭の位置に基づいて、受け取られるべきコンテンツを選択する。ストリームは、ユーザの現在の視界、及び/または、頭の回転の方向に基づいて、優先度付けされ、配信のために選択され得る。静止画像または合成された画像が、例えば、背景、空、及び/または、地面のために使用され、1つ以上のストリームからのコンテンツと組み合され得る。
Description
[0001] 本発明は、コンテンツ配信及び/または再生、例えば、立体視画像コンテンツの再生、に関する。
[0002] 没入型の体験を提供することを意図しているディスプレイデバイスは、通常、ユーザが、頭を回すと、表示されたシーンの対応する変化を体験することを可能にする。
ヘッドマウントディスプレイは、時に、ユーザの頭の位置が変わると変化して表示されるシーンでもって、ヘッドマウントディスプレイを装着している間にユーザが向きを変えることができる、360度の視野をサポートする。
ヘッドマウントディスプレイは、時に、ユーザの頭の位置が変わると変化して表示されるシーンでもって、ヘッドマウントディスプレイを装着している間にユーザが向きを変えることができる、360度の視野をサポートする。
[0003] そのような装置を用いると、ユーザは、前を見ている時にはカメラ位置の正面で取り込まれたシーンを提示され、ユーザが完全に振り向いたときにはカメラ位置の後ろで取り込まれたシーンを提示されるべきである。ユーザが後方に頭を向けることができるが、任意の時点で限られた視界を知覚する人間の能力の性質により、任意の時点で、ユーザの視界は、通常、120度以下に制限される。
[0004] 360度の視野をサポートするために、見るために利用可能にされるべき360度シーンを生成するために画像が組み合わされるよう、360度シーンは、複数のカメラを使用して取り込まれる。
[0005] 360度視野は、通常のテレビや、時間の特定の点で表示されるべき画像を決定するために用いられる視野角を変更する機会をユーザが持たない多くの他の画像アプリケーションのために通常取り込まれ、エンコードされる単純な前方視野よりかなり多くの画像データを含むことを理解すべきである。
[0006] ストリーミングされているコンテンツに関連した、例えば、ネットワークデータ制約等の伝送制約があって、コンテンツを受信し、相互作用することを求めている全ての顧客に、フル高解像度映像で完全な360度視野をストリーミングすることは可能でないかもしれない。これは、特に、コンテンツが、3D視界効果を可能にするために、左と右眼の視野に対応するように意図された画像コンテンツを含む立体視コンテンツである場合である。
[0007] 上記説明の観点で、個々のユーザが、例えば、彼または彼女の頭を振り向くことによって、見る位置を変更し、環境の所望の部分を視ることを可能にするような方法で、コンテンツのストリーミング及び/または再生をサポートするための方法及び装置へのニーズがあることが理解されるべきである。ユーザは、帯域幅または他の配信関連の制約により適用し得るデータストリーミング制約内に留まりながら、彼/彼女の頭の位置を変え、結果、視野方向を変える選択肢を与えられたならば、望ましいであろう。全ての実施形態のために必要なわけではないが、異なる場所にいる複数のユーザが、同時にストリームを受信し、他のユーザによって見られている部分や複数の部分に拘わらず、彼らが望む環境のどんな個々の部分でも見ることを、少なくともいくつかの実施形態が可能にすることが望まれる。
[0008] 360度の視野領域に対応する映像または他のコンテンツの配信、例えば、ストリーミング、をサポートする方法及び装置が記載される。本発明の方法と装置は、特に、データ伝送制約が、360度のコンテンツの配信について、最大のサポート品質レベルで、例えば、最良の品質の符号化や最も高いサポートフレームレートを用いて、配信することを困難にするような立体視及び/または他の画像コンテンツのストリーミングのために良く適している。しかし、方法は、立体視コンテンツに限定されるものではない。
[0009] 様々な実施形態において、画像コンテンツが得られる環境の3D(3次元)モデル及び/または対応する3D情報が生成され、及び/または、アクセスされる。環境の中でのカメラ位置がドキュメント化される。複数の個々のカメラ位置が環境内に存在し得る。例えば、異なる最終目標カメラ位置と1つ以上の中間フィールドカメラの位置がサポートされ、リアルタイムのカメラ送りを取り込むために用いられ得る。
[00010] 3Dモデル及び/または他の3D情報は、1人以上のユーザに映像をストリーミングするために使用されるサーバまたは画像取り込み装置に記憶される。
[00011] 3Dモデルは、画像描画及び合成能力を有する、例えば、顧客宅内装置等のユーザ再生デバイスに提供される。顧客宅内装置は、例えば、ヘッドマウントディスプレイを介して、顧客宅内装置のユーザに表示される環境の3D表現を生成する。
[00012] 様々な実施形態において、完全な360度環境より少ないものが、任意の時点で、個々の顧客宅内機器にストリーミングされる。顧客宅内装置は、ユーザ入力に基づいて、どのカメラ送りがストリーミングされるべきかを示す。ユーザは、顧客宅内装置の一部であるか取り付けられている入力デバイスを介して、コート及び/またはカメラの位置を選択し得る。
[00013] いくつかの実施形態では、180度の映像ストリームは、例えば、ライブの、リアルタイムの、または、ほぼリアルタイムのストリーム等、コンテンツをストリーミングするために責任があるサーバ及び/または映像カメラから顧客の再生デバイスに伝送される。再生デバイスはユーザの頭の位置を監視し、従って、再生デバイスは、再生デバイスのユーザが再生デバイスにより生成されている3D環境内で見ている視野領域を知る。顧客宅内装置は、映像コンテンツがない状態において提示されるシミュレートされた3D環境を置き換える、または、その代替として表示される3D環境の部分のために利用可能である場合、映像を提示する。再生デバイスのユーザが彼または彼女の頭を振ると、ユーザに提示される環境の部分は、3Dモデルから合成的に生成された、及び/または、映像コンテンツとは異なるときに取り込まれた以前に供給された画像コンテンツである他の部分とともに、再生デバイスに供給された(例えば、ストリーミングされた)映像コンテンツからであってよい。
[00014] 従って、再生デバイスは、ゲーム、音楽コンサート、または、他のイベントが、例えば、正面の180度カメラ視野に対応して進行中である間、完全に合成的に、または、異なる回の環境の側部または後部領域の画像コンテンツからの何れかで生成される3D環境の後部及び/または側部とともに、例えば、ストリーミングを介して供給された、映像を表示し得る。
[00015] ユーザは、ストリーミングコンテンツを提供するサーバに位置の変化の信号を送ることによって、カメラの位置の間で選択をすることができるが、ストリーミングコンテンツを提供するサーバは、ストリーミングされていない3D環境の部分のための合成の環境を生成するのに有用な情報を提供し得る。
[00016] 例えば、いくつかの実施形態では、複数の後ろや側部の視野が、例えば、コンテンツの部分をストリーミングする以前、または、時間的に早い時点から、異なる回に取り込まれる。画像は、再生デバイスにバッファされる。コンテンツを提供するサーバは、リアルタイムでないシーンまたは画像のどの組が映像ストリームの中で供給されていない環境の部分の合成のために使用されるべきかを、再生デバイスに信号伝送できる、及び、いくつかの実施形態では信号伝送する。例えば、カメラ位置の後ろに座っているコンサート参加者の画像と立っている参加者の別の画像とが、再生デバイスに供給され、記憶され得る。サーバは、記憶された画像データのどの組が特定の時点で使用されるべきかを信号伝送できる。従って、観客が立っているとき、サーバは、立っている観客に対応する画像が画像合成の間に背景の180度視野のために用いられるべきであると信号伝送し得、他方、観客が座っているとき、サーバは、3Dカメラ環境の側部または後部を合成するときに、座っている観客に対応する画像または画像合成情報を用いるべきであることを、顧客宅内装置に示し得る。
[00017] 少なくともいくつかの実施形態において、3D環境における1つ以上の位置の各々におけるカメラの向きは、画像取り込みの間、追跡される。環境におけるマーカ及び/または識別する点は、顧客宅内装置によってシミュレートされるべき以前にモデル化された及び/またはマッピングされた3D環境への、例えば、ライブ画像等の取り込まれた画像の配列及び/またはその他のマッピングを容易にするために使用され得る。
[00018] 合成環境部分と現実(ストリーミングされた映像)の混合は、臨場感あふれる映像体験を提供する。環境は、映像が利用可能でないとき、例えば、環境が以前にモデル化されていない場合、環境をシミュレートするために使用される3D情報を生成するのに3D測光を用いて測定され、または、モデル化され得、時にはそうされる。
[00019] 決定された場所での現実空間における基準マーカの使用は、映像の以前に生成された3Dモデルとのキャリブレーションと位置合わせを助ける。
[00020] 各カメラの位置追跡は、映像が取り込まれながら実装される。会場に対するカメラの位置情報、例えば、それは、X、Y、Zと、度での偏揺角(それによって、各カメラが何処を指しているかを知る)をマッピングする。これは、取り込まれた画像が環境のどの部分に対応するかの簡単な検出を可能にし、取り込まれた映像とともに再生デバイスに通信される場合、我々の映像取り込みを、ユーザへの再生等の画像提示の間に再生デバイスによって生成される合成の環境で自動的にオーバーレイするような再生を可能にする。ストリーミングされたコンテンツは、カメラ位置の正面の領域の取り込まれた180度の視野等の360度より少ない視野に制限され得る。見る者が周りを見まわすと、見る者は、後ろを向いたときにシミュレートされた背景(黒い空虚ではない)を見、見る者は、正面を向いたときに映像を見る。
[00021] 合成環境は相互作用し得、いくつかの実施形態ではそうである。いくつかの実施形態では、異なる顧客宅内装置のユーザ等の複数の実際の見る者は、ユーザが仮想3D環境において彼/彼女の友達とゲームを視ることができ、ユーザが現実にスタジアムにいるようにみえるよう、シミュレートされた環境に含まれる。
[00022] ユーザの画像は、シミュレートされた環境を生成することにおける使用のために、顧客宅内装置に含まれた、または、取り付けられたカメラによって取り込まれ、サーバに供給され、グループのメンバ等の他のユーザに提供され得、いくつかの実施例ではそうされる。
[00023] 方法は、符号化し、リアルタイムで、または、ほぼリアルタイムでコンテンツをエンコードし、提供するために使用され得るが、このようなリアルタイム用途に限定されない。複数のユーザへのリアルタイムやほぼリアルタイムのエンコーディングとストリーミングをサポートする能力を与えられ、この中に記載された方法及び装置は、個々人がイベントを見て、ステージやフィールドを注視するだけでなく、振り向いて、スタジアムや観客等の環境を見ることを鑑賞することができることを好む、スポーツイベント、コンサート、及び/または、他の会場のシーンをストリーミングするために好適である。360度視野と3Dをサポートすることによって、本発明の方法と装置は、ユーザが環境中に居て、ユーザの頭部が左、右、または、後ろを向いたとした場合にあるように、向きを変えて、異なる視野角からシーンを注視する自由度をもった3D没入体験をユーザに提供することが意図されたヘッドマウントディスプレイとともに使用するために好適である。
[00024] 例えば、360度視界に対応したコンテンツ等の画像コンテンツを通信するための方法及び装置が記載される。様々な実施形態において、視界は、環境の異なる部分、例えば、前部、少なくとも1つの後ろの部分、頂部、及び、底部、に対応する。いくつかの実施形態において、環境の左と右の後部例えば、背部、は、別々に生成され、及び/または、通信される。再生デバイスは、ユーザの頭の位置を監視し、例えば、ユーザが所定の時間に見ている環境の部分に対応し、その時、ユーザに表示される立体視画像等の画像を生成する。立体視再生の場合には、別個の左と右の眼の画像が生成される。生成された画像は、例えば、環境の部分等の1つ以上のシーンに対応して行われ得、いくつかの実施態様では行われる。
[00025] 再生の起動時に、ユーザの前方を見る頭のレベル位置が、デフォルトとして、前方シーン部分に対応するように設定される。ユーザが彼/彼女の頭を回し、及び/または、彼または彼女の頭を上げるか下げるかずると、環境の他の部分がユーザの視界に入って来ることができる。
[00026] 多くの再生デバイスの帯域幅及び画像デコード機能は、装置の処理容量及び/または画像コンテンツを受信するための帯域幅によって制限される。いくつかの実施形態では、再生デバイスは、環境のどの部分がユーザの主たる視界に対応するかを決定する。そして、装置は、ストリームが、優先度の観点から、主要なストリームとして指定されて、例えば、フル解像度等の高いレートで受信されるべき当該部分を選択する。環境の他の部分に対応するコンテンツを提供する1つ以上の他のストリームからのコンテンツも受け取られ得るが、通常は、より低いデータレートである。特定のストリームのためのコンテンツ配信は、例えば、コンテンツ配信をトリガするために使用される信号を送ることにより、再生デバイスによって起動され得る。信号は、環境の部分に対応するコンテンツを提供する、または、切り替えられるデジタル放送の配信を開始するマルチキャストグループに参加するために使用され得る。マルチキャストグループ参加信号等の要求または他の信号を必要としない放送コンテンツの場合には、装置は、コンテンツが利用可能になっているチャネルに同調することによって受信を開始し得る。
[00027] コンテンツが、スポーツイベント、ロックコンサート、ファッションショー、または、いくつかの様々なイベントに対応する場合、前方視野部分は、主たるアクションが通常特に進行する場所であるので、ユーザが、通常、環境の前方視野部分に主たる関心をもっているとして、いくつかの実施形態では、環境の前方視野部分は、データ伝送優先度が与えられる。少なくともいくつかの実施形態では、前方視野部分に対応する画像は、360度環境の1つ以上の他の部分よりも高いレートでストリーミングされる。環境の他の部分に対応する画像は、より低いデータレートで送信されるか、または、静止画像として送られる。例えば、1つ以上の静的画像、例えば、空等の頂部、地面等の底部、が送信され得る。
[00028] いくつかの実施形態において、取り込まれた複数の静止画像が、後方視野部分または空部分等の環境の1つ以上の部分のために送信される。いくつかの実施形態では、制御情報が、環境の部分のために静止画像のどの1つが所与の時間に使用されるべきかを示して、送信される。環境の部分のための静止画像が送られる場合において、それらはエンコードされた形式で送られ、そして、他の画像内容との組み合わせで使用するためにデコードされた形式でメモリに記憶される。この方法では、イベントの間に必要とされるデコード用のリソースは、複数のストリームが同じフレームレートで並行してデコードされる必要がないので、低減され得る。静止画像は、メインイベントのコンテンツをストリーミングする前に送信されてもよい。代替的に、前方視野位置からユーザの頭の位置に変化があって、再生の間にそれらが必要となった場合に、いくつかの画像が環境の異なる部分のために送信され、記憶されてもよい。静止の、または、たまにしか変わらない画像は、前方視界方向等の主たるコンテンツを提供するコンテンツストリームの一部としてエンコードされ、送信されてもよく、または、別個のコンテンツストリームとして送られてもよい。
[00029] 環境の前方部分に対応するコンテンツは、例えば、リアルタイムで等、イベントが進行中の間に取り込まれ、ストリーミングされるコンテンツを含み得る、及び、多くの場合には含むが、後方に対応する静止画像は、イベントの前に取り込まれた画像であってよく、時には、そうである。
[00030] 例えば、2つの異なる後部視野シーンが通信され、再生デバイスに記憶される場合を考える。1つのシーンは立った位置である観客に対応し、他の画像は座った位置にある観客に対応し得る。ユーザが、環境の後ろ部分が可視となる位置に彼/彼女の頭を向けたとしたら、所与の時点で、座った、または、立った位置の観客画像が用いられるかどうかを、制御情報は示し得る、及び、いくつかの実施形態では示す。
[00031] 同様に、空の複数の画像が再生デバイスに通信され、エンコードされた、または、デコードされた形態で再生デバイスに記憶される。いくつかの実施形態では、空部分のどの画像が所与の時点で用いられるべきであるかは、制御情報において通信される。他の実施形態において、空のどのシーンが使用されるべきであるかは、例えば、明るい前方シーン領域が検出され、ほとんど雲のない明るい空の画像の選択を制御するために使用され得る等、選択されている前方環境シーン部分に一致するか近い空部分をもった前方シーン領域に対応する1つ以上の画像の輝度に基づいて自動的に決定される。同様に、いくつかの実施形態において、暗い前方環境領域空の検出は、暗い曇り空画像が使用される結果をもたらす。
[00032] 視界における環境の部分のための画像が利用可能でない場合には、シーンの部分が、例えば、利用可能である環境の他の部分からの情報やコンテンツから、合成され得る。例えば、後部画像部分が利用可能でない場合、前方シーン領域の左及び/または右側からのコンテンツが、環境の欠落している後ろ部分に代えて埋めるために、コピーされ、使用され得る。コンテンツの複製に加えて、ぼかし及び/または他の画像処理動作が、いくつかの実施形態において、環境の欠落部分に代えて埋めるために使用され得る。代替的に、いくつかの実施形態では、描画情報がコンテンツストリームにおいて提供され、再生デバイスは欠落部分のための完全な合成画像を生成する。ビデオゲームコンテンツと同様に、そのようなコンテンツは、本質的に現実味があり得、再生デバイスに記憶された描画及び/または他の画像生成ルールから生成される広範な画像効果及び/またはコンテンツを含み得る。
[00033] いくつかの実施形態による、再生システムを動作させる例示的な方法は、
見る者の頭の位置を決定することであって、頭の位置は現在の視界に対応することと、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取ることと、
第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツ、及び、i)環境の第2の部分に対応する記憶されたコンテンツ、または、ii)環境の第2の部分をシミュレートする合成画像、に基づいて、現在の視界に対応する1つ以上の出力画像を生成することと、
第1の出力画像を出力し、または、表示することであって、第1の出力画像は1つ以上の生成された出力画像の1つであることと、
を含む。
いくつかの実施形態による、例示のコンテンツ再生システムは:
見る者の頭の位置を決定するように構成された見る者の頭位置決定モジュールであって、頭の位置が現在の視界に対応することと、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取るように構成されたコンテンツストリーム受信モジュールと、
第1のコンテンツに含まれた少なくともいくつかのコンテンツ、及び、i)環境の第2の部分に対応する記憶されたコンテンツ、または、ii)環境の第2の部分をシミュレートする合成画像、に基づいて、現在の視界に対応する1つ以上の出力画像を生成するよう構成された出力画像コンテンツストリームベース生成モジュールと、
第1の出力画像を出力するよう構成された出力モジュール、または、第1の出力画像を表示するよう構成されたディスプレイモジュールの少なくとも一方と、
を含む。
見る者の頭の位置を決定することであって、頭の位置は現在の視界に対応することと、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取ることと、
第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツ、及び、i)環境の第2の部分に対応する記憶されたコンテンツ、または、ii)環境の第2の部分をシミュレートする合成画像、に基づいて、現在の視界に対応する1つ以上の出力画像を生成することと、
第1の出力画像を出力し、または、表示することであって、第1の出力画像は1つ以上の生成された出力画像の1つであることと、
を含む。
いくつかの実施形態による、例示のコンテンツ再生システムは:
見る者の頭の位置を決定するように構成された見る者の頭位置決定モジュールであって、頭の位置が現在の視界に対応することと、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取るように構成されたコンテンツストリーム受信モジュールと、
第1のコンテンツに含まれた少なくともいくつかのコンテンツ、及び、i)環境の第2の部分に対応する記憶されたコンテンツ、または、ii)環境の第2の部分をシミュレートする合成画像、に基づいて、現在の視界に対応する1つ以上の出力画像を生成するよう構成された出力画像コンテンツストリームベース生成モジュールと、
第1の出力画像を出力するよう構成された出力モジュール、または、第1の出力画像を表示するよう構成されたディスプレイモジュールの少なくとも一方と、
を含む。
[00034] 多くの変形及び実施形態が可能であり、以下の詳細な説明で検討される。
[00068] 図1は、本発明のいくつかの実施形態に従って実装される例示的なシステム100を示す。システム100は、顧客宅内に配置された生成装置/コンテンツプレーヤ等の1つ以上の顧客装置に、例えば、画像コンテンツ配信等のコンテンツ配信をサポートする。システム100は、例示の画像取り込みデバイス102、コンテンツ配信システム104、通信ネットワーク105、及び、複数の顧客宅内106、..、110含む。画像取り込みデバイス102は、立体視画像の取り込みをサポートする。画像取り込みデバイス102は、発明の態様に従って、画像コンテンツを取り込み、処理する。通信ネットワーク105は、例えば、光ファイバ−同軸ハイブリッド(hybrid fiber-coaxial:HFC)ネットワーク、衛星ネットワーク、及び/または、インターネットであってよい。
[00069] コンテンツ配信システム104は、エンコーディング装置112とコンテンツストリーミング装置/サーバ114を含む。エンコーディング装置112は、本発明に従って、画像データをエンコードするための1つまたは複数のエンコーダを含み得る、及び、いくつかの実施形態では含む。エンコーダは、シーンの異なる部分をエンコードするために、及び/または、異なるデータレートを有するエンコードされたバージョンを生成するようにシーンの所与の部分を符号化するために、並行に使用され得る。リアルタイム、または、ほぼリアルタイムのストリーミングがサポートされるべき場合、並行して複数のエンコーダを使用することは、特に有用である。
[00070] コンテンツストリーミング装置114は、例えば、通信ネットワーク105上を、1つ以上の顧客装置にエンコードされた画像コンテンツを配信するために、エンコードされたコンテンツを、例えば、送信する等、ストリーミングするように構成される。ネットワーク105を介して、コンテンツ配信システム104は、通信ネットワーク105を横断するリンク120によって図に示されているように、情報を送り、及び/または、顧客宅内106、110に設けられた装置と情報を交換することができる。
[00071] エンコーディング装置112とコンテンツ配信サーバ114は、図1の例において個別の物理的な装置として示されているが、いくつかの実施形態において、それらは、コンテンツをエンコードし、ストリーミングする単一の装置として実装される。エンコーディングプロセスは、3D画像視聴がサポートされ得るように、シーン部分の左と右の眼の視野に対応する情報がエンコードされ、エンコードされた画像データに含まれる3D、例えば、立体視の、画像エンコーディングプロセスであり得る。使用される特定のエンコーディング方法は、本出願に重要ではなく、広範囲のエンコーダが、エンコーディング装置112として、または、エンコーディング装置112を実装するために使用され得る。
[00072] 各顧客宅内106、110は、コンテンツストリーミング装置114によってストリーミングされた画像コンテンツをデコードし、再生/表示するために使用される、再生システム等の複数の装置/プレーヤを含み得る。顧客宅内1 106は、ディスプレイデバイス124に接続されたデコーディング機器/再生デバイス122を含み、他方、顧客宅内N 110は、ディスプレイデバイス128に接続されたデコーディング機器/再生デバイス126を含む。いくつかの実施形態では、ディスプレイデバイス124、128は、ヘッドマウント立体視ディスプレイデバイスである。いくつかの実施形態では、再生デバイス122/126とヘッドマウント装置124/128が、共に、再生システムを形成する。
[00073] 様々な実施形態において、デコーディング装置122、126は、対応するディスプレイデバイス124、128に画像コンテンツを提示する。デコーディング機器/プレーヤ122、126は、コンテンツ配信システム104から受け取られた画像をデコーディングし、デコードされたコンテンツを用いて画像を生成し、ディスプレイデバイス124、128上に、例えば、3D画像コンテンツ等の画像コンテンツを描画することができる装置であり得る。デコーディング機器/再生デバイス122、126の何れかは、図8に示されたデコーディング機器/再生デバイス800として使用さえ得る。図8及び図19に示された装置等のシステム/再生デバイスは6、デコーディング装置/再生デバイス122、126のいずれかとして使用されることができる。
[00074] 図2Aは、分割されているフル360度立体視シーン等の例示的な立体視シーン200を示す。立体視シーンは、単一の映像取り込みプラットフォームまたはカメラマウントに搭載された、例えば、映像カメラ等の複数のカメラから取り込まれる画像データを組み合わせた結果であり得、通常は結果である。
[00075] 図2Bは、シーンが、例えば、1つの例示的な実施形態に従って、正面180度部分、左後方90度部分、及び、右後方90度部分等の3つ(N=3)の例示的な部分に分割されている、例示的な立体視シーンの分割されたバージョン250を示す。
[00076] 図2Cは、1つの例示的な実施形態に従って、4つ(N=4)の部分に分割されている例示的な立体視シーン200の他の分割されたバージョン280を示す。
[00077] 図2Bと2Cは2つの例示的な分割を示すが、他の分割が可能であることが理解されるべきである。例えば、シーン200は、12個(N=12)の30度部分に分割され得る。1つのそのような実施形態では、各部分を個別にエンコードするよりもむしろ、複数の部分が一緒にグループ化され、グループとしてエンコードされる。部分の異なるグループは、符号化され、シーンの合計度数に関して同じである各グループのサイズをもつが、ユーザの頭の位置、例えば、0から360度のスケールで測定された視野角、に応じてストリーミングされ得る画像の異なる部分に対応して、エンコードされ、ユーザにストリーミングされ得る。
[00078] 図3は、1つの例示的な実施形態に従った、例示的な360度立体視シーンをエンコーディングする例示的なプロセスを示す。図3に示された方法300への入力は、例えば、シーンの360度視野を取り込むよう構成された複数のカメラによって取り込まれた360度立体視画像データを含む。例えば、立体視映像等の立体視画像データは、様々な既知の形式のいずれかであってもよく、ほとんどの実施形態では、3D体験を可能にするために用いられる左と右眼の画像データを含む。方法は、立体視映像のために特に適しているが、この中に記載された技術及び方法は、また、例えば、360度または小さいシーン領域の、2D(2次元)画像に適用され得る。
[00079] ステップ304において、シーンデータ302は、例えば、異なる視野方向に対応するN個のシーン領域等の異なるシーン領域に対応するデータに分割される。図2Bに示されたもの等の1つの実施形態において、360度シーン領域は、90度部分に対応する左後方部分、正面180度部分、右後方90度部分といった3つの分割に部分化される。異なる部分は、異なるカメラによって取り込まれていてもよいが、これは必須ではなく、実際には、360度シーンは、図2Bと図2Cに示されるようにN個のシーン領域に分割される前に、複数のカメラから取り込まれたデータから構成されてもよい。
[00080] ステップ306において、異なるシーン部分に対応するデータは、本発明に従ってエンコードされる。いくつかの実施形態では、各シーン部分は、各部分についての複数の可能なビットレートストリームをサポートするために、複数のエンコーダによって独立にエンコードされる。ステップ308において、エンコードされたシーン部分は、顧客の再生デバイスにストリーミングするために、例えば、コンテンツ配信システム104のコンテンツ配信サーバ114に、記憶される。
[00081] 図4は、例えば、シーンの180度正面部分等の入力画像部分が、同じ入力画像部分の異なるエンコードされたバージョンを生成するために、様々なエンコーダを用いて、どのようにエンコードされるかを示す例を示す図400である。
[00082] 図400に示されるように、例えば、シーンの180度正面部分である入力シーン部402は、エンコーディングのために複数のエンコーダに供給される。例では、異なる解像度をもち、画像コンテンツの異なるデータレートストリームをサポートするためにエンコードされたデータを生成するような異なるエンコーディング技術を用いる、入力データをエンコードするK個の異なるエンコーダがある。複数のK個のエンコーダは、高精細(high definition:HD)エンコーダ1 404、標準画質(standard definition:SD)エンコーダ2 406、低減されたフレームレートSDエンコーダ3 408、・・・、および、高圧縮の低減されたフレームレートSDエンコーダK 410を含む。
[00083] HDエンコーダ1 404は、高ビットレートHDエンコード画像412を生成するためにフル高解像度(HD)エンコーディングを実行するよう構成される。SDエンコーダ2 406は、入力画像のSDエンコードバージョン2 414を生成するために、低解像度の標準画質エンコーディングを実行するように構成される。低減されたフレームレートSDエンコーダ3 408は、入力画像の低減されたレートSDエンコードバージョン3 416を生成するために、低減されたフレームレートの低解像度SDエンコーディングを実行するように構成される。低減されたフレームレートは、例えば、エンコーディングのためにSDエンコーダ2 406によって使用されるフレームレートの半分であってよい。高圧縮の低減されたフレームレートSDエンコーダK 410は、入力画像の高度に圧縮された、低減されたレートSDを生成するために、高圧縮での低減されたフレームレート、低解像度SDエンコーディングを実行するように構成される。
[00084] 従って、データ圧縮のレベルも、単独で、または、1つ以上の所望のデータレートをもってシーン部分に対応するデータストリームを生成するために、空間的及び/または時間的な解像度の制御に加えて、使用され得るように、空間的及び/または時間的解像度の制御は、異なるデータレートのデータストリームと他のエンコーダ設定の制御を生成するために使用され得る。
[00085] 図5は、3つの例示的な部分に分割された入力立体視シーンの記憶されたエンコードされた部分500を示す。記憶されたエンコードされた部分は、例えば、メモリ内のデータ/情報として、コンテンツ配信システム104に記憶され得る。立体視シーンの記憶されたエンコードされた部分500は、エンコード部分の3つの異なる組を含み、各部分は異なるシーン領域に対応し、各組は、対応するシーン部分の複数の異なるエンコードされたバージョンを含む。各エンコードされたバージョンは、エンコードされた映像データのバージョンであり、従って、コード化されている複数のフレームを表す。映像であるエンコードされたバージョン510、512、516の各々は複数の時間期間に対応し、ストリーミング時に、再生されている時間期間に対応する、例えば、フレーム等の部分は、伝送目的のために使用されることが理解されるべきである。
[00086] 図4に関して図示及び上述されたように、例えば、正面、後方シーン部分等の各シーン部分は、同じシーンの部分のK個の異なるバージョンを生成するために、複数の異なるエンコーダを用いてエンコードされ得る。所与の入力シーンに対応する各エンコーダの出力は、組として共にグループ化され、記憶される。エンコードされたシーン部分502の第1の組は正面の180度シーン部分に対応し、正面180度のエンコードされたバージョン1 510、正面180度シーンのエンコードされたバージョン2 512、・・・、正面180度シーンのエンコードされたバージョンK 516を含む。エンコードされたシーン部分504の第2の組は、例えば、90度左後方部分等のシーン部分2に対応し、90度左後方シーン部分のエンコードされたバージョン1 520、90度左後方シーン部分のエンコードされたバージョン2 522、・・・、90度左後方シーン部分のエンコードされたバージョンK 526を含む。同様に、エンコードされたシーンの部分506の第3の組は、例えば、90度右後方シーン部分等のシーン部分3に対応し、90度右後方シーン部分のエンコードされたバージョン1 530、90度右後方シーン部分のエンコードされたバージョン2 532、・・・、90度右後方シーン部分のエンコードされたバージョンK 536を含む。
[00087] 360度シーンの様々な異なる記憶されたエンコーされた部分は、顧客再生デバイスに送るように、様々な異なるビットレートストリームを生成するために使用され得る。
[00088] 図6は、例示的な実施形態に従った、画像コンテンツを提供する例示的な方法のステップを示すフローチャート600である。フローチャート600の方法は、図1に示した取り込みシステムを用いて、いくつかの実施形態において実施される。
[00089] 方法は、例えば、配信システムが電源投入され、初期化されると、ステップ602で開始する。方法は、開始ステップ602からステップ604に進む。ステップ604において、例えば、システム104の中のサーバ114等、コンテンツ配信システム104は、例えば以前にエンコードされた番組への、または、ある場合には、例えば、イベントがまだ進行中である間等、リアルタイムまたはほぼリアルタイムでエンコードされ、ストリーミングされているライブイベントへの要求等、コンテンツの要求を受け取る。
[00090] 要求に応答して、ステップ606において、サーバ114は、配信のために利用可能なデータレートを決定する。データレートは、サポートされるデータレートを示す要求に含まれた情報から、及び/または、要求している装置にコンテンツを配信するために利用可能である最大帯域幅を示すネットワーク情報等の他の情報から、決定され得る。理解されるように、利用可能なデータレートは、ネットワーク負荷に応じて変化し、コンテンツがストリーミングされている時間期間中に変化し得る。変化は、ユーザ装置によって報告され得、または、ネットワークが使用されているデータレートをサポートする困難さを有していること、及び、現在利用可能なデータレートが使用のために利用可能であると決定された元のデータレートより低いことを示すことになる、パケットが欠落されるか所望の時間量を超えて遅延することを示すメッセージまたは信号から検出され得る。
[00091] 動作は、ステップ606からステップ608に進み、例えば、要求の時点での現在の頭の位置等のコンテンツへの要求が初期化されるユーザ装置の現在の頭の位置が0度位置であるようにされる。0度または前方を見ている位置は、いくつかの実施形態において、再初期化が起こるべきであることを再生デバイスが信号で知らせて、ユーザによって再初期化され得る。時間が経つにつれて、ユーザの頭の位置、及び/または、例えば元の頭の位置に対するユーザの頭部の位置の変化は、コンテンツ配信システム104に通知され、更新された位置がコンテンツ配信決定を行うために、以下に説明するように使用される。
[00092] 動作は、ステップ608から610に進み、要求されたコンテンツに対応する360度シーンの部分が、再生デバイスを初期化するために送られる。少なくともいくつかの実施形態では、初期化は、例えば、360度シーンがN個の部分に分割されているN個の部分等、シーンデータの360度フルの組を送ることを含む。
[00093] ステップ610における初期化の結果として、再生デバイスは、360度の可能な視野領域の異なる部分の各々に対応するシーンデータを有する。従って、再生デバイスのユーザが突然後方に向いた場合少なくともいくつかのデータは、ユーザが彼の頭を回す前に見ていた部分と同じに最新でない場合でも、ユーザに表示するために利用可能である。
[00094] 動作は、ステップ610からステップ612とステップ622に進む。ステップ622は、グローバル更新期間毎に少なくとも1回、360度シーン全体の更新されたバージョンを再生デバイスが受け取ることを確実にするために使用される、グローバルシーン更新経路に対応する。ステップ610で初期化されているとして、グローバルな更新プロセスは、所定時間期間の間の待機ステップ622において遅延される。そして、ステップ624で、360度のシーン更新が行われる。破線矢印613は、シーン部分が、ステップ622に対応する補助期間の間に再生デバイスに通信されていた情報の通信を表す。ステップ624において、360度シーン全体が送信され得る。しかし、いくつかの実施形態では、全てではない部分がステップ624において送信される。待機期間622の間に更新されるシーンの部分は、いくつかの実施形態において、それらが、ユーザの頭の位置に基づいてシーンの少なくともいくつかの部分を送る通常のストリーミングプロセス中に既にリフレッシュされているので、ステップ624において実行される更新から除かれる。
[00095] 動作は、ステップ624から待機ステップ622に戻り、待機が、次のグローバル更新の前に実行される。なお、ステップ622において使用される待機期間を調節することによって、異なるグローバルリフレッシュレートが使用され得ることが理解されるべきである。いくつかの実施形態では、コンテンツサーバは、提供されているシーンコンテンツの種類に基づいて、待機期間を、従って、グローバル基準期間を選択する。主なアクションが前方に面した領域にあり、リフレッシュのための理由の1つが屋外の照明条件の変化の可能性であるスポーツイベントの場合には、待機期間は、例えば、分または数分のオーダーで、比較的長くすることができる。アクションや観衆の行動が異なる曲が演じられる度に頻繁に変わり得るロックコンサートの場合において、ユーザは、振り向き、観衆のリアクションを見て、正面のステージ視野領域で進行中のことに加えて、観衆に起きていることの雰囲気を得たいので、グローバルリフレッシュレートはスポーツイベントのためよりも高くあり得る、いくつかの実施形態ではそうある。
[00096] いくつかの実施形態では、グローバル参照期間は、ストリーミングされるプレゼンテーションの部分の関数として変更される。例えば、スポーツイベントのゲーム部分の間、グローバルリフレッシュレートが比較的低いが、タッチダウン後のしばらくの間、または、イベントにおける人または再生デバイスを介してイベントを見ている人が前方の主たる領域から彼または彼女の頭の向きを変える可能性が高いタイムアウトまたは休憩の間は、グローバル基準レートは、ステップ622で使用される、例えば、リフレッシュ期間制御等の待機時間を減らすことによって、増加することができる。
[00097] グローバルリフレッシュプロセスがステップ622及び624を参照して説明されているが、シーンの部分の通常の供給が記載される。理解されるように、シーンまたはシーン部分の通常のリフレッシュは、サポートされている映像フレームレートで、データレートが可能にして、少なくとも一部について起こる。従って、少なくとも1つのフレーム部分について、例えば、彼または彼女の頭が向いていることを示されている部分は、利用可能なデータレートが十分であると想定すると、フル映像ストリーミングフレームレートで供給される。
[00098] ステップ612において、シーンの部分は、ユーザの、例えば、視野角度等の示された頭の位置に基づいて提供されるために選択される。選択された部分は、例えば、定期的なベースで、再生装置に、例えば、ストリーミングされる等、送信される。部分に対応するデータがストリーミングされるレートは、いくつかの実施形態において、映像フレームレートに依存する。例えば、少なくとも1つの選択された部分は、サポートされているフルフレームレートでストリーミングされる。少なくとも1つのシーン部分がステップ612で選択されるが、例えば、ユーザが面しているシーン部分並びに次に最も近いシーン部分等の複数のシーン部分が、通常、選択される。追加のシーン部分も選択され、利用可能なデータレートが複数のフレーム部分の通信をサポートするのに十分である場合に供給され得る。
[00099] ストリーミングされるべきシーン部分がステップ612で選択された後、動作はステップ614に進み、例えば、利用可能なデータレートやユーザの視野位置に基づいて、選択されたストリーム部分のエンコードバージョンが選択される。例えば、現在報告されている頭の部分によって示されるような、ユーザが面しているシーン部分のフルレート高解像度バージョンが、通常、ストリーミングされ得る。現在の頭の位置の左及び/または右への1つ以上のシーン部分は、現在見られていないシーンを送信するために必要とされる帯域幅の量を低減する、より低い解像度、より低い時間レート、または、他のエンコーディング手法を用いるとして、ストリーミングされるように選択され得る。隣接するシーン部分のエンコードバージョンの選択は、現在見られているシーン部分の高品質バージョンが送信された後にストリーミングする帯域幅の量に依存する。現在見られていないシーン部分が、より低い解像度のエンコードバージョンとして、または、フレーム間のより大きな時間的間隔をもったエンコードバージョンとして送られ得るが、フル解像度の高品質バージョンは、利用可能な十分な帯域幅がある場合、定期的に、または、頻繁に送られ得る。
[000100] ステップ616において、選択されたシーン部分の選択されたエンコードバージョンが、コンテンツを要求した再生デバイスに送られる。従って、ステップ616において、例えば、複数の連続したフレームに対応する立体視映像コンテンツ等の1つ以上の部分に対応するエンコードされたコンテンツが、再生デバイスにストリーミングされる。
[000101] 動作はステップ616からステップ618に進み、ユーザの現在の頭の位置を示す情報が受け取られる。この情報は、定期的に、及び/または、頭の位置の変化を検出することに応答して再生デバイスから送られ得る。頭の位置の変化に加えて、利用可能なデータレートの変化が、何のコンテンツがストリーミングされるかに影響し得る。動作は、ステップ618からステップ620に進み、再生デバイスへのコンテンツ配信のために使用することができる現在のデータレートの決定がなされる。従って、コンテンツ配信システムは、要求している装置へのストリーミングをサポートするために利用可能な帯域幅の量の変化を検出することができる。
[000102] 動作はステップ620からステップ612に進み、コンテンツが配信されきる、例えば、番組またはイベントの終了、まで、または、コンテンツを要求した再生デバイスから、セッションが終了されるべきであることを示す信号が受け取られるまで、または、再生デバイスがもはやコンテンツサーバ114との通信状態にないことを示す、頭の位置更新が検出される等の再生デバイスからの期待される信号を受けることに失敗するまで、ストリーミングが継続する。
[000103] 上述の方法で配信されたシーンデータから、再生デバイスは、ユーザが彼または彼女の頭を素早く回した場合に表示するために、それに利用可能な各シーン部分に対応する少なくともいくつかのデータを有する。ユーザが彼らの頭を非常に短い時間期間で完全に回すことは、これが多くの人にとって見る位置における不快な変化であるので、めったにないことが理解されるべきである。従って、フル360度シーンが常時送信されていないが、所与の時間に見られる可能性が最も高いシーン部分(または、複数の部分)の高品質バージョンがストリーミングされ、ユーザに利用可能にされる。
[000104] エンコーディングプロセスは、シーンのN個の部分が、各個々のユーザのために別々にコンテンツをエンコードする必要なく、異なるユーザに対して異なって送信され、処理されることを可能にするので、コンテンツ配信システム104は、多くの数の同時のユーザをサポートすることができる。従って、スポーツまたは他のイベントのリアルタイムまたはほぼリアルタイムのストリーミングを可能にするために、リアルタイムエンコーディングをサポートするように、いくつかの並列エンコーダが使用され得るが、使用されるエンコーダの数は、コンテンツがストリーミングされる再生デバイスの数よりもはるか少なくなる傾向がある。
[000105] コンテンツの部分は360度視野に対応する部分として記載されるが、シーンは、いくつかの実施形態では、また、垂直方向の次元を有する空間の平坦化バージョンを表し得る、及び、いくつかの実施形態では表すことが理解されるべきである。再生デバイスは、例えば、宇宙等の3D環境のモデルを使用してシーン部分をマッピングし、垂直方向の視野位置に合わせて調整することができる。従って、本願で検討されている360度は、ユーザが、彼の凝視レベルを保持しながら、彼の視野角を左または右に変えたかのように、水平に関する頭の位置をいう。
[000106] 図7は、本発明の態様に従って、コンテンツをエンコードし、ストリーミングするために使用され得るエンコード能力をもった例示的なコンテンツ配信システム700を示す。
[000107] システムは、本発明の態様に従って、エンコーディング、記憶、及び、送信、及び/または、コンテンツ出力を実行するために使用され得る。いくつかの実施形態では、システム700、または、その中の要素は、図6に示されたプロセスに対応する動作を実行する。コンテンツ配信システム700は、図1のシステム104として使用され得る。図7に示されたシステムはコンテンツのエンコーディング、処理、及び、ストリーミングのために使用されるが、システム700は、また、例えば、オペレータに、処理され及び/またはエンコードされた画像データを、デコードし、表示する機能を含み得ることが理解されるべきである。
[000108] システム700は、ディスプレイ702、入力デバイス704、入力/出力(I/O)インターフェース706、プロセッサ708、ネットワークインターフェース710、及び、メモリ712を含。システム700の様々なコンポーネントは、システム700のコンポーネント間でデータが通信されることを可能にするバス709を介して共に接続される。
[000109] メモリ712は、プロセッサ708によって実行されたとき、システム700を、本発明に従った、分割、エンコーディング、記憶、及び、ストリーミング/送信、及び/または、出力動作を実装するよう制御する、例えば、ルーチン等の様々なモジュールを含む。
[000110] メモリ712は、プロセッサ708によって実行されたとき、コンピュータシステム700を、本発明に従った、没入型立体視映像取り込み、エンコーディング、記憶、及び、送信及びまたは出力の方法を実装するよう制御する、例えば、ルーチン等の様々なモジュールを含む。メモリ712は、制御ルーチン714、分割モジュール716、エンコーダ(または、複数のエンコーダ)718、ストリーミング制御部720、例えば、シーンの360度立体視映像等の受け取られた入力画像732、エンコードされたシーン部分734、及び、タイミング情報736を含む。いくつかの実施形態において、モジュールは、ソフトウェアモジュールとして実装される。他の実施形態では、モジュールは、モジュールが対応する機能を実行する回路として各モジュールが実装される、例えば、個別の回路として等、ハードウェアで実装される。更に他の実施形態では、モジュールは、ソフトウェアとハードウェアの組み合わせを使用して実装される。
[000111] 制御ルーチン714は、システム700の動作を制御するために装置制御ルーチンと通信ルーチンを含む。分割モジュール716は、本発明の態様に従って、シーンの受け取られた立体視360度バージョンをN個のシーン部分に分割するように構成される。
[000112] エンコーダ(または、複数のエンコーダ)718は、本発明の態様に従って、例えば、シーンの360度バージョン及び/または1つ以上のシーン部分等の受け取られた画像コンテンツをエンコードするように構成された複数のエンコーダを含み得る、及び、いくつかの実施形態では含む。いくつかの実施形態において、エンコーダ(または、複数もエンコーダ)は、各々のエンコーダが、所与のビットレートストリームをサポートするために立体視シーン及び/または分割されたシーン部分をエンコードするように構成されている、複数のエンコーダを含む。従って、いくつかの実施形態において、各シーン部分は、各シーンについて複数の異なるビットレートストリームをサポートするために複数のエンコーダを用いてエンコードされ得る。エンコーダ(または、複数のエンコーダ)718の出力は、例えば、再生デバイス等の顧客装置へのストリーミングのためにメモリに記憶されるエンコードされたシーン部分734である。エンコードされたコンテンツは、ネットワークインターフェース710を介して1つ以上の異なる装置にストリーミングされ得る。
[000113] ストリーミング制御部720は、例えば、通信ネットワーク105上で、エンコードされた画像コンテンツを1つ以上の顧客装置に配信するためのエンコードされたコンテンツのストリーミングを制御するために構成される。様々な実施形態において、フローチャート600の様々なステップは、ストリーミング制御部720の様相によって実装される。ストリーミング制御部720は、要求処理モジュール722、データレート決定モジュール724、現在の頭の位置決定モジュール726、選択モジュール728、及び、ストリーミング制御モジュール730を含む。要求処理モジュール722は、顧客再生装置からの受け取られた画像コンテンツの要求を処理するように構成される。様々な実施形態において、コンテンツの要求は、ネットワークインターフェース710における受信器を介して受け取られる。いくつかの実施形態において、コンテンツの要求は、要求している再生デバイスの特定を示す情報を含む。いくつかの実施形態において、コンテンツの要求は、顧客再生デバイスによってサポートされるデータレート、例えば、ヘッドマウントディスプレイの位置等のユーザの現在の頭の位置を含み得る。要求処理モジュール722は、受け取られた要求を処理し、更なるアクションをとるために、ストリーミング制御部720の他の要素に受け取られた情報を提供する。コンテンツの要求は、データレート情報と現在の頭の位置情報を含み得るが、様々な実施形態において、再生デバイスによりサポートされるデータレートは、ネットワークテスト、及び、システム700と再生デバイスとの間の他のネットワーク情報交換から決定され得る。
[000114] データレート決定モジュール724は、顧客装置に画像コンテンツをストリーミングするよう構成され、例えば、複数のエンコードされたシーン部分がサポートされるので、コンテンツ配信システム700は、複数のデータレートで、コンテンツを顧客装置にストリーミングすることをサポートし得る。データレート決定モジュール724は、更に、システム700からのコンテンツを要求している再生デバイスによってサポートされるデータレートを決定するように構成される。いくつかの実施形態において、データレート決定モジュール724は、ネットワーク測定に基づいて、画像コンテンツの配信のための利用可能なデータレートを決定するように構成される。
[000115] 現在の頭の位置決定モジュール726は、再生デバイスから受け取られた情報から、例えば、ヘッドマウントディスプレイの位置等、ユーザの現在の視野角及び/または現在の頭の位置を決定するように構成される。いくつかの実施形態において、再生デバイスは、定期的に、現在の頭の位置情報をシステム700に送り、そこでは、現在の頭の位置決定モジュール726が、現在の視野角、及び/または、現在の頭の位置を決定するために、情報をadプロセス(ad processes)で受け取る。
[000116] 選択モジュール728は、ユーザの現在の視野角/頭の位置情報に基づいて、360度シーンのどの部分を再生デバイスにストリーミングするかを決定するように構成される。選択モジュール728は、更に、コンテンツのストリーミングをサポートするために利用可能なデータレートに基づいて、決定されたシーン分のエンコードバージョンを選択するように構成される。
[000117] ストリーミング制御部730は、本発明の態様に従って、様々なサポートされたデータレートで、例えば、360度立体視シーンの複数の部分等の画像コンテンツのストリーミングを制御するように構成される。いくつかの実施形態において、ストリーミング制御モジュール730は、再生装置におけるシーンメモリを初期化するために、コンテンツを要求している再生装置に360度立体視シーンのストリームのN部分を制御するように構成される。様々な実施形態において、ストリーミング制御モジュール730は、例えば、決定されたレート等で、定期的に、決定されたシーン部分の選択されたエンコードバージョンを送るように構成される。いくつかの実施形態では、ストリーミング制御モジュール730は、更に、例えば、毎分に1回等の時間間隔に応じて、再生装置に360度シーン更新を送るように構成される。いくつかの実施形態において、360度シーン更新を送ることは、フル360度立体視シーンのN個のシーン部分またはN−X個のシーン部分を送ることを含み、ここで、Nは、フル360度立体視シーンが分割されている総数であり、Xは、最近再生装置に送られた、選択されたシーン部分を表す。いくつかの実施形態において、ストリーミング制御モジュール730は、360度シーン更新を送る前に初期化のために最初にN個のシーン部分を送った後、所定の時間の間待機する。いくつかの実施形態において、360度シーン更新の送りを制御するためのタイミング情報は、タイミング情報736に含まれる。いくつかの実施形態において、ストリーミング制御モジュール730は、更に、リフレッシュ間隔中に再生デバイスに送信されていないシーン部分を特定し、リフレッシュ間隔中に再生デバイスに送信されなかった特定されたシーン部分の更新バージョンを送信するように構成される。
[000118] 様々な実施形態において、再生デバイスが、各リフレッシュ期間の間に少なくとも1度、前記シーンの260度バージョンをフルにリフレッシュすることを可能にするために、ストリーミング制御モジュール730は、定期的なベースで、再生デバイスにN個の部分の少なくとも十分な数を通信するように構成される。
[000119] 図8は、本発明に従って実装された再生システム800を示し、図1と7に示されたものように、コンテンツ配信システムから受け取られた画像コンテンツを、受け取り、デコードし、記憶し、表示するために使用され得る。システム800は、ディスプレイ802を含む単一の再生デバイス800’として、または、コンピュータシステム800に接続された、例えば、ヘッドマウントディスプレイ805等の外部ディスプレイ等の要素の組み合わせとして実装され得る。
[000120] 少なくともいくつかの実施形態において、再生システム800は、3Dヘッドマウントディスプレイ含む。ヘッドマウントディスプレイは、ヘッドマウントディスプレイ805を含み得る、OCULUS社のRIFT(商標)のVR(virtual reality)ヘッドセットを用いて実装され得る。他のヘッドマウントディスプレイも使用され得る。いくつかの実施形態では、ヘッドマウントヘルメットまたは他のヘッドマウントデバイスは、1つ以上のディスプレイスクリーンが、ユーザの左と右の眼にコンテンツを表示するために使用される。単一のスクリーン上で左と右の眼に異なる画像を表示することによって、単一のディスプレイが、見る者の左と右の眼によって別々に知覚される左と右の眼の画像を表示するために使用され得る。いくつかの実施形態において、セルフォンスクリーンは、ヘッドマウントディスプレイデバイスのディスプレイとして使用される。少なくともいくつかのそのような実施形態において、セルフォンは、ヘッドマウント装置に挿入され、セルフォンは、画像を表示するために使用される。
[000121] 再生システム800は、例えば、環境またはシーンの異なる部分に対応する左と右の眼の画像及び/またはモノ(単一の画像)等の受け取られたエンコード画像データをデコードし、例えば、3D画像としてユーザによって知覚される異なる左と右の眼の視野を描画し、表示することによって、顧客への表示のために3D画像コンテンツを生成する能力を有する。いくつかの実施形態において、再生システム800は、家庭やオフィス等の顧客宅内場所に配置されるが、同様に、画像取り込みサイトに配置されてもよい。システム800は、本発明に従って、信号受信、デコーディング、表示、及び/または、他の動作を実行することができる。
[000122] システム800は、ディスプレイ802、ディスプレイデバイスインターフェース803、入力デバイス804、入力/出力(I/O)インターフェース806、プロセッサ808、ネットワークインターフェース810、及び、メモリ812を含む。システム800の様々なコンポーネントは、データがシステム800のコンポーネント間で通信されることを可能にするバス809を介して、及び/または、他の接続によって、または、無線インターフェースを介して、共に接続される。いくつかの実施形態において、ディスプレイ802は、破線の枠を用いて図示されているように、オプションとしての要素として含まれるが、いくつかの実施形態では、例えば、ヘッドマウント立体視ディスプレイデバイス等の外部ディスプレイデバイス805が、ディスプレイデバイスインターフェース803を介して再生デバイスに接続され得る。
[000123] 例えば、セルフォンプロセッサがプロセッサ808として使用され、セルフォンがヘッドマウントにおいて画像を生成し、表示する場合に、システムは、ヘッドマウント装置の部分として、プロセッサ808、ディスプレイ802、及び、メモリ812を含み得る。プロセッサ808、ディスプレイ802、及び、メモリ812は、全て、セルフォンの部分であってよい。システム800の他の実施形態において、プロセッサ808は、ディスプレイ805がヘッドマウント装置に搭載され、ゲームシステムに接続されている、XBOX、または、PS4等のゲームシステムの部分であってよい。プロセッサ808またはメモリ812が、頭部に装着される装置に設けられるか否かは重要なことではなく、理解され得るように、いくつかの場合において、ヘッドギアにプロセッサを共に設けることは便利かもしれないが、少なくともいくつかの場合には、電力、熱、及び、重量の観点から、ディスプレイを含むヘッドギアにプロセッサ808とメモリ812を接続されるようにすることが望ましくあり得る。
[000124] 様々な実施形態がヘッドマウントディスプレイ805または802を想定しているが、方法および装置は、また、3D画像をサポートすることができるヘッドマウントでないディスプレイで使用され得る。従って、多くの実施形態において、システム800はヘッドマウントディスプレイを含むが、それは、また、ヘッドマウントでないディスプレイを用いて実装され得る。
[000125] メモリ812は、プロセッサ808によって実行されたとき、再生デバイス800を、本発明に従ったデコーディングと出力動作を実行するように制御する、例えば、ルーチン等の様々なモジュールを含む。メモリ812は、制御ルーチン814、コンテンツの要求生成モジュール816、頭の位置及び/または視野角決定モジュール818、デコーダモジュール820、3D画像生成モジュールとも呼ばれる立体視画像描画モジュール822、受け取られたエンコードされた画像コンテンツ824を含むデータ/情報、デコードされた画像コンテンツ826、360度のデコードされたシーンバッファ828、及び、生成された立体視コンテンツ830を含む。
[000126] 制御ルーチン814は、デバイス800の動作を制御するために、制御ルーチンと通信ルーチンを含む。要求生成モジュール816は、コンテンツを提供するためのコンテンツ配信システムに送るために、コンテンツ要求を生成するように構成される。様々な実施形態において、コンテンツの要求は、ネットワークインターフェース810を介して送られる。頭の位置及び/または視野角決定モジュール818は、例えば、ヘッドマウントディスプレイの位置等のユーザの現在の視野角及び/または現在の頭の位置を決定し、決定された位置及び/または視野角情報をコンテンツ配信システム700に報告するよう構成される。いくつかの実施形態では、再生デバイス800は、定期的に、現在の頭の位置情報をシステム700に送る。
[000127] デコーダモジュール820は、デコードされた画像データ826を生成するために、エンコードされた画像コンテンツ824をデコードするよう構成される。デコードされた画像データ826は、デコードされた立体視シーン及び/またはデコードされたシーン部分を含み得る。
[000128] 3D画像描画モジュール822は、ディスプレイ802及び/またはディスプレイデバイス805上でのユーザへの表示のために、例えば、デコードされた画像コンテンツ826を使用して、本発明の態様に従って、3D画像として知覚される方法で表示される、例えば、左と右の眼の画像といった3D画像を生成する。生成された立体視画像コンテンツ830は、3D画像生成モジュール822の出力である。従って、描画モジュール822は、ディスプレイに3D画像コンテンツ830を描画する。いくつかの実施形態において、ディスプレイデバイス805は、Oculus社のRift等の3Dディスプレイ機器の部分であってよい。再生デバイス800のオペレータは、入力デバイス804を介して1つ以上のパラメータを制御し、及び/または、例えば、3Dシーンを表示するために選択する等、実行されるべき動作を選択し得る。
[000129] 図9は、3つの異なる搭載位置に搭載された3つのカメラペア902、904、906を有した、時にはカメラリグまたはカメラアレイと呼ばれる例示的なカメラアセンブリ900と、カメラアセンブリ900を較正するために使用され得る較正ターゲット915とを示す図を表す。カメラのリグ900は、本発明のいくつかの実施形態に従って、画像コンテンツを取り込むために使用される。いくつかの実施形態において、カメラリグ900は、図1の画像取り込みデバイス102として用いられる。カメラリグ900は、示された位置にカメラ、立体視カメラ(901、903)、(905、907)、(909、911)の3つのペア902、904、906で合計6台のカメラ、を保持する支持構造(図11に示される)を含む。支持構造は、カメラを支持し、カメラが搭載されるプレートが固定され得る搭載板(図11に示された要素1120を参照)とこの中で呼ばれる基部1120を含む。支持構造は、プラスチック、金属、または、グラファイト若しくはガラス繊維等の複合材料で作られ得、カメラ間の間隔との関係を示すためにも使用される三角形を形成する線によって表される。点線が交差する中心点は、いくつかであるが、必ずしも全てではない実施形態において、カメラペア902、904、906が回転し得る中心節点を表す。いくつかの実施形態において、中心結節点は、三角形の線によって表されたカメラ支持フレーム912が回転する中心となる、例えば、三脚基部の、スチールロッドまたはネジ切りされた中央マウントに対応する。支持フレームは、その中にカメラが搭載されるプラスチック筐体、または、三脚構造であってよい。
[000130] 図9において、カメラの各ペア902、904、906は、異なるカメラペア位置に対応する。第1のカメラペア902は、正面に向いた位置に対して前方0度に対応する。この位置は、例えば、スポーツゲームがプレイされているフィールド、ステージ、または、主なアクションが起こる可能性があるいくつかの他の領域等の主たる関心のシーン領域に通常対応する。第2のカメラペア904は、120度のカメラ位置に対応し、右後方視野領域を取り込むために使用される。第3のカメラペア906は、240度位置(0度位置に対して)で、左後方視野領域に対応する。3つのカメラ位置が120度離れていることを注記する。各カメラ視野位置は、図9において1つのカメラペアを含み、各カメラペアは、画像を取り込むために使用される左カメラと右カメラを含む。左カメラは、時に左眼画像と呼ばれるものを取り込み、右カメラは、時に右眼画像と呼ばれるものを取り込む。画像はビューシーケンスの部分であるか、1回以上取り込まれた静止画像であってよい。通常、カメラペア902に対応する少なくとも正面カメラ位置は、高品質映像カメラで定着される。他のカメラ位置は、高品質のビデオカメラでも、低画質映像カメラでも、静止またはモノ画像を取り込むために使用される単一のカメラで定着されてもよい。いくつかの実施形態において、第2及び第3のカメラ実施形態は未定着のまま残され、第1のカメラペア902が3つのカメラ位置に対応するが、異なる回に画像を取り込むことを可能にして、カメラが搭載された支持板が回転される。いくつかのそのような実施形態では、左と右後方の画像は、以前に取り込まれて記憶され、その後、前方カメラ位置の映像がイベント中に取り込まれる。取り込まれた画像は、1つ以上の再生デバイスに、例えば、イベントがまだ進行中の間、リアルタイムでエンコードされ、ストリーミングされ得る。
[000131] 図9に示された第1のカメラペアは、左カメラ901と右カメラ903とを含む。左カメラ901は、第1のカメラに固定された第1のレンズアセンブリ920を有し、右カメラ903は、右カメラ903に固定された第2のレンズアセンブリ920を有する。レンズアセンブリ920、920’は、広角視界が取り込まれることを可能にするレンズを含む。いくつかの実施形態では、各レンズアセンブリ920、920’は、魚眼レンズを含む。従って、カメラ902、903の各々は、180度視界または約180度を取り込み得る。いくつかの実施形態では、180度より少ないものが取り込まれるが、いくつかの実施形態では、隣接するカメラペアから取り込まれた画像中で少なくとも幾分かの重複が依然として存在する。図9の実施形態において、カメラペアは、第1(0度)の、第2(120度)の、第3(240度)のカメラ搭載位置の各々に設けられ、各ペアは環境の少なくとも120度またはそれ以上を取り込むが、多くの場合には、各カメラペアは、環境の180度またはほぼ180度を取り込む。
[000132] 第2 904、及び、第3 906のカメラペアは、第1のカメラペア902と同じまたは類似であるが、正面の0度位置に対して120と240度のカメラ搭載位置に設けられる。第2のカメラペア904は、左カメラ905と左レンズアセンブリ922と右カメラ907と右カメラレンズアセンブリ922’を含む。第3のカメラペア906は、左カメラ909と左レンズアセンブリ924と右カメラ911と右カメラレンズアセンブリ924’とを含む。
[000133] 図9において、Dは、カメラ901、903の第1の立体視ペアの軸間距離を表す。図9の例では、Dは、平均的な人の左と右の眼の瞳孔間の距離と同じであるか、同等である117mm(ミリメートル)である。図9における破線950は、パノラマアレイの中心点から右カメラレンズ920’の入射瞳までの距離(別名、節オフセット(nodal offset))を示す。図9の例に対応する一実施形態では、参照番号950によって示される距離は315mm(ミリメートル)であるが、他の距離も可能である。
[000134] 1つの特定の実施形態では、カメラリグ900のフットプリント(footprint)は、640mm2(平方ミリメートル)またはそれより小さい水平領域であって、比較的小さい。このような小さなサイズは、例えば、ファンや観客が通常居るか位置される着座位置において等、カメラリグが観客の中に設置されることを可能にする。従って、いくつかの実施形態では、見る者が、そのような効果が望まれる観客の一員であるとの感覚をもつことを可能にして、カメラリグは観客エリアに設置される。いくつかの実施形態でのフットプリントは、いくつかの実施形態においてセンター支持ロッドを含む支持構造が搭載され、または、支持タワーが設けられる基部のサイズに対応する。理解されるように、いくつかの実施形態におけるカメラリグは、カメラの3つのペアの間の中心点に対応する基部の中心点の周りに回転し得る。他の実施形態では、カメラは固定されており、カメラアレイの中心の周りを回転しない。
[000135] カメラリグは比較的近いだけでなく、明瞭な被写体を取り込むことが可能である。1つの特定の実施形態において、カメラアレイの最小撮像距離は649mm(ミリメートル)であるが、他の距離も可能であり、この距離は何ら重要ではない。
[000136] カメラアセンブリの中心から第1と第3のカメラ部品の視野の交点951までの距離は、第1と第2のカメラペアによって取り込まれた画像を較正するために使用され得る例示的な較正距離を表す。ターゲット915は、最大歪みの領域に、または、それをわずかに越えて設けられたカメラペアからの既知の距離に置かれ得ることを注記する。較正ターゲットは、既知の固定された較正パターンを含む。較正ターゲットは、カメラペアのカメラによって取り込まれる画像のサイズを較正するために使用され得、使用される。そのような較正は、較正ターゲットの大きさと位置が較正ターゲット915の画像を取り込むカメラに対して既知であるので、可能である。
[000137] 図10は、図9に示されたカメラアレイのより詳細な図1000である。カメラリグは、再び、6台のカメラとともに示されているが、いくつかの実施形態では、カメラリグは、例えば、カメラペア902等、2つのみのカメラで定着される。示されているように、カメラペア搭載位置の各々の間に120度の分離がある。第1のカメラ搭載位置が0度に対応し、第2のカメラ搭載位置が120度に対応し、第3のカメラ搭載位置が240度に対応する場合のように、例えば、各カメラペアの間の中心がカメラ搭載位置の方向に対応するかを考える。従って、各カメラ搭載位置は、120度だけ分離される。これは、各カメラペア902、904、906の中心を通って延びる中心線が延長されたように見られ得、線間の角度が測定される。
[000138] 図10の例では、カメラのペア902、904、906は、カメラリグ基部の位置を変更する必要なく、異なる視野が異なる回に取り込まれることを可能にして、カメラリグの中心点の周りを回転し得る、及び、いくつかの実施形態では回転する。即ち、カメラがリグの中心支持部の周りを回転され、それが2つのみのカメラで定着されるが、図10に示されたリグを用いて360度シーン取り込みを可能にすべく、異なる回に異なるシーンを取り込むことを可能にされ得る。そのような構成は、立体視カメラのコストを考慮したコストの観点から特に好ましく、同じ視点からであるが、スポーツイベントまたは他のイベントの間の主たるアクションを含む正面シーンが起こり得る時点とは異なる時点で取り込まれる背景を示すことが望まれ得る多くの用途に適している。例えば、イベントの間に、主たるイベントの間に示されないことが好ましいカメラの後ろに被写体が置かれ得ることを考える。そのようなシナリオでは、後方画像は主たるイベントの前に取り込まれ得、時には取り込まれ、画像データの360度の組を提供するために、主たるイベントのリアルタイムで取り込まれた画像データと共に利用可能にされる。
[000139] 図11は、1つの例示的な実施形態に従って実装される例示的なカメラリグ1100の詳細図を示す。図11から理解され得るように、カメラリグ1100は、いくつかだが全てではない実施形態において立体視カメラである3つのカメラのペア1102、1104、及び、1106を含む。各カメラペアは、いくつかの実施形態において、2つのカメラを含む。カメラペア1102、1104、及び、1106は、図9−10について上述されたカメラペア902、904、906と同じまたは類似である。いくつかの実施形態では、カメラペア1102、1104、及び、1106がカメラリグ1100の支持構造1120上に搭載される。いくつかの実施形態では、カメラの3ペア(6台のカメラ)1102、1104、及び、1106が、それぞれのカメラペア搭載板を介して支持構造1120上に搭載される。支持構造1120は、立体視カメラペアを搭載するために3つの搭載位置を含み、各搭載位置は異なる120度視野領域に対応する。図11の図示された実施形態では、立体視カメラの第1のペア1102が、3つの搭載位置の第1の位置、例えば、正面位置に搭載され、120度の正面視野領域に対応する。立体視カメラの第2のペア1104は3つの搭載位置の第2の搭載位置、例えば、正面位置に対して時計回りに120度回った背景位置、に搭載され、異なる120度の視野領域に対応する。立体視カメラの第3のペア1106は3つの搭載位置の第3の搭載位置、例えば、正面位置に対して240度時計回りに回った背景位置に搭載され、他の120度視野領域に対応する。カメラリグ1100の3つのカメラ搭載位置は、互いに対して120度だけオフセットされているが、いくつかの実施形態では、カメラリグに搭載された各カメラは、周囲180度の視界を有する。いくつかの実施形態では、この拡張された視界は、カメラ装置において魚眼レンズを使用することによって達成される。
[000140] 搭載板の全てが、示されている図において見えている訳ではないが、カメラペア1102を搭載するために使用されるカメラ搭載板1110が示される。カメラのための搭載板は、ねじが支持基部1120におけるスロットを通って底部から搭載板におけるねじ切りされた穴に抜けるように、スロットを有する。これは、該ペアのための搭載板が、底部からアクセス可能なねじを緩め、カメラペア搭載板を支持構造に固定するためにねじを締めることによって調整されることを可能にする。個々のカメラ位置は、同様に調整され、そして、調整の後に固定される。いくつかの実施形態において、個々のカメラは、上部から搭載板に調整/固定され得、カメラ搭載板は、底部から調整/固定され得る。
[000141] 様々な実施形態において、カメラリグ1100は、支持構造1120が回転可能に搭載される基部1122を含む。従って、様々な実施形態において、支持構造1120上のカメラアセンブリは、基部の中心を通る軸の周りを360度回転され得る。いくつかの実施形態では、基部1122は、三脚または他の搭載装置の部分であってよい。支持構造は、プラスチック、金属、または、グラファイト若しくはガラス繊維等の複合材料からできている。カメラペアは、いくつかの実施形態において、時に中心節点と呼ばれることもある、中心点の周りに回転され得る。
[000142] 上記要素に加えて、いくつかの実施形態では、カメラリグ1100は、更に、2つのシミュレートされた耳1130、1132を含む。これらのシミュレートされた耳1130、1132は、人間の耳の形状に成形されたシリコンからできている。シミュレートされた耳1130、1132は、平均的な人の人間の耳の間の間隔に等しいか、ほぼ等しい距離だけ互いに離されている2つの耳をもったマイクロフォンを含む。シミュレートされた耳1130、1132に搭載されたマイクロフォンは正面を向いているカメラペア1102上に搭載されているが、代わりに、例えば、プラットフォーム120等の支持構造上に搭載されることもできる。シミュレートされた耳1130、1132は、人の耳が人の頭の眼の前面に垂直に位置しているのと同様に、カメラペア1102の前面に垂直に位置付けられる。シミュレートされた耳1130、1132の側面の穴は、シミュレートされた耳の側部の音響の入り口として機能し、シミュレートされた耳と穴は、人の耳が人の耳に含まれた鼓膜に音響を向けるように、シミュレートされた耳の各1つに搭載されたマイクロフォンの方に音響を向けるように組み合わせで機能する。左と右のシミュレートされた耳1130、1132におけるマイクロフォンは、カメラリグの位置に設けられるならば、カメラリグ1100の場所にいる人が人の左右の耳を介して知覚するものと同様のステレオ音響取り込みを提供する。
[000143] 図11は3つの立体視カメラペアを有する例示的なカメラリグ1100の一構成を示しているが、他の変形が可能であり、範囲内にあることが理解されるべきである。例えば、1つの実装例では、カメラリグ1100は、例えば、カメラリグの中心点の周りを回転することができる立体視カメラの1つのペアが、360度シーンの異なる部分が異なる回に取り込まれることを可能にする等、単一のカメラペアを含む。従って、単一のカメラペアは、支持構造上に搭載され、リグの中心支持部の周りを回転され、360度シーン取り込みを可能にして、異なる回に異なるシーンを取り込むことを可能にされ得る。
[000144] 図12は、360度シーンの異なる部分を取り込む、それぞれのカメラの異なるカメラ位置に対応する異なる視野領域/部分に分割され得る、例えば、360度シーン領域等の例示的な360度シーン環境1200を示す。図示された例において、360度シーン領域1200は、例えば、カメラリグ1100上に搭載され、図9、10、及び、11に示されたように位置付けられたカメラ等の3つの異なるカメラ/カメラペアによって取り込まれる3つの180度ゾーンに対応する3つの部分に分割される。360度シーン1200上の0度マークは、シーンの中央であると考えられ得る。魚眼レンズが使用されないいくつかの実施形態において、各カメラの視界は約120度であり、結果、カメラがほぼ120度のシーン領域を取り込むことを可能にする。そのような実施形態では、異なる120度シーン部分の境界は、360度シーンが各々120度の3つの部分の分割である黒の実線を使用して、図に示される。カメラが魚眼レンズで装着される実施形態において、各カメラの視界は約180度(+5度)に広がり、従って、カメラが、ほぼ180度(+5度)シーン領域を取り込むことを可能にする。
[000145] 0度マークの左右90度をカバーする第1のゾーン(270度から90度までの180度正面シーン領域に対応)は、例えば、カメラがほぼ180度の視界をもつことを可能にする魚眼レンズを装着されて、正面シーン領域を取り込むよう位置決めされたカメラペア1102等の第1のカメラによって取り込まれ得る。第2のゾーン(ゾーン2)は、例えば、魚眼レンズが装着されて、後方右側シーン領域を取り込むよう位置付けられたカメラペア1104等の第2のカメラによって取り込まれ得る、30度から210度までの180度後方右側シーン領域に対応し、第3のゾーン(ゾーン3)は、例えば、魚眼レンズが装着され、後方左側シーン領域を取り込むよう位置決めされたカメラペア1106等の第3のカメラによって取り込まれ得る、150度から330度までの180度後方左側シーン領域に対応する。凡例1250は、例えば、異なるゾーン下でカバーされるシーン領域の開始と終了をマーキングする、異なるゾーン境界を示すために使用される異なるラインパターンを特定する情報を含む。異なるカメラによってカバーされる3つの異なるゾーン下のシーン領域の間に実質的な重複があることが、図から理解され得る。図12の図示された例では、ゾーン1とゾーン2との間の重なりは60度、即ち、30度から90度下のシーン領域であり、ゾーン2とゾーン3との間の重なりは再び60度、即ち、150度から210度下のシーン領域であり、ゾーン3とゾーン1との間の重なりは60度、即ち、270度から330度下のシーン領域である。図示された例では、重なりは60度であるが、異なった多様な重複が可能であることが理解されるべきである。いくつかの実施形態では、2つの異なるシーンカバレッジ領域間の重なりは、30度から60度の間である。
[000146] いくつかの実施形態では、コンテンツプロバイダは、異なるカメラによって取り込まれた360度シーン領域の異なる部分に対応するコンテンツを含むコンテンツストリームを発行、例えば、マルチキャスト、する。いくつかの実施形態では、異なってエンコードされている、異なるシーン領域に対応するコンテンツの複数のバージョンは、コンテンツプロバイダによってマルチキャストされ、特定のバージョンをサポートする及び/または好む再生デバイスは、デコードし、再生するために、好適なコンテンツストリームを選択し得る。いくつかの実施形態の1つの態様によれば、再生デバイスは、ユーザの現在の視界を示す現在の頭の位置を追跡し、再生における使用のために受け取るために、360度シーン領域の一部に対応するコンテンツを含む利用可能なコンテンツストリームのどの1つ以上を選択するかを決定する。例えば、ユーザの頭の位置が、ユーザがまっすぐ前方を見ている/眺めている場合、再生デバイスは、360度シーンの180度前方部分を通信しているストリームをデコードするが、ユーザの頭の位置と視野角が変わった時、再生デバイスは、例えば、360度シーン領域の後方右側、後方左側、後方等のユーザの現在の視野角に適応するシーン部分に対応するストリームをデコードする。いくつかの実施形態では、例えば、正面180度等の360度シーン領域の第1の部分に対応するコンテンツを含むストリームは、360度シーンの正面部分を取り込むために使用された正面を向くカメラペアの左右のカメラによって取り込まれたシーン領域を含む。
[000147] 図13は、例示的な360度シーン領域の視野領域/部分をカバーするために位置付けられ得る、例えば、例示的なカメラリグ1100上で、異なるカメラによって取り込まれ得る図12の例示的な360度シーン領域の異なる部分を示す例を図示する。図13の例は、例示的な360度シーン領域の異なる部分を示す図1300、1320、及び、1350を含む。しかし、図から理解され得るように、いくつかの実施形態において、異なるカメラによって取り込まれたシーンの異なる部分の各々の少なくとも部分が重複する。異なる網掛けパターンが、異なるカメラ位置に対応するシーン領域の部分を示すために、図1300、1320、1350の各々において使用されている。いくつかの実施形態では、図1300、1320、1350に示される異なるシーン部分は、異なる視野方向に対応するコンテンツを提供する異なるコンテンツストリームを介して通信される。図13の例では、シーン部分が約180度の視野領域をカバーするように示されているが、いくつかの実施形態では、シーン部分は、120度から180度までの間をカバーしてよい。
[000148] 図1300は、360度シーン1200の第1の例示的なシーン部分1305を示す。第1の例示的なシーン部分1305は、正面視野方向に対応し、360度シーン環境の内の180度またはほぼ180度の視野領域をカバーする。第1のシーン部分1305は、0度のカメラ位置に位置付けられた、例えば、第1のカメラペア902または1102によって捕えられ得る。第1の例示のシーンの部分1305下の領域は、斜線パターンを使用して図1300に示される。第1の例示のシーン部分1305は、例えば、正面の視野方向に対応するコンテンツのフレームを通信する第1のストリームによって通信され得る。
[000149] 図1320は、360度シーン1200の第2の例示的なシーン部分1307(図1320に示された部分1307’と1307’’を含む)を示す。第2の例示的なシーン部分1307は、後方右側視野方向に対応し、30度から210度まで広がる、360度シーン環境の内の180度またはほぼ180度視野領域をカバーする。第2のシーンの部分1307は、図9−10において示されたような120度カメラ位置に位置付けられた、例えば、第2のカメラペア904によって、取り込まれ得る。第2の例示のシーン部分下の領域1307は、水平線パターンを使用して、図1300に示される。図1300と1320とを考慮する。第1と第2のシーン部分1305と1307の間のシーン領域の重なり部分1308を注記する。重なり部分1308は、シーン領域1200の第1と第2のシーン部分1305、1307の両方に共通である、取り込まれたシーン領域の部分を示す。いくつかの実施形態において、第1及び第2のシーン部分1305、1307間の重なりは、プラス、マイナス2−3度の変位をもって、30度と60度の間である。図13の図示された例では、重なり部分1308は、例えば、30度から90度の領域等、60度である。従って、いくつかの実施形態において、異なるコンテンツストリームによって提供された、及び/または、異なるカメラによって取り込まれた異なる視野方向に対応するシーン領域の少なくとも部分は、重なる。いくつかの他の実施形態では、異なるカメラによって取り込まれる異なる視野方向に対応するシーン領域の間に重複は存在しない。いくつかの実施形態では、第2の例示的なシーン部分1307は、第2の視野方向に対応するコンテンツのフレームを通信する第2のストリームによって通信され得る。
[000150] 図1350は、360度シーン1200の第3の例示的なシーン部分1309(図1350に示された部分1309’と1309’’を含む)を示す。第3の例示的なシーン部分1309は、後方左側視野方向に対応し、150度から330度まで広がる、360度シーン環境の内の180度またはほぼ180度視野領域をカバーする。第3のシーン部分1309は、図9−10に示されたような240度カメラ位置に位置付けられた、例えば、第3のカメラペア906等によって取り込まれ得る。第3の例示的なシーン部分1309下の領域は、縦線パターンを使用して、図1300に示される。図1320と1350を考慮する。第2と第3のシーン部分1307と1309間の重複領域部分を組み合わせて構成する、重複部分1310、1310’を注記する。重複部分1310、1310’下の合同した領域は、シーン領域1200の第2と第3のシーン部分1307、1309の両方に共通である、取り込まれたシーン領域の部分を示す。いくつかの実施形態において、第2と第3のシーン部分1307、1309の間の重なりは、プラス、マイナス2−3度の変位をもって、30度から60度の間である。図13の図示された例では、重なり部分1310、1310’は、共に、例えば、150度から210度までの領域等、約60度カバーを含む。ここで、更に、図1300と1350を考慮する。第1と第3のシーン部分1305と1309の間の重複領域部分を示す、重なり部分1312を注記する。いくつかの実施形態において、第3の例示的なシーン部分1309は、第3の視野方向に対応するコンテンツのフレームを通信する第3のストリームによって通信される。
[000151] 図は、本発明のいくつかの態様を理解することを容易にするための例を図示する図13の例の部分として示しているが、他の変形が可能であり、本開示の範囲内であることが理解されるべきである。
[000152] 図14A及び14Bの組合せからなる図14は、本発明の例示的な実施形態による、再生システムを動作させる例示的な方法のステップを示すフローチャート1400である。システムは、図8に示された再生システム800、または、応用において示された他の図のいずれかの再生システムであってよい。
[000153] 例示的な方法は、例えば、図19の再生デバイス1900または他の図のいずれかの再生デバイス等の再生デバイスが電源投入され、または、初期化されてステップ1402で開始する。検討の目的のために、再生システムは、例えば、ユーザの左と右の眼が立体視コンテンツの場合に異なる画像を提示されて、画像コンテンツが提示されるディスプレイを含むヘッドマウントディスプレイデバイス1905に接続されたコンピュータシステム1900’を含むことを考える。コンピュータシステム1900’は、ディスプレイを含むヘッドマウントデバイスの外部に示されているが、コンピュータシステム1900’は、それの外部ではなく、ヘッドマウントディスプレイの中に組み込まれ得る。
[000154] 動作は、開始ステップ1402からステップ1404に進む。ステップ1404において、再生システム1900は、例えば、番組ガイドの部分として等、複数のコンテンツストリーム及び/または初期化データに関する情報を受け取る。受け取られた情報は、図18に示されたタイプのものであり、コンテンツを要求する、または、コンテンツに同調するために使用され得る、マルチキャストグループ識別子または他の識別子等のストリームを受け取るために使用され得る情報と共に、どのコンテンツストリームが利用可能であるか、または、利用可能になるであろうかを示す情報を含む。例えば、コンテンツストリームに関連付けられたマルチキャストアドレスが、コンテンツが切り替えられたデジタル映像を介して供給されているときにコンテンツを要求するために使用され得る、受け取られた情報または番組識別子に含まれ得る。ブロードキャストコンテンツの場合には、受け取られた情報は、特定のコンテンツストリームを受け取るために、再生デバイスが同調すべきチャンネル及び/または周波数を示す同調情報を含み得る、及び、時には含む。
[000155] ステップ1404で受け取られた情報は、1つ以上の番組のための情報を含み得る。例えば、スポーツイベント、コンサート等の所与の番組について、異なるストリームが、コンテンツが対応する環境におけるカメラ位置に対して異なる視野方向に対応するコンテンツを提供して、利用可能であり得る。カメラ位置は、再生中に、視野位置に対応する。従って、再生中のユーザの視野角は、受け取られ得るコンテンツの中に表された環境の部分に相関する。環境の異なる部分は、異なるストリームで通信され得る。環境の各部分、例えば、360度環境の部分について、異なるデータレートに対応する1つ以上のストリームが、提供される情報にリストされ得る。また、環境の頂部と底部が提供され得る。いくつかの実施形態における個々のストリームのコンテンツは、左と右の眼の画像に対して異なる情報が与えられ、それによって、所望された3D効果を提供するために異なる画像がユーザに表示されることを可能にする、立体視コンテンツである。いくつかの実施形態では、球状環境の頂部及び底部は、左右の眼の眺めは同じであり、従って、2つの画像ではなく、1つの画像のみを必要とした、モノ画像として提供される。
[000156] 番組、環境の部分、及び、ストリームのデータレートについての情報は、コンテンツをストリーミングするために利用可能である限られた帯域幅を考慮して、どのストリームが受け取られるべきかを優先付けするために再生システムによって使用され得、いくつかの実施形態において使用される。優先付けと所与の時間にどのストリームを受け取るかの選択は、ユーザの頭の位置、及び/または、頭の回転のユーザの現在または過去の方向に基づき得、いくつかの実施形態では基づく。
[000157] 立体視コンテンツのストリーミングの場合には、限られた帯域幅及び/またはデータ制約を考慮して、受け取るべき好適なストリームの選択が、満足のいく、高品質の視聴体験のために重要であり得る。図18に示された情報と同じか類似であり得る、例えば、ストリーム情報1405等のステップ1404で受け取られた情報は、メモリに記憶され、特定の時点で受け取るためのストリームまたは複数のストリームの選択のため、及び、例えば、選択されたストリームに対応するマルチキャストグループに参加すること、選択されたストリームを提供するチャネルに同調すること、及び/または、所望のストリームが通信される、再生デバイスに供給されるべき切り替えられたデジタル映像チャネルをネットワーク装置に示すことによるストリームの要求された配信によって、選択されたストリームの配信を起動するために使用される。
[000158] 動作は、ステップ1404からステップ1406に進む。ステップ1406において、初期化の間、ユーザの現在の頭の位置が検出される。ユーザは、初期化フェーズ中に検出された頭の位置が前方を見ている位置であると仮定されるであろうことを認識して、通常、ステップ1406の間、快適なレベルの前向き位置に彼の頭を維持する。
[000159] 動作は、ステップ1406からステップ1408に進む。ステップ1408において、ステップ1406で検出されたユーザの頭の位置1407は、前方(0度)環境視野位置として扱われ、ユーザがこの位置に彼/彼女の頭を有している場合に表示される視野は0度環境位置、即ち、環境の特定の部分に対応するコンテンツストリームにその後エンコードされ、含まれる画像を取り込むために使用されるカメラによって取り込まれる前方位置に対応する。スポーツイベントの場合において、この位置は、通常、例えば、ストリームまたは複数のストリームがコンサートに対応する場合のステージやストリームがスポーツイベントに対応する場合のフィールドの中央等、環境におけるアクションの主たる領域に対応する。従って、ステップ1408において、ユーザの視野位置は、例えば、シーン領域の前方/正面部分等のゼロ度視野位置として解釈されるよう設定される。360度視野の部分は、ユーザが彼/彼女の頭を回した場合に可視になる異なる部分をもった水平方向の視野位置に対応することを注記する。ユーザの頭を上下に動かすことによって、ユーザは、空の部分及び/または地面の部分を、単独で、または、1つ以上の他の部分との組み合わせて見ることがある。水平の頭の位置と仮定すると、主要なシーン領域が360度の回転に沿った部分に分割されるので、そのような部分に対応するストリームが、通常、より多くの帯域幅を割り当てられ、頂部/底部シーン部分は、静止画像を用いて、または、変更頻度の低い画像を用いて表され得る。
[000160] 動作は、ステップ1408から、環境深さマップが受け取られるステップ1410に進む。深さマップは、コンテンツストリームの画像がマッピングされるべき3D環境の表面を規定する。深さマップを受け取らないと、球体は、環境の画像が表示に先立つ描画の間にマッピングされるべき表面である球体の内側表面をもった、環境のデフォルト推定形状である。深さマップを提供し、使用することによって、コンテンツストリーム内の画像が、シミュレートされるべき環境のより現実的な形状と表面をもつ表面にマッピングされるので、より現実的な経験が得られる。従って、ステップ1410において受け取られた深さマップは、受け取られるためにユーザによって選択されたコンテンツも対応する環境に対応している。ステップ1410で受け取られた環境マップ地図、または、マップが受け取られない場合のデフォルトマップは、画像を描画することにおけるその後の使用のための環境マップ1411として記憶される。
[000161] 動作は、ステップ1410からステップ1412に進む。ステップ1412において、3D表面の少なくとも一部の上に2D(2次元)画像コンテンツをマッピングするために使用されるべき1つ以上のUVマップが受け取られる。一実施形態において、少なくとも1つのUV(UV座標)マップが、異なる個々の画像によって表され得る環境の各部分のために受け取られる。いくつかの実施形態において、コンテンツストリームによって通信された画像が、異なるカメラ、例えば、左と右の眼のカメラによって取り込まれる場合、異なるUVマップが異なるカメラのために与えられ得、時には与えられる。従って、図14Aの例において、第1のUVマップが、前方部分等の環境の第1の部分に対応してステップ14141で受け取られ、ステップ1416において、左後方部分等の環境の第2の部分に対応する第2のUVマップが受け取られ、及び、ステップ1417において、右後方部分等の環境の第3の部分に対応する第3のUVマップが受け取られる。環境の頂部と底部に対応するUVマップは、それぞれ、ステップ1418と1420において受け取られる。部分が同じサイズのものである場合は、同じUVマップが複数の部分のために使用され得る。しかし、いくつかの実施形態では、UVマップは、異なるカメラによって取り込まれた画像のために使用される。
[000162] 従って、1つのそのような実施形態において、例えば、左と右の眼の画像等の立体視画像データが提供される環境の各部分について、UVマップが特定の左または右の眼の画像コンテンツを取り込むために使用されるカメラアセンブリの特定の特性を考慮することができるように、個別のUVマップが、左と右の眼の画像の各々について受け取られ、記憶され得る。
[000163] 各UVマップは、マップが対応するコンテンツストリームの2次元画像を3D環境の表面の対応する部分上にマッピングするために使用されるマップを提供する。このように、カメラによって取り込まれた画像は、2D画像として送信され得、次いで、3Dモデルによって規定される表面または表面の部分上にテクスチャとしてマッピングされる。
[000164] 3Dモデル情報とUVマップが受け取られて、シーン部分のための他のコンテンツの場合におけるデフォルトとして使用され得る画像が受け取られ、記憶され得る。ステップ1422において、第1、第2、第3、及び、第5のシーン部分の1つ以上に対応する、例えば、画像等のコンテンツは、ステップ1422で受け取られ、記憶される。いくつかの実施形態では、例えば、背景部分または空の部分等の環境の一部に対応する複数の代替画像がステップ1422で受け取られ、記憶される。制御情報は、そのために複数のデフォルト画像が記憶されている部分についてのイベントの間の所与の時点でどのデフォルト画像が使用されるべきであるかを示しつつ受け取られる。例えば、いくつかの実施形態において、座っている観客の背景画像と立っている観客の背景領域画像が2つのデフォルト画像として記憶される。制御情報は、イベントの所与の部分にどの背景画像が使用されるかを示すために使用される。例えば、プレイまたはコンサートでのスタンディングオベーションに対応する部分の間に、ユーザが背景方向に向いた場合に表示されるべき背景画像として、立っている観客の画像が信号化される。しかし、観客が通常座っているであろう、イベントの主たる部分の間に、制御情報は、ユーザが彼/彼女の頭を背景の方に向けた場合に座っている観客のデフォルト画像が使用されるべきであることを信号化する。制御情報は、コンテンツストリームとは別個に信号化され得、または、デフォルト画像の1つ以上が関連する部分とは異なる環境の部分のコンテンツストリームと共に含まれてもよい。例えば、前方方向に対応するコンテンツストリームは、例えば、左と右の眼の画像等の前方方向に対応する画像、並びに、例えば、イベントの間の様々な度において、空、地面、右背景、及び、左背景部分のために、どのデフォルト画像が使用されるべきかを示す制御情報を与え得る。代替的に、再生デバイスは、特定の時点で背景画像の1つ以上の態様への類似の明度に基づいて、どの背景または空の部分を使用するかを決定できる。例えば、前景の画像が暗い場合に、これが検出され、曇り空の画像が自動的に検出され得、他方、前景画像が明るいときは、また、これが検出され、雲がより少ない、より明るい空の画像が、受け取られ、記憶された利用可能なデフォルトの空の画像から自動的に選択される。
[000165] ステップ1422において、異なる環境部分に対応するデフォルト画像が、通常、エンコードされた形式で受け取られ、記憶される。ステップ1424において、受け取られた画像の1つ以上がデコードされ、そして、デコードされたコンテンツが、ステップ1426において1つ以上の画像バッファに記憶される。この様に、デフォルト画像はデコードされ、再生の間の描画のためにそれらが必要とされたときに再びデコードされる必要がないように、デコードされた形式で記憶される。デフォルト画像は複数回使用されるので、デコーディングと記憶は、さもなければ、描画時点で、または、描画直前に画像をデコードするために必要とされるに違いないデコーディング要件を低減することができる。処理リソースが不足し得ることを考慮すると、予めのデコーディングとデコードされた形式でのデフォルト画像の記憶は、画像が表示する直前にデコードされ、そして、それが必要でなくなったら、例えば、メモリから除かれる等、デコードされた画像が削除される実施形態と比較して、プロセッサリソースの使用を改善する。
[000166] 同じデフォルトのデコードされた画像は、例えば、空のため等、複数回使用され得るが、他の受け取られた画像コンテンツと組み合される前に処理され得、それは、環境の見られる部分を生成するためにそれが組み合わされる環境の該他の画像とより近く一致する。例えば、いくつかの実施形態では、デコードされたデフォルト画像は、それらが組み合わされる画像部分い基づいて輝度調整の対象となり、または、デフォルト画像が環境の他の部分に対応する画像と組み合される縁に少なくとも沿ってぼやかされる。従って、少なくともいくつかの実施形態での使用の間、画像の明るさ及び/または色特性は、それらが組み合わされる地面の画像の同じ特性に、それらをより似させるためにフィルタされ、または、修正される。
[000167] 将来の使用のために初期化データとデフォルト画像とが記憶されて、動作は、受け取られている1つ以上のストリームの組、例えば、現在の選択されたストリームの組、が初期化されるステップ1428に進む。各ストリームは、立体視またはモノ画像データを提供し得る。オプションとして、対応する音響も、選択されたストリームにおいてだが、より一般的には、1つ以上の個別の音響ストリームにおいて受け取られ得る。記載は、音響ストリームも、通常、受け取られ、再生デバイスによってデコードされること、及び、音響がステレオ音響を含み得ることの理解をもって、映像ストリームの受け取りに焦点を当てる。
[000168] 例示的なステップ1428において、ストリームの現在の選択された組は、環境の前方/正面部分に対応する第1のストリーム通信コンテンツに等しく設定される。これは、開始において、初期位置は前方視野位置になるように設定され、従って、初期化の結果として、ユーザは、開始時に、前方シーン領域を見ることを期待するからである。
[000169] 動作は、ステップ1428からステップ1429に進む。ステップ1429において、リソース割り当て情報が受け取られる。リソース割り当て情報は、帯域幅及び/またはデータレート割り当て制御情報の形態であってよい。ステップ1429で受信された情報は、いくつかの実施形態において、環境の異なる部分に対応する1つ以上の通信ストリームに、どのくらい多くの帯域幅またはデータ通信能力が割り当てられるべきかについての情報を含む。情報は、データレートが、通常、帯域幅に一致するとの理解をもって、帯域幅またはデータレートについて表現される。例えば、受け取られ得るデータ量は、帯域幅上を通信するために使用されるデータコーディングのタイプを考慮して、帯域幅の量の関数であってよい。
[000170] ステップ1429で受け取られた情報は、環境の特定の部分に対応する画像の受け取りに割り当てるために、利用可能な通信容量の相対的な最大量を示し得る。例えば、それは、最大で、帯域幅またはサポート可能なデータレートの80%が、例えば、前方データストリーム等の主要なデータストリームに割り当てられ、最後に、帯域幅の20%が1つ以上の他のストリームに割り当てられるべきであることを示し得る。異なる方向へのリソースの割り当ては、環境の対応する部分における画像コンテンツ、及び/または、検出された聴衆フィードバックの関数であり得、いくつかの実施形態においてはそうある。例えば、いくつかの実施形態において、コンテンツが対応するイベントの間に起こる休憩中に、ステップ1429で受け取られた情報は、増加された量のリソースが、環境の後ろ部分の一方または両方に対応する画像を受け取ることに割り当てられるべきであることを示し得る。これは、休憩中に、ユーザが彼らの頭を回し、メインフィールドやステージから離れたところを見始める可能性がより高くなり、休憩中に聴衆の中で起こっているアクションがあるように見えるように、いくつかの映像が後方のために供給されることが望まれ得るからである。例えば、野球の試合でホットドックを買う、または、席を変える人々の画像が、背景が休憩中はライブで、他の回には静止画で見えるように、送られる。同様に、背景における看板の画像は、広告及び/または娯楽目的のために、休憩中に変更され得る。従って、休憩中に背景部分を受け取るために、イベントの他の部分の間よりも多くのリソースを割り当てるために、再生デバイスを起動することが望ましい。ステップ1429で受け取られた制御情報は、イベントの休憩時間または他の区別された部分の間より、イベントの主たる部分の間で異なり得、時には異なる。少なくともいくつかの実施形態において、メインイベントの間に、ステップ1429で受け取られた制御情報は、後部より、環境の主たる、例えば、前方の、領域に、より多くの帯域幅及び/またはデータレートが割り当てられるようにさせる。しかし、休憩または他の区別された部分の間は、後部の一方または両方に割り当てられるデータレートが増加されるようにせしめる。
[000171] 所与の方向に割り当てられたリソース間の分割は、環境の部分で提示されているコンテンツ、見る者の注目の測定、及び/または、例えば、主たる部分、休憩部分、ショー後の部分、等の進行中であるイベント部分に基づき得る。いくつかの実施形態において、ステップ1429で提供される制御情報は、例えば、イベントが進行中の間、環境の1つ以上の部分に対応する画像の受け取りに割り当てられるべき、帯域幅またはデータレートの最大及び/または最小量を特定する。いくつかの実施形態では、情報は、イベントの間に地面から空の画像部分を受け取ることに、何の帯域幅またはデータも割り当てられるべきではなく、従って、これらの部分は、そのような場合に静止画を用いることが必要とされるときに定着されることができることを示す。
[000172] 帯域幅/データレート割り当て制御情報は、異なる情報が異なる回に受け取られて、経時的に変化し得る。制御情報は、前方コンテンツストリームの中に埋め込まれ得、及び/または、例えば、制御情報の個別の組として、別々に送られ得る。
[000173] 動作は、ステップ1429から、既に受け取られていないストリームの選択された組の中のストリーム(または、複数のストリーム)のコンテンツ配信が起動されるステップ1430に進む。これは、選択されたストリームが対応するマルチキャストグループに参加すること、ネットワーク装置に、選択されたストリームの配信を要求するメッセージを送ること、及び/または、選択されたストリームまたは複数のストリームが伝送されるブロードキャストチャネルに同調すること、を含み得る。ステップ1430を通る第1の経路の場合には、これが配信のために選択される最初の視野部分として設定されたので、これは、環境の前方部分に対応するコンテンツストリームの配信を開始することを含む。しかし、例えば、ユーザが彼/彼女の頭を左または右に回す等、ユーザの頭の位置が変化すると、選択されるストリームの組は、変化し得る、及び、通常は変化する。例えば、前方領域と右後方領域の部分が見えてくるように、ユーザが左に彼の頭を回した場合、選択されるストリームの組は、前方領域と左後方部分の両方に対応したコンテンツが受け取られるように変更される。左後方部分が受け取られておらず、選択される場合、左後方部分に対応するストリームにおけるコンテンツの配信がステップ1430で起動される。両方向における最大データレートストリームがサポートされることができない場合、より低いデータレートの前方ストリームが選択され得、従って、より低いデータレート前方ストリームと左後方コンテンツストリームの両方の開始が起動される。選択された組の外のストリームは、新たに選択された組内のストリームの受け取りの前に終了される。受け取られているコンテンツにおける動的な変化、及び/または、一時的なギャップが、ストリーム切り替えが起こるときの画像の品質またはソースにおける変化の著しさを低減するために使用されている、ぼやかし及び/またはフィルタリングを用いて最小化されるように、ストリームの終了と開始は円滑に行われる。例えば、ぼやかしは、描画または表示プロセスの部分として、一緒に縫い合わされる画像の部分にわたって実装され得る。
[000174] 選択されたストリームの現在の組のために起動されるコンテンツ配信をもって、動作は、ステップ1430からステップ1432に進む。ステップ1432において、コンテンツは、コンテンツストリームの選択された組におけるストリームから受け取られる。これは、例えば、視界の主な部分に対応するコンテンツを提供するストリーム等の最も高い優先度のストリームに対応するコンテンツ、及び、例えば、視界に対応する画像コンテンツの小さい部分を提供する部分等の環境の1つ以上の他の部分に対応するコンテンツを受け取ることを含み得る、及び、様々な実施形態では含む。現在の視界のためのコンテンツの小部分を提供するストリームは、2次的ストリームとして記載され得る。単一ストリームがフルの視界のためのコンテンツを提供する一実施形態において、例えば、ユーザが視界の外側の方向に向いた場合に視界外であるコンテンツを提供すること等、1つ以上の2次的またはより低い優先度のストリームを受け取るために、利用可能な帯域幅/サポート可能な受け取りデータレートの20%またはそれ以下が留保され、使用される。視界が、2つの異なるコンテンツストリームに対応する領域間のほぼ対等な分離である場合に、各ストリームには、それらがほぼ互角の形で寄与し、2つのストリームが提供する画像が対する領域の外の環境の領域を見るために、ユーザが急に位置を変えることはほとんどないので、利用可能なデータレート/受け取りデータレートの約半分を割り当てられる。
[000175] コンテンツ受け取りが開始されると、ステップ1432において、画像等のコンテンツが、ストリームの選択された組から受け取られる。主たる、例えば、最も高い優先度の、ストリームは、通常、左と右の眼の画像コンテンツの両方がストリームにおいて受け取られている、立体視コンテンツである。優先度の低いストリーム及び/または低いデータレートを割り当てられたストリームについて、単一の画像が左と右の眼の画像の両方への表示のために受け取られて、モノ画像が受け取られ得る。前方シーン部分は、通常、立体視コンテンツとして受け取られるが、1つ以上の後方部分は、モノ画像ストリームとして提供され得る。
[000176] エンコードされた画像コンテンツは、ステップ1432において、通常、ストリームの中で受け取られる。ステップ1434において、受け取られたコンテンツがデコードされ、そして、接続ノードA 1436を介して到達するステップ1438において、デコードされたコンテンツが1つ以上の画像バッファに記憶される。いくつかの実施形態では、デコードされた画像バッファは、環境の各部分のために維持される。受け取られた画像の一部のみが最終的に表示される場合でも、フルの受け取られたフレームが、通常、デコードされ、バッファリングされる。デコードされたバッファ画像は、それが同じシーン部分のためのより最近の画像で置き換えられるまで、メモリに維持され得、いくつかの実施形態では維持される。従って、任意の所定の時間において、デコードされた画像は、現在の視界に基づいて必要とされるだけ最終的な出力画像を描画することにおいて使用するために、環境の各部分について利用可能である。デコードされた画像コンテンツは、それがより最近のデコードされた画像によって置き換えられるまで、メモリに維持されるので、360度環境の部分の各々に対応する画像のデコーディングは、各フレーム時間中に起こる必要はない。従って、毎秒30フレームのフレームレートがサポートされ得るが、150フレームは、例えば、頂部、底部、前方、左後方、右後方部分の各々について1つ等、各フレーム期間にデコードされる必要はないが、むしろ、主たる視界に対応する部分よりも低いレートで更新される、以前にデコードされた静止画像または以前にデコードされた画像部分から出る画像のいくつかの部分をもって、サポートされ得るフレームレートに等しいか、または、わずかに高いフレームのより少ない数がデコードされ得る。
[000177] 従って、ステップ1438で更新された後、現在のデコードされたフレームは、ユーザの現在の視界に基づいて画像を描画することにおける使用のために利用可能である。
[000178] 動作は、ステップ1438からステップ1440に進む。ステップ1440において、画像バッファ(または、複数の画像バッファ)から利用可能であるデコードされたコンテンツ、例えば、テクスチャ等、1つ以上の画像部分が適用されるべき表面を規定する環境マップ、及び、2Dのデコードされた画像を3D表面のモデルにどのように適用するかの情報を与えるUVマップ(または、複数のUVマップ)を用いて、コンテンツが描画される。環境の3Dメッシュモデルは、環境の画像が適用されるべき表面を規定するメッシュモデルの頂点に対応するUVマップにおける点をもった、グリッドの形態であってよい。
[000179] 描画の部分として、異なるストリームから受け取られたコンテンツに対応する画像部分は、単一のストリームからのコンテンツがユーザの視界をフルに占める部分を提供することができない場合にユーザの視界に対応する環境の画像を生成するために、組み合わされる。フィルタリング、または、ぼやかしが、ユーザ視界に対応する複合画像を形成するために結合される画像にわたって適用され得る、及び、いくつかの実施形態では適用される。これは、継ぎ合わせがユーザにどの程度目立つかを低減する方向に向かう。加えて、複合画像の部分を与える画像部分の輝度は、いくつかの実施形態において、複合画像を形成するために組み合される画像部分間の輝度差を低減するために調整され、複合画像を形成するために組み合される画像部分への輝度調整をする場合に、後部、頂部、側部の輝度値より上の優先度を与えられて前方視野の輝度値が始まる。
[000180] 異なるコンテンツストリームから受け取られた画像の1つ以上の画像部分の複合であり得る描画された画像は、ステップ1442において、記憶され、表示され、または、伝送される。これは、選択されたコンテンツストリームの現在の組に基づいて、コンテンツの1つ以上のフレームの生成と表示を表す。
[000181] 経時的に、通信チャネル状態またはネットワーク問題における変化に起因して、最大のサポート可能なデータレートが変わり得る。これは、ステップ1443で検出され、どのコンテンツストリームまたは複数のストリームが受け取られ、処理されるべきであるかを選択する場合に考慮され得る。ステップ1443において、最大のサポートされるデータレート及び/または帯域幅は、後続のステップで使用されるためのデータ1444によって表されるように決定される。ステップ1445において、ユーザの現在の頭の位置が検出される。これは、ヘッドマウントディスプレイを含むヘッドギア上の位置センサを使用することによって行われ得る。
[000182] 動作は、ステップ1445から、ユーザの頭の位置が変わったかどうかについて決定がなされるステップ1446に進む。ユーザの頭の位置が変わっていない場合、動作は、現在の利用可能な最大帯域幅または最大のサポート可能なデータレートが、例えば、ストリーム選択がなされた最後の時点から、変化したかどうかについてのチェックがなされる、ステップ1447に進む。最大のサポート可能なデータレートまたは頭の位置に変化が検出されなかった場合、以前のストリーム選択が有効なまま残り、コンテンツストリームの選択された組に変更はなされない。従って、再生システムは、変わらないままであるユーザの現在の視界に対応するコンテンツを受け取り続ける。ステップ1447において変更が検出されない場合、動作は、接続ノードB 1456を介して、ステップ1429に戻る。
[000183] しかし、ステップ1446または1447のいずれかにおいて変化が検出された場合、動作は、ストリーム選択サブルーチンの呼び出しを含むストリーム選択ステップ1448に進む。このように、頭の位置及び/またはサポート可能なデータレートにおける検出された変化が考慮され得、ストリームの選択が、ユーザの頭の位置、及び/または、例えば、画像コンテンツ等のデータを受け取るために使用され得るサポート可能なデータレートの観点で再考慮される。
[000184] ストリームがストリーム選択サブルーチンによって選択されると、動作は、選択されたストリームが選択されたストリームの現在の組と異なるか否かについてチェックがなされるステップ1450に進む。新たに選択された組が、使用中であるストリームの現在の選択された組と同じ場合、受け取られているストリームについての変更はなされる必要がなく、ステップ1452において、ストリームの現在の選択された組が変更されないで残され、動作は、接続ノードB 1456を介してステップ1429に進む。しかし、ストリームの新たに選択された組が選択されたストリームの現在の組から異なる場合、例えば、現在選択された組がストリーム選択サブルーチンによって選択されたストリームの新たに選択された組に等しく設定される等、ストリームの選択された組における変更を反映するために、ステップ1454において、ストリームの現在の選択された組が更新される。
[000185] 動作は、ステップ1454から、ストリームの更新された現在選択された組の中に含まれていないストリームの受け取りが終了されるステップ1455に進む。これは、再生システムが、それがもはや受け取られないストリームに対応するマルチキャストグループのメンバであることを望まないことを信号で知らせること、または、例えば、新たに選択されたストリームまたは複数のストリームの受け取り等、他の目的のために終了されているストリームを受け取るために使用されるチューナ等のリソースを使用するために他のアクションをとることを含む。
[000186] 動作は、ステップ1455から、接続ノードB 1456を介してステップ1429に進む。そして、ステップ1430において、任意の新たに選択されたストリームの受け取りが開始され、受け取られたコンテンツは、1つ以上の画像を描画するために使用される。従って、経時的に、ユーザが彼または彼女の頭の位置を変える、及び/または、サポートされ得るデータレートが変わると、選択されたストリームも同様に変わり得る。
[000187] 図15は、図14の方法のステップ1448において呼び出されるストリーム選択サブルーチンとして使用され得る、例示的な実施形態によるストリーム選択サブルーチンのステップを示すフローチャートである。
[000188] ストリーム選択サブルーチンは、例えば、図14のステップ1448によって、サブルーチンが呼び出されるとき、ステップ1502で始まる。動作は、開始ステップ1592からストリーム選択ステップ1504に進む。ストリーム選択ステップ1504への入力は、帯域幅及び/またはデータレート制約1503を含む。これらは、1つ以上のシーン部分、ストリーム、及び/または、ストリーム方向に割り当てられるべき利用可能な帯域幅または合計受け取りデータレートの最大部分の情報を含み得る。制約は、また、シーン部分、ストリーム、及び/または、視野方向への最小の帯域幅またはデータ割り当てを含み得る。従って、アクションが、イベント休憩時間の間に、後方領域等の環境部分で起こっている場合に、ある方向に対応する部分が、少なくともまれに、または、特定の回数で更新されるように、制約は、特定の方向に対応するコンテンツを受け取ることに割り当てられるリソースの最大量を制限し、及び/または、ある方向に割り当てられたリソースの最小量に権限を付与し得る。
[000189] 最大サポート可能なデータレー及び/または最大利用可能な帯域幅1444は、選択ステップ1504への他の入力である。この情報1444は、コンテンツを受け取るために利用可能な最大の帯域幅、及び/または、コンテンツストリームの1つまたは組み合わせの受け取りをサポートするために使用され得る最大のサポート可能なデータレートを示す。ユーザの現在の頭の位置1407、及び、例えば、図18に示されたもの等のなどのストリームガイド情報といった利用可能なストリームに関する情報1405は、また、ステップ1504への入力である。
[000190] ストリーム選択ステップ1504において、例えば、いくつかの場合には進行中のリアルタイムイベント等の番組またはイベントに対応する1つ以上のコンテンツストリームが選択される。1つ以上のストリームの選択は、ユーザの現在の頭の位置、ストリーム帯域幅またはストリームデータレートの要件等のストリーム情報、及び/または、最大サポート可能データレートまたは最大サポート可能帯域幅についての情報に基づく。視野方向上にあること、または、ストリーム優先度に基づき得る帯域幅及び/またはデータレート制約1503は、また、ステップ1504においてストリーム選択をすることにおいて考慮され、使用され得、時には使用される。
[000191] 例示的なストリーム選択ステップ1504は、ストリームが、ユーザの現在の及び/または過去の頭の位置に基づいて優先度付けされるステップ1506を含む。これは、図16に示されたもの等、ストリーム優先度付けサブルーチンの呼び出しを含み得る。
[000192] 同じ環境方向に対応するストリームは、いくつかの実施形態では、同じ優先度を割り当てられる。従って、環境及び/または視野方向の同じ部分に対応するコンテンツに対応する複数のストリームは、同じ優先度を割り当てられ得、時には割り当てられる。ストリームが同じ視線方向に対応するが、いくつかのストリームが、高フレームレートで高解像度の立体的コンテンツを提供し、ある場合には、より低い解像度ストリームが、モノ画像コンテンツ及び/または並解像度画像を提供し、及び/または、低フレーム(画像)レートをサポートして、ある場合にストリームは、異なるデータレートを有する。従って、特定の方向は高優先度とみなされ得、高優先度方向に対応するコンテンツを提供する全てのストリームは同じであるが、選択は、そこで、いくつかの実施形態において、特定の方向に対応するコンテンツを受け取るために利用可能な帯域幅の量に基づいてなされる。
[000193] コンテンツストリームの優先度付けした後、動作は、ステップ1506からステップ1508に進む。ステップ1508において、最も高い優先度を有するストリームのために使用のための最大帯域幅及び/またはデータレートが決定される。この決定は、最も高い優先度のストリームのために割り当てられるべき利用可能な受け取りリソースの最大、最小、または、部分を示し得る、帯域幅または他の制約1503に基づいてなされ得る。いくつかの実施形態では、最も高い優先度のストリームのための最小帯域幅/データレート割り当てが50%以上であるが、他の割り当ても可能である。
[000194] ステップ1510において、より低い優先度を有した各ストリームのために使用されるべき最大帯域幅及び/またはデータレートが決定される。いくつかの実施形態では、データレートまたは帯域幅の少なくとも20%が、2次またはより低い優先度のストリームのために使用される。
[000195] 異なる優先度のストリームのために使用されるデータレートがステップ1508、1510で決定されていて、動作は、最も優先度の高いストリームが、最も高い優先度のストリームのための最大帯域幅及び/またはデータレートに基づいてサポートされることができるかどうかを決定するためにチェックがなされるステップ1512に進む。最も高い優先度に対応するストリームのいずれか1つがサポートされることができる場合には、ステップ1512の決定は肯定となり、動作は、最も高い優先度に対応する最も高い品質のストリームが選択されるステップ1514に進む。これは、通常、最も高い優先度を割り当てられたストリームの組から最も高いデータレートのストリームを選択することを含む。例えば、前方方向におけるストリームが最も高い優先度を割り当てられる場合、最も高い優先度のコンテンツストリームのために利用可能なデータレートを与えられてサポートされ得る、最も高いデータレートの前方方向コンテンツストリームが選択されることを考慮する。
[000196] 動作は、ステップ1514からステップ1516に進む。ステップ1516において、2番目に高い優先度のストリームがサポートされ得るか否かについて決定がなされる。これは、いくつかの実施形態において、最も優先度の高いストリームが選択された後、どれだけの帯域幅/データレートが利用可能か、及び、受け取られた制約に基づいて2番目に高い優先度のストリームのために、帯域幅/データのどれだけが使用され得るか、を決定することを含む。2番目に優先度が高いストリームに何の制約も置かれない場合、帯域幅/データ受け取り能力のフルの量が、2番目に高い優先度のストリームのために使用され得る。ステップ1516において、2番目に優先度の高いストリームがサポートされ得ると決定される場合、動作は、例えば、2番目に高い優先度を割り当てられた1以上のストリームの組から、2番目に高い優先度のストリームが選択されるステップ1518に進む。ステップ1518は、サポートされ得、2番目に高い優先度を有する、最も高いデータレートのストリームを選択することを含み得る、及び、いくつかの実施形態において含む。例えば、2番目に高い優先度が環境の右後方部分に対応している場合、ステップ1518は、環境の右後方部分に対応してサポートされ得る最も高いデータレートのストリームを選択することを含む。
[000197] ほとんどの場合、最も高い優先度と2次のストリームがサポートされるが、例えば、見られていないもの等、環境の他の部分に対応するいくつかのコンテンツを受け取るために、当該2つの最も高い優先度のストリームの選択の後、十分な帯域幅を残してある。動作は、ステップ1518からステップ1520に、または、2番目に高い優先度のストリームがサポートされることができない場合、ステップ1516から直接ステップ1520に進む。
[000198] ステップ1520において、例えば、第1及び/または第2の優先度のストリームが選択された後で利用可能な帯域幅/データ受け取りリソースを使用して、3番目に高い優先度のストリームがサポートされ得るか否かについてチェックがなされる。ステップ1520において、3番目に最も高い優先度のストリームがサポートされ得ると決定される場合、動作は、例えば、サポートされ得る残りの帯域幅/データレートを使用して、3番目に最も優先度の高いストリームが選択されるステップ1522に進む。動作は、ステップ1522からステップ1524に、または、3番目に最も優先度が高いストリームが、利用可能な帯域幅、及び/または、受け取られたデータ及び/または帯域幅制約を与えられて、サポートされ得ない場合、ステップ1520からステップ1524に直接に進む。
[000199] ステップ1524において、他のストリーム選択の後、追加のコンテンツを受け取るために使用され得る残りの、例えば、データを受け取るための容量等の任意の帯域幅があるかを決定するためのチェックがなされる。追加の帯域幅が残っている場合は、動作は、1つ以上のより低い優先度のストリームが、残りの利用可能な帯域幅/データレートを使用するために選択されるステップ1526に進む。ステップ1526から、動作は、ステップ1530に進む。追加の帯域幅が利用できない場合、動作は、はステップ1524から戻りステップ1530に進む。
[000200] 戻りステップ1530は、例えば、ルーチン1500によって新たに選択されたストリームの組が決定されて、ストリーム選択サブルーチン1500が呼び出された所に処理を戻させる。
[000201] 図16は、例示的な実施形態に係る、ストリーム優先度付けサブルーチンのステップを示すフローチャートである。図1600は、例えば、この中に記載された他のルーチンまたはサブルーチンの1つ以上によって呼び出され、使用され得る、例示的なストリーム優先度付けルーチンを示す。例えば、図15のステップ1506は、サブルーチン1600の呼び出しによって実装され得る。ストリーム優先度付けサブルーチン1600は、ルーチンが呼び出されたとき、ステップ1602で始まる。動作は、開始ステップ1602からステップ1604に進む。ステップ1604において、ユーザの現在の視界が、ユーザの検出された頭の位置に基づいて決定される。ユーザの視野が180度未満であることを考えると、現在の視界は、例えば、前方視認カメラ位置といった単一のカメラの位置から取り込まれる環境の部分に対応し得る。しかし、ユーザが、例えば、頭を左または右に振る、及び/または、上または下を見る等、彼の頭を動かす場合、ユーザの視界は、異なるカメラ位置に位置付けられるカメラによって取り込まれる環境の部分に対応し得る。例えば、異なるカメラによって取り込まれる画像が合致するまたは重なる所に対応する環境の部分を視ている場合、ユーザの視界は、2つの異なるストリームで通信されるコンテンツに対応し得る。視界の最も大きい部分に対応する画像を提供するストリームは、通常、いくつかの実施形態において、最も高い優先度を与えられる。
[000202] ステップ1604において、ユーザの視界が決定されており、動作は、ユーザの現在の視界に対応する、例えば、モノ画像、または、左と右の眼の画像を含む立体視画像ペア等のコンテンツを通信するストリームが特定されるステップ1605に進む。そして、動作は、特定されたストリームから利用可能なユーザの現在の視野に対応するシーン領域の、例えば、画像部分等の部分または複数の部分のサイズが決定されるステップ1606に進む。従って、ステップ1606の終わりでは、ストリームが、現在の視界に対応する画像コンテンツと当該部分の相対サイズとを提供する情報が利用可能であり、例えば、ストリームを優先度付けする等、ランク付けするために使用され得る。
[000203] 動作は、ステップ1606からステップ1608に進む。ステップ1608において、優先度が、ユーザの現在の視界に対応する画像コンテンツを提供する1つ以上のストリームに割り当てられる。例えば、ランク付け等の優先度付けは、ストリームが提供するユーザの視界の部分または複数の部分のサイズに基づく。例えば、ユーザの視界の80%に対応する画像コンテンツを提供するストリームは、ユーザの視界の15%に対応する画像コンテンツを提供するよりも高位にランク付けされ、例えば、頂部または底部等の残りの5%を提供するストリームは、視界の80%の部分に対応する画像(または、複数の画像)を提供するストリームに割り当てられた最も高い優先度よりも低い3番目の優先度を付与される。
[000204] ステップ1608は、ステップ1610及び/またはステップ1612を含み得、いくつかの実施形態では、含む。ステップ1610において、最も高い優先度が、視界の最も大きい部分を提供するストリームに割り当てられる。ステップ1610は、主たるストリームとして、視界の最も大きい部分を提供するストリームを指定することを含み得る。ステップ1612は、最も優先度の高いストリームによって寄与される部分の外側にある視界の部分に寄与するストリームに次に高い優先度または複数の優先度を割り当てることを含む。そのようなストリームは、より小さい部分に寄与し得るストリームがより低い優先度を割り当てられて、現在の視界に寄与し得る部分のサイズに基づいて、ステップ1612において優先度付けされる。
[000205] 潜在的に、異なる解像度またはフレームレートであるが、例えば、異なるデータレートを有する、複数のストリームが視界の同じ部分に寄与し得ると想定すると、複数のストリームは同じ優先度を割り当てられ得、例えば、前方視野に対応するストリームが同じ優先度を割り当てられ得、左後方視野を提供するストリームが、例えば、前方ストリームに割り当てられた優先度と異なる優先度で、同じ優先度を割り当てられ得、右後方視野を提供するストリームが、例えば、前方または左後方ストリームに割り当てられた優先度と異なる優先度で、同じ優先度を割り当てられ得る。
[000206] 従って、ステップ1608において、視界に寄与するストリームは、ランク付け、即ち優先度付けされている。優先度付けは、最も高い優先度を割り当てられている主たるストリーム(または、複数のストリーム)と、より低い優先度を割り当てられている他のストリームを有した、ランク付けされたリストにおいてストリームをリスト化することで表され得る。
[000207] 全てではないストリームが視界に対応し得る。例えば、頂部または底部のシーン部分が視界外であってもよく、従って、そのような視野を提供するストリームはステップ1608において優先度付けされない。動作は、ステップ1608からステップ1614に進む。ステップ1614において、優先度付けされるべき任意の残りのストリームがあるか否かについて決定がなされる。例えば、ストリームの全てがユーザの現在の視界に対応するから、優先度付けされるべき残りのストリームがない場合、動作は、戻りステップ1630に進む。しかし、ステップ1614において、優先度付けされるべき1つ以上のストリームが残っていると決定された場合、動作は、ステップ1616に進む。
[000208] ステップ1616において、優先度は、例えば、現在の視界の外のストリーム等、コンテンツを通信する1つ以上の追加のストリームに割り当てられる。ステップ1616で実行される優先度付けは、いくつかの実施形態において、現在の視界において可視のコンテンツに優先度付けられているストリームによって提供されるコンテンツの近接に基づく、及び/または、ユーザの現在または過去の頭の回転の方向に基づく。例えば、いくつかの実施形態において、ストリームが、現在の視界に直接隣接する環境の部分に対応する画像コンテンツを提供する場合、それは、ユーザの現在の視界から更に離れた画像部分に対応するコンテンツを提供するストリームよりも高い優先度を割り当てられる。同様に、頭の回転の方向にあるコンテンツが、頭の回転の検出された方向から離れる反対の方向にあるコンテンツよりも、ユーザの視界に直ぐに入ってくる可能性がより高いとの仮定の下、ユーザの頭の回転の方向の画像コンテンツを提供するストリームは、ユーザの検出された頭の回転から離れる回転の方向のコンテンツより、より高い優先度が与えられる。
[000209] 少なくとも1つの実施形態において、ステップ1616は、頭の位置の変化は、頭の回転、例えば、頭を上または下に傾けることと対照的に左または右に回す、を示したか決定するためにチェックがなされるステップ1618を含む。頭の回転がステップ1618で検出されなかった場合、動作は、いくつかの実施形態において、ユーザの現在の視界に対してストリームが提供する画像データのどの部分かに基づいて、ストリームが優先度付けされるステップ1620に進む。頂部及び/または底部を提供するストリームは、頂部と底部、並びに、左または右後方部分が視野外である場合、デフォルトでは、左または右後方部分を提供するストリームよりも低い優先度を割り当てられ得る。動作は、ステップ1620から戻りステップ1630に進む。
[000210] ステップ1618において、ユーザの頭の回転が検出されたと決定された場合、動作は、ステップ1622に進む。ステップ1622において、頭の回転の方向が、例えば、ユーザの頭が左または右に回っているかどうかで、決定される。これは、環境の隣の部分がユーザの視野に入ってくることが、頭の回転の方向から離れる方向ではなく、頭の回転の方向にある方がより可能性が高いので、頭の回転方向が考慮されることを可能にする。
[000211] 動作は、ステップ1622から、優先度が、頭の回転の方向に基づいて、例えば、視界外のストリーム等の1つ以上のコンテンツストリームに割り当てられるステップ1624に進む。少なくとも1つの実施形態において、ステップ1624は、次に最も低い未使用の優先度が、頭の回転方向における環境の部分に対応するコンテンツを提供するストリームに割り当てられるステップ1626を含む。例えば、環境の前方部分を見ているユーザが、彼の頭を右に回している場合、視界外の右後方コンテンツを提供するストリームが、同じく視界外にある左後方コンテンツを提供するストリームよりも高い優先度を割り当てられる。動作は、ステップ1624から、既に優先度付けされていない残りのストリームが、優先度が既に割り当てられているにストリームよりも、より低い重要度を示し、より低い優先度を割り当てられる、ステップ1628に進む。
[000212] 動作は、ステップ1628から戻りステップ1630に進む。戻りステップ1630に到達されるときまでに、コンテンツストリームは、優先度に従って、優先度付け、例えば、ランク付けまたは順序付け、がなされる。
[000213] 図17は、例示的な実施形態による描画サブルーチンのステップ1700のフローチャートである。
[000214] 描画サブルーチン1700は、画像描画が要求されるとき、1つ以上のルーチンにより呼び出され得る。立体視コンテンツの場合には、個別の画像が、ユーザの左と右の眼の各々について描画される。モノコンテンツの場合、単一の画像が描画され、ユーザの左と右の眼の各々のために使用される。描画は、しばしば、1つまたは複数のストリームからの画像コンテンツの組み合わせを含む。従って、環境のいくつかの部分はモノコンテンツとして提供され得るが、他の部分は立体視コンテンツとして提供され得、その場合、コンテンツのいくらかが立体であり、他のコンテンツがモノであるが、環境の少なくとも部分が立体視コンテンツとして提示される場合に、単一の画像が、左と右の眼の画像の各々のために生成されて、異なる左と右の眼の画像が描画されえる。
[000215] 描画ルーチン1700は、開始ステップ1702で始まり、描画ステップ1706に進む。描画ステップ1706への入力は、環境マップ1411、1つ以上の視野に対応するデコードされたコンテンツ1703、環境マップ1411によって規定された表面上に1つ以上のデコードされた画像をマッピングするために使用されるUVマップ1704を含む。上述したように、環境マップ1411は、より複雑な幾何学形状が与えられない場合に、球体に初期設定され、画像が球体の内側面にマッピングされる。
[000216] いくつかの実施形態において、描画ステップ1706は、ユーザの現在の視界に対応する少なくとも1つの画像を生成するために、ユーザの現在の視界に対応する1つ以上のコンテンツストリームに含まれた画像をデコードすることによって生成されたコンテンツと、環境マップ、並びに、少なくとも1つのUVマップを使用することを含む、ステップ1708を含む。例えば、3D等の立体視画像コンテンツの場合、描画は、左と右の眼の画像が表示するのに適した形式で生成される結果となる。描画された左と右の眼の画像における違いは、いくつかの実施形態では、ユーザに、画像を3Dで知覚させる。
[000217] 動作は、ステップ1706から、描画された画像を、ディスプレイデバイスに供給される、記憶される、及び/または、出力されるために、プログラムまたはルーチンに戻させる戻りステップであるステップ1710に進む。
[000218] 描画サブルーチン1700は、フレームまたは視界の更新されたバージョンが表示されるべき各度に呼び出され得る。従って、描画は、通常、例えば、フレーム、表示レート等、画像と一致したレートで起こる。
[000219] 図18は、複数のコンテンツストリームに対応するストリーム情報を含む例示的なテーブル1800を示す。いくつかの実施形態では、例示的なテーブル1800に含まれるストリーム情報は、例えば、番組ガイド等の再生システムが受け取ることを選択し得るコンテンツストリームに関する情報を提供するガイド情報の一部として受け取られる。凡例1840は、テーブル1800に含まれる情報において略語として使用される様々な文字の意味を示す情報を含む。
[000220] テーブル1800に含まれる情報は、情報が対応するコンテンツストリームにアクセスするために使用されることができる。いくつかの実施形態において検討されるように、ストリーム情報は、複数の利用可能なコンテンツストリームについて、所定の対応するコンテンツストリームを受け取るために参加され得るマルチキャストグループのマルチキャストアドレス、所定のコンテンツストリームを提供するために使用される切換えデジタルビデオチャネル(switched digital video channel)へのアクセスを要求するために使用され得る情報、または、所定のコンテンツストリームがブロードキャストされるブロードキャストチャネルに同調するように再生システムのチューナを制御するために使用され得るチャネル同調情報の1つを含む。
[000221] テーブル1800において、各行は、コンテンツを通信する個々のコンテンツストリームに対応し、行が対応するコンテンツストリームは、列1812における対応するエントリに示されたストリーム識別子によって特定される。列1804における各エントリは、行が対応する個々のコンテンツストリームによって通信される番組コンテンツを特定する。テーブル1800から理解され得るように、行の第1のグループ1820は、列1804内の対応するエントリに示されるように番組/イベントのタイトルを示すことができる、「サッカー」の番組コンテンツに対応する。様々な異なる番組/イベントに対応する、複数のそのようなグループが存在し得る。各グループは、検討されるように、各々が視野方向に対応し、所与のデータレートをサポートするコンテンツストリームを含む。簡略化のために、2つのグループのみが図示され、第2のグループ1822に対応する行は、概念を例示するためだけに部分のみが示されている。行の第2のグループ1822は、列1804における対応するエントリによって示されるように「HI」の番組コンテンツに対応する。
[000222] 列1806の各エントリは、対応するコンテンツストリームによって通信される、例えば、360度シーン領域1200等のシーン領域の部分を示す。従って、グループ1820における最初の3行は、各々が異なるコンテンツストリームに対応するが、正面シーン部分(例えば、270度から90度までの視野領域をカバーする、図12に示されたゾーン1にマッピングする)を通信する。グループ1820における次の3行は、各々が異なるコンテンツストリームに対応するが、後方右側シーン部分(例えば、30度から210度の視野領域をカバーする、図12に示されたゾーン2にマッピングする)を通信する。グループ1820における最後の3行は、各々が異なるコンテンツのストリームに対応するが、後方左側シーン部分(例えば、150度から330度の視野領域をカバーする、図12に示されたゾーン3にマッピングする)を通信する。
[000223] 列1808における各エントリは、対応するコンテンツストリームがサポートするデータレートを示す。列1810における各エントリは、列1812における対応するエントリに示されたストリーム識別子によって特定される対応するコンテンツストリームを受け取るために参加され得るマルチキャストグループのマルチキャストグループ識別子/アドレスを示す。列1814における各エントリは、列1812における対応するエントリにおいて示されたストリーム識別子によって特定される対応するコンテンツストリームについてのストリーム記述子を含む。列1816における各エントリは、対応するコンテンツストリームをアクセスする、または、要求するために使用され得る、例えば、同調パラメータ及び/または他のアクセスパラメータ等のアクセス情報を含む。
[000224] 例示的なテーブル1800から理解され得るように、図示の例では、再生における使用のために利用可能である、所与の視野方向に対応する各コンテンツストリームの複数、例えば、3つ、の異なるバージョンが存在し、コンテンツストリームの各バージョンは、異なるデータレートをサポートする。従って、再生システムは、図14−17に関して詳細に検討されたような本発明の特徴に従って、例えば、サポートされる帯域幅、データレート、ユーザの頭の位置等の1つ以上の要因に基づいて、再生に使用するために、1つ以上のストリームの選択を行うことができる。
[000225] 1つ以上のコンテンツストリームを選択する、及び/または、アクセスするために、テーブル1800における情報が再生システムによってどのように利用され得るかをより明確に理解するために、グループ1820における最初の行と、列1804、1806、1808、1810、1812、1814、及び、1816の各々における最初のエントリを考慮する。列1804の最初のエントリは、列1812に含まれたストリーム識別子S1D1によって特定される第1のコンテンツストリームによって、「サッカー」のイベント/番組が通信されることを示す。列1806における対応するエントリは、第1のストリームが、前方シーン部分(例えば、270度から90度までの視野領域)に対応するコンテンツを通信することを示す。この視野領域情報は、現在の視界に対応する、ユーザ/見る者の現在の頭の位置に対応するコンテンツを通信する1つ以上のストリームを特定するために、再生システムによって使用される。例を続けると、列1808における対応する最初のエントリは、第1のコンテンツストリームが、データレートD1をサポートする、及び/または、必要とすることを示す。列1810における対応するエントリは、第1のコンテンツストリームが、マルチキャストグループM1に参加することによってアクセスされ得ることを示し、M1は、マルチキャストグループアドレス、及び/または、アドレスにマッピングする識別子を示す。列1814における対応するエントリは、第1のストリームが対応するカメラ視野角(V1)、第1のストリームに対応するコーデックタイプ(C1)、サポートされるデータレート(D1)、フレームレート(F1)を示す、第1のコンテンツストリームに対応するストリーム記述子「V1C1D1F1」を含む。最後の列1816における対応するエントリは、アクセス同調パラメータ、及び/または、第1のコンテンツストリームをアクセスする、または、要求するために使用され得る他のアクセスパラメータ(A123として示される)を示す。
[000226] 使用され得る利用可能なコンテンツストリームに関する上述のような情報を用いて、再生システム1900等の再生システムは、本発明の特徴に従って、再生に使用するための1つ以上のコンテンツストリームを選択し、アクセスし得る。より良い理解のために、ユーザの頭の位置が、ユーザが360度シーンの正面部分を見ていることを示していると、再生システムが決定する、1つの単純な例を考える。一実施形態におけるそのような場合には、再生システムは、正面シーン部分を通信する少なくとも1つのコンテンツストリームを選択する。利用可能な帯域幅、サポート可能なデータレート、ストリーム帯域幅、及び/または、データレート制約等の図14−17について検討されたような様々な他の要因に応じて、再生システムは、正面シーン部分を通信する3つの異なる利用可能なストリーム(S1D1、S1D2,S1D3)からストリームを選び出すことができる。制約が許すならば、再生システムは、正面シーン部分に対応する複数のコンテンツストリームからの3つの対応するコンテンツストリームから、最高品質のストリーム、例えば、ストリームS1D1、を選択する。テーブル1800において提供される情報は、選択を行うために使用され得る情報の少なくともいくつかがストリーム情報1800によって提供されるので、再生における使用のための適切なストリームの選択を容易にする。ストリーム選択の後、再生システムは、選択されたストリームに対応するマルチキャストグループ、例えば、M1、に参加することによって、または、コンテンツストリームを取得するためにアクセス情報を用いることによって、コンテンツ配信、例えば、コンテンツの受け取り、を起動するために、再びストリーム情報1800を使用し得る。
[000227] 図19は、コンテンツ配信システムから受け取られる画像コンテンツを受け取り、デコードし、記憶し、及び、表示するために使用され得る、本発明に従って実装された再生システム1900を示す。システム1900は、ディスプレイ1902を含む単一の再生デバイス1900’として、または、コンピュータシステム1900’に接続された外部ディスプレイ、例えば、ヘッドマウントディスプレイ1905等の要素の組み合わせとして、実装され得る。
[000228] 再生システム1900は、少なくともいくつかの実施形態において、3Dヘッドマウントディスプレイ含む。ヘッドマウントディスプレイは、ヘッドマウントディスプレイ1905を含み得る、Oculus社のRIFT(商標) VR(バーチャルリアリティ)ヘッドセットを使用して実装され得る。また、他のヘッドマウントディスプレイも使用され得る。いくつかの実施形態では、1つ以上のディスプレイスクリーンがユーザの左と右の眼にコンテンツを表示するために使用されるヘッドマウントヘルメットまたは他のヘッドマウントデバイスが、デバイス1905として使用される。単一のスクリーンの異なる部分を異なる眼に露出するよう構成されたヘッドマウントを用いて、単一のスクリーン上で左と右の眼に異なる画像を表示することによって、単一のディスプレイが、見る者の左と右の眼によって別個に知覚される左と右の眼の画像を表示するために使用され得る。いくつかの実施形態において、セルフォンのスクリーンは、ヘッドマウントディスプレイデバイスのディスプレイとして使用される。少なくともいくつかのそのような実施形態において、セルフォンはヘッドマウントデバイスに挿入され、セルフォンは、画像を表示するために使用される。いくつかの実施形態では、表示デバイス1905は、Oculus社のRift等の3Dディスプレイ装置の部分であってもよい。
[000229] 再生システム1900は、受け取られた、エンコードされた画像データ、例えば、環境またはシーンの異なる部分に対応する左と右の眼の画像、及び/または、モノ(単一の画像)、をデコードし、例えば、ユーザによって3D画像として知覚される異なる左と右の眼の画面を描画し、表示することによって、顧客への表示のための3D画像コンテンツを生成する能力を有する。いくつかの実施形態における再生システム1900は、家庭やオフィス等の顧客建物位置に配置されるが、同様に、画像取り込みの場所に配置されてもよい。システム1900は、本発明に従った信号受け取り、復デコード、表示、及び/または、他の動作を実行することができる。
[000230] システム1900は、ディスプレイ1902、ディスプレイデバイスインターフェース1903、入力デバイス1904、入力/出力(I/O)インターフェース1906、プロセッサ1908、ネットワークインターフェース1910、及び、メモリ1912を含む。システム1900の様々なコンポーネントは、データがシステム1900のコンポーネントの間を通信されることを可能にするバスを介して、及び/または、他の接続によって、または、無線インターフェースを介して、共に接続される。いくつかの実施形態において、ディスプレイ1902は、破線枠を用いて示されるオプション要素として含まれるが、いくつかの実施形態では、例えば、ヘッドマウント立体視ディスプレイデバイス等の外部ディスプレイデバイス1905が、ディスプレイデバイスインターフェース1903を介して再生デバイスに接続され得る。
[000231] 例えば、セルフォンプロセッサがプロセッサ1908として使用され、セルフォンが画像を生成し、ヘッドマウントで表示する場合には、システムは、ヘッドマウントデバイスの部分として、プロセッサ1908、ディスプレイ1902、及び、メモリ1912を含み得る。プロセッサ1908、ディスプレイ1902、メモリ1912は、全て、セルフォンの部分であってもよい。システム1900の他の実施形態は、プロセッサ1908は、ディスプレイ1905がヘッドマウントデバイスに搭載され、ゲームシステムに接続されている、XBOXまたはPS4等のゲームシステムの部分であってよい。プロセッサ1908、または、メモリ1912が、頭に装着されるデバイスに設けられるか否かは、重要ではなく、理解され得るように、いくつかの場合には、電力、熱、及び、重量の観点から、ヘッドギアにプロセッサを共同設置することが便利であり得るが、少なくともいくつかの場合には、ディスプレイを含むヘッドギアに接続されたプロセッサ1908とメモリを有することが望まれ得る。
[000232] 様々な実施形態は、ヘッドマウントディスプレイ1905または1902を企図しているが、方法及び装置は、また、3D画像をサポートし得るヘッドマウントでないディスプレイとともに使用されることができる。従って、多くの実施形態において、システム1900はヘッドマウントディスプレイ含むが、それは、また、ヘッドマウントでないディスプレイを用いて実装され得る。
[000233] 再生システム1900のオペレータは、入力デバイス1904を介して1つ以上のパラメータを制御し、及び/または、例えば、3Dシーン表示を選択する等、実行されるべき動作を選択し得る。I/Oインターフェース1906を介して、システム1900は、外部デバイスに接続され、及び/または、他のデバイスと信号及び/または情報を交換し得る。いくつかの実施形態では、I/Oインターフェース1906を介して、システム1900は、カメラリグ900等のカメラリグの部分であり得る様々なカメラによって取り込まれた画像を受け取ることができる。
[000234] 例えば、CPU等のプロセッサ1908は、ルーチン1914を実行し、再生システム1900を本発明に従って動作するように制御するために、様々なモジュールを使用する。プロセッサ1908は、再生システム1900の全般的な動作を制御する責任がある。様々ないくつかの実施形態において、プロセッサ1908は、再生デバイスによって実行されているとして検討された機能を実行するように構成される。
[000235] ネットワークインターフェース1610を介して、システム1900は、例えば、通信ネットワーク105等の通信ネットワーク上で、様々な外部デバイスに、通信及び/または情報(例えば、画像及び/またはビデオコンテンツを含む)を通信し、及び/または、受け取る。ネットワークインターフェース1910は、それを介して受信と送信の動作が実行される受信機1911及び送信機1913を含む。いくつかの実施形態では、システムは、コンテンツプロバイダから、ネットワークインターフェース1910を介して1つ以上の選択されたコンテンツストリームを受け取る。いくつかの実施形態では、システム1900は、インターフェース1910の受信機1911を介して、再生のための使用のために、1つ以上の選択されたコンテンツストリームを受け取る。受け取られたコンテンツストリームは、例えば、エンコードされたシーン部分1952等のエンコードされたデータとして受け取られ得る。受信機1911は、更に、例えば、番組ガイドの部分として、ストリーム情報1946、及び/または、初期化データを受け取るよう構成される。システム1900は、更に、例えば、受信機1911を介して、異なる視野方向のための帯域幅制約を含む、帯域幅及び/またはデータレート割り当て制御情報1952を受け取り、個々の帯域幅制約は、当該個々の帯域幅制約に対応する視野方向に対応したコンテンツを提供する1つ以上のコンテンツストリームを受け取るために使用されるべき最大帯域幅を指定する。いくつかの実施形態では、受信機1911は、更に、例えば、初期化フェーズまたは他の時間の間等、3D表面の少なくとも一部の上に画像コンテンツをマッピングするために使用されるために、3D表面を規定する3D深さマップ等の少なくとも1つの環境マップ、及び、1つ以上のUVマップを受け取るように構成される。いくつかの実施形態では、受信機1911は、シーン環境の第1の部分に対応する第1のUVマップ、当該シーン環境の第2の部分に対応する第2のUVマップ、シーン環境の第3の部分に対応する第3のUVマップは、第4の部分に対応する第4のUVマップ、シーン環境の第5の部分に対応する第5のマップを受け取る。いくつかの実施形態において、初期化の間に、システム1900は、例えば、インターフェース1910の受信機を介して、シーンの第1、第2、第3、第4、及び、第5の部分の1つ以上に対応する、例えば、画像等のコンテンツを受け取る。
[000236] メモリ1912は、プロセッサ1908によって実行されたとき、再生システム1900を、本発明に従って、デコードと出力動作を実行するよう制御する、例えば、ルーチン等の様々なモジュールを含む。メモリ1912は、制御ルーチン1914、頭の位置決定モジュール1916、現在の視野位置初期化モジュール1918、デコーダモジュール1920、現在選択されるストリーム初期化モジュール1922、コンテンツ配信起動モジュール1924、画像バッファ(または、複数のバッファ)1926、画像バッファ更新モジュール1928、画像生成モジュールとも呼ばれる画像描画モジュール1930、利用可能な帯域幅及び/またはサポートされるデータレート決定モジュール1932、頭の位置変化決定モジュール1934、利用可能な帯域幅及び/またはサポートされるデータレート変化決定モジュール1936、ストリーム選択モジュール1938、選択されたストリームの組変更決定モジュール1940、選択されたストリームの組更新モジュール1942、ストリーム(または、複数のストリーム)終了モジュール1944、受け取られたストリーム情報を含むデータ/情報1946、受け取られた、帯域幅及び/またはデータレート割り当て情報1948、決定された現在の最大の利用可能な帯域幅及び/またはサポート可能なデータレート1950、受け取られたエンコードされた画像コンテンツ1952、受け取られた環境マップ1954、受け取られたUVマップ(または、複数のUVマップ)1956、デコードされた画像コンテンツ1958、及び、生成された3Dコンテンツ1960を含む。
[000237] 制御ルーチン1914は、システム1900の動作を制御するために、デバイス制御ルーチンと通信ルーチンとを含む。頭の位置決定モジュール1916は、例えば、ヘッドマウントディスプレイの位置等のユーザの現在の頭の位置を決定するように構成される。例えば、頭の位置決定モジュール1916は、ヘッドマウントディスプレイを含むヘッドギア上にあってもよい位置センサと統合されてもよく、及び/または、連携して動作してもよい。現在の視野位置初期化モジュール1918は、例えば、初期化フェーズ中に、検出されたユーザの現在の頭の位置を前方(0度)視野位置に設定することによって、ユーザの現在の視野位置を、前方(0度)環境視野位置に初期化するように構成される。
[000238] デコーダモジュール1920は、デコードされた画像データ1958を生成するために、コンテンツ配信システム700からの受け取られたエンコードされた画像コンテンツ1952をデコードするよう構成される。デコードされた画像データ1958は、デコードされた立体視シーン、及び/または、デコードされたシーン部分を含み得る。デコードされたコンテンツは、いくつかの実施形態では、1つ以上の画像バッファ1926に記憶される。現在選択されるストリーム初期化モジュール1922は、受け取られるべく選択される1つ以上のコンテンツストリームの現在の組を初期化するように構成される。現在選択されるストリーム初期化モジュール1922は、ストリームの現在選択された組を、環境/シーンの前方/正面部分に対応するコンテンツを通信する第1のストリームに設定するよう構成される。
[000239] コンテンツ配信起動モジュール1924は、選択されたコンテンツストリーム(または、複数のストリーム)の配信を起動するように構成される。いくつかの実施形態では、コンテンツ配信起動モジュール1924が、既に受け取られていない選択された組におけるコンテンツストリームの配信を起動する。いくつかの実施形態では、コンテンツ配信起動モジュール1924は、例えば、ストリームの現在の選択された組に対応するコンテンツを通信するコンテンツストリームに対応したマルチキャストグループ等、選択されたコンテンツストリームに対応するマルチキャストグループ(または、複数のマルチキャストグループ)に参加するための要求信号を送るように構成される。いくつかの他の実施形態では、コンテンツ配信起動モジュール1924は、ネットワーク内のデバイスに、選択されたコンテンツストリームが通信される切り替えデジタルチャネルの配信を要求する要求を生成し、送るように構成される。
[000240] 画像バッファ更新モジュール1928は、例えば、コンテンツストリームの選択された組によって通信される、更新されたコンテンツが受け取られ、デコードされたとき、画像バッファ(または、複数の画像バッファ)1926を更新されたコンテンツで更新するように構成される。
[000241] 画像描画モジュール1930は、ディスプレイ1902及び/またはディスプレイデバイス1905上でユーザに表示するために、例えば、デコードされた画像コンテンツ1958を用いて、本発明の特徴に従って、3D画像として知覚されるような方法で表示される、例えば、左と右の眼の画像等の3D画像を生成する。いくつかの実施形態において、画像描画モジュール1930は、ユーザの現在の視野領域に対応する、デコードされた画像コンテンツ1958、環境マップ1954、及び、UVマップを使用した表示のためにコンテンツを描画するよう構成される。従って、いくつかの実施形態では、画像描画モジュール1930は、図17に示されたステップに関して検討された機能を実行するように構成される。生成された画像コンテンツは、3D画像生成モジュール1930の出力である。従って、描画モジュール1930は、ディスプレイに、3D画像コンテンツ1960を描画する。いくつかの実施形態では、画像描画モジュール1930は、例えば、ディスプレイデバイスに、または、他のデバイスに、1つ以上の生成された画像を出力するように構成される。生成された画像は、ネットワークインターフェース1910及び/またはディスプレイデバイスインターフェース1930を介して出力され得る。
[000242] 利用可能な帯域幅及び/またはサポートされるデータレート決定モジュール1932は、例えば、コンテンツストリームを受け取るために、所与の時間に利用可能であり得る、現在の最大の利用可能な帯域幅及び/または現在の最大のサポート可能なデータレートを決定するように構成される。利用可能な帯域幅及び/またはサポート可能なデータレートが、通信チャネル状態またはネットワーク問題における変化により時間とともに変化し得るので、いくつかの実施形態では、決定モジュール1932は、利用可能な帯域幅及び/またはサポートされるデータレートにおける変化を検出するために、継続的ベースで、モニタ及び/または決定を実行する。決定された現在の最大のサポート可能なデータレート及び/または帯域幅1950は、決定モジュール1932の出力であり、必要があるときに更新され得る。
[000243] 頭の位置変化決定モジュール1934は、例えば、頭の位置決定モジュール1916の出力における変化をチェック及び比較することによって、ユーザの頭の位置に変化があったかどうかを決定するように構成される。利用可能な帯域幅及び/またはサポートされるデータレート変化決定モジュール1936は、決定モジュール1932によって決定される、現在の最大の利用可能な帯域幅及び/または現在の最大のサポート可能なデータレートと比較して、利用可能な帯域幅及び/またはサポートされるデータレートに変化があるかどうかを検出するように構成される。
[000244] ストリーム選択モジュール1938は、ユーザの現在の頭の位置に基づいて、所定の時間での再生における使用のために、複数のコンテンツストリームのどれを受け取るかを選択するよう構成される。ユーザの現在の頭の位置及び/または他の要因における変化に基づいて、ストリーム選択モジュール1938は、異なる度に異なるストリーム(または、複数のストリーム)を選択することができる。ストリームの現在選択された組1961は、ストリーム選択モジュール1938の出力であり、受け取るために現在選択されたコンテンツストリームの組を示す。いくつかの実施形態では、ストリーム選択モジュール1938は、ストリーム選択動作の部分として、様々な機能を実行するように構成される複数のサブモジュールを含む。図23は、ストリーム選択モジュール1938、及び、その中に含まれる様々なモジュールをより詳細に示し、後述される。
[000245] 選択されたストリームの組変更決定モジュール1940は、例えば、選択モジュールが1つ以上の追加のコンテンツストリームを選択することに因り、及び/または、受け取られている1つ以上のストリームが終了された/停止されたことに因り、ストリームの現在選択された組1961において変更があったかどうかを決定するよう構成される。選択されたストリームの組更新モジュール1942は、例えば、ストリーム1961の選択された組へのコンテンツストリームの追加または終了に因り、ストリームの選択された組への変更があった場合に、ストリームの選択された組への任意の変更を反映するために、現在の選択されたストリームの組1961を更新するように構成される。ストリーム(または、複数のストリーム)終了モジュール1944は、例えば、ストリームの現在選択された組1961がストリームの選択における変更故に更新されることに因り、以前に受け取られていたが、もはやストリームの現在選択される組にはない1つ以上のコンテンツストリームを受け取ることを終了/停止するよう構成される。
[000246] ストリーム情報1946は、受け取ること、及び、再生における使用のために利用可能であり得る複数のコンテンツストリームに関する情報を含む。ストリーム情報1946に含まれる情報は、図18に示され、先に検討されたのと同じまたは同様である。受け取られた、帯域幅及び/またはデータレート割り当て制御情報1948は、異なる視野方向のための帯域幅制約、及び/または、様々な異なる視野方向のためのコンテンツを提供するコンテンツストリームに対応するデータレート上の制約を示す情報を含む。決定された現在の最大のサポート可能なデータレート及び/または帯域幅1950は、所与の時間に、再生システム1900によって決定される最大のサポート可能なデータレート及び/または帯域幅を示す。
[000247] 受け取られた環境マップ1954は、3D表面を規定する環境の3D深さマップを含む。関心のある環境に対応する1つ以上のそのような深さマップは、いくつかの実施形態では、再生システム1900によって受け取られ得る。受け取られたUVマップ(または、複数のUVマップ)1956は、関心のある環境/シーンの部分に対応する1つ以上のUVマップを含む。デコードされたデータ1958は、デコーダ1920によって、本発明に従ってデコードされたデータを含む。デコードされたデータ1958は、ストリームの選択された組によって通信された環境のシーンまたはシーン部分を含むコンテンツを含む。
[000248] いくつかの実施形態では、上述の様々なモジュールは、ソフトウェアモジュールとして実装される。他の実施形態では、モジュールは、例えば、各モジュールが、モジュールが対応する機能を実行するための回路として実装される個々の回路として、ハードウェアで実装される。更に、他の実施形態では、モジュールは、ソフトウェアとハードウェアの組み合わせを使用して実装される。
[000249] メモリ1912に含まれる例が図19に示されるが、再生デバイス1900に含まれる図示されたモジュールは、例えば、個々の回路として、プロセッサ1908の中にハードウェアで全体が実装され得、及び、いくつかの実施形態では実装される。モジュールは、例えば、異なるモジュールに対応する個別の回路として、ハードウェアで全体が実装され得る、及び、いくつかの実施形態では実装される。他の実施形態において、モジュールのいくつかが、例えば、回路として、プロセッサ1908の中に実装され、他のモジュールが、プロセッサ1908の外部で接続される、例えば、回路として、実装される。理解されるべきであるように、プロセッサ上のモジュールの統合のレベル、及び/または、プロセッサの外部にあるいくつかのモジュールと共に、設計事項の1つであり得る。代替的に、回路として実装されるのではなく、モジュールの全てまたはいくつかは、ソフトウェアで実装され、システム1900のメモリ1912に記憶され得、モジュールが、例えば、プロセッサ1908等のプロセッサによって実行されるとき、モジュールに対応する機能を実装するために、システム1900の動作を制御する。更に他の実施形態では、様々なモジュールは、ハードウェアとソフトウェアの組み合わせとして実装され、例えば、プロセッサの外部の他の回路がプロセッサ1908への入力を提供し、そして、プロセッサ1908が、ソフトウェア制御の下で、モジュールの機能の部分を実行するよう動作する。
[000250] 図23は、再生システム1900において使用されるストリーム選択モジュールとその中に含まれる各種のモジュールとをより詳細に示す。ストリーム選択モジュールは、図14−16に関連して詳細に説明されたように、本発明の方法に従って1つ以上のコンテンツストリームを選択するように構成される。いくつかの実施形態では、ストリーム選択モジュールは、ユーザの頭の位置、ストリーム情報1946、及び/または、最大のサポート可能なデータレートに基づいて、複数のコンテンツストリームのどれを受け取るかを選択するように構成される。いくつかの実施形態では、ストリーム選択モジュール1938は、ユーザの頭の位置に基づいて、コンテンツストリームの優先度付けをするように構成されたストリームの優先度付けモジュール2306を含む。ストリームの優先度付けモジュール2306の出力は、例えば、割り当てられた優先度でコンテンツストリームの優先度付けリストである。ストリームの優先度付けモジュール2306は、以下に、図24に関して更に詳細に説明される。
[000251] ストリーム選択モジュール1938は、更に、例えば、帯域幅及び/またはデータレート制約に基づいて、最も高い優先度を有するストリームのために使用されるべき最大の帯域幅及び/またはデータレートを決定するように構成される最も高い優先度のストリームの最大の帯域幅及び/またはデータレート決定モジュール2308と、より低い優先度を有する各ストリームのために使用されるためのより低い優先度ストリーム(または、複数のストリーム)の最大の帯域幅及び/またはデータレート決定モジュール2310とを含む。決定モジュール2308、2310は、いくつかの実施形態におけるそれぞれの決定を行うために、帯域幅制御情報1948とストリーム優先度付けモジュール2306の出力を使用する。したがって、ストリーム選択モジュール1938は、例えば、ネットワークデバイス/サーバから、再生システムに通信された帯域幅制約に基づいて、少なくとも1つのコンテンツストリームのための帯域幅を決定するように構成された1つ以上のストリームの帯域幅決定モジュールを含み得る。
[000252] ストリーム選択モジュール1938は、更に、最も高い優先度のストリーム(または、複数のストリーム)のために決定された最大の帯域幅及び/またはデータレートに基づいて、及び、利用可能な帯域幅及び/またはサポート可能なデータレートに基づいて、最も高い優先度のストリームがサポートされ得るかどうかを決定するよう構成されたモジュール2312と、サポートされ得る最も高い優先度の最も高いデータレートストリームを選択するよう構成されたモジュール2314とを含む。いくつかの実施形態では、選択モジュール2314は、最高の優先度を割り当てられた複数のコンテンツストリームから1つのコンテンツストリームを選択するように構成され、最も高い優先度に割り当てられた各コンテンツストリームは、同じ優先度を有する複数のコンテンツストリームから選択するように構成されることの部分として、同じ視線方向に対応するコンテンツを提供する。いくつかの実施形態において、モジュール2314は、利用可能な帯域幅の決定された量に基づいて、例えば、最も高い優先度等の同じ優先度を有する複数のコンテンツストリームから選択するように構成される。従って、いくつかの実施形態では、同じ優先度を有する複数のストリームが利用可能である、例えば、いくつかが、より低いデータレート要求を有する他のものと比較して高いデータレート要求をもつ、場合に、選択モジュール2314は、利用可能な帯域幅及び/またはサポート可能なデータレート、及び、帯域幅制約がそのような選択を可能にするならば、例えば、高データレートストリーム等の最も高い品質のストリームを選択する。
[000253] ストリーム選択モジュール1938は、更に、2番目に最も高い優先度ストリームのために決定された最大の帯域幅及び/またはデータレートに基づいて、及び、利用可能な帯域幅(例えば、合計の利用可能な、または、残りの利用可能な)及び/またはサポート可能なデータレートに基づいて、2番目に最も高い優先度のストリームがサポートされ得るかどうかを決定するように構成されたモジュール2316、サポートされ得る2番目に最も高い優先度の最も高いデータレートストリームを選択するよう構成されたモジュール2318、3番目に最も高い優先度のストリーム(または、複数のストリーム)のために決定された最大の帯域幅及び/またはデータレートに基づいて、及び、利用可能な帯域幅(例えば、合計の利用可能な、または、残りの利用可能な)及び/またはサポート可能なデータレートに基づいて、3番目の最も高い優先度ストリームがサポートされ得るかどうかを決定するよう構成されたモジュール2320、及び、サポートされ得る3番目に最も高い優先度の最も高いデータレートストリームを選択するよう構成されたモジュール2322を含む。従って、いくつかの実施形態では、ストリーム選択モジュール1938は、例えば、優先度付けモジュール2306により、最も高い優先度を割り当てられている1つ以上のコンテンツストリームを選択するように構成される。
[000254] ストリーム選択モジュール1938は、更に、例えば、1つ以上のより高い優先度のストリームが受け取りのために選択された後、追加のコンテンツストリームを受け取りための任意の残りのまたは追加の利用可能な帯域幅があるかどうかを決定するように構成される追加の容量/帯域幅利用可能性決定モジュール2324を含む。いくつかの実施形態では、ストリーム選択モジュール1938は、更に、1つ以上のより低い優先度ストリームのための最大の決定された最大帯域幅及び/またはデータレートに基づいて、及び、利用可能な帯域幅及び/またはサポート可能なデータレートに基づいて、サポートされ得る1つ以上のより低い優先度のストリームを選択するよう構成されたモジュール2326を含む。
[000255] 図24は、ストリーム選択モジュール1938の、例えば、サブモジュールとして等の部分として、または、個別のモジュールとして実装され得るストリーム優先度付けモジュール2306を示す。ストリームの優先度付けモジュール2306は、ユーザの頭の位置に基づいて、コンテンツストリームの優先度を決定するように構成される。コンテンツストリームが優先度付けされると、ストリーム選択モジュール1938は、優先度付けされたコンテンツストリームからのストリーム選択を行うことができる。いくつかの実施形態では、ストリーム優先度付けモジュール2306は、ユーザの現在の頭の位置に基づいて、ユーザが見ているシーン領域の部分を示す、ユーザの現在の視界を特定するように構成された現在の視界特定モジュール2404と、ユーザの現在の視界に対応するコンテンツを通信するストリーム(または、複数のストリーム)を特定するよう構成された現在の視界ストリーム(または、複数のストリーム)特定モジュール2404を含む。現在の視界ストリーム(または、複数のストリーム)特定モジュール2404の出力は、いくつかの実施形態ではメモリ1912に記憶され得る特定されたストリームのリストであり、リストは、ユーザの頭の位置、従って、視界が変化すると更新され得る。従って、様々な実施形態では、様々な利用可能なコンテンツストリームを優先度付けするために、まず、ユーザの現在の視界が頭の位置に応じて特定され、視界に対応するコンテンツを通信するストリームが特定される。
[000256] いくつかの実施形態では、ストリーム優度付けモジュール2306は、更に、特定されたストリーム(または、複数のストリーム)から、利用可能な、ユーザの現在の視界に対応するシーン領域の部分の大きさを決定するよう構成されたモジュール2406と、各ストリームが提供する部分の大きさに基づいて、ユーザの現在の視界に対応するシーン領域の部分を提供する1つ以上のストリームに優先度付与するように構成された優先度付与/割り当てモジュール2408を含む。いくつかの実施形態において、優先度付与/割り当てモジュール2408は、現在の視界に対応するシーンの最も大きな部分を提供するストリームをプライマリストリームとして指定する等、視界の最も大きい部分を提供するストリームに最も高い優先度を付与するように構成されたモジュール2410を含む。いくつかの実施形態では、優先度付与/割り当てモジュール2408は、更に、例えば、視界のより大きな部分を提供するストリームが、現在の視界に対応するシーンのより小さい部分を提供する他のストリームよりも高い優先度と指定を与えられて、残りのストリームの各々が提供する視界の部分の大きさに基づいて、残りのストリームに、次に最も高い優先度(または、複数の優先度)を付与し、指定する(例えば、2次、3次、等)ように構成されたモジュール2412を含む。
[000257] いくつかの実施形態では、ストリーム優先度付けモジュール2306は、更に、現在の視界外のシーン領域に対応するコンテンツを提供するストリーム等、優先度付けされるべき残りのストリームが存在するかどうかを決定するように構成されたモジュール2414を含む。
[000258] いくつかの実施形態では、ストリーム優先度付けモジュール2306は、更に、現在の視界への画像コンテンツの近接、または、頭の回転の方向の一方に基づいて、ユーザの現在の視界の外側のコンテンツを提供する1つ以上の追加のストリームに、例えば、優先度を付与する等の優先度付けをするよう構成されたモジュール2416を含む。いくつかの実施形態において、モジュール2416は、現在の視界の領域に接する画像コンテンツを通信するコンテンツストリームが、現在の視界の外で更に離れたコンテンツストリームより高い優先度を付与されるように、通信される画像コンテンツの現在の視界への近接に基づいて、前記現在の視界の外の部分に対応するコンテンツを通信する1つ以上の追加のストリームを優先度付けするように構成される。
[000259] いくつかの実施形態において、モジュール2416は、ユーザの頭の回転が、例えば、ユーザの頭の位置における変化の部分として、検出されるかどうかを決定するように構成される頭の回転決定モジュール2418を含む。いくつかであるが全てではない実施形態において、ユーザが、空や屋根に向かって見上げる、または、地面に向かって見下ろす場合、頭の位置におけるそれからの変化はあるが、そのような頭の動きは頭の回転とはみなされない。いくつかの実施形態において、現在の視界の外だが、頭の回転の方向にある画像コンテンツを提供するコンテンツストリームが、頭の回転の方向から離れた方向で現在の視界の外にある画像コンテンツを提供する他のコンテンツストリームより高い優先度を付与されるように、モジュール2416は、ユーザの頭の回転の方向に基づいて、1つ以上の追加のコンテンツストリームを優先度付けするよう構成される。いくつかのこのような実施形態では、モジュール2416は、更に、現在の視界の外のシーンの部分、例えば、シーン環境の頂部または底部、に対応するコンテンツを提供するストリームに、次により低い優先度(例えば、より高い優先度が、視界に対応するコンテンツを提供するストリームに付与された後)とストリーム指定、例えば、3次、を付与するように構成されたモジュール2420を含む。いくつかの実施形態では、頭の回転がないと決定された場合、頭の回転決定モジュールは、追加のストリームに優先度を付与するために、モジュール2420に制御入力を提供する。
[000260] いくつかの実施形態において、モジュール2416は、更に、先の頭の位置に対するユーザの頭の回転の方向、例えば、左または右、を決定するよう構成される頭の回転の方向決定モジュール2422を含む。いくつかの実施形態では、モジュール2416は、更に、頭の回転の方向を考慮して、現在の視界の外の部分に対応するコンテンツを通信する1つ以上の追加のストリームに優先度を付与するように構成されたモジュール2424を含む。いくつかの実施形態において、モジュール2424は、頭の回転の方向にあるシーンの部分に対応するコンテンツを提供するストリームに、次により低い優先度(例えば、より高いものから次に利用可能な優先度)と、指定、例えば、3次ストリーム、とを付与するように構成されたモジュール2426を含む。従って、頭の回転が検出された場合、ストリームへの優先度の付与は、いくつかの実施形態において、頭の回転の方向に基づいて行われることが理解されるべきである。いくつかの実施形態において、モジュール2416は、更に、考慮されている残りのストリームのいずれかにより低い優先度を付与するように構成された追加モジュール2428を含む。
[000261] 単一のプロセッサ、例えば、コンピュータ、として、図19の実施形態に示されるが、プロセッサ1908は、例えば、1つ以上のコンピュータ等の1つ以上のプロセッサとして実装されてもよいことが理解されるべきである。ソフトウェアで実施される場合、モジュールは、プロセッサ1908によって実行されると、プロセッサ1908をモジュールに対応する機能を実装するように構成するコードを含む。図19、23、及び、24に示される様々なモジュールがメモリ1912に記憶される実施形態では、メモリ1912は、例えば、プロセッサ1908等の少なくとも1つのコンピュータにモジュールが対応する機能を実装させるために、例えば、各モジュールのための個別のコード等のコードを備える、コンピュータが読出し可能な媒体を備えるコンピュータプログラム製品である。
[000262] 完全にハードウェアベースの、または、完全にソフトウェアベースのモジュールが使用され得る。しかし、例えば、回路に実装されたモジュール等のソフトウェアとハードウェアとの任意の組み合わせが、機能を実装するために使用され得る。理解されるべきであるように、図19、23、及び、24に示されたモジュールは、図14のフローチャート1400に示された、及び/または、記載された対応するステップの機能を実行し、図15−17に示された対応するステップの機能を実行するために、システム1900、または、プロセッサ1908等のその中の要素を制御し、及び/または、構成する。
[000263] 図20A、図20B、図20C、図20D、及び、図20Eの組合せを備える図20は、様々な例示的な実施形態に従ってコンテンツ再生システムを動作させる例示的な方法のフローチャート2000である。コンテンツ再生システムは、例えば、様々な実施形態に従って、ディスプレイに接続されたコンテンツ再生デバイスまたはコンピュータシステムである。
[000264] 例示的な方法の動作は、コンテンツ再生システムが電源投入され、初期化されるステップ2002で開始する。動作は、ステップ2002から、コンテンツ再生システムが、前記環境の第1の後方視野部分に対応する第1の画像を受け取るステップ2004に進む。動作は、ステップ2004から、コンテンツ再生システムが前記環境の前記第1の後方視界部分に対応する前記受け取られた第1の画像を記憶するステップ2006に進む。動作は、ステップ2006から、コンテンツ再生システムが、前記環境の前記第1の後方視野部分に対応する少なくとも第2の画像を含む、前記環境の第1の後方視野部分に対応する1つ以上の追加の画像を受け取るステップ2008に進む。動作は、ステップ2008から、コンテンツ再生システムが、前記環境の前記第1の後方視野部分に対応する前記受け取られた1つ以上の追加の画像を記憶するステップ2010に進む。動作は、ステップ2010からステップ2012に進む。
[000265] ステップ2012において、コンテンツ再生システムは、前記環境の第2の後方視野部分に対応する第1の画像を受け取る。動作は、ステップ2012から、コンテンツ再生システムが前記環境の前記第2の後方視野部分に対応する前記受け取られた第1の画像を記憶するステップ2014に進む。動作は、ステップ2014から、前記環境の前記第2の後方視野部分に対応する少なくとも第2の画像を含む、前記環境の前記第2の後方視野部分に対応する1つ以上の追加の画像を受け取るステップ2016に進む。動作は、ステップ2016から、コンテンツ再生システムストアが、前記環境の前記第2の後方視野部分に対応する前記受け取られた1つ以上の追加の画像を記憶するステップ2018に進む。動作は、ステップ2018からステップ2020に進む。
[000266] ステップ2020において、コンテンツ再生システムは、前記環境の空の視野部分に対応する1つ以上の画像を受け取る。動作は、ステップ2020から、コンテンツ再生システムが、前記環境の前記空の視野部分に対応する前記受け取られた1つ以上の画像を記憶するステップ2022に進む。動作は、ステップ2022から、コンテンツ再生システムが、前記環境の地面の視野部分に対応する1つ以上の画像を受け取るステップ2024に進む。動作は、ステップ2024から、コンテンツ再生システムが、前記環境の前記地面の視野部分に対応する前記受け取られた1つ以上の画像を記憶するステップ2026に進む。いくつかの実施形態では、空の視野と地面の視野は、見る者の名目上の頭の位置の眺望に関して上と下の方向を指し、屋内環境だけでなく、屋外環境にも適用するために使用される。
[000267] いくつかの実施形態では、画像は、例えば、特定の実施形態に応じて、第1の後方視野部分、第2の後方視野部分、空の視野部分、及び、地面の視野部分の内のいくつかであるが、必ずしも全てではないものに対応して受け取られ得る。
[000268] 動作は、ステップ2026から、接続ノードA 2028を介して、ステップ2030に、ステップ2034に進み、及び、接続ノードB 2036を介して、ステップ2028、2040、2042、2044、2046、2048、2050、及び、2052に進む。ステップ2030に戻って、ステップ2030において、コンテンツ再生システムは、見る者の頭の位置を決定し、前記頭の位置は、現在の視界に対応する。動作は、ステップ2030から、決定された頭の位置に基づいて、前記見る者についての現在の視界を決定するステップ2032に進む。動作は、ステップ2032から、ステップ2030に進む。ステップ2030と2032は、例えば、継続ベースで、繰り返し実行され、現在の視界は、例えば、リフレッシュされる等、更新される。決定された現在の視界は、出力画像の生成に使用されるために利用可能である。
[000269] ステップ2034では、コンテンツ再生システムは、環境の第1の部分、例えば、前方部分の視野、に対応するコンテンツを提供する第1のコンテンツストリームを受け取る。
[000270] ステップ2038において、コンテンツ再生システムは、前記第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間に、前記環境の前記第1の後方視野部分に対応する複数の先に通信された画像のどれが表示されるべきかを示す制御情報を受け取る。ステップ2040において、コンテンツ再生システムは、前記イベントの部分の間に、環境の前記第1の後方視野部分に対応する複数の画像のどれが使用されるべきかを示す画像選択情報を受け取る。
[000271] ステップ2042において、コンテンツ再生システムは、前記第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間に、前記環境の前記第2の後方視野部分に対応する複数の先に通信された画像のどれが表示されるべきかを示す制御情報を受け取る。ステップ2044において、コンテンツ再生システムは、前記イベントの部分の間に、環境の前記第2の後方視野部分に対応する複数の画像のどれが使用されるべきであるかを示す画像選択情報を受け取る。
[000272] ステップ2046では、コンテンツ再生デバイスは、前記第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間に、前記環境の前記空の視野部分に対応する複数の先に通信された画像のどれが表示されるべきかを示す制御情報を受け取る。ステップ2048において、コンテンツ再生システムは、前記イベントの部分の間に、環境の前記空の視野部分に対応する複数の画像のどれが使用されるべきかを示す画像選択情報を受け取る。
[000273] ステップ2050において、コンテンツ再生システムは、前記第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間、前記環境の前記地面の視野部分に対応する複数の先に通信された画像のどれが表示されるべきかを示す制御情報を受け取る。ステップ2052において、コンテンツ再生デバイスは、前記イベントの部分の間に、環境の前記地面の視野部分に対応する複数の画像のどれが使用されるべきであるかを示す画像選択情報を受け取る。
[000274] 動作は、ステップ2032、ステップ2034から、及び、並列に実行され得るステップ(2038、2040、2042、2044、2046、2048、2050、及び、2052)から接続ノードC 2054を介して、接続ノードD 2056を介して、ステップ2058に進む。
[000275] いくつかの実施形態では、ステップ2038、2040、2042、2044、2046、2048、2050、及び、2052からの制御情報は、制御情報が使用されるべきステップ2034の対応する第1のストリームコンテンツに、例えば、一度に少しずつの態様で、わずかに先立って送られる。いくつかの他の実施形態では、制御情報のブロックが、第1のコンテンツストリームを受け取ることの開始に先立って、または、同時に、受け取られる。
[000276] ステップ2058において、コンテンツ再生システムは、
環境の前方部分の視野等の第1の部分の視野に対応する第1のコンテンツストリームから受け取られたコンテンツ、
環境の第1の後方視野部分に対応する、記憶された受け取られた画像、
環境の第2の後方視野部分に対応する、記憶された受け取られた画像、
環境の空の視野部分に対応する、記憶された受け取られた画像、
環境の地面の視野部分に対応する、記憶された受け取られた画像、または、
画像が利用可能でない現在の視界の部分に対応する合成された画像、
の内の少なくとも1つに基づいて、現在の視界に対応する1つ以上の出力画像を生成する。ステップ2058は、ステップ2060、2062、2064、2066、2068、2076、及び、2078を含む。
環境の前方部分の視野等の第1の部分の視野に対応する第1のコンテンツストリームから受け取られたコンテンツ、
環境の第1の後方視野部分に対応する、記憶された受け取られた画像、
環境の第2の後方視野部分に対応する、記憶された受け取られた画像、
環境の空の視野部分に対応する、記憶された受け取られた画像、
環境の地面の視野部分に対応する、記憶された受け取られた画像、または、
画像が利用可能でない現在の視界の部分に対応する合成された画像、
の内の少なくとも1つに基づいて、現在の視界に対応する1つ以上の出力画像を生成する。ステップ2058は、ステップ2060、2062、2064、2066、2068、2076、及び、2078を含む。
[000277] ステップ2060において、コンテンツ再生システムは、1つ以上の出力画像を生成することにおいて使用されるように、現在の視界に基づいて、例えば、そのために利用可能なデータがある、視野部分の組を決定する。いくつかの例示的な決定された組は、例えば、{}、{正面視野部分}、{第1の後方視野部分}、{第2の後方視野部分}、{空の視野部分}、{地面の視野部分}、{正面視野部分、空の視野部分}、{正面視野部分、地面の視野部分}、{正面視野部分、第1の後方視野部分}、{正面視野部分、第2の後方視野部分}、{正面視野部分、第1の後方視野部分、空の部分}、{正面視野部分、第2の後方視野部分、空の視野部分}、{正面視野部分、第1の後方視野部分、地面の視野部分}、{正面視野部分、第2の後方視野部分、地面の視野部分}、{第1の後方視野部分、空の視野部分}、{第1の後方視野部分、地面の視野部分}、{第1の後方視野部分、第2の後方視野部分}、{第1の後方視野部分、第2の後方視野部分、空の視野部分}、{第1の後方視野部分、第2の後方視野部分、地面の視野部分}、{第2の後方視野部分、空の視野部分}、及び、{第2の後方視野部分、地面の視野部分}、を含む。
[000278] 動作は、ステップ2060からステップ2062に進む。ステップ2062において、コンテンツ再生システムは、以下の2つの条件が満たされているか否かを決定する:(i)ステップ2060からの決定された視野部分の組は、第1の視野部分のみを含む、及び、(ii)第1の視野部分の外の現在の視界の部分はない。該決定が、決定された組が第1の視野部分のみを含み、第1の視野部分の外に現在の視界の部分はないことである場合、動作は、ステップ2062からステップ2064に進み、そうでなければ、動作は、ステップ2062からステップ2066へ進む。
[000279] ステップ2064において、コンテンツ再生システムは、第1のコンテンツストリームからの受け取られたコンテンツに基づいて、現在の視界に対応する1つ以上の出力画像を生成する。
[000280] ステップ2066において、コンテンツ再生システムは、画像が利用可能でない前記現在の視界の何れかの部分があるかどうかを決定する。コンテンツ再生システムが、画像が利用可能でない現在の視界の少なくとも1つの部分があると決定した場合、動作は、ステップ2066からステップ2076に進み、そうでない場合は、動作は、ステップ2066からステップ2068に進む。
[000281] ステップ2068において、コンテンツ再生システムは、1つ以上の出力画像を生成することにおいて使用されるように、視野部分の決定された組に基づいて、現在の視界に対応する1つ以上の出力画像を生成する。ステップ2068は、コンテンツ再生システムは、第1のコンテンツストリームに含まれる少なくともいくつかの受け取られたコンテンツと、前記環境の第2の部分に対応する記憶されたコンテンツとに基づいて、現在の視界に対応する1つ以上の出力画像を生成するステップ2070を含み得る、もしくは、時々含む。いくつかの実施形態において、ステップ2070は、ステップ2072、及び、2074の一方または両方を含む。ステップ2072において、コンテンツ再生システムは、受け取られた画像選択情報に基づいて、環境の第2の部分の視野に対応する画像を選択する。動作は、ステップ2072から2074に進む。ステップ2074において、コンテンツ再生システムは、時間の第2の点で取り込まれた前記第1のストリームから得られたコンテンツを、時間の前記第1の点に対応する第1の画像と組み合わせ、ここで、時間の前記第1と第2の点は異なる。
[000282] いくつかの実施形態では、第1の画像は、環境の第2の部分の第1の画像であり、第2の部分は、環境の第1の後方視野部分と環境の第2の後方視野部分の一方である。いくつかのそのような実施形態では、時間における第1の点は、時間における第2の点に先立つ時間に対応する。いくつかのそのような実施形態では、時間における第1の点は、第1のコンテンツストリームにおける画像が取り込まれる間のライブイベントの時間に先行する。
[000283] ステップ2076に戻って、ステップ2076は、画像が利用可能でない各部分のために実行される。ステップ2076において、コンテンツ再生システムは、画像が利用可能でない前記現在の視界の部分のために画像を合成する。動作は、ステップ2076からステップ2078に進む。ステップ2078において、コンテンツ再生システムは、1つ以上の出力画像及び/または1つ以上の合成された画像を生成することにおいて使用されるように、環境の視野部分の決定された組に基づいて、現在の視界に対応する1つ以上の出力画像を生成する。ステップ2078によって生成される出力画像は、全体に合成された画像、合成された画像からのコンテンツと第1のコンテンツストリームからのコンテンツを含む画像、合成された画像からのコンテンツと第1のコンテンツストリームからのコンテンツと記憶された画像からのコンテンツを含む画像、及び、合成された画像からのコンテンツと記憶された画像からのコンテンツを含む画像を含み得る。様々な実施形態では、ステップ2078は、ステップ2080と2082の一方または両方を含み得、時には含む。
[000284] ステップ2080において、コンテンツ再生システムは、第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツと、環境の例えば第2の部分等の部分をシミュレートする合成画像とに基づいて、現在の視界に対応する1つ以上の出力画像を生成する。ステップ2082において、コンテンツ再生デバイスは、現在の視界に対応する画像を生成するために、合成された画像を、受け取られた画像の少なくとも部分と組み合わせる。
[000285] 現在の視界は、経時的に変化し得る、及び、一般的には変化することが理解されるべきである。現在の視界の変化に応答して、出力画像を生成するために使用される、視野部分の異なる組が、ステップ2060において決定され、異なる画像が、例えば、画像のない視界の異なる部分に対応して、必要とされ得、ステップ2076において合成される。加えて、異なる度に、受け取られた制御情報に基づいて、異なる度に組み合された出力画像を生成することにおいて使用されるべく、異なる記憶された画像が特定され得る。
[000286] 動作は、ステップ2058から、接続ノードE 2084を介して、コンテンツ再生システムが、生成された1つ以上の出力画像を出力する、及び/または、表示するステップ2086に進む。ステップ2086は、コンテンツ再生システムが、第1の出力画像を出力し、及び/または、表示し、第1の出力画像は1つ以上の生成された出力画像の1つであるステップ2088を含む。
[000287] いくつかの実施形態では、現在の視界に対応する、例えば、ステップ2070で生成された、生成された出力画像は、環境の第1の部分、環境の第2の部分、及び、環境の第3の部分からの情報を含み得、時には含む。いくつかの実施形態では、第1のコンテンツストリームに対応する環境の第1の部分は、正面視野部分であり、環境の第2の部分は、環境の、例えば、右後方視野部分である第1の視野部分、及び、例えば、左後方視野部分である第2の後方視野部分の一方であり、環境の第3の部分は、環境の空の視野部分と地面の視野部分の一方である。いくつかのそのような実施形態では、第1の部分に対応するコンテンツは、イベントが進行中の間、取り込まれ、前記再生システムにストリーミングされるリアルタイムコンテンツを含み、第2及び第3の部分に対応するコンテンツは、リアルタイムでない画像である。
[000288] 様々な実施形態では、現在の視界に対応する出力画像を生成するためにコンテンツを組み合わせることは、例えば、環境の正面視野部分に対応する第1のコンテンツストリームから得られる画像、環境の第1の後方視野部分に対応する記憶された画像、環境の第2の後方視野部分に対応する記憶された画像、環境の空の視野部分に対応する記憶された画像、環境の地面視野部分に対応する記憶された画像、及び、画像がない現在の視界における領域に対応する合成された画像の内の任意の2つの間の境界領域といった1つ以上の境界領域において、フィルタリング、ぼかし、輝度変化、及び/または、色変化を行うことを含む。
[000289] いくつかの実施形態では、第1のコンテンツストリームに対応する、第1の、例えば、正面視野部分、及び、受け取られた画像が記憶される1つ以上の追加の部分によって覆われない、環境のいくつかの部分がある。様々な実施形態では、環境のそれらの覆われていない部分のために、画像が合成される。例えば、一実施形態では、空の視野部分に対応する記憶された画像が存在しないことがあり、現在の視界が空の視野の部分を含む場合、画像が合成される。他の例では、第1の後方視野部分と第2の後方視野部分との間に、例えば、覆われていない領域等の良く見えない場所(dead spot)が存在し得る。いくつかの実施形態では、画像を合成することは、環境中の隣接領域に対応して、例えば、記憶された画像の部分、または、受け取られた第1のコンテンツストリームから得られた画像の部分等の画像の部分を繰り返すことを含む。
[000290] いくつかの実施形態では、ステップ2034において受け取られた第1の画像コンテンツは、例えば、左と右の眼の画像のペアが受け取られるといった、左眼の画像と右眼の画像を含む立体視画像コンテンツである。いくつかのそのような実施形態において、第1の後方視野部分、第2の後方視野部分、空の視野部分、及び、地面の視野部分に対応して受け取られ、記憶された画像は、左の眼の画像と右の眼の画像とを、例えば、ペアで、含む。従って、例えば、ステップ2070において、現在の視界に対応する1つ以上の出力画像を生成する場合、例えば、正面視野部分といった第1の視野部分に対応する第1のコンテンツストリームからの左眼の画像は、環境の1つ以上の他の部分に対応する記憶された左眼の画像と組み合され、例えば、正面視野部分等の第1の視野部分に対応する第1のコンテンツストリームからの右眼の画像は、環境の1つ以上の他の部分に対応する記憶された右画像と組み合される。
[000291] いくつかの他の実施形態では、第1の後方視野部分、第2の後方視野部分、空の視野部分、及び、地面の視野部分に対応する、受け取られ、記憶された画像は、画像の元のペアからの左眼の画像または右眼の画像を含み、または、例えば、視野部分を取り込むために単独で動作している単一のカメラからの、単一(モノ)の画像を含む。従って、そのような実施形態において、例えば、ステップ2070において、現在の視野に対応する1つ以上の出力画像を生成するとき、例えば、正面視野部分に対応する、第1のコンテンツストリームからの左眼画像と第1のコンテンツストリームからの対応する右眼の画像の両方が、他の視野部分からの同じ記憶された画像と組み合わされる。
[000292] 更に他の実施形態において、記憶された画像のいくつかは、左と右の眼の画像ペアの両方を含み、他方、他のものは単一の記憶された画像を含む。例えば、第1の後方視野部分に対応する記憶された受け取られた画像は、左と右の眼の画像のペアを含み得るが、他方、空の視野部分に対応する記憶された受け取られた画像は、ペアではなく、例えば、モノ画像といった単一の画像を含み得る。
[000293] いくつかの実施形態において、例えば、第1のコンテンツストリームに対応する、環境の第1の部分は、第1の視野部分であり、環境の第2の部分は、例えば、見る者の右後方に対応する第1の後方視野部分、または、見る者の左後方に第2の後方視野部分等の後方視野部分であり、環境の第3の部分は空の視野部分または地面の視野部分である。いくつかのそのような実施形態では、画像は、第1、第2、及び、第3の部分に対応する異なるレートで受け取られ、前記第2の部分についてより、前記第1の部分に対応するイベントのために、より多くの画像が受け取られる。いくつかのそのような実施形態では、前記第3の部分についてよりも、前記第2の部分に対応して、より多くの画像が受け取られる。
[000294] いくつかの実施形態に従って、コンテンツ再生システムを動作させる例示的な方法は、以下を含む:
見る者の頭の位置を決定すること、前記頭の位置は現在の視界対応する、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取ること、
前記第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツ、及び、i)前記環境の第2の部分に対応する記憶されたコンテンツ、または、ii)前記環境の第2の部分をシミュレートする合成画像に基づいて、1つ以上の出力画像を生成すること、及び、
第1の出力画像を出力する、または、表示すること、前記第1の出力画像は、1つ以上の生成された出力画像の1つである。
いくつかの実施形態において、コンテンツ再生システムは、コンテンツ再生デバイスである。いくつかの再生システムは、ディスプレイに接続されたコンピュータシステムである。
見る者の頭の位置を決定すること、前記頭の位置は現在の視界対応する、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取ること、
前記第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツ、及び、i)前記環境の第2の部分に対応する記憶されたコンテンツ、または、ii)前記環境の第2の部分をシミュレートする合成画像に基づいて、1つ以上の出力画像を生成すること、及び、
第1の出力画像を出力する、または、表示すること、前記第1の出力画像は、1つ以上の生成された出力画像の1つである。
いくつかの実施形態において、コンテンツ再生システムは、コンテンツ再生デバイスである。いくつかの再生システムは、ディスプレイに接続されたコンピュータシステムである。
[000295] 様々な態様において、方法は、更に、以下を含む:
前記環境の第2の部分に対応する第1の画像を受け取ること、及び、
前記環境の前記第2の部分に対応する前記第1の画像を記憶すること。
前記環境の第2の部分に対応する第1の画像を受け取ること、及び、
前記環境の前記第2の部分に対応する前記第1の画像を記憶すること。
[000296] いくつかの実施形態では、前記環境の前記第2の部分の前記第1の画像は、時間の第1の点に対応し、現在の視界に対応する1つ以上の出力画像を生成することは、時間の第2の点で取りこまれた前記第1のコンテンツストリームから得られたコンテンツを、時間の前記第1の点に対応する前記第1の画像と組み合わせることを含み、時間の前記第1と第2の点は異なる。いくつかのそのような実施形態では、時間における前記第1の点は、時間における前記第2の点に先行する時間に対応する。いくつかのそのような実施形態では、前記第1のコンテンツストリームに含まれた画像が取り込まれる間のライブイベントの時間に先行する。
[000297] 様々な実施形態において、方法は、更に、前記環境の前記第2の部分に対応する1つ以上の追加の画像を受け取ることを含み、前記環境の前記第2の部分に対応する前記1つ以上の追加の画像は、少なくとも第2の画像を含む。
[000298] いくつかの実施形態において、方法は、前記第1のコンテンツストリームに示された再生時間に対して計測されたような再生時間の間に、前記環境の前記第2の部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取ることを含む。
[000299] いくつかの態様では、前記環境の第2の部分は、第1の後方視野部分、第2の後方視野部分、空の視野部分、または、地面の視野部分の1つである。
いくつかのそのような実施形態において、方法は、更に、前記環境の第3の部分に対応する1つ以上の画像を受け取ることを含む。
いくつかのそのような実施形態において、方法は、更に、前記環境の第3の部分に対応する1つ以上の画像を受け取ることを含む。
[000300] 様々な実施形態において、前記環境の前記第1の部分は正面視野部分であり、前記第3の部分は、空の視野または地面の視野部分の1つであり、画像は、前記第1、第2、及び、第3の部分に対応する異なるレートで受け取られ、前記第2の部分についてより、前記第1の部分に対応するイベントに対応するイベントのために、より多くの画像が受け取られる。
[000301] 様々な実施形態において、前記第1の部分に対応するコンテンツは、イベントが進行中であった間に前記再生デバイスに取り込まれ、ストリーミングされたリアルタイムコンテンツを含み、前記第2及び第3の部分に対応する前記画像に対応するコンテンツは、リアルタイムでない画像である。いくつかのそのような実施形態では、前記イベントの部分の間に、環境の前記第2の部分に対応する複数の画像のどれが使用されるべきであるかを示す画像選択情報を受け取り、少なくともいくつかの受け取られたコンテンツに基づいて、現在の視界に対応する1つ以上の出力画像を生成することは、受け取られた画像選択情報に基づいて、環境の第2の部分に対応する画像を選択することを含む。
[000302] 様々な実施形態では、例示的な方法は、画像が前記現在の視界の部分のために利用可能でないことを決定すること、画像が利用可能でない前記現在の視界の前記部分のために使用されるべき画像を合成すること、及び、現在の視界に対応する画像を生成するために、合成された画像を、受け取られた画像の少なくとも部分と組み合わせることを含む。
[000303] 様々な実施形態において、第1の画像コンテンツは、左眼の画像と右眼の画像を含む立体視画像コンテンツである。
[000304] 図21は、図1と7に示されたもの等のコンテンツ配信システムから受け取られた画像コンテンツを、受け取り、デコードし、記憶し、処理し、表示するために使用され得る、本発明に従って実装された例示的なコンテンツ再生システム2100を示す。システム2100は、ディスプレイ2102を含む単一の再生デバイス2100‘として、または、コンピュータシステム2100に接続された、例えば、ヘッドマウントディスプレイといった外部ディスプレイ等の要素の組み合わせとして、実装され得る。
[000305] 少なくともいくつかの実施形態では、コンテンツ再生システム2100は、3Dヘッドマウントディスプレイ含む。ヘッドマウントディスプレイは、ヘッドマウントディスプレイ2105を含み得るOculus社のRIFT(商標) VR(バーチャルリアリティ)ヘッドセットを使用して実装され得る。いくつかの実施形態では、ヘッドマウントディスプレイ2105は、ヘッドマウントディスプレイ805と同じである。他のヘッドマウントディスプレイも使用され得る。いくつかの実施形態では、1つ以上の表示スクリーンを有するヘッドマウントディスプレイ、または、他のヘッドマウントデバイスが、ユーザの左と右の眼にコンテンツを表示するために使用される。ヘッドマウントは、異なる眼に単一のスクリーンの異なる部分を晒すように構成され、単一のスクリーン上に左と右の眼に異なる画像を表示することによって、単一のディスプレイは、見る者の左と右の眼によって別々に知覚される左と右の眼の像を表示するために使用され得る。いくつかの実施形態では、セルフォンの画面が、ヘッドマウントディスプレイデバイスのディスプレイとして使用される。少なくともいくつかのそのような実施形態において、セルフォンは、ヘッドマウントデバイスに挿入され、セルフォンは、画像を表示するために使用される。
[000306] コンテンツ再生システム2100は、例えば、環境またはシーンの異なる部分に対応する左と右の眼の画像、及び/または、モノ(単一画像)である、受け取られたエンコードされた画像データをデコードし、例えば、ユーザによって3D画像として知覚される、異なる左と右の眼の画像を描画し、表示することによって、顧客に対する表示のための3D画像コンテンツを生成する能力を有する。いくつかの実施形態では、コンテンツ再生システム2100は、家庭やオフィス等の顧客の宅内に設けられるが、同様に、画像取り込みサイトに設けられてもよい。コンテンツ再生システム2100は、本発明に従って、信号受け取り、デコード、処理、生成、表示、及び/または、他の動作を実行し得る。
[000307] システム2100は、ディスプレイ2102、ディスプレイデバイスインターフェース2103、入力デバイス2104、入力/出力(I/O)インターフェース2106、プロセッサ2108、ネットワークインターフェース2110、及び、メモリ2112を含む。メモリ2112は、例えば、ソフトウェアモジュールのアセンブリといったモジュール2114のアセンブリと、データ/情報2116を含む。いくつかの実施形態では、システム2100は、例えば、回路等のハードウェアモジュールのアセンブリ等のモジュール2115のアセンブリを含む。システム2100の様々なコンポーネントは、データがシステム2100のコンポーネント間で、及び/または、他の接続によって、または、無線インターフェースを介して通信されることを可能にするバス2109を介して互いに接続される。いくつかの実施形態において、ディスプレイ2102は、破線の枠を用いて図示されるオプションの要素として含まれているが、ヘッドマウント立体視ディスプレイデバイス等の外部のディスプレイデバイス2105が、ディスプレイデバイスインターフェース2103を介して再生デバイスに接続され得る。
[000308] 例えば、セルフォンプロセッサがプロセッサ2108として使用され、セルフォンがヘッドマウントにおいて画像を生成し、表示する場合には、システムは、ヘッドマウントデバイスの部分として、プロセッサ2108、ディスプレイ2102、及び、メモリ2112を含み得る。プロセッサ2108、ディスプレイ2102、メモリ2112は、全て、セルフォンの部分であってよい。システム2100の他の実施形態では、プロセッサ2108は、ディスプレイ2105がヘッドマウントデバイスに搭載され、ゲームシステムに接続されている、XBOXまたはPS4等のゲームシステムの部分であってよい。プロセッサ2108及び/またはディスプレイ2112が、頭に装着されるデバイスに設けられるか否かは重要ではなく、理解され得るように、いくつかの場合には、電力、熱、重量の観点から、ヘッドギアの中にプロセッサ2108を共存させることは便利であり得るが、少なくともいくつかの場合には、プロセッサ2108とメモリ2112を、ディスプレイを含むヘッドギアに接続されるようにすることが望まれ得る。
[000309] 様々な実施形態は、ヘッドマウントディスプレイ2105または2102を企図するが、方法と装置は、また、3D画像をサポートすることができる、ヘッドマウントでないディスプレイで使用され得る。従って、多くの実施形態において、システム2100は、ヘッドマウントディスプレイ含むが、それは、また、ヘッドマウントでないディスプレイを用いて実装されることができる。
[000310] メモリ2112は、プロセッサ2108によって実行されたとき、本発明に従った動作を実行するようコンテンツ再生システム2100を制御する、例えば、ルーチンといった様々なモジュールを含む。メモリ2112は、例えば、ソフトウェアモジュールのアセンブリといったモジュール2114のアセンブリと、データ/情報2116とを含む。
[000311] データ情報2116は、以下の全ての内の1つ以上を含む:
第1の後方視野部分に対応する受け取られた画像2118、
第2の後方視野部分に対応する受け取られた画像2120、
空の視野部分に対応する受け取られた画像2122、及び、
地面の視野部分に対応する受け取られた画像。
後方視野部分に対応する例示的な受け取られた画像は、例えば、立っている聴衆または観衆の画像、座っている聴衆または観衆の画像、異なる可視広告をもった画像、応援している観衆の画像、等を含む。空の視野に対応する例示的な受け取られた画像は、例えば、晴天、異なる雲のパターン、異なる時間に対応する暗さの異なる程度、等を含む。
データ情報2116は、更に、以下の内の1以上または全てを含む:
第1の後方視野部分に対応する受け取られた制御情報2130、
第2の後方視野部分に対応する受け取られた制御情報2132、
空の視野部分に対応する受け取られた制御情報2134、及び
地面の視野部分に対応する受け取られた制御情報2136。
データ情報2116は、更に、
決定された現在の見る者の頭の位置2126、
決定された現在の視界2128、
例えば、正面視野部分に対応する右眼の画像と左眼の画像のペアを含む受け取られた第1のコンテンツストリーム2128、
例えば、組み合わせるために利用可能な少なくともいくつかの受け取られたコンテンツがある現在の視界に対応する、出力画像を生成することにおいて使用されるべき視野部分の決定された組2138、
合成された画像(または、複数の画像)2140、
生成された出力画像2142、
を含む。
生成された出力画像は、例えば、正面といった第1の視野部分に対応する第1のコンテンツストリームからの組み合わされた画像コンテンツを含み、例えば、後方視野部分、空の部分、または、地面の部分からの受け取られ記憶された画像の部分を含み、及び/または、合成された画像または合成された画像の部分を含む、生成された出力画像を含み得、時には含む。
第1の後方視野部分に対応する受け取られた画像2118、
第2の後方視野部分に対応する受け取られた画像2120、
空の視野部分に対応する受け取られた画像2122、及び、
地面の視野部分に対応する受け取られた画像。
後方視野部分に対応する例示的な受け取られた画像は、例えば、立っている聴衆または観衆の画像、座っている聴衆または観衆の画像、異なる可視広告をもった画像、応援している観衆の画像、等を含む。空の視野に対応する例示的な受け取られた画像は、例えば、晴天、異なる雲のパターン、異なる時間に対応する暗さの異なる程度、等を含む。
データ情報2116は、更に、以下の内の1以上または全てを含む:
第1の後方視野部分に対応する受け取られた制御情報2130、
第2の後方視野部分に対応する受け取られた制御情報2132、
空の視野部分に対応する受け取られた制御情報2134、及び
地面の視野部分に対応する受け取られた制御情報2136。
データ情報2116は、更に、
決定された現在の見る者の頭の位置2126、
決定された現在の視界2128、
例えば、正面視野部分に対応する右眼の画像と左眼の画像のペアを含む受け取られた第1のコンテンツストリーム2128、
例えば、組み合わせるために利用可能な少なくともいくつかの受け取られたコンテンツがある現在の視界に対応する、出力画像を生成することにおいて使用されるべき視野部分の決定された組2138、
合成された画像(または、複数の画像)2140、
生成された出力画像2142、
を含む。
生成された出力画像は、例えば、正面といった第1の視野部分に対応する第1のコンテンツストリームからの組み合わされた画像コンテンツを含み、例えば、後方視野部分、空の部分、または、地面の部分からの受け取られ記憶された画像の部分を含み、及び/または、合成された画像または合成された画像の部分を含む、生成された出力画像を含み得、時には含む。
[000312] 図22は、例示的な実施形態に従った図21の例示的なコンテンツ再生システム2100または図8のシステム800に含まれ得るモジュールのアセンブリ2200の図である。モジュール2200のアセンブリにおけるモジュールは、例えば個別の回路等のプロセッサ2108の中のハードウェアに全体的に実装され得る、及び、いくつかの実施形態ではされる。モジュールのアセンブリ2200におけるモジュールは、例えば、異なるモジュールに対応する個別回路として、モジュールのアセンブリ2115の中のハードウェアに全体的に実装され得る、及び、いくつかの実施形態ではされる。他の実施形態において、モジュールのいくつかは、プロセッサ2108の中に、例えば、回路として、実装され、他のモジュールは、例えば、プロセッサ2108の外部に接続されたモジュールのアセンブリ2115の中の回路として、実装される。理解されるべきであるように、プロセッサ上の、及び/または、プロセッサの外部にあるいくつかのモジュールをもった、モジュールの集積のレベルは、設計上の選択肢の1つであってよい。
[000313] 代替的に、回路として実装されるのではなく、モジュールの全てまたはいくつかは、ソフトウェアで実装され、システム2100のメモリ2112に記憶され、モジュールは、例えば、プロセッサ2108等のプロセッサによって実行されるとき、モジュールに対応する機能を実装するようにシステム2100の動作を制御する。いくつかのそのような実施形態では、モジュールのアセンブリ2200は、モジュールのアセンブリ2114としてメモリ2112に含まれる。更に他の実施形態において、モジュールのアセンブリ2200における様々なモジュールは、ハードウェアとソフトウェアの組み合わせとして実装され、例えば、プロセッサの外部の他の回路は、プロセッサ2108に入力を提供し、プロセッサは、次に、ソフトウェア制御の下、モジュールの機能の部分を実行するよう動作する。例えば、コンピュータ等の単一のプロセッサとして図21の実施形態に示されているが、プロセッサ2108は、例えば、複数のコンピュータ等の1つ以上のプロセッサとして実装され得ることが理解されるべきである。
[000314] ソフトウェアで実装される場合、モジュールは、プロセッサ2108によって実行されると、モジュールに対応する機能を実装するようにプロセッサ2108を構成するコードを含む。モジュール2200のアセンブリがメモリ2112に記憶されている実施形態では、メモリ2112は、例えば、プロセッサ2108等のコンピュータに、モジュールが対応する機能を実装させるために、各モジュールのための個別のコード等のコードを備えるコンピュータ読出し可能な媒体を備えるコンピュータプログラム製品である。
[000315] 完全にハードウェアベースの、または、完全にソフトウェアベースのモジュールが使用されてもよい。しかし、例えば、回路で実装モジュール等のソフトウェアとハードウェアとの任意の組み合わせが、機能を実装するために使用され得ることが理解されるべきである。理解されるべきであるように、図22に示されたモジュールは、図20のフローチャート2000の方法に図示され、及び/または、記載された対応するステップの機能を実行するために、システム2100、または、プロセッサ2108等のその中の要素を制御し、及び/または、構成する。従って、モジュール2200のアセンブリは、図20の1つ以上のステップに対応する機能を実行する様々なモジュールを含む。
[000316] モジュール2200のアセンブリは、見る者の頭の位置決定モジュール2202、現在の視界決定モジュール2204、コンテンツストリーム選択モジュール2206、コンテンツストリーム受け取りモジュール2208、画像受け取りモジュール2210、受け取られた画像記憶モジュール2212、制御情報受け取りモジュール2214、出力画像生成モジュール2216、出力モジュール2242、ディスプレイモジュール2244、及び、制御ルーチン2246を含む。
[000317] 見る者のヘッド位置決定モジュール2202は、見る者の頭の位置を決定するように構成され、前記頭の位置は、現在の視界に対応する。現在の視界決定モジュール2204は、前記決定された頭の位置に基づいて、前記見る者についての現在の視界を決定するように構成される。
[000318] コンテンツストリーム選択モジュール2206は、例えば、見る者等のユーザ入力に基づいて、例えば、複数の代替のコンテンツストリームの中から、コンテンツストリームを選択するように構成される。異なるコンテンツストリームは、異なるイベントに対応し得る。様々な実施形態では、同じイベントに対応する異なるコンテンツストリームは、例えば、見る者に代替の正面視野観を提供するため等に、異なる方向を指す異なるカメラに対応する。いくつかの実施形態では、選択され得る、画像ストリームの少なくともいくつかが、左の眼の画像と右の眼の画像のペアを含む立体視画像コンテンツを含む。
[000319] コンテンツストリーム受け取りモジュール2208は、環境の、例えば、前方部分の視野等の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取るように構成される。様々な実施形態において、第1のコンテンツストリームにおいて受け取られた、第1の画像コンテンツは、左眼の画像と右眼の画像のペアを含む立体視画像コンテンツである。
[000320] 画像受け取りモジュール2210は、例えば、第1の後方視野部分、第2の後方視野部分、空の視野部分、及び、地面の視野部分、等の1つ以上の異なる視野部分に対応する画像を受け取るように構成される。画像受け取りモジュール2210は、前記環境の第2の部分に対応する第1の画像を受け取るように構成される。いくつかのそのような実施形態では、画像受け取りモジュールは、更に、環境の前記第2の部分に対応する1つ以上の追加の画像を受け取るように構成され、前記1つ以上の追加の画像は、少なくとも第2の画像を含む環境の第2の部分に対応する。いくつかの実施形態では、前記環境の第2の部分は、第1の後方視野部分、第2の後方視野部分、空の視野部分、または、地面の視野部分の1つである。いくつかの実施形態では、前記環境の第2の部分は、第1の後方視野部分、または、第2の後方視野部分の1つである。いくつかの実施形態では、画像受け取りモジュール2210は、前記環境の第3の部分に対応する1つ以上の画像を受け取るように構成される。いくつかの実施形態では、環境の第1の部分は、正面視野部分であり、環境の第3の部分は、空の視野または地面の視野部分の1つである。
[000321] いくつかの実施形態において、画像受け取りモジュール2210は、前記環境の第1の後方視野部分に対応する第1の画像を受け取るように構成され、更に、前記環境の前記第1の後方視野部分に対応する1つ以上の追加の画像を受け取るように構成され、前記1つ以上の追加の画像は、前記第1の後方視野部分に対応する少なくとも第2の画像を含む前記第1の後方視野部分に対応する。いくつかの実施形態では、画像受け取りモジュール2210は、前記環境の第2の後方視野部分に対応する第1の画像を受け取るよう構成され、更に、前記環境の第2の後方視野部分に対応する1つ以上の追加の画像を受け取るように構成され、前記1つ以上の追加の画像は、前記第2の後方視野部分に対応する少なくとも第2の画像を含む前記第2の後方視野部分に対応する。いくつかの実施形態では、画像受け取りモジュール2210は、前記環境の空の視野部分に対応する1つ以上の画像を受け取るように構成される。いくつかの実施形態では、画像受け取りモジュール2210は、前記環境の地面の視野部分に対応する1つ以上の画像を受け取るように構成される。
[000322] 受け取られた画像記憶モジュール2212は、画像受け取りモジュール2212によって受け取られた画像を記憶するように構成される。受け取られた画像記憶モジュール2212は、環境の前記第2の部分に対応する第1の画像を記憶するように構成される。受け取られた画像記憶モジュール2212は、環境の第2の部分に対応する1つ以上の追加の画像を記憶するように構成される。受信された画像記憶モジュール2212は、前記環境の第3の部分に対応する、受け取られた1つ以上の画像を記憶するように構成される。様々な実施形態では、受け取られた画像記憶モジュール2212は、前記環境の前記第1の後方視野部分に対応する第1の画像と、前記環境の第1の後方視野部分に対応する1つ以上の追加の画像とを記憶するように構成される。様々な実施形態では、受け取られた画像記憶モジュール2212は、前記環境の前記第2の後方視野部分に対応する第1の画像と、前記環境の第2の後方視野部分に対応する1つ以上の追加の画像とを記憶するように構成される。いくつかの実施形態では、受け取られた画像記憶モジュール2212は、前記環境の前記空の視野部分に対応する1つ以上の画像に記憶するように構成される。いくつかの実施形態では、受け取られた画像記憶モジュール2212は、前記環境の前記地面の視野部分に対応する1つ以上の画像を記憶するように構成される。
[000323] 制御情報受け取りモジュール2214は、第1のコンテンツストリームに示された再生時間に対して測定されるような再生時間の間、前記環境の第2の部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るように構成される。様々な実施形態では、制御情報受け取りモジュール2214は、更に、第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間、前記環境の第3の部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、イベントの部分の間に、環境の第2の部分に対応する複数の画像のどれが使用されるべきかを示す画像選択情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、イベントの部分の間に、環境の第3の部分に対応する複数の画像のどれが使用されるべきかを示す画像選択情報を受け取るように構成される。
[000324] いくつかの実施形態では、制御情報受け取りモジュール2214は、前記第1のコンテンツストリームにおける再生時間に対して測定されるような再生時間の間に、前記環境の前記第1の後方視野部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、イベントの部分の間に、環境の前記第1の後方視野部分に対応する複数の画像のどれが表示されるべきかを示す画像選択情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、前記第1のコンテンツストリームにおける再生時間に対して測定されるような再生時間の間に、前記環境の前記第2の後方視野部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、イベントの部分の間に、環境の前記第2の後方視野部分に対応する複数の画像のどれが使用されるべきであるかを示す画像選択情報を受け取るように構成される。
[000325] いくつかの実施形態では、情報制御受け取りモジュール2214は、第1のコンテンツストリームにおける再生時間に対して測定されるような再生時間の間に、前記環境の前記空の視野部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、イベントの部分の間に、環境の前記空の視野部分に対応する複数の画像のどれが使用されるべきであるかを示す画像選択情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、前記第1のコンテンツストリームにおける再生時間に対して測定されるような再生時間の間に、前記環境の前記地面の視野部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るように構成される。いくつかの実施形態では、制御情報受け取りモジュール2214は、イベントの部分の間に、環境の前記地面の視野部分に対応する複数の画像のどれが使用されるべきであるかを示す画像選択情報を受け取るように構成される。
[000326] 出力画像生成モジュール2216は、環境の第1の部分の視野に対応する第1のコンテンツストリームからの受け取られたコンテンツ、環境の第1の後方視野部分に対応する記憶された受け取られた画像、環境の第2の後方視野部分に対応する記憶された受け取られた画像、環境の空の視野部分に対応する記憶された受け取られた画像、環境の地面の視野部分に対応する記憶された受け取られた画像、または、画像が利用可能でない現在の視界の部分に対応する合成された画像、の少なくとも1つに基づいて、現在の視界に対応する1つ以上の出力画像を生成するように構成される。出力画像生成モジュール2216は、視野部分の組決定モジュール2218、コンテンツストリームのみの決定モジュール2220、欠落部分決定モジュール2222、画像合成器モジュール2224、コンテンツストリーム出力画像生成モジュール2226を含む。合成された出力画像生成モジュール2228、出力画像のコンテンツストリームベース生成モジュール2230、出力画像のストリームベースでない生成モジュール2236も含む。
[000327] 視野部分の組決定モジュール2218は、1つ以上の出力画像を生成することにおいて使用されるために、現在の視界に基づいて、前記環境の、例えば、少なくともいくつかの利用可能な画像コンテンツが存在する、視野部分の組を決定するように構成される。いくつかの例示的な決定された組は、例えば、{}、{正面視野部分}、{第1の後方視野部分}、{第2の後方視野部分}、{空の視野部分}、{地面の視野部分}、{正面視野部分、空の視野部分}、{正面視野部分、地面の視野部分}、{正面視野部分、第1の後方視野部分}、{正面視野部分、第2の後方視野部分}、{正面視野部分、第1の後方視野部分、空の視野部分}、{正面視野部分、第2の後方視野部分、空の視野部分}、{正面視野部分、第1の後方視野部分、地面の視野部分}、{正面視野部分、第2の後方視野部分、地面の視野部分}、{第1の後方視野部分、空の視野部分}、{第1の後方視野部分、地面の視野部分}、{第1の後方視野部分、第2の後方視野部分}、{第1の後方視野部分、第2の後方視野部分、空の視野部分}、{第1の後方視野部分、第2の後方視野部分、地面の視野部分}、{第2の後方視野部分、空の視野部分}、及び、{第2の後方視野部分、地面の視野部分}、を含む。
[000328] コンテンツストリームのみの決定モジュール2220は、1つ以上の出力画像が、例えば、第1の後方視野部分、第2の後方視野部分、空の視野部分または地面の視野部分、または、合成された画像等の他の部分の視野からの記憶された受け取られた画像に依存する必要なしに、第1のコンテンツストリーム内のコンテンツに基づいて生成されるべきであるかどうかを決定するよう構成される。コンテンツストリームのみの決定モジュール2220は、決定された組が、第1のコンテンツストリームに対応する、例えば、正面の、第1の視野部分である単一の要素を含むかどうかをチェックし、及び、視界が、例えば、正面等の第1の視野部分の中にあるがどうかをチェックするように構成される。
[000329] 欠落部分決定モジュール2222は、画像が現在の視界の部分のために利用可能でないこと、例えば、画像が、環境の正面視野に対応する第1のコンテンツストリームから、または、環境の他の部分に対応する受け取られた記憶された画像からの何れかから利用可能でないことを決定するように構成される。画像合成器モジュール2224は、画像が利用可能でない前記現在の視界の部分のために使用されるべき画像を合成するように構成される。様々な実施形態では、画像合成モジュール2224は、例えば、境界上のいくらかのつなぎを可能にするために、欠落している部分を埋めるために必要とされるよりも僅かに大きい合成された画像を生成する。
[000330] コンテンツストリーム出力画像生成モジュール2226は、決定された組が、例えば、正面視野部分等の第1の視野部分だけを含み、例えば、コンテンツストリームのみの決定モジュール2220によって決定されるように、第1の視野部分の外に現在の視界の部分がない場合に、第1のコンテンツストリームからの受け取られたコンテンツのみに基づいて、現在の視界に対応する1つ以上の出力画像を生成するように構成される。いくつかの実施形態では、コンテンツストリーム出力画像生成モジュール2226は、第1のコンテンツストリームから得られた画像に対してトリミング動作を実行する。
[000331] 出力画像のコンテンツストリームベース生成モジュール2230は、例えば、正面視野に対応するコンテンツストリームといった第1のコンテンツストリームに含まれる少なくともいくつかの受け取られたコンテンツと、i)第1の後方視野、第2の後方視野、空の視野または地面の視野に対応する記憶されたコンテンツ、または、ii)画像が利用可能でない視界の部分をシミュレートする合成画像とに基づいて、現在の視界に対応する1つ以上の出力画像を生成するように構成される。環境の第2の部分に対応する記憶されたコンテンツは、例えば、受け取られた画像記憶モジュール2212によって記憶された、記憶された画像である。合成画像は、例えば、モジュール2224によって生成された画像である。いくつかの実施形態では、出力画像のコンテンツストリームベース生成モジュール2230は、現在の視界に対応する1つ以上の出力画像を生成するように構成されることの部分として、受け取られた画像選択情報に基づいて、環境の前記第2の部分に対応する画像を選択するように構成される。
[000332] 出力画像のコンテンツストリームベース生成モジュール2230は、生成されている出力画像の中に1つ以上の合成画像を組み込むように構成された合成された画像組み込みモジュール2232を含む。合成された画像組み込みモジュール2232は、現在の視界に対応する画像を生成するために、合成された画像を、例えば、受け取られた第1のコンテンツストリームから得られた、例えば、正面視野部分の、第1の視野部分からの受け取られた画像、または、第1の後方視野部分、第2の後方視野部分、空の視野部分、または、地面の視野部分の1つに対応する記憶された受け取られた画像、等の受け取られた画像の少なくとも部分と組み合わせるよう構成される。記憶された画像組込みモジュール2234は、生成されている出力画像に、1つ以上の記憶された画像の部分を組み込むように構成される。出力画像を生成することの部分として、モジュール2230、モジュール2232、及び/または、モジュール2234は、境界領域において混ぜ合わせ(ブレンド)を実行する。様々な実施形態において、混ぜ合わせることは、フィルタリング、ぼかし、輝度変化、及び/または、色変化を含む。
[000333] 出力画像のストリームベースでない生成モジュール2236は、i)例えば、第1の後方視野、第2の後方視野、空の視野または地面の視野に対応する記憶されたコンテンツ等の環境の部分に対応する記憶されたコンテンツ、または、ii)例えば、画像が利用可能ではない視界の部分をシミュレートする合成画像等の環境の部分シミュレートする合成画像、の少なくとも一方に基づいて、現在の視界に対応する1つ以上の出力画像を生成するように構成される。モジュール2236は、現在の視界が、第1のコンテンツストリームに対応する、例えば、正面視野といった第1の部分に対応する領域の外にある場合、1つ以上の画像を生成する。いくつかの実施形態では、出力画像のコンテンツストリームベースでない生成モジュール2236は、現在の視界に対応する1つ以上の出力画像を生成するように構成されることの部分として、受け取られた画像選択情報に基づいて、環境の前記第2の部分に対応する画像を選択するように構成される。
[000334] 出力画像のストリームベースでない生成モジュール2236は、生成されている出力画像の中に、1つ以上の合成された画像を組み込むよう甲構成された合成された画像組込みモジュール2238を含む。合成された画像組み込みモジュール2238は、現在の視界に対応する画像を生成するために、合成された画像を、例えば、第1の後方視野部分、第2の後方視野部分、空の視野部分、または、地面の視野部分からの受け取られた画像等の受け取られた画像の少なくとも部分と組み合わせるよう構成される。記憶された画像組み込みモジュール2240は、生成されている出力画像に、1つ以上の記憶された画像の部分を組み込むように構成される。出力画像を生成することの部分として、モジュール2236、モジュール2232、及び/または、モジュール2234は、境界領域において混ぜ合わせ(ブレンド)を実行する。様々な実施形態において、混ぜ合わせることは、フィルタリング、ぼかし、輝度変化、及び/または、色変化を含む。
[000335] 出力モジュール2242は、例えば、出力画像のコンテンツストリームベース生成モジュール2130、コンテンツストリーム出力画像生成モジュール2226、出力画像のコンテンツストリームベースでない生成モジュール2236によって生成される等の1つ以上の生成された出力画像を出力するように構成され、前記1つ以上の出力画像は、第1の出力画像を含む。出力モジュールは、例えば、ネットワークインターフェース2110及び/またはディスプレイデバイスインターフェース2103を介して、第1の出力画像を出力するように構成される。
[000336] ディスプレイモジュール2244は、例えば、出力画像のコンテンツストリームベース生成モジュール2230、コンテンツストリーム出力画像生成モジュール2226、及び、出力画像のコンテンツストリームベースでない生成モジュール2136によって生成される、1つ以上の生成された出力画像を表示するように構成され、前記1つ以上の出力画像は第1の出力画像を含む。ディスプレイモジュール2244は、例えば、ディスプレイ2102及び/またはディスプレイ2105を介して、第1の出力画像を表示するように構成される。
[000337] 制御ルーチン2246は、システム2100の動作を制御するために、デバイス制御ルーチンと通信ルーチンを含む。
[000338] 例えば、図21のシステム2100等の例示的なコンテンツ再生システム、いくつかの実施形態に従って、以下を含む:
見る者の頭の位置を決定するよう構成された見る者の頭の位置決定モジュール2202、前記頭の位置は、現在の視界に対応する;
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取るように構成されるコンテンツストリーム受け取りモジュール;
前記第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツと、i)前記環境の第2の部分に対応する記憶されたコンテンツ、または、ii)前記環境の第2の部分をシミュレートする合成画像とに基づいて、現在の視界に対応する1つ以上の出力画像を生成するよう構成される出力画像のコンテンツストリームベース生成モジュール2230; 及び、
第1の出力画像を出力するように構成された出力モジュール2242、または、第1の出力画像を表示するよう構成されたディスプレイモジュール2244の少なくとも1つ、前記第1の出力画像は、1つ以上の生成された出力画像の1つである。
見る者の頭の位置を決定するよう構成された見る者の頭の位置決定モジュール2202、前記頭の位置は、現在の視界に対応する;
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取るように構成されるコンテンツストリーム受け取りモジュール;
前記第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツと、i)前記環境の第2の部分に対応する記憶されたコンテンツ、または、ii)前記環境の第2の部分をシミュレートする合成画像とに基づいて、現在の視界に対応する1つ以上の出力画像を生成するよう構成される出力画像のコンテンツストリームベース生成モジュール2230; 及び、
第1の出力画像を出力するように構成された出力モジュール2242、または、第1の出力画像を表示するよう構成されたディスプレイモジュール2244の少なくとも1つ、前記第1の出力画像は、1つ以上の生成された出力画像の1つである。
[000339] いくつかの実施形態では、前記コンテンツ再生システム2100は、コンテンツ再生デバイス2100’である。いくつかの実施形態では、コンテンツ再生システム2100は、ディスプレイ2105に接続されたコンピュータシステム2100’である。
[000340] いくつかの実施形態では、システムは、更に、以下を備える:
前記環境の前記第2の部分に対応する第1の画像を受け取るように構成された画像受け取りモジュール2210; 及び
前記環境の前記第2の部分に対応する前記第1の画像を記憶するように構成された受け取られた画像記憶モジュール2212。
前記環境の前記第2の部分に対応する第1の画像を受け取るように構成された画像受け取りモジュール2210; 及び
前記環境の前記第2の部分に対応する前記第1の画像を記憶するように構成された受け取られた画像記憶モジュール2212。
[000341] 様々な実施形態では、前記環境の前記第2の部分の前記第1の画像は、時間の第1の点に対応し、前記出力画像のコンテンツストリームベース生成モジュール2230は、時間の第2の点において取り込まれた前記第1のコンテンツストリームから得られたコンテンツを、時間の前記第1の点に対応する前記第1の画像と組み合わせるように構成され、時間の前記第1及び第2の点は異なる。いくつかのそのような実施形態では、時間の前記第1の時点は、時間の前記第2の点に先行する時間に対応する。様々な実施形態では、時間の前記第1の点は、その間に前記第1のコンテンツストリームに含まれた画像が取り込まれるライブイベントの時間に先行する。
[000342] いくつかの実施形態では、前記画像受け取りモジュール2210は、更に、前記環境の前記第2の部分に対応する1つ以上の追加の画像を受け取るように構成され、前記環境の前記第2部分に対応する前記1つ以上の追加の画像は、少なくとも第2の画像を含む。
[000343] 様々な実施形態において、システムは、更に、前記第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間に、前記環境の前記第2の部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るように構成された制御情報受け取りモジュール2214を備える。
[000344] いくつかの実施形態では、前記環境の前記第2の部分は、第1の後方視野部分、第2の後方視野部分、空の視野部分、または、地面の視野部分の1つである。いくつかのそのような実施形態において、前記画像受け取りモジュール2210は、更に、前記環境の第3の部分に対応する1つ以上の画像を受け取るように構成される。
[000345] いくつかの実施形態では、前記環境の前記第1の部分は正面視野部分であり、前記第3の部分は、空の視野または地面の視野部分の1つであり、画像は、前記第1、第2、及び、第3の部分に対応した異なるレートで受け取られ、より多くの画像が、第2の部分のためよりも、第1の部分に対応するイベントのために受け取られる。
[000346] いくつかの実施形態では、前記第1の部分に対応する前記コンテンツは、イベントが進行している間に取り込まれ、前記再生デバイスにストリーミングされるリアルタイムコンテンツを含み、前記第2と第3の部分に対応する前記コンテンツは、リアルタイムでない画像である。いくつかのそのような実施形態では、前記制御情報受け取りモジュール2214は、更に、前記イベントの部分の間に、環境の前記第2の部分に対応する複数の画像のどれが使用されるべきかを示す画像選択情報を受け取るように構成され、出力画像のコンテンツストリームベース生成モジュール2230は、現在の視界に対応する1つ以上の画像を生成するよう構成されることの部分として、受け取られた画像選択情報に基づいて、環境の前記第2の部分に対応する画像を選択するように構成される。
[000347] 様々な実施形態において、システムは、更に、画像が前記視界の部分のために利用可能でないことを決定する欠落部分決定モジュール2222と、画像が利用可能でない前記視界の前記部分のために使用されるべき画像を合成するよう構成された画像合成器モジュール2224と、現在の視界に対応する画像を生成するために、合成された画像を、受け取られた画像の少なくとも部分と組み合わせるよう構成された合成された画像組込みモジュール2232とを備える。
[000348] 様々な実施形態においては、前記第1の画像コンテンツは、左眼の画像と右眼の映像を含む立体視画像コンテンツである。
[000349] いくつかの実施形態では、モジュールのアセンブリ2200は、例えば、図8に示された他のモジュールに加えて、図8のコンテンツ再生システム800に含まれる。モジュールのアセンブリ2200内のモジュールは、システム800の中で、バス809に接続され、メモリ812の中に、プロセッサ808の中に、及び/または、プロセッサ808の外部のハードウェアモジュールとして、含まれてもよい。
[000350] 図23は、いくつかの実施形態に従って再生システム1900において使用され得る例示的なストリーム選択モジュール1938を示す図2300である。
[000351] 図24は、図23のストリーム選択モジュールの部分として、または、個別のモジュールとして実装され得る例示的なストリーム優先度付けモジュール2306を示す図2400である。
[000352] いくつかの実施形態は、立体視映像をエンコードし、圧縮するようにコンピュータまたは他のデバイスを制御するために、例えば、コンピュータが実行可能な命令等のソフトウェア命令の組を実装する非一時的なコンピュータ可読媒体に向けられる。他の実施形態は、プレーヤ側で映像をデコードし、解凍するようにコンピュータまたは他のデバイスを制御するために、例えば、コンピュータが実行可能な命令等のソフトウェア命令の組を実装するコンピュータ可読媒体に向けられた実施形態である。エンコード及び圧縮は可能な別個の動作として述べられるが、エンコードは圧縮を実行するために使用され得、従って、エンコードは圧縮を含み得ることが理解されるべきである。同様に、デコードは解凍を含み得る。
[000353] 様々な実施形態の技術は、ソフトウェア、ハードウェア、及び/または、ソフトウェアとハードウェアの組合せを用いて実装され得る。様々な実施形態は、例えば、画像データ処理システム等の機器に向けられる。様々な実施形態は、また、例えば、画像データを処理する方法等の方法に向けられる。様々な実施形態は、また、コンピュータ等の非一時的な機器や、例えば、方法の1つ以上のステップを実装するように機器を制御するための機器が読取り可能な命令を含む、ROM、RAM、CD、ハードディスク、等の読取り可能な媒体に向けられる。
[000354] 本発明の様々な特徴は、モジュールを使用して実装される。そのようなモジュールは、ソフトウェアモジュールとして実装され得、また、いくつかの実施形態では実装される。他の実施形態では、モジュールは、ハードウェアで実装される。更に他の実施形態では、モジュールは、ソフトウェアとハードウェアの組み合わせを使用して実装される。いくつかの実施形態では、モジュールは、個別の回路として実装され、各モジュールが、該モジュールが対応する機能を実行するための回路として実装される。多様な実施形態は、例えば、いくつかがハードウェアの中に、いくつかがソフトウェアの中に、いくつかがハードウェアとソフトウェアの組み合わせを使用してといったように、異なるモジュールが異なって実装されるいくつかの実施形態を含むよう企図される。また、ルーチン及び/またはサブルーチン、または、そのようなルーチンによって実行されるステップのいくつかは、汎用プロセッサ上で実行されるソフトウェアと対照的に、専用のハードウェアで実装されてもよいことを注記する。そのような実施形態は、本発明の範囲内に留まる。上記の方法または方法ステップの多くは、上述の方法の全てまたは部分を実装するように、例えば、追加のハードウェアをもった、または、もたない汎用コンピュータ等の機械を制御するために、例えば、RAM、フロッピー(登録商標)ディスク等のメモリデバイス等の機械が読取り可能な媒体に含まれる、ソフトウェア等の機械が実行可能な命令を使用して実装され得る。従って、他のものもある中で、本発明は、例えば、プロセッサ及び関連するハードウェア等の機械に上述された方法(または、複数の方法)のステップの1つ以上を実行させるための機械が実行可能な命令を含む機械が読取り可能な媒体に向けられる。
[000355] 上述された様々な実施形態の方法及び装置に対する多くの追加の変形が、上記説明に鑑みて、当技術に技量を有する者に明らかである。そのような変形は、範囲内にあるとみなされるべきである。
Claims (68)
- 再生システムを動作させる方法であって、
ユーザの頭の位置に基づいて、複数のコンテンツストリームのどれを、第1の時間において、再生システムにおける使用のために受け取るかを選択することと、
再生のための使用のために、1つ以上の選択されたコンテンツストリームを受け取ることと、
を備える方法。 - 前記選択することは、前記ユーザの前記頭の位置に基づいて、コンテンツストリームを優先度付けすることを含む、請求項1に記載の方法。
- 前記優先度付けすることは、
前記ユーザの現在の視界に対応するコンテンツを通信する1つ以上のストリームを特定することと、
各ストリームが提供する前記視界の部分の大きさに基づいて、前記現在の視界に対応するシーンの部分を提供する1つ以上のコンテンツストリームを優先度付けすることと、
を含む、請求項2に記載の方法。 - 前記コンテンツストリームを優先度付けすることは、更に、
前記現在の視界に対して通信された画像部分の近接、または、頭の回転の方向の少なくとも一方に基づいて、前記現在の視界の外の部分に対応するコンテンツを通信する1つ以上の追加のストリームを優先度付けすること、
を含む、請求項3に記載の方法。 - コンテンツストリームを優先度付けすることは、
前記現在の視界に対して通信された画像コンテンツの近接に基づいて、前記現在の視界の外の部分に対応するコンテンツを通信する1つ以上の追加のコンテンツストリームを優先度付けすること、
を含み、
前記現在の視界の領域に接した画像コンテンツを通信するコンテンツストリームは、前記現在の視界の外で、更に離れたコンテンツストリームよりも高い優先度を付与される、
請求項4に記載の方法。 - 前記1つ以上の追加のコンテンツストリームを優先度付けすることは、ユーザの頭の回転の方向に基づき、
前記現在の視界の外だが、頭の回転の前記方向にある画像コンテンツを提供するコンテンツストリームは、前記視界の外で、頭の回転の前記方向から離れた方向にある画像コンテンツを提供する他のコンテンツストリームより高い優先度を付与される、
請求項4に記載の方法。 - 前記選択することは、最も高い優先度を付与されている1つ以上のコンテンツストリームを選択することを含む、請求項2に記載の方法。
- 前記選択することのステップは、更に、
コンテンツストリームを受け取るために利用可能な帯域幅を決定することと、
前記利用可能な帯域幅の決定された量に基づいて、同じ優先度を有する複数のコンテンツストリームから選択することと、
を備える、請求項2に記載の方法。 - 前記再生システムに通信された帯域幅制約に基づいて、少なくとも1つのコンテンツストリームのための帯域幅を決定することを更に備え、
前記同じ優先度を有する複数のコンテンツストリームから選択することは、更に、前記少なくとも1つのコンテンツストリームのための決定された前記帯域幅に基づく、
請求項8に記載の方法。 - 異なる視野方向のための帯域幅制約を受け取ることを更に備え、
個々の帯域幅制約は、前記個々の帯域幅制約に対応する視野方向に対応するコンテンツを提供する1つ以上のコンテンツストリームを受け取るために使用されるべき最大の帯域幅を指定する、
請求項9に記載の方法。 - 前記同じ優先度を有する複数のコンテンツストリームから選択することは、最も高い優先度を付与された複数のコンテンツストリームから1つのコンテンツストリームを選択することを含み、
前記最も高い優先度を付与された各コンテンツストリームは、前記同じ視野方向に対応する、
請求項8に記載の方法。 - 前記同じ優先度を有する複数のコンテンツストリームから選択することは、2番目に高い優先度を付与された複数のコンテンツストリームから1つのコンテンツストリームを選択することを含み、
前記2番目に高い優先度を付与された各コンテンツストリームは、前記同じ視野方向に対応するコンテンツを提供する、
請求項11に記載の方法。 - 前記再生システムが受け取ることを選択するコンテンツストリーム上の情報を提供するガイド情報を受け取ることを更に備える、請求項1に記載の方法。
- 前記ガイド情報は、ガイド情報が提供される前記コンテンツストリームにアクセスするために使用される情報を含む、請求項13に記載の方法。
- 前記ガイド情報は、第1のコンテンツストリームについて、前記第1のコンテンツストリームを受け取るために参加されるマルチキャストグループのマルチキャストアドレス、前記第1のコンテンツストリームを提供するために使用される切り替えられるデジタル映像チャネルへのアクセスを要求するために使用される情報、または、前記第1のコンテンツストリームがブロードキャストされるブロードキャストチャネルに同調するように前記再生システムのチューナを制御するために使用されるチャネル同調情報の1つを含む、請求項14に記載の方法。
- 選択されたコンテンツストリームの配信を起動することを更に備え、
前記選択されたコンテンツストリームの配信を起動することは、前記選択されたコンテンツストリームに対応するマルチキャストグループに参加するために信号を送ることを含む、
請求項15に記載された方法。 - 選択されたコンテンツストリームの配信を起動することを更に備え、
前記選択されたコンテンツストリームの配信を起動することは、前記選択されたコンテンツストリームが通信される切り替えられるデジタルチャネルの配信を要求する、ネットワークにおけるデバイスへの要求を送ることを含む、
請求項15に記載の方法。 - ユーザの頭の位置に基づいて、複数のコンテンツストリームのどれを、第1の時間において、再生システムにおける使用のために受け取るかを選択するよう構成されたストリーム選択モジュールと、
再生のための使用のために、1つ以上の選択されたコンテンツストリームを受け取るよう構成された受信機を含むインターフェースと、
を備える再生システム。 - 前記ストリーム選択モジュールは、前記ユーザの前記頭の位置に基づいて、コンテンツストリームを優先度付けするよう構成されたストリーム優先度付けモジュールを含む、請求項18に記載の再生システム。
- 前記ストリーム優先度付けモジュールは、
前記ユーザの現在の視界に対応するコンテンツを通信する1つ以上のストリームを特定するよう構成された特定モジュールと、
各ストリームが提供する前記視界の部分の大きさに基づいて、前記現在の視界に対応するシーンの部分を提供する1つ以上のコンテンツストリームを優先度付けするよう構成された優先度付与モジュールと、
を含む、請求項19に記載の再生システム。 - 前記ストリーム優先度付けモジュールは、更に、前記現在の視界に対して通信された画像部分の近接、または、頭の回転の方向の少なくとも一方に基づいて、前記現在の視界の外の部分に対応するコンテンツを通信する1つ以上の追加のストリームを優先度付けするよう構成された追加のストリーム優先度割り当てモジュールを含む、請求項20に記載の再生システム。
- 前記追加のストリーム優先度割り当てモジュールは、前記現在の視界に対して通信された画像コンテンツの近接に基づいて、前記現在の視界の外の部分に対応するコンテンツを通信する1つ以上の追加のコンテンツストリームを優先度付けするよう構成され、
前記現在の視界の領域に接した画像コンテンツを通信するコンテンツストリームは、前記現在の視界の外で、更に離れたコンテンツストリームよりも高い優先度を付与される、
請求項21に記載の再生システム。 - 前記追加のストリーム優先度割り当てモジュールは、ユーザの頭の回転の方向に基づき、1つ以上の追加のコンテンツストリームを優先度付けし、
前記現在の視界の外だが、頭の回転の前記方向にある画像コンテンツを提供するコンテンツストリームは、前記視界の外で、頭の回転の前記方向から離れた方向にある画像コンテンツを提供する他のコンテンツストリームより高い優先度を付与される、
請求項21に記載の再生システム。 - 前記ストリーム選択モジュールは、更に、最も高い優先度を付与されている1つ以上のコンテンツストリームを選択するよう構成される、請求項19に記載の再生システム。
- コンテンツストリームを受け取るために利用可能な帯域幅を決定するよう構成された利用可能な帯域幅及びデータレート決定モジュールを更に備え、
前記ストリーム選択モジュールは、前記利用可能な帯域幅の決定された量に基づいて、同じ優先度を有する複数のコンテンツストリームから選択するよう構成された選択モジュールを含む、
請求項19に記載の再生システム。 - 前記ストリーム選択モジュールは、更に、前記再生システムに通信された帯域幅制約に基づいて、少なくとも1つのコンテンツストリームのための帯域幅を決定するよう構成されたストリーム帯域幅決定モジュールを備え、
前記選択モジュールは、前記少なくとも1つのコンテンツストリームのための決定された前記帯域幅に更に基づき、前記同じ優先度を有する前記複数のコンテンツストリームから選択するよう構成される、
請求項25に記載の再生システム。 - 前記受信機は、更に、異なる視野方向のための帯域幅制約を受け取るよう構成され、
個々の帯域幅制約は、前記個々の帯域幅制約に対応する視野方向に対応するコンテンツを提供する1つ以上のコンテンツストリームを受け取るために使用されるべき最大の帯域幅を指定する、
請求項26に記載の再生システム。 - 前記選択モジュールは、最も高い優先度を付与された複数のコンテンツストリームから1つのコンテンツストリームを選択するよう構成され、
前記最も高い優先度を付与された各コンテンツストリームは、前記同じ優先度を有する複数のコンテンツストリームから選択するよう構成されることの部分として、前記同じ視野方向に対応するコンテンツを提供する、
請求項25に記載の再生システム。 - 前記選択モジュールは、前記同じ優先度を有する複数のコンテンツストリームから選択するよう構成されることの部分として、2番目に高い優先度を付与された複数のコンテンツストリームから1つのコンテンツストリームを選択するよう構成され、
前記2番目に高い優先度を付与された各コンテンツストリームは、前記同じ視野方向に対応するコンテンツを提供する、
請求項28に記載の再生システム。 - 前記受信機は、更に、前記再生システムが受け取ることを選択するコンテンツストリーム上の情報を提供するガイド情報を受け取るよう構成される、請求項18に記載の再生システム。
- 前記ガイド情報は、ガイド情報が提供される前記コンテンツストリームにアクセスするために使用される情報を含む、請求項30に記載の再生システム。
- 前記ガイド情報は、第1のコンテンツストリームについて、前記第1のコンテンツストリームを受け取るために参加されるマルチキャストグループのマルチキャストアドレス、前記第1のコンテンツストリームを提供するために使用される切り替えられるデジタル映像チャネルへのアクセスを要求するために使用される情報、または、前記第1のコンテンツストリームがブロードキャストされるブロードキャストチャネルに同調するように前記再生システムのチューナを制御するために使用されるチャネル同調情報の1つを含む、請求項31に記載の再生システム。
- 選択されたコンテンツストリームの配信を起動するよう構成されたコンテンツ配信起動モジュールを更に備え、
前記コンテンツ配信起動モジュールは、更に、前記選択されたコンテンツストリームに対応するマルチキャストグループに参加するために信号を送るよう構成される、
請求項32に記載された再生システム。 - 選択されたコンテンツストリームの配信を起動するように構成されたコンテンツ配信起動モジュールを更に備え、
前記コンテンツ配信起動モジュールは、更に、前記選択されたコンテンツストリームが通信される切り替えられるデジタルチャネルの配信を要求する、ネットワークにおけるデバイスへの要求を送るよう構成される、
請求項32に記載の再生システム。 - プロセッサによって実行されたときに、
ユーザの頭の位置に基づいて、複数のコンテンツストリームのどれを、第1の時間において、再生システムにおける使用のために受け取るかを選択するように、
再生のための使用のために、1つ以上の選択されたコンテンツストリームを受け取るように、
再生システムを制御する、プロセッサが実行可能な命令を含む非一時的なコンピュータによって読み出し可能な媒体。 - コンテンツ再生システムを動作させる方法であって、
見る者の頭の位置を決定することと、前記頭の位置は現在の視界に対応し、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取ることと、
前記第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツと、i)前記環境の第2の部分に対応する記憶されたコンテンツ、または、ii)前記環境の第2の部分をシミュレートする合成画像とに基づいて、前記現在の視界に対応する1つ以上の出力画像を生成することと、
第1の出力画像を出力すること、または、表示することと、前記第1の出力画像は、生成された1つ以上の前記出力画像の1つである、
方法。 - 前記コンテンツ再生システムは、コンテンツ再生デバイスである、請求項36に記載の方法。
- 前記コンテンツ再生システムは、ディスプレイに接続されたコンピュータシステムである、請求項36に記載の方法。
- 前記環境の前記第2の部分に対応する第1の画像を受け取ることと、
前記環境の前記第2の部分に対応する前記第1の画像を記憶することと、
を更に備える、請求項36に記載の方法。 - 前記環境の前記第2の部分の前記第1の画像は、時間の第1の点に対応し、
前記現在の視界に対応する1つ以上の出力画像を生成することは、時間の第2の点において取り込まれた前記第1のコンテンツストリームから得られたコンテンツを、時間の前記第1の点に対応する前記第1の画像と組み合わせることを含み、
時間の前記第1の点と第2の点は異なる、
請求項39に記載の方法。 - 時間の前記第1の点は、時間の前記第2の点に先行する時間に対応する、請求項40に記載の方法。
- 時間の前記第1の点は、その間に前記第1のコンテンツストリームに含まれる画像が取り込まれるライブイベントの時間に先行する、請求項41に記載の方法。
- 前記環境の前記第2の部分に対応する1つ以上の追加の画像を受け取ることを更に備え、
前記環境の前記第2の部分に対応する前記1つ以上の追加の画像は、少なくとも第2の画像を含む、
請求項40に記載の方法。 - 前記第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間に、前記環境の前記第2の部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取ることを更に備える、請求項43に記載の方法。
- 前記環境の前記第2の部分は、第1の後方視野部分、第2の後方視野部分、空の視野部分、または、地面の視野部分の1つである、請求項44に記載の方法。
- 前記環境の第3の部分に対応する1つ以上の画像を受け取ることを更に備える、請求項45に記載の方法。
- 前記環境の前記第1の部分は、正面の視野部分であり、
前記第3の部分は、空の視野または地面の視野部分の1つであり、
画像は、前記第1の部分、第2の部分、及び、第3の部分に対応する異なるレートで受け取られ、前記第2の部分のためよりもより多くの画像が、前記第1の部分に対応するイベントのために受け取られる、
請求項46に記載の方法。 - 前記第1の部分に対応する前記コンテンツは、イベントが進行中であった間に取り込まれ、前記コンテンツ再生システムにストリーミングされたリアルタイムコンテンツを含み、
前記第2の部分と第3の部分に対応する前記画像に対応する前記コンテンツは、リアルタイムでない画像である、
請求項47に記載の方法。 - イベントの部分の間に、前記環境の前記第2の部分に対応する複数の画像のどれが使用されるべきかを示す画像選択情報を受け取ることを更に備え、
少なくともいくつかの受け取られたコンテンツに基づいて、前記現在の視界に対応する1つ以上の出力画像を生成することは、受け取られた前記画像選択情報に基づいて、前記環境の前記第2の部分に対応する画像を選択することを含む、
請求項36に記載の方法。 - 画像が前記現在の視界の部分のために利用可能でないことを決定することと、
画像が利用可能でない前記現在の視界の前記部分のために使用されるべき画像を合成することと、
前記現在の視界に対応する画像を生成するために、合成された前記画像を、受け取られた画像の少なくとも部分と組み合わせることと、
を更に備える、請求項49に記載の方法。 - 前記コンテンツは、左眼の画像と右眼の画像を含む立体視画像コンテンツである、請求項36に記載の方法。
- コンテンツ再生システムであって、
見る者の頭の位置を決定するよう構成された見る者の頭の位置決定モジュールと、前記頭の位置は現在の視界に対応し、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取るよう構成されたコンテンツストリーム受け取りモジュールと、
前記第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツと、i)前記環境の第2の部分に対応する記憶されたコンテンツ、または、ii)前記環境の第2の部分をシミュレートする合成画像とに基づいて、前記現在の視界に対応する1つ以上の出力画像を生成するよう構成された出力画像のコンテンツストリームベース生成モジュールと、
第1の出力画像を出力するように構成された出力モジュール、または、第1の出力画像を表示するよう構成されたディスプレイモジュールの少なくとも一方と、前記第1の出力画像は、生成された1つ以上の前記出力画像の1つである、
を備えるシステム。 - 前記コンテンツ再生システムは、コンテンツ再生デバイスである、請求項52に記載のシステム。
- 前記コンテンツ再生システムは、ディスプレイに接続されたコンピュータシステムである、請求項52に記載のシステム。
- 前記環境の前記第2の部分に対応する第1の画像を受け取るよう構成された画像受け取りモジュールと、
前記環境の前記第2の部分に対応する前記第1の画像を記憶するよう構成された受け取られた画像記憶モジュールと、
を更に備える、請求項52に記載のシステム。 - 前記環境の前記第2の部分の前記第1の画像は、時間の第1の点に対応し、
前記出力画像のコンテンツストリームベース生成モジュールは、時間の第2の点において取り込まれた前記第1のコンテンツストリームから得られたコンテンツを、時間の前記第1の点に対応する前記第1の画像と組み合わせるよう構成され、
時間の前記第1の点と第2の点は異なる、
請求項55に記載のシステム。 - 時間の前記第1の点は、時間の前記第2の点に先行する時間に対応する、請求項56に記載のシステム。
- 時間の前記第1の点は、その間に前記第1のコンテンツストリームに含まれる画像が取り込まれるライブイベントの時間に先行する、請求項57に記載のシステム。
- 前記画像受け取りモジュールは、更に、前記環境の前記第2の部分に対応する1つ以上の追加の画像を受け取るよう構成され、
前記環境の前記第2の部分に対応する前記1つ以上の追加の画像は、少なくとも第2の画像を含む、
請求項56に記載のシステム。 - 前記第1のコンテンツストリームにおいて示された再生時間に対して測定されるような再生時間の間に、前記環境の前記第2の部分に対応する複数の以前に通信された画像のどれが表示されるべきかを示す制御情報を受け取るよう構成された制御情報受け取りモジュールを更に備える、請求項59に記載のシステム。
- 前記環境の前記第2の部分は、第1の後方視野部分、第2の後方視野部分、空の視野部分、または、地面の視野部分の1つである、請求項60に記載のシステム。
- 前記画像受け取りモジュールは、更に、前記環境の第3の部分に対応する1つ以上の画像を受け取るよう構成される、請求項61に記載のシステム。
- 前記環境の前記第1の部分は、正面の視野部分であり、
前記第3の部分は、空の視野または地面の視野部分の1つであり、
画像は、前記第1の部分、第2の部分、及び、第3の部分に対応する異なるレートで受け取られ、前記第2の部分のためよりもより多くの画像が、前記第1の部分に対応するイベントのために受け取られる、
請求項62に記載のシステム。 - 前記第1の部分に対応する前記コンテンツは、イベントが進行中であった間に取り込まれ、前記コンテンツ再生システムにストリーミングされたリアルタイムコンテンツを含み、
前記第2の部分と第3の部分に対応する前記画像に対応する前記コンテンツは、リアルタイムでない画像である、
請求項63に記載のシステム。 - 前記制御情報受け取りモジュールは、前記イベントの部分の間に、前記環境の前記第2の部分に対応する複数の画像のどれが使用されるべきかを示す画像選択情報を受け取るよう更に構成され、
前記出力画像のコンテンツストリームベース生成モジュールは、前記現在の視界に対応する1つ以上の出力画像を生成するよう構成されることの部分として、受け取られた前記画像選択情報に基づいて、前記環境の前記第2の部分に対応する画像を選択するよう構成される、
請求項64に記載のシステム。 - 画像が前記現在の視界の部分のために利用可能でないことを決定するよう構成された欠落部分決定モジュールと、
画像が利用可能でない前記現在の視界の前記部分のために使用されるべき画像を合成するよう構成された画像合成器モジュールと、
前記現在の視界に対応する画像を生成するために、合成された前記画像を、受け取られた画像の少なくとも部分と組み合わせるよう構成された合成された画像組み込みモジュールと、
を更に備える、請求項65に記載のシステム。 - 前記コンテンツは、左眼の画像と右眼の画像を含む立体視画像コンテンツである、請求項52に記載のシステム。
- コンテンツ再生システムのプロセッサによって実行されたときに、
見る者の頭の位置を決定することと、ここで、前記頭の位置は現在の視界に対応し、
環境の第1の部分に対応するコンテンツを提供する第1のコンテンツストリームを受け取ることと、
前記第1のコンテンツストリームに含まれた少なくともいくつかの受け取られたコンテンツと、i)前記環境の第2の部分に対応する記憶されたコンテンツ、または、ii)前記環境の第2の部分をシミュレートする合成画像とに基づいて、前記現在の視界に対応する1つ以上の出力画像を生成することと、
第1の出力画像を出力すること、または、表示することと、前記第1の出力画像は、生成された1つ以上の前記出力画像の1つである、
のステップを実行するように前記コンテンツ再生システムを制御する、プロセッサにより実行可能な命令を含む非一時的な機械により読取り可能な媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462004547P | 2014-05-29 | 2014-05-29 | |
US62/004,547 | 2014-05-29 | ||
PCT/US2015/033420 WO2015184416A1 (en) | 2014-05-29 | 2015-05-29 | Methods and apparatus for delivering content and/or playing back content |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017527230A true JP2017527230A (ja) | 2017-09-14 |
Family
ID=54699946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017515038A Withdrawn JP2017527230A (ja) | 2014-05-29 | 2015-05-29 | コンテンツを配信および/または再生するための方法及び装置 |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP3149937A4 (ja) |
JP (1) | JP2017527230A (ja) |
KR (2) | KR102407283B1 (ja) |
CN (1) | CN106416239B (ja) |
CA (1) | CA2948642A1 (ja) |
WO (1) | WO2015184416A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019521584A (ja) * | 2016-05-24 | 2019-07-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Httpを介した動的適応型ストリーミングにおけるバーチャルリアリティビデオのシグナリング |
JP2019134383A (ja) * | 2018-02-02 | 2019-08-08 | トヨタ自動車株式会社 | 遠隔操作システム、及びその通信方法 |
JP2021513305A (ja) * | 2018-02-06 | 2021-05-20 | フェニックス リアル タイム ソリューションズ, インコーポレイテッド | ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション |
JP2021526778A (ja) * | 2018-05-22 | 2021-10-07 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Vrビデオ再生方法、端末、およびサーバ |
JP2024511731A (ja) * | 2021-11-05 | 2024-03-15 | テンセント・アメリカ・エルエルシー | アセット再使用の頻度によって優先される没入型メディアストリーミング方法、装置、およびコンピュータプログラム |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10204658B2 (en) | 2014-07-14 | 2019-02-12 | Sony Interactive Entertainment Inc. | System and method for use in playing back panorama video content |
CN106937128A (zh) * | 2015-12-31 | 2017-07-07 | 幸福在线(北京)网络技术有限公司 | 一种视频直播方法、服务器及系统和相关用途 |
CN105791882B (zh) * | 2016-03-22 | 2018-09-18 | 腾讯科技(深圳)有限公司 | 视频编码方法及装置 |
JP6741784B2 (ja) * | 2016-04-08 | 2020-08-19 | ヴィズビット インコーポレイテッド | ビューを意識した360度ビデオストリーミング |
US10219014B2 (en) | 2016-06-02 | 2019-02-26 | Biamp Systems, LLC | Systems and methods for bandwidth-limited video transport |
WO2018004934A1 (en) * | 2016-06-30 | 2018-01-04 | Sony Interactive Entertainment Inc. | Apparatus and method for capturing and displaying segmented content |
US10805592B2 (en) * | 2016-06-30 | 2020-10-13 | Sony Interactive Entertainment Inc. | Apparatus and method for gaze tracking |
KR20180025797A (ko) * | 2016-09-01 | 2018-03-09 | 삼성전자주식회사 | 영상 스트리밍 방법 및 이를 지원하는 전자 장치 |
EP3510744B1 (en) * | 2016-09-09 | 2022-05-04 | Vid Scale, Inc. | Methods and apparatus to reduce latency for 360-degree viewport adaptive streaming |
KR20190046850A (ko) * | 2016-09-13 | 2019-05-07 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 몰입형 비디오 포맷을 위한 방법, 장치 및 스트림 |
US11050991B2 (en) * | 2016-09-29 | 2021-06-29 | Koninklijke Philips N.V. | Image processing using a plurality of images for a three dimension scene, having a different viewing positions and/or directions |
WO2018063957A1 (en) * | 2016-09-30 | 2018-04-05 | Silver VR Technologies, Inc. | Methods and systems for virtual reality streaming and replay of computer video games |
KR102633595B1 (ko) * | 2016-11-21 | 2024-02-05 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
KR102733930B1 (ko) * | 2016-11-25 | 2024-11-26 | 삼성전자주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
US10244215B2 (en) | 2016-11-29 | 2019-03-26 | Microsoft Technology Licensing, Llc | Re-projecting flat projections of pictures of panoramic video for rendering by application |
US10244200B2 (en) | 2016-11-29 | 2019-03-26 | Microsoft Technology Licensing, Llc | View-dependent operations during playback of panoramic video |
FI20165925A7 (fi) * | 2016-12-05 | 2018-06-06 | Kongsberg Maritime Finland Oy | Merialukselta lähetettävien datavirtalähetysten optimointi |
US10595069B2 (en) | 2016-12-05 | 2020-03-17 | Adobe Inc. | Prioritizing tile-based virtual reality video streaming using adaptive rate allocation |
CN108156484B (zh) * | 2016-12-05 | 2022-01-14 | 奥多比公司 | 利用自适应速率分配优先处理基于图块的虚拟现实视频流 |
US10242714B2 (en) | 2016-12-19 | 2019-03-26 | Microsoft Technology Licensing, Llc | Interface for application-specified playback of panoramic video |
US10999602B2 (en) | 2016-12-23 | 2021-05-04 | Apple Inc. | Sphere projected motion estimation/compensation and mode decision |
US11259046B2 (en) | 2017-02-15 | 2022-02-22 | Apple Inc. | Processing of equirectangular object data to compensate for distortion by spherical projections |
US10924747B2 (en) | 2017-02-27 | 2021-02-16 | Apple Inc. | Video coding techniques for multi-view video |
CN108668138B (zh) * | 2017-03-28 | 2021-01-29 | 华为技术有限公司 | 一种视频下载方法以及用户终端 |
US10979663B2 (en) * | 2017-03-30 | 2021-04-13 | Yerba Buena Vr, Inc. | Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos |
US10311630B2 (en) * | 2017-05-31 | 2019-06-04 | Verizon Patent And Licensing Inc. | Methods and systems for rendering frames of a virtual scene from different vantage points based on a virtual entity description frame of the virtual scene |
US11093752B2 (en) | 2017-06-02 | 2021-08-17 | Apple Inc. | Object tracking in multi-view video |
WO2019017913A1 (en) * | 2017-07-18 | 2019-01-24 | Hewlett-Packard Development Company, L.P. | BUILDING VIRTUAL REALITY |
WO2019078033A1 (ja) * | 2017-10-20 | 2019-04-25 | ソニー株式会社 | 再生装置および方法、並びに、生成装置および方法 |
TWI653882B (zh) | 2017-11-23 | 2019-03-11 | 宏碁股份有限公司 | 視訊裝置及其三維物件編解碼方法 |
US10990831B2 (en) | 2018-01-05 | 2021-04-27 | Pcms Holdings, Inc. | Method to create a VR event by evaluating third party information and re-providing the processed information in real-time |
KR102568871B1 (ko) * | 2018-01-22 | 2023-08-18 | 애플 인크. | 합성 현실 컴패니언 콘텐츠를 프레젠테이션하기 위한 방법 및 디바이스 |
CN110198457B (zh) * | 2018-02-26 | 2022-09-02 | 腾讯科技(深圳)有限公司 | 视频播放方法及其设备、系统、存储介质、终端、服务器 |
KR102509753B1 (ko) | 2018-03-22 | 2023-03-14 | 브이아이디 스케일, 인크. | 뷰포트 의존성 비디오 스트리밍 이벤트 |
US10666863B2 (en) | 2018-05-25 | 2020-05-26 | Microsoft Technology Licensing, Llc | Adaptive panoramic video streaming using overlapping partitioned sections |
US10764494B2 (en) | 2018-05-25 | 2020-09-01 | Microsoft Technology Licensing, Llc | Adaptive panoramic video streaming using composite pictures |
KR20190136417A (ko) * | 2018-05-30 | 2019-12-10 | 삼성전자주식회사 | 3차원 360도 영상 데이터의 전송 방법, 그에 따른 디스플레이 장치, 및 그에 따른 영상 저장 장치 |
KR102435519B1 (ko) * | 2018-06-20 | 2022-08-24 | 삼성전자주식회사 | 360도 영상을 처리하는 방법 및 장치 |
EP3588970A1 (en) * | 2018-06-22 | 2020-01-01 | Koninklijke Philips N.V. | Apparatus and method for generating an image data stream |
CN111614974B (zh) * | 2020-04-07 | 2021-11-30 | 上海推乐信息技术服务有限公司 | 一种视频图像修复方法和系统 |
KR20220039113A (ko) * | 2020-09-21 | 2022-03-29 | 삼성전자주식회사 | 엣지 컴퓨팅 서비스를 이용한 영상 컨텐츠 전송 방법 및 장치 |
US20220103655A1 (en) * | 2020-09-29 | 2022-03-31 | International Business Machines Corporation | Proactively selecting virtual reality content contexts |
US11632531B1 (en) * | 2021-05-03 | 2023-04-18 | Amazon Technologies, Inc. | Synchronization and presentation of multiple 3D content streams |
CN115250363A (zh) * | 2022-09-22 | 2022-10-28 | 广州市千钧网络科技有限公司 | 一种多视角直播系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127577A (ja) * | 1997-06-30 | 1999-01-29 | Hitachi Ltd | 仮想視点画像システム |
JP2005065051A (ja) * | 2003-08-18 | 2005-03-10 | Sony Corp | 撮像装置 |
JP2009017064A (ja) * | 2007-07-03 | 2009-01-22 | Hitachi Ltd | 映像受信装置及びマルチキャスト配信コンテンツ受信制御方法 |
JP2013521743A (ja) * | 2010-03-05 | 2013-06-10 | トムソン ライセンシング | 適応型ストリーミングシステムにおけるビットレート調整 |
US20130219012A1 (en) * | 2012-02-22 | 2013-08-22 | Citrix Systems, Inc. | Hierarchical Display |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6466254B1 (en) * | 1997-05-08 | 2002-10-15 | Be Here Corporation | Method and apparatus for electronically distributing motion panoramic images |
US20040104935A1 (en) * | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US8130260B2 (en) * | 2005-11-09 | 2012-03-06 | Johns Hopkins University | System and method for 3-dimensional display of image data |
KR101313797B1 (ko) * | 2009-12-18 | 2013-10-01 | 한국전자통신연구원 | 머리 위치 추적을 이용한 입체 영상 표시 장치 및 이의 동작 방법 |
US20110181601A1 (en) * | 2010-01-22 | 2011-07-28 | Sony Computer Entertainment America Inc. | Capturing views and movements of actors performing within generated scenes |
US8988512B2 (en) * | 2011-04-14 | 2015-03-24 | Mediatek Inc. | Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof |
FR2988964A1 (fr) * | 2012-03-30 | 2013-10-04 | France Telecom | Technique de distribution d'un contenu video de type immersif |
CN103533340B (zh) * | 2013-10-25 | 2016-04-06 | 深圳市汉普电子技术开发有限公司 | 移动终端的裸眼3d播放方法和移动终端 |
-
2015
- 2015-05-29 EP EP15798986.4A patent/EP3149937A4/en not_active Withdrawn
- 2015-05-29 JP JP2017515038A patent/JP2017527230A/ja not_active Withdrawn
- 2015-05-29 KR KR1020167036714A patent/KR102407283B1/ko active Active
- 2015-05-29 CA CA2948642A patent/CA2948642A1/en active Pending
- 2015-05-29 KR KR1020227019042A patent/KR102611448B1/ko active Active
- 2015-05-29 WO PCT/US2015/033420 patent/WO2015184416A1/en active Application Filing
- 2015-05-29 CN CN201580028645.9A patent/CN106416239B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127577A (ja) * | 1997-06-30 | 1999-01-29 | Hitachi Ltd | 仮想視点画像システム |
JP2005065051A (ja) * | 2003-08-18 | 2005-03-10 | Sony Corp | 撮像装置 |
JP2009017064A (ja) * | 2007-07-03 | 2009-01-22 | Hitachi Ltd | 映像受信装置及びマルチキャスト配信コンテンツ受信制御方法 |
JP2013521743A (ja) * | 2010-03-05 | 2013-06-10 | トムソン ライセンシング | 適応型ストリーミングシステムにおけるビットレート調整 |
US20130219012A1 (en) * | 2012-02-22 | 2013-08-22 | Citrix Systems, Inc. | Hierarchical Display |
Non-Patent Citations (1)
Title |
---|
S. HEYMANN ET AL.: "Representation, Coding and interactive Rendering of High-Resolution Panoramic Images and Video using", PROC. PANORAMIC PHOTOGRAMMETRY WORKSHOP, JPN6019001113, 2005, pages 1 - 5 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019521584A (ja) * | 2016-05-24 | 2019-07-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Httpを介した動的適応型ストリーミングにおけるバーチャルリアリティビデオのシグナリング |
US11375291B2 (en) | 2016-05-24 | 2022-06-28 | Qualcomm Incorporated | Virtual reality video signaling in dynamic adaptive streaming over HTTP |
JP2019134383A (ja) * | 2018-02-02 | 2019-08-08 | トヨタ自動車株式会社 | 遠隔操作システム、及びその通信方法 |
JP7059662B2 (ja) | 2018-02-02 | 2022-04-26 | トヨタ自動車株式会社 | 遠隔操作システム、及びその通信方法 |
JP2023166519A (ja) * | 2018-02-06 | 2023-11-21 | フェニックス リアル タイム ソリューションズ, インコーポレイテッド | ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション |
JP2021513305A (ja) * | 2018-02-06 | 2021-05-20 | フェニックス リアル タイム ソリューションズ, インコーポレイテッド | ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション |
JP7594642B2 (ja) | 2018-02-06 | 2024-12-04 | フェニックス リアル タイム ソリューションズ, インコーポレイテッド | ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション |
JP7346459B2 (ja) | 2018-02-06 | 2023-09-19 | フェニックス リアル タイム ソリューションズ, インコーポレイテッド | ライブイベントの共有可能な視点をライブストリーミングすることによる、ローカル体験のシミュレーション |
JP2021526778A (ja) * | 2018-05-22 | 2021-10-07 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Vrビデオ再生方法、端末、およびサーバ |
US11765427B2 (en) | 2018-05-22 | 2023-09-19 | Huawei Technologies Co., Ltd. | Virtual reality video playing method, terminal, and server |
JP7150984B2 (ja) | 2018-05-22 | 2022-10-11 | 華為技術有限公司 | Vrビデオ再生方法、端末、およびサーバ |
JP2024511731A (ja) * | 2021-11-05 | 2024-03-15 | テンセント・アメリカ・エルエルシー | アセット再使用の頻度によって優先される没入型メディアストリーミング方法、装置、およびコンピュータプログラム |
JP7665771B2 (ja) | 2021-11-05 | 2025-04-21 | テンセント・アメリカ・エルエルシー | アセット再使用の頻度によって優先される没入型メディアストリーミング方法、装置、およびコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20170015938A (ko) | 2017-02-10 |
KR102611448B1 (ko) | 2023-12-07 |
EP3149937A4 (en) | 2018-01-10 |
CA2948642A1 (en) | 2015-12-03 |
WO2015184416A1 (en) | 2015-12-03 |
CN106416239A (zh) | 2017-02-15 |
EP3149937A1 (en) | 2017-04-05 |
CN106416239B (zh) | 2019-04-09 |
KR102407283B1 (ko) | 2022-06-10 |
KR20220081390A (ko) | 2022-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11871085B2 (en) | Methods and apparatus for delivering content and/or playing back content | |
KR102611448B1 (ko) | 콘텐트를 전달 및/또는 콘텐트를 재생하기 위한 방법들 및 장치 | |
US12081723B2 (en) | Methods and apparatus for receiving and/or playing back content | |
US11381801B2 (en) | Methods and apparatus for receiving and/or using reduced resolution images | |
RU2665872C2 (ru) | Стереопросмотр | |
US20170324945A1 (en) | Methods and apparatus for streaming content | |
JP2018507650A (ja) | コンテンツの生成、送信、および/または、再生をサポートするための方法および装置 | |
WO2019146425A1 (ja) | 画像処理装置、画像処理方法、プログラム、および投影システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20190410 |