[go: up one dir, main page]

JP6848873B2 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP6848873B2
JP6848873B2 JP2017545195A JP2017545195A JP6848873B2 JP 6848873 B2 JP6848873 B2 JP 6848873B2 JP 2017545195 A JP2017545195 A JP 2017545195A JP 2017545195 A JP2017545195 A JP 2017545195A JP 6848873 B2 JP6848873 B2 JP 6848873B2
Authority
JP
Japan
Prior art keywords
image data
extended
basic
format
frame rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017545195A
Other languages
English (en)
Other versions
JPWO2017065128A1 (ja
Inventor
塚越 郁夫
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017065128A1 publication Critical patent/JPWO2017065128A1/ja
Application granted granted Critical
Publication of JP6848873B2 publication Critical patent/JP6848873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • H04N21/2356Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages by altering the spatial resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • H03M7/4012Binary arithmetic codes
    • H03M7/4018Context adapative binary arithmetic codes [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関し、詳しくは、ハイフレームレートで超高解像度の画像データを送信する送信装置等に関する。
固定受信機とモバイル受信機とが同一の伝送帯域を共有する受信環境において、伝送ビットレートの効率的な利用を行うために、解像度が高いとされる固定受信機向けの画像サービス(映像サービス)と中程度の解像度とされるモバイル受信機向けの画像サービスとがストリームを共有することで、固定受信機向けサービスとモバイル受信機向けサービスとを別に行う、いわゆるサイマルキャストサービスに比べて、全体のビットレートを低減できると考えられている。例えば、特許文献1には、メディア符号化をスケーラブルに行って、低解像度の画像サービスのための基本レイヤのストリームと、高解像度の画像サービスのための拡張レイヤのストリームを生成し、これらを含む放送信号を送信することが記載されている。
一方で、スポーツシーンなど動きのスムーズさや鮮明さが要求される場合、シャッタ速度を高速にしてフレームレートを高くする、いわゆるハイフレームレートの映像サービスが要求される。ハイフレームレートのサービスを行う場合、高速フレームシャッタでカメラ撮りされた動画像を、それよりも低周波数の動画像シーケンスに変換して送信することが考えられる。高速フレームシャッタの画像は、動きボケを改善し先鋭度の高い画質を実現する効果がある一方で、従来のノーマルフレームレートの受信機との互換性をとる場合には、ハイフレームレートの映像の全体を表示せずに一部のみを表示することによるストロービング(strobing)効果の問題がある。本出願人は、先に、高速フレームシャッタで撮影された画像による素材を変換して、ノーマルフレームレートのデコードを行う従来の受信機で一定以上の画品質で表示させる技術を提案した(特許文献2参照)。
特表2008−543142号公報 国際公開第2015/076277号
本技術の目的は、ハイフレームレートで超高解像度の画像データを受信側において下位互換を良好に実現可能に伝送することにある。
本技術の概念は、
ハイフレームレートで超高解像度の画像データを処理して、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データと、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データを得る画像処理部と、
上記基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを生成する画像符号化部と、
上記基本ストリームおよび上記所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
上記画像処理部は、
上記ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して基本フレームレートの画像データである第1の画像データを得ると共に、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施してハイフレームレートの拡張フレームの画像データである第2の画像データを得、
上記第1の画像データにダウンスケール処理を施して上記基本フォーマットの画像データを得ると共に、該基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって上記第2の拡張フォーマットの画像データを得、
上記第2の画像データにダウンスケール処理を施して上記第1の拡張フォーマットの画像データを得ると共に、該第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって上記第3の拡張フォーマットの画像データを得る
送信装置にある。
本技術において、画像処理部により、ハイフレームレートおよび超高解像度の画像データが処理されて、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データと、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データが得られる。
ここで、基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施すことで得られる。第2の拡張フォーマットの画像データは、基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとることで得られる。第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施すことで得られる。第3の拡張フォーマットの画像データは、第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとることで得られる。
画像符号化部により、基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、第1から第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームが生成される。例えば、画像符号化部は、基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、第1から第3の拡張フォーマットの画像データの符号化画像データをそれぞれ含む3つの拡張ビデオストリームまたは第1から第3の拡張フォーマットの画像データの符号化画像データの全てを含む1つの拡張ビデオストリームを生成する、ようにされてもよい。そして、送信部により、基本ストリームおよび所定数の拡張ビデオストリームを含む所定フォーマットのコンテナが送信される。
このように本技術においては、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームが送信される。そのため、ハイフレームレートで超高解像度の画像データを受信側において下位互換を良好に実現可能に伝送される。
例えば、基本フレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像の表示が可能となる。また、例えば、ハイフレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理してハイフレームレートで高解像度の画像の表示が可能となる。また、例えば、基本フレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理して基本フレームレートで超高解像度の画像の表示が可能となる。また、例えば、ハイフレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理してハイフレームレートで超高解像度の画像の表示が可能となる。
また、本技術においては、基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施すことで得られたものである。そのため、受信側で基本ビデオストリームのみを処理して表示される基本フレームレートで高解像度の画像はストロービング効果が抑制された滑らかな画像となる。
なお、本技術において、例えば、第1の拡張フォーマットの画像データの符号化画像データに、および/またはこの符号化画像データに対応したコンテナ位置に、時間スケーラブルであることを示す識別情報を挿入し、第2の拡張フォーマットの画像データの符号化画像データに、および/またはこの符号化画像データに対応したコンテナ位置に、空間スケーラブルであることを示す識別情報を挿入し、第3の拡張フォーマットの画像データの符号化画像データに、および/またはこの符号化画像データに対応したコンテナ位置に、時間スケーラブルおよび空間スケーラブルであることを示す識別情報を挿入する情報挿入部をさらに備える、ようにされてもよい。この識別情報の挿入により、受信側では、各拡張フォーマットの画像データが空間スケーラブルにかかるものであるか時間スケーラブルに係るものであるかを容易に把握可能となる。
この場合、例えば、情報挿入部は、第2および第3の拡張フォーマットの画像データの符号化画像データに、および/またはこの符号化画像データに対応したコンテナ位置に、空間スケーラブルの比率を示す情報をさらに挿入する、ようにされてもよい。受信側では、この空間スケーラブルの比率を示す情報を用いることで、空間スケーラブルの処理を適切に行うことが可能となり、超高解像度の画像データを良好に得ることが可能となる。
また、この場合、情報挿入部は、第1および第3の拡張フォーマットの画像データの符号化画像データに、および/またはこの符号化画像データに対応したコンテナ位置に、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報をさらに挿入する、ようにされてもよい。この識別情報の挿入により、受信側では、基本フォーマットの画像データが混合処理を施して得られた画像データであることを容易に把握可能となる。
また、この場合、情報挿入部は、第1および第3の拡張フォーマットの画像データの符号化画像データに、および/またはこの符号化画像データに対応したコンテナ位置に、混合処理における比率情報(第1の比率の情報および第2の比率の情報)をさらに挿入する、ようにされてもよい。受信側では、この混合処理における比率情報を用いることで、時間スケーラブルの処理を適切に行うことが可能となり、ハイフレームレートの画像データを良好に得ることが可能となる。
また、本技術において、例えば、基本ビデオストリームと所定数の拡張ビデオストリームを受信装置で取得させるためのメタ情報を持つメタファイルを送信する送信部をさらに備え、このメタファイルにはスケーラビリティの対応を示す情報が挿入される、ようにされてもよい。受信側では、このようにメタファイルに挿入されるスケーラビリティの対応を示す情報から、スケーラビリティの対応を容易に認識でき、必要なストリームあるいは符号化画像データのみを取得して効率よく処理することが可能となる。
また、本技術の他の概念は、
基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持つ基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施して得られたものであり、
上記第2の拡張フォーマットの画像データは、上記基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって得られたものであり、
上記第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施して得られたものであり、
上記第3の拡張フォーマットの画像データは、上記第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって得られたものであり、
上記基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得るか、あるいは上記所定数の拡張ビデオストリームの一部または全部のストリームを処理してハイフレームレートで高解像後の画像データ、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データを得る処理部をさらに備える
受信装置にある。
本技術において、受信部により、基本ビデオストリームと所定数の拡張ビデオストリーム含む所定フォーマットのコンテナが受信される。基本ビデオストリームは、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持っている。所定数の拡張ビデオストリームは、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを持っている。
ここで、基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施すことで得られたものである。第2の拡張フォーマットの画像データは、基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとることで得られたものである。第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施すことで得られたものである。第3の拡張フォーマットの画像データは、第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとることで得られたものである。
処理部により、基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得るか、あるいは所定数の拡張ビデオストリームの一部または全部のストリームを処理してハイフレームレートで高解像後の画像データ、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データが得られる。
このように本技術においては、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得ることができる。すなわち、基本フレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像の表示が可能となり、下位互換を実現できる。
ここで、基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施すことで得られたものである。そのため、基本ビデオストリームのみを処理して表示される基本フレームレートで高解像度の画像はストロービング効果が抑制された滑らかな画像となる。
また、基本ビデオストリームと所定数の拡張ビデオストリームの一部または全部のストリームを処理して、ハイフレームレートで高解像度の画像データ、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データを得ることができる。すなわち、ハイフレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理してハイフレームレートで高解像度の画像の表示が可能となる。
また、基本フレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理して基本フレームレートで超高解像度の画像の表示が可能となる。また、ハイフレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理してハイフレームレートで超高解像度の画像の表示が可能となる。
なお、本技術において、例えば、第2および第3の拡張フォーマットの画像データの符号化画像データに、および/または、この符号化画像データに対応したコンテナ位置に、空間スケーラブルの比率を示す情報が挿入されており、処理部は、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データを得る場合、この挿入されている空間スケーラブルの比率を示す情報を用いる、ようにされてもよい。この場合、空間スケーラブルの処理を適切に行うことが可能となり、超高解像度の画像データを良好に得ることが可能となる。
また、本技術において、例えば、第1および第3の拡張フォーマットの画像データの符号化画像データに、および/または、この符号化画像データに対応したコンテナ位置に、第1の比率の情報および第2の比率の情報が挿入されており、処理部は、ハイフレームレートで高解像後の画像データまたはハイフレームレートで超高解像度の画像データを得る場合、この挿入されている第1の比率の情報および第2の比率の情報を用いる、ようにされてもよい。この場合、時間スケーラブルの処理を適切に行うことが可能となり、ハイフレームレートの画像データを良好に得ることが可能となる。
本技術によれば、ハイフレームレートで超高解像度の画像データを受信側において下位互換を良好に実現可能に伝送できる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
MPEG−DASHベースのストリーム配信システムの構成例を示すブロック図である。 MPDファイルに階層的に配置されている各構造体の関係の一例を示す図である。 実施の形態としての送受信システムの構成例を示すブロック図である。 混合比によって変化するシャッタ開口率を説明するための図である。 サービス送信システムおよびサービス受信機の処理の概要を示す図である。 基本ビデオストリームSTbと拡張ストリームSTe1,STe2,STe3の4ストリーム構成の伝送の場合におけるストリーム構成例を示す図である。 4ストリーム構成の伝送の場合におけるDASH/MP4のトラック構成を示す図である。 トラックB、トラックE1、トラックE2、トラックE3の各トラックのデータを含むMP4ストリーム(ファイル)の構成例を示す図である。 SPS(VPS)の要素の一例を示す図である。 基本ビデオストリームSTb、拡張ビデオストリームSTe1,STe2,STe3の構成例を示す図である。 ビデオ・スケーラビリティ・SEIの構造例を示す図である。 ビデオ・スケーラビリティ・SEIの構造例における主要な情報の内容を示す図である。 ビデオ・スケーラビリティ・インフォメーション・デスクリプタの構造例を示す図である。 4ストリーム構成の伝送の場合におけるMPDファイルの記述例を示す図であ 基本ビデオストリームSTbと拡張ストリームSTeの2ストリーム構成の伝送の場合におけるストリーム構成例を示す図である。 2ストリーム構成の伝送の場合におけるDASH/MP4のトラック構成を示す図である。 トラックB、トラックEHの各トラックのデータを含むMP4ストリーム(ファイル)の構成例を示す図である。 2ストリーム構成の伝送の場合におけるMPDファイルの記述例を示す図である。 サービス送信システムの構成例を示すブロック図である。 ビデオエンコーダの構成を概略的に示す図である。 ビデオエンコーダにおけるプロセス1,2,3の処理を行う各信号処理部の部分を示す図である。 プロセス1の処理を行う信号処理部の構成例を示すブロック図である。 プロセス1の処理を行う信号処理部における入力データ(画像データVa)と出力データ(画像データVb,Vc)との関係の一例を模式的に表す図である。 プロセス2,3の処理を行う信号処理部の構成例を示すブロック図である。 ハイフレームレートで超高解像度の動画像データを処理可能なサービス受信機の構成例を示すブロック図である。 ビデオデコーダの構成を概略的に示す図である。 ビデオデコーダにおけるインバースプロセス1,2,3の処理を行う各信号処理部の部分を示す図である。 インバースプロセス2,3の処理を行う信号処理部の構成例を示すブロック図である。 インバースプロセス1の処理を行う信号処理部の構成例を示すブロック図である。 ハイフレームレートで高解像度の動画像データを処理可能なサービス受信機の構成例を示すブロック図である。 基本フレームレートで超高解像度の動画像データを処理可能なサービス受信機の構成例を示すブロック図である。 基本フレームレートで高解像度の動画像データを処理可能なサービス受信機の構成例を示すブロック図である。 4ストリーム構成の伝送の場合におけるトランスポートストリームの構成例を示す図である。 2ストリーム構成の伝送の場合におけるトランスポートストリームの構成例を示す図である。 4ストリーム構成の伝送の場合におけるMMTストリームの構成例を示す図である。 2ストリーム構成の伝送の場合におけるMMTストリームの構成例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[MPEG−DASHベースのストリーム配信システムの概要]
最初に、本技術を適用し得るMPEG−DASHベースのストリーム配信システムの概要を説明する。
図1(a)は、MPEG−DASHベースのストリーム配信システム30Aの構成例を示している。この構成例では、メディアストリームとMPDファイルが、通信ネットワーク伝送路(通信伝送路)を通じて送信される。このストリーム配信システム30Aは、DASHストリームファイルサーバ31およびDASH MPDサーバ32に、N個のサービス受信機33-1,33-2,・・・,33-Nが、CDN(Content Delivery Network)34を介して、接続された構成となっている。
DASHストリームファイルサーバ31は、所定のコンテンツのメディアデータ(ビデオデータ、オーディオデータ、字幕データなど)に基づいて、DASH仕様のストリームセグメント(以下、適宜、「DASHセグメント」という)を生成し、サービス受信機からのHTTP要求に応じてセグメントを送出する。このDASHストリームファイルサーバ31は、ストリーミング専用のサーバであってもよいし、また、ウェブ(Web)サーバで兼用されることもある。
また、DASHストリームファイルサーバ31は、サービス受信機33(33-1,33-2,・・・,33-N)からCDN34を介して送られてくる所定ストリームのセグメントの要求に対応して、そのストリームのセグメントを、CDN34を介して、要求元の受信機に送信する。この場合、サービス受信機33は、MPD(Media Presentation Description)ファイルに記載されているレートの値を参照して、クライアントの置かれているネットワーク環境の状態に応じて、最適なレートのストリームを選択して要求を行う。
DASH MPDサーバ32は、DASHストリームファイルサーバ31において生成されるDASHセグメントを取得するためのMPDファイルを生成するサーバである。コンテンツマネジメントサーバ(図示せず)からのコンテンツメタデータと、DASHストリームファイルサーバ31において生成されたセグメントのアドレス(url)をもとに、MPDファイルを生成する。なお、DASHストリームファイルサーバ31とDASH MPDサーバ32は、物理的に同じものであってもよい。
MPDのフォーマットでは、ビデオやオーディオなどのそれぞれのストリーム毎にリプレゼンテーション(Representation)という要素を利用して、それぞれの属性が記述される。例えば、MPDファイルには、レートの異なる複数のビデオデータストリーム毎に、リプレゼンテーションを分けてそれぞれのレートが記述される。サービス受信機33では、そのレートの値を参考にして、上述したように、サービス受信機33の置かれているネットワーク環境の状態に応じて、最適なストリームを選択できる。
図1(b)は、MPEG−DASHベースのストリーム配信システム30Bの構成例を示している。この構成例では、メディアストリームとMPDファイルが、RF伝送路(放送伝送路)を通じて送信される。このストリーム配信システム30Bは、DASHストリームファイルサーバ31およびDASH MPDサーバ32が接続された放送送出システム36と、M個のサービス受信機35-1,35-2,・・・,35-Mとで構成されている。
このストリーム配信システム30Bの場合、放送送出システム36は、DASHストリームファイルサーバ31で生成されるDASH仕様のストリームセグメント(DASHセグメント)およびDASH MPDサーバ32で生成されるMPDファイルを、放送波に載せて送信する。
図2は、MPDファイルに階層的に配置されている各構造体の関係の一例を示している。図2(a)に示すように、MPDファイル全体としてのメディア・プレゼンテーション(Media Presentation)には、時間間隔で区切られた複数のピリオド(Period)が存在する。例えば、最初のピリオドはスタートが0秒から、次のピリオドはスタートが100秒から、などとなっている。
図2(b)に示すように、ピリオドには、複数のアダプテーションセット(AdaptationSet)が存在する。各アダプテーションセットはビデオやオーディオ等のメディアタイプの違いや、同じメディアタイプでも言語の違い、視点の違い等に依存する。図2(c)に示すように、アダプテーションセットには複数のリプレゼンテーション(Representation)が存在する。各リプレゼンテーションはストリーム属性、例えばレートの違い等に依存する。
図2(d)に示すように、リプレゼンテーションには、セグメントインフォ(SegmentInfo)が含まれている。このセグメントインフォには、図2(e)に示すように、イニシャライゼーション・セグメント(Initialization Segment)と、ピリオドをさらに細かく区切ったセグメント(Segment)毎の情報が記述される複数のメディア・セグメント(Media Segment)が存在する。メディアセグメントには、ビデオやオーディオなどのセグメントデータを実際に取得するためのアドレス(url)の情報等が存在する。
なお、アダプテーションセットに含まれる複数のリプレゼンテーションの間では、ストリームのスイッチングを自由に行うことができる。これにより、受信側のネットワーク環境の状態に応じて、最適なレートのストリームを選択でき、途切れのないビデオ配信が可能となる。
[送受信システムの構成例]
図3は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、サービス送信システム100とサービス受信機200により構成されている。この送受信システム10において、サービス送信システム100は、上述の図1(a)に示すストリーム配信システム30AのDASHストリームファイルサーバ31およびDASH MPDサーバ32に対応する。また、この送受信システム10において、サービス送信システム100は、上述の図1(b)に示すストリーム配信システム30BのDASHストリームファイルサーバ31、DASH MPDサーバ32および放送送出システム36に対応する。
また、この送受信システム10において、サービス受信機200は、上述の図1(a)に示すストリーム配信システム30Aのサービス受信機33(33-1,33-2,・・・,33-N)に対応する。また、この送受信システム10において、サービス受信機200は、上述の図1(b)に示すストリーム配信システム30Bのサービス受信機35(35-1,35-2,・・・,35-M)に対応する。
サービス送信システム100は、DASH/MP4、つまりメタファイルとしてのMPDファイルと、ビデオやオーディオなどのメディアストリーム(メディアセグメント)が含まれるMP4を、通信ネットワーク伝送路(図1(a)参照)またはRF伝送路(図1(b)参照)を通じて、送信する。
この実施の形態において、メディアストリームは、ハイフレームレート(HFR:High Frame Rate)で超高解像度(UHD:Ultra High Definition)の画像データ(動画像データ)が処理されて得られた、基本ビデオストリームと、所定数、例えば3つまたは1つの拡張ビデオストリームである。ハイフレームレートで超高解像度の画像データは、例えば、120fpsで4K/8Kの画像データである。
基本ビデオストリームは、基本フレームレート(ノーマルフレームレート)で高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持っている。所定数の拡張ビデオストリームは、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データの符号化画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データの符号化画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを持っている。
ここで、基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施すことで得られたものである。第2の拡張フォーマットの画像データは、基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとることで得られたものである。
また、第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施すことで得られたものである。第3の拡張フォーマットの画像データは、第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとることで得られたものである。
ここで、ハイフレームレートの画像データは、図4(a)に示すように、オリジナル画像シーケンス(高速シャッタ画像シーケンス)であるとする。図において、“A” ,“B”は、それぞれ、時間的に連続する2個のピクチャ単位で1番目のピクチャの画像データ、2番目のピクチャの画像データを示している。このオリジナル画像シーケンスのシャッタ開口率は1(100%)である。図示しないが、このハイフレームレートの画像データから単に抽出される“A”あるいは“B”の画像シーケンスのシャッタ開口率は1/2(50%)である。
これに対して、図4(b)〜(d)に示すように、時間的に連続する2個のピクチャ単位で混合処理を施して得られた混合画像シーケンスのシャッタ開口率は、1/2(50%)から1(100%)までの間となる。図において、“C”は、2個のピクチャ単位で第1の比率で混合処理をして得られる基本フレームレートの画像データを示し、“D”は、2個のピクチャ単位で第2の比率で混合処理をして得られるハイフレームレートの拡張フレームの画像データを示している。ここでは、“C”の混合画像シーケンスに着目している。
例えば、図4(b)に示すように、1番目のピクチャの係数αが1で、2番目のピクチャの係数βが0であるとき、混合画像シーケンスのシャッタ開口率は1/2(50%)である。また、例えば、図4(c)に示すように、1番目のピクチャの係数αが3/4で、2番目のピクチャの係数βが1/4であるとき、混合画像シーケンスのシャッタ開口率は3/4(75%)である。また、例えば、図4(d)に示すように、1番目のピクチャの係数αが1/2で、2番目のピクチャの係数βが1/2であるとき、混合画像シーケンスのシャッタ開口率は1(100%)である。
第2および第3の拡張フォーマットの画像データの符号化画像データとこの符号化画像データに対応したコンテナ位置の一方または両方に、この実施の形態では両方に、空間スケーラブルであることを示す識別情報、さらにその空間スケーラブルの比率を示す情報が挿入される。この実施の形態において、これらの情報を持つSEI NALユニットが第2および第3の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)に挿入され、また、これらの情報を持つデスクリプタがMP4の第2および第3の拡張フォーマットの画像データに対応した“moof”のボックスに挿入される。受信側では、これらの情報により、第2および第3の拡張フォーマットの画像データが空間スケーラブルに係る画像データであること、さらに、その空間スケーラブルの比率を容易に認識可能となる。
第1および第3の拡張フォーマットの画像データの符号化画像データとこの符号化画像データに対応したコンテナ位置の一方または両方に、この実施の形態では両方に、時間スケーラブルであることを示す識別情報、さらに、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報が挿入される。
この実施の形態において、これらの情報を持つSEI NALユニットが第1および第3の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)に挿入され、また、これらの情報を持つデスクリプタがMP4の第2の拡張フォーマットの画像データに対応した“moof”のボックスに挿入される。受信側では、これらの情報により、第1および第3の拡張フォーマットの画像データが時間スケーラブルに係る画像データであること、さらに、基本フォーマットの画像データが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)を容易に認識可能となる。
また、この実施の形態において、MPDファイルに、スケーラビリティの対応を示す情報が挿入される。すなわち、基本フォーマットの画像データの上に第1の拡張フォーマットの画像データを用いた拡張によりハイフレームレートで高解像度の画像データが得られることが示される。また、基本フォーマットの画像データの上に第2の拡張フォーマットの画像データを用いた拡張により基本フレームレートで超高解像度の画像データが得られることが示される。また、基本フォーマットの画像データの上に、第1、第2、第3の拡張フォーマットの画像データを用いた拡張によりハイフレームレートで超高解像度の画像データが得られることが示される。受信側では、この情報により、スケーラビリティの対応を容易に認識でき、必要なストリームあるいは符号化画像データのみを取得して効率よく処理することが可能となる。
サービス受信機200は、サービス送信システム100から通信ネットワーク伝送路(図1(a)参照)またはRF伝送路(図1(b)参照)を通じて送られてくる上述のMP4を受信する。サービス受信機200は、基本フレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームのみを処理して、基本フレームレートで高解像度の画像データを得て、画像再生を行う。また、ハイフレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ビデオストリーム(第1の拡張フォーマットの画像データ)の双方を処理して、ハイフレームレートで高解像度の画像データを得て、画像再生を行う。
また、サービス受信機200は、基本フレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ビデオストリーム(第2の拡張フォーマットの画像データ)の双方を処理して、基本フレームレートで超高解像度の画像データを得て、画像再生を行う。さらに、サービス受信機200は、ハイフレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ビデオストリーム(第1、第2、第3の拡張フォーマットの画像データ)の双方を処理して、ハイフレームレートで超高解像度の画像データを得て、画像再生を行う。
サービス受信機200は、第2、第3の拡張フォーマットの画像データを用いた空間スケーラブルの処理を行う場合、第2、第3の拡張フォーマットの画像データの符号化画像データやその符号化画像データに対応したコンテナ位置に挿入されている空間スケーラブルの比率を示す情報を用いる。これにより、サービス受信機200は、空間スケーラブルの処理を適切に行うことが可能となる。
また、サービス受信機200は、第1、第3の拡張フォーマットの画像データを用いた時間スケーラブルの処理を行う場合、第1、第3の拡張フォーマットの画像データの符号化画像データやこの符号化画像データに対応したコンテナ位置に挿入されている混合比率(第1、第2の比率)の情報を用いる。これにより、サービス受信機200は、時間スケーラブルの処理を適切に行うことが可能となる。
図5は、サービス送信システム100およびサービス受信機200の処理の概要を示している。サービス送信システム100には、ハイフレームレート(HFR)で超高解像度(UHD)の画像データ「HFR/UHD video」が入力される。このサービス送信システム100では、ビデオエンコーダ102で画像データ「HFR/UHD video」が処理されて、基本ビデオストリームSTbと、3つの拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと、1つの拡張ビデオストリームSTeが得られ、送信される。
ここで、基本ビデオストリームSTbは、基本フレームレート(LFR)で高解像度(HD)の画像を得るための基本フォーマットの画像データの符号化画像データを持っている。拡張ビデオストリームSTe1は、ハイフレームレート(HFR)で高解像度(HD)の画像を得るための第1の拡張フォーマットの画像データの符号化画像データを持っている。拡張ビデオストリームSTe2は、基本フレームレート(LFR)で超高解像度(UHD)の画像を得るための第2の拡張フォーマットの画像データの符号化画像データを持っている。拡張ビデオストリームSTe3は、ハイフレームレート(HFR)で超高解像度(UHD)の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを持っている。拡張ビデオストリームSTeは、第1、第2、第3の拡張フォーマットの画像データの符号化画像データを持っている。
ハイフレームレートで超高解像度の画像データを処理可能なデコード能力があるサービス受信機200Aでは、ビデオデコーダ203Aにおいて、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが処理されて、ハイフレームレートで超高解像度の画像データ「HFR/UHD video」が得られて、画像再生される。
また、ハイフレームレートで高解像度の画像データを処理可能なデコード能力があるサービス受信機200Bでは、ビデオデコーダ203Bにおいて、基本ビデオストリームSTbと拡張ビデオストリームSTe1、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが処理されて、ハイフレームレートで高解像度の画像データ「HFR/HD video」が得られて、画像再生される。
また、基本フレームレートで超高解像度の画像データを処理可能なデコード能力があるサービス受信機200Cでは、ビデオデコーダ203Cにおいて、基本ビデオストリームSTbと拡張ビデオストリームSTe2、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが処理されて、基本フレームレートで超高解像度の画像データ「LFR/UHD video」が得られて、画像再生される。
また、基本フレームレートで高解像度の画像データを処理可能なデコード能力があるサービス受信機200Dでは、ビデオデコーダ203Dにおいて、基本ビデオストリームSTbが処理されて、基本フレームレートで高解像度の画像データ「LFR/HD video」が得られて、画像再生される。
図6は、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3の4ストリーム構成の伝送の場合におけるストリーム構成例を示している。図示の例では、ハイフレームレートが120Hzである場合を示している。横軸は表示順(POC:picture order of composition)を示し、左側は表示時刻が前で、右側は表示時刻が後になる。矩形枠のそれぞれがピクチャを示し、矢印は、予測符号化処理におけるピクチャの参照関係の一例を示している。レイヤ間、レイヤ内の双方とも予測はブロックごとに対象ピクチャが変わり、また、予測の向き、参照数は図示の例に限定されるわけではない。
最下段に、レイヤリングID(layering_id)が“0”である基本ビデオストリームSTbに含まれる基本フォーマットの画像データ「HD 60Hz Base」のシーケンスが存在している。この画像データ「HD 60Hz Base」のレイヤID(Layer_id)は“0”である。
その上段に、レイヤリングID(layering_id)が“1”である拡張ビデオストリームSTe1に含まれる第1の拡張フォーマットの画像データ「HD HFR Enhanced1」のシーケンスが存在している。この「HD HFR Enhanced1」は、画像データ「HD 60Hz Base」に対しての時間方向のスケーラビリティである。この画像データ「HD HFR Enhanced1」のレイヤID(Layer_id)は“0”である。
その上段に、レイヤリングID(layering_id)が“2”である拡張ビデオストリームSTe2に含まれる第2の拡張フォーマットの画像データ「UHD 60Hz Enhanced2」のシーケンスが存在している。この「UHD 60Hz Enhanced2」は、画像データ「HD 60Hz Base」に対しての空間方向のスケーラビリティである。この画像データ「UHD 60Hz Enhanced2」のレイヤID(Layer_id)は“1”である。
その上段に、レイヤリングID(layering_id)が“3”である拡張ビデオストリームSTe3に含まれる第3の拡張フォーマットの画像データ「UHD HFR Enhanced3」のシーケンスが存在している。この「UHD HFR Enhanced3」は、画像データ「UHD 60Hz Enhanced2」に対しての時間方向のスケーラビリティであると共に、画像データ「HD HFR Enhanced1」に対しての空間方向のスケーラビリティである。この画像データ「UHD HFR Enhanced3」のレイヤID(Layer_id)は“1”である。
基本フォーマットの画像データ「HD 60Hz Base」に基づいて、基本フレームレートで高解像度(HD)の画像(60Hz HD画像)の再生が可能である。また、基本フォーマットの画像データ「HD 60Hz Base」および第1の拡張フォーマットの画像データ「HD HFR Enhanced1」に基づいて、ハイフレームレートで高解像度(HD)の画像(120Hz HD画像)の再生が可能である。
また、基本フォーマットの画像データ「HD 60Hz Base」および第2の拡張フォーマットの画像データ「UHD 60Hz Enhanced2」に基づいて、基本フレームレートで超高解像度(UHD)の画像(60Hz UHD画像)の再生が可能である。また、基本フォーマットの画像データ「HD 60Hz Base」、第1の拡張フォーマットの画像データ「HD HFR Enhanced1」、第2の拡張フォーマットの画像データ「UHD 60Hz Enhanced2」および第3の拡張フォーマットの画像データ「UHD HFR Enhanced3」に基づいて、ハイフレームレートで超高解像度(UHD)の画像(120Hz UHD画像)の再生が可能である。
図7は、4ストリーム構成の伝送の場合におけるDASH/MP4のトラック構成を示している。この場合、基本ビデオストリームSTb(Base stream)に対応したトラックB(Track B)と、拡張ビデオストリームSTe1(Enhanced1 stream)に対応したトラックE1(Track E1)と、拡張ビデオストリームSTe2(Enhanced2 stream)に対応したトラックE2(Track E2)と、拡張ビデオストリームSTe3(Enhanced3 stream)に対応したトラックE3(Track E3)が存在する。
矩形枠のそれぞれがピクチャを示し、矢印は、スケーラビリティの対応を示している。すなわち、トラックBに含まれる基本フォーマットの画像データの上にトラックE1に含まれる第1の拡張フォーマットの画像データを用いた時間スケーラブルの拡張により、ハイフレームレートで高解像度(HD)の画像、つまり120Hz HD画像の画像データが得られる。また、トラックBに含まれる基本フォーマットの画像データの上にトラックE2に含まれる第2の拡張フォーマットの画像データを用いた空間スケーラブルの拡張により、基本フレームレートで超高解像度(UHD)の画像、つまり60Hz UHD画像の画像データが得られる。
また、トラックBに含まれる基本フォーマットの画像データの上に、トラックE1に含まれる第1の拡張フォーマットの画像データ、トラックE2に含まれる第2の拡張フォーマットの画像データおよびトラックE3に含まれる第3の拡張フォーマットの画像データを用いた空間スケーラブル、時間スケーラブルの拡張により、ハイフレームレートで超高解像度(UHD)の画像、つまり120Hz UHD画像の画像データが得られる。
図8は、トラックB、トラックE1、トラックE2、トラックE3の各トラックのデータを含むMP4ストリーム(ファイル)の構成例を示している。図示の例は、フラグメンテッドMP4(Fragmented MP4)の場合の例である。MP4ストリームには、制御情報が入る“moof”ボックスとメディアデータ本体が入る“mdat”ボックスから構成されるムービーフラグメント(Movie Fragment)が所定個数配置される。“mdat”ボックスには、トラックデータが断片化されて得られた断片が入るので、“moof”ボックスに入る制御情報はその断片に関する制御情報となる。なお、詳細説明は省略するが、トラック間に跨る予測参照関係は、エクストラクタ(extractor)というNALタイプ(NAL type)のパケットをアクセスユニットごとにトラックに配置することで定義される。
トラックBに対応したMP4ストリーム「video-basesubbitstream」において、各ムービーフラグメントの“mdat”ボックスには、基本フォーマットの画像データの符号化画像データ(アクセスユニット)が所定ピクチャ数分、例えば1GOP分だけ配置される。ここで、各アクセスユニットは、「VPS」、「SPS」、「PPS」、「PSEI」、「SLICE」、「SSEI」などのNALユニットにより構成される。なお、「VPS」、「SPS」は、例えば、GOPの先頭ピクチャに挿入される。
図9は、SPS(VPS)の要素の一例を示している。この例は、基本ビデオストリームSTb、拡張ビデオストリームSTe1,STe2,STe3が、図10に示すような構成とされている場合の例である。「general_level_idc」の値は“156”とされ、拡張ビデオストリームSTe3,STe2,STe1、基本ビデオストリームSTbのストリーム全体のレベル(スケーラブルの符号化の画素レートの複雑差)が“level 5.2”であることが示される。また、「general_profile_idc」の値は“7”とされ、このストリーム全体のプロファイル(スケーラブルの符号化のタイプ)が“Scalable Main 10 Profile”であることが示される。
また、「sublayer_level_present_flag[j-1]」は“1”とされ、「sublayer_level_idc[j-1]」の値は“153”とされ、「sublayer_profile_idc[j-1]」は“7”とされる。これにより、拡張ビデオストリームSTe2,STe1、基本ビデオストリームSTbのストリーム全体のレベルが“level 5.1”であることが示され、そのプロファイルが“Scalable Main 10 Profile”であることが示される。
また、「sublayer_level_present_flag[j-2]」は“1”とされ、「sublayer_level_idc[j-2]」の値は“126”とされ、「sublayer_profile_idc[j-2]」は“2”とされる。これにより、拡張ビデオストリームSTe1、基本ビデオストリームSTbのストリーム全体のレベルが“level 4.2”であることが示され、そのプロファイルが“Main 10 Profile”であることが示される。
また、「sublayer_level_present_flag[j-3]」は“1”とされ、「sublayer_level_idc[j-3]」の値は“123”とされ、「sublayer_profile_idc[j-3]」は“2”とされる。これにより、基本ビデオストリームSTbのレベルが“level 4.1”であることが示され、そのプロファイルが“Main 10 Profile”であることが示される。
図8に戻って、トラックBに対応したMP4ストリーム「video-basesubbitstream」において、各ムービーフラグメントの“moof”ボックス内に“traf”ボックスが存在し、そのボックス内に“tfdt”ボックスが存在する。この“tfdt”ボックスに、“moof”ボックスの後の最初のアクセスユニットのデコードタイム“baseMediaDecodeTime”の記載がある。
また、“moof”ボックス内に“tfdt”ボックスが存在し、その内に“sgpd”ボックスが存在し、さらに、その内に“tscl”ボックスが存在する。この“tscl”ボックスに、「temporalLayerId」、「tllevel_idc」、「Tlprofile」、「tlConstantFrameRate」の4つのパラメータの記載がある。「temporalLayerId」は、テンポラルID(temporal_id)を示す。「tlConstantFrameRate」は“1”とされることで、フレームレートがコンスタントであることを示す。
「tllevel_idc」は、基本ビデオストリームSTbのレベルを示し、上述のSPS(あるいはVPS)の要素の「sublayer_level_idc[j-3]」と一致させる。ここでは、「tllevel_idc」は“123”とされる。「Tlprofile」は、基本ビデオストリームSTbのプロファイルを示し、上述のSPS(あるいはVPS)の要素の「sublayer_profile_idc[j-3]」と一致させる。ここでは、「Tlprofile」は“2”とされる。
トラックE1に対応したMP4ストリーム「video-enhanced1subset」において、各ムービーフラグメントの“mdat”ボックスには、第1の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)が所定ピクチャ数分、例えば1GOP分だけ配置される。ここで、各アクセスユニットは、「PPS」、「PSEI」、「SLICE」、「SSEI」などのNALユニットにより構成される。
トラックE1に対応したMP4ストリーム「video-enhanced1subset」において、各ムービーフラグメントの“moof”ボックス内に“traf”ボックスが存在し、そのボックス内に“tfdt”ボックスが存在する。この“tfdt”ボックスに、“moof”ボックスの後の最初のアクセスユニットのデコードタイム“baseMediaDecodeTime”の記載がある。
また、“moof”ボックス内に“tfdt”ボックスが存在し、その内に“sgpd”ボックスが存在し、さらに、その内に“tscl”ボックスが存在する。この“tscl”ボックスに、「temporalLayerId」、「tllevel_idc」、「Tlprofile」、「tlConstantFrameRate」の4つのパラメータの記載がある。「temporalLayerId」は、テンポラルID(temporal_id)を示す。「tlConstantFrameRate」は“1”とされることで、フレームレートがコンスタントであることを示す。
「tllevel_idc」は、拡張ビデオストリームSTe1、基本ビデオストリームSTbのストリーム全体のレベルを示し、上述のSPS(あるいはVPS)の要素の「sublayer_level_idc[j-2]」と一致させる。ここでは、「tllevel_idc」は“126”とされる。「Tlprofile」は、拡張ビデオストリームSTe1、基本ビデオストリームSTbのストリーム全体のプロファイルを示し、上述のSPS(あるいはVPS)の要素の「sublayer_profile_idc[j-2]」と一致させる。ここでは、「Tlprofile」は“2”とされる。
トラックE2に対応したMP4ストリーム「video-enhanced2subset」において、各ムービーフラグメントの“mdat”ボックスには、第2の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)が所定ピクチャ数分、例えば1GOP分だけ配置される。ここで、各アクセスユニットは、「PPS」、「PSEI」、「SLICE」、「SSEI」などのNALユニットにより構成される。
トラックE2に対応したMP4ストリーム「video-enhanced2subset」において、各ムービーフラグメントの“moof”ボックス内に“traf”ボックスが存在し、そのボックス内に“tfdt”ボックスが存在する。この“tfdt”ボックスに、“moof”ボックスの後の最初のアクセスユニットのデコードタイム“baseMediaDecodeTime”の記載がある。
また、“moof”ボックス内に“tfdt”ボックスが存在し、その内に“sgpd”ボックスが存在し、さらに、その内に“tscl”ボックスが存在する。この“tscl”ボックスに、「temporalLayerId」、「tllevel_idc」、「Tlprofile」、「tlConstantFrameRate」の4つのパラメータの記載がある。「temporalLayerId」は、テンポラルID(temporal_id)を示す。「tlConstantFrameRate」は“1”とされることで、フレームレートがコンスタントであることを示す。
「tllevel_idc」は、拡張ビデオストリームSTe2,STe1、基本ビデオストリームSTbのストリーム全体のレベルを示し、上述のSPS(あるいはVPS)の要素の「sublayer_level_idc[j-1」と一致させる。ここでは、「tllevel_idc」は“153”とされる。「Tlprofile」は、拡張ビデオストリームSTe2,STe1、基本ビデオストリームSTbのストリーム全体のプロファイルを示し、上述のSPS(あるいはVPS)の要素の「sublayer_profile_idc[j-1]」と一致させる。ここでは、「Tlprofile」は“7”とされる。
トラックE3に対応したMP4ストリーム「video-enhanced3subset」において、各ムービーフラグメントの“mdat”ボックスには、第3の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)が所定ピクチャ数分、例えば1GOP分だけ配置される。ここで、各アクセスユニットは、「PPS」、「PSEI」、「SLICE」、「SSEI」などのNALユニットにより構成される。
トラックE3に対応したMP4ストリーム「video- enhanced3subset」において、各ムービーフラグメントの“moof”ボックス内に“traf”ボックスが存在し、そのボックス内に“tfdt”ボックスが存在する。この“tfdt”ボックスに、“moof”ボックスの後の最初のアクセスユニットのデコードタイム“baseMediaDecodeTime”の記載がある。
また、“moof”ボックス内に“tfdt”ボックスが存在し、その内に“sgpd”ボックスが存在し、さらに、その内に“tscl”ボックスが存在する。この“tscl”ボックスに、「temporalLayerId」、「tllevel_idc」、「Tlprofile」、「tlConstantFrameRate」の4つのパラメータの記載がある。「temporalLayerId」は、テンポラルID(temporal_id)を示す。「tlConstantFrameRate」は“1”とされることで、フレームレートがコンスタントであることを示す。
「tllevel_idc」は、拡張ビデオストリームSTe3,STe2,STe1、基本ビデオストリームSTbのストリーム全体のレベルを示し、上述のSPS(あるいはVPS)の要素の「general_level_idc」と一致させる。ここでは、「tllevel_idc」は“156”とされる。「Tlprofile」は、拡張ビデオストリームSTe3,STe2,STe1、基本ビデオストリームSTbのストリーム全体のプロファイルを示し、上述のSPS(あるいはVPS)の要素の「general_profile_idc」と一致させる。ここでは、「Tlprofile」は“7”とされる。
トラックE1に対応したMP4ストリーム「video-enhanced1subset」において、各ムービーフラグメントの“mdat”ボックスには、上述したように第1の拡張フォーマットの画像データのアクセスユニットが所定ピクチャ数分だけ配置される。各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報をを持つSEI NALユニットが挿入される。この実施の形態においては、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、ビデオ・スケーラビリティ・SEI(video_scalability_SEI)が挿入される。
トラックE2に対応したMP4ストリーム「video-enhanced2subset」において、各ムービーフラグメントの“mdat”ボックスには、上述したように第2の拡張フォーマットの画像データのアクセスユニットが所定ピクチャ数分だけ配置される。各アクセスユニットに、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報を持つSEI NALユニットが挿入される。この実施の形態においては、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、ビデオ・スケーラビリティ・SEI(video_scalability_SEI)が挿入される。
また、トラックE3に対応したMP4ストリーム「video-enhanced3subset」において、各ムービーフラグメントの“mdat”ボックスには、上述したように第3の拡張フォーマットの画像データのアクセスユニットが所定ピクチャ数分だけ配置される。各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報を持つSEI NALユニットが挿入される。この実施の形態においては、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、ビデオ・スケーラビリティ・SEI(video_scalability_SEI)が挿入される。
図11は、ビデオ・スケーラビリティ・SEIの構造例(Syntax)を示し、図12は、その構造例における主要な情報の内容(Semantics)を示している。「temporal_scalable_flag」の1ビットフィールドは、時間スケーラブルのストリームであるかを示す。例えば、“1”は時間スケーラブルであることを示し、“0”は時間スケーラブルでないことを示す。
第1の拡張フォーマットの画像データのアクセスユニットに挿入されるビデオ・スケーラビリティ・SEIにあっては、「temporal_scalable_flag」は“1”に設定され、時間スケーラブルのストリームであることが示される。第2の拡張フォーマットの画像データのアクセスユニットに挿入されるビデオ・スケーラビリティ・SEIにあっては、「temporal_scalable_flag」は“0”に設定され、時間スケーラブルのストリームでないことが示される。また、第3の拡張フォーマットの画像データのアクセスユニットに挿入されるビデオ・スケーラビリティ・SEIにあっては、「temporal_scalable_flag」は“1”に設定され、時間スケーラブルのストリームであることが示される。
「spatial_scalable_flag」の1ビットフィールドは、空間スケーラブルのストリームであるかを示す。例えば、“1”は空間スケーラブルであることを示し、“0”は空間スケーラブルでないことを示す。
第1の拡張フォーマットの画像データのアクセスユニットに挿入されるビデオ・スケーラビリティ・SEIにあっては、「spatial_scalable_flag」は“0”に設定され、空間スケーラブルのストリームでないことが示される。第2の拡張フォーマットの画像データのアクセスユニットに挿入されるビデオ・スケーラビリティ・SEIにあっては、「spatial_scalable_flag」は“1”に設定され、空間スケーラブルのストリームであることが示される。また、第3の拡張フォーマットの画像データのアクセスユニットに挿入されるビデオ・スケーラビリティ・SEIにあっては、「spatial_scalable_flag」は“1”に設定され、空間スケーラブルのストリームであることが示される。
「spatial_scalable_flag」が“1”であるとき、「scaling_ratio」の3ビットフィールドが存在する。このフィールドは、空間スケーラブルの比率、つまり基本と拡張の1次元方向の拡大比率を示す。例えば、“001”は2倍を示し、“010”は3倍を示し、“011”は4倍を示す。例えば、超高解像度(UHD)が4K解像度であるとき、「scaling_ratio」は“001”に設定され、超高解像度(UHD)が8K解像度であるとき、「scaling_ratio」は“011”に設定さる。
「temporal_scalable_flag」が“1”であるとき、「picture_blending_flag」の1ビットフィールドが存在する。このフィールドは、基本ストリーム(基本フォーマットの画像データ)にピクチャの混合処理がなされているかを示す。例えば、“1”は混合処理がなされていることを示し、“0”は混合処理がなされていないことを示す。
「picture_blending_flag」が“1”であるとき、混合比率(第1、第2の比率)を示すフィールド、すなわち、「blend_coef_alpha_alternatte_picture」、「blend_coef_beta_alternate_picture」、「blend_coef_alpha_current_picture」、「blend_coef_beta_current_picture」の各3ビットフィールドが存在する。
「blend_coef_alpha_alternatte_picture」のフィールドは、基本レイヤのピクチャに乗ずる係数(後述の係数pに対応)である。「blend_coef_beta_alternate_picture」のフィールドは、現在のピクチャ(拡張ストリーム中)に乗ずる係数(後述の係数rに対応)である。「blend_coef_alpha_current_picture」のフィールドは、拡張レイヤのピクチャに乗ずる係数(後述の係数qに対応)である。「blend_coef_beta_current_picture」のフィールドは、現在のピクチャ(拡張ストリーム中)に乗ずる係数(後述の係数sに対応)である。
図8に戻って、トラックE1に対応したMP4ストリーム「video-enhanced1subset」において、各ムービーフラグメントの“moof”ボックスに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報が挿入される。この実施の形態においては、“moof”ボックスの下に、“udta”あるいは“lays”のボックスが設けられ、新規定義する、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(video_scalability_information_descriptor)のシンタクス(Syntax)が伝送される。
トラックE2に対応したMP4ストリーム「video-enhanced2subset」において、各ムービーフラグメントの“moof”ボックスに、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。この実施の形態においては、“moof”ボックスの下に、“udta”あるいは“lays”のボックスが設けられ、新規定義する、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(video_scalability_information_descriptor)のシンタクス(Syntax)が伝送される。
また、トラックE3に対応したMP4ストリーム「video-enhanced3subset」において、各ムービーフラグメントの“moof”ボックスに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。この実施の形態においては、“moof”ボックスの下に、“udta”あるいは“lays”のボックスが設けられ、新規定義する、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(video_scalability_ information_descriptor)のシンタクス(Syntax)が伝送される。
図13は、ビデオ・スケーラビリティ・インフォメーション・デスクリプタの構造例(Syntax)を示している。なお、この構造例における主要な情報の内容(Semantics)は、上述したビデオ・スケーラビリティ・SEIと同様であるので、その説明は省略する。
図14は、4ストリーム構成の伝送の場合(図6参照)におけるMPDファイルの記述例を示している。このMPDファイルには、基本ビデオストリームSTb(Base stream)、拡張ビデオストリームSTe1(Enhanced1 stream)、拡張ビデオストリームSTe2(Enhanced2 stream)および拡張ビデオストリームSTe3(Enhanced3 stream)にそれぞれ対応したリプレゼンテーション(Representation)が存在する。
基本ビデオストリームSTb(HD Base stream)に関連したリプレゼンテーションにおいて、「framerate = “60”」、「codecs = "hev1.A.L123,xx"」、「id = “tag0」の記述が存在する。「framerate=“60”& L123 with no dependencyid」は、2K 60Pの基本ストリームを示し、「“A”」は「Main 10 Profile」を示す、2の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(VPS)の要素の「sublayer_level_idc[j-3]」、「sublayer_profile_idc[j-3]」と一致している。因みに、「sublayer_profile_idc[j-3]」=「Main 10 Profile」であり、「sublayer_level_idc[j-3]」=“level 4.1”=“123”である。また、「<BaseURL>video-basesubbitstream.mp4</BaseURL>」の記述により、基本ビデオストリームSTb(Base stream)のロケーション先が、「video-basesubbitstream.mp4」として示されている。
拡張ビデオストリームSTe1(Enhanced1 stream)に関連したリプレゼンテーションにおいて、「framerate = “120”」、「codecs = "hev1.B.L126,xx"」、「id = “tag1」の記述が存在する。「framerate=“120”& L126 with dependencyid tagged tag0」は、2K 120Pのストリームを実現することを示し、「“B”」は「Main 10 Profile」を示す、2の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(あるいはVPS)の要素の「sublayer_level_idc[j-2]」、「sublayer_profile_idc[j-2]」と一致している。因みに、「sublayer_profile_idc[j-2]」=「Main 10 Profile」であり、「sublayer_level_idc[j-2]」=“level 4.2”=“126”である。また、「<BaseURL>video-enhanced1subset.mp4</BaseURL>」の記述により、拡張ビデオストリームSTe1(Enhanced1 stream)のロケーション先が、「video-enhanced1subset.mp4」として示されている。
拡張ビデオストリームSTe2(Enhanced2 stream)に関連したリプレゼンテーションにおいて、「framerate=“60”」、「codecs="hev1.C.L153,xx"」、「id = “tag2」、「dependencyid = “tag0”」の記述が存在する。「Framerate=“60” & L153 with dependencyid tagged tag0」は、基本ストリームの上に拡張により4K 60Pのストリームを実現することを示し、「“C”」は「Scalable Main 10 Profile」を示す、7の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(VPS)の要素の「sublayer_level_idc[j-1]」、「sublayer_profile_idc[j-1]」と一致している。因みに、「sublayer_profile_idc[j-1]」=「Scalable Main 10 Profile」であり、「sublayer_level_idc[j-1]」=“level 5.1”=“153”である。また、「<BaseURL>video-enhanced2subset.mp4</BaseURL>」の記述により、拡張ビデオストリームSTe2(Enhanced2 stream)のロケーション先が、「video-enhanced2subset.mp4」として示されている。
拡張ビデオストリームSTe3(Enhanced3 stream)に関連したリプレゼンテーションにおいて、「framerate=“120”」、「codecs="hev1.D.L156,xx"」、「id = “tag3」、「dependencyid = “tag0,tag1,tag2”」の記述が存在する。「framerate=“120” & L156 with dependencyid tagged tag0,tag1,tag2」は、基本ストリームの上に2K 120Pで拡張し、さらにその上に拡張成分を加えて4K 120Pのストリームを実現することを示し、「“D”」は「Scalable Main 10 Profile」を示す、7の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(VPS)の要素の「general_level_idc」、「general_profile_idc」と一致している。因みに、「general_level_idc」=「Scalable Main 10 Profile」であり、「general_level_idc」=“level 5.2”=“156”である。また、「<BaseURL>video-enhanced3subset.mp4</BaseURL>」の記述により、拡張ビデオストリームSTe3(Enhanced3 stream)のロケーション先が、「video- enhanced3subset.mp4」として示されている。
このようにMPDファイルには、スケーラビリティの対応を示す情報が挿入されており、空間スケーラビリティ、そして時間スケーラビリティを同時に実現することが示されている。
図15は、基本ビデオストリームSTbと拡張ストリームSTeの2ストリーム構成の伝送の場合におけるストリーム構成例を示している。図示の例では、ハイフレームレートが120Hzである場合を示している。横軸は表示順(POC:picture order of composition)を示し、左側は表示時刻が前で、右側は表示時刻が後になる。矩形枠のそれぞれがピクチャを示し、矢印は、予測符号化処理におけるピクチャの参照関係の一例を示している。レイヤ間、レイヤ内の双方とも予測はブロックごとに対象ピクチャが変わり、また、予測の向き、参照数は図示の例に限定されるわけではない。
最下段に、レイヤリングID(layering_id)が“0”である基本ビデオストリームSTbに含まれる基本フォーマットの画像データ「HD 60Hz Base」のシーケンスが存在している。この画像データ「HD 60Hz Base」のレイヤID(Layer_id)は“0”である。
その上段に、拡張ビデオストリームSTeに含まれる、レイヤリングID(layering_id)が“1”である第1の拡張フォーマットの画像データ「HD HFR Enhanced1」のシーケンスが存在している。この「HD HFR Enhanced1」は、画像データ「HD 60Hz Base」に対しての時間方向のスケーラビリティである。この画像データ「HD HFR Enhanced1」のレイヤID(Layer_id)は“0”である。
その上段に、拡張ビデオストリームSTeに含まれる、レイヤリングID(layering_id)が“2”である第2の拡張フォーマットの画像データ「UHD 60Hz Enhanced2」のシーケンスが存在している。この「UHD 60Hz Enhanced2」は、画像データ「HD 60Hz Base」に対しての空間方向のスケーラビリティである。この画像データ「UHD 60Hz Enhanced2」のレイヤID(Layer_id)は“1”である。また、この画像データ「UHD 60Hz Enhanced2」のテンポラルID(Temporal_id)は、所定の閾値TH以下とされる。
その上段に、拡張ビデオストリームSTeに含まれる、レイヤリングID(layering_id)が“3”である第3の拡張フォーマットの画像データ「UHD HFR Enhanced3」のシーケンスが存在している。この「UHD HFR Enhanced3」は、画像データ「UHD 60Hz Enhanced2」に対しての時間方向のスケーラビリティであると共に、画像データ「HD HFR Enhanced1」に対しての空間方向のスケーラビリティである。この画像データ「UHD HFR Enhanced3」のレイヤID(Layer_id)は“1”である。また、この画像データ「UHD HFR Enhanced3」のテンポラルID(Temporal_id)は、所定の閾値THより大きくされる。
上述したように、画像データ「UHD 60Hz Enhanced2」のテンポラルIDは閾値TH以下とされ、一方、画像データ「UHD HFR Enhanced3」のテンポラルIDは閾値THより大きくされる。これにより、テンポラルIDが閾値TH以下であるか否かで、画像データ「UHD 60Hz Enhanced2」と画像データ「UHD HFR Enhanced3」の区別をすることが可能となる。
基本フォーマットの画像データ「HD 60Hz Base」に基づいて、基本フレームレートで高解像度(HD)の画像(60Hz HD画像)の再生が可能である。また、基本フォーマットの画像データ「HD 60Hz Base」および第1の拡張フォーマットの画像データ「HD HFR Enhanced1」に基づいて、ハイフレームレートで高解像度(HD)の画像(120Hz HD画像)の再生が可能である。
また、基本フォーマットの画像データ「HD 60Hz Base」および第2の拡張フォーマットの画像データ「UHD 60Hz Enhanced2」に基づいて、基本フレームレートで超高解像度(UHD)の画像(60Hz UHD画像)の再生が可能である。また、基本フォーマットの画像データ「HD 60Hz Base」、第1の拡張フォーマットの画像データ「HD HFR Enhanced1」、第2の拡張フォーマットの画像データ「UHD 60Hz Enhanced2」および第3の拡張フォーマットの画像データ「UHD HFR Enhanced3」に基づいて、ハイフレームレートで超高解像度(UHD)の画像(120Hz UHD画像)の再生が可能である。
図16は、2ストリーム構成の伝送の場合におけるDASH/MP4のトラック構成を示している。この場合、基本ビデオストリームSTb(Base stream)に対応したトラックB(Track B)と、拡張ビデオストリーム(Enhanced stream)に対応したトラックEH(Track EH)が存在する。
矩形枠のそれぞれがピクチャを示し、矢印は、スケーラビリティの対応を示している。すなわち、トラックBに含まれる基本フォーマットの画像データの上にトラックEHに含まれる第1の拡張フォーマットの画像データを用いた時間スケーラブルの拡張により、ハイフレームレートで高解像度(HD)の画像、つまり120Hz HD画像の画像データが得られる。また、トラックBに含まれる基本フォーマットの画像データの上にトラックEHに含まれる第2の拡張フォーマットの画像データを用いた空間スケーラブルの拡張により、基本フレームレートで超高解像度(UHD)の画像、つまり60Hz UHD画像の画像データが得られる。
また、トラックBに含まれる基本フォーマットの画像データの上に、トラックEHに含まれる第1、第2および第3の拡張フォーマットの画像データを用いた空間スケーラブル、時間スケーラブルの拡張により、ハイフレームレートで超高解像度(UHD)の画像、つまり120Hz UHD画像の画像データが得られる。
図17は、トラックB、トラックEHの各トラックのデータを含むMP4ストリーム(ファイル)の構成例を示している。図示の例は、フラグメンテッドMP4(Fragmented MP4)の場合の例である。MP4ストリームには、制御情報が入る“moof”ボックスとメディアデータ本体が入る“mdat”ボックスから構成されるムービーフラグメント(Movie Fragment)が所定個数配置される。“mdat”ボックスには、トラックデータが断片化されて得られた断片が入るので、“moof”ボックスに入る制御情報はその断片に関する制御情報となる。なお、詳細説明は省略するが、トラック間に跨る予測参照関係は、エクストラクタ(extractor)というNALタイプ(NAL type)のパケットをアクセスユニットごとにトラックに配置することで定義される。
トラックBに対応したMP4ストリーム「video-basesubbitstream」において、各ムービーフラグメントの“mdat”ボックスには、基本フォーマットの画像データの符号化画像データ(アクセスユニット)が所定ピクチャ数分、例えば1GOP分だけ配置される。ここで、各アクセスユニットは、「VPS」、「SPS」、「PPS」、「PSEI」、「SLICE」、「SSEI」などのNALユニットにより構成される。なお、「VPS」、「SPS」は、例えば、GOPの先頭ピクチャに挿入される。
トラックBに対応したMP4ストリーム「video-basesubbitstream」において、各ムービーフラグメントの“moof”ボックス内に“traf”ボックスが存在し、そのボックス内に“tfdt”ボックスが存在する。この“tfdt”ボックスに、“moof”ボックスの後の最初のアクセスユニットのデコードタイム“baseMediaDecodeTime”の記載がある。
また、“moof”ボックス内に“tfdt”ボックスが存在し、その内に“sgpd”ボックスが存在し、さらに、その内に“tscl”ボックスが存在する。この“tscl”ボックスに、「temporalLayerId」、「tllevel_idc」、「Tlprofile」、「tlConstantFrameRate」の4つのパラメータの記載がある。「temporalLayerId」は、テンポラルID(temporal_id)を示す。「tlConstantFrameRate」は“1”とされることで、フレームレートがコンスタントであることを示す。
「tllevel_idc」は、基本ビデオストリームSTbのレベルを示し、上述のSPS(VPS)の要素の「sublayer_level_idc[j-3]」と一致させる。ここでは、「tllevel_idc」は“123”とされる。「Tlprofile」は、基本ビデオストリームSTbのプロファイルを示し、上述のSPS(VPS)の要素の「sublayer_profile_idc[j-3]」と一致させる。ここでは、「Tlprofile」は“2”とされる。
トラックEHに対応したMP4ストリーム「video-enhancedsubset」において、各ムービーフラグメントの“mdat”ボックスには、第1の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)、第2の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)あるいは、第3の拡張フォーマットの画像データの符号化画像データ(アクセスユニット)が所定ピクチャ数分、例えば1GOP分だけ配置される。ここで、各アクセスユニットは、「PPS」、「PSEI」、「SLICE」、「SSEI」などのNALユニットにより構成される。
トラックEHに対応したMP4ストリーム「video- enhancedsubset」において、各ムービーフラグメントの“moof”ボックス内に“traf”ボックスが存在し、そのボックス内に“tfdt”ボックスが存在する。この“tfdt”ボックスに、“moof”ボックスの後の最初のアクセスユニットのデコードタイム“baseMediaDecodeTime”の記載がある。
また、“moof”ボックス内に“tfdt”ボックスが存在し、その内に“sgpd”ボックスが存在し、さらに、その内に“tscl”ボックスが存在する。この“tscl”ボックスに、「temporalLayerId」、「tllevel_idc」、「Tlprofile」、「tlConstantFrameRate」の4つのパラメータの記載がある。「temporalLayerId」は、テンポラルID(temporal_id)を示す。「tlConstantFrameRate」は“1”とされることで、フレームレートがコンスタントであることを示す。
第1の拡張フォーマットの画像データに対応した各ムービーフラグメントの“moof”ボックスにおいて、「tllevel_idc」は、第1の拡張ビデオストリーム(第1の拡張フォーマットの画像データのアクセスユニットで構成される)、基本ビデオストリームSTbのストリーム全体のレベルを示し、SPS(VPS)の要素の「sublayer_level_idc[j-2]」と一致させる。ここでは、「tllevel_idc」は“126”とされる。「Tlprofile」は、第1の拡張ビデオストリーム、基本ビデオストリームSTbのストリーム全体のプロファイルを示し、SPS(VPS)の要素の「sublayer_profile_idc[j-2]」と一致させる。ここでは、「Tlprofile」は“2”とされる。
第2の拡張フォーマットの画像データに対応した各ムービーフラグメントの“moof”ボックスにおいて、「tllevel_idc」は、第2の拡張ビデオストリーム(第2の拡張フォーマットの画像データのアクセスユニットで構成される)、第1の拡張ビデオストリーム(第1の拡張フォーマットの画像データのアクセスユニットで構成される)、基本ビデオストリームSTbのストリーム全体のレベルを示し、SPS(VPS)の要素の「sublayer_level_idc[j-1]」と一致させる。ここでは、「tllevel_idc」は“153”とされる。「Tlprofile」は、第2の拡張ビデオストリーム、第1の拡張ビデオストリーム、基本ビデオストリームSTbのストリーム全体のプロファイルを示し、SPS(VPS)の要素の「sublayer_profile_idc[j-1]」と一致させる。ここでは、「Tlprofile」は“7”とされる。
また、第3の拡張フォーマットの画像データに対応した各ムービーフラグメントの“moof”ボックスにおいて、「tllevel_idc」は、拡張ビデオストリームSTe、基本ビデオストリームSTbのストリーム全体のレベルを示し、SPS(VPS)の要素の「general_level_idc」と一致させる。ここでは、「tllevel_idc」は“156”とされる。「Tlprofile」は、拡張ビデオストリームSTe、基本ビデオストリームSTbのストリーム全体のプロファイルを示し、SPS(VPS)の要素の「general_profile_idc」と一致させる。ここでは、「Tlprofile」は“7”とされる。
トラックEHに対応したMP4ストリーム「video-enhancedsubset」において、各ムービーフラグメントの“mdat”ボックスには、上述したように第1の拡張フォーマットの画像データのアクセスユニット、第2の拡張フォーマットの画像データのアクセスユニット、あるいは第3の拡張フォーマットの画像データのアクセスユニットが所定ピクチャ数分だけ配置される。
第1の拡張フォーマットの画像データの各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報を持つSEI NALユニットが挿入される。また、第2の拡張フォーマットの画像データの各アクセスユニットに、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報を持つSEI NALユニットが挿入される。
また、第3の拡張フォーマットの画像データの各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報を持つSEI NALユニットが挿入される。
この実施の形態においては、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、ビデオ・スケーラビリティ・SEI(図11参照)が挿入される。
トラックEHに対応したMP4ストリーム「video-enhancedsubset」において、第1の拡張フォーマットの画像データのアクセスユニットを持つ“mdat”に対応した“moof”ボックスに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報が挿入される。
また、トラックEHに対応したMP4ストリーム「video-enhancedsubset」において、第2の拡張フォーマットの画像データのアクセスユニットを持つ“mdat”に対応した“moof”ボックスに、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
また、トラックEHに対応したMP4ストリーム「video- enhancedsubset」において、第3の拡張フォーマットの画像データのアクセスユニットを持つ“mdat”に対応した“moof”ボックスに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
この実施の形態においては、“moof”ボックスの下に、“udta”あるいは“lays”のボックスが設けられ、新規定義する、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)のシンタクスが伝送される。
図18は、2ストリーム構成の伝送の場合(図15参照)におけるMPDファイルの記述例を示している。このMPDファイルには、基本ビデオストリームSTb(Base stream)、拡張ビデオストリームSTe(Enhanced stream)にそれぞれ対応したリプレゼンテーション(Representation)が存在する。さらに、拡張ビデオストリームSTeのリプレゼンテーションの中に、第1、第2、第3の拡張ビデオストリーム(第1、第2、第3の拡張フォーマットの画像データのアクセスユニットで構成される)にそれぞれ対応したサブリプレゼンテーション(Subrepresentation)が存在する
基本ビデオストリームSTb(HD Base stream)に関連したリプレゼンテーションにおいて、「framerate = “60”」、「codecs = "hev1.A.L123,xx"」、「id = “tag0」の記述が存在する。「framerate=“60”& L123 with no dependencyid」は、2K 60Pの基本ストリームを示し、「“A”」は「Main 10 Profile」を示す、2の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(VPS)の要素の「sublayer_level_idc[j-3]」、「sublayer_profile_idc[j-3]」と一致している。因みに、「sublayer_profile_idc[j-3]」=「Main 10 Profile」であり、「sublayer_level_idc[j-3]」=“level 4.1”=“123”である。また、「<BaseURL>video-basesubbitstream.mp4</BaseURL>」の記述により、基本ビデオストリームSTb(HD Base stream)のロケーション先が、「video-basesubbitstream.mp4」として示されている。
第1の拡張ビデオストリームに関連したサブリプレゼンテーションにおいて、「framerate = “120”」、「codecs = "hev1.B.L126,xx"」、「id = “tag1」の記述が存在する。「framerate=“120”& L126 with dependencyid tagged tag0」は、2K 120Pのストリームを実現することを示し、「“B”」は「Main 10 Profile」を示す、2の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(VPS)の要素の「sublayer_level_idc[j-2]」、「sublayer_profile_idc[j-2]」と一致している。因みに、「sublayer_profile_idc[j-2]」=「Main 10 Profile」であり、「sublayer_level_idc[j-2]」=“level 4.2”=“126”である。
第2の拡張ビデオストリームに関連したサブリプレゼンテーションにおいて、「framerate=“60”」、「codecs="hev1.C.L153,xx"」、「id = “tag2」、「dependencyid = “tag0”」の記述が存在する。「Framerate=“60” & L153 with dependencyid tagged tag0」は、基本ストリームの上に拡張により4K 60Pのストリームを実現することを示し、「“C”」は「Scalable Main 10 Profile」を示す、7の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(VPS)の要素の「sublayer_level_idc[j-1]」、「sublayer_profile_idc[j-1]」と一致している。因みに、「sublayer_profile_idc[j-1]」=「Scalable Main 10 Profile」であり、「sublayer_level_idc[j-1]」=“leve 5.1”=“153”である。
第3の拡張ビデオストリームに関連したサブリプレゼンテーションにおいて、「framerate=“120”」、「codecs="hev1.D.L156,xx"」、「id = “tag3」、「dependencyid = “tag0,tag1,tag2”」の記述が存在する。「framerate=“120” & L156 with dependencyid tagged tag0,tag1,tag2」は、基本ストリームの上に基本ストリームの上に2K 120Pで拡張し、さらにその上に拡張成分を加えて4K 120Pのストリームを実現することを示し、「“D”」は「Scalable Main 10 Profile」を示す、7の値であることを示す。レベルおよびプロファイルの情報は、上述のSPS(VPS)の要素の「general_level_idc」、「general_profile_idc」と一致している。因みに、「general_level_idc」=「Scalable Main 10 Profile」であり、「general_level_idc」=“level 5.2”=“156”である。
また、拡張ビデオストリームSTe(UHD EH stream)に関連したリプレゼンテーションにおいて、「<BaseURL>video-enhancedsubset.mp4</BaseURL>」の記述により、拡張ビデオストリームSTe(UHD EH stream)のロケーション先が、「video-enhancedsubset.mp4」として示されている。
このようにMPDファイルには、スケーラビリティの対応を示す情報が挿入されており、空間スケーラビリティ、そして時間スケーラビリティを同時に実現することが示されている。
「サービス送信システムの構成例」
図19は、サービス送信システム100の構成例を示している。このサービス送信システム100は、制御部101と、ビデオエンコーダ102と、コンテナエンコーダ103と、送信部104を有している。
制御部101は、CPU(Central Processing Unit)を備えて構成され、制御プログラムに基づいて、サービス送信システム100の各部の動作を制御する。ビデオエンコーダ102は、ハイフレームレート(HFR)で超高解像度(UHD)の画像データVaを入力し、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeを出力する。
図20は、ビデオエンコーダ102の構成を概略的に示している。ビデオエンコーダ102は、プロセス1(Process 1)の処理を行う信号処理部102aと、プロセス2(Process 2)の処理を行う信号処理部102bと、プロセス3(Process 3)の処理を行う信号処理部102cと、一般的な符号化処理を行う符号化処理部102dからなっている。
図21は、ビデオエンコーダ102における信号処理部102a、信号処理部102bおよび信号処理部102cの部分を示している。図示の例では、ハイフレームレートが120Hzである場合を示している。信号処理部102aは、ハイフレームレートで超高解像度の画像データVa(120Hz UHD)を処理して、基本フレームレートの画像データである第1の画像データVb(UHD 60Hz Base)と、ハイフレームレートの拡張フレームの画像データである第2の画像データVc(UHD HFR Enhanced)を得る。
信号処理部102bは、第1の画像データVb(UHD 60Hz Base)を処理して、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データBSとなる画像データVd(HD 60Hz Base)を得ると共に、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データES2となる画像データVe(UHD 60Hz Enhanced2)を得る。信号処理部102cは、第2の画像データVc(UHD HFR Enhanced)を処理して、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データES1となる画像データVf(HD HFR Enhanced1)を得ると共に、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データES3となる画像データVg(UHD HFR Enhanced3)を得る。
図22(a)は、信号処理部102aの構成例を示している。この信号処理部102aは、120fpsの1フレーム分遅延させる遅延回路111と、演算回路112と、60Hzのラッチパルスでラッチするラッチ回路113を有している。また、演算回路112は、係数乗算部112a,112b,112c,112dと、加算部112e,112fを有している。
係数乗算部112a,112bおよび加算部112eは、上記時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施すために使用される。係数乗算部112aでは係数pが乗算され、係数乗算部112bでは係数qが乗算される。なお、p=0〜1であって、q=1−pである。また、係数乗算部112c,112dおよび加算部112fは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施すために使用される。係数乗算部112cでは係数rが乗算され、係数乗算部112dでは係数sが乗算される。なお、r=0〜1であって、s=1−rである。
ハイフレームレートで超高解像度の画像データVa(120Hz UHD)は、遅延回路111で1フレーム遅延された後、演算回路112を構成する係数乗算部112a,112cに入力される。また、この画像データVaは、そのまま演算回路112を構成する係数乗算部112b,112dに入力される。係数乗算部112a,112bの出力は加算部112eに入力されて加算される。また、係数乗算部112c,112dの出力は加算部112fに入力されて加算される。
ここで、画像データPの時間的に連続する2個のピクチャの画像データをA,Bとするとき、遅延回路111の出力がAとなるタイミングで、加算部112eの出力としてC(=p*A+q*B)の混合出力が得られると共に、加算部112fの出力としてD(=r*A+s*B)の混合出力が得られる。図22(b)は、演算回路112における混合処理のための演算を数式で表したものである。
演算回路112の加算部112e,112fの出力は、ラッチ回路113に入力される。ラッチ回路113では、演算回路112の加算部112e,112fの出力が、60Hzのラッチパルスでラッチされ、第1の画像データVb(UHD 60Hz Base)と、第2の画像データVc(UHD HFR Enhanced)が得られる。
ここで、第1の画像データVbは、画像データVaにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られたものである。また、第2の画像データVcは、画像データVaにおいて時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られたものである。
図23は、信号処理部102aの入力データ(画像データVa)と、この信号処理部102aの出力データ(画像データVb,Vc)との関係の一例を、模式的に表している。図23(a)は画像データVaを示し、図23(b)は画像データVbを示し、図23(c)は画像データVcを示している。120fpsの画像データVaの各ピクチャの画像データF1,F2,F3,F4,F5,F6,F7,F8,・・・に対応して、60fpsの画像データVbの各ピクチャの画像データF1´,F3´,F5´,・・・と、60fpsの画像データVcの各ピクチャの画像データF2´,F4´,F6´,・・・が得られる。
図24(a)は、信号処理部102bの構成例を示している。この信号処理部102bは、ダウンスケール回路121と、アップスケール回路122と、演算回路123を有している。第1の画像データVb(UHD 60Hz Base)は、ダウンスケール回路121に入力される。このダウンスケール回路121では、第1の画像データVbに対して超高解像度から高解像度へのダウンスケール処理が施され、基本フォーマットの画像データBSとなる画像データVd(HD 60Hz Base)が得られる。
また、ダウンスケール回路121で得られた画像データVdは、アップスケール回路122に入力される。このアップスケール回路122では、画像データVdに対して高解像度から超高解像度へのアップスケール処理が施されて第3の画像データが得られる。この第3の画像データは、第1の画像データVbと同じ解像度とされるが、第1の画像データVbに対してダウンスケール処理が施され、さらにアップスケール処理が施されて得られたものであり、ダウンスケール処理で失われた情報は再現されていない。
第1の画像データVbとアップスケール回路122で得られた第3の画像データは、演算回路123に入力される。演算回路123では、2つの画像データ間の差分がとられ、第2の拡張フォーマットの画像データES2となる画像データVe(UHD 60Hz Enhanced2)が得られる。
図24(b)は、信号処理部102cの構成例を示している。この信号処理部102cは、ダウンスケール回路131と、アップスケール回路132と、演算回路133を有している。第2の画像データVc(UHD HFR Enhanced)は、ダウンスケール回路131に入力される。このダウンスケール回路131では、第2の画像データVcに対して超高解像度から高解像度へのダウンスケール処理が施され、第1の拡張フォーマットの画像データES1となる画像データVf(HD HFR Enhanced1)が得られる。
また、ダウンスケール回路131で得られた画像データVfは、アップスケール回路132に入力される。このアップスケール回路132では、画像データVfに対して高解像度から超高解像度へのアップスケール処理が施されて第4の画像データが得られる。この第4の画像データは、第2の画像データVcと同じ解像度とされるが、第2の画像データVcに対してダウンスケール処理が施され、さらにアップスケール処理が施されて得られたものであり、ダウンスケール処理で失われた情報は再現されていない。
第2の画像データVcとアップスケール回路132で得られた第4の画像データは、演算回路133に入力される。演算回路133では、2つの画像データ間の差分がとられ、第3の拡張フォーマットの画像データES3となる画像データVg(UHD HFR Enhanced3)が得られる。
図19に戻って、ビデオエンコーダ102は、第1、第2、第3の拡張フォーマットの画像データES1,ES2,ES3のアクセスユニット(AU)の“SEIs”の部分に、新規定義する、上述したビデオ・スケーラビリティ・SEI(図11参照)を挿入する。
これにより、第1の拡張フォーマットの画像データES1の各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報が挿入される。また、第2の拡張フォーマットの画像データES2の各アクセスユニットに、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
また、第3の拡張フォーマットの画像データES3の各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
コンテナエンコーダ103は、ビデオエンコーダ102で得られた基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeを含むコンテナ、ここではMP4(図8、図17参照)を、配信ストリームSTMとして生成する。
この際、コンテナエンコーダ103は、拡張ビデオストリームSTe1,STe2,STe3、あるいは拡張ビデオストリームSTeに対応したMP4ストリームにおいて、“moof”ボックスの下に、“udta”あるいは“lays”のボックスを設け、上述したビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)を挿入する。
これにより、第1の拡張フォーマットの画像データES1のアクセスユニットを持つ“mdat”ボックスに対応した“moof”ボックスには、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報が挿入される。また、第2の拡張フォーマットの画像データES2のアクセスユニットを持つ“mdat”ボックスに対応した“moof”ボックスには、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
また、第3の拡張フォーマットの画像データES3のアクセスユニットを持つ“mdat”ボックスに対応した“moof”ボックスには、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
送信部104は、コンテナエンコーダ103で得られたMP4の配信ストリームSTMを、放送波あるいはネットのパケットに載せて、サービス受信機200に送信する。
図19に示すサービス送信システム100の動作を簡単に説明する。ハイフレームレート(HFR)で超高解像度(UHD)の画像データVaがビデオエンコーダ102に入力される。ビデオエンコーダ102では、この画像データVaが処理されて、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが得られる。
ここで、基本ビデオストリームSTbには、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データBSのアクセスユニットが含まれる。拡張ビデオストリームSTe1には、ハイフレームレートで高解像度の画像を得るための第2の拡張フォーマットの画像データES2のアクセスユニットが含まれる。
拡張ビデオストリームSTe2には、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データES2のアクセスユニットが含まれる。拡張ビデオストリームSTe3には、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データES3のアクセスユニットが含まれる。また、拡張ビデオストリームSTeには、第1、第2、第3の拡張フォーマットの画像データES1,ES2,ES3のアクセスユニットが含まれる。
ビデオエンコーダ102では、第1、第2、第3の拡張フォーマットの画像データES1,ES2,SE3のアクセスユニット(AU)の“SEIs”の部分に、ビデオ・スケーラビリティ・SEI(図11参照)が挿入される。これにより、画像データES1の各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報が挿入される。
また、画像データES2の各アクセスユニットに、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。また、画像データES3の各アクセスユニットに、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
ビデオエンコーダ102で得られた基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeは、コンテナエンコーダ103に供給される。コンテナエンコーダ103では、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ストリームSTeを含むMP4(図8、図17参照)が、配信ストリームSTMとして生成される。
この際、コンテナエンコーダ103では、拡張ビデオストリームSTe1,STe2,STe3、あるいは拡張ビデオストリームSTeに対応したMP4ストリームにおいて、“moof”ボックスの下に、“udta”あるいは“lays”のボックスが設けられ、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)が挿入される。
これにより、画像データES1のアクセスユニットを持つ“mdat”ボックスに対応した“moof”ボックスには、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報が挿入される。また、画像データES2のアクセスユニットを持つ“mdat”ボックスに対応した“moof”ボックスには、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
また、画像データES3のアクセスユニットを持つ“mdat”ボックスに対応した“moof”ボックスには、時間スケーラブルであることを示す識別情報、基本フォーマットの画像データが混合処理を施して得られた画像データであることを示す識別情報、混合比率(第1、第2の比率)の情報と共に、空間スケーラブルであることを示す識別情報、空間スケーラブルの比率を示す情報が挿入される。
コンテナエンコーダ103で生成された配信ストリームSTMは送信部104に供給される。送信部104では、MP4の配信ストリームSTMを放送波あるいはネットのパケットに載せて、サービス受信機200に送信することが行われる。
「サービス受信機の構成例」
図25は、ハイフレームレートで超高解像度の動画像データを処理可能なサービス受信機200Aの構成例を示している。このサービス受信機200Aは、制御部201と、受信部202と、コンテナデコーダ203と、ビデオデコーダ204を有している。
制御部201は、CPU(Central Processing Unit)を備えて構成され、制御プログラムに基づいて、サービス受信機200Aの各部の動作を制御する。受信部202は、サービス送信システム100から放送波あるいはネットのパケットに載せて送られてくるMP4の配信ストリームSTMを受信する。
コンテナデコーダ103は、MP4から、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeを抽出する。上述したように、基本ビデオストリームSTbには、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データBSのアクセスユニットが含まれている。また、拡張ビデオストリームSTe1には、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データES1のアクセスユニットが含まれている。
また、拡張ビデオストリームSTe2には、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データES2のアクセスユニットが含まれている。拡張ビデオストリームSTe3には、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データES3のアクセスユニットが含まれている。また、拡張ビデオストリームSTeには、第1、第2、第3の拡張フォーマットの画像データES1,ES2,ES3のアクセスユニットが含まれている。
また、コンテナデコーダ203は、MP4からメタ情報を抽出し、制御部201に送る。このメタ情報には、拡張ビデオストリームSTe1,STe2,STe3、あるいは拡張ビデオストリームSTeに対応したMP4ストリームにおいて、“moof”ボックスの下に設けられた“udta”あるいは“lays”のボックスに挿入されているビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)も含まれる。
制御部201は、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第1の拡張フォーマットの画像データES1による拡張が時間スケーラブルであること、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)などを認識する。また、制御部201は、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第2の拡張フォーマットの画像データES2による拡張が空間スケーラブルであること、空間スケーラブルの比率などを認識する。
また、制御部201は、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第3の拡張フォーマットの画像データES3による拡張が時間スケーラブルおよび空間スケーラブルであること、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)、空間スケーラブルの比率などを認識する。
ビデオデコーダ204は、コンテナデコーダ203で抽出された基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeを処理して、ハイフレームレート(HFR)で超高解像度(UHD)の画像データVa´を得る。ここで、画像データVa´のダッシュ「´」は、符号化、復号化の処理を経たことで、上述したビデオエンコーダ102(図19参照)に入力される画像データVaとは完全に同じ値にはならない可能性があることを意味している。以下の他の画像データに関しても同様である。
ここで、ビデオデコーダ204は、各ビデオストリームを構成するアクセスユニットに挿入されているパラメータセットやSEIを抽出し、制御部201に送る。このSEIには、第1、第2、第3の拡張フォーマットの画像データES1,ES2,ES3のアクセスユニット(AU)に挿入されているビデオ・スケーラビリティ・SEI(図11参照)も含まれる。
制御部201は、このビデオ・スケーラビリティ・SEIから、第1の拡張フォーマットの画像データES1による拡張が時間スケーラブルであること、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)などを認識する。また、制御部201は、このビデオ・スケーラビリティ・SEIから、第2の拡張フォーマットの画像データES2による拡張が空間スケーラブルであること、さらに空間スケーラブルの比率などを認識する。
また、制御部201は、このビデオ・スケーラビリティ・SEIから、第3の拡張フォーマットの画像データES3による拡張が時間スケーラブルおよび空間スケーラブルであること、さらに、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)、空間スケーラブルの比率などを認識する。
図26は、ビデオデコーダ204の構成を概略的に示している。ビデオデコーダ204は、インバースプロセス1(Inverse Process 1)の処理を行う信号処理部204aと、インバースプロセス2(Inverse Process 2)の処理を行う信号処理部204bと、インバースプロセス3(Inverse Process 3)の処理を行う信号処理部204cと、一般的な復号化処理を行う復号化処理部204dからなっている。
ここで、インバースプロセス1の処理は、上述のビデオエンコーダ102の信号処理部102aで行われるプロセス1の処理の逆処理となる。同様に、インバースプロセス2の処理は、上述のビデオエンコーダ102の信号処理部102bで行われるプロセス2の処理の逆処理となる。また、同様に、インバースプロセス3の処理は、上述のビデオエンコーダ102の信号処理部102cで行われるプロセス3の処理の逆処理となる。
図27は、ビデオデコーダ204における信号処理部204a、信号処理部204bおよび信号処理部204cの部分を示している。図示の例では、ハイフレームレートが120Hzである場合を示している。信号処理部204bは、基本フォーマットの画像データBS´である画像データVd´(HD 60Hz Base)と、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データES2´である画像データVe´(UHD 60Hz Enhanced2)を処理して、基本フレームレートの画像データである第1の画像データVb´(UHD 60Hz Base)を得る。
信号処理部204cは、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データES1´である画像データVf´(HD HFR Enhanced1)と、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データES3´である画像データVg´(UHD HFR Enhanced3)を処理して、ハイフレームレートの拡張フレームの画像データである第2の画像データVc´(UHD HFR Enhanced)を得る。信号処理部204aは、第1の画像データVb´(UHD 60Hz Base)と、第2の画像データVc´(UHD HFR Enhanced)を処理して、ハイフレームレートで超高解像度の画像データVa´(120Hz UHD)を得る。
図28(a)は、信号処理部204bの構成例を示している。この信号処理部204bは、アップスケール回路211と、演算回路212を有している。基本フォーマットの画像データBS´である画像データVd´(HD 60Hz Base)は、アップスケール回路211に入力される。このアップスケール回路211では、画像データVd´に対して高解像度から超高解像度へのアップスケール処理が施されて第3の画像データが得られる。ここで、アップスケール回路211では、上述したようにビデオ・スケーラビリティ・SEI(図11参照)あるいはビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)に挿入されている空間スケーラブルの比率を示す情報が用いられて、適切なアップスケール処理が施される。
第2の拡張フォーマットの画像データES2´である画像データVe´(UHD 60Hz Enhanced2)と、アップスケール回路211で得られた第3の画像データは、演算回路212に入力される。演算回路212では、2つの画像データが加算され、基本フレームレートの画像データである第1の画像データVb´(UHD 60Hz Base)が得られる。
図28(b)は、信号処理部204cの構成例を示している。この信号処理部204cは、アップスケール回路221と、演算回路222を有している。第1の拡張フォーマットの画像データES1´である画像データVf´(HD HFR Enhanced1)は、アップスケール回路221に入力される。このアップスケール回路221では、画像データVf´に対して高解像度から超高解像度へのアップスケール処理が施されて第4の画像データが得られる。ここで、アップスケール回路221では、上述したようにビデオ・スケーラビリティ・SEI(図11参照)あるいはビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)に挿入されている空間スケーラブルの比率を示す情報が用いられて、適切なアップスケール処理が施される。
第3の拡張フォーマットの画像データES3´である画像データVg´(UHD 60Hz Enhanced2)と、アップスケール回路221で得られた第4の画像データは、演算回路222に入力される。演算回路222では、2つの画像データが加算され、ハイフレームレートの拡張フレームの画像データである第2の画像データVc´(UHD HFR Enhanced)が得られる。
図29(a)は、信号処理部204aの構成例を示している。この信号処理部204aは、演算回路241と、スイッチ回路242を有している。また、演算回路241は、係数乗算部241a,241b,241c,241dと、加算部241e,241fを有している。演算回路241は、図22(a)の信号処理部102aにおける演算回路112における混合処理とは逆の処理(逆混合処理)をする。
係数乗算部241a,241bおよび加算部241eは、第1の画像データVb´および第2の画像データVc´から、上記時間的に連続する2個のピクチャ単位で1番目のピクチャの画像データを得るために使用される。係数乗算部241aでは係数uが乗算され、係数乗算部241bでは係数vが乗算される。また、係数乗算部241c,241dおよび加算部241fは、第1の画像データVb´および第2の画像データVc´から、上記時間的に連続する2個のピクチャ単位で2番目のピクチャの画像データを得るために使用される。係数乗算部241cでは係数wが乗算され、係数乗算部241dでは係数zが乗算される。
第1の画像データVb´(UHD 60Hz Base)は、演算回路241を構成する係数乗算部241a,241cに入力される。また、第2の画像データVc´(UHD HFR Enhanced)は、演算回路241を構成する係数乗算部241b,241dに入力される。係数乗算部241a,241bの出力は加算部241eに入力されて加算される。また、係数乗算部241c,241dの出力は加算部241fに入力されて加算される。
この場合、加算部241eの出力として上記時間的に連続する2個のピクチャ単位で1番目のピクチャの画像データAが得られると共に、加算部241fの出力として上記時間的に連続する2個のピクチャ単位で2番目のピクチャの画像データBが得られる。図29(b)は、演算回路241における逆混合処理のための演算を数式で表したものである。また、図29(c)は、係数u,v,w,zと係数p,q,r,sの対応関係を行列式で示している。
演算回路241の加算部241e,241fの出力は、それぞれ、スイッチ回路242のa側、b側の固定端子に入力される。スイッチ回路242は、120Hzの周期で、a側、b側に交互に切り換えられる。このスイッチ回路242からは、画像データA,Bが合成された、ハイフレームレートで超高解像度の画像データVa´(120Hz UHD)が得られる。
ここで、演算回路241では、上述したようにビデオ・スケーラビリティ・SEI(図11参照)あるいはビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)に挿入されている混合比率(第1、第2の比率)の情報、つまりp,q,r,sの情報が用いられて、適切な逆混合処理が施される。
図25に示すサービス受信機200Aの動作を簡単に説明する。受信部202では、サービス送信システム100から放送波あるいはネットのパケットに載せて送られてくるMP4の配信ストリームSTMが受信される。この配信ストリームSTMは、コンテナデコーダ203に供給される。コンテナデコーダ203では、MP4から基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが抽出される。
基本ビデオストリームSTbには、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データBSのアクセスユニットが含まれている。また、拡張ビデオストリームSTe1には、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データES1のアクセスユニットが含まれている。また、拡張ビデオストリームSTe2には、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データES2のアクセスユニットが含まれている。また、拡張ビデオストリームSTe3には、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データES3のアクセスユニットが含まれている。また、拡張ビデオストリームSTeには、第1、第2、第3の拡張フォーマットの画像データES1,ES2,ES3のアクセスユニットが含まれている。
また、コンテナデコーダ203では、MP4からメタ情報が抽出され、制御部201に送られる。このメタ情報には、拡張ビデオストリームSTe1,STe2,STe3、あるいは拡張ビデオストリームSTeに対応したMP4ストリームにおいて、“moof”ボックスの下に設けられた“udta”あるいは“lays”のボックスに挿入されているビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)も含まれる。
制御部201では、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第1の拡張フォーマットの画像データES1による拡張が時間スケーラブルであること、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)などが認識される。また、制御部201では、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第2の拡張フォーマットの画像データES2による拡張が空間スケーラブルであること、空間スケーラブルの比率などが認識される。
また、制御部201では、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第3の拡張フォーマットの画像データES3による拡張が時間スケーラブルおよび空間スケーラブルであること、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)、空間スケーラブルの比率などが認識される。
コンテナデコーダ203で抽出された基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeは、ビデオデコーダ204に供給される。ビデオデコーダ204では、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが処理されて、ハイフレームレート(HFR)で超高解像度(UHD)の画像データVa´が得られる。
ここで、ビデオデコーダ204では、各ビデオストリームを構成するアクセスユニットに挿入されているパラメータセットやSEIが抽出され、制御部201に送られる。このSEIには、第1、第2の拡張フォーマットの画像データES1,ES2のアクセスユニット(AU)に挿入されているビデオ・スケーラビリティ・SEI(図11参照)も含まれる。
制御部201では、このビデオ・スケーラビリティ・SEIから、第1の拡張フォーマットの画像データES1による拡張が時間スケーラブルであること、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)などが認識される。また、制御部201では、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第2の拡張フォーマットの画像データES2による拡張が空間スケーラブルであること、空間スケーラブルの比率などを認識される。
また、制御部201では、このビデオ・スケーラビリティ・インフォメーション・デスクリプタから、第3の拡張フォーマットの画像データES3による拡張が時間スケーラブルおよび空間スケーラブルであること、基本フォーマットの画像データBSが混合処理を施して得られた画像データであること、混合比率(第1、第2の比率)、空間スケーラブルの比率などが認識される。
図30は、ハイフレームレートで高解像度の動画像データを処理可能なサービス受信機200Bの構成例を示している。この図30において、図25と対応する部分には同一符号、あるいは「B」を添えた符号を付し、適宜、その詳細説明を省略する。このサービス受信機200Bは、受信部201と、コンテナデコーダ203Bと、ビデオデコーダ204Bを有している。
受信部201では、サービス送信システム100から放送波あるいはネットのパケットに載せて送られてくるMP4の配信ストリームSTMが受信される。この配信ストリームSTMは、コンテナデコーダ203Bに供給される。コンテナデコーダ203Bでは、MP4から基本ビデオストリームSTbと拡張ビデオストリームSTe1、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが抽出される。
コンテナデコーダ203Bで抽出された基本ビデオストリームSTbと拡張ビデオストリームSTe1、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeは、ビデオデコーダ204Bに供給される。ビデオデコーダ204Bでは、基本ビデオストリームSTbと拡張ビデオストリームSTe1、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが処理されて、ハイフレームレートで高解像度の画像データVh´が得られる。
この場合、ビデオデコーダ204Bでは、基本フォーマットの画像データBS´である画像データVd´(HD 60Hz Base)と、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データES1´である画像データVf´(HD HFR Enhanced1)とが、上述の信号処理部204a(図27、図29参照)と同様の信号処理部に入力され、その出力としてハイフレームレートで高解像度の画像データVh´が得られる。
図31は、基本フレームレートで超高解像度の動画像データを処理可能なサービス受信機200Cの構成例を示している。この図31において、図25と対応する部分には同一符号、あるいは「C」を添えた符号を付し、適宜、その詳細説明を省略する。このサービス受信機200Cは、受信部201と、コンテナデコーダ203Cと、ビデオデコーダ204Cを有している。
受信部201では、サービス送信システム100から放送波あるいはネットのパケットに載せて送られてくるMP4の配信ストリームSTMが受信される。この配信ストリームSTMは、コンテナデコーダ203Bに供給される。コンテナデコーダ203Bでは、MP4から基本ビデオストリームSTbと拡張ビデオストリームSTe2、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが抽出される。
コンテナデコーダ203Cで抽出された基本ビデオストリームSTbと拡張ビデオストリームSTe2、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeは、ビデオデコーダ204Cに供給される。ビデオデコーダ204Cでは、基本ビデオストリームSTbと拡張ビデオストリームSTe2、あるいは基本ビデオストリームSTbと拡張ビデオストリームSTeが処理されて、基本フレームレートで超高解像度の画像データVb´が得られる。
この場合、ビデオデコーダ204Cでは、基本フォーマットの画像データBS´である画像データVd´(HD 60Hz Base)と、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データES2´である画像データVe´(UHD 60Hz Enhanced2)とが、上述の信号処理部204b(図27、図28(a)参照)と同様の信号処理部に入力され、その出力として基本フレームレートで超高解像度の画像データVb´が得られる。
図32は、基本フレームレートで高解像度の動画像データを処理可能なサービス受信機200Dの構成例を示している。この図32において、図25と対応する部分には同一符号、あるいは「D」を添えた符号を付し、適宜、その詳細説明を省略する。このサービス受信機200Dは、受信部201と、コンテナデコーダ203Dと、ビデオデコーダ204Dを有している。
受信部201では、サービス送信システム100から放送波あるいはネットのパケットに載せて送られてくるMP4の配信ストリームSTMが受信される。この配信ストリームSTMは、コンテナデコーダ203Dに供給される。コンテナデコーダ203Dでは、MP4から基本ビデオストリームSTbのみが抽出される。
コンテナデコーダ203Dで抽出された基本ビデオストリームSTbは、ビデオデコーダ204Dに供給される。ビデオデコーダ204Dでは、基本ビデオストリームSTbのみが処理されて、基本フレームレートで高解像度の画像データVd´が得られる。この場合、ビデオデコーダ204Dには、上述のビデオデコーダ205が有するような各信号処理部(図26参照)は不要である。
上述したように、図3に示す送受信システム10においては、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームが送信される。そのため、ハイフレームレートで超高解像度の画像データを受信側において下位互換を良好に実現可能に伝送される。
例えば、基本フレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像の表示が可能となる。また、例えば、ハイフレームレートで高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理してハイフレームレートで高解像度の画像の表示が可能となる。
また、例えば、基本フレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理して基本フレームレートで超高解像度の画像の表示が可能となる。また、例えば、ハイフレームレートで超高解像度の画像データを処理可能なデコード能力がある受信機の場合、基本ビデオストリームおよび拡張ストリームの双方を処理してハイフレームレートで超高解像度の画像の表示が可能となる。
また、図3に示す送受信システム10においては、基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施すことで得られたものである。そのため、受信側で基本ビデオストリームのみを処理して表示される基本フレームレートで高解像度の画像はストロービング効果が抑制された滑らかな画像となる。
<2.変形例>
なお、上述実施の形態においては、コンテナがMP4(ISOBMFF)である例を示した。しかし、本技術は、コンテナがMP4に限定されるものではなく、MPEG−2 TSやMMTなどの他のフォーマットのコンテナであっても同様に適用し得る。
例えば、MPEG−2 TSの場合には、図19に示すサービス送信システム100のコンテナエンコーダ103では、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ストリームSTeを含むトランスポートストリーム(Transport Stream)が生成される。
この際、コンテナエンコーダ103では、プログラム・マップ・テーブル(PMT:Program Map Table)の配下の拡張ビデオストリームに対応したビデオエレメンタリストリームループに、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)が挿入される。
図33は、4ストリーム構成の伝送の場合におけるトランスポートストリームの構成例を示している。この構成例では、PID1で識別されるビデオストリームのPESパケット「video PES1」と、PID2で識別されるビデオストリームのPESパケット「video PES2」と、PID3で識別されるビデオストリームのPESパケット「video PES3」と、PID4で識別されるビデオストリームのPESパケット「video PES4」が存在する。
PESパケット「video PES1」のペイロードには、基本ビデオストリームSTbのアクセスユニット(符号化画像データ)が含まれる。PESパケット「video PES2」のペイロードには、拡張ビデオストリームSTe1のアクセスユニット(符号化画像データ)が含まれる。PESパケット「video PES3」のペイロードには、拡張ビデオストリームSTe2のアクセスユニット(符号化画像データ)が含まれる。PESパケット「video PES4」のペイロードには、拡張ビデオストリームSTe3のアクセスユニット(符号化画像データ)が含まれる。PESパケット「video PES2」、PESパケット「video PES3」およびPESパケット「video PES4」でコンテナされる各ピクチャのアクセスユニット(符号化画像データ)には、ビデオ・スケーラビリティ・SEI(図11参照)が挿入される。
また、トランスポートストリームには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。
PMTには、各ビデオストリームに対応したビデオエレメンタリストリームループ(video ES loop)が存在する。ビデオエレメンタリストリームループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。
「video ES1 loop」には、基本ビデオストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、基本ビデオストリームを示す“0x24”とされる。
また、「video ES2 loop」、「video ES3 loop」、「video ES4 loop」には、それぞれ、拡張ビデオストリーム(video PES2)、拡張ビデオストリーム(video PES3)、拡張ビデオストリーム(video PES4)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、拡張ビデオストリームを示す“0x2x”とされる。また、デスクリプタの一つとして、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)が挿入される。
図34は、2ストリーム構成の伝送の場合におけるトランスポートストリームの構成例を示している。この構成例では、PID1で識別されるビデオストリームのPESパケット「video PES1」と、PID2で識別されるビデオストリームのPESパケット「video PES2」が存在する。
PESパケット「video PES1」のペイロードには、基本ビデオストリームSTbのアクセスユニット(符号化画像データ)が含まれる。PESパケット「video PES2」のペイロードには、拡張ビデオストリームSTeのアクセスユニット(符号化画像データ)が含まれる。PESパケット「video PES2」でコンテナされる各ピクチャのアクセスユニット(符号化画像データ)には、ビデオ・スケーラビリティ・SEI(図11参照)が挿入される。
また、PMTの配下に、基本ビデオストリーム「video PES1」と、拡張ビデオストリーム「video PES2」に対応したビデオエレメンタリストリームループ(video ES loop)が存在する。ビデオエレメンタリストリームループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。
「video ES1 loop」には、基本ビデオストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、基本ビデオストリームを示す“0x24”とされる。
また、「video ES2 loop」には、拡張ビデオストリーム(video PES2)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このストリームタイプは、拡張ビデオストリームを示す“0x2x”とされる。また、デスクリプタの一つとして、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)が挿入される。
また、例えば、MMTの場合には、図19に示すサービス送信システム100のコンテナエンコーダ103では、基本ビデオストリームSTbと拡張ビデオストリームSTe1,STe2,STe3、あるいは基本ビデオストリームSTbと拡張ストリームSTeを含むMMTストリーム(MMT Stream)が生成される。
この際、コンテナエンコーダ103では、MMT・パッケージ・テーブル(MPT:MMT Package Table)の配下の拡張ビデオストリームに対応したビデオアセットループに、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)が挿入される。
図35は、4ストリーム構成の伝送の場合におけるMMTストリームの構成例を示している。この構成例では、パケットタイプがMPUであり、ID1で識別されるビデオストリームのMPUパケット「video MPU1」と、パケットタイプがMPUであり、ID2で識別されるビデオストリームのMPUパケット「video MPU2」と、パケットタイプがMPUであり、ID3で識別されるビデオストリームのMPUパケット「video MPU3」と、パケットタイプがMPUであり、ID4で識別されるビデオストリームのMPUパケット「video MPU4」が存在する。
MPUパケット「video MPU1」のペイロードには、基本ビデオストリームSTbのアクセスユニット(符号化画像データ)が含まれる。MPUパケット「video MPU2」のペイロードには、拡張ビデオストリームSTe1のアクセスユニット(符号化画像データ)が含まれる。MPUパケット「video MPU3」のペイロードには、拡張ビデオストリームSTe2のアクセスユニット(符号化画像データ)が含まれる。MPUパケット「video MPU4」のペイロードには、拡張ビデオストリームSTe3のアクセスユニット(符号化画像データ)が含まれる。MPUパケット「video MPU2」、MPUパケット「video MPU3」およびMPUパケット「video MPU4」でコンテナされる各ピクチャのアクセスユニット(符号化画像データ)には、ビデオ・スケーラビリティ・SEI(図11参照)が挿入される。
また、MMTストリームには、パケットタイプがmessageである場合、種々のメッセージパケットが配置されるが、その一つとしてPA(Packet Access)メッセージパケットがある。PAメッセージパケットには、MPTなどのテーブルが含まれている。MPTには、各アセット(ビデオストリーム)に対応したビデオアセットループ(video asset loop)が存在する。ビデオアセットループ(video asset loop)には、アセット(ビデオストリーム)に対応して、アセットタイプ(Asset_type)、パケットID(Packet_id)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。
「video asset1 loop」には、基本ビデオストリーム(video MPU1)に対応して、アセットタイプ、アセットID等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このアセットタイプは、基本ビデオストリームを示す“0x24”とされる。
また、「video asset2 loop」、「video asset3 loop」、「video asset4 loop」には、それぞれ、拡張ビデオストリーム(video MPU2)、拡張ビデオストリーム(video MPU3)、拡張ビデオストリーム(video MPU4)に対応して、アセットタイプ、アセットID等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このアセットタイプは、拡張ビデオストリームを示す“0x2x”とされる。また、デスクリプタの一つとして、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)が挿入される。
図36は、2ストリーム構成の伝送の場合におけるMMTストリームの構成例を示している。この構成例では、ID1で識別されるビデオストリームのMPUパケット「video MPU1」と、ID2で識別されるビデオストリームのMPUパケット「video MPU2」が存在する。
MPUパケット「video MPU1」のペイロードには、基本ビデオストリームSTbのアクセスユニット(符号化画像データ)が含まれる。MPUパケット「video MPU2」のペイロードには、拡張ビデオストリームSTeのアクセスユニット(符号化画像データ)が含まれる。MPUパケット「video PES2」でコンテナされる各ピクチャのアクセスユニット(符号化画像データ)には、ビデオ・スケーラビリティ・SEI(図11参照)が挿入される。
また、MPTの配下に、基本ビデオストリーム「video MPU1」と、拡張ビデオストリーム「video MPU2」に対応したビデオアセットループ(video asset loop)が存在する。ビデオアセットループ(video asset loop)には、ビデオストリームに対応して、アセットタイプ、アセットID等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。
「video asset1 loop」には、基本ビデオストリーム(video MPU1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このアセットタイプは、基本ビデオストリームを示す“0x24”とされる。
また、「video ES2 loop」には、拡張ビデオストリーム(video PES2)に対応して、アセットタイプ、アセットID等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このアセットタイプは、拡張ビデオストリームを示す“0x2x”とされる。また、デスクリプタの一つとして、ビデオ・スケーラビリティ・インフォメーション・デスクリプタ(図13参照)が挿入される。
また、上述実施の形態においては、拡張ビデオストリームが3つあるいは1つである例を示した。しかし、拡張ビデオストリームが2つである例も考えられる。その場合、例えば、拡張ビデオストリームSTe1には、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データES1のアクセスユニットが含まれる。そして、拡張ビデオストリームSTe2には、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データES2のアクセスユニットと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データES3のアクセスユニットが含まれる。
また、本技術は、以下のような構成を取ることもできる。
(1)ハイフレームレートで超高解像度の画像データを処理して、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データと、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データを得る画像処理部と、
上記基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを生成する画像符号化部と、
上記基本ストリームおよび上記所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
上記画像処理部は、
上記ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して基本フレームレートの画像データである第1の画像データを得ると共に、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施してハイフレームレートの拡張フレームの画像データである第2の画像データを得、
上記第1の画像データにダウンスケール処理を施して上記基本フォーマットの画像データを得ると共に、該基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって上記第2の拡張フォーマットの画像データを得、
上記第2の画像データにダウンスケール処理を施して上記第1の拡張フォーマットの画像データを得ると共に、該第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって上記第3の拡張フォーマットの画像データを得る
送信装置。
(2)上記画像符号化部は、
上記基本フォーマットの画像データの符号化画像データを含む上記基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データをそれぞれ含む3つの拡張ビデオストリームまたは上記第1から第3の拡張フォーマットの画像データの符号化画像データの全てを含む1つの拡張ビデオストリームを生成する
前記(1)に記載の送信装置。
(3)上記第1の拡張フォーマットの画像データの符号化画像データに時間スケーラブルであることを示す識別情報を挿入し、上記第2の拡張フォーマットの画像データの符号化画像データに空間スケーラブルであることを示す識別情報を挿入し、上記第3の拡張フォーマットの画像データの符号化画像データに時間スケーラブルおよび空間スケーラブルであることを示す識別情報を挿入する情報挿入部をさらに備える
前記(1)または(2)に記載の送信装置。
(4)上記情報挿入部は、
上記第2および第3の拡張フォーマットの画像データの符号化画像データに、空間スケーラブルの比率を示す情報をさらに挿入する
前記(3)に記載の送信装置。
(5)上記情報挿入部は、
上記第1および第3の拡張フォーマットの画像データの符号化画像データに、上記基本フォーマットの画像データが上記混合処理を施して得られた画像データであることを示す識別情報をさらに挿入する
前記(3)または(4)に記載の送信装置。
(6)上記情報挿入部は、
上記第1および第3の拡張フォーマットの画像データの符号化画像データに、上記第1の比率の情報および上記第2の比率の情報をさらに挿入する
前記(3)から(5)のいずれかに記載の送信装置。
(7)上記コンテナのレイヤに、上記第1の拡張フォーマットの画像データの符号化画像データに対応して時間スケーラブルであることを示す識別情報を挿入し、上記第2の拡張フォーマットの画像データの符号化画像データに対応して空間スケーラブルであることを示す識別情報を挿入し、上記第3の拡張フォーマットの画像データの符号化画像データに対応して時間スケーラブルおよび空間スケーラブルであることを示す識別情報を挿入する情報挿入部をさらに備える
前記(1)から(6)のいずれかに記載の送信装置。
(8)上記情報挿入部は、
上記コンテナのレイヤに、上記第2および第3の拡張フォーマットの画像データの符号化画像データのそれぞれに対応して、空間スケーラブルの比率を示す情報をさらに挿入する
前記(7)に記載の送信装置。
(9)上記情報挿入部は、
上記コンテナのレイヤに、上記第1および第3の拡張フォーマットの画像データの符号化画像データのそれぞれに対応して、上記基本フォーマットの画像データが上記混合処理を施して得られた画像データであることを示す識別情報をさらに挿入する
前記(7)または(8)に記載の送信装置。
(10)上記情報挿入部は、
上記コンテナのレイヤに、上記第1および第3の拡張フォーマットの画像データの符号化画像データにそれぞれ対応して、上記第1の比率の情報および上記第2の比率の情報をさらに挿入する
前記(7)から(9)のいずれかに記載の送信装置。
(11)上記基本ビデオストリームと上記所定数の拡張ビデオストリームを受信装置で取得させるためのメタ情報を持つメタファイルを送信する送信部をさらに備え、
上記メタファイルにはスケーラビリティの対応を示す情報が挿入される
前記(1)から(10)のいずれかに記載の送信装置。
(12)ハイフレームレートで超高解像度の画像データを処理して、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データと、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データを得る画像処理ステップと、
上記基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを生成する画像符号化ステップと、
送信部により、上記基本ストリームおよび上記所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを送信する送信ステップを有し、
上記画像処理ステップでは、
上記ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して基本フレームレートの画像データである第1の画像データを得ると共に、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施してハイフレームレートの拡張フレームの画像データである第2の画像データを得、
上記第1の画像データにダウンスケール処理を施して上記基本フォーマットの画像データを得ると共に、該基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって上記第2の拡張フォーマットの画像データを得、
上記第2の画像データにダウンスケール処理を施して上記第1の拡張フォーマットの画像データを得ると共に、該第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって上記第3の拡張フォーマットの画像データを得る
送信方法。
(13)基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持つ基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
上記基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施して得られたものであり、
上記第2の拡張フォーマットの画像データは、上記基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって得られたものであり、
上記第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施して得られたものであり、
上記第3の拡張フォーマットの画像データは、上記第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって得られたものであり、
上記基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得るか、あるいは上記所定数の拡張ビデオストリームの一部または全部のストリームを処理してハイフレームレートで高解像後の画像データ、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データを得る処理部をさらに備える
受信装置。
(14)上記第2および第3の拡張フォーマットの画像データの符号化画像データに、および/または、該符号化画像データに対応したコンテナ位置に、空間スケーラブルの比率を示す情報が挿入されており、
上記処理部は、上記基本フレームレートで超高解像度の画像データまたは上記ハイフレームレートで超高解像度の画像データを得る場合、上記挿入されている空間スケーラブルの比率を示す情報を用いる
前記(13)に記載の受信装置。
(15)上記第1および第3の拡張フォーマットの画像データの符号化画像データに、および/または、該符号化画像データに対応したコンテナ位置に、上記第1の比率の情報および上記第2の比率の情報が挿入されており、
上記処理部は、上記ハイフレームレートで高解像後の画像データまたは上記ハイフレームレートで超高解像度の画像データを得る場合、上記挿入されている第1の比率の情報および第2の比率の情報を用いる
前記(13)または(14)に記載の受信装置。
(16)受信部により、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持つ基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
上記基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施して得られたものであり、
上記第2の拡張フォーマットの画像データは、上記基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって得られたものであり、
上記第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施して得られたものであり、
上記第3の拡張フォーマットの画像データは、上記第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって得られたものであり、
上記基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得るか、あるいは上記所定数の拡張ビデオストリームの一部または全部のストリームを処理してハイフレームレートで高解像後の画像データ、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データを得る処理ステップをさらに有する
受信方法。
(17)ハイフレームレートで超高解像度の画像データを処理して、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データと、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データを得る画像処理部と、
上記基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを生成する画像符号化部と、
上記基本ストリームおよび上記所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを送信する送信部を備える
送信装置。
(18)上記第2および第3の拡張フォーマットの画像データの符号化画像データに、および/または、該符号化画像データに対応したコンテナ位置に、空間スケーラブルであることを示す識別情報を挿入し、上記第1および第3の拡張フォーマットの画像データの符号化画像データに、および/または、該符号化画像データに対応したコンテナ位置に、時間スケーラブルであることを示す識別情報を挿入する情報挿入部をさらに備える
前記(17)に記載の送信装置。
(19)上記基本ビデオストリームと上記所定数の拡張ビデオストリームを受信装置で取得させるためのメタ情報を持つメタファイルを送信する送信部をさらに備え、
上記メタファイルにはスケーラビリティの対応を示す情報が挿入される
前記(17)または(18)に記載の送信装置。
(20)基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持つ基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを受信する受信部と、
上記基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得るか、あるいは上記所定数の拡張ビデオストリームの一部または全部のストリームを処理してハイフレームレートで高解像後の画像データ、基本フレームレートで超高解像度の画像データあるいはハイフレームレートで超高解像度の画像データを得る処理部を備える
受信装置。
本技術の主な特徴は、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを送信することで、ハイフレームレートで超高解像度の画像データを受信側において下位互換を良好に実現可能としたことである(図5、図6、図15参照)。
また、本技術の主な特徴は、基本フォーマットの画像データを、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施して得ることで、基本ビデオストリームのみを処理して表示される基本フレームレートで高解像度の画像をストロービング効果が抑制された滑らかな画像とすることを可能としたことである(図21、図22参照)。
10・・・送受信システム
30A,30B・・・MPEG−DASHベースのストリーム配信システム
31・・・DASHストリームファイルサーバ
32・・・DASH MPDサーバ
33,33-1〜33-N・・・サービス受信機
34・・・CDN
35,35-1〜35-M・・・サービス受信機
36・・・放送送出システム
100・・・サービス送信システム
101・・・制御部
102・・・ビデオエンコーダ
102a,102b,102c・・・信号処理部
102d・・・符号化処理部
103・・・コンテナエンコーダ
104・・・送信部
111・・・遅延回路
112・・・演算回路
112a,112b,112c,112d・・・係数乗算部
112e,112f・・・加算部
113・・・ラッチ回路
121,131・・・ダウンスケール回路
122,132・・・アップスケール回路
123,133・・・演算回路
200,200A,200B,200C,200D・・・サービス受信機
201・・・制御部
202・・・受信部
203,203B,203C,203D・・・コンテナデコーダ
204,204B,204C,204D・・・ビデオデコーダ
204a,204b,204c・・・信号処理部
204d・・・復号化処理部
211,221・・・アップスケール回路
212,222・・・演算回路
241・・・演算回路
241a,241b,241c,241d・・・係数乗算部
241e,241f・・・加算部
242・・・スイッチ回路

Claims (16)

  1. ハイフレームレートで超高解像度の画像データを処理して、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データと、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データを得る画像処理部と、
    上記基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを生成する画像符号化部と、
    上記基本ビデオストリームおよび上記所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを送信する送信部を備え、
    上記画像処理部は、
    上記ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して基本フレームレートの画像データである第1の画像データを得ると共に、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して第2の画像データを得、
    上記第1の画像データにダウンスケール処理を施して上記基本フォーマットの画像データを得ると共に、該基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって上記第2の拡張フォーマットの画像データを得、
    上記第2の画像データにダウンスケール処理を施して上記第1の拡張フォーマットの画像データを得ると共に、該第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって上記第3の拡張フォーマットの画像データを得る
    送信装置。
  2. 上記画像符号化部は、
    上記基本フォーマットの画像データの符号化画像データを含む上記基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データをそれぞれ含む3つの拡張ビデオストリームまたは上記第1から第3の拡張フォーマットの画像データの符号化画像データの全てを含む1つの拡張ビデオストリームを生成する
    請求項1に記載の送信装置。
  3. 上記第1の拡張フォーマットの画像データの符号化画像データに時間スケーラブルであることを示す識別情報を挿入し、上記第2の拡張フォーマットの画像データの符号化画像データに空間スケーラブルであることを示す識別情報を挿入し、上記第3の拡張フォーマットの画像データの符号化画像データに時間スケーラブルおよび空間スケーラブルであることを示す識別情報を挿入する情報挿入部をさらに備える
    請求項1または2に記載の送信装置。
  4. 上記情報挿入部は、
    上記第2および第3の拡張フォーマットの画像データの符号化画像データに、空間スケーラブルの比率を示す情報をさらに挿入する
    請求項3に記載の送信装置。
  5. 上記情報挿入部は、
    上記第1および第3の拡張フォーマットの画像データの符号化画像データに、上記基本フォーマットの画像データが上記混合処理を施して得られた画像データであることを示す識別情報をさらに挿入する
    請求項3または4に記載の送信装置。
  6. 上記情報挿入部は、
    上記第1および第3の拡張フォーマットの画像データの符号化画像データに、上記第1の比率の情報および上記第2の比率の情報をさらに挿入する
    請求項3から5のいずれかに記載の送信装置。
  7. 上記コンテナのレイヤに、上記第1の拡張フォーマットの画像データの符号化画像データに対応して時間スケーラブルであることを示す識別情報を挿入し、上記第2の拡張フォーマットの画像データの符号化画像データに対応して空間スケーラブルであることを示す識別情報を挿入し、上記第3の拡張フォーマットの画像データの符号化画像データに対応して時間スケーラブルおよび空間スケーラブルであることを示す識別情報を挿入する情報挿入部をさらに備える
    請求項1から6のいずれかに記載の送信装置。
  8. 上記情報挿入部は、
    上記コンテナのレイヤに、上記第2および第3の拡張フォーマットの画像データの符号化画像データのそれぞれに対応して、空間スケーラブルの比率を示す情報をさらに挿入する
    請求項7に記載の送信装置。
  9. 上記情報挿入部は、
    上記コンテナのレイヤに、上記第1および第3の拡張フォーマットの画像データの符号化画像データのそれぞれに対応して、上記基本フォーマットの画像データが上記混合処理を施して得られた画像データであることを示す識別情報をさらに挿入する
    請求項7または8に記載の送信装置。
  10. 上記情報挿入部は、
    上記コンテナのレイヤに、上記第1および第3の拡張フォーマットの画像データの符号化画像データにそれぞれ対応して、上記第1の比率の情報および上記第2の比率の情報をさらに挿入する
    請求項7から9のいずれかに記載の送信装置。
  11. 上記基本ビデオストリームと上記所定数の拡張ビデオストリームを受信装置で取得させるためのメタ情報を持つメタファイルを送信する送信部をさらに備え、
    上記メタファイルにはスケーラビリティの対応を示す情報が挿入される
    請求項1から10のいずれかに記載の送信装置。
  12. ハイフレームレートで超高解像度の画像データを処理して、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データと、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データと、ハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データを得る画像処理ステップと、
    上記基本フォーマットの画像データの符号化画像データを含む基本ビデオストリームと、上記第1から第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを生成する画像符号化ステップと、
    送信部により、上記基本ビデオストリームおよび上記所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを送信する送信ステップを有し、
    上記画像処理ステップでは、
    上記ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して基本フレームレートの画像データである第1の画像データを得ると共に、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して第2の画像データを得、
    上記第1の画像データにダウンスケール処理を施して上記基本フォーマットの画像データを得ると共に、該基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって上記第2の拡張フォーマットの画像データを得、
    上記第2の画像データにダウンスケール処理を施して上記第1の拡張フォーマットの画像データを得ると共に、該第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって上記第3の拡張フォーマットの画像データを得る
    送信方法。
  13. 基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持つ基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
    上記基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施して得られたものであり、
    上記第2の拡張フォーマットの画像データは、上記基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって得られたものであり、
    上記第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施して得られたものであり、
    上記第3の拡張フォーマットの画像データは、上記第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって得られたものであり、
    上記基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得るか、あるいは上記所定数の拡張ビデオストリームの一部または全部のストリームを処理してハイフレームレートで高解像の画像データ、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データを得る処理部をさらに備える
    受信装置。
  14. 上記第2および第3の拡張フォーマットの画像データの符号化画像データに、および/または、該符号化画像データに対応したコンテナ位置に、空間スケーラブルの比率を示す情報が挿入されており、
    上記処理部は、上記基本フレームレートで超高解像度の画像データまたは上記ハイフレームレートで超高解像度の画像データを得る場合、上記挿入されている空間スケーラブルの比率を示す情報を用いる
    請求項13に記載の受信装置。
  15. 上記第1および第3の拡張フォーマットの画像データの符号化画像データに、および/または、該符号化画像データに対応したコンテナ位置に、上記第1の比率の情報および上記第2の比率の情報が挿入されており、
    上記処理部は、上記ハイフレームレートで高解像後の画像データまたは上記ハイフレームレートで超高解像度の画像データを得る場合、上記挿入されている第1の比率の情報および第2の比率の情報を用いる
    請求項13または14に記載の受信装置。
  16. 受信部により、基本フレームレートで高解像度の画像を得るための基本フォーマットの画像データの符号化画像データを持つ基本ビデオストリームと、ハイフレームレートで高解像度の画像を得るための第1の拡張フォーマットの画像データ、基本フレームレートで超高解像度の画像を得るための第2の拡張フォーマットの画像データおよびハイフレームレートで超高解像度の画像を得るための第3の拡張フォーマットの画像データの符号化画像データを含む所定数の拡張ビデオストリームを含む所定フォーマットのコンテナを受信する受信ステップを有し、
    上記基本フォーマットの画像データは、ハイフレームレートで超高解像度の画像データにおいて時間的に連続する2個のピクチャ単位で第1の比率の混合処理を施して得られた第1の画像データにダウンスケール処理を施して得られたものであり、
    上記第2の拡張フォーマットの画像データは、上記基本フォーマットの画像データにアップスケール処理を施して得られた第3の画像データと上記第1の画像データとの間の差分をとって得られたものであり、
    上記第1の拡張フォーマットの画像データは、上記時間的に連続する2個のピクチャ単位で第2の比率の混合処理を施して得られた第2の画像データにダウンスケール処理を施して得られたものであり、
    上記第3の拡張フォーマットの画像データは、上記第1の拡張フォーマットの画像データにアップスケール処理を施して得られた第4の画像データと上記第2の画像データとの間の差分をとって得られたものであり、
    上記基本ビデオストリームのみを処理して基本フレームレートで高解像度の画像データを得るか、あるいは上記所定数の拡張ビデオストリームの一部または全部のストリームを処理してハイフレームレートで高解像の画像データ、基本フレームレートで超高解像度の画像データまたはハイフレームレートで超高解像度の画像データを得る処理ステップをさらに有する
    受信方法。
JP2017545195A 2015-10-13 2016-10-11 送信装置、送信方法、受信装置および受信方法 Active JP6848873B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015202464 2015-10-13
JP2015202464 2015-10-13
PCT/JP2016/080085 WO2017065128A1 (ja) 2015-10-13 2016-10-11 送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
JPWO2017065128A1 JPWO2017065128A1 (ja) 2018-08-02
JP6848873B2 true JP6848873B2 (ja) 2021-03-24

Family

ID=58517669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017545195A Active JP6848873B2 (ja) 2015-10-13 2016-10-11 送信装置、送信方法、受信装置および受信方法

Country Status (5)

Country Link
US (2) US11115689B2 (ja)
JP (1) JP6848873B2 (ja)
KR (1) KR102537853B1 (ja)
CA (1) CA3001290C (ja)
WO (1) WO2017065128A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2554877B (en) * 2016-10-10 2021-03-31 Canon Kk Methods, devices, and computer programs for improving rendering display during streaming of timed media data
CA3080307A1 (en) * 2017-11-02 2019-05-09 Sony Corporation Transmission device, transmission method, reception device, and reception method
WO2020031782A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 受信装置、受信方法、送信装置および送信方法
EP3843417A4 (en) * 2018-08-21 2021-09-01 Sony Group Corporation RECEIVING APPARATUS, RECEPTION PROCESS, TRANSMISSION APPARATUS, AND TRANSMISSION PROCESS
GB201817784D0 (en) * 2018-10-31 2018-12-19 V Nova Int Ltd Methods,apparatuses, computer programs and computer-readable media
WO2021102355A1 (en) 2019-11-21 2021-05-27 Vooks, Inc. Systems and methods for enhanced video books
JP7598062B2 (ja) 2021-08-18 2024-12-11 日本電信電話株式会社 映像送信装置、映像受信装置、映像送信方法、映像受信方法、映像送信プログラム、及び、映像受信プログラム
CN113837136B (zh) * 2021-09-29 2022-12-23 深圳市慧鲤科技有限公司 视频插帧方法及装置、电子设备和存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4332246B2 (ja) * 1998-01-14 2009-09-16 キヤノン株式会社 画像処理装置、方法、及び記録媒体
US6650783B2 (en) * 1998-01-14 2003-11-18 Canon Kabushiki Kaisha Image processing apparatus and method for processing images with different scalabilites
DE102005001287A1 (de) * 2005-01-11 2006-07-20 Siemens Ag Verfahren und Vorrichtung zur Verarbeitung von skalierbaren Daten
US20090222855A1 (en) 2005-05-24 2009-09-03 Jani Vare Method and apparatuses for hierarchical transmission/reception in digital broadcast
WO2008086423A2 (en) 2007-01-09 2008-07-17 Vidyo, Inc. Improved systems and methods for error resilience in video communication systems
CN103797797B (zh) * 2011-06-30 2016-07-13 瑞典爱立信有限公司 参考画面信号通知
JP2013030907A (ja) * 2011-07-27 2013-02-07 Sony Corp 符号化装置および符号化方法、並びに、復号装置および復号方法
CN108322744B (zh) 2012-01-31 2022-08-30 Vid拓展公司 用于可缩放的高效视频译码(hevc)的参考图片集(rps)信令
KR20150059722A (ko) * 2012-08-10 2015-06-02 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
RU2645717C2 (ru) * 2012-09-07 2018-03-01 Сони Корпорейшн Устройство передачи, способ передачи, устройство приёма и способ приёма
US9894373B2 (en) * 2012-09-28 2018-02-13 Sharp Kabushiki Kaisha Image decoding device
US20140092953A1 (en) * 2012-10-02 2014-04-03 Sharp Laboratories Of America, Inc. Method for signaling a step-wise temporal sub-layer access sample
KR102080116B1 (ko) * 2013-06-10 2020-02-24 삼성전자 주식회사 이동통신 시스템에서 비디오 비트레이트 할당 방법 및 장치
JP6571314B2 (ja) * 2013-06-18 2019-09-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法
JP5774652B2 (ja) * 2013-08-27 2015-09-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
EP3073740A4 (en) 2013-11-22 2017-05-31 Sony Corporation Transmission apparatus, transmission method, reception apparatus and reception method
US10531105B2 (en) 2013-12-17 2020-01-07 Qualcomm Incorporated Signaling partition information for 3D lookup table for color gamut scalability in multi-layer video coding
US11006069B2 (en) 2015-09-10 2021-05-11 Sony Corporation Transmission device, transmission method, reception device, and reception method

Also Published As

Publication number Publication date
KR102537853B1 (ko) 2023-05-31
CA3001290A1 (en) 2017-04-20
US20210281889A1 (en) 2021-09-09
KR20180067527A (ko) 2018-06-20
US20190116386A1 (en) 2019-04-18
JPWO2017065128A1 (ja) 2018-08-02
WO2017065128A1 (ja) 2017-04-20
US11606586B2 (en) 2023-03-14
CA3001290C (en) 2024-02-06
US11115689B2 (en) 2021-09-07

Similar Documents

Publication Publication Date Title
JP6848873B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6848872B2 (ja) 送信装置、送信方法、受信装置および受信方法
CN109076229B (zh) 在图片中最感兴趣的区域
JP6809471B2 (ja) 送信装置、送信方法、受信装置および受信方法
CN114503599A (zh) 使用gltf2场景描述中的扩展来支持视频和音频数据
US20130019024A1 (en) Wireless 3d streaming server
RU2678149C2 (ru) Устройство кодирования, способ кодирования, передающее устройство, устройство декодирования, способ декодирования и приёмное устройство
JP6809469B2 (ja) 送信装置、送信方法、受信装置および受信方法
CN110915221B (zh) 发送装置、发送方法、接收装置、以及接收方法
KR20190142326A (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법
WO2017138470A1 (ja) 送信装置、送信方法、受信装置および受信方法
KR101944601B1 (ko) 기간들에 걸쳐 오브젝트들을 식별하기 위한 방법 및 이에 대응하는 디바이스
KR20240007142A (ko) 5g 네트워크들을 통한 확장 현실 데이터의 분할 렌더링
Kurutepe et al. A standards-based, flexible, end-to-end multi-view video streaming architecture
Biatek et al. Versatile video coding for 3.0 next generation digital TV in Brazil
JP2015033071A (ja) 階層化動画像伝送システム及び動画像復号装置
Macq et al. Scalable Delivery of Navigable and Ultra‐High Resolution Video

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R151 Written notification of patent or utility model registration

Ref document number: 6848873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250