[go: up one dir, main page]

JPH10174126A - Synchronization of stereoscopic video sequence - Google Patents

Synchronization of stereoscopic video sequence

Info

Publication number
JPH10174126A
JPH10174126A JP9329371A JP32937197A JPH10174126A JP H10174126 A JPH10174126 A JP H10174126A JP 9329371 A JP9329371 A JP 9329371A JP 32937197 A JP32937197 A JP 32937197A JP H10174126 A JPH10174126 A JP H10174126A
Authority
JP
Japan
Prior art keywords
image
picture
dts
pts
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9329371A
Other languages
Japanese (ja)
Inventor
Xuemin Chen
スーミン・チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arris Technology Inc
Original Assignee
NextLevel Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NextLevel Systems Inc filed Critical NextLevel Systems Inc
Publication of JPH10174126A publication Critical patent/JPH10174126A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To apply optimum image transmission order for minimizing a decoder input buffer size required for a system by arranging video images so as to be transmitted after respective low-order layer images corresponding to an imbalance predicted reinforce layer image. SOLUTION: The low-order layer and reinforce layer video sequences are received by a temporary multiplexer 105, the reinforce layer video is applied to a reinforce encoder 110, and the base layer video is applied to a low-order encoder 115. Afterwards, the encoded reinforce and base layers are demultiplexed by a system demultiplexer 125 through a system multiplexer 120 for transmitting them to a decoder as move streams, the encoded reinforce layer data are passed through a reinforce decoder 130, the low-order layer data are passed through a low-order decoder 135 and by combining the base layer data and reinforce layer data decoded by a temporary remultiplexer 140, reinforce and low-order layer output signals are outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は立体ビデオシーケン
スの復合化及びディスプレイ(例えば,プレゼンテーシ
ョン)を同期化するための装置及び方法に関する。特
に,要求されるデコーダ入力バッファサイズを最小化す
る対応する最適ビットストリーム送信順序に加え,強化
層のプレゼンテーション・タイム・スタンプ及びデコー
ディング・タイム・スタンプを決定するための装置が与
えられる。
FIELD OF THE INVENTION The present invention relates to an apparatus and method for decoding a stereoscopic video sequence and synchronizing a display (eg, a presentation). In particular, an apparatus is provided for determining a presentation time stamp and a decoding time stamp of the enhancement layer, in addition to a corresponding optimal bit stream transmission order which minimizes the required decoder input buffer size.

【0002】[0002]

【従来の技術】デジタル技術はアナログ技術よりも非常
に高い品質の信号を提供しまたかつては扱えなかった付
加的な特徴を与えるために,ビデオ及びオーディオサー
ビスの消費者への提供を革新した。デジタル装置は特
に,ケーブルテレビネットワークを通じてまたは衛星に
よってケーブルテレビ関連会社へ及び/または直接家庭
衛星テレビ受信機へ放送される信号に対して特に有利で
ある。そのようなシステムにおいて,契約者は,オリジ
ナルビデオ及びオーディオ信号を再構成するためにデー
タを減圧しかつ復合化するレシーバ/デスクランブラを
通じてデジタルデータストリームを受信する。該デジタ
ルレシーバはその処理に使用するためのマイクロコンピ
ュータ及びメモリ保存エレメントを含む。
BACKGROUND OF THE INVENTION Digital technology has revolutionized the provision of video and audio services to consumers to provide much higher quality signals than analog technology and to provide additional features that were once unhandled. Digital devices are particularly advantageous for signals broadcast via cable television networks or by satellite to cable television affiliates and / or directly to home satellite television receivers. In such a system, the subscriber receives the digital data stream through a receiver / descrambler that decompresses and decrypts the data to reconstruct the original video and audio signals. The digital receiver includes a microcomputer and a memory storage element for use in its processing.

【0003】高品質のビデオ及びオーディオを与えなが
ら低コストのレシーバを与えるためには,処理すべきデ
ータ量を制限することが必要である。さらに,デジタル
信号の送信用の有効帯域幅もまた,物理的制約,現存の
通信プロトコル及び政府標準によって制限される。した
がって,特定のビデオ画像(例えば,フレーム)におけ
る隣接する画素間の空間的相関を利用するさまざまなフ
レーム内(intra-frame)データ圧縮手法が開発されてき
た。
To provide a low cost receiver while providing high quality video and audio, it is necessary to limit the amount of data to be processed. In addition, the effective bandwidth for transmitting digital signals is also limited by physical constraints, existing communication protocols and government standards. Accordingly, various intra-frame data compression techniques have been developed that utilize the spatial correlation between adjacent pixels in a particular video image (eg, frame).

【0004】さらに,フレーム間(inter-frame)圧縮手
法は,移動補償データ(motion compensation data)及び
ブロック一致移動推定アルゴリズム(block-matching mo
tionestimation algorithm)を使うことによって,連続
フレームの対応する領域間の時間的相関を利用する。こ
の場合,移動ベクトルは,特定のカレントブロックに最
も近似する先行画像内のブロックを識別することによっ
て映像のカレント画像内の各ブロックに対して決定され
る。その後,全カレント画像は,対応するブロック対の
間の差を表すデータとともに対応する対を識別するのに
必要な移動ベクトルを送ることによってデコーダで再構
成される。離散コサイン変換(DCT)のようなブロックベ
ースの空間圧縮技術と組み合わされるとき,ブロック一
致移動推定アルゴリズムは特に効果的である。
Further, the inter-frame compression technique uses motion compensation data and a block-matching motion estimation algorithm.
The temporal correlation between the corresponding regions of successive frames is used by using the motion estimation algorithm. In this case, a motion vector is determined for each block in the current image of the video by identifying the block in the preceding image that most closely approximates the particular current block. Thereafter, the entire current image is reconstructed at the decoder by sending the motion vectors necessary to identify the corresponding pair along with data representing the difference between the corresponding block pair. Block-matched motion estimation algorithms are particularly effective when combined with block-based spatial compression techniques such as the discrete cosine transform (DCT).

【0005】付加的に,提案された立体ビデオ送信フォ
ーマットとして興味あるものは,ここに参考文献として
組み込む,ドキュメント ISO/IEC JTC1/SC29/WG11 N108
8題名"Proposed Draft Amendment No.3 to 13818-2 (Mu
lti-view Profile)"1995年11月に記載された,モーショ
ン・ピクチャー・エキスパート・グループ(MPEG)MPEG-2
マルチ-ビュー・プロファイル(MVP)システムである。
立体ビデオはより深いフィールドと結合された映像を生
成するべく同一画像のわずかなオフセット像を与え,そ
れによって3次元(3-D)効果を作成する。そのようなシ
ステムにおいて,2つのカメラが2つの独立のビデオ信
号でイベントを記録するよう約2インチ離れて配置され
ている。カメラの間隔は,ほぼ人間の左右の目の間隔と
同じである。さらに,ある立体ビデオカムコーダに関し
て,ひとつのカムコーダヘッド内に2つのレンズが収納
され,例えば,映像を横切ってパンニングするとき同期
して動く。2つのビデオ信号は,通常の人間の視覚に対
応する深さのフィールドを有するイメージを生成するべ
くレシーバにおいて受信されかつ再結合される。その他
の特別の効果もまた与えられる。
[0005] Additionally, of interest as a proposed stereoscopic video transmission format, the document ISO / IEC JTC1 / SC29 / WG11 N108 is hereby incorporated by reference.
8 Title "Proposed Draft Amendment No.3 to 13818-2 (Mu
lti-view Profile) "Motion Picture Expert Group (MPEG) MPEG-2, described in November 1995.
Multi-view profile (MVP) system.
Stereoscopic video provides a slight offset image of the same image to produce a picture combined with a deeper field, thereby creating a three-dimensional (3-D) effect. In such a system, two cameras are positioned about two inches apart to record the event with two independent video signals. The distance between the cameras is almost the same as the distance between the left and right eyes of a human. Further, for some stereoscopic video camcorders, two lenses are housed within one camcorder head and move synchronously, for example, when panning across video. The two video signals are received and recombined at a receiver to produce an image having a field of depth corresponding to normal human vision. Other special effects are also provided.

【0006】MPEG MVPシステムは多重化信号内で送信さ
れる2つのビデオレイヤーを含む。第1に,ベース層
(例えば,下位層(lower layer))は3次元物体の左像
を表す。第2に,強化層(enhancement layer)(例え
ば,補助,または上層)は物体の右像を表す。該左像及
び右像は同一物体のものでありまた互いにわずかにオフ
セットされているだけなので,ベース及び強化層のビデ
オ映像の間にはしばしば大きな相関関係がある。この相
関関係は,ベース層に関して強化層を圧縮するために使
用され,それによって与えられた映像品質を維持するた
めに強化層内で送信される必要があるデータ量が減少す
る。映像品質は概してビデオデータの量子化レベルに対
応する。
[0006] The MPEG MVP system includes two video layers transmitted in a multiplexed signal. First, the base layer (eg, the lower layer) represents the left image of the three-dimensional object. Second, the enhancement layer (e.g., auxiliary or upper) represents the right image of the object. Since the left and right images are of the same object and are only slightly offset from each other, there is often a large correlation between the base and enhancement layer video images. This correlation is used to compress the enhancement layer with respect to the base layer, thereby reducing the amount of data that needs to be transmitted within the enhancement layer to maintain a given video quality. Video quality generally corresponds to the quantization level of the video data.

【0007】MPEG MVPシステムは3つのタイプのビデオ
画像,特に,内部符号化(intra-coded)画像(I-画
像),予測符号化(predictive-coded)画像(P-画
像),及び双方向予測符号化(bi-directionally predic
tive-coded)画像(B-画像)を含む。さらに,ベース層
はフレームまたはフィールド構造のビデオシーケンスを
含むが,強化層はフレーム構造のみ含む。I画像は他の
画像を参照することなく単一のビデオ画像を完全に説明
する。エラー隠蔽の改良のために,移動ベクトルはI画
像に与えられる。ベース層内のP画像及びB画像の両方
はI画像から予測されるため,I画像内のエラーは表示
されたビデオ上へより大きな衝撃を与えるような潜在性
を有している。さらに,強化層内の画像は,不均衡予測
(disparity prediction)として知られるクロスレイヤー
予測処理において,ベース層内の画像から予測される。
レイヤー内でひとつのフレームから他のフレームへの予
測は時間的予測(temporal prediction)として知られて
いる。
[0007] The MPEG MVP system has three types of video pictures, in particular, intra-coded pictures (I-pictures), predictive-coded pictures (P-pictures), and bi-directional prediction. Encoding (bi-directionally predic
tive-coded) images (B-images). Further, the base layer includes a frame or field structured video sequence, while the enhancement layer includes only a frame structure. An I-picture completely describes a single video picture without reference to other pictures. For improved error concealment, a motion vector is provided to the I-picture. Since both the P and B pictures in the base layer are predicted from the I picture, errors in the I picture have the potential to have a greater impact on the displayed video. In addition, the images in the enhancement layer are
In a cross-layer prediction process known as (disparity prediction), prediction is made from an image in the base layer.
The prediction from one frame to another within a layer is known as temporal prediction.

【0008】ベース層において,P画像は先行Iまたは
P画像に基づいて予測される。先行IまたはP画像から
未来のP画像へ参照がなされ,それは前方予測として知
られる。B画像は近接する先行IまたはP画像及び近接
する後続IまたはP画像から予測される。
In the base layer, the P picture is predicted based on the preceding I or P picture. A reference is made from the preceding I or P picture to a future P picture, which is known as forward prediction. The B image is predicted from a neighboring preceding I or P image and a neighboring succeeding I or P image.

【0009】強化層において,P画像は,(a)強化層内
で最も最近復合化された画像,(b)表示順に最も最近の
ベース層画像,または(c)表示順に次の下位層画像,か
ら予測される。ケース(b)は,表示順に最も最近のベー
ス層画像がI画像であるときに,しばしば使用される。
さらに,強化層内のB画像は,(d)前方予測に対して最
も最近の復合化された強化層画像及び後方予測に対して
表示順に最も最近の下位層画像を使って,(e)前方予測
に対して最も最近復合化された強化層画像及び後方予測
に対して表示順に次の下位層画像を使って,または(f)
前方予測に対して表示順に最も最近の下位層画像及び後
方予測に対して表示順に次の下位層画像を使って,予測
される。表示順に最も最近の下位層画像がI画像であれ
ば,そのI画像のみが予測符号化のために使用される
(例えば,前方予測は存在しない)。
In the enhancement layer, the P image is composed of (a) the most recently decoded image in the enhancement layer, (b) the latest base layer image in display order, or (c) the next lower layer image in display order. Predicted from Case (b) is often used when the most recent base layer image in the display order is an I-image.
In addition, the B image in the enhancement layer is calculated using (d) the most recent decoded enhancement layer image for forward prediction and the latest lower layer image in display order for backward prediction, and (e) forward Using the most recently decoded enhancement layer image for prediction and the next lower layer image in display order for backward prediction, or (f)
The prediction is performed using the most recent lower layer image in display order for forward prediction and the next lower layer image in display order for backward prediction. If the most recent lower layer image in the display order is an I image, only that I image is used for predictive coding (for example, there is no forward prediction).

【0010】予測モードの(a),(b)及び(d)のみがMPEG
MVPシステム内に包含される点に注意すべきである。MVP
システムはMPEG時間測定可能符号化(MPEG temporal sca
lability coding)のサブセットであり,それは(a)〜(f)
の各モードを包含する。
Only the prediction modes (a), (b) and (d) are MPEG
Note that it is included in the MVP system. MVP
The system uses MPEG temporal sca
lability coding) is a subset of (a) to (f)
Mode.

【0011】ひとつの付加的な構成において,強化レイ
ヤーはP及びB画像のみを有し,I画像を有しない。未
来の画像(すなわち,いまだに表示されていない画像)
への参照は後方予測と呼ばれる。後方予測は強化層内で
は生じないことに注意すべきである。したがって,強化
レイヤー画像は表示順に送信される。圧縮率を増加する
際に後方予測が非常に有用であるような状況が存在す
る。例えば,ドアが開くところのシーンで,カレント画
像はドアの後方にあるものをドアがすでに開けられた未
来の画像に基づいて予測されることもできる。
In one additional configuration, the enhancement layer has only P and B images and no I images. Future images (ie, images that have not yet been displayed)
The reference to is called backward prediction. It should be noted that backward prediction does not occur in the enhancement layer. Therefore, the enhancement layer images are transmitted in the display order. There are situations where backward prediction is very useful in increasing the compression ratio. For example, in a scene where a door opens, the current image can be predicted based on a future image in which the door has already been opened, the one behind the door.

【0012】B画像は最大の圧縮を与えるが,最大のエ
ラーも伴う。エラーの伝搬を除去するために,B画像は
ベース層内の他のB画像からは決して予測されてはなら
ない。P画像はより少ないエラー及びより少ない圧縮を
与える。I画像は最小の圧縮を与えるが,ランダムアク
セスを与えることもできる。
B-pictures provide the greatest compression, but also involve the greatest error. To eliminate the propagation of errors, B-pictures must never be predicted from other B-pictures in the base layer. P-pictures give less errors and less compression. I-pictures provide the least compression, but can also provide random access.

【0013】[0013]

【発明が解決しようとする課題】したがって,ベースレ
イヤーにおいて,P画像を復合化するために,先行I画
像またはP画像は有効でなければならない。同様に,B
画像を復合化するために,先行PまたはI画像及び未来
のP及びI画像は有効でなければならない。結果的に,
ビデオ画像は,予測に使用されるすべての画像がそこか
ら予測された画像より前に符号化されるような依存関係
の順序で符号化されかつ送信される。符号化された信号
がデコーダで受信されたとき,ビデオ画像は復合化され
かつ表示用に並べ替えられる。したがって,表示前にデ
ータをバッファするために一時的保存エレメントが要求
される。しかし,比較的大きなデコーダ入力バッファに
対する要求は,デコーダの製造コストの増加をもたら
す。デコーダはできるだけ最低のコストで製造されなけ
ればならない大量生産品であるため,このことは不所望
である。
Therefore, in order to decode a P-picture in the base layer, the preceding I-picture or P-picture must be valid. Similarly, B
In order to decode an image, the preceding P or I image and future P and I images must be valid. as a result,
Video images are encoded and transmitted in a dependency order such that all images used for prediction are encoded before images predicted therefrom. When the encoded signal is received at the decoder, the video image is decoded and reordered for display. Therefore, a temporary storage element is required to buffer the data before display. However, the requirement for a relatively large decoder input buffer results in increased decoder manufacturing costs. This is undesirable because the decoder is a mass product that must be manufactured at the lowest possible cost.

【0014】したがって,強化及びベース層ビデオシー
ケンスの復合化及びプレゼンテーションを同期化する必
要がある。立体ビデオ用の復合化及びプレゼンテーショ
ンの同期化はMVPの特に重要な態様である。立体ビデオ
において2つの像が互いにぴったり結合されていること
は固有であるため,プレゼンテーションまたはディスプ
レイの同期の損失は視聴者に対し目の疲労や頭痛等の多
くの問題を引き起こす。
Therefore, there is a need to synchronize the decoding and presentation of the enhancement and base layer video sequences. Decoding and presentation synchronization for stereoscopic video are particularly important aspects of MVP. Since it is inherent that two images are tightly coupled to each other in stereoscopic video, loss of presentation or display synchronization causes many problems for the viewer, such as eye fatigue and headaches.

【0015】さらに,デジタル圧縮ビットストリームに
対するこの問題を扱う場合の問題点は,NTSCまたはPAL
規格に一致するような非圧縮ビットストリームまたはア
ナログ信号に対するものと異なる。例えば,NTSCまたは
PAL信号に関して,画像は同期して送信され,その結果
クロック信号は画像同期(picture synch)から直接引き
出される。この場合において,2つの像の同期化は画像
同期を使って簡単に達成される。
Further, when dealing with this problem for digitally compressed bit streams, the problem is that NTSC or PAL
Unlike for uncompressed bitstreams or analog signals that match the standard. For example, NTSC or
For the PAL signal, the picture is transmitted synchronously, so that the clock signal is derived directly from picture synch. In this case, synchronization of the two images is easily achieved using image synchronization.

【0016】しかし,デジタル圧縮立体ビットストリー
ムにおいて,各レイヤー内の各画像に対するデータ量
は,変化しまたビット速度,画像符号化タイプ及び場面
の複雑さに依存する。したがって,復合化及びプレゼン
テーションタイミングは画像データの開始から直接引き
出される。すなわち,アナログビデオ送信と違って,デ
ジタル圧縮ビットストリームには同期パルスの自然概念
が存在しない。
However, in a digitally compressed stereoscopic bit stream, the amount of data for each image in each layer varies and depends on bit rate, image coding type and scene complexity. Therefore, the decoding and presentation timing is derived directly from the start of the image data. That is, unlike analog video transmission, digital compression bitstreams do not have the natural concept of synchronization pulses.

【0017】したがって,立体ビデオシーケンスの復合
化及びプレゼンテーションを同期化するためのシステム
を与えることが有利である。該システムはまた画像を連
続的に(例えば,一度に1画像)または並行に(例え
ば,一度に2画像)復合化するデコーダと互換性がなけ
ればならない。さらに,システムは必要なデコーダ入力
バッファサイズを最小化するような最適な画像送信順序
を与えなければならない。本発明は上記及び他の利点を
有する装置を与える。
Therefore, it would be advantageous to provide a system for synchronizing the decoding and presentation of stereoscopic video sequences. The system must also be compatible with decoders that decode images sequentially (eg, one image at a time) or in parallel (eg, two images at a time). In addition, the system must provide an optimal image transmission order that minimizes the required decoder input buffer size. The present invention provides an apparatus having the above and other advantages.

【0018】[0018]

【課題を解決するための手段】本発明にしたがって,立
体ビデオシーケンスの下位層及び強化層のビデオ画像の
送信シーケンスを並べるための方法及び装置が与えられ
る。特に,画像は,プレゼンテーション前に一時的に保
存されるべき画像数が最少化されるような順序で送信さ
れる。さらにまた,各画像に対するデコード・タイム・
スタンプ(DTS)及びプレゼンテーション・タイム・スタ
ンプ(PTS)は,復合化が連続または並行で生じるところ
のデコーダにおいて,下位層及び強化層画像の間の同期
化を与えるべく決定される。
SUMMARY OF THE INVENTION In accordance with the present invention, there is provided a method and apparatus for aligning a transmission sequence of video images of lower and enhancement layers of a stereoscopic video sequence. In particular, the images are transmitted in such an order that the number of images that must be temporarily stored before the presentation is minimized. Furthermore, the decoding time for each image
The stamp (DTS) and the presentation time stamp (PTS) are determined to provide synchronization between the lower layer and enhancement layer images in the decoder where the decoding occurs in a continuous or parallel manner.

【0019】特に,強化層が対応する下位層画像を使っ
て予測される不均衡予測画像を含むところの,立体ビデ
オ信号の下位層及び強化層内のビデオ画像シーケンスの
送信を順序づけるための方法が与えられる。該方法は,
不均衡予測された強化層画像が対応するそれぞれの下位
層画像の後に送信されるようにビデオ画像を順序づける
工程を含む。
In particular, a method for ordering the transmission of a video image sequence within a lower layer and an enhancement layer of a stereoscopic video signal, wherein the enhancement layer includes an unbalanced predicted image predicted using a corresponding lower layer image. Is given. The method comprises:
Ordering the video images such that the unbalanced predicted enhancement layer images are transmitted after the corresponding respective lower layer images.

【0020】第1の実施例において,下位層は連続画像
のILi,ILi+1,ILi+2,ILi+3,ILi+4などを含む内部符号化
画像(I画像)のみ含み,対応する強化層画像はHEi,H
Ei+1,HEi+2,HEi+3,HEi+4などによって表される。この場
合,ビデオ画像は,ILi,ILi+1,HEi,ILi+2,HEi+1,ILi+3,
HEi+2,ILi+4,HEi+3の順序で送信される(例えば,シー
ケンス1)。
In the first embodiment, the lower layer is only the inner coded image (I image) including the continuous images I Li , I Li + 1 , I Li + 2 , I Li + 3 , I Li + 4, etc. Included and corresponding enhancement layer images are H Ei , H
It is represented by Ei + 1 , HEi + 2 , HEi + 3 , HEi + 4, and so on. In this case, the video images are I Li , I Li + 1 , H Ei , I Li + 2 , H Ei + 1 , I Li + 3 ,
H Ei + 2 , I Li + 4 , and H Ei + 3 are transmitted in this order (for example, sequence 1).

【0021】替わって,第2実施例において,ビデオ画
像は,ILi,HEi,ILi+1,HEi+1,ILi+2,HEi+2,ILi+3,HEi+3
の順序で送信される(例えば,シーケンス2)。
Alternatively, in the second embodiment, the video images are I Li , H Ei , I Li + 1 , H Ei + 1 , I Li + 2 , H Ei + 2 , I Li + 3 , H Ei + Three
(For example, sequence 2).

【0022】第3の実施例において,下位層は連続画像
のILi,PLi+1,PLi+2,PLi+3,及びPLi+4などを含む内部符
号化画像(I画像)及び予測符号化画像(P画像)のみ
を含み,対応する強化層画像は,HEi,HEi+1,HEi+2,H
Ei+3及びHEi+4などによってそれぞれ表される。ここ
で,ビデオ画像はILi,PLi+1,HEi,PLi+2,HEi+1,PLi+3,H
Ei+2,PLi+4,HEi+3などの順序で送信される(例えば,シ
ーケンス3)。
In the third embodiment, the lower layer is an inner coded image (I image) including the continuous images I Li , P Li + 1 , P Li + 2 , P Li + 3 , and P Li + 4. And only the prediction-encoded image (P image), and the corresponding enhancement layer images are H Ei , H Ei + 1 , H Ei + 2 , H Ei
They are represented by Ei + 3 and HE + 4 , respectively. Here, the video images are I Li , P Li + 1 , H Ei , P Li + 2 , H Ei + 1 , P Li + 3 , H
It is transmitted in the order of Ei + 2 , P Li + 4 , H Ei + 3, etc. (for example, sequence 3).

【0023】替わって,第4の実施例において,ビデオ
画像は,ILi,HEi,PLi+1,HEi+1,PLi+2,HEi+2,PLi+3,H
Ei+3などの順序で送信される(例えば,シーケンス
4)。
Alternatively, in the fourth embodiment, the video images are I Li , H Ei , P Li + 1 , H Ei + 1 , P Li + 2 , H Ei + 2 , P Li + 3 , H
They are transmitted in the order of Ei + 3 (for example, sequence 4).

【0024】第5の実施例において,下位層は連続画像
のILi,BLi+1,PLi+2,BLi+3,PLi+4,BLi+5,PLi+6,などを含
む,内部符号化画像(I画像),予測符号化画像(P画
像)及び非連続双方向予測符号化画像(B画像)を含
み,対応する強化層画像はHEi,HEi+1,HEi+2,HEi+3,H
Ei+4,HEi+5,HEi+6などによってそれぞれ表される。ビデ
オ画像はILi,PLi+2,BLi+1,HEi,HEi+1,PLi+4,BLi+3,H
Ei+2,HEi+3などの順序で送信される(例えば,シーケン
ス5)。
In the fifth embodiment, the lower layers are I Li , B Li + 1 , P Li + 2 , B Li + 3 , P Li + 4 , B Li + 5 , P Li + 6 , etc. of the continuous image. , And the corresponding enhancement layer images are H Ei , H Ei + 1 , H Ei + 2 , H Ei + 3 , H
Ei + 4 , H Ei + 5 , H Ei + 6 and so on. Video images are I Li , P Li + 2 , B Li + 1 , H Ei , H Ei + 1 , P Li + 4 , B Li + 3 , H
It is transmitted in the order of Ei + 2 , HEi + 3, etc. (for example, sequence 5).

【0025】替わって,第6の実施例において,ビデオ
画像はILi,HEi,PLi+2,BLi+1,HEi+1,HEi+2,PLi+4,BLi+3,
HEi+3,HEi+4などの順序で送信される(例えば,シーケ
ンス6)。
Alternatively, in the sixth embodiment, the video images are I Li , H Ei , P Li + 2 , B Li + 1 , H Ei + 1 , H Ei + 2 , P Li + 4 , B Li + 3 ,
It is transmitted in the order of H Ei + 3 , H Ei + 4, etc. (for example, sequence 6).

【0026】替わって,第7の実施例において,ビデオ
画像はILi,PLi+2,HEi,BLi+1,HEi+1,PLi+4,HEi+2,BLi+3,
HEi+3などの順序で送信される(例えば,シーケンス
7)。
Alternatively, in the seventh embodiment, the video images are I Li , P Li + 2 , H Ei , B Li + 1 , H Ei + 1 , P Li + 4 , H Ei + 2 , B Li + 3 ,
The transmission is performed in the order of H Ei + 3 (for example, sequence 7).

【0027】第8の実施例において,下位層は連続画像
のILi,BLi+1,BLi+2,PLi+3,BLi+4,BLi+5,PLi+6などを含
む,内部符号化画像(I画像),予測符号化画像(P画
像)及び連続双方向予測符号化画像(B画像)を含み,
対応する強化層画像はHEi,HEi+1,HEi+2,HEi+3,HEi+4,H
Ei+5,HEi+6などによってそれぞれ表される。ビデオ画像
はILi,PLi+3,BLi+1,HEi,BLi+2,HEi+1,HEi+2,PLi+6,B
Li+4,HEi+3,BLi+5,HEi+4,HEi+5などの順序で送信される
(例えば,シーケンス8)。
In the eighth embodiment, the lower layers include the continuous images I Li , B Li + 1 , B Li + 2 , P Li + 3 , B Li + 4 , B Li + 5 , P Li + 6, etc. Including an intra-coded image (I-picture), a predictive-coded picture (P-picture) and a continuous bidirectional predictive-coded picture (B-picture)
The corresponding enhancement layer images are H Ei , H Ei + 1 , H Ei + 2 , H Ei + 3 , H Ei + 4 , H
Ei + 5 , H Ei + 6, etc., respectively. Video images are I Li , P Li + 3 , B Li + 1 , H Ei , B Li + 2 , H Ei + 1 , H Ei + 2 , P Li + 6 , B
It is transmitted in the order of Li + 4 , HEi + 3 , BLi + 5 , HEi + 4 , HEi + 5 (for example, sequence 8).

【0028】替わって,第9の実施例において,ビデオ
画像はILi,HEi,PLi+3,BLi+1,HEi+1,BLi+2,HEi+2,HEi+3,
PLi+6,BLi+4,HEi+4,BLi+5,HEi+5,HEi+6などの順序で送
信される(例えば,シーケンス9)。
Alternatively, in the ninth embodiment, the video images are I Li , H Ei , P Li + 3 , B Li + 1 , H Ei + 1 , B Li + 2 , H Ei + 2 , H Ei + 3 ,
The transmission is performed in the order of P Li + 6 , B Li + 4 , H Ei + 4 , B Li + 5 , H Ei + 5 , H Ei + 6 (for example, sequence 9).

【0029】替わって,第10の実施例において,ビデ
オ画像はILi,PLi+3,HEi,BLi+1,HEi+1,BLi+2,HEi+2,P
Li+6,HEi+3,BLi+4,HEi+4,BLi+5,HEi+5などの順序で送信
される(例えば,シーケンス10)。
Alternatively, in the tenth embodiment, the video images are I Li , P Li + 3 , H Ei , B Li + 1 , H Ei + 1 , B Li + 2 , H Ei + 2 , P
It is transmitted in the order of Li + 6 , HE + 3 , B + 4 , HE + 4 , B + 5 , HE + 5 (for example, sequence 10).

【0030】対応する装置もまた与えられる。A corresponding device is also provided.

【0031】付加的に,レシーバは下位層及び強化層を
含む立体信号のビデオ画像のシーケンスを処理するため
に与えられる。レシーバはメモリ,減圧/予測プロセッ
サ,及びメモリ及びプロセッサと協働するメモリマネー
ジャを含む。メモリマネージャは,不均衡予測された強
化層画像の対応するものの前に下位層画像が減圧/予測
プロセッサによって処理されるように,メモリ内への選
択された下位層画像の保存をスケジュール化する。さら
に,復合化は連続または並行に生じ得る。
[0031] Additionally, a receiver is provided for processing a sequence of video images of the stereo signal including the lower layer and the enhancement layer. The receiver includes a memory, a decompression / prediction processor, and a memory manager that cooperates with the memory and the processor. The memory manager schedules the storage of the selected lower layer image in memory such that the lower layer image is processed by the decompression / prediction processor before the corresponding one of the unbalanced predicted enhancement layer images. In addition, the decryption can occur sequentially or in parallel.

【0032】[0032]

【発明の実施の形態】立体ビデオ画像シーケンスの復合
化及びプレゼンテーションを同期化するための方法及び
装置が与えられる。
DETAILED DESCRIPTION A method and apparatus for synchronizing the decoding and presentation of a stereoscopic video image sequence is provided.

【0033】図1は立体ビデオ用のコーダ/デコーダの
ブロック図である。MPEG MVP規格及び同様の装置は,下
位層及び強化層を含む2つのビデオ層の符号化を伴う。
そのような応用に対し,下位層は左像に割り当てられ,
強化層は右像に割り当てられる。図1のコーダ/デコー
ダ(例えば,codec)構造において,下位層及び強
化層ビデオシーケンスは一時的リマルチプレクサ(tempo
ral remux)105によって受信される。時間分割多重化(TD
MX)を使って,強化層ビデオは強化エンコーダ110に与え
られ,一方ベース層ビデオは下位エンコーダ115に与え
られる。下位層ビデオデータは不均衡予測用に強化エン
コーダ110に与えられることに注意すべきである。
FIG. 1 is a block diagram of a coder / decoder for stereoscopic video. The MPEG MVP standard and similar devices involve the encoding of two video layers, including a lower layer and an enhancement layer.
For such applications, the lower layers are assigned to the left image,
The enhancement layer is assigned to the right image. In the coder / decoder (eg, codec) structure of FIG. 1, the lower layer and enhancement layer video sequences are temporarily remultiplexed (tempo).
ral remux) 105. Time division multiplexing (TD
Using MX), the enhancement layer video is provided to enhancement encoder 110, while the base layer video is provided to lower encoder 115. It should be noted that the lower layer video data is provided to the enhancement encoder 110 for imbalance prediction.

【0034】その後,符号化された強化及びベース層は
移送ストリームとしてデコーダへ送信するためにシステ
ムマルチプレクサ120へ与えられる。典型的に,送信経
路はケーブルシステムヘッドエンドへの衛星リンクまた
は直接に消費者の家庭への衛星を通じるものである。デ
コーダ122において,移送ストリームはシステムデマル
チプレクサ125においてデマルチプレクスされる。符号
化された強化層データは強化デコーダ130へ与えられ,
一方符号化された下位層データは下位デコーダ135へ与
えられる。好適には,復合化は並行処理で下位層及び強
化層と同時に実行される点に注意すべきである。他に,
強化デコーダ130及び下位デコーダ135が共通の処理ハー
ドウエアを共有してもよく,その場合復合化は一度に一
つの画像ずつ連続的に実行される。
Thereafter, the encoded enhancement and base layers are provided to a system multiplexer 120 for transmission as a transport stream to a decoder. Typically, the transmission path is through a satellite link to the cable system headend or directly to the consumer's home. At the decoder 122, the transport stream is demultiplexed at the system demultiplexer 125. The encoded enhancement layer data is provided to enhancement decoder 130,
On the other hand, the encoded lower layer data is supplied to lower decoder 135. It should be noted that the decryption is preferably performed concurrently with the lower and enhancement layers simultaneously. other,
The enhancement decoder 130 and the lower decoder 135 may share common processing hardware, in which case the decoding is performed continuously one image at a time.

【0035】復合化された下位層データは独立のデータ
ストリームとして下位デコーダ135から出力され,それ
はまた一時的リマルチプレクサ140へ与えられる。一時
的リマルチプレクサ140において,復合化されたベース
層データ及び復合化された強化層データは図示されるよ
うな強化層出力信号を与えるべく組み合わされる。その
後,強化及び下位層出力信号が表示用のディスプレイ装
置へ与えられる。
The decoded lower layer data is output from lower decoder 135 as an independent data stream, which is also provided to temporary remultiplexer 140. In temporary remultiplexer 140, the decoded base layer data and the decoded enhancement layer data are combined to provide an enhancement layer output signal as shown. Thereafter, the enhanced and lower layer output signals are provided to a display device for display.

【0036】さらに,下位層及び強化層の両方に対する
符号化ビットストリームは,デコーダがすでに復合化ず
みのフレームまたはフィールドのみに依存してあらゆる
フレームまたはフィールドを復合化することができるよ
うに,システムマルチプレクサ120において多重化され
なければならない。しかし,この問題は,P及びB画像
に対する予測モードが下位層及び強化層では異なるとい
う事実によって複雑化している。さらにまた,強化層画
像は常にプレゼンテーション順(例えば,ディスプレイ
順)に送信されるが,下位層ではしばしばそうではな
い。したがって,復合化及びディスプレイが適正な順序
で生じるように,しばしばデコーダにおいてビデオ画像
を保存しかつ並べ替える必要がある。
Furthermore, the coded bitstreams for both the lower layer and the enhancement layer are encoded in a system multiplexer so that the decoder can decode every frame or field only depending on the already decoded frames or fields. Must be multiplexed at 120. However, this problem is complicated by the fact that the prediction modes for P and B pictures are different for the lower and enhancement layers. Furthermore, enhancement layer images are always transmitted in presentation order (eg, display order), but often not in lower layers. Therefore, it is often necessary to store and reorder the video images at the decoder so that the decoding and display occur in the proper order.

【0037】付加的に,下位層及び強化層のデータの復
合化及びプレゼンテーションを同期化させる際に困難が
生じる。上記したように,下位層及び強化層に対するビ
デオビットストリームは2つの基本ビデオストリームと
して送信される。移送ストリームに対し,移送ストリー
ムパケットの2つのパケット識別子(PID)が2つの層に
対する移送ストリームプログラムマップセクション内に
特定されている。さらにまた,タイミング情報がデコー
ダでのタイミング比較用のリファレンスとして機能する
よう下位層用の選択パケットの付加フィールド内(例え
ば,PCR_PIDフィールド内)に運ばれる。特に,27MHzク
ロックのサンプルはプログラム_クロック_リファレンス
(PCR)フィールド内で送信される。より厳密には,ここ
に参考文献として組み込む,MPEG-2システムドキュメン
ト ITU-T Rec. H.262, ISO/IEC 13818-1, April 27, 19
95に記載されるように,サンプルはプログラム_クロッ
ク_リファレンス_ベース及びプログラム_クロック_リフ
ァレンス_拡張フィールド内で運ばれる。さらに詳細なM
PEG規格に関しては,ここに参考文献として組み込むド
キュメント ISO/IEC JTC1/SC29/WG11 N0702,題名"Infor
mation Technology -Generic Coding of Moving Pictur
es and Assosiated Audio, Recommendation H.262",199
4年3月25日に記載されている。
Additionally, difficulties arise in synchronizing the decoding and presentation of the data in the lower and enhancement layers. As described above, the video bitstreams for the lower and enhancement layers are transmitted as two elementary video streams. For a transport stream, two packet identifiers (PIDs) of the transport stream packets are specified in the transport stream program map section for the two layers. Furthermore, the timing information is carried in an additional field (for example, in a PCR_PID field) of the lower layer selection packet so as to function as a reference for timing comparison in the decoder. In particular, the sample of the 27 MHz clock is program_clock_reference
Sent in the (PCR) field. More precisely, the MPEG-2 system document ITU-T Rec. H.262, ISO / IEC 13818-1, April 27, 19, which is incorporated herein by reference.
As described in 95, the samples are carried in the program_clock_reference_base and program_clock_reference_extension fields. More detailed M
Regarding the PEG standard, the document incorporated here as a reference is ISO / IEC JTC1 / SC29 / WG11 N0702, titled "Infor
mation Technology -Generic Coding of Moving Pictur
es and Assosiated Audio, Recommendation H.262 ", 199
It is listed on March 25, 4 years.

【0038】PCRはデコーダにおけるビットストリーム
からのフィールドの読み込み完了の予定時間を示す。デ
コーダでの局所的クロック実行の位相は,ビデオ,オー
ディオ及びその他のデータの復合化が同期化しているか
どうかを決定するためにPCR値が得られる瞬間のビット
ストリーム内のPCR値と比較される。さらに,デコーダ
内のサンプルクロックはPCR値から引き出されるシステ
ムクロックへロックされる。PCR値はITU-T Rec. H.262
ISO/IEC 13818-1に説明された方程式を使って以下のよ
うに計算される。
The PCR indicates the expected time of completion of reading of the field from the bit stream in the decoder. The phase of the local clock execution at the decoder is compared to the PCR value in the bit stream at the moment when the PCR value is obtained to determine if the decoding of the video, audio and other data is synchronized. Further, the sample clock in the decoder is locked to the system clock derived from the PCR value. PCR value is ITU-T Rec. H.262
It is calculated as follows using the equations described in ISO / IEC 13818-1.

【0039】PCR(i)=PCR_base(i) × 300 + PCR_ext
(i), ここで,PCR_base(i)=((システム_クロック_周波数 ×
t(i))DIV300)%233,及びPCR_ext(i)=((システム_クロッ
ク_周波数 × t(i))DIV 1)%300,ここで記号%はモジュ
ーロ演算を示す。
PCR (i) = PCR_base (i) × 300 + PCR_ext
(i), where PCR_base (i) = ((system_clock_frequency ×
t (i)) DIV300)% 2 33, and PCR_ext (i) = ((System _ clock _ frequency × t (i)) DIV 1 )% 300, wherein the symbol% indicates a modulo operation.

【0040】同様の方法で,立体ビデオ信号のプログラ
ムストリームに対し,タイミング情報がシステム_クロ
ック_リファレンス(SCR)フィールド内の27MHzクロック
のサンプルとしてパケットヘッダ内で運ばれる。SCR値
はITU-T Rec. H.262 ISO/IEC 13818-1に説明された方程
式を使って以下のように計算される。
In a similar manner, for a program stream of a stereoscopic video signal, timing information is carried in the packet header as a 27 MHz clock sample in the system_clock_reference (SCR) field. The SCR value is calculated as follows using the equation described in ITU-T Rec. H.262 ISO / IEC 13818-1.

【0041】SCR(i)=SCR_base(i) × 300 + SCR_ext
(i), ここで,SCR_base(i)=((システム_クロック_周波数 ×
t(i))DIV300)%233,及びSCR_ext(i)=((システム_クロッ
ク_周波数 × t(i))DIV 1)%300。
SCR (i) = SCR_base (i) × 300 + SCR_ext
(i), where SCR_base (i) = ((system_clock_frequency ×
t (i)) DIV300)% 2 33, and SCR_ext (i) = ((System _ clock _ frequency × t (i)) DIV 1 )% 300.

【0042】下位層及び強化層の両方におけるビデオパ
ケットの識別は2つのストリーム識別子としてのプログ
ラム・ストリーム・マップ内で特定される。移送ストリ
ーム及びプログラムストリームの両方に対して,立体ビ
デオ用の復合化及びプレゼンテーション処理の同期化が
パケット化された基本ストリーム(PES)パケット内で与
えられる。特に,プレゼンテーション・タイム・スタン
プ(PTS)及び/またはデコーディング・タイム・スタン
プ(DTS)はPESヘッダの付加的フィールド内に与えられ
る。
The identification of video packets at both the lower and enhancement layers is specified in the program stream map as two stream identifiers. For both transport and program streams, synchronization of the decoding and presentation processing for stereoscopic video is provided in packetized elementary stream (PES) packets. In particular, the presentation time stamp (PTS) and / or the decoding time stamp (DTS) are provided in an additional field of the PES header.

【0043】PESパケットは移送またはプログラムのパ
ケット化以前に各基本ビデオストリームに対して与えら
れる。もしPTS及び/またはDTSをデコーダに送る必要が
あれば,新しいPESパケットがPESストリーム内に与えら
れる。したがって,同期化のためのひとつの重要な要因
は正確にPTS及びDTSを計算することである。PTS及びDTS
は,ITU-T Rec. H.262 ISO/IEC 13818-1に説明された移
送ストリームシステムターゲットデコーダ(T-STD),ま
たはプログラムストリームシステムターゲットデコーダ
(P-STD)などの仮想的なデコーダモデルに基づいたエン
コーダによって決定される。
A PES packet is provided for each elementary video stream prior to transport or packetization of the program. If PTS and / or DTS needs to be sent to the decoder, a new PES packet is provided in the PES stream. Therefore, one important factor for synchronization is to calculate PTS and DTS accurately. PTS and DTS
Is the transport stream system target decoder (T-STD) described in ITU-T Rec. H.262 ISO / IEC 13818-1, or the program stream system target decoder.
It is determined by an encoder based on a virtual decoder model such as (P-STD).

【0044】PTS及びDTSの両方の値は,単位あたり90kH
zを与える300に分割されたシステムクロック周波数の単
位期間内で特定される。特に,ITU-T Rec. H.262 ISO/I
EC 13818-1に説明されるように, PTS(k)=((システム_クロック_周波数 × tpn(k))DIV30
0)%233, ここで,tpn(k)はプレゼンテーション単位Pn(k)のプレ
ゼンテーション時間である。同様に, DTS(j)=((システム_クロック_周波数 × tdn(k))DIV30
0)%233, ここで,tdn(k)はアクセス単位An(j)の復合化時間であ
る。このように,ビデオDTSは画像がSTDによって復合化
されるべく要求される時間を指示する。ビデオPTSは復
合化された画像が視聴者に(例えば,テレビ画面上に表
示されて)与えられるべき時間を示す。さらに,PTS及
びDTSによって指示された時間はカレントPCRまたはSCR
値に関して評価される。
The value of both PTS and DTS is 90 kHz per unit.
Specified within a unit period of the system clock frequency divided by 300 giving z. In particular, ITU-T Rec. H.262 ISO / I
PTS (k) = ((system_clock_frequency × tpn (k)) DIV30 as described in EC 13818-1
0)% 2 33 , where tpn (k) is the presentation time of the presentation unit Pn (k). Similarly, DTS (j) = ((system_clock_frequency × tdn (k)) DIV30
0)% 2 33, where, tdn (k) is the recovery Goka time access unit An (j). Thus, the video DTS indicates the time at which an image is required to be decoded by the STD. The video PTS indicates the time at which the decoded image is to be provided to the viewer (eg, displayed on a television screen). In addition, the time indicated by PTS and DTS is the current PCR or SCR
Evaluated for value.

【0045】ビデオビットストリームは理論的なSTDモ
デル内で即座に復合化される。しかし,もしB画像が立
体ビットストリームの下位層内に存在すれば,該ビット
ストリームはプレゼンテーション(例えば,ディスプレ
イ)順にデコーダに到着する。そのような場合におい
て,いくつかのI及び/またはP画像は,復合化された
後の適当なプレゼンテーション時間までの間,STD内の
デコーダバッファ内に一時的に保存されなければならな
い。しかし,強化層に関して,すべての画像はプレゼン
テーション順でデコーダに到着し,その結果PTS及びDTS
値は同一または固定間隔だけオフセットされなければな
らない。
The video bitstream is immediately decoded in the theoretical STD model. However, if the B-picture is in a lower layer of the stereoscopic bitstream, the bitstream arrives at the decoder in presentation (eg, display) order. In such a case, some I and / or P images must be temporarily stored in the decoder buffer in the STD until the appropriate presentation time after decoding. However, for the enhancement layer, all images arrive at the decoder in presentation order, so that PTS and DTS
The values must be offset by the same or fixed intervals.

【0046】下位層及び強化層シーケンスを同期化する
ために,下位層及び強化層内の対応する画像は同じPTS
を有しなければならない。MPEG-2メインプロファイルに
対するDTSを計算する現在の方法は,下位層内のDTS,例
えば,DTSL(ここで,"L"は下位層を示す)の計算に関
して使用される。後続のPTS及びDTS値は対応するDTSL
参照する。特に,DTSLi及びPTSLiは,下位層内のi番目
の画像に対するDTS及びPTSをそれぞれ示す。また,DTS
Ei及びPTSEiは,強化層内のi番目の画像に対するDTS及
びPTSをそれぞれ示す。その際,連続画像のプレゼンテ
ーションの間の時間間隔Fは,F = 90×103/フレーム速
度として定義される。例えば,NTSC規格の下で,29.97
フレーム/秒のフレーム速度について,F=3,003である。
Fは90kHzクロックサイクルにおける公称フレーム時間間
隔であり,3,003サイクル/90kHz=0.03336秒の実際の経
過時間に対応する。PAL規格の下では,25フレーム/秒の
フレーム速度に関してF=3,600である。
To synchronize the lower layer and enhancement layer sequences, the corresponding images in the lower layer and the enhancement layer have the same PTS
Must have. The current method of calculating the DTS for the MPEG-2 main profile is used for calculating the DTS in the lower layer, eg, DTS L (where “L” indicates the lower layer). Subsequent PTS and DTS values refer to the corresponding DTS L. In particular, DTS Li and PTS Li indicate the DTS and PTS for the ith image in the lower layer, respectively. DTS
Ei and PTS Ei indicate the DTS and PTS, respectively, for the ith image in the enhancement layer. The time interval F between the presentation of successive images is then defined as F = 90 × 10 3 / frame rate. For example, under the NTSC standard, 29.97
For a frame rate of frames / sec, F = 3,003.
F is the nominal frame time interval in a 90 kHz clock cycle, corresponding to an actual elapsed time of 3,003 cycles / 90 kHz = 0.03336 seconds. Under the PAL standard, F = 3,600 for a frame rate of 25 frames / sec.

【0047】さらに,下位層及び強化層シーケンスの同
期化はビデオシーケンスの送信及びディスプレイ順に密
接に依存している。概して,非立体ビデオ信号に対する
MPEG-2規格は,I画像,P画像及びB画像がベース層内
のシーケンス内で取らねばならない特別の分布を特定化
しないが,異なる分布に対し異なる程度の圧縮及びラン
ダムアクセス能力をもたらす。ひとつの可能な分布にお
いて,ベース層内の各画像はI画像である。他の可能な
分布において,I及びP画像の両方が与えられるか,
I,P及び非連続的に与えられるところのB画像が与え
られるか,またはI,P及び2つが連続して与えられる
ところのB画像が与えられる。概して,3つ以上の連続
B画像は映像品質が低いことより使用されていない。強
化層において,B画像及びP画像が与えられ,またI画
像も付加的に与えられ得る。
Furthermore, the synchronization of the lower layer and enhancement layer sequences depends closely on the transmission and display order of the video sequence. Generally, for non-stereo video signals
The MPEG-2 standard does not specify a particular distribution that the I, P, and B images must take within the sequence in the base layer, but provides different degrees of compression and random access capabilities for different distributions. In one possible distribution, each image in the base layer is an I image. In other possible distributions, both I and P images are given,
Either the I, P and B images provided discontinuously are provided, or the I, P and B images provided two consecutively are provided. Generally, three or more consecutive B images are not used due to poor video quality. In the enhancement layer, a B image and a P image are provided, and an I image may additionally be provided.

【0048】図2は,本発明の装置で使用するための強
化層画像シーケンス及び第1ベース層画像シーケンスを
図示したものである。ここで,下位層はI画像のみを含
む。強化層画像シーケンスは200で示され,下位層シー
ケンスは250で示される。シーケンス200及び250はディ
スプレイ順で示されている。各画像は,画像タイプ(例
えば,I,BまたはP),層の指示(例えば,強化層に
対して"E"及び下位層に対して"L"),及び添字"0"はシ
ーケンス内のゼロ番目の画像でありまた"1"はシーケン
ス内の最初の画像であるところの画像の連続的配置,を
示すべくラベル化されている。
FIG. 2 illustrates an enhancement layer image sequence and a first base layer image sequence for use in the apparatus of the present invention. Here, the lower layer includes only the I image. The enhancement layer image sequence is indicated by 200 and the lower layer sequence is indicated by 250. Sequences 200 and 250 are shown in display order. Each image has an image type (eg, I, B or P), a layer indication (eg, “E” for enhancement layers and “L” for lower layers), and a subscript “0” in the sequence. The zeroth image and a "1" is labeled to indicate the contiguous arrangement of the image, which is the first image in the sequence.

【0049】強化層200は画像IE0(202),BE1(204),BE2(2
06),PE3(208),BE4(210),BE5(212),PE6(214),BE7(216),B
E8(218),PE9(220),BE10(222),BE11(224)及びIE12(226)
を含む。しかし,示された特定の強化層シーケンスは一
例にすぎない。図2〜5を含めここで議論されるあらゆ
る強化層シーケンスにおいて,強化層はディスプレイ順
に送信されるため特定の強化層画像タイプに制限されな
い。したがって,あらゆる強化層画像は一般画像タイプ
(例えば,HEi(ここで"H"は画像タイプを示す))であ
ると考えられる。
The enhancement layer 200 is composed of the images I E0 (202), B E1 (204), B E2 (2
06), P E3 (208), B E4 (210), B E5 (212), P E6 (214), B E7 (216), B
E8 (218), P E9 (220), B E10 (222), B E11 (224) and I E12 (226)
including. However, the particular enhancement layer sequence shown is only an example. In any of the enhancement layer sequences discussed herein, including FIGS. 2-5, the enhancement layers are transmitted in display order and are not limited to a particular enhancement layer image type. Thus, any enhancement layer image is considered to be of a general image type (eg, HEi (where "H" indicates an image type)).

【0050】下位層250は,この例において,IL0(252),
IL1(254),IL2(256),IL3(258),IL4(260),IL5(262),IL6(2
64),IL7(266),IL8(268),IL9(270),IL10(272),IL11(274)
及びIL12(276)を含むI画像のみを含む。付加的に,各
シーケンスごとの画像グループ(GOP)の開始が示されて
いる。GOPは他のGOP内の画像を参照せずに復合化される
一つ以上の連続画像を示す。概して,下位層及び強化層
のGOPは並んでおらず,また異なる長さを有する。例え
ば,強化層200内の最初のGOPの開始は画像IE0(202)で示
されるが,第2GOPの開始は画像IE12(226)である。同様
に,下位層250内の第1GOPの開始は画像IL2(256)で示さ
れ,第2GOPの開始は画像IL8(268)である。
The lower layer 250 is, in this example, I L0 (252),
I L1 (254), I L2 (256), I L3 (258), I L4 (260), I L5 (262), I L6 (2
64), IL7 (266), IL8 (268), IL9 (270), IL10 (272), IL11 (274)
And I L12 (276). Additionally, the start of an image group (GOP) for each sequence is shown. The GOP indicates one or more continuous images to be decoded without referring to images in other GOPs. In general, the GOPs of the lower and enhancement layers are not side by side and have different lengths. For example, the start of the first GOP in enhancement layer 200 is indicated by image I E0 (202), while the start of the second GOP is image I E12 (226). Similarly, the start of the first GOP in lower layer 250 is indicated by image I L2 (256), and the start of the second GOP is image I L8 (268).

【0051】さらに,図2で示される矢印は,矢の先端
によって示される画像が矢の後端に結合された画像に基
づいて予測されるような許容予測モードを示す。例え
ば,画像BE1(204)は画像IL1(254)から予測される。I画
像は予測符号化されず,独立である。
Further, the arrow shown in FIG. 2 indicates an allowable prediction mode in which the image indicated by the tip of the arrow is predicted based on the image connected to the rear end of the arrow. For example, image BE1 (204) is predicted from image IL1 (254). I-pictures are not predictive coded and are independent.

【0052】図2の画像ディスプレイ順に関して,本発
明に従うIL2で始まる有利な送信シーケンスは,IL2,
BE1,IL3,BE2,IL4,PE3,IL5,BE4,IL6,BE5,IL7,PE6,IL8,B
E7,IL9,BE8,IL10,PE9,IL11,BE10,IL12,BE11など(シー
ケンス1)である。この画像順に関して,デコーダに到
着する各予測符号化画像は復合化前に並べ替えられなく
てもよい。したがって,デコーダでの保存及び処理の必
要性は減少し,それによってデコーダのコストが減少す
る。他の適当な画像送信シーケンスは,IL2,BE2,IL3,P
E3,IL4,BE4,IL5,BE5,IL6,PE6,IL7,BE7,IL8,BE8,IL9,
PE9,IL10,BE10,IL11,BE11,IL12,IE12など(シーケンス
2)である。
With respect to the image display order of FIG. 2, an advantageous transmission sequence starting with I L2 according to the invention is I L2 ,
B E1, I L3, B E2 , I L4, P E3, I L5, B E4, I L6, B E5, I L7, P E6, I L8, B
E7 , IL9 , BE8 , IL10 , PE9 , IL11 , BE10 , IL12 , BE11, etc. (sequence 1). With respect to this picture order, each prediction coded picture arriving at the decoder does not have to be rearranged before decoding. Thus, the need for storage and processing at the decoder is reduced, thereby reducing the cost of the decoder. Other suitable image transmission sequences are IL2 , BE2 , IL3 , P
E3, I L4, B E4, I L5, B E5, I L6, P E6, I L7, B E7, I L8, B E8, I L9,
P E9 , I L10 , B E10 , I L11 , B E11 , I L12 , I E12, etc. (sequence 2).

【0053】これらの画像送信シーケンスに関して,す
べての画像はプレゼンテーション順にデコーダに到着す
る。さらに,各画像に対し適当なPTS及びDTSを決定する
ことが可能である。最初に,i番目の下位層画像のDTSの
DTSLiを仮定することが知られている。
With respect to these image transmission sequences, all images arrive at the decoder in presentation order. Further, it is possible to determine an appropriate PTS and DTS for each image. First, the DTS of the i-th lower layer image
It is known to assume DTS Li .

【0054】特定の例として,図2の第1画像送信シー
ケンス1に関して,以下の表1に示されるような復合化
及び呈示(presenting)が生じる。ここで,連続的な復合
化が仮定されている。表1において,第1列は開始時間
としてDTSL2を使った増分0.5Fの時間を示し,第2列は
下位層画像の復合化時間を示し,第3列は強化層画像の
復合化時間を示し,第4列は下位層及び強化層画像のプ
レゼンテーション時間を示す。
As a specific example, for the first image transmission sequence 1 of FIG. 2, decoding and presenting occur as shown in Table 1 below. Here, continuous decryption is assumed. In Table 1, the first column indicates the time of 0.5F increment using DTS L2 as the start time, the second column indicates the decoding time of the lower layer image, and the third column indicates the decoding time of the enhancement layer image. The fourth column shows the presentation time of the lower layer and enhancement layer images.

【0055】[0055]

【表1】 ここで,2つの復合化された画像に対してのみ保存が必
要である。例えば,IL2及びIL3が復合化されかつBE2
受信される前に保存される。受信されると,BE2はすぐ
に復合化されプレゼンテーション用に実質的にIL2と同
時に出力される。
[Table 1] Here, it is necessary to save only the two decoded images. For example, IL2 and IL3 are decrypted and stored before BE2 is received. When received, B E2 is substantially outputted at the same time as I L2 for immediately Fukugo of presentation.

【0056】さらにまた,下位または強化シーケンスの
いずれかにおけるi番目画像に対し,DTS及びPTSが以下
のようにDTSLiから決定される。
Furthermore, for the ith image in either the lower order or the enhancement sequence, the DTS and PTS are determined from DTS Li as follows.

【0057】PTSLi=DTSLi+1.5F DTSEi=DTSLi+1.5F PTSEi=PTSLi 例えば,図2内のPE3(208)に対するPTSは1.5FとIL3に対
するDTSの和に等しい。したがって,PE3の復合化及びプ
レゼンテーションは1.5画像時間間隔(すなわち,1.5
F)だけIL3の復合化に遅れる。
[0057] PTS Li = DTS Li + 1.5F DTS Ei = DTS Li + 1.5F PTS Ei = PTS Li e.g., PTS for P E3 (208) in FIG. 2 is equal to the sum of DTS for 1.5F and I L3. Therefore, Fukugo size and presentation 1.5 image time interval P E3 (i.e., 1.5
F) only delayed the recovery Goka of I L3.

【0058】図2の第2画像移送シーケンスに関して,
復合化及び呈示は以下の表2に記載されているように生
じる。
Regarding the second image transfer sequence of FIG.
Decryption and presentation occurs as described in Table 2 below.

【0059】[0059]

【表2】 ここで,ひとつの復合化された画像に対してのみ保存が
必要である。例えば,IL2はBE2が受信される前に復合化
されかつ保存される。受信されると,BE2はすぐに復合
化されかつIL2と同時にプレゼンテーション用に出力さ
れる。
[Table 2] Here, it is necessary to save only one decrypted image. For example, I L2 is and stored is Fukugo of before the B E2 is received. When received, B E2 is outputted immediately be Fukugo of and for I L2 presentation concurrently.

【0060】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表2の移送シーケンス
に対して以下のようにDTSLiから決定される。
In either the lower or enhanced sequence
For the ith image, the DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 2.

【0061】PTSLi=DTSLi+0.5F DTSEi=DTSLi+0.5F PTSEi=PTSLi 図3は本発明の装置に使用するための強化層画像シーケ
ンス及び第2ベース層画像シーケンスを図示したもので
ある。ここで,下位層はI及びP画像の両方を含む。図
2と同一のエレメントは同一符号で示される。強化層20
0は上記したものと同一である。下位層300は,画像シー
ケンスPL0(302),PL1(304),IL2(306),PL3(308),PL4(31
0),PL5(312),PL6(314),IL8(316),PL9(318),PL10(320),P
L11(322)及びPL12(326)を含む。GOPはIL2(306)及びI
L8(318)で開始する。
PTS Li = DTS Li + 0.5F DTS Ei = DTS Li + 0.5F PTS Ei = PTS Li FIG. 3 illustrates the enhancement layer image sequence and the second base layer image sequence for use in the apparatus of the present invention. Things. Here, the lower layer includes both I and P images. The same elements as those in FIG. 2 are denoted by the same reference numerals. Strengthening layer 20
0 is the same as described above. The lower layer 300 includes an image sequence P L0 (302), P L1 (304), I L2 (306), P L3 (308), P L4 (31
0), PL5 (312), PL6 (314), IL8 (316), PL9 (318), PL10 (320), P
Includes L11 (322) and P L12 (326). GOP is I L2 (306) and I
Start with L8 (318).

【0062】ここで,予測手法は幾分複雑である。ベー
ス層においてP画像は最も近接した先行IまたはP画像
を使って予測符号化されることを思い出そう。強化層に
おいて,B画像は可能な異なるモードを3つまで使って
予測符号化され得る。しかし,対応する下位層画像がI
画像であるとき,そのI画像のみが使用される。また,
強化層においてP画像は,最も最近の強化層画像,ディ
スプレイ順に最も最近の下位層画像,またはディスプレ
イ順に次の下位層画像を使って予測符号化される。再
び,対応する下位層画像がI画像であるとき,そのI画
像のみが使用される。ある場合において,示された予測
モードは付加的経路を含むことに注意すべきである。
Here, the prediction method is somewhat complicated. Recall that in the base layer the P picture is predictively coded using the closest preceding I or P picture. In the enhancement layer, the B picture can be predictively coded using up to three different possible modes. However, the corresponding lower layer image is I
If it is an image, only that I-image is used. Also,
In the enhancement layer, the P picture is predictively coded using the most recent enhancement layer image, the most recent lower layer image in display order, or the next lower layer image in display order. Again, when the corresponding lower layer image is an I image, only that I image is used. It should be noted that in some cases, the indicated prediction modes include additional paths.

【0063】したがって,下位層シーケンス300におい
て,例えば,PL4はPL3及びPL5を使って符号化される。
強化層200において,PE3はBE2またはPL3を使って符号化
され得る。本発明にしたがって,IL2で始まる適当な画
像移送シーケンスは,IL2,BE1,PL3,BE2,PL4,PE3,PL5,B
E4,PL6,BE5,PL7,PE6,IL8,BE7,PL9,BE8,PL10,PE9,PL11,B
E10,PL12,BE11などである(シーケンス3)。このシー
ケンスに対して,復合化及び呈示は以下の表3に説明さ
れるように生じる。
Therefore, in the lower layer sequence 300, for example, P L4 is encoded using P L3 and P L5 .
In reinforcing layer 200, P E3 may be coded using B E2 or P L3. In accordance with the present invention, a suitable image transfer sequence beginning with I L2 is I L2 , B E1 , P L3 , B E2 , P L4 , P E3 , P L5 , B
E4 , P L6 , B E5 , P L7 , P E6 , I L8 , B E7 , P L9 , B E8 , P L10 , P E9 , P L11 , B
E10 , P L12 , B E11, etc. (sequence 3). For this sequence, decryption and presentation occur as described in Table 3 below.

【0064】[0064]

【表3】 ここで,2つの復合化された画像に対してのみ保存が必
要である。例えば,IL2及びPL3はBE2が受信される前に
復合化されかつ保存される。受信されると,BE2はすぐ
に復合化されかつIL2と同時にプレゼンテーション用に
出力される。
[Table 3] Here, it is necessary to save only the two decoded images. For example, I L2 and P L3 are Fukugo of and stored before the B E2 is received. When received, B E2 is outputted immediately be Fukugo of and for I L2 presentation concurrently.

【0065】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表3の移送シーケンス
に対して以下のようにDTSLiから決定される。
In either the lower or enhanced sequence
For the ith image, DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 3.

【0066】PTSLi=DTSLi+1.5F DTSEi=DTSLi+1.5F PTSEi=PTSLi 替わって,図3の例に対して他の適当な移送シーケンス
は,IL2,BE2,PL3,PE3,PL4,BE4,PL5,BE5,PL6,PE6,PL7,B
E7,IL8,BE8,PL9,PE9,PL10,BE10,PL11,BE11,PL12,IE12
どである(シーケンス4)。復合化及び呈示は以下に示
される表4のように生じる。
PTS Li = DTS Li + 1.5F DTS Ei = DTS Li + 1.5F PTS Ei = PTS Li Alternatively, another suitable transfer sequence for the example of FIG. 3 is I L2 , B E2 , P L3 , P E3 , P L4 , B E4 , P L5 , B E5 , P L6 , P E6 , P L7 , B
E7 , IL8 , BE8 , PL9 , PE9 , PL10 , BE10 , PL11 , BE11 , PL12 , IE12, etc. (sequence 4). The decryption and presentation occurs as shown in Table 4 below.

【0067】[0067]

【表4】 ここで,1つの復合化された画像に対してのみ保存が必
要である。例えば,IL2はBE2が受信される前に復合化さ
れかつ保存され,受信されると,BE2はすぐに復合化さ
れかつIL2と同時にプレゼンテーション用に直接出力さ
れる。
[Table 4] Here, only one decrypted image needs to be stored. For example, I L2 is and stored is Fukugo of before the B E2 is received, it is received, B E2 is outputted immediately be Fukugo of and directly for I L2 presentation concurrently.

【0068】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表4の移送シーケンス
に対して以下のようにDTSLiから決定される。
In either the lower or enhanced sequence
For the ith image, the DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 4.

【0069】PTSLi=DTSLi+0.5F DTSEi=DTSLi+0.5F PTSEi=PTSLi 図4は本発明に使用する強化層画像シーケンス及び第3
ベース層画像シーケンスを示したものである。ここで,
下位層はI,P及びB画像を含み,該B画像は非連続で
ある。図2及び3と同一のエレメントは同一の符号で示
されている。強化層200は上記したものと同一である。
下位層400は,画像シーケンスPL0(402),BL1(404),IL2(4
06),BL3(408),PL4(410),BL5(412),PL6(414),BL7(416),I
L8(418),BL9(420),PL10(422),BL11(424)及びPL12(426)
を含む。GOPはIL2(406)及びIL8(418)で開始する。
PTS Li = DTS Li + 0.5F DTS Ei = DTS Li + 0.5F PTS Ei = PTS Li FIG. 4 shows the enhancement layer image sequence used in the present invention and the third sequence.
5 shows a base layer image sequence. here,
The lower layers include I, P and B images, which are non-continuous. 2 and 3 are designated by the same reference numerals. The reinforcement layer 200 is the same as described above.
The lower layer 400 includes an image sequence P L0 (402), B L1 (404), I L2 (4
06), B L3 (408), P L4 (410), B L5 (412), P L6 (414), B L7 (416), I
L8 (418), B L9 (420), P L10 (422), B L11 (424) and P L12 (426)
including. The GOP starts at IL2 (406) and IL8 (418).

【0070】ここで,予測手法は以下の通りである。ベ
ース層においてB画像は,最近の先行IまたはP画像及
び最近の後続IまたはP画像を使って予測符号化される
ことを思い出そう。したがって,下位層シーケンス400
において,例えば,BL3はIL2及びPL4を使って符号化さ
れる。本発明に従うIL2で始まる適当な画像送信シーケ
ンスは,IL2,PL4,BL3,BE2,PE3,PL6,BL5,BE4,BE5,IL8,B
L7,PE6,BE7,PL10,BL9,BE8,PE9,PL12,BL11,BE10,BE11
どである(シーケンス5)。替わって,他の適当な送信
シーケンスは,IL2,BE2,PL4,BL3,PE3,BE4,PL6,BL5,BE5,
PE6,IL8,BL7,BE7,BE8,PL10,BL9,PE9,BE10,PL12,BL11,B
E11,IE12などである(シーケンス6)。さらに,適当な
送信シーケンスは,IL2,PL4,BE2,BL3,PE3,PL6,BE4,BL5,
BE5,IL8,PE6,BL7,BE7,PL10,BE8,BL9,PE9,PL12,BE10,B
L11,BE11などである(シーケンス7)。
Here, the prediction method is as follows. Recall that in the base layer, the B picture is predictively coded using the most recent preceding I or P picture and the most recent succeeding I or P picture. Therefore, the lower layer sequence 400
For example, B L3 is encoded using I L2 and P L4 . A suitable image transmission sequence starting with I L2 according to the invention is I L2 , P L4 , B L3 , B E2 , P E3 , P L6 , B L5 , B E4 , B E5 , I L8 , B
L7, and the like P E6, B E7, P L10 , B L9, B E8, P E9, P L12, B L11, B E10, B E11 ( sequence 5). Alternatively, other suitable transmission sequences are I L2 , B E2 , P L4 , B L3 , P E3 , B E4 , P L6 , B L5 , B E5 ,
P E6 , I L8 , B L7 , B E7 , B E8 , P L10 , B L9 , P E9 , B E10 , P L12 , B L11 , B
E11 , IE12, etc. (sequence 6). Further, suitable transmission sequences are I L2 , P L4 , B E2 , B L3 , P E3 , P L6 , B E4 , B L5 ,
B E5 , I L8 , P E6 , B L7 , B E7 , P L10 , B E8 , B L9 , P E9 , P L12 , B E10 , B
L11 , BE11, etc. (sequence 7).

【0071】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは以下のようにDTSLiから
決定される。各画像に対し,画像のプレゼンテーション
は,画像の復合化に続きFの整数倍だけ遅れる。
In either the lower or enhanced sequence
For the i-th image, DTS and PTS are determined from DTS Li as follows. For each image, the presentation of the image is delayed by an integer multiple of F following the decoding of the image.

【0072】例えば,上記第1送信シーケンス(シーケ
ンス5)に関して,復合化及び呈示は以下の表5の記載
のように生じる。
For example, with respect to the first transmission sequence (sequence 5), decoding and presentation occur as shown in Table 5 below.

【0073】[0073]

【表5】 ここで,3つの復合化された画像に対してのみ保存が必
要である。例えば,IL2,PL4及びBL3は,BE2が受信され
る前に復合化されかつ保存され,受信されると,BE2
すぐに復合化されかつIL2と同時にプレゼンテーション
用に直接出力される。
[Table 5] Here, it is necessary to save only the three decoded images. For example, I L2 , P L4 and B L3 are decrypted and stored before B E2 is received, and upon receipt B E2 is immediately decrypted and output directly for presentation at the same time as I L2 Is done.

【0074】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表5の移送シーケンス
に対して以下のようにDTSLiから決定される。
In either the lower or enhanced sequence
For the ith image, the DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 5.

【0075】PTSLi=DTSLi+(mod2(i+1)+1)1.5F,すべて
のiに対してDTSEi=DTSLi+1.5F,i=2に対してDTSEi=DTS
Li+(1+2mod2(i+1))F,i>2に対してPTSEi=PTSLi,すべて
のiに対してここで,mod2(i)は,iが偶数のときmod2(i)
=0であり,iが奇数のときmod2(i)=1であるような整数i
のベース2モジューロである。
[0075] PTS Li = DTS Li + (mod2 (i + 1) +1) 1.5F, DTS for all i Ei = DTS Li + 1.5F, with respect to i = 2 DTS Ei = DTS
Li + (1 + 2mod2 (i + 1)) F, PTS Ei = PTS Li for i> 2, for all i, where mod2 (i) is mod2 (i) when i is even
= 0 and integer i such that when i is odd, mod2 (i) = 1
This is a base 2 modulo.

【0076】シーケンス6に関して,復合化及び呈示は
以下の表6に説明されたように生じる。
For Sequence 6, decryption and presentation occur as described in Table 6 below.

【0077】[0077]

【表6】 ここで,2つの復合化された画像に対してのみ保存が必
要である。例えば,PL4及びBL3は,PE3が受信される前
に復合化されかつ保存され,受信されると,PE3はすぐ
に復合化されかつIL2と同時にプレゼンテーション用に
直接出力される。
[Table 6] Here, it is necessary to save only the two decoded images. For example, P L4 and B L3 are decrypted and stored before P E3 is received, and upon receipt, P E3 is immediately decrypted and output directly for presentation at the same time as I L2 .

【0078】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表6の移送シーケンス
に対して以下のようにDTSLiから決定される。
In either the lower or enhanced sequence
For the ith image, the DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 6.

【0079】PTSLi=DTSLi+F,i=2に対してPTSLi=DTSLi+
(3mod2(i+1)+1)0.5F,i>2に対してDTSEi=DTSLi+0.5F,i
=2に対してDTSEi=DTSLi+(1+2mod2(i+1))0.5F,i>2に対
してPTSEi=PTSLi,すべてのiに対してシーケンス7に関
して,復合化及び呈示は以下の表7に説明されたように
生じる。
For PTS Li = DTS Li + F, i = 2, PTS Li = DTS Li +
DTS Ei = DTS Li + 0.5F, i for (3mod2 (i + 1) +1) 0.5F, i> 2
= 2 for DTS Ei = DTS Li + (1 + 2mod2 (i + 1)) 0.5F, for i> 2 PTS Ei = PTS Li , for all i, decoding and presentation for sequence 7 Occurs as described in Table 7 below.

【0080】[0080]

【表7】 ここで,2つの復合化された画像に対してのみ保存が必
要である。例えば,IL2及びPL4は,BE2が受信される前
に復合化されかつ保存され,受信されると,BE2はすぐ
に復合化されかつIL2と同時にプレゼンテーション用に
直接出力される。
[Table 7] Here, it is necessary to save only the two decoded images. For example, I L2 and P L4 is a Fukugo of and stored before the B E2 is received, it is received, B E2 is outputted immediately be Fukugo of and directly for I L2 presentation concurrently.

【0081】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表7の移送シーケンス
に対して以下のようにDTSLiから決定される。
In either the lower or the enhanced sequence
For the ith image, the DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 7.

【0082】PTSLi=DTSLi+F,i=2に対してPTSLi=DTSLi+
(4mod2(i+1)+1)0.5F,i>2に対してDTSEi=DTSLi+F,i=2
に対してDTSEi=DTSLi+(4mod2(i+1)+1)0.5F,i>2に対し
てPTSEi=PTSLi,すべてのiに対して図5は本発明の装置
とともに使用する強化層画像シーケンス及び第4ベース
層画像シーケンスを図示したものである。ここで,下位
層はI,P及び2つの連続するB画像を含む。図2〜4
の同一のエレメントは同一の符号で示されている。強化
層200は上記したものと同一である。下位層500は画像シ
ーケンスBL0(502),BL1(504),IL2(506),BL3(508),BL4(51
0),PL5(512),BL6(514),BL7(516),IL8(518),BL9(520),B
L10(522),PL11(524)及びBL12(526)を含む。GOPはIL2(50
6)及びIL8(518)で開始する。
For PTS Li = DTS Li + F, i = 2, PTS Li = DTS Li +
DTS Ei = DTS Li + F, i = 2 for (4mod2 (i + 1) +1) 0.5F, i> 2
DTS Ei = DTS Li + (4mod2 (i + 1) +1) 0.5F for i> 2, PTS Ei = PTS Li for i> 2, FIG. 5 for use with the device of the invention for all i Fig. 4 illustrates an enhancement layer image sequence and a fourth base layer image sequence. Here, the lower layer includes I, P, and two consecutive B images. Figures 2-4
Are designated by the same reference numerals. The reinforcement layer 200 is the same as described above. The lower layer 500 is an image sequence B L0 (502), B L1 (504), I L2 (506), B L3 (508), B L4 (51
0), PL5 (512), BL6 (514), BL7 (516), IL8 (518), BL9 (520), B
Includes L10 (522), P L11 (524) and B L12 (526). GOP is I L2 (50
Start with 6) and I L8 (518).

【0083】IL2で始まる,本発明に従う適当な画像シ
ーケンスは,IL2,PL5,BL3,BE2,BL4,PE3,BE4,IL8,BL6,B
E5,BL7,PE6,BE7,PL11,BL9,BE8,BL10,PE9,BE10などであ
る(シーケンス8)。この送信シーケンスに関して,復
合化及び呈示は以下の表8に説明されるように生じる。
[0083] starting with I L2, appropriate image sequence according to the invention, I L2, P L5, B L3, B E2, B L4, P E3, B E4, I L8, B L6, B
E5, B L7, and the like P E6, B E7, P L11 , B L9, B E8, B L10, P E9, B E10 ( sequence 8). For this transmission sequence, decryption and presentation occur as described in Table 8 below.

【0084】[0084]

【表8】 ここで,3つの復合化された画像に対してのみ保存が必
要である。例えば,IL2,PL5及びBL3は,BE2が受信され
る前に復合化されかつ保存され,受信されると,BE2
すぐに復合化されかつIL2と同時にプレゼンテーション
用に直接出力される。
[Table 8] Here, it is necessary to save only the three decoded images. For example, I L2 , P L5, and B L3 are decrypted and stored before B E2 is received, and upon receipt, B E2 is immediately decrypted and output directly for presentation at the same time as I L2. Is done.

【0085】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表8の移送シーケンス
に対して以下のようにDTSLiから決定される。
[0085] Within either the lower or enhanced sequence
For the ith image, the DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 8.

【0086】PTSLi=DTSLi+1.5F,i=2に対してPTSLi=DTS
Li+(5mod2(mod3(i-1))+3)0.5F,i>2に対してDTSEi=DTS
Li+1.5F,i=2に対してDTSEi=DTSLi+(3-mod2(mod3(i))+5
mod2(mod3(i-1))0.5F,i>2に対してPTSEi=PTSLi,すべ
てのiに対してここで,mod3(i)は,i=0+3nのときmod3
(i)=0であり,i=1+3nのときmod3(i)=1であり,i=2+3nの
ときmod3(i)=2であるような(n=0,1,2,3,...),整数iの
ベース3モジューロである。
For PTS Li = DTS Li + 1.5F, i = 2, PTS Li = DTS
Li + (5mod2 (mod3 (i-1)) + 3) 0.5F, DTS Ei = DTS for i> 2
DTS Ei = DTS Li + (3-mod2 (mod3 (i)) + 5 for Li + 1.5F, i = 2
mod2 (mod3 (i-1)) 0.5F, PTS Ei = PTS Li for i> 2, for all i, where mod3 (i) is mod3 when i = 0 + 3n
(i) = 0, mod3 (i) = 1 when i = 1 + 3n, and mod3 (i) = 2 when i = 2 + 3n (n = 0,1,2, 3, ...), the base 3 modulo of the integer i.

【0087】替わって,他の適当な送信シーケンスは,
IL2,BE2,PL5,BL3,PE3,BL4,BE4,BE5,IL8,BL6,PE6,BL7,B
E7,BE8,PL11,BL9,PE9,BL10,BE10,BE11などである(シー
ケンス9)。この送信シーケンスに関して,復合化及び
呈示は以下の表9に説明されるように生じる。
Alternatively, another suitable transmission sequence is:
I L2 , B E2 , P L5 , B L3 , P E3 , B L4 , B E4 , B E5 , I L8 , B L6 , P E6 , B L7 , B
E7 , BE8 , PL11 , BL9 , PE9 , BL10 , BE10 , BE11, etc. (sequence 9). For this transmission sequence, the decryption and presentation occurs as described in Table 9 below.

【0088】[0088]

【表9】 ここで,2つの復合化された画像に対してのみ保存が必
要である。例えば,IL2及びBE2は,PL5が受信される前
に復合化されかつ保存され,受信されると,IL2及びBE2
は同時のプレゼンテーション用に出力される。
[Table 9] Here, it is necessary to save only the two decoded images. For example, I L 2 and B E2 is Fukugo of and stored before the P L5 is received, it is received, I L2 and B E2
Is output for simultaneous presentation.

【0089】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表9の移送シーケンス
に対して以下のようにDTSLiから決定される。
In either the lower or enhanced sequence
For the ith image, DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 9.

【0090】PTSLi=DTSLi+F,i=2に対してPTSLi=DTSLi+
(5mod2(mod3(i-1))+1)0.5F,i>2に対してDTSEi=DTSLi+
0.5F,i=2に対してDTSEi=DTSLi+(5mod2(mod3(i-1))+1)
0.5F,i>2に対してPTSEi=PTSLi,すべてのiに対して他
の適当な送信シーケンスは,IL2,PL5,BE2,BL3,PE3,BL4,
BE4,IL8,BE5,BL6,PE6,BL7,BE7,PL11,BE8,BL9,PE9,BL10,
BE10などである(シーケンス10)。この送信シーケン
スに関して,復合化及び呈示は以下の表10に説明され
るように生じる。
For PTS Li = DTS Li + F, i = 2, PTS Li = DTS Li +
DTS Ei = DTS Li + for (5mod2 (mod3 (i-1)) + 1) 0.5F, i> 2
DTS Ei = DTS Li + (5mod2 (mod3 (i-1)) + 1) for 0.5F, i = 2
0.5F, i> 2 with respect to PTS Ei = PTS Li, other suitable transmission sequence for all i, I L2, P L5, B E2, B L3, P E3, B L4,
B E4 , I L8 , B E5 , B L6 , P E6 , B L7 , B E7 , P L11 , B E8 , B L9 , P E9 , B L10 ,
BE10, etc. (sequence 10). For this transmission sequence, decryption and presentation occur as described in Table 10 below.

【0091】[0091]

【表10】 ここで,2つの復合化された画像に対してのみ保存が必
要である。例えば,IL2及びPL5は,BE2が受信される前
に復合化されかつ保存され,受信されると,BE2は復合
化されかつIL2と同時のプレゼンテーションのために直
接出力される。
[Table 10] Here, it is necessary to save only the two decoded images. For example, I L2 and P L5 is Fukugo of before the B E2 is received and stored, it is received, B E2 are output directly for Fukugoka it is and I L2 and simultaneous presentation.

【0092】下位または強化シーケンスのいずれか内の
i番目画像に対し,DTS及びPTSは表10の移送シーケン
スに対して以下のようにDTSLiから決定される。
[0092] Within either the lower or enhancement sequence
For the ith image, the DTS and PTS are determined from DTS Li as follows for the transport sequence in Table 10.

【0093】PTSLi=DTSLi+F,i=2に対してPTSLi=DTSLi+
(6mod2(mod3(i-1))+1)0.5F,i>2に対してDTSEi=DTSLi+
F,i=2に対してDTSEi=DTSLi+(6mod2(mod3(i-1))+1)0.5
F,i>2に対してPTSEi=PTSLi,すべてのiに対してシーケ
ンス1〜10に関する上記ケースにおいて,連続符号化
が仮定されていた点に注意すべきである。並行符号化が
使用されるとき,PTS及びDTSの間の関係はより一般的な
方法で特徴づけられる。特に,下位層がB画像を有しな
いがI及び/またはP画像のみを有するとき,両層内の
すべての画像はプレゼンテーション順にデコーダに到着
する。したがって,下位または強化シーケンスのいずれ
か内のi番目画像に対し,DTS及びPTSは以下のようにDTS
Liから決定される。
For PTS Li = DTS Li + F, i = 2, PTS Li = DTS Li +
DTS Ei = DTS Li + for (6mod2 (mod3 (i-1)) + 1) 0.5F, i> 2
DTS Ei = DTS Li + (6mod2 (mod3 (i-1)) + 1) 0.5 for F, i = 2
Note that in the above case for FTS , PTS Ei = PTS Li for i> 2 and sequences 1 to 10 for all i, continuous coding was assumed. When parallel coding is used, the relationship between PTS and DTS is characterized in a more general way. In particular, when the lower layer has no B pictures but only I and / or P pictures, all pictures in both layers arrive at the decoder in presentation order. Therefore, for the ith image in either the lower or enhanced sequence, the DTS and PTS are:
Determined from Li .

【0094】PTSLi=DTSLi+F, DTSEi=DTSLi+F, PTSEi=PTSLi この関係は以下の表11に例示されている。DTSLiとDTS
L(i-1)の差はFである。
PTS Li = DTS Li + F, DTS Ei = DTS Li + F, PTS Ei = PTS Li This relationship is illustrated in Table 11 below. DTS Li and DTS
The difference between L (i-1) is F.

【0095】[0095]

【表11】 例えば,図2との関係で説明したシーケンス1を参照す
ると,復合化及び呈示は以下の表12に示されるように
生じる。
[Table 11] For example, referring to Sequence 1 described in relation to FIG. 2, decryption and presentation occur as shown in Table 12 below.

【0096】[0096]

【表12】 ここで,1つの復合化された画像に対してのみ保存が必
要である。例えば,IL2は,BE2が受信される前に復合化
されかつ保存される。受信されると,BE2はすぐに復合
化されかつIL2と実質的に同時にプレゼンテーション用
に出力される。
[Table 12] Here, only one decrypted image needs to be stored. For example, I L2 is and stored is Fukugo of before the B E2 is received. When received, B E2 is outputted immediately be Fukugo of and for I L2 substantially simultaneously presentations.

【0097】下位層が非連続B画像を有するとき,DTS
及びPTSは以下のようにDTSLiから決定される。もし下位
層内のi番目の画像が“閉じたGOP”インジケータを有す
るI画像またはそのようなI画像が続くP画像であれ
ば,PTSLi=DTSLi+2Fが成立する。もし下位層内のi番目
の画像がP画像または“開いたGOP”のI画像であって
かつ(i+1)番目の画像が“閉じたGOP”インジケータを有
するI画像でなければ,PTSLi=DTSLi+3Fが成立する。も
し下位層内のi番目の画像がB画像ならば,PTSLi=DTSLi
+Fである。強化層に対して,DTSEi=DTSLi+2F及びPTSEi=
DTSLi+2Fである。MPEG-2ビデオプロトコルにおいて,画
像ヘッダのグループはGOPの最初に含まれ,かつ1ビッ
トインジケータによってclosed_gop=0にセットされる
(ここで,closed_gop=1は閉じたGOPを示す)。開いたG
OPのI画像は復合化順にしたがってP画像と同様に扱わ
れる。
When the lower layer has a discontinuous B image, DTS
And PTS are determined from DTS Li as follows. If the i-th picture in the lower layer is an I-picture with a "closed GOP" indicator or a P-picture followed by such an I-picture, then PTS Li = DTS Li + 2F holds. If the i-th picture in the lower layer is a P picture or an I picture of an "open GOP" and the (i + 1) th picture is not an I picture with a "closed GOP" indicator, PTS Li = DTS Li + 3F holds. If the i-th image in the lower layer is a B image, PTS Li = DTS Li
+ F. For the reinforcement layer, DTS Ei = DTS Li + 2F and PTS Ei =
DTS Li + 2F. In the MPEG-2 video protocol, a group of picture headers is included at the beginning of a GOP and is set to closed_gop = 0 by a 1-bit indicator (where closed_gop = 1 indicates a closed GOP). G open
The I image of the OP is treated in the same order as the P image according to the decoding order.

【0098】下位層内の非連続B画像に関する復合化及
び呈示は以下の表13に例示されている。
The decoding and presentation for non-continuous B images in the lower layers is illustrated in Table 13 below.

【0099】[0099]

【表13】 特定の例において,下位層シーケンスはディスプレイ順
に,IL0,BL1,PL2,BL3,PL4,BL5,IL6,IL7などである。強
化層シーケンスはディスプレイ及び送信順に,PE0,BE1,
BE2,BE3,BE4,BE5,PE6,PE7などである。本発明に従うひ
とつの可能な送信順は,IL0,PL2,BL1,PE0,PL4,BE1,BL3,
BE2,IL6,BE3,BL5,BE4,IL7,BE5などである。DTS及びPTS
は表14に示されるように決定される。
[Table 13] In a specific example, the lower layer sequences are, in display order, I L0 , B L1 , P L2 , B L3 , P L4 , B L5 , I L6 , I L7, etc. The enhancement layer sequence consists of P E0 , B E1 ,
BE2 , BE3 , BE4 , BE5 , PE6 , PE7 and the like. One possible transmission order according to the present invention is I L0 , P L2 , B L1 , P E0 , P L4 , B E1 , B L3 ,
BE2 , IL6 , BE3 , BL5 , BE4 , IL7 , BE5 , and the like. DTS and PTS
Is determined as shown in Table 14.

【0100】[0100]

【表14】 下位層が2つの連続B画像を有するとき,DTS及びPTSは
以下の規則で計算される。もし下位層内のi番目の画像
が閉じたGOPインジケータを有するI画像またはそのよ
うなI画像が続くP画像であれば,PTSLi=DTSLi+2Fであ
る。もし下位層内のi番目の画像がP画像または“開い
たGOP”のI画像であってかつ(i+1)番目の画像が“閉じ
たGOP”インジケータを有するI画像でなければ,PTSLi
=DTSLi+4Fが成立する。もし下位層内のi番目の画像がB
画像ならば,PTSLi=DTSLi+Fである。強化層に対して,D
TSEi=DTSLi+2F及びPTSEi=DTSLi+2Fである。
[Table 14] When the lower layer has two consecutive B images, DTS and PTS are calculated according to the following rules. If the i-th picture in the lower layer is an I-picture with a closed GOP indicator or a P-picture followed by such an I-picture, then PTS Li = DTS Li + 2F. If the i-th picture in the lower layer is a P picture or an I picture of an "open GOP" and the (i + 1) th picture is not an I picture with a "closed GOP" indicator, PTS Li
= DTS Li + 4F holds. If the i-th image in the lower layer is B
For images, PTS Li = DTS Li + F. For the reinforcement layer, D
TS Ei = DTS Li + 2F and PTS Ei = DTS Li + 2F.

【0101】下位層内の2つの連続B画像に関する復合
化及び呈示は以下の表15に例示されている。
The decoding and presentation for two consecutive B images in the lower layer is illustrated in Table 15 below.

【0102】[0102]

【表15】 特定の例において,下位層シーケンスはディスプレイ順
にIL0,BL1,BL2,PL3,BL4,BL5,IL6,IL7などである。強化
層シーケンスはディスプレイ及び送信順に,PE0,BE1,B
E2,BE3,BE4,BE5,PE6,PE7などである。本発明に従うひと
つの可能な送信順は,IL0,PL3,BL1,PE0,BL2,BE1,IL6,B
E2,BL4,BE3,BL5,BE4,IL7,BE5などである。DTS及びPTSは
表16に示されるように決定される。
[Table 15] In certain instances, the lower layer sequence, etc. I L0, B L1, B L2 , P L3, B L4, B L5, I L6, I L7 on the display order. The enhancement layer sequence is P E0 , B E1 , B
E2 , BE3 , BE4 , BE5 , PE6 , PE7 and the like. One possible transmission order according to the present invention is I L0 , P L3 , B L1 , P E0 , B L2 , B E1 , I L6 , B
E2 , BL4 , BE3 , BL5 , BE4 , IL7 , BE5 , and the like. DTS and PTS are determined as shown in Table 16.

【0103】[0103]

【表16】 フレームモードに適用される上記規則は,フィルムモー
ドの対応するケースに一般化され得る。
[Table 16] The above rules applied to the frame mode can be generalized to the corresponding case of the film mode.

【0104】図6は立体ビデオ用の強化層デコーダのブ
ロック図である。デコーダ130は圧縮された強化層デー
タを受信するための入力端子605及び該データをパージ
ング(parsing)するための移送レベル構文パーザ610を含
む。パージングされたデータは中央演算装置から成るメ
モリマネージャ630へ与えられる。該メモリマネージャ6
30は,例えば,ダイナミック・ランダム・アクセス・メ
モリ(DRAM)から成るメモリ620と連結している。メモリ
マネージャはまた減圧/予測プロセッサ640と連結し,
不均衡予測された強化層画像を復合化する際にプロセッ
サ640によって続いて使用するためにメモリ620内に一時
的に保存される復合化下位レベルデータを端子650を通
じて受信する。
FIG. 6 is a block diagram of an enhancement layer decoder for stereoscopic video. The decoder 130 includes an input terminal 605 for receiving the compressed enhancement layer data and a transport level syntax parser 610 for parsing the data. The parsed data is provided to a memory manager 630 comprising a central processing unit. The memory manager 6
30 is connected to a memory 620 comprising, for example, a dynamic random access memory (DRAM). The memory manager also interfaces with the decompression / prediction processor 640,
Decoded lower level data temporarily stored in memory 620 is received via terminal 650 for subsequent use by processor 640 in decoding the unbalanced predicted enhancement layer image.

【0105】減圧/予測プロセッサ640はさまざまな処
理機能,例えば,エラー検出及び補正,移動ベクトル復
合化,逆量子化,逆離散コサイン変換,ハフマン復合化
及び予測計算を与える。減圧/予測機能640によって処
理された後,復合化された強化層データはメモリマネー
ジャによって出力される。替わって,復合化データは図
示されていない手段を通じて直接に減圧/予測機能640
から出力されることもできる。
The decompression / prediction processor 640 provides various processing functions, such as error detection and correction, motion vector decoding, inverse quantization, inverse discrete cosine transform, Huffman decoding, and prediction calculations. After being processed by the decompression / prediction function 640, the decrypted enhancement layer data is output by the memory manager. Alternatively, the decrypted data is directly sent to the decompression / prediction function 640 through means not shown.
Can also be output from.

【0106】下位層に対しても類似の構造が使用され得
る。さらに,強化及び下位層は共通のハードウエアを共
有しうる。例えば,メモリ620及びプロセッサ640は共有
されることができる。しかし,並行符号化が採用される
場合にはこれは不可能である。ここに開示される送信シ
ーケンスに従って復合化が整合されるように,共通のク
ロック信号(図示せず)が与えられる。特に,不均衡予
測される強化層画像の予測用に使用される下位層画像ま
たは他の下位層画像を予測画像データの受信前に一時的
に保存することが必要である。本発明にしたがって,復
合化前に保存されるべき画像の数は最少化され,それに
よってメモリサイズの縮小をもたらす。
A similar structure can be used for the lower layers. In addition, enhancements and lower layers may share common hardware. For example, the memory 620 and the processor 640 can be shared. However, this is not possible if parallel coding is employed. A common clock signal (not shown) is provided to match the decoding according to the transmission sequence disclosed herein. In particular, it is necessary to temporarily store a lower layer image or another lower layer image used for prediction of an unbalanced predicted enhancement layer image before receiving predicted image data. According to the present invention, the number of images to be stored before decryption is minimized, thereby resulting in a reduction in memory size.

【0107】見てきたように,本発明は立体ビデオ画像
シーケンスのための有利な画像送信手法を与える。特
に,画像はプレゼンテーション前に一時的に保存される
べき画像の数が最少化されるような順序で送信される。
さらに,ここに開示された送信シーケンスの例は,MPEG
-2 MVPプロトコル及び提案されたMPEG-4プロトコルの両
方と互換性がある。さらにまた,各画像に対するデコー
ド・タイム・スタンプ(DTS)及びプレゼンテーション・
タイム・スタンプ(PTS)はデコーダにおいて下位層及び
強化層の間の同期を与えるべく決定される。DTS及びPTS
は,復合化が連続か並行か,下位層がB画像を有しない
か,非連続B画像を有するかまたは2つの連続B画像を
有するかにしたがって設定される。
As can be seen, the present invention provides an advantageous image transmission technique for stereoscopic video image sequences. In particular, the images are transmitted in an order that minimizes the number of images that must be temporarily stored prior to the presentation.
Further, an example of the transmission sequence disclosed herein is MPEG
-2 Compatible with both the MVP protocol and the proposed MPEG-4 protocol. Furthermore, the decoding time stamp (DTS) and presentation
The time stamp (PTS) is determined at the decoder to provide synchronization between the lower and enhancement layers. DTS and PTS
Is set according to whether the decoding is continuous or parallel, whether the lower layer has no B-picture, has a non-continuous B-picture or has two consecutive B-pictures.

【0108】発明はさまざまな特定の実施例について説
明されてきたが,特許請求の範囲に記載された発明の思
想及び態様から離れることなくさまざまな付加及び修正
が可能であることは当業者の知るところである。例え
ば,ここに開示された手法はここに特定して示されたも
の以外の他の下位及び強化層シーケンスに適用され得る
ことは当業者の知るところである。
Although the invention has been described with reference to various specific embodiments, those skilled in the art will recognize that various additions and modifications may be made without departing from the spirit and aspects of the invention as set forth in the appended claims. By the way. For example, those skilled in the art will recognize that the techniques disclosed herein may be applied to other lower and enhancement layer sequences other than those specifically shown herein.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は,立体ビデオ用のコーダ/デコーダ構造
のブロック図である。
FIG. 1 is a block diagram of a coder / decoder structure for stereoscopic video.

【図2】図2は,本発明の装置とともに使用するための
強化層画像シーケンス及び第1ベース層画像シーケンス
を示したものである。
FIG. 2 shows an enhancement layer image sequence and a first base layer image sequence for use with the apparatus of the present invention.

【図3】図3は,本発明の装置とともに使用するための
強化層画像シーケンス及び第2ベース層画像シーケンス
を示したものである。
FIG. 3 shows an enhancement layer image sequence and a second base layer image sequence for use with the apparatus of the present invention.

【図4】図4は,本発明の装置とともに使用するための
強化層画像シーケンス及び第3ベース層画像シーケンス
を示したものである。
FIG. 4 illustrates an enhancement layer image sequence and a third base layer image sequence for use with the apparatus of the present invention.

【図5】図5は,本発明の装置とともに使用するための
強化層画像シーケンス及び第4ベース層画像シーケンス
を示したものである。
FIG. 5 shows an enhancement layer image sequence and a fourth base layer image sequence for use with the apparatus of the present invention.

【図6】図6は,ステレオビデオ用の強化層デコーダ構
造のブロック図である。
FIG. 6 is a block diagram of an enhancement layer decoder structure for stereo video.

【符号の説明】[Explanation of symbols]

105 一時的リマルチプレクサ 110 強化エンコーダ 115 下位エンコーダ 120 システムマルチプレクス 122 デコーダ 125 システムデマルチプレクス 130 強化デコーダ 135 下位デコーダ 140 一時的リマルチプレクサ 105 Temporary remultiplexer 110 Enhanced encoder 115 Lower encoder 120 System multiplex 122 Decoder 125 System demultiplex 130 Enhanced decoder 135 Lower decoder 140 Temporary remultiplexer

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】デコーダへ送信するための立体ビデオ信号
の下位層及び強化層内のビデオ画像のシーケンスを並べ
るための方法であり,前記強化層は対応する下位層画像
を使って予測される不均衡予測画像を含むところの方法
であって,前記不均衡予測された強化層画像が前記対応
するそれぞれの下位層画像の後に送信されるように,前
記ビデオ画像を並べる工程,から成る方法。
A method for arranging a sequence of video images in a lower layer and an enhancement layer of a stereoscopic video signal for transmission to a decoder, wherein the enhancement layer is an image predicted using a corresponding lower layer image. Arranging the video images such that the unbalanced predicted enhancement layer images are transmitted after the corresponding respective lower layer images.
【請求項2】前記下位層は連続画像のILi,ILi+1,及びI
Li+2を含む内部符号化画像(I画像)のみを含み,対応
する強化層画像はそれぞれHEi,HEi+1,及びHEi+2で表さ
れるところの請求項1に記載の方法であって,さらに前
記ビデオ画像がILi,ILi+1,HEi,ILi+2の順に送信される
ように該ビデオ画像を並べる工程,から成る方法。
2. The method according to claim 1, wherein the lower layers are I Li , I Li + 1 , and I
2. The method according to claim 1 , wherein only the inner coded picture (I picture) containing Li + 2 is included, and the corresponding enhancement layer pictures are represented by H Ei , H Ei + 1 , and H Ei + 2 respectively. And arranging the video images such that the video images are transmitted in the order I Li , I Li + 1 , H Ei , I Li + 2 .
【請求項3】前記下位層は連続画像のILi及びILi+1を含
む内部符号化画像(I画像)のみを含み,対応する強化
層画像はそれぞれHEi及びHEi+1で表されるところの請求
項1に記載の方法であって,さらに前記ビデオ画像がI
Li,HEi,ILi+1,HEi+1の順に送信されるように該ビデオ画
像を並べる工程,から成る方法。
3. The method according to claim 1, wherein the lower layer includes only an inner coded image (I image) including the continuous images I Li and I Li + 1 , and the corresponding enhancement layer images are represented by H Ei and H Ei + 1 , respectively. 2. The method according to claim 1, wherein the video image further comprises
Arranging the video images so that they are transmitted in the order of Li , H Ei , I Li + 1 , H Ei + 1 .
【請求項4】前記下位層は連続画像のILi,PLi+1,及びP
Li+2を含む内部符号化画像(I画像)及び予測符号化画
像(P画像)のみを含み,対応する強化層画像はそれぞ
れHEi,HEi+1,及びHEi+2で表されるところの請求項1に
記載の方法であって,さらに前記ビデオ画像がILi,P
Li+1,HEi,PLi+2の順に送信されるように該ビデオ画像を
並べる工程,から成る方法。
4. The method according to claim 1, wherein the lower layers are I Li , P Li + 1 , and P
Includes only the inner coded image (I image) and the predicted coded image (P image) including Li + 2 , and the corresponding enhancement layer images are represented by H Ei , H Ei + 1 , and H Ei + 2 , respectively. 2. The method according to claim 1, wherein the video image is I Li , P
Arranging the video images so that they are transmitted in the order of Li + 1 , H Ei , P Li + 2 .
【請求項5】前記下位層は連続画像のILi及びPLi+1を含
む内部符号化画像(I画像)及び予測符号化画像(P画
像)のみを含み,対応する強化層画像はそれぞれHEi
びHEi+1で表されるところの請求項1に記載の方法であ
って,さらに前記ビデオ画像がILi,HEi,PLi+1,HEi+1
順に送信されるように該ビデオ画像を並べる工程,から
成る方法。
5. The lower layer includes only an intra-coded image (I-picture) including a continuous picture I Li and P Li + 1 and a predicted coded picture (P-picture), and the corresponding enhancement layer pictures are H 2. The method according to claim 1, wherein the video image is transmitted in the order of I Li , H Ei , P Li + 1 , and H Ei + 1 , wherein the video image is represented by Ei and H Ei + 1. Arranging the video images.
【請求項6】前記下位層は連続画像のILi,BLi+1,及びP
Li+2を含む内部符号化画像(I画像),予測符号化画像
(P画像)及び非連続双方向予測符号化画像(B画像)
を含み,対応する強化層画像はそれぞれHEi,HEi+1,及び
HEi+2で表されるところの請求項1に記載の方法であっ
て,さらに前記ビデオ画像がILi,PLi+2,BLi+1,HEi,H
Ei+1の順に送信されるように該ビデオ画像を並べる工
程,から成る方法。
6. The method according to claim 1, wherein said lower layers are I Li , B Li + 1 , and P
Intra coded picture (I picture), predictive coded picture (P picture) and discontinuous bidirectional predictive coded picture (B picture) containing Li + 2
And the corresponding enhancement layer images are H Ei , H Ei + 1 , and
2. The method according to claim 1, wherein the video image is represented by I Li , P Li + 2 , B Li + 1 , H Ei , H
Arranging the video images to be transmitted in the order of Ei + 1 .
【請求項7】前記下位層は連続画像のILi,BLi+1,及びP
Li+2を含む内部符号化画像(I画像),予測符号化画像
(P画像)及び非連続双方向予測符号化画像(B画像)
を含み,対応する強化層画像はそれぞれHEi,HEi+1,及び
HEi+2で表されるところの請求項1に記載の方法であっ
て,さらに前記ビデオ画像がILi,HEi,PLi+2,BLi+1,H
Ei+1,HEi+2の順に送信されるように該ビデオ画像を並べ
る工程,から成る方法。
7. The method according to claim 1, wherein the lower layers are I Li , B Li + 1 , and P
Intra coded picture (I picture), predictive coded picture (P picture) and discontinuous bidirectional predictive coded picture (B picture) containing Li + 2
And the corresponding enhancement layer images are H Ei , H Ei + 1 , and
2. The method of claim 1, wherein the video image is represented by I Li , H Ei , P Li + 2 , B Li + 1 , H Ei + 2 .
Arranging the video images such that they are transmitted in the order of Ei + 1 , H Ei + 2 .
【請求項8】前記下位層は連続画像のILi,BLi+1,及びP
Li+2を含む内部符号化画像(I画像),予測符号化画像
(P画像)及び非連続双方向予測符号化画像(B画像)
を含み,対応する強化層画像はそれぞれHEi,HEi+1,及び
HEi+2で表されるところの請求項1に記載の方法であっ
て,さらに前記ビデオ画像がILi,PLi+2,HEi,BLi+1,H
Ei+1の順に送信されるように該ビデオ画像を並べる工
程,から成る方法。
8. The method according to claim 1, wherein the lower layers are I Li , B Li + 1 , and P
Intra coded picture (I picture), predictive coded picture (P picture) and discontinuous bidirectional predictive coded picture (B picture) containing Li + 2
And the corresponding enhancement layer images are H Ei , H Ei + 1 , and
2. The method of claim 1 wherein the video image is represented by I Li , P Li + 2 , H Ei , B Li + 1 , H Ei + 2 .
Arranging the video images to be transmitted in the order of Ei + 1 .
【請求項9】前記下位層は連続画像のILi,BLi+1,BLi+2,
及びPLi+3を含む内部符号化画像(I画像),予測符号
化画像(P画像)及び連続双方向予測符号化画像(B画
像)を含み,対応する強化層画像はそれぞれHEi,HEi+1,
HEi+2及びHEi +3で表されるところの請求項1に記載の方
法であって,さらに前記ビデオ画像がILi,PLi+3,BLi+1,
HEi,BLi+2,HEi+1,HEi+2の順に送信されるように該ビデ
オ画像を並べる工程,から成る方法。
9. The method according to claim 1, wherein the lower layers are I Li , B Li + 1 , B Li + 2 ,
And P Li + 3 , including an intra-coded image (I image), a predicted coded image (P image), and a continuous bidirectional predictive coded image (B image), and the corresponding enhancement layer images are H Ei , H Ei + 1 ,
2. The method of claim 1, wherein the video images are represented by I Li , P Li + 3 , B Li + 1 , H Ei + 2 and H Ei +3 .
Arranging the video images so that they are transmitted in the order of H Ei , B Li + 2 , H Ei + 1 , H Ei + 2 .
【請求項10】前記下位層は連続画像のILi,BLi+1,B
Li+2,及びPLi+3を含む内部符号化画像(I画像),予測
符号化画像(P画像)及び連続双方向予測符号化画像
(B画像)を含み,対応する強化層画像はそれぞれHEi,
HEi+1,HEi+2及びHEi+3で表されるところの請求項1に記
載の方法であって,さらに前記ビデオ画像がILi,HEi,P
Li+3,BLi+1,HEi+1,BLi+2,HEi+2,HEi+3の順に送信される
ように該ビデオ画像を並べる工程,から成る方法。
10. The method according to claim 1, wherein the lower layers are I Li , B Li + 1 , B
Includes an intra-coded picture (I picture), a predictive coded picture (P picture) and a continuous bidirectional predictive coded picture (B picture) containing Li + 2 and P Li + 3 , and the corresponding enhancement layer pictures are respectively H Ei ,
H Ei + 1, H Ei + 2 , and a H Ei + 3 by the method of claim 1 where represented, further wherein the video image I Li, H Ei, P
Li + 3 , B Li + 1 , H Ei + 1 , B Li + 2 , HEi + 2 , HEi + 3 .
【請求項11】前記下位層は連続画像のILi,BLi+1,B
Li+2,及びPLi+3を含む内部符号化画像(I画像),予測
符号化画像(P画像)及び連続双方向予測符号化画像
(B画像)を含み,対応する強化層画像はそれぞれHEi,
HEi+1,HEi+2及びHEi+3で表されるところの請求項1に記
載の方法であって,さらに前記ビデオ画像がILi,PLi+3,
HEi,BLi+1,HEi+1,BLi+2,HEi+2の順に送信されるように
該ビデオ画像を並べる工程,から成る方法。
11. The method according to claim 1, wherein the lower layer is a sequence of images I Li , B Li + 1 , B
Includes an intra-coded picture (I picture), a predictive coded picture (P picture) and a continuous bidirectional predictive coded picture (B picture) containing Li + 2 and P Li + 3 , and the corresponding enhancement layer pictures are respectively H Ei ,
2. The method according to claim 1, wherein the video image is represented by I Li , P Li + 3 , H Ei + 1 , H Ei + 2 and H Ei + 3 .
Arranging the video images to be transmitted in the order of H Ei , B Li + 1 , H Ei + 1 , B Li + 2 , H Ei + 2 .
【請求項12】立体ビデオ信号の下位層及び強化層内の
ビデオ画像のシーケンスを並行に復合化するための方法
であり,前記下位層が少なくとも一つの内部符号化画像
(I画像)及び予測符号化画像(P画像)を含むが双方
向予測符号化画像(B画像)を含まないところの方法で
あって,各前記画像を復合化するための及び呈示するた
めの時間をそれぞれ指示するためのデコード・タイム・
スタンプ(DTS)及びプレゼンテーション・タイム・スタ
ンプ(PTS)を前記画像に与える工程であって,i番目の下
位層画像のDTSがDTSLiであり,i番目の下位層画像のPTS
がPTSLiであり,i番目の強化層画像のDTSがDTSHiであ
り,i番目の強化層画像のPTSがPTSHiであり,Fは連続画
像のプレゼンテーションの間の時間間隔であり,PTSLi=
DTSHi=PTSHi=DTSLi+Fであるところの工程,から成る方
法。
12. A method for decoding a sequence of video images in a lower layer and an enhancement layer of a stereoscopic video signal in parallel, said lower layer comprising at least one intra-coded image (I-picture) and a prediction code. The method includes a coded image (P image) but does not include a bidirectional predictive coded image (B image), and is used to indicate a time for decoding each image and a time for presenting each image, respectively. Decode time
Providing a stamp (DTS) and a presentation time stamp (PTS) to the image, wherein the DTS of the i-th lower layer image is DTS Li , and the PTS of the i-th lower layer image
Is PTS Li , the DTS of the ith enhancement layer image is DTS Hi , the PTS of the ith enhancement layer image is PTS Hi , F is the time interval between the presentation of successive images, and PTS Li =
DTS Hi = PTS Hi = DTS Li + F.
【請求項13】立体ビデオ信号の下位層及び強化層内の
ビデオ画像のシーケンスを並行に復合化するための方法
であり,前記下位層が非連続双方向予測符号化画像(B
画像)を含むところの方法であって,各前記画像を復合
化するための及び呈示するための時間をそれぞれ指示す
るためのデコード・タイム・スタンプ(DTS)及びプレゼ
ンテーション・タイム・スタンプ(PTS)を前記画像に与
える工程であって,i番目の下位層画像のDTSがDTSLi
あり,i番目の下位層画像のPTSがPTSLiであり,i番目の
強化層画像のDTSがDTSHiであり,i番目の強化層画像のP
TSがPTSHiであり,Fは連続画像のプレゼンテーションの
間の時間間隔であり,i番目の下位層画像が閉じたGOPイ
ンジケータを有する内部符号化画像(I画像)であると
き,PTSLi=DTSLi+2Fであるところの工程,から成る方
法。
13. A method for decoding a sequence of video images in a lower layer and an enhancement layer of a stereoscopic video signal in parallel, said lower layer comprising a discontinuous bidirectional predictive coded image (B).
Image), wherein a decoding time stamp (DTS) and a presentation time stamp (PTS) are provided to indicate the time for decoding and presenting each of the images, respectively. In the step of providing the image, the DTS of the i-th lower layer image is DTS Li , the PTS of the i-th lower layer image is PTS Li , and the DTS of the i-th enhancement layer image is DTS Hi . , P of the i-th enhancement layer image
When TS is PTS Hi , F is the time interval between the presentation of consecutive pictures, and when the i-th lower layer picture is an inner coded picture (I picture) with a closed GOP indicator, PTS Li = DTS A process that is Li + 2F.
【請求項14】請求項13に記載の方法であって,i番
目の下位層画像が予測符号化画像(P画像)でありかつ
(i+1)番目の下位層画像が閉じたGOPインジケータを有す
るI画像であるとき,PTSLi=DTSLi+2Fである,ところの
方法。
14. The method according to claim 13, wherein the i-th lower layer image is a prediction coded image (P image) and
The method wherein PTS Li = DTS Li + 2F when the (i + 1) th lower layer image is an I image with a closed GOP indicator.
【請求項15】請求項13または14に記載の方法であ
って,i番目の下位層画像がP画像インジケータであり
かつ(i+1)番目の下位層画像が閉じたGOPインジケータを
有するI画像でないとき,PTSLi=DTSLi+3Fである,とこ
ろの方法。
15. The I-picture according to claim 13, wherein the i-th lower-layer picture is a P-picture indicator and the (i + 1) -th lower-layer picture has a closed GOP indicator. If not, the method is PTS Li = DTS Li + 3F.
【請求項16】請求項13から15のいずれかに記載の
方法であって,i番目の下位層画像が開いたGOPインジケ
ータを有するI画像でありかつ(i+1)番目の下位層画像
が閉じたGOPインジケータを有するI画像でないとき,P
TSLi=DTSLi+3Fである,ところの方法。
16. The method according to claim 13, wherein the i-th lower layer image is an I image having an open GOP indicator, and the (i + 1) -th lower layer image is If not an I-picture with a closed GOP indicator, P
The method where TS Li = DTS Li + 3F.
【請求項17】請求項13から16のいずれかに記載の
方法であって,i番目の下位層画像がB画像であると
き,PTSLi=DTSLi+Fである,ところの方法。
17. The method according to claim 13, wherein when the i-th lower layer image is a B image, PTS Li = DTS Li + F.
【請求項18】請求項13に記載の方法であって,DTS
Hi=PTSHi=PTSLi=DTSLi+2Fである,ところの方法。
18. The method according to claim 13, wherein the DTS
Hi = PTS Hi = PTS Li = DTS Li + 2F.
【請求項19】立体ビデオ信号の下位層及び強化層内の
ビデオ画像のシーケンスを並行に復合化するための方法
であり,前記下位層が2つの連続双方向予測符号化画像
(B画像)の少なくとも一つのグループを含むところの
方法であって,各前記画像を復合化するための及び呈示
するための時間をそれぞれ指示するためのデコード・タ
イム・スタンプ(DTS)及びプレゼンテーション・タイム
・スタンプ(PTS)を前記画像に与える工程であって,i番
目の下位層画像のDTSがDTSLiであり,i番目の下位層画
像のPTSがPTSLiであり,i番目の強化層画像のDTSがDTS
Hiであり,i番目の強化層画像のPTSがPTSHiであり,Fは
連続画像のプレゼンテーションの間の時間間隔であり,
i番目の下位層画像が閉じたGOPインジケータを有する内
部符号化画像(I画像)であるとき,PTSLi=DTSLi+2Fで
あるところの工程,から成る方法。
19. A method for decoding a sequence of video images in a lower layer and an enhancement layer of a stereoscopic video signal in parallel, said lower layer comprising two consecutive bidirectional predictive coded images (B images). A method comprising at least one group, comprising a decoding time stamp (DTS) and a presentation time stamp (PTS) for respectively indicating the time for decoding and presenting each said image. ) To the image, wherein the DTS of the i-th lower layer image is DTS Li , the PTS of the i-th lower layer image is PTS Li , and the DTS of the i-th enhancement layer image is DTS Li.
Hi , the PTS of the ith enhancement layer image is PTS Hi , F is the time interval between presentations of successive images,
PTS Li = DTS Li + 2F when the i-th lower layer picture is an inner coded picture (I picture) having a closed GOP indicator.
【請求項20】請求項19に記載の方法であって,i番
目の下位層画像が予測符号化画像(P画像)でありかつ
(i+1)番目の下位層画像が閉じたGOPインジケータを有す
るI画像であるとき,PTSLi=DTSLi+2Fである,ところの
方法。
20. The method according to claim 19, wherein the i-th lower layer image is a prediction coded image (P image) and
The method wherein PTS Li = DTS Li + 2F when the (i + 1) th lower layer image is an I image with a closed GOP indicator.
【請求項21】請求項19または20に記載の方法であ
って,i番目の下位層画像がP画像インジケータであり
かつ(i+1)番目の下位層画像が閉じたGOPインジケータを
有するI画像でないとき,PTSLi=DTSLi+4Fである,とこ
ろの方法。
21. The method according to claim 19, wherein the i-th lower layer image is a P image indicator and the (i + 1) th lower layer image has a closed GOP indicator. If not, the method of PTS Li = DTS Li + 4F.
【請求項22】請求項19から21のいずれかに記載の
方法であって,i番目の下位層画像が開いたGOPインジケ
ータを有するI画像でありかつ(i+1)番目の下位層画像
が閉じたGOPインジケータを有するI画像でないとき,P
TSLi=DTSLi+4Fである,ところの方法。
22. The method according to claim 19, wherein the i-th lower-layer image is an I image having an open GOP indicator, and the (i + 1) -th lower-layer image is If not an I-picture with a closed GOP indicator, P
The method where TS Li = DTS Li + 4F.
【請求項23】請求項19から22のいずれかに記載の
方法であって,i番目の下位層画像がB画像であると
き,PTSLi=DTSLi+Fである,ところの方法。
23. The method according to claim 19, wherein when the i-th lower layer image is a B image, PTS Li = DTS Li + F.
【請求項24】請求項19に記載の方法であって,DTS
Hi=PTSHi=PTSLi=DTSLi+2Fである,ところの方法。
24. The method according to claim 19, wherein the DTS
Hi = PTS Hi = PTS Li = DTS Li + 2F.
JP9329371A 1996-10-24 1997-10-24 Synchronization of stereoscopic video sequence Pending JPH10174126A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US736383 1996-10-24
US08/736,383 US5886736A (en) 1996-10-24 1996-10-24 Synchronization of a stereoscopic video sequence

Publications (1)

Publication Number Publication Date
JPH10174126A true JPH10174126A (en) 1998-06-26

Family

ID=24959663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9329371A Pending JPH10174126A (en) 1996-10-24 1997-10-24 Synchronization of stereoscopic video sequence

Country Status (9)

Country Link
US (1) US5886736A (en)
EP (1) EP0838959B1 (en)
JP (1) JPH10174126A (en)
KR (1) KR19980033135A (en)
CN (1) CN1112806C (en)
CA (1) CA2218607C (en)
DE (1) DE69722556T2 (en)
NO (1) NO974891L (en)
TW (1) TW349311B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044687A (en) * 2008-09-30 2012-03-01 Panasonic Corp Receiving device and receiving method

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2101494B1 (en) 1996-02-28 2013-01-23 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
KR100203262B1 (en) * 1996-06-11 1999-06-15 윤종용 Interface device of video decoder for syncronization of picture
US6573819B1 (en) * 1996-12-04 2003-06-03 Matsushita Electric Industrial Co., Ltd. Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device
DE69835388T2 (en) * 1997-03-17 2007-07-19 Sony Corp. Image encoder and image decoder
WO1998044742A1 (en) * 1997-04-01 1998-10-08 Sony Corporation Picture coding device, picture coding method, picture decoding device, picture decoding method, and providing medium
US6993201B1 (en) * 1997-07-08 2006-01-31 At&T Corp. Generalized scalability for video coder based on video objects
US6233356B1 (en) * 1997-07-08 2001-05-15 At&T Corp. Generalized scalability for video coder based on video objects
US6229850B1 (en) * 1997-07-22 2001-05-08 C-Cube Semiconductor Ii, Inc. Multiple resolution video compression
US6118498A (en) * 1997-09-26 2000-09-12 Sarnoff Corporation Channel scanning and channel change latency reduction in an ATSC television receiver
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US6731811B1 (en) * 1997-12-19 2004-05-04 Voicecraft, Inc. Scalable predictive coding method and apparatus
US6055274A (en) * 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
US6292512B1 (en) * 1998-07-06 2001-09-18 U.S. Philips Corporation Scalable video coding system
US6275253B1 (en) * 1998-07-09 2001-08-14 Canon Kabushiki Kaisha Stereographic image compression with image moment normalization
US6215825B1 (en) * 1998-07-09 2001-04-10 Canon Kabushiki Kaisha Stereographic image compression with image difference generation and lossy compression
US6191839B1 (en) * 1999-05-03 2001-02-20 Rockwell Collin, Inc. Patterned thermal sensor
US7245663B2 (en) * 1999-07-06 2007-07-17 Koninklijke Philips Electronis N.V. Method and apparatus for improved efficiency in transmission of fine granular scalable selective enhanced images
WO2001076257A1 (en) * 2000-03-31 2001-10-11 Koninklijke Philips Electronics N.V. Encoding of two correlated sequences of data
US6718507B1 (en) * 2000-09-12 2004-04-06 At&T Corp. System and method for representing compressed information
US7133449B2 (en) * 2000-09-18 2006-11-07 Broadcom Corporation Apparatus and method for conserving memory in a fine granularity scalability coding system
US7042944B2 (en) * 2000-09-22 2006-05-09 Koninklijke Philips Electronics N.V. Single-loop motion-compensation fine granular scalability
US7463683B2 (en) * 2000-10-11 2008-12-09 Koninklijke Philips Electronics N.V. Method and apparatus for decoding spatially scaled fine granular encoded video signals
JP4668515B2 (en) * 2001-01-30 2011-04-13 韓國電子通信研究院 Metadata transmission apparatus and method synchronized with multimedia contents
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding
US20020191625A1 (en) * 2001-05-25 2002-12-19 Patrick Kelly Table-based correlation of base and enhancement layer frames
EP1328127A1 (en) * 2002-01-09 2003-07-16 Beta Research GmbH Simultaneous feeding and synchronisation of audio and video data
US20050220441A1 (en) * 2002-07-16 2005-10-06 Comer Mary L Interleaving of base and enhancement layers for hd-dvd
KR20050026960A (en) * 2002-07-16 2005-03-16 톰슨 라이센싱 에스.에이. Interleaving of base and enhancement layers for hd-dvd using alternate stream identification for enhancement layer
KR100488804B1 (en) * 2002-10-07 2005-05-12 한국전자통신연구원 System for data processing of 2-view 3dimention moving picture being based on MPEG-4 and method thereof
US20050135478A1 (en) * 2003-12-18 2005-06-23 Van Der Schaar Mihaela Reduction of layer-decoding complexity by reordering the transmission of enhancement layer frames
KR101145261B1 (en) * 2004-02-27 2012-05-24 삼성전자주식회사 Information storage medium containing multimedia data, reproducing method and apparatus thereof
CN1926576A (en) * 2004-02-27 2007-03-07 Td视觉有限公司 Method and system for digital coding three-dimensional video image
WO2005083637A1 (en) * 2004-02-27 2005-09-09 Td Vision Corporation, S.A. De C.V. Method and system for digital decoding 3d stereoscopic video images
US7725799B2 (en) * 2005-03-31 2010-05-25 Qualcomm Incorporated Power savings in hierarchically coded modulation
WO2007027010A1 (en) * 2005-07-15 2007-03-08 Samsung Electronics Co., Ltd. Apparatus and method of encoding video and apparatus and method of decoding encoded video
US8937997B2 (en) * 2006-03-16 2015-01-20 Apple Inc. Scalable video coding/multiplexing compatible with non-scalable decoders
US20100091845A1 (en) * 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
KR100949983B1 (en) * 2006-03-30 2010-03-29 엘지전자 주식회사 Method and apparatus for decoding / encoding video signal
WO2007148909A1 (en) * 2006-06-19 2007-12-27 Lg Electronics, Inc. Method and apparatus for processing a vedeo signal
US7632974B2 (en) * 2006-07-19 2009-12-15 Lammus Technology Inc. Alkylation process for increased conversion and reduced catalyst use
WO2008023968A1 (en) * 2006-08-25 2008-02-28 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
US7456760B2 (en) * 2006-09-11 2008-11-25 Apple Inc. Complexity-aware encoding
US20080095238A1 (en) * 2006-10-18 2008-04-24 Apple Inc. Scalable video coding with filtering of lower layers
JP5124583B2 (en) * 2006-10-18 2013-01-23 トムソン ライセンシング Method and apparatus for local brightness and color compensation without explicit signaling
CN101569197B (en) 2006-12-21 2013-07-10 汤姆森许可贸易公司 Methods and apparatus for improved signaling using high level syntax for multi-view video coding and decoding
EP2116059A2 (en) * 2007-01-04 2009-11-11 Thomson Licensing Methods and apparatus for video error correction in multi-view coded video
US20090060035A1 (en) * 2007-08-28 2009-03-05 Freescale Semiconductor, Inc. Temporal scalability for low delay scalable video coding
MY162861A (en) 2007-09-24 2017-07-31 Koninl Philips Electronics Nv Method and system for encoding a video data signal, encoded video data signal, method and system for decoding a video data signal
CN101415114B (en) * 2007-10-17 2010-08-25 华为终端有限公司 Method and apparatus for encoding and decoding video, and video encoder and decoder
KR100954290B1 (en) * 2007-12-10 2010-04-26 한국전자통신연구원 Method and apparatus for processing high quality media data in DMB broadcasting system
WO2009090868A1 (en) * 2008-01-17 2009-07-23 Panasonic Corporation Recording medium on which 3d video is recorded, recording medium for recording 3d video, and reproducing device and method for reproducing 3d video
KR101472332B1 (en) * 2008-04-15 2014-12-15 삼성전자주식회사 Method, method and apparatus for providing three-dimensional digital contents
US20090262838A1 (en) * 2008-04-21 2009-10-22 Qualcomm Incorporated Method and apparatus for encoding transmission data blocks for enhanced switching performance
US20090304086A1 (en) * 2008-06-06 2009-12-10 Apple Inc. Method and system for video coder and decoder joint optimization
EP2420068A4 (en) * 2009-04-13 2012-08-08 Reald Inc Encoding, decoding, and distributing enhanced resolution stereoscopic video
JP4985807B2 (en) * 2009-04-15 2012-07-25 ソニー株式会社 Playback apparatus and playback method
US8705624B2 (en) * 2009-11-24 2014-04-22 STMicroelectronics International N. V. Parallel decoding for scalable video coding
WO2011091301A1 (en) * 2010-01-21 2011-07-28 General Instrument Corporation Full resolution stereoscopic video with 2d backward compatible signal
KR20110088334A (en) * 2010-01-28 2011-08-03 삼성전자주식회사 Method and apparatus for generating data stream for providing 3D multimedia service, Method and apparatus for receiving data stream for providing 3D multimedia service
KR101277267B1 (en) * 2010-04-02 2013-06-20 전자부품연구원 Coding method and apparatus for 3D broadcasting
US9378561B1 (en) * 2010-06-08 2016-06-28 Ambarella, Inc. Layer switching in an H.264 scalable video decoder
US8976856B2 (en) 2010-09-30 2015-03-10 Apple Inc. Optimized deblocking filters
KR101767045B1 (en) * 2010-12-17 2017-08-10 삼성전자 주식회사 The image processing apparatus and method thereof
US8643699B2 (en) * 2011-04-26 2014-02-04 Mediatek Inc. Method for processing video input by detecting if picture of one view is correctly paired with another picture of another view for specific presentation time and related processing apparatus thereof
JP6025065B2 (en) * 2011-09-13 2016-11-16 パナソニックIpマネジメント株式会社 Encoding device, decoding device, playback device, encoding method, and decoding method
JP2013126048A (en) * 2011-12-13 2013-06-24 Sony Corp Transmitting device, transmission method, receiving device, and reception method
CN103999466B (en) 2011-12-17 2017-08-15 杜比实验室特许公司 Multi-layer intercrossed frame is compatible to strengthen resolution video transmission
US20150089564A1 (en) * 2012-04-23 2015-03-26 Lg Electronics Inc. Signal processing device and method for 3d service
CN104756498B (en) * 2012-09-21 2019-04-23 英特尔公司 Cross-layer motion vector prediction
KR20140103569A (en) * 2013-02-18 2014-08-27 한국전자통신연구원 Method and apparatus for selecting adaptive layer, and server with the same
US20140301436A1 (en) * 2013-04-05 2014-10-09 Qualcomm Incorporated Cross-layer alignment in multi-layer video coding
JP6605789B2 (en) * 2013-06-18 2019-11-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Transmission method, reception method, transmission device, and reception device
JP6354262B2 (en) * 2014-03-31 2018-07-11 株式会社Jvcケンウッド Video encoded data transmitting apparatus, video encoded data transmitting method, video encoded data receiving apparatus, video encoded data receiving method, and video encoded data transmitting / receiving system
WO2024235908A1 (en) * 2023-05-16 2024-11-21 Interdigital Ce Patent Holdings, Sas Multilayer video coding with constrained complexity

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2083203C (en) * 1991-11-19 1996-10-29 Riichi Nagura Image data transmission system capable of obtaining a high resolution stereo image with reduced transmission data
NL9201593A (en) * 1992-09-14 1994-04-05 Nederland Ptt System comprising a first encoder for encoding a first digital signal, a second encoder for encoding a second digital signal and at least one decoder for decoding encoded digital signals, and an encoder and decoder for use in the system.
EP0639031A3 (en) * 1993-07-09 1995-04-05 Rca Thomson Licensing Corp Method and apparatus for encoding stereo video signals.
JPH07123447A (en) * 1993-10-22 1995-05-12 Sony Corp Method and device for recording image signal, method and device for reproducing image signal, method and device for encoding image signal, method and device for decoding image signal and image signal recording medium
US5559999A (en) * 1994-09-09 1996-09-24 Lsi Logic Corporation MPEG decoding system including tag list for associating presentation time stamps with encoded data units
KR0137701B1 (en) * 1994-12-13 1998-05-15 양승택 Pes packetizing apparatus of mpeg-2 system
US5612735A (en) * 1995-05-26 1997-03-18 Luncent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
US5652616A (en) * 1996-08-06 1997-07-29 General Instrument Corporation Of Delaware Optimal disparity estimation for stereoscopic video coding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044687A (en) * 2008-09-30 2012-03-01 Panasonic Corp Receiving device and receiving method
US9344703B2 (en) 2008-09-30 2016-05-17 Panasonic Intellectual Property Management Co., Ltd. Recording medium, playback device, system LSI, playback method, glasses, and display device for 3D images

Also Published As

Publication number Publication date
CN1112806C (en) 2003-06-25
DE69722556T2 (en) 2004-05-13
EP0838959A3 (en) 1999-03-24
CA2218607C (en) 2004-07-13
CA2218607A1 (en) 1998-04-24
TW349311B (en) 1999-01-01
NO974891L (en) 1998-04-27
HK1010775A1 (en) 1999-06-25
US5886736A (en) 1999-03-23
NO974891D0 (en) 1997-10-23
DE69722556D1 (en) 2003-07-10
MX9708213A (en) 1998-08-30
CN1187734A (en) 1998-07-15
EP0838959B1 (en) 2003-06-04
EP0838959A2 (en) 1998-04-29
KR19980033135A (en) 1998-07-25

Similar Documents

Publication Publication Date Title
US5886736A (en) Synchronization of a stereoscopic video sequence
EP0817493B1 (en) Rate control for stereoscopic digital video encoding
US5619256A (en) Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
US5612735A (en) Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
US6043838A (en) View offset estimation for stereoscopic video coding
JP4417421B2 (en) Binocular / multi-view 3D moving image processing system and method
US7787539B2 (en) Decoding and presentation time stamps for MPEG-4 advanced video coding
EP0862837B1 (en) Method and apparatus for statistical -multiplexing programs using decoder buffer fullness
EP2538674A1 (en) Apparatus for universal coding for multi-view video
KR100375708B1 (en) 3D Stereosc opic Multiview Video System and Manufacturing Method
US8913503B2 (en) Method and system for frame buffer compression and memory resource reduction for 3D video
EP1069774A1 (en) Encoding device, encoding method, decoding device, decoding method, coding system and coding method
EP1069777A1 (en) Encoding system, encoding method, decoding system, decoding method, multiplexing device, multiplexing method, display system and display method
WO1997019561A9 (en) Method and apparatus for multiplexing video programs
KR100566100B1 (en) Adaptive Multiplexer / Demultiplexer and Method for 3D Multiview Multimedia Processing
HK1010775B (en) Synchronization of a stereoscopic video sequence
MXPA97008213A (en) Synchronization of a stereoscop video sequence
JP4148200B2 (en) MPEG image data recording apparatus and MPEG image data recording method
HK1008285A (en) Rate control for stereoscopic digital video encoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080507

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090210

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090507