[go: up one dir, main page]

JP2008507920A - 動きベクトル割当のための方法および装置 - Google Patents

動きベクトル割当のための方法および装置 Download PDF

Info

Publication number
JP2008507920A
JP2008507920A JP2007522758A JP2007522758A JP2008507920A JP 2008507920 A JP2008507920 A JP 2008507920A JP 2007522758 A JP2007522758 A JP 2007522758A JP 2007522758 A JP2007522758 A JP 2007522758A JP 2008507920 A JP2008507920 A JP 2008507920A
Authority
JP
Japan
Prior art keywords
motion vector
region
interpreted
video frame
dividing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007522758A
Other languages
English (en)
Other versions
JP4448173B2 (ja
Inventor
シ、ファン
ラビーンドラン、ビジャヤラクシュミ・アール.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2008507920A publication Critical patent/JP2008507920A/ja
Application granted granted Critical
Publication of JP4448173B2 publication Critical patent/JP4448173B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

第1の参照フレームおよび第2の参照フレームを用いて内挿されるべきビデオフレームのための複数の動きベクトルを処理するための方法であって、各参照フレームがコンテンツマップを有しており、その方法が、解釈されるべきビデオフレームを複数の領域に分割することと、第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて1つの領域を通過する動きベクトルの数を決定することと、その1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てる1つの動きベクトルを発生することとを含む方法。また、本方法を実行するための装置も説明される。
【選択図】 図4

Description

米国特許法119条の下での優先権主張
本特許出願は仮出願番号60/590,110の優先権を主張する。これはこの文書の譲渡人に譲渡され、これによって、ここに参照として明白に組み込まれている。
同時係属中の特許出願への参照
本特許出願は以下の同時係属中の米国特許出願に関連する。
これと共に同時に出願された米国出願番号11/122,678 “Method and Apparatus for Motion Compensated Frame Rate Up Conversion for Block-Based Low Bit-Rate Video”(「ブロックベースの低ビットレートビデオのための動き補償フレームレートアップコンバージョンのための方法および装置」)。これはこの文書の譲渡人に譲渡され、これによって、ここに参照として明白に組み込まれている。
発明の分野
ここに説明される実施例は一般にはビデオ画像処理に関する。より詳細には動きベクトル割当のための方法および装置に関する。
低ビットレートビデオ圧縮は、無線ビデオストリーミングおよびテレビ電話のような多くのマルチメディア用途において、限られた帯域幅資源および利用可能な帯域幅の変動性のため、非常に重要である。低ビットレートでの帯域幅適応ビデオ符号化は、時間的分解能を低減させることによって達成することができる。言い換えれば、毎秒30フレーム(fps)のビットストリームを圧縮し送信する代わりに、時間的分解能を15fpsと半分にして伝送ビットレートを減少することができる。帯域幅を減少するための1つの典型的な方法は、たとえばフレームの一部または全部を除去するような、符号化した信号から冗長な情報を抽出し除去することによる。しかし、時間的分解能の減少の結果、復号されたビデオの視覚品質を著しく低下させる動きジャーキーのような時間領域のアーチファクトが生ずる。
受信機側においてフルフレームレートを表示するために、フレームレートアップコンバージョン(FRUC)と呼ばれる回復メカニズムが、飛ばしたフレームを再生成し、時間的アーチファクトを減少させるために必要である。一般に、FRUCは、再構成されたビデオの知覚フレームレートを増加するための、ビデオ復号器におけるビデオ内挿処理である。多くのFRUCアルゴリズムが提案されており、2つの一般的な種類に分類することができる。第1の種類は、対象の動きを考慮せずに受信ビデオフレームの組合せを用いて欠けているフレームを内挿する。フレーム反復およびフレーム平均法がこの分類に入る。これらの方法の欠点には、動きが含まれる場合、動いている対象の動きジャーキー、「ゴースト」画像、ブレの生成がある。第2の種類は、第1の種類と比較するとより進歩しており、動き補償(フレーム)内挿(MCI)と呼ばれる処理において、符号器から送信される動き情報を利用する。
通常の動き補償予測符号化において、各ビデオフレームは最初に正方形ブロックの画素(ピクセル)、例えば8画素×8画素のブロックに分割される。各ブロックは順次、符号化され、形成された符号化系列は通信チャネル上で復号器へ送信される。符号化処理の間、ブロックの画素が先行フレームの同じ場所のブロックに比較して顕著に変化したか否かの決定がなされる。否の場合、現在のブロック用の画素を得るには先行フレームからのブロック画素を単に繰り返すだけで良いという意味の指示を復号器へ送る。先行フレームから画素が変化している場合、ブロック内で起きている動きの最良推定を決定する試みをする。これは、しばしば現在のブロックの画素を先行フレーム内の対応するブロックのそれぞれ異なる少しシフトした画素と連続的に比較するブロック整合動き推定法によってなされる。最良の整合を与えるシフトは、フレーム間のブロックの画像における変位の「最良推定」であると見なされ、「動きベクトル」と呼ばれるこのシフトの大きさと方向が選択され、復号器へ送られる。また、一度最良整合が検出されると、現在のブロックの画素は先行フレームから「最良」シフトしたブロックの画素と比較され、顕著な差があるかどうかを調べる。顕著な差がない場合、動きベクトルを送る代わりに、先行フレームからシフトしたブロックの画素を、現在のシフトしたブロックに対する画素用に繰り返すように復号器に対して指示が送られる。そのようなブロックは、動き補償に成功していると言われている。しかし、2ブロック間に、顕著な差がある場合、その差は符号化され復号器に送られ、その結果現在のブロックの画素はより正確に回復されるかもしれない。
原画像により正確に似せるために、繰返されるフレームの品質を改良するためのいくつかの提案がされてきた。このように、従来の動き補償予測符号化において、上述のように先行フレームからの画素を単純に繰り返す代わりに、MCIにおいては動きベクトルを用いて表示前に適切な量だけブロックを横方向に変位させる。言い換えれば、この方法は、復号器が利用可能な直前のおよび続く画素ブロックの平均を取ることにより欠けている画素ブロックを生成する。しかし、実験結果によれば、連続したブロックの画像が平行運動を表していない場合、再生画像はフレームの繰り返しによる場合より悪い。この劣化は、平行移動の仮定に従わない比較的小数の画素によって引き起こされることが判っているが、これらの画素を間違った位置に置くと、大きな目に見えるアーチファクトが生成される。
図1の従来技術の中で例示するように、MCIにおいて、欠けたフレーム108は、再構成された現在のフレーム102、格納された先行フレーム104、および一組の送信された動きベクトル106に基づいて内挿される。再構成された現在のフレーム102は一組のオーバラップしていないブロック150、152、154、並びに156、および格納された先行フレーム104内の対応するブロックを指す一組の送信された動きベクトル106と共に構成される。内挿されたフレーム108は現在および先行フレーム内の対応する画素の線形結合またはメジアン操作のような非線形操作のいずれかで構成される。
MCIはより進歩したものであるが、ブロックベースのMCIはオーバラップ領域および空き領域を発生させる。オーバラップ領域はこれを通る複数の動き軌跡を有する領域であり、空き領域はこれを通る動き軌跡のない領域であって、両者共内挿フレーム内にあり、望ましくないものである。図2に示すように、内挿されたフレーム202はオーバラップ領域206および空き領域204を含む。これらの2つのタイプの望ましくない領域が発生する主な理由は以下の通りである。
1.動いている対象は厳密な平行動きモデルの下にない。
2.MCIで用いられる送信された動きベクトルは、符号器側が利用するブロックベースの高速動き検索アルゴリズムが原因で真の動き軌跡を指さないかもしれない。
3.現在のフレームおよび先行レーム内の隠れた背景および隠れていない背景。
オーバラップ領域と空き領域の内挿は通常のブロックベースの動き補償方法における主要な技術的課題である。オーバラップおよび空き領域を埋めるためにメジアンぼかしおよび空き間内挿法が提案されている。しかし、これらの方法の欠点は、ぼけ並びにブロックアーチファクトの発生、および内挿操作の複雑さの増加である。
適切な動きベクトル割当は、動き補償FRUCにおける内挿フレームに必要であるため、動き補償FRUCにとって重要である。さらに、動きベクトル割当に基づく適切な動き補償が必要などのような応用においても、適切な動きベクトル割当は有用である。従って、上述した問題を克服する要求がある。
ここに説明する実施例は、空きおよびオーバラップ領域を有する内挿されるべきフレームに対する動きベクトル割当処理を提供する。
一実施例において、第1の参照フレームおよび第2の参照フレームを用いて内挿されるべきビデオフレームのための複数の動きベクトルを処理するための方法であって、各参照フレームがコンテンツマップを有している方法が説明される。その方法は、解釈されるべきビデオフレームを複数の領域に分割することと、第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて1つの領域を通過する動きベクトルの数を決定することと、1つの領域を通過する動きベクトルの数に基づいて1つの領域へ1つの動きベクトルを割り当てることとを含む。
他の実施例において、内挿されるべきビデオフレームのために、第1の参照フレームおよび第2の参照フレームを用いて複数の動きベクトルを処理するための方法を計算機に実行させるための格納された命令を有する計算機読み出し可能媒体であって、各参照フレームがコンテンツマップを有している計算機読み出し可能媒体が開示される。その方法は、解釈されるべきビデオフレームを複数の領域に分割することと、第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて1つの領域を通過する動きベクトルの数を決定することと、1つの領域を通過する動きベクトルの数に基づいて1つの領域へ1つの動きベクトルを割り当てることとを含む。
さらに他の実施例において、第1の参照フレームおよび第2の参照フレームを用いて内挿されるべきビデオフレームのための複数の動きベクトルを処理するための装置であって、各参照フレームがコンテンツマップを有している装置が開示される。その装置は、解釈されるべきビデオフレームを複数の領域に分割するための手段と、第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて1つの領域を通過する動きベクトルの数を決定するための手段と、1つの領域を通過する動きベクトルの数に基づいて1つの領域へ1つの動きベクトルを割り当てるための手段とを含む。
さらに他の実施例において、第1の参照フレームおよび第2の参照フレームを用いて内挿されるべきビデオフレームのための複数の動きベクトルを処理するため方法を実施するように構成された少なくとも1つのプロセッサであって、各参照フレームがコンテンツマップを有しているプロセッサが開示される。その方法は、解釈されるべきビデオフレームを複数の領域に分割することと、第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて1つの領域を通過する動きベクトルの数を決定することと、1つの領域を通過する動きベクトルの数に基づいて1つの領域へ1つの動きベクトルを割り当てることとを含む。
他の目的、特徴、および利点は以下の詳細な説明から当業者に明らかになるだろう。しかし、詳細な説明および特定の例は、代表的実施例を示しているが、制限ではなく例示で与えられていることが理解されるだろう。以下の説明の範囲内で多くの変更と修正が、その精神から逸脱することなく、なされるかもしれない。また、その説明はすべてのそのような変形を含むと理解されるべきである。
ここに説明される実施例は添付図面を参照することにより、より容易に理解されるかもしれない。
いくつかの図面を通じて同じ番号は同じ部品を参照する。
ここに説明する実施例は、動きベクトル割当において可変ブロックサイズベース、ブロックベース、および画素ベースの変形をサポートする動きベクトル割当方法および装置を提供する。ここに説明した動きベクトル割当の方法および装置は、例えばフレームレートアップコンバージョン(FRUC)処理のような処理において、より高品質の「Fフレーム」とも呼ばれる内挿フレームの生成を支援する。復号されたビデオデータに含まれる補助情報は動きベクトル割当処理への入力として利用される。補助情報は、例えば各フレームを構成する「コンテンツマップ」と呼ばれるグラフィック要素の形式の記述を含むかもしれない。また同様に「複雑さマップ」、「活動度マップ」とそれぞれ呼ばれる要素の複雑さおよび動きの記述を含むかもしれない。ここに説明される動きベクトル割当は、内挿フレームの生成中に遭遇する、内挿フレームでは不要なオーバラップおよび空き領域のような問題について検討する。
図3に内挿されるべきフレームとも呼ばれるF-フレームのための動きベクトル割当を実行できるシステム300を示す。FRUCシステム300は入力ビットストリーム302を受信し、以下を抽出するためにビットストリームにバイナリ復号器モジュール306を用いる:(1)格納された動きベクトルバッファ316内に置かれる1組の動きベクトル308、および(2)残差310。残差310は逆量子化/逆変換モジュール312に入力される。その結果は格納された先行フレームバッファ318内の格納された先行フレームと結合され現在のフレームを生成する。現在のフレームは現在フレームバッファ320内に格納される。格納された動きベクトルバッファ316、格納されたフレームバッファ318、および現在のフレームバッファ320を含むFRUCシステム300の下位部分350は、ここに説明されるように、代表的一実施例に従って動きベクトル割当を実行するための特定の機能モジュールを含む。詳細には、下位部分350は動きベクトルプロセッサ322、シードされた双方向動き推定モジュール324、第2の動きベクトルプロセッサ326、モード決定モジュール328、フレームレートアップコンバータ(FRUC)モジュール330、および後処理ユニット332を含む。FRUCシステム300の動作は図の説明と関連して以下にさらに説明される。さらに、ここに説明されるシステムと共に用いられるかもしれない1つの代表的動きベクトル外挿およびコンテンツ分類システムは、同時係属中の出願番号____の“Method and Apparatus for Frame Rate Up Conversion”(フレームレートアップコンバージョンのための方法および装置)[Fang Shi, Viji Raveendran. June 15, 2004]に記述されている。さらに、ここで説明されるシステムと共に用いられるかもしれない1つの代表的動きベクトル平滑化処理は、同時係属中の出願番号____の “Method and Apparatus for Motion Vector Processing”(動きベクトル処理のための方法および装置)[Fang Shi, Viji Raveendran]に記述されている。同時係属中の出願番号____の“Method and Apparatus
for Motion Compensated Frame Rate Up Conversion”(動き補償されたフレームレートアップコンバージョンのための方法および装置)[040432]は、ここでは詳細には説明しないFRUCシステム300の他の構成要素の代表的実施例を提供する。
一実施例における図3に示す機能モジュールは、1つ以上のソフトウェアアルゴリズムを用いて実施されるかもしれない特定モジュールに対応することに注意すべきである。アルゴリズムの動作は、通常の当業者がハードウェアおよびソフトウェアによる方法の組合せを用いてそれらを実施することができるように十分な詳細さを持って高いレベルで説明される。例えば、ここに説明される部品は汎用プロセッサで実行されるソフトウェアとして、特定用途向IC(ASIC)の「結線された」回路として、またはそれらの任意の組み合わせで実施されるかもしれない。ここに説明されたモジュールの実施のために種々の他の方法が採られるかもしれず、またそれらは画像およびビデオ処理の広い分野で仕事をする通常の当業者の分野の範囲内にあるはずであることに注意すべきである。
さらに、ここに説明された発明概念は、国際電気通信連合電気通信標準化部門(ITU−T)により公表されたH.26x規格、または国際標準化機構/国際電気標準会議合同専門委員会1(ISO/IEC JTC1)の作業班である動画像専門家グループにより公表されたMPEGx規格に準拠する復号器/符号器において用いられるかもしれない。ITU−Tビデオ符号化規格は勧告と呼ばれ、それらはH.26x(例えば、H.261、H.262、H.263、およびH.264)で示される。ISO/IEC規格はMPEG−x(例えば、MPEG−1、MPEG−2、およびMPEG−4)で示される。例えば、複数参照フレームおよび可変ブロックサイズはH.264規格に要求される特徴である。他の実施例において、ここに説明される発明概念が用いられる復号器/符号器システムは専用的であるかもしれない。
一実施例において、FRUCシステム300は異なる複雑さの要求に基づいて構成されるかもしれない。例えば、複雑さの高い構成は複数の参照フレーム、可変ブロックサイズ、動き加速モデルによる先行参照フレーム動きベクトル外挿、および動き推定支援による二重動きフィールド平滑化を含むかもしれない。対照的に、複雑さの低い構成は単一の参照フレーム、固定ブロックサイズ、および動きフィールド平滑化による動き補償内挿を含むだけかもしれない。
システム300は、処理に用いられるビデオフレームに関する情報を格納し抽出するために用いられるデータサブシステム400内の複数のデータ蓄積ユニットから入力を受信する。図4に示すように、これらの蓄積ユニットは、複数先行フレームのコンテンツマップ蓄積ユニット(MULTIPLE F_PREV CONTENT MAP)402、複数先行フレームの外挿動きフィールド蓄積ユニット (EXTRAPOLATED MULTIPLE F_PREV MOTION FIELDS) 404,単一先行フレームのコンテンツマップ蓄積ユニット(F_PREV CONTENT MAP) および単一先行フレームの外挿動きフィールド蓄積ユニット(EXTRAPOLATED F_PREV MOTION FIELD) 408を含む。複数参照フレームモード制御器モジュール414は、システム300が複数参照フレームを利用するモードで動作するかどうかに従って、適切な蓄積ユニットを次段の入力に接続する。具体的には、システム300が複数の先行参照フレームを利用する場合には、入力は複数先行フレームのコンテンツマップ蓄積ユニット402および複数先行フレームの外挿動きフィールド蓄積ユニット404から取られる。単一の先行参照フレームの動作に対しては、入力は単一先行フレームのコンテンツマップ蓄積ユニット406および単一先行フレームの外挿動きフィールド蓄積ユニット408から取られる。
図はコンテンツマップおよび動きフィールドを蓄積するための2つの異なるセットの蓄積ユニットの使用を示しているが、他の構成が可能であることに注意すべきである。2つのセットとは、1つは複数参照フレームが用いられる場合のため(すなわち、複数先行フレームのコンテンツマップ蓄積ユニット402および複数先行フレームの外挿動きフィールド蓄積ユニット404)、もう一方のセットは単一参照フレームが用いられる場合のため(すなわち単一先行フレームのコンテンツマップ蓄積ユニット406および単一先行フレームの外挿動きフィールド蓄積ユニット408)である。例えば、2つの異なるコンテンツマップ蓄積ユニットの機能は結合されるかもしれない。その結果、1つの蓄積ユニットが、複数フレームに対する複数のコンテンツマップまたは単一フレームに対する単一コンテンツマップを蓄積するために用いられるかもしれない。さらに、蓄積ユニットは、現在のフレームに対するデータも同様に蓄積するかもしれない。
複数参照フレームモード制御器モジュール414および現在のフレーム動きフィールド蓄積ユニット(F_CURR MOTION FIELD)410、並びに現在のフレームコンテンツマップ蓄積ユニット(F_CURR CONTENT MAP)412の出力は、動きベクトル外挿ユニット416に供給される。動きベクトル外挿ユニット416は、ここに説明されるように、システム300内の動きベクトル処理のために用いられる補足的情報および動きベクトルを抽出する。このように、システム300で利用される入力動きベクトルは、現在のフレームから生ずるかもしれないし、現在のフレームおよび1つ以上先行して復号されたフレーム双方から生ずるかもしれない。さらに、システム300への他の入力は、注目領域、テクスチャ情報の変動、および背景輝度を非限定的に含むかもしれない復号されたフレームデータからの副次情報である。この情報は、以下でさらに検討されるように、動きベクトル分類および適応平滑化アルゴリズムのための指標を提供するかもしれない。
図5に代表的な動きベクトル割当処理500の概要を示す。この処理はステップ502で、Fフレームを内挿するために用いられる参照フレームに対するコンテンツマップおよび動きベクトルを得ることから始まる。上記処理がクライアントの復号器で実行される一実施例においては、コンテンツマップおよび動きベクトルは上述したように予めサーバから送信されている。他の実施例において、コンテンツマップまたは動きベクトルはクライアントで生成されるかもしれない。
ステップ504において、Fフレーム(すなわち、内挿されるべきフレーム)内の各ブロック、「Fフレームブロック」、「Fフレームマクロブロック」、または「F_MB」と呼ばれる、は空き領域またはオーバラップ領域のいずれかとして分類される。ここでさらに説明されるように、Fフレーム内の各ブロックがオーバラップ領域または空き領域を含んでいるかを判定するために、Fフレームは最初に一連の非オーバラップブロックに分割される。次に、Fフレームを間に挟む参照フレーム上に始点および終点を持つ動きベクトルがFフレーム内の非オーバラップブロックを通過するかどうかが判定される。前に検討したように、オーバラップされた領域はそこを通過する複数の動き軌跡(すなわち複数の動きベクトル)を有する領域である。一方、空き領域はそこを通過する動き軌跡を持たない(すなわち動きベクトルのない)領域である。したがって、Fフレーム内のあるブロックがそれを通過する複数の動きベクトルを有している場合、それは、オーバラップ領域を含むとして分類され、ここでは「オーバラップ領域ブロック」または「オーバラップ領域」と呼ばれるだろう。さらに、特定のブロックを通過する複数の動きベクトルは、そのブロックをオーバラップ領域ブロックとする原因となるものであり、そのブロックに対する「オーバラップ動きベクトル群」と呼ばれるだろう。このオーバラップ動きベクトル群は、後にさらに説明されるように、ある動きベクトルがオーバラップ動きベクトル群から除外されるかもしれない修正に従うだろう。また、修正された動きベクトル群はここでは「処理後のオーバラップ動きベクトル群」と呼ばれる。他の実施例において、オーバラップ動きベクトル群はある基準に合致する動きベクトルだけを含み、従って処理後のオーバラップ動きベクトル群と等しくなるだろう。1つのブロックがそれを通過する動きベクトルを持たない場合、それは空き領域として分類され、ここでは「空き領域ブロック」または「空き領域」を呼ばれるだろう。一実施例において、それを通過する単一の動きベクトルを有するブロックは、空き領域がないとして分類されるだろう。他の実施例において、これらのタイプのブロックはオーバラップ領域として分類されるだろう。ブロックが一旦分類されると、処理は動き割当処理に続く。これはブロックがどう分類されるかに従う。
ステップ506において、ブロックが空き領域として分類されるかが判定される。空き領域であれば、次に、動作はステップ514へ続く。そこでは、空き領域に対する動きベクトル割当処理が実行される。別の場合は、動作はステップ508へ続く。そこでは、ただ1つの動きベクトルがFフレーム内のブロックを通過するかが判定される。通過する場合、動作はステップ512へ続く。そこでは、標準の動き補償処理が単一動きベクトルに基づいて発生する。ブロックがオーバラップ領域として分類されている場合、次に動作はステップ510へ続く。そこでは、動きベクトル割当処理がオーバラップ領域に対して実行される。
図6に代表的動きベクトル割当処理を例示する。ここでは図5を参照して説明される一般的動きベクトル割当処理が、オーバラップ領域および空き領域に対する動きベクトル割当を実行するためのFRUCシステム300の動作に適用される。システムはステップ602において、先ずFフレーム、この場合解釈されるべきフレーム、を非オーバラップマクロブロック(MB)に分割し、空き領域およびオーバラップ領域の分類をこれらのブロックに割り当てることから始まる。固定ブロックサイズシステムにおいては、フレームは1つの固定サイズのブロックに分割されなければならない。ここに説明するように、マクロブロック(MB)は16×l6サイズのブロックを指す。しかし、ここでの説明は他のサイズのブロックに適用されるかもしれない。さらに、可変ブロックサイズをサポートするシステムにおいて、フレームは異なるサイズおよび形状を有する複数のブロックに分割されるかもしれない。可変ブロックサイズをサポートするビデオコーデックについて、システム300はこれらのブロックに関連している動きベクトルに対する動きベクトル割当を実行することができる。上述したような規格の1つは、H.264規格であり、それは16×16、16×8、8×16、8×8、8×4、4×8、および4×4のブロックサイズをサポートする。
Fフレームが分割されると、ブロックは上で検討したような方法で空き領域またはオーバラップ領域として分類される。そこでは1つのオーバラップ領域ブロックに属するすべての動きベクトルは、それぞれの群にまとめられる。動作はブロック604に続く。そこではFRUCシステム300は参照フレームに対するコンテンツマップが存在するかが判定される。
フレーム内のコンテンツがここで説明するように動きベクトル割当処理の一部として分類されることは重要である。受信したビデオストリームメタデータ(すなわち、送信された動きベクトル)および復号されたデータ(すなわち、再構成されたフレームピクセル値)に基づいて、フレーム内のコンテンツは以下のクラスタイプに分類することができる。
1. 静的背景(SB);
2. 動対象(MO);
3. 出現対象(AO);
4. 消失対象(DO);
5. 輪郭(EDGE)。
したがって、現在の動きベクトルが指向しているフレームの領域、すなわちマクロブロックまたはブロック、のクラスタイプは解析され、内挿されるべきフレームの処理に影響を与えるだろう。コンテンツ分類にEDGEクラスを導入することは、コンテンツ分類の付加的クラスを加え、ここに説明するように改良したFRUC処理を提供する。
図7に、MCIのための動対象(MO)708、出現対象(AO)704、消失対象(DO)710、静的背景(SB)702およびEDGE706のクラスを含む異なるクラスの画素または領域を例示する。ここで一組の矢印712は図示した三個のフレーム、フレーム(t−1)、フレーム(t)(Fフレーム)、およびフレーム(t+1)内の画素の移動軌跡を表す。詳細には、MCIの場面において、各ビデオフレーム内部の各画素または領域を上にリストした5つのクラスの1つに分類することができる。関連する動きベクトルは、以下でさらに説明されるように、クラスタイプ情報の変化(もしあれば)の比較に基づいて特定の方法で処理されるかもしれない。さらに、上述した5つのコンテンツ分類はSB、AOおよびDOクラス間の差が小さい場合、以下の3つのより緩やかなクラスにまとめることができる。
1. SB702、AO704、DO710;
2. MO708;
3. EDGE706。
一実施例において、DO710、SB702、AO704、およびMO708コンテンツの分類を実行するために、異なる計算の複雑さに基づく2つの異なる方法が用いられる。例えば、複雑さの低い方法において、コンテンツを分類するために以下の式が用いられるかもしれない。
Qc=abs(Fc[yn][xn]-Fp[yn][xn]);
Qp=abs(Fp[yn][xn]-Fpp[yn][xn]);
Qc=(Qc>しきい値);
Qp=(Qp>しきい値);
ここで、
ynおよびxnは画素のyおよびx座標位置、
Fcは現在のフレームのピクセル値、
Fpは先行フレームのピクセル値、
Fppは前の前のフレームのピクセル値、
Qcは現在および先行フレームの同じ位置の画素 ([yn][xn]にある)の絶対ピクセル値差、
Qpは先行および前の前のフレームの同じ位置の画素 ([yn][xn]にある)の絶対ピクセル値差である;
また、
if (Qc && Qp) then 動対象に分類、
else if (!Qc && !Qp) then 静止背景に分類、
else if (Qc && !Qp) then 消失対象に分類、
else if (!Qc && Qp) then 出現対象に分類。
例えば、複雑さの高い方法において、分類は、区分化された対象の動きを追跡することによって実行されるコンテンツ分類と共に、対象の区分化および形態素操作に基づく。従って、
1. 動きフィールド上の対象の区分化を実行する、
2. 区分化された対象の動きを追跡(例えば、形態素操作による)する、
3. 対象をそれぞれSB、AO、DO、およびMOとして印をつける。
参照フレームに対してコンテンツマップが存在すると判定された後、ステップ606において、FRUCシステムは、Fフレーム内のオーバラップ領域マクロブロックに関して、次の動きベクトルをオーバラップ動きベクトルの群から除外するだろう。そのベクトルとは、異なるコンテンツクラスから始まるかまたは終了するオーバラップ領域ブロックに属する動きベクトルである。詳細には、各マクロブロックは、上述したようにMO、SB、AO、DO、およびEDGEクラスの1つに(または、SB、AOおよびDOクラス間の差が小さい時は3つのクラスに)分類される参照フレーム内の各マクロブロックのコンテンツタイプを決定するために、各参照フレームのコンテンツマップを用いる。これにより、オーバラップ動きベクトル群内(すなわち、予めオーバラップ領域ブロックを通過するすべての動きベクトルとして定義されている)の任意の動きベクトルが異なるコンテンツクラスを有するマクロブロックで始まりおよび終わるかを判定できる。例えば、MOマクロブロックとして分類されたフレーム(T+1)内のマクロブロックに接している始点を有するが、SBマクロブロックとして分類されたフレーム(T−1)内のマクロブロックに接している終点を有する動きベクトルがそのような動きベクトルだろう。一実施例において、動きベクトルの始点と終点が異なるコンテンツクラスに属する場合、その動きベクトルはオーバラップ動きベクトル群から除去される。前に定義したように、除去されていない動きベクトルは処理済動きベクトル群である。
異なるクラスに分類されるマクロブロックに関連する始点および終点を有する動きベクトルがオーバラップ動きベクトル群から除外され、処理済動きベクトル群が生成されると、動作は判定ブロック608へ続く。そこでは動きベクトルが割り当てられるマクロブロックがオーバラップ領域マクロブロックであるかが判定される。
オーバラップMBに対する動きベクトル割当
ステップ608において、各マクロブロックに対する処理済オーバラップ動きベクトル群が1より大きいオーバラップ動きベクトルを含むかどうかが判定される。含む場合、次に、一実施例において、動作はステップ616へ続く。そこでは、中央画素を通過する動きベクトルがマクロブロックへの動きベクトルの割当に用いられる。他の実施例において、ステップ618に表されるように、割当は最もカバーされた領域の決定に基づく。さらに他の実施例において、ステップ620に表されるように、オーバラップ領域マクロブロック内のカバレッジに基づいて生成される重み付けされた動きベクトルが割り当てられる。また、さらに他の実施例において、ステップ622に表されるように、メジアンベクトルが割り当てられる。これらの各実施例は以下に説明される。
中央画素のMVに基づくMVの割当
一実施例において、動きベクトル割当はマクロブロックの中央画素を通過する動きベクトルを決定することに基づいている。以下のステップを含む系列:
1.現在のフレーム内の現在のMB(x/block_size, y/block_size)で始まる、ここで、(x,y)は現在のマクロブロックの中央画素位置、
2.MB(x,y)の現在の動きベクトル(dx,dy)を計算する、
3.動きベクトルを比例的に縮尺する。Fフレームが正確に現在のフレームと先行フレームの間である1:2FRUCの場合、縮尺は(dx/2,dy/2)である、
4.Fフレーム内のMB、MB_f((x+dx/2)/block_size, (y+dy/2)/block_size)は、MV(dx/2, dy/2)を割り当てられるだろう、
5.F−フレーム内の同じMBに割り当てられた1つ以上のMVがある場合、平均化またはメジアン操作は、最終的なシードMVを得るために実行されるだろう。
領域の大部分をカバーするMBに基づくMVの割当
他の実施例では、動きベクトル割当は動きベクトルをFフレームのマクロブロックの大部分の領域をカバーする関連するマクロブロックと共に決定することに基づく。ステップは以下の通りである:
1. 現在のフレーム内の現在のMB(x/block_size, y/block_size)、ここで、(x、y)が中央画素位置である、
2. MB(x,y)の現在のMV(dx, dy)、
3. MVを比例的に縮尺する。1:2FRUCの場合、縮尺は(dx/2, dy/2)である、
4. MV(dx, dy)はF−フレームを通過し、F−フレーム内の交差位置は(x+dx/2, y+dy/2)である、
5. F-フレーム内に(x+dx/2, y+dy/2)の周囲に集まるMBと重なる最大4個の領域を作る、
a. F_MB_1 (x1, y1)、ここでx1= ((int)(x+dx/2)/block_size)*block_size + block_size/2、y1 = ((int)(y+dy/2)/block_size)*block_size+block_size/2;
b. F_MB_2 (x2, y2)、ここで、x2 = x1+block_size、y2= y1;
c. F_MB_3 (x3, y3)、ここで、x3 = x1+block_size、y3 = y1+block_size;
d. F_MB_4 (x4, y4)、ここで、x4 = x1、y4 = y1+block_size;
6. MBでカバーされる4個のF_MB内に(x+dx/2, y+dy/2)の周囲に集まり、MV(dx/2, dy/2)で計算されたすべての領域に関連する最大4個の領域を作る、
a. Area_MB_1 = (block_size-(x+dx/2-x1))*(block_size-(y+dy/2-y1));
b. Area_MB_2 = (block_size-(x+dx/2-x2))*(block_size-(y+dy/2-y2));
c. Area_MB_3 = (block_size-(x+dx/2-x3))*(block_size-(y+dy/2-y3));
d. Area_MB_4 = (block_size-(x+dx/2-x4))*(block_size-(y+dy/2-y4));
7. F−フレーム内の各F_MBについて、最大領域を与えるMVを選択する。
加重平均MV割当
またさらに他の実施例において、動きベクトル割当はマクロブロックをカバーする複数マクロブロックの加重平均に基づく。ステップは以下の通りである:
1. 現在のフレームの現在のMB(x/block_size, y/block_size)。ここで(x,y)は中央画素位置である、
2. MB(x,y)の現在のMV(dx,dy)、
3. MVを比例的に縮尺する。1:2FRUCの場合、縮尺は(dx/2, dy/2)である、
4. MV(dx, dy)はF−フレームを通過し、F−フレーム内の交差位置は(x+dx/2, y+dy/2)である、
5. F-フレーム内に(x+dx/2, y+dy/2)の周囲に集まるMBと重なる最大4個の領域を作る、
a. F_MB_1(x1, y1); x1=((int)(x+dx/2)/block_size)*block_size + block_size/2; y1 = ((int)(y+dy/2)/block_size)*block_size+block_size/2;
b. F_MB_2 (x2, y2); x2 = x1+block_size、y2 = y1;
c. F_MB_3 (x3, y3); x3 = x1+block_size、y3 = y1+block_size;
d. F_MB_4 (x4, y4); x4 = x1、y4 = y1+block_size;
6. MBでカバーされる4個のF_MB内に(x+dx/2,y+dy/2)の周囲に集まり、MV(dx/2,dy/2)で計算されたすべての領域に関連する最大4個の領域を作る、
a. Area_MB_1 = (block_size-(x+dx/2-x1))*(block_size-(y+dy/2-y1));
b. Area_MB_2 = (block_size-(x+dx/2-x2))*(block_size-(y+dy/2-y2));
c. Area_MB_3 = (block_size-(x+dx/2-x3))*(block_size-(y+dy/2-y3));
d. Area_MB_4 = (block_size-(x+dx/2-x4))*(block_size-(y+dy/2-y4));
7. N個のMVがF_MBを通過する場合、加重MVをF_MBに割り当てる、
MV = w_1 *MV1+ w_2*MV_2+....+w_N*MV_N
ここで、w_iは重み係数である:
w_i = area_i/block_size/block_size。
予めステップ608でFフレームマクロブロックがオーバラップした動きベクトルを有しないと判定されたステップ628において、システムはFフレームマクロブロックがそれを通過する単一の動きベクトルを有しているか(すなわち、ただ1つの動きベクトルが処理済動きベクトル群内にあるかどうか)を判定する。有している場合、動作はステップ630へ続く。そこでは標準の動きベクトル割当が実行される。そうでなければ、Fフレームマクロブロックはそこを通過するいかなる動きベクトルも有しないと判定され、ステップ622へ続く。そこでは一実施例においてゼロ値の動きベクトルがFフレームマクロブロックに割り当てられる。他の実施例において、ステップ624に表されるように、Fフレームマクロブロックはそのマクロブロックに隣接する利用可能な動きベクトルの平均である動きベクトルが割り当てられる。さらに他の実施例において、ステップ626に表されるように、Fフレームマクロブロックはそのマクロブロックに隣接する利用可能な動きベクトルのメジアンである動きベクトルが割り当てられる。
図6において動きベクトル割当処理はFフレームマクロブロックがオーバラップした領域のマクロブロックであるかどうかを検査することに始まるが、その処理はFフレームマクロブロックが空き領域マクロブロックである場合またはFフレームマクロブロックを通過するただ1つの動きベクトルがある場合に等しく適用すると理解されるべきであり、またそのような処理フローへの変更は、実施する通常の当業者の能力の十分範囲内にあることに注意すべきである。
図8にFRUCシステム300に対するブロックベースではなく画素ベースの動きベクトル割当処理を示す。ここでは図6のステップ604と同様にステップ806においてコンテンツマップが参照フレームに対して存在するかどうかが判定される。存在する場合、図6のステップ606と同様に、異なるコンテンツクラスで始まりかつ終わるいかなる隣接動きベクトルもステップ808で除外される。次に、動作はステップ816に続く。そこでは、画素がオーバラップしているかが判定される。オーバラップしている場合、次に、動作はステップ818へ続く。そこでは、異なるコンテンツクラスの終点に基づいて除去されていないオーバラップ動きベクトルのメジアンに基づいて、メジアン動きベクトルがその画素に割り当てられる。他の実施例において、ステップ820に表されるように、異なるコンテンツクラスの終点に基づいて除去されていないオーバラップ動きベクトルの平均に基づいて、平均動きベクトルがその画素に割り当てられる。
Fフレームの画素がオーバラップ領域にない場合、ステップ828において、単一動きベクトルがその画素を通過するかが判定される。通過する場合、動作はステップ830へ続く。そこではその画素はそれを通過する動きベクトルを割り当てられる。そうでなければ、画素は空き領域であると判定され、動作はステップ822へ続く。そこではメジアン動きベクトルが隣接動きベクトルのメジアンに基づいて画素に割り当てられる。他の実施例において、ステップ820に表されるように、平均動きベクトルは隣接動きベクトルの平均に基づいて、画素に割り当てられる。メジアンおよび平均動きベクトル割当に用いられるかもしれない隣接動きベクトルは、異なる始点および終点コンテンツクラスに基づく除去によって決まるかもしれないことに注意すべきである。
図9に、無線システムにおけるアクセス端末902xおよびアクセスポイント904xのブロック図を示す。ここで検討される「アクセス端末」は、音声および/またはデータの接続性をユーザに提供するデバイスを指す。アクセス端末はラップトップコンピュータまたはデスクトップコンピュータのような計算用デバイスに接続されるかもしれないし、または、携帯情報端末のような自蔵デバイスであるかもしれない。アクセス端末は加入者ユニット、移動局、移動体、遠隔局、遠隔端末、ユーザ端末、ユーザエージェント、またはユーザ機器を指すこともできる。アクセス端末は、加入者局、無線デバイス、携帯電話、PCS電話、コードレス電話、セッション開始プロトコル(SIP)電話、無線ローカルループ(WLL)局、携帯情報端末(PDA)、無線接続能力を有するハンドヘルドデバイス、または無線モデムに接続された他の処理デバイスであるかもしれない。ここで検討される「アクセスポイント」は、1つ以上のセクタを通して無線経由インタフェースでアクセス端末と通信するアクセス網におけるデバイスを指す。アクセスポイントは、受信した無線インタフェースフレームをIPパケットに変換することによって、アクセス端末とIP網を含むかもしれない残りのアクセス網の間のルータとして動作する。また、アクセスポイントは無線インタフェースに対する属性管理を調整する。
逆方向リンクに関して、アクセス端末902xにおいて、送信(TX)データプロセッサ914はデータバッファ912からトラヒックデータを受信し、各データパケットを、選択した符号化および変調方式に基づいて処理(例えば符号化、インタリーブ、およびシンボルマップ)し、データシンボルを出力する。データシンボルはデータの変調シンボルであり、パイロットシンボルはパイロット(先験的に知られている)用の変調シンボルである。変調器916は、逆方向リンク用のデータシンボル、パイロットシンボル、および場合により信号を受信し、変調および/またはシステムで特定される他の処理を実行(例えばOFDM)し、また出力チップのストリームを出力する。送信機ユニット(TMTR)918は、出力チップストリームを処理(例えば、アナログへ変換、フィルタリング、増幅、および周波数アップコンバージョン)し、アンテナ920から送信される変調信号を発生する。
アクセスポイント904xにおいて、アクセスの端末の902xおよびアクセスポイント904xと交信中の他の端末によって送信された変調信号がアンテナ952によって受信される。受信機ユニット(RCVR)954はアンテナ952からの受信信号を処理(例えば、調整およびディジタル化)し、受信サンプルを出力する。復調器(Demod)956は処理する受信サンプルを処理(例えば復調および検出)し、検出データシンボルを出力する。これは、端末からアクセスポイント904xへ送信されたデータシンボルの雑音を含む推定値である。受信(RX)データプロセッサ958は、各端末に対して検出するデータシンボルを処理(例えばシンボル逆写像、デインターリーブおよび復号)し、その端末に対する復号データを出力する。
順方向リンクに関して、アクセスポイント904xにおいて、トラヒックデータはデータシンボルを発生させるためのTXデータ処理装置960によって処理される。変調器962は、順方向リンクのためのデータシンボル、パイロットシンボル、および信号を受信し、変調および/または、他の適切な処理を実行(例えば、OFDM)し、出力チップストリームを出力する。これは、さらに送信機ユニット964により調整され、アンテナ952から送信される。順方向リンクの信号は、アクセスポイント904xへ逆方向リンクで送信するすべての端末に対する制御器970で生成される電力制御命令を含むかもしれない。アクセス端末902xにおいて、アクセスポイント904xによって送信された変調信号はアンテナ920で受信され、受信機ユニット922で調整およびディジタル化され、検出データシンボルを得るために復調器924で処理される。RXデータプロセッサ926は、検出したデータシンボルを処理し、端末に対する復号データおよび順方向リンクの信号を出力する。制御器930は、電力制御命令を受信し、データ送信およびアクセスポイント904xへの逆方向リンクでの送信電力を制御する。制御器930および970は、アクセス端末902xおよびアクセスポイント904xの動作をそれぞれ指示する。記憶ユニット932および972は、それぞれ制御器930および970によって用いられるプログラムコードおよびデータを格納する。
開示された実施例は以下の技術のいずれか1つまたは組み合わせに適用されるかもしれない。符号分割多元接続(CDMA)システム、マルチキャリアCDMA(MC−CDMA)、広帯域CDMA(W−CDMA)、高速ダウンリンクパケット接続(HSDPA)、時分割多元接続(TDMA)システム、周波数分割多元接続(FDMA)システム、および直交周波数分割多元接続(OFDMA)システム。
ここに開示された実施例に関連して説明した方法またはアルゴリズムのステップは直接ハードウェア、プロセッサで実行されるソフトウェアモジュール、またはその2つの組み合わせで具体化されるかもしれない。ソフトウェアモジュールはRAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、可搬型ディスク、CD−ROM、または当業者に周知の任意の他の形式の記憶媒体にあるかもしれない。代表的な記憶媒体は、プロセッサが記憶媒体から情報を読み出し、情報を書き込むことができるように、プロセッサに接続される。代替手段において、記憶媒体はプロセッサの構成要素であるかもしれない。プロセッサおよび記憶媒体はASICにあるかもしれない。ASICはユーザ端末にあるかもしれない。代替手段において、プロセッサおよび記憶媒体はユーザ端末内の個別部品にあるかもしれない。
ここに説明された方法が種々の通信ハードウェア、プロセッサ、および通常の当業者に周知のシステム上で実施されるかもしれないことに注意するべきである。例えば、クライアントがここに説明されるように動作するための一般的要求事項は、クライアントがコンテンツ並びに情報を表示するための表示器、クライアントの動作を制御するためのプロセッサ、およびクライアントの動作に関連するデータ並びにプログラムを格納するためのメモリを有することである。一実施例において、クライアントは携帯電話である。他の実施例において、クライアントは、通信能力を持つハンドヘルドコンピュータである。さらに他の実施例において、クライアントは、通信能力を持つパーソナルコンピュータである。さらに、GPS受信機のようなハードウェアが、ここに説明した種々の実施例を実施するためにクライアント内に必要に応じて組み込まれるかもしれない。
ここに開示された実施例に関して説明された例示的論理、論理ブロック、モジュール、および回路は、汎用プロセッサ、ディジタル信号プロセッサ(DSP)、特定用途向IC(ASIC)、プログラマブルゲートアレイ(FPGA)、フィールドプログラマブルゲートアレイ(FPGA)もしくは他のプログラム可能論理デバイス、個別ゲートもしくはトランジスタ論理、個別ハードウェア部品、またはここに説明した機能を実行するように設計されたそれらの任意の組み合わせで実施または実行されるかもしれない。汎用プロセッサは、マイクロプロセッサであるかもしれないが、代替的には、プロセッサは、通常のメインプロセッサ、制御器、マイクロ制御器または状態機械であるかもしれない。プロセッサはた、計算デバイスの組合せ、例えばDSPとマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアと連係した1つ以上のマイクロプロセッサ、または他のそのような構成として実施されるかもしれない。
上で説明した実施例は代表的な実施例である。当業者は、ここに開示された発明概念から逸脱することなく上述した実施例を多く利用し、発展させるかもしれない。これらの実施例への種々の変更は当業者に容易に明らかになるだろう。また、ここに定義した一般的原理はここに述べた新しい態様の精神または範囲から逸脱することなく他の実施例、例えばインスタントメッセージデバイスまたは任意の一般的無線データ通信応用、に適用されるかもしれない。したがって、本実施例の新しい態様の範囲は、ここに示した実施例に制限することを意図しておらず、ここに開示した原理および新規な機能に矛盾しない最も広い範囲と一致するということである。「代表的」という言葉は、ここでは「例、実例、または例証として役立つこと」を意味するために専ら用いられる。ここで「代表的」と説明されたいかなる実施例も、必ずしも他の実施例より好ましいまたは有利であると解釈されるべきではない。従って、実施例の新しい態様の範囲は以下の請求項の範囲によってのみ定義されるということである。
動き補償内挿(MCI)を用いて内挿されたフレームの構成を示す図。 MCIの間に補間されたフレーム内で遭遇するかもしれないオーバラップおよび空き領域を示す図。 動きベクトル割当を実行するためのFRUCシステムについてのブロックダイアグラム。 動きベクトルシステムの動きベクトル抽出サブシステムのブロックダイアグラム。 オーバラップおよび空きブロック領域に対する動き補償ベクトル割当のための方法の概観を示すフローチャート。 オーバラップおよび空きブロック領域に対する動き補償ベクトル割当のためのFRUCシステムの動作を示すフローチャート。 ビデオフレームの中のグラフィック要素に割り当てられた種々のコンテンツクラスを示す図。 オーバラップおよび空き画素領域に対する動き補償ベクトル割当のためのFRUCシステムの動作を示すフローチャート。 無線システムのアクセス端末およびアクセスポイントのブロックダイアグラム。

Claims (60)

  1. 第1の参照フレームおよび第2の参照フレームを用いて内挿されるべきビデオフレームのための複数の動きベクトルを処理するための方法であって、各参照フレームがコンテンツマップを有しており、
    解釈されるべきビデオフレームを複数の領域に分割することと、
    第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定することと、
    1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための1つの動きベクトルを発生することとを含む方法。
  2. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の非オーバラップ領域に分割することを含む請求項1に記載の方法。
  3. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数のオーバラップ領域に分割することを含む請求項1に記載の方法。
  4. 1つの領域を通過する動きベクトルの数に基づいて1つの領域への動きベクトルを発生することが、1つの領域を通過する動きベクトルの数の1つを選択することを含む請求項1に記載の方法。
  5. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の固定サイズの領域に分割することを含む請求項1に記載の方法。
  6. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の異なるサイズの領域に分割することを含む請求項1に記載の方法。
  7. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の画素に分割することを含む請求項1に記載の方法。
  8. 第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定することが、
    1つの領域を通過する各動きベクトルに対して、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを決定することと、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを比較することと、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスが異なる場合には、動きベクトルを1つの領域を通過する動きベクトルの数内と見なすことから除外することとを含む請求項1に記載の方法。
  9. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生することが、1つの領域を通過する動きベクトルの数が0の場合、(i)ゼロ動きベクトル、(ii)任意の利用可能な隣接動きベクトルの平均および(iii)任意の利用可能な隣接動きベクトルのメジアンから成るグループから選択された動きベクトルで1つの領域を割り当てることを含む請求項1に記載の方法。
  10. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生することが、1つの領域を通過する動きベクトルの数が1より大きい場合、(i)中央画素の動きベクトル、(ii)最もカバーされた領域の動きベクトル、(iii)加重した動きベクトル、および(iv)メジアン動きベクトルから成るグループから選択された動きベクトルで1つの領域を割り当てることを含む請求項1に記載の方法。
  11. コンテンツマップが複数のコンテンツクラスを含む請求項1に記載の方法。
  12. 複数のコンテンツクラスが、背景コンテンツクラスを含む請求項11に記載の方法。
  13. 背景コンテンツクラスが、出現対象クラス、消失対象クラスおよび静的背景クラスを含む請求項12に記載の方法。
  14. 複数のコンテンツクラスが、動対象クラスを含む請求項11に記載の方法。
  15. 複数のコンテンツクラスが、輪郭コンテンツクラスを含む請求項11に記載の方法。
  16. 第1の参照フレームおよび第2の参照フレームを用いて、内挿されるべきビデオフレームのための複数の動きベクトルを処理するための方法を、計算機に実行させるために格納された命令を有する計算機読み出し可能媒体であって、各参照フレームがコンテンツマップを有しており、その方法が、
    解釈されるべきビデオフレームを複数の領域に分割することと、
    第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定することと、
    1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための1つの動きベクトルを発生することとを含む、計算機読み出し可能媒体。
  17. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の非オーバラップ領域に分割することを含む請求項16に記載の計算機読み出し可能媒体。
  18. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数のオーバラップ領域に分割することを含む請求項16に記載の計算機読み出し可能媒体。
  19. 1つの領域を通過する動きベクトルの数に基づいて1つの領域への動きベクトルを発生することが、1つの領域を通過する動きベクトルの数の1つを選択することを含む請求項16に記載の計算機読み出し可能媒体。
  20. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の固定サイズの領域に分割することを含む請求項16に記載の計算機読み出し可能媒体。
  21. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の異なるサイズの領域に分割することを含む請求項16記載の計算機読み出し可能媒体。
  22. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の画素に分割することを含む請求項16に記載の計算機読み出し可能媒体。
  23. 第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定することが、
    1つの領域を通過する各動きベクトルに対して、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを決定することと、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを比較することと、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスが異なる場合には前記動きベクトルを1つの領域を通過する動きベクトルの数内と見なすことから除外することとを含む、請求項16に記載の計算機読み出し可能媒体。
  24. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生することが、1つの領域を通過する動きベクトルの数が0の場合、(i)ゼロ動きベクトル、(ii)任意の利用可能な隣接動きベクトルの平均および(iii)任意の利用可能な隣接動きベクトルのメジアンから成るグループから選択された動きベクトルで1つの領域を割り当てることを含む請求項16に記載の計算機読み出し可能媒体。
  25. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生することが、1つの領域を通過する動きベクトルの数が1より大きい場合、(i)中央画素の動きベクトル、(ii)最もカバーされた領域の動きベクトル、(iii)加重した動きベクトル、および(iv)メジアン動きベクトルから成るグループから選択された動きベクトルで1つの領域を割り当てることを含む請求項16に記載の計算機読み出し可能媒体。
  26. コンテンツマップが複数のコンテンツクラスを含む請求項16に記載の計算機読み出し可能媒体。
  27. 複数のコンテンツクラスが、背景コンテンツクラスを含む請求項26に記載の計算機読み出し可能媒体。
  28. 背景コンテンツクラスが、出現対象クラス、消失対象クラスおよび静的背景クラスを含む請求項27に記載の計算機読み出し可能媒体。
  29. 複数のコンテンツクラスが、動対象クラスを含む請求項26に記載の計算機読み出し可能媒体。
  30. 複数のコンテンツクラスが、輪郭コンテンツクラスを含む請求項26に記載の計算機読み出し可能媒体。
  31. 第1の参照フレームおよび第2の参照フレームを用いて内挿されるべきビデオフレームのための複数の動きベクトルを処理するための装置であって、各参照フレームがコンテンツマップを有しており、
    解釈されるべきビデオフレームを複数の領域に分割するための手段と、
    第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定するための手段と、
    1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための1つの動きベクトルを発生するための手段とを含む装置。
  32. 解釈されるべきビデオフレームを複数の領域に分割するための手段が、解釈されるべきビデオフレームを複数の非オーバラップ領域に分割するための手段を含む請求項31に記載の装置。
  33. 解釈されるべきビデオフレームを複数の領域に分割するための手段が、解釈されるべきビデオフレームを複数のオーバラップ領域に分割するための手段を含む請求項31に記載の装置。
  34. 1つの領域を通過する動きベクトルの数に基づいて1つの領域への動きベクトルを発生するための手段が、1つの領域を通過する動きベクトルの数の1つを選択するための手段を含む請求項31に記載の装置。
  35. 解釈されるべきビデオフレームを複数の領域に分割するための手段が、解釈されるべきビデオフレームを複数の固定サイズの領域に分割するための手段を含む請求項31に記載の装置。
  36. 解釈されるべきビデオフレームを複数の領域に分割するための手段が、解釈されるべきビデオフレームを複数の異なるサイズの領域に分割するための手段を含む請求項31に記載の装置。
  37. 解釈されるべきビデオフレームを複数の領域に分割するための手段が、解釈されるべきビデオフレームを複数の画素に分割するための手段を含む請求項31に記載の装置。
  38. 第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定するための手段が、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを決定するための手段と、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを比較するための手段と、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスが異なる場合には、前記動きベクトルを1つの領域を通過する動きベクトルの数内と見なすことから除外するための手段とを含む請求項31に記載の装置。
  39. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生するための手段が、1つの領域を通過する動きベクトルの数が0の場合、(i)ゼロ動きベクトル、(ii)任意の利用可能な隣接動きベクトルの平均および(iii)任意の利用可能な隣接動きベクトルのメジアンから成るグループから選択された動きベクトルで1つの領域を割り当てるための手段を含む請求項31に記載の装置。
  40. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生するための手段が、1つの領域を通過する動きベクトルの数が1より大きい場合、(i)中央画素の動きベクトル、(ii)最もカバーされた領域の動きベクトル、(iii)加重した動きベクトル、および(iv)メジアン動きベクトルから成るグループから選択された動きベクトルで1つの領域を割り当てるための手段を含む請求項31に記載の装置。
  41. コンテンツマップが複数のコンテンツクラスを含む請求項31に記載の装置。
  42. 複数のコンテンツクラスが、背景コンテンツクラスを含む請求項41に記載の装置。
  43. 背景コンテンツクラスが、出現対象クラス、消失対象クラスおよび静的背景クラスを含む請求項42に記載の装置。
  44. 複数のコンテンツクラスが、動対象クラスを含む請求項41に記載の装置。
  45. 複数のコンテンツクラスが、輪郭コンテンツクラスを含む請求項41に記載の装置。
  46. 第1の参照フレームおよび第2の参照フレームを用いて内挿されるべきビデオフレームのための複数の動きベクトルを処理するための方法を実施するように構成された少なくとも1つのプロセッサであって、各参照フレームがコンテンツマップを有しており、
    解釈されるべきビデオフレームを複数の領域に分割することと、
    第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定することと、
    1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための1つの動きベクトルを発生することとを含む少なくとも1つのプロセッサ。
  47. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の非オーバラップ領域に分割することを含む請求項46に記載の少なくとも1つのプロセッサ。
  48. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数のオーバラップ領域に分割することを含む請求項46に記載の少なくとも1つのプロセッサ。
  49. 1つの領域を通過する動きベクトルの数に基づいて1つの領域への動きベクトルを発生することが、1つの領域を通過する動きベクトルの数の1つを選択することを含む請求項46に記載の少なくとも1つのプロセッサ。
  50. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の固定サイズの領域に分割することを含む請求項46に記載の少なくとも1つのプロセッサ。
  51. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の異なるサイズの領域に分割することを含む請求項46に記載の少なくとも1つのプロセッサ。
  52. 解釈されるべきビデオフレームを複数の領域に分割することが、解釈されるべきビデオフレームを複数の画素に分割することを含む請求項46に記載の少なくとも1つのプロセッサ。
  53. 第1の参照フレームおよび第2の参照フレームのコンテンツマップに基づいて複数の領域の1つの領域を通過する動きベクトルの数を決定することが、
    1つの領域を通過する各動きベクトルに対して、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを決定することと、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスを比較することと、
    動きベクトル始点コンテンツクラスおよび動きベクトル終点コンテンツクラスが異なる場合には、前記動きベクトルを1つの領域を通過する動きベクトルの数内と見なすことから除外することとを含む請求項46に記載の少なくとも1つのプロセッサ。
  54. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生することが、1つの領域を通過する動きベクトルの数が0の場合、(i)ゼロ動きベクトル、(ii)任意の利用可能な隣接動きベクトルの平均および(iii)任意の利用可能な隣接動きベクトルのメジアンから成るグループから選択された動きベクトルで1つの領域を割り当てることを含む請求項46に記載の少なくとも1つのプロセッサ。
  55. 1つの領域を通過する動きベクトルの数に基づいて1つの領域へ割り当てるための動きベクトルを発生することが、1つの領域を通過する動きベクトルの数が1より大きい場合、(i)中央画素の動きベクトル、(ii)最もカバーされた領域の動きベクトル、(iii)加重した動きベクトル、および(iv)メジアン動きベクトルから成るグループから選択された動きベクトルで1つの領域を割り当てることを含む請求項46に記載の少なくとも1つのプロセッサ。
  56. コンテンツマップが複数のコンテンツクラスを含む請求項46に記載の少なくとも1つのプロセッサ。
  57. 複数のコンテンツクラスが、背景コンテンツクラスを含む請求項56に記載の少なくとも1つのプロセッサ。
  58. 背景コンテンツクラスが、出現対象クラス、消失対象クラスおよび静的背景クラスを含む請求項57に記載の少なくとも1つのプロセッサ。
  59. 複数のコンテンツクラスが、動対象クラスを含む請求項56に記載の少なくとも1つのプロセッサ。
  60. 複数のコンテンツクラスが、輪郭コンテンツクラスを含む請求項56に記載の少なくとも1つのプロセッサ。
JP2007522758A 2004-07-21 2005-07-21 動きベクトル割当のための方法および装置 Expired - Fee Related JP4448173B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US59011004P 2004-07-21 2004-07-21
PCT/US2005/025897 WO2006012428A1 (en) 2004-07-21 2005-07-21 Method and apparatus for motion vector assignment

Publications (2)

Publication Number Publication Date
JP2008507920A true JP2008507920A (ja) 2008-03-13
JP4448173B2 JP4448173B2 (ja) 2010-04-07

Family

ID=35058342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007522758A Expired - Fee Related JP4448173B2 (ja) 2004-07-21 2005-07-21 動きベクトル割当のための方法および装置

Country Status (17)

Country Link
US (1) US8553776B2 (ja)
EP (1) EP1774795A1 (ja)
JP (1) JP4448173B2 (ja)
KR (1) KR100919075B1 (ja)
CN (1) CN101023678B (ja)
AU (1) AU2005267126C1 (ja)
BR (1) BRPI0513698A (ja)
CA (1) CA2574648A1 (ja)
IL (1) IL180827A (ja)
MX (1) MX2007000867A (ja)
NO (1) NO20070991L (ja)
NZ (1) NZ552781A (ja)
RU (1) RU2335096C1 (ja)
TW (1) TW200627973A (ja)
UA (1) UA88017C2 (ja)
WO (1) WO2006012428A1 (ja)
ZA (1) ZA200700724B (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
CN103826133B (zh) * 2004-05-04 2017-11-24 高通股份有限公司 运动补偿帧速率上调方法和设备
TWI392374B (zh) 2004-07-01 2013-04-01 Qualcomm Inc 於可調節視訊編碼中用以使用框率上升轉換技術之方法與裝置
EP1772017A2 (en) * 2004-07-20 2007-04-11 Qualcomm Incorporated Method and apparatus for encoder assisted-frame rate up conversion (ea-fruc) for video compression
US7995656B2 (en) * 2005-03-10 2011-08-09 Qualcomm Incorporated Scalable video coding with two layer encoding and single layer decoding
KR20070020994A (ko) * 2005-08-17 2007-02-22 삼성전자주식회사 영상신호 변환장치 및 그 방법
US20070230564A1 (en) * 2006-03-29 2007-10-04 Qualcomm Incorporated Video processing with scalability
US8634463B2 (en) * 2006-04-04 2014-01-21 Qualcomm Incorporated Apparatus and method of enhanced frame interpolation in video compression
US8750387B2 (en) * 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
GB0618323D0 (en) * 2006-09-18 2006-10-25 Snell & Wilcox Ltd Method and apparatus for interpolating an image
US20080095238A1 (en) * 2006-10-18 2008-04-24 Apple Inc. Scalable video coding with filtering of lower layers
EP2108177B1 (en) * 2007-01-26 2019-04-10 Telefonaktiebolaget LM Ericsson (publ) Border region processing in images
JP2010527194A (ja) * 2007-05-10 2010-08-05 オルゴ エンベッデド システムズ プライベート リミテッド 動的運動ベクトル分析方法
US8433159B1 (en) * 2007-05-16 2013-04-30 Varian Medical Systems International Ag Compressed target movement model using interpolation
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US8848793B2 (en) * 2007-10-31 2014-09-30 Broadcom Corporation Method and system for video compression with integrated picture rate up-conversion
US8861598B2 (en) * 2008-03-19 2014-10-14 Cisco Technology, Inc. Video compression using search techniques of long-term reference memory
JP5029543B2 (ja) * 2008-09-09 2012-09-19 富士通株式会社 符号化装置および符号化プログラム
US20100128181A1 (en) * 2008-11-25 2010-05-27 Advanced Micro Devices, Inc. Seam Based Scaling of Video Content
CN101753795B (zh) * 2008-12-16 2012-05-16 晨星软件研发(深圳)有限公司 用以决定插补画面的移动向量的影像处理方法及其相关装置
CN101778292B (zh) * 2009-01-08 2013-07-17 晨星软件研发(深圳)有限公司 影像处理方法及其装置
US8462852B2 (en) 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
EP3852371B1 (fr) * 2009-07-03 2024-03-20 Orange Prediction d'un vecteur mouvement d'une partition d'image courante pointant sur une zone de référence qui recouvre plusieurs partitions d'image de référence, codage et decodage utilisant une telle prediction
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
TR200906020A2 (tr) * 2009-08-04 2011-02-21 Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇@ Hareket alanlarının, kare interpolasyon çerçevelerine,belleğe etkin erişimli şekilde ayarlanması için metot ve aparat
EP2553927B1 (fr) 2010-03-31 2018-11-28 Orange Procedes et dispositifs de codage et de decodage d'une sequence d'images mettant en oeuvre une prediction par compensation de mouvement avant, et programme d'ordinateur correspondant
CN102907094A (zh) * 2010-05-20 2013-01-30 星河通信株式会社 适用利用选择性参考影像的运动补偿方法的视频压缩编码装置及解码装置和用于运动补偿的选择性参考影像决定方法
CN102907099A (zh) * 2010-05-20 2013-01-30 星河通信株式会社 适用利用选择性运动检索区域的运动补偿方法的视频压缩编码装置及解码装置和用于运动补偿的选择性运动检索区域的决定方法
CN102986224B (zh) 2010-12-21 2017-05-24 英特尔公司 用于增强的解码器侧运动向量导出处理的系统及方法
GB2488816A (en) 2011-03-09 2012-09-12 Canon Kk Mapping motion vectors from a plurality of reference frames to a single reference frame
US8681866B1 (en) 2011-04-28 2014-03-25 Google Inc. Method and apparatus for encoding video by downsampling frame resolution
US9106787B1 (en) 2011-05-09 2015-08-11 Google Inc. Apparatus and method for media transmission bandwidth control using bandwidth estimation
JP5807402B2 (ja) * 2011-06-15 2015-11-10 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
RU2487489C2 (ru) * 2011-10-18 2013-07-10 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" Способ поиска векторов перемещений в динамических изображениях
US8856624B1 (en) 2011-10-27 2014-10-07 Google Inc. Method and apparatus for dynamically generating error correction
US9185429B1 (en) 2012-04-30 2015-11-10 Google Inc. Video encoding and decoding using un-equal error protection
TW201346839A (zh) * 2012-05-04 2013-11-16 Chang Jung Christian University 基於動態補償之去移動模糊之方法
US9277168B2 (en) * 2012-06-29 2016-03-01 Advanced Micro Devices, Inc. Subframe level latency de-interlacing method and apparatus
US10602175B2 (en) * 2012-12-21 2020-03-24 Nvidia Corporation Using an average motion vector for a motion search
US9172740B1 (en) 2013-01-15 2015-10-27 Google Inc. Adjustable buffer remote access
US9311692B1 (en) 2013-01-25 2016-04-12 Google Inc. Scalable buffer remote access
US9225979B1 (en) 2013-01-30 2015-12-29 Google Inc. Remote access encoding
GB2539198B (en) 2015-06-08 2019-09-25 Imagination Tech Ltd Motion estimation using collocated blocks
KR102126511B1 (ko) * 2015-09-02 2020-07-08 삼성전자주식회사 보충 정보를 이용한 영상 프레임의 보간 방법 및 장치
JP6275355B2 (ja) * 2016-01-14 2018-02-07 三菱電機株式会社 符号化性能評価支援装置、符号化性能評価支援方法及び符号化性能評価支援プログラム
EP4472207A3 (en) 2018-06-28 2025-03-12 Huawei Technologies Co., Ltd. Memory access window and padding for motion vector refinement and motion compensation
CN110446107B (zh) * 2019-08-15 2020-06-23 电子科技大学 一种适用于缩放运动和明暗变化的视频帧率上变换方法
CN113099241B (zh) * 2021-03-31 2022-11-01 北京百度网讯科技有限公司 参考帧列表更新方法、装置、设备以及存储介质

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3670096A (en) 1970-06-15 1972-06-13 Bell Telephone Labor Inc Redundancy reduction video encoding with cropping of picture edges
DE3072180D1 (de) 1979-05-08 1990-09-20 British Broadcasting Corp Fernseh-wiedergabesystem.
JPH0317883A (ja) 1989-06-15 1991-01-25 Sony Corp 時間情報発生装置
JP3159365B2 (ja) 1989-09-27 2001-04-23 ソニー株式会社 映像信号伝送方法及び映像信号伝送装置
GB2247587B (en) 1990-08-31 1994-07-20 Sony Broadcast & Communication Movie film and video production
US5122875A (en) 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
FR2675002B1 (fr) 1991-04-05 1993-06-18 Thomson Csf Procede de classification des pixels d'une image appartenant a une sequence d'images animees et procede d'interpolation temporelle d'images utilisant ladite classification.
US5784107A (en) 1991-06-17 1998-07-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for picture coding and method and apparatus for picture decoding
KR0151410B1 (ko) 1992-07-03 1998-10-15 강진구 영상신호의 운동벡터 검출방법
DE69405740T2 (de) 1993-06-01 1998-02-12 Thomson Multimedia Sa Verfahren und anordnung für bewegungskompensierende interpolation
JP2900983B2 (ja) 1994-12-20 1999-06-02 日本ビクター株式会社 動画像帯域制限方法
JP3604752B2 (ja) 1995-01-09 2004-12-22 沖電気工業株式会社 動きベクトル検出装置および方法
JP3577354B2 (ja) 1995-02-08 2004-10-13 富士写真フイルム株式会社 補間画像データ生成装置および方法
FR2742900B1 (fr) 1995-12-22 1998-02-13 Thomson Multimedia Sa Procede d'interpolation de trames progressives
JPH09182083A (ja) 1995-12-27 1997-07-11 Matsushita Electric Ind Co Ltd ビデオ画像符号化方法及び復号化方法とその装置
US6957350B1 (en) 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5852565A (en) 1996-01-30 1998-12-22 Demografx Temporal and resolution layering in advanced television
JPH09307857A (ja) * 1996-05-17 1997-11-28 Sony Corp 画像信号処理装置及び画像信号処理方法
JP2000512091A (ja) 1996-05-24 2000-09-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 動作ベクトル処理
JP4159606B2 (ja) 1996-05-24 2008-10-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動き推定
JP3363036B2 (ja) 1996-08-23 2003-01-07 ケイディーディーアイ株式会社 動画像符号化ビットストリーム変換装置
KR20030096444A (ko) 1996-11-07 2003-12-31 마쯔시다덴기산교 가부시키가이샤 음원 벡터 생성 장치 및 방법
US6043846A (en) 1996-11-15 2000-03-28 Matsushita Electric Industrial Co., Ltd. Prediction apparatus and method for improving coding efficiency in scalable video coding
US6480541B1 (en) 1996-11-27 2002-11-12 Realnetworks, Inc. Method and apparatus for providing scalable pre-compressed digital video with reduced quantization based artifacts
US6008865A (en) 1997-02-14 1999-12-28 Eastman Kodak Company Segmentation-based method for motion-compensated frame interpolation
FR2764156B1 (fr) 1997-05-27 1999-11-05 Thomson Broadcast Systems Dispositif de pretraitement pour codage mpeg ii
EP0883298A3 (en) 1997-06-04 2000-03-29 Hitachi, Ltd. Conversion apparatus for image signals and TV receiver
JP4092778B2 (ja) 1997-06-04 2008-05-28 株式会社日立製作所 画像信号の方式変換装置及びテレビジョン受像機
JP4083266B2 (ja) 1997-10-07 2008-04-30 株式会社日立製作所 動きベクトルの生成方法および装置
RU2201654C2 (ru) 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
US6560371B1 (en) 1997-12-31 2003-05-06 Sarnoff Corporation Apparatus and method for employing M-ary pyramids with N-scale tiling
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
US6192079B1 (en) 1998-05-07 2001-02-20 Intel Corporation Method and apparatus for increasing video frame rate
JP4004653B2 (ja) 1998-08-03 2007-11-07 カスタム・テクノロジー株式会社 動きベクトル検出方法および装置、記録媒体
US6229570B1 (en) 1998-09-25 2001-05-08 Lucent Technologies Inc. Motion compensation image interpolation—frame rate conversion for HDTV
JP2000134585A (ja) 1998-10-23 2000-05-12 Hitachi Ltd 動きベクトル決定方法、画像信号のフレーム数変換方法および回路
US6597738B1 (en) 1999-02-01 2003-07-22 Hyundai Curitel, Inc. Motion descriptor generating apparatus by using accumulated motion histogram and a method therefor
US6618439B1 (en) 1999-07-06 2003-09-09 Industrial Technology Research Institute Fast motion-compensated video frame interpolator
CA2279797C (en) * 1999-08-06 2010-01-05 Demin Wang A method for temporal interpolation of an image sequence using object-based image analysis
US7003038B2 (en) 1999-09-27 2006-02-21 Mitsubishi Electric Research Labs., Inc. Activity descriptor for video sequences
US6704357B1 (en) 1999-09-28 2004-03-09 3Com Corporation Method and apparatus for reconstruction of low frame rate video conferencing data
WO2001033864A1 (en) 1999-10-29 2001-05-10 Koninklijke Philips Electronics N.V. Video encoding-method
US6639943B1 (en) 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
KR100840133B1 (ko) 2000-05-18 2008-06-23 코닌클리케 필립스 일렉트로닉스 엔.브이. Mc 업 컨버젼에서 헤일로를 감소시키는 움직임 추정기
EP1296525A4 (en) 2000-06-28 2006-07-26 Mitsubishi Electric Corp IMAGE ENCODER AND IMAGE ENCODING METHOD
RU2182727C2 (ru) 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
US7042941B1 (en) 2001-07-17 2006-05-09 Vixs, Inc. Method and apparatus for controlling amount of quantization processing in an encoder
JP2005519498A (ja) 2002-02-28 2005-06-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ フィールドレートをアップコンバージョンするための方法及び装置
KR100850705B1 (ko) 2002-03-09 2008-08-06 삼성전자주식회사 시공간적 복잡도를 고려한 적응적 동영상 부호화 방법 및그 장치
US6975359B2 (en) 2002-04-25 2005-12-13 Trident Microsystems, Inc. Method and system for motion and edge-adaptive signal frame rate up-conversion
US20030215011A1 (en) 2002-05-17 2003-11-20 General Instrument Corporation Method and apparatus for transcoding compressed video bitstreams
KR100850706B1 (ko) 2002-05-22 2008-08-06 삼성전자주식회사 적응적 동영상 부호화 및 복호화 방법과 그 장치
JP4318019B2 (ja) 2002-05-28 2009-08-19 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7656950B2 (en) 2002-05-29 2010-02-02 Diego Garrido Video interpolation coding
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
DE10232372B3 (de) 2002-07-17 2004-01-22 Micronas Gmbh Verfahren zur Interpolation eines Bildpunktes einer Zwischenzeile eines Halbbildes
WO2004025965A1 (en) 2002-09-11 2004-03-25 Koninklijke Philips Electronics N.V. Video coding method and device
JP3910510B2 (ja) 2002-09-17 2007-04-25 株式会社東芝 フレーム補間システム及びフレーム補間方法
US7116716B2 (en) 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
KR100517504B1 (ko) 2003-07-01 2005-09-28 삼성전자주식회사 B-픽처의 움직임 보상 모드 결정방법 및 장치
FR2857205B1 (fr) 2003-07-04 2005-09-23 Nextream France Dispositif et procede de codage de donnees video
US7366462B2 (en) 2003-10-24 2008-04-29 Qualcomm Incorporated Method and apparatus for seamlessly switching reception between multimedia streams in a wireless communication system
JP4198608B2 (ja) * 2004-01-15 2008-12-17 株式会社東芝 補間画像生成方法および装置
CN103826133B (zh) 2004-05-04 2017-11-24 高通股份有限公司 运动补偿帧速率上调方法和设备
TWI392374B (zh) 2004-07-01 2013-04-01 Qualcomm Inc 於可調節視訊編碼中用以使用框率上升轉換技術之方法與裝置
US8374238B2 (en) 2004-07-13 2013-02-12 Microsoft Corporation Spatial scalability in 3D sub-band decoding of SDMCTF-encoded video
EP1772017A2 (en) 2004-07-20 2007-04-11 Qualcomm Incorporated Method and apparatus for encoder assisted-frame rate up conversion (ea-fruc) for video compression
US20060133495A1 (en) 2004-12-22 2006-06-22 Yan Ye Temporal error concealment for video communications
KR100703744B1 (ko) 2005-01-19 2007-04-05 삼성전자주식회사 디블록을 제어하는 fgs 기반의 비디오 인코딩 및디코딩 방법 및 장치
US8644386B2 (en) 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
US8879856B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Content driven transcoder that orchestrates multimedia transcoding using content information
US20070230564A1 (en) 2006-03-29 2007-10-04 Qualcomm Incorporated Video processing with scalability
US8750387B2 (en) 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
US8634463B2 (en) 2006-04-04 2014-01-21 Qualcomm Incorporated Apparatus and method of enhanced frame interpolation in video compression
JP4764273B2 (ja) * 2006-06-30 2011-08-31 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
US8045783B2 (en) * 2006-11-09 2011-10-25 Drvision Technologies Llc Method for moving cell detection from temporal image sequence model estimation

Also Published As

Publication number Publication date
KR100919075B1 (ko) 2009-09-28
CN101023678A (zh) 2007-08-22
EP1774795A1 (en) 2007-04-18
KR20070040401A (ko) 2007-04-16
JP4448173B2 (ja) 2010-04-07
MX2007000867A (es) 2007-04-18
NO20070991L (no) 2007-02-21
TW200627973A (en) 2006-08-01
AU2005267126C1 (en) 2009-11-26
RU2335096C1 (ru) 2008-09-27
US20060018383A1 (en) 2006-01-26
NZ552781A (en) 2008-12-24
IL180827A0 (en) 2007-06-03
UA88017C2 (ru) 2009-09-10
CA2574648A1 (en) 2006-02-02
IL180827A (en) 2010-11-30
US8553776B2 (en) 2013-10-08
ZA200700724B (en) 2008-07-30
AU2005267126B2 (en) 2009-05-21
BRPI0513698A (pt) 2008-05-13
CN101023678B (zh) 2011-07-27
WO2006012428A1 (en) 2006-02-02
AU2005267126A1 (en) 2006-02-02

Similar Documents

Publication Publication Date Title
JP4448173B2 (ja) 動きベクトル割当のための方法および装置
JP4567733B2 (ja) 動きベクトル処理のための方法及び装置
RU2377737C2 (ru) Способ и устройство для преобразования с повышением частоты кадров с помощью кодера (ea-fruc) для сжатия видеоизображения
CA2574590C (en) Method and apparatus for motion vector prediction in temporal video compression
US20060017843A1 (en) Method and apparatus for frame rate up conversion with multiple reference frames and variable block sizes
CA2565670A1 (en) Method and apparatus for motion compensated frame rate up conversion
JP2000224593A (ja) フレーム補間方法および装置およびこの方法を記録した記録媒体
CN116847090A (zh) 一种基于桌面视频感兴趣区域的并行编解码方法及系统
HK1105742A (en) Method and apparatus for motion vector assignment
HK1105743A (en) Method and apparatus for motion vector processing
HK1103898A (en) Method and apparatus for motion compensated frame rate up conversion
HK1105744A (en) Method and apparatus for motion vector prediction in temporal video compression

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees