[go: up one dir, main page]

JP5190469B2 - 画像における境界領域処理 - Google Patents

画像における境界領域処理 Download PDF

Info

Publication number
JP5190469B2
JP5190469B2 JP2009547200A JP2009547200A JP5190469B2 JP 5190469 B2 JP5190469 B2 JP 5190469B2 JP 2009547200 A JP2009547200 A JP 2009547200A JP 2009547200 A JP2009547200 A JP 2009547200A JP 5190469 B2 JP5190469 B2 JP 5190469B2
Authority
JP
Japan
Prior art keywords
image
column
difference
row
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009547200A
Other languages
English (en)
Other versions
JP2010517417A (ja
Inventor
ケニス アンデション,
クリントン プリドル,
ジョナタン サミュエルソン,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2010517417A publication Critical patent/JP2010517417A/ja
Application granted granted Critical
Publication of JP5190469B2 publication Critical patent/JP5190469B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/38Circuits or arrangements for blanking or otherwise eliminating unwanted parts of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、一般に画像処理に関し、特に画像の境界領域処理に関する。
より高いフレームレートのビデオシーケンスがより低いフレームレートのビデオシーケンスより高品質の体験を与えると一般に考えられるため、フレームレートアップ変換が行なわれる。ビデオシーケンスのフレームレートは、既存のフレーム間に予想されるフレームを挿入することにより増加される。適切な方法は、双方向ブロック動き推定を使用して中間フレームを予測することであり、それにより入力されたビデオシーケンスの先行フレームと後続フレームとの間の直線運動を探索する。加速を表せる非線形方法を使用することも可能であるが、単純であり且つそれ程複雑でないために線形方法が使用される。中間フレームはブロックに分割され、各ブロックには動きベクトルが何らかの方法で割り当てられる必要がある。
画像の境界に沿って行なわれるフレームレートアップ変換に関する問題が存在する。多くの記録されたビデオシーケンスにおいて、1つ以上の境界に沿う黒色の線が存在する。これは、図1の左側の画像50の右側の境界に沿って見られる。従来のレートアップ変換アルゴリズム(非特許文献1〜3)において、そのような境界の特別な処理は存在しない。その結果、境界領域を指し示す動きベクトルを割り当てると、図1の中央の画像60に示すように、線が背景の動きに追従してエッジからピクチャ内に移動する。
Zhai, J., Yu, K., Li, J., & Li, S., 2005, A Low Complexity Motion Compensated Frame Interpolation Method(低複雑度動き補償フレーム補間法), The 2005 IEEE International Symposium on Circuits and Systems (ISCAS2005)、Kobe, Japan、2005年5月23日〜26日 Chen, Y.-K., Vetro, Y.-K., Sun H., & Kung S.-Y., 1998, Frame Rate Up-Conversion Using Transmitted True Motion(送信真運動を用いたフレームレートアップ変換), to appear in Proc. of 1998 Workshop on Multimedia Signal Processing、1998年12月 Choi, B.T., Lee, S.H., & Ko, S.J., 2000, New frame rate up--conversion using bi-directional motion estimation(双方向動き予測を用いた新たなフレームレートアップ変換), IEEE Trans. Consum. Electron., Volume 46, Number 3、603〜609ページ
本発明は、従来技術の構成の上記欠点及び他の欠点を克服する。
本発明の一般的な目的は、画像又はフレームにおける境界領域識別を提供することである。
本発明の特定の目的は、画像要素プロパティ値の判定において境界領域識別を利用するフレーム補間/補外を提供することである。
これらの目的及び他の目的は、添付の請求の範囲により規定されるような本発明により達成される。
簡単に説明すると、本発明は、画像要素の行及び列を含む画像又はフレームの境界領域を識別することを含む。テストされる行又は列の画像要素のプロパティ値の平均値が計算される。更に、行又は列の画像要素毎のプロパティ値の差分は、画像要素のプロパティ値とテストされる列又は行より画像の中心に近接するのが好ましい隣接行又は列の同一の列又は行に存在する隣接画像要素のプロパティ値との間で判定される。平均差分値は、判定された差分から計算される。現在の行又は列の画像要素は、平均値及び平均差分に基づいて画像の境界領域に属するか又は内部画像領域に属するものとして分類される。
好適な一実施形態において、分類パラメータは、好ましくは平均値及び平均差分の加重合計として、平均値及び平均差分に基づいて計算される。このパラメータは閾値と比較され、分類はその比較に基づいて実行される。黒色の境界の場合、テストされる行又は列は、その分類パラメータが閾値を下回る場合は境界行又は列として分類され、それ以外の場合は画像の内部領域に属する。
現在の行又は列が境界行又は列として分類される場合、画像の中心により近接している隣接行又は列は、検査される行又は列が内部の行又は列として分類されるまでテストされるのが好ましい。手順は、画像の全てのエッジに対して繰り返されるのが好ましい。
本発明は、ビデオシーケンス中の利用可能な画像から補間又は補外される画像又はフレームのプロパティ値を判定する時に画像要素分類を利用することを更に含む。そのような場合、補間/補外画像の画像要素のグループは、ビデオシーケンスの第1の画像の第1のグループのプロパティ値及びビデオシーケンスの第2の画像の第2のグループのプロパティ値に基づいて判定される。しかし、補間/補外グループのプロパティ値を計算する時、境界画像要素として識別されない第1のグループ及び第2のグループの画像要素のみが使用される。これにより、構成された画像の内部領域内に境界領域を移動することが防止される。
本発明は、画像の境界領域を識別し且つ構成された画像のプロパティ値を推定するデバイスを更に含む。
本発明は、添付の図面と共に以下の説明を参照することにより、本発明の更なる目的及び利点と共に最もよく理解されるだろう。
従来技術に係る補間及び補外画像に現れる境界線の問題を示す図である。 本発明の一実施形態に係る境界領域識別方法を示すフローチャートである。 図2の識別方法の分類ステップの一実施形態を示すフローチャートである。 境界領域と関係する画像の一部分を示す拡大図である。 図2の識別方法の追加のステップを示すフローチャートである。 図2の識別方法の追加のステップを示すフローチャートである。 本発明の一実施形態に係る画素値を判定する方法を示すフローチャートである。 図7の提供ステップ及び識別ステップの一実施形態を更に詳細に示すフローチャートである。 先行画像及び後続画像の画素値の補間を概略的に示す図である。 図7の判定方法の追加のステップを示すフローチャートである。 本発明の一実施形態に係る領域識別器を示す概略ブロック図である。 本発明の一実施形態に係るグループ判定デバイスを示す概略ブロック図である。 本発明に従って中央の図が補間されている図1の図を示す図である。
図中、同一の図中記号が対応する要素又は類似する要素に対して使用される。
本発明は、一般に画像処理に関し、特にビデオシーケンスの画像フレーム等の画像の境界領域を識別する方法及びデバイスに関する。
従来技術において周知のように、多くの画像等は、その1つ以上の辺に境界を含むことが多い。この現象を図1の左側の画像50に示す。図から分かるように、画像の右側の垂直な辺に沿う黒色の線が存在する。そのような境界は、画像記録処理又はデバイスの固有の特徴のために存在する。更に、「通常」の画面からワイドスクリーン又はワイドスクリーンから「通常」の画面に移る時等、異なる画像形式間のトランスコーディング中に、境界は画像に追加される。
画像50に少なくとも1つの境界が含まれることにより、画像50又は画像50を含むフレーム/ビデオシーケンスの更なる処理において問題が生じる。例えば、フレームレートアップ変換中、中間画像60はビデオシーケンス中の元の画像40、50に基づいて生成され、フレームレートを増加する。そのような中間画像60の画素値は、隣接画像40、50の対応する画素値から判定、すなわち補間又は補外される。図1に示すように、この画素値判定において使用される少なくとも1つの画像50に境界が含まれることにより、境界線は、画像50、60、40間を移動する時の背景の動きに追従し、補間/補外画像60に無作為に現れる可能性がある。
従って、画像又はフレームの境界画素及び境界領域の識別は重要であり、それにより、例えば境界を含む少なくとも1つの画像又はフレームを含むビデオシーケンスのフレームレートアップ変換に関連して大きな利点が得られる。
本発明において、ビデオ又はフレームシーケンスは、複数、すなわち少なくとも2つのフレーム又は画像を含む。また、そのようなフレームは、一連の1つ以上のスライスから構成されると考えられ、そのようなスライスは、画像要素又は画素の1つ以上のマクロブロックから構成される。本発明において、表現「画像要素」は、シーケンス中のフレーム又は画像の最小要素を示すために使用される。そのような画像要素は、色(赤色、緑色、青色、すなわちRGB空間における)又は輝度(Y)及びクロミナンス(Cr、Cb又はU、Vで示される場合もある)等の関連する画像要素プロパティを有する。画像要素の一般的な一例は、フレーム又はピクチャの画素である。本発明は、所定のフレームレートの複数の連続フレームを含むビデオシーケンスに特に適応される。
画像要素は、画像要素のグループに編成される。表現「画像要素のグループ」は、復号化及び符号化中に共に処理される画像要素の集合へのフレーム及びスライスの任意の従来の周知の区画を示す。一般に、そのようなグループは、画像要素の矩形(M×N)又は正方形(M×M)グループである。そのようなグループ化の一例は、ビデオ圧縮規格におけるマクロブロックである。そのようなマクロブロックは、一般に16×16の画像要素のサイズを有する。マクロブロックは、16×8、8×16、8×8、8×4、4×8、及び4×4の画像要素等の複数のいわゆるサブマクロブロック区画から成る。8×8サブマクロブロック区画はサブマクロブロック又はサブブロックとして示される場合が多く、4×4区画はブロックとして示される場合が多い。
本発明の境界を有する画像は、全てのエッジに境界線を有し、基本的に画像の周囲にフレームを構成できる。あるいは、通常の形式とワイドスクリーン形式との切替時等に境界線は画像の向かい合うエッジに存在してもよい。更に境界線は、図1に示すように単一の画像エッジに沿って存在してもよい。従って、本発明に係る画像の境界領域は、画像の1つ以上のエッジに存在する1つ以上の画像要素行、1つ以上の画像要素列又は1つ以上の画像要素行及び列を含む。
従来技術において周知のように、境界領域又は境界線は、一般に黒色か又は非常に暗い色である。すなわち、ゼロ輝度又は低輝度を有する。本発明によると、境界領域は画像の1つ以上のエッジに沿い且つ比較的同様の色又は輝度値を有する任意の領域である。殆どの実際的な応用例において、境界領域は黒色(ゼロ輝度)又は少なくとも暗い色(低輝度値)である。しかし、本発明の教示は、例えば白色(一般に2輝度レベルの場合に255である最大輝度)又は明るい色(高輝度値)の他の「一色」の領域を識別するためにも利用される。
図2は、フレーム又はビデオシーケンスの画像等の画像の境界領域を識別する方法を示すフローチャートである。画像は、画像要素の複数の行及び列を含む。方法は、ステップS1において開始し、ステップS1は、画像の第1の行又は第1の列の画像要素のプロパティ値の平均値を計算することを含む。平均値の計算において使用される画像要素のプロパティ値は、上述のように輝度値であるのが好ましいが、本発明はそれに限定されない。以下において、画像の画像要素の列に沿う境界領域の識別に関連して本発明を更に詳細に説明する。その結果、ステップS1は、画像の第1の列のプロパティ値の平均値を計算することを含む。しかし、同一の手順が画像の画像要素の行に更に又は代わりに適用可能である。そのような場合、以下の説明における表現「列」は単純に「行」に置換され、表現「行」は「列」に置換される。
第1の列は、画像の左側又は右側のエッジに沿う最も外側の列であるのが好ましい。yijが列jの行iに位置する画像要素のプロパティ値を示す場合、ステップS1において列jに対する平均値AVjは以下のように計算される:
式中、列jはM個の画像要素を含む。平均値AVjは、列jの平均輝度値の表現であるのが好ましい。
次のステップS2は、列jの各画像要素及び隣接列j+1又はj-1の対応する画像要素に対するプロパティ値の各差分を判定する。プロパティ値の差分は、列j及び隣接列j±1の同一行に存在する画像要素に対して対毎に計算される。列j及び隣接列j±1はM個の画像要素を含むため、ステップS2において、M個のプロパティ値の差分が判定される。
隣接列j±1は、列jと比較して画像の中心により近接して位置する隣接列であるのが好ましい。例えば、現在の列jが画像の左側から右側に進む際の第1の列である場合、隣接列j+1は第2の列である。同様に、現在の列jが画像の左側から右側に進む際の最後の列である場合、隣接列j-1は最後から2番目の列である。
ステップS3において、平均差分値は、ステップS2で計算されたM個の差分に基づいて計算される。従って、列jに対するこの平均差分ADjは以下のように計算される:
これは、次の列j+1が現在の列jに対して右側に(画像の中心に向かって)位置する場合である。あるいは:
これは、次の列j-1が現在の列jに対して左側に(画像の中心に向かって)位置する場合である。平均差分ADjは、2つの隣接列間のプロパティ値、好ましくは輝度値の平均変化量の表現である。
その後、ステップS4は、列jの画像要素を画像の境界領域に属するもの又は属さないものとして分類するためにステップS1からの計算された平均値AVj及び平均差分ADjを利用する。
ステップS4において、現在の列jが画像の境界領域に属するものとして分類される場合、ステップS1〜S4のループは、列j±1の画像要素も境界領域に属するかを調査するために隣接列j±1に対して実行されるのが好ましい。これは、線L1により概略的に示される。この列j±1が平均値AVj±1及び平均差分ADj±1に基づいて境界領域として分類される場合、方法は、テストされる列が境界領域の列として分類されなくなるまで列j±1より画像の中心に近接して位置付けられる次の列j±2に適用される。
好適な一実施形態において、動作ステップS1〜S4により規定される方法は、画像エッジの1つに沿う最も外側の列又は行である第1の列又は第1の行に適用されるのが好ましい。列又は行が境界領域の列又は行として分類される場合、方法は、先にテスト及び分類された列又は行より画像の中心に近接する次の列又は行を調査することにより継続する。方法は、計算された平均値及び平均差分に基づいて境界領域に属するものとして分類されない列又は行に到達するまで継続する。方法は、反対側の画像エッジの最も外側の列又は行にも適用されるのが好ましい。それらの2つの画像エッジに沿う画像要素がテストされると、方法は残りの2つの画像エッジに対して適用されるのが好ましい。既にテストされた画像要素アレイが列(又は行)であった場合、残りの2つの画像エッジは行(又は列)となる。換言すると、図2に開示される本発明の境界領域識別方法は、全ての4つの画像エッジに沿う行及び列を調査するために適用されるのが好ましい。画像エッジがテストされる特定の順序は、並列であっても直列であっても、本発明の教示には重要ではない。
例えば、現在の行iがテストされる場合、行iの画像要素のプロパティ値の平均値AViが計算される。プロパティ値の差分は、現在の行iの画像要素及び隣接行i±1の同一列に存在する画像要素に対して判定される。ここで、隣接行i±1は現在の行iより画像の中心に近接する。そのような差分は、行iの画像要素毎に判定される。平均差分ADiは、それらの判定された差分に基づいて計算される。現在の行iの画像要素は、計算された平均値AVi及び平均差分ADiに基づいて画像の境界領域に属するもの又は内部領域に属するものとして分類される。
図3は、図2の分類ステップS4の好適な一実施形態を示すフローチャートである。方法は、図2のステップS3から継続する。次のステップS10において、分類パラメータCPjは、現在の列jに対する平均値AVj及び平均差分ADjに基づいて計算される。ステップS10の計算は、平均値及び平均差分の加重合計としてパラメータを計算することを含むのが好ましい:
CPj=αAVj+βADj (4)
式中、α及びβは2つの非ゼロ重みであり、好適な一実施形態において、双方は同等、すなわちα=βであり、更に好ましくはα=β=1である。式1、式2及び式4を組み合わせることにより、分類パラメータに対する以下の式が得られる:
式1、式3及び式4を組み合わせることにより、以下の対応する式が得られる:
好適な画像要素プロパティとして輝度を利用する実施形態において、低輝度、すなわち黒色又は黒色に近い色の画像要素を有する列jは、比較的小さい、すなわちゼロに近い平均値AVjを有する。同様に、明るい画像要素又は変動する輝度値を有する列jは、比較的大きい平均値AVjを有する。更に、現在の列jと隣接列j±1との輝度の差分が小さい場合、すなわちそれらの列が同一又は略同一の輝度である場合、列jに対する平均差分ADjはゼロであるか又はゼロに近い。しかし、隣接列j±1が高輝度である場合、平均差分ADjは負になる。
好ましくは上記式4〜式6の任意の式に従ってステップS10で計算される分類パラメータは、ステップS11において閾値T1と比較される。現在の列jの画像要素の分類は、この閾値の比較に基づいて実行される。好適な一実現例において、分類パラメータが閾値より小さい場合、ステップS12において列jは境界領域として分類される。それ以外の場合、すなわち分類パラメータが閾値を上回る(又は閾値と等しい)場合、ステップS13において列jは非境界、すなわち内部領域に属するものとして分類される。
従って、暗い(低輝度の)画像要素を有し且つ/又は列jとその隣接列j±1との輝度の平均差分が負、すなわち隣接列j±1が比較的明るい(高輝度の)画像要素を有する列jは、閾値の実際の値に依存して境界領域として分類される。明るい列j(高輝度)及び/又は比較的暗い(低輝度の)隣接列j±1を有する列jは、画像の内部領域に属するものとして分類される可能性が更に高い。
ステップS12において列jが境界列として分類される場合、現在の列jより画像の中心に1段階近いすぐ隣の列j+1又はj-1を分類するために図2のステップS1に継続するのが好ましい。この分類は、テストされる列が内部領域の列として分類されるまで画像の中心に向かって列毎に繰り返されるのが好ましい。画像の次の列のエッジは、上述したように行の2つのエッジと同様にテストされるのが好ましい。現在の列がステップS13において内部の列として分類される場合、方法は、全ての画像エッジがテストされた時には終了し、あるいは他方の水平又は垂直の画像エッジをテストするために図2のステップS1に継続する。
境界領域が白色の線、すなわち高輝度を有する線に対応する場合、列(又は行)は、境界列(又は行)として分類され、計算された分類パラメータが規定の閾値を上回る場合、列(又は行)は内部領域の列(又は行)である。
ステップS11の比較において利用される閾値は、テスト手順を介して判定されるのが好ましく、種々の入力画像は、本発明のアルゴリズムにより分類される。オペレータにより、閾値は、通常は画像の列及び行を境界領域又は内部領域として適切に分類する特定の値に調整又は設定される。そのようなテスト手順が実行され、適切な候補として24の閾値が与えられる。しかし、本発明はこの特定の値に限定されない。
より複雑な実施形態において、閾値は現在の画像の画像要素のプロパティに基づいて調整又は設定される。この手順を図5に示す。方法は、ステップS20において開始する。ステップS20において、画像要素の平均プロパティ値APVが画像に対して判定される:
式中、画像はM行N列の画像要素を含み、各画像要素は画像要素プロパティ値yijを有する。次のステップS21は、計算された平均プロパティ値に基づいて閾値T1を判定又は調整する。その後、図2のステップS1に継続する。
本実施形態は、画像の特定のプロパティ値に基づいて閾値を調整又は設定するという利点を有する。これは、より明るい画像と比較して、異なる閾値が非常に低い輝度の画像要素を有する暗い画像に対して使用されることを意味する。ここで、画像要素は比較的大きい輝度値を有する。先の例において、閾値はより明るい画像に対して使用される閾値と比較して小さいのが好ましい。
本実施形態において、平均プロパティ値の種々の間隔に対して適応される利用可能な種々の閾値の集合が存在する。例えば、0≦APV<k1の場合、第1の閾値が利用され、k1≦APV<k2の場合、好ましくはより大きい第2の閾値が使用される。ステップS21は、現在の平均プロパティ値が入る間隔をチェックすることを含み、その間隔に関連付けられるか又は割り当てられる閾値を使用する。
別の可能な実現例は、24等のデフォルトの閾値を有し、以下のように判定された平均プロパティ値に基づいてその値を調整することである:
T1=DT−κ(DV−AVP) (8)
又は
T1=DT×κ×AVP/DV (9)
式中、DTはデフォルトの閾値であり、κは1又は他のゼロでない正数である非ゼロ重みである。DVは、画像の計算された平均プロパティ値が閾値調整において比較される対象となるデフォルト値である。式8及び式9の双方において、より暗い画像はより明るい画像と比較して小さく調整された閾値を有する。
図4は、本発明に従って識別可能な境界領域70を有する画像40の一部分を示す概略図である。図中、画像要素30の5つの列10〜16(5つのうち4つが図中符号を割り当てられている)を示す。右側の列10は、エッジ列、すなわち画像40の最も右側の列10である。図から分かるように、列10の画像要素30は明らかに境界領域70を形成する黒色の線の一部である。これは、列10の全ての画像要素30が黒色又は黒色に非常に近いため明らかである。更に、隣接列12の画像要素は、同一行の画像要素と比較するとより大きい輝度値を有する。その結果、列10に対する分類パラメータは実際にはゼロより小さい。外側から2番目の列12は先行列10と同一のゼロ輝度を有さない。しかし、その列12の画像要素30は、次の列14と比較すると負の平均差分を与えるため、依然として境界領域70に属するものとして分類される。その結果、列12に対する分類パラメータも閾値より小さい。
しかし、次の列14は更に明るい画像要素30を有する。更に、列14及び画像の中心に1段階近い隣接列16に対する輝度値の対毎の差分は、列14の分類パラメータが閾値より小さくなるように列14の平均輝度を減少させるのに十分なほど負ではない。その結果、この列14は画像40の内部画像75に属するものとして分類される。
従って、本発明は、分類パラメータの平均差分値を使用して、全ての画像要素30が黒色ではないが画像要素30の列12(又は行)を境界領域70に属するものとして識別及び分類できる。この列12全体が黒色ではないが、列12が黒色の線70の一部として識別及びラベル付けされることが重要である。そのように識別及びラベル付けされない場合、画像コンテンツより暗いためにフレームレートアップ変換中に中間画像にアーティファクトを生じる可能性がある。
図6は、図2の識別方法の追加のステップを示す。方法は、列(又は行)が画像の境界領域に属するものとして識別された図2のステップS4から継続する。次のステップS30は、現在の列jの画像要素及び同一列jの隣接画像要素のプロパティ値の第1の差分FDを計算する:
FD=yij−y(i±1)j (10)
従って、画像要素が列jの行iに存在する場合、隣接画像要素は列jの行i+1又はi-1に存在する。ステップS31において、第2の差分SDは、画像要素のプロパティ値と列jのプロパティ値の平均値AVjとの間で計算される:
第1の差分が第2の差分と最大閾値以上異なる場合、現在の画像要素は、境界領域ではなく内部領域に属するものとして再分類される。例えばこの比較は、ステップS32に示すように実行される。ステップS32において、第1の差分と第2の差分との差分の絶対値が最大閾値T2と比較される。絶対値が閾値以下である場合、画像要素は依然として境界画像要素と考えられ、方法は終了する。しかし、絶対値が閾値を上回る場合、ステップ33に継続し、画像要素は内部画像領域に属するものとして再分類される。更なる可能な比較は、第1の差分及び第2の差分の商又は第1の差分の絶対値及び第2の差分の絶対値の商を計算することである。その後、商は閾値と比較される。
ステップS33の別の一実施形態において、調査された画像要素だけでなく列全体が内部画像領域に属するものとして再分類される。これは、先に境界領域の列として分類された列がステップS33で再分類される少なくとも1つの画像要素、あるいは少なくとも最小倍数の画像要素を含む場合、列全体が内部領域の列として再分類されることを意味する。これにより、列の画像要素の一部が境界領域として分類され且つ他の画像要素が内部画像領域の一部として考えられる断続的な列は防止される。
このオプションの好適な再分類の実施形態は、画像エッジと関連する局所的な変化を区別するために使用される。従って、画像エッジに近接する画像の内部領域は夜空を示すなど比較的暗い可能性があるが、この画像の一部分は暗い空の星又は月に対応する画像要素等の非常に明るい画像要素を含む。そのような場合、星又は月に対応する列の1つ以上の画像要素の高輝度は、特に閾値の適応が利用されない場合、閾値を上回る分類パラメータを得て内部領域として列を分類するのに十分でない可能性がある。上述され且つ図6に開示される方法の追加のチェックは、「困難な」暗い画像と関係して発生するそのような間違った分類を訂正するために利用される。
上述され且つ図6に提示される方法は、現在の列jの全ての画像要素に対して繰り返されるのが好ましい。好適な一実施形態において、方法は列jの第1のy0j(又は最後のy(M-1)j)画像要素から開始し、その画像要素は、ステップS30において列jの次の画像要素y1j(又はy(M-2)j)と比較される。列j全体が再分類されるのと同様に、図6に係る再分類を必要とする画像要素が識別されると、現在の列jの画像要素の調査は必要に応じて終了する。更に、図6に示す動作ステップは、最初に境界領域に属するものとして分類された全ての列及び/又は行に対して繰り返されるのが好ましい。
特に本発明の分類は、境界領域又は黒色の線が補間又は補外された画像又はフレーム内に現れるのを防止するためのフレームレートアップ変換に関係する利点を有する。
図7は、ビデオシーケンスの時刻と関連付けられる画像又はフレームの少なくとも1つの画像要素のグループのプロパティ値を推定する方法を示すフローチャートである。この推定は、フレーム補間又は補外により1つ以上のフレームをビデオシーケンスに追加するためのフレームレートアップ変換手順の一部として実行されるのが好ましい。
方法は、オプションのステップS40から開始し、推定に使用するビデオシーケンスの少なくとも2つの画像が識別される。一般的な一実施形態において、1つの画像は補間される中間画像に対して先行する時刻に対応し、他の画像はシーケンスの後続する時刻に対応する。好適な一実施形態において、2つの画像は、時間に関して中間画像の直前及び直後に位置する画像である。換言すると、画像は隣接画像として考えられる。この画像補間において、3つ以上の画像が実際に使用される。例えば、時刻tkの画像を補間するために、時刻tk-1、tk-3、...、tk+1-2Pに対応するP個の先行画像及び時刻tk+1、tk+3、...、tk-1+2Qに対応するQ個の後続画像が使用される。
同様に、時刻tkの画像又はフレームを補外する時、時刻tk-1、tk-3、...、tk+1-2Pの2つ以上の先行画像又は時刻tk+1、tk+3、...、tk-1+2Qの2つ以上の後続画像が使用される。
次のステップS41は、補間又は補外において参照画像として使用される少なくとも2つの画像のうちの少なくとも第1の画像の境界画像要素を識別する。このステップS41は、本明細書において上述したように実行され、黒色の線又は他の境界領域の一部を形成する2つの画像の0個又は1つ以上の画像エッジと関係する任意の画像要素を識別する。
次のステップS42は、分類された第1の画像の複数の画像要素の第1のグループを提供する。この第1のグループは、ステップS41で境界領域に属するものとして識別された少なくとも1つの画像要素と、ステップS41で第1の画像の境界領域に属さないものとして識別された少なくとも1つの画像要素とを含む。例えば、画像要素グループが4×4の画像要素を含む場合、1つ、2つ又は3つの列及び/又は行の画像要素は境界画像要素として分類され、残りの画像要素は内部画像要素である。
ステップS43は、ビデオシーケンスの先行又は後続する時刻と関連付けられる第2の(先行又は後続)画像の少なくとも1つの画像要素の第2のグループを識別する。第2のグループは、第1のグループと関連付けられる変位ベクトルに基づいて識別されるのが好ましい。従って、変位ベクトルは、第2の画像において第1のグループが有していた対応する位置から適用される場合、第2のグループの方向を指し示す。
最後に、補間/補外されるグループのプロパティ値は、第1の画像の境界領域に属さないものとして識別された第1のグループの画像要素のプロパティ値及び第2のグループのプロパティ値に基づいて識別される。ステップS41の境界識別が第2の画像にも適用される場合、ステップS44は、補間/補外されるグループを判定するために、第1の画像の境界領域に属さないものとして識別された画像要素及び第2の画像の境界領域に属さないものとして識別された画像要素を利用することのみを含む。
従って、本発明の画像要素の分類及び識別は、画像要素の補間/補外から境界領域の一部を形成するものとして識別される画像要素を除外するために利用される。これに対して、判定されるグループの画像要素に対するプロパティ値を計算する時、境界領域に属するものとして識別されない画像要素のみが基準画像要素として利用可能である。この境界画像要素の除外により、境界領域(黒色の線)が補間/補外される画像に現れる可能性が低減され、そのようなアーティファクトの発生は非常に減少する。
図8は、図7の提供ステップ及び識別ステップの可能な実現例を更に詳細に示す。方法は、図7のステップS41から継続する。次のステップS50は、第1の画像の複数、すなわち少なくとも2つの候補グループの集合を提供する。それらの候補グループの各々は、少なくとも1つの画像要素、一般的には複数の画像要素を含み、各変位表現又はベクトルと関連付けられる。それらの変位ベクトルは、フレームのインター符号化、すなわちビデオコーデックから取り出されるか、あるいは動き推定探索から判定される。
ステップS51は、線L2により概略的に示されるように候補グループ毎に第2の画像の少なくとも1つの画像要素の各参照グループを識別する。候補グループと関連付けられる参照グループは、候補グループと関連付けられる変位ベクトルに基づいて識別されるのが好ましい。従って、変位ベクトルは、第2の画像において候補グループが有していた対応する位置から適用される場合、参照グループの方向を指し示す。
次のステップS52は、線L2により概略的に示されるように候補グループ毎に候補グループ及びその識別された参照グループの画像要素のプロパティ値の差分を表す差分基準を計算する。好適な一実施形態において、基準は、候補グループ及び参照グループの対応する位置を占める画像要素に対するプロパティ値の差分の絶対値に基づいて計算される。そのような差分基準の好適な例には、従来技術において周知の絶対値差分和(SAD)及び平方差分和(SSD)が含まれる。
次のステップS53は、計算された差分基準に基づいて提供されたグループの集合から候補グループを選択する。すなわち、最小SAD又はSSD基準を結果として与える候補グループを選択するのが好ましい。選択した候補グループ及び選択した候補グループと関連付けられる参照グループのプロパティ値に基づいて補間/補外フレームのグループのプロパティ値を判定する図7のステップS44に継続する。好適な一実施形態において、画像要素プロパティ値は、選択した候補グループ及び関連する参照グループのプロパティ値の線形結合として判定される。選択したグループのプロパティ値に適用される任意の重み及び関連するグループのプロパティ値の任意の重みは、それぞれ補間/補外フレームと選択した候補グループを含む第1のフレームとの時間の差分及び補間/補外フレームと第2のフレームとの時間の差分に基づいて判定されるのが好ましい。換言すると、時間の経過がより長い時間の経過と比較して短い場合、より大きい重みが使用される。更にフレームの重みの値は、従来技術において周知のように加速を反映するために利用される。尚、候補グループ及び/又は参照グループの本発明に係る境界画像要素として分類されない画像要素のみがステップS44の判定において利用される。
上述の実施形態において、候補グループと関連付けられる参照グループは、割り当てられる変位ベクトルに基づいて識別されるか、あるいは候補グループに対して推定される。これは、判定されるグループから参照グループに進む時と同様に、同一のベクトルが候補グループから補間/補外されるグループに移動するために使用されると推定する。しかし、本発明はこれに限定されない。
別の実施形態において、第1のフレームの複数の第1の候補グループの第1の集合が提供されるのと共に、第2のフレームに存在する複数の第2の候補グループの第2の集合は提供される。また、これらの第2の候補グループは、それぞれ少なくとも1つの画像要素を含み、好ましくはそれぞれ変位ベクトルを有する。差分基準は、第1の集合の1つの第1の候補グループ及び第2の集合の1つの第2の候補グループの対毎に計算される。あるいは、第1の候補及び第2の候補の全ての組合せがテストされるわけではなく、それらのうち限定された部分のみがテストされ、第1のフレーム及び第2のフレームの同一のフレーム位置に存在するグループ及び他のフレームの他の候補グループを識別する関連する変位ベクトルを有するグループ等の候補グループの妥当な組合せを反映する。
その後、第1の候補グループ及び第2の候補グループは、差分基準に基づいて選択される。判定されるグループの画像要素プロパティ値は、上述のようにそれらの選択した候補グループのプロパティ値に基づいて計算されるが、2つの候補グループの境界画像要素は除外される。
図9は、第1のフレーム40、第2のフレーム50及びフレームレートアップ変換中に判定される中間フレーム60を有するビデオシーケンス1の一部分を示す。判定される画像要素のグループ62は、中間フレーム60に示される。適切な第1の候補グループ42、44、46を第1のフレーム40に示し、対応する第2の候補グループ52、54、56を第2のフレーム50に示す。一般的にこれらの候補グループは、グループ62が中間フレーム60において有する位置と対応する位置を第1のフレーム40及び第2のフレーム50に有するグループ42、52を含む。それらのグループ42、52の変位ベクトル41、51は図示されており、判定されるグループ62を通過する。他の候補は、対応する位置を有する候補グループ42、52の隣接グループ44、54を含む。また、中間フレーム60のグループ62を通過する関連する変位ベクトル43、53を有するグループ46、56は、本発明に係る好適な候補グループである。
図10は、図7の推定方法の追加のステップを示すフローチャートである。方法は、図7のステップS41から継続する。次のステップS60において、第1の画像において識別される境界領域の相対サイズは、第2の画像において識別される境界領域のサイズと比較される。更に、それらの2つの境界領域は、第1の画像及び第2の画像の同一の画像エッジ、すなわち上部の水平エッジ、下部の水平エッジ、左側の垂直エッジ又は右側の垂直エッジに対応する。ステップS60は、2つの境界領域間のサイズの差分SDを計算することを含む。サイズの差分は、2つの境界領域の列数(又は行数)の差分を表せる。あるいは、サイズの差分は、2つの対応する境界領域間の画像要素数の差分の表現である。
ステップS61の比較において、2つの境界領域間のサイズの差分SDが閾値T3以下である場合、図7のステップS42に継続する。しかし、ステップS61において、サイズの差分が閾値を上回る場合、ステップS62に継続し、第2の画像(又は第1の画像)の画像要素の再分類は第1の画像(又は第2の画像)において識別される境界領域のサイズに基づいて実行される。そのような場合、第1の画像(又は第2の画像)の境界領域に属するものとして識別された第1の画像(又は第2の画像)の画像要素と対応する位置を有する第2の画像(又は第1の画像)の画像要素は、第2の画像(又は第1の画像)の境界領域に属するものとして分類される。その後、ステップS42に継続する。
従って、ステップS60〜S62のこのチェックにより、ビデオシーケンスにおいて1つの画像から次の画像に移動する時に対応する画像エッジの境界領域のサイズが非常に増加するか又は減少するかを調査する。例えば、境界領域のサイズは、第1の画像の1つのエッジに沿う2列であってもよい。しかし、ビデオシーケンスの次の画像は、同一の画像エッジに沿う7列を含むものとして分類された境界領域を有する。そのような場合、内部画像要素の一部が境界画像要素と想定されるため間違って分類されている可能性がある。これは、特に閾値調整が実行されない場合であり、特に画像が夜空を示すなど非常に暗く、そのため内部画像要素と境界画像要素との間の輝度値の差分が殆どない時に起こる。識別された境界領域のサイズを先に分類された画像又は先に分類された複数の画像の対応するサイズと比較することにより、そのような間違った分類は上述し且つ図10に示す手順に従って識別及び訂正される。これは、上述の例を挙げると、第2の画像の境界領域のサイズが第1の画像と対応するサイズ、すなわち2列を有するように再設定されることを意味する。5つの「間違って分類された」列の画像要素は、ステップS62において、境界画像要素ではなく内部画像要素として再分類される。これは、それらの5つの「間違って分類された」列の画像要素がこの時点で内部画像要素と考えられるため、補間/補外において参照画像要素として利用可能であることを意味する。
図13は、本発明に係る画像分類を利用するフレームレートアップ変換の結果を示す。補間画像60から分かるように、左側の画像50の右側のエッジに存在する境界は、補間画像60の内部領域内に現れない。非常に対照的に、最も外側の右側の列の画像要素を本発明の境界画像要素としてラベル付けすることにより、それらの画像要素は補間から除去され、従来技術を利用する図1の中央の画像に存在する黒色の線が図13の画像60内に現れるのを防止する。非常に対照的に、暗い境界画像は、図中で行なわれてるように、単純に境界画像要素のプロパティ値(輝度)を補間画像60の対応する位置を占める画像要素に割り当てることにより別個に処理される。更に詳細には、補間/補外に使用される2つの参照フレームの境界の最大値と等しい幅を有する境界が作成される。作成された境界領域の画像要素には、参照画像の平均(補間の場合)画像要素値が埋められる。すなわち、動き補償は必要ない。補間画像の境界の位置(i,j)の画像要素は、単純に2つの(先行及び後続)参照フレームの同一の位置を占める2つの画像要素のプロパティ値の平均値として判定される。
フレームレートアップ変換方式における構成されたフレーム又は画像の品質は、本発明を適用することにより向上される。これは、画像境界に近接する領域が更に正確に提示されることを意味する。更に本発明は、(黒色の)線が構成された画像内に移動するのを防止し、全体的により高い品質が体験される。
図11は、本発明の一実施形態に係る領域識別器100を示す概略ブロック図である。領域識別器100は、現在の行又は列(行/列)の画像要素のプロパティ値の平均値を計算する計算器110を含む。差分判定器120は、行/列の画像要素毎に画像要素及び画像の隣接行/列の同一の列/行に存在する対応する画像要素のプロパティ値の差分を判定するように識別器100に構成される。計算器130は、現在の行/列に対する平均差分を計算するために判定した差分値を使用する。
領域識別器100は、2つの計算器110、130からの平均値及び平均差分に基づいて現在の行/列の画像要素を境界領域又は内部画像領域に属するものとして分類するように構成される分類器140を更に含む。
好適な一実施形態において、識別器100は、先に開示したように平均値及び平均差分、すなわち平均値及び平均差分の合計又は加重合計に基づいて分類パラメータを計算するパラメータ計算器160を含む。比較器170は、連想メモリ150から取り出されるような閾値と分類パラメータとを比較するために識別器100に提供される。本実施形態において、分類器140は、比較に基づいて現在の行/列の画像要素を境界領域に属するもの又は属さないものとして分類するように構成される。黒色の線/境界と関連して適用可能な好適な一実現例において、分類パラメータが閾値を下回る場合、現在の行/列は画像の境界領域に属するものとして分類される。
領域識別器100のオプションの一実施形態は、閾値判定器又は調整器180を含む。そのような場合、平均値計算器110は、画像又は少なくとも画像の大部分のプロパティ値の平均値を計算するように更に構成される。判定器180は、分類パラメータと共に比較器170により使用される閾値を判定、選択又は調整するためにその平均プロパティ値を利用する。
別のオプションの実施形態において、差分判定器120は、境界の行/列として分類された行/列の現在の画像要素及び同一の行/列の隣接する画像要素のプロパティ値の第1の差分を判定するように構成される。判定器120は、現在の画像要素のプロパティ値と平均値計算器110により計算される平均値との第2の差分を更に計算する。本実施形態において、第1の差分が第2の差分とメモリ150から取り出されるような最大閾値以上異なる場合、分類器140は、現在の画像要素又は実際には画像要素が属する境界の行/列を非境界画像要素又は非境界の行/列として再分類する。この手順は、「間違って分類された」画像要素を検出した際に行/列全体の再分類が分類器140により実行されない限り、現在の行/列の画像要素毎に実行される。更に、手順は、境界の行/列として分類された画像の全ての行/列に適用されるのが好ましい。
領域識別器100は、画像の最も外側の全ての列及び行を調査し、外側の行又は列が本発明に従って境界の行又は列として分類される場合は更に内部の行及び列に対する調査を継続するのが好ましい。
領域識別器100のユニットは、ハードウェア、ソフトウェア、並びに/あるいはハードウェア及びソフトウェアの組合せで提供可能である。ユニットは、有線又は無線通信システムのノードにおいて実現されるか又はノードに接続されるようなビデオ又は画像処理端末又はサーバで実現可能である。あるいは、領域識別器100のユニットは、TV復号器、コンピュータ、移動電話、あるいは画像レンダリングデバイスを有するか又はそれに接続される他のユーザ機器等のユーザ端末に構成可能である。
図12は、画像要素のグループの少なくとも1つの画像要素のプロパティ値を推定することによりグループを判定するデバイス200を示す概略ブロック図である。デバイス200は、ビデオシーケンスの少なくとも第1の画像及び第2の画像を識別するフレーム又は画像識別器210をオプションとして含む。それらの2つの画像は、判定されるグループを含む現在の画像と比較してシーケンス中の異なる時刻と関連付けられる。グループの補間の場合、第1の画像は先行又は後続画像であり、第2の画像は後続又は先行画像である。グループの補外の場合、第1の画像及び第2の画像の双方は現在の画像に対して先行又は後続画像である。
判定デバイス200は、上述し且つ図11に示す本発明に係る領域識別器100を含む。領域識別器100は、画像の各境界領域に属するものとして分類される第1の画像及び好ましくは第2の画像の画像要素を識別するために利用される。
グループ提供器220は、第1の画像の複数の画像要素の第1のグループを提供するようにデバイス200に構成される。このグループは、識別器100により境界画像要素として分類された少なくとも1つの画像要素及び識別器100により非境界画像要素として分類された少なくとも1つの画像要素を含む。デバイス200は、第2の画像の少なくとも1つの画像要素、好ましくは複数の画像要素の第2のグループを識別するグループ識別器230を更に含む。値判定器260は、提供器220及び識別器230からの2つのグループ中の境界画像要素として分類されない画像要素のプロパティ値に基づいて判定されるグループのプロパティ値を判定する。
値判定器260は、動き補償を使用する補間/補外とは別個に境界領域に存在する画像要素のプロパティ値を更に判定するのが好ましい。好適な一実施形態において、デバイス200のサイズ比較器270は、画像の補間/補外に使用される2つの参照画像の相対境界サイズを画像エッジ毎に比較する。構成される画像のエッジの境界は、参照画像のエッジの最大の境界として選択される。境界画像要素のプロパティ値は、参照画像の同一の位置を占める画像要素のプロパティ値に基づいて計算される。境界の位置(i,j)の画像要素は、参照フレームの同一の位置(i,j)を占める画像要素のプロパティ値の平均値と等しいプロパティ値を得る。
オプションの一実施形態において、集合提供器250は、第1の画像の複数の候補グループの集合を提供するようにデバイス200に構成される。各候補グループは、少なくとも1つの画像要素を含み、各変位ベクトルを有する。グループ識別器は、候補グループ毎に第2の画像の第2の各グループを識別する。この識別は、候補グループと関連付けられる変位ベクトルに基づいて実行されるのが好ましい。基準計算器240は、候補グループ毎に差分基準を計算する。ここで、基準は候補グループ及びその識別された第2のグループのプロパティ値の差分を表す。基準は、SAD又はSSD基準であるのが好ましい。すなわち、画像要素の差分の絶対値に基づくのが好ましい。
本実施形態において、グループ提供器220は、計算器240による差分基準に基づいて提供された集合から候補グループを選択するように、すなわち好ましくは最小(SAD又はSSD)差分基準を有する候補グループを選択するように構成される。値判定器260は、選択した候補グループ及び関連する第2のグループのプロパティ値に基づいて、一般的には2つのグループ中の境界画像要素を除外したグループの画像要素値の線形結合に基づいて現在のグループのプロパティ値を判定する。
オプションのサイズ比較器270は、第1の画像の境界領域及び第2の画像の同一の画像エッジと関連する境界領域の相対サイズを比較するために判定デバイス200に提供されるのが好ましい。分類器280は、サイズの差分が閾値を上回る場合に境界画像要素として先に分類された第2の画像の画像要素を内部画像要素に再分類するためにそのサイズ比較を使用する。再分類された画像要素は、第1の画像の内部領域として分類される画像位置を占める。しかし、それらは領域識別器100により第2の画像の境界領域として分類されていた。
判定デバイス200のユニットは、ハードウェア、ソフトウェア、並びに/あるいはハードウェア及びソフトウェアの組合せで提供可能である。ユニットは、有線又は無線通信システムのノードにおいて実現されるか又はノードに接続されるようなビデオ又はフレーム処理端末又はサーバで実現可能である。あるいは、判定デバイス200のユニットは、TV復号器、コンピュータ、移動電話、あるいは画像レンダリングデバイスを有するか又はそれに接続される他のユーザ機器等のユーザ端末に構成可能である。
添付の請求の範囲により規定される本発明の範囲から逸脱せずに、本発明に対して種々の変形及び変更が行なわれてもよいことは、当業者には理解されるだろう。

Claims (20)

  1. 画像要素の行及び列を含む画像のエッジの境界領域を識別する方法であって、
    −前記画像の行又は列の画像要素のプロパティ値の平均値を計算するステップと、
    −前記行又は列の画像要素毎に、前記画像要素と、前記画像の隣接行又は隣接列の同一の列又は行に存在する画像要素とのプロパティ値の差分を判定するステップと、
    −前記差分の行又は列方向における平均である平均差分を計算するステップと、
    −前記平均値及び前記平均差分の加重合計として分類パラメータを計算するステップと、
    −前記分類パラメータを閾値と比較するステップと、
    −前記分類パラメータが前記閾値を下回る場合に、前記行又は列の画像要素を前記境界領域に属するものとして分類するステップと
    を有することを特徴とする方法。
  2. −前記画像の前記画像要素のプロパティ値の平均値を判定するステップと、
    −前記画像の前記画像要素の前記プロパティ値の前記平均値に少なくとも部分的に基づいて前記閾値を判定するステップと
    を更に有することを特徴とする請求項記載の方法。
  3. 前記隣接行又は列は、前記行又は列と比較して前記画像の中心により近接して位置する隣接行又は列であることを特徴とする請求項1又は2に記載の方法。
  4. 前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列について、前記平均値を計算するステップと、前記判定するステップと、前記平均差分を計算するステップと、前記分類するステップとを繰り返すことを特徴とする請求項1からのいずれか1項に記載の方法。
  5. −前記行又は列の画像要素と、隣接列又は隣接行の同一の行又は列に存在する画像要素のプロパティ値との第1の差分を計算するステップと、
    −前記画像要素の前記プロパティ値と前記平均値との第2の差分を計算するステップと、
    −前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記画像要素を前記境界領域に属さないものとして分類するステップと
    を更に有することを特徴とする請求項1からのいずれか1項に記載の方法。
  6. 前記分類するステップにおいては、前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記行又は列の前記画像要素を前記境界領域に属さないものとして分類することを特徴とする請求項記載の方法。
  7. 前記画像要素の前記プロパティ値は輝度値であることを特徴とする請求項1からのいずれか1項に記載の方法。
  8. ビデオシーケンスの補間される中間画像における少なくとも1つの画像要素のグループのプロパティ値を推定する方法であって、
    −請求項1からのいずれか1項に従って、前記ビデオシーケンスの第1の異なる時刻と関連付けられる第1の画像のエッジの境界領域に属する画像要素を識別するステップと、
    −前記第1の画像の前記境界領域に属するものとして識別された少なくとも1つの画像要素と、前記第1の画像の前記境界領域に属さないものとして識別された少なくとも1つの画像要素とを含む第1のグループを前記第1の画像に提供するステップと、
    −前記ビデオシーケンスの第2の異なる時刻と関連付けられる第2の画像における少なくとも1つの画像要素の第2のグループを識別するステップと、
    −前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と前記第2のグループのプロパティ値とに基づいて、前記補間される中間画像における画像要素のグループの前記プロパティ値を判定するステップと
    を有することを特徴とする方法。
  9. 前記第2のグループを識別するステップにおいては、前記第1のグループと関連付けられる変位ベクトルに基づいて前記第2の画像の前記第2のグループを識別することを特徴とする請求項記載の方法。
  10. 前記第2の画像のエッジの境界領域に属する画像要素を識別するステップを更に有し、
    前記判定するステップにおいては、前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と、前記第2のグループの前記境界領域に属さないものとして識別された前記第2のグループの画像要素のプロパティ値とに基づいて、前記グループの前記プロパティ値を判定する
    ことを特徴とする請求項又は記載の方法。
  11. −前記第1の画像の前記境界領域及び前記第2の画像の前記境界領域のサイズの差分計算するステップと、
    −前記サイズの差分が閾値を上回る場合に前記第1の画像の前記境界領域に属するものとして識別された前記第1の画像の画像要素と対応する位置を有する前記第2の画像の画像要素を、前記第2の画像の前記境界領域に属するものとして分類するステップと
    を更に有することを特徴とする請求項10記載の方法。
  12. 画像要素の行及び列を含む画像のエッジの境界領域を識別する領域識別器であって、
    −前記画像の行又は列の画像要素のプロパティ値の平均値を計算する平均値計算手段と、
    −前記行又は列の画像要素毎に、前記画像要素及び前記画像の隣接行又は列の同一の列又は行に存在する画像要素のプロパティ値の差分を判定する差分判定手段と、
    −前記差分の行又は列方向における平均である平均差分を計算する平均差分計算手段と、
    −前記平均値及び前記平均差分の加重合計として分類パラメータを計算するパラメータ計算手段と、
    −前記分類パラメータを閾値と比較する比較手段と、
    −前記分類パラメータが前記閾値を下回る場合に、前記行又は列の画像要素を前記境界領域に属するものとして分類する分類手段と
    を具備することを特徴とする領域識別器。
  13. 前記平均値計算手段は、前記画像の前記画像要素のプロパティ値の平均値を計算するように構成され、
    前記領域識別器は、前記画像の前記画像要素の前記プロパティ値の前記平均値に少なくとも部分的に基づいて前記閾値を判定する閾値判定手段を具備する
    ことを特徴とする請求項12記載の領域識別器。
  14. 前記平均値計算手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列に対する対応する平均値を計算するように構成され、
    前記差分判定手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列に対するプロパティ値の対応する差分を計算するように構成され、
    前記平均差分計算手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列に対する対応する平均差分を計算するように構成され、
    前記分類手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列の画像要素を分類するように構成される
    ことを特徴とする請求項12又は13に記載の領域識別器。
  15. 前記差分判定手段は、i)前記行又は列の画像要素と、隣接列又は隣接行の同一の行又は列に存在する画像要素のプロパティ値の第1の差分を判定し、ii)前記画像要素の前記プロパティ値と前記平均値との第2の差分を判定するように構成され、
    前記分類手段は、前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記画像要素を前記境界領域に属さないものとして再分類するように構成される
    ことを特徴とする請求項12から14のいずれか1項に記載の領域識別器。
  16. 前記分類手段は、前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記行又は列の前記画像要素を前記境界領域に属さないものとして再分類するように構成されることを特徴とする請求項15記載の領域識別器。
  17. ビデオシーケンスの補間される中間画像の少なくとも1つの画像要素のグループのプロパティ値を推定するデバイスであって、
    −前記ビデオシーケンスの第1の異なる時刻と関連付けられる第1の画像のエッジの境界領域に属する画像要素を識別する請求項12から16のいずれか1項に記載の領域識別器と、
    −前記第1の画像の前記境界領域に属するものとして識別された少なくとも1つの画像要素と、前記第1の画像の前記境界領域に属さないものとして識別された少なくとも1つの画像要素とを含む第1のグループを前記第1の画像に提供するグループ提供手段と、
    −前記ビデオシーケンスの第2の異なる時刻と関連付けられる第2の画像の少なくとも1つの画像要素の第2のグループを識別するグループ識別手段と、
    −前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と前記第2のグループのプロパティ値とに基づいて前記補間される中間画像における画像要素のグループの前記プロパティ値を判定する値判定手段と
    を具備することを特徴とするデバイス。
  18. 前記グループ識別手段は、前記第1のグループと関連付けられる変位ベクトルに基づいて前記第2の画像の前記第2のグループを識別するように構成されることを特徴とする請求項17記載のデバイス。
  19. 前記領域識別器は、前記第2の画像のエッジの境界領域に属する画像要素を識別するように構成され、
    前記値判定手段は、前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と、前記第2のグループの前記境界領域に属さないものとして識別された前記第2のグループの画像要素のプロパティ値とに基づいて前記グループの前記プロパティ値を判定するように構成される
    ことを特徴とする請求項17又は18記載のデバイス。
  20. −前記第1の画像の前記境界領域及び前記第2の画像の前記境界領域のサイズの差分計算するサイズ比較手段と、
    −前記サイズの差分が閾値を上回る場合に前記第1の画像の前記境界領域に属するものとして識別された前記第1の画像の画像要素と対応する位置を有する前記第2の画像の画像要素を前記第2の画像の前記境界領域に属するものとして分類する分類手段と
    を更に具備することを特徴とする請求項19記載のデバイス。
JP2009547200A 2007-01-26 2008-01-14 画像における境界領域処理 Expired - Fee Related JP5190469B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US89751107P 2007-01-26 2007-01-26
US60/897,511 2007-01-26
PCT/SE2008/050035 WO2008091207A1 (en) 2007-01-26 2008-01-14 Border region processing in images

Publications (2)

Publication Number Publication Date
JP2010517417A JP2010517417A (ja) 2010-05-20
JP5190469B2 true JP5190469B2 (ja) 2013-04-24

Family

ID=39644716

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009547200A Expired - Fee Related JP5190469B2 (ja) 2007-01-26 2008-01-14 画像における境界領域処理
JP2009547199A Expired - Fee Related JP5254997B2 (ja) 2007-01-26 2008-01-14 発見フレーム領域についての動き推定

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009547199A Expired - Fee Related JP5254997B2 (ja) 2007-01-26 2008-01-14 発見フレーム領域についての動き推定

Country Status (4)

Country Link
US (3) US20100027667A1 (ja)
EP (2) EP2108177B1 (ja)
JP (2) JP5190469B2 (ja)
WO (2) WO2008091207A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2292426T3 (es) * 1999-01-29 2008-03-16 Roche Diagnostics Gmbh Metodo para detectar probnp n-terminal.
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8873932B2 (en) * 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
US20090180546A1 (en) * 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8958486B2 (en) * 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US8804845B2 (en) * 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
WO2009052262A2 (en) * 2007-10-16 2009-04-23 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8699578B2 (en) * 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8840602B2 (en) 2008-07-31 2014-09-23 Acclarent, Inc. Systems and methods for anesthetizing ear tissue
US8411752B2 (en) * 2008-10-29 2013-04-02 Nds Limited Video signature
US8681876B2 (en) * 2008-11-12 2014-03-25 Cisco Technology, Inc. Targeted bit appropriations based on picture importance
FR2939900A1 (fr) * 2008-12-17 2010-06-18 Sagem Defense Securite Dispositif d'hybridation en boucle fermee integre par construction.
WO2010096767A1 (en) * 2009-02-20 2010-08-26 Cisco Technology, Inc. Signalling of decodable sub-sequences
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
CN103404122B (zh) * 2011-01-28 2017-03-22 皇家飞利浦电子股份有限公司 基于运动矢量的运动对象比较
CN103136741A (zh) * 2011-12-05 2013-06-05 联咏科技股份有限公司 固定图案的边缘检测方法与电路
EP2645713A1 (en) * 2012-03-30 2013-10-02 Alcatel Lucent Method and apparatus for encoding a selected spatial portion of a video stream
US9071842B2 (en) * 2012-04-19 2015-06-30 Vixs Systems Inc. Detection of video feature based on variance metric
US20130321497A1 (en) * 2012-06-05 2013-12-05 Shenzhen China Star Optoelectronics Technology Co., Ltd. Method of Signal Compensation, Transformation Circuit in Liquid Crystal Panel, and Liquid Crystal Display Device
WO2016142965A1 (ja) * 2015-03-10 2016-09-15 日本電気株式会社 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体
US10192414B2 (en) * 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
WO2018174618A1 (ko) * 2017-03-22 2018-09-27 한국전자통신연구원 참조 블록을 사용하는 예측 방법 및 장치
US10218992B2 (en) * 2017-07-24 2019-02-26 Cisco Technology, Inc. Encoding, transmission and decoding of combined high motion and high fidelity content
EP3451665A1 (en) 2017-09-01 2019-03-06 Thomson Licensing Refinement of internal sub-blocks of a coding unit
CN110662037B (zh) 2018-06-29 2022-06-28 北京字节跳动网络技术有限公司 运动信息共享的限制
CN110896492B (zh) * 2018-09-13 2022-01-28 阿里巴巴(中国)有限公司 图像处理方法、装置及存储介质
US12002186B1 (en) 2021-06-11 2024-06-04 Dolby Laboratories Licensing Corporation Surround area detection and blending for image filtering

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2612557B2 (ja) * 1985-12-18 1997-05-21 ソニー株式会社 データ伝送受信システム及びデータ復号装置
GB2231749B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
SE9201183L (sv) * 1992-04-13 1993-06-28 Dv Sweden Ab Saett att adaptivt estimera icke oenskade globala bildinstabiliteter i bildsekvenser i digitala videosignaler
JP3490142B2 (ja) * 1994-06-24 2004-01-26 株式会社東芝 動画像符号化方法及び装置
US5929940A (en) * 1995-10-25 1999-07-27 U.S. Philips Corporation Method and device for estimating motion between images, system for encoding segmented images
US6208385B1 (en) * 1996-10-17 2001-03-27 Kabushiki Kaisha Toshiba Letterbox image detection apparatus
WO1998044739A1 (en) * 1997-03-31 1998-10-08 Sharp Kabushiki Kaisha Mosaic generation and sprite-based image coding with automatic foreground and background separation
JP2935357B2 (ja) * 1997-06-02 1999-08-16 日本ビクター株式会社 映像信号高能率符号化装置
US6061400A (en) 1997-11-20 2000-05-09 Hitachi America Ltd. Methods and apparatus for detecting scene conditions likely to cause prediction errors in reduced resolution video decoders and for using the detected information
US6192080B1 (en) * 1998-12-04 2001-02-20 Mitsubishi Electric Research Laboratories, Inc. Motion compensated digital video signal processing
EP1181828B1 (en) * 1999-05-13 2010-03-17 STMicroelectronics Asia Pacific Pte Ltd. Adaptive motion estimator
US6618439B1 (en) * 1999-07-06 2003-09-09 Industrial Technology Research Institute Fast motion-compensated video frame interpolator
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
KR20010087552A (ko) * 2000-03-07 2001-09-21 구자홍 엠펙(mpeg)압축 비디오 환경에서 매크로 블록의시공간상의 분포를 이용한 디졸브/페이드 검출 방법
US6337925B1 (en) * 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
FR2811791B1 (fr) * 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
US7068852B2 (en) * 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image
JP2004523994A (ja) * 2001-04-10 2004-08-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 一連のフレームを符号化する方法
JP4596224B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR100412501B1 (ko) * 2001-11-30 2003-12-31 삼성전자주식회사 움직임 보상을 위한 화소값 선택 장치 및 방법
KR100441509B1 (ko) * 2002-02-25 2004-07-23 삼성전자주식회사 주사포맷변환장치 및 방법
US7254268B2 (en) * 2002-04-11 2007-08-07 Arcsoft, Inc. Object extraction
EP1376471A1 (en) * 2002-06-19 2004-01-02 STMicroelectronics S.r.l. Motion estimation for stabilization of an image sequence
WO2005027491A2 (en) * 2003-09-05 2005-03-24 The Regents Of The University Of California Global motion estimation image coding and processing
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
EP1583364A1 (en) * 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion compensated interpolation of images at image borders for frame rate conversion
US8369405B2 (en) * 2004-05-04 2013-02-05 Qualcomm Incorporated Method and apparatus for motion compensated frame rate up conversion for block-based low bit rate video
US8553776B2 (en) * 2004-07-21 2013-10-08 QUALCOMM Inorporated Method and apparatus for motion vector assignment
US7447337B2 (en) * 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
US20090147851A1 (en) * 2004-11-22 2009-06-11 Koninklijke Philips Electronics, N.V. Motion vector field projection dealing with covering and uncovering
US7593603B1 (en) * 2004-11-30 2009-09-22 Adobe Systems Incorporated Multi-behavior image correction tool
US7755667B2 (en) * 2005-05-17 2010-07-13 Eastman Kodak Company Image sequence stabilization method and camera having dual path image sequence stabilization
KR100699261B1 (ko) * 2005-06-24 2007-03-27 삼성전자주식회사 움직임 에러 검출장치와 이를 포함하는 움직임 에러보정장치와 이에 의한 움직임 에러 검출방법 및 움직임에러 보정방법
EP2077038B1 (en) * 2006-10-18 2013-01-30 Apple Inc. Scalable video coding with filtering of lower layers

Also Published As

Publication number Publication date
EP2122573B1 (en) 2018-05-30
US20100027667A1 (en) 2010-02-04
US9860554B2 (en) 2018-01-02
EP2108177A4 (en) 2017-08-23
JP5254997B2 (ja) 2013-08-07
EP2122573A4 (en) 2017-07-19
US20090316997A1 (en) 2009-12-24
WO2008091207A1 (en) 2008-07-31
US8498495B2 (en) 2013-07-30
EP2122573A1 (en) 2009-11-25
JP2010517417A (ja) 2010-05-20
US20160112717A1 (en) 2016-04-21
EP2108177A1 (en) 2009-10-14
JP2010517416A (ja) 2010-05-20
EP2108177B1 (en) 2019-04-10
WO2008091206A1 (en) 2008-07-31
WO2008091207A8 (en) 2008-09-12

Similar Documents

Publication Publication Date Title
JP5190469B2 (ja) 画像における境界領域処理
Dong et al. Fast intra mode decision algorithm for versatile video coding
US8837591B2 (en) Image block classification
US10965959B2 (en) Multi-frame quality enhancement for compressed video
EP3389276B1 (en) Hash-based encoder decisions for video coding
CN106170087B (zh) 异常像素检测
EP2608148A2 (en) Method and apparatus for generating multi-view
US20190104309A1 (en) Up-conversion to content adaptive perceptual quantization video signals
KR20090068219A (ko) 적응성 픽셀-기반의 필터링을 위한 자동 파라미터 추정
KR101622363B1 (ko) 필름 모드 또는 카메라 모드의 검출을 위한 방법
JP2005287048A (ja) 画像境界における動きベクトル検出の改良
Kim et al. Multiple level feature-based universal blind image quality assessment model
KR20090025290A (ko) 적응성 픽셀-기반의 필터링
KR100929608B1 (ko) 고속 전역탐색 블록정합 알고리즘을 이용한 동영상 움직임추정 방법 및 장치
US20050036061A1 (en) De-interlacing of video data
US20130259373A1 (en) Image processing device capable of determining types of images accurately
KR20060061036A (ko) 문서 압축 장치 및 그 방법
JP4083159B2 (ja) デジタル動画像のモーションベクトル設定方法
CN110633065A (zh) 一种图像调整方法及装置、计算机可读存储介质
JP2005217746A (ja) 動き予測情報検出装置
US11501416B2 (en) Image processing method and image processing circuit capable of smoothing false contouring without using low-pass filtering
JP7496935B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US8804046B1 (en) Methods and systems for detection of chroma dropouts in video
Bao et al. Color removal method of considering distance in color space
Zhao et al. MATHEMATICAL MODELS FOR QUALITY ANALYSIS OF MOBILE VIDEO.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120830

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5190469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees