JP3577354B2 - Interpolated image data generation apparatus and method - Google Patents
Interpolated image data generation apparatus and method Download PDFInfo
- Publication number
- JP3577354B2 JP3577354B2 JP4258195A JP4258195A JP3577354B2 JP 3577354 B2 JP3577354 B2 JP 3577354B2 JP 4258195 A JP4258195 A JP 4258195A JP 4258195 A JP4258195 A JP 4258195A JP 3577354 B2 JP3577354 B2 JP 3577354B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- frame
- unit area
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Complex Calculations (AREA)
- Television Signal Processing For Recording (AREA)
- Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【0001】
【技術分野】
この発明は,駒落しにより欠落した駒の画像データを,その前後の駒の画像データに基づいて補間処理により作成する装置および方法に関する。
【0002】
【従来技術とその問題点】
動画像は連続する多数の駒の画像によって表わされる。動画像を表わす画像データを効率的に伝達または蓄積するために画像データの圧縮処理が行なわれる。この圧縮処理(広義の圧縮処理)の一環として,連続する駒の中から適数の駒ずつ定期的に(通常は1駒おきに1駒ずつ)間引く,いわゆる駒落しが行なわれることがある。駒落し後に残った駒の画像データが符号化され(データ圧縮),伝送または蓄積される。
【0003】
図13は連続する複数の(ここでは7個の)フレームを示すものである。これらの連続する複数のフレームから,第2フレーム,第4フレームおよび第6フレームの駒落しが実施される。残った第1フレーム,第3フレーム,第5フレームおよび第7フレームが符号化される。
【0004】
連続する複数フレームにより表わされる動画像を再生するときには,第1フレーム,第3フレーム,第5フレームおよび第7フレームが復号化(データ伸張)される。駒落しにより欠落されたフレームはその直前の復号化されたフレームで代用される。すなわち,再生出力として,まず第1フレームの画像データが出力され,次に第2フレームの代わりに再び第1フレームの画像データが出力される。以下同じように,第3フレームの画像データが連続して2回出力され,第5フレームの画像データも連続して2回出力され,最後に第7フレームの画像データが出力される。
【0005】
フレーム画像についての駒落しを説明したが,フィールド画像の駒落しが実施されることもある。
【0006】
このように動画像の再生にさいして,駒落しにより欠落したフィールドまたはフレームは,その直前に駒落しされずに残ったフィールドまたはフレームによって代用されるために動画像の連続性が失なわれ,とくに駒落しされる駒数が多い場合や大きな動きのある動画像の場合には,動画像の動きがぎこちなく,不自然さが生じるという問題点がある。
【0007】
この問題点を解決するために,動画像の再生にさいして,駒落しにより欠落したフレーム画像の画像データを,その前後のフレーム画像の画像データを用いて,単純内挿補間により生成することが提案されている(たとえば,特開平6−237444号公報参照)。図13に示す例で説明すると,第2フレームの各画素の画像データを,第1フレームと第3フレームの対応する画素の画像データを用いて単純補間することにより生成する。同じように,第4フレームの各画素の画像データを,第3フレームと第5フレームの対応する画素の画像データを用いて単純補間することにより生成する。第6フレームの画像データを第5フレームと第7フレームの対応する画素間単純補間により生成する。
【0008】
しかしこの方法は,駒落しされずに残った前後のフレーム画像の画像データを用いて対応する画素間の単純な内挿補間により実施するものであるために,動画の動きを考慮したものではなく,したがって動きを充分に滑らかにするものではなかった。
【0009】
【発明の開示】
この発明は,動きを考慮した補間処理を行うことにより,滑らかな動きを表わすことができる画像データを生成することを目的とする。
【0010】
この発明による補間画像データ生成装置は,それぞれが1駒を構成する第1の画像と第2の画像と第3の画像とがこの順序で連続しており,かつ第2の画像が欠落しており,第1の画像を表わす第1の画像データと第3の画像を表わす第3の画像データとが与えられたときに,これらの間の第2の画像を表わす第2の画像データを,第1の画像データと第3の画像データを用いて生成する装置であり,第1の画像と第3の画像上の対応する位置にそれぞれ設定されたウインドウ内において,第2の画像上の上記ウインドウの中心に相当する位置の中心単位領域を中心として点対称の位置にある単位領域の画像データを,第1の画像と第3の画像上の単位領域の位置を変えながら取出す単位領域画像データ取出手段,上記単位領域画像データ取出手段によって取出された第1の画像の単位領域画像データと第3の画像の単位領域画像データとの相関値をそれぞれ算出する相関値算出手段,および上記相関値算出手段によって算出された相関値のうち最も強い相関を表わす相関値を生成した1対の単位領域画像データに基づいて,上記第2の画像の中心単位領域の画像データを補間演算する補間演算手段を備えているものである。
【0011】
この発明による補間画像データ生成方法は,それぞれが1駒を構成する第1の画像と第2の画像と第3の画像とがこの順序で連続しており,かつ第2の画像が欠落しており,第1の画像を表わす第1の画像データと第3の画像を表わす第3の画像データとが与えられたときに,これらの間の第2の画像を表わす第2の画像データを,第1の画像データと第3の画像データを用いて生成する方法であり,第1の画像と第3の画像上の対応する位置にそれぞれ設定されたウインドウ内において,第2の画像上の上記ウインドウの中心に相当する位置の中心単位領域を中心として点対称の位置にある単位領域の画像データを,第1の画像と第3の画像上の単位領域の位置を変えながら取出し,取出された第1の画像の単位領域画像データと第3の画像の単位領域画像データとの相関値をそれぞれ算出し,算出された相関値のうち最も強い相関を表わす相関値を生成した1対の単位領域画像データに基づいて,上記第2の画像の中心単位領域の画像データを補間演算するものである。
【0012】
第1の画像および第3の画像上において上記ウインドウの位置を,単位領域の水平方向および垂直方向の大きさ分ずつ水平方向および垂直方向に順次シフトしながら,上記ウインドウの各位置で,上記単位領域画像データの取出し,上記相関演算および上記補間演算を繰返すことにより,第2の画像を表わすすべての第2画像データを得ることができる。
【0013】
単位領域の画像データの取出しのやり方には種々の態様がある。
【0014】
その一は単位領域を1画素の大きさに設定することである。この場合,ウインドウは水平方向および垂直方向に奇数画素(1画素を除く)分の大きさである。画像データが取出される単位領域は1画素分ずつ(複数画素分ずつでもよい)シフトされることになろう。
【0015】
その二は単位領域を複数画素を含むブロックとして設定することである。ブロックごとに相関値の演算が行なわれるので,ノイズに対して強いものとなる。
【0016】
この場合に,単位領域(ブロック)の位置をブロック単位で変えてもよいし,1画素または複数画素分ずつ変えてもよい。
【0017】
この発明によると,第2の画像上の上記ウインドウの中心に相当する位置の中心単位領域を中心として点対称の位置にある,第1の画像および第3の画像上のウインドウ内の単位領域の画像データを取出している。単位領域の位置を変えながら第1の画像および第3の画像の単位領域画像データを取出し,それらの相関値を算出している。最も強い相関を表わす相関値を生成した一対の単位領域がほぼ同じ像を表わしているといえる。最も強い相関を表わす相関値を生成した第1の画像と第3の画像における一対の単位領域を結ぶ方向が像の動きの方向であり,これらの単位領域間の距離(時空間における距離)が動きの程度を表わしていることになる。
【0018】
このように,像の動きに最も強く関係する第1の画像と第3の画像の一対の単位領域の画像データに基づいて第2の画像を表わす画像データを補間演算により算出している。第2の画像の画像データは第1の画像と第3の画像との中間の位置に,第1の画像と第3の画像とをつなぐ画像を表わすことになる。
【0019】
したがって,第1の画像と第2の画像と第3の画像とを連続的に再生した場合には,これらの画像中に像の動きがあれば,その動きは滑らかに表現されることになる。
【0020】
このようにして,この発明によると,画像中の像の動きを考慮した補間処理が行なわれるので,再生したときに滑らかな動きを表わす画像データが得られる。
【0021】
【実施例の説明】
図1はこの発明の第1の実施例を示すもので,駒落しにより欠落した画像データを補間によって生成する装置の電気的構成を示すブロック図である。この実施例は画素間補間を行うものである。
【0022】
図13に示すように,偶数フレームのフレーム画像データが駒落しにより欠落され,奇数フレームのフレーム画像データが与えられた場合について説明する。前後の奇数フレーム画像データに基づいて,その間の偶数フレーム画像の画像データが生成される。
【0023】
1フレーム分の画像データは切換スイッチ10を経てフレーム・メモリ11および12のいずれかに入力し,格納される。切換スイッチ10は1フレーム分の画像データが通過するごとに切換えられる。したがって,入力する1フレーム分の画像データはフレーム・メモリ11または12に交互に与えられることになる。
【0024】
たとえば,第1フレーム画像データがフレーム・メモリ11に与えられたとすると,次の第3フレーム画像データがフレーム・メモリ12に与えられる。フレーム・メモリ11および12にそれぞれ第1フレームおよび第3フレーム画像データが格納されている状態で,これらの画像データを用いて第2フレームの画像データが生成される。
【0025】
その後,第5フレーム画像データがフレーム・メモリ11に与えられる。この状態で,フレーム・メモリ12,11に格納されている第3フレーム,第5フレーム画像データを用いて,第4フレームの画像データが生成される。
【0026】
その後,第7フレーム画像データがフレーム・メモリ12に与えられて記憶される。フレーム・メモリ11,12に格納されている第5,第7フレーム画像データを用いて第6フレームの画像データが生成される。
【0027】
補間による画像データの生成が動画像表示のためにリアル・タイムで行なわれるときには,1フレーム分の画像データは1フレーム周期(NTSC方式の場合には1/30秒)の間に生成される。
【0028】
たとえば,第1,第3フレーム画像データがフレーム・メモリ11,12にそれぞれ格納された状態で,1フレーム周期の間に,第1,第3フレーム画像データを用いて第2フレーム画像データが生成される。続く1フレーム周期の間に,フレーム・メモリ11に第5フレーム画像データが読込まれる。さらにその後に続く1フレーム周期の間に,第3,第5フレーム画像データを用いて第4フレーム画像データが生成される。このようにして,フレーム・メモリ11または12へのフレーム画像データの読込みと,補間によるフレーム画像データの生成とがフレーム周期で交互に繰返されることになる。この場合に,切換スイッチ10は2フレーム周期で交互に切換えられる。
【0029】
切換スイッチ10として有接点のものが図示されているが,もちろん実際は半導体無接点スイッチ(ゲート回路等)として実現される。フレーム・メモリ11および12における指定アドレスを切換えることによっても切換スイッチ10による切換えと同等の機能を達成できる(フレーム・メモリ11と12が異なるアドレス空間をもつ場合)。
【0030】
フレーム・メモリ11および12にそれぞれ第1フレーム画像データおよび第3フレーム画像データが格納されており,これらの第1,第3フレーム画像データを用いて第2フレームの画像データを補間により生成する処理について,図2および図3を参照して説明する。
【0031】
図2および図3は,第1フレーム画像データおよび第3フレーム画像データからウインドウを通してそれぞれ抽出された3画素×3画素の画素群を示すものである。また,これらの画素群の間に,補間によって生成されるべき第2フレームの画像データの対応する画素も図示されている。図2は画素間の対称関係を明確にするために斜視図的に描かれ,かつ各画素が点(黒丸)で表わされている。図3は画素配列を分りやすくするために平面的に描かれている。ウインドウの中心にある画素に対応する第2フレームの画素についての画像データが生成される。
【0032】
まず,補間により画像データを生成すべき第2フレームの画素(2,5)を中心として,互いに点対称の位置関係にある第1フレームの画素と第3フレームの画素との間の相関値を算出する。すなわち,第1フレームの画素(1,1)と第3フレームの画素(3,9)との相関値s1 ,画素(1,2)と画素(3,8)との相関値s2 ,画素(1,3)と画素(3,7)との相関値s3 ,画素(1,4)と画素(3,6)との相関値s4 ,画素(1,5)と画素(3,5)との相関値s5 ,画素(1,6)と画素(3,4)との相関値s6 ,画素(1,7)と画素(3,3)との相関値s7 ,画素(1,8)と画素(3,2)との相関値s8 ,および画素(1,9)と画素(3,1)との相関値s9 が算出される。画像データを生成すべき画素(2,5)に対応する画素(1,5)と画素(3,5)も,画素(2,5)を中心として点対称関係にあるとする。
【0033】
相関値としては,たとえば2つの画素の画像データの差の絶対値,差の二乗の値等が用いられる。
【0034】
次に,これらの相関値si (i=1〜9)の中で最も小さい値(最も相関が強いもの)を見付ける。
【0035】
最小の相関値を生じさせる2つの画素(第1フレームと第3フレームにおける)の画像データを用いた補間演算が行なわれ,この補間演算結果が第2フレームの画素(2,5)の画像データとなる。補間演算は公知の演算でよく,たとえば2つの画素の画像データの平均値を算出する方法が用いられる。
【0036】
画像データによって表わされる対象物にある方向への動きがあり,第1フレームから第3フレームまでの時間(2フレーム周期)の間に2画素分動いたとする。たとえば,この動きが左下から右上に向う斜めの方向であるとすると,第1フレームの画素(1,7)によって表わされる像は第3フレームでは画素(3,3)の位置に至る。画素(1,7)の画像データと画素(3,3)の画像データはほぼ等しい値を示すことになるので,相関値s7 は零または零に近い値となる。
【0037】
第2フレームの画像データを生成すべき画素を中心として,互いに点対称の位置関係にある第1フレームの画素と第3フレームの画素との相関値の最小値を見付け出す(相関の強い画素の対を見付け出す)ということは,上述のように画像データによって表わされる像の動きの方向を検出することを意味する。
【0038】
この検出した動きの方向にそって補間演算が行なわれ,第2フレームの画素(2,5)の画像データが算出される。したがって,画素(2,5)の算出された画像データは,第1フレームの時点と第3フレームの時点との丁度中間の時点において,その画素(2,5)の位置まで動いてきた像を表わしていることになる。
【0039】
したがって,上述の処理によって生成された第2フレームの画像データを含めて,第1フレームから第3フレームまでの画像データによって表わされる対象物像をフレーム周期で連続的に再生したとすると,対象物の動きが滑らかに表現されることになる。
【0040】
補間処理のために画像データを切出すべきウインドウの大きさは対象物の動きの程度によって定めればよい。ウインドウの大きさは3画素×3画素に限らず,5画素×5画素,7画素×7画素,9画素×9画素のように任意に決定できる。ウインドウを大きくすれば大きくするほど大きな動きに対処できる。もちろん小さな動きにも対処できることになる。
【0041】
ウインドウは正方形に限られることはない。横方向の動きが大きい場合には3画素(縦方向)×5画素(横方向),3画素×7画素,5画素×7画素,5画素×9画素のようにウインドウを横方向に長い長方形に設定すればよい。縦方向の動きを重要視する場合には5画素×3画素,7画素×3画素,7画素×5画素,9画素×5画素のように縦方向に長いウインドウを設定すればよい。
【0042】
個々の画素の画像データにはノイズの影響が顕著に現われやすく,相関値もばらつきやすい。そこで,見付け出された最小の相関値の妥当性の判定を追加することが好ましい。たとえば,所定のしきい値を設定しておき,最小の相関値がこのしきい値よりも小さい場合にはその相関値は妥当なものとする。このしきい値として,ウインドウの中心の画素(1,5)の画像データと画素(3,5)の画像データとの平均値を採用することもできる。上述した相関値演算および最小の相関値の検出をソフトウェアで実行する場合にもしきい値を用いることができる。たとえば,一定の順序で画素対の相関値を算出し,相関値を算出するごとにしきい値と比較し,しきい値よりも小さい相関値が見付かった時点で処理を終了する。しきい値よりも小さい見付かった相関値を最小のものとみなす。
【0043】
多くの種類の画像の中には動きのない,または殆んどない画像も少なくない。そのような画像についてまで常に上述の処理を行う必要は必ずしもない。そこで,まず動きの程度を算出し,動きの程度が所定のしきい値を超えていた場合にのみ上述の処理を行ない,それ以外の場合には,画素(2,5)の画像データをウインドウの中心の画素(1,5)と画素(3,5)の画像データに基づいて算出するようにしてもよい。動きの程度は,たとえばウインドウの中心の画素(1,5)の画像データと画素(3,5)の画像データとの相関値によって表わせばよい。
【0044】
図1に戻って,ウインドウ回路13,14はそれぞれフレーム・メモリ11,12に格納されている画像データに上述したウインドウを設定するものである。この回路13,14によってそれぞれ設定された各ウインドウに含まれる画素の画像データは相関演算回路15に与えられ,ここで相互に点対称の位置にある画素間の相関値が算出される。補間参照画素選択回路16において,算出された相関値のうちの最小値が検出され,この最小値を生じさせる一対の画素が選択される。選択された一対の画素の画像データがウインドウ回路13,14から出力され,これらの画像データに基づいて,補間すべき画素の画像データが補間画素値演算回路17において算出され,出力される。
【0045】
ウインドウ回路13,14によって設定されるウインドウは一画素分ずつ水平および垂直方向に走査される。各走査位置において,補間画像データが算出されることになる。したがって,第2フレームのすべての画素(周辺部の画素については充分な動き検出に基づく補間は必ずしも行なわれない。)について画像データが生成されることになる。
【0046】
図1の装置がハードウェアで実現される場合には,ウインドウ回路13,14は,たとえば,それぞれ複数個(たとえば3個)の縦続接続されたライン・メモリから構成されよう。相関演算回路15は複数組(たとえば9組)の減算回路と絶対値回路,または減算回路と二乗回路により構成されよう。ウインドウ回路13,14の複数のライン・メモリのウインドウ内のセル(たとえば9×2=18個)のうち,上述した点対称の位置関係にある一対のセルが一つの減算回路に接続される。補間参照画素選択回路16はMIN回路と複数(たとえば9個)の比較回路を含む。MIN回路は複数の絶対値回路または二乗回路の出力の最小値を検出する。複数の上記比較回路にこの最小値に微小値を加えたしきい値が与えられる。各比較回路には絶対値回路または二乗回路の出力がそれぞれ与えられる。しきい値よりも小さい入力が与えられた比較回路から出力が発生する。この出力を発生した比較回路に対応する画素対が最小の補間値を生成したものである。補間画素値演算回路17はウインドウ回路13,14におけるウインドウ内のセル(9×2=18個)の出力側に接続されるゲート回路を含む。このゲート回路は一対ずつ対応する比較回路により制御される。上記の出力を発生した比較回路によって制御される2つのゲート回路を通って出力される画像データが上記の最小値を生成した画素対の画像データである。演算回路17はさらに平均値回路を含み,ゲート回路から出力される画像データがこの平均値回路に与えられる。平均値回路の出力が補間画像データとなる。
【0047】
フレーム・メモリ11,12から画像データが水平走査の順で順次読出され,ウインドウ回路13,14にそれぞれ与えられる。各回路13,14,15,16,17は画素クロックに同期して動作し,画素クロックごとに補間画像データが順次出力されることになる。
【0048】
図1の装置の機能の一部または全部をソフトウェアによって実現することもできる。この場合には,上述したウインドウ設定,画素間相関値の演算,最小の相関値の検出,最小の相関値を生じさせた画素の画像データを用いた補間値の演算のいずれか一つ,複数,または全部がプログラムされたコンピュータにより実現される。
【0049】
図4は第2の実施例を示すものである。この実施例ではブロック間処理が行なわれる。
【0050】
各画素の画像データは上述のようにノイズによって影響されやすい。第2実施例はノイズ等の影響を極力少なくするために,ブロックを単位として動きを検出するものである。
【0051】
第1実施例と同じように奇数フレームの画像データが切換スイッチ10を経てフレーム・メモリ11および12に交互に与えられ,かつ格納される。これらのフレーム・メモリ11,12にそれぞれ格納されたフレーム画像データを切出すためのウインドウがウインドウ回路13A,14Aにそれぞれ設定されている。
【0052】
図5はウインドウ回路13Aに設定されたウインドウによって切出された第1フレーム画像の画素,およびウインドウ回路14Aに設定されたウインドウによって切出された第2フレーム画像の画素を示すもので,第1実施例の図3に対応している。図5にはまた,第1フレーム画像データと第3フレーム画像データとを用いて画像データが補間により生成される第2フレームの画素も示されている。
【0053】
1ブロックはこの実施例では8画素×8画素の大きさである。ウインドウは3ブロック×3ブロックの画素を含む大きさに設定されている。第1フレームのブロックに[1,1],[1,2],…,[1,9]の符号を付し,第3フレームのブロックには[3,1],[3,2],…,[3,9]の符号を付してある。第1フレームおよび第3フレームの各ウインドウに相当する第2フレームのウインドウを仮想し,この第2フレームのウインドウの中心のブロックを[2,5]とする。このブロック[2,5]内の画素の画像データが補間により生成される。
【0054】
1ブロックの大きさを,2画素×2画素,3画素×3画素,4画素×4画素,3画素×5画素,5画素×4画素のように任意に設定できる。ウインドウ内に含まれるブロックも4ブロック×4ブロック,3ブロック×4ブロック,5ブロック×3ブロックのように任意に設定できる。
【0055】
第2フレームのブロック[2,5]を中心として,互いに点対称の関係にある第1フレームのブロックと第3フレームのブロックとの間の相関値が相関演算回路15Aにおいて算出される。すなわち,第1フレームのブロック[1,1]と第3フレームのブロック[3,9]との相関値S1 ,ブロック[1,2]とブロック[3,8]との相関値S2 ,ブロック[1,3]とブロック[3,7]との相関値S3 ,ブロック[1,4]とブロック[3,6]との相関値S4 ,ブロック[1,5]とブロック[3,5]との相関値S5 ,ブロック[1,6]とブロック[3,4]との相関値S6 ,ブロック[1,7]とブロック[3,3]との相関値S7 ,ブロック[1,8]とブロック[3,2]との相関値S8 ,およびブロック[1,9]とブロック[3,1]との相関値S9 が算出される。
【0056】
これらの相関値Si (i=1〜9)の中で最も小さい値が補間参照ブロック選択回路16Aにおいて検出される。最小の相関値を生じされる一対のブロックが最も相関の強いものである。
【0057】
ブロック間の相関値Si はたとえば次のようにして算出される。ブロック[1,1]とブロック[3,9]との相関値S1 を例にとって説明する。
【0058】
これらのブロック[1,1]および[3,9]にはそれぞれ8×8=64画素が含まれている。ブロック[1,1]と[3,9]において対応する画素間の相関値sj が算出される。すなわち,ブロック[1,1]内の画素(1,j)とブロック[3,9]内の画素(3,j)との相関値がsj (j=1〜64)である。画素間の相関値は上述のように,2つの画素の画素データの差の絶対値,差の二乗値等を求めることにより得られる。次に,これらの画素間の相関値sj が1ブロック内で加算される。1ブロックにおける相関値sj の総和がブロック間の相関値Sj となる。総和に代えて平均値でもよい。
【0059】
相関値が最も小さい一対のブロック(第1フレームにおける1つのブロックと第3フレームにおける1つのブロック)が選択されると,これらの選択されたブロックの画像データを用いて第2フレームにおけるウインドウの中央に相当する位置のブロック[2,5]の画像データが補間演算により生成される。
【0060】
たとえば第1フレームのブロック[1,1]および第3フレームのブロック[3,9]が選択されたとすると,これらのブロックに含まれる画素の画像データを用いて第2フレームのブロック[2,5]の各画素の画像データが次のように算出される。ブロック[2,5]における画素(2,j)の画像データは,ブロック[1,1]の画素(1,j)の画像データとブロック[3,9]の画素(3,j)の画像データを用いた補間演算(たとえば平均値演算)により得られる。この補間演算は補間画素値演算回路17Aによって行なわれる。この回路17Aからは1ブロック(8×8画素)分の画像データが出力される。
【0061】
第1フレームおよび第3フレームにおけるウインドウがブロックの一辺の長さ(画素数)を単位として順次,水平方向および垂直方向に走査され,各位置において1ブロックの画素について第2フレームの画像データが得られることになる。
【0062】
図4に示す回路はハードウェアで実現することもできるし,その機能の一部または全部をソフトウェアで達成することもできる。いずれの場合にもリアルタイム処理(たとえばフレーム当り1/30秒の処理時間)が可能である。ハードウェア回路は図1に関連して説明した回路を拡張すればよい。ウインドウ回路13A,14Aは3ブロック(たとえば8×3=24)分の数のライン・メモリから構成されよう。相関演算回路15Aは1ブロックに含まれる画素数(たとえば8×8=64)に相当する数の減算回路を含み,これらの減算回路の後段にそれぞれ絶対値回路または二乗回路が接続されよう。また,これらの絶対値回路または二乗回路の出力の総和を演算する加算回路が設けられよう。補間参照ブロック選択回路は最小値検出回路と,ブロック数と同数の比較回路を含むことになろう。1画素分ずつ補間画像データを算出する場合には,補間画素値演算回路17Aは1つの平均値回路を含めばよい。1画素分の算出された画像データが順次出力されることになる。
【0063】
図6は動き検出の他のやり方を示している。このやり方においても図4に示す回路が適用される。
【0064】
第1フレームに設定されたウインドウの左上のブロック[1,1]内の画像データと第3フレームに設定されたウインドウの右下のブロック[3,256 ]内の画像データとの相関値が算出される。次に,第1フレームのウインドウ内においてブロック[1,1]から右に1画素分シフトした位置にブロック[1,2]が設定される。同じように第3フレームのウインドウ内においてブロック[3,256 ]から左に1画素分シフトした位置にブロック[3,255 ]が設定される。これらのブロック[1,2]内の画素データとブロック[3,255 ]内の画像データとの相関値が算出される。
【0065】
このように,第1フレームにおいてはブロックを1画素分ずつ水平方向に右にシフトしながら,第3フレームにおいてはブロックを1画素分ずつ水平方向に左にシフトしながら,各位置において,第1フレームのブロック内の画像データと第3フレーム内の画像データとの相関値が算出される。
【0066】
第1フレームにおいてブロックが右端に至り,第3フレームにおいてブロックが左端に至ると,第1フレームにおいてはブロック[1,1]の位置から1画素分下方にシフトした位置にブロックが設定され,第3フレームにおいてはブロック[3,256 ]の位置から1画素分上方にシフトした位置にブロックが設定され,これらのブロック内の画像データの相関値が算出される。第1フレームにおいてブロックが水平方向に右に,第3フレームにおいてはブロックが水平方向に左にそれぞれ1画素分ずつシフトされながら,各位置で相関値が算出される。
【0067】
ブロックを第1フレームにおいては,水平方向には左から右に,垂直方向には上から下に,第3フレームにおいては,水平方向には右から左に,垂直方向には下から上に1画素分ずつシフトしながら,すべての位置において,第1フレームのブロックの画像データと第3フレームのブロックの画像データとの相関値が算出される。第1フレームのブロックと第3フレームのブロックは,第2フレームにおけるウインドウの中央の位置に相当する位置にあるブロック[2,128 ]を中心として,常に点対称の関係にある。
【0068】
ウインドウが正方形でその一辺が24画素,ブロックが正方形でその一辺が8画素の場合には,256 個の相関値が得られる。これらの相関値のうち最小のものが選択される。選択されたブロックの画像データを用いて,第2フレームのブロック[2,128 ]に含まれる各画素の画像データが補間演算されること,およびウインドウを水平方向および垂直方向にブロックの一辺の画素分ずつシフトしながら上述の処理が行なわれることは,第2実施例の場合と同じである。
【0069】
ブロック間の相関値を演算する場合に,上述のようにブロックを1画素分ずつシフトするのではなくて,数画素分ずつシフトするようにしてもよい。このことは画素間の相関値を演算する第1実施例においてもあてはまる。
【0070】
上記実施例においてはフレーム間補間が行なわれているが,フィールド画像を単位として補間処理を行うこともできる。
【0071】
欠落したフレーム(またはフィールド)の前後にあるフレーム(またはフィールド)において,画像の位置がずれている場合,たとえば上述した第1フレーム内の画像の位置と第3フレーム内の画像の位置とがずれている場合(画像の動きによるものではなく,たとえばカメラを動かしたために2つのフレームにおいて画像の位置がずれたような場合),このずれ量があらかじめ分っていれば,このずれをあらかじめいずれかのフレームにおいて補正(ずれ量に相当する分だけ画像データをシフトする)したのちに,上述した処理によって補間画像を生成するようにしてもよい。このずれ補正はウインドウの設定位置をいずれかのフレームでシフトすることによっても達成できる。もちろん,ずれ補正をしなくてもよい。ずれ補正をして補間画像を生成したのちずれを元に戻してもよい。
【0072】
2つのフレーム(またはフィールド)の間の時間における画像の動きの方向と量があらかじめ分っている場合には,相関値を算出すべき画素対またはブロック対を動きの方向と量に応じて選択し,相関値演算の回数を減少させることができる。動きの大きさがウインドウ内には収まらないほどに大きい場合には,いずれか一方のフレーム(フィールド)におけるウインドウの位置を動きの方向と大きさに応じてあらかじめシフトさせるか,または少なくとも一方の画像を動きの方向と大きさに応じてシフトさせておいた上で,上述した補間画像データ生成処理を行うようにすることもできる。
【0073】
上述した補間画像データ生成処理は,輝度データのみ,輝度データと色差データの両方,R,G,Bの色画像データの全部または一部(たとえばB色画像データのみ)等のいかなる画像データにも適用できる。この場合,輝度データに基づいて得られた動きの程度と色差データに基づいて得られた動きの程度とが異なる場合には,いずれか一方の動き検出結果を用いてもよいし,重み付け平均値を用いてもよい。
【0074】
従来技術の項で説明したように,連続する多数の駒の画像によって表わされる動画像を効率的に伝送または蓄積するために,連続する多数の駒の中から,たとえば一つおきに,駒落しされる。駒落しされたのちに残った画像の画像データが,適当な画像圧縮アルゴリズムにしたがってデータ圧縮されて伝送または蓄積される。
【0075】
この発明による補間画像データ生成装置および方法は,このような駒落しにより欠落した駒の画像を復元するときに有用である。圧縮画像データは伸張処理ののち,補間画像データ生成装置に与えられる。この装置において,駒落しにより欠落した駒の画像が生成される。この結果,連続する駒の画像によって表わされる元の動画像が再生されることになる。
【0076】
この発明による補間画像データ生成装置は,次に詳述するようなディジタル・ビデオ・テープ・レコーダまたはディジタル画像データ再生装置においても好適に利用される。
【0077】
ディジタル・ビデオ・テープ・レコーダの構成および動作の説明に先だち,ディジタル・ビデオ・テープ・レコーダによる磁気テープへの記録方式に関する既存の標準的な業界規格について説明しておく。
【0078】
磁気テープの記録フォーマットが図10(A) および(B) に示されている。図10(A) は磁気テープ28のトラックTrを示すもので,磁気テープ28の長手方向に対して斜め方向に一定の角度で多数のトラックTrが形成される。これらの多数のトラックTrのうち連続する10個のトラックを用いて1フレーム分のディジタル画像データが記録される。
【0079】
図10(B) にトラック・フォーマットが示されている。1つのトラックTrには,サブコード記録領域,ビデオ記録領域,補助記録領域,オーディオ記録領域およびトラック情報記録領域が含まれている。サブコード記録領域には高速検索のためのタイムコードや絶対トラック番号などの情報が記録される。ビデオ記録領域には被写体像を表わすディジタル画像データが記録される。オーディオ記録領域には音を表わすデータが記録される。トラック情報記録領域には磁気ヘッドがトラックTrの中心をトレースするための,トラックTrの基準となる情報が記録される。補助記録領域は飛び飛びに設けられ,この補助記録領域には付加情報が記録される。各領域の間に設けられるギャップは図示が省略されている。
【0080】
ディジタル・ビデオ・テープ・レコーダに用いられるCCDは一般的には水平方向720 画素,垂直方向480 画素の約35万画素の画素数をもつものが用いられる。このようなCCDを用いて得られた1フレーム分のディジタル画像データが,磁気テープ28の10トラックに記録される。これが既存の規格である。
【0081】
磁気テープ28に記録される画像データによって表わされる画像の画質を向上させるためには,画素数の多いCCDを用いれば良い。しかしながら,ディジタル・ビデオ・テープ・レコーダにおいては35万画素の画素数をもつCCDを用いて被写体を撮像して得られたディジタル画像データを,10個のトラックに記録するようにその規格が定められているので,35万画素の画素数よりも画素数の多いCCDを用いて被写体を撮像して得られたディジタル画像データを磁気テープ28に記録すると,この規格から外れてしまう。ここで説明するディジタル・ビデオ・テープ・レコーダは,ディジタル・ビデオ・テープ・レコーダに一般的に用いられる35万画素の画素数よりも多い画素数をもつCCDを用いて被写体を撮像し,かつディジタル・ビデオ・テープ・レコーダの従来からの記録規格に合致した画像データの記録を可能とするものである。
【0082】
図7は,ディジタル画像データの記録および再生が可能なディジタル・ビデオ・テープ・レコーダ(DVTR)の電気的構成を示すブロック図である。ディジタル・ビデオ・テープ・レコーダの全体の動作はシステム・コントローラ30によって統括される(制御線は図示略)。
【0083】
このディジタル・ビデオ・テープ・レコーダで用いられるCCD31は,図8に示されているように水平方向1440画素,垂直方向480 画素の約70万画素の画素数をもつものであり,35万画素CCDの2倍の量の画像データが得られる。このような70万画素CCD31から得られる1フレーム分の画像データのデータ量は,35万画素CCDの2フレーム分の画像データ,すなわち4フィールド分の画像データのデータ量に相当する。
【0084】
このディジタル・ビデオ・テープ・レコーダではCCD31から得られる1駒分の画像データを4フィールド分の画像データに分け,各2フィールド分をそれぞれ10トラックずつを用いて磁気テープ28に記録することにより,高画質撮影を達成しつつ,ディジタル・ビデオ・テープ・レコーダの従来からの記録規格に合致した画像データの記録を可能とする。
【0085】
記録モードにおいて,約70万画素の画素数をもつCCD31によって1/15秒の一定周期で被写体が連続的に撮影される。撮影のためのシャッタ速度が適当(たとえば1/60秒,または必要に応じてこれよりも短い時間)になるように,いわゆる電子シャッタ制御により定められる。CCD31から1/15秒ごとに被写体像を表わす映像信号が出力されCDS(correlate double samplimg )回路32に与えられる。映像信号はCDS回路32において増幅され,アナログ/ディジタル変換回路33においてディジタル画像データに変換される。ディジタル画像データはガンマ補正回路34に与えられ,ガンマ補正される。ガンマ補正後のディジタル画像データがデータ圧縮回路35を介して(このときは,まだデータ圧縮されない)フレーム・メモリ25に与えられ一旦記憶される。フレーム・メモリ25は1駒70万画素分のカラー画像データを記憶できる容量をもつ。
【0086】
フレーム・メモリ25に記憶された1駒分の画像データはフレーム・メモリ25から読出される過程で,4フィールド分の画像データに分けられる。この分け方は次の通りである。
【0087】
図9はCCD31における画素配列およびこれらの画素の画像データが4フィールドに分割される様子を模式的に表わすものである。水平方向および垂直方向とも,図示の便宜上,画素数はきわめて少なく描かれている。また,配列方式(モザイク,ストライプ,デルタ等)はここでは問わない。図9の上部に示すように,CCD31から出力されかつA/D変換された1駒分の画像データはCCD31の水平方向および垂直方向のすべての画素(水平方向720 画素,垂直方向480 画素)についての画像データを含んでいる。フレーム・メモリ25には,CCD31のすべての画素に対応する画像データが記憶される。画像データは白黒画像を表わす画像データ(輝度データ)およびカラー画像を表わす画像データ(R,G,Bの色データ,または輝度データと色差データとの組合せ)を含む概念である。特にカラー画像データの場合に,色データまたは色差データの配列はCCDのカラー・フィルタ配列,リサンプリングの方式,その他の処理方式によって異なるであろう。たとえば,一画素をR,G,Bの三原色データで表わす場合もあるし,一または二原色データで表わす場合もある。
【0088】
これらの画像データのフレーム・メモリ25からの読出しは第1フィールドから第4フィールドまで4フィールドにわたって行なわれる(図9の下部参照)。
【0089】
第1回目に読出される第1フィールドの画像データおよび第3回目に読出される第3フィールドの画像データは奇数行の画素の画像データである。これらの奇数行の画像データは黒三角印と白三角印によって表現されている。黒三角印が奇数列,白三角印が偶数列の画像データである。第1フィールドの画像データは,奇数列と偶数列の画像データが垂直方向に交互に繰返すことにより構成される。第3フィールドの画像データは,偶数列の画像データと奇数列の画像データとが垂直方向に交互に繰返すことにより構成され,これらは第1フィールドに含まれないものである。
【0090】
第2回目に読出される第2フィールドの画像データおよび第4回目に読出される第4フィールドの画像データは偶数行の画素の画像データである。これらの偶数行の画像データは白丸印と黒丸印によって表現されている。白丸印が奇数列,黒丸印が偶数列の画像データである。第2フィールドの画像データは,奇数列と偶数列の画像データが垂直方向に交互に繰返すことにより構成される。第4フィールドの画像データは,偶数列の画像データと奇数列の画像データとが垂直方向に交互に繰返すことにより構成され,これらは第2フィールドに含まれないものである。
【0091】
このようにして,すべての画素の画像データが1回のみ,いずれかのフィールドにおいて読出されることになる。しかも,各フィールドを構成する画像データの画素は,垂直方向および水平方向に飛び飛びになっていて,どのフィールドの画像データによっても被写体像の全体を表現することができる。第1フィールドと第2フィールドによって1フレームが構成される。第3フィールドと第4フィールドによって1フレームが構成される。これらの各フレームはインタレース走査に適している。したがって,後述する動画の再生において,従来からの通常インタレース走査による再生と表示が可能となる。
【0092】
これらの4フィールドにわたる画像データの読出しはフレーム・メモリ25のアドレッシングの制御により容易に表現することができる。たとえば,第1フィールドの読出しにおいては,垂直アドレスとして奇数行を指定する。水平アドレスとしては,(4m+1)行のときは奇数列を,(4m+3)行のときは偶数列を指定するアドレス信号を発生させればよい(m=0,1,2,…)。1フィールド分の画像データの読出しは1/60秒で行なえばよい。このようなアドレス信号発生はシステム・コントローラ30に行なわせてもよいしカウンタ,分周回路,論理回路等で構成することもできる。
【0093】
フレーム・メモリ25から読出された画像データは,第1フィールドの画像データから順次データ圧縮回路35に与えられる。データ圧縮回路35においてDCT(Discrete Cosine Transform )処理,量子化処理などが行なわれることにより,画像データにデータ圧縮が施される。データ圧縮処理回路35において圧縮された画像データは誤り訂正符号付加回路36を介して(単に通過して)フレーム・メモリ26に与えられ一旦記憶される。
【0094】
フレーム・メモリ26に記憶された4フィールド分の画像データは順次誤り訂正符号付加回路36に与えられ,誤り訂正符号が付加される。誤り訂正符号が付加された画像データは再びフレーム・メモリ26に与えられ記憶される。画像データはフレーム・メモリ26から再び読出され誤り訂正符号付加回路36に与えられる。誤り訂正符号付加回路36にはシステム・コントローラ30から記録領域データも与えられている。この記録領域データは,1フレームを構成する4つのフィールド・データを識別するもので,4つのフィールド画像データのそれぞれに付加される(補助領域)。
【0095】
誤り訂正符号付加回路36から出力される画像データは記録符号化回路37に与えられ,符号化(たとえばNRZI符号化)されて記録再生増幅回路27に与えられる。記録再生増幅回路27において増幅された画像データは磁気ヘッド38に与えられる。これにより磁気ヘッド38によって磁気テープ28の各トラックのうちビデオ記録領域A2 に画像データが記録され,補助記録領域A3 に記録領域データが記録される。補助記録領域A3 には,1駒分の画像を4つのフィールドに分けたときに,これらの4つのフィールドを表わす画像データが磁気テープ28のどこのトラックに記録されたかどうかを表わす記録領域データが記録される。オーディオ・データやトラック情報の記録ももちろん行なわれる。
【0096】
70万画素のCCD31を用いて得られた1駒分の画像データ,すなわち4フィールド分の画像データのうち最初の2フィールド分の画像データは,一般的に用いられる35万画素CCD31を用いて被写体を撮影して得られた1フレーム分の画像データのデータ量に相当するから,連続する10個のトラックのビデオ記録領域A2 に記録される。4フィールド分の画像データのうち残りの2フィールド分の画像データは,最初の2フィールド分の画像データが既に記録された画像データの次の10個のトラックのビデオ記録領域A2 に記録される。70万画素CCD31を用いて得られた1駒分の画像データは,一般的に用いられる35万画素CCD31を用いて得られた1フレーム分の画像データの2倍のデータ量をもつことから,20トラックを用いて磁気テープ28に記録されることとなる。4フィールド分の記録動作は4フィールド分の撮影動作と同じように1/15秒の周期で行なわれる。
【0097】
図7に示すディジタル・ビデオ・テープ・レコーダは,磁気テープ28に記録されたディジタル画像データの再生も可能である。再生モードには好ましくはムービ再生モードとスチル再生モードとがある。
【0098】
ディジタル画像データの再生モードにおいて,磁気テープ28に記録された画像データ,記録領域データ,その他のデータが磁気ヘッド41によって読取られ記録再生増幅回路27に与えられる。記録再生増幅回路27において増幅されたデータは復調回路42に与えられる。復調回路42においてデータ復調が行なわれ,誤り訂正回路43を介してフレーム・メモリ26に与えられ一旦記憶される。フレーム・メモリ26に記憶されたデータは読み出され誤り訂正回路43に与えられる。復調回路42において復調されたデータにデータ誤りがあると,誤り訂正回路43において誤り訂正処理が行なわれる。誤り訂正処理が行なわれたデータのうち被写体像を表わすディジタル画像データはデータ伸張回路44を介してフレーム・メモリ25に与えられ,記録領域データはシステム・コントローラ30に与えられる。この再生動作も4フィールド分の画像データについて1/15秒の周期で行なわれる。
【0099】
ムービ再生モードにおいては,フレーム・メモリ25に記憶された画像データはデータ伸張回路44に与えられ,圧縮された画像データのデータ伸張処理が行なわれる。
【0100】
上述したように1/15秒間隔で撮影することにより2フレーム分に相当するデータ量の画像データ(第1フィールドから第4フィールド)が得られ,これらの画像データが磁気テープ28の合計20トラックに記録される。これらの4フィールド分の画像データのうちデータ伸張回路44でデータ伸張された2フィールド分(たとえば第1フィールドと第2フィールドの画像データが1/15秒の間隔でこの発明による補間画像データ生成装置45に与えられるとともに,遅延回路49に与えられる。残りの2フィールド分の画像データはムービ再生モードでは使用されない。
【0101】
補間画像データ生成装置45には1/15秒間隔(2フレーム周期)で奇数フレーム(図13参照)の画像データが入力することになるから,時間的に隣接するこれらの2フレーム分の画像データに基づいて,時間的にそれらの間に位置する偶数フレーム(図13参照)の画像データが生成される。
【0102】
遅延回路49は1フレーム分の画像データを2フレーム周期遅延するものである。したがって,磁気テープ28から読出された2フレーム分の画像データのうち1フレーム分の画像データ(奇数フレーム)が遅延回路49から,補間処理により生成された1フレーム分の画像データ(偶数フレーム)が補間画像データ生成装置45から,1フレーム周期ごとに交互にモニタ表示装置50に与えられる。
【0103】
モニタ表示装置25に与えられる各フレームの画像データに基づいてインタレース走査が行なわれ,モニタ表示装置25上において動画が再生される。補間画像データ生成装置45における上述した動きを考慮した補間処理により,表示される動画における像の動きは滑らかとなる。モニタ表示装置50をディジタル・ビデオ・テープ・レコーダに設けてもよい。
【0104】
図7に示すディジタル・ビデオ・テープ・レコーダは動画再生に加えて静止画再生も可能である。スチル再生モードにおいては,データ伸張回路44においてデータ伸張が施された画像データは画像合成回路46に与えられる。画像合成回路46において,システム・コントローラ30に与えられた記録領域データにもとづいて一つの駒を構成する4つのフィールド・データが識別され,図11に示すように,識別された4つのフィルード・データから1駒の画像データが生成される。
【0105】
画像合成回路46において生成された1駒の画像データは垂直補間回路47に与えられる。
【0106】
図7に示すディジタル・ビデオ・テープ・レコーダに用いられるCCD11は水平方向が1440画素あり画素数が多いが,垂直方向は480 画素であり,一般的な画素数(35万画素)をもつCCDの垂直方向の画素数とあまり変わらない。垂直方向の解像度を高めるために,垂直方向に画素のデータを補間する処理を行なっている。この補間処理を行なうのが垂直補間回路47である。
【0107】
垂直補間回路47において垂直補間処理が行なわれた画像データはプリンタ48に与えられ,高画質の静止画がプリントされる。垂直補間処理回路47はプリンタ48に設けてもよい。
【0108】
もっとも,垂直補間処理することなく画像データをプリンタ48に与えてもよい。画像データ(垂直補間されたもの,またはされないもの)をモニタ表示装置50に与え,高画質の静止画を表示するしようにしてもよい。
【0109】
垂直補間回路47における垂直補間処理は次の様にして行なわれる。
【0110】
図12は,画素配列の一部を示しており,中央の画素Sm,n が補間によりその画像データを生成すべき画素である。この補間すべき画素の画像データSm,n (以下,画像データも画素と同じ記号を用いる)を算出する場合,補間すべき画素Sm,n の上下に隣接する画素Dm,n の画像データとDm,n+1 の画像データとの差Δ1 =|Dm,n+1 −Dm,n |,斜め上下に隣接する画素Dm−1,n とDm+1,n+1 との画像データの差Δ2 =|Dm+1,n −Dm−1,n+1 |,ならびにDm+1,n とDm−1,n+1 との差Δ3 =|Dm−1,n+1 −Dm+1,n |がそれぞれ算出される。
【0111】
つづいて,これら算出された画像データの差Δ1 ,Δ2 およびΔ3 のうち最も小さいものが検出される。この最も小さい差を算出するのに用いられた2つの画像データの相加平均が算出される。この相加平均により得られたデータが補間すべき画素Sm,n の画像データとなる。たとえばΔ1 〜Δ3 のうちΔ1 が最も小さい場合には補間すべき画素の画像データはSm,n =(Dm,n+1 +Dm,n )/2となる。Δ2 が最も小さい場合にはSm,n =(Dm+1,n +Dm−1,n+1 )/2となり,Δ3 が最も小さい場合にはSm,n =(Dm−1,n+1 +Dm+1,n )/2となる。
【0112】
これにより上下または斜め方向に相関が強くなるように垂直補間が行なわれるので,得られる静止画のエッジが滑らかになる。
【0113】
このような垂直補間処理がすべての列間において行なわれ,実質的に垂直方向に480 画素の倍の画素をもつ画像データが得られる(図11の最下部の図を参照)。
【0114】
記録モードと再生モードとを切換える,または選択するスイッチ(またはキー等)が設けられ,このスイッチにより上述した記録モードと再生モードとの切換えが行なわれる。また,再生モードのうち,ムービ再生モードとスチル再生モードとを切換える,または選択するスイッチが設けられ,このスイッチにより上述したムービ再生とスチル再生の切換えが行なわれる。これらのスイッチからのモード選択信号はシステム・コントローラ10に与えられ,システム・コントローラ30が上述した各種モードにおける処理が実行されるように各回路を制御する。
【図面の簡単な説明】
【図1】第1実施例における補間画像データ生成装置を示すブロック図である。
【図2】補間のための画素の対応関係を斜視図的に示すものである。
【図3】補間のための画素の対応関係を平面的に示すものである。
【図4】第2実施例における補間画像データ生成装置を示すブロック図である。
【図5】補間のための画素の対応関係を平面的に示すものである。
【図6】ブロックのシフトの様子を示すものである。
【図7】ディジタル・ビデオ・テープ・レコーダの電気的構成を示すブロック図である。
【図8】CCDの構成を示している。
【図9】1駒分の画像を4つのフィールド画像に分ける手順を示している。
【図10】(A) は磁気テープの記録フォーマットを示しており,(B) はトラックのフォーマットを示している。
【図11】4つのフィールド画像から1駒画像および垂直補間画像を構成する手順を示している。
【図12】画素配列の一例を示し,垂直補間を説明するための図である。
【図13】駒落しされたフレームとその前後のフレームとを示すものである。
【符号の説明】
11,12 フレーム・メモリ
13,14,13A,14A ウィンドウ回路
15,15A 相関演算回路
16 補間参照画素選択回路
16A 補間参照ブロック選択回路
17,17A 補間画素値演算回路[0001]
【Technical field】
BACKGROUND OF THE
[0002]
[Prior art and its problems]
A moving image is represented by images of a number of continuous frames. Image data compression processing is performed to efficiently transmit or store image data representing a moving image. As part of this compression processing (compression processing in a broad sense), so-called frame dropping is sometimes performed, in which a suitable number of frames are periodically thinned out (separate frames every other frame) from consecutive frames. The image data of the frame remaining after the frame is dropped is encoded (data compression) and transmitted or stored.
[0003]
FIG. 13 shows a plurality of continuous (here, seven) frames. From these consecutive frames, the second, fourth and sixth frames are dropped. The remaining first, third, fifth and seventh frames are encoded.
[0004]
When reproducing a moving image represented by a plurality of continuous frames, the first frame, the third frame, the fifth frame, and the seventh frame are decoded (data decompression). The frame lost due to frame drop is substituted by the immediately preceding decoded frame. That is, first, the image data of the first frame is output as the reproduction output, and then the image data of the first frame is output again instead of the second frame. Similarly, the image data of the third frame is output twice consecutively, the image data of the fifth frame is output twice consecutively, and finally the image data of the seventh frame is output.
[0005]
Although the frame drop has been described for the frame image, the field image may be dropped in some cases.
[0006]
Thus, upon reproduction of a moving image, a field or frame that is lost due to frame drop is replaced by a field or frame that has not been dropped immediately before and the continuity of the moving image is lost. In particular, in the case of a large number of dropped frames or a moving image having a large movement, there is a problem that the moving image is awkward and unnatural.
[0007]
In order to solve this problem, it is necessary to generate the image data of the frame image lost due to frame dropping by simple interpolation using the image data of the frame images before and after the frame image when reproducing the moving image. It has been proposed (see, for example, JP-A-6-237444). In the example shown in FIG. 13, the image data of each pixel of the second frame is generated by simple interpolation using the image data of the corresponding pixels of the first and third frames. Similarly, the image data of each pixel of the fourth frame is generated by simple interpolation using the image data of the corresponding pixels of the third and fifth frames. The image data of the sixth frame is generated by simple interpolation between the corresponding pixels of the fifth and seventh frames.
[0008]
However, since this method is implemented by simple interpolation between corresponding pixels using the image data of the previous and subsequent frame images that have not been dropped, it does not consider the motion of the moving image. Therefore, it did not make the movement sufficiently smooth.
[0009]
DISCLOSURE OF THE INVENTION
SUMMARY OF THE INVENTION It is an object of the present invention to generate image data capable of representing a smooth motion by performing an interpolation process in consideration of a motion.
[0010]
In the interpolation image data generating apparatus according to the present invention, the first image, the second image, and the third image, each constituting one frame, are continuous in this order, and the second image is missing. When the first image data representing the first image and the third image data representing the third image are given, the second image data representing the second image between them is given by: An apparatus for generating using the first image data and the third image data, wherein the window on the second image is set in windows respectively set at corresponding positions on the first image and the third image. Unit area image data for extracting image data of a unit area located at a point symmetric position with respect to a center unit area at a position corresponding to the center of the window while changing the positions of the unit areas on the first image and the third image Extraction means, the unit area image data Correlation value calculating means for calculating a correlation value between the unit area image data of the first image and the unit area image data of the third image extracted by the means, and the correlation value calculated by the correlation value calculating means. An interpolating means for interpolating the image data of the central unit area of the second image based on a pair of unit area image data that has generated the correlation value representing the strongest correlation is provided.
[0011]
In the interpolation image data generation method according to the present invention, the first image, the second image, and the third image, each of which forms one frame, are continuous in this order, and the second image is missing. When the first image data representing the first image and the third image data representing the third image are given, the second image data representing the second image between them is given by: This is a method of generating using the first image data and the third image data. In the window set at the corresponding positions on the first image and the third image, respectively, The image data of the unit area located at a point symmetric position with respect to the center unit area at the position corresponding to the center of the window is extracted while changing the position of the unit area on the first image and the third image, and is extracted. Unit area image data of the first image and the third image The center unit of the second image is calculated based on a pair of unit area image data that has calculated a correlation value with the unit area image data of each pair and generated a correlation value representing the strongest correlation among the calculated correlation values. This is for performing an interpolation operation on the image data of the area.
[0012]
While sequentially shifting the position of the window in the horizontal and vertical directions by the horizontal and vertical sizes of the unit area on the first image and the third image, respectively, All the second image data representing the second image can be obtained by repeating the extraction of the area image data, the above-mentioned correlation operation and the above-mentioned interpolation operation.
[0013]
There are various modes for taking out the image data of the unit area.
[0014]
One is to set the unit area to the size of one pixel. In this case, the size of the window is odd pixels (excluding one pixel) in the horizontal and vertical directions. The unit area from which the image data is extracted will be shifted by one pixel (or by a plurality of pixels).
[0015]
Second, the unit area is set as a block including a plurality of pixels. Since the calculation of the correlation value is performed for each block, it is strong against noise.
[0016]
In this case, the position of the unit area (block) may be changed for each block, or may be changed for one pixel or a plurality of pixels.
[0017]
According to the present invention, the unit area in the window on the first image and the third image located at a point symmetrical position with respect to the center unit area at the position corresponding to the center of the window on the second image. Extracting image data. The unit area image data of the first image and the third image is extracted while changing the position of the unit area, and the correlation value between them is calculated. It can be said that a pair of unit areas that have generated the correlation value representing the strongest correlation represent substantially the same image. The direction connecting the pair of unit areas in the first image and the third image that has generated the correlation value representing the strongest correlation is the direction of image movement, and the distance between these unit areas (distance in space and time) is This indicates the degree of movement.
[0018]
As described above, the image data representing the second image is calculated by the interpolation operation based on the image data of the pair of unit areas of the first image and the third image most strongly related to the movement of the image. The image data of the second image represents an image connecting the first image and the third image at an intermediate position between the first image and the third image.
[0019]
Therefore, when the first image, the second image, and the third image are continuously reproduced, if there is a motion of the image in these images, the motion is smoothly expressed. .
[0020]
In this way, according to the present invention, the interpolation processing is performed in consideration of the movement of the image in the image, so that image data representing a smooth movement when reproduced is obtained.
[0021]
[Explanation of the embodiment]
FIG. 1 shows a first embodiment of the present invention, and is a block diagram showing an electrical configuration of an apparatus for generating image data which is missing due to frame drop by interpolation. This embodiment performs inter-pixel interpolation.
[0022]
As shown in FIG. 13, a case will be described in which frame image data of an even-numbered frame is lost due to frame drop and frame image data of an odd-numbered frame is provided. Based on the preceding and following odd-numbered frame image data, image data of the even-numbered frame image between them is generated.
[0023]
One frame of image data is input to one of the
[0024]
For example, if the first frame image data is provided to the frame memory 11, the next third frame image data is provided to the
[0025]
Thereafter, the fifth frame image data is provided to the frame memory 11. In this state, the image data of the fourth frame is generated using the image data of the third and fifth frames stored in the
[0026]
Thereafter, the seventh frame image data is provided to the
[0027]
When the generation of image data by interpolation is performed in real time for displaying a moving image, image data for one frame is generated during one frame period (1/30 second in the case of the NTSC system).
[0028]
For example, with the first and third frame image data stored in the
[0029]
Although a contact switch is shown as the
[0030]
First and third frame image data are stored in
[0031]
FIGS. 2 and 3 show a pixel group of 3 × 3 pixels extracted from the first frame image data and the third frame image data through a window, respectively. Also shown between these pixel groups are the corresponding pixels of the image data of the second frame to be generated by interpolation. FIG. 2 is a perspective view for clarifying the symmetric relationship between pixels, and each pixel is represented by a dot (black circle). FIG. 3 is drawn in a plan view to make the pixel arrangement easy to understand. Image data is generated for the pixels of the second frame corresponding to the pixels at the center of the window.
[0032]
First, the correlation value between the pixel of the first frame and the pixel of the third frame, which are in a point-symmetric positional relationship with each other with respect to the pixel (2, 5) of the second frame for which image data is to be generated by interpolation, calculate. That is, the correlation value s between the pixel (1, 1) of the first frame and the pixel (3, 9) of the third frame 1 , The correlation value s between pixel (1, 2) and pixel (3, 8) 2 , The correlation value s between pixel (1, 3) and pixel (3, 7) 3 , The correlation value s between pixel (1, 4) and pixel (3, 6) 4 , The correlation value s between pixel (1,5) and pixel (3,5) 5 , The correlation value s between pixel (1, 6) and pixel (3, 4) 6 , The correlation value s between pixel (1,7) and pixel (3,3) 7 , The correlation value s between pixel (1, 8) and pixel (3, 2) 8 , And the correlation value s between pixel (1, 9) and pixel (3, 1) 9 Is calculated. It is also assumed that the pixel (1,5) and the pixel (3,5) corresponding to the pixel (2,5) for which image data is to be generated have a point-symmetric relationship with respect to the pixel (2,5).
[0033]
As the correlation value, for example, the absolute value of the difference between the image data of the two pixels, the value of the square of the difference, and the like are used.
[0034]
Next, these correlation values s i Find the smallest value (the one with the strongest correlation) among (i = 1 to 9).
[0035]
An interpolation operation using the image data of two pixels (in the first frame and the third frame) that produces the minimum correlation value is performed, and the result of the interpolation operation is the image data of the pixel (2, 5) in the second frame. It becomes. The interpolation operation may be a known operation, for example, a method of calculating an average value of image data of two pixels is used.
[0036]
It is assumed that the object represented by the image data has moved in a certain direction, and has moved by two pixels during the time from the first frame to the third frame (two frame periods). For example, assuming that this movement is in an oblique direction from the lower left to the upper right, the image represented by the pixel (1, 7) in the first frame reaches the position of the pixel (3, 3) in the third frame. Since the image data of the pixel (1,7) and the image data of the pixel (3,3) show almost the same value, the correlation value s 7 Is zero or a value close to zero.
[0037]
The minimum value of the correlation value between the pixel of the first frame and the pixel of the third frame, which are point-symmetrical to each other with respect to the pixel for which the image data of the second frame is to be generated, is found. Finding a pair) means detecting the direction of motion of the image represented by the image data as described above.
[0038]
An interpolation operation is performed along the direction of the detected motion, and image data of the pixel (2, 5) of the second frame is calculated. Therefore, the calculated image data of the pixel (2, 5) is an image which has moved to the position of the pixel (2, 5) at a time point exactly between the time point of the first frame and the time point of the third frame. It will represent.
[0039]
Therefore, if the object images represented by the image data from the first frame to the third frame, including the image data of the second frame generated by the above-described processing, are continuously reproduced at a frame cycle, Will be expressed smoothly.
[0040]
The size of the window from which the image data should be cut out for the interpolation processing may be determined according to the degree of movement of the object. The size of the window is not limited to 3 pixels × 3 pixels, but can be arbitrarily determined as 5 pixels × 5 pixels, 7 pixels × 7 pixels, 9 pixels × 9 pixels. The larger the window, the larger the movement. Of course, it can handle small movements.
[0041]
Windows are not limited to squares. If the movement in the horizontal direction is large, the window is a rectangle long in the horizontal direction such as 3 pixels (vertical direction) x 5 pixels (horizontal direction), 3 pixels x 7 pixels, 5 pixels x 7 pixels, and 5 pixels x 9 pixels. Should be set to. When the vertical movement is regarded as important, a vertically long window such as 5 pixels × 3 pixels, 7 pixels × 3 pixels, 7 pixels × 5 pixels, and 9 pixels × 5 pixels may be set.
[0042]
The influence of noise is likely to appear significantly in the image data of each pixel, and the correlation value is also likely to vary. Therefore, it is preferable to add a determination of the validity of the found minimum correlation value. For example, a predetermined threshold value is set, and if the minimum correlation value is smaller than this threshold value, the correlation value is regarded as valid. As the threshold value, an average value of the image data of the pixel (1, 5) at the center of the window and the image data of the pixel (3, 5) can be adopted. The threshold value can also be used when the above-described correlation value calculation and detection of the minimum correlation value are performed by software. For example, the correlation value of a pixel pair is calculated in a certain order, and the calculated value is compared with a threshold value each time the correlation value is calculated. When a correlation value smaller than the threshold value is found, the process is terminated. The found correlation value smaller than the threshold value is regarded as the minimum.
[0043]
Many types of images have no or little motion. It is not always necessary to always perform the above-described processing for such an image. Therefore, the degree of movement is first calculated, and the above processing is performed only when the degree of movement exceeds a predetermined threshold. In other cases, the image data of the pixel (2, 5) is windowed. May be calculated based on the image data of the pixel (1,5) and the pixel (3,5) at the center of the image. The degree of the movement may be represented by, for example, a correlation value between the image data of the pixel (1, 5) at the center of the window and the image data of the pixel (3, 5).
[0044]
Returning to FIG. 1, the
[0045]
The windows set by the
[0046]
If the apparatus shown in FIG. 1 is realized by hardware, the
[0047]
Image data is sequentially read from the
[0048]
Some or all of the functions of the apparatus in FIG. 1 can be realized by software. In this case, one or more of the above-described window setting, calculation of the inter-pixel correlation value, detection of the minimum correlation value, and calculation of the interpolation value using the image data of the pixel that generated the minimum correlation value are performed. , Or all are realized by a programmed computer.
[0049]
FIG. 4 shows a second embodiment. In this embodiment, processing between blocks is performed.
[0050]
The image data of each pixel is easily affected by noise as described above. In the second embodiment, in order to minimize the influence of noise or the like, motion is detected in units of blocks.
[0051]
As in the first embodiment, the odd-numbered frame image data is alternately applied to the
[0052]
FIG. 5 shows pixels of the first frame image cut out by the window set in the
[0053]
One block has a size of 8 pixels × 8 pixels in this embodiment. The window is set to a size including 3 × 3 blocks of pixels. [1, 1], [1, 2],..., [1, 9] are assigned to the blocks of the first frame, and [3, 1], [3, 2], , [3, 9]. A window of a second frame corresponding to each window of the first frame and the third frame is imagined, and the center block of the window of the second frame is [2, 5]. Image data of pixels in the block [2, 5] is generated by interpolation.
[0054]
The size of one block can be arbitrarily set as 2 pixels × 2 pixels, 3 pixels × 3 pixels, 4 pixels × 4 pixels, 3 pixels × 5 pixels, 5 pixels × 4 pixels. The blocks included in the window can also be set arbitrarily, such as 4 blocks × 4 blocks, 3 blocks × 4 blocks, and 5 blocks × 3 blocks.
[0055]
A correlation value between the block of the first frame and the block of the third frame, which are point-symmetric with respect to the block [2, 5] of the second frame, is calculated in the correlation calculation circuit 15A. That is, the correlation value S between the block [1,1] of the first frame and the block [3,9] of the third frame 1 , The correlation value S between the block [1, 2] and the block [3, 8] 2 , The correlation value S between the block [1,3] and the block [3,7] 3 , The correlation value S between the block [1, 4] and the block [3, 6] 4 , The correlation value S between block [1,5] and block [3,5] 5 , The correlation value S between the block [1, 6] and the block [3, 4] 6 , The correlation value S between block [1,7] and block [3,3] 7 , The correlation value S between the block [1, 8] and the block [3, 2] 8 , And the correlation value S between the block [1, 9] and the block [3, 1] 9 Is calculated.
[0056]
These correlation values S i The smallest value among (i = 1 to 9) is detected in the interpolation reference
[0057]
Correlation value S between blocks i Is calculated, for example, as follows. Correlation value S between block [1,1] and block [3,9] 1 Will be described as an example.
[0058]
Each of these blocks [1, 1] and [3, 9] includes 8 × 8 = 64 pixels. Correlation value s between corresponding pixels in blocks [1,1] and [3,9] j Is calculated. That is, the correlation value between the pixel (1, j) in the block [1, 1] and the pixel (3, j) in the block [3, 9] is s. j (J = 1 to 64). As described above, the correlation value between pixels is obtained by calculating the absolute value of the difference between the pixel data of two pixels, the square value of the difference, and the like. Next, the correlation value s between these pixels j Are added in one block. Correlation value s in one block j Is the correlation value S between the blocks j It becomes. An average value may be used instead of the sum.
[0059]
When a pair of blocks having the smallest correlation value (one block in the first frame and one block in the third frame) are selected, the center of the window in the second frame is used by using the image data of these selected blocks. Is generated by the interpolation operation.
[0060]
For example, if the block [1,1] of the first frame and the block [3,9] of the third frame are selected, the block [2,5] of the second frame is used by using the image data of the pixels included in these blocks. ] Is calculated as follows. The image data of the pixel (2, j) in the block [2, 5] is the image data of the pixel (1, j) in the block [1, 1] and the image data of the pixel (3, j) in the block [3, 9]. It is obtained by an interpolation operation using data (for example, an average value operation). This interpolation calculation is performed by the interpolation pixel value calculation circuit 17A. This circuit 17A outputs image data for one block (8 × 8 pixels).
[0061]
The windows in the first frame and the third frame are sequentially scanned in the horizontal and vertical directions in units of the length of one side of the block (the number of pixels), and image data of the second frame is obtained for each block of pixels at each position. Will be done.
[0062]
The circuit shown in FIG. 4 can be realized by hardware, or a part or all of its functions can be achieved by software. In any case, real-time processing (for example, processing time of 1/30 second per frame) is possible. The hardware circuit may be an extension of the circuit described with reference to FIG. The
[0063]
FIG. 6 shows another method of motion detection. In this manner, the circuit shown in FIG. 4 is applied.
[0064]
The correlation value between the image data in the upper left block [1,1] of the window set in the first frame and the image data in the lower right block [3,256] of the window set in the third frame is calculated. Is done. Next, block [1, 2] is set at a position shifted by one pixel to the right from block [1, 1] in the window of the first frame. Similarly, block [3,255] is set at a position shifted by one pixel to the left from block [3,256] in the window of the third frame. The correlation value between the pixel data in these blocks [1, 2] and the image data in block [3, 255] is calculated.
[0065]
As described above, in the first frame, the block is shifted to the right in the horizontal direction by one pixel, and in the third frame, the block is shifted to the left in the horizontal direction by one pixel. A correlation value between the image data in the block of the frame and the image data in the third frame is calculated.
[0066]
When the block reaches the right end in the first frame and reaches the left end in the third frame, the block is set at a position shifted by one pixel from the position of the block [1, 1] in the first frame. In three frames, blocks are set at positions shifted upward by one pixel from the position of block [3, 256], and correlation values of image data in these blocks are calculated. In the first frame, the correlation value is calculated at each position while the block is shifted to the right in the horizontal direction, and in the third frame, the block is shifted to the left in the horizontal direction by one pixel.
[0067]
In the first frame, the blocks are horizontally shifted from left to right and vertically from top to bottom. In the third frame, the blocks are horizontally shifted from right to left and vertically from bottom to top. The correlation value between the image data of the block of the first frame and the image data of the block of the third frame is calculated at all positions while shifting by the pixel. The block of the first frame and the block of the third frame are always in point symmetry with respect to the block [2,128] located at the position corresponding to the center position of the window in the second frame.
[0068]
If the window is square and its side is 24 pixels, and the block is square and its side is 8 pixels, 256 correlation values are obtained. The smallest of these correlation values is selected. The image data of each pixel included in the block [2,128] of the second frame is interpolated using the image data of the selected block, and the window is moved horizontally and vertically by pixels on one side of the block. The above-described processing is performed while shifting by minutes, as in the case of the second embodiment.
[0069]
When calculating the correlation value between blocks, instead of shifting the block by one pixel as described above, the block may be shifted by several pixels. This is also applicable to the first embodiment for calculating the correlation value between pixels.
[0070]
Although the inter-frame interpolation is performed in the above embodiment, the interpolation processing can be performed in units of field images.
[0071]
When the position of the image is shifted in a frame (or field) before and after the missing frame (or field), for example, the position of the image in the first frame and the position of the image in the third frame are shifted. (If the position of the image is displaced in two frames due to movement of the camera, for example, not due to the movement of the image), and if the amount of this displacement is known in advance, this After the correction (shifting of the image data by an amount corresponding to the shift amount) in the frame of (1), the interpolation image may be generated by the above-described processing. This shift correction can also be achieved by shifting the window setting position in any frame. Of course, it is not necessary to perform the displacement correction. After generating the interpolation image by performing the shift correction, the shift may be returned to the original state.
[0072]
If the direction and amount of motion of the image in the time between two frames (or fields) are known in advance, a pixel pair or block pair for which a correlation value is to be calculated is selected according to the direction and amount of motion. Thus, the number of correlation value calculations can be reduced. If the magnitude of the movement is too large to fit within the window, the position of the window in one of the frames (fields) is shifted in advance according to the direction and magnitude of the movement, or at least one of the images May be shifted according to the direction and magnitude of the movement, and then the above-described interpolation image data generation processing may be performed.
[0073]
The above-described interpolation image data generation processing is performed on any image data such as only luminance data, both luminance data and chrominance data, and all or part of R, G, and B color image data (for example, only B color image data). Applicable. In this case, if the degree of motion obtained based on the luminance data is different from the degree of motion obtained based on the chrominance data, either one of the motion detection results may be used, or the weighted average value may be used. May be used.
[0074]
As described in the section of the prior art, in order to efficiently transmit or store a moving image represented by an image of a number of continuous frames, for example, every other frame is dropped from a number of continuous frames. . The image data of the image remaining after the frame is dropped and transmitted or stored according to an appropriate image compression algorithm.
[0075]
The interpolated image data generating apparatus and method according to the present invention are useful when restoring an image of a frame lost due to such a frame loss. The compressed image data is provided to the interpolated image data generation device after decompression processing. In this device, an image of a missing piece due to a missing piece is generated. As a result, the original moving image represented by the continuous frame images is reproduced.
[0076]
The interpolated image data generating device according to the present invention is also suitably used in a digital video tape recorder or a digital image data reproducing device described in detail below.
[0077]
Before describing the configuration and operation of the digital video tape recorder, an existing standard industry standard relating to a recording method on a magnetic tape by the digital video tape recorder will be described.
[0078]
The recording format of the magnetic tape is shown in FIGS. 10 (A) and 10 (B). FIG. 10A shows tracks Tr of the
[0079]
FIG. 10B shows the track format. One track Tr includes a subcode recording area, a video recording area, an auxiliary recording area, an audio recording area, and a track information recording area. Information such as a time code and an absolute track number for high-speed search is recorded in the subcode recording area. Digital image data representing a subject image is recorded in the video recording area. Data representing a sound is recorded in the audio recording area. In the track information recording area, information serving as a reference of the track Tr for the magnetic head to trace the center of the track Tr is recorded. The auxiliary recording area is provided at intervals, and additional information is recorded in the auxiliary recording area. The illustration of the gaps provided between the respective regions is omitted.
[0080]
A CCD used in a digital video tape recorder generally has 720 pixels in the horizontal direction and 480 pixels in the vertical direction and has about 350,000 pixels. One frame of digital image data obtained using such a CCD is recorded on ten tracks of the
[0081]
In order to improve the image quality of the image represented by the image data recorded on the
[0082]
FIG. 7 is a block diagram showing an electrical configuration of a digital video tape recorder (DVTR) capable of recording and reproducing digital image data. The overall operation of the digital video tape recorder is controlled by a system controller 30 (control lines are not shown).
[0083]
As shown in FIG. 8, the
[0084]
In this digital video tape recorder, one frame of image data obtained from the
[0085]
In the recording mode, the subject is continuously photographed at a constant period of 1/15 second by the
[0086]
One frame of image data stored in the
[0087]
FIG. 9 schematically illustrates a pixel array in the
[0088]
Reading of these image data from the
[0089]
The image data of the first field read out at the first time and the image data of the third field read out at the third time are image data of the pixels of the odd-numbered rows. These odd-numbered rows of image data are represented by black triangles and white triangles. Black triangles indicate image data in odd columns, and white triangles indicate image data in even columns. The image data of the first field is configured by alternately repeating the image data of the odd and even columns in the vertical direction. The image data of the third field is configured by alternately repeating the image data of the even-numbered columns and the image data of the odd-numbered columns in the vertical direction, and these are not included in the first field.
[0090]
The image data of the second field read out in the second time and the image data of the fourth field read out in the fourth time are image data of pixels in even-numbered rows. These even lines of image data are represented by white circles and black circles. White circles indicate image data in odd columns, and black circles indicate image data in even columns. The image data of the second field is constituted by alternately repeating the image data of the odd and even columns in the vertical direction. The image data of the fourth field is configured by alternately repeating even-numbered column image data and odd-numbered column image data in the vertical direction, and these are not included in the second field.
[0091]
In this way, the image data of all the pixels is read out only once in any one of the fields. Moreover, the pixels of the image data constituting each field are discrete in the vertical and horizontal directions, and the entire subject image can be expressed by the image data of any field. One frame is composed of the first field and the second field. One frame is constituted by the third field and the fourth field. Each of these frames is suitable for interlaced scanning. Therefore, in the reproduction of a moving image to be described later, the reproduction and display by the conventional normal interlace scanning can be performed.
[0092]
Reading of image data over these four fields can be easily expressed by controlling the addressing of the
[0093]
The image data read from the
[0094]
The image data for four fields stored in the
[0095]
The image data output from the error correction
[0096]
One frame of image data obtained by using the 700,000-
[0097]
The digital video tape recorder shown in FIG. 7 can also reproduce digital image data recorded on the
[0098]
In the digital image data reproduction mode, image data, recording area data, and other data recorded on the
[0099]
In the movie playback mode, the image data stored in the
[0100]
By photographing at 1/15 second intervals as described above, image data (first field to fourth field) of a data amount corresponding to two frames is obtained, and these image data are recorded on the
[0101]
Since the interpolated image
[0102]
The
[0103]
Interlaced scanning is performed based on the image data of each frame provided to the
[0104]
The digital video tape recorder shown in FIG. 7 is capable of reproducing still images in addition to reproducing moving images. In the still reproduction mode, the image data subjected to data expansion in the
[0105]
One frame of image data generated in the
[0106]
The CCD 11 used in the digital video tape recorder shown in FIG. 7 has 1440 pixels in the horizontal direction and a large number of pixels, but has 480 pixels in the vertical direction and has a general number of pixels (350,000 pixels). It is not much different from the number of pixels in the vertical direction. In order to increase the resolution in the vertical direction, a process of interpolating pixel data in the vertical direction is performed. The
[0107]
The image data subjected to the vertical interpolation processing in the
[0108]
However, the image data may be provided to the
[0109]
The vertical interpolation processing in the
[0110]
FIG. 12 shows a part of the pixel array, and the central pixel S m, n Are pixels for which the image data is to be generated by interpolation. The image data S of the pixel to be interpolated m, n (Hereinafter, image data uses the same symbol as the pixel) m, n Pixel D adjacent above and below m, n Image data and D m, n + 1 Difference from the image data Δ 1 = | D m, n + 1 -D m, n |, Pixel D adjacent diagonally up and down m-1, n And D m + 1, n + 1 And image data difference Δ 2 = | D m + 1, n -D m-1, n + 1 | And D m + 1, n And D m-1, n + 1 And the difference Δ 3 = | D m-1, n + 1 -D m + 1, n | Are calculated respectively.
[0111]
Subsequently, the difference Δ between the calculated image data 1 , Δ 2 And Δ 3 Is detected. The arithmetic mean of the two image data used to calculate the smallest difference is calculated. The pixel S to be interpolated is obtained from the data obtained by the arithmetic averaging. m, n Image data. For example, Δ 1 ~ Δ 3 Δ 1 Is the smallest, the image data of the pixel to be interpolated is S m, n = (D m, n + 1 + D m, n ) / 2. Δ 2 Is the smallest when m, n = (D m + 1, n + D m-1, n + 1 ) / 2, and Δ 3 Is the smallest when m, n = (D m-1, n + 1 + D m + 1, n ) / 2.
[0112]
As a result, the vertical interpolation is performed so that the correlation becomes strong in the vertical and diagonal directions, so that the edges of the obtained still image become smooth.
[0113]
Such vertical interpolation processing is performed between all columns, and image data having substantially twice 480 pixels in the vertical direction is obtained (see the lowermost part of FIG. 11).
[0114]
A switch (or a key or the like) for switching or selecting between the recording mode and the reproduction mode is provided, and the above-described switch between the recording mode and the reproduction mode is performed. Further, a switch for switching or selecting between the movie playback mode and the still playback mode among the playback modes is provided, and the switch between the movie playback and the still playback is performed by this switch. The mode selection signals from these switches are supplied to the
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an interpolation image data generation device according to a first embodiment.
FIG. 2 is a perspective view showing a correspondence relationship between pixels for interpolation.
FIG. 3 is a plan view showing a correspondence relationship between pixels for interpolation.
FIG. 4 is a block diagram illustrating an interpolated image data generation device according to a second embodiment.
FIG. 5 is a plan view showing a correspondence relationship between pixels for interpolation.
FIG. 6 shows how blocks are shifted.
FIG. 7 is a block diagram showing an electrical configuration of the digital video tape recorder.
FIG. 8 shows a configuration of a CCD.
FIG. 9 shows a procedure for dividing an image for one frame into four field images.
10A shows a recording format of a magnetic tape, and FIG. 10B shows a track format.
FIG. 11 shows a procedure for forming a one-frame image and a vertical interpolation image from four field images.
FIG. 12 is a diagram illustrating an example of a pixel array and explaining vertical interpolation.
FIG. 13 shows a dropped frame and frames before and after the dropped frame.
[Explanation of symbols]
11,12 frame memory
13,14,13A, 14A window circuit
15, 15A correlation operation circuit
16 Interpolation reference pixel selection circuit
16A interpolation reference block selection circuit
17, 17A interpolation pixel value calculation circuit
Claims (7)
第1の画像と第3の画像上の対応する位置にそれぞれ設定されたウインドウ内において,第2の画像上の上記ウインドウの中心に相当する位置の中心単位領域を中心として点対称の位置にある単位領域の画像データを,第1の画像と第3の画像上の単位領域の位置を変えながら取出す単位領域画像データ取出手段,
上記単位領域画像データ取出手段によって取出された第1の画像の単位領域画像データと第3の画像の単位領域画像データとの相関値をそれぞれ算出する相関値算出手段,および
上記相関値算出手段によって算出された相関値のうち最も強い相関を表わす相関値を生成した1対の単位領域画像データに基づいて,上記第2の画像の中心単位領域の画像データを補間演算する補間演算手段,
を備えた補間画像データ生成装置。The first image, the second image, and the third image, each constituting one frame, are continuous in this order, and the second image is missing, and the first image representing the first image is omitted. When given image data and third image data representing the third image, the second image data representing the second image therebetween is replaced with the first image data and the third image data. It is a device that generates using data.
In the windows set at the corresponding positions on the first image and the third image, the windows are point-symmetric with respect to the center unit area at the position corresponding to the center of the window on the second image. Unit area image data extracting means for extracting image data of the unit area while changing the position of the unit area on the first image and the third image;
A correlation value calculating unit that calculates a correlation value between the unit area image data of the first image and the unit area image data of the third image extracted by the unit area image data extracting unit; and the correlation value calculating unit. An interpolating means for interpolating the image data of the central unit area of the second image based on the pair of unit area image data having generated the correlation value representing the strongest correlation among the calculated correlation values;
An interpolated image data generation device comprising:
第1の画像と第3の画像上の対応する位置にそれぞれ設定されたウインドウ内において,第2の画像上の上記ウインドウの中心に相当する位置の中心単位領域を中心として点対称の位置にある単位領域の画像データを,第1の画像と第3の画像上の単位領域の位置を変えながら取出し,
取出された第1の画像の単位領域画像データと第3の画像の単位領域画像データとの相関値をそれぞれ算出し,
算出された相関値のうち最も強い相関を表わす相関値を生成した1対の単位領域画像データに基づいて,上記第2の画像の中心単位領域の画像データを補間演算する,
補間画像データ生成方法。The first image, the second image, and the third image each forming one frame are continuous in this order, and the second image is missing, and the first image representing the first image is omitted. When given image data and third image data representing a third image, the second image data representing the second image therebetween is replaced with the first image data and the third image data. It is a method of generating using data.
In the windows set at the corresponding positions on the first image and the third image, the windows are point-symmetric with respect to the center unit area at the position corresponding to the center of the window on the second image. Extracting the image data of the unit area while changing the position of the unit area on the first image and the third image;
Calculating a correlation value between the extracted unit area image data of the first image and the unit area image data of the third image,
Interpolating the image data of the central unit area of the second image based on the pair of unit area image data that generated the correlation value representing the strongest correlation among the calculated correlation values;
Interpolated image data generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4258195A JP3577354B2 (en) | 1995-02-08 | 1995-02-08 | Interpolated image data generation apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4258195A JP3577354B2 (en) | 1995-02-08 | 1995-02-08 | Interpolated image data generation apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08223536A JPH08223536A (en) | 1996-08-30 |
JP3577354B2 true JP3577354B2 (en) | 2004-10-13 |
Family
ID=12640046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4258195A Expired - Fee Related JP3577354B2 (en) | 1995-02-08 | 1995-02-08 | Interpolated image data generation apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3577354B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252591A (en) * | 2007-03-30 | 2008-10-16 | Toshiba Corp | Interpolation frame generation device, interpolation frame generation method, and broadcast receiver |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005109899A1 (en) * | 2004-05-04 | 2005-11-17 | Qualcomm Incorporated | Method and apparatus for motion compensated frame rate up conversion |
CA2572605C (en) | 2004-07-01 | 2013-04-02 | Qualcomm Incorporated | Method and apparatus for using frame rate up conversion techniques in scalable video coding |
JP2008507915A (en) | 2004-07-20 | 2008-03-13 | クゥアルコム・インコーポレイテッド | Method and apparatus for encoder-assisted frame rate upconversion for video compression |
US8553776B2 (en) | 2004-07-21 | 2013-10-08 | QUALCOMM Inorporated | Method and apparatus for motion vector assignment |
JP4359223B2 (en) | 2004-10-29 | 2009-11-04 | 株式会社 日立ディスプレイズ | Video interpolation device, frame rate conversion device using the same, and video display device |
US8355441B2 (en) | 2004-12-09 | 2013-01-15 | Thomson Licensing | Method and apparatus for generating motion compensated pictures |
JPWO2006117878A1 (en) * | 2005-04-28 | 2008-12-18 | 株式会社日立製作所 | Frame rate conversion device and video display device |
US8634463B2 (en) | 2006-04-04 | 2014-01-21 | Qualcomm Incorporated | Apparatus and method of enhanced frame interpolation in video compression |
US8750387B2 (en) | 2006-04-04 | 2014-06-10 | Qualcomm Incorporated | Adaptive encoder-assisted frame rate up conversion |
JP5025432B2 (en) * | 2007-11-19 | 2012-09-12 | 三菱電機株式会社 | Frame interpolation apparatus and frame interpolation method |
JP5192087B2 (en) * | 2009-12-01 | 2013-05-08 | パナソニック株式会社 | Image processing apparatus and image processing method |
-
1995
- 1995-02-08 JP JP4258195A patent/JP3577354B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252591A (en) * | 2007-03-30 | 2008-10-16 | Toshiba Corp | Interpolation frame generation device, interpolation frame generation method, and broadcast receiver |
Also Published As
Publication number | Publication date |
---|---|
JPH08223536A (en) | 1996-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5329309A (en) | Method of integrating format material and an interlace scan format signal | |
US6201927B1 (en) | Trick play reproduction of MPEG encoded signals | |
US5825429A (en) | Apparatus and method for generating interpolated image data | |
JP3577354B2 (en) | Interpolated image data generation apparatus and method | |
JP4887750B2 (en) | Image processing apparatus, control method, and program | |
US6233392B1 (en) | Constrained encoded motion vectors | |
EP1078518B1 (en) | Trick play reproduction of mpeg encoded signals | |
US7218343B2 (en) | Image sensing apparatus using a non-interlace scanning type image sensing device | |
JP3106485B2 (en) | Video signal reproduction device and video signal processing device | |
JPH08336113A (en) | Image processing device | |
JP3569564B2 (en) | Interpolated image data generation apparatus and method | |
US6778758B1 (en) | Image processing apparatus | |
JP3733248B2 (en) | Playback apparatus and method | |
JP3606634B2 (en) | Image data recording apparatus, digital image data recording method, and digital image data reproducing apparatus and method | |
JP3445869B2 (en) | Digital video tape recorder and recording method of digital image data | |
JP3833285B2 (en) | Image data recording apparatus and method, and image data reproducing apparatus and method | |
JP3666959B2 (en) | Digital image data recording apparatus and method, and digital image data reproducing apparatus and method | |
JP2000078450A (en) | Image pickup device, reproducing device and image pickup recording and reproducing device | |
JP3127642B2 (en) | Digital video signal recording device | |
JP3365613B2 (en) | Digital signal playback device | |
JP3298307B2 (en) | Moving image recording device and playback device | |
JP2000092443A (en) | Recording device and image-pickup device | |
JPH09130728A (en) | Image pickup device | |
JPH118828A (en) | Video recording device and video reproducing device | |
GB2249904A (en) | Format conversion of digital video signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040712 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090716 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090716 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100716 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110716 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110716 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120716 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |