JP3693407B2 - Multi-view image encoding apparatus and decoding apparatus - Google Patents
Multi-view image encoding apparatus and decoding apparatus Download PDFInfo
- Publication number
- JP3693407B2 JP3693407B2 JP8221596A JP8221596A JP3693407B2 JP 3693407 B2 JP3693407 B2 JP 3693407B2 JP 8221596 A JP8221596 A JP 8221596A JP 8221596 A JP8221596 A JP 8221596A JP 3693407 B2 JP3693407 B2 JP 3693407B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- disparity vector
- vector
- disparity
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は画像高能率符号化及び復号において、特に動き補償あるいは視差補償予測を用いた多視点画像の高能率符号化及び復号装置に関するものである。
【0002】
【従来の技術】
多視点画像の符号化において、動画像符号化の際に一般的に用いられている動き補償と、視点の異る画像間に対し視差補償を組み合わせて符号化することにより、符号化効率を向上させる方式がよく知られている。例えば文献(W.A.シュップ,安田,“視差補償および動き補償を用いたステレオ動画像のデータ圧縮”,PCSJ88(1988),pp.63-64)によれば、図11に示すように、右画像に対しては動き補償のみを行なう。左画像に対しては視差補償と動き補償のうち、予測誤差がより少ない方の補償方法を選択し、符号化するという方式である。
【0003】
また、動画像の符号化においてブロックマッチングによる動き補償を行なう際に、ブロックの大きさを変えて動きベクトルを求める例が、特開平6−113283号公報に開示されている。この方式では、図12に示すようにまず小ブロック71を用いて動き補償を行ない、小ブロック71に対する動きベクトル(以降、小ブロックベクトルと略す)を求める。それらの小ブロック71を複数個集めて大ブロックとし、動き補償を行ない、大ブロックに対する動きベクトル(以降、大ブロックベクトルと略す)を求める。
【0004】
大ブロック70を4つの小ブロックにより構成したとすると、小ブロックベクトルが大ブロックベクトルに対して予め決められた範囲内に存在し、そこに存在する小ブロックベクトルの数が所定の閾値を越えた場合、大ブロックベクトルと、小ブロックベクトルと大ブロックベクトルの差分を伝送することにより動きベクトルの情報量を低減する。
【0005】
【発明が解決しようとする課題】
しかしながら従来の方法では、視差補償を行う際に視差のある部分と視差のない部分全てに対して視差補償を行なうので、効率がよくない。しかも求まった視差ベクトルの大きさは通常、動き補償において求まる動きベクトルの大きさよりも大きくなることが多く、それをそのままの大きさで符号化するため、視差ベクトルの符号化効率がよくないという問題点がある。
【0006】
またこの方式では、動き補償を用いるか視差補償を用いるかが選択的に決定されるので視差ベクトルが必ず伝送されるわけではない。従って、複数の物体が立体表示されるときに、一部の物体の奥行きだけを変える等の編集を行うことができない。
【0007】
一方、動画像の符号化を大ブロックと小ブロックの2種類の動きベクトルにより符号化する方法では、画面全体にわたって2段階の探索をする必要があるため計算量が莫大になる。また、大ブロックは複数の小ブロックにより構成されているため、信頼度の異なる2種類のベクトル及びその差分を求めているに過ぎず、それらのベクトル間に物理的な意味の相違はない。さらに、この2種類の動きベクトルに異なる作用をもたせることができないため、部品画像編集に利用することは難しい。
【0008】
本発明の目的は、多視点画像の符号化において動き補償及び視差補償予測を用いることにより高効率の符号化を実現しながら、視差ベクトルを2段階に分けることにより視差ベクトルの符号化効率を向上させるとともに、視差ベクトルを求める際の計算量を低減させ、2段階に分けた視差ベクトルを利用して立体部品画像の編集を簡単に行うことができる視差補償符号化及び復号装置を提供することにある。
【0009】
【課題を解決するための手段】
本発明の符号化装置は上記目的を達成するために、多視点立体画像を少なくとも1つの視差のある部品画像と、少なくとも1つの視差のない背景画像に分けて入力する入力手段と、部品画像のフレームあるいはフィールド間の動き量を用いて動き補償予測を行う動き補償手段と、部品画像のフレームあるいはフィールド間の視差量を用いて視差補償予測を行う視差補償手段と、視差ベクトル分割手段とを各部品画像毎に備える多視点符号化装置であって、前記視差ベクトル分割手段は、前記視差補償手段で求められた視差ベクトルのうちの1つをグローバル視差ベクトルとし、残りの視差ベクトルからグローバル視差ベクトルを引いたものをローカル視差ベクトルとして出力することを特徴とする。
【0010】
また本発明の符号化装置では、3視点以上の多視点立体画像を少なくとも1つの視差のある部品画像と、少なくとも1つの視差のない背景画像に分けて入力する入力手段と、部品画像のフレームあるいはフィールド間の動き量を用いて動き補償予測を行う動き補償手段と、部品画像のフレームあるいはフィールド間の視差量を用いて視差補償予測を行う視差補償手段とを各部品画像毎に備えるとともに、各部品画像毎に1つの視差ベクトル分割手段と少なくとも1つの差分器を備える多視点符号化装置であって、前記視差ベクトル分割手段は、特定の視点間において求められた視差ベクトルのうちの1つをグローバル視差ベクトルとし、残りの視差ベクトルからグローバル視差ベクトルを引いたものをローカル視差ベクトルとして出力するとともに、前記差分器は、他の視点間において求められたすべての視差ベクトルと前記グローバル視差ベクトルとの差分を出力することを特徴とする。
【0011】
また本発明では、グローバル視差ベクトルとして立体部品画像内の全ての視差ベクトルの平均を用いてもよい。
【0012】
また本発明では、グローバル視差ベクトルとして立体部品画像内で最初に求めた視差ベクトルを用いてもよい。
【0013】
また本発明では、グローバル視差ベクトルとして立体部品画像内の視差ベクトルの大きさをヒストグラムにして、最も発生頻度の多い視差ベクトルを用いてもよい。
【0014】
また本発明では、現フレームあるいはフィールドのグローバル視差ベクトルとして、現フレームあるいはフィールドのグローバル視差ベクトルと直前のフレームあるいはフィールドのグローバル視差ベクトルの差分を用いてもよい。
【0015】
また本発明では、ローカル視差ベクトルとして、直前に求めたローカル視差ベクトルとの差分を用いてもよい。
【0016】
また本発明の復号装置では、多視点立体画像のフレームあるいはフィールド間の動き量及び視差量を用いて、動き補償を行う動き補償手段及び視差補償を行う視差補償手段とを備える多視点画像復号装置において、入力されたグローバル視差ベクトルと前記ローカル視差ベクトルを用いて前記視差ベクトルを視差補償手段に出力する視差ベクトル合成手段と、奥行き方向の移動パラメータを画像編集手段に出力するパラメータ入力手段と、入力されたパラメータを用いて立体部品画像の奥行きを変化させて画像合成手段に出力する画像編集手段と、入力された背景画像と立体部品画像を合成する画像合成手段を備えることを特徴とする。
【0017】
また本発明では、前記画像編集手段は、前記グローバル視差ベクトルが小さい立体部品画像から順に出力し、前記画像合成手段は、背景画像が入力された後に順次入力される立体部品画像を背景画像上に上書きすることにより画像を合成するようにしてもよい。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態について詳細に説明する。
【0019】
図1に本発明の画像符号化装置の第1の実施の形態を示す。本実施の形態は2眼式の例であり、この画像符号化装置に入力する画像は、視差のない背景画像と視差のある立体部品画像とする。背景画像と立体部品画像はどちらも静止画像と動画像のいずれであってもよいが、ここでは両者とも動画像であるものとする。
【0020】
ここで立体部品画像とは、例えば図2に示すように、2台のカメラを平行に配置して撮影したステレオ画像2を切り出し装置3に入力し、注視物体だけを切り出したものを示す。また、図2の画像入力部5におけるVOP(Video Object Plane)とは、複数の部品画像によって合成画像を形成する場合の1つ1つの構成要素を意味し、通常、形状データとテクスチャデータにより構成されるが、ここでは説明を簡単にするために任意形状の領域に分割された部品画像としてとり扱う。立体部品画像objn(n=1,2,…によって異なる部品を区別する)は視点数と同じ数のVOPmn(m=1,2,…によって異なる視点を区別し、2眼式の場合はm=1,2となる)に分離されており、VOP0を背景画像1とする。このとき2台のカメラ間隔は人の目と同じとしてもよい。また2台のカメラは平行に配置されており、かつ上下方向のズレや歪みがないように調整されているので、切り出し装置から切り出された画像の視差は垂直成分はなく、水平成分のみをもつものとする。
【0021】
まず、図1を用いて背景画像の符号化方法を説明する。動画像の符号化において、符号化の単位をブロック(例えば16×16画素で構成される)として符号化するブロックマッチングを用いた動き補償予測符号化という方法が一般的によく知られている。本実施の形態において、背景画像の符号化方法はこのブロックマッチングを用いた動き補償予測符号化の方法と同じである。例えば背景画像VOP0は、動き補償部6により前フレームあるいはフィールドの復号画像を用いて動き補償され、検出された動きベクトルが可変長符号化部10に伝送される。
【0022】
その後減算器7で背景画像VOP0と動き補償された画像の差分がとられ、その差分データが変換部8と量子化部9を通って、可変長符号化部10に伝送される。またこの差分データは、可変長符号化部10に入力されるとともに、逆量子化部11と逆変換部12を通り、加算器13で動き補償された画像が加算され、背景画像VOP0の復号画像がフレームメモリ14に蓄えられる。これ以降は、次の入力に対して、この繰り返しで符号化される。
【0023】
次に立体部品画像の符号化について説明する。立体部品画像obj1を符号化する順序を図3を用いて説明する。符号化は以下の(a)〜(d)の手順で行なわれる。
【0024】
(a)立体部品画像obj1の左目用の部品画像43はフレームあるいはフィールド内で符号化を行なう。
【0025】
(b)部品画像43の復号画像を用いた視差補償により、右目用の部品画像44に対してフレームあるいはフィールド間符号化を行なう。
【0026】
(c)部品画像45は部品画像43の復号画像を用いた動き補償によりフレームあるいはフィールド間符号化を行なう。
【0027】
(d)部品画像45の復号画像を用いた視差補償により、右目用の部品画像46はフレームあるいはフィールド間符号化を行なう。
【0028】
すなわち左目用画像は動き補償で符号化され、右目用画像は同時刻の左目用画像を用いた視差補償で符号化される。以降(c)、(d)の手順を繰り返して符号化は行なわれる。ただし(c)、(d)の手順を繰り返して符号化するとき、予測誤差の伝搬を防ぐために(c)、(d)の手順の代わりに(a)、(b)の手順による符号化を、一定の周期で行なってもよい。
【0029】
図1において、立体部品画像obj1を構成する左目用画像VOP11は、背景画像の符号化のときと同様の方式で符号化を行なう。同じく立体部品画像obj1を構成する右目用画像VOP21は、左目用画像VOP11の復号画像を用いてブロックマッチングによる視差補償を行ない、符号化する。このとき、視差補償部16に右目用画像VOP21と、加算器15からの左目用画像VOP11の復号画像が入力され、視差ベクトルが求まる。
【0030】
視差ベクトルの求め方は、図4に示すように左目用の部品画像31と右目用の部品画像32を画像33のように同一平面上に重ねて、注目ブロックに対してマッチングを行なうことにより行う。従って1つのブロックに対して1つの視差ベクトルが求まる。求まった視差ベクトルは視差ベクトル分割器17に入力され、1つのグローバル視差ベクトルと、それぞれの視差ベクトルからグローバル視差ベクトルを引いた、ローカル視差ベクトルに分けられる。
【0031】
つまり立体部品画像内において、グローバル視差ベクトルは1個の所定のブロックの視差を表し、ローカル視差ベクトルはそれ以外のブロックの視差からグローバル視差ベクトルを引いたものとなる。例えば、図5のように視差ベクトルv1をグローバル視差ベクトルGVとすると、視差ベクトルv2からグローバル視差ベクトルGV引いたものがローカル視差ベクトルLV2となり、視差ベクトルv2はGV+LV2として表すことができる。
【0032】
よって、k(k=1,2,…)本の視差ベクトルは1本のグローバル視差ベクトルとk−1本のローカル視差ベクトルで表すことができる。このときグローバル視差ベクトルは3次元空間における立体部品画像の奥行き(存在位置)に対応し、ローカル視差ベクトルは立体部品画像内での局所的な奥行き分布(立体形状)に対応する。
【0033】
このとき、全ての視差ベクトルの平均をグローバル視差ベクトルとすることによって、ローカル視差ベクトルの情報量を低減することができる。また最初に求めた視差ベクトルをグローバル視差ベクトルとしてもよく、これによりグローバル視差ベクトルを選択する際の計算量が低減される。さらに視差ベクトルの大きさをヒストグラムにして、最も発生頻度の多い視差ベクトルをグローバル視差ベクトルとすることによって、3次元空間における立体部品画像の存在位置を適切に表現することができる。
【0034】
一般的に視差ベクトルをk本もつことに比べ、グローバル視差ベクトルを1本と、値の小さなk−1本のローカル視差ベクトルをもつ方が視差ベクトルの情報量を低減することができる。
【0035】
また立体画像において、立体画像内の隣接ブロック間における視差量の変化は少ないが、立体画像内に複数の物体が存在し、それらの物体が部品化されていない場合、異なる物体が重なり合う部分における視差は急激に変化することがある。本発明では立体部品画像を用いて部品毎に符号化を行うため、1つの立体部品画像内においてはこのような視差の急激な変化は起こらない。よって隣合うブロックのローカル視差ベクトルで差分をとることにより、ローカル視差ベクトルの情報量をさらに削減することができる。
【0036】
これらのベクトルは図1の可変長符号化部10に伝送される。減算器18で、右目用画像VOP21と視差補償された画像との差分がとられ、変換部19と量子化部20を通り、可変長符号化部10に伝送される。以下、次の入力に対して、この繰り返しで符号化される。他の立体部品画像についても同様の方式で符号化される。可変長符号化部10に伝送されたデータはそこで可変長符号化され、多重化部21で多重化される。
【0037】
ここでは1つの背景画像とn個の立体部品画像を符号化したが、背景画像は1つに限らず複数でも構わない。また図3において、時間方向にはグローバル視差ベクトルはそれほど急激に変わらないので、現在のグローバル視差ベクトル(例えば左目用画像45と右目用画像46で求められたグローバル視差ベクトル)と1フレームあるいはフィールド前のグローバル視差ベクトル(例えば左目用画像43と右目用画像44で求められたグローバル視差ベクトル)の差分をとることによりグローバル視差ベクトルの情報量を削減することができる。
【0038】
本実施の形態では2眼式の立体部品画像の符号化について述べたが、多視点立体部品画像においても同様に符号化できる。
【0039】
次に本発明における第2の実施の形態について説明する。本実施の形態は第1の実施の形態の符号化装置を、多視点立体画像にも対応できるようにしたものである。このとき背景画像は、第1の実施の形態と同じ方法で符号化する。
【0040】
図6に本発明の画像符号化装置の第2の実施の形態を示す。図6における入力画像は、多視点画像VOPmn(m=1,2,…、n=1,2,…)である。画像VOP11と画像VOP21は、図1の画像VOP11と画像VOP12のときと同じようにそれぞれ符号化する。復号された画像VOP21は加算器51から出力されて、視差補償部53に入力される。さらに画像VOP11と画像VOP21を用いて求めたグローバル視差ベクトルが、視差補償部53に入力される。
【0041】
視差補償部53では、VOP21の復号画像を用いて入力画像VOP31の視差補償を行ない、視差ベクトルを求める。求めた視差ベクトルと画像VOP11と画像VOP21を用いて求めたグローバル視差ベクトルが差分器54に入力され、それらの差分がローカル視差ベクトルとして出力される。すなわち、ここでは新たにグローバル視差ベクトルを求める必要がない。
【0042】
ここで多視点画像であってもグローバル視差を共通にできることについて説明する。説明を簡略化するために3視点をもつ立体部品画像について説明する。
【0043】
例えば図7に示すように、原点をO1、x軸を水平方向、z軸を奥行き方向とした座標系をとる。この座標上にカメラ群Cm(m=1,2,3)をそれぞれaの間隔で光軸がz軸と平行になるように、点Om(m=1,2,3)の位置に配置する。第1の実施の形態と同様に、カメラは上下方向のズレや歪みがないように調整されているものとする。
【0044】
また点A0を立体部品画像obj1の代表点とし、点A0と点Omを結び、カメラの仮想画像面(カメラにより撮影された画像面を示す)と交差する点をそれぞれAm(m=1,2,3)とする。点Omを通り、z軸に平行に伸ばした直線がカメラの仮想画像面と交わる点をそれぞれQm(m=1,2,3)とする。これらの点Qm は各カメラによる画像の中心点を表す。
【0045】
ここでA1、A2、A3のx座標をそれぞれx1、x2、x3とする。カメラの仮想画像面とx軸は平行ゆえ、|A1A2|と|A2A3|は等しくなる。これとx1<x2<x3より、
x1−x2 = x2−x3 (1)
となる。
【0046】
また、カメラC1とC2における視差ベクトルd1は水平成分しかもたないことから、1次元ベクトルであり、ベクトルQ1A1からベクトルQ2A2を引いたものとなるので、
d1 = x1 − (x2−a1) (2)
となる。
【0047】
次にカメラC2とC3における視差ベクトルd2は、ベクトルQ3A3からベクトルQ1A2を引いたものとなり、
d2 = x2 − (x3−a) (3)
となる。
【0048】
よって式(1)〜式(3)より、
d1 = d2 (4)
となる。このように隣合うカメラ間の代表点における視差ベクトルは全て等しくなる。このことは3視点の立体画像に限らず、3以外の視点数の場合も同様である。
【0049】
従って本方式では、グローバル視差ベクトルは代表点における視差ベクトルとみなすことができるので、視点数がいくつであってもグローバル視差ベクトルは1つもてばよく、多視点画像において視差ベクトルを求める際の計算量及び、視差ベクトル自体の情報量が削減できる。
【0050】
ゆえに、図6において、差分器54から出力される値は、視差補償部53から出力された視差ベクトルからVOP11とVOP21の間で求めたグローバル視差ベクトルを引いたローカル視差ベクトルとすることができる。図6における他のVOPについても同様に符号化される。
【0051】
次に本発明における第3の実施の形態について説明する。
【0052】
図8に本実施の形態の画像復号装置を示す。本実施の形態の復号装置は図1の符号化装置を用いて符号化されたデータを復号するためのものである。背景画像と立体部品画像obj1を構成する左目用画像VOP11の復号方法は、一般的なブロックマッチングを用いた動き補償予測復号と同じ方法である。立体部品画像obj1を構成する右目用画像VOP21に対しては、左目用画像VOP11の復号画像を用いて視差補償を行ない、復号する。
【0053】
グローバル視差ベクトルとローカル視差ベクトルは視差ベクトル合成器81に入力され、通常の視差ベクトルが合成される。画像編集部80には、パラメータ入力部82より部品画像を画像面に対して平行に動かすときに用いる移動量と、部品画像を画像面に対して垂直に動かすときに用いるグローバル視差ベクトルの変化量が編集用の値として入力される。画像編集部80には、復号された立体部品画像とグローバル視差ベクトル、及びグローバル視差ベクトルをもつ代表ブロックの位置情報も入力される。画像編集部80は、これらの入力値を用いて立体部品画像の編集を行う。復号された背景画像と編集後の部品画像は画像合成部83で1つの画像に合成される。
【0054】
グローバル視差ベクトルは3次元空間における立体部品画像の奥行き(存在位置)に対応するため、より大きいグローバル視差ベクトルをもつ部品画像は奥行き方向に関してカメラにより近い位置に存在する。画像編集部80では、そのグローバル視差ベクトルが、小さい立体部品画像から順に出力される。また、画像合成部83には、まず背景画像が入力され、順次入力された立体部品画像を背景画像上に上書きする。これにより、最初に入力した左右の各画像の上に、複数の部品画像が重なる場合は、奥行き方向のより手前の部品画像が上に書かれることになる。このようにグローバル視差ベクトルを用いることにより、立体部品画像を合成する際に部品画像の重なりを正しく表現することができる。
【0055】
まず、x方向の移動パラメータを入力することにより、立体部品画像を水平方向に平行移動する場合について説明する。
【0056】
図9において、原点をO1、水平方向をx軸、奥行き方向をz軸とする座標系をとる。この座標上にカメラLとRをそれぞれaの間隔で光軸がz軸と平行になるように、点Om(m=1,2)の位置に配置する。また点A0(xA,zA)を立体部品画像obj1の代表点とし、点A0と点Omを結び、カメラの仮想画像面と交差する点をそれぞれAm(m=1,2)とする。
【0057】
点Omを通り、z軸に平行に伸ばした直線がカメラの仮想画像面と交わる点をそれぞれQm(m=1,2)とする。これらの点Qmは各カメラによる画像の中心点を表す。さらにカメラの仮想画像面からx軸までの距離をwとし、z=zA平面がカメラLの光軸と交わる点をS1、カメラRの光軸と交わる点をS2(a,za)とする。ここでA1、A2の座標をそれぞれ(xa1,w)、(xa2,w)とすると、1次元ベクトルQ1A1、Q2A2はそれぞれxa1、xa2−aとなる。ここで、△O1A0S1∽△O1A1Q1かつ△O2A0S2∽△O2A2Q2より、
zA/w = xA/xa1 = (xA−a)/(xa2−a) (5)
という関係があることから、点A0のx座標xAは、
xA = a×xa1/(xa1−xa2+a) = a×xa1/dA (6)
と表される。dAは物体100のもつグローバル視差ベクトルを表し、
dA = xa1 −(xa2−a) (7)
である。
【0058】
ここで、左画像面上の立体部品画像のx方向移動量を、平行方向の移動パラメータPxで表したとする。パラメータPxを入力とすることにより、物体100は物体101の位置に平行移動したとすると、物体100の代表点A0(xA,zA)は点B0(xB,zA)に、点A1は点B1(xa1+Px,w)に平行移動する。ここで物体101の代表点B0と点O2を結んだ線分がカメラの仮想画像面と交わる点を点B2(xb2,w)とすると、△O1O2A0∽△A1A2A0かつ△O1O2B0∽△B1B2B0より、
zA/(zA−w) = a/(xa2−xa1) = a/(xb2−xa1−Px) (8)
という関係があることから、物体100の代表点A0が物体101の代表点B0に移動したときの右画像面上における移動量xb2−xa2は、
xb2−xa2=Px (9)
となる。
【0059】
よって、物体100の代表点A0 が物体101の代表点B0に移動したときの左右の両画像面上における移動量はPxに等しい。このとき、式(6)、式(7)と同様にして、点B0のx座標xBは、
xB = a×(xa1+Px)/dB (10)
となる。
【0060】
dBは物体101のもつグローバル視差ベクトルを表し、
dB = (xa1+Px)−(xb2−a) (11)
である。
【0061】
式(7)、式(9)、式(11)より、
dA = dB (12)
となり、グローバル視差ベクトルdAとdBは等しくなる。
【0062】
このとき式(6)、式(10)、式(12)より、
xB−xA = Px/xa1×xA (13)
となる。よって物体を水平方向に移動する際は、以下の1)、2)の手順で行なえばよい。
【0063】
1)x方向の移動パラメータPxを入力し、左画像上で物体100の代表点A0のx座標xa1を、左画像上の代表点B0のx座標xa1+Pxの位置に平行に動かす。
【0064】
2)右画像上で、物体100の代表点A0のx座標xa2を、左画像上の代表点B0のx座標xa2+Pxの位置に平行に動かす。
【0065】
この結果、物体100は物体101の位置に移動し、このときの3次元空間内での移動量は式(13)よりPx/xa1×xAとなる。
【0066】
次に、z方向の移動パラメータを入力することにより、立体部品画像を奥行き方向(画像面に対して垂直方向)に移動する場合について図10を用いて説明する。ただし、図10で用いる座標系及び物体100の配置は図9と同じである。z方向の移動パラメータPzによって、移動後のカメラと物体の距離が移動前の距離のPz倍になるとする。図10において、パラメータPzを入力し、物体100が点O1と点A0を通る直線上にある物体102の位置に移動したとすると、物体100の代表点A0(xA,zA)は点C0(xC,zC)に移動するが、点A1は動かない。このとき、
zC = Pz×zA (14)
となる。点O2と点C0を結んだ線分がカメラの仮想画像面と交わる点をC2、z=zCの平面とz軸が交わる点をT1とする。C2の座標をそれぞれ(xc2,w)とし、物体100の点A0を点O1と点A0を通る直線上で移動した後の点C0のグローバル視差ベクトルをdCとする。
【0067】
またxCは、式(6)を求めるときと同様にして、
xC = a×xa1/dC (15)
となる。ここに
dC = (xa1 − xc2 + a) (16)
である。△O1A0S1∽△O1C0T1より、
xC/xA = zC/zA (17)
という関係があることから、式(17)に式(6)と式(15)を代入してzCを求めると、
zC = (dA/dC)×zA (18)
となる。
【0068】
よって式(14)と式(17)よりグローバル視差ベクトルdC、点C0のx座標xC及び点C2の座標xc2は、
dC = dA/Pz (19)
xC = Pz×a×xa1/dA (20)
xc2 = xa1+a − dA/Pz (21)
となる。よって物体100を物体102に動かす場合、左画像上の物体100の代表点A1は動かさず、右画像上の点A2はxc2−xa2だけ動かせばよい。
【0069】
ここで物体102を−(xC−xA)移動させ、それを物体103とする。物体102の代表点C0の移動した点を物体103の代表点D0とする。さらに点D0とO1を結んだ直線がカメラの仮想画像面と交わる点をD1(xd1,w)とする。点D1のx座標xd1は、式(6)、式(19)より
xd1 = xa1/Pz (22)
となる。よって物体102を物体103に動かす場合、左画像上では点B1を、右画像上では点B2をそれぞれxa1−xd1だけ動かせばよい。従って、物体100を奥行き方向(物体103の位置)に移動する場合、以下の3)、4)の手順で行なう。
【0070】
3)z方向の移動パラメータPzを入力し、式(19)によりグローバル視差dCを求め、立体部品画像の左画像上の点A1を水平方向に(xd1−xa1)動かす。
【0071】
4)式(21)及び式(22)より、xc2とxd1の値を求め、立体部品画像の右画像上の点A2を(xc2−xa2+xa1−xd1)動かす。
【0072】
ゆえに視差ベクトルをグローバル視差ベクトルとローカル視差ベクトルの2段階にしてもつことにより、z方向の移動パラメータPzを入力し、グローバル視差ベクトルを変化させて、個々の部品画像の奥行き方向の位置を簡単に変えることができる。また、水平方向の移動(手順1),2))と奥行き方向の移動(手順3),4))を組み合わせることにより、3次元空間内の任意の位置に物体を移動させることができる。
【0073】
なお上下方向の移動に関しては視差は関係がないので、単に画面上で平行移動すればよい。
【0074】
また本実施の形態では2眼式の立体部品画像を用いたが、多視点立体部品画像においても同様である。
【0075】
【発明の効果】
以上説明したように本発明の符号化装置によれば、立体部品画像を符号化するときに用いるすべての視差ベクトルに対して、そのうちの1本の視差ベクトルをグローバル視差ベクトル(3次元空間における立体部品画像の奥行きに対応)とし、このグローバル視差ベクトルと他の視差ベクトルとの差分をとったものをローカル視差ベクトル(立体部品画像内での局所的な奥行き分布に対応)として、視差ベクトルを2つに分けてもつことによって、視差ベクトルの情報量を低減することができ、符号化効率を向上することができる。本発明においては、グローバル視差ベクトルとローカル視差ベクトルの2種類のベクトルを用いるが、これらを求める際の検索は1回でよいので、2回検索する場合と比べて計算量を削減することができる。
【0076】
本発明の符号化装置によれば、立体画像を背景画像と立体部品画像に分けて符号化するとき、全ての視点の画像に対して視差のない部分を1つの背景画像として符号化することによって、背景画像の情報量が低減でき、符号化の効率を向上することができる。
【0077】
本発明の符号化装置によれば、立体画像から切り出した立体部品画像と背景画像に分けて符号化を行なうことによって、立体画像内において急激な視差の変化が生じることがなく、マッチングするときの信頼度が向上し、また隣合う位置のローカル視差ベクトルの差分をとることによりローカル視差ベクトルの情報量を低減する場合でも、絶対量の大きいものが発生しない。
【0078】
本発明の符号化装置によれば、立体部品画像内の全ての視差ベクトルの平均をグローバル視差ベクトルとすることによって、ローカル視差ベクトルの情報量を低減することができる。
【0079】
本発明の符号化装置によれば、立体部品画像内において最初に求めた視差ベクトルをグローバル視差ベクトルとすることによって、グローバル視差ベクトルを選択する際の計算量が低減される。
【0080】
本発明の符号化装置によれば、立体部品画像内における視差ベクトルの大きさをヒストグラムにして、最も発生頻度の多い視差ベクトルをグローバル視差ベクトルとすることによって、3次元空間における立体部品画像の奥行きを適切に表現することができる。
【0081】
本発明の符号化装置によれば、現フレームあるいはフィールドのグローバル視差ベクトルと1つ前のフレームあるいはフィールドのグローバル視差ベクトルの差分をとることによって、グローバル視差ベクトルの情報量を減らすことができる。
【0082】
本発明の符号化装置によれば、空間方向に関して、1つの多視点立体部品画像に対してグローバル視差ベクトルは1つもてばよいので、グローバル視差ベクトルの計算量及び情報量が低減でき、符号化の効率を向上することができる。
【0083】
本発明の復号装置において、多視点の各画像を合成する際に複数の部品画像が重なる部分では、より大きいグローバル視差をもつ部品画像を上書きすることによって、重なりが正しく表現された多視点立体画像を復号することができる。
【0084】
本発明の復号装置において、奥行き方向の移動パラメータを入力し、立体部品画像のグローバル視差ベクトルの値を変えることによって、簡単に任意の奥行きをもつ立体部品画像を復号することができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態であり、背景画像と複数の立体部品画像を符号化する符号化装置の構成図である。
【図2】 カメラによる入力画像から立体部品画像を切り出すことを説明する図である。
【図3】立体部品画像の符号化を行なう順序を説明する図である。
【図4】視差ベクトルの算出例を説明する図である。
【図5】視差ベクトルをグローバル視差ベクトルとローカル視差ベクトルで表すことを説明する図である。
【図6】本発明の別の一実施の形態であり、多視点立体部品画像を符号化するときの符号化装置の構成図である。
【図7】多視点立体部品画像を符号化する際に、空間方向に対しグローバル視差ベクトルを共通にもつことを説明する図である。
【図8】本発明の一実施の形態であり、背景画像と複数の立体部品画像を復号する復号装置の構成図である。
【図9】立体部品画像の平行移動を説明する図である。
【図10】立体部品画像の奥行き方向の移動を説明する図である。
【図11】多視点画像の圧縮に関する従来例の説明図である。
【図12】2段階の動きベクトルを求める従来例の説明図である。
【符号の説明】
1 背景画像
2 原画像
3 切り出し装置
43,44,45,46 立体部品画像
5 画像入力部
6 動き補償部
7,18 減算器
8,19 変換部
9,20 量子化部
10 可変長符号化部
11 逆量子化部
12 逆変換部
13,15,51 加算器
14 フレームメモリ
16,53 視差補償部
17,52 視差ベクトル分割器
21 多重化部
31 左目用立体部品画像
32 右目用立体部品画像
33 合成画像
54 差分器
60 比較器
70 大ブロック
71 小ブロック
80 編集部
81 視差ベクトル合成器
82 外部入力部
83 画像合成部
100,101,102,103 物体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a high-efficiency encoding and decoding apparatus for multi-view images using motion compensation or parallax compensation prediction, particularly in high-efficiency image encoding and decoding.
[0002]
[Prior art]
In multi-view image encoding, encoding efficiency is improved by combining motion compensation, which is commonly used for moving image encoding, and parallax compensation for images with different viewpoints. The method of making it known is well known. For example, according to the literature (WA Sup, Yasuda, “Data compression of stereo moving images using parallax compensation and motion compensation”, PCSJ88 (1988), pp. 63-64), as shown in FIG. Only motion compensation is performed on the right image. For the left image, a compensation method with a smaller prediction error is selected from among parallax compensation and motion compensation, and is encoded.
[0003]
Japanese Patent Laid-Open No. 6-113283 discloses an example in which a motion vector is obtained by changing the block size when performing motion compensation by block matching in moving image encoding. In this method, as shown in FIG. 12, first, motion compensation is performed using the small block 71 to obtain a motion vector for the small block 71 (hereinafter abbreviated as a small block vector). A plurality of small blocks 71 are collected to form a large block, motion compensation is performed, and a motion vector for the large block (hereinafter abbreviated as a large block vector) is obtained.
[0004]
Assuming that the large block 70 is composed of four small blocks, the small block vector exists within a predetermined range with respect to the large block vector, and the number of small block vectors existing therein exceeds a predetermined threshold. In this case, the amount of motion vector information is reduced by transmitting a large block vector and a difference between the small block vector and the large block vector.
[0005]
[Problems to be solved by the invention]
However, in the conventional method, when performing parallax compensation, the parallax compensation is performed on all the parts with parallax and the parts without parallax. In addition, the size of the obtained disparity vector is usually larger than the size of the motion vector obtained in motion compensation, and is encoded with the size as it is, so that the encoding efficiency of the disparity vector is not good. There is a point.
[0006]
In this method, since it is selectively determined whether to use motion compensation or parallax compensation, the parallax vector is not necessarily transmitted. Therefore, when a plurality of objects are stereoscopically displayed, editing such as changing only the depth of some objects cannot be performed.
[0007]
On the other hand, in the method of encoding a moving image with two types of motion vectors, a large block and a small block, the amount of calculation becomes enormous because it is necessary to perform a two-stage search over the entire screen. Further, since the large block is composed of a plurality of small blocks, only two types of vectors having different degrees of reliability and their differences are obtained, and there is no difference in physical meaning between these vectors. Further, since these two types of motion vectors cannot have different actions, it is difficult to use them for component image editing.
[0008]
The object of the present invention is to improve the encoding efficiency of a disparity vector by dividing the disparity vector into two stages while realizing highly efficient encoding by using motion compensation and disparity compensation prediction in the encoding of multi-viewpoint images. To provide a parallax compensation encoding and decoding apparatus that can reduce the amount of calculation when obtaining a parallax vector and can easily edit a three-dimensional component image using a parallax vector divided into two stages. is there.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the encoding apparatus of the present invention divides and inputs a multi-viewpoint stereoscopic image into at least one component image with parallax and at least one background image without parallax, A motion compensation unit that performs motion compensation prediction using a motion amount between frames or fields, a parallax compensation unit that performs parallax compensation prediction using a parallax amount between frames or fields of a component image, and a disparity vector division unit A multi-viewpoint encoding apparatus provided for each component image, wherein the disparity vector dividing unit sets one of the disparity vectors obtained by the disparity compensation unit as a global disparity vector, and determines a global disparity vector from the remaining disparity vectors. A value obtained by subtracting is output as a local disparity vector.
[0010]
In the encoding device of the present invention, an input means for dividing and inputting a multi-view stereoscopic image having three or more viewpoints into at least one component image having parallax and at least one background image having no parallax, and a frame of the component image or Each component image includes a motion compensation unit that performs motion compensation prediction using a motion amount between fields, and a parallax compensation unit that performs parallax compensation prediction using a parallax amount between frames or fields of component images. A multi-viewpoint encoding apparatus including one disparity vector dividing unit and at least one differentiator for each component image, wherein the disparity vector dividing unit calculates one of disparity vectors obtained between specific viewpoints. When the global disparity vector is output and the remaining disparity vector minus the global disparity vector is output as the local disparity vector Moni, the differentiator is characterized by outputting a difference between all the disparity vector and the global parallax vector obtained between other viewpoints.
[0011]
In the present invention, the average of all the parallax vectors in the three-dimensional component image may be used as the global parallax vector.
[0012]
In the present invention, the parallax vector obtained first in the three-dimensional component image may be used as the global parallax vector.
[0013]
In the present invention, the parallax vector having the highest frequency of occurrence may be used as the global parallax vector by using the magnitude of the parallax vector in the three-dimensional component image as a histogram.
[0014]
In the present invention, the difference between the current frame or field global disparity vector and the previous frame or field global disparity vector may be used as the current frame or field global disparity vector.
[0015]
In the present invention, a difference from the local parallax vector obtained immediately before may be used as the local parallax vector.
[0016]
In the decoding device of the present invention, the multi-view image decoding device includes a motion compensation unit that performs motion compensation and a parallax compensation unit that performs parallax compensation using the motion amount and the parallax amount between frames or fields of a multi-view stereoscopic image. A parallax vector synthesizing unit that outputs the parallax vector to the parallax compensation unit using the input global parallax vector and the local parallax vector, a parameter input unit that outputs a movement parameter in the depth direction to the image editing unit, and an input The image editing means for changing the depth of the three-dimensional component image using the set parameters and outputting it to the image synthesizing means, and the image synthesizing means for synthesizing the input background image and the three-dimensional component image are provided.
[0017]
In the present invention, the image editing unit sequentially outputs a three-dimensional component image having a small global parallax vector, and the image synthesizing unit outputs the three-dimensional component image sequentially input after the background image is input on the background image. You may make it synthesize | combine an image by overwriting.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail.
[0019]
FIG. 1 shows a first embodiment of an image encoding apparatus according to the present invention. This embodiment is a twin-lens example, and an image input to this image encoding apparatus is a background image without parallax and a three-dimensional component image with parallax. Both the background image and the three-dimensional component image may be either a still image or a moving image, but both are assumed to be moving images here.
[0020]
Here, for example, as shown in FIG. 2, the three-dimensional component image is an image obtained by inputting a stereo image 2 photographed by arranging two cameras in parallel to the
[0021]
First, a background image encoding method will be described with reference to FIG. In moving picture coding, a method called motion compensation predictive coding using block matching in which a coding unit is coded as a block (for example, composed of 16 × 16 pixels) is well known. In the present embodiment, the background image encoding method is the same as the motion compensated prediction encoding method using block matching. For example, background image VOP 0 The motion compensation unit 6 performs motion compensation using the decoded image of the previous frame or field, and the detected motion vector is transmitted to the variable
[0022]
Then the background image VOP is subtracted by the subtractor 7 0 The difference between the motion compensated images is taken, and the difference data is transmitted to the variable
[0023]
Next, encoding of a three-dimensional component image will be described. Solid part image obj 1 The order of encoding the will be described with reference to FIG. Encoding is performed according to the following procedures (a) to (d).
[0024]
(A) Solid part image obj 1 The left-
[0025]
(B) Frame or inter-field coding is performed on the right-
[0026]
(C) The
[0027]
(D) By the parallax compensation using the decoded image of the
[0028]
That is, the left-eye image is encoded by motion compensation, and the right-eye image is encoded by parallax compensation using the left-eye image at the same time. Thereafter, encoding is performed by repeating the procedures (c) and (d). However, when encoding by repeating the procedures of (c) and (d), encoding by the procedures of (a) and (b) is performed instead of the procedures of (c) and (d) in order to prevent propagation of prediction errors. , It may be performed at a constant cycle.
[0029]
In FIG. 1, the three-dimensional component image obj 1 Left-eye image VOP 11 The encoding is performed in the same manner as in the background image encoding. Similarly three-dimensional part image obj 1 Right-eye image VOP twenty one Is the left-eye image VOP 11 Using the decoded image, parallax compensation by block matching is performed and encoding is performed. At this time, the right-eye image VOP is sent to the
[0030]
The parallax vector is obtained by superimposing the left-
[0031]
That is, in the three-dimensional component image, the global parallax vector represents the parallax of one predetermined block, and the local parallax vector is obtained by subtracting the global parallax vector from the parallax of other blocks. For example, as shown in FIG. 1 Is the global disparity vector GV, the disparity vector v 2 The global disparity vector GV minus the local disparity vector LV 2 And the disparity vector v 2 Is GV + LV 2 Can be expressed as
[0032]
Therefore, k (k = 1, 2,...) Disparity vectors can be represented by one global disparity vector and k−1 local disparity vectors. At this time, the global disparity vector corresponds to the depth (existing position) of the three-dimensional component image in the three-dimensional space, and the local disparity vector corresponds to the local depth distribution (three-dimensional shape) in the three-dimensional component image.
[0033]
At this time, the information amount of the local parallax vector can be reduced by setting the average of all the parallax vectors as the global parallax vector. The parallax vector obtained first may be used as a global parallax vector, which reduces the amount of calculation when selecting the global parallax vector. Further, the position of the three-dimensional component image in the three-dimensional space can be appropriately expressed by using the magnitude of the parallax vector as a histogram and the parallax vector with the highest occurrence frequency as the global parallax vector.
[0034]
In general, the number of disparity vectors can be reduced by having one global disparity vector and k-1 local disparity vectors having a smaller value than that having k disparity vectors.
[0035]
Also, in a stereoscopic image, there is little change in the amount of parallax between adjacent blocks in the stereoscopic image, but when there are multiple objects in the stereoscopic image and these objects are not componentized, the parallax in the part where different objects overlap May change rapidly. In the present invention, since encoding is performed for each component using a three-dimensional component image, such a rapid change in parallax does not occur in one three-dimensional component image. Therefore, the information amount of the local parallax vector can be further reduced by taking the difference between the local parallax vectors of adjacent blocks.
[0036]
These vectors are transmitted to the variable
[0037]
Here, one background image and n number of three-dimensional component images are encoded, but the number of background images is not limited to one and may be plural. In FIG. 3, since the global disparity vector does not change so rapidly in the time direction, the current global disparity vector (for example, the global disparity vector obtained from the left-
[0038]
In the present embodiment, encoding of a twin-lens stereoscopic component image has been described. However, encoding can be similarly performed in a multi-viewpoint stereoscopic component image.
[0039]
Next, a second embodiment of the present invention will be described. In the present embodiment, the encoding apparatus according to the first embodiment is adapted to support multi-viewpoint stereoscopic images. At this time, the background image is encoded by the same method as in the first embodiment.
[0040]
FIG. 6 shows a second embodiment of the image coding apparatus according to the present invention. The input image in FIG. 6 is a multi-viewpoint image VOP. mn (M = 1, 2,..., N = 1, 2,...). Image VOP 11 And image VOP twenty one Is the image VOP in FIG. 11 And image VOP 12 Each is encoded in the same manner as in the above. Decoded image VOP twenty one Is output from the adder 51 and input to the
[0041]
In the
[0042]
Here, it will be described that global parallax can be shared even for multi-viewpoint images. In order to simplify the description, a three-dimensional component image having three viewpoints will be described.
[0043]
For example, as shown in FIG. 1 , A coordinate system in which the x-axis is the horizontal direction and the z-axis is the depth direction. Camera group C on this coordinate m (M = 1, 2, 3) at intervals of a, the point O so that the optical axis is parallel to the z-axis. m It arrange | positions in the position of (m = 1,2,3). As in the first embodiment, it is assumed that the camera is adjusted so that there is no vertical displacement or distortion.
[0044]
Point A 0 3D part image obj 1 Point A and point A 0 And point O m And the points intersecting the virtual image plane of the camera (showing the image plane taken by the camera) m (M = 1, 2, 3). Point O m Each point where a straight line extending in parallel with the z-axis intersects the virtual image plane of the camera m (M = 1, 2, 3). These points Q m Represents the center point of the image from each camera.
[0045]
Where A 1 , A 2 , A Three X coordinates of x 1 , X 2 , X Three And Since the virtual image plane of the camera and the x-axis are parallel, | A 1 A 2 | And | A 2 A Three | Is equal. This and x 1 <X 2 <X Three Than,
x 1 -X 2 = X 2 -X Three (1)
It becomes.
[0046]
Camera C 1 And C 2 Disparity vector d 1 Is a one-dimensional vector since it has only a horizontal component, and the vector Q 1 A 1 To vector Q 2 A 2 So that
d 1 = X 1 − (X 2 -A 1 (2)
It becomes.
[0047]
Next, camera C 2 And C Three Disparity vector d 2 Is the vector Q Three A Three To vector Q 1 A 2 Minus
d 2 = X 2 − (X Three -A) (3)
It becomes.
[0048]
Therefore, from Formula (1)-Formula (3),
d 1 = D 2 (4)
It becomes. In this way, the parallax vectors at the representative points between adjacent cameras are all equal. This is not limited to a three-viewpoint stereoscopic image, and the same applies to the case of a viewpoint number other than three.
[0049]
Therefore, in this method, since the global disparity vector can be regarded as a disparity vector at a representative point, only one global disparity vector is required regardless of the number of viewpoints, and calculation for obtaining a disparity vector in a multi-viewpoint image is possible. The amount of information and the amount of information of the disparity vector itself can be reduced.
[0050]
Therefore, in FIG. 6, the value output from the differentiator 54 is calculated from the disparity vector output from the
[0051]
Next, a third embodiment of the present invention will be described.
[0052]
FIG. 8 shows an image decoding apparatus according to the present embodiment. The decoding apparatus of this embodiment is for decoding data encoded using the encoding apparatus of FIG. Background image and 3D part image obj 1 Left-eye image VOP 11 This decoding method is the same method as motion compensation predictive decoding using general block matching. Solid part image obj 1 Right-eye image VOP twenty one For the left-eye image VOP 11 The decoded image is used to perform parallax compensation and decode.
[0053]
The global disparity vector and the local disparity vector are input to the
[0054]
Since the global parallax vector corresponds to the depth (existing position) of the three-dimensional part image in the three-dimensional space, the part image having a larger global parallax vector exists at a position closer to the camera in the depth direction. In the image editing unit 80, the global parallax vector is output in order from the smallest three-dimensional component image. Further, a background image is first input to the
[0055]
First, a description will be given of a case where a three-dimensional component image is translated in the horizontal direction by inputting a movement parameter in the x direction.
[0056]
In FIG. 9, the origin is O 1 The coordinate system has an x axis in the horizontal direction and a z axis in the depth direction. On this coordinate, the points O and L are arranged so that the optical axis is parallel to the z-axis at intervals of a. m It arrange | positions at the position of (m = 1, 2). Point A 0 (X A , Z A ) The three-dimensional image obj 1 Point A and point A 0 And point O m , And each point that intersects the virtual image plane of the camera m (M = 1, 2).
[0057]
Point O m Each point where a straight line extending in parallel with the z-axis intersects the virtual image plane of the camera m (M = 1, 2). These points Q m Represents the center point of the image from each camera. Further, the distance from the virtual image plane of the camera to the x axis is w, and z = z A The point where the plane intersects the optical axis of camera L is S 1 , The point that intersects the optical axis of camera R is S 2 (A, z a ). Where A 1 , A 2 The coordinates of (x a1 , W), (x a2 , W), the one-dimensional vector Q 1 A 1 , Q 2 A 2 Are each x a1 , X a2 -A. Where △ O 1 A 0 S 1 ∽ △ O 1 A 1 Q 1 And △ O 2 A 0 S 2 ∽ △ O 2 A 2 Q 2 Than,
z A / W = x A / X a1 = (X A -A) / (x a2 -A) (5)
Point A 0 X coordinate x A Is
x A = A × x a1 / (X a1 -X a2 + A) = a × x a1 / D A (6)
It is expressed. d A Represents the global disparity vector of the
d A = X a1 -(X a2 -A) (7)
It is.
[0058]
Here, the amount of movement in the x direction of the three-dimensional component image on the left image plane is set as the parallel movement parameter P x Suppose that Parameter P x , If the
z A / (Z A −w) = a / (x a2 -X a1 ) = A / (x b2 -X a1 -P x (8)
Therefore, the representative point A of the
x b2 -X a2 = P x (9)
It becomes.
[0059]
Therefore, the representative point A of the
x B = A × (x a1 + P x ) / D B (10)
It becomes.
[0060]
d B Represents the global disparity vector of the
d B = (X a1 + P x )-(X b2 -A) (11)
It is.
[0061]
From Equation (7), Equation (9), and Equation (11),
d A = D B (12)
And the global disparity vector d A And d B Are equal.
[0062]
At this time, from Equation (6), Equation (10), and Equation (12),
x B -X A = P x / X a1 X A (13)
It becomes. Therefore, when the object is moved in the horizontal direction, the following steps 1) and 2) may be performed.
[0063]
1) Movement parameter P in the x direction x And the representative point A of the
[0064]
2) The representative point A of the
[0065]
As a result, the
[0066]
Next, a case where the three-dimensional component image is moved in the depth direction (perpendicular to the image plane) by inputting a movement parameter in the z direction will be described with reference to FIG. However, the arrangement of the coordinate system and the
z C = P z Xz A (14)
It becomes. Point O 2 And point C 0 The point where the line segment connecting the crosses the virtual image plane of the camera is C 2 , Z = z C The point where the z plane intersects the plane of T 1 And C 2 The coordinates of (x c2 , W) and point A of the
[0067]
X C Is the same as when calculating Equation (6),
x C = A × x a1 / D C (15)
It becomes. here
d C = (X a1 -X c2 + A) (16)
It is. △ O 1 A 0 S 1 ∽ △ O 1 C 0 T 1 Than,
x C / X A = Z C / Z A (17)
Therefore, by substituting Equation (6) and Equation (15) into Equation (17), z C Ask for
z C = (D A / D C ) Xz A (18)
It becomes.
[0068]
Therefore, the global disparity vector d is obtained from the equations (14) and (17). C , Point C 0 X coordinate x C And point C 2 Coordinate x c2 Is
d C = D A / P z (19)
x C = P z × a × x a1 / D A (20)
x c2 = X a1 + A-d A / P z (21)
It becomes. Therefore, when moving the
[0069]
Here, the
x d1 = X a1 / P z (22)
It becomes. Therefore, when moving the
[0070]
3) z-direction movement parameter P z And the global parallax d according to equation (19) C The point A1 on the left image of the three-dimensional component image is d1 -X a1 )move.
[0071]
4) From equation (21) and equation (22), x c2 And x d1 And the point A on the right image of the three-dimensional component image 2 (X c2 -X a2 + X a1 -X d1 )move.
[0072]
Therefore, the movement parameter P in the z direction is obtained by making the disparity vector into two stages of the global disparity vector and the local disparity vector. z And changing the global parallax vector, the position of each component image in the depth direction can be easily changed. Further, by combining the horizontal movement (procedures 1) and 2)) and the depth movement (
[0073]
It should be noted that since the parallax is not related to the movement in the vertical direction, it may be simply moved in parallel on the screen.
[0074]
In the present embodiment, a twin-lens three-dimensional component image is used, but the same applies to a multi-view three-dimensional component image.
[0075]
【The invention's effect】
As described above, according to the encoding device of the present invention, for all the disparity vectors used when encoding a three-dimensional component image, one of the disparity vectors is converted into a global disparity vector (a three-dimensional space in a three-dimensional space). Corresponding to the depth of the component image), and the difference between this global disparity vector and another disparity vector is taken as the local disparity vector (corresponding to the local depth distribution in the three-dimensional component image), and the disparity vector is 2 By dividing the information into two, the information amount of the disparity vector can be reduced, and the encoding efficiency can be improved. In the present invention, two types of vectors, a global disparity vector and a local disparity vector, are used. However, since the search for obtaining these vectors may be performed once, the amount of calculation can be reduced as compared with the case of searching twice. .
[0076]
According to the encoding apparatus of the present invention, when a stereoscopic image is encoded by dividing it into a background image and a stereoscopic component image, by encoding a part having no parallax as a single background image for all viewpoint images. Therefore, the amount of information of the background image can be reduced, and the encoding efficiency can be improved.
[0077]
According to the encoding device of the present invention, when encoding is performed separately for a three-dimensional component image cut out from a three-dimensional image and a background image, a sudden change in parallax does not occur in the three-dimensional image, and matching is performed. Even when the reliability is improved and the information amount of the local parallax vector is reduced by taking the difference between the local parallax vectors at adjacent positions, a large absolute amount is not generated.
[0078]
According to the encoding apparatus of the present invention, the information amount of the local parallax vector can be reduced by setting the average of all the parallax vectors in the three-dimensional component image as the global parallax vector.
[0079]
According to the encoding device of the present invention, the amount of calculation when selecting a global disparity vector is reduced by using the first disparity vector obtained in the three-dimensional component image as the global disparity vector.
[0080]
According to the encoding device of the present invention, the depth of the three-dimensional component image in the three-dimensional space is obtained by setting the magnitude of the disparity vector in the three-dimensional component image as a histogram and setting the most frequently occurring disparity vector as the global disparity vector. Can be expressed appropriately.
[0081]
According to the encoding apparatus of the present invention, the information amount of the global disparity vector can be reduced by calculating the difference between the global disparity vector of the current frame or field and the global disparity vector of the previous frame or field.
[0082]
According to the encoding apparatus of the present invention, since only one global disparity vector is required for one multi-viewpoint three-dimensional component image with respect to the spatial direction, the amount of calculation and the amount of information of the global disparity vector can be reduced. Efficiency can be improved.
[0083]
In the decoding apparatus of the present invention, when a plurality of component images overlap when a plurality of component images are combined, a component image having a larger global parallax is overwritten to overwrite a multi-view stereoscopic image in which the overlap is correctly expressed. Can be decrypted.
[0084]
In the decoding device of the present invention, a three-dimensional component image having an arbitrary depth can be easily decoded by inputting a movement parameter in the depth direction and changing the value of the global parallax vector of the three-dimensional component image.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an encoding apparatus that encodes a background image and a plurality of three-dimensional component images according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining cutting out a three-dimensional component image from an input image by a camera.
FIG. 3 is a diagram illustrating an order in which a three-dimensional component image is encoded.
FIG. 4 is a diagram illustrating an example of calculating a disparity vector.
FIG. 5 is a diagram illustrating that a disparity vector is represented by a global disparity vector and a local disparity vector.
FIG. 6 is a configuration diagram of an encoding apparatus when encoding a multi-viewpoint three-dimensional component image according to another embodiment of the present invention.
FIG. 7 is a diagram for explaining that a global parallax vector is shared in the spatial direction when a multi-viewpoint three-dimensional component image is encoded.
FIG. 8 is a configuration diagram of a decoding apparatus that decodes a background image and a plurality of three-dimensional component images according to an embodiment of the present invention.
FIG. 9 is a diagram for explaining parallel movement of a three-dimensional component image.
FIG. 10 is a diagram for explaining movement in the depth direction of a three-dimensional component image.
FIG. 11 is an explanatory diagram of a conventional example relating to compression of a multi-viewpoint image.
FIG. 12 is an explanatory diagram of a conventional example for obtaining a two-stage motion vector.
[Explanation of symbols]
1 Background image
2 Original image
3 Cutting device
43, 44, 45, 46 3D parts image
5 Image input section
6 Motion compensation unit
7,18 subtractor
8,19 Conversion unit
9,20 Quantization unit
10 Variable length coding unit
11 Inverse quantization section
12 Inverse conversion unit
13, 15, 51 Adder
14 frame memory
16, 53 Parallax compensation unit
17, 52 Parallax vector divider
21 Multiplexer
31 Three-dimensional image for left eye
32 Three-dimensional image for right eye
33 Composite image
54 Differentiator
60 comparator
70 large blocks
71 small blocks
80 editorial department
81 Disparity vector synthesizer
82 External input section
83 Image composition unit
100, 101, 102, 103 objects
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8221596A JP3693407B2 (en) | 1996-04-04 | 1996-04-04 | Multi-view image encoding apparatus and decoding apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8221596A JP3693407B2 (en) | 1996-04-04 | 1996-04-04 | Multi-view image encoding apparatus and decoding apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09275578A JPH09275578A (en) | 1997-10-21 |
JP3693407B2 true JP3693407B2 (en) | 2005-09-07 |
Family
ID=13768205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8221596A Expired - Fee Related JP3693407B2 (en) | 1996-04-04 | 1996-04-04 | Multi-view image encoding apparatus and decoding apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3693407B2 (en) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1551189A4 (en) | 2002-09-27 | 2009-01-07 | Sharp Kk | 3-d image display unit, 3-d image recording device and 3-d image recording method |
JP4713054B2 (en) * | 2002-09-27 | 2011-06-29 | シャープ株式会社 | Stereo image display device, stereo image encoding device, stereo image decoding device, stereo image recording method, and stereo image transmission method |
KR100946790B1 (en) * | 2005-01-07 | 2010-03-11 | 니폰덴신뎅와 가부시키가이샤 | Video encoding method and apparatus, video decoding method and apparatus, recording medium recording those programs |
JP5020953B2 (en) | 2005-07-18 | 2012-09-05 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | Predictive encoding / decoding apparatus and method using temporal and inter-view reference video buffer |
TW200806040A (en) | 2006-01-05 | 2008-01-16 | Nippon Telegraph & Telephone | Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs |
WO2007110000A1 (en) * | 2006-03-29 | 2007-10-04 | Huawei Technologies Co., Ltd. | A method and device of obtaining disparity vector and its multi-view encoding-decoding |
WO2008035665A1 (en) * | 2006-09-20 | 2008-03-27 | Nippon Telegraph And Telephone Corporation | Image encoding method, decoding method, device thereof, image decoding device, program thereof, and storage medium containing the program |
WO2008035654A1 (en) * | 2006-09-20 | 2008-03-27 | Nippon Telegraph And Telephone Corporation | Image encoding and decoding methods, their devices, image decoding device, their programs, and storage medium in which programs are recorded |
KR101366092B1 (en) | 2006-10-13 | 2014-02-21 | 삼성전자주식회사 | Method and apparatus for encoding and decoding multi-view image |
ES2439444T3 (en) * | 2006-10-30 | 2014-01-23 | Nippon Telegraph And Telephone Corporation | Coding method and video decoding method, devices for them, programs for them and storage media stored by the programs |
KR101059178B1 (en) | 2006-12-28 | 2011-08-25 | 니폰덴신뎅와 가부시키가이샤 | Video encoding method and decoding method, their apparatus, storage medium recording their program |
JP4660463B2 (en) * | 2006-12-28 | 2011-03-30 | 三菱電機株式会社 | Stereo image encoding device |
KR100823287B1 (en) * | 2007-01-03 | 2008-04-21 | 삼성전자주식회사 | Method and apparatus for encoding and decoding multiview image using global difference vector |
KR20080066522A (en) * | 2007-01-11 | 2008-07-16 | 삼성전자주식회사 | Method and apparatus for encoding and decoding multiview image |
US8548261B2 (en) | 2007-04-11 | 2013-10-01 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding multi-view image |
JP4895044B2 (en) * | 2007-09-10 | 2012-03-14 | 富士フイルム株式会社 | Image processing apparatus, image processing method, and program |
JP4851564B2 (en) * | 2009-06-15 | 2012-01-11 | 日本電信電話株式会社 | Video encoding method, video decoding method, video encoding program, video decoding program, and computer-readable recording medium on which these programs are recorded |
JP4851563B2 (en) * | 2009-06-15 | 2012-01-11 | 日本電信電話株式会社 | Video encoding method, video decoding method, video encoding program, video decoding program, and computer-readable recording medium on which these programs are recorded |
JP5754044B2 (en) * | 2010-09-21 | 2015-07-22 | オリンパス株式会社 | Imaging apparatus and image communication system |
JP5355606B2 (en) * | 2011-03-03 | 2013-11-27 | 日本電信電話株式会社 | Stereo video encoding method, apparatus, and program |
KR20130001541A (en) * | 2011-06-27 | 2013-01-04 | 삼성전자주식회사 | Method and apparatus for restoring resolution of multi-view image |
US9525861B2 (en) * | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
JP6681609B2 (en) * | 2012-04-09 | 2020-04-15 | サン パテント トラスト | Image coding method and image decoding method |
US9521389B2 (en) * | 2013-03-06 | 2016-12-13 | Qualcomm Incorporated | Derived disparity vector in 3D video coding |
JP5858119B2 (en) * | 2014-10-15 | 2016-02-10 | 富士通株式会社 | Moving picture decoding method, moving picture encoding method, moving picture decoding apparatus, and moving picture decoding program |
-
1996
- 1996-04-04 JP JP8221596A patent/JP3693407B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09275578A (en) | 1997-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3693407B2 (en) | Multi-view image encoding apparatus and decoding apparatus | |
JP7143905B2 (en) | Image processing device and method | |
JP3231618B2 (en) | 3D image encoding / decoding system | |
JP2000078611A (en) | Stereoscopic video image receiver and stereoscopic video image system | |
US5617334A (en) | Multi-viewpoint digital video coder/decoder and method | |
US5619256A (en) | Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions | |
KR100334722B1 (en) | Method and the apparatus for generating stereoscopic image using MPEG data | |
US11223812B2 (en) | Image processing apparatus and image processing method | |
JP3776595B2 (en) | Multi-viewpoint image compression encoding apparatus and decompression decoding apparatus | |
US11290698B2 (en) | Image processing apparatus and image processing method | |
Ohm et al. | A realtime hardware system for stereoscopic videoconferencing with viewpoint adaptation | |
KR20150046154A (en) | Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium | |
KR20140092910A (en) | Stereoscopic video coding device, stereoscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program | |
JPWO2011105337A1 (en) | Multi-view video encoding method, multi-view video decoding method, multi-view video encoding device, multi-view video decoding device, and program | |
JP7202087B2 (en) | Video processing device | |
US11889115B2 (en) | Method and device for multi-view video decoding and method and device for image processing | |
JP2008034892A (en) | Multi-viewpoint image encoder | |
US7706621B2 (en) | Method and an apparatus to divide image blocks | |
JPH0698312A (en) | High efficiency picture coding system | |
JPH10191393A (en) | Multi-view-point image coder | |
JPH10243419A (en) | Stereoscopic image encoding / decoding method and apparatus | |
KR100757259B1 (en) | How to convert 2D image to 3D image using motion vector of compressed video | |
JP4815004B2 (en) | Multi-view image encoding device | |
KR101289269B1 (en) | An apparatus and method for displaying image data in image system | |
EP4262210A1 (en) | Decoding method, inter-view prediction method, decoder, and encoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050421 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050621 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090701 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100701 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110701 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110701 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120701 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120701 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130701 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |