JPH06269025A - 多眼式立体映像の符号化方式 - Google Patents
多眼式立体映像の符号化方式Info
- Publication number
- JPH06269025A JPH06269025A JP5587793A JP5587793A JPH06269025A JP H06269025 A JPH06269025 A JP H06269025A JP 5587793 A JP5587793 A JP 5587793A JP 5587793 A JP5587793 A JP 5587793A JP H06269025 A JPH06269025 A JP H06269025A
- Authority
- JP
- Japan
- Prior art keywords
- correction value
- correction
- camera
- unit
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 19
- 238000012937 correction Methods 0.000 claims abstract description 112
- 239000013598 vector Substances 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 claims description 28
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 18
- 241000238413 Octopus Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Landscapes
- Studio Circuits (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
(57)【要約】
【目的】 各カメラ間の位置ズレを矯正した多眼式立体
映像データを高能率に符号化できる方式を実現する。 【構成】 複数のカメラからの多眼式立体映像信号の内
の所定のカメラからの映像信号を基準として他のカメラ
からの映像信号とのブロックマッチングを取ることによ
り補正値を算出し、該補正値に基づき各カメラからの映
像信号を補正する。
映像データを高能率に符号化できる方式を実現する。 【構成】 複数のカメラからの多眼式立体映像信号の内
の所定のカメラからの映像信号を基準として他のカメラ
からの映像信号とのブロックマッチングを取ることによ
り補正値を算出し、該補正値に基づき各カメラからの映
像信号を補正する。
Description
【0001】
【産業上の利用分野】本発明は符号化方式に関し、特に
多眼式立体映像データを高能率に符号化する方式に関す
るものである。
多眼式立体映像データを高能率に符号化する方式に関す
るものである。
【0002】2眼式以上多眼式の立体映像を出力するカ
メラの位置が不揃いであること等によって生ずる画像の
位置の歪みを位置補正する必要がある。
メラの位置が不揃いであること等によって生ずる画像の
位置の歪みを位置補正する必要がある。
【0003】
【従来の技術】図20には既に1992年にNHK技術
研究所で公開された多眼式立体映像を作る場合のシステ
ムの概念構成が示されており、まず、静止或いは動いて
いる被写体(タコ)100を、位置をタテ及びヨコに少
しづつずらした複数のカメラ群110で撮影する。次
に、複数のカメラ群110から得られた画像データを符
号器120で高能率符号化し、多重化部130でマルチ
プレクスした後、伝送路140などを介して伝送し、受
信側では分離部140でデマルチプレクスした後に復号
化を行い、ディスプレイ160に映し出す。
研究所で公開された多眼式立体映像を作る場合のシステ
ムの概念構成が示されており、まず、静止或いは動いて
いる被写体(タコ)100を、位置をタテ及びヨコに少
しづつずらした複数のカメラ群110で撮影する。次
に、複数のカメラ群110から得られた画像データを符
号器120で高能率符号化し、多重化部130でマルチ
プレクスした後、伝送路140などを介して伝送し、受
信側では分離部140でデマルチプレクスした後に復号
化を行い、ディスプレイ160に映し出す。
【0004】この出力側のディスプレイ160は、一例
としてレンチキュラ・レンズ(ヨコ方向にのみ視差があ
る場合)または、ハエの眼レンズ(タテ・ヨコ方向に視
差がある場合)が使用される。
としてレンチキュラ・レンズ(ヨコ方向にのみ視差があ
る場合)または、ハエの眼レンズ(タテ・ヨコ方向に視
差がある場合)が使用される。
【0005】一例として、図21に、タコを被写体とし
たときの、タテ5眼、ヨコ5眼の、それぞれのカメラか
らの出力を分かり易く表示した例を示す。この例では、
上下方向にも視差が有る。
たときの、タテ5眼、ヨコ5眼の、それぞれのカメラか
らの出力を分かり易く表示した例を示す。この例では、
上下方向にも視差が有る。
【0006】このように位置をタテおよびヨコに少しづ
つずらした複数のカメラを用いるのは、1つのカメラか
らの出力を片方の眼に対する入力として、両眼視差を形
成して立体視を行えるようにするためであり、また、カ
メラを多数用いた場合、出力系でディスプレイ160を
見る人間が頭を振っても自然な立体視を行えるようにす
るためである。
つずらした複数のカメラを用いるのは、1つのカメラか
らの出力を片方の眼に対する入力として、両眼視差を形
成して立体視を行えるようにするためであり、また、カ
メラを多数用いた場合、出力系でディスプレイ160を
見る人間が頭を振っても自然な立体視を行えるようにす
るためである。
【0007】このように、多眼式立体映像データは自然
な立体映像を与えるものとして種々の利用が期待されて
おり、従ってその符号化方式も伝送容量が少なくて済む
高能率な符号化方式とする必要がある。
な立体映像を与えるものとして種々の利用が期待されて
おり、従ってその符号化方式も伝送容量が少なくて済む
高能率な符号化方式とする必要がある。
【0008】
【発明が解決しようとする課題】上記のように多眼式の
立体システムを用いて撮影等を行う場合、2眼〜多眼
式一体型のカメラを用いる場合、カメラ単品(単眼)
を組み合わせて用いる場合、の2つが挙げられる。
立体システムを用いて撮影等を行う場合、2眼〜多眼
式一体型のカメラを用いる場合、カメラ単品(単眼)
を組み合わせて用いる場合、の2つが挙げられる。
【0009】また、一体型の場合においても、単品の
カメラをネジやワイヤ等で固定して一体型にしている場
合も多い。
カメラをネジやワイヤ等で固定して一体型にしている場
合も多い。
【0010】このように、単品のカメラを組み合わせた
り、固定して一体型にしている場合、或るカメラを基準
にして考えると、他のカメラ本体が視差とは別の傾きを
有している場合が多く、立体視を困難にしていた。
り、固定して一体型にしている場合、或るカメラを基準
にして考えると、他のカメラ本体が視差とは別の傾きを
有している場合が多く、立体視を困難にしていた。
【0011】例えば、2眼式の立体映像を撮影しようと
して、2台のカメラを組み合わせた場合、位置の補正が
困難で、上下に数ラインほどずれたり、回転が加わって
いたりしてしまうことが度々あった。
して、2台のカメラを組み合わせた場合、位置の補正が
困難で、上下に数ラインほどずれたり、回転が加わって
いたりしてしまうことが度々あった。
【0012】そして、このような場合には微調整が面倒
な上、上下に数ラインずれたり、少しの回転が加わった
だけでも、視覚的に立体視がし難くなるばかりか、眼精
疲労を起こし易く、また、互いのカメラからの入力画像
の相関をとり、高能率符号化を行う際にも、符号化特性
の低下を招いていた。
な上、上下に数ラインずれたり、少しの回転が加わった
だけでも、視覚的に立体視がし難くなるばかりか、眼精
疲労を起こし易く、また、互いのカメラからの入力画像
の相関をとり、高能率符号化を行う際にも、符号化特性
の低下を招いていた。
【0013】従って、本発明は、各カメラ間の位置ズレ
を矯正した多眼式立体映像データを高能率に符号化でき
る方式を実現することを目的とする。
を矯正した多眼式立体映像データを高能率に符号化でき
る方式を実現することを目的とする。
【0014】
【課題を解決するための手段及び作用】上記のような問
題点を解決する手段としては、 或るカメラを基準として、他カメラとのブロックマッ
チングをとる。 ブロックマッチング結果から、各カメラ間の位置ズレ
を示す補正量を算出する。 結果により各カメラからの画像データを補正する。 ことが考えられる。
題点を解決する手段としては、 或るカメラを基準として、他カメラとのブロックマッ
チングをとる。 ブロックマッチング結果から、各カメラ間の位置ズレ
を示す補正量を算出する。 結果により各カメラからの画像データを補正する。 ことが考えられる。
【0015】このため、本発明に係る多眼式立体映像の
符号化方式では、図1に原理的に示すように、複数のカ
メラからの多眼式立体映像信号F1〜Fnの内の所定の
カメラからの映像信号を基準として他のカメラからの映
像信号とのブロックマッチングを取るブロックマッチン
グ部1と、該ブロックマッチング部1でのマッチング結
果情報から映像信号間のズレを示す補正値を算出する補
正値算出部2と、該補正値に基づき各カメラからの映像
信号を補正する補正部3と、各補正部3の出力信号を符
号化する符号化部4と、該符号化部4の各出力信号を多
重化して伝送路に送出する多重化部5と、を備えてい
る。
符号化方式では、図1に原理的に示すように、複数のカ
メラからの多眼式立体映像信号F1〜Fnの内の所定の
カメラからの映像信号を基準として他のカメラからの映
像信号とのブロックマッチングを取るブロックマッチン
グ部1と、該ブロックマッチング部1でのマッチング結
果情報から映像信号間のズレを示す補正値を算出する補
正値算出部2と、該補正値に基づき各カメラからの映像
信号を補正する補正部3と、各補正部3の出力信号を符
号化する符号化部4と、該符号化部4の各出力信号を多
重化して伝送路に送出する多重化部5と、を備えてい
る。
【0016】動作においては、まず多眼カメラで被写体
を撮影し、各カメラから出力された画像データF0〜F
nに対し、或るカメラK0を基準としてブロックマッチ
ング部1でブロックマッチングをとる。
を撮影し、各カメラから出力された画像データF0〜F
nに対し、或るカメラK0を基準としてブロックマッチ
ング部1でブロックマッチングをとる。
【0017】そして、このブロックマッチング部1での
ブロックマッチング結果情報を受けた補正値算出部2で
は基準カメラK0と各カメラK1〜Knとの相対的な位
置ズレを示す補正値を算出する。
ブロックマッチング結果情報を受けた補正値算出部2で
は基準カメラK0と各カメラK1〜Knとの相対的な位
置ズレを示す補正値を算出する。
【0018】この後、補正部3−0〜3−nにおいて基
準画像データF0を除く各画像データF1〜Fnを補正
し、後は符号化部4で符号化し、多重化部5で多重化処
理を行って伝送路へ送出する。
準画像データF0を除く各画像データF1〜Fnを補正
し、後は符号化部4で符号化し、多重化部5で多重化処
理を行って伝送路へ送出する。
【0019】上記の本発明では、補正値算出部2が、該
マッチング結果情報の上下方向のベクトル値を用いて上
下方向への補正値を算出することができる。
マッチング結果情報の上下方向のベクトル値を用いて上
下方向への補正値を算出することができる。
【0020】また、補正値算出部2は、該上下方向のベ
クトル値の発生頻度を参照して最も多く発生したベクト
ル値を該補正値とすることもできる。
クトル値の発生頻度を参照して最も多く発生したベクト
ル値を該補正値とすることもできる。
【0021】更に補正値算出部2が、該上下方向のベク
トル値の平均値を算出して該補正値としてもよい。
トル値の平均値を算出して該補正値としてもよい。
【0022】更に補正値算出部2は、各補正値間の差が
閾値内に収まっていることを判定することにより該基準
カメラK0のみがずれていることを検出し、該基準カメ
ラK0に対する補正値を算出して各補正部3−0〜3−
nで画像データの補正を行ってもよい。
閾値内に収まっていることを判定することにより該基準
カメラK0のみがずれていることを検出し、該基準カメ
ラK0に対する補正値を算出して各補正部3−0〜3−
nで画像データの補正を行ってもよい。
【0023】更に補正値算出部2は、該基準カメラK0
に対する補正値として全補正値の平均値をとってもよ
い。
に対する補正値として全補正値の平均値をとってもよ
い。
【0024】更に補正値算出部2は、上記のような上下
方向だけでなく水平方向についても同様の補正値を算出
してもよい。
方向だけでなく水平方向についても同様の補正値を算出
してもよい。
【0025】更に補正値算出部2は、該マッチング結果
情報のベクトルの画素毎の回転角を検出し、座標変換に
より補正値を算出することも可能である。
情報のベクトルの画素毎の回転角を検出し、座標変換に
より補正値を算出することも可能である。
【0026】
【実施例】図1に示した本発明に係る多眼式立体映像の
符号化方式における『補正値算出』を、以下に記述する
第1乃至第4の実施例により具体的に説明する。尚、2
眼式の場合は、方式的には多眼式の部分集合と見做すこ
とができるため、多眼式の場合について説明する。
符号化方式における『補正値算出』を、以下に記述する
第1乃至第4の実施例により具体的に説明する。尚、2
眼式の場合は、方式的には多眼式の部分集合と見做すこ
とができるため、多眼式の場合について説明する。
【0027】(1)第1の実施例:図2〜図11 〔原理〕この実施例では、或る所定のカメラを基準とし
て、他のカメラ群が上下方向に角度を持ってずれている
場合の補正を実現するものである。尚、左右方向は視差
で動いていることが多いので補正する意味が余りなく、
ここでは行わない。
て、他のカメラ群が上下方向に角度を持ってずれている
場合の補正を実現するものである。尚、左右方向は視差
で動いていることが多いので補正する意味が余りなく、
ここでは行わない。
【0028】図2及び図3はこの第1の実施例によるブ
ロックマッチング部1と補正値算出部2を組み合わせた
アルゴリズムを示したもので、カメラは図4に例示する
ように、格子状に(等間隔とは限らずに)配置されてい
るものとする。
ロックマッチング部1と補正値算出部2を組み合わせた
アルゴリズムを示したもので、カメラは図4に例示する
ように、格子状に(等間隔とは限らずに)配置されてい
るものとする。
【0029】基準とするカメラ(例えばK0)からの出
力画像データをF0(704,480)、補正すべきカ
メラからの出力画像データをFn(704,480)と
定義する。但し、nは、画像データF0を基準とするカ
メラの数だけ存在するものであり、「704」及び「4
80」は図5(1) の画像フォーマットに示すように1画
面の有効画素領域を示している。
力画像データをF0(704,480)、補正すべきカ
メラからの出力画像データをFn(704,480)と
定義する。但し、nは、画像データF0を基準とするカ
メラの数だけ存在するものであり、「704」及び「4
80」は図5(1) の画像フォーマットに示すように1画
面の有効画素領域を示している。
【0030】また、後述すると共に図6に示すようなヒ
ストグラムをH(−15;15)(初期値オール
“0”)とし、ブロックマッチングで求めるベクトルを
Vnx(44,30),Vny(44,30)と定義す
る(図2のステップS1)。
ストグラムをH(−15;15)(初期値オール
“0”)とし、ブロックマッチングで求めるベクトルを
Vnx(44,30),Vny(44,30)と定義す
る(図2のステップS1)。
【0031】画像データF0を基準として、公知の方法
により、他のカメラの画像データFnとのブロックマッ
チングを行う(同S2)。
により、他のカメラの画像データFnとのブロックマッ
チングを行う(同S2)。
【0032】このブロックマッチングのアルゴリズムが
図7のフローチャートに示されており、この例では2台
のカメラを用い、カメラK0の出力画像データをF0と
し、カメラKnの出力画像データをFnとすると共に、
図8にも示すように、画面を16×16画素のブロック
(x方向44個、y方向30個)に区切り、ブロックマ
ッチングを行う該当ブロックの左上の画素の座標を(x
0 ,y0 )とする。
図7のフローチャートに示されており、この例では2台
のカメラを用い、カメラK0の出力画像データをF0と
し、カメラKnの出力画像データをFnとすると共に、
図8にも示すように、画面を16×16画素のブロック
(x方向44個、y方向30個)に区切り、ブロックマ
ッチングを行う該当ブロックの左上の画素の座標を(x
0 ,y0 )とする。
【0033】そして、サーチをx方向及びy方向共に±
15画素分の範囲(VI,VJ)で行う(図7のステッ
プS31〜S33)。尚、初期値として、A=999999
(とり得る最大値), Vx=Vy=16を与える。
15画素分の範囲(VI,VJ)で行う(図7のステッ
プS31〜S33)。尚、初期値として、A=999999
(とり得る最大値), Vx=Vy=16を与える。
【0034】両画像の差分の絶対値をブロック全体に対
して評価関数を絶対値誤差(二乗誤差でもよい)として
累積した値Aoを求め(同S34)、累積値が一番小さ
くベクトルの大きさ(二乗和)が小さい位置のベクトル
を選び(同S35〜S41)、最終的に残ったベクトル
Vx及びVyを求める(同S42)。
して評価関数を絶対値誤差(二乗誤差でもよい)として
累積した値Aoを求め(同S34)、累積値が一番小さ
くベクトルの大きさ(二乗和)が小さい位置のベクトル
を選び(同S35〜S41)、最終的に残ったベクトル
Vx及びVyを求める(同S42)。
【0035】このようにして1ブロック間でのブロック
マッチングを1画面中の全ブロックに対して行うことに
より、基準カメラK0に対するカメラKnにおけるx方
向のベクトルVnx(44,30)とy方向のベクトル
Vny(44,30)を求めることができる(同S42
及び図2のステップS2)。
マッチングを1画面中の全ブロックに対して行うことに
より、基準カメラK0に対するカメラKnにおけるx方
向のベクトルVnx(44,30)とy方向のベクトル
Vny(44,30)を求めることができる(同S42
及び図2のステップS2)。
【0036】さて、上下方向のずれを補正するために、
縦方向のベクトルVnyのみ用いる。縦方向のベクトル
Vnyの、±15画素分のサーチ範囲内で得られる各ベ
クトル(−15〜15)が、そのフレームの中でいくつ
発生しているかを図6に示した如くヒストグラムHとし
て記録する(同S3〜S10)。このヒストグラムを取
るベクトルの個数は全部で30(縦)×44(横)=1
320個となる。
縦方向のベクトルVnyのみ用いる。縦方向のベクトル
Vnyの、±15画素分のサーチ範囲内で得られる各ベ
クトル(−15〜15)が、そのフレームの中でいくつ
発生しているかを図6に示した如くヒストグラムHとし
て記録する(同S3〜S10)。このヒストグラムを取
るベクトルの個数は全部で30(縦)×44(横)=1
320個となる。
【0037】そして、このヒストグラムを取った内で最
も多く発生したベクトルの値をUyとし、このUyを補
正量とする(同S11〜S14)。
も多く発生したベクトルの値をUyとし、このUyを補
正量とする(同S11〜S14)。
【0038】すなわち、カメラKnからの補正すべき画
像データFnを全体的にUyだけ上下方向に動かすよう
に各補正部3−0〜3−nに補正値Uyを与える(同S
15)。
像データFnを全体的にUyだけ上下方向に動かすよう
に各補正部3−0〜3−nに補正値Uyを与える(同S
15)。
【0039】なお、これら求まった補正用のベクトルを
新たに視差補償ベクトルとして使用する場合には、ブロ
ック毎に公知の方法により、Vny(44、30)の配
列の要素(画面全体のy方向のベクトル)からUyを減
算して、視差補償ベクトルとすればよい(同S16〜S
22)。
新たに視差補償ベクトルとして使用する場合には、ブロ
ック毎に公知の方法により、Vny(44、30)の配
列の要素(画面全体のy方向のベクトル)からUyを減
算して、視差補償ベクトルとすればよい(同S16〜S
22)。
【0040】また、上述の如く、通常の画像データ信号
は図5(1) に示すようなフォーマットになっているが、
通常画面に表示されるのは有効画素領域であり、マッチ
ングを行うのも有効画素領域のみである。
は図5(1) に示すようなフォーマットになっているが、
通常画面に表示されるのは有効画素領域であり、マッチ
ングを行うのも有効画素領域のみである。
【0041】従って、補正を行った後に図5(2) に示す
ように、画像データ情報が存在しない部分ができても、
ダミー信号を挿入すれば画像データは壊れることがな
い。
ように、画像データ情報が存在しない部分ができても、
ダミー信号を挿入すれば画像データは壊れることがな
い。
【0042】第1の実施例の回路ブロック例:図9 図9の回路ブロックは補正値算出部2及び補正部3(補
正部3−0〜3−nの総称)を示したもので、ここで
は、ブロックマッチング部1から得た上下方向(y方
向)のベクトルをROM又はスイッチ11で、−15〜
15のいずれのベクトルに対応するかを判定してそれぞ
れのカウンタ12−1〜12−30に入力してカウント
し、これらのカウント値の内の最も多いものを比較器1
3で選択した後、デコーダ14で補正値Uyに変換す
る。
正部3−0〜3−nの総称)を示したもので、ここで
は、ブロックマッチング部1から得た上下方向(y方
向)のベクトルをROM又はスイッチ11で、−15〜
15のいずれのベクトルに対応するかを判定してそれぞ
れのカウンタ12−1〜12−30に入力してカウント
し、これらのカウント値の内の最も多いものを比較器1
3で選択した後、デコーダ14で補正値Uyに変換す
る。
【0043】そして、この補正値Uyと上記のベクトル
との差分を求めて視差補償ベクトルとすると共に、補正
値Uyを補正部としての可変遅延器3に与え、カメラ画
像データFnを補正値Uyだけ可変遅延させる。
との差分を求めて視差補償ベクトルとすると共に、補正
値Uyを補正部としての可変遅延器3に与え、カメラ画
像データFnを補正値Uyだけ可変遅延させる。
【0044】ブロックマッチングの回路例:図10 図7のフローチャートに示したブロックマッチングのア
ルゴリズムは図10に示すような回路によっても実現す
ることができ、減算器15と、加算器16,23,27
と、遅延器17と、比較器18,24と、セレクタ1
9,28,29と、デコーダ20と、2乗器21,2
2,25,26とで構成することができる。
ルゴリズムは図10に示すような回路によっても実現す
ることができ、減算器15と、加算器16,23,27
と、遅延器17と、比較器18,24と、セレクタ1
9,28,29と、デコーダ20と、2乗器21,2
2,25,26とで構成することができる。
【0045】第1の実施例の変形例:図11 この変形例では、ヒストグラムHを取って最大のy方向
ベクトルを用いる代わりに画面全体のy(縦)方向のベ
クトルVnyの平均値を取り(ステップS23,S2
4)、これを補正値Uyとして補正するものである。
ベクトルを用いる代わりに画面全体のy(縦)方向のベ
クトルVnyの平均値を取り(ステップS23,S2
4)、これを補正値Uyとして補正するものである。
【0046】(2)第2の実施例:図12及び図13 〔原理〕上記の第1の実施例では、或るカメラK0から
の画像データF0を基準として、他のカメラK1〜Kn
からの画像データF1〜Fnの補正を行おうとしたが、
実際には基準画像データF0だけが画像データF1〜F
nと比較して縦方向にズレている場合があり、第2の実
施例ではこのズレの補正を行うものである。
の画像データF0を基準として、他のカメラK1〜Kn
からの画像データF1〜Fnの補正を行おうとしたが、
実際には基準画像データF0だけが画像データF1〜F
nと比較して縦方向にズレている場合があり、第2の実
施例ではこのズレの補正を行うものである。
【0047】図12において、基準とするカメラK0の
画像データF0(704,480)、補正すべきカメラ
K1の画像データをF1(704,480)、補正すべ
きカメラK2の画像データをF2(704,480)、
補正すべきカメラK3の画像データをF3(704,4
80)とする。
画像データF0(704,480)、補正すべきカメラ
K1の画像データをF1(704,480)、補正すべ
きカメラK2の画像データをF2(704,480)、
補正すべきカメラK3の画像データをF3(704,4
80)とする。
【0048】また、これらのカメラ間でブロックマッチ
ングにより得られるベクトルを{V1x(44,3
0),V1y(44,30)}、{V2x(44,3
0),V2y(44,30)}、{V3x(44,3
0),V3y(44,30)}と定義する(図12のス
テップS51)。
ングにより得られるベクトルを{V1x(44,3
0),V1y(44,30)}、{V2x(44,3
0),V2y(44,30)}、{V3x(44,3
0),V3y(44,30)}と定義する(図12のス
テップS51)。
【0049】まず、上記の第1の実施例におけるブロッ
クマッチング(図7及び図10)を行ったものとし(こ
れは省略)、これにより得たベクトルを、画像データF
0とF1の場合=ベクトルV1x(44,30),V1
y(44,30)、画像データF0とF2の場合=ベク
トルV2x(44,30),V2y(44,30)、画
像データF0とF3の場合=ベクトルV3x(44,3
0),V3y(44,30)、とする(同S52)。
クマッチング(図7及び図10)を行ったものとし(こ
れは省略)、これにより得たベクトルを、画像データF
0とF1の場合=ベクトルV1x(44,30),V1
y(44,30)、画像データF0とF2の場合=ベク
トルV2x(44,30),V2y(44,30)、画
像データF0とF3の場合=ベクトルV3x(44,3
0),V3y(44,30)、とする(同S52)。
【0050】次に、やはり上記の第1の実施例における
ステップS3〜S15により、上記のベクトルV1y
(44,30)から補正値U1y、ベクトルV2y(4
4,30)から補正値U2y、ベクトルV3y(44,
30)から補正値U3yを得る(同S53)。
ステップS3〜S15により、上記のベクトルV1y
(44,30)から補正値U1y、ベクトルV2y(4
4,30)から補正値U2y、ベクトルV3y(44,
30)から補正値U3yを得る(同S53)。
【0051】そして、ここで補正値U1y,U2y,U
3yが互いに似ているかどうかを調べる。即ち、補正値
U1yとU2yの差の絶対値が閾値TH1より小さく、
且つU1yとU3yの差の絶対値が閾値TH2より小さ
いかどうかをチェックし(同S54)、そうであるなら
ば、補正値U1y,U2y,U3yは似ていると見なし
て、基準となるカメラK0が傾いているものと判断し、
基準となるカメラK0の補正値U0yを算出する(同S
55)。
3yが互いに似ているかどうかを調べる。即ち、補正値
U1yとU2yの差の絶対値が閾値TH1より小さく、
且つU1yとU3yの差の絶対値が閾値TH2より小さ
いかどうかをチェックし(同S54)、そうであるなら
ば、補正値U1y,U2y,U3yは似ていると見なし
て、基準となるカメラK0が傾いているものと判断し、
基準となるカメラK0の補正値U0yを算出する(同S
55)。
【0052】この補正値U0yは、補正値U1y,U2
y,U3yの平均値として算出すると共に、補正値U1
y,U2y,U3yは、上記のように求めた補正値U1
y,U2y,U3yからそれぞれ補正値U0yを減算し
たものに直しておく(同S55)。
y,U3yの平均値として算出すると共に、補正値U1
y,U2y,U3yは、上記のように求めた補正値U1
y,U2y,U3yからそれぞれ補正値U0yを減算し
たものに直しておく(同S55)。
【0053】このようにして求められた補正値を各補正
部3−0〜3−nに送り、各カメラからの画像データの
補正を行う(同S57)。
部3−0〜3−nに送り、各カメラからの画像データの
補正を行う(同S57)。
【0054】また、補正値U1yと補正値U2yの差の
絶対値が閾値TH1より大きいか又は補正値U1yと補
正値U3yの差の絶対値が閾値TH2より大きければ、
補正値U0y=0として、第1の実施例と同様に各カメ
ラの出力画像データの補正を行う(同S56)。
絶対値が閾値TH1より大きいか又は補正値U1yと補
正値U3yの差の絶対値が閾値TH2より大きければ、
補正値U0y=0として、第1の実施例と同様に各カメ
ラの出力画像データの補正を行う(同S56)。
【0055】第2の実施例の回路ブロック例:図13 この第2の実施例の回路ブロック図が図13に示されて
おり、図9及び図10に示した回路ブロックを補正値算
出部2−1〜2−3として3つ用意し、これらから得ら
れた補正値U1y,U2y,U3yに対し、絶対値演算
部31,32で相互の差分絶対値を求め、該絶対値と閾
値TH1,TH2とをそれぞれ比較器33,34で比較
し、ステップS54に対応する判定をデコーダ35で行
って、平均値演算部36で得られた平均値か又は“0”
をセレクタ37で選択することにより、補正値U0yを
出力する簡単な回路の追加となっている。
おり、図9及び図10に示した回路ブロックを補正値算
出部2−1〜2−3として3つ用意し、これらから得ら
れた補正値U1y,U2y,U3yに対し、絶対値演算
部31,32で相互の差分絶対値を求め、該絶対値と閾
値TH1,TH2とをそれぞれ比較器33,34で比較
し、ステップS54に対応する判定をデコーダ35で行
って、平均値演算部36で得られた平均値か又は“0”
をセレクタ37で選択することにより、補正値U0yを
出力する簡単な回路の追加となっている。
【0056】変形例 上記の第1及び第2の実施例が、上下方向のズレを検出
・補正しているが、変形例としては左右(横)方向のズ
レを検出・補正することも可能である。この場合、フロ
ーチャートとしては、上記の第1及び第2の実施例中で
y方向のベクトルを検出し、補正値を算出しているのに
対して、x方向のベクトルを検出し、補正値を算出する
ことが異なるだけであるので、特に記述しない。
・補正しているが、変形例としては左右(横)方向のズ
レを検出・補正することも可能である。この場合、フロ
ーチャートとしては、上記の第1及び第2の実施例中で
y方向のベクトルを検出し、補正値を算出しているのに
対して、x方向のベクトルを検出し、補正値を算出する
ことが異なるだけであるので、特に記述しない。
【0057】(3)第3の実施例:図14乃至図19 〔原理〕この実施例は、補正すべきカメラの出力画像に
対し、ひねり等の力が加わって回転してしまった場合の
ズレの検出・補正方法を扱ったものであり、回転角を検
出し、行列による座標変換で補正を行う方法の実施例を
示している。
対し、ひねり等の力が加わって回転してしまった場合の
ズレの検出・補正方法を扱ったものであり、回転角を検
出し、行列による座標変換で補正を行う方法の実施例を
示している。
【0058】図14〜図16に示すフローチャートは図
1に示した補正値算出部2と各補正部3−0〜3−nと
を組み合わせた実施例を示しており、まず、基準となる
カメラK0の画像データをF0(704,480)、補
正すべきカメラKnの画像データをFn(704,48
0)、画像データF0、画像データFnのブロックマッ
チングにより得られるベクトルをVnx(44,3
0),Vny(44,30)、各ベクトルに対応する回
転パラメータをV'11x〜V'230x ,V'11y〜V'244y 、
閾値THx,THy、チェック用配列Check(70
4,480)(初期値は全て“0”)と定義する(図1
4のステップS61)。
1に示した補正値算出部2と各補正部3−0〜3−nと
を組み合わせた実施例を示しており、まず、基準となる
カメラK0の画像データをF0(704,480)、補
正すべきカメラKnの画像データをFn(704,48
0)、画像データF0、画像データFnのブロックマッ
チングにより得られるベクトルをVnx(44,3
0),Vny(44,30)、各ベクトルに対応する回
転パラメータをV'11x〜V'230x ,V'11y〜V'244y 、
閾値THx,THy、チェック用配列Check(70
4,480)(初期値は全て“0”)と定義する(図1
4のステップS61)。
【0059】まず、上記の第1の実施例に従い、画像デ
ータF0と画像データFnとのブロックマッチングによ
りベクトルVnx(44,30),Vny(44,3
0)を得る(同S62)。
ータF0と画像データFnとのブロックマッチングによ
りベクトルVnx(44,30),Vny(44,3
0)を得る(同S62)。
【0060】次に、ステップS63でこの画像データF
nが基準画像データF0に対してどの程度回転している
かを示す回転パラメータV'11x〜V'230x ,V'11y〜
V'244y の値を計算する。これらの回転パラメータは、
画面の真中を原点とした時の上記ベクトルの概ねの回転
角(tanθ)を求めるための要素である。
nが基準画像データF0に対してどの程度回転している
かを示す回転パラメータV'11x〜V'230x ,V'11y〜
V'244y の値を計算する。これらの回転パラメータは、
画面の真中を原点とした時の上記ベクトルの概ねの回転
角(tanθ)を求めるための要素である。
【0061】即ち、回転パラメータV'11x〜V'230x ,
V'11y〜V'244y は、1画面を示す図17において斜線
で示したx方向及びy方向の中央部分(x方向はブロッ
ク22〜23、y方向はブロック15〜16)の全ベク
トルをそれぞれ中心から離れている座標で正規化したも
のである。
V'11y〜V'244y は、1画面を示す図17において斜線
で示したx方向及びy方向の中央部分(x方向はブロッ
ク22〜23、y方向はブロック15〜16)の全ベク
トルをそれぞれ中心から離れている座標で正規化したも
のである。
【0062】次に、このような回転パラメータV'11x〜
V'230x 、V'11y〜V'244y のそれぞれの平均値(1ブ
ロック当たりの回転パラメータ)VaxとVayを求め
る(図15のステップS64)。
V'230x 、V'11y〜V'244y のそれぞれの平均値(1ブ
ロック当たりの回転パラメータ)VaxとVayを求め
る(図15のステップS64)。
【0063】そして更に、各回転パラメータV'11x〜
V'230x 、V'11y〜V'244y と平均値VaxとVayと
の絶対値誤差の平均値(分散値)VVAR yとVVAR xと
を求め(同S65)、これらの平均値VVAR yとVVAR
xがそれぞれ閾値THx、THyより小さいか否かを判
定し(同S66)、VVAR y>THxか又はVVAR x>
THyであれば分散が大きく回転パラメータが同じ方向
を向いていない(回転していない)と判断してこのルー
チンを出る(同S67)が、VVAR y<THx且つV
VAR x<THyであれば分散が小さく回転パラメータが
同じ方向を向いている(回転している)と判断して次の
補正を行う。
V'230x 、V'11y〜V'244y と平均値VaxとVayと
の絶対値誤差の平均値(分散値)VVAR yとVVAR xと
を求め(同S65)、これらの平均値VVAR yとVVAR
xがそれぞれ閾値THx、THyより小さいか否かを判
定し(同S66)、VVAR y>THxか又はVVAR x>
THyであれば分散が大きく回転パラメータが同じ方向
を向いていない(回転していない)と判断してこのルー
チンを出る(同S67)が、VVAR y<THx且つV
VAR x<THyであれば分散が小さく回転パラメータが
同じ方向を向いている(回転している)と判断して次の
補正を行う。
【0064】即ち、VaxとVayの平均値を全体の平
均値Vaとして、図17に示す回転角度θ=tan-1V
aを求め(同S68)、周知の式に従い(同S69)、
補正前の画像データの座標Fn(x,y)から新座標
(X,Y)への変換を行い、補正後の画像データをF
(704,480)とする(同S70)。
均値Vaとして、図17に示す回転角度θ=tan-1V
aを求め(同S68)、周知の式に従い(同S69)、
補正前の画像データの座標Fn(x,y)から新座標
(X,Y)への変換を行い、補正後の画像データをF
(704,480)とする(同S70)。
【0065】このとき気を付けなければならないのは、
上記の座標変換によって、変換後の数値が存在しない画
素が現れてしまうことである。
上記の座標変換によって、変換後の数値が存在しない画
素が現れてしまうことである。
【0066】上記の図5(2) ではダミー値を挿入した
が、この実施例では、座標変換後の座標が図17に示す
ような数値が存在しない画素の部分A,B,C,D(有
効画素領域外とする)に属するか否かを判定し(図16
のステップS71〜74)、部分A〜Dに属しなけれ
ば、そのままの値を出力するが(同S75〜S82,S
84〜S87)、部分A〜Dに属する場合には、強制的
に上下左右からの画素の値の平均値をその画素の値とす
る(同S83)。
が、この実施例では、座標変換後の座標が図17に示す
ような数値が存在しない画素の部分A,B,C,D(有
効画素領域外とする)に属するか否かを判定し(図16
のステップS71〜74)、部分A〜Dに属しなけれ
ば、そのままの値を出力するが(同S75〜S82,S
84〜S87)、部分A〜Dに属する場合には、強制的
に上下左右からの画素の値の平均値をその画素の値とす
る(同S83)。
【0067】第3の実施例の回路ブロック例:図18 この回路例では、図10に示したブロックマッチング回
路1の出力信号Vx,Vyをカウンタ41,42と累積
部43,44と除算部45,46とを経由させることに
より平均値Vax,Vayを求め、比較器47,48で
の比較結果に基づきデコーダ49が補正回路50を制御
して座標変換した補正値F(x,y)を出力する。
路1の出力信号Vx,Vyをカウンタ41,42と累積
部43,44と除算部45,46とを経由させることに
より平均値Vax,Vayを求め、比較器47,48で
の比較結果に基づきデコーダ49が補正回路50を制御
して座標変換した補正値F(x,y)を出力する。
【0068】図19には上記の補正回路50の回路例が
示されており、平均値Vax,Vayを入力してtan
-1、sin、cos等三角関数を用いることにより、図
15及び図16のステップS68〜S87を実行してい
る。
示されており、平均値Vax,Vayを入力してtan
-1、sin、cos等三角関数を用いることにより、図
15及び図16のステップS68〜S87を実行してい
る。
【0069】尚、これら値は一度求めてしまえば、後の
フレームにおいて再び計算し直す必要が無くなる。
フレームにおいて再び計算し直す必要が無くなる。
【0070】また上記の各実施例については、カメラの
位置が頻繁に変わらない状況であれば、一度補正値を算
出すれば、あとは補正を行う処理だけ実行すればよい。
位置が頻繁に変わらない状況であれば、一度補正値を算
出すれば、あとは補正を行う処理だけ実行すればよい。
【0071】
【発明の効果】以上のように、本発明に係る多眼式立体
映像の符号化方式によれば、複数のカメラからの多眼式
立体映像信号の内の所定のカメラからの映像信号を基準
として他のカメラからの映像信号とのブロックマッチン
グを取ることにより補正値を算出し、該補正値に基づき
各カメラからの映像信号を補正するように構成したの
で、視覚的に自然な立体視を得ることができ、また、左
右眼間の相関などを用いた高能率符号化を行った場合に
も符号化効率の向上を図ることができる。
映像の符号化方式によれば、複数のカメラからの多眼式
立体映像信号の内の所定のカメラからの映像信号を基準
として他のカメラからの映像信号とのブロックマッチン
グを取ることにより補正値を算出し、該補正値に基づき
各カメラからの映像信号を補正するように構成したの
で、視覚的に自然な立体視を得ることができ、また、左
右眼間の相関などを用いた高能率符号化を行った場合に
も符号化効率の向上を図ることができる。
【図1】本発明に係る多眼式立体映像の符号化方式を原
理的に示したブロック図である。
理的に示したブロック図である。
【図2】本発明に係る多眼式立体映像の符号化方式にお
けるブロックマッチング部と補正値算出部の第1の実施
例を示すフローチャート図(その1)である。
けるブロックマッチング部と補正値算出部の第1の実施
例を示すフローチャート図(その1)である。
【図3】本発明に係る多眼式立体映像の符号化方式にお
けるブロックマッチング部と補正値算出部の第1の実施
例を示すフローチャート図(その2)である。
けるブロックマッチング部と補正値算出部の第1の実施
例を示すフローチャート図(その2)である。
【図4】多眼式立体映像を出力するカメラの配置図であ
る。
る。
【図5】有効画素領域を説明するための図である。
【図6】本発明に係る多眼式立体映像の符号化方式の第
1の実施例で用いるヒストグラムを説明するためのグラ
フ図である。
1の実施例で用いるヒストグラムを説明するためのグラ
フ図である。
【図7】本発明に係る多眼式立体映像の符号化方式の各
実施例で用いるブロックマッチングを示すフローチャー
ト図である。
実施例で用いるブロックマッチングを示すフローチャー
ト図である。
【図8】ブロックマッチングを説明するための模式図で
ある。
ある。
【図9】本発明に係る多眼式立体映像の符号化方式の第
1の実施例の回路ブロック図である。
1の実施例の回路ブロック図である。
【図10】ブロックマッチング回路の実施例を示すブロ
ック図である。
ック図である。
【図11】本発明に係る多眼式立体映像の符号化方式の
第1の実施例の変形例を示すフローチャート図である。
第1の実施例の変形例を示すフローチャート図である。
【図12】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第2の実
施例を示すフローチャート図である。
おけるブロックマッチング部と補正値算出部の第2の実
施例を示すフローチャート図である。
【図13】本発明に係る多眼式立体映像の符号化方式の
第2の実施例の回路ブロック図である。
第2の実施例の回路ブロック図である。
【図14】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その1)である。
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その1)である。
【図15】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その2)である。
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その2)である。
【図16】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その3)である。
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その3)である。
【図17】本発明に係る多眼式立体映像の符号化方式の
第3の実施例による回転検出を説明するためのグラフ図
である。
第3の実施例による回転検出を説明するためのグラフ図
である。
【図18】本発明に係る多眼式立体映像の符号化方式の
第3の実施例の回路ブロック図である。
第3の実施例の回路ブロック図である。
【図19】本発明に係る多眼式立体映像の符号化方式の
第3の実施例における補正回路の回路ブロック図であ
る。
第3の実施例における補正回路の回路ブロック図であ
る。
【図20】多眼式立体映像の符号化方式の一般的な構成
を示したブロック図である。
を示したブロック図である。
【図21】多眼式(5眼×5眼)のカメラ出力例を示し
た図である。
た図である。
1 ブロックマッチング部 2 補正値算出部 3(3−0〜3−n) 補正部 4 符号化部 5 多重化部 K0〜Kn カメラ F0〜Fn 出力画像データ 図中、同一符号は同一又は相当部分を示す。
Claims (8)
- 【請求項1】 複数のカメラからの多眼式立体映像信号
(F1 〜Fn) の内の所定のカメラからの映像信号を基準と
して他のカメラからの映像信号とのブロックマッチング
を取るブロックマッチング部(1) と、 該ブロックマッチング部(1) でのマッチング結果情報か
ら各カメラ間の位置ズレを示す補正値を算出する補正値
算出部(2) と、 該補正値に基づき各カメラからの映像信号を補正する補
正部(3-0〜3-n)と、 各補正部(3-0〜3-n)の出力信号を符号化する符号化部
(4) と、 該符号化部(4) の各出力信号を多重化して伝送路に送出
する多重化部(5) と、 を備えたことを特徴とする多眼式立体映像の符号化方
式。 - 【請求項2】 該補正値算出部(2) が、該マッチング結
果情報の上下方向のベクトル値を用いて上下方向への補
正値を算出することを特徴とした請求項1に記載の多眼
式立体映像の符号化方式。 - 【請求項3】 該補正値算出部(2) が、該上下方向のベ
クトル値の発生頻度を参照して最も多く発生したベクト
ル値を該補正値とすることを特徴とした請求項2に記載
の多眼式立体映像の符号化方式。 - 【請求項4】 該補正値算出部(2) が、該上下方向のベ
クトル値の平均値を算出して該補正値とすることを特徴
とした請求項2に記載の多眼式立体映像の符号化方式。 - 【請求項5】 該補正値算出部(2) が、各補正値間の差
が閾値内に収まっていることを判定することにより該基
準カメラのみがずれていることを検出し、該基準カメラ
に対する補正値を算出することを特徴とした請求項1に
記載の多眼式立体映像の符号化方式。 - 【請求項6】 該補正値算出部(2) が、該基準カメラに
対する補正値として全補正値の平均値をとることを特徴
とした請求項5に記載の多眼式立体映像の符号化方式。 - 【請求項7】 該補正値算出部(2) が、水平方向につい
ても同様の補正値を算出することを特徴とした請求項1
乃至6のいずれかに記載の多眼式立体映像の符号化方
式。 - 【請求項8】 該補正値算出部(2) が、該マッチング結
果情報のベクトルの画素毎の回転角を検出し、座標変換
により補正値を算出することを特徴とした請求項1に記
載の多眼式立体映像の符号化方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5587793A JPH06269025A (ja) | 1993-03-16 | 1993-03-16 | 多眼式立体映像の符号化方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5587793A JPH06269025A (ja) | 1993-03-16 | 1993-03-16 | 多眼式立体映像の符号化方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06269025A true JPH06269025A (ja) | 1994-09-22 |
Family
ID=13011331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5587793A Pending JPH06269025A (ja) | 1993-03-16 | 1993-03-16 | 多眼式立体映像の符号化方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06269025A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304286B1 (en) | 1995-06-09 | 2001-10-16 | Pioneer Electronic Corporation | Stereoscopic display apparatus for generating images in accordance with an observer's viewing position |
WO2007069487A1 (ja) * | 2005-12-15 | 2007-06-21 | The University Of Tokyo | 多視点画像の圧縮符号化方法及び復号化方法 |
US7817181B2 (en) | 2004-01-20 | 2010-10-19 | Sejong Industry - Academy Cooperation Foundation | Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video |
JP2010278979A (ja) * | 2009-06-01 | 2010-12-09 | Nhk Media Technology Inc | 立体映像調整装置、立体映像調整システム、及びプログラム |
WO2011102131A1 (ja) * | 2010-02-18 | 2011-08-25 | パナソニック株式会社 | 画像符号化装置、画像符号化方法、プログラム、及び集積回路 |
JP2011205346A (ja) * | 2010-03-25 | 2011-10-13 | Canon Inc | 画像処理装置および画像処理装置の制御方法 |
US9225958B2 (en) | 2012-03-15 | 2015-12-29 | Panasonic Intellectual Property Management Co., Ltd. | Video signal processor and method of processing video signal |
US9986222B2 (en) | 2013-03-21 | 2018-05-29 | Panasonic Intellectual Property Management Co., Ltd. | Image processing method and image processing device |
-
1993
- 1993-03-16 JP JP5587793A patent/JPH06269025A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304286B1 (en) | 1995-06-09 | 2001-10-16 | Pioneer Electronic Corporation | Stereoscopic display apparatus for generating images in accordance with an observer's viewing position |
US7817181B2 (en) | 2004-01-20 | 2010-10-19 | Sejong Industry - Academy Cooperation Foundation | Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video |
WO2007069487A1 (ja) * | 2005-12-15 | 2007-06-21 | The University Of Tokyo | 多視点画像の圧縮符号化方法及び復号化方法 |
JP2010278979A (ja) * | 2009-06-01 | 2010-12-09 | Nhk Media Technology Inc | 立体映像調整装置、立体映像調整システム、及びプログラム |
WO2011102131A1 (ja) * | 2010-02-18 | 2011-08-25 | パナソニック株式会社 | 画像符号化装置、画像符号化方法、プログラム、及び集積回路 |
JP2011205346A (ja) * | 2010-03-25 | 2011-10-13 | Canon Inc | 画像処理装置および画像処理装置の制御方法 |
US9225958B2 (en) | 2012-03-15 | 2015-12-29 | Panasonic Intellectual Property Management Co., Ltd. | Video signal processor and method of processing video signal |
US9986222B2 (en) | 2013-03-21 | 2018-05-29 | Panasonic Intellectual Property Management Co., Ltd. | Image processing method and image processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5414947B2 (ja) | ステレオ撮影装置 | |
JP5977752B2 (ja) | 映像変換装置およびそれを利用するディスプレイ装置とその方法 | |
JP4056154B2 (ja) | 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法 | |
JP5299214B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
WO2012029298A1 (ja) | 撮影装置および画像処理方法 | |
US6233004B1 (en) | Image processing method and apparatus | |
EP2293586A1 (en) | Method and system to transform stereo content | |
WO2010140332A1 (ja) | 立体画像表示装置 | |
WO2012029299A1 (ja) | 撮影装置、再生装置、および画像処理方法 | |
WO2011052389A1 (ja) | 画像処理装置及び画像処理方法 | |
JP4670303B2 (ja) | 画像処理方法及び画像処理装置 | |
US20070139612A1 (en) | Real-time process and technology using image processing to maintain and ensure viewer comfort during capture, live transmission, and post-production of stereoscopic 3D imagery | |
WO2013108339A1 (ja) | ステレオ撮影装置 | |
CN101933335A (zh) | 将二维图像数据转换为立体图像数据的方法和系统 | |
KR20110124473A (ko) | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 | |
CN102428707A (zh) | 立体视用图像对位装置,立体视用图像对位方法及其程序 | |
US8659644B2 (en) | Stereo video capture system and method | |
WO2011125461A1 (ja) | 画像生成装置及び方法並びにプリンタ | |
CN103959770A (zh) | 图像处理设备、图像处理方法和程序 | |
JPH0698312A (ja) | 画像高能率符号化方式 | |
JPH06269025A (ja) | 多眼式立体映像の符号化方式 | |
Kim et al. | Depth map quality metric for three-dimensional video | |
JP2003061116A (ja) | 立体映像表示装置 | |
TWI491244B (zh) | 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置 | |
KR20030049804A (ko) | 카메라 움직임 판별 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20011218 |