JP2001061164A - 立体映像信号伝送方法 - Google Patents
立体映像信号伝送方法Info
- Publication number
- JP2001061164A JP2001061164A JP11232825A JP23282599A JP2001061164A JP 2001061164 A JP2001061164 A JP 2001061164A JP 11232825 A JP11232825 A JP 11232825A JP 23282599 A JP23282599 A JP 23282599A JP 2001061164 A JP2001061164 A JP 2001061164A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- image
- information
- unit
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
(57)【要約】
【課題】立体映像信号を伝送する際、立体視における人
間の視覚特性を考慮し、人間が知覚できない奥行き情報
を圧縮することにより、立体映像信号伝送量の圧縮を行
う。 【解決手段】1視点方向からの映像と、その映像に対応
した奥行き値とを伝送する場合、視覚の奥行き変換に対
する時空間周波数特性に従い、感度の高い周波数成分に
優先的に伝送量を割り当てるようにした奥行き値を符号
化する。
間の視覚特性を考慮し、人間が知覚できない奥行き情報
を圧縮することにより、立体映像信号伝送量の圧縮を行
う。 【解決手段】1視点方向からの映像と、その映像に対応
した奥行き値とを伝送する場合、視覚の奥行き変換に対
する時空間周波数特性に従い、感度の高い周波数成分に
優先的に伝送量を割り当てるようにした奥行き値を符号
化する。
Description
【0001】
【発明の属する技術分野】この発明は、立体映像信号の
伝送方法に関するもので、特に1視点からの2次元映像
と、その2次元映像の各画像に対応した奥行き値または
視差量を伝送する場合、伝送量を圧縮する手法に関する
ものである。
伝送方法に関するもので、特に1視点からの2次元映像
と、その2次元映像の各画像に対応した奥行き値または
視差量を伝送する場合、伝送量を圧縮する手法に関する
ものである。
【0002】
【従来の技術】立体映像情報を伝送する場合、例えば左
右の眼に対応する2枚の映像の映像情報を伝送する必要
がある。このときの2枚の映像は、観察者が左右の眼で
別々に観察した場合、立体像が知覚されるように視差を
もつ映像である。立体映像が2枚の映像から構成される
場合、そのまま伝送すると従来の2次元映像に比べて2
倍の伝送量が必要となる。そのため伝送量を低減する方
法が検討されている。その方法の1つとして視差補償方
式と呼ばれる伝送方式がある(例えば”立体画像符号化
における視差推定手法に関する検討”NHK技研R&D
No.47 1997年11月参照)。
右の眼に対応する2枚の映像の映像情報を伝送する必要
がある。このときの2枚の映像は、観察者が左右の眼で
別々に観察した場合、立体像が知覚されるように視差を
もつ映像である。立体映像が2枚の映像から構成される
場合、そのまま伝送すると従来の2次元映像に比べて2
倍の伝送量が必要となる。そのため伝送量を低減する方
法が検討されている。その方法の1つとして視差補償方
式と呼ばれる伝送方式がある(例えば”立体画像符号化
における視差推定手法に関する検討”NHK技研R&D
No.47 1997年11月参照)。
【0003】視差補償方式のブロック構成を示すと、図
20に示すような構成である。
20に示すような構成である。
【0004】入力は左眼映像情報と右眼映像情報の2系
統である。左眼映像情報はそのまま伝送する。右眼映像
情報に関しては、視差推定と補償部において、左眼映像
情報との相関を利用して伝送量を圧縮する。例えば右眼
映像をサブブロックに分割し、各サブブロック毎に左眼
映像の中で最も近いサブブロックを見つけ出し、その位
置ずれ量(視差ベクトル)を求める。次に求めた視差ベ
クトルと左眼映像を用いて右眼映像を予測し、予測した
映像とオリジナルの右眼映像との残差(補償誤差)を求
める。左眼映像、視差ベクトル、補償誤差を適当な圧縮
方式で圧縮し伝送する。
統である。左眼映像情報はそのまま伝送する。右眼映像
情報に関しては、視差推定と補償部において、左眼映像
情報との相関を利用して伝送量を圧縮する。例えば右眼
映像をサブブロックに分割し、各サブブロック毎に左眼
映像の中で最も近いサブブロックを見つけ出し、その位
置ずれ量(視差ベクトル)を求める。次に求めた視差ベ
クトルと左眼映像を用いて右眼映像を予測し、予測した
映像とオリジナルの右眼映像との残差(補償誤差)を求
める。左眼映像、視差ベクトル、補償誤差を適当な圧縮
方式で圧縮し伝送する。
【0005】視差補償方式においては、視差ベクトル
は、サブブロックを代表する1つの視差に相当する。補
償誤差は、視差ベクトルのみでは表現できない視差、及
び左眼映像には遮蔽領域として存在せず右眼映像のみに
存在する映像の情報を含んでいると考えてよい。
は、サブブロックを代表する1つの視差に相当する。補
償誤差は、視差ベクトルのみでは表現できない視差、及
び左眼映像には遮蔽領域として存在せず右眼映像のみに
存在する映像の情報を含んでいると考えてよい。
【0006】立体映像伝送方法の別の方法として、1視
点からの映像と、その映像の各画素に対応した距離(奥
行き値または視差)を伝送する方法が考えられている。
この方法を視差補償方式に置き換える場合、各画素毎に
視差ベクトルを求めて伝送していると見ることができ
る。
点からの映像と、その映像の各画素に対応した距離(奥
行き値または視差)を伝送する方法が考えられている。
この方法を視差補償方式に置き換える場合、各画素毎に
視差ベクトルを求めて伝送していると見ることができ
る。
【0007】上記の2つの方法は、視点間(例えば左右
間)の映像の相関を利用して伝送量の圧縮をおこなって
いるが、必ずしも立体視における人間の視覚特性を考慮
しているとは言えない。立体視における人間の視覚特性
を考慮した伝送方式として、次のようなものがある。左
眼映像情報は、そのまま伝送する。そして右眼映像情報
に関しては、左眼映像情報との差分をとり、その差分情
報をサブサンプル化して圧縮するというものである。立
体視の視覚特性として時間軸方向で奥行きが急激に変化
する場合、その変化を知覚できないという特性があり、
前記方法はこの特性を利用したものだが、この方法で
は、映像の差分情報をサブサンプルするため、奥行きが
変化している部分では水平解像度も低下するという現象
が現れる。
間)の映像の相関を利用して伝送量の圧縮をおこなって
いるが、必ずしも立体視における人間の視覚特性を考慮
しているとは言えない。立体視における人間の視覚特性
を考慮した伝送方式として、次のようなものがある。左
眼映像情報は、そのまま伝送する。そして右眼映像情報
に関しては、左眼映像情報との差分をとり、その差分情
報をサブサンプル化して圧縮するというものである。立
体視の視覚特性として時間軸方向で奥行きが急激に変化
する場合、その変化を知覚できないという特性があり、
前記方法はこの特性を利用したものだが、この方法で
は、映像の差分情報をサブサンプルするため、奥行きが
変化している部分では水平解像度も低下するという現象
が現れる。
【0008】
【発明が解決しようとする課題】上記したように、従来
の立体映像情報の伝送方法の場合、立体視における人間
の視覚特性を十分に利用した伝送量の圧縮技術はない。
の立体映像情報の伝送方法の場合、立体視における人間
の視覚特性を十分に利用した伝送量の圧縮技術はない。
【0009】そこでこの発明は、立体映像情報の伝送を
行う場合、立体視における視覚特性を考慮した伝送量の
圧縮を行うことができる立体映像信号伝送方法を提供す
ることを目的とする。
行う場合、立体視における視覚特性を考慮した伝送量の
圧縮を行うことができる立体映像信号伝送方法を提供す
ることを目的とする。
【0010】
【課題を解決するための手段】この発明は上記の目的を
達成するために、1視点方向からの映像と、その映像に
対応した奥行き値とを伝送する場合、視覚の奥行き変化
に対する時間及び空間周波数特性に従い、知覚感度の高
い周波数成分に対して優先的に伝送量を割り当てるよう
に奥行き値を符号化するものである。
達成するために、1視点方向からの映像と、その映像に
対応した奥行き値とを伝送する場合、視覚の奥行き変化
に対する時間及び空間周波数特性に従い、知覚感度の高
い周波数成分に対して優先的に伝送量を割り当てるよう
に奥行き値を符号化するものである。
【0011】つまり本発明では、立体映像を伝送する場
合、立体視における以下の視覚特性のいずれかまたは複
数を利用して立体映像の伝送量の削減を図るものであ
る。
合、立体視における以下の視覚特性のいずれかまたは複
数を利用して立体映像の伝送量の削減を図るものであ
る。
【0012】(a) ある一定量の奥行き以下は奥行き
を知覚できない(この値を奥行き弁別閾と呼ぶ)。また
奥行き弁別閾は、映像の空間周波数成分で変化し、映像
の空間周波数が高いほど奥行き弁別閾は小さい。
を知覚できない(この値を奥行き弁別閾と呼ぶ)。また
奥行き弁別閾は、映像の空間周波数成分で変化し、映像
の空間周波数が高いほど奥行き弁別閾は小さい。
【0013】(b)奥行きを時間軸で周期的に変化させ
ると時間周波数が一定量以上で奥行きが知覚できない
(この値を奥行き変化の臨界周波数と呼ぶ)。また奥行
き変化の臨界周波数は映像の空間周波数成分で変化し、
映像の空間周波数が高いほど奥行き変化の臨界周波数は
低くなる。
ると時間周波数が一定量以上で奥行きが知覚できない
(この値を奥行き変化の臨界周波数と呼ぶ)。また奥行
き変化の臨界周波数は映像の空間周波数成分で変化し、
映像の空間周波数が高いほど奥行き変化の臨界周波数は
低くなる。
【0014】(c)奥行き弁別閾は、映像のコントラス
トで変化し、映像のコントラストが低いと奥行き弁別閾
は大きくなる。
トで変化し、映像のコントラストが低いと奥行き弁別閾
は大きくなる。
【0015】(d)映像が輝度成分からなる場合と色成
分からなる場合とでは奥行き弁別閾は輝度成分からなる
場合の方が小さい。
分からなる場合とでは奥行き弁別閾は輝度成分からなる
場合の方が小さい。
【0016】
【発明の実施の形態】以下、この発明の実施の形態を図
面を参照して説明する。
面を参照して説明する。
【0017】図1はこの発明の一実施の形態である。こ
こでは立体映像としては、例えば左右2枚の映像を仮定
している。左眼映像情報はそのまま伝送するか、または
MPEG規格により符号化して伝送する。図では、入力
端子11の左眼映像情報は、符号化部103に入力され
るとともに、奥行き推定部101に入力される。
こでは立体映像としては、例えば左右2枚の映像を仮定
している。左眼映像情報はそのまま伝送するか、または
MPEG規格により符号化して伝送する。図では、入力
端子11の左眼映像情報は、符号化部103に入力され
るとともに、奥行き推定部101に入力される。
【0018】右眼映像情報は、入力端子12を介して奥
行き推定部101に入力される。奥行き推定部101で
は、左右映像情報を参照して、左眼映像情報の各画素に
対応する奥行き値(視差)を推定する。
行き推定部101に入力される。奥行き推定部101で
は、左右映像情報を参照して、左眼映像情報の各画素に
対応する奥行き値(視差)を推定する。
【0019】奥行き値を推定する方法としては、例えば
ブロックマッチングを使って左右画像情報間で対応する
各画素の移動量を求め、その値を奥行き値とする。次に
求めた奥行き値に対して奥行き情報圧縮部102で人間
の視覚特性を考慮した処理を行い情報量を圧縮する。
ブロックマッチングを使って左右画像情報間で対応する
各画素の移動量を求め、その値を奥行き値とする。次に
求めた奥行き値に対して奥行き情報圧縮部102で人間
の視覚特性を考慮した処理を行い情報量を圧縮する。
【0020】立体視における視覚特性の例が、文献1”
3次元映像の基礎” NHK放送技術研究編 オーム社
1995)と文献2”Binocular Vision and Ster
eopsis ”Ian P.Howard 他 Oxford University
Press 1995 )に示されている。文献1の28
頁の図2.16は、奥行きが水平方向で変化する場合の
奥行き弁別閾を示したもので、実験に用いた刺激は、こ
の文献1の第27頁の図2.15に示されている。文献
2の第164頁の図5.13は奥行きが垂直方向に変化
する場合の奥行き弁別閾を示している。実験に用いた刺
激は(a)に、その結果が(b)に示されている。これ
より視差が一定量以下では立体視できないこと、またこ
の値(奥行き弁別閾)は奥行き変化の空間周波数に対し
てバンドパス型の特性を示し、高空間周波数では立体視
できないことを示している。
3次元映像の基礎” NHK放送技術研究編 オーム社
1995)と文献2”Binocular Vision and Ster
eopsis ”Ian P.Howard 他 Oxford University
Press 1995 )に示されている。文献1の28
頁の図2.16は、奥行きが水平方向で変化する場合の
奥行き弁別閾を示したもので、実験に用いた刺激は、こ
の文献1の第27頁の図2.15に示されている。文献
2の第164頁の図5.13は奥行きが垂直方向に変化
する場合の奥行き弁別閾を示している。実験に用いた刺
激は(a)に、その結果が(b)に示されている。これ
より視差が一定量以下では立体視できないこと、またこ
の値(奥行き弁別閾)は奥行き変化の空間周波数に対し
てバンドパス型の特性を示し、高空間周波数では立体視
できないことを示している。
【0021】文献1の第32頁の図2.21は、奥行き
が時間軸方向で周期的に変化する場合の奥行き弁別閾を
示したものである。奥行き弁別閾が時間周波数に対して
バンドパス型の特性を示し、高時間周波数は立体視でき
ないことを示している。
が時間軸方向で周期的に変化する場合の奥行き弁別閾を
示したものである。奥行き弁別閾が時間周波数に対して
バンドパス型の特性を示し、高時間周波数は立体視でき
ないことを示している。
【0022】奥行き圧縮部102では、視覚特性を考慮
して奥行き情報の圧縮がなされるように処理を行う。図
2には奥行き情報圧縮処理部102の構成例を示してい
る。
して奥行き情報の圧縮がなされるように処理を行う。図
2には奥行き情報圧縮処理部102の構成例を示してい
る。
【0023】例えば離散コサイン変換(DCT)部20
2では、入力する奥行き値に対して画面を一定面積のブ
ロックに分割し、各ブロック毎に空間軸方向でのDCT
処理を行う。
2では、入力する奥行き値に対して画面を一定面積のブ
ロックに分割し、各ブロック毎に空間軸方向でのDCT
処理を行う。
【0024】DCT処理後の各周波数成分に対して立体視
が知覚できないような高空間周波数成分に関してはその
除去が行われる。また他の周波数成分に関しては奥行き
弁別閾の小さい周波数に対しては量子化ステップが細か
くなるように量子化ステップを制御する。この方法とし
ては、例えば視覚特性を考慮した量子化テーブルを予め
作成しておき、量子化テーブル204に格納しておけば
よい。量子化テーブル204は例えば図2(B)に示す
奥行き解像度を示す特性グラフに従って作成する。
が知覚できないような高空間周波数成分に関してはその
除去が行われる。また他の周波数成分に関しては奥行き
弁別閾の小さい周波数に対しては量子化ステップが細か
くなるように量子化ステップを制御する。この方法とし
ては、例えば視覚特性を考慮した量子化テーブルを予め
作成しておき、量子化テーブル204に格納しておけば
よい。量子化テーブル204は例えば図2(B)に示す
奥行き解像度を示す特性グラフに従って作成する。
【0025】量子化部203では、量子化テーブル20
4の値を参照して、量子化を行う。これにより視覚特性
を考慮した高空間周波数成分の除去を及び量子化を実現
することになる。また時間軸方向でDCT処理を行う場
合には、空間周波数に対して行った処理と同様に高時間
周波数成分の除去と量子化ステップの制御を行う。
4の値を参照して、量子化を行う。これにより視覚特性
を考慮した高空間周波数成分の除去を及び量子化を実現
することになる。また時間軸方向でDCT処理を行う場
合には、空間周波数に対して行った処理と同様に高時間
周波数成分の除去と量子化ステップの制御を行う。
【0026】奥行き情報圧縮部102の構成に関して
は、上記の例ではDCT処理の後、量子化ステップを制
御して情報量の圧縮を行ったが、奥行き値に対してその
まま時空間方向でフィルタ処理を行って情報量を圧縮し
ても構わない。圧縮した奥行き値は、左眼映像情報とと
もに符号化器103で符号化され伝送する。
は、上記の例ではDCT処理の後、量子化ステップを制
御して情報量の圧縮を行ったが、奥行き値に対してその
まま時空間方向でフィルタ処理を行って情報量を圧縮し
ても構わない。圧縮した奥行き値は、左眼映像情報とと
もに符号化器103で符号化され伝送する。
【0027】上記第1の実施の形態では立体映像は左右
2枚の映像から構成されたが、立体映像が複数枚の映像
でもこの実施形態の考え方を適用できることは勿論であ
る。
2枚の映像から構成されたが、立体映像が複数枚の映像
でもこの実施形態の考え方を適用できることは勿論であ
る。
【0028】図3にはこの発明の第2の実施の形態を示
している。
している。
【0029】第1の実施の形態では、左眼映像情報と奥
行き値のみを伝送した。しかし例えば左眼映像では遮蔽
されて存在せず、右眼映像のみに存在する映像がある。
この様子を図4に示している。第2の実施の形態ではこ
の映像の分を補償誤差情報として伝送する。奥行き推定
及び補償部301では、第1の実施の形態と同様に各画
素の奥行き値を推定し、奥行き値を奥行き情報圧縮部1
02に与える。
行き値のみを伝送した。しかし例えば左眼映像では遮蔽
されて存在せず、右眼映像のみに存在する映像がある。
この様子を図4に示している。第2の実施の形態ではこ
の映像の分を補償誤差情報として伝送する。奥行き推定
及び補償部301では、第1の実施の形態と同様に各画
素の奥行き値を推定し、奥行き値を奥行き情報圧縮部1
02に与える。
【0030】また奥行き及び補償部301では、各画素
の奥行き値を推定した後、左眼映像情報と各画素の奥行
き値から右眼映像を予測する。予測した右眼画像情報と
オリジナルの右眼映像情報との差分を補償誤差情報とし
て補償誤差圧縮部302へ与える。
の奥行き値を推定した後、左眼映像情報と各画素の奥行
き値から右眼映像を予測する。予測した右眼画像情報と
オリジナルの右眼映像情報との差分を補償誤差情報とし
て補償誤差圧縮部302へ与える。
【0031】補償誤差圧縮部302では、圧縮した奥行
き値にもとづき補償誤差を圧縮している。図4からわか
るように、補償誤差情報は奥行きが水平方向で変化する
場合に、特に奥行き変化の高い空間周波数成分が存在す
る付近で発生すると考えることができる。この領域を以
後、遮蔽領域と呼ぶ。そのため奥行き情報圧縮部102
から入力する奥行き値に従い、奥行き変化の水平方向の
空間周波数成分の高い領域を遮蔽領域として抽出し、遮
蔽領域以外の領域に補償誤差が存在する場合にはノイズ
として除去する。
き値にもとづき補償誤差を圧縮している。図4からわか
るように、補償誤差情報は奥行きが水平方向で変化する
場合に、特に奥行き変化の高い空間周波数成分が存在す
る付近で発生すると考えることができる。この領域を以
後、遮蔽領域と呼ぶ。そのため奥行き情報圧縮部102
から入力する奥行き値に従い、奥行き変化の水平方向の
空間周波数成分の高い領域を遮蔽領域として抽出し、遮
蔽領域以外の領域に補償誤差が存在する場合にはノイズ
として除去する。
【0032】図5には、補償誤差圧縮部302の構成例
を示している。
を示している。
【0033】補償誤差圧縮部には、奥行き推定及び補償
部301から補償誤差が与えられ、奥行き情報圧縮部1
02からは奥行き値が入力する。奥行き値に関しては周
波数成分の形で入力すると仮定している。
部301から補償誤差が与えられ、奥行き情報圧縮部1
02からは奥行き値が入力する。奥行き値に関しては周
波数成分の形で入力すると仮定している。
【0034】周波数抽出部502は、水平方向の空間周
波数の高い成分のみを抽出する。この成分に対して逆量
子化部503で逆量子化、次に逆DCT部504で逆D
CT処理を行う。逆DCT処理された出力は、2値化処
理部505において、絶対値として一定値以上かどうか
比較され、一定値以上であれば、その領域は遮蔽領域で
あると判定して抽出する。この結果は、ノイズ除去部5
06に与えられる。
波数の高い成分のみを抽出する。この成分に対して逆量
子化部503で逆量子化、次に逆DCT部504で逆D
CT処理を行う。逆DCT処理された出力は、2値化処
理部505において、絶対値として一定値以上かどうか
比較され、一定値以上であれば、その領域は遮蔽領域で
あると判定して抽出する。この結果は、ノイズ除去部5
06に与えられる。
【0035】ノイズ除去部506では、入力する補償誤
差情報に対して、遮蔽領域以外の補償誤差はノイズとし
て除去する。奥行き情報圧縮部102から入力する奥行
き値は、奥行き弁別閾以下の奥行き値は除去されている
ので、奥行き弁別閾以下の奥行きのみによって生じる補
償誤差もノイズとして除去される。ノイズ除去した補償
誤差情報は、従来の視差補償方式と同様に、DCT処
理、量子化処理をを経て符号化部303に入力され、奥
行き値、左眼映像情報とともに符号化され伝送される。
差情報に対して、遮蔽領域以外の補償誤差はノイズとし
て除去する。奥行き情報圧縮部102から入力する奥行
き値は、奥行き弁別閾以下の奥行き値は除去されている
ので、奥行き弁別閾以下の奥行きのみによって生じる補
償誤差もノイズとして除去される。ノイズ除去した補償
誤差情報は、従来の視差補償方式と同様に、DCT処
理、量子化処理をを経て符号化部303に入力され、奥
行き値、左眼映像情報とともに符号化され伝送される。
【0036】次に、この発明の第3の実施の形態につい
て説明する。
て説明する。
【0037】第3の実施の形態では左眼映像情報の空間
周波数成分にしたがって奥行き値を圧縮する。映像の空
間周波数と奥行き弁別閾との関係は、文献2の第157
頁の図5.7に示されている。この特性では映像の空間
周波数成分が低くなるにしたがって奥行き弁別閾が大き
くなることを示している。また映像の空間周波数と時間
周波数との視覚特性の関係については、低空間周波数で
は高時間周波数に感度が高く、高空間周波数では、低時
間周波数に感度が高いことが知られている。
周波数成分にしたがって奥行き値を圧縮する。映像の空
間周波数と奥行き弁別閾との関係は、文献2の第157
頁の図5.7に示されている。この特性では映像の空間
周波数成分が低くなるにしたがって奥行き弁別閾が大き
くなることを示している。また映像の空間周波数と時間
周波数との視覚特性の関係については、低空間周波数で
は高時間周波数に感度が高く、高空間周波数では、低時
間周波数に感度が高いことが知られている。
【0038】図6は、第3の実施の形態である。図1と
同一部分には同一符号を付している。左眼映像情報は、
奥行き推定部101に入力すると共に、空間周波数解析
部601、符号化部103に入力する。空間周波数解析
部601では左眼映像の空間周波数成分を解析する。空
間周波数の解析は、例えばサイズの異なるGaborフィル
タの左眼映像に対する畳み込み演算で行う。このフィル
タの特性形状を図7に示す。図7(A)は空間軸対レベ
ルの関係を示し、図7(B)は周波数軸対レベルの関係
を示している。フィルタ特性は、S(x)=exp(−
(x−2)/(xσ−2))*cos(2πFx)で表
わされる。
同一部分には同一符号を付している。左眼映像情報は、
奥行き推定部101に入力すると共に、空間周波数解析
部601、符号化部103に入力する。空間周波数解析
部601では左眼映像の空間周波数成分を解析する。空
間周波数の解析は、例えばサイズの異なるGaborフィル
タの左眼映像に対する畳み込み演算で行う。このフィル
タの特性形状を図7に示す。図7(A)は空間軸対レベ
ルの関係を示し、図7(B)は周波数軸対レベルの関係
を示している。フィルタ特性は、S(x)=exp(−
(x−2)/(xσ−2))*cos(2πFx)で表
わされる。
【0039】図8には上記の空間周波数解析部601の
構成例を示している。左眼映像情報は、フィルタ演算部
802、803、804に入力され、それぞれの演算部
出力は、空間周波数決定部805に入力される。フィル
タ演算部802,803,804は例えばフィルタ中心
周波数がf、2f、4fとなるように設定されている。
空間周波数決定部805には、3種類のフィルタ結果の
うち最大出力のえられるものを1つを選択し、量子化パ
ラメータとして結果を奥行き情報圧縮部602へ出力し
ている。
構成例を示している。左眼映像情報は、フィルタ演算部
802、803、804に入力され、それぞれの演算部
出力は、空間周波数決定部805に入力される。フィル
タ演算部802,803,804は例えばフィルタ中心
周波数がf、2f、4fとなるように設定されている。
空間周波数決定部805には、3種類のフィルタ結果の
うち最大出力のえられるものを1つを選択し、量子化パ
ラメータとして結果を奥行き情報圧縮部602へ出力し
ている。
【0040】奥行き情報圧縮部602には、奥行き推定
部101からの奥行き値が入力されている。奥行き情報
圧縮部602は、例えば図9(A)に示すような構成で
ある。DCT処理部202と、量子化部903と、量子
化テーブル902により構成されている。量子化テーブ
ル902では、左眼映像情報の空間周波数成分にしたが
った複数種類の量子化テーブルを予め作成し格納してお
く。
部101からの奥行き値が入力されている。奥行き情報
圧縮部602は、例えば図9(A)に示すような構成で
ある。DCT処理部202と、量子化部903と、量子
化テーブル902により構成されている。量子化テーブ
ル902では、左眼映像情報の空間周波数成分にしたが
った複数種類の量子化テーブルを予め作成し格納してお
く。
【0041】図9(B)は上記の量子化テーブル902
の内容の例を示している。量子化テーブル902は、入
力する量子化パラメータにしたがって使用する量子化パ
ラメータを選択する。量子化部903では、量子化テー
ブルの値を参照して量子化を行うことで映像の空間周波
数と視覚特性を考慮した奥行き情報の圧縮を行うことが
できる。
の内容の例を示している。量子化テーブル902は、入
力する量子化パラメータにしたがって使用する量子化パ
ラメータを選択する。量子化部903では、量子化テー
ブルの値を参照して量子化を行うことで映像の空間周波
数と視覚特性を考慮した奥行き情報の圧縮を行うことが
できる。
【0042】図10は、第4の実施の形態であり、上記
の第3の実施の形態に第2の実施の形態を適用した例を
示している。
の第3の実施の形態に第2の実施の形態を適用した例を
示している。
【0043】次に第5の実施の形態について説明する。
この実施の形態では、左眼映像情報のコントラストにし
たがって奥行き値を圧縮する。コントラストと奥行き弁
別閾との関係は、文献2の図5.16に示されている。
この関係は、コントラストが低くなるにしたがって奥行
き弁別閾が大きくなる関係である。
この実施の形態では、左眼映像情報のコントラストにし
たがって奥行き値を圧縮する。コントラストと奥行き弁
別閾との関係は、文献2の図5.16に示されている。
この関係は、コントラストが低くなるにしたがって奥行
き弁別閾が大きくなる関係である。
【0044】図11(A)は第5の実施の形態である。
左眼映像情報は、奥行き推定部101と、コントラスト
解析部1101と、符号化部103に入力される。奥行
き推定部101は、左眼映像情報と右眼映像情報とから
奥行き値を算出する。コントラスト解析部1101は、
左眼映像情報のコントラストを算出する。算出した結果
は量子化パラメータとして奥行き情報圧縮部1102へ
出力する。量子化テーブル902には、左眼映像情報の
コントラストに従った複数種類の量子化テーブルを予め
作成して格納しておく。例えばコントラストが低くなる
にしたがって量子化ステップが粗くなるように作成して
おく(図11(B)参照)。
左眼映像情報は、奥行き推定部101と、コントラスト
解析部1101と、符号化部103に入力される。奥行
き推定部101は、左眼映像情報と右眼映像情報とから
奥行き値を算出する。コントラスト解析部1101は、
左眼映像情報のコントラストを算出する。算出した結果
は量子化パラメータとして奥行き情報圧縮部1102へ
出力する。量子化テーブル902には、左眼映像情報の
コントラストに従った複数種類の量子化テーブルを予め
作成して格納しておく。例えばコントラストが低くなる
にしたがって量子化ステップが粗くなるように作成して
おく(図11(B)参照)。
【0045】量子化テーブル902は、入力する量子化
パラメータに従って、量子化テーブルを選択する。以後
の動作は、第3の実施の形態と同様である。これにより
映像のコントラストと視覚特性を考慮した奥行き情報の
圧縮を行うことができる。
パラメータに従って、量子化テーブルを選択する。以後
の動作は、第3の実施の形態と同様である。これにより
映像のコントラストと視覚特性を考慮した奥行き情報の
圧縮を行うことができる。
【0046】図12には、第5の実施形態に第2の実施
形態を適用した第6の実施形態を示している。各部の機
能及び動作は先に説明した通りである。
形態を適用した第6の実施形態を示している。各部の機
能及び動作は先に説明した通りである。
【0047】図13には第7の実施の形態を示してい
る。
る。
【0048】この実施の形態では、左眼映像情報が輝度
コントラストから成るか、色コントラストから成るかに
したがって奥行き値を圧縮する。輝度と色と奥行き弁別
閾との関係が文献2の208頁の図6.12に示されて
いる。この図6.12では、輝度コントラストからなる
映像の奥行き弁別閾に対して色コントラストからなる奥
行き弁別閾のほうが大きいことを示している。また色コ
ントラストに対して輝度コントラストのほうが時間周波
数に対する奥行き弁別閾のピークが高周波数側にシフト
している。また文献の第207頁から第208頁の記述
において、色コントラストが赤―緑から成る場合と、青
―黄から成る場合とでは、青―黄からなる奥行き弁別閾
のほうが大きいことが述べられている。
コントラストから成るか、色コントラストから成るかに
したがって奥行き値を圧縮する。輝度と色と奥行き弁別
閾との関係が文献2の208頁の図6.12に示されて
いる。この図6.12では、輝度コントラストからなる
映像の奥行き弁別閾に対して色コントラストからなる奥
行き弁別閾のほうが大きいことを示している。また色コ
ントラストに対して輝度コントラストのほうが時間周波
数に対する奥行き弁別閾のピークが高周波数側にシフト
している。また文献の第207頁から第208頁の記述
において、色コントラストが赤―緑から成る場合と、青
―黄から成る場合とでは、青―黄からなる奥行き弁別閾
のほうが大きいことが述べられている。
【0049】図13において、左眼映像情報は、奥行き
推定部101と輝度及び色成分解析部1301と、符号
化部103とに入力される。奥行き推定部101は、左
眼映像情報と右眼映像情報とから奥行き値を算出する。
輝度及び色成分解析部1301は、例えば図14に示す
ような構成である。
推定部101と輝度及び色成分解析部1301と、符号
化部103とに入力される。奥行き推定部101は、左
眼映像情報と右眼映像情報とから奥行き値を算出する。
輝度及び色成分解析部1301は、例えば図14に示す
ような構成である。
【0050】図14(A)において、例えば左眼映像情
報がRGBの形式で入力する場合、色変換部1402で
輝度(L),赤―緑(r−g),黄―青(y−b)の形
式に変換する。それぞれの成分について成分抽出部14
03から1405で例えばコントラストを抽出する。そ
れぞれの成分のコントラストは、量子化パラメータ決定
部1406に入力する。量子化パラメータ決定部140
5では、それぞれのコントラストを比較し、輝度コント
ラストが一定値以上なら0を、輝度コントラストが一定
値より小さくかつ赤―緑コントラストが一定値以上なら
1を、奥行き圧縮部1302へ出力する。輝度コントラ
スが一定値以下かつ赤―緑コントラストが一定値以下か
つ黄―緑コントラストが一定値以上なら2を、奥行き圧
縮部1302へ出力する。全てのコントラストが一定値
以下なら3を、量子化パラメータとして奥行き圧縮部1
302へ出力する。
報がRGBの形式で入力する場合、色変換部1402で
輝度(L),赤―緑(r−g),黄―青(y−b)の形
式に変換する。それぞれの成分について成分抽出部14
03から1405で例えばコントラストを抽出する。そ
れぞれの成分のコントラストは、量子化パラメータ決定
部1406に入力する。量子化パラメータ決定部140
5では、それぞれのコントラストを比較し、輝度コント
ラストが一定値以上なら0を、輝度コントラストが一定
値より小さくかつ赤―緑コントラストが一定値以上なら
1を、奥行き圧縮部1302へ出力する。輝度コントラ
スが一定値以下かつ赤―緑コントラストが一定値以下か
つ黄―緑コントラストが一定値以上なら2を、奥行き圧
縮部1302へ出力する。全てのコントラストが一定値
以下なら3を、量子化パラメータとして奥行き圧縮部1
302へ出力する。
【0051】奥行き圧縮部1302内において、量子化
テーブル902は、量子化パラメータに従った複数種類
の量子化テーブルを予め作成して格納しておく。量子化
テーブルの例は、図14(B)に示されている。量子化
テーブル902は、入力する量子化パラメータに従って
量子化テーブルを選択する。以後の動作は、先の第3の
実施の形態の場合と同様である。これにより映像の輝度
成分及び色成分と、視覚特性を考慮した奥行き情報の圧
縮を行うことができる。
テーブル902は、量子化パラメータに従った複数種類
の量子化テーブルを予め作成して格納しておく。量子化
テーブルの例は、図14(B)に示されている。量子化
テーブル902は、入力する量子化パラメータに従って
量子化テーブルを選択する。以後の動作は、先の第3の
実施の形態の場合と同様である。これにより映像の輝度
成分及び色成分と、視覚特性を考慮した奥行き情報の圧
縮を行うことができる。
【0052】図15は、上記の第7の実施の形態に第2
の実施の形態を適用した、第8の実施の形態を示してい
る。各部の機能及び動作は先に説明した通りである。
の実施の形態を適用した、第8の実施の形態を示してい
る。各部の機能及び動作は先に説明した通りである。
【0053】図16は、第9の実施の形態である。この
実施の形態は、第1、第2、第3、第4、第5の各実施
の形態を組み合わせたさ例である。先の実施の形態のブ
ロックと対応するブロックには同一符号を付している。
左眼映像情報は、奥行き推定部及び補償部301と、画
像解析部1601と、符号化部303に入力される。奥
行き推定部301からは奥行き値と補償誤差を出力す
る。補償誤差は、補償誤差圧縮部302に入力される。
奥行き値は、奥行き情報圧縮部1602に入力される。
奥行き情報圧縮部1602には、画像解析部1601か
らの解析結果が入力される。
実施の形態は、第1、第2、第3、第4、第5の各実施
の形態を組み合わせたさ例である。先の実施の形態のブ
ロックと対応するブロックには同一符号を付している。
左眼映像情報は、奥行き推定部及び補償部301と、画
像解析部1601と、符号化部303に入力される。奥
行き推定部301からは奥行き値と補償誤差を出力す
る。補償誤差は、補償誤差圧縮部302に入力される。
奥行き値は、奥行き情報圧縮部1602に入力される。
奥行き情報圧縮部1602には、画像解析部1601か
らの解析結果が入力される。
【0054】画像解析部1601は、例えば図17に示
すように構成されている。画像解析部1607に入力す
る左眼映像情報は、色変換部1702でRGBから輝度
(L),赤−緑(r−g)、黄−青(y−b)の形式に
変換する。このあと、先の実施の形態(図8)で述べた
特性を持つフィルタ演算部1703〜1705でそれぞ
れの入力に対して空間周波数成分を求める。この結果
は、量子化パラメータ決定部1706に入力される。量
子化パラメータ決定部1706では、輝度と色成分の各
周波数成分から量子化パラメータを決定する。量子化パ
ラメータの決定は、以下のように行う。例えば量子化ス
テップ幅を決定する際には、まず小さい奥行きを知覚す
るために必要な周波数成分を一定量以上含むかどうか探
索する。含む場合には、量子化ステップを”細かい”で
設定する。含まない場合には続いてより大きい奥行きを
知覚するために必要は周波数成分を一定量以上含むかど
うかを探索する。含む場合には量子化ステップを”中”
で設定し、含まない場合には”粗い”を設定する。
すように構成されている。画像解析部1607に入力す
る左眼映像情報は、色変換部1702でRGBから輝度
(L),赤−緑(r−g)、黄−青(y−b)の形式に
変換する。このあと、先の実施の形態(図8)で述べた
特性を持つフィルタ演算部1703〜1705でそれぞ
れの入力に対して空間周波数成分を求める。この結果
は、量子化パラメータ決定部1706に入力される。量
子化パラメータ決定部1706では、輝度と色成分の各
周波数成分から量子化パラメータを決定する。量子化パ
ラメータの決定は、以下のように行う。例えば量子化ス
テップ幅を決定する際には、まず小さい奥行きを知覚す
るために必要な周波数成分を一定量以上含むかどうか探
索する。含む場合には、量子化ステップを”細かい”で
設定する。含まない場合には続いてより大きい奥行きを
知覚するために必要は周波数成分を一定量以上含むかど
うかを探索する。含む場合には量子化ステップを”中”
で設定し、含まない場合には”粗い”を設定する。
【0055】図18は上記の設定の様子をフローチャー
トで示している。次に奥行き値の時間周波数成分での再
現範囲を決定する。まず奥行きの高時間周波数を知覚す
るために必要な周波数成分を一定量以上含むかどうかを
探索する。含む場合には時間周波数の再現範囲を”低中
高”で設定する。続いてより低い時間周波数を知覚する
ために必要な周波数成分を一定量以上含むかどうかを探
索する。
トで示している。次に奥行き値の時間周波数成分での再
現範囲を決定する。まず奥行きの高時間周波数を知覚す
るために必要な周波数成分を一定量以上含むかどうかを
探索する。含む場合には時間周波数の再現範囲を”低中
高”で設定する。続いてより低い時間周波数を知覚する
ために必要な周波数成分を一定量以上含むかどうかを探
索する。
【0056】含む場合には、時間周波数の再現範囲を”
低中”で設定する。含まない場合”低”とする。
低中”で設定する。含まない場合”低”とする。
【0057】図19には、上記の設定の様子をフローチ
ャートで示している。決定した量子化パラメータは奥行
き情報圧縮部1602へ出力する。奥行き圧縮部160
2内において、量子化テーブル1202では、量子化パ
ラメータに従った複数種類の量子化テーブルを予め作成
し格納しておく。例えば量子化テーブルは第1の実施の
形態の視覚特性を基本とし、量子化パラメータにより補
正されるように作成しておく。
ャートで示している。決定した量子化パラメータは奥行
き情報圧縮部1602へ出力する。奥行き圧縮部160
2内において、量子化テーブル1202では、量子化パ
ラメータに従った複数種類の量子化テーブルを予め作成
し格納しておく。例えば量子化テーブルは第1の実施の
形態の視覚特性を基本とし、量子化パラメータにより補
正されるように作成しておく。
【0058】以後の動作はこれまでのべた実施の形態と
同様である。これにより映像の空間周波数成分、コント
ラスト、輝度成分色成分と視覚特性を考慮した奥行き情
報の圧縮を行うことができる。
同様である。これにより映像の空間周波数成分、コント
ラスト、輝度成分色成分と視覚特性を考慮した奥行き情
報の圧縮を行うことができる。
【0059】
【発明の効果】以上説明したようにこの発明によると、
立体映像信号を伝送する際、立体視における人間の視覚
特性を考慮し、人間が知覚できない奥行き情報を圧縮す
ることにより、立体映像信号伝送量の圧縮を行うことが
できる。
立体映像信号を伝送する際、立体視における人間の視覚
特性を考慮し、人間が知覚できない奥行き情報を圧縮す
ることにより、立体映像信号伝送量の圧縮を行うことが
できる。
【図1】この発明の第1の実施形態を示す図。
【図2】図1の奥行き情報圧縮部の構成と、奥行き変化
に対する空間周波数及び時間周波数との量子化ステップ
の関係を示す図。
に対する空間周波数及び時間周波数との量子化ステップ
の関係を示す図。
【図3】この発明の第2の実施の形態を示す図。
【図4】奥行きと映像との関係を示す説明図。
【図5】図3の補償誤差圧縮部の具体的構成例を示す
図。
図。
【図6】この発明の第3の実施の形態を示す図。
【図7】第3の実施の形態に用いるフィルタの特性例を
示す図。
示す図。
【図8】図6の空間周波数解析部の構成例を示す図。
【図9】奥行き情報圧縮部の構成とそこで用いられる量
子化テーブルの例を示す説明図。
子化テーブルの例を示す説明図。
【図10】この発明の第4の実施の形態を示す図。
【図11】この発明の第5の実施の形態の構成と、そこ
で用いられる量子化テーブルの例を示す説明図。
で用いられる量子化テーブルの例を示す説明図。
【図12】この発明の第6の実施の形態を示す図。
【図13】この発明の第7の実施の形態を示す図。
【図14】図13の輝度及び色成分解析部の構成と、そ
こで用いられる量子化テーブルの例を示す説明図。
こで用いられる量子化テーブルの例を示す説明図。
【図15】この発明の第8の実施の形態を示す図。
【図16】この発明の第9の実施の形態を示す図。
【図17】図16の画像解析部の構成例を示す図。
【図18】図16の実施の形態において量子化パラメー
タを決定する場合の手順の例を示すフローチャート。
タを決定する場合の手順の例を示すフローチャート。
【図19】図16の実施の形態において量子化パラメー
タを決定する場合の手順の別の例を示すフローチャー
ト。
タを決定する場合の手順の別の例を示すフローチャー
ト。
【図20】従来の立体映像圧縮方法の説明図。
101…奥行き推定部、102…奥行き情報圧縮部、1
03…符号化部、202…DCT部、203…量子化
部、204…量子化テーブル、301…奥行き推定及び
補償部、302…補償誤差圧縮部、601…空間周波数
解析部、602…奥行き情報圧縮部、1101…コント
ラスト解析部、1102…奥行き情報圧縮部、1301
…輝度及び色成分解析部、1601…画像解析部、16
02…奥行き情報圧縮部。
03…符号化部、202…DCT部、203…量子化
部、204…量子化テーブル、301…奥行き推定及び
補償部、302…補償誤差圧縮部、601…空間周波数
解析部、602…奥行き情報圧縮部、1101…コント
ラスト解析部、1102…奥行き情報圧縮部、1301
…輝度及び色成分解析部、1601…画像解析部、16
02…奥行き情報圧縮部。
Claims (4)
- 【請求項1】 1視点方向からの映像と、その映像に対
応した奥行き値とを伝送する場合、 視覚の奥行き変換に対する時間及び空間周波数特性に従
い、奥行き知覚感度の高い周波数成分に対して優先的に
伝送量を割り当てるようにした奥行き値を符号化するこ
とを特徴とする立体映像信号伝送方法。 - 【請求項2】 1視点方向からの映像と、その映像に対
応した奥行き値と、1視点方向からの映像とその映像に
対応した奥行き値から予測される1視点以外の映像と実
際の1視点以外の映像との補償誤差とを伝送する場合、 視覚の奥行き変化に対する時間及び空間周波数特性に従
い,奥行き知覚度の高い補償誤差を符号化することを特
徴とする立体映像伝送方法。 - 【請求項3】 映像の特徴量を求め、映像の特徴量と奥
行き変化に対する時間及び空間周波数特性との関係に従
い、奥行き知覚感度の高い周波数成分に優先的に伝送量
を割り当てることを特徴とする請求項1または2記載の
立体映像伝送方法。 - 【請求項4】 前記特徴量は、映像の輝度の空間周波数
成分、または色の空間周波数成分、または映像のコント
ラストのうち少なくともいずれか1つであることを特徴
とする請求項3記載の立体映像伝送方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11232825A JP2001061164A (ja) | 1999-08-19 | 1999-08-19 | 立体映像信号伝送方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11232825A JP2001061164A (ja) | 1999-08-19 | 1999-08-19 | 立体映像信号伝送方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001061164A true JP2001061164A (ja) | 2001-03-06 |
Family
ID=16945381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11232825A Pending JP2001061164A (ja) | 1999-08-19 | 1999-08-19 | 立体映像信号伝送方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001061164A (ja) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227231A (ja) * | 2003-01-22 | 2004-08-12 | Nippon Telegr & Teleph Corp <Ntt> | 画像データへの立体情報埋め込み方法、装置、プログラム、および記録媒体 |
JP2006191357A (ja) * | 2005-01-06 | 2006-07-20 | Victor Co Of Japan Ltd | 再生装置および再生プログラム |
US7403201B2 (en) | 2003-01-20 | 2008-07-22 | Sanyo Electric Co., Ltd. | Three-dimensional video providing method and three-dimensional video display device |
JP2009055112A (ja) * | 2007-08-23 | 2009-03-12 | Otsuka Denshi Co Ltd | 動画特性評価方法及び装置 |
JP2010028261A (ja) * | 2008-07-16 | 2010-02-04 | Sony Corp | 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法 |
WO2010073513A1 (ja) * | 2008-12-26 | 2010-07-01 | 日本ビクター株式会社 | 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム |
JP2010157826A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像復号装置、画像符復号方法およびそのプログラム |
JP2010157825A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
JP2010157821A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
JP2010157822A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像復号装置、画像符復号方法およびそのプログラム |
JP2010157823A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
JP2010157824A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
US7817181B2 (en) | 2004-01-20 | 2010-10-19 | Sejong Industry - Academy Cooperation Foundation | Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video |
KR20110059531A (ko) * | 2009-11-27 | 2011-06-02 | 소니 주식회사 | 화상 처리 장치, 화상 처리 방법 및 프로그램 |
JP2011120261A (ja) * | 2009-06-29 | 2011-06-16 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP2012065327A (ja) * | 2010-09-20 | 2012-03-29 | Lg Electronics Inc | 携帯端末機及びその動作制御方法 |
JP2012124766A (ja) * | 2010-12-09 | 2012-06-28 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP2012135019A (ja) * | 2012-02-20 | 2012-07-12 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラムおよび復号プログラム |
JP2012529787A (ja) * | 2009-06-05 | 2012-11-22 | クゥアルコム・インコーポレイテッド | 2次元ビデオシーケンスとともに行われる3次元変換情報の符号化(encodingofthree−dimensionalconversioninformationwithtwo−dimensionalvideosequence) |
JP2013509022A (ja) * | 2009-10-14 | 2013-03-07 | トムソン ライセンシング | フィルタ処理およびエッジ符号化 |
JP2013131928A (ja) * | 2011-12-21 | 2013-07-04 | Toshiba Corp | 画像符号化装置および画像符号化方法 |
CN103559701A (zh) * | 2013-09-26 | 2014-02-05 | 哈尔滨商业大学 | 基于dct系数熵的二维单视图像深度估计方法 |
JP2014209759A (ja) * | 2014-06-13 | 2014-11-06 | ソニー株式会社 | 送信装置および送信方法 |
US8970680B2 (en) | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
-
1999
- 1999-08-19 JP JP11232825A patent/JP2001061164A/ja active Pending
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7403201B2 (en) | 2003-01-20 | 2008-07-22 | Sanyo Electric Co., Ltd. | Three-dimensional video providing method and three-dimensional video display device |
JP2004227231A (ja) * | 2003-01-22 | 2004-08-12 | Nippon Telegr & Teleph Corp <Ntt> | 画像データへの立体情報埋め込み方法、装置、プログラム、および記録媒体 |
US7817181B2 (en) | 2004-01-20 | 2010-10-19 | Sejong Industry - Academy Cooperation Foundation | Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video |
JP2006191357A (ja) * | 2005-01-06 | 2006-07-20 | Victor Co Of Japan Ltd | 再生装置および再生プログラム |
US9509980B2 (en) | 2006-08-01 | 2016-11-29 | Qualcomm Incorporated | Real-time capturing and generating viewpoint images and videos with a monoscopic low power mobile device |
US8970680B2 (en) | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
JP2009055112A (ja) * | 2007-08-23 | 2009-03-12 | Otsuka Denshi Co Ltd | 動画特性評価方法及び装置 |
US9807363B2 (en) | 2008-07-16 | 2017-10-31 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
US9762887B2 (en) | 2008-07-16 | 2017-09-12 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
US9451235B2 (en) | 2008-07-16 | 2016-09-20 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
RU2522424C2 (ru) * | 2008-07-16 | 2014-07-10 | Сони Корпорейшн | Передающее устройство, способ передачи данных стереоскопического изображения, приемное устройство и способ приема данных стереоскопического изображения |
US9185385B2 (en) | 2008-07-16 | 2015-11-10 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
US10015468B2 (en) | 2008-07-16 | 2018-07-03 | Sony Corporation | Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method |
JP2010028261A (ja) * | 2008-07-16 | 2010-02-04 | Sony Corp | 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法 |
JP2010157823A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
JP2010157826A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像復号装置、画像符復号方法およびそのプログラム |
JP2010157822A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像復号装置、画像符復号方法およびそのプログラム |
JP2010157821A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
WO2010073513A1 (ja) * | 2008-12-26 | 2010-07-01 | 日本ビクター株式会社 | 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム |
US8750632B2 (en) | 2008-12-26 | 2014-06-10 | JVC Kenwood Corporation | Apparatus and method for encoding images from multiple viewpoints and associated depth information |
JP2010157825A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
JP2010157824A (ja) * | 2008-12-26 | 2010-07-15 | Victor Co Of Japan Ltd | 画像符号化装置、画像符号化方法およびそのプログラム |
JP2012529787A (ja) * | 2009-06-05 | 2012-11-22 | クゥアルコム・インコーポレイテッド | 2次元ビデオシーケンスとともに行われる3次元変換情報の符号化(encodingofthree−dimensionalconversioninformationwithtwo−dimensionalvideosequence) |
JP2015046899A (ja) * | 2009-06-05 | 2015-03-12 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 2次元ビデオシーケンスとともに行われる3次元変換情報の符号化(encodingofthree−dimensionalconversioninformationwithtwo−dimensionalvideosequence) |
US9124874B2 (en) | 2009-06-05 | 2015-09-01 | Qualcomm Incorporated | Encoding of three-dimensional conversion information with two-dimensional video sequence |
JP2011120261A (ja) * | 2009-06-29 | 2011-06-16 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP2013509022A (ja) * | 2009-10-14 | 2013-03-07 | トムソン ライセンシング | フィルタ処理およびエッジ符号化 |
US10198792B2 (en) | 2009-10-14 | 2019-02-05 | Dolby Laboratories Licensing Corporation | Method and devices for depth map processing |
US10417748B2 (en) | 2009-10-14 | 2019-09-17 | Dolby Laboratories Licensing Corporation | Filtering and edge encoding and decoding for depth maps |
JP2016146655A (ja) * | 2009-10-14 | 2016-08-12 | トムソン ライセンシングThomson Licensing | フィルタ処理およびエッジ符号化 |
KR101656887B1 (ko) * | 2009-11-27 | 2016-09-22 | 소니 주식회사 | 화상 처리 장치, 화상 처리 방법 및 프로그램이 기록된 컴퓨터 판독가능한 기록 매체 |
KR20110059531A (ko) * | 2009-11-27 | 2011-06-02 | 소니 주식회사 | 화상 처리 장치, 화상 처리 방법 및 프로그램 |
US9934575B2 (en) | 2009-11-27 | 2018-04-03 | Sony Corporation | Image processing apparatus, method and computer program to adjust 3D information based on human visual characteristics |
JP2012065327A (ja) * | 2010-09-20 | 2012-03-29 | Lg Electronics Inc | 携帯端末機及びその動作制御方法 |
US8896670B2 (en) | 2010-12-09 | 2014-11-25 | Sony Corporation | Image processing device, image processing method, and program |
CN102572469A (zh) * | 2010-12-09 | 2012-07-11 | 索尼公司 | 图像处理设备,图像处理方法和程序 |
JP2012124766A (ja) * | 2010-12-09 | 2012-06-28 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP2013131928A (ja) * | 2011-12-21 | 2013-07-04 | Toshiba Corp | 画像符号化装置および画像符号化方法 |
JP2012135019A (ja) * | 2012-02-20 | 2012-07-12 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラムおよび復号プログラム |
CN103559701A (zh) * | 2013-09-26 | 2014-02-05 | 哈尔滨商业大学 | 基于dct系数熵的二维单视图像深度估计方法 |
JP2014209759A (ja) * | 2014-06-13 | 2014-11-06 | ソニー株式会社 | 送信装置および送信方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001061164A (ja) | 立体映像信号伝送方法 | |
US11770558B2 (en) | Stereoscopic video encoding and decoding methods and apparatus | |
Shao et al. | Asymmetric coding of multi-view video plus depth based 3-D video for view rendering | |
KR101365329B1 (ko) | 비디오 시퀀스로의 추가 채널로서의 깊이 코딩 | |
KR102472533B1 (ko) | 멀티-뷰 신호 코덱 | |
KR101345303B1 (ko) | 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치 | |
CN105791861B (zh) | 定向内插和数据后处理 | |
De Silva et al. | Display dependent preprocessing of depth maps based on just noticeable depth difference modeling | |
US20110164110A1 (en) | Method and system for detecting compressed stereoscopic frames in a digital video signal | |
EP1931150A1 (en) | Image processing system for processing combined image data and depth data | |
JP2017512440A (ja) | ステレオビデオのための深度認識向上 | |
KR20150036261A (ko) | 3차원 비디오를 표현하는 비트 스트림을 코딩하는 장치 | |
TWI511525B (zh) | 用於產生、傳送及接收立體影像之方法,以及其相關裝置 | |
Pająk et al. | Perceptual depth compression for stereo applications | |
Shao et al. | Stereoscopic video coding with asymmetric luminance and chrominance qualities | |
Liu et al. | Sparse dyadic mode for depth map compression | |
Karlsson et al. | Region-of-interest 3D video coding based on depth images | |
Karlsson et al. | Layer assignment based on depth data distribution for multiview-plus-depth scalable video coding | |
KR100656783B1 (ko) | 양안식 입체 영상 전송 장치 및 그 방법과 그를 이용한양안식 입체 영상 렌더링 장치 및 그 방법 | |
Farid et al. | Efficient representation of disoccluded regions in 3D video coding | |
Joachimiak et al. | Evaluation of depth-based super resolution on compressed mixed resolution 3d video | |
Al Boridi et al. | Wavelet decomposition-based stereoscopic 3-D video watermarking—A comparative study | |
Fezza et al. | Asymmetric coding using binocular just noticeable difference and depth information for stereoscopic 3D | |
Ding et al. | Depth map pre-processing algorithm for compression based on 3D-HEVC scheme | |
JPH1028274A (ja) | 立体画像符号化装置 |