[go: up one dir, main page]

JP4903240B2 - 映像処理装置、映像処理方法及びコンピュータプログラム - Google Patents

映像処理装置、映像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP4903240B2
JP4903240B2 JP2009087396A JP2009087396A JP4903240B2 JP 4903240 B2 JP4903240 B2 JP 4903240B2 JP 2009087396 A JP2009087396 A JP 2009087396A JP 2009087396 A JP2009087396 A JP 2009087396A JP 4903240 B2 JP4903240 B2 JP 4903240B2
Authority
JP
Japan
Prior art keywords
video
depth
image
enhanced
frame object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009087396A
Other languages
English (en)
Other versions
JP2010238108A (ja
Inventor
健明 末永
健一郎 山本
正宏 塩井
誠 大津
幹生 瀬戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009087396A priority Critical patent/JP4903240B2/ja
Priority to US13/262,457 priority patent/US20120026289A1/en
Priority to EP10758630A priority patent/EP2416582A4/en
Priority to CN2010800150969A priority patent/CN102379127A/zh
Priority to PCT/JP2010/055544 priority patent/WO2010113859A1/ja
Publication of JP2010238108A publication Critical patent/JP2010238108A/ja
Application granted granted Critical
Publication of JP4903240B2 publication Critical patent/JP4903240B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

入力された映像の奥行き感を強調する処理を行う映像処理装置、映像処理方法、及びコンピュータを前記映像処理装置として動作させるためのコンピュータプログラムに関する。
テレビ、携帯電話などの映像表示装置に表示される二次元映像の立体感又は奥行き感を高める様々な手法が提案されている。例えば、立体感又は奥行き感を高める方法の一つとして両眼視差を利用した立体視手法が提案されている。立体視手法は、視聴者の左右の目それぞれに、左目用視差画像と、右目用視差画像とを送ることによって、視聴者に錯覚を起こさせ、二次元平面に立体感又は奥行き感を与える手法である。
左右の目それぞれに左目用視差画像及び右目用視差画像を送る方式には、左目用視差画像と右目用視差画像とを交互に切り替えて表示する映像表示装置と、各視差画像の切り替え周波数に同期して、左右のシャッタを切り替えて光路を遮断する眼鏡とを用いた方式がある(例えば、特許文献1)。
また、左目用視差画像及び右目用視差画像を夫々赤色画像及び青色画像に色変換し、色変換された各画像を重畳的に表示する映像表示装置と、赤青眼鏡とを用いることによって、左右の目それぞれに赤色画像及び青色画像を送るアナグリフ方式がある。
更に、左目用視差画像及び右目用視差画像それぞれを異なる偏光にて表示する映像表示装置と、偏光眼鏡とを用いることによって、左右の目それぞれに左目用視差画像及び右目用視差画像を送る方式がある(例えば、特許文献2)。
他方、絵画の分野では、遠近法、陰影法、前進色及び後退色の組み合わせなどの絵画的技巧を利用して絵画の立体感又は奥行き感を高めることが行われている。これらの絵画的技巧を利用して作成される絵画作品は、トリックアート又はトロンプ・ルイユと呼ばれている。トリックアートは、前述の絵画的技巧を利用して、平面作品における背景、各オブジェクト間の重畳関係を描写することで、二次元的に描写されたオブジェクトの一部が恰も現実世界の三次元空間に飛び出しているように錯覚を起こさせ、平面作品に立体感又は奥行き感を与えることができる。
特開昭60−7291号公報 特開平1−171390号公報
しかしながら、特許文献1,2に係るシステムにおいては、専用の映像表示装置及び特殊な眼鏡を用意する必要があった。また、視聴者は特殊な眼鏡の装着を義務付けられ、視聴方法が著しく制限されるという問題があった。
本発明は、斯かる事情に鑑みてなされたものであり、専用の映像表示装置及び特殊な眼鏡を用いず、画像処理のみによって映像の奥行き感を向上させることができる映像処理装置、映像処理方法及びコンピュータを前記映像処理装置として動作させるためのコンピュータプログラムを提供することを目的とする。
本発明に係る映像処理装置は、入力された映像の奥行き感を強調する処理を行う映像処理装置であって、前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得する奥行き情報取得手段と、該奥行き情報取得手段にて取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割する映像分割手段と、該映像分割手段にて分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調画像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調画像を合成する映像合成手段とを備えることを特徴とする。
本発明に係る映像処理装置は、入力された映像の輝度又は色に基づいて、輝度又は色が該映像と異なる奥行き強調映像を生成する生成手段を備え、前記映像合成手段は、前記生成手段にて生成された奥行き強調映像を合成するようにしてあることを特徴とする。
本発明に係る映像処理装置は、前記生成手段は、前記映像分割手段にて分割された一の映像部分及び/又は他の映像部分の輝度又は色に基づいて、輝度又は色が該映像部分と異なる奥行き強調映像を生成するようにしてあることを特徴とする。
本発明に係る映像処理装置は、時系列順に複数の映像が入力されるように構成されており、時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段を備え、前記生成手段は、該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成するようにしてあることを特徴とする。
本発明に係る映像処理装置は、時系列順に複数の映像が入力されるように構成されており、時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段と、該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成する生成手段とを備え、前記映像合成手段は、前記生成手段にて生成された奥行き強調映像を合成するようにしてあることを特徴とする。
本発明に係る映像処理装置は、所定の三次元画像を記憶する記憶手段を備え、前記生成手段は、前記記憶手段が記憶している三次元画像と、前記移動方向情報取得手段にて取得した一の映像部分の移動方向情報が示す移動方向とが所定の位置関係になるように、該三次元画像を回転させる回転処理手段を備え、該回転処理手段にて回転した三次元画像を所定の二次元平面に射影させて得られる二次元形状を有する奥行き強調映像を生成するようにしてあることを特徴とする。
本発明に係る映像処理方法は、入力された映像の奥行き感を強調する処理を行う映像処理方法であって、前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得し、取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割し、分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調画像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調画像を合成することを特徴とする。
本発明に係るコンピュータプログラムは、コンピュータに、映像の奥行き感を強調する処理を実行させるコンピュータプログラムであって、前記コンピュータに、前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割するステップと、分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調画像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調画像を合成するステップとを実行させることを特徴とする。
本発明にあっては、映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得し、取得した奥行き情報に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割する。そして、少なくとも一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調画像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調画像が合成される。合成された映像は、一の映像部分、奥行き強調映像、及び他の映像部分がこの順で重畳的に合成されたものであるため、一の映像部分及び他の映像部分の奥行きが奥行き強調映像によって強調される。
具体的には、一の映像部分の一部に奥行き強調映像が重畳的に合成された場合、視聴者は、奥行き強調映像が一の映像部分の手前側に位置していると認識する。また、奥行き強調映像の一部に他の映像部分が重畳的に合成された場合、視聴者は、他の映像部分が奥行き強調映像部分の手前側に位置していると認識する。従って、一の映像部分と、他の映像部分とが奥行き方向に離隔しているという奥行き感を、視聴者に与えることが可能になる。
なお、奥行き強調映像の数は1つに限定されず、映像を、3以上の映像部分に分割し、各映像部分間夫々に奥行き強調映像が挿入されるように、各映像部分及び奥行き強調映像を合成する技術的思想も本発明に含まれる。
本発明にあっては、生成手段は、入力された映像の輝度又は色に基づいて、輝度又は色が該映像と異なる奥行き強調映像を生成する。従って、奥行き強調画像と、映像部分とは異なる輝度又は色を有する。よって、一の映像部分及び他の映像部分の奥行きを効果的に強調することが可能になる。
本発明にあっては、生成手段は、一の映像部分及び/又は他の映像部分の輝度又は色に基づいて、輝度又は色が該映像部分と異なる奥行き強調映像を生成する。従って、奥行き強調画像と、映像部分とは異なる輝度又は色を有する。よって、一の映像部分及び他の映像部分の奥行きを効果的に強調することが可能になる。
本発明にあっては、移動方向情報取得手段は、時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する。そして、生成手段は、取得した移動方向情報に応じた形状を有する奥行き強調画像を生成する。つまり、生成手段は、映像部分の移動を強調することが可能な形状を有する奥行き強調画像を生成する。
本発明にあっては、記憶手段は、奥行き強調映像の元になる三次元画像を記憶している。回転処理手段は、記憶手段が記憶している三次元画像と、移動方向情報取得手段にて取得した移動方向情報が示す移動方向とが所定の位置関係になるように、該三次元画像を回転させる。つまり、三次元画像は、映像部分の移動方向を向くように回転する。そして、生成手段は、回転した三次元画像を所定の二次元平面に射影させて得られる二次元形状を有する奥行き強調映像を生成する。従って、合成される奥行き強調映像は、映像部分の移動方向を向いたような形状となる。よって、映像部分の移動が強調される。
なお、三次元画像とは、三次元空間における画像を意味し、三次元画像には、三次元空間における立体的な画像はもちろん、平面的な画像も含まれる。
本発明によれば、専用の映像表示装置及び特殊な眼鏡を用いず、画像処理のみによって映像の奥行き感を向上させることができる。
本発明の実施の形態に係る映像処理装置の一構成例を示すブロック図である。 映像取得部が取得した映像の一例を示す説明図である。 奥行き情報を概念的に示す説明図である。 前景映像部分及び背景映像部分を概念的に示す説明図である。 飛び出し情報を概念的に示した説明図である。 原三次元枠オブジェクトを概念的に示す説明図である。 枠オブジェクトの形状決定方法を概念的に示す説明図である。 枠オブジェクトの輝度及び色の決定方法を概念的に示す説明図である。 映像合成部の処理内容を概念的に示す説明図である。 映像処理装置が実施する映像処理方法の流れを示すフローチャートである。 枠オブジェクト生成部の動作の流れを示すフローチャートである。 変形例1に係る映像処理装置の一構成例を示すブロック図である。 変形例2に係る映像処理装置の一構成例を示すブロック図である。 奥行き強調映像の一例であるカーテンオブジェクトを示す模式図である。 変形例4に係る枠オブジェクトの形状決定方法を概念的に示す説明図である。 変形例5に係る映像処理装置を示すブロック図である。
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
図1は、本発明の実施の形態に係る映像処理装置1の一構成例を示すブロック図である。本実施の形態に係る映像処理装置1は、映像取得部11、奥行き情報取得部12、映像分割部13、飛び出し情報取得部14、枠オブジェクト生成部15及び映像合成部16を備える。
<映像取得部>
映像取得部11は、立体感又は奥行き感を向上させる映像処理対象の映像を取得し、取得した映像を映像分割部13へ出力する。映像取得部11にて取得される映像は、静止画像又は動画像のいずれでも良い。静止画は、1フレームの映像で構成され、動画像は、時系列順の複数フレームの映像で構成される。また、該映像は、所定の符号化方式、例えばJPEG(Joint Photographic Experts Group)、MPEG−2(Moving Picture Expert Group phase2)等で圧縮されたものであっても、非圧縮のものであっても良い。符号化された映像を取得する構成である場合、映像取得部11は、取得した映像を所定の符号化方式に従って、該映像を例えばRGB形式やYUV形式の映像に復号し、復号して得た映像を映像分割部13へ出力する。
以下、本実施の形態では、説明の簡単のため、静止画又は動画を構成する1フレームの映像に対して行う処理を説明するが、動画の場合、時系列順に連続する各フレームの映像に対して同様の処理を行うものとする。
図2は、映像取得部11が取得した映像の一例を示す説明図である。図2に示した映像は、二次元に配列された複数の画素夫々の輝度及び色を示したデータであり、奥行き方向の距離が異なる複数のオブジェクト、例えば鳥、木、太陽、空、雲等の被写体に相当する映像から構成されている。奥行き方向の距離とは、オブジェクトに係る被写体と、所定位置、例えば該映像の撮像に用いた撮影装置の位置との距離をいう。以下、該距離を適宜、奥行きという。
<奥行き情報取得部>
奥行き情報取得部12は、映像取得部11から得られる映像を構成する複数のオブジェクト夫々の奥行きを示した奥行き情報を取得し、取得した奥行き情報を映像分割部13へ出力する。本実施の形態では、奥行き方向における撮影装置及び各被写体間の距離を撮像時に計測しておき、計測して得られた距離の情報を有する奥行き情報が映像とは別に映像処理装置1に入力されるものとする。
なお、撮影装置及び各被写体間の距離は、例えばステレオ法を応用して計測すれば良い。具体的には、離隔配置した2つの撮像部で共通の被写体を撮像し、各撮像部で撮像された2枚の映像における被写体の視差を算出し、三角測量の原理により撮像装置と被写体との距離を求める。
また、被写体に赤外線を照射する測距用の赤外線照射部と、被写体で反射された赤外線の強度を測定する赤外線検出部とを撮像装置に設け、各被写体から反射された赤外線の強度に基づいて、撮像装置と被写体との距離を求めても良い。
図3は、奥行き情報を概念的に示す説明図である。図3に示すように、映像を構成する複数のオブジェクト夫々に対応付けられた奥行きの情報を有する画像を奥行き画像という。奥行きは、例えば、距離の短い順に1、2、…、5の昇順の数字で示されている。具体的には、奥行き画像は、入力された映像と同様の複数の画素から構成されており、入力された映像を構成する各画素に対応する奥行きを示した1〜5のいずれかの数値が、奥行き画像の各画素の画素値として割り当てられている。なお、ここでは説明の簡単のために、奥行き情報を5段階で示すものとするが、奥行き情報は5段階未満乃至は5段階より多くても良く、もちろん無段階で示すものとしても問題はない。
<映像分割部>
映像分割部13は、映像取得部11で取得した映像を、奥行き情報取得部12で取得した奥行き情報に基づいて、前景映像部分F11と、背景映像部分F12とに分割する(図4参照)。そして、映像分割部13は、分割した前景映像部分F11及び背景映像部分F12を、枠オブジェクト生成部15及び映像合成部16へ出力する。具体的には、映像分割部13は、取得した映像の各画素に対応する奥行きと、所定の閾値とを比較し、奥行きが閾値未満である場合、該画素を前景映像部分F11の画素とし、奥行きが閾値以上である場合、背景映像部分F12の画素とする。閾値は、映像分割部13が予め記憶している定数である。
各画素を示した変数をn=0、1、2…、前景映像部分F11及び背景映像部分F12の別を示す変数をPx(n)、各画素の奥行きを示す変数をDepth(n)、閾値をTh1とした場合、Px(n)は、下記式(1)、(2)で表される。
Px(n)=背景 (Th1<Depth(n))…(1)
Px(n)=前景 (Th1≧Depth(n))…(2)
図4は、前景映像部分F11及び背景映像部分F12を概念的に示す説明図である。閾値Th1が2である場合、図2に示した映像F1は、図3に示した奥行き画像G1及び閾値Th1=2に基づき、前景映像部分F11(図4(a)中の実線で囲まれた白色領域)と背景映像部分F12(図4(b)中の実線で囲まれた白色領域(破線で囲まれたグレー領域を除いた領域))に分割される。
なお、閾値Th1は予め映像分割部13に記録されている値として説明を行ったが、映像処理装置1を使用する視聴者が自由に設定できる値としても良い。また、閾値Th1を計算で求めても良い。例えば、閾値Th1は、下記式(3)で表される。
Th=(ΣDepth(n))/(w*h)…(3)
但し、nは0、1、2、…、w*hの整数、hは映像F1の高さ(垂直方向に配列した画素の数)、wは映像F1の幅(水平方向に配列した画素の数)である。
<飛び出し情報取得部>
飛び出し情報取得部14は、映像F1内の各オブジェクトに設定された飛び出しの方向を示した飛び出し情報を取得し、取得した飛び出し情報を枠オブジェクト生成部15へ出力する。ここで、飛び出しの方向とは、映像内の各オブジェクトの飛び出しを強調する際に、どちらの方向に飛び出し感を与えるべきかを示した情報である。
図5は、飛び出し情報を概念的に示した説明図である。飛び出し情報は例えば、図5(a)に示すように、映像F1の縦方向(垂直方向)をY軸、横方向(水平方向)をX軸、映像面に対して垂直な前後方向の仮想的な軸をZ軸とした3次元空間における3次元のベクトルで表される。この飛び出し情報は、図5(b)に示すように、オブジェクトごとに指定されているものとする。なお、本実施の形態では飛び出し情報は正規化された単位ベクトルとして扱うものとする。
<枠オブジェクト生成部>
枠オブジェクト生成部15は、映像の奥行きを強調するための枠オブジェクトH3(図9参照)の基になる情報を記憶する記憶部15aと、飛び出し情報に基づいて、枠オブジェクトH3の形状を決定するための回転処理部15b及び射影変換部15cと、前景映像部分F11及び背景映像部分F12の輝度及び色に基づいて枠オブジェクトH3の輝度及び色を決定する色決定部15dとを備える。ここで枠オブジェクトH3とは、前景映像部分F11と、背景映像部分F12との間に挿入することで前景及び背景との相対的な距離感を与え、視聴者に立体感、奥行き感を知覚させるためのオブジェクトである。本実施の形態では、枠オブジェクトH3として、映像F1の外周を囲う枠状の映像を生成する。
記憶部15aは、枠オブジェクトH3の基になる情報を予め記憶している。具体的には、三次元空間における三次元画像を記憶している。以下、該三次元画像を原三次元枠オブジェクトH1(図6参照)という。
図6は、原三次元枠オブジェクトH1を概念的に示す説明図である。原三次元枠オブジェクトH1は、三次元空間における原点に中心が位置し、XY平面に略平行な矩形枠状をなしている。H2は、原三次元枠オブジェクトH1の法線ベクトルH2を示している。
まず、枠オブジェクト生成部15は、原三次元枠オブジェクトH1と、飛び出し情報とに基づいて、枠オブジェクトH3の形状を決定する。
図7は、枠オブジェクトH3の形状決定方法を概念的に示す説明図である。ここでは、図7(a)に示すように、映像F2内にオブジェクトF21が存在し、その飛び出し情報が指定されているものとする。なお、映像F2は、枠オブジェクトH3の生成方法を説明すべく、映像F1を簡略化したものである。枠オブジェクトH3の形状は、図7(b)で示した仮想的な3次元空間中で原三次元枠オブジェクトH1を飛び出し方向に応じて回転させ、即ち傾きを与え、傾いた三次元枠オブジェクトH11,H21(図7参照)をXY平面上に射影することによって得られる。以下、詳細に説明する。
まず、原三次元枠オブジェクトH1の傾きを規定する傾きベクトルを算出する。傾きベクトルは下記式(4)で表される。
(x1,y1,z1)=(a*x,b*y,c*z)…(4)
但し、(x1,y1,z1)は飛び出し情報、a,b,cは、枠オブジェクト生成部15が予め記憶している定数(0≦a,b,c≦1.0)である。
そして、回転処理部15bは、原三次元枠オブジェクトH1の法線ベクトルH2が傾きベクトル(x1,y1,z1)に一致するように、原三次元枠オブジェクトH1を回転させる。
次いで、射影変換部15cは、回転処理後の三次元枠オブジェクトH11,H21をXY平面に正射影した二次元形状に変換し、該二次元形状を枠オブジェクトH3の形状として記憶する。
例えば、図7(b)に示すようにオブジェクトF21の飛び出し情報が(0,0,1)で与えられ、a=1.0、b=1.0、c=1.0である場合、傾きベクトルは(0,0,1)となる。そして、回転処理部15bは、原三次元枠オブジェクトH1の法線ベクトルH2が傾きベクトル(0,0,1)と略一致するように、該原三次元枠オブジェクトH1を回転させる。回転処理後の三次元枠オブジェクトH11をXY平面上に投射した最終的な形状は図7(b)のXY平面に示した形となる。
また、図7(c)に示すように、オブジェクトF21の飛び出し情報が(x,0,√(1−x^2))で与えられ、a=1.0、b=1.0、c=1.0である場合、傾きベクトルは(x,0,√(1−x^2))となる。そして、回転処理部15bは、原三次元枠オブジェクトH1の法線ベクトルH2が傾きベクトル(x,0,√(1−x^2)と略一致するように、該原三次元枠オブジェクトH1を回転させる。回転処理後の三次元枠オブジェクトH21をXY平面上に投射した最終的な形状は図7(c)のXY平面に示すような形となる。
次に、枠オブジェクト生成部15は枠の輝度及び色を決定する。
図8は、枠オブジェクトH3の輝度及び色の決定方法を概念的に示す説明図である。色決定部15dは、枠オブジェクトH3の色を映像全体の輝度、つまり前景映像部分F11及び背景映像部分F12双方の輝度に基づいて決定する。図8(a)は、特にある一の時点で映像取得部11が取得した映像F3、図8(b)は、映像F3の輝度ヒストグラムであり、映像F3の輝度の平均値がf3で表されている。色決定部15dは、予め閾値Th2と、平均輝度f3が閾値Th2以上であった場合の枠オブジェクトH3の色C1と、閾値Th2未満であった場合の枠オブジェクトH3の色C2を記憶している。なお、色C1及び色C2は、異なる輝度を有している。映像F3の平均輝度f3は閾値Th2以上であるため、色決定部15dは、図8(c)に示すように枠オブジェクトH3の色としてC1を決定する。
同様に、図8(d)は他の時点で映像取得部11が取得した映像F4、図8(e)は、映像F4の輝度ヒストグラムであり、映像F4の輝度の平均値がf4で表されている。映像F4の平均輝度f4は閾値Th2未満であるため、色決定部15dは、図8(f)に示すように枠オブジェクトH3の色として色C2を決定する。
なお、枠オブジェクトH3の色については、特に限定されない。但し、平均輝度が閾値Th2以上である場合は閾値Th2より輝度が低い色を、平均輝度が閾値Th2より低い場合は閾値Th2より輝度が高い色を選ぶ方が好ましい。
また、予め定数dを色決定部15dに記憶させておき、枠オブジェクトH3の輝度を下記式(5)、(6)で決定するようにすると良い。
枠オブジェクトH3の輝度=平均輝度−d (平均輝度≧閾値Th2)…(5)
枠オブジェクトH3の輝度=平均輝度+d (平均輝度<閾値Th2)…(6)
更に、背景映像部分F12に基づいて、半透明の枠オブジェクトH3を生成するように構成しても良い。枠オブジェクトH3が半透明である場合、枠オブジェクトH3によって背景映像部分F12が覆い隠されても、視聴者は、覆い隠された背景映像部分F12の内容を伺い知ることができる。従って、映像の情報削減量を抑え、かつ映像の奥行きを強調することができる。
更にまた、枠オブジェクトH3を額縁、窓の枠やテレビの枠などを模したオブジェクトとして配置しても良い。
更にまた、映像F3,F4の輝度に基づいて、枠オブジェクトH3の色C1,C2を決定する例を説明したが、映像F3,F4の色、例えば平均彩度に基づいて、枠オブジェクトH3の色を映像の色と異なるように決定するように構成しても良い。また、映像F3,F4の輝度及び色夫々に基づいて、枠オブジェクトH3の輝度及び色を決定するように構成しても良い。
更にまた、映像全体の輝度に基づいて枠オブジェクトH3の色及び輝度を決定する例を説明したが、前景映像部分F11のみの平均輝度に基づいて、枠オブジェクトH3の色及び輝度を決定しても良い。つまり、前景映像部分F11の輝度と、枠オブジェクトH3の輝度とが異なるように、該枠オブジェクトH3の色及び輝度を決定しても良い。この場合、枠オブジェクトH3と、前景映像部分F11との差異が際だつため、前景映像部分F11の奥行きを効果的に強調することが可能になる。
同様に、背景映像部分F12のみの平均輝度に基づいて、枠オブジェクトH3の色及び輝度を決定しても良い。つまり、背景映像部分F12の輝度と、枠オブジェクトH3の輝度とが異なるように、該枠オブジェクトH3の色及び輝度を決定しても良い。この場合、枠オブジェクトH3と、背景映像部分F12との差異が際だつため、背景映像部分F12の奥行きを効果的に強調することが可能になる。
更に、前景映像部分F11及び背景映像部分F12の平均輝度を各別に算出し、算出された各平均輝度と、枠オブジェクトH3の輝度とが異なるように、該枠オブジェクトH3の輝度及び色を決定するように構成しても良い。この場合、枠オブジェクトH3、前景映像部分F11、背景映像部分F12夫々の差異が際だつため、前景映像部分F11及び背景映像部分F12の奥行きを効果的に強調することが可能になる。
枠オブジェクト生成部15は、射影変換部15cにて決定した形状と、色決定部15dにて決定した色とを有する枠オブジェクトH3を生成し、生成した枠オブジェクトH3を映像合成部16へ出力する。
<映像合成部>
図9は、映像合成部16の処理内容を概念的に示す説明図である。映像合成部16は、映像分割部13から出力された前景映像部分F11及び背景映像部分F12と、枠オブジェクト生成部15から出力された枠オブジェクトH3を入力する。そして、映像合成部16は、図9(a)、(b)に示すように背景映像部分F12に枠オブジェクトH3が重畳され、更に枠オブジェクトH3に前景映像部分F11が重畳されるように、背景映像部分F12、枠オブジェクトH3及び前景映像部分F11を合成する。また、映像及び枠オブジェクトH3の形状及び寸法が一致しない場合、図9(b)に示すように、枠オブジェクトH3の外側の領域が発生するが、映像合成部16は、枠オブジェクトH3の外側にはみ出た背景映像部分F12を表示させないように、該領域には所定の補完映像I1,I2を合成する。なお、枠オブジェクトH3の外側にはみ出た前景映像部分F11は、そのまま表示させる。つまり、補完映像I1,I2に重畳させるように、前景映像部分F11を表示させる。補完映像I1,I2は、例えば、単色の映像、壁のテクスチャ等の任意の映像である。枠オブジェクトH3の外側にはみ出た背景映像部分F12をそのまま表示した場合、視聴者が背景映像部分F12の奥行きを誤って認識するおそれがあるところ、補完映像I1,I2によって、枠オブジェクトH3の外側にはみ出た映像部分を覆うことによって、奥行きの誤認を防止することができ、効果的に映像の奥行きを強調することが可能になる。
なお、表示装置周辺の映像を取得できる場合は、該映像を補完映像として表示することとしても良い。
映像合成部16は、背景映像部分F12、枠オブジェクトH3及び前景映像部分F11の合成によって得られた合成映像を外部の表示部2へ出力する。
表示部2は、例えば液晶表示パネル、プラズマディスプレイ、有機EL(Electro-Luminescence)ディスプレイであり、映像処理装置11から出力された合成映像を入力し、合成映像を表示する。
なお、合成映像の出力先として表示部2を例示したが、合成映像を出力することが可能であれば、プリンタ、送信装置その他、各種出力装置を採用しても良い。
図10は、映像処理装置1が実施する映像処理方法の流れを示すフローチャートである。処理動作開始の指示が与えられた場合、各構成部は動作を開始し、映像取得部11は、映像処理装置1に入力した映像を取得し、取得した映像を映像分割部13へ出力する(ステップS11)。次いで、奥行き情報取得部12は、映像処理装置1に入力した奥行き情報を取得し、取得した奥行き情報を映像分割部13へ出力する(ステップS12)。
そして、映像分割部13は、映像及び奥行き情報を入力し、該映像及び奥行き情報に基づいて、枠オブジェクトH3の配置位置を決定する(ステップS13)。次いで、映像分割部13は、奥行き情報及び映像を枠オブジェクトH3の配置位置に基づいて、映像を前景映像部分F11と、背景映像部分F12とに分割し、分割された前景映像部分F11及び背景映像部分F12を枠オブジェクト生成部15及び映像合成部16へ出力する(ステップS14)。
次いで、飛び出し情報取得部14は、映像処理装置1に入力した飛び出し情報を取得し、取得した飛び出し情報を枠オブジェクト生成部15へ出力する(ステップS15)。
そして、枠オブジェクト生成部15は、枠オブジェクトH3の生成を生成し、生成した枠オブジェクトH3を映像合成部16へ出力する(ステップS16)。
図11は、枠オブジェクト生成部15の動作の流れを示すフローチャートである。枠オブジェクト生成部15は、記憶部15aから原三次元枠オブジェクトH1を読み出す(ステップS31)。そして、枠オブジェクト生成部15の回転処理部15bは、飛び出し情報に応じて、原三次元枠オブジェクトH1を回転させる処理を実行し(ステップS32)、射影変換部15cは、回転処理後の三次元枠オブジェクトH11,H21の射影変換によって、枠オブジェクトH3の形状を決定する(ステップS33)。
そして、色決定部15dは、映像の輝度及び色に基づいて、枠オブジェクトH3の輝度及び色を決定し(ステップS34)、枠オブジェクトH3の生成に係る処理を終える。
ステップS16の処理に次いで、映像合成部16は、前景映像部分F11及び背景映像部分F12と、枠オブジェクトH3とを入力し、背景映像部分F12、枠オブジェクトH3、前景映像部分F11をこの順で重畳的に合成し、また補完映像I1,I2を合成し、合成して得た合成映像を表示部2へ出力する(ステップS17)。
そして、表示部2は、映像合成部16から出力された合成映像を入力し、該合成映像を表示し(ステップS18)、処理を終える。
以上、1フレームの映像に対する映像処理手順を説明したが、動画を構成する複数フレームの映像を処理する場合、同様の映像処理を各映像に対して実行すれば良い。
なお、複数フレームの映像に対して枠オブジェクトH3の配置位置、形状及び色が急激に変化すると視聴者に違和感を与えるおそれがあるため、時系列順に隣り合う各映像夫々で決定された配置位置、生成された形状及び色の変化量を一定に抑えるローパスフィルタを備えても良い。
このように構成された映像処理装置1及び映像処理方法にあっては、専用の映像表示装置及び特殊な眼鏡を用いず、画像処理のみによって映像の奥行き感を向上させることができる。
なお、本実施の形態に係る映像処理装置1及び映像処理方法は、表示部2を備える液晶テレビ、有機ELテレビ、プラズマテレビ等のテレビ、表示部2を備える静止画カメラ、ビデオカメラ、携帯電話機、PDA(Personal Digital Assistants)等の各種携帯機器、パーソナルコンピュータ、インフォメーションディスプレイ、映像を出力するBD(Blu-ray Disc)レコーダ、DVD(Digital Versatile Disc)レコーダ、HDD(Hard Disk Drive)レコーダ等の各種レコーダ、デジタルフォトフレーム、その他ディスプレイが設けられた各種家具及び家電に適用することが可能である。
(変形例1)
図12は、変形例1に係る映像処理装置101の一構成例を示すブロック図である。本実施の形態では、奥行き情報を映像とは別に取得するように構成されているところ、変形例1に係る映像処理装置101は、映像取得部111にて取得した映像から各種演算によって奥行き情報を取得するように構成されている。具体的には、映像取得部111及び奥行き情報取得部112の構成が異なるため、以下では主に上記相異点について説明する。
映像取得部111は、立体感又は奥行き感を向上させる映像処理対象の映像を取得し、取得した映像を映像分割部13へ出力すると共に、奥行き情報取得部112へ出力する。
奥行き情報取得部112は、映像取得部111から出力された映像を入力し、入力した映像に基づいて奥行き情報を算出し、算出して得た奥行き情報を映像分割部13へ出力する。
奥行き情報の算出方法は、例えば特開平9−161074号公報に示された方法を利用すれば良い。
また、映像がなんらかの方式で符号化されている場合、その符号化情報から奥行き情報を作成しても良い。例えばMoving Picture Experts Group(MPEG)によって作られた標準動画規格の一つであるMPEG−4(Moving Picture Expert Group phase4)では背景や人物などのオブジェクト単位で符号化することが可能である。映像が該機能を用いて、背景と人物が別々に符号化されていた場合は、この情報を用いて奥行き情報を作成する。
変形例1にあっては、映像処理装置101に奥行き情報を与えなくても、映像を前景映像部分F11、背景映像部分F12に分割し、枠オブジェクトH3を挿入することができ、映像の奥行きを強調することができる。
(変形例2)
図13は、変形例2に係る映像処理装置201の一構成例を示すブロック図である。本実施の形態では、飛び出し情報を映像とは別に取得するように構成されているところ、変形例2に係る映像処理装置201は、映像取得部211にて取得した映像から各種演算によって飛び出し情報を取得するように構成されている。具体的には、映像取得部211及び飛び出し情報取得部214の構成が異なるため、以下では主に上記相異点について説明する。
映像取得部211は、立体感又は奥行き感を向上させる映像処理対象の映像、特に、背景や人物などのオブジェクト単位で符号化された動画の映像を取得し、取得した映像を映像分割部13へ出力すると共に、飛び出し情報取得部214へ出力する。
飛び出し情報取得部214は、連続するフレームを構成する映像中のオブジェクトの移動方向及び大きさの変化を算出する。そして、飛び出し情報取得部214は、オブジェクトの水平方向の移動量に基づいて、飛び出し情報のX軸ベクトル成分を算出する。図7に示す三次元空間において、オブジェクトがX軸正方向へ移動している場合、飛び出し情報のX軸ベクトル成分を正の値とし、オブジェクトの移動量が大きい程、該値を大きく設定する。逆に、オブジェクトがX軸負方向へ移動している場合、飛び出し情報のX軸ベクトル成分を負の値とし、オブジェクトの移動量が大きい程、該値の絶対値を大きく設定する。
同様に、飛び出し情報取得部214は、オブジェクトの垂直方向の移動量に基づいて、飛び出し情報のY軸ベクトル成分を算出する。
また、飛び出し情報取得部214は、オブジェクトの大きさが大きくなる方向へ変化している場合、飛び出し情報のZ軸ベクトル成分を正の値とし、オブジェクトの大きさの変化量が大きい程、該値を大きく設定する。逆に、オブジェクトの大きさが小さくなる方向へ変化している場合、飛び出し情報のX軸ベクトル成分を負の値とし、オブジェクトの大きさの変化量が大きい程、該値の絶対値を大きく設定する。
変形例2にあっては、映像処理装置201に飛び出し情報を与えなくても、映像を前景映像部分F11、背景映像部分F12に分割し、枠オブジェクトH3を挿入することができ、映像の奥行きを強調することができる。
なお、変形例1及び変形例2を組み合わせ、映像処理装置201に入力した映像から奥行き情報及び飛び出し情報夫々を算出するように構成しても良い。この場合、映像処理装置201に奥行き情報及び飛び出し情報の双方を与えなくても、映像の奥行きを強調することができる。
(変形例3)
実施の形態では、映像の奥行きを強調する奥行き強調映像として、額縁型の枠オブジェクトH3を例示したところ、変形例3に係る映像処理装置1は、枠オブジェクトH3に代えてカーテンオブジェクトH301を表示するように構成されている。具体的には、変形例3に係る映像処理装置1は、枠オブジェクト生成部15に代えて、図示しないカーテンオブジェクト生成部を備える。
図14は、奥行き強調映像の一例であるカーテンオブジェクトH301を示す模式図である。カーテンオブジェクト生成部は、映像の水平方向両側夫々に位置するカーテン形状のカーテンオブジェクトH301を記憶しており、該カーテンオブジェクトH301を映像合成部16へ出力する。カーテンオブジェクトH301の形状及び色は映像の内容に拘わらず一定である。なお、言うまでもなく、カーテンオブジェクト生成部が前景映像部分F11及び背景映像部分F12を入力し、該前景映像部分F11及び背景映像部分F12の輝度に基づいて、カーテンオブジェクトH301の色及び輝度を変更するように構成しても良い。また、三次元形状の原三次元カーテンオブジェクトを記憶しておき、飛び出し情報を入力し、該飛び出し情報を用いて原三次元カーテンオブジェクトを回転及び射影変換することによって、二次元形状のカーテンオブジェクトH301を生成するように構成しても良い。
なお、奥行き強調映像の一例として実施の形態では枠形状、変形例3ではカーテン形状を例示したが、映像の奥行きを強調可能であれば、奥行き強調映像の形状はこれに限定されない。例えば、かぎ括弧形状の奥行き強調映像を採用しても良い。なお、背景映像の主要部分が隠れ無いよう、奥行き強調映像は、映像の端側に位置するように構成する方が好ましい。
(変形例4)
実施の形態では、図7(b)に示すように映像の飛び出し情報がZ軸成分のみを有する場合、枠オブジェクトH403の形状は特に変形しないため、Z軸方向への飛び出しを強調することができない。変形例4に係る映像処理装置1は、飛び出し情報がZ軸成分のみを有する場合、枠オブジェクトH403の形状をZ軸方向へ迫り出すように変更することによって、Z軸方向、つまり視聴者側への飛び出しを強調することができるように構成したものである。実施の形態とは、枠オブジェクト生成部15の処理内容のみが異なるため、以下では主に上記相異点について説明する。
図15は、変形例4に係る枠オブジェクトH403の形状決定方法を概念的に示す説明図である。枠オブジェクト生成部15は、飛び出し情報のZ軸成分のみを含む場合、又はZ軸成分がX軸成分、Y軸成分に比べて所定値以上大きい場合、特にZ軸成分が正の場合、図15に示すように、原三次元枠オブジェクトH401の水平方向略中央部を山としてX軸正方向へ迫り出すように屈曲させ、更に原三次元枠オブジェクトH401の水平枠部分(枠の長辺部分)を垂直方向へ押し広げた立体形状に変形させる。そして、枠オブジェクト生成部15は、変形後の三次元枠オブジェクトH401をXY平面に射影変換した二次元形状を算出し、算出された二次元形状を枠オブジェクトH403の形状として決定する。
逆に、Z軸成分が負の場合、枠オブジェクト生成部15は、原三次元枠オブジェクトH401の水平方向略中央部を谷としてX軸負方向へ迫り出すように屈曲させ、更に原三次元枠オブジェクトH401の水平枠部分(枠の長辺部分)を垂直方向へ押し狭めた立体形状に変形させる。そして、枠オブジェクト生成部15は、変形後の三次元枠オブジェクトH401をXY平面に射影変換した二次元形状を算出し、算出された二次元形状を枠オブジェクトの形状として決定する。
映像合成部16の処理内容は、本実施の形態と同様である。映像合成部16は、背景映像部分F12に、枠オブジェクトH403、補完映像I401,I402,I403,I404、及び前景映像部分F11が順に重畳させるように合成し、合成して得た合成映像部分を外部へ出力する。
変形例4に係る映像処理装置1及び映像処理方法にあっては、オブジェクトがZ軸方向、つまりオブジェクトが手前側に迫ってくるような映像、あるいは手前側に飛び出してくるオブジェクトが2個存在し、各々の飛び出し方向が左右別々である映像、例えば中央に位置する人間が画面左右両端に向かって両手を広げたような映像であっても、飛び出し感を強調することができる。
(変形例5)
図16は、変形例5に係る映像処理装置を示すブロック図である。変形例5に係る映像処理装置は、本発明に係るコンピュータプログラム4aをコンピュータ3に実行させることによって実現される。
コンピュータ3は、装置全体を制御するCPU(Central Processing Unit)31を備える。CPU31は、ROM(Read Only Memory)32と、演算に伴って発生する一時的な情報を記憶するRAM(Random Access Memory)33と、本発明の実施の形態に係るコンピュータプログラム4aを記録した記録媒体4a、例えばCD−ROMからコンピュータプログラム4aを読み取る外部記憶装置34と、外部記憶装置34により読み取ったコンピュータプログラム4aを記録するハードディスク等の内部記憶装置35とが接続されている。CPU31は、内部記憶装置35からコンピュータプログラム4aをRAM33に読み出して各種演算処理を実行することによって、本発明に係る映像処理方法を実施する。CPU31の処理手順は、図10及び図11に示す通りであり、ステップS11〜18、ステップS31〜34の処理手順を実行する。該処理手順は、本実施の形態及び変形例4に係る映像処理装置1を構成した各構成部の処理内容と同様であるため、その詳細な説明を省略する。
変形例5に係るコンピュータ3及びコンピュータプログラム4aにあっては、コンピュータ3を本実施の形態に係る映像処理装置として機能させ、また本実施の形態に係る映像処理方法を実施させることができ、本実施の形態及び変形例1〜4と同様の効果を奏する。
なお、本変形例5に係るコンピュータプログラム4aは、言うまでもなく記録媒体4に記録されているものに限定されず、有線又は無線の通信網を介してダウンロードし、記憶し、実行されるものであっても良い。
また、今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 映像処理装置
2 出力部
3 コンピュータ
4 記録媒体
4a コンピュータプログラム
11 映像取得部
12 奥行き情報取得部
13 映像分割部
14 飛び出し情報取得部
15 枠オブジェクト生成部
16 映像合成部
15a 記憶部
15b 回転処理部
15c 射影変換部
15d 色決定部
31 CPU
32 ROM
33 RAM
35 外部記憶装置
36 入力部
37 出力部
F11 前景映像部分
F12 背景映像部分
H1 原三次元枠オブジェクト
H3 枠オブジェクト

Claims (8)

  1. 入力された映像の奥行き感を強調する処理を行う映像処理装置であって、
    前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得する奥行き情報取得手段と、
    該奥行き情報取得手段にて取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割する映像分割手段と、
    該映像分割手段にて分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調画像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調画像を合成する映像合成手段と
    を備えることを特徴とする映像処理装置。
  2. 入力された映像の輝度又は色に基づいて、輝度又は色が該映像と異なる奥行き強調映像を生成する生成手段を備え、
    前記映像合成手段は、
    前記生成手段にて生成された奥行き強調映像を合成するようにしてある
    ことを特徴とする請求項1に記載の映像処理装置。
  3. 前記生成手段は、
    前記映像分割手段にて分割された一の映像部分及び/又は他の映像部分の輝度又は色に基づいて、輝度又は色が該映像部分と異なる奥行き強調映像を生成するようにしてある
    ことを特徴とする請求項2に記載の映像処理装置。
  4. 時系列順に複数の映像が入力されるように構成されており、
    時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段を備え、
    前記生成手段は、
    該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成するようにしてある
    ことを特徴とする請求項2又は請求項3に記載の映像処理装置。
  5. 時系列順に複数の映像が入力されるように構成されており、
    時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段と、
    該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成する生成手段と
    を備え、
    前記映像合成手段は、
    前記生成手段にて生成された奥行き強調映像を合成するようにしてある
    ことを特徴とする請求項1に記載の映像処理装置。
  6. 所定の三次元画像を記憶する記憶手段を備え、
    前記生成手段は、
    前記記憶手段が記憶している三次元画像と、前記移動方向情報取得手段にて取得した一の映像部分の移動方向情報が示す移動方向とが所定の位置関係になるように、該三次元画像を回転させる回転処理手段を備え、
    該回転処理手段にて回転した三次元画像を所定の二次元平面に射影させて得られる二次元形状を有する奥行き強調映像を生成するようにしてある
    ことを特徴とする請求項4又は請求項5に記載の映像処理装置。
  7. 入力された映像の奥行き感を強調する処理を行う映像処理方法であって、
    前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得し、
    取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割し、
    分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調画像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調画像を合成する
    ことを特徴とする映像処理方法。
  8. コンピュータに、映像の奥行き感を強調する処理を実行させるコンピュータプログラムであって、
    前記コンピュータに、
    前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割するステップと、
    分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調画像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調画像を合成するステップと
    を実行させることを特徴とするコンピュータプログラム。
JP2009087396A 2009-03-31 2009-03-31 映像処理装置、映像処理方法及びコンピュータプログラム Expired - Fee Related JP4903240B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009087396A JP4903240B2 (ja) 2009-03-31 2009-03-31 映像処理装置、映像処理方法及びコンピュータプログラム
US13/262,457 US20120026289A1 (en) 2009-03-31 2010-03-29 Video processing device, video processing method, and memory product
EP10758630A EP2416582A4 (en) 2009-03-31 2010-03-29 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND COMPUTER PROGRAM
CN2010800150969A CN102379127A (zh) 2009-03-31 2010-03-29 影像处理装置、影像处理方法以及计算机程序
PCT/JP2010/055544 WO2010113859A1 (ja) 2009-03-31 2010-03-29 映像処理装置、映像処理方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009087396A JP4903240B2 (ja) 2009-03-31 2009-03-31 映像処理装置、映像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2010238108A JP2010238108A (ja) 2010-10-21
JP4903240B2 true JP4903240B2 (ja) 2012-03-28

Family

ID=42828148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009087396A Expired - Fee Related JP4903240B2 (ja) 2009-03-31 2009-03-31 映像処理装置、映像処理方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US20120026289A1 (ja)
EP (1) EP2416582A4 (ja)
JP (1) JP4903240B2 (ja)
CN (1) CN102379127A (ja)
WO (1) WO2010113859A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10674133B2 (en) 2014-05-23 2020-06-02 Samsung Electronics Co., Ltd. Image display device and image display method

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050483A1 (en) * 2010-08-27 2012-03-01 Chris Boross Method and system for utilizing an image sensor pipeline (isp) for 3d imaging processing utilizing z-depth information
KR101670927B1 (ko) * 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
JP5698529B2 (ja) * 2010-12-29 2015-04-08 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
JP5036088B2 (ja) * 2011-01-14 2012-09-26 シャープ株式会社 立体画像処理装置、立体画像処理方法およびプログラム
WO2012101719A1 (ja) * 2011-01-27 2012-08-02 パナソニック株式会社 3次元画像撮影装置及び3次元画像撮影方法
JP2015039075A (ja) * 2011-05-31 2015-02-26 株式会社東芝 立体画像表示装置および立体画像表示方法
KR101917764B1 (ko) * 2011-09-08 2018-11-14 삼성디스플레이 주식회사 입체 영상 표시 장치 및 입체 영상 표시 방법
US9740937B2 (en) 2012-01-17 2017-08-22 Avigilon Fortress Corporation System and method for monitoring a retail environment using video content analysis with depth sensing
CN103220539B (zh) * 2012-01-21 2017-08-15 瑞昱半导体股份有限公司 图像深度产生装置及其方法
JP6024110B2 (ja) * 2012-01-26 2016-11-09 ソニー株式会社 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
KR20130098042A (ko) * 2012-02-27 2013-09-04 삼성전자주식회사 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치
KR20140010823A (ko) * 2012-07-17 2014-01-27 삼성전자주식회사 영상 데이터 스케일링 방법 및 영상 디스플레이 장치
US10021366B2 (en) * 2014-05-02 2018-07-10 Eys3D Microelectronics, Co. Image process apparatus
US10198976B2 (en) 2015-07-31 2019-02-05 Canon Kabushiki Kaisha Display set and display method
US10475233B2 (en) 2016-04-08 2019-11-12 Maxx Media Group, LLC System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
CN105975085A (zh) * 2016-06-01 2016-09-28 云南滇中恒达科技有限公司 一种新媒体ar互动投影系统
CN106447677A (zh) * 2016-10-12 2017-02-22 广州视源电子科技股份有限公司 图像处理方法和装置
WO2018187724A1 (en) * 2017-04-06 2018-10-11 Maxx Media Group, LLC System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
US10380714B2 (en) * 2017-09-26 2019-08-13 Denso International America, Inc. Systems and methods for ambient animation and projecting ambient animation on an interface
WO2022202700A1 (ja) * 2021-03-22 2022-09-29 株式会社オルツ 画像を3次元的に表示するための方法、プログラムおよびシステム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS607291A (ja) 1983-06-24 1985-01-16 Matsushita Electric Ind Co Ltd 立体映像再生装置
JPH01171390A (ja) 1987-12-25 1989-07-06 Sharp Corp 立体映像表示装置
JP3517256B2 (ja) * 1993-03-23 2004-04-12 大日本印刷株式会社 画像合成装置
JPH09161074A (ja) 1995-12-04 1997-06-20 Matsushita Electric Ind Co Ltd 画像処理装置
JPH11266466A (ja) * 1998-03-18 1999-09-28 Matsushita Electric Ind Co Ltd 動画表示方法および画面形状の形成方法
JP2003032706A (ja) * 2001-07-16 2003-01-31 Chushiro Shindo 平面視テレビ兼用実体視テレビ
JP2003101690A (ja) * 2001-09-21 2003-04-04 Yamaguchi Technology Licensing Organization Ltd 画像処理方法及びデジタルカメラ並びに記録媒体
JP2005295163A (ja) * 2004-03-31 2005-10-20 Omron Entertainment Kk 写真プリント装置、写真プリント装置の制御方法、プログラム、および、プログラムを記録した記録媒体
WO2006089417A1 (en) * 2005-02-23 2006-08-31 Craig Summers Automatic scene modeling for the 3d camera and 3d video
KR101370356B1 (ko) * 2005-12-02 2014-03-05 코닌클리케 필립스 엔.브이. 스테레오스코픽 화상 디스플레이 방법 및 장치, 2d 화상데이터 입력으로부터 3d 화상 데이터를 생성하는 방법,그리고 2d 화상 데이터 입력으로부터 3d 화상 데이터를생성하는 장치
CN101312539B (zh) * 2008-07-03 2010-11-10 浙江大学 用于三维电视的分级图像深度提取方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10674133B2 (en) 2014-05-23 2020-06-02 Samsung Electronics Co., Ltd. Image display device and image display method

Also Published As

Publication number Publication date
EP2416582A1 (en) 2012-02-08
CN102379127A (zh) 2012-03-14
WO2010113859A1 (ja) 2010-10-07
EP2416582A4 (en) 2013-01-23
JP2010238108A (ja) 2010-10-21
US20120026289A1 (en) 2012-02-02

Similar Documents

Publication Publication Date Title
JP4903240B2 (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
Battisti et al. Objective image quality assessment of 3D synthesized views
US9525858B2 (en) Depth or disparity map upscaling
JP5750505B2 (ja) 立体映像エラー改善方法及び装置
US8488869B2 (en) Image processing method and apparatus
US9786253B2 (en) Conversion of a digital stereo image into multiple views with parallax for 3D viewing without glasses
RU2431938C2 (ru) Эффективное кодирование множества видов
JP4963124B2 (ja) 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
US10095953B2 (en) Depth modification for display applications
CN100565589C (zh) 用于深度感知的装置和方法
RU2503062C2 (ru) Способ и система для кодирования сигнала трехмерного видео, кодер для кодирования сигнала трехмерного видео, кодированный сигнал трехмерного видео, способ и система для декодирования сигнала трехмерного видео, декодер для декодирования сигнала трехмерного видео
WO2012176431A1 (ja) 多視点画像生成装置、多視点画像生成方法
US20150002636A1 (en) Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
US20130182184A1 (en) Video background inpainting
US8913107B2 (en) Systems and methods for converting a 2D image to a 3D image
JP2013527646A5 (ja)
JP2014502818A (ja) 画像処理のための一次像および二次像画像取込装置およびその方法
TWI531212B (zh) 呈現立體影像之系統及方法
KR101458986B1 (ko) 키넥트 기반 실시간 다시점 영상 생성 방법
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
US9787980B2 (en) Auxiliary information map upsampling
JP2011119926A (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
JP4815004B2 (ja) 多視点画像符号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120104

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees