[go: up one dir, main page]

JP2013239833A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2013239833A
JP2013239833A JP2012110718A JP2012110718A JP2013239833A JP 2013239833 A JP2013239833 A JP 2013239833A JP 2012110718 A JP2012110718 A JP 2012110718A JP 2012110718 A JP2012110718 A JP 2012110718A JP 2013239833 A JP2013239833 A JP 2013239833A
Authority
JP
Japan
Prior art keywords
image
caption
parallax
stereoscopic
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2012110718A
Other languages
English (en)
Other versions
JP2013239833A5 (ja
Inventor
Akira Shimizu
清水  晃
Keisuke Watanabe
啓介 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012110718A priority Critical patent/JP2013239833A/ja
Priority to US14/400,384 priority patent/US9686529B2/en
Priority to PCT/JP2013/058975 priority patent/WO2013172098A1/ja
Priority to EP13791643.3A priority patent/EP2852164A4/en
Publication of JP2013239833A publication Critical patent/JP2013239833A/ja
Publication of JP2013239833A5 publication Critical patent/JP2013239833A5/ja
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】字幕画像の遠近感を強調する。
【解決手段】画像処理装置は、字幕情報取得部、視差取得部、立体字幕画像生成部、および、エッジ処理部を備える。字幕情報取得部は、立体主画像に合成される字幕情報を取得する。視差取得部は、字幕情報を立体表示させるための視差を取得する。立体字幕画像生成部は、視差に応じた表示位置に立体表示される立体字幕画像を字幕情報から生成する。エッジ処理部は、立体字幕画像におけるエッジの強度を前記視差に応じて変更する。
【選択図】図2

Description

本技術は、画像処理装置、画像処理方法および当該方法をコンピュータに実行させるためのプログラムに関する。詳しくは、字幕を動画に合成する画像処理装置、画像処理方法および当該方法をコンピュータに実行させるためのプログラムに関する。
従来から、立体的に視認できるように動画を表示(すなわち、立体表示)する表示装置が用いられている。例えば、動画を構成する画像として視差のある左側画像および右側画像を撮像しておき、左側画像が左目に映り右側画像が右目に映るように、表示装置がそれらを表示することにより、動画を立体的に見せることができる。表示の際には、時分割で左右の画像を表示装置が交互に表示し、その切り替えタイミングに同期して、専用メガネが左右のシャッターを動作させるアクティブシャッターグラス方式などが用いられる。
上述のような表示装置において、動画にクローズドキャプションを合成する技術が提案されている(例えば、特許文献1参照。)。クローズドキャプションとは、表示装置が、字幕の表示、非表示などを制御することができるように動画と独立して生成された字幕である。これに対して、動画に合成された形式で供給され、表示装置が表示、非表示等を制御することができない字幕はオープンキャプションと呼ばれる。
表示装置がクローズドキャプションを合成する場合、そのクローズドキャプションも立体表示させることが考えられる。字幕の立体表示の際には、通常、字幕を表す平面的な字幕画像が生成され、その字幕画像は、2D−3D変換の技術を利用して、立体表示させるための画像に変換される。この2D−3D変換は、立体表示するための画像でないものを、立体表示させるための画像に変換する技術である。具体的には、平面的な通常の画像を水平方向において左右にずらして2枚の画像を生成し、それらの一方を左目に映すための左側画像とし、他方を右目に映すための右側画像とする手法が用いられる(例えば、特許文献2参照)。
特開2012−4654号公報 特許第3086577号
しかしながら、上述の従来技術では、字幕画像を立体表示させる場合に遠近感を強調することができない。特許文献2に記載の2D−3D変換では、平面的な画像を単にシフトさせているだけであり、このような手法を用いて平面的な字幕画像を立体表示させても、立体物が写った動画を立体表示した場合と比較して、字幕画像の遠近感が不足してしまう。このため、字幕画像を立体表示する場合は、その字幕画像の遠近感を強調することが望ましい。ところが、上述の従来技術では、画像の遠近感を変更する処理を行わないため、字幕画像を立体表示させる場合にこれらの技術を適用すると、遠近感が不足してしまうという問題がある。
本技術はこのような状況に鑑みて生み出されたものであり、字幕画像の遠近感を強調することを目的とする。
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、立体主画像に合成される字幕情報を取得する字幕情報取得部と、前記字幕情報を立体表示させるための視差を取得する視差取得部と、前記視差に応じた表示位置に立体表示される立体字幕画像を前記字幕情報から生成する立体字幕画像生成部と、前記立体字幕画像におけるエッジの強度を前記視差に応じて変更するエッジ処理部とを具備する画像処理装置、およびその画像処理方法ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、視差に応じて立体字幕画像におけるエッジの強度が変更される。
また、この第1の側面において、前記エッジ処理部は、前記表示位置が所定の基準位置より手前側である場合には前記視差に応じて前記エッジの強度を強くし、前記表示位置が前記基準位置より奥側である場合には前記視差に応じて前記エッジの強度を弱くしてもよい。これにより、表示位置が基準位置より手前側である場合には視差に応じてエッジの強度が強くなり、表示位置が基準位置より奥側である場合には視差に応じてエッジの強度が弱くなる。
また、この第1の側面において、前記立体字幕画像において隣接する画素間に表示させる副画素の位置に応じた混合率に基づいて前記隣接する画素の各々の画素値を混合する画素混合部をさらに具備し、前記エッジ処理部は、前記位置および前記視差に応じて前記エッジの強度を変更してもよい。これにより、副画素の位置および視差に応じてエッジの強度が変更される。
また、この第1の側面において、前記画素混合部は、前記視差に応じた位置を前記副画素の位置としてもよい。これにより、視差に応じた位置が副画素の位置とされる。
また、この第1の側面において、前記エッジ処理部は、前記立体字幕画像において前記エッジの領域を抽出するエッジ抽出部と前記抽出されたエッジの領域における画素値を前記視差に応じて増大または減少させる補正部と、前記画素値が増大または減少された前記エッジの領域を前記立体字幕画像に合成することにより前記エッジの強度を変更するエッジ合成部とを具備してもよい。これにより、視差に応じて画素値を増大または減少したエッジの領域を前記立体字幕画像に合成することによりエッジの強度が変更されるという作用をもたらす。
また、この第1の側面において、前記画素値が増大または減少された前記エッジの領域を前記立体字幕画像に合成することにより前記エッジの強度を変更する前記エッジ抽出部は、前記立体字幕画像において画素値の分布の周波数が所定の閾値より高い領域を前記エッジの領域として抽出してもよい。これにより、立体字幕画像において画素値の分布の周波数が所定の閾値より高い領域がエッジの領域として抽出されるという作用をもたらす。
また、この第1の側面において、前記エッジの強度が変更された前記立体字幕画像を前記立体主画像に合成する字幕合成部をさらに具備してもよい。これにより、エッジの強度が変更された前記立体字幕画像が前記立体主画像に合成されるという作用をもたらす。
本技術によれば、字幕画像の遠近感を強調することができるという優れた効果を奏し得る。
第1の実施の形態における情報処理システムの一例を示す全体図である。 第1の実施の形態における画像処理装置の一構成例を示すブロック図である。 第1の実施の形態におけるエッジ処理部の一構成例を示すブロック図である。 第1の実施の形態におけるゲイン補正の一例を示す図である。 第1の実施の形態におけるエッジ処理前後の画素値の分布の一例を示す図である。 第1の実施の形態における動画ストリームの一構成例を説明するための図である。 第1の実施の形態における字幕ストリームの一構成例を示す図である。 第1の実施の形態における字幕ストリーム内のPESパケットのデータ構成の一例を示す図である。 第1の実施の形態における字幕ストリーム内のPESパケットに格納されるデータの一例を示す図である。 第1の実施の形態における字幕データバッファの一構成例を示す図である。 第1の実施の形態における画像処理装置の動作の一例を示す図である。 第1の実施の形態における視差を説明するための図である。 第1の実施の形態における立体表示の方法の一例を示す図である。 第1の実施の形態における遠近感を強調した立体字幕画像の一例を示す図である。 第1の実施の形態の変形例におけるエッジ処理部の一構成例を示すブロック図である。 第1の実施の形態の変形例におけるエッジ領域の抽出方法を説明するための図である。 第2の実施の形態における画像処理装置の一構成例を示すブロック図である。 第2の実施の形態におけるサブピクセル補正の方法を説明するための図である。 第2の実施の形態におけるサブピクセル補正前後の左側字幕画像および右側字幕画像の一例を示す図である。 第2の実施の形態における視差の変化と字幕画像の座標の変化との間の関係の一例を示すグラフである。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(視差に応じてエッジ強度を変更する例)
2.第2の実施の形態(混合率および視差に基づいてエッジ強度を変更する例)
<1.第1の実施の形態>
[情報処理システムの構成例]
図1は、実施の形態における情報処理システムの一例を示す全体図である。この情報処理システムは、受信装置100、画像処理装置200、および、表示装置300を備える。
受信装置100は、動画ストリームおよび字幕ストリームを受信するものである。この動画ストリームは、所定の放送規格に準拠して放送局などから配信された動画のデータである。放送規格としては、例えば、DVB(Digital Video Broadcast)が使用される。この動画は、時系列に沿って表示される複数の画像を含む。また、この動画は、立体表示させるために作成された動画であり、動画内の画像の各々を以下、「立体主画像」と称する。立体主画像の各々は、視聴者の左目に映すための左側主画像と、右目に映すための右側主画像とを含む。
また、動画は、所定の符号化方式に従って必要に応じて符号化されている。符号化方式としては、例えば、MPEG(Moving Picture Expert Group)2−TS(Transport Stream)規格が用いられる。MPEG2−TSにおいて、符号化された画像は、PES(Packetized Elementary Stream)パケットに格納され、それぞれの画像にはPTS(Presentation Time Stamp)が付与される。PTSは、再生出力の時刻管理情報であり、そのタイムスタンプが付与された画像をいつ再生出力するかを示す。
なお、受信装置100は、アナログ放送を受信し、その放送波をA/D(Analog to Digital)変換することにより動画ストリームを生成してもよい。
受信装置100が受信する字幕ストリームは、放送局などから配信された字幕に関するデータである。具体的には、字幕ストリームは、字幕データおよび視差を含む。字幕データは、例えば、字幕を表わす画像(以下「字幕画像」と称する。)や字幕を表わす文字列を含む。視差は、字幕を立体表示させるためのものである。具体的には、字幕データから左側字幕画像および右側字幕画像が生成された場合において、それらの画像の水平方向におけるずれが視差に該当する。この左側字幕画像および右側字幕画像からなる画像を以下、「立体字幕画像」と称する。字幕データおよび視差も必要に応じて符号化されてPESパケットに格納され、各々の字幕データおよび視差にはPTSが付与される。このPTSは字幕をいつ再生出力するかを示す時刻管理情報であり、動画と同期して字幕を再生するために用いられる。
字幕ストリームは、動画ストリームに多重化されて配信される。受信装置100は、動画ストリームから字幕ストリームを分離し、分離後の動画ストリームおよび字幕ストリームを画像処理装置200に供給する。なお、受信装置100の代わりに、画像処理装置200が字幕ストリームを分離してもよい。
画像処理装置200は、動画ストリームおよび字幕ストリームに基づいて、動画に字幕を合成するものである。具体的には、画像処理装置200は、字幕ストリームから、視差および字幕データを取得し、その視差に応じた位置に立体表示される立体字幕画像を字幕データから生成する。画像処理装置200は、その立体字幕画像を動画に合成する。そして、画像処理装置200は、立体字幕画像が合成された動画を表示装置300に供給する。
なお、画像処理装置200は、放送局などから配信された動画ストリームおよび字幕ストリームを受信装置100から取得する構成としているが、動画記録装置などに記録された動画ストリームおよび字幕ストリームを画像処理装置200が取得してもよい。
表示装置300は、立体字幕画像が合成された動画を立体表示するものである。立体表示の方式としては、アクティブシャッターグラス方式、偏光表示方式や、視差バリア方式などが用いられる。
[画像処理装置の構成例]
図2は、画像処理装置200の一構成例を示すブロック図である。この画像処理装置200は、視差取得部210、字幕データ取得部220、復号部230、字幕データバッファ240、同期制御部250、立体字幕画像生成部260、エッジ処理部270、および、字幕画像合成部280を含む。
視差取得部210は、字幕ストリームから視差およびPTSを取得するものである。具体的には、視差取得部210は、字幕ストリームにおけるPESパケットのヘッダからPTSを取得し、そのPESパケットのペイロードから視差を取得する。視差取得部210は、同じPESパケットから取得したPTSおよび視差を対応付けて字幕データバッファ240に保持させる。
字幕データ取得部220は、字幕ストリームから字幕データおよびPTSを取得するものである。具体的には、字幕データ取得部220は、字幕ストリームにおけるPESパケットのヘッダからPTSを取得し、そのPESパケットのペイロードから字幕データを取得する。視差取得部210は、同じPESパケットから取得したPTSおよび字幕データを対応付けて字幕データバッファ240に保持させる。なお、字幕データ取得部220は、特許請求の範囲に記載の字幕情報取得部の一例である。
復号部230は、動画ストリームが符号化されている場合に、その動画ストリームを復号するものである。この復号部230は、動画ストリームの符号化方式と対応する復号方式に従って、動画ストリームを復号する。復号部230は、復号した動画ストリームを字幕画像合成部280に供給する。また、復号部230は、字幕ストリームからPTSを取得して、同期制御部250に供給する。
同期制御部250は、動画の表示タイミングに同期して字幕データおよび視差を立体字幕画像生成部260に供給するものである。具体的には、同期制御部250は、復号部230が取得したPTSを受け取り、そのPTSに一致する値のPTSが字幕データバッファ240に保持されているか否かを判断する。保持されていれば、同期制御部250は、そのPTSと対応する字幕データおよび視差を字幕データバッファ240から読み出す。同期制御部250は、読み出した字幕データおよび視差を立体字幕画像生成部260に供給する。
立体字幕画像生成部260は、視差に応じた表示位置に立体表示するための立体字幕画像(左側字幕画像および右側字幕画像)を字幕データから生成するものである。具体的には、字幕データが字幕画像を含む場合には、立体字幕画像生成部260は、画像内において、その字幕画像を視差に応じて、視聴者から見て左方向にずらした画像と、右方向にずらした画像とを生成する。立体字幕画像生成部260は、これらの一方を左側字幕画像とし、他方を右側字幕画像とする。字幕データが、字幕を表わす文字列を含む場合は、立体字幕画像生成部260は、その文字列が描画された画像を字幕画像として生成し、その字幕画像を左右にずらして左側字幕画像および右側字幕画像を生成する。立体字幕画像生成部260は、生成した立体字幕画像を視差とともにエッジ処理部270に供給する。
エッジ処理部270は、立体字幕画像におけるエッジ強度を視差に応じて変更するものである。ここで、エッジ強度は、エッジ周辺の画素値の急峻な変化の度合いを意味する。変化の度合いが大きい(すなわち、エッジ強度が強い)と、エッジが鮮明に見える。一方、変化の度合いが小さい(すなわち、エッジ強度が弱い)と、エッジがぼけたように見える。
このエッジ処理部270は、立体字幕画像が表示される表示位置が基準位置より手前側である場合には、エッジ強度を視差に応じて強くしてエッジを強調する。一方、立体字幕画像の表示位置が基準位置より奥側である場合には、エッジ処理部270は、エッジ強度を視差に応じて弱くしてエッジをぼかす。この様な処理によって目の錯覚を利用して遠近感の強調を行う事が可能になる。この基準位置は、例えば、表示装置300の表示面の位置に設定される。エッジ処理部270は、エッジ強度を変更した立体字幕画像を字幕画像合成部280に供給する。
字幕画像合成部280は、エッジ強度が変更された立体字幕画像を動画に合成するものである。字幕画像合成部280は、立体字幕画像を合成した動画ストリームを表示装置300に供給する。
[エッジ処理部の構成例]
図3は、第1の実施の形態におけるエッジ処理部270の一構成例を示すブロック図である。エッジ処理部270は、ハイパスフィルター271、ゲイン補正部272、遅延バッファ273、および、エッジ合成部274を備える。
ハイパスフィルター271は、立体字幕画像において画素値(例えば、輝度値)の分布の周波数が所定の閾値より高い領域をエッジ領域として抽出するものである。ハイパスフィルター271は、抽出した領域をエッジ領域としてゲイン補正部272に供給する。なお、ハイパスフィルター271は、特許請求の範囲に記載のエッジ抽出部の一例である。
ゲイン補正部272は、エッジ領域の画素値を視差に応じて補正するものである。具体的には、ゲイン補正部272は、次の式1に従って、画素値を増大または減少させるためのゲインGを求める。ゲインの単位は、例えば、デジベル(dB)である。
G=(−α)×D/Dm 式1
式1において、αは、ゲインを補正するための補正係数であり、実数が設定される。視差取得部210において取得された視差Dのみに基づいて決定されたゲインGでは、遠近感の不足が解消されないことや、逆に遠近感が強調されすぎることがあるため、その場合には、補正係数αを用いてゲインが補正される。具体的には、遠近感が不足するとユーザが判断する場合にはより大きな補正係数αがユーザにより設定され、強調されすぎるとユーザが判断する場合にはより小さな補正係数がユーザにより設定される。Dは、Dmを基準として定義される視差であり、Dmは、手前側または奥側のそれぞれの範囲の視差を区分する段階数を示すものである。それぞれの範囲の視差Dを128段階で区分する場合、「128」が段階数Dmとして使用され、視差Dとして「−128」乃至「127」の値が画像処理装置200により取得される。取得された視差Dは、右側字幕画像を基準として左側字幕画像および右側字幕画像を水平方向にずらす量として用いられる。視差Dが負数である場合には、奥行き方向において、字幕画像が基準位置より手前側に立体表示され、視差Dが正数である場合には、字幕画像が基準位置より奥側に立体表示される。視差Dが「0」である場合には、字幕画像は基準位置に表示されるが、立体的には視認されない。
エッジ処理部270は、例えば、次の式2に従ってエッジ領域の画素値を増大または減少させ、そのエッジ領域をエッジ合成部274に供給する。
G=20×log(Pout/Pin) 式2
式2において、Pinは、増大または減少前の画素値であり、/Poutは、増大または減少後の画素値である。式1および式2より、視差Dが負数(すなわち、表示位置が手前側)である場合には、「0」より大きなゲインGが算出され、エッジ領域の画素値が増大する。一方、視差Dが正数(すなわち、表示位置が奥側)である場合には、「0」より小さなゲインGが算出され、エッジ領域の画素値が減少する。なお、ゲイン補正部272は、特許請求の範囲に記載の補正部の一例である。
遅延バッファ273は、立体字幕画像生成部260から入力された立体字幕画像を遅延させてエッジ合成部274に供給するものである。遅延させる時間は、例えば、ハイパスフィルター271およびゲイン補正部272における処理にかかる時間以上に設定される。
エッジ合成部274は、立体字幕画像にエッジ領域を合成するものである。画素値が変更されたエッジ領域の合成により、エッジ強度が変更される。具体的には、画素値が増大したエッジ領域が合成された場合には、エッジ強度が強くなりエッジが強調される。一方、画素値が減少したエッジ領域が合成された場合には、エッジ強度が弱くなりエッジがぼかされる。エッジ合成部274は、エッジ領域を合成した立体字幕画像を字幕画像合成部280に供給する。
なお、エッジ処理部270は、ハイパスフィルター271によりエッジを抽出しているが、他の方法を使用してエッジを抽出してもよい。例えば、画像を1次微分して勾配を計算し、その勾配の方向からエッジの方向を予測し、その方向の勾配が局所的に極大となる箇所をエッジとして抽出してもよい。
また、エッジ処理部270は、ゲインの補正により、エッジをぼかしているが、他の方法によりエッジをぼかしてもよい。例えば、注目した画素の周辺の画素値の平均値を、その注目した画素の画素値に置き換える平均フィルタを使用して、エッジをぼかしてもよい。
また、エッジ処理部270では、右側字幕画像を基準として視差Dを定義しているが、逆に左側字幕画像を基準として、左側字幕画像および右側字幕画像の水平方向におけるずれを視差Dとして用いてもよい。この場合には、表示位置が手前側である場合に視差Dが正数となり、奥側である場合に視差Dが負数となる。このため、次の式3を使用してGが算出される。
G=α×D/Dm 式3
式3より、視差Dが正数である場合には、「0」より大きなゲインGが算出され、視差Dが負数である場合には、「0」より小さなゲインGが算出される。
図4は、第1の実施の形態におけるゲイン補正の一例を示す図である。図4において横軸は、ゲイン補正部272に入力された信号レベル(すなわち、画素値)であり、縦軸は、ゲイン補正が行われて出力された信号レベル(画素値)である。図4に例示するように、ゲインが「0」よりも大きい場合には、信号レベルが増幅され、出力信号レベルは入力信号レベルより大きくなる。このエッジ領域の合成により、エッジが強調される。一方、ゲインが「0」よりも小さい場合には、信号レベルが減衰され、出力信号レベルは入力信号レベルより小さくなる。このエッジ領域の合成により、エッジがぼかされる・
図5は、第1の実施の形態におけるエッジ処理前後の画素値の分布の一例を示す図である。図5において、縦軸は画素の画素値であり、横軸は画素の座標である。同図におけるaは、エッジ処理前の画素値の分布の一例である。例えば、同図におけるaの点線で示した領域は、画素値の変化が大きいため、ハイパスフィルター271によりエッジ領域として抽出される。
図5におけるbは、エッジ強度を強くした場合の画素値の分布の一例である。エッジ処理部270が、同図におけるaに例示したエッジ領域の画素値を増大させて、抽出元の立体字幕画像に合成すると、同図におけるbに例示するようにエッジ領域の画素値の変化がより大きくなり、エッジが強調される。
図5におけるcは、エッジ強度を弱くした場合の画素値の分布の一例である。エッジ処理部270が、同図におけるaに例示したエッジ領域の画素値を減少させて、抽出元の立体字幕画像に合成すると、同図におけるcに例示するようにエッジ領域の画素値の変化がより小さくなり、エッジがぼかされる。
図6は、第1の実施の形態における動画ストリームの一構成例を示す図である。動画ストリームは、GOP(Group Of Pictures)と呼ばれる単位で符号化されており、このGOP単位で復号部230において復号される。このGOPは、符号化において基準となるI(Intra)ピクチャを少なくとも1枚含む画像の集合である。同図におけるaでは、1枚のIピクチャと、4枚のP(Predirective)ピクチャと、10枚のB(Bidirectionally predictive)ピクチャとの計15枚の画像611によりGOP610を構成する様子が示されている。ここで、Iピクチャは、符号化において基準とされる画像である。Pピクチャは、時間的に先行するIピクチャまたはPピクチャとの差分を利用して符号化される画像である。Bピクチャは、時間的に前後両方向のIピクチャまたはPピクチャとの差分を利用して符号化される画像である。
GOP内の15枚の画像は、図6におけるbに例示するように一部の順序が入れ替えられて符号化される。これは、MPEG規格における符号化方式の特徴に基づくものであり、復号の際に時間的に後続の画像を待つことを回避するためである。例えば、Bピクチャ(B5)を復号化するためにはIピクチャ(I3)とPピクチャ(P6)を参照する必要がある。このため、Bピクチャ(B5)を復号する時点で必要な画像データ(I3およびP6)が揃うように、同図におけるbのような入れ替えをしなければならない。なお、このような画像521の順序関係を定義するために、V_PCKのパックヘッダにおいてPTS622およびDTS(Decoding Time Stamp)623というタイムスタンプが付与される。PTS622は前述したように、再生出力の時刻管理情報であり、そのタイムスタンプが付与された単位画像をいつ再生出力するかを示す。一方、DTS623は復号の時刻管理情報であり、そのタイムスタンプが付与された単位画像をいつ復号するかを示す。
符号化された各画像は、図6におけるcに例示するように、それぞれ1つ以上のパックに収められる。パックとは、複数のPESパケットを連結してパックヘッダを付加したものである。例えば、Iピクチャ(I3)はV_PCK_I3(530)として保持され、Bピクチャ(B1)はV_PCK_B1(531)として保持される。そして、1個のGOP610を構成するV_PCK530の集合においては、補助的なデータを含むARI_PCK520がA_PCK520とともに多重化される。多重化されたパック群は、動画ストリームを構成する。
図7は、実施の形態における字幕ストリームの一構成例を示す図である。字幕ストリームは、動画ストリームとは独立したPESパケット群から構成される。このPESパケットは、字幕ストリームを構成するデータ(字幕データや視差など)を必要に応じて分割し、ヘッダを付加してパケット化したものである。字幕ストリームにおける各々のPESパケットは、パケットヘッダおよびペイロードを含む。パケットヘッダには、PTSなどが記載される。ペイロードには、PTSの示すタイミングで表示される字幕データや、その字幕データの視差が格納される。また、ペイロードには、字幕データが表示される領域の水平座標や垂直座標、字幕データが合成される主画像の構成(水平座標および垂直座標の範囲など)が格納される。
図8は、実施の形態における字幕ストリーム内のPESパケットのデータ構成の一例を示す図である。このPESパケットにおいては、例えば、DVB(Digital Video Broadcasting)規格に従ってデータが記述される。DVB規格において、PESパケットのヘッダには、字幕ストリームの識別情報(Stream_id)、PESパケット長(PES_packet_length)、および、字幕データのPTSなどが記載される。また、字幕データがPESパケット内に配置されることを示すインジケータ(PES_alignment_indicator)が記載される。「PES_packet_data_byte」のフィールドには、PESパケットのペイロード(「PES_data_field」内のデータ)が格納される。このペイロードには、「subtitle_segment()」のフィールドが設けられる。DVB規格においては、字幕ストリームの構成要素のデータのそれぞれは「segment」と呼ばれる。それぞれの「segment」の詳細は、図8における「subtitle_segment()」のフィールドにおいて記述される。具体的には、「subtitle_segment()」には、「segment」の開始位置を特定するための情報(sync_byte)が記載される。また、このフィールドには、「segment」の種類(segment_type)、その長さ(segment_length)、および、「segment」が用いられる主画像の識別情報(page_id)が記載される。また、「segment」のデータ自体は「segment_data_field」に格納される。「segment」の種類(segment_type)は、例えば、字幕データ、視差、字幕データの構成情報(表示される領域の水平座標や垂直座標など)、字幕データが合成される主画像の構成(水平座標および垂直座標の範囲など)である。
図9は、実施の形態におけるPESパケットに格納されるデータの一例を示す図である。前述したように、PESパケットのペイロード内の「subtitle_segment()」には、「segment_type」や「segment_data_field()」と呼ばれる領域が設けられる。「segment_data_field()」には、字幕データや視差が格納される。同図におけるaに示すように「segment_data_field()」に「segment」として字幕データが格納される場合には「segment_type」のフィールドにおいて「segment」が字幕データであることを示す「0x13」が記載される。また、同図におけるbに示すように、「segment_data_field()」に「segment」として視差が格納される場合には、「segment_type」のフィールドにおいて、「segment」が視差であることを示す「0x15」が記載される。
図10は、字幕データバッファ240の一構成例を示す図である。字幕データバッファ240には、PTSに対応付けて視差および字幕データが保持される。PTSが付与されたPESパケットから取得された視差は、そのPTSに対応付けて字幕データバッファ240に保持される。また、PTSが付与されたPESパケットから取得された字幕データは、そのPTSに対応付けて字幕データバッファ240に保持される。PTSが共通の字幕データおよび視差は、そのPTSに対応付けて保持される。例えば、「PTS#1」に対応付けて「字幕データ#1」と「10」の視差とが保持される場合、「PTS#1」のタイミングにおいて、「字幕データ#1」および「10」が読み出される。そして、「字幕データ#1」は、視差「10」に応じた位置に立体表示される。
[画像処理装置の動作例]
図11は、実施の形態における画像処理装置200の動作の一例を示す図である。この動作は、例えば、画像処理装置200に動画ストリームおよび字幕ストリームが入力されたときに開始する。
画像処理装置200における視差取得部210は、字幕ストリームからPTSおよび視差を取得して字幕データバッファ240に保持させる(ステップS901)。また、字幕データ取得部220は、字幕ストリームから字幕データおよび視差を取得して字幕データバッファ240に保持させる(ステップS902)。同期制御部250は、動画ストリームから取得されたPTSに対応する字幕データおよび視差を字幕データバッファ240から読み出す。そして、立体字幕画像生成部260は、読み出された字幕データから立体字幕画像を生成する(ステップS903)。
エッジ処理部270は、立体字幕画像においてエッジを抽出し(ステップS904)、取得された視差に応じてエッジ強度を変更する(ステップS905)。字幕画像合成部は、エッジ強度が変更された立体字幕画像を立体主画像に合成する(ステップS906)。ステップS906の後、画像処理装置200はステップS901に戻る。
図12は、実施の形態における視差を説明するための図である。表示装置300の表示面に表示される右側画像の基準の水平座標(例えば、中央の水平座標)をXとし、左側画像の基準の水平座標をXとする。水平座標は、視聴者から見て左側であるほど、値が小さいものとする。この場合において、例えば、XからXを減じた値が視差Dとして用いられる。
ここで、左目と右目との間の距離をベース距離Bとし、視聴者から表示装置300までの距離をfとし、奥行き方向に立体的に視認される立体画像の表示位置をZpとする。このとき、右目、左目および立体画像の中心のなす三角形と、X、Xおよび立体画像の中心のなす三角形とは相似であるため、次の式4が成立する。
D:f=B:Zp 式4
式4により、Zpに表示させるための視差Dが求められて、字幕ストリームにより配信される。Zpに表示された位置では、字幕画像の遠近感が不足する場合には、式1により求められたゲインGにより、字幕画像のエッジ強度が変更される。そのゲインGによる遠近感の程度は、式1における補正係数αを変更することにより調整される。
図13は、実施の形態における立体表示の方法の一例を示す図である。同図におけるaは、字幕画像を手前側に表示するための表示方法の一例を示す図である。水平方向において、右側字幕画像701の座標は視聴者から見て左側であり、左側字幕画像702の座標が視聴者から見て右側であるものとする。この場合において、視聴者の左目に左側字幕画像702が映り、右目に右側字幕画像701が映るように、表示装置300がこれらの画像を表示すると、視聴者は、字幕画像801が手前側に表示されているように視認することができる。
図13におけるbは、基準位置に字幕画像を表示する表示方法の一例を示す図である。右側字幕画像701および左側字幕画像702の水平座標は変わらないものとする。この場合において、視聴者の左目に左側字幕画像702が映り、右目に右側字幕画像701が映るように、表示装置300がこれらの画像を表示すると、表示装置300の表示面(基準位置)に字幕画像801が表示されているように視認される。このときは、字幕画像801は、立体的に視認されない。
図13におけるcは、字幕画像を奥側に表示するための表示方法の一例を示す図である。水平方向において、右側字幕画像701の座標は視聴者から見て右側であり、左側字幕画像702の座標が視聴者から見て左側であるものとする。この場合において、視聴者の左目に左側字幕画像702が映り、右目に右側字幕画像701が映るように、表示装置300がこれらの画像を表示すると、視聴者は、字幕画像801が奥側に表示されているように、立体的に視認することができる。
図14は、実施の形態における遠近感を強調した立体字幕画像の一例を示す図である。同図におけるaは、手前側に表示される立体字幕画像の一例を示す図である。この場合、画像処理装置200は、立体字幕画像(701および702)において視差に応じてエッジ強度を強くする。これにより、視聴者が視認する字幕画像801の表示位置が手前側であるほど、字幕画像801におけるエッジが強調される。
図14におけるbは、字幕画像を奥側に表示される立体字幕画像場合の一例を示す図である。この場合、画像処理装置200は、立体字幕画像(701および702)において視差に応じてエッジ強度を弱くする。これにより、視聴者が視認する字幕画像801の表示位置が奥側であるほど、字幕画像801におけるエッジがぼかされる。
このように、本技術の第1の実施の形態によれば、画像処理装置200は、視差に応じて立体字幕画像のエッジ強度を変更することにより、字幕画像の遠近感を強調することができる。これにより、立体表示される動画において、2D−3D変換された字幕画像を合成する場合において、視聴者が字幕画像の遠近感の不足を感じることがなくなる。
[変形例]
図15を参照して第1の実施の形態における変形例について説明する。第1の実施の形態においては、画像処理装置200は、立体字幕画像をそのままハイパスフィルター271に供給していたが、周期関数に変換してからハイパスフィルター271に供給することもできる。変形例の画像処理装置200は、ハイパスフィルター271の前段において立体字幕画像を手記関数に変換する点において第1の実施の形態と異なる。具体的には、エッジ処理部270は、周期関数変換部275および逆変換部276をさらに備える。
周期関数変換部275は、立体字幕画像において、座標空間の関数を周波数空間の関数(周期関数)に変換するものである。具体的には、周期関数変換部275は、例えば、次の式5を使用して立体字幕画像を周期関数に変換する。式3による変換は、フーリエ変換と呼ばれる。なお、周期関数変換部275は、周期関数に変換することができるのであれば、式5以外の式を使用してもよい。
式5において、xは立体字幕画像の水平座標であり、yは垂直座標である。P(x,y)は、座標(x,y)が入力されると、その座標の画素値を返す座標空間の関数である。kは、水平方向における空間周波数であり、lは垂直方向における空間周波数である。F(k,l)は、空間周波数(k,l)が入力されると、その空間周波数を有する成分波の集合を表わす周期関数を返す関数である。成分波は、画像内の座標の変化に伴って周期的に変化する画素値の軌跡を波形として有する波である。Mは、立体字幕画像の水平方向の画素数であり、Nは、立体字幕画像の垂直方向の画素数である。WおよびWは、次の式6および式7により定義される指数関数である。
周期関数変換部275は、変換した周期関数により表わされる成分波の集合をハイパスフィルター271に供給する。ハイパスフィルター271は、それらの成分波のうち、所定の閾値以上の周波数を有する成分波をエッジ成分波として抽出する。ハイパスフィルター271は、抽出したエッジ成分波を逆変換部276に供給する。逆変換部276は、エッジ成分波を次の式8を使用して、画素値P(x,y)の集合に変換する。逆変換部276は、その画素値P(x,y)が得られた画素(x,y)からなる領域をエッジ領域とする。
図16は、第1の実施の形態の変形例におけるエッジ領域の抽出方法を説明するための図である。同図におけるaは、画素値の分布の一例を示す図である。同図におけるaの、縦軸は画素値P(x,y)であり、横軸は座標(x,y)である。xは水平座標であり、yは、垂直座標である。画素値P(x,y)は、座標(x,y)における画素値である。
図16におけるbは、画素値P(x,y)をフーリエ変換した周波数の分布の一例を示す図である。同図におけるbの縦軸は振幅スペクトル|F(k,l)|であり、横軸は、空間周波数kである。同図におけるbでは、空間周波数lの分布は省略されている。同図におけるbに示すように、ハイパスフィルター271により、閾値Th_k以上の成分波が、エッジ成分波として抽出される。
図16におけるcは、抽出されたエッジ成分波を逆変換した画素値P(x,y)の分布の一例を示す図である。同図におけるcに示すように、変換された画素値P(x,y)を有する画素(x,y)からなる領域がエッジ領域として抽出される。
このように、変形例によれば、画像処理装置200は、周期関数の分布を生成してからエッジ成分波を抽出するため、エッジ領域をより正確に抽出することができる。
<2.第1の実施の形態>
[画像処理装置の構成例]
図17は、第2の実施の形態における画像処理装置200の一構成例を示すブロック図である。第2の実施の形態における画像処理装置200は、サブピクセル補正をさらに実行する点において第1の実施の形態と異なる。具体的には、第1の実施の形態の画像処理装置200は、サブピクセル補正部290をさらに備える。ここで、サブピクセル補正とは、画像において隣接する画素の各々の画素値を混合することにより、表示面上の実際の画素と画素との間に見かけ上の画素(以下、「サブピクセル」と称する。)があるように視聴者に視認させる処理である。以下、サブピクセル補正を行った画像を「サブピクセル画像」と称する。なお、サブピクセルは、特許請求の範囲に記載の副画素の一例である。
第1の実施の形態において字幕画像の奥行きを時間の経過に応じて少しずつ変更する場合、画像処理装置200は、左側字幕画像および右側字幕画像のそれぞれの水平座標を画素単位でシフトしていた。しかし、より滑らかに奥行きを変更させるためには、画素単位よりも、サブピクセル単位で左側字幕画像および右側字幕画像をシフトさせることが望ましい。そこで、第2の実施の形態の画像処理装置200は、一部の立体字幕画像をサブピクセル画像に置き換えることにより、サブピクセル単位で立体字幕画像をシフトさせている。ただし、前述したように、サブピクセル補正においては、隣接する画素の混合が行われるため、エッジ強度が弱くなってしまう。したがって、サブピクセル補正を行う場合には、画像処理装置200は、サブピクセル補正により弱くなった分、エッジ強度を強くすることが望ましい。
サブピクセル補正部290は、視差に基づいて立体字幕画像に対してサブピクセル補正を行うものである。1枚の立体字幕画像をフレームとし、立体字幕画像の画素のシフト量が1画素に相当する視差の変更をnフレームの期間内に行う場合を考える。この場合は、サブピクセル補正部290は、nフレームのうち、時系列において最初および最後のフレームを除くn−2フレームに対してサブピクセル補正を実行してサブピクセル画像とする。例えば、シフト量が1画素に相当する視差の変更を3フレームの期間内に行う場合、サブピクセル補正部290は、3フレームのうち、最初および最後のフレームを除く1枚のフレームに対してサブピクセル補正を実行する。
ここで、水平方向においてサブピクセルに隣接する左右の画素のうち、サブピクセルに近い方の画素の水平座標と、そのサブピクセルの水平座標との差を「位相差」と称する。サブピクセルは、画素間に位置するため、位相差は「−0.5」乃至「0.5」の値となる。ただし、「0」の位相差は、サブピクセル補正が行われないことを示す。
この位相差は、視差に応じて決定される。具体的には、シフト量が1画素に相当する視差の変更をnフレームの期間内に行う場合、nフレームのうち、時系列において最初および最後のフレームの位相差は「0」に設定される。シフト方向が正方向である場合、時系列においてk(kは、1乃至nの整数)番目のフレームの位相差Pは、kが1からn/2に近づくほど大きくなり、kがn/2からnに近づくほど小さくなるように決定される。一方、シフト方向が負方向の場合には、位相差Pは、kが1からn/2に近づくほど小さくなり、kがn/2からnに近づくほど大きくなるように決定される。
例えば、正方向におけるシフト量が1画素に相当する視差の変更を3フレームの期間内に行う場合、1番目および3番目のフレームの位相差は「0」に、2番目のフレームの位相差は「0.5」に決定される。サブピクセル補正部290は、サブピクセル補正後の立体字幕画像、その位相差P、および、視差Dをエッジ処理部270に供給する。
エッジ処理部270は、位相差Pが「0」である場合には式1を使用してゲインを求める。一方、位相差Pが「0」でない場合には式1の代わりに、次の式9を使用してゲインを求める。
G=|P|×(−α)×D/Dm 式9
式9を使用することにより、位相差の絶対値に応じてゲインが上昇する。これにより、サブピクセル補正によりエッジ強度が弱くなった分、エッジが強調される。なお、式9において、画素単位の視差をDとしているが、サブピクセル単位の視差をDとして使用してもよい。
図18は、第2の実施の形態におけるサブピクセル補正の一例を示す図である。同図におけるaは、位相差「0.5」に決定した場合におけるサブピクセル補正の一例を示す図である。左側字幕画像において水平座標X、X+1およびX+2の画素の画素値をPX1、PX1+1およびPX1+2とする。サブピクセル補正を行う場合、隣接する画素の各々の画素値は、位相差に応じた混合率で混合される。具体的には、位相差Pが正数である場合、水平座標Xにおけるサブピクセル補正後の画素値PX1'は、次の式10により算出される。
X1'=P×PX1+(1−P)×PX1+1 式10
例えば、位相差Pが0.5である場合には、画素値PX1'は、画素値PX1およびPX1+1の平均値となる。同様の計算により、画素値PX1+1およびPX1+2も、隣接する画素との間の平均により置き換えられる。
図18におけるbは、第2の実施の形態におけるサブピクセル補正の方法を説明するための図である。同図におけるbに例示したように隣接する画素同士を混合することにより、サブピクセル画像(左側字幕画像)において、画像処理装置200は、実際の画素と画素との間にサブピクセルがあるように見せることができる。
図19は、第2の実施の形態におけるサブピクセル補正前後の左側字幕画像および右側字幕画像の一例を示す図である。同図におけるaは、シフト量が1画素に相当する視差の変更を3フレームの期間内に、サブピクセル補正なしに行う場合の左側字幕画像および右側字幕画像の一例を示す図である。時系列順に左側字幕画像#1、#2および#3を表示する場合、例えば、画像処理装置200は、左側字幕画像#1および#2の左端の座標を等しくし、次の左側字幕画像#3を1画素ずらすことにより視差を変更する。視差を小さくする場合には、左側字幕画像#3は視聴者から見て右側にシフトされる。一方、時系列順に右側字幕画像#1、#2および#3を表示する場合、画像処理装置200は、右側字幕画像#3のみを1画素ずらすことにより視差を変更する。なお、左側字幕画像#2および右側字幕画像#2は、同図におけるaにおいて省略されている。
図19におけるbは、シフト量が1画素に相当する視差の変更を3フレームの期間内に、サブピクセル補正により行う場合の左側字幕画像および右側字幕画像の一例を示す図である。画像処理装置200は、左側字幕画像#1、#2および#3のうち、左側字幕画像#2をサブピクセル画像に置き換え、右側字幕画像#1、#2および#3のうち、右側字幕画像#2をサブピクセル画像に置き換える。これにより、左側字幕画像および右側字幕画像は、サブピクセル単位でシフトされ、画素単位でシフトされた場合と比較して奥行きが滑らかに変更される。
図20は、第2の実施の形態における視差の変化と字幕画像の座標の変化との間の関係の一例を示すグラフである。図20において縦軸は左側字幕画像の左端の水平座標であり、横軸は視差である。一点鎖線は、サブピクセル補正を行わない場合における視差の変化に対する字幕画像の座標の変化を示す。実線は、サブピクセル補正を行った場合における視差の変化に対する字幕画像の座標の変化を示す。図20に例示するように、サブピクセル補正を行わない場合には、視差の変化に応じて画素単位で左側字幕画像がシフトされる。右側字幕画像も画素単位でシフトされる。一方、サブピクセル補正を行った場合には、視差の変化に応じてサブピクセル単位で左側字幕画像がシフトされる。右側字幕画像もサブピクセル単位でシフトされる。このため、左側字幕画像および右側字幕画像が画素単位でシフトされる場合と比較して立体字幕画像の奥行きが滑らかに変更される。
このように、本技術の第2の実施の形態によれば、画像処理装置200は、サブピクセル補正における混合率および視差に応じてエッジ強度を変更するため、奥行きを滑らかに変更しつつ、字幕画像の遠近感を強調することができる。
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
なお、本技術は以下のような構成もとることができる。
(1)立体主画像に合成される字幕情報を取得する字幕情報取得部と、
前記字幕情報を立体表示させるための視差を取得する視差取得部と、
前記視差に応じた表示位置に立体表示される立体字幕画像を前記字幕情報から生成する立体字幕画像生成部と、
前記立体字幕画像におけるエッジの強度を前記視差に応じて変更するエッジ処理部と
を具備する画像処理装置。
(2)前記エッジ処理部は、前記表示位置が所定の基準位置より手前側である場合には前記視差に応じて前記エッジの強度を強くし、前記表示位置が前記基準位置より奥側である場合には前記視差に応じて前記エッジの強度を弱くする
前記(1)記載の画像処理装置。
(3)前記立体字幕画像において隣接する画素間に表示させる副画素の位置に応じた混合率に基づいて前記隣接する画素の各々の画素値を混合する画素混合部をさらに具備し、
前記エッジ処理部は、前記位置および前記視差に応じて前記エッジの強度を変更する
前記(1)または(2)記載の画像処理装置。
(4)前記画素混合部は、前記視差に応じた位置を前記副画素の位置とする
前記(3)記載の画像処理装置。
(5)前記エッジ処理部は、
前記立体字幕画像において前記エッジの領域を抽出するエッジ抽出部と、
前記抽出されたエッジの領域における画素値を前記視差に応じて増大または減少させる補正部と、
前記画素値が増大または減少された前記エッジの領域を前記立体字幕画像に合成することにより前記エッジの強度を変更するエッジ合成部と
を具備する前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)前記エッジ抽出部は、前記立体字幕画像において画素値の分布の周波数が所定の閾値より高い領域を前記エッジの領域として抽出する
前記(5)記載の画像処理装置。
(7)前記エッジの強度が変更された前記立体字幕画像を前記立体主画像に合成する字幕合成部をさらに具備する前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)字幕情報取得部が、立体主画像に合成される字幕情報を取得する字幕情報取得手順と、
視差取得部が、前記字幕情報を立体表示させるための視差を取得する視差取得手順と、
立体字幕画像生成部が、前記視差に応じた表示位置に立体表示される立体字幕画像を前記字幕情報から生成する立体字幕画像生成手順と、
エッジ処理部が、前記立体字幕画像におけるエッジの強度を前記視差に応じて変更するエッジ処理手順と
を具備する画像処理方法。
(9)字幕情報取得部が、立体主画像に合成される字幕情報を取得する字幕情報取得手順と、
視差取得部が、前記字幕情報を立体表示させるための視差を取得する視差取得手順と、
立体字幕画像生成部が、前記視差に応じた表示位置に立体表示される立体字幕画像を前記字幕情報から生成する立体字幕画像生成手順と、
エッジ処理部が、前記立体字幕画像におけるエッジの強度を前記視差に応じて変更するエッジ処理手順と
をコンピュータに実行させるためのプログラム。
100 受信装置
200 画像処理装置
210 視差取得部
220 字幕データ取得部
230 復号部
240 字幕データバッファ
250 同期制御部
260 立体字幕画像生成部
270 エッジ処理部
271 ハイパスフィルター
272 ゲイン補正部
273 遅延バッファ
274 エッジ合成部
275 周期関数変換部
276 逆変換部
280 字幕画像合成部
290 サブピクセル補正部
300 表示装置

Claims (9)

  1. 立体主画像に合成される字幕情報を取得する字幕情報取得部と、
    前記字幕情報を立体表示させるための視差を取得する視差取得部と、
    前記視差に応じた表示位置に立体表示される立体字幕画像を前記字幕情報から生成する立体字幕画像生成部と、
    前記立体字幕画像におけるエッジの強度を前記視差に応じて変更するエッジ処理部と
    を具備する画像処理装置。
  2. 前記エッジ処理部は、前記表示位置が所定の基準位置より手前側である場合には前記視差に応じて前記エッジの強度を強くし、前記表示位置が前記基準位置より奥側である場合には前記視差に応じて前記エッジの強度を弱くする
    請求項1記載の画像処理装置。
  3. 前記立体字幕画像において隣接する画素間に表示させる副画素の位置に応じた混合率に基づいて前記隣接する画素の各々の画素値を混合する画素混合部をさらに具備し、
    前記エッジ処理部は、前記位置および前記視差に応じて前記エッジの強度を変更する
    請求項1記載の画像処理装置。
  4. 前記画素混合部は、前記視差に応じた位置を前記副画素の位置とする
    請求項3記載の画像処理装置。
  5. 前記エッジ処理部は、
    前記立体字幕画像において前記エッジの領域を抽出するエッジ抽出部と、
    前記抽出されたエッジの領域における画素値を前記視差に応じて増大または減少させる補正部と、
    前記画素値が増大または減少された前記エッジの領域を前記立体字幕画像に合成することにより前記エッジの強度を変更するエッジ合成部と
    を具備する請求項1記載の画像処理装置。
  6. 前記エッジ抽出部は、前記立体字幕画像において画素値の分布の周波数が所定の閾値より高い領域を前記エッジの領域として抽出する
    請求項5記載の画像処理装置。
  7. 前記エッジの強度が変更された前記立体字幕画像を前記立体主画像に合成する字幕合成部をさらに具備する請求項1記載の画像処理装置。
  8. 字幕情報取得部が、立体主画像に合成される字幕情報を取得する字幕情報取得手順と、
    視差取得部が、前記字幕情報を立体表示させるための視差を取得する視差取得手順と、
    立体字幕画像生成部が、前記視差に応じた表示位置に立体表示される立体字幕画像を前記字幕情報から生成する立体字幕画像生成手順と、
    エッジ処理部が、前記立体字幕画像におけるエッジの強度を前記視差に応じて変更するエッジ処理手順と
    を具備する画像処理方法。
  9. 字幕情報取得部が、立体主画像に合成される字幕情報を取得する字幕情報取得手順と、
    視差取得部が、前記字幕情報を立体表示させるための視差を取得する視差取得手順と、
    立体字幕画像生成部が、前記視差に応じた表示位置に立体表示される立体字幕画像を前記字幕情報から生成する立体字幕画像生成手順と、
    エッジ処理部が、前記立体字幕画像におけるエッジの強度を前記視差に応じて変更するエッジ処理手順と
    をコンピュータに実行させるためのプログラム。
JP2012110718A 2012-05-14 2012-05-14 画像処理装置、画像処理方法およびプログラム Ceased JP2013239833A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012110718A JP2013239833A (ja) 2012-05-14 2012-05-14 画像処理装置、画像処理方法およびプログラム
US14/400,384 US9686529B2 (en) 2012-05-14 2013-03-27 Image processing apparatus, image processing method, and program
PCT/JP2013/058975 WO2013172098A1 (ja) 2012-05-14 2013-03-27 画像処理装置、画像処理方法およびプログラム
EP13791643.3A EP2852164A4 (en) 2012-05-14 2013-03-27 IMAGE PROCESSING DEVICE, METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012110718A JP2013239833A (ja) 2012-05-14 2012-05-14 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2013239833A true JP2013239833A (ja) 2013-11-28
JP2013239833A5 JP2013239833A5 (ja) 2015-06-25

Family

ID=49583517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012110718A Ceased JP2013239833A (ja) 2012-05-14 2012-05-14 画像処理装置、画像処理方法およびプログラム

Country Status (4)

Country Link
US (1) US9686529B2 (ja)
EP (1) EP2852164A4 (ja)
JP (1) JP2013239833A (ja)
WO (1) WO2013172098A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6307213B2 (ja) * 2012-05-14 2018-04-04 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、画像処理方法およびプログラム
US9948913B2 (en) * 2014-12-24 2018-04-17 Samsung Electronics Co., Ltd. Image processing method and apparatus for processing an image pair
CN113553128B (zh) * 2020-04-24 2024-11-05 北京小米移动软件有限公司 画面边角生成方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033897A (ja) * 2006-06-29 2008-02-14 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP2011249945A (ja) * 2010-05-24 2011-12-08 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2012049920A (ja) * 2010-08-27 2012-03-08 Canon Inc 画像処理装置及びその制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3086577B2 (ja) 1993-12-22 2000-09-11 三洋電機株式会社 2次元画像の3次元化方法
US7079190B2 (en) * 2001-12-27 2006-07-18 Zoran Corporation Technique for determining the slope of a field pixel
CN102292993B (zh) 2009-01-20 2015-05-13 Lg电子株式会社 三维字幕显示方法以及用于实现该方法的三维显示装置
EP2399398B1 (en) 2009-02-17 2016-04-20 Koninklijke Philips N.V. Combining 3d image and graphical data
KR101716636B1 (ko) * 2009-07-27 2017-03-15 코닌클리케 필립스 엔.브이. 3d 비디오 및 보조 데이터의 결합
WO2011028547A2 (en) * 2009-08-24 2011-03-10 Next3D Inc. Stereoscopic video encoding and decoding methods and apparatus
US8508581B2 (en) * 2009-10-29 2013-08-13 Industrial Technology Research Institute Pixel data transformation method and apparatus for three dimensional display
JP2012004654A (ja) 2010-06-14 2012-01-05 Sharp Corp 映像表示装置及びその表示制御方法
US8692870B2 (en) 2010-06-28 2014-04-08 Microsoft Corporation Adaptive adjustment of depth cues in a stereo telepresence system
CN102202224B (zh) 2011-06-22 2013-03-27 清华大学 用于平面视频立体转换的字幕去抖方法及字幕去抖装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033897A (ja) * 2006-06-29 2008-02-14 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP2011249945A (ja) * 2010-05-24 2011-12-08 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2012049920A (ja) * 2010-08-27 2012-03-08 Canon Inc 画像処理装置及びその制御方法

Also Published As

Publication number Publication date
EP2852164A1 (en) 2015-03-25
US9686529B2 (en) 2017-06-20
US20150138315A1 (en) 2015-05-21
EP2852164A4 (en) 2016-01-06
WO2013172098A1 (ja) 2013-11-21

Similar Documents

Publication Publication Date Title
US10158841B2 (en) Method and device for overlaying 3D graphics over 3D video
JP5647242B2 (ja) 3dビデオ及び補助データの結合
US20100269065A1 (en) Data structure, recording medium, playback apparatus and method, and program
US8848037B2 (en) Data structure, recording medium, playing device and playing method, and program
JPWO2010013382A1 (ja) 映像符号化装置、映像符号化方法、映像再生装置、映像再生方法、映像記録媒体、及び映像データストリーム
JP2010034704A (ja) 再生装置及び再生方法
KR20110113186A (ko) 비디오 인터페이스를 통해 송신하고 3d 비디오 및 3d 오버레이들을 합성하기 위한 방법 및 시스템
US20120229599A1 (en) Video signal processing device and video signal processing method
US9357200B2 (en) Video processing device and video processing method
WO2013172098A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP6092525B2 (ja) 画像処理装置、情報処理システム、画像処理方法およびプログラム
JP4733764B2 (ja) 三次元映像処理装置及び三次元映像処理方法
WO2012014489A1 (ja) 映像信号処理装置及び映像信号処理方法
JP6307213B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5017445B2 (ja) 視差画像変換装置
JP2013247577A (ja) 3次元画像生成装置および3次元画像生成方法
JP5759728B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP5777920B2 (ja) 画像処理装置および画像処理方法
JP2012070117A (ja) 三次元ビデオストリームの生成方法
JP2011193497A (ja) 三次元映像処理装置及び三次元映像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150501

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20170725