JP2022051978A - 画像処理装置、画像処理方法、及び、プログラム - Google Patents
画像処理装置、画像処理方法、及び、プログラム Download PDFInfo
- Publication number
- JP2022051978A JP2022051978A JP2019025708A JP2019025708A JP2022051978A JP 2022051978 A JP2022051978 A JP 2022051978A JP 2019025708 A JP2019025708 A JP 2019025708A JP 2019025708 A JP2019025708 A JP 2019025708A JP 2022051978 A JP2022051978 A JP 2022051978A
- Authority
- JP
- Japan
- Prior art keywords
- model
- virtual camera
- image
- viewpoint
- strobe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】自由視点画像を視聴するユーザが所望のオブジェクトを見失うことを抑制する。【解決手段】軌跡情報生成部は、複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する。本技術は、自由視点画像を視聴する場合に適用することができる。【選択図】図5
Description
本技術は、画像処理装置、画像処理方法、及び、プログラムに関し、特に、例えば、自由視点画像を視聴するユーザが所望のオブジェクトを見失うことを抑制することができるようにする画像処理装置、画像処理方法、及び、プログラムに関する。
複数の時刻に撮影されたオブジェクト(被写体)が映るストロボ画像を生成する方法が提案されている(例えば、特許文献1を参照)。ストロボ画像には、複数の時刻のオブジェクトが映るので、オブジェクトの動きや軌跡を、容易に把握することができる。
ところで、近年、仮想視点から3次元空間を見たときの見え方が再現された自由視点画像が注目されている。
自由視点画像のコンテンツについては、時間シークを行う操作(時間シーク操作)を行うと、自由視点画像を視聴するユーザが所望のオブジェクトを見失うことが予想される。
本技術は、このような状況に鑑みてなされたものであり、自由視点画像を視聴するユーザが所望のオブジェクトを見失うことを抑制することができるようにするものである。
本技術の画像処理装置、又は、プログラムは、複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する軌跡情報生成部を備える画像処理装置、又は、そのような画像処理装置として、コンピュータを機能させるためのプログラムである。
本技術の画像処理方法は、複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成することを含む画像処理方法である。
本技術の画像処理装置、画像処理方法、及び、プログラムにおいては、複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報が生成される。
なお、画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、頒布することができる。
<2D画像のコンテンツの再生>
図1は、2D画像のコンテンツの再生の例を説明する図である。
すなわち、図1は、2D(Dimensional)画像のコンテンツを再生するプレーヤの例を示している。
プレーヤは、2D画像を表示する表示部11と、時間シークを行うためのGUI(Graphical User Interface)としてのシークバー12とを有する。時間シークとは、再生位置(時刻)を指定する方法の1つである。
シークバー12は、再生位置を表すスライダ13を有し、シークバー12におけるスライダ13の位置が、再生位置を表す。シークバー12において、左端は、コンテンツの先頭を表し、右端は、コンテンツの終わりを表す。例えば、コンテンツが通常再生されている場合、その通常再生の再生位置の移動に従って、スライダ13は、左から右に移動していく。
ユーザは、時間シーク操作として、シークバー12(のスライダ13)の操作を行い、再生位置を指定することができる。すなわち、ユーザが、時間シーク操作としてのシークバー12の操作を行い、スライダ13の位置が移動されると、そのスライダ13の移動後の位置に対応する再生位置(フレーム)の2D画像が再生される(表示部11に表示される)。
したがって、ユーザは、時間シーク操作としてのシークバー12の操作を行うことで、シークバー12の操作により移動するスライダ13の位置に対応する再生位置の2D画像を見ながら(かつ、音を聞きながら)、所望のシーンを、容易に探し出すことができる。
図1では、サッカーの試合が映る2D画像のコンテンツについて、ユーザが時間シーク操作としてシークバー12を操作している間、その時のシークバー操作に対応する時刻の画像が表示されていく。例えばそのカメラがある選手を追い続けたものであるならば、ユーザは当然その選手を画像で見続けることができ見失うことはない。
なお、時間シーク操作は、シークバー12の操作の他、早送り再生や巻き戻し再生(逆再生)を指示する操作、チャプタジャンプを指示する操作等によって行うことができる。
<自由視点画像の時間シーク>
図2は、自由視点画像のコンテンツの時間シークの例を説明する図である。
ここで、近年、インターネットを介した画像(動画)の配信が一般的になり、画像を視聴する方法については、TV(Television)受像機や映画館でのスクリーンを用いた方法の他、PC(Personal Computer)のブラウザや、スマートフォン、タブレット等を用いた方法等のように、多様性を増してきている
また、コンテンツとしては、アスペクト比が16:9 や4:3の2D画像(動画)のコンテンツの他、自由視点データのコンテンツが登場している。
自由視点データは、3次元空間の3次元構造を表現するデータであり、自由視点データによれば、所定の視点から3次元空間の被写体であるオブジェクトを見たときに見える画像、すなわち、所定の視点からオブジェクトを見たときの視線方向に垂直な投影面に、自由視点データにより表現される3次元空間内のビューイングボリューム(又はビューボリューム)を投影して得られる2D画像を生成することができる。この2D画像は、視点を自由に設定して生成することができるので、自由視点画像と呼ぶことができる。自由視点画像の生成にあたって必要となる視点(視線(方向)を含む)は、ユーザの実際の視点に関係なく仮想的に設定することができるので、かかる視点を、仮想視点ともいう。
自由視点画像(動画)は、PCのモニタやスマートフォン等といった2次元平面形状のディスプレイで表示することができる。
また、自由視点画像は、ヘッドマウントディスプレイ(HMD)で表示することができる。この場合、ヘッドトラッキング技術により、あたかも3次元空間の中に存在するかのような立体視を実現することができる。
さらに、自由視点画像は、AR(Augmented Reality)グラス等の、透明で向こう側が透けて見えるディスプレイを使ったヘッドアップディスプレイ(HUD)で表示することができる。この場合、ユーザが実際に存在する3次元空間に、他の3次元空間で撮影された人物や物体等のオブジェクトを重畳して表示することができる。
自由視点データは、2D画像と同様に、時間方向の自由度を有する他に、仮想視点、すなわち、自由視点データ(によって表現される3次元空間)を撮影する仮想カメラの撮影位置及び撮影姿勢(撮影方向)の自由度を有する。仮想カメラの撮影位置は、例えば、ワールド座標系としてのxyz座標系の座標等で表すことができ、仮想カメラの撮影姿勢は、ワールド座標系の各軸回りの回転角等で表すことができる。仮想カメラの撮影位置については、x軸、y軸、及び、z軸の方向への移動が可能であり、仮想カメラの撮影姿勢については、x軸、y軸、及び、z軸回りの回転が可能であるから、仮想カメラの撮影位置及び撮影姿勢には、6DoF(Degree of Freedom)の自由度がある。したがって、自由視点データについては、時間方向の1個の自由度と、仮想カメラの撮影位置及び撮影姿勢(仮想視点)の6個の自由度との、合計で7個の自由度がある。
ここで、仮想視点に対する投影面に、自由視点データ(により表現される3次元空間内のビューイングボリューム)を投影することにより生成される自由視点画像としては、あたかも、仮想視点から、仮想的なカメラで、自由視点データの撮影を行ったかのような2D画像を得ることができる。したがって、仮想視点に対する投影面に、自由視点データを投影することは、仮想視点から、仮想的なカメラで、自由視点データを撮影することに相当する、ということができる。すなわち、仮想視点に対する投影面に、自由視点データを投影して、自由視点画像を生成することは、仮想視点に配置された仮想的なカメラで、自由視点データを撮影することと捉えることができる。そこで、本実施の形態では、自由視点画像の生成を、仮想的なカメラでの自由視点データの撮影と捉えて、適宜、説明を行う。また、自由視点データを撮影する仮想的なカメラを、仮想カメラともいう。
仮想カメラの撮影位置及び撮影姿勢は、ユーザが、ジョイスティック、その他の位置及び姿勢をコントロールするコントローラ(デバイス)を操作することにより設定することができる。
また、自由視点データの視聴に、HMDやHUDが用いられる場合、仮想カメラの撮影位置及び撮影姿勢は、HMDやHUDで検出されるユーザの視点及び視線(方向)に対応するように設定することができる。
2D画像のコンテンツについては、時間方向の1個の自由度しかないが、自由視点データのコンテンツについては、時間方向の1個の自由度と、仮想カメラの撮影位置及び撮影姿勢(仮想視点)の6個の自由度との7個の自由度がある。
したがって、自由視点データのコンテンツについて、時間シーク操作を行うと、ユーザは、2D画像のコンテンツの場合よりも、所望のオブジェクトを見失う可能性が高くなる。
具体的には、自由視点データのコンテンツについては、自由視点データにより表現される3次元空間、すなわち、自由視点データを得るのに(複数の)カメラで撮影された3次元空間である撮影空間を仮想カメラで撮影した2D画像が、自由視点画像として表示される。
そして、自由視点データのコンテンツについては、現在の再生位置(時刻)において、ある撮影位置及び撮影姿勢の仮想カメラの撮影範囲に入っているオブジェクトが、他の再生位置でも、仮想カメラの撮影範囲に入るとは限らない。
図2では、現在の再生位置より過去の再生位置に時間シークを行う時間シーク操作が行われている。さらに、図2では、現在の再生位置において仮想カメラの撮影範囲に入っているオブジェクトが、過去の再生位置では、現在の再生位置における仮想カメラの撮影範囲からはずれている。
この場合、現在の再生位置では、撮影空間を仮想カメラで撮影した2D画像には、オブジェクトが映るが、過去の再生位置(時間シーク操作後の再生位置)では、撮影空間を仮想カメラで撮影した2D画像には、オブジェクトが映らない。
このため、ユーザは、過去の再生位置への時間シーク操作を行うと、オブジェクトを見失う。
例えば、自由視点データのコンテンツが、サッカーの試合のコンテンツである場合において、図1で説明したように、ユーザが、ゴールを決めたサッカー選手がどこから走ってきてどのようにパスを受けシュートをしたのかを確認するために、ゴールを決めたシーンが映る再生位置から、過去方向に時間シークを行う時間シーク操作を行ったときには、時間シーク操作後の再生位置において、ゴールを決めたサッカー選手が、ゴールを決めたシーンが映る再生位置における仮想カメラの撮影範囲に入っていないと、ユーザは、ゴールを決めたサッカー選手を見失う。
そこで、本技術では、時間シーク操作等による自由視点データの再生位置の指定に応じて、オブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する。この軌跡情報を仮想カメラで撮影した自由視点画像である軌跡画像を表示することで、自由視点画像を視聴するユーザが所望のオブジェクトを見失うことを抑制することができる。
<本技術を適用した画像処理システムの一実施の形態>
図3は、本技術を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。
図3の画像処理システムは、撮影装置21、コンテンツサーバ22、及び、再生装置23を有する。
撮影装置21は、少なくとも複数のカメラで構成され、複数の視点から、オブジェクトの撮影を行う。例えば、撮影装置21を構成する複数のカメラは、オブジェクトを囲むように配置され、各カメラは、そのカメラが配置された位置としての視点から、オブジェクトを撮影する。各カメラにより、そのカメラの位置から撮影された2D画像、すなわち、複数の視点から撮影された2D画像である複数の視点の視点画像(の動画)は、フレーム単位で、撮影装置21からコンテンツサーバ22に供給される。
ここで、撮影装置21には、複数のカメラの他、複数の測距装置を設けることができる。測距装置は、カメラと同一の位置(視点)に配置することもできるし、カメラと異なる位置に配置することもできる。測距装置は、その測距装置が配置された位置(視点)から、オブジェクトまでの距離を測定し、その距離に関する情報であるデプスを画素値とする2D画像であるデプス画像を生成する。デプス画像は、撮影装置21からコンテンツサーバ22に供給される。
なお、撮影装置21に、測距装置が設けられていない場合には、複数の視点の視点画像のうちの2視点の視点画像を用いて、三角測量の原理により、オブジェクトまでの距離を測定し、デプス画像を生成することができる。
コンテンツサーバ22は、例えば、webサーバやクラウド上のサーバである。コンテンツサーバ22は、例えば、撮影装置21から供給される複数の視点の視点画像等を用いて、自由視点データのコンテンツ(動画コンテンツ)を生成する。コンテンツサーバ22は、再生装置23からの要求に応じて、自由視点データのコンテンツを、再生装置23に送信する。
再生装置23は、例えば、PC(Personal Computer)や、TV(テレビジョン受像機)、スマートフォン等の携帯端末等のクライアントである。再生装置23は、コンテンツサーバ22に対して、自由視点データのコンテンツを要求して取得する。再生装置23は、コンテンツサーバ22から取得した自由視点データのコンテンツを再生する。すなわち、再生装置23は、仮想カメラで自由視点データを撮影した自由視点画像としての2D画像を生成して表示する。
また、再生装置23は、(再生装置23の)ユーザの時間シーク操作等による自由視点データの再生位置の指定に応じて、視点画像に映る所定オブジェクトの撮影空間(3次元空間)内の軌跡を表す軌跡情報を生成する。さらに、再生装置23は、軌跡情報を仮想カメラで撮影した軌跡画像としての2D画像(自由視点画像)を生成して表示する。
ここで、軌跡情報としては、例えば、ストロボモデルを採用することができる。ストロボモデルとは、撮影装置21で撮影された3次元空間としての撮影空間(の3Dモデル)に、視点画像の複数のフレーム(時刻)の同一のオブジェクト(被写体)の3Dモデルが配置されたモデルであり、自由視点データを用いて生成することができる。
なお、コンテンツサーバ22及び再生装置23は、図3に示したように、それぞれを別個の装置として構成することもできるし、全体を1個の装置(例えば、PC(Personal Computer)等)として構成することもできる。さらに、コンテンツサーバ22は、全体を複数の装置で構成することができる。再生装置23も同様である。
<コンテンツサーバ22の構成例>
図4は、図3のコンテンツサーバ22の構成例を示すブロック図である。
コンテンツサーバ22は、自由視点データ生成部31、記憶部32、及び、通信部33を有する。
自由視点データ生成部31は、撮影装置21からの複数の視点の視点画像とデプス画像とから、自由視点データを、フレーム単位で生成することにより、自由視点データのコンテンツを生成する。
ここでは、自由視点データとは、広く、自由視点画像を生成することができる3D画像のデータ(3Dデータ)を意味する。自由視点データとしては、例えば、撮影装置21からの複数の視点の視点画像とデプス画像とのセットを、そのまま採用することができる。また、自由視点データとしては、その他、例えば、3次元の形状の情報である3D形状モデルと色の情報とを有する3Dデータや、複数の視点の2D画像とデプス画像とのセットを採用することができる。
自由視点データとして、撮影装置21からの複数の視点の視点画像とデプス画像とのセットを採用する場合、自由視点データ生成部31は、撮影装置21からの複数の視点の視点画像とデプス画像とのセットを、そのまま、自由視点データとする。なお、撮影装置21からのデプス画像の視点が、撮影装置21からの視点画像の視点と異なる場合、自由視点データ生成部31は、撮影装置21からの複数の視点のデプス画像を用いて、撮影装置21からの視点画像の視点のデプス画像を生成することができる。
自由視点データとして、3D形状モデルと色の情報とを有する3Dデータを採用する場合、自由視点データ生成部31は、撮影装置21からの複数の視点の視点画像を用いて、Visual Hull等によりモデリングを行って、視点画像に映るオブジェクトの3D形状モデル等を生成し、テクスチャとなる複数の視点の視点画像とともに、自由視点データとする。
自由視点データとして、複数の視点の2D画像とデプス画像とのセットを採用する場合、自由視点データ生成部31は、例えば、上述したように、3D形状モデルと色の情報とを有する3Dデータを生成し、その3Dデータを、複数の視点(撮影装置21を構成するカメラと同一の視点でも良いし、異なる視点でも良い)から見た2D画像とデプス画像とのセットを、自由視点データとして生成する。
自由視点データ生成部31は、以上のようにして、自由視点データのコンテンツを生成し、記憶部32に供給する。
なお、自由視点データとしては、3D形状モデルを有する3Dデータよりも、複数の視点の2D画像とデプス画像とのセットを採用することにより、自由視点データのデータ量を少なくすることができる。自由視点データとして、複数の視点の2D画像とデプス画像とのセットを生成して伝送する技術については、本出願人が先に提案した国際公開2017/082076号に記載されている。自由視点データとしての複数の視点の2D画像とデプス画像とのセットは、例えば、MVCD(Multiview and depth video coding)や、AVC(Advanced Video Coding)、HEVC(High Efficiency Video Coding)等の2D画像を対象とする符号化方式により符号化することができる。
ここで、自由視点データ(の表現形式)には、View Independentと呼ばれる3Dモデル(以下、VIモデルともいう)と、View Dependentと呼ばれる3Dモデル(以下、VDモデルともいう)とがある。
VDモデルは、例えば、3D形状モデル等の3次元の形状に関する情報と、テクスチャとなる画像の情報とが別になっている3Dデータである。VDモデルでは、3D形状モデルに、テクスチャとなる画像がマッピング(テクスチャマッピング)されることにより、色が付される。VDモデルによれば、(仮想)視点によって異なるオブジェクトの表面の反射の具合等を表現することができる。VDモデルは、見えが視点に依存するので、View Dependentと呼ばれる。
VIモデルは、例えば、3次元の形状に関する情報の構成要素としてのポリゴンや点が、色の情報を有している3Dデータ等である。VIモデルとしては、例えば、色付きのポイントクラウドや、3D形状モデルと、3D形状モデルの色の情報としてのUVマップとのセットがある。VIモデルによれば、どの(仮想)視点から見ても、ポリゴンや点が有する色が観測される。VIモデルは、見えが視点に依存しないので、View Independentと呼ばれる。
記憶部32は、自由視点データ生成部31からの自由視点データのコンテンツを記憶する。
通信部33は、再生装置23との間で通信を行う。すなわち、通信部33は、例えば、再生装置23からの要求に応じて、記憶部32に記憶された自由視点データのコンテンツを、再生装置23に送信する。
なお、自由視点データ生成部31は、再生装置23に設けることができる。
<再生装置23の構成例>
図5は、図3の再生装置23の構成例を示すブロック図である。
再生装置23は、通信部41、記憶部42、自由視点画像生成部43、表示部44、仮想カメラ設定部45、操作部46、及び、軌跡情報生成部47を有する。
通信部41は、コンテンツサーバ22との間で通信を行う。すなわち、通信部41は、例えば、操作部46の操作に応じて、自由視点データのコンテンツの要求を送信する。また、通信部41は、その要求に応じて、コンテンツサーバ22から送信されてくる自由視点データのコンテンツを受信し、記憶部42に供給する。
記憶部42は、通信部41からの自由視点データのコンテンツを記憶する。
自由視点画像生成部43は、記憶部42に記憶された自由視点データ(によって表現される3次元空間)を、仮想カメラ設定部45から供給されるカメラ情報が表す(状態の)仮想カメラで撮影した2D画像(仮想カメラで撮影することにより得られる2D画像)(左目用の2D画像及び右目用の2D画像のセットを含む)等を、自由視点画像(のデータ)として生成(レンダリング)し、表示部44に供給する。
また、自由視点画像生成部43は、軌跡情報生成部47から供給される軌跡情報としての自由視点データを、仮想カメラ設定部45から供給されるカメラ情報が表す仮想カメラで撮影した2D画像である軌跡画像としての自由視点画像を生成し、表示部44に供給する。
表示部44は、自由視点画像生成部43からの自由視点画像等を表示する。
表示部44は、例えば、2DのHMD/HUDや、2Dのモニタ、3DのHMD/HUD、3Dのモニタ等で構成することができる。3DのHMD/HUDやモニタは、例えば、左目用の2D画像及び右目用の2D画像を表示することにより立体視を実現する表示装置である。
仮想カメラ設定部45は、自由視点データ(記憶部42に記憶された自由視点データ、及び、軌跡情報生成部47で生成された軌跡情報としての自由視点データ)を撮影するときの仮想カメラの状態を設定し、その設定内容を表すカメラ情報を、自由視点画像生成部43に供給する。
例えば、仮想カメラ設定部45は、ユーザの操作に応じて、仮想カメラの撮影位置、撮影姿勢、画角(焦点距離)、ズーム倍率等の仮想カメラの状態を設定する。
ここで、表示部44が、例えば、HMDやHUDである場合には、仮想カメラ設定部45は、HMDやHUDで検出されるユーザの視点及び視線に応じて、そのユーザの視点及び視線に対応するように、仮想カメラの撮影位置及び撮影姿勢を設定することができる。
また、再生装置23が、例えば、スマートフォンやタブレット等の携帯端末である場合には、携帯端末の位置及び姿勢に応じて、その位置及び姿勢に対応するように、仮想カメラの撮影位置及び撮影姿勢を設定することができる。
操作部46は、ユーザによって操作され、ユーザの操作に応じた操作情報を、必要なブロックに供給する。なお、操作部46は、例えば、タッチパネル等によって、表示部44と一体的に構成することができる。また、操作部46は、表示部44とは別個のマウスやコントローラ等として構成することもできる。ユーザの操作部46の操作としては、例えば、仮想カメラを設定する操作や、時間シーク操作等を行うことができる。
軌跡情報生成部47は、ユーザによる自由視点データの再生位置の指定、すなわち、例えば、ユーザによる時間シーク操作に応じて、視点画像(ひいては自由視点画像)に映る所定のオブジェクトの軌跡を表す軌跡情報を生成する。軌跡情報としては、オブジェクトの軌跡を表す曲線(直線を含む)の自由視点データ(以下、線データともいう)や、ストロボモデルを採用することができる。
軌跡情報としての線データとしては、例えば、ユーザによる時間シーク操作によって指定される再生位置(以下、指定再生位置ともいう)を含む区間、例えば、指定再生位置を基準として、所定の第1の時間Δt1だけ過去の時刻t1から、所定の第2の時間Δt2だけ未来の時刻t2までの区間の(フレームに映る)所定のオブジェクトの軌跡を表す曲線の自由視点データを採用することができる。
軌跡情報としてのストロボモデルとしては、例えば、指定再生位置を含む区間、例えば、指定再生位置を基準とする、上述のような時刻t1から時刻t2までの区間の所定のオブジェクトの3Dモデルが配置されたストロボモデルを採用することができる。
軌跡情報生成部47は、ユーザによる時間シーク操作に応じて、自由視点データとしての軌跡情報を生成し、自由視点画像生成部43に供給する。
自由視点画像生成部43は、軌跡情報生成部47から軌跡情報が供給されると、その軌跡情報としての線データやストロボモデルを、仮想カメラ設定部45からのカメラ情報が表す仮想カメラで撮影した自由視点画像としての軌跡画像を生成する。そして、自由視点画像生成部43は、記憶部32に記憶された自由視点データから生成された自由視点画像に代えて、軌跡情報から生成された軌跡画像を、表示部44に供給するか、又は、記憶部32に記憶された自由視点データから生成された自由視点画像に、軌跡情報から生成された軌跡画像を重畳して、表示部44に供給する。これにより、表示部44では、ユーザにより時間シーク操作が行われている間、軌跡情報から生成された軌跡画像が表示される。
なお、軌跡情報として、ストロボモデルを採用する場合には、自由視点画像生成部43では、軌跡情報としてのストロボモデルを、仮想カメラ設定部45からのカメラ情報が表す仮想カメラで撮影した2D画像である3Dストロボ画像を、軌跡画像として生成し、表示部44に供給する。
ここで、ストロボ画像とは、複数の時刻に撮影された1つ以上の同一のオブジェクト(像)が映る画像である。2D画像に映るオブジェクトが映るストロボ画像を、2Dストロボ画像ともいい、オブジェクトの3Dモデルが映る2D画像、すなわち、ストロボモデルを仮想視点から見た2D画像(仮想カメラで撮影した2D画像)を、3Dストロボ画像ともいう。軌跡情報として、ストロボモデルを採用する場合、自由視点画像生成部43では、3Dストロボ画像が生成される。
軌跡情報として、ストロボモデルを採用する場合、軌跡情報生成部47は、自由視点データ生成部31からの自由視点データを用い、視点画像に映る3次元空間である撮影空間(の3Dモデル)に、視点画像の複数のフレーム(異なる時刻)の同一のオブジェクトの自由視点データである3Dモデルが配置されたストロボモデルを生成する。
すなわち、軌跡情報生成部47は、ストロボモデルを生成する対象のフレームの区間であるストロボ区間を設定し、そのストロボ区間のフレームから、ストロボモデルの生成に用いるフレーム(以下、生成フレームともいう)を選択する。また、軌跡情報生成部47は、生成フレームに映るオブジェクトのうちの1以上のオブジェクトを、軌跡情報を生成する対象のオブジェクト(以下、対象オブジェクトともいう)に設定する。そして、軌跡情報生成部47は、生成フレームに映る対象オブジェクトの3Dモデルが配置されたストロボモデルを生成する。
なお、軌跡情報生成部47では、例えば、生成フレームに映る、動いているオブジェクトのすべてを、対象オブジェクトに設定することができる。
また、軌跡情報生成部47では、例えば、生成フレームに映るオブジェクトのうちのユーザによって指定されたオブジェクトを、対象オブジェクトに設定することができる。ユーザは、操作部46の操作等によって、対象オブジェクト(となるオブジェクト)を指定する他、視線によって、対象オブジェクトを指定することができる。
ここで、再生装置23は、外部との通信を行う機能、画像を表示する機能、及び、ユーザの操作を受け付ける機能を、少なくとも有していればよい。図5において、その他の機能、例えば、自由視点画像生成部43や、仮想カメラ設定部45、及び、軌跡情報生成部47によって実現される機能は、例えば、コンテンツサーバ22や、クラウド上のサーバに設けることができる。
<コンテンツサーバ22の処理>
図6は、図4のコンテンツサーバ22が行う処理の例を説明するフローチャートである。
ステップS11において、コンテンツサーバ22は、撮影装置21で撮影された複数の視点の視点画像(及びデプス画像)をフレーム単位で得る。コンテンツサーバ22は、複数の視点の視点画像を、自由視点データ生成部31に供給し、処理は、ステップS11からステップS12に進む。なお、撮影装置21で撮影された複数の視点の視点画像は、再生装置23を経て、再生装置23からコンテンツサーバ22に送信することができる。
ステップS12では、自由視点データ生成部31は、複数の視点の視点画像等を用いて、自由視点データを、フレーム単位で生成し、記憶部32に供給する。記憶部32は、自由視点データ生成部31からのフレーム単位の自由視点データで構成されるコンテンツ(自由視点データのコンテンツ)を記憶する。その後、処理は、ステップS12からステップS13に進む。
ステップS13では、通信部33は、例えば、再生装置23からの要求に応じて、記憶部32に記憶された自由視点データのコンテンツを、再生装置23に送信し、処理は終了する。
<再生装置23の処理>
図7は、図5の再生装置23が行う自由視点データの再生処理の例を説明するフローチャートである。
ステップS31において、通信部41は、例えば、ユーザの操作に応じて、自由視点データのコンテンツを、コンテンツサーバ22に要求し、処理は、ステップS32に進む。
ステップS32では、通信部41は、コンテンツサーバ22から、自由視点データのコンテンツが送信されてくるのを待って、その自由視点データのコンテンツを受信する。通信部41は、コンテンツサーバ22からの自由視点データのコンテンツを、記憶部42に供給して記憶させ、処理は、ステップS32からステップS33に進む。
ステップS33では、再生装置23は、記憶部42に記憶された自由視点データのコンテンツを再生し、処理は、ステップS34に進む。
すなわち、再生装置23では、仮想カメラ設定部45が、仮想カメラ(の状態)を設定し、自由視点画像生成部43は、仮想カメラ設定部45で設定された仮想カメラで自由視点データを撮影した自由視点画像をレンダリングすることにより生成する。そして、自由視点画像生成部43は、自由視点画像を、表示部44に供給して表示させる。
ステップS34では、軌跡情報生成部47は、ユーザによる時間シーク操作が開始されたかどうかを判定する。
ステップS34において、時間シーク操作が開始されていないと判定された場合、処理は、ステップS33に戻り、記憶部42に記憶された自由視点データのコンテンツの再生が続行される。
また、ステップS34において、時間シーク操作が開始されたと判定された場合、処理は、ステップS35に進む。
ステップS35では、軌跡情報生成部47は、時間シーク操作により指定された指定再生位置を基準とする軌跡情報を生成し、自由視点画像生成部43に供給して、処理は、ステップS36に進む。
すなわち、軌跡情報生成部47は、指定再生位置を基準として、所定の第1の時間Δt1だけ過去の時刻t1から、所定の第2の時間Δt2だけ未来の時刻t2までの区間の所定のオブジェクトの軌跡を表す軌跡情報(自由視点データ)を生成する。
ステップS36では、自由視点画像生成部43は、軌跡情報生成部47からの軌跡情報を、仮想カメラ設定部45で設定された仮想カメラで撮影した軌跡画像を生成し、表示部44に供給して表示させ、処理は、ステップS37に進む。
ステップS37では、軌跡情報生成部47は、ユーザによる時間シーク操作が終了されたかどうかを判定する。
ステップS37において、時間シーク操作が終了されていないと判定された場合、処理は、ステップS35に戻り、以下、同様の処理が繰り返される。
また、ステップS37において、時間シーク操作が終了されたと判定された場合、処理は、ステップS33に戻り、時間シーク操作が終了されたときに指定された指定再生位置から、記憶部42に記憶された自由視点データのコンテンツが再生される。
なお、時間シーク操作が行われている間、すなわち、ステップS35ないしS37の処理が行われている間、記憶部42に記憶された自由視点データのコンテンツについては、時間シーク操作により指定されている指定再生位置の自由視点データを再生することができる。
図8は、軌跡情報としてストロボモデルを採用する場合の、軌跡情報を生成するステップS35の処理の詳細を説明するフローチャートである。
ステップS51において、軌跡情報生成部47は、ストロボモデルを生成する対象のフレームの区間であるストロボ区間を設定し、処理は、ステップS52に進む。
例えば、軌跡情報生成部47は、時間シーク操作により指定された指定再生位置を基準として、所定の第1の時間Δt1だけ過去の時刻t1から、所定の第2の時間Δt2だけ未来の時刻t2までの区間を、ストロボ区間に設定する。第1の時間Δt1と第2の時間Δt2とは、同一の時間であってもよいし、異なる時間であってもよい。
ステップS52では、軌跡情報生成部47は、視点画像に映るオブジェクトから、ストロボモデルに3Dモデルを配置する対象の対象オブジェクトを設定し、処理は、ステップS53に進む。
例えば、ストロボ区間のフレームに映るオブジェクトのすべてや、ユーザの操作や視線に応じて指定されるオブジェクト等が、対象オブジェクトに設定される。
ステップS53では、軌跡情報生成部47は、ストロボ区間のフレームから、ストロボモデルの生成に用いる生成フレームを選択し、処理は、ステップS54に進む。
ここで、ストロボ区間の全フレームを生成フレームとして、ストロボモデルの生成に用いると、ストロボモデルには、ストロボ区間のフレーム数と同一の数の、同一のオブジェクトの3Dモデルが重なって配置され、3Dストロボ画像が見にくい画像となることがある。
そこで、軌跡情報生成部47は、ストロボ区間のフレームから、幾つかのフレームを生成フレームとして選択し、その生成フレーム(に映るオブジェクトの3Dモデル)を用いて、ストロボモデルを生成することができる。
軌跡情報生成部47は、例えば、ストロボ区間のフレームから、3Dモデルの干渉度が閾値以下となるフレームを、生成フレームとして選択することができる。すなわち、軌跡情報生成部47は、ストロボ区間のフレームに映る対象オブジェクトの3Dモデルを、3次元空間に配置した状態での、3Dモデルどうしの重なり具合を表す干渉度を算出する。干渉度は、例えば、3次元空間において、任意の2フレームの3Dモデルが完全に重なる場合を100%とするとともに、まったく重ならない場合を0%として算出される。そして、軌跡情報生成部47は、干渉度が所定の閾値以下のフレームを、生成フレームとして選択する。以上のように、ストロボ区間のフレームから、3Dモデルの干渉度が閾値以下となるフレームを、生成フレームとして選択し、その生成フレームに映る対象オブジェクトの3Dモデルが配置されたストロボモデルを生成することにより、ストロボモデルにおいて、3Dモデルが重なって配置され、3Dストロボ画像が見にくい画像となることを抑制することができる。
なお、生成フレームの選択では、その他、例えば、単純に、ストロボ区間のフレームを、所定のフレーム数ごとに、生成フレームとして選択することができる。また、生成フレームの選択では、ストロボ区間のフレームすべてを、生成フレームとして選択することができる。
ステップS54では、軌跡情報生成部47は、記憶部42に記憶された自由視点データを用い、ストロボ区間のフレームから選択された複数の生成フレームに映る対象オブジェクトの3Dモデルが、その対象オブジェクトが撮影されたときの撮影空間としての背景(の3Dモデル)に配置されたストロボモデルを生成する。そして、軌跡情報としてのストロボモデルの生成の処理は終了する。
<3Dストロボ画像の生成>
図9は、不自然な3Dストロボ画像の例を示す図である。
図9は、手前側から奥側にオブジェクトとしてのボールが転がっている様子を撮影した視点画像のフレームのうちの5フレームを生成フレームとして用いて生成されたストロボモデルから生成された3Dストロボ画像の例を示している。
図9では、5フレームの生成フレームに映るボールの3Dモデルが、時間的に後の3Dモデルを優先するように配置(レンダリング)されている。そのため、時間的に後の(ボールの)3Dモデルが、奥側に位置するのにもかかわらず、時間的に前の手前側の3Dモデルを隠すように配置されている。その結果、図9の3Dストロボ画像は、不自然な画像になっている。
図10は、自然な3Dストロボ画像の例を示す図である。
図10は、手前側から奥側にオブジェクトとしてのボールが転がっている様子を撮影した視点画像のフレームのうちの5フレームを生成フレームとして用いて生成されたストロボモデルから生成された3Dストロボ画像の例を示している。
図10では、5フレームの生成フレームに映るボールの3Dモデルが、手前側の3Dモデルを優先するように配置されている。そのため、手前側の3Dモデルが奥側の3Dモデルを隠すように、すなわち、手前側の3Dモデルが優先的に映るように配置されている。その結果、自由視点画像は、自然な画像になっている。
自由視点画像生成部43は、ストロボモデルに配置された各オブジェクトの3Dモデルのデプス(奥行)を用いて、以上のような、手前側のオブジェクトの3Dモデルが優先的に映る3Dストロボ画像を生成する(仮想カメラにより撮影する)。
図11は、ストロボ区間の視点画像のフレームの例を示す図である。
図11では、時刻t1ないしt9の9フレームが、ストロボ区間の視点画像のフレームになっている。時刻t1ないしt9のフレームには、オブジェクトとしてのボールが左から右に転がっていく様子が映っている。図11では、図が煩雑になるのを避けるため、ある1視点の視点画像のフレームを図示してある。
図12は、ストロボ区間としての時刻t1ないしt9のフレームを用いたストロボモデルの生成の例を示す図である。
図12では、ストロボ区間としての時刻t1ないしt9のフレームのうちの、時刻t1,t3,t5,t7、及び、t9のフレームが生成フレームに選択され、複数の視点の視点画像の生成フレームとしての時刻t1,t3,t5,t7、及び、t9のフレームに映るオブジェクトとしてのボールの3Dモデルが配置されたストロボモデルが生成される。
図13は、仮想カメラによるストロボモデルの撮影により生成される3Dストロボ画像の表示の例を示す図である。
3Dストロボ画像としては、時刻t1,t3,t5,t7、及び、t9のフレームに映るオブジェクトとしてのボールの3Dモデルが映るフレームを生成して表示することができる。また、3Dストロボ画像としては、図12のストロボモデルから、時刻t1のフレームに映るオブジェクトとしてのボールの3Dモデルが映るフレーム、時刻t1及びt3のフレームに映るオブジェクトとしてのボールの3Dモデルが映るフレーム、時刻t1,t3、及び、t5のフレームに映るオブジェクトとしてのボールの3Dモデルが映るフレーム、時刻t1,t3,t5、及び、t7のフレームに映るオブジェクトとしてのボールの3Dモデルが映るフレーム、並びに、時刻t1,t3,t5,t7、及び、t9のフレームに映るオブジェクトとしてのボールの3Dモデルが映るフレームを生成し、順次表示することができる。
図13の3Dストロボ画像では、ストロボモデルを撮影する仮想カメラの撮影位置等が変更されていないが、仮想カメラの撮影位置等は、変更することができる。例えば、時刻t1,t3,t5,t7、及び、t9のフレームに映るオブジェクトとしてのボールの3Dモデルが配置されたストロボモデルを、撮影位置を変更しながら、仮想カメラで撮影することができる。撮影位置が変更される場合には、ストロボモデルを見る視点が変更され、カメラアングルが変化する3Dストロボ画像が表示される。
<エフェクト処理>
図14は、ストロボモデルに配置される3Dモデルに対して行うエフェクト処理を説明する図である。
軌跡情報生成部47は、ストロボモデルに配置される3Dモデルにエフェクト処理を行うことができる。エフェクト処理は、ストロボモデルに配置される3Dモデルのうちの、最新又は最古の時刻の3Dモデルや、ユーザの操作に応じて指定された3Dモデル等を、エフェクト処理を行う基準の基準3Dモデルとして、基準3Dモデルや、基準3Dモデルより過去及び未来のうちの一方又は両方の3Dモデルに行うことができる。
なお、ここでは、説明を分かりやすくするために、ストロボモデルを生成し、その後、ストロボモデルに配置された3Dモデルにエフェクト処理を行うことする。但し、ストロボモデルの生成と、そのストロボモデルに配置される3Dモデルに対するエフェクト処理とは、並列的に、又は、適宜順番を前後して行うことができる。例えば、3Dモデルに対するエフェクト処理を行った後に、そのエフェクト処理後の3Dモデルが配置されたストロボモデルを生成することができる。
図14は、ストロボモデルにおいて、エフェクト処理の対象となる3Dモデルを説明する図である。
エフェクト処理は、ストロボモデルにおいて、ストロボ区間のフレームから選択された複数の時刻としての複数の生成フレームの3Dモデルのうちの、基準3Dモデルや、基準3Dモデルより過去及び未来のうちの一方又は両方の3Dモデルに行うことができる。
エフェクト処理を行う対象の3Dモデルである対象モデルは、基準3Dモデルに対する時間方向(過去方向及び未来方向)を表すエフェクト方向と、基準3Dモデルからの離れ具合を表すエフェクト距離とで特定される。
エフェクト方向としては、過去方向past、未来方向future、又は、過去方向past及び未来方向futureの両方を設定することができる。
エフェクト方向として、過去方向pastが設定された場合、基準3Dモデルから、過去方向の3Dモデルに、エフェクト処理が行われる。エフェクト方向として、未来方向futureが設定された場合、基準3Dモデルから、未来方向の3Dモデルに、エフェクト処理が行われる。エフェクト方向として、過去方向past及び未来方向futureが設定された場合、基準3Dモデルから、過去方向の3Dモデルと未来方向の3Dモデルとに、エフェクト処理が行われる。
エフェクト距離は、基準3Dモデルからの3Dモデルのモデル数number、距離distance、又は、時間timeで指定することができる。
モデル数numberによれば、ストロボモデルに配置された3Dモデル、すなわち、ストロボモデルの生成に用いられた生成フレームに映る(オブジェクトの)3Dモデルのうちの、基準3Dモデルから、モデル数number以上離れた3Dモデルを、対象モデルとして指定することができる。
距離distanceによれば、ストロボモデルに配置された3Dモデルのうちの、基準3Dモデルから、距離distance以上離れた3Dモデルを、対象モデルとして指定することができる。
時間timeによれば、ストロボモデルに配置された3Dモデルのうちの、基準3Dモデルから、時間time以上離れた3Dモデルを、対象モデルとして指定することができる。
エフェクト処理は、ストロボモデルにおいて、基準3Dモデルから、モデル数number、距離distance、又は、時間time以上だけ、過去方向、未来方向、又は、過去と未来との両方向に離れた3Dモデルを対象モデルとして行うことができる。
<エフェクト処理の具体例>
図15は、エフェクト処理の具体例を説明する図である。
図15では、エフェクト処理として、エフェクトモード0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14で表されるエフェクト処理がある。エフェクトモード1ないし14については、図14で説明したエフェクト方向及びエフェクト距離を設定することができる。
なお、エフェクト方向が設定されていない場合、エフェクト方向としては、デフォルトで、例えば、過去方向pastが設定されることとして、エフェクト処理を行うことができる。
エフェクト距離は、図14で説明したように、基準3Dモデルからの3Dモデルのモデル数number、距離distance、又は、時間timeで指定される。例えば、エフェクト方向が過去方向pastに設定され、エフェクト距離が、モデル数number=1に設定されている場合、基準3Dモデルから、モデル数number=1以上だけ、過去方向に離れた3Dモデルを対象モデルとして、エフェクトモードが表すエフェクト処理が行われる。
エフェクトモード0は、エフェクト処理を行わないこと表す。
エフェクトモード1は、3Dモデルを透明にするエフェクト処理を表す。エフェクトモード1のエフェクト処理では、対象モデルを、すべて同一の透明度の透明にすることもできるし、徐々に透明にすること、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデル(対象モデル)ほど、透明度の高い透明にすることもできる。3Dモデルを、どのように透明にするかは、例えば、エフェクトモード1に付随するパラメータを定義し、そのパラメータによって指定することができる。なお、透明度を100%とする場合には、対象モデルは完全に透明になり、この場合、エフェクトモード1のエフェクト処理の結果は、実質的に、後述するエフェクトモード4と同様になる。
エフェクトモード2は、3Dモデルを、徐々に消滅させるエフェクト処理を表す。
エフェクトモード3は、3Dモデルのテクスチャ数(テクスチャとして使用する2D画像の数)を減らすエフェクト処理を表す。エフェクトモード3のエフェクト処理では、対象モデルのテクスチャ数を、すべて同一の数に減らすこともできるし、徐々に減らすこと、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデルほど、テクスチャ数を減らすこともできる。3Dモデルのテクスチャ数をどのように減らすかは、例えば、エフェクトモード3に付随するパラメータを定義し、そのパラメータによって指定することができる。
なお、エフェクトモード3のエフェクト処理については、テクスチャマッピングが行われる3Dモデル、すなわち、VDモデルが対象となり、テクスチャマッピングが行われないVIモデルは対象とならない。
エフェクトモード4は、3Dモデルを消去するエフェクト処理を表す。
エフェクトモード5は、3Dモデルの輝度及び彩度の少なくとも一方を小さくするエフェクト処理を表す。エフェクトモード5のエフェクト処理では、対象モデルの輝度及び彩度を、すべて同一の割合だけ小さくすることもできるし、徐々に小さくすること、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデルほど、輝度及び彩度を小さくする割合をより大きくすることもできる。3Dモデルの輝度及び彩度をどのように小さくするかや、輝度及び彩度のいずれを小さくするかは、例えば、エフェクトモード5に付随するパラメータを定義し、そのパラメータによって指定することができる。
エフェクトモード6は、ストロボモデルに配置される3Dモデルの数を制限するエフェクト処理を表す。エフェクトモード6のエフェクト処理では、ストロボモデルに配置する3Dモデルが、生成フレームの3Dモデルのうちの、対象モデル以外の3Dモデルだけに制限される。
エフェクトモード7は、3Dモデルをローポリゴンにするエフェクト処理、すなわち、3Dモデルのメッシュ数(ポリゴン数)を減らすエフェクト処理を表す。エフェクトモード7のエフェクト処理では、対象モデルのメッシュ数を、すべて同一の数に減らすこともできるし、徐々に減らすこと、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデルほど、メッシュ数を減らすこともできる。3Dモデルのメッシュ数をどのように減らすかは、例えば、エフェクトモード7に付随するパラメータを定義し、そのパラメータによって指定することができる。
なお、エフェクトモード7のエフェクト処理については、ポリゴンで構成される3Dモデルが対象となり、ポリゴンで構成されない3Dモデル、すなわち、例えば、ワイヤーフレームは対象とならない。
エフェクトモード8及び9は、3Dモデルの表現形式を変更するエフェクト処理を表す。
すなわち、エフェクトモード8は、ポリゴンで構成される3Dモデルを、ワイヤーフレームに変更するエフェクト処理を表す。
エフェクトモード9は、3Dモデルの表現形式をView DependentからView Independentに変更するエフェクト処理、すなわち、VDモデルをVIモデル(例えば、ポイントクラウド)に変更するエフェクト処理を表す。
エフェクトモード10は、3Dモデルを消去し、3Dモデルがあった形跡を残すエフェクト処理を表す。
エフェクトモード11は、3Dモデルのテクスチャ(テクスチャマテリアル)を変更するエフェクト処理を表す。3Dモデルのテクスチャを、どのようなテクスチャに変更するかは、例えば、エフェクトモード11に付随するパラメータを定義し、そのパラメータによって指定することができる。
エフェクトモード12は、3Dモデルの(形状)をぼかすエフェクト処理を表す。3Dモデルぼかす程度は、例えば、エフェクトモード12に付随するパラメータを定義し、そのパラメータによって指定することができる。
エフェクトモード13は、3Dモデルの色を変更するエフェクト処理を表す。3Dモデルの色を、どのような色に変更するかは、例えば、エフェクトモード13に付随するパラメータを定義し、そのパラメータによって指定することができる。
エフェクトモード14は、3Dモデルのサイズを変更するエフェクト処理を表す。3Dモデルのサイズを変更する程度は、例えば、エフェクトモード14に付随するパラメータを定義し、そのパラメータによって指定することができる。
エフェクトモード1ないし14については、エフェクト方向及びエフェクト距離を設定することができるが、必要に応じて、デフォルトのエフェクト方向及びエフェクト距離を定義しておくことができる。
例えば、エフェクトモード1ないし14のデフォルトのエフェクト方向としては、過去方向pastを定義しておくことができる。
また、例えば、エフェクトモード1のデフォルトのエフェクト距離としては、モデル数number=1を定義しておくことができる。
この場合、エフェクトモード1のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に1モデル以上離れた3Dモデル、すなわち、基準3Dモデルの過去方向の次の3Dモデル以前の3Dモデルを対象モデルとして、エフェクトモード1のエフェクト処理が行われる。
さらに、例えば、エフェクトモード4のデフォルトのエフェクト距離としては、距離distance=5[m]を定義しておくことができる。
この場合、エフェクトモード4のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に5m以上離れた3Dモデルを対象モデルとして、エフェクトモード4のエフェクト処理が行われる。
また、例えば、エフェクトモード5のデフォルトのエフェクト距離としては、時間time=10[sec]を定義しておくことができる。
この場合、エフェクトモード5のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に10秒以上離れた3Dモデルを対象モデルとして、エフェクトモード5のエフェクト処理が行われる。
さらに、例えば、エフェクトモード7のデフォルトのエフェクト距離としては、モデル数number=3を定義しておくことができる。
この場合、エフェクトモード7のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に3モデル以上離れた3Dモデル、すなわち、基準3Dモデルの過去方向の3番目の3Dモデル以前の3Dモデルを対象モデルとして、エフェクトモード7のエフェクト処理が行われる。
なお、エフェクト処理については、複数のエフェクトモードを設定することができる。例えば、エフェクト処理について、エフェクトモード1及び3が設定された場合、3Dモデルを透明にし、かつ、テクスチャ数を減らすエフェクト処理が行われる。
<軌跡情報>
図16は、軌跡情報として、ストロボモデルを採用する場合の、時間シーク操作が行われたときのストロボモデルの生成の例を説明する図である。
軌跡情報生成部47では、時間シーク操作に応じ、指定再生位置を基準とする区間(のフレーム)に映る対象オブジェクトの3Dモデルが配置されたストロボモデルが、軌跡情報として生成される。
図16では、指定再生位置(のフレーム)に映る対象オブジェクトの3Dモデル、指定再生位置より未来の1フレームに映る対象オブジェクトの3Dモデル、及び、指定再生位置より過去の2フレームに映る対象オブジェクトの3Dモデルの合計で、4個の時刻(フレーム)に映る対象オブジェクトの3Dモデルが配置されたストロボモデルが生成されている。
ユーザが、例えば、操作部46により実現されるシークバー12を操作する時間シーク操作を行うと、その時間シーク操作によって指定される指定再生位置の変化に伴い、ストロボモデルに配置される3Dモデルのフレームの区間(ストロボ区間)も変化する。
図17は、時間シーク操作が行われた場合に、ストロボモデルを生成して3Dストロボ画像を表示する場合の仮想カメラの状態の変化の例を説明する図である。
再生装置23では、時間シーク操作に応じ、指定再生位置を基準とする区間(のフレーム)に映る対象オブジェクトの3Dモデルが配置されたストロボモデルを仮想カメラで撮影した3Dストロボ画像が表示される。
ユーザは、3Dストロボ画像を見ることにより、指定再生位置から未来方向や過去方向への時刻での、対象オブジェクトの移動先を、容易に推測することができる。したがって、ユーザは、対象オブジェクトに移動先の推測結果に応じて、対象オブジェクトの移動先が見えるように、すなわち、対象オブジェクトが仮想カメラの撮影範囲に入るように、仮想視点としての仮想カメラの状態を変化させることができる。その結果、時間シーク操作中に、対象オブジェクトを見失うことを抑制することができる。
図18は、軌跡情報として、線データを採用する場合の、時間シーク操作が行われたときの線データの生成の例を説明する図である。
再生装置23では、時間シーク操作に応じ、指定再生位置を基準とする区間に映る対象オブジェクトの軌跡を表す線データが生成され、その線データを仮想カメラで撮影した線画像が表示される。ユーザは、線画像を見ることにより、指定再生位置から未来方向や過去方向への時刻での、対象オブジェクトの移動先を、容易に推測することができる。したがって、ユーザは、対象オブジェクトに移動先の推測結果に応じて、対象オブジェクトの移動先が見えるように、すなわち、対象オブジェクトが仮想カメラの撮影範囲に入るように、仮想視点としての仮想カメラの状態を変化させることができる。その結果、時間シーク操作中に、対象オブジェクトを見失うことを抑制することができる。
軌跡情報としては、ストロボモデルや線データの他、対象オブジェクトの移動の軌跡を分かりやすく表示することが可能な任意の情報を採用することができる。
図17及び図18に示した場合には、再生装置23は、時間シーク操作に応じて、軌跡情報を生成して、その軌跡情報に対応する軌跡画像(3Dストロボ画像や、線画像)を表示するが、仮想カメラの設定は、時間シーク操作とは関係なく行われる。
したがって、ユーザは、軌跡画像を見て、対象オブジェクトの移動先を推測し、その推測結果に応じて、仮想カメラ設定部45において、対象オブジェクトが仮想カメラの撮影範囲に入るような仮想カメラの設定が行われるようにする必要がある。
そのため、図17及び図18に示した軌跡情報の生成、及び、その軌跡情報に対応する軌跡画像の表示は、ユーザの視点及び視線(頭部や体の動き、姿勢を含む)を検出し、そのユーザの視点及び視線に対応するように、仮想カメラの撮影位置及び撮影姿勢を設定するHMD/HUDや、スマートフォン等の位置及び姿勢に応じて、スマートフォンに表示されるオブジェクトの見え方が変わるARアプリケーション等の、ユーザの視点や視線を変化させる動作に連動して、仮想カメラの撮影位置及び撮影姿勢が設定されるアプリケーションに、特に適している。かかるアプリケーションによれば、例えば、ユーザは、軌跡画像を見て、対象オブジェクトの移動先を推測し、その移動先に視線を動かすことで、時間シーク操作中に、対象オブジェクトを見失うことを抑制することができる。
図19は、軌跡情報としてのストロボモデルに配置された3Dモデルに行うエフェクト処理の例を説明する図である。
ストロボモデルに配置された3Dモデルには、エフェクト処理を行うことができる。例えば、図19のAに示すように、ストロボ区間の最も未来の3Dモデルの透明度を最も低くし、過去の3Dモデルほど、透明度を高くするエフェクト処理を行うことができる。
また、時間シークの方向、すなわち、時間シーク操作が早送りを行うような操作であるか、又は、巻き戻しを行うような操作であるかによって、ストロボモデルに配置された3Dモデルに行うエフェクト処理の程度(エフェクトをかける程度)を制御することができる。
例えば、時間シークの方向にある3Dモデルには、弱いエフェクト処理を行い、逆方向にある3Dモデルには、強いエフェクト処理を行うことができる。
具体的には、例えば、時間シークの方向が未来方向である場合(時間シーク操作が早送りを行うような操作である場合)、時間シークの方向である未来方向の逆方向の過去方向に向かって、より程度の高いエフェクト処理を行い、時間シークの方向が過去方向である場合(時間シーク操作が巻き戻しを行うような操作である場合)、時間シークの方向である過去方向の逆方向の未来方向に向かって、より程度の高いエフェクト処理を行うことができる。
この場合、例えば、エフェクト処理が、3Dモデルを透明にするエフェクトをかける処理であるときには、未来方向への時間シーク操作が行われると、図19のAに示すように、ストロボ区間の最も未来の3Dモデルの透明度を最も低くし、過去方向の3Dモデルほど、透明度を高くするエフェクト処理が行われる。一方、過去方向への時間シーク操作が行われると、図19のBに示すように、ストロボ区間の最も過去の3Dモデルの透明度を最も低くし、未来方向の3Dモデルほど、透明度を高くするエフェクト処理が行われる。
その他、例えば、指定再生位置の3Dモデルの透明度を最も低くし、指定再生位置から、過去方向及び未来方向に離れたフレームに映る3Dモデルほど、透明度を高くするエフェクト処理を行うことができる。
軌跡情報としてのストロボモデルに配置された3Dモデルに行うエフェクト処理としては、3Dモデルを透明にするエフェクト処理の他、図15で説明した様々なエフェクト処理を採用することができる。
以上のように、軌跡情報としてのストロボモデルに配置された3Dモデルにエフェクト処理を行うことにより、ユーザは、ストロボモデル(3Dストロボ画像)における時間方向(未来方向、過去方向)を容易に認識することができる。
なお、軌跡情報としてのストロボモデルとしては、例えば、指定再生位置から離れるほど、対象オブジェクトの3Dモデルが疎になっていくストロボモデルを生成することができる。この場合、ユーザは、3Dストロボ画像に映る対象オブジェクトの疎密により、指定再生位置から離れている程度を認識することができる。
<再生装置23の処理>
図20は、図5の再生装置23が行う自由視点データの再生処理の他の例を説明するフローチャートである。
図20では、ステップS71ないしS75において、図7のステップS31ないしS35とそれぞれ同様の処理が行われる。
そして、ステップS75において、図7のステップS35と同様に、軌跡情報生成部47が、時間シーク操作により指定された指定再生位置を基準とする軌跡情報を生成した後、処理は、ステップS76に進む。
ステップS76では、仮想カメラ設定部45は、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように、仮想カメラを設定し、処理は、ステップS77に進む。
ステップS77では、図7のステップS36と同様に、自由視点画像生成部43は、軌跡情報生成部47からの軌跡情報を、仮想カメラ設定部45で設定された仮想カメラで撮影した軌跡画像を生成し、表示部44に供給して表示させ、処理は、ステップS78に進む。
ステップS78では、図7のステップS37と同様の処理が行われる。
以上のように、図20では、ステップS76において、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲(画角)に含まれるように、仮想カメラが設定される。したがって、ステップS77で表示部44に表示される表示内容には、少なくとも、指定再生位置(時刻)における対象オブジェクトの3Dモデルの3次元空間内の位置が含まれる。その結果、ユーザが、時間シーク操作中に、対象オブジェクトを見失うことを、より強固に抑制することができる。
すなわち、図7の再生処理では、再生装置23は、時間シーク操作に応じて、軌跡情報を生成して、その軌跡情報に対応する軌跡画像を表示するが、仮想カメラの設定は、時間シーク操作とは関係なく、ユーザの操作やユーザの視点等に応じて行われる。
したがって、ユーザは、軌跡画像を見て、対象オブジェクトの移動先を推測し、その推測結果に応じて、仮想カメラ設定部45において、対象オブジェクトが仮想カメラの撮影範囲に入るような仮想カメラの設定が行われるように、操作を行うことや視点等を変化させる必要がある。
そのため、ユーザの操作や視点等の変化のさせ方によっては、対象オブジェクトが仮想カメラの撮影範囲に入るような仮想カメラの設定が行われず、軌跡情報が仮想カメラの撮影範囲からはずれることが生じ得る。
軌跡情報が仮想カメラの撮影範囲からはずれると、軌跡情報に対応する軌跡画像は表示されないため、ユーザは、対象オブジェクトを見失うことがある。
これに対して、図20の再生処理では、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように、仮想カメラが設定される。したがって、軌跡情報の少なくとも一部(指定再生位置のフレームに映る対象オブジェクトの3Dモデルの3次元空間内の位置の部分)は、必ず、仮想カメラの撮影範囲に入るので、軌跡情報に対応する軌跡画像の少なくとも一部は、必ず、表示部44に表示される。その結果、ユーザが、時間シーク操作中に、対象オブジェクトを見失うことを、図7の場合よりも強固に抑制することができる。
図21は、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように仮想カメラを設定する場合の仮想カメラの第1の設定例を説明する図である。
図21では、軌跡情報として、ストロボモデルが採用されている。そして、図21では、例えば、仮想カメラの撮影位置が、時間シーク操作が開始されたときの撮影位置に固定され、仮想カメラの撮影姿勢(撮影方向)だけが、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように設定されている。
図22は、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように仮想カメラを設定する場合の仮想カメラの第2の設定例を説明する図である。
図22では、軌跡情報として、線データが採用されている。そして、図22では、図21と同様に、仮想カメラの撮影位置が、時間シーク操作が開始されたときの撮影位置に固定され、仮想カメラの撮影姿勢だけが、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように設定されている。
図23は、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように仮想カメラを設定する場合の仮想カメラの第3の設定例を説明する図である。
図23では、軌跡情報として、ストロボモデルが採用されている。そして、図23では、例えば、仮想カメラの撮影姿勢が、時間シーク操作が開始されたときの撮影姿勢に固定され、仮想カメラの撮影位置だけが、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように設定されている。すなわち、図23では、仮想カメラの撮影姿勢は固定され、仮想カメラの撮影位置は、指定再生位置のフレームに映る対象オブジェクトの3Dモデルとの位置関係を、例えば、時間シーク操作が開始されたときの位置関係に維持するように設定されている。
図24は、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように仮想カメラを設定する場合の仮想カメラの第4の設定例を説明する図である。
図24では、軌跡情報として、ストロボモデルが採用されている。そして、図24では、例えば、仮想カメラの撮影姿勢が、時間シーク操作が開始されたときの撮影姿勢に固定され、仮想カメラの撮影位置だけが、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように設定されている。すなわち、図24では、仮想カメラの撮影姿勢は固定され、仮想カメラの撮影位置は、時間シーク操作が開始されてから指定再生位置となったフレームに映る対象オブジェクトの3Dモデルが、すべて仮想カメラの撮影範囲に含まれるように設定されている。そのため、図24では、仮想カメラは、後ろに引くように、すなわち、対象オブジェクトの3Dモデルから遠ざかる方向に、移動している。
図25は、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように仮想カメラを設定する場合の仮想カメラの第5の設定例を説明する図である。
図25では、軌跡情報として、ストロボモデルが採用されている。そして、図25では、例えば、仮想カメラの撮影位置及び撮影姿勢が、時間シーク操作が開始されたときの撮影姿勢に固定され、仮想カメラの画角(FOV(Field Of View))だけが、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように設定されている。図25では、仮想カメラの画角は、時間シーク操作とともに広がっている。
図21ないし図25に示した場合には、再生装置23は、時間シーク操作に応じて、軌跡情報を生成して、その軌跡情報に対応する軌跡画像を表示するとともに、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように、仮想カメラが設定される。
したがって、ユーザは、対象オブジェクトが仮想カメラの撮影範囲に入るような仮想カメラの設定が行われるように、操作を行うことや視点等を変化させる必要がない。
そのため、図21ないし図25に示した仮想カメラの設定を行うことは、ユーザの視点等に応じて、仮想カメラの設定が行われることがないPCのモニタや、スマートフォン等の位置及び姿勢に応じて、スマートフォンに表示されるオブジェクトの見え方が変化しないアプリケーションに、特に適している。
なお、指定再生位置のフレームに映る対象オブジェクトの3Dモデルが仮想カメラの撮影範囲に含まれるように仮想カメラを設定する場合の仮想カメラの設定方法としては、図21ないし図25で説明した方法の他、図21(又は図22)、図23、図24、及び、図25で説明した方法の任意の2以上を組み合わせた方法を採用することができる。
<本技術を適用したコンピュータの説明>
次に、上述した一連の処理は、ハードウエアにより行うこともできるし、ソフトウエアにより行うこともできる。一連の処理をソフトウエアによって行う場合には、そのソフトウエアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図26は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク905やROM903に予め記録しておくことができる。
あるいはまた、プログラムは、ドライブ909によって駆動されるリムーバブル記録媒体911に格納(記録)しておくことができる。このようなリムーバブル記録媒体911は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体911としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体911からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク905にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)902を内蔵しており、CPU902には、バス901を介して、入出力インタフェース910が接続されている。
CPU902は、入出力インタフェース910を介して、ユーザによって、入力部907が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)903に格納されているプログラムを実行する。あるいは、CPU902は、ハードディスク905に格納されたプログラムを、RAM(Random Access Memory)904にロードして実行する。
これにより、CPU902は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU902は、その処理結果を、必要に応じて、例えば、入出力インタフェース910を介して、出力部906から出力、あるいは、通信部908から送信、さらには、ハードディスク905に記録等させる。
なお、入力部907は、キーボードや、マウス、マイク等で構成される。また、出力部906は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下の構成をとることができる。
<1>
複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する軌跡情報生成部を備える
画像処理装置。
<2>
前記軌跡情報生成部は、指定された前記再生位置である指定再生位置を含む区間の前記オブジェクトの軌跡を表す軌跡情報を生成する
<1>に記載の画像処理装置。
<3>
前記指定再生位置を含む区間は、前記指定再生位置を基準として、過去の時刻から未来の時刻までの区間である
<2>に記載の画像処理装置。
<4>
前記軌跡情報は、前記指定再生位置を含む区間のフレームに映る前記オブジェクトの3Dモデルが配置されたストロボモデルである
<2>又は<3>に記載の画像処理装置。
<5>
前記軌跡情報生成部は、前記ストロボモデルに配置された前記3Dモデルにエフェクト処理を行う
<4>に記載の画像処理装置。
<6>
前記軌跡情報は、前記指定再生位置を含む区間のフレームに映る前記オブジェクトの軌跡を表す曲線の自由視点データである
<2>又は<3>に記載の画像処理装置。
<7>
仮想カメラで前記軌跡情報を撮影した自由視点画像である軌跡画像を生成する自由視点画像生成部をさらに備える
<1>ないし<6>のいずれかに記載の画像処理装置。
<8>
前記仮想カメラを設定する仮想カメラ設定部をさらに備える
<7>に記載の画像処理装置。
<9>
前記仮想カメラ設定部は、ユーザの操作に応じて、前記仮想カメラを設定する
<8>に記載の画像処理装置。
<10>
前記仮想カメラ設定部は、ユーザの操作に応じて、前記仮想カメラの位置及び姿勢を設定する
<9>に記載の画像処理装置。
<11>
前記仮想カメラ設定部は、指定された前記再生位置である指定再生位置のフレームに映るオブジェクトの3Dモデルが、前記仮想カメラの撮影範囲に含まれるように、前記仮想カメラを設定する
<8>に記載の画像処理装置。
<12>
前記仮想カメラ設定部は、ユーザの視点及び視線に、位置及び姿勢が対応するように、前記仮想カメラを設定する
<8>に記載の画像処理装置。
<13>
複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する
ことを含む画像処理方法。
<14>
複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する軌跡情報生成部
として、コンピュータを機能させるためのプログラム。
複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する軌跡情報生成部を備える
画像処理装置。
<2>
前記軌跡情報生成部は、指定された前記再生位置である指定再生位置を含む区間の前記オブジェクトの軌跡を表す軌跡情報を生成する
<1>に記載の画像処理装置。
<3>
前記指定再生位置を含む区間は、前記指定再生位置を基準として、過去の時刻から未来の時刻までの区間である
<2>に記載の画像処理装置。
<4>
前記軌跡情報は、前記指定再生位置を含む区間のフレームに映る前記オブジェクトの3Dモデルが配置されたストロボモデルである
<2>又は<3>に記載の画像処理装置。
<5>
前記軌跡情報生成部は、前記ストロボモデルに配置された前記3Dモデルにエフェクト処理を行う
<4>に記載の画像処理装置。
<6>
前記軌跡情報は、前記指定再生位置を含む区間のフレームに映る前記オブジェクトの軌跡を表す曲線の自由視点データである
<2>又は<3>に記載の画像処理装置。
<7>
仮想カメラで前記軌跡情報を撮影した自由視点画像である軌跡画像を生成する自由視点画像生成部をさらに備える
<1>ないし<6>のいずれかに記載の画像処理装置。
<8>
前記仮想カメラを設定する仮想カメラ設定部をさらに備える
<7>に記載の画像処理装置。
<9>
前記仮想カメラ設定部は、ユーザの操作に応じて、前記仮想カメラを設定する
<8>に記載の画像処理装置。
<10>
前記仮想カメラ設定部は、ユーザの操作に応じて、前記仮想カメラの位置及び姿勢を設定する
<9>に記載の画像処理装置。
<11>
前記仮想カメラ設定部は、指定された前記再生位置である指定再生位置のフレームに映るオブジェクトの3Dモデルが、前記仮想カメラの撮影範囲に含まれるように、前記仮想カメラを設定する
<8>に記載の画像処理装置。
<12>
前記仮想カメラ設定部は、ユーザの視点及び視線に、位置及び姿勢が対応するように、前記仮想カメラを設定する
<8>に記載の画像処理装置。
<13>
複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する
ことを含む画像処理方法。
<14>
複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する軌跡情報生成部
として、コンピュータを機能させるためのプログラム。
11 表示部, 12 シークバー, 13 スライダ, 21 撮影装置, 22 コンテンツサーバ, 23 再生装置, 31 自由視点データ生成部, 32 記憶部, 33,41 通信部, 42 記憶部, 43 自由視点画像生成部, 44 表示部, 45 仮想カメラ設定部, 46 操作部, 47 軌跡情報生成部, 901 バス, 902 CPU, 903 ROM, 904 RAM, 905 ハードディスク, 906 出力部, 907 入力部, 908 通信部, 909 ドライブ, 910 入出力インタフェース, 911 リムーバブル記録媒体
Claims (14)
- 複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する軌跡情報生成部を備える
画像処理装置。 - 前記軌跡情報生成部は、指定された前記再生位置である指定再生位置を含む区間の前記オブジェクトの軌跡を表す軌跡情報を生成する
請求項1に記載の画像処理装置。 - 前記指定再生位置を含む区間は、前記指定再生位置を基準として、過去の時刻から未来の時刻までの区間である
請求項2に記載の画像処理装置。 - 前記軌跡情報は、前記指定再生位置を含む区間のフレームに映る前記オブジェクトの3Dモデルが配置されたストロボモデルである
請求項2に記載の画像処理装置。 - 前記軌跡情報生成部は、前記ストロボモデルに配置された前記3Dモデルにエフェクト処理を行う
請求項4に記載の画像処理装置。 - 前記軌跡情報は、前記指定再生位置を含む区間のフレームに映る前記オブジェクトの軌跡を表す曲線の自由視点データである
請求項2に記載の画像処理装置。 - 仮想カメラで前記軌跡情報を撮影した自由視点画像である軌跡画像を生成する自由視点画像生成部をさらに備える
請求項1に記載の画像処理装置。 - 前記仮想カメラを設定する仮想カメラ設定部をさらに備える
請求項7に記載の画像処理装置。 - 前記仮想カメラ設定部は、ユーザの操作に応じて、前記仮想カメラを設定する
請求項8に記載の画像処理装置。 - 前記仮想カメラ設定部は、ユーザの操作に応じて、前記仮想カメラの位置及び姿勢を設定する
請求項9に記載の画像処理装置。 - 前記仮想カメラ設定部は、指定された前記再生位置である指定再生位置のフレームに映るオブジェクトの3Dモデルが、前記仮想カメラの撮影範囲に含まれるように、前記仮想カメラを設定する
請求項8に記載の画像処理装置。 - 前記仮想カメラ設定部は、ユーザの視点及び視線に、位置及び姿勢が対応するように、前記仮想カメラを設定する
請求項8に記載の画像処理装置。 - 複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する
ことを含む画像処理方法。 - 複数の視点から撮影された複数の視点画像から生成される自由視点データの再生位置の指定に応じて、前記視点画像に映るオブジェクトの3次元空間内の軌跡を表す軌跡情報を生成する軌跡情報生成部
として、コンピュータを機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019025708A JP2022051978A (ja) | 2019-02-15 | 2019-02-15 | 画像処理装置、画像処理方法、及び、プログラム |
PCT/JP2020/003607 WO2020166376A1 (ja) | 2019-02-15 | 2020-01-31 | 画像処理装置、画像処理方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019025708A JP2022051978A (ja) | 2019-02-15 | 2019-02-15 | 画像処理装置、画像処理方法、及び、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022051978A true JP2022051978A (ja) | 2022-04-04 |
Family
ID=72044755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019025708A Pending JP2022051978A (ja) | 2019-02-15 | 2019-02-15 | 画像処理装置、画像処理方法、及び、プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022051978A (ja) |
WO (1) | WO2020166376A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2025040960A1 (en) * | 2023-08-18 | 2025-02-27 | Samsung Electronics Co., Ltd. | Method for rendering video images in vr scenes |
US12277271B2 (en) | 2023-08-18 | 2025-04-15 | Samsung Electronics Co., Ltd. | Method for rendering video images in VR scenes |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114022565B (zh) * | 2021-10-28 | 2025-07-04 | 虹软科技股份有限公司 | 用于显示设备的对齐方法及对齐装置、车载显示系统 |
JPWO2023100703A1 (ja) * | 2021-12-01 | 2023-06-08 | ||
JPWO2023100704A1 (ja) * | 2021-12-01 | 2023-06-08 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4067138B2 (ja) * | 1994-06-07 | 2008-03-26 | 株式会社セガ | ゲーム装置 |
JP6808357B2 (ja) * | 2016-05-25 | 2021-01-06 | キヤノン株式会社 | 情報処理装置、制御方法、及び、プログラム |
JP2017215706A (ja) * | 2016-05-31 | 2017-12-07 | 日本電信電話株式会社 | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 |
JP6742869B2 (ja) * | 2016-09-15 | 2020-08-19 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6922369B2 (ja) * | 2017-04-14 | 2021-08-18 | 富士通株式会社 | 視点選択支援プログラム、視点選択支援方法及び視点選択支援装置 |
-
2019
- 2019-02-15 JP JP2019025708A patent/JP2022051978A/ja active Pending
-
2020
- 2020-01-31 WO PCT/JP2020/003607 patent/WO2020166376A1/ja active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2025040960A1 (en) * | 2023-08-18 | 2025-02-27 | Samsung Electronics Co., Ltd. | Method for rendering video images in vr scenes |
US12277271B2 (en) | 2023-08-18 | 2025-04-15 | Samsung Electronics Co., Ltd. | Method for rendering video images in VR scenes |
Also Published As
Publication number | Publication date |
---|---|
WO2020166376A1 (ja) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10497399B2 (en) | Biometric feedback in production and playback of video content | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
JP6643357B2 (ja) | 全球状取込方法 | |
US9779538B2 (en) | Real-time content immersion system | |
WO2020166376A1 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP7459870B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
US11099392B2 (en) | Stabilized and tracked enhanced reality images | |
JP2005295004A (ja) | 立体画像処理方法および立体画像処理装置 | |
WO2020036644A2 (en) | Deriving 3d volumetric level of interest data for 3d scenes from viewer consumption data | |
US20240223738A1 (en) | Image data generation device, display device, image display system, image data generation method, image display method, and data structure of image data | |
US11557087B2 (en) | Image processing apparatus and image processing method for generating a strobe image using a three-dimensional model of an object | |
US20200257112A1 (en) | Content generation apparatus and method | |
WO2018234622A1 (en) | METHOD OF DETECTING EVENTS OF INTEREST | |
US11128836B2 (en) | Multi-camera display | |
WO2022224964A1 (ja) | 情報処理装置及び情報処理方法 | |
WO2017141139A1 (en) | A method for image transformation | |
CN113485547A (zh) | 一种应用于全息沙盘的交互方法及装置 | |
JP2020095465A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
WO2020149146A1 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
US20240078767A1 (en) | Information processing apparatus and information processing method | |
WO2022249536A1 (ja) | 情報処理装置及び情報処理方法 | |
WO2021006047A1 (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
WO2015156128A1 (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
JP2025018896A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2023104609A (ja) | 情報処理装置および情報処理方法 |