[go: up one dir, main page]

JP2018033107A - 動画の配信装置及び配信方法 - Google Patents

動画の配信装置及び配信方法 Download PDF

Info

Publication number
JP2018033107A
JP2018033107A JP2016166131A JP2016166131A JP2018033107A JP 2018033107 A JP2018033107 A JP 2018033107A JP 2016166131 A JP2016166131 A JP 2016166131A JP 2016166131 A JP2016166131 A JP 2016166131A JP 2018033107 A JP2018033107 A JP 2018033107A
Authority
JP
Japan
Prior art keywords
user terminal
data
motion data
video data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016166131A
Other languages
English (en)
Inventor
隆二 藤本
Ryuji Fujimoto
隆二 藤本
直人 横内
Naoto Yokouchi
直人 横内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Holo Co Ltd
Original Assignee
Holo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Holo Co Ltd filed Critical Holo Co Ltd
Priority to JP2016166131A priority Critical patent/JP2018033107A/ja
Publication of JP2018033107A publication Critical patent/JP2018033107A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】動画の配信において、空間又はその中に位置する被写体の異なる方向からの視聴を可能とする際のデータ容量の圧縮を実現する。【解決手段】配信装置220は、配信対象の3D空間又はその中に位置する1又は複数の被写体を撮影する撮影カメラ210から受信する1又は複数の映像データに基づいて、当該3D空間内の1又は複数の被写体をそれぞれ3Dオブジェクトとして認識し、ユーザー端末230に送信する。その後、動きのある3Dオブジェクトを検出して、その差分を示すモーションデータを生成する。配信装置220は、生成したモーションデータをユーザー端末230に送信し、ユーザー端末230においては、受信したモーションデータに基づいて保持している3Dオブジェクトデータを動かし、上記モーションデータに対応する期間に動きのない他の3Dオブジェクト又は2Dオブジェクトとともにある視線方向の映像として表示画面に表示する。【選択図】図2

Description

本発明は、動画の配信装置及び配信方法に関し、より詳細には、VR動画、AR動画等の配信装置及び配信方法に関する。
通信速度の高速化に伴い、動画の利用がさまざまな場面で増えている。中でも180°、360°など、拡がりのある空間を仮想的に作り出すバーチャルリアリティ(VR)技術を用いた動画に大きな注目が集まっている。
図1に、VR動画の配信システムの一例を示す。配信システム100は、360°カメラ110と、360°カメラ110の各カメラで撮影された各映像データを結合ないしステッチするためのステッチサーバ120と、ステッチサーバ120によるステッチで正距円筒図法により生成された360°の情報を有する360°映像データをエンコードするエンコードサーバ130と、エンコードサーバ130から360°映像データを受信して表示画面上にユーザー又は視聴者(viewer)の視線方向の映像を表示する携帯端末140とを備える。
360°カメラ110は、たとえば、魚眼レンズ搭載のカメラを複数組み合わせてリグに固定することによって構成することができる。全方位360°の全天球の視野、又は少なくともある平面上における360°の視野を提供するようにすることができる。図示では、4つの一眼ミラーレス又はアクションカメラを所定平面上で90°ずつ異なる角度で配置して360°カメラ110を構成している。あらかじめ360°が撮影できるように複数のカメラを搭載したものも存在する。
ステッチサーバ120は、フレームごとに360°カメラ110から受信した4つの映像データを正距円筒図法に座標変換し、再生可能な360°映像データを生成する。
エンコードサーバ130は、画質、配信ビットレートなどに応じた処理を360°映像データに対して行う。
動画視聴者の携帯端末140は、視聴者の視線方向を判定し、360°映像データの当該視線方向に対応する部分を表示画面上に表示する。動画表示用の専用のビューワーをスマートフォン、タブレットなどの携帯端末にインストールし、当該ビューワーにて動画を再生することができる。視聴者の視線方向は、携帯端末140が有するジャイロ・センサによる検知によって判定可能である。
たとえば、このようなVR技術により動画のリアルタイム配信を行うと、視聴者は視線方向を所望の方向に適宜変えて、あたかもその場にいるかのような体験をすることができる。
しかしながら、VR動画の配信は、従来の視野が単一方向の動画配信と比較して、大幅にデータ容量が増大することから、ビューワーにおける処理負担が大きいという問題がある。この問題は、携帯端末に限らず、ユーザー又は視聴者の端末がPCなどである場合にも生じるものの、スマートフォンなどの携帯端末であると顕著であり、さらにストリーミングなどによるリアルタイム配信であると一層顕著となる。
また、視聴者に体験させる空間全体を仮想的に作り出すVR技術のほか、たとえば背景等の空間の周辺については携帯端末140により撮影し、又は予め映像を用意し、当該空間内の被写体(たとえば、遠隔地にいる人物等)を仮想的に作り出して重ね合わせる拡張現実(AR)技術についても、180°、360°など異なる角度からその被写体を閲覧可能とするためにはデータ容量の増大という同様の問題が生じる。
本発明は、このような問題点に鑑みてなされたものであり、その目的は、動画の配信装置及び配信方法において、空間又はその中に位置する被写体の異なる方向からの視聴を可能とする際のデータ容量の圧縮を実現することにある。
このような目的を達成するために、本発明の第1の態様は、動画の配信方法であって、配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、前記モーションデータを前記ユーザー端末に送信するステップとを含み、前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする。
また、本発明の第2の態様は、第1の態様において、更新された3Dオブジェクトは、他のオブジェクトとともに前記表示画面に表示されることを特徴とする。
また、本発明の第3の態様は、第2の態様において、前記他のオブジェクトは、前記ユーザー端末に送信された3Dオブジェクトであって、前記モーションデータに対応する期間に動きのなかった3Dオブジェクトであることを特徴とする。
また、本発明の第4の態様は、第2の態様において、前記映像データから測定される深度が所定の閾値以上の被写体は2Dオブジェクトとして認識され、前記他のオブジェクトは、前記ユーザー端末に送信された前記2Dオブジェクトであることを特徴とする。
また、本発明の第5の態様は、第2の態様において、前記他のオブジェクトは、前記ユーザー端末にあらかじめ記憶されている2D又は3Dオブジェクトであることを特徴とする。
また、本発明の第6の態様は、第2の態様において、前記他のオブジェクトは、前記ユーザー端末においてリアルタイムに撮影されるデータであることを特徴とする。
また、本発明の第7の態様は、第1から第6のいずれかの態様において、前記1又は複数の3Dオブジェクトの認識は、前記撮影カメラからの第1のフレームの映像データに基づいて行い、前記モーションデータの生成は、前記第1のフレームの後の第2のフレームと前記第1のフレームとの間の動きに基づいて行うことを特徴とする。
また、本発明の第8の態様は、第1から第7のいずれかの態様において、前記映像データは、前記撮影カメラから送信されるライブ映像のデータであることを特徴とする。
また、本発明の第9の態様は、第1から第8のいずれかの態様において、前記撮影カメラは、異なる方向に向けて配置された複数のステレオカメラを有することを特徴とする。
また、本発明の第10の態様は、第9の態様において、各ステレオカメラからの映像データから認識された各3Dオブジェクトをステッチングするステップをさらに含むことを特徴とする。
また、本発明の第11の態様は、第1から第10のいずれかの態様において、前記撮影カメラは、周囲の360°の撮影を行うことができることを特徴とする。
また、本発明の第12の態様は、第11の態様において、前記ユーザー端末は携帯端末であり、前記携帯端末が有するジャイロ・センサによる検知によって判定された視聴者の視線方向を受信するステップと、前記携帯端末に送信するモーションデータを前記視線方向に対応するモーションデータに制限するステップとをさらに含むことを特徴とする。
また、本発明の第13の態様は、第1から第10のいずれかの態様において、前記撮影カメラは、被写体を360°から撮影することができることを特徴とする。
また、本発明の第14の態様は、コンピュータに、動画の配信方法を実行させるためのプログラムであって、前記配信方法は、配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、前記モーションデータを前記ユーザー端末に送信するステップとを含み、前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする。
また、本発明の第15の態様は、配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信する受信部と、前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識する処理部と、前記1又は複数の3Dオブジェクトをユーザー端末に送信する送信部とを備え、前記処理部は、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成し、前記送信部は、前記モーションデータを前記ユーザー端末に送信し、前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする。
本発明の一態様によれば、1又は複数のステレオカメラを有する撮影カメラからの映像データに基づいて被写体の3Dオブジェクトを認識し、これをユーザー端末に保持させておき、当該3Dオブジェクトの動きを示すモーションデータによりユーザー端末において当該3Dオブジェクトの動きを反映させることによって、動画配信におけるデータ容量の圧縮が可能となる。
従来のVR動画の配信システムの一例を示す図である。 本発明にかかる動画の配信装置の概要を説明するための図である。 本発明の一実施形態における、周囲を被写体とする撮影カメラの一例を示す図である。 複数の方向にステレオカメラを有する場合の撮影可能範囲を示す図である。 本発明の一実施形態における、撮影装置における処理を示す流れ図である。 本発明の一実施形態における、ユーザー端末における処理を示す流れ図である。 ユーザー端末において、受信した複数のオブジェクトデータを表示画面にレンダリングする一例を示す図である。 本発明の別実施形態における、被写体を周囲から撮影する撮影カメラの一例を示す図である。 本発明のさらに実施形態における、被写体を周囲から撮影する撮影カメラの一例を示す図である。
以下、図面を参照して本発明の実施形態を詳細に説明する。
(本発明の概要)
図2に、本発明にかかる動画の配信装置を示す。配信装置220は、配信対象の3D空間又はその中に位置する1又は複数の被写体を撮影する撮影カメラ210から受信する1又は複数の映像データに基づいて、当該3D空間内の1又は複数の被写体をそれぞれ3Dオブジェクトとして認識する。さらに、必要に応じて認識された1又は複数の3Dオブジェクトをそれぞれ別の層のデータとしていわば断層化した後、動きのある3Dオブジェクトを検出して、その差分を示すモーションデータを生成する。
1又は複数の3Dオブジェクトの認識は、撮影カメラ210からの第1のフレームの映像データに基づいて行い、モーションデータの生成は、第1のフレームの後の第2のフレームと第1のフレームとの間の動きに基づいて行うことができる。あるいは、複数フレームの映像データを用いて3Dオブジェクトの認識を行うこともできる。
各3Dオブジェクトデータは、配信装置220のメモリ、ハードディスクなどの記憶部221に記憶することができるとともに、スマートフォン、タブレット等の携帯端末を含むユーザー端末230に送信される。受信された3Dオブジェクトは、ユーザー端末230において一定期間、そのメモリ、ハードディスクなどの記憶部(図示せず)に記憶される。
配信装置220は、生成したモーションデータをユーザー端末230に送信し、ユーザー端末230においては、受信したモーションデータに基づいて保持している3Dオブジェクトデータを動かし、上記モーションデータに対応する期間に動きのない他の3Dオブジェクト又は2Dオブジェクトとともにある視線方向の映像として表示画面に表示する。
このように、撮影対象の空間内の被写体を3Dオブジェクトとして認識し、そのデータをあらかじめユーザー端末230に保持させておくことによって、配信装置220からユーザー端末230への送信データを、被写体の動きを示すモーションデータとすることが可能となり、データ容量の大きな圧縮が実現される。特にライブ映像の配信の際には、かくつきの抑えられた高画質の動画配信ができ、ユーザー体験を改善する。
ここで3Dオブジェクトとは、3D空間内の一部を表す3Dデータを意味し、たとえば、撮影対象の空間内に立つ人、ビル、雲などの被写体が対象となる。一定の閾値を定めて、後述する深度がそれ以上の被写体については3Dオブジェクト化を行わずに、疑似的に2Dデータで表わされる2Dオブジェクトとして認識してもよい。たとえば、空、壁などの背景が対象となる。
また、一部の被写体又は背景について、3Dオブジェクトとして又は2Dオブジェクトとしてあらかじめデータを配信装置220又はユーザー端末230に記憶しておくことも可能である。また、ユーザー端末230においてリアルタイムに撮影する背景等のデータを用いることもできる。本発明による動画配信は、動画を構成する全体のみならず、一部のみにも適用可能であることに留意されたい。
また、上述の説明及び後述の説明において、各処理は、コンピュータに所定のプログラムを実行させることにより実現することができ、コンピュータは単一のサーバとすることも、複数のサーバとすることもでき、またプログラムについても同様に複数のプログラムにより所要の機能が実現されるようにすることができる。コンピュータとしては、通信インターフェースなどのデータ送受信のための通信部と、CPU、GPUなどの処理部と、メモリ、ハードディスクなどの記憶部とを備えるものが挙げられる。
(撮影カメラの周囲が被写体の実施形態)
図3に、本発明の一実施形態における、周囲の被写体を撮影するための撮影カメラを示す。撮影カメラ310は、第1の方向から第6の方向につき、それぞれ右カメラ及び左カメラを有するステレオカメラを備える。各ステレオカメラは、左右のカメラの視差の幅に基づいて被写体320の各点までの奥行き方向の距離を測定することができ、被写体320を、三次元的に表す3Dオブジェクトとしてデータ化することができる。被写体320までの距離が遠いとき、すなわち深度が深いときは、視差の幅が小さいため3Dオブジェクト化を行うことなく、単に2Dオブジェクトとして認識すれば十分であることも少なくない。
図4に示すように、複数の方向にステレオカメラを備えている場合、被写体320を3Dオブジェクトとして認識することのできる角度が大きくなる。各ステレオカメラの前面に沿った直線は、各ステレオカメラが画角180°である場合の撮影可能範囲を示すものである。ここでは、第1から第6の方向にそれぞれステレオカメラを配置したが、第1の方向のみ、第1から第4の方向など、さまざまな配置が考えられる。
撮影カメラ310の各ステレオカメラから送信される映像データに基づいて(S501)、配信装置220は、1又は複数の被写体に対応する1又は複数の3Dオブジェクトの認識を行う(S502)。3Dオブジェクト化に用いる映像データは、単一フレームの映像データとしてもよいし、複数フレームの映像データを用いて行ってもよい。
ステレオカメラが複数配置されている場合には、ここで、3Dオブジェクトデータのステッチングを行う(S503)。各ステレオカメラの映像データから認識された3Dオブジェクトを、被写体の同一箇所に対応する点をコンタクトポイントとして繋ぎ合わせ、ユーザー端末230における再生に用いる3Dオブジェクトが生成される。ステッチングは、3Dオブジェクトごとに行い、被写体が2Dオブジェクトとして認識される場合には、従来技術のように、正距円筒図法に座標変換して繋ぎ合わせることができる。
認識された各オブジェクトは、必要に応じてそれぞれ別の層ーのデータとして、ユーザー端末230に送信される(S504)。ユーザー端末230への送信データは、配信装置220とユーザー端末230との間の通信環境に応じて画質、ビットレートの変更等の最適化を行うことができる。ユーザー端末230においては、層ごとに各オブジェクトを記憶することができる。
配信装置220は、連続的に又は断続的に撮影対象の3D空間又はその中に位置する被写体の3Dオブジェクト化を行い、各3Dオブジェクトをトラッキングして一定の閾値以上の動きのあるオブジェクトを検出して当該動きを示すモーションデータを生成し(S505)、ユーザー端末230に送信する(S506)。動きとしては、移動、回転ないし傾き、変形などが挙げられる。3Dオブジェクトは、たとえば頂点データにより表現することができ、モーションデータは、各頂点に対して行う計算を規定するものとすることができる。
ユーザー端末230においては、各オブジェクトのデータを受信し(S601)、その後受信するモーションデータに応じて対応する3Dオブジェクトを動かし、当該オブジェクトを更新する(S602)。更新されたオブジェクトデータにより上書きしてもよいし、別個のデータとして保持してもよい。動きがあり、更新されたオブジェクトとその他のオブジェクトとをともにユーザー端末230の表示画面に表示する処理をフレームごとに続けることによって、動画の配信を行うことができる。また、ユーザー端末230にあらかじめ記憶されている背景、被写体の周囲の空間等を表す3D又は2Dのオブジェクトデータを同時に表示することもできる。この際、各データを合成してから表示を行ってもよい(S603)。
専用のビューワーをインストールして表示を行うこともできるが、本実施形態にかかる配信方法を用いれば、3Dオブジェクトをあらかじめユーザー端末230に保持させておくことでユーザー端末230において処理すべきデータ容量を抑制し、処理能力の高くないウェブブラウザ上で汎用のビューワーにより再生することが可能となる(S604)。スマートフォン、タブレットなどの端末にインストールされるアプリ上での動画再生ではなく、ウェブブラウザ上での再生が望まれる場面も少なくない。
図7は、ユーザー端末230において、受信した複数のオブジェクトを表示画面にレンダリングする一例の様子を示している。第1の3Dオブジェクト741及び第2の3Dオブジェクト742があらかじめユーザー端末730に記憶されており、第2のオブジェクト742における動きを示すモーションデータ743が配信サーバ720からユーザー端末730に対して送信される。ユーザー端末730では、モーションデータ743に従って第2のオブジェクト742を更新し、各オブジェクトを合成して再生する。配信サーバ720は、クラウド上のインスタンスとしてもよい。
図3に示す撮影カメラ310を用いると、360°の動画配信が可能となるところ、ユーザー端末230は、視聴者の視線方向を判定し、当該視線方向に対応する部分を表示画面上に表示することができる。視聴者の視線方向は、ユーザー端末230が有するジャイロ・センサによる検知、表示画面上の視聴者によるドラッグなどによって判定可能である。
視聴者の視線方向を示すデータを連続的又は断続的にユーザー端末230から配信装置220に送信すれば、配信装置220からユーザー端末230に送信されるモーションデータを当該視線方向の動画再生に必要となるデータに限定することができ、さらなるデータ容量の圧縮が可能である。加えて、視聴者の視線方向をユーザー端末230又は配信装置220において予測することによって、配信装置220からユーザー端末230に対するデータ送信を高速化することができる。
ユーザー端末230、730は、PCなどのコンピュータ一般も含まれるが、スマートフォン、タブレット、二眼HMDなどの携帯端末である場合に、本発明はデータ容量を大幅に圧縮してVR動画、AR動画などのリッチな動画に対するユーザー体験を大きく改善する。ユーザー端末230、730がさらにICを有するコンタクトレンズのように著しく小型化ないし軽量化し、実装可能なデータ処理能力も限られてしまう場面においても、本発明によれば、動画配信が可能となる。
(撮影カメラが被写体の周囲に配置された実施形態)
図8に、本発明の別実施形態における、被写体の周囲に配置された撮影カメラを示す。撮影カメラ810は、第1の方向から第4の方向につき、それぞれ右カメラ及び左カメラを有するステレオカメラを備える。各ステレオカメラは、左右のカメラの視差の幅に基づいて被写体820の各点までの奥行き方向の距離を測定することができ、被写体820を、三次元的に表す3Dオブジェクトとしてデータ化することができる。被写体820までの距離が遠いとき、すなわち深度が深いときは、視差の幅が小さくなるため、3Dオブジェクト化を行うことなく、単に2Dオブジェクトとして認識してもよい。
各ステレオカメラの前面に沿った直線は、各ステレオカメラが画角180°である場合の撮影可能範囲を示すものである。ここでは、第1から第4の方向にそれぞれステレオカメラを配置したが、第1の方向のみ、第1から第6の方向など、さまざまな配置が考えられる。
図3に示した実施形態と配信装置220における処理は基本的に同じであるが、視線方向については、処理が異なる場合がある。ユーザー端末230がGPSなどの位置センサを有する場合、ユーザー端末230の位置情報に応じて第1の方向に向けられたステレオカメラから第2の方向に向けられたステレオカメラに視点を切り替えることができる。また、ユーザー端末230の表示画面上で視聴者が手動でステレオカメラを選択してもよい。ユーザー端末230が有するジャイロ・センサにより視線方向を検知して、いずれのステレオカメラからいずれの方向を見た動画を配信するかを定めることもできる。
なお、図8では、被写体820を囲む4方向のそれぞれにステレオカメラを1台ずつ配置しているが、図9に示すように、各方向に向けられたステレオカメラを複数台並べて配置してもよい。
また、各ステレオカメラは、ユーザー端末230が有するジャイロ・センサにより視線方向を検知して、当該視線方向に向けて回転させることもできる。
ユーザー端末230の位置及び向きの少なくとも一方を連続的又は断続的に配信装置220において受信して、配信装置220からユーザー端末230に送信されるモーションデータを当該位置及び向きの少なくとも一方における動画再生に必要となるデータに限定することができ、さらなるデータ容量の圧縮が可能である。視聴者によってステレオカメラが選択された場合も同様である。
(スキン)
ここまでは、撮影カメラからの映像データを解析して、3Dオブジェクトを認識することを説明してきたが、より詳細には、3Dオブジェクトは、形を表すボーンと、当該ボーン上に描画されるスキンとに大別することができる。いずれに対しても、上述したようにあらかじめユーザー端末にオブジェクトデータを保持させ、それに対するモーションデータによって動きを表して更新することで、動画再生が可能となる。スキンに対するCGによる補正も行うことがある。
スキンに対するモーションデータとしては、色(RGB)、座標位置(x軸、y軸、z軸)などが挙げられる。
(その他)
ユーザー端末に表示される1又は複数のオブジェクトに対して、ユーザーのコメント、実況中継・解説のコメントなどの文字をオブジェクトとして重ね合わせて再生してもよい。
また、音声を全方位又は一部の方位について立体的に収録して、配信装置から当該音響データを映像とタイミングを合わせてユーザー端末に配信することも可能である。
100 配信システム
110 撮影カメラ
120 ステッチサーバ
130 エンコードサーバ
140 携帯端末
210 撮影カメラ
220 配信装置
221 記憶装置
230 ユーザー端末
310 撮影カメラ
320 被写体
720 配信サーバ
730 携帯端末
741 第1のオブジェクト
742 第2のオブジェクト
743 モーションデータ
810 撮影カメラ
820 被写体

Claims (15)

  1. 動画の配信方法であって、
    配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、
    前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、
    前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、
    前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、
    前記モーションデータを前記ユーザー端末に送信するステップと
    を含み、
    前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする配信方法。
  2. 更新された3Dオブジェクトは、他のオブジェクトとともに前記表示画面に表示されることを特徴とする請求項1記載の配信方法。
  3. 前記他のオブジェクトは、前記ユーザー端末に送信された3Dオブジェクトであって、前記モーションデータに対応する期間に動きのなかった3Dオブジェクトであることを特徴とする請求項2に記載の配信方法。
  4. 前記映像データから測定される深度が所定の閾値以上の被写体は2Dオブジェクトとして認識され、
    前記他のオブジェクトは、前記ユーザー端末に送信された前記2Dオブジェクトであることを特徴とする請求項2に記載の配信方法。
  5. 前記他のオブジェクトは、前記ユーザー端末にあらかじめ記憶されている2D又は3Dオブジェクトであることを特徴とする請求項2に記載の配信方法。
  6. 前記他のオブジェクトは、前記ユーザー端末においてリアルタイムに撮影されるデータであることを特徴とする請求項2に記載の配信方法。
  7. 前記1又は複数の3Dオブジェクトの認識は、前記撮影カメラからの第1のフレームの映像データに基づいて行い、
    前記モーションデータの生成は、前記第1のフレームの後の第2のフレームと前記第1のフレームとの間の動きに基づいて行うことを特徴とする請求項1から6のいずれかに記載の配信方法。
  8. 前記映像データは、前記撮影カメラから送信されるライブ映像のデータであることを特徴とする請求項1から7のいずれかに記載の配信方法。
  9. 前記撮影カメラは、異なる方向に向けて配置された複数のステレオカメラを有することを特徴とする請求項1から8のいずれかに記載の配信方法。
  10. 各ステレオカメラからの映像データから認識された各3Dオブジェクトをステッチングするステップをさらに含むことを特徴とする請求項9に記載の配信方法。
  11. 前記撮影カメラは、周囲の360°の撮影を行うことができることを特徴とする請求項1から10のいずれかに記載の配信方法。
  12. 前記ユーザー端末は携帯端末であり、
    前記携帯端末が有するジャイロ・センサによる検知によって判定された視聴者の視線方向を受信するステップと、
    前記携帯端末に送信するモーションデータを前記視線方向に対応するモーションデータに制限するステップとをさらに含むことを特徴とする請求項11に記載の配信方法。
  13. 前記撮影カメラは、被写体を360°から撮影することができることを特徴とする請求項1から10のいずれかに記載の配信方法。
  14. コンピュータに、動画の配信方法を実行させるためのプログラムであって、前記配信方法は、
    配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、
    前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、
    前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、
    前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、
    前記モーションデータを前記ユーザー端末に送信するステップと
    を含み、
    前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とするプログラム。
  15. 動画の配信装置であって、
    配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信する受信部と、
    前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識する処理部と、
    前記1又は複数の3Dオブジェクトをユーザー端末に送信する送信部と
    を備え、
    前記処理部は、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成し、
    前記送信部は、前記モーションデータを前記ユーザー端末に送信し、
    前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする配信装置。
JP2016166131A 2016-08-26 2016-08-26 動画の配信装置及び配信方法 Pending JP2018033107A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016166131A JP2018033107A (ja) 2016-08-26 2016-08-26 動画の配信装置及び配信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016166131A JP2018033107A (ja) 2016-08-26 2016-08-26 動画の配信装置及び配信方法

Publications (1)

Publication Number Publication Date
JP2018033107A true JP2018033107A (ja) 2018-03-01

Family

ID=61303749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016166131A Pending JP2018033107A (ja) 2016-08-26 2016-08-26 動画の配信装置及び配信方法

Country Status (1)

Country Link
JP (1) JP2018033107A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020049286A (ja) * 2018-05-29 2020-04-02 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP2020072804A (ja) * 2019-09-25 2020-05-14 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
WO2021107708A1 (ko) * 2019-11-29 2021-06-03 주식회사 알파서클 복수의 카메라로부터 입력된 가상현실영상을 실시간 방송하기 위한 장치 및 방법
US20210345013A1 (en) * 2018-10-18 2021-11-04 Hangzhou Hikvision Digital Technology Co., Ltd. Video Playing Method and Apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020049286A (ja) * 2018-05-29 2020-04-02 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP7349348B2 (ja) 2018-05-29 2023-09-22 株式会社コロプラ キャラクタ制御用プログラム、方法、および情報処理装置
US20210345013A1 (en) * 2018-10-18 2021-11-04 Hangzhou Hikvision Digital Technology Co., Ltd. Video Playing Method and Apparatus
US11800199B2 (en) * 2018-10-18 2023-10-24 Hangzhou Hikvision Digital Technology Co., Ltd. Video playing method and apparatus
JP2020072804A (ja) * 2019-09-25 2020-05-14 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
WO2021107708A1 (ko) * 2019-11-29 2021-06-03 주식회사 알파서클 복수의 카메라로부터 입력된 가상현실영상을 실시간 방송하기 위한 장치 및 방법
KR20210067155A (ko) * 2019-11-29 2021-06-08 주식회사 알파서클 복수의 카메라로부터 입력된 가상현실영상을 실시간 방송하기 위한 장치 및 방법
KR102295265B1 (ko) 2019-11-29 2021-08-30 주식회사 알파서클 복수의 카메라로부터 입력된 가상현실영상을 실시간 방송하기 위한 장치 및 방법

Similar Documents

Publication Publication Date Title
CN110544280B (zh) Ar系统及方法
EP3198866B1 (en) Reconstruction of three-dimensional video
EP3007038B1 (en) Interaction with three-dimensional video
CN107636534B (zh) 用于图像处理的方法和系统
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
CN110636276B (zh) 视频拍摄方法、装置、存储介质及电子设备
CN106357966A (zh) 全景图像拍摄装置及全景图像获取方法
US11048099B2 (en) Communication system generating a floating image of a remote venue
CN108616733B (zh) 一种全景视频图像的拼接方法及全景相机
US20180249075A1 (en) Display method and electronic device
WO2018069570A1 (en) Display of visual data with a virtual reality headset
JP2018033107A (ja) 動画の配信装置及び配信方法
US11430178B2 (en) Three-dimensional video processing
CN106919246A (zh) 一种应用界面的显示方法和装置
JP2022051978A (ja) 画像処理装置、画像処理方法、及び、プログラム
CN112288877B (zh) 视频播放方法、装置、电子设备及存储介质
CN114093020A (zh) 动作捕捉方法、装置、电子设备及存储介质
JP5200141B2 (ja) 映像提示システム、映像提示方法、プログラム及び記録媒体
Ramachandrappa Panoramic 360◦ videos in virtual reality using two lenses and a mobile phone
JP2013223133A (ja) 誘導装置、誘導方法、及び誘導プログラム
KR20120008329A (ko) 어안렌즈 및 안면 추적을 이용한 전자기기 디스플레이 표시 장치 및 그 방법, 이를 이용하는 모바일 기기

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170217