JP2010011287A - 映像伝送方法および端末装置 - Google Patents
映像伝送方法および端末装置 Download PDFInfo
- Publication number
- JP2010011287A JP2010011287A JP2008170371A JP2008170371A JP2010011287A JP 2010011287 A JP2010011287 A JP 2010011287A JP 2008170371 A JP2008170371 A JP 2008170371A JP 2008170371 A JP2008170371 A JP 2008170371A JP 2010011287 A JP2010011287 A JP 2010011287A
- Authority
- JP
- Japan
- Prior art keywords
- video
- sub
- terminal device
- data
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000007423 decrease Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 44
- 238000012790 confirmation Methods 0.000 description 26
- 230000004048 modification Effects 0.000 description 23
- 238000012986 modification Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 16
- 230000003111 delayed effect Effects 0.000 description 13
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Devices (AREA)
Abstract
【課題】一方の端末装置から送信された映像が他方の端末装置に確かに受信されているかを、その一方の端末装置のユーザが適切で且つ迅速に確認することができる映像伝送方法を提供することを目的とする。
【解決手段】映像伝送方法では、カメラ100が映像データを送信してサーバ300がその主映像データを受信し(S108)、サーバ300が、受信した映像データに対応するプロキシ映像データを生成し(S110)、データ送受信の遅延時間を検出し(S106)、検出した遅延時間が長いほど、生成されるプロキシ映像データのデータ量が少なくなるようにそのデータ量を調整し(S110)、カメラ100にそのプロキシ映像データを送信し、カメラ100がサーバ300からそのプロキシ映像データを受信する(S112)。
【選択図】図9
【解決手段】映像伝送方法では、カメラ100が映像データを送信してサーバ300がその主映像データを受信し(S108)、サーバ300が、受信した映像データに対応するプロキシ映像データを生成し(S110)、データ送受信の遅延時間を検出し(S106)、検出した遅延時間が長いほど、生成されるプロキシ映像データのデータ量が少なくなるようにそのデータ量を調整し(S110)、カメラ100にそのプロキシ映像データを送信し、カメラ100がサーバ300からそのプロキシ映像データを受信する(S112)。
【選択図】図9
Description
本発明は、ビデオカメラなどの映像を記録する端末装置が、ネットワークを介し、記録した映像を遠隔地にある他の端末装置に送信する映像伝送方法に関する。
近年、携帯電話やWiMAX(Worldwide Interoperability for Microwave Access)といった無線ネットワーク技術が急速に普及している。このような無線ネットワークを使用して、デジタルカメラで撮影した映像などのデジタルデータを送受信することが行われている。このような無線ネットワークによるデータ伝送の技術において、IP(Internet Protocol)技術がその代表として挙げられるように、データをパケット化して送受信を行うことが一般的となっている。パケット化は、ネットワークの帯域を効率よく複数のユーザで共有する有効な手段となっているものの、その時々の共有状況に応じて伝送レートが変動するため、パケット到着の遅延やパケット損失が発生する可能性がある。その結果、送信される映像に遅れや乱れが発生してしまう。
そこで、ネットワーク上での通信異常を検出し、一方の端末装置から送信されて他方の端末装置で現に再生されている送信映像の状態を、その一方の端末装置で再現表示する仕組みが提案されている(例えば、特許文献1参照。)。
具体的には、上記特許文献1の映像伝送方法では、映像の撮影、再生および送受信が可能な二つの端末装置が用いられる。これらの端末装置はそれぞれ、撮影して得られた映像を相手の端末装置に送信し、相手の端末装置から送信された映像を受信して再生する。さらに、それぞれの端末装置は、相手の端末装置から送信された映像とともに、自らの端末装置で撮影して得られた映像も確認用として再生する。その際、それぞれの端末装置は、ネットワーク状態の悪化によって生じる、受信した映像上の乱れなどを示す情報を相手の端末装置に送る。そして、それぞれの端末装置は、相手の端末装置からその情報を受け取ると、自らの端末装置で撮影して得られた確認用の映像の再生に、その受け取った情報により示される乱れなどを反映させる。
こうすることで、それぞれの端末装置は、自らの端末装置から送信されて相手の端末装置で再生されている映像を、その自らの端末装置にてリアルタイムで再現表示できる。さらに、それぞれの端末装置のユーザは、お互いのネットワーク状態をリアルタイムで確認することができる。
特開2007−150916号公報
しかしながら、上記特許文献1の映像伝送方法では、一方の端末装置のユーザは、その一方の端末装置から送信された映像が他方の端末装置に確かに受信されているかを適切に確認することができないという問題がある。
つまり、上記特許文献1の映像伝送方法では、一方の端末装置は、撮影して得られた映像を確認用に再生するが、その映像は、その一方の端末装置によって得られた映像そのものであって、他方の端末装置に実際に受信された映像ではない。また、その確認用の映像には、上述の情報に基づいて乱れが反映されるが、その乱れが反映されても、確認用の映像は、他方の端末装置に実際に受信されている映像ではなく、他方の端末装置に受信されている映像の模擬的な映像である。
そこで、例えば、一方の端末装置が送信して他方の端末装置に受信された映像を、その他方の端末装置から一方の端末装置に送り返してもらう映像伝送方法が想定される。この映像伝送方法では、一方の端末装置は、他方の端末装置に受信されて送り返された映像を受信して確認用の映像として再生する。したがって、一方の端末装置のユーザは、その一方の端末装置によって撮影されて得られた映像を、他方の端末装置に確かに受信されていることを確認することができる。
ところが、このような映像伝送方法であっても、他方の端末装置に受信されているか否かの確認に遅れが生じてしまうという問題がある。
このような問題について、上述の一方の端末装置がビデオカメラであり、他方の端末装置がサーバであるとして、以下に説明する。
一般的に、ビデオカメラは、映像を記録する場合、映像を示す映像データをファイル化してDVD−R(Digital Versatile Disk Recordable)やSD(Secure Digital)(登録商標)カードなどのランダムアクセス可能な記録メディアへ記録する。そして、このようなビデオカメラは、その映像を送信する場合には、ファイル化された映像データである映像ファイルをその記録メディアから読み出して送信する。
しかしながら、サーバは、一般的に、映像ファイルを利用する場合、その映像ファイルに元々格納されているデータをすべて受信しないと、その映像ファイルが途中までしか受信されていない、もしくは映像ファイルが壊れていると認識し、その映像ファイルを利用することができない。特に、ファイルのファイル形式には、SMPTE−377Mに準拠したMXF(Material eXchange Format)などがあり、そのファイル形式のファイルでは、そのファイルの先頭や末尾にあるヘッダやフッタに、そのファイルに格納しているデータの種類、フレーム周波数、およびデータサイズなどの情報が含まれている。したがって、パケット損失や送信中断により映像ファイルの送信が途中で切れると、サーバは、そのヘッダまたはフッタに含まれる情報を得ることができずに、その映像ファイルのデータの種類を判明できないことが起こり得る。
一方で、前述のように無線ネットワークでは、伝送レートが変動するため、パケット到着の遅延やパケット損失が必然的に発生する。
したがって、ビデオカメラが撮影した映像をサーバに送信し、サーバがその映像を受信してビデオカメラに送り返すような映像伝送方法では、送受信される映像ファイルのデータ量が多いために伝送レートが低下し易く、パケットの遅延や損失が著しく生じることがある。さらに、上述のように、パケット損失が生じると、映像ファイルを利用することができないため、その損失したパケットを再送する必要がある。その結果、パケットの遅延、つまり、ビデオカメラにより再生される確認用の映像がさらに遅れてしまう。言い換えれば、ビデオカメラでは、撮影されて表示されている動画像に対して、サーバから送り返された確認用の動画像が大幅に遅れて再生されてしまう。
これにより、ビデオカメラでは映像の撮影および送信がとっくに完了しているにもかかわらず、ビデオカメラのユーザは、確認用の映像の再生が終了するまで待たされることになる。
さらに、テレビ放送や映像制作業界においては、MPEG−2(ISO/IEC 13818)やDVCPRO−HD(SMPTE−370M)など、ビットレートが50Mbpsを越す高レートな映像データが扱われており、そのような映像データを送信して確認するには非常に長い時間を要してしまう。
このような問題は、例えば、ビデオカメラのユーザがそのビデオカメラで撮影されたニュース映像を、放送局に無線ネットワークを使って一刻も早くかつ確実に送信し、次の撮影に取りかかりたいというような場合に深刻となる。
そこで、本発明は、かかる問題に鑑みてなされたものであって、一方の端末装置から送信された映像が他方の端末装置に確かに受信されているかを、その一方の端末装置のユーザが適切で且つ迅速に確認することができる映像伝送方法を提供することを目的とする。
上記目的を達成するために、本発明に係る映像伝送方法は、第1および第2の端末装置の間で映像に関するデータを送受信する映像伝送方法であって、前記第1の端末装置が前記第2の端末装置に主映像を示す主映像データを送信する主映像送信ステップと、前記第2の端末装置が前記第1の端末装置から前記主映像データを受信する主映像受信ステップと、前記第2の端末装置が、受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、前記第2の端末装置が、前記第1の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、前記第2の端末装置が、検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、前記第2の端末装置が前記第1の端末装置に前記副映像データを送信する副映像送信ステップと、前記第1の端末装置が前記第2の端末装置から前記副映像データを受信する副映像受信ステップとを含むことを特徴とする。ここで、前記調整ステップでは、前記第2の端末装置は、検出した前記遅延時間が長いほど、前記副映像データのデータ量を少なくして、前記副映像送信ステップで送信される前記副映像データのビットレートを低下させる。
これにより、第1の端末装置が送信した主映像データが副映像データとして第2の端末装置から送り返されるため、第1の端末装置のユーザは、その送信された主映像データが第2の端末装置に確かに受信されていることを適切に確認することができる。さらに、データ送受信の遅延時間、つまり、第1および第2の端末装置がネットワークを介してデータの送受信をしているときには、ネットワークの遅延時間が検出され、その遅延時間が長いほど、第2の端末装置から第1の端末装置に送信される副映像データのデータ量が削減されるため、第1の端末装置によるその副映像データの受信が遅れるのを防ぐことができる。したがって、第1の端末装置のユーザは、第1の端末装置から送信された映像データが第2の端末装置に確かに受信されているかを、適切で且つ迅速に確認することができる。
また、前記副映像生成ステップでは、前記第2の端末装置は、前記主映像データの示す主映像の解像度を低下させることにより前記副映像データを生成することを特徴としてもよい。
これにより、主映像データの示す主映像が低解像度化されることにより、その主映像に対応する所謂プロキシ映像を示す副映像データが生成される。その結果、主映像データよりも副映像データの方がデータ量が少ないため、主映像データおよび副映像データの送受信によるトラフィックの輻輳を抑えることができ、その送受信の遅延をさらに抑えることができる。
また、前記映像伝送方法は、さらに、前記第2の端末装置が、検出した前記遅延時間が予め定められたしきい値以上であるか否かを判別する遅延判別ステップを含み、前記調整ステップでは、前記第2の端末装置は、前記遅延判別ステップで前記遅延時間が前記しきい値以上であると判別したときに、前記副映像データのデータ量を、前記遅延時間が前記しきい値未満であったときの前記副映像データのデータ量よりも少なくすることを特徴としてもよい。
これにより、第2の端末装置は、遅延時間がしきい値以上になったときだけ、副映像データのデータ量を少なくすればいいので、複雑な制御を行うことなく、副映像データのデータ量を簡単に調整することができる。
また、前記遅延時間検出ステップでは、前記第2の端末装置は、前記第1の端末装置に第1のデータを送信し、前記データが前記第1の端末装置に受信されたことを通知するための第2のデータ(例えば、ACKパケット)を前記第1の端末装置から受信し、前記第1のデータが送信されてから前記第2のデータが受信されるまでの時間を計測することにより前記遅延時間を検出することを特徴としてもよい。例えば、前記遅延時間検出ステップでは、前記第2の端末装置は、前記副映像生成ステップで生成された前記副映像データを前記第1のデータとして前記第1の端末装置に送信する。つまり、第2の端末装置は、この遅延時間検出ステップで副映像データを第1の端末装置に送信して遅延時間を検出し、次に、主映像データを再び受信したときに、その主映像データに対応して生成すべき副映像データのデータ量を、先に検出しておいた遅延時間に応じて調整する。
これにより、実際にデータを送受信して遅延時間を計測するため、第2の端末装置はその遅延時間を正確に検出することができる。
また、前記調整ステップでは、前記第2の端末装置は、受信した前記主映像データを構成する複数のピクチャから何れかのピクチャを間引くことにより、前記副映像データのデータ量を少なくする。
これにより、副映像データを生成する前に、その副映像データの元になる主映像データからピクチャが間引かれるため、副映像データを生成した後にその副映像データのデータ量を削減するよりも、副映像データを生成するための処理負担を軽減することができる。
また、前記映像伝送方法は、さらに、前記第1の端末装置が、受信した前記副映像データの示す副映像の画質がしきい値未満となっている、前記副映像データの時間軸上の区間を低画質区間として特定する区間特定ステップと、前記第1の端末装置が、特定した前記低画質区間を示す区間情報を記録媒体に記録する記録ステップとを含むことを特徴としてもよい。例えば、前記区間特定ステップでは、前記第1の端末装置は、前記副映像データを受信している間、前記副映像データのビットレートを検出し、前記ビットレートがレートしきい値未満となっている区間を前記低画質区間として特定する。
これにより、区間情報が記録媒体に記録されているため、第1の端末装置のユーザは、その区間情報の示す低画質区間を確認することができる。例えば、第1の端末装置が副映像データを再生して副映像を表示しているときに低画質区間があっても、ユーザはその低画質区間を十分に確認することができない場合がある。このような場合に、ユーザは記録されている区間情報を使って低画質区間を確認することができる。
また、前記映像伝送方法は、さらに、前記第1の端末装置が、前記記録媒体から前記区間情報を読み出す区間読出ステップと、前記第1の端末装置が、読み出した前記区間情報により示される低画質区間に対応する前記主映像データの区間の主映像を表示する区間表示ステップとを含むことを特徴としてもよい。
これにより、第1の端末装置のユーザは、低画質区間に対応する主映像データの区間の主映像を確認することができる。したがって、その主映像データが第1の端末装置に記録されていれば、ユーザは、その確認結果に基づいて、その区間の主映像は重要だから、その主映像データを保存しておくべきと判断したり、その区間の主映像は重要でないから、その主映像データを削除してもよいと判断することができる。このように、ユーザの利便性を向上することができる。
また、前記映像伝送方法は、さらに、前記第1の端末装置が撮影することにより前記主映像データを生成する主映像生成ステップを含むことを特徴としてもよい。
これにより、第1の端末装置のユーザは、第1の端末装置をビデオカメラとして利用し、そのビデオカメラで撮影して得られた主映像データを、第2の端末装置であるサーバなどに送信することができる。
また、前記映像伝送方法は、さらに、前記第1の端末装置が、撮影により生成される前記主映像データの主映像と、受信する前記副映像データの副映像とを表示する映像表示ステップを含むことを特徴としてもよい。
これにより、第1の端末装置のユーザは、主映像と副映像とを比較して見ることができ、撮影されている映像と、第2の端末装置で受信されている映像とを同時に確認することができる。さらに、ユーザは、副映像が主映像からどれだけ遅れているかを容易に把握することができる。つまり、ユーザは、第2の端末装置で受信される主映像データの進行状況を、その第1の端末装置に表示される副映像を見て容易に把握することができる。
なお、本発明は、このような映像伝送方法として実現することができるだけでなく、その方法に用いられる端末装置や、集積回路、その端末装置がデータを送受信する方法、その方法でデータを送受信するためのプログラム、そのプログラムを格納する記憶媒体としても実現することができる。
本発明に係る映像伝送方法では、一方の端末装置から送信された映像が他方の端末装置に確かに受信されているかを、その一方の端末装置のユーザが適切で且つ迅速に確認することができるという作用効果を奏する。
以下、本発明の実施の形態について図面を用いて説明する。
図1は、本発明の実施の形態における映像伝送システムの構成を示す図である。
この映像伝送システム10は、無線ネットワーク400を介して互いに通信するカメラ100とサーバ300とを備えている。
カメラ100は、撮影することによって動画像を示す映像データを生成し、その映像データを記録メディアに記録する。ここで、映像データは、符号化された複数のピクチャからなる。つまり、カメラ100は、映像データを構成する上述のピクチャを生成するごとに、そのピクチャを記録メディアに順次記録する。
なお、上述の映像データの示す動画像を、以下、撮影映像という。また、本実施の形態では、カメラ100は第1の端末装置に相当し、映像データおよび撮影映像は、それぞれ主映像データおよび主映像に相当する。
さらに、カメラ100は、無線通信機能を有し、無線ネットワーク400を介して、その生成した映像データをサーバ300に送信する。具体的には、カメラ100は、映像データを構成するデータ単位を生成するごとに、そのデータ単位をパケット化してサーバ300に送信する。つまり、映像データは、複数のパケットに分けられ、ストリームとしてサーバ300に送信される。
また、カメラ100は、映像データを生成しながら、その生成される映像データをリアルタイムで再生することにより撮影映像を表示する。具体的には、カメラ100は、映像データを構成するピクチャを生成するごとに、既に生成されているピクチャを順次再生する。
さらに、カメラ100は、無線ネットワーク400を介してサーバ300から後述するプロキシ映像データを受信すると、そのプロキシ映像データを再生することにより、そのプロキシ映像データにより示される動画像(以下、プロキシ映像という)を、上述の撮影映像とともに表示する。ここで、プロキシ映像データは、そのプロキシ映像データを構成するデータ単位ごとにパケット化されて、ストリームとしてカメラ100に送信されている。つまり、カメラ100は、プロキシ映像データのパケットを順次受信して、それらのパケットからピクチャを構成するごとに、そのピクチャを撮影映像のピクチャよりも小さいサイズで表示する。
なお、本実施の形態では、プロキシ映像データおよびプロキシ映像は、それぞれ副映像データおよび副映像に相当する。
サーバ300は、無線ネットワーク400を介してカメラ100から送信される映像データを受信すると、その映像データをプロキシ映像データに変換する。プロキシ映像データは、複数の符号化されたピクチャからなり、そのピクチャの画素数は、映像データのピクチャの画素数よりも少ない。つまり、サーバ300は、映像データのピクチャを復号して低解像度化し、さらに符号化することにより、その映像データをプロキシ映像データに変換している。
そして、サーバ300は、そのプロキシ映像データを所定のデータ単位ごとにパケット化して、各パケットをカメラ100に順次送信する。
なお、本実施の形態では、サーバ300は第2の端末装置に相当する。
このような映像伝送システム10では、カメラ100が映像データを生成してサーバ300に送信し、サーバ300がその映像データをプロキシ映像データに変換してカメラ100に送り返し、カメラ100にプロキシ映像を表示させている。これにより、カメラ100のユーザは、カメラ100に表示されるプロキシ映像を見ることによって、カメラ100から送信された映像データがサーバ300に受信されていることを確認することができる。
また、本実施の形態では、サーバ300がプロキシ映像データのデータ量を調整してそのビットレートを制御する点に特徴があり、これによって、プロキシ映像の表示が撮影映像の表示から遅れるのを防ぐことができる。
以下、本実施の形態におけるカメラ100およびサーバ300の構成および動作を詳細に説明する。
図2は、本実施の形態におけるカメラ100の構成を示すブロック図である。
このカメラ100は、システム制御部110と、I/Oバス120と、記録メディア131と、記録メディアI/F部130と、入力部140と、表示部141と、映像入力部143と、映像エンコーダ142と、映像デコーダ144と、送受信部150とを含む。
入力部140は、撮影の開始または終了の指示をユーザから受け付ける。
I/Oバス120は、カメラ100に含まれる上記各構成要素間におけるデータの入力および出力を可能にする。
送受信部150は、WiMAXなどによって無線ネットワーク400に接続し、記録メディア131に格納されている上述の映像データをパケット化してサーバ300に送信したり、パケット化されたプロキシ映像データをサーバ300から受信したりする。また、送受信部150は、サーバ300から受信したプロキシ映像データをシステム制御部110に出力する。
さらに、送受信部150は、サーバ300との間で行われる通信のプロトコルとして、例えばTCP(Transmission Control Protocol)を用い、サーバ300からプロキシ映像データのパケットを正しく受信すると、正しく受け取ったことを通知するためのACK(ACKnowledgement)パケットをサーバ300に送信する。
記録メディア131は、例えばPCMCIA(Personal Computer Memory Card International Association)によって定められた形状であって、カメラ100に着脱可能に構成されている。つまり、記録メディア131は、カメラ100に設けられた記録メディア装着部としてのカードスロットに挿入されることにより、記録メディアI/F部130と接続する。また、記録メディア131はFAT(File Allocation Tables)16などのファイルシステムでフォーマットされている。
記録メディアI/F部130は、カードバス規格に準拠しており、記録メディア131と接続する。そして、記録メディアI/F部130は、システム制御部110と記録メディア131との間のインタフェースを図る。
映像入力部143は、例えばCCD(Charge Coupled Devices)などを備えて構成されており、光信号を電気信号である映像信号に変換して、その映像信号を映像エンコーダ142に出力する。
映像エンコーダ142は、映像入力部143から出力された映像信号を取得し、その映像信号を圧縮符号化する。その結果、映像エンコーダ142は、例えばDVCPRO−HD(SMPTE−370M)形式の圧縮データを上述の映像データとして出力する。
映像デコーダ144は、記録メディア131に格納されている映像データを復号して、その復号された映像データを表示部141に出力する。さらに、映像デコーダ144は、送受信部150からシステム制御部110を介してプロキシ映像データを取得すると、そのプロキシ映像データも符号化されているため、そのプロキシ映像データを復号し、その復号されたプロキシ映像データを表示部141に出力する。
表示部141は、例えば液晶画面を有し、映像デコーダ144から復号された映像データを取得すると、その映像データの示す撮影映像を表示する。さらに、表示部141は、映像デコーダ144から復号されたプロキシ映像データを取得すると、そのプロキシ映像データの示すプロキシ映像を表示する。ここで、表示部141は、撮影映像を表示しているときに、プロキシ映像を表示するときには、例えば、撮影映像の隅にプロキシ映像を表示する。
システム制御部110は、例えばCPU(Central Processing Unit)とメモリとを含むコンピュータによって実現され、カメラ100に含まれる各構成要素を制御する。このシステム制御部110は、機能的な構成要素として、映像ファイル処理部111と、ファイルシステム管理部112とを備えている。
なお、これらの機能的な構成要素は、CPUが各種のプログラムを実行することによって実現される。また、システム制御部110に含まれる各メモリの実現形態は、1つの実現形態に限定されるものではない。例えば、システム制御部110は、用途ごとにそれぞれメモリを備えてもよく、単一のメモリだけを備えて、用途ごとにそのメモリの領域を分けて使ってもよい。
ファイルシステム管理部112は、記録メディア131に映像データがファイルとして書き込まれるときには、そのファイルを管理するためのFATの管理情報を更新する。
映像ファイル処理部111は、入力部140に撮影開始の指示が受け付けられると、映像入力部143および映像エンコーダ142に上述の処理を実行させて、映像データ(DVCPRO−HDの圧縮データ)を出力させる。そして、映像ファイル処理部111は、入力部140に撮影終了の指示が受け付けられると、映像入力部143および映像エンコーダ142に上述の処理を終了させて、映像データの出力を停止させる。ここで、映像ファイル処理部111は、映像データが出力されてから停止されるまでの間、ファイルシステム管理部112にFATの管理情報を更新させながら、その映像データをファイルとして記録メディア131に書き込んでいく。
つまり、映像ファイル処理部111は、撮影開始の指示があった場合には、ファイルシステム管理部112を介して、ファイルをオープンし、そのファイルに映像データを記録していく。そして、映像ファイル処理部111は、撮影終了の指示があった場合には、そのファイルをクローズする。このような一連の記録動作の実行によって、映像データが映像ファイルとして新規に記録メディア131に作成される。
また、映像ファイル処理部111は、記録メディア131への映像データの書き込みと並行して、ファイルシステム管理部112を介して、記録メディア131からの映像データの読み出しを行い、その映像データを送受信部150からサーバ300に送信させるとともに、その映像データの復号を映像デコーダ144に実行させる。さらに、映像ファイル処理部111は、送受信部150にプロキシ映像データが受信されると、そのプロキシ映像データの復号も映像デコーダ144に実行させる。その結果、表示部141に、撮影映像とプロキシ映像とが表示される。
図3は、表示部141に表示される撮影映像とプロキシ映像の一例を示す図である。
表示部141は、例えば図3に示すように、映像データの示す撮影映像V1を画面全体に表示し、プロキシ映像データの示すプロキシ映像V2を、画面の右隅(図3に向かって右隅)に、撮影映像V1の一部に重畳させて表示する。
カメラ100のユーザは、このような表示部141に表示される撮影映像V1とプロキシ映像V2を見ることにより、カメラ100によって撮影されて記録されている映像と、サーバ300に受信されている映像とを確認することができる。さらに、ユーザは、現時点において表示されている撮影映像V1とプロキシ映像V2とが異なっている場合には、サーバ300に受信されている映像データが、カメラ100で記録されている映像データよりも遅れていることを把握することができる。また、ユーザは、現時点において表示されているプロキシ映像V2と、そのプロキシ映像V2に対応する過去の時点に表示された撮影映像V1との時間差から、映像データの受信がどの程度遅れているかを確認することができる。
図4は、本実施の形態におけるサーバ300の構成を示すブロック図である。
このサーバ300は、システム制御部310と、I/Oバス320と、記録メディア330と、映像エンコーダ341と、映像デコーダ340と、送受信部350とを含む。
記録メディア330は、例えばHDD(Hard Disk Drive)のような大容量でランダムアクセス可能な記録メディアであって、NTFS(New Technology File System)などのファイルシステムでフォーマットされている。
I/Oバス320は、サーバ300に含まれる上記各構成要素間におけるデータの入力および出力を可能にする。
映像デコーダ340は、記録メディア330に格納されている映像データを復号して、その復号された映像データを映像エンコーダ341に出力する。
映像エンコーダ341は、映像デコーダ340から復号された映像データを取得すると、その復号された映像データに対して、低解像度化を行うとともに、カメラ100で用いられた圧縮形式(例えばDVCPRO−HD(SMPTE−370M))よりも高い圧縮率の圧縮形式で符号化を行う。例えば、映像エンコーダ341は、その復号された映像データの画像サイズをQVGA(Quarter VGA)サイズに低解像度化してから、その低解像度化された映像データをMPEG−4(ISO/IEC 14496)形式で符号化することによって、画像サイズがQVGAサイズの圧縮データを上述のプロキシ映像データとして生成して出力する。
送受信部350は、カメラ100から無線ネットワーク400を介して送信された映像データを受信してシステム制御部310に出力する。
さらに、送受信部350は、記録メディア330に格納されるプロキシ映像データをパケット化し、無線ネットワーク400を介して、そのプロキシ映像データのパケットをカメラ100に順次送信する。また、送受信部350は、送信したプロキシ映像データのパケットに対してカメラ100からACKパケットが送信されると、そのACKパケットを受信する。そして、送受信部350は、プロキシ映像データのパケットの送信のタイミングと、そのパケットに対応するACKパケットの受信のタイミングとをシステム制御部310に通知する。
システム制御部310は、例えばCPUとメモリとを含むコンピュータによって実現され、サーバ300に含まれる各構成要素を制御する。このシステム制御部310は、機能的な構成要素として、映像ファイル処理部311と、ファイルシステム管理部312と、送受信状況確認部313と、フレーム間引部314とを備えている。
なお、これらの機能的な構成要素の実現方法や、システム制御部310に含まれる各メモリの実現形態は、カメラ100のシステム制御部110の実現方法または実現形態と同様である。
ファイルシステム管理部312は、記録メディア330に映像データやプロキシ映像データがファイルとして書き込まれるときには、それらのファイルを管理するためのファイルシステムの管理情報を更新する。
映像ファイル処理部311は、ファイルシステム管理部312にファイルシステムの管理情報を更新させながら、映像エンコーダ341から出力されるプロキシ映像データをファイルとして記録メディア330に書き込む。また、映像ファイル処理部311は、上述のプロキシ映像データの書き込みと並行して、ファイルシステム管理部312を介して、記録メディア330からのプロキシ映像データの読み出しを実行し、そのプロキシ映像データを送受信部350に出力する。
さらに、映像ファイル処理部311は、送受信部350から映像データを取得すると、ファイルシステム管理部312にファイルシステムの管理情報を更新させながら、その映像データをファイルとし記録メディア330に書き込む。また、映像ファイル処理部311は、上述の映像データの書き込みと並行して、ファイルシステム管理部312を介して、記録メディア330からの映像データの読み出しを実行し、その映像データを映像デコーダ340に出力する。
送受信状況確認部313は、送受信部350から通知されるタイミングに基づいて、プロキシ映像データのパケットが送信されてから、そのパケットに対応するACKパケットが受信されるまでの時間を計測することにより、無線ネットワーク400を介したデータ送受信の遅延時間を検出する。
フレーム間引部314は、上述のように検出された遅延時間がしきい値以上であるか否かを判別し、しきい値以上であると判別すると、映像エンコーダ341により生成されるプロキシ映像データのピクチャ(またはフレーム)を間引く。具体的には、フレーム間引部314は、映像エンコーダ341に取得される復号された映像データに含まれるピクチャを間引き、残されたピクチャに対する低解像度化および符号化をその映像エンコーダ341に実行させる。例えば、フレーム間引部314は、映像データに含まれるピクチャを1ピクチャおきに間引き、2倍速再生に利用されるようなピクチャだけを残し、その残されたピクチャに対する低解像度化などを映像エンコーダ341に実行させる。以下、このようにピクチャが間引かれる処理をフレーム間引という。
したがって、プロキシ映像データに含まれる各ピクチャは、送受信部350からカメラ100に順次送信されるが、遅延時間がしきい値以上になると、例えば、2枚に1枚の割合で間引かれて送信される。つまり、プロキシ映像データのビットレートが1/2に低下する。
さらに、フレーム間引部314は、しきい値以上になっていた遅延時間がしきい値未満になると、上述のフレーム間引を終了する。
なお、フレーム間引部314は、予め定められた上述のしきい値を保持していてもよく、利用される無線ネットワーク400の帯域に応じて適応的にしきい値を変更してもよい。
ここで、サーバ300の送受信状況確認部313による遅延時間の検出について詳細に説明する。
図5は、カメラ100とサーバ300との間におけるパケットの送受信を示すシーケンス図である。
カメラ100は、映像データのパケットa1,a2,…,anをサーバ300に順次送信する。
次に、サーバ300は、それらのパケットa1,a2,…,anを受信すると、それらのパケットa1,a2,…,anに対応するプロキシ映像データのパケットb1,b2,…,bmを生成してカメラ100に順次送信する。
ここで、サーバ300は、プロキシ映像データのパケットを順次送信するときには、パケットを送信して、カメラ100からそのパケットに対して送信されたACKパケットを受信した後に、プロキシ映像データの次のパケットを送信する。
具体的には、サーバ300は、まず、プロキシ映像データのパケットb1をカメラ100に送信する。カメラ100は、そのパケットb1を正しく受信すると、そのパケットb1に対するACKパケットB1をサーバ300に送信する。次に、サーバ300は、そのACKパケットB1を受信すると、プロキシ映像データの次のパケットb2をカメラ100に送信する。
このように、サーバ300は、ACKパケットの受信によって、送信したプロキシ映像データのパケットがカメラ100に正しく受信されたことを確認しながら、プロキシ映像データのパケットb1,b2,…,bmをカメラ100に順次送信している。
ここで、サーバ300の送受信状況確認部313は、プロキシ映像データのパケットb1が送信されると、そのパケットb1が送信されてから、そのパケットb1に対応するACKパケットB1が受信されるまでの時間を、遅延計測時間td1として計測する。同様に、送受信状況確認部313は、プロキシ映像データのパケットb2が送信されると、そのパケットb2が送信されてから、そのパケットb2に対応するACKパケットB2が受信されるまでの時間を、遅延計測時間td2として計測する。
このように、送受信状況確認部313は、プロキシ映像データのパケットが送信されるごとに、遅延計測時間td1,tb2,…,tdnを計測し、例えば、それらの平均値を算出することによって、上述の遅延時間を検出する。
その後、カメラ100は、上述と同様、映像データのパケットa11,a12,…,a1nをサーバ300に順次送信し、サーバ300は、その送信されたパケットa11,a12,…,a1nを順次受信する。
以上のように、カメラ100とサーバ300との間では、カメラ100からの映像データの送信が終了するまで、映像データおよびプロキシ映像データのそれぞれのパケットとACKパケットとの送受信が繰り返し行われる。そして、送受信状況確認部313は、そのような送受信が行われている中で、上述の遅延時間を検出している。
また、サーバ300の映像エンコーダ341およびフレーム間引部314は、このように送受信状況確認部313で検出された遅延時間に応じて、映像データに対する処理を変更し、プロキシ映像データを生成している。
図6は、映像データおよびプロキシ映像データに含まれるピクチャを示す図である。
映像エンコーダ341は、復号された映像データに含まれるピクチャp1,p2,…を取得する。そして、映像エンコーダ341は、それらのピクチャp1,p2,…を低解像度化して符号化することにより、ピクチャpa1,pa2,…を含むプロキシ映像データを生成する。なお、プロキシ映像データのピクチャpa1,pa2,…のそれぞれの表示時刻は、映像データのピクチャp1,p2,…のそれぞれの表示時刻と一致している。
ここで、フレーム間引部314は、上述のように検出された遅延時間がしきい値以上であると判別すると、映像エンコーダ341に取得された映像データに対してフレーム間引を行う。例えば、フレーム間引部314は、映像データのピクチャp1,p2,p3,p4,p5,p6…のうち、2枚に1枚の割合でピクチャp2,p4,p6,…を間引き、ピクチャp1,p3,p5…を残す。
その結果、映像エンコーダ341は、遅延時間がしきい値以上のときには、残された映像データのピクチャp1,p3,p5…だけを低解像度化して符号化することにより、フレーム間引が行われたプロキシ映像データ、つまり、ピクチャpa1,pa3,pa5…を含むプロキシ映像データを生成する。
次に、カメラ100に受信されるプロキシ映像データの遅延と、その遅延が短縮されることについて、図7および図8を用いて説明する。
図7は、ある時点においてカメラ100およびサーバ300により送受信された映像データおよびプロキシ映像データの一例を示す図である。
カメラ100は、図7の(a)に示すように、映像データの先頭位置から位置500までの区間を既に送信している。
このとき、サーバ300は、図7の(b)に示すように、映像データの先頭位置から位置501までの区間を受信している。つまり、映像データの位置501から上述の位置500までの区間(遅延部分510)は、サーバ300に受信されておらず遅延している。
また、サーバ300は、受信した映像データの一部の区間を用い、その区間に対応する一部のプロキシ映像データを生成し、図7の(c)に示すように、プロキシ映像データの先頭位置から位置502までの区間を既に送信している。
そして、このとき、カメラ100は、図7の(d)に示すように、プロキシ映像データの先頭位置から位置503までの区間を受信している。つまり、プロキシ映像データの位置503から上述の位置502までの区間(遅延部分511)は、カメラ100に受信されておらず遅延している。また、図7の(b)に示すように、サーバ300には、映像データが先頭位置から位置501まで受信されているが、図7の(d)に示すように、カメラ100には、プロキシ映像データが先頭位置から位置503までしか受信されていない。したがって、カメラ100のユーザは、映像データの位置503から位置501がサーバ300に受信されているにもかかわらず、その受信を確認できていない。
そこで、サーバ300の送受信状況確認部313は、プロキシ映像データの遅延部分511が全てカメラ100に受信されるまでの時間を、上述の遅延時間として検出している。
なお、送受信状況確認部313は、プロキシ映像データのパケットを送信してから、そのパケットに対応するACKパケットを受信するまでの時間を計測し、その計測結果に基づいて遅延時間を検出したが、上述のような、プロキシ映像データの位置503および位置502に基づいて遅延時間を検出してもよい。
つまり、送受信状況確認部313は、サーバ300からプロキシ映像データのパケットが送信されるときには、サーバ300でのプロキシ映像データの送信位置(図7の位置502)を、そのパケットに相当するデータの末尾に移動させる。その後、送受信状況確認部313は、そのパケットに対応するACKパケットを受信すると、カメラ100でのプロキシ映像データの受信位置(図7の位置503)を求める。そして、送受信状況確認部313は、プロキシ映像データの受信位置(図7の位置503)から送信位置(図7の位置502)までの区間を遅延部分511として算出し、その遅延部分511をカメラ100が受信するのに要する時間を上述の遅延時間として検出する。
このように遅延時間が検出された結果、フレーム間引部314は、その遅延時間がしきい値以上であると判別すると、フレーム間引によってその遅延時間を縮める。つまり、フレーム間引部314は、サーバ300による受信がカメラ100側で確認されていない映像データの区間(位置503から位置501までの区間)を縮めようとする。
図8は、他の時点においてカメラ100およびサーバ300により送受信された映像データおよびプロキシ映像データの一例を示す図である。なお、この図8によって示される映像データおよびプロキシ映像データの状態は、図7に示すように映像データおよびプロキシ映像データが送受信された時点から、フレーム間引部314によってフレーム間引が開始され、所定時間経過した後の状態である。
具体的には、カメラ100は、この時点では、図8の(a)に示すように、映像データの先頭位置から、上述の位置500よりも後方の位置600までの区間を既に送信している。
このとき、サーバ300は、図8の(b)に示すように、映像データの先頭位置から、上述の位置501よりも後方の位置601までの区間を受信している。つまり、映像データの位置601から上述の位置600までの区間(遅延部分610)は、サーバ300に受信されておらず遅延している。なお、このときの無線ネットワーク400の伝送レートは、図7に示す状態のときと比べて回復しており、遅延部分610は、図7に示す遅延部分510よりも短くなっている。
また、サーバ300は、受信された映像データの一部の区間を用い、その区間に対応する一部のプロキシ映像データを生成し、図8の(c)に示すように、プロキシ映像データの先頭位置から位置602までの区間を既に送信している。
ここで、サーバ300は、プロキシ映像データの先頭位置から位置502までの区間では、その区間に対応する映像データの区間に含まれる全てのピクチャを、プロキシ映像データのピクチャに変換して順次送信している。そして、サーバ300は、プロキシ映像データのその位置502から位置602までの区間では、その区間に対応する映像データの区間に含まれる全てのピクチャから幾つかのピクチャを間引いて、残りのピクチャをプロキシ映像データのピクチャに変換して順次送信している。
つまり、フレーム間引部314は、プロキシ映像データが先頭位置から位置502まで送信されたときに、遅延時間がしきい値以上であると判別し、フレーム間引を開始している。その結果、サーバ300の送受信部350は、位置502から位置602までの区間のプロキシ映像データを送信するときには、そのビットレートを、それまでのプロキシ映像データのビットレートよりも下げて送信している。
また、上述のように、プロキシ映像データの位置502から位置602までの区間では、映像データに含まれるピクチャのうち幾つかのピクチャが間引かれ、残りのピクチャに対して低解像度化および符号化が行われている。したがって、サーバ300の映像エンコーダ341では、位置502以降のプロキシ映像データの生成にかかる処理負担が軽減されている。その結果、図8の(b)に示す、サーバ300に受信された映像データのうち、それに対応するプロキシ映像データが送信されていない区間(位置602から位置601までの区間)は、図7に示す区間(位置502から位置501までの区間)よりも短くなっている。
そして、このとき、カメラ100は、図8の(d)に示すように、プロキシ映像データの先頭位置から位置603までの区間を受信している。ここで、カメラ100は、プロキシ映像データの先頭位置から位置502までの区間を、高ビットレートで受信し、その位置502から位置603までの区間を、低ビットレートで受信している。つまり、単位時間あたりに受信されるプロキシ映像データのピクチャの枚数が、プロキシ映像データの位置502から位置603までの区間では、それまでの区間よりも少なくなっている。
その結果、プロキシ映像データの位置603から位置602までの区間(遅延部分611)は、ビットレートの低下によって、図7に示す遅延部分511よりも短くなっている。なお、このときの無線ネットワーク400の伝送レートは、上述のように、図7に示す状態のときと比べて回復している。したがって、遅延部分611は、この伝送レートの回復にも影響されて短くなっている。
このように、本実施の形態では、サーバ300に受信された映像データのうち、それに対応するプロキシ映像データが送信されていない区間(位置602から位置601までの区間)を短くすることができるとともに、プロキシ映像データの遅延部分611を短くすることができる。その結果、サーバ300による受信がカメラ100側で確認されていない映像データの区間(位置603から位置601までの区間)を縮めることができる。
したがって、カメラ100はプロキシ映像データを速く受信することができるとともに、プロキシ映像データのピクチャが間引かれた区間を速く再生することができるため、プロキシ映像の遅延を取り戻して、撮影映像の進行状況に近づけることが可能となる。
図9は、本実施の形態における全体的な映像伝送方法を説明するための図である。
カメラ100は映像データのパケットをサーバ300に順次送信し、サーバ300はその送信されたパケットを順次受信する(ステップS100)。
サーバ300は、それらの受信されたパケットに含まれる部分の映像データを復号し、低解像度化および符号化することにより、その部分に対応する一部のプロキシ映像データを生成する(ステップS102)。
そして、サーバ300は、その一部のプロキシ映像データをパケット化して、プロキシ映像データのパケットをカメラ100に順次送信し、カメラ100は、そのパケットを正しく受信するごとに、そのパケットに対応するACKパケットをサーバ300に送信する(ステップS104)。
ここで、サーバ300は、プロキシ映像データのパケットの送信およびACKパケットの受信のタイミングに基づいて遅延時間を検出する(ステップS106)。そして、サーバ300は、その検出した遅延時間がしきい値以上であると判別すると、以後、プロキシ映像データを生成するときには、フレーム間引を行う。
次に、上記ステップS100と同様、カメラ100が映像データの続きのパケットをサーバ300に順次送信すると、サーバ300はその送信されたパケットを順次受信する(ステップS108)。
サーバ300は、上記ステップS102と同様、それらの受信されたパケットに含まれる部分の映像データを復号し、低解像度化および符号化することにより、その部分に対応する一部のプロキシ映像データを生成する(ステップS110)。このとき、サーバ300は、上述のようにステップS106で検出された遅延時間がしきい値以上であるため、その一部のプロキシ映像データを生成するときには、フレーム間引を行っている。
そして、サーバ300は、その一部のプロキシ映像データをパケット化して、プロキシ映像データのパケットをカメラ100に順次送信し、カメラ100は、そのパケットを正しく受信するごとに、そのパケットに対応するACKパケットをサーバ300に送信する(ステップS112)。このステップS112では、先のステップS110でフレーム間引が行われているため、サーバ300は、上記ステップS104で送信されるプロキシ映像データのピクチャ数よりも少ない数のピクチャ分のプロキシ映像データをパケット化して送信している。つまり、サーバ300は、低ビットレートでその一部のプロキシ映像データをカメラ100に送信している。
また、サーバ300は、上記ステップS106と同様、プロキシ映像データのパケットの送信およびACKパケットの受信のタイミングに基づいて遅延時間を検出する(ステップS114)。そして、前回と同様に、その検出した遅延時間がしきい値以上であるとサーバ300で判別されると、カメラ100およびサーバ300は、ステップS108〜S114までの処理を繰り返し実行する。
その後、サーバ300は、遅延時間を検出し(ステップS116)、その遅延時間がしきい値未満であると判別すると、以後、プロキシ映像データを生成するときには、フレーム間引を行わない。
したがって、カメラ100から映像データの続きのパケットが送信されると(ステップS118)、カメラ100およびサーバ300は、ステップS102〜S106と同様の処理を繰り返し実行する(ステップS120〜S124)。
図10は、本実施の形態におけるサーバ300の動作を示すフローチャートである。
まず、サーバ300は、遅延時間を0に初期設定しておく(ステップS200)。そして、サーバ300は、カメラ100から映像データのパケットを受信したか否かを判別する(ステップS202)。ここで、サーバ300は、受信していないと判別すると(ステップS202のN)、処理を終了し、受信したと判別すると(ステップS202のY)、さらに、遅延時間がしきい値以上であるか否かを判別する(ステップS206)。
サーバ300は、遅延時間がしきい値未満であると判別すると(ステップS206のN)、その受信した映像データのパケットに対応する一部のプロキシ映像データを、フレーム間引することなく生成する(ステップS208)。一方、サーバ300は、遅延時間がしきい値以上であると判別すると(ステップS206のY)、その受信した映像データのパケットに対応する一部のプロキシ映像データを、フレーム間引を行いながら生成する(ステップS210)。
そして、サーバ300は、ステップS208またはステップS210で生成されたプロキシ映像データのパケットをカメラ100に送信し(ステップS212)、そのパケットに対応するACKパケットをカメラ100から受信する(ステップS214)。その後、サーバ300は、ステップS208またはステップS210で生成された一部のプロキシ映像データの最後のパケットを送信したか否かを判別する(ステップS216)。
ここで、サーバ300は、最後のパケットを送信していないと判別すると(ステップS216のN)、ステップS212からの処理を繰り返し実行する。一方、サーバ300は、最後のパケットを送信したと判別すると(ステップS216のY)、ステップS212およびステップS214のタイミングに基づいて遅延時間を検出する(ステップS218)。ステップS218で遅延時間を検出すると、サーバ300は、再びステップS202からの処理を繰り返し実行する。
以上のように、本実施の形態では、カメラ100が送信した映像データがプロキシ映像データとしてサーバ300から送り返されるため、カメラ100のユーザは、その送信した映像データがサーバ300に確かに受信されていることを適切に確認することができる。つまり、ユーザは、カメラ100に映し出されるプロキシ映像を見て、サーバ300に受信されている映像データの進行状況を適切に確認することができる。
さらに、無線ネットワーク400の遅延時間が検出され、その遅延時間が長いほど、サーバ300からカメラ100に送信されるプロキシ映像データのデータ量が削減されるため、遅延時間が長くなっても、カメラ100によるそのプロキシ映像データの受信が遅れるのを防ぐことができる。言い換えれば、プロキシ映像の画質を低くすることで、その遅れを取り戻すことができる。
したがって、カメラ100のユーザは、カメラ100から送信された映像データ(撮影映像)がサーバ300に確かに受信されているかを、適切で且つ迅速に確認することができる。
また、本実施の形態では、フレーム間引部314が、フレーム間引を実行するときには、低解像度化および符号化が行われる前の映像データからピクチャを間引くため、生成されたプロキシ映像データからピクチャを間引く場合と比べて、低解像度化および符号化の処理負担を減らすことができる。その結果、サーバ300はプロキシ映像データをカメラ100に迅速に送信することができる。
(変形例)
上記実施の形態では、遅延時間が長くなった時に、ピクチャが間引かれながらプロキシ映像データが生成されて送信される。その結果、ピクチャが間引かれている区間では、そのプロキシ映像データの示すプロキシ映像の画質は低下してしまう。したがって、映像データがサーバ300に受信されたことをユーザが十分に確認できない可能性がある。そこで、本変形例では、プロキシ映像データにおいて、低画質でプロキシ映像が表示された区間(以下、低画質区間という)を特定し、その区間を示す情報をリストファイル(区間情報)として記録する。これにより、ユーザは、そのリストファイルの示す低画質区間を利用し、映像データ(映像ファイル)を保存しておくべきか、削除してもよいかなどを判断することができ、ユーザの利便性を向上することができる。
上記実施の形態では、遅延時間が長くなった時に、ピクチャが間引かれながらプロキシ映像データが生成されて送信される。その結果、ピクチャが間引かれている区間では、そのプロキシ映像データの示すプロキシ映像の画質は低下してしまう。したがって、映像データがサーバ300に受信されたことをユーザが十分に確認できない可能性がある。そこで、本変形例では、プロキシ映像データにおいて、低画質でプロキシ映像が表示された区間(以下、低画質区間という)を特定し、その区間を示す情報をリストファイル(区間情報)として記録する。これにより、ユーザは、そのリストファイルの示す低画質区間を利用し、映像データ(映像ファイル)を保存しておくべきか、削除してもよいかなどを判断することができ、ユーザの利便性を向上することができる。
このような本変形例について、以下、詳細に説明する。
図11は、本変形例に係るカメラの構成を示すブロック図である。
本変形例に係るカメラ700は、上記実施の形態のカメラ100のシステム制御部110の代わりに、そのシステム制御部110と機能が異なるシステム制御部710を備え、カメラ100のシステム制御部110を除く他の構成要素と同一の構成要素を有している。なお、カメラ700に含まれる構成要素のうち、カメラ100に含まれる構成要素と同一の構成要素については、詳細な説明を省略する。
システム制御部710は、上記実施の形態のシステム制御部110に含まれている映像ファイル処理部111およびファイルシステム管理部112を備えているとともに、リストファイル処理部713も備えている。
リストファイル処理部713は、送受信部150に受信されるプロキシ映像データのビットレートを監視する。そして、リストファイル処理部713は、プロキシ映像データにおいて、ビットレートが所定のレートしきい値よりも低くなっている区間を上述の低画質区間として特定し、その低画質区間を示すリストファイルを生成して記録メディア131に記録する。
図12は、プロキシ映像データのビットレートとリストファイルの一例を示す図である。
リストファイル処理部713は、図12(a)に示すように、送受信部150にプロキシ映像データが受信されている間、そのプロキシ映像データのビットレートを監視している。そして、リストファイル処理部713は、ビットレートがレートしきい値以上からレートしきい値未満に変化した低下時刻と、ビットレートがレートしきい値未満からレートしきい値以上に変化した上昇時刻とを特定する。具体的には、リストファイル処理部713は、低下時刻として時刻t1,t3,t5を特定し、上昇時刻として時刻t2,t4,t6を特定する。
なお、レートしきい値は、例えば、フレーム間引が行われることなく生成されたプロキシ映像データが受信されるときのビットレートを標準ビットレートとした場合、その標準ビットレートの1/2のビットレートである。
さらに、リストファイル処理部713は、図12(b)に示すように、上述のように特定された低下時刻から上昇時刻までの区間を低画質区間として示すリストファイルLfを生成する。例えば、リストファイル処理部713は、特定された低下時刻、およびその直後の上昇時刻を、それぞれIN点およびOUT点として扱い、そのIN点およびOUT点からなる組をリストファイルLfに順次記録していく。
具体的には、リストファイル処理部713は、1番目の組(IN点t1,OUT点t2)、2番目の組(IN点t3,OUT点t4)および3番目の組(IN点t5,OUT点t6)をそれぞれ順にリストファイルLfに記録する。
このように生成されたリストファイルLfは、各組の示すIN点からOUT点までの区間が、フレーム間引が行われて生成されたプロキシ映像データの区間、すなわちプロキシ映像が低画質で表示された低画質区間であることを示す。さらに、そのIN点およびOUT点は、プロキシ映像の低画質区間、または、その低画質区間に対応する撮影映像(映像データ)の区間の始点および終点にあるピクチャに対応している。
また、リストファイル処理部713は、生成したリストファイルLfにファイル名を付けるときには、そのファイル名に含まれる拡張子以外の部分を、映像ファイルのファイル名に含まれる拡張子以外の部分と同じにしておく。なお、その映像ファイルは、そのリストファイルLfの生成に用いられたプロキシ映像データに対応する映像ファイルである。例えば、送信された映像ファイルのファイル名が001a.mxfであった場合、リストファイル処理部713は、リストファイルLfのファイル名を001a.txtとしておく。こうすることで、リストファイルLfを映像ファイルに関連付けることができ、リストファイル処理部713は、リストファイルLfがどの映像ファイルのIN点およびOUT点の組を示しているかを把握することができる。
さらに、リストファイル処理部713は、入力部140にユーザからの再確認の指示が受け付けられると、記録メディア131に記録されているリストファイルLfからIN点およびOUT点の組を順次読み出し、各組を示すアイコンを表示部141に表示させる。
図13は、表示部141に表示されるアイコンの一例を示す図である。
リストファイル処理部713は、例えば図12(b)に示すリストファイルLfを記録メディア131から読み出すと、そのリストファイルLfに配列さている1番目、2番目および3番目の組をそれぞれ示すアイコンI1,I2,I3を表示部141に表示させる。
ここで、ユーザが入力部140を操作することで何れかのアイコンを選択すると、リストファイル処理部713は、選択されたアイコンの示す組により特定される映像データの区間を記録メディア131から読み出し、その区間分の映像データを映像デコーダ144に復号させて撮影映像を表示部141に表示させる。
このように、本変形例では、ユーザは、映像データがサーバ300に受信されたかをプロキシ映像で確認できなかった低画質区間を、記録されている映像データの撮影映像で確認することができる。したがって、ユーザは、サーバ300に確実に受信されたか不安が残る映像ファイルを残したり、確実に受信されたかどうか不明だが重要なシーンがないので映像ファイルを削除したりと、ファイル削除の判断を容易に行うことができる。
以上、本発明に係る映像伝送方法について、上記実施の形態およびその変形例を用いて説明したが、本発明は、これらに限定されるものではない。
例えば、本実施の形態およびその変形例では、無線ネットワークを利用したデータの伝送を行ったが、ADSL(Asymmetric Digital Subscriber Line)やFTTx(Fiber To The x)などの有線ネットワークであっても、無線ネットワークと有線ネットワークの組み合わせであっても構わない。
また、本実施の形態およびその変形例では、映像データのパケットとACKパケットを同じ無線ネットワークで伝送したが、ACKパケットの伝送をネットワーク遅延が小さい別のネットワークで行ってもよい。例えば、携帯電話で採用されているCDMA(Code Division Multiple Access)方式の無線ネットワークを利用してACKパケットを伝送してもよい。
また、本実施の形態およびその変形例では、ACKパケットを用いてデータの受信位置を把握すると説明したが、ACKパケットに限定されるものではなく、例えばデータの受信位置情報自体を送信してもよい。
なお、確認用映像のプロキシ映像データのフレーム間引では、ビットレートを1/2にしてエンコードすると説明したが、ネットワーク遅延(遅延時間)の値によって段階的にビットレートを変化させてもよい。
また、フレーム間引では、単に1ピクチャ(フレーム)おきにピクチャを間引くのではなく、MPEGのようなフレーム間圧縮を行う形式ではIピクチャだけを残してPピクチャやBピクチャを間引くようにしてもよい。さらに、フレーム間引の処理単位を1GOP(Group Of Pictures)単位でもよく、複数のGOP単位としてもよい。
また、本実施の形態およびその変形例では、カメラが記録する映像データの圧縮形式をDVCPRO−HD形式とし、プロキシ映像データの圧縮形式をMPEG−4形式としたが、その圧縮形式に限定されるものではない。
また、本実施の形態およびその変形例では、プロキシ映像データの送信先を、その元となる映像データを送信したカメラとしたが、そのカメラ以外の装置としてもよく、複数の装置としてもよい。例えば、同じ撮影現場にある無線ネットワーク機能を持つモバイル編集機にプロキシ映像データを送信して、そのモバイル編集機で、映像データの送信進行状況を確認してもよい。
また、本実施の形態およびその変形例では、映像データの記録を行ったカメラがその映像を送信したが、映像データを記録した記録メディアを別の装置に移して、その装置から映像データを送信してプロキシ映像を受信してもよい。
また、本実施の形態およびその変形例では、図3に示すように確認用映像であるプロキシ映像を右下の小さな領域に表示したが、ユーザの指示によってその領域を移動したり、プロキシ映像の表示と非表示とを切り替えたりしてもよく、その小さな領域での表示を、撮影用の大きな画面での表示に切り替えるようにしてもよい。
また、本実施の形態および変形例では、映像データをファイルとして着脱可能な記録メディアに記録したが、記録メディアはカメラに内蔵されたHDやフラッシュメモリでもよく、USB(Universal Serial Bus)などのインタフェースでカメラに接続されたHDなどであってもよい。
また、上記変形例では、ビットレートが標準ビットレートの1/2未満であるかどうかに応じて、IN点とOUT点を設定したが、1/2という数字に限定されるものではなく、ユーザによって自由に設定できるようにしてもよい。
また、上記変形例では、リストファイルを記録メディアに記録すると説明したが、カメラに内蔵されているフラッシュメモリなどの不揮発メモリに記録してもよい。
また、上記変形例では、リストファイルと映像ファイルとの関連付けを、ファイル名の拡張子以外の部分を同じにすることで行ったが、リストファイル名は任意にしておいてリストファイル内に映像ファイルのファイル名を記録することで関連付けを行ってもよい。その場合、リストファイルを映像ファイル毎に作る必要がなく、一つのリストファイルだけを作成し、そのリストファイルに、映像ファイルごとに、その映像ファイルのファイル名と、その映像ファイルに対応するIN点およびOUT点の組とを記録してもよい。
また、本変形例では、リストファイルに載っているIN点およびOUT点の組をアイコンで表示させたが、単にリストファイルの内容を表示させるだけでもよい。また、アイコンとして、IN点に相当する映像データのピクチャ(フレーム)のサムネイルを表示させてもよく、さらには、IN点から数秒だけ再生した映像データのピクチャ(フレーム)のサムネイルを表示させてもよい。
また、本変形例では、カメラ700は低画質区間に対応する映像データの区間を記録メディア131から読み出して再生したが、その映像データの区間をサーバ300に再送してもよい。これにより、カメラ700のユーザは、映像データを確実にサーバ300に送信することができる。
本発明に係る映像伝送方法は、ファイルとして記録した映像データを確実にネットワーク送信する用途において有用であり、例えば、通信機能を有するカメラと、そのカメラと通信するサーバとを有するシステムなどに適用することができ、特に、放送用や業務用のビデオカメラで行われる撮影のように、放送局に撮影した映像データを確実に送信するとともに、すぐに次の撮影に取りかかりたい場合に適している。
100 カメラ
110 システム制御部
111 映像ファイル処理部
112 ファイルシステム管理部
120 I/Oバス
130 記録メディアI/F部
131 記録メディア
140 入力部
141 表示部
142 映像エンコーダ
143 映像入力部
144 映像デコーダ
150 送受信部
300 サーバ
310 システム制御部
311 映像ファイル処理部
312 ファイルシステム管理部
313 送受信状況確認部
314 フレーム間引部
320 I/Oバス
330 記録メディア
340 映像デコーダ
341 映像エンコーダ
350 送受信部
700 カメラ
710 システム制御部
713 リストファイル処理部
110 システム制御部
111 映像ファイル処理部
112 ファイルシステム管理部
120 I/Oバス
130 記録メディアI/F部
131 記録メディア
140 入力部
141 表示部
142 映像エンコーダ
143 映像入力部
144 映像デコーダ
150 送受信部
300 サーバ
310 システム制御部
311 映像ファイル処理部
312 ファイルシステム管理部
313 送受信状況確認部
314 フレーム間引部
320 I/Oバス
330 記録メディア
340 映像デコーダ
341 映像エンコーダ
350 送受信部
700 カメラ
710 システム制御部
713 リストファイル処理部
Claims (16)
- 第1および第2の端末装置の間で映像に関するデータを送受信する映像伝送方法であって、
前記第1の端末装置が前記第2の端末装置に主映像を示す主映像データを送信する主映像送信ステップと、
前記第2の端末装置が前記第1の端末装置から前記主映像データを受信する主映像受信ステップと、
前記第2の端末装置が、受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、
前記第2の端末装置が、前記第1の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、
前記第2の端末装置が、検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、
前記第2の端末装置が前記第1の端末装置に前記副映像データを送信する副映像送信ステップと、
前記第1の端末装置が前記第2の端末装置から前記副映像データを受信する副映像受信ステップと
を含む映像伝送方法。 - 前記副映像生成ステップでは、
前記第2の端末装置は、前記主映像データの示す主映像の解像度を低下させることにより前記副映像データを生成する
請求項1記載の映像伝送方法。 - 前記調整ステップでは、
前記第2の端末装置は、検出した前記遅延時間が長いほど、前記副映像データのデータ量を少なくして、前記副映像送信ステップで送信される前記副映像データのビットレートを低下させる
請求項1記載の映像伝送方法。 - 前記映像伝送方法は、さらに、
前記第2の端末装置が、検出した前記遅延時間が予め定められたしきい値以上であるか否かを判別する遅延判別ステップを含み、
前記調整ステップでは、
前記第2の端末装置は、
前記遅延判別ステップで前記遅延時間が前記しきい値以上であると判別したときに、前記副映像データのデータ量を、前記遅延時間が前記しきい値未満であったときの前記副映像データのデータ量よりも少なくする
請求項1記載の映像伝送方法。 - 前記遅延時間検出ステップでは、
前記第2の端末装置は、
前記第1の端末装置に第1のデータを送信し、
前記データが前記第1の端末装置に受信されたことを通知するための第2のデータを前記第1の端末装置から受信し、
前記第1のデータが送信されてから前記第2のデータが受信されるまでの時間を計測することにより前記遅延時間を検出する
請求項1記載の映像伝送方法。 - 前記遅延時間検出ステップでは、
前記第2の端末装置は、
前記副映像生成ステップで生成された前記副映像データを前記第1のデータとして前記第1の端末装置に送信する
請求項5記載の映像伝送方法。 - 前記調整ステップでは、
前記第2の端末装置は、
受信した前記主映像データを構成する複数のピクチャから何れかのピクチャを間引くことにより、前記副映像データのデータ量を少なくする
請求項1記載の映像伝送方法。 - 前記映像伝送方法は、さらに、
前記第1の端末装置が、受信した前記副映像データの示す副映像の画質がしきい値未満となっている、前記副映像データの時間軸上の区間を低画質区間として特定する区間特定ステップと、
前記第1の端末装置が、特定した前記低画質区間を示す区間情報を記録媒体に記録する記録ステップとを含む
請求項1記載の映像伝送方法。 - 前記区間特定ステップでは、
前記第1の端末装置は、
前記副映像データを受信している間、前記副映像データのビットレートを検出し、前記ビットレートがレートしきい値未満となっている区間を前記低画質区間として特定する
請求項8記載の映像伝送方法。 - 前記映像伝送方法は、さらに、
前記第1の端末装置が、前記記録媒体から前記区間情報を読み出す区間読出ステップと、
前記第1の端末装置が、読み出した前記区間情報により示される低画質区間に対応する前記主映像データの区間の主映像を表示する区間表示ステップとを含む
請求項8記載の映像伝送方法。 - 前記映像伝送方法は、さらに、
前記第1の端末装置が撮影することにより前記主映像データを生成する主映像生成ステップを含む
請求項1記載の映像伝送方法。 - 前記映像伝送方法は、さらに、
前記第1の端末装置が、撮影により生成される前記主映像データの主映像と、受信する前記副映像データの副映像とを表示する映像表示ステップを含む
請求項11記載の映像伝送方法。 - 端末装置が他の端末装置との間で映像に関するデータを送受信する映像伝送方法であって、
前記他の端末装置から、主映像を示す主映像データを受信する主映像受信ステップと、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、
前記他の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、
検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、
前記他の端末装置に前記副映像データを送信する副映像送信ステップと
を含む映像伝送方法。 - 他の端末装置との間で映像に関するデータを送受信する端末装置であって、
前記他の端末装置から、主映像を示す主映像データを受信する主映像受信部と、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成部と、
前記他の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出部と、
検出した前記遅延時間が長いほど、前記副映像生成部で生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整部と、
前記他の端末装置に前記副映像データを送信する副映像送信部と
を備える端末装置。 - 端末装置が他の端末装置との間で映像に関するデータを送受信するためのプログラムであって、
前記他の端末装置から、主映像を示す主映像データを受信する主映像受信ステップと、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、
前記他の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、
検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、
前記他の端末装置に前記副映像データを送信する副映像送信ステップと
を前記端末装置のコンピュータに実行させるプログラム。 - 端末装置との間で映像に関するデータを送受信する集積回路であって、
前記端末装置から、主映像を示す主映像データを受信する主映像受信部と、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成部と、
前記端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出部と、
検出した前記遅延時間が長いほど、前記副映像生成部で生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整部と、
前記端末装置に前記副映像データを送信する副映像送信部と
を備える集積回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008170371A JP2010011287A (ja) | 2008-06-30 | 2008-06-30 | 映像伝送方法および端末装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008170371A JP2010011287A (ja) | 2008-06-30 | 2008-06-30 | 映像伝送方法および端末装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010011287A true JP2010011287A (ja) | 2010-01-14 |
Family
ID=41591198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008170371A Pending JP2010011287A (ja) | 2008-06-30 | 2008-06-30 | 映像伝送方法および端末装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010011287A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5607084B2 (ja) * | 2010-02-15 | 2014-10-15 | パナソニック株式会社 | コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム |
JP2017092646A (ja) * | 2015-11-06 | 2017-05-25 | 株式会社リコー | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
JP2017112455A (ja) * | 2015-12-15 | 2017-06-22 | キヤノン株式会社 | 情報処理装置 |
US9729867B2 (en) | 2011-07-29 | 2017-08-08 | Panasonic Intellectual Property Management Co., Ltd. | Wireless communication terminal and communication control method |
-
2008
- 2008-06-30 JP JP2008170371A patent/JP2010011287A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5607084B2 (ja) * | 2010-02-15 | 2014-10-15 | パナソニック株式会社 | コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム |
US9729867B2 (en) | 2011-07-29 | 2017-08-08 | Panasonic Intellectual Property Management Co., Ltd. | Wireless communication terminal and communication control method |
JP2017092646A (ja) * | 2015-11-06 | 2017-05-25 | 株式会社リコー | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
JP2017112455A (ja) * | 2015-12-15 | 2017-06-22 | キヤノン株式会社 | 情報処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101868280B1 (ko) | 정보 처리 장치, 정보 처리 방법 및 컴퓨터 판독 가능한 기록 매체 | |
US12003887B2 (en) | Image encoding method, image encoder and image transmission system | |
US8875208B1 (en) | High quality multimedia transmission from a mobile device for live and on-demand viewing | |
US9699518B2 (en) | Information processing apparatus, information processing system, recording medium, and method for transmission and reception of moving image data | |
US20150373075A1 (en) | Multiple network transport sessions to provide context adaptive video streaming | |
US9153127B2 (en) | Video transmitting apparatus, video receiving apparatus, and video transmission system | |
KR20160110472A (ko) | 상이한 인코딩 파라미터를 이용해 인코딩되는 복수의 인코딩 스트리밍 | |
JP2019083555A (ja) | 情報処理装置、コンテンツ要求方法およびコンピュータプログラム | |
CN107040825B (zh) | 终端、电视机、多屏互动系统和抓屏参数的设置方法 | |
JP2007274443A (ja) | 画像伝送方法、送信装置、受信装置及び画像伝送システム | |
JP4526294B2 (ja) | ストリームデータ送信装置、受信装置、プログラムを記録した記録媒体、およびシステム | |
JP2010011287A (ja) | 映像伝送方法および端末装置 | |
US20090244305A1 (en) | Video Recording System and Imaging Apparatus | |
US8768140B2 (en) | Data processing unit and data encoding device | |
JP6193569B2 (ja) | 受信装置、受信方法、及びプログラム、撮像装置、撮像方法、及びプログラム、送信装置、送信方法、及びプログラム | |
US20110317758A1 (en) | Image processing apparatus and method of processing image and video | |
KR101830882B1 (ko) | 제어 패킷 생성 방법 및 그 장치 | |
KR20140070896A (ko) | 비디오 스트리밍 방법 및 그 전자 장치 | |
WO2015020069A1 (ja) | データ処理装置、データ処理方法、プログラム、記録媒体及びデータ処理システム | |
WO2014076823A1 (ja) | 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法 | |
JP5488694B2 (ja) | リモート型携帯通信システム、サーバ装置及びリモート型携帯通信システム制御方法 | |
JP2004349743A (ja) | 映像ストリーム切替システム、方法、映像ストリーム切替システムを含む映像監視、映像配信システム | |
JP2009290790A (ja) | 映像送信装置および映像送信方法 | |
JP2009164964A (ja) | 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム | |
JP2002369055A (ja) | 撮像記録装置 |