[go: up one dir, main page]

JP2020017803A - Information processing unit, method, and program - Google Patents

Information processing unit, method, and program Download PDF

Info

Publication number
JP2020017803A
JP2020017803A JP2018137939A JP2018137939A JP2020017803A JP 2020017803 A JP2020017803 A JP 2020017803A JP 2018137939 A JP2018137939 A JP 2018137939A JP 2018137939 A JP2018137939 A JP 2018137939A JP 2020017803 A JP2020017803 A JP 2020017803A
Authority
JP
Japan
Prior art keywords
data
image data
camera
cameras
transmission path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018137939A
Other languages
Japanese (ja)
Inventor
半田 雅大
Masahiro Handa
雅大 半田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018137939A priority Critical patent/JP2020017803A/en
Publication of JP2020017803A publication Critical patent/JP2020017803A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

To generate a virtual viewpoint image of high picture quality, while suppressing expansion cost of transmission band.SOLUTION: Cameras are grouped for each photography region so that the transfer cost allocated to two transmission routes is standardized. In the case of a photography region 30, cameras 120 and 122 belong to group 1, and cameras 121 and 123 and 124 belong to group 2 for allocating the transfer cost as uniform as possible. Similarly, a photography region 31 is grouped to group 3 and group 4 so as to allocate the transfer cost as uniform as possible. Thereafter, a determination is made for each photography region, to which of the transmission routes A, B each group is allocated. As a result, the cost 405 of each transmission route aggregating the transfer costs by combining the groups allocated to the same transmission route of the photography regions 30, 31 is standardized and equalized.SELECTED DRAWING: Figure 4

Description

本発明は、画像データの伝送に関する。   The present invention relates to transmission of image data.

昨今、複数のカメラを異なる位置に設置し、各カメラから得られた複数視点画像を用いて仮想視点画像を生成する技術が注目されている。複数視点画像から生成された仮想視点画像は、エンドユーザ及び/又は選任のオペレータ等が自由に仮想視点に対応するカメラ(仮想カメラ)の位置及び姿勢を操作することによって生成される画像であり、自由視点画像や任意視点画像などとも呼ばれる。また、仮想視点画像は、動画であっても、静止画であってもよい。仮想視点画像は、通常の画像と比較してユーザにより高い臨場感を与えることが出来る。   In recent years, a technique of installing a plurality of cameras at different positions and generating a virtual viewpoint image using a plurality of viewpoint images obtained from each camera has been attracting attention. The virtual viewpoint image generated from the multiple viewpoint image is an image generated by an end user and / or an appointed operator or the like freely operating the position and orientation of a camera (virtual camera) corresponding to the virtual viewpoint, It is also called a free viewpoint image or an arbitrary viewpoint image. The virtual viewpoint image may be a moving image or a still image. The virtual viewpoint image can give the user a higher sense of realism as compared with a normal image.

仮想視点画像は、典型的には、被写体(以降、前景オブジェクトという)を複数の方向から撮影して得られる画像データをサーバに集約し、集約した画像データを用いて画像処理を行うことによって生成される。特許文献1では、異なる視点からの複数の画像データと視点情報とを含むコンテンツデータを記憶メディアに格納し、記憶メディアから画像データを読み出し、再生装置にて仮想視点画像を生成する技術が開示されている。   A virtual viewpoint image is typically generated by collecting image data obtained by photographing a subject (hereinafter referred to as a foreground object) from a plurality of directions on a server and performing image processing using the collected image data. Is done. Patent Literature 1 discloses a technique in which content data including a plurality of image data from different viewpoints and viewpoint information is stored in a storage medium, the image data is read from the storage medium, and a playback apparatus generates a virtual viewpoint image. ing.

また、スポーツ観戦などでは仮想視点画像をリアルタイムに近いタイミングで生成したいという需要も高い。そのような需要に応えるには、撮影から短時間で仮想視点画像を生成する必要がある。リアルタイムに近いタイミングで画質の高い仮想視点画像を生成するには、複数のカメラから複数の画像データを遅滞なくサーバに転送し、集約することが求められる。   Further, there is a high demand for generating a virtual viewpoint image at a timing near real time in watching sports. In order to meet such demands, it is necessary to generate a virtual viewpoint image in a short time from shooting. In order to generate a high-quality virtual viewpoint image at a timing close to real time, it is necessary to transfer a plurality of image data from a plurality of cameras to a server without delay and aggregate them.

特開2014−215828号公報JP 2014-215828 A

一方で、個々の画像の解像度はカメラの性能向上に伴い8Kなどより高解像度なものが使用されてきており、転送する画像データのサイズが大きくなっている。そのため、複数のカメラから高解像度の画像データをサーバに転送する際、一部の伝送経路の伝送帯域が不足し、撮影から短時間で仮想視点画像又は自由視点画像を安定的に生成できない場合もあった。この伝送帯域の不足を改善する方法としては、伝送経路の帯域を拡張することや、転送する画像データの解像度及び/又はフレームレートを下げることによりデータサイズを小さくすることが考えれる。   On the other hand, as the resolution of each image, a higher resolution such as 8K has been used as the performance of the camera has improved, and the size of image data to be transferred has been increased. Therefore, when transferring high-resolution image data from a plurality of cameras to a server, the transmission bandwidth of some transmission paths may be insufficient, and a virtual viewpoint image or a free viewpoint image may not be stably generated in a short time from shooting. there were. As a method of improving the shortage of the transmission band, it is conceivable to extend the band of the transmission path or reduce the data size by reducing the resolution and / or the frame rate of the image data to be transferred.

しかしながら、伝送帯域を拡張するにはコストがかかり、各カメラからの画像の解像度及び/又はフレームレートを下げると仮想視点画像の画質が劣化するという課題があった。   However, there is a problem that extending the transmission band is costly, and lowering the resolution and / or frame rate of the image from each camera degrades the image quality of the virtual viewpoint image.

そこで、本発明は、伝送帯域の拡張コストを抑えつつ、画質が高い仮想視点画像を生成できるようにすることを目的とする。   Therefore, an object of the present invention is to be able to generate a virtual viewpoint image with high image quality while suppressing the expansion cost of the transmission band.

本発明は、複数のカメラの撮影画像データに所定の画像処理を施した複数の画像データを複数の伝送経路を介してサーバ装置に転送するシステムにおける各前記画像データのデータ転送に使用する伝送経路を決定する情報処理装置であって、前記複数のカメラのそれぞれについて、前記撮影画像データに前記所定の画像処理を施した場合のデータサイズを算出する第1の算出手段と、前記データサイズに基づき、前記所定の画像処理を施した場合のデータサイズが同期して変化する前記撮影画像データを出力するカメラ群毎に、前記複数の伝送経路の使用率が平準化するよう、各前記画像データのデータ転送に使用する伝送経路を決定する決定手段と、を備えたことを特徴とする情報処理装置である。   The present invention relates to a transmission path used for data transfer of each of the image data in a system for transferring a plurality of image data obtained by performing predetermined image processing to photographed image data of a plurality of cameras to a server device through a plurality of transmission paths. An information processing apparatus for determining, for each of the plurality of cameras, a first calculation unit that calculates a data size when the predetermined image processing is performed on the captured image data, based on the data size. For each camera group that outputs the photographed image data whose data size changes in synchronization with the predetermined image processing, the usage rate of the plurality of transmission paths is leveled so that the use rates of the plurality of transmission paths are equalized. An information processing apparatus comprising: a determination unit that determines a transmission path used for data transfer.

本発明によれば、伝送帯域の拡張コストを抑えつつ、画質が高い仮想視点画像を生成できるようになる。   According to the present invention, it is possible to generate a virtual viewpoint image with high image quality while suppressing the cost of expanding the transmission band.

実施形態1における画像データ集約システムの構成図。FIG. 1 is a configuration diagram of an image data aggregation system according to a first embodiment. データ集約サーバA100の機能ブロック図。FIG. 3 is a functional block diagram of a data aggregation server A100. 前景オブジェクト領域のデータサイズの算出方法の原理を説明する図。FIG. 4 is a diagram illustrating the principle of a method for calculating the data size of a foreground object area. 実施形態1における前景オブジェクト領域のデータサイズ比率から経路を決定する過程を説明するための表。9 is a table for explaining a process of determining a route from a data size ratio of a foreground object area according to the first embodiment. 画像処理装置の機能ブロック図。FIG. 2 is a functional block diagram of the image processing apparatus. 時刻t1の前景オブジェクトの位置を示す図。Shows the position of the foreground object at time t 1. 時刻t2の前景オブジェクトの位置を示す図。Shows the position of the foreground object at time t 2. 画像処理装置から転送される前景画像データの撮影領域毎の単位時間当たりの転送データサイズの変化を時系列に示した図。FIG. 6 is a diagram showing a time series of a change in transfer data size per unit time for each shooting area of foreground image data transferred from the image processing apparatus. 経路選択処理を説明するフローチャート。9 is a flowchart illustrating a route selection process. 実施形態2における画像データ集約システムの構成図。FIG. 9 is a configuration diagram of an image data aggregation system according to a second embodiment. 実施形態2における前景オブジェクト領域のデータサイズ比率から経路を決定する過程を説明するための表。9 is a table for explaining a process of determining a route from a data size ratio of a foreground object area according to the second embodiment. 実施形態3における画像データ集約システムの構成図。FIG. 9 is a configuration diagram of an image data aggregation system according to a third embodiment. 実施形態3における前景オブジェクト領域のデータサイズ比率から経路を決定する過程を説明するための表。16 is a table for explaining a process of determining a route from a data size ratio of a foreground object area according to the third embodiment.

以下、本発明の実施形態の例について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   The following embodiments do not limit the present invention, and all combinations of features described in the present embodiments are not necessarily essential to the solution of the present invention.

実施形態1Embodiment 1

図1に、本発明の実施形態1に係る画像データ集約システムの構成図を示す。本実施形態は、複数のカメラ120〜124、140〜143を設置し、複数のカメラ120〜124、140〜143の撮影画像データをデータ集約サーバA100、データ集約サーバB101に集約するシステムである。カメラ120〜124、140〜143の設置場所としては、例えば競技場(スタジアム)やコンサートホールなどの施設が考えられる。   FIG. 1 shows a configuration diagram of an image data aggregation system according to the first embodiment of the present invention. The present embodiment is a system in which a plurality of cameras 120 to 124 and 140 to 143 are installed, and image data captured by the plurality of cameras 120 to 124 and 140 to 143 are collected in a data collection server A100 and a data collection server B101. Examples of a place where the cameras 120 to 124 and 140 to 143 are installed include facilities such as a stadium (stadium) and a concert hall.

ネットワーク10のリンク部分は通信回線であり、例えばEthernet(登録商標)、無線LAN、又は光ファイバーチャネル等でもよい。ネットワーク10のリンク部分は、後述するデータ集約サーバA100、データ集約サーバB101、画像処理装置110〜114、130〜133、ストレージ102をリング接続し、各ノード間のデータ転送を可能とする。本実施形態では画像処理装置110〜114、130〜133間をリング接続しているが、バス、デイジーチェーン、スター、ツリーやメッシュ接続でもよいし、図1には記載していないがスイッチングHUB等の中継装置を介して接続してもよい。   The link portion of the network 10 is a communication line, and may be, for example, Ethernet (registered trademark), a wireless LAN, an optical fiber channel, or the like. The link portion of the network 10 connects the data aggregation server A100, the data aggregation server B101, the image processing apparatuses 110 to 114, 130 to 133, and the storage 102, which will be described later, in a ring connection, and enables data transfer between the nodes. In the present embodiment, the image processing apparatuses 110 to 114 and 130 to 133 are connected by a ring, but may be connected by a bus, a daisy chain, a star, a tree, or a mesh, or are not shown in FIG. May be connected via the relay device.

前景オブジェクト20、21は、仮想視点画像を生成するための撮影対象である。図1では前景オブジェクトは2個であるが、2個以上であればよい。   The foreground objects 20 and 21 are shooting targets for generating a virtual viewpoint image. In FIG. 1, the number of foreground objects is two.

撮影領域30、31は、カメラ120〜124、140〜143によって撮影される撮影領域である。第1のカメラ群120〜124は撮影領域30内の同一の注視点を向いており、同様に第2のカメラ群140〜143は撮影領域31内の同一の注視点を向いている。ここで、注視点とは、カメラが注視する撮像空間内の任意の点(カメラの視線方向上の点)を示すものである。また本実施形態では、2つの撮影領域を示しているが撮影領域は3つ以上でもよく、また図示した場所以外の、競技場内の任意の場所を撮影領域としてもよい。   The photographing regions 30 and 31 are photographing regions photographed by the cameras 120 to 124 and 140 to 143. The first camera groups 120 to 124 face the same gazing point in the shooting area 30, and similarly, the second camera groups 140 to 143 face the same gazing point in the shooting area 31. Here, the gazing point indicates an arbitrary point (a point in the line of sight of the camera) in the imaging space that the camera gazes at. Further, in the present embodiment, two shooting areas are shown, but the number of shooting areas may be three or more, and an arbitrary place in the stadium other than the illustrated place may be set as the shooting area.

データ集約サーバA100及びデータ集約サーバB101は、PCやサーバ装置の情報処理装置であり、後述する画像処理装置110〜114、130〜134から、仮想視点画像を作成するためのデータを集約するサーバ装置である。また集約したデータを用いて仮想視点画像を作成する機能を有する。本実施形態ではデータ集約サーバを2台設置しているが、データ集約サーバの設置台数は1台でも3台以上であってもよい。   The data aggregation server A100 and the data aggregation server B101 are information processing devices such as PCs and server devices, and are server devices that aggregate data for creating virtual viewpoint images from image processing devices 110 to 114 and 130 to 134 described below. It is. It also has a function of creating a virtual viewpoint image using the aggregated data. In the present embodiment, two data aggregation servers are installed, but the number of installed data aggregation servers may be one or three or more.

ストレージ102は、データ集約サーバA100及びデータ集約サーバB101が集約したデータが格納される装置である。データ集約サーバA100及びデータ集約サーバB101は、ストレージ102へのデータの書き込みとストレージ102からの読み出しとを行うことができる。   The storage 102 is a device that stores data aggregated by the data aggregation server A100 and the data aggregation server B101. The data aggregation server A100 and the data aggregation server B101 can write data to the storage 102 and read data from the storage 102.

カメラ120〜124、140〜143は、デジタルカメラ、デジタルビデオカメラや監視カメラであり、画像、映像や音声をキャプチャリングする装置である。また、本実施形態では、カメラ120〜124、140〜143は、撮影領域30、31を取り囲むように競技場の外周に設置されている。但し、カメラ120〜124、140〜143を配置する位置は、競技場の外周に限定される訳ではなく、撮影領域30、31を撮影可能な任意の場所に設置してよい。また、本実施形態では、上述したように、第1のカメラ群120〜124が撮影領域30を、第2のカメラ群140〜143が撮影領域31を撮影している。尚、本実施形態では画像を構成する画像データを集約しているが、音声データを集約することも可能である。   The cameras 120 to 124 and 140 to 143 are digital cameras, digital video cameras, and surveillance cameras, and are devices that capture images, videos, and sounds. Further, in the present embodiment, the cameras 120 to 124 and 140 to 143 are installed on the outer periphery of the stadium so as to surround the imaging areas 30 and 31. However, the positions at which the cameras 120 to 124 and 140 to 143 are arranged are not limited to the outer periphery of the stadium, but may be installed at any locations where the photographing areas 30 and 31 can be photographed. Further, in the present embodiment, as described above, the first camera groups 120 to 124 image the imaging region 30, and the second camera groups 140 to 143 image the imaging region 31. In the present embodiment, the image data constituting the image is aggregated, but it is also possible to aggregate the audio data.

画像処理装置110〜114、130〜134は、カメラ120〜124、140〜143の撮影画像データに所定の処理を施したデータを、ネットワーク10を介してデータ集約サーバA100又は/及びデータ集約サーバB101へ転送する装置である。さらに、カメラの撮影画像データから仮想視点画像に必要なデータを抽出する機能を有する。例えば、撮影画像データから前景オブジェクト領域のみを抽出し、前景オブジェクト領域のみを抽出した画像データである前景画像データのみをデータ集約サーバA100又は/及びデータ集約サーバB101へ転送する。同様に音声についても撮影領域30及び撮影領域31付近の音声データを抽出し、撮影領域30及び撮影領域31付近の抽出音声データのみをデータ集約サーバA100又は/及びデータ集約サーバB101へ転送する。   The image processing apparatuses 110 to 114 and 130 to 134 transmit data obtained by subjecting the captured image data of the cameras 120 to 124 and 140 to 143 to predetermined processing to the data aggregation server A100 or / and the data aggregation server B101 via the network 10. Device to transfer to Further, it has a function of extracting data necessary for a virtual viewpoint image from captured image data of a camera. For example, only the foreground object area is extracted from the captured image data, and only the foreground image data, which is the image data obtained by extracting only the foreground object area, is transferred to the data aggregation server A100 and / or the data aggregation server B101. Similarly, for voice, audio data near the shooting area 30 and the shooting area 31 is extracted, and only the extracted voice data near the shooting area 30 and the shooting area 31 is transferred to the data aggregation server A100 or / and the data aggregation server B101.

次に、図2に、データ集約サーバA100及びデータ集約サーバB101の内部構造を示す機能ブロックを示す。データ送受信部200は、ネットワーク10と接続し、画像処理装置110〜114、130〜133及びストレージ102との間でデータを送受信する機能を有する。   Next, FIG. 2 shows functional blocks showing the internal structure of the data aggregation server A100 and the data aggregation server B101. The data transmission / reception unit 200 has a function of connecting to the network 10 and transmitting / receiving data to / from the image processing apparatuses 110 to 114 and 130 to 133 and the storage 102.

ボトルネック特定部201は、画像処理装置110〜114、130〜133から転送されるデータの伝送経路上でボトルネックとなる箇所を特定し、ボトルネックのスループット(単位時間当たりに処理可能なデータサイズ)を計測する機能を有する。例えば、ボトルネックになり得る可能性の高い場所として、データを転送する能力、すなわちスループット又は伝送帯域が低い装置(例えば特定の画像処理装置、HUB、特定のケーブルなど)がある。また、図1に示す構成においては、上記装置以外にも、例えば画像処理装置133とデータ集約サーバA100との間や、画像処理装置110とデータ集約サーバB101との間などのネットワーク10の特定部分がボトルネックとなり易い。これは、ネットワーク10のデータ集約サーバA100周辺では、画像処理装置110〜114、130〜133から転送されてくるデータが集約されるので、伝送帯域が逼迫し易いためである。ボトルネック特定部201は、例えば、画像処理装置110〜114、130〜133から所定のデータを送信し、それに対する応答に基づきボトルネックを特定してもよい。   The bottleneck specifying unit 201 specifies a bottleneck point on the transmission path of data transferred from the image processing apparatuses 110 to 114 and 130 to 133, and determines a bottleneck throughput (a data size that can be processed per unit time). ) Is measured. For example, a location that is likely to be a bottleneck is a device (for example, a specific image processing device, a HUB, a specific cable, or the like) having a low data transfer capability, that is, a low throughput or transmission band. In addition, in the configuration shown in FIG. 1, in addition to the above-described devices, specific portions of the network 10, such as between the image processing device 133 and the data aggregation server A100 or between the image processing device 110 and the data aggregation server B101. Is likely to be a bottleneck. This is because the data transferred from the image processing apparatuses 110 to 114 and 130 to 133 is aggregated around the data aggregation server A100 of the network 10, so that the transmission band is likely to be tight. For example, the bottleneck specifying unit 201 may transmit predetermined data from the image processing apparatuses 110 to 114 and 130 to 133 and specify the bottleneck based on a response to the data.

撮影領域情報取得部202は、カメラ120〜124、140〜143の其々が撮影領域30、31のどちらを撮影しているかを示す撮影領域情報を取得する機能を有する。   The photographing area information acquiring unit 202 has a function of acquiring photographing area information indicating which of the photographing areas 30 and 31 each of the cameras 120 to 124 and 140 to 143 is photographing.

カメラ情報取得部203は、カメラ120〜124、140〜143に関するカメラ情報等を取得する機能を有する。カメラ情報としては、カメラのイメージセンサの解像度及びサイズ、レンズの焦点距離、カメラから前景オブジェクトまでの距離、及びISO感度等を含めてもよい。   The camera information acquisition unit 203 has a function of acquiring camera information and the like regarding the cameras 120 to 124 and 140 to 143. The camera information may include the resolution and size of the image sensor of the camera, the focal length of the lens, the distance from the camera to the foreground object, the ISO sensitivity, and the like.

尚、撮影領域情報取得部202及びカメラ情報取得部203は、内蔵する記憶装置に記憶された撮影領域情報又はカメラ情報を読出す構成としてもよいし、撮影領域情報又はカメラ情報を記憶した外部の記憶装置から読出す構成としてもよい。   Note that the photographing area information acquiring unit 202 and the camera information acquiring unit 203 may be configured to read out the photographing area information or camera information stored in the built-in storage device, or an external device that stores the photographing area information or camera information. A configuration in which data is read from a storage device may be adopted.

データサイズ算出部204は、各カメラの撮影画像における前景オブジェクト領域のデータサイズ(例えば画素数)を算出する機能を有する。前景オブジェクト領域のデータサイズは、画像処理装置110〜114、130〜133から取得した前景画像データ、又は撮影領域情報取得部202及びカメラ情報取得部203で取得した情報に基づき算出される。図3に、前景オブジェクト領域のデータサイズの算出方法の原理を説明する図を示す。前景オブジェクト領域のデータサイズは、カメラ121及びカメラ124の撮影画像データに含まれる前景オブジェクト領域の画素数から算出できる。撮影画像301はカメラ121の撮影画像であり、撮影画像302はカメラ124の撮影画像である。カメラ121はカメラ124より撮影領域30からの距離が近いため、カメラ121の撮影画像301に写る前景オブジェクト領域304の方が、カメラ124の撮影画像302に写る前景オブジェクト領域305より画素数が多く、データサイズも大きい。   The data size calculation unit 204 has a function of calculating a data size (for example, the number of pixels) of a foreground object area in an image captured by each camera. The data size of the foreground object area is calculated based on foreground image data acquired from the image processing apparatuses 110 to 114 and 130 to 133 or information acquired by the imaging area information acquisition unit 202 and the camera information acquisition unit 203. FIG. 3 is a diagram illustrating the principle of the method for calculating the data size of the foreground object area. The data size of the foreground object area can be calculated from the number of pixels of the foreground object area included in the captured image data of the cameras 121 and 124. The captured image 301 is a captured image of the camera 121, and the captured image 302 is a captured image of the camera 124. Since the camera 121 is closer to the shooting area 30 than the camera 124, the number of pixels of the foreground object area 304 shown in the shot image 301 of the camera 121 is larger than that of the foreground object area 305 shown in the shot image 302 of the camera 124. The data size is also large.

この前景画像データのデータサイズを決める前景オブジェクト領域の画素数は、画像処理装置から受け取った前景画像データから算出することもできるが、上記カメラ情報に基づき試算することもできる。撮影画像における前景オブジェクト領域の占める割合は、前景オブジェクトの撮像空間における大きさ、カメラから前景オブジェクトまでの距離、及びカメラの画角から算出可能である。そしてこの撮影画像における前景オブジェクト領域の占める割合及び撮影画像全体の画素数から、前景オブジェクト領域の画素数が算出できる。カメラの画角はカメラのイメージセンサのサイズ及びカメラのレンズの焦点距離から算出可能であるため、前景オブジェクト領域の画素数、すなわち前景オブジェクト領域のデータサイズはカメラ情報に基づき算出することができる。   The number of pixels in the foreground object area that determines the data size of the foreground image data can be calculated from the foreground image data received from the image processing device, but can also be calculated based on the camera information. The proportion of the foreground object area in the captured image can be calculated from the size of the foreground object in the imaging space, the distance from the camera to the foreground object, and the angle of view of the camera. Then, the number of pixels of the foreground object area can be calculated from the ratio of the foreground object area in the captured image and the number of pixels of the entire captured image. Since the angle of view of the camera can be calculated from the size of the image sensor of the camera and the focal length of the lens of the camera, the number of pixels of the foreground object area, that is, the data size of the foreground object area can be calculated based on the camera information.

尚、本実施形態では、画像の階調は、全て同一の所定の階調、例えばRGB16bit等で共通であるものとする。また、前景オブジェクトの撮像空間における大きさは、撮影領域が同じであれば同一であるため、後述する前景オブジェクト領域のデータサイズの比率を算出する際には必要ない。但し、撮影領域間で前景オブジェクト領域のデータサイズの比率を比較可能にする場合は、前景オブジェクトの撮像空間における大きさが撮影領域間で同じ大きさとする必要がある。   In the present embodiment, it is assumed that the gradations of the images are all the same and have the same predetermined gradation, for example, RGB 16 bits. Further, since the size of the foreground object in the imaging space is the same if the photographing area is the same, it is not necessary to calculate the data size ratio of the foreground object area described later. However, when the ratio of the data size of the foreground object area can be compared between the imaging areas, the size of the foreground object in the imaging space needs to be the same between the imaging areas.

またデータサイズ算出部204は、各カメラの撮影画像に占める前景オブジェクト領域の割合又はその画素数から、カメラ間の同一前景オブジェクトの前景オブジェクト領域のデータサイズの比率を算出する。図3の場合、カメラ121の撮影画像301における前景オブジェクト領域304とカメラ124の撮影画像302における前景オブジェクト領域305とは、其々画素数が例えば100と50とする。この場合、前景オブジェクト領域のデータサイズの比率は2:1となる。前景オブジェクト領域のデータサイズ比率は、画像処理装置から受け取った前景画像データに基づき算出してもよいし、上記カメラ情報に基づき算出した前景オブジェクト領域のデータサイズに基づき算出してもよい。撮影領域30を撮影するカメラ120、122、123及び撮影領域31を撮影するカメラ140〜143も同様に、前景オブジェクト領域のデータサイズの比率を算出する。撮影画像に占める前景オブジェクト領域の割合に基づき前景オブジェクト領域のデータサイズの比率を算出する場合は、全てのカメラの撮影画像の解像度が等しく、撮影画像の画素数が同じであるものとする。尚、解像度の設定が異なるカメラ、例えば4Kのカメラと8Kのカメラとを混在させたシステムなど、撮影画像に画素数が異なるものが含まれる場合がある。その場合には、撮影画像に占める前景オブジェクト領域の割合に代えて、前景オブジェクト領域の画素数に基づき前景オブジェクト領域のデータサイズの比率を算出する。   Further, the data size calculation unit 204 calculates the ratio of the data size of the foreground object region of the same foreground object between cameras from the ratio of the foreground object region in the captured image of each camera or the number of pixels thereof. In the case of FIG. 3, the foreground object area 304 in the captured image 301 of the camera 121 and the foreground object area 305 in the captured image 302 of the camera 124 have, for example, 100 and 50 pixels, respectively. In this case, the data size ratio of the foreground object area is 2: 1. The data size ratio of the foreground object area may be calculated based on the foreground image data received from the image processing apparatus, or may be calculated based on the data size of the foreground object area calculated based on the camera information. Similarly, the cameras 120, 122 and 123 for photographing the photographing area 30 and the cameras 140 to 143 for photographing the photographing area 31 also calculate the data size ratio of the foreground object area. When calculating the ratio of the data size of the foreground object area based on the proportion of the foreground object area in the captured image, it is assumed that the resolutions of the captured images of all cameras are equal and the number of pixels of the captured images is the same. Note that a captured image may include a camera having a different number of pixels, such as a camera having different resolution settings, for example, a system in which a 4K camera and an 8K camera are mixed. In that case, the ratio of the data size of the foreground object region is calculated based on the number of pixels of the foreground object region instead of the ratio of the foreground object region in the captured image.

また、画像処理装置110〜114、130〜133が前景画像データに対して画像圧縮処理を施して転送する場合には、競技場内の明るさによって圧縮率が変動することがある。例えば、前景オブジェクトに特定の方向から光が当てられ、その光が順光となるカメラと逆光となるカメラとが生じる場合がある。その場合、同じ前景オブジェクトの撮影画像でも、逆光位置のカメラの撮影画像は、順光位置のカメラの撮影画像よりもノイズが多く発生して圧縮率が低下する。そのためカメラ毎に前景オブジェクトの明るさが異なる場合は、前景オブジェクト領域のデータサイズ比率を、各カメラの撮影画像に占める前景オブジェクト領域の割合又はその画素数に前景画像データ毎の圧縮効率を掛け合わせた値の比率としてもよい。   When the image processing apparatuses 110 to 114 and 130 to 133 perform image compression processing on the foreground image data and transfer the data, the compression ratio may vary depending on the brightness in the stadium. For example, in some cases, light is applied to a foreground object from a specific direction, and a camera in which the light is forward light and a camera in which the light is backlight is generated. In this case, even with the captured image of the same foreground object, the captured image of the camera at the backlight position has more noise than the captured image of the camera at the front light position, and the compression ratio is reduced. Therefore, when the brightness of the foreground object area differs for each camera, the data size ratio of the foreground object area is multiplied by the compression efficiency of each foreground image data by the ratio or the number of pixels of the foreground object area in the image captured by each camera. It may be a ratio of the calculated values.

伝送経路決定部205は、画像処理装置110〜114、130〜133がネットワーク10を介して前景画像データを転送する伝送経路を決定する機能を有する。伝送経路決定部205は、複数ある伝送経路の其々の使用率(単位時間当たりの転送データサイズ/伝送帯域)が平準化されるように、画像処理装置毎に使用する伝送経路を決定する。その際、伝送経路決定部205は、データサイズ算出部204で算出した前景オブジェクト領域のデータサイズ比率に基づき伝送経路の使用率を算出する。但し、データサイズ算出部204が前景オブジェクト領域のデータサイズ比率を前景画像データから算出する場合、前景オブジェクト領域のデータサイズ比率を算出するための最初の前景画像データは、初期設定で予め指定した伝送経路を使用して転送される。   The transmission path determination unit 205 has a function of determining a transmission path through which the image processing apparatuses 110 to 114 and 130 to 133 transfer foreground image data via the network 10. The transmission path determination unit 205 determines a transmission path to be used for each image processing apparatus such that the usage rate (transfer data size per unit time / transmission band) of a plurality of transmission paths is equalized. At this time, the transmission path determination unit 205 calculates the usage rate of the transmission path based on the data size ratio of the foreground object area calculated by the data size calculation unit 204. However, when the data size calculation unit 204 calculates the data size ratio of the foreground object area from the foreground image data, the first foreground image data for calculating the data size ratio of the foreground object area is the transmission data specified in advance in the initial setting. Transferred using a route.

図4に、前景オブジェクト領域のデータサイズ比率から伝送経路を決定する過程を説明するための表を示す。本実施形態では、図1に示すネットワーク10を右回りにデータ集約サーバA100へ、又は左回りにデータ集約サーバB101へ画像データを転送する2つの伝送経路が存在する。其々右回りを伝送経路A、左回りを伝送経路Bとする。   FIG. 4 shows a table for explaining a process of determining a transmission path from the data size ratio of the foreground object area. In the present embodiment, there are two transmission paths for transferring image data to the data aggregation server A100 clockwise or to the data aggregation server B101 counterclockwise on the network 10 shown in FIG. The clockwise direction is the transmission path A, and the counterclockwise direction is the transmission path B.

まず列400に示すように、データサイズ算出部204が算出したカメラ毎の前景オブジェクト領域のデータサイズ比率を列挙する。この場合、撮影領域30の転送コスト403は、撮影領域30を撮影する第1のカメラ群120〜124の前景オブジェクト領域のデータサイズ比率を合算した値である「32」となる。一方の撮影領域31の転送コスト404は、撮影領域31を撮影する第2のカメラ群140〜143の前景オブジェクト領域のデータサイズ比率を合算した値である「26」となる。   First, as shown in a column 400, the data size ratio of the foreground object area for each camera calculated by the data size calculation unit 204 is listed. In this case, the transfer cost 403 of the shooting area 30 is “32” which is a value obtained by adding the data size ratios of the foreground object areas of the first camera groups 120 to 124 shooting the shooting area 30. The transfer cost 404 of one shooting area 31 is “26” which is a value obtained by adding the data size ratios of the foreground object areas of the second camera groups 140 to 143 shooting the shooting area 31.

次に、列401に、2つの伝送経路に割り振られる転送コストが平準化されるように撮影領域毎にカメラをグルーピングする。撮影領域30の場合、転送コストをできるだけ均等に割り振るためにカメラ120とカメラ122とをグループ1とし、カメラ121とカメラ123とカメラ124とをグループ2とする。同様に撮影領域31も転送コストをできるだけ均等に割り振るようにグループ3とグループ4にグルーピングする。   Next, cameras are grouped in a column 401 for each imaging region so that the transfer costs allocated to the two transmission paths are equalized. In the case of the photographing area 30, the camera 120 and the camera 122 are group 1 and the camera 121, the camera 123, and the camera 124 are group 2 in order to allocate transfer costs as evenly as possible. Similarly, the photographing areas 31 are grouped into groups 3 and 4 so that the transfer costs are allocated as evenly as possible.

尚、ここでは伝送経路上に転送速度を低下させるボトルネックとなる装置について記載していないが、伝送経路上にボトルネックとなる装置がある場合は、ボトルネックのスループットをその伝送経路の伝送帯域とする。伝送帯域が伝送経路毎に異なる場合、伝送経路毎に転送コストに重み付けをし、重み付けされた転送コストが等しくなるとき、各伝送経路の使用率が平準化するようにする。例えば、伝送経路A上に存在するボトルネックとなる装置のスループットが、他の伝送経路Bの伝送帯域の3/4である場合、伝送経路Aの転送コストは前景オブジェクト領域のデータサイズ比率に4/3を乗算したものを使用すればよい。このように重み付けした転送コストに基づき、伝送経路A、Bの転送コストが等しくなるようにグルーピングすることで、伝送経路A、Bの使用率を平準化することができる。   Although a bottleneck device that reduces the transfer rate on the transmission path is not described here, if there is a bottleneck device on the transmission path, the bottleneck throughput is reduced by the transmission bandwidth of the transmission path. And When the transmission band differs for each transmission path, the transfer cost is weighted for each transmission path, and when the weighted transfer costs become equal, the usage rate of each transmission path is equalized. For example, if the throughput of the bottleneck device existing on the transmission path A is 3/4 of the transmission band of the other transmission path B, the transmission cost of the transmission path A is 4% of the data size ratio of the foreground object area. A value obtained by multiplying by / 3 may be used. By grouping the transmission paths A and B based on the weighted transfer costs so that the transmission costs of the transmission paths A and B are equal, the usage rates of the transmission paths A and B can be equalized.

次に、列402に示すように、撮影領域毎に各グループを伝送経路A、Bのどちらに割り振るかを決める。その結果、撮影領域30、31の同じ伝送経路に割り当てられたグループ同士を組み合わせて転送コストを合算した伝送経路毎のコスト405は、平準化されて等しくなる。尚、図4に示す場合では、撮影領域30のグループ1と撮影領域31のグループ3を伝送経路Aに割り振り、撮影領域30のグループ2と撮影領域31のグループ4とを伝送経路Bに割り振った。   Next, as shown in a column 402, it is determined which of the transmission paths A and B each group is assigned to for each imaging region. As a result, the cost 405 for each transmission path obtained by combining the groups assigned to the same transmission path in the imaging regions 30 and 31 and summing the transfer costs is equalized. In the case shown in FIG. 4, the group 1 of the shooting area 30 and the group 3 of the shooting area 31 are allocated to the transmission path A, and the group 2 of the shooting area 30 and the group 4 of the shooting area 31 are allocated to the transmission path B. .

尚、ここで示した伝送経路の決定方法は一例であり他の方法を用いて伝送経路を決定又は指定もよい。例えば各画像処理装置と各データ集約サーバとの間の伝送経路長や伝送遅延を考慮してもよい。例えば画像処理装置133はデータ集約サーバA100との伝送経路長が短いため優先的に伝送経路Aに割り振るようにしてもよい。   Note that the method of determining the transmission path described here is an example, and the transmission path may be determined or specified using another method. For example, the transmission path length and transmission delay between each image processing apparatus and each data aggregation server may be considered. For example, the image processing apparatus 133 may be preferentially assigned to the transmission path A because the transmission path length with the data aggregation server A100 is short.

仮想視点画像生成部206は、画像処理装置又は/且つストレージ102から受け取った画像データとユーザから指定された仮想視点情報を使用して仮想視点コンテンツを生成する機能を有する。   The virtual viewpoint image generation unit 206 has a function of generating virtual viewpoint contents using the image data received from the image processing device or / and the storage 102 and virtual viewpoint information specified by the user.

本実施形態では、各種機能処理部200〜206をデータ集約サーバA100に統合しているが、これに限ったものではなく、これらの機能処理部200〜206を複数のサーバに分散していてもよい。   In the present embodiment, the various function processing units 200 to 206 are integrated into the data aggregation server A100. However, the present invention is not limited to this, and even if these function processing units 200 to 206 are distributed to a plurality of servers. Good.

次に図5に、画像処理装置110〜114、130〜133の内部構造を示す機能ブロックを示す。   Next, FIG. 5 shows functional blocks illustrating the internal structure of the image processing apparatuses 110 to 114 and 130 to 133.

画像取得部501は、カメラとケーブルなどを介して接続し、カメラからの画像データを受け取る機能を有する。またカメラの各種パラメータの変更や撮影動作を制御する機能を有してもよい。上記ケーブルには、SDI(Serial Digital Interface)ケーブルが使用できる。また上記ケーブルには、HDMI(登録商標)(High−Definition Multimedia Interface)ケーブルやCoaXPress(登録商標)ケーブルなどが使用できる。   The image acquisition unit 501 has a function of connecting to a camera via a cable or the like and receiving image data from the camera. Further, it may have a function of changing various parameters of the camera and controlling a shooting operation. An SDI (Serial Digital Interface) cable can be used as the cable. The cable may be an HDMI (registered trademark) (High-Definition Multimedia Interface) cable, a CoaXPress (registered trademark) cable, or the like.

前景オブジェクト領域抽出部502は、画像取得部501で取得した撮影画像データから前景オブジェクト領域を抽出し、前景画像データを生成する機能を有している。   The foreground object area extraction unit 502 has a function of extracting a foreground object area from the captured image data acquired by the image acquisition unit 501 and generating foreground image data.

データ送受信部503は、データ集約サーバへ前景画像データや前景画像データのデータサイズ等のメタデータを送信する機能を有している。また、データ集約サーバからデータを転送する伝送経路を指定する指令を受信し、指定された伝送経路で画像データを転送する。   The data transmission / reception unit 503 has a function of transmitting metadata such as foreground image data and the data size of the foreground image data to the data aggregation server. In addition, a command for designating a transmission path for transferring data from the data aggregation server is received, and the image data is transferred on the designated transmission path.

データ中継部504は、他の画像処理装置から受信した画像データを次の画像処理装置又はデータ集約サーバへ転送する中継機能を有している。   The data relay unit 504 has a relay function of transferring image data received from another image processing device to the next image processing device or data aggregation server.

次に、図6、図7及び図8を用いて画像データを伝送する際の課題について説明する。
図6及び図7は、それぞれ時刻t1、t2における前景オブジェクトの位置を示す図である。図8は、画像処理装置から転送される前景画像データの撮影領域毎の単位時間当たりの転送データサイズの変化を時系列に示した図である。図6に示す時刻t1では、撮影領域31に前景オブジェクトが5個あり、撮影領域30には前景オブジェクトが1個である。この時の撮影領域毎の単位時間当たりの転送データ量は、撮影領域31が13Gbps(800)、撮影領域30が1Gbps(801)となるものとする。一方、図7に示す時刻t2では、撮影領域31に前景オブジェクトが1個あり、撮影領域30には前景オブジェクトが5個である。この時の撮影領域毎の単位時間当たりの転送データ量は、撮影領域30が12Gbps(802)、撮影領域31が3Gbps(803)となるものとする。
Next, a problem in transmitting image data will be described with reference to FIGS. 6, 7, and 8. FIG.
6 and 7 are views showing the positions of the foreground object at times t 1 and t 2 , respectively. FIG. 8 is a diagram showing, in chronological order, a change in the transfer data size per unit time for each shooting area of the foreground image data transferred from the image processing apparatus. At time t 1 shown in FIG. 6, there are five foreground objects in the shooting area 31 and one foreground object in the shooting area 30. At this time, the transfer data amount per unit time for each shooting area is 13 Gbps (800) for the shooting area 31 and 1 Gbps (801) for the shooting area 30. On the other hand, at time t 2 shown in FIG. 7, there is one foreground object in the photographing area 31 and five foreground objects in the photographing area 30. At this time, the transfer data amount per unit time for each shooting area is 12 Gbps (802) for the shooting area 30 and 3 Gbps (803) for the shooting area 31.

ここで、伝送経路A、Bの伝送帯域がそれぞれ10Gbps、8Gbpsであり、撮影領域毎にどちらか一方の伝送経路のみを使用する場合を考える。このようなとき、時刻t1では、撮影領域31の単位時間当たりの転送データサイズが13Gbpsであるため、伝送経路A、Bのどちらを選択しても伝送帯域が不足するため、撮影領域31の全ての画像データをリアルタイムに転送することは出来ない。同様に、時刻t2でも、撮影領域30の単位時間当たりの転送データサイズが12Gbpsであるため、伝送経路A、Bのどちらの伝送帯域も不足するため、撮影領域30の全ての画像データをリアルタイムに転送することは出来ない。 Here, a case is considered where the transmission bands of the transmission paths A and B are 10 Gbps and 8 Gbps, respectively, and only one of the transmission paths is used for each imaging region. In such a case, at time t 1 , since the transfer data size per unit time of the imaging region 31 is 13 Gbps, the transmission band is insufficient when either of the transmission paths A and B is selected. Not all image data can be transferred in real time. Similarly, at time t 2 , since the transfer data size per unit time of the image capturing area 30 is 12 Gbps, the transmission bandwidth of both the transmission paths A and B is insufficient, so that all the image data of the image capturing area 30 are transferred in real time. Cannot be forwarded to

このような場合に、撮影領域毎の全ての画像データをリアルタイムに転送するためには、例えば解像度を落す、又はフレームレートを落すなど単位時間当たりの転送データサイズを伝送経路の伝送帯域に合わせて小さくする方法がある。しかしこの方法では、仮想視点画像の画像品質が低下するという問題点がある。   In such a case, in order to transfer all the image data for each shooting area in real time, the transfer data size per unit time is adjusted according to the transmission band of the transmission path, for example, by lowering the resolution or lowering the frame rate. There is a way to make it smaller. However, this method has a problem that the image quality of the virtual viewpoint image is reduced.

また、撮影領域毎に動的に伝送経路A、Bを切り替えようとすると、前景オブジェクトが激しく撮影領域30と撮影領域31との間を行き来した場合に伝送経路切り替えが間に合わずに一方の伝送経路を輻輳させてしまう可能性がある。例えば、撮影領域毎の全ての画像データサイズが、時刻t3で撮影領域30が10Gbps、撮影領域31が7Gbpsとなり、時刻t4で撮影領域30が7Gbps、撮影領域31が10Gbpsとなる場合を考える。また時刻t5で撮影領域30が10Gbps、撮影領域31が7Gbpsとなる場合を考える。このとき輻輳させないようにするには、時刻t3のとき撮影領域30に伝送経路A、撮影領域31に伝送経路B、時刻t4のとき撮影領域30に伝送経路B、撮影領域31に伝送経路Aを割り振る必要がある。さらに、時刻t5のとき撮影領域30に伝送経路A、撮影領域31に伝送経路Bを割り振る必要がある。この撮影領域毎の伝送経路の割り当てがタイミング良く行われないと、伝送経路Bを輻輳させることになる。 Further, if the transmission paths A and B are dynamically switched for each photographing area, if the foreground object moves between the photographing area 30 and the photographing area 31 violently, the transmission path switching cannot be made in time and one of the transmission paths A May be congested. For example, all image data size for each area to be photographed, a case where the photographing region 30 time t 3 is 10Gbps, next imaging region 31 7 Gbps, imaging region 30 at time t 4 is 7 Gbps, imaging region 31 is 10Gbps . The time t 5 in the photographing region 30 is 10 Gbps, consider a case where the imaging area 31 is 7 Gbps. At this time, to avoid congestion, at time t 3 , the transmission path A in the imaging area 30, the transmission path B in the imaging area 31, the transmission path B in the imaging area 30 at time t 4 , and the transmission path B in the imaging area 31. A needs to be allocated. Furthermore, the transmission path A to the imaging region 30 at time t 5, it is necessary to allocate a transmission path B the imaging area 31. If the assignment of the transmission path for each imaging region is not performed with good timing, the transmission path B will be congested.

このように、1つの伝送経路に割り振るデータの多くが同期して変化すると、その伝送経路の使用率変動が大きくなり、伝送帯域が不足し易い状況が生じる。   As described above, if much of the data allocated to one transmission path changes synchronously, the fluctuation of the usage rate of the transmission path becomes large, and a situation occurs in which the transmission band tends to be insufficient.

これに対し本発明では、データサイズが同期して変化するデータを、複数の伝送経路の使用率が平準化するようにそれら複数の伝送経路に割り振る。そのため本実施形態では、上述したように、撮影領域毎に前景画像データを2つの伝送経路A、Bに割り振る。これによって、本実施形態では、撮影領域が同じカメラ群毎に前景画像データのデータサイズに大きな偏りが生じるときにも、複数の伝送経路の使用率を平準化し、伝送経路全体を効率良く使用することができる。図8に示す時刻t1の状況を例に説明すると、このように撮影領域31の単位時間当たりの転送データサイズが、撮影領域30の単位時間当たりの転送データサイズに対して大幅に大きくなっても、本実施形態では一方の伝送経路の使用率のみが高くなることを防ぐことができる。そのため、伝送経路A、Bの両方の伝送帯域を無駄なく使用することができる。その結果、解像度やフレームレートを落とすことなく、かつ伝送経路A、Bを輻輳させずに、データ集約サーバにリアルタイムに転送可能なデータサイズを大きくすることができる。 On the other hand, in the present invention, data whose data size changes synchronously is allocated to the plurality of transmission paths so that the usage rates of the plurality of transmission paths are equalized. Therefore, in the present embodiment, as described above, foreground image data is allocated to the two transmission paths A and B for each shooting region. Thus, in the present embodiment, even when a large deviation occurs in the data size of foreground image data for each camera group having the same shooting area, the usage rates of a plurality of transmission paths are leveled, and the entire transmission path is used efficiently. be able to. Explaining the situation at time t 1 shown in FIG. 8 as an example, the transfer data size per unit time of the imaging area 31 is significantly larger than the transfer data size per unit time of the imaging area 30. However, in the present embodiment, it is possible to prevent the usage rate of only one transmission path from increasing. Therefore, both transmission bands of the transmission paths A and B can be used without waste. As a result, the data size that can be transferred to the data aggregation server in real time can be increased without lowering the resolution or frame rate and without congesting the transmission paths A and B.

また、上記時刻t3〜t5においても、伝送経路A、Bの単位時間当たりの転送データサイズの変化は、撮影領域30、31の単位時間当たりの転送データサイズの変化の差分に相当する大きさに抑えられる。そのため、どちらの伝送経路も輻輳させずに安定した転送を可能にする。 Also in the time t 3 ~t 5, the transmission path A, the change in the transfer data size per unit time B, the magnitude corresponding to the difference between the change in the transfer data size per unit time of the imaging region 30, 31 It can be suppressed. Therefore, stable transfer is enabled without congestion in either transmission path.

次に、図9に、経路選択処理を説明するフローチャートを示す。ステップS901において、ボトルネック特定部201は、ネットワーク10の経路上に存在するボトルネックを特定する。本実施形態では、ネットワーク10がリング型で構成されているため、画像処理装置110〜114、130〜133からのデータが順次集約されてデータ集約サーバA100及びデータ集約サーバB101に転送される。そのため、画像処理装置133とデータ集約サーバA100との間、及び画像処理装置110とデータ集約サーバB101との間において伝送帯域が不足する場合、これらの部分がボトルネックとなる。また、各画像処理装置のデータ中継部504や、画像処理装置110〜114、130〜133やデータ集約サーバA100、データ集約サーバB101間に設置するHUBも、それらのスループットがネットワーク10よりも低い場合、ボトルネックとなる。以下、「ステップS〜」を「S〜」と略記する。   Next, FIG. 9 shows a flowchart illustrating the route selection processing. In step S901, the bottleneck identification unit 201 identifies a bottleneck existing on a route of the network 10. In the present embodiment, since the network 10 is configured as a ring type, data from the image processing apparatuses 110 to 114 and 130 to 133 are sequentially aggregated and transferred to the data aggregation server A100 and the data aggregation server B101. Therefore, when the transmission bandwidth is insufficient between the image processing apparatus 133 and the data aggregation server A100 and between the image processing apparatus 110 and the data aggregation server B101, these portions become bottlenecks. Also, when the data relay unit 504 of each image processing apparatus, the HUB installed between the image processing apparatuses 110 to 114 and 130 to 133, the data aggregation server A100, and the data aggregation server B101 have a lower throughput than the network 10, Becomes a bottleneck. Hereinafter, “step S〜” is abbreviated as “S〜”.

次に、S902において、データサイズ算出部204は、画像処理装置110〜114、130〜133からの前景画像データ及び/又はカメラ情報取得部203が取得したカメラ120〜124、140〜143のカメラ情報を取得する。そしてデータサイズ算出部204は、取得した前景画像データ及び/又はカメラ情報から前景オブジェクト領域のデータサイズ比率を試算する。またデータサイズ算出部204は、撮影領域情報取得部202から各カメラが撮影する撮影領域情報を取得する。本実施形態では、第1のカメラ群120〜124は撮影領域30、第2のカメラ群140〜143は撮影領域31を撮影している。   Next, in S902, the data size calculation unit 204 determines the foreground image data from the image processing apparatuses 110 to 114 and 130 to 133 and / or the camera information of the cameras 120 to 124 and 140 to 143 acquired by the camera information acquisition unit 203. To get. Then, the data size calculation unit 204 estimates the data size ratio of the foreground object area from the acquired foreground image data and / or camera information. Further, the data size calculation unit 204 obtains, from the shooting area information obtaining unit 202, shooting area information to be shot by each camera. In the present embodiment, the first camera groups 120 to 124 image the imaging region 30, and the second camera groups 140 to 143 image the imaging region 31.

次に、S903において、上記S901、S902で取得した情報が更新されたか否かを判定する。いずれの情報も更新されていない場合はS901に戻り、いずれかの情報が更新されている場合はS904に進む。   Next, in S903, it is determined whether the information acquired in S901 and S902 has been updated. If none of the information has been updated, the process returns to step S901. If any information has been updated, the process proceeds to step S904.

次に、S904において、伝送経路決定部205は、上記S901、S902で取得した情報に基づき、上述したように各画像処理装置がデータ集約サーバA100、データ集約サーバB101へ前景画像データを転送するための伝送経路を決定する。すなわち、データサイズが同期して変化するデータの元となる撮影画像データを出力するカメラ群毎に、本実施形態では撮影領域が同じカメラ群毎に、複数の伝送経路の使用率が平準化するよう各データの転送に使用する伝送経路を決定する。   Next, in step S904, the transmission path determination unit 205 uses the information acquired in steps S901 and S902 to transfer the foreground image data to the data aggregation server A100 and the data aggregation server B101 as described above. Is determined. In other words, the usage rates of a plurality of transmission paths are leveled for each camera group that outputs captured image data that is the source of data whose data size changes synchronously, and in this embodiment, for each camera group that has the same imaging area. The transmission path used for the transfer of each data is determined.

次に、S905において、S904で決定した経路を各画像処理装置へ設定変更が可能か否かを判定する。設定変更が不可能な場合はS901に戻る、又は一定期間待って再度設定変更が可能か否かを確認する。設定変更が可能な場合はS906へ進む。   Next, in step S905, it is determined whether the setting of the route determined in step S904 can be changed for each image processing apparatus. If the setting cannot be changed, the process returns to step S901 or waits for a certain period of time to confirm whether the setting can be changed again. If the setting can be changed, the process advances to step S906.

次に、S906において、S904で決定した伝送経路を各画像処理装置へ変更指示を発行する。変更指示を行う場合に、各画像処理装置へ変更を行う時間を含む指示を行う。各画像処理装置は指示された時間に経路を変更する。各画像処理装置へ変更を行う時間を含めずに即時に変更指示を出してもよい。この場合ボトルネック箇所への影響が小さい箇所から実施することが望ましい。   Next, in S906, an instruction to change the transmission path determined in S904 is issued to each image processing apparatus. When a change instruction is issued, an instruction including a time for performing the change is issued to each image processing apparatus. Each image processing device changes the route at the designated time. A change instruction may be issued to each image processing apparatus immediately without including the time for making the change. In this case, it is desirable to start from a location where the influence on the bottleneck location is small.

尚、本実施形態では、ボトルネック特定部201、撮影領域情報取得部、カメラ情報取得部203、データサイズ算出部204、伝送経路決定部205は、データ集約サーバA100及び/又はデータ集約サーバB101が備えている構成とした。しかし、これらの機能の一部又は全ては、データ集約サーバA100、データ集約サーバB101とは異なる情報処理装置に実装されていてもよい。また、情報処理装置としては、例えば、データ集約サーバA100及び/又はデータ集約サーバB101のようなサーバ装置やその制御を行う制御装置でもよし、それらとは別個のPC等の汎用の情報処理装置であってもよい。   In this embodiment, the bottleneck identification unit 201, the imaging region information acquisition unit, the camera information acquisition unit 203, the data size calculation unit 204, and the transmission path determination unit 205 are configured by the data aggregation server A100 and / or the data aggregation server B101. The configuration was provided. However, some or all of these functions may be implemented in an information processing device different from the data aggregation server A100 and the data aggregation server B101. The information processing device may be a server device such as the data aggregation server A100 and / or the data aggregation server B101 or a control device that controls the server device, or a general-purpose information processing device such as a PC separate from the server device. There may be.

実施形態2Embodiment 2

実施形態2は、実施形態1とはネットワーク10のトポロジーが異なる場合の画像データ集約システムである。   The second embodiment is an image data aggregation system when the topology of the network 10 is different from that of the first embodiment.

図10は、本発明の実施形態2に係る画像データ集約システムの構成図であり、図11は伝送経路を決定する過程を説明する図である。本実施形態のネットワーク10は、4個のカスケードネットワークから構成され、4個の伝送経路(伝送経路C、伝送経路D、伝送経路E、伝送経路F)から構成されている。伝送経路Cは、データ集約サーバB101、画像処理装置111、及び画像処理装置131をデイジーチェーン型で接続する。伝送経路Dは、データ集約サーバB101、画像処理装置110、及び画像処理装置130をデイジーチェーン型で接続する。伝送経路Eは、データ集約サーバA100、画像処理装置132、及び画像処理装置112をデイジーチェーン型で接続する。伝送経路Fは、データ集約サーバA100、画像処理装置133、及び画像処理装置114、画像処理装置113をデイジーチェーン型で接続する。尚、本実施形態は、予め伝送経路決定部205で決定した伝送経路C〜Fに基づき画像処理装置110〜114、130〜133、データ集約サーバA100、データ集約サーバB101間の配線経路を決定したものである。具体的には、図11に示すように、列1100に示す前景オブジェクト領域のデータサイズ比率に基づき、カメラ120〜124、140〜143を列1111に示すように撮影領域毎にそれぞれ4個のグループにグルーピングをしている。そして列1112に示すように、撮影領域30のグループの1つと撮影領域31のグループの1つとを組み合わせ、その際望ましくは、伝送経路C〜Fの転送コストが平準化するように伝送経路C〜Fの1つに割り振る。尚、伝送経路C〜Fの伝送帯域に余裕がある場合は平準化させず、設置容易性を考慮し近隣の画像処理装置間を接続してもよい。   FIG. 10 is a configuration diagram of an image data aggregation system according to Embodiment 2 of the present invention, and FIG. 11 is a diagram illustrating a process of determining a transmission path. The network 10 of the present embodiment is composed of four cascade networks, and is composed of four transmission paths (transmission path C, transmission path D, transmission path E, and transmission path F). The transmission path C connects the data aggregation server B101, the image processing device 111, and the image processing device 131 in a daisy chain type. The transmission path D connects the data aggregation server B101, the image processing device 110, and the image processing device 130 in a daisy chain type. The transmission path E connects the data aggregation server A100, the image processing device 132, and the image processing device 112 in a daisy chain type. The transmission path F connects the data aggregation server A100, the image processing device 133, the image processing device 114, and the image processing device 113 in a daisy chain type. In this embodiment, the wiring route between the image processing apparatuses 110 to 114 and 130 to 133, the data aggregation server A100, and the data aggregation server B101 is determined based on the transmission routes C to F determined in advance by the transmission route determination unit 205. Things. Specifically, as shown in FIG. 11, based on the data size ratio of the foreground object area shown in the column 1100, the cameras 120 to 124 and 140 to 143 are divided into four groups for each shooting area as shown in the column 1111. Grouping. Then, as shown in a column 1112, one of the groups of the photographing areas 30 and one of the groups of the photographing areas 31 are combined, and at this time, it is preferable that the transmission paths C to F be equalized so that the transfer costs of the transmission paths C to F are equalized. Assign to one of F. If there is room in the transmission bands of the transmission paths C to F, the image data may not be leveled, and the neighboring image processing apparatuses may be connected in consideration of ease of installation.

実施形態3Embodiment 3

実施形態3は、実施形態1、2とはネットワーク10のトポロジーが異なる場合の画像データ集約システムである。   Embodiment 3 is an image data aggregation system in the case where the topology of the network 10 is different from Embodiments 1 and 2.

図12は、実施形態3におけるシステム構成図であり、図13は、伝送経路を決定する過程を説明する図である。本実施形態のネットワーク10は、2個のリングネットワーク(10a、10b)から構成されておりネットワーク10aは右回りの伝送経路Gと左回りの伝送経路Hで構成されている。同様に、ネットワーク10bは右回りの伝送経路I、左回りの伝送経路Jで構成されている。本実施形態ではケーブルコストを考慮せずに撮影領域30のグループの1つと撮影領域31のグループの1つとを組み合わせた。具体的には、図13に示すように、列1300に示す前景オブジェクト領域のデータサイズ比率に基づき、カメラ120〜124、140〜143を列1311に示すように撮影領域毎にそれぞれ4個のグループにグルーピングをしている。そして列1312に示すように、撮影領域30のグループの1つと撮影領域31のグループの1つとを組み合わせ、その際望ましくは、伝送経路G〜Jの転送コストが平準化するように伝送経路G〜Jの1つに割り振る。尚、伝送経路G〜Jの伝送帯域に余裕がある場合は平準化させず、画像処理装置110〜114、130〜133とデータ集約サーバA100、データ集約サーバB101との距離を考慮し伝送経路を決定してもよい。   FIG. 12 is a diagram illustrating a system configuration according to the third embodiment, and FIG. 13 is a diagram illustrating a process of determining a transmission path. The network 10 of the present embodiment includes two ring networks (10a, 10b), and the network 10a includes a clockwise transmission path G and a counterclockwise transmission path H. Similarly, the network 10b includes a clockwise transmission path I and a counterclockwise transmission path J. In the present embodiment, one of the groups of the imaging regions 30 and one of the groups of the imaging regions 31 are combined without considering the cable cost. Specifically, as shown in FIG. 13, based on the data size ratio of the foreground object area shown in column 1300, cameras 120 to 124 and 140 to 143 are grouped into four groups for each shooting area as shown in column 1311. Grouping. Then, as shown in a column 1312, one of the groups of the photographing areas 30 and one of the groups of the photographing areas 31 are combined. At this time, it is preferable that the transmission paths G to J be equalized so that the transfer costs of the transmission paths G to J are equalized. Assign to one of J. If there is a margin in the transmission bandwidth of the transmission paths G to J, the transmission paths are not leveled, and the transmission paths are determined in consideration of the distances between the image processing apparatuses 110 to 114 and 130 to 133 and the data aggregation server A100 and the data aggregation server B101. You may decide.

実施形態4Embodiment 4

また、実施形態1〜3では、データサイズが同期して変化するデータを、撮影領域が同じ一群からの撮影画像データから前景オブジェクト領域を抽出した前景画像データとした。これに対し本実施形態では、前景オブジェクトの照度が同期して変化する撮影画像データ又は前景画像データを圧縮した圧縮画像データとしてもよい。前景オブジェクトの照度が変化するとノイズ量が変化し、圧縮率も変化するので、データサイズが変化する。そのため、前景オブジェクトの照度が同期して変化する撮影画像データは、圧縮されるとデータサイズも同期して変化する。このような圧縮率が同期して変化する撮影画像データを出力するカメラ群毎に、複数の伝送経路の使用率が平準化するよう圧縮画像データを割り振ってもよい。圧縮率は、圧縮した画像データの圧縮前後のデータサイズから算出してもよいし、カメラのISO感度から算出してもよい。尚、この圧縮率が同期して変化する圧縮画像データは、前景画像データを圧縮したものであっても、撮影画像データを圧縮したものでもよい。   In the first to third embodiments, the data whose data size changes synchronously is foreground image data obtained by extracting a foreground object region from photographed image data from a group having the same photographing region. On the other hand, in the present embodiment, captured image data in which the illuminance of the foreground object changes in synchronization or compressed image data obtained by compressing the foreground image data may be used. When the illuminance of the foreground object changes, the noise amount changes and the compression ratio also changes, so that the data size changes. Therefore, the captured image data in which the illuminance of the foreground object changes synchronously, the data size changes synchronously when compressed. Compressed image data may be allocated to each camera group that outputs captured image data in which such a compression ratio changes synchronously so that the usage rates of a plurality of transmission paths are equalized. The compression ratio may be calculated from the data size of the compressed image data before and after compression, or may be calculated from the ISO sensitivity of the camera. Note that the compressed image data whose compression ratio changes in synchronization may be data obtained by compressing foreground image data or data obtained by compressing photographed image data.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

100、101 データ集約サーバ
204 データサイズ算出部
205 伝送経路決定部
100, 101 Data aggregation server 204 Data size calculation unit 205 Transmission route determination unit

Claims (13)

複数のカメラの撮影画像データに所定の画像処理を施した複数の画像データを複数の伝送経路を介してサーバ装置に転送するシステムにおける各前記画像データのデータ転送に使用する伝送経路を決定する情報処理装置であって、
前記複数のカメラのそれぞれについて、前記撮影画像データに前記所定の画像処理を施した場合のデータサイズを算出する第1の算出手段と、
前記データサイズに基づき、前記所定の画像処理を施した場合のデータサイズが同期して変化する前記撮影画像データを出力するカメラ群毎に、前記複数の伝送経路の使用率が平準化するよう、各前記画像データのデータ転送に使用する伝送経路を決定する決定手段と、
を備えたことを特徴とする情報処理装置。
Information for determining a transmission path to be used for data transfer of each of the image data in a system for transferring a plurality of image data obtained by performing predetermined image processing on captured image data of a plurality of cameras to a server device through a plurality of transmission paths A processing device,
A first calculating unit that calculates a data size when the predetermined image processing is performed on the captured image data for each of the plurality of cameras;
Based on the data size, for each camera group that outputs the captured image data that changes in synchronization with the data size when the predetermined image processing is performed, so that the usage rates of the plurality of transmission paths are leveled, Determining means for determining a transmission path used for data transfer of each of the image data;
An information processing apparatus comprising:
前記複数のカメラの各々の撮影領域を示す撮影領域情報を取得する領域情報取得手段をさらに備え、
前記カメラ群は、前記撮影領域情報に基づき、同じ撮影領域を異なる方向から撮影するカメラで構成されていることを特徴とする請求項1に記載の情報処理装置。
Further comprising an area information acquisition means for acquiring imaging area information indicating the imaging area of each of the plurality of cameras,
The information processing apparatus according to claim 1, wherein the camera group is configured by cameras that photograph the same photographing region from different directions based on the photographing region information.
前記複数のカメラは、前記撮影領域が異なる複数の前記カメラ群を含み、
前記所定の画像処理は、前記撮影画像データから前景オブジェクト領域を抽出する画像処理であることを特徴とする請求項2に記載の情報処理装置。
The plurality of cameras includes a plurality of the camera group different in the shooting area,
The information processing apparatus according to claim 2, wherein the predetermined image processing is image processing for extracting a foreground object area from the captured image data.
前記第1の算出手段は、前記撮影画像データに占める前記前景オブジェクト領域の比率に基づき前記データサイズを算出することを特徴とする請求項3に記載の情報処理装置。   4. The information processing apparatus according to claim 3, wherein the first calculator calculates the data size based on a ratio of the foreground object area to the captured image data. 前記第1の算出手段は、前記撮影画像データに占める前記前景オブジェクト領域の画素数に基づき前記データサイズを算出することを特徴とする請求項3又は4に記載の情報処理装置。   5. The information processing apparatus according to claim 3, wherein the first calculation unit calculates the data size based on the number of pixels of the foreground object area occupying the captured image data. 6. 前記複数のカメラのそれぞれについての、イメージセンサの解像度及びサイズ、レンズの焦点距離、及び前景オブジェクトまでの距離に関する情報を含むカメラ情報を取得するカメラ情報取得手段をさらに備え、
前記第1の算出手段は、前記カメラ情報を用いて前記データサイズを算出することを特徴とする請求項2乃至5のいずれか一項に記載の情報処理装置。
For each of the plurality of cameras, further comprising camera information acquisition means for acquiring camera information including information on the resolution and size of the image sensor, the focal length of the lens, and the distance to the foreground object,
The information processing apparatus according to claim 2, wherein the first calculation unit calculates the data size using the camera information.
前記所定の画像処理は、画像圧縮処理であり、
前記カメラ群は、前記画像データの圧縮率が同期して変化する前記撮影画像データを出力するカメラから構成されていることを特徴とする請求項1に記載の情報処理装置。
The predetermined image processing is image compression processing,
2. The information processing apparatus according to claim 1, wherein the camera group includes cameras that output the captured image data in which a compression ratio of the image data changes synchronously. 3.
前記複数のカメラのそれぞれについての、ISO感度に関する情報を含むカメラ情報を取得するカメラ情報取得手段をさらに備え、
前記第1の算出手段は、前記カメラ情報を用いて前記データサイズを算出することを特徴とする請求項7に記載の情報処理装置。
A camera information acquisition unit for acquiring camera information including information on ISO sensitivity for each of the plurality of cameras,
The information processing apparatus according to claim 7, wherein the first calculation unit calculates the data size using the camera information.
前記第1の算出手段は、前記画像データを用いて前記データサイズを算出することを特徴とする請求項1乃至8のいずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first calculation unit calculates the data size using the image data. 前記複数の伝送経路のボトルネックのスループットを計測し、前記ボトルネックのスループットに基づき前記複数の伝送経路の伝送帯域を算出する第2の算出手段をさらに備え、
前記決定手段は、前記データサイズ及び前記伝送帯域に基づき、前記複数の伝送経路の使用率が平準化するよう、各前記画像データのデータ転送に使用する伝送経路を決定することを特徴とする請求項1乃至9のいずれか一項に記載の情報処理装置。
The apparatus further includes a second calculating unit that measures a throughput of the bottleneck of the plurality of transmission paths and calculates a transmission band of the plurality of transmission paths based on the throughput of the bottleneck,
The said determination means determines the transmission path used for the data transfer of each said image data based on the said data size and the said transmission band, so that the usage rate of the said several transmission path may be equalized. Item 10. The information processing device according to any one of items 1 to 9.
前記決定手段は、前記所定の画像処理を施した場合のデータサイズが同期して変化する前記撮影画像データを出力するカメラ群を構成するカメラが変更されたとき、変更されたカメラ群毎に各前記画像データのデータ転送に使用する伝送経路を決定することを特徴とする請求項1乃至10のいずれか一項に記載の情報処理装置。   The determining unit is configured such that, when a camera constituting a camera group that outputs the captured image data whose data size changes in synchronization with the predetermined image processing is changed, each of the changed camera groups is The information processing apparatus according to any one of claims 1 to 10, wherein a transmission path used for data transfer of the image data is determined. 複数のカメラの撮影画像データに所定の画像処理を施した複数の画像データを複数の伝送経路を介してサーバ装置に転送するシステムにおける各前記画像データのデータ転送に使用する伝送経路を決定する方法であって、
前記複数のカメラのそれぞれについて、前記撮影画像データに前記所定の画像処理を施した場合のデータサイズを算出するステップと、
前記データサイズに基づき、前記所定の画像処理を施した場合のデータサイズが同期して変化する前記撮影画像データを出力するカメラ群毎に、前記複数の伝送経路の使用率が平準化するよう、各前記画像データのデータ転送に使用する伝送経路を決定するステップと、
を有することを特徴とする方法。
A method for determining a transmission path to be used for data transfer of each of the image data in a system for transferring a plurality of image data obtained by performing predetermined image processing to image data captured by a plurality of cameras to a server device through a plurality of transmission paths And
For each of the plurality of cameras, calculating a data size when the predetermined image processing is performed on the captured image data,
Based on the data size, for each camera group that outputs the captured image data that changes in synchronization with the data size when the predetermined image processing is performed, so that the usage rates of the plurality of transmission paths are leveled, Determining a transmission path to be used for data transfer of each of the image data;
A method comprising:
複数のカメラの撮影画像データに所定の画像処理を施した複数の画像データを複数の伝送経路を介してサーバ装置に転送するシステムにおける各前記画像データのデータ転送に使用する伝送経路を決定する機能を実現させるプログラムであって、情報処理装置に、
前記複数のカメラのそれぞれについて、前記撮影画像データに前記所定の画像処理を施した場合のデータサイズを算出する第1の算出手段と、
前記データサイズに基づき、前記所定の画像処理を施した場合のデータサイズが同期して変化する前記撮影画像データを出力するカメラ群毎に、前記複数の伝送経路の使用率が平準化するよう、各前記画像データのデータ転送に使用する伝送経路を決定する決定手段と、
して機能させることを特徴とするプログラム。
A function of determining a transmission path to be used for data transfer of each of the image data in a system that transfers a plurality of image data obtained by performing predetermined image processing to image data captured by a plurality of cameras to a server device via a plurality of transmission paths. A program that realizes
A first calculating unit that calculates a data size when the predetermined image processing is performed on the captured image data for each of the plurality of cameras;
Based on the data size, for each camera group that outputs the captured image data that changes in synchronization with the data size when the predetermined image processing is performed, so that the usage rates of the plurality of transmission paths are leveled, Determining means for determining a transmission path used for data transfer of each of the image data;
A program characterized by functioning.
JP2018137939A 2018-07-23 2018-07-23 Information processing unit, method, and program Pending JP2020017803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018137939A JP2020017803A (en) 2018-07-23 2018-07-23 Information processing unit, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137939A JP2020017803A (en) 2018-07-23 2018-07-23 Information processing unit, method, and program

Publications (1)

Publication Number Publication Date
JP2020017803A true JP2020017803A (en) 2020-01-30

Family

ID=69581030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137939A Pending JP2020017803A (en) 2018-07-23 2018-07-23 Information processing unit, method, and program

Country Status (1)

Country Link
JP (1) JP2020017803A (en)

Similar Documents

Publication Publication Date Title
JP7121470B2 (en) Image processing system, control method, and program
CN106068495B (en) Streaming multiple encodings encoded using different encoding parameters
US20180204381A1 (en) Image processing apparatus for generating virtual viewpoint image and method therefor
CN112738495B (en) Virtual viewpoint image generation method, system, electronic device and storage medium
US8966556B2 (en) Real-time multi-media streaming bandwidth management
WO2020013077A1 (en) Device, control method, and program
US10708469B2 (en) Image processing apparatus, method of controlling the same, non-transitory computer-readable storage medium, and image processing system
CN109923867A (en) Transmit virtual reality video as a stream
CN112738534A (en) Data processing method and system, server and storage medium
US12211140B2 (en) Information processing apparatus, information processing method, and storage medium
JP2018191251A (en) Information processing system, information processing method, and program
JP2018077674A (en) Image processing device, image processing method and program
JP2019020845A (en) Image processing apparatus and method, and image processing system
JP7250588B2 (en) Image processing device, transmission method, and program
KR20190032670A (en) video service providing system using multi-view camera
JP2020017803A (en) Information processing unit, method, and program
US20140327781A1 (en) Method for video surveillance, a related system, a related surveillance server, and a related surveillance camera
CN118368371A (en) Video processing apparatus, method, and computer-readable storage medium
JP2019080183A (en) Image transmission device, image transmission method, and program
EP3926949B1 (en) Control apparatus, control method, and program
CN112738009A (en) Data synchronization method, device, synchronization system, medium and server
WO2022269723A1 (en) Communication system that performs synchronous control, synchronous control method therefor, reception server, and synchronous control program
JP2021034921A (en) Image processing device, control method of the same, system, and program
JP2022155063A (en) Communication device, control method, and program
JP2021093648A (en) Image data processing device, image data processing method, and program