[go: up one dir, main page]

JP7537425B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7537425B2
JP7537425B2 JP2021511155A JP2021511155A JP7537425B2 JP 7537425 B2 JP7537425 B2 JP 7537425B2 JP 2021511155 A JP2021511155 A JP 2021511155A JP 2021511155 A JP2021511155 A JP 2021511155A JP 7537425 B2 JP7537425 B2 JP 7537425B2
Authority
JP
Japan
Prior art keywords
imaging device
imaging
position information
information
post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021511155A
Other languages
Japanese (ja)
Other versions
JPWO2020202756A1 (en
Inventor
直秀 山田
博憲 服部
浩二 神谷
聡史 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020202756A1 publication Critical patent/JPWO2020202756A1/ja
Application granted granted Critical
Publication of JP7537425B2 publication Critical patent/JP7537425B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2228Video assist systems used in motion picture production, e.g. video cameras connected to viewfinders of motion picture cameras or related video signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.

スポーツ中継などにおいて、放送や配信、記録、転送が行われる映像(主映像)は、撮像装置の撮像により生成された映像のうちから選択される。主映像の選択は、映像の処理を行うシステムのユーザが、それぞれの映像を確認し、いずれの映像が主映像として適切であるかを判断することにより行われる。 In sports broadcasts and the like, the video to be broadcast, distributed, recorded, or transferred (main video) is selected from the video captured by an imaging device. The selection of the main video is performed by a user of the system that processes the video, who reviews each video and determines which video is appropriate as the main video.

その際、当該ユーザが撮像装置の状態を把握することで、主映像の選択をより容易に行うことが可能となる。例えば、特許文献1では、表示画面上のマップに、撮像装置の位置や向き、撮像範囲を表示する技術が開示されている。In this case, the user can more easily select the main image by understanding the state of the imaging device. For example, Patent Document 1 discloses a technology that displays the position, orientation, and imaging range of the imaging device on a map on a display screen.

特開平9-289606号公報Japanese Patent Application Publication No. 9-289606

ところで、撮像装置の位置や向きなどの状態の変更は、上記システムにより行われる場合や、現場の作業者により行われる場合がある。しかし、特許文献1では、撮像現場にいる作業者が撮像装置を移動させたり向きを変えたりすることについては、考慮されていない。Incidentally, changes to the state of the imaging device, such as its position and orientation, may be performed by the above-mentioned system or by workers at the site. However, Patent Document 1 does not take into consideration the fact that workers at the imaging site may move or change the orientation of the imaging device.

本開示によれば、映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部と、前記撮像装置位置情報の表示を制御する情報表示制御部と、を備える情報処理装置、が提供される。 According to the present disclosure, there is provided an information processing device including an imaging position information calculation unit that calculates the position and orientation of an imaging device as imaging device position information based on camera data received from the imaging device and linked to video data, and an information display control unit that controls the display of the imaging device position information.

また、本開示によれば、プロセッサが、映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出することと、前記撮像装置位置情報の表示を制御することと、を含む、情報処理方法、が提供される。 The present disclosure also provides an information processing method that includes a processor calculating a position and orientation of an imaging device as imaging device position information based on camera data received from the imaging device and linked to video data, and controlling display of the imaging device position information.

また、本開示によれば、コンピュータを、映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部と、前記撮像装置位置情報の表示を制御する情報表示制御部と、を備える、情報処理装置、として機能させるためのプログラム、が提供される。 In addition, according to the present disclosure, a program is provided for causing a computer to function as an information processing device that includes an imaging position information calculation unit that calculates the position and orientation of the imaging device as imaging device position information based on camera data received from the imaging device and that is linked to video data, and an information display control unit that controls the display of the imaging device position information.

本実施形態に係るシステム1の全体構成の一例について説明するための図である。FIG. 1 is a diagram for explaining an example of the overall configuration of a system 1 according to an embodiment of the present invention. 同実施形態に係る撮像装置10によるカメラデータの取得の一例について説明するための図である。10 is a diagram for explaining an example of acquisition of camera data by the imaging device 10 according to the embodiment. FIG. 同実施形態に係る撮像装置10およびCCU20によるカメラデータの重畳の一例について説明するための図である。11 is a diagram for explaining an example of superimposition of camera data by the imaging device 10 and the CCU 20 according to the embodiment. FIG. 同実施形態に係る情報処理装置30の機能構成の一例について説明するための図である。2 is a diagram illustrating an example of a functional configuration of an information processing device 30 according to the embodiment. FIG. 同実施形態に係る撮像位置情報算出部340による撮像装置10の撮像範囲の算出処理の一例について説明するための図である。13 is a diagram for explaining an example of a calculation process of the imaging range of the imaging device 10 by the imaging position information calculation unit 340 according to the embodiment. FIG. 同実施形態に係る情報表示制御部360による表示制御の一例について説明するための図である。13 is a diagram for explaining an example of display control by an information display control unit 360 according to the embodiment. FIG. 同実施形態に係る情報表示制御部360による次の主映像候補の表示制御の一例について説明するための図である。13 is a diagram for explaining an example of display control of the next main image candidate by the information display control unit 360 according to the embodiment. FIG. 同実施形態に係る情報表示制御部360による表示制御のさらなる一例について説明するための図である。13 is a diagram for explaining another example of display control by the information display control unit 360 according to the embodiment. FIG. 同実施形態に係る情報表示制御部360による次の主映像候補の表示制御の一例について説明するための図である。13 is a diagram for explaining an example of display control of the next main image candidate by the information display control unit 360 according to the embodiment. FIG. 同実施形態に係る情報表示制御部360による所定状況にある撮像装置10の表示制御の一例について説明するための図である。11 is a diagram for explaining an example of display control of the imaging device 10 in a predetermined situation by the information display control unit 360 according to the embodiment. FIG. 同実施形態に係る情報表示制御部360による撮像装置10の位置若しくは向きの少なくとも一方が履歴情報を満たさない場合の表示態様の制御の一例について説明するための図である。13 is a diagram for explaining an example of control of the display mode by the information display control unit 360 according to the embodiment when at least one of the position and the orientation of the imaging device 10 does not satisfy the history information. FIG. 同実施形態に係る情報表示制御部360による撮像装置10の位置若しくは向きの少なくとも一方が履歴情報を満たさない場合の表示態様の制御の一例について説明するための図である。13 is a diagram for explaining an example of control of the display mode by the information display control unit 360 according to the embodiment when at least one of the position and the orientation of the imaging device 10 does not satisfy the history information. FIG. 同実施形態に係る情報表示制御部360による情報入力部370の入力操作の受付けに係る表示制御、および情報入力部370による入力操作の受付けの一例について説明するための図である。13 is a diagram for explaining display control related to acceptance of an input operation of the information input unit 370 by the information display control unit 360 according to the embodiment, and an example of acceptance of the input operation by the information input unit 370. FIG. 同実施形態に係る情報処理装置30による複数の撮像装置10の撮像装置位置情報の算出処理に係る動作の流れの一例について説明するための図である。11 is a diagram for explaining an example of an operation flow relating to a process of calculating imaging device position information of a plurality of imaging devices 10 by the information processing device 30 according to the embodiment. FIG. 同実施形態に係る撮像位置情報算出部340による撮像装置10の撮像範囲の算出処理および情報表示制御部360による撮像範囲の表示処理に係る動作の流れの一例について説明するための図である。13 is a diagram for explaining an example of an operational flow relating to a calculation process of the imaging range of the imaging device 10 by the imaging position information calculation unit 340 according to the embodiment and a display process of the imaging range by the information display control unit 360. FIG. 同実施形態に係る情報処理装置30による複数の撮像装置10のうちいずれの撮像装置10の映像データを主映像として選択するかの処理に係る動作の流れの一例について説明するための図である。11 is a diagram for explaining an example of an operational flow relating to a process of selecting video data of which of a plurality of imaging devices 10 as a main video by the information processing device 30 according to the embodiment. 本開示の一実施形態に係る情報処理装置30のハードウェア構成例を示すブロック図である。2 is a block diagram showing an example hardware configuration of an information processing device 30 according to an embodiment of the present disclosure. FIG.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。A preferred embodiment of the present disclosure will be described in detail below with reference to the accompanying drawings. Note that in this specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

なお、説明は以下の順序で行うものとする。
1.背景
2.実施形態
2.1.全体構成例
2.2.情報処理装置30の機能構成例
2.3.表示制御例
2.3.1.表示制御例1
2.3.2.表示制御例2
2.3.3.表示制御例3
2.3.4.表示制御例4
2.3.5.表示制御例5
2.3.6.表示制御例6
2.3.7.表示制御例7
2.4.動作例
2.4.1.動作例1
2.4.2.動作例2
2.4.3.動作例3
3.ハードウェア構成例
4.まとめ
The explanation will be given in the following order.
1. Background 2. Embodiment 2.1. Overall configuration example 2.2. Functional configuration example of information processing device 30 2.3. Display control example 2.3.1. Display control example 1
2.3.2. Display control example 2
2.3.3. Display control example 3
2.3.4. Display control example 4
2.3.5. Display control example 5
2.3.6. Display control example 6
2.3.7. Display control example 7
2.4. Operational examples 2.4.1. Operational example 1
2.4.2. Operation example 2
2.4.3. Operation example 3
3. Hardware configuration example 4. Summary

<1.背景>
まず、本開示に係る背景について説明する。スポーツ観戦などの分野において、映像の放送や配信、記録、転送を行うシステムにおいて、ユーザは、複数の撮像装置の撮像により生成された映像を確認しながら、いずれの映像を放送や配信、記録、転送を行う主映像とするかの選択を行っている。そのため、ユーザは、生成された映像が複数存在する場合に、それぞれの映像を確認して、いずれの映像を主映像として選択すればよいのかをリアルタイムに判断する。例えばスポーツ中継の場面において、ユーザは、撮像対象の選手がより大きく写されている映像を選択したり、所定の選手が写されている映像を選択したりする。
1. Background
First, the background of the present disclosure will be described. In a system for broadcasting, distributing, recording, and transferring video in the field of sports watching, etc., a user checks video generated by imaging of multiple imaging devices and selects which video to broadcast, distribute, record, and transfer as the main video. Therefore, when there are multiple generated videos, the user checks each video and determines in real time which video should be selected as the main video. For example, in a sports broadcast scene, the user selects a video in which the target player is shown larger, or a video in which a specific player is shown.

また、撮像現場に配置された撮像装置の位置や向きなどが、ユーザにより把握可能な状態であると、より適した映像を選択することできるようになる。特許文献1では、表示画面上のマップに、撮像装置の位置や向き、撮像範囲を表示する技術が開示されている。しかし、特許文献1では、撮像現場に存在する作業者が撮像装置を移動させたり向きを変えたりすることに応じた表示の変化ついては考慮されていない。Furthermore, if the user can grasp the position and orientation of the imaging device placed at the imaging site, it will be possible to select more appropriate images. Patent Document 1 discloses a technology that displays the position, orientation, and imaging range of the imaging device on a map on a display screen. However, Patent Document 1 does not take into consideration changes in the display in response to a worker at the imaging site moving or changing the orientation of the imaging device.

本開示に係る技術思想は上記の点に鑑みて発想されたものであり、撮像装置の位置や向き、撮像範囲をリアルタイムに視覚的に把握することができ、いずれの撮像装置で生成された映像データを選択すればよいかを直観的に判断することが可能となる。The technical concept of the present disclosure has been conceived in consideration of the above points, and makes it possible to visually grasp the position, orientation, and imaging range of the imaging device in real time, and intuitively determine which imaging device generated the video data to select.

<2.実施形態>
<<2.1.全体構成例>>
続いて、図1を参照して、本実施形態に係るシステム1の全体構成の一例について説明する。本実施形態に係るシステム1は、撮像装置10、CCU(Camera Control Unit)20、情報処理装置30、ネットワーク40、および後段処理装置50、を備える。
2. Embodiment
<<2.1. Overall configuration example >>
Next, an example of the overall configuration of a system 1 according to the present embodiment will be described with reference to Fig. 1. The system 1 according to the present embodiment includes an imaging device 10, a CCU (Camera Control Unit) 20, an information processing device 30, a network 40, and a post-processing device 50.

撮像装置10は、撮像により映像データを生成する。また、撮像装置10は、撮像装置10の状態を示す情報をカメラデータとして取得してもよい。カメラデータは、映像データに例えば重畳される形で紐づけられ、後述するCCU20へ送信される。The imaging device 10 generates video data by capturing an image. The imaging device 10 may also acquire information indicating the state of the imaging device 10 as camera data. The camera data is linked to the video data, for example by being superimposed thereon, and transmitted to the CCU 20, which will be described later.

CCU20は、撮像装置10の制御および撮像装置10から映像データおよび映像データに紐づけられたカメラデータを受信する。また、CCU20は、当該映像データを後述する情報処理装置30へ送信する。The CCU 20 controls the imaging device 10 and receives video data and camera data linked to the video data from the imaging device 10. The CCU 20 also transmits the video data to the information processing device 30 described later.

なお、図1に示されるように、システム1は、複数の撮像装置10a~10nと複数のCCU20a~20nを、それぞれ組み合わせて備えてもよい。撮像装置10とCCU20とは、例えばカメラケーブルにより接続され得る。ここで、図2および図3を参照して、本実施形態に係る撮像装置10およびCCU20によるカメラデータの取得および重畳の一例について説明する。As shown in Figure 1, the system 1 may include a combination of multiple imaging devices 10a-10n and multiple CCUs 20a-20n. The imaging devices 10 and the CCU 20 may be connected by, for example, a camera cable. Here, an example of the acquisition and superimposition of camera data by the imaging device 10 and CCU 20 according to this embodiment will be described with reference to Figures 2 and 3.

図2は、本実施形態に係る撮像装置10によるカメラデータの取得の一例について説明するための図である。図2には、撮像装置10が概略的に示されている。撮像装置10は、各部から種々の情報を取得する。例えば、撮像装置10が備えるCPU(Central Processing Unit)は、レンズからズーム値やフォーカス距離などのデータを、モーションセンサから撮像装置10の加速度情報や角度情報を、撮像装置10に装着された三脚からパンやチルトに関する情報を、カメラデータとして取得してよい。撮像装置10のCPUは、上記の取得した情報を後述するCCU20へ送信する。 Figure 2 is a diagram for explaining an example of camera data acquisition by the imaging device 10 according to this embodiment. The imaging device 10 is shown in FIG. 2. The imaging device 10 acquires various information from each part. For example, a CPU (Central Processing Unit) provided in the imaging device 10 may acquire, as camera data, data such as zoom value and focus distance from a lens, acceleration information and angle information of the imaging device 10 from a motion sensor, and information regarding pan and tilt from a tripod attached to the imaging device 10. The CPU of the imaging device 10 transmits the acquired information to the CCU 20 described later.

図3は、本実施形態に係る撮像装置10およびCCU20によるカメラデータの重畳の一例について説明するための図である。図3には、撮像装置10およびCCU20が概略的に示されている。撮像装置10は、図2で示されたカメラデータを、カメラケーブルを介してCCU20のCPUへ送信する。一方で、撮像装置10のカメラプロセッサは、撮像により生成された撮像データを、カメラケーブルを介して、CCU20のビデオプロセッサに送信する。CCU20のビデオフォーマタ(ソフトウェア)は、カメラデータを映像データに重畳させて、カメラデータが重畳された映像データをSDI(Serial Digital Interface)形式で情報処理装置30へ送信する。なお、映像データには、タイムコードが重畳されている。 Figure 3 is a diagram for explaining an example of camera data superimposition by the imaging device 10 and CCU 20 according to this embodiment. In Figure 3, the imaging device 10 and CCU 20 are shown in outline. The imaging device 10 transmits the camera data shown in Figure 2 to the CPU of the CCU 20 via the camera cable. Meanwhile, the camera processor of the imaging device 10 transmits the imaging data generated by imaging to the video processor of the CCU 20 via the camera cable. The video formatter (software) of the CCU 20 superimposes the camera data on the video data and transmits the video data on which the camera data is superimposed to the information processing device 30 in SDI (Serial Digital Interface) format. Note that a time code is superimposed on the video data.

なお、映像データおよびカメラデータは、イーサネット(登録商標)などのネットワークを介して、カメラデータが映像ストリーミングフォーマットのヘッダに重畳されることにより情報処理装置30へ送信されてもよい。また、以下明細書において、SDI形式でカメラデータが情報処理装置30に送信される例について説明するが、カメラデータの送受信は係る例に限定されない。例えば、情報処理装置30は、GPS(Global Positioning System)を利用することにより、撮像装置10のカメラデータを取得してもよい。 The video data and camera data may be transmitted to the information processing device 30 via a network such as Ethernet (registered trademark) by superimposing the camera data on a header of a video streaming format. In the following specification, an example in which camera data is transmitted to the information processing device 30 in SDI format is described, but the transmission and reception of camera data is not limited to this example. For example, the information processing device 30 may acquire the camera data of the imaging device 10 by using a GPS (Global Positioning System).

再び、図1を参照して、本実施形態に係るシステム1の全体構成の一例について説明する。 Referring again to Figure 1, an example of the overall configuration of system 1 in this embodiment will be described.

情報処理装置30は、SDI形式でCCU20から受信したカメラデータに基づいて、撮像装置10の位置および向きを算出し、算出結果に基づいて撮像装置の位置および向きを示す情報を表示する。ここで以下、撮像装置の位置および向きを示す情報を撮像装置位置情報とも称する。また、情報処理装置30は、カメラデータに基づいて撮像装置10の撮像範囲を算出し、算出した撮像範囲を示す情報を表示してもよい。すなわち、撮像装置位置情報は、撮像装置10の位置や向き、撮像範囲を示す情報を含む。情報処理装置30は、例えばディスプレイ装置を備え、上記情報を表示してもよい。The information processing device 30 calculates the position and orientation of the imaging device 10 based on the camera data received from the CCU 20 in SDI format, and displays information indicating the position and orientation of the imaging device based on the calculation result. Hereinafter, the information indicating the position and orientation of the imaging device is also referred to as imaging device position information. The information processing device 30 may also calculate the imaging range of the imaging device 10 based on the camera data, and display information indicating the calculated imaging range. In other words, the imaging device position information includes information indicating the position, orientation, and imaging range of the imaging device 10. The information processing device 30 may be equipped with a display device, for example, and may display the above information.

情報処理装置30は、後述するネットワーク40を介して外部のデータベースサーバから補助データを受信してよい。ここで、補助データとは、撮像現場に存在する撮像対象であるオブジェクトに係る情報をいう。オブジェクトに係る情報は、例えばオブジェクトの位置を示すオブジェクト位置情報を含む。オブジェクトは、例えばシステム1がスポーツ中継に用いられる場合、選手やボールなどである。The information processing device 30 may receive auxiliary data from an external database server via the network 40 described below. Here, auxiliary data refers to information related to an object that is the subject of imaging and exists at the imaging site. Information related to the object includes, for example, object position information indicating the position of the object. For example, when the system 1 is used for sports broadcasting, the object is a player or a ball.

情報処理装置30は、映像データ、カメラデータ、および補助データに基づいて、フィールド(撮像現場)に係る情報、オブジェクト位置情報、および撮像装置位置情報を互いに対応付けて表示してよい。情報処理装置30による種々の処理についての詳細は後述する。The information processing device 30 may display information related to the field (imaging site), object position information, and imaging device position information in association with each other based on the video data, camera data, and auxiliary data. Details of various processes performed by the information processing device 30 will be described later.

ネットワーク40は、情報処理装置30と外部のデータベースサーバとを接続する機能を有する。ネットワーク40は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク40は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク40は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。補助データは、ネットワーク40を介して、外部のデータベースサーバから情報処理装置30へと送信される。The network 40 has a function of connecting the information processing device 30 to an external database server. The network 40 may include public line networks such as the Internet, telephone line networks, and satellite communication networks, as well as various LANs (Local Area Networks) including Ethernet (registered trademark), and WANs (Wide Area Networks). The network 40 may also include dedicated line networks such as IP-VPN (Internet Protocol-Virtual Private Network). The network 40 may also include wireless communication networks such as Wi-Fi (registered trademark) and Bluetooth (registered trademark). The auxiliary data is transmitted from the external database server to the information processing device 30 via the network 40.

後段処理装置50は、情報処理装置30からの要求に基づいて、情報処理装置30から送信された種々のデータを用いて、主映像のスイッチングやハイライト映像の作成を実行する。なお、後段処理装置50は、一部の映像データやカメラデータを撮像装置10もしくはCCU20から情報処理装置30を介さずに受信してもよい。Based on a request from the information processing device 30, the post-processing device 50 performs switching of the main video and creation of a highlight video using various data transmitted from the information processing device 30. Note that the post-processing device 50 may receive some of the video data and camera data from the imaging device 10 or the CCU 20 without going through the information processing device 30.

<<2.2.情報処理装置30の機能構成例>>
続いて、図4を参照して、本実施形態に係る情報処理装置30の機能構成の一例について説明する。本実施形態に係る情報処理装置30は、データ通信部310、映像カメラデータ取得部320、補助データ取得部330、撮像位置情報算出部340、制作用データ解析部350、情報表示制御部360、情報入力部370、後段処理要求部380、格納部391および記憶部392を備える。
<<2.2. Example of functional configuration of information processing device 30>>
Next, an example of the functional configuration of the information processing device 30 according to this embodiment will be described with reference to Fig. 4. The information processing device 30 according to this embodiment includes a data communication unit 310, a video camera data acquisition unit 320, an auxiliary data acquisition unit 330, an imaging position information calculation unit 340, a production data analysis unit 350, an information display control unit 360, an information input unit 370, a post-processing request unit 380, a storage unit 391, and a memory unit 392.

データ通信部310は、映像データおよび映像データに紐づけられたカメラデータをCCU20から受信する。また、データ通信部310は、ネットワーク40を介して外部のデータベースサーバから補助データを受信してよい。なお、データ通信部310は、その他必要とされる通信をCCU20や外部のデータベースサーバとの間で実行してもよい。The data communication unit 310 receives video data and camera data linked to the video data from the CCU 20. The data communication unit 310 may also receive auxiliary data from an external database server via the network 40. The data communication unit 310 may also perform other required communications between the CCU 20 and the external database server.

映像カメラデータ取得部320は、データ通信部310が受信したデータから映像データおよびカメラデータを取得する。映像カメラデータ取得部320は、取得した映像データおよびカメラデータを、撮像位置情報算出部340および制作用データ解析部350のそれぞれへ送信する。The video camera data acquisition unit 320 acquires video data and camera data from the data received by the data communication unit 310. The video camera data acquisition unit 320 transmits the acquired video data and camera data to the imaging position information calculation unit 340 and the production data analysis unit 350, respectively.

補助データ取得部330は、データ通信部310が受信したデータから補助データを取得する。補助データ取得部330は、取得した補助データのうち、例えばオブジェクト位置情報などを撮像位置情報算出部340へ送信し、また、後段処理装置50による後段処理に用いられるデータを制作用データ解析部350へ送信する。The auxiliary data acquisition unit 330 acquires auxiliary data from the data received by the data communication unit 310. The auxiliary data acquisition unit 330 transmits, from the acquired auxiliary data, for example, object position information to the imaging position information calculation unit 340, and also transmits data used in subsequent processing by the subsequent processing device 50 to the production data analysis unit 350.

撮像位置情報算出部340は、映像データに紐づけられた、撮像装置10から受信されたカメラデータに基づいて、撮像装置位置情報として撮像装置位置情報として撮像装置10の位置および向きを算出する。また、撮像位置情報算出部340は、受信されたカメラデータが含む撮像装置10の画角およびフォーカス距離を示す情報に基づいて、撮像装置10の撮像範囲をさらに算出してもよい。The imaging position information calculation unit 340 calculates the position and orientation of the imaging device 10 as imaging device position information based on the camera data linked to the video data and received from the imaging device 10. The imaging position information calculation unit 340 may further calculate the imaging range of the imaging device 10 based on information indicating the angle of view and focus distance of the imaging device 10 included in the received camera data.

ここで、撮像位置情報算出部340による撮像装置10の撮像範囲の算出例について説明する。まず、撮像位置情報算出部340は、撮像装置10の特性を示す情報と撮像装置10に装着されたレンズの特性を示す情報をデータテーブルとして予め保持しておく。撮像装置10の特性とレンズの特性は、それぞれ撮像装置10の型番とレンズの型番に対応付けられるように保持されてもよい。Here, an example of calculation of the imaging range of the imaging device 10 by the imaging position information calculation unit 340 will be described. First, the imaging position information calculation unit 340 stores information indicating the characteristics of the imaging device 10 and information indicating the characteristics of the lens attached to the imaging device 10 in advance as a data table. The characteristics of the imaging device 10 and the characteristics of the lens may be stored so as to be associated with the model number of the imaging device 10 and the model number of the lens, respectively.

撮像位置情報算出部340は、例えばカメラデータが含むズーム値に基づいて画角を算出する。撮像位置情報算出部340は、ズーム値およびフォーカス距離に基づいて、撮像装置10からどの程度の水平距離だけ離れたオブジェクトが撮像の対象であるのかを算出する。最終的に、撮像位置情報算出部340は、画角とピント位置に基づいて、撮像範囲を算出する。The imaging position information calculation unit 340 calculates the angle of view based on, for example, a zoom value included in the camera data. The imaging position information calculation unit 340 calculates the horizontal distance from the imaging device 10 that an object to be imaged is located based on the zoom value and the focus distance. Finally, the imaging position information calculation unit 340 calculates the imaging range based on the angle of view and the focus position.

また、撮像装置10とオブジェクトとの間で垂直距離が存在する(高さが異なる)ときなどのような、撮像装置10が上下方向に向きを変えている場合、撮像装置10が水平方向に向いている場合と比較して、撮像装置10の撮影範囲の水平距離は短くなる。 In addition, when the imaging device 10 is turned up or down, such as when there is a vertical distance between the imaging device 10 and the object (different heights), the horizontal distance of the imaging range of the imaging device 10 is shorter than when the imaging device 10 is facing horizontally.

ここで、図5を参照して、本実施形態に係る撮像位置情報算出部340による撮像装置10の撮像範囲の算出処理の一例について説明する。図5左側には、撮像装置10の撮像範囲を示す図CA1および撮像装置10とオブジェクトとの間で垂直距離が存在する場合の各距離を示す図CVが示されている。Here, an example of a calculation process of the imaging range of the imaging device 10 by the imaging position information calculation unit 340 according to this embodiment will be described with reference to Fig. 5. On the left side of Fig. 5, a diagram CA1 showing the imaging range of the imaging device 10 and a diagram CV showing the respective distances when a vertical distance exists between the imaging device 10 and an object are shown.

図5左側の撮像装置10の撮像範囲を示す図CA1において、ピント距離Lおよび画角θaの撮像範囲が示されている。ここで示される撮像範囲は、高低差が存在しない場合、すなわち撮像装置10が水平を向いている場合の範囲である。また、図5左側の撮像装置10とオブジェクトとの間で垂直距離が存在する場合の各距離を示す図CVにおいて、ピント距離L、仰角θb、水平距離D、垂直距離hが示されている。ここでの、ピント距離Lは、撮像装置10の撮像範囲を示す図CA1に示されたピント距離Lと同一である。 Diagram CA1 showing the imaging range of the imaging device 10 on the left side of Figure 5 shows the imaging range of the focus distance L and the angle of view θa. The imaging range shown here is the range when there is no elevation difference, i.e. when the imaging device 10 is facing horizontally. Also, diagram CV showing the respective distances when there is a vertical distance between the imaging device 10 and the object on the left side of Figure 5 shows the focus distance L, elevation angle θb, horizontal distance D, and vertical distance h. The focus distance L here is the same as the focus distance L shown in diagram CA1 showing the imaging range of the imaging device 10.

垂直距離hは、例えば撮像現場であるフィールドにおけるそれぞれの位置に予め計測された高さを用いて算出されてもよい。他にも、垂直距離hは、撮像装置10およびオブジェクトに備えられたセンサに基づいて検出される高さを用いて算出されてもよい。また、例えばサッカーコートのようなフィールドの大部分が同じ高さである場合などにおいて、所定位置の高さをフィールド全体の高さとみなし、当該高さと撮像装置10やオブジェクトの高さとの差分を用いることにより、垂直距離hが算出されてもよい。The vertical distance h may be calculated, for example, using heights measured in advance at each position on the field where the image is captured. Alternatively, the vertical distance h may be calculated using heights detected based on sensors provided on the image capture device 10 and the object. In addition, in cases where most of a field, such as a soccer field, is the same height, the height of a predetermined position may be regarded as the height of the entire field, and the vertical distance h may be calculated using the difference between that height and the height of the image capture device 10 or the object.

撮像位置情報算出部340は、ピント距離Lにおよび上述するような方法で算出された垂直距離hに基づいて、水平距離Dを算出する。次に、撮像位置情報算出部340は、算出した水平距離Dに基づいて、図5右側に示される撮像装置10の撮像範囲を示す図CA2のように、撮像装置10とオブジェクトとの高低差がある場合、すなわち撮像装置10が上下方向に向きを変えている場合の撮像範囲を算出する。The imaging position information calculation unit 340 calculates the horizontal distance D based on the focal distance L and the vertical distance h calculated by the method described above. Next, based on the calculated horizontal distance D, the imaging position information calculation unit 340 calculates the imaging range when there is a difference in height between the imaging device 10 and the object, i.e., when the imaging device 10 is turning up and down, as shown in FIG. CA2 showing the imaging range of the imaging device 10 shown on the right side of FIG. 5.

このように、撮像装置10とオブジェクトとの間に高さの差が存在する場合でも、水平距離でどの程度の撮像範囲かを確認することができ、主映像として選択すべき映像を撮像している撮像装置10をより正確に選択することが可能となる。In this way, even if there is a height difference between the imaging device 10 and the object, it is possible to check the imaging range in horizontal distance, making it possible to more accurately select the imaging device 10 capturing the image to be selected as the main image.

他にも、撮像位置情報算出部340は、例えば映像データや補助データに基づいて、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報を算出し、オブジェクト位置情報と撮像装置位置情報とを対応付けてもよい。オブジェクト位置情報は、映像データに撮影対象のオブジェクトが映っているか否か、映っている場合はどの程度の大きさで映っているかに基づいて、算出されてよい。また、撮像位置情報算出部340は、カメラデータおよび補助データに基づいて、主映像とすべき映像データに対応する撮像装置10や次に主映像とすべき映像データを生成すると予想される撮像装置10を特定してもよい。また、撮像位置情報算出部340は、撮像対象であるオブジェクトの位置と撮像装置10の位置とを対応付けてさらに算出してもよい。Alternatively, the imaging position information calculation unit 340 may calculate object position information indicating the position of the object to be imaged, for example, based on the video data and auxiliary data, and may associate the object position information with the imaging device position information. The object position information may be calculated based on whether the object to be imaged is captured in the video data, and, if so, how large it is captured. Furthermore, the imaging position information calculation unit 340 may identify the imaging device 10 corresponding to the video data to be used as the main video, or the imaging device 10 expected to generate the video data to be used as the main video next, based on the camera data and auxiliary data. Furthermore, the imaging position information calculation unit 340 may further calculate the position of the object to be imaged and the position of the imaging device 10 by associating them.

なお、撮像位置情報算出部340は、複数の撮像装置10がCCU20を介して情報処理装置30と接続されている場合、それぞれの撮像装置10に関して上記処理を実行してもよい。 In addition, when multiple imaging devices 10 are connected to the information processing device 30 via the CCU 20, the imaging position information calculation unit 340 may perform the above processing for each imaging device 10.

再び、図4を参照して、本実施形態に係る情報処理装置30の機能構成の一例について説明する。 Referring again to Figure 4, an example of the functional configuration of the information processing device 30 in this embodiment will be described.

制作用データ解析部350は、映像カメラデータ取得部320から映像データ、カメラデータおよび補助データを、補助データ取得部330から補助データを取得し、後述する記憶部392に記憶させる。また、制作用データ解析部350は、映像データおよびカメラデータをタイムコードに紐づけて記憶部392に記憶させてよい。The production data analysis unit 350 acquires the video data, camera data, and auxiliary data from the video camera data acquisition unit 320, and the auxiliary data from the auxiliary data acquisition unit 330, and stores them in the storage unit 392 described below. The production data analysis unit 350 may also store the video data and camera data in the storage unit 392 by linking them to a time code.

制作用データ解析部350は、後述する後段処理要求部380からの要求に基づいて所定の映像データおよびカメラデータを後段処理要求部380へ提供する映像作成制御部の一例である。制作用データ解析部350が提供した映像データやカメラデータ、補助データは、後段処理要求部380を介して後段処理装置50に送信され、主映像のスイッチングやハイライト映像の作成などに用いられ得る。The production data analysis unit 350 is an example of a video creation control unit that provides predetermined video data and camera data to the post-processing request unit 380 based on a request from the post-processing request unit 380 described below. The video data, camera data, and auxiliary data provided by the production data analysis unit 350 are transmitted to the post-processing device 50 via the post-processing request unit 380, and can be used for switching the main video, creating highlight footage, and the like.

情報表示制御部360は、撮像位置情報算出部340が算出した撮像装置10の位置および向きを示す情報の表示を制御する。情報表示制御部360は、撮像位置情報算出部340が撮像装置10の撮像範囲を算出していた場合、算出された撮像範囲の表示を制御してもよい。また、情報表示制御部360は、撮像位置情報算出部340がオブジェクトの位置を算出していた場合、算出されたオブジェクトの位置の表示を撮像装置10の位置と対応するように制御してもよい。The information display control unit 360 controls the display of information indicating the position and orientation of the imaging device 10 calculated by the imaging position information calculation unit 340. When the imaging position information calculation unit 340 has calculated the imaging range of the imaging device 10, the information display control unit 360 may control the display of the calculated imaging range. Furthermore, when the imaging position information calculation unit 340 has calculated the position of an object, the information display control unit 360 may control the display of the calculated position of the object so that it corresponds to the position of the imaging device 10.

情報表示制御部360による表示制御例については具体例を後述する。 Specific examples of display control by the information display control unit 360 will be described later.

情報入力部370は、情報表示制御部360が表示した情報に対する入力操作を受け付ける。例えば情報入力部370は、タッチパネルを情報表示制御部360に重畳するように備え、情報表示制御部360が表示した情報に対するタッチ操作を受け付けてもよい。また、情報入力部370は、撮像装置10による撮像により生成された映像データを用いてハイライト映像の作成要求を受け付けてもよい。The information input unit 370 accepts an input operation on the information displayed by the information display control unit 360. For example, the information input unit 370 may be provided with a touch panel superimposed on the information display control unit 360, and may accept a touch operation on the information displayed by the information display control unit 360. The information input unit 370 may also accept a request to create a highlight video using video data generated by imaging by the imaging device 10.

後段処理要求部380は、主映像として選択された撮像装置10の切替え処理を後段処理装置50に要求する。また、後段処理要求部380は、複数の撮像装置10が生成した撮像データを用いてハイライト映像を作成するように後段処理装置50に要求してもよい。撮像装置10の切替え処理やハイライト映像の作成処理の要求は、例えば情報入力部370が受け付けた入力に基づいて、後段処理要求部380が実行し得る。なお、後段処理要求部380は、ハイライト映像の作成要求に際し、ハイライト映像の生成に必要な映像データ、当該映像データに紐づけられたカメラデータ、および補助データを制作用データ解析部350から受信する。The post-processing request unit 380 requests the post-processing device 50 to switch the imaging device 10 selected as the main video. The post-processing request unit 380 may also request the post-processing device 50 to create a highlight video using imaging data generated by multiple imaging devices 10. The request for switching the imaging device 10 and the creation of the highlight video may be executed by the post-processing request unit 380 based on, for example, input received by the information input unit 370. When requesting the creation of a highlight video, the post-processing request unit 380 receives the video data required to generate the highlight video, the camera data linked to the video data, and auxiliary data from the production data analysis unit 350.

格納部391は、撮像装置10の変化履歴を示す履歴情報を格納する。格納部391が格納する履歴情報は、情報表示制御部360による撮像装置10の位置もしくは向きの少なくとも一方が履歴情報を満たさない場合の表示制御に用いられる。The storage unit 391 stores history information indicating the change history of the imaging device 10. The history information stored in the storage unit 391 is used for display control by the information display control unit 360 when at least one of the position or orientation of the imaging device 10 does not satisfy the history information.

記憶部392は、撮像装置10から送信された映像データ、当該映像データに紐づけられたカメラデータ、およびネットワーク40を介して外部のデータベースサーバから送信された補助データを記憶する。記憶部392は、制作用データ解析部350の制御に基づいて適宜上記データを制作用データ解析部350へ提供する。The storage unit 392 stores the video data transmitted from the imaging device 10, the camera data linked to the video data, and the auxiliary data transmitted from an external database server via the network 40. The storage unit 392 provides the above data to the production data analysis unit 350 as appropriate based on the control of the production data analysis unit 350.

以上、本実施形態に係る情報処理装置30の機能構成例について説明した。なお、図4を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理装置30の機能構成は係る例に限定されない。An example of the functional configuration of the information processing device 30 according to this embodiment has been described above. Note that the functional configuration described above using FIG. 4 is merely an example, and the functional configuration of the information processing device 30 according to this embodiment is not limited to this example.

<<2.3.表示制御例>>
続いて、図6~図11を参照して、本実施形態に係る情報表示制御部360による表示制御の具体例について説明する。
<<2.3. Display control example>>
Next, a specific example of display control by the information display control unit 360 according to the present embodiment will be described with reference to FIGS.

[2.3.1.表示制御例1]
まず、図6を参照して、本実施形態に係る情報表示制御部360による表示制御の一例について説明する。情報表示制御部360は、撮像位置情報算出部340が算出した、撮像装置位置情報としての撮像装置10の位置および向きを示す情報の表示を制御する。例えば、撮像装置10の位置および向きを示す情報の表示制御は、撮像装置10のアイコンが、フィールド内の対応する位置に、また、実際に撮像装置10が向いている方向が分かるような向きで表示されることで、表現されてもよい。また、情報表示制御部360は、複数の撮像装置10のうちの主映像として選択された撮像装置10の位置および向きを示す情報を、他の撮像装置10の位置および向きを示す情報と異なるように表示を制御してもよい。
[2.3.1. Display control example 1]
First, an example of display control by the information display control unit 360 according to the present embodiment will be described with reference to FIG. 6. The information display control unit 360 controls the display of information indicating the position and orientation of the imaging device 10 as imaging device position information calculated by the imaging position information calculation unit 340. For example, the display control of the information indicating the position and orientation of the imaging device 10 may be expressed by displaying an icon of the imaging device 10 at a corresponding position in the field and in a direction that allows the user to know the direction in which the imaging device 10 is actually facing. In addition, the information display control unit 360 may control the display of information indicating the position and orientation of the imaging device 10 selected as the main image from among the multiple imaging devices 10 so as to be different from information indicating the positions and orientations of the other imaging devices 10.

図6の一例について説明する。図6には、情報表示制御部360による画面表示例が示されている。具体的には図6に、撮像現場であるフィールドを示す情報、撮像装置10のアイコン10a~10k、アイコン10a~10kのそれぞれに対応する撮像範囲ARa~ARk、およびレーシングカーであるオブジェクトO1~O3が示されている。ここで、撮像装置10gは、例えば主映像として選択されている映像データを生成している。ここで、映像データが主映像として選択されているが他の撮像装置10と異なるように表示されている。An example will be described with reference to FIG. 6. FIG. 6 shows an example of a screen display by the information display control unit 360. Specifically, FIG. 6 shows information indicating the field where the imaging is taking place, icons 10a-10k of the imaging devices 10, imaging ranges ARa-ARk corresponding to the icons 10a-10k, respectively, and objects O1-O3 which are racing cars. Here, the imaging device 10g generates video data that has been selected as the main video, for example. Here, the video data has been selected as the main video, but is displayed differently from the other imaging devices 10.

このように、撮像位置情報算出部340が算出した撮像装置10およびオブジェクトに係る情報を、情報表示制御部360ひとつの画面上に表示することで、ユーザは撮像範囲を含む撮像装置10とオブジェクトとの位置関係を直観的に把握することが可能となる。In this way, by displaying the information relating to the imaging device 10 and the object calculated by the imaging position information calculation unit 340 on a single screen of the information display control unit 360, the user can intuitively grasp the positional relationship between the imaging device 10, including the imaging range, and the object.

なお、情報表示制御部360は、上記情報の表示をリアルタイムに制御してよい。具体的には、情報表示制御部360は、撮像装置10が移動したり回転したりするなどにより位置や向きの変化が起こった場合に、当該変化をリアルタイムに反映するように表示を制御してもよい。なお、上述したように映像データおよび当該映像データに紐づけられたカメラデータが撮像装置10からCCU20を介して情報処理装置30に送信される。そのため、撮像現場の操作者により撮像装置10が移動したり回転したりする場合などのように、情報処理装置30のユーザが撮像装置10の位置や向きの制御を行わない場合でも、情報表示制御部360は、撮像装置10の位置や向きをリアルタイムに表示することができる。The information display control unit 360 may control the display of the above information in real time. Specifically, when a change in position or orientation occurs due to the imaging device 10 moving or rotating, the information display control unit 360 may control the display to reflect the change in real time. As described above, the video data and the camera data linked to the video data are transmitted from the imaging device 10 to the information processing device 30 via the CCU 20. Therefore, even if the user of the information processing device 30 does not control the position or orientation of the imaging device 10, such as when the imaging device 10 is moved or rotated by an operator at the imaging site, the information display control unit 360 can display the position and orientation of the imaging device 10 in real time.

また、情報入力部370は、情報表示制御部360が表示した撮像装置10の位置および向きを示す情報に対して、入力操作を受け付けてもよい。ここでの入力操作は、例えばタッチパネルが重畳されたディスプレイに表示された、撮像装置位置情報としての撮像装置10の位置および向きを示す情報に対するタッチ操作などである。後段処理要求部380は、情報入力部370が受け付けた撮像装置10の位置および向きを示す情報に対する入力操作に基づいて、主映像として選択された撮像装置10の切替え処理を後段処理装置50へ要求してもよい。The information input unit 370 may also receive an input operation for the information indicating the position and orientation of the imaging device 10 displayed by the information display control unit 360. The input operation here is, for example, a touch operation for the information indicating the position and orientation of the imaging device 10 as imaging device position information displayed on a display on which a touch panel is superimposed. The post-processing request unit 380 may request the post-processing device 50 to perform switching processing for the imaging device 10 selected as the main image based on the input operation for the information indicating the position and orientation of the imaging device 10 received by the information input unit 370.

図6の一例において、情報入力部370が例えば情報表示制御部360が表示している撮像装置10kのアイコンに対するタッチ操作を受け付けた場合、後段処理要求部380は、撮像装置10kの映像データを主映像として切り替える処理を後段処理装置50に要求してもよい。In an example of Figure 6, when the information input unit 370 receives, for example, a touch operation on the icon of the imaging device 10k displayed by the information display control unit 360, the post-processing request unit 380 may request the post-processing device 50 to perform processing to switch the video data of the imaging device 10k as the main image.

このように、主映像としての映像データを生成する撮像装置10を、視覚的な情報に基づいて選択することができ、余計な手間をかけることなくスイッチング処理を行うことが可能となる。In this way, the imaging device 10 that generates the video data as the main image can be selected based on visual information, making it possible to perform switching processing without unnecessary effort.

[2.3.2.表示制御例2]
続いて、図7を参照して、本実施形態に係る情報表示制御部360による次の主映像候補の表示制御の一例について説明する。情報表示制御部360は、カメラデータおよび補助データに基づいて、次の主映像候補である撮像装置10の出力態様を制御してもよい。例えば、情報表示制御部360は、現在オブジェクトが撮像範囲内に存在する撮像装置10を、次の主映像候補としての映像データを生成する撮像装置10として出力態様を変化させてもよい。
[2.3.2. Display control example 2]
Next, an example of display control of the next main video candidate by the information display control unit 360 according to the present embodiment will be described with reference to Fig. 7. The information display control unit 360 may control the output mode of the imaging device 10 that is the next main video candidate based on the camera data and auxiliary data. For example, the information display control unit 360 may change the output mode of the imaging device 10 in which the object is currently present within the imaging range as the imaging device 10 that generates video data as the next main video candidate.

図7の一例について説明する。図7には、情報表示制御部360による画面表示例が示されている。具体的には図7に、撮像現場であるフィールドを示す情報、撮像装置10のアイコン10a~10k、アイコン10a~10kのそれぞれに対応する撮像範囲ARa~ARk、およびオブジェクトO1~O3が示されている。撮像装置10gの映像データが主映像として選択されている状況であり、また撮像装置10の撮像範囲ARbにオブジェクトO1が存在している。ここで、情報表示制御部360は、このような状況に基づいて、撮像装置10bおよび撮像範囲ARbの表示態様を変化させている。An example will be described in FIG. 7. FIG. 7 shows an example of a screen display by the information display control unit 360. Specifically, FIG. 7 shows information indicating the field where the imaging took place, icons 10a-10k of the imaging devices 10, imaging ranges ARa-ARk corresponding to the icons 10a-10k, and objects O1-O3. In this situation, the video data of the imaging device 10g has been selected as the main video, and object O1 is present in the imaging range ARb of the imaging device 10. Here, the information display control unit 360 changes the display mode of the imaging device 10b and the imaging range ARb based on this situation.

このように、カメラデータに基づいて、オブジェクトが撮像範囲に入っている撮像装置10の出力態様を変化させることで、オブジェクトを映すタイミングを逃すことを防止することが可能となる。In this way, by changing the output mode of the imaging device 10 when an object is within the imaging range based on the camera data, it is possible to prevent missing the timing to capture the object.

[2.3.3.表示制御例3]
続いて、図8を参照して、本実施形態に係る情報表示制御部360による表示制御のさらなる一例について説明する。図6、図7では、オブジェクトがレーシングカーである例について説明したが、他にもスポーツ分野において、オブジェクトはボールでもよい。図8に示される一例において、情報表示制御部360は、ボールであるオブジェクトO4を表示し、オブジェクトO4が撮像範囲に入っている撮像装置10の表示態様が他の撮像装置10とは異なるように表示を制御してもよい。
[2.3.3. Display control example 3]
Next, a further example of display control by the information display control unit 360 according to the present embodiment will be described with reference to Fig. 8. Although an example in which the object is a racing car has been described in Fig. 6 and Fig. 7, the object may also be a ball in the field of sports. In the example shown in Fig. 8, the information display control unit 360 may display an object O4 which is a ball, and control the display so that the display mode of an imaging device 10 in which the object O4 is within the imaging range is different from that of other imaging devices 10.

図8の一例について説明する。図8において、撮像範囲にオブジェクトO4が存在している撮像装置10nの映像データが主映像として選択されている状況である。なお、撮像装置10mおよび撮像装置10pの撮像範囲にもオブジェクトO4が存在している。このような場合、例えば複数の撮像装置10の撮像データうち、オブジェクトを一番大きく撮像できている撮像データを主映像として選択されてもよい。An example will be described with reference to FIG. 8. In FIG. 8, the video data of imaging device 10n, in which object O4 is present in the imaging range, is selected as the main video. Note that object O4 is also present in the imaging ranges of imaging device 10m and imaging device 10p. In such a case, for example, of the imaging data of multiple imaging devices 10, the imaging data that is able to capture the object largest may be selected as the main video.

[2.3.4.表示制御例4]
続いて、図9を参照して、本実施形態に係る情報表示制御部360による次の主映像候補の表示制御の一例について説明する。情報表示制御部360は、複数の撮像装置10のうち生成する映像データが主映像として選択された撮像装置10の撮像装置位置情報を、他の撮像装置10の撮像装置位置情報と異なるように表示態様を制御してもよい。また、情報表示制御部360は、当該撮像装置位置情報およびオブジェクト位置情報に基づいて、次の主映像候補である撮像装置10を特定してもよい。例えば、情報表示制御部360は、所定時間後に、オブジェクトが撮像範囲内に存在することが予想される撮像装置10を、次の主映像候補としての映像データを生成する撮像装置10として特定してもよい。
[2.3.4. Display control example 4]
Next, an example of display control of the next main video candidate by the information display control unit 360 according to the present embodiment will be described with reference to Fig. 9. The information display control unit 360 may control the display mode so that the imaging device position information of the imaging device 10 of which the video data to be generated is selected as the main video among the multiple imaging devices 10 is different from the imaging device position information of the other imaging devices 10. Furthermore, the information display control unit 360 may specify the imaging device 10 that is the next main video candidate based on the imaging device position information and the object position information. For example, the information display control unit 360 may specify the imaging device 10 in which an object is expected to be present within the imaging range after a predetermined time as the imaging device 10 that will generate video data as the next main video candidate.

図9の一例について説明する。図9には、情報表示制御部360による画面表示例が示されている。図9では、オブジェクトO1が撮像装置10bの撮像範囲ARbの近くに存在し、所定時間後に撮像範囲ARbの中に移動することが予想される点が図6とは異なる。An example of Figure 9 will be described. Figure 9 shows an example of a screen display by the information display control unit 360. Figure 9 differs from Figure 6 in that object O1 is present near the imaging range ARb of imaging device 10b and is expected to move into imaging range ARb after a predetermined time.

図9の一例において、情報表示制御部360は、オブジェクトO1が撮像装置10bの撮像範囲ARbの中に移動することが予想されるため、撮像装置10bの撮像装置位置情報他の撮像装置10の撮像装置位置情報と異なるように(判別できるように)表示態様を制御している。In the example of Figure 9, the information display control unit 360 controls the display mode so that the imaging device position information of the imaging device 10b is different (distinguishable) from the imaging device position information of the other imaging devices 10, because it is expected that the object O1 will move into the imaging range ARb of the imaging device 10b.

このように、カメラデータおよび補助データに基づいて、次の主映像候補である撮像装置10の撮像装置位置情報を他の撮像装置10の撮像装置位置情報と異なる表示態様で表示することで、ユーザは次に選択すべき撮像装置10を短時間で判断することが可能となる。In this way, by displaying the imaging device position information of the imaging device 10 that is the next candidate for the main image in a display format different from the imaging device position information of the other imaging devices 10 based on the camera data and auxiliary data, the user can quickly determine which imaging device 10 to select next.

[2.3.5.表示制御例5]
続いて、図10を参照して、本実施形態に係る情報表示制御部360による所定状況における撮像装置10の表示制御の一例について説明する。情報表示制御部360は、カメラデータに基づいて、位置および向きの少なくとも一方が所定時間以上変化しない撮像装置10の撮像装置位置情報を、他の撮像装置10の位置情報と異なるように表示態様を制御してもよい。または、情報表示制御部360は、カメラデータに基づいて、位置および向きの少なくとも一方を変化させるべき撮像装置10の撮像装置位置情報を、他の撮像装置10の位置情報と異なるように表示態様を制御してもよい。例えば、情報表示制御部360は、複数の撮像装置10のうちの、オブジェクトの撮像に適する撮像装置10が当該オブジェクトを撮像できていないことを示すように表示態様を制御してもよい。
[2.3.5. Display control example 5]
Next, an example of display control of the imaging device 10 in a predetermined situation by the information display control unit 360 according to the present embodiment will be described with reference to Fig. 10. The information display control unit 360 may control the display mode of the imaging device position information of the imaging device 10 in which at least one of the position and the orientation does not change for a predetermined time or more based on the camera data so as to be different from the position information of the other imaging devices 10. Alternatively, the information display control unit 360 may control the display mode of the imaging device position information of the imaging device 10 in which at least one of the position and the orientation should be changed based on the camera data so as to be different from the position information of the other imaging devices 10. For example, the information display control unit 360 may control the display mode so as to indicate that an imaging device 10 suitable for imaging an object among the multiple imaging devices 10 is unable to image the object.

図10の一例について説明する。図10には、情報表示制御部360による画面表示例が示されている。具体的には図10に、撮像現場であるフィールドを示す情報と、撮像装置10のアイコン10a~10kとそれぞれに対応する撮像範囲ARa~ARk、オブジェクトO1~O3とが示されている。図10において、撮像装置10bは、撮像範囲ARbがオブジェクトO1を含まない方向に向いている状況が所定時間以上維持されていることがカメラデータにより示される状況である。ここで、情報表示制御部360は、このような状況に基づいて、撮像装置10bおよび撮像範囲ARbの表示態様を変化させている。An example of FIG. 10 will be described. FIG. 10 shows an example of a screen display by the information display control unit 360. Specifically, FIG. 10 shows information indicating the field where the imaging is taking place, icons 10a-10k of the imaging device 10 and their corresponding imaging ranges ARa-ARk and objects O1-O3. In FIG. 10, the camera data indicates that imaging device 10b has maintained a state in which its imaging range ARb is facing in a direction that does not include object O1 for a predetermined period of time or more. Here, the information display control unit 360 changes the display mode of imaging device 10b and imaging range ARb based on this situation.

このように、カメラデータに基づいて、所定時間以上動かされていない、または動かされるべき撮像装置10の出力態様を変化させることで、オペレータは、撮像現場における撮像装置10の作業者に指示を出したり、情報処理装置30のユーザが直接撮像装置10をしかるべき位置や向きに制御したりすることが可能となる。In this way, by changing the output mode of the imaging device 10 that has not been moved for a predetermined period of time or that needs to be moved based on the camera data, an operator can give instructions to the worker of the imaging device 10 at the imaging site, or a user of the information processing device 30 can directly control the imaging device 10 to the appropriate position and orientation.

[2.3.6.表示制御例6]
ところで、撮像装置10が撮像するオブジェクトは、周期的に移動することがある。例えば、上記までに具体例として説明したレーシングカーは、予め定められたコースを走る。オブジェクトが周期的に移動する他の例として、野球では、ボールは、ピッチャーとキャッチャーとの間を行き来することが多い。これらのようなオブジェクトがそれらの周期的な動きとは異なる動きが起こった場合、注目すべきシーンである可能性があり、すなわち当該シーンを撮像している映像データは主映像とすべき可能性がある。例えば、野球にいて、通常ピッチャーとキャッチャーとの間でボールが行き来するが、ヒットなどのイベントが発生した際はボールが外野に移動するなどの通常とは異なる位置変化が起こり得る。
[2.3.6. Display control example 6]
Incidentally, an object captured by the imaging device 10 may move periodically. For example, the racing car described above as a specific example runs along a predetermined course. As another example of an object moving periodically, in baseball, the ball often moves back and forth between the pitcher and the catcher. When such an object moves in a manner different from the periodic movements, it may be a scene that is worthy of attention, that is, the video data capturing the scene may be the main video. For example, in baseball, the ball usually moves back and forth between the pitcher and the catcher, but when an event such as a hit occurs, an unusual change in position may occur, such as the ball moving to the outfield.

例えば、オブジェクトを追いかけるように撮像している撮像装置10による、行われることが多い位置若しくは向きの変化とは異なる変化が発生している場合に、当該撮像装置10の撮像装置位置情報の表示態様が変化することで、現在ユーザに注目すべきシーンが発生している可能性を通知してもよい。For example, when an imaging device 10 captures an image by tracking an object and a change in position or orientation occurs that is different from the usual changes in position or orientation, the display mode of the imaging device position information of the imaging device 10 may change to notify the user that a noteworthy scene may currently be occurring.

従って、情報表示制御部360は、撮像装置10の位置若しくは向きの少なくとも一方が履歴情報を満たさない撮像装置10の撮像装置位置情報を、他の撮像装置10の撮像装置位置情報とは異なるように表示態様を制御してもよい。例えば、情報表示制御部360は、格納部391が格納している撮像装置10の撮像装置位置情報の変化履歴が示す履歴情報に基づいて、オブジェクトが周期的な位置変化と比較して所定距離以上の変化をしていることが示される場合、当該オブジェクトが撮像範囲に存在している撮像装置10の撮像装置位置情報を、他の撮像装置10の位置情報とは異なるように表示態様を制御してもよい。Therefore, the information display control unit 360 may control the display mode of the imaging device position information of an imaging device 10 in which at least one of the position or orientation of the imaging device 10 does not satisfy the history information, so that the imaging device position information is different from the imaging device position information of other imaging devices 10. For example, when it is indicated that an object has changed by a predetermined distance or more compared to periodic position changes based on the history information indicated by the change history of the imaging device position information of the imaging device 10 stored in the storage unit 391, the information display control unit 360 may control the display mode of the imaging device position information of an imaging device 10 in which the object is present in the imaging range, so that the imaging device position information is different from the position information of other imaging devices 10.

ここで、図11Aおよび図11Bを参照して、本実施形態に係る情報表示制御部360による撮像装置10の位置若しくは向きの少なくとも一方が履歴情報を満たさない場合の表示態様の制御の一例について説明する。図11Aおよび図11Bは、野球の試合における撮像装置10の位置および向き並びにボールの位置が表示される例である。11A and 11B, an example of control of the display mode by the information display control unit 360 according to this embodiment when at least one of the position or orientation of the imaging device 10 does not satisfy the history information will be described. Figures 11A and 11B show an example in which the position and orientation of the imaging device 10 and the position of the ball during a baseball game are displayed.

図11Aには、情報表示制御部360により、撮像装置10rおよび撮像装置10rの撮像範囲ARrおよびオブジェクトO5が表示されている。ここで、オブジェクトO5は、図11A左側と右側とに示されるように、所定の2地点間を周期的に移動している。このオブジェクトO5の周期的な位置の変化は、格納部391によりオブジェクトO5を追従するように向きを変化させている撮像装置10rの撮像情報位置情報として格納されている。また、オブジェクトO5の位置の変化に追従するように、すなわち撮像範囲ARrにオブジェクトO5が位置するように、撮像装置10rは自身の向きを変化させている。 In Fig. 11A, the information display control unit 360 displays the imaging device 10r, the imaging range ARr of the imaging device 10r, and the object O5. Here, the object O5 moves periodically between two predetermined points, as shown on the left and right sides of Fig. 11A. This periodic change in position of the object O5 is stored by the storage unit 391 as imaging information position information of the imaging device 10r, which is changing its orientation to follow the object O5. Also, the imaging device 10r changes its own orientation to follow the change in position of the object O5, i.e., so that the object O5 is located in the imaging range ARr.

ここで、図11Aに示されたオブジェクトO5の周期的な位置変化と異なる位置変化が発生した場合、情報表示制御部360は、撮像装置10rおよび撮像範囲ARrの表示態様を変化させる。図11Bに示される一例において、情報表示制御部360は、ボールであるオブジェクトO5が外野方面へ移動したことが格納部391から提供される撮像装置10rの変化履歴により示される場合、撮像装置10rおよび撮像範囲ARrの表示態様を変化させている。Here, when a position change different from the periodic position change of object O5 shown in Fig. 11A occurs, the information display control unit 360 changes the display mode of the imaging device 10r and the imaging range ARr. In the example shown in Fig. 11B, when the change history of the imaging device 10r provided from the storage unit 391 indicates that the object O5, which is the ball, has moved toward the outfield, the information display control unit 360 changes the display mode of the imaging device 10r and the imaging range ARr.

このように、撮像装置10の撮像装置位置情報に基づいてオブジェクトの周期的な位置変化とは異なる位置変化をユーザに知らせることで、ユーザは所定のシーンが映っている映像を逃すことなく主映像として選択することが可能となる。In this way, by informing the user of position changes that differ from the periodic position changes of the object based on the imaging device position information of the imaging device 10, the user can select an image showing a specific scene as the main image without missing it.

なお上述した履歴情報は、所定のタイミングで、撮像装置10の撮像装置位置情報の周期的な変化を示す変化履歴として格納部391に格納されてもよい。また、履歴情報は、格納部391に格納された後、撮像装置10の位置変化に基づいて適宜更新されてもよい。また一方で、履歴情報は、ユーザにより情報入力部370を介して、確認されたり修正されたりすることも可能である。The above-mentioned history information may be stored in the storage unit 391 at a predetermined timing as a change history indicating periodic changes in the imaging device position information of the imaging device 10. Furthermore, after being stored in the storage unit 391, the history information may be appropriately updated based on changes in the position of the imaging device 10. On the other hand, the history information may also be confirmed or corrected by the user via the information input unit 370.

なお例えば、周期的な位置変化とは異なる位置変化は、撮像装置10の作業者が、撮像装置10が備えるボタン等を押下することで、検知されてもよい。撮像装置10が備えるボタン等が押下されることで映像に所定の信号が重畳され、情報処理装置30は当該所定の信号に基づいて所定のシーンが発生したと判断してもよい。For example, a position change different from a periodic position change may be detected when an operator of the imaging device 10 presses a button or the like provided on the imaging device 10. When a button or the like provided on the imaging device 10 is pressed, a predetermined signal is superimposed on the image, and the information processing device 30 may determine that a predetermined scene has occurred based on the predetermined signal.

また他にも、周期的な位置変化とは異なる位置変化は、例えば撮像装置10の向きの変化のみに基づいて検知されてもよい。また、情報表示制御部360は、履歴情報を満たさない撮像装置10の位置および向きを示す情報ならびに撮像範囲を示す情報の双方の表示態様を変化させてもよいし、いずれか片方を変化させてもよい。In addition, a position change other than a periodic position change may be detected, for example, based only on a change in the orientation of the imaging device 10. The information display control unit 360 may change the display mode of both the information indicating the position and orientation of the imaging device 10 that does not satisfy the history information and the information indicating the imaging range, or may change either one of them.

[2.3.7.表示制御例7]
続いて、図12を参照して、本実施形態に係る情報表示制御部360による情報入力部370の入力操作の受付けに係る表示制御、および情報入力部370による入力操作の受付けの一例について説明する。図12には、フィールド情報、撮像装置位置情報およびオブジェクト位置情報が画像Gとして示されている。また、図12には、画像Gの下側に時系列スライダS、スイッチングボタンB1およびハイライト映像作成ボタンB2が示されている。
[2.3.7. Display control example 7]
Next, an example of display control related to reception of an input operation of the information input unit 370 by the information display control unit 360 according to this embodiment and reception of the input operation by the information input unit 370 will be described with reference to Fig. 12. In Fig. 12, field information, imaging device position information, and object position information are shown as an image G. Also, in Fig. 12, a time series slider S, a switching button B1, and a highlight video creation button B2 are shown below the image G.

以下、図12の一例について説明する。画像Gは、図6~図11で示された表示画面と同様である。スライダSは、映像データの時系列において、撮像開始時から現在もしくは撮像終了時までの時間のうち、いずれの時間を画像Gとして表示させるかを選択することができるスライダである。スイッチングボタンB1は、画像Gにおいて選択された撮像装置10の映像データを主映像として切り替える要求を後段処理装置50に行うことができるボタンである。ハイライト映像作成ボタンB2は、所定の条件を満たすようにハイライト映像の生成を後段処理装置50に要求することができるボタンである。An example of FIG. 12 will be described below. Image G is the same as the display screen shown in FIG. 6 to FIG. 11. Slider S is a slider that allows the user to select which time in the time series of video data is to be displayed as image G, either from the time from the start of imaging to the present or from the time from the end of imaging. Switching button B1 is a button that allows the user to request the post-processing device 50 to switch the video data of the imaging device 10 selected in image G as the main video. Highlight video creation button B2 is a button that allows the user to request the post-processing device 50 to generate a highlight video that satisfies specified conditions.

このように、情報表示制御部360が表示した情報に対する入力操作を情報入力部370が受け付けることにより、種々の編集操作をより簡便に行うことが可能となる。もちろん、情報表示制御部360による情報入力部370の入力操作の受付けに係る表示制御、および情報入力部370による入力操作の受付けは、係る例に限定されない。In this way, various editing operations can be performed more easily by the information input unit 370 accepting the input operation for the information displayed by the information display control unit 360. Of course, the display control related to the acceptance of the input operation of the information input unit 370 by the information display control unit 360 and the acceptance of the input operation by the information input unit 370 are not limited to the above example.

<<2.4.動作例>>
[2.4.1.動作例1]
続いて、図13を参照して、本実施形態に係る情報処理装置30による複数の撮像装置10の撮像装置位置情報の算出処理に係る動作の流れの一例について説明する。まず、映像カメラデータ取得部320は、データ通信部310からいずれかの撮像装置10のカメラデータを取得する(S101)。次に、映像カメラデータ取得部320は、ステップS101で取得されたカメラデータをタイムコードと共にメモリへ格納する(S102)。次に、全ての撮像装置10のカメラデータがタイムコードと共にメモリへ格納された状態ではない場合(S103:NO)、ステップS101へ復帰する。
<<2.4. Operation example>>
[2.4.1. Operation example 1]
Next, an example of the flow of operations related to the calculation process of the imaging device position information of the multiple imaging devices 10 by the information processing device 30 according to the present embodiment will be described with reference to Fig. 13. First, the video camera data acquisition unit 320 acquires the camera data of any one of the imaging devices 10 from the data communication unit 310 (S101). Next, the video camera data acquisition unit 320 stores the camera data acquired in step S101 in memory together with the time code (S102). Next, if the camera data of all the imaging devices 10 have not been stored in memory together with the time code (S103: NO), the process returns to step S101.

一方、全ての撮像装置10のカメラデータがタイムコードと共にメモリへ格納された状態である場合(S103:YES)、補助データ取得部330は、データ通信部310から補助データを取得する(S104)。なお、ステップS104は、ステップS101、S102の実行前に実行されてもよいし、またステップS101、S102と並行して実行されてもよい。次に、撮像位置情報算出部340は、ステップS102で格納された複数の撮像装置10のカメラデータに基づいて、撮像現場であるフィールド全体の領域を算出する(S105)。On the other hand, if the camera data of all the imaging devices 10 has been stored in memory together with the time code (S103: YES), the auxiliary data acquisition unit 330 acquires the auxiliary data from the data communication unit 310 (S104). Note that step S104 may be executed before steps S101 and S102, or may be executed in parallel with steps S101 and S102. Next, the imaging position information calculation unit 340 calculates the area of the entire field, which is the imaging site, based on the camera data of the multiple imaging devices 10 stored in step S102 (S105).

次に、撮像位置情報算出部340は、ステップS101で取得されたカメラデータに基づいて、いずれかの撮像装置10の位置および向きを算出する(S106)。次に、情報表示制御部360は、ステップS106で算出された撮像装置10の位置および向きを示す情報を表示する(S107)。Next, the imaging position information calculation unit 340 calculates the position and orientation of any one of the imaging devices 10 based on the camera data acquired in step S101 (S106). Next, the information display control unit 360 displays information indicating the position and orientation of the imaging device 10 calculated in step S106 (S107).

次に、撮像位置情報算出部340は、ステップS101で取得されたカメラデータおよびステップS106で取得された補助データに基づいて、ステップS107で位置および向きを示す情報が表示された撮像装置10の撮像範囲を算出する(S108)。次に、情報表示制御部360は、ステップS108で算出された撮像装置10の撮像範囲を示す情報を表示する(S109)。Next, the imaging position information calculation unit 340 calculates the imaging range of the imaging device 10 for which information indicating the position and orientation is displayed in step S107 based on the camera data acquired in step S101 and the auxiliary data acquired in step S106 (S108). Next, the information display control unit 360 displays the information indicating the imaging range of the imaging device 10 calculated in step S108 (S109).

次に、撮像装置位置情報として全ての撮像装置10の位置、向き、および撮像範囲を示す情報が表示されていない場合(S110:NO)、ステップS106へ復帰する。一方、撮像装置位置情報として全ての撮像装置10の位置、向き、および撮像範囲を示す情報が表示された場合(S110:YES)、情報処理装置30は動作を終了する。Next, if information indicating the positions, orientations, and imaging ranges of all imaging devices 10 is not displayed as the imaging device position information (S110: NO), the process returns to step S106. On the other hand, if information indicating the positions, orientations, and imaging ranges of all imaging devices 10 is displayed as the imaging device position information (S110: YES), the information processing device 30 ends its operation.

[2.4.2.動作例2]
続いて、図14を参照して、本実施形態に係る撮像位置情報算出部340による撮像装置10の撮像範囲の算出処理および情報表示制御部360による撮像範囲の表示処理に係る動作の流れの一例について説明する。まず、撮像位置情報算出部340は、映像カメラデータ取得部320から撮像装置10および撮像装置10に装着されたレンズの特性を示す情報を取得する(S201)。次に、撮像位置情報算出部340は、映像カメラデータ取得部320から撮像装置10におけるズーム値と画角とのテーブルを取得する(S202)。
[2.4.2. Operation example 2]
Next, an example of the flow of operations related to the calculation process of the imaging range of the imaging device 10 by the imaging position information calculation unit 340 according to this embodiment and the display process of the imaging range by the information display control unit 360 will be described with reference to Fig. 14. First, the imaging position information calculation unit 340 acquires information indicating the characteristics of the imaging device 10 and the lens attached to the imaging device 10 from the video camera data acquisition unit 320 (S201). Next, the imaging position information calculation unit 340 acquires a table of the zoom value and the angle of view of the imaging device 10 from the video camera data acquisition unit 320 (S202).

次に、撮像位置情報算出部340は、図13のステップS101で取得されたカメラデータが含む撮像装置10のズーム値およびステップS202で取得されたテーブルを用いて、当該ズーム値に対応する画角を算出する(S203)。次に、撮像位置情報算出部340は、図13のステップS101で取得されたカメラデータが含むズーム値またはフォーカス距離に基づいて、ピント位置を算出する(S204)。次に、撮像位置情報算出部340は、図13のステップS101で取得されたカメラデータに基づいて、撮像装置10とオブジェクトとの垂直距離を算出する(S205)。Next, the imaging position information calculation unit 340 calculates the angle of view corresponding to the zoom value using the zoom value of the imaging device 10 included in the camera data acquired in step S101 of Fig. 13 and the table acquired in step S202 (S203). Next, the imaging position information calculation unit 340 calculates the focus position based on the zoom value or focus distance included in the camera data acquired in step S101 of Fig. 13 (S204). Next, the imaging position information calculation unit 340 calculates the vertical distance between the imaging device 10 and the object based on the camera data acquired in step S101 of Fig. 13 (S205).

次に、撮像位置情報算出部340は、ステップS204で算出されたピント位置およびステップS205で算出された垂直距離から、撮像装置10とオブジェクトとの水平距離を算出する(S206)。次に、ステップS203で算出された画角とステップS206で算出された水平距離とに基づいて、撮像装置10の撮像範囲を扇形に表示させる(S207)。次に、全ての撮像装置10で撮像範囲が表示された状態でない場合(S208:NO)、ステップS203へ復帰する。一方、全ての撮像装置10で撮像範囲が表示された状態である場合(S208:YES)、情報処理装置30は動作を終了する。Next, the imaging position information calculation unit 340 calculates the horizontal distance between the imaging device 10 and the object from the focus position calculated in step S204 and the vertical distance calculated in step S205 (S206). Next, based on the angle of view calculated in step S203 and the horizontal distance calculated in step S206, the imaging range of the imaging device 10 is displayed in a sector shape (S207). Next, if the imaging range is not displayed in all imaging devices 10 (S208: NO), the process returns to step S203. On the other hand, if the imaging range is displayed in all imaging devices 10 (S208: YES), the information processing device 30 ends its operation.

[2.4.3.動作例3]
続いて、図15を参照して、本実施形態に係る情報処理装置30による複数の撮像装置10のうちいずれの撮像装置10の映像データを主映像として選択するかの処理に係る動作の流れの一例について説明する。まず、いずれかの撮像装置10の撮像範囲内にオブジェクトが存在する場合(S301:YES)、制作用データ解析部350は撮像装置10の位置および向きを示す情報を撮像装置位置情報としてメモリへ格納し(S302)、ステップS303へ進む。一方、いずれかの撮像装置10の撮像範囲内にオブジェクトが存在しない場合(S301:NO)、ステップS303へ進む。
[2.4.3. Operation example 3]
Next, an example of the flow of operations related to the process of selecting video data of one of the multiple imaging devices 10 as the main video by the information processing device 30 according to this embodiment will be described with reference to Fig. 15. First, if an object is present within the imaging range of any of the imaging devices 10 (S301: YES), the production data analysis unit 350 stores information indicating the position and orientation of the imaging device 10 in memory as imaging device position information (S302), and proceeds to step S303. On the other hand, if an object is not present within the imaging range of any of the imaging devices 10 (S301: NO), proceeds to step S303.

全ての撮像装置10でステップS301の処理が実行された状態でない場合(S303:NO)、ステップS301へ復帰する。一方、全ての撮像装置10でステップS301の処理が実行された状態であり(S303:YES)、かつオブジェクトが写されている映像データを生成した撮像装置10が存在しない場合(S304:NO)、情報処理装置30は動作を終了する。If the processing of step S301 has not been executed in all of the imaging devices 10 (S303: NO), the process returns to step S301. On the other hand, if the processing of step S301 has been executed in all of the imaging devices 10 (S303: YES) and there is no imaging device 10 that has generated video data in which an object is captured (S304: NO), the information processing device 30 ends its operation.

一方、全ての撮像装置10でステップS301の処理が実行された状態であり(S303:YES)、かつオブジェクトが映っている映像データを生成した撮像装置10が存在しない場合(S304:NO)、情報処理装置30は動作を終了する。また一方、全ての撮像装置10でステップS301の処理が実行された状態であり(S303:YES)、かつオブジェクトが映っている映像データを生成した撮像装置10が存在する場合(S304:YES)、撮像位置情報算出部340は、映っているオブジェクトの大きさを算出する(S305)。On the other hand, if the processing of step S301 has been executed by all imaging devices 10 (S303: YES) and there is no imaging device 10 that has generated video data in which an object is captured (S304: NO), the information processing device 30 ends its operation. On the other hand, if the processing of step S301 has been executed by all imaging devices 10 (S303: YES) and there is an imaging device 10 that has generated video data in which an object is captured (S304: YES), the imaging position information calculation unit 340 calculates the size of the captured object (S305).

次に、直近のステップS305で算出されたオブジェクトの大きさが今までのステップS305で算出されたオブジェクトの大きさと比較して最大である場合(S306:YES)、撮像位置情報算出部340は、直近のステップS305で算出されたオブジェクトの大きさに対応する撮像装置10を選択候補としてメモリへ格納する(S307)。一方、直近のステップS305で算出されたオブジェクトの大きさが今までのステップS305で算出されたオブジェクトの大きさと比較して最大でない場合(S306:NO)、ステップS308へ進む。Next, if the object size calculated in the most recent step S305 is the largest compared to the object size calculated in the previous step S305 (S306: YES), the imaging position information calculation unit 340 stores the imaging device 10 corresponding to the object size calculated in the most recent step S305 as a selection candidate in memory (S307). On the other hand, if the object size calculated in the most recent step S305 is not the largest compared to the object size calculated in the previous step S305 (S306: NO), the process proceeds to step S308.

次に、オブジェクトが映っている全ての撮像装置10で大きさが算出されていない場合(S308:NO)、ステップS304へ復帰する。一方、オブジェクトが映っている全ての撮像装置10で大きさが算出されていない場合(S308:YES)、後段処理要求部380は、ステップS307でメモリに格納された撮像装置10の映像データを主映像として後段処理装置50にスイッチングするように要求し(S309)、情報処理装置30は動作を終了する。Next, if the size has not been calculated for all of the imaging devices 10 in which the object is captured (S308: NO), the process returns to step S304. On the other hand, if the size has not been calculated for all of the imaging devices 10 in which the object is captured (S308: YES), the post-processing request unit 380 requests the post-processing device 50 to switch the image data of the imaging device 10 stored in memory in step S307 as the main image (S309), and the information processing device 30 ends its operation.

<3.ハードウェア構成例>
次に、本開示の一実施形態に係る情報処理装置30のハードウェア構成例について説明する。図16は、本開示の一実施形態に係る情報処理装置30のハードウェア構成例を示すブロック図である。図16を参照すると、情報処理装置30は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
3. Hardware configuration example
Next, a hardware configuration example of the information processing device 30 according to an embodiment of the present disclosure will be described. FIG. 16 is a block diagram showing a hardware configuration example of the information processing device 30 according to an embodiment of the present disclosure. Referring to FIG. 16, the information processing device 30 has, for example, a processor 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, an output device 879, a storage 880, a drive 881, a connection port 882, and a communication device 883. Note that the hardware configuration shown here is an example, and some of the components may be omitted. In addition, the information processing device 30 may further include components other than the components shown here.

(プロセッサ871)
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(Processor 871)
The processor 871 functions, for example, as an arithmetic processing device or control device, and controls the overall operation or part of the operation of each component based on various programs recorded in the ROM 872, the RAM 873, the storage 880, or the removable recording medium 901.

(ROM872、RAM873)
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM872, RAM873)
The ROM 872 is a means for storing the programs read by the processor 871 and data used in the calculations. The RAM 873 stores, for example, the programs read by the processor 871 and various parameters that change appropriately when the programs are executed. It may be stored temporarily or permanently.

(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(Host bus 874, bridge 875, external bus 876, interface 877)
The processor 871, ROM 872, and RAM 873 are connected to one another via, for example, a host bus 874 capable of high-speed data transmission. On the other hand, the host bus 874 is connected to an external bus 876 having a relatively low data transmission speed via, for example, a bridge 875. In addition, the external bus 876 is connected to various components via an interface 877.

(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(Input device 878)
The input device 878 may be, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, etc. Furthermore, a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used as the input device 878. The input device 878 may also include an audio input device such as a microphone.

(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(Output device 879)
The output device 879 is a device capable of visually or audibly notifying the user of acquired information, such as a display device such as a CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, a facsimile, etc. The output device 879 according to the present disclosure also includes various vibration devices capable of outputting tactile stimuli.

(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Storage 880)
The storage 880 is a device for storing various types of data. For example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device is used as the storage 880.

(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(Drive 881)
The drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 901 .

(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable Recording Medium 901)
The removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, various semiconductor storage media, etc. Of course, the removable recording medium 901 may be, for example, an IC card equipped with a non-contact type IC chip, an electronic device, etc.

(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 882)
The connection port 882 is a port for connecting an external device 902, such as a Universal Serial Bus (USB) port, an IEEE 1394 port, a Small Computer System Interface (SCSI), an RS-232C port, or an optical audio terminal.

(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(External connection device 902)
The external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.

(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
(Communication device 883)
The communication device 883 is a communication device for connecting to a network, such as a wired or wireless LAN, Bluetooth (registered trademark), or a communication card for WUSB (Wireless USB), a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various types of communication.

<4.まとめ>
以上、説明したように、本開示の情報処理装置30は、ユーザが撮像装置の位置や向き、撮像範囲をリアルタイムに視覚的に把握し、いずれの撮像装置で生成された映像データを選択すればよいかを直観的に判断することを可能とする。
<4. Summary>
As described above, the information processing device 30 disclosed herein enables a user to visually grasp the position, orientation, and imaging range of the imaging devices in real time, and intuitively determine which imaging device generated the video data to select.

なお、上記までは主にスポーツ分野における撮像装置10であるカメラに関する具体例ついて説明したが、本開示に係る適用例は、係る例に限定されない。例えば、システム1における撮像装置10は、代わりにウェアラブルカメラやドローンでもよい。作業者が装着したウェアラブルカメラや、自動で移動するドローンの撮像装置位置情報が情報表示制御部360によりユーザに表示されることで、スポーツ分野に限らず、例えば報道などのような種々の場面に対し適用することが可能となる。 Although the above describes specific examples of cameras that are imaging devices 10 mainly in the field of sports, application examples of the present disclosure are not limited to such examples. For example, the imaging device 10 in system 1 may instead be a wearable camera or a drone. By displaying imaging device position information of a wearable camera worn by a worker or an automatically moving drone to the user by the information display control unit 360, it becomes possible to apply the present disclosure not only to the field of sports but also to various situations such as news reports.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。Although the preferred embodiment of the present disclosure has been described in detail above with reference to the attached drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field of the present disclosure can conceive of various modified or revised examples within the scope of the technical ideas described in the claims, and it is understood that these also naturally fall within the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。In addition, the effects described herein are merely descriptive or exemplary and are not limiting. In other words, the technology disclosed herein may provide other effects that are apparent to a person skilled in the art from the description herein, in addition to or in place of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部と、
前記撮像装置位置情報の表示を制御する情報表示制御部と、
を備える情報処理装置。
(2)
前記カメラデータは、前記撮像装置の画角およびフォーカス距離を示す情報を含み、
前記撮像位置情報算出部は、前記撮像装置の画角およびフォーカス距離を示す情報に基づいて、前記撮像装置位置情報として前記撮像装置の撮像範囲をさらに算出し、
前記情報表示制御部は、前記撮像範囲を含む前記撮像装置位置情報の表示を制御する、
前記(1)に記載の情報処理装置。
(3)
前記カメラデータは、前記撮像装置に装着されたレンズの特性をさらに含み、
前記撮像位置情報算出部は、前記レンズの特性に基づいて、前記撮像範囲を算出する、
前記(2)に記載の情報処理装置。
(4)
前記撮像位置情報算出部は、前記撮像装置の垂直位置にさらに基づいて、前記撮像範囲を算出する、
前記(2)または(3)に記載の情報処理装置。
(5)
前記撮像位置情報算出部は、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報と前記撮像装置位置情報とを対応付け、
前記情報表示制御部は、前記撮像装置位置情報に対する前記オブジェクト位置情報の表示を制御する、
前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
前記撮像位置情報算出部は、前記映像データに基づいて、前記オブジェクト位置情報を算出する、
前記(5)に記載の情報処理装置。
(7)
前記撮像位置情報算出部は、前記オブジェクトに係るデータを含む補助データに基づいて、前記オブジェクト位置情報を算出する、
前記(5)に記載の情報処理装置。
(8)
前記撮像位置情報算出部は、複数の前記撮像装置から受信された前記カメラデータに基づいて、前記複数の撮像装置に対応する前記撮像装置位置情報を算出し、
前記情報表示制御部は、前記複数の撮像装置に対応する前記撮像装置位置情報の表示を制御する、
前記(5)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記情報表示制御部は、前記複数の撮像装置のうち、生成した前記映像データが主映像として選択された前記撮像装置の前記撮像装置位置情報を、他の前記撮像装置の前記撮像装置位置情報と異なるように表示態様を制御する、
前記(8)に記載の情報処理装置。
(10)
前記撮像位置情報算出部は、前記複数の撮像装置のうち、生成した前記映像データが次の主映像候補である撮像装置を特定し、
前記情報表示制御部は、前記撮像位置情報算出部が特定した前記次の主映像候補である前記撮像装置の前記撮像装置位置情報を、前記他の撮像装置の前記撮像装置位置情報と異なるように表示態様を制御する、
前記(9)に記載の情報処理装置。
(11)
前記撮像位置情報算出部は、前記撮像装置位置情報および前記オブジェクト位置情報に基づいて、前記次の主映像候補である撮像装置を特定する、
前記(10)に記載の情報処理装置。
(12)
前記情報表示制御部は、前記カメラデータに基づいて、位置および向きの少なくとも一方が所定時間以上変化しない前記撮像装置位置情報を、他の撮像装置の前記撮像装置位置情報と異なるように表示態様を制御する、
前記(8)に記載の情報処理装置。
(13)
前記撮像装置位置情報の変化履歴を示す履歴情報を格納する格納部と、をさらに備え、
前記情報表示制御部は、前記カメラデータに基づいた前記撮像装置の位置若しくは向きの少なくとも一方が前記履歴情報を満たさない撮像装置の前記撮像装置位置情報を、他の撮像装置の前記撮像装置位置情報とは異なるように表示態様を制御する、
前記(8)~(12)のいずれか一項に記載の情報処理装置。
(14)
前記主映像として選択された撮像装置から、前記複数の撮像装置のうち、生成した前記映像データが次の主映像として選択された前記他の撮像装置への切替え処理を後段処理装置に要求する後段処理要求部、
をさらに備える、
前記(9)~(13)のいずれか一項に記載の情報処理装置。
(15)
前記撮像装置位置情報に対する入力操作を受け付ける情報入力部、
をさらに備え、
前記後段処理要求部は、前記情報入力部が受け付けた前記切替え処理に係るユーザからの入力に基づいて前記切替え処理を前記後段処理装置に要求する、
前記(14)に記載の情報処理装置。
(16)
前記情報入力部は、ハイライト映像の作成要求の入力をさらに受け付け、
前記後段処理要求部は、前記複数の撮像装置の前記映像データに基づく前記ハイライト映像の作成を前記後段処理装置に要求する、
前記(15)に記載の情報処理装置。
(17)
前記ハイライト映像は、所定のオブジェクトを映している前記撮像装置の前記映像データを用いて構成され、
前記後段処理要求部は、前記所定のオブジェクトの映像を含む前記ハイライト映像の作成を前記後段処理装置に要求する、
前記(16)に記載の情報処理装置。
(18)
前記カメラデータおよび前記オブジェクトに係るデータを含む補助データに基づいて、前記後段処理要求部に前記ハイライト映像の作成を前記後段処理装置に要求させる映像作成制御部、
をさらに備える、
前記(16)または(17)に記載の情報処理装置。
(19)
プロセッサが、
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出することと、
前記撮像装置位置情報の表示を制御することと、
を含む、
情報処理方法。
(20)
コンピュータを、
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部と、
前記撮像装置位置情報の表示を制御する情報表示制御部と、
を備える、
情報処理装置、
として機能させるためのプログラム。
Note that the following configurations also fall within the technical scope of the present disclosure.
(1)
an imaging position information calculation unit that calculates a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
an information display control unit that controls display of the imaging device position information;
An information processing device comprising:
(2)
the camera data includes information indicating an angle of view and a focus distance of the imaging device;
the imaging position information calculation unit further calculates an imaging range of the imaging device as the imaging device position information based on information indicating an angle of view and a focus distance of the imaging device;
the information display control unit controls display of the imaging device position information including the imaging range.
The information processing device according to (1).
(3)
The camera data further includes characteristics of a lens attached to the imaging device;
The imaging position information calculation unit calculates the imaging range based on characteristics of the lens.
The information processing device according to (2).
(4)
The imaging position information calculation unit calculates the imaging range further based on a vertical position of the imaging device.
The information processing device according to (2) or (3).
(5)
the imaging position information calculation unit associates object position information indicating a position of an object to be imaged with the imaging device position information;
the information display control unit controls display of the object position information with respect to the imaging device position information.
The information processing device according to any one of (1) to (4).
(6)
The imaging position information calculation unit calculates the object position information based on the video data.
The information processing device according to (5).
(7)
The imaging position information calculation unit calculates the object position information based on auxiliary data including data related to the object.
The information processing device according to (5).
(8)
the imaging position information calculation unit calculates the imaging device position information corresponding to the plurality of imaging devices based on the camera data received from the plurality of imaging devices;
the information display control unit controls display of the imaging device position information corresponding to the plurality of imaging devices.
The information processing device according to any one of (5) to (7).
(9)
the information display control unit controls a display mode of the imaging device position information of an imaging device, the image data of which is selected as a main image among the plurality of imaging devices, so as to be different from the imaging device position information of the other imaging devices.
The information processing device according to (8).
(10)
the imaging position information calculation unit identifies an imaging device from among the plurality of imaging devices, the imaging device from which the generated video data is a next main video candidate;
the information display control unit controls a display mode of the imaging device position information of the imaging device that is the next main image candidate identified by the imaging position information calculation unit so as to be different from the imaging device position information of the other imaging devices.
The information processing device according to (9) above.
(11)
the imaging position information calculation unit specifies an imaging device that is the next main image candidate based on the imaging device position information and the object position information;
The information processing device according to (10).
(12)
the information display control unit controls a display mode of the imaging device position information, of which at least one of a position and an orientation does not change for a predetermined period of time or more, based on the camera data, so as to be different from the imaging device position information of other imaging devices.
The information processing device according to (8).
(13)
a storage unit for storing history information indicating a change history of the imaging device position information,
the information display control unit controls a display mode of the imaging device position information of an imaging device in which at least one of a position or an orientation of the imaging device based on the camera data does not satisfy the history information so as to be different from the imaging device position information of other imaging devices.
The information processing device according to any one of (8) to (12).
(14)
a post-processing request unit that requests a post-processing device to perform switching processing from the imaging device selected as the main video to the other imaging device selected, among the plurality of imaging devices, for which the generated video data is to be used as a next main video;
Further comprising:
The information processing device according to any one of (9) to (13).
(15)
an information input unit that accepts an input operation for the imaging device position information;
Further equipped with
the post-processing request unit requests the post-processing device to perform the switching process based on an input from a user related to the switching process received by the information input unit;
The information processing device according to (14) above.
(16)
the information input unit further receives an input of a request for creating a highlight video;
the post-processing request unit requests the post-processing device to create the highlight video based on the video data of the plurality of imaging devices;
The information processing device according to (15) above.
(17)
the highlight video is constructed using the video data of the imaging device showing a predetermined object,
the post-processing request unit requests the post-processing device to create the highlight video including an image of the predetermined object;
The information processing device according to (16).
(18)
an image creation control unit that causes the post-processing request unit to request the post-processing device to create the highlight image based on auxiliary data including the camera data and data related to the object;
Further comprising:
The information processing device according to (16) or (17).
(19)
The processor:
Calculating a position and an orientation of the imaging device as imaging device position information based on camera data received from the imaging device and associated with the video data;
Controlling a display of the imaging device position information;
Including,
Information processing methods.
(20)
Computer,
an imaging position information calculation unit that calculates a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
an information display control unit that controls display of the imaging device position information;
Equipped with
Information processing device,
A program to function as a

1 システム
10 撮像装置
20 CCU
30 情報処理装置
310 データ通信部
320 映像カメラデータ取得部
330 補助データ取得部
340 撮像位置情報算出部
350 制作用データ解析部
360 情報表示制御部
370 情報入力部
380 後段処理要求部
391 格納部
392 記憶部
40 ネットワーク
50 後段処理装置
1 System 10 Imaging device 20 CCU
30 Information processing device 310 Data communication unit 320 Video camera data acquisition unit 330 Auxiliary data acquisition unit 340 Imaging position information calculation unit 350 Production data analysis unit 360 Information display control unit 370 Information input unit 380 Post-processing request unit 391 Storage unit 392 Memory unit 40 Network 50 Post-processing device

Claims (22)

映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部と、
前記撮像装置位置情報の表示を制御する情報表示制御部と、
前記撮像装置位置情報の変化履歴を示す履歴情報を格納する格納部と、を備え、
前記撮像位置情報算出部は、複数の前記撮像装置から受信された前記カメラデータに基づいて、前記複数の撮像装置に対応する前記撮像装置位置情報を算出し、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報と前記撮像装置位置情報とを対応付け、
前記情報表示制御部は、前記複数の撮像装置に対応する前記撮像装置位置情報の表示と、前記撮像装置位置情報に対する前記オブジェクト位置情報の表示と、を制御し、
前記情報表示制御部は、前記カメラデータに基づいた前記撮像装置の位置若しくは向きの少なくとも一方が前記履歴情報を満たさない撮像装置の前記撮像装置位置情報を、他の撮像装置の前記撮像装置位置情報とは異なるように表示態様を制御する、
報処理装置。
an imaging position information calculation unit that calculates a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
an information display control unit that controls display of the imaging device position information;
a storage unit for storing history information indicating a change history of the imaging device position information,
the imaging position information calculation unit calculates the imaging device position information corresponding to the plurality of imaging devices based on the camera data received from the plurality of imaging devices, and associates the imaging device position information with object position information indicating a position of an object to be imaged;
the information display control unit controls display of the imaging device position information corresponding to the plurality of imaging devices and display of the object position information with respect to the imaging device position information;
the information display control unit controls a display mode of the imaging device position information of an imaging device in which at least one of a position or an orientation of the imaging device based on the camera data does not satisfy the history information so as to be different from the imaging device position information of other imaging devices.
Information processing device.
前記情報表示制御部は、前記複数の撮像装置のうち、生成した前記映像データが主映像として選択された前記撮像装置の前記撮像装置位置情報を、他の前記撮像装置の前記撮像装置位置情報と異なるように表示態様を制御する、
請求項に記載の情報処理装置。
the information display control unit controls a display mode of the imaging device position information of an imaging device, the image data of which is selected as a main image among the plurality of imaging devices, so as to be different from the imaging device position information of the other imaging devices.
The information processing device according to claim 1 .
前記主映像として選択された撮像装置から、前記複数の撮像装置のうち、生成した前記映像データが次の主映像として選択された前記他の撮像装置への切替え処理を後段処理装置に要求する後段処理要求部、
をさらに備える、
請求項に記載の情報処理装置。
a post-processing request unit that requests a post-processing device to perform switching processing from the imaging device selected as the main video to the other imaging device selected, among the plurality of imaging devices, for which the generated video data is to be used as a next main video;
Further comprising:
The information processing device according to claim 2 .
前記撮像装置位置情報に対する入力操作を受け付ける情報入力部、
をさらに備え、
前記後段処理要求部は、前記情報入力部が受け付けた前記切替え処理に係るユーザからの入力に基づいて前記切替え処理を前記後段処理装置に要求する、
請求項に記載の情報処理装置。
an information input unit that accepts an input operation for the imaging device position information;
Further equipped with
the post-processing request unit requests the post-processing device to perform the switching process based on an input from a user related to the switching process received by the information input unit;
The information processing device according to claim 3 .
前記情報入力部は、ハイライト映像の作成要求の入力をさらに受け付け、
前記後段処理要求部は、前記複数の撮像装置の前記映像データに基づく前記ハイライト映像の作成を前記後段処理装置に要求する、
請求項に記載の情報処理装置。
the information input unit further receives an input of a request for creating a highlight video;
the post-processing request unit requests the post-processing device to create the highlight video based on the video data of the plurality of imaging devices;
The information processing device according to claim 4 .
前記ハイライト映像は、所定のオブジェクトを映している前記撮像装置の前記映像データを用いて構成され、
前記後段処理要求部は、前記所定のオブジェクトの映像を含む前記ハイライト映像の作成を前記後段処理装置に要求する、
請求項に記載の情報処理装置。
the highlight video is constructed using the video data of the imaging device showing a predetermined object,
the post-processing request unit requests the post-processing device to create the highlight video including an image of the predetermined object;
The information processing device according to claim 5 .
前記カメラデータおよび前記オブジェクトに係るデータを含む補助データに基づいて、前記後段処理要求部に前記ハイライト映像の作成を前記後段処理装置に要求させる映像作成制御部、
をさらに備える、
請求項5または6に記載の情報処理装置。
an image creation control unit that causes the post-processing request unit to request the post-processing device to create the highlight image based on auxiliary data including the camera data and data related to the object;
Further comprising:
7. The information processing device according to claim 5 or 6 .
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部と、
前記撮像装置位置情報の表示を制御する情報表示制御部と、
撮像装置の切替え処理を後段処理装置に要求する後段処理要求部と、
前記撮像装置位置情報に対する入力操作を受け付ける情報入力部と、を備え、
前記撮像位置情報算出部は、複数の前記撮像装置から受信された前記カメラデータに基づいて、前記複数の撮像装置に対応する前記撮像装置位置情報を算出し、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報と前記撮像装置位置情報とを対応付け、
前記情報表示制御部は、前記複数の撮像装置に対応する前記撮像装置位置情報の表示と、前記撮像装置位置情報に対する前記オブジェクト位置情報の表示と、を制御し、
前記情報表示制御部は、前記複数の撮像装置のうち、生成した前記映像データが主映像として選択された前記撮像装置の前記撮像装置位置情報を、他の前記撮像装置の前記撮像装置位置情報と異なるように表示態様を制御し、
前記後段処理要求部は、前記情報入力部が受け付けた前記切替え処理に係るユーザからの入力に基づいて、前記主映像として選択された撮像装置から、複数の前記撮像装置のうち、生成した前記映像データが次の主映像として選択された前記他の撮像装置への前記切替え処理を前記後段処理装置に要求し、
前記情報入力部は、ハイライト映像の作成要求の入力をさらに受け付け、
前記後段処理要求部は、前記複数の撮像装置の前記映像データに基づく前記ハイライト映像の作成を前記後段処理装置に要求する、
報処理装置。
an imaging position information calculation unit that calculates a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
an information display control unit that controls display of the imaging device position information;
a post-processing request unit that requests a post-processing device to switch the imaging device;
an information input unit that accepts an input operation for the imaging device position information,
the imaging position information calculation unit calculates the imaging device position information corresponding to the plurality of imaging devices based on the camera data received from the plurality of imaging devices, and associates the imaging device position information with object position information indicating a position of an object to be imaged;
the information display control unit controls display of the imaging device position information corresponding to the plurality of imaging devices and display of the object position information with respect to the imaging device position information;
the information display control unit controls a display mode such that the imaging device position information of an imaging device, the generated video data of which is selected as a main video among the plurality of imaging devices, is different from the imaging device position information of the other imaging devices;
the post-processing request unit requests the post-processing device to perform the switching process from the imaging device selected as the main video to the other imaging device, of the plurality of imaging devices, the imaging device having the generated video data selected as a next main video, based on an input from a user related to the switching process received by the information input unit;
the information input unit further receives an input of a request for creating a highlight video;
the post-processing request unit requests the post-processing device to create the highlight video based on the video data of the plurality of imaging devices;
Information processing device.
前記ハイライト映像は、所定のオブジェクトを映している前記撮像装置の前記映像データを用いて構成され、
前記後段処理要求部は、前記所定のオブジェクトの映像を含む前記ハイライト映像の作成を前記後段処理装置に要求する、
請求項に記載の情報処理装置。
the highlight video is constructed using the video data of the imaging device showing a predetermined object,
the post-processing request unit requests the post-processing device to create the highlight video including an image of the predetermined object;
The information processing device according to claim 8 .
前記カメラデータおよび前記オブジェクトに係るデータを含む補助データに基づいて、前記後段処理要求部に前記ハイライト映像の作成を前記後段処理装置に要求させる映像作成制御部、
をさらに備える、
請求項8または9に記載の情報処理装置。
an image creation control unit that causes the post-processing request unit to request the post-processing device to create the highlight image based on auxiliary data including the camera data and data related to the object;
Further comprising:
10. The information processing device according to claim 8 or 9 .
前記撮像位置情報算出部は、前記複数の撮像装置のうち、生成した前記映像データが次の主映像候補である撮像装置を特定し、
前記情報表示制御部は、前記撮像位置情報算出部が特定した前記次の主映像候補である前記撮像装置の前記撮像装置位置情報を、前記他の撮像装置の前記撮像装置位置情報と異なるように表示態様を制御する、
請求項2~10のいずれか1項に記載の情報処理装置。
the imaging position information calculation unit identifies an imaging device from among the plurality of imaging devices, the imaging device from which the generated video data is a next main video candidate;
the information display control unit controls a display mode of the imaging device position information of the imaging device that is the next main image candidate identified by the imaging position information calculation unit so as to be different from the imaging device position information of the other imaging devices.
The information processing device according to any one of claims 2 to 10 .
前記撮像位置情報算出部は、前記撮像装置位置情報および前記オブジェクト位置情報に基づいて、前記次の主映像候補である撮像装置を特定する、
請求項11に記載の情報処理装置。
the imaging position information calculation unit specifies an imaging device that is the next main image candidate based on the imaging device position information and the object position information;
The information processing device according to claim 11 .
前記カメラデータは、前記撮像装置の画角およびフォーカス距離を示す情報を含み、
前記撮像位置情報算出部は、前記撮像装置の画角およびフォーカス距離を示す情報に基づいて、前記撮像装置位置情報として前記撮像装置の撮像範囲をさらに算出し、
前記情報表示制御部は、前記撮像範囲を含む前記撮像装置位置情報の表示を制御する、
請求項1~12のいずれか1項に記載の情報処理装置。
the camera data includes information indicating an angle of view and a focus distance of the imaging device;
the imaging position information calculation unit further calculates an imaging range of the imaging device as the imaging device position information based on information indicating an angle of view and a focus distance of the imaging device;
the information display control unit controls display of the imaging device position information including the imaging range.
The information processing device according to any one of claims 1 to 12 .
前記カメラデータは、前記撮像装置に装着されたレンズの特性をさらに含み、
前記撮像位置情報算出部は、前記レンズの特性に基づいて、前記撮像範囲を算出する、
請求項13に記載の情報処理装置。
The camera data further includes characteristics of a lens attached to the imaging device;
The imaging position information calculation unit calculates the imaging range based on characteristics of the lens.
The information processing device according to claim 13 .
前記撮像位置情報算出部は、前記撮像装置の垂直位置にさらに基づいて、前記撮像範囲を算出する、
請求項13または14に記載の情報処理装置。
The imaging position information calculation unit calculates the imaging range further based on a vertical position of the imaging device.
15. The information processing device according to claim 13 or 14 .
前記撮像位置情報算出部は、前記映像データに基づいて、前記オブジェクト位置情報を算出する、
請求項1~15のいずれか1項に記載の情報処理装置。
The imaging position information calculation unit calculates the object position information based on the video data.
The information processing device according to any one of claims 1 to 15 .
前記撮像位置情報算出部は、前記オブジェクトに係るデータを含む補助データに基づいて、前記オブジェクト位置情報を算出する、
請求項1~15のいずれか1項に記載の情報処理装置。
The imaging position information calculation unit calculates the object position information based on auxiliary data including data related to the object.
The information processing device according to any one of claims 1 to 15 .
前記情報表示制御部は、前記カメラデータに基づいて、位置および向きの少なくとも一方が所定時間以上変化しない前記撮像装置位置情報を、他の撮像装置の前記撮像装置位置情報と異なるように表示態様を制御する、
請求項1~17のいずれか1項に記載の情報処理装置。
the information display control unit controls a display mode of the imaging device position information, of which at least one of a position and an orientation does not change for a predetermined period of time or more, based on the camera data, so as to be different from the imaging device position information of other imaging devices.
The information processing device according to any one of claims 1 to 17 .
プロセッサにより実行される情報処理方法であって
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出ステップと、
前記撮像装置位置情報の表示を制御する情報表示制御ステップと、
前記撮像装置位置情報の変化履歴を示す履歴情報を格納する格納ステップと、を有し、
前記撮像位置情報算出ステップでは、複数の前記撮像装置から受信された前記カメラデータに基づいて、前記複数の撮像装置に対応する前記撮像装置位置情報を算出し、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報と前記撮像装置位置情報とを対応付け、
前記情報表示制御ステップでは、前記複数の撮像装置に対応する前記撮像装置位置情報の表示と、前記撮像装置位置情報に対する前記オブジェクト位置情報の表示と、を制御し、
前記情報表示制御ステップでは、前記カメラデータに基づいた前記撮像装置の位置若しくは向きの少なくとも一方が前記履歴情報を満たさない撮像装置の前記撮像装置位置情報を、他の撮像装置の前記撮像装置位置情報とは異なるように表示態様を制御する、
情報処理方法。
1. An information processing method executed by a processor, comprising :
an imaging position information calculation step of calculating a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
an information display control step of controlling a display of the imaging device position information;
and storing history information indicating a change history of the imaging device position information,
In the imaging position information calculation step, the imaging device position information corresponding to the plurality of imaging devices is calculated based on the camera data received from the plurality of imaging devices, and the imaging device position information is associated with object position information indicating a position of an object to be imaged;
In the information display control step, a display of the imaging device position information corresponding to the plurality of imaging devices and a display of the object position information with respect to the imaging device position information are controlled;
In the information display control step, a display mode of the imaging device position information of an imaging device in which at least one of a position or an orientation of the imaging device based on the camera data does not satisfy the history information is controlled so as to be different from the imaging device position information of other imaging devices.
Information processing methods.
プロセッサにより実行される情報処理方法であって、1. An information processing method executed by a processor, comprising:
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出ステップと、an imaging position information calculation step of calculating a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
前記撮像装置位置情報の表示を制御する情報表示制御ステップと、an information display control step of controlling a display of the imaging device position information;
撮像装置の切替え処理を後段処理装置に要求する後段処理要求ステップと、a post-processing request step of requesting a post-processing device to switch the imaging device;
前記撮像装置位置情報に対する入力操作を受け付ける情報入力ステップと、を備え、and an information input step of receiving an input operation for the imaging device position information,
前記撮像位置情報算出ステップでは、複数の前記撮像装置から受信された前記カメラデータに基づいて、前記複数の撮像装置に対応する前記撮像装置位置情報を算出し、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報と前記撮像装置位置情報とを対応付け、In the imaging position information calculation step, the imaging device position information corresponding to the plurality of imaging devices is calculated based on the camera data received from the plurality of imaging devices, and the imaging device position information is associated with object position information indicating a position of an object to be imaged;
前記情報表示制御ステップでは、前記複数の撮像装置に対応する前記撮像装置位置情報の表示と、前記撮像装置位置情報に対する前記オブジェクト位置情報の表示と、を制御し、In the information display control step, a display of the imaging device position information corresponding to the plurality of imaging devices and a display of the object position information with respect to the imaging device position information are controlled;
前記情報表示制御ステップでは、前記複数の撮像装置のうち、生成した前記映像データが主映像として選択された前記撮像装置の前記撮像装置位置情報を、他の前記撮像装置の前記撮像装置位置情報と異なるように表示態様を制御し、In the information display control step, a display mode of the imaging device position information of an imaging device, the image data of which is selected as a main image among the plurality of imaging devices, is controlled so as to be different from the imaging device position information of the other imaging devices.
前記後段処理要求ステップでは、前記情報入力ステップで受け付けた前記切替え処理に係るユーザからの入力に基づいて、前記主映像として選択された撮像装置から、複数の前記撮像装置のうち、生成した前記映像データが次の主映像として選択された前記他の撮像装置への前記切替え処理を前記後段処理装置に要求し、In the post-processing request step, a request is made to the post-processing device to perform the switching process from the imaging device selected as the main image to the other imaging device, of the plurality of imaging devices, the imaging device having the generated image data selected as a next main image, based on an input from a user related to the switching process received in the information input step;
前記情報入力ステップでは、ハイライト映像の作成要求の入力をさらに受け付け、The information input step further includes receiving an input of a request for creating a highlight video;
前記後段処理要求ステップでは、前記複数の撮像装置の前記映像データに基づく前記ハイライト映像の作成を前記後段処理装置に要求する、the post-processing request step requests the post-processing device to create the highlight video based on the video data of the plurality of image capture devices;
情報処理方法。Information processing methods.
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部、
前記撮像装置位置情報の表示を制御する情報表示制御部、
前記撮像装置位置情報の変化履歴を示す履歴情報を格納する格納部、として機能させ、
前記撮像位置情報算出部は、複数の前記撮像装置から受信された前記カメラデータに基づいて、前記複数の撮像装置に対応する前記撮像装置位置情報を算出し、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報と前記撮像装置位置情報とを対応付け、
前記情報表示制御部は、前記複数の撮像装置に対応する前記撮像装置位置情報の表示と、前記撮像装置位置情報に対する前記オブジェクト位置情報の表示と、を制御し、
前記情報表示制御部は、前記カメラデータに基づいた前記撮像装置の位置若しくは向きの少なくとも一方が前記履歴情報を満たさない撮像装置の前記撮像装置位置情報を、他の撮像装置の前記撮像装置位置情報とは異なるように表示態様を制御する、
プログラム。
an imaging position information calculation unit that calculates a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
an information display control unit that controls display of the imaging device position information;
a storage unit that stores history information indicating a change history of the imaging device position information;
the imaging position information calculation unit calculates the imaging device position information corresponding to the plurality of imaging devices based on the camera data received from the plurality of imaging devices, and associates the imaging device position information with object position information indicating a position of an object to be imaged;
the information display control unit controls display of the imaging device position information corresponding to the plurality of imaging devices and display of the object position information with respect to the imaging device position information;
the information display control unit controls a display mode of the imaging device position information of an imaging device in which at least one of a position or an orientation of the imaging device based on the camera data does not satisfy the history information so as to be different from the imaging device position information of other imaging devices.
program.
コンピュータを、Computer,
映像データに紐づけられた、撮像装置から受信されたカメラデータに基づいて、撮像装置位置情報として前記撮像装置の位置および向きを算出する撮像位置情報算出部、an imaging position information calculation unit that calculates a position and an orientation of the imaging device as imaging device position information based on camera data associated with the video data and received from the imaging device;
前記撮像装置位置情報の表示を制御する情報表示制御部、an information display control unit that controls display of the imaging device position information;
撮像装置の切替え処理を後段処理装置に要求する後段処理要求部、a post-processing request unit that requests a post-processing device to switch the imaging device;
前記撮像装置位置情報に対する入力操作を受け付ける情報入力部、として機能させ、an information input unit that receives an input operation for the imaging device position information;
前記撮像位置情報算出部は、複数の前記撮像装置から受信された前記カメラデータに基づいて、前記複数の撮像装置に対応する前記撮像装置位置情報を算出し、撮像対象であるオブジェクトの位置を示すオブジェクト位置情報と前記撮像装置位置情報とを対応付け、the imaging position information calculation unit calculates the imaging device position information corresponding to the plurality of imaging devices based on the camera data received from the plurality of imaging devices, and associates the imaging device position information with object position information indicating a position of an object to be imaged;
前記情報表示制御部は、前記複数の撮像装置に対応する前記撮像装置位置情報の表示と、前記撮像装置位置情報に対する前記オブジェクト位置情報の表示と、を制御し、the information display control unit controls display of the imaging device position information corresponding to the plurality of imaging devices and display of the object position information with respect to the imaging device position information;
前記情報表示制御部は、前記複数の撮像装置のうち、生成した前記映像データが主映像として選択された前記撮像装置の前記撮像装置位置情報を、他の前記撮像装置の前記撮像装置位置情報と異なるように表示態様を制御し、the information display control unit controls a display mode such that the imaging device position information of an imaging device, the generated video data of which is selected as a main video among the plurality of imaging devices, is different from the imaging device position information of the other imaging devices;
前記後段処理要求部は、前記情報入力部が受け付けた前記切替え処理に係るユーザからの入力に基づいて、前記主映像として選択された撮像装置から、複数の前記撮像装置のうち、生成した前記映像データが次の主映像として選択された前記他の撮像装置への前記切替え処理を前記後段処理装置に要求し、the post-processing request unit requests the post-processing device to perform the switching process from the imaging device selected as the main video to the other imaging device, of the plurality of imaging devices, the imaging device having the generated video data selected as a next main video, based on an input from a user related to the switching process received by the information input unit;
前記情報入力部は、ハイライト映像の作成要求の入力をさらに受け付け、the information input unit further receives an input of a request for creating a highlight video;
前記後段処理要求部は、前記複数の撮像装置の前記映像データに基づく前記ハイライト映像の作成を前記後段処理装置に要求する、the post-processing request unit requests the post-processing device to create the highlight video based on the video data of the plurality of imaging devices;
プログラム。Program.
JP2021511155A 2019-03-29 2020-01-30 Information processing device, information processing method, and program Active JP7537425B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019066171 2019-03-29
JP2019066171 2019-03-29
PCT/JP2020/003417 WO2020202756A1 (en) 2019-03-29 2020-01-30 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2020202756A1 JPWO2020202756A1 (en) 2020-10-08
JP7537425B2 true JP7537425B2 (en) 2024-08-21

Family

ID=72667925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021511155A Active JP7537425B2 (en) 2019-03-29 2020-01-30 Information processing device, information processing method, and program

Country Status (4)

Country Link
US (1) US20220051432A1 (en)
EP (1) EP3952281A4 (en)
JP (1) JP7537425B2 (en)
WO (1) WO2020202756A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7632248B2 (en) * 2021-11-26 2025-02-19 トヨタ自動車株式会社 Vehicle photographing system and vehicle photographing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094860A (en) 1999-09-27 2001-04-06 Canon Inc Camera control system, method for controlling camera and storage medium
JP2002064815A (en) 2000-08-22 2002-02-28 Mitsubishi Electric Corp Image monitoring device
JP2002247568A (en) 2001-02-16 2002-08-30 Syst Five:Kk Imaging information providing device
JP2003158663A (en) 2001-11-20 2003-05-30 Canon Inc Remote controller for video camera, its method, and storage medium
JP2015195627A (en) 2015-08-06 2015-11-05 Toa株式会社 Camera control apparatus and computer program thereof

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
JP3201533B2 (en) * 1991-08-19 2001-08-20 日本電信電話株式会社 Presentation method of video and its shooting information
EP0715453B1 (en) * 1994-11-28 2014-03-26 Canon Kabushiki Kaisha Camera controller
JPH08223561A (en) * 1995-02-17 1996-08-30 Nippon Denki Syst Kensetsu Kk Method and device for controlling camera by the use of monitor area diagram
JPH09289606A (en) 1996-04-23 1997-11-04 Canon Inc Image display device and camera controller
JP4583258B2 (en) * 2004-07-12 2010-11-17 パナソニック株式会社 Camera control device
JP4572099B2 (en) * 2004-09-13 2010-10-27 三菱電機株式会社 Mobile tracking support system
TWI405457B (en) * 2008-12-18 2013-08-11 Ind Tech Res Inst Multi-target tracking system, method and smart node using active camera handoff
JP4547040B1 (en) * 2009-10-27 2010-09-22 パナソニック株式会社 Display image switching device and display image switching method
EP2502408B1 (en) * 2009-11-17 2015-01-07 Telefonaktiebolaget LM Ericsson (publ) Synchronization of cameras for multi-view session capturing
US8193909B1 (en) * 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
WO2012171839A1 (en) * 2011-06-17 2012-12-20 Thomson Licensing Video navigation through object location
US9319635B2 (en) * 2012-11-30 2016-04-19 Pelco, Inc. Window blanking for pan/tilt/zoom camera
JP6607433B2 (en) * 2014-06-23 2019-11-20 パナソニックIpマネジメント株式会社 Video distribution method and server
CN105100596B (en) * 2014-05-14 2019-08-20 韩华泰科株式会社 Camera apparatus and the method for using camera apparatus tracking object
US9288545B2 (en) * 2014-12-13 2016-03-15 Fox Sports Productions, Inc. Systems and methods for tracking and tagging objects within a broadcast
KR102101438B1 (en) * 2015-01-29 2020-04-20 한국전자통신연구원 Multiple camera control apparatus and method for maintaining the position and size of the object in continuous service switching point
JP6639091B2 (en) * 2015-02-12 2020-02-05 キヤノン株式会社 Display control device and display control method
US20180139374A1 (en) * 2016-11-14 2018-05-17 Hai Yu Smart and connected object view presentation system and apparatus
US10417781B1 (en) * 2016-12-30 2019-09-17 X Development Llc Automated data capture
US11227410B2 (en) * 2018-03-29 2022-01-18 Pelco, Inc. Multi-camera tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094860A (en) 1999-09-27 2001-04-06 Canon Inc Camera control system, method for controlling camera and storage medium
JP2002064815A (en) 2000-08-22 2002-02-28 Mitsubishi Electric Corp Image monitoring device
JP2002247568A (en) 2001-02-16 2002-08-30 Syst Five:Kk Imaging information providing device
JP2003158663A (en) 2001-11-20 2003-05-30 Canon Inc Remote controller for video camera, its method, and storage medium
JP2015195627A (en) 2015-08-06 2015-11-05 Toa株式会社 Camera control apparatus and computer program thereof

Also Published As

Publication number Publication date
US20220051432A1 (en) 2022-02-17
EP3952281A1 (en) 2022-02-09
EP3952281A4 (en) 2022-05-04
JPWO2020202756A1 (en) 2020-10-08
WO2020202756A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
WO2014082407A1 (en) Method and system for displaying video monitoring image
JPWO2004066632A1 (en) Remote video display method, video acquisition device, method and program thereof
JP5935694B2 (en) Moving image distribution system and moving image distribution method
JP2021141608A (en) Image processing equipment, image processing methods and programs
JP2020005146A (en) Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device
KR20180130504A (en) Information processing apparatus, information processing method, program
JP2019114147A (en) Image processing apparatus, control method for image processing apparatus, and program
JP5966834B2 (en) Image processing apparatus, image processing method, and image processing program
KR20180027132A (en) Display device
TWI439134B (en) 3d digital image monitor system and method
JP6593922B2 (en) Image surveillance system
JP2022105568A (en) System and method for displaying 3d tour comparison
JP7537425B2 (en) Information processing device, information processing method, and program
JP2013210989A (en) Image processing device, image processing method, and image processing program
WO2013129188A1 (en) Image processing device, image processing method, and image processing program
JP2012119971A (en) Monitoring video display unit
JP5861684B2 (en) Information processing apparatus and program
JP6355319B2 (en) REPRODUCTION DEVICE AND ITS CONTROL METHOD, MANAGEMENT DEVICE AND ITS CONTROL METHOD, VIDEO REPRODUCTION SYSTEM, PROGRAM, AND STORAGE MEDIUM
KR101452372B1 (en) Method and System for Controlling Camera
JP6875965B2 (en) Control devices, control methods, programs, and monitoring systems
JP6836306B2 (en) Imaging control device, its control method, program and recording medium
JP4333255B2 (en) Monitoring device
WO2021199715A1 (en) Information processing device, information processing method, and program
JP5854019B2 (en) Terminal device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240722

R150 Certificate of patent or registration of utility model

Ref document number: 7537425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150