WO2021095687A1 - 仮想サーバ、動画編集方法、および動画編集システム - Google Patents
仮想サーバ、動画編集方法、および動画編集システム Download PDFInfo
- Publication number
- WO2021095687A1 WO2021095687A1 PCT/JP2020/041729 JP2020041729W WO2021095687A1 WO 2021095687 A1 WO2021095687 A1 WO 2021095687A1 JP 2020041729 W JP2020041729 W JP 2020041729W WO 2021095687 A1 WO2021095687 A1 WO 2021095687A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- terminal
- editing
- server
- virtual
- edit
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
Definitions
- This disclosure relates to a virtual server, a video editing method, and a video editing system.
- Patent Document 1 describes a compact system that allows an editor to easily edit a video as a material existing on the network without learning how to operate a special video editing software. Is disclosed.
- the content of editing is configured to be saved in a video editing server (a place where editing is performed).
- the content of the edit is saved in a place different from the place where the edited material is saved.
- TV broadcasting stations and the like edit videos to be broadcast on TV, and the edited videos may include incidents and accidents.
- TV broadcasting stations generally keep related data on a specific server by editing the video on an on-premises editing terminal installed in the editing room. ..
- the number of video editing operations is limited by the number of editing terminals installed. It is conceivable to increase the number of editing terminals so that more editing work can be performed, but the cost of the editing terminals is generally high.
- the non-limiting examples of the present disclosure contribute to the provision of a virtual server, a video editing method, and a video editing system capable of suppressing video leakage at low cost and increasing the number of video editing operations.
- the virtual server communicates with the first terminal, communicates with the editing server that edits the stored editing file based on the operation of the first terminal, and communicates with the second terminal. Communicate with, assign a virtual client to the second terminal, edit the edit file on the edit server based on the operation of the second terminal, and communicate between the first terminal and the edit server. It communicates with the second terminal at a communication speed lower than the speed.
- the moving image editing method communicates with a first terminal, communicates with an editing server that edits a stored editing file based on the operation of the first terminal, and performs a second. It communicates with a terminal, assigns a virtual client to the second terminal, edits the edit file on the edit server based on the operation of the second terminal, and causes the first terminal and the edit server to edit. It communicates with the second terminal at a communication speed lower than the communication speed.
- the moving image editing system includes an editing server in which an editing file is stored and a virtual server that communicates with the editing server, and the editing server communicates with a first terminal.
- the editing file is edited based on the operation of the first terminal
- the virtual server communicates with the editing server, communicates with the second terminal, and assigns a virtual client to the second terminal.
- the edit file on the edit server is edited based on the operation of the second terminal, and the virtual server has the second terminal at a communication speed lower than the communication speed between the first terminal and the edit server. Communicate with the terminal of. Have,
- the figure which showed an example of the structure of the video editing system which concerns on embodiment The figure explaining the schematic operation example of the video editing system
- Sequence diagram showing an operation example of a video editing system Sequence diagram showing an operation example of a video editing system
- FIG. 1 is a diagram showing an example of the configuration of the video editing system according to the embodiment.
- the moving image editing system includes an editing server 1, a terminal 2, a virtual server 3, and terminals 4a to 4c.
- the video editing system is installed in, for example, a television broadcasting station, a video production company, etc. (hereinafter, may be referred to as a broadcasting station, etc.).
- the video editing system generates (edits) a video to be broadcast on television in response to operations of terminals 2, 4a to 4c.
- the moving image may be referred to as a video or an image.
- the editing server 1 is an on-premises server, which is managed and operated by a broadcasting station or the like.
- the moving image taken by the camera is stored in the editing server 1. Further, the edited moving image is stored in the editing server 1.
- the unedited video shot by the camera may be referred to as the shooting material.
- the edited moving image may be referred to as OA (OnAir) material.
- OA material will be broadcast on television.
- the editing file is stored in the editing server 1.
- the editing file includes information related to video editing, such as information for cutting out a part of the shooting material, character information to be inserted into the shooting material, and audio information to be inserted into the shooting material.
- the editing server 1 stores the editing files P1 and P2.
- the edit file is created based on the operations of terminals 2, 4a to 4c.
- the editing server 1 edits the moving image of the shooting material according to the editing file and generates the OA material to be broadcast on television.
- Terminal 2 is an on-premises terminal, which is managed and operated by a broadcasting station or the like.
- the terminal 2 has a function of editing a moving image stored in the editing server 1.
- the terminal 2 is connected to the editing server 1 via a broadband network.
- a broadband network For example, it is connected to the editing server 1 via a network such as a wired LAN (Local Area Network).
- LAN Local Area Network
- the terminal 2 is installed in an editing room such as a broadcasting station, for example.
- the terminal 2 has higher specifications and higher cost than the terminals 4a to 4c.
- the terminal 2 has a higher (more) video editing function than the terminals 4a to 4c, and is connected with a high resolution and a wide communication band, so that the cost is high. Therefore, the number of terminals 2 installed and the number of people who can perform editing work are limited.
- the virtual server 3 is an on-premises server, which is managed and operated by a broadcasting station or the like.
- the virtual server 3 is connected to the editing server 1 via a broadband network such as a wired LAN.
- the virtual server 3 is connected to the terminals 4a to 4c via a narrow band network such as a wireless LAN.
- Wi-Fi registered trademark
- Such a highly convenient narrow band network such as Wi-Fi is a network with a small capacity and low speed communication as compared with a wide band network connecting the terminal 2 and the editing server 1.
- the communication band between the virtual server 3 and the terminals 4a to 4c is lower than the communication band between the editing server 1 and the terminal 2. Further, the communication band between the virtual server 3 and the terminals 4a to 4c is lower than the communication band between the editing server 1 and the virtual server 3.
- the virtual server 3 operates a virtual client and relays the exchange of information between the terminals 4a to 4c and the editing server 1.
- virtual clients C1 to C5 are operating.
- the virtual client running on the virtual server 3 is a screen transfer type virtual client.
- the virtual client does not download the moving image data of the shooting material and the OA material stored in the editing server 1, but plays them by streaming.
- the virtual client transmits the screen information streamed and reproduced to the terminals 4a to 4c.
- the virtual client receives operation information (input data) from terminals 4a to 4c.
- the virtual client transmits information according to the received operation information to the editing server 1.
- a protocol such as RDP (Remote Desktop Protocol) or HTTP (Hypertext Transfer Protocol) may be used.
- the terminals 4a to 4c are provided with a function of editing the moving image stored in the editing server 1 by the virtual server 3.
- the video editing function that can be executed on the terminals 4a to 4c is lower (less) than that of the terminal 2, and simple video editing is performed.
- the terminals 4a to 4c are used by, for example, employees of a broadcasting station or the like.
- the terminals 4a to 4c can be moved unlike the terminals 2 installed in the editing room.
- Employees of broadcasting stations and the like can perform simple video editing using terminals 4a to 4c, for example, in their own seats or conference rooms.
- each of the terminals 4a to 4c when each of the terminals 4a to 4c is not distinguished, it is simply described as the terminal 4.
- the operator of the terminals 2 and 4 may be referred to as a user.
- the terminal 2 may be referred to as an editing terminal, an on-premise terminal, or an on-premise PC (Personal Computer).
- the terminal 4 may be referred to as a self-seat terminal, a self-seat PC, or a personal terminal.
- the communication band may be paraphrased as, for example, a communication speed.
- FIG. 2 is a diagram illustrating a schematic operation example of the video editing system.
- the virtual server 3 in FIG. 1 operates five virtual clients C1 to C5, but in FIG. 2, it operates three virtual clients C1 to C3.
- the terminal 4 accesses the virtual server 3.
- the virtual server 3 notifies the terminal 4 that the terminal 4 cannot be accessed as shown by the arrow A2 if there is no free virtual client.
- the virtual server 3 allocates a free virtual client to the accessing terminal 4. For example, the virtual server 3 allocates the virtual client C3 to the terminal 4. As a result, the terminal 4 can indirectly access the editing server 1 via the virtual client C3.
- the terminal 4 accepts a moving image playback operation from the user.
- the terminal 4 transmits the operation information of the reproduction operation received from the user to the virtual client C3 as shown by arrows A1 and A3.
- the virtual client C3 accesses the moving image data of the shooting material and the OA material on the editing server 1 as shown by the arrow A4 based on the operation information of the playback operation.
- the virtual client C3 streams and reproduces the video data of the captured material and the OA material on the accessed editing server 1, and transmits the streamed screen information to the terminal 4 as shown by the arrow A5.
- the terminal 4 displays a moving image based on the screen information transmitted from the virtual server 3 on the display device.
- the terminal 4 accepts an editing operation of the editing file on the editing server 1 from the user.
- the terminal 4 transmits the operation information of the editing operation received from the user to the virtual client C3 as shown by arrows A1 and A3.
- the virtual client C3 edits the edit file on the edit server 1 as shown by the arrow A4 based on the operation information of the edit operation.
- the user can display the screen information of the moving image streamed by the virtual server 3 on the display device of the terminal 4 and edit the editing file on the editing server 1.
- the user can, for example, cut out a video portion unnecessary for television broadcasting or insert characters into a moving image.
- the terminal 4 it is difficult for the terminal 4 to instruct a part of the editing contents to the editing file in the editing server 1 due to the specifications, the narrow band network, and the like. That is, the content that can be edited in the terminal 4 is less than the content that can be edited in the terminal 2.
- the terminal 2 can directly access the editing server 1 as shown by the arrow A6.
- the terminal 2 can access, download, and play back the shooting material and the OA material on the editing server 1.
- the terminal 2 can access the editing file on the editing server 1 and directly edit the editing file.
- the terminal 2 can instruct the editing server 1 to generate a moving image according to the editing file.
- the terminal 2 has high specifications and high cost. Therefore, increasing the number of terminals 2 imposes a heavy burden on broadcasting stations and the like. Therefore, in the editing work, since the work requiring high specifications such as the terminal 2 is limited, we focused on utilizing an inexpensive personal terminal 4. However, it is difficult to utilize the terminal 4 outside the editing room of a broadcasting station or the like in terms of compliance because it handles confidential information such as videos related to incidents and accidents. In view of these, the video editing system shown in FIG. 1 can not only introduce a large number of personal terminals 4 at low cost by utilizing the virtual server 3, but also comply with compliance and personal terminals. Since 4, it has become possible to easily edit videos.
- the virtual server 3 of FIG. 1 operates a screen transfer type virtual client, plays a video on the editing server 1 by streaming, and transmits screen information of the played video to the terminal 4.
- the amount of data communication to the terminal 4 can be suppressed.
- the communication band of the terminal 4 does not have to be a high band as in the terminal 2, and the cost can be suppressed.
- the terminal 4 may be a personal computer or the like.
- the communication band (one communication band) between the virtual server 3 and the editing server 1 is set to a wide band, and the communication band between the virtual server 3 and the terminal 4 is set to the virtual server 3.
- Wi-Fi or the like which has a narrower band than the communication band with the editing server 1
- an environment is provided in which a plurality of users can perform editing work using the terminal 4.
- the moving image editing system of FIG. 1 can reduce the cost.
- the virtual server 3 of FIG. 1 stream-plays the video on the editing server 1 and transmits the screen information of the played video to the terminal 4. Further, the virtual server 3 receives the operation information from the terminal 4 and edits the editing file on the editing server 1. As a result, since the terminal 4 does not directly access the editing server 1 (because it is indirectly accessed via the virtual server 3), it is possible to suppress leakage of the moving image and the editing file to the outside. Moreover, the data of the moving image and the editing file does not remain in the virtual server 3 and the terminal 4. As a result, it is possible to suppress leakage of moving images and edited files to the outside.
- FIG. 3 is a diagram showing an example of a block configuration of the editing server 1, the terminal 2, the virtual server 3, and the terminal 4.
- the editing server 1 has a communication unit 11, a control unit 12, and a storage unit 13.
- the communication unit 11 communicates with the terminal 2 via a broadband network such as a wired LAN. Further, the communication unit 11 communicates with the virtual server 3 via a broadband network such as a wired LAN.
- the control unit 12 controls the entire editing server 1.
- the control unit 12 may be configured by, for example, a processor such as a CPU (Central Processing Unit).
- the control unit 12 executes a program stored in the storage unit 13, for example, and exerts a predetermined function.
- the storage unit 13 stores a program for operating the control unit 12. Further, the storage unit 13 stores data for the control unit 12 to perform calculation processing, data for the control unit 12 to control each unit, and the like.
- the storage unit 13 may be composed of a storage device such as a RAM (RandomAccessMemory), a ROM (ReadOnlyMemory), a flash memory, and an HDD (HardDiskDrive).
- the terminal 2 has a communication unit 21, a control unit 22, a storage unit 23, an input unit 24, and a display unit 25.
- the communication unit 21 communicates with the editing server 1 via a broadband network such as a wired LAN.
- the control unit 22 controls the entire terminal 2.
- the control unit 22 may be configured by a processor such as a CPU, for example.
- the control unit 22 executes a program stored in the storage unit 23, for example, and exerts a predetermined function.
- the storage unit 23 stores a program for operating the control unit 22. Further, the storage unit 23 stores data for the control unit 22 to perform calculation processing, data for the control unit 22 to control each unit, and the like.
- the storage unit 23 may be composed of a storage device such as a RAM, a ROM, a flash memory, and an HDD.
- the input unit 24 is, for example, an input device such as a keyboard, a mouse, and a touch panel.
- the input unit 24 receives the user's operation and outputs a signal corresponding to the received operation to the control unit 22.
- the display unit 25 is, for example, a display device such as an LCD (Liquid Crystal Display) and an organic EL (Electro Luminescence).
- the display unit 25 displays an image based on the signal output from the control unit 22.
- the virtual server 3 has a communication unit 31, a control unit 32, and a storage unit 33.
- the communication unit 31 communicates with the editing server 1 via a broadband network such as a wired LAN. Further, the communication unit 31 wirelessly communicates with the terminal 4 via a narrow band network such as a wireless LAN.
- the control unit 32 controls the entire virtual server 3.
- the control unit 32 may be configured by a processor such as a CPU, for example.
- the control unit 32 executes a program stored in the storage unit 33, for example, and exerts a predetermined function.
- control unit 32 operates a virtual client (realizes the function of the virtual client) and assigns the virtual client to the terminal 4 that has requested access.
- the virtual client realizes a moving image editing function by an OS (Operating System) stored in the storage unit 33 and an application for editing a moving image.
- OS Operating System
- the application that edits the moving image for example, streams and plays the moving image on the editing server 1 based on the operation information from the terminal 4.
- the application for editing the moving image transmits the screen information of the streaming-played moving image to the terminal 4. Further, the application for editing the moving image generates an editing file on the editing server 1 based on the operation information from the terminal 4, and edits the editing file on the editing server 1.
- the storage unit 33 stores a program for operating the control unit 32. Further, the storage unit 33 stores data for the control unit 32 to perform calculation processing, data for the control unit 32 to control each unit, and the like.
- the storage unit 33 may be composed of a storage device such as a RAM, a ROM, a flash memory, an HDD, and a cache memory.
- the terminal 4 has a communication unit 41, a control unit 42, an input unit 43, and a display unit 44.
- the communication unit 41 wirelessly communicates with the virtual server 3 via a network such as a wireless LAN.
- the control unit 42 controls the entire terminal 4.
- the control unit 42 may be configured by a processor such as a CPU, for example.
- the control unit 42 executes a program stored in the storage unit (not shown), for example, and exerts a predetermined function.
- the input unit 43 is, for example, an input device such as a keyboard, a mouse, and a touch panel.
- the input unit 43 receives the user's operation and outputs a signal corresponding to the received operation to the control unit 42.
- the display unit 44 is, for example, a display device such as an LCD or an organic EL.
- the display unit 44 displays an image based on the signal output from the control unit 42.
- FIGS 4A and 4B are sequence diagrams showing an operation example of the video editing system.
- the control unit 42 of the terminal 4 transmits the authentication request information to the virtual server 3 via the communication unit 41 (S1).
- the control unit 32 of the virtual server 3 executes the authentication process of the terminal 4 based on the authentication request information transmitted in S1.
- the control unit 32 of the virtual server 3 transmits the authentication result information of the authentication process to the terminal 4 (S2). If the virtual client in the virtual server 3 is full, the terminal 4 is notified that the terminal 4 cannot be accessed as described by the arrow A2 in FIG.
- the video editing screen for editing the video is displayed on the display unit 44 of the terminal 4. That is, the virtual client C1 transmits the screen information of the moving image editing screen to the terminal 4.
- the user of the terminal 4 operates an operation button or the like displayed on the video editing screen of the display unit 44 to select, for example, an editing material (video to be edited).
- the control unit 42 of the terminal 4 receives the signal of the editing material selection operation from the input unit 43.
- the control unit 42 of the terminal 4 transmits the information of the editing material selection operation according to the signal from the input unit 43 to the virtual server 3 via the communication unit 41 (S3).
- the control unit 32 (virtual client C1) of the virtual server 3 transmits the information of the editing material information request to the editing server 1 via the communication unit 31 based on the information of the editing material selection operation transmitted in S3. (S4).
- the control unit 12 of the editing server 1 transmits the editing material information to the virtual server 3 via the communication unit 11 based on the information of the editing material information request transmitted in S4 (S5).
- the editing material information is information for accessing the shooting material and the OA material stored in the storage unit 13 of the editing server 1, and may be, for example, a URL (Uniform Resource Locator).
- the virtual client C1 of the virtual server 3 When the virtual client C1 of the virtual server 3 receives the editing material information transmitted in S5, the virtual client C1 transmits the information of the target material request to the editing server 1 via the communication unit 31 (S6).
- the information of the target material request is the editing material information (for example, URL) transmitted from the editing server 1 in S5. That is, the virtual client C1 of the virtual server 3 accesses and reads the moving image of the shooting material or the OA material stored in the storage unit 13 of the editing server 1 based on the address information such as the URL.
- the editing material information for example, URL
- the control unit 12 of the editing server 1 transmits the buffer data (material buffer data) of the moving image to the virtual server 3 via the communication unit 11 based on the information of the target material request transmitted in S6 (S7). ..
- the material buffer data may be referred to as streaming data or cache data.
- the virtual client C1 of the virtual server 3 stores the material buffer data transmitted in S7 in the storage unit 33 (for example, a cache memory).
- the virtual client C1 of the virtual server 3 reproduces the material buffer data stored in the cache memory, and transmits the screen information of the video of the reproduced material buffer data to the terminal 4 via the communication unit 31 (S8).
- the editing material (the moving image to be edited) is displayed on the display unit 44 of the terminal 4.
- the input unit 43 of the terminal 4 receives a simple editing operation of the moving image from the user, and outputs a signal corresponding to the received simple editing operation to the control unit 42.
- the simple editing operation there are editing that handles a small number of editing materials, color tone adjustment of the image, and the like, and the content that can be edited is less than that of the terminal 2.
- the control unit 42 of the terminal 4 transmits the information of the simple editing operation according to the signal from the input unit 43 to the virtual server 3 via the communication unit 41 (S9).
- the virtual client C1 of the virtual server 3 transmits the information of the simple editing instruction to the editing server 1 via the communication unit 31 based on the information of the simple editing operation transmitted in S9 (S10).
- the control unit 12 of the editing server 1 creates an editing file based on the information of the simple editing instruction transmitted in S10. It is also possible to edit the created edit file (S11).
- the editing file is stored in the storage unit 13 of the editing server 1.
- the input unit 24 of the terminal 2 receives the operation of the edit request of the edit file from the user, and outputs a signal corresponding to the operation of the received edit request to the control unit 22.
- the control unit 22 of the terminal 2 transmits the information of the edit file request according to the signal from the input unit 24 to the edit server 1 via the communication unit 21 (S12).
- the control unit 12 of the editing server 1 transmits the information of the editing notification to the terminal 2 via the communication unit 11 (S13).
- the display unit 25 of the terminal 2 displays, for example, information indicating that the editing file requested to be edited is being edited.
- control unit 12 of the editing server 1 edits the editing file
- the information of the editing result is transmitted to the virtual server 3 via the communication unit 11 (S14).
- the virtual client C1 of the virtual server 3 transmits screen information (screen information of the screen showing the editing result) based on the editing result information transmitted in S14 to the terminal 4 via the communication unit 31 (S15). As a result, the editing result of the moving image is displayed on the display unit 44 of the terminal 4.
- the input unit 43 of the terminal 4 receives an edit / save operation from the user and outputs a signal corresponding to the received edit / save operation to the control unit 42.
- the control unit 42 of the terminal 4 transmits the information of the edit / save operation according to the signal from the input unit 43 to the virtual server 3 via the communication unit 41 (S16).
- the virtual client C1 of the virtual server 3 transmits the information of the edit / save instruction to the edit server 1 via the communication unit 31 based on the information of the edit / save operation transmitted in S16 (S17).
- the control unit 12 of the editing server 1 saves the editing file being edited based on the information of the editing saving instruction transmitted in S17.
- the control unit 12 of the editing server 1 transmits the information of the saving result of the editing file to the virtual server 3 via the communication unit 11 (S18).
- the virtual client C1 of the virtual server 3 transmits screen information (screen information of the screen showing the save result) based on the save result information transmitted in S18 to the terminal 4 via the communication unit 31 (S19).
- the display unit 44 of the terminal 4 displays that the editing file has been saved in the editing server 1, and the user of the terminal 4 can recognize that the editing file has been saved in the editing server 1.
- the input unit 24 of the terminal 2 receives the operation of the edit request of the edit file from the user, and outputs a signal corresponding to the operation of the received edit request to the control unit 22.
- the control unit 22 of the terminal 2 transmits the information of the edit file request corresponding to the signal from the input unit 24 to the edit server 1 via the communication unit 21 (S20).
- the edit file requested to be edited by the terminal 2 may be an edit file previously generated and edited by the terminal 2. Further, the editing file requested to be edited by the terminal 2 may be an editing file generated and edited in S11. That is, the terminal 2 may edit the edit file generated and edited by the terminal 4.
- the control unit 12 of the editing server 1 transmits screen information of the editing file display information (information indicating the contents of the editing file) to the terminal 2 based on the editing file request information transmitted in S20 (S21). ).
- the input unit 24 of the terminal 2 receives a detailed editing operation from the user and outputs a signal corresponding to the received detailed editing operation to the control unit 22.
- Examples of detailed editing operations include editing that handles a large amount of editing materials and special video effects, and there are more contents that can be edited than simple editing operations.
- the control unit 22 of the terminal 2 transmits the information of the detailed editing instruction according to the signal from the input unit 24 to the editing server 1 via the communication unit 21 (S22).
- the control unit 12 of the editing server 1 edits the editing file based on the information of the detailed editing instruction transmitted in S22 (S23).
- the input unit 43 of the terminal 4 receives the operation of the edit request of the edit file from the user, and outputs a signal corresponding to the operation of the received edit request to the control unit 42.
- the control unit 42 of the terminal 4 transmits the information of the simple editing operation according to the signal from the input unit 43 to the virtual server 3 via the communication unit 41.
- an operation of calling an existing editing file is performed (S24).
- the virtual client C1 of the virtual server 3 transmits the information of the edit file request to the edit server 1 via the communication unit 31 based on the information of the simple edit operation transmitted in S24 (S25).
- the control unit 12 of the editing server 1 transmits the information of the editing notification to the virtual server 3 via the communication unit 11 (S26).
- the virtual client C1 of the virtual server 3 transmits screen information (screen information on the screen indicating that the editing file requested to be edited is being edited) based on the information of the editing notification transmitted in S26 via the communication unit 31. , Sent to terminal 4 (S27).
- the control unit 12 of the editing server 1 edits the editing file in S23
- the information of the editing result is transmitted to the terminal 2 via the communication unit 11 (S28).
- the editing result of the moving image is displayed on the display unit 25 of the terminal 2.
- the input unit 24 of the terminal 2 accepts an edit / save operation from the user, and outputs a signal corresponding to the received edit / save operation to the control unit 22.
- the control unit 22 of the terminal 2 transmits the information of the edit / save instruction according to the signal from the input unit 24 to the edit server 1 via the communication unit 21 (S29).
- the control unit 12 of the editing server 1 saves the editing file being edited based on the information of the editing saving instruction transmitted in S29.
- the control unit 12 of the editing server 1 transmits the information of the saving result of the editing file to the terminal 2 via the communication unit 11 (S30).
- the display unit 25 of the terminal 2 displays that the editing file has been saved in the editing server 1, and the user of the terminal 2 can recognize that the editing file has been saved in the editing server 1.
- the input unit 24 of the terminal 2 receives the operation of the moving image generation instruction from the user, and outputs a signal corresponding to the received operation of the moving image generation instruction to the control unit 22.
- the control unit 22 of the terminal 2 transmits the information of the moving image generation instruction according to the signal from the input unit 24 to the editing server 1 via the communication unit 21 (S31).
- the control unit 12 of the editing server 1 generates a moving image based on the information of the editing generation instruction transmitted in S31 (S32). For example, the control unit 12 of the editing server 1 generates an edited moving image (OA material) according to the editing file stored in the storage unit 13.
- the edited video is a video file that can be viewed as a video without the original video data (shooting material) or the edited file, and is the final video to be aired.
- the control unit 12 of the editing server 1 stores the generated edited moving image in the storage unit 13.
- the edit file for generating the moving image is specified at the time of operating the moving image generation instruction.
- the control unit 12 of the editing server 1 When the control unit 12 of the editing server 1 generates a moving image according to the editing file, the information of the generation result is transmitted to the terminal 2 via the communication unit 11 (S33). As a result, the display unit 25 of the terminal 2 displays that the edited moving image has been generated, and the user of the terminal 2 can recognize that the edited moving image has been generated.
- the terminal 2 can download the video data of the edited video generated by the editing server 1.
- the terminal 2 can play back the downloaded edited video.
- the terminal 4 cannot send an instruction to generate a moving image according to the editing file to the editing server 1. Further, the terminal 4 cannot download the moving image data of the edited moving image generated by the editing server 1.
- the edited video generated by the editing server 1 may be streamed and played on the virtual server 3, and the screen information of the streamed edited video may be transmitted to the terminal 4.
- the terminal 4 may edit the edit file generated and edited by the terminal 2 stored in the edit server 1 via the virtual server 3.
- the video editing system has an editing server 1 that edits a video according to an editing file, a terminal 2 that communicates with the editing server 1 and edits an editing file on the editing server 1, and a screen transfer type virtual client.
- the virtual server 3 of the video editing system streams and reproduces the video on the editing server 1 on the virtual client and the communication unit 31 that wirelessly communicates with the terminal 4 at a communication speed lower than the communication speed between the terminal 2 and the editing server 1. It also has a control unit 32 that transmits screen information of the reproduced moving image to the terminal 4 via the communication unit 31.
- the virtual server 3 wirelessly communicates with the terminal 4 at a communication speed lower than the communication speed between the terminal 2 and the editing server 1, so that the video editing work can be increased at low cost.
- the screen transfer type virtual client operates on the virtual server 3 and transmits the screen information of the moving image to the terminal 2, the leakage of the moving image can be suppressed.
- the virtual server 3 streams and reproduces the moving image on the editing server 1 on the virtual client and transmits the screen information of the reproduced moving image to the terminal 4, it is possible to suppress the leakage of the moving image.
- the communication unit 31 receives the operation information related to the video editing operation received by the terminal 4, and the control unit 32 edits the editing file on the editing server 1 according to the operation information.
- the edited file does not remain on the virtual server 3 and the terminal 4, so that the leakage of the moving image and the edited file to the outside can be suppressed.
- control unit 32 provides the terminal 4 with less editing functions than the terminal 2. As a result, the amount of data communication between the virtual server 3 and the terminal 4 can be suppressed, and the virtual server 3 can communicate with a plurality of terminals 4 at low cost.
- the control unit 32 provides the terminal 4 with screen information indicating that the editing file is being edited. It is transmitted to the terminal 4 via the communication unit 31. As a result, it is possible to suppress changes to the edited file that the user does not intend.
- control unit 32 executes the authentication process of the terminal 4 and assigns a virtual client to the terminal 4. As a result, unauthorized access to the editing server 1 of the terminal 4 can be suppressed.
- the virtual server 3 may be rented, for example.
- the rental fee may be determined by, for example, the number of virtual clients running on the virtual server 3.
- control unit 32 of the virtual server 3 may calculate the usage rate of a plurality of virtual clients.
- the control unit 32 of the virtual server 3 may calculate an appropriate number of virtual clients to be operated based on the calculated usage rate.
- the rental source of the virtual server 3 can present the optimum number of virtual clients running on the virtual server 3 to the rental destination (broadcasting station or the like).
- the notation "... part” used for each component is “... circuitry”, “... device”, “... unit”, or “... unit”. It may be replaced with another notation such as "... module”.
- Each functional block used in the description of the above embodiment is partially or wholly realized as an LSI which is an integrated circuit, and each process described in the above embodiment is partially or wholly. It may be controlled by one LSI or a combination of LSIs.
- the LSI may be composed of individual chips, or may be composed of one chip so as to include a part or all of functional blocks.
- the LSI may include data input and output.
- LSIs may be referred to as ICs, system LSIs, super LSIs, and ultra LSIs depending on the degree of integration.
- the method of making an integrated circuit is not limited to LSI, and may be realized by a dedicated circuit, a general-purpose processor, or a dedicated processor. Further, an FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used.
- FPGA Field Programmable Gate Array
- the present disclosure may be realized as digital processing or analog processing.
- This disclosure is a technology that can be used in video editing systems used in broadcasting stations and the like.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
仮想サーバは、第1の端末と通信し、前記第1の端末の操作に基づいて、記憶されている編集ファイルを編集する編集サーバと通信し、第2の端末と通信し、前記第2の端末に対し仮想クライアントを割り当て、前記第2の端末の操作に基づいて前記編集サーバ上の前記編集ファイルを編集し、前記第1の端末と前記編集サーバとの通信速度より低い通信速度において、前記第2の端末と通信する。
Description
本開示は、仮想サーバ、動画編集方法、および動画編集システムに関する。
特許文献1には、ネットワーク上に存在する素材となる動画を、編集者が編集する上で、特別な動画編集ソフトの操作方法を習得することなく、簡単にネットワーク上で動画編集できるコンパクトなシステムが開示されている。特許文献1に開示されているシステムでは、編集の内容は動画編集サーバ(編集を行う場所)に保存される構成になっている。つまり、編集の内容は、編集素材が保存されている場所とは違う場所に保存されるということである。
ところで、テレビ放送局等では、テレビ放送する動画の編集が行われ、編集される動画には、事件や事故等が含まれる場合がある。テレビ放送局等では、そのような動画の漏洩を考慮し、一般的に、編集室に設置されたオンプレミスの編集端末において、動画編集を行うことで、関連するデータを特定のサーバに留めている。
つまり、動画の編集作業数は、編集端末の設置台数によって制限される。より多くの編集作業を行えるよう、編集端末の台数を増やすことが考えられるが、編集端末の費用は、一般的に高コストである。
そこで、例えば、社員等の個人端末から、編集作業を行えるようにすることが考えられる。しかしながら、特許文献1に開示されているシステムでは、編集の内容が、素材が格納されているサーバとは別のサーバに保存されてしまうため、十分なセキュリティを確保することが困難である。よって、個人端末からの動画編集を行うにあたっては、情報漏洩を抑制する対策が重要となる。
本開示の非限定的な実施例は、低コストかつ動画漏洩を抑制し、動画の編集作業数を増加できる仮想サーバ、動画編集方法、および動画編集システムの提供に資する。
本開示の一実施例に係る仮想サーバは、第1の端末と通信し、前記第1の端末の操作に基づいて、記憶されている編集ファイルを編集する編集サーバと通信し、第2の端末と通信し、前記第2の端末に対し仮想クライアントを割り当て、前記第2の端末の操作に基づいて前記編集サーバ上の前記編集ファイルを編集し、前記第1の端末と前記編集サーバとの通信速度より低い通信速度において、前記第2の端末と通信する。
本開示の一実施例に係る動画編集方法は、第1の端末と通信し、前記第1の端末の操作に基づいて、記憶されている編集ファイルを編集する編集サーバと通信し、第2の端末と通信し、前記第2の端末に対し仮想クライアントを割り当て、前記第2の端末の操作に基づいて前記編集サーバ上の前記編集ファイルを編集し、前記第1の端末と前記編集サーバとの通信速度より低い通信速度において、前記第2の端末と通信する。
本開示の一実施例に係る動画編集システムは、編集ファイルが記憶されている編集サーバと、前記編集サーバと通信する仮想サーバと、を有し、前記編集サーバは、第1の端末と通信し、前記第1の端末の操作に基づいて、前記編集ファイルを編集し、前記仮想サーバは、前記編集サーバと通信し、第2の端末と通信し、前記第2の端末に対し仮想クライアントを割り当て、前記第2の端末の操作に基づいて前記編集サーバ上の前記編集ファイルを編集し、前記仮想サーバは、前記第1の端末と前記編集サーバとの通信速度より低い通信速度において、前記第2の端末と通信する。
を有する、
を有する、
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一実施例によれば、低コストかつ動画漏洩を抑制し、動画の編集作業数を増加できる。
本開示の一実施例における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
図1は、実施の形態に係る動画編集システムの構成の一例を示した図である。図1に示すように、動画編集システムは、編集サーバ1と、端末2と、仮想サーバ3と、端末4a~4cと、を有する。
動画編集システムは、例えば、テレビ放送局や映像制作会社等(以下、放送局等と称することがある)に設置される。動画編集システムは、端末2,4a~4cの操作に応じて、テレビ放送される動画を生成(編集)する。なお、動画は、映像または画像と称されてもよい。
編集サーバ1は、オンプレミスのサーバであり、放送局等によって管理および運営される。編集サーバ1には、カメラによって撮影された動画が記憶される。また、編集サーバ1には、編集された動画が記憶される。カメラによって撮影された編集前の動画は、撮り素材と称されてもよい。編集された動画は、OA(OnAir)素材と称されてもよい。OA素材がテレビ放送される。
編集サーバ1には、編集ファイルが記憶される。編集ファイルには、例えば、撮り素材の一部を切り取る情報、撮り素材に挿入する文字情報、および撮り素材に挿入する音声情報など、動画編集に関する情報が含まれる。図1の例では、編集サーバ1には、編集ファイルP1,P2が記憶されている。
編集ファイルは、端末2,4a~4cの操作に基づいて作成される。編集サーバ1は、編集ファイルに従って撮り素材の動画を編集し、テレビ放送されるOA素材を生成する。
端末2は、オンプレミスの端末であり、放送局等によって管理および運営される。端末2は、編集サーバ1に記憶された動画を編集する機能を有する。端末2は、広帯域ネットワークを介して編集サーバ1に接続されている。例えば、有線LAN(Local Area Network)等のネットワークを介して、編集サーバ1と接続される。広帯域ネットワークを介して接続させることで、大容量かつ高速通信を実現している。
端末2は、例えば、放送局等の編集室に設置される。端末2は、端末4a~4cよりスペックが高く、コストが高い。例えば、端末2は、端末4a~4cより動画編集機能が高く(多く)、また、高解像度で通信帯域が広帯域で接続されているため、コストが高い。このため、端末2は、設置台数や編集作業ができる人数等が制限される。
仮想サーバ3は、オンプレミスのサーバであり、放送局等によって管理および運営される。仮想サーバ3は、例えば、有線LAN等の広帯域ネットワークを介して、編集サーバ1と接続される。また、仮想サーバ3は、例えば、無線LAN等の狭帯域ネットワークを介して、端末4a~4cと接続される。例えば、Wi-Fi(登録商標)による接続が考えられる。このような利便性の高いWi-Fi等の狭帯域ネットワークは端末2と編集サーバ1を接続する広帯域ネットワークに比べて小容量かつ低速通信のネットワークである。
仮想サーバ3と端末4a~4cとの間の通信帯域は、編集サーバ1と端末2との間の通信帯域より低い。また、仮想サーバ3と端末4a~4cとの間の通信帯域は、編集サーバ1と仮想サーバ3との間の通信帯域より低い。
仮想サーバ3は、仮想クライアントを稼働し、端末4a~4cと編集サーバ1との間の情報のやり取りを中継する。図1の例では、仮想クライアントC1~C5が稼働している。
仮想サーバ3において稼働する仮想クライアントは、画面転送型の仮想クライアントである。例えば、仮想クライアントは、編集サーバ1に記憶されている撮り素材およびOA素材の動画データをダウンロードせず、ストリーミング再生する。仮想クライアントは、ストリーミング再生した画面情報を、端末4a~4cに送信する。
また、例えば、仮想クライアントは、端末4a~4cから操作情報(入力データ)を受信する。仮想クライアントは、受信した操作情報に応じた情報を編集サーバ1に送信する。画面情報および操作情報の授受は、例えば、RDP(Remote Desktop Protocol)やHTTP(Hypertext Transfer Protocol)等のプロトコルが用いられてもよい。
端末4a~4cは、編集サーバ1に記憶された動画を編集する機能が、仮想サーバ3により提供される。端末4a~4cにおいて実行できる動画編集機能は、端末2より低く(少なく)、簡易的な動画編集を行う。
端末4a~4cは、例えば、放送局等の社員によって使用される。端末4a~4cは、編集室に設置される端末2とは異なり、移動できる。放送局等の社員は、例えば、自分の席や会議室等において、端末4a~4cを用い、簡易的な動画編集ができる。
以下では、端末4a~4cの各々を区別しない場合、単に端末4と記載する。また、以下では、端末2,4の操作者をユーザと呼ぶことがある。端末2は、編集端末、オンプレ端末、またはオンプレPC(Personal Computer)と称されてもよい。端末4は、自席端末、自席PC、または個人端末と称されてもよい。通信帯域は、例えば、通信速度と言い換えられてもよい。
図2は、動画編集システムの概略動作例を説明する図である。図2において、図1と同じ構成要素には同じ符号が付してある。なお、図1の仮想サーバ3は、5つの仮想クライアントC1~C5を稼働したが、図2では、3つの仮想クライアントC1~C3を稼働する。
図2の矢印A1に示すように、端末4は、仮想サーバ3にアクセスする。
仮想サーバ3は、空きの仮想クライアントが無ければ、矢印A2に示すように、端末4にアクセス不可である旨を通知する。
一方、仮想サーバ3は、空きの仮想クライアントがあれば、アクセスしてきた端末4に、空きの仮想クライアントを割り当てる。例えば、仮想サーバ3は、端末4に、仮想クライアントC3を割り当てる。これにより、端末4は、仮想クライアントC3を介し、編集サーバ1に間接的にアクセスできる。
例えば、端末4は、ユーザから、動画の再生操作を受付ける。端末4は、ユーザから受け付けた再生操作の操作情報を、矢印A1,A3に示すように、仮想クライアントC3に送信する。仮想クライアントC3は、再生操作の操作情報に基づいて、矢印A4に示すように、編集サーバ1上の撮り素材およびOA素材の動画データにアクセスする。仮想クライアントC3は、アクセスした編集サーバ1上の撮り素材およびOA素材の動画データをストリーミング再生し、ストリーミング再生した画面情報を、矢印A5に示すように、端末4に送信する。端末4は、仮想サーバ3から送信された画面情報に基づく動画像を表示装置に表示する。
また、例えば、端末4は、ユーザから、編集サーバ1上にある編集ファイルの編集操作を受付ける。端末4は、ユーザから受け付けた編集操作の操作情報を、矢印A1,A3に示すように、仮想クライアントC3に送信する。仮想クライアントC3は、編集操作の操作情報に基づいて、矢印A4に示すように、編集サーバ1上の編集ファイルを編集する。
ユーザは、仮想サーバ3がストリーミング再生する動画の画面情報を端末4の表示装置に表示し、編集サーバ1上の編集ファイルを編集できる。これにより、ユーザは、例えば、テレビ放送に不要な映像個所を切り取ったり、動画像に文字を挿入したりできる。
なお、端末4は、スペックや狭帯域ネットワーク等の理由から編集サーバ1内の編集ファイルに対して一部の編集内容を指示することが困難である。つまり、端末4は、編集できる内容が、端末2でできる内容よりも少ない。
端末2は、矢印A6に示すように、編集サーバ1に直接的にアクセスできる。例えば、端末2は、編集サーバ1上の撮り素材およびOA素材にアクセスし、ダウンロードして再生できる。また、端末2は、編集サーバ1上の編集ファイルにアクセスし、編集ファイルを直接編集できる。また、端末2は、編集ファイルに従った動画を生成するよう、編集サーバ1に指示できる。
ここで、端末2と端末4の設置環境について説明する。図1でも説明したように、端末2は、スペックが高くコストが高い。そのため、端末2の台数を増やすことは、放送局等において負担が大きい。そこで、編集作業において、端末2のような高いスペックを要する作業は限定的であることから、安価な個人の端末4を活用することに着目した。しかしながら、放送局等の編集室外の端末4を活用することは、事件や事故等に関する動画等の機密情報を扱うため、コンプライアンス上、困難である。これらを鑑みて、図1に示した動画編集システムは、仮想サーバ3を活用することにより、低コストで数多くの個人の端末4を導入することができるだけでなく、コンプライアンスを遵守し、個人の端末4から動画の簡易的な編集を可能にした。
例えば、図1の仮想サーバ3は、画面転送型の仮想クライアントを稼働して、編集サーバ1上の動画をストリーミング再生し、再生した動画の画面情報を端末4に送信する。これにより、端末4へのデータ通信量を抑制できる。例えば、端末4の通信帯域は、端末2のように高帯域でなくて済み、コストを抑制できる。端末4は、パーソナルコンピュータ等であってもよい。
また、図1の動画編集システムでは、仮想サーバ3と編集サーバ1との間の通信帯域(1つの通信帯域)を広帯域とし、仮想サーバ3と端末4との間の通信帯域を仮想サーバ3と編集サーバ1との間の通信帯域よりも狭帯域であるWi-Fi等、にすることによって、複数のユーザが端末4を用いて編集作業できる環境を提供する。これにより、図1の動画編集システムは、コストを抑制できる。
また、図1の仮想サーバ3は、編集サーバ1上の動画をストリーミング再生し、再生した動画の画面情報を端末4に送信する。また、仮想サーバ3は、端末4から操作情報を受信し、編集サーバ1上の編集ファイルを編集する。これにより、端末4は、編集サーバ1に直接アクセスしないので(仮想サーバ3を介して間接的にアクセスするので)、動画および編集ファイルの外部への漏洩を抑制できる。また、動画および編集ファイルのデータは、仮想サーバ3および端末4に残らない。これにより、動画および編集ファイルの外部への漏洩を抑制できる。
図3は、編集サーバ1、端末2、仮想サーバ3、および端末4のブロック構成の一例を示した図である。
編集サーバ1は、通信部11と、制御部12と、記憶部13と、を有する。
通信部11は、例えば、有線LAN等の広帯域ネットワークを介して、端末2と通信する。また、通信部11は、例えば、有線LAN等の広帯域ネットワークを介して、仮想サーバ3と通信する。
制御部12は、編集サーバ1全体を制御する。制御部12は、例えば、CPU(Central Processing Unit)等のプロセッサによって構成されてもよい。制御部12は、例えば、記憶部13に記憶されたプログラムを実行し、所定の機能を発揮する。
記憶部13には、制御部12が動作するためのプログラムが記憶される。また、記憶部13には、制御部12が計算処理を行うためのデータ、または、制御部12が各部を制御するためのデータ等が記憶される。記憶部13は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびHDD(Hard Disk Drive)などの記憶装置によって構成されてもよい。
端末2は、通信部21と、制御部22と、記憶部23と、入力部24と、表示部25と、を有する。
通信部21は、例えば、有線LAN等の広帯域ネットワークを介して、編集サーバ1と通信する。
制御部22は、端末2全体を制御する。制御部22は、例えば、CPU等のプロセッサによって構成されてもよい。制御部22は、例えば、記憶部23に記憶されたプログラムを実行し、所定の機能を発揮する。
記憶部23には、制御部22が動作するためのプログラムが記憶される。また、記憶部23には、制御部22が計算処理を行うためのデータ、または、制御部22が各部を制御するためのデータ等が記憶される。記憶部23は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。
入力部24は、例えば、キーボード、マウス、およびタッチパネル等の入力装置である。入力部24は、ユーザの操作を受付け、受け付けた操作に応じた信号を制御部22に出力する。
表示部25は、例えば、LCD(Liquid Crystal Display)および有機EL(Electro Luminescence)等の表示装置である。表示部25は、制御部22から出力される信号に基づいて画像を表示する。
仮想サーバ3は、通信部31と、制御部32と、記憶部33と、を有する。
通信部31は、有線LAN等の広帯域ネットワークを介して、編集サーバ1と通信する。また、通信部31は、無線LAN等の狭帯域ネットワークを介して、端末4と無線通信する。
制御部32は、仮想サーバ3全体を制御する。制御部32は、例えば、CPU等のプロセッサによって構成されてもよい。制御部32は、例えば、記憶部33に記憶されたプログラムを実行し、所定の機能を発揮する。
例えば、制御部32は、仮想クライアントを稼働(仮想クライアントの機能を実現)し、アクセス要求してきた端末4に仮想クライアントを割り当てる。仮想クライアントは、記憶部33に記憶されたOS(Operating System)と、動画を編集するアプリケーションとによって、動画編集機能が実現される。
動画を編集するアプリケーションは、例えば、端末4からの操作情報に基づいて、編集サーバ1上の動画をストリーミング再生する。動画を編集するアプリケーションは、ストリーミング再生した動画の画面情報を端末4に送信する。また、動画を編集するアプリケーションは、例えば、端末4からの操作情報に基づいて、編集サーバ1上に編集ファイルを生成し、また、編集サーバ1上の編集ファイルを編集する。
記憶部33には、制御部32が動作するためのプログラムが記憶される。また、記憶部33には、制御部32が計算処理を行うためのデータ、または、制御部32が各部を制御するためのデータ等が記憶される。記憶部33は、RAM、ROM、フラッシュメモリ、HDD、およびキャッシュメモリなどの記憶装置によって構成されてもよい。
端末4は、通信部41と、制御部42と、入力部43と、表示部44と、を有する。
通信部41は、無線LAN等のネットワークを介して、仮想サーバ3と無線通信する。
制御部42は、端末4全体を制御する。制御部42は、例えば、CPU等のプロセッサによって構成されてもよい。制御部42は、例えば、記憶部(図示せず)に記憶されたプログラムを実行し、所定の機能を発揮する。
入力部43は、例えば、キーボード、マウス、およびタッチパネル等の入力装置である。入力部43は、ユーザの操作を受付け、受け付けた操作に応じた信号を制御部42に出力する。
表示部44は、例えば、LCDおよび有機EL等の表示装置である。表示部44は、制御部42から出力される信号に基づいて画像を表示する。
図4Aおよび図4Bは、動画編集システムの動作例を示したシーケンス図である。端末4の制御部42は、通信部41を介して、仮想サーバ3に対し、認証依頼の情報を送信する(S1)。
仮想サーバ3の制御部32は、S1にて送信された認証依頼の情報に基づいて、端末4の認証処理を実行する。仮想サーバ3の制御部32は、認証処理の認証結果の情報を、端末4に送信する(S2)。なお、仮想サーバ3内の仮想クライアントに空きがない場合は、図2の矢印A2で説明したように、端末4にアクセス不可である旨を通知する。
以下では、端末4の認証は、正当であるとする。仮想サーバ3の制御部32は、端末4に対し、仮想クライアントC1を割り当てたとする。
なお、仮想クライアントC1が割り当てられると、端末4の表示部44には、動画を編集するための動画編集画面が表示される。すなわち、仮想クライアントC1は、動画編集画面の画面情報を端末4に送信する。端末4のユーザは、表示部44の動画編集画面上に表示された操作ボタン等を操作して、例えば、編集素材(編集する動画)を選択する。
端末4の制御部42は、入力部43から、編集素材選択操作の信号を受信する。端末4の制御部42は、入力部43からの信号に応じた編集素材選択操作の情報を、通信部41を介し、仮想サーバ3に送信する(S3)。
仮想サーバ3の制御部32(仮想クライアントC1)は、S3にて送信された編集素材選択操作の情報に基づいて、編集素材情報要求の情報を、通信部31を介し、編集サーバ1に送信する(S4)。
編集サーバ1の制御部12は、S4にて送信された編集素材情報要求の情報に基づいて、編集素材情報を、通信部11を介し、仮想サーバ3に送信する(S5)。編集素材情報は、編集サーバ1の記憶部13に記憶されている撮り素材やOA素材にアクセスするための情報であり、例えば、URL(Uniform Resource Locator)であってもよい。
仮想サーバ3の仮想クライアントC1は、S5にて送信された編集素材情報を受信すると、対象素材要求の情報を、通信部31を介し、編集サーバ1に送信する(S6)。対象素材要求の情報は、S5にて編集サーバ1から送信された編集素材情報(例えば、URL)である。すなわち、仮想サーバ3の仮想クライアントC1は、URL等のアドレス情報に基づいて、編集サーバ1の記憶部13に記憶されている撮り素材やOA素材の動画にアクセスし、リードする。
編集サーバ1の制御部12は、S6にて送信された対象素材要求の情報に基づいて、動画のバッファデータ(素材バッファデータ)を、通信部11を介し、仮想サーバ3に送信する(S7)。素材バッファデータは、ストリーミングデータまたはキャッシュデータと称されてもよい。
仮想サーバ3の仮想クライアントC1は、S7にて送信された素材バッファデータを、記憶部33(例えば、キャッシュメモリ)に記憶する。仮想サーバ3の仮想クライアントC1は、キャッシュメモリに記憶した素材バッファデータを再生し、再生した素材バッファデータの動画の画面情報を、通信部31を介し、端末4に送信する(S8)。これにより、端末4の表示部44には、編集素材(編集する動画)が表示される。
端末4の入力部43は、ユーザから、動画の簡易編集操作を受付け、受け付けた簡易編集操作に応じた信号を制御部42に出力する。簡易編集操作の一例として、少ない数の編集素材を扱う編集や映像の色合い調整等があり、端末2に比べて編集できる内容が少ない。端末4の制御部42は、入力部43からの信号に応じた簡易編集操作の情報を、通信部41を介し、仮想サーバ3に送信する(S9)。
仮想サーバ3の仮想クライアントC1は、S9にて送信された簡易編集操作の情報に基づいて、簡易編集指示の情報を、通信部31を介し、編集サーバ1に送信する(S10)。
編集サーバ1の制御部12は、S10にて送信された簡易編集指示の情報に基づいて、編集ファイルを作成する。また、作成した編集ファイルの編集も可能である(S11)。編集ファイルは、編集サーバ1の記憶部13に記憶される。
端末2の入力部24は、ユーザから、編集ファイルの編集要求の操作を受付け、受け付けた編集要求の操作に応じた信号を制御部22に出力する。端末2の制御部22は、入力部24からの信号に応じた編集ファイル要求の情報を、通信部21を介し、編集サーバ1に送信する(S12)。
ここで、端末2のユーザが編集要求した編集ファイルは、端末4のユーザによって編集中であるとする。編集サーバ1の制御部12は、通信部11を介し、編集中通知の情報を端末2に送信する(S13)。端末2の表示部25は、例えば、編集要求した編集ファイルは編集中であることを示す情報を表示する。
編集サーバ1の制御部12は、編集ファイルを編集すると、編集結果の情報を、通信部11を介し、仮想サーバ3に送信する(S14)。
仮想サーバ3の仮想クライアントC1は、S14にて送信された編集結果の情報に基づく画面情報(編集結果を示す画面の画面情報)を、通信部31を介し、端末4に送信する(S15)。これにより、端末4の表示部44には、動画の編集結果が表示される。
端末4の入力部43は、ユーザから、編集保存の操作を受付け、受け付けた編集保存の操作に応じた信号を制御部42に出力する。端末4の制御部42は、入力部43からの信号に応じた編集保存操作の情報を、通信部41を介し、仮想サーバ3に送信する(S16)。
仮想サーバ3の仮想クライアントC1は、S16にて送信された編集保存操作の情報に基づいて、編集保存指示の情報を、通信部31を介し、編集サーバ1に送信する(S17)。
編集サーバ1の制御部12は、S17にて送信された編集保存指示の情報に基づいて、編集中の編集ファイルを保存する。編集サーバ1の制御部12は、編集ファイルの保存結果の情報を、通信部11を介し、仮想サーバ3に送信する(S18)。
仮想サーバ3の仮想クライアントC1は、S18にて送信された保存結果の情報に基づく画面情報(保存結果を示す画面の画面情報)を、通信部31を介し、端末4に送信する(S19)。これにより、端末4の表示部44には、編集ファイルが編集サーバ1に保存されたことが表示され、端末4のユーザは、編集ファイルが編集サーバ1に保存されたことを認識できる。
端末2の入力部24は、ユーザから、編集ファイルの編集要求の操作を受付け、受け付けた編集要求の操作に応じた信号を制御部22に出力する。端末2の制御部22は、入力部24からの信号に応じた編集ファイル要求の情報を、通信部21を介し、編集サーバ1に送信する(S20)。
なお、端末2が編集要求した編集ファイルは、端末2が以前に生成および編集した編集ファイルであってもよい。また、端末2が編集要求した編集ファイルは、S11にて生成および編集された編集ファイルであってもよい。すなわち、端末2は、端末4によって生成および編集された編集ファイルを編集してもよい。
編集サーバ1の制御部12は、S20にて送信された編集ファイル要求の情報に基づいて、編集ファイル表示の情報(編集ファイルの内容を示す情報)の画面情報を、端末2に送信する(S21)。
端末2の入力部24は、ユーザから、詳細編集操作を受付け、受け付けた詳細編集操作に応じた信号を制御部22に出力する。詳細編集操作の一例として、大量の編集素材を扱う編集や特殊な映像演出等があり、簡易編集操作よりも編集できる内容が多い。端末2の制御部22は、入力部24からの信号に応じた詳細編集指示の情報を、通信部21を介し、編集サーバ1に送信する(S22)。
編集サーバ1の制御部12は、S22にて送信された詳細編集指示の情報に基づいて、編集ファイルを編集する(S23)。
端末4の入力部43は、ユーザから、編集ファイルの編集要求の操作を受付け、受け付けた編集要求の操作に応じた信号を制御部42に出力する。端末4の制御部42は、入力部43からの信号に応じた簡易編集操作の情報を、通信部41を介し、仮想サーバ3に送信する。なお、簡易編集操作の一例として、既存の編集ファイルを呼び出す操作を行っている(S24)。
仮想サーバ3の仮想クライアントC1は、S24にて送信された簡易編集操作の情報に基づいて、編集ファイル要求の情報を、通信部31を介し、編集サーバ1に送信する(S25)。
ここで、端末4のユーザが編集要求した編集ファイルは、端末2のユーザによって編集中であるとする。編集サーバ1の制御部12は、通信部11を介し、編集中通知の情報を仮想サーバ3に送信する(S26)。
仮想サーバ3の仮想クライアントC1は、S26にて送信された編集中通知の情報に基づく画面情報(編集要求した編集ファイルは編集中であることを示す画面の画面情報)を、通信部31を介し、端末4に送信する(S27)。
編集サーバ1の制御部12は、S23にて編集ファイルを編集すると、編集結果の情報を、通信部11を介し、端末2に送信する(S28)。これにより、端末2の表示部25には、動画の編集結果が表示される。
端末2の入力部24は、ユーザから、編集保存の操作を受付け、受け付けた編集保存の操作に応じた信号を制御部22に出力する。端末2の制御部22は、入力部24からの信号に応じた編集保存指示の情報を、通信部21を介し、編集サーバ1に送信する(S29)。
編集サーバ1の制御部12は、S29にて送信された編集保存指示の情報に基づいて、編集中の編集ファイルを保存する。編集サーバ1の制御部12は、編集ファイルの保存結果の情報を、通信部11を介し、端末2に送信する(S30)。これにより、端末2の表示部25には、編集ファイルが編集サーバ1に保存されたことが表示され、端末2のユーザは、編集ファイルが編集サーバ1に保存されたことを認識できる。
端末2の入力部24は、ユーザから、動画生成指示の操作を受付け、受け付けた動画生成指示の操作に応じた信号を制御部22に出力する。端末2の制御部22は、入力部24からの信号に応じた動画生成指示の情報を、通信部21を介し、編集サーバ1に送信する(S31)。
編集サーバ1の制御部12は、S31にて送信された編集生成指示の情報に基づいて、動画を生成する(S32)。例えば、編集サーバ1の制御部12は、記憶部13に記憶されている編集ファイルに従って、編集動画(OA素材)を生成する。なお、編集動画とは、元の動画データ(撮り素材)や編集ファイルがなくても、動画として視聴できる動画ファイルであって、オンエアされる最終的な動画である。編集サーバ1の制御部12は、生成した編集動画を記憶部13に記憶する。なお、動画を生成するための編集ファイルは、動画生成指示の操作の際に指定される。
編集サーバ1の制御部12は、編集ファイルに従って動画を生成すると、生成結果の情報を、通信部11を介し、端末2に送信する(S33)。これにより、端末2の表示部25には、編集動画が生成されたことが表示され、端末2のユーザは、編集動画が生成されたことを認識できる。
なお、端末2は、編集サーバ1が生成した編集動画の動画データをダウンロードできる。また、端末2は、ダウンロードした編集動画を再生できる。一方、端末4は、編集サーバ1に対し、編集ファイルに従った動画の生成指示を送信できない。また、端末4は、編集サーバ1が生成した編集動画の動画データをダウンロードできない。編集サーバ1が生成した編集動画は、仮想サーバ3においてストリーミング再生され、ストリーミング再生された編集動画の画面情報が、端末4に送信されてもよい。
また、端末4は、仮想サーバ3を介し、編集サーバ1に記憶されている、端末2によって生成および編集された編集ファイルを編集してもよい。
以上説明したように、動画編集システムは、編集ファイルに従い動画を編集する編集サーバ1と、編集サーバ1と通信し、編集サーバ1上の編集ファイルを編集する端末2と、画面転送型の仮想クライアントが稼働し、編集サーバ1と通信する仮想サーバ3と、仮想クライアントが割り当てられ、編集サーバ1上の編集ファイルを編集する端末4と、を有する。動画編集システムの仮想サーバ3は、端末2と編集サーバ1との通信速度より低い通信速度において、端末4と無線通信する通信部31と、仮想クライアント上において、編集サーバ1上の動画をストリーミング再生し、再生した動画の画面情報を、通信部31を介して端末4に送信する制御部32と、を有する。
これにより、仮想サーバ3は、端末2と編集サーバ1との通信速度より低い通信速度において、端末4と無線通信するので、低コストで動画編集作業を増加できる。また、仮想サーバ3は、画面転送型の仮想クライアントが稼働し、動画の画面情報を端末2に送信するので、動画漏洩を抑制できる。また、仮想サーバ3は、仮想クライアント上において、編集サーバ1上の動画をストリーミング再生し、再生した動画の画面情報を端末4に送信するので、動画漏洩を抑制できる。
また、通信部31は、端末4が受け付けた動画の編集操作に関する操作情報を受信し、制御部32は、操作情報に応じて、編集サーバ1上の編集ファイルを編集する。これにより、編集ファイルは、仮想サーバ3および端末4に残らないので、動画および編集ファイルの外部への漏洩を抑制できる。
また、制御部32は、端末2より少ない編集機能を端末4に提供する。これにより、仮想サーバ3と端末4との間のデータ通信量を抑制でき、仮想サーバ3は、複数の端末4と低コストで通信できる。
また、制御部32は、端末4が編集しようとしている編集サーバ1上の編集ファイルが、端末2によって編集中である場合、端末4に、編集ファイルが編集中であることを示す画面情報を、通信部31を介して端末4に送信する。これにより、ユーザが意図しない編集ファイルの変更を抑制できる。
また、制御部32は、端末4の認証処理を実行し、端末4に仮想クライアントを割り当てる。これにより、端末4の編集サーバ1への不正アクセスを抑制できる。
なお、仮想サーバ3は、例えば、レンタルされてもよい。レンタル料は、例えば、仮想サーバ3において稼働する仮想クライアントの数によって決定されてもよい。
この場合、仮想サーバ3の制御部32は、複数の仮想クライアントの使用率を算出してもよい。仮想サーバ3の制御部32は、算出した使用率に基づいて、稼働すべき適切な仮想クライアント数を算出してもよい。これにより、例えば、仮想サーバ3のレンタル元は、レンタル先(放送局等)に対し、仮想サーバ3で稼働する、最適な仮想クライアント数を提示できる。
上述の実施の形態においては、各構成要素に用いる「・・・部」という表記は、「・・・回路(circuitry)」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。
以上、図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかである。そのような変更例または修正例についても、本開示の技術的範囲に属するものと了解される。また、本開示の趣旨を逸脱しない範囲において、実施の形態における各構成要素は任意に組み合わされてよい。
本開示はソフトウェア、ハードウェア、又は、ハードウェアと連携したソフトウェアで実現することが可能である。上記実施の形態の説明に用いた各機能ブロックは、部分的に又は全体的に、集積回路であるLSIとして実現され、上記実施の形態で説明した各プロセスは、部分的に又は全体的に、一つのLSI又はLSIの組み合わせによって制御されてもよい。LSIは個々のチップから構成されてもよいし、機能ブロックの一部または全てを含むように一つのチップから構成されてもよい。LSIはデータの入力と出力を備えてもよい。LSIは、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
集積回路化の手法はLSIに限るものではなく、専用回路、汎用プロセッサ又は専用プロセッサで実現してもよい。また、LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。本開示は、デジタル処理又はアナログ処理として実現されてもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
2019年11月12日出願の特願2019-204590の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本開示は、放送局等で用いられる動画編集システムに利用可能な技術である。
1 編集サーバ
2,4a~4c 端末
3 仮想サーバ
2,4a~4c 端末
3 仮想サーバ
Claims (7)
- 第1の端末と通信し、前記第1の端末の操作に基づいて、記憶されている編集ファイルを編集する編集サーバと通信し、
第2の端末と通信し、前記第2の端末に対し仮想クライアントを割り当て、前記第2の端末の操作に基づいて前記編集サーバ上の前記編集ファイルを編集し、
前記第1の端末と前記編集サーバとの通信速度より低い通信速度において、前記第2の端末と通信する、
仮想サーバ。 - 前記仮想クライアントは、前記編集サーバに記憶されている動画をダウンロードせず、ストリーミング再生し、ストリーミング再生した画面情報を前記第2の端末に送信する、
請求項1に記載の仮想サーバ。 - 前記第1の端末より少ない動画編集機能を前記第2の端末に提供する、
請求項1または2に記載の仮想サーバ。 - 前記第2の端末が編集要求した前記編集サーバ上の前記編集ファイルが、前記第1の端末によって編集中である場合、前記第2の端末に、前記編集ファイルが編集中であることを示す画面情報を前記第2の端末に送信する、
請求項1から3のいずれか一項に記載の仮想サーバ。 - 前記第2の端末の認証処理を実行した後に、前記第2の端末に前記仮想クライアントを割り当てる、
請求項1から4のいずれか一項に記載の仮想サーバ。 - 第1の端末と通信し、前記第1の端末の操作に基づいて、記憶されている編集ファイルを編集する編集サーバと通信し、
第2の端末と通信し、前記第2の端末に対し仮想クライアントを割り当て、前記第2の端末の操作に基づいて前記編集サーバ上の前記編集ファイルを編集し、前記第1の端末と前記編集サーバとの通信速度より低い通信速度において、前記第2の端末と通信する、
動画編集方法。 - 編集ファイルが記憶されている編集サーバと、
前記編集サーバと通信する仮想サーバと、
を有し、
前記編集サーバは、第1の端末と通信し、前記第1の端末の操作に基づいて、前記編集ファイルを編集し、
前記仮想サーバは、前記編集サーバと通信し、第2の端末と通信し、前記第2の端末に対し仮想クライアントを割り当て、前記第2の端末の操作に基づいて前記編集サーバ上の前記編集ファイルを編集し、
前記仮想サーバは、前記第1の端末と前記編集サーバとの通信速度より低い通信速度において、前記第2の端末と通信する、
動画編集システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-204590 | 2019-11-12 | ||
JP2019204590A JP2021078040A (ja) | 2019-11-12 | 2019-11-12 | 仮想サーバ、動画編集方法、および動画編集システム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021095687A1 true WO2021095687A1 (ja) | 2021-05-20 |
Family
ID=75898546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/041729 WO2021095687A1 (ja) | 2019-11-12 | 2020-11-09 | 仮想サーバ、動画編集方法、および動画編集システム |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP2021078040A (ja) |
WO (1) | WO2021095687A1 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000306364A (ja) * | 1999-04-16 | 2000-11-02 | Sony Corp | 編集システム支援システム及び編集支援システムの制御装置 |
JP2001256210A (ja) * | 2000-03-13 | 2001-09-21 | Data Pop Co Ltd | 同時編集システム |
JP2006033507A (ja) * | 2004-07-16 | 2006-02-02 | Sony Corp | 遠隔編集システム、主編集装置、遠隔編集装置、編集方法、編集プログラム、及び記憶媒体 |
JP2006166289A (ja) * | 2004-12-10 | 2006-06-22 | Tdk Corp | コンテンツ編集システム、編集サーバ装置、コンテンツ編集方法及びプログラム |
JP2006302052A (ja) * | 2005-04-22 | 2006-11-02 | Hitachi Ltd | ストレージシステムおよびデジタル放送システム |
JP2007150994A (ja) * | 2005-11-30 | 2007-06-14 | Hitachi Ltd | 映像編集システム及び映像編集装置 |
JP2010252327A (ja) * | 2009-04-14 | 2010-11-04 | Maxt Systems Inc | マルチ・ユーザ遠隔ビデオ編集 |
JP2012165313A (ja) * | 2011-02-09 | 2012-08-30 | Sony Corp | 編集装置及び方法、並びにプログラム |
US20160092420A1 (en) * | 2014-09-25 | 2016-03-31 | Osix Corporation | Computer-Implemented Methods, Computer Readable Media, And Systems For Co-Editing Content |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009164870A (ja) * | 2008-01-07 | 2009-07-23 | Nec Access Technica Ltd | コンテンツ管理方法および装置 |
US8527646B2 (en) * | 2009-04-14 | 2013-09-03 | Avid Technology Canada Corp. | Rendering in a multi-user video editing system |
-
2019
- 2019-11-12 JP JP2019204590A patent/JP2021078040A/ja active Pending
-
2020
- 2020-11-09 WO PCT/JP2020/041729 patent/WO2021095687A1/ja active Application Filing
-
2021
- 2021-09-15 JP JP2021150305A patent/JP7486091B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000306364A (ja) * | 1999-04-16 | 2000-11-02 | Sony Corp | 編集システム支援システム及び編集支援システムの制御装置 |
JP2001256210A (ja) * | 2000-03-13 | 2001-09-21 | Data Pop Co Ltd | 同時編集システム |
JP2006033507A (ja) * | 2004-07-16 | 2006-02-02 | Sony Corp | 遠隔編集システム、主編集装置、遠隔編集装置、編集方法、編集プログラム、及び記憶媒体 |
JP2006166289A (ja) * | 2004-12-10 | 2006-06-22 | Tdk Corp | コンテンツ編集システム、編集サーバ装置、コンテンツ編集方法及びプログラム |
JP2006302052A (ja) * | 2005-04-22 | 2006-11-02 | Hitachi Ltd | ストレージシステムおよびデジタル放送システム |
JP2007150994A (ja) * | 2005-11-30 | 2007-06-14 | Hitachi Ltd | 映像編集システム及び映像編集装置 |
JP2010252327A (ja) * | 2009-04-14 | 2010-11-04 | Maxt Systems Inc | マルチ・ユーザ遠隔ビデオ編集 |
JP2012165313A (ja) * | 2011-02-09 | 2012-08-30 | Sony Corp | 編集装置及び方法、並びにプログラム |
US20160092420A1 (en) * | 2014-09-25 | 2016-03-31 | Osix Corporation | Computer-Implemented Methods, Computer Readable Media, And Systems For Co-Editing Content |
Also Published As
Publication number | Publication date |
---|---|
JP7486091B2 (ja) | 2024-05-17 |
JP2021078040A (ja) | 2021-05-20 |
JP2021193825A (ja) | 2021-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111386708B (zh) | 用于广播直播媒体流的系统和方法 | |
US20240283834A1 (en) | Systems and methods for multi-device media broadcasting or recording with low-latency active control | |
US7890985B2 (en) | Server-side media stream manipulation for emulation of media playback functions | |
US7844661B2 (en) | Composition of local media playback with remotely generated user interface | |
US8134605B2 (en) | Apparatus for transmitting an HTML file with a captured or stored image to an electronic device over a network | |
CN111316652A (zh) | 使用对齐编码内容片段的个性化内容流 | |
JP2006526215A (ja) | ストリーミング基盤のコンテンツ分散形ネットワークシステムとファイル分割、併合及び再生方法 | |
KR20170109036A (ko) | 멀티미디어 파일 라이브 방송 방법, 시스템 및 서버 | |
US20160249108A1 (en) | Method and apparatus for providing a customized viewing experience | |
JP6280215B2 (ja) | ビデオ会議端末、セカンダリストリームデータアクセス方法およびコンピュータ記憶媒体 | |
Shimizu et al. | International real-time streaming of 4K digital cinema | |
JP2007173987A (ja) | マルチメディアデータ送受信システム、及び装置、又はプログラム | |
US20080243692A1 (en) | Content ingest, maintenance, and delivery | |
JP2002118831A (ja) | マルチメディア視聴方法および装置 | |
WO2021095687A1 (ja) | 仮想サーバ、動画編集方法、および動画編集システム | |
US20170230718A1 (en) | Virtual high definition video player | |
KR20140117889A (ko) | 클라이언트 장치, 서버 장치, 멀티미디어 리디렉션 시스템 및 그 방법 | |
US11778011B2 (en) | Live streaming architecture with server-side stream mixing | |
JP2011223363A (ja) | コンテンツ出力装置、コンテンツ出力システム、コンテンツ出力方法、プログラムおよび記録媒体 | |
Ening et al. | Editing in the Cloud | |
JP2004023706A (ja) | 多地点会議システム | |
JP6035299B2 (ja) | 動画視聴端末装置 | |
CN116266085A (zh) | 协作交互的窗口显示方法、装置、电子设备和存储介质 | |
JP3900383B2 (ja) | 映像信号処理装置及び映像信号処理方法 | |
TWI496010B (zh) | 透過網路處理檔案或資料的方法與系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20886896 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20886896 Country of ref document: EP Kind code of ref document: A1 |