JPWO2020095728A1 - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JPWO2020095728A1 JPWO2020095728A1 JP2020555963A JP2020555963A JPWO2020095728A1 JP WO2020095728 A1 JPWO2020095728 A1 JP WO2020095728A1 JP 2020555963 A JP2020555963 A JP 2020555963A JP 2020555963 A JP2020555963 A JP 2020555963A JP WO2020095728 A1 JPWO2020095728 A1 JP WO2020095728A1
- Authority
- JP
- Japan
- Prior art keywords
- data
- information processing
- unit
- processing device
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1827—Network arrangements for conference optimisation or adaptation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/24—Traffic characterised by specific attributes, e.g. priority or QoS
- H04L47/2425—Traffic characterised by specific attributes, e.g. priority or QoS for supporting services specification, e.g. SLA
- H04L47/2433—Allocation of priorities to traffic types
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/70—Media network packetisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】ユーザに与える遅延感を減少させることができる情報処理装置及び情報処理方法を提供する。
【解決手段】情報処理装置は、取得部と、エンコード部と、コンテキスト認識部と、優先データ抽出部と、通信部と、を具備する。取得部は、送信地点に関するデータを取得する。エンコード部は、送信地点に関するデータをエンコードする。コンテキスト認識部は、送信地点に関するデータを用いて認識した送信地点の状況に基づいて、送信地点に関するデータから、優先的に送信するデータを設定する。優先データ抽出部は、コンテキスト認識部での設定に基づいて、優先的に送信するデータを優先データとして抽出する。通信部は、エンコード部によりエンコードされたデータと、エンコードされていない優先データを、受信地点にある情報処理装置へ送信する。
【選択図】図1PROBLEM TO BE SOLVED: To provide an information processing device and an information processing method capable of reducing a feeling of delay given to a user.
An information processing device includes an acquisition unit, an encoding unit, a context recognition unit, a priority data extraction unit, and a communication unit. The acquisition unit acquires data related to the transmission point. The encoding unit encodes the data related to the transmission point. The context recognition unit sets the data to be preferentially transmitted from the data related to the transmission point based on the situation of the transmission point recognized by using the data related to the transmission point. The priority data extraction unit extracts the data to be preferentially transmitted as the priority data based on the setting in the context recognition unit. The communication unit transmits the data encoded by the encoding unit and the unencoded priority data to the information processing device at the receiving point.
[Selection diagram] Fig. 1
Description
本技術は、情報処理装置及び情報処理方法に関する。 The present technology relates to an information processing device and an information processing method.
テレビ会議等、通信網を利用して異なる地点間で映像音声データを双方向に伝送し、リアルタイムで情報交換することが可能となってきている(例えば特許文献1参照)。 It has become possible to bidirectionally transmit video and audio data between different points using a communication network such as a video conference and exchange information in real time (see, for example, Patent Document 1).
特許文献1には、テレビ会議の会話量や会話の盛り上がり度に基づき映像音声データの低遅延優先度を決定している。 In Patent Document 1, the low delay priority of the video / audio data is determined based on the conversation volume of the video conference and the degree of excitement of the conversation.
特許文献1に記載される技術では、例えばユーザ間の会話が無く、異なる地点にいる二者間の映像同期が求められるような場面において、映像音声データの遅延により適切な映像をユーザに提供することが難しい。 In the technique described in Patent Document 1, for example, in a situation where there is no conversation between users and video synchronization between two parties at different points is required, an appropriate video is provided to the user by delaying the video / audio data. It's difficult.
以上のような事情に鑑み、本技術の目的は、ユーザに与える遅延感を減少させることができる情報処理装置及び情報処理方法を提供することにある。 In view of the above circumstances, an object of the present technology is to provide an information processing device and an information processing method capable of reducing a feeling of delay given to a user.
上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、エンコード部と、コンテキスト認識部と、優先データ抽出部と、通信部と、を具備する。
上記取得部は、送信地点に関するデータを取得する。
上記エンコード部は、上記送信地点に関するデータをエンコードする。
上記コンテキスト認識部は、上記送信地点に関するデータを用いて認識した上記送信地点の状況に基づいて、上記送信地点に関するデータから、優先的に送信するデータを設定する。
上記優先データ抽出部は、上記コンテキスト認識部での設定に基づいて、上記優先的に送信するデータを優先データとして抽出する。
上記通信部は、上記エンコード部によりエンコードされたデータと、エンコードされていない上記優先データを、受信地点にある情報処理装置へ送信する。In order to achieve the above object, the information processing apparatus according to one form of the present technology includes an acquisition unit, an encoding unit, a context recognition unit, a priority data extraction unit, and a communication unit.
The acquisition unit acquires data related to the transmission point.
The encoding unit encodes data related to the transmission point.
The context recognition unit sets data to be preferentially transmitted from the data related to the transmission point based on the situation of the transmission point recognized by using the data related to the transmission point.
The priority data extraction unit extracts the data to be preferentially transmitted as priority data based on the settings in the context recognition unit.
The communication unit transmits the data encoded by the encoding unit and the unencoded priority data to the information processing device at the receiving point.
このような構成によれば、送信地点の状況に基づいて、受信地点にある情報処理装置へ優先して送信されるデータが抽出され、そのデータはエンコードされずに受信地点にある情報処理装置に送信される。これにより、優先的に送信されるデータはエンコード処理に要する時間が不要のため、エンコード処理されるデータよりも早く受信地点にある情報処理装置に送信することができる。 According to such a configuration, data to be preferentially transmitted to the information processing device at the receiving point is extracted based on the situation at the transmitting point, and the data is not encoded and is sent to the information processing device at the receiving point. Will be sent. As a result, the data to be preferentially transmitted does not require the time required for the encoding process, so that the data can be transmitted to the information processing device at the receiving point earlier than the data to be encoded.
上記優先データ抽出部は、上記優先データとして、上記優先的に送信するデータと、上記送信地点の状況と、上記優先的に送信するデータの再生時刻と、を抽出してもよい。 The priority data extraction unit may extract the data to be preferentially transmitted, the status of the transmission point, and the reproduction time of the data to be preferentially transmitted as the priority data.
上記優先データを保存する保存部と、上記保存部に保存された優先データを基に、優先的に送信するデータを予測する優先データ予測部とを更に具備してもよい。 A storage unit for storing the priority data and a priority data prediction unit for predicting data to be preferentially transmitted based on the priority data stored in the storage unit may be further provided.
上記送信地点に関するデータは、映像データを含んでもよい。
上記送信地点に関するデータは、音データとデプスデータの少なくとも一方を更に含んでもよい。The data regarding the transmission point may include video data.
The data regarding the transmission point may further include at least one of sound data and depth data.
上記目的を達成するため、本技術の一形態に係る情報処理装置は、通信部と、デコード部と、決定部と、再生データ生成部と、出力部と、を具備する。
上記通信部は、送信地点の情報処理装置から、上記送信地点に関するデータがエンコードされたデータと、上記送信地点に関するデータから抽出されエンコードされていない優先データを受信する。
上記デコード部は、上記エンコードされたデータをデコードする。
上記決定部は、上記エンコードされていない優先データの再生時刻及び再生方法を決定する。
上記再生データ生成部は、上記決定部での決定に基づいて、上記優先データの再生データを生成する。
上記出力部は、上記デコード部でデコードされたデータと上記優先データの再生データを出力する。In order to achieve the above object, the information processing device according to one embodiment of the present technology includes a communication unit, a decoding unit, a determination unit, a reproduction data generation unit, and an output unit.
The communication unit receives from the information processing device at the transmission point the data in which the data relating to the transmission point is encoded and the priority data extracted from the data relating to the transmission point and not encoded.
The decoding unit decodes the encoded data.
The determination unit determines the reproduction time and reproduction method of the unencoded priority data.
The reproduction data generation unit generates the reproduction data of the priority data based on the determination in the determination unit.
The output unit outputs the data decoded by the decoding unit and the reproduction data of the priority data.
このような構成によれば、エンコードされていない優先データはデコード処理が不要なため、エンコードされたデータよりも、早く再生することができる。 According to such a configuration, the unencoded priority data does not need to be decoded, so that it can be reproduced faster than the encoded data.
上記決定部での決定の内容を保存する保存部と、上記保存部に保存された決定内容を参照して、上記デコードされたデータのうち、上記優先データの再生データによって既に再生されているデータがあるか否かを確認する再生済み確認部と、上記再生済み確認部により上記優先データの再生データが既に再生されている場合に、上記優先データの再生データと上記デコードされたデータを繋ぎ合わせるための補間データを生成する補間データ生成部とを更に具備してもよい。 Of the decoded data, the data that has already been reproduced by the reproduction data of the priority data by referring to the storage unit that stores the content of the decision in the determination unit and the determination content stored in the storage unit. When the reproduced data of the priority data has already been reproduced by the reproduced confirmation unit for confirming whether or not there is, the reproduced data of the priority data and the decoded data are connected. It may further include an interpolation data generation unit that generates interpolation data for the purpose.
上記目的を達成するため、本技術の一形態に係る情報処理方法は、
送信地点にある情報処理装置が、
送信地点に関するデータを取得し、
上記送信地点に関するデータをエンコードし、
上記送信地点に関するデータを用いて認識した上記送信地点の状況に基づいて、上記送信地点に関するデータから、優先的に送信するデータを優先データとして抽出し、
上記エンコードしたデータと、エンコードしていない上記優先データを、受信地点にある情報処理装置に送信し、
上記受信地点にある情報処理装置が、
上記エンコードしたデータと、エンコードしていない上記優先データを受信し、
上記エンコードしたデータをデコードし、
エンコードしていない上記優先データの再生時刻及び再生方法を決定し、
上記決定に基づいて上記優先データの再生データを生成し、
上記デコードしたデータと上記優先データの再生データを出力する。In order to achieve the above object, the information processing method according to one form of the present technology is
The information processing device at the transmission point
Get data about the transmission point,
Encode the data related to the above transmission point and
Based on the situation of the transmission point recognized by using the data related to the transmission point, the data to be preferentially transmitted is extracted as the priority data from the data related to the transmission point.
The encoded data and the unencoded priority data are transmitted to the information processing device at the receiving point.
The information processing device at the above reception point
Receive the above encoded data and the above unencoded priority data,
Decode the above encoded data and
Determine the playback time and playback method of the above priority data that has not been encoded.
Based on the above determination, the reproduction data of the above priority data is generated, and the reproduction data is generated.
The decoded data and the reproduced data of the priority data are output.
本開示の一実施形態に係る情報処理装置及びこれを用いた情報処理システムについて説明する。情報処理システムは、互いに異なる地点に設置される2つの情報処理装置間での映像データ及び音声データを双方向に伝送する通信システムに係る。 An information processing device according to an embodiment of the present disclosure and an information processing system using the same will be described. The information processing system relates to a communication system that bidirectionally transmits video data and audio data between two information processing devices installed at different points.
本実施形態の情報処理システムでは、地点で情報処理装置によって取得される地点の情報に関する映像データや音データといったセンシングデータを用いて、情報処理装置が設置される地点の状況(以下、シーンと称する場合がある。)が認識される。 In the information processing system of the present embodiment, the situation of the point where the information processing device is installed (hereinafter referred to as a scene) using sensing data such as video data and sound data related to the information of the point acquired by the information processing device at the point. In some cases.) Is recognized.
送信地点の情報処理装置で取得されたセンシングデータはAVコーデックを通しエンコードされて、受信地点の情報処理装置に送信される。
また、送信地点の情報処理装置では、シーンに応じて、センシングデータから、受信地点の情報処理装置に優先的に送るデータ(以下、優先データと称する場合がある。)が抽出される。抽出された優先データは、AVコーデックを通さずに、エンコードされるデータとは別送で受信地点にある情報処理装置に送信される。The sensing data acquired by the information processing device at the transmission point is encoded through the AV codec and transmitted to the information processing device at the reception point.
Further, in the information processing device at the transmission point, data to be preferentially sent to the information processing device at the reception point (hereinafter, may be referred to as priority data) is extracted from the sensing data according to the scene. The extracted priority data is transmitted to the information processing device at the receiving point separately from the encoded data without passing through the AV codec.
受信地点にある情報処理装置では、エンコードされたデータと、エンコードされていない優先データが再生される。 The information processing device at the receiving point reproduces the encoded data and the unencoded priority data.
このように、本実施形態の情報処理システムでは、AVコーデックを通さずに優先データが別送され再生されることにより、AVコーデック分の遅延がなくなり、優先データが速やかに再生される。これにより、受信地点の情報処理装置では、状況に応じた、遅延が減少された映像データや音声データが受信されることになり、ユーザに与える遅延感を減少させることができる。
以下、詳細に説明する。As described above, in the information processing system of the present embodiment, the priority data is separately transmitted and reproduced without passing through the AV codec, so that the delay for the AV codec is eliminated and the priority data is reproduced promptly. As a result, the information processing device at the receiving point receives video data and audio data with reduced delay depending on the situation, and can reduce the feeling of delay given to the user.
Hereinafter, a detailed description will be given.
(情報処理システムの構成)
図1は、本実施形態に係る情報処理システム50の構成を示す。
図1に示すように、情報処理システム50は、第1の情報処理システム20Aと、第2の情報処理システム20Bと、を有する。これら2つの情報処理システム20A及び20Bは、ネットワーク30を介して双方向に通信可能となっている。(Configuration of information processing system)
FIG. 1 shows the configuration of the
As shown in FIG. 1, the
本実施形態では、第1の情報処理システム20Aを用いるユーザをAさんとし、第2の情報処理システム20Bを用いるユーザをBさんとする。第1の情報処理システム20Aは、AさんのいるA地点に設置される。第2の情報処理システム20Bは、BさんのいるB地点に設置される。A地点とB地点とは異なる場所にある。A地点が送信地点のとき、B地点は受信地点となり、B地点が送信地点のとき、A地点は受信地点となる。
In the present embodiment, the user who uses the first
ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP−VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでも良い。 The network 30 may include a public line network such as the Internet, a telephone line network, a satellite communication network, various LANs (Local Area Network) including Ethernet (registered trademark), and a WAN (Wide Area Network). Further, the network 30 may include a dedicated line network such as IP-VPN (Internet Protocol-Virtual Private Network). Further, the network 30 may include a wireless communication network such as Wi-Fi (registered trademark) and Bluetooth (registered trademark).
第1の情報処理システム20Aと第2の情報処理システム20Bとは同じ構成を有する。ここでは、第1の情報処理システム20Aを構成する各構成に付与する符号の語尾にAをつけ、第2の情報処理システム20Bを構成する各構成に不要する符号の語尾にBをつけ、両者を区別する。
以下の説明で、第1の情報処理システム20Aと第2の情報処理システム20Bとを特に分ける必要がない場合には、A、Bの記載を省略する。The first
In the following description, if it is not necessary to particularly separate the first
情報処理システム20は、情報処理装置21と、センサ群22と、再生部23と、を有する。情報処理装置21の構成については後述する。 The information processing system 20 includes an information processing device 21, a sensor group 22, and a reproduction unit 23. The configuration of the information processing device 21 will be described later.
センサ群22は、映像用カメラ221と、集音部としてのマイク222と、デプスセンサ223と、赤外線カメラ224等の各種センサを有する。各種センサで取得されるセンシングデータには、地点に関する情報(データ)が含まれる。地点に関するデータとは、具体的には、地点にいる人やその人の周囲の映像データ、音データ、デプスデータ等である。 The sensor group 22 includes a video camera 221, a microphone 222 as a sound collecting unit, a depth sensor 223, and various sensors such as an infrared camera 224. Sensing data acquired by various sensors includes information (data) about points. Specifically, the data related to the point is video data, sound data, depth data, etc. of the person at the point and the surroundings of the person.
本実施形態では、センシングデータを用いて、地点の状況(シーン)が認識される。シーンの認識は、互いに通信する複数の地点のうち、少なくともいずれか1つの地点に関するセンシングデータを用いて認識される。 In the present embodiment, the situation (scene) of the point is recognized by using the sensing data. Scene recognition is recognized using sensing data for at least one of a plurality of points communicating with each other.
シーンの認識は、複数の地点それぞれで得られるセンシングデータを用いて行われてもよい、通信相手の情報処理装置で得られるセンシングデータと、自身(情報処理装置)が取得したセンシングデータに基づいて、二者間で行われているシーンが認識されてもよい。 Scene recognition may be performed using sensing data obtained at each of a plurality of points, based on the sensing data obtained by the information processing device of the communication partner and the sensing data acquired by itself (information processing device). , The scene being performed between the two parties may be recognized.
映像用カメラ221は、地点の映像データを取得する。
マイク222は、地点での音、例えば人の声や環境音を集音し、音データを取得する。
デプスセンサ223は、例えば、赤外光を用いて、地点にいる人や物体のデプスセンサからの距離を示すデプスデータを取得する。デプスセンサの方式にはTOF(Time of Flight)方式、パターン照射方式、ステレオカメラ方式等の任意の方式を採用することが可能である。
赤外線カメラ224は、人や物体等の赤外線画像データを取得する。赤外線画像データにより人の骨格推定等を行うことができる。The video camera 221 acquires video data at a point.
The microphone 222 collects sound at a point, for example, a human voice or an environmental sound, and acquires sound data.
The depth sensor 223 uses, for example, infrared light to acquire depth data indicating the distance of a person or an object at a point from the depth sensor. Any method such as a TOF (Time of Flight) method, a pattern irradiation method, and a stereo camera method can be adopted as the depth sensor method.
The infrared camera 224 acquires infrared image data of a person, an object, or the like. Human skeleton can be estimated from infrared image data.
再生部23は、映像再生機231と、音声再生機232と、表示部233と、音声出力部であるスピーカ234を有する。 The playback unit 23 includes a video player 231 and an audio player 232, a display unit 233, and a speaker 234 which is an audio output unit.
映像再生機231は、後述する情報処理装置21の再生データ出力部15から出力され、入力された優先データ、予測優先データ、非優先データに基づく再生データについて、D/A変換及び増幅などの再生処理を行い、表示部233に映像を表示させる。 The video player 231 reproduces the reproduction data such as D / A conversion and amplification with respect to the reproduction data output from the reproduction data output unit 15 of the information processing apparatus 21 described later and based on the input priority data, prediction priority data, and non-priority data. The processing is performed, and the image is displayed on the display unit 233.
音声再生機232は、後述する情報処理装置21の再生データ出力部15から出力され、入力された優先データ、予測優先データ、非優先データに基づく再生データについて、D/A変換及び増幅などの再生処理を行い、スピーカ234から音声を出力させる。
優先データ、予測優先データ、非優先データについては後述する。The voice player 232 reproduces the reproduced data such as D / A conversion and amplification with respect to the reproduced data output from the reproduction data output unit 15 of the information processing apparatus 21 described later and based on the input priority data, prediction priority data, and non-priority data. The processing is performed, and the sound is output from the speaker 234.
Priority data, prediction priority data, and non-priority data will be described later.
データの再生処理を、映像再生機231で行うか、又は、音声再生機232で行うかは、後述する情報処理装置21の再生時刻/再生方法決定部9で決定される。 Whether the data reproduction process is performed by the video player 231 or the audio player 232 is determined by the playback time / playback method determination unit 9 of the information processing device 21 described later.
表示部233は、映像再生機231で再生処理された映像を表示する。
表示部233は、液晶ディスプレイ、プラズマディスプレイ又はOELD(Organic Electro Luminescence Display)等の表示デバイスにより構成される。表示部233には、通信する相手地点の映像、自身の地点の映像、又は、通信相手地点の映像及び自身の地点の映像の両方が表示可能に構成される。The display unit 233 displays the video reproduced by the video player 231.
The display unit 233 is composed of a display device such as a liquid crystal display, a plasma display, or an OELD (Organic Electro Luminescence Display). The display unit 233 is configured to be capable of displaying both the image of the communication partner point, the image of its own point, or the image of the communication partner point and the image of its own point.
例えば、第1の情報処理システム20Aの表示部233Aには、第2の情報処理システム20Bにより取得される映像が表示され、第2の情報処理システム20Bの表示部233Bには、第1の情報処理システム20Aにより取得される映像が表示される。
For example, the image acquired by the second
スピーカ234は、音声再生機232で再生処理された音声を出力する。 The speaker 234 outputs the sound reproduced and processed by the sound player 232.
第1の情報処理システム20Aのスピーカ234Aには、第2の情報処理システム20Bにより取得される音声が出力され、第2の情報処理システム20Bのスピーカ234Bには、第1の情報処理システム20Aにより取得される音声が出力される。
The sound acquired by the second
(情報処理装置の構成)
情報処理装置21は、センシングデータ取得部1と、データエンコード部2と、コンテキスト認識部3と、優先データ抽出部4と、短期優先データ保存部5と、優先データ予測部6と、通信部7と、優先データ分別部8と、再生時刻/再生方法決定部9と、データデコード部10と、優先データ再生保存部11と、再生データ生成部12と、優先データ再生済み確認部13と、補間データ生成部14と、再生データ出力部15と、を有する。(Configuration of information processing device)
The information processing device 21 includes a sensing data acquisition unit 1, a data encoding unit 2, a context recognition unit 3, a priority data extraction unit 4, a short-term priority data storage unit 5, a priority data prediction unit 6, and a communication unit 7. , Priority
取得部としてのセンシングデータ取得部1は、センサ群22を構成する各種センサで取得されたセンシングデータを取得する。センシングデータには、映像データ、音データ、デプスデータ、赤外線画像データが含まれる。センシングデータは、当該センシングデータを取得した地点に関するデータである。ここでは、センシングデータとして、映像データ、音データ、デプスデータを用いる場合について説明する。 The sensing data acquisition unit 1 as an acquisition unit acquires the sensing data acquired by various sensors constituting the sensor group 22. Sensing data includes video data, sound data, depth data, and infrared image data. The sensing data is data related to the point where the sensing data is acquired. Here, a case where video data, sound data, and depth data are used as sensing data will be described.
センシングデータ取得部1で取得されたセンシングデータは、データエンコード部2、コンテキスト認識部3に出力される。
また、取得されたセンシングデータは、時系列に図示しないセンシングデータ保存部に保存される。The sensing data acquired by the sensing data acquisition unit 1 is output to the data encoding unit 2 and the context recognition unit 3.
Further, the acquired sensing data is stored in a sensing data storage unit (not shown in time series).
エンコード部としてのデータエンコード部2は、センシングデータ取得部1で取得されたセンシングデータをエンコードする。センシングデータ取得部1で取得された全てのデータ(ここでは、映像データ、音データ、デプスデータ)をエンコードする。エンコードされたデータは、通信部7に出力される。エンコードされたデータは非優先データである。 The data encoding unit 2 as the encoding unit encodes the sensing data acquired by the sensing data acquisition unit 1. All the data (here, video data, sound data, depth data) acquired by the sensing data acquisition unit 1 are encoded. The encoded data is output to the communication unit 7. The encoded data is non-preferred data.
データエンコード部2及び後述するデータデコード部10は、図示しないAVコーデックに備えられている。 The data encoding unit 2 and the data decoding unit 10 described later are provided in an AV codec (not shown).
コンテキスト認識部3は、センシングデータ取得部1で取得されたセンシングデータを基に、地点の状況(シーン)を認識する。 The context recognition unit 3 recognizes the situation (scene) of the point based on the sensing data acquired by the sensing data acquisition unit 1.
例えば、コンテキスト認識部3は、地点に、人が複数いるのか、人による会話が行われているのか、人は何をしているのか、地点にある物体が何であるか、物体は動いているのか静止しているのか、物体が動いている場合は何をしているのか、等を認識する。 For example, in the context recognition unit 3, there are a plurality of people at a point, a conversation is being held by a person, what the person is doing, what the object at the point is, and the object is moving. Recognize whether the object is stationary, what it is doing if the object is moving, and so on.
この認識は、センシングデータがそれに対応した分析器に入力され分析されることにより行われる。 This recognition is performed by inputting the sensing data into the corresponding analyzer and analyzing it.
各種センシングデータのうち音データは、分析器によって、音声認識により人の声と環境音とに判別される。これにより、人の声の音データを抽出することができる。 Of the various sensing data, sound data is discriminated into human voice and environmental sound by voice recognition by an analyzer. Thereby, the sound data of the human voice can be extracted.
また、音声認識では、音データに基づいて言語認識を行い、音データに含まれる言葉を単語単位で認識してキーワードが抽出される。抽出されるキーワードとしては、物体の名称等を表す名詞、「ストップ」、「行け」等の指示語、「嬉しい」、「楽しい」等の感情を表す語等がある。このように抽出されたキーワードを用いて地点の状況(シーン)を認識することができる。 Further, in voice recognition, language recognition is performed based on sound data, words included in sound data are recognized word by word, and keywords are extracted. The extracted keywords include nouns representing the names of objects, demonstrative words such as "stop" and "go", and words expressing emotions such as "happy" and "fun". The situation (scene) of the point can be recognized by using the keywords extracted in this way.
音声認識の手法としては、例えば、学習用データから音声の特徴を蓄積し、その特徴と供給された音声とを比較してキーワードを抽出する手法等があり、既知の手法を用いることができる。 As a voice recognition method, for example, there is a method of accumulating voice features from learning data, comparing the features with the supplied voice, and extracting keywords, and a known method can be used.
各種センシングデータのうち映像データは、分析器によって、画素毎に、前に取得されたフレーム画像との画素値の差分が取られる。
各種センシングデータのうちデプスデータは、分析器によって、前に取得されたデプスデータとの差分が取られ、これを基に奥行き方向、縦方向の物体の移動量が求められる。
前に取得されたフレーム画像及びデプスデータには、センシングデータ保存部に保存されたデータを用いる。
これら画素値の差分、物体の移動量から、人物、物体の移動情報を取得することができる。Of the various sensing data, the video data is obtained by the analyzer for each pixel as the difference in pixel value from the previously acquired frame image.
Of the various sensing data, the depth data is different from the previously acquired depth data by the analyzer, and the amount of movement of the object in the depth direction and the vertical direction is obtained based on this difference.
For the previously acquired frame image and depth data, the data stored in the sensing data storage unit is used.
The movement information of a person or an object can be obtained from the difference between these pixel values and the amount of movement of the object.
このような各センシングデータの分析結果を基に、シーンが推定、認識される。 The scene is estimated and recognized based on the analysis result of each of the sensing data.
シーンの例としては、複数の異なる場所にそれぞれ設置された情報処理システム(本実施形態における第1の情報処理システム20Aと第2の情報処理システム20B)間の通信を用いて、2つの異なる場所それぞれにいる二者間(本実施形態におけるAさんとBさんの二者間)で行われる、じゃんけんをしているシーン、テレビ会議をしているシーン、遠隔操作をしているシーン、遠隔指さしをしているシーン等がある。尚、これらのシーンに限定されない。
As an example of the scene, two different places are used by using communication between information processing systems (first
更に、コンテキスト認識部3は、認識したシーンに基づいて、二地点間、二者間で同期すべきデータの識別フラグを設定する。二地点間、二者間で同期すべきデータとは、優先的に相手の情報処理装置(送信地点の情報処理装置)に送るべきデータであり、シーンにおいて二者間の円滑なコミュニケーションに重要な情報となるものである。この優先的に送るべきデータかどうかが識別できるように識別フラグが設定される。
優先的に通信相手の情報処理装置に送るべきデータが何であるかはシーンに応じて設定される。具体例については後述する。Further, the context recognition unit 3 sets an identification flag of data to be synchronized between two points and between two parties based on the recognized scene. Data that should be synchronized between two points and between two parties is data that should be sent preferentially to the other party's information processing device (information processing device at the transmission point), which is important for smooth communication between the two parties in the scene. It is informational. An identification flag is set so that it can be identified whether or not the data should be sent with priority.
What data should be preferentially sent to the information processing device of the communication partner is set according to the scene. Specific examples will be described later.
同期すべきデータ(優先的に送るデータ)としては、音データの分析により判別された人の声等の音データ、映像データの分析により求められた画素値、デプスデータの分析により求められた物体の移動量等がある。
具体例については後述する。The data to be synchronized (data to be sent preferentially) include sound data such as human voice determined by analysis of sound data, pixel values obtained by analysis of video data, and objects obtained by analysis of depth data. There is the amount of movement of.
Specific examples will be described later.
コンテキスト認識部3で認識されたシーン名、当該シーン名に対して設定された識別フラグの情報、優先的に送るべきデータの再生時刻は、優先データ抽出部4に出力される。 The scene name recognized by the context recognition unit 3, the information of the identification flag set for the scene name, and the reproduction time of the data to be sent preferentially are output to the priority data extraction unit 4.
優先データ抽出部4は、設定された識別フラグに基づいて、二地点間、二者間で同期すべき情報、すなわち優先的に送信するデータを抽出する。優先データ抽出部4は、優先的に送信するデータ、シーン名、識別フラグ情報及び再生時刻を併せ、互いに紐づけして、優先データとして、短期優先データ保存部5及び通信部7に出力する。 The priority data extraction unit 4 extracts information to be synchronized between two points and two parties, that is, data to be preferentially transmitted, based on the set identification flag. The priority data extraction unit 4 combines the data to be preferentially transmitted, the scene name, the identification flag information, and the reproduction time, associates them with each other, and outputs the priority data to the short-term priority data storage unit 5 and the communication unit 7.
短期優先データ保存部5は、優先データ抽出部4で抽出された優先データを時系列順に短期的に保存する。 The short-term priority data storage unit 5 stores the priority data extracted by the priority data extraction unit 4 in chronological order in a short period of time.
優先データ予測部6は、短期優先データ保存部5で保存された優先データを基に、将来の優先データを予測し、予測優先データを生成する。予測優先データは通信部7に出力される。 The priority data prediction unit 6 predicts future priority data based on the priority data stored in the short-term priority data storage unit 5, and generates prediction priority data. The prediction priority data is output to the communication unit 7.
より具体的には、優先データ予測部6は、短期優先データ保存部5により保存された時系列の優先データを基に、認識されたシーン名で、映像にある人物や物体が連続的な動作をしているかを判定する。
更に、優先データ予測部6は、人物や物体が連続的な動作をしていると判定した場合、短期優先データ保存部5により保存された時系列の優先データから、人物や物体の動作を予測することが可能なフェーズか否かを判定する。
そして、予測することが可能なフェーズであると判定した場合、短期優先データ保存部5に保存された情報を基に、将来の優先データである予測優先データを予測し、生成する。More specifically, the priority data prediction unit 6 continuously operates a person or an object in the video with a recognized scene name based on the time-series priority data saved by the short-term priority data storage unit 5. To determine if you are doing.
Further, when the priority data prediction unit 6 determines that the person or object is continuously moving, the priority data prediction unit 6 predicts the movement of the person or object from the time-series priority data saved by the short-term priority data storage unit 5. Determine if it is a possible phase.
Then, when it is determined that the phase can be predicted, the prediction priority data, which is the future priority data, is predicted and generated based on the information stored in the short-term priority data storage unit 5.
このように優先データ予測部を設けることにより、シーンに応じた重要なデータを優先的に通信相手に提示することが可能となり、二者間でのコミュニケーションをより円滑なものとすることができる。 By providing the priority data prediction unit in this way, it is possible to preferentially present important data according to the scene to the communication partner, and it is possible to facilitate communication between the two parties.
一例として、じゃんけんのシーンでは、出し手の情報が重要となり、出し手の部分の映像データの画素値が優先データとなる。
じゃんけんにおいて、出し手が、「グー」、「チョキ」、「パー」のいずれかの形態を完全にとって出される前の手の形態変化から、出し手がどの形態をとるか、予測がつく。したがって、出し手が完全にだされる前に、短期優先データ保存部5により保存された時系列の優先データを基に、将来の優先データである予測優先データを予測し、生成することが可能となる。As an example, in the rock-paper-scissors scene, the information of the sender is important, and the pixel value of the video data of the sender is the priority data.
In rock-paper-scissors, it is possible to predict which form the issuer will take from the change in the form of the hand before the issuer completely takes one of the forms of "goo", "choki", and "par". Therefore, it is possible to predict and generate predictive priority data, which is future priority data, based on the time-series priority data saved by the short-term priority data storage unit 5 before the issuer is completely released. Become.
予測優先データには、音データ、画素値、物体の移動量等の予測される優先的に送信するデータと、シーン名と、識別フラグと、再生時刻が含まれる。予測優先データはエンコードされずに通信相手の情報処理装置に送信される。 The prediction priority data includes predicted priority transmission data such as sound data, pixel values, and movement amount of an object, a scene name, an identification flag, and a playback time. The prediction priority data is transmitted to the information processing device of the communication partner without being encoded.
通信部7は、通信相手の情報処理装置とデータの送受信を行う。本実施形態では、第1の情報処理装置20A(第2の情報処理装置20B)における通信相手の情報処理装置は第2の情報処理装置20B(第1の情報処理装置20A)である。
The communication unit 7 transmits / receives data to / from the information processing device of the communication partner. In the present embodiment, the information processing device of the communication partner in the first
通信部7は、自身の情報処理装置で取得したセンシングデータに基づいて得た優先データ及び非優先データを、通信相手の情報処理装置に送信する。更に、通信部7は、通信相手の情報処理装置で取得されたセンシングデータに基づいて得られた優先データ及び非優先データを、受信する。 The communication unit 7 transmits the priority data and the non-priority data obtained based on the sensing data acquired by its own information processing device to the information processing device of the communication partner. Further, the communication unit 7 receives the priority data and the non-priority data obtained based on the sensing data acquired by the information processing device of the communication partner.
このように、優先データは、AVコーデックを通さずにエンコードされずに通信相手の情報処理装置に送信される。これにより、AVコーデックを通してエンコードされて通信相手の情報処理装置に送信される非優先データと比べて、優先コードは、エンコードに要する時間が不要なため、AVコーデックによるエンコード分の遅延がなく、通信相手の情報処理装置に早く送信することが可能となる。
これにより、受信地点の情報処理装置に対して、遅延が減少された映像データや音声データを送信することができ、二者間の円滑なコミュニケーションが可能となる。In this way, the priority data is transmitted to the information processing device of the communication partner without being encoded without passing through the AV codec. As a result, compared to non-priority data encoded through the AV codec and transmitted to the information processing device of the communication partner, the priority code does not require time for encoding, so there is no delay for encoding by the AV codec, and communication is performed. It becomes possible to quickly transmit to the information processing device of the other party.
As a result, video data and audio data with reduced delay can be transmitted to the information processing device at the receiving point, and smooth communication between the two parties becomes possible.
優先データ分別部8は、通信部7で受信した通信相手の情報処理装置からのデータを、優先データ又は予測優先データと、非優先データとに分別する。優先データ及び予測優先データは、エンコードされていないデータである。非優先データはエンコードされているデータである。
The priority
優先データ分別部8は、非優先データをデータデコード部10に出力する。
優先データ分別部8は、優先データ及び予測優先データを再生時刻/再生方法決定部9に出力する。The priority
The priority
決定部としての再生時刻/再生方法決定部9は、優先データ分別部8にて分別された優先データ(予測優先データ)の再生時刻と、どの再生機で優先データ(予測優先データ)である映像データ(予測映像データ)や音データ(予測音データ)を再生するかを決定する。決定内容は、優先データ再生保存部11に保存される。また、決定内容は、再生データ生成部12に出力される。
Playback time / playback method as a determination unit The determination unit 9 determines the reproduction time of the priority data (prediction priority data) sorted by the priority
デコード部としてのデータデコード部10は、優先データ分別部8にて分別された非優先データをデコードする。デコードされた非優先データは優先データ再生済み確認部13に出力される。
The data decoding unit 10 as the decoding unit decodes the non-priority data sorted by the priority
保存部としての優先データ再生保存部11は、再生時刻/再生方法決定部9による決定内容として、優先データの内容と、優先データを用いた再生を行う再生時刻と、再生に用いる再生機の情報を保存する。 Priority data reproduction as a storage unit The storage unit 11 determines the content of the priority data, the reproduction time of performing the reproduction using the priority data, and the information of the reproduction machine used for the reproduction as the determination contents by the reproduction time / reproduction method determination unit 9. To save.
再生データ生成部12は、再生時刻/再生方法決定部9での決定内容に基づいて、優先データ、予測優先データの再生データを生成する。生成された再生データは再生データ出力部15に出力される。 The reproduction data generation unit 12 generates reproduction data of priority data and prediction priority data based on the determination contents in the reproduction time / reproduction method determination unit 9. The generated reproduction data is output to the reproduction data output unit 15.
再生済み確認部としての優先データ再生済み確認部13は、データデコード部10でデコードされたデータを再生する前に、優先データ再生保存部11に保存された決定内容を参照して、通信相手の情報処理装置から受信した非優先データをデコードしたデータのうち、優先データを用いた再生で既に再生済みされたものがあるかを確認する。 Priority data as reproduced confirmation unit The reproduced confirmation unit 13 refers to the decision content saved in the priority data reproduction storage unit 11 before reproducing the data decoded by the data decoding unit 10, and the communication partner. Among the decoded data of the non-priority data received from the information processing device, it is confirmed whether or not there is already reproduced by the reproduction using the priority data.
優先データ再生済み確認部13は、まだ再生されていないデコードされた非優先データを再生データ出力部15に出力する。また、優先データ再生済み確認部13は、確認結果を補間データ生成部14に出力する。 The priority data reproduction completed confirmation unit 13 outputs the decoded non-priority data that has not yet been reproduced to the reproduction data output unit 15. Further, the priority data reproduction completed confirmation unit 13 outputs the confirmation result to the interpolation data generation unit 14.
補間データ生成部14は、優先データを用いて既に再生されたと確認された優先データとデコードされた非優先データとの間を補間して繋ぎ合わせるための補間データを生成する。生成された補間データは、再生データ出力部15に出力される。 The interpolation data generation unit 14 generates interpolation data for interpolating and joining the priority data confirmed to have already been reproduced using the priority data and the decoded non-priority data. The generated interpolated data is output to the reproduction data output unit 15.
このように補間データ生成部14が設けられることにより、映像に写し出される人等の動きの流れに違和感が少ない映像を表示させることができ、また出力される人の声の流れに違和感が少ない音声を出力させることができる。 By providing the interpolation data generation unit 14 in this way, it is possible to display an image with less discomfort in the flow of movement of a person or the like projected on the image, and a voice with less discomfort in the flow of voice of the output person. Can be output.
出力部としての再生データ出力部15は、再生データ生成部12からの再生データの入力、優先データ再生済み確認部13からのデコードされたデータの入力、補間データ生成部14からの補間データの入力をうけて、再生データを再生部23に出力する。 The reproduction data output unit 15 as an output unit inputs the reproduction data from the reproduction data generation unit 12, inputs the decoded data from the priority data reproduction completion confirmation unit 13, and inputs the interpolation data from the interpolation data generation unit 14. Is received, and the reproduced data is output to the reproduction unit 23.
受信地点にある情報処理装置21においては、優先データはエンコードされていないためAVコーデックを通してデコードする必要がないため、AVコーデックによるデコード分の遅延がなく、非優先データよりも早く再生することができる。
これにより、送信地点にある情報処理装置21から送信されたデータの再生が、遅延が減少されて行なわれ得るので、二者間のより円滑なコミュニケーションが可能となる。In the information processing device 21 at the receiving point, since the priority data is not encoded, it is not necessary to decode it through the AV codec, so that there is no delay for decoding by the AV codec and the data can be reproduced faster than the non-priority data. ..
As a result, the data transmitted from the information processing device 21 at the transmission point can be reproduced with a reduced delay, so that smoother communication between the two parties becomes possible.
(情報処理方法)
次に、上述の情報処理システム50が実行する情報処理方法について、送信側と受信側に分け、図2、図3を用いて説明する。
尚、ここでは、便宜的に、地点Aを送信地点とし、地点Bを受信地点として説明するが、当然のことながら、地点Aが受信地点、地点Bが送信地点であってもよく、このような場合においても同様の処理が行われる。以下、必要に応じ、図1に図示される構成を用いて説明する。(Information processing method)
Next, the information processing method executed by the above-mentioned
Here, for convenience, the point A will be the transmission point and the point B will be the reception point. However, as a matter of course, the point A may be the reception point and the point B may be the transmission point. In such a case, the same processing is performed. Hereinafter, the configuration shown in FIG. 1 will be described as necessary.
[送信地点にある情報処理システムでの動作フロー]
図2は、送信側の情報処理システム(ここでは、第1の情報処理システム20A)での遅延制御に係る情報処理方法のフロー図である。以下、図2に従って、送信側の情報処理システムにおける情報処理方法について説明する。[Operation flow in the information processing system at the transmission point]
FIG. 2 is a flow chart of an information processing method related to delay control in the information processing system on the transmitting side (here, the first
図2に示すように、第1の情報処理装置21Aのセンシングデータ取得部1Aにより、地点Aに関するデータとして、センサ群22Aの各種センサで取得されたセンシングデータが取得される(S1)。本実施形態では、センシングデータには、音データ、映像データ、デプスデータが含まれる。
As shown in FIG. 2, the sensing
データエンコード部2Aにより、センシングデータ取得部1Aで取得されたセンシングデータ(音データ、映像データ、デプスデータ)は、センシングデータ取得時刻の同期をとったうえで、汎用コーデック処理されエンコードされる(S2)。
The sensing data (sound data, video data, depth data) acquired by the sensing
コーデック処理では、音データ、映像データ、デプスデータに対して、処理時間の短いコーデック処理を施す。例えば、音データ及び映像データに対して、リアルタイム通信向けで処理時間の短いVP9によるエンコードを施す。 In the codec processing, the sound data, the video data, and the depth data are subjected to the codec processing having a short processing time. For example, sound data and video data are encoded by VP9, which is for real-time communication and has a short processing time.
エンコードデータ、すなわち非優先データは、通信部7Aを介して、第2の情報処理装置21Bに送信される(S12)。 The encoded data, that is, the non-priority data is transmitted to the second information processing device 21B via the communication unit 7A (S12).
コンテキスト認識部3Aにより、取得された音データの音声認識が行われる(S3)。音声認識では、人の音声と環境音とが判別される。 The context recognition unit 3A performs voice recognition of the acquired sound data (S3). In voice recognition, human voice and environmental sound are discriminated.
コンテキスト認識部3Aにより、取得された映像データを用いて、画素値が求められ、更に、画素毎に前フレームとの画素値の差分が計算される(S4)。 The context recognition unit 3A obtains a pixel value using the acquired video data, and further calculates the difference in pixel value from the previous frame for each pixel (S4).
コンテキスト認識部3Aにより、取得されたデプスデータを用いて、前フレームのデプス情報との差分が取られ、奥行き方向、縦方向の物体の移動量が求められる(S5)。
これら画素値の差分結果、物体の移動量から、人物や物体の動き情報を取得することができる。Using the acquired depth data, the context recognition unit 3A takes a difference from the depth information of the previous frame, and obtains the amount of movement of the object in the depth direction and the vertical direction (S5).
It is possible to acquire motion information of a person or an object from the difference result of these pixel values and the amount of movement of the object.
コンテキスト認識部3Aにより、音声認識結果、画素値の差分結果、物体の移動量結果に基づいて、シーンが認識される(S6)。
次に、コンテキスト認識部3Aにより、認識されたシーンに基づき、優先的に送信されるデータが識別可能にデータに対して識別フラグが設定される(S7)。The context recognition unit 3A recognizes the scene based on the voice recognition result, the pixel value difference result, and the movement amount result of the object (S6).
Next, the context recognition unit 3A sets an identification flag for the data so that the data to be preferentially transmitted can be identified based on the recognized scene (S7).
次に、優先データ抽出部4Aにより、設定された識別フラグに基づいて、音データ、画素値、物体の移動量等から、優先的に第2の情報処理装置21Bに送信されるデータが抽出される。抽出されたデータは、シーン名、識別フラグ情報、再生時刻と併せて優先データとして抽出される(S8)。
Next, the priority
次に、抽出された優先データは、短期優先データ保存部5Aに書き込まれ保存される(S9)。
Next, the extracted priority data is written and stored in the short-term priority
次に、優先データ予測部6により、短期優先データ保存部5により保存された時系列の優先データを基に、認識されたシーン名で、人物や物体が連続的な動作をしていて、かつ、短期優先データ保存部5により保存された時系列の優先データから、人物や物体の動作を予測することが可能なフェーズであるかが判定される(S10)。 Next, a person or an object is continuously moving with a recognized scene name based on the time-series priority data saved by the priority data prediction unit 6 and the short-term priority data storage unit 5. From the time-series priority data saved by the short-term priority data storage unit 5, it is determined whether or not the phase is such that the movement of a person or an object can be predicted (S10).
S10でNoと判定されるとS12に進む。優先データは、通信部7Aを介して、第2の情報処理装置21Bに送信される(S12)。 If No is determined in S10, the process proceeds to S12. The priority data is transmitted to the second information processing device 21B via the communication unit 7A (S12).
S10で、人物や物体が連続的な動作をしていて、かつ、人物や物体の動作を予測することが可能なフェーズであると判定されると(Yes)、S11に進む。 If it is determined in S10 that the person or object is continuously moving and the phase is such that the movement of the person or object can be predicted (Yes), the process proceeds to S11.
S11では、短期優先データ保存部5に保存された情報を基に予測優先データが生成される。生成された予測優先データと、優先データは、通信部7Aを介して、第2の情報処理装置21Bに送信される(S12)。 In S11, the prediction priority data is generated based on the information stored in the short-term priority data storage unit 5. The generated prediction priority data and the priority data are transmitted to the second information processing device 21B via the communication unit 7A (S12).
[受信地点にある情報処理システムでの動作フロー]
図3は、受信側の情報処理システム(ここでは、第2の情報処理システム20B)での遅延制御に係る情報処理方法のフロー図である。以下、図3に従って、受信側の情報処理システムにおける情報処理方法について説明する。[Operation flow in the information processing system at the receiving point]
FIG. 3 is a flow chart of an information processing method related to delay control in the information processing system on the receiving side (here, the second
図3に示すように、第2の情報処理装置21Bの通信部7Bにより、ネットワーク30を介して、第1の情報処理装置21Aから優先データ、非優先データ、予測優先データが受信される(S31)。
As shown in FIG. 3, the
次に、優先データ分別部8Bにより、受信したデータが、優先データ又は予測優先データであるか否かが判定される(S32)。
S32で、優先データ又は予測優先データでない、すなわち、非優先データであると判定されると(No)、S33に進む。
S32で、優先データ又は予測優先データであると判定されると(Yes)、S38に進む。Next, the priority
If it is determined in S32 that the data is not priority data or prediction priority data, that is, it is non-priority data (No), the process proceeds to S33.
If it is determined in S32 that the data is priority data or prediction priority data (Yes), the process proceeds to S38.
S38では、再生時刻/再生方法決定部9により、再生する優先データ又は予測優先データの再生時刻及び再生方法が決定される。再生方法とは、どの再生機を用いて再生するかを示す。 In S38, the reproduction time / reproduction method determination unit 9 determines the reproduction time and the reproduction method of the priority data to be reproduced or the predicted priority data. The reproduction method indicates which reproduction machine is used for reproduction.
再生時刻及び再生方法は、優先データ再生保存部11Bに保存され、優先データ又は予測優先データの再生情報が保存される(S39)。
The reproduction time and the reproduction method are stored in the priority data
次に、再生データ生成部12Bにより、決定された再生方法に従って、優先データ又は予測優先データを用いて再生データが生成される(S40)。生成された再生データは再生データ出力部15Bに出力され、S36へ進む。
Next, the reproduction
S33では、データデコード部10Bにより、エンコードされたデータである非優先データがデコードされる。
In S33, the
次に、優先データ再生済み確認部13Bにより、優先データ再生保存部11Bに保存されたデータが参照され、再生時刻がキーとされて、デコードされたデータに含まれる内容が、優先データを用いた再生で既に再生されているかが確認される(S34)。
Next, the priority data reproduction
S34で再生されていないと確認されると(No)、デコードされたデータは、再生データ出力部15Bに出力され、S36へ進む。
If it is confirmed that the data has not been reproduced in S34 (No), the decoded data is output to the reproduction
S34で再生されていると確認されると(Yes)、補間データ生成部14Bにより、先行して行われる優先データによる再生とデコードされたデータによる再生が旨くつながるように補間データが生成される(S35)。生成された補間データは、再生データ出力部15Bに出力され、S36へ進む。
When it is confirmed that the data is being reproduced in S34 (Yes), the interpolation data generation unit 14B generates the interpolation data so that the reproduction by the priority data performed in advance and the reproduction by the decoded data are successfully connected (yes). S35). The generated interpolated data is output to the reproduction
S36では、再生データ出力部15Bにより、データの再生時刻に従ってデータのソートが行なわれたうえで、順に、決定された再生機(映像再生機231B又は音声再生機232B)にデータが出力される。優先的に別送された優先データは、決定された再生時刻に従って、デコードされている非優先データに重畳されて出力データとして出力される。
In S36, the reproduction
具体例として、じゃんけんのシーンの場合、デコードされている映像データの手の部分に、優先データである出し手の部分の映像データを重畳されたデータが出力される。 As a specific example, in the case of a rock-paper-scissors scene, data in which the video data of the output part, which is the priority data, is superimposed on the hand part of the decoded video data is output.
映像再生機231B、音声再生機232Bでは入力されたデータに基づいて再生処理が行われ(S37)、表示部233Bに映像が表示され、スピーカ234Bから音声が出力される。
じゃんけんのシーンの場合、デコードされた映像データの手の部分に、優先データである出し手の部分の映像データを重畳された映像が表示部233Bに表示される。The video player 231B and the
In the case of a rock-paper-scissors scene, a video in which the video data of the output part, which is the priority data, is superimposed on the hand part of the decoded video data is displayed on the
(遅延制御に係る情報処理方法の具体例)
次に、遅延制御に係る情報処理方法の一例として、異なる地点にいるAさんとBさんがじゃんけんをしているシーンが認識された場合について図4及び図5を用いて説明する。(Specific example of information processing method related to delay control)
Next, as an example of the information processing method related to delay control, a case where a scene in which Mr. A and Mr. B at different points are playing rock-paper-scissors is recognized will be described with reference to FIGS. 4 and 5.
「じゃんけん」は、手だけを使う遊戯である。じゃんけんは、3種類の指の出し方で三すくみを構成し、勝敗を決める手段である。「じゃんけん」は、例えば英語圏では、Rock-paper-scissorsと呼ばれている。 "Rock-paper-scissors" is a game that uses only hands. Rock-paper-scissors is a means of deciding whether to win or lose by composing a trilemma with three types of fingering. "Rock-paper-scissors" is called Rock-paper-scissors in English-speaking countries, for example.
日本では、3種類の指の出し方として、一般的には、五本指を全て握って握り拳の形態をとる「グー」と、人差し指と中指を伸ばし、それ以外の指は握る形態をとる「チョキ」と、五本指全てを伸ばす形態をとる「パー」とがある。
「グー」は、Rock-paper-scissorsのRockに相当する。「チョキ」は、Rock-paper-scissorsのscissorsに相当する。「パー」は、Rock-paper-scissorsのpaperに相当する。In Japan, there are three types of fingering, generally, "Goo", which takes the form of a fist by grasping all five fingers, and "Goo", which takes the form of extending the index finger and middle finger and grasping the other fingers. There are "choki" and "par" that stretches all five fingers.
"Goo" corresponds to Rock of Rock-paper-scissors. "Rock-paper-scissors" is equivalent to rock-paper-scissors scissors. "Par" corresponds to Rock-paper-scissors paper.
「じゃんけん」では、「グー」は「チョキ」に勝つが「パー」には負け、「チョキ」は「パー」には勝つが「グー」には負け、「パー」は「グー」には勝つが「チョキ」には負ける。 In "rock-paper-scissors", "goo" beats "choki" but loses to "par", "choki" wins to "par" but loses to "goo", and "par" wins to "goo". However, he loses to "Choki".
日本では、じゃんけんを行うときのかけ声として、「さいしょはグー、じゃんけんぽん」という決まり文句が用いられることが多い。ここでは、このかけ声を用いる場合を例にあげて遅延制御に係る情報処理方法について説明する。 In Japan, the cliché "Saisho is goo, rock-paper-scissors" is often used as a shout when playing rock-paper-scissors. Here, an information processing method related to delay control will be described by taking the case of using this shout as an example.
「さいしょはグー、じゃんけんぽん」のかけ声を用いるじゃんけんでは、じゃんけんのルールとして、「さいしょはグー」の「グー」の声が発せられると同時に、じゃんけんプレーヤーは全員、「グー」の形態の手を出すことになっている。
そして、「さいしょはぐー」に続いて、「じゃんけんぽん」のかけ声が発せられ、「じゃんけんぽん」の「ぽん」の声が発せられると同時に、じゃんけんプレーヤーは全員、勝敗を決めるために、「グー」、「チョキ」、「パー」のいずれかの形態にした手をだす。In rock-paper-scissors, which uses the shout of "saisho wa goo, rock-paper-scissors", as a rule of rock-paper-scissors, the "goo" voice of "saisho wa goo" is uttered, and at the same time, all the rock-paper-scissors players are in the form of "goo". I'm supposed to get my hands on it.
Then, following "Saisho Hagu", a shout of "rock-paper-scissors" is made, and at the same time, a voice of "rock-paper-scissors" of "rock-paper-scissors" is made. Put out a hand in the form of "goo", "choki", or "par".
図4は、本技術の一実施形態に係る情報処理方法での遅延制御に係る情報処理方法の具体例を説明する図である。図4に示す例では、優先的に送信される、エンコードされていない優先データがある場合を示す。 FIG. 4 is a diagram illustrating a specific example of an information processing method related to delay control in the information processing method according to the embodiment of the present technology. In the example shown in FIG. 4, there is a case where there is unencoded priority data to be transmitted preferentially.
図5は、比較例に係る情報処理方法での遅延制御に係る情報処理方法の具体例を説明する図である。図5に示す例は、優先的に送信される優先データがなく、通信相手の情報処理装置に対して送信されるデータがエンコードされたデータである非優先データのみである場合を示す。 FIG. 5 is a diagram illustrating a specific example of the information processing method related to delay control in the information processing method according to the comparative example. The example shown in FIG. 5 shows a case where there is no priority data to be preferentially transmitted and only non-priority data which is encoded data is transmitted to the information processing apparatus of the communication partner.
図4及び図5に示す例では、Aさんがかけ声をかけ、そのかけ声にあわせてAさんとBさんは互いの動作にあわせて、グー、チョキ、パーのいずれかの形態にした手をだす、とする。 In the examples shown in FIGS. 4 and 5, Mr. A calls out, and in response to the call, Mr. A and Mr. B put out their hands in the form of goo, choki, or par according to each other's movements. , And.
まず、図5を用いて比較例について説明する。
図5(A)〜(D)は、それぞれ、撮影時のユーザ又は再生映像の経時変化を複数のコマで表したものである。図5において、「グー」の出し手を出した時の最初のコマにおける出し手を鎖線の楕円で囲んでいる。First, a comparative example will be described with reference to FIG.
5 (A) to 5 (D) show the time-dependent changes of the user or the reproduced video at the time of shooting in a plurality of frames, respectively. In FIG. 5, the mover in the first frame when the mover of "Goo" is put out is surrounded by an ellipse of a chain line.
図5(A)は、第1の情報処理システム20AでAさんを撮影している時のAさんの動作の経時変化を示す。第1の情報処理システム20Aで取得されたAさんの映像データ、音声データ及びデプスデータはエンコードされて、第2の情報処理システム20Bに送られる。
FIG. 5A shows the time course of Mr. A's movement when Mr. A is photographed by the first
第2の情報処理システム20Bでは、第1の情報処理システム20Aから送られてきたデータがデコードされて、映像及び音声が再生される。
図5(B)は、第1の情報処理システム20Aから送られてきたデータに基づいて、第2の情報処理システム20Bの表示部233Bに表示される再生映像の経時変化を示す。この再生映像は、地点Aの映像である。In the second
FIG. 5B shows the time course of the reproduced video displayed on the
図5(A)及び(B)に示すように、伝送遅延により、第1の情報処理システム20Aで撮影される撮影時よりもやや遅延して、第2の情報処理システム20B側で映像が再生される。図に示す例では、第2の情報処理システム20Bで表示される再生映像で「グー」がだされるタイミングは、第1の情報処理システム20Aで撮影するときよりも時間的に1コマ分遅くなっている。
As shown in FIGS. 5A and 5B, due to the transmission delay, the image is reproduced on the second
第2の情報処理システム20B側にいるユーザであるBさんは、この図5(B)に示されるように再生された映像をみて、じゃんけんを行うことになる。
Mr. B, who is a user on the second
図5(C)は、第2の情報処理システム20Bで、図5(B)に示されるように再生された映像をみてじゃんけんを行っているBさんを撮影している時のBさんの動作の経時変化を示す。
FIG. 5 (C) shows the operation of Mr. B when the second
Bさんは、図5(B)に示される再生映像をみてAさんの「さいしょはグー」の「グー」のときに「グー」を出すタイミングで、図5(C)に示すように「グー」を出す。図5(A)及び図5(C)に示すように、Aさんの「グー」を出すタイミングとBさんの「グー」を出すタイミングとは、同期ずれが生じることになる。 Looking at the playback video shown in Fig. 5 (B), Mr. B sees the "Goo" when Mr. A's "Saisho wa Goo" is "Goo", and as shown in Fig. 5 (C), " Goo "is issued. As shown in FIGS. 5 (A) and 5 (C), the timing of issuing Mr. A's "goo" and the timing of issuing Mr. B's "goo" are out of sync.
第2の情報処理システム20Bで取得されたBさんの映像データ、音声データ及びデプスデータはエンコードされて、第1の情報処理システム20Aに送られる。
The video data, audio data, and depth data of Mr. B acquired by the second
第1の情報処理システム20Aでは、第2の情報処理システム20Bから送られてきたデータがデコードされて、映像及び音声が再生される。
図5(D)は、第2の情報処理システム20Bから送られてきたデータに基づいて、第1の情報処理システム20Aの表示部233Aに表示される再生映像の経時変化を示す。In the first
FIG. 5D shows the time course of the reproduced video displayed on the
図5(C)及び(D)に示すように、伝送遅延により、第2の情報処理システム20Bで撮影される撮影時よりも遅延して、第1の情報処理システム20Aの表示部233Aで地点Bの映像が再生される。図に示す例では、地点Aの表示部233Aに再生されて表示される地点Bの様子の映像で「グー」がだされるタイミングは、第1の情報処理システム20A側で撮影したとき(図5(A)参照。)よりも時間的に3コマ分遅くなっている。
As shown in FIGS. 5C and 5D, due to the transmission delay, the point on the
第1の情報処理システム20A側のユーザであるAさんは、この図5(D)に示される再生映像をみて、じゃんけんを行うことになる。
Mr. A, who is the user of the first
つまり、Aさんは、Bさんの「さいしょはグー」のかけ声の「グー」にあわせて出すグーの手の映像を表示部233Aで確認して、次のかけ声である「じゃんけんぽん」を発することになる。
In other words, Mr. A confirms the image of Goo's hand to be put out in accordance with Mr. B's "Saisho wa Goo" shout "Goo" on the
これにより、図5(A)に示すように、Aさんには、「さいしょはグー」のかけ声から、次の「じゃんけんぽん」のかけ声を発するまでに、3コマ分の待ち時間が生じることになる。 As a result, as shown in FIG. 5 (A), Mr. A has to wait for three frames from the shout of "Saisho wa Goo" to the next shout of "Rock-paper-scissors". become.
これに対し、本実施形態に係る図4に示す遅延制御が実行される情報処理方法では、図4(A)に示すように、Aさんの待ち時間が1コマ分となり、待ち時間が比較例と比較して短くなっている。 On the other hand, in the information processing method in which the delay control shown in FIG. 4 according to the present embodiment is executed, as shown in FIG. 4 (A), the waiting time of Mr. A is one frame, and the waiting time is a comparative example. It is shorter than.
以下、図4を用いて説明する。図4(A)〜(D)は、それぞれ、撮影時のユーザ又は再生映像の経時変化を複数のコマで表したものである。図4において、「グー」の出し手を出した時の最初のコマにおける出し手を鎖線の楕円で囲んでいる。 Hereinafter, it will be described with reference to FIG. 4 (A) to 4 (D) show the time-dependent changes of the user or the reproduced video at the time of shooting in a plurality of frames, respectively. In FIG. 4, the mover in the first frame when the mover of "Goo" is put out is surrounded by an ellipse of a chain line.
ここで説明する一例では、センシングデータ取得部1で取得されたセンシングデータを基に、情報処理装置21によりユーザの状況であるシーンがじゃんけんをしているシーンであると既に認識されているものとして説明する。 In the example described here, it is assumed that the information processing device 21 has already recognized that the scene of the user's situation is a rock-paper-scissors scene based on the sensing data acquired by the sensing data acquisition unit 1. explain.
情報処理装置21では、認識されたシーンに基づいて、相手の情報処理装置に優先的に送るべきデータ(優先データ)が識別できるように、データに識別フラグが設定される。じゃんけんのシーンにおいては、映像データのうち「グー」「チョキ」「パー」の形態をとる出し手の部分の映像データが、優先データとなるように識別フラグが設定される。 In the information processing device 21, an identification flag is set for the data so that the data (priority data) to be preferentially sent to the other information processing device can be identified based on the recognized scene. In the rock-paper-scissors scene, the identification flag is set so that the video data of the part of the video data in the form of "goo", "choki", or "par" becomes the priority data.
センシングデータである映像データ、音データ、デプスデータはエンコードされて非優先データとして送信される。
また、エンコードデータ(非優先データ)とは別に、じゃんけんのシーンでは、優先データとして、出し手の部分の映像データの画素値がエンコードされずに、通信相手の情報処理装置に送信される。すなわち、じゃんけんのシーンでは、出し手の映像情報が重要なため、出し手の映像データが優先データとなる。優先データは、遅延するとAさんとBさんとの間のじゃんけんでのコミュニケーションがうまくいかない情報に相当する。Video data, sound data, and depth data, which are sensing data, are encoded and transmitted as non-priority data.
In addition to the encoded data (non-priority data), in the rock-paper-scissors scene, the pixel value of the video data of the sender is not encoded and is transmitted to the information processing device of the communication partner as the priority data. That is, in the rock-paper-scissors scene, the video information of the sender is important, so the video data of the sender is the priority data. Priority data corresponds to information that if delayed, communication between Mr. A and Mr. B in rock-paper-scissors will not be successful.
情報処理システム50において、優先データは、エンコード及びデコードされることなく、通信相手の情報処理装置の再生データ出力部へ出力されることになるため、AVコーデックでのエンコード及びデコード分の遅延がなく、非優先データよりも早く通信相手に提示することが可能となる。
In the
本実施形態では、じゃんけんのシーンであると認識されている場合を例にあげているので、じゃんけんプレーヤーの出し手の部分の映像データ(画素値)が優先的に別送される。そして、決定された再生時刻に従って、エンコードして送信されデコードされている映像データに、優先的に別送された出し手の部分の映像を重畳させた出力データが生成される。 In the present embodiment, since the case where the scene is recognized as a rock-paper-scissors scene is taken as an example, the video data (pixel value) of the part of the rock-paper-scissors player is preferentially sent separately. Then, according to the determined playback time, output data is generated in which the video data of the output part that is preferentially sent separately is superimposed on the video data that has been encoded, transmitted, and decoded.
図4に示す例は、本技術の効果をわかりやすくするために、Bさんの映像がAさんに送られてくるときに、本技術に係る遅延制御が実行される場合を例にあげている。 In the example shown in FIG. 4, in order to make it easier to understand the effect of the present technology, a case where the delay control related to the present technology is executed when the video of Mr. B is sent to Mr. A is given as an example. ..
図4(A)は、第1の情報処理システム20Aで、Aさんを撮影している時のAさんの動作の経時変化を示す。第1の情報処理システム20Aで取得された映像データ、音データ、デプスデータはエンコードされ第2の情報処理システム20Bに送られる。
FIG. 4A shows the time course of the movement of Mr. A when the first
第2の情報処理システム20Bでは、第1の情報処理システム20Aより送られてきたデータを基に、映像及び音声が再生される。
図4(B)は、表示部233Bに表示される再生映像の経時変化を表す。In the second
FIG. 4B shows the time course of the reproduced video displayed on the
図4(A)及び(B)に示すように、伝送遅延により、第1の情報処理システム20Aで撮影される撮影時よりもやや遅延して、第2の情報処理システム20B側で映像が再生される。図に示す例では、第2の情報処理システム20B側での再生映像で「グー」がだされるタイミングは、第1の情報処理システム20Aで撮影するときよりも時間的に1コマ分遅くなっている。
As shown in FIGS. 4A and 4B, due to the transmission delay, the video is reproduced on the second
第2の情報処理システム20B側にいるユーザであるBさんは、この図4(B)に示されるように再生された映像をみて、じゃんけんを行うことになる。
Mr. B, who is a user on the second
図4(C)は、第2の情報処理システム20Bで、図4(B)に示される再生映像をみてじゃんけんを行っているBさんを撮影している時のBさんの動作の経時変化を示す。
FIG. 4 (C) shows the time course of the movement of Mr. B when the second
Bさんは、図4(B)に示される再生映像をみてAさんの「さいしょはグー」の「グー」のときに「グー」を出すタイミングで、図4(C)に示すように「グー」を出す。図4(A)及び図4(C)に示すように、Aさんの「グー」を出すタイミングとBさんの「グー」を出すタイミングとは、同期ずれが生じることになる。 Looking at the playback video shown in Fig. 4 (B), Mr. B sees the "Goo" when Mr. A's "Saisho wa Goo" is "Goo", and as shown in Fig. 4 (C), " Goo "is issued. As shown in FIGS. 4 (A) and 4 (C), the timing of issuing Mr. A's "goo" and the timing of issuing Mr. B's "goo" are out of sync.
第2の情報処理システム20Bで取得されたBさんの映像データ、音声データ及びデプスデータはエンコードされて、第1の情報処理システム20Aに送られる。
The video data, audio data, and depth data of Mr. B acquired by the second
ここでは、既にじゃんけんのシーンであると認識されているので、出し手の部分の部分映像の画素値が優先データとなるように識別フラグが設定されている。
第2の情報処理システム20Bで、識別フラグに基づいて、映像データからBさんの出し手の部分の部分映像データ(画素値)が優先データとして抽出される。抽出された優先データはエンコードされずに優先データとして優先的に第1の情報処理システム20Aに送られる。Here, since it is already recognized as a rock-paper-scissors scene, the identification flag is set so that the pixel value of the partial image of the sender part becomes the priority data.
In the second
また、優先データ予測部6Bにより予測された予測優先データがある場合、この予測優先データも、エンコードされずに優先的に第1の情報処理システム20Aに送られる。ここでは、予測優先データは、予測される出し手の部分の部分映像データ(画素値)である。
Further, when there is prediction priority data predicted by the priority
第1の情報処理システム20Aでは、第2の情報処理システム20Bより送られてきた優先データ又は予測優先データである出し手の映像データ(画素値)の再生時刻及び再生方法が決定され、これに基づいて優先データである出し手の映像データの再生データが生成される。
In the first
また、予測優先データがある場合においても、送られてきた予測優先データである予測される出し手の映像データの再生時刻及び再生方法が決定され、これに基づいて予測優先データである予測される出し手の映像データの再生データが生成される。 Further, even when there is prediction priority data, the reproduction time and reproduction method of the video data of the predicted sender which is the sent prediction priority data are determined, and based on this, the predicted sender which is the prediction priority data is determined. Playback data of the video data of is generated.
また、第1の情報処理システム20Aでは、第2の情報処理システム20Bより送られてきた非優先データであるエンコードされたデータはデコードされる。
Further, in the first
デコードされたデータのうち、既に優先データ又は予測優先データを用いた再生が行われているデータがある場合、先行して行われた優先データ又は予測優先データによる再生とデコードされたデータによる再生が旨くつながるように補間データが生成される。 If there is data that has already been reproduced using the priority data or the prediction priority data among the decoded data, the reproduction by the priority data or the prediction priority data performed in advance and the reproduction by the decoded data are performed. Interpolated data is generated so that it connects well.
デコードされたデータ、生成された再生データ及び補間データは、データの再生時刻に従ってデータのソートが行われた上で、映像再生機231A、音声再生機232Aに出力され、再生される。これにより、図4(D)に示すように表示部233Aに再生映像が表示される。
図4(D)は、表示部233Aに表示されるB地点の再生映像を示す。The decoded data, the generated reproduction data, and the interpolation data are sorted according to the reproduction time of the data, and then output to the
FIG. 4D shows a reproduced image at point B displayed on the
図4(D)に示すように、破線の楕円で囲まれている出し手の「グー」は、優先データとして優先的に送られてきた出し手の映像データ(画素値)に基づくものであり、出し手以外の映像部分は、非優先データに基づく映像となっている。このように、優先的に送られた優先データに基づく出し手の映像は、先に送られている非優先データに基づく映像に重畳されて表示される。
これにより、じゃんけんというシーンに重要な出し手の映像は、遅延が抑制されて通信相手の情報処理装置で再生されることになる。As shown in FIG. 4 (D), the "goo" of the sender surrounded by the broken line ellipse is based on the video data (pixel value) of the sender sent preferentially as the priority data, and is based on the video data (pixel value) of the sender. The video parts other than the above are videos based on non-priority data. In this way, the video of the sender based on the priority data sent preferentially is superimposed and displayed on the video based on the non-priority data sent earlier.
As a result, the video of the rock-paper-scissors scene, which is important for the scene, is reproduced by the information processing device of the communication partner with the delay suppressed.
第1の情報処理システム20A側のユーザであるAさんは、この図4(D)に示される再生映像をみて、じゃんけんを行うことになる。つまり、Aさんは、「さいしょはグー」の「グー」にあわせてBさんが出すグーの手の映像を表示部233Aで確認して、次のかけ声である「じゃんけんぽん」を発することになる。
Mr. A, who is the user of the first
これにより、図4(A)に示すように、Aさんにおける、「さいしょはグー」のかけ声から、次の「じゃんけんぽん」のかけ声を発するまでの待ち時間は、1コマ分となる。つまり、図5を用いて説明した比較例と比べて、AさんのBさんからの情報待ち時間が短縮される。 As a result, as shown in FIG. 4 (A), the waiting time for Mr. A from the shout of "Saisho wa Goo" to the next shout of "Rock-paper-scissors" is one frame. That is, the information waiting time from Mr. A and Mr. B is shortened as compared with the comparative example described with reference to FIG.
このように待ち時間が短縮されることにより、単位時間当たりの効率が向上する。また、待ち時間が短縮されることにより、ユーザが感じる遅延感が減少し、AさんとBさんとのコミュニケーションをより自然に、より円滑なものとすることができる。 By reducing the waiting time in this way, the efficiency per unit time is improved. Further, by shortening the waiting time, the feeling of delay felt by the user is reduced, and the communication between Mr. A and Mr. B can be made more natural and smooth.
以上のように、本技術においては、場所の離れた複数の地点間での通信において、シーンに応じた重要なデータが抽出されて優先的に通信相手の情報処理装置に送信されるので、通信相手に、重要な情報を、遅延を抑制して、提示することができる。 As described above, in the present technology, in communication between a plurality of remote points, important data according to the scene is extracted and preferentially transmitted to the information processing device of the communication partner. Important information can be presented to the other party with reduced delay.
これにより、例えば、通信インフラが整備されていない地域や国土の広い国での通信、他国間での通信等、伝送遅延の大きくなりやすい通信状況においても、通信相手に、シーンに応じた重要な情報をより早く提示することができ、ユーザに与える通信の遅延感を減少させることができる。 As a result, it is important for the communication partner according to the scene even in the communication situation where the transmission delay is likely to be large, such as communication in an area where the communication infrastructure is not developed, communication in a country with a large land area, communication between other countries, etc. Information can be presented faster, and the feeling of delay in communication given to the user can be reduced.
また、本技術は、センサによって取得した情報等を自動でサーバへ送信するようなIoT(Internet of Things)端末を用い、IoT端末と物理的に近い位置に設けられた複数のサーバ(エッジサーバ)でデータ分散処理を行うエッジングコンピューティングにも適用することができる。 In addition, this technology uses an IoT (Internet of Things) terminal that automatically sends information acquired by a sensor to a server, and a plurality of servers (edge servers) provided at positions physically close to the IoT terminal. It can also be applied to edging computing that performs data distribution processing in.
(遅延制御に係る情報処理方法の他のシーンでの適用例)
上述の実施形態においては、じゃんけんのシーンを例にあげて説明したが、これに限定されない。認識されるシーンに応じて、通信相手の情報処理システムに優先的に送信するデータの内容を異ならせ、シーンに応じた重要な情報を優先的に送信することによって、通信におけるユーザが感じる遅延感を減少させることができる。
以下、じゃんけん以外の他のシーンへの適用例について説明するが、これらシーンに限定されることはない。(Example of application of information processing method related to delay control in other scenes)
In the above-described embodiment, the rock-paper-scissors scene has been described as an example, but the present invention is not limited to this. By differentiating the content of the data to be preferentially transmitted to the information processing system of the communication partner according to the recognized scene and preferentially transmitting important information according to the scene, the user feels a delay in communication. Can be reduced.
An example of application to other scenes other than rock-paper-scissors will be described below, but the present invention is not limited to these scenes.
例えば、テレビ会議をしているシーンの場合は、話始めそうな人の口の動きや声が重要となってくるため、優先データとして、センシングデータから、話を始めそうな人の口の部分の映像データ、人の声のデータが抽出される。 For example, in the case of a video conference, the movement and voice of the person who is likely to start talking becomes important, so as priority data, the part of the mouth of the person who is likely to start talking is used as priority data. Video data and human voice data are extracted.
このようなデータが優先的に送信相手の情報処理装置に送信されることで、テレビ会議で、異なる地点それぞれにいるユーザの話し始めが衝突してしまうのを防止することができる。これにより、複数の異なる地点間でより円滑なコミュニケーションが可能となり、また、ユーザに与える通信の遅延感を減少させることができる。 By preferentially transmitting such data to the information processing device of the transmission partner, it is possible to prevent users at different points from colliding with each other in the video conference. As a result, smoother communication is possible between a plurality of different points, and it is possible to reduce the feeling of communication delay given to the user.
また、他の例として、A地点にいる人が、B地点にいる人の声による指示を聞きながら、B地点にある物体を例えばロボットハンドによって移動操作をする等の遠隔操作のシーンの場合にも、本技術を適用することができる。 Further, as another example, in the case of a remote control scene in which a person at point A moves an object at point B, for example, with a robot hand while listening to instructions from the voice of a person at point B. Also, this technology can be applied.
このような遠隔操作のシーンの場合、「ストップ」などの声による指示(指示の声のデータ)、移動操作対象物体へ近づいてくる物体であるロボットハンドの映像データが、優先データとして抽出される。 In the case of such a remote control scene, voice instructions such as "stop" (data of the voice of the instruction) and video data of the robot hand, which is an object approaching the object to be moved, are extracted as priority data. ..
A地点にいる人が、B地点にいる人の指示を聞きながら、B地点にある物体の移動操作をする例では、B地点が送信地点である場合、取得されたB地点の音データから、B地点にいる人が発する指示の声のデータが抽出される。更に、取得されたB地点の映像データから、ロボットハンドの部分の映像データが抽出される。
これら抽出された指示の声のデータ及びロボットハンドの部分の映像データ(画素値)は、優先データとして、受信側となるA地点の情報処理装置に優先的に送信される。In the example in which a person at point A moves an object at point B while listening to the instructions of a person at point B, when point B is the transmission point, the acquired sound data at point B is used. The data of the instruction voice issued by the person at the B point is extracted. Further, the video data of the robot hand portion is extracted from the acquired video data of the B point.
The extracted instruction voice data and the video data (pixel value) of the robot hand portion are preferentially transmitted to the information processing device at point A on the receiving side as priority data.
また、遠隔操作の他のシーン例として、A地点にいる人が、B地点にいる人の指示を聞きながら、A地点にある物体の移動操作を、ロボットハンドを用いて行う例では、B地点が送信地点であるとき、B地点で取得される音データから、B地点にいる人が発する指示の声のデータが抽出される。この指示の声のデータは、優先データとして、受信地点となるA地点の情報処理装置に優先的に送信される。
一方、A地点が送信地点であるとき、A地点で取得される映像データから、ロボットハンドの部分の映像データが抽出される。このロボットハンドの部分の映像データは、優先データとして、受信地点となるB地点の情報処理装置に優先的に送信される。Further, as another example of the remote control scene, in the example in which the person at the point A performs the movement operation of the object at the point A while listening to the instruction of the person at the point B using the robot hand, the point B is used. When is the transmission point, the voice data of the instruction issued by the person at the B point is extracted from the sound data acquired at the B point. The voice data of this instruction is preferentially transmitted to the information processing device at point A, which is the receiving point, as priority data.
On the other hand, when the point A is the transmission point, the video data of the robot hand portion is extracted from the video data acquired at the point A. The video data of the robot hand portion is preferentially transmitted to the information processing device at point B, which is the receiving point, as priority data.
以上のように、遠隔操作のシーンにおいて重要となる指示の声のデータ、ロボットハンドの部分の映像データが優先的に通信相手の情報処理装置に送信されることにより、ユーザに与える通信の遅延感を減少させることができる、より円滑な遠隔操作を行うことができる。 As described above, the communication delay feeling given to the user by preferentially transmitting the instruction voice data and the video data of the robot hand part, which are important in the remote control scene, to the information processing device of the communication partner. Can be reduced, and smoother remote control can be performed.
また、更に他の例として、遠隔指差しのシーンの場合にも、本技術を適用することができる。
遠隔指差しのシーンとは、例えば、A地点の表示部233AとB地点の表示部233BそれぞれにA地点及びB地点両方の映像が表示され、A地点にいる人が表示部233Aに表示されるB地点の映像に写し出される物体を指差しするシーンをいう。この場合、表示部233Bに表示されるB地点の映像には、A地点で指差しされた箇所が指差しポイントの形態で表示される。Further, as yet another example, the present technology can be applied to the case of a remote pointing scene.
The remote pointing scene is, for example, that the images of both the A point and the B point are displayed on the
遠隔指差しのシーンの場合、映像上の指の動きが重要となるので、A地点で取得された映像データのうち、指差しをしている指の部分の映像データ(画素値)が抽出され、優先データとして、B地点の情報処理装置に優先的に送信される。
このように指の部分の映像データが優先的に送信されることにより、送信側の指の指差し方向と受信側で表示される指差しポイントが同期され、ユーザに与える通信の遅延感を減少させることができる。In the case of a remote pointing scene, the movement of the finger on the image is important, so the image data (pixel value) of the part of the finger pointing is extracted from the image data acquired at point A. , As priority data, it is preferentially transmitted to the information processing device at point B.
By preferentially transmitting the video data of the finger portion in this way, the pointing direction of the finger on the transmitting side and the pointing point displayed on the receiving side are synchronized, and the feeling of delay in communication given to the user is reduced. Can be made to.
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
例えば、上述の実施形態においては2地点間での通信を例にあげたが、3つ以上の複数の地点間での通信に適用することもできる。 For example, in the above-described embodiment, communication between two points is taken as an example, but it can also be applied to communication between three or more points.
また、上述の実施形態においては、取得するセンシングデータとして、音データ、映像データ、デプスデータを例にあげたが、少なくとも映像データがあればよい。シーンに応じて映像データから部分的にデータを抽出して優先的に通信相手の情報処理装置に送信することにより、ユーザに与える通信の遅延感を減少させることができる。 Further, in the above-described embodiment, the sound data, the video data, and the depth data are given as examples as the sensing data to be acquired, but at least the video data may be present. By partially extracting data from the video data according to the scene and preferentially transmitting it to the information processing device of the communication partner, it is possible to reduce the feeling of delay in communication given to the user.
なお、本技術は以下のような構成もとることができる。 The present technology can have the following configurations.
(1)
送信地点に関するデータを取得する取得部と、
上記送信地点に関するデータをエンコードするエンコード部と、
上記送信地点に関するデータを用いて認識した上記送信地点の状況に基づいて、上記送信地点に関するデータから、優先的に送信するデータを設定するコンテキスト認識部と、
上記コンテキスト認識部での設定に基づいて、上記優先的に送信するデータを優先データとして抽出する優先データ抽出部と、
上記エンコード部によりエンコードされたデータと、エンコードされていない上記優先データを、受信地点にある情報処理装置へ送信する通信部と
を具備する情報処理装置。(1)
An acquisition unit that acquires data related to the transmission point,
An encoding unit that encodes the data related to the above transmission point, and
A context recognition unit that sets priority transmission data from the data related to the transmission point based on the situation of the transmission point recognized using the data related to the transmission point.
Based on the settings in the context recognition unit, the priority data extraction unit that extracts the data to be preferentially transmitted as priority data, and the priority data extraction unit.
An information processing device including a communication unit that transmits data encoded by the encoding unit and unencoded priority data to an information processing device at a receiving point.
(2)
上記(1)に記載の情報処理装置であって、
上記優先データ抽出部は、上記優先データとして、上記優先的に送信するデータと、上記送信地点の状況と、上記優先的に送信するデータの再生時刻と、を抽出する
情報処理装置。(2)
The information processing device according to (1) above.
The priority data extraction unit is an information processing device that extracts the data to be preferentially transmitted, the status of the transmission point, and the reproduction time of the data to be preferentially transmitted as the priority data.
(3)
上記(1)又は(2)に記載の情報処理装置であって、
上記優先データを保存する保存部と、
上記保存部に保存された優先データを基に、優先的に送信するデータを予測する優先データ予測部と
を更に具備する情報処理装置。(3)
The information processing device according to (1) or (2) above.
A storage unit that stores the above priority data,
An information processing device further including a priority data prediction unit that predicts data to be preferentially transmitted based on the priority data stored in the storage unit.
(4)
上記(1)〜(3)のうちいずれか1つに記載の情報処理装置であって、
上記送信地点に関するデータは、映像データを含む
情報処理装置。(4)
The information processing device according to any one of (1) to (3) above.
The data related to the transmission point is an information processing device including video data.
(5)
上記(4)に記載の情報処理装置であって、
上記送信地点に関するデータは、音データとデプスデータの少なくとも一方を更に含む
情報処理装置。(5)
The information processing device according to (4) above.
The data related to the transmission point is an information processing device that further includes at least one of sound data and depth data.
(6)
送信地点の情報処理装置から、上記送信地点に関するデータがエンコードされたデータと、上記送信地点に関するデータから抽出されエンコードされていない優先データを受信する通信部と、
上記エンコードされたデータをデコードするデコード部と、
上記エンコードされていない優先データの再生時刻及び再生方法を決定する決定部と、
上記決定部での決定に基づいて、上記優先データの再生データを生成する再生データ生成部と、
上記デコード部でデコードされたデータと上記優先データの再生データを出力する出力部と
を具備する情報処理装置。(6)
A communication unit that receives encoded data related to the transmission point and priority data extracted from the data related to the transmission point and unencoded from the information processing device at the transmission point.
The decoding unit that decodes the encoded data and
A determination unit that determines the playback time and playback method of the unencoded priority data, and
A reproduction data generation unit that generates reproduction data of the priority data based on the determination in the determination unit, and a reproduction data generation unit.
An information processing device including an output unit that outputs data decoded by the decoding unit and playback data of the priority data.
(7)
上記(6)に記載の情報処理装置であって、
上記決定部での決定の内容を保存する保存部と、
上記保存部に保存された決定内容を参照して、上記デコードされたデータのうち、上記優先データの再生データによって既に再生されているデータがあるか否かを確認する再生済み確認部と、
上記再生済み確認部により上記優先データの再生データが既に再生されている場合に、上記優先データの再生データと上記デコードされたデータを繋ぎ合わせるための補間データを生成する補間データ生成部と
を更に具備する情報処理装置。(7)
The information processing device according to (6) above.
A storage unit that stores the contents of the decisions made by the above determination unit,
With reference to the decision contents saved in the storage unit, a reproduction confirmation unit for confirming whether or not there is data that has already been reproduced by the reproduction data of the priority data among the decoded data, and a reproduction confirmation unit.
When the reproduction data of the priority data has already been reproduced by the reproduction confirmation unit, the interpolation data generation unit that generates the interpolation data for joining the reproduction data of the priority data and the decoded data is further added. Information processing device to be equipped.
(8)
送信地点にある情報処理装置が、
送信地点に関するデータを取得し、
上記送信地点に関するデータをエンコードし、
上記送信地点に関するデータを用いて認識した上記送信地点の状況に基づいて、上記送信地点に関するデータから、優先的に送信するデータを優先データとして抽出し、
上記エンコードしたデータと、エンコードしていない上記優先データを、受信地点にある情報処理装置に送信し、
上記受信地点にある情報処理装置が、
上記エンコードしたデータと、エンコードしていない上記優先データを受信し、
上記エンコードしたデータをデコードし、
エンコードしていない上記優先データの再生時刻及び再生方法を決定し、
上記決定に基づいて上記優先データの再生データを生成し、
上記デコードしたデータと上記優先データの再生データを出力する
情報処理方法。(8)
The information processing device at the transmission point
Get data about the transmission point,
Encode the data related to the above transmission point and
Based on the situation of the transmission point recognized by using the data related to the transmission point, the data to be preferentially transmitted is extracted as the priority data from the data related to the transmission point.
The encoded data and the unencoded priority data are transmitted to the information processing device at the receiving point.
The information processing device at the above reception point
Receive the above encoded data and the above unencoded priority data,
Decode the above encoded data and
Determine the playback time and playback method of the above priority data that has not been encoded.
Based on the above determination, the reproduction data of the above priority data is generated, and the reproduction data is generated.
An information processing method that outputs the reproduced data of the decoded data and the priority data.
1A、1B…センシングデータ取得部(取得部)
2A、2B…データエンコード部(エンコード部)
3A、3B…コンテキスト認識部
4A、4B…優先データ抽出部
6A、6B…優先データ予測部
7A、7B…通信部
9A、9B…再生時刻/再生方法決定部(決定部)
10A、10B…データデコード部(デコード部)
11A、11B…優先データ再生保存部(保存部)
12A、12B…再生データ生成部
13A、13B…優先データ再生済み確認部(再生済み確認部)
14A、14B…補間データ生成部
15A、15B…再生データ出力部(出力部)
20A…第1の情報処理装置(送信地点にある情報処理装置、受信地点にある情報処理装置)
20B…第2の情報処理装置(送信地点にある情報処理装置、受信地点にある情報処理装置)
50…情報処理システム1A, 1B ... Sensing data acquisition unit (acquisition unit)
2A, 2B ... Data encoding section (encoding section)
3A, 3B ...
10A, 10B ... Data decoding unit (decoding unit)
11A, 11B ... Priority data playback storage unit (storage unit)
12A, 12B ... Playback
14A, 14B ... Interpolation
20A ... First information processing device (information processing device at the transmission point, information processing device at the reception point)
20B ... Second information processing device (information processing device at the transmission point, information processing device at the reception point)
50 ... Information processing system
Claims (8)
前記送信地点に関するデータをエンコードするエンコード部と、
前記送信地点に関するデータを用いて認識した前記送信地点の状況に基づいて、前記送信地点に関するデータから、優先的に送信するデータを設定するコンテキスト認識部と、
前記コンテキスト認識部での設定に基づいて、前記優先的に送信するデータを優先データとして抽出する優先データ抽出部と、
前記エンコード部によりエンコードされたデータと、エンコードされていない前記優先データを、受信地点にある情報処理装置へ送信する通信部と
を具備する情報処理装置。An acquisition unit that acquires data related to the transmission point,
An encoding unit that encodes data related to the transmission point, and
A context recognition unit that sets data to be preferentially transmitted from the data related to the transmission point based on the situation of the transmission point recognized using the data related to the transmission point.
A priority data extraction unit that extracts the data to be preferentially transmitted as priority data based on the settings in the context recognition unit, and a priority data extraction unit.
An information processing device including a communication unit that transmits data encoded by the encoding unit and unencoded priority data to an information processing device at a receiving point.
前記優先データ抽出部は、前記優先データとして、前記優先的に送信するデータと、前記送信地点の状況と、前記優先的に送信するデータの再生時刻と、を抽出する
情報処理装置。The information processing device according to claim 1.
The priority data extraction unit is an information processing device that extracts the data to be preferentially transmitted, the status of the transmission point, and the reproduction time of the data to be preferentially transmitted as the priority data.
前記優先データを保存する保存部と、
前記保存部に保存された優先データを基に、優先的に送信するデータを予測する優先データ予測部と
を更に具備する情報処理装置。The information processing device according to claim 2.
A storage unit that stores the priority data and
An information processing device further comprising a priority data prediction unit that predicts data to be preferentially transmitted based on the priority data stored in the storage unit.
前記送信地点に関するデータは、映像データを含む
情報処理装置。The information processing device according to claim 3.
The data related to the transmission point is an information processing device including video data.
前記送信地点に関するデータは、音データとデプスデータの少なくとも一方を更に含む
情報処理装置。The information processing device according to claim 4.
The data related to the transmission point is an information processing device that further includes at least one of sound data and depth data.
前記エンコードされたデータをデコードするデコード部と、
前記エンコードされていない優先データの再生時刻及び再生方法を決定する決定部と、
前記決定部での決定に基づいて、前記優先データの再生データを生成する再生データ生成部と、
前記デコード部でデコードされたデータと前記優先データの再生データを出力する出力部と
を具備する情報処理装置。A communication unit that receives encoded data related to the transmission point and priority data extracted from the data related to the transmission point and unencoded from the information processing device at the transmission point.
A decoding unit that decodes the encoded data, and
A determination unit that determines the playback time and playback method of the unencoded priority data, and
A reproduction data generation unit that generates reproduction data of the priority data based on the determination in the determination unit, and a reproduction data generation unit.
An information processing device including an output unit that outputs data decoded by the decoding unit and reproduced data of the priority data.
前記決定部での決定の内容を保存する保存部と、
前記保存部に保存された決定内容を参照して、前記デコードされたデータのうち、前記優先データの再生データによって既に再生されているデータがあるか否かを確認する再生済み確認部と、
前記再生済み確認部により前記優先データの再生データが既に再生されている場合に、前記優先データの再生データと前記デコードされたデータを繋ぎ合わせるための補間データを生成する補間データ生成部と
を更に具備する情報処理装置。The information processing device according to claim 6.
A storage unit that stores the content of the decision made by the determination unit,
With reference to the decision contents saved in the storage unit, a reproduction confirmation unit for confirming whether or not there is data already reproduced by the reproduction data of the priority data among the decoded data, and a reproduction confirmation unit.
When the reproduced data of the priority data has already been reproduced by the reproduced confirmation unit, an interpolation data generation unit that generates interpolation data for joining the reproduced data of the priority data and the decoded data is further added. Information processing device to be equipped.
送信地点に関するデータを取得し、
前記送信地点に関するデータをエンコードし、
前記送信地点に関するデータを用いて認識した前記送信地点の状況に基づいて、前記送信地点に関するデータから、優先的に送信するデータを優先データとして抽出し、
前記エンコードしたデータと、エンコードしていない前記優先データを、受信地点にある情報処理装置に送信し、
前記受信地点にある情報処理装置が、
前記エンコードしたデータと、エンコードしていない前記優先データを受信し、
前記エンコードしたデータをデコードし、
エンコードしていない前記優先データの再生時刻及び再生方法を決定し、
前記決定に基づいて前記優先データの再生データを生成し、
前記デコードしたデータと前記優先データの再生データを出力する、
情報処理方法。The information processing device at the transmission point
Get data about the transmission point,
Encode the data about the transmission point and
Based on the situation of the transmission point recognized by using the data related to the transmission point, the data to be preferentially transmitted is extracted as priority data from the data related to the transmission point.
The encoded data and the unencoded priority data are transmitted to the information processing device at the receiving point, and the data is transmitted.
The information processing device at the reception point
Upon receiving the encoded data and the unencoded priority data,
Decode the encoded data and
Determine the playback time and playback method of the unencoded priority data,
Based on the determination, the reproduction data of the priority data is generated, and the reproduction data is generated.
Outputs the decoded data and the reproduced data of the priority data.
Information processing method.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018208707 | 2018-11-06 | ||
| JP2018208707 | 2018-11-06 | ||
| PCT/JP2019/041998 WO2020095728A1 (en) | 2018-11-06 | 2019-10-25 | Information processing device and information processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2020095728A1 true JPWO2020095728A1 (en) | 2021-09-24 |
| JP7420078B2 JP7420078B2 (en) | 2024-01-23 |
Family
ID=70612415
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020555963A Active JP7420078B2 (en) | 2018-11-06 | 2019-10-25 | Information processing device and information processing method |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11641448B2 (en) |
| EP (1) | EP3879819A4 (en) |
| JP (1) | JP7420078B2 (en) |
| CN (1) | CN113330735A (en) |
| WO (1) | WO2020095728A1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004343328A (en) * | 2003-05-14 | 2004-12-02 | Olympus Corp | Camera with communication function |
| JP2008067350A (en) * | 2006-09-06 | 2008-03-21 | Hitachi Ltd | Wireless communication method and wireless communication system |
| JP2009076952A (en) * | 2006-01-12 | 2009-04-09 | Panasonic Corp | TV conference apparatus and TV conference method |
| JP2013031191A (en) * | 2005-08-19 | 2013-02-07 | Qualcomm Inc | Picture-in-picture processing for video telephony |
Family Cites Families (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7006575B2 (en) * | 1996-08-07 | 2006-02-28 | Matsushita Electric Industrial Co., Ltd. | Picture and sound decoding apparatus picture and sound encoding apparatus and information transmission system |
| US7319667B1 (en) * | 2000-11-15 | 2008-01-15 | Cisco Technology, Inc. | Communication system with priority data compression |
| JP4298262B2 (en) * | 2001-10-29 | 2009-07-15 | パナソニック株式会社 | Video / audio synchronizer |
| CN101171841B (en) * | 2005-03-09 | 2012-06-27 | 高通股份有限公司 | Region-of-interest extraction for video telephony |
| EP2031805A1 (en) * | 2007-09-03 | 2009-03-04 | Siemens Aktiengesellschaft | Packet-type based resilience using network coding |
| US20100329355A1 (en) * | 2009-06-30 | 2010-12-30 | Nxp B.V | System and method for configurable packet streaming |
| JP5527603B2 (en) * | 2010-06-24 | 2014-06-18 | ソニー株式会社 | Information processing apparatus and information processing method |
| US8675067B2 (en) * | 2011-05-04 | 2014-03-18 | Microsoft Corporation | Immersive remote conferencing |
| US8860779B2 (en) * | 2011-05-23 | 2014-10-14 | Broadcom Corporation | Two-way audio and video communication utilizing segment-based adaptive streaming techniques |
| US9049464B2 (en) * | 2011-06-07 | 2015-06-02 | Qualcomm Incorporated | Multiple description coding with plural combined diversity |
| JP6171263B2 (en) * | 2012-03-19 | 2017-08-02 | 株式会社リコー | Remote conference system and remote conference terminal |
| US9179155B1 (en) * | 2012-06-14 | 2015-11-03 | Google Inc. | Skipped macroblock video encoding enhancements |
| CN103929640B (en) * | 2013-01-15 | 2018-03-06 | 英特尔公司 | The technology broadcast for managing video flowing |
| US9413797B2 (en) * | 2013-04-23 | 2016-08-09 | Gurulogic Microsystems Oy | Data communication system and method |
| US9774650B2 (en) * | 2014-09-23 | 2017-09-26 | Cisco Technology, Inc. | Frame priority system |
| CA2874715C (en) * | 2014-12-15 | 2022-03-15 | Ibm Canada Limited - Ibm Canada Limitee | Dynamic video and sound adjustment in a video conference |
| JP2017059902A (en) * | 2015-09-14 | 2017-03-23 | 株式会社リコー | Information processing device, program, and image processing system |
| US10075672B2 (en) * | 2016-12-20 | 2018-09-11 | Facebook, Inc. | Optimizing video conferencing using contextual information |
| US11025918B2 (en) * | 2016-12-29 | 2021-06-01 | Sony Interactive Entertainment Inc. | Foveated video link for VR, low latency wireless HMD video streaming with gaze tracking |
-
2019
- 2019-10-25 JP JP2020555963A patent/JP7420078B2/en active Active
- 2019-10-25 US US17/288,744 patent/US11641448B2/en active Active
- 2019-10-25 EP EP19883045.7A patent/EP3879819A4/en active Pending
- 2019-10-25 WO PCT/JP2019/041998 patent/WO2020095728A1/en not_active Ceased
- 2019-10-25 CN CN201980072039.5A patent/CN113330735A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004343328A (en) * | 2003-05-14 | 2004-12-02 | Olympus Corp | Camera with communication function |
| JP2013031191A (en) * | 2005-08-19 | 2013-02-07 | Qualcomm Inc | Picture-in-picture processing for video telephony |
| JP2009076952A (en) * | 2006-01-12 | 2009-04-09 | Panasonic Corp | TV conference apparatus and TV conference method |
| JP2008067350A (en) * | 2006-09-06 | 2008-03-21 | Hitachi Ltd | Wireless communication method and wireless communication system |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3879819A1 (en) | 2021-09-15 |
| WO2020095728A1 (en) | 2020-05-14 |
| JP7420078B2 (en) | 2024-01-23 |
| US20210399913A1 (en) | 2021-12-23 |
| CN113330735A (en) | 2021-08-31 |
| US11641448B2 (en) | 2023-05-02 |
| EP3879819A4 (en) | 2022-01-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7720393B2 (en) | Live streaming interaction method, apparatus, device and medium | |
| US12225325B2 (en) | Method, apparatus, electronic device, computer-readable storage medium, and computer program product for video communication | |
| TWI554317B (en) | System and method for managing audio and video channels for video game players and spectators | |
| US20160110922A1 (en) | Method and system for enhancing communication by using augmented reality | |
| US9898850B2 (en) | Support and complement device, support and complement method, and recording medium for specifying character motion or animation | |
| CN112601100A (en) | Live broadcast interaction method, device, equipment and medium | |
| CN114797094B (en) | Business data processing method, device, computer equipment and storage medium | |
| CN110472099B (en) | Interactive video generation method and device and storage medium | |
| WO2023011221A1 (en) | Blend shape value output method, storage medium and electronic apparatus | |
| CN111263227A (en) | Multimedia playing method, device and storage medium | |
| WO2014192457A1 (en) | Client device, control method, system and program | |
| JP2016511837A (en) | Voice change for distributed story reading | |
| KR20230102753A (en) | Method, computer device, and computer program to translate audio of video into sign language through avatar | |
| CN112492231B (en) | Remote interaction method, device, electronic equipment and computer readable storage medium | |
| CN113593587A (en) | Voice separation method and device, storage medium and electronic device | |
| CN109271599A (en) | Data sharing method, device and storage medium | |
| CN115115728B (en) | A conversation video creation method and related device | |
| WO2011027475A1 (en) | Teleconference device | |
| JP2003037826A (en) | Substitute image display and tv phone apparatus | |
| KR20200028830A (en) | Real-time computer graphics video broadcasting service system | |
| KR101939130B1 (en) | Methods for broadcasting media contents, methods for providing media contents and apparatus using the same | |
| KR102800520B1 (en) | Apparatus and method for providing a video call service using augmented reality | |
| JP7420078B2 (en) | Information processing device and information processing method | |
| KR20170127354A (en) | Apparatus and method for providing video conversation using face conversion based on facial motion capture | |
| KR102546532B1 (en) | Method for providing speech video and computing device for executing the method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220901 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220901 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231011 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231225 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7420078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |