FR2961919A1 - Method for processing 360 degree audiovisual scene of football match broadcasted in Internet by server, involves transmitting information relative to scene portion visualized by user to mobile telephone for utilization - Google Patents
Method for processing 360 degree audiovisual scene of football match broadcasted in Internet by server, involves transmitting information relative to scene portion visualized by user to mobile telephone for utilization Download PDFInfo
- Publication number
- FR2961919A1 FR2961919A1 FR1055259A FR1055259A FR2961919A1 FR 2961919 A1 FR2961919 A1 FR 2961919A1 FR 1055259 A FR1055259 A FR 1055259A FR 1055259 A FR1055259 A FR 1055259A FR 2961919 A1 FR2961919 A1 FR 2961919A1
- Authority
- FR
- France
- Prior art keywords
- user
- scene
- degree
- terminal
- multimedia scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/401—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
- H04L65/4015—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/765—Media network packet handling intermediate
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
Procédé de traitement d'une scène audiovisuelle 360 degrés, procédé de distribution de ladite scène, dispositifs et programmes d'ordinateur associés Domaine de l'invention Le domaine de l'invention est celui des télécommunications, et plus particulièrement de la transmission de contenus audiovisuels de type 360 degrés. On trouve aujourd'hui dans le commerce des caméras permettant de réaliser des films 360 degrés. Ces caméras sont munies de plusieurs objectifs, généralement 6 à 12, qui filment chacun selon un angle de vue. Les différentes prises de vues sont ensuite transformées en une seule vidéo planisphérique, selon une technique dite de "stitching", destinée à être "mappée" sur un écran d'un dispositif de visualisation dédié ou non. Un tel dispositif de traitement est spécifiquement adapté au traitement en vue de la visualisation de contenus audiovisuels de type 360 degrés. Il est capable de traiter un flux de données représentatif d'un contenu audiovisuel de type 360 degrés de "déposer" les informations relatives à une texture du contenu 360 degrés sur une sphère ou un cube virtuels et à restituer une partie de cette sphère ou de ce cube sur un écran de visualisation, par exemple un écran d'ordinateur personnel PC ("Persona/ Computer", en anglais) ou de terminal mobile. Par l'intermédiaire de commandes, par exemple en pressant certaines touches d'un clavier d'ordinateur, il est possible de faire tourner la sphère ou le cube et de modifier ainsi la partie visualisée sur l'écran. Les 360 degrés du contenu audiovisuel peuvent être donc être visualisés morceau par morceau. Il est également connu d'utiliser des écrans spécifiques, par exemple des "Head mounted display" ou HMD, qui se fixent sur la tête de l'utilisateur. Un HMD est généralement constitué de : lunettes immersives, dotées de micro-écrans d'affichage ("microdisplay", en anglais) sur lesquels l'utilisateur peut visualiser une partie de la scène 360 degrés; d'un gyroscope ("headtracker", en anglais) permettant de détecter les mouvements de la tête et de les remonter vers un module de traitement adapté. Il s'agit par exemple du modèle FRCM-HC3 tracker de la société Hillcrest; Des écouteurs adaptés à la réception du son. TECHNICAL FIELD OF THE INVENTION The field of the invention is that of telecommunications, and more particularly of the transmission of audio-visual contents. 360 degree type. Cameras are now commercially available to produce 360-degree films. These cameras are equipped with several lenses, usually 6 to 12, which film each according to an angle of view. The different shots are then transformed into a single planispherical video, according to a so-called "stitching" technique, intended to be "mapped" on a screen of a dedicated viewing device or not. Such a processing device is specifically adapted to processing for the purpose of viewing audiovisual contents of the 360 degree type. It is capable of processing a data stream representative of a 360-degree audiovisual content to "drop" the texture information of the 360-degree content onto a virtual sphere or cube and to restore a portion of that sphere or this cube on a display screen, for example a PC personal computer screen ("Persona / Computer", in English) or mobile terminal. By means of commands, for example by pressing certain keys of a computer keyboard, it is possible to rotate the sphere or the cube and thus modify the part displayed on the screen. The 360 degrees of audiovisual content can therefore be viewed piece by piece. It is also known to use specific screens, for example "head mounted display" or HMD, which are fixed on the head of the user. An HMD generally consists of: immersive goggles, with micro-display screens ("microdisplay" in English) on which the user can view part of the 360-degree scene; a gyroscope ("headtracker" in English) to detect the movements of the head and back to a suitable processing module. This is for example the FRCM-HC3 tracker model from Hillcrest; Headphones adapted to the sound reception.
De façon connue, un HMD se connecte à un ordinateur de type PC ou un terminal mobile via une prise de type VGA, HDMI ou DVI. Un client logiciel installé sur l'ordinateur ou le terminal est apte gérer la connexion du HMD au terminal et à piloter l'envoi de l'image restituée par le dispositif de traitement de contenus audiovisuels 360 degrés inclus dans l'ordinateur dans les lunettes plutôt que (ou simultanément) sur l'écran du PC. In a known manner, an HMD connects to a PC-type computer or a mobile terminal via a VGA, HDMI or DVI type socket. A software client installed on the computer or the terminal is able to manage the connection of the HMD to the terminal and to control the sending of the image restored by the 360-degree audiovisual content processing device included in the computer in the glasses instead. than (or simultaneously) on the PC screen.
Les mouvements de la tête détectés par le headtracker sont remontés au niveau du dispositif de traitement qui est apte à calculer une nouvelle image à afficher dans les lunettes en fonction de la nouvelle position de la tête de l'utilisateur. En tournant la tête, l'utilisateur a donc la possibilité de visualiser dans ses lunettes sphériques une portion de la scène 360 degrés correspondant environ à son champ de vision. The movements of the head detected by the headtracker are reassembled at the level of the processing device which is able to calculate a new image to be displayed in the glasses according to the new position of the head of the user. Turning the head, the user has the opportunity to view in his spherical glasses a portion of the 360-degree scene corresponding to his field of vision.
Il est notamment connu du document WO2005/017729 d'utiliser un tel dispositif HMD pour visualiser un objet audiovisuel virtuel superposé à une scène réelle observée par l'utilisateur à travers ses lunettes. Les dispositifs HMD sont généralement utilisés pour des applications de jeux vidéo et pour des simulations dans le domaine militaire, au cours desquelles l'utilisateur fait partie de la scène visualisée par les participants. A cet égard, le document WO2009/117450 décrit une méthode de production d'une scène audiovisuelle immersive impliquant des participants équipés de tels dispositifs HMD. Les inventeurs ont constaté un nouveau besoin des utilisateurs de partager avec d'autres une expérience de visualisation immersive d'un contenu audiovisuel diffusé par un fournisseur de contenus, par exemple en mode streamé. Obiet et résumé de l'invention Selon un premier aspect, l'invention concerne un procédé de traitement d'une scène multimédia 360 degrés distribuée dans un réseau de télécommunications par un serveur à une pluralité de terminaux d'utilisateurs connectés audit réseau, caractérisé en ce que, ledit procédé comprend les étapes suivantes, destinées à être mises en oeuvre par un terminal de ladite pluralité de terminaux, ledit terminal étant connecté à un support de visualisation et d'écoute 360 degrés centré sur un premier utilisateur : -réception d'au moins un flux vidéo et d'au moins un flux audio constitutifs de la scène multimédia 360 degrés ; - décodage desdits flux au fur et à mesure de leur réception; - détection d'un positionnement angulaire dudit utilisateur par rapport à un référentiel du support sphérique; - affichage d'au moins une partie de la scène multimédia 360 degrés décodée sur ledit support de visualisation et rendu du son associé, en fonction du positionnement angulaire détectée; - transmission d'informations relatives à la partie de la scène visualisée et écoutée par l'utilisateur à destination d'au moins un deuxième terminal d'utilisateur pour utilisation. It is particularly known from WO2005 / 017729 to use such an HMD device to display a virtual audiovisual object superimposed on a real scene observed by the user through his glasses. HMD devices are typically used for video game applications and for military simulations, in which the user is part of the scene viewed by the participants. In this regard, the document WO2009 / 117450 describes a method for producing an immersive audiovisual scene involving participants equipped with such HMD devices. The inventors have found a new need for users to share with others an immersive viewing experience of audiovisual content broadcast by a content provider, for example in streamed mode. According to a first aspect, the invention relates to a method of processing a 360-degree multimedia scene distributed in a telecommunications network by a server to a plurality of user terminals connected to said network, characterized in that said method comprises the following steps, intended to be implemented by a terminal of said plurality of terminals, said terminal being connected to a viewing and listening medium 360 degrees centered on a first user: -receiving at least one video stream and at least one audio stream constituting the 360-degree multimedia scene; decoding of said streams as and when they are received; detecting an angular positioning of said user with respect to a reference frame of the spherical support; displaying at least a portion of the 360 degree multimedia scene decoded on said display medium and rendering the associated sound, as a function of the angular position detected; transmission of information relating to the part of the scene viewed and listened to by the user for at least one second user terminal for use.
L'invention permet à un utilisateur de recevoir les flux de données constitutifs d'une scène multimédia 360 degrés et d'en "jouer" une partie, correspondant à un secteur angulaire de cette scène, sur un support 360 degrés, par exemple des lunettes sphériques d'un dispositif HMD. On comprend en effet que le champ de vision de ce premier utilisateur ne lui permet pas de visualiser et d'écouter l'intégralité de la scène 360 degrés en une seule fois. Il doit donc tourner la tête afin de découvrir la scène 360 degrés secteur angulaire par secteur angulaire. La position de sa tête, en particulier sa position angulaire, est donc calculée par rapport à un référentiel du support de visualisation et le secteur angulaire de la scène à afficher sur le support de visualisation, autour de cette position angulaire, est déduit de cette position. Avantageusement, le rendu du son associé à l'image projetée sur le support de visualisation pourra être spatialisé, de façon à renforcer la sensation d'immersion de l'utilisateur dans la scène audiovisuelle. On notera que le support de visualisation 360 degrés peut prendre des formes variées, par exemple être cubique ou encore constitué d'une pluralité d'écrans orientés selon des angles différents et disposés côte à côte. The invention allows a user to receive the constituent data streams of a 360-degree multimedia scene and to "play" a part thereof, corresponding to an angular sector of this scene, on a 360-degree support, for example glasses spheres of an HMD device. We understand that the field of vision of this first user does not allow him to view and listen to the entire 360-degree scene at one time. He must therefore turn his head in order to discover the scene 360 degrees angular sector by angular sector. The position of its head, in particular its angular position, is thus calculated with respect to a reference frame of the display medium and the angular sector of the scene to be displayed on the viewing medium, around this angular position, is deduced from this position. . Advantageously, the rendering of the sound associated with the projected image on the display medium may be spatialized, so as to reinforce the user's immersion sensation in the audiovisual scene. Note that the 360-degree viewing support can take various forms, for example be cubic or still consists of a plurality of screens oriented at different angles and arranged side by side.
L'invention permet en outre de remonter à au moins un deuxième utilisateur des informations relatives à la partie de scène visualisée et écoutée par le premier utilisateur. En effet, comme la scène audiovisuelle a un champ de 360 degrés, elle ne peut pas être embrassée d'un seul regard. Par conséquent, deux utilisateurs, qui reçoivent en même temps les flux audio et vidéo de la scène 360 degrés, ne visualisent et n'écoutent pas nécessairement le même secteur angulaire de cette scène. Grâce aux informations remontées dans le réseau par le terminal du premier utilisateur, le deuxième utilisateur peut déduire la partie de scène que le premier utilisateur est en train de voir et écouter. De cette manière, il peut partager, s'il le souhaite, son expérience d'immersion dans la scène 360 degrés. Ainsi, l'invention propose une solution nouvelle et inventive de communication 5 immersive. Selon un aspect de l'invention, les informations relatives à la partie de la scène visualisée et écoutée par le premier utilisateur comprennent au moins le secteur angulaire de ladite partie de scène et/ou l'orientation angulaire de l'utilisateur. Une telle information peut avantageusement être utilisée par le terminal du deuxième 10 utilisateur pour indiquer à l'aide d'un signal visuel la partie de la scène visualisée et écoutée par le premier utilisateur. Selon un autre aspect de l'invention, les informations relatives à la partie de la scène visualisée et écoutée par le premier utilisateur comprennent au moins un signal vocal représentatif d'une réaction de l'utilisateur à la partie de scène qu'il visualise. 15 Par exemple, l'utilisateur s'exclame "Oh, regarde à droite!" pour attirer l'attention des autres utilisateurs sur la partie de scène qu'il visualise et échanger avec eux. On comprend que, selon ce mode de réalisation, une session de communication voix a été établie entre le premier et le deuxième utilisateur en parallèle de la session de streaming des flux vidéo depuis le serveur de contenus. Une telle communication peut impliquer un 20 serveur d'application du réseau de télécommunications, apte à mettre en relation les deux terminaux d'utilisateurs. Selon un aspect de l'invention, le procédé de traitement comprend une étape de réception d'informations relatives à une partie de scène visualisée par un troisième utilisateur et une étape d'adaptation de la partie de scène visualisée à l'aide des informations reçues. 25 Comme évoqué précédemment en relation avec le premier utilisateur, ces informations peuvent être de différents types, tels que par exemple, le secteur angulaire de la partie de scène visualisée ou un signal vocal de réaction. Lorsque les informations prennent la forme de valeurs de secteurs et position angulaires, l'étape d'adaptation peut consister en la superposition à la scène projetée d'une 30 indication de direction, par exemple une flèche pointant vers la partie de scène visualisée par le troisième utilisateur. Ainsi le premier utilisateur est incité à tourner la tête vers cette partie de scène et à partager le même contenu audiovisuel que le troisième utilisateur. Lorsque les informations prennent la forme d'un signal de vocal de réaction, une telle 5 adaptation peut consister en l'envoi d'un rendu sonore de ce signal vocal dans les lunettes selon une orientation angulaire représentative du troisième utilisateur. Avantageusement, on peut associer préalablement à chaque utilisateur participant à la session de diffusion de la scène audiovisuelle, une orientation angulaire sonore, de telle sorte qu'à chaque fois que cet utilisateur émettra un signal vocal, il sera reçu par les autres dans leur 10 dispositif de traitement, avec cette orientation angulaire. On comprend que cette orientation angulaire associée constitue une sorte de signature sonore de l'utilisateur. Selon une variante, le signal vocal de réaction émis par le troisième utilisateur est transmis dans le dispositif de traitement des autres utilisateurs avec l'orientation angulaire remontée par le terminal du troisième utilisateur à titre d'informations relatives à la partie de 15 scène qu'il visualise et écoute. Avantageusement, le premier utilisateur sera incité à tourner la tête dans la direction du son qu'il perçoit et se trouvera face à la même partie de scène que le troisième utilisateur. Selon un aspect de l'invention, la scène multimédia est constituée d'un seul contenu audiovisuel représenté sous la forme flux audio et d'un flux vidéo, 20 Selon un autre aspect de l'invention, la scène multimédia est constitué d'une pluralité de contenus ou applications représentés chacun sous la forme d'un flux audio et d'un flux vidéo ou d'un fichier selon le type de contenu, et de métadonnées décrivant une organisation spatiale desdits contenus les uns par rapport aux autres sur le support sphérique. Avantageusement, de telles métadonnées comprennent une position angulaire dans un référentiel du support de 25 visualisation centré sur l'utilisateur. Selon ce mode de réalisation de l'invention, l'étape d'affichage consiste à afficher le contenu de la pluralité de contenus de la scène multimédia dont la position angulaire est la plus proche de celle de l'utilisateur et à effectuer un rendu du son associé à ce contenu. Selon un autre aspect de l'invention, les informations reçues d'un troisième utilisateur 30 au cours de l'étape de réception comprennent un identifiant du contenu de la pluralité de contenus visualisé et écouté par le troisième utilisateur et l'étape d'adaptation comprend une superposition à la scène projetée au premier utilisateur d'une indication visuelle ou sonore du contenu visualisé et écouté par le troisième utilisateur et identifié à partir dudit identifiant reçu. L'invention concerne aussi un procédé de distribution d'au moins un flux vidéo et un flux audio constitutifs d'une scène multimédia 360 degrés à une pluralité de terminaux d'utilisateurs connectés à un réseau de télécommunications, caractérisé en ce que ledit procédé comprend les étapes suivantes : - distribution desdits flux aux terminaux, un terminal étant apte à décoder les flux vidéo et audio au fur et à mesure de leur réception et à projeter au moins une partie de la scène multimédia décodée sur un support de visualisation 360 degrés centré sur l'utilisateur; - réception, en provenance d'au moins un premier terminal de ladite pluralité de terminaux, d'informations relatives à la partie de scène visualisée par l'utilisateur de ce premier terminal; - retransmission desdites informations à au moins un deuxième terminal d'utilisateur. Un tel procédé est avantageusement mis en oeuvre par une plateforme de service du réseau de télécommunications, apte à rendre le service de distribution des flux audio et vidéo constitutifs de la scène audiovisuelle 360 degrés en établissant par exemple une session de streaming avec les terminaux d'utilisateurs impliqués et, le cas échéant, à les mettre en relation. The invention also makes it possible to trace back to at least a second user information relating to the part of the scene viewed and listened to by the first user. Indeed, as the audiovisual scene has a field of 360 degrees, it can not be embraced at one glance. As a result, two users, who at the same time receive audio and video streams from the 360-degree scene, do not necessarily view and listen to the same angular sector of that scene. Thanks to the information transmitted in the network by the terminal of the first user, the second user can deduce the part of the scene that the first user is seeing and listening. In this way, he can share, if he wishes, his immersion experience in the 360-degree scene. Thus, the invention proposes a new and inventive solution for immersive communication. According to one aspect of the invention, the information relating to the portion of the scene viewed and listened to by the first user comprises at least the angular sector of said scene portion and / or the angular orientation of the user. Such information may advantageously be used by the terminal of the second user to indicate with a visual signal the portion of the scene viewed and listened to by the first user. According to another aspect of the invention, the information relating to the portion of the scene viewed and listened to by the first user comprises at least one voice signal representative of a reaction of the user to the scene portion that he displays. For example, the user exclaims, "Oh, look right!" to draw other users' attention to the part of the scene they are viewing and interacting with. It will be understood that, according to this embodiment, a voice communication session has been established between the first and second users in parallel with the streaming video streaming session from the content server. Such communication may involve an application server of the telecommunications network, able to connect the two user terminals. According to one aspect of the invention, the processing method comprises a step of receiving information relating to a scene portion displayed by a third user and a step of adapting the displayed scene part using the information received. . As previously discussed in connection with the first user, this information may be of different types, such as, for example, the angular sector of the visualized scene part or a reaction speech signal. When the information takes the form of angular sector values and position, the adaptation step may consist of superimposing a direction indication on the projected scene, for example an arrow pointing to the scene part displayed by the third user. Thus the first user is encouraged to turn their heads towards this part of the scene and share the same audiovisual content as the third user. When the information takes the form of a reaction voice signal, such an adaptation may consist of sending a sound rendition of this speech signal into the spectacles in a representative angular orientation of the third user. Advantageously, it is possible to associate beforehand with each user participating in the broadcast session of the audiovisual scene, a sound angular orientation, so that each time this user emits a voice signal, he will be received by the others in their 10 processing device, with this angular orientation. It is understood that this associated angular orientation is a kind of sound signature of the user. According to one variant, the voice signal of reaction emitted by the third user is transmitted in the processing device of the other users with the angular orientation raised by the terminal of the third user as information relating to the part of the scene that he visualizes and listens. Advantageously, the first user will be prompted to turn his head in the direction of the sound he perceives and will face the same part of the scene as the third user. According to one aspect of the invention, the multimedia scene consists of a single audiovisual content represented in the form of audio stream and a video stream. According to another aspect of the invention, the multimedia scene consists of a plurality of contents or applications each represented as an audio stream and a video stream or a file depending on the type of content, and metadata describing a spatial organization of said contents relative to one another on the medium spherical. Advantageously, such metadata comprise an angular position in a repository of the user-centered display medium. According to this embodiment of the invention, the display step consists in displaying the content of the plurality of contents of the multimedia scene whose angular position is closest to that of the user and in rendering the its associated with this content. According to another aspect of the invention, the information received from a third user 30 during the receiving step includes an identifier of the content of the plurality of contents viewed and listened to by the third user and the adaptation step. includes a superposition on the projected scene to the first user of a visual or audible indication of the content viewed and listened to by the third user and identified from said received identifier. The invention also relates to a method of distributing at least one video stream and a constituent audio stream of a 360-degree multimedia scene to a plurality of user terminals connected to a telecommunications network, characterized in that said method comprises the following steps: distribution of said streams to the terminals, a terminal being able to decode the video and audio streams as and when they are received and to project at least a portion of the decoded multimedia scene on a 360 degree viewing medium centered on the user receiving, from at least one first terminal of said plurality of terminals, information relating to the scene portion displayed by the user of said first terminal; retransmission of said information to at least one second user terminal. Such a method is advantageously implemented by a service platform of the telecommunications network, capable of rendering the distribution service of the audio and video streams constituting the audiovisual scene 360 degrees by establishing for example a streaming session with the terminals of users involved and, where appropriate, to put them in contact.
L'invention concerne aussi un dispositif de traitement d'une scène multimédia 360 degrés. Un tel dispositif est destiné à être connecté à un terminal d'utilisateur de ladite pluralité de terminaux ou intégré à ce terminal et il est connecté à un support de visualisation 360 degrés centré sur un premier utilisateur. Selon l'invention, ledit dispositif de traitement comprend les moyens suivants : -réception d'au moins un flux vidéo et d'au moins un flux audio constitutifs de la scène multimédia 360 degrés ; - décodage desdits flux au fur et à mesure de leur réception; - détection d'une orientation angulaire dudit utilisateur par rapport à un référentiel du support de visualisation; - affichage d'au moins une partie de la scène multimédia 360 degrés décodée sur ledit support de visualisation sphérique et retransmission du son associé, en fonction de la position angulaire détectée; - transmission d'informations relatives à la partie de la scène visualisée par l'utilisateur à 5 destination d'au moins un deuxième terminal d'utilisateur pour utilisation. L'invention concerne aussi un dispositif de distribution d'au moins un flux vidéo et un flux audio constitutifs d'une scène multimédia 360 degrés à une pluralité de terminaux d'utilisateurs connectés à un réseau de télécommunications, caractérisé en ce que ledit dispositif est apte à mettre en oeuvre les moyens suivants : 10 - distribution desdits flux aux terminaux, un terminal étant apte à décoder les flux vidéo et audio au fur et à mesure de leur réception et à projeter au moins une partie de la scène multimédia décodée sur un support de visualisation centré sur l'utilisateur; - réception, en provenance d'au moins un premier terminal de ladite pluralité de terminaux, d'informations relatives à la partie de scène visualisée par l'utilisateur de ce premier terminal; 15 - retransmission desdites informations à au moins un deuxième terminal d'utilisateur. Ce dispositif pourra bien sûr comporter les différentes caractéristiques relatives au procédé de traitement selon l'invention. Ainsi, les caractéristiques et avantages de ce décodeur sont les mêmes que ceux du procédé de traitement, et ne sont pas détaillés plus amplement. L'invention concerne aussi un système de distribution d'une scène multimédia 360 20 degrés à une pluralité de terminaux d'utilisateurs connectés à un réseau de télécommunications, caractérisé en ce qu'il comprend au moins un dispositif de distribution d'une scène multimédia et un dispositif de traitement de ladite scène multimédia selon l'invention. L'invention concerne encore un programme d'ordinateur comportant des instructions pour la mise en oeuvre d'un procédé de traitement tels que décrits précédemment, lorsque ce 25 programme est exécuté par un processeur. Un tel programme peut utiliser n'importe quel langage de programmation. Il peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur. L'invention concerne enfin un programme d'ordinateur comportant des instructions pour la mise en oeuvre d'un procédé de distribution tels que décrits précédemment, lorsque ce 30 programme est exécuté par un processeur. Un tel programme peut utiliser n'importe quel langage de programmation. Il peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur. The invention also relates to a device for processing a 360-degree multimedia scene. Such a device is intended to be connected to a user terminal of said plurality of terminals or integrated with this terminal and is connected to a 360 degree viewing medium centered on a first user. According to the invention, said processing device comprises the following means: reception of at least one video stream and at least one audio stream constituting the 360-degree multimedia scene; decoding of said streams as and when they are received; detecting an angular orientation of said user with respect to a repository of the visualization medium; displaying at least a portion of the decoded 360 degree multimedia scene on said spherical viewing medium and retransmitting the associated sound, as a function of the detected angular position; transmission of information relating to the part of the scene displayed by the user to at least one second user terminal for use. The invention also relates to a device for distributing at least one video stream and a constituent audio stream of a 360-degree multimedia scene to a plurality of user terminals connected to a telecommunications network, characterized in that said device is capable of implementing the following means: distribution of said streams to the terminals, a terminal being able to decode the video and audio streams as and when they are received and to project at least a portion of the decoded multimedia scene onto a user-centered visualization media; receiving, from at least one first terminal of said plurality of terminals, information relating to the scene portion displayed by the user of said first terminal; Retransmission of said information to at least one second user terminal. This device may of course include the various features relating to the treatment method according to the invention. Thus, the characteristics and advantages of this decoder are the same as those of the processing method, and are not detailed further. The invention also relates to a system for distributing a 360 degree multimedia scene 360 to a plurality of user terminals connected to a telecommunications network, characterized in that it comprises at least one device for distributing a multimedia scene. and a device for processing said multimedia scene according to the invention. The invention also relates to a computer program comprising instructions for implementing a method of processing as described above, when this program is executed by a processor. Such a program can use any programming language. It can be downloaded from a communication network and / or saved on a computer-readable medium. The invention finally relates to a computer program comprising instructions for the implementation of a distribution method as described above, when this program is executed by a processor. Such a program can use any programming language. It can be downloaded from a communication network and / or saved on a computer-readable medium.
Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : la figure 1 présente de façon schématique un système de communication d'une scène audiovisuelle 360 degrés à une pluralité de terminaux d'utilisateurs selon l'invention; la figure 2 présente les principales étapes mises en oeuvre par le procédé de traitement d'une scène audiovisuelle 360 degrés selon un mode de réalisation de l'invention ; la figure 3 présente les principales étapes mises en oeuvre par le procédé de distribution d'une scène audiovisuelle 360 degrés selon un mode de réalisation de l'invention ; la figure 4 présente, sous la forme d'un diagramme de flux, un premier exemple de mode de réalisation de l'invention; la figure 5 présente, sous la forme d'un diagramme de flux, un deuxième exemple de mode de réalisation de l'invention; la figure 6 présente respectivement la structure d'un dispositif de traitement selon l'invention; l'invention; et la figure 7 présente respectivement la structure d'un dispositif de distribution selon l'invention. List of Figures Other features and advantages of the invention will appear more clearly on reading the following description of a particular embodiment, given as a simple illustrative and nonlimiting example, and the appended drawings, among which: Figure 1 schematically shows a communication system of a 360-degree audiovisual scene to a plurality of user terminals according to the invention; FIG. 2 presents the main steps implemented by the method of processing a 360-degree audiovisual scene according to one embodiment of the invention; FIG. 3 presents the main steps implemented by the distribution method of a 360-degree audiovisual scene according to one embodiment of the invention; FIG. 4 presents, in the form of a flow diagram, a first exemplary embodiment of the invention; FIG. 5 presents, in the form of a flow diagram, a second exemplary embodiment of the invention; Figure 6 shows respectively the structure of a processing device according to the invention; the invention; and Figure 7 shows respectively the structure of a dispensing device according to the invention.
Description d'un mode de réalisation de l'invention Pour rappel, le principe de l'invention repose sur la distribution en temps réel à une pluralité de terminaux d'utilisateurs d'une scène audiovisuelle 360 degrés dont chacun visualise la partie qu'il souhaite et sur la remontée dans le réseau, par ces utilisateurs, d'informations relatives à la partie de scène visualisée et écoutée par chacun, afin qu'elles soient retransmises aux autres utilisateurs et qu'ils les utilisent pour partager leur expérience multimédia immersive. En relation avec la figure 1, on présente un exemple de système de communication d'une scène multimédia 360 degrés selon l'invention. On considère un réseau de télécommunications NT, qui peut être de type mobile, par exemple 3G ou fixe, par exemple Internet, et trois terminaux d'utilisateur Ti, T2, T3 connectés à ce réseau. Le premier terminal d'utilisateur Ti est un terminal mobile 3G, le deuxième terminal d'utilisateur T2 est un ordinateur personnel et le troisième terminal est un appareil multimédia. DESCRIPTION OF AN EMBODIMENT OF THE INVENTION As a reminder, the principle of the invention is based on the real-time distribution to a plurality of user terminals of a 360-degree audiovisual scene, each of which displays the part it wishes and on the rise in the network, by these users, information on the part of the scene viewed and listened to by each, so that they are transmitted to other users and they use them to share their immersive multimedia experience. In relation to FIG. 1, an example of a communication system of a 360-degree multimedia scene according to the invention is presented. An NT telecommunications network is considered, which may be of mobile type, for example 3G or fixed, for example the Internet, and three user terminals Ti, T2, T3 connected to this network. The first user terminal Ti is a 3G mobile terminal, the second user terminal T2 is a personal computer and the third terminal is a multimedia device.
Ces trois types de terminaux sont aussi appelés Pods. Leur connexion avec le réseau de télécommunications est réalisée pour les terminaux T2 et T3 par l'intermédiaire d'une passerelle résidentielle ("home gateway', en anglais) via un lien filaire ou sans fil (Wifi). Les terminaux Ti, T2, T3 sont d'autre part connectés à un dispositif HMD1, HMD2, HMD3, de type HMD permettant la visualisation et l'écoute de la scène 360 degrés sur un support sphérique, par exemple des lunettes sphériques. Des utilisateurs UT1, UT2 et UT3 des terminaux Ti, T2 et T3 placent le dispositif HMD sur leur tête en vue de la visualisation de la scène. On considère maintenant une plateforme de service PFS 100 apte à délivrer un service de communication de scène multimédia 360 degrés selon l'invention. Une telle plateforme 15 comprend plusieurs serveurs, qui peuvent être placés en différents endroits du réseau de télécommunications NT : - un premier serveur Web 120, comprenant le portail Web auprès duquel les utilisateurs s'inscrivent au service et choisissent la scène multimédia 360 degrés qu'ils souhaitent visualiser. Le cas échéant, ils peuvent aussi choisir un horaire de diffusion; 20 un deuxième serveur 130 de contenus, apte à stocker dans une mémoire M les flux DS audio et vidéos constitutifs des scènes multimédia 360 degrés disponibles pour la mise en oeuvre du service; un troisième serveur d'application 110 apte à rendre le service de communication, notamment en traitant les requêtes d'accès au service émises par des terminaux 25 d'utilisateurs via le premier serveur Web 120, en établissant les sessions de communications multimédia et le cas échéant voix sur IP avec les terminaux d'utilisateurs inscrits et en déclenchant la diffusion des flux audio et vidéos constitutifs de la scène multimédia 360 degrés auprès du serveur de contenus 130. A l'heure prévue ou suite à la requête d'un utilisateur, le serveur d'application 110 30 déclenche la distribution des flux DS audio et vidéo constitutifs de la scène 360 degrés. De façon avantageuse, leur distribution se fait en mode streamé dans le réseau de télécommunications NT aux terminaux d'utilisateurs Ti, T2 inscrits à la session. Les terminaux d'utilisateurs Ti, T2 traitent les flux au fur et à mesure de leur réception et commandent l'affichage d'une partie de la scène multimédia 360 degrés sur le support de visualisation HMD1, HMD2 et HMD3. Pour ce faire, les terminaux d'utilisateurs mettent en oeuvre le procédé de traitement selon l'invention qui va maintenant être décrit en relation avec la figure 2. Dans une étape El, au moins un flux vidéo et d'au moins un flux audio DS constitutifs de la scène multimédia 360 degrés sont reçus par le dispositif de traitement des terminaux Ti et T2. These three types of terminals are also called Pods. Their connection with the telecommunications network is realized for terminals T2 and T3 via a home gateway, via a wired or wireless link (Wifi). T3 are on the other hand connected to a device HMD1, HMD2, HMD3, type HMD allowing the viewing and listening of the scene 360 degrees on a spherical support, for example spherical glasses UT1, UT2 and UT3 users of the Terminals Ti, T2 and T3 place the HMD device on their heads for the purpose of viewing the scene, and a PFS 100 service platform capable of delivering a 360-degree multimedia scene communication service according to the invention is now considered. platform 15 includes several servers, which can be placed in different places of the telecommunications network NT: - a first Web server 120, including the web portal where users register with the s ervice and choose the 360-degree multimedia scene they want to view. If necessary, they can also choose a broadcast schedule; A second content server 130, capable of storing in a memory M the DS audio and video streams constituting the 360 degree multimedia scenes available for the implementation of the service; a third application server 110 adapted to render the communication service, in particular by processing the service access requests sent by user terminals via the first web server 120, establishing the multimedia communication sessions and the case where appropriate voice over IP with the registered user terminals and by triggering the broadcasting of the audio and video streams constituting the 360-degree multimedia scene to the content server 130. At the scheduled time or at the request of a user, the application server 110 triggers the distribution of the audio and video DS streams constituting the 360-degree scene. Advantageously, their distribution is done in streamed mode in the NT telecommunications network to the user terminals Ti, T2 registered in the session. The user terminals Ti, T2 process the streams as and when they receive and control the display of a portion of the 360-degree multimedia scene on the display medium HMD1, HMD2 and HMD3. To do this, the user terminals implement the processing method according to the invention which will now be described in connection with FIG. 2. In a step E1, at least one video stream and at least one audio stream DS constituting the 360-degree multimedia scene are received by the terminal processing device Ti and T2.
Dans une étape E2, ils sont décodés au fur et à mesure de leur réception; Dans une étape E3, des données représentatives d'un positionnement angulaire dudit utilisateur UT1, UT2 par rapport à un référentiel du support sphérique sont reçues en provenance du dispositif HMD1, HMD2; Dans une étape E4, des coordonnées représentatives d'une partie de scène à afficher sur le support de visualisation sont calculées en fonction du positionnement angulaire de l'utilisateur; Dans une étape E5, la partie de la scène multimédia 360 degrés décodée est envoyée sur ledit support de visualisation sphérique HMD1, HMD2 pour affichage et écoute. Dans une étape E6, des informations UR1 relatives à la partie de la scène visualisée par l'utilisateur UT1 sont transmises dans le réseau de télécommunications à destination d'au moins un deuxième terminal d'utilisateur T2 pour utilisation. On notera que cette étape de transmission peut être mise en oeuvre dès réception des données en E3, ou plus tard. Dans cet exemple, on considère que l'utilisateur UT3 s'inscrit à la session de communication immersive alors qu'elle a déjà commencé. Dans ce cas, le terminal d'utilisateur T3 reçoit les flux audio et vidéo DS à partir de l'instant où il rejoint la session. Son dispositif de traitement met alors en oeuvre le procédé de traitement selon l'invention qui vient d'être décrit. Au cours d'une étape E7, des informations UR3 relatives à la partie de la scène visualisée par un utilisateur UT3 sont reçues, puis traitées en E8. Elles sont ensuite superposées visuellement ou par un rendu sonore à la partie de scène visualisée et écoutée par l'utilisateur UT1.30 Selon l'invention, le service de communication immersive est déployé par la plateforme de service PFS. Pour ce faire, elle met en oeuvre un procédé de distribution qui va maintenant être décrit en relation avec la figure 3. Dans une première étape D1, une requête RQ est reçue en provenance du premier terminal d'utilisateur Ti pour accéder au service. De façon avantageuse, cette requête comprend une indication de la scène multimédia 360 degrés S1 choisie par l'utilisateur Ti. Elle peut comprendre en outre un horaire H de début de séance. Dans une étape D2, une communication est établie par la plateforme de service PFS avec le terminal d'utilisateur Ti et la distribution des flux audio et vidéo DS constitutifs de la scène multimédia au terminal d'utilisateur Ti est initiée en D3. Dans un exemple de réalisation de l'invention selon lequel la retransmission de la scène commence à un horaire H prédéterminé, les flux DS sont distribués à partir de l'heure H vers tous les terminaux Ti, T2 des utilisateurs UT1, UT2 inscrits au service pour cet horaire. Dans une étape D4, la plateforme de service PFS reçoit de la part du terminal d'utilisateur Ti des informations UR1 relatives à la partie de scène qu'il visualise. Comme évoqué précédemment, de telles informations peuvent être de types variés. Selon un aspect de l'invention, ces informations prennent la forme d'un signal vocal SV1 émis par l'utilisateur UT1 en réaction à la scène S1 qu'il visualise. Selon ce mode, on comprend qu'il est nécessaire qu'un canal de communication de type voix, par exemple VoIP, ait été préalablement établi au cours d'une étape D2', entre le terminal d'utilisateur Ti et la plateforme de service PFS. Au cours d'une étape D5, les informations UR1 sont traitées par la PFS. Selon un premier exemple de réalisation, ces informations représentatives d'un positionnement angulaire de l'utilisateur UT1 sont traitées localement par la plateforme de service PFS et utilisées pour adapter les flux de données DS transmis au premier utilisateur UT1. A titre d'exemple, on peut envisager que seul le secteur angulaire de la sphère correspondant au positionnement angulaire de l'utilisateur lui soit transmis, plutôt que l'intégralité de la scène 360 degrés, afin d'économiser de la bande passante. Dans un deuxième exemple de réalisation, ces informations représentent un positionnement angulaire du premier utilisateur UT1. Au cours de l'étape D5, elles peuvent être insérées dans un message à destination des autres utilisateurs UT2 et UT3, qui est transmis au cours d'une étape D6. Dans un troisième exemple de réalisation, ces informations prennent la forme d'un signal vocal et l'étape D5 de traitement consiste à acheminer ce signal vers les autres utilisateurs UT2, UT3 parties à la session via le canal de communication voix. On notera que l'établissement de la communication voix est mise en oeuvre de façon différente selon le nombre d'utilisateurs parties à la séance d'immersion. On considère tout d'abord l'établissement d'une communication voix entre deux utilisateurs UT1 et UT2. On suppose que le premier utilisateur UT1 est sur le point de lancer une séance d'immersion et qu'il détecte sur le portail du service qu'un deuxième utilisateur UT2 est connecté. Il entre en contact avec lui, par exemple à l'aide d'une application de "chat", pour l'inviter à participer à la séance d'immersion qui est sur le point de démarrer. Si le deuxième utilisateur UT2 accepte l'invitation, la plateforme de service établit une connexion VoIP entre les deux utilisateurs UT1 et UT2. Ils peuvent alors discuter ensemble. In a step E2, they are decoded as and when they are received; In a step E3, data representative of an angular positioning of said user UT1, UT2 with respect to a reference frame of the spherical support are received from the device HMD1, HMD2; In a step E4, coordinates representative of a scene portion to be displayed on the display medium are calculated according to the angular positioning of the user; In a step E5, the portion of the decoded 360-degree multimedia scene is sent on said spherical viewing medium HMD1, HMD2 for display and listening. In a step E6, information UR1 relating to the portion of the scene displayed by the user UT1 is transmitted in the telecommunications network to at least one second user terminal T2 for use. Note that this transmission step can be implemented upon receipt of data at E3, or later. In this example, it is considered that the UT3 user registers for the immersive communication session when it has already started. In this case, the user terminal T3 receives the audio and video streams DS from the moment it joins the session. Its processing device then implements the treatment method according to the invention which has just been described. During a step E7, UR3 information relating to the portion of the scene displayed by a user UT3 is received and processed in E8. They are then superimposed visually or by a sound rendering to the part of the scene viewed and listened to by the user UT1.30. According to the invention, the immersive communication service is deployed by the PFS service platform. To do this, it implements a distribution method which will now be described in relation to FIG. 3. In a first step D1, a request RQ is received from the first user terminal Ti to access the service. Advantageously, this request includes an indication of the 360 degree multimedia scene S1 chosen by the user Ti. It may furthermore include a start time schedule H. In a step D2, a communication is established by the PFS service platform with the user terminal Ti and the distribution of the DS audio and video streams constituting the multimedia scene to the user terminal Ti is initiated at D3. In an exemplary embodiment of the invention according to which the retransmission of the scene starts at a predetermined time H, the DS streams are distributed from the time H to all the terminals T1, T2 of the users UT1, UT2 registered with the service. for this schedule. In a step D4, the service platform PFS receives from the user terminal Ti UR1 information relating to the scene portion that it displays. As mentioned above, such information may be of various types. According to one aspect of the invention, this information takes the form of a voice signal SV1 sent by the user UT1 in response to the scene S1 that it displays. According to this mode, it is understood that it is necessary for a voice type communication channel, for example VoIP, to have been previously established during a step D2 ', between the user terminal Ti and the service platform. PFS. During a step D5, the UR1 information is processed by the PFS. According to a first exemplary embodiment, this information representative of an angular positioning of the user UT1 is processed locally by the service platform PFS and used to adapt the data streams DS transmitted to the first user UT1. By way of example, it can be envisaged that only the angular sector of the sphere corresponding to the angular positioning of the user is transmitted to him, rather than the entire 360-degree scene, in order to save bandwidth. In a second exemplary embodiment, this information represents an angular positioning of the first user UT1. During the step D5, they can be inserted in a message intended for the other users UT2 and UT3, which is transmitted during a step D6. In a third exemplary embodiment, this information takes the form of a voice signal and the processing step D5 consists in routing this signal to the other users UT2, UT3 parties to the session via the voice communication channel. It should be noted that the establishment of voice communication is implemented differently depending on the number of users involved in the immersion session. First of all, the establishment of a voice communication between two users UT1 and UT2 is considered. It is assumed that the first user UT1 is about to launch an immersion session and detects on the service portal that a second user UT2 is connected. He gets in touch with him, for example using a "chat" application, to invite him to participate in the immersion session that is about to start. If the second user UT2 accepts the invitation, the service platform establishes a VoIP connection between the two users UT1 and UT2. They can then discuss together.
Le premier utilisateur lance ensuite la séance ce qui entraine l'envoi par la plateforme de service des flux audios et vidéos vers les terminaux des deux utilisateurs. On considère maintenant le cas d'une séance prévue et affichée sur le portail du service d'immersion. Les utilisateurs ayant pris connaissance de ce rendez-vous viennent "s'inscrire" sur le portail. Une fois leur inscription validée, la plateforme de service lance leur connexion sur un pont de conférence spatialisé. Une communication VoIP est de fait établie entre les utilisateurs inscrits à la séance. Un administrateur de la séance lance l'immersion, ce qui se traduit par le lancement du streaming des flux de données constitutifs de la scène multimédia vers tous les utilisateurs inscrits à la séance. Comme indiqué précédemment, des retardataires peuvent s'inscrire à une séance en cours. Ils reçoivent les flux streamé en cours à partir de la position de lecture des autres utilisateurs. The first user then launches the session, which causes the service platform to send the audio and video streams to the terminals of the two users. We now consider the case of a session planned and posted on the portal of the immersion service. Users who have taken note of this appointment will "register" on the portal. Once their registration is validated, the service platform launches their connection on a spatialized conference bridge. VoIP communication is in fact established between users registered for the session. A session administrator launches the immersion, which results in the launch of the streaming of the constituent data streams of the multimedia scene to all users registered for the session. As noted above, latecomers may register for an ongoing session. They receive streamed streams in progress from the playback position of other users.
Bien sûr, ces différents exemples de réalisation peuvent être combinés, afin qu'un utilisateur puisse à la fois réagir à la partie de scène qu'il visualise par un signal vocal et que son positionnement angulaire soit transmis aux autres utilisateurs et à la plateforme de service pour utilisation. Of course, these various embodiments can be combined, so that a user can both react to the part of the scene he visualizes by a voice signal and his angular position is transmitted to other users and to the platform of service for use.
On considère maintenant des exemples de service de communication immersive, qui vont être détaillés à l'appui des diagrammes de flux présentés en figures 4 et 5. Exemple 1 : La communication immersive à deux Selon un premier exemple de réalisation de l'invention, que l'on présente en relation avec le diagramme de flux de la figure 4, on considère un premier utilisateur Yann et un deuxième utilisateur Elodie. Yann et Elodie sont chacun à leur domicile. Ils possèdent chacun un HMD qui peut se connecter à un dispositif de traitement selon l'invention intégré dans un pod (ex : PC, player multimédia, Téléphone mobile 3G). Le pod est lui-même connecté à Internet soit par un modem ADSL/Fibre Optique, soit en 3G. Yann souhaite discuter avec Elodie tout en restant immergé dans un environnement 360° constitué par exemple de contenus vidéos ou de photos sphériques. Dans une première étape 1, Yann vient sélectionner le contenu qu'il souhaite visualiser dans un catalogue de contenus accessibles sur le portail Web du service. Examples of immersive communication services are now considered, which will be detailed in support of the flow diagrams presented in FIGS. 4 and 5. EXAMPLE 1 Immersive Two-Way Communication According to a first embodiment of the invention, in relation to the flow diagram of FIG. 4, a first user Yann and a second user Elodie are considered. Yann and Elodie are each at home. They each have an HMD which can connect to a processing device according to the invention integrated into a pod (eg PC, multimedia player, 3G mobile phone). The pod is itself connected to the Internet either by an ADSL / fiber optic modem, or in 3G. Yann wants to talk with Elodie while remaining immersed in a 360 ° environment consisting for example of video content or spherical photos. In a first step 1, Yann selects the content that he wishes to view in a catalog of contents accessible on the web portal of the service.
En étape 2, il obtient sur son dispositif de traitement la liste des autres utilisateurs connectés à Internet (par exemple, leur nom apparaît en vert parmi la liste des utilisateurs potentiels). Avantageusement, lorsque le terminal est connecté à Internet, il vient périodiquement déclarer l'utilisateur comme connecté auprès du serveur d'application de la plateforme de service, laquelle stocke cette information et la renvoie vers les autres utilisateurs connectés. In step 2, it gets on its processing device the list of other users connected to the Internet (for example, their name appears in green among the list of potential users). Advantageously, when the terminal is connected to the Internet, it periodically declares the user as connected to the application server of the service platform, which stores this information and sends it to the other connected users.
En étape 3, Elodie étant déclarée comme connectée, Yann lui lance une invitation. Cette invitation est transmise au terminal d'Elodie via la plateforme de service. Si l'invitée accepte l'invitation, la plateforme de service établit en étape 4 une mise en relation VoIP entre Yann et Elodie.. Le canal de communication voix est alors établi entre les deux. Ils peuvent parler ensemble. In step 3, Elodie being declared as connected, Yann sends her an invitation. This invitation is sent to the Elodie terminal via the service platform. If the guest accepts the invitation, the service platform establishes in step 4 a VoIP connection between Yann and Elodie .. The voice communication channel is then established between the two. They can talk together.
Lorsque la relation est établie (les deux personnes se parlent) et que leurs dispositifs HMD sont connectés à leurs dispositifs de traitement PODs respectifs, Yann lance l'immersion en étape 5. Cette étape comprend le déclenchement du streaming des flux audio et vidéo constitutifs du contenu choisi, entre le serveur de contenus et le terminal de Yann d'une part, et entre le serveur de contenus et le terminal d'Elodie d'autre part. Bien sûr, les deux opérations de streaming sont synchronisées temporellement. On notera que de façon avantageuse, les contenus sont encodés selon des formats standards de compression qui permettent de minimiser la bande passante utilisée (par exemple, selon le format H.264), ce qui impose un décodage de ce format par les terminaux des utilisateurs. Chaque utilisateur est libre de se déplacer dans les 360° en tournant sa tête. Le positionnement angulaire de chaque utilisateur, détecté par le gyroscope de son HMD, est remontée au niveau du dispositif de traitement selon l'invention, qui sélectionne la partie de la sphère visualisée en 6 et 7 et renvoie l'image correspondante vers les micro-displays du HMD. When the relationship is established (the two people are talking to each other) and their HMD devices are connected to their respective POD processing devices, Yann initiates the immersion in step 5. This step includes triggering the streaming of the audio and video streams constituting the chosen content, between the content server and the Yann terminal on the one hand, and between the content server and Elodie's terminal on the other hand. Of course, both streaming operations are synchronized temporally. It will be noted that, advantageously, the contents are encoded according to standard compression formats which make it possible to minimize the bandwidth used (for example, according to the H.264 format), which imposes a decoding of this format by the users' terminals. . Each user is free to move in the 360 ° by turning his head. The angular positioning of each user, detected by the gyroscope of his HMD, is raised to the level of the processing device according to the invention, which selects the part of the sphere visualized at 6 and 7 and sends the corresponding image to the micrometers. HMD displays.
Pour la partie audio, les flux audio streamés sont avantageusement encodés selon un format audio spheric. Le format audio spheric décrit la répartition des sons sur une sphère. Une matrice de filtres permet de calculer les pressions acoustiques aux entrées des conduits auditifs d'un auditeur générées par les sons répartis sur la sphère. La matrice de filtres dépend de la position angulaire de chaque utilisateur. Compte de tenu la géométrie de la tête et des positions des oreilles, ces pressions acoustiques dépendent de la morphologie de l'auditeur et de son orientation. L'application de cette matrice de filtres au flux audio sphérique génère un flux sonore stéréo qui est renvoyé au casque audio des HMDs. Ainsi, Yann et Elodie découvrent la scène multimédia 360° en même temps, mais de manière autonome. Du fait de la communication vocale entre les deux, chacun peut bénéficier des conseils de l'autre ("regarde à droite", "regarde en haut".) et partager ses émotions. Pendant toute l'expérience, une télécommande gestuelle permet à chaque utilisateur d'interagir avec le contenu (zoom, augmentation volume sonore, recentrage de la scène...). Selon un aspect de l'invention, les informations de positionnement angulaire PA1, PA2, par exemple le secteur angulaire de la partie de scène visualisée et/ou les coordonnées angulaires de la tête de l'utilisateur dans un référentiel du dispositif HMD, sont remontées, en 8 et 10 par chaque terminal à la plateforme de service PFS, qui retransmet ces informations à l'autre terminal. Sur réception de ces informations, les terminaux de Yann et Elodie transforment les informations reçues en une indication visuelle qu'ils superposent en 9 et 11 à la partie de scène qu'ils visualisent dans leur dispositif HMD. Cette indication visuelle leur permet de situer la position de l'autre utilisateur par rapport à leur propre angle de vue. Dans la configuration décrite, le dispositif de traitement (player, en anglais) est situé au niveau du POD. De ce fait le film 360° est "streamé" totalement vers ce POD et les informations de position angulaire de l'utilisateur sont remontées au niveau du POD pour le calcul du secteur angulaire de la sphère à projeter sur le support sphérique. For the audio part, streamed audio streams are advantageously encoded according to a spheric audio format. The spheric audio format describes the distribution of sounds on a sphere. A filter matrix calculates the acoustic pressures at the inputs of the auditory canals of a listener generated by the sounds distributed over the sphere. The filter matrix depends on the angular position of each user. Taking into account the geometry of the head and the positions of the ears, these acoustic pressures depend on the morphology of the listener and his orientation. Applying this filter matrix to the spherical audio stream generates a stereo sound stream that is fed back to the HMD's headphones. Thus, Yann and Elodie discover the 360 ° multimedia scene at the same time, but independently. Because of the voice communication between the two, everyone can benefit from the advice of the other ("look right", "look up") and share his emotions. Throughout the experience, a gesture control allows each user to interact with the content (zoom, increase volume, re-centering the scene ...). According to one aspect of the invention, the angular positioning information PA1, PA2, for example the angular sector of the visualized scene part and / or the angular coordinates of the user's head in a reference system of the HMD device, are reassembled. , at 8 and 10 by each terminal to the PFS service platform, which retransmits this information to the other terminal. Upon receipt of this information, the terminals of Yann and Elodie transform the information received into a visual indication that they superimpose at 9 and 11 to the scene portion they view in their HMD device. This visual indication allows them to locate the position of the other user in relation to their own angle of view. In the configuration described, the processing device (player) is located at the POD. As a result, the 360 ° film is "streamed" completely to this POD and the user's angular position information is raised to the level of the POD for the calculation of the angular sector of the sphere to be projected on the spherical support.
Selon un autre aspect de l'invention, les informations de position angulaire PA1' de la tête sont remontées en 12 au niveau de la plateforme de service, transmises en 13 au serveur de contenu et sont exploitées pour adapter en 14 les flux de données DS1 qu'il reste à transmettre en mode streaming au terminal de l'utilisateur. Des flux de données DS1' adaptées aux informations de positionnement angulaire PA1' de l'utilisateur Yann sont transmis en 15 au terminal de cet utilisateur, puis visualisés en 16. Une telle adaptation consiste à calculer l'angle de vue correspondant à la position angulaire de l'utilisateur au niveau de la plateforme de service et à ne transmettre au terminal de cet utilisateur que le flux vidéo et le flux audio stéréo correspondant à cet angle de vue. Un avantage est de diminuer la bande passante nécessaire pour utiliser le service. Exemple 2 : La visite immersive et guidées de lieux extraordinaires Selon un deuxième exemple de réalisation de l'invention, que l'on présente en relation avec le diagramme de flux de la figure 5, on considère un service de distribution d'une scène audiovisuelle 360 degrés relative à la visite commentée de la cité interdite en Chine. Cette présentation se fait sur la base d'un contenu sphérique tourné dans la cité interdite (vidéo et/ou photos 360° avec son multicanal , ambisonic ou HOA spatialisé). La visite est programmée le lundi 26 juin à 14:00. Le jour venu, chaque visiteur, depuis son domicile et à l'aide de son terminal ou POD, vient s'enregistrer sur le portail du service (étape 1). Les visiteurs sont tous munis d'un dispositif HMD connecté à un POD, lui-même connecté à Internet. Le guide G, depuis son lieu de travail s'enregistre également sur le portail du service. L'inscription à la séance génère automatiquement en étape 2 la connexion de chacun des visiteurs sur un pont de conférence téléphonique (dont les fonctions d'administration sont gérées par le guide). Ainsi le guide et le groupe de visiteurs peuvent désormais dialoguer ensemble. Quand le guide juge le moment opportun, il lance l'immersion audio-vidéo (étape 3). Les flux vidéo et audio constitutifs de la scène audiovisuelle 360 degrés sont donc diffusés en mode streaming vers la pluralité d'utilisateurs ou visiteurs inscrits (étape 4). According to another aspect of the invention, the angular position information PA1 'of the head is sent back to 12 at the level of the service platform, transmitted at 13 to the content server and used to adapt the data streams DS1 to 14 it remains to transmit in streaming mode to the terminal of the user. Data streams DS1 'adapted to the angular positioning information PA1' of the user Yann are transmitted at 15 to the terminal of this user, then visualized at 16. Such an adaptation consists in calculating the angle of view corresponding to the angular position of the user at the level of the service platform and to transmit to the terminal of this user only the video stream and the stereo audio stream corresponding to this angle of view. One advantage is to reduce the bandwidth needed to use the service. Example 2: The immersive and guided tour of extraordinary places According to a second exemplary embodiment of the invention, which is presented in relation to the flow diagram of FIG. 5, a distribution service of an audiovisual scene is considered 360 degrees relative to the guided tour of the forbidden city in China. This presentation is made on the basis of a spherical content shot in the forbidden city (video and / or 360 ° photos with multichannel sound, Ambisonic or HOA spatialized). The visit is scheduled for Monday, June 26 at 14:00. When the day comes, each visitor, from their home and using their terminal or POD, just register on the service portal (step 1). Visitors are all equipped with an HMD device connected to a POD, which is itself connected to the Internet. The guide G, from his place of work is also registered on the portal of the service. The session registration automatically generates in step 2 the connection of each of the visitors on a conference call bridge (whose administration functions are managed by the guide). Thus the guide and the group of visitors can now interact together. When the guide judges the right moment, he starts the audio-video immersion (step 3). The constituent video and audio streams of the 360-degree audiovisual scene are thus broadcast in streaming mode to the plurality of users or registered visitors (step 4).
La visite commence. Chacun des visiteurs reçoit sur son pod le contenu 360°et visualise à sa guise la partie de la sphère qui l'intéresse dans son dispositif HMD. Le son stéréo qui arrive aux écouteurs stéréo du dispositif HMD est calculé en fonction de l'orientation du HMD. Le guide commente la visite. Il fournit les explications sur les scènes visualisées et invite les participants à porter leurs regards sur certains détails de la scène. En retour, chaque visiteur peut poser des questions au guide et bénéficier en direct de ses réponses. Toutes ces étapes sont similaires à celles décrites dans le diagramme de flux de l'exemple précédent, en relation avec la figure 4. Dans cet exemple de réalisation, on notera que le guide reste maitre du pilotage du contenu, c'est-à-dire qu'il peut le mettre en pause la lecture du contenu à tout moment sur l'ensemble des terminaux, par exemple pour prendre le temps de répondre à des questions. The visit begins. Each visitor receives on its pod the 360 ° content and visualizes as it pleases the part of the sphere that interests it in its HMD device. The stereo sound that arrives at the stereo headphones of the HMD device is calculated based on the orientation of the HMD. The guide comments on the visit. It provides explanations of the scenes viewed and invites participants to look at certain details of the scene. In return, each visitor can ask questions to the guide and benefit from his answers live. All these steps are similar to those described in the flow diagram of the previous example, in relation with FIG. 4. In this embodiment, it should be noted that the guide remains master of the control of the content, that is to say say that it can pause it reading content at any time on all terminals, for example to take the time to answer questions.
De façon avantageuse, chaque utilisateur a la possibilité d'interagir avec le contenu pendant toute l'expérience à l'aide d'une télécommande gestuelle. A titre d'exemple, cette télécommande lui permet de mener les actions suivantes : zoom, augmentation volume sonore, recentrage de la scène etc. Selon une variante, les informations de positionnement du guide dans la sphère sont transmises aux terminaux des utilisateurs visiteurs et leurs dispositifs de traitement superposent une indication visuelle, par exemple une flèche à la partie de scène qu'ils visualisent pour les inciter à aller regarder la partie de scène commentée par le guide. Advantageously, each user has the opportunity to interact with the content throughout the experience using a gesture remote control. For example, this remote control allows it to perform the following actions: zoom, increase sound volume, refocusing the scene and so on. According to one variant, the positioning information of the guide in the sphere is transmitted to the terminals of the visiting users and their processing devices superimpose a visual indication, for example an arrow to the part of the scene that they visualize to encourage them to go and watch the part of scene commented by the guide.
Le principe de fonctionnement est le même que celui de l'exemple précédent à la The operating principle is the same as that of the previous example at
différence que l'appel VolP est remplacé par une connexion à un pont audio. 30 Exemple 3 : Le multiplex football Dans cet exemple, on considère de nouveau un service de mise en relation d'un groupe de personnes (ex : groupe d'amis, groupe de collaborateurs) préalablement inscrites. difference that the call VolP is replaced by a connection to an audio bridge. Example 3: The football multiplex In this example, it is again considered a connection service of a group of people (eg group of friends, group of collaborators) previously registered.
L'inscription à la séance est réalisée sur le portail du service. L'organisateur est l'administrateur de la séance. Lorsque celui-ci ouvre la séance, les personnes inscrites sont automatiquement connectées à un pont téléphonique spatialisé qui attribue un positionnement de chaque personne dans l'espace et qui restitue ce positionnement aux autres. Chaque utilisateur est équipé d'un dispositif HMD, connecté à un POD, lui-même connecté à Internet. A la différence des exemples précédents, la nature de la scène est différente. Il ne s'agit plus d'une unique scène multimédia 360 degrés dans laquelle l'utilisateur navigue en tournant sa tête. La scène est cette fois constituée de plusieurs contenus ou applications répartis sur une sphère. En tournant sa tête de droite à gauche et de haut en bas, l'utilisateur se déplace d'une application à une autre. Les applications qui peuvent par exemple prendre la forme, par exemple d'un fichier ppt, d'un fichier xls, d'un fichier doc ou encore d'un flux TV standard, sont positionnées en différentes zones de la sphère (par exemple des secteurs angulaires ou selon une mosaïque). Dans une position initiale, le client visualise en plein écran dans son dispositif HMD une première application (ex : fichier excel). Lorsqu'il va tourner sa tête, le dispositif HMD remontant le positionnement de celle-ci, il va progressivement arriver dans la zone de la sphère où une deuxième application est positionnée (ex fichier ppt). Lorsqu'il atteint cette zone, le dispositif de traitement affiche la deuxième application dans le HMD de l'utilisateur On comprend donc que le dispositif de traitement selon l'invention sélectionne l'application à afficher en fonction du positionnement de l'utilisateur dans la sphère. S'il continue son mouvement de tête, il accédera à d'autres applications. De même en inclinant progressivement la tête. Ainsi, l'utilisateur peut visualiser une multitude d'applications en taille "plein écran" sans avoir à posséder une multitude d'écrans (le HMD visualise un écran différent par zone attribuée sur la sphère). Registration for the session is carried out on the service portal. The organizer is the session administrator. When it opens the session, the registered people are automatically connected to a spatial telephone bridge that assigns a positioning of each person in the space and that restores this positioning to others. Each user is equipped with an HMD device connected to a POD, which is itself connected to the Internet. Unlike the previous examples, the nature of the scene is different. It is no longer a single 360-degree multimedia scene in which the user navigates by turning his head. The scene this time consists of several contents or applications spread over a sphere. By turning his head from right to left and from top to bottom, the user moves from one application to another. Applications that can take the form, for example of a ppt file, an xls file, a doc file or a standard TV stream, are positioned in different zones of the sphere (for example angular sectors or according to a mosaic). In an initial position, the client visualizes in full screen in its HMD device a first application (ex: excel file). When he turns his head, the device HMD back the positioning of it, it will gradually arrive in the sphere area where a second application is positioned (eg ppt file). When it reaches this zone, the processing device displays the second application in the HMD of the user. It is thus clear that the processing device according to the invention selects the application to be displayed as a function of the user's positioning in the sphere. If he continues his head movement, he will access other applications. Similarly by gradually tilting the head. Thus, the user can view a multitude of applications in "full screen" size without having to have a multitude of screens (the HMD visualizes a different screen by area assigned to the sphere).
Chacun des participants peut ainsi naviguer parmi les applications disponibles de façon autonome, sans être dépendant de celle qui est visualisée et partagée par le présentateur. Du 17 fait de la conférence téléphonique parallèle, chaque utilisateur peut intervenir et inciter les autres à se reporter à une application précise en se déplaçant dans la sphère... Comme pour les exemples précédents, il est possible de faire remonter les informations de positionnement de chaque participant vers la plateforme de service puis vers les autres participants. Ainsi chaque participant pourra avoir un retour en temps réel sur les applications visualisées par les autres participants. Le positionnement des applications peut être fait par des profils administrateurs définis par l'organisateur de la session. Selon une variante de cet exemple, on considère le cas où chaque application est une retransmission TV d'un match de football, streamée au format TV standard). Il s'agit par exemple des dix matches d'une journée de championnat qui sont positionnés sur la sphère de visualisation. En tournant et en inclinant la tête, l'utilisateur passe d'un match à l'autre. Il fait ses commentaires en direct à ses amis connectés à la même séance que lui. De la même façon que dans les exemples précédents, les autres amis sont incités à visualiser le même match que cet utilisateur à l'aide d'un signal visuel ou sonore superposé à la partie de scène qu'ils visualisent. Avantageusement, le retour sonore spatialisé lui procure une veille auditive de ce qui se passe sur les autres matches. Each of the participants can thus navigate among the applications available independently, without being dependent on that which is viewed and shared by the presenter. Because of the parallel conference call, each user can intervene and encourage others to refer to a specific application by moving in the sphere ... As for the previous examples, it is possible to trace the positioning information of each participant to the service platform and then to the other participants. Thus each participant can have a real-time feedback on the applications viewed by the other participants. The positioning of the applications can be done by administrator profiles defined by the session organizer. According to a variant of this example, consider the case where each application is a TV retransmission of a football match, streamed in standard TV format). This is for example the ten matches of a day of championship that are positioned on the viewing sphere. By turning and tilting the head, the user moves from one match to another. He makes his comments live to his friends connected to the same session as him. In the same way as in the previous examples, the other friends are encouraged to visualize the same match as this user using a visual or sound signal superimposed on the part of scene that they visualize. Advantageously, the spatialized sound feedback gives him an auditory watch of what is happening on the other matches.
Comme illustré en figure 6, un dispositif de traitement d'une scène multimédia 360 degrés selon l'invention comprend une mémoire DV1 comprenant une mémoire tampon, une unité de traitement DV2, équipée par exemple d'un microprocesseur pP, et pilotée par le programme d'ordinateur DV3, mettant en oeuvre le procédé de traitement selon l'invention. II est en outre connecté à un dispositif HMD comprenant un support de visualisation 360 degrés centré sur l'utilisateur, par exemple des lunettes sphériques. Il comprend enfin une interface de communication avec le réseau par l'intermédiaire de laquelle il reçoit les flux de données constitutifs de la scène multimédia 360 degrés et des informations de réactions d'autres utilisateurs du service. Le dispositif de traitement selon l'invention peut être intégré dans un terminal d'utilisateur UT1, UT2, UT3, par exemple un PC ("personal computer", en anglais), un téléphone mobile ou encore un boîtier intermédiaire ou Pod assurance l'interface entre le dispositif HMD de l'utilisateur et la plateforme de service. A l'initialisation, les instructions de code du programme d'ordinateur DV3 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement DV2. L'unité de traitement DV2 reçoit en entrée les flux de données constitutifs de la scène multimédia 360 degrés. Le microprocesseur de l'unité de traitement DV2 met en oeuvre les étapes du procédé de traitement décrit précédemment, selon les instructions du programme d'ordinateur DV3. Pour cela, le dispositif de traitement comprend, outre la mémoire tampon DV1, des moyens de réception d'au moins un flux vidéo et d'au moins un flux audio constitutifs de la scène multimédia 360 degrés en provenance du réseau de télécommunication NT, des moyens de décodage desdits flux au fur et à mesure de leur réception, des moyens de détection d'une orientation angulaire de l'utilisateur par rapport à un référentiel du support sphérique, des moyens de calcul de la partie de la scène 360° visualisée et du son restitué en fonction de la position angulaire détectée, des moyens d'affichage de la partie de la scène multimédia 360 degrés calculée et de rendu du son associé, et des moyens de transmission d'informations relatives à la partie de la scène visualisée et écoutée par l'utilisateur à destination d'au moins un deuxième terminal d'utilisateur pour utilisation. II comprend en outre des moyens de traitement d'informations relatives à une partie de scène visualisée par un autre utilisateur du service. As illustrated in FIG. 6, a device for processing a 360-degree multimedia scene according to the invention comprises a memory DV1 comprising a buffer memory, a processing unit DV2, equipped for example with a microprocessor pP, and driven by the program DV3 computer, implementing the treatment method according to the invention. It is further connected to an HMD device comprising a 360 degree viewing medium centered on the user, for example spherical glasses. It finally comprises a communication interface with the network through which it receives the constituent data streams of the 360-degree multimedia scene and feedback information from other users of the service. The processing device according to the invention can be integrated into a user terminal UT1, UT2, UT3, for example a PC ("personal computer", in English), a mobile phone or an intermediate box or Pod insurance. interface between the user's HMD device and the service platform. At initialization, the code instructions of the computer program DV3 are for example loaded into a RAM before being executed by the processor of the processing unit DV2. The processing unit DV2 receives as input the data streams constituting the 360-degree multimedia scene. The microprocessor of the processing unit DV2 implements the steps of the processing method described above, according to the instructions of the computer program DV3. For this purpose, the processing device comprises, in addition to the buffer memory DV1, means for receiving at least one video stream and at least one audio stream constituting the 360-degree multimedia scene originating from the telecommunications network NT. means for decoding said streams as and when they are received, means for detecting an angular orientation of the user with respect to a reference frame of the spherical support, means for calculating the portion of the scene 360 ° displayed and sound reproduced as a function of the detected angular position, means for displaying the part of the computed 360 degree multimedia scene and rendering of the associated sound, and means for transmitting information relating to the part of the scene displayed and listened to by the user for at least one second user terminal for use. It further comprises means for processing information relating to a scene portion displayed by another user of the service.
Comme illustré en figure 7, le dispositif de distribution d'une scène multimédia 360 degrés à une pluralité de terminaux d'utilisateurs comprend quant à lui une mémoire DD1 comprenant une mémoire tampon, une unité de traitement DD2, équipée par exemple d'un microprocesseur pP, et pilotée par le programme d'ordinateur DD3, mettant en oeuvre le procédé de diffusion selon l'invention. As illustrated in FIG. 7, the device for distributing a 360-degree multimedia scene to a plurality of user terminals comprises a memory DD1 comprising a buffer memory, a processing unit DD2, equipped for example with a microprocessor pP, and driven by the computer program DD3, implementing the diffusion method according to the invention.
A l'initialisation, les instructions de code du programme d'ordinateur DD3 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement DD2. L'unité de traitement DD2 reçoit en entrée une requête d'accès au service de communication immersive en provenance d'un terminal d'utilisateur. Le microprocesseur de l'unité de traitement DD2 met en oeuvre les étapes du procédé de diffusion décrit précédemment, selon les instructions du programme d'ordinateur DD3. Pour cela, le dispositif de diffusion comprend, outre la mémoire tampon DD1, des moyens de distribution desdits flux aux terminaux, un terminal étant apte à décoder les flux vidéo et audio au fur et à mesure de leur réception et à afficher au moins une partie de la scène multimédia décodée sur un support de visualisation 360 degrés centré sur l'utilisateur, des moyens de réception, en provenance d'au moins un premier terminal de ladite pluralité de terminaux, d'informations relatives à la partie de scène visualisée et écoutée par l'utilisateur de ce premier terminal et des moyens de retransmission desdites informations à au moins un deuxième terminal d'utilisateur. Selon un aspect de l'invention, il comprend en outre des moyens de traitement des informations relatives à la partie de scène visualisée et écoutée par l'utilisateur du premier terminal et d'adaptation des flux de données transmis au premier utilisateur aux dites informations. At initialization, the code instructions of the computer program DD3 are for example loaded into a RAM memory before being executed by the processor of the processing unit DD2. The processing unit DD2 receives as input an access request to the immersive communication service from a user terminal. The microprocessor of the processing unit DD2 implements the steps of the broadcasting method described above, according to the instructions of the computer program DD3. For this, the broadcasting device comprises, in addition to the buffer memory DD1, means for distributing said streams to the terminals, a terminal being able to decode the video and audio streams as and when they are received and to display at least a part of the decoded multimedia scene on a user-centered 360-degree viewing medium, means for receiving, from at least a first terminal of said plurality of terminals, information relating to the displayed and listened scene portion by the user of this first terminal and means for retransmission of said information to at least a second user terminal. According to one aspect of the invention, it further comprises means for processing information relating to the part of the scene viewed and listened to by the user of the first terminal and of adapting data streams transmitted to the first user to said information.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1055259A FR2961919A1 (en) | 2010-06-29 | 2010-06-29 | Method for processing 360 degree audiovisual scene of football match broadcasted in Internet by server, involves transmitting information relative to scene portion visualized by user to mobile telephone for utilization |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1055259A FR2961919A1 (en) | 2010-06-29 | 2010-06-29 | Method for processing 360 degree audiovisual scene of football match broadcasted in Internet by server, involves transmitting information relative to scene portion visualized by user to mobile telephone for utilization |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2961919A1 true FR2961919A1 (en) | 2011-12-30 |
Family
ID=43478068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1055259A Pending FR2961919A1 (en) | 2010-06-29 | 2010-06-29 | Method for processing 360 degree audiovisual scene of football match broadcasted in Internet by server, involves transmitting information relative to scene portion visualized by user to mobile telephone for utilization |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2961919A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2713605A1 (en) * | 2011-11-08 | 2014-04-02 | Huawei Technologies Co., Ltd | Vision angle acquisition method, apparatus and system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5950202A (en) * | 1993-09-23 | 1999-09-07 | Virtual Universe Corporation | Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements |
US20090254843A1 (en) * | 2008-04-05 | 2009-10-08 | Social Communications Company | Shared virtual area communication environment based apparatus and methods |
-
2010
- 2010-06-29 FR FR1055259A patent/FR2961919A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5950202A (en) * | 1993-09-23 | 1999-09-07 | Virtual Universe Corporation | Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements |
US20090254843A1 (en) * | 2008-04-05 | 2009-10-08 | Social Communications Company | Shared virtual area communication environment based apparatus and methods |
Non-Patent Citations (3)
Title |
---|
CHASTINE J W ET AL: "A Collaborative Multi-View Virtual Environment for Molecular Visualization and Modeling", COORDINATED AND MULTIPLE VIEWS IN EXPLORATORY VISUALIZATION, 2005. (CM V 2005). PROCEEDINGS. THIRD INTERNATIONAL CONFERENCE ON LONDON, ENGLAND 05-05 JULY 2005, PISCATAWAY, NJ, USA,IEEE, 5 July 2005 (2005-07-05), pages 77 - 84, XP010835542, ISBN: 978-0-7695-2396-5 * |
DODDS T J ET AL: "Using mobile group dynamics and virtual time to improve teamwork in large-scale collaborative virtual environments", COMPUTERS AND GRAPHICS, ELSEVIER, GB, vol. 33, no. 2, 1 April 2009 (2009-04-01), pages 130 - 138, XP026034176, ISSN: 0097-8493, [retrieved on 20090125], DOI: DOI:10.1016/J.CAG.2009.01.001 * |
THEOKTISTO V ET AL: "Enhancing collaboration in virtual reality applications", COMPUTERS AND GRAPHICS, ELSEVIER, GB, vol. 29, no. 5, 1 October 2005 (2005-10-01), pages 704 - 718, XP025272250, ISSN: 0097-8493, [retrieved on 20051001], DOI: DOI:10.1016/J.CAG.2005.08.023 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2713605A1 (en) * | 2011-11-08 | 2014-04-02 | Huawei Technologies Co., Ltd | Vision angle acquisition method, apparatus and system |
EP2713605A4 (en) * | 2011-11-08 | 2014-04-09 | Huawei Tech Co Ltd | Vision angle acquisition method, apparatus and system |
US9800841B2 (en) | 2011-11-08 | 2017-10-24 | Huawei Technologies Co., Ltd. | Method, apparatus, and system for acquiring visual angle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7594642B2 (en) | Simulating local experiences by live streaming a shareable perspective of a live event | |
TWI720462B (en) | Modifying video streams with supplemental content for video conferencing | |
JP6404912B2 (en) | Live broadcasting system | |
RU2672620C2 (en) | System and method for interactive remote movie watching, scheduling and social connection | |
McGill et al. | Examining the role of smart TVs and VR HMDs in synchronous at-a-distance media consumption | |
US20150121252A1 (en) | Combined Data Streams for Group Calls | |
FR3071689A1 (en) | PRESENTATION OF COMMUNICATIONS | |
WO2018068481A1 (en) | Binocular 720-degree panoramic acquisition system | |
JP2019036969A (en) | Live broadcast system | |
CN109729367A (en) | The method, apparatus and electronic equipment of live media content information are provided | |
FR2961919A1 (en) | Method for processing 360 degree audiovisual scene of football match broadcasted in Internet by server, involves transmitting information relative to scene portion visualized by user to mobile telephone for utilization | |
KR20170085781A (en) | System for providing and booking virtual reality video based on wire and wireless communication network | |
BE1029154B1 (en) | Device and method for interaction between an audience and actors | |
FR3148128A1 (en) | Shared rendering of multimedia content and individually augmented | |
McGill et al. | of smart TVs and VR HMDs in synchronous at-a-distance media consumption. ACM Transactions on Computer-Human Interaction, 23 (5), pp. 1-57.(doi: 10.1145/2983530) | |
FR2988254A1 (en) | Interactivity device for providing interactivity between media during broadcast of e.g. game, to TV, has terminal comprising application controlling local projection of images corresponding to that event after reception of information data | |
WO2022254135A1 (en) | Mixed-reality communication method, communication system, computer program, and information medium | |
WO2023032461A1 (en) | Meeting assistance system, meeting assistance method, and meeting assistance program | |
KR20230161804A (en) | Metaverse cloud streaming system and method using avatar | |
CN107786829A (en) | Conversational system based on panoramic shooting technology |