FR3145823A1 - Animation of a virtual entity associated with a first user, simulation method and virtual reality simulator - Google Patents
Animation of a virtual entity associated with a first user, simulation method and virtual reality simulator Download PDFInfo
- Publication number
- FR3145823A1 FR3145823A1 FR2301226A FR2301226A FR3145823A1 FR 3145823 A1 FR3145823 A1 FR 3145823A1 FR 2301226 A FR2301226 A FR 2301226A FR 2301226 A FR2301226 A FR 2301226A FR 3145823 A1 FR3145823 A1 FR 3145823A1
- Authority
- FR
- France
- Prior art keywords
- user
- virtual
- virtual reality
- sensor
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Animation d’une entité virtuelle associée à un premier utilisateur, procédé de simulation et simulateur de réalité virtuelle L'invention concerne l’animation d’une entité virtuelle, notamment un avatar, associé à un premier utilisateur. De manière plus générale, l’invention concerne la simulation de réalité virtuelle, notamment d’environnement virtuel immersif mais aussi d’environnement mixte combinant des objets/entités réels et des objets/entités virtuels. Un objet de l’invention est un procédé d’animation d’une entité virtuelle associée à un premier utilisateur d’un système de réalité virtuelle lors de la reproduction de l’entité virtuelle, l’entité virtuelle étant composée d’au moins une première partie mobile, l’animation comportant :- déterminer une position virtuelle courante d’une première partie mobile d’une entité virtuelle associée au premier utilisateur en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du système de réalité virtuelle. Ainsi, le suivi des premières parties du corps du premier utilisateur est amélioré réduisant alors les erreurs d’animation de l’entité virtuelle associée au premier utilisateur et donc limitant les erreurs d’interaction du premier utilisateur avec la réalité virtuelle. Figure pour l’abrégé : Figure 1 Animation of a virtual entity associated with a first user, simulation method and virtual reality simulator The invention relates to the animation of a virtual entity, in particular an avatar, associated with a first user. More generally, the invention relates to the simulation of virtual reality, in particular of an immersive virtual environment but also of a mixed environment combining real objects/entities and virtual objects/entities. An object of the invention is a method of animating a virtual entity associated with a first user of a virtual reality system during the reproduction of the virtual entity, the virtual entity being composed of at least a first mobile part, the animation comprising: - determining a current virtual position of a first mobile part of a virtual entity associated with the first user according to at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality system. Thus, the tracking of the first parts of the body of the first user is improved, thereby reducing the animation errors of the virtual entity associated with the first user and therefore limiting the interaction errors of the first user with virtual reality. Figure for abstract: Figure 1
Description
L'invention concerne l’animation d’une entité virtuelle, notamment un avatar, associé à un premier utilisateur. De manière plus générale, l’invention concerne la simulation de réalité virtuelle, notamment d’environnement virtuel immersif mais aussi d’environnement mixte combinant des objets/entités réels et des objets/entités virtuels.The invention relates to the animation of a virtual entity, in particular an avatar, associated with a first user. More generally, the invention relates to the simulation of virtual reality, in particular of an immersive virtual environment but also of a mixed environment combining real objects/entities and virtual objects/entities.
Actuellement, la reconstruction virtuelle des mains réelles des utilisateurs de casques et lunettes de réalité virtuelle et mixte s’appuie sur l’utilisation d’une caméra frontale inclue au casque ou aux lunettes.Currently, the virtual reconstruction of real hands of users of virtual and mixed reality headsets and glasses relies on the use of a front camera included in the headset or glasses.
Or, pour que le suivi soit permanent, cette technique est fortement limitée par la mobilité des mains. En effet, en cas d’occultation d’une main par l’autre main, poignet ou bras de l’utilisateur voire par un autre utilisateur, les doigts de cette main occultée ne sont alors plus détectés. Cela engendre une perte de capacité d’interaction de l’utilisateur qui en outre n’est pas conscient de cette perte de capacité car la main virtuelle est toujours reproduite (en lien avec les données captées préalablement à l’occultation). Cette perte de capacité d’interaction engendre outre des erreurs d’interaction, un déroutement et une frustration de l’utilisateur.However, for the tracking to be permanent, this technique is strongly limited by the mobility of the hands. Indeed, in the event of occultation of a hand by the other hand, wrist or arm of the user or even by another user, the fingers of this occulted hand are then no longer detected. This causes a loss of interaction capacity of the user who is also not aware of this loss of capacity because the virtual hand is always reproduced (in connection with the data captured prior to the occultation). This loss of interaction capacity causes, in addition to interaction errors, confusion and frustration of the user.
S. Golodetz, et al proposent dans leur article « Live Collaborative Large-Scale Dense 3D Reconstruction Using Consumer-Grade Hardware », 2018 IEEE International Symposium on Mixed and Augmented Reality Adjunct (ISMAR-Adjunct), 2018 pp.413-414 d’utiliser plusieurs caméras placées dans l’environnement afin de reconstruire des environnements réels en mutualisant les maillages reconstruits pour réduire les risques de changement transitoire de l’environnement capturé.S. Golodetz, et al propose in their article “Live Collaborative Large-Scale Dense 3D Reconstruction Using Consumer-Grade Hardware”, 2018 IEEE International Symposium on Mixed and Augmented Reality Adjunct (ISMAR-Adjunct), 2018 pp.413-414 to use several cameras placed in the environment in order to reconstruct real environments by pooling the reconstructed meshes to reduce the risks of transient change in the captured environment.
Dans l’article « What is virtual reality hand tracking? », publié le 23.06.2022, https://vrx.vr-expert.com/what-is-virtual-reality-hand-tracking/, est décrit un suivi des mains dit « outside-in » utilisant plusieurs capteurs externes fixés dans une pièce spécifique et formant une zone de suivi permettant de générer une représentation plus précise de la position de la personne et de ses mouvements (mains incluses).
Le premier inconvénient de ces deux techniques est un système de réalité virtuelle plus complexe et donc plus couteux en raison de la nécessité d’utilisation de capteurs/caméras en sus des équipements du casque/des lunettes de réalité virtuelle porté(es) par l’utilisateur. Ces capteurs/caméras étant installé dans une pièce spécifique et définissant une zone de suivi fixe cela restreint la zone d’utilisation du système de réalité virtuelle par l’utilisateur. Par conséquent, un deuxième inconvénient est de limiter le nomadisme du casque/ des lunettes de réalité virtuelle à la zone de suivi. Enfin, les capteurs/caméras instrumentant l’environnement communiquent avec le dispositif de réalité virtuelle effectuant le suivi des mains en utilisant un serveur « annuaire » distant qui permet de les mettre en relation le casque/les des lunettes de réalité virtuelle. Un troisième inconvénient est donc d’utiliser le réseau Internet.In the article "What is virtual reality hand tracking?", published on 23.06.2022, https://vrx.vr-expert.com/what-is-virtual-reality-hand-tracking/, a so-called "outside-in" hand tracking is described using several external sensors fixed in a specific room and forming a tracking zone to generate a more precise representation of the person's position and movements (hands included).
The first disadvantage of these two techniques is a more complex and therefore more expensive virtual reality system due to the need to use sensors/cameras in addition to the equipment of the virtual reality headset/glasses worn by the user. These sensors/cameras being installed in a specific room and defining a fixed tracking area, this restricts the area of use of the virtual reality system by the user. Consequently, a second disadvantage is to limit the nomadism of the virtual reality headset/glasses to the tracking area. Finally, the sensors/cameras instrumenting the environment communicate with the virtual reality device tracking the hands using a remote "directory" server which allows them to be connected to the virtual reality headset/glasses. A third disadvantage is therefore to use the Internet network.
Un des buts de la présente invention est de remédier à des inconvénients de l'état de la technique.One of the aims of the present invention is to remedy drawbacks of the state of the art.
Un objet de l’invention est un procédé d’animation d’une entité virtuelle associée à un premier utilisateur d’un système de réalité virtuelle lors de la reproduction de l’entité virtuelle, l’entité virtuelle étant composée d’au moins une première partie mobile, l’animation comportant :
- déterminer une position virtuelle courante d’une première partie mobile d’une entité virtuelle associée au premier utilisateur en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du système de réalité virtuelle.An object of the invention is a method of animating a virtual entity associated with a first user of a virtual reality system during the reproduction of the virtual entity, the virtual entity being composed of at least a first mobile part, the animation comprising:
- determining a current virtual position of a first mobile part of a virtual entity associated with the first user based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality system.
Ainsi, le suivi des premières parties du corps du premier utilisateur est amélioré réduisant alors les erreurs d’animation de l’entité virtuelle associée au premier utilisateur et donc limitant les erreurs d’interaction du premier utilisateur avec la réalité virtuelle.Thus, the tracking of the first parts of the body of the first user is improved, thereby reducing the animation errors of the virtual entity associated with the first user and therefore limiting the interaction errors of the first user with virtual reality.
Avantageusement, le procédé d’animation comporte :
- estimer une position réelle courante d’au moins une première partie du corps d’un premier utilisateur du système de réalité virtuelle en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du système de réalité virtuelle ;
la détermination de la position virtuelle courante de la première partie mobile de l’entité virtuelle associée au premier utilisateur étant effectuée en fonction de la position réelle courante estimée de la première partie du corps du premier utilisateur.Advantageously, the animation process includes:
- estimating a current real position of at least a first part of the body of a first user of the virtual reality system based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality system;
the determination of the current virtual position of the first mobile part of the virtual entity associated with the first user being carried out as a function of the estimated current real position of the first part of the body of the first user.
Avantageusement, l’estimation de la position réelle courante est en outre fonction de premières données relatives à la première partie du corps du premier utilisateur captées au moyen d’un premier capteur porté par le premier utilisateur, le premier capteur et le deuxième capteur étant colocalisés.Advantageously, the estimation of the current actual position is furthermore a function of first data relating to the first part of the body of the first user captured by means of a first sensor worn by the first user, the first sensor and the second sensor being co-located.
Ainsi, la mutualisation des données captées permet encore d’améliorer le suivi des premières parties du corps du premier utilisateur.Thus, the pooling of captured data further improves the monitoring of the first parts of the body of the first user.
Avantageusement, le procédé d’animation comporte :
- si une première partie d’un corps d’un utilisateur à laquelle sont relatives les données captées est reliée à au moins une deuxième partie du corps du premier utilisateur, attribuer au premier utilisateur la position virtuelle courante déterminée en fonction des données captées relatives à au moins une première partie d’un corps d’un utilisateur, les données captées comportant au moins une donnée parmi les premières données captées et les deuxième données captées.Advantageously, the animation process includes:
- if a first part of a user's body to which the captured data relates is connected to at least a second part of the first user's body, assigning to the first user the current virtual position determined as a function of the captured data relating to at least a first part of a user's body, the captured data comprising at least one piece of data among the first captured data and the second captured data.
Ainsi, l’invention permet de lever l’ambiguïté sur la partie de corps suivi et réduit les risques que le premier utilisateur interagisse en utilisant la deuxième entité virtuelle associée au deuxième utilisateur.Thus, the invention makes it possible to remove ambiguity about the body part being tracked and reduces the risks that the first user interacts using the second virtual entity associated with the second user.
Avantageusement, lorsque l’estimation de la position réelle courante reçoit plusieurs des deuxièmes données captées de plusieurs deuxièmes capteurs distincts portés par plusieurs deuxièmes utilisateurs distincts, l’estimation de la position réelle courante comporte :
- pondérer les deuxièmes données captées fournies par un deuxième capteur en fonction d’une position relative courante du deuxième capteur par rapport au premier utilisateur préalablement à l’estimation de la position réelle courante en fonction de l’ensemble des deuxièmes données captées pondérées.Advantageously, when the estimation of the current actual position receives several of the second data captured from several distinct second sensors worn by several distinct second users, the estimation of the current actual position comprises:
- weighting the second captured data provided by a second sensor according to a current relative position of the second sensor with respect to the first user prior to estimating the current actual position according to all of the weighted second captured data.
Ainsi, l’invention tient compte de la pertinence des données captées pour désambiguïser le suivi des parties du corps du premier utilisateur.Thus, the invention takes into account the relevance of the captured data to disambiguate the tracking of the body parts of the first user.
Avantageusement, les données captées sont une ou plusieurs données parmi les suivantes :
- une image captée ;
- une image infrarouge captée ;
- une vidéo captée ;
- un mouvement capté ;
- une profondeur captée.Advantageously, the data captured is one or more of the following data:
- a captured image;
- an infrared image captured;
- a captured video;
- a captured movement;
- a captured depth.
Avantageusement, l’entité virtuelle est une entité parmi les suivantes :
- un avatar du premier utilisateur ;
- un être virtuel ;
- un dispositif mobile virtuel.Advantageously, the virtual entity is one of the following entities:
- an avatar of the first user;
- a virtual being;
- a virtual mobile device.
Un objet de l’invention est également un procédé de simulation de réalité virtuelle comportant :
- générer une réalité virtuelle apte à être reproduit simultanément par un premier dispositif portatif de reproduction de réalité virtuelle porté par un premier utilisateur et un deuxième dispositif portatif de reproduction de réalité virtuelle porté par un deuxième utilisateur, la réalité virtuelle comportant au moins une entité virtuelle ; et
- animer l’entité virtuelle associée à un premier utilisateur en :
+ déterminant une position virtuelle courante d’une première partie mobile d’une entité virtuelle associée au premier utilisateur en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du système de réalité virtuelle.An object of the invention is also a virtual reality simulation method comprising:
- generating a virtual reality capable of being reproduced simultaneously by a first portable virtual reality reproduction device worn by a first user and a second portable virtual reality reproduction device worn by a second user, the virtual reality comprising at least one virtual entity; and
- animate the virtual entity associated with a first user by:
+ determining a current virtual position of a first mobile part of a virtual entity associated with the first user based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality system.
Avantageusement, selon une implémentation de l'invention, les différentes étapes d’un procédé selon l'invention sont mises en œuvre par un logiciel ou programme d'ordinateur, ce logiciel comprenant des instructions logicielles destinées à être exécutées par un processeur de données d'un dispositif faisant partie d’un simulateur de réalité virtuelle et étant conçus pour commander l'exécution des différentes étapes de ce procédé.Advantageously, according to an implementation of the invention, the different steps of a method according to the invention are implemented by software or computer program, this software comprising software instructions intended to be executed by a data processor of a device forming part of a virtual reality simulator and being designed to control the execution of the different steps of this method.
L'invention vise donc aussi un programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé d’animation et/ou du procédé de simulation de réalité virtuelle lorsque ledit programme est exécuté par un processeur.The invention therefore also relates to a program comprising program code instructions for executing the steps of the animation method and/or the virtual reality simulation method when said program is executed by a processor.
Ce programme peut utiliser n'importe quel langage de programmation et être sous la forme de code source, code objet ou code intermédiaire entre code source et code objet tel que dans une forme partiellement compilée ou dans n'importe quelle autre forme souhaitable.This program may use any programming language and may be in the form of source code, object code, or code intermediate between source code and object code, such as in partially compiled form or in any other desirable form.
Un objet de l’invention est aussi un simulateur de réalité virtuelle comportant :
- un générateur de réalité virtuelle apte à être reproduite simultanément par un premier dispositif portatif de reproduction de réalité virtuelle porté par un premier utilisateur et un deuxième dispositif portatif de reproduction de réalité virtuelle porté par un deuxième utilisateur, la réalité virtuelle comportant au moins une entité virtuelle ;
- un contrôleur d’animation de l’entité virtuelle associée à un premier utilisateur d’un système de réalité virtuelle lors de la reproduction de l’entité virtuelle, l’entité virtuelle étant composée d’au moins une première partie mobile, le contrôleur d’animation étant apte à :
+ déterminer une position virtuelle courante d’une première partie mobile d’une entité virtuelle associée au premier utilisateur en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du simulateur de réalité virtuelle.An object of the invention is also a virtual reality simulator comprising:
- a virtual reality generator capable of being reproduced simultaneously by a first portable virtual reality reproduction device worn by a first user and a second portable virtual reality reproduction device worn by a second user, the virtual reality comprising at least one virtual entity;
- an animation controller of the virtual entity associated with a first user of a virtual reality system during the reproduction of the virtual entity, the virtual entity being composed of at least a first mobile part, the animation controller being able to:
+ determine a current virtual position of a first mobile part of a virtual entity associated with the first user based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality simulator.
Avantageusement, le contrôleur d’animation comporte un traceur apte à estimer la position réelle courante de la première partie du corps du premier utilisateur.Advantageously, the animation controller includes a tracer capable of estimating the current real position of the first part of the body of the first user.
Avantageusement, le simulateur de réalité virtuelle comporte un transmetteur de signaux connecté au premier dispositif portatif de reproduction de réalité virtuelle, au deuxième dispositif portatif de reproduction de réalité virtuelle, à un premier capteur porté par le premier utilisateur et au deuxième capteur, le premier capteur et le deuxième capteur étant colocalisés, le transmetteur étant apte à émettre des signaux de reproduction de la réalité virtuelle au premier dispositif portatif de reproduction de réalité virtuelle et au deuxième dispositif portatif de reproduction de réalité virtuelle, et à recevoir des premières données captées du premier capteur et des deuxièmes données captées du deuxième capteur.Advantageously, the virtual reality simulator comprises a signal transmitter connected to the first portable virtual reality reproduction device, to the second portable virtual reality reproduction device, to a first sensor worn by the first user and to the second sensor, the first sensor and the second sensor being co-located, the transmitter being able to transmit virtual reality reproduction signals to the first portable virtual reality reproduction device and to the second portable virtual reality reproduction device, and to receive first data captured from the first sensor and second data captured from the second sensor.
Avantageusement, le transmetteur est connecté au premier dispositif portatif de reproduction de réalité virtuelle, au deuxième dispositif portatif de reproduction de réalité virtuelle, au premier capteur et au deuxième capteur via un réseau local.Advantageously, the transmitter is connected to the first portable virtual reality reproduction device, to the second portable virtual reality reproduction device, to the first sensor and to the second sensor via a local network.
Ainsi, le contrôle d’animation peut être effectuer sans connaissance du lieu où se trouve les premier et deuxième utilisateur. En outre, cela réduit les délais de traitement et renforce l’instantanéité de l’animation de l’entité virtuelle.Thus, animation control can be performed without knowledge of the location of the first and second users. In addition, this reduces processing times and enhances the instantaneity of the animation of the virtual entity.
Un objet de l’invention est encore un système de réalité virtuelle comportant :
- un premier dispositif portatif de reproduction porté par un premier utilisateur,
- un deuxième dispositif portatif de reproduction porté par un deuxième utilisateur,
- un premier capteur porté par le premier utilisateur,
- un deuxième capteur porté par le deuxième utilisateur, le premier capteur et le deuxième capteur étant colocalisés,
- un simulateur de réalité virtuelle selon l’invention.An object of the invention is also a virtual reality system comprising:
- a first portable reproduction device carried by a first user,
- a second portable reproduction device carried by a second user,
- a first sensor worn by the first user,
- a second sensor worn by the second user, the first sensor and the second sensor being co-located,
- a virtual reality simulator according to the invention.
Avantageusement, le premier capteur et le deuxième capteur sont respectivement des capteurs intégrés au premier dispositif de reproduction de réalité virtuelle et au deuxième dispositif de reproduction de réalité virtuelle.Advantageously, the first sensor and the second sensor are respectively sensors integrated into the first virtual reality reproduction device and the second virtual reality reproduction device.
Avantageusement, le système de réalité virtuelle comporte plusieurs deuxièmes capteurs distincts portés par plusieurs deuxièmes utilisateurs distincts.Advantageously, the virtual reality system comprises several distinct second sensors worn by several distinct second users.
Les caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description, faite à titre d'exemple, et des figures s’y rapportant qui représentent :The characteristics and advantages of the invention will appear more clearly on reading the description, given by way of example, and the figures relating thereto which represent:
Par réalité virtuelle est entendu toute réalité comportant au moins un élément virtuel : objet virtuel, entité virtuelle, environnement virtuel, etc. Ainsi la réalité virtuelle peut être une réalité virtuelle immersive (RV), c’est-à-dire qu’une reproduction d’un univers généré par ordinateur immergeant l’utilisateur qui ne perçoit donc que des éléments virtuels. Une alternative est une réalité virtuelle aussi nommée réalité mixte (RM) combinant des éléments réels et des éléments virtuels permettant à l’utilisateur de percevoir et d’interagir à la fois des éléments virtuels et des éléments réels, voire des éléments dits mixtes. Le terme de réalité mixte englobe des technologies allant de la réalité augmentée (RA), ajoutant un ou plusieurs éléments virtuels dans un environnement réel, à la virtualité augmentée (VA) permet à l’utilisateur de percevoir voire d’interagir avec au moins un élément réel dans un environnement virtuel.Virtual reality is understood to mean any reality comprising at least one virtual element: virtual object, virtual entity, virtual environment, etc. Thus, virtual reality can be an immersive virtual reality (VR), that is to say a reproduction of a computer-generated universe immersing the user who therefore only perceives virtual elements. An alternative is a virtual reality also called mixed reality (MR) combining real elements and virtual elements allowing the user to perceive and interact with both virtual elements and real elements, or even so-called mixed elements. The term mixed reality encompasses technologies ranging from augmented reality (AR), adding one or more virtual elements in a real environment, to augmented virtuality (AV) allowing the user to perceive or even interact with at least one real element in a virtual environment.
La
Le procédé d’animation EV_ANIM anime une entité virtuelle EV1 associée à un premier utilisateur U1 d’un système de réalité virtuelle lors de la reproduction de l’entité virtuelle RV_RPR, l’entité virtuelle EV1 étant composée d’au moins une première partie mobile
- déterminer VP_DT une position virtuelle courante
- determine VP_DT a current virtual position
En particulier, le premier utilisateur U1 est une première entité réelle ER1 et le deuxième utilisateur U2 est une deuxième entité réelle ER2.In particular, the first user U1 is a first real entity ER1 and the second user U2 is a second real entity ER2.
En particulier, le procédé d’animation EV_ANIM comporte :In particular, the EV_ANIM animation process includes:
- estimer RP_EST une position réelle courante
la détermination VP_DT de la position virtuelle courante
the VP_DT determination of the current virtual position
Eventuellement, le procédé d’animation EV_ANIM comporte :
- estimer RP_EST une position réelle courante
- déterminer VP_DT une position virtuelle courante
- estimate RP_EST a current real position
- determine VP_DT a current virtual position
En particulier, l’estimation de la position réelle courante RP_EST est en outre fonction de premières données
En particulier, le procédé d’animation EV_ANIM comporte :
- si une première partie d’un corps d’un utilisateur
Les données captées
- if a first part of a user's body
The data collected
Notamment, le procédé d’animation vérifie si une première partie d’un corps d’un utilisateur
En particulier, lorsque l’estimation de la position réelle courante RP_EST reçoit plusieurs des deuxièmes données captées
- pondérer POND les deuxièmes données captées
- weight POND the second captured data
Notamment, la position relative courante du deuxième capteur par rapport au premier utilisateur est égale ou fonction de la position courante du deuxième capteur relativement à la position courante d’un premier capteur, lorsque le premier utilisateur porte un premier capteur.In particular, the current relative position of the second sensor relative to the first user is equal to or a function of the current position of the second sensor relative to the current position of a first sensor, when the first user is wearing a first sensor.
En particulier, les données captées dk, k=1,2, d1, d2,
- une image captée ;
- une image infrarouge captée ;
- une vidéo captée ;
- un mouvement capté ;
- une profondeur captée
- etc.In particular, the captured data d k, k=1,2 , d 1 , d 2 ,
- a captured image;
- an infrared image captured;
- a captured video;
- a captured movement;
- a captured depth
- etc.
En particulier, l’entité virtuelle EV1 associée au premier utilisateur U1 est une entité parmi les suivantes :
- un avatar EV1 du premier utilisateur U1 ;
- un être virtuel, notamment un animal virtuel, une plante virtuelle… ;
- un dispositif mobile virtuel, notamment un robot virtuel, un véhicule virtuel, une machine virtuelle…
- etc.In particular, the virtual entity EV1 associated with the first user U1 is one of the following entities:
- an EV1 avatar of the first user U1;
- a virtual being, in particular a virtual animal, a virtual plant, etc.;
- a virtual mobile device, including a virtual robot, a virtual vehicle, a virtual machine, etc.
- etc.
Le premier utilisateur U1 et le deuxième utilisateur U2,
En particulier, l’animation EV_ANIM comporte :
- recevoir RCV (non illustrée) des données captées dkd’un ou plusieurs capteurs ck(k=1,2), notamment des deuxièmes données captées d2,
- receive RCV (not shown) of the data captured d k from one or more sensors c k (k=1,2), in particular of the second data captured d 2 ,
En particulier, l’animation EV_ANIM comporte :
- extraire XTR des données captées dk, d1, d2,
- extract XTR from the captured data d k , d1, d 2 ,
Eventuellement, l’extraction XTR extrait des données captées dk, d1, d2,
En particulier, la pondération POND pondère les données captées extraites
En particulier, l’estimation de position réelle courante RP_EST est effectuée en fonction des données captées extraites pondérées.In particular, the current real position estimation RP_EST is performed based on the weighted extracted captured data.
En particulier, soit la génération de réalité virtuelle RV_GN générant un ou plusieurs éléments de réalité virtuelle dont l’entité virtuelle EV1 associée avec le premier utilisateur U1, soit l’animation d’entité virtuelle EV_ANIM comporte :
- déplacer une première partie mobile
- move a first mobile part
Soit le déplacement de l’entité virtuelle EV_MV commande
Ainsi, le mouvement de l’utilisateur U1 déclenche un mouvement de l’entité virtuelle associée EV1. En particulier, lorsque l’entité virtuelle associée EV1 est un avatar ou un jumeau numérique de l’utilisateur U1, le mouvement de l’entité virtuelle eV1 est alors un mouvement jumeau du mouvement réel effectué par l’utilisateur U1, c’est-à-dire un mouvement virtuel répliquant le mouvement réel effectué par l’utilisateur U1.Thus, the movement of the user U1 triggers a movement of the associated virtual entity EV1. In particular, when the associated virtual entity EV1 is an avatar or a digital twin of the user U1, the movement of the virtual entity eV1 is then a twin movement of the real movement performed by the user U1, that is to say a virtual movement replicating the real movement performed by the user U1.
En particulier, la génération de réalité virtuelle et/ou la reproduction de réalité virtuelle sont mises en œuvre par un système de réalité virtuelle SRV. Notamment, la génération de réalité virtuelle RV_GN est mise en œuvre par un simulateur de réalité virtuelle RV_SIMU (non illustré). Et, la reproduction de réalité virtuelle est, par exemple, mise en œuvre par un ou plusieurs dispositifs portatifs de reproduction DRk (non illustrés), notamment un premier dispositif portatif de reproduction DR1 porté par un premier utilisateur U1 et un deuxième dispositif portatif de reproduction DR2 porté par un deuxième utilisateur U2.In particular, the virtual reality generation and/or the virtual reality reproduction are implemented by a virtual reality system SRV. In particular, the virtual reality generation RV_GN is implemented by a virtual reality simulator RV_SIMU (not shown). And, the virtual reality reproduction is, for example, implemented by one or more portable reproduction devices DRk (not shown), in particular a first portable reproduction device DR1 worn by a first user U1 and a second portable reproduction device DR2 worn by a second user U2.
En particulier, l’animation EV_ANIM d’une entité virtuelle EV1 d’un système de réalité virtuelle lors de la reproduction de l’entité virtuelle RV_RPR permet non seulement une animation instantanée de l’entité virtuelle en fonction de mouvement mvt du premier utilisateur U1 auquel elle est associée, notamment de la position réelle courante estimée d’une première partie mobile du premier utilisateur
De manière réciproque, une entité virtuelle EV2 (non illustrée) peut être associée à l’utilisateur U2, et le procédé d’animation EV_ANIM selon l’invention utilisé pour animer cette entité virtuelle EV2 associée à l’utilisateur U2, alors considéré par le procédé d’animation EV_ANIM comme premier utilisateur U2, en fonction de deuxièmes données captées par un capteur c1 porté par l’utilisateur U1, alors considéré par le procédé d’animation EV_ANIM comme deuxième capteur c1 porté par le deuxième utilisateur U2.Conversely, a virtual entity EV2 (not illustrated) can be associated with the user U2, and the animation method EV_ANIM according to the invention used to animate this virtual entity EV2 associated with the user U2, then considered by the animation method EV_ANIM as the first user U2, based on second data captured by a sensor c1 worn by the user U1, then considered by the animation method EV_ANIM as the second sensor c1 worn by the second user U2.
La
Le procédé de simulation de réalité virtuelle RV_PSIM comporte :
- générer RV_GN une réalité virtuelle RV (voir
- animer EV_ANIM l’entité virtuelle EV1 (voir
- generate RV_GN a virtual reality VR (see
- animate EV_ANIM the virtual entity EV1 (see
+ déterminant VP_DT une position virtuelle courante
En particulier, le procédé d’animation EV_ANIM comporte :In particular, the EV_ANIM animation process includes:
- estimer RP_EST une position réelle courante
la détermination VP_DT de la position virtuelle courante
the VP_DT determination of the current virtual position
Notamment, le procédé de simulation de réalité virtuelle RV_PSIM comporte :
- générer RV_GN une réalité virtuelle RV apte à être reproduite simultanément par un premier dispositif portatif de reproduction de réalité virtuelle DR1 porté par un premier utilisateur U1 et un deuxième dispositif portatif de reproduction de réalité virtuelle DR2 porté par un deuxième utilisateur U2, la réalité virtuelle RV comportant au moins une entité virtuelle EV1; et
- animer EV_ANIM l’entité virtuelle EV1 associée à un premier utilisateur U1 en :
+ estimant RP_EST une position réelle courante
+ déterminant VP_DT une position virtuelle courante
- generating RV_GN a virtual reality VR capable of being reproduced simultaneously by a first portable virtual reality reproduction device DR1 worn by a first user U1 and a second portable virtual reality reproduction device DR2 worn by a second user U2, the virtual reality VR comprising at least one virtual entity EV1; and
- animate EV_ANIM the virtual entity EV1 associated with a first user U1 by:
+ estimating RP_EST a current real position
+ determining VP_DT a current virtual position
En particulier, la génération de réalité virtuelle RV_GN comporte :
- une génération d’entité virtuelle EV_GN dont l’entité virtuelle associée au premier utilisateur U1.In particular, the VR_GN virtual reality generation includes:
- a generation of virtual entity EV_GN whose virtual entity is associated with the first user U1.
En particulier, la génération de réalité virtuelle RV_GN comporte :
- une génération d’environnement virtuel ZV_GN.In particular, the VR_GN virtual reality generation includes:
- a generation of ZV_GN virtual environment.
Ainsi, la réalité virtuelle générée est une réalité virtuelle immersive ou une virtualité augmentée.Thus, the virtual reality generated is an immersive virtual reality or an augmented virtuality.
En particulier, la génération de réalité virtuelle RV_GN fournit à l’animation d’entité virtuelle EV_ANIM des données relatives à l’entité virtuelle associée au premier utilisateur ev1, notamment des données de reproduction de l’entité virtuelle associée au premier utilisateur.In particular, the virtual reality generation RV_GN provides the virtual entity animation EV_ANIM with data relating to the virtual entity associated with the first user ev1, in particular reproduction data of the virtual entity associated with the first user.
En particulier, l’animation EV_ANIM du procédé de simulation de réalité virtuelle RV_PSIM comporte une ou plusieurs des étapes du procédé d’animation EV_ANIM décrit ci-dessus en association avec la
En particulier, l’animation EV_ANIM comporte :In particular, the EV_ANIM animation includes:
- déplacer EV_MV une première partie mobile
En particulier, le procédé de simulation comporte :
- modifier RV_MDF ces données générées relatives à l’entité virtuelle associée au premier utilisateur ev1 en fonction de la position virtuelle courante déterminée
- modify RV_MDF this generated data relating to the virtual entity associated with the first user ev1 according to the current virtual position determined
En particulier, la modification de la réalité virtuelle RV_MDF comporte :
- remplacer EV_RPL (non illustrée) ces données générées relatives à l’entité virtuelle associée au premier utilisateur ev1 par des données relatives à l’entité virtuelle déplacée
- replace EV_RPL (not shown) this generated data relating to the virtual entity associated with the first user ev1 with data relating to the moved virtual entity
Notamment, la modification de réalité virtuelle RV_MDF effectue ce remplacement dans les données générées de réalité virtuelle rv fournies par la génération de réalité virtuelle RV_GN comportant les données générées de l’entité virtuelle associée au premier utilisateur ev1 et éventuellement des données générées d’autre(s) entité(s) virtuelle(s)
Ainsi, soit l’animation d’entité virtuelle EV_ANIM fournit des données relatives à l’entité virtuelle
So either the virtual entity animation EV_ANIM provides data relating to the virtual entity
De manière alternative, la modification de la réalité virtuelle RV_MDF comporte :
- une mise à jour des données de reproduction relatives soit à la première partie mobile
- an update of the reproduction data relating to either the first moving part
Ainsi, le mouvement de l’utilisateur U1 déclenche un mouvement de l’entité virtuelle associée EV1. En particulier, lorsque l’entité virtuelle associée EV1 est un avatar ou un jumeau numérique de l’utilisateur U1, le mouvement de l’entité virtuelle eV1 est alors un mouvement jumeau du mouvement réel effectué par l’utilisateur U1, c’est-à-dire un mouvement virtuel répliquant le mouvement réel effectué par l’utilisateur U1.Thus, the movement of the user U1 triggers a movement of the associated virtual entity EV1. In particular, when the associated virtual entity EV1 is an avatar or a digital twin of the user U1, the movement of the virtual entity eV1 is then a twin movement of the real movement performed by the user U1, that is to say a virtual movement replicating the real movement performed by the user U1.
Ainsi, le procédé de simulation de réalité virtuelle RV_PSIM fourni des données de réalité virtuelle rv comportant des données relatives à l’entité virtuelle
Un mode de réalisation particulier du procédé d’animation et/ou du procédé de simulation de réalité virtuelle est un programme comprenant des instructions de code de programme pour l’exécution des étapes respectivement du procédé d’animation et/ou du procédé de simulation de réalité virtuelle lorsque ledit programme est exécuté par un processeur.A particular embodiment of the animation method and/or the virtual reality simulation method is a program comprising program code instructions for executing the steps respectively of the animation method and/or the virtual reality simulation method when said program is executed by a processor.
La
Le simulateur de réalité virtuelle 1,61 comporte :
- un générateur 11 de réalité virtuelle rv apte à être reproduite simultanément par un premier dispositif 21, 621portatif de reproduction de réalité virtuelle porté par un premier utilisateur 41du simulateur de réalité virtuelle et un deuxième dispositif 22,
- un contrôleur 12 d’animation de l’entité virtuelle 51associée à un premier utilisateur 41lors de la reproduction de l’entité virtuelle, l’entité virtuelle 51étant composée d’au moins une première partie mobile
+ déterminer une position virtuelle courante
- a generator 11 of virtual reality rv capable of being reproduced simultaneously by a first portable device 2 1 , 62 1 for reproducing virtual reality worn by a first user 4 1 of the virtual reality simulator and a second device 2 2,
- a controller 12 for animating the virtual entity 5 1 associated with a first user 4 1 during the reproduction of the virtual entity, the virtual entity 5 1 being composed of at least a first mobile part
+ determine a current virtual position
En particulier, le générateur de réalité virtuelle 11 comporte :
- un générateur 112 d’entité virtuelle ev1 dont l’entité virtuelle 51associée au premier utilisateur 41.In particular, the virtual reality generator 11 comprises:
- a generator 112 of virtual entity ev1 whose virtual entity 5 1 is associated with the first user 4 1 .
En particulier, le générateur de réalité virtuelle 11 comporte :
- un générateur 111 d’environnement virtuel zv.In particular, the virtual reality generator 11 comprises:
- a 111 virtual environment generator zv.
Ainsi, la réalité virtuelle générée rv est une réalité virtuelle immersive ou une virtualité augmentée.So, the virtual reality generated rv is an immersive virtual reality or an augmented virtuality.
A noter, rv, ev, zv représentent les signaux de reproduction générés respectivement d’une réalité virtuelle 5, d’une entité virtuelle telle que celle associée 51au premier utilisateur 41, un environnement virtuel (non illustré).Note, rv, ev, zv represent the reproduction signals generated respectively from a virtual reality 5, from a virtual entity such as that associated 5 1 with the first user 4 1 , a virtual environment (not illustrated).
En particulier, le générateur de réalité virtuelle 11 fournit au contrôleur d’animation d’entité virtuelle 12 des données relatives à l’entité virtuelle associée au premier utilisateur ev1 dont la partie mobile est dans une position virtuelle prédéterminée
En particulier le contrôleur d’animation 12 comporte un calculateur 125 de position virtuelle courante
En particulier, le contrôleur d’animation 12 est apte à :
- estimer une position réelle courante
la détermination de la position virtuelle courante
- estimate a current real position
determining the current virtual position
En particulier, le contrôleur d’animation 12 comporte :
- un estimateur 123 de position réelle courante
- a 123 estimator of current real position
Ainsi, le calculateur 125 est apte à déterminer la position virtuelle courante
Avantageusement, le contrôleur d’animation 12 comporte un traceur 123 apte à estimer la position réelle courante
Avantageusement, le simulateur de réalité virtuelle 1, 61 comporte un transmetteur de signaux 10 connecté au premier dispositif portatif de reproduction de réalité virtuelle 21, 621, au deuxième dispositif portatif de reproduction de réalité virtuelle 22,
Avantageusement, le transmetteur 10 est connecté au premier dispositif portatif de reproduction de réalité virtuelle 21, 621, au deuxième dispositif portatif de reproduction de réalité virtuelle 22,
Le premier utilisateur 41et le deuxième utilisateur 42,
En particulier, le simulateur de réalité virtuelle 1 comporte :
- un récepteur 103 des données captées dkd’un ou plusieurs capteurs 2k(k=1,2), notamment des deuxièmes données captées d2,
- a receiver 103 of the captured data d k from one or more sensors 2 k (k=1,2), in particular the second captured data d 2 ,
En particulier, le contrôleur d’animation 12 comporte :
- un extracteur 121 des données captées dk, d1, d2,
- an extractor 121 of the captured data d k , d1, d 2 ,
Eventuellement, l’extracteur 121 est apte à extraire des données captées dk, d1, d2,
En particulier, lorsque le contrôleur d’animation 12 reçoit plusieurs des deuxièmes données captées
- un pondérateur 122 des deuxièmes données captées
- a 122 weighter of the second data captured
Notamment, la position relative courante du deuxième capteur par rapport au premier utilisateur est égale ou fonction de la position courante du deuxième capteur relativement à la position courante d’un premier capteur, lorsque le premier utilisateur porte un premier capteur.In particular, the current relative position of the second sensor relative to the first user is equal to or a function of the current position of the second sensor relative to the current position of a first sensor, when the first user is wearing a first sensor.
En particulier, le pondérateur 122 est apte à pondérer les données captées extraites
En particulier, l’estimateur 123 est apte à estimer une position réelle courante en fonction des données captées extraites pondérées fournies par le pondérateur 122.In particular, the estimator 123 is able to estimate a current real position based on the weighted extracted captured data provided by the weighter 122.
En particulier, le contrôleur d’animation 12 comporte :
- des moyens d’attribution conditionnelle 124 apte à attribuer au premier utilisateur la position virtuelle courante déterminée en fonction des données captées relatives à au moins une première partie d’un corps d’un utilisateur
- conditional allocation means 124 capable of allocating to the first user the current virtual position determined as a function of the captured data relating to at least a first part of a user's body
Les données captées
En particulier, le contrôleur d’animation 12 comporte :
- des moyens d’attribution 1241 apte à attribuer au premier utilisateur la position virtuelle courante déterminée en fonction des données captées relatives à au moins une première partie d’un corps d’un utilisateur
- allocation means 1241 capable of assigning to the first user the current virtual position determined as a function of the captured data relating to at least a first part of a user's body
- un vérificateur 1240 apte vérifier si une première partie d’un corps d’un utilisateur
Les données captées
The data collected
Notamment, les moyens d’attribution conditionnelle 124 comporte les moyens d’attribution 1241 et le vérificateur 1240.In particular, the conditional allocation means 124 includes the allocation means 1241 and the verifier 1240.
Notamment, le vérificateur 1240 vérifie si une première partie d’un corps d’un utilisateur
En particulier, le calculateur 125 est apte à déterminer la position virtuelle courante
En particulier, soit le générateur de réalité virtuelle 11 apte à générer un ou plusieurs éléments de réalité virtuelle dont l’entité virtuelle 51associée avec le premier utilisateur 41(non illustré), soit le contrôleur d’animation 12 comporte :
- un actionneur 126 apte déplacer une première partie mobile
- an actuator 126 capable of moving a first movable part
Soit l’actionneur 126 d’entité virtuelle commande
En particulier, le simulateur de réalité virtuelle 1 comporte :
- un modificateur 116 des données générées relatives à l’entité virtuelle associée au premier utilisateur ev1 en fonction de la position virtuelle courante déterminée
- a modifier 116 of the generated data relating to the virtual entity associated with the first user ev1 according to the current virtual position determined
Eventuellement, le générateur de réalité virtuelle 11 comporte le modificateur 116 des données générées relatives à l’entité virtuelle.Optionally, the virtual reality generator 11 includes the modifier 116 of the generated data relating to the virtual entity.
En particulier, le modificateur de réalité virtuelle 116 est apte à :
- remplacer ces données générées relatives à l’entité virtuelle associée au premier utilisateur ev1 par des données relatives à l’entité virtuelle déplacée
- replace this generated data relating to the virtual entity associated with the first user ev1 with data relating to the moved virtual entity
Notamment, le modificateur de réalité virtuelle 116 est apte à effectuer ce remplacement dans les données générées de réalité virtuelle rv fournies par le générateur de réalité virtuelle 11 comportant les données générées de l’entité virtuelle associée au premier utilisateur ev1 et éventuellement des données générées d’autre(s) entité(s) virtuelle(s)
Ainsi, soit le contrôleur d’animation d’entité virtuelle 12 est apte à fournir des données relatives à l’entité virtuelle
Thus, either the virtual entity animation controller 12 is able to provide data relating to the virtual entity
De manière alternative, le modificateur de réalité virtuelle 116 est pate à :
- mettre à jour des données de reproduction relatives soit à la première partie mobile
- update reproduction data relating to either the first moving part
Ainsi, le simulateur de réalité virtuelle 1 est apte à fournir des données de réalité virtuelle rv comportant des données relatives à l’entité virtuelle
Un système de réalité virtuelle 6 comporte :
- un premier dispositif portatif de reproduction 621porté par un premier utilisateur 41,
- un deuxième dispositif portatif de reproduction 622,
- un premier capteur 631, 6231porté par le premier utilisateur 41,
- un deuxième capteur 632,
- un simulateur de réalité virtuelle 61 selon l’invention, notamment tel que décrit ci-dessus.A virtual reality system 6 includes:
- a first portable reproduction device 62 1 carried by a first user 4 1 ,
- a second portable reproduction device 62 2,
- a first sensor 63 1 , 623 1 worn by the first user 4 1 ,
- a second sensor 63 2 ,
- a virtual reality simulator 61 according to the invention, in particular as described above.
Avantageusement, le premier capteur 6231et le deuxième capteur 6232,
Avantageusement, le système de réalité virtuelle 6 comporte plusieurs deuxièmes capteurs distincts
La
Dans l’exemple de la
Le système de réalité virtuelle 6 comporte un premier dispositif portatif de réalité virtuelle 621porté par un premier utilisateur réel 41, nommé premier utilisateur par abus de langage, et un deuxième dispositif portatif de réalité virtuelle 622porté par un deuxième utilisateur réel 42, nommé deuxième utilisateur par abus de langage.The virtual reality system 6 comprises a first portable virtual reality device 62 1 worn by a first real user 4 1 , called first user by misuse of language, and a second portable virtual reality device 62 2 worn by a second real user 4 2 , called second user by misuse of language.
Les utilisateurs partagent alors un même espace de réalité virtuel ou « Shared Virtual Space » en anglais, SVS.Users then share the same virtual reality space or “Shared Virtual Space” in English, SVS.
Le système de réalité virtuelle 6 est apte à générer un avatar ou entité virtuelle pour chaque utilisateur réel. Ainsi, un premier utilisateur mixte 451comporte le premier utilisateur réel 41et un premier avatar 51associé à ce premier utilisateur, et un deuxième utilisateur mixte 452comporte le deuxième utilisateur réel 42et un deuxième avatar 52associé à ce deuxième utilisateur.The virtual reality system 6 is capable of generating an avatar or virtual entity for each real user. Thus, a first mixed user 45 1 comprises the first real user 4 1 and a first avatar 5 1 associated with this first user, and a second mixed user 45 2 comprises the second real user 4 2 and a second avatar 5 2 associated with this second user.
Les dispositifs de réalité virtuelle, respectivement le premier dispositif de réalité virtuelle 621et le deuxième dispositif de réalité virtuelle 622comportent notamment une partie matérielle 62H1, 62H2comportant notamment un dispositif de reproduction de réalité virtuelle et un capteur, et une partie simulateur de réalité virtuelle 62S1, 62S2notamment sous la forme d’un processeur exécutant un programme comprenant des instructions de code de programme pour l’exécution des étapes d’un procédé de simulation de réalité virtuelle.The virtual reality devices, respectively the first virtual reality device 62 1 and the second virtual reality device 62 2 comprise in particular a hardware part 62H 1 , 62H 2 comprising in particular a virtual reality reproduction device and a sensor, and a virtual reality simulator part 62S 1 , 62S 2 in particular in the form of a processor executing a program comprising program code instructions for executing the steps of a virtual reality simulation method.
Les dispositifs de réalité virtuelle 621et 622sont notamment des casques de réalité augmentés aussi nommés « Optical See-Trough – Head-Mounted Display » en anglais, OST-HMD.The virtual reality devices 62 1 and 62 2 are in particular augmented reality headsets also called “Optical See-Trough – Head-Mounted Display” in English, OST-HMD.
Les parties matérielles 62H1, 62H2des premiers et deuxièmes dispositifs de réalité virtuelle 621, 622sont notamment aptes à capter différentes parties du corps du premier et du deuxième utilisateurs réels 41et 42: ii1, respectivement du deuxième et du premier utilisateurs réels 42et 41: ii2. Les données captées ii1 et ii2 propre à l’utilisateur porteur respectivement au premier utilisateur et au deuxième utilisateur permettent une interaction intuitive de l’utilisateur 41et 42avec l’avatar 51et 52qui lui est associé. En outre, les capteurs des parties matérielles 62H1, 62H2sont aptes à capter des données relatives à l’environnement dont des données relatives à d’autres utilisateurs respectivement deuxième utilisateur et premier utilisateur d1, d2.The hardware parts 62H 1 , 62H 2 of the first and second virtual reality devices 62 1 , 62 2 are in particular capable of capturing different parts of the body of the first and second real users 4 1 and 4 2 : ii1, respectively of the second and first real users 4 2 and 4 1 : ii2. The captured data ii1 and ii2 specific to the user wearing the device, respectively to the first user and to the second user, allow intuitive interaction of the user 4 1 and 4 2 with the avatar 5 1 and 5 2 associated with him. Furthermore, the sensors of the hardware parts 62H 1 , 62H 2 are capable of capturing data relating to the environment, including data relating to other users, respectively second user and first user d1, d2.
Notamment, la première partie 62S1du simulateur de réalité virtuelle (c’est-à-dire celle embarquée dans le premier dispositif de réalité virtuelle 621) suit t1 les parties du corps du premier utilisateur 41et les parties du corps du deuxième utilisateur 42en fonction des données d’interaction intuitive ii1 captées, respectivement la deuxième partie 62S2du simulateur de réalité virtuelle (c’est-à-dire celle embarquée dans le deuxième dispositif de réalité virtuelle 622) suit t2 les parties du corps du premier utilisateur 41et les parties du corps du deuxième utilisateur 42en fonction des données d’interaction intuitive ii2 captées.In particular, the first part 62S 1 of the virtual reality simulator (i.e. the one embedded in the first virtual reality device 62 1 ) follows t1 the parts of the body of the first user 4 1 and the parts of the body of the second user 4 2 according to the intuitive interaction data ii1 captured, respectively the second part 62S 2 of the virtual reality simulator (i.e. the one embedded in the second virtual reality device 62 2 ) follows t2 the parts of the body of the first user 4 1 and the parts of the body of the second user 4 2 according to the intuitive interaction data ii2 captured.
Non seulement, le simulateur de réalité virtuelle, en particulier la première partie 62S1du simulateur de réalité virtuelle, respectivement la deuxième partie 62S2du simulateur de réalité virtuelle, commande un avatar, en particulier le premier avatar 51, respectivement le deuxième avatar 52, en fonction d’une auto estimation de la position de la partie de l’utilisateur associé (tête, yeux, mains, doigts…), en particulier du premier utilisateur 41, respectivement du deuxième utilisateur 42:
Par estimation à distance est entendu l’estimation d’une position d’un autre utilisateur que l’utilisateur porteur du dispositif de réalité virtuelle mettant en œuvre cette estimation à distance. L’autre utilisateur est néanmoins colocalisé avec l’utilisateur porteur du dispositif de réalité virtuelle mettant en œuvre cette estimation à distance.Remote estimation means the estimation of a position of a user other than the user wearing the virtual reality device implementing this remote estimation. The other user is nevertheless co-located with the user wearing the virtual reality device implementing this remote estimation.
Ainsi, le suivi d’une partie mobile d’un utilisateur, notamment de la main de cet utilisateur, bénéficie de la fusion des deux zones de suivi de la main et l’extension du suivi à d’autres parties du corps.Thus, tracking a moving part of a user, particularly the user's hand, benefits from the fusion of the two hand tracking areas and the extension of tracking to other parts of the body.
L’intérêt d’utiliser l’estimation propre et l’estimation réciproque ou à distance est gagner en précision de suivi et de continuer le suivi même si une partie de l’utilisateur est occultée vue du capteur porté par cet utilisateur.The advantage of using self-estimation and reciprocal or remote estimation is to gain tracking precision and to continue tracking even if part of the user is hidden from the view of the sensor worn by this user.
La
Le premier utilisateur 41comporte plusieurs premières parties reliées entre elles et à un squelette (non illustré) constituant une deuxième partie du premier utilisateur 41. Les premières parties du premier utilisateur 41sont notamment la tête
Le deuxième utilisateur 42comporte plusieurs premières parties reliées entre elles et à un squelette (non illustré) constituant une deuxième partie du deuxième utilisateur 42. Les deuxièmes parties du deuxième utilisateur 42sont notamment la tête
Un autre atout de l’invention est de pouvoir fonctionner sur un réseau local uniquement constitué par les dispositifs portatifs de réalité virtuelle, tels que des casques de réalité mixte. Cela évite de passer par un serveur « annuaire » pour mettre en relation les casques avec des capteurs fixes instrumentant un environnement. Ainsi, le traitement de fusion/désambiguïsation des données de suivi des parties d’un utilisateur peut être effectué seulement par les casques sans connaissance du lieu où se trouve l’utilisateur.Another advantage of the invention is that it can operate on a local network consisting solely of portable virtual reality devices, such as mixed reality headsets. This avoids having to go through a “directory” server to connect the headsets with fixed sensors instrumenting an environment. Thus, the fusion/disambiguation processing of the tracking data of a user’s parts can be performed solely by the headsets without knowledge of the user’s location.
Une estimation de la topologie des casques de réalité mixte permet de prioriser la validité des données de suivi (par exemple position réelle estimée) de chacun des casques. Notamment, le casque le plus en face d’un premier utilisateur aura les données les plus pertinente pour désambiguïser le suivi des mains de ce premier utilisateur.An estimation of the topology of mixed reality headsets allows to prioritize the validity of the tracking data (e.g. estimated real position) of each of the headsets. In particular, the headset most in front of a first user will have the most relevant data to disambiguate the tracking of the hands of this first user.
Non seulement, le contrôleur d’animation 12, en particulier le traceur 123, suit les mains (premier partie mobile) d’un premier utilisateur détectées dans le champ de vision de son propre capteur, mais il reconstruit également le squelette (deuxième partie) des autres utilisateurs (deuxièmes utilisateurs). Cette reconstruction du squelette des autres utilisateurs permet de lever l’ambiguïté, c’est-à-dire de déterminer que les mains suivies sont les mains du premier utilisateur et non de deuxièmes utilisateurs car elles ne sont pas reliées aux squelettes reconstruit de ces deuxièmes utilisateurs.Not only does the animation controller 12, in particular the tracer 123, track the hands (first moving part) of a first user detected in the field of vision of its own sensor, but it also reconstructs the skeleton (second part) of the other users (second users). This reconstruction of the skeleton of the other users makes it possible to remove the ambiguity, that is to say to determine that the tracked hands are the hands of the first user and not of second users because they are not connected to the reconstructed skeletons of these second users.
Un autre intérêt de l’invention est de permettre de suivre les pieds du premier utilisateur au moyen du deuxième capteur du deuxième utilisateur. Le suivi des pieds permet d’améliorer le réalisme de l’animation du premier avatar associé au premier utilisateur aussi bien dans une réalité virtuelle immersive (métavers), que des réalités mixtes.Another interest of the invention is to allow the feet of the first user to be tracked by means of the second sensor of the second user. Tracking the feet makes it possible to improve the realism of the animation of the first avatar associated with the first user both in an immersive virtual reality (metaverse), as well as mixed realities.
C’est particulièrement utile dans le cas de deux groupes de collaborateurs intervenant à distance sur un espace virtuel partagé :
- Les utilisateurs du premier groupe de personnes colocalisées équipées en réalité augmentée n’ont pas besoin de percevoir de l’autre utilisateur colocalisé mais ont besoin d’un bon suivi sans ambiguïtés des parties réelles du corps animant des parties virtuelles de leur avatar interagissant avec l’espace virtuel partagé pour limiter les erreurs d’interaction ;
- Les utilisateurs du deuxième groupe de personnes distantes ont quant à eux besoin de voir les avatars des utilisateurs du premier groupe, y compris leurs pieds.
- Users of the first group of co-located people equipped with augmented reality do not need to perceive the other co-located user but need good unambiguous tracking of the real body parts animating virtual parts of their avatar interacting with the shared virtual space to limit interaction errors;
- Users in the second group of remote people need to see the avatars of users in the first group, including their feet.
Comme le montre la figure 4, certaines parties du corps du premier utilisateur 41peuvent être hors du champ visuel 251(zone hachurée en tiret) du premier capteur 231porté par le premier utilisateur 41. En l’occurrence, le premier capteur 231permet au contrôleur d’animation 12 selon l’invention d’estimer la position uniquement de la main droite du premier utilisateur
Le contrôleur d’animation 12 selon l’invention utilisant en outre les données captés par le deuxième capteur 232porté par le deuxième utilisateur 42pour effectuer le suivi des parties du corps du premier utilisateur 41, le champ visuel 252(zone hachurée en vaguelette) du deuxième capteur 232couvrant la totalité du corps du premier utilisateur peut ainsi suivre toutes les parties du corps du premier utilisateur 41, et pas seulement sa main droite
De manière réciproque, certaines parties du corps du deuxième utilisateur 42peuvent être hors du champ visuel 252(zone hachurée en vaguelette) du deuxième capteur 232porté par le deuxième utilisateur 42. En l’occurrence, le deuxième capteur 232permet au contrôleur d’animation 12 selon l’invention d’estimer la position uniquement de la main droite du deuxième utilisateur
Le contrôleur d’animation 12 selon l’invention utilisant en outre les données captés par le premier capteur 231porté par le premier utilisateur 41pour effectuer le suivi des parties du corps du deuxième utilisateur 42, le champ visuel 251(zone hachurée en tiret) du premier capteur 231couvrant la totalité du corps du deuxième utilisateur peut ainsi suivre toutes les parties du corps du deuxième utilisateur 42, et pas seulement sa main droite
La zone 251+2constitue une zone de suivi mutualisé des corps des utilisateurs.Zone 25 1+2 constitutes a shared monitoring zone for users’ bodies.
Ainsi, notre invention permet un suivi de la totalité des parties des corps des deux utilisateurs au moyen des deux capteurs portés par les deux utilisateurs alors que le capteur d’un utilisateur ne permet pas de suivre toutes les parties de son propre corps.Thus, our invention allows tracking of all parts of the bodies of both users by means of the two sensors worn by both users while the sensor of one user does not allow tracking of all parts of his own body.
L’invention permet donc de tirer bénéfice de la mutualisation des informations capturées par les casques et lunettes des utilisateurs colocalisés collaborant dans un espace de réalité virtuelle partagé. En effet, en combinant ces informations capturées, par exemple la carte de profondeur, de chaque casque ou lunettes présents, la détection et le suivi des mains d’un utilisateur est améliorés.The invention therefore makes it possible to benefit from the pooling of information captured by the headsets and glasses of co-located users collaborating in a shared virtual reality space. Indeed, by combining this captured information, for example the depth map, of each headset or glasses present, the detection and tracking of a user's hands is improved.
De plus chaque casque ou lunette capture un champ de vision ou champ visuel restreint (cf.
Mutualiser ces données pour reconstruire les mains des utilisateurs permet non seulement d’améliorer le suivi des doigts des utilisateurs lorsque les mains sont le champ de vision de la caméra du premier utilisateur mais aussi d’étendre ce suivi à des zones non couverte par cette seule caméra.Pooling this data to reconstruct users' hands not only improves tracking of users' fingers when the hands are the field of vision of the first user's camera, but also extends this tracking to areas not covered by this single camera.
Par conséquent, plus le nombre d’utilisateurs colocalisés est élevé plus cette mutualisation est performante.Therefore, the higher the number of co-located users, the more efficient this mutualization is.
L'invention vise aussi un support. Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique ou encore un moyen d'enregistrement magnétique, par exemple une disquette ou un disque dur.The invention also relates to a medium. The information medium may be any entity or device capable of storing the program. For example, the medium may comprise a storage means, such as a ROM, for example a CD ROM or a microelectronic circuit ROM or a magnetic recording means, for example a floppy disk or a hard disk.
D'autre part, le support d'informations peut être un support transmissible tel qu'un signal électrique ou optique qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau notamment de type Internet.On the other hand, the information medium may be a transmissible medium such as an electrical or optical signal which can be conveyed via an electrical or optical cable, by radio or by other means. The program according to the invention may in particular be downloaded from a network, in particular of the Internet type.
Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.Alternatively, the information carrier may be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the method in question.
Dans une autre implémentation, l'invention est mise en œuvre au moyen de composants logiciels et/ou matériels. Dans cette optique le terme module peut correspondre aussi bien à un composant logiciel ou à un composant matériel. Un composant logiciel correspond à un ou plusieurs programmes d'ordinateur, un ou plusieurs sous-programmes d'un programme, ou de manière plus générale à tout élément d'un programme ou d'un logiciel apte à mettre en œuvre une fonction ou un ensemble de fonction selon la description ci-dessus. Un composant matériel correspond à tout élément d'un ensemble matériel (ou hardware) apte à mettre en œuvre une fonction ou un ensemble de fonctions.In another implementation, the invention is implemented by means of software and/or hardware components. In this regard, the term module can correspond to either a software component or a hardware component. A software component corresponds to one or more computer programs, one or more subprograms of a program, or more generally to any element of a program or software capable of implementing a function or a set of functions according to the description above. A hardware component corresponds to any element of a hardware assembly capable of implementing a function or a set of functions.
Claims (15)
- déterminer une position virtuelle courante d’une première partie mobile d’une entité virtuelle associée au premier utilisateur en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du système de réalité virtuelle.Method for animating a virtual entity associated with a first user of a virtual reality system during reproduction of the virtual entity, the virtual entity being composed of at least a first mobile part, the animation comprising:
- determining a current virtual position of a first mobile part of a virtual entity associated with the first user based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality system.
- estimer une position réelle courante d’au moins une première partie du corps d’un premier utilisateur du système de réalité virtuelle en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du système de réalité virtuelle ;
la détermination de la position virtuelle courante de la première partie mobile de l’entité virtuelle associée au premier utilisateur étant effectuée en fonction de la position réelle courante estimée de la première partie du corps du premier utilisateur.Animation method according to the preceding claim, the animation method comprising:
- estimating a current real position of at least a first part of the body of a first user of the virtual reality system based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality system;
the determination of the current virtual position of the first mobile part of the virtual entity associated with the first user being carried out as a function of the estimated current real position of the first part of the body of the first user.
- si une première partie d’un corps d’un utilisateur à laquelle sont relatives les données captées est reliée à au moins une deuxième partie du corps du premier utilisateur, attribuer au premier utilisateur la position virtuelle courante déterminée en fonction des données captées relatives à au moins une première partie d’un corps d’un utilisateur, les données captées comportant au moins une donnée parmi les premières données captées et les deuxième données captées.Animation method according to one of the preceding claims, the animation method comprising:
- if a first part of a user's body to which the captured data relates is connected to at least a second part of the first user's body, assigning to the first user the current virtual position determined as a function of the captured data relating to at least a first part of a user's body, the captured data comprising at least one piece of data among the first captured data and the second captured data.
- pondérer les deuxièmes données captées fournies par un deuxième capteur en fonction d’une position relative courante du deuxième capteur par rapport au premier utilisateur préalablement à l’estimation de la position réelle courante en fonction de l’ensemble des deuxièmes données captées pondérées.Animation method according to one of claims 2 to 4, in which, when the estimation of the current real position receives several of the second data captured from several distinct second sensors worn by several distinct second users, the estimation of the current real position comprises:
- weighting the second captured data provided by a second sensor according to a current relative position of the second sensor with respect to the first user prior to estimating the current actual position according to all of the weighted second captured data.
- une image captée ;
- une image infrarouge captée ;
- une vidéo captée ;
- un mouvement capté ;
- une profondeur captée.Animation method according to one of the preceding claims, in which the captured data is one or more of the following data:
- a captured image;
- an infrared image captured;
- a captured video;
- a captured movement;
- a captured depth.
- générer une réalité virtuelle apte à être reproduit simultanément par un premier dispositif portatif de reproduction de réalité virtuelle porté par un premier utilisateur et un deuxième dispositif portatif de reproduction de réalité virtuelle porté par un deuxième utilisateur, la réalité virtuelle comportant au moins une entité virtuelle ; et
- animer l’entité virtuelle associée à un premier utilisateur en :
+ déterminant une position virtuelle courante d’une première partie mobile d’une entité virtuelle associée au premier utilisateur en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du système de réalité virtuelle.Virtual reality simulation method comprising:
- generating a virtual reality capable of being reproduced simultaneously by a first portable virtual reality reproduction device worn by a first user and a second portable virtual reality reproduction device worn by a second user, the virtual reality comprising at least one virtual entity; and
- animate the virtual entity associated with a first user by:
+ determining a current virtual position of a first mobile part of a virtual entity associated with the first user based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality system.
- un générateur de réalité virtuelle apte à être reproduite simultanément par un premier dispositif portatif de reproduction de réalité virtuelle porté par un premier utilisateur du simulateur de réalité virtuelle et un deuxième dispositif portatif de reproduction de réalité virtuelle porté par un deuxième utilisateur du simulateur de réalité virtuelle, la réalité virtuelle comportant au moins une entité virtuelle;
- un contrôleur d’animation de l’entité virtuelle associée à un premier utilisateur lors de la reproduction de l’entité virtuelle, l’entité virtuelle étant composée d’au moins une première partie mobile, le contrôleur d’animation étant apte à :
+ déterminer une position virtuelle courante d’une première partie mobile d’une entité virtuelle associée au premier utilisateur en fonction d’au moins des deuxièmes données relatives à la première partie du corps du premier utilisateur captées au moyen d’un deuxième capteur porté par un deuxième utilisateur du simulateur de réalité virtuelle.Virtual reality simulator including:
- a virtual reality generator capable of being reproduced simultaneously by a first portable virtual reality reproduction device worn by a first user of the virtual reality simulator and a second portable virtual reality reproduction device worn by a second user of the virtual reality simulator, the virtual reality comprising at least one virtual entity;
- an animation controller of the virtual entity associated with a first user during the reproduction of the virtual entity, the virtual entity being composed of at least a first mobile part, the animation controller being able to:
+ determine a current virtual position of a first mobile part of a virtual entity associated with the first user based on at least second data relating to the first part of the body of the first user captured by means of a second sensor worn by a second user of the virtual reality simulator.
- un premier dispositif portatif de reproduction porté par un premier utilisateur,
- un deuxième dispositif portatif de reproduction porté par un deuxième utilisateur,
- un premier capteur porté par le premier utilisateur,
- un deuxième capteur porté par le deuxième utilisateur, le premier capteur et le deuxième capteur étant colocalisés,
- un simulateur de réalité virtuelle selon l’une des revendications 9 à 12.Virtual reality system comprising:
- a first portable reproduction device carried by a first user,
- a second portable reproduction device carried by a second user,
- a first sensor worn by the first user,
- a second sensor worn by the second user, the first sensor and the second sensor being co-located,
- a virtual reality simulator according to one of claims 9 to 12.
Virtual reality system according to one of claims 13 or 14, the virtual reality system comprising several distinct second sensors worn by several distinct second users.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2301226A FR3145823A1 (en) | 2023-02-09 | 2023-02-09 | Animation of a virtual entity associated with a first user, simulation method and virtual reality simulator |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2301226A FR3145823A1 (en) | 2023-02-09 | 2023-02-09 | Animation of a virtual entity associated with a first user, simulation method and virtual reality simulator |
FR2301226 | 2023-02-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3145823A1 true FR3145823A1 (en) | 2024-08-16 |
Family
ID=86329509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2301226A Pending FR3145823A1 (en) | 2023-02-09 | 2023-02-09 | Animation of a virtual entity associated with a first user, simulation method and virtual reality simulator |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3145823A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350973A1 (en) * | 2015-05-28 | 2016-12-01 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
US20210149190A1 (en) * | 2019-11-14 | 2021-05-20 | Facebook Technologies, Llc | Co-located pose estimation in a shared artificial reality environment |
US20220221716A1 (en) * | 2021-01-12 | 2022-07-14 | University Of Central Florida Research Foundation, Inc. | Augmentation of Relative Pose in Co-Located Devices |
-
2023
- 2023-02-09 FR FR2301226A patent/FR3145823A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160350973A1 (en) * | 2015-05-28 | 2016-12-01 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
US20210149190A1 (en) * | 2019-11-14 | 2021-05-20 | Facebook Technologies, Llc | Co-located pose estimation in a shared artificial reality environment |
US20220221716A1 (en) * | 2021-01-12 | 2022-07-14 | University Of Central Florida Research Foundation, Inc. | Augmentation of Relative Pose in Co-Located Devices |
Non-Patent Citations (2)
Title |
---|
S. GOLODETZ ET AL.: "Live Collaborative Large-Scale Dense 3D Reconstruction Using Consumer-Grade Hardware", 2018 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY ADJUNCT (ISMAR-ADJUNCT, 2018, pages 413 - 414, XP033542826, DOI: 10.1109/ISMAR-Adjunct.2018.00122 |
WHAT IS VIRTUAL REALITY HAND TRACKING?, 23 June 2022 (2022-06-23), Retrieved from the Internet <URL:https://vrx.vr-expert.com/what-is-virtual-reality-hand-tracking> |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106575209B (en) | Virtual reality environment with real world objects | |
CN106575154B (en) | Intelligent transparency of holographic objects | |
US10055888B2 (en) | Producing and consuming metadata within multi-dimensional data | |
WO2020068140A1 (en) | Systems and methods for generating and transmitting image sequences based on sampled color information | |
EP1227442B1 (en) | 2D image processing applied to 3D objects | |
US20160027218A1 (en) | Multi-user gaze projection using head mounted display devices | |
CN110679152A (en) | Method and system for generating fused reality scenes based on virtual objects and based on real-world objects represented from different vantage points in different video data streams | |
US20190228580A1 (en) | Dynamic Creation of Augmented Reality Effects | |
CN108139801B (en) | System and method for performing electronic display stabilization via preserving light field rendering | |
US20210233312A1 (en) | Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality | |
CN103248810A (en) | Image processing device, image processing method, and program | |
CN109923509A (en) | The collaboration of object in virtual reality manipulates | |
US20220121343A1 (en) | Hand presence over keyboard inclusiveness | |
CN115131528B (en) | Virtual reality scene determination method, device and system | |
EP3754616A1 (en) | Location-based application stream activation | |
US11620796B2 (en) | Expert knowledge transfer using egocentric video | |
FR2911708A1 (en) | Intraframe i.e. key frame, creating method, involves acquiring image representing object in determined initial position, and creating intraframe from acquired image and relative installation of object in its environment | |
CN110663067A (en) | Method and system for generating a virtualized projection of a customized view of a real-world scene for inclusion in virtual reality media content | |
FR3068154A1 (en) | SYSTEMS AND METHODS FOR SELECTION OF SEATS IN VIRTUAL REALITY | |
EP3087727A1 (en) | An emotion based self-portrait mechanism | |
Papaefthymiou et al. | Rapid reconstruction and simulation of real characters in mixed reality environments | |
CN119137621A (en) | Concurrent human body pose estimation for virtual representation | |
FR3145823A1 (en) | Animation of a virtual entity associated with a first user, simulation method and virtual reality simulator | |
WO2006117374A2 (en) | Method for three-dimensionally reconstructing an articulated member or a set of articulated members | |
US20200101375A1 (en) | Deep learning from real world and digital exemplars |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20240816 |