[go: up one dir, main page]

EP3577531A1 - Analysing device for determining a latency time of an immersive virtual reality system - Google Patents

Analysing device for determining a latency time of an immersive virtual reality system

Info

Publication number
EP3577531A1
EP3577531A1 EP18707070.1A EP18707070A EP3577531A1 EP 3577531 A1 EP3577531 A1 EP 3577531A1 EP 18707070 A EP18707070 A EP 18707070A EP 3577531 A1 EP3577531 A1 EP 3577531A1
Authority
EP
European Patent Office
Prior art keywords
signal
screen
space
known position
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP18707070.1A
Other languages
German (de)
French (fr)
Inventor
Matthieu MIKA
Christophe MION
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Publication of EP3577531A1 publication Critical patent/EP3577531A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Definitions

  • the invention relates to immersive virtual reality systems.
  • immersive virtual reality systems are increasingly being used to immerse users in virtual environments. This is particularly the case, although not exclusively, in the field of vehicles, possibly of the automotive type.
  • Such an immersion may be intended, for example, to teach a user to evolve in a particular environment or to use objects or functions present in a particular environment, or to analyze the behavior of a user in a particular environment, or to observe a particular environment according to the position of a user in relation to the latter.
  • an immersive system includes:
  • At least one target that can be secured to a user (or sometimes an object) that is able to move in a predefined space
  • detection means able to detect the current position of this target in this predefined space and to deliver a signal representative of this current position
  • At least one display means responsible for displaying on at least one screen, installed in the predefined space, images (possibly three-dimensional (or 3D)) intended for this screen, and
  • processing means responsible for defining, in real time for each associated screen, three-dimensional (possibly stereoscopic) images of a chosen environment, as a function of the current position of the / each target and the position of the associated screen in the predefined space.
  • This time difference or delay results from the processing time of signals and data, the transmission time of signals, data and images, the graphical rendering time of computers and the time difference between the instant where the user is placed in a new position and the moment when the detection means detect the target (and therefore the user) in this new position.
  • the invention is therefore particularly intended to improve the situation.
  • an analysis device intended to perform analyzes in an immersive virtual reality system comprising:
  • detection means able to detect the current position of this target in this space and to deliver a first signal representative of this current position
  • At least one display means responsible for displaying, on at least one screen, installed in the predefined space, images intended for this screen, and
  • processing means responsible for defining images for this screen as a function of the detected position of the object.
  • a first sensor capable of generating a second signal when the object reaches a known position in this space
  • a second sensor capable of generating a third signal in the event of detection of an image change displayed on the screen, subsequent to the detection of the object in this known position by the detection means
  • analysis means coupled at least to the first and second sensors and suitable for determining a first instant of reception of the second signal and a second instant of reception of the third signal, then determining a first time difference (or latency) between the first and second reception instants determined.
  • the analysis device according to the invention may comprise other characteristics that can be taken separately or in combination, and in particular:
  • its analysis means may also be coupled to the detection means and processing means, and suitable for determining a third instant of reception of a first signal representative of the known position detected by the detection means, and a second time difference between the first and third reception instants determined, this second time difference being representative of a detection delay of the target in the known position by the detection means;
  • its analysis means may be able to determine a third time difference between the first and second time differences determined, this third time difference being representative of at least one image generation duration by the processing means during a change image;
  • its second sensor may be able to detect a variation in light intensity resulting from a change of image displayed on the screen
  • it may comprise a rail on which is able to move the object and which is adapted to be placed in the space so that the object can move to the known position; it can comprise a support on which the rail is fixedly fixed;
  • the rail can be secured to the support so as to be inclined at a predefined acute angle with respect to a horizontal plane of the space, and thus allow an automatic gravitational displacement of the object with respect to the rail between a position of departure and at least the known position;
  • it can comprise electromagnetic means fixedly installed on the rail, and clean, on the one hand, to immobilize the object in the starting position when placed in a first state of attraction, and secondly releasing the object so that it can move to the known position when placed in a second non-attractive state;
  • its first sensor may be able to be placed in the vicinity of the known position and to generate the second signal when the object contacts it.
  • the invention also proposes an immersive virtual reality system comprising at least one target capable of being secured to an object capable of moving in a space, detection means able to detect the current position of the target in this space and to delivering a first signal representative of this current position, at least one display means responsible for displaying, on at least one screen, installed in the predefined space, images intended for this screen, processing means responsible for defining images for the screen according to at least this current position detected, and an analysis device of the type of that presented above.
  • FIG. 1 diagrammatically and functionally illustrates an example of an immersive virtual reality system coupled to an exemplary embodiment of an analysis device according to the invention
  • FIG. 2 diagrammatically and functionally illustrates the analysis device of FIG. 1 with its object to be detected placed in a starting position
  • FIG. 3 schematically and functionally illustrates the analysis device of FIG. 1 with its object to be detected placed in a known (final) position.
  • the object of the invention is in particular to propose a DA analysis device intended to perform analyzes in an immersive virtual reality system SI in order to determine at least the global latency time and the latter (SI).
  • the virtual reality immersive system SI is intended to immerse a user in a virtual environment representative of at least a part of a vehicle, possibly of the automotive type. (such as a car). But the invention is not limited to this type of virtual environment. It concerns indeed any type of virtual environment.
  • FIG. 1 shows schematically an example of an immersive (virtual reality) system SI associated with a predefined space EP in which at least a partial embodiment of an analysis device DA according to the invention is at least partially installed.
  • an immersive (virtual reality) system SI comprises at least one CD target, detection means MD, processing means MT, and at least one display means PI, EA.
  • Each CD target is adapted to be secured to a user (or sometimes an OM object of the DA analysis device) which is adapted to move in a predefined EP space.
  • the detection means MD are able to detect the current position of each target CD in the predefined space EP and to deliver a first signal s1 which is representative of this current position.
  • Each EA screen is installed in the predefined EP space.
  • the processing means MT are responsible for defining, in real time for each associated screen EA, possibly three-dimensional (and possibly stereoscopic) images of a chosen environment, as a function of the detected position of the object OM (function of the current position of the / each CD target) and the position of the associated EA screen in the space predefined EP.
  • the processing means MT are loaded, at the request of the latter (DA), to define for each associated screen EA a first image until the object OM has not was detected by the detection means MD in a known position p2 in the EP space (see FIG. 3), and a second image when the object OM was detected by the detection means MD in this known position p2.
  • the first image may be all white, and the second image may be all black.
  • Each display means PI, EA is responsible for displaying on at least one EA screen, installed in the predefined space EP, images that are intended for this screen EA. It should be noted that each display means may comprise an EA screen and at least one PI projector, or an EA screen and an LCD type panel with its associated electronic control means, for example.
  • the number of EA screens is generally between one and five.
  • Each EA screen is installed in the predefined EP space.
  • At least one computer is responsible for defining in real time three-dimensional (possibly stereoscopic) images of the chosen environment for at least one associated EA screen, depending on the current position of the CD targets (possibly a door PC targets) and the position of this associated EA screen in the predefined EP space.
  • each PI projector is responsible for projecting on the associated screen EA three-dimensional images determined by the associated computer and for this EA screen.
  • the immersive system SI comprises only a display means comprising an EA screen associated with a projector P1. However, it could comprise several (at least two) PI display means. , EA. Moreover, each display means is generally associated with its own processing means MT. But we could consider that the same processing means (very powerful) define images for several (at least two) display means.
  • SI immersive system comprises several targets secured to a PC target holder intended to be secured to a user or an OM object of the analysis device DA to move in the predefined space EP.
  • the target gate PC here comprises four CD targets whose positions must be determined at each measurement instant by the detection means MD in order to deduce at each instant of measurement the current position of the object OM.
  • the PC target gate may include any number of CD targets, provided that this number is at least one (1).
  • the detection means MD here comprise two cameras each associated with an emitter of infrared photons and capable of filming in the infrared.
  • Each emitter emits an infrared beam that will be reflected on the targets (or spheres) CD.
  • Each camera records images of the photons reflected on the targets (or spheres) CD, and sends each recorded image to an image analysis computer which will deduce the position in the space of the target target PC at the instant considered.
  • the MD detection means could include more than two cameras.
  • the processing means MT can be subdivided into several parts (here four (01 -04)), when they have to define stereoscopic 3D images for at least one means of processing.
  • display here a PI projector associated with an EA screen.
  • the second part 02 may be a computer responsible for defining the images for the left eye.
  • the third part 03 may be a computer responsible for defining the images for the right eye.
  • the fourth part 04 may be a computer responsible for transmitting synchronously to the display means (here a projector PI associated with an EA screen) the images defined by the second OR2 and third OR3 parts according to the same position in progress detected by the detection means MD.
  • the first part 01 may be a computer coupled to the detection means MD and here to the second 02 and third 03 computers, and responsible for controlling the second 02 and third 03 computers according to the current positions detected by the detection means MD .
  • a device DA analysis comprises, in addition to the OM object, at least a first sensor C1, a second sensor C2 and analysis means MA.
  • the analysis device DA can inform the processing means MT so that they define for each associated screen EA the first image until the OM object has been detected by the detection means MD in the known position p2, and a second image when the object OM has been detected by the detection means MD in this known position p2.
  • the object OM is mobile so that it can move in the (predefined) space EP.
  • it must be equipped with at least one CD target, possibly forming part of a target PC gate (as in the non-limiting example illustrated in Figures 1 to 3).
  • the first sensor C1 is capable of generating a second signal s2 when the object OM reaches a known position p2 in the space EP (see FIG. 3).
  • This first sensor C1 can, for example and as illustrated without limitation in FIGS. 1 to 3, be adapted to be placed in the vicinity of the known position p2 and to generate the second signal s2 when the object OM contacts it.
  • it may, for example, be of piezoelectric or capacitive or inductive or mechanical type. But in an alternative embodiment the detection could be done without contact (and therefore at a distance), for example by interrupting a light beam passing through the known position p2.
  • the second sensor C2 is capable of generating a third signal s3 when an image change displayed on the screen EA is detected.
  • display image change is meant here the replacement of a first image by a second image immediately distinguishable from the first image by at least one characteristic. For example, when the first image is all white and the second image is all black, the second sensor C2 can generate a third signal s3 when it detects on the EA screen the transition from white to black.
  • This second sensor C2 may, for example, be able to detect a variation in light intensity resulting from an image change displayed on the EA screen.
  • it may be a photodiode which delivers a third signal s3 when it detects not only white.
  • This first time difference and1 constitutes the overall latency time of the immersive system S1 since it is equal to the difference between the instant in which the object OM (representing a user) changes position (here is detected in p2 by the first sensor C1) and the instant i2 where is displayed on the screen EA the new (or second) image (for example all black and which represents the image resulting from the detection of the object OM in p2 by means of MD detection).
  • the known position p2 serves as a reference position with respect to which the analysis means MA determine the first time difference (or overall latency) and 1.
  • the analysis means MA when they receive at a time a second signal s2 generated by the first sensor C1, they record this instant as the first moment it, and when they receive at a moment a third signal s3 generated by the second sensor C2, they record this moment as second time i2.
  • the triggering of the image change is carried out automatically by the processing means MT (here the first part 01) when they receive MD detection means a first signal s1 representative of the known position p2 detected for the OM object.
  • the analysis means MA are part of a computer OR which is coupled (directly or indirectly) to the first C1 and second C2 sensors and to the detection means MD (here via the first computer 01 means of MT treatment of the SI immersive system).
  • the analysis means MA could constitute an electronic equipment (for example comprising an oscilloscope and an electronic signal analysis circuit) coupled (directly or indirectly) to the first C1 and second C2 sensors and to the detection means MD of the immersive system.
  • the analysis means MA could be implanted in the processing means MT (for example in the first computer 01 which is coupled to the detection means MD). Therefore, these analysis means MA can be made in the form of software modules (or computer (or "software”)), or a combination of electronic circuits (or “hardware”) and software modules.
  • the analysis means MA when the analysis means MA are coupled to the detection means MD and processing means MT, they may also be suitable for determining a third instant i3 for receiving the first signal s1 which is representative of the known position p2 detected. For example, when the analysis means MA receive at a time a first signal s1 which represents the known position p2 detected, they record this instant as the third time i3. In this case, the analysis means MA are also able to determine a second time difference and 2 between the first 11th and third i3 instants of reception determined.
  • This second time difference and2 is representative of the detection delay of the target CD in the known position p2 by the detection means MD. Indeed, the moment it is the moment when the object OM (which materializes a user moving in the space EP) is found placed in a "new position" (here p2) and the moment i3 is the moment when the detection means MD detect the target (s) CD (and therefore the object OM) in this new position (here p2).
  • This second time difference and2 is particularly useful to know because it contributes significantly to the overall latency of the immersive system SI.
  • the analysis means MA may also be suitable for determining a third time difference and 3 between the first and second and second time differences determined.
  • This third time difference and3 is representative of at least the image generation duration by the MT processing means during a change of image (that is to say, following the receipt of the first signal s1 representative of p2).
  • This third time difference and 3 is also useful to know because it contributes significantly to the overall latency of the immersive system SI.
  • the analysis means MA may also be and possibly informed by each of the parts 01 to 04 of the processing means MT of the reception of a signal or instructions or of a data file and / or transmitting a signal or instructions or a data file to another equipment of the immersive system SI. This allows to deduce intermediate processing times which also participate in the overall latency of the immersive system SI. Thus, one can have all the contributions to the overall latency of the immersive system SI.
  • Moving the OM object can be done in different ways.
  • the analysis device DA may, for example, comprise a rail R on which is able to move the object OM and which is adapted to be placed in the space EP so that the object OM can move to the known position p2. In this case the displacement of the object OM is constrained.
  • this rail R may be a single axis, possibly of circular section but not necessarily.
  • the analysis device DA may also comprise a support SR on which the rail R is fixedly secured.
  • Such a support SR may, for example, be intended to be placed on the ground in the EP space. It can therefore allow a placement of the rail R in a position parallel to the ground or inclined at an acute angle predefined with respect to the ground and therefore with respect to a horizontal plane of the space EP (as illustrated without limitation in FIGS. 3).
  • the object OM In the first alternative (parallel), for the object OM to move from a starting position to the known position p2, it must either receive an initial pulse by a person, or be provided with an electric motor having preferably remotely controllable operation (eg example by wave).
  • the displacement of the object OM with respect to the rail R can be done automatically by gravitation between a starting position p1 (illustrated in FIGS. 1 and 2) and at least the known position p2 (illustrated in FIG. in Figure 3). In other words, the displacement results from the fall of the object OM along the rail R (along the arrow F1 of FIG. 2).
  • the angle of inclination of the rail R relative to the ground is equal to 90 °.
  • the analysis device DA may comprise electromagnetic means MEL fixedly installed on the rail R in the vicinity of the starting position p1.
  • electromagnetic means MEL are able, on the one hand, to immobilize the object OM in its starting position p1 when they are placed in a first state of attraction, and, on the other hand, to release the object OM so that it can move to the known position p2 when placed in a second non-attractive state.
  • These electromagnetic means MEL can, for example, be arranged in the form of an electromagnet which is attractive when it is supplied with current and not attractive when it is not supplied with current. Note that if the electromagnet is sufficiently powerful, it can also be used, when powered, to raise the OM object automatically from the known position p2 to its starting position p1.
  • Such electromagnetic means MEL may, for example, have an operation that is controllable remotely, possibly by wave. This control can be done via a computer coupled to the electromagnetic means MEL, and which is optionally that (OR) which can include the MA analysis means, or via a remote control. This allows a user to trigger the fall of the OM object to distance without jeopardizing the further detection in its fall by the MD detection means.
  • the first sensor C1 is fixedly secured to the rail R just below the known position p2 because the first sensor C1 provides contact detection.
  • the displacement of the object OM is not necessarily constrained, for example because of its attachment to a rail R.
  • the object OM is arranged in a manner to roll on the floor of the EP space.
  • it may comprise wheels which are possibly rotated by an electric motor.
  • the OM object moves from a starting position to the known position p2 by means of an initial pulse supplied by a person.
  • the operation of the latter induces the displacement of the object OM from a starting position to the known position p2.
  • This operation is then preferably remotely controllable (possibly by waves). This control can be done via a computer coupled to the object OM, and which is optionally that (OR) which can comprise the analysis means MA, or via a remote control.
  • the object OM may have a large number of arrangements, depending in particular on how it should move.
  • it may be made in the form of a part (possibly metal) of parallelepipedal general shape, either with a groove or coupling means adapted (s) to its movement along a R rail, either with wheels.
  • the movements could also be done on air cushion, for example.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

A device (DA) analyses an immersive virtual reality system (SI) comprising a target (CD) that is securely fastened to an object (OM), detecting means (MD) that deliver a first signal representative of the current position of the target (CD), processing means (MT) that define images depending on the detected current position, and at least one image-displaying means (EA, PI). This device (DA) comprises a first sensor (C1) that generates a second signal when the object (OM) reaches a known position, a second sensor (C2) that generates a third signal when it detects a change in displayed image consecutive to the detection of the object (OM) in this known position by the detecting means (MD), and analysing means (MA) that determine first and second times of reception of the second and third signals then a first time difference between these first and second times of reception.

Description

DISPOSITIF D'ANALYSE POUR LA DETERMINATION D'UN TEMPS DE LATENCE D'UN SYSTEME IMMERSIF DE REALITIE VIRTUELLE  ANALYSIS DEVICE FOR DETERMINING A LATENCY TIME OF AN IMMERSIVE SYSTEM OF VIRTUAL REALITY
L'invention concerne les systèmes immersifs de réalité virtuelle. The invention relates to immersive virtual reality systems.
Comme le sait l'homme de l'art, on utilise de plus en plus souvent des systèmes immersifs de réalité virtuelle afin d'immerger des utilisateurs dans des environnements virtuels. C'est notamment le cas, bien que non limitativement, dans le domaine des véhicules, éventuellement de type automobile. Une telle immersion peut être destinée, par exemple, à apprendre à un utilisateur à évoluer dans un environnement particulier ou à se servir d'objets ou fonctions présents dans un environnement particulier, ou à analyser le comportement d'un utilisateur dans un environnement particulier, ou encore à observer un environnement particulier en fonction de la position d'un utilisateur par rapport à ce dernier. As known to those skilled in the art, immersive virtual reality systems are increasingly being used to immerse users in virtual environments. This is particularly the case, although not exclusively, in the field of vehicles, possibly of the automotive type. Such an immersion may be intended, for example, to teach a user to evolve in a particular environment or to use objects or functions present in a particular environment, or to analyze the behavior of a user in a particular environment, or to observe a particular environment according to the position of a user in relation to the latter.
Habituellement un système immersif (de réalité virtuelle) comprend : Usually an immersive system (virtual reality) includes:
- au moins une cible propre à être solidarisée à un utilisateur (ou parfois un objet) qui est propre à se déplacer dans un espace prédéfini, at least one target that can be secured to a user (or sometimes an object) that is able to move in a predefined space,
- des moyens de détection propres à détecter la position en cours de cette cible dans cet espace prédéfini et à délivrer un signal représentatif de cette position en cours, detection means able to detect the current position of this target in this predefined space and to deliver a signal representative of this current position,
- au moins un moyen d'affichage chargé d'afficher sur au moins un écran, installé dans l'espace prédéfini, des images (éventuellement tridimensionnelles (ou 3D)) destinées à cet écran, et at least one display means responsible for displaying on at least one screen, installed in the predefined space, images (possibly three-dimensional (or 3D)) intended for this screen, and
- des moyens de traitement chargés de définir en temps réel pour chaque écran associé des images tridimensionnelles (éventuellement stéréoscopiques) d'un environnement choisi, en fonction de la position en cours de la/chaque cible et de la position de l'écran associé dans l'espace prédéfini. processing means responsible for defining, in real time for each associated screen, three-dimensional (possibly stereoscopic) images of a chosen environment, as a function of the current position of the / each target and the position of the associated screen in the predefined space.
Lorsqu'un utilisateur utilise un tel système immersif, il s'aperçoit rapidement qu'il existe un écart temporel ou délai entre l'instant où il change de position et l'instant où il voit chaque image qui résulte de son changement de position sur chaque écran. Cet écart temporel ou délai, généralement appelé temps de latence, résulte des temps de traitement des signaux et données, des temps de transmission des signaux, données et images, du temps de rendu graphique des ordinateurs et de l'écart temporel entre l'instant où l'utilisateur se retrouve placé dans une nouvelle position et l'instant où les moyens de détection détectent la cible (et donc l'utilisateur) dans cette nouvelle position. When a user uses such an immersive system, he quickly realizes that there is a time difference or delay between the moment it changes position and the moment he sees each image that results from his change of position on each screen. This time difference or delay, usually called latency, results from the processing time of signals and data, the transmission time of signals, data and images, the graphical rendering time of computers and the time difference between the instant where the user is placed in a new position and the moment when the detection means detect the target (and therefore the user) in this new position.
Généralement, plus ce temps de latence est important, plus l'utilisateur est gêné et peut faire l'objet de nausées, de vertiges ou de pertes d'équilibre. Il est donc important de connaître le temps de latence (global) d'un système immersif, et si possible les principaux paramètres qui y contribuent, si l'on veut le réduire à une valeur qui n'est pas gênante pour l'utilisateur (c'est-à-dire qui tend vers zéro). Or, les solutions connues permettant de déterminer ce temps de latence, comme par exemple celle décrite dans le document brevet US 2015/097803, ne sont pas suffisamment précises et ne permettent pas de connaître les principaux paramètres contributifs. Generally, the longer this latency time, the more the user is embarrassed and may experience nausea, vertigo or loss of balance. It is therefore important to know the latency time (overall) of an immersive system, and if possible the main parameters that contribute to it, if we want to reduce it to a value that is not a nuisance for the user ( that is to say, which tends to zero). However, the known solutions for determining this latency, such as that described in US patent document 2015/097803, are not sufficiently precise and do not allow to know the main contributing parameters.
L'invention a donc notamment pour but d'améliorer la situation.  The invention is therefore particularly intended to improve the situation.
Elle propose notamment à cet effet un dispositif d'analyse destiné à faire des analyses dans un système immersif de réalité virtuelle comprenant : It proposes for this purpose an analysis device intended to perform analyzes in an immersive virtual reality system comprising:
- au moins une cible propre à être solidarisée à un objet propre à se déplacer dans un espace, at least one target capable of being secured to an object capable of moving in a space,
- des moyens de détection propres à détecter la position en cours de cette cible dans cet espace et à délivrer un premier signal représentatif de cette position en cours,  detection means able to detect the current position of this target in this space and to deliver a first signal representative of this current position,
- au moins un moyen d'affichage chargé d'afficher sur au moins un écran, installé dans l'espace prédéfini, des images destinées à cet écran, et at least one display means responsible for displaying, on at least one screen, installed in the predefined space, images intended for this screen, and
- des moyens de traitement chargés de définir des images pour cet écran en fonction de la position détectée de l'objet. processing means responsible for defining images for this screen as a function of the detected position of the object.
Ce dispositif d'analyse se caractérise par le fait qu'il comprend :  This analysis device is characterized by the fact that it comprises:
- l'objet équipé de chaque cible,  - the object equipped with each target,
- un premier capteur propre à générer un deuxième signal lorsque l'objet parvient à une position connue dans cet espace, a first sensor capable of generating a second signal when the object reaches a known position in this space,
- un second capteur propre à générer un troisième signal en cas de détection d'un changement d'image affichée sur l'écran, consécutif à la détection de l'objet dans cette position connue par les moyens de détection, et  a second sensor capable of generating a third signal in the event of detection of an image change displayed on the screen, subsequent to the detection of the object in this known position by the detection means, and
- des moyens d'analyse couplés au moins aux premier et second capteurs et propres à déterminer un premier instant de réception du deuxième signal et un deuxième instant de réception du troisième signal, puis à déterminer un premier écart temporel (ou temps de latence) entre les premier et deuxième instants de réception déterminés.  analysis means coupled at least to the first and second sensors and suitable for determining a first instant of reception of the second signal and a second instant of reception of the third signal, then determining a first time difference (or latency) between the first and second reception instants determined.
On peut ainsi quantifier de façon très précise le temps de latence global (ou premier écart temporel) du système immersif.  It is thus possible to quantify very precisely the overall latency (or first time difference) of the immersive system.
Le dispositif d'analyse selon l'invention peut comporter d'autres caractéristiques qui peuvent être prises séparément ou en combinaison, et notamment :  The analysis device according to the invention may comprise other characteristics that can be taken separately or in combination, and in particular:
- ses moyens d'analyse peuvent être également couplés aux moyens de détection et moyens de traitement, et propres à déterminer un troisième instant de réception d'un premier signal représentatif de la position connue détectée par les moyens de détection, et un deuxième écart temporel entre les premier et troisième instants de réception déterminés, ce deuxième écart temporel étant représentatif d'un retard de détection de la cible dans la position connue par les moyens de détection ;  its analysis means may also be coupled to the detection means and processing means, and suitable for determining a third instant of reception of a first signal representative of the known position detected by the detection means, and a second time difference between the first and third reception instants determined, this second time difference being representative of a detection delay of the target in the known position by the detection means;
ses moyens d'analyse peuvent être propres à déterminer un troisième écart temporel entre les premier et deuxième écarts temporels déterminés, ce troisième écart temporel étant représentatif au moins d'une durée de génération d'image par les moyens de traitement lors d'un changement d'image ;  its analysis means may be able to determine a third time difference between the first and second time differences determined, this third time difference being representative of at least one image generation duration by the processing means during a change image;
- son second capteur peut être propre à détecter une variation d'intensité lumineuse résultant d'un changement d'image affichée sur l'écran ;  its second sensor may be able to detect a variation in light intensity resulting from a change of image displayed on the screen;
- il peut comprendre un rail sur lequel est propre à se déplacer l'objet et qui est propre à être placé dans l'espace de sorte que l'objet puisse se déplacer jusqu'à la position connue ; il peut comprendre un support sur lequel est solidarisé fixement le rail ;it may comprise a rail on which is able to move the object and which is adapted to be placed in the space so that the object can move to the known position; it can comprise a support on which the rail is fixedly fixed;
• le rail peut être solidarisé au support de manière à être incliné d'un angle aigu prédéfini par rapport à un plan horizontal de l'espace, et ainsi permettre un déplacement automatique par gravitation de l'objet par rapport au rail entre une position de départ et au moins la position connue ; The rail can be secured to the support so as to be inclined at a predefined acute angle with respect to a horizontal plane of the space, and thus allow an automatic gravitational displacement of the object with respect to the rail between a position of departure and at least the known position;
o il peut comprendre des moyens électromagnétiques installés fixement sur le rail, et propres, d'une part, à immobiliser l'objet dans la position de départ lorsqu'ils sont placés dans un premier état d'attraction, et, d'autre part, à libérer l'objet, de sorte qu'il puisse se déplacer vers la position connue, lorsqu'ils sont placés dans un second état non attractif ;  o it can comprise electromagnetic means fixedly installed on the rail, and clean, on the one hand, to immobilize the object in the starting position when placed in a first state of attraction, and secondly releasing the object so that it can move to the known position when placed in a second non-attractive state;
- son premier capteur peut être propre à être placé au voisinage de la position connue et à générer le deuxième signal lorsque l'objet le contacte.  its first sensor may be able to be placed in the vicinity of the known position and to generate the second signal when the object contacts it.
L'invention propose également un système immersif de réalité virtuelle comprenant au moins une cible propre à être solidarisée à un objet propre à se déplacer dans un espace, des moyens de détection propres à détecter la position en cours de la cible dans cet espace et à délivrer un premier signal représentatif de cette position en cours, au moins un moyen d'affichage chargé d'afficher sur au moins un écran, installé dans l'espace prédéfini, des images destinées à cet écran, des moyens de traitement chargés de définir des images pour l'écran en fonction au moins de cette position en cours détectée, et un dispositif d'analyse du type de celui présenté ci-avant.  The invention also proposes an immersive virtual reality system comprising at least one target capable of being secured to an object capable of moving in a space, detection means able to detect the current position of the target in this space and to delivering a first signal representative of this current position, at least one display means responsible for displaying, on at least one screen, installed in the predefined space, images intended for this screen, processing means responsible for defining images for the screen according to at least this current position detected, and an analysis device of the type of that presented above.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés, sur lesquels :  Other features and advantages of the invention will appear on examining the detailed description below, and the attached drawings, in which:
- la figure 1 illustre schématiquement et fonctionnellement un exemple de système immersif de réalité virtuelle couplé à un exemple de réalisation d'un dispositif d'analyse selon l'invention,  FIG. 1 diagrammatically and functionally illustrates an example of an immersive virtual reality system coupled to an exemplary embodiment of an analysis device according to the invention,
- la figure 2 illustre schématiquement et fonctionnellement le dispositif d'analyse de la figure 1 avec son objet à détecter placé dans une position de départ, et - la figure 3 illustre schématiquement et fonctionnellement le dispositif d'analyse de la figure 1 avec son objet à détecter placé dans une position (finale) connue. FIG. 2 diagrammatically and functionally illustrates the analysis device of FIG. 1 with its object to be detected placed in a starting position, and FIG. 3 schematically and functionally illustrates the analysis device of FIG. 1 with its object to be detected placed in a known (final) position.
L'invention a notamment pour but de proposer un dispositif d'analyse DA destiné à faire des analyses dans un système immersif de réalité virtuelle SI afin de déterminer au moins le temps de latence global et1 de ce dernier (SI).  The object of the invention is in particular to propose a DA analysis device intended to perform analyzes in an immersive virtual reality system SI in order to determine at least the global latency time and the latter (SI).
Dans ce qui suit, on considère, à titre d'exemple non limitatif, que le système immersif de réalité virtuelle SI est destiné à immerger un utilisateur dans un environnement virtuel représentatif d'une partie au moins d'un véhicule, éventuellement de type automobile (comme par exemple une voiture). Mais l'invention n'est pas limitée à ce type d'environnement virtuel. Elle concerne en effet tout type d'environnement virtuel.  In what follows, it is considered, by way of nonlimiting example, that the virtual reality immersive system SI is intended to immerse a user in a virtual environment representative of at least a part of a vehicle, possibly of the automotive type. (such as a car). But the invention is not limited to this type of virtual environment. It concerns indeed any type of virtual environment.
On a schématiquement représenté sur la figure 1 un exemple de système immersif (de réalité virtuelle) SI associé à un espace prédéfini EP dans lequel est au moins partiellement installé un exemple de réalisation d'un dispositif d'analyse DA selon l'invention.  FIG. 1 shows schematically an example of an immersive (virtual reality) system SI associated with a predefined space EP in which at least a partial embodiment of an analysis device DA according to the invention is at least partially installed.
Comme illustré, un système immersif (de réalité virtuelle) SI comprend au moins une cible CD, des moyens de détection MD, des moyens de traitement MT, et au moins un moyen d'affichage PI, EA.  As illustrated, an immersive (virtual reality) system SI comprises at least one CD target, detection means MD, processing means MT, and at least one display means PI, EA.
Chaque cible CD est propre à être solidarisée à un utilisateur (ou parfois un objet OM du dispositif d'analyse DA) qui est propre à se déplacer dans un espace prédéfini EP.  Each CD target is adapted to be secured to a user (or sometimes an OM object of the DA analysis device) which is adapted to move in a predefined EP space.
Les moyens de détection MD sont propres à détecter la position en cours de chaque cible CD dans l'espace prédéfini EP et à délivrer un premier signal s1 qui est représentatif de cette position en cours.  The detection means MD are able to detect the current position of each target CD in the predefined space EP and to deliver a first signal s1 which is representative of this current position.
Chaque écran EA est installé dans l'espace prédéfini EP.  Each EA screen is installed in the predefined EP space.
Les moyens de traitement MT sont chargés de définir en temps réel pour chaque écran EA associé des images éventuellement tridimensionnelles (et éventuellement stéréoscopiques) d'un environnement choisi, en fonction de la position détectée de l'objet OM (fonction de la position en cours de la/chaque cible CD) et de la position de l'écran EA associé dans l'espace prédéfini EP. The processing means MT are responsible for defining, in real time for each associated screen EA, possibly three-dimensional (and possibly stereoscopic) images of a chosen environment, as a function of the detected position of the object OM (function of the current position of the / each CD target) and the position of the associated EA screen in the space predefined EP.
Pendant une analyse effectuée par le dispositif d'analyse DA, les moyens de traitement MT sont chargés, à la requête de ce dernier (DA), de définir pour chaque écran EA associé une première image tant que l'objet OM n'a pas été détecté par les moyens de détection MD dans une position connue p2 dans l'espace EP (voir figure 3), et une seconde image lorsque l'objet OM a été détecté par les moyens de détection MD dans cette position connue p2. A titre d'exemple non limitatif, la première image peut être toute blanche, et la seconde image peut être toute noire.  During an analysis performed by the analysis device DA, the processing means MT are loaded, at the request of the latter (DA), to define for each associated screen EA a first image until the object OM has not was detected by the detection means MD in a known position p2 in the EP space (see FIG. 3), and a second image when the object OM was detected by the detection means MD in this known position p2. By way of non-limiting example, the first image may be all white, and the second image may be all black.
Chaque moyen d'affichage PI, EA est chargé d'afficher sur au moins un écran EA, installé dans l'espace prédéfini EP, des images qui sont destinées à cet écran EA. On notera que chaque moyen d'affichage peut comprendre un écran EA et au moins un projecteur PI, ou bien un écran EA et une dalle de type LCD avec ses moyens de contrôle électroniques associés, par exemple.  Each display means PI, EA is responsible for displaying on at least one EA screen, installed in the predefined space EP, images that are intended for this screen EA. It should be noted that each display means may comprise an EA screen and at least one PI projector, or an EA screen and an LCD type panel with its associated electronic control means, for example.
Le nombre d'écrans EA est généralement compris entre un et cinq. Chaque écran EA est installé dans l'espace prédéfini EP. Au moins un ordinateur est chargé de définir en temps réel des images tridimensionnelles (éventuellement stéréoscopiques) de l'environnement choisi pour au moins un écran EA qui lui est associé, en fonction de la position en cours des cibles CD (éventuellement d'un porte cibles PC) et de la position de cet écran EA associé dans l'espace prédéfini EP. En présence de projecteur(s) PI, chaque projecteur PI est chargé de projeter sur l'écran EA associé des images tridimensionnelles déterminées par l'ordinateur associé et destinées à cet écran EA.  The number of EA screens is generally between one and five. Each EA screen is installed in the predefined EP space. At least one computer is responsible for defining in real time three-dimensional (possibly stereoscopic) images of the chosen environment for at least one associated EA screen, depending on the current position of the CD targets (possibly a door PC targets) and the position of this associated EA screen in the predefined EP space. In the presence of projector (s) PI, each PI projector is responsible for projecting on the associated screen EA three-dimensional images determined by the associated computer and for this EA screen.
Dans l'exemple illustré non limitativement sur la figure 1 , le système immersif SI ne comprend qu'un moyen d'affichage comportant un écran EA associé à un projecteur Pl. Mais il pourrait comprendre plusieurs (au moins deux) moyens d'affichage PI, EA. Par ailleurs, chaque moyen d'affichage est généralement associé à ses propres moyens de traitement MT. Mais on pourrait envisager que les mêmes moyens de traitement (très puissants) définissent des images pour plusieurs (au moins deux) moyens d'affichage.  In the example shown in non-limiting manner in FIG. 1, the immersive system SI comprises only a display means comprising an EA screen associated with a projector P1. However, it could comprise several (at least two) PI display means. , EA. Moreover, each display means is generally associated with its own processing means MT. But we could consider that the same processing means (very powerful) define images for several (at least two) display means.
De préférence, et comme illustré non limitativement sur la figure 1 , le système immersif SI comprend plusieurs cibles solidarisées fixement à un porte cibles PC destiné à être solidarisé à un utilisateur ou à un objet OM du dispositif d'analyse DA devant se déplacer dans l'espace prédéfini EP. On notera que le porte cibles PC comprend ici quatre cibles CD dont les positions doivent être déterminées à chaque instant de mesure par les moyens de détection MD afin d'en déduire à chaque instant de mesure la position en cours de l'objet OM. Mais le porte cibles PC peut comprendre n'importe quel nombre de cibles CD, dès lors que ce nombre est au moins égal à un (1 ). Preferably, and as illustrated without limitation in FIG. SI immersive system comprises several targets secured to a PC target holder intended to be secured to a user or an OM object of the analysis device DA to move in the predefined space EP. It will be noted that the target gate PC here comprises four CD targets whose positions must be determined at each measurement instant by the detection means MD in order to deduce at each instant of measurement the current position of the object OM. But the PC target gate may include any number of CD targets, provided that this number is at least one (1).
Par exemple, les moyens de détection MD comprennent ici deux caméras associées chacune à un émetteur de photons infrarouges et capables de filmer dans l'infrarouge. Chaque émetteur émet un faisceau infrarouge qui va se réfléchir sur les cibles (ou sphères) CD. Chaque caméra enregistre des images des photons réfléchis sur les cibles (ou sphères) CD, et envoie chaque image enregistrée à un ordinateur d'analyse d'images qui va en déduire la position dans l'espace du porte cibles PC à l'instant considéré. Mais les moyens de détection MD pourraient comprendre plus de deux caméras.  For example, the detection means MD here comprise two cameras each associated with an emitter of infrared photons and capable of filming in the infrared. Each emitter emits an infrared beam that will be reflected on the targets (or spheres) CD. Each camera records images of the photons reflected on the targets (or spheres) CD, and sends each recorded image to an image analysis computer which will deduce the position in the space of the target target PC at the instant considered. . But the MD detection means could include more than two cameras.
On notera également, comme illustré non limitativement sur la figure 1 , que les moyens de traitement MT peuvent être subdivisés en plusieurs parties (ici quatre (01 -04)), lorsqu'ils doivent définir des images 3D stéréoscopiques pour au moins un moyen d'affichage (ici un projecteur PI associé à un écran EA). La deuxième partie 02 peut être un ordinateur chargé de définir les images pour l'œil gauche. La troisième partie 03 peut être un ordinateur chargé de définir les images pour l'œil droit. La quatrième partie 04 peut être un ordinateur chargé de transmettre de façon synchronisée au moyen d'affichage (ici un projecteur PI associé à un écran EA) les images définies par les deuxième OR2 et troisième OR3 parties en fonction d'une même position en cours détectée par les moyens de détection MD. La première partie 01 peut être un ordinateur couplé aux moyens de détection MD et, ici, aux deuxième 02 et troisième 03 ordinateurs, et chargé de piloter ces deuxième 02 et troisième 03 ordinateurs en fonction des positions en cours détectées par les moyens de détection MD.  It will also be noted, as illustrated without limitation in FIG. 1, that the processing means MT can be subdivided into several parts (here four (01 -04)), when they have to define stereoscopic 3D images for at least one means of processing. display (here a PI projector associated with an EA screen). The second part 02 may be a computer responsible for defining the images for the left eye. The third part 03 may be a computer responsible for defining the images for the right eye. The fourth part 04 may be a computer responsible for transmitting synchronously to the display means (here a projector PI associated with an EA screen) the images defined by the second OR2 and third OR3 parts according to the same position in progress detected by the detection means MD. The first part 01 may be a computer coupled to the detection means MD and here to the second 02 and third 03 computers, and responsible for controlling the second 02 and third 03 computers according to the current positions detected by the detection means MD .
Comme illustré non limitativement sur les figures 1 à 3, un dispositif d'analyse DA, selon l'invention, comprend, en complément de l'objet OM, au moins un premier capteur C1 , un second capteur C2 et des moyens d'analyse MA. As illustrated without limitation in FIGS. 1 to 3, a device DA analysis, according to the invention comprises, in addition to the OM object, at least a first sensor C1, a second sensor C2 and analysis means MA.
Par exemple, au début d'une analyse le dispositif d'analyse DA peut en informer les moyens de traitement MT afin qu'ils définissent pour chaque écran EA associé la première image tant que l'objet OM n'a pas été détecté par les moyens de détection MD dans la position connue p2, et une seconde image lorsque l'objet OM a été détecté par les moyens de détection MD dans cette position connue p2.  For example, at the beginning of an analysis the analysis device DA can inform the processing means MT so that they define for each associated screen EA the first image until the OM object has been detected by the detection means MD in the known position p2, and a second image when the object OM has been detected by the detection means MD in this known position p2.
L'objet OM est mobile afin de pouvoir se déplacer dans l'espace (prédéfini) EP. De plus, comme indiqué plus haut, il doit être équipé d'au moins une cible CD, faisant éventuellement partie d'un porte cibles PC (comme dans l'exemple non limitatif illustré sur les figures 1 à 3).  The object OM is mobile so that it can move in the (predefined) space EP. In addition, as indicated above, it must be equipped with at least one CD target, possibly forming part of a target PC gate (as in the non-limiting example illustrated in Figures 1 to 3).
Le premier capteur C1 est propre à générer un deuxième signal s2 lorsque l'objet OM parvient à une position connue p2 dans l'espace EP (voir figure 3).  The first sensor C1 is capable of generating a second signal s2 when the object OM reaches a known position p2 in the space EP (see FIG. 3).
Ce premier capteur C1 peut, par exemple et comme illustré non limitativement sur les figures 1 à 3, être propre à être placé au voisinage de la position connue p2 et à générer le deuxième signal s2 lorsque l'objet OM le contacte. A cet effet, il peut, par exemple, être de type piézoélectrique ou capacitif ou inductif ou encore mécanique. Mais dans une variante de réalisation la détection pourrait se faire sans contact (et donc à distance), par exemple par interruption d'un faisceau lumineux passant par la position connue p2.  This first sensor C1 can, for example and as illustrated without limitation in FIGS. 1 to 3, be adapted to be placed in the vicinity of the known position p2 and to generate the second signal s2 when the object OM contacts it. For this purpose, it may, for example, be of piezoelectric or capacitive or inductive or mechanical type. But in an alternative embodiment the detection could be done without contact (and therefore at a distance), for example by interrupting a light beam passing through the known position p2.
Le second capteur C2 est propre à générer un troisième signal s3 en cas de détection d'un changement d'image affichée sur l'écran EA. On entend ici par « changement d'image affichée » le remplacement d'une première image par une seconde image immédiatement différentiable de la première par au moins une caractéristique. Par exemple, lorsque la première image est toute blanche et la seconde image est toute noire, le second capteur C2 peut générer un troisième signal s3 lorsqu'il détecte sur l'écran EA la transition du blanc au noir.  The second sensor C2 is capable of generating a third signal s3 when an image change displayed on the screen EA is detected. By "displayed image change" is meant here the replacement of a first image by a second image immediately distinguishable from the first image by at least one characteristic. For example, when the first image is all white and the second image is all black, the second sensor C2 can generate a third signal s3 when it detects on the EA screen the transition from white to black.
Ce second capteur C2 peut, par exemple, être propre à détecter une variation d'intensité lumineuse résultant d'un changement d'image affichée sur l'écran EA. A cet effet, il peut s'agir d'une photodiode qui ne délivre un troisième signal s3 que lorsqu'elle ne détecte pas que du blanc. This second sensor C2 may, for example, be able to detect a variation in light intensity resulting from an image change displayed on the EA screen. For this purpose, it may be a photodiode which delivers a third signal s3 when it detects not only white.
Les moyens d'analyse MA sont couplés au moins aux premier C1 et second C2 capteurs, ainsi que de préférence aux moyens de détection MD et moyens de traitement MT. Ils sont propres à déterminer un premier instant il de réception du deuxième signal s2 (généré par le premier capteur C1 ), et un deuxième instant i2 de réception du troisième signal s3 (généré par le second capteur C2), puis à déterminer un premier écart temporel et1 entre ces premier il et deuxième i2 instants de réception déterminés (soit et1 = il - i2).  The analysis means MA are coupled at least to the first C1 and second C2 sensors, and preferably to the detection means MD and processing means MT. They are suitable for determining a first instant of reception of the second signal s2 (generated by the first sensor C1), and a second instant i2 of receiving the third signal s3 (generated by the second sensor C2), and then to determine a first difference time and1 between these first it and second i2 receiving instants determined (ie et1 = il - i2).
Ce premier écart temporel et1 constitue le temps de latence global du système immersif SI puisqu'il est égal à la différence entre l'instant il où l'objet OM (représentant un utilisateur) change de position (ici est détecté en p2 par le premier capteur C1 ) et l'instant i2 où s'affiche sur l'écran EA la nouvelle (ou seconde) image (par exemple toute noire et qui représente l'image résultant de la détection de l'objet OM en p2 par les moyens de détection MD).  This first time difference and1 constitutes the overall latency time of the immersive system S1 since it is equal to the difference between the instant in which the object OM (representing a user) changes position (here is detected in p2 by the first sensor C1) and the instant i2 where is displayed on the screen EA the new (or second) image (for example all black and which represents the image resulting from the detection of the object OM in p2 by means of MD detection).
On comprendra que la position connue p2 sert de position de référence par rapport à laquelle les moyens d'analyse MA déterminent le premier écart temporel (ou temps de latence global) et1 .  It will be understood that the known position p2 serves as a reference position with respect to which the analysis means MA determine the first time difference (or overall latency) and 1.
Par exemple, lorsque les moyens d'analyse MA reçoivent à un instant un deuxième signal s2 généré par le premier capteur C1 , ils enregistrent cet instant en tant que premier instant il , et lorsqu'ils reçoivent à un instant un troisième signal s3 généré par le second capteur C2, ils enregistrent cet instant en tant que deuxième instant i2.  For example, when the analysis means MA receive at a time a second signal s2 generated by the first sensor C1, they record this instant as the first moment it, and when they receive at a moment a third signal s3 generated by the second sensor C2, they record this moment as second time i2.
Pendant une analyse, le déclenchement du changement d'image est réalisé automatiquement par les moyens de traitement MT (ici la première partie 01 ) lorsqu'ils reçoivent des moyens de détection MD un premier signal s1 représentatif de la position connue p2 détectée pour l'objet OM.  During an analysis, the triggering of the image change is carried out automatically by the processing means MT (here the first part 01) when they receive MD detection means a first signal s1 representative of the known position p2 detected for the OM object.
Dans l'exemple illustré non limitativement sur les figures 1 à 3, les moyens d'analyse MA font partie d'un ordinateur OR qui est couplé (directement ou indirectement) aux premier C1 et second C2 capteurs et aux moyens de détection MD (ici via le premier ordinateur 01 des moyens de traitement MT du système immersif SI). Mais cela n'est pas obligatoire. En effet, dans une variante ils pourraient constituer un équipement électronique (par exemple comprenant un oscilloscope et un circuit électronique d'analyse de signaux) couplé (directement ou indirectement) aux premier C1 et second C2 capteurs et aux moyens de détection MD du système immersif SI. Dans une autre variante, les moyens d'analyse MA pourraient être implantés dans les moyens de traitement MT (par exemple dans le premier ordinateur 01 qui est couplé aux moyens de détection MD). Par conséquent, ces moyens d'analyse MA peuvent être réalisés sous la forme de modules logiciels (ou informatiques (ou encore « software »)), ou bien d'une combinaison de circuits électroniques (ou « hardware ») et de modules logiciels. In the example shown non-limitatively in FIGS. 1 to 3, the analysis means MA are part of a computer OR which is coupled (directly or indirectly) to the first C1 and second C2 sensors and to the detection means MD (here via the first computer 01 means of MT treatment of the SI immersive system). But this is not obligatory. Indeed, in a variant they could constitute an electronic equipment (for example comprising an oscilloscope and an electronic signal analysis circuit) coupled (directly or indirectly) to the first C1 and second C2 sensors and to the detection means MD of the immersive system. IF. In another variant, the analysis means MA could be implanted in the processing means MT (for example in the first computer 01 which is coupled to the detection means MD). Therefore, these analysis means MA can be made in the form of software modules (or computer (or "software")), or a combination of electronic circuits (or "hardware") and software modules.
On notera que lorsque les moyens d'analyse MA sont couplés aux moyens de détection MD et moyens de traitement MT, ils peuvent être également propres à déterminer un troisième instant i3 de réception du premier signal s1 qui est représentatif de la position connue p2 détectée. Par exemple, lorsque les moyens d'analyse MA reçoivent à un instant un premier signal s1 qui représente la position connue p2 détectée, ils enregistrent cet instant en tant que troisième instant i3. Dans ce cas, les moyens d'analyse MA sont également propres à déterminer un deuxième écart temporel et2 entre les premier il et troisième i3 instants de réception déterminés.  It will be noted that when the analysis means MA are coupled to the detection means MD and processing means MT, they may also be suitable for determining a third instant i3 for receiving the first signal s1 which is representative of the known position p2 detected. For example, when the analysis means MA receive at a time a first signal s1 which represents the known position p2 detected, they record this instant as the third time i3. In this case, the analysis means MA are also able to determine a second time difference and 2 between the first 11th and third i3 instants of reception determined.
Ce deuxième écart temporel et2 est représentatif du retard de détection de la cible CD dans la position connue p2 par les moyens de détection MD. En effet, l'instant il est l'instant où l'objet OM (qui matérialise un utilisateur se déplaçant dans l'espace EP) se retrouve placé dans une « nouvelle position » (ici p2) et l'instant i3 est l'instant où les moyens de détection MD détectent la/les cible(s) CD (et donc l'objet OM) dans cette nouvelle position (ici p2). Ce deuxième écart temporel et2 est particulièrement utile à connaître du fait qu'il contribue de façon importante au temps de latence global du système immersif SI.  This second time difference and2 is representative of the detection delay of the target CD in the known position p2 by the detection means MD. Indeed, the moment it is the moment when the object OM (which materializes a user moving in the space EP) is found placed in a "new position" (here p2) and the moment i3 is the moment when the detection means MD detect the target (s) CD (and therefore the object OM) in this new position (here p2). This second time difference and2 is particularly useful to know because it contributes significantly to the overall latency of the immersive system SI.
On notera également que les moyens d'analyse MA peuvent être aussi propres à déterminer un troisième écart temporel et3 entre les premier et1 et deuxième et2 écarts temporels déterminés. Ce troisième écart temporel et3 est représentatif au moins de la durée de génération d'image par les moyens de traitement MT lors d'un changement d'image (c'est-à-dire consécutivement à la réception du premier signal s1 représentatif de p2). Ce troisième écart temporel et3 est également utile à connaître du fait qu'il contribue de façon importante au temps de latence global du système immersif SI. It will also be noted that the analysis means MA may also be suitable for determining a third time difference and 3 between the first and second and second time differences determined. This third time difference and3 is representative of at least the image generation duration by the MT processing means during a change of image (that is to say, following the receipt of the first signal s1 representative of p2). This third time difference and 3 is also useful to know because it contributes significantly to the overall latency of the immersive system SI.
On notera également que les moyens d'analyse MA peuvent être également et éventuellement informés par chacune des parties 01 à 04 des moyens de traitement MT de la réception d'un signal ou d'instructions ou d'un fichier de données et/ou de la transmission d'un signal ou d'instructions ou d'un fichier de données vers un autre équipement du système immersif SI. Cela permet d'en déduire des temps intermédiaires de traitement qui participent également au temps de latence global du système immersif SI. Ainsi, on peut disposer de toutes les contributions au temps de latence global du système immersif SI.  It will also be noted that the analysis means MA may also be and possibly informed by each of the parts 01 to 04 of the processing means MT of the reception of a signal or instructions or of a data file and / or transmitting a signal or instructions or a data file to another equipment of the immersive system SI. This allows to deduce intermediate processing times which also participate in the overall latency of the immersive system SI. Thus, one can have all the contributions to the overall latency of the immersive system SI.
Le déplacement de l'objet OM peut se faire de différentes manières. Moving the OM object can be done in different ways.
Ainsi, le dispositif d'analyse DA peut, par exemple, comprendre un rail R sur lequel est propre à se déplacer l'objet OM et qui est propre à être placé dans l'espace EP de sorte que l'objet OM puisse se déplacer jusqu'à la position connue p2. Dans ce cas le déplacement de l'objet OM est contraint. On notera que ce rail R peut être un simple axe, éventuellement de section circulaire mais pas nécessairement. Thus, the analysis device DA may, for example, comprise a rail R on which is able to move the object OM and which is adapted to be placed in the space EP so that the object OM can move to the known position p2. In this case the displacement of the object OM is constrained. Note that this rail R may be a single axis, possibly of circular section but not necessarily.
Par exemple, et comme illustré non limitativement sur les figures 1 à 3, le dispositif d'analyse DA peut également comprendre un support SR sur lequel est solidarisé fixement le rail R.  For example, and as illustrated without limitation in FIGS. 1 to 3, the analysis device DA may also comprise a support SR on which the rail R is fixedly secured.
Un tel support SR peut, par exemple, être destiné à être placé sur le sol dans l'espace EP. Il peut donc permettre un placement du rail R dans une position parallèle au sol ou inclinée d'un angle aigu prédéfini par rapport au sol et donc par rapport à un plan horizontal de l'espace EP (comme illustré non limitativement sur les figures 1 à 3).  Such a support SR may, for example, be intended to be placed on the ground in the EP space. It can therefore allow a placement of the rail R in a position parallel to the ground or inclined at an acute angle predefined with respect to the ground and therefore with respect to a horizontal plane of the space EP (as illustrated without limitation in FIGS. 3).
Dans la première alternative (parallèle), pour que l'objet OM se déplace d'une position de départ vers la position connue p2, il doit soit recevoir une impulsion initiale par une personne, soit être muni d'un moteur électrique ayant de préférence un fonctionnement contrôlable à distance (par exemple par voie d'ondes). In the first alternative (parallel), for the object OM to move from a starting position to the known position p2, it must either receive an initial pulse by a person, or be provided with an electric motor having preferably remotely controllable operation (eg example by wave).
Dans la seconde alternative (inclinaison), le déplacement de l'objet OM par rapport au rail R peut se faire automatiquement par gravitation entre une position de départ p1 (illustrée sur les figures 1 et 2) et au moins la position connue p2 (illustrée sur la figure 3). En d'autres termes, le déplacement résulte de la chute de l'objet OM le long du rail R (suivant la flèche F1 de la figure 2).  In the second alternative (inclination), the displacement of the object OM with respect to the rail R can be done automatically by gravitation between a starting position p1 (illustrated in FIGS. 1 and 2) and at least the known position p2 (illustrated in FIG. in Figure 3). In other words, the displacement results from the fall of the object OM along the rail R (along the arrow F1 of FIG. 2).
On notera que dans l'exemple illustré non limitativement sur les figures 1 à 3, l'angle d'inclinaison du rail R par rapport au sol (ici horizontal) est égal à 90° . Cela permet d'utiliser un support SR simple tel qu'un trépied, par exemple. Mais cet angle pourrait être inférieur à 90° , et par exemple égal à 45° ou 60° .  Note that in the example shown non-limitatively in Figures 1 to 3, the angle of inclination of the rail R relative to the ground (here horizontal) is equal to 90 °. This makes it possible to use a simple SR carrier such as a tripod, for example. But this angle could be less than 90 °, and for example equal to 45 ° or 60 °.
On notera également, comme illustré non limitativement sur les figures 1 à 3, que dans la seconde alternative (inclinaison), le dispositif d'analyse DA peut comprendre des moyens électromagnétiques MEL installés fixement sur le rail R au voisinage de la position de départ p1 . Ces moyens électromagnétiques MEL sont propres, d'une part, à immobiliser l'objet OM dans sa position de départ p1 lorsqu'ils sont placés dans un premier état d'attraction, et, d'autre part, à libérer l'objet OM, de sorte qu'il puisse se déplacer vers la position connue p2, lorsqu'ils sont placés dans un second état non attractif. Ces moyens électromagnétiques MEL peuvent, par exemple, être agencés sous la forme d'un électroaimant qui est attractif lorsqu'il est alimenté en courant et non attractif lorsqu'il n'est pas alimenté en courant. On notera que si l'électroaimant est suffisamment puissant, il peut être également utilisé, lorsqu'il est alimenté en courant, pour faire remonter l'objet OM automatiquement de la position connue p2 jusqu'à sa position de départ p1 .  It will also be noted, as illustrated in non-limiting manner in FIGS. 1 to 3, that in the second alternative (inclination), the analysis device DA may comprise electromagnetic means MEL fixedly installed on the rail R in the vicinity of the starting position p1. . These electromagnetic means MEL are able, on the one hand, to immobilize the object OM in its starting position p1 when they are placed in a first state of attraction, and, on the other hand, to release the object OM so that it can move to the known position p2 when placed in a second non-attractive state. These electromagnetic means MEL can, for example, be arranged in the form of an electromagnet which is attractive when it is supplied with current and not attractive when it is not supplied with current. Note that if the electromagnet is sufficiently powerful, it can also be used, when powered, to raise the OM object automatically from the known position p2 to its starting position p1.
De tels moyens électromagnétiques MEL peuvent, par exemple, avoir un fonctionnement qui est contrôlable à distance, éventuellement par voie d'ondes. Ce contrôle peut se faire via un ordinateur couplé aux moyens électromagnétiques MEL, et qui est éventuellement celui (OR) qui peut comprendre les moyens d'analyse MA, ou via une télécommande. Cela permet en effet à un utilisateur de déclencher la chute de l'objet OM à distance sans risque de gêner la poursuite de sa détection dans sa chute par les moyens de détection MD. Such electromagnetic means MEL may, for example, have an operation that is controllable remotely, possibly by wave. This control can be done via a computer coupled to the electromagnetic means MEL, and which is optionally that (OR) which can include the MA analysis means, or via a remote control. This allows a user to trigger the fall of the OM object to distance without jeopardizing the further detection in its fall by the MD detection means.
On notera que dans l'exemple illustré non limitativement sur les figures 1 à 3, le premier capteur C1 est solidarisé fixement au rail R juste en dessous de la position connue p2 du fait que ce premier capteur C1 assure une détection par contact.  Note that in the example shown in non-limiting manner in Figures 1 to 3, the first sensor C1 is fixedly secured to the rail R just below the known position p2 because the first sensor C1 provides contact detection.
On notera également que le déplacement de l'objet OM n'est pas obligatoirement contraint, par exemple du fait de sa solidarisation à un rail R. En effet, dans une variante de réalisation on peut envisager que l'objet OM soit agencé de manière à rouler sur le sol de l'espace EP. Par exemple, il peut comprendre des roues qui sont éventuellement entraînées en rotation par un moteur électrique.  It will also be noted that the displacement of the object OM is not necessarily constrained, for example because of its attachment to a rail R. Indeed, in an alternative embodiment, it can be envisaged that the object OM is arranged in a manner to roll on the floor of the EP space. For example, it may comprise wheels which are possibly rotated by an electric motor.
En l'absence de moteur électrique, l'objet OM se déplace d'une position de départ vers la position connue p2 au moyen d'une impulsion initiale fournie par une personne. En présence, d'un moteur électrique la mise en fonctionnement de ce dernier induit le déplacement de l'objet OM d'une position de départ vers la position connue p2. Ce fonctionnement est alors préférentiellement contrôlable à distance (éventuellement par voie d'ondes). Ce contrôle peut se faire via un ordinateur couplé à l'objet OM, et qui est éventuellement celui (OR) qui peut comprendre les moyens d'analyse MA, ou via une télécommande.  In the absence of an electric motor, the OM object moves from a starting position to the known position p2 by means of an initial pulse supplied by a person. In the presence of an electric motor, the operation of the latter induces the displacement of the object OM from a starting position to the known position p2. This operation is then preferably remotely controllable (possibly by waves). This control can be done via a computer coupled to the object OM, and which is optionally that (OR) which can comprise the analysis means MA, or via a remote control.
L'objet OM peut présenter de très nombreux agencements, dépendant notamment de la façon dont il doit se déplacer. A titre d'exemple, il peut être réalisé sous la forme d'une pièce (éventuellement métallique) de forme générale parallélépipédique, soit avec une rainure ou des moyens de couplage adapté(e)(s) à son déplacement le long d'un rail R, soit avec des roues. Les déplacements pourraient également se faire sur coussin d'air, par exemple.  The object OM may have a large number of arrangements, depending in particular on how it should move. For example, it may be made in the form of a part (possibly metal) of parallelepipedal general shape, either with a groove or coupling means adapted (s) to its movement along a R rail, either with wheels. The movements could also be done on air cushion, for example.

Claims

REVENDICATIONS
1 . Système immersif de réalité virtuelle (SI) comprenant i) au moins une cible (CD) propre à être solidarisée à un objet (OM) propre à se déplacer dans un espace (EP), ii) des moyens de détection (MD) propres à détecter la position en cours de ladite cible (CD) dans ledit espace (EP) et à délivrer un premier signal représentatif de cette position en cours, iii) au moins un moyen d'affichage (EA, PI) chargé d'afficher sur au moins un écran (EA), installé dans ledit espace prédéfini (EP), des images destinées à cet écran (EA), et iv) des moyens de traitement (MT) chargés de définir des images pour ledit écran (EA) en fonction au moins de ladite position en cours détectée, caractérisé en ce qu'il comprend en outre un dispositif d'analyse (DA) comprenant i) ledit objet (OM) équipé de ladite cible (CD), ii) un premier capteur (C1 ) propre à générer un deuxième signal lorsque ledit objet (OM) parvient à une position connue dans ledit espace (EP), iii) un second capteur (C2) propre à générer un troisième signal en cas de détection d'un changement d'image affichée sur ledit écran (EA), consécutif à la détection dudit objet (OM) dans cette position connue par lesdits moyens de détection (MD), et iv) des moyens d'analyse (MA) couplés au moins auxdits premier (C1 ) et second (C2) capteurs et propres à déterminer un premier instant de réception dudit deuxième signal et un deuxième instant de réception dudit troisième signal, puis à déterminer un premier écart temporel entre lesdits premier et deuxième instants de réception déterminés. 1. An immersive virtual reality system (SI) comprising i) at least one target (CD) adapted to be secured to an object (OM) capable of moving in a space (EP), ii) detection means (MD) specific to detecting the current position of said target (CD) in said space (EP) and delivering a first signal representative of this current position, iii) at least one display means (EA, PI) responsible for displaying on at least one screen (EA), installed in said predefined space (EP), images intended for this screen (EA), and iv) processing means (MT) for defining images for said screen (EA) in function with less than said detected current position, characterized in that it further comprises an analysis device (DA) comprising i) said object (OM) equipped with said target (CD), ii) a first sensor (C1) of its own generating a second signal when said object (OM) reaches a known position in said space (EP), iii) a sec sensor ond (C2) adapted to generate a third signal in the event of detection of an image change displayed on said screen (EA), subsequent to the detection of said object (OM) in this position known by said detection means (MD ), and iv) analysis means (AM) coupled to at least said first (C1) and second (C2) sensors and adapted to determine a first instant of reception of said second signal and a second instant of reception of said third signal, then determining a first time difference between said first and second determined receive times.
2. Système selon la revendication 1 , caractérisé en ce que lesdits moyens d'analyse (MA) sont également couplés auxdits moyens de détection (MD) et moyens de traitement (MT), et propres à déterminer un troisième instant de réception d'un premier signal représentatif de ladite position connue détectée par lesdits moyens de détection (MD), et un deuxième écart temporel entre lesdits premier et troisième instants de réception déterminés, ce deuxième écart temporel étant représentatif d'un retard de détection de ladite cible (CD) dans ladite position connue par lesdits moyens de détection (MD). 2. System according to claim 1, characterized in that said analysis means (MA) are also coupled to said detection means (MD) and processing means (MT), and adapted to determine a third instant of reception of a first signal representative of said known position detected by said detection means (MD), and a second time difference between said first and third reception instants determined, this second time difference being representative of a detection delay of said target (CD) in said known position by said detection means (MD).
3. Système selon la revendication 2, caractérisé en ce que lesdits moyens d'analyse (MA) sont propres à déterminer un troisième écart temporel entre lesdits premier et deuxième écarts temporels déterminés, ce troisième écart temporel étant représentatif au moins d'une durée de génération d'image par lesdits moyens de traitement (MT) lors d'un changement d'image. 3. System according to claim 2, characterized in that said analysis means (AM) are able to determine a third time difference between said first and second time differences determined, this third time difference being representative of at least a duration of image generation by said processing means (MT) during an image change.
4. Système selon l'une des revendications 1 à 3, caractérisé en ce que ledit second capteur (C2) est propre à détecter une variation d'intensité lumineuse résultant d'un changement d'image affichée sur ledit écran (EA).  4. System according to one of claims 1 to 3, characterized in that said second sensor (C2) is adapted to detect a change in light intensity resulting from a change of image displayed on said screen (EA).
5. Système selon l'une des revendications 1 à 4, caractérisé en ce qu'il comprend un rail (R) sur lequel est propre à se déplacer ledit objet (OM) et propre à être placé dans ledit espace (EP) de sorte que ledit objet (OM) puisse se déplacer jusqu'à ladite position connue.  5. System according to one of claims 1 to 4, characterized in that it comprises a rail (R) on which is adapted to move said object (OM) and adapted to be placed in said space (EP) so said object (OM) can move to said known position.
6. Système selon la revendication 5, caractérisé en ce qu'il comprend un support (SR) sur lequel est solidarisé fixement ledit rail (R).  6. System according to claim 5, characterized in that it comprises a support (SR) on which is fixedly secured said rail (R).
7. Système selon la revendication 6, caractérisé en ce que ledit rail (R) est solidarisé audit support (SR) de manière à être incliné d'un angle aigu prédéfini par rapport à un plan horizontal dudit espace (EP), et ainsi permettre un déplacement automatique par gravitation dudit objet (OM) par rapport audit rail (R) entre une position de départ et au moins ladite position connue.  7. System according to claim 6, characterized in that said rail (R) is secured to said support (SR) so as to be inclined at a predefined acute angle with respect to a horizontal plane of said space (EP), and thus allow an automatic gravitational displacement of said object (OM) with respect to said rail (R) between a starting position and at least said known position.
8. Système selon la revendication 7, caractérisé en ce qu'il comprend des moyens électromagnétiques (MEL) installés fixement sur ledit rail (R), et propres i) à immobiliser ledit objet (OM) dans ladite position de départ lorsqu'ils sont placés dans un premier état d'attraction, et ii) à libérer ledit objet (OM), de sorte qu'il puisse se déplacer vers ladite position connue, lorsqu'ils sont placés dans un second état non attractif.  8. System according to claim 7, characterized in that it comprises electromagnetic means (MEL) fixedly installed on said rail (R), and own i) to immobilize said object (OM) in said starting position when they are placed in a first state of attraction, and ii) to release said object (OM), so that it can move to said known position, when placed in a second non-attractive state.
9. Système selon l'une des revendications 1 à 8, caractérisé en ce que ledit premier capteur (C1 ) est propre à être placé au voisinage de ladite position connue et à générer ledit deuxième signal lorsque ledit objet (OM) le contacte.  9. System according to one of claims 1 to 8, characterized in that said first sensor (C1) is adapted to be placed in the vicinity of said known position and to generate said second signal when said object (OM) contacts it.
EP18707070.1A 2017-02-01 2018-01-25 Analysing device for determining a latency time of an immersive virtual reality system Withdrawn EP3577531A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1750820A FR3062488B1 (en) 2017-02-01 2017-02-01 ANALYSIS DEVICE FOR DETERMINING A LATENCY TIME OF AN IMMERSIVE SYSTEM OF VIRTUAL REALITY
PCT/FR2018/050170 WO2018142044A1 (en) 2017-02-01 2018-01-25 Analysing device for determining a latency time of an immersive virtual reality system

Publications (1)

Publication Number Publication Date
EP3577531A1 true EP3577531A1 (en) 2019-12-11

Family

ID=58501677

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18707070.1A Withdrawn EP3577531A1 (en) 2017-02-01 2018-01-25 Analysing device for determining a latency time of an immersive virtual reality system

Country Status (5)

Country Link
US (1) US10551911B2 (en)
EP (1) EP3577531A1 (en)
CN (1) CN110291487B (en)
FR (1) FR3062488B1 (en)
WO (1) WO2018142044A1 (en)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2662318C (en) * 2009-01-17 2014-12-02 Lockheed Martin Corporation Immersive collaborative environment using motion capture, head mounted display, and cave
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
FR2975198A1 (en) * 2011-05-10 2012-11-16 Peugeot Citroen Automobiles Sa Virtual reality equipment i.e. immersive virtual reality environment, has light emitting device covering whole or part of real object or individual intended to be integrated into virtual scene for display of images related to virtual scene
CN103197757A (en) * 2012-01-09 2013-07-10 癸水动力(北京)网络科技有限公司 Immersion type virtual reality system and implementation method thereof
US9841839B2 (en) 2013-10-07 2017-12-12 Tactual Labs Co. System for measuring latency on a touch device
US10007350B1 (en) * 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
CN204480228U (en) * 2014-08-08 2015-07-15 厉动公司 motion sensing and imaging device
US9767577B2 (en) * 2014-08-22 2017-09-19 Applied Research Associates, Inc. Techniques for accurate pose estimation
CA2977429C (en) * 2015-02-27 2021-12-14 Valorisation-Recherche, Limited Partnership Method of and system for processing signals sensed from a user
US20190079480A1 (en) * 2015-03-17 2019-03-14 Whirlwind VR, Inc. System and Method for Delivery of Variable Flow Haptics in an Immersive Environment with Latency Control
JPWO2017064926A1 (en) * 2015-10-15 2018-08-02 ソニー株式会社 Information processing apparatus and information processing method
US10046234B2 (en) * 2015-10-20 2018-08-14 OBE Gaming Inc. Interactive movement tracking system applicable to articles of clothing
WO2017151778A1 (en) * 2016-03-01 2017-09-08 ARIS MD, Inc. Systems and methods for rendering immersive environments
US9928661B1 (en) * 2016-03-02 2018-03-27 Meta Company System and method for simulating user interaction with virtual objects in an interactive space
CN105807601A (en) * 2016-03-10 2016-07-27 北京小鸟看看科技有限公司 Method and system for testing virtual reality equipment delay

Also Published As

Publication number Publication date
FR3062488B1 (en) 2020-12-25
FR3062488A1 (en) 2018-08-03
US20190354167A1 (en) 2019-11-21
WO2018142044A1 (en) 2018-08-09
CN110291487A (en) 2019-09-27
CN110291487B (en) 2023-03-24
US10551911B2 (en) 2020-02-04

Similar Documents

Publication Publication Date Title
CA2859900C (en) Method of estimating optical flow on the basis of an asynchronous light sensor
US20160349359A1 (en) Reduction in camera to camera interference in depth measurements using spread spectrum
EP3152593B1 (en) Device for detecting an obstacle by means of intersecting planes and detection method using such a device
EP3999942B1 (en) Method for controlling a graphic interface for displaying the launching of a projectile in a virtual environment
FR2861488A1 (en) DEVICE FOR DETERMINING POSSIBILITY OF COLLISION
EP3152592A1 (en) Device for detection of obstacles in a horizontal plane and detection method implementing such a device
EP2757530A1 (en) Method and device for detecting a fall by image analysis
WO2018142043A1 (en) Analysis device for determining the length of a detection period contributing to a latency time in an immersive virtual reality system
EP3577531A1 (en) Analysing device for determining a latency time of an immersive virtual reality system
EP3839411A1 (en) Smart system for controlling functions in a turret of a combat vehicle
JP6149717B2 (en) Imaging apparatus and imaging method
EP3367353B1 (en) Control method of a ptz camera, associated computer program product and control device
EP3170205B1 (en) Device for detecting movement
WO2017149254A1 (en) Man/machine interface with 3d graphics applications
EP3671548B1 (en) System for viewing a control space by adding graphic frontiers to an image taken by a camera
FR3033467A1 (en) CAMERA SUITABLE FOR WORKING IN A RADIOACTIVE ENVIRONMENT.
US12209011B2 (en) Hybrid driving for large aperture tilting mirrors
EP3577541B1 (en) Device for analyzing the synchronization of images on different display paths
EP3839819A1 (en) Assistant and assistance method for searching for an element in an area
WO2009121199A1 (en) Method and device for making a multipoint tactile surface from any flat surface and for detecting the position of an object on such surface
WO2020058641A1 (en) Device, system and method for locating, by a processing module, an acquisition module relative to a device to be monitored
WO2024256390A1 (en) Automated test bench for reconditioned electronic appliances/devices
FR3012634A1 (en) OPERATOR TERMINAL OF A MISSION SYSTEM OF THE CONSOLE TYPE HAVING AT LEAST TWO DISPLAY SCREENS AND DISPLAY METHOD THEREOF
FR3051617A1 (en) SHOOTING SYSTEM
FR3058607A1 (en) VIDEO CAPTURE DEVICE WITH CAPTURE OF USER EYE MOVEMENT

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20190725

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20200629

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: PSA AUTOMOBILES SA

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20201110