FR2993385A1 - Procede et systeme de reconstruction de trajectoire 3d en temps reel - Google Patents
Procede et systeme de reconstruction de trajectoire 3d en temps reel Download PDFInfo
- Publication number
- FR2993385A1 FR2993385A1 FR1256857A FR1256857A FR2993385A1 FR 2993385 A1 FR2993385 A1 FR 2993385A1 FR 1256857 A FR1256857 A FR 1256857A FR 1256857 A FR1256857 A FR 1256857A FR 2993385 A1 FR2993385 A1 FR 2993385A1
- Authority
- FR
- France
- Prior art keywords
- owner
- camera
- cameras
- visualization
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30112—Baggage; Luggage; Suitcase
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Alarm Systems (AREA)
Abstract
L'invention concerne un procédé de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée à partir d'un modèle statique de représentation 3D du site, et d'une base de données dynamique de représentation 3D. L'application de visualisation 3D étant configurée pour : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.
Description
- 1 " Procédé et système de reconstruction de trajectoire 3D en temps réel." La présente invention se rapporte à un procédé et un système de reconstruction de trajectoire d'une personne ou d'un objet mobile dans un site. En particulier, la présente invention concerne la gestion de la sécurité au sein de centres de décision pour des sites sensibles tels que des aéroports, des stades, des gares ou autres.
L'invention s'applique avantageusement mais pas uniquement à la recherche de personne ayant oublié un bagage qui peut être considéré comme suspect. Actuellement, en cas de découverte d'un bagage oublié dans une gare par exemple, des appels sont faits via des hauts parleurs afin que la personne ayant oublié son bagage vienne le récupérer. Toutefois, en cas d'abandon volontaire, le propriétaire du bagage ne se présentera pas pour réclamer son bagage. Par ailleurs, même en cas d'abandon accidentel, la durée nécessaire pour que le propriétaire vienne se présenter peut être très long. Ceci est préjudiciable dans la mesure où les activités proches du lieu d'abandon du bagage sont interrompues par précaution jusqu'à ce que la qualité inoffensive du bagage soit reconnue. La présente invention a pour but de réduire le temps de recherche du propriétaire d'un objet dans un lieu comprenant un système de vidéo 25 surveillance. Un autre but de l'invention est un outil efficace, unifié et simple d'utilisation pour identifier un propriétaire. On atteint au moins l'un des objectifs précités avec un procédé de 30 reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras. Ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée à partir de : 35 - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D. - 2 Selon l'invention, l'application de visualisation 3D est configurée pour : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.
Avec le procédé selon l'invention, lorsqu'un objet est oublié dan un site surveillé par des caméras, il est désormais possible de retrouver rapidement le propriétaire de l'objet oublié. Dans des sites sensibles comme des aéroports, un tel procédé permet d'appréhender rapidement le propriétaire d'un bagage oublié afin de vérifier s'il s'agit d'un véritable oubli ou bien d'un acte dangereux. L'emplacement de l'objet peut être déterminé à partir d'un clic de l'utilisateur sur un écran affichant la visualisation 3D du site. L'utilisateur peut avoir reçu des informations de situation de l'objet par un appel d'un surveillant. L'emplacement de l'objet peut également être déterminé à partir de coordonnées GPS (« Global Positioning System ») ou un système de localisation à l'intérieur de bâtiments reçues dans le serveur de traitement. Ces coordonnées seraient transmises par un surveillant depuis notamment un appareil portatif tel un téléphone portable ou un « smartphone ». De préférence, les caméras font parties d'un système de vidéo surveillance intégrant d'autres capteurs. Le procédé selon l'invention offre une visualisation 3D ainsi qu'une aide à la décision multidimensionnelle en temps réel. On peut ainsi détecter un incident, lever un doute, circonscrire une menace ou mener une intervention en quelques secondes au lieu de plusieurs minutes auparavant. - 3 Le serveur de traitement utilise le modèle statique de représentation 3D du site et la base de données dynamique de représentation 3D de façon à déterminer la caméra la mieux placée. La représentation 3D permet notamment de tenir compte des murs et autres obstacles. Il est ainsi possible de savoir si une personne se trouve ou non dans le champ de vision d'une caméra. La base de données dynamique peut comprendre des données dynamiques relatives : - aux mouvements des caméras, - aux différents clics réalisés par l'utilisateur, - à la trajectoire en cours de suivi, - aux coordonnées, - à ligne temporelle, Selon une caractéristique avantageuse de l'invention, le choix de la caméra la mieux positionnée s'effectue de la manière suivante : - détermination des coordonnées tridimensionnelles d'un point d'impact du propriétaire au sol à partir d'un clic réalisé sur un moniteur 2D affichant un enregistrement en cours de visualisation, - calcul de la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol dans la visualisation 3D à partir d'une fonction bijective entre la visualisation 3D et le moniteur 2D, et détermination de la caméra la mieux positionnée à partir de cette coordonnée tridimensionnelle, puis affichage de l'enregistrement de la caméra la mieux positionnée pour continuer le suivi. La présente invention est notamment, mais uniquement, remarquable par le fait qu'en cliquant sur le point d'impact au sol, on fixe en fait la position selon l'axe « z », cette position correspond au sol. Ainsi avec les coordonnées x,y,z, il est possible pour l'homme du métier de trouver une fonction bijective permettant de lier l'affichage vidéo 2D sur un moniteur et la visualisation 3D. A titre d'exemple non limitatif, un algorithme décrivant une fonction bijective peut être défini de la manière suivante : Fonction bijective coordonnées 3D <-> coordonnées 2D caméras f : Repère camera -> Repère 3D f-1 : Repère 3D -> Repère camera - 4- (u, y) coordonnées normalisées du point 2D dans la fenêtre vidéo (X, Y, Y) coordonnées du point 3D dans l'espace tridimensionnel f(u, y, Repère camera, Repère 3D, modèle statique 3D, modèle dynamique 3D) -> X,Y,Z CalculerPosition3D(u, y, repère camera, repère 3D) -> U, V Calculerintersection(U, V, modèle statique 3D, modèle dynamique 3D) -> X, Y, Z f-1(X, Y, Z, Repère 3D, Repère camera, modèle statique 3D, modèle dynamique 3D) -> U, V Si (X, Y, Z) est dans champ camera (Repère Camera) Alors CalculerPosition2D( X, Y, Z, repere 3D, repere camera, u, y) Fin si Un clic sur le moniteur permet d'avoir un positionnement tridimensionnel dans la visualisation 3D. Le passage dans une représentation 3D permet de tenir compte des obstacles et de calculer efficacement les caméras les mieux positionnées. Selon une caractéristique avantageuse de l'invention, la caméra la mieux placée est déterminée en calculant le rapport d/f de chaque caméra, d étant la distance entre la caméra concernée et la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol, f étant la distance focale de la caméra concernée. Par l'expression « la caméra la mieux positionnée », on entend une caméra ayant le propriétaire dans son champ de vision et ayant le rapport d/f le plus petit. On peut avoir un classement de plusieurs caméras et afficher pas uniquement la mieux positionnée mais plusieurs dans celles qui sont les mieux positionnées. Selon un mode de mise en oeuvre, la distance focale et la position des caméras peuvent rester inchangées dans le temps. Cela réduit la dynamique des caméras puisqu'on se retrouve avec des caméras figées. Par contre, cela permet de simplifier les calculs du rapport d/f puisque les distances focales de chaque caméra peuvent être prédéterminées sauvegardées dans un espace - 5 mémoire. Par exemple, pour simplifier encore les calculs, la distance focale peut être identique pour toutes les caméras. Selon un autre mode de mise en oeuvre, le serveur de traitement peut également récupérer des données relatives à la dynamique de la distance focale et de l'orientation des caméras de façon à calculer le rapport d/f. Dans ce cas, le serveur de traitement est constamment relié aux caméras et reçoit en permanence des données caractéristiques de chaque caméra.
Avantageusement, la visualisation 3D et les moniteurs sont intégrés sur un même écran d'affichage. Les moniteurs peuvent être des fenêtres vidéo incrustées dans un écran ayant en arrière plan la visualisation 3D. Un clic de l'utilisateur dans une des fenêtres vidéo permet d'obtenir la position tridimensionnelle correspondante dans la visualisation 3D. De préférence, l'écran d'affichage est de type tactile. Selon une caractéristique avantageuse de l'invention, pendant le processus de suivi, les enregistrements peuvent être lus à une vitesse supérieure à la vitesse normale d'enregistrement. En effet, pour atteindre la visualisation vidéo en temps réel et déterminer l'emplacement actuel du propriétaire, on lit les enregistrements vidéo à une vitesse supérieure à la vitesse normale. Ces enregistrements peuvent être effectués sur un support de stockage numérique permettant une gestion par décalage temporel, appelé « timeshifting » en anglais.
Par ailleurs, une fois l'emplacement actuel du propriétaire est déterminé, ses coordonnées sont transmises de façon sans fil à des terminaux mobiles distants. Selon l'invention, la première consigne peut provenir d'un curseur apte à être déplacé par l'utilisateur sur une ligne de temps affichée dans la visualisation 3D. Ce curseur temporel est un référentiel auquel tous les enregistrements se positionnent. Selon un autre aspect de l'invention, il est proposé un système de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à : - 6 - un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D.
Ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée de façon à : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.
D'autres avantages et caractéristiques de l'invention apparaîtront à l'examen de la description détaillée d'un mode de mise en oeuvre nullement limitatif, et des dessins annexés, sur lesquels : La figure 1 est une vue simplifiée générale du système de reconnaissance selon l'invention, La figure 2 est une vue simplifiée d'une visualisation 3D intégrant deux moniteurs vidéo selon l'invention, La figure 3 est un schéma illustrant une projection du champ de vision d'une caméra sur le sol, La figure 4 est un graphique reprenant des étapes et actions mises en oeuvre dans un processus de suivi temps réel d'une personne, La figure 5 est une vue simplifiée d'une représentation d'un incident dans une visualisation 3D, La figure 6 est une vue simplifié illustrant une visualisation 3D dans la moitié inférieure et trois moniteurs affichant des enregistrements vidéo, et - 7 La figure 7 est une vue schématique simplifiée illustrant l'envoi d'information vers des appareils distants.
Bien que l'invention n'y soit pas limitée, on va maintenant décrire un procédé de reconnaissance de trajectoire d'une personne ayant oublié un bagage à un endroit dans un aéroport. L'invention peut s'appliquer à tout processus de reconnaissance de trajectoire dans un site comprenant un système de vidéo surveillance.
Sur la figure 1 on voit un serveur de traitement 1 doté de composants matériels et logiciels permettant la mise en oeuvre d'une application de visualisation 3D. Les composants matériels comprennent notamment des composants mémoires dites vives et mortes, un ou plusieurs microprocesseurs ou microcontrôleurs, une ou plusieurs cartes graphiques, une ou plusieurs cartes réseaux, et des moyens d'entrées/sorties. Ce serveur de traitement est associé à un écran d'affichage affichant en fond d'écran une visualisation 3D d'un endroit de l'aéroport. L'application de visualisation 3D est réalisée à partir d'un modèle statique 3 de représentation 3D de l'aéroport, ce modèle étant sauvegardé dans une base de données. Ce modèle statique comprend la représentation de la structure de l'aéroport, les murs, les escaliers,... On utilise également une base de données dynamique 4 de représentation 3D. Cette base de données renfermant des données relatives aux mouvements des caméras, les différents clics réalisés par l'utilisateur, les données relatives à la trajectoire en cours de suivi, les coordonnées ainsi que des données sur la ligne temporelle. L'ensemble permet donc d'élaborer une représentation 3D dont une partie est visualisée sur l'écran 2. Le serveur de traitement 1 est également connecté à un système de vidéo surveillance 5 de l'aéroport. Il peut s'agir d'un système de vidéo surveillance existant auquel le serveur de traitement vient se connecter. On peut prévoir d'autres systèmes tels qu'un système anti-intrusion, un système de contrôle d'accès, de géolocalisation ou de communication de façon générale. Avantageusement, ce système de vidéo surveillance comprend une pluralité de caméras 6, 7 et 8 réparties dans tout l'aéroport à des endroits bien précis. Ces caméras sont reliées à une base de données 9 renfermant - 8 des enregistrements vidéo de ces caméras. On peut envisager un enregistrement sur une fenêtre glissante, c'est-à-dire que l'on conserve uniquement par exemple 24heures de vidéo pour ne pas encombrer l'espace mémoire disponible. La base de données 9 peut comporter des supports de stockage numérique effaçant automatiquement tout enregistrement ayant plus de 24 heures. Chaque enregistrement ou vidéo en direct de chaque caméra est susceptible d'être affiché sur un moniteur, c'est-à-dire une fenêtre vidéo incrustée dans l'écran d'affichage 2. Le serveur de traitement 1 est apte à envoyer des instructions au système de vidéo surveillance pour récupérer des enregistrements vidéo. Sur la figure 2, on voit l'écran d'affichage 2 ayant en fond d'écran 10 une visualisation 3D et deux moniteurs vidéo 11 et 12 provenant de deux caméras du système de vidéo surveillance 5. L'application de visualisation 3D mise en oeuvre par le serveur de traitement est de type à réalité augmentée. Il s'agit d'un progiciel dans lequel toutes les informations de sécurité sont spatialisées et normalisées, ceci permettant une aide à la décision en temps réel et une gestion opérationnelle efficace des ressources. Les moniteurs 11 et 12 affichent des vidéo 2D dans lesquelles la fonction de clic avec une souris est prise en compte. L'application de visualisation 3D comporte une fonction bijective entre les vidéo 2D affichées et la visualisation 3D en fond d'écran. Un clic sur une vidéo 2D permet de déterminer la position correspondante dans la visualisation 3D. Un exemple de fonction bijective entre une vue de caméra et le repère 3D peut être défini à partir de la projection de la figure 3 : f : Repère camera -> Repère 3D Le rectangle plein 31 représente la projection de la vue caméra sur le sol. Les traits en pointillés 32 représentent le cône de visibilité de la caméra par rapport à la 3D : il est défini par un vecteur direction DC allant de la caméra au point central vu par la caméra et deux angles a,13 dépendant de la focale et correspondants aux deux axes pour {u;v}={1;1}. La direction 33 s'obtient par rapport à DC et {u.a,v.13}. - 9 - Les coordonnées (x,y,z) du point 34 cliqué sur l'image 2D s'obtiennent par l'intersection de la direction 33 avec le plan représentant le sol. f-1 : Repère 3D -> Repère camera Si le point (X,Y,Z) est dans le champ de la caméra, les coordonnées (u,v) s'obtiennent en projetant le point dans le repère de la caméra. On distingue également sur la figure 2 une ligne de temps 13 avec un premier curseur 14 représentant le temps présent et un second curseur 15 représentant le temps passé. De préférence, les moniteurs 11 et 12 affichent des enregistrements vidéo correspondant au moment du second curseur. Ce second curseur peut être déplacé par l'utilisateur de façon à naviguer dans le temps. Le procédé selon l'invention est un outil d'aide à la décision pour un opérateur de la sécurité-sûreté car il permet: - l'analyse et la restitution dans les quatre dimensions (spatio15 temporelles) des informations issues des caméras et des systèmes de sécurité, - la fusion de données issues de sources d'informations de différentes natures ou de logiciels tiers (géolocalisation et vidéo, anti-intrusion et vidéo, détections multiples présentant des corrélations spatio-temporelles ...), 20 - le calcul de chemins d'évacuation ou d'intervention en fonction du modèle en 3D dynamique (ouverture-fermeture d'accès), et - l'intégration de procédures de sécurité-sûreté dans la gestion des incidents et l'émission de bulletins d'alerte. 25 On va maintenant décrire dans ce qui suit un exemple de mise en oeuvre du procédé selon l'invention pour la recherche d'un propriétaire ayant oublié un bagage dans un endroit à l'intérieur de l'aéroport. La terminologie suivante est utilisée dans la suite : Bagage oublié : paquets, bagages, colis, marchandises, sacs qui ne 30 semblent plus être sous la surveillance de leur Propriétaire, et qui ont fait l'objet d'une alerte. Un bagage est considéré comme oublié pendant 10 min à partir de la déclaration d'alerte. Il prend ensuite le statut de bagage abandonné si son Propriétaire n'a pas été retrouvé dans ces 10 minutes. Bagage abandonné : paquets, bagages, colis, marchandises, sacs, 35 qui se révèlent ne plus être sous la surveillance de leur Propriétaire alors qu'ils se trouvent dans des zones où l'abandon peut entraîner une amende - 10 administrative. Un bagage abandonné est pris en charge par un service de sécurité et fait l'objet d'un périmètre de sécurité. Bagage suspect : il s'agit d'un bagage abandonné dont le Propriétaire n'a pas été retrouvé et qui est considéré comme dangereux par les démineurs après analyse. Propriétaire : la personne qui oublie ou abandonne un bagage. Zone d'oubli : l'endroit où se trouve le bagage oublié. Zone de recherche : zone modélisée en 3D et dans laquelle l'opérateur peut effectuer la recherche de Propriétaires de bagages 10 abandonnés. Incident : un incident est un évènement qui se matérialise par une demi-sphère localisée dans la 3D sur le lieu de l'incident. L'incident permet de symboliser et de localiser le bagage abandonné dans la scène 3D. L'incident est généré par l'événement «bagage oublié». Un incident est une donnée 15 structurée dont tous les changements d'état sont enregistrés. Tag vidéo : un tag vidéo est une étiquette spatio-temporelle créée à partir d'un clic dans une vidéo. Cette étiquette est représentée graphiquement dans la 3D pour la reconstitution de trajectoire. 20 L'application de visualisation 3D exploite une représentation en 3D de l'environnement à sécuriser. Deux zones sont distinguées : la zone d'oubli et la zone de recherche. La zone d'oubli est très concernée par l'abandon de bagages. Afin de faciliter la recherche des propriétaires de bagages abandonnés, l'opérateur dispose d'une modélisation 3D d'une zone plus large 25 que la zone d'oubli : la zone de recherche. Cette zone comprend : - le niveau 0 (Arrivées) contenant la zone d'oubli, - le niveau 1 (Départs) - le niveau -1, - le pourtour extérieur immédiat du bâtiment. 30 La modélisation de ces 3 niveaux permet à l'opérateur de suivre un propriétaire sur plusieurs niveaux et augmente les chances de le retrouver dans un temps imparti de par exemple 10mn. Ceci étant exposé à titre d'exemple, le nombre de niveau n'est pas limitatif. - 11 On prend notamment en compte toutes les caméras observant des entrées et des sorties de zones et des changements de niveau (escaliers et escalators). La procédure de recherche est présentée par un graphique sur la figure 4. Le graphique est découpé en 5 parties : - Les étapes (bagage oublié, bagage repéré ...) - Les activités réalisées entre deux étapes - Les principales actions réalisées par l'opérateur utilisant l'application de visualisation 3D - Les informations reçues par les agents présents sur le terrain - Une ligne de temps indiquant les limites temporelles imposées par un temps imparti.
Comme représenté dans le graphe d'activités de la figure 4, les trois activités qui se déroulent consécutivement pour retrouver le Propriétaire sont - Identifier le Propriétaire - Localiser le Propriétaire - Suivre le Propriétaire A l'étape 1, le bagage oublié est repéré. Le fait générateur de cette étape est la réception par l'opérateur d'une alerte via un système d'alerte ou par tout autre moyen. L'opérateur peut recevoir cette alerte soit directement dans la scène 3D (alarme sonore par exemple) soit sur Smartphone.
L'activité de l'opérateur est de marquer la localisation précise du bagage dans la visualisation 3D. Pour cela, l'opérateur crée un incident dans la scène 3D à partir des informations contenues dans le message d'alerte. Plus ces informations sont précises, plus l'opérateur peut positionner avec précision l'emplacement du bagage abandonné.
Il est possible de générer automatiquement un incident à partir du message d'alerte. En effet, si le message d'alerte est formaté, il est possible de positionner automatiquement un incident à l'emplacement indiqué dans le message. La création d'un incident est une opération rapide effectuée par 35 exemple à l'aide d'un raccourci clavier. Un exemple de représentation d'incident dans une modélisation 3D est illustré sur la figure 5. On distingue - 12 une bulle d'incident 16 représentant une zone d'oubli à côté de deux poteaux. On distingue également un emplacement 17 du propriétaire. L'incident est enregistré dans la base de données dynamique avec ses coordonnées spatio-temporelles et informationnelles. La création de l'incident permet d'enregistrer le temps (TO) qui servira de référence pour déterminer les 10 minutes consacrées à la recherche du propriétaire. A ce stade, l'incident est localisé. L'opérateur va ensuite afficher les flux vidéos des caméras voyant la localisation de l'incident. Cette opération lui permet d'une part de prendre connaissance de la situation réelle et d'autre part de s'assurer que l'incident qu'il a positionné dans la 3D correspond bien à l'emplacement exact du bagage abandonné. L'application de visualisation 3D possède une fonction permettant de déterminer par un simple clic les caméras les mieux positionnées pour voir le point sélectionné. Les obstacles qui ont été modélisés dans la 3D (piliers, murs, panneaux ...) sont pris en compte pour déterminer si l'objet est réellement visible par une caméra. L'opérateur applique cette fonction à l'incident précédemment créé. Il obtient une liste de caméras. Il peut ensuite sélectionner une ou plusieurs caméras et afficher les flux vidéo correspondants. Selon le degré d'ouverture du sous-système vidéo, les fenêtres vidéos seront affichées sur l'écran 2 ou sur un autre écran. Après vérification sur la vidéo, l'opérateur marque le lieu précis de l'incident. Pour cela, il déplace le cas échéant la bulle d'incident puis qualifie l'incident : - Il nomme l'incident en décrivant le bagage abandonné ; par exemple: valise rouge. - Il ajoute un commentaire : bagage repéré. L'application de visualisation 3D traite ces informations comme des évènements qui sont enregistrés en base de données dynamique avec leurs coordonnées spatio-temporelles. Le bagage oublié étant repéré, l'activité de l'opérateur consiste alors à identifier le Propriétaire. Cette identification repose sur le principe suivant : l'opérateur connaissant la liste des caméras qui voient le bagage abandonné, peut examiner les enregistrements vidéo associés à ces caméras, retrouver le moment précis où le bagage a été abandonné et retrouver le Propriétaire. - 13 Pour réaliser l'identification du Propriétaire, l'application de visualisation met à disposition de l'opérateur une fonction « time-line » correspondant à l'affichage de la ligne de temps 13. Cette fonction permet à l'opérateur d'exploiter les enregistrements vidéos des caméras qu'il a précédemment sélectionnées. Il peut les repositionner dans le temps et obtenir une image exploitable du Propriétaire grâce à l'historique vidéo. La fonction « time line » permet de repositionner de manière synchrone les enregistrements de toutes les caméras sélectionnées. L'activité de l'opérateur consiste ensuite à : - Communiquer l'image du Propriétaire - Reconstituer la trajectoire du Propriétaire - Communiquer la trajectoire du Propriétaire Dans un premier temps, l'opérateur communique la ou les captures d'écran afin de fournir aux agents sur le terrain les premières informations leur permettant d'identifier le Propriétaire. Afin d'aider à la reconstitution de trajectoire, l'application de visualisation 3D met à disposition de l'opérateur une fonction de tag vidéo. Lorsque l'opérateur clique dans l'enregistrement vidéo d'une caméra, le progiciel réalise les actions suivantes : - il fait apparaître dans la 3D le point correspondant à l'endroit sélectionné dans la vidéo, - ce tag apparaît alors dans toutes les vues caméras qui voient ce tag (réalité augmentée). La figure 5 est une vue schématique illustrant l'apparition d'un tag vidéo. La fonction de tag vidéo permet d'aider à la reconstitution des trajectoires du Propriétaire grâce aux caractéristiques suivantes : - le tag est appliqué au moyen d'un raccourci clavier d'une souris et d'une touche tactile, - l'heure à laquelle l'image a été prise est associée à chaque tag vidéo, - la fonction tag vidéo relie dans la visualisation 3D deux tags successifs, ce qui fournit à l'opérateur une trajectoire au fur et à mesure de l'exploitation des enregistrements vidéos. Lorsque le propriétaire se déplace, il finit par sortir du champ de la caméra. Dans ce cas, l'opérateur utilise la fonction de sélection immédiate des caméras en cliquant au pied du propriétaire de façon à marquer son point - 14 d'impact au sol : le système se charge de lui fournir la liste des caméras. Il peut ainsi sélectionner une autre caméra et poursuivre la reconstitution de la trajectoire. Le schéma de la figure 6 donne une illustration de ce fonctionnement : l'opérateur utilise alors le tag vidéo sur l'enregistrement vidéo d'une des caméras, par exemple la caméra 1 à gauche, en cliquant au pied de la personne visible sur l'écran, afin de continuer à reconstituer la trajectoire. Ce fonctionnement est itératif. Très rapidement, il peut fournir des indications importantes qui vont permettre d'orienter les recherches. Exemple d'indications : le Propriétaire a emprunté l'escalator situé au niveau de la porte G pour descendre au niveau -1; le Propriétaire s'est dirigé vers le magasin « R »... Dès lors que les indices de trajectoires sont pertinents, l'opérateur peut les transmettre aux agents de sécurité déployés dans le terminal sud.
Le travail de reconstitution des trajectoires a pour objectif d'aboutir à la localisation du Propriétaire à l'instant courant. Il est néanmoins possible que le travail effectué par l'opérateur ne permette pas de localiser le propriétaire, pour diverses raisons : - le Propriétaire a quitté la zone de recherche, - l'opérateur n'a pas pu reconstituer la trajectoire. Dans ce cas, si le délai des 10 minutes est dépassé, le bagage oublié deviendra un bagage abandonné et traité comme tel. L'opérateur pourra néanmoins poursuivre la recherche au-delà de ces 10 premières minutes. Si le propriétaire est localisé, ceci clôt l'incident, opération réalisée manuellement par l'opérateur qui ajoute un commentaire dans la fenêtre Incidents. On va maintenant décrire un processus d'alerte depuis le serveur de traitement vers des appareils distants. Ces alertes sont des échanges d'information entre l'opérateur et des agents déployés dans l'aéroport. Afin de favoriser ces échanges, l'application de visualisation 3D est interfacée avec des smartphones sur le terrain. Ces échanges comprennent: - L'envoi d'information sur le Propriétaire. Dès que l'opérateur a identifié le propriétaire, il communique une ou plusieurs captures d'écran réalisées à partir des enregistrements vidéos et les envoie de façon sécurisé - 15 aux agents sur le terrain disposant d'un smartphone identifié sur le système pour leur permettre d'identifier le Propriétaire. - Le smartphone envoie régulièrement au système des messages permettant de géolocaliser l'agent afin de mieux le guider.
L'envoi d'information sur la trajectoire du Propriétaire au fur et à mesure de sa reconstitution. Ces envois se feront sous la forme de messages contenant des commentaires succincts. Sur la figure 7, on voit un exemple d'envoi d'information sur le propriétaire depuis le serveur de traitement vers les agents de sécurité et notamment vers la police aux frontières. A l'étape 1, on extrait une photo depuis un moniteur et l'opérateur rédige un commentaire à l'étape 2. La photo et le commentaire sont envoyés via un réseau mobile vers des téléphones multimédia (« smartphone ») de plusieurs agents de sécurité présents sur le site. Cette photo et le commentaire sont transmis sous forme d'un message crypté vers ces agents qui sont à la recherche du propriétaire. Le commentaire peut contenir des informations sur le lieu ou la trajectoire suivie par le propriétaire. La photo est horodatée. En d'autres termes, pour envoyer un message, l'opérateur dispose dans l'interface homme-machine de la visualisation 3D d'une fonction lui permettant : - De réaliser une capture d'écran à partir des enregistrements vidéo, - D'écrire un commentaire dans une fenêtre, - De cliquer sur un bouton d'envoi afin de transmettre l'ensemble 25 « Photo + commentaires » aux autres acteurs disposant d'un smartphone dédié. On peut également envisager la transmission d'email depuis le serveur de traitement.
30 De façon générale, l'application de visualisation 3D est conçue au- dessus d'une base de données qui enregistre dans les quatre dimensions (spatiale et temporelle) tous les événements et changements d'état liés à une opération de sécurité-sûreté. Dans le cas de la problématique des bagages abandonnés, le tableau 35 ci-après décrit un exemple non exhaustif d'événements qui seront réalisés. - 1 6 - Evénement ou information dans la gestion de l'incident bagage oublié Traitement dans le serveur de traitement L'heure et la date à laquelle le bagage a été trouvé Au moment où le bagage est trouvé, un incident « Bagage oublié » est créé. L'heure de création de l'incident est enregistrée. Zone précise ou le bagage a été trouvé Au moment de la création de l'incident «Bagage oublié» une bulle d'incident est créée sur la zone «estimée» de présence du bagage. Cette position initiale est enregistrée dans la base de données, rattachée à l'incident considéré. Toute modification de position de l'incident est enregistrée jusqu'à la position précise, par l'intermédiaire d'un clic vidéo sur le bagage repéré. L'heure de fin de L'heure de fin de traitement est l'heure traitement de clôture de l'incident. Cette heure est enregistrée dans la base de données dynamique La personne ayant trouvé le bagage Lors de la création de l'incident «Bagage oublié» le nom de la personne ayant trouvé le bagage est enregistré dans l'un des champs d'information attaché à l'incident. Conclusion - Lors de la clôture de l'incident, la ' conclusion est enregistrée dans l'un des récupéré par le champs d'information attachés à l'incident. Au propriétaire, traitement choix de l'opérateur ce champ pourra être manuel ... prédéfini ou de type texte libre. Les caméras ayant enregistré le bagage Les caméras ayant enregistré le bagage sont automatiquement enregistrées dans la base de données dynamique. Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention.
Claims (12)
- REVENDICATIONS1. Procédé de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée à partir de : - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D, l'application de visualisation 3D étant configurée pour : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.
- 2. Procédé selon la revendication 1, caractérisé en ce que le choix de la caméra la mieux positionnée s'effectue de la manière suivante : - détermination des coordonnées tridimensionnelles d'un point d'impact du propriétaire au sol à partir d'un clic réalisé sur un moniteur 2D affichant un enregistrement en cours de visualisation, - calcul de la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol dans la visualisation 3D à partir d'une fonction bijective entre la visualisation 3D et le moniteur 2D, et détermination de la caméra la mieux positionnée à partir de cette coordonnée tridimensionnelle, puis affichage de l'enregistrement de la caméra la mieux positionnée pour continuer le suivi.- 18
- 3. Procédé selon la revendication 1 ou 2, caractérisé en ce que la caméra la mieux placée est déterminée en calculant le rapport d/f de chaque caméra, d étant la distance entre la caméra concernée et la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol, f étant la distance focale de la caméra concernée.
- 4. Procédé selon la revendication 3, caractérisé en ce que la distance focale et la position des caméras restent inchangées dans le temps.
- 5. Procédé selon la revendication 2 ou 3, caractérisé en ce que la distance focale est identique pour toutes les caméras.
- 6. Procédé selon la revendication 3, caractérisé en ce que le serveur de traitement récupère également des données relatives à la dynamique de la distance focale et de l'orientation des caméras de façon à calculer le rapport d/f.
- 7. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la visualisation 3D et les moniteurs sont intégrés sur un même écran d'affichage.
- 8. Procédé selon la revendication 7, caractérisé en ce que l'écran d'affichage est de type tactile.
- 9. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que pendant le processus de suivi, les enregistrements sont lus à une vitesse supérieure à la vitesse normale d'enregistrement.
- 10. Procédé selon l'une quelconque des revendications précédentes, 30 caractérisé en ce qu'une fois l'emplacement actuel du propriétaire est déterminé, ses coordonnées sont transmises de façon sans fil à des terminaux mobiles distants.
- 11. Procédé selon l'une quelconque des revendications précédentes, 35 caractérisé en ce que la première consigne provient d'un curseur apte à être- 19 déplacé par l'utilisateur sur une ligne de temps affichée dans la visualisation 3D.
- 12. Système de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à : - un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D, ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée de façon à : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.25
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1256857A FR2993385B1 (fr) | 2012-07-16 | 2012-07-16 | Procede et systeme de reconstruction de trajectoire 3d en temps reel |
US14/415,366 US9883165B2 (en) | 2012-07-16 | 2013-07-10 | Method and system for reconstructing 3D trajectory in real time |
PCT/EP2013/064541 WO2014012824A1 (fr) | 2012-07-16 | 2013-07-10 | Procede et systeme de reconstruction de trajectoire 3d en temps reel |
EP13742175.6A EP2873238A1 (fr) | 2012-07-16 | 2013-07-10 | Procede et systeme de reconstruction de trajectoire 3d en temps reel |
CN201380037611.7A CN104521230B (zh) | 2012-07-16 | 2013-07-10 | 用于实时重建3d轨迹的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1256857A FR2993385B1 (fr) | 2012-07-16 | 2012-07-16 | Procede et systeme de reconstruction de trajectoire 3d en temps reel |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2993385A1 true FR2993385A1 (fr) | 2014-01-17 |
FR2993385B1 FR2993385B1 (fr) | 2014-08-01 |
Family
ID=47172804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1256857A Active FR2993385B1 (fr) | 2012-07-16 | 2012-07-16 | Procede et systeme de reconstruction de trajectoire 3d en temps reel |
Country Status (5)
Country | Link |
---|---|
US (1) | US9883165B2 (fr) |
EP (1) | EP2873238A1 (fr) |
CN (1) | CN104521230B (fr) |
FR (1) | FR2993385B1 (fr) |
WO (1) | WO2014012824A1 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2916542A1 (fr) * | 2014-03-04 | 2015-09-09 | Thales | Procédé et système de supervision, notamment appliqué à la vidéosurveillance |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2015207674A1 (en) * | 2014-01-16 | 2016-07-28 | Bartco Traffic Equipment Pty Ltd | System and method for event reconstruction |
CN106683037A (zh) * | 2015-11-06 | 2017-05-17 | 阿里巴巴集团控股有限公司 | 三维可视化移动轨迹数据的方法和设备 |
US10178358B2 (en) * | 2016-01-14 | 2019-01-08 | Wipro Limited | Method for surveillance of an area of interest and a surveillance device thereof |
US9916496B2 (en) | 2016-03-25 | 2018-03-13 | Zero Latency PTY LTD | Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects |
US10421012B2 (en) | 2016-03-25 | 2019-09-24 | Zero Latency PTY LTD | System and method for tracking using multiple slave servers and a master server |
US10486061B2 (en) | 2016-03-25 | 2019-11-26 | Zero Latency Pty Ltd. | Interference damping for continuous game play |
US10717001B2 (en) | 2016-03-25 | 2020-07-21 | Zero Latency PTY LTD | System and method for saving tracked data in the game server for replay, review and training |
US10071306B2 (en) | 2016-03-25 | 2018-09-11 | Zero Latency PTY LTD | System and method for determining orientation using tracking cameras and inertial measurements |
EP3253051A1 (fr) * | 2016-05-30 | 2017-12-06 | Antony Pfoertzsch | Procédé et système pour l'enregistrement de données vidéo avec au moins un système de caméras contrôlable à distance et pouvant être orienté vers des objets |
US10751609B2 (en) | 2016-08-12 | 2020-08-25 | Zero Latency PTY LTD | Mapping arena movements into a 3-D virtual world |
WO2018091112A1 (fr) * | 2016-11-21 | 2018-05-24 | Robert Bosch Gmbh | Dispositif de surveillance pour la surveillance d'une zone de surveillance et module de surveillance pour le dispositif de surveillance |
EP4135315A1 (fr) * | 2017-05-26 | 2023-02-15 | Motorola Solutions, Inc. | Procédé d'identification de observateurs d'objets |
JP6867056B2 (ja) | 2017-07-28 | 2021-04-28 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
US10546197B2 (en) | 2017-09-26 | 2020-01-28 | Ambient AI, Inc. | Systems and methods for intelligent and interpretive analysis of video image data using machine learning |
GB201720992D0 (en) * | 2017-12-15 | 2018-01-31 | Hooper Mark | A medical use |
CN108734022B (zh) * | 2018-04-03 | 2021-07-02 | 安徽师范大学 | 基于三维网格划分的隐私保护轨迹数据发布方法 |
US10628706B2 (en) * | 2018-05-11 | 2020-04-21 | Ambient AI, Inc. | Systems and methods for intelligent and interpretive analysis of sensor data and generating spatial intelligence using machine learning |
US11195067B2 (en) | 2018-12-21 | 2021-12-07 | Ambient AI, Inc. | Systems and methods for machine learning-based site-specific threat modeling and threat detection |
US11443515B2 (en) | 2018-12-21 | 2022-09-13 | Ambient AI, Inc. | Systems and methods for machine learning enhanced intelligent building access endpoint security monitoring and management |
CN111027644B (zh) * | 2019-12-26 | 2023-12-26 | 湖南大学 | 出行模式分类方法、装置、计算机设备和存储介质 |
US20230029566A1 (en) * | 2021-07-27 | 2023-02-02 | Electronics And Telecommunications Research Institute | Method and system for detecting unmanned aerial vehicle using plurality of image sensors |
KR20250001725A (ko) * | 2023-06-29 | 2025-01-07 | 한화비전 주식회사 | 디지털 트윈을 이용한 스마트 관제 기술 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040240542A1 (en) * | 2002-02-06 | 2004-12-02 | Arie Yeredor | Method and apparatus for video frame sequence-based object tracking |
EP1975752A1 (fr) * | 2007-03-30 | 2008-10-01 | Abb Research Ltd. | Procédé pour commander des caméras télécommandées dans un procédé industriel |
JP2011049646A (ja) * | 2009-08-25 | 2011-03-10 | Secom Co Ltd | 置き去り監視装置 |
WO2011060385A1 (fr) * | 2009-11-13 | 2011-05-19 | Pixel Velocity, Inc. | Procédé permettant de suivre un objet dans un environnement par le biais d'une pluralité de caméras |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8564661B2 (en) * | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
US7683929B2 (en) * | 2002-02-06 | 2010-03-23 | Nice Systems, Ltd. | System and method for video content analysis-based detection, surveillance and alarm management |
CN101375598A (zh) * | 2004-06-01 | 2009-02-25 | L-3通信公司 | 视频闪光/视觉警报 |
US20080192118A1 (en) * | 2006-09-22 | 2008-08-14 | Rimbold Robert K | Three-Dimensional Surveillance Toolkit |
US8922659B2 (en) * | 2008-06-03 | 2014-12-30 | Thales | Dynamically reconfigurable intelligent video surveillance system |
US8786702B2 (en) * | 2009-08-31 | 2014-07-22 | Behavioral Recognition Systems, Inc. | Visualizing and updating long-term memory percepts in a video surveillance system |
WO2012067603A1 (fr) * | 2010-11-15 | 2012-05-24 | Intergraph Technologies Company | Système et procédé de commande de caméra dans un système de surveillance |
US8193909B1 (en) * | 2010-11-15 | 2012-06-05 | Intergraph Technologies Company | System and method for camera control in a surveillance system |
US9007432B2 (en) * | 2010-12-16 | 2015-04-14 | The Massachusetts Institute Of Technology | Imaging systems and methods for immersive surveillance |
-
2012
- 2012-07-16 FR FR1256857A patent/FR2993385B1/fr active Active
-
2013
- 2013-07-10 CN CN201380037611.7A patent/CN104521230B/zh not_active Expired - Fee Related
- 2013-07-10 US US14/415,366 patent/US9883165B2/en active Active
- 2013-07-10 EP EP13742175.6A patent/EP2873238A1/fr not_active Withdrawn
- 2013-07-10 WO PCT/EP2013/064541 patent/WO2014012824A1/fr active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040240542A1 (en) * | 2002-02-06 | 2004-12-02 | Arie Yeredor | Method and apparatus for video frame sequence-based object tracking |
EP1975752A1 (fr) * | 2007-03-30 | 2008-10-01 | Abb Research Ltd. | Procédé pour commander des caméras télécommandées dans un procédé industriel |
JP2011049646A (ja) * | 2009-08-25 | 2011-03-10 | Secom Co Ltd | 置き去り監視装置 |
WO2011060385A1 (fr) * | 2009-11-13 | 2011-05-19 | Pixel Velocity, Inc. | Procédé permettant de suivre un objet dans un environnement par le biais d'une pluralité de caméras |
Non-Patent Citations (1)
Title |
---|
SEBE ET AL: "3D video surveillance with Augmented Virtual Environments", INTERNATIONAL MULTIMEDIA CONFERENCE - FIRST ACM SIGMM INTERNATIONAL WORKSHOP ON VIDEO SURVEILLANCE; BERKELEY, CALIFORNIA, NOVEMBER 02 - 08, 2003 (IWVS'03), ACM, NEW YORK, NY, US, 2 November 2003 (2003-11-02), pages 107 - 112, XP007911819, ISBN: 978-1-58113-780-4, DOI: 10.1145/982452.982466 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2916542A1 (fr) * | 2014-03-04 | 2015-09-09 | Thales | Procédé et système de supervision, notamment appliqué à la vidéosurveillance |
FR3018416A1 (fr) * | 2014-03-04 | 2015-09-11 | Thales Sa | Procede et systeme de supervision, notamment applique a la videosurveillance |
Also Published As
Publication number | Publication date |
---|---|
CN104521230A (zh) | 2015-04-15 |
CN104521230B (zh) | 2018-10-02 |
US20150208058A1 (en) | 2015-07-23 |
US9883165B2 (en) | 2018-01-30 |
EP2873238A1 (fr) | 2015-05-20 |
FR2993385B1 (fr) | 2014-08-01 |
WO2014012824A1 (fr) | 2014-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2993385A1 (fr) | Procede et systeme de reconstruction de trajectoire 3d en temps reel | |
US9747502B2 (en) | Systems and methods for automated cloud-based analytics for surveillance systems with unmanned aerial devices | |
US11579759B1 (en) | Systems and methods for security data analysis and display | |
US10152858B2 (en) | Systems, apparatuses and methods for triggering actions based on data capture and characterization | |
US11397462B2 (en) | Real-time human-machine collaboration using big data driven augmented reality technologies | |
CN102682571B (zh) | 信息处理装置、报警方法和程序 | |
KR102189205B1 (ko) | 사람의 활동 개요 생성 시스템 및 방법 | |
US11640726B2 (en) | Person monitoring system and person monitoring method | |
CN104781831A (zh) | 用于生成语义标注的系统和方法 | |
US11610403B2 (en) | Graphical management system for interactive environment monitoring | |
FR3029056A1 (fr) | Procede de gestion d'un parc de dispositifs de secours, serveur de gestion d'un parc de dispositifs de secours et dispositif de secours associes | |
CN106663120A (zh) | 扩展存储器系统 | |
US10395069B2 (en) | Restricting access to a device | |
JP2018181159A (ja) | 防犯システム、防犯方法、及びロボット | |
CN114270409A (zh) | 在计算机生成现实记录中提供限制 | |
JP2018018150A (ja) | 防犯システム、防犯方法、及びロボット | |
WO2018087462A1 (fr) | Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles | |
US20200218898A1 (en) | Augmented reality mapping systems and related methods | |
Raflesia et al. | An integrated child safety using geo-fencing information on mobile devices | |
Refaai et al. | [Retracted] An Enhanced Drone Technology for Detecting the Human Object in the Dense Areas Using a Deep Learning Model | |
WO2020199742A1 (fr) | Téléphone intelligent | |
US11087559B1 (en) | Managing augmented reality content associated with a physical location | |
JP3834641B2 (ja) | カメラ映像データ管理システム、カメラ映像データ管理方法、およびプログラム | |
US20240370960A1 (en) | Choosing related assets for an asset bucket | |
WO2025038828A1 (fr) | Procédés et systèmes de dissuasion d'un comportement suspect dans des établissements de vente au détail |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |
|
PLFP | Fee payment |
Year of fee payment: 10 |
|
PLFP | Fee payment |
Year of fee payment: 11 |
|
PLFP | Fee payment |
Year of fee payment: 12 |
|
PLFP | Fee payment |
Year of fee payment: 13 |