[go: up one dir, main page]

FR2993385A1 - Procede et systeme de reconstruction de trajectoire 3d en temps reel - Google Patents

Procede et systeme de reconstruction de trajectoire 3d en temps reel Download PDF

Info

Publication number
FR2993385A1
FR2993385A1 FR1256857A FR1256857A FR2993385A1 FR 2993385 A1 FR2993385 A1 FR 2993385A1 FR 1256857 A FR1256857 A FR 1256857A FR 1256857 A FR1256857 A FR 1256857A FR 2993385 A1 FR2993385 A1 FR 2993385A1
Authority
FR
France
Prior art keywords
owner
camera
cameras
visualization
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1256857A
Other languages
English (en)
Other versions
FR2993385B1 (fr
Inventor
Laurent Denizot
Fernand Alcatrao
Rodrigue Favrot
Cyril Sepieter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EGIDIUM TECHNOLOGIES
Original Assignee
EGIDIUM TECHNOLOGIES
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EGIDIUM TECHNOLOGIES filed Critical EGIDIUM TECHNOLOGIES
Priority to FR1256857A priority Critical patent/FR2993385B1/fr
Priority to US14/415,366 priority patent/US9883165B2/en
Priority to PCT/EP2013/064541 priority patent/WO2014012824A1/fr
Priority to EP13742175.6A priority patent/EP2873238A1/fr
Priority to CN201380037611.7A priority patent/CN104521230B/zh
Publication of FR2993385A1 publication Critical patent/FR2993385A1/fr
Application granted granted Critical
Publication of FR2993385B1 publication Critical patent/FR2993385B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30112Baggage; Luggage; Suitcase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Alarm Systems (AREA)

Abstract

L'invention concerne un procédé de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée à partir d'un modèle statique de représentation 3D du site, et d'une base de données dynamique de représentation 3D. L'application de visualisation 3D étant configurée pour : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.

Description

- 1 " Procédé et système de reconstruction de trajectoire 3D en temps réel." La présente invention se rapporte à un procédé et un système de reconstruction de trajectoire d'une personne ou d'un objet mobile dans un site. En particulier, la présente invention concerne la gestion de la sécurité au sein de centres de décision pour des sites sensibles tels que des aéroports, des stades, des gares ou autres.
L'invention s'applique avantageusement mais pas uniquement à la recherche de personne ayant oublié un bagage qui peut être considéré comme suspect. Actuellement, en cas de découverte d'un bagage oublié dans une gare par exemple, des appels sont faits via des hauts parleurs afin que la personne ayant oublié son bagage vienne le récupérer. Toutefois, en cas d'abandon volontaire, le propriétaire du bagage ne se présentera pas pour réclamer son bagage. Par ailleurs, même en cas d'abandon accidentel, la durée nécessaire pour que le propriétaire vienne se présenter peut être très long. Ceci est préjudiciable dans la mesure où les activités proches du lieu d'abandon du bagage sont interrompues par précaution jusqu'à ce que la qualité inoffensive du bagage soit reconnue. La présente invention a pour but de réduire le temps de recherche du propriétaire d'un objet dans un lieu comprenant un système de vidéo 25 surveillance. Un autre but de l'invention est un outil efficace, unifié et simple d'utilisation pour identifier un propriétaire. On atteint au moins l'un des objectifs précités avec un procédé de 30 reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras. Ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée à partir de : 35 - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D. - 2 Selon l'invention, l'application de visualisation 3D est configurée pour : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.
Avec le procédé selon l'invention, lorsqu'un objet est oublié dan un site surveillé par des caméras, il est désormais possible de retrouver rapidement le propriétaire de l'objet oublié. Dans des sites sensibles comme des aéroports, un tel procédé permet d'appréhender rapidement le propriétaire d'un bagage oublié afin de vérifier s'il s'agit d'un véritable oubli ou bien d'un acte dangereux. L'emplacement de l'objet peut être déterminé à partir d'un clic de l'utilisateur sur un écran affichant la visualisation 3D du site. L'utilisateur peut avoir reçu des informations de situation de l'objet par un appel d'un surveillant. L'emplacement de l'objet peut également être déterminé à partir de coordonnées GPS (« Global Positioning System ») ou un système de localisation à l'intérieur de bâtiments reçues dans le serveur de traitement. Ces coordonnées seraient transmises par un surveillant depuis notamment un appareil portatif tel un téléphone portable ou un « smartphone ». De préférence, les caméras font parties d'un système de vidéo surveillance intégrant d'autres capteurs. Le procédé selon l'invention offre une visualisation 3D ainsi qu'une aide à la décision multidimensionnelle en temps réel. On peut ainsi détecter un incident, lever un doute, circonscrire une menace ou mener une intervention en quelques secondes au lieu de plusieurs minutes auparavant. - 3 Le serveur de traitement utilise le modèle statique de représentation 3D du site et la base de données dynamique de représentation 3D de façon à déterminer la caméra la mieux placée. La représentation 3D permet notamment de tenir compte des murs et autres obstacles. Il est ainsi possible de savoir si une personne se trouve ou non dans le champ de vision d'une caméra. La base de données dynamique peut comprendre des données dynamiques relatives : - aux mouvements des caméras, - aux différents clics réalisés par l'utilisateur, - à la trajectoire en cours de suivi, - aux coordonnées, - à ligne temporelle, Selon une caractéristique avantageuse de l'invention, le choix de la caméra la mieux positionnée s'effectue de la manière suivante : - détermination des coordonnées tridimensionnelles d'un point d'impact du propriétaire au sol à partir d'un clic réalisé sur un moniteur 2D affichant un enregistrement en cours de visualisation, - calcul de la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol dans la visualisation 3D à partir d'une fonction bijective entre la visualisation 3D et le moniteur 2D, et détermination de la caméra la mieux positionnée à partir de cette coordonnée tridimensionnelle, puis affichage de l'enregistrement de la caméra la mieux positionnée pour continuer le suivi. La présente invention est notamment, mais uniquement, remarquable par le fait qu'en cliquant sur le point d'impact au sol, on fixe en fait la position selon l'axe « z », cette position correspond au sol. Ainsi avec les coordonnées x,y,z, il est possible pour l'homme du métier de trouver une fonction bijective permettant de lier l'affichage vidéo 2D sur un moniteur et la visualisation 3D. A titre d'exemple non limitatif, un algorithme décrivant une fonction bijective peut être défini de la manière suivante : Fonction bijective coordonnées 3D <-> coordonnées 2D caméras f : Repère camera -> Repère 3D f-1 : Repère 3D -> Repère camera - 4- (u, y) coordonnées normalisées du point 2D dans la fenêtre vidéo (X, Y, Y) coordonnées du point 3D dans l'espace tridimensionnel f(u, y, Repère camera, Repère 3D, modèle statique 3D, modèle dynamique 3D) -> X,Y,Z CalculerPosition3D(u, y, repère camera, repère 3D) -> U, V Calculerintersection(U, V, modèle statique 3D, modèle dynamique 3D) -> X, Y, Z f-1(X, Y, Z, Repère 3D, Repère camera, modèle statique 3D, modèle dynamique 3D) -> U, V Si (X, Y, Z) est dans champ camera (Repère Camera) Alors CalculerPosition2D( X, Y, Z, repere 3D, repere camera, u, y) Fin si Un clic sur le moniteur permet d'avoir un positionnement tridimensionnel dans la visualisation 3D. Le passage dans une représentation 3D permet de tenir compte des obstacles et de calculer efficacement les caméras les mieux positionnées. Selon une caractéristique avantageuse de l'invention, la caméra la mieux placée est déterminée en calculant le rapport d/f de chaque caméra, d étant la distance entre la caméra concernée et la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol, f étant la distance focale de la caméra concernée. Par l'expression « la caméra la mieux positionnée », on entend une caméra ayant le propriétaire dans son champ de vision et ayant le rapport d/f le plus petit. On peut avoir un classement de plusieurs caméras et afficher pas uniquement la mieux positionnée mais plusieurs dans celles qui sont les mieux positionnées. Selon un mode de mise en oeuvre, la distance focale et la position des caméras peuvent rester inchangées dans le temps. Cela réduit la dynamique des caméras puisqu'on se retrouve avec des caméras figées. Par contre, cela permet de simplifier les calculs du rapport d/f puisque les distances focales de chaque caméra peuvent être prédéterminées sauvegardées dans un espace - 5 mémoire. Par exemple, pour simplifier encore les calculs, la distance focale peut être identique pour toutes les caméras. Selon un autre mode de mise en oeuvre, le serveur de traitement peut également récupérer des données relatives à la dynamique de la distance focale et de l'orientation des caméras de façon à calculer le rapport d/f. Dans ce cas, le serveur de traitement est constamment relié aux caméras et reçoit en permanence des données caractéristiques de chaque caméra.
Avantageusement, la visualisation 3D et les moniteurs sont intégrés sur un même écran d'affichage. Les moniteurs peuvent être des fenêtres vidéo incrustées dans un écran ayant en arrière plan la visualisation 3D. Un clic de l'utilisateur dans une des fenêtres vidéo permet d'obtenir la position tridimensionnelle correspondante dans la visualisation 3D. De préférence, l'écran d'affichage est de type tactile. Selon une caractéristique avantageuse de l'invention, pendant le processus de suivi, les enregistrements peuvent être lus à une vitesse supérieure à la vitesse normale d'enregistrement. En effet, pour atteindre la visualisation vidéo en temps réel et déterminer l'emplacement actuel du propriétaire, on lit les enregistrements vidéo à une vitesse supérieure à la vitesse normale. Ces enregistrements peuvent être effectués sur un support de stockage numérique permettant une gestion par décalage temporel, appelé « timeshifting » en anglais.
Par ailleurs, une fois l'emplacement actuel du propriétaire est déterminé, ses coordonnées sont transmises de façon sans fil à des terminaux mobiles distants. Selon l'invention, la première consigne peut provenir d'un curseur apte à être déplacé par l'utilisateur sur une ligne de temps affichée dans la visualisation 3D. Ce curseur temporel est un référentiel auquel tous les enregistrements se positionnent. Selon un autre aspect de l'invention, il est proposé un système de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à : - 6 - un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D.
Ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée de façon à : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.
D'autres avantages et caractéristiques de l'invention apparaîtront à l'examen de la description détaillée d'un mode de mise en oeuvre nullement limitatif, et des dessins annexés, sur lesquels : La figure 1 est une vue simplifiée générale du système de reconnaissance selon l'invention, La figure 2 est une vue simplifiée d'une visualisation 3D intégrant deux moniteurs vidéo selon l'invention, La figure 3 est un schéma illustrant une projection du champ de vision d'une caméra sur le sol, La figure 4 est un graphique reprenant des étapes et actions mises en oeuvre dans un processus de suivi temps réel d'une personne, La figure 5 est une vue simplifiée d'une représentation d'un incident dans une visualisation 3D, La figure 6 est une vue simplifié illustrant une visualisation 3D dans la moitié inférieure et trois moniteurs affichant des enregistrements vidéo, et - 7 La figure 7 est une vue schématique simplifiée illustrant l'envoi d'information vers des appareils distants.
Bien que l'invention n'y soit pas limitée, on va maintenant décrire un procédé de reconnaissance de trajectoire d'une personne ayant oublié un bagage à un endroit dans un aéroport. L'invention peut s'appliquer à tout processus de reconnaissance de trajectoire dans un site comprenant un système de vidéo surveillance.
Sur la figure 1 on voit un serveur de traitement 1 doté de composants matériels et logiciels permettant la mise en oeuvre d'une application de visualisation 3D. Les composants matériels comprennent notamment des composants mémoires dites vives et mortes, un ou plusieurs microprocesseurs ou microcontrôleurs, une ou plusieurs cartes graphiques, une ou plusieurs cartes réseaux, et des moyens d'entrées/sorties. Ce serveur de traitement est associé à un écran d'affichage affichant en fond d'écran une visualisation 3D d'un endroit de l'aéroport. L'application de visualisation 3D est réalisée à partir d'un modèle statique 3 de représentation 3D de l'aéroport, ce modèle étant sauvegardé dans une base de données. Ce modèle statique comprend la représentation de la structure de l'aéroport, les murs, les escaliers,... On utilise également une base de données dynamique 4 de représentation 3D. Cette base de données renfermant des données relatives aux mouvements des caméras, les différents clics réalisés par l'utilisateur, les données relatives à la trajectoire en cours de suivi, les coordonnées ainsi que des données sur la ligne temporelle. L'ensemble permet donc d'élaborer une représentation 3D dont une partie est visualisée sur l'écran 2. Le serveur de traitement 1 est également connecté à un système de vidéo surveillance 5 de l'aéroport. Il peut s'agir d'un système de vidéo surveillance existant auquel le serveur de traitement vient se connecter. On peut prévoir d'autres systèmes tels qu'un système anti-intrusion, un système de contrôle d'accès, de géolocalisation ou de communication de façon générale. Avantageusement, ce système de vidéo surveillance comprend une pluralité de caméras 6, 7 et 8 réparties dans tout l'aéroport à des endroits bien précis. Ces caméras sont reliées à une base de données 9 renfermant - 8 des enregistrements vidéo de ces caméras. On peut envisager un enregistrement sur une fenêtre glissante, c'est-à-dire que l'on conserve uniquement par exemple 24heures de vidéo pour ne pas encombrer l'espace mémoire disponible. La base de données 9 peut comporter des supports de stockage numérique effaçant automatiquement tout enregistrement ayant plus de 24 heures. Chaque enregistrement ou vidéo en direct de chaque caméra est susceptible d'être affiché sur un moniteur, c'est-à-dire une fenêtre vidéo incrustée dans l'écran d'affichage 2. Le serveur de traitement 1 est apte à envoyer des instructions au système de vidéo surveillance pour récupérer des enregistrements vidéo. Sur la figure 2, on voit l'écran d'affichage 2 ayant en fond d'écran 10 une visualisation 3D et deux moniteurs vidéo 11 et 12 provenant de deux caméras du système de vidéo surveillance 5. L'application de visualisation 3D mise en oeuvre par le serveur de traitement est de type à réalité augmentée. Il s'agit d'un progiciel dans lequel toutes les informations de sécurité sont spatialisées et normalisées, ceci permettant une aide à la décision en temps réel et une gestion opérationnelle efficace des ressources. Les moniteurs 11 et 12 affichent des vidéo 2D dans lesquelles la fonction de clic avec une souris est prise en compte. L'application de visualisation 3D comporte une fonction bijective entre les vidéo 2D affichées et la visualisation 3D en fond d'écran. Un clic sur une vidéo 2D permet de déterminer la position correspondante dans la visualisation 3D. Un exemple de fonction bijective entre une vue de caméra et le repère 3D peut être défini à partir de la projection de la figure 3 : f : Repère camera -> Repère 3D Le rectangle plein 31 représente la projection de la vue caméra sur le sol. Les traits en pointillés 32 représentent le cône de visibilité de la caméra par rapport à la 3D : il est défini par un vecteur direction DC allant de la caméra au point central vu par la caméra et deux angles a,13 dépendant de la focale et correspondants aux deux axes pour {u;v}={1;1}. La direction 33 s'obtient par rapport à DC et {u.a,v.13}. - 9 - Les coordonnées (x,y,z) du point 34 cliqué sur l'image 2D s'obtiennent par l'intersection de la direction 33 avec le plan représentant le sol. f-1 : Repère 3D -> Repère camera Si le point (X,Y,Z) est dans le champ de la caméra, les coordonnées (u,v) s'obtiennent en projetant le point dans le repère de la caméra. On distingue également sur la figure 2 une ligne de temps 13 avec un premier curseur 14 représentant le temps présent et un second curseur 15 représentant le temps passé. De préférence, les moniteurs 11 et 12 affichent des enregistrements vidéo correspondant au moment du second curseur. Ce second curseur peut être déplacé par l'utilisateur de façon à naviguer dans le temps. Le procédé selon l'invention est un outil d'aide à la décision pour un opérateur de la sécurité-sûreté car il permet: - l'analyse et la restitution dans les quatre dimensions (spatio15 temporelles) des informations issues des caméras et des systèmes de sécurité, - la fusion de données issues de sources d'informations de différentes natures ou de logiciels tiers (géolocalisation et vidéo, anti-intrusion et vidéo, détections multiples présentant des corrélations spatio-temporelles ...), 20 - le calcul de chemins d'évacuation ou d'intervention en fonction du modèle en 3D dynamique (ouverture-fermeture d'accès), et - l'intégration de procédures de sécurité-sûreté dans la gestion des incidents et l'émission de bulletins d'alerte. 25 On va maintenant décrire dans ce qui suit un exemple de mise en oeuvre du procédé selon l'invention pour la recherche d'un propriétaire ayant oublié un bagage dans un endroit à l'intérieur de l'aéroport. La terminologie suivante est utilisée dans la suite : Bagage oublié : paquets, bagages, colis, marchandises, sacs qui ne 30 semblent plus être sous la surveillance de leur Propriétaire, et qui ont fait l'objet d'une alerte. Un bagage est considéré comme oublié pendant 10 min à partir de la déclaration d'alerte. Il prend ensuite le statut de bagage abandonné si son Propriétaire n'a pas été retrouvé dans ces 10 minutes. Bagage abandonné : paquets, bagages, colis, marchandises, sacs, 35 qui se révèlent ne plus être sous la surveillance de leur Propriétaire alors qu'ils se trouvent dans des zones où l'abandon peut entraîner une amende - 10 administrative. Un bagage abandonné est pris en charge par un service de sécurité et fait l'objet d'un périmètre de sécurité. Bagage suspect : il s'agit d'un bagage abandonné dont le Propriétaire n'a pas été retrouvé et qui est considéré comme dangereux par les démineurs après analyse. Propriétaire : la personne qui oublie ou abandonne un bagage. Zone d'oubli : l'endroit où se trouve le bagage oublié. Zone de recherche : zone modélisée en 3D et dans laquelle l'opérateur peut effectuer la recherche de Propriétaires de bagages 10 abandonnés. Incident : un incident est un évènement qui se matérialise par une demi-sphère localisée dans la 3D sur le lieu de l'incident. L'incident permet de symboliser et de localiser le bagage abandonné dans la scène 3D. L'incident est généré par l'événement «bagage oublié». Un incident est une donnée 15 structurée dont tous les changements d'état sont enregistrés. Tag vidéo : un tag vidéo est une étiquette spatio-temporelle créée à partir d'un clic dans une vidéo. Cette étiquette est représentée graphiquement dans la 3D pour la reconstitution de trajectoire. 20 L'application de visualisation 3D exploite une représentation en 3D de l'environnement à sécuriser. Deux zones sont distinguées : la zone d'oubli et la zone de recherche. La zone d'oubli est très concernée par l'abandon de bagages. Afin de faciliter la recherche des propriétaires de bagages abandonnés, l'opérateur dispose d'une modélisation 3D d'une zone plus large 25 que la zone d'oubli : la zone de recherche. Cette zone comprend : - le niveau 0 (Arrivées) contenant la zone d'oubli, - le niveau 1 (Départs) - le niveau -1, - le pourtour extérieur immédiat du bâtiment. 30 La modélisation de ces 3 niveaux permet à l'opérateur de suivre un propriétaire sur plusieurs niveaux et augmente les chances de le retrouver dans un temps imparti de par exemple 10mn. Ceci étant exposé à titre d'exemple, le nombre de niveau n'est pas limitatif. - 11 On prend notamment en compte toutes les caméras observant des entrées et des sorties de zones et des changements de niveau (escaliers et escalators). La procédure de recherche est présentée par un graphique sur la figure 4. Le graphique est découpé en 5 parties : - Les étapes (bagage oublié, bagage repéré ...) - Les activités réalisées entre deux étapes - Les principales actions réalisées par l'opérateur utilisant l'application de visualisation 3D - Les informations reçues par les agents présents sur le terrain - Une ligne de temps indiquant les limites temporelles imposées par un temps imparti.
Comme représenté dans le graphe d'activités de la figure 4, les trois activités qui se déroulent consécutivement pour retrouver le Propriétaire sont - Identifier le Propriétaire - Localiser le Propriétaire - Suivre le Propriétaire A l'étape 1, le bagage oublié est repéré. Le fait générateur de cette étape est la réception par l'opérateur d'une alerte via un système d'alerte ou par tout autre moyen. L'opérateur peut recevoir cette alerte soit directement dans la scène 3D (alarme sonore par exemple) soit sur Smartphone.
L'activité de l'opérateur est de marquer la localisation précise du bagage dans la visualisation 3D. Pour cela, l'opérateur crée un incident dans la scène 3D à partir des informations contenues dans le message d'alerte. Plus ces informations sont précises, plus l'opérateur peut positionner avec précision l'emplacement du bagage abandonné.
Il est possible de générer automatiquement un incident à partir du message d'alerte. En effet, si le message d'alerte est formaté, il est possible de positionner automatiquement un incident à l'emplacement indiqué dans le message. La création d'un incident est une opération rapide effectuée par 35 exemple à l'aide d'un raccourci clavier. Un exemple de représentation d'incident dans une modélisation 3D est illustré sur la figure 5. On distingue - 12 une bulle d'incident 16 représentant une zone d'oubli à côté de deux poteaux. On distingue également un emplacement 17 du propriétaire. L'incident est enregistré dans la base de données dynamique avec ses coordonnées spatio-temporelles et informationnelles. La création de l'incident permet d'enregistrer le temps (TO) qui servira de référence pour déterminer les 10 minutes consacrées à la recherche du propriétaire. A ce stade, l'incident est localisé. L'opérateur va ensuite afficher les flux vidéos des caméras voyant la localisation de l'incident. Cette opération lui permet d'une part de prendre connaissance de la situation réelle et d'autre part de s'assurer que l'incident qu'il a positionné dans la 3D correspond bien à l'emplacement exact du bagage abandonné. L'application de visualisation 3D possède une fonction permettant de déterminer par un simple clic les caméras les mieux positionnées pour voir le point sélectionné. Les obstacles qui ont été modélisés dans la 3D (piliers, murs, panneaux ...) sont pris en compte pour déterminer si l'objet est réellement visible par une caméra. L'opérateur applique cette fonction à l'incident précédemment créé. Il obtient une liste de caméras. Il peut ensuite sélectionner une ou plusieurs caméras et afficher les flux vidéo correspondants. Selon le degré d'ouverture du sous-système vidéo, les fenêtres vidéos seront affichées sur l'écran 2 ou sur un autre écran. Après vérification sur la vidéo, l'opérateur marque le lieu précis de l'incident. Pour cela, il déplace le cas échéant la bulle d'incident puis qualifie l'incident : - Il nomme l'incident en décrivant le bagage abandonné ; par exemple: valise rouge. - Il ajoute un commentaire : bagage repéré. L'application de visualisation 3D traite ces informations comme des évènements qui sont enregistrés en base de données dynamique avec leurs coordonnées spatio-temporelles. Le bagage oublié étant repéré, l'activité de l'opérateur consiste alors à identifier le Propriétaire. Cette identification repose sur le principe suivant : l'opérateur connaissant la liste des caméras qui voient le bagage abandonné, peut examiner les enregistrements vidéo associés à ces caméras, retrouver le moment précis où le bagage a été abandonné et retrouver le Propriétaire. - 13 Pour réaliser l'identification du Propriétaire, l'application de visualisation met à disposition de l'opérateur une fonction « time-line » correspondant à l'affichage de la ligne de temps 13. Cette fonction permet à l'opérateur d'exploiter les enregistrements vidéos des caméras qu'il a précédemment sélectionnées. Il peut les repositionner dans le temps et obtenir une image exploitable du Propriétaire grâce à l'historique vidéo. La fonction « time line » permet de repositionner de manière synchrone les enregistrements de toutes les caméras sélectionnées. L'activité de l'opérateur consiste ensuite à : - Communiquer l'image du Propriétaire - Reconstituer la trajectoire du Propriétaire - Communiquer la trajectoire du Propriétaire Dans un premier temps, l'opérateur communique la ou les captures d'écran afin de fournir aux agents sur le terrain les premières informations leur permettant d'identifier le Propriétaire. Afin d'aider à la reconstitution de trajectoire, l'application de visualisation 3D met à disposition de l'opérateur une fonction de tag vidéo. Lorsque l'opérateur clique dans l'enregistrement vidéo d'une caméra, le progiciel réalise les actions suivantes : - il fait apparaître dans la 3D le point correspondant à l'endroit sélectionné dans la vidéo, - ce tag apparaît alors dans toutes les vues caméras qui voient ce tag (réalité augmentée). La figure 5 est une vue schématique illustrant l'apparition d'un tag vidéo. La fonction de tag vidéo permet d'aider à la reconstitution des trajectoires du Propriétaire grâce aux caractéristiques suivantes : - le tag est appliqué au moyen d'un raccourci clavier d'une souris et d'une touche tactile, - l'heure à laquelle l'image a été prise est associée à chaque tag vidéo, - la fonction tag vidéo relie dans la visualisation 3D deux tags successifs, ce qui fournit à l'opérateur une trajectoire au fur et à mesure de l'exploitation des enregistrements vidéos. Lorsque le propriétaire se déplace, il finit par sortir du champ de la caméra. Dans ce cas, l'opérateur utilise la fonction de sélection immédiate des caméras en cliquant au pied du propriétaire de façon à marquer son point - 14 d'impact au sol : le système se charge de lui fournir la liste des caméras. Il peut ainsi sélectionner une autre caméra et poursuivre la reconstitution de la trajectoire. Le schéma de la figure 6 donne une illustration de ce fonctionnement : l'opérateur utilise alors le tag vidéo sur l'enregistrement vidéo d'une des caméras, par exemple la caméra 1 à gauche, en cliquant au pied de la personne visible sur l'écran, afin de continuer à reconstituer la trajectoire. Ce fonctionnement est itératif. Très rapidement, il peut fournir des indications importantes qui vont permettre d'orienter les recherches. Exemple d'indications : le Propriétaire a emprunté l'escalator situé au niveau de la porte G pour descendre au niveau -1; le Propriétaire s'est dirigé vers le magasin « R »... Dès lors que les indices de trajectoires sont pertinents, l'opérateur peut les transmettre aux agents de sécurité déployés dans le terminal sud.
Le travail de reconstitution des trajectoires a pour objectif d'aboutir à la localisation du Propriétaire à l'instant courant. Il est néanmoins possible que le travail effectué par l'opérateur ne permette pas de localiser le propriétaire, pour diverses raisons : - le Propriétaire a quitté la zone de recherche, - l'opérateur n'a pas pu reconstituer la trajectoire. Dans ce cas, si le délai des 10 minutes est dépassé, le bagage oublié deviendra un bagage abandonné et traité comme tel. L'opérateur pourra néanmoins poursuivre la recherche au-delà de ces 10 premières minutes. Si le propriétaire est localisé, ceci clôt l'incident, opération réalisée manuellement par l'opérateur qui ajoute un commentaire dans la fenêtre Incidents. On va maintenant décrire un processus d'alerte depuis le serveur de traitement vers des appareils distants. Ces alertes sont des échanges d'information entre l'opérateur et des agents déployés dans l'aéroport. Afin de favoriser ces échanges, l'application de visualisation 3D est interfacée avec des smartphones sur le terrain. Ces échanges comprennent: - L'envoi d'information sur le Propriétaire. Dès que l'opérateur a identifié le propriétaire, il communique une ou plusieurs captures d'écran réalisées à partir des enregistrements vidéos et les envoie de façon sécurisé - 15 aux agents sur le terrain disposant d'un smartphone identifié sur le système pour leur permettre d'identifier le Propriétaire. - Le smartphone envoie régulièrement au système des messages permettant de géolocaliser l'agent afin de mieux le guider.
L'envoi d'information sur la trajectoire du Propriétaire au fur et à mesure de sa reconstitution. Ces envois se feront sous la forme de messages contenant des commentaires succincts. Sur la figure 7, on voit un exemple d'envoi d'information sur le propriétaire depuis le serveur de traitement vers les agents de sécurité et notamment vers la police aux frontières. A l'étape 1, on extrait une photo depuis un moniteur et l'opérateur rédige un commentaire à l'étape 2. La photo et le commentaire sont envoyés via un réseau mobile vers des téléphones multimédia (« smartphone ») de plusieurs agents de sécurité présents sur le site. Cette photo et le commentaire sont transmis sous forme d'un message crypté vers ces agents qui sont à la recherche du propriétaire. Le commentaire peut contenir des informations sur le lieu ou la trajectoire suivie par le propriétaire. La photo est horodatée. En d'autres termes, pour envoyer un message, l'opérateur dispose dans l'interface homme-machine de la visualisation 3D d'une fonction lui permettant : - De réaliser une capture d'écran à partir des enregistrements vidéo, - D'écrire un commentaire dans une fenêtre, - De cliquer sur un bouton d'envoi afin de transmettre l'ensemble 25 « Photo + commentaires » aux autres acteurs disposant d'un smartphone dédié. On peut également envisager la transmission d'email depuis le serveur de traitement.
30 De façon générale, l'application de visualisation 3D est conçue au- dessus d'une base de données qui enregistre dans les quatre dimensions (spatiale et temporelle) tous les événements et changements d'état liés à une opération de sécurité-sûreté. Dans le cas de la problématique des bagages abandonnés, le tableau 35 ci-après décrit un exemple non exhaustif d'événements qui seront réalisés. - 1 6 - Evénement ou information dans la gestion de l'incident bagage oublié Traitement dans le serveur de traitement L'heure et la date à laquelle le bagage a été trouvé Au moment où le bagage est trouvé, un incident « Bagage oublié » est créé. L'heure de création de l'incident est enregistrée. Zone précise ou le bagage a été trouvé Au moment de la création de l'incident «Bagage oublié» une bulle d'incident est créée sur la zone «estimée» de présence du bagage. Cette position initiale est enregistrée dans la base de données, rattachée à l'incident considéré. Toute modification de position de l'incident est enregistrée jusqu'à la position précise, par l'intermédiaire d'un clic vidéo sur le bagage repéré. L'heure de fin de L'heure de fin de traitement est l'heure traitement de clôture de l'incident. Cette heure est enregistrée dans la base de données dynamique La personne ayant trouvé le bagage Lors de la création de l'incident «Bagage oublié» le nom de la personne ayant trouvé le bagage est enregistré dans l'un des champs d'information attaché à l'incident. Conclusion - Lors de la clôture de l'incident, la ' conclusion est enregistrée dans l'un des récupéré par le champs d'information attachés à l'incident. Au propriétaire, traitement choix de l'opérateur ce champ pourra être manuel ... prédéfini ou de type texte libre. Les caméras ayant enregistré le bagage Les caméras ayant enregistré le bagage sont automatiquement enregistrées dans la base de données dynamique. Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention.

Claims (12)

  1. REVENDICATIONS1. Procédé de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée à partir de : - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D, l'application de visualisation 3D étant configurée pour : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.
  2. 2. Procédé selon la revendication 1, caractérisé en ce que le choix de la caméra la mieux positionnée s'effectue de la manière suivante : - détermination des coordonnées tridimensionnelles d'un point d'impact du propriétaire au sol à partir d'un clic réalisé sur un moniteur 2D affichant un enregistrement en cours de visualisation, - calcul de la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol dans la visualisation 3D à partir d'une fonction bijective entre la visualisation 3D et le moniteur 2D, et détermination de la caméra la mieux positionnée à partir de cette coordonnée tridimensionnelle, puis affichage de l'enregistrement de la caméra la mieux positionnée pour continuer le suivi.- 18
  3. 3. Procédé selon la revendication 1 ou 2, caractérisé en ce que la caméra la mieux placée est déterminée en calculant le rapport d/f de chaque caméra, d étant la distance entre la caméra concernée et la coordonnée tridimensionnelle d'un point d'impact du propriétaire au sol, f étant la distance focale de la caméra concernée.
  4. 4. Procédé selon la revendication 3, caractérisé en ce que la distance focale et la position des caméras restent inchangées dans le temps.
  5. 5. Procédé selon la revendication 2 ou 3, caractérisé en ce que la distance focale est identique pour toutes les caméras.
  6. 6. Procédé selon la revendication 3, caractérisé en ce que le serveur de traitement récupère également des données relatives à la dynamique de la distance focale et de l'orientation des caméras de façon à calculer le rapport d/f.
  7. 7. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la visualisation 3D et les moniteurs sont intégrés sur un même écran d'affichage.
  8. 8. Procédé selon la revendication 7, caractérisé en ce que l'écran d'affichage est de type tactile.
  9. 9. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que pendant le processus de suivi, les enregistrements sont lus à une vitesse supérieure à la vitesse normale d'enregistrement.
  10. 10. Procédé selon l'une quelconque des revendications précédentes, 30 caractérisé en ce qu'une fois l'emplacement actuel du propriétaire est déterminé, ses coordonnées sont transmises de façon sans fil à des terminaux mobiles distants.
  11. 11. Procédé selon l'une quelconque des revendications précédentes, 35 caractérisé en ce que la première consigne provient d'un curseur apte à être- 19 déplacé par l'utilisateur sur une ligne de temps affichée dans la visualisation 3D.
  12. 12. Système de reconstruction de trajectoire dans un site au moyen d'un serveur de traitement connecté à : - un ensemble de caméras et ayant accès aux enregistrements vidéo de ces caméras, - un modèle statique de représentation 3D du site, et - une base de données dynamique de représentation 3D, ce serveur de traitement met en oeuvre une application de visualisation 3D à base de réalité virtuelle et réalité augmentée de façon à : - déterminer, dans la visualisation 3D à un instant TO, l'emplacement d'un objet considéré comme oublié dans le site par un propriétaire en réponse à une première consigne de l'utilisateur, - déterminer au moins une caméra la mieux positionnée pour afficher ledit objet, - accéder à un enregistrement vidéo de cette caméra de façon à afficher l'enregistrement à un instant t précédent TO, t est déterminé en réponse à une seconde consigne correspondant au moment où l'objet a été oublié par un propriétaire, - activer un processus de suivi du propriétaire à travers les enregistrements des différentes caméras depuis l'instant t jusqu'à l'instant présent de façon à déterminer l'emplacement actuel dudit propriétaire.25
FR1256857A 2012-07-16 2012-07-16 Procede et systeme de reconstruction de trajectoire 3d en temps reel Active FR2993385B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR1256857A FR2993385B1 (fr) 2012-07-16 2012-07-16 Procede et systeme de reconstruction de trajectoire 3d en temps reel
US14/415,366 US9883165B2 (en) 2012-07-16 2013-07-10 Method and system for reconstructing 3D trajectory in real time
PCT/EP2013/064541 WO2014012824A1 (fr) 2012-07-16 2013-07-10 Procede et systeme de reconstruction de trajectoire 3d en temps reel
EP13742175.6A EP2873238A1 (fr) 2012-07-16 2013-07-10 Procede et systeme de reconstruction de trajectoire 3d en temps reel
CN201380037611.7A CN104521230B (zh) 2012-07-16 2013-07-10 用于实时重建3d轨迹的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1256857A FR2993385B1 (fr) 2012-07-16 2012-07-16 Procede et systeme de reconstruction de trajectoire 3d en temps reel

Publications (2)

Publication Number Publication Date
FR2993385A1 true FR2993385A1 (fr) 2014-01-17
FR2993385B1 FR2993385B1 (fr) 2014-08-01

Family

ID=47172804

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1256857A Active FR2993385B1 (fr) 2012-07-16 2012-07-16 Procede et systeme de reconstruction de trajectoire 3d en temps reel

Country Status (5)

Country Link
US (1) US9883165B2 (fr)
EP (1) EP2873238A1 (fr)
CN (1) CN104521230B (fr)
FR (1) FR2993385B1 (fr)
WO (1) WO2014012824A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2916542A1 (fr) * 2014-03-04 2015-09-09 Thales Procédé et système de supervision, notamment appliqué à la vidéosurveillance

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2015207674A1 (en) * 2014-01-16 2016-07-28 Bartco Traffic Equipment Pty Ltd System and method for event reconstruction
CN106683037A (zh) * 2015-11-06 2017-05-17 阿里巴巴集团控股有限公司 三维可视化移动轨迹数据的方法和设备
US10178358B2 (en) * 2016-01-14 2019-01-08 Wipro Limited Method for surveillance of an area of interest and a surveillance device thereof
US9916496B2 (en) 2016-03-25 2018-03-13 Zero Latency PTY LTD Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects
US10421012B2 (en) 2016-03-25 2019-09-24 Zero Latency PTY LTD System and method for tracking using multiple slave servers and a master server
US10486061B2 (en) 2016-03-25 2019-11-26 Zero Latency Pty Ltd. Interference damping for continuous game play
US10717001B2 (en) 2016-03-25 2020-07-21 Zero Latency PTY LTD System and method for saving tracked data in the game server for replay, review and training
US10071306B2 (en) 2016-03-25 2018-09-11 Zero Latency PTY LTD System and method for determining orientation using tracking cameras and inertial measurements
EP3253051A1 (fr) * 2016-05-30 2017-12-06 Antony Pfoertzsch Procédé et système pour l'enregistrement de données vidéo avec au moins un système de caméras contrôlable à distance et pouvant être orienté vers des objets
US10751609B2 (en) 2016-08-12 2020-08-25 Zero Latency PTY LTD Mapping arena movements into a 3-D virtual world
WO2018091112A1 (fr) * 2016-11-21 2018-05-24 Robert Bosch Gmbh Dispositif de surveillance pour la surveillance d'une zone de surveillance et module de surveillance pour le dispositif de surveillance
EP4135315A1 (fr) * 2017-05-26 2023-02-15 Motorola Solutions, Inc. Procédé d'identification de observateurs d'objets
JP6867056B2 (ja) 2017-07-28 2021-04-28 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US10546197B2 (en) 2017-09-26 2020-01-28 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of video image data using machine learning
GB201720992D0 (en) * 2017-12-15 2018-01-31 Hooper Mark A medical use
CN108734022B (zh) * 2018-04-03 2021-07-02 安徽师范大学 基于三维网格划分的隐私保护轨迹数据发布方法
US10628706B2 (en) * 2018-05-11 2020-04-21 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of sensor data and generating spatial intelligence using machine learning
US11195067B2 (en) 2018-12-21 2021-12-07 Ambient AI, Inc. Systems and methods for machine learning-based site-specific threat modeling and threat detection
US11443515B2 (en) 2018-12-21 2022-09-13 Ambient AI, Inc. Systems and methods for machine learning enhanced intelligent building access endpoint security monitoring and management
CN111027644B (zh) * 2019-12-26 2023-12-26 湖南大学 出行模式分类方法、装置、计算机设备和存储介质
US20230029566A1 (en) * 2021-07-27 2023-02-02 Electronics And Telecommunications Research Institute Method and system for detecting unmanned aerial vehicle using plurality of image sensors
KR20250001725A (ko) * 2023-06-29 2025-01-07 한화비전 주식회사 디지털 트윈을 이용한 스마트 관제 기술

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240542A1 (en) * 2002-02-06 2004-12-02 Arie Yeredor Method and apparatus for video frame sequence-based object tracking
EP1975752A1 (fr) * 2007-03-30 2008-10-01 Abb Research Ltd. Procédé pour commander des caméras télécommandées dans un procédé industriel
JP2011049646A (ja) * 2009-08-25 2011-03-10 Secom Co Ltd 置き去り監視装置
WO2011060385A1 (fr) * 2009-11-13 2011-05-19 Pixel Velocity, Inc. Procédé permettant de suivre un objet dans un environnement par le biais d'une pluralité de caméras

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564661B2 (en) * 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US7683929B2 (en) * 2002-02-06 2010-03-23 Nice Systems, Ltd. System and method for video content analysis-based detection, surveillance and alarm management
CN101375598A (zh) * 2004-06-01 2009-02-25 L-3通信公司 视频闪光/视觉警报
US20080192118A1 (en) * 2006-09-22 2008-08-14 Rimbold Robert K Three-Dimensional Surveillance Toolkit
US8922659B2 (en) * 2008-06-03 2014-12-30 Thales Dynamically reconfigurable intelligent video surveillance system
US8786702B2 (en) * 2009-08-31 2014-07-22 Behavioral Recognition Systems, Inc. Visualizing and updating long-term memory percepts in a video surveillance system
WO2012067603A1 (fr) * 2010-11-15 2012-05-24 Intergraph Technologies Company Système et procédé de commande de caméra dans un système de surveillance
US8193909B1 (en) * 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
US9007432B2 (en) * 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240542A1 (en) * 2002-02-06 2004-12-02 Arie Yeredor Method and apparatus for video frame sequence-based object tracking
EP1975752A1 (fr) * 2007-03-30 2008-10-01 Abb Research Ltd. Procédé pour commander des caméras télécommandées dans un procédé industriel
JP2011049646A (ja) * 2009-08-25 2011-03-10 Secom Co Ltd 置き去り監視装置
WO2011060385A1 (fr) * 2009-11-13 2011-05-19 Pixel Velocity, Inc. Procédé permettant de suivre un objet dans un environnement par le biais d'une pluralité de caméras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SEBE ET AL: "3D video surveillance with Augmented Virtual Environments", INTERNATIONAL MULTIMEDIA CONFERENCE - FIRST ACM SIGMM INTERNATIONAL WORKSHOP ON VIDEO SURVEILLANCE; BERKELEY, CALIFORNIA, NOVEMBER 02 - 08, 2003 (IWVS'03), ACM, NEW YORK, NY, US, 2 November 2003 (2003-11-02), pages 107 - 112, XP007911819, ISBN: 978-1-58113-780-4, DOI: 10.1145/982452.982466 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2916542A1 (fr) * 2014-03-04 2015-09-09 Thales Procédé et système de supervision, notamment appliqué à la vidéosurveillance
FR3018416A1 (fr) * 2014-03-04 2015-09-11 Thales Sa Procede et systeme de supervision, notamment applique a la videosurveillance

Also Published As

Publication number Publication date
CN104521230A (zh) 2015-04-15
CN104521230B (zh) 2018-10-02
US20150208058A1 (en) 2015-07-23
US9883165B2 (en) 2018-01-30
EP2873238A1 (fr) 2015-05-20
FR2993385B1 (fr) 2014-08-01
WO2014012824A1 (fr) 2014-01-23

Similar Documents

Publication Publication Date Title
FR2993385A1 (fr) Procede et systeme de reconstruction de trajectoire 3d en temps reel
US9747502B2 (en) Systems and methods for automated cloud-based analytics for surveillance systems with unmanned aerial devices
US11579759B1 (en) Systems and methods for security data analysis and display
US10152858B2 (en) Systems, apparatuses and methods for triggering actions based on data capture and characterization
US11397462B2 (en) Real-time human-machine collaboration using big data driven augmented reality technologies
CN102682571B (zh) 信息处理装置、报警方法和程序
KR102189205B1 (ko) 사람의 활동 개요 생성 시스템 및 방법
US11640726B2 (en) Person monitoring system and person monitoring method
CN104781831A (zh) 用于生成语义标注的系统和方法
US11610403B2 (en) Graphical management system for interactive environment monitoring
FR3029056A1 (fr) Procede de gestion d&#39;un parc de dispositifs de secours, serveur de gestion d&#39;un parc de dispositifs de secours et dispositif de secours associes
CN106663120A (zh) 扩展存储器系统
US10395069B2 (en) Restricting access to a device
JP2018181159A (ja) 防犯システム、防犯方法、及びロボット
CN114270409A (zh) 在计算机生成现实记录中提供限制
JP2018018150A (ja) 防犯システム、防犯方法、及びロボット
WO2018087462A1 (fr) Dispositif individuel d&#39;immersion visuelle pour personne en mouvement avec gestion des obstacles
US20200218898A1 (en) Augmented reality mapping systems and related methods
Raflesia et al. An integrated child safety using geo-fencing information on mobile devices
Refaai et al. [Retracted] An Enhanced Drone Technology for Detecting the Human Object in the Dense Areas Using a Deep Learning Model
WO2020199742A1 (fr) Téléphone intelligent
US11087559B1 (en) Managing augmented reality content associated with a physical location
JP3834641B2 (ja) カメラ映像データ管理システム、カメラ映像データ管理方法、およびプログラム
US20240370960A1 (en) Choosing related assets for an asset bucket
WO2025038828A1 (fr) Procédés et systèmes de dissuasion d&#39;un comportement suspect dans des établissements de vente au détail

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13