[go: up one dir, main page]

DE60020420T2 - Situationsdarstellungs-Anzeigesystem - Google Patents

Situationsdarstellungs-Anzeigesystem Download PDF

Info

Publication number
DE60020420T2
DE60020420T2 DE60020420T DE60020420T DE60020420T2 DE 60020420 T2 DE60020420 T2 DE 60020420T2 DE 60020420 T DE60020420 T DE 60020420T DE 60020420 T DE60020420 T DE 60020420T DE 60020420 T2 DE60020420 T2 DE 60020420T2
Authority
DE
Germany
Prior art keywords
data objects
events
objects
attributed data
video streams
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60020420T
Other languages
English (en)
Other versions
DE60020420D1 (de
Inventor
Richard C. Concord Waters
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of DE60020420D1 publication Critical patent/DE60020420D1/de
Publication of DE60020420T2 publication Critical patent/DE60020420T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft ein Echtzeit-Situationsdarstellungssystem und -verfahren nach den vorkennzeichnenden Teilen von Anspruch 1 bzw. Anspruch 10
  • HINTERGRUND DER ERFINDUNG
  • Videoüberwachungssysteme sind bekannt. Im Fall von Fahrzeugen werden mehrere Typen von Überwachungssystemen genutzt. Einige Fahrzeuge, z.B. Busse, weisen Kameras auf, die so angebracht sind, dass der Fahrer Straßenbereiche neben oder hinter dem Bus überblicken kann. Jedoch ist typischerweise nur eine Kamera vorhanden, und das Display zeigt lediglich genau das, was die Kamera sieht. Es gibt nicht den Versuch, das angezeigte Bild zu analysieren. Diese Systeme funktionieren einfach wie Sichtspiegel für schlecht einzusehende Bereiche. Ähnlich können Polizeifahrzeuge eine in früheren Zeiten übliche Aufzeichnung der Sicht aus dem vorderen Fenster erfassen.
  • Einige Fahrzeuge, wie zum Beispiel computergesteuerte Fahrzeuge, enthalten auch Sensoren. Die Sensoren erfassen eventuell gefährliche Situationen wie zum Beispiel zu schnelles Näherrücken an ein anderes Fahrzeug. Es wurden vielfältige Sensoren, zum Beispiel Sonar-, Laser- und Mikrowellensensoren eingesetzt. Diese Systeme bewirken keine Anzeige der allgemeinen Situation, vielmehr erfassen sie nur einige gefährliche Situationen.
  • Radar- und Sonarsysteme können eine Situationsanzeige und manchmal einen gewissen Analysegrad wie zum Beispiel in einem Luftverkehrs-Kontrollsystem erzeugen. Jedoch basieren Radar- und Sonarsysteme nicht auf Videobildern sondern vielmehr auf der Verarbeitung von mit spezifischen Frequenzen übertragenen reflektierten Signalen.
  • Es sind mehrere Typen von Überwachungssystemen bekannt. Es ist bezeichnend, dass diese Systeme mehrere Videoströme zu einer zentralen Stelle leiten. Die Videoströme können auf entsprechenden Monitoren angezeigt werden. Wenn die Anzahl von Kameras größer als die Anzahl von Anzeigestationen ist, dann zeigt das System gewöhnlich Kamerasichten in Folge oder auf Anforderung der Bedienperson an. Diese Typen von Systemen führen weder eine Analyse durch, noch führen sie mehrere Ströme zu einer einzigen Situationsanzeige zusammen. Meistens können sie mehrere unabhängige Ansichten nebeneinander auf einem einzelnen Bildschirm mit zeitlichen und örtlichen Anmerkungen anordnen.
  • Es gibt auch Systeme, die spezielle Orte wie Rolltreppen, Aufzüge, Schlagbäume, Bankautomaten, Umzäunungen überwachen, um das Auftreten von besonderen Situationen zu bestimmen. Einige dieser Systeme können versuchen, das Video zu analysieren, um bewegliche Objekte zum Beispiel zur Gewinnung eines Kennzeichens zu erfassen. Jedoch kombinieren diese Systeme typischerweise weder die Informationen von mehreren Quellen noch erzeugen sie eine gesamte Situationsanzeige, noch setzen sie ein Bild von einem anderen Betrachtungspunkt zusammen.
  • US-A-5 410 346 offenbart ein System zum Bestimmen eines Abstands zwischen einem fahrenden Fahrzeuge und einem Objekt, der über ein abgebildetes Bild bestimmt wird. Dreidimensionale Objekte oder eine Straßenform werden zusammen mit einer genauen Position oder Dimension ebenfalls erfasst. Ein Objekt innerhalb eines eingestellten Bereichs außerhalb eines Fahrzeugs wird abgebildet durch ein stereoskopisches optisches System zum Eingeben des abgebildeten Bildes des Objekts in ein Verarbeitungsgerät für Raumbilder. Das Verarbeitungsgerät für Raumbilder verarbeitet das durch das stereoskopische optische System abgebildete Bild, um eine Entfernungsverteilung über das gesamte Bild zu berechnen. Eine Detektiervorrichtung für Straßen/dreidimensionale Objekte berechnet dreidimensionale Positionen von entsprechenden Teilen von Objekten, die Informationen der Entfernungsverteilung entsprechen, um die Form der Straße und eine Vielzahl von dreidimensionalen Objekten zur erfassen, indem Informationen dieser dreidimensionalen Positionen sicher und mit hoher Zuverlässigkeit verwendet werden.
  • Des Weiteren beschreibt WO 98 45816 A ein Verfahren zur Näherung an ein rechnergestütztes Modell einer Szene in der realen Welt oder einer künstlichen Szene. Das Computermodell nutzt Datenobjekte auf Abstraktionsbasis sowie auf Bildern basierende Datenobjekte. Ein Korrelationsnetz bewirkt Verbindungen zwischen zugeordneten bild- und abstraktionsbasierten Objekten. Ein Anfangsschritt in einem Prozess analysiert einen eingegebenen Bildfluss und Benutzereingaben, um anfängliche bildbasierte und abstraktionsbasierte Objekte für das Szenenmodell abzuleiten. Nachfolgende Schritte in dem Prozess ermöglichen es, dass Benutzereingaben bildbasierte Objekte, abstraktionsbasierte Objekte und/oder das Korrelationsnetz verfeinern. Die Folge ist, dass Verfeinerungen an dem bildbasierten Objektmodell der Szene das abstraktionsbasierte Modell der Szene verbessern können und Verfeinerungen an dem abstraktionsbasierten Objektmodell das bildbasierte Modell verbessern können.
  • ABRISS DER ERFINDUNG
  • Echtzeit-Situationsdarstellungssystem und -verfahren nach der Erfindung sind durch die Merkmale von Anspruch 1 bzw. Anspruch 7 gekennzeichnet.
  • Das Situationsdarstellungssystem enthält eine Vielzahl von Kameras. Jede Kamera erfasst eine Bildfolge von überlappenden Teilen eines interessierenden Bereiches. Ein Analysiermittel führt die durch die Vielzahl von Kameras erfassten Bildfolgen zusammen und identifiziert bewegliche Objekte im interessierenden Bereich. Eine Anzeigevorrichtung zeigt die zusammengefassten Bildfolgen und mit den identifizierten beweglichen Objekten verbundene Informationen an.
  • In einer bevorzugten Ausführung wird der optische Fluss in zeitlich aufeinander folgenden Bildern eines einzelnen Videostroms analysiert, um Bewegungsfelder zu erzeugen. Räumlich benachbarte Bilder mehrerer Videoströme werden registriert, um Tiefenbilder zu erhalten. Die Bewegungsfelder und Tiefenbilder werden segmentiert, um teilweise zugeschriebene Datenobjekte zu erzeugen. Unter Verwendung einer anwenderspezifischen Datenbank und Analyse werden die teilweise zugeschriebenen Datenobjekte in vollständig zugeschriebene Datenobjekte und Ereignisse umgewandelt, die als mit Anmerkungen versehene grafische Elemente und Alarmmeldungen angezeigt werden. Die Betrachtungsorientierung der Anzeige kann vom Betrachtungspunkt der Kameras abhängig sein.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigen
  • 1 ein Blockdiagramm eines erfindungsgemäßen Darstellungssystems;
  • 2 ein Blockdiagramm eines Analysier-Zusammensetzmittels des Systems von 1; und
  • 3 ein beispielhaftes künstliches Bild, das durch das System von 1 erzeugt wird.
  • AUSFÜHRLICHE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSBEISPIELE
  • Systemübersicht
  • 1 zeigt das Situationsdarstellungssystem 100 entsprechend meiner Erfindung. Das System 100 umfasst mehrere Videokameras 101106. Jede Kamera erfasst eine Bildfolge als einen Videostrom 115. Es sind sechs Kameras gezeigt, wobei weniger oder mehrere verwendet werden können. Wegen Redundanz können zusätzliche Kameras im Fall eines Kameraausfalls oder eines Hindernisses vorgesehen werden. Die Kameras können so angeordnet werden, damit ein ganzes Blickfeld von 360 Grad eines interessierenden Bereiches um ein Fahrzeug herum erhalten wird.
  • Für andere Anwendungen ist ein kleineres Blickfeld geeignet. Die durch jede Kamera zur Verfügung gestellten Bilder überdecken Teile des interessierenden Bereiches, so dass stereoskopische Verfahren zur Gewinnung von Tiefeninformationen verwendet werden können. Es können Weitwinkelobjektive genutzt werden, um die Größe der Überdeckung zu erhöhen, ohne die Anzahl von Kameras zu vergrößern.
  • Das Ausgangssignal der Kameras, digitalisierte Videoströme 115, wird mit einem Analysier-Zusammensetzmittel 200 verbunden. Das Analysier-Zusammensetzmittel 200 nach meiner Erfindung analysiert die Videoströme und erzeugt eine künstliche Anzeige 300 auf einem Ausgabegerät 120.
  • Arbeitsweise des Systems
  • In einem betriebsbereiten System können die Kameras zum Beispiel an einem in 1 durch Strichlinien dargestellten Fahrzeug 130 montiert werden. Die Kameras können auch an anderen unbeweglichen oder beweglichen Stellen angeordnet werden, um das interessierende Gebiet, im Allgemeinen 125, die Bereiche vor den verschiedenen Objektiven zu beobachten.
  • Das Analysier-Zusammensetzmittel 200 wirkt auf die Daten der mehreren Videoströme in Echtzeit ein. Der Analysierteil entnimmt zeitliche und räumliche Daten aus den Videoströmen, um Objekte und ihre Merkmale wie zum Beispiel Größe, Position und Geschwindigkeit zu identifizieren. Außerdem werden Beziehungen zwischen den identifizierten Objekten bestimmt, zum Beispiel zwei Fahrzeuge auf sich schneidenden Kursen. Mit anderen Worten, die Videoströme werden auf eine Beziehung von zugeschriebenen Objekten reduziert. Die zugeschriebenen Objekte werden analysiert, um Ereignisse, zum Beispiel eine mögliche Kollision oder eine Gefahrenzone, zu detektieren. Der Zusammensetzmittelteil erzeugt die Situationsdarstellungsanzeige 300 der Beziehungen der zugeschriebenen Objekte und den Ereignissen zugeordnete optionale Alarmmeldungen.
  • Nach meiner Erfindung ist in die Situationsdarstellungsanzeige 300 vollständig synthetisch. Im Gegensatz zum Stand der Technik lösche ich den Videostrom 115, nachdem er analysiert ist. Außerdem integriert das Zusammensetzmittel die aus den mehreren Videoströmen entnommenen Informationen zu einer einzelnen Anzeige 300. Darüber hinaus können Alarmsignale 140 erzeugt werden, wenn bestimmte gefährliche Situationen oder Ereignisse erkannt werden. Die Alarmsignale können angezeigt oder an irgendein anderes Ausgabegerät 150 gegeben werden. In einer alternativen Ausführung können die Alarmsignale 140 ein Ausweichmanöver zur Kollisionsvermeidung, zum Beispiel Bremsen oder Verlangsamen, auslösen.
  • Zusammensatz-Analysiermittel
  • Wie in 2 gezeigt ist, werden Videoströme 115 von mehreren Kameras 101106 an das Analysier-/Zusammensetzmittel 200 über einen Analog-Digital-Wandler bei Bedarf als digitale Videodaten 201 gegeben. Aus den digitalen Videodaten 201 werden zeitliche und räumliche Informationen entnommen.
  • Eine Analyse 210 des optischen Flusses wird genutzt, um Bewegungsfelder 211 aus zeitlich (?t) getrennten Bildern, zum Beispiel aus Bewegungsfeldern aufeinander folgender Bildfolgen in einer einzelnen Videosequenz zu bestimmen.
  • Eine Bildregistrierung 220 wird verwendet, um aus räumlich (?x, ?y) sich überdeckenden Bildern einen Tiefenbild 221 zu bestimmen, indem zum Beispiel Bildfolgen genutzt werden, die aus überdeckenden Teilen des interessierenden Bereiches durch mehrere Kameras aufgenommen werden. Das Tiefenbild legt im Einzelnen den Abstand (?Z) zu jedem Pixel in dem Bild fest.
  • Die Bewegungsfelder und Tiefenbilder werden segmentiert, um teilweise zugeschriebene Datenobjekte 231 zu erzeugen. Zum Beispiel ist es wahrscheinlich, dass Pixel mit dem gleichen optischen Fluss bei gleicher Tiefe dem gleichen Objekt zugeordnet sind. Eine Verwendung sowohl des optischen Flusses als auch der Abstände schafft eine stabile Segmentierung, insbesondere, wenn die Flussanalyse gleichzeitig mit der Registrierung vorgenommen wird, so dass die abgeleiteten Ergebnisse (Bewegungsfelder und Tiefenwerte) miteinander korrelieren (215).
  • Die Teileigenschaften können Größe, Position, Geschwindigkeit, Bewegungsrichtung der Objekte im dreidimensionalen Raum umfassen. Die Objekte werden nur zum Teil zugeschrieben, weil andere Eigenschaften, die von zusätzlichen Kenntnissen abhängig sind, wie zum Beispiel die genaue Identität der Objekte, noch nicht bestimmt wurden.
  • Die teilweise zugeschriebenen Datenobjekte 231 können in Verbindung mit einer anwenderspezifischen Datenbank 239 analysiert 240 werden, um vollständig zugeschriebene Datenobjekte 241 und Ereignisse 242 zu erzeugen. Zum Beispiel ist eine einseitige Ansicht eines Sattelschleppers ausreichend, um auf die gesamte Form des Objekts zu schließen. Es können verschiedene Arten von Schablonenvergleichsschemen verwendet werden, um spezifische, gemeinsam vorkommende Objekte wie zum Beispiel andere Fahrzeuge, Fußgänger, Fahrräder, Lastkraftwagen und dergleichen vollständig zu identifizieren. Bei einer Fahrzeuganwendung können die Merkmale außerdem Fahrbahnteiler, Gehwege, Haltesignale, Leitplanken, Bordsteine, Gebäude, Zäune und so weiter enthalten.
  • Die Ereignisse 242 können erzeugt werden, indem die Beziehungen zwischen den zugeschriebenen Objekten, zum Beispiel die Situation eines möglichen Zusammenstoßes, ein Auto kommt von der Strasse ab oder die Situation schwächeren Lichtes, analysiert werden. Es können auch zusätzliche Sensoren 249 eingesetzt werden, um die Anzahl von Ereignissen, die detektiert werden können, zu erhöhen.
  • Ein Zusammensetzmittel 250 wandelt die vollständig zugeschriebenen Datenobjekte 241 in mit Anmerkungen versehene grafische Elemente 251 und Alarmmeldungen 252 um. Der letzte Schritt gibt 260 die grafischen Elemente 251 und Alarmmeldungen 252 wieder.
  • Anzeige
  • Es sind viele unterschiedliche Typen von Situationsanzeigen möglich. Die Anzeige 300 in 3 zeigt eine Vogelperspektive des interessierenden Bereichs mit dem Fahrzeug 310, an dem die Situationsdarstellungsvorrichtung, mit fester Ausrichtung in der Nähe des Mittelpunktes der Anzeige angeordnet, montiert ist, und mit Anmerkungen versehene Objekte sich relativ zu dem Betrachtungspunkt bewegen. Es ist anzumerken, dass die Ansicht vollständig synthetisch und orthogonal zu der durch die Kameras betrachtete Sicht ist.
  • Es werden ebenso bestimmte andere Bildmerkmale wie zum Beispiel Fußgängerüberweg 320, Gebäude 330, anderer Verkehr 340, ein Fahrrad 350 und so weiter dargestellt.
  • Die Pfeile 301 können genutzt werden, um die Bewegungsrichtung von Objekten, die nicht unbeweglich sind, darzustellen. Das Bestimmen der Ausrichtung der Pfeile erfordert eine aktive Analyse im Gegensatz zur passiven Anzeige des Ausgangssignals der Kameras wie es im Stand der Technik erfolgt.
  • In einem interessierenden Bereich, bei dem ausreichendes Umgebungslicht nicht gewährleistet werden kann, kann meine Erfindung durch das Einbeziehen von aktiver Beleuchtung erweitert werden. In einigen Situationen könnte es von Nutzen sein, Infrarotlicht, um entweder im Dunkeln zu sehen, ohne dass eine aktive Beleuchtung erforderlich ist oder als harmlose aktive Beleuchtung zu verwenden. In Situationen wie Nebel, wo die Sichtverhältnisse schlecht sind, kann meine Erfindung betrieben werden durch eine Lichtquelle sorgfältig ausgewählter Wellenlängen oder eine Stroboskoplichtquelle, die mit dem Verschluss der Kameras geeignet synchronisiert sind, um auf interessierende Objekte fokussiert zu werden und anderes Streulicht zu unterdrücken.
  • In einer Ausführung meiner Erfindung kann der Analysierschritt 240 sekundäre Daten 238 aufnehmen. In einer Fahrzeuganwendung können die Daten die Geschwindigkeit oder Position des Fahrzeugs, wie sie von einem GPS-Empfänger erhalten werden, umfassen. Mit der Fahrzeuggeschwindigkeit kann die Analyse verbessert und vereinfacht werden. Positionsdaten ermöglichen die Verwendung von Karten auf der Anzeige sowie aktuelle Namen von Straßen und Plätzen.
  • In einer anderen Ausführung befindet sich die Anzeige 300 unter Kontrolle des Benutzers. Zum Beispiel gibt der Benutzer bei einer Gebäudeüberwachungsanwendung Steuersignale 239 ein, um die Art und Weise wie die mit Anmerkungen versehenen grafischen Elemente und Alarmmeldungen angezeigt werden, zu modifizieren oder die Orientierung des Betrachtungspunkts zu ändern. Es ist außerdem möglich, die Alarmmeldungen und grafischen Elemente zu einer entfernten Stelle zu übertragen. Zum Beispiel kann die Bedienperson, während sie zu einem geparkten Fahrzeug geht, den interessierenden Bereich in der Nähe des Fahrzeugs von einem sicheren Ort aus auf einem tragbaren Anzeigegerät betrachten.
  • Außerdem können mehrere Fahrzeuge die Situationsinformationen miteinander austauschen, um den Umfang der Anzeige zu verbessern. Andere Bereiche, in denen die Erfindung verwendet werden kann, umfassen Flughäfen, Wasserstrassen und dergleichen.

Claims (7)

  1. Echtzeit-Situationsdarstellungssystem, welches aufweist: mehrere Kameras (101 bis 106), die mehrere Videoströme (115) von überlappenden Teilen eines interessierenden Bereichs erwerben; Analysiermittel (42) zum Reduzieren der mehreren Videoströme (115) auf zugeschriebene Datenobjekte und Ereignisse; Zusammensetzmittel (250) zum Darstellen der zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252) auf einer Ausgabevorrichung (150); Mittel (210) zum zeitweisen Analysieren eines optischen Flusses in aufeinander folgenden Bildern eines einzelnen Videostroms, um Bewegungsfelder zu erzeugen; Mittel (220) zum räumlichen Registrieren benachbarter Bilder von mehreren Videoströmen, um Tiefenbilder zu erhalten; und Mittel (230) zum Segmentieren der Bewegungsfelder und der Tiefenbilder, um teilweise zugeschriebene Datenobjekte zu erzeugen; dadurch gekennzeichnet, dass die Zusammensetzmittel (250) die zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252) und mit Anmerkungen versehene grafische Elemente (251) auf einer Ausgabevorrichtung (120, 150) darstellen; dass die Analysemittel (240) die teilweise zugeschriebenen Datenobjekte analysieren unter Verwendung einer anwendungsspezifischen Datenbank, um vollständig zugeschriebene Datenobjekte und Ereignisse zu erzeugen, und dass Schablonenvergleichsschemen verwendet werden, um spezifische, gemeinsam auftretende Objekte vollständig zu identifizieren.
  2. System nach Anspruch 1, weiterhin aufweisend: Sensoren (249), die den Analysierschritt mit sekundären Daten und Signalen versorgen.
  3. System nach Anspruch 1, bei dem die Zusammensetzmittel (250) eine Anzeige erzeugen mit einem Betrachtungspunkt, der im wesentlichen orthogonal zu dem Betrachtungspunkt der Kameras (101 bis 106) ist.
  4. System nach Anspruch 1, bei dem der interessierende Bereich eine Panoramaszene ist.
  5. System nach Anspruch 1, bei dem Anmerkungen für die grafischen Elemente Bewegungsrichtungen enthalten.
  6. System nach Anspruch 3, bei dem Benutzersteuersignale die Anzeige bestimmen.
  7. Verfahren zum Erzeugen einer Echtzeit-Situationsdarstellungsanzeige, welches die Schritte aufweist: Erwerben mehrerer Videoströme (115) von überlappenden Teilen eines interessierenden Bereichs; Reduzieren der mehreren Videoströme (115) auf zugeschriebene Datenobjekte und Ereignisse, Darstellen der zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252) auf einer Ausgabevorrichtung (150); zeitmäßiges Analysieren eines optischen Flusses in aufeinander folgenden Bildern eines einzelnen Videostroms, um Bewegungsfelder zu erzeugen; räumliches Registrieren benachbarter Bilder von mehreren Videoströmen, um Tiefenbilder zu erhalten; und Segmentieren der Bewegungsfelder und Tiefenbilder, um teilweise zugeschriebene Datenobjekte zu erzeugen, dadurch gekennzeichnet, dass der Schritt des Darstellens der zugeschriebenen Datenobjekte und Ereignisse die zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252) und mit Anmerkungen versehene grafische Elemente (251) auf einer Ausgabevorrichtung (120, 150) darstellt; dass der Schritt des Analysierens die teilweise zugeschriebenen Datenobjekte analysiert unter Verwendung einer anwendungsspezifischen Datenbank (239), um vollständig zugeschriebene Datenobjekte und Ereignisse zu erzeugen, und dass Schablonenvergleichsschemen verwendet werden, um spezifische, gemeinsam auftretende Objekte vollständig zu identifizieren.
DE60020420T 1999-02-16 2000-02-14 Situationsdarstellungs-Anzeigesystem Expired - Lifetime DE60020420T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US250956 1981-04-01
US09/250,956 US6396535B1 (en) 1999-02-16 1999-02-16 Situation awareness system

Publications (2)

Publication Number Publication Date
DE60020420D1 DE60020420D1 (de) 2005-07-07
DE60020420T2 true DE60020420T2 (de) 2006-05-04

Family

ID=22949871

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60020420T Expired - Lifetime DE60020420T2 (de) 1999-02-16 2000-02-14 Situationsdarstellungs-Anzeigesystem

Country Status (5)

Country Link
US (1) US6396535B1 (de)
EP (1) EP1030188B1 (de)
JP (1) JP3876288B2 (de)
AT (1) ATE297022T1 (de)
DE (1) DE60020420T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2306426A1 (de) * 2009-10-01 2011-04-06 Kapsch TrafficCom AG Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche
DE102011014699A1 (de) * 2011-03-22 2012-09-27 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259220A3 (de) * 1998-07-31 2012-09-26 Panasonic Corporation Vorrichtung und Verfahren zur Bildanzeige
EP1038734B1 (de) * 1998-10-08 2019-05-15 Panasonic Intellectual Property Corporation of America Fahrhilfevorrichtung und aufzeichnungsmedium
CN100438623C (zh) * 1999-04-16 2008-11-26 松下电器产业株式会社 图象处理装置及监视系统
GB2352859A (en) * 1999-07-31 2001-02-07 Ibm Automatic zone monitoring using two or more cameras
JP2001315603A (ja) * 2000-05-09 2001-11-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP3599639B2 (ja) * 2000-05-26 2004-12-08 松下電器産業株式会社 画像処理装置
EP1168248A3 (de) * 2000-06-30 2003-12-10 Matsushita Electric Industrial Co., Ltd. Bildwiedergabevorrichtung
US7319479B1 (en) * 2000-09-22 2008-01-15 Brickstream Corporation System and method for multi-camera linking and analysis
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US7183944B2 (en) * 2001-06-12 2007-02-27 Koninklijke Philips Electronics N.V. Vehicle tracking and identification of emergency/law enforcement vehicles
JP3996428B2 (ja) * 2001-12-25 2007-10-24 松下電器産業株式会社 異常検知装置及び異常検知システム
US20050128304A1 (en) * 2002-02-06 2005-06-16 Manasseh Frederick M. System and method for traveler interactions management
US20030202701A1 (en) * 2002-03-29 2003-10-30 Jonathon Schuler Method and apparatus for tie-point registration of disparate imaging sensors by matching optical flow
US7073158B2 (en) * 2002-05-17 2006-07-04 Pixel Velocity, Inc. Automated system for designing and developing field programmable gate arrays
US7257236B2 (en) 2002-05-22 2007-08-14 A4Vision Methods and systems for detecting and recognizing objects in a controlled wide area
EP1509872A1 (de) * 2002-05-22 2005-03-02 A4Vision Verfahren und systeme zur detektion und erkennung von objekten in einem kontrollierten weiten raum
US7174033B2 (en) 2002-05-22 2007-02-06 A4Vision Methods and systems for detecting and recognizing an object based on 3D image data
US6990406B2 (en) * 2002-07-22 2006-01-24 California Institute Of Technology Multi-agent autonomous system
AU2003253474A1 (en) * 2002-09-02 2004-03-19 Samsung Electronics Co., Ltd. Optical information storage medium and method of and apparatus for recording and/or reproducing information on and/or from the optical information storage medium
US20040052501A1 (en) * 2002-09-12 2004-03-18 Tam Eddy C. Video event capturing system and method
EP1563686B1 (de) * 2002-11-12 2010-01-06 Intellivid Corporation Verfahren und system zur verfolgung und verhaltensüberwachung von mehreren objekten, die sich durch mehrere sichtfelder bewegen
US7221775B2 (en) * 2002-11-12 2007-05-22 Intellivid Corporation Method and apparatus for computerized image background analysis
DE10325762A1 (de) * 2003-06-05 2004-12-23 Daimlerchrysler Ag Bildverarbeitungssystem für ein Fahrzeug
US7660436B2 (en) * 2003-06-13 2010-02-09 Sarnoff Corporation Stereo-vision based imminent collision detection
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
US7068815B2 (en) 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
US6956469B2 (en) * 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
EP1652161B2 (de) * 2003-07-25 2010-06-30 Robert Bosch Gmbh Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
US7286157B2 (en) * 2003-09-11 2007-10-23 Intellivid Corporation Computerized method and apparatus for determining field-of-view relationships among multiple image sensors
US7346187B2 (en) * 2003-10-10 2008-03-18 Intellivid Corporation Method of counting objects in a monitored environment and apparatus for the same
DE10347213A1 (de) * 2003-10-10 2005-05-12 Bosch Gmbh Robert Informationsvorrichtung
US7280673B2 (en) * 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
JP2005124010A (ja) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd 撮像装置
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
WO2005060640A2 (en) * 2003-12-15 2005-07-07 Sarnoff Corporation Method and apparatus for object tracking prior to imminent collision detection
US7109889B2 (en) * 2004-03-01 2006-09-19 Honeywell International Inc. Methods and apparatus for surface movement situation awareness
US7103213B2 (en) * 2004-03-02 2006-09-05 Sarnoff Corporation Method and apparatus for classifying an object
WO2005086080A1 (en) * 2004-03-02 2005-09-15 Sarnoff Corporation Method and apparatus for detecting a presence
WO2005086079A1 (en) * 2004-03-02 2005-09-15 Sarnoff Corporation Method and apparatus for differentiating pedestrians, vehicles, and other objects
US7788109B2 (en) * 2004-04-03 2010-08-31 Altusys Corp. Method and apparatus for context-sensitive event correlation with external control in situation-based management
US20050222895A1 (en) * 2004-04-03 2005-10-06 Altusys Corp Method and Apparatus for Creating and Using Situation Transition Graphs in Situation-Based Management
US8694475B2 (en) * 2004-04-03 2014-04-08 Altusys Corp. Method and apparatus for situation-based management
US20050222810A1 (en) * 2004-04-03 2005-10-06 Altusys Corp Method and Apparatus for Coordination of a Situation Manager and Event Correlation in Situation-Based Management
EP2182730B1 (de) * 2004-06-15 2020-05-20 Panasonic Intellectual Property Management Co., Ltd. Monitor und Fahrzeugumgebungsmonitor
DE102005000652A1 (de) * 2005-01-04 2006-07-13 Robert Bosch Gmbh Verfahren für die Objekterfassung
EP1696669B1 (de) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Gerät zur Fahrzeugumgebungsbeobachtung
CA2601477C (en) 2005-03-25 2015-09-15 Intellivid Corporation Intelligent camera selection and object tracking
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
US9036028B2 (en) 2005-09-02 2015-05-19 Sensormatic Electronics, LLC Object tracking and alerts
FR2891934B1 (fr) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison Dispositif de traitement de donnees video pour un vehicule automobile
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
US7526105B2 (en) * 2006-03-29 2009-04-28 Mark Dronge Security alarm system
JP2009533778A (ja) * 2006-04-17 2009-09-17 オブジェクトビデオ インコーポレイテッド 統計的画素モデリングを使った映像セグメント化
US7671728B2 (en) 2006-06-02 2010-03-02 Sensormatic Electronics, LLC Systems and methods for distributed monitoring of remote sites
US7825792B2 (en) * 2006-06-02 2010-11-02 Sensormatic Electronics Llc Systems and methods for distributed monitoring of remote sites
US20080036864A1 (en) * 2006-08-09 2008-02-14 Mccubbrey David System and method for capturing and transmitting image data streams
US20080151049A1 (en) * 2006-12-14 2008-06-26 Mccubbrey David L Gaming surveillance system and method of extracting metadata from multiple synchronized cameras
WO2008103850A2 (en) * 2007-02-21 2008-08-28 Pixel Velocity, Inc. Scalable system for wide area surveillance
JP4538468B2 (ja) * 2007-02-27 2010-09-08 日立オートモティブシステムズ株式会社 画像処理装置,画像処理方法、及び画像処理システム
JP5121258B2 (ja) * 2007-03-06 2013-01-16 株式会社東芝 不審行動検知システム及び方法
AU2008262268B2 (en) * 2007-06-09 2012-05-03 Sensormatic Electronics, LLC System and method for integrating video analytics and data analytics/mining
US20090086023A1 (en) * 2007-07-18 2009-04-02 Mccubbrey David L Sensor system including a configuration of the sensor as a virtual sensor device
JP4970195B2 (ja) * 2007-08-23 2012-07-04 株式会社日立国際電気 人物追跡システム、人物追跡装置および人物追跡プログラム
FR2922072B1 (fr) * 2007-10-03 2011-04-29 Latecoere Procede et systeme d'aide au roulage d'un aeronef
US20090091620A1 (en) * 2007-10-05 2009-04-09 Anderson Leroy E Electronic security system
JP4561863B2 (ja) * 2008-04-07 2010-10-13 トヨタ自動車株式会社 移動体進路推定装置
EP2219133B1 (de) * 2009-02-17 2011-10-05 Autoliv Development AB Verfahren und System zur automatischen Detektion von Objekten vor einem Kraftfahrzeug
WO2010113253A1 (ja) * 2009-03-31 2010-10-07 コニカミノルタホールディングス株式会社 3次元情報表示装置および3次元情報表示方法
EP2416292A4 (de) 2009-03-31 2014-09-03 Konica Minolta Holdings Inc Bildintegrationseinheit und bildintegrationsverfahren
DE102009016562A1 (de) * 2009-04-06 2009-11-19 Daimler Ag Verfahren und Vorrichtung zur Objekterkennung
US20100321500A1 (en) * 2009-06-18 2010-12-23 Honeywell International Inc. System and method for addressing video surveillance fields of view limitations
US9536348B2 (en) * 2009-06-18 2017-01-03 Honeywell International Inc. System and method for displaying video surveillance fields of view limitations
US20110115909A1 (en) * 2009-11-13 2011-05-19 Sternberg Stanley R Method for tracking an object through an environment across multiple cameras
DE102010013093A1 (de) * 2010-03-29 2011-09-29 Volkswagen Ag Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
US9001211B1 (en) * 2010-06-11 2015-04-07 Kervin R. Spivey Surveillance system apparatus
JP4609603B2 (ja) * 2010-07-21 2011-01-12 コニカミノルタホールディングス株式会社 3次元情報表示装置および3次元情報表示方法
CN102348100A (zh) * 2010-07-30 2012-02-08 江彦宏 视讯雷达显示系统
EP2420982A1 (de) * 2010-08-19 2012-02-22 Yan-Hong Chiang Videoradaranzeigesystem
DE102010046433B4 (de) * 2010-09-24 2012-06-21 Grenzebach Maschinenbau Gmbh Vorrichtung und Verfahren zum Detektieren von Fehlstellen in kontinuierlich erzeugtem Float-Glas
TW201217200A (en) * 2010-10-20 2012-05-01 yan-hong Jiang capable of controlling throttle, braking or steering according to the re-constructed environment information so as to improve driving safety
TW201333896A (zh) * 2012-02-14 2013-08-16 yan-hong Jiang 使用視訊雷達的遠距交通管理系統
CN103105581A (zh) * 2013-01-24 2013-05-15 上海毕励电子科技有限公司 基于视频识别的电气设备状态量采集方法
US9696420B2 (en) * 2013-04-09 2017-07-04 Ford Global Technologies, Llc Active park assist object detection
EP2843589B1 (de) * 2013-08-29 2019-03-13 Alcatel Lucent Verfahren und Plattform zum Senden einer Nachricht an eine mit einem sich bewegenden Objekt assoziierte Kommunikationsvorrichtung
DE102013224954A1 (de) 2013-12-05 2015-06-11 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen einer Warnung mittels zweier durch Kameras erfasster Bilder einer Fahrzeugumgebung
CN106573588B (zh) 2014-08-21 2019-01-25 三菱电机株式会社 驾驶辅助装置、驾驶辅助方法和程序
EP3007099B1 (de) * 2014-10-10 2022-12-07 Continental Autonomous Mobility Germany GmbH Bilderkennungssystem für ein Fahrzeug und entsprechendes Verfahren
KR102347249B1 (ko) 2014-10-21 2022-01-04 삼성전자주식회사 외부 물체의 움직임과 연관된 이벤트에 응답하여 화면을 디스플레이하는 장치 및 방법
JP6150950B1 (ja) 2015-11-20 2017-06-21 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
US10003732B2 (en) 2016-02-25 2018-06-19 Foodim Ltd Depth of field processing
US10678257B2 (en) * 2017-09-28 2020-06-09 Nec Corporation Generating occlusion-aware bird eye view representations of complex road scenes
CN107719367A (zh) * 2017-10-26 2018-02-23 西安正昌电子股份有限公司 一种360°环视和位置识别系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5809161A (en) 1992-03-20 1998-09-15 Commonwealth Scientific And Industrial Research Organisation Vehicle monitoring system
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP3209828B2 (ja) * 1993-05-25 2001-09-17 松下電器産業株式会社 車間距離計測装置とステレオ画像取り込み装置
US5819016A (en) 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP3156817B2 (ja) * 1994-03-14 2001-04-16 矢崎総業株式会社 車両周辺監視装置
US5793420A (en) 1994-10-28 1998-08-11 Schmidt; William P. Video recording system for vehicle
US5717456A (en) 1995-03-06 1998-02-10 Champion International Corporation System for monitoring a continuous manufacturing process
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5768443A (en) 1995-12-19 1998-06-16 Cognex Corporation Method for coordinating multiple fields of view in multi-camera
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US5680123A (en) 1996-08-06 1997-10-21 Lee; Gul Nam Vehicle monitoring system
US5982420A (en) * 1997-01-21 1999-11-09 The United States Of America As Represented By The Secretary Of The Navy Autotracking device designating a target
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2306426A1 (de) * 2009-10-01 2011-04-06 Kapsch TrafficCom AG Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche
DE102011014699A1 (de) * 2011-03-22 2012-09-27 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug
DE102011014699B4 (de) * 2011-03-22 2015-10-29 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug

Also Published As

Publication number Publication date
ATE297022T1 (de) 2005-06-15
JP3876288B2 (ja) 2007-01-31
EP1030188B1 (de) 2005-06-01
US6396535B1 (en) 2002-05-28
DE60020420D1 (de) 2005-07-07
JP2000244897A (ja) 2000-09-08
EP1030188A1 (de) 2000-08-23

Similar Documents

Publication Publication Date Title
DE60020420T2 (de) Situationsdarstellungs-Anzeigesystem
DE102006010735B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102007002419B4 (de) Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm
DE60005426T2 (de) Rückblicksüberwachungssystem für Fahrzeuge
DE60009114T2 (de) Vorrichtung zur unterstützung von kraftfahrzeugführern
DE102007002345B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE2425466C2 (de) Einrichtung zur Überwachung von Räumen durch optisch-elektronische Meßmittel
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102020100080A1 (de) Adaptive transparenz eines virtuellen fahrzeugs in einem simulierten bildgebungssystem
EP0805362B1 (de) Verfahren zur Hinderniswarnung für tieffliegende Fluggeräte
DE102009051526A1 (de) System und Verfahren zum Abbilden der Fahrzeugumgebung mit ein- und verstellbarer Perspektive
AT502551B1 (de) Verfahren und bildauswertungseinheit zur szenenanalyse
EP1589484A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE10059313A1 (de) Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs
DE102017217056A1 (de) Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug
DE102010061922A1 (de) Mit einer Blickrichtung eines Fahrers gekoppeltes System und Verfahren zum Alarmieren einer Frontalaufprallgefahr und ein dasselbe verwendendes Fahrzeug
DE112016002268T5 (de) Bildverarbeitungsvorrichtung, elektronisches spiegelsystem und bildverarbeitungsverfahren
EP1273516A1 (de) Einrichtung zum Erfassen optischer Informationen
EP1460454A2 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE19621612A1 (de) Verfahren und Vorrichtung zur optischen Freiraumüberwachung
EP3078015A1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102005050609B4 (de) Vorrichtung und Verfahren zum Überwachen der Umgebung eines Fahrzeugs
DE102021207415A1 (de) Verfahren zur Informationsbeschaffung und Assistenzsystem
DE112012003630B4 (de) Verfahren, anordnung und fahrassistenzsystem zur ermittlung der räumlichen verteilung von objekten relativ zu einem fahrzeug

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)