DE60020420T2 - Situationsdarstellungs-Anzeigesystem - Google Patents
Situationsdarstellungs-Anzeigesystem Download PDFInfo
- Publication number
- DE60020420T2 DE60020420T2 DE60020420T DE60020420T DE60020420T2 DE 60020420 T2 DE60020420 T2 DE 60020420T2 DE 60020420 T DE60020420 T DE 60020420T DE 60020420 T DE60020420 T DE 60020420T DE 60020420 T2 DE60020420 T2 DE 60020420T2
- Authority
- DE
- Germany
- Prior art keywords
- data objects
- events
- objects
- attributed data
- video streams
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Description
- GEBIET DER ERFINDUNG
- Die Erfindung betrifft ein Echtzeit-Situationsdarstellungssystem und -verfahren nach den vorkennzeichnenden Teilen von Anspruch 1 bzw. Anspruch 10
- HINTERGRUND DER ERFINDUNG
- Videoüberwachungssysteme sind bekannt. Im Fall von Fahrzeugen werden mehrere Typen von Überwachungssystemen genutzt. Einige Fahrzeuge, z.B. Busse, weisen Kameras auf, die so angebracht sind, dass der Fahrer Straßenbereiche neben oder hinter dem Bus überblicken kann. Jedoch ist typischerweise nur eine Kamera vorhanden, und das Display zeigt lediglich genau das, was die Kamera sieht. Es gibt nicht den Versuch, das angezeigte Bild zu analysieren. Diese Systeme funktionieren einfach wie Sichtspiegel für schlecht einzusehende Bereiche. Ähnlich können Polizeifahrzeuge eine in früheren Zeiten übliche Aufzeichnung der Sicht aus dem vorderen Fenster erfassen.
- Einige Fahrzeuge, wie zum Beispiel computergesteuerte Fahrzeuge, enthalten auch Sensoren. Die Sensoren erfassen eventuell gefährliche Situationen wie zum Beispiel zu schnelles Näherrücken an ein anderes Fahrzeug. Es wurden vielfältige Sensoren, zum Beispiel Sonar-, Laser- und Mikrowellensensoren eingesetzt. Diese Systeme bewirken keine Anzeige der allgemeinen Situation, vielmehr erfassen sie nur einige gefährliche Situationen.
- Radar- und Sonarsysteme können eine Situationsanzeige und manchmal einen gewissen Analysegrad wie zum Beispiel in einem Luftverkehrs-Kontrollsystem erzeugen. Jedoch basieren Radar- und Sonarsysteme nicht auf Videobildern sondern vielmehr auf der Verarbeitung von mit spezifischen Frequenzen übertragenen reflektierten Signalen.
- Es sind mehrere Typen von Überwachungssystemen bekannt. Es ist bezeichnend, dass diese Systeme mehrere Videoströme zu einer zentralen Stelle leiten. Die Videoströme können auf entsprechenden Monitoren angezeigt werden. Wenn die Anzahl von Kameras größer als die Anzahl von Anzeigestationen ist, dann zeigt das System gewöhnlich Kamerasichten in Folge oder auf Anforderung der Bedienperson an. Diese Typen von Systemen führen weder eine Analyse durch, noch führen sie mehrere Ströme zu einer einzigen Situationsanzeige zusammen. Meistens können sie mehrere unabhängige Ansichten nebeneinander auf einem einzelnen Bildschirm mit zeitlichen und örtlichen Anmerkungen anordnen.
- Es gibt auch Systeme, die spezielle Orte wie Rolltreppen, Aufzüge, Schlagbäume, Bankautomaten, Umzäunungen überwachen, um das Auftreten von besonderen Situationen zu bestimmen. Einige dieser Systeme können versuchen, das Video zu analysieren, um bewegliche Objekte zum Beispiel zur Gewinnung eines Kennzeichens zu erfassen. Jedoch kombinieren diese Systeme typischerweise weder die Informationen von mehreren Quellen noch erzeugen sie eine gesamte Situationsanzeige, noch setzen sie ein Bild von einem anderen Betrachtungspunkt zusammen.
- US-A-5 410 346 offenbart ein System zum Bestimmen eines Abstands zwischen einem fahrenden Fahrzeuge und einem Objekt, der über ein abgebildetes Bild bestimmt wird. Dreidimensionale Objekte oder eine Straßenform werden zusammen mit einer genauen Position oder Dimension ebenfalls erfasst. Ein Objekt innerhalb eines eingestellten Bereichs außerhalb eines Fahrzeugs wird abgebildet durch ein stereoskopisches optisches System zum Eingeben des abgebildeten Bildes des Objekts in ein Verarbeitungsgerät für Raumbilder. Das Verarbeitungsgerät für Raumbilder verarbeitet das durch das stereoskopische optische System abgebildete Bild, um eine Entfernungsverteilung über das gesamte Bild zu berechnen. Eine Detektiervorrichtung für Straßen/dreidimensionale Objekte berechnet dreidimensionale Positionen von entsprechenden Teilen von Objekten, die Informationen der Entfernungsverteilung entsprechen, um die Form der Straße und eine Vielzahl von dreidimensionalen Objekten zur erfassen, indem Informationen dieser dreidimensionalen Positionen sicher und mit hoher Zuverlässigkeit verwendet werden.
- Des Weiteren beschreibt WO 98 45816 A ein Verfahren zur Näherung an ein rechnergestütztes Modell einer Szene in der realen Welt oder einer künstlichen Szene. Das Computermodell nutzt Datenobjekte auf Abstraktionsbasis sowie auf Bildern basierende Datenobjekte. Ein Korrelationsnetz bewirkt Verbindungen zwischen zugeordneten bild- und abstraktionsbasierten Objekten. Ein Anfangsschritt in einem Prozess analysiert einen eingegebenen Bildfluss und Benutzereingaben, um anfängliche bildbasierte und abstraktionsbasierte Objekte für das Szenenmodell abzuleiten. Nachfolgende Schritte in dem Prozess ermöglichen es, dass Benutzereingaben bildbasierte Objekte, abstraktionsbasierte Objekte und/oder das Korrelationsnetz verfeinern. Die Folge ist, dass Verfeinerungen an dem bildbasierten Objektmodell der Szene das abstraktionsbasierte Modell der Szene verbessern können und Verfeinerungen an dem abstraktionsbasierten Objektmodell das bildbasierte Modell verbessern können.
- ABRISS DER ERFINDUNG
- Echtzeit-Situationsdarstellungssystem und -verfahren nach der Erfindung sind durch die Merkmale von Anspruch 1 bzw. Anspruch 7 gekennzeichnet.
- Das Situationsdarstellungssystem enthält eine Vielzahl von Kameras. Jede Kamera erfasst eine Bildfolge von überlappenden Teilen eines interessierenden Bereiches. Ein Analysiermittel führt die durch die Vielzahl von Kameras erfassten Bildfolgen zusammen und identifiziert bewegliche Objekte im interessierenden Bereich. Eine Anzeigevorrichtung zeigt die zusammengefassten Bildfolgen und mit den identifizierten beweglichen Objekten verbundene Informationen an.
- In einer bevorzugten Ausführung wird der optische Fluss in zeitlich aufeinander folgenden Bildern eines einzelnen Videostroms analysiert, um Bewegungsfelder zu erzeugen. Räumlich benachbarte Bilder mehrerer Videoströme werden registriert, um Tiefenbilder zu erhalten. Die Bewegungsfelder und Tiefenbilder werden segmentiert, um teilweise zugeschriebene Datenobjekte zu erzeugen. Unter Verwendung einer anwenderspezifischen Datenbank und Analyse werden die teilweise zugeschriebenen Datenobjekte in vollständig zugeschriebene Datenobjekte und Ereignisse umgewandelt, die als mit Anmerkungen versehene grafische Elemente und Alarmmeldungen angezeigt werden. Die Betrachtungsorientierung der Anzeige kann vom Betrachtungspunkt der Kameras abhängig sein.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Es zeigen
-
1 ein Blockdiagramm eines erfindungsgemäßen Darstellungssystems; -
2 ein Blockdiagramm eines Analysier-Zusammensetzmittels des Systems von1 ; und -
3 ein beispielhaftes künstliches Bild, das durch das System von1 erzeugt wird. - AUSFÜHRLICHE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSBEISPIELE
- Systemübersicht
-
1 zeigt das Situationsdarstellungssystem100 entsprechend meiner Erfindung. Das System100 umfasst mehrere Videokameras101 –106 . Jede Kamera erfasst eine Bildfolge als einen Videostrom115 . Es sind sechs Kameras gezeigt, wobei weniger oder mehrere verwendet werden können. Wegen Redundanz können zusätzliche Kameras im Fall eines Kameraausfalls oder eines Hindernisses vorgesehen werden. Die Kameras können so angeordnet werden, damit ein ganzes Blickfeld von 360 Grad eines interessierenden Bereiches um ein Fahrzeug herum erhalten wird. - Für andere Anwendungen ist ein kleineres Blickfeld geeignet. Die durch jede Kamera zur Verfügung gestellten Bilder überdecken Teile des interessierenden Bereiches, so dass stereoskopische Verfahren zur Gewinnung von Tiefeninformationen verwendet werden können. Es können Weitwinkelobjektive genutzt werden, um die Größe der Überdeckung zu erhöhen, ohne die Anzahl von Kameras zu vergrößern.
- Das Ausgangssignal der Kameras, digitalisierte Videoströme
115 , wird mit einem Analysier-Zusammensetzmittel200 verbunden. Das Analysier-Zusammensetzmittel200 nach meiner Erfindung analysiert die Videoströme und erzeugt eine künstliche Anzeige300 auf einem Ausgabegerät120 . - Arbeitsweise des Systems
- In einem betriebsbereiten System können die Kameras zum Beispiel an einem in
1 durch Strichlinien dargestellten Fahrzeug130 montiert werden. Die Kameras können auch an anderen unbeweglichen oder beweglichen Stellen angeordnet werden, um das interessierende Gebiet, im Allgemeinen125 , die Bereiche vor den verschiedenen Objektiven zu beobachten. - Das Analysier-Zusammensetzmittel
200 wirkt auf die Daten der mehreren Videoströme in Echtzeit ein. Der Analysierteil entnimmt zeitliche und räumliche Daten aus den Videoströmen, um Objekte und ihre Merkmale wie zum Beispiel Größe, Position und Geschwindigkeit zu identifizieren. Außerdem werden Beziehungen zwischen den identifizierten Objekten bestimmt, zum Beispiel zwei Fahrzeuge auf sich schneidenden Kursen. Mit anderen Worten, die Videoströme werden auf eine Beziehung von zugeschriebenen Objekten reduziert. Die zugeschriebenen Objekte werden analysiert, um Ereignisse, zum Beispiel eine mögliche Kollision oder eine Gefahrenzone, zu detektieren. Der Zusammensetzmittelteil erzeugt die Situationsdarstellungsanzeige300 der Beziehungen der zugeschriebenen Objekte und den Ereignissen zugeordnete optionale Alarmmeldungen. - Nach meiner Erfindung ist in die Situationsdarstellungsanzeige
300 vollständig synthetisch. Im Gegensatz zum Stand der Technik lösche ich den Videostrom115 , nachdem er analysiert ist. Außerdem integriert das Zusammensetzmittel die aus den mehreren Videoströmen entnommenen Informationen zu einer einzelnen Anzeige300 . Darüber hinaus können Alarmsignale140 erzeugt werden, wenn bestimmte gefährliche Situationen oder Ereignisse erkannt werden. Die Alarmsignale können angezeigt oder an irgendein anderes Ausgabegerät150 gegeben werden. In einer alternativen Ausführung können die Alarmsignale140 ein Ausweichmanöver zur Kollisionsvermeidung, zum Beispiel Bremsen oder Verlangsamen, auslösen. - Zusammensatz-Analysiermittel
- Wie in
2 gezeigt ist, werden Videoströme115 von mehreren Kameras101 –106 an das Analysier-/Zusammensetzmittel200 über einen Analog-Digital-Wandler bei Bedarf als digitale Videodaten201 gegeben. Aus den digitalen Videodaten201 werden zeitliche und räumliche Informationen entnommen. - Eine Analyse
210 des optischen Flusses wird genutzt, um Bewegungsfelder211 aus zeitlich (?t) getrennten Bildern, zum Beispiel aus Bewegungsfeldern aufeinander folgender Bildfolgen in einer einzelnen Videosequenz zu bestimmen. - Eine Bildregistrierung
220 wird verwendet, um aus räumlich (?x, ?y) sich überdeckenden Bildern einen Tiefenbild221 zu bestimmen, indem zum Beispiel Bildfolgen genutzt werden, die aus überdeckenden Teilen des interessierenden Bereiches durch mehrere Kameras aufgenommen werden. Das Tiefenbild legt im Einzelnen den Abstand (?Z) zu jedem Pixel in dem Bild fest. - Die Bewegungsfelder und Tiefenbilder werden segmentiert, um teilweise zugeschriebene Datenobjekte
231 zu erzeugen. Zum Beispiel ist es wahrscheinlich, dass Pixel mit dem gleichen optischen Fluss bei gleicher Tiefe dem gleichen Objekt zugeordnet sind. Eine Verwendung sowohl des optischen Flusses als auch der Abstände schafft eine stabile Segmentierung, insbesondere, wenn die Flussanalyse gleichzeitig mit der Registrierung vorgenommen wird, so dass die abgeleiteten Ergebnisse (Bewegungsfelder und Tiefenwerte) miteinander korrelieren (215 ). - Die Teileigenschaften können Größe, Position, Geschwindigkeit, Bewegungsrichtung der Objekte im dreidimensionalen Raum umfassen. Die Objekte werden nur zum Teil zugeschrieben, weil andere Eigenschaften, die von zusätzlichen Kenntnissen abhängig sind, wie zum Beispiel die genaue Identität der Objekte, noch nicht bestimmt wurden.
- Die teilweise zugeschriebenen Datenobjekte
231 können in Verbindung mit einer anwenderspezifischen Datenbank239 analysiert240 werden, um vollständig zugeschriebene Datenobjekte241 und Ereignisse242 zu erzeugen. Zum Beispiel ist eine einseitige Ansicht eines Sattelschleppers ausreichend, um auf die gesamte Form des Objekts zu schließen. Es können verschiedene Arten von Schablonenvergleichsschemen verwendet werden, um spezifische, gemeinsam vorkommende Objekte wie zum Beispiel andere Fahrzeuge, Fußgänger, Fahrräder, Lastkraftwagen und dergleichen vollständig zu identifizieren. Bei einer Fahrzeuganwendung können die Merkmale außerdem Fahrbahnteiler, Gehwege, Haltesignale, Leitplanken, Bordsteine, Gebäude, Zäune und so weiter enthalten. - Die Ereignisse
242 können erzeugt werden, indem die Beziehungen zwischen den zugeschriebenen Objekten, zum Beispiel die Situation eines möglichen Zusammenstoßes, ein Auto kommt von der Strasse ab oder die Situation schwächeren Lichtes, analysiert werden. Es können auch zusätzliche Sensoren249 eingesetzt werden, um die Anzahl von Ereignissen, die detektiert werden können, zu erhöhen. - Ein Zusammensetzmittel
250 wandelt die vollständig zugeschriebenen Datenobjekte241 in mit Anmerkungen versehene grafische Elemente251 und Alarmmeldungen252 um. Der letzte Schritt gibt260 die grafischen Elemente251 und Alarmmeldungen252 wieder. - Anzeige
- Es sind viele unterschiedliche Typen von Situationsanzeigen möglich. Die Anzeige
300 in3 zeigt eine Vogelperspektive des interessierenden Bereichs mit dem Fahrzeug310 , an dem die Situationsdarstellungsvorrichtung, mit fester Ausrichtung in der Nähe des Mittelpunktes der Anzeige angeordnet, montiert ist, und mit Anmerkungen versehene Objekte sich relativ zu dem Betrachtungspunkt bewegen. Es ist anzumerken, dass die Ansicht vollständig synthetisch und orthogonal zu der durch die Kameras betrachtete Sicht ist. - Es werden ebenso bestimmte andere Bildmerkmale wie zum Beispiel Fußgängerüberweg
320 , Gebäude330 , anderer Verkehr340 , ein Fahrrad350 und so weiter dargestellt. - Die Pfeile
301 können genutzt werden, um die Bewegungsrichtung von Objekten, die nicht unbeweglich sind, darzustellen. Das Bestimmen der Ausrichtung der Pfeile erfordert eine aktive Analyse im Gegensatz zur passiven Anzeige des Ausgangssignals der Kameras wie es im Stand der Technik erfolgt. - In einem interessierenden Bereich, bei dem ausreichendes Umgebungslicht nicht gewährleistet werden kann, kann meine Erfindung durch das Einbeziehen von aktiver Beleuchtung erweitert werden. In einigen Situationen könnte es von Nutzen sein, Infrarotlicht, um entweder im Dunkeln zu sehen, ohne dass eine aktive Beleuchtung erforderlich ist oder als harmlose aktive Beleuchtung zu verwenden. In Situationen wie Nebel, wo die Sichtverhältnisse schlecht sind, kann meine Erfindung betrieben werden durch eine Lichtquelle sorgfältig ausgewählter Wellenlängen oder eine Stroboskoplichtquelle, die mit dem Verschluss der Kameras geeignet synchronisiert sind, um auf interessierende Objekte fokussiert zu werden und anderes Streulicht zu unterdrücken.
- In einer Ausführung meiner Erfindung kann der Analysierschritt
240 sekundäre Daten238 aufnehmen. In einer Fahrzeuganwendung können die Daten die Geschwindigkeit oder Position des Fahrzeugs, wie sie von einem GPS-Empfänger erhalten werden, umfassen. Mit der Fahrzeuggeschwindigkeit kann die Analyse verbessert und vereinfacht werden. Positionsdaten ermöglichen die Verwendung von Karten auf der Anzeige sowie aktuelle Namen von Straßen und Plätzen. - In einer anderen Ausführung befindet sich die Anzeige
300 unter Kontrolle des Benutzers. Zum Beispiel gibt der Benutzer bei einer Gebäudeüberwachungsanwendung Steuersignale239 ein, um die Art und Weise wie die mit Anmerkungen versehenen grafischen Elemente und Alarmmeldungen angezeigt werden, zu modifizieren oder die Orientierung des Betrachtungspunkts zu ändern. Es ist außerdem möglich, die Alarmmeldungen und grafischen Elemente zu einer entfernten Stelle zu übertragen. Zum Beispiel kann die Bedienperson, während sie zu einem geparkten Fahrzeug geht, den interessierenden Bereich in der Nähe des Fahrzeugs von einem sicheren Ort aus auf einem tragbaren Anzeigegerät betrachten. - Außerdem können mehrere Fahrzeuge die Situationsinformationen miteinander austauschen, um den Umfang der Anzeige zu verbessern. Andere Bereiche, in denen die Erfindung verwendet werden kann, umfassen Flughäfen, Wasserstrassen und dergleichen.
Claims (7)
- Echtzeit-Situationsdarstellungssystem, welches aufweist: mehrere Kameras (
101 bis106 ), die mehrere Videoströme (115 ) von überlappenden Teilen eines interessierenden Bereichs erwerben; Analysiermittel (42 ) zum Reduzieren der mehreren Videoströme (115 ) auf zugeschriebene Datenobjekte und Ereignisse; Zusammensetzmittel (250 ) zum Darstellen der zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252 ) auf einer Ausgabevorrichung (150 ); Mittel (210 ) zum zeitweisen Analysieren eines optischen Flusses in aufeinander folgenden Bildern eines einzelnen Videostroms, um Bewegungsfelder zu erzeugen; Mittel (220 ) zum räumlichen Registrieren benachbarter Bilder von mehreren Videoströmen, um Tiefenbilder zu erhalten; und Mittel (230 ) zum Segmentieren der Bewegungsfelder und der Tiefenbilder, um teilweise zugeschriebene Datenobjekte zu erzeugen; dadurch gekennzeichnet, dass die Zusammensetzmittel (250 ) die zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252 ) und mit Anmerkungen versehene grafische Elemente (251 ) auf einer Ausgabevorrichtung (120 ,150 ) darstellen; dass die Analysemittel (240 ) die teilweise zugeschriebenen Datenobjekte analysieren unter Verwendung einer anwendungsspezifischen Datenbank, um vollständig zugeschriebene Datenobjekte und Ereignisse zu erzeugen, und dass Schablonenvergleichsschemen verwendet werden, um spezifische, gemeinsam auftretende Objekte vollständig zu identifizieren. - System nach Anspruch 1, weiterhin aufweisend: Sensoren (
249 ), die den Analysierschritt mit sekundären Daten und Signalen versorgen. - System nach Anspruch 1, bei dem die Zusammensetzmittel (
250 ) eine Anzeige erzeugen mit einem Betrachtungspunkt, der im wesentlichen orthogonal zu dem Betrachtungspunkt der Kameras (101 bis106 ) ist. - System nach Anspruch 1, bei dem der interessierende Bereich eine Panoramaszene ist.
- System nach Anspruch 1, bei dem Anmerkungen für die grafischen Elemente Bewegungsrichtungen enthalten.
- System nach Anspruch 3, bei dem Benutzersteuersignale die Anzeige bestimmen.
- Verfahren zum Erzeugen einer Echtzeit-Situationsdarstellungsanzeige, welches die Schritte aufweist: Erwerben mehrerer Videoströme (
115 ) von überlappenden Teilen eines interessierenden Bereichs; Reduzieren der mehreren Videoströme (115 ) auf zugeschriebene Datenobjekte und Ereignisse, Darstellen der zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252 ) auf einer Ausgabevorrichtung (150 ); zeitmäßiges Analysieren eines optischen Flusses in aufeinander folgenden Bildern eines einzelnen Videostroms, um Bewegungsfelder zu erzeugen; räumliches Registrieren benachbarter Bilder von mehreren Videoströmen, um Tiefenbilder zu erhalten; und Segmentieren der Bewegungsfelder und Tiefenbilder, um teilweise zugeschriebene Datenobjekte zu erzeugen, dadurch gekennzeichnet, dass der Schritt des Darstellens der zugeschriebenen Datenobjekte und Ereignisse die zugeschriebenen Datenobjekte und Ereignisse als Alarmmeldungen (252 ) und mit Anmerkungen versehene grafische Elemente (251 ) auf einer Ausgabevorrichtung (120 ,150 ) darstellt; dass der Schritt des Analysierens die teilweise zugeschriebenen Datenobjekte analysiert unter Verwendung einer anwendungsspezifischen Datenbank (239 ), um vollständig zugeschriebene Datenobjekte und Ereignisse zu erzeugen, und dass Schablonenvergleichsschemen verwendet werden, um spezifische, gemeinsam auftretende Objekte vollständig zu identifizieren.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US250956 | 1981-04-01 | ||
US09/250,956 US6396535B1 (en) | 1999-02-16 | 1999-02-16 | Situation awareness system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60020420D1 DE60020420D1 (de) | 2005-07-07 |
DE60020420T2 true DE60020420T2 (de) | 2006-05-04 |
Family
ID=22949871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60020420T Expired - Lifetime DE60020420T2 (de) | 1999-02-16 | 2000-02-14 | Situationsdarstellungs-Anzeigesystem |
Country Status (5)
Country | Link |
---|---|
US (1) | US6396535B1 (de) |
EP (1) | EP1030188B1 (de) |
JP (1) | JP3876288B2 (de) |
AT (1) | ATE297022T1 (de) |
DE (1) | DE60020420T2 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2306426A1 (de) * | 2009-10-01 | 2011-04-06 | Kapsch TrafficCom AG | Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche |
DE102011014699A1 (de) * | 2011-03-22 | 2012-09-27 | Audi Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug |
Families Citing this family (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2259220A3 (de) * | 1998-07-31 | 2012-09-26 | Panasonic Corporation | Vorrichtung und Verfahren zur Bildanzeige |
EP1038734B1 (de) * | 1998-10-08 | 2019-05-15 | Panasonic Intellectual Property Corporation of America | Fahrhilfevorrichtung und aufzeichnungsmedium |
CN100438623C (zh) * | 1999-04-16 | 2008-11-26 | 松下电器产业株式会社 | 图象处理装置及监视系统 |
GB2352859A (en) * | 1999-07-31 | 2001-02-07 | Ibm | Automatic zone monitoring using two or more cameras |
JP2001315603A (ja) * | 2000-05-09 | 2001-11-13 | Matsushita Electric Ind Co Ltd | 運転支援装置 |
JP3599639B2 (ja) * | 2000-05-26 | 2004-12-08 | 松下電器産業株式会社 | 画像処理装置 |
EP1168248A3 (de) * | 2000-06-30 | 2003-12-10 | Matsushita Electric Industrial Co., Ltd. | Bildwiedergabevorrichtung |
US7319479B1 (en) * | 2000-09-22 | 2008-01-15 | Brickstream Corporation | System and method for multi-camera linking and analysis |
US8564661B2 (en) | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
US9892606B2 (en) | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US8711217B2 (en) | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US7424175B2 (en) | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
US7183944B2 (en) * | 2001-06-12 | 2007-02-27 | Koninklijke Philips Electronics N.V. | Vehicle tracking and identification of emergency/law enforcement vehicles |
JP3996428B2 (ja) * | 2001-12-25 | 2007-10-24 | 松下電器産業株式会社 | 異常検知装置及び異常検知システム |
US20050128304A1 (en) * | 2002-02-06 | 2005-06-16 | Manasseh Frederick M. | System and method for traveler interactions management |
US20030202701A1 (en) * | 2002-03-29 | 2003-10-30 | Jonathon Schuler | Method and apparatus for tie-point registration of disparate imaging sensors by matching optical flow |
US7073158B2 (en) * | 2002-05-17 | 2006-07-04 | Pixel Velocity, Inc. | Automated system for designing and developing field programmable gate arrays |
US7257236B2 (en) | 2002-05-22 | 2007-08-14 | A4Vision | Methods and systems for detecting and recognizing objects in a controlled wide area |
EP1509872A1 (de) * | 2002-05-22 | 2005-03-02 | A4Vision | Verfahren und systeme zur detektion und erkennung von objekten in einem kontrollierten weiten raum |
US7174033B2 (en) | 2002-05-22 | 2007-02-06 | A4Vision | Methods and systems for detecting and recognizing an object based on 3D image data |
US6990406B2 (en) * | 2002-07-22 | 2006-01-24 | California Institute Of Technology | Multi-agent autonomous system |
AU2003253474A1 (en) * | 2002-09-02 | 2004-03-19 | Samsung Electronics Co., Ltd. | Optical information storage medium and method of and apparatus for recording and/or reproducing information on and/or from the optical information storage medium |
US20040052501A1 (en) * | 2002-09-12 | 2004-03-18 | Tam Eddy C. | Video event capturing system and method |
EP1563686B1 (de) * | 2002-11-12 | 2010-01-06 | Intellivid Corporation | Verfahren und system zur verfolgung und verhaltensüberwachung von mehreren objekten, die sich durch mehrere sichtfelder bewegen |
US7221775B2 (en) * | 2002-11-12 | 2007-05-22 | Intellivid Corporation | Method and apparatus for computerized image background analysis |
DE10325762A1 (de) * | 2003-06-05 | 2004-12-23 | Daimlerchrysler Ag | Bildverarbeitungssystem für ein Fahrzeug |
US7660436B2 (en) * | 2003-06-13 | 2010-02-09 | Sarnoff Corporation | Stereo-vision based imminent collision detection |
US7263209B2 (en) * | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
US7068815B2 (en) | 2003-06-13 | 2006-06-27 | Sarnoff Corporation | Method and apparatus for ground detection and removal in vision systems |
US6956469B2 (en) * | 2003-06-13 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for pedestrian detection |
EP1652161B2 (de) * | 2003-07-25 | 2010-06-30 | Robert Bosch Gmbh | Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld |
DE10336638A1 (de) * | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld |
US20050031169A1 (en) * | 2003-08-09 | 2005-02-10 | Alan Shulman | Birds eye view virtual imaging for real time composited wide field of view |
US7286157B2 (en) * | 2003-09-11 | 2007-10-23 | Intellivid Corporation | Computerized method and apparatus for determining field-of-view relationships among multiple image sensors |
US7346187B2 (en) * | 2003-10-10 | 2008-03-18 | Intellivid Corporation | Method of counting objects in a monitored environment and apparatus for the same |
DE10347213A1 (de) * | 2003-10-10 | 2005-05-12 | Bosch Gmbh Robert | Informationsvorrichtung |
US7280673B2 (en) * | 2003-10-10 | 2007-10-09 | Intellivid Corporation | System and method for searching for changes in surveillance video |
JP2005124010A (ja) * | 2003-10-20 | 2005-05-12 | Nissan Motor Co Ltd | 撮像装置 |
US7171024B2 (en) * | 2003-12-01 | 2007-01-30 | Brickstream Corporation | Systems and methods for determining if objects are in a queue |
WO2005060640A2 (en) * | 2003-12-15 | 2005-07-07 | Sarnoff Corporation | Method and apparatus for object tracking prior to imminent collision detection |
US7109889B2 (en) * | 2004-03-01 | 2006-09-19 | Honeywell International Inc. | Methods and apparatus for surface movement situation awareness |
US7103213B2 (en) * | 2004-03-02 | 2006-09-05 | Sarnoff Corporation | Method and apparatus for classifying an object |
WO2005086080A1 (en) * | 2004-03-02 | 2005-09-15 | Sarnoff Corporation | Method and apparatus for detecting a presence |
WO2005086079A1 (en) * | 2004-03-02 | 2005-09-15 | Sarnoff Corporation | Method and apparatus for differentiating pedestrians, vehicles, and other objects |
US7788109B2 (en) * | 2004-04-03 | 2010-08-31 | Altusys Corp. | Method and apparatus for context-sensitive event correlation with external control in situation-based management |
US20050222895A1 (en) * | 2004-04-03 | 2005-10-06 | Altusys Corp | Method and Apparatus for Creating and Using Situation Transition Graphs in Situation-Based Management |
US8694475B2 (en) * | 2004-04-03 | 2014-04-08 | Altusys Corp. | Method and apparatus for situation-based management |
US20050222810A1 (en) * | 2004-04-03 | 2005-10-06 | Altusys Corp | Method and Apparatus for Coordination of a Situation Manager and Event Correlation in Situation-Based Management |
EP2182730B1 (de) * | 2004-06-15 | 2020-05-20 | Panasonic Intellectual Property Management Co., Ltd. | Monitor und Fahrzeugumgebungsmonitor |
DE102005000652A1 (de) * | 2005-01-04 | 2006-07-13 | Robert Bosch Gmbh | Verfahren für die Objekterfassung |
EP1696669B1 (de) * | 2005-02-24 | 2013-07-03 | Aisin Seiki Kabushiki Kaisha | Gerät zur Fahrzeugumgebungsbeobachtung |
CA2601477C (en) | 2005-03-25 | 2015-09-15 | Intellivid Corporation | Intelligent camera selection and object tracking |
JP4809019B2 (ja) * | 2005-08-31 | 2011-11-02 | クラリオン株式会社 | 車両用障害物検出装置 |
US9036028B2 (en) | 2005-09-02 | 2015-05-19 | Sensormatic Electronics, LLC | Object tracking and alerts |
FR2891934B1 (fr) * | 2005-10-12 | 2008-01-18 | Valeo Electronique Sys Liaison | Dispositif de traitement de donnees video pour un vehicule automobile |
JP4426535B2 (ja) * | 2006-01-17 | 2010-03-03 | 本田技研工業株式会社 | 車両の周辺監視装置 |
US7576639B2 (en) * | 2006-03-14 | 2009-08-18 | Mobileye Technologies, Ltd. | Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle |
US7526105B2 (en) * | 2006-03-29 | 2009-04-28 | Mark Dronge | Security alarm system |
JP2009533778A (ja) * | 2006-04-17 | 2009-09-17 | オブジェクトビデオ インコーポレイテッド | 統計的画素モデリングを使った映像セグメント化 |
US7671728B2 (en) | 2006-06-02 | 2010-03-02 | Sensormatic Electronics, LLC | Systems and methods for distributed monitoring of remote sites |
US7825792B2 (en) * | 2006-06-02 | 2010-11-02 | Sensormatic Electronics Llc | Systems and methods for distributed monitoring of remote sites |
US20080036864A1 (en) * | 2006-08-09 | 2008-02-14 | Mccubbrey David | System and method for capturing and transmitting image data streams |
US20080151049A1 (en) * | 2006-12-14 | 2008-06-26 | Mccubbrey David L | Gaming surveillance system and method of extracting metadata from multiple synchronized cameras |
WO2008103850A2 (en) * | 2007-02-21 | 2008-08-28 | Pixel Velocity, Inc. | Scalable system for wide area surveillance |
JP4538468B2 (ja) * | 2007-02-27 | 2010-09-08 | 日立オートモティブシステムズ株式会社 | 画像処理装置,画像処理方法、及び画像処理システム |
JP5121258B2 (ja) * | 2007-03-06 | 2013-01-16 | 株式会社東芝 | 不審行動検知システム及び方法 |
AU2008262268B2 (en) * | 2007-06-09 | 2012-05-03 | Sensormatic Electronics, LLC | System and method for integrating video analytics and data analytics/mining |
US20090086023A1 (en) * | 2007-07-18 | 2009-04-02 | Mccubbrey David L | Sensor system including a configuration of the sensor as a virtual sensor device |
JP4970195B2 (ja) * | 2007-08-23 | 2012-07-04 | 株式会社日立国際電気 | 人物追跡システム、人物追跡装置および人物追跡プログラム |
FR2922072B1 (fr) * | 2007-10-03 | 2011-04-29 | Latecoere | Procede et systeme d'aide au roulage d'un aeronef |
US20090091620A1 (en) * | 2007-10-05 | 2009-04-09 | Anderson Leroy E | Electronic security system |
JP4561863B2 (ja) * | 2008-04-07 | 2010-10-13 | トヨタ自動車株式会社 | 移動体進路推定装置 |
EP2219133B1 (de) * | 2009-02-17 | 2011-10-05 | Autoliv Development AB | Verfahren und System zur automatischen Detektion von Objekten vor einem Kraftfahrzeug |
WO2010113253A1 (ja) * | 2009-03-31 | 2010-10-07 | コニカミノルタホールディングス株式会社 | 3次元情報表示装置および3次元情報表示方法 |
EP2416292A4 (de) | 2009-03-31 | 2014-09-03 | Konica Minolta Holdings Inc | Bildintegrationseinheit und bildintegrationsverfahren |
DE102009016562A1 (de) * | 2009-04-06 | 2009-11-19 | Daimler Ag | Verfahren und Vorrichtung zur Objekterkennung |
US20100321500A1 (en) * | 2009-06-18 | 2010-12-23 | Honeywell International Inc. | System and method for addressing video surveillance fields of view limitations |
US9536348B2 (en) * | 2009-06-18 | 2017-01-03 | Honeywell International Inc. | System and method for displaying video surveillance fields of view limitations |
US20110115909A1 (en) * | 2009-11-13 | 2011-05-19 | Sternberg Stanley R | Method for tracking an object through an environment across multiple cameras |
DE102010013093A1 (de) * | 2010-03-29 | 2011-09-29 | Volkswagen Ag | Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs |
US9183560B2 (en) | 2010-05-28 | 2015-11-10 | Daniel H. Abelow | Reality alternate |
US9001211B1 (en) * | 2010-06-11 | 2015-04-07 | Kervin R. Spivey | Surveillance system apparatus |
JP4609603B2 (ja) * | 2010-07-21 | 2011-01-12 | コニカミノルタホールディングス株式会社 | 3次元情報表示装置および3次元情報表示方法 |
CN102348100A (zh) * | 2010-07-30 | 2012-02-08 | 江彦宏 | 视讯雷达显示系统 |
EP2420982A1 (de) * | 2010-08-19 | 2012-02-22 | Yan-Hong Chiang | Videoradaranzeigesystem |
DE102010046433B4 (de) * | 2010-09-24 | 2012-06-21 | Grenzebach Maschinenbau Gmbh | Vorrichtung und Verfahren zum Detektieren von Fehlstellen in kontinuierlich erzeugtem Float-Glas |
TW201217200A (en) * | 2010-10-20 | 2012-05-01 | yan-hong Jiang | capable of controlling throttle, braking or steering according to the re-constructed environment information so as to improve driving safety |
TW201333896A (zh) * | 2012-02-14 | 2013-08-16 | yan-hong Jiang | 使用視訊雷達的遠距交通管理系統 |
CN103105581A (zh) * | 2013-01-24 | 2013-05-15 | 上海毕励电子科技有限公司 | 基于视频识别的电气设备状态量采集方法 |
US9696420B2 (en) * | 2013-04-09 | 2017-07-04 | Ford Global Technologies, Llc | Active park assist object detection |
EP2843589B1 (de) * | 2013-08-29 | 2019-03-13 | Alcatel Lucent | Verfahren und Plattform zum Senden einer Nachricht an eine mit einem sich bewegenden Objekt assoziierte Kommunikationsvorrichtung |
DE102013224954A1 (de) | 2013-12-05 | 2015-06-11 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erzeugen einer Warnung mittels zweier durch Kameras erfasster Bilder einer Fahrzeugumgebung |
CN106573588B (zh) | 2014-08-21 | 2019-01-25 | 三菱电机株式会社 | 驾驶辅助装置、驾驶辅助方法和程序 |
EP3007099B1 (de) * | 2014-10-10 | 2022-12-07 | Continental Autonomous Mobility Germany GmbH | Bilderkennungssystem für ein Fahrzeug und entsprechendes Verfahren |
KR102347249B1 (ko) | 2014-10-21 | 2022-01-04 | 삼성전자주식회사 | 외부 물체의 움직임과 연관된 이벤트에 응답하여 화면을 디스플레이하는 장치 및 방법 |
JP6150950B1 (ja) | 2015-11-20 | 2017-06-21 | 三菱電機株式会社 | 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム |
US10003732B2 (en) | 2016-02-25 | 2018-06-19 | Foodim Ltd | Depth of field processing |
US10678257B2 (en) * | 2017-09-28 | 2020-06-09 | Nec Corporation | Generating occlusion-aware bird eye view representations of complex road scenes |
CN107719367A (zh) * | 2017-10-26 | 2018-02-23 | 西安正昌电子股份有限公司 | 一种360°环视和位置识别系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5809161A (en) | 1992-03-20 | 1998-09-15 | Commonwealth Scientific And Industrial Research Organisation | Vehicle monitoring system |
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
JP3209828B2 (ja) * | 1993-05-25 | 2001-09-17 | 松下電器産業株式会社 | 車間距離計測装置とステレオ画像取り込み装置 |
US5819016A (en) | 1993-10-05 | 1998-10-06 | Kabushiki Kaisha Toshiba | Apparatus for modeling three dimensional information |
JP3522317B2 (ja) * | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
JP3156817B2 (ja) * | 1994-03-14 | 2001-04-16 | 矢崎総業株式会社 | 車両周辺監視装置 |
US5793420A (en) | 1994-10-28 | 1998-08-11 | Schmidt; William P. | Video recording system for vehicle |
US5717456A (en) | 1995-03-06 | 1998-02-10 | Champion International Corporation | System for monitoring a continuous manufacturing process |
US5850352A (en) | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5768443A (en) | 1995-12-19 | 1998-06-16 | Cognex Corporation | Method for coordinating multiple fields of view in multi-camera |
US5969755A (en) * | 1996-02-05 | 1999-10-19 | Texas Instruments Incorporated | Motion based event detection system and method |
US5680123A (en) | 1996-08-06 | 1997-10-21 | Lee; Gul Nam | Vehicle monitoring system |
US5982420A (en) * | 1997-01-21 | 1999-11-09 | The United States Of America As Represented By The Secretary Of The Navy | Autotracking device designating a target |
US6124864A (en) * | 1997-04-07 | 2000-09-26 | Synapix, Inc. | Adaptive modeling and segmentation of visual image streams |
-
1999
- 1999-02-16 US US09/250,956 patent/US6396535B1/en not_active Expired - Fee Related
-
2000
- 2000-02-14 DE DE60020420T patent/DE60020420T2/de not_active Expired - Lifetime
- 2000-02-14 EP EP00102979A patent/EP1030188B1/de not_active Expired - Lifetime
- 2000-02-14 AT AT00102979T patent/ATE297022T1/de not_active IP Right Cessation
- 2000-02-15 JP JP2000036398A patent/JP3876288B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2306426A1 (de) * | 2009-10-01 | 2011-04-06 | Kapsch TrafficCom AG | Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche |
DE102011014699A1 (de) * | 2011-03-22 | 2012-09-27 | Audi Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug |
DE102011014699B4 (de) * | 2011-03-22 | 2015-10-29 | Audi Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug |
Also Published As
Publication number | Publication date |
---|---|
ATE297022T1 (de) | 2005-06-15 |
JP3876288B2 (ja) | 2007-01-31 |
EP1030188B1 (de) | 2005-06-01 |
US6396535B1 (en) | 2002-05-28 |
DE60020420D1 (de) | 2005-07-07 |
JP2000244897A (ja) | 2000-09-08 |
EP1030188A1 (de) | 2000-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60020420T2 (de) | Situationsdarstellungs-Anzeigesystem | |
DE102006010735B4 (de) | Fahrzeugumgebungsüberwachungsvorrichtung | |
DE102007002419B4 (de) | Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm | |
DE60005426T2 (de) | Rückblicksüberwachungssystem für Fahrzeuge | |
DE60009114T2 (de) | Vorrichtung zur unterstützung von kraftfahrzeugführern | |
DE102007002345B4 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung | |
DE2425466C2 (de) | Einrichtung zur Überwachung von Räumen durch optisch-elektronische Meßmittel | |
EP2805183B1 (de) | Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs | |
DE102020100080A1 (de) | Adaptive transparenz eines virtuellen fahrzeugs in einem simulierten bildgebungssystem | |
EP0805362B1 (de) | Verfahren zur Hinderniswarnung für tieffliegende Fluggeräte | |
DE102009051526A1 (de) | System und Verfahren zum Abbilden der Fahrzeugumgebung mit ein- und verstellbarer Perspektive | |
AT502551B1 (de) | Verfahren und bildauswertungseinheit zur szenenanalyse | |
EP1589484A1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE10059313A1 (de) | Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs | |
DE102017217056A1 (de) | Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug | |
DE102010061922A1 (de) | Mit einer Blickrichtung eines Fahrers gekoppeltes System und Verfahren zum Alarmieren einer Frontalaufprallgefahr und ein dasselbe verwendendes Fahrzeug | |
DE112016002268T5 (de) | Bildverarbeitungsvorrichtung, elektronisches spiegelsystem und bildverarbeitungsverfahren | |
EP1273516A1 (de) | Einrichtung zum Erfassen optischer Informationen | |
EP1460454A2 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
DE19621612A1 (de) | Verfahren und Vorrichtung zur optischen Freiraumüberwachung | |
EP3078015A1 (de) | Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung | |
DE10049366A1 (de) | Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System | |
DE102005050609B4 (de) | Vorrichtung und Verfahren zum Überwachen der Umgebung eines Fahrzeugs | |
DE102021207415A1 (de) | Verfahren zur Informationsbeschaffung und Assistenzsystem | |
DE112012003630B4 (de) | Verfahren, anordnung und fahrassistenzsystem zur ermittlung der räumlichen verteilung von objekten relativ zu einem fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) |