EP2254104B1 - Verfahren zum automatischen Erkennen einer Situationsänderung - Google Patents
Verfahren zum automatischen Erkennen einer Situationsänderung Download PDFInfo
- Publication number
- EP2254104B1 EP2254104B1 EP10004126.8A EP10004126A EP2254104B1 EP 2254104 B1 EP2254104 B1 EP 2254104B1 EP 10004126 A EP10004126 A EP 10004126A EP 2254104 B1 EP2254104 B1 EP 2254104B1
- Authority
- EP
- European Patent Office
- Prior art keywords
- values
- behaviour
- situation
- learned
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Not-in-force
Links
- 238000000034 method Methods 0.000 title claims description 39
- 230000006399 behavior Effects 0.000 claims description 83
- 238000010972 statistical evaluation Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 241001465754 Metazoa Species 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims description 2
- 239000002245 particle Substances 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 24
- 238000012544 monitoring process Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000001454 recorded image Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000001447 compensatory effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
Definitions
- the invention relates to a method for automatic detection of a situation change within a spatial area to be monitored by means of sensors.
- the invention also relates to a device for this purpose.
- the most commonly used sensors for monitoring are cameras that record the area to be monitored.
- the captured image of a camera is then forwarded in most cases to a central, where it is then displayed on a screen for an operator.
- a central where it is then displayed on a screen for an operator.
- For the operator there is the problem that with an increase in the number of cameras and the number of images that need to be monitored, are increased. Ultimately, this leads to increased complexity, which in the worst case is at the expense of safety.
- US 2003/0107650 A1 a monitoring and security system which automatically issues a warning when corresponding events that were previously programmed occur in the monitoring of an area.
- this system can alert you to possible shoplifting if a person opens a plastic bag inside the area to be monitored (here a shop).
- the system is set up in such a way that it picks up the noise within the store and examines it for the characteristic acoustic pattern of an opening plastic bag.
- So z. B. in the US 2004/0130620 Al discloses a method for video analysis, in which a plurality of image sensors record an overlapping area, the objects within the surveillance area moving objects can be tracked by means of a corresponding tracking algorithm, even across the recording limits of an image sensor.
- a behavior of the objects is then determined for at least one of the fields at least one of its object properties is learned by evaluating the values of the object property stored in the field by means of statistical methods. This results in a corresponding behavior of the objects with respect to the monitored property of the objects for each field of the entire spatial area.
- a behavior in terms of speed can be learned what z. B. expressed in terms of average speed.
- the learned behavior of at least one field is compared with currently determined values of the corresponding field, whereby based on the comparison on a situation change is closed.
- the behavior in step b) is learned by the last ascertained values of the corresponding field, which lie within a certain period of time. So it is z. B. conceivable that only those values are taken into account when learning the behavior that within the last z. For example, five minutes were recorded. This makes it possible for the system to re-learn the changed situation after a certain time and to view it as typical behavior.
- a behavior is learned for a plurality of discrete periods, which is the basis for the comparison for recognizing a situation change in step c). It is conceivable that a behavior of a period that lies farther back in the comparison is given a lower weighting than those periods that were not so long ago, so that young periods receive a higher weighting than older ones.
- a position indication is determined which represents the corresponding spatial position of the object within the spatial area.
- This so-called determination position which indicates the position at which the value was determined within the spatial area at the corresponding object, is then used to determine the field with which the determined value is linked.
- the above-described determination position is converted into a uniform position coordinate system or uniform world coordinates so that the position information of the determined values can be compared with one another. In this way, the values can be entered in the corresponding fields regardless of the sensor position.
- step c) it is particularly advantageous if the detection of a situation change in step c) takes place as a function of the comparison between a learned behavior from step b) and a behavior based on the statistical evaluation of currently determined values.
- a current behavior for one or more fields is continuously determined and compared with a previously learned behavior for the corresponding fields. This makes it possible to detect changes in the situation that affect the behavior of the objects within one or more fields, with respect to one or more object properties.
- a situation change is detected as a function of the comparison between the learned behavior from step b) and current values of a trajectory of a specific object.
- values relating to one or more object properties of a specific object are detected, while the object moves on a specific path (trajectory) through the area to be monitored. These values recorded in this way are then assigned to a specific trajectory of the object and compared with the learned behavior of the other objects. If the behavior with respect to one or more object properties of the specific object deviates significantly compared with the learned behavior of the other objects, it is possible to conclude that the situation has changed.
- individual objects can be identified, which behave atypically compared to the typical behavior of the entire scene, which also represents a situation change.
- mean values, sums, products and / or standard deviations are formed for the statistical evaluation, which can then be compared with one another. In principle, all arithmetic operations are possible which the expert would use for statistical purposes.
- Particularly suitable sensors for monitoring the spatial area are imaging sensors which are advantageously equipped with image recognition methods, radar sensors or RFID transponders.
- objects to be monitored come in particular people, animals, ie living beings in general, road, rail, air or water vehicles into consideration as well as particles and other objects, It is particularly advantageous if the sensors mentioned for determining properties such as activity of Objects that are set to speed the objects or their direction.
- the threshold value can be designed in such a way that sudden changes in the behavior of the objects are recognized as a situation change.
- threshold values can also be stored for a field if several typical behaviors arise with regard to an object property.
- the invention relates to a computer program product for carrying out the above method and a device for this purpose.
- Fig. 1a and 1b sketchy show the inclusion of a road junction, which is to be used as an embodiment of the further embodiments.
- the intersection is monitored by two video cameras, where Fig. 1a the image of the first video camera can be seen from a first angle while Fig. 1b See the image of a second video camera from a different angle.
- values of specific object properties are identified from the recorded image information.
- the objects are vehicles passing through the intersection.
- the speed and direction are recognized by the image recognition software for each vehicle and stored accordingly.
- per vehicle which is in the field of view of the cameras, continuously determined both the speed and the direction.
- the recorded image area is subdivided into a plurality of fields 1.
- this is only sketchily indicated and usually extends over the entire scene.
- the position at which the corresponding values were determined is also determined. So that these values can also be utilized independently of the location of the corresponding camera, this position information is converted into a world coordinate system and stored accordingly.
- a vehicle which by the field of view of the two cameras in Fig. 1a and 1b a plurality of speed and direction values at different positions or a plurality of speed and direction values at the same positions, since the values can be detected by a plurality of different sensors.
- Each speed and direction value is now assigned the corresponding field 1 within which the determined position lies, based on its position.
- exactly one such field can be assigned to each measured speed and direction value.
- Fig. 2 shows.
- the hatched fields 2 are the fields in which object values of different objects have been stored. The white fields, however, have no stored values.
- a derived card-like structure is in Fig. 3 to recognize.
- Fig. 3 This is a data structure in which the mean value of the values stored in this field was formed in each field. In this embodiment, this was done with the object property "Speed". But it can also derive other card-like structures, such. For example, those in which the standard deviation is determined as a statistical evaluation for each field.
- the values are determined for each field whose property is to be derived statistically. In this embodiment, these would be the speed values. Then the statistical evaluation is carried out for each field. Since the statistical evaluation is carried out separately for each field, this results in different fields for each field Fig. 3 represented by a different hatching in the individual fields.
- the behavior of the objects can be determined with respect to certain object properties within the scene, whereby the learned behavior is understood as a typical behavior of the objects. Now changes the scene by z. If, for example, the speed becomes slower or faster, this ultimately also results in the statistical evaluation so that a situation change can then be concluded on the basis of a comparison between the learned behavior and the current values. Thus, such a situation change is ultimately always a deviation of the behavior of the objects from the typical behavior of the objects within this scene with respect to at least one object property.
- Fig. 4 shows by way of example the comparison between the learned behavior and a current behavior with respect to the two object properties speed (S) and direction (D) on the basis of the statistical evaluation "averaging" (S ⁇ , D ⁇ ).
- map-type data structures have been learned as described above. For this purpose, data structures with respect to the speed and direction of the objects within the observed scene were learned. From the determined values for the speed S and the direction D, the average value was then derived for each field, which is referred to as card-like data structure 41 and 42 in FIG Fig. 4 can be seen.
- a common behavior was derived, which is also stored in the form of a card-like data structure 43 and 44 respectively.
- a common learned behavior can be done with the help of different weights z. B. younger learned behavior to be considered more than older.
- the system is self-learning and it adapts to the new situation.
- the system automatically adapts to the given situation without having to readjust it. If the traffic jam clears up again after a while, the average speed increases abruptly, which is again recognized as a change in the situation, as is the behavior of the objects from the typical behavior learned differs.
- the system can recognize both the formation of a congestion and its resolution afterwards without any problems and manual intervention and adapts by learning the standard deviation also to expected levels of change.
- the average value (mean) in a large scene often varies only slightly, although e.g. has jammed on a roadway, e.g. because the traffic jam initially forms only on one lane and then "spreads" to the other lanes or the jam forms only in one direction, while the opposite lane is free. This can lead to compensatory changes that cancel each other out, so that no change in the situation is detected in the sum.
- the standard deviation is stored for each field, which is then used for a threshold value comparison, so as to be able to determine selectively for individual fields situation changes.
- a sensitivity can be set so that in some fields situation changes result, since here the standard deviations are relatively low, while in other fields this is recognized as normal behavior due to relatively large standard deviations.
- the method of the invention adjusts the standard deviation in the fields where a large change occurs over time (eg, when a congestion occurs), while the other fields remain sensitive to changes (eg, the oncoming lane where no congestion has occurred ).
- Fig. 5 schematically shows another embodiment in which a particular or specific object was tracked by means of a corresponding tracking algorithm.
- a trajectory 51 is recorded by the object to be observed, which has a plurality of data points. At these data points were then z. B. corresponding values of object properties to be measured and stored. These data points are then compared to the learned behavior of the overall scene to determine if the object behaves in a typical or atypical manner relative to the overall behavior of all objects. This is done at the same time for all objects in the scene individually.
- each data point of the trajectory is compared with the underlying card-like data structure, in particular with the fields in which the corresponding data point falls.
- this is shown in a scene with the data point 52.
- the corresponding object property here the speed
- Fig. 5 can be with this embodiment in Fig. 5 recognize if z. B, Cyclists move very fast through a scene or pedestrians who run aimlessly or suddenly start to run or walk over otherwise barely used areas like meadows. Also can be seen with this system a ghost driver. But it can also monitor other objects such as aircraft so that when monitoring an airport z. For example, situations may be identified where service vehicles are moving in unusual areas or at atypical speeds. It is also possible to detect launches of rarely used runways as well as changes in the starting direction and the use of a test vehicle with this method.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
- Die Erfindung betrifft ein Verfahren zum automatischen Erkennen einer Situationsänderung innerhalb eines mittels Sensoren zu überwachenden räumlichen Gebietes. Die Erfindung betrifft ebenfalls eine Vorrichtung hierzu.
- Häufig wird unter dem Aspekt der Sicherheit die mitunter sehr komplexe Anforderung gestellt, Orte oder Gebiete, in denen sich viele Akteure oder Objekte bewegen und miteinander interagieren, mittels entsprechender Sensoren zu überwachen. Beispiele für solche Orte oder Gebiete sind Straßen, Parks, Bahnhöfe, öffentliche Plätze, Flughäfen, Autobahnen oder Einkaufszentren. Innerhalb dieser Orte oder Gebiete interagieren die sich daran befindlichen Akteure oder Objekte miteinander, die beispielsweise Fußgänger, Fahrradfahrer, PKWs, Schiffe, Flugzeuge, Sportler oder Kunden sein können. Dabei wird meist bei der Überwachung insbesondere darauf abgestellt, dass die in dem Gebiet befindlichen Objekte oder Akteure innerhalb der festgelegten Rahmenbedingungen bewegen, so dass atypische oder gar bedrohliche Ereignisse durch die jeweiligen Überwacher (z. B. Fluglotsen, Sicherheitsdienste) schnell erkannt werden können,
- Die zur Überwachung am häufigsten verwendeten Sensoren sind dabei Kameras, die das zu überwachende räumliche Gebiet aufnehmen. Das so aufgenommene Bild einer Kamera wird dann in den meisten Fällen an eine Zentrale weitergeleitet, wo es dann auf einem Bildschirm für einen Operator dargestellt wird. Gerade bei Gebieten mit einer sehr großen räumlichen Ausdehnung kommt es sehr schnell zu einer großen Anzahl von benötigten Kameras, um alle Bereiche des zu überwachenden Gebietes erfassen und abdecken zu können. Für den Operator stellt sich dabei das Problem, dass mit einer Erhöhung der Anzahl der Kameras auch die Anzahl der Bilder, die überwacht werden müssen, erhöht werden. Dies führt letztlich zu einer gesteigerten Komplexität, die im ungünstigsten Fall zu Lasten der Sicherheit geht.
- Um diese Überwachungskomplexität zu verringern, gibt es zum Einen die Möglichkeit, die Anzahl der zu überwachenden Bilder bzw. allgemein gesprochen, die Anzahl der zur Überwachung benötigten Informationen, zu reduzieren, was letztlich zum Verlust von Informationen führen kann. Zum Anderen gibt es die Möglichkeit, mit Hilfe von Bilderkennungsverfahren die Bildsignale zu analysieren und auf entsprechend programmierte Signaturen hin zu filtern.
- So beschreibt beispielsweise die
US 2003/0107650 A1 ein Überwachungs- und Sicherheitssystem, welches automatische eine Warnung herausgibt, wenn entsprechende Ereignisse, die zuvor programmiert wurden, bei der Überwachung eines Gebietes auftreten. So kann mit diesem System beispielsweise auf einen möglichen Ladendiebstahl aufmerksam gemacht werden, wenn eine Person innerhalb des zu überwachenden Gebietes (hier ein Laden) eine Plastiktüte öffnet. Dazu ist das System derart eingerichtet, dass es die Geräusche innerhalb des Ladens aufnimmt und nach dem charakteristischen Akustikmuster einer sich öffnenden Plastiktüte hin untersucht. - Nachteilig dabei ist insbesondere die Tatsache, dass dieses System nur solche Ereignisse erkennt, auf die es speziell programmiert wurde. So ist dieses System nicht ohne Weiteres auf eine andere Szenerie oder Umgebung übertragbar.
- Auch bei der Verkehrskontrolle bzw. bei der Verkehrslagenerfassung spielt Überwachung eine wichtige Rolle. So wird auf deutschen Autobahnen mittels entsprechender Sensoren ständig die Verkehrsdichte erfasst, um so z. B. Verkehrsleiteinrichtungen, wie sie auf der Autobahn A2 installiert sind, in Abhängigkeit der Verkehrsdichte ansteuern zu können.
- Zu dieser Thematik ist aus der
EP 0 798 684 Al ein Verfahren und ein System zur Verkehrslagenerfassung durch stationäre Datenerfassungseinrichtungen bekannt, bei dem die Datenerfassungseinrichtungen ihre Daten an eine Zentrale weiterleiten, in der diese dann entsprechend ausgewertet werden. Das Ergebnis der Auswertung wird dann an die Datenerfassungseinrichtungen zurückgesendet, damit diese in die Lage versetzt werden, nur noch auf solche Ereignisse zu achten, die letztlich auch zu einer Meldung an die Zentrale führen müssen. Damit soll insbesondere erreicht werden, dass die von der Datenerfassungseinrichtung zur Zentrale zu übertragenden Daten möglichst gering gehalten werden. - Nachteilig dabei ist bei diesem System wie auch bei den anderen aus dem Stand der Technik bekannten Systemen, die Tatsache, dass Signaturen der zu detektierenden Ereignisse vom Operator festgelegt werden müssen. Außerdem werden in den Wochen nach der Installation meist häufig weitere Wartungsdurchläufe nötig, um durch Änderungen im beobachteten Bereich, durch Wetteränderungen, Jahreszeiten usw. das System neu anzupassen. Dabei sind diese Systeme meist nur in der Lage, genau festgelegte Vorgänge innerhalb ihres Bereiches zu erkennen.
- So wird z. B. in der
US 2004/0130620 Al ein Verfahren zur Videoanalyse offenbart, bei dem eine Mehrzahl von Bildsensoren einen auch überlappenden Bereich aufnehmen, Die innerhalb des Überwachungsbereiches sich bewegenden Objekte können dabei mit Hilfe eines entsprechenden Tracking-Algorithmus verfolgt werden, und zwar auch über die Aufnahmegrenzen eines Bildsensors hinweg. -
- Im Hinblick auf die aus dem Stand der Technik bekannten Nachteile ist es Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Detektieren von Ereignissen innerhalb eines zu überwachenden räumlichen Gebietes anzugeben.
- Die Aufgabe wird mit dem Verfahren der eingangs genannten Art gelöst, wobei das zu überwachende räumliche Gebiet in eine Mehrzahl von Feldern unterteilt wird, mit den Schritten:
- a) Erfassen von Werten mittels der Sensoren hinsichtlich mindestens einer Eigenschaft von Objekten, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden, und deren Felder, innerhalb dessen der jeweilige Wert der Eigenschaft erfasst wurde,
- b) Lernen zumindest eines Verhaltens der Objekte bezüglich mindestens einer der Objekteigenschaften anhand einer statistischen Auswertung der ermittelten Werte für mindestens ein Feld, und
- c) Erkennen einer Situationsänderung in Abhängigkeit eines Vergleichs zwischen dem erlernten Verhalten mindestens eines Feldes und zumindest einem aktuell ermitteltem Wert des mindestens einen Feldes bezüglich mindestens einer der Objekteigenschaften.
- Damit wird es möglich, ein Gebiet mit entsprechenden Sensoren zu überwachen, ohne das es speziell auf bestimmte Ereignisse, die es erkennen soll, programmiert werden muss. Dazu werden mit Hilfe der Sensoren, die das Gebiet überwachen, Werte von den Objekten erfasst, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden. Die erfassten Werte sind dabei Werte entsprechender Eigenschaften der Objekte, die mit Hilfe der Sensoren erfasst bzw. ermittelt oder gemessen werden können. Eine solche Objekteigenschaft könnte dabei z. B. die Geschwindigkeit, Richtung oder aber auch ganz allgemein gesprochen die Aktivität eines Objektes innerhalb eines entsprechenden Feldes sein. Es ist aber auch denkbar, dass weitere Informationen über die Objekte als Eigenschaften ermittelt werden können, wie z. B. der Treibstoffvorrat eines Flugzeuges, je nachdem was für eine Art von Sensoren verwendet wird.
- Darüber hinaus wird beim Erfassen der Werte ermittelt, innerhalb welchen Feldes der entsprechende Wert erfasst wurde, so dass sich ein Datenpaar aus einem Wert einer Objekteigenschaft und dazugehörigen Feld des räumlichen Gebietes ergibt. Im nächsten Schritt wird dann für mindestens eines der Felder ein Verhalten der Objekte bezüglich mindestens einer ihrer Objekteigenschaften gelernt, indem die in dem Feld hinterlegten Werte der Objekteigenschaft mittels statistischer Methoden ausgewertet werden. Somit ergibt sich für jedes Feld des gesamten räumlichen Gebietes ein entsprechendes Verhalten der Objekte bezüglich der überwachten Eigenschaft der Objekte.
- So kann beispielsweise bei der Überwachung einer Straße für jedes Feld ein Verhalten hinsichtlich der Geschwindigkeit gelernt werden, was sich z. B. in Form der Durchschnittsgeschwindigkeit ausdrücken lässt. Um nun eine Veränderung der beobachten Situation erkennen zu können, die sich letztlich aus einer spontanen Verhaltensänderung einer oder mehrerer Objekte innerhalb der Gesamtszene ergibt, wird das erlernte Verhalten mindestens eines Feldes mit aktuell ermittelten Werten des entsprechenden Feldes verglichen, wobei anhand des Vergleiches auf eine Situationsänderung geschlossen wird.
- Dabei kann selbstverständlich nicht nur ein Verhalten bezüglich einer Eigenschaft und bezüglich eines Feldes gelernt werden, sondern auch mehrere Verhalten pro Feld und Eigenschaft. Solche Konstellationen treten z.B. in Kreuzungsbereichen auf, in denen es z.B. zwei Häufungspunkte für die Geschwindigkeit gibt, und zwar einmal für Fahrzeuge und einmal für Fußgänger. Die aktuell ermittelten Werte werden dann sowohl mit dem einen als auch mit dem anderen Verhalten verglichen (Schritt c)), wobei eine Situationsänderung dann angenommen wird, wenn sich die aktuellen Werte unter keines der Verhalten subsumieren lassen.
- So erkennt das oben genannte Verfahren z. B. eine sprunghafte Änderung der Durchschnittsgeschwindigkeit der Fahrzeuge auf der Straße, so dass somit die Bildung eines Staus bzw. das Auflösen eines Staus erkannt wird. Der Vorteil dieses Verfahrens besteht dabei darin, dass durch die Aufteilung des räumlichen Gebietes in eine Mehrzahl von Feldern lokale Situationsänderungen innerhalb eines großen räumlichen Gebietes ohne Weiteres detektierbar sind sowie die Integration mehrerer Sensoren, die das räumliche Gebiet aus unterschiedlichen Sichtweisen aufnehmen, problemlos möglich ist. Darüber hinaus ist bei diesem Verfahren keine spezielle Programmierung auf entsprechend zu detektierende Ereignissen notwendig.
- Vorteilhafter Weise wird das Verhalten in Schritt b) durch die zuletzt ermittelten Werte des entsprechenden Feldes gelernt, die innerhalb eines bestimmten Zeitraumes liegen. So ist es z. B. denkbar, dass nur solche Werte beim Lernen des Verhaltens berücksichtigt werden, die innerhalb der letzten z. B. fünf Minuten erfasst wurden. Dadurch wird es möglich, dass das System nach einer gewissen Zeit die sich geänderte Situation neu lernt und als typisches Verhalten ansieht.
- Es ist aber auch denkbar, dass für mehrere diskrete Zeiträume jeweils ein Verhalten gelernt wird, das dem Vergleich zum Erkennen einer Situationsänderung in Schritt c) zugrunde gelegt wird, Dabei ist es denkbar, dass ein Verhalten eines Zeitraumes, der weiter zurückliegt, bei dem Vergleich eine geringere Gewichtung erhält, als jene Zeiträume, die noch nicht so lange her sind, so dass junge Zeiträume eine höhere Gewichtung erhalten als ältere.
- Besonders vorteilhaft ist es aber auch, dass jeweilige Verhalten der Mehrzahl der Zeiträume zu einem gemeinsamen Verhalten zusammenzuführen, wobei auch hier ältere Zeiträume eine andere Gewichtung bekommen können als jüngere, Durch das Zusammenführen verschiedener erlernter Verhalten unterschiedlichster Zeiträume kann somit ein typisches Verhalten der Objekte innerhalb der zu beobachtenden Szene abgebildet werden. Dabei können die unterschiedlich gelernten Verhalten z. B. mittels Mittelwertbildung zusammengeführt werden.
- An dieser Stelle sei erwähnt, dass pro Feld und Zeitraum mehrere Verhalten entsprechend der Objekteigenschaften erlernt werden können, So ist es denkbar, dass für eine Objekteigenschaft 1 ein Verhalten gelernt wird und gleichzeitig für eine Objekteigenschaft 2, die z. B. mittels anderer Sensoren aufgenommen wird, ebenfalls ein Verhalten gelernt wird, so dass sich für jede Objekteigenschaft ein entsprechend gelerntes Verhalten ergibt. Diese pro Objekteigenschaft erlernten Verhalten können dann sowohl einzeln betrachtet als auch zusammengeführt werden.
- Vorteilhaft ist es, wenn vor dem Vergleich in Schritt c) die Felder maskiert werden, d. h. ausschließlich die Felder zum Vergleich herangezogen werden, für die überhaupt entsprechende Werte hinterlegt sind, Dabei bleiben alle die Felder unberücksichtigt, für die keine oder nur eine sehr geringe Anzahl von Werten hinterlegt sind.
- Ganz besonders vorteilhaft ist es, wenn zusätzlich zu der Erfassung der Werte eine Positionsangabe ermittelt wird, welche die entsprechende Ortsposition des Objektes innerhalb des räumlichen Gebietes repräsentiert. Diese sog. Ermittlungsposition, welche die Position angibt, an der der Wert innerhalb des räumlichen Gebietes bei dem entsprechenden Objekt ermittelt wurde, wird dann zur Ermittlung des Feldes, mit der der ermittelte Wert verknüpft wird, herangezogen.
- Damit mehrere Sensoren auch überlappende Bereiche des zu überwachenden Gebietes abdecken können, ist es ganz besonders vorteilhaft, wenn diese oben beschriebene Ermittlungsposition in ein einheitliches Positionskoordinatensystem bzw. in einheitliche Weltkoordinaten umgerechnet wird, damit die Positionsangaben der ermittelten Werte untereinander vergleichbar sind. So können dann die Werte unabhängig von der Sensorposition in die entsprechenden Felder eingetragen werden.
- In einer konkreten Ausführungsform ist es ganz besonders vorteilhaft, wenn das Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen einem erlernten Verhalten aus Schritt b) und einem anhand statistischer Auswertung von aktuell ermittelten Werten aktuellem Verhalten erfolgt. Dabei wird kontinuierlich ein aktuelles Verhalten für eines oder mehrere Felder ermittelt und mit einem zuvor erlernten Verhalten für die entsprechenden Felder verglichen. Dadurch wird es möglich, Situationsänderungen daran zu erkennen, dass sich das Verhalten der Objekte innerhalb einer oder mehrerer Felder entsprechend ändert, und zwar bezüglich einer oder mehrerer Objekteigenschaften.
- In einer anderen Ausführungsform ist es ganz besonders vorteilhaft, wenn eine Situationsänderung in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und aktuellen Werten einer Trajektorie eines konkreten Objektes erkannt wird. Dabei werden Werte bezüglich einer oder mehrerer Objekteigenschaften eines konkreten Objektes erfasst, während sich das Objekt auf einer bestimmten Bahn (Trajektorie) durch das zu überwachende Gebiet bewegt. Diese so aufgenommenen Werte werden dann einer bestimmten Trajektorie des Objektes zugeordnet und mit dem erlernten Verhalten der anderen Objekte verglichen. Weicht das Verhalten bezüglich einer oder mehrerer Objekteigenschaften des konkreten Objektes gegenüber dem erlernten Verhalten der anderen Objekte signifikant ab, so kann auf eine Situationsänderung geschlossen werden. Somit können auch einzelne Objekte identifiziert werden, die sich gegenüber dem typischen Verhalten der gesamten Szene atypisch verhalten, was ebenfalls eine Situationsänderung darstellt.
- Vorteilhafterweise werden für die statistische Auswertung Mittelwerte, Summen, Produkte und/oder Standardabweichungen gebildet, die dann miteinander verglichen werden können. Dabei sind grundsätzlich alle arithmetischen Operationen möglich, die der Fachmann für statistische Zwecke heranziehen würde. Als Sensoren zur Überwachung des räumlichen Gebietes kommen insbesondere bildgebende Sensoren, die vorteilhafterweise mit Bilderkennungsverfahren ausgestattet sind, Radarsensoren oder RFID Transponder in Betracht. Als zu überwachende Objekte kommen insbesondere Menschen, Tiere, also Lebewesen im Allgemeinen, Straßen-, Schienen-, Luft- oder Wasserfahrzeuge in Betracht sowie Partikel und sonstige Objekte, Besonders vorteilhaft ist es dabei, wenn die genannten Sensoren zum Ermitteln von Eigenschaften wie Aktivität der Objekte, die Geschwindigkeit der Objekte oder deren Richtung eingerichtet sind.
- Darüber hinaus ist es ganz besonders vorteilhaft, wenn der Vergleich in Schritt c) mittels eines Schwellenwertvergleiches erfolgt, so dass nicht bereits kleinste Änderungen zum Erkennen einer Situationsänderung führen. So kann der Schwellenwert derart ausgelegt sein, dass sprunghafte Veränderungen im Verhalten der Objekte als Situationsänderung erkannt werden. So kann für jedes Feld bzw. jede Zelle ein Schwellenwert ermittelt werden, der dann für jedes Feld hinterlegt wird, wobei sich der Schwellenwert z.B. aus dem Produkt der Standardabweichung des jeweiligen Feldes mit einem Empfindlichkeitsfaktor wie folgt ergeben kann:
mit Si, j als Schwellenwert in dem Feld (i, j), mit Vobj (i, j) als das erlernte Verhalten bezüglich einer Eigenschaft der Objekte im Feld (i, j), mit kempf als eine Empfindlichkeitsfaktor, der für die gesamte Szene bzw. Karte gilt und mit σi, j als Standardabweichung in dem Feld (i, j) bezüglich der erlernten Objekteigenschaft. Durch k kann in der gesamten Karte eine Empfindlichkeit eingestellt werden, die dann aber in jedem Feld zu einem anderen Ergebnis in Abhängigkeit von σ führt. So kann in örtlich nahe beieinander liegenden Feldern in einem Feld eine Situationsänderung erkannt werden, in benachbarten Feldern jedoch nicht, weil hier beispielsweise die Standardabweichung σ sehr hoch ist (z.B. in Kreuzungsgebieten). Somit kann der Schwellwert für jede Zelle einzeln und dynamisch geregelt werden, was das Verfahren noch genauer macht. - Dabei können für ein Feld auch mehrere Schwellwerte hinterlegt sein, wenn sich bezüglich einer Objekteigenschaft mehrere typische Verhalten ergeben.
- Des Weiteren betrifft die Erfindung ein Computerprogrammprodukt zum Ausführen des vorstehenden Verfahren sowie eine Vorrichtung hierzu.
- Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft erläutert. Es zeigen:
- Fig. 1a, 1b
- skizzenhafte Darstellung einer aufgenommenen Szene;
- Fig. 2
- Grundschema der Datenstruktur;
- Fig. 3
- Grundschema von abgeleiteten Informationen;
- Fig. 4
- schematische Darstellung der Situationserkennung über mehrere Zeitbereiche;
- Fig. 5
- skizzenhafte Darstellung eines Trajektorienvergleiches.
- Die
Fig. 1a und 1b zeigen skizzenhaft die Aufnahme einer Straßenkreuzung, die als Ausführungsbeispiel den weiteren Ausführungen zugrunde gelegt werden soll. Die Kreuzung wird dabei anhand zweier Videokameras überwacht, wobeiFig. 1a das Bild der ersten Videokamera aus einem ersten Blickwinkel erkennen lässt, währendFig. 1b das Bild einer zweiten Videokamera aus einem anderen Blickwinkel erkennen lässt. - Mittels einer entsprechenden Software, die nicht Gegenstand des vorliegenden erfindungsgemäßen Verfahrens ist, werden aus den aufgenommenen Bildinformationen Werte bestimmter Objekteigenschaften identifiziert. In diesen Ausführungsbeispielen sind die Objekte Fahrzeuge, welche die Kreuzung passieren, Dabei wird von der Bilderkennungssoftware für jedes Fahrzeug die Geschwindigkeit sowie die Richtung erkannt und entsprechend abgespeichert. Somit wird pro Fahrzeug, welches sich im Sichtfeld der Kameras befindet, kontinuierlich sowohl die Geschwindigkeit als auch die Richtung ermittelt.
- Wie in
Fig. 1a und 1b beispielhaft im oberen Bereich der aufgenommen Bilder zu erkennen ist, wird der aufgenommene Bildbereich in eine Mehrzahl von Feldern 1 unterteilt. InFig. 1a und 1b ist dies jedoch nur skizzenhaft angedeutet und erstreckt sich im Normalfall über die ganze Szene. Bei der Erfassung der Geschwindigkeits- und Richtungswerte für jedes Objekt wird zusätzlich die Position ermittelt, an der die entsprechenden Werte ermittelt wurden. Damit diese Werte auch unabhängig von dem Standort der entsprechenden Kamera verwertbar sind, wird diese Positionsinformation in ein Weltkoordinatensystem umgerechnet und entsprechend abgespeichert. Somit ergeben sich für ein Fahrzeug, welches durch den Sichtbereich der beiden Kameras inFig. 1a und 1b fährt, eine Mehrzahl von Geschwindigkeits- und Richtungswerten an unterschiedlichen Positionen bzw. eine Mehrzahl von Geschwindigkeits- und Richtungswerten an gleichen Positionen, da die Werte durch mehrere unterschiedliche Sensoren erfasst werden können. - Jedem Geschwindigkeits- und Richtungswert wird nun anhand seiner Position das entsprechende Feld 1 zugeordnet, innerhalb dessen die ermittelte Position liegt. Somit kann jedem gemessenen Geschwindigkeits- und Richtungswert genau ein solches Feld zugeordnet werden. Dies ist schematisch in
Fig. 2 dargestellt. Mit anderen Worten, es wird in all jenen Feldern, die von dem Objekt während der Bewegung durch das räumliche Gebiet tangiert werden, mindestens ein Geschwindigkeits- und Richtungswert für dieses Objekt hinterlegt. Dabei kommt es nicht darauf an, das Objekt selber zu identifizieren. InFig. 2 sind die schraffierten Felder 2 die Felder, in denen Objektwerte von verschiedenen Objekten hinterlegt wurden. Die weißen Felder hingegen weisen keinerlei hinterlegte Werte auf. - Aus dieser Anordnung ergibt sich eine kartenartige Datenstruktur, aus der sich dann mit Hilfe von statistischen Auswertungen weitere kartenartige Datenstrukturen ermitteln lassen, aus denen dann das Verhalten der Objekte innerhalb der Szene abgeleitet werden kann.
- Eine solche abgeleitete kartenartige Struktur ist in
Fig. 3 zu erkennen. Bei derFig. 3 handelt es sich um eine Datenstruktur, bei der in jedem Feld der Mittelwert der in diesem Feld hinterlegten Werte gebildet wurde. In diesem Ausführungsbeispiel wurde dies mit der Objekteigenschaft "Geschwindigkeit" durchgeführt. Es lassen sich aber auch andere kartenartige Strukturen ableiten, wie z. B. solche, bei denen für jedes Feld die Standardabweichung als statistische Auswertung ermittelt wird. - Dabei werden zunächst für jedes Feld die Werte ermittelt, deren Eigenschaft statistisch abgeleitet werden soll. In diesem Ausführungsbeispiel wären das die Geschwindigkeitswerte. Dann wird für jedes Feld die statistische Auswertung durchgeführt. Da die statistische Auswertung für jedes Feld separat durchgeführt wird, ergeben sich somit für jedes Feld auch unterschiedliche Werte, die in der
Fig. 3 durch eine unterschiedliche Schraffierung in den einzelnen Feldern dargestellt wird. - Durch eine solche statistische Auswertung, wie sie in die
Fig. 3 gezeigt wird, lässt sich das Verhalten der Objekte hinsichtlich bestimmter Objekteigenschaften innerhalb der Szene ermitteln, wobei das erlernte Verhalten als typisches Verhalten der Objekte verstanden wird. Verändert sich nun die Szene, indem z. B. die Geschwindigkeit langsamer oder schneller wird, so schlägt sich dies letztlich auch in der statistischen Auswertung nieder, so dass aufgrund eines Vergleiches zwischen dem erlernten Verhalten und momentan aktuellen Werten dann auf eine Situationsänderung geschlossen werden kann. Eine solche Situationsänderung ist somit letztlich immer eine Abweichung des Verhaltens der Objekte vom typischen Verhalten der Objekte innerhalb dieser Szene bezüglich mindestens einer Objekteigenschaft. - Es sei beispielhaft einmal angenommen, die mittlere Geschwindigkeit liegt dabei je nach Feld zwischen 50 und 60 km/h. Kommt es nun zu einem Stau, so verringert sich naturgemäß die Geschwindigkeit der Fahrzeuge drastisch, was von den Sensoren erkannt wird. Verglichen mit dem erlernten Verhalten, welches eine mittlere Geschwindigkeit zwischen 50 und 60 km/h als typisches Verhalten anzeigt, ist eine Geschwindigkeit von 10 oder 20 km/h eines Objektes innerhalb dieser Szene atypisch, so dass auf eine Situationsänderung geschlossen werden kann. Darüber hinaus würde sich in diesem Fall auch die statistische Auswertung bezüglich der Standardabweichung sprunghaft verändern. Somit kann sehr schnell auf ein atypisches Verhalten der Objekte geschlossen werden, ohne dass zuvor das System wissen musste, worauf es zu achten hat. Dabei kann der Stau allein aus der Veränderung der Standardabweichung erkannt werden, da Stop&Go eine viel größere Standardabweichung erzeugt, als fließender Verkehr, wobei dies auch schon bei relativ kleinen bzw. schwachen Veränderungen festzustellen ist.
-
Fig. 4 zeigt beispielhaft den Vergleich zwischen dem erlernten Verhalten und einem aktuellen Verhalten bezüglich der beiden Objekteigenschaften Geschwindigkeit (S) und Richtung (D) anhand der statistischen Auswertung "Mittelwertbildung" (Sµ, Dµ). - Über drei in der Vergangenheit liegende diskrete Zeiträume t-3, t-2 und t-1 wurden kartenartige Datenstrukturen gelernt, wie sie zuvor beschrieben wurden. Dazu wurden Datenstrukturen bezüglich der Geschwindigkeit und der Richtung der Objekte innerhalb der beobachteten Szene gelernt. Aus den ermittelten Werten für die Geschwindigkeit S und die Richtung D wurde dann für jedes Feld der Mittelwert abgeleitet, was als kartenartige Datenstruktur 41 und 42 in
Fig. 4 zu erkennen ist. - Aus diesen drei abgeleiteten kartenartigen Datenstrukturen in den Zeiträumen t-3 bis t-1 wurde dann ein gemeinsames Verhalten abgeleitet, welches ebenfalls in Form einer kartenartigen Datenstruktur 43 bzw. 44 abgespeichert wird. Bei der Bildung eines gemeinsamen erlernten Verhaltens kann dabei mit Hilfe unterschiedlicher Gewichtungen z. B. jüngeres erlerntes Verhalten stärker berücksichtigt werden als älteres.
- Darüber hinaus wurde aus momentan aktuell ermittelten Werten bezüglich der Geschwindigkeit und der Richtung ein aktuelles Verhalten gelernt, welches sich in den abgeleiteten kartenartigen Datenstrukturen 45 und 46 in
Fig. 4 niederschlägt. In all den genannten Datenstrukturen wurde mit Hilfe der Mittelwertbildung als statistische Auswertung das Verhalten der Objekte innerhalb der Szene abgebildet. Auf Basis des aktuell ermittelten Verhaltens 45 bzw. 46 wird nun der Vergleich mit dem gemeinsam erlernten Verhalten 43 bzw. 44 durchgeführt. In diesem Ausführungsbeispiel wird dazu einfach die Differenz gebildet, d. h. es wird der Mittelwert eines Feldes im erlernten Verhalten mit dem Mittelwert des entsprechend gleichen Feldes im aktuellen Verhalten subtrahiert, so dass sich eine Differenzkarte ergibt. Es sind aber auch andere Vergleichsmöglichkeiten insbesondere mathematischer Art denkbar. Dieser Vergleich wird sowohl mit der Objekteigenschaft "Geschwindigkeit" als auch mit der Objekteigenschaft "Richtung" durchgeführt, wobei nach der Differenzbildung die einzelnen Werte aller Felder aufsummiert werden. - Als Ergebnis dieses Vergleiches kommt in diesem Ausführungsbeispiel ein konkreter Skalar heraus, welcher die Unterschiede zwischen dem aktuellen und dem erlernten Verhalten repräsentiert. Es ist dabei leicht zu erkennen, dass je größer der Unterschied zwischen erlerntem und aktuellem Verhalten ist, je größer auch der Skalar ist. Des Weiteren lässt sich aus dieser Anordnung erkennen, dass kleine Änderungen sich nicht wesentlich auf das Gesamtergebnis auswirken, so dass nicht gleich auf eine Situationsänderung geschlossen wird, sobald die Werte lokal auch nur minimal abweichen.
- Des Weiteren ist in dieser Anordnung zu erkennen, dass bei anhaltender Situationsänderung das System selbstlernend ist und es sich der neuen Situation anpasst. Am obigen Beispiel des Staus orientiert, bedeutet dies, dass zwar der Stau als Situationsänderung zunächst erkannt wird (z.B. anhand einer großen Standardabweichung), nach einer gewissen Zeit aber die langsame Geschwindigkeit des Staus als typisches Verhalten gelernt wird (die Standardabweichung wird wieder kleiner). Das System passt sich somit automatisch ohne dass es neu justiert werden muss an die gegebene Situation an. Löst sich der Stau nach einer gewissen Weile wieder auf, so erhöht sich sprunghaft die Durchschnittsgeschwindigkeit, was ebenfalls wieder als Situationsänderung erkannt wird, da nun wiederum das Verhalten der Objekte von dem erlernten typischen Verhalten abweicht. Somit kann das System sowohl die Bildung eines Staus als auch dessen Auflösung hinterher ohne Probleme und manuelles Eingreifen erkennen und passt sich durch Mitlernen der Standardabweichung auch an zu erwartende Änderungsstärken an.
- Auch ist es mit diesem Verfahren möglich, auf bestimmte äußere Einflüsse wie Witterungsbedingungen oder Ausfall von bestimmten Sensoren entsprechend zu reagieren, ohne dass es dafür eines manuellen Eingriffs bedarf. Fällt z. B. ein Sensor aus oder wird der Sensor von einem Fremdkörper teilweise überdeckt, so wird dies zwar von dem Verfahren zunächst als Situationsänderung erkannt, im weiteren Verlauf jedoch als typisch wahrgenommen. Für den späteren Verlauf hat somit der Ausfall bzw. der teilweise Ausfall eines Sensors keine Bedeutung mehr.
- An dieser Stelle sei angemerkt, dass sowohl die statistische Auswertung "Mittelwertbildung" als auch die genannten Objekteigenschaften nicht auf diese begrenzt sind und nicht einschränkend zu verstehen sind.
- Dabei kann auch hier mit Schwellenwerten gearbeitet werden, die für jedes Verhalten und der bezüglichen Standardabweichung ermittelt werden. So schwankt der Durchschnittswert (Mittelwert) in einer großen Szene oft nur gering, obwohl sich z.B. auf einer Fahrbahn ein Stau gebildet hat, z.B. weil sich der Stau zunächst nur auf einer Fahrbahn bildet und sich dann auf die anderen Fahrbahnen "ausbreitet" bzw. sich der Stau nur in eine Richtung bildet, während die Gegenfahrbahn frei ist. So kann es zu kompensatorischen Änderungen kommen, die sich gegenseitig aufheben, so dass in der Summe keine Situationsänderung detektiert wird.
- So ist es besonders vorteilhaft, wenn für jedes Feld die Standardabweichung gespeichert wird, die dann für einen Schwellwertvergleich herangezogen wird, um so selektiv für einzelne Felder Situationsänderungen feststellen zu können. Durch eine Faktorisierung der Standardabweichung kann ein Empfindlichkeit eingestellt werden, so dass sich in manchen Feldern Situationsänderungen ergeben, da hier die Standardabweichungen relativ gering sind, während in anderen Feldern dies als normales Verhalten erkannt wird, was auf relativ große Standardabweichungen zurückzuführen ist.
- So passt das erfindungsgemäße Verfahren die Standardabweichung in den Feldern, in denen eine starke Änderung auftritt entsprechend über die Zeit an (z.B. bei Entstehung eines Staus), während die anderen Feldern für Veränderungen empfindlich bleiben (z.B. die Gegenfahrbahn, bei der noch kein Stau aufgetreten ist).
-
Fig. 5 zeigt schematisch eine andere Ausführungsform, bei der mit Hilfe eines entsprechenden Tracking-Algorithmus ein bestimmtes bzw. konkretes Objekt verfolgt wurde. Dazu wird von dem zu beobachtenden Objekt eine Trajektorie 51 aufgenommen, die eine Mehrzahl von Datenpunkten aufweist. An diesen Datenpunkten wurden dann z. B. entsprechende Werte von zu messenden Objekteigenschaften ermittelt und hinterlegt. Diese Datenpunkte werden nun mit dem erlernten Verhalten der Gesamtszene verglichen, um festzustellen, ob das Objekt sich bezogen auf das Gesamtverhalten aller Objekte typisch oder atypisch verhält. Dies wird gleichzeitig für alle Objekte in der Szene einzeln durchgeführt. - Dazu wird jeder Datenpunkt der Trajektorie mit der darunter liegenden kartenartigen Datenstruktur, insbesondere mit den Feldern verglichen, in die der entsprechende Datenpunkt fällt. Am Beispiel von
Fig. 5 sei dies szenenhaft mit dem Datenpunkt 52 dargestellt. Dabei wird zunächst einmal ermittelt, ob für diesen Datenpunkt der Trajektorie des Objektes überhaupt Werte innerhalb der Karte hinterlegt sind. Dann wird die entsprechende Objekteigenschaft, hier die Geschwindigkeit, mit den hinterlegten Geschwindigkeiten verglichen. So lässt sich z. B. aus dem erlernten Verhalten die mittlere Geschwindigkeit ableiten und mit der Geschwindigkeit des konkreten Datenpunktes 52 entsprechend vergleichen. Dabei kann mit Hilfe von Stabilitätsinformationen und Gewichtungen verhindert werden, dass kleinste Differenzen als atypisches Verhaltens erkannt werden. - Beispielsweise lässt sich mit diesem Ausführungsbeispiel in
Fig. 5 erkennen, wenn z. B, Radfahrer sich sehr schnell durch eine Szene bewegen oder Fußgänger, die ziellos laufen oder plötzlich anfangen zu rennen oder über sonst kaum benutzte Flächen wie Wiesen laufen. Auch lässt sich mit diesem System ein Geisterfahrer erkennen. Es lassen sich aber auch andere Objekte wie Flugzeuge damit überwachen, so dass bei der Überwachung eines Flughafens z. B. Situationen erkannt werden, in denen Servicefahrzeuge sich in ungewöhnlichen Bereichen bewegen oder atypische Geschwindigkeiten aufweisen. Auch Starts von selten benutzten Start- und Landebahnen sowie Änderung der Startrichtung und der Einsatz eines Testfahrzeuges lassen sich mit diesem Verfahren erkennen.
Claims (18)
- Verfahren zum automatischen Erkennen einer Situationsänderung innerhalb eines mittels Sensoren zu überwachenden räumlichen Gebietes, wobei das überwachende räumliche Gebiet in eine Mehrzahl von Feldern unterteilt wird, mit den Schritten:a) Erfassen von Werten mittels der Sensoren hinsichtlich mindestens einer Eigenschaft von Objekten, die sich innerhalb des zu überwachenden räumlichen Gebietes befinden, und deren Felder, innerhalb dessen der jeweilige Wert der Eigenschaft erfasst wurde,b) Lernen zumindest eines Verhaltens der Objekte bezüglich mindestens einer der Objekteigenschaften anhand einer statistischen Auswertung der ermittelten Werte für mindestens ein Feld, undc) Erkennen einer Situationsänderung in Abhängigkeit eines Vergleichs zwischen dem erlernten Verhalten mindestens eines Feldes und zumindest einem aktuell ermittelten Wert des mindestens einen Feldes bezüglich mindestens einer der Objekteigenschaften.
- Verfahren nach Anspruch 1, gekennzeichnet durch Lernen des Verhaltens in Schritt b) anhand der statistischen Auswertung der innerhalb eines Zeitraumes zuletzt ermittelten Werte.
- Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch Lernen des Verhaltens für mehr als einen Zeitraum und Erkennen einer Situationsänderung durch Vergleich zwischen dem erlernten Verhalten der jeweiligen Zeiträume und den aktuellen Werten.
- Verfahren nach Anspruch 3, gekennzeichnet durch Ermitteln eines gemeinsamen erlernten Verhaltens in Abhängigkeit der in den jeweiligen Zeiträumen erlernten Verhalten und Erkennen einer Situationsänderung durch Vergleich zwischen dem gemeinsamen erlernten Verhalten und den aktuellen Werten,
- Verfahren nach Anspruch 4, gekennzeichnet durch Ermitteln des gemeinsamen erlernten Verhaltens durch Mittelwertbildung.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Vergleich in Schritt c) ausschließlich der Felder, für die zumindest ein Wert bezüglich einer der Objekteigenschaften hinterlegt ist.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erfassen einer die Position des Objektes innerhalb des räumlichen Gebietes bei der Ermittlung eines Wertes einer Eigenschaft angebenden Ermittlungsposition und Ermitteln des entsprechenden Feldes in Abhängigkeit der Ermittlungsposition.
- Verfahren nach Anspruch 7, gekennzeichnet durch Umrechnen der Ermittlungsposition in ein einheitliches Positionskoordinatensystem und Ermitteln des entsprechenden Feldes in Abhängigkeit der Ermittlungsposition innerhalb des einheitlichen Positionskoordinatensystems.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und einem anhand statistischer Auswertung von aktuell ermittelten Werten aktuellen Verhaltens als aktuelle Werte.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Erkennen einer Situationsänderung in Schritt c) in Abhängigkeit des Vergleiches zwischen dem erlernten Verhalten aus Schritt b) und aktuellen Werten zumindest einer der Objekteigenschaften einer Trajektorie eines konkreten Objektes unter Berücksichtigung der Felder, die von der Trajektorie des Objektes durchlaufen werden,
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Bilden von Mittelwerten, Summen, Produkten und/oder Standardabweichungen als statistische Auswertung.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch bildgebende Sensoren, insbesondere Bildererkennungsverfahren, Radarsensoren und/oder RFID-Transponder als Sensoren.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Menschen, Tiere, Straßen-, Schienen-, Luft-, und/oder Wasserfahrzeuge sowie Partikel als Objekte.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Aktivität, Geschwindigkeit und/oder Richtung als ermittelbare Eigenschaft der Objekte.
- Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Vergleich in Schritt c) mittels eines Schwellwertvergleiches.
- Verfahren nach Anspruch 15, gekennzeichnet durch Ermitteln eines Schwellwertes für jedes Feld in Abhängigkeit zumindest eines Verhaltens bezüglich mindestens einer Objekteigenschaft und der Standardabweichung bezüglich der Objekteigenschaft und des jeweiligen Feldes.
- Computerprogrammprodukt mit Programmeodemittel zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogrammprodukt auf einer Rechenmaschine ausgeführt wird.
- Vorrichtung zur Erkennung einer Situationsänderung mit mindestens einem Sensor, der zur Ermittlung von Werten mindestens einer Eigenschaft von Objekten, die sich innerhalb eines zu überwachenden räumlichen Gebietes befinden, eingerichtet ist, und mit einer Datenverarbeitungsanlage, die zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 16 eingerichtet ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200910021765 DE102009021765A1 (de) | 2009-05-18 | 2009-05-18 | Verfahren zum automatischen Erkennen einer Situationsänderung |
Publications (3)
Publication Number | Publication Date |
---|---|
EP2254104A2 EP2254104A2 (de) | 2010-11-24 |
EP2254104A3 EP2254104A3 (de) | 2012-11-07 |
EP2254104B1 true EP2254104B1 (de) | 2014-06-11 |
Family
ID=42262035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP10004126.8A Not-in-force EP2254104B1 (de) | 2009-05-18 | 2010-04-19 | Verfahren zum automatischen Erkennen einer Situationsänderung |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP2254104B1 (de) |
DE (1) | DE102009021765A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9552725B2 (en) | 2000-08-28 | 2017-01-24 | Inrix Global Services Limited | Method and system for modeling and processing vehicular traffic data and information and applying thereof |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7620402B2 (en) | 2004-07-09 | 2009-11-17 | Itis Uk Limited | System and method for geographically locating a mobile device |
DE102010053150B4 (de) * | 2010-11-30 | 2018-02-01 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zur Auswertung einer Verkehrslage |
DE102021207997A1 (de) | 2021-07-26 | 2023-01-26 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Überprüfen einer Vollständigkeit eines Modells einer Verkehrsdynamik an einem Verkehrsknotenpunkt |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5091780A (en) * | 1990-05-09 | 1992-02-25 | Carnegie-Mellon University | A trainable security system emthod for the same |
JPH06153202A (ja) * | 1992-10-29 | 1994-05-31 | F M T:Kk | 異常監視装置 |
US5448484A (en) * | 1992-11-03 | 1995-09-05 | Bullock; Darcy M. | Neural network-based vehicle detection system and method |
DE4300651A1 (de) * | 1993-01-08 | 1994-07-14 | Refit Ev | Verfahren zur Ermittlung von Verkehrsdaten |
DE59702873D1 (de) | 1996-03-25 | 2001-02-15 | Mannesmann Ag | Verfahren und System zur Verkehrslageerfassung durch stationäre Datenerfassungseinrichtung |
US20060074546A1 (en) * | 1999-04-19 | 2006-04-06 | Dekock Bruce W | System for providing traffic information |
JP3243234B2 (ja) * | 1999-07-23 | 2002-01-07 | 松下電器産業株式会社 | 混雑度計測方法、計測装置、およびそれを用いたシステム |
US6587781B2 (en) * | 2000-08-28 | 2003-07-01 | Estimotion, Inc. | Method and system for modeling and processing vehicular traffic data and information and applying thereof |
US20030107650A1 (en) | 2001-12-11 | 2003-06-12 | Koninklijke Philips Electronics N.V. | Surveillance system with suspicious behavior detection |
EP1563686B1 (de) | 2002-11-12 | 2010-01-06 | Intellivid Corporation | Verfahren und system zur verfolgung und verhaltensüberwachung von mehreren objekten, die sich durch mehrere sichtfelder bewegen |
JP2005173668A (ja) * | 2003-12-08 | 2005-06-30 | Hitachi Ltd | 生活行動パターンの異常判定システム及びそのための装置 |
JP4471362B2 (ja) * | 2004-08-25 | 2010-06-02 | パナソニック株式会社 | 監視カメラ装置 |
JP4368767B2 (ja) * | 2004-09-08 | 2009-11-18 | 独立行政法人産業技術総合研究所 | 異常動作検出装置および異常動作検出方法 |
US8009193B2 (en) * | 2006-06-05 | 2011-08-30 | Fuji Xerox Co., Ltd. | Unusual event detection via collaborative video mining |
-
2009
- 2009-05-18 DE DE200910021765 patent/DE102009021765A1/de not_active Withdrawn
-
2010
- 2010-04-19 EP EP10004126.8A patent/EP2254104B1/de not_active Not-in-force
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9552725B2 (en) | 2000-08-28 | 2017-01-24 | Inrix Global Services Limited | Method and system for modeling and processing vehicular traffic data and information and applying thereof |
Also Published As
Publication number | Publication date |
---|---|
EP2254104A3 (de) | 2012-11-07 |
DE102009021765A1 (de) | 2010-11-25 |
EP2254104A2 (de) | 2010-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017203838B4 (de) | Verfahren und System zur Umfelderfassung | |
DE102014008578B4 (de) | Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem | |
EP2422332B1 (de) | Verfahren zur klassifizierung eines objekts als hindernis | |
DE102018218220A1 (de) | Steuergerät für ein Fahrzeug | |
DE102009033431B4 (de) | Verfahren und Vorrichtung zur dynamischen Steuerung einer Signalanlage | |
DE102014009059B4 (de) | Seiten-Rückwärts-Alarmsystem für Fahrzeuge und Alarmsteuerverfahren für dieses | |
DE102014201159A1 (de) | Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs | |
DE102011010864A1 (de) | Verfahren und System zur Vorhersage von Kollisionen | |
EP1327969B1 (de) | Kraftfahrzeug mit Mitteln zum Erkennen eines Verkehrzeichens | |
DE102018221054B4 (de) | Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung | |
DE102020003073B3 (de) | Verfahren und Vorrichtung zum automatisierten Fahrbetrieb eines Fahrzeuges und Fahrzeug | |
DE102017212644A1 (de) | Sensorsystem und Verfahren zum Ermitteln wenigstens einer Verkehrssituation | |
EP2110798A1 (de) | Verfahren zur Überwachung eines Verkehrswegs für ein Verkehrsmittel einer vorbestimmten Art | |
WO2019162794A1 (de) | Verfahren und system zur erkennung von für ein fahrzeug geeigneten parklücken | |
DE102019211098B4 (de) | Verfahren, Vorrichtung und Computerprogramm zum Bestimmen einer Ampelphase einer Ampel einer Ampelanlage | |
DE102014212216A1 (de) | Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des | |
WO2023036545A1 (de) | Verfahren und steuerschaltung zum überprüfen, ob ein aktuell aktiver fahrmodus innerhalb seiner odd betrieben wird, sowie system und backend-server | |
EP2254104B1 (de) | Verfahren zum automatischen Erkennen einer Situationsänderung | |
DE102016202829A1 (de) | Vorrichtung zur Querführungsunterstützung für ein straßengebundenes Fahrzeug | |
DE102017212513A1 (de) | Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes | |
DE102018251778A1 (de) | Verfahren zum Assistieren eines Kraftfahrzeugs | |
EP3770879A1 (de) | Verfahren, vorrichtung und computerprogramm zum aufbereiten von daten über eine ampelanlage | |
DE102009037461A1 (de) | Assistenzsystem zur Erhöhung einer Verkehrssicherheit | |
DE102010003375A1 (de) | Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges | |
DE102022206348A1 (de) | Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
AK | Designated contracting states |
Kind code of ref document: A2 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: AL BA ME RS |
|
PUAL | Search report despatched |
Free format text: ORIGINAL CODE: 0009013 |
|
AK | Designated contracting states |
Kind code of ref document: A3 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: AL BA ME RS |
|
RIC1 | Information provided on ipc code assigned before grant |
Ipc: G08G 1/01 20060101ALI20121002BHEP Ipc: G08G 1/04 20060101AFI20121002BHEP |
|
17P | Request for examination filed |
Effective date: 20130507 |
|
RBV | Designated contracting states (corrected) |
Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
INTG | Intention to grant announced |
Effective date: 20140128 |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: EP |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FG4D Free format text: LANGUAGE OF EP DOCUMENT: GERMAN |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: REF Ref document number: 672570 Country of ref document: AT Kind code of ref document: T Effective date: 20140715 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R096 Ref document number: 502010007155 Country of ref document: DE Effective date: 20140724 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140912 Ref country code: NO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140911 |
|
REG | Reference to a national code |
Ref country code: NL Ref legal event code: VDEP Effective date: 20140611 |
|
REG | Reference to a national code |
Ref country code: LT Ref legal event code: MG4D |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: HR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: ES Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20141013 Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: NL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20141011 Ref country code: PL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R097 Ref document number: 502010007155 Country of ref document: DE |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: DK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
26N | No opposition filed |
Effective date: 20150312 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R097 Ref document number: 502010007155 Country of ref document: DE Effective date: 20150312 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R082 Ref document number: 502010007155 Country of ref document: DE Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150419 Ref country code: MC Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: PL |
|
GBPC | Gb: european patent ceased through non-payment of renewal fee |
Effective date: 20150419 |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: MM4A |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: GB Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20150419 Ref country code: CH Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20150430 Ref country code: LI Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20150430 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: ST Effective date: 20151231 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: FR Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20150430 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20150419 |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: MM01 Ref document number: 672570 Country of ref document: AT Kind code of ref document: T Effective date: 20150419 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AT Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20150419 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SM Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 Ref country code: HU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO Effective date: 20100419 Ref country code: BG Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: CY Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: BE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20150430 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: TR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140611 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: DE Payment date: 20200317 Year of fee payment: 11 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R119 Ref document number: 502010007155 Country of ref document: DE |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: DE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20211103 |