[go: up one dir, main page]

DE102019212978A1 - Monitoring device for person recognition and method - Google Patents

Monitoring device for person recognition and method Download PDF

Info

Publication number
DE102019212978A1
DE102019212978A1 DE102019212978.1A DE102019212978A DE102019212978A1 DE 102019212978 A1 DE102019212978 A1 DE 102019212978A1 DE 102019212978 A DE102019212978 A DE 102019212978A DE 102019212978 A1 DE102019212978 A1 DE 102019212978A1
Authority
DE
Germany
Prior art keywords
person
images
designed
monitoring device
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019212978.1A
Other languages
German (de)
Inventor
Gregor Blott
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to US16/576,855 priority Critical patent/US10984502B2/en
Publication of DE102019212978A1 publication Critical patent/DE102019212978A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

Überwachungsvorrichtung 2 zur Personenwiedererkennung in einem Überwachungsbereich 7, mit mindestens einer Kamera 3 zur Aufnahme einer Bildsequenz eines Abschnitts 10 des Überwachungsbereichs 7, wobei die Bildsequenz eine Mehrzahl an Überwachungsbildern umfasst, mit einem Personenwiedererkennungsmodul 6, wobei das Personenwiedererkennungsmodul 6 mindestens ein Wiedererkennungsmerkmal einer aufzufinden Person aufweist und ausgebildet ist, die wiederzuerkennende Person basierend auf den Überwachungsbildern und dem Wiedererkennungsmerkmal zu suchen, wobei die Kamera 3 ein Fischaugenobjektiv 4 aufweist.Monitoring device 2 for person recognition in a surveillance area 7, with at least one camera 3 for capturing an image sequence of a section 10 of the surveillance area 7, the image sequence comprising a plurality of surveillance images, with a person recognition module 6, the person recognition module 6 having at least one recognition feature of a person to be found and is designed to search for the person to be recognized based on the surveillance images and the recognition feature, the camera 3 having a fisheye lens 4.

Description

Stand der TechnikState of the art

Es wird eine Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich vorgeschlagen. Die Überwachungsvorrichtung weist mindestens eine Kamera zur Aufnahme einer Bildsequenz eines Abschnitts des Überwachungsbereichs auf. Die Bildsequenz weist eine Mehrzahl an Überwachungsbildern auf. Die Überwachungsvorrichtung umfasst ein Personenwiedererkennungsmodul, um basierend auf einem Wiedererkennungsmerkmal einer aufzufindenden Person und den Überwachungsbildern die Person zu suchen und/oder wiederzufinden. Ferner betrifft die Erfindung ein Verfahren zur Überwachung eines Überwachungsbereichs und zum Auffinden der Person.A monitoring device for person recognition in a monitoring area is proposed. The monitoring device has at least one camera for recording an image sequence of a section of the monitoring area. The image sequence has a plurality of surveillance images. The monitoring device comprises a person recognition module in order to search for and / or find the person based on a recognition feature of a person to be found and the surveillance images. The invention further relates to a method for monitoring a surveillance area and for locating the person.

Die Überwachung von öffentlichen Bereichen und/oder anderweitigen Überwachungsbereichen mittels optischer Methoden ist weit verbreitet. Insbesondere spielt die bildbasierte Personenwiedererkennung in solchen Bereichen eine zunehmende Rolle. Ziel ist es beispielsweise, in einem Flughafen oder einem Bahnhof eine Person wiederzuerkennen und/oder diese kameraübergreifend zu tracken. So können beispielsweise verlorene Kinder oder verdächtige Personen schnell gesucht und aufgefunden werden.The surveillance of public areas and / or other surveillance areas by means of optical methods is widespread. In particular, image-based person recognition plays an increasing role in such areas. The aim is, for example, to recognize a person in an airport or a train station and / or to track them across cameras. For example, lost children or suspicious people can be quickly searched for and found.

Hierzu werden häufig Videokameras eingesetzt, in deren Bildmaterial, basierend auf Personenmerkmalen, die Personen gesucht werden. Problematisch bei solchen Methoden ist, dass bei vielen Personen in einem Überwachungsbereich eine hohe Intrapersonen-Varianz vorliegt und gleichzeitig eine geringe Interpersonen-Varianz gegeben ist.For this purpose, video cameras are often used, in the image material of which people are searched, based on personal characteristics. The problem with such methods is that many people in a surveillance area have a high intrapersonal variance and at the same time there is a low interpersonal variance.

Die Druckschrift EP 2 189 955 B1 , die wohl den nächst kommenden Stand der Technik bildet, beschreibt ein Sensornetzwerksystem zur Verfolgung von bewegten Objekten in einem Überwachungsbereich. Das Netzwerksystem umfasst eine Mehrzahl an Netzwerkknoten, die jeweils einen Teilbereich des Überwachungsbereichs überwachen. Insbesondere sind die Netzwerkknoten als Videokameras ausgebildet. Das Sensornetzwerksystem verfügt über einen Klassifi katorgen erator.The publication EP 2 189 955 B1 , which is probably the closest state of the art, describes a sensor network system for tracking moving objects in a surveillance area. The network system comprises a plurality of network nodes, each of which monitors a sub-area of the monitoring area. In particular, the network nodes are designed as video cameras. The sensor network system has a classifi cator generator.

Offenbarung der ErfindungDisclosure of the invention

Gemäß der Erfindung wird eine Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich mit den Merkmalen des Anspruchs 1 vorgeschlagen. Ferner wird ein Verfahren zur Überwachung des Überwachungsbereichs und zur Personenwiedererkennung mit den Merkmalen des Anspruchs 15 vorgeschlagen. Bevorzugte und/oder vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.According to the invention, a monitoring device for person recognition in a monitoring area is proposed with the features of claim 1. Furthermore, a method for monitoring the surveillance area and for person recognition is proposed with the features of claim 15. Preferred and / or advantageous embodiments of the invention result from the subclaims, the following description and the attached figures.

Erfindungsgemäß wird eine Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich vorgeschlagen. Insbesondere ist die Überwachungsvorrichtung zur optischen, bildtechnischen und/oder videotechnischen Überwachung des Überwachungsbereichs ausgebildet. Mittels der Überwachungsvorrichtung kann eine wiederzuerkennende und/oder gesuchte Person im Überwachungsbereich durch Datenauswertung und/oder Bildauswertung aufgefunden werden. Der Überwachungsbereich ist vorzugsweise ein Innenraum, alternativ ein Außenbereich oder ein gemischter Bereich. Beispielsweise ist Überwachungsbereich ein öffentliches Gebäude wie ein Flughafen, ein Bahnhof oder eine Behörde. Ferner kann die Überwachungsvorrichtung ausgebildet sein, Gegenstände wiederzuerkennen und/oder zu suchen, beispielsweise Gepäckstücke wie Koffer, Fahrzeuge wie Autos oder Tiere.According to the invention, a monitoring device for person recognition in a monitoring area is proposed. In particular, the monitoring device is designed for optical, image-technical and / or video-technical monitoring of the monitoring area. By means of the monitoring device, a person to be recognized and / or sought can be found in the monitoring area by data evaluation and / or image evaluation. The monitoring area is preferably an interior, alternatively an outside area or a mixed area. For example, the surveillance area is a public building such as an airport, a train station or an authority. Furthermore, the monitoring device can be designed to recognize and / or search for objects, for example pieces of luggage such as suitcases, vehicles such as cars or animals.

Die Überwachungsvorrichtung weist mindestens eine Kamera auf. Im Speziellen kann es vorgesehen sein, dass die Überwachungsvorrichtung genau eine Kamera aufweist, alternativ weist die Überwachungsvorrichtung mehr als zwei, fünf oder zehn Kameras auf. Weist die Überwachungsvorrichtung mehrere Kameras auf, können diese gleichartig ausgebildet sein. Die mindestens eine Kamera und/oder die Kameras sind zur Aufnahme einer Bildsequenz eines Abschnitts des Überwachungsbereiches ausgebildet oder zur Aufnahme einer Bildsequenz des gesamten Überwachungsbereichs ausgebildet. Der Abschnitt des Überwachungsbereiches ist beispielsweise der Sichtbereich und/oder Aufnahmebereich, der von der Kamera abgebildet und/oder aufgenommen werden kann. Vorzugsweise ist die Kamera zur Aufnahme des Abschnitts des Überwachungsbereiches und/oder des Überwachungsbereichs in einer Vogelperspektive ausgebildet und/oder angeordnet. Insbesondere ist eine optische Achse die Kamera im Wesentlichen in Lotrichtung nach unten ausgerichtet, derart, dass die Kamera den Abschnitt des Überwachungsbereichs und/oder den Überwachungsbereich in Nadir-Richtung erfasst. Die Abschnitte des Überwachungsbereichs die von einer Kamera überwacht werden sind im Falle von mehreren Kameras vorzugsweise aber nicht notwendigerweise teilweise überlappend, sodass eine Person beispielsweise ohne Lücken verfolgbar und/oder überwachbar ist. Die Kamera ist vorzugsweise eine Farbkamera. Die Kamera weist beispielsweise einen CCD-Sensor oder einen CMOS-Sensor zur Datengenerierung auf.The monitoring device has at least one camera. In particular, it can be provided that the monitoring device has exactly one camera, alternatively the monitoring device has more than two, five or ten cameras. If the monitoring device has a plurality of cameras, these can be of identical design. The at least one camera and / or the cameras are designed to record an image sequence of a section of the monitoring area or to record an image sequence of the entire monitoring area. The section of the monitoring area is, for example, the viewing area and / or recording area, which can be imaged and / or recorded by the camera. The camera is preferably designed and / or arranged in a bird's eye view to record the section of the monitoring area and / or the monitoring area. In particular, an optical axis of the camera is oriented essentially downward in the perpendicular direction, such that the camera captures the section of the monitoring area and / or the monitoring area in the nadir direction. The sections of the surveillance area that are monitored by one camera are preferably but not necessarily partially overlapping in the case of several cameras, so that a person can be tracked and / or monitored, for example, without gaps. The camera is preferably a color camera. The camera has, for example, a CCD sensor or a CMOS sensor for data generation.

Die Bildsequenz weist eine Mehrzahl an Überwachungsbildern auf. Insbesondere weist die Bildsequenz mindestens zwei Überwachungsbilder oder mehr als zehn Überwachungsbilder auf. Die Überwachungsbilder der Bildsequenz sind vorzugsweise in äquidistanten Zeitabständen aufgenommen oder willkürlich zeitlich beanstandet aufgenommen. Die Überwachungsbilder bilden den Abschnitt des Überwachungsbereichs optisch, insbesondere zweidimensional, ab. Insbesondere kann die Bildsequenz eine Videosequenz bilden. Im Speziellen umfasst die Bildsequenz Überwachungsbilder jeweils einer einzelnen Kamera. Weist die Überwachungsvorrichtung mehrere Kameras auf, so werden vorzugsweise mehrere Bildsequenzen erzeugt und/oder generiert.The image sequence has a plurality of surveillance images. In particular, the image sequence has at least two surveillance images or more than ten surveillance images. The Surveillance images of the image sequence are preferably taken at equidistant time intervals or taken at random in a timely manner. The surveillance images form the section of the surveillance area optically, in particular two-dimensionally, from . In particular, the image sequence can form a video sequence. In particular, the image sequence comprises surveillance images from a single camera. If the monitoring device has a plurality of cameras, then a plurality of image sequences are preferably generated and / or generated.

Die Überwachungsvorrichtung weist ein Personenwiedererkennungsmodul auf. Das Personenwiedererkennungsmodul kann ein Hardwaremodul, beispielsweise eine Rechnereinheit oder ein Prozessorchip, bilden. Alternativ kann das Personenwiedererkennungsmodul ein Softwaremodul bilden. Das Personenwiedererkennungsmodul ist vorzugsweise von der Kamera umfasst oder alternativ ein zentrales Personenwiedererkennungsmodul. Dem Personenwiedererkennungsmodul ist die Bildsequenz und/oder sind die Überwachungsbilder der Kamera und/oder der Kameras bereitgestellt. Das Personenwiedererkennungsmodul weist mindestens ein Wiedererkennungsmerkmal einer aufzufinden Person auf. Das Wiedererkennungsmerkmal kann als Wiedererkennungsdatum und/oder als Wiedererkennungsdatei von dem Personenwiedererkennungsmodul umfasst sein. Beispielsweise kann das Personenwiedererkennungsmodul mehrere Wiedererkennungsmerkmale für eine oder für unterschiedliche aufzufindende Personen aufweisen. Insbesondere ist das Wiedererkennungsmerkmal dem Personenwiedererkennungsmodul bereitstellbar und/oder hinterlegbar. Das Wiedererkennungsmerkmal kann beispielweise für die jeweils aufzufindende Person neu hinterlegt und/oder eingegeben werden. Das Wiedererkennungsmerkmal kann mehrere Parameter und/oder Daten umfassen. Beispielsweise umfasst und/oder wird das Wiedererkennungsmerkmal gebildet von einer Größe, von einer Struktur, von Farben, Kleidungsstücken und/oder Formen. Beispielsweise kann das Wiedererkennungsmerkmal für eine aufzufinden Person sein, dass die Person lange braune Haare, einen gelben Pullover und eine blaue Hose trägt. Insbesondere kann das Personenwiedererkennungsmodul Wiedererkennungsmerkmale für die aufzufinden Person bezüglich unterschiedlicher Ansichten und/oder Aufnahmeperspektiven aufweisen, beispielsweise unterschiedliches Wiedererkennungsmerkmal der Person für Aufnahmeperspektiven von vorne, von hinten, von oben und/oder von der Seite.The monitoring device has a person recognition module. The person recognition module can form a hardware module, for example a computer unit or a processor chip. Alternatively, the person recognition module can form a software module. The person recognition module is preferably encompassed by the camera or alternatively a central person recognition module. The image recognition and / or the surveillance images of the camera and / or the cameras are provided to the person recognition module. The person recognition module has at least one recognition feature of a person who can be found. The recognition feature can be included as a recognition date and / or as a recognition file by the person recognition module. For example, the person recognition module can have several recognition features for one person or for different people to be found. In particular, the recognition feature can be made available and / or stored to the person recognition module. The recognition feature can, for example, be newly stored and / or entered for the person to be found. The recognition feature can include several parameters and / or data. For example, the recognition feature comprises and / or is formed by a size, by a structure, by colors, items of clothing and / or shapes. For example, the recognition feature for a person to be found can be that the person is wearing long brown hair, a yellow sweater and blue trousers. In particular, the person recognition module can have recognition features for the person to be found with regard to different views and / or shooting perspectives, for example different recognition features of the person for shooting perspectives from the front, from behind, from above and / or from the side.

Das Personenwiedererkennungsmodul ist ausgebildet, die zu suchende und/oder aufzufindende Person im Überwachungsbereich basierend auf den Überwachungsbildern und/oder dem Wiedererkennungsmerkmal zu suchen. Dazu werden von dem Personenwiedererkennungsmodul beispielsweise die Überwachungsbilder, im Speziellen die Bildsequenz, auf ein Vorhandensein des Wiedererkennungsmerkmals untersucht. Liegt das Wiedererkennungsmerkmal in den Überwachungsbildern vor, liegen alle und/oder eine genügende Anzahl der Wiedererkennungsmerke vor, kann das Personenwiedererkennungsmodul ausgebildet sein, darauf zu schließen, dass es sich um die aufzufindende Person handelt.The person recognition module is designed to search for the person to be found and / or found in the surveillance area based on the surveillance images and / or the recognition feature. For this purpose, the surveillance images, in particular the image sequence, are examined by the person recognition module for the presence of the recognition feature. If the recognition feature is present in the surveillance images, all and / or a sufficient number of the recognition features are present, the person recognition module can be designed to conclude that it is the person to be found.

Erfindungsgemäß ist es vorgesehen, dass die Kamera ein Fischaugenobjektiv aufweist. Insbesondere kann die Kamera als Fischaugenobjektiv und/oder Teil des Fischaugenobjektivs eine Fischaugenlinse aufweisen. Als Fischaugenobjektive werden insbesondere Objektive verstanden, welche eine senkrecht zur optischen Achse stehende Objektivebene nicht proportional abbilden. Fischaugenobjektive bilden insbesondere mit Verzerrungen auf eine Bildebene ab. Beispielsweise werden gerade Linienstücke, welche nicht durch eine Bildmitte laufen, gekrümmt abgebildet. Das Fischaugenobjektiv ist im Speziellen ausgebildet, Flächenverhältnisse und/oder radiale Abstände getreu abzubilden. Ferner weist das Fischaugenobjektiv und/oder die Kamera vorzugsweise einen Bildwinkel von mindestens 180° und im Speziellen von mehr als 210° auf. Das Fischaugenobjektiv kann als ein zirkuläres Fischaugenobjektiv, als ein Vollformat-Fischaugenobjektiv oder als ein beschnittener Kreis Fischaugenobjektiv ausgebildet sein. Die Überwachungsbilder der Bildsequenz und/oder die Bildsequenz weist damit Bilder des Abschnitts des Überwachungsbereichs mit Fischaugeneffekt auf.According to the invention, it is provided that the camera has a fisheye lens. In particular, the camera can have a fisheye lens as a fisheye lens and / or part of the fisheye lens. Fisheye objectives are understood to mean, in particular, objectives which do not proportionally depict an objective plane perpendicular to the optical axis. Fisheye lenses form with distortions on an image plane in particular from . For example, straight line pieces that do not run through a center of the image are shown curved. The fisheye lens is specially designed to faithfully represent area ratios and / or radial distances. Furthermore, the fisheye lens and / or the camera preferably has an angle of view of at least 180 ° and in particular of more than 210 °. The fisheye lens can be designed as a circular fisheye lens, as a full-frame fisheye lens or as a cropped circle fisheye lens. The surveillance images of the image sequence and / or the image sequence thus have images of the section of the surveillance area with a fisheye effect.

Der Erfindung liegt die Überlegung zugrunde, dass Kameras mit einem Fischaugenobjektiv einen größeren Bereich einer Szene überwachen können als normale Kameras, wobei es gleichzeitig zu einer geringeren Personenverdeckung kommt und Fischaugenbilder auch in perspektivische Bilder umgerechnet werden können. Bei Abbildungen mit Fischaugenobjektiven werden zum Rand hin Objekte beispielsweise stärker zusammengestaucht als in der Mitte. Eine Kamera mit einem Fischaugenobjektiv wird auch als Fischaugenkamera bezeichnet. Vorzugsweise ist die Kamera als eine Panorama-Kamera mit einem 360° hemisphärischen Aufnahmebereich ausgebildet. Beispielsweise ist die Kamera als omnidirektionale Kamera ausgebildet. In einer Variante ist das Fischaugenobjektiv bzw. die Fischaugenkamera als panomorphes Objektiv bzw. als panomorphe Kamera ausgebildet. Ein panomophes Objektiv stellt eine spezielle Ausprägung eines Fischaugenobjektivs dar, bei dem die optischen Eigenschaften des Objektivs in vorbestimmten Bereichen des Bildes derart verändert sind, dass die Bildverarbeitung, insbesondere die Objekterkennung, erleichtert wird. Dies wird beispielsweise dadurch erreicht, indem durch optische Verzerrungen, das Sichtfeld derart geändert wird, dass beispielsweise Randbereiche vergrößert dargestellt werden. Alternativ oder zusätzlich ist vorgesehen, dass in unterschiedlichen Bildbereichen der Kamera eine unterschiedliche Anzahl von Pixeln vorgesehen sind. Insbesondere ist vorgesehen, dass in Randbereichen die Pixeldichte höher ist als in Bildmitte.The invention is based on the consideration that cameras with a fisheye lens can monitor a larger area of a scene than normal cameras, at the same time there is less obscuring of people and fisheye images can also be converted into perspective images. For example, in fisheye lens images, objects are compressed more towards the edge than in the middle. A camera with a fisheye lens is also called a fisheye camera. The camera is preferably designed as a panorama camera with a 360 ° hemispherical recording area. For example, the camera is designed as an omnidirectional camera. In one variant, the fisheye lens or the fisheye camera is designed as a panomorphic lens or as a panomorphic camera. A panomophic lens is a special version of a fisheye lens, in which the optical properties of the lens are changed in predetermined areas of the image in such a way that image processing, in particular object recognition, is facilitated. This is achieved, for example, by means of optical distortions, the field of view is changed such that, for example, marginal areas are shown enlarged. Alternatively or additionally, it is provided that a different number of pixels are provided in different image areas of the camera. In particular, it is provided that the pixel density is higher in edge areas than in the center of the image.

Besonders bevorzugt ist es, dass die Überwachungsvorrichtung ein Perspektivenbestimmungsmodul aufweist. Das Perspektivenbestimmungsmodul kann ein Hardwaremodul oder ein Softwaremodul bilden. Beispielsweise bildet das Personenwiedererkennungsmodul zusammen mit dem Perspektivenbestimmungsmodul ein Auswertenmodul. Das Perspektivenbestimmungsmodul ist ausgebildet, in den Überwachungsbildern für eine im Abschnitt des Überwachungsbereichs bewegende Person und/oder ein bewegendes Objekt eine Aufnahmeperspektive zu bestimmen. Als Aufnahmeperspektive wird beispielsweise die Ansicht auf die Person und/oder das Objekt von vorne, die Ansicht von hinten, eine Seitenansicht oder eine Ansicht von oben verstanden. Beispielsweise ergibt sich bei einer Deckenmontage der Kamera in Vogelperspektive auf den Überwachungsbereich, dass Personen und/oder Objekte, abhängig von ihrem Abstand auf der Bodenebene zur optischen Achse der Kamera, aus unterschiedlichen Blickwinkeln abgebildet, aufgenommen und/oder analysiert werden. Personen unmittelbar unter der Kamera werden beispielsweise in einer Vogelperspektive abgebildet und/oder aufgenommen, während Personen und/oder Objekte mit zunehmenden Abstand von der optischen Achse mehr und mehr von der Seite abgebildet werden. Beispielsweise ist das Perspektivenbestimmungsmodul ausgebildet, basierend auf Merkmalen der abgebildeten bewegenden Person und/oder dem Objekt auf eine Aufnahmeperspektive schließen zu können. Merkmale können beispielsweise eine Ausdehnung, Gesichtsmerkmale oder Farbverläufe darstellen. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass Kameras mit Fischaugenobjektiv einen speziellen Strahlengang aufweisen und damit in der Lage sind, Personen und/oder Objekte in unterschiedlichen Ansichten aufnehmen zu können, insbesondere auch wenn sich die Person und/oder das Objekt auf einen geraden Pfad bewegt. Bisher ist es nötig bei normalen Kameras, die Person beispielsweise durch bauliche Maßnahmen, wie durch Absperrbändern, einen geschwungenen Pfad nehmen zu lassen, um mehrere Aufnahmeperspektiven generieren zu können. Insbesondere wird bisher in der Literatur darauf verwiesen, dass Fischaugenobjektive bei der Verwendung in Überwachungskameras wegen ihrer verzehrenden Eigenschaft nachteilig sind und von deren Verwendung abgeraten ist.It is particularly preferred that the monitoring device has a perspective determination module. The perspective determination module can form a hardware module or a software module. For example, the person recognition module forms an evaluation module together with the perspective determination module. The perspective determination module is designed to determine a recording perspective in the surveillance images for a person moving in the section of the surveillance area and / or a moving object. The perspective of the photograph is understood to be, for example, the view of the person and / or the object from the front, the view from the rear, a side view or a view from above. For example, when the camera is mounted on the ceiling from a bird's eye view of the surveillance area, people and / or objects are imaged, recorded and / or analyzed from different angles, depending on their distance from the floor level to the optical axis of the camera. People directly under the camera are, for example, imaged and / or recorded in a bird's eye view, while people and / or objects are increasingly depicted from the side with increasing distance from the optical axis. For example, the perspective determination module is designed to be able to infer a recording perspective based on features of the moving person depicted and / or the object. Features can represent, for example, an extent, facial features or color gradients. This embodiment is based on the consideration that cameras with a fisheye lens have a special beam path and are therefore able to record people and / or objects in different views, in particular even if the person and / or the object is moving in a straight path . So far, it has been necessary with normal cameras to let the person take a curved path, for example by structural measures such as barrier tapes, in order to be able to generate multiple shooting perspectives. In particular, the literature has so far made reference to the fact that fisheye lenses are disadvantageous when used in surveillance cameras because of their consuming properties and their use is not recommended.

Besonders bevorzugt ist es, dass das Perspektivenbestimmungsmodul ausgebildet ist, basierend auf den Überwachungsbildern einer, insbesondere einzigen Kamera, sowie den dazu bestimmten Aufnahmeperspektiven mindestens zwei Nutzbilder zu generieren. Dabei ist es beispielsweise vorgesehen, dass die zwei Nutzbilder auf der Bildsequenz einer einzigen Kamera beruhen. Werden mehrere Kameras in der Überwachungsvorrichtung eingesetzt, so ist es vorzugsweise vorgesehen, dass pro Kamera mindestens jeweils zwei Nutzbilder generiert werden. Die Nutzbilder sind insbesondere dadurch gekennzeichnet, dass für die Nutzbilder einer Kamera die Person in unterschiedlichen Aufnahmeperspektiven gezeigt ist. Beispielsweise ist in einem ersten Nutzbild die Person von vorne und in einem weiteren Nutzbild die Person von hinten abgebildet. Im Speziellen ist das Perspektivenbestimmungsmodul ausgebildet, mehr als zwei Nutzbilder zu generieren, wobei diese Nutzbilder auf den Überwachungsbildern einer der Kameras basieren. Diese Ausgestaltung wird insbesondere als Multi-view Generierung bezeichnet, da basierend auf der Aufnahme des Überwachungsbereichs mit dem Fischaugenobjektiv, von einer einzelnen Kamera Nutzbilder der Person und/oder eines Objektes generiert werden können, welche unterschiedliche Aufnahmeperspektiven auf die Person und/oder das Objekt aufweisen.It is particularly preferred that the perspective determination module is designed to generate at least two useful images based on the surveillance images of a camera, in particular a single camera, and the recording perspectives intended for this purpose. It is provided, for example, that the two useful images are based on the image sequence of a single camera. If several cameras are used in the monitoring device, it is preferably provided that at least two useful images are generated for each camera. The useful images are particularly characterized in that the person is shown in different recording perspectives for the useful images of a camera. For example, the person is shown from the front in a first useful image and the person from behind in a further useful image. In particular, the perspective determination module is designed to generate more than two useful images, these useful images being based on the surveillance images of one of the cameras. This embodiment is referred to in particular as multi-view generation because, based on the recording of the surveillance area with the fisheye lens, useful images of the person and / or an object can be generated by a single camera, which have different recording perspectives on the person and / or the object .

Eine Ausgestaltung der Erfindung sieht vor, dass das Perspektivenbestimmungsmodul ausgebildet ist, basierend auf der Bildsequenz ein Nutzbildtripple zu bestimmen. Das Nutzbildtripple umfasst drei Nutzbilder, insbesondere basierend auf der Bildsequenz einer einzigen Kamera. Die drei Nutzbilder des Nutzbildtrippels umfasst beispielsweise eine Frontansicht auf die Person und/oder das Objekt, eine Rückansicht auf die Person und/oder das Objekt sowie eine Seitenansicht. Das Perspektivenbestimmungsmodul kann ferner ausgebildet sein, ein Nutzbildtupel zu generieren, wobei das Nutzbildtupel mehr als drei Nutzbilder umfasst, beispielsweise vier Nutzbilder umfassend eine Frontansicht, Rückansicht, Seitenansicht und eine Ansicht von oben. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass mittels dem Fischaugenobjektiv basierend auf den Überwachungsdaten einer Kamera mindestens zwei, drei oder mehr Aufnahmeperspektiven auf die Person und/oder das Objekt erhältlich sind und so die Auswertestabilität bei der Wiedererkennung einer aufzufinden Person verbessert werden kann. Insbesondere kann so die Interpersonen-Varianz gesteigert werden.One embodiment of the invention provides that the perspective determination module is designed to determine a useful image triple based on the image sequence. The useful image triple comprises three useful images, in particular based on the image sequence of a single camera. The three useful images of the useful image triple include, for example, a front view of the person and / or the object, a rear view of the person and / or the object and a side view. The perspective determination module can also be designed to generate a useful image tuple, the useful image tuple comprising more than three useful images, for example four useful images comprising a front view, rear view, side view and a view from above. This embodiment is based on the consideration that at least two, three or more shooting perspectives of the person and / or the object can be obtained by means of the fisheye lens based on the monitoring data of a camera, and thus the evaluation stability when a person can be found can be improved. In particular, the interpersonal variance can be increased in this way.

Optional ist es vorgesehen, dass das Perspektivenbestimmungsmodul ausgebildet ist, einen Fischaugeneffekt in den Überwachungsbilder und/oder der Bildsequenz zu korrigieren. Insbesondere wird der Fischaugeneffekt mittels Dewarping-Methoden (Umbildung) korrigiert. Zur Korrektur des Fischaugeneffekts können beispielsweise Softwareanwendungen verwendet werden. Besonders bevorzugt ist es, dass der Fischaugeneffekt in den Überwachungsbildern und/oder in der Bildsequenz korrigiert wird bevor die Aufnahmeperspektive bestimmt wird. Beispielsweise werden dazu alle Überwachungsbilder der Bildsequenz korrigiert und anschließend in den korrigierten Bildern die Aufnahmeperspektive bestimmt, um daraus die Nutzbilder zu generieren. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass die verzerrenden Eigenschaften der Fischaugenobjektive korrigiert werden können und so weitere Auswertealgorithmen auf die korrigierten Bilder anwendbar sind.It is optionally provided that the perspective determination module is designed to correct a fisheye effect in the surveillance images and / or the image sequence. In particular, the fisheye effect is corrected using dewarping methods (reshaping). For example, software applications can be used to correct the fisheye effect. Especially it is preferred that the fisheye effect in the surveillance images and / or in the image sequence is corrected before the shooting perspective is determined. For example, all surveillance images of the image sequence are corrected and then the perspective of the image is determined in the corrected images in order to generate the useful images therefrom. This embodiment is based on the consideration that the distorting properties of the fisheye lenses can be corrected and so that further evaluation algorithms can be applied to the corrected images.

Eine Ausgestaltung der Erfindung sieht vor, dass das Perspektivenbestimmungsmodul ausgebildet ist, Personen und/oder Objekte in den Nutzbildern orientiert darzustellen. Orientiert bedeutet beispielsweise, eine Person und/oder ein Objekt aufrecht darzustellen. Hierzu können beispielsweise Algorithmen des Personen-Alignment verwendet werden. Beispielsweise ist das Perspektivenbestimmungsmodul ausgebildet, eine detektierte und/oder bewegende Person so in ein Bild, insbesondere Nutzbild, zu projizieren, dass diese aufrecht in einer Boundingbox steht. Insbesondere kann es vorgesehen sein, dass nach dem Orientieren der Person im Nutzbild der Fischaugeneffekt durch das Perspektivenbestimmungsmodul korrigiert wird.An embodiment of the invention provides that the perspective determination module is designed to represent people and / or objects in the useful images in an oriented manner. Oriented, for example, means displaying a person and / or an object upright. Algorithms of person alignment can be used for this purpose, for example. For example, the perspective determination module is designed to project a detected and / or moving person into an image, in particular a useful image, in such a way that it stands upright in a bounding box. In particular, it can be provided that after orienting the person in the useful image, the fisheye effect is corrected by the perspective determination module.

Besonders bevorzugt ist es, dass das Personenwiedererkennungsmodul ausgebildet ist, die bewegende Person und/oder das bewegende Objekt zu tracken. Beispielsweise kann das Tracken eine Bestimmung des Pfades und/oder der Geschwindigkeit der Person und/oder des Objektes umfassen. Das Tracken kann insbesondere von dem Personenwiedererkennungsmodul nutzbar sein den weiteren Pfad und/oder Weg in die Zukunft zu extrapolieren. Insbesondere ist es vorgesehen, dass das Ausrichten der Person in den Nutzbildern auf einem vorherigen tracken der Person basiert. Durch das Kennen des Bewegungsablaufs kann auf eine Orientierung der Person und/oder des Objekts geschlossen werden und so in den Nutzbildern ausgerichtet dargestellt werden.It is particularly preferred that the person recognition module is designed to track the moving person and / or the moving object. For example, the tracking can include determining the path and / or the speed of the person and / or the object. The tracking can in particular be usable by the person recognition module to extrapolate the further path and / or path into the future. In particular, it is provided that the alignment of the person in the useful images is based on a previous track of the person. By knowing the sequence of movements, an orientation of the person and / or the object can be inferred and can thus be shown aligned in the useful images.

Insbesondere ist es vorgesehen, dass das Perspektivenbestimmungsmodul ausgebildet ist, basierend auf dem Tracken und/oder Trackingergebnissen, beispielsweise dem Pfad und/oder der Geschwindigkeit, darauf zu schließen, welche Aufnahmeperspektive in den jeweiligen Überwachungsbilder vorliegen. Ist beispielsweise bekannt, dass zu einem vergangenen Zeitpunkt die Person von vorne abgebildet wurde, kann basierend auf dem Tracking und/oder dem Pfad darauf geschlossen werden, dass zu einem späteren Zeitpunkt die Person in einer Rückaufnahme oder einer Seitenansicht zu sehen sein muss.In particular, it is provided that the perspective determination module is designed, based on the tracking and / or tracking results, for example the path and / or the speed, to infer which recording perspective is present in the respective surveillance images. If, for example, it is known that the person was imaged from the front at a past point in time, it can be concluded based on the tracking and / or the path that the person must be seen in a rear view or a side view at a later point in time.

Eine Ausgestaltung der Erfindung sieht vor, dass das Perspektivenbestimmungsmodul ausgebildet ist, die Aufnahmeperspektive basierend auf einem Machine-Learning Algorithmus, einen Computer Vision Algorithmus oder einem Deep-Learning-Verfahren zu bestimmen. Alternativ oder zusätzlich kann Geometrie und die getrackte Personentrajektorie verwendet werden. Insbesondere ist es vorgesehen, dass das Perspektivenbestimmungsmodul auf einem neuronalen Netz basiert, insbesondere einem rekurrenten und/oder gekoppelten neuronalen Netz.An embodiment of the invention provides that the perspective determination module is designed to determine the exposure perspective based on a machine learning algorithm, a computer vision algorithm or a deep learning method. Alternatively or additionally, geometry and the tracked person trajectory can be used. In particular, it is provided that the perspective determination module is based on a neural network, in particular a recurrent and / or coupled neural network.

Insbesondere ist es vorgesehen, dass die Überwachungsvorrichtung ein Merkmalsbestimmungsmodul aufweist. Insbesondere kann das Merkmalsbestimmungsmodul von dem Perspektivenbestimmungsmodul umfasst sein. Das Merkmalsbestimmungsmodul kann ein Hardwaremodul oder ein Softwaremodul bilden. Das Merkmalsbestimmungsmodul ist ausgebildet, basierend auf den Nutzbildern Personenmerkmale zu bestimmen. Insbesondere kann das Merkmalsbestimmungsmodul ausgebildet sein, für jedes Nutzbild Personenmerkmale zu bestimmen. Personenmerkmale sind beispielsweise Deskriptoren und/oder Features einer Person und/oder eines Objektes. Beispielsweise sind Personenmerkmale Farbverläufe, Kleidungsstücke, Haarfrisuren, Größenverhältnisse und/oder ein Geschlecht. Die Personenmerkmale sind insbesondere zur Bestimmung und/oder Charakterisierung einer Personensignatur geeignet. Das Personenwiedererkennungsmodul ist ausgebildet, die wiederzuerkennende Person basierend auf den Personenmerkmalen und dem Wiedererkennungsmerkmal zu suchen und/oder aufzufinden. Beispielsweise ist das Personenwiedererkennungsmodul ausgebildet, die Personenmerkmale mit dem Wiedererkennungsmerkmal zu vergleichen und bei Vorliegen einer Übereinstimmung auf die wiederzufinden der Person zu schließen. Besonders bevorzugt ist es, dass das Merkmalsbestimmungsmodul als ein Machine-Learning, Computer Vision oder Deep-Learning Verfahren ausgebildet ist und/oder darauf passiert.In particular, it is provided that the monitoring device has a feature determination module. In particular, the feature determination module can be included in the perspective determination module. The feature determination module can form a hardware module or a software module. The feature determination module is designed to determine personal features based on the useful images. In particular, the feature determination module can be designed to determine personal features for each useful image. Person characteristics are, for example, descriptors and / or features of a person and / or an object. For example, personal characteristics are color gradients, clothing, hairstyles, proportions and / or a gender. The personal characteristics are particularly suitable for determining and / or characterizing a personal signature. The person recognition module is designed to search for and / or find the person to be recognized based on the person characteristics and the recognition characteristic. For example, the person recognition module is designed to compare the person characteristics with the recognition feature and, if there is a match, to conclude that the person can be found again. It is particularly preferred that the feature determination module is designed as a machine learning, computer vision or deep learning method and / or happens thereon.

Besonders bevorzugt ist es, dass die Überwachungsvorrichtung ein Fusionsmodul aufweist. Insbesondere ist das Fusionsmodul Teil des Merkmalsbestimmungsmoduls und/oder Teil des Perspektivenbestimmungsmoduls. Das Fusionsmodul ist ausgebildet, Personenmerkmale einer Person aus unterschiedlichen Nutzbildern, insbesondere Nutzbildern basierend auf der Bildsequenz einer einzelnen Kamera, zu einem Mastermerkmal zusammenzuführen. Beispielsweise kann das Fusionsmodul ausgebildet sein, einer Aufnahmeperspektive das vorliegende Personenmerkmale zuzuordnen. Das Personenwiedererkennungsmodul ist im Speziellen dazu ausgebildet, die wiederzuerkennende Person insbesondere basierend auf den Mastermerkmal und dem Wiedererkennungsmerkmal zu suchen. Dazu ist es beispielsweise vorgesehen, dass das Wiedererkennungsmerkmal analog zu den Mastermerkmal ausgebildet ist und beispielsweise den Wiedererkennungsmerkmalen ebenfalls eine Perspektive zugeordnet. Somit ist es beispielsweise möglich, dass das Personenwiedererkennungsmodul die wiederzuerkennende Person erst dann als gefunden meldet, wenn Personenmerkmale in unterschiedlichen Nutzbildern, insbesondere in den unterschiedlichen Perspektiven auf die Person wiedergefunden wurden.It is particularly preferred that the monitoring device has a fusion module. In particular, the fusion module is part of the feature determination module and / or part of the perspective determination module. The fusion module is designed to combine personal characteristics of a person from different useful images, in particular useful images based on the image sequence of an individual camera, into a master feature. For example, the fusion module can be designed to assign the present personal characteristics to a recording perspective. The person recognition module is specifically designed to search for the person to be recognized in particular based on the master feature and the recognition feature. It is for that For example, provision is made for the recognition feature to be designed analogously to the master feature and for example also to assign a perspective to the recognition features. It is thus possible, for example, that the person recognition module only reports the person to be recognized as having been found when person characteristics have been found in different useful images, in particular in the different perspectives of the person.

Eine weitere Ausgestaltung der Erfindung sieht vor, dass die Überwachungsvorrichtung ein Personenbildfusionsmodul aufweist. Das Personenbildfusionsmodul ist ausgebildet, basierend auf den Nutzbildern für eine Person ein Masternutzbild zu generieren, wobei von dem Masternutzbild ein Fusionspersonenmerkmal bestimmt wird. Das Personenwiedererkennungsmodul ist dabei ausgebildet, die wiederzuerkennende Person basierend auf dem Fusionspersonenmerkmal und/oder den Fusionspersonenmerkmalen und dem Wiedererkennungsmerkmal zu suchen und/oder aufzufinden.Another embodiment of the invention provides that the monitoring device has a person image fusion module. The personal image fusion module is designed to generate a master useful image for a person based on the useful images, a master person characteristic being determined by the master useful image. The person recognition module is designed to search for and / or to find the person to be recognized based on the fusion personal characteristic and / or the fusion personal characteristics and the recognition characteristic.

Als Methoden des Fusionsmoduls und/oder das Personenbildfusionsmodul werden insbesondere unterschiedliche Fusionsverfahren verwendet. Beispielsweise kann eine early fusion Strategie oder eine late fusion Strategie oder eine hybride fusions Strategie verwendet werden. Alternativ und/oder ergänzend kann eine Deep-Learning Strategie zur Anwendung kommen. Für eine early fusion Strategie werden Überwachung- und/oder Nutzbilder oder Merkmale aus den Überwachungs- und/oder Nutzbilder zuerst zusammengefasst und anschließend ein resultierender Merkmalsvektor generiert, welcher zur Wiederfindung der Person verwendet wird und beispielsweise mit dem Wiedererkennungsmerkmal verglichen wird. Bei einer late fusion Strategie werden die Wiedererkennungsmerkmale separat für jedes Überwachung- und/oder Nutzbild, verglichen und anschließend erst die Fusion durchgeführt.Different fusion methods are used in particular as methods of the fusion module and / or the personal image fusion module. For example, an early fusion strategy or a late fusion strategy or a hybrid fusion strategy can be used. As an alternative and / or in addition, a deep learning strategy can be used. For an early fusion strategy, surveillance and / or useful images or features from the surveillance and / or useful images are first combined and then a resulting feature vector is generated, which is used to find the person and is compared, for example, with the recognition feature. In the case of a late fusion strategy, the recognition features are compared separately for each surveillance and / or useful image, and only then is the fusion carried out.

Beispiel für eine early fusion Strategie ist beispielsweise die Generierung eines Superbildes. Beispielsweise ist das Superbild das Masternutzbild. Dazu wird beispielsweise aus dem und/oder als Nutzbildtripple drei Nutzbilder gleicher Größe, beispielsweise Pixelanzahl generiert. Der Merkmalsvektor für eine Person in einer Kamera kann beschrieben werden als F = f ( I Super ) .

Figure DE102019212978A1_0001
Wobei ISuper definierbar ist als I Super ( m × 3 n ) = [ I Front ( m × n ) , I Side ( m × n ) , I Back ( m × n ) ]
Figure DE102019212978A1_0002
Wobei I jeweils für ein Nutzbildet steht, der Index die Perspektive angibt und m, m die Pixelanzahl in Zeile/Spalte angibt.An example of an early fusion strategy is the generation of a super image. For example, the super image is the master usable image. For this purpose, three useful images of the same size, for example the number of pixels, are generated from and / or as a useful image triple. The feature vector for a person in a camera can be described as F = f ( I. great ) .
Figure DE102019212978A1_0001
Where I Super can be defined as I. great ( m × 3rd n ) = [ I. front ( m × n ) , I. Side ( m × n ) , I. Back ( m × n ) ]
Figure DE102019212978A1_0002
Where I stands for a useful image, the index indicates the perspective and m, m the number of pixels in the row / column.

Ein weiteres Verfahren der early fusion Strategie kann beispielsweise die Merkmalskonzentration bilden. Im Gegensatz zur vorherigen beschriebenen Strategie werden die Merkmale zuerst von den Nutzbildern extrahiert, wobei anschließend die drei Merkmale zu einem Hauptmerkmalsvektor konzentriert werden, wobei der Hauptmerkmalsvektor mit den Wiedererkennungsmerkmalen zur Wiedererkennung der Person verwendet wird. Der Hauptwiedererkennungsvektor kann beschrieben werden als F ( 1 × ( a + b + c ) ) = [ F Front ( 1 × a ) , F Side ( 1 × b ) , F Back ( 1 × c ) ]

Figure DE102019212978A1_0003
Ein Beispiel für eine late fusion Strategie ist beispielsweise der inverse rank position Algorithmus (IRPA), alternativ und/oder ergänzend kann als late fusion Strategie inverse score position Algorithmus (ISPA) oder der product rule Algorithmus (PR) verwendet werden. ISPA und IRPA beruhen auf dem mathematischen harmonischen Mittel.Another method of the early fusion strategy can form the feature concentration, for example. In contrast to the strategy described above, the features are first extracted from the useful images, the three features then being concentrated into a main feature vector, the main feature vector with the recognition features being used for recognizing the person. The main recognition vector can be described as F ( 1 × ( a + b + c ) ) = [ F front ( 1 × a ) , F Side ( 1 × b ) , F Back ( 1 × c ) ]
Figure DE102019212978A1_0003
An example of a late fusion strategy is, for example, the inverse rank position algorithm (IRPA); alternatively and / or additionally, the inverse score position algorithm (ISPA) or the product rule algorithm (PR) can be used as the late fusion strategy. ISPA and IRPA are based on the mathematical harmonic mean.

Auch kann eine deep Fusion Strategie angewendet werden. Hierbei wird mit Hilfe von Trainingsdaten eine Fusion mit Hilfe von Machine oder Deep Learning erlernt.A deep fusion strategy can also be used. A fusion using machine or deep learning is learned with the help of training data.

Besonders bevorzugt ist es, dass die Kamera ein Montagemittel aufweist. Das Montagemittel ist zur Anordnung und/oder Befestigung der Kamera in dem Überwachungsbereich, insbesondere an einer Decke des Überwachungsbereichs ausgebildet. Vorzugsweise ist das Montagemittel so ausgebildet, dass die Kamera den Überwachungsbereich in einer Vogelperspektive aufnimmt. Insbesondere wird die Kamera durch das Montagemittel so im Überwachungsbereich befestigt, dass die optische Achse der Kamera senkrecht zu Bodenebene des Überwachungsbereichs steht. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass durch die Anordnung der Kamera in Vogelperspektive mehrere Perspektiven einer Person in den Nutzbildern generiert werden kann, sofern sich die Person im Raum bewegt.It is particularly preferred that the camera has a mounting device. The mounting means is designed to arrange and / or attach the camera in the monitoring area, in particular on a ceiling of the monitoring area. The mounting means is preferably designed such that the camera captures the surveillance area from a bird's eye view. In particular, the camera is fastened in the monitoring area by the mounting means such that the optical axis of the camera is perpendicular to the floor level of the monitoring area. This embodiment is based on the consideration that, by arranging the camera in a bird's eye view, several perspectives of a person can be generated in the useful images if the person is moving in space.

Eine Ausgestaltung der Erfindung sieht vor, dass Überwachungsvorrichtung eine weitere optische Sensoreinheit aufweist. Beispielsweise ist die weitere optische Sensoreinheit eine Überwachungskamera, insbesondere Überwachungskamera ohne Fischaugenobjektiv. Die weitere optische Sensoreinheit ist ausgebildet, den Überwachungsbereich und/oder den Abschnitt des Überwachungsbereichs bildtechnisch zu überwachen und Zusatzbilddaten der Überwachung bereitzustellen. Das Personenwiedererkennungsmodul ist vorzugsweise ausgebildet, zur Wiedererkennung der Person basierend auf den Überwachungsbildern zusätzlich die Zusatzbilddaten heranzuziehen. Diese Ausgestaltung liegt die Überlegung zugrunde, eine robustere Überwachungsvorrichtung bei der Wiedererkennung der Person bereitstellen zu können.One embodiment of the invention provides that the monitoring device has a further optical sensor unit. For example, the further optical sensor unit is a surveillance camera, in particular surveillance camera without a fisheye lens. The further optical sensor unit is designed to monitor the monitoring area and / or the section of the monitoring area using imaging technology and to provide additional image data for monitoring. The person recognition module is preferably designed to additionally use the additional image data to recognize the person based on the surveillance images. This design is based on the consideration, a more robust one To be able to provide monitoring device for the recognition of the person.

Einen weiteren Gegenstand der Erfindung bildet ein Verfahren zur Überwachung eines Überwachungsbereiches und/oder zum Wiederfinden einer wiederzufinden Person in dem Überwachungsbereich. Dabei ist es vorgesehen, den Überwachungsbereich mit einer Kamera bildtechnisch zu überwachen, wobei die Kamera ein Fischaugenobjektiv aufweist und damit den Überwachungsbereich überwacht und/oder abbildet. Basierend auf den mit dem Fischaugenobjektiv aufgenommenen Überwachungsbildern wird die wiederzuerkennende Person im Überwachungsbereich gesucht. Insbesondere kann das Verfahren vorsehen, dass durch die Überwachung des Überwachungsbereichs mit der Kamera basierend auf der Aufnahme mit dem Fischaugenobjektiv, Nutzbilder generiert werden und/oder gesammelt werden, welche die Person die sich im Überwachungsbereich bewegt aus unterschiedlichen Perspektiven zeigt.Another object of the invention is a method for monitoring a surveillance area and / or for finding a person to be found again in the surveillance area. It is provided to monitor the surveillance area with a camera, the camera having a fisheye lens and thus monitoring and / or imaging the surveillance area. Based on the surveillance images taken with the fisheye lens, the person to be recognized is sought in the surveillance area. In particular, the method can provide that, by monitoring the monitoring area with the camera, based on the recording with the fisheye lens, useful images are generated and / or collected, which shows the person moving in the monitoring area from different perspectives.

Vorzugsweise umfasst die Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich ein unbemanntes Luftfahrzeug, wobei die zumindest ein Fischaugenobjektiv aufweisende Kamera an dem unbemannten Luftfahrzeug angeordnet ist. Zusätzlich ist vorgesehen, dass das Personenwiedererkennungsmodul und/oder das Perspektivenbestimmungsmodul und/oder das Merkmalbestimmungsmodul und/oder das Fusionsmodul und/oder das Personenbildfusionsmodul in dem unbemannten Luftfahrzeug angeordnet ist. Besonders bevorzugt wird beim Verfahren zur Personenwiedererkennung die Bildsequenz des Überwachungsbereichs während eines Überfluges des unbemannten Luftfahrzeuges aufgenommen, wobei aus der aufgenommenen Bildsequenz mindestens zwei Nutzbilder, insbesondere drei Nutzbilder, generiert werden, wobei die Nutzbilder die Person in unterschiedlichen Aufnahmeperspektiven zeigt. The monitoring device for person recognition preferably comprises an unmanned aircraft in a monitoring area, the camera having at least one fisheye lens being arranged on the unmanned aircraft. In addition, it is provided that the person recognition module and / or the perspective determination module and / or the feature determination module and / or the fusion module and / or the person image fusion module is arranged in the unmanned aircraft. In the method for person recognition, the image sequence of the surveillance area is particularly preferably recorded during an overflight of the unmanned aerial vehicle, at least two useful images, in particular three useful images, being generated from the recorded image sequence, the useful images showing the person in different recording perspectives.

Ein unbemanntes Luftfahrzeug zeichnet sich dadurch aus, dass sich keine Personen zur Steuerung an Bord des Luftfahrzeuges befinden. Stattdessen wird das unbemannten Luftfahrzeug mittels eines an Bord befindlichen Computers autonom und/oder über eine Fernsteuerung durch einen Piloten gesteuert. Vorzugsweise ist das unbemannte Luftfahrzeug als ein Hubschrauber, insbesondere als ein Quadrokopter, ausgebildet. Diese Überwachungsvorrichtung bzw. dieses Verfahren zur Personenwiedererkennung haben den Vorteil, dass Drohnen nur einmal über Menschenansammlungen fliegen müssen und die aufgenommenen Überwachungsbilder verwendet werden können um Personen aus unterschiedlichen Ansichten analysieren zu können. Durch die Fischaugenlinse können beim Überflug unterschiedliche Ansichten der Person erstellt werden. Die Drohne muss hierzu nur ein einziges Mal über die Person fliegen und keine spezielle Trajektorie abfliegen. In vorteilhafter Weise ist es so einfach möglich, sowohl eine Vorder- als auch eine Rückansicht einer Person zu erzeugen. Durch eine Vorder- und Rückansicht wird die Personenwiedererkennung verbessert, da Personen in Allgemeinen vorne anders aussehen als rückseitig. Beispielsweise sind Haare, die zu einem Zopf gebunden sind, in dieser Form nur von hinten sichtbar, während ein Shirt unter einem Sakko nur von vorne sichtbar ist. Diese Überwachungsvorrichtung bzw. das Verfahren mit einer Drohne zur Personenwiedererkennung ist besonders zum Einsatz durch die Polizei bei Großveranstaltung mit einer großen Anzahl an Personen geeignet. Durch die Integration der Fischaugenkamera in der Drohne, wird vorteilhaft die Flugzeit der Drohnen reduziert, da die Nutzbilder der Personen in unterschiedlichen Aufnahmeperspektiven schneller generiert werden können. Dies trägt dazu bei, den Energieverbrauch beim Einsatz der Drohnen zu reduzieren. Patrouille-fliegende Drohnen können daher länger arbeiten bis sie neu geladen werden müssen. Die Anzahl der Drohnen kann daher für Großveranstaltungen reduziert werden. In vorteilhafter Weise wird die Überwachungsvorrichtung mit Drohne zusammen mit stationären Wiedererkennungssystemen verwendet. Wenn eine Person sich beispielsweise in einem stationären Wiedererkennungssystem in einer Vorderansicht registriert hat und wiedergefunden werden soll, muss nur einmal der Suchbereich abgeflogen werden unabhängig von der Bewegungsrichtung der Personen im Suchfeld, um alle notwendigen Ansichten der Person zu erhalten. In einer Variante ist die Überwachungsvorrichtung derart ausgestaltet, dass in einem ersten Verfahrensschritt zunächst in größerem räumlichen Abstand zur Person nur nach gleichen Farbmerkmalen gesucht wird. In einem zweiten Verfahrensschritt fliegt die Drohne näher an durch übereinstimmende Farbmerkmale vorausgewählte Personen heran, um höher aufgelöste Aufnahmen der vorausgewählten Person bereitzustellen. Wird beispielsweise nach einer Person in grün gesucht und wurde eine Person in grün gefunden, kann die Drohne näher an die Person fliegen und höher aufgelöste Aufnahmen bereitstellen, ohne dass die Drohne einen zweiten Überflug durchführen muss. Hierbei ist dann eine Körperseite der Person höher aufgelöst als die andere, jedoch können beide Seiten zur Wiedererkennung und frühzeitigen Suchraumreduktion verwenden werden.An unmanned aircraft is characterized by the fact that there are no persons on board the aircraft for control purposes. Instead, the unmanned aircraft is controlled autonomously by a computer on board and / or by a pilot via remote control. The unmanned aerial vehicle is preferably designed as a helicopter, in particular as a quadrocopter. This monitoring device and this method for person recognition have the advantage that drones only have to fly over crowds of people once and the recorded surveillance images can be used to analyze people from different perspectives. With the fisheye lens, different views of the person can be created during the overflight. The drone only has to fly over the person once and does not have to fly a special trajectory. Advantageously, it is easily possible to generate both a front and a rear view of a person. Front and rear views improve person recognition, as people generally look different in the front than in the back. For example, hair that is tied into a braid is only visible from behind in this form, while a shirt under a jacket is only visible from the front. This monitoring device or the method with a drone for person recognition is particularly suitable for use by the police at large events with a large number of people. By integrating the fisheye camera in the drone, the flight time of the drones is advantageously reduced, since the useful images of the people can be generated more quickly in different shooting perspectives. This helps to reduce energy consumption when using the drones. Patrol-flying drones can therefore work longer until they have to be reloaded. The number of drones can therefore be reduced for large events. The monitoring device with a drone is advantageously used together with stationary recognition systems. For example, if a person has registered in a stationary recognition system in a front view and is to be found again, the search area only has to be flown once, regardless of the direction of movement of the people in the search field, in order to obtain all the necessary views of the person. In a variant, the monitoring device is designed in such a way that, in a first method step, only the same color features are searched for at a greater spatial distance from the person. In a second procedural step, the drone flies closer to people preselected by matching color features in order to provide higher-resolution images of the preselected person. For example, if a person is searched for in green and a person in green was found, the drone can fly closer to the person and provide higher-resolution images without the drone having to perform a second flyover. One side of the person's body is then more highly resolved than the other, but both sides can be used for recognition and early search space reduction.

Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:

  • 1 ein Ausführungsbeispiel einer Überwachungsvorrichtung;
  • 2 Beispiel eines Strahlengangs einer Kamera mit Fischaugenobjektiv bei Verwendung eines Non-Single-Viewpoint-Projektionsmodells;
  • 3 Beispiel eines Überwachungsbildes.
Further advantages, effects and configurations result from the attached figures and their description. Show:
  • 1 an embodiment of a monitoring device;
  • 2nd Example of a beam path of a camera with a fisheye lens when using a non-single viewpoint projection model;
  • 3rd Example of a surveillance image.

1 zeigt eine Überwachungsvorrichtung 2 als ein Ausführungsbeispiel der Erfindung. Die Überwachungsvorrichtung 2 umfasst eine Kamera 3, wobei die Kamera 3 ein Fischaugenobjektiv 4, ein Perspektivenbestimmungsmodul 5 und ein Personenwiedererkennungsmodul 6 aufweist. 1 shows a monitoring device 2nd as an embodiment of the invention. The monitoring device 2nd includes a camera 3rd , the camera 3rd a fisheye lens 4th , a perspective determination module 5 and a person recognition module 6 having.

Die Kamera 3 ist zur Überwachung eines Überwachungsbereiches 7 ausgebildet. Der Überwachungsbereich 7 ist ein Innenraum, beispielsweise ein Flughafen. Der Überwachungsbereich 7 weist eine Decke 8 und einen Boden 9 auf. Die Kamera 3 ist an der Decke 8 montiert, so dass die Kamera 3 den Überwachungsbereich 7 in Vogelperspektive überwacht. Die Kamera 3 weist einen Aufnahmewinkel auf, sodass ein Abschnitt 10 als Teilmenge des Überwachungsbereichs 7 bildtechnisch abgebildet wird.The camera 3rd is for monitoring a surveillance area 7 educated. The surveillance area 7 is an interior, for example an airport. The surveillance area 7 has a blanket 8th and a floor 9 on. The camera 3rd is on the ceiling 8th mounted so that the camera 3rd the surveillance area 7 monitored in bird's eye view. The camera 3rd has a recording angle so that a section 10th as a subset of the surveillance area 7 is imaged technically.

Die Kamera 3 nimmt eine Bildsequenz aus mehreren Überwachungsbildern des Überwachungsbereichs 7 auf. In den Überwachungsbereich 7 kann sich eine Person frei bewegen, wobei die Person in den Überwachungsbildern abgebildet ist. Die Überwachungsbilder und/oder die Bildsequenz sind datentechnisch dem Perspektivenbestimmungsmodul 5 bereitgestellt. Die Überwachungsbilder weisen einen Fischaugeneffekt auf.The camera 3rd takes an image sequence from several surveillance images of the surveillance area 7 on. In the surveillance area 7 a person can move freely, the person being shown in the surveillance images. In terms of data technology, the surveillance images and / or the image sequence are the perspective determination module 5 provided. The surveillance images have a fisheye effect.

Das Perspektivenbestimmungsmodul 5 ist ausgebildet, aus den Überwachungsbildern der Bildsequenz Nutzbilder 12a, 12b und 12c zu generieren. Dazu werden bewegende Objekte und/oder Personen in der Bildsequenz gesucht und deren Aufnahmeperspektive bestimmt. Vor der Bestimmung der Aufnahmeperspektive kann der Fischaugeneffekt korrigiert werden, beispielsweise mittels Dewarping-methoden. Ferner kann es vorgesehen sein, dass vom Perspektivenbestimmungsmodul 5 die Ausrichtung der bewegenden Person orientiert wird, beispielsweise dass Bildabschnitte der Überwachungsbilder gedreht werden, so dass die Person in den Nutzbilder 12 aufrecht abgebildet ist.The perspective determination module 5 is formed from the surveillance images of the image sequence useful images 12a , 12b and 12c to generate. For this purpose, moving objects and / or people are searched in the image sequence and their shooting perspective is determined. The fisheye effect can be corrected before determining the shooting perspective, for example using dewarping methods. It can further be provided that the perspective determination module 5 the orientation of the moving person is oriented, for example that image sections of the surveillance images are rotated so that the person in the useful images 12th is shown upright.

Als Aufnahmeperspektive werden Ansichten auf die Person verstanden, insbesondere ob die Person von vorne gezeigt ist, von hinten gezeigt ist oder seitlich gezeigt ist. Beispielsweise wird vom Perspektivenbestimmungsmodul 5 für jede Person und/oder jedes Überwachungsbild der Bildsequenz die Aufnahmeperspektive bestimmt. Das Perspektivenbestimmungsmodul 5 ist dann ausgebildet, zur Generierung der Nutzbilder Bildabschnitte und/oder Überwachungsbilder auszuwählen, welche die Person in unterschiedlichen Aufnahmeperspektiven zeigt.Views are understood as views of the person, in particular whether the person is shown from the front, is shown from the rear or is shown from the side. For example, the perspective determination module 5 determines the shooting perspective for each person and / or each surveillance image of the image sequence. The perspective determination module 5 is then designed to select image sections and / or surveillance images for generating the useful images, which shows the person in different recording perspectives.

Das Perspektivenbestimmungsmodul 5 ist ausgebildet, ein Nutzbildtriple 11 zu bestimmen. Das Nutzbildtripel weist drei Nutzbilder 12a, 12b und 12c auf, wobei das Nutzbild 12a die Person in eine Aufnahmeperspektive von vorne zeigt, das Nutzbild 12b die Person in einer seitlichen Aufnahmeperspektive und das Nutzbild 12c die Person in einer Aufnahmeperspektive von hinten zeigt. Anstelle eines Nutzbildtriples können alternativ auch feinere granulare Personenansichten verwendet werden z.B ein Nutzbildquadrupel, Nutzbildquintuple, Nutzbildsextuple, Nutzbildhexatuple etc..The perspective determination module 5 is trained, a useful image triple 11 to determine. The useful image triplet has three useful images 12a , 12b and 12c on, the usable image 12a the person shows the useful image from a front perspective 12b the person in a side perspective and the useful image 12c shows the person from behind in a perspective view. Instead of a useful image triplet, finer granular person views can alternatively be used, for example a useful image quadruple, useful image quintuple, useful image sextuple, useful image hexatuple etc.

Das Perspektivenbestimmungsmodul 5 kann basierend auf den Überwachungsbildern einer einzigen Kamera 3 deshalb unterschiedliche Aufnahmeperspektiven für eine Person bestimmen, weil das Fischaugenobjektiv 4 ein im Überwachungsbereich bewegendes Objekt 13a, 13b und 13c wegen der verzerrten Optik aus unterschiedlichen Perspektiven abbildet. Befindet sich das Objekt 13b direkt unter der optischen Achse der Kamera 3 wird dieses in Vogelperspektive abgebildet. Befindet sich das Objekt 13a beispielsweise links von der optischen Achse wird dieses von vorne abgebildet, befindet sich das Objekt 13c rechts von der optischen Achse kann beispielsweise eine Rückansicht aufgenommen werden.The perspective determination module 5 can be based on the surveillance images of a single camera 3rd therefore determine different shooting perspectives for one person, because the fisheye lens 4th an object moving in the surveillance area 13a , 13b and 13c because of the distorted optics from different perspectives. The object is located 13b directly under the camera's optical axis 3rd this is shown in a bird's eye view. The object is located 13a For example, to the left of the optical axis, if this is imaged from the front, the object is located 13c For example, a rear view can be taken to the right of the optical axis.

Dem Personenwiedererkennungsmodul 6 ist das Nutzbildtripple 11 bereitgestellt. Basierend auf dem Nutzbildtrippel 11 und einem eingegebenen und/oder hinterlegte Wiedererkennungsmerkmal, beispielsweise als Wiedererkennungsmerkmaldatensatz, kann eine zu suchende Person im Überwachungsbereich detektiert werden. Das Personenwiedererkennungsmodul 6 vergleicht hierzu Merkmale der Person in den Nutzbildern mit den Wiedererkennungsmerkmalen. Liegen genügend Übereinstimmungen zwischen Merkmalen und Wiedererkennungsmerkmalen vor, kann das Personenwiedererkennungsmodul 5 die zu suchende Person als gefunden klassifizieren.The person recognition module 6 is the useful image triple 11 provided. Based on the useful image triple 11 and an entered and / or stored recognition feature, for example as a recognition feature data record, a person to be searched can be detected in the surveillance area. The person recognition module 6 compares characteristics of the person in the useful images with the recognition characteristics. If there are enough matches between features and recognition features, the person recognition module can 5 classify the person to be found as found.

2 zeigt beispielhaft den Strahlengang der Kamera 3 mit dem Fischaugenobjektiv 4 bei Verwendung eines Non-Single-Viewpoint-Projektionsmodells. Die Kamera 3 weist einen Bildsensor 14 auf, welcher als CCD- oder CMOS-Sensor ausgebildet ist. Sehstrahlen 15a, 15b, 15c und 15d werden durch das Fischaugenobjektiv 4 auf den Bildsensor 14 abgebildet. Das Fischaugenobjektiv 4 und/oder die Kamera 3 weist nicht wie bei üblichen Kameras ein punktförmiges Projektionszentrum auf, sondern ein Linien förmiges Projektionszentrum 16. 2nd shows an example of the beam path of the camera 3rd with the fisheye lens 4th when using a non-single viewpoint projection model. The camera 3rd has an image sensor 14 on which is designed as a CCD or CMOS sensor. Visual rays 15a , 15b , 15c and 15d are through the fisheye lens 4th on the image sensor 14 pictured. The fisheye lens 4th and / or the camera 3rd does not have a point-shaped projection center, as in conventional cameras, but a line-shaped projection center 16 .

Der Winkel αa , αb , αc , αd der Seestrahlen auf das bewegende Objekt 13a, 13b, 13c,13d ist für das Fischaugenobjektiv jeweils unterschiedlich. Je weiter das Objekt 13a, 13b, 13c,13d von der optischen Achse bzw. dem Projektionszentrum 16 entfernt ist desto kleiner ist der Winkel αa , αb , αc , αd . Beispielsweise ist der Winkel ab für das Objekt 13b, dass sich direkt unterhalb der Kamera 3 befindet 90°. Das Objekt 13a links von dem Projektionszentrum 16 weist einen Winkel αa von etwa 45° auf und zeigt eine Abbildungsperspektive von vorne. Das Objekt 13c rechts von dem Projektionszentrum 16 weist einen Winkel αd von etwa 20° auf und zeigt eine Abbildungsperspektive von hinten auf das Objekt. Damit können mittels des Fischaugenobjektivs 4 von einem bewegenden Objekt unterschiedliche Abbildungsperspektiven mit einer Kamera 3 aufgenommen werden.The angle α a , α b , α c , α d the sea rays on the moving object 13a , 13b , 13c , 13d is for that Fisheye lens each different. The further the object 13a , 13b , 13c , 13d from the optical axis or the projection center 16 the more distant the angle is α a , α b , α c , α d . For example, the angle a b for the object 13b that is right below the camera 3rd is 90 °. The object 13a left of the projection center 16 has an angle α a from about 45 ° and shows an imaging perspective from the front. The object 13c to the right of the projection center 16 has an angle α d from about 20 ° and shows an imaging perspective from behind on the object. This means that you can use the fisheye lens 4th from a moving object different imaging perspectives with a camera 3rd be included.

3 zeigt schematisch ein überlagertes Bild aus drei Überwachungsbildern die in einem zeitlichen Abstand aufgenommen sind. Das bewegende Objekt 13, ist hier ein Mensch, der sich auf einem Pfad 17 bewegt. Zu einem ersten Zeitpunkt wird diese als Objekt 13a abgebildet, zu einem zweiten Zeitpunkt als Objekt 13b abgebildet und zu einem dritten Zeitpunkt als Objekt 13c abgebildet. Ferner sind zwei statische Gegenstände 18a und 18b abgebildet. Bei den Gegenständen 18a, 18b handelt es sich um Schränke, die in der Realität umgebogen und gerade ausgebildet sind. Durch die verzehrenden Eigenschaften des Fischaugenobjektivs 4 sind diese im Bild verzerrt dargestellt. Der Gegenstand 18a im Randbereich ist dabei besonders verzerrt abgebildet und erscheint kreisrund gebogen. Der Gegenstand 18b der sich näher am Zentrum befindet ist ebenfalls verzerrt dargestellt, jedoch nicht so stark gekrümmt. 3rd shows schematically an overlaid image from three surveillance images that are taken at a time interval. The moving object 13 , here is a person who is on a path 17th emotional. At first, this becomes an object 13a pictured, at a second time as an object 13b mapped and at a third point in time as an object 13c pictured. There are also two static objects 18a and 18b pictured. With the objects 18a , 18b are cabinets that are bent and straight in reality. Due to the consuming properties of the fisheye lens 4th they are shown distorted in the picture. The object 18a the image is particularly distorted in the edge area and appears circularly curved. The object 18b the one closer to the center is also shown distorted, but not so strongly curved.

Durch diese verzehrenden Eigenschaften des Fischaugenobjektivs 4 wird auch die Person als bewegendes Objekt 13 in unterschiedlichen Perspektiven abgebildet, nachdem sich der Abstand zum Zentrum bzw. zum Projektionszentrum 16 ändert. Hierbei wird die Person als Objekt 13a von vorne gezeigt, als Objekt 13b im Zentrum der Abbildung von oben und als Objekt 13c bei Entfernen vom Zentrum von hinten abgebildet.Due to these consuming properties of the fisheye lens 4th is also the person as a moving object 13 mapped in different perspectives after the distance to the center or the projection center 16 changes. Here the person is an object 13a shown from the front, as an object 13b in the center of the image from above and as an object 13c pictured from behind when removed from the center.

In einer Variante des beschriebenen Ausführungsbeispiels ist die als Fischaugenkamera ausgebildete Kamera an einem unbemannten Flugfahrzeug (Drohne), insbesondere an einem Hubschrauber, angeordnet. Die Überwachungseinrichtung zur Personenwiedererkennung in einem Überwachungsbereich ist eingerichtet, Personen aus Drohnensicht wiederzuerkennen. Die als Fischaugenkamera bzw. omnidirektionale Kamera ausgebildete Kamera ist hierbei in Nadir an der Drohne montiert. Dabei ist vorgesehen, dass die Drohne mit der Fischaugenkamera bzw. omnidirektionaler Kamera über eine Menschenansammlung fliegt. Dabei wird die Person bedingt durch die fischaugenartige Projektion der Linse aus unterschiedlichen Ansichten aufgenommen. Dabei ist vorgesehen, dass sich die Person durch die Szene bewegt und/oder dass sich die Drohne relativ zu der Person bewegt. Ferner ist vorgesehen, dass die aufgenommenen Überwachungsbilder einer Verzeichnungskorrektur unterzogen werden und dass aus den aufgenommenen Überwachungsbildern in Form einer Vollaufnahme mindestens zwei Nutzbilder, vorzugsweise drei Nutzbilder, der Person herausgeschnitten werden. Vorzugsweise zeigen die drei Nutzbilder die Person einmal von vorne, einmal von der Seite und einmal von hinten. Im Übrigen ist die Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich mit Drohne zumindest teilweise wie die vorstehend mit Bezug auf die 1 bis 3 beschriebene Überwachungsvorrichtung ausgebildet.In a variant of the exemplary embodiment described, the camera designed as a fisheye camera is arranged on an unmanned aerial vehicle (drone), in particular on a helicopter. The monitoring device for person recognition in a surveillance area is set up to recognize people from a drone perspective. The camera, which is designed as a fisheye camera or omnidirectional camera, is mounted on the drone in Nadir. It is envisaged that the drone will fly over a crowd with the fisheye camera or omnidirectional camera. Due to the fish-eye-like projection of the lens, the person is recorded from different views. It is provided that the person moves through the scene and / or that the drone moves relative to the person. It is further provided that the recorded surveillance images are subjected to a distortion correction and that at least two useful images, preferably three useful images, of the person are cut out of the recorded surveillance images in the form of a full exposure. The three useful images preferably show the person once from the front, once from the side and once from behind. Otherwise, the surveillance device for person recognition in a surveillance area with a drone is at least partially like the one above with reference to FIG 1 to 3rd described monitoring device trained.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • EP 2189955 B1 [0004]EP 2189955 B1 [0004]

Claims (17)

Überwachungsvorrichtung (2) zur Personenwiedererkennung in einem Überwachungsbereich (7), mit mindestens einer Kamera (3) zur Aufnahme einer Bildsequenz eines Abschnitts (10) des Überwachungsbereichs (7), wobei die Bildsequenz eine Mehrzahl an Überwachungsbildern umfasst, mit einem Personenwiedererkennungsmodul (6), wobei das Personenwiedererkennungsmodul (6) mindestens ein Wiedererkennungsmerkmal einer aufzufinden Person aufweist und ausgebildet ist, die wiederzuerkennende Person basierend auf den Überwachungsbildern und dem Wiedererkennungsmerkmal zu suchen, dadurch gekennzeichnet, dass die Kamera (3) ein Fischaugenobjektiv (4) aufweist.Monitoring device (2) for person recognition in a surveillance area (7), with at least one camera (3) for recording an image sequence of a section (10) of the surveillance area (7), the image sequence comprising a plurality of surveillance images, with a person recognition module (6) , The person recognition module (6) has at least one recognition feature of a person to be found and is designed to search for the person to be recognized based on the surveillance images and the recognition feature, characterized in that the camera (3) has a fisheye lens (4). Überwachungsvorrichtung (2) nach Anspruch 1, gekennzeichnet durch ein Perspektivenbestimmungsmodul (5), wobei das Perspektivenbestimmungsmodul (5) ausgebildet ist, in den Überwachungsbildern für eine im Abschnitt (10) des Überwachungsbereichs (7) bewegende Person eine Aufnahmeperspektive zu bestimmen.Monitoring device (2) after Claim 1 , characterized by a perspective determination module (5), the perspective determination module (5) being designed to determine, in the surveillance images, a shooting perspective for a person moving in section (10) of the surveillance area (7). Überwachungsvorrichtung (2) nach Anspruch 2, dadurch gekennzeichnet dass das Perspektivenbestimmungsmodul (5) ausgebildet ist, basierend auf den Überwachungsbildern einer der Kameras (3) und den dazu bestimmten Aufnahmeperspektiven mindestens zwei Nutzbilder (12a,b) zu generieren, wobei die Nutzbilder (12a,b) die Person in unterschiedlichen Aufnahmeperspektiven zeigt.Monitoring device (2) after Claim 2 , characterized in that the perspective determination module (5) is designed to generate at least two useful images (12a, b) based on the surveillance images of one of the cameras (3) and the recording perspectives determined therefor, the useful images (12a, b) showing the person in different ways Perspectives shows. Überwachungsvorrichtung (2) nach Anspruch 3, dadurch gekennzeichnet, dass das Perspektivenbestimmungsmodul (5) ausgebildet ist mindestens drei Nutzbilder (12a-c), insbesondere genau drei Nutzbilder (12a-c) oder vier Nutzbilder oder mehr als vier Nutzbilder, als ein Nutzbildtripple (11) zu bestimmen, wobei die drei Nutzbilder (12a-c) des Nutzbildtrippels (11) die Person in einer Frontansicht, in einer Rückansicht und in einer Seitenansicht zeigen.Monitoring device (2) after Claim 3 , characterized in that the perspective determination module (5) is designed to determine at least three useful images (12a-c), in particular exactly three useful images (12a-c) or four useful images or more than four useful images, as a useful image triple (11), the three useful images (12a-c) of the useful image triple (11) show the person in a front view, in a rear view and in a side view. Überwachungsvorrichtung (2) nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass das Perspektivenbestimmungsmodul (5) ausgebildet ist, einen Fischaugeneffekt in den Überwachungsbildern, insbesondere vor der Bestimmung der Aufnahmeperspektive, zu korrigieren.Monitoring device (2) according to one of the Claims 2 to 4th , characterized in that the perspective determination module (5) is designed to correct a fisheye effect in the surveillance images, in particular before the determination of the shooting perspective. Überwachungsvorrichtung (2) nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass das Perspektivenbestimmungsmodul (5) ausgebildet ist, die Person in den Nutzbildern (12a-c) orientiert wiederzugeben.Monitoring device (2) according to one of the Claims 3 to 5 , characterized in that the perspective determination module (5) is designed to display the person in the useful images (12a-c) in an oriented manner. Überwachungsvorrichtung (2) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet das das Personenwiedererkennungsmodul (6) ausgebildet ist, die bewegende Person in den Überwachungsbildern und/oder den Nutzbildern (12a-c) zu tracken.Monitoring device (2) according to one of the preceding claims, characterized in that the person recognition module (6) is designed to track the moving person in the monitoring images and / or the useful images (12a-c). Überwachungsvorrichtung (2) nach Anspruch 7, dadurch gekennzeichnet, dass das Perspektivenbestimmungsmodul (5) ausgebildet ist, basierend auf dem Tracken der Person auf die Aufnahmeperspektive zu schließen und/oder diese zu extrapolieren.Monitoring device (2) after Claim 7 , characterized in that the perspective determination module (5) is designed to draw conclusions based on the tracking of the person and / or to extrapolate them. Überwachungsvorrichtung (2) nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass das Perspektivenbestimmungsmodul (5) ausgebildet ist, basierend auf einem Machine-Learning, einem Computer-Vision und/oder Deep-Learning Verfahren die Aufnahmeperspektive zu bestimmen.Monitoring device (2) according to one of the Claims 2 to 8th , characterized in that the perspective determination module (5) is designed to determine the admission perspective based on a machine learning, a computer vision and / or deep learning method. Überwachungsvorrichtung (2) nach einem der Ansprüche 3 bis 9, gekennzeichnet durch ein Merkmalsbestimmungsmodul, wobei das Merkmalsbestimmungsmodul ausgebildet ist, basierend auf den Nutzbildern (12a-c) Personenmerkmale zu bestimmen, wobei das Personenwiedererkennungsmodul (6) ausgebildet ist, die wiederzuerkennende Person basierend auf den Personenmerkmalen und dem Wiedererkennungsmerkmal zu suchen.Monitoring device (2) according to one of the Claims 3 to 9 , characterized by a feature determination module, the feature determination module being designed to determine personal characteristics based on the useful images (12a-c), the personal recognition module (6) being designed to search for the person to be recognized based on the personal characteristics and the recognition characteristic. Überwachungsvorrichtung (2) nach Anspruch 10, gekennzeichnet durch ein Fusionsmodul, wobei das Fusionsmodul ausgebildet ist, Personenmerkmale einer Person aus unterschiedlichen Nutzbildern (12a-c) zu einem Mastermerkmal zusammenzufügen, wobei das Personenwiedererkennungsmodul (6) ausgebildet ist, die wiederzuerkennende Person basierend auf den Mastermerkmal und dem Wiedererkennungsmerkmal zu suchen.Monitoring device (2) after Claim 10 , characterized by a fusion module, the fusion module being designed to combine personal characteristics of a person from different useful images (12a-c) into a master characteristic, the personal recognition module (6) being designed to search for the person to be recognized based on the master characteristic and the recognition characteristic. Überwachungsvorrichtung (2) nach einem der vorherigen Ansprüche, gekennzeichnet durch ein Personenbildfusionsmodul, wobei das Personenbildfusionsmodul ausgebildet ist, basierend auf den Nutzbildern (12a-c) für eine Person ein Masternutzbild zu generieren und basierend auf dem Masternutzbild ein Fusionspersonenmerkmal zu bestimmen, wobei das Personenwiedererkennungsmodul (6) ausgebildet ist, die wiederzuerkennende Person basierend auf den Fusionspersonenmerkmal und dem Wiedererkennungsmerkmal zu suchen.Monitoring device (2) according to one of the preceding claims, characterized by a person image fusion module, the person image fusion module being designed to generate a master useful image for a person based on the useful images (12a-c) and to determine a fusion personal characteristic based on the master useful image, the person recognition module (6) is designed to search for the person to be recognized based on the fusion person characteristic and the recognition characteristic. Überwachungsvorrichtung (2) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Kamera (3) Montagemittel zur Überwachung des Überwachungsbereichs (7) in Vogelperspektive aufweist.Monitoring device (2) according to one of the preceding claims, characterized in that the camera (3) has mounting means for monitoring the monitoring area (7) in a bird's eye view. Überwachungsvorrichtung (2) nach einem der vorherigen Ansprüche, gekennzeichnet durch eine weitere optische Sensoreinheit zur bildtechnischen Überwachung des Überwachungsbereichs (7) und zur Bereitstellung von Zusatzbilddaten, wobei das Personenwiedererkennungsmodul (6) ausgebildet ist, die wiederzuerkennende Person basierend auf den Zusatzbilddaten zu suchen.Monitoring device (2) according to one of the preceding claims, characterized by a further optical sensor unit for image monitoring of the monitoring area (7) and for providing additional image data, the person recognition module (6) being designed to search for the person to be recognized based on the additional image data. Überwachungsvorrichtung (2) nach einem der vorherigen Ansprüche, gekennzeichnet durch ein unbemanntes Luftfahrzeug, wobei zumindest die ein Fischaugenobjektiv (4) aufweisende Kamera (3) an dem unbemannten Luftfahrzeug angeordnet ist.Monitoring device (2) according to one of the preceding claims, characterized by an unmanned aerial vehicle, at least the camera (3) having a fisheye lens (4) being arranged on the unmanned aerial vehicle. Verfahren zur Personenwiedererkennung in einem Überwachungsbereich (7) mit der Überwachungsvorrichtung (2) nach einem der vorherigen Ansprüche, wobei mit der Kamera (3) umfassend das Fischaugenobjektiv (4) die Bildsequenz des Überwachungsbereichs (7) aufgenommen wird.Method for person recognition in a surveillance area (7) with the surveillance device (2) according to one of the preceding claims, wherein the image sequence of the surveillance area (7) is recorded with the camera (3) comprising the fisheye lens (4). Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass die Bildsequenz des Überwachungsbereichs (7) während eines Überfluges des unbemannten Luftfahrzeuges aufgenommen wird, wobei aus der aufgenommenen Bildsequenz mindestens zwei Nutzbilder (12 a, b), insbesondere drei Nutzbilder (12 a - c), generiert werden, wobei die Nutzbilder (12 a, b) die Person in unterschiedlichen Aufnahmeperspektiven zeigt.Procedure according to Claim 16 , characterized in that the image sequence of the monitoring area (7) is recorded during an overflight of the unmanned aerial vehicle, at least two useful images (12 a, b), in particular three useful images (12 a - c), being generated from the recorded image sequence, wherein the useful images (12 a, b) show the person in different shooting perspectives.
DE102019212978.1A 2018-09-20 2019-08-29 Monitoring device for person recognition and method Pending DE102019212978A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/576,855 US10984502B2 (en) 2018-09-20 2019-09-20 Monitoring apparatus for person recognition and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018216028 2018-09-20
DE102018216028.7 2018-09-20

Publications (1)

Publication Number Publication Date
DE102019212978A1 true DE102019212978A1 (en) 2020-03-26

Family

ID=69725632

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019212978.1A Pending DE102019212978A1 (en) 2018-09-20 2019-08-29 Monitoring device for person recognition and method

Country Status (2)

Country Link
US (1) US10984502B2 (en)
DE (1) DE102019212978A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202681A1 (en) 2021-03-19 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Detection device for recognizing an object and/or a person, method, computer program and storage medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7440332B2 (en) * 2020-04-21 2024-02-28 株式会社日立製作所 Event analysis system and method
CN112418127B (en) * 2020-11-30 2022-05-03 浙江大学 Video sequence coding and decoding method for video pedestrian re-identification
US12322075B2 (en) * 2021-02-05 2025-06-03 Motorola Solutions, Inc. Device, method and system for identifying objects in warped images from a fisheye camera
EP4466683A4 (en) * 2022-05-16 2025-06-04 Samsung Electronics Co., Ltd SYSTEMS AND METHODS FOR RECOGNIZING HUMAN ACTIONS WITHOUT LINE OF VIEW

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008043954A1 (en) 2008-11-21 2010-05-27 Robert Bosch Gmbh Sensor network system, transmission protocol, method for recognizing an object and computer program
CN102395994B (en) * 2010-03-18 2015-06-10 松下电器产业株式会社 Omnidirectional image processing device and omnidirectional image processing method
EP3446281A1 (en) * 2016-04-21 2019-02-27 OSRAM GmbH Training method and detection method for object recognition
US20180204331A1 (en) * 2016-07-21 2018-07-19 Gopro, Inc. Subject tracking systems for a movable imaging system
US11176382B2 (en) * 2017-03-06 2021-11-16 Conduent Business Services, Llc System and method for person re-identification using overhead view images
US10599950B2 (en) * 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202681A1 (en) 2021-03-19 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Detection device for recognizing an object and/or a person, method, computer program and storage medium
GB2607399A (en) * 2021-03-19 2022-12-07 Bosch Gmbh Robert Detection device for detecting an object and/or a person, as well as method, computer program, and storage medium
US12300030B2 (en) 2021-03-19 2025-05-13 Robert Bosch Gmbh Detection device for recognizing an object and/or a person, method, computer program and storage medium
GB2607399B (en) * 2021-03-19 2025-07-09 Bosch Gmbh Robert Detection device for detecting an object and/or a person, as well as method, computer program, and storage medium

Also Published As

Publication number Publication date
US20200098085A1 (en) 2020-03-26
US10984502B2 (en) 2021-04-20

Similar Documents

Publication Publication Date Title
DE102019212978A1 (en) Monitoring device for person recognition and method
DE69226512T2 (en) Image processing method
DE69707886T2 (en) METHOD AND DEVICE FOR LOCATING A MOVING ZONE AND DETERMINING THE FASTNESS AND DIRECTING THE MOVEMENT OF A AREA OF RELATIVE MOVEMENT IN A SCENE
EP2464098B1 (en) Vicinity presentation device, a vehicle with such a vicinity presentation device and method for displaying a panorama image
DE112018001050T5 (en) SYSTEM AND METHOD FOR VIRTUALLY ENHANCED VISUAL SIMULTANEOUS LOCALIZATION AND CARTOGRAPHY
DE102012112322A1 (en) Method for optically scanning and measuring an environment
DE112016001150T5 (en) ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES
DE112011105371T5 (en) Apparatus for synthesizing three-dimensional images for visualizing the vehicle environment and associated method
DE112014001658T5 (en) A tracking processing device and tracking processing system equipped therewith and tracking processing methods
DE112017007303B4 (en) Facial recognition device
DE102010037169A1 (en) Unlimited spatially oriented field of view display device
DE19955714A1 (en) Method and apparatus for photographing / recognizing a face
DE112019007390T5 (en) Method, device and computer program for tracking moving objects
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
EP2350977B1 (en) Method for combining at least two images to form a panoramic image
DE102019105630B4 (en) Display control device, vehicle surroundings display system and computer program
DE102019123220A1 (en) Summarize videos from multiple moving video cameras
DE102009026091A1 (en) Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
DE112021005409T5 (en) SAFETY VISION DEVICE AND SAFETY VISION SYSTEM
DE102008024732A1 (en) Method for creating stereoscopic temporary perspective in medical-optical observation device, involves determining displacement vector field from two images with different perspectives, where image is provided in one perspective
DE102017109106B4 (en) Surveillance system and video display method
DE102021213757B3 (en) Method for fusing image data in the context of an artificial neural network
DE102006060612B4 (en) Method for monitoring target objects and multispectral camera
DE102020122908A1 (en) Method for displaying surroundings of a vehicle on a display device, processing unit and vehicle
EP3449463A1 (en) Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R082 Change of representative

Representative=s name: WINTER, BRANDL - PARTNERSCHAFT MBB, PATENTANWA, DE