DE102019212978A1 - Monitoring device for person recognition and method - Google Patents
Monitoring device for person recognition and method Download PDFInfo
- Publication number
- DE102019212978A1 DE102019212978A1 DE102019212978.1A DE102019212978A DE102019212978A1 DE 102019212978 A1 DE102019212978 A1 DE 102019212978A1 DE 102019212978 A DE102019212978 A DE 102019212978A DE 102019212978 A1 DE102019212978 A1 DE 102019212978A1
- Authority
- DE
- Germany
- Prior art keywords
- person
- images
- designed
- monitoring device
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Überwachungsvorrichtung 2 zur Personenwiedererkennung in einem Überwachungsbereich 7, mit mindestens einer Kamera 3 zur Aufnahme einer Bildsequenz eines Abschnitts 10 des Überwachungsbereichs 7, wobei die Bildsequenz eine Mehrzahl an Überwachungsbildern umfasst, mit einem Personenwiedererkennungsmodul 6, wobei das Personenwiedererkennungsmodul 6 mindestens ein Wiedererkennungsmerkmal einer aufzufinden Person aufweist und ausgebildet ist, die wiederzuerkennende Person basierend auf den Überwachungsbildern und dem Wiedererkennungsmerkmal zu suchen, wobei die Kamera 3 ein Fischaugenobjektiv 4 aufweist.Monitoring device 2 for person recognition in a surveillance area 7, with at least one camera 3 for capturing an image sequence of a section 10 of the surveillance area 7, the image sequence comprising a plurality of surveillance images, with a person recognition module 6, the person recognition module 6 having at least one recognition feature of a person to be found and is designed to search for the person to be recognized based on the surveillance images and the recognition feature, the camera 3 having a fisheye lens 4.
Description
Stand der TechnikState of the art
Es wird eine Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich vorgeschlagen. Die Überwachungsvorrichtung weist mindestens eine Kamera zur Aufnahme einer Bildsequenz eines Abschnitts des Überwachungsbereichs auf. Die Bildsequenz weist eine Mehrzahl an Überwachungsbildern auf. Die Überwachungsvorrichtung umfasst ein Personenwiedererkennungsmodul, um basierend auf einem Wiedererkennungsmerkmal einer aufzufindenden Person und den Überwachungsbildern die Person zu suchen und/oder wiederzufinden. Ferner betrifft die Erfindung ein Verfahren zur Überwachung eines Überwachungsbereichs und zum Auffinden der Person.A monitoring device for person recognition in a monitoring area is proposed. The monitoring device has at least one camera for recording an image sequence of a section of the monitoring area. The image sequence has a plurality of surveillance images. The monitoring device comprises a person recognition module in order to search for and / or find the person based on a recognition feature of a person to be found and the surveillance images. The invention further relates to a method for monitoring a surveillance area and for locating the person.
Die Überwachung von öffentlichen Bereichen und/oder anderweitigen Überwachungsbereichen mittels optischer Methoden ist weit verbreitet. Insbesondere spielt die bildbasierte Personenwiedererkennung in solchen Bereichen eine zunehmende Rolle. Ziel ist es beispielsweise, in einem Flughafen oder einem Bahnhof eine Person wiederzuerkennen und/oder diese kameraübergreifend zu tracken. So können beispielsweise verlorene Kinder oder verdächtige Personen schnell gesucht und aufgefunden werden.The surveillance of public areas and / or other surveillance areas by means of optical methods is widespread. In particular, image-based person recognition plays an increasing role in such areas. The aim is, for example, to recognize a person in an airport or a train station and / or to track them across cameras. For example, lost children or suspicious people can be quickly searched for and found.
Hierzu werden häufig Videokameras eingesetzt, in deren Bildmaterial, basierend auf Personenmerkmalen, die Personen gesucht werden. Problematisch bei solchen Methoden ist, dass bei vielen Personen in einem Überwachungsbereich eine hohe Intrapersonen-Varianz vorliegt und gleichzeitig eine geringe Interpersonen-Varianz gegeben ist.For this purpose, video cameras are often used, in the image material of which people are searched, based on personal characteristics. The problem with such methods is that many people in a surveillance area have a high intrapersonal variance and at the same time there is a low interpersonal variance.
Die Druckschrift
Offenbarung der ErfindungDisclosure of the invention
Gemäß der Erfindung wird eine Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich mit den Merkmalen des Anspruchs 1 vorgeschlagen. Ferner wird ein Verfahren zur Überwachung des Überwachungsbereichs und zur Personenwiedererkennung mit den Merkmalen des Anspruchs 15 vorgeschlagen. Bevorzugte und/oder vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.According to the invention, a monitoring device for person recognition in a monitoring area is proposed with the features of claim 1. Furthermore, a method for monitoring the surveillance area and for person recognition is proposed with the features of claim 15. Preferred and / or advantageous embodiments of the invention result from the subclaims, the following description and the attached figures.
Erfindungsgemäß wird eine Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich vorgeschlagen. Insbesondere ist die Überwachungsvorrichtung zur optischen, bildtechnischen und/oder videotechnischen Überwachung des Überwachungsbereichs ausgebildet. Mittels der Überwachungsvorrichtung kann eine wiederzuerkennende und/oder gesuchte Person im Überwachungsbereich durch Datenauswertung und/oder Bildauswertung aufgefunden werden. Der Überwachungsbereich ist vorzugsweise ein Innenraum, alternativ ein Außenbereich oder ein gemischter Bereich. Beispielsweise ist Überwachungsbereich ein öffentliches Gebäude wie ein Flughafen, ein Bahnhof oder eine Behörde. Ferner kann die Überwachungsvorrichtung ausgebildet sein, Gegenstände wiederzuerkennen und/oder zu suchen, beispielsweise Gepäckstücke wie Koffer, Fahrzeuge wie Autos oder Tiere.According to the invention, a monitoring device for person recognition in a monitoring area is proposed. In particular, the monitoring device is designed for optical, image-technical and / or video-technical monitoring of the monitoring area. By means of the monitoring device, a person to be recognized and / or sought can be found in the monitoring area by data evaluation and / or image evaluation. The monitoring area is preferably an interior, alternatively an outside area or a mixed area. For example, the surveillance area is a public building such as an airport, a train station or an authority. Furthermore, the monitoring device can be designed to recognize and / or search for objects, for example pieces of luggage such as suitcases, vehicles such as cars or animals.
Die Überwachungsvorrichtung weist mindestens eine Kamera auf. Im Speziellen kann es vorgesehen sein, dass die Überwachungsvorrichtung genau eine Kamera aufweist, alternativ weist die Überwachungsvorrichtung mehr als zwei, fünf oder zehn Kameras auf. Weist die Überwachungsvorrichtung mehrere Kameras auf, können diese gleichartig ausgebildet sein. Die mindestens eine Kamera und/oder die Kameras sind zur Aufnahme einer Bildsequenz eines Abschnitts des Überwachungsbereiches ausgebildet oder zur Aufnahme einer Bildsequenz des gesamten Überwachungsbereichs ausgebildet. Der Abschnitt des Überwachungsbereiches ist beispielsweise der Sichtbereich und/oder Aufnahmebereich, der von der Kamera abgebildet und/oder aufgenommen werden kann. Vorzugsweise ist die Kamera zur Aufnahme des Abschnitts des Überwachungsbereiches und/oder des Überwachungsbereichs in einer Vogelperspektive ausgebildet und/oder angeordnet. Insbesondere ist eine optische Achse die Kamera im Wesentlichen in Lotrichtung nach unten ausgerichtet, derart, dass die Kamera den Abschnitt des Überwachungsbereichs und/oder den Überwachungsbereich in Nadir-Richtung erfasst. Die Abschnitte des Überwachungsbereichs die von einer Kamera überwacht werden sind im Falle von mehreren Kameras vorzugsweise aber nicht notwendigerweise teilweise überlappend, sodass eine Person beispielsweise ohne Lücken verfolgbar und/oder überwachbar ist. Die Kamera ist vorzugsweise eine Farbkamera. Die Kamera weist beispielsweise einen CCD-Sensor oder einen CMOS-Sensor zur Datengenerierung auf.The monitoring device has at least one camera. In particular, it can be provided that the monitoring device has exactly one camera, alternatively the monitoring device has more than two, five or ten cameras. If the monitoring device has a plurality of cameras, these can be of identical design. The at least one camera and / or the cameras are designed to record an image sequence of a section of the monitoring area or to record an image sequence of the entire monitoring area. The section of the monitoring area is, for example, the viewing area and / or recording area, which can be imaged and / or recorded by the camera. The camera is preferably designed and / or arranged in a bird's eye view to record the section of the monitoring area and / or the monitoring area. In particular, an optical axis of the camera is oriented essentially downward in the perpendicular direction, such that the camera captures the section of the monitoring area and / or the monitoring area in the nadir direction. The sections of the surveillance area that are monitored by one camera are preferably but not necessarily partially overlapping in the case of several cameras, so that a person can be tracked and / or monitored, for example, without gaps. The camera is preferably a color camera. The camera has, for example, a CCD sensor or a CMOS sensor for data generation.
Die Bildsequenz weist eine Mehrzahl an Überwachungsbildern auf. Insbesondere weist die Bildsequenz mindestens zwei Überwachungsbilder oder mehr als zehn Überwachungsbilder auf. Die Überwachungsbilder der Bildsequenz sind vorzugsweise in äquidistanten Zeitabständen aufgenommen oder willkürlich zeitlich beanstandet aufgenommen. Die Überwachungsbilder bilden den Abschnitt des Überwachungsbereichs optisch, insbesondere zweidimensional,
Die Überwachungsvorrichtung weist ein Personenwiedererkennungsmodul auf. Das Personenwiedererkennungsmodul kann ein Hardwaremodul, beispielsweise eine Rechnereinheit oder ein Prozessorchip, bilden. Alternativ kann das Personenwiedererkennungsmodul ein Softwaremodul bilden. Das Personenwiedererkennungsmodul ist vorzugsweise von der Kamera umfasst oder alternativ ein zentrales Personenwiedererkennungsmodul. Dem Personenwiedererkennungsmodul ist die Bildsequenz und/oder sind die Überwachungsbilder der Kamera und/oder der Kameras bereitgestellt. Das Personenwiedererkennungsmodul weist mindestens ein Wiedererkennungsmerkmal einer aufzufinden Person auf. Das Wiedererkennungsmerkmal kann als Wiedererkennungsdatum und/oder als Wiedererkennungsdatei von dem Personenwiedererkennungsmodul umfasst sein. Beispielsweise kann das Personenwiedererkennungsmodul mehrere Wiedererkennungsmerkmale für eine oder für unterschiedliche aufzufindende Personen aufweisen. Insbesondere ist das Wiedererkennungsmerkmal dem Personenwiedererkennungsmodul bereitstellbar und/oder hinterlegbar. Das Wiedererkennungsmerkmal kann beispielweise für die jeweils aufzufindende Person neu hinterlegt und/oder eingegeben werden. Das Wiedererkennungsmerkmal kann mehrere Parameter und/oder Daten umfassen. Beispielsweise umfasst und/oder wird das Wiedererkennungsmerkmal gebildet von einer Größe, von einer Struktur, von Farben, Kleidungsstücken und/oder Formen. Beispielsweise kann das Wiedererkennungsmerkmal für eine aufzufinden Person sein, dass die Person lange braune Haare, einen gelben Pullover und eine blaue Hose trägt. Insbesondere kann das Personenwiedererkennungsmodul Wiedererkennungsmerkmale für die aufzufinden Person bezüglich unterschiedlicher Ansichten und/oder Aufnahmeperspektiven aufweisen, beispielsweise unterschiedliches Wiedererkennungsmerkmal der Person für Aufnahmeperspektiven von vorne, von hinten, von oben und/oder von der Seite.The monitoring device has a person recognition module. The person recognition module can form a hardware module, for example a computer unit or a processor chip. Alternatively, the person recognition module can form a software module. The person recognition module is preferably encompassed by the camera or alternatively a central person recognition module. The image recognition and / or the surveillance images of the camera and / or the cameras are provided to the person recognition module. The person recognition module has at least one recognition feature of a person who can be found. The recognition feature can be included as a recognition date and / or as a recognition file by the person recognition module. For example, the person recognition module can have several recognition features for one person or for different people to be found. In particular, the recognition feature can be made available and / or stored to the person recognition module. The recognition feature can, for example, be newly stored and / or entered for the person to be found. The recognition feature can include several parameters and / or data. For example, the recognition feature comprises and / or is formed by a size, by a structure, by colors, items of clothing and / or shapes. For example, the recognition feature for a person to be found can be that the person is wearing long brown hair, a yellow sweater and blue trousers. In particular, the person recognition module can have recognition features for the person to be found with regard to different views and / or shooting perspectives, for example different recognition features of the person for shooting perspectives from the front, from behind, from above and / or from the side.
Das Personenwiedererkennungsmodul ist ausgebildet, die zu suchende und/oder aufzufindende Person im Überwachungsbereich basierend auf den Überwachungsbildern und/oder dem Wiedererkennungsmerkmal zu suchen. Dazu werden von dem Personenwiedererkennungsmodul beispielsweise die Überwachungsbilder, im Speziellen die Bildsequenz, auf ein Vorhandensein des Wiedererkennungsmerkmals untersucht. Liegt das Wiedererkennungsmerkmal in den Überwachungsbildern vor, liegen alle und/oder eine genügende Anzahl der Wiedererkennungsmerke vor, kann das Personenwiedererkennungsmodul ausgebildet sein, darauf zu schließen, dass es sich um die aufzufindende Person handelt.The person recognition module is designed to search for the person to be found and / or found in the surveillance area based on the surveillance images and / or the recognition feature. For this purpose, the surveillance images, in particular the image sequence, are examined by the person recognition module for the presence of the recognition feature. If the recognition feature is present in the surveillance images, all and / or a sufficient number of the recognition features are present, the person recognition module can be designed to conclude that it is the person to be found.
Erfindungsgemäß ist es vorgesehen, dass die Kamera ein Fischaugenobjektiv aufweist. Insbesondere kann die Kamera als Fischaugenobjektiv und/oder Teil des Fischaugenobjektivs eine Fischaugenlinse aufweisen. Als Fischaugenobjektive werden insbesondere Objektive verstanden, welche eine senkrecht zur optischen Achse stehende Objektivebene nicht proportional abbilden. Fischaugenobjektive bilden insbesondere mit Verzerrungen auf eine Bildebene
Der Erfindung liegt die Überlegung zugrunde, dass Kameras mit einem Fischaugenobjektiv einen größeren Bereich einer Szene überwachen können als normale Kameras, wobei es gleichzeitig zu einer geringeren Personenverdeckung kommt und Fischaugenbilder auch in perspektivische Bilder umgerechnet werden können. Bei Abbildungen mit Fischaugenobjektiven werden zum Rand hin Objekte beispielsweise stärker zusammengestaucht als in der Mitte. Eine Kamera mit einem Fischaugenobjektiv wird auch als Fischaugenkamera bezeichnet. Vorzugsweise ist die Kamera als eine Panorama-Kamera mit einem 360° hemisphärischen Aufnahmebereich ausgebildet. Beispielsweise ist die Kamera als omnidirektionale Kamera ausgebildet. In einer Variante ist das Fischaugenobjektiv bzw. die Fischaugenkamera als panomorphes Objektiv bzw. als panomorphe Kamera ausgebildet. Ein panomophes Objektiv stellt eine spezielle Ausprägung eines Fischaugenobjektivs dar, bei dem die optischen Eigenschaften des Objektivs in vorbestimmten Bereichen des Bildes derart verändert sind, dass die Bildverarbeitung, insbesondere die Objekterkennung, erleichtert wird. Dies wird beispielsweise dadurch erreicht, indem durch optische Verzerrungen, das Sichtfeld derart geändert wird, dass beispielsweise Randbereiche vergrößert dargestellt werden. Alternativ oder zusätzlich ist vorgesehen, dass in unterschiedlichen Bildbereichen der Kamera eine unterschiedliche Anzahl von Pixeln vorgesehen sind. Insbesondere ist vorgesehen, dass in Randbereichen die Pixeldichte höher ist als in Bildmitte.The invention is based on the consideration that cameras with a fisheye lens can monitor a larger area of a scene than normal cameras, at the same time there is less obscuring of people and fisheye images can also be converted into perspective images. For example, in fisheye lens images, objects are compressed more towards the edge than in the middle. A camera with a fisheye lens is also called a fisheye camera. The camera is preferably designed as a panorama camera with a 360 ° hemispherical recording area. For example, the camera is designed as an omnidirectional camera. In one variant, the fisheye lens or the fisheye camera is designed as a panomorphic lens or as a panomorphic camera. A panomophic lens is a special version of a fisheye lens, in which the optical properties of the lens are changed in predetermined areas of the image in such a way that image processing, in particular object recognition, is facilitated. This is achieved, for example, by means of optical distortions, the field of view is changed such that, for example, marginal areas are shown enlarged. Alternatively or additionally, it is provided that a different number of pixels are provided in different image areas of the camera. In particular, it is provided that the pixel density is higher in edge areas than in the center of the image.
Besonders bevorzugt ist es, dass die Überwachungsvorrichtung ein Perspektivenbestimmungsmodul aufweist. Das Perspektivenbestimmungsmodul kann ein Hardwaremodul oder ein Softwaremodul bilden. Beispielsweise bildet das Personenwiedererkennungsmodul zusammen mit dem Perspektivenbestimmungsmodul ein Auswertenmodul. Das Perspektivenbestimmungsmodul ist ausgebildet, in den Überwachungsbildern für eine im Abschnitt des Überwachungsbereichs bewegende Person und/oder ein bewegendes Objekt eine Aufnahmeperspektive zu bestimmen. Als Aufnahmeperspektive wird beispielsweise die Ansicht auf die Person und/oder das Objekt von vorne, die Ansicht von hinten, eine Seitenansicht oder eine Ansicht von oben verstanden. Beispielsweise ergibt sich bei einer Deckenmontage der Kamera in Vogelperspektive auf den Überwachungsbereich, dass Personen und/oder Objekte, abhängig von ihrem Abstand auf der Bodenebene zur optischen Achse der Kamera, aus unterschiedlichen Blickwinkeln abgebildet, aufgenommen und/oder analysiert werden. Personen unmittelbar unter der Kamera werden beispielsweise in einer Vogelperspektive abgebildet und/oder aufgenommen, während Personen und/oder Objekte mit zunehmenden Abstand von der optischen Achse mehr und mehr von der Seite abgebildet werden. Beispielsweise ist das Perspektivenbestimmungsmodul ausgebildet, basierend auf Merkmalen der abgebildeten bewegenden Person und/oder dem Objekt auf eine Aufnahmeperspektive schließen zu können. Merkmale können beispielsweise eine Ausdehnung, Gesichtsmerkmale oder Farbverläufe darstellen. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass Kameras mit Fischaugenobjektiv einen speziellen Strahlengang aufweisen und damit in der Lage sind, Personen und/oder Objekte in unterschiedlichen Ansichten aufnehmen zu können, insbesondere auch wenn sich die Person und/oder das Objekt auf einen geraden Pfad bewegt. Bisher ist es nötig bei normalen Kameras, die Person beispielsweise durch bauliche Maßnahmen, wie durch Absperrbändern, einen geschwungenen Pfad nehmen zu lassen, um mehrere Aufnahmeperspektiven generieren zu können. Insbesondere wird bisher in der Literatur darauf verwiesen, dass Fischaugenobjektive bei der Verwendung in Überwachungskameras wegen ihrer verzehrenden Eigenschaft nachteilig sind und von deren Verwendung abgeraten ist.It is particularly preferred that the monitoring device has a perspective determination module. The perspective determination module can form a hardware module or a software module. For example, the person recognition module forms an evaluation module together with the perspective determination module. The perspective determination module is designed to determine a recording perspective in the surveillance images for a person moving in the section of the surveillance area and / or a moving object. The perspective of the photograph is understood to be, for example, the view of the person and / or the object from the front, the view from the rear, a side view or a view from above. For example, when the camera is mounted on the ceiling from a bird's eye view of the surveillance area, people and / or objects are imaged, recorded and / or analyzed from different angles, depending on their distance from the floor level to the optical axis of the camera. People directly under the camera are, for example, imaged and / or recorded in a bird's eye view, while people and / or objects are increasingly depicted from the side with increasing distance from the optical axis. For example, the perspective determination module is designed to be able to infer a recording perspective based on features of the moving person depicted and / or the object. Features can represent, for example, an extent, facial features or color gradients. This embodiment is based on the consideration that cameras with a fisheye lens have a special beam path and are therefore able to record people and / or objects in different views, in particular even if the person and / or the object is moving in a straight path . So far, it has been necessary with normal cameras to let the person take a curved path, for example by structural measures such as barrier tapes, in order to be able to generate multiple shooting perspectives. In particular, the literature has so far made reference to the fact that fisheye lenses are disadvantageous when used in surveillance cameras because of their consuming properties and their use is not recommended.
Besonders bevorzugt ist es, dass das Perspektivenbestimmungsmodul ausgebildet ist, basierend auf den Überwachungsbildern einer, insbesondere einzigen Kamera, sowie den dazu bestimmten Aufnahmeperspektiven mindestens zwei Nutzbilder zu generieren. Dabei ist es beispielsweise vorgesehen, dass die zwei Nutzbilder auf der Bildsequenz einer einzigen Kamera beruhen. Werden mehrere Kameras in der Überwachungsvorrichtung eingesetzt, so ist es vorzugsweise vorgesehen, dass pro Kamera mindestens jeweils zwei Nutzbilder generiert werden. Die Nutzbilder sind insbesondere dadurch gekennzeichnet, dass für die Nutzbilder einer Kamera die Person in unterschiedlichen Aufnahmeperspektiven gezeigt ist. Beispielsweise ist in einem ersten Nutzbild die Person von vorne und in einem weiteren Nutzbild die Person von hinten abgebildet. Im Speziellen ist das Perspektivenbestimmungsmodul ausgebildet, mehr als zwei Nutzbilder zu generieren, wobei diese Nutzbilder auf den Überwachungsbildern einer der Kameras basieren. Diese Ausgestaltung wird insbesondere als Multi-view Generierung bezeichnet, da basierend auf der Aufnahme des Überwachungsbereichs mit dem Fischaugenobjektiv, von einer einzelnen Kamera Nutzbilder der Person und/oder eines Objektes generiert werden können, welche unterschiedliche Aufnahmeperspektiven auf die Person und/oder das Objekt aufweisen.It is particularly preferred that the perspective determination module is designed to generate at least two useful images based on the surveillance images of a camera, in particular a single camera, and the recording perspectives intended for this purpose. It is provided, for example, that the two useful images are based on the image sequence of a single camera. If several cameras are used in the monitoring device, it is preferably provided that at least two useful images are generated for each camera. The useful images are particularly characterized in that the person is shown in different recording perspectives for the useful images of a camera. For example, the person is shown from the front in a first useful image and the person from behind in a further useful image. In particular, the perspective determination module is designed to generate more than two useful images, these useful images being based on the surveillance images of one of the cameras. This embodiment is referred to in particular as multi-view generation because, based on the recording of the surveillance area with the fisheye lens, useful images of the person and / or an object can be generated by a single camera, which have different recording perspectives on the person and / or the object .
Eine Ausgestaltung der Erfindung sieht vor, dass das Perspektivenbestimmungsmodul ausgebildet ist, basierend auf der Bildsequenz ein Nutzbildtripple zu bestimmen. Das Nutzbildtripple umfasst drei Nutzbilder, insbesondere basierend auf der Bildsequenz einer einzigen Kamera. Die drei Nutzbilder des Nutzbildtrippels umfasst beispielsweise eine Frontansicht auf die Person und/oder das Objekt, eine Rückansicht auf die Person und/oder das Objekt sowie eine Seitenansicht. Das Perspektivenbestimmungsmodul kann ferner ausgebildet sein, ein Nutzbildtupel zu generieren, wobei das Nutzbildtupel mehr als drei Nutzbilder umfasst, beispielsweise vier Nutzbilder umfassend eine Frontansicht, Rückansicht, Seitenansicht und eine Ansicht von oben. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass mittels dem Fischaugenobjektiv basierend auf den Überwachungsdaten einer Kamera mindestens zwei, drei oder mehr Aufnahmeperspektiven auf die Person und/oder das Objekt erhältlich sind und so die Auswertestabilität bei der Wiedererkennung einer aufzufinden Person verbessert werden kann. Insbesondere kann so die Interpersonen-Varianz gesteigert werden.One embodiment of the invention provides that the perspective determination module is designed to determine a useful image triple based on the image sequence. The useful image triple comprises three useful images, in particular based on the image sequence of a single camera. The three useful images of the useful image triple include, for example, a front view of the person and / or the object, a rear view of the person and / or the object and a side view. The perspective determination module can also be designed to generate a useful image tuple, the useful image tuple comprising more than three useful images, for example four useful images comprising a front view, rear view, side view and a view from above. This embodiment is based on the consideration that at least two, three or more shooting perspectives of the person and / or the object can be obtained by means of the fisheye lens based on the monitoring data of a camera, and thus the evaluation stability when a person can be found can be improved. In particular, the interpersonal variance can be increased in this way.
Optional ist es vorgesehen, dass das Perspektivenbestimmungsmodul ausgebildet ist, einen Fischaugeneffekt in den Überwachungsbilder und/oder der Bildsequenz zu korrigieren. Insbesondere wird der Fischaugeneffekt mittels Dewarping-Methoden (Umbildung) korrigiert. Zur Korrektur des Fischaugeneffekts können beispielsweise Softwareanwendungen verwendet werden. Besonders bevorzugt ist es, dass der Fischaugeneffekt in den Überwachungsbildern und/oder in der Bildsequenz korrigiert wird bevor die Aufnahmeperspektive bestimmt wird. Beispielsweise werden dazu alle Überwachungsbilder der Bildsequenz korrigiert und anschließend in den korrigierten Bildern die Aufnahmeperspektive bestimmt, um daraus die Nutzbilder zu generieren. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass die verzerrenden Eigenschaften der Fischaugenobjektive korrigiert werden können und so weitere Auswertealgorithmen auf die korrigierten Bilder anwendbar sind.It is optionally provided that the perspective determination module is designed to correct a fisheye effect in the surveillance images and / or the image sequence. In particular, the fisheye effect is corrected using dewarping methods (reshaping). For example, software applications can be used to correct the fisheye effect. Especially it is preferred that the fisheye effect in the surveillance images and / or in the image sequence is corrected before the shooting perspective is determined. For example, all surveillance images of the image sequence are corrected and then the perspective of the image is determined in the corrected images in order to generate the useful images therefrom. This embodiment is based on the consideration that the distorting properties of the fisheye lenses can be corrected and so that further evaluation algorithms can be applied to the corrected images.
Eine Ausgestaltung der Erfindung sieht vor, dass das Perspektivenbestimmungsmodul ausgebildet ist, Personen und/oder Objekte in den Nutzbildern orientiert darzustellen. Orientiert bedeutet beispielsweise, eine Person und/oder ein Objekt aufrecht darzustellen. Hierzu können beispielsweise Algorithmen des Personen-Alignment verwendet werden. Beispielsweise ist das Perspektivenbestimmungsmodul ausgebildet, eine detektierte und/oder bewegende Person so in ein Bild, insbesondere Nutzbild, zu projizieren, dass diese aufrecht in einer Boundingbox steht. Insbesondere kann es vorgesehen sein, dass nach dem Orientieren der Person im Nutzbild der Fischaugeneffekt durch das Perspektivenbestimmungsmodul korrigiert wird.An embodiment of the invention provides that the perspective determination module is designed to represent people and / or objects in the useful images in an oriented manner. Oriented, for example, means displaying a person and / or an object upright. Algorithms of person alignment can be used for this purpose, for example. For example, the perspective determination module is designed to project a detected and / or moving person into an image, in particular a useful image, in such a way that it stands upright in a bounding box. In particular, it can be provided that after orienting the person in the useful image, the fisheye effect is corrected by the perspective determination module.
Besonders bevorzugt ist es, dass das Personenwiedererkennungsmodul ausgebildet ist, die bewegende Person und/oder das bewegende Objekt zu tracken. Beispielsweise kann das Tracken eine Bestimmung des Pfades und/oder der Geschwindigkeit der Person und/oder des Objektes umfassen. Das Tracken kann insbesondere von dem Personenwiedererkennungsmodul nutzbar sein den weiteren Pfad und/oder Weg in die Zukunft zu extrapolieren. Insbesondere ist es vorgesehen, dass das Ausrichten der Person in den Nutzbildern auf einem vorherigen tracken der Person basiert. Durch das Kennen des Bewegungsablaufs kann auf eine Orientierung der Person und/oder des Objekts geschlossen werden und so in den Nutzbildern ausgerichtet dargestellt werden.It is particularly preferred that the person recognition module is designed to track the moving person and / or the moving object. For example, the tracking can include determining the path and / or the speed of the person and / or the object. The tracking can in particular be usable by the person recognition module to extrapolate the further path and / or path into the future. In particular, it is provided that the alignment of the person in the useful images is based on a previous track of the person. By knowing the sequence of movements, an orientation of the person and / or the object can be inferred and can thus be shown aligned in the useful images.
Insbesondere ist es vorgesehen, dass das Perspektivenbestimmungsmodul ausgebildet ist, basierend auf dem Tracken und/oder Trackingergebnissen, beispielsweise dem Pfad und/oder der Geschwindigkeit, darauf zu schließen, welche Aufnahmeperspektive in den jeweiligen Überwachungsbilder vorliegen. Ist beispielsweise bekannt, dass zu einem vergangenen Zeitpunkt die Person von vorne abgebildet wurde, kann basierend auf dem Tracking und/oder dem Pfad darauf geschlossen werden, dass zu einem späteren Zeitpunkt die Person in einer Rückaufnahme oder einer Seitenansicht zu sehen sein muss.In particular, it is provided that the perspective determination module is designed, based on the tracking and / or tracking results, for example the path and / or the speed, to infer which recording perspective is present in the respective surveillance images. If, for example, it is known that the person was imaged from the front at a past point in time, it can be concluded based on the tracking and / or the path that the person must be seen in a rear view or a side view at a later point in time.
Eine Ausgestaltung der Erfindung sieht vor, dass das Perspektivenbestimmungsmodul ausgebildet ist, die Aufnahmeperspektive basierend auf einem Machine-Learning Algorithmus, einen Computer Vision Algorithmus oder einem Deep-Learning-Verfahren zu bestimmen. Alternativ oder zusätzlich kann Geometrie und die getrackte Personentrajektorie verwendet werden. Insbesondere ist es vorgesehen, dass das Perspektivenbestimmungsmodul auf einem neuronalen Netz basiert, insbesondere einem rekurrenten und/oder gekoppelten neuronalen Netz.An embodiment of the invention provides that the perspective determination module is designed to determine the exposure perspective based on a machine learning algorithm, a computer vision algorithm or a deep learning method. Alternatively or additionally, geometry and the tracked person trajectory can be used. In particular, it is provided that the perspective determination module is based on a neural network, in particular a recurrent and / or coupled neural network.
Insbesondere ist es vorgesehen, dass die Überwachungsvorrichtung ein Merkmalsbestimmungsmodul aufweist. Insbesondere kann das Merkmalsbestimmungsmodul von dem Perspektivenbestimmungsmodul umfasst sein. Das Merkmalsbestimmungsmodul kann ein Hardwaremodul oder ein Softwaremodul bilden. Das Merkmalsbestimmungsmodul ist ausgebildet, basierend auf den Nutzbildern Personenmerkmale zu bestimmen. Insbesondere kann das Merkmalsbestimmungsmodul ausgebildet sein, für jedes Nutzbild Personenmerkmale zu bestimmen. Personenmerkmale sind beispielsweise Deskriptoren und/oder Features einer Person und/oder eines Objektes. Beispielsweise sind Personenmerkmale Farbverläufe, Kleidungsstücke, Haarfrisuren, Größenverhältnisse und/oder ein Geschlecht. Die Personenmerkmale sind insbesondere zur Bestimmung und/oder Charakterisierung einer Personensignatur geeignet. Das Personenwiedererkennungsmodul ist ausgebildet, die wiederzuerkennende Person basierend auf den Personenmerkmalen und dem Wiedererkennungsmerkmal zu suchen und/oder aufzufinden. Beispielsweise ist das Personenwiedererkennungsmodul ausgebildet, die Personenmerkmale mit dem Wiedererkennungsmerkmal zu vergleichen und bei Vorliegen einer Übereinstimmung auf die wiederzufinden der Person zu schließen. Besonders bevorzugt ist es, dass das Merkmalsbestimmungsmodul als ein Machine-Learning, Computer Vision oder Deep-Learning Verfahren ausgebildet ist und/oder darauf passiert.In particular, it is provided that the monitoring device has a feature determination module. In particular, the feature determination module can be included in the perspective determination module. The feature determination module can form a hardware module or a software module. The feature determination module is designed to determine personal features based on the useful images. In particular, the feature determination module can be designed to determine personal features for each useful image. Person characteristics are, for example, descriptors and / or features of a person and / or an object. For example, personal characteristics are color gradients, clothing, hairstyles, proportions and / or a gender. The personal characteristics are particularly suitable for determining and / or characterizing a personal signature. The person recognition module is designed to search for and / or find the person to be recognized based on the person characteristics and the recognition characteristic. For example, the person recognition module is designed to compare the person characteristics with the recognition feature and, if there is a match, to conclude that the person can be found again. It is particularly preferred that the feature determination module is designed as a machine learning, computer vision or deep learning method and / or happens thereon.
Besonders bevorzugt ist es, dass die Überwachungsvorrichtung ein Fusionsmodul aufweist. Insbesondere ist das Fusionsmodul Teil des Merkmalsbestimmungsmoduls und/oder Teil des Perspektivenbestimmungsmoduls. Das Fusionsmodul ist ausgebildet, Personenmerkmale einer Person aus unterschiedlichen Nutzbildern, insbesondere Nutzbildern basierend auf der Bildsequenz einer einzelnen Kamera, zu einem Mastermerkmal zusammenzuführen. Beispielsweise kann das Fusionsmodul ausgebildet sein, einer Aufnahmeperspektive das vorliegende Personenmerkmale zuzuordnen. Das Personenwiedererkennungsmodul ist im Speziellen dazu ausgebildet, die wiederzuerkennende Person insbesondere basierend auf den Mastermerkmal und dem Wiedererkennungsmerkmal zu suchen. Dazu ist es beispielsweise vorgesehen, dass das Wiedererkennungsmerkmal analog zu den Mastermerkmal ausgebildet ist und beispielsweise den Wiedererkennungsmerkmalen ebenfalls eine Perspektive zugeordnet. Somit ist es beispielsweise möglich, dass das Personenwiedererkennungsmodul die wiederzuerkennende Person erst dann als gefunden meldet, wenn Personenmerkmale in unterschiedlichen Nutzbildern, insbesondere in den unterschiedlichen Perspektiven auf die Person wiedergefunden wurden.It is particularly preferred that the monitoring device has a fusion module. In particular, the fusion module is part of the feature determination module and / or part of the perspective determination module. The fusion module is designed to combine personal characteristics of a person from different useful images, in particular useful images based on the image sequence of an individual camera, into a master feature. For example, the fusion module can be designed to assign the present personal characteristics to a recording perspective. The person recognition module is specifically designed to search for the person to be recognized in particular based on the master feature and the recognition feature. It is for that For example, provision is made for the recognition feature to be designed analogously to the master feature and for example also to assign a perspective to the recognition features. It is thus possible, for example, that the person recognition module only reports the person to be recognized as having been found when person characteristics have been found in different useful images, in particular in the different perspectives of the person.
Eine weitere Ausgestaltung der Erfindung sieht vor, dass die Überwachungsvorrichtung ein Personenbildfusionsmodul aufweist. Das Personenbildfusionsmodul ist ausgebildet, basierend auf den Nutzbildern für eine Person ein Masternutzbild zu generieren, wobei von dem Masternutzbild ein Fusionspersonenmerkmal bestimmt wird. Das Personenwiedererkennungsmodul ist dabei ausgebildet, die wiederzuerkennende Person basierend auf dem Fusionspersonenmerkmal und/oder den Fusionspersonenmerkmalen und dem Wiedererkennungsmerkmal zu suchen und/oder aufzufinden.Another embodiment of the invention provides that the monitoring device has a person image fusion module. The personal image fusion module is designed to generate a master useful image for a person based on the useful images, a master person characteristic being determined by the master useful image. The person recognition module is designed to search for and / or to find the person to be recognized based on the fusion personal characteristic and / or the fusion personal characteristics and the recognition characteristic.
Als Methoden des Fusionsmoduls und/oder das Personenbildfusionsmodul werden insbesondere unterschiedliche Fusionsverfahren verwendet. Beispielsweise kann eine early fusion Strategie oder eine late fusion Strategie oder eine hybride fusions Strategie verwendet werden. Alternativ und/oder ergänzend kann eine Deep-Learning Strategie zur Anwendung kommen. Für eine early fusion Strategie werden Überwachung- und/oder Nutzbilder oder Merkmale aus den Überwachungs- und/oder Nutzbilder zuerst zusammengefasst und anschließend ein resultierender Merkmalsvektor generiert, welcher zur Wiederfindung der Person verwendet wird und beispielsweise mit dem Wiedererkennungsmerkmal verglichen wird. Bei einer late fusion Strategie werden die Wiedererkennungsmerkmale separat für jedes Überwachung- und/oder Nutzbild, verglichen und anschließend erst die Fusion durchgeführt.Different fusion methods are used in particular as methods of the fusion module and / or the personal image fusion module. For example, an early fusion strategy or a late fusion strategy or a hybrid fusion strategy can be used. As an alternative and / or in addition, a deep learning strategy can be used. For an early fusion strategy, surveillance and / or useful images or features from the surveillance and / or useful images are first combined and then a resulting feature vector is generated, which is used to find the person and is compared, for example, with the recognition feature. In the case of a late fusion strategy, the recognition features are compared separately for each surveillance and / or useful image, and only then is the fusion carried out.
Beispiel für eine early fusion Strategie ist beispielsweise die Generierung eines Superbildes. Beispielsweise ist das Superbild das Masternutzbild. Dazu wird beispielsweise aus dem und/oder als Nutzbildtripple drei Nutzbilder gleicher Größe, beispielsweise Pixelanzahl generiert. Der Merkmalsvektor für eine Person in einer Kamera kann beschrieben werden als
Ein weiteres Verfahren der early fusion Strategie kann beispielsweise die Merkmalskonzentration bilden. Im Gegensatz zur vorherigen beschriebenen Strategie werden die Merkmale zuerst von den Nutzbildern extrahiert, wobei anschließend die drei Merkmale zu einem Hauptmerkmalsvektor konzentriert werden, wobei der Hauptmerkmalsvektor mit den Wiedererkennungsmerkmalen zur Wiedererkennung der Person verwendet wird. Der Hauptwiedererkennungsvektor kann beschrieben werden als
Auch kann eine deep Fusion Strategie angewendet werden. Hierbei wird mit Hilfe von Trainingsdaten eine Fusion mit Hilfe von Machine oder Deep Learning erlernt.A deep fusion strategy can also be used. A fusion using machine or deep learning is learned with the help of training data.
Besonders bevorzugt ist es, dass die Kamera ein Montagemittel aufweist. Das Montagemittel ist zur Anordnung und/oder Befestigung der Kamera in dem Überwachungsbereich, insbesondere an einer Decke des Überwachungsbereichs ausgebildet. Vorzugsweise ist das Montagemittel so ausgebildet, dass die Kamera den Überwachungsbereich in einer Vogelperspektive aufnimmt. Insbesondere wird die Kamera durch das Montagemittel so im Überwachungsbereich befestigt, dass die optische Achse der Kamera senkrecht zu Bodenebene des Überwachungsbereichs steht. Dieser Ausgestaltung liegt die Überlegung zugrunde, dass durch die Anordnung der Kamera in Vogelperspektive mehrere Perspektiven einer Person in den Nutzbildern generiert werden kann, sofern sich die Person im Raum bewegt.It is particularly preferred that the camera has a mounting device. The mounting means is designed to arrange and / or attach the camera in the monitoring area, in particular on a ceiling of the monitoring area. The mounting means is preferably designed such that the camera captures the surveillance area from a bird's eye view. In particular, the camera is fastened in the monitoring area by the mounting means such that the optical axis of the camera is perpendicular to the floor level of the monitoring area. This embodiment is based on the consideration that, by arranging the camera in a bird's eye view, several perspectives of a person can be generated in the useful images if the person is moving in space.
Eine Ausgestaltung der Erfindung sieht vor, dass Überwachungsvorrichtung eine weitere optische Sensoreinheit aufweist. Beispielsweise ist die weitere optische Sensoreinheit eine Überwachungskamera, insbesondere Überwachungskamera ohne Fischaugenobjektiv. Die weitere optische Sensoreinheit ist ausgebildet, den Überwachungsbereich und/oder den Abschnitt des Überwachungsbereichs bildtechnisch zu überwachen und Zusatzbilddaten der Überwachung bereitzustellen. Das Personenwiedererkennungsmodul ist vorzugsweise ausgebildet, zur Wiedererkennung der Person basierend auf den Überwachungsbildern zusätzlich die Zusatzbilddaten heranzuziehen. Diese Ausgestaltung liegt die Überlegung zugrunde, eine robustere Überwachungsvorrichtung bei der Wiedererkennung der Person bereitstellen zu können.One embodiment of the invention provides that the monitoring device has a further optical sensor unit. For example, the further optical sensor unit is a surveillance camera, in particular surveillance camera without a fisheye lens. The further optical sensor unit is designed to monitor the monitoring area and / or the section of the monitoring area using imaging technology and to provide additional image data for monitoring. The person recognition module is preferably designed to additionally use the additional image data to recognize the person based on the surveillance images. This design is based on the consideration, a more robust one To be able to provide monitoring device for the recognition of the person.
Einen weiteren Gegenstand der Erfindung bildet ein Verfahren zur Überwachung eines Überwachungsbereiches und/oder zum Wiederfinden einer wiederzufinden Person in dem Überwachungsbereich. Dabei ist es vorgesehen, den Überwachungsbereich mit einer Kamera bildtechnisch zu überwachen, wobei die Kamera ein Fischaugenobjektiv aufweist und damit den Überwachungsbereich überwacht und/oder abbildet. Basierend auf den mit dem Fischaugenobjektiv aufgenommenen Überwachungsbildern wird die wiederzuerkennende Person im Überwachungsbereich gesucht. Insbesondere kann das Verfahren vorsehen, dass durch die Überwachung des Überwachungsbereichs mit der Kamera basierend auf der Aufnahme mit dem Fischaugenobjektiv, Nutzbilder generiert werden und/oder gesammelt werden, welche die Person die sich im Überwachungsbereich bewegt aus unterschiedlichen Perspektiven zeigt.Another object of the invention is a method for monitoring a surveillance area and / or for finding a person to be found again in the surveillance area. It is provided to monitor the surveillance area with a camera, the camera having a fisheye lens and thus monitoring and / or imaging the surveillance area. Based on the surveillance images taken with the fisheye lens, the person to be recognized is sought in the surveillance area. In particular, the method can provide that, by monitoring the monitoring area with the camera, based on the recording with the fisheye lens, useful images are generated and / or collected, which shows the person moving in the monitoring area from different perspectives.
Vorzugsweise umfasst die Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich ein unbemanntes Luftfahrzeug, wobei die zumindest ein Fischaugenobjektiv aufweisende Kamera an dem unbemannten Luftfahrzeug angeordnet ist. Zusätzlich ist vorgesehen, dass das Personenwiedererkennungsmodul und/oder das Perspektivenbestimmungsmodul und/oder das Merkmalbestimmungsmodul und/oder das Fusionsmodul und/oder das Personenbildfusionsmodul in dem unbemannten Luftfahrzeug angeordnet ist. Besonders bevorzugt wird beim Verfahren zur Personenwiedererkennung die Bildsequenz des Überwachungsbereichs während eines Überfluges des unbemannten Luftfahrzeuges aufgenommen, wobei aus der aufgenommenen Bildsequenz mindestens zwei Nutzbilder, insbesondere drei Nutzbilder, generiert werden, wobei die Nutzbilder die Person in unterschiedlichen Aufnahmeperspektiven zeigt. The monitoring device for person recognition preferably comprises an unmanned aircraft in a monitoring area, the camera having at least one fisheye lens being arranged on the unmanned aircraft. In addition, it is provided that the person recognition module and / or the perspective determination module and / or the feature determination module and / or the fusion module and / or the person image fusion module is arranged in the unmanned aircraft. In the method for person recognition, the image sequence of the surveillance area is particularly preferably recorded during an overflight of the unmanned aerial vehicle, at least two useful images, in particular three useful images, being generated from the recorded image sequence, the useful images showing the person in different recording perspectives.
Ein unbemanntes Luftfahrzeug zeichnet sich dadurch aus, dass sich keine Personen zur Steuerung an Bord des Luftfahrzeuges befinden. Stattdessen wird das unbemannten Luftfahrzeug mittels eines an Bord befindlichen Computers autonom und/oder über eine Fernsteuerung durch einen Piloten gesteuert. Vorzugsweise ist das unbemannte Luftfahrzeug als ein Hubschrauber, insbesondere als ein Quadrokopter, ausgebildet. Diese Überwachungsvorrichtung bzw. dieses Verfahren zur Personenwiedererkennung haben den Vorteil, dass Drohnen nur einmal über Menschenansammlungen fliegen müssen und die aufgenommenen Überwachungsbilder verwendet werden können um Personen aus unterschiedlichen Ansichten analysieren zu können. Durch die Fischaugenlinse können beim Überflug unterschiedliche Ansichten der Person erstellt werden. Die Drohne muss hierzu nur ein einziges Mal über die Person fliegen und keine spezielle Trajektorie abfliegen. In vorteilhafter Weise ist es so einfach möglich, sowohl eine Vorder- als auch eine Rückansicht einer Person zu erzeugen. Durch eine Vorder- und Rückansicht wird die Personenwiedererkennung verbessert, da Personen in Allgemeinen vorne anders aussehen als rückseitig. Beispielsweise sind Haare, die zu einem Zopf gebunden sind, in dieser Form nur von hinten sichtbar, während ein Shirt unter einem Sakko nur von vorne sichtbar ist. Diese Überwachungsvorrichtung bzw. das Verfahren mit einer Drohne zur Personenwiedererkennung ist besonders zum Einsatz durch die Polizei bei Großveranstaltung mit einer großen Anzahl an Personen geeignet. Durch die Integration der Fischaugenkamera in der Drohne, wird vorteilhaft die Flugzeit der Drohnen reduziert, da die Nutzbilder der Personen in unterschiedlichen Aufnahmeperspektiven schneller generiert werden können. Dies trägt dazu bei, den Energieverbrauch beim Einsatz der Drohnen zu reduzieren. Patrouille-fliegende Drohnen können daher länger arbeiten bis sie neu geladen werden müssen. Die Anzahl der Drohnen kann daher für Großveranstaltungen reduziert werden. In vorteilhafter Weise wird die Überwachungsvorrichtung mit Drohne zusammen mit stationären Wiedererkennungssystemen verwendet. Wenn eine Person sich beispielsweise in einem stationären Wiedererkennungssystem in einer Vorderansicht registriert hat und wiedergefunden werden soll, muss nur einmal der Suchbereich abgeflogen werden unabhängig von der Bewegungsrichtung der Personen im Suchfeld, um alle notwendigen Ansichten der Person zu erhalten. In einer Variante ist die Überwachungsvorrichtung derart ausgestaltet, dass in einem ersten Verfahrensschritt zunächst in größerem räumlichen Abstand zur Person nur nach gleichen Farbmerkmalen gesucht wird. In einem zweiten Verfahrensschritt fliegt die Drohne näher an durch übereinstimmende Farbmerkmale vorausgewählte Personen heran, um höher aufgelöste Aufnahmen der vorausgewählten Person bereitzustellen. Wird beispielsweise nach einer Person in grün gesucht und wurde eine Person in grün gefunden, kann die Drohne näher an die Person fliegen und höher aufgelöste Aufnahmen bereitstellen, ohne dass die Drohne einen zweiten Überflug durchführen muss. Hierbei ist dann eine Körperseite der Person höher aufgelöst als die andere, jedoch können beide Seiten zur Wiedererkennung und frühzeitigen Suchraumreduktion verwenden werden.An unmanned aircraft is characterized by the fact that there are no persons on board the aircraft for control purposes. Instead, the unmanned aircraft is controlled autonomously by a computer on board and / or by a pilot via remote control. The unmanned aerial vehicle is preferably designed as a helicopter, in particular as a quadrocopter. This monitoring device and this method for person recognition have the advantage that drones only have to fly over crowds of people once and the recorded surveillance images can be used to analyze people from different perspectives. With the fisheye lens, different views of the person can be created during the overflight. The drone only has to fly over the person once and does not have to fly a special trajectory. Advantageously, it is easily possible to generate both a front and a rear view of a person. Front and rear views improve person recognition, as people generally look different in the front than in the back. For example, hair that is tied into a braid is only visible from behind in this form, while a shirt under a jacket is only visible from the front. This monitoring device or the method with a drone for person recognition is particularly suitable for use by the police at large events with a large number of people. By integrating the fisheye camera in the drone, the flight time of the drones is advantageously reduced, since the useful images of the people can be generated more quickly in different shooting perspectives. This helps to reduce energy consumption when using the drones. Patrol-flying drones can therefore work longer until they have to be reloaded. The number of drones can therefore be reduced for large events. The monitoring device with a drone is advantageously used together with stationary recognition systems. For example, if a person has registered in a stationary recognition system in a front view and is to be found again, the search area only has to be flown once, regardless of the direction of movement of the people in the search field, in order to obtain all the necessary views of the person. In a variant, the monitoring device is designed in such a way that, in a first method step, only the same color features are searched for at a greater spatial distance from the person. In a second procedural step, the drone flies closer to people preselected by matching color features in order to provide higher-resolution images of the preselected person. For example, if a person is searched for in green and a person in green was found, the drone can fly closer to the person and provide higher-resolution images without the drone having to perform a second flyover. One side of the person's body is then more highly resolved than the other, but both sides can be used for recognition and early search space reduction.
Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
-
1 ein Ausführungsbeispiel einer Überwachungsvorrichtung; -
2 Beispiel eines Strahlengangs einer Kamera mit Fischaugenobjektiv bei Verwendung eines Non-Single-Viewpoint-Projektionsmodells; -
3 Beispiel eines Überwachungsbildes.
-
1 an embodiment of a monitoring device; -
2nd Example of a beam path of a camera with a fisheye lens when using a non-single viewpoint projection model; -
3rd Example of a surveillance image.
Die Kamera
Die Kamera
Das Perspektivenbestimmungsmodul
Als Aufnahmeperspektive werden Ansichten auf die Person verstanden, insbesondere ob die Person von vorne gezeigt ist, von hinten gezeigt ist oder seitlich gezeigt ist. Beispielsweise wird vom Perspektivenbestimmungsmodul
Das Perspektivenbestimmungsmodul
Das Perspektivenbestimmungsmodul
Dem Personenwiedererkennungsmodul
Der Winkel
Durch diese verzehrenden Eigenschaften des Fischaugenobjektivs
In einer Variante des beschriebenen Ausführungsbeispiels ist die als Fischaugenkamera ausgebildete Kamera an einem unbemannten Flugfahrzeug (Drohne), insbesondere an einem Hubschrauber, angeordnet. Die Überwachungseinrichtung zur Personenwiedererkennung in einem Überwachungsbereich ist eingerichtet, Personen aus Drohnensicht wiederzuerkennen. Die als Fischaugenkamera bzw. omnidirektionale Kamera ausgebildete Kamera ist hierbei in Nadir an der Drohne montiert. Dabei ist vorgesehen, dass die Drohne mit der Fischaugenkamera bzw. omnidirektionaler Kamera über eine Menschenansammlung fliegt. Dabei wird die Person bedingt durch die fischaugenartige Projektion der Linse aus unterschiedlichen Ansichten aufgenommen. Dabei ist vorgesehen, dass sich die Person durch die Szene bewegt und/oder dass sich die Drohne relativ zu der Person bewegt. Ferner ist vorgesehen, dass die aufgenommenen Überwachungsbilder einer Verzeichnungskorrektur unterzogen werden und dass aus den aufgenommenen Überwachungsbildern in Form einer Vollaufnahme mindestens zwei Nutzbilder, vorzugsweise drei Nutzbilder, der Person herausgeschnitten werden. Vorzugsweise zeigen die drei Nutzbilder die Person einmal von vorne, einmal von der Seite und einmal von hinten. Im Übrigen ist die Überwachungsvorrichtung zur Personenwiedererkennung in einem Überwachungsbereich mit Drohne zumindest teilweise wie die vorstehend mit Bezug auf die
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- EP 2189955 B1 [0004]EP 2189955 B1 [0004]
Claims (17)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/576,855 US10984502B2 (en) | 2018-09-20 | 2019-09-20 | Monitoring apparatus for person recognition and method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018216028 | 2018-09-20 | ||
DE102018216028.7 | 2018-09-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019212978A1 true DE102019212978A1 (en) | 2020-03-26 |
Family
ID=69725632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019212978.1A Pending DE102019212978A1 (en) | 2018-09-20 | 2019-08-29 | Monitoring device for person recognition and method |
Country Status (2)
Country | Link |
---|---|
US (1) | US10984502B2 (en) |
DE (1) | DE102019212978A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202681A1 (en) | 2021-03-19 | 2022-09-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Detection device for recognizing an object and/or a person, method, computer program and storage medium |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7440332B2 (en) * | 2020-04-21 | 2024-02-28 | 株式会社日立製作所 | Event analysis system and method |
CN112418127B (en) * | 2020-11-30 | 2022-05-03 | 浙江大学 | Video sequence coding and decoding method for video pedestrian re-identification |
US12322075B2 (en) * | 2021-02-05 | 2025-06-03 | Motorola Solutions, Inc. | Device, method and system for identifying objects in warped images from a fisheye camera |
EP4466683A4 (en) * | 2022-05-16 | 2025-06-04 | Samsung Electronics Co., Ltd | SYSTEMS AND METHODS FOR RECOGNIZING HUMAN ACTIONS WITHOUT LINE OF VIEW |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008043954A1 (en) | 2008-11-21 | 2010-05-27 | Robert Bosch Gmbh | Sensor network system, transmission protocol, method for recognizing an object and computer program |
CN102395994B (en) * | 2010-03-18 | 2015-06-10 | 松下电器产业株式会社 | Omnidirectional image processing device and omnidirectional image processing method |
EP3446281A1 (en) * | 2016-04-21 | 2019-02-27 | OSRAM GmbH | Training method and detection method for object recognition |
US20180204331A1 (en) * | 2016-07-21 | 2018-07-19 | Gopro, Inc. | Subject tracking systems for a movable imaging system |
US11176382B2 (en) * | 2017-03-06 | 2021-11-16 | Conduent Business Services, Llc | System and method for person re-identification using overhead view images |
US10599950B2 (en) * | 2017-05-30 | 2020-03-24 | Google Llc | Systems and methods for person recognition data management |
-
2019
- 2019-08-29 DE DE102019212978.1A patent/DE102019212978A1/en active Pending
- 2019-09-20 US US16/576,855 patent/US10984502B2/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202681A1 (en) | 2021-03-19 | 2022-09-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Detection device for recognizing an object and/or a person, method, computer program and storage medium |
GB2607399A (en) * | 2021-03-19 | 2022-12-07 | Bosch Gmbh Robert | Detection device for detecting an object and/or a person, as well as method, computer program, and storage medium |
US12300030B2 (en) | 2021-03-19 | 2025-05-13 | Robert Bosch Gmbh | Detection device for recognizing an object and/or a person, method, computer program and storage medium |
GB2607399B (en) * | 2021-03-19 | 2025-07-09 | Bosch Gmbh Robert | Detection device for detecting an object and/or a person, as well as method, computer program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
US20200098085A1 (en) | 2020-03-26 |
US10984502B2 (en) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019212978A1 (en) | Monitoring device for person recognition and method | |
DE69226512T2 (en) | Image processing method | |
DE69707886T2 (en) | METHOD AND DEVICE FOR LOCATING A MOVING ZONE AND DETERMINING THE FASTNESS AND DIRECTING THE MOVEMENT OF A AREA OF RELATIVE MOVEMENT IN A SCENE | |
EP2464098B1 (en) | Vicinity presentation device, a vehicle with such a vicinity presentation device and method for displaying a panorama image | |
DE112018001050T5 (en) | SYSTEM AND METHOD FOR VIRTUALLY ENHANCED VISUAL SIMULTANEOUS LOCALIZATION AND CARTOGRAPHY | |
DE102012112322A1 (en) | Method for optically scanning and measuring an environment | |
DE112016001150T5 (en) | ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES | |
DE112011105371T5 (en) | Apparatus for synthesizing three-dimensional images for visualizing the vehicle environment and associated method | |
DE112014001658T5 (en) | A tracking processing device and tracking processing system equipped therewith and tracking processing methods | |
DE112017007303B4 (en) | Facial recognition device | |
DE102010037169A1 (en) | Unlimited spatially oriented field of view display device | |
DE19955714A1 (en) | Method and apparatus for photographing / recognizing a face | |
DE112019007390T5 (en) | Method, device and computer program for tracking moving objects | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
EP2350977B1 (en) | Method for combining at least two images to form a panoramic image | |
DE102019105630B4 (en) | Display control device, vehicle surroundings display system and computer program | |
DE102019123220A1 (en) | Summarize videos from multiple moving video cameras | |
DE102009026091A1 (en) | Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera | |
DE112021005409T5 (en) | SAFETY VISION DEVICE AND SAFETY VISION SYSTEM | |
DE102008024732A1 (en) | Method for creating stereoscopic temporary perspective in medical-optical observation device, involves determining displacement vector field from two images with different perspectives, where image is provided in one perspective | |
DE102017109106B4 (en) | Surveillance system and video display method | |
DE102021213757B3 (en) | Method for fusing image data in the context of an artificial neural network | |
DE102006060612B4 (en) | Method for monitoring target objects and multispectral camera | |
DE102020122908A1 (en) | Method for displaying surroundings of a vehicle on a display device, processing unit and vehicle | |
EP3449463A1 (en) | Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R082 | Change of representative |
Representative=s name: WINTER, BRANDL - PARTNERSCHAFT MBB, PATENTANWA, DE |