[go: up one dir, main page]

WO2023186350A1 - Unbemanntes fluggerät zur optischen gebietserfassung - Google Patents

Unbemanntes fluggerät zur optischen gebietserfassung Download PDF

Info

Publication number
WO2023186350A1
WO2023186350A1 PCT/EP2023/025142 EP2023025142W WO2023186350A1 WO 2023186350 A1 WO2023186350 A1 WO 2023186350A1 EP 2023025142 W EP2023025142 W EP 2023025142W WO 2023186350 A1 WO2023186350 A1 WO 2023186350A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sensors
data
image data
sensor head
Prior art date
Application number
PCT/EP2023/025142
Other languages
English (en)
French (fr)
Inventor
Gerhard Bonnet
Original Assignee
Spheron-VR AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spheron-VR AG filed Critical Spheron-VR AG
Publication of WO2023186350A1 publication Critical patent/WO2023186350A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to the preamble and therefore relates to the optical detection of large areas.
  • Digital aerial images represent a valuable resource for a variety of industrial value chains and for a wide range of applications by government and other organizations, particularly those with security responsibilities. There are a number of applications in which it makes sense to search a certain area optically. Mention should be made of (time-critical) tasks such as counting, qualifying, monitoring or searching: This includes, among other things, the search for specific objects within an area that can only be roughly defined, which is necessary, for example, when the wreckage of a ship or aircraft is found in the open sea or survivors of a disaster or intruders or attackers are to be tracked down in impassable terrain.
  • an “object” is also understood to mean a person or group of people, provided that is what is being searched for.
  • the areas to be searched are often several square kilometers in size. Since many users are fundamentally concerned with the speed and reliability of recognizing objects or image features (“features”), it is important for the aerial image resource to be able to be obtained promptly, reliably and yet efficiently. Therefore, detection should be carried out in quasi-real time if possible - which typically requires an expert to carry out a surveillance flight and concentrate on viewing a telemetry video data stream; Alternatively, classic methods of - often: multispectral - image processing can also be considered.
  • Drones for such search purposes can capture comparatively high-quality images using a camera and send the optical data to an operator via telemetry.
  • Drones for such search purposes raises a number of problems.
  • the operator usually has to evaluate the optical data in real time. This requires a consistently high concentration of the operator;
  • a reliable assessment requires sufficiently high-resolution images. It has already been proposed to support the search with such unmanned aircraft using computers.
  • a computer-based system is known from WO 2019/011 205, in which aerial images taken with an unmanned aircraft are annotated and the computerized system comprises the following: an unmanned airworthy object with an image recording module for recording a stream of aerial images, which a render ground-based region; and a ground-based terminal communicatively connected to the drone via a communication line and arranged to receive the stream of aerial images from the unmanned manned airborne device via the communication line, the ground-based terminal comprising: a control module for controlling the image capture - module of the unmanned aerial vehicle via the communication line to capture an aerial image of an object of interest in the ground-based region reflected in the aerial image stream and transmit the captured aerial image of the feature from the image capture module to the base station via the communications link; an annotation module arranged to associate annotation information with the aerial image of the feature or object of interest to produce an annotated aerial image of the object; a memory for storing the annotated aerial photo.
  • Important parameters and parameters can be: the range of the unmanned aircraft, the accuracy of the position detection, the maximum flight speed, for example through flight altitude, flight speed, flight flight profile to be characterized by the path or raster, the respective imaging pipeline, which not only depends on how the camera is attached to the missile, including the accuracy of a tilt-pan-zoom setting, for example using a so-called pan-tilt-zoom gimbal as well the exactness of the alignment and alignment accuracy during the flight of a flight profile, but also on how many pixels images can be taken, what spectral sensitivity is present, in which lighting conditions objects can still be captured, what frame rates can be achieved or how, if applicable, the image Data flow needs to be compressed, which in turn depends on the quality of the telemetry link and thus on the transfer rate and range.
  • One possibility is to reduce the observation field somewhat, which means that a sufficient number of pixels and thus a usable resolution is still available for an object of a given size, but the observation field is reduced and the time required to capture an area of a given size is significantly extended.
  • the resulting problem can be reduced to a certain extent by using a lens with a comparatively long focal length to observe in the direction of flight. By swiveling this long focal length lens back and forth and tilting it slightly, an object that only briefly appears in the image and which there is a suspicion that it might be interesting can be observed over a slightly longer distance and also captured from different viewing directions . You can also zoom in on an object if necessary. This allows the operator to identify an object by appropriate panning, tilting and zooming.
  • Reliability is reduced, for example, by the fact that searched objects are not recognized because they were not recorded with a high enough resolution, or by the fact that a PTZ lens is currently looking in a completely different direction, meaning that the object to be detected is simply overlooked.
  • a drone can be in the right place but looking in the “wrong” direction;
  • a zoom can be set too wide so that objects can no longer be recognized.
  • HFD horizontal field of view
  • the benefit for a given observation approach is always limited by the fact that the size of the sampled area and the reliability that can be achieved cannot be increased arbitrarily and, above all, not independently of one another: the reliability usually decreases if A larger area can be monitored in the same time, while the number can also shrink if only a very small area is monitored.
  • US 2021/0 209 331 Al which includes a computer-implemented method in which a machine model is trained to create non-natural object arrangements in one Identify image, the model is used to analyze images captured during a drone flight and, based on the appearance of a natural object, the flight plan of the unmanned autonomous aircraft is automatically changed to perform an additional search.
  • the object of the present invention is to provide something new for commercial use.
  • an area detection device in particular a sensor head for optical area detection from the air, is proposed, with a plurality of image sensors whose fields of view jointly cover an area and which repeatedly record images, and which are preferably fixed and/or preferably in particular mechanically relative to one another are mounted immovably relative to an aircraft carrying the sensor head, an image storage unit for at least temporarily storing image data representative of the images in a recording from the image sensors, - preferably wireless - data transmission means with a data transmission bandwidth which, for example, can be lower than that required for Complete transmission of all image data of a captured image is required within the period of time until the next image capture, this area detection device being designed in such a way that it comprises an image evaluation unit for the automated search for objects in the image data and for defining sections containing a potentially interesting object, whereby the data transmission means are designed to transmit image data from the output containing a potentially interesting object sections and/or position data, preferably using self-locating methods, to transmit certain position data of objects of interest, in particular wirelessly,
  • a large number of sensors can also be used. Typically, more than 6, in particular more than 12, in particular 24 or 48 sensors can easily be used on the filing date, which record a correspondingly high-resolution image. These can also be recorded with high dynamics, which further improves the probability of detection, especially where there are areas of very different brightness. It is already possible to cover a full hemisphere or even a slightly larger area.
  • filters could be defined to search for wreckage from an aircraft accident, people, machines such as tanks, animals, etc. and these could be selected depending on the mission.
  • suitable filters generated by machine learning methods such as neural filters, are stored in a database and can be loaded into the area detection device according to the invention via a suitable interface.
  • suitable filters generated by machine learning methods such as neural filters, are stored in a database and can be loaded into the area detection device according to the invention via a suitable interface.
  • different filters can be stored for one and the same objects.
  • a heat signature detected with an infrared sensor which indicates the presence of a living being in the field of vision, can be checked using the optical sensors to determine whether it is likely to have come from a human; Likewise, the heat signature can be used to check whether an image section that may contain a human being is likely to show a living human being.
  • Another useful application of linking image data from different sensors is when searching for water areas using image sensors that are preceded by differently oriented polarization filters.
  • the database can be completely stored in the sensor head or only parts of the database are imported into the sensor head for a respective mission.
  • objects to be searched for during a mission can be changed, either by selecting from among different filters loaded into the sensor head before the start of the mission or by transmitting new filters from a base.
  • one hemisphere or more can be captured simultaneously with each frame with the disclosed arrangement, a human observer is not overwhelmed by the flood of images flowing in from the arrangement.
  • the probability of recognition increases because the human observer only has to concentrate on preselected, potentially interesting objects and only has to evaluate whether they are actually relevant or irrelevant. (That it is possible, on the basis of the human observer's assessment of objects as actually relevant or irrelevant, to permanently determine the image examination method used in the mobile area detection device itself, for example the filters used in a neural network or an AI machine learning algorithm to refine and improve, it should be mentioned; it should also be noted that this does not have to happen in real time, but can happen later if necessary.
  • the sensor head with an accelerometer, in particular a triaxial accelerometer, and/or with absolute and/or relative position determination means, in particular a GPS sensor or several GPS sensors or GNSS sensor(s). Alternatively, communication can also take place with other stations that enable triangulation.
  • Such sensor head-specific localization and/or orientation determination means improve the possibilities of locating objects found without having to rely on information from the drone, in particular with simultaneous position determination and mapping.
  • an accelerometer in the sensor head, even if a comparable accelerometer is already integrated in the actual drone body, the self-sufficiency of the sensor head is improved, which allows it to be used more quickly on almost any drone without much effort.
  • An accelerometer is useful for determining not only absolute tilts and positions, but also changes in them from shot to shot.
  • the independent determination of inclinations is particularly useful because a current inclination can be better coordinated with the recording time and because exact knowledge of the inclination - especially in the event of air turbulence, etc. during the flight - makes it easier to identify one and the same object in successive ones to track and capture images more accurately.
  • absolute localization is advantageous in order to find certain, in particular stationary, objects that were detected in an area or are suspected based on the optical image data.
  • the sensor head with its own transmitting/receiving means, which in particular has sufficient broadband to transmit image sections with objects identified in the sensor head as potentially of interest to a base station via a telemetry link, but which does not have enough broadband, to transmit all recorded images in full resolution, color depth and dynamics within a available period of time, even at the maximum distance to the base.
  • the maximum time available for a single drone is determined by the frame rate; this is reduced for several drones for a search time available to each drone if all drones share the transmission channels.
  • the telemetry link is so bandwidth-limited that a local (pre-)selection of relevant image material is required for an examination of potentially interesting images in almost real time at a base station. It is disclosed that this local selection of relevant image material should be made locally in the sensor head.
  • the sensor head is designed to communicate with one or more base stations via WLAN, 4G or 5G.
  • a flight mission can be supported, for example, from a base by evaluating images obtained there in order to instruct the pilot to change flight direction or to point out special features to a rescue team on board a helicopter.
  • a helicopter or the like it is even possible to attach the sensor head to a helicopter or the like and to take an operator, i.e. a person who is responsible for the final assessment of the image sections as relevant or irrelevant, on board. In such a case, the transmission obviously does not need to be wireless.
  • the sensor head with a storage means on which all images recorded during a surveillance flight are stored in full resolution, color depth and dynamics, in particular together with the associated accelerometer data or data derived therefrom, such as a position difference to previous image etc..
  • a position recorded with one or more GPS sensors or GNSS sensors can be stored.
  • Inclinometers, gyroscopes, magnetometers, etc. can also be provided. It is particularly preferred if at least relative XYZ coordinates and three angles describing a spatial orientation (typically referred to as omega, phi, theta) are stored for each image.
  • GIS data is connected to a map and with position data integrated with certain descriptive information - such as image sections or comments on them.
  • the sensor head It is possible to equip the sensor head with at least one type of image sensor selected from VIS, thermal / MWIR / LWIR. It would also be possible to record two images that practically completely overlap with per se the same sensor types, but these same sensor types are then placed in front of differently oriented polarization filters, which makes it easier to identify reflective surfaces such as water surfaces. It is possible and preferred to enable at least a hemispheric field of view detection for at least one type of sensor.
  • At least a hemispherical field of view can be recorded with the first type of sensor and a smaller field of view can be made possible with the second type of sensor, for example because a video stream is to be generated when looking in the direction of flight in order to enable a drone To enable operator to control the trajectory.
  • at least hemispherical field of view detection is made possible with each or more sensor types. It should be mentioned that not all sensor types have to provide the same resolution and not all sensor types have to capture the same field of view with each individual sensor field.
  • the sensor head it is possible and preferred for the sensor head to capture more than just a hemispheric field of view. This is advantageous because in a flat landscape, even when the drone is tilted, it can still reach the Horizon can be seen and because even steep slopes can be clearly seen in hilly landscapes.
  • the sensor head it is possible and preferred to design the sensor head in such a way that images are captured at a fixed time interval and/or after covering a certain distance.
  • a new image can be taken every 2 seconds to every 15 seconds or every 5 m to every 100 m. This is sufficient to capture several images at typical flight altitudes and speeds and at image resolutions that can be sensibly implemented on the filing date, in which objects of a size that is traditionally of interest are depicted in a meaningful size.
  • the sensor head in such a way that images are stored in a format that enables a load on demand, in particular a load on demand of sections of a hemisphere that require an overlay of at least two sensor images.
  • the sensor head It is possible to design the sensor head to receive energy from the drone. With separate energy storage systems for the drone and sensor head, there is a risk that one energy storage system will already be exhausted, while the other can still be used for some time. Since energy storage devices are heavy, more weight must be flown than is sensible. If, on the other hand, the sensor head draws its energy from the drone, the weight resulting from energy storage can be optimally used. Unlike the transmission of data, such as position and orientation data and/or images between the drone and the sensor head, which could require quite complex intervention in the drone-controlling electronics, etc., the use of energy from the drone is generally possible without any problems. as long as the electrical parameters are kept within specified specifications, which is easily possible given the power typically required by the sensor head. In a preferred embodiment, the sensor head is independent of the drone except for the energy supply.
  • the sensor head it is possible and preferred to design the sensor head in such a way that it is attached to the drone in a detachable manner, in particular by screwing.
  • the sensor head can be designed for object recognition within the sensor head using artificial intelligence.
  • the sensor head is formed with a graphics card that is able to search for objects in the images or image data calculated therefrom using artificial intelligence algorithms. Protection is also claimed in particular for an area detection device designed as a drone and for a drone with a sensor head designed autonomously, in particular mounted, as an area detection device as described above.
  • Protection is further claimed for a method for searching for objects in an area to be monitored, wherein the area to be searched is flown over with at least one area detection device according to the invention, the image data within the area detection device being examined for the presence of objects of interest and image data of a potentially interesting one Object-containing sections and / or - preferably determined using self-location methods - position data of any objects of interest are transmitted wirelessly to a base.
  • SLAM Simultaneous Localization and Mapping
  • the processing of the recorded images into image data and the evaluation and transmission of the image data can include that raw image data is first processed, the actual image data obtained is saved on the one hand and examined on the other hand and further processed in such a way that relevant information can be transmitted to a base , the relevant information is transmitted to the base and there an assessment of the information or reaction to it is made possible.
  • the raw image data is read from the individual sensor elements. This can be done using a so-called frame grabber, which is known per se and which buffers the raw data in RAM if necessary. It should be mentioned that the data of all individual image sensor elements, such as all 24 or 48 sensor elements, are advantageously read out synchronously at the same time. Orientation and position data are also recorded at the same time.
  • Pre-processing can then be carried out to process the raw images.
  • defective pixels can be compensated for, a de-Bayering that is at least for visible light image sensors typically having Bayer filters, compensation for rolling shutter effects and rectification are carried out. All of these raw image data processing steps are known per se, but in the present case they are carried out on a suitable graphics card or with a suitable graphics GPU so quickly that there is still enough time until the next image capture to check the image data obtained in this way for the presence of objects of interest (or features) to investigate.
  • the processed image data obtained from the raw image data through the steps described can also be saved for the following, whereby the storage can already take place in such a way that image sections of different sizes can later be downloaded by a remote user upon request without any problems.
  • the problem here is that the objects or textures shown in the sections of different sizes, without suitable countermeasures, aliasing effects occur, which have a very disturbing effect as artifacts, especially when patterns with slanted or rounded lines are shown (we would like to point out in this regard Moire effect and techniques that avoid or reduce it).
  • MIP-MAP methods Such techniques, which avoid undesirable effects with representations of different sizes, are known as MIP-MAP methods and for the present application it is preferred to save the processed image data using such methods, especially since this only requires slightly more storage space.
  • All corresponding data for each image is then completely saved so that, on the one hand, after a flight mission has been carried out, it is possible to go through all the images again and carry out further calculations on the image data, such as calculating 3D models of the area flown over or parts of it of this, but on the other hand also to provide image sections quickly and easily for observers at a base station during the mission.
  • the recorded images are searched for objects or features of interest (it should be mentioned that it is not necessary that an image part of interest really represents an “object”, i.e. a clearly defined three-dimensional, solid body. This can also be the presence of certain traces in the snow, the appearance of smoke, etc. may be of interest, for which the term "feature" would be more appropriate. However, objects are often used interchangeably here.
  • a combination of different features may be necessary to arouse interest, e.g. the presence of a track in the snow and the presence of a reddish color in the immediate vicinity of the track that indicates an injury - this would then be referred to together as an object in this case.
  • the image data can be fed into a buffer memory, which allows the graphics card or GPU to access the data particularly quickly, and it is possible for the graphics card or GPU to recognize objects or associated data such as positioning as relevant. and tilt data etc. into a “candidate” buffer memory. If necessary, this also allows a multi-stage search, for example by examining image sections identified as potential candidates in a first stage and examining them in a further stage to see whether, upon closer analysis, there is still the suspicion that they could show objects of interest.
  • a base station is transmitted. It should also be noted that it is easily possible to make the decision as to whether a particular object is actually of interest at the base station, supported by or entirely by means of automated algorithms and/or the corresponding, transmitted image sections are delayed to evaluate. This applies in particular to flight missions in which a particularly precise search of an area is required, but a quick reaction does not have to or cannot be made.
  • the (photogrammetric) localization of an object within an area flown over can use self-location. Since the individual sensor elements are fixed relative to each other and parameters such as the camera focal length are also permanently fixed, and since each (overall) image is at least preferably hemispherical, it is easy to determine where the location of a potential candidate occurs in one image, can be found in a subsequent image or in a previously captured image. It is also helpful that not only hemispheric images are recorded, but that there is also an overlap of sensor elements arranged adjacent to one another within a recorded hemisphere.
  • the actual finding of the objects in the image data can be done using artificial intelligence methods, e.g. the use of neural networks and the like, without requiring a lot of performance on a conventional graphics card that is designed for appropriate algorithms, for example using a large number of CUDA arithmetic units.
  • the so-called optical flow from image to image can be taken into account, especially when the sequentially obtained image data is superimposed in the correct location.
  • the fact that the determination of an optical flow, even taking the movement into account, requires a particularly low computational effort in comparison, should be mentioned here as an advantage.
  • the actual techniques required for object identification which include automated segmentation in addition to the actual recognition, do not need to be discussed here, since corresponding artificial intelligence techniques are known per se. It should be mentioned that such algorithms may require steps such as scaling, edge detection, etc.
  • a potential candidate for an object has been found in the image data, it is easily possible to locate it in a GIS map. It is possible and preferred to transmit corresponding information to a base station, where a map can be set up in which all locations of potential candidates are entered. It should be mentioned that this map can be annotated and cleaned up when potential candidates are identified as irrelevant. It is preferred to store images on such a card and/or make the objects clickable so that the corresponding objects can be displayed and/or more images of a given object can be loaded from the corresponding drone.
  • objects detected by several drones can optionally be entered into one and the same map, which is particularly advantageous if only individual drones are equipped with particularly expensive or little-needed sensor elements, such as sensor elements for certain infrared ranges, and therefore the Drones equipped with the more expensive sensor elements are only flown to places where other drones have previously identified potential candidates by scanning over an area.
  • the specialized drones can, if necessary, be automatically navigated to the locations of potential candidates. This is revealed to be advantageous. In other words, swarms of drones can be used in a highly efficient and automated manner using the GIS technology proposed here, for which the present area detection devices are particularly advantageous. It should also be mentioned that by setting up suitable mapping it is possible to calculate or take into account obstacles and obscurations.
  • Such obscuring obstacles are often those that are not included in even high-resolution terrain maps, for example because they are only momentary obscuring obstacles. It should be mentioned that occlusions can be taken into account when objects are tracked from image to image or are to be searched for in successive images. This reduces the likelihood that per se relevant candidates will be ignored through obscuration and therefore without a good reason.
  • the data associated with potential candidates can then be transmitted to a base.
  • buffering avoids that if a large number of potential candidates are suddenly found, individual candidates cannot be transmitted due to a lack of sufficient bandwidth and also takes into account the fact that an occasional interruption of a communication channel may occur, especially in difficult terrain. It is therefore desirable for the telecommunications channel to have a bandwidth that is at least slightly higher than that required to transmit the information to all potential candidates per se. This allows the buffer memory to be emptied quickly after a short-term failure due to “burst”-like transmission.
  • feedback can be provided if an unexpected number of potentially relevant objects are detected.
  • Such feedback can be sent to the base because new filters should then possibly be selected; It is possible to store several different filter algorithms in the sensor head so that they do not have to be transmitted during a flight. It is also possible, if necessary, to reduce the flight speed in response to too many objects being detected in too short a time. It can also be useful because many potentially relevant objects are often detected because a desired location, such as an aircraft crash site, has actually been identified. However, there it may make sense to take images that are closer together in order to allow better three-dimensional mapping.
  • potential candidates can be prioritized according to probability or importance if the bandwidth is permanently too low.
  • probabilities, object sizes, etc. obtained using artificial intelligence algorithms can be used.
  • the image data is preferably stored completely and in particular in a form that facilitates or allows load on demand in order to enable rapid reloading. This means that each candidate only needs to transfer around 10 kB of data to a base which means a significant reduction in the load on the telemetry route. It should be mentioned that further detailed shots and/or sections of successive images may then be made available, for example in order to be able to view a given object from several directions (poses).
  • the corresponding information received from the drone or drones can also be buffered and, if necessary, stored (temporarily) in the base in an application layer.
  • further screening is possible at the base, in particular using artificial intelligence algorithms, for which corresponding image data can be retrieved from the drone.
  • the base station will typically be equipped with suitable software in order to provide a human observer with relevant information in a suitable form.
  • the sensor head disclosed only has to have a low weight of, for example, only around 2 kg, which can still be easily moved with drones. It can be estimated that as data processing technology advances, a reduction in size and a lighter design will be possible, which will allow for smaller drones and greater ranges. Alternatively, if the weight is higher, a large number of sensors with powerful, long-focal length optics can be installed for very powerful drones, especially reconnaissance drones.
  • the usefulness of a flight mission can be increased significantly, thanks to the greater detection reliability and great efficiency through the combination of high-resolution, hemispheric image capture and mobile artificial intelligence (AI) “on the edge” in the sensor head itself Regardless of the limited transmission bandwidths, it can easily be increased by a factor of 20 using the computing power available on the filing date, etc.
  • AI mobile artificial intelligence
  • the disclosed sensor head is highly reliable thanks to the optical arrangement, which is free of complicated mechanical joints, etc. It should also be mentioned that the disclosed sensor head, even when using 24 or 48 imaging sensor elements, each of which delivers 12 MPix, only requires a graphics card or GPU, which is already conventionally available today, in order to carry out the image processing on site as on-the-edge image processing manage and thereby define interesting image sections and select them for a quasi-real-time transmission. It should be mentioned that image capture at up to 30 Gbit/s is easily possible and therefore also in aircraft with low energy supply and that the image data can in particular be fed directly to an image data processing graphics card, such as a commercial graphics card with CUDA computing units. It should be mentioned that corresponding graphics cards can easily provide around ITFlop/s computing power for object recognition purposes, which is completely sufficient for many applications.
  • the power required for processing the image data for the 48 sensor elements mentioned as an example, each with 12 MPix, is only around 10 W, which can easily be provided locally.
  • the disclosed sensor head can optionally transmit a video stream with a video stream resolution adapted to low data transmission rates, which is reduced to resolutions below the maximum possible resolution according to image sensors.
  • the disclosed sensor head through the use of artificial intelligence methods, has a significantly reduced bandwidth for the transmission of relevant image data.
  • the disclosed sensor head can be mounted on a large number of unmanned aircraft due to the largely or completely self-contained structure and, thanks to the flexibility, in particular with regard to the number and type of sensors as well as the possibility of the artificial intelligence algorithms used Adapt to area survey purposes and can be used for a variety of applications.
  • a base station such as mobile phones, pads, laptops, etc.
  • a relay station at the location from which the drone or several drones are launched, to install a relay station to an observation center.
  • Such relay stations can typically communicate with observation centers via broadband connections, so that there the It is possible to display received images virtually in real time on a large number of large monitors, which further reduces the burden on observers.
  • Fig. 1 is a perspective view of a sensor head
  • Fig. 2 various functional elements of the sensor head
  • Fig. 3 shows a possible system for area detection
  • Fig. 4. a sketch to explain object identification.
  • a sensor head 1 comprises a housing 2 with a large number of cameras 3 fixed thereon, i.e. image sensors with associated optics, electronic shutter, etc.
  • the lenses are shown with an associated protective cover. Behind the lenses are the sensors and the associated electronics.
  • the cameras are designed to be read out simultaneously and to record at least a hemispheric image with each frame, for example at a rate of one frame per second, or, in less preferred variants or for slower drones, for example 2 seconds each 5 seconds each. It should be mentioned that higher frame rates could possibly be implemented in critical applications, for example with very fast-moving drones, especially as technology advances.
  • the individual sensor element in this case is a color sensor with 12 megapixel resolution for visible light and a Bayer filter.
  • a touch display 4 can also be seen on the housing, with which information about the status of the sensor head can be called up before or after a mission and certain settings such as the frame rate can be made or parameters such as an absolute position of the starting location can be specified.
  • the housing also has a point 5 at which the sensor head can be mechanically attached to a drone in order to be moved by the drone over the area to be monitored during an optical area detection from the air.
  • a point 5 at which the sensor head can be mechanically attached to a drone in order to be moved by the drone over the area to be monitored during an optical area detection from the air.
  • the sensor head 1 is further provided with a power supply connection 6 through which it can receive power from the drone during flight.
  • a power supply connection 6 through which it can receive power from the drone during flight.
  • pose information from the drone can also be fed to the sensor head via connections leading to the drone.
  • the sensor head also has an I/O interface 7 for reading out image data recorded during a flight mission and for importing configuration data such as various Al filter algorithms that can also be selected or changed during the mission at the base before a mission .
  • I/O interface 7 for reading out image data recorded during a flight mission and for importing configuration data such as various Al filter algorithms that can also be selected or changed during the mission at the base before a mission .
  • configuration data such as various Al filter algorithms that can also be selected or changed during the mission at the base before a mission .
  • the sensor head shown has a diameter of approx. 20cm and a weight of less than 2kg.
  • a sufficiently powerful graphics card 9 or a sufficiently powerful GPU a memory 10 for all image data recorded during a flight mission, including the associated poses, i.e. the information about the location and orientation of the sensor head.
  • a controller unit 11 is integrated, which is used in particular to calculate various information such as rose information from the corresponding sensors.
  • the sensor head 1 is attached to a drone D during operation, which in the present exemplary embodiment provides pose information to the sensor head, but this is not mandatory;
  • the sensor head itself is equipped with suitable sensors for detecting the pose and is therefore self-sufficient.
  • the fact that the sensor head itself could alternatively record pose information, for example through triaxial accelerometers, is therefore explicitly disclosed as advantageous.
  • the sensor head takes hemispheric images with all sensor elements simultaneously, which are then processed by first processing the raw data in the usual manner (which includes correcting defective pixels, Bayer filtering, etc.). The processed image data is completely written away in such a way that it is possible to later reload sections of different sizes and display them without artifacts.
  • Artificial intelligence algorithms are then used to search for objects of interest in the processed image data and to determine sections containing potential candidates for objects of interest.
  • SLAM methods are used to determine where the potential candidates are to be located so that potentially interesting objects are suspected.
  • the potential candidates are transmitted via telemetry, see reference number 12, together with the determined location data to a base station, with an image section showing the potential candidate.
  • the sensor head has its own data transmission means in order to handle the telemetry tasks and is therefore also independent of the drone, which is preferred because it simplifies system integration.
  • a human observer can evaluate whether the potential candidate is actually relevant and, if necessary, request further information from the sensor head via the telemetry path for evaluation or for an object of interest 14. If necessary, it is possible to feed information from the base station into a cloud for further evaluation, see reference number 15.
  • the location of the object 14 can be determined and displayed in a graphical manner Information system can be mapped.
  • the corresponding information can be transmitted as a suggestion to the base station and from there, if it is determined automatically at the base station or by a human observer that the object could be relevant for the purpose of the observation mission, information can be reloaded or a reaction to this if necessary
  • the object can be located at the appropriate location.
  • the drone can exclusively feed energy to the sensor head; in a third embodiment, the drone also feeds position data and/or orientation data in addition to energy to the sensor head; in a fourth embodiment, the drone exclusively feeds position data and/or orientation data to the sensor head and in a fifth embodiment with particularly tight coupling, the drone can take over the telemetry communication, feed energy to the sensor head and provide position data and orientation data for the sensor head. It should be mentioned that other variants are possible. It should also be noted that it is possible to design a drone itself as an area detection device.
  • an area detection device designed for optical area detection from the air with a large number of image sensors, the fields of view of which jointly cover an area, which are designed to repeatedly record images, and which are designed to be attached to an aircraft or integrated into an aircraft are, an image storage unit for at least temporarily storing image data representative of the recorded images from the image sensors, and wireless data transmission means, an image evaluation unit being provided which is used for the automated determination of at least one potentially interesting object in the image data, and at least one of the definition of at least a section containing the potentially object of interest and determination of the position data of the object of potential interest is formed, and by wireless data transmission means which are designed to selectively select at least one image section from the at least temporarily stored images, which contains the at least one object of potential interest, and /or to wirelessly transmit the position data of the potentially interesting object in the image data determined with the image evaluation unit to a base.
  • the sensors are arranged for at least hemispheric field of view detection.
  • the sensor head may comprise sensors that record images with assigned, differently oriented polarization filters, and/or to comprise at least two different types of sensors, which are selected from VIS, thermal, MWIR, LWIR, whereby different image recognition methods or different trained filter algorithms are preferably used for sensors of different sensor types, and whereby the fields of view recorded with respective sensor types or polarizations practically completely overlap.
  • the image sensors are assigned an image readout unit which is designed to read out images from all image sensors simultaneously, in particular at a fixed time interval and / or after covering a certain distance.
  • the image sensors are at least fixed relative to one another and preferably both relative to one another and to the aircraft.
  • an area detection device that is intended to be largely self-sufficient from the sensors and the telemetry path of a drone transporting it, it can be advantageous - even independently of other advantageous embodiments - if it includes a sensor head that is equipped with at least one of an accelerometer, preferably a triaxial one Accelerometer, position determination means, preferably one or more GPS sensor and/or GNSS sensor, inclinometer, gyroscope and magnetometer and/or is designed to determine one's own position by triangulation and/or for self-location;
  • the area detection device can be designed in such a way that it has a memory which is used to write away high-resolution image data, preferably for storing high-resolution image data from all image sensors together with the position and/or position data associated with the recording time. or orientation data is designed, in particular for writing down all image data recorded during a flight or flight segment.
  • an area detection device - independently of other advantageous embodiments - has a transmission bandwidth that is lower than that required for the complete transmission of all image data of a captured image within the next image capture elapsed period of time is required and/or can be used with a transmission bandwidth that is lower than that which would be required to completely transmit the data of all recorded images within the period of time that elapses until the next image is taken, and/or can be used during a transmission period, which is shorter than the period of time that would be required to transmit all images recorded per image recording period, the wireless data transmission means being designed to transmit only the selected current image data, in particular image data with the at least one image section which contains the at least one potentially interesting object and from to transmit previous image data requested from or to a base.
  • the sensor head has an interface which is designed to obtain image filters for object identification that are characteristic of certain objects from a database; Sensors which record images with associated, differently oriented polarization filters and/or at least two different types of sensors selected from VIS, thermal, MWIR, LWIR, whereby the fields of view recorded with respective sensor types or polarizations practically completely overlap and are preferred for Sensors of different sensor types, different methods of image recognition or different trained filter algorithms are used, the sensors are arranged for at least hemispheric field of view detection and the image sensors are assigned an image readout unit which is designed to read out images of all sensors, the image sensors being at least relative to one another and relative to the aircraft, the sensor head is equipped with at least one of triaxial accelerometers, position determination means, preferably one or more GPS sensors and / or GNSS sensors, inclinometers, gyroscopes and magnetometers in such a way that at least one orientation of the sensor head can be detected
  • Base station with display, computers, cloud connection, evaluation software and bidirectional communication option with the sensor head, in particular for receiving image data of potentially interesting objects and for reloading requests for higher-resolution and/or more comprehensive image information on objects of interest to a human observer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

Beschrieben wird eine Gebietserfassungsvorrichtung, insbesondere Sensorkopf für die optische Gebietserfassung aus der Luft, mit einer Vielzahl von Bildsensoren, deren Sichtfelder gemeinsam einen Bereich überdecken und die wiederholt Bilder aufnehmen, und die bevorzugt insbesondere mechanisch relativ zueinander feststehend und/oder bevorzugt unbeweglich gegen ein den Sensorkopf tragendes Fluggerät angebracht sind, einer Bildspeichereinheit zum zumindest temporären Speichern von für die Bilder einer Aufnahme repräsentativen Bilddaten aus den Bildsensoren, drahtlosen Datenübertragungsmitteln mit einer Datenübertragungs-Bandbreite, die geringer ist als jene, die zur vollständigen Übertragung aller Bilddaten eines aufgenommenen Bildes binnen des bis zur nächsten Bildaufnahme verstreichenden Zeitraumes erforderlich ist, wobei eine Bildauswerteeinheit zur automatisierten Suche nach Objekten in den Bilddaten und zur Definition von ein potentiell interessierenden Objekt enthaltenden Ausschnitten umfasst und die drahtlosen Datenübertragungsmitteln dazu ausgebildet sind, Bilddaten der ein potentiell interessierendes Objekt enthaltenden Ausschnitte und/oder Positionsdaten drahtlos an eine Basis zu übertragen.

Description

Unbemanntes Fluggerät zur optischen Gebietserfassung
Die vorliegende Erfindung betrifft das oberbegrifflich Beanspruchte und bezieht sich somit auf die optische Erfassung von großflächigen Gebieten.
Digitale Luftbilder stellen eine wertvolle Ressource für eine Vielzahl von industriellen Wertschöpfungsketten und für ein breit gefächertes Spektrum an Anwendungen durch Behörden und andere Organisationen dar, insbesondere von Organisationen mit Sicherheitsaufgaben. So gibt es gibt eine Reihe von Anwendungen, bei denen es sinnvoll ist, ein bestimmtes Gebiet optisch abzusuchen. Erwähnt seien an (zeitkritischen) Aufgabestellungen etwa das Zählen, Qualifizieren, Überwachen oder das Suchen: Hierzu gehört unter anderem die Suche nach bestimmten Objekten innerhalb eines nur grob abgrenzbaren Gebietes, die etwa dann erforderlich ist, wenn Wrackteile eines Schiffes oder eines Flugzeuges im offenen Meer gesucht werden oder in unwegsamen Gelände Überlebende einer Katastrophe oder Eindringlinge bzw. Angreifer aufgespürt werden sollen. Als „Objekt“ wird dabei nachfolgend auch eine Person oder Personengruppe verstanden, sofern danach gesucht wird.
Die abzusuchenden Gebiete sind aber oftmals mehrere Quadratkilometer groß. Da es vielen Anwendern ganz grundlegend auf die Schnelligkeit und Zuverlässigkeit beim Erkennen von Objekten bzw. Bild-Merkmalen („Features“) ankommt, ist es wichtig für die Ressource Luftbild, dass sie zeitnah, zuverlässig, und trotzdem effizient gewonnen werden kann. Daher sollte eine Erkennung möglichst in Quasi-Echtzeit erfolgen - was typisch einen Experten erfordert, der einen Überwachungsflug mit durchführt und dabei konzentriert einen Telemetrie-Video-Datenstrom betrachtet; alternativ kommen auch klassische Methoden der - dann oft: multispektralen- Bildverarbeitung in Betracht.
Prinzipiell besteht die Möglichkeit, gebietserfassende luftgestützte Suchen mittels Helikopter durchzuführen, was aber im Regelfall an Bord des Helikopter zumindest zwei Leute, nämlich einerseits einen Piloten und andererseits eine mit der eigentlichen Suche befasste Person erfordert und entsprechend teuer ist. Zudem gibt es Situationen, in denen zwar der Verlust eines unbemannten Gerätes in Kauf genommen werden kann, nicht jedoch der Verlust einer Helikopterbesatzung. Derartige Situationen können etwa bei besonders gravierenden Wetterbedingungen oder dann, wenn mit Angriffen auf das Überwachungsgerät gerechnet werden muss, vorliegen.
Sofern nicht -zwar sehr kostengünstige, aber eine extrem eingeschränkte Funktionalität aufweisende- Minidrohnen verwendet werden sollen, besteht eine Alternative zur Suche unter Verwendung von Helikoptern in der Verwendung von etwas massiveren und größeren Drohnen. Drohnen für solche Such- Zwecke können vergleichsweise hochwertige Bilder mittels einer Kamera erfassen und die optischen Daten an einen Operator per Telemetrie senden. Ein derartiges Vorgehen wirft allerdings eine Reihe von Problemen auf. So muss der Operator die optischen Daten in der Regel in Echtzeit bewerten. Dies erfordert eine durchgängig hohe Konzentration des Operators; zudem setzt eine sichere Bewertung hinreichend hochauflösende Bilder voraus. Dabei ist schon vorgeschlagen worden, die Suche mit derartigen unbemannten Fluggeräten mittels Computer zu unterstützen.
So ist aus der WO 2019/011 205 ein computerbasiertes System bekannt, bei dem mit einem unbemannten Fluggerät aufgenommene Luftbilder annotiert werden und das computerisierte System das folgende umfasst: ein unbemanntes flugfähiges Objekt mit einem Bildaufhahme-Modul zur Aufnahme eines Stromes von Luftbildern, die eine bodenbasierte Region wiedergeben; und ein bodenbasiertes Terminal, das kommunikativ mit der Drohne über eine Kommunikationsleitung verbunden ist und dazu angeordnet ist, den Strom von Luftbildern aus dem unbemannten bemannten flugfähigen Gerät über die Kommunikationsleitung zu empfangen, wobei das bodenbasierte Terminal das folgende umfasst: ein Kontrollmodul zur Kontrolle des Bildaufhahme- Moduls des unbemannten Fluggerätes über die Kommunikationsleitung, um ein Luftbild eines interessierenden Objektes in der bodenbasierten Region aufzunehmen, die im Luftbildstrom wiedergegeben ist, und das aufgenommene Luftbild des Merkmales aus dem Bildaufhahme-Modul an die Basisstation über den Kommunikationslink zu übertragen; ein Annotationsmodul, das dazu angeordnet ist, Annotations-Information dem Luftbild des Merkmales bzw. Objektes von Interesse zuzuordnen, um ein annotiertes Luftbild des Objektes zu erzeugen; einen Speicher zum Speichern des annotierten Luftbild .
Wichtig ist aber bei allen Ansätzen, dass es letztlich darauf ankommt, zu jeweils noch gut vertretbaren Kosten hinreichend zuverlässig ein Feature, das sich innerhalb einer gegebenen, zu durchsuchenden Fläche befindet, zu erkennen, respektive mehrere unterschiedliche Features zuverlässig zu erkennen.
Wenn vor diesem Hintergrund gefragt wird, wie eine bestimmte Suche bzw. Suchstrategie zu bewerten ist, muss per se regelmäßig die Gesamtheit aus Fluggerät und Bildgebung, deren Abstimmung aufeinander, sowie die jeweilige Missionsplanung betrachtet werden. Wichtige Kenngrößen und Parameter können dabei etwa sein: die Reichweite des unbemannten Fluggerätes, die Genauigkeit der Positionserfassung, die maximale Fluggeschwindigkeit, das z.B. durch Flughöhe, Fluggeschwindigkeit, Flug bahn bzw. Rasterung zu charakterisierende Flugprofil, die jeweilige Bildgebungspipeline, die nicht nur davon abhängt, wie die Kamera am Flugkörper angebracht ist, einschließlich der Genauigkeit einer Neige-Schwenk-Zoom-Einstellung z.B. mittels eines sog. Pan-Tilt-Zoom- Gimbals sowie der Exaktheit von Ausrichtung und Ausrichtungsgenauigkeit während des Abfliegens eines Flugprofils, sondern auch davon, mit wie vielen Pixeln Bilder aufgenommen werden können, welche spektrale Empfindlichkeit gegeben ist, in welchen Lichtverhältnissen Objekte noch erfasst werden können, welche Bildraten erzielbar sind oder wie gegebenenfalls der Bild-Datenfluss zu komprimieren ist, was wiederum von der Qualität der Telemetriestrecke und damit von der Transferrate und der Reichweite abhängt .
All diese Kenngrößen und Parameter beeinflussen einander in erheblicher Weise. So erfordert die Bereitstellung hochauflösender Bilder technisch immer noch erheblichen Aufwand, denn die zur Übertragung von optischen Daten benötigte Bandbreite ist gerade bei hochauflösenden Bildern ganz erheblich, was eine Echtzeit-Übertragung praktisch verhindert. Diese ist allerdings gerade in zeitkritischen Anwendungen wie etwa bei der Rettung Schiffbrüchiger oftmals sehr wünschenswert.
Eine Möglichkeit besteht darin, das Beobachtungsfeld etwas zu verkleinern, wodurch für ein Objekt gegebener Größe zwar noch eine hinreichende Pixelzahl und somit eine brauchbare Auflösung zur Verfügung steht, aber das Beobachtungsfeld verkleinert und damit die zur Erfassung eines Gebietes gegebener Größe benötigte Zeit erheblich verlängert wird. Das dadurch bedingte Problem kann in gewissen Grenzen reduziert werden, indem ein Objektiv vergleichsweise langer Brennweite verwendet wird, mit dem etwa in Flugrichtung beobachtet wird. Indem dieses Objektiv langer Brennweite hin- und her geschwenkt und etwas geneigt wird, kann ein nur kurz im Bild auftauchendes Objekt, vom welchem die Vermutung besteht, dass es interessant sein könnte, über eine etwas längere Flugstrecke hinweg beobachtet und zudem aus unterschiedlichen Blickrichtungen erfasst werden. Überdies kann gegebenenfalls auf ein Objekt gezoomt werden. Dies erlaubt es dem Operator, durch geeignetes Schwenken, Neigen, Zoomen ein Objekt zu identifizieren. Nachteilig ist hierbei allerdings, dass dies eine mechanisch komplizierte Schwenk-Neige-Zoom-Halterung für die Kamera sowie Zeit für die Einstellung erfordert, und diese Einstellung überdies komplex gesteuert werden sollte, um ungeachtet der Bewegung der Drohne ein momentan interessierendes Objekt im Blickfeld zu halten. Zudem kann ein -zeitraubendes- mehrfaches Überfliegen erforderlich werden, sei es, weil das Objekt nicht ordnungsgemäß verfolgt werden konnte, weitere Ansichten erforderlich sind oder weil es zu spät im Blickfeld auftauchte, bevor es überflogen wurde. Dass dies effizienzmindemd ist, sei erwähnt.
Andere Wechselwirkungen bestehen etwa dahingehend, dass ein lichtstärkeres Objektiv schwerer ist, was bei Dämmerung günstiger sein kann, aber wiederum die Reichweite des Fluggerätes verringert; eine verringerte Fluggeschwindigkeit reduziert die überwachte Fläche, führt aber womöglich zu mehr oder besseren Bildern in Querrichtung, verbessert also die Bildqualität usw.. Durch diese erhebliche und zum Teil deutlich nichtlineare Wechselwirkung der Parameter stellt deren Optimierung eine erhebliche Herausforderung dar. So wird oftmals nur mit Maßzahlen wie dem NUTZEN eines bestimmten Ansatzes gearbeitet, indem aus der Betrachtung einer vorhandenen Bild- aufhahmelösung eine Maßzahl ermittelt wird, die sich z.B. aus der während einer Mission „geprobten“ Fläche [A] und der Erkennungs-Zuverlässigkeit [P] für ein Feature ergibt, das sich innerhalb dieser Fläche befindet. Die Zuverlässigkeit wird etwa dadurch verringert, dass gesuchte Objekte nicht mit erkannt werden, weil sie nicht hochauflösend genug aufgenommen wurden, oder dadurch, dass mit einem PTZ-Objektiv momentan in eine ganz andere Richtung geblickt wird, das aufzuspürende Objekt also schlicht übersehen wird. So kann sich eine Drohne zwar am richtigen Ort befinden, aber in die „falsche“ Richtung blicken; ein Zoom kann zu weitwinklig eingestellt sein, so dass Objekte nicht mehr zu erkennen sind. Ein Weitwinkel mit einem horizontalen Sichtfeld (HFoV) von 60° weist bei XGA- Auflösung. d.h. 1024 Pixeln x 768 Pixeln in einer Entfernung von 500m eine Auflösung von etwa 50cm/Pixel auf, so dass ein Mensch nur noch mit etwa 2 Pixeln erfasst wird, was für die Objekterkennung als Mensch schon zu wenig ist, geschweige denn, dass bestimmte Merkmale wahrgenommen werden könnten. Umgekehrt beträgt bei einer Tele-Einstellung mit einem horizontalen Sichtfeld (HFoV) von nur 3° in 500m Entfernung die Auflösung etwa 2,5cm/Pixel- aber bei typischen Fluggeschwindigkeiten der Drohne beträgt die Erfassungsdauer eines Objektes quer zur Flugrichtung nur etwa eine Sekunde. Es ist auch nicht günstig, ein Objekt während des Fluges lediglich für eine jeweils nur sehr kurze Zeit zu beobachten, weil dann Objekte nur aus einer einzigen Richtung erfasst werden; ist die Sichtlinie zum Objekt genau in dieser Richtung gerade verdeckt, etwa durch Bäume, Hecken, Mauern usw., kann es nicht beobachtet werden. Werden diese systembedingten Schwächen durch mehrfaches Überfliegen kompensiert, so sinkt einsichtiger Weise die in einer gegebenen Zeit überstreichbare Fläche A.
Daher wird eine als Nutzen Q bezeichnete Maßzahl aus der geprobten Fläche A und der Erkennungs- Zuverlässigkeit P bestimmt durch die Gleichung
Q = P x A.
Es ist einsichtig, dass der Nutzen für einen gegebenen Beobachtungs-Ansatz stets dadurch begrenzt ist, dass die Größe der geprobten Fläche und die dabei erreichbare Zuverlässigkeit nicht beliebig und vor allem nicht unabhängig voneinander gesteigert werden können: so sinkt in der Regel die Zuverlässigkeit, wenn in der gleichen Zeit eine größere Fläche zu überwachen ist, während die Maßzahl umgekehrt auch schrumpfen kann, wenn nur eine sehr kleine Fläche überwacht wird.
Verwiesen sei auf die US 2021/0 209 331 Al, die ein Computer-implementiertes Verfahren umfasst, bei welchem ein Maschineniemmodell trainiert wird, um nichtnatürliche Objektanordnungen in einem Bild zu identifizieren, mit dem Modell Bilder analysiert werden, die während eines Drohnenflugs erfasst werden und, basierend auf dem Auftreten eines natürlichen Objektes, der Flugplan des unbemannten autonomen Fluggerätes automatisch geändert wird, um eine zusätzliche Suche durchzuführen.
Insgesamt ist es erstrebenswert, den Nutzen einer optischen Gebietserfassung aus der Luft zu verbessern, insbesondere mittels unbemannter Fluggeräte.
Es wäre auch erstrebenswert, ein Gebiet preiswerter und/oder schneller als bislang möglich aus der Luft zu durchsuchen bzw. zu erfassen.
Es wäre vorteilhaft, eine zumindest leichte Verbesserung bei zumindest einigen der angesprochenen Punkte zu erzielen.
Die Aufgabe der vorliegenden Erfindung besteht darin, Neues für die gewerbliche Anwendung bereit zu stellen.
Mögliche Lösungen dieser Aufgabe werden in unabhängiger Form beansprucht. Vorteilhafte Ausführungsformen und alternative Lösungsansätze können der Beschreibung entnommen werden. Aus dem Umstand, dass diverse vorteilhafte Ideen derzeit nicht beansprucht oder nicht explizit als vorteilhaft und erfinderisch bezeichnet sind, möge nicht geschlossen werden, dass diese unwichtig seien. Vielmehr wird der Fachmann erkennen, dass viele Teile der Kombination für sich oder in Kombination mit anderen Teilen der Offenbarung vorteilhaft sind.
Gemäß einem ersten Gedanken wird somit vorgeschlagen eine Gebietserfassungsvorrichtung, insbesondere Sensorkopf für die optische Gebietserfassung aus der Luft, mit einer Vielzahl von Bildsensoren, deren Sichtfelder gemeinsam einen Bereich überdecken und die wiederholt Bilder aufnehmen, und die bevorzugt insbesondere mechanisch relativ zueinander feststehend und/oder bevorzugt relativ zu einem den Sensorkopf tragenden Fluggerät unbeweglich angebracht sind, einer Bildspeichereinheit zum zumindest temporären Speichern von für die Bilder einer Aufnahme repräsentativen Bilddaten aus den Bildsensoren, - bevorzugt drahtlosen - Datenübertragungsmitteln mit einer Datenübertragungs-Bandbreite, die z.B. geringer sein kann als jene, die zur vollständigen Übertragung aller Bilddaten eines aufgenommen Bildes binnen des bis zur nächsten Bildaufnahme verstreichenden Zeitraumes erforderlich ist, wobei diese Gebietserfassungsvorrichtung so ausgestaltet ist, dass sie eine Bildauswerteeinheit zur automatisierten Suche nach Objekten in den Bilddaten und zur Definition von ein potentiell interessierenden Objekt enthaltenden Ausschnitten umfasst, wobei die Datenübertragungsmitteln dazu ausgebildet sind, Bilddaten der ein potentiell interessierendes Objekt enthaltenden Aus- schnitte und/oder Positionsdaten, vorzugsweise unter Verwendung von Selbstverortungsmethoden bestimmte Positionsdaten evtl, interessierender Objekte insbesondere drahtlos an eine Basis zu übertragen.
Die Anordnung bietet eine Reihe von Vorteilen. So werden durch die maßgebliche Erhöhung der Anzahl an bildgebenden Sensoren (Bildsensoren) und deren bevorzugt feste Anordnung Objekte, die im überflogenen Beobachtungsfeld liegen bzw. bereits überflogen wurden oder die querab zur Flugbahn liegen, mehrfach erfasst, wodurch sowohl die Erkennungs-Zuverlässigkeit [P] steigt als auch die während einer Flugmission überstreichbare Fläche ansteigt und damit der Nutzen Q= PxA dementsprechend zunimmt.
Es kann zudem eine große Anzahl an Sensoren eingesetzt werden. Typisch können bereits am Anmeldetag ohne weiteres mehr als 6, insbesondere mehr als 12, insbesondere 24 oder 48 Sensoren verwendet werden, die ein entsprechend hochaufgelöstes Bild aufhehmen. Diese können zudem mit hoher Dynamik aufgenommen werden, was die Erkennungswahrscheinlichkeit vor allem dort weiter verbessert, wo Bereiche stark unterschiedlicher Helligkeit vorliegen. Es ist damit zudem bereits heute möglich, eine volle Hemisphäre oder sogar einen etwas größeren Bereich zu erfassen.
Es ist abzusehen, dass aufgrund der Zunahme der Datenverarbeitungsmöglichkeiten mit Fortschreiten der Technik die Zahl der Sensoren bzw. deren Pixelzahl und somit die Detailauflösung mit der Zeit weiter zunehmen wird. Zugleich ist davon auszugehen, dass die Zunahme der Übertragungsbandbreite vorerst nicht so groß sein wird, dass vollhemisphärische, multispektrale Bilder hoher Auflösung und hoher Dynamik verlustfrei in Echtzeit übertragbar werden. Jedoch wird - da die Rechenleistung vermutlich in ähnlichem Maß wie die mögliche Pixelzahl ansteigt - erwartet, dass weiterhin bereits im Sensorkopf eine derart große Rechenleistung bereitgestellt werden, dass aus dem Roh-Datenstrom bereits vor der Übertragung zuverlässig „Bemerkenswertes“ für die Übertragung extrahiert wird. Hierfür kann bereits heute eine AI eingesetzt werden; da diese „vor Ort ist“, handelt es sich um eine EDGE- AI und sie kann dahingehend optimiert werden, genau das zu erkennen, was den Nutzen einer Mission darstellt. Damit werden nur jeweils relevante Objekte an einen Anwender/ Experten übertragen. Dass dies gegebenenfalls eine Anpassung der Filter oder eine Auswahl unter vordefmierten Filtern erfordert, sei erwähnt. So könnten Filter definiert werden für die Suche nach Wrackteilen von einem Flugzeugunglück, Menschen, Maschinen wie Panzern, Tieren usw. und diese missionsabhängig ausgewählt werden. In einer bevorzugten Ausführungsform werden passende, durch Methoden des Maschinenlernens erzeugte Filter wie z.B. neuronale Filter in einer Datenbank abgelegt und können über eine geeignete Schnittstelle in die erfindungsgemäße Gebietserfassungsvorrichtung geladen werden. Dabei können in der Datenbank für Sensorköpfe, die unterschiedliche Sensortypen aufweisen, beispielsweise Infrarot- Sensoren geringerer Auflösung und Fotosensoren höherer Auflösung für sichtbares Licht, un- terschiedliche Filter fur ein und dieselben Objekte hinterlegt werden. Es ist überdies möglich, Filter oder Rechenvorschriften zu hinterlegen, mit denen von unterschiedlichen Sensortypen erhaltene Bilddaten derart zusammen ausgewertet werden, dass die Sicherheit steigt, bestimmte Objekte zu erkennen oder dass für bestimmte Objekte Fehlerkennungen reduziert oder ganz vermieden werden. So kann beispielsweise eine mit einem Infrarot-Sensor erkannte Wärmesignatur, die auf das Vorhandensein eines Lebewesens im Sichtfeld hindeutet, mittels der optischen Sensoren darauf überprüft werden, ob sie mit einiger Wahrscheinlichkeit von einem Menschen stammt; gleichermaßen kann mittels der Wärmesignatur überprüft werden, ob ein möglicherweise einen Menschen enthaltender Bildausschnitt mit einiger Wahrscheinlichkeit einen lebenden Menschen zeigt. Eine andere sinnvolle Anwendung der Verknüpfung von Bilddaten aus unterschiedlichen Sensoren ergibt sich bei der Suche nach Wasserflächen mittels Bildsensoren, denen unterschiedlich orientierte Polarisationsfilter vorgeschaltet sind. Je nach Größe der Datenbank kann die Datenbank vollständig im Sensorkopf gespeichert sein oder es werden nur Teile der Datenbank für eine jeweilige Mission in den Sensorkopf eingespielt. Es ist in einer bevorzugten Variante möglich, Filterdaten für mehr als ein Objekt im Sensorkopf zu speichern und simultan nach unterschiedlichen Objekten zu suchen, beispielsweise nach Wrackteilen, Menschen und Koffern. Alternativ und/oder zusätzlich können während einer Mission zu suchende Objekte geändert werden, und zwar entweder durch Auswahl unter verschiedenen, vor Beginn der Mission in den Sensorkopf eingespielten Filtern oder durch Übertragung neuer Filter von einer Basis.
Obwohl mit der offenbarten Anordnung mit jedem Frame simultan eine Hemisphäre oder mehr erfasst werden kann, ist ein menschlicher Beobachter nicht mit der auf ihn von der Anordnung einströmenden Bilderflut überfordert. So erhöht sich einerseits die Erkennungswahrscheinlichkeit, weil der menschliche Beobachter seine Konzentration nur auf vorausgewählte, potentiell interessierende Objekte richten muss und lediglich zu bewerten hat, ob diese tatsächlich relevant oder irrelevant sind. (Dass es dabei möglich ist, auf Basis der durch den menschlichen Beobachter vorgenommenen Bewertung von Objekten als tatsächlich relevant oder irrelevant das in der mobilen Gebietserfassungsvorrichtung selbst verwendete Bilduntersuchungsverfahren, also z.B. die in einem neuronalen Netz bzw. einem AI- Maschinenlemalgorithmus verwendeten Filter, auf Dauer zu verfeinern und zu verbessern, sei erwähnt; dass dies nicht in Echtzeit geschehen muss, sondern gegebenenfalls später geschehen kann, sei gleichfalls angemerkt. Für eine spätere Auswertung ist das Wegschreiben aller Bilddaten während einer Flugmission von besonderem Nutzen, und insbesondere, wenn an der Basis auch die Bewertungen der übermittelten potentiell interessierenden Objekte weggeschrieben werden, ist dies vorteilhaft. Dabei können z.B. durch entsprechende Zeitmarken un dergleichen die Daten nach dem Flug leicht zusammengeführt werden. Durch die weniger starke Beanspruchung eines menschlichen Beobachters kann aber die Dauer einer Suchmission verlängert und damit eine durchsuchte Fläche vergrößert werden, was wiederum deren Nutzen erhöht. Es ist sogar möglich, dass einem menschlichen Beobachter Bilder von mehr als einer Drohne zugespielt werden, was die Zeit, in der Flächen durchsucht werden können, weiter verkürzt.
Mit diesem dem vorgeschlagenen Ansatz wird den andernfalls extrem gesteigerten Anforderungen an sowohl die Bandbreite des Telekommunikationskanals als auch an die Leistungsfähigkeit bzw. die Konzentration des Betrachters Rechnung getragen: auch mittelfristig wird nämlich für z.B. 24 Bilddatenströme hochaufgelöster Bilder kein auch nur halbwegs hinreichender Telekommunikationskanal verfügbar sein und ebenso erscheint es nur schwerlich vorstellbar, dass ein Experte/Betrachter all diese z.B. 24 Datenströme andauernd, zeitgleich und zuverlässig wird durchsuchen können.
Es ist möglich und bevorzugt, den Sensorkopf mit einem Beschleunigungsmesser, insbesondere einem triaxialen Beschleunigungsmesser zu versehen und/oder mit absoluten und/oder relativen Positionsbestimmungsmitteln, insbesondere einem GPS-Sensor oder mehreren GPS-Sensoren bzw GNSS - Sensor(en). Alternativ kann auch eine Kommunikation mit anderen, eine Triangulation ermöglichenden Stationen erfolgen. Derartige sensorkopfeigene Lokalisations- und/oder Orientiergungsbestim- mungsmittel verbessern die Möglichkeiten, ohne erforderlichen Rückgriff auf Informationen aus der Drohne aufgefundene Objekte zu lokalisieren, insbesondere unter simultaner Positionsbestimmung und Kartierung. Durch Anordnung eines Beschleunigungsmesser im Sensorkopf selbst dann, wenn bereits ein vergleichbarer Beschleunigungsmesser im eigentlichen Drohnenkörper integriert ist, verbessert sich die Autarkie des Sensorkopfes, was es erlaubt, diesen schneller ohne großen Aufwand an nahezu beliebigen Drohnen zu verwenden. Ein Beschleunigungsmesser ist hilfreich, um nicht nur absolute Neigungen und Positionen zu ermitteln, sondern auch Änderungen derselben von Aufnahme zu Aufnahme. Die autarke Ermittlungen von Neigungen ist vor allem deshalb sinnvoll, weil eine momentane Neigung besser auf den Aufhahmezeitpunkt abgestimmt werden kann und weil eine exakte Kenntnis der Neigung - vor allem bei Luftturbulenzen usw. während des Fluges - es erleichtert, ein und dasselbe Objekt in aufeinander folgenden Bildern genauer zu verfolgen und zu erfassen. Dass eine Absolutlokalisation vorteilhaft ist, um bestimmte, insbesondere stationär bleibende Objekte wiederzufinden, die in einem Gebiet erkannt wurden oder aufgrund der optischen Bild-Daten vermutet werden, sei erwähnt.
Es ist möglich und bevorzugt, den Sensorkopf mit einem eigenen Sende-/Empfangsmittel zu versehen, das insbesondere hinreichend breitbandig ist, um über eine Telemetriestrecke Bildausschnitte mit im Sensorkopf als potenziell interessierend identifizierten Objekten an eine Basisstation zu übertragen, welche aber nicht breitbandig genug ist, alle aufgenommenen Bilder in voller Auflösung, Farbtiefe und Dynamik vollständig innerhalb eines zur Verfügung stehenden Zeitraumes auch bei maximaler Entfernung zur Basis zu übertragen. Der maximal zur Verfügung stehende Zeitraum ist bei einer einzelnen Drohne durch die Framerate bestimmt, bei mehreren Drohnen für eine Suche reduziert sich die jeder Drohne zur Verfügung stehende Zeit, wenn sich alle Drohnen die Übertragungskanäle teilen. Mit anderen Worten ist die Telemetriestrecke so stark bandbreitenbegrenzt, dass eine lokale (Vor-) Auswahl relevanten Bildmaterials für eine Untersuchung potentiell interessierender Bilder in nahezu Echtzeit an einer Basisstation erforderlich ist. Es sei offenbart, dass diese lokale Auswahl relevanten Bildmaterials lokal im Sensorkopf vorgenommen werden soll. In einer bevorzugten Ausführungsform ist der Sensorkopf dazu ausgebildet, mit einer oder mehreren Basisstationen über WLAN, 4G oder 5G zu kommunizieren.
Nur der Vollständigkeit halber sei erwähnt, dass es möglich wäre, einen Sensorkopf wie vorstehend beschrieben auch an einem bemannten Flugzeug anzubringen. In einem solchen Fall kann eine Flugmission beispielsweise von einer Basis aus unterstützt werden, indem dort erhaltene Bilder ausgewertet werden, um dem Piloten Flugrichtungsänderungen anzuweisen oder eine Rettungsmannschaft an Bord eines Helikopters auf Besonderheiten hinzuweisen. Es ist sogar alternativ möglich, den Sensorkopf gegebenenfalls auch an einem Hubschrauber oder dergl. anzubringen und einen Operator, d.h. eine Person, die für die endgültige Bewertung der Bildausschnitte als relevant oder irrelevant zuständig ist, mit an Bord zu nehmen. In einem solchen Fall braucht die Übertragung einsichtiger Weise nicht drahtlos erfolgen. Während per se die Datenübertragungsrate damit kaum begrenzend ist, wird gleichwohl auch in solch einer Situation ein Vorteil durch eine lokale Vorauswahl im Sensorkopf erzielt, weil der Operator entlastet wird; überdies ist es möglich, bei Suche unter Verwendung mehrerer Fluggeräte wie beispielsweise unter Verwendung eines Helikopters und eines zugehörigen Schwarmes an sensorkopftragenden Drohnen, die angezeigte Bildmenge zu reduzieren. Dass bei Verwendung einer solchen Mehrzahl von Fluggeräten allenfalls ein Sensorkopf drahtgebunden operieren wird, währen die anderen Sensorköpfe die Daten drahtlos übertragen werden, sei erwähnt. Bevorzugt ist aber in jedem Fall die drahtlose Übertragung, da für diese die Vorteile der Erfindung besonders signifikant sind.
Es ist möglich und bevorzugt, den Sensorkopf mit einem Speichermittel zu versehen, auf welchem alle während eines Überwachungsfluges aufgenommenen Bilder in voller Auflösung, Farbtiefe und Dynamik abgelegt werden, insbesondere zusammen mit den zugehörigen Beschleunigungsmesser-Daten oder daraus hergeleiteten Daten wie einer Positions-Differenz zum vorhergehenden Bild usw.. Alternativ und/oder zusätzlich zu Beschleunigungsmesserdaten kann jeweils eine mit einem oder mehreren GPS-Sensor bzw. GNSS - Sensor erfasste Position abgelegt werden. Weiter können Neigungsmesser, Gyroskope, Magnetometer usw. vorgesehen werden. Besonders bevorzugt ist es, wenn zu jedem Bild zumindest relative XYZ-Koordinaten und drei eine räumliche Orientierung beschreibende Winkel (typisch als omega, phi, theta bezeichnet) abgelegt werden. Dies erleichtert es, Objekte in einem ersten Bild den gleichen Objekten in einem nachfolgend und somit von anderer Stelle und womöglich in anderer Ausrichtung aufgenommenen Bild zu identifizieren und zuzuordnen. Damit ist die Stelle für alle Arten von (Bild-)Daten bezeichnet. Dabei werden z.B. GIS-Daten mit einer Karte verbunden und da- bei Positionsdaten mit bestimmten beschreibenden Informationen integriert - wie etwa Bildausschnitten oder Anmerkungen zu diesen.
Es ist möglich, den Sensorkopf auszustatten mit zumindest einer Sorte an Bildsensoren, die ausgewählt sind aus VIS, thermal / MWIR / LWIR. Es wäre auch möglich, zwei insgesamt praktisch vollständig überlappende Bilder mit per se gleichen Sensortypen aufzunehmen, wobei diesen gleichen Sensortypen dann aber unterschiedlich orientierte Polarisationsfilter vorgesetzt sind, was es erleichtert, reflektierende Flächen wie Wasserflächen zu identifizieren. Es ist möglich und bevorzugt, für zumindest eine Sorte an Sensoren eine mindestens hemisphärische Sichtfelderfassung zu ermöglichen. Dort, wo mehr als ein Sensor verwendet wird, kann entweder mit der ersten Sensorsorte eine mindestens hemisphärische Sichtfelderfassung erfolgen und mit der zweiten Sensorsorte ein kleineres Sichtfeld ermöglicht werden, etwa weil damit ein Videostrom bei Blick in die Flugrichtung erzeugt werden soll, um einem Drohnen-Operator die Flugbahnkontrolle zu ermöglichen. In einer bevorzugten Variante wird aber dann, wenn mehr als eine Sorte Bildsensoren verwendet werden, mit jeder oder mehreren Sensorsorten jeweils eine mindestens hemisphärische Sichtfelderfassung ermöglicht. Erwähnt sei, dass nicht alle Sensorsorten die gleiche Auflösung bereitstellen müssen und nicht alle Sensorsorten mit jedem einzelnen Sensorfeld das gleiche Sichtfeld erfassen müssen. So kann es ausreichend sein, wärmeempfindliche Sensoren mit geringerer Auflösung und größerem Sichtfeld je Sensorelement zu verwenden, sofern dies immer noch erlaubt, zu erkennen, ob von dem ungefähren Ort, an dem aufgrund einer optischen Beobachtung im sichtbaren Bereich ein Mensch oder z.B. ein motorgetriebenes Fahrzeug vermutet wird, Wärmestrahlung ausgeht. Damit einhergehend versteht sich, dass durch multispektrale Beobachtung die Erkennungsgenauigkeit erhöht werden kann und dass eine solche multispektrale Beobachtung daher gegebenenfalls bevorzugt ist. Ohnehin ist es oftmals so, dass für die Erkennung von Objekten zunächst die Auflösung - gerade bei hochauflösenden Sensoren- verringert wird, so dass gegebenenfalls lediglich die Auflösungsverringerung reduziert werden muss.
Es sei auch erwähnt, dass je Sensortyp, also abhängig z.B. davon, ob es sich um einen VIS, thermal / MWIR / LWIR handelt, andere Verfahren der Bilderkennung respektive andere Filteralgorithmen verwendet werden können. So können etwa KI-Bilderkennungsfilter für VIS-Sensoren andere neuronale Netze verwenden als für MWIR-Sensoren. Es werden also bevorzugt jeweils spezifische Filter eingelemt bzw. verwendet. Es ist möglich und bevorzugt, den Sensorkopf so auszugestalten, dass Bilder aller Kamerasensoren simultan aufgenommen werden. Dies erleichtert die Überlagerung der Einzelbilder zu einem Gesamtbild, die Verortung von Objekten und die Selbstlokalisierung.
Es ist möglich und bevorzugt, dass der Sensorkopf ein mehr als nur hemisphärisches Sichtfeld erfasst. Dies ist vorteilhaft, weil dann in flacher Landschaft selbst bei geneigter Drohne immer noch bis zum Horizont geblickt werden kann und weil überdies in hügeliger Landschaft selbst Steilhänge gut erfasst werden.
Es ist möglich und bevorzugt, den Sensorkopf so auszugestalten, dass Bilder in einem festen zeitlichen Abstand und/oder nach dem Zurücklegen einer bestimmten Strecke erfasst werden. Dabei kann in einer praktischen Implementierung ein neues Bild alle 2 Sekunden bis alle 15 Sekunden oder alle 5 m bis alle 100 m aufgenommen werden. Dies ist ausreichend, um bei typischen Flughöhen und Fluggeschwindigkeiten und am Anmeldetag sinnvoll implementierbaren Bildauflösungen mehrere Bilder zu erfassen, auf denen Objekten einer herkömmlich interessierenden Größe in sinnvoller Größe abgebildet werden.
Es ist möglich und bevorzugt, den Sensorkopf so auszugestalten, dass Bilder in einem Format abgelegt werden, das ein Load on Demand ermöglicht, insbesondere ein Load on Demand von Ausschnitten einer Hemisphäre, die eine Überlagerung von mindestens zwei Sensorbildem erfordern.
Es ist möglich, den Sensorkopf so auszugestalten, dass er Energie von der Drohne erhält. Bei für Drohne und Sensorkopf separaten Energiespeichem besteht die Gefahr, dass ein Energiespeicher bereits erschöpft ist, während der andere noch genügend einige Zeit benutzt werden kann. Da Energiespeicher schwer sind, muss somit mehr Gewicht geflogen werden, als sinnvoll ist. Bezieht der Sensorkopf dagegen seine Energie von der Drohne, kann das durch die Energiespeicherung bedingte Gewicht optimal genutzt werden. Anders als bei einer Übertragung von Daten, etwa Positions- und Orientierungsdaten und/oder Bildern zwischen Drohne und Sensorkopf, die einen recht komplexen Eingriff in die drohnensteuemde Elektronik usw. erfordern könnten, ist die Verwendung von Energie aus der Drohne im Regelfall völlig problemfrei möglich, solange die elektrischen Parameter innerhalb vorgegebener Spezifikationen gehalten werden, was bei den vom Sensorkopf typisch benötigten Leistungen ohne weiteres möglich ist. In einer bevorzugten Ausführungsform ist der Sensorkopf bis auf die Energieversorgung unabhängig von der Drohne.
Es ist möglich und bevorzugt, den Sensorkopf so auszugestalten, dass er an der Drohne ablösbar angebracht wird, insbesondere durch Verschrauben.
Es ist möglich und bevorzugt, den Sensorkopf so auszugestalten, dass die für die Suche nach relevanten Objekten in den aufgenommenen Bildern erforderliche Datenverarbeitung im Sensorkopf selbst erfolgt. Insbesondere kann der Sensorkopf für die Objekterkennung innerhalb des Sensorkopfes mittels künstlicher Intelligenz ausgebildet sein. In einer am Anmeldetag bevorzugten Variante wird der Sensorkopf mit einer Grafikkarte gebildet, die in der Lage ist, über Algorithmen der künstlichen Intelligenz nach Objekten in den Bildern respektive daraus berechneter Bilddaten zu suchen. Schutz wird insbesondere auch beansprucht für eine als Drohne ausgestaltete Gebietserfassungsvorrichtung und für eine Drohne mit einem als Gebietserfassungsvorrichtung wie vorbeschrieben autark ausgestalteten, insbesondere anmontierten Sensorkopf.
Schutz wird weiter beansprucht für ein Verfahren zur Suche nach Objekten in einem zu überwachenden Gebiet, wobei das zu durchsuchende Gebiet mit mindestens einer erfmdungsgemäßen Gebietserfassungsvorrichtung überflogen wird, dabei die Bilddaten innerhalb der Gebietserfassungsvorrichtung auf das Vorhandensein von interessierenden Objekten untersucht werden und Bilddaten der ein potentiell interessierendes Objekt enthaltenden Ausschnitte und/oder - vorzugsweise unter Verwendung von Selbstverortungsmethoden bestimmten - Positionsdaten evtl, interessierender Objekte drahtlos an eine Basis übertragen werden. Die hier angesprochenen Methoden zur Selbstverortung bzw. der (zu einer Bewegung eines mobilen Gerätes simultanen) Positionsbestimmung, häufig mit der Abkürzung des englischen Begriffes Simultaneous Localization and Mapping als SLAM bezeichnet, werden verwendet, wenn ein mobiles System wie ein Roboter sich in einer Umgebung bewegen soll und dabei gleichzeitig eine Karte seiner Umgebung erstellen und seine räumliche Lage innerhalb dieser Karte schätzen soll. Da diese Verfahren aber per se bekannt sind, brauchen sie hier nicht näher beschrieben zu werden; erwähnt sei allerdings, dass vorliegend durch die Verwendung vieler Sensoren die Messung besonders genau ausfallen kann.
Die Verarbeitung der aufgenommenen Bilder zu Bilddaten und die Auswertung und Übertragung der Bilddaten kann umfassen, dass Bilder-Rohdaten zunächst aufgearbeitet werden, die dabei erhaltenen eigentlichen Bilddaten einerseits gespeichert und andererseits untersucht und so weiter bearbeitet werden, dass relevante Information an eine Basis übertragen werden kann, die relevante Information an die Basis übertragen wird und dort eine Bewertung der Informaiton oder Reaktion darauf ermöglicht wird.
Zu diesen Schritten im Einzelnen.
Zunächst werden die Rohbilddaten aus den einzelnen Sensorelementen ausgelesen. Dies kann mittels eines sogenannten, per se bekannten Framegrabbers geschehen, der die Roh-Daten gegebenenfalls in einem RAM puffert. Erwähnt sei, dass vorteilhafter Weise die Daten aller einzelnen Bild- Sensorelemente wie aller 24 oder 48 Sensorelemente synchron simultan ausgelesen werden. Zeitgleich werden auch Orientierungs- und Positionsdaten erfasst.
Es kann dann eine Vorverarbeitung zur Aufarbeitung der Rohbilder erfolgen. Bei dieser Vorverarbeitung können defekte Pixel kompensiert werden, ein De-Bayering der zumindest für sichtbares Licht typisch Bayer-Filter aufweisenden Bildsensoren erfolgen, eine Kompensation auf Rolling-Shutter- Effekte und eine Rektifikation vorgenommen werden. All diese Rohbilddaten-Bearbeitungsschritte sind per se bekannt, werden allerdings vorliegend auf einer geeigneten Grafikkarte bzw. mit einer geeigneten Grafik-GPU so schnell durchgeführt, dass bis zur nächsten Bildaufhahme noch genügend Zeit bleibt, um die so erhaltenen Bilddaten auf das Vorliegen von interessierenden Objekten (oder Features) zu untersuchen.
Die durch die beschriebenen Schritte aus den Rohbilddaten erhaltenen aufgearbeiteten Bilddaten können für das folgende zudem gespeichert werden, wobei die Speicherung bereits so erfolgen kann, dass später Bildausschnitte unterschiedlicher Größe ohne Probleme auf Anforderung von einem entfernten Benutzer heruntergeladen werden können. Dabei besteht das Problem, dass die in den Ausschnitten unterschiedlicher Größe dargestellten Objekte bzw. Texturen ohne geeignete Gegenmaßnahmen Ali- asing-Effekte auftreten, die als Artefakte sehr störend wirken, besonders wenn Muster mit schrägen oder gerundeten Linien dargestellt werden (hingewiesen wird insoweit auf den Moire-Effekt und Techniken, die diesen vermeiden bzw. reduzieren).
Derartige Techniken, die unerwünschte Effekte bei Darstellungen unterschiedlicher Größe vermeiden, sind als MIP-MAP -Methoden bekannt und für die vorliegende Anwendung wird es bevorzugt, die aufgearbeiteten Bilddaten unter Verwendung derartiger Methoden abzuspeichem, zumal dies nur geringfügig mehr Speicherbedarf erfordert.
Es werden dann alle entsprechenden Daten jedes Bildes vollständig abgespeichert, um einerseits nach Durchführung einer Flugmission die Möglichkeit zu haben, noch einmal durch alle Bilder durchzugehen, weitergehende Berechnungen an den Bilddaten durchzuführen, etwa Berechnung von 3-D- Modellen des überflogenen Gebietes oder von Teilen davon, andererseits aber auch, um während der Mission schnell und problemfrei Bildausschnitte für an einer Basisstation befindliche Beobachter bereitzustellen.
Weiter werden die aufgenommenen Bilder nach interessierenden Objekten respektive Features durchsucht (erwähnt sei, dass es nicht notwendig ist, dass ein interessierender Bildteil wirklich ein „Objekt“, also einen klar definierten dreidimensionalen, festen Körper darstellt. So kann etwa auch das Vorhandensein von bestimmten Spuren im Schnee, das Auftreten von Rauch usw. von Interesse sein, für das der Begriff „Feature“ eher zutreffen würde. Gleichwohl wird vorliegend häufig gleichbedeutend von Objekten gesprochen. Zudem kann in einzelnen Fällen eine Kombination unterschiedlicher Merkmale erforderlich sein, um Interesse zu erwecken, z.B. das Vorhandensein einer Spur im Schnee und das Vorhandensein einer auf Verletzung deutenden, rötlichen Färbung in unmittelbarer Nähe der Spur- dies würde dann vorliegend gemeinsam als Objekt bezeichnet. Für die Suche nach Objekten kann eine Einspeisung der Bilddaten in einen Pufferspeicher erfolgen, der einen besonders schnellen Zugriff der Grafikkarte bzw. GPU auf die Daten erlaubt und es ist möglich, dass die Grafikkarte bzw. GPU als relevant erkannte Objekte respektive zugehörige Daten wie Position-und Neigedaten usw. in einen „Kandidaten“-Pufferspeicher schreibt. Gegebenenfalls erlaubt dies auch eine mehrstufige Suche, etwa indem in einer ersten Stufe als potentielle Kandidaten erkannte Bildausschnitte in einer weiteren Stufe darauf untersucht werden, ob bei genauerer Analyse immer noch die Vermutung besteht, sie könnten interessierende Objekt zeigen.
Es ist auch möglich, potentielle Kandidaten zu speichern, und zwar zusammen mit einer aktuellen Position, um dann bei Aufnahme eines nachfolgenden Bildes zu überprüfen, ob dort das Objekt ebenfalls an der erwarteten Position - oder bei beweglichen Objekten zumindest nahe dazu - gefunden werden kann. Alternativ und oder zusätzlich kann natürlich überprüft werden, ob ein potentieller Feature- Kandidat eine Entsprechung in zuvor aufgenommenen und durchsuchten Bildern findet.
Es kann dann, insbesondere bei nur grober erster Durchsicht und/oder bei sehr vielen potentiellen Kandidaten verlangt werden, dass ein und dasselbe Objekt mehrfach in einer Folge von Bildern ermittelt wird, bevor eine entsprechende Information über die Kommunikationsleitung mit beschränkter Bandbreite an einen menschlichen Beobachter bzw. eine Basisstation übertragen wird. Hingewiesen sei im Übrigen darauf, dass es ohne weiteres möglich ist, die Entscheidung darüber, ob ein bestimmtes Objekt tatsächlich interessiert, an der Basisstation zu trefen, und zwar unterstützt durch oder vollständig vermittels von automatisierten Algorithmen durchzuführen und/oder die entsprechenden, übermittelten Bildausschnitte zeitverzögert auszuwerten. Dies gilt insbesondere für Flugmissionen, bei denen zwar eine besonders genaue Durchsuchung eines Gebietes erforderlich ist, jedoch nicht schnell reagiert werden muss oder kann.
Die (photogrammetrische) Lokalisation eines Objektes innerhalb eines überflogenen Gebietes kann Selbstverortung nutzen. Da die einzelnen Sensorelemente relativ zueinander fix sind und auch Parameter wie die Kamerabrennweite auf Dauer fix sind, und da überdies zumindest bevorzugt jedes (Ge- samt-)Bild hemisphärisch ist, ist es einfach, festzulegen, wo der Ort, an dem ein potentieller Kandidat in einem Bild auftritt, in einem nachfolgenden Bild oder einem vorangegangen aufgenommen Bild zu finden ist. Dabei ist zudem hilfreich, dass nicht nur hemisphärische Bilder aufgenommen werden, sondern dass innerhalb einer aufgenommenen Hemisphäre auch ein Überlapp von mit benachbart zueinander angeordneten Sensorelementen vorhanden ist. Zudem ist es möglich und, weil leicht durchführbar, auch sinnvoll, die Sensorelementanordnung entweder für jeden Sensorkopf aufeinander einzukalibrieren oder zumindest eine für alle Sensorköpfe eines Modelltypus gültige Kalibration vorzunehmen. Der Rückgriff auf eine solche Kalibration erhöht die Genauigkeit bei einer Selbstlokalisation weiter. Dass zusätzlich und/oder alternativ eine Absolutverortung erfolgen kann, indem auf eine bekannte Flugrichtung, ein Magnetometer, Gyroskope, Kreiselkompassdaten, ein Inclinometer, GPS- und/oder GNSS- Signale usw. Bezug genommen wird und oder dass mit solchen Daten eine Präzision der Selbstverortung erhöht werden kann, sei als bevorzugt erwähnt.
Das eigentliche Auffmden der Objekte in den Bilddaten kann durch Verfahren der künstlichen Intelligenz, z.B. die Anwendung neuronaler Netze und dergleichen geschehen, und zwar ohne großen Leistungsaufwand auf einer herkömmlichen Grafikkarte, die für entsprechende Algorithmen ausgelegt ist, etwa durch eine Vielzahl von CUDA-Rechenwerken. Dabei kann insbesondere auch der sog. optische Flow von Bild zu Bild berücksichtigt werden, insbesondere bei ortsrichtiger Überlagerung der sequenziell erhaltenen Bilddaten. Dass die Bestimmung eines optischen Flusses auch unter Berücksichtigung der Bewegung einen im Vergleich besonders geringen Rechenaufwand erfordert, sei hier als vorteilhaft erwähnt. Die eigentlichen, zur Objektidentifikation erforderlichen Techniken, die neben dem eigentlichen Erkennen auch eine automatisierte Segmentierung umfassen, brauchen hier vorliegend nicht diskutiert werden, da entsprechende Techniken der künstlichen Intelligenz per se bekannt sind. Dass derartige Algorithmen Schritte wie eine Skalierung, Kantenerkennung usw. erfordern können, sei erwähnt.
Zudem ist es ohne weiteres möglich, dann, wenn ein potentieller Kandidat für ein Objekt in den Bilddaten gefunden wurde, diesen in einer GIS-Karte zu verorten. Es ist möglich und bevorzugt, entsprechende Information an eine Basisstation zu übertragen, wo etwa eine Karte aufgebaut werden kann, in der alle Orte potentieller Kandidaten eingetragen sind. Dass diese Karte annotiert und oder bei Überprüfung als irrelevant erkannter potentieller Kandidaten bereinigt werden kann, sei erwähnt. Bevorzugt ist es, auf einer solchen Karte Bilder mit abzulegen und oder die Objekte anklickbaren zu machen, damit die entsprechenden Objekte angezeigt werden können und oder mehr Bilder eines gegebenen Objektes von der entsprechenden Drohne nach geladen werden können. Es sei erwähnt, dass gegebenenfalls in ein und dieselbe Karte von mehreren Drohnen erfasste Objekte eingetragen werden können, was insbesondere dann vorteilhaft ist, wenn nur einzelne Drohnen besonders teure oder wenig benötigte Sensorelemente ausgerüstet sind, wie Sensorelemente für bestimmte Infrarot-Bereiche, und deswegen die mit den teureren Sensorelementen ausgestatteten Drohnen nur dorthin geflogen werden, wo zuvor andere Drohnen in rasterndem Überfliegen eines Gebietes potentielle Kandidaten identifiziert haben. Die spezialisierten Drohnen lassen sich gegebenenfalls automatisiert zu Orten potentieller Kandidaten navigieren. Dies sei als vorteilhaft offenbart. Mit anderen Worten sind gegebenenfalls Drohnenschwärme durch die hier vorgeschlagene GIS-Technik, für die die vorliegenden Gebietserfassungsvorrichtungen besonders vorteilhaft sind, durch die hier offenbarte Technik hocheffizient und automatisiert einsetzbar. Es sei zudem erwähnt, dass es durch den Aufbau geeigneter Kartierungen möglich ist, Hindernisse und Verdeckungen heraus zu rechnen bzw. zu berücksichtigen. Oftmals handelt es sich bei solchen verdeckenden Hindernissen um solche, die selbst in höchst auflösenden Geländekarten nicht eingetragen sind, etwa weil es sich um nur momentan vorhandene, verdeckende Hindernisse handelt. Dass Verdeckungen berücksichtigt werden können, wenn Objekte von Bild zu Bild verfolgt werden bzw. in aufeinanderfolgenden Bildern gesucht werden sollen, sei erwähnt. Dies verringert die Wahrscheinlichkeit, dass per se relevante Kandidaten durch Verdeckung und somit ohne triftigen Grund ignoriert werden.
Die zu potentiellen Kandidaten gehörenden Daten können dann an eine Basis übertragen werden. Dazu ist es bevorzugt, diese Daten zunächst zu puffern. Ein Puffern vermeidet einerseits, dass dann, wenn plötzlich sehr viele potentielle Kandidaten gefunden werden, einzelne der Kandidaten mangels ausreichender Bandbreite gar nicht übertragen werden können und berücksichtigt zudem, dass gegebenenfalls, gerade in schwierigem Gelände, eine gelegentliche Unterbrechung eines Kommunikationskanals auftreten kann. Es ist daher wünschenswert, wenn der Telekommunikationskanal eine Bandbreite besitzt, die zumindest etwas höher ist als für die Übertragung der Information zu allen potentiellen Kandiaten per se erforderlich. Dies erlaubt es, nach einem kurzfristigen Ausfall durch „burst“artige Übertragung den Pufferspeicher zügig zu leeren.
Es kann im Übrigen eine Rückmeldung vorgenommen werden, falls unerwartet viele potentiell relevante Objekte erfasst werden. Eine solche Rückmeldung kann an die Basis erfolgen, weil dann womöglich neue Filter gewählt werden sollten; es ist möglich, mehrere unterschiedliche Filteralgorithmen im Sensorkopf zu speichern, sodass diese nicht während eines Fluges übertragen werden müssen. Es ist zudem möglich, gegebenenfalls im Ansprechen auf eine in zu kurzer Zeit erfasste zu große Vielzahl von Objekten die Fluggeschwindigkeit zu verringern. Es kann auch deshalb sinnvoll sein, weil häufig deswegen viele potentiell relevante Objekte erfasst werden, weil tatsächlich ein gesuchter Ort wie eine Absturzstelle eines Flugzeuges identifiziert wurde. Dort ist aber die Aufnahme aus dichter beieinander hegenden Bildern dann womöglich sinnvoll, um eine bessere dreidimensionale Kartierung zu erlauben.
Dass gegebenenfalls eine Priorisierung potentieller Kandidaten nach Wahrscheinlichkeit oder Wichtigkeit bei dauerhaft zu geringer Bandbreite erfolgen kann, sei ebenfalls erwähnt. Dazu können z.B. über Algorithmen künstlicher Intelligenz gewonnene Wahrscheinlichkeiten, Objektgrößen usw. herangezogen werden.
Es sei erwähnt, dass bevorzugt die Bilddaten vollständig und insbesondere in ein Load On Demand erleichternder bzw. erlaubender Form abgelegt werden, um ein schnelles Nachladen zu ermöglichen. Damit brauchen dann je Kandidat beispielsweise nur um die 10 kB an Daten an eine Basis übertragen werden, was eine erhebliche Entlastung der Telemetrie-Strecke bedeutet. Dass dann gegebenenfalls weitere Detailaufnahmen und/oder Ausschnitte aufeinanderfolgender Bilder abrufbar gemacht werden, um etwa ein gegebenes Objekt aus mehreren Richtungen (Posen) betrachten zu können, sei erwähnt.
Erwähnt sei auch, dass insbesondere nach der Mission die Daten neuerlich feinanalysiert werden können, insbesondere bei sehr langen und datenintensiven Missionen unter Verwendung hinreichend leistungsstarker Server, insbesondere in einer Cloud.
Dass im Übrigen in der Basis in einer Applikationsschicht die entsprechenden Informationen, die von der oder den Drohnen erhalten werden, ebenfalls gepuffert und erforderlichenfalls (zwischen)gespeichert werden können, sei erwähnt. Zudem ist bereits in der Basis eine weitere Durchmusterung möglich, insbesondere ebenfalls mit Algorithmen künstlicher Intelligenz, wozu entsprechende Bilddaten aus der Drohne abgerufen werden können.
Weiter sei erwähnt, dass die Basisstation typisch mit einer geeigneten Software ausgerüstet sein wird, um einem menschlichen Beobachter in geeigneter Form relevante Informationen zur Kenntnis zu geben.
Erwähnt sei auch, dass der offenbarte Sensorkopf trotz der hohen Funktionalität, Datenverarbeitungsleistung und der integrierten Sensoren sowie Datenübertragungsmittel ein nur geringes Gewicht von z.B. nur um die 2 kg aufweisen muss, was sich mit Drohnen noch gut bewegen lässt. Es wird einzuschätzen sein, dass mit dem Fortschreiten der Datenverarbeitungstechnik eine Verkleinerung und leichtere Ausgestaltung möglich sein werden, was entsprechend kleinere Drohnen bzw. größere Reichweiten zulässt. Alternativ können bei höherem Gewicht für sehr leistungsstarke Drohnen, insbesondere etwa Aufklärungsdrohnen, eine große Vielzahl von Sensoren mit leistungsfähiger, langbrennweitiger Optik verbaut werden.
Erwähnt sei, dass mit dem offenbarten Sensorkopf der Nutzen einer Flugmission ganz erheblich gesteigert werden kann, wobei dank der größeren Erkennungszuverlässigkeit und der großen Effizienz durch die Kombination aus hochauflösender, hemisphärischer Bilderfassung und mobiler künstlicher Intelligenz (KI) „on the Edge“ im Sensorkopf selbst ungeachtet der beschränkten Übertragungsbandbreiten ohne weiteres mit der am Anmeldetag zur Verfügung stehender Rechenleistung usw. bereits um etwa einen Faktor 20 gesteigert werden kann.
Erwähnt sei auch, dass der offenbarte Sensorkopf dank der von komplizierten mechanischen Gelenken usw. freien Optikanordnung hochgradig zuverlässig ist. Erwähnt sei weiter, dass der offenbarte Sensorkopf selbst bei Verwendung von 24 oder 48 bildgebenden Sensorelementen, die jeweils 12 MPix liefern, lediglich eine heute bereits herkömmlich verfügbare Grafikkarte bzw. GPU benötigt, um die Bildverarbeitung vor Ort als On-The-Edge-Bildverarbeitung zu bewältigen und dabei interessierende Bildausschnitte zu definieren und für eine Quasi-Echtzeit- Übertragung auszuwählen. Es sei erwähnt, dass eine Bilderfassung mit bis zu 30GBit/s ohne weiteres und damit auch in Fluggeräten mit geringem Energieangebot möglich ist und dass die Bilddaten dabei insbesondere direkt an eine bilddatenverarbeitende Grafikkarte gespeist werden können, wie eine CUDA-Rechenwerke aufweisende kommerzielle Grafikkarte. Dabei sei erwähnt, dass entsprechende Grafikkarten ohne weiteres etwa ITFlop/s Rechenleistung für Objekterkennungszwecke bereitstellen können, was für sehr viele Anwendungen vollkommen ausreichend ist.
Erwähnt sei zudem, dass die für die Bearbeitung der Bilddaten bei den beispielhaft erwähnten 48 Sensorelementen mit je 12 MPix erforderliche Leistung nur etwa 10 W beträgt, was ohne weiteres lokal bereitgestellt werden kann.
Erwähnt sei auch, dass der offenbarte Sensorkopf gegebenenfalls zusätzlich zu den Ausschnitten einen Videostrom mit an niedrige Datenübertragungsraten angepasster Videostrom-Auflösung übertragen kann, die auf Auflösungen unter der gemäß Bildsensoren maximal möglichen Auflösung verringert ist.
Erwähnt sei, dass dem offenbarten Sensorkopf durch Einsatz von Methoden der künstlichen Intelligenz eine deutlich verringerte Bandbreite für die Übertragung relevanter Bilddaten genügt.
Erwähnt sei, dass der offenbarte Sensorkopf durch den in sich weitgehend oder vollständig abgeschlossenen Aufbau an einer Vielzahl von unbemannten Fluggeräten montiert werden kann und, dank der Flexibilität insbesondere hinsichtlich der Anzahl und des Typus der Sensoren sowie der Möglichkeit, die verwendeten Algorithmen der künstlichen Intelligenz jeweiligen Gebietserfassungszwecken anzupassen, für vielfältige Anwendungen einsetzbar ist.
Erwähnt sei, dass die Entlastung des Operators es ermöglicht, dass dieser simultan von mehreren Drohnen jeweils selektierte Bildausschnitte erhält, sodass ein einzelner Operator gegebenenfalls ein ganzes Drohnengeschwader sinnvoll nutzen kann.
Es sei darauf hingewiesen, dass es möglich ist, die Bildausschnitte auf einer Vielzahl unterschiedlicher, in einer Basisstation vorhandener Geräte darzustellen wie Mobitelefone, Pads, Laptops usw.. Insbesondere ist es möglich, am Ort, von welchem die Drohne oder mehrere Drohnen gestartet werden, eine Relaisstation zu einem Beobachtungszentrum zu installieren. Derartige Relaisstationen können typisch über Breitbandverbindungen mit Beobachtungszentren kommunizieren, sodass dort die Möglichkeit besteht, empfangene Bilder quasi in Echtzeit auf einer Vielzahl großer Monitore darzustellen, was die Beobachter weiter entlastet.
Zudem kann ermöglicht werden, dass mehrere Beobachter gemeinsam - oder, bei längeren Missionen gegebenenfalls auch nacheinander - die empfangenen Bilddaten bewerten.
Die Erfindung wird im Folgenden nur beispielhaft unter Bezugnahme auf die Figur beschrieben. In dieser ist dargestellt durch:
Fig. 1 eine perspektivische Ansicht eines Sensorkopfes;
Fig. 2 verschiedene funktionale Elemente des Sensorkopfes;
Fig. 3 ein mögliches System zur Gebietserfassung;
Fig. 4. eine Skizze zur Erläuterung der Objektidentifikation.
Nach Figur 1 umfasst ein Sensorkopf 1 ein Gehäuse 2 mit einer Vielzahl fest daran vorgesehener Kameras 3, d.h. Bildsensoren mit zugeordneter Optik, elektronischem Verschluss usw.. Dargestellt sind die Objektive mit einer zugehörigen Schutzabdeckung. Hinter den Objektiven liegen die Sensoren und die zugehörige Elektronik. Die Kameras sind dazu ausgebildet, simultan ausgelesen zu werden und mit jedem Frame gemeinsam ein mindestens hemisphärisches Bild aufzunehmen, und zwar beispielsweise mit einer Rate von hier einem Frame je Sekunde, oder, in weniger bevorzugten Varianten oder für langsamere Drohnen, z.B. je 2 Sekunden oder je 5 Sekunden. Es sei erwähnt, dass gegebenenfalls in kritischen Anwendungen, beispielsweise bei sich sehr schnell bewegenden Drohnen, höhere Frameraten implementierbar wären, insbesondere mit Fortschreiten der Technik. Das einzelne Sensorelement ist vorliegend ein Farbsensor mit 12 Megapixel Auflösung für sichtbares Licht und Bayerfilter.
Am Gehäuse ist weiter ein Touch-Display 4 zu erkennen, mit dem Informationen über den Status des Sensorkopfes vor oder nach einer Mission abgerufen werden können und bestimmte Einstellungen wie beispielsweise die Framerate vorgenommen werden können oder Parameter wie eine absolute Position des Startortes vorgegeben werden können.
Das Gehäuse weist weiter eine Stelle 5 auf, an welcher der Sensorkopf mechanisch an einer Drohne befestigt werden kann, um bei einer optischen Gebietserfassung aus der Luft von der Drohne über das zu überwachende Gebiet hinweg bewegt zu werden. Dem Fachmann wird bewusst sein, dass Gewinde und dergleichen zum Anschrauben des Sensorkopfes an der Drohne gut für die Befestigung geeignet sind.
Der Sensorkopf 1 ist weiter mit einem Stromversorgungsanschluss 6 versehen, über welchen er während des Fluges Leistung aus der Drohne erhalten kann. Nicht graphisch dargestellt ist, dass über die zur Drohne führenden Anschlüsse in dem dargestellten Ausführungsbeispiel auch Poseninformation von der Drohne an den Sensorkopf gespeist werden können.
Weiter weist der Sensorkopf eine I/O-Schnittstelle 7 für das Auslesen von während einer Flugmission aufgenommener Bilddaten und für das vor einer Mission an der Basis erfolgende Einspielen von Konfigurationsdaten wie verschiedenen, auch während der Mission wählbaren bzw. wechselbaren Al- Filter- Algorithmen auf. Es sind zudem Anschlüsse für Telemetrie-Antennen und GPS bzw. GNSS- Empfangsantennen vorgesehen.
Der dargestellte Sensorkopf hat einen Durchmesser von ca. 20cm und ein Gewicht von unter 2 kg.
Im Inneren des in Figur 1 dargestellten Sensorkopfes 1 sind verschiedene funktionale Elemente untergebracht, vergleiche hierzu die schematische Figur 2, nämlich unter anderem - neben der Sensorele- ment-Steuerungs- und Ausleselektronik - eine vorliegend mit einer zur Durchführung von AI- Operationen an den Bilddaten hinreichend leistungsfähigen Grafikkarte 9 bzw. eine hinreichend leistungsfähige GPU, einen Speicher 10 für sämtliche während einer Flugmission aufgenommenen Bilddaten mitsamt den zugehörigen Posen, also der Information über Ort und Ausrichtung des Sensorkopfes. Weiter ist eine Schnittstelle für die Übertragung von Information über die Telemetrie-Strecke vorhanden. Zudem ist eine Kontrollereinheit 11 integriert, die insbesondere zur Berechnung verschiedener Informationen wie beispielsweise der Roseninformation aus den entsprechenden Sensoren dient.
Nach Figur 3 ist der Sensorkopf 1 im Betrieb an einer Drohne D befestigt, die im vorliegenden Ausführungsbeispiel Poseninformation an den Sensorkopf gibt, was aber nicht zwingend ist; in bevorzugten Varianten ist der Sensorkopf selbst mit geeigneten Sensoren für die Erfassung der Pose ausgerüstet und insoweit autark. Dass alternativ der Sensorkopf selbst Poseninformation erfassen könnte, etwa durch triaxiale Accelerometer, sei daher explizit als vorteilhaft offenbart. Der Sensorkopf nimmt mit allen Sensorelementen simultan hemisphärische Bilder auf, die dann bearbeitet werden, indem zunächst die Rohdaten in üblicher Weise bearbeitet werden (was die Korrektur defekter Pixel, Bayer- Filterung usw. einschließt). Die aufbereiteten Bilddaten werden vollständig weg geschrieben, und zwar derart, dass später ein Nachladen von Ausschnitten unterschiedlicher Größe und deren Darstellung ohne Artefakte möglich ist.
Dann wird in den aufbereiteten Bilddaten mit Algorithmen der künstlichen Intelligenz nach interessierenden Objekten gesucht und es werden Ausschnitte bestimmt, in denen potentielle Kandidaten interessierender Objekte hegen. Zugleich wird unter Anwendung von SLAM-Verfahren bestimmt, wo die potentielle Kandidaten zu verorten sind, dass das potentiell interessierende Objekte vermutet werden. Die potentiellen Kandidaten werden per Telemetrie, vergleiche Bezugszahl 12, zusammen mit den ermittelten Ortsdaten an eine Basisstation übertragen und zwar mit einem den potentiellen Kandidaten zeigenden Bildausschnitt. Im dargestellten Ausführungsbeispiel besitzt der Sensorkopf eigene Datenübertragungsmittel, um die Telemetrieaufgaben zu bewältigen, ist also auch insofern von der Drohne unabhängig, was bevorzugt ist, weil es die Systemintegration vereinfacht. Dort kann ein menschlicher Beobachter bewerten, ob der potentielle Kandidaten tatsächlich relevant ist, und gegebenenfalls zur Bewertung oder bei einem interessierenden Objekt 14 weitere Information vom Sensorkopf über die Telemetriestrecke anfordem. Gegebenenfalls ist es möglich, von der Basisstation Information für eine weitere Bewertung in eine Cloud zu speisen, vergleiche Bezugszahl 15.
In Figur 4 ist dargestellt, dass ein als Stem dargestelltes Objekt 14 in einem zu erfassende Gebiet bei Überfliegen des Objektes in durch den Pfeil dargestellter Richtung mehrfach erfasst wird. Durch Kenntnis der bei jeder Bildaufhahme gegebenen Position bzw. zumindest Kenntnis der Positionsdifferenz und /oder durch die Anwendung von per se bekannten Selbstlokalisationsverfahren und fotogranmetrischen Methoden, die bei den typisch kalibrierten Sensorköpfen besonders präzise sind, kann der Ort des Objektes 14 ermittelt und in einem grafischen Informationssystem kartiert werden. Die entsprechende Information kann als Vorschlag an die Basisstation übertragen werden und von dort kann, falls an der Basisstation automatisiert oder durch einen menschlichen Beobachter festgestellt wird, dass das Objekt relevant sein könnte für den Zweck der Beobachtungsmission, gegebenenfalls Informationen nachgeladen werden oder eine Reaktion auf das Auffmden des Objektes an dem entsprechenden Ort veranlasst werden.
Dass es möglich ist, den Sensorkopf in unterschiedlichen Ausprägungen der Autarkie zu betreiben, sei erwähnt. So kann in einer ersten Ausführungsform eine vollständige Autarkie gegeben sein; in einer zweiten Ausführungsform kann die Drohne ausschließlich Energie an den Sensorkopf speisen; in einer dritten Ausführungsform speist die Drohne auch Positionsdaten und/oder Ausrichtungsdaten zusätzlich zu Energie an den Sensorkopf; in einer vierten Ausführungsform speist die Drohne ausschließlich Positionsdaten und/oder Ausrichtungsdaten an den Sensorkopf und in einer fünften Ausführungsform mit besonders enger Kopplung kann die Drohne die Telemetrie-Kommunikation übernehmen, Energie an den Sensorkopf speisen und Positionsdaten und Ausrichtungsdaten für den Sensorkopfbereitstellen. Dass weitere Varianten möglich sind, sei erwähnt. Hingewiesen sei auch darauf, dass es möglich ist, eine Drohne selbst fest als Gebietserfassungsvorrichtung auszugestalten. Dies hat insbesondere dort Vorteile, wo eine besonders hohe Versagenssicherheit gewährleistet sein muss und Kosten eine dagegen eher untergeordnete Rolle spielen, etwa bei besonders kritischen Rettungsmissionen oder militärischen Operationen. Zusammenfassend wurde somit ein Luftbilderfassungsverfahren unter Verwendung von Methoden der künstlichen Intelligenz, insbesondere Methoden der Edge-AI gezeigt, das es erlaubt, unter Verwendung von Datenübertragungsverfahren wie dem 4G bzw. 5G-Standard die digitale Bildgebung signifikant zu verbessern, Drohnen breiter einsetzbar zu machen und Computer-Visions-Verfahren eine neue Anwendung zu eröffnen.
Weiter wurde zusammenfassend gezeigt, wie mit einer neuartigen Kameratechnik unter Verwendung AI gestützter Echtzeit-Bilddatenauswertung die Zuverlässigkeit und die Effizienz einer Mission zur Luftbilderfassung um ein Mehrfaches gesteigert werden kann.
Beschrieben wurde somit vorstehend unter anderem eine zur optischen Gebietserfassung aus der Luft ausgebildete Gebietserfassungsvorrichtung mit einer Vielzahl von Bildsensoren, deren Sichtfelder gemeinsam einen Bereich überdecken, die dazu ausgebildet sind, wiederholt Bilder aufhehmen, und die zur Anbringung an einem Fluggerät ausgebildet oder in ein Fluggerät integriert sind, einer Bildspeichereinheit zum zumindest temporären Speichern von für die aufgenommenen Bilder repräsentativen Bilddaten aus den Bildsensoren, und drahtlosen Datenübertragungsmitteln, wobei eine Bildauswerteeinheit vorgesehen ist, die zur automatisierten Ermittlung zumindest eines potentiell interessierenden Objektes in den Bilddaten, und zu wenigstens einem von Definition von zumindest einem, das potentiell interessierende Objekt enthaltenden Ausschnitt und Bestimmung der Positionsdaten des potentiell interessierenden Objektes ausgebildet ist, und durch drahtlose Datenübertragungsmittel, die dazu ausgebildet sind, von den zumindest temporär gespeicherten Bildern selektiv zumindest einen Bildausschnitt, der das zumindest eine potentiell interessierende Objekt enthält, und/oder die mit der Bildauswerteeinheit bestimmten Positionsdaten des potentiell interessierenden Objektes in den Bilddaten drahtlos an eine Basis zu übertragen.
Dabei kann vorteilhaft sein, wenn die Sensoren für eine mindestens hemisphärische Sichtfelderfassung angeordnet sind.
Es ist insbesondere unabhängig davon, ob die Sensoren für eine mindestens hemisphärische Sichtfelderfassung angeordnet sind, möglich, dass der Sensorkopf Sensoren umfasst, die Bilder mit zugeordneten, unterschiedlich orientierten Polarisationsfiltern aufhehmen, und/oder wenigstens zwei verschiedene Sensorarten umfasst, die ausgewählt sind aus VIS, thermal, MWIR, LWIR, wobei bevorzugt für Sensoren unterschiedlicher Sensorart unterschiedliche Verfahren der Bilderkennung bzw. unterschiedliche trainierte Filteralgorithmen verwendet werden, und wobei die mit jeweiligen Sensorarten bzw. Polarisationen aufgenommenen Sichtfelder praktisch vollständig überlappen.
Weiter kann, unabhängig von der Frage, ob die Sensoren für eine mindestens hemisphärische Sichtfelderfassung angeordnet sind und/oder ob unterschiedliche Sensoren bzw. unterschiedliche Polarisati- onsrichtungen erfassende Sensoren vorgesehen sind, bei einer Gebietserfassungsvorrichtung vorteilhaft sein, dass den Bildsensoren eine Bildausleseeinheit zugeordnet ist, die dazu ausgebildet ist, Bilder aller Bildsensoren simultan auszulesen, insbesondere in einem festen zeitlichen Abstand und/oder nach dem Zurücklegen einer bestimmten Strecke.
Auch kann, vorteilhaft in Verbindung mit anderen vorteilhaften Ausgestaltungen, aber auch für sich alleine, bevorzugt sein, wenn die Bildsensoren zumindest relativ zueinander feststehen und bevorzugt sowohl relativ zueinander als auch zum Fluggerät feststehen.
Für eine Gebietserfassungsvorrichtung, die weitgehend autark von den Sensoren und der Telemetriestrecke einer sie transportierenden Drohne sein soll, kann es - auch unabhängig von anderen vorteilhaften Ausgestaltungen- vorteilhaft sein, wenn sie -einen Sensorkopf umfasst, der mit zumindest einem von Beschleunigungsmesser, bevorzugt einem triaxialen Beschleunigungsmesser, Positionsbestimmungsmittel, bevorzugt einem oder mehreren GPS-Sensor und/oder GNSS -Sensor, Neigungsmesser, Gyroskop und Magnetometer ausgerüstet ist und/oder zur Bestimmung der eigenen Position durch Triangulation und/oder zur Selbstverortungausgebildet ist;
Es sei als alternativ und/oder zusätzlich vorteilhafte Ausführung auch offenbart , dass die Gebietserfassungsvorrichtung so ausgebildet sein, dass sie einen Speicher aufweist, der zum Wegschreiben von hochaufgelösten Bilddaten, bevorzugt zum Speichern hochaufgelöster Bilddaten von allen Bildsensoren mitsamt den zur Aufhahmezeit gehörigen Positions- und/oder Orientierungsdaten ausgebildet ist, insbesondere zum Wegschreiben aller während eines Fluges oder Flugabschnittes aufgenommenen Bilddaten.
Es sei als alternativ und/oder zusätzlich vorteilhafte Ausführung auch offenbart, dass eine Gebietserfassungsvorrichtung - unabhängig von anderen vorteilhaften Ausgestaltungen- eine Übertragungs- Bandbreite aufweist, die geringer ist als jene, die zur vollständigen Übertragung aller Bilddaten eines aufgenommen Bildes binnen des bis zur nächsten Bildaufhahme verstreichenden Zeitraumes erforderlich ist und/oder mit einer Übertragungs-Bandbreite verwendbar sind, die geringer ist als jene, die zur vollständigen Übertragung der Daten aller aufgenommenen Bilder binnen des bis zur nächsten Bildaufnahme verstreichenden Zeitraumes erforderlich wäre, und/oder während einer Übertragungsdauer verwendbar sind, die kürzer ist als der Zeitraum, der zur Übertragung aller je Bildaufhahmezeitraum aufgenommener Bilder erforderlich wäre , wobei die drahtlosen Datenübertragungsmitteln dazu ausgebildet sind, nur die selektierten aktuellen Bilddaten, insbesondere Bilddaten mit dem zumindest einen Bildausschnitt, der das zumindest eine potentiell interessierende Objekt enthält sowie von der oder einer Basis angeforderte frühere Bilddaten zu übertragen.
Während die jeweiligen vorteilhaften Merkmale für sich alleine erfinderisch und/oder vorteolhaft sein können sein, wird zu verstehen sein, dass bei einer als Drohne ausgestaltete Gebietserfassungsvorrichtung besondere Vorteile erhalten werden, wenn sie über-hemisphärische, hochaufgelöste Bilder mit unterschiedlichen Sensorarten bzw. Polarisationen aufhimmt, dabei durch Sensorkopfeigene Positionsund Orientierungsbestimmungsmittel die Position und Orientierung drohnenunabhängig ermittelt wird, und eine Überlagerung der Bilder durch simultane Aufnahme erleichert wird. In einem solchen Fall ist es besonders einfach, mit für die unterschiedlichen Bildsensoren unterschiedlichen Filtern Objekte aufzuspüren, da die Bildanalyse sowohl lokal im Sensorkopf als auch an einer Basis erleichtert wird und so ist sinnvoll, während eines Fluges nur eine Selektion potentiell interessanter Bilddaten zu übertragen, die restlichen Daten im Kopf wegzuschreiben und dann bei Bedarf weitere Bilddaten zu übertragen. Schutz wird daher auch beansprucht für eine Drohne mit einer Gebietserfassungsvorrichtung wie vorstehend offenbart, bei welcher der Sensorkopf eine Schnittstelle aufweist, die dazu ausgebildet ist, die dazu ausgebildet ist, aus einer Datenbank für bestimmte Objekte charakteristische Bild-Filter zur Objektidentifikation zu erhalten; Sensoren umfasst, die Bilder mit zugeordneten, unterschiedlich orientierten Polarisationsfiltern Polarisation aufnehmen und/oder wenigstens zwei verschiedene Sensorarten umfasst, die ausgewählt sind aus VIS, thermal, MWIR, LWIR, wobei die mit jeweiligen Sensorarten bzw. Polarisationen aufgenommenen Sichtfelder praktisch vollständig überlappen und bevorzugt für Sensoren unterschiedlicher Sensorart unterschiedliche Verfahren der Bilderkennung bzw. unterschiedliche trainierte Filteralgorithmen verwendet werden, die Sensoren für eine mindestens hemisphärische Sichtfelderfassung angeordnet sind und den Bildsensoren eine Bildausleseeinheit zugeordnet ist, die dazu ausgebildet ist, Bilder aller Sensoren auszulesen, wobei die Bildsensoren zumindest relativ zueinander und relativ zum Fluggerät feststehen, der Sensorkopf mit zumindest einem von triaxialen Beschleunigungsmesser, Positionsbestimmungsmittel, bevorzugt einem oder mehreren GPS- Sensor und/oder GNSS -Sensor, Neigungsmesser, Gyroskop und Magnetometer derart ausgerüstet ist, dass zumindest eine Orientierung des Sensorkopfes bei der aufhahme erfasst werden kann, wobei der Sensorkopf weiter einen Speicher aufweist, der zum Wegschreiben der hochaufgelösten Bilddaten mitsamt den zur Aufhahmezeit gehörigen, im Sensorkopf ermittelten Positions- und Orientierungsdaten ausgebildet ist, und wobei die drahtlosen Datenübertragungsmitteln eine Übertragungs-Bandbreite aufweisen, die geringer ist als jene, die zur vollständigen Übertragung aller Bilddaten eines aufgenommen Bildes binnen des bis zur nächsten Bildaufhahme verstreichenden Zeitraumes erforderlich ist, und/oder mit einer Übertragungs-Bandbreite verwendbar sind, die geringer ist als jene, die zur vollständigen Übertragung der Daten aller aufgenommenen Bildes binnen des bis zur nächsten Bildaufnahme verstreichenden Zeitraumes erforderlich wäre, und/oder während einer Übertragungsdauer verwendbar sind, die kürzer ist als der Zeitraum, der zur Übertragung aller je Bildaufhahmezeitraum aufgenommener Bilder erforderlich wäre, wobei die drahtlosen Datenübertragungsmitteln dazu ausgebildet sind, nur selektierte aktuelle Bilddaten, insbesondere Bilddaten mit dem zumindest einen Bildausschnitt, der das zumindest eine potentiell interessierende Objekt enthält und/oder von der oder einer Basis angeforderte frühere Bilddatenzu übertragen. Dass damit besonders einfach nach Objekten in einem zu überwachenden Gebiet gesucht werden kann, bei dem das zu überwachende Gebiet mit mindestens einer Gebietserfassungsvorrichtung überflogen wird, dabei die Bilddaten innerhalb der Gebietserfassungsvorrichtung auf das Vorhandensein von interessierenden Objekten untersucht wird und Bilddaten der ein potentiell interessierendes Objekt enthaltenden Ausschnitte und/oder Positionsdaten, vorzugsweise unter Verwendung von Selbstverortungsmethoden bestimmten Positionsdaten evtl, interessierender Objekte drahtlos an eine Basis übertragen werden, sei erwähnt, ebenso, dass dank der Entlastung der menschlichen Beobachter an der Basis einem menschlichen Beobachter an einer Basis Bilder von mehr als einer Drohne übertragen werden können, ohne dass dieser davon auf Dauer überlastet wird.
Bezugszeichenliste :
1 Sensorkopf
2 Gehäuse des Sensorkopfes
3 Bildsensorelemente mit fest im Gehäuse verankerter Optik vor den einzelnen Sensorelementen
4 lokales Touch Display zur Bedienung vor / nach einer Mission
5 Befestigungsmittel zur Anbringung an Drohne
6 Stromversorgungsanschluss
7 I/O -Schnittstelle zum Auslesen des Speicher nach Rückkehr an die Basis
8 Anschlüsse für Telemetrieantennen und GPS/GNSS-Empfanger
9 GPU für Objekterkennung
10 Speicher in Sensorkopf
11 von GPU verschiedene weitere Rechenmittel im Sensorkopf (Prozessor, Microcontroller, RAM usw.)- Es sei darauf hingewiesen, dass gegebenenfalls die Objekterkennung und die weiteren Aufgaben wie die Posenerfassung usw. auf einer einzigen Rechenanordnung durchgeführt werden können und insofern eine Trennung in GPU und weiteren Prozessor nicht zwingend ist, insbesondere nicht bei fortschreitender Prozessortechnik
12 Telemetriestrecke
13 Basisstation mit Display, Rechnern, Cloudverbindung, Auswertesoftware und bidirektionaler Kommunikationsmöglichkeit mit dem Sensorkopf insbesondere zum Empfang von Bilddaten potentiell interessierender Objekte und zur Nachlade- Anforderung von hochauflösenderen und/ oder umfassenderen Bildinformationen zu einen menschlichen Beobachter interessierenden Objekten
14 potentiell interessierendes Objekt (Kandidat bzw. Vorschlag).
15 Cloud
D Drohne

Claims

Ansprüche
1. Zur optischen Gebietserfassung aus der Luft ausgebildete Gebietserfassungsvorrichtung mit einer Vielzahl von Bildsensoren, deren Sichtfelder gemeinsam einen Bereich überdecken, die dazu ausgebildet sind, wiederholt Bilder aufhehmen, und die zur Anbringung an einem Fluggerät ausgebildet oder in ein Fluggerät integriert sind, einer Bildspeichereinheit zum zumindest temporären Speichern von für die aufgenommenen Bilder repräsentativen Bilddaten aus den Bildsensoren, und
Datenübertragungsmitteln, gekennzeichnet durch eine Bildauswerteeinheit, die zur automatisierten Ermittlung zumindest eines potentiell interessierenden Objektes in den Bilddaten, und zu wenigstens einem von
Definition von zumindest einem, das potentiell interessierende Objekt enthaltenden Ausschnitt und
Bestimmung der Positionsdaten des potentiell interessierenden Objektes ausgebildet ist, und durch
Datenübertragungsmittel, die dazu ausgebildet sind, von den zumindest temporär gespeicherten Bildern selektiv zumindest einen Bildausschnitt, der das zumindest eine potentiell interessierende Objekt enthält, und/oder die mit der Bildauswerteeinheit bestimmten Positionsdaten des potentiell interessierenden Objektes in den Bilddaten drahtlos an eine Basis zu übertragen. Gebietserfassungsvorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Sensoren für eine mindestens hemisphärische Sichtfelderfassung angeordnet sind. Gebietserfassungsvorrichtung nach dem vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Sensorkopf
Sensoren umfasst, die Bilder mit zugeordneten, unterschiedlich orientierten Polarisationsfiltern aufhehmen, und/oder wenigstens zwei verschiedene Sensorarten umfasst, die ausgewählt sind aus VIS, thermal, MWIR, LWIR, wobei bevorzugt für Sensoren unterschiedlicher Sensorart unterschiedliche Verfahren der Bilderkennung bzw. unterschiedliche trainierte Filteralgorithmen verwendet werden, und wobei die mit jeweiligen Sensorarten bzw. Polarisationen aufgenommenen Sichtfelder praktisch vollständig überlappen. Gebietserfassungsvorrichtung nach einem der beiden vorhergehenden Ansprüche, dadurch gekennzeichnet, dass den Bildsensoren eine Bildausleseeinheit zugeordnet ist, die dazu ausgebildet ist, Bilder aller Bildsensoren simultan auszulesen, insbesondere in einem festen zeitlichen Abstand und/oder nach dem Zurücklegen einer bestimmten Strecke. Gebietserfassungsvorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Bildsensoren zumindest relativ zueinander feststehen und bevorzugt sowohl relativ zueinander als auch zum Fluggerät feststehen. Gebietserfassungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie einen Sensorkopf umfasst, der mit zumindest einem von
Beschleunigungsmesser, bevorzugt einem triaxialen Beschleunigungsmesser, Positionsbestimmungsmittel, bevorzugt einem oder mehreren GPS-Sensor und/oder GNSS -Sensor,
Neigungsmesser, Gyroskop und Magnetometer ausgerüstet ist und/oder zur Bestimmung der eigenen Position durch Triangulation und/oder zur Selbstverortung ausgebildet ist. Gebietserfassungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie einen Speicher aufweist, der zum Wegschreiben von hochaufgelösten Bilddaten, bevorzugt zum Speichern hochaufgelöster Bilddaten von allen Bildsensoren mitsamt den zur Aufnahmezeit gehörigen Positions- und/oder Orientierungsdaten ausgebildet ist, insbesondere zum Wegschreiben aller während eines Fluges oder Flugabschnittes aufgenommenen Bilddaten. Gebietserfassungsvorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Datenübertragungsmittel drahtlos sind und eine Übertragungs-Bandbreite aufweisen, die geringer ist als jene, die zur vollständigen Übertragung aller Bilddaten eines aufgenommen Bildes binnen des bis zur nächsten Bildaufhahme verstreichenden Zeitraumes erforderlich ist, und/oder mit einer Übertragungs-Bandbreite verwendbar sind, die geringer ist als jene, die zur vollständigen Übertragung der Daten aller aufgenommenen Bilder binnen des bis zur nächsten Bildaufhahme verstreichenden Zeitraumes erforderlich wäre, und/oder während einer Übertragungsdauer verwendbar sind, die kürzer ist als der Zeitraum, der zur Übertragung aller je Bildaufhahmezeitraum aufgenommener Bilder erforderlich wäre, und die drahtlosen Datenübertragungsmitteln dazu ausgebildet sind, nur die selektierten aktuellen Bilddaten, insbesondere Bilddaten mit dem zumindest einen Bildausschnitt, der das zumindest eine potentiell interessierende Objekt enthält, sowie von der oder einer Basis angeforderte frühere Bilddaten zu übertragen. Als Drohne ausgestaltete Gebietserfassungsvorrichtung nach Anspruch 1, insbesondere Drohne mit einem als Gebietserfassungsvorrichtung nach einem der vorhergehenden Ansprüche ausgestalteten und zumindest bis auf die Energieversorgung autarken, insbesondere anmontierten Sensorkopf.
Drohne nach dem vorhergehenden Anspruch, bei welcher der Sensorkopf eine Schnittstelle aufweist, die dazu ausgebildet ist, aus einer Datenbank für bestimmte Objekte charakteristische Bild-Filter zur Objektidentifikation zu erhalten;
Sensoren umfasst, die Bilder mit zugeordneten, unterschiedlich orientierten Polarisationsfiltern aufhehmen und/oder wenigstens zwei verschiedene Sensorarten umfasst, die ausgewählt sind aus VIS, thermal, MWIR, LWIR, wobei die mit jeweiligen Sensorarten bzw. Polarisationen aufgenommenen Sichtfelder praktisch vollständig überlappen und bevorzugt für Sensoren unterschiedlicher Sensorart unterschiedliche Verfahren der Bilderkennung bzw. unterschiedliche trainierte Filteralgorithmen verwendet werden, die Sensoren fur eine mindestens hemisphärische Sichtfelderfassung angeordnet sind und den Bildsensoren eine Bildausleseeinheit zugeordnet ist, die dazu ausgebildet ist, Bilder aller Sensoren auszulesen, wobei die Bildsensoren zumindest relativ zueinander und relativ zum Fluggerät feststehen, der Sensorkopf mit zumindest einem von triaxialen Beschleunigungsmesser, Positionsbestimmungsmittel, bevorzugt einem oder mehreren GPS-Sensor und/oder GNSS -Sensor, Neigungsmesser, Gyroskop und Magnetometer derart ausgerüstet ist, dass zumindest eine Orientierung des Sensorkopfes bei der aufhahme erfasst werden kann, wobei der Sensorkopf weiter einen Speicher aufweist, der zum Wegschreiben der hochaufgelösten Bilddaten mitsamt den zur Aufhahmezeit gehörigen, im Sensorkopf ermittelten Positions- und Orientierungsdaten ausgebildet ist, und wobei die drahtlosen Datenübertragungsmitteln eine Übertragungs-Bandbreite aufweisen, die geringer ist als jene, die zur vollständigen Übertragung aller Bilddaten eines aufgenommen Bildes binnen des bis zur nächsten Bildaufhahme verstreichenden Zeitraumes erforderlich ist, und/oder mit einer Übertragungs-Bandbreite verwendbar sind, die geringer ist als jene, die zur vollständigen Übertragung der Daten aller aufgenommenen Bildes binnen des bis zur nächsten Bildaufhahme verstreichenden Zeitraumes erforderlich wäre, und/oder während einer Übertragungsdauer verwendbar sind, die kürzer ist als der Zeitraum, der zur Übertragung aller je Bildaufhahmezeitraum aufgenommener Bilder erforderlich wäre, und wobei die drahtlosen Datenübertragungsmitteln dazu ausgebildet sind, nur selektierte aktuelle Bilddaten, insbesondere Bilddaten mit dem zumindest einen Bildausschnitt, der das zumindest eine potentiell interessierende Objekt enthält und/oder von der oder einer Basis angeforderte frühere Bilddatenzu übertragen. Verfahren zur Suche nach Objekten in einem zu überwachenden Gebiet, dadurch gekennzeichnet, dass über das zu überwachende Gebiet mit mindestens einer Gebietserfassungsvorrichtung überflogen wird, dabei die Bilddaten innerhalb der Gebietserfassungsvorrichtung auf das Vorhandensein von interessierenden Objekten untersucht wird und Bilddaten der ein potentiell interessierendes Objekt enthaltenden Ausschnitte und/oder Positionsdaten, vorzugsweise unter Verwendung von Selbstverortungsmethoden bestimmten Positionsdaten evtl, interessierender Objekte drahtlos an eine Basis übertragen werden. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass einem menschlichen Beobachter an einer Basis Bilder von mehr als einer Drohne übertragen werden.
PCT/EP2023/025142 2022-03-31 2023-03-30 Unbemanntes fluggerät zur optischen gebietserfassung WO2023186350A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP22020145 2022-03-31
EP22020145.3 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023186350A1 true WO2023186350A1 (de) 2023-10-05

Family

ID=81328308

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/025142 WO2023186350A1 (de) 2022-03-31 2023-03-30 Unbemanntes fluggerät zur optischen gebietserfassung

Country Status (1)

Country Link
WO (1) WO2023186350A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710653A (zh) * 2023-12-18 2024-03-15 中国人民解放军国防科技大学 无人机视频感兴趣区域选择与回传融合方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019011205A1 (en) 2017-07-14 2019-01-17 Request Direct (Hk) Limited SYSTEM AND METHOD FOR PROVIDING ANNOTATED AERIAL IMAGE CAPTURED BY A PILOT-FREE AIR VEHICLE
US20210209331A1 (en) 2020-01-06 2021-07-08 International Business Machines Corporation Refined searching based on detected object configurations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019011205A1 (en) 2017-07-14 2019-01-17 Request Direct (Hk) Limited SYSTEM AND METHOD FOR PROVIDING ANNOTATED AERIAL IMAGE CAPTURED BY A PILOT-FREE AIR VEHICLE
US20210209331A1 (en) 2020-01-06 2021-07-08 International Business Machines Corporation Refined searching based on detected object configurations

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Skydio 2 Questions | Page 2 | Skydio Drone Community", 5 November 2019 (2019-11-05), XP093054046, Retrieved from the Internet <URL:https://skydiopilots.com/threads/skydio-2-questions.29/page-2> [retrieved on 20230613] *
UAV COACH: "Skydio 2 | Set Up and App Walkthrough for Beginners", 29 December 2021 (2021-12-29), XP093053963, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=mIxlF9GN0ig> [retrieved on 20230613] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710653A (zh) * 2023-12-18 2024-03-15 中国人民解放军国防科技大学 无人机视频感兴趣区域选择与回传融合方法
CN117710653B (zh) * 2023-12-18 2024-09-13 中国人民解放军国防科技大学 无人机视频感兴趣区域选择与回传融合方法

Similar Documents

Publication Publication Date Title
US11879737B2 (en) Systems and methods for auto-return
EP1854083B1 (de) Kamera zum verfolgen von objekten
US9253453B2 (en) Automatic video surveillance system and method
DE69021354T2 (de) System zur Detektion eines Hindernisses.
EP2044573B1 (de) Überwachungskamera, verfahren zur kalibrierung der überwachungskamera sowie verwendung der überwachungskamera
DE60213526T2 (de) Verfahren und System zur Verbesserung des Situationsbewusstseins von Kommando-Kontrolleinheiten
CN106647804B (zh) 一种自动巡检方法及系统
EP3596570B1 (de) Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
EP3376213A1 (de) Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln
DE102013019488A1 (de) Bilderfassung mit schutz der privatsphäre
EP1505556A1 (de) Verfahren und Vorrichtung zur Erkennung eines Flughindernisses
EP1791364B1 (de) Flugverkehr-Leiteinrichtung
WO2023186350A1 (de) Unbemanntes fluggerät zur optischen gebietserfassung
EP3584536B1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
US20120307003A1 (en) Image searching and capturing system and control method thereof
US12174629B2 (en) Information processing apparatus, information processing method, program, and information processing system
US20150022662A1 (en) Method and apparatus for aerial surveillance
DE102007018187B4 (de) Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
KR101349380B1 (ko) 지형지물 영상이미지를 정밀하게 촬영 및 합성처리하는 항공촬영 시스템
US20240031681A1 (en) System for providing panoramic image
Coppock et al. Real-time creation and dissemination of digital elevation mapping products using total sight flash LiDAR
Peng et al. Development of an UAS for earthquake emergency response and its application in two disastrous earthquakes
EP3623893A1 (de) Verfahren zum lokalisieren einer stoerung eines systems
Gabbert et al. System Development for Wildfire SUAS.
DE102022120476A1 (de) Verfahren und Aufklärungssystem zur Aufklärung eines unerlaubten Einflugs einer Fremddrohne in einen definierten Luftbereich

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23717018

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 23717018

Country of ref document: EP

Kind code of ref document: A1