ES2876449T3 - Cartografía de entorno de múltiples sensores - Google Patents
Cartografía de entorno de múltiples sensores Download PDFInfo
- Publication number
- ES2876449T3 ES2876449T3 ES18188201T ES18188201T ES2876449T3 ES 2876449 T3 ES2876449 T3 ES 2876449T3 ES 18188201 T ES18188201 T ES 18188201T ES 18188201 T ES18188201 T ES 18188201T ES 2876449 T3 ES2876449 T3 ES 2876449T3
- Authority
- ES
- Spain
- Prior art keywords
- environment
- uav
- map
- sensors
- detection data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 title claims description 24
- 238000001514 detection method Methods 0.000 claims abstract description 179
- 238000000034 method Methods 0.000 claims abstract description 97
- 238000004891 communication Methods 0.000 claims description 43
- 230000033001 locomotion Effects 0.000 description 39
- 230000007613 environmental effect Effects 0.000 description 33
- 230000004927 fusion Effects 0.000 description 33
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 21
- 238000013459 approach Methods 0.000 description 19
- 230000007246 mechanism Effects 0.000 description 17
- 230000001133 acceleration Effects 0.000 description 15
- 238000013519 translation Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 230000001052 transient effect Effects 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000000977 initiatory effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282465 Canis Species 0.000 description 1
- 241001125840 Coryphaenidae Species 0.000 description 1
- 241000283073 Equus caballus Species 0.000 description 1
- 241000282324 Felis Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 241000283984 Rodentia Species 0.000 description 1
- 241000282887 Suidae Species 0.000 description 1
- 238000002835 absorbance Methods 0.000 description 1
- 230000002745 absorbent Effects 0.000 description 1
- 239000002250 absorbent Substances 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/102—Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/228—Command input arrangements located on-board unmanned vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/652—Take-off
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
Abstract
Un método para controlar un vehículo aéreo no tripulado (102, 152) dentro de un entorno (100, 150), comprendiendo el método: generar una primera señal para hacer que el vehículo aéreo no tripulado (102, 152) navegue dentro del entorno (100, 150); recibir, usando una pluralidad de sensores (202, 204, 206, 252, 254, 256, 302) portados por el vehículo aéreo no tripulado (102, 152), datos de detección referentes a al menos una porción del entorno (100, 150); generar, basándose en los datos de detección, un mapa de entorno representativo de al menos la porción del entorno (100, 150); detectar, usando el mapa de entorno, uno o más obstáculos (108a-d) situados en la porción del entorno (100, 150); y generar, usando el mapa de entorno, una segunda señal para hacer que el vehículo aéreo no tripulado (102, 152) navegue con el fin de evitar los uno o más obstáculos (108a-d), caracterizado por que la pluralidad de sensores (202, 204, 206, 252, 254, 256, 302) comprende uno o más sensores de visión y uno o más sensores de proximidad; recibir los datos de detección comprende recibir unos primeros datos de detección desde los uno o más sensores de visión, incluyendo los primeros datos de detección una información de profundidad para el entorno, y recibir unos segundos datos de detección desde los uno o más sensores de proximidad, incluyendo los segundos datos de detección una información de profundidad para el entorno; y generar el mapa de entorno comprende generar el mapa de entorno que incluye información de profundidad para el entorno usando los primeros y los segundos datos de detección, en donde la información de profundidad es información con respecto a distancias de uno o más objetos desde el vehículo aéreo no tripulado y/o el sensor respectivo, y en donde, una vez que se ha generado el mapa de entorno, guiar el vehículo aéreo no tripulado dentro del entorno se basa en la información de profundidad incluida en el mapa de entorno.
Description
DESCRIPCIÓN
Cartografía de entorno de múltiples sensores
Antecedentes
Los vehículos no tripulados, tales como vehículos aéreos no tripulados (UAV), se pueden usar para realizar tareas de vigilancia, reconocimiento y exploración en una amplia diversidad de entornos para aplicaciones militares y civiles. Un UAV puede ser controlado manualmente por un usuario remoto o puede funcionar de manera semiautónoma o completamente autónoma. Tales UAV pueden incluir sensores configurados para recopilar datos del entorno circundante.
Los enfoques existentes para obtener datos de entorno pueden no ser óptimos en algunos casos. Por ejemplo, la precisión de los datos de entorno puede estar limitada basándose en las capacidades del tipo de sensor particular usado para recopilar los datos. Unos datos de entorno inexactos pueden tener un efecto perjudicial sobre las funciones de UAV.
El documento US 2014/032034 A1 describe un sistema de entrega que tiene vehículos de entrega aérea no tripulados y una red logística para el control y la supervisión. Una estación terrestre proporciona una ubicación para la interfaz entre los vehículos de reparto, los paquetes portados por los vehículos y los usuarios. Las estaciones terrestres proporcionan ayudas de navegación que ayudan a los vehículos de reparto a ubicar la posición de la estación terrestre.
El documento EP 2515 147 A2 describe un método realizado sobre un vehículo. El método incluye determinar que el vehículo está ubicado dentro de un alcance predeterminado de una baliza, estando asociada la baliza con una identificación de baliza, generar un primer informe basándose en determinar que el vehículo está ubicado dentro de un alcance predeterminado de la baliza o en una primera ubicación, incluyendo la generación: especificar la identificación de baliza, registrar datos de navegación que incluyen una altitud, una distancia con respecto a la baliza y un rumbo en relación con la baliza, y registrar datos de entorno. El método incluye además transmitir el primer informe desde el vehículo a una estación base, incluyendo el primer informe la identificación de baliza, los datos de navegación y los datos de entorno. Además, otro método incluye recibir información de entorno recopilada por un vehículo aéreo no tripulado, estando asociada la información de entorno con una o más condiciones de un centro de datos, almacenar la información de entorno en uno o más dispositivos de memoria que son accesibles por los uno o más dispositivos informáticos, determinar, basándose en la información de entorno, que ha tenido lugar un evento, y realizar, por los uno o más dispositivos informáticos y basándose en determinar que el evento ha tenido lugar, una o más acciones.
El documento US 2014/163781 A1 describe un método y un aparato para identificar un número de diámetros para un grupo de árboles. Un vehículo aéreo no tripulado se mueve en una ruta a través del grupo de árboles a una altura que está configurada para permitir la medición del número de diámetros para el grupo de árboles mediante un sistema de sensores asociado con el vehículo aéreo no tripulado. Se genera información acerca del número de diámetros para el grupo de árboles usando el sistema de sensores asociado con el vehículo aéreo no tripulado.
El documento US 2008/027591 A1 describe un sistema para controlar más de un vehículo remoto. El sistema comprende una unidad de control de operador que permite que un operador reciba información desde los vehículos remotos y envíe órdenes a los vehículos remotos a través de una interfaz de pantalla táctil, siendo los vehículos remotos capaces de realizar comportamientos autónomos usando información recibida desde al menos un sensor en cada vehículo remoto. La unidad de control de operador envía órdenes a los vehículos remotos para realizar comportamientos autónomos en un esfuerzo cooperativo, de tal modo que las órdenes de misión de alto nivel introducidas por el operador hacen que los vehículos remotos realicen más de un comportamiento autónomo de forma secuencial o simultánea.
El documento US 2007/093945 A1 describe un vehículo aéreo no tripulado con una cámara y sensores convencionales, en donde el procesador guía el vehículo basándose al menos en parte en los datos de imagen y los datos de sensor, y un método para guiar un vehículo aéreo no tripulado en donde un procesador guía el vehículo basándose, al menos en parte, en datos de imagen corregidos por datos de sensor tradicionales.
El documento US 2007/106473 A1 describe métodos, sistemas y productos de programa informático para guiar un UAV que incluyen pilotar el UAV, bajo el control de un ordenador de navegación, de acuerdo con un algoritmo de navegación. Mientras se pilota el UAV, el método incluye leer, del receptor de GPS, una secuencia de datos de GPS, anticipar una posición futura del UAV, identificar un obstáculo en función de la posición futura, seleccionar un algoritmo de evitación de obstáculos y pilotar el UAV de acuerdo con un algoritmo de evitación de obstáculos. Identificar un obstáculo en función de la posición futura comprende recuperar datos de obstáculos de una base de datos en función de la posición futura. Identificar un obstáculo en función de la posición futura también incluye representar un vuelo anticipado del UAV con gráficos de ordenador en 3D en función de la posición futura e identificar un obstáculo en
función de la representación del vuelo anticipado.
El documento US 2010/198514 A1 describe un sistema que comprende un vehículo aéreo no tripulado configurado para realizar una transición de un modo de orientación automática de terminal a un modo de búsqueda de objetivo, en respuesta a una señal de enlace ascendente y/o una determinación autónoma de un cambio de escena.
Sumario
La presente invención se refiere a un método de acuerdo con la reivindicación 1 y a un sistema de acuerdo con la reivindicación 15. Las reivindicaciones 2 a 14 se refieren a realizaciones específicamente ventajosas del método de acuerdo con la reivindicación 1.
Algunas realizaciones divulgadas en el presente documento proporcionan enfoques mejorados para controlar objetos móviles tales como UAV dentro de un entorno. En muchas realizaciones, un UAV incluye una pluralidad de tipos de sensor diferentes usados para recopilar información con respecto al entorno circundante. Los datos obtenidos de cada uno de los tipos de sensor diferentes se pueden combinar con el fin de generar representaciones del entorno circundante, tales como un mapa de entorno bidimensional (2D) o tridimensional (3D), y también se pueden usar para facilitar la navegación, el reconocimiento de objetos y la evitación de obstáculos. De manera ventajosa, los enfoques descritos en el presente documento se pueden usar para mejorar la funcionalidad de UAV en diversos tipos de entorno y condiciones operativas.
Por lo tanto, en un aspecto, se proporciona un método para controlar un objeto móvil dentro de un entorno. El método comprende: determinar, usando al menos uno de una pluralidad de sensores portados por el objeto móvil, una ubicación inicial del objeto móvil; generar una primera señal para hacer que el objeto móvil navegue dentro del entorno; recibir, usando el al menos uno de la pluralidad de sensores, datos de detección referentes al entorno; generar, basándose en los datos de detección, un mapa de entorno representativo de al menos una porción del entorno; recibir una instrucción para volver a la ubicación inicial; y generar una segunda señal para hacer que el objeto móvil vuelva a la ubicación inicial, basándose en el mapa de entorno.
En algunas realizaciones, el objeto móvil es un vehículo aéreo no tripulado. El vehículo aéreo no tripulado no puede pesar más de 10 kg. La dimensión máxima del vehículo aéreo no tripulado no puede ser superior a 1,5 m. El vehículo aéreo no tripulado se puede configurar para volar a una altura de no más de 400 m. Opcionalmente, el vehículo aéreo no tripulado se puede configurar para detectar la presencia de una región de vuelo restringida y no volar dentro de una distancia predeterminada de la región de vuelo restringida. La región de vuelo restringida puede ser un aeropuerto. El vehículo aéreo no tripulado puede ser una aeronave de múltiples rotores.
En algunas realizaciones, el entorno puede ser un entorno interior o un entorno de baja altitud.
En algunas realizaciones, la pluralidad de sensores puede comprender un sensor de sistema de posicionamiento global (GPS), un sensor de visión o un sensor de proximidad. El sensor de proximidad puede comprender al menos uno de los siguientes: un sensor de lídar, un sensor ultrasónico o un sensor de cámara de tiempo de vuelo. La pluralidad de sensores puede comprender una pluralidad de tipos de sensor diferentes.
En algunas realizaciones, el mapa de entorno puede comprender un mapa topológico o un mapa métrico. El mapa métrico puede comprender al menos uno de los siguientes: una nube de puntos, un mapa de cuadrículas en 3D, un mapa de cuadrículas en 2D o un mapa de cuadrículas en 2,5D. Opcionalmente, el mapa métrico puede comprender un mapa de cuadrículas de ocupación.
En algunas realizaciones, generar la segunda señal comprende: determinar, usando al menos uno de la pluralidad de sensores, una ubicación actual del objeto móvil; determinar, basándose en el mapa de entorno, una trayectoria desde la ubicación actual hasta la ubicación inicial; y generar una señal para hacer que el objeto móvil se mueva a lo largo de la trayectoria para volver a la ubicación inicial. Determinar la trayectoria puede comprender determinar una trayectoria la más corta desde la ubicación actual hasta la ubicación inicial. Como alternativa o en combinación, determinar la trayectoria puede comprender determinar una trayectoria desde la ubicación actual hasta la ubicación inicial que evite uno o más obstáculos dentro del entorno. La trayectoria puede incluir una o más porciones previamente recorridas por el objeto móvil. La trayectoria puede ser diferente de una trayectoria previamente recorrida por el objeto móvil. Opcionalmente, la trayectoria puede ser una trayectoria de vuelo del objeto móvil. La trayectoria puede incluir la ubicación espacial y la orientación del objeto móvil.
En algunas realizaciones, la trayectoria comprende una pluralidad de puntos de ruta correspondientes a posiciones previamente recorridas del objeto móvil, registrándose la pluralidad de puntos de ruta conforme el objeto móvil navega dentro del entorno. La pluralidad de puntos de ruta se puede registrar en tiempo real conforme el objeto móvil navega dentro del entorno. Como alternativa, la pluralidad de puntos de ruta se puede registrar a intervalos de tiempo predeterminados conforme el objeto móvil navega dentro del entorno. La pluralidad de puntos de ruta se puede
almacenar en una estructura de datos de lista.
En algunas realizaciones, generar la señal para hacer que el objeto móvil se mueva a lo largo de la trayectoria puede comprender: detectar un obstáculo en el entorno situado a lo largo de la trayectoria; modificar la trayectoria con el fin de evitar el obstáculo; y generar una señal para hacer que el objeto móvil se mueva a lo largo de la trayectoria modificada.
En otro aspecto, se proporciona un sistema para controlar un objeto móvil dentro del entorno. El sistema puede comprender una pluralidad de sensores portados por el objeto móvil y uno o más procesadores. Los uno o más procesadores se pueden configurar individual o colectivamente para: determinar, usando al menos uno de la pluralidad de sensores, una ubicación inicial del objeto móvil; generar una primera señal que hace que el objeto móvil navegue dentro del entorno; recibir, usando el al menos uno de la pluralidad de sensores, datos de detección referentes al entorno; generar, basándose en los datos de detección, un mapa de entorno representativo de al menos una porción del entorno; recibir una instrucción para volver a la ubicación inicial; y generar una segunda señal que hace que el objeto móvil navegue para volver a la ubicación inicial, basándose en el mapa de entorno.
En otro aspecto, se proporciona un método para controlar un vehículo aéreo no tripulado dentro de un entorno. El método comprende: generar una primera señal para hacer que el vehículo aéreo no tripulado navegue dentro del entorno; recibir, usando una pluralidad de sensores portados por el vehículo aéreo no tripulado, datos de detección referentes a al menos una porción del; generar, basándose en los datos de detección, un mapa de entorno representativo de al menos la porción del entorno; detectar, usando el mapa de entorno, uno o más obstáculos situados en la porción del entorno; y generar, usando el mapa de entorno, una segunda señal para hacer que el vehículo aéreo no tripulado navegue con el fin de evitar los uno o más obstáculos.
En algunas realizaciones, el vehículo aéreo no tripulado es un rotoavión. El vehículo aéreo no tripulado no puede pesar más de 10 kg. La dimensión máxima del vehículo aéreo no tripulado no puede ser superior a 1,5 m. El vehículo aéreo no tripulado se puede configurar para volar a una altura de no más de 400 m. Opcionalmente, el vehículo aéreo no tripulado se puede configurar para detectar la presencia de una región de vuelo restringida y no volar dentro de una distancia predeterminada de la región de vuelo restringida. La región de vuelo restringida puede ser un aeropuerto.
En algunas realizaciones, el entorno puede ser un entorno interior o un entorno de baja altitud.
En algunas realizaciones, la pluralidad de sensores puede comprender un sensor de sistema de posicionamiento global (GPS), un sensor de visión o un sensor de proximidad. El sensor de proximidad puede comprender al menos uno de los siguientes: un sensor de lídar, un sensor ultrasónico o un sensor de cámara de tiempo de vuelo. La pluralidad de sensores puede comprender una pluralidad de tipos de sensor diferentes. Los datos de detección pueden comprender datos en relación con una pluralidad de sistemas de coordenadas diferentes y generar el mapa de entorno comprende correlacionar los datos en un único sistema de coordenadas.
En algunas realizaciones, el mapa de entorno puede comprender un mapa topológico o un mapa métrico. El mapa métrico puede comprender al menos uno de los siguientes: una nube de puntos, un mapa de cuadrículas en 3D, un mapa de cuadrículas en 2D o un mapa de cuadrículas en 2,5D. Opcionalmente, el mapa métrico puede comprender un mapa de cuadrículas de ocupación.
En algunas realizaciones, la primera señal se genera basándose en instrucciones que se reciben desde un terminal remoto en comunicación con el vehículo aéreo no tripulado. Las instrucciones pueden ser introducidas por un usuario en el terminal remoto. Como alternativa, la primera señal puede ser generada de forma autónoma por el vehículo aéreo no tripulado.
En algunas realizaciones, los datos de detección comprenden datos en relación con una pluralidad de sistemas de coordenadas diferentes y generar el mapa de entorno comprende correlacionar los datos en un único sistema de coordenadas. Generar la primera señal puede comprender generar una trayectoria de vuelo para el vehículo aéreo no tripulado, y generar la segunda señal puede comprender modificar la trayectoria de vuelo basándose en el mapa de entorno con el fin de evitar los uno o más obstáculos. La trayectoria de vuelo se puede configurar para dirigir el vehículo aéreo no tripulado desde una posición actual hasta una posición previa.
En otro aspecto, se proporciona un sistema para controlar un vehículo aéreo no tripulado dentro de un entorno. El sistema comprende una pluralidad de sensores portados por el vehículo aéreo no tripulado y uno o más procesadores. Los uno o más procesadores se pueden configurar individual o colectivamente para: generar una primera señal para hacer que el vehículo aéreo no tripulado navegue dentro del entorno; recibir, usando una pluralidad de sensores portados por el vehículo aéreo no tripulado, datos de detección referentes a al menos una porción del entorno; generar, basándose en los datos de detección, un mapa de entorno representativo de al menos la porción del entorno; detectar, usando el mapa de entorno, uno o más obstáculos situados en la porción del entorno; y generar, usando el mapa de entorno, una segunda señal para hacer que el vehículo aéreo no tripulado navegue con el fin de evitar los uno o más
obstáculos.
En otro aspecto, se proporciona un método para controlar un vehículo aéreo no tripulado dentro de un entorno. El método comprende: recibir una primera señal de detección referente al entorno desde un primer sensor y una segunda señal de detección referente al entorno desde un segundo sensor, en donde el primer y el segundo sensores son de tipos de sensor diferentes, y en donde el primer y el segundo sensores son portados por un vehículo aéreo no tripulado; generar un primer mapa ambiental usando la primera señal de detección y un segundo mapa ambiental usando la segunda señal de detección, incluyendo cada uno del primer y el segundo mapas ambientales una información de ocupación de obstáculos para el entorno; y combinar el primer y el segundo mapas de entorno, generando de ese modo un mapa de entorno final que incluye información de ocupación de obstáculos para el entorno.
En algunas realizaciones, el método comprende además generar una señal para hacer que el vehículo aéreo no tripulado navegue dentro del entorno, basándose al menos en parte en la información de ocupación de obstáculos en el mapa de entorno final.
En algunas realizaciones, el vehículo aéreo no tripulado es un rotoavión. El vehículo aéreo no tripulado no puede pesar más de 10 kg. La dimensión máxima del vehículo aéreo no tripulado no puede ser superior a 1,5 m. El vehículo aéreo no tripulado se puede configurar para volar a una altura de no más de 400 m. Opcionalmente, el vehículo aéreo no tripulado se puede configurar para detectar la presencia de una región de vuelo restringida y no volar dentro de una distancia predeterminada de la región de vuelo restringida. La región de vuelo restringida puede ser un aeropuerto.
En algunas realizaciones, el entorno puede ser un entorno interior o un entorno de baja altitud.
En algunas realizaciones, la pluralidad de sensores puede comprender un sensor de sistema de posicionamiento global (GPS), un sensor de visión o un sensor de proximidad. El sensor de proximidad puede comprender al menos uno de los siguientes: un sensor de lídar, un sensor ultrasónico o un sensor de cámara de tiempo de vuelo. La pluralidad de sensores puede comprender una pluralidad de tipos de sensor diferentes.
En algunas realizaciones, el mapa de entorno puede comprender un mapa topológico o un mapa métrico. El mapa métrico puede comprender al menos uno de los siguientes: una nube de puntos, un mapa de cuadrículas en 3D, un mapa de cuadrículas en 2D o un mapa de cuadrículas en 2,5D. Opcionalmente, el mapa métrico puede comprender un mapa de cuadrículas de ocupación.
En algunas realizaciones, el primer mapa de entorno se proporciona en relación con un primer sistema de coordenadas y el segundo mapa de entorno se proporciona en relación con un segundo sistema de coordenadas diferente del primer sistema de coordenadas. El primer sistema de coordenadas puede ser un sistema de coordenadas global y el segundo sistema de coordenadas puede ser un sistema de coordenadas local. La combinación del primer y el segundo mapas de entorno puede comprender convertir el primer y el segundo mapas de entorno a un único sistema de coordenadas.
En algunas realizaciones, el alcance de detección del primer sensor es diferente del alcance de detección del segundo sensor.
En otro aspecto, se proporciona un sistema para controlar un vehículo aéreo no tripulado dentro de un entorno. El sistema comprende: un primer sensor portado por el vehículo aéreo no tripulado y configurado para generar una primera señal de detección referente al entorno; un segundo sensor portado por el vehículo aéreo no tripulado y configurado para generar una segunda señal de detección referente al entorno, siendo el segundo sensor y el primer sensor de tipos de sensor diferentes; y uno o más procesadores. Los uno o más procesadores se pueden configurar individual o colectivamente para: recibir la primera y la segunda señales de detección; generar un primer mapa de entorno usando la primera señal de detección y un segundo mapa de entorno usando la segunda señal de detección, incluyendo cada uno del primer y el segundo mapas de entorno una información de ocupación de obstáculos para el entorno; y combinar el primer y el segundo mapas de entorno, generando de ese modo un mapa de entorno final que incluye información de ocupación de obstáculos para el entorno.
En otro aspecto, se proporciona un método para controlar un vehículo aéreo no tripulado dentro de un entorno. El método comprende: determinar, usando al menos uno de una pluralidad de sensores portados por el vehículo aéreo no tripulado, una ubicación inicial del vehículo aéreo no tripulado; generar una primera señal para hacer que el vehículo aéreo no tripulado navegue dentro del entorno; recibir, usando el al menos uno de la pluralidad de sensores, datos de detección referentes al entorno; recibir una instrucción para volver a la ubicación inicial; y generar una segunda señal para hacer que el vehículo aéreo no tripulado vuelva a la ubicación inicial a lo largo de una trayectoria, en donde, cuando el al menos uno de la pluralidad de sensores detecta un obstáculo en el entorno situado a lo largo de la trayectoria, la trayectoria se modifica para evitar el obstáculo.
En algunas realizaciones, el vehículo aéreo no tripulado es un rotoavión. El vehículo aéreo no tripulado no puede pesar más de 10 kg. La dimensión máxima del vehículo aéreo no tripulado no puede ser superior a 1,5 m. El vehículo aéreo
no tripulado se puede configurar para volar a una altura de no más de 400 m. Opcionalmente, el vehículo aéreo no tripulado se puede configurar para detectar la presencia de una región de vuelo restringida y no volar dentro de una distancia predeterminada de la región de vuelo restringida. La región de vuelo restringida puede ser un aeropuerto.
En algunas realizaciones, el entorno puede ser un entorno interior o un entorno de baja altitud.
En algunas realizaciones, la pluralidad de sensores puede comprender un sensor de sistema de posicionamiento global (GPS), un sensor de visión o un sensor de proximidad. El sensor de proximidad puede comprender al menos uno de los siguientes: un sensor de lídar, un sensor ultrasónico o un sensor de cámara de tiempo de vuelo. La pluralidad de sensores puede comprender una pluralidad de tipos de sensor diferentes.
En algunas realizaciones, el mapa de entorno puede comprender un mapa topológico o un mapa métrico. El mapa métrico puede comprender al menos uno de los siguientes: una nube de puntos, un mapa de cuadrículas en 3D, un mapa de cuadrículas en 2D o un mapa de cuadrículas en 2,5D. Opcionalmente, el mapa métrico puede comprender un mapa de cuadrículas de ocupación.
En algunas realizaciones, la trayectoria incluye una o más porciones previamente recorridas por el objeto móvil. La trayectoria puede ser diferente de una trayectoria previamente recorrida por el objeto móvil. Opcionalmente, la trayectoria puede ser una trayectoria de vuelo del objeto móvil. La trayectoria puede incluir la ubicación espacial y la orientación del objeto móvil.
En otro aspecto, se proporciona un sistema para controlar un vehículo aéreo no tripulado dentro de un entorno. El sistema puede incluir una pluralidad de sensores portados por el objeto móvil y uno o más procesadores. Los uno o más procesadores se pueden configurar individual o colectivamente para: determinar, usando al menos uno de una pluralidad de sensores portados por el vehículo aéreo no tripulado, una ubicación inicial del objeto móvil; generar una primera señal para hacer que el vehículo aéreo no tripulado navegue dentro del entorno; recibir, usando el al menos uno de la pluralidad de sensores, datos de detección referentes al entorno; recibir una instrucción para volver a la ubicación inicial; y generar una segunda señal para hacer que el vehículo aéreo no tripulado vuelva a la ubicación inicial a lo largo de una trayectoria, en donde, cuando el al menos uno de la pluralidad de sensores detecta un obstáculo en el entorno situado a lo largo de la trayectoria, la trayectoria se modifica para evitar el obstáculo.
En otro aspecto, se proporciona un método para generar un mapa de un entorno. El método comprende: recibir unos primeros datos de detección desde uno o más sensores de visión portados por un vehículo aéreo no tripulado, incluyendo los primeros datos de detección una información de profundidad para el entorno; recibir unos segundos datos de detección desde uno o más sensores de proximidad portados por el vehículo aéreo no tripulado, incluyendo los segundos datos de detección una información de profundidad para el entorno; y generar un mapa de entorno que incluye información de profundidad para el entorno usando los primeros y los segundos datos de detección.
En algunas realizaciones, los primeros y los segundos datos de detección comprenden, cada uno, al menos una imagen que tiene una pluralidad de píxeles, cada píxel de la pluralidad de píxeles asociado con una coordenada de imagen bidimensional y un valor de profundidad. Cada píxel de la pluralidad de píxeles se puede asociar con un valor de color. Cada uno de los primeros y los segundos datos de detección puede comprender información de silueta para uno o más objetos en el entorno.
En algunas realizaciones, el método comprende además generar una señal para hacer que el vehículo aéreo no tripulado navegue dentro del entorno, basándose al menos en parte en la información de profundidad en el mapa de entorno.
En algunas realizaciones, el vehículo aéreo no tripulado es un rotoavión. El vehículo aéreo no tripulado no puede pesar más de 10 kg. La dimensión máxima del vehículo aéreo no tripulado no puede ser superior a 1,5 m. El vehículo aéreo no tripulado se puede configurar para volar a una altura de no más de 400 m. Opcionalmente, el vehículo aéreo no tripulado se puede configurar para detectar la presencia de una región de vuelo restringida y no volar dentro de una distancia predeterminada de la región de vuelo restringida. La región de vuelo restringida puede ser un aeropuerto.
En algunas realizaciones, el entorno puede ser un entorno interior o un entorno de baja altitud.
En algunas realizaciones, los uno o más sensores de visión comprenden solo una cámara. Como alternativa, los uno o más sensores de visión pueden comprender dos o más cámaras. Los uno o más sensores de proximidad pueden comprender al menos un sensor ultrasónico o al menos uno de lídar. Los primeros datos de detección pueden comprender un primer conjunto de imágenes de profundidad y los segundos datos de detección pueden comprender un segundo conjunto de imágenes de profundidad. Generar el mapa de entorno puede comprender: identificar una primera pluralidad de puntos característicos presentes en el primer conjunto de imágenes de profundidad; identificar una segunda pluralidad de puntos característicos presentes en el segundo conjunto de imágenes de profundidad, correspondiendo cada uno de la segunda pluralidad de puntos característicos a uno de la primera pluralidad de puntos
característicos; determinar una correspondencia entre la primera y la segunda pluralidades de puntos característicos; y generar el mapa de entorno combinando el primer y el segundo conjunto de imágenes de profundidad basándose en la correspondencia.
En algunas realizaciones, los primeros datos de detección se proporcionan en relación con un primer sistema de coordenadas y los segundos datos de detección se proporcionan en relación con un segundo sistema de coordenadas diferente del primer sistema de coordenadas. Generar el mapa de entorno puede comprender expresar los primeros y los segundos datos de detección en relación con un tercer sistema de coordenadas. El tercer sistema de coordenadas puede ser o bien el primer sistema de coordenadas o bien el segundo sistema de coordenadas. Como alternativa, el tercer sistema de coordenadas puede ser diferente del primer sistema de coordenadas y el segundo sistema de coordenadas.
En algunas realizaciones, el mapa de entorno puede comprender un mapa topológico o un mapa métrico. El mapa métrico puede comprender al menos uno de los siguientes: una nube de puntos, un mapa de cuadrículas en 3D, un mapa de cuadrículas en 2D o un mapa de cuadrículas en 2,5D. Opcionalmente, el mapa métrico puede comprender un mapa de cuadrículas de ocupación.
En otro aspecto, se proporciona un sistema para generar un mapa de un entorno. El sistema puede comprender: uno o más sensores de visión portados por un vehículo aéreo no tripulado y configurados para generar unos primeros datos de detección que incluyen una información de profundidad para el entorno; uno o más sensores de proximidad portados por el vehículo aéreo no tripulado y configurados para generar unos segundos datos de detección que incluyen una información de profundidad para el entorno; y uno o más procesadores. Los uno o más procesadores se pueden configurar individual o colectivamente para: recibir los primeros y los segundos datos de detección; y generar un mapa de entorno que incluye información de profundidad para el entorno usando los primeros y los segundos datos de detección.
Se deberá entender que se pueden apreciar diferentes aspectos de la invención de forma individual, colectiva o en combinación entre sí. Se pueden aplicar diversos aspectos de la invención descrita en el presente documento a cualquiera de las aplicaciones particulares expuestas a continuación o para cualquier otro tipo de objetos móviles. Cualquier descripción en el presente documento de un vehículo aéreo puede ser de aplicación a y usarse para cualquier objeto móvil, tal como cualquier vehículo. Adicionalmente, los sistemas, dispositivos y métodos divulgados en el presente documento en el contexto del movimiento aéreo (por ejemplo, vuelo) también se pueden aplicar en el contexto de otros tipos de movimiento, tales como movimiento en el suelo o sobre el agua, movimiento bajo el agua o movimiento en el espacio. Además, cualquier descripción en el presente documento de un rotor o conjunto de rotor puede ser de aplicación a y usarse para cualquier sistema, dispositivo o mecanismo de propulsión configurado para generar una fuerza propulsora por rotación (por ejemplo, hélices, ruedas, ejes).
Otros objetos y características de la presente invención se harán evidentes mediante una revisión de la memoria descriptiva, las reivindicaciones y las figuras adjuntas.
Breve descripción de los dibujos
Las características novedosas de la invención se exponen con particularidad en las reivindicaciones adjuntas. Se obtendrá un mejor entendimiento de las características y ventajas de la presente invención mediante referencia a la siguiente descripción detallada que expone realizaciones ilustrativas, en las que se utilizan los principios de la invención, y los dibujos adjuntos de los cuales:
la figura 1A ilustra un UAV que funciona en un entorno exterior, de acuerdo con realizaciones;
la figura 1B ilustra un UAV que funciona en un entorno interior, de acuerdo con realizaciones;
la figura 2A ilustra un esquema para estimar la actitud de UAV usando fusión de sensores, de acuerdo con realizaciones;
la figura 2B ilustra un esquema para estimar la posición y velocidad de UAV usando fusión de sensores, de acuerdo con realizaciones;
la figura 3A ilustra un esquema para cartografía de entorno usando fusión de sensores, de acuerdo con realizaciones;
la figura 3B ilustra un método para generar un mapa de un entorno usando fusión de sensores, de acuerdo con realizaciones;
la figura 4 ilustra un método para cartografía de entorno usando tipos de sensor diferentes, de acuerdo con realizaciones;
la figura 5 ilustra un método para controlar un UAV para evitar obstáculos, de acuerdo con realizaciones;
la figura 6 ilustra un método para controlar un UAV para volver a una ubicación inicial, de acuerdo con realizaciones;
la figura 7 ilustra un método para controlar un UAV para volver a una ubicación inicial al tiempo que se evitan obstáculos, de acuerdo con realizaciones;
las figuras 8A y 8B ilustran un algoritmo para controlar un UAV para volver a una ubicación inicial usando puntos
de ruta, de acuerdo con realizaciones;
las figuras 9A y 9B ilustran un algoritmo para controlar un UAV para volver a una ubicación objetivo usando un mapa de topología, de acuerdo con realizaciones;
la figura 10 ilustra un UAV, de acuerdo con realizaciones;
la figura 11 ilustra un objeto móvil que incluye un portador y una carga útil, de acuerdo con realizaciones; y la figura 12 ilustra un sistema para controlar un objeto móvil, de acuerdo con realizaciones.
Descripción detallada
La presente divulgación proporciona sistemas y métodos para controlar objetos móviles tales como un vehículo aéreo no tripulado (UAV). En algunas realizaciones, el UAV se puede adaptar para portar una pluralidad de sensores configurados para recopilar datos de entorno. Algunos de los sensores pueden ser de tipos diferentes (por ejemplo, un sensor de visión usado en combinación con un sensor de proximidad). Los datos obtenidos por la pluralidad de sensores se pueden combinar para generar un mapa de entorno representativo del entorno circundante. En algunas realizaciones, el mapa de entorno puede incluir información con respecto a la ubicación de objetos en el entorno, tales como objetos u obstáculos. El UAV puede usar el mapa generado para realizar diversas operaciones, algunas de las cuales pueden ser semiautomatizadas o completamente automatizadas. Por ejemplo, en algunas realizaciones, el mapa de entorno se puede usar para determinar automáticamente una trayectoria de vuelo para que el UAV navegue desde su ubicación actual a una ubicación objetivo. Como otro ejemplo, el mapa de entorno se puede usar para determinar la disposición espacial de uno o más obstáculos y, por lo tanto, habilitar que el UAV realice maniobras de evitación de obstáculos. De manera ventajosa, el uso de múltiples tipos de sensor para recopilar datos de entorno como se divulga en el presente documento puede mejorar la precisión de la cartografía de entorno incluso en condiciones operativas y entornos diversos, potenciando de ese modo la solidez y la flexibilidad de las funcionalidades de UAV, tales como la navegación y la evitación de obstáculos.
Las realizaciones proporcionadas en el presente documento se pueden aplicar a diversos tipos de UAV. Por ejemplo, el UAV puede ser un UAV de pequeña escala que no pesa más de 10 kg y/o tiene una dimensión máxima de no más de 1,5 m. En algunas realizaciones, el UAV puede ser un rotoavión, tal como una aeronave de múltiples rotores que es propulsada para moverse a través del aire por una pluralidad de hélices (por ejemplo, un cuadricóptero). A continuación, se describen con más detalle ejemplos adicionales de los UAV y otros objetos móviles adecuados para su uso con las realizaciones presentadas en el presente documento.
Los UAV descritos en el presente documento se pueden operar de forma completamente autónoma (por ejemplo, mediante un sistema informático adecuado, tal como un controlador a bordo), semiautónoma o manual (por ejemplo, por un usuario humano). El UAV puede recibir órdenes desde una entidad adecuada (por ejemplo, un usuario humano o un sistema de control autónomo) y responder a tales órdenes realizando una o más acciones. Por ejemplo, el UAV se puede controlar para despegar del suelo, moverse en el aire (por ejemplo, con hasta tres grados de libertad en la traslación y hasta tres grados de libertad en la rotación), moverse a una ubicación objetivo o a una secuencia de ubicaciones de destino, realizar un vuelo estacionario en el aire, aterrizar en el suelo, y así sucesivamente. Como otro ejemplo, el UAV se puede controlar para moverse a una velocidad y/o aceleración especificadas (por ejemplo, con hasta tres grados de libertad en la traslación y hasta tres grados de libertad en la rotación) o a lo largo de una trayectoria de movimiento especificada. Además, las órdenes se pueden usar para controlar uno o más componentes de UAV, tales como los componentes descritos en el presente documento (por ejemplo, sensores, accionadores, unidades de propulsión, carga útil, etc.). Por ejemplo, algunas órdenes se pueden usar para controlar la posición, la orientación y/o el funcionamiento de una carga útil de UAV, tal como una cámara. Opcionalmente, el UAV se puede configurar para funcionar de acuerdo con una o más reglas de funcionamiento predeterminadas. Las reglas de funcionamiento se pueden usar para controlar cualquier aspecto adecuado del UAV, tal como la posición (por ejemplo, latitud, longitud, altitud), la orientación (por ejemplo, alabeo, cabeceo, guiñada), la velocidad (por ejemplo, de traslación y/o angular) y/o aceleración (por ejemplo, de traslación y/o angular) del UAV. Por ejemplo, las reglas de funcionamiento se pueden diseñar de tal modo que no se permita que el UAV vuele más allá de una altura umbral, por ejemplo, el UAV se puede configurar para volar a una altura de no más de 400 m del suelo. En algunas realizaciones, las reglas de funcionamiento se pueden adaptar para proporcionar mecanismos automatizados para mejorar la seguridad de los UAV y evitar incidentes de seguridad. Por ejemplo, el UAV se puede configurar para detectar una región de vuelo restringida (por ejemplo, un aeropuerto) y no volar dentro de una distancia predeterminada de la región de vuelo restringida, impidiendo de ese modo colisiones potenciales con aeronaves y otros obstáculos.
Pasando a continuación los dibujos, la figura 1A ilustra un UAV 102 que funciona en un entorno exterior 100, de acuerdo con realizaciones. El entorno exterior 100 puede ser un escenario urbano, suburbano o rural, o cualquier otro entorno que no esté al menos parcialmente dentro de un edificio. El UAV 102 se puede operar relativamente cerca del suelo 104 (por ejemplo, a baja altitud) o relativamente lejos del suelo 104 (por ejemplo, a gran altitud). Por ejemplo, se puede considerar que un uAv 102 que opera a menos o igual a aproximadamente 10 m del suelo está a baja altitud, mientras que se puede considerar que un UAV 102 que opera a más o igual aproximadamente a 10 m del suelo está a gran altitud.
En algunas realizaciones, el entorno exterior 100 incluye uno o más obstáculos 108a-d. Un obstáculo puede incluir
cualquier objeto o entidad que pueda obstruir el movimiento del UAV 102. Algunos obstáculos pueden estar situados en el suelo 104 (por ejemplo, los obstáculos 108a, 108d), tales como edificios, vehículos terrestres (por ejemplo, coches, motocicletas, camiones, bicicletas), seres humanos, animales, plantas (por ejemplo, árboles, arbustos), y otras estructuras naturales o artificiales. Algunos obstáculos pueden estar en contacto y/o ser soportados por el suelo 104, agua, estructuras artificiales o estructuras naturales. Como alternativa, algunos obstáculos pueden estar completamente ubicados en el aire 106 (por ejemplo, los obstáculos 108b, 108c), incluyendo vehículos aéreos (por ejemplo, aeroplanos, helicópteros, globos de aire caliente, otros UAV) o pájaros. Los obstáculos aéreos pueden no estar soportados por el suelo 104, o por el agua, o por estructura natural o artificial alguna. Un obstáculo ubicado en el suelo 104 puede incluir porciones que se extienden sustancialmente hacia el aire 106 (por ejemplo, estructuras altas tales como torres, rascacielos, postes de luz, torres de radio, líneas eléctricas, árboles, etc.).
La figura 1B ilustra un UAV 152 que funciona en un entorno interior 150, de acuerdo con realizaciones. El entorno interior 150 está en el interior de un edificio 154 que tiene un piso 156, una o más paredes 158 y/o un techo o tejado 160. Los edificios ilustrativos incluyen edificios residenciales, comerciales o industriales tales como casas, apartamentos, oficinas, instalaciones de fabricación, instalaciones de almacenamiento, y así sucesivamente. El interior del edificio 154 puede estar completamente encerrado por el piso 156, las paredes 158 y el techo 160 de tal modo que el UAV 152 esté restringido al espacio interior. A la inversa, al menos uno del piso 156, las paredes 158 o el techo 160 puede estar ausente, habilitando de ese modo que el UAV 152 vuele desde el interior al exterior, o viceversa. Como alternativa o en combinación, se pueden formar una o más aberturas 164 en el piso 156, las paredes 158 o el techo 160 (por ejemplo, una puerta, una ventana, un tragaluz).
De forma similar al entorno exterior 100, el entorno interior 150 puede incluir uno o más obstáculos 162a-d. Algunos obstáculos pueden estar situados en el piso 156 (por ejemplo, el obstáculo 162a), tales como muebles, aparatos, seres humanos, animales, plantas y otros objetos naturales o artificiales. A la inversa, algunos obstáculos pueden estar ubicados en el aire (por ejemplo, el obstáculo 162b), tales como pájaros u otros UAV. Algunos obstáculos en el entorno interior 150 pueden ser soportados por otras estructuras u objetos. También se pueden fijar obstáculos al techo 160 (por ejemplo, el obstáculo 162c), tales como luminarias, ventiladores de techo, vigas u otros aparatos o estructuras montados en el techo. En algunas realizaciones, se pueden fijar obstáculos a las paredes 158 (por ejemplo, el obstáculo 162d), tales como luminarias, estantes, armarios y otros aparatos o estructuras montados en la pared. En particular, también se puede considerar que los componentes estructurales del edificio 154 son obstáculos, incluyendo el piso 156, las paredes 158 y el techo 160.
Los obstáculos descritos en el presente documento pueden ser sustancialmente estacionarios (por ejemplo, edificios, plantas, estructuras) o sustancialmente móviles (por ejemplo, seres humanos, animales, vehículos u otros objetos capaces de moverse). Algunos obstáculos pueden incluir una combinación de componentes estacionarios y móviles (por ejemplo, un generador eólico). Los obstáculos o componentes de obstáculos móviles se pueden mover de acuerdo con una trayectoria o patrón predeterminado o predecible. Por ejemplo, el movimiento de un coche puede ser relativamente predecible (por ejemplo, de acuerdo con la forma de la carretera). Como alternativa, algunos obstáculos o componentes de obstáculos móviles se pueden mover a lo largo de trayectorias aleatorias o, por lo demás, impredecibles. Por ejemplo, un ser vivo tal como un animal se puede mover de una manera relativamente impredecible.
Con el fin de garantizar un funcionamiento seguro y eficiente, puede ser beneficioso dotar al UAV de mecanismos para detectar e identificar objetos de entorno tales como obstáculos. Adicionalmente, el reconocimiento de objetos de entorno tales como puntos de referencia y características puede facilitar la navegación, en particular cuando el UAV está operando de manera semiautónoma o completamente autónoma. Además, el conocimiento de la ubicación exacta del UAV dentro del entorno, así como su relación espacial con los objetos de entorno circundantes, puede ser valioso para una amplia diversidad de funcionalidades de UAV.
En consecuencia, los UAV descritos en el presente documento pueden incluir uno o más sensores configurados para recopilar datos relevantes, tales como información relacionada con el estado de UAV, el entorno circundante o los objetos dentro del entorno. Los sensores ilustrativos adecuados para su uso con las realizaciones divulgadas en el presente documento incluyen sensores de ubicación (por ejemplo, sensores de sistema de posicionamiento global (GPS), transmisores de dispositivo móvil que habilitan una triangulación de ubicación), sensores de visión (por ejemplo, dispositivos de formación de imágenes capaces de detectar luz visible, infrarroja o ultravioleta, tales como cámaras), sensores de proximidad o de alcance (por ejemplo, sensores ultrasónicos, lídar, cámaras de tiempo de vuelo o de profundidad), sensores inerciales (por ejemplo, acelerómetros, giroscopios, unidades de medición inercial (IMU)), sensores de altitud, sensores de actitud (por ejemplo, brújulas) sensores de presión (por ejemplo, barómetros), sensores de audio (por ejemplo, micrófonos) o sensores de campo (por ejemplo, magnetómetros, sensores electromagnéticos). Se puede usar cualquier número y combinación adecuados de sensores, tal como uno, dos, tres, cuatro, cinco o más sensores. Opcionalmente, los datos se pueden recibir desde sensores de tipos diferentes (por ejemplo, dos, tres, cuatro, cinco o más tipos). Sensores de tipos diferentes pueden medir tipos diferentes de señales o información (por ejemplo, posición, orientación, velocidad, aceleración, proximidad, presión, etc.) y/o utilizar tipos diferentes de técnicas de medición para obtener datos. Por ejemplo, los sensores pueden incluir cualquier combinación adecuada de sensores activos (por ejemplo, sensores que generan y miden energía a partir de su propia fuente de energía) y sensores pasivos (por ejemplo, sensores que detectan energía disponible). Como otro ejemplo, algunos
sensores pueden generar datos de medición absolutos que se proporcionan en términos de un sistema de coordenadas global (por ejemplo, datos de posición proporcionados por un sensor de GPS, datos de actitud proporcionados por una brújula o magnetómetro), mientras que otros sensores pueden generar datos de medición relativos que se proporcionan en términos de un sistema de coordenadas local (por ejemplo, velocidad angular relativa proporcionada por un giroscopio; aceleración de traslación relativa proporcionada por un acelerómetro; información de actitud relativa proporcionada por un sensor de visión; información de distancia relativa proporcionada por un sensor ultrasónico, un lídar o una cámara de tiempo de vuelo). En algunos casos, el sistema de coordenadas local puede ser un sistema de coordenadas de cuerpo definido en relación con el UAV.
Los sensores descritos en el presente documento pueden ser portados por el UAV. Un sensor se puede situar en cualquier porción adecuada del UAV, tal como arriba, debajo, en el lado o lados o dentro del cuerpo de vehículo del UAV. Algunos sensores se pueden acoplar mecánicamente al UAV de tal modo que la disposición espacial y/o el movimiento del UAV corresponden a la disposición espacial y/o al movimiento de los sensores. El sensor se puede acoplar al UAV a través de un acoplamiento rígido, de tal modo que el sensor no se mueva en relación con la porción del UAV a la que este está fijado. Como alternativa, el acoplamiento entre el sensor y el UAV puede permitir el movimiento del sensor en relación con el UAV. El acoplamiento puede ser un acoplamiento permanente o un acoplamiento no permanente (por ejemplo, liberable). Los métodos de acoplamiento adecuados pueden incluir adhesivos, unión, soldadura y/o sujetadores (por ejemplo, tornillos, clavos, pasadores, etc.). Opcionalmente, el sensor se puede formar en una sola pieza con una porción del UAV. Además, el sensor se puede acoplar eléctricamente con una porción del UAV (por ejemplo, unidad de procesamiento, sistema de control, almacenamiento de datos) con el fin de habilitar que los datos recopilados por el sensor se usen para diversas funciones del UAV (por ejemplo, navegación, control, propulsión, comunicación con un usuario u otro dispositivo, etc.), tales como las realizaciones analizadas en el presente documento.
Los sensores se pueden configurar para recopilar diversos tipos de datos, tales como datos relacionados con el UAV, el entorno circundante u objetos dentro del entorno. Por ejemplo, al menos algunos de los sensores se pueden configurar para proporcionar datos con respecto a un estado del UAV. La información de estado proporcionada por un sensor puede incluir información con respecto a la disposición espacial del UAV (por ejemplo, información de ubicación o de posición tal como longitud, latitud y/o altitud; información de orientación o de actitud, tal como alabeo, cabeceo y/o guiñada). La información de estado también puede incluir información con respecto al movimiento del UAV (por ejemplo, velocidad de traslación, aceleración de traslación, velocidad angular, aceleración angular, etc.). Un sensor se puede configurar, por ejemplo, para determinar una disposición espacial y/o movimiento del UAV con respecto a hasta seis grados de libertad (por ejemplo, tres grados de libertad en la posición y/o la traslación, tres grados de libertad en la orientación y/o la rotación). La información de estado se puede proporcionar en relación con un sistema de coordenadas global o en relación con un sistema de coordenadas local (por ejemplo, en relación con el UAV u otra entidad). Por ejemplo, un sensor se puede configurar para determinar la distancia entre el UAV y el usuario que controla el UAV, o la distancia entre el UAV y el punto de partida del vuelo para el UAV.
Los datos obtenidos por los sensores pueden proporcionar diversos tipos de información de entorno. Por ejemplo, los datos de sensor pueden ser indicativos de un tipo de entorno, tal como un entorno interior, un entorno exterior, un entorno de baja altitud o un entorno de gran altitud. Los datos de sensor también pueden proporcionar información con respecto a condiciones de entorno actuales, incluyendo condiciones meteorológicas (por ejemplo, despejado, lluvioso, nevando), condiciones de visibilidad, velocidad del viento, hora del día, y así sucesivamente. Además, la información de entorno recopilada por los sensores puede incluir información con respecto a los objetos en el entorno, tales como los obstáculos descritos en el presente documento. La información de obstáculos puede incluir información con respecto al número, la densidad, la geometría y/o la disposición espacial de obstáculos en el entorno.
En algunas realizaciones, se generan resultados de detección combinando datos de sensor obtenidos por múltiples sensores, lo que también se conoce como "fusión de sensores". Por ejemplo, se puede usar una fusión de sensores para combinar datos de detección obtenidos por tipos de sensor diferentes, incluyendo sensores de GPS, sensores inerciales, sensores de visión, lídar, sensores ultrasónicos, y así sucesivamente. Como otro ejemplo, la fusión de sensores se puede usar para combinar tipos diferentes de datos de detección, tales como datos de medición absoluta (por ejemplo, datos proporcionados en relación con un sistema de coordenadas global, tales como datos de GPS) y datos de medición relativos (por ejemplo, datos proporcionados en relación con un sistema de coordenadas local, tales como datos de detección de visión, datos de lídar o datos de detección ultrasónica). La fusión de sensores se puede usar para compensar las limitaciones o inexactitudes asociadas con tipos de sensor individuales, mejorando de ese modo la precisión y la fiabilidad del resultado de detección final.
La figura 2A ilustra un esquema 200 para estimar la actitud de UAV usando fusión de sensores, de acuerdo con muchas realizaciones. Aunque la realización de la figura 2A se dirige a la estimación del ángulo de guiñada de UAV, se deberá apreciar que el enfoque descrito en el esquema 200 también se puede aplicar a la estimación del ángulo de alabeo o ángulo de cabeceo del UAV. El esquema 200 utiliza una IMU 202, al menos un sensor de orientación relativa 204 y un magnetómetro 206. La IMU 202 y el magnetómetro 206 se pueden usar para proporcionar estimaciones absolutas respectivas del ángulo de guiñada de UAV, 208, 210. El sensor de orientación relativa 204 puede ser cualquier sensor que proporcione información de actitud con respecto a un sistema de coordenadas local
(por ejemplo, el sistema de coordenadas de cuerpo de UAV) en lugar de un sistema de coordenadas global. Los sensores de orientación relativa ilustrativos incluyen sensores de visión, lídar, sensores ultrasónicos y cámaras de tiempo de vuelo o de profundidad. Los datos de sensor de orientación relativa se pueden analizar con el fin de proporcionar una estimación de la tasa de guiñada 212 y el ángulo de guiñada relativo 214.
En realizaciones en las que el sensor de orientación relativa 204 es un sensor de visión configurado para capturar una secuencia de imágenes ("fotogramas"), la tasa de guiñada 212 y el ángulo de guiñada 214 se pueden determinar usando una o más imágenes seleccionadas de la secuencia ("fotogramas clave"). Se pueden seleccionar fotogramas clave usando cualquier método adecuado. Por ejemplo, se pueden seleccionar fotogramas clave a intervalos predeterminados, tales como intervalos de tiempo predeterminados, intervalos de distancia predeterminados, intervalos de desplazamiento predeterminados, intervalos de actitud predeterminados o intervalos de disparidad promedio predeterminados entre fotogramas clave. Como otro ejemplo, se pueden seleccionar fotogramas clave basándose en las relaciones entre fotogramas clave sucesivos, por ejemplo, la cantidad de área de solapamiento entre fotogramas clave. Opcionalmente, se pueden seleccionar fotogramas clave basándose en combinaciones de los parámetros proporcionados en el presente documento. En algunas realizaciones, al menos algunos de los fotogramas clave pueden incluir fotogramas de imagen consecutivos. Como alternativa, los fotogramas clave pueden no incluir fotograma de imagen consecutivo alguno. Este último enfoque puede ser ventajoso en términos de reducir la propagación de errores de estimación presentes en fotogramas clave consecutivos.
La tasa de guiñada 212 y el ángulo de guiñada 214 en un momento dado se pueden estimar usando cualquier número adecuado de fotogramas clave, tal como uno, dos, tres, cuatro o más fotogramas clave. La tasa de guiñada 212 y el ángulo de guiñada 214 se pueden determinar usando cualquier enfoque adecuado, tal como análisis de imágenes. En algunas realizaciones, se puede suponer que dos fotogramas clave que capturan la misma escena a diferentes ángulos de guiñada serán diferentes. El ángulo de guiñada entre los diferentes fotogramas clave se puede determinar mediante técnicas de modelado matemático. Por ejemplo, la diferencia entre fotogramas clave se puede determinar identificando y haciendo coincidir puntos característicos presentes en ambos fotogramas clave. Basándose en las coordenadas de los puntos característicos en ambos fotogramas clave, se puede determinar la matriz de transformación de semejanza para los dos fotogramas clave, y obtenerse el ángulo de guiñada 212 a partir de la matriz de transformación de semejanza. La tasa de guiñada 212 se puede calcular entonces usando el ángulo de guiñada 214 y el intervalo de tiempo entre los dos fotogramas clave.
Las estimaciones absolutas y relativas proporcionadas por los sensores 202, 204, 206 se pueden fusionar (por ejemplo, usando un filtro de Kalman extendido 216 u otro tipo de filtro de Kalman) con el fin de proporcionar un resultado de ángulo de guiñada final 218. Se puede implementar cualquier método adecuado con el fin de fusionar las estimaciones. Por ejemplo, la integral de la estimación de tasa de guiñada 212 se puede fusionar con la estimación de ángulo de guiñada relativa 214 con el fin de actualizar la estimación de ángulo de guiñada relativa 214. La estimación de ángulo de guiñada relativa 214 se puede fusionar con las estimaciones de ángulo de guiñada absolutas 208, 210 desde la IMU 202 y el magnetómetro 206, respectivamente, para determinar el ángulo de guiñada del UAV. El resultado de ángulo de guiñada final 218 se puede proporcionar como un ángulo de guiñada relativo (por ejemplo, en relación con el sistema de coordenadas de cuerpo del UAV) o como un ángulo de guiñada absoluto. Como se ha descrito previamente, la combinación de tipos diferentes de datos de medición puede mejorar la precisión del resultado final 218. Por ejemplo, en situaciones en las que los datos proporcionados por el magnetómetro 206 no son satisfactorios (por ejemplo, debido a campos magnéticos externos), el uso de datos desde la IMU 202 y/o el sensor de orientación relativa 204 puede reducir el grado en el que el error de magnetómetro influye sobre el resultado final.
La figura 2B ilustra un esquema 250 para estimar la posición y velocidad de UAV usando fusión de sensores, de acuerdo con realizaciones. El esquema 250 utiliza una IMU 252, al menos un sensor de posición relativa y/o de velocidad 254 y un sensor de GPS 256. La IMU 252 puede proporcionar una estimación de la aceleración de UAV 258. El sensor de GPS 256 puede proporcionar una estimación de la posición absoluta del UAV 260. El sensor de posición relativa y/o de velocidad 254 (por ejemplo, sensor de visión, lídar, sensor ultrasónico, cámara de profundidad o de tiempo de vuelo, o cualquier otro sensor que proporcione información de posición relativa y/o de velocidad) se puede usar para obtener una estimación de la velocidad de UAV 262 y la posición de UAV relativa 264. De forma similar al sensor de orientación relativa 204 de la figura 2A , en realizaciones en las que el sensor de posición relativa y/o de velocidad 254 es un sensor de visión, las estimaciones de velocidad y de posición relativa 262, 264 se pueden determinar basándose en uno o más fotogramas clave obtenidos por el sensor de visión. Por ejemplo, un análisis de imágenes y un modelado matemático se pueden usar para evaluar las diferencias entre fotogramas clave sucesivos y determinar de ese modo los movimientos de traslación del UAV que producirían estas diferencias. La velocidad de UAV se puede estimar entonces basándose en el tiempo transcurrido entre fotogramas clave.
Las estimaciones proporcionadas por los sensores 252, 254 y 256 se pueden fusionar usando un filtro de Kalman extendido 266 u otro tipo de filtro de Kalman adecuado, obteniendo de ese modo un resultado de posición y de velocidad final 268 para el UAV. Por ejemplo, la integral de la estimación de aceleración 258 se puede fusionar con la estimación de velocidad de UAV 262 con el fin de determinar la velocidad de UAV. La integral de la velocidad de UAV determinada se puede fusionar con la estimación de posición relativa 264 y la estimación de posición absoluta 260 con el fin de determinar la posición de UAV. El resultado de posición y de velocidad 268 se puede expresar en relación
con un sistema de coordenadas local o global.
Opcionalmente, la fusión de sensores con el filtro de Kalman 266 también se puede usar para determinar datos de calibración para convertir entre el sistema de coordenadas local del sensor de posición y/o de velocidad relativa 254 y el sistema de coordenadas global de la IMU 252 y el GPS 256. Los datos de calibración se pueden usar para correlacionar datos de detección absolutos obtenidos por la IMU 252 y/o el GPS 256 sobre los datos de detección relativos obtenidos por el sensor 254, o viceversa. Por ejemplo, la IMU 252 y/o el GPS 256 se pueden usar para determinar una trayectoria recorrida por el UAV en coordenadas absolutas, y el sensor relativo 254 se puede usar para obtener datos de detección que indican una trayectoria recorrida por el UAV en coordenadas relativas. Los métodos de fusión de sensores proporcionados en el presente documento se pueden aplicar para determinar los parámetros de calibración (por ejemplo, factor de ajuste a escala, rotación, traslación) necesarios para proyectar los datos de trayectoria absoluta sobre los datos de trayectoria relativa, o viceversa. Por ejemplo, la relación entre los parámetros de calibración, los datos de trayectoria absoluta y los datos de trayectoria relativa se pueden representar mediante modelado matemático. Los datos de trayectoria absoluta y relativa obtenidos por los sensores se pueden introducir entonces en el modelo con el fin de despejar los parámetros de calibración. La combinación de datos de trayectoria absoluta y relativa descrita en el presente documento se puede usar para potenciar la precisión de la determinación de trayectoria, mejorando de ese modo la navegación de UAV.
Los enfoques de fusión de sensores descritos en el presente documento se pueden aplicar para proporcionar estimaciones más precisas del estado de UAV, así como información de entorno. En algunas realizaciones, la estimación de la información de estado de UAV y la información de entorno pueden ser mutuamente dependientes, de tal modo que se usa información de estado de UAV para estimar información de entorno, y viceversa. Por ejemplo, algunos sensores se pueden usar para obtener información de entorno absoluta p ™ , mientras que otros sensores se pueden usar para obtener información de entorno relativa, p f . La información de entorno absoluta se puede proyectar sobre la información de entorno relativa (o viceversa) basándose en la relación Rp ™ + T = p f, en donde R representa la matriz de rotación entre los sistemas de coordenadas globales y locales y T representa el vector de traslación desde el origen del sistema de coordenadas global al origen del sistema de coordenadas local. En algunas realizaciones, p f se proporciona con respecto al sistema de coordenadas de cuerpo del UAV, de tal modo que T y R se pueden determinar, respectivamente, basándose en la posición y la orientación de UAV. En consecuencia, la información de posición y de orientación de UAV se puede usar para combinar datos de entorno absolutos y relativos, generando de ese modo una estimación de la información de entorno. A la inversa, los datos de entorno absolutos y relativos se pueden usar para estimar la posición y la orientación de UAV usando la relación descrita anteriormente. Este enfoque se puede repetir con el fin de proporcionar estimaciones actualizadas del estado de UAV y la información de entorno.
En algunas realizaciones, se pueden usar datos de sensor para generar una representación del entorno, o al menos una porción del mismo. Tales representaciones se pueden denominar en el presente documento "mapas de entorno". Un mapa de entorno puede representar porciones del entorno dentro de la proximidad inmediata del UAV (mapa local), o también puede representar porciones que están relativamente lejos del UAV (mapa global). Por ejemplo, un mapa local puede representar porciones del entorno dentro de un radio de aproximadamente 2 m, 5 m, 10 m, 15 m, 20 m, 25 m o 50 m del UAV. Un mapa global puede representar porciones dentro de un radio de aproximadamente 25 m, 50 m, 75 m, 100 m, 125 m, 150 m, 200 m, 225 m, 250 m, 300 m, 400 m, 500 m, 1000 m, 2000 m o 5000 m del UAV. El tamaño del mapa de entorno se puede determinar basándose en el alcance eficaz de los sensores usados para generar el mapa. El alcance eficaz de un sensor puede variar basándose en el tipo de sensor. Por ejemplo, se puede usar un sensor de visión para detectar objetos dentro de un radio de aproximadamente 10 m, 15 m, 20 m o 25 m del UAV. Se puede usar un sensor de lídar para detectar objetos dentro de un radio de aproximadamente 2 m, 5 m, 8 m, 10 m o 15 m del UAV. Se puede usar un sensor ultrasónico para detectar objetos dentro de un radio de aproximadamente 2 m, 5 m, 8 m, 10 m o 15 m del UAV. En algunas realizaciones, el mapa de entorno solo puede representar porciones que fueron recorridas previamente por el UAV. Como alternativa, en otras realizaciones, el mapa de entorno también puede representar porciones del entorno que no han sido recorridas por el UAV.
Se puede usar un mapa de entorno para representar diversos tipos de información de entorno. Por ejemplo, el mapa puede proporcionar información que indica la geometría (por ejemplo, longitud, anchura, altura, espesor, forma, área superficial, volumen), la disposición espacial (por ejemplo, posición, orientación) y el tipo de objetos de entorno tales como obstáculos, estructuras, puntos de referencias o características. Como otro ejemplo, el mapa puede proporcionar información que indica qué porciones del entorno tienen obstáculos (por ejemplo, no pueden ser atravesadas por el UAV) y qué porciones no tienen obstáculos (por ejemplo, pueden ser atravesadas por el UAV). Además, el mapa puede proporcionar información en relación con la ubicación actual del UAV y/o su disposición espacial en relación con diversos objetos de entorno.
Se puede usar cualquier tipo de mapa de entorno adecuado, tal como un mapa métrico o un mapa topológico. Un mapa topológico puede representar la conectividad entre ubicaciones dentro del entorno, mientras que un mapa métrico puede representar la geometría de objetos dentro del entorno. Opcionalmente, un mapa de entorno puede incluir una combinación de información métrica y topológica. Por ejemplo, un mapa de entorno puede representar la conectividad, así como las relaciones espaciales absolutas (por ejemplo, distancias) entre objetos y/o ubicaciones de entorno. Como alternativa o en combinación, algunas porciones del mapa se pueden representar topológicamente,
mientras que otras porciones se pueden representar métricamente.
El mapa de entorno se puede proporcionar en cualquier formato adecuado. Por ejemplo, un mapa de entorno topológico se puede proporcionar como un gráfico que tiene vértices que representan ubicaciones y bordes que representan trayectorias entre las ubicaciones. Los bordes de un mapa de entorno topológico se pueden asociar con información de distancia para la trayectoria correspondiente. Un mapa de entorno métrico puede ser cualquier representación que represente coordenadas espaciales de ubicaciones y objetos de entorno, como una nube de puntos, un mapa topográfico, un mapa de cuadrículas en 2D, un mapa de cuadrículas en 2,5D o un mapa de cuadrículas en 3D. Las coordenadas espaciales pueden ser coordenadas en 3D (por ejemplo, coordenadas x, y, z) que representan la ubicación espacial de puntos en las superficies de objetos de entorno. En algunas realizaciones, un mapa de entorno métrico puede ser un mapa de cuadrículas de ocupación. Un mapa de cuadrículas de ocupación puede representar el entorno como una pluralidad de volúmenes. Los volúmenes pueden ser de tamaños iguales o de tamaños diferentes. El mapa de cuadrículas de ocupación puede indicar, para cada volumen, si el volumen está sustancialmente ocupado por un obstáculo, proporcionando de ese modo una representación exacta de los espacios con obstáculos y sin obstáculos dentro del entorno.
Los mapas de entorno descritos en el presente documento se pueden generar usando cualquier método adecuado. Por ejemplo, se pueden generar una o más porciones de un mapa de entorno durante el funcionamiento de UAV (por ejemplo, durante el vuelo), por ejemplo, usando localización y cartografía simultáneas (SLAM) u otras técnicas de cartografía robótica. Como alternativa, se pueden generar una o más porciones del mapa antes del funcionamiento del UAV y proporcionarse al UAV antes de o durante el vuelo (por ejemplo, se pueden transmitir desde un sistema informático remoto). Tales mapas se pueden modificar basándose en datos obtenidos por el UAV durante el vuelo, proporcionando de ese modo un refinamiento adicional de los datos de mapa.
En algunas realizaciones, se puede realizar una cartografía de entorno usando una fusión de sensores para combinar información de entorno recopilada por múltiples tipos de sensor. Este enfoque puede resultar ventajoso con el fin de compensar las limitaciones de los tipos de sensor individuales. Por ejemplo, los datos de detección de GPS pueden ser inexactos o no estar disponibles cuando el UAV está en un entorno interior. Los sensores de visión pueden no estar optimizados para detectar objetos transparentes (por ejemplo, vidrio) o para entornos relativamente oscuros (por ejemplo, durante la noche). En algunas realizaciones, los sensores de lídar pueden tener un alcance de detección relativamente corto en comparación con otros tipos de sensor. El uso de la fusión de múltiples sensores descrita en el presente documento puede proporcionar una cartografía precisa en diversos tipos de entorno y condiciones operativas, mejorando de este modo la solidez y la flexibilidad del funcionamiento de UAV.
La figura 3A ilustra un esquema 300 para cartografía de entorno usando fusión de sensores, de acuerdo con realizaciones. El esquema 300 se puede usar para generar cualquier realización de los mapas de entorno descritos en el presente documento. En el esquema 300, datos de detección se reciben desde una pluralidad de sensores 302. La pluralidad de sensores 302 puede incluir uno o más tipos de sensor diferentes. Los sensores 302 pueden ser portados por un UAV, por ejemplo, acoplados al cuerpo de vehículo del UAV. Opcionalmente, los datos de detección desde cada uno de los sensores 302 se pueden preprocesar para mejorar la calidad de datos mediante filtrado, reducción de ruido, corrección de la distorsión de imagen, y así sucesivamente. En algunas realizaciones, los datos de detección proporcionados por cada uno de los sensores 302 se pueden representar en relación con un sistema de coordenadas respectivo (por ejemplo, basándose en la posición y la orientación del sensor en relación con el cuerpo de vehículo del UAV). En consecuencia, los datos de detección desde cada sensor se pueden combinar convirtiendo todos los datos de detección a un único sistema de coordenadas 304. Por ejemplo, los datos de detección proporcionados en relación con un sistema de coordenadas local se pueden convertir a un sistema de coordenadas global, o viceversa. La conversión de sistema de coordenadas 304 se puede conseguir basándose en unos datos de calibración de sensor 306. La calibración de sensores se puede realizar usando cualquier técnica adecuada y se puede realizar antes del funcionamiento del UAV (calibración fuera de línea) o durante el funcionamiento del UAV (calibración en línea). En algunas realizaciones, la calibración de sensores implica determinar parámetros extrínsecos para los sensores 302, tales como las relaciones espaciales (por ejemplo, la posición y la orientación relativas) entre cada uno de los sensores 302. Los cálculos de conversión para transformar los datos de detección a un único sistema de coordenadas se pueden determinar entonces basándose en los parámetros de sensor determinados.
A continuación de la conversión de sistema de coordenadas 304, los datos de detección convertidos se pueden combinar entonces usando la fusión de sensores 308 para obtener un único resultado de detección. Se pueden usar diversas técnicas para realizar la fusión de sensores, tales como filtrado de Kalman (por ejemplo, filtro de Kalman, filtro de Kalman extendido, filtro de Kalman sin perfume), filtrado de partículas u otras técnicas de filtrado conocidas por los expertos en la materia. El método usado puede variar dependiendo de la combinación específica y de los tipos de sensores usados. En algunas realizaciones, la fusión de sensores 308 puede utilizar datos de detección desde todos los sensores 302. A la inversa, la fusión de sensores 308 puede utilizar datos a partir de solo un subconjunto de los sensores 302. Este último enfoque puede ser ventajoso con el fin de omitir datos de sensor inadecuados o poco fiables (por ejemplo, datos de detección de GPS cuando el UAV está en interiores). Los datos de detección fusionados se pueden usar entonces para la generación de mapas de entorno 310.
La cartografía de entorno se puede realizar basándose en datos de detección desde cualquier combinación adecuada de sensores. Por ejemplo, en algunas realizaciones, los métodos de cartografía descritos en el presente documento se pueden implementar mediante un UAV que porta un sensor de lídar y un sensor de visión (por ejemplo, un sensor de visión monocular tal como una única cámara). El sensor de lídar se puede usar para obtener datos de distancia de objetos de entorno en relación con el UAV, mientras que el sensor de visión se puede usar para capturar datos de imágenes de objetos de entorno circundantes. Los datos de calibración de sensores para los sensores de lídar y de visión pueden incluir parámetros de sensor indicativos de la relación espacial entre los sensores de lídar y de visión. Por ejemplo, para un objeto de entorno del que es determinado, por el sensor de lídar, que está a una distancia Mi del UAV, y correspondiente a un objeto en la coordenada mi en los datos de imagen capturados por el sensor de visión, la relación entre mi y M¡ puede ser representada por
s¡m¡ = K(R, t)M¿
en donde R es una matriz de rotación, t es una matriz de transformación, si es un escalar desconocido y K es la matriz interna para el sensor de visión (un parámetro intrínseco determinado mediante una calibración anterior). En la ecuación anterior, Mi, mi y K son conocidos, mientras que R y t son desconocidos. Si se toma un número N de mediciones, debido a que R y t son constantes (la posición relativa y la orientación del sensor de lídar y el sensor de visión son fijas), el problema es, por lo tanto, un problema de Perspectiva desde n Puntos (PNP) y se puede resolver usando técnicas conocidas por los expertos en la materia con el fin de obtener R y t, los parámetros de sensor.
Una vez que se han obtenido los datos de calibración de sensores, los datos de detección de lídar y los datos de detección de visión se pueden convertir al mismo sistema de coordenadas (sistema de coordenadas "mundial"):
X
W
=
{X
W
,X
LW
, ...} = {(E, 0)X
£
, (RWL, t
WL
)X
L
, ...}.
X W son los datos en relación con el sistema de coordenadas mundial (que corresponden al sistema de coordenadas de sensor de visión en la presente realización), X W son los datos de detección de visión en relación con el sistema de coordenadas mundial, x £ son los datos de detección de visión en relación con el sistema de coordenadas de sensor de visión, X W son los datos de detección de lídar en relación con el sistema de coordenadas mundial, X ¿ son los datos de detección de lídar en relación con el sistema de coordenadas de sensor de lídar, y RWL y tWL son las matrices de rotación y de transformación para convertir entre los sistemas de coordenadas de sensor de visión y de sensor de lídar (correspondientes a R y t como se ha descrito anteriormente). E es la matriz diagonal
en donde s es un factor de escala desconocido.
Los datos de detección convertidos se pueden combinar entonces usando técnicas de fusión de sensores. Por ejemplo, la relación entre los datos de detección de visión en relación con el sistema de coordenadas de visión X £ y los datos de detección de visión en relación con el sistema de coordenadas mundial X W puede ser representada por
X
W
= s x
£
.
Usando los datos de detección de lídar, se puede obtener el punto más cercano al UAV (indicado como punto i) a lo largo de la dirección de detección del sensor de lídar (X ¡W )i . En consecuencia, debido a que
(X
W
)¡ = (X
W )i
= s (X
c
) í
y (X ¡W )i y (X ¡ i)i son conocidos (debido a que X W = (R WL , t WL )X L ) se puede determinar el valor de s. En consecuencia, los datos de sensor local, X ¿ y X £ , se pueden convertir a las coordenadas mundiales respectivas, X W y X W , y fusionarse para generar un único resultado, X W. Los datos fusionados se pueden usar entonces para generar un mapa del entorno que rodea al UAV.
La figura 3B ilustra un método 350 para generar un mapa de un entorno usando fusión de sensores, de acuerdo con realizaciones de la invención reivindicada. El método 350 puede ser realizado por cualquiera de los sistemas y dispositivos proporcionados en el presente documento, tal como por uno o más procesadores de un UAV.
En la etapa 360, primeros datos de detección se reciben desde uno o más sensores de visión, incluyendo los primeros datos de detección una información de profundidad para el entorno. Por ejemplo, el sensor de visión puede incluir solo una cámara (sensor de visión monocular). Como alternativa, el sensor de visión puede incluir dos (sensor de visión
binocular) o más cámaras. Los sensores de visión pueden ser portados por el UAV, tal como por un cuerpo de vehículo UAV. En realizaciones en las que se usan múltiples sensores de visión, cada sensor se puede ubicar en una porción diferente del UAV, y la disparidad entre los datos de imagen recopilados por cada sensor se puede usar para proporcionar información de profundidad para el entorno. La información de profundidad se puede usar en el presente documento para referirse a información en relación con las distancias de uno o más objetos desde el uAv y/o el sensor. En realizaciones en las que se usa un único sensor de visión, se puede obtener información de profundidad capturando datos de imagen para una pluralidad de posiciones y orientaciones diferentes del sensor de visión, y usando entonces técnicas de análisis de imagen adecuadas (por ejemplo, estructura a partir del movimiento) para reconstruir la información de profundidad.
En la etapa 370, segundos datos de detección se reciben desde uno o más sensores de proximidad, incluyendo los segundos datos de detección una información de profundidad para el entorno. Los sensores de proximidad pueden incluir al menos un sensor ultrasónico (por ejemplo, un sensor de ángulo amplio, un sensor matricial) y/o al menos un sensor de lídar. En algunas realizaciones, un sensor matricial ultrasónico puede proporcionar una precisión de detección mejorada en comparación con otros tipos de sensores ultrasónicos. Los sensores de proximidad también pueden ser portados por el UAV. Los sensores de proximidad se pueden ubicar cerca de los sensores de visión. Como alternativa, los sensores de proximidad se pueden situar en una porción del UAV diferente de las porciones usadas para portar los sensores de visión.
En la etapa 380, se genera un mapa de entorno que incluye información de profundidad para el entorno usando los primeros y los segundos datos de detección. Como se describe en el presente documento, los primeros y los segundos datos de detección pueden incluir, cada uno, información de profundidad para el entorno. Opcionalmente, los primeros y los segundos datos de detección también pueden incluir información de silueta para uno o más objetos en el entorno. En el presente documento se puede usar información de silueta para hacer referencia a información con respecto a los contornos, los perfiles o los bordes de un objeto de entorno. Los datos de detección generados por los uno o más sensores de proximidad se pueden proporcionar como un mapa de profundidad de píxeles, mientras que se puede extraer información de profundidad a partir de los datos de imagen recopilados por los uno o más sensores de visión usando técnicas tales como cartografía de estructura a partir del movimiento, de luz estructurada, de hoja de luz, de tiempo de vuelo o de disparidad de estereovisión. En algunas realizaciones, los primeros y los segundos datos de detección comprenden, cada uno, al menos una imagen que tiene una pluralidad de píxeles, estando asociado cada píxel con una coordenada de imagen en 2D (por ejemplo, coordenadas x e y), un valor de profundidad (por ejemplo, la distancia entre un objeto de entorno correspondiente al píxel y el UAV y/o el sensor) y/o un valor de color (por ejemplo, un valor de color de RGB). Estas imágenes se pueden denominar en el presente documento imágenes de profundidad.
La información de profundidad asociada con cada conjunto de datos de detección se puede alinear espacialmente y combinar (por ejemplo, usando métodos de fusión de sensores adecuados tales como filtrado de Kalman) con el fin de generar un mapa que incluye información de profundidad (por ejemplo, una representación de entorno en 3D tal como un mapa de cuadrículas de ocupación), teniendo en cuenta la fiabilidad y la precisión relativas de cada tipo de datos de detección durante el proceso de fusión. En algunas realizaciones, la generación del mapa de entorno puede implicar identificar una pluralidad de puntos característicos presentes en un conjunto de imágenes de profundidad proporcionadas por los sensores de visión, identificar una pluralidad correspondiente de puntos característicos presentes en un conjunto de imágenes de profundidad proporcionadas por los sensores de proximidad, y determinar una correspondencia entre ambas pluralidades de puntos característicos. La correspondencia puede incluir información con respecto a una o más transformaciones (por ejemplo, traslación, rotación, ajuste a escala) que se puede aplicar para correlacionar las imágenes de profundidad de proximidad sobre las imágenes de profundidad de visión, o viceversa. Las imágenes de profundidad se pueden combinar entonces basándose en esta correspondencia con el fin de generar el mapa de entorno. Como alternativa o en combinación, los primeros y los segundos datos de detección se pueden proporcionar en relación con diferentes sistemas de coordenadas, y el mapa de entorno se puede generar expresando los primeros y los segundos datos de detección en el mismo sistema de coordenadas. Este sistema de coordenadas puede ser el sistema de coordenadas asociado con los primeros datos de detección, el sistema de coordenadas asociado con los segundos datos de detección o un sistema de coordenadas completamente diferente. Una vez que se ha generado un mapa de entorno, el UAV se puede guiar dentro del entorno basándose en la información de profundidad incluida en el mapa de entorno.
La combinación de detección de proximidad y de visión descrita en el presente documento puede compensar las limitaciones de los tipos de sensor individuales, mejorando de ese modo la precisión de la generación de mapas. Por ejemplo, los sensores de visión pueden producir imágenes en color de resolución relativamente alta, pero puede ser relativamente difícil obtener datos de profundidad precisos a partir de datos de imagen cuando se usa una cámara monocular o cuando la distancia de cámara binocular es relativamente pequeña (como puede tener lugar cuando las cámaras se instalan en un UAV de pequeña escala). Adicionalmente, los sensores de visión pueden no ser capaces de proporcionar datos de imagen satisfactorios cuando la iluminación es brillante o tiene un contraste alto, o en condiciones de entorno adversas como lluvia, niebla o niebla con humo. A la inversa, sensores de proximidad, tales como sensores ultrasónicos, pueden proporcionar datos de profundidad precisos, pero pueden tener una resolución más baja en comparación con los sensores de visión. Asimismo, en algunos casos, los sensores ultrasónicos y otros
tipos de sensor de proximidad pueden no ser capaces de detectar objetos con superficies reflectantes pequeñas (por ejemplo, ramitas, esquinas, barandillas) u objetos absorbentes (por ejemplo, alfombrado), o puede que no sean capaces de resolver distancias en entornos complejos que tienen muchos objetos (por ejemplo, entornos interiores). Sin embargo, los datos de detección de visión generalmente pueden ser complementarios a los datos de detección de proximidad, debido a que el sensor de visión es capaz de producir datos fiables en condiciones en las que el sensor de proximidad está generando datos que no son óptimos, y viceversa. En consecuencia, el uso combinado de sensores de proximidad y de visión se puede usar para generar mapas de entorno precisos en una amplia diversidad de condiciones operativas y para diversos tipos de entornos.
La figura 4 ilustra un método 400 para cartografía de entorno usando tipos de sensor diferentes, de acuerdo con realizaciones. Al igual que con todos los métodos divulgados en el presente documento, el método 400 se puede poner en práctica usando cualquier realización de los sistemas y dispositivos presentados en el presente documento, tal como uno o más procesadores portados a bordo del uAv . Adicionalmente, al igual que con todos los métodos divulgados en el presente documento, cualquiera de las etapas del método 400 se puede combinar o sustituir por cualquiera de las etapas de los otros métodos en el presente documento.
En la etapa 410, una primera señal de detección se recibe desde un primer sensor portado por el UAV. La primera señal de detección puede incluir información referente al entorno en el que está operando el UAV, tal como datos de entorno que indican la ubicación y la geometría de objetos de entorno (por ejemplo, obstáculos). De manera similar, en la etapa 420, una segunda señal se recibe desde un segundo sensor portado por el UAV. En algunas realizaciones, el primer y el segundo sensores pueden ser de tipos de sensor diferentes, incluyendo cualquiera de los tipos de sensor descritos previamente en el presente documento (por ejemplo, sensores de visión y de lídar, sensores de visión y ultrasónicos, etc.).
En la etapa 430, se genera un primer mapa de entorno usando la primera señal de detección, incluyendo el primer mapa de entorno una información de ocupación para el entorno. En la etapa 440, se genera un segundo mapa de entorno usando la segunda señal de detección, incluyendo el segundo mapa de entorno una información de ocupación para el entorno. El primer y el segundo mapas de entorno pueden incluir información de ocupación de obstáculos para el entorno, respectivamente, de tal modo que el mapa de entorno se puede usar para determinar las ubicaciones de obstáculos en relación con el UAV. Por ejemplo, el primer y el segundo mapas de entorno pueden ser mapas de cuadrículas de ocupación o cualquier otro tipo de mapa que incluya información con respecto a espacios con obstáculos y sin obstáculos dentro del entorno.
Opcionalmente, el primer mapa de entorno puede representar una porción diferente del entorno que el segundo mapa de entorno. Por ejemplo, el primer mapa de entorno puede representar una porción del entorno relativamente cerca del UAV, mientras que el segundo mapa de entorno puede representar una porción del entorno relativamente lejos del UAV. En algunas realizaciones, se pueden usar señales de detección diferentes para generar mapas que abarcan porciones diferentes del entorno. La selección de la señal a usar para generar los diferentes mapas se puede basar en cualquier criterio adecuado, tal como la calidad relativa de la señal y/o la precisión de la primera y la segunda señales de detección para esa porción particular del entorno. La calidad y la precisión de los datos de detección pueden depender de las características específicas de cada sensor y pueden variar basándose en el tipo de entorno (por ejemplo, interior, exterior, de baja altitud, de gran altitud), las condiciones meteorológicas (por ejemplo, despejado, lluvioso, con niebla), la ubicación relativa de los objetos de entorno detectados (por ejemplo, corto alcance, largo alcance), así como las propiedades de los objetos de entorno detectados (por ejemplo, transparencia, reflectividad, absorbancia, forma, tamaño, material, movilidad, etc.). Por ejemplo, el primer sensor puede ser más preciso que el segundo sensor en alcances cortos, mientras que el segundo sensor puede ser más preciso que el primero en alcances largos. En consecuencia, el primer sensor se puede usar para generar un mapa para las porciones de entorno relativamente cercanas al UAV, mientras que el segundo sensor se puede usar para generar un mapa para las porciones de entorno relativamente lejos del UAV. Como alternativa o en combinación, la selección de la señal se puede basar en si la porción de entorno se encuentra dentro del alcance de detección del sensor correspondiente. Este enfoque puede ser ventajoso en una realización en la que el primer y el segundo sensores tienen alcances de detección diferentes. Por ejemplo, un sensor de corto alcance se puede usar para generar un mapa de porciones de entorno relativamente cerca del UAV, mientras que un sensor de largo alcance se puede usar para generar un mapa de las porciones relativamente lejos del UAV que están fuera del alcance del sensor de corto alcance.
En la etapa 450, se combinan el primer y el segundo mapas de entorno, generando de ese modo un mapa de entorno final que incluye información de ocupación para el entorno. Los mapas de entorno se pueden combinar usando las técnicas de fusión de sensores descritas en el presente documento. En realizaciones en las que las señales de detección se proporcionan en relación con diferentes sistemas de coordenadas (por ejemplo, un sistema de coordenadas local y un sistema de coordenadas global), la generación de las porciones de mapa puede implicar convertir ambas señales de detección a un único sistema de coordenadas con el fin de alinear los datos de entorno respectivos, produciendo de ese modo un mapa de entorno final. Posteriormente, el UAV se puede guiar dentro del entorno basándose en el mapa de entorno final. Por ejemplo, el UAV se puede guiar basándose, al menos en parte, en información de ocupación de obstáculos representada en el mapa de entorno final con el fin de evitar colisiones. El UAV puede ser guiado por un usuario, por un sistema de control automatizado o combinaciones adecuadas de los
mismos. A continuación, se describen con mayor detalle ejemplos adicionales de navegación de UAV basándose en datos de mapa de entorno.
Aunque las etapas anteriores muestran un método 400 de cartografía de entorno de acuerdo con realizaciones, un experto en la materia reconocerá muchas variaciones basándose en la enseñanza descrita en el presente documento. Algunas de las etapas pueden comprender etapas secundarias. En algunas realizaciones, las etapas del método 400 se pueden repetir según se desee (por ejemplo, continuamente o a intervalos de tiempo predeterminados) de tal modo que el mapa de entorno resultante se actualiza y se perfecciona conforme el UAV navega dentro del entorno. Este enfoque de cartografía en tiempo real puede habilitar que el UAV detecte rápidamente objetos de entorno y se adapte a condiciones operativas variables.
Los enfoques de fusión de sensores descritos en el presente documento se pueden aplicar a diversos tipos de funcionalidades de UAV, incluyendo navegación, reconocimiento de objetos y evitación de obstáculos. En algunas realizaciones, los datos de entorno obtenidos usando resultados de fusión de sensores se pueden usar para mejorar la solidez, la seguridad y la flexibilidad del funcionamiento del UAV proporcionando información de ubicación precisa, así como información con respecto a obstrucciones potenciales. Los datos de entorno se pueden proporcionar a un usuario (por ejemplo, a través de un controlador o terminal remoto, un dispositivo móvil u otro dispositivo de usuario) con el fin de notificar el control manual del usuario del UAV. Como alternativa o en combinación, los datos de entorno se pueden usar para sistemas de control semiautónomos o completamente autónomos para dirigir el vuelo automatizado del UAV.
Por ejemplo, las realizaciones divulgadas en el presente documento se pueden usar para realizar maniobras de evitación de obstáculos con el fin de evitar que el UAV colisione con objetos de entorno. En algunas realizaciones, la detección y evitación de obstáculos se puede automatizar, mejorando de ese modo la seguridad de los UAV y reduciendo la responsabilidad de los usuarios de evitar colisiones. Este enfoque puede ser ventajoso para los operadores de UAV sin experiencia, así como en situaciones en las que el usuario no puede percibir fácilmente la presencia de obstáculos cerca del UAV. Adicionalmente, la implementación de una evitación de obstáculos automatizada puede reducir los riesgos de seguridad asociados con una navegación de UAV semiautónoma o completamente autónoma. Además, las técnicas de fusión de múltiples sensores descritas en el presente documento se pueden usar para generar representaciones de entorno más precisas, mejorando de este modo la fiabilidad de tales mecanismos de evitación de colisiones automatizados.
La figura 5 ilustra un método 500 para controlar un UAV para evitar obstáculos, de acuerdo con realizaciones. El método 500 se puede implementar mediante uno o más procesadores portados por el UAV. Como se ha descrito previamente en el presente documento, el método 500 se puede automatizar completamente o al menos en parte, proporcionando de ese modo capacidades de detección y de evitación de obstáculos automáticas.
En la etapa 510, se genera una primera señal para hacer que el UAV navegue dentro del entorno. La primera señal puede incluir señales de control para el sistema de propulsión (por ejemplo, rotores) del UAV. La primera señal se puede generar basándose en órdenes de usuario que se introducen en un terminal remoto u otro dispositivo de usuario y posteriormente se transmiten al UAV. Como alternativa, la primera señal puede ser generada de forma autónoma por el UAV (por ejemplo, un controlador a bordo automatizado). En algunos casos, la primera señal se puede generar de forma semiautónoma con contribuciones a partir de una entrada de usuario, así como mecanismos de determinación de trayectoria automatizados. Por ejemplo, el usuario puede indicar una serie de puntos de ruta para el UAV, y el UAV puede calcular automáticamente una trayectoria de vuelo para atravesar los puntos de ruta.
En algunas realizaciones, una trayectoria de vuelo puede indicar una secuencia de posiciones y/u orientaciones deseadas para el UAV (por ejemplo, con respecto a hasta seis grados de libertad). Por ejemplo, la trayectoria de vuelo puede incluir al menos una ubicación inicial y una ubicación de destino para el UAV. Opcionalmente, la trayectoria de vuelo se puede configurar para dirigir el UAV desde una posición actual hasta una posición previa. Como otro ejemplo, la trayectoria de vuelo puede incluir una dirección de vuelo objetivo para el UAV. En algunas realizaciones, las instrucciones pueden especificar una velocidad y/o una aceleración para el UAV (por ejemplo, con respecto a hasta seis grados de libertad) para hacer que este se mueva a lo largo de la trayectoria de vuelo.
En la etapa 520, los datos de detección referentes a al menos una porción del entorno se reciben usando una pluralidad de sensores. La pluralidad de sensores puede incluir sensores de tipos diferentes (por ejemplo, de visión, de lídar, ultrasónicos, de GPS, etc.). Los datos de detección pueden incluir información con respecto a la ubicación y las características de obstáculos y/u otros objetos de entorno. Por ejemplo, los datos de detección pueden incluir información de distancia que indica la proximidad del UAV a obstáculos cercanos. Opcionalmente, los datos de detección pueden incluir información relacionada con una porción del entorno a lo largo de una trayectoria de vuelo del UAV, tal como una porción que se solapa con o cerca de la trayectoria de vuelo.
En la etapa 530, se genera un mapa de entorno representativo de al menos la porción del entorno basándose en los datos de detección. El mapa de entorno puede ser un mapa local que representa la porción del entorno que rodea inmediatamente al UAV (por ejemplo, dentro de un radio de aproximadamente 2 m, 5 m, 10 m, 15 m, 20 m, 25 m o 50
m del UAV). Como alternativa, el mapa de entorno puede ser un mapa global que también representa porciones del entorno que están relativamente lejos del UAV (por ejemplo, dentro de un radio de aproximadamente 25 m, 50 m, 75 m, 100 m, 125 m, 150 m, 200 m, 225 m, 250 m, 300 m, 400 m, 500 m, 1000 m, 2000 m o 5000 m del UAV). El tamaño del mapa de entorno se puede determinar basándose en el alcance eficaz de los sensores usados en la etapa 510, como se ha descrito previamente. En algunas realizaciones, el mapa de entorno se puede producir usando los métodos basados en fusión de sensores descritos previamente en el presente documento (por ejemplo, el esquema 300 y/o el método 400). Por ejemplo, los datos de detección pueden incluir datos en relación con una pluralidad de sistemas de coordenadas diferentes y generar el mapa de entorno puede implicar correlacionar los datos sobre un único sistema de coordenadas con el fin de facilitar la fusión de los datos de detección.
En la etapa 540, el mapa de entorno se usa para detectar uno o más obstáculos situados en la porción del entorno. Se puede realizar una detección de obstáculos a partir de información de mapa usando diversas estrategias, tales como técnicas de extracción de características o de reconocimiento de patrones. Opcionalmente, para realizar una detección de obstáculos se pueden implementar algoritmos de aprendizaje automático adecuados. En algunas realizaciones, si el mapa de entorno es un mapa de cuadrículas de ocupación, se pueden identificar obstáculos detectando volúmenes en el mapa de cuadrículas de ocupación que están ocupados continuamente. Los resultados de detección de obstáculos pueden proporcionar información con respecto a la posición, la orientación, el tamaño, la proximidad y/o el tipo de cada obstáculo, así como información de confianza correspondiente para el resultado. El mapa se puede analizar para identificar obstáculos que representan un riesgo de colisión para el UAV (por ejemplo, están colocados a lo largo o cerca de la trayectoria de vuelo).
En la etapa 550, se genera una segunda señal usando el mapa de entorno para hacer que el UAV navegue con el fin de evitar los uno o más obstáculos. El mapa de entorno se puede analizar con el fin de determinar la ubicación de los uno o más obstáculos en relación con el UAV, así como la ubicación de cualesquiera espacios sin obstáculos a través de los cuales el UAV se puede mover con el fin de evitar colisionar con el obstáculo. Por lo tanto, la segunda señal puede proporcionar señales de control apropiadas (por ejemplo, para el sistema de propulsión del UAV) para hacer que el UAV navegue a través de los espacios sin obstáculos. En realizaciones en las que el UAV se guía de acuerdo con una trayectoria de vuelo, la trayectoria de vuelo se puede modificar basándose en el mapa de entorno con el fin de evitar los uno o más obstáculos y el UAV se puede guiar de acuerdo con la trayectoria de vuelo modificada. Las modificaciones de trayectoria de vuelo pueden hacer que el UAV atraviese solo espacios sin obstáculos. Por ejemplo, la trayectoria de vuelo se puede modificar con el fin de hacer que el UAV vuele alrededor del obstáculo (por ejemplo, por encima, por debajo o hacia un lado), vuele lejos del obstáculo o se mantenga a una distancia especificada con respecto al obstáculo. En situaciones en las que son posibles múltiples trayectorias de vuelo modificadas, se puede seleccionar una trayectoria de vuelo preferida basándose en cualquier criterio adecuado, tal como minimizar la distancia recorrida, minimizar el tiempo de desplazamiento, minimizar la cantidad de energía necesaria para recorrer la trayectoria, minimizar la cantidad de desviación con respecto a la trayectoria de vuelo original, etc. Opcionalmente, si no se puede determinar una trayectoria de vuelo apropiada, el UAV puede simplemente realizar un vuelo estacionario en el lugar en el que está y esperar a que el obstáculo se mueva fuera del camino, o esperar a que el usuario asuma un control manual.
En otra aplicación ilustrativa de la fusión de múltiples sensores para el funcionamiento de UAV, las realizaciones presentadas en el presente documento se pueden implementar como parte de una funcionalidad de "retorno automático", en la que el UAV navegará automáticamente desde la ubicación actual a una ubicación de "origen" en ciertas circunstancias. La ubicación de origen puede ser una ubicación inicial que haya sido recorrida previamente por el UAV, tal como la ubicación en la que el UAV despegó y comenzó el vuelo inicialmente. Como alternativa, la ubicación de origen puede no ser una ubicación a la que el UAV se ha desplazado previamente. La ubicación de origen se puede determinar automáticamente o puede ser especificada por el usuario. Ejemplos de situaciones en las que se puede desencadenar la función de retorno automático incluyen la recepción de una instrucción para volver desde el usuario, la pérdida de comunicación con el controlador remoto del usuario u otra indicación de que el usuario ha dejado de ser capaz de controlar el UAV, un nivel de batería de UAV bajo, o la detección de un mal funcionamiento de UAV u otras situaciones de emergencia.
La figura 6 ilustra un método 600 para controlar un UAV para volver a una ubicación inicial, de acuerdo con realizaciones. En algunas realizaciones, el método 600 se implementa mediante uno o más procesadores asociados con un sistema de control automatizado, de tal modo que se necesita poca o ninguna entrada de usuario para realizar el método 600.
En la etapa 610, se determina una ubicación inicial del UAV usando al menos uno de una pluralidad de sensores. En algunas realizaciones, la ubicación se puede determinar usando múltiples sensores que tienen tipos de sensor diferentes. La ubicación se puede determinar en relación con un sistema de coordenadas global (por ejemplo, coordenadas de GPS) o en relación con un sistema de coordenadas local (por ejemplo, en relación con puntos de referencia o características de entorno locales).
En la etapa 620, se genera una primera señal para hacer que el UAV navegue dentro del entorno. La primera señal se puede generar de forma manual, semiautónoma o completamente autónoma. Por ejemplo, un usuario puede
introducir instrucciones en un controlador remoto que se transmiten al UAV con el fin de controlar el movimiento de UAV. Como otro ejemplo, el UAV se puede mover de acuerdo con una trayectoria de vuelo predeterminada o desplazarse a una ubicación predeterminada. El UAV se puede guiar hasta una ubicación dentro del entorno que es diferente de la ubicación inicial (por ejemplo, con respecto a la longitud, la latitud o la altitud).
En la etapa 630, datos de detección referentes al entorno se reciben desde al menos uno de la pluralidad de sensores. Los datos de detección se pueden recibir desde los mismos sensores usados en la etapa 610, o desde sensores diferentes. De manera similar, los datos de detección se pueden obtener de una pluralidad de tipos de sensor diferentes. Tales datos de detección pueden incluir información con respecto a la ubicación y las características de objetos de entorno, como se ha descrito previamente en el presente documento.
En la etapa 640, se genera un mapa de entorno representativo de al menos una porción del entorno basándose en los datos de detección. En realizaciones en las que los datos de detección incluyen datos de múltiples tipos de sensor, el mapa de entorno se puede producir usando los métodos basados en fusión de sensores descritos previamente en el presente documento (por ejemplo, el esquema 300 y/o el método 400). El mapa resultante se puede proporcionar en cualquier formato adecuado y puede incluir información referente a la ocupación de obstáculos (por ejemplo, un mapa de cuadrículas de obstáculos).
En la etapa 650, se genera una segunda señal para hacer que el UAV vuelva a la ubicación inicial basándose en el mapa de entorno. La segunda señal se puede generar en respuesta a una instrucción de retorno automático. La instrucción de retorno automático puede ser introducida por un usuario o se puede generar automáticamente, por ejemplo, en respuesta a una situación de emergencia tal como una pérdida de comunicación con un controlador remoto que controla el UAV. En algunas realizaciones, una vez que el UAV ha recibido una instrucción de retorno automático, el UAV puede usar el mapa de entorno para determinar su ubicación actual, la relación espacial entre las ubicaciones actual e inicial y/o las ubicaciones de cualquier obstáculo de entorno. Basándose en la información de ocupación de obstáculos en el mapa de entorno, el UAV puede determinar entonces una trayectoria apropiada (por ejemplo, una trayectoria de vuelo) que recorrer desde la ubicación actual hasta la ubicación inicial. Se pueden usar diversos enfoques para determinar una trayectoria adecuada para el UAV. Por ejemplo, la trayectoria se puede determinar usando un mapa de entorno tal como un mapa de topología, tal como se describe con más detalle en el presente documento con respecto a las figuras 9A y 9B . En algunas realizaciones, la trayectoria se puede configurar para evitar uno o más obstáculos de entorno que pueden obstruir el vuelo del UAV. Como alternativa o en combinación, la trayectoria puede ser la trayectoria más corta entre las ubicaciones actual e inicial. La trayectoria puede incluir una o más porciones que fueron recorridas previamente por el UAV, así como una o más porciones que son diferentes de una trayectoria recorrida previamente del UAV. Por ejemplo, la totalidad de la trayectoria puede haber sido recorrida previamente por el UAV. Como otro ejemplo, la trayectoria puede incluir una pluralidad de puntos de ruta correspondientes a posiciones previamente recorridas del UAV, como se describe con más detalle en el presente documento con respecto a las figuras 8A y 8B . A la inversa, la totalidad de la trayectoria puede no haber sido recorrida previamente por el UAV. En algunas realizaciones, se puede generar una pluralidad de trayectorias potenciales, y se puede seleccionar una trayectoria de la pluralidad basándose en criterios adecuados (por ejemplo, minimizar el tiempo de vuelo total, minimizar la distancia de vuelo total, minimizar el gasto de energía, minimizar el número de obstáculos encontrados, mantener una distancia predeterminada con respecto a obstáculos, mantener un intervalo de altitud predeterminado, etc.). En el mapa de entorno se puede incluir información de trayectoria de vuelo para el UAV (por ejemplo, trayectorias recorridas previamente, trayectorias potenciales, trayectorias seleccionadas).
Una vez que se ha determinado la trayectoria, la información de trayectoria se puede procesar para generar instrucciones para controlar el sistema de propulsión del UAV con el fin de hacer que este se desplace a lo largo de la trayectoria hasta la ubicación inicial. Por ejemplo, la trayectoria puede incluir una secuencia de información de ubicación y de orientación espacial para el UAV que se puede convertir en señales de control para dirigir el vuelo del UAV desde la ubicación actual hasta la ubicación inicial. En algunas realizaciones, conforme el UAV está navegando a lo largo de la trayectoria, este puede detectar uno o más obstáculos a lo largo de la trayectoria que obstruyen su vuelo. En tales situaciones, la trayectoria se puede modificar para evitar el obstáculo con el fin de permitir que el UAV continúe navegando hasta la ubicación inicial, por ejemplo, usando las técnicas descritas previamente en el presente documento con respecto al método 500.
La figura 7 ilustra un método 700 para controlar un UAV para volver a una ubicación inicial al tiempo que se evitan obstáculos, de acuerdo con muchas realizaciones. De forma similar al método 500, el método 700 se puede realizar de una forma semiautomatizada o completamente automatizada como parte de una función de retorno automático del UAV. Al menos algunas de las etapas del método 700 pueden ser llevadas a cabo por uno o más procesadores asociados con el UAV.
En la etapa 710, se determina una ubicación inicial del UAV usando al menos uno de una pluralidad de sensores. Opcionalmente, la ubicación inicial se puede determinar usando una pluralidad de tipos de sensor diferentes. La información de ubicación puede incluir información con respecto a la posición (por ejemplo, altitud, latitud, longitud) y/o la orientación (por ejemplo, alabeo, cabeceo, guiñada) del UAV. La información de ubicación se puede proporcionar en relación con un sistema de coordenadas global (por ejemplo, un sistema de coordenadas geográficas) o un sistema
de coordenadas local (por ejemplo, en relación con el UAV).
En la etapa 720, se genera una primera señal para hacer que el UAV navegue dentro del entorno, por ejemplo, a una ubicación diferente a la ubicación inicial. Como se ha descrito previamente en el presente documento, la primera señal se puede generar basándose en una entrada de usuario, instrucciones proporcionadas por un sistema de control autónomo o combinaciones adecuadas de los mismos.
En la etapa 730, se reciben datos de detección referentes al entorno usando el al menos uno de la pluralidad de sensores. Opcionalmente, los datos de detección se pueden recibir desde sensores que son diferentes de los sensores usados en la etapa 710. Los datos de detección se pueden generar combinando señales de detección desde tipos de sensor diferentes usando enfoques basados en fusión de sensores adecuados, como se ha descrito anteriormente. En algunas realizaciones, los datos de sensores fusionados se pueden usar para producir un mapa de entorno representativo, tal como en las realizaciones analizadas previamente en el presente documento.
En la etapa 740, se recibe una instrucción para volver a la ubicación inicial. La instrucción de retorno puede ser introducida por un usuario en un controlador remoto y, posteriormente, transmitirse al UAV. Como alternativa, la instrucción puede ser generada automáticamente por el uAv , tal como por un procesador y/o controlador a bordo. En algunas realizaciones, la instrucción se puede generar independientemente de cualquier entrada de usuario, por ejemplo, en una situación en la que el UAV detecta que se ha perdido la comunicación entre el dispositivo de usuario y el UAV, cuando ha tenido lugar un mal funcionamiento o una emergencia, etc.
En la etapa 750, se genera una segunda señal para hacer que el UAV vuelva a la ubicación inicial a lo largo de una trayectoria, en donde, cuando el al menos uno de la pluralidad de sensores detecta un obstáculo a lo largo de la trayectoria, la trayectoria se modifica para evitar el obstáculo. Opcionalmente, los sensores usados para detectar el obstáculo pueden ser diferentes de los sensores usados en la etapa 710 y/o la etapa 730. El obstáculo se puede detectar basándose en datos de detección generados por una pluralidad de tipos de sensor diferentes. En algunas realizaciones, el obstáculo se puede detectar usando un mapa de entorno (por ejemplo, un mapa de cuadrículas de ocupación) producido basándose en datos de sensor. El mapa de entorno se puede haber generado previamente (por ejemplo, basándose en los datos de detección recopilados en la etapa 730) o se puede generar en tiempo real conforme el UAV navega a lo largo de la trayectoria. Se pueden usar diversos enfoques para modificar la trayectoria con el fin de evitar que el UAV colisione con los obstáculos detectados, tales como los descritos previamente en el presente documento con respecto al método 500. La determinación de una trayectoria revisada se puede realizar basándose en datos de detección obtenidos y/o en información de obstáculos representada en el mapa de entorno.
Las figuras 8A y 8B ilustran un algoritmo 800 para controlar un UAV para volver a una ubicación inicial usando puntos de ruta, de acuerdo con realizaciones. El algoritmo 800 se puede implementar mediante un procesador y/o controlador adecuados usados para controlar el funcionamiento del uAv . Una o más etapas del algoritmo 800 se pueden realizar automáticamente, proporcionando de ese modo una funcionalidad de retorno automático al UAV.
A continuación del inicio de un vuelo de UAV en la etapa 802 (por ejemplo, despegue), se realiza una determinación en la etapa 804 con respecto a si el vuelo de UAV ha terminado. La determinación se puede basar en si el UAV ha aterrizado (por ejemplo, en una superficie tal como el suelo), si el sistema de propulsión del UAV se ha apagado, si el usuario ha dado una instrucción de que el vuelo ha terminado, y así sucesivamente. Si el vuelo ha terminado, el algoritmo 800 se concluye en la etapa 806. De lo contrario, el algoritmo 800 avanza a la etapa 808 con el fin de determinar la posición actual (por ejemplo, latitud, longitud, altitud) del UAV. La posición actual se puede determinar usando uno o más sensores, al menos algunos de los cuales tienen tipos diferentes, como se ha descrito previamente en el presente documento. Por ejemplo, el UAV puede incluir un sensor de GPS y otro tipo de sensor, tal como un sensor de visión. Los datos de detección de visión se pueden usar en combinación con o en lugar de los datos de detección de GPS con el fin de compensar situaciones en las que el sensor de GPS no es capaz de proporcionar datos de detección fiables (por ejemplo, en entornos interiores y/o de baja altitud en los que la comunicación con satélites de GPS puede ser subóptima, al inicio del vuelo cuando el sensor de GPS aún ha de establecer comunicación con satélites de GPS). En consecuencia, la precisión de posicionamiento se puede mejorar a través del uso combinado de datos de detección de visión y de GPS. Opcionalmente, la posición actual se puede determinar usando un mapa de entorno que habilita ubicar el UAV en relación con un sistema de coordenadas global o local. El mapa de entorno se puede generar usando técnicas de fusión de sensores, como se ha descrito anteriormente.
En la etapa 810, la información de posición actual se almacena en una estructura de datos adecuada, tal como una lista de información de posición. La lista de posiciones se puede usar para almacenar un conjunto de posiciones recorridas previamente por el UAV, que se pueden denominar en el presente documento "puntos de ruta". Los puntos de ruta se pueden almacenar en orden secuencial, proporcionando de ese modo una representación de la trayectoria de vuelo recorrida por el UAV. En tales realizaciones, el primer punto de ruta almacenado en la lista de posiciones corresponde a la posición inicial del UAV mientras que el último punto de ruta en la lista de posiciones corresponde a la posición más reciente del UAV. En consecuencia, los puntos de ruta almacenados se pueden recorrer en orden inverso (del último al primero) con el fin de hacer que el UAV vuelva a la ubicación inicial, como se describe a continuación.
En la etapa 812, se realiza una determinación con respecto a si el UAV debería iniciar la función de retorno automático con el fin de volver a la ubicación inicial correspondiente al primer punto de ruta almacenado en la lista de posiciones. La decisión de retorno automático se puede tomar automáticamente o basándose en una entrada de usuario, como se ha descrito previamente en el presente documento. Si no se inicia la función de retorno automático, el algoritmo 800 vuelve a la etapa 804 para comenzar la siguiente iteración de determinación y de almacenamiento de puntos de ruta. En algunas realizaciones, las etapas 804, 808, 810 y 812 se pueden repetir secuencialmente a una frecuencia deseada (por ejemplo, continuamente, a intervalos de tiempo predeterminados tales como una vez cada 0,5 s, 1 s, 2 s, 5 s, 10 s, 20 s o 30 s) con el fin de generar y almacenar una serie de puntos de ruta recorridos previamente durante un vuelo de UAV. Una vez que se determina en la etapa 812 que el uAv debería volver automáticamente, la función de retorno automático se realiza en la etapa 814, como se describe con más detalle a continuación con respecto a la figura 8B . A continuación de la compleción de la función de retorno automático, el algoritmo 800 concluye en la etapa 806.
La figura 8B ilustra las etapas secundarias de la etapa 814 del algoritmo 800, de acuerdo con realizaciones. A continuación del inicio de la función de retorno automático en la etapa 816, en la etapa 818 se realiza una determinación con respecto a si la lista de posiciones (lista de puntos de ruta) está vacía. Si la lista está vacía, esto indica que el UAV ha llegado a la ubicación inicial y la función de retorno automático se completa en la etapa 820. Si la lista no está vacía, esto indica que el UAV aún no ha llegado a la ubicación inicial. En tales casos, la siguiente posición objetivo (punto de ruta) se recupera entonces de la lista de posiciones en la etapa 822.
Se determina entonces la posición actual del UAV en la etapa 824. La posición actual se puede determinar usando cualquiera de los enfoques descritos en el presente documento, tal como usando una fusión de múltiples sensores y/o una cartografía de entorno. En algunas realizaciones, la relación espacial entre la posición actual y la posición objetivo recuperada se determina con el fin de generar una trayectoria de vuelo entre las posiciones actual y objetivo. Como se ha descrito previamente, la trayectoria de vuelo se puede generar basándose en datos de cartografía de entorno con el fin de evitar obstrucciones de vuelo potenciales.
En la etapa 826, el UAV se guía desde la posición actual a la posición objetivo, por ejemplo, usando la trayectoria de vuelo generada en la etapa 824. A medida que el UAV se mueve hacia la posición objetivo, este puede obtener y procesar datos de sensor para determinar si hay cualquier obstáculo que obstruya su vuelo. Por ejemplo, los datos de sensor se pueden usar para proporcionar un mapa de entorno local que incluye información de ocupación de obstáculos, como se ha analizado anteriormente. Los sensores ilustrativos que se pueden usar para proporcionar información de obstáculos incluyen sensores de visión, sensores de lídar, sensores ultrasónicos y similares. Basándose en los datos de sensor, en la etapa 828 se realiza una determinación con respecto a si se ha detectado un obstáculo. Si no se detecta obstrucción alguna, el UAV completa su navegación a la posición objetivo y la función de retorno automático avanza a la etapa 818 para comenzar la siguiente iteración. Si se ha detectado un obstáculo, se determina y se realiza una maniobra de evitación de obstáculos apropiada, como se indica en la etapa 830. Por ejemplo, la trayectoria de vuelo se puede modificar (por ejemplo, basándose en datos de mapa de entorno) de tal modo que el UAV navega hasta la ubicación objetivo sin colisionar con el obstáculo detectado.
Las figuras 9A y 9B ilustran un algoritmo 900 para controlar un UAV para volver a una ubicación objetivo usando un mapa de topología, de acuerdo con realizaciones. De forma similar al algoritmo 800, el algoritmo 900 se puede implementar mediante un procesador y/o controlador adecuados usados para controlar el funcionamiento del UAV. Una o más etapas del algoritmo 900 se pueden realizar automáticamente, proporcionando de ese modo una funcionalidad de retorno automático al UAV.
A continuación del inicio de un vuelo de UAV en la etapa 902 (por ejemplo, despegue), se realiza una determinación en la etapa 904 con respecto a si el vuelo de UAV ha terminado, de forma similar a la etapa 802 del algoritmo 800. Si el vuelo ha terminado, el algoritmo 900 se concluye en la etapa 906. De lo contrario, el algoritmo 900 avanza a la etapa 908 con el fin de determinar la posición actual del UAV, así como información de entorno referente al entorno que rodea al UAV. En algunas realizaciones, la información de entorno incluye información con respecto a la disposición espacial, la geometría y/o las características de uno o más objetos de entorno, como se ha descrito previamente en el presente documento. La posición actual y/o la información de entorno se pueden determinar usando datos de detección obtenidos de uno o más sensores. Opcionalmente, se pueden procesar y combinar datos de detección desde tipos de sensor diferentes usando técnicas de fusión de sensores con el fin de mejorar la fiabilidad y la precisión del resultado de detección. Por ejemplo, los datos de detección se pueden obtener de un sensor de g Ps y al menos otro tipo de sensor (por ejemplo, un sensor de visión, un sensor de lídar y/o un sensor ultrasónico).
En la etapa 910, la posición actual y la información de entorno se añaden a un mapa de topología representativo del entorno operativo. En realizaciones alternativas, también se pueden usar otros tipos de mapas (por ejemplo, mapas métricos tales como un mapa de cuadrículas). El mapa de topología se puede usar para almacenar información de posición correspondiente a ubicaciones previamente recorridas por el UAV, proporcionando de ese modo un registro de la trayectoria de vuelo del UAV. Adicionalmente, el mapa de topología se puede usar para representar la conectividad entre diversas ubicaciones de entorno, de acuerdo con realizaciones descritas previamente en el presente documento. Opcionalmente, el mapa de topología también puede incluir información métrica, tal como
información que indica las distancias entre las ubicaciones representadas, así como información que indica la ubicación espacial y la geometría de objetos de entorno. Al menos algunas porciones del mapa de topología se pueden generar durante un vuelo de UAV, por ejemplo, usando cartografía de múltiples sensores. Como alternativa o en combinación, una o más porciones del mapa de topología se pueden generar antes del funcionamiento del UAV y proporcionarse al UAV (por ejemplo, transmitirse desde un controlador remoto y/o almacenarse en una memoria a bordo). En esta última realización, el mapa de topología se puede refinar o modificar durante el funcionamiento de UAV basándose en datos de sensor recopilados con el fin de reflejar la información de entorno actual.
En la etapa 912, se realiza una determinación con respecto a si el UAV debería iniciar la función de retorno automático con el fin de volver a una posición objetivo, de forma similar a la etapa 812 del algoritmo 800. Si no se inicia la función de retorno automático, el algoritmo 900 vuelve a la etapa 904. Las etapas 904, 908, 910 y 912 se pueden repetir secuencialmente a una frecuencia deseada (por ejemplo, continuamente, a intervalos de tiempo predeterminados como una vez cada 0,5 s, 1 s, 2 s, 5 s, 10 s, 20 s o 30 s) con el fin de actualizar el mapa de topología con la posición y la información de entorno más recientes conforme el UAV navega dentro del entorno. Una vez que se determina en la etapa 912 que el UAV debería volver automáticamente, la función de retorno automático se realiza en la etapa 914, como se describe con más detalle a continuación con respecto a la figura 9B . A continuación de la compleción de la función de retorno automático, el algoritmo 900 concluye en la etapa 906.
La figura 9B ilustra las etapas secundarias de la etapa 914 del algoritmo 900, de acuerdo con realizaciones. A continuación del inicio de la función de retorno automático en la etapa 916, en la etapa 918 se realiza una determinación con respecto a si el UAV ha llegado a la posición objetivo. La posición objetivo puede ser una posición especificada por un usuario o determinada automáticamente por el UAV. La posición objetivo puede ser una posición que ha sido recorrida previamente por el UAV, tal como la posición inicial del UAV al inicio del vuelo (por ejemplo, la ubicación de despegue). Como alternativa, la posición objetivo puede ser una posición que no ha sido recorrida previamente por el UAV. Si se determina que el UAV ha llegado a la posición objetivo, la función de retorno automático se completa en la etapa 920. De lo contrario, el retorno automático avanza a la etapa 924.
En la etapa 924, la posición actual del UAV se determina usando cualquiera de los enfoques descritos en el presente documento, tal como usando una fusión de múltiples sensores y/o una cartografía de entorno. En la etapa 926, se determina la posición del mapa de topología correspondiente a la posición de UAV actual, ubicando de ese modo el UAV en relación con la información de entorno representada en el mapa de topología. Basándose en el mapa de topología, en la etapa 926 se determina una trayectoria de vuelo desde la posición actual a la posición objetivo. En algunas realizaciones, una o más porciones de la trayectoria de vuelo de retorno pueden corresponder a una trayectoria de vuelo recorrida previamente por el UAV. Como alternativa, una o más porciones de la trayectoria de vuelo pueden ser diferentes de la trayectoria de vuelo previa del UAV. La trayectoria de vuelo se puede determinar basándose en cualquier criterio adecuado. Por ejemplo, la trayectoria de vuelo se puede configurar para evitar obstáculos de entorno. Como otro ejemplo, la trayectoria de vuelo se puede configurar para minimizar la distancia total recorrida por el UAV para alcanzar la posición objetivo. Posteriormente, en la etapa 928, los controles de vuelo de UAV se ajustan basándose en la trayectoria de vuelo determinada con el fin de hacer que el UAV se mueva a lo largo de la trayectoria de vuelo. Por ejemplo, la trayectoria de vuelo puede especificar una serie de posiciones y/u orientaciones para el UAV, y señales de control adecuadas se pueden generar y transmitir a los sistemas de propulsión de UAV con el fin de hacer que el UAV asuma la posición y/o las orientaciones especificadas.
Conforme el UAV se mueve hacia la posición objetivo, este puede detectar obstáculos y realizar maniobras de evitación de obstáculos según sea apropiado, como se representa en las etapas 930 y 932. Las técnicas para realizar una detección y evitación de obstáculos pueden ser similares a las descritas con respecto a las etapas 828 y 830 del algoritmo 800, respectivamente. Opcionalmente, la detección y/o evitación de obstáculos se puede basar en el mapa de topología generado. Por ejemplo, una vez que se ha identificado un obstáculo, la información de entorno representada en el mapa de topología se puede usar para determinar modificaciones adecuadas a la trayectoria de vuelo que impidan colisiones potenciales.
Los sistemas, dispositivos y métodos descritos en el presente documento se pueden aplicar a una amplia diversidad de objetos móviles. Como se ha mencionado previamente, cualquier descripción en el presente documento de un vehículo aéreo puede ser de aplicación a y usarse para cualquier objeto móvil. Un objeto móvil de la presente invención se puede configurar para moverse dentro de cualquier entorno adecuado, tal como en el aire (por ejemplo, una aeronave de ala fija, una aeronave de alas rotatorias o una aeronave que no tiene alas fijas ni alas rotatorias), en el agua (por ejemplo, un barco o un submarino), en tierra (por ejemplo, un vehículo de motor, tal como un coche, un camión, un autobús, una camioneta, una motocicleta; una estructura o bastidor móvil, tal como un palo, una caña de pescar; o un tren), bajo tierra (por ejemplo, un metropolitano), en el espacio (por ejemplo, un avión espacial, un satélite o una sonda) o cualquier combinación de estos entornos. El objeto móvil puede ser un vehículo, tal como un vehículo descrito en alguna otra parte en el presente documento. En algunas realizaciones, el objeto móvil se puede montar sobre un sujeto vivo, tal como un ser humano o un animal. Los animales adecuados pueden incluir aves, caninos, felinos, equinos, bovinos, ovinos, porcinos, delfines, roedores o insectos.
El objeto móvil puede ser capaz de moverse libremente dentro del entorno con respecto a seis grados de libertad (por
ejemplo, tres grados de libertad en la traslación y tres grados de libertad en la rotación). Como alternativa, el movimiento del objeto móvil se puede restringir con respecto a uno o más grados de libertad, tal como por una trayectoria, derrota u orientación predeterminada. El movimiento puede ser accionado por cualquier mecanismo de accionamiento adecuado, tal como un motor de combustión interna o un motor eléctrico. El mecanismo de accionamiento del objeto móvil puede ser alimentado por cualquier fuente de energía adecuada, tal como energía eléctrica, energía magnética, energía solar, energía eólica, energía gravitacional, energía química, energía nuclear o cualquier combinación adecuada de las mismas. El objeto móvil puede ser autopropulsado a través de un sistema de propulsión, como se describe en alguna otra parte en el presente documento. El sistema de propulsión puede funcionar opcionalmente con fuente de energía, tal como energía eléctrica, energía magnética, energía solar, energía eólica, energía gravitacional, energía química, energía nuclear o cualquier combinación adecuada de las mismas. Como alternativa, el objeto móvil puede ser portado por un ser vivo.
En algunos casos, el objeto móvil puede ser un vehículo. Los vehículos adecuados pueden incluir vehículos acuáticos, vehículos aéreos, vehículos espaciales o vehículos terrestres. Por ejemplo, los vehículos aéreos pueden ser aeronaves de ala fija (por ejemplo, aeroplano, planeadores), aeronaves de alas rotatorias (por ejemplo, helicópteros, rotoaviones), aeronaves que tienen tanto alas fijas como alas rotatorias, o aeronaves que no tienen ni una ni otra (por ejemplo, dirigibles no rígidos, globos de aire caliente). Un vehículo puede ser autopropulsado, por ejemplo, autopropulsado a través del aire, sobre o en el agua, en el espacio, en o bajo tierra. Un vehículo autopropulsado puede utilizar un sistema de propulsión, tal como un sistema de propulsión que incluye uno o más motores de combustión interna, motores eléctricos, ruedas, ejes, imanes, rotores, hélices, palas, toberas o cualquier combinación adecuada de los mismos. En algunos casos, el sistema de propulsión se puede usar para habilitar que el objeto móvil despegue de una superficie, aterrice en una superficie, mantenga su posición y/u orientación actual (por ejemplo, realice un vuelo estacionario), cambie de orientación y/o cambie de posición.
El objeto móvil puede ser controlado de forma remota por un usuario o controlado de forma local por un ocupante dentro de o sobre el objeto móvil. En algunas realizaciones, el objeto móvil es un objeto móvil no tripulado, tal como un UAV. Un objeto móvil no tripulado, tal como un UAV, puede no tener un ocupante a bordo del objeto móvil. El objeto móvil puede ser controlado por un ser humano o un sistema de control autónomo (por ejemplo, un sistema de control informático), o cualquier combinación adecuada de los mismos. El objeto móvil puede ser un robot autónomo o semiautónomo, tal como un robot configurado con una inteligencia artificial.
El objeto móvil puede tener cualquier tamaño y/o dimensiones adecuados. En algunas realizaciones, el objeto móvil puede tener un tamaño y/o dimensiones para tener un ocupante humano dentro de o sobre el vehículo. Como alternativa, el objeto móvil puede ser de tamaño y/o dimensiones menores que el que es capaz de tener un ocupante humano dentro de o sobre el vehículo. El objeto móvil puede tener un tamaño y/o dimensiones adecuadas para ser elevado o portado por un ser humano. Como alternativa, el objeto móvil puede ser más grande que un tamaño y/o dimensiones adecuadas para ser elevado o portado por un ser humano. En algunos casos, el objeto móvil puede tener una dimensión máxima (por ejemplo, longitud, anchura, altura, diámetro, diagonal) menor que o igual a aproximadamente: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m o 10 m. La dimensión máxima puede ser mayor que o igual a aproximadamente: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m o 10 m. Por ejemplo, la distancia entre ejes de rotores opuestos del objeto móvil puede ser menor que o igual a aproximadamente: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m o 10 m. Como alternativa, la distancia entre ejes de rotores opuestos puede ser mayor que o igual a aproximadamente: 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m o 10 m.
En algunas realizaciones, el objeto móvil puede tener un volumen de menos de 100 cm x 100 cm x 100 cm, menos de 50 cm x 50 cm x 30 cm o menos de 5 cm x 5 cm x 3 cm. El volumen total del objeto móvil puede ser menor que o igual a aproximadamente: 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 centímetros3, 30 centimetros3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10.000 cm3, 100.000 cm3, 1 m3 o 10 m3 A la inversa, el volumen total del objeto móvil puede ser mayor que o igual a aproximadamente: 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 centímetros3, 30 centimetros3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10.000 cm3, 100.000 cm3, 1 m3 o 10 m3
En algunas realizaciones, el objeto móvil puede tener una huella (que puede referirse al área en sección transversal lateral abarcada por el objeto móvil) menor que o igual a aproximadamente: 32.000 cm2, 20.000 cm2, 10.000 cm2, 1.000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2o 5 cm2. A la inversa, la huella puede ser mayor que o igual a aproximadamente: 32.000 cm2, 20.000 cm2, 10.000 cm2, 1.000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2o 5 cm2.
En algunos casos, el objeto móvil no puede pesar más de 1000 kg. El peso del objeto móvil puede ser menor que o igual a aproximadamente: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,5 kg, 0,1 kg, 0,05 kg o 0,01 kg. A la inversa, el peso puede ser mayor que o igual a aproximadamente: 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,5 kg, 0,1 kg, 0,05 kg o 0,01 kg.
En algunas realizaciones, un objeto móvil puede ser pequeño en relación con una carga portada por el objeto móvil.
La carga puede incluir una carga útil y/o un portador, como se describe con más detalle a continuación. En algunos ejemplos, una relación entre un peso de objeto móvil y un peso de carga puede ser mayor que, menor que o igual a aproximadamente 1:1. En algunos casos, una relación entre un peso de objeto móvil y un peso de carga puede ser mayor que, menor que o igual a aproximadamente 1:1. Opcionalmente, una relación entre un peso de portador y un peso de carga puede ser mayor que, menor que o igual a aproximadamente 1:1. Cuando se desee, la relación entre un peso de objeto móvil y un peso de carga puede ser menor que o igual a: 1:2, 1:3, 1:4, 1:5, 1:10 o incluso menos. A la inversa, la relación entre un peso de objeto móvil y un peso de carga también puede ser mayor que o igual a: 2:1, 3:1, 4:1, 5:1, 10:1 o incluso más.
En algunas realizaciones, el objeto móvil puede tener un consumo de energía bajo. Por ejemplo, el objeto móvil puede usar menos de aproximadamente: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h o menos. En algunos casos, un portador del objeto móvil puede tener un consumo de energía bajo. Por ejemplo, el portador puede usar menos de aproximadamente: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h o menos. Opcionalmente, una carga útil del objeto móvil puede tener un consumo de energía bajo, tal como menos de aproximadamente: 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h o menos.
La figura 10 ilustra un vehículo aéreo no tripulado (UAV) 1000, de acuerdo con realizaciones de la presente invención. El UAV puede ser un ejemplo de un objeto móvil como se describe en el presente documento. El UAV 1000 puede incluir un sistema de propulsión que tiene cuatro rotores 1002, 1004, 1006 y 1008. Se puede proporcionar cualquier número de rotores (por ejemplo, uno, dos, tres, cuatro, cinco, seis o más). Los rotores pueden ser realizaciones de los rotores de autoapriete descritos en alguna otra parte en el presente documento. Los rotores, conjuntos de rotor u otros sistemas de propulsión del vehículo aéreo no tripulado pueden habilitar que el vehículo aéreo no tripulado realice un vuelo estacionario/mantenga la posición, cambie de orientación y/o cambie de ubicación. La distancia entre ejes de rotores opuestos puede ser de cualquier longitud adecuada 1010. Por ejemplo, la longitud 1010 puede ser menor que o igual a 2 m, o menor que o igual a 5 m. En algunas realizaciones, la longitud 1010 puede estar dentro de un intervalo de 40 cm a 1 m, de 10 cm a 2 m, o de 5 cm a 5 m. Cualquier descripción en el presente documento de un UAV puede ser de aplicación a un objeto móvil, tal como un objeto móvil de un tipo diferente, y viceversa.
En algunas realizaciones, el objeto móvil se puede configurar para portar una carga. La carga puede incluir uno o más de pasajeros, cargamento, equipo, instrumentos y similares. La carga se puede proporcionar dentro de una carcasa. La carcasa puede estar separada de una carcasa del objeto móvil o ser parte de una carcasa para un objeto móvil. Como alternativa, la carga puede estar provista de una carcasa mientras que el objeto móvil no tiene una carcasa. Como alternativa, se pueden proporcionar porciones de la carga o toda la carga sin una carcasa. La carga se puede fijar rígidamente en relación con el objeto móvil. Opcionalmente, la carga puede ser móvil en relación con el objeto móvil (por ejemplo, trasladable o rotatoria en relación con el objeto móvil).
En algunas realizaciones, la carga incluye una carga útil. La carga útil se puede configurar para no realizar operación o función alguna. Como alternativa, la carga útil puede ser una carga útil configurada para realizar una operación o función, también conocida como carga útil funcional. Por ejemplo, la carga útil puede incluir uno o más sensores para vigilar uno o más objetivos. Cualquier sensor adecuado se puede incorporar en la carga útil, tal como un dispositivo de captura de imágenes (por ejemplo, una cámara), un dispositivo de captura de audio (por ejemplo, un micrófono parabólico), un dispositivo de formación de imágenes de infrarrojos o un dispositivo de formación de imágenes de ultravioleta. El sensor puede proporcionar datos de detección estática (por ejemplo, una fotografía) o datos de detección dinámica (por ejemplo, un vídeo). En algunas realizaciones, el sensor proporciona datos de detección para el objetivo de la carga útil. Como alternativa o en combinación, la carga útil puede incluir uno o más emisores para proporcionar señales a uno o más objetivos. Se puede usar cualquier emisor adecuado, tal como una fuente de iluminación o una fuente de sonido. En algunas realizaciones, la carga útil incluye uno o más transceptores, tal como para la comunicación con un módulo remoto con respecto al objeto móvil. Opcionalmente, la carga útil se puede configurar para interaccionar con el entorno o un objetivo. Por ejemplo, la carga útil puede incluir una herramienta, instrumento o mecanismo capaz de manipular objetos, tal como un brazo robótico.
Opcionalmente, la carga puede incluir un portador. El portador se puede proporcionar para la carga útil y la carga útil se puede acoplar al objeto móvil a través del portador, o bien directamente (por ejemplo, entrando directamente en contacto con el objeto móvil) o bien indirectamente (por ejemplo, sin entrar en contacto con el objeto móvil). A la inversa, la carga útil se puede montar sobre el objeto móvil sin requerir un portador. La carga útil se puede formar en una sola pieza con el portador. Como alternativa, la carga útil se puede acoplar de forma liberable al portador. En algunas realizaciones, la carga útil puede incluir uno o más elementos de carga útil, y uno o más de los elementos de carga útil pueden ser móviles en relación con el objeto móvil y/o el portador, como se ha descrito anteriormente.
El portador se puede formar en una sola pieza con el objeto móvil. Como alternativa, el portador se puede acoplar de forma liberable al objeto móvil. El portador se puede acoplar al objeto móvil directa o indirectamente. El portador puede proporcionar soporte a la carga útil (por ejemplo, portar al menos parte del peso de la carga útil). El portador puede incluir una estructura de montaje adecuada (por ejemplo, una plataforma de cardán) capaz de estabilizar y/o dirigir el movimiento de la carga útil. En algunas realizaciones, el portador se puede adaptar para controlar el estado de la carga útil (por ejemplo, la posición y/o la orientación) en relación con el objeto móvil. Por ejemplo, el portador se puede configurar para moverse en relación con el objeto móvil (por ejemplo, en relación con uno, dos o tres grados de
traslación y/o uno, dos o tres grados de rotación) de tal modo que la carga útil mantiene su posición y/u orientación en relación con un marco de referencia adecuado independientemente del movimiento del objeto móvil. El marco de referencia puede ser un marco de referencia fijo (por ejemplo, el entorno circundante). Como alternativa, el marco de referencia puede ser un marco de referencia en movimiento (por ejemplo, el objeto móvil, un objetivo de carga útil).
En algunas realizaciones, el portador se puede configurar para permitir el movimiento de la carga útil en relación con el portador y/o el objeto móvil. El movimiento puede ser una traslación con respecto a hasta tres grados de libertad (por ejemplo, a lo largo de uno, dos o tres ejes) o una rotación con respecto a hasta tres grados de libertad (por ejemplo, alrededor de uno, dos o tres ejes), o cualquier combinación adecuada de los mismos.
En algunos casos, el portador puede incluir un conjunto de bastidor de portador y un conjunto de accionamiento de portador. El conjunto de bastidor de portador puede proporcionar un soporte estructural a la carga útil. El conjunto de bastidor de portador puede incluir componentes de bastidor de portador individuales, algunos de los cuales pueden ser móviles uno en relación con otro. El conjunto de accionamiento de portador puede incluir uno o más accionadores (por ejemplo, motores) que accionan el movimiento de los componentes de bastidor de portador individuales. Los accionadores pueden permitir el movimiento de múltiples componentes de bastidor de portador simultáneamente, o se pueden configurar para permitir el movimiento de un único componente de bastidor de portador a la vez. El movimiento de los componentes de bastidor de portador puede producir un movimiento correspondiente de la carga útil. Por ejemplo, el conjunto de accionamiento de portador puede accionar una rotación de uno o más componentes de bastidor de portador alrededor de uno o más ejes de rotación (por ejemplo, eje de alabeo, eje de cabeceo o eje de guiñada). La rotación de los uno o más componentes de bastidor de portador puede hacer que una carga útil rote alrededor de uno o más ejes de rotación en relación con el objeto móvil. Como alternativa o en combinación, el conjunto de accionamiento de portador puede accionar una traslación de uno o más componentes de bastidor de portador a lo largo de uno o más ejes de traslación y, de ese modo, producir una traslación de la carga útil a lo largo de uno o más ejes correspondientes en relación con el objeto móvil.
En algunas realizaciones, el movimiento del objeto móvil, el portador y la carga útil en relación con un marco de referencia fijo (por ejemplo, el entorno circundante) y/o de uno en relación con otro, puede ser controlado por un terminal. El terminal puede ser un dispositivo de control remoto en una ubicación distante del objeto móvil, el portador y/o la carga útil. El terminal se puede disponer sobre o fijar a una plataforma de soporte. Como alternativa, el terminal puede ser un dispositivo portátil o llevable. Por ejemplo, el terminal puede incluir un teléfono inteligente, un ordenador de tipo tableta, un ordenador portátil, un ordenador, unas gafas, unos guantes, un casco, un micrófono o combinaciones adecuadas de los mismos. El terminal puede incluir una interfaz de usuario, tal como un teclado, un ratón, una palanca de control, una pantalla táctil o un visualizador. Se puede usar cualquier entrada de usuario adecuada para interaccionar con el terminal, tal como órdenes introducidas manualmente, control de voz, control de gestos o control de posición (por ejemplo, a través de un movimiento, una ubicación o una inclinación del terminal).
El terminal se puede usar para controlar cualquier estado adecuado del objeto móvil, el portador y/o la carga útil. Por ejemplo, el terminal se puede usar para controlar la posición y/o la orientación del objeto móvil, el portador y/o la carga útil en relación con una referencia fija de uno a otro y/o de uno con respecto a otro. En algunas realizaciones, el terminal se puede usar para controlar elementos individuales del objeto móvil, el portador y/o la carga útil, tales como el conjunto de accionamiento de portador, un sensor de la carga útil o un emisor de la carga útil. El terminal puede incluir un dispositivo de comunicación inalámbrica adaptado para comunicarse con uno o más del objeto móvil, el portador o la carga útil.
El terminal puede incluir una unidad de visualización adecuada para ver información del objeto móvil, el portador y/o la carga útil. Por ejemplo, el terminal se puede configurar para visualizar información del objeto móvil, el portador y/o la carga útil con respecto a la posición, la velocidad de traslación, la aceleración de traslación, la orientación, la velocidad angular, la aceleración angular o cualquier combinación adecuada de las mismas. En algunas realizaciones, el terminal puede visualizar información proporcionada por la carga útil, tal como datos proporcionados por una carga útil funcional (por ejemplo, imágenes registradas por una cámara u otro dispositivo de captura de imágenes).
Opcionalmente, el mismo terminal puede tanto controlar el objeto móvil, el portador y/o la carga útil, o un estado del objeto móvil, el portador y/o la carga útil, como recibir y/o visualizar información desde el objeto móvil, el portador y/o la carga útil. Por ejemplo, un terminal puede controlar el posicionamiento de la carga útil en relación con un entorno, mientras se visualizan datos de imagen capturados por la carga útil, o información acerca de la posición de la carga útil. Como alternativa, se pueden usar terminales diferentes para funciones diferentes. Por ejemplo, un primer terminal puede controlar el movimiento o un estado del objeto móvil, el portador y/o la carga útil mientras que un segundo terminal puede recibir y/o visualizar información desde el objeto móvil, el portador y/o la carga útil. Por ejemplo, un primer terminal se puede usar para controlar el posicionamiento de la carga útil en relación con un entorno, mientras que un segundo terminal visualiza datos de imagen capturados por la carga útil. Se pueden utilizar diversos modos de comunicación entre un objeto móvil y un terminal integrado que tanto controla el objeto móvil como recibe datos, o entre el objeto móvil y múltiples terminales que tanto controlan el objeto móvil como reciben datos. Por ejemplo, se pueden formar al menos dos modos de comunicación diferentes entre el objeto móvil y el terminal que tanto controla el objeto móvil como recibe datos desde el objeto móvil.
La figura 11 ilustra un objeto móvil 1100 que incluye un portador 1102 y una carga útil 1104, de acuerdo con realizaciones. Aunque el objeto móvil 1100 se representa como una aeronave, esta representación no pretende ser limitante, y se puede usar cualquier tipo adecuado de objeto móvil, como se ha descrito previamente en el presente documento. Un experto en la materia apreciaría que cualquiera de las realizaciones descritas en el presente documento en el contexto de los sistemas de aeronaves se puede aplicar a cualquier objeto móvil adecuado (por ejemplo, un UAV). En algunos casos, la carga útil 1104 se puede proporcionar sobre el objeto móvil 1100 sin requerir el portador 1102. El objeto móvil 1100 puede incluir unos mecanismos de propulsión 1106, un sistema de detección 1108 y un sistema de comunicación 1110.
Los mecanismos de propulsión 1106 pueden incluir uno o más de rotores, hélices, palas, motores de combustión interna, motores eléctricos, ruedas, ejes, imanes o toberas, como se ha descrito previamente. Por ejemplo, los mecanismos de propulsión 1106 pueden ser rotores de autoapriete, conjuntos de rotor u otras unidades de propulsión rotatorias, como se divulga en alguna otra parte en el presente documento. El objeto móvil puede tener uno o más, dos o más, tres o más, o cuatro o más mecanismos de propulsión. Los mecanismos de propulsión pueden ser todos del mismo tipo. Como alternativa, uno o más mecanismos de propulsión pueden ser tipos diferentes de mecanismos de propulsión. Los mecanismos de propulsión 1106 se pueden montar sobre el objeto móvil 1100 usando cualquier medio adecuado, tal como un elemento de soporte (por ejemplo, un eje de transmisión) como se describe en alguna otra parte en el presente documento. Los mecanismos de propulsión 1106 se pueden montar sobre cualquier porción adecuada del objeto móvil 1100, tal como en la parte superior, la parte inferior, la parte frontal, la parte posterior, los lados o combinaciones adecuadas de los mismos.
En algunas realizaciones, los mecanismos de propulsión 1106 pueden habilitar que el objeto móvil 1100 despegue verticalmente desde una superficie o aterrice verticalmente sobre una superficie sin requerir movimiento horizontal alguno del objeto móvil 1100 (por ejemplo, sin desplazarse por una pista). Opcionalmente, los mecanismos de propulsión 1106 pueden ser operables para permitir que el objeto móvil 1100 realice un vuelo estacionario en el aire en una posición y/u orientación especificadas. Uno o más de los mecanismos de propulsión 1100 se pueden controlar independientemente de los otros mecanismos de propulsión. Como alternativa, los mecanismos de propulsión 1100 se pueden configurar para controlarse simultáneamente. Por ejemplo, el objeto móvil 1100 puede tener múltiples rotores orientados horizontalmente que pueden proporcionar sustentación y/o empuje al objeto móvil. Los múltiples rotores orientados horizontalmente se pueden accionar para proporcionar un despegue vertical, un aterrizaje vertical y unas capacidades de vuelo estacionario al objeto móvil 1100. En algunas realizaciones, uno o más de los rotores orientados horizontalmente pueden girar en el sentido de las agujas del reloj, mientras que uno o más de los rotores en horizontal pueden girar en el sentido contrario al de las agujas del reloj. Por ejemplo, el número de rotores en el sentido de las agujas del reloj puede ser igual al número de rotores en el sentido contrario al de las agujas del reloj. La tasa de rotación de cada uno de los rotores orientados horizontalmente se puede variar independientemente con el fin de controlar la sustentación y/o el empuje producidos por cada rotor, y ajustar de ese modo la disposición espacial, la velocidad y/o la aceleración del objeto móvil 1100 (por ejemplo, con respecto a hasta tres grados de traslación y hasta tres grados de rotación).
El sistema de detección 1108 puede incluir uno o más sensores que pueden detectar la disposición espacial, la velocidad y/o la aceleración del objeto móvil 1100 (por ejemplo, con respecto a hasta tres grados de traslación y hasta tres grados de rotación). Los uno o más sensores pueden incluir sensores de sistema de posicionamiento global (GPS), sensores de movimiento, sensores inerciales, sensores de proximidad o sensores de imagen. Los datos de detección proporcionados por el sistema de detección 1108 se pueden usar para controlar la disposición espacial, la velocidad y/o la orientación del objeto móvil 1100 (por ejemplo, usando una unidad de procesamiento y/o un módulo de control adecuados, como se describe a continuación). Como alternativa, el sistema de detección 1108 se puede usar para proporcionar datos con respecto al entorno que rodea al objeto móvil, tales como condiciones meteorológicas, proximidad a obstáculos potenciales, ubicación de características geográficas, ubicación de estructuras artificiales y similares.
El sistema de comunicación 1110 habilita una comunicación con el terminal 1112 que tiene un sistema de comunicación 1114 a través de señales inalámbricas 1116. Los sistemas de comunicación 1110, 1114 pueden incluir cualquier número de transmisores, receptores y/o transceptores adecuados para una comunicación inalámbrica. La comunicación puede ser una comunicación unidireccional, de tal modo que los datos se pueden transmitir en solo una dirección. Por ejemplo, la comunicación unidireccional puede implicar que solo el objeto móvil 1100 transmita datos al terminal 1112, o viceversa. Los datos se pueden transmitir desde uno o más transmisores del sistema de comunicación 1110 a uno o más receptores del sistema de comunicación 1112, o viceversa. Como alternativa, la comunicación puede ser una comunicación bidireccional, de tal modo que los datos se pueden transmitir en ambas direcciones entre el objeto móvil 1100 y el terminal 1112. La comunicación bidireccional puede implicar transmitir datos desde uno o más transmisores del sistema de comunicación 1110 a uno o más receptores del sistema de comunicación 1114, y viceversa.
En algunas realizaciones, el terminal 1112 puede proporcionar datos de control a uno o más del objeto móvil 1100, el portador 1102 y la carga útil 1104 y recibir información desde uno o más del objeto móvil 1100, el portador 1102 y la carga útil 1104 (por ejemplo, información de posición y/o de movimiento del objeto móvil, el portador o la carga útil;
datos detectados por la carga útil, tales como datos de imagen capturados por una cámara de carga útil). En algunos casos, los datos de control desde el terminal pueden incluir instrucciones para posiciones relativas, movimientos, accionamientos o controles del objeto móvil, el portador y/o la carga útil. Por ejemplo, los datos de control pueden dar como resultado una modificación de la ubicación y/o la orientación del objeto móvil (por ejemplo, a través del control de los mecanismos de propulsión 1106), o un movimiento de la carga útil con respecto al objeto móvil (por ejemplo, a través del control del portador 1102). Los datos de control desde el terminal pueden dar como resultado el control de la carga útil, tal como el control del funcionamiento de una cámara u otro dispositivo de captura de imágenes (por ejemplo, tomar imágenes fijas o en movimiento, acercar o alejar, encender o apagar, conmutar entre modos de formación de imágenes, cambiar la resolución de imagen, cambiar el enfoque, cambiar la profundidad de campo, cambiar el tiempo de exposición, cambiar el ángulo de visión o el campo de visión). En algunos casos, las comunicaciones desde el objeto móvil, el portador y/o la carga útil pueden incluir información desde uno o más sensores (por ejemplo, del sistema de detección 1108 o de la carga útil 1104). Las comunicaciones pueden incluir información detectada desde uno o más tipos diferentes de sensores (por ejemplo, sensores de GPS, sensores de movimiento, sensor inercial, sensores de proximidad o sensores de imagen). Tal información se puede referir a la posición (por ejemplo, ubicación, orientación), el movimiento o la aceleración del objeto móvil, el portador y/o la carga útil. Tal información desde una carga útil puede incluir datos capturados por la carga útil o un estado detectado de la carga útil. Los datos de control proporcionados transmitidos por el terminal 1112 se pueden configurar para controlar un estado de uno o más del objeto móvil 1100, el portador 1102 o la carga útil 1104. Como alternativa o en combinación, el portador 1102 y la carga útil 1104 también pueden incluir, cada uno, un módulo de comunicación configurado para comunicarse con el terminal 1112, de tal modo que el terminal se puede comunicar con y controlar cada uno de los objetos móviles 1100, el portador 1102 y la carga útil 1104 independientemente.
En algunas realizaciones, el objeto móvil 1100 se puede configurar para comunicarse con otro dispositivo remoto además del terminal 1112, o en lugar del terminal 1112. El terminal 1112 también se puede configurar para comunicarse con otro dispositivo remoto, así como con el objeto móvil 1100. Por ejemplo, el objeto móvil 1100 y/o el terminal 1112 se pueden comunicar con otro objeto móvil, o un portador o carga útil de otro objeto móvil. Cuando se desee, el dispositivo remoto puede ser un segundo terminal u otro dispositivo informático (por ejemplo, ordenador, ordenador portátil, ordenador de tipo tableta, teléfono inteligente u otro dispositivo móvil). El dispositivo remoto se puede configurar para transmitir datos al objeto móvil 1100, recibir datos desde el objeto móvil 1100, transmitir datos al terminal 1112 y/o recibir datos desde el terminal 1112. Opcionalmente, el dispositivo remoto se puede conectar a Internet u otra red de telecomunicaciones, de tal modo que los datos recibidos desde el objeto móvil 1100 y/o el terminal 1112 se pueden cargar en un sitio web o servidor.
La figura 12 es una ilustración esquemática a modo de diagrama de bloques de un sistema 1200 para controlar un objeto móvil, de acuerdo con realizaciones. El sistema 1200 se puede usar en combinación con cualquier realización adecuada de los sistemas, dispositivos y métodos divulgados en el presente documento. El sistema 1200 puede incluir un módulo de detección 1202, una unidad de procesamiento 1204, un medio legible por ordenador no transitorio 1206, un módulo de control 1208 y un módulo de comunicación 1210.
El módulo de detección 1202 puede utilizar tipos diferentes de sensores que recopilan información relacionada con los objetos móviles de diferentes formas. Tipos diferentes de sensores pueden detectar tipos diferentes de señales o señales desde fuentes diferentes. Por ejemplo, los sensores pueden incluir sensores inerciales, sensores de GPS, sensores de proximidad (por ejemplo, de lídar) o sensores de visión/imagen (por ejemplo, una cámara). El módulo de detección 1202 se puede acoplar operativamente a una unidad de procesamiento 1204 que tiene una pluralidad de procesadores. En algunas realizaciones, el módulo de detección se puede acoplar operativamente a un módulo de transmisión 1212 (por ejemplo, un módulo de transmisión de imágenes de Wi-Fi) configurado para transmitir directamente datos de detección a un dispositivo o sistema externo adecuado. Por ejemplo, el módulo de transmisión 1212 se puede usar para transmitir imágenes capturadas por una cámara del módulo de detección 1202 a un terminal remoto.
La unidad de procesamiento 1204 puede tener uno o más procesadores, tales como un procesador programable (por ejemplo, una unidad de procesamiento central (CPU)). La unidad de procesamiento 1204 se puede acoplar operativamente a un medio legible por ordenador no transitorio 1206. El medio legible por ordenador no transitorio 1206 puede almacenar lógicas, código y/o instrucciones de programa ejecutables por la unidad de procesamiento 1204 para realizar una o más etapas. El medio legible por ordenador no transitorio puede incluir una o más unidades de memoria (por ejemplo, medios extraíbles o almacenamiento externo tal como una tarjeta SD o una memoria de acceso aleatorio (RAM)). En algunas realizaciones, los datos desde el módulo de detección 1202 se pueden transportar directamente y almacenarse dentro de las unidades de memoria del medio legible por ordenador no transitorio 1206. Las unidades de memoria del medio legible por ordenador no transitorio 1206 pueden almacenar lógicas, código y/o instrucciones de programa ejecutables por la unidad de procesamiento 1204 para realizar cualquier realización adecuada de los métodos descritos en el presente documento. Por ejemplo, la unidad de procesamiento 1204 se puede configurar para ejecutar instrucciones que hacen que uno o más procesadores de la unidad de procesamiento 1204 analicen datos de detección producidos por el módulo de detección. Las unidades de memoria pueden almacenar datos de detección desde el módulo de detección a procesar por la unidad de procesamiento 1204. En algunas realizaciones, las unidades de memoria del medio legible por ordenador no transitorio 1206 se pueden
usar para almacenar los resultados de procesamiento producidos por la unidad de procesamiento 1204.
En algunas realizaciones, la unidad de procesamiento 1204 se puede acoplar operativamente a un módulo de control 1208 configurado para controlar un estado del objeto móvil. Por ejemplo, el módulo de control 1208 se puede configurar para controlar los mecanismos de propulsión del objeto móvil para ajustar la disposición espacial, la velocidad y/o la aceleración del objeto móvil con respecto a seis grados de libertad. Como alternativa o en combinación, el módulo de control 1208 puede controlar uno o más de un estado de un módulo portador, una carga útil o un módulo de detección.
La unidad de procesamiento 1204 se puede acoplar operativamente a un módulo de comunicación 1210 configurado para transmitir y/o recibir datos desde uno o más dispositivos externos (por ejemplo, un terminal, un dispositivo de visualización u otro controlador remoto). Se puede usar cualquier medio de comunicación adecuado, tal como comunicación cableada o comunicación inalámbrica. Por ejemplo, el módulo de comunicación 1210 puede utilizar una o más de redes de área local (LAN), redes de área extensa (WAN), infrarrojos, radio, Wi-Fi, redes de punto a punto (P2P), redes de telecomunicaciones, comunicación en la nube y similares. Opcionalmente, se pueden usar estaciones de retransmisión, tales como torres, satélites o estaciones móviles. Las comunicaciones inalámbricas pueden ser dependientes de la proximidad o independientes de la proximidad. En algunas realizaciones, puede requerirse, o no, línea de visión para las comunicaciones. El módulo de comunicación 1210 puede transmitir y/o recibir uno o más de datos de detección desde el módulo de detección 1202, resultados de procesamiento producidos por la unidad de procesamiento 1204, datos de control predeterminados, órdenes de usuario desde un terminal o controlador remoto, y similares.
Los componentes del sistema 1200 se pueden disponer en cualquier configuración adecuada. Por ejemplo, uno o más de los componentes del sistema 1200 se pueden ubicar en el objeto móvil, el portador, la carga útil, el terminal, el sistema de detección o un dispositivo externo adicional en comunicación con uno o más de los anteriores. Adicionalmente, aunque la figura 12 representa una única unidad de procesamiento 1204 y un único medio legible por ordenador no transitorio 1206, un experto en la materia apreciaría que esto no pretende ser limitante, y que el sistema 1200 puede incluir una pluralidad de unidades de procesamiento y/o de medios legibles por ordenador no transitorios. En algunas realizaciones, una o más de la pluralidad de unidades de procesamiento y/o medios legibles por ordenador no transitorios se pueden situar en diferentes ubicaciones, tales como en el objeto móvil, el portador, la carga útil, el terminal, el módulo de detección, el dispositivo externo adicional en comunicación con uno o más de los anteriores, o combinaciones adecuadas de los mismos, de tal modo que cualquier aspecto adecuado de las funciones de procesamiento y/o de memoria realizadas por el sistema 1200 puede tener lugar en una o más de las ubicaciones mencionadas anteriormente.
Como se usan en el presente documento, A y/o B abarcan uno o más de A o B, y combinaciones de los mismos tales como A y B.
Claims (15)
1. Un método para controlar un vehículo aéreo no tripulado (102, 152) dentro de un entorno (100, 150), comprendiendo el método:
generar una primera señal para hacer que el vehículo aéreo no tripulado (102, 152) navegue dentro del entorno (100, 150);
recibir, usando una pluralidad de sensores (202, 204, 206, 252, 254, 256, 302) portados por el vehículo aéreo no tripulado (102, 152), datos de detección referentes a al menos una porción del entorno (100, 150); generar, basándose en los datos de detección, un mapa de entorno representativo de al menos la porción del entorno (100, 150);
detectar, usando el mapa de entorno, uno o más obstáculos (108a-d) situados en la porción del entorno (100, 150); y
generar, usando el mapa de entorno, una segunda señal para hacer que el vehículo aéreo no tripulado (102, 152) navegue con el fin de evitar los uno o más obstáculos (108a-d),
caracterizado por que
la pluralidad de sensores (202, 204, 206, 252, 254, 256, 302) comprende uno o más sensores de visión y uno o más sensores de proximidad;
recibir los datos de detección comprende recibir unos primeros datos de detección desde los uno o más sensores de visión, incluyendo los primeros datos de detección una información de profundidad para el entorno, y recibir unos segundos datos de detección desde los uno o más sensores de proximidad, incluyendo los segundos datos de detección una información de profundidad para el entorno; y generar
el mapa de entorno comprende generar el mapa de entorno que incluye información de profundidad para el entorno usando los primeros y los segundos datos de detección,
en donde la información de profundidad es información con respecto a distancias de uno o más objetos desde el vehículo aéreo no tripulado y/o el sensor respectivo,
y en donde, una vez que se ha generado el mapa de entorno, guiar el vehículo aéreo no tripulado dentro del entorno se basa en la información de profundidad incluida en el mapa de entorno.
2. El método de la reivindicación 1, en donde los primeros y los segundos datos de detección comprenden, cada uno, al menos una imagen de profundidad que comprende una pluralidad de píxeles, estando asociado cada píxel de la pluralidad de píxeles con una coordenada de imagen bidimensional y un valor de profundidad.
3. El método de la reivindicación 2, en donde los primeros datos de detección comprenden un primer conjunto de imágenes de profundidad y los segundos datos de detección comprenden un segundo conjunto de imágenes de profundidad,
y en donde generar el mapa de entorno comprende:
identificar una primera pluralidad de puntos característicos presentes en el primer conjunto de imágenes de profundidad;
identificar una segunda pluralidad de puntos característicos presentes en el segundo conjunto de imágenes de profundidad, correspondiendo cada uno de la segunda pluralidad de puntos característicos a uno de la primera pluralidad de puntos característicos;
determinar una correspondencia entre la primera y la segunda pluralidades de puntos característicos; y generar el mapa de entorno combinando el primer y el segundo conjunto de imágenes de profundidad basándose en la correspondencia.
4. El método de la reivindicación 1, en donde el vehículo aéreo no tripulado (102, 152) está configurado para detectar la presencia de una región de vuelo restringida y no volar dentro de una distancia predeterminada de la región de vuelo restringida.
5. El método de la reivindicación 1, en donde el mapa de entorno comprende un mapa topológico.
6. El método de la reivindicación 1, en donde el mapa de entorno comprende un mapa métrico.
7. El método de la reivindicación 6, en donde el mapa métrico comprende al menos uno de los siguientes: una nube de puntos, un mapa de cuadrículas en 3D, un mapa de cuadrículas en 2D o un mapa de cuadrículas en 2,5D.
8. El método de la reivindicación 6, en donde el mapa métrico comprende un mapa de cuadrículas de ocupación.
9. El método de la reivindicación 1, en donde la primera señal se genera basándose en instrucciones recibidas desde
un terminal remoto en comunicación con el vehículo aéreo no tripulado (102, 152).
10. El método de la reivindicación 1, en donde la primera señal es generada de forma autónoma por el vehículo aéreo no tripulado (102, 152).
11. El método de la reivindicación 1, en donde los datos de detección comprenden datos en relación con una pluralidad de sistemas de coordenadas diferentes y generar el mapa de entorno comprende correlacionar los datos sobre un único sistema de coordenadas.
12. El método de la reivindicación 1, en donde generar la primera señal comprende generar una trayectoria de vuelo para el vehículo aéreo no tripulado (102, 152), y en donde generar la segunda señal comprende modificar la trayectoria de vuelo basándose en el mapa de entorno con el fin de evitar los uno o más obstáculos (108a-d).
13. El método de la reivindicación 7, en donde la trayectoria de vuelo está configurada para dirigir el vehículo aéreo no tripulado (102, 152) desde una posición actual hasta una posición previa.
14. El método de una cualquiera de las reivindicaciones previas, en donde generar la segunda señal comprende:
determinar, usando al menos uno de la pluralidad de sensores, una ubicación actual del objeto móvil; determinar, por el objeto móvil y basándose en el mapa de entorno, una trayectoria desde la ubicación actual hasta una ubicación objetivo; y
generar una señal para hacer que el objeto móvil se mueva a lo largo de la trayectoria hasta la ubicación objetivo al tiempo que se evitan los uno o más obstáculos.
15. Un sistema para controlar un vehículo aéreo no tripulado (102, 152) dentro de un entorno (100, 150), comprendiendo el sistema:
una pluralidad de sensores (202, 204, 206, 252, 254, 256, 302) portados por el vehículo aéreo no tripulado; y uno o más procesadores, configurados individual o colectivamente para:
generar una primera señal para hacer que el vehículo aéreo no tripulado (102, 152) navegue dentro del entorno (100, 150);
recibir, usando una pluralidad de sensores (202, 204, 206, 252, 254, 256, 302) portados por el vehículo aéreo no tripulado (102, 152), datos de detección referentes a al menos una porción del entorno (100, 150); generar, basándose en los datos de detección, un mapa de entorno representativo de al menos la porción del entorno (100, 150);
detectar, usando el mapa de entorno, uno o más obstáculos (108a-d) situados en la porción del entorno (100, 150); y
generar, usando el mapa de entorno, una segunda señal para hacer que el vehículo aéreo no tripulado (102, 152) navegue con el fin de evitar los uno o más obstáculos (108a-d),
caracterizado por que
la pluralidad de sensores (202, 204, 206, 252, 254, 256, 302) comprende uno o más sensores de visión y uno o más sensores de proximidad;
recibir los datos de detección comprende recibir unos primeros datos de detección desde los uno o más sensores de visión, incluyendo los primeros datos de detección una información de profundidad para el entorno, y recibir unos segundos datos de detección desde los uno o más sensores de proximidad, incluyendo los segundos datos de detección una información de profundidad para el entorno; y generar el mapa de entorno comprende generar el mapa de entorno que incluye información de profundidad para el entorno usando los primeros y los segundos datos de detección,
en donde la información de profundidad es información con respecto a distancias de uno o más objetos desde el vehículo aéreo no tripulado y/o el sensor respectivo,
y en donde, una vez que se ha generado el mapa de entorno, guiar el vehículo aéreo no tripulado dentro del entorno se basa en la información de profundidad incluida en el mapa de entorno.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18188201.0A EP3428766B1 (en) | 2014-09-05 | 2014-09-05 | Multi-sensor environmental mapping |
PCT/CN2014/086007 WO2016033797A1 (en) | 2014-09-05 | 2014-09-05 | Multi-sensor environmental mapping |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2876449T3 true ES2876449T3 (es) | 2021-11-12 |
Family
ID=55437449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18188201T Active ES2876449T3 (es) | 2014-09-05 | 2014-09-05 | Cartografía de entorno de múltiples sensores |
Country Status (7)
Country | Link |
---|---|
US (4) | US10429839B2 (es) |
EP (3) | EP3428766B1 (es) |
JP (1) | JP6235716B2 (es) |
CN (4) | CN105492985B (es) |
DK (1) | DK3428766T3 (es) |
ES (1) | ES2876449T3 (es) |
WO (1) | WO2016033797A1 (es) |
Families Citing this family (474)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8798840B2 (en) * | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
US9384668B2 (en) | 2012-05-09 | 2016-07-05 | Singularity University | Transportation using network of unmanned aerial vehicles |
US9113347B2 (en) | 2012-12-05 | 2015-08-18 | At&T Intellectual Property I, Lp | Backhaul link for distributed antenna system |
US10009065B2 (en) | 2012-12-05 | 2018-06-26 | At&T Intellectual Property I, L.P. | Backhaul link for distributed antenna system |
US9525524B2 (en) | 2013-05-31 | 2016-12-20 | At&T Intellectual Property I, L.P. | Remote distributed antenna system |
US9999038B2 (en) | 2013-05-31 | 2018-06-12 | At&T Intellectual Property I, L.P. | Remote distributed antenna system |
WO2015108586A2 (en) | 2013-10-21 | 2015-07-23 | Kespry, Inc. | System and methods for execution of recovery actions on an unmanned aerial vehicle |
US8897697B1 (en) | 2013-11-06 | 2014-11-25 | At&T Intellectual Property I, Lp | Millimeter-wave surface-wave communications |
US9209902B2 (en) | 2013-12-10 | 2015-12-08 | At&T Intellectual Property I, L.P. | Quasi-optical coupler |
CN104854428B (zh) | 2013-12-10 | 2018-12-14 | 深圳市大疆创新科技有限公司 | 传感器融合 |
US10735902B1 (en) * | 2014-04-09 | 2020-08-04 | Accuware, Inc. | Method and computer program for taking action based on determined movement path of mobile devices |
US12007763B2 (en) | 2014-06-19 | 2024-06-11 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
US9678506B2 (en) | 2014-06-19 | 2017-06-13 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
US9798322B2 (en) | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
US9692101B2 (en) | 2014-08-26 | 2017-06-27 | At&T Intellectual Property I, L.P. | Guided wave couplers for coupling electromagnetic waves between a waveguide surface and a surface of a wire |
JP6181300B2 (ja) | 2014-09-05 | 2017-08-16 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人航空機の速度を制御するシステム |
ES2876449T3 (es) * | 2014-09-05 | 2021-11-12 | Sz Dji Technology Co Ltd | Cartografía de entorno de múltiples sensores |
WO2016033796A1 (en) | 2014-09-05 | 2016-03-10 | SZ DJI Technology Co., Ltd. | Context-based flight mode selection |
US9768833B2 (en) | 2014-09-15 | 2017-09-19 | At&T Intellectual Property I, L.P. | Method and apparatus for sensing a condition in a transmission medium of electromagnetic waves |
US10063280B2 (en) | 2014-09-17 | 2018-08-28 | At&T Intellectual Property I, L.P. | Monitoring and mitigating conditions in a communication network |
CN110780679B (zh) * | 2014-09-30 | 2023-05-05 | 深圳市大疆创新科技有限公司 | 一种飞行指示方法、装置及飞行器 |
US9615269B2 (en) | 2014-10-02 | 2017-04-04 | At&T Intellectual Property I, L.P. | Method and apparatus that provides fault tolerance in a communication network |
US9685992B2 (en) | 2014-10-03 | 2017-06-20 | At&T Intellectual Property I, L.P. | Circuit panel network and methods thereof |
US9503189B2 (en) | 2014-10-10 | 2016-11-22 | At&T Intellectual Property I, L.P. | Method and apparatus for arranging communication sessions in a communication system |
US9762289B2 (en) | 2014-10-14 | 2017-09-12 | At&T Intellectual Property I, L.P. | Method and apparatus for transmitting or receiving signals in a transportation system |
US9973299B2 (en) | 2014-10-14 | 2018-05-15 | At&T Intellectual Property I, L.P. | Method and apparatus for adjusting a mode of communication in a communication network |
US9653770B2 (en) | 2014-10-21 | 2017-05-16 | At&T Intellectual Property I, L.P. | Guided wave coupler, coupling module and methods for use therewith |
US9312919B1 (en) | 2014-10-21 | 2016-04-12 | At&T Intellectual Property I, Lp | Transmission device with impairment compensation and methods for use therewith |
US9627768B2 (en) | 2014-10-21 | 2017-04-18 | At&T Intellectual Property I, L.P. | Guided-wave transmission device with non-fundamental mode propagation and methods for use therewith |
US9769020B2 (en) | 2014-10-21 | 2017-09-19 | At&T Intellectual Property I, L.P. | Method and apparatus for responding to events affecting communications in a communication network |
US9520945B2 (en) | 2014-10-21 | 2016-12-13 | At&T Intellectual Property I, L.P. | Apparatus for providing communication services and methods thereof |
US9577306B2 (en) | 2014-10-21 | 2017-02-21 | At&T Intellectual Property I, L.P. | Guided-wave transmission device and methods for use therewith |
US9780834B2 (en) | 2014-10-21 | 2017-10-03 | At&T Intellectual Property I, L.P. | Method and apparatus for transmitting electromagnetic waves |
WO2016065625A1 (en) | 2014-10-31 | 2016-05-06 | SZ DJI Technology Co., Ltd. | Systems and methods for walking pets |
US20160140851A1 (en) * | 2014-11-18 | 2016-05-19 | Ziv LEVY | Systems and methods for drone navigation |
US9544006B2 (en) | 2014-11-20 | 2017-01-10 | At&T Intellectual Property I, L.P. | Transmission device with mode division multiplexing and methods for use therewith |
US10243784B2 (en) | 2014-11-20 | 2019-03-26 | At&T Intellectual Property I, L.P. | System for generating topology information and methods thereof |
US9680670B2 (en) | 2014-11-20 | 2017-06-13 | At&T Intellectual Property I, L.P. | Transmission device with channel equalization and control and methods for use therewith |
US9742462B2 (en) | 2014-12-04 | 2017-08-22 | At&T Intellectual Property I, L.P. | Transmission medium and communication interfaces and methods for use therewith |
US10009067B2 (en) | 2014-12-04 | 2018-06-26 | At&T Intellectual Property I, L.P. | Method and apparatus for configuring a communication interface |
US9997819B2 (en) | 2015-06-09 | 2018-06-12 | At&T Intellectual Property I, L.P. | Transmission medium and method for facilitating propagation of electromagnetic waves via a core |
US9954287B2 (en) | 2014-11-20 | 2018-04-24 | At&T Intellectual Property I, L.P. | Apparatus for converting wireless signals and electromagnetic waves and methods thereof |
US9800327B2 (en) | 2014-11-20 | 2017-10-24 | At&T Intellectual Property I, L.P. | Apparatus for controlling operations of a communication device and methods thereof |
US9654173B2 (en) | 2014-11-20 | 2017-05-16 | At&T Intellectual Property I, L.P. | Apparatus for powering a communication device and methods thereof |
US9461706B1 (en) | 2015-07-31 | 2016-10-04 | At&T Intellectual Property I, Lp | Method and apparatus for exchanging communication signals |
EP3161658B1 (en) * | 2014-12-19 | 2019-03-20 | SZ DJI Technology Co., Ltd. | Optical-flow imaging system and method using ultrasonic depth sensing |
US9836053B2 (en) | 2015-01-04 | 2017-12-05 | Zero Zero Robotics Inc. | System and method for automated aerial system operation |
US10358214B2 (en) | 2015-01-04 | 2019-07-23 | Hangzhou Zero Zro Technology Co., Ltd. | Aerial vehicle and method of operation |
US10220954B2 (en) | 2015-01-04 | 2019-03-05 | Zero Zero Robotics Inc | Aerial system thermal control system and method |
US10126745B2 (en) | 2015-01-04 | 2018-11-13 | Hangzhou Zero Zero Technology Co., Ltd. | System and method for automated aerial system operation |
US10719080B2 (en) | 2015-01-04 | 2020-07-21 | Hangzhou Zero Zero Technology Co., Ltd. | Aerial system and detachable housing |
US10366616B2 (en) * | 2015-01-09 | 2019-07-30 | Botlink, Llc | System and method of collision avoidance in unmanned aerial vehicles |
US10144036B2 (en) | 2015-01-30 | 2018-12-04 | At&T Intellectual Property I, L.P. | Method and apparatus for mitigating interference affecting a propagation of electromagnetic waves guided by a transmission medium |
US9905134B2 (en) * | 2015-02-12 | 2018-02-27 | Aerobotic Innovations, LLC | System and method of preventing and remedying restricted area intrusions by unmanned aerial vehicles |
US9876570B2 (en) | 2015-02-20 | 2018-01-23 | At&T Intellectual Property I, Lp | Guided-wave transmission device with non-fundamental mode propagation and methods for use therewith |
US10416668B2 (en) * | 2015-03-03 | 2019-09-17 | PreNav, Inc. | Scanning environments and tracking unmanned aerial vehicles |
US9749013B2 (en) | 2015-03-17 | 2017-08-29 | At&T Intellectual Property I, L.P. | Method and apparatus for reducing attenuation of electromagnetic waves guided by a transmission medium |
US9592828B2 (en) * | 2015-04-13 | 2017-03-14 | Nec Corporation | Long term driving danger prediction system |
US10224981B2 (en) | 2015-04-24 | 2019-03-05 | At&T Intellectual Property I, Lp | Passive electrical coupling device and methods for use therewith |
US9705561B2 (en) | 2015-04-24 | 2017-07-11 | At&T Intellectual Property I, L.P. | Directional coupling device and methods for use therewith |
US9948354B2 (en) | 2015-04-28 | 2018-04-17 | At&T Intellectual Property I, L.P. | Magnetic coupling device with reflective plate and methods for use therewith |
US9793954B2 (en) | 2015-04-28 | 2017-10-17 | At&T Intellectual Property I, L.P. | Magnetic coupling device and methods for use therewith |
US9871282B2 (en) | 2015-05-14 | 2018-01-16 | At&T Intellectual Property I, L.P. | At least one transmission medium having a dielectric surface that is covered at least in part by a second dielectric |
US9748626B2 (en) | 2015-05-14 | 2017-08-29 | At&T Intellectual Property I, L.P. | Plurality of cables having different cross-sectional shapes which are bundled together to form a transmission medium |
US9490869B1 (en) | 2015-05-14 | 2016-11-08 | At&T Intellectual Property I, L.P. | Transmission medium having multiple cores and methods for use therewith |
US10650940B2 (en) | 2015-05-15 | 2020-05-12 | At&T Intellectual Property I, L.P. | Transmission medium having a conductive material and methods for use therewith |
US9917341B2 (en) | 2015-05-27 | 2018-03-13 | At&T Intellectual Property I, L.P. | Apparatus and method for launching electromagnetic waves and for modifying radial dimensions of the propagating electromagnetic waves |
US9866309B2 (en) | 2015-06-03 | 2018-01-09 | At&T Intellectual Property I, Lp | Host node device and methods for use therewith |
US10812174B2 (en) | 2015-06-03 | 2020-10-20 | At&T Intellectual Property I, L.P. | Client node device and methods for use therewith |
US10103801B2 (en) | 2015-06-03 | 2018-10-16 | At&T Intellectual Property I, L.P. | Host node device and methods for use therewith |
US9912381B2 (en) | 2015-06-03 | 2018-03-06 | At&T Intellectual Property I, Lp | Network termination and methods for use therewith |
US9913139B2 (en) | 2015-06-09 | 2018-03-06 | At&T Intellectual Property I, L.P. | Signal fingerprinting for authentication of communicating devices |
US10142086B2 (en) | 2015-06-11 | 2018-11-27 | At&T Intellectual Property I, L.P. | Repeater and methods for use therewith |
US9608692B2 (en) | 2015-06-11 | 2017-03-28 | At&T Intellectual Property I, L.P. | Repeater and methods for use therewith |
US9820146B2 (en) | 2015-06-12 | 2017-11-14 | At&T Intellectual Property I, L.P. | Method and apparatus for authentication and identity management of communicating devices |
US20170201738A1 (en) * | 2015-06-13 | 2017-07-13 | Alberto Daniel Lacaze | Senising on uavs for mapping and obstacle avoidance |
US9667317B2 (en) | 2015-06-15 | 2017-05-30 | At&T Intellectual Property I, L.P. | Method and apparatus for providing security using network traffic adjustments |
US9640850B2 (en) | 2015-06-25 | 2017-05-02 | At&T Intellectual Property I, L.P. | Methods and apparatus for inducing a non-fundamental wave mode on a transmission medium |
US9865911B2 (en) | 2015-06-25 | 2018-01-09 | At&T Intellectual Property I, L.P. | Waveguide system for slot radiating first electromagnetic waves that are combined into a non-fundamental wave mode second electromagnetic wave on a transmission medium |
US9509415B1 (en) | 2015-06-25 | 2016-11-29 | At&T Intellectual Property I, L.P. | Methods and apparatus for inducing a fundamental wave mode on a transmission medium |
US9853342B2 (en) | 2015-07-14 | 2017-12-26 | At&T Intellectual Property I, L.P. | Dielectric transmission medium connector and methods for use therewith |
US9836957B2 (en) | 2015-07-14 | 2017-12-05 | At&T Intellectual Property I, L.P. | Method and apparatus for communicating with premises equipment |
US10205655B2 (en) | 2015-07-14 | 2019-02-12 | At&T Intellectual Property I, L.P. | Apparatus and methods for communicating utilizing an antenna array and multiple communication paths |
US10044409B2 (en) | 2015-07-14 | 2018-08-07 | At&T Intellectual Property I, L.P. | Transmission medium and methods for use therewith |
US9628116B2 (en) | 2015-07-14 | 2017-04-18 | At&T Intellectual Property I, L.P. | Apparatus and methods for transmitting wireless signals |
US10148016B2 (en) | 2015-07-14 | 2018-12-04 | At&T Intellectual Property I, L.P. | Apparatus and methods for communicating utilizing an antenna array |
US9847566B2 (en) | 2015-07-14 | 2017-12-19 | At&T Intellectual Property I, L.P. | Method and apparatus for adjusting a field of a signal to mitigate interference |
US9722318B2 (en) | 2015-07-14 | 2017-08-01 | At&T Intellectual Property I, L.P. | Method and apparatus for coupling an antenna to a device |
US10033107B2 (en) | 2015-07-14 | 2018-07-24 | At&T Intellectual Property I, L.P. | Method and apparatus for coupling an antenna to a device |
US9882257B2 (en) | 2015-07-14 | 2018-01-30 | At&T Intellectual Property I, L.P. | Method and apparatus for launching a wave mode that mitigates interference |
US10033108B2 (en) | 2015-07-14 | 2018-07-24 | At&T Intellectual Property I, L.P. | Apparatus and methods for generating an electromagnetic wave having a wave mode that mitigates interference |
US10170840B2 (en) | 2015-07-14 | 2019-01-01 | At&T Intellectual Property I, L.P. | Apparatus and methods for sending or receiving electromagnetic signals |
US10341142B2 (en) | 2015-07-14 | 2019-07-02 | At&T Intellectual Property I, L.P. | Apparatus and methods for generating non-interfering electromagnetic waves on an uninsulated conductor |
US10320586B2 (en) | 2015-07-14 | 2019-06-11 | At&T Intellectual Property I, L.P. | Apparatus and methods for generating non-interfering electromagnetic waves on an insulated transmission medium |
US9608740B2 (en) | 2015-07-15 | 2017-03-28 | At&T Intellectual Property I, L.P. | Method and apparatus for launching a wave mode that mitigates interference |
US9793951B2 (en) | 2015-07-15 | 2017-10-17 | At&T Intellectual Property I, L.P. | Method and apparatus for launching a wave mode that mitigates interference |
US10090606B2 (en) | 2015-07-15 | 2018-10-02 | At&T Intellectual Property I, L.P. | Antenna system with dielectric array and methods for use therewith |
US9912027B2 (en) | 2015-07-23 | 2018-03-06 | At&T Intellectual Property I, L.P. | Method and apparatus for exchanging communication signals |
US9871283B2 (en) | 2015-07-23 | 2018-01-16 | At&T Intellectual Property I, Lp | Transmission medium having a dielectric core comprised of plural members connected by a ball and socket configuration |
US9948333B2 (en) | 2015-07-23 | 2018-04-17 | At&T Intellectual Property I, L.P. | Method and apparatus for wireless communications to mitigate interference |
US9749053B2 (en) | 2015-07-23 | 2017-08-29 | At&T Intellectual Property I, L.P. | Node device, repeater and methods for use therewith |
US10784670B2 (en) | 2015-07-23 | 2020-09-22 | At&T Intellectual Property I, L.P. | Antenna support for aligning an antenna |
US9911344B2 (en) * | 2015-07-24 | 2018-03-06 | Honeywell International Inc. | Helicopter landing system using a camera for obstacle detection |
US10020587B2 (en) | 2015-07-31 | 2018-07-10 | At&T Intellectual Property I, L.P. | Radial antenna and methods for use therewith |
US9967173B2 (en) | 2015-07-31 | 2018-05-08 | At&T Intellectual Property I, L.P. | Method and apparatus for authentication and identity management of communicating devices |
WO2017020196A1 (zh) * | 2015-07-31 | 2017-02-09 | 深圳市大疆创新科技有限公司 | 探测装置、探测系统、探测方法,以及可移动设备 |
US9735833B2 (en) | 2015-07-31 | 2017-08-15 | At&T Intellectual Property I, L.P. | Method and apparatus for communications management in a neighborhood network |
US9599994B1 (en) * | 2015-08-03 | 2017-03-21 | The United States Of America As Represented By The Secretary Of The Army | Collisionless flying of unmanned aerial vehicles that maximizes coverage of predetermined region |
US10269257B1 (en) | 2015-08-11 | 2019-04-23 | Gopro, Inc. | Systems and methods for vehicle guidance |
US9938024B1 (en) * | 2015-08-20 | 2018-04-10 | Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville | Object redirection using energetic pulses |
US9904535B2 (en) | 2015-09-14 | 2018-02-27 | At&T Intellectual Property I, L.P. | Method and apparatus for distributing software |
US10009901B2 (en) | 2015-09-16 | 2018-06-26 | At&T Intellectual Property I, L.P. | Method, apparatus, and computer-readable storage medium for managing utilization of wireless resources between base stations |
US10079661B2 (en) | 2015-09-16 | 2018-09-18 | At&T Intellectual Property I, L.P. | Method and apparatus for use with a radio distributed antenna system having a clock reference |
US10051629B2 (en) | 2015-09-16 | 2018-08-14 | At&T Intellectual Property I, L.P. | Method and apparatus for use with a radio distributed antenna system having an in-band reference signal |
US10136434B2 (en) | 2015-09-16 | 2018-11-20 | At&T Intellectual Property I, L.P. | Method and apparatus for use with a radio distributed antenna system having an ultra-wideband control channel |
US10009063B2 (en) | 2015-09-16 | 2018-06-26 | At&T Intellectual Property I, L.P. | Method and apparatus for use with a radio distributed antenna system having an out-of-band reference signal |
US9769128B2 (en) | 2015-09-28 | 2017-09-19 | At&T Intellectual Property I, L.P. | Method and apparatus for encryption of communications over a network |
US9729197B2 (en) | 2015-10-01 | 2017-08-08 | At&T Intellectual Property I, L.P. | Method and apparatus for communicating network management traffic over a network |
US9876264B2 (en) | 2015-10-02 | 2018-01-23 | At&T Intellectual Property I, Lp | Communication system, guided wave switch and methods for use therewith |
US9882277B2 (en) | 2015-10-02 | 2018-01-30 | At&T Intellectual Property I, Lp | Communication device and antenna assembly with actuated gimbal mount |
US10665942B2 (en) | 2015-10-16 | 2020-05-26 | At&T Intellectual Property I, L.P. | Method and apparatus for adjusting wireless communications |
US10355367B2 (en) | 2015-10-16 | 2019-07-16 | At&T Intellectual Property I, L.P. | Antenna structure for exchanging wireless signals |
WO2017081898A1 (ja) * | 2015-11-09 | 2017-05-18 | Necソリューションイノベータ株式会社 | 飛行制御装置、飛行制御方法、及びコンピュータ読み取り可能な記録媒体 |
CA3004947A1 (en) * | 2015-11-10 | 2017-05-18 | Matternet, Inc. | Methods and systems for transportation using unmanned aerial vehicles |
US10540901B2 (en) * | 2015-11-23 | 2020-01-21 | Kespry Inc. | Autonomous mission action alteration |
WO2017091768A1 (en) | 2015-11-23 | 2017-06-01 | Kespry, Inc. | Autonomous mission action alteration |
US10023310B2 (en) * | 2015-11-30 | 2018-07-17 | Panasonic Intellectual Property Corporation Of America | Unmanned flying object and flight control method thereof |
JP6276250B2 (ja) * | 2015-12-24 | 2018-02-07 | ファナック株式会社 | 被加工物を搬送する製造システム |
US9740200B2 (en) | 2015-12-30 | 2017-08-22 | Unmanned Innovation, Inc. | Unmanned aerial vehicle inspection system |
US10083616B2 (en) * | 2015-12-31 | 2018-09-25 | Unmanned Innovation, Inc. | Unmanned aerial vehicle rooftop inspection system |
US11461912B2 (en) | 2016-01-05 | 2022-10-04 | California Institute Of Technology | Gaussian mixture models for temporal depth fusion |
US10665115B2 (en) * | 2016-01-05 | 2020-05-26 | California Institute Of Technology | Controlling unmanned aerial vehicles to avoid obstacle collision |
US9645581B1 (en) * | 2016-02-04 | 2017-05-09 | Zerotech (Shenzhen) Intelligence Robot Co., Ltd | Method and apparatus for navigating unmanned aerial vehicle |
EP3427008B1 (en) | 2016-03-11 | 2022-09-07 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US10989542B2 (en) | 2016-03-11 | 2021-04-27 | Kaarta, Inc. | Aligning measured signal data with slam localization data and uses thereof |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US10001776B2 (en) * | 2016-03-21 | 2018-06-19 | The Boeing Company | Unmanned aerial vehicle flight control system |
MX2018011565A (es) * | 2016-03-21 | 2019-06-24 | Walmart Apollo Llc | Sistemas y metodos para navegacion autonoma con dron. |
US10553122B1 (en) * | 2016-03-22 | 2020-02-04 | Amazon Technologies, Inc. | Unmanned aerial vehicle data collection for routing |
CN107077140B (zh) * | 2016-03-28 | 2018-11-30 | 深圳市大疆创新科技有限公司 | 无人飞行器的悬停控制方法、控制系统和无人飞行器 |
WO2017173416A1 (en) * | 2016-03-31 | 2017-10-05 | Netjets Inc. | Aviation sector special departure procedure systems and methods |
US10627821B2 (en) * | 2016-04-22 | 2020-04-21 | Yuneec International (China) Co, Ltd | Aerial shooting method and system using a drone |
US10435144B2 (en) | 2016-04-24 | 2019-10-08 | Hangzhou Zero Zero Technology Co., Ltd. | Aerial system propulsion assembly and method of use |
WO2017188762A2 (ko) * | 2016-04-27 | 2017-11-02 | 한화테크윈주식회사 | 오염 탐지용 이동 장치, 오염 탐지 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 |
CN105953787A (zh) * | 2016-04-27 | 2016-09-21 | 河北德普电器有限公司 | 一种机器人导航地图生成系统 |
WO2017192666A1 (en) * | 2016-05-03 | 2017-11-09 | Sunshine Aerial Systems, Inc. | Autonomous aerial vehicle |
US10394240B1 (en) * | 2016-05-06 | 2019-08-27 | Olaeris, Inc. | Failover navigation for remotely operated aerial vehicles |
US11029352B2 (en) | 2016-05-18 | 2021-06-08 | Skydio, Inc. | Unmanned aerial vehicle electromagnetic avoidance and utilization system |
US10435176B2 (en) | 2016-05-25 | 2019-10-08 | Skydio, Inc. | Perimeter structure for unmanned aerial vehicle |
CN105955275B (zh) * | 2016-05-26 | 2021-07-13 | 华讯方舟科技有限公司 | 一种机器人路径规划方法及系统 |
JP6786264B2 (ja) * | 2016-05-27 | 2020-11-18 | 株式会社東芝 | 情報処理装置、情報処理方法、および車両 |
WO2017206179A1 (en) * | 2016-06-03 | 2017-12-07 | SZ DJI Technology Co., Ltd. | Simple multi-sensor calibration |
US10705221B2 (en) * | 2016-06-08 | 2020-07-07 | The Boeing Company | On-board backup and anti-spoofing GPS system |
US11341860B2 (en) * | 2016-06-10 | 2022-05-24 | Metal Raptor, Llc | Drone air traffic control over wireless networks for package pickup and delivery in an order defined by coordinates |
US10310498B2 (en) | 2016-06-16 | 2019-06-04 | Echostar Technologies International Corporation | Unmanned aerial vehicle transponder systems with integrated disablement |
ITUA20164478A1 (it) * | 2016-06-17 | 2017-12-17 | Simac Tech S R L | Impianto di pallettizzazione e/o depallettizzazione di merci |
EP3473552B1 (en) | 2016-06-17 | 2023-10-18 | Rakuten Group, Inc. | Unmanned aircraft control system, unmanned aircraft control method, and program |
US10032275B1 (en) * | 2016-06-21 | 2018-07-24 | Amazon Technologies, Inc. | Unmanned aerial vehicle sensor calibration during flight |
US9972212B1 (en) * | 2016-06-21 | 2018-05-15 | Amazon Technologies, Inc. | Unmanned aerial vehicle camera calibration as part of departure or arrival at a materials handling facility |
US9969486B1 (en) | 2016-06-21 | 2018-05-15 | Amazon Technologies, Inc. | Unmanned aerial vehicle heat sensor calibration |
US10220964B1 (en) | 2016-06-21 | 2019-03-05 | Amazon Technologies, Inc. | Unmanned aerial vehicle sensor calibration validation before flight |
US9823089B1 (en) | 2016-06-21 | 2017-11-21 | Amazon Technologies, Inc. | Unmanned aerial vehicle sensor calibration as part of departure from a materials handling facility |
US11017681B2 (en) * | 2016-06-24 | 2021-05-25 | Intel IP Corporation | Unmanned aerial vehicle avoiding obstacles |
WO2017222541A1 (en) * | 2016-06-24 | 2017-12-28 | Intel IP Corporation | Unmanned aerial vehicle |
KR102345083B1 (ko) * | 2016-07-06 | 2021-12-31 | 로렌스 리버모어 내쇼날 시큐리티, 엘엘시 | 자율 차량용 물체 감지 및 회피 시스템 |
CN107613503B (zh) * | 2016-07-12 | 2020-04-28 | 华为技术有限公司 | 波束通信的方法和装置 |
US10234862B2 (en) * | 2016-07-15 | 2019-03-19 | Qualcomm Incorporated | WWAN radio link quality navigation for a drone |
CN109562844B (zh) * | 2016-08-06 | 2022-03-01 | 深圳市大疆创新科技有限公司 | 自动着陆表面地形评估以及相关的系统和方法 |
US10520943B2 (en) * | 2016-08-12 | 2019-12-31 | Skydio, Inc. | Unmanned aerial image capture platform |
CN109862778B (zh) * | 2016-08-18 | 2022-03-01 | 泰维空中机器人技术有限公司 | 用于收割和稀释的无人机群管理的系统和方法 |
WO2018032457A1 (en) * | 2016-08-18 | 2018-02-22 | SZ DJI Technology Co., Ltd. | Systems and methods for augmented stereoscopic display |
CN106289285A (zh) * | 2016-08-20 | 2017-01-04 | 南京理工大学 | 一种关联场景的机器人侦察地图及构建方法 |
US20180059660A1 (en) * | 2016-08-23 | 2018-03-01 | Group Care Technologies, LLC | Intelligent event response with unmanned aerial system |
US9912419B1 (en) | 2016-08-24 | 2018-03-06 | At&T Intellectual Property I, L.P. | Method and apparatus for managing a fault in a distributed antenna system |
CN107784313A (zh) * | 2016-08-25 | 2018-03-09 | 河北国呈电子科技有限公司 | 环境监测方法、装置及其结果处理方法、装置和监测系统 |
CN107783106B (zh) * | 2016-08-25 | 2021-02-26 | 大连楼兰科技股份有限公司 | 无人机与障碍物之间的数据融合方法 |
US12174628B2 (en) * | 2016-08-25 | 2024-12-24 | Purdue Research Foundation | System and method for controlling a self-guided vehicle |
CN107783550A (zh) * | 2016-08-26 | 2018-03-09 | 北京臻迪机器人有限公司 | 控制无人机返航的方法及装置 |
US9860075B1 (en) | 2016-08-26 | 2018-01-02 | At&T Intellectual Property I, L.P. | Method and communication node for broadband distribution |
US11164149B1 (en) * | 2016-08-31 | 2021-11-02 | Corvus Robotics, Inc. | Method and system for warehouse inventory management using drones |
US11430332B2 (en) * | 2016-09-02 | 2022-08-30 | FLIR Belgium BVBA | Unmanned aerial system assisted navigational systems and methods |
US10291311B2 (en) | 2016-09-09 | 2019-05-14 | At&T Intellectual Property I, L.P. | Method and apparatus for mitigating a fault in a distributed antenna system |
CN106325299A (zh) * | 2016-09-13 | 2017-01-11 | 上海顺砾智能科技有限公司 | 基于视觉的无人机返航着陆方法 |
US11032819B2 (en) | 2016-09-15 | 2021-06-08 | At&T Intellectual Property I, L.P. | Method and apparatus for use with a radio distributed antenna system having a control channel reference signal |
US10928245B2 (en) * | 2016-09-15 | 2021-02-23 | Siteco Gmbh | Light measurement using an autonomous vehicle |
US11912412B2 (en) * | 2016-09-16 | 2024-02-27 | Yamaha Hatsudoki Kabushiki Kaisha | Substrate working system and method for conveying component in substrate working system |
US11092690B1 (en) * | 2016-09-22 | 2021-08-17 | Apple Inc. | Predicting lidar data using machine learning |
WO2018053786A1 (en) * | 2016-09-23 | 2018-03-29 | Qualcomm Incorporated | Adaptive motion filtering in an unmanned autonomous vehicle |
EP3519651B1 (en) * | 2016-09-30 | 2021-11-24 | ETH Singapore Sec Ltd | System for placing objects on a surface and method thereof |
US11106988B2 (en) * | 2016-10-06 | 2021-08-31 | Gopro, Inc. | Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle |
US10135146B2 (en) | 2016-10-18 | 2018-11-20 | At&T Intellectual Property I, L.P. | Apparatus and methods for launching guided waves via circuits |
US10340600B2 (en) | 2016-10-18 | 2019-07-02 | At&T Intellectual Property I, L.P. | Apparatus and methods for launching guided waves via plural waveguide systems |
US10135147B2 (en) | 2016-10-18 | 2018-11-20 | At&T Intellectual Property I, L.P. | Apparatus and methods for launching guided waves via an antenna |
US9876605B1 (en) | 2016-10-21 | 2018-01-23 | At&T Intellectual Property I, L.P. | Launcher and coupling system to support desired guided wave mode |
US10374316B2 (en) | 2016-10-21 | 2019-08-06 | At&T Intellectual Property I, L.P. | System and dielectric antenna with non-uniform dielectric |
US10811767B2 (en) | 2016-10-21 | 2020-10-20 | At&T Intellectual Property I, L.P. | System and dielectric antenna with convex dielectric radome |
US9991580B2 (en) | 2016-10-21 | 2018-06-05 | At&T Intellectual Property I, L.P. | Launcher and coupling system for guided wave mode cancellation |
US10803757B2 (en) | 2016-10-23 | 2020-10-13 | Gopro, Inc. | Navigation through polygonal no fly zones |
US10312567B2 (en) | 2016-10-26 | 2019-06-04 | At&T Intellectual Property I, L.P. | Launcher with planar strip antenna and methods for use therewith |
US10224634B2 (en) | 2016-11-03 | 2019-03-05 | At&T Intellectual Property I, L.P. | Methods and apparatus for adjusting an operational characteristic of an antenna |
US10291334B2 (en) | 2016-11-03 | 2019-05-14 | At&T Intellectual Property I, L.P. | System for detecting a fault in a communication system |
US10498044B2 (en) | 2016-11-03 | 2019-12-03 | At&T Intellectual Property I, L.P. | Apparatus for configuring a surface of an antenna |
US10225025B2 (en) | 2016-11-03 | 2019-03-05 | At&T Intellectual Property I, L.P. | Method and apparatus for detecting a fault in a communication system |
US11536572B2 (en) | 2016-11-09 | 2022-12-27 | The Texas A&M University System | Method and system for accurate long term simultaneous localization and mapping with absolute orientation sensing |
CN110231834B (zh) | 2016-11-15 | 2022-06-10 | 深圳市大疆创新科技有限公司 | 用于控制可移动物体的方法、设备以及无人飞行器 |
US10340603B2 (en) | 2016-11-23 | 2019-07-02 | At&T Intellectual Property I, L.P. | Antenna system having shielded structural configurations for assembly |
US10340601B2 (en) | 2016-11-23 | 2019-07-02 | At&T Intellectual Property I, L.P. | Multi-antenna system and methods for use therewith |
US10178445B2 (en) | 2016-11-23 | 2019-01-08 | At&T Intellectual Property I, L.P. | Methods, devices, and systems for load balancing between a plurality of waveguides |
US10090594B2 (en) | 2016-11-23 | 2018-10-02 | At&T Intellectual Property I, L.P. | Antenna system having structural configurations for assembly |
US10535928B2 (en) | 2016-11-23 | 2020-01-14 | At&T Intellectual Property I, L.P. | Antenna system and methods for use therewith |
US10673917B2 (en) * | 2016-11-28 | 2020-06-02 | Microsoft Technology Licensing, Llc | Pluggable components for augmenting device streams |
KR101765235B1 (ko) * | 2016-11-28 | 2017-08-04 | 한국건설기술연구원 | 사물인터넷 기반 센서와 무인비행체를 이용한 시설물 유지관리 시스템 및 그 방법 |
KR102706191B1 (ko) * | 2016-11-30 | 2024-09-13 | 삼성전자주식회사 | 무인 비행 장치 및 무인 비행 장치의 비행 제어방법 |
US10361489B2 (en) | 2016-12-01 | 2019-07-23 | At&T Intellectual Property I, L.P. | Dielectric dish antenna system and methods for use therewith |
US10305190B2 (en) | 2016-12-01 | 2019-05-28 | At&T Intellectual Property I, L.P. | Reflecting dielectric antenna system and methods for use therewith |
US11295458B2 (en) | 2016-12-01 | 2022-04-05 | Skydio, Inc. | Object tracking by an unmanned aerial vehicle using visual sensors |
US10694379B2 (en) | 2016-12-06 | 2020-06-23 | At&T Intellectual Property I, L.P. | Waveguide system with device-based authentication and methods for use therewith |
US10755542B2 (en) | 2016-12-06 | 2020-08-25 | At&T Intellectual Property I, L.P. | Method and apparatus for surveillance via guided wave communication |
US10439675B2 (en) | 2016-12-06 | 2019-10-08 | At&T Intellectual Property I, L.P. | Method and apparatus for repeating guided wave communication signals |
US10637149B2 (en) | 2016-12-06 | 2020-04-28 | At&T Intellectual Property I, L.P. | Injection molded dielectric antenna and methods for use therewith |
US9927517B1 (en) | 2016-12-06 | 2018-03-27 | At&T Intellectual Property I, L.P. | Apparatus and methods for sensing rainfall |
US10326494B2 (en) | 2016-12-06 | 2019-06-18 | At&T Intellectual Property I, L.P. | Apparatus for measurement de-embedding and methods for use therewith |
US10382976B2 (en) | 2016-12-06 | 2019-08-13 | At&T Intellectual Property I, L.P. | Method and apparatus for managing wireless communications based on communication paths and network device positions |
US10727599B2 (en) | 2016-12-06 | 2020-07-28 | At&T Intellectual Property I, L.P. | Launcher with slot antenna and methods for use therewith |
US10135145B2 (en) | 2016-12-06 | 2018-11-20 | At&T Intellectual Property I, L.P. | Apparatus and methods for generating an electromagnetic wave along a transmission medium |
US10819035B2 (en) | 2016-12-06 | 2020-10-27 | At&T Intellectual Property I, L.P. | Launcher with helical antenna and methods for use therewith |
US10020844B2 (en) | 2016-12-06 | 2018-07-10 | T&T Intellectual Property I, L.P. | Method and apparatus for broadcast communication via guided waves |
US10168695B2 (en) | 2016-12-07 | 2019-01-01 | At&T Intellectual Property I, L.P. | Method and apparatus for controlling an unmanned aircraft |
US10027397B2 (en) | 2016-12-07 | 2018-07-17 | At&T Intellectual Property I, L.P. | Distributed antenna system and methods for use therewith |
US10139820B2 (en) | 2016-12-07 | 2018-11-27 | At&T Intellectual Property I, L.P. | Method and apparatus for deploying equipment of a communication system |
US10547348B2 (en) | 2016-12-07 | 2020-01-28 | At&T Intellectual Property I, L.P. | Method and apparatus for switching transmission mediums in a communication system |
US10243270B2 (en) | 2016-12-07 | 2019-03-26 | At&T Intellectual Property I, L.P. | Beam adaptive multi-feed dielectric antenna system and methods for use therewith |
US10389029B2 (en) | 2016-12-07 | 2019-08-20 | At&T Intellectual Property I, L.P. | Multi-feed dielectric antenna system with core selection and methods for use therewith |
US10446936B2 (en) | 2016-12-07 | 2019-10-15 | At&T Intellectual Property I, L.P. | Multi-feed dielectric antenna system and methods for use therewith |
US9893795B1 (en) | 2016-12-07 | 2018-02-13 | At&T Intellectual Property I, Lp | Method and repeater for broadband distribution |
US10359749B2 (en) | 2016-12-07 | 2019-07-23 | At&T Intellectual Property I, L.P. | Method and apparatus for utilities management via guided wave communication |
US10916969B2 (en) | 2016-12-08 | 2021-02-09 | At&T Intellectual Property I, L.P. | Method and apparatus for providing power using an inductive coupling |
US10938108B2 (en) | 2016-12-08 | 2021-03-02 | At&T Intellectual Property I, L.P. | Frequency selective multi-feed dielectric antenna system and methods for use therewith |
US10264467B2 (en) | 2016-12-08 | 2019-04-16 | At&T Intellectual Property I, L.P. | Method and apparatus for collecting data associated with wireless communications |
US10777873B2 (en) | 2016-12-08 | 2020-09-15 | At&T Intellectual Property I, L.P. | Method and apparatus for mounting network devices |
US10389037B2 (en) | 2016-12-08 | 2019-08-20 | At&T Intellectual Property I, L.P. | Apparatus and methods for selecting sections of an antenna array and use therewith |
US10326689B2 (en) | 2016-12-08 | 2019-06-18 | At&T Intellectual Property I, L.P. | Method and system for providing alternative communication paths |
US10103422B2 (en) | 2016-12-08 | 2018-10-16 | At&T Intellectual Property I, L.P. | Method and apparatus for mounting network devices |
US10601494B2 (en) | 2016-12-08 | 2020-03-24 | At&T Intellectual Property I, L.P. | Dual-band communication device and method for use therewith |
US9911020B1 (en) | 2016-12-08 | 2018-03-06 | At&T Intellectual Property I, L.P. | Method and apparatus for tracking via a radio frequency identification device |
US10069535B2 (en) | 2016-12-08 | 2018-09-04 | At&T Intellectual Property I, L.P. | Apparatus and methods for launching electromagnetic waves having a certain electric field structure |
US10530505B2 (en) | 2016-12-08 | 2020-01-07 | At&T Intellectual Property I, L.P. | Apparatus and methods for launching electromagnetic waves along a transmission medium |
US10411356B2 (en) | 2016-12-08 | 2019-09-10 | At&T Intellectual Property I, L.P. | Apparatus and methods for selectively targeting communication devices with an antenna array |
US9998870B1 (en) | 2016-12-08 | 2018-06-12 | At&T Intellectual Property I, L.P. | Method and apparatus for proximity sensing |
US10264586B2 (en) | 2016-12-09 | 2019-04-16 | At&T Mobility Ii Llc | Cloud-based packet controller and methods for use therewith |
US9838896B1 (en) | 2016-12-09 | 2017-12-05 | At&T Intellectual Property I, L.P. | Method and apparatus for assessing network coverage |
US10340983B2 (en) | 2016-12-09 | 2019-07-02 | At&T Intellectual Property I, L.P. | Method and apparatus for surveying remote sites via guided wave communications |
WO2018110382A1 (ja) * | 2016-12-12 | 2018-06-21 | Kddi株式会社 | 飛行装置、飛行制御装置及び飛行制御方法 |
DE102017218671A1 (de) * | 2016-12-13 | 2018-06-14 | Robert Bosch Gmbh | Verfahren zur Steuerung einer automatisiert betriebenen mobilen Einheit und Verfahren zur Aussendung einer Gefahreninformation |
KR102729118B1 (ko) * | 2016-12-19 | 2024-11-13 | 삼성전자주식회사 | 이동체 및 이동체의 제어 방법 |
WO2018112823A1 (en) * | 2016-12-22 | 2018-06-28 | Intel Corporation | Uav positions method and apparatus |
CN107438752B (zh) * | 2016-12-23 | 2021-03-19 | 达闼机器人有限公司 | 定位方法、终端和服务器 |
WO2018136510A1 (en) * | 2017-01-17 | 2018-07-26 | Babak Rezvani | Dynamic drone navigation |
US10843068B2 (en) * | 2017-01-18 | 2020-11-24 | Xvisio Technology Corp. | 6DoF inside-out tracking game controller |
WO2018133077A1 (zh) * | 2017-01-22 | 2018-07-26 | 四川金瑞麒智能科学技术有限公司 | 一种智能轮椅的环境信息收集与反馈系统及方法 |
US20180016006A1 (en) * | 2017-01-22 | 2018-01-18 | Haoxiang Electric Energy (Kunshan) Co., Ltd. | Smart unmanned aerial vehicle for home |
WO2018133064A1 (zh) | 2017-01-22 | 2018-07-26 | 深圳市大疆创新科技有限公司 | 可移动装置的控制方法、控制系统、和可移动装置 |
WO2018134677A1 (en) | 2017-01-23 | 2018-07-26 | Hangzhou Zero Technology Co., Ltd | Multi-camera system and method of use |
CN106681330A (zh) * | 2017-01-25 | 2017-05-17 | 北京航空航天大学 | 基于多传感器数据融合的机器人导航方法及装置 |
US10621780B2 (en) * | 2017-02-02 | 2020-04-14 | Infatics, Inc. | System and methods for improved aerial mapping with aerial vehicles |
JP6837196B2 (ja) * | 2017-02-15 | 2021-03-03 | 日立Astemo株式会社 | 車両運動制御装置、車両運動制御方法および車両運動制御システム |
US9973940B1 (en) | 2017-02-27 | 2018-05-15 | At&T Intellectual Property I, L.P. | Apparatus and methods for dynamic impedance matching of a guided wave launcher |
JP6878567B2 (ja) * | 2017-03-02 | 2021-05-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 3次元形状推定方法、飛行体、モバイルプラットフォーム、プログラム及び記録媒体 |
US10192111B2 (en) | 2017-03-10 | 2019-01-29 | At&T Intellectual Property I, L.P. | Structure from motion for drone videos |
US10298293B2 (en) | 2017-03-13 | 2019-05-21 | At&T Intellectual Property I, L.P. | Apparatus of communication utilizing wireless network devices |
US10329017B2 (en) | 2017-03-13 | 2019-06-25 | General Electric Company | System and method for integrating flight path and site operating data |
WO2018174847A1 (en) * | 2017-03-20 | 2018-09-27 | Google Llc | Systems and methods of determining an improved user location using real world map and sensor data |
CN107063275B (zh) * | 2017-03-24 | 2020-05-12 | 重庆邮电大学 | 基于路侧设备的智能车辆地图融合系统及方法 |
CN110461147B (zh) * | 2017-03-25 | 2022-05-13 | 余绍炽 | 多功能光电声学离子无人机 |
JP6760876B2 (ja) * | 2017-03-27 | 2020-09-23 | Kddi株式会社 | 制御装置、プログラム、及び制御方法 |
CN106949887B (zh) * | 2017-03-27 | 2021-02-09 | 远形时空科技(北京)有限公司 | 空间位置追踪方法、空间位置追踪装置及导航系统 |
WO2018178758A1 (en) | 2017-03-31 | 2018-10-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Enhanced flight plan for unmanned traffic aircraft systems |
ES2684847B1 (es) * | 2017-03-31 | 2019-07-10 | Avansig S L L | Sistema de navegacion para un vehiculo aereo no tripulado en un recinto interior |
RU2731942C1 (ru) | 2017-03-31 | 2020-09-09 | Телефонактиеболагет Лм Эрикссон (Пабл) | Широковещательная передача геолокационной информации в радиокадре, передаваемом из беспилотного летательного аппарата |
US11218840B2 (en) | 2017-03-31 | 2022-01-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods and systems for using network location services in a unmanned aircraft systems traffic management framework |
CA3094649C (en) | 2017-04-12 | 2023-03-28 | David W. Paglieroni | Attract-repel path planner system for collision avoidance |
EP3388972B1 (en) * | 2017-04-13 | 2020-08-26 | Aptiv Technologies Limited | A method and a device for generating an occupancy map of an environment of a vehicle |
US20180299899A1 (en) * | 2017-04-13 | 2018-10-18 | Neato Robotics, Inc. | Localized collection of ambient data |
WO2018189576A1 (en) | 2017-04-14 | 2018-10-18 | Telefonaktiebolaget Lm Ericsson (Publ) | Optimal unmanned aerial vehicle flight route planning based on quality-of-service requirements for data, telemetry, and command and control requirements in 3gpp networks |
US10242458B2 (en) | 2017-04-21 | 2019-03-26 | Qualcomm Incorporated | Registration of range images using virtual gimbal information |
WO2018195869A1 (en) | 2017-04-27 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Systems and methods for generating real-time map using movable object |
WO2018195857A1 (zh) * | 2017-04-27 | 2018-11-01 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、设备及障碍物的提示方法、设备 |
US11166208B2 (en) | 2017-05-05 | 2021-11-02 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods and systems for using an unmanned aerial vehicle (UAV) flight path to coordinate an enhanced handover in 3rd generation partnership project (3GPP) networks |
CN107145578B (zh) * | 2017-05-08 | 2020-04-10 | 深圳地平线机器人科技有限公司 | 地图构建方法、装置、设备和系统 |
US10726745B2 (en) * | 2017-06-13 | 2020-07-28 | At&T Intellectual Property I, L.P. | Autonomous multi-pass data acquisition using unmanned aerial vehicles |
US10969777B2 (en) * | 2017-06-23 | 2021-04-06 | Qualcomm Incorporated | Local drone identification verification |
US11659322B1 (en) | 2017-06-26 | 2023-05-23 | Wing Aviation Llc | Audio based aircraft detection |
EP3652985B1 (en) | 2017-07-10 | 2020-11-18 | Telefonaktiebolaget LM Ericsson (publ) | Optimization of radio resource allocation based on unmanned aerial vehicle flight path information |
US10642264B2 (en) * | 2017-07-19 | 2020-05-05 | Superior Communications, Inc. | Security drone system |
CN107688184A (zh) * | 2017-07-24 | 2018-02-13 | 宗晖(上海)机器人有限公司 | 一种定位方法以及系统 |
CN107610212B (zh) * | 2017-07-25 | 2020-05-12 | 深圳大学 | 场景重建方法、装置、计算机设备以及计算机存储介质 |
US11348269B1 (en) * | 2017-07-27 | 2022-05-31 | AI Incorporated | Method and apparatus for combining data to construct a floor plan |
IL253769B (en) * | 2017-07-31 | 2022-03-01 | Israel Aerospace Ind Ltd | Planning a path in motion |
FR3069931A1 (fr) * | 2017-08-01 | 2019-02-08 | Airbus Defence And Space Sas | Unite de commande embarquee pour un systeme de drone, drone et systeme de drone comprenant l'unite de commande embarquee |
CN110998695A (zh) * | 2017-08-04 | 2020-04-10 | 意造科技私人有限公司 | 通信失效时的uav系统应急路径规划 |
JP6904564B2 (ja) * | 2017-08-28 | 2021-07-21 | Necソリューションイノベータ株式会社 | 飛行経路設定装置、飛行経路設定方法、及びプログラム |
US10952113B2 (en) | 2017-09-05 | 2021-03-16 | Telefonaktiebolaget Lm Ericsson (Publ) | Planned continuity of unmanned aerial vehicle (UAV) link connectivity in UAV traffic management systems |
JP6737751B2 (ja) * | 2017-09-14 | 2020-08-12 | Kddi株式会社 | 飛行装置、管理装置、飛行管理方法及びプログラム |
US10402646B2 (en) * | 2017-09-21 | 2019-09-03 | Amazon Technologies, Inc. | Object detection and avoidance for aerial vehicles |
JP7109174B2 (ja) * | 2017-10-03 | 2022-07-29 | 株式会社トプコン | 経路選定装置、無人航空機、データ処理装置、経路選定処理方法および経路選定処理用プログラム |
US11217107B2 (en) | 2017-10-05 | 2022-01-04 | California Institute Of Technology | Simultaneous representation of moving and static obstacles for automatically controlled vehicles |
JP6349481B1 (ja) * | 2017-10-17 | 2018-06-27 | 株式会社自律制御システム研究所 | 無人航空機の飛行計画経路を設定するためのシステム及びプログラム |
US10962650B2 (en) | 2017-10-31 | 2021-03-30 | United States Of America As Represented By The Administrator Of Nasa | Polyhedral geofences |
US10872534B2 (en) | 2017-11-01 | 2020-12-22 | Kespry, Inc. | Aerial vehicle inspection path planning |
JP7112194B2 (ja) * | 2017-11-16 | 2022-08-03 | 株式会社荏原製作所 | ドローンを用いた計測システムおよび計測方法 |
WO2019099605A1 (en) | 2017-11-17 | 2019-05-23 | Kaarta, Inc. | Methods and systems for geo-referencing mapping systems |
CN109932721B (zh) * | 2017-12-15 | 2023-09-29 | 财团法人车辆研究测试中心 | 应用于多感测器融合的误差及侦测机率分析方法 |
CN108401438B (zh) * | 2017-12-21 | 2022-11-18 | 北京小米移动软件有限公司 | 无人机飞行路径的确定方法及装置 |
CN108196570A (zh) * | 2017-12-26 | 2018-06-22 | 深圳市道通智能航空技术有限公司 | 一种无人机航向修正方法、装置和无人机 |
US10866307B2 (en) * | 2017-12-29 | 2020-12-15 | Automotive Research & Testing Center | Method for analyzing error and existence probability of multi-sensor fusion of obstacle detection |
WO2019130050A1 (en) | 2017-12-29 | 2019-07-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Using a cellular interface for unmanned aerial vehicle communications |
WO2019165194A1 (en) | 2018-02-23 | 2019-08-29 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
GB2571711A (en) * | 2018-03-01 | 2019-09-11 | Scout Drone Inspection As | Drone control system |
US11120568B2 (en) | 2018-03-15 | 2021-09-14 | Tower Mapping Aviation, LLC | Method and apparatus for precise measurements |
WO2019178429A1 (en) * | 2018-03-15 | 2019-09-19 | Kaarta, Inc. | Methods and systems for filtering point cloud map data for use with acquired scan frame data |
US11021106B2 (en) * | 2018-03-29 | 2021-06-01 | Intel Corporation | Vehicle, side mirror assembly for a vehicle, and methods thereof |
WO2019186245A1 (en) * | 2018-03-30 | 2019-10-03 | Telefonaktiebolaget Lm Ericsson (Publ) | Network coverage and policy information generation and distribution for unmanned aerial vehicle flight planning |
US11378956B2 (en) * | 2018-04-03 | 2022-07-05 | Baidu Usa Llc | Perception and planning collaboration framework for autonomous driving |
WO2019195270A1 (en) | 2018-04-03 | 2019-10-10 | Kaarta, Inc. | Methods and systems for real or near real-time point cloud map data confidence evaluation |
CN108427438A (zh) * | 2018-04-11 | 2018-08-21 | 北京木业邦科技有限公司 | 飞行环境检测方法、装置、电子设备及存储介质 |
WO2019202627A1 (ja) * | 2018-04-16 | 2019-10-24 | 三菱電機株式会社 | 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法 |
WO2019222798A1 (en) * | 2018-05-22 | 2019-11-28 | Acid Ip Pty Ltd | Drone flight programming method and system |
CN108680177B (zh) * | 2018-05-31 | 2021-11-09 | 安徽工程大学 | 基于啮齿类动物模型的同步定位与地图构建方法及装置 |
CN112384441B (zh) * | 2018-06-04 | 2024-03-19 | 株式会社尼罗沃克 | 无人机系统 |
WO2019246283A1 (en) | 2018-06-19 | 2019-12-26 | Seekops Inc. | Localization analytics algorithms and methods |
WO2020009826A1 (en) | 2018-07-05 | 2020-01-09 | Kaarta, Inc. | Methods and systems for auto-leveling of point clouds and 3d models |
CN109029422B (zh) * | 2018-07-10 | 2021-03-05 | 北京木业邦科技有限公司 | 一种多无人机协作构建三维调查地图的方法和装置 |
CA3158552A1 (en) | 2018-07-12 | 2020-01-16 | TerraClear Inc. | Object identification and collection system and method |
CN109116397B (zh) * | 2018-07-25 | 2022-12-30 | 吉林大学 | 一种车载多相机视觉定位方法、装置、设备及存储介质 |
CN110779496B (zh) * | 2018-07-30 | 2022-03-22 | 斑马智行网络(香港)有限公司 | 三维地图构建系统、方法、设备和存储介质 |
EP3830533A4 (en) | 2018-07-30 | 2022-04-20 | SeekOps Inc. | ULTRA-LIGHT HANDHELD GAS LEAK DETECTION DEVICE |
CN110832280A (zh) * | 2018-08-01 | 2020-02-21 | 深圳市大疆创新科技有限公司 | 地图处理方法、设备、计算机可读存储介质 |
CN109084786B (zh) * | 2018-08-09 | 2020-12-25 | 北京智行者科技有限公司 | 一种地图数据的处理方法 |
CN110816840A (zh) * | 2018-08-14 | 2020-02-21 | 陈武记 | 无人机灭火装置及灭火方法 |
IL262690B2 (en) * | 2018-08-19 | 2023-03-01 | Israel Aerospace Ind Ltd | launch system |
DE102018120198A1 (de) * | 2018-08-20 | 2020-02-20 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Luftfahrzeug |
CA3110691A1 (en) * | 2018-08-24 | 2020-02-27 | Lutron Technology Company Llc | Occupant detection device |
US10140855B1 (en) * | 2018-08-24 | 2018-11-27 | Iteris, Inc. | Enhanced traffic detection by fusing multiple sensor data |
JP7132037B2 (ja) * | 2018-08-29 | 2022-09-06 | フォルシアクラリオン・エレクトロニクス株式会社 | 車載処理装置 |
CN109147058B (zh) * | 2018-08-31 | 2022-09-20 | 腾讯科技(深圳)有限公司 | 用于视觉惯导信息融合的初始化方法和装置以及存储介质 |
US11062614B2 (en) * | 2018-09-12 | 2021-07-13 | Alliance Solutions Group, Inc. | Systems and methods for collecting and analyzing hazardous materials information using an unmanned aerial vehicle |
JP2020042726A (ja) * | 2018-09-13 | 2020-03-19 | 株式会社東芝 | Ogm圧縮回路、ogm圧縮伸長システム、および移動体システム |
EP3627250B1 (en) | 2018-09-21 | 2023-12-06 | Tata Consultancy Services Limited | Method and system for free space detection in a cluttered environment |
US11520041B1 (en) * | 2018-09-27 | 2022-12-06 | Apple Inc. | Correcting depth estimations derived from image data using acoustic information |
CN109521767A (zh) * | 2018-10-18 | 2019-03-26 | 李培 | 自主导航机器人系统 |
US11866198B2 (en) * | 2018-10-29 | 2024-01-09 | California Institute Of Technology | Long-duration, fully autonomous operation of rotorcraft unmanned aerial systems including energy replenishment |
CN109507677B (zh) * | 2018-11-05 | 2020-08-18 | 浙江工业大学 | 一种结合gps和雷达里程计的slam方法 |
KR102123360B1 (ko) * | 2018-11-20 | 2020-06-16 | 주식회사 공간정보 | 3차원 안전정보 측정을 위한 드론 탐지시스템 |
US11436927B2 (en) | 2018-11-21 | 2022-09-06 | Brunswick Corporation | Proximity sensing system and method for a marine vessel with automated proximity sensor location estimation |
EP3876070B1 (en) * | 2018-11-21 | 2024-02-28 | Autel Robotics Co., Ltd. | Method and device for planning path of unmanned aerial vehicle, and unmanned aerial vehicle |
US11794865B1 (en) | 2018-11-21 | 2023-10-24 | Brunswick Corporation | Proximity sensing system and method for a marine vessel |
US11443637B2 (en) | 2018-11-21 | 2022-09-13 | Brunswick Corporation | Proximity sensing system and method for a marine vessel |
WO2020103110A1 (zh) * | 2018-11-22 | 2020-05-28 | 深圳市大疆创新科技有限公司 | 一种基于点云地图的图像边界获取方法、设备及飞行器 |
WO2020103109A1 (zh) * | 2018-11-22 | 2020-05-28 | 深圳市大疆创新科技有限公司 | 一种地图生成方法、设备、飞行器及存储介质 |
WO2020103108A1 (zh) * | 2018-11-22 | 2020-05-28 | 深圳市大疆创新科技有限公司 | 一种语义生成方法、设备、飞行器及存储介质 |
CN111223139B (zh) * | 2018-11-26 | 2024-02-13 | 深圳市优必选科技有限公司 | 目标定位方法及终端设备 |
CN109559277B (zh) * | 2018-11-28 | 2023-02-28 | 中国人民解放军国防科技大学 | 一种面向数据共享的多无人机协同地图构建方法 |
US20220046859A1 (en) * | 2018-12-11 | 2022-02-17 | Tevel Aerobotics Technologies Ltd. | System and method for selective harvesting at night or under poor visibility conditions, night dilution and agriculture data collection |
US11403955B2 (en) | 2018-12-14 | 2022-08-02 | Brunswick Corporation | Marine propulsion control system and method with proximity-based velocity limiting |
CN109358650B (zh) * | 2018-12-14 | 2022-11-18 | 国网冀北电力有限公司检修分公司 | 巡检路径规划方法、装置、无人机和计算机可读存储介质 |
US11373537B2 (en) | 2018-12-21 | 2022-06-28 | Brunswick Corporation | Marine propulsion control system and method with collision avoidance override |
CN111360810A (zh) * | 2018-12-25 | 2020-07-03 | 深圳市优必选科技有限公司 | 机器人传感器的外参标定方法、装置、机器人及存储介质 |
US11257242B2 (en) * | 2018-12-31 | 2022-02-22 | Wipro Limited | Method and device for determining operation of an autonomous device |
US11702178B2 (en) | 2019-01-31 | 2023-07-18 | Brunswick Corporation | Marine propulsion control system, method, and user interface for marine vessel docking and launch |
US11257378B2 (en) | 2019-01-31 | 2022-02-22 | Brunswick Corporation | Marine propulsion control system and method |
CN109816697B (zh) * | 2019-02-02 | 2019-12-10 | 绥化学院 | 一种无人模型车建立地图的系统及方法 |
DE102019103344B4 (de) * | 2019-02-11 | 2021-02-18 | Sick Ag | Positionsbestimmungssystem |
CN111837136B (zh) | 2019-02-19 | 2025-02-14 | 深圳市卓驭科技有限公司 | 基于本地感测的自主导航以及相关联的系统和方法 |
US11560153B2 (en) | 2019-03-07 | 2023-01-24 | 6 River Systems, Llc | Systems and methods for collision avoidance by autonomous vehicles |
US20200285255A1 (en) * | 2019-03-08 | 2020-09-10 | Here Global B.V. | Method and apparatus for providing drone-based alerting of movement of a part of a vehicle into a path of travel |
US11092456B2 (en) * | 2019-03-08 | 2021-08-17 | Aptiv Technologies Limited | Object location indicator system and method |
US11402220B2 (en) * | 2019-03-13 | 2022-08-02 | Here Global B.V. | Maplets for maintaining and updating a self-healing high definition map |
JP2020154764A (ja) * | 2019-03-20 | 2020-09-24 | 東芝テック株式会社 | 情報処理装置及び読取システム |
EP3719696A1 (en) * | 2019-04-04 | 2020-10-07 | Aptiv Technologies Limited | Method and device for localizing a sensor in a vehicle |
JP7034379B2 (ja) * | 2019-04-04 | 2022-03-11 | 三菱電機株式会社 | 車両測位装置 |
EP3948202A4 (en) | 2019-04-05 | 2023-01-04 | SeekOps Inc. | TIME AND DATA EFFICIENT LEAK DETECTION ASSURANCE |
CN110081881B (zh) * | 2019-04-19 | 2022-05-10 | 成都飞机工业(集团)有限责任公司 | 一种基于无人机多传感器信息融合技术的着舰引导方法 |
CN111655542A (zh) * | 2019-04-23 | 2020-09-11 | 深圳市大疆创新科技有限公司 | 一种数据处理方法、装置、设备及可移动平台 |
CN110032196B (zh) * | 2019-05-06 | 2022-03-29 | 北京云迹科技股份有限公司 | 一种机器人回充方法及装置 |
US11430341B2 (en) * | 2019-05-31 | 2022-08-30 | Cognizant Technology Solutions Sindia Pvt. Ltd. | System and method for optimizing unmanned aerial vehicle based warehouse management |
EP3980717A1 (en) * | 2019-06-04 | 2022-04-13 | Flir Unmanned Aerial Systems As | 3d localization and mapping system and method |
EP3983752A4 (en) * | 2019-06-17 | 2023-08-02 | Rohit Seth | RELATIVE POSITION TRACKING USING A MOTION SENSOR WITH DRIFT CORRECTION |
US10937232B2 (en) * | 2019-06-26 | 2021-03-02 | Honeywell International Inc. | Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames |
DE102019209398A1 (de) * | 2019-06-27 | 2020-12-31 | Robert Bosch Gmbh | Angleichen von Koordinatensystemen mehrerer Karten basierend auf Trajektorien |
CN110299030B (zh) * | 2019-06-28 | 2021-11-19 | 汉王科技股份有限公司 | 手持终端、飞行器及其空域测量方法、控制方法 |
CN110243381B (zh) * | 2019-07-11 | 2020-10-30 | 北京理工大学 | 一种陆空机器人协同感知监测方法 |
CN111936821B (zh) * | 2019-07-12 | 2024-11-29 | 北京航迹科技有限公司 | 用于定位的系统和方法 |
WO2021013400A1 (en) * | 2019-07-22 | 2021-01-28 | Sony Corporation | Method and apparatus for determining a position of an unmanned vehicle, and unmanned aerial vehicle |
US11119510B2 (en) * | 2019-07-29 | 2021-09-14 | Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company | Systems and methods for generating flight paths for navigating an aircraft |
US12130204B2 (en) | 2019-08-05 | 2024-10-29 | Seekops Inc. | Rapidly deployable UAS system for autonomous inspection operations using a combined payload |
CN112393756A (zh) * | 2019-08-13 | 2021-02-23 | 江苏美的清洁电器股份有限公司 | 一种地图生成方法、装置及存储介质 |
KR20210022941A (ko) * | 2019-08-21 | 2021-03-04 | 엘지전자 주식회사 | Slam을 구현하는 방법 및 전자 장치 |
CN110377058B (zh) * | 2019-08-30 | 2021-11-09 | 深圳市道通智能航空技术股份有限公司 | 一种飞行器的偏航角修正方法、装置及飞行器 |
CN110568860A (zh) * | 2019-09-17 | 2019-12-13 | 深圳市道通智能航空技术有限公司 | 一种无人飞行器的返航方法、装置及无人飞行器 |
CN112119361A (zh) * | 2019-09-23 | 2020-12-22 | 深圳市大疆创新科技有限公司 | 可移动平台的返航控制方法、装置及可移动平台 |
US11260970B2 (en) | 2019-09-26 | 2022-03-01 | Amazon Technologies, Inc. | Autonomous home security devices |
US11551560B2 (en) * | 2019-09-27 | 2023-01-10 | The Boeing Company | Enhanced flight navigation determination |
WO2021065609A1 (ja) * | 2019-10-03 | 2021-04-08 | ソニー株式会社 | データ処理装置、データ処理方法、調理ロボット |
US12197233B2 (en) * | 2019-10-04 | 2025-01-14 | Seekops Inc. | Closed surface flight pattern generation for unmanned aerial vehicle (UAV) flux plane assessment of large facilities |
CN110597297A (zh) * | 2019-10-21 | 2019-12-20 | 深圳市道通智能航空技术有限公司 | 一种飞行器返航控制方法、装置、飞行器和存储介质 |
CN111006676B (zh) * | 2019-11-14 | 2021-08-31 | 广东博智林机器人有限公司 | 地图构建方法、装置及系统 |
CN111127652A (zh) * | 2019-11-18 | 2020-05-08 | 广东博智林机器人有限公司 | 机器人的室内地图构建方法、装置及电子设备 |
US12087172B2 (en) | 2019-11-28 | 2024-09-10 | Sony Group Corporation | Image processing device and image processing method |
CN111061270B (zh) * | 2019-12-18 | 2023-12-29 | 深圳拓邦股份有限公司 | 一种全面覆盖方法、系统及作业机器人 |
KR102583960B1 (ko) * | 2020-01-06 | 2023-09-27 | 한국전자통신연구원 | 무인 비행체의 데이터 세트 생성 방법 및 장치 |
CN111208526B (zh) * | 2020-01-17 | 2022-07-08 | 西北工业大学 | 基于激光雷达与定位向量匹配的多无人机协同定位方法 |
US11642257B2 (en) * | 2020-01-22 | 2023-05-09 | Toyota Motor North America, Inc. | Mapping and data collection of in-building layout via mobility devices |
US12055485B2 (en) | 2020-02-05 | 2024-08-06 | Seekops Inc. | Multispecies measurement platform using absorption spectroscopy for measurement of co-emitted trace gases |
EP3885237A1 (en) * | 2020-03-24 | 2021-09-29 | Aptiv Technologies Limited | Vehicle, system, and method for determining a position of a moveable element in a vehicle |
CN111504299B (zh) * | 2020-04-03 | 2023-08-18 | 北京小狗吸尘器集团股份有限公司 | 一种地图建立方法、装置、可读介质及电子设备 |
CN111338382B (zh) * | 2020-04-15 | 2021-04-06 | 北京航空航天大学 | 一种安全态势引导的无人机路径规划方法 |
CN111656138A (zh) * | 2020-04-16 | 2020-09-11 | 珊口(上海)智能科技有限公司 | 构建地图及定位方法、客户端、移动机器人及存储介质 |
US20210325898A1 (en) * | 2020-04-21 | 2021-10-21 | Micron Technology, Inc. | Using drone data to generate high-definition map for autonomous vehicle navigation |
CN113642355A (zh) * | 2020-04-27 | 2021-11-12 | 光宝电子(广州)有限公司 | 可移动式电子装置及其操作方法 |
TWI736235B (zh) * | 2020-04-27 | 2021-08-11 | 大陸商光寶電子(廣州)有限公司 | 可移動式電子裝置及其操作方法 |
DE102020205549A1 (de) * | 2020-04-30 | 2021-11-04 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Transportmittel-Assistenz- oder Steuerungssystems |
US11561553B1 (en) * | 2020-05-11 | 2023-01-24 | Vecna Robotics, Inc. | System and method of providing a multi-modal localization for an object |
CN111665498B (zh) * | 2020-05-20 | 2023-04-18 | 浙江大华技术股份有限公司 | 环境视图的测绘方法、装置、便携式探测设备 |
US11815914B2 (en) | 2020-05-20 | 2023-11-14 | Jonathan Ralph Burdick | Adaptive anti-laser system |
US11587241B2 (en) | 2020-05-29 | 2023-02-21 | Wing Aviation Llc | Detection of environmental changes to delivery zone |
CN116097124A (zh) | 2020-06-24 | 2023-05-09 | 斯洛文阀门公司 | 混合飞行时间传感器和ir传感器 |
JP7075966B2 (ja) * | 2020-07-08 | 2022-05-26 | 楽天グループ株式会社 | 無人航空機制御システム、無人航空機制御方法、及びプログラム |
JP6994087B2 (ja) * | 2020-07-16 | 2022-01-14 | Kddi株式会社 | 飛行装置、飛行制御方法及びプログラム |
JP7047180B2 (ja) * | 2020-07-16 | 2022-04-04 | Kddi株式会社 | 管理装置 |
US11748866B2 (en) | 2020-07-17 | 2023-09-05 | Seekops Inc. | Systems and methods of automated detection of gas plumes using optical imaging |
KR20220010929A (ko) * | 2020-07-20 | 2022-01-27 | 현대자동차주식회사 | 이종 센서 융합 장치 및 그의 이종 센서 융합 방법 |
CN113970919A (zh) * | 2020-07-21 | 2022-01-25 | 图森有限公司 | 用于自动路线导航的系统和方法 |
TWI749656B (zh) * | 2020-07-22 | 2021-12-11 | 英屬維爾京群島商飛思捷投資股份有限公司 | 定位圖資建立系統及建立方法 |
WO2022027032A1 (en) * | 2020-07-27 | 2022-02-03 | Waymo Llc | Processing perspective view range images using neural networks |
US11875519B2 (en) * | 2020-08-13 | 2024-01-16 | Medhat Omr | Method and system for positioning using optical sensor and motion sensors |
US11740353B2 (en) * | 2020-08-13 | 2023-08-29 | Hand Held Products, Inc. | Systems, methods, and apparatuses for alerting users to maintain physical distancing |
US20220060628A1 (en) * | 2020-08-19 | 2022-02-24 | Honeywell International Inc. | Active gimbal stabilized aerial visual-inertial navigation system |
US12154440B2 (en) | 2020-08-21 | 2024-11-26 | Drobotics, Llc | Unmanned aerial vehicle with immunity to hijacking, jamming, and spoofing attacks |
CN112050814A (zh) * | 2020-08-28 | 2020-12-08 | 国网智能科技股份有限公司 | 一种室内变电站无人机视觉导航系统及方法 |
WO2022067534A1 (zh) * | 2020-09-29 | 2022-04-07 | 华为技术有限公司 | 占据栅格地图的生成方法和装置 |
US11609582B2 (en) | 2020-10-08 | 2023-03-21 | Ford Global Technologies, Llc | Systems and methods for planning a travel route of a multifunctional robot |
JP7435406B2 (ja) * | 2020-10-28 | 2024-02-21 | トヨタ自動車株式会社 | モビリティサービスシステム及びモビリティサービス提供方法 |
US11644837B2 (en) * | 2020-11-11 | 2023-05-09 | Northrop Grumman Systems Corporation | Systems and methods for output biasing of a machine learning recommendation engine |
CN112347218B (zh) * | 2020-11-12 | 2024-06-04 | 珠海云洲智能科技股份有限公司 | 无人船艇的环境地图生成方法及无人船艇感知系统 |
US11927972B2 (en) | 2020-11-24 | 2024-03-12 | Lawrence Livermore National Security, Llc | Collision avoidance based on traffic management data |
US20220172475A1 (en) * | 2020-12-02 | 2022-06-02 | Allstate Insurance Company | Damage detection and analysis using three-dimensional surface scans |
WO2022133528A1 (en) * | 2020-12-24 | 2022-06-30 | Alauda Aeronautics Pty Ltd | Collision avoidance for manned vertical take-off and landing aerial vehicles |
JP7026765B1 (ja) | 2020-12-28 | 2022-02-28 | 楽天グループ株式会社 | 制御システム、飛行体、及び、方法 |
CN112833890B (zh) * | 2020-12-30 | 2024-08-13 | 深圳市海柔创新科技有限公司 | 地图构建方法、装置、设备、机器人及存储介质 |
US11897608B2 (en) | 2021-01-29 | 2024-02-13 | Daniel Marion | Methods, systems, apparatuses, and devices for facilitating sampling water of water bodies |
US20240199204A1 (en) * | 2021-02-17 | 2024-06-20 | Alauda Aeronautics Pty Ltd | Manned vertical take-off and landing aerial vehicle navigation |
CN113075686B (zh) * | 2021-03-19 | 2024-01-12 | 长沙理工大学 | 一种基于多传感器融合的电缆沟智能巡检机器人建图方法 |
CN113030960B (zh) * | 2021-04-06 | 2023-07-04 | 陕西国防工业职业技术学院 | 一种基于单目视觉slam的车辆定位方法 |
EP4330946A1 (en) * | 2021-04-29 | 2024-03-06 | Skygrid, LLC | Unmanned aerial vehicle response to object detection |
CN113190638B (zh) * | 2021-05-08 | 2024-09-06 | 苏州触达信息技术有限公司 | 基于声音测距的电子地图绘制方法 |
US11886188B2 (en) | 2021-06-10 | 2024-01-30 | R-Go Robotics, Ltd. | Techniques for environmental parameter mapping |
WO2022264413A1 (ja) * | 2021-06-18 | 2022-12-22 | 株式会社センシンロボティクス | 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム |
US20230019396A1 (en) * | 2021-07-13 | 2023-01-19 | Beta Air, Llc | Systems and methods for autonomous flight collision avoidance in an electric aircraft |
CN113391649B (zh) * | 2021-08-17 | 2021-11-02 | 成都卡莱博尔信息技术股份有限公司 | 无人机显控一体方法和系统、装置及计算机可读储存介质 |
DE102021123124A1 (de) * | 2021-09-07 | 2023-03-09 | Spleenlab GmbH | Verfahren zum Steuern eines unbemannten Fluggeräts für einen Inspektionsflug zum Inspizieren eines Objekts und unbemanntes Inspektionsfluggerät |
US20230079054A1 (en) * | 2021-09-10 | 2023-03-16 | Exploration Robotics Technologies Inc. | System and method for autonomous inspection for asset maintenance and management |
US11977379B2 (en) | 2021-11-19 | 2024-05-07 | Honeywell International Inc. | Apparatuses, computer-implemented methods, and computer program product to assist aerial vehicle pilot for vertical landing and/or takeoff |
US20240053756A1 (en) * | 2021-12-01 | 2024-02-15 | Adata Technology Co., Ltd. | Autonomous mobile vehicle, and guidance and obstacle avoidance method for an environmental field |
DE102022106110A1 (de) | 2022-03-16 | 2023-09-21 | Spleenlab GmbH | Verfahren zum sicheren Bestimmen eines Flugpfads eines unbemannten Fluggeräts und unbemanntes Fluggerät |
TWI830363B (zh) * | 2022-05-19 | 2024-01-21 | 鈺立微電子股份有限公司 | 用於提供三維資訊的感測裝置 |
JPWO2023228283A1 (es) * | 2022-05-24 | 2023-11-30 | ||
CN115019167B (zh) * | 2022-05-26 | 2023-11-07 | 中国电信股份有限公司 | 基于移动终端的融合定位方法、系统、设备及存储介质 |
US12145753B2 (en) * | 2022-08-09 | 2024-11-19 | Pete Bitar | Compact and lightweight drone delivery device called an ArcSpear electric jet drone system having an electric ducted air propulsion system and being relatively difficult to track in flight |
CN115342800A (zh) * | 2022-08-31 | 2022-11-15 | 深圳市目心智能科技有限公司 | 一种基于三目视觉传感器的地图构建方法及系统 |
US12202634B1 (en) | 2023-03-30 | 2025-01-21 | Amazon Technologies, Inc. | Indoor aerial vehicles with advanced safety features |
US12205483B1 (en) * | 2023-06-26 | 2025-01-21 | Amazon Technologies, Inc. | Selecting paths for indoor obstacle avoidance by unmanned aerial vehicles |
CN116627181B (zh) * | 2023-07-25 | 2023-10-13 | 吉林农业大学 | 一种基于空间推理的植保无人机智能避障方法 |
CN119257588B (zh) * | 2024-12-11 | 2025-02-25 | 吉林省农业科学院(中国农业科技东北创新中心) | 动物体尺测量方法以及系统 |
Family Cites Families (233)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1118961A (en) * | 1965-06-01 | 1968-07-03 | North American Aviation Inc | Terrain-following system |
JP2574456B2 (ja) * | 1989-03-15 | 1997-01-22 | 松下電器産業株式会社 | 自走式掃除機 |
US5173947A (en) * | 1989-08-01 | 1992-12-22 | Martin Marietta Corporation | Conformal image processing apparatus and method |
JP3040611B2 (ja) | 1992-09-17 | 2000-05-15 | 三菱重工業株式会社 | 低騒音ヘリコプタ |
IL112237A (en) | 1994-01-18 | 1998-03-10 | Honeywell Inc | System and method for evading threats to aircraft |
DE4425662C1 (de) | 1994-07-20 | 1995-11-16 | Koenig & Bauer Ag | Vorrichtung zum Quertrennen einer Papierbahn |
US5785281A (en) * | 1994-11-01 | 1998-07-28 | Honeywell Inc. | Learning autopilot |
JP3561547B2 (ja) * | 1995-03-02 | 2004-09-02 | 綜合警備保障株式会社 | 自律型移動体の走行制御システム |
FR2731824B1 (fr) | 1995-03-17 | 1997-05-16 | Sextant Avionique | Dispositif d'evitement de collisions pour aeronef notamment avec le sol |
US5682229A (en) * | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
IL117792A (en) * | 1995-05-08 | 2003-10-31 | Rafael Armament Dev Authority | Autonomous command and control unit for mobile platform |
US6539290B1 (en) | 1995-06-07 | 2003-03-25 | Dabulamanzi Holdings, Llc | Method, apparatus and design procedure for controlling multi-input, multi-output (MIMO) parameter dependent systems using feedback LTI'zation |
US5716032A (en) * | 1996-04-22 | 1998-02-10 | United States Of America As Represented By The Secretary Of The Army | Unmanned aerial vehicle automatic landing system |
US6056237A (en) * | 1997-06-25 | 2000-05-02 | Woodland; Richard L. K. | Sonotube compatible unmanned aerial vehicle and system |
JPH11282530A (ja) * | 1998-03-27 | 1999-10-15 | Sanyo Electric Co Ltd | 車両運行システム |
DE19849857C2 (de) * | 1998-10-29 | 2003-08-21 | Eads Deutschland Gmbh | Fernlenkverfahren für ein unbemanntes Luftfahrzeug |
WO2000034919A1 (en) * | 1998-12-04 | 2000-06-15 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6377889B1 (en) * | 2000-10-13 | 2002-04-23 | Trimble Navigation Limited | Non-linear method of guiding to arbitrary curves with adaptive feedback |
US6804607B1 (en) * | 2001-04-17 | 2004-10-12 | Derek Wood | Collision avoidance system and method utilizing variable surveillance envelope |
US6597987B1 (en) | 2001-05-15 | 2003-07-22 | Navigation Technologies Corp. | Method for improving vehicle positioning in a navigation system |
JPWO2003004352A1 (ja) * | 2001-07-06 | 2004-10-21 | セイコーエプソン株式会社 | 飛行船システム |
US20050231425A1 (en) | 2001-09-10 | 2005-10-20 | American Gnc Corporation | Wireless wide area networked precision geolocation |
US20030055540A1 (en) | 2001-09-20 | 2003-03-20 | Hansen James K. | Anti-terrorism aircraft flight control system |
JP2003127994A (ja) * | 2001-10-24 | 2003-05-08 | Kansai Electric Power Co Inc:The | 無人飛行物体の制御システム |
US6875019B2 (en) * | 2002-02-11 | 2005-04-05 | United Defense, Lp | Naval virtual target range system |
US6725152B2 (en) * | 2002-02-21 | 2004-04-20 | Lockheed Martin Corporation | Real-time route and sensor planning system with variable mission objectives |
AU2003242974A1 (en) * | 2002-07-15 | 2004-02-02 | Magna B.S.P. Ltd. | Method and apparatus for implementing multipurpose monitoring system |
US7231063B2 (en) * | 2002-08-09 | 2007-06-12 | Intersense, Inc. | Fiducial detection system |
JP4300010B2 (ja) | 2002-10-08 | 2009-07-22 | 富士重工業株式会社 | 無人ヘリコプタ、無人ヘリコプタの離陸方法及び無人ヘリコプタの着陸方法 |
US7162338B2 (en) * | 2002-12-17 | 2007-01-09 | Evolution Robotics, Inc. | Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system |
DE10305861A1 (de) * | 2003-02-13 | 2004-08-26 | Adam Opel Ag | Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges |
SE0300871D0 (sv) * | 2003-03-27 | 2003-03-27 | Saab Ab | Waypoint navigation |
US7343232B2 (en) | 2003-06-20 | 2008-03-11 | Geneva Aerospace | Vehicle control system including related methods and components |
US7061401B2 (en) | 2003-08-07 | 2006-06-13 | BODENSEEWERK GERäTETECHNIK GMBH | Method and apparatus for detecting a flight obstacle |
US7747067B2 (en) * | 2003-10-08 | 2010-06-29 | Purdue Research Foundation | System and method for three dimensional modeling |
US7107148B1 (en) * | 2003-10-23 | 2006-09-12 | International Business Machines Corporation | Navigating a UAV with on-board navigation algorithms with flight depiction |
US7231294B2 (en) | 2003-10-23 | 2007-06-12 | International Business Machines Corporation | Navigating a UAV |
US7130741B2 (en) | 2003-10-23 | 2006-10-31 | International Business Machines Corporation | Navigating a UAV with a remote control device |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US7831094B2 (en) * | 2004-04-27 | 2010-11-09 | Honda Motor Co., Ltd. | Simultaneous localization and mapping using multiple view feature descriptors |
US7818127B1 (en) | 2004-06-18 | 2010-10-19 | Geneva Aerospace, Inc. | Collision avoidance for vehicle control systems |
ATE420394T1 (de) * | 2004-07-03 | 2009-01-15 | Saab Ab | System und verfahren zur steuerung eines flugzeugs während des fluges |
US7228227B2 (en) * | 2004-07-07 | 2007-06-05 | The Boeing Company | Bezier curve flightpath guidance using moving waypoints |
US7302316B2 (en) | 2004-09-14 | 2007-11-27 | Brigham Young University | Programmable autopilot system for autonomous flight of unmanned aerial vehicles |
US20060058931A1 (en) | 2004-09-15 | 2006-03-16 | Honeywell International Inc. | Collision avoidance involving radar feedback |
CN101667036B (zh) | 2004-10-08 | 2011-07-20 | 贝尔直升机泰克斯特龙公司 | 用于自动飞行和风切变状况的控制系统 |
US8078338B2 (en) | 2004-10-22 | 2011-12-13 | Irobot Corporation | System and method for behavior based control of an autonomous vehicle |
US7307579B2 (en) * | 2004-11-03 | 2007-12-11 | Flight Safety Technologies, Inc. | Collision alerting and avoidance system |
US7512462B2 (en) * | 2004-11-16 | 2009-03-31 | Northrop Grumman Corporation | Automatic contingency generator |
CN1305194C (zh) * | 2004-12-17 | 2007-03-14 | 华北电力大学(北京) | 电力线路巡检机器人飞机及其控制系统 |
US7242791B2 (en) | 2005-01-04 | 2007-07-10 | Deere & Company | Method and system for guiding a vehicle with vision enhancement |
US7610123B2 (en) | 2005-01-04 | 2009-10-27 | Deere & Company | Vision-aided system and method for guiding a vehicle |
AU2006203980B2 (en) * | 2005-01-06 | 2010-04-22 | Alan Shulman | Navigation and inspection system |
US20100001902A1 (en) | 2005-01-21 | 2010-01-07 | The Boeing Company | Situation awareness display |
US7228232B2 (en) * | 2005-01-24 | 2007-06-05 | International Business Machines Corporation | Navigating a UAV with obstacle avoidance algorithms |
US20100004798A1 (en) * | 2005-01-25 | 2010-01-07 | William Kress Bodin | Navigating a UAV to a next waypoint |
US7408627B2 (en) * | 2005-02-08 | 2008-08-05 | Canesta, Inc. | Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture |
US7248952B2 (en) | 2005-02-17 | 2007-07-24 | Northrop Grumman Corporation | Mixed integer linear programming trajectory generation for autonomous nap-of-the-earth flight in a threat environment |
US20060235610A1 (en) | 2005-04-14 | 2006-10-19 | Honeywell International Inc. | Map-based trajectory generation |
US7266477B2 (en) | 2005-06-22 | 2007-09-04 | Deere & Company | Method and system for sensor signal fusion |
US7494320B2 (en) | 2005-06-28 | 2009-02-24 | Petter Muren | Rotor for passively stable helicopter |
US7792330B1 (en) * | 2005-09-30 | 2010-09-07 | Mustang Technology Group, L.P. | System and method for determining range in response to image data |
WO2007047953A2 (en) * | 2005-10-20 | 2007-04-26 | Prioria, Inc. | System and method for onboard vision processing |
US7894951B2 (en) | 2005-10-21 | 2011-02-22 | Deere & Company | Systems and methods for switching between autonomous and manual operation of a vehicle |
US8275544B1 (en) | 2005-11-21 | 2012-09-25 | Miltec Missiles & Space | Magnetically stabilized forward observation platform |
JP4650752B2 (ja) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | 自己位置同定方法と装置および三次元形状の計測方法と装置 |
US20070171042A1 (en) * | 2005-12-22 | 2007-07-26 | Petru Metes | Tactical surveillance and threat detection system |
US8577538B2 (en) * | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
WO2008013568A2 (en) * | 2005-12-30 | 2008-01-31 | Irobot Corporation | Autonomous mobile robot |
US7431243B1 (en) | 2006-03-23 | 2008-10-07 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Guidance and control for an autonomous soaring UAV |
US8666661B2 (en) | 2006-03-31 | 2014-03-04 | The Boeing Company | Video navigation |
US7511662B2 (en) | 2006-04-28 | 2009-03-31 | Loctronix Corporation | System and method for positioning in configured environments |
US8108092B2 (en) * | 2006-07-14 | 2012-01-31 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
US7822266B2 (en) | 2006-06-02 | 2010-10-26 | Carnegie Mellon University | System and method for generating a terrain model for autonomous navigation in vegetation |
US20080059007A1 (en) | 2006-06-09 | 2008-03-06 | Whittaker William L | System and method for autonomously convoying vehicles |
US8271132B2 (en) * | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
US7587260B2 (en) * | 2006-07-05 | 2009-09-08 | Battelle Energy Alliance, Llc | Autonomous navigation system and method |
US8355818B2 (en) * | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
US20080033645A1 (en) * | 2006-08-03 | 2008-02-07 | Jesse Sol Levinson | Pobabilistic methods for mapping and localization in arbitrary outdoor environments |
US7725257B2 (en) * | 2006-09-05 | 2010-05-25 | Honeywell International Inc. | Method and system for navigation of an ummanned aerial vehicle in an urban environment |
US20090177398A1 (en) | 2008-01-08 | 2009-07-09 | Trex Enterprises Corp. | Angles only navigation system |
WO2008153597A1 (en) * | 2006-12-06 | 2008-12-18 | Honeywell International, Inc. | Methods, apparatus and systems for enhanced synthetic vision and multi-sensor data fusion to improve operational capabilities of unmanned aerial vehicles |
FR2910617B1 (fr) * | 2006-12-22 | 2009-03-06 | Thales Sa | Procede et dispositif de calcul d'une trajectoire decalee lateralement par rapport a une trajectoire de reference |
US20100250022A1 (en) | 2006-12-29 | 2010-09-30 | Air Recon, Inc. | Useful unmanned aerial vehicle |
US8072581B1 (en) * | 2007-01-19 | 2011-12-06 | Rockwell Collins, Inc. | Laser range finding system using variable field of illumination flash lidar |
US20080195304A1 (en) | 2007-02-12 | 2008-08-14 | Honeywell International Inc. | Sensor fusion for navigation |
US20080195316A1 (en) | 2007-02-12 | 2008-08-14 | Honeywell International Inc. | System and method for motion estimation using vision sensors |
EP1972893A1 (en) | 2007-03-21 | 2008-09-24 | Universiteit Gent | System and method for position determination |
JP2008304260A (ja) | 2007-06-06 | 2008-12-18 | Mitsubishi Electric Corp | 画像処理装置 |
DE102007032084A1 (de) * | 2007-07-09 | 2009-01-22 | Eads Deutschland Gmbh | Kollisions- und Konfliktvermeidungssystem für autonome unbemannte Flugzeuge (UAV) |
JP2009031884A (ja) | 2007-07-25 | 2009-02-12 | Toyota Motor Corp | 自律移動体、自律移動体におけるマップ情報作成方法および自律移動体における移動経路特定方法 |
JP2009041932A (ja) | 2007-08-06 | 2009-02-26 | Toyota Motor Corp | 移動体用測位装置 |
US20090058723A1 (en) | 2007-09-04 | 2009-03-05 | Mediatek Inc. | Positioning system and method thereof |
DE102007043534A1 (de) * | 2007-09-12 | 2009-03-19 | Robert Bosch Gmbh | Anordnung zum Erfassen einer Umgebung |
US7979174B2 (en) | 2007-09-28 | 2011-07-12 | Honeywell International Inc. | Automatic planning and regulation of the speed of autonomous vehicles |
US7606115B1 (en) | 2007-10-16 | 2009-10-20 | Scientific Applications & Research Associates, Inc. | Acoustic airspace collision detection system |
IL191615A (en) * | 2007-10-23 | 2015-05-31 | Israel Aerospace Ind Ltd | A method and system for producing tie points for use in stereo adjustment of stereoscopic images and a method for identifying differences in the landscape taken between two time points |
EP2214932B1 (en) | 2007-11-27 | 2011-08-24 | Pilkington Italia S.p.A. | Glazing |
WO2009074654A1 (en) | 2007-12-11 | 2009-06-18 | Nemerix Sa | Gnss method and receiver with camera aid |
US8718838B2 (en) | 2007-12-14 | 2014-05-06 | The Boeing Company | System and methods for autonomous tracking and surveillance |
US8082102B2 (en) * | 2008-01-14 | 2011-12-20 | The Boeing Company | Computing flight plans for UAVs while routing around obstacles having spatial and temporal dimensions |
US9641822B2 (en) * | 2008-02-25 | 2017-05-02 | Samsung Electronics Co., Ltd. | Method and apparatus for processing three-dimensional (3D) images |
US8108139B1 (en) * | 2008-02-29 | 2012-01-31 | Williams-Pyro, Inc. | System and method for route representation with waypoint storage |
WO2009118043A1 (en) | 2008-03-26 | 2009-10-01 | Genova Robot Srl | A method and a device for determining of a vehicle for the autonomous driving of a vehicle, in particular a robotized vehicle |
US9766074B2 (en) * | 2008-03-28 | 2017-09-19 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
CN101445156B (zh) | 2008-05-15 | 2011-05-25 | 龚文基 | 智能化空中机器人系统集成技术 |
US8239133B2 (en) | 2008-07-02 | 2012-08-07 | O2Micro, International | Global positioning system and dead reckoning (GPSandDR) integrated navigation system |
KR100955483B1 (ko) * | 2008-08-12 | 2010-04-30 | 삼성전자주식회사 | 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법 |
TWI408397B (zh) | 2008-08-15 | 2013-09-11 | Univ Nat Chiao Tung | Automatic navigation device with ultrasonic and computer vision detection and its navigation method |
US8521339B2 (en) * | 2008-09-09 | 2013-08-27 | Aeryon Labs Inc. | Method and system for directing unmanned vehicles |
CN101403620B (zh) | 2008-09-10 | 2013-04-24 | 深圳市同洲电子股份有限公司 | 导航装置及方法 |
US8818567B2 (en) | 2008-09-11 | 2014-08-26 | Deere & Company | High integrity perception for machine localization and safeguarding |
JP5359680B2 (ja) | 2008-09-17 | 2013-12-04 | 豊田合成株式会社 | 燃料遮断弁 |
US8897917B2 (en) * | 2008-10-01 | 2014-11-25 | Murata Machinery, Ltd. | Autonomous mobile device |
US8543265B2 (en) | 2008-10-20 | 2013-09-24 | Honeywell International Inc. | Systems and methods for unmanned aerial vehicle navigation |
US8538673B2 (en) | 2008-10-31 | 2013-09-17 | Czech Technical University In Prague | System and method for planning/replanning collision free flight plans in real or accelerated time |
US8412456B2 (en) | 2008-11-06 | 2013-04-02 | Texas Instruments Incorporated | Loosely-coupled integration of global navigation satellite system and inertial navigation system: speed scale-factor and heading bias calibration |
CN201331349Y (zh) | 2008-12-01 | 2009-10-21 | 深圳职业技术学院 | 运动位移无线检测系统 |
CN201331348Y (zh) | 2009-01-06 | 2009-10-21 | 山东科沐华信息技术有限公司 | 惯导组合gps车载终端 |
WO2010088290A1 (en) | 2009-01-27 | 2010-08-05 | Arthur Thomas D | Tight optical intergation (toi) of images with gps range measurements |
WO2010123611A1 (en) * | 2009-02-02 | 2010-10-28 | Aerovironment | Multimode unmanned aerial vehicle |
US8340852B2 (en) * | 2009-04-29 | 2012-12-25 | Honeywell International Inc. | System and method for simultaneous localization and map building |
US8977407B2 (en) | 2009-05-27 | 2015-03-10 | Honeywell International Inc. | Adaptive user interface for semi-automatic operation |
US8473187B2 (en) * | 2009-06-01 | 2013-06-25 | Robert Bosch Gmbh | Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization |
US8265818B2 (en) * | 2009-06-04 | 2012-09-11 | Defense Technologies, Inc. | Open architecture command system |
US20110084162A1 (en) | 2009-10-09 | 2011-04-14 | Honeywell International Inc. | Autonomous Payload Parsing Management System and Structure for an Unmanned Aerial Vehicle |
DE102009049849B4 (de) * | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
US8566071B2 (en) | 2009-10-26 | 2013-10-22 | The United States Of America As Represented By The Secretary Of The Army | Calibration and synchronization of micro air vehicle autopilots |
US8913783B2 (en) * | 2009-10-29 | 2014-12-16 | Sri International | 3-D model based method for detecting and classifying vehicles in aerial imagery |
TWI391874B (zh) * | 2009-11-24 | 2013-04-01 | Ind Tech Res Inst | 地圖建置方法與裝置以及利用該地圖的定位方法 |
IL202460A (en) * | 2009-12-01 | 2013-08-29 | Rafael Advanced Defense Sys | Method and system for creating a 3D view of real arena for military planning and operations |
US8366054B2 (en) | 2009-12-17 | 2013-02-05 | The United States Of America As Represented By The Secretary Of The Navy | Hand launchable unmanned aerial vehicle |
US9097532B2 (en) * | 2010-01-20 | 2015-08-04 | Honeywell International Inc. | Systems and methods for monocular airborne object detection |
JP5498178B2 (ja) | 2010-01-21 | 2014-05-21 | 株式会社Ihiエアロスペース | 無人移動体の制御方法及び無人移動体 |
WO2011097018A1 (en) * | 2010-02-05 | 2011-08-11 | Trimble Navigation Limited | Systems and methods for processing mapping and modeling data |
CN101867868B (zh) | 2010-03-26 | 2012-11-28 | 东南大学 | 一种组合导航装置和实施方法 |
US8577535B2 (en) * | 2010-03-31 | 2013-11-05 | Massachusetts Institute Of Technology | System and method for providing perceived first-order control of an unmanned vehicle |
WO2011120141A1 (en) | 2010-03-31 | 2011-10-06 | Ambercore Software Inc. | Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination |
US8639426B2 (en) | 2010-07-15 | 2014-01-28 | George C Dedes | GPS/IMU/video/radar absolute/relative positioning communication/computation sensor platform for automotive safety applications |
CN101950027A (zh) | 2010-08-18 | 2011-01-19 | 东莞市泰斗微电子科技有限公司 | 一种导航卫星信号接收模块及用于该模块的信息处理方法 |
US8774982B2 (en) | 2010-08-26 | 2014-07-08 | Leptron Industrial Robotic Helicopters, Inc. | Helicopter with multi-rotors and wireless capability |
US20130308822A1 (en) | 2010-09-23 | 2013-11-21 | Telefonica S.A. | Method and system for calculating the geo-location of a personal device |
US8676498B2 (en) | 2010-09-24 | 2014-03-18 | Honeywell International Inc. | Camera and inertial measurement unit integration with navigation data feedback for feature tracking |
CN102023003A (zh) * | 2010-09-29 | 2011-04-20 | 清华大学 | 基于激光探测和图像识别的无人直升机三维定位及测绘方法 |
US8378881B2 (en) | 2010-10-18 | 2013-02-19 | Raytheon Company | Systems and methods for collision avoidance in unmanned aerial vehicles |
US8712679B1 (en) * | 2010-10-29 | 2014-04-29 | Stc.Unm | System and methods for obstacle mapping and navigation |
US9690099B2 (en) * | 2010-12-17 | 2017-06-27 | Microsoft Technology Licensing, Llc | Optimized focal area for augmented reality displays |
JP5618840B2 (ja) * | 2011-01-04 | 2014-11-05 | 株式会社トプコン | 飛行体の飛行制御システム |
EP2482269B1 (en) | 2011-01-28 | 2017-03-22 | The Boeing Company | Providing data for predicting aircraft trajectory |
US8711206B2 (en) * | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8401225B2 (en) * | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
DE102011010679A1 (de) | 2011-02-08 | 2012-08-09 | Eads Deutschland Gmbh | Unbemanntes Luftfahrzeug mit eingebautem Kollisionswarnsystem |
US20120213436A1 (en) * | 2011-02-18 | 2012-08-23 | Hexagon Technology Center Gmbh | Fast Image Enhancement and Three-Dimensional Depth Calculation |
AU2012223032B2 (en) * | 2011-02-28 | 2015-10-29 | Bae Systems Australia Limited | Control computer for an unmanned vehicle |
US8868323B2 (en) * | 2011-03-22 | 2014-10-21 | Honeywell International Inc. | Collaborative navigation using conditional updates |
US20120271461A1 (en) * | 2011-04-20 | 2012-10-25 | Spata Gregory P | Capturing environmental information |
CA3044970C (en) * | 2011-05-06 | 2021-10-19 | Hadal, Inc. | Systems and methods for synthetic aperture sonar |
JP5776324B2 (ja) | 2011-05-17 | 2015-09-09 | 富士通株式会社 | 地図処理方法及びプログラム、並びにロボットシステム |
CN102393747B (zh) | 2011-08-17 | 2015-07-29 | 清华大学 | 无人机集群的协作交互方法 |
CN103256931B (zh) * | 2011-08-17 | 2014-11-26 | 清华大学 | 无人机的可视导航系统 |
US20130050180A1 (en) * | 2011-08-30 | 2013-02-28 | 5D Robotics, Inc. | Graphical Rendition of Multi-Modal Data |
US9297881B2 (en) | 2011-11-14 | 2016-03-29 | Microsoft Technology Licensing, Llc | Device positioning via device-sensed data evaluation |
US8582195B2 (en) | 2011-11-29 | 2013-11-12 | General Electric Company | Systems and methods for relative positioning |
US9031782B1 (en) * | 2012-01-23 | 2015-05-12 | The United States Of America As Represented By The Secretary Of The Navy | System to use digital cameras and other sensors in navigation |
DE102012201870A1 (de) * | 2012-02-08 | 2013-08-08 | RobArt GmbH | Verfahren zum automatischen Auslösen einer Selbstlokalisierung |
US9463574B2 (en) * | 2012-03-01 | 2016-10-11 | Irobot Corporation | Mobile inspection robot |
CN103323002B (zh) * | 2012-03-19 | 2016-04-27 | 联想(北京)有限公司 | 即时定位与地图构建方法和装置 |
CA2872698C (en) | 2012-05-04 | 2018-07-24 | Aeryon Labs Inc. | System and method for controlling unmanned aerial vehicles |
US9384668B2 (en) * | 2012-05-09 | 2016-07-05 | Singularity University | Transportation using network of unmanned aerial vehicles |
CN102707724B (zh) | 2012-06-05 | 2015-01-14 | 清华大学 | 一种无人机的视觉定位与避障方法及系统 |
JP2014002604A (ja) | 2012-06-19 | 2014-01-09 | Ricoh Co Ltd | 課金システム、課金方法、課金システムを備えた機器 |
JP5987259B2 (ja) * | 2012-06-19 | 2016-09-07 | 株式会社リコー | 自動運転ナビゲーションシステム |
US8682521B2 (en) * | 2012-06-25 | 2014-03-25 | The Boeing Company | Unpredictable vehicle navigation |
CN102722178B (zh) * | 2012-06-29 | 2014-02-26 | 山东电力集团公司电力科学研究院 | 用于无人机巡检带电导线的电场测量避障系统及方法 |
CN102749927A (zh) | 2012-07-20 | 2012-10-24 | 常州大学 | 无人飞机自动规避障碍物的系统及其规避方法 |
US9441985B2 (en) * | 2012-07-25 | 2016-09-13 | Rockwell Collins, Inc. | Future scene generating system, device, and method for a remotely-operated vehicle |
CN103576690B (zh) | 2012-07-25 | 2016-12-21 | 深圳市大疆创新科技有限公司 | 一种无人机遥控方法及设备、无人机 |
CN109947122B (zh) | 2012-08-17 | 2022-04-12 | 展望机器人股份公司 | 用于控制飞行的设备及其操作方法 |
US20140056438A1 (en) | 2012-08-21 | 2014-02-27 | Harman International Industries, Incorporated | System for vehicle sound synthesis |
US20150350614A1 (en) | 2012-08-31 | 2015-12-03 | Brain Corporation | Apparatus and methods for tracking using aerial video |
CN102854887A (zh) | 2012-09-06 | 2013-01-02 | 北京工业大学 | 一种无人机航迹规划和远程同步操控方法 |
CN203038112U (zh) | 2012-09-19 | 2013-07-03 | 苏州工业园区职业技术学院 | 无人机uav自动控制系统 |
CN202815124U (zh) * | 2012-10-16 | 2013-03-20 | 山东电力集团公司电力科学研究院 | 一种多旋翼无人机检测绝缘子装置 |
GB201218963D0 (en) * | 2012-10-22 | 2012-12-05 | Bcb Int Ltd | Micro unmanned aerial vehicle and method of control therefor |
US8798922B2 (en) * | 2012-11-16 | 2014-08-05 | The Boeing Company | Determination of flight path for unmanned aircraft in event of in-flight contingency |
CN202939489U (zh) * | 2012-11-28 | 2013-05-15 | 桂林飞宇电子科技有限公司 | 一种多旋翼自动平衡飞行控制器 |
US9198363B2 (en) * | 2012-12-12 | 2015-12-01 | The Boeing Company | Tree metrology system |
US9527587B2 (en) | 2012-12-19 | 2016-12-27 | Elwha Llc | Unoccupied flying vehicle (UFV) coordination |
CN103900583B (zh) * | 2012-12-25 | 2018-02-27 | 联想(北京)有限公司 | 用于即时定位与地图构建的设备和方法 |
US9051043B1 (en) * | 2012-12-28 | 2015-06-09 | Google Inc. | Providing emergency medical services using unmanned aerial vehicles |
US8909391B1 (en) * | 2012-12-28 | 2014-12-09 | Google Inc. | Responsive navigation of an unmanned aerial vehicle to a remedial facility |
CN103057712B (zh) * | 2012-12-31 | 2015-06-17 | 北京航空航天大学 | 微小型飞行机器人集成飞行控制系统 |
CN103914068A (zh) * | 2013-01-07 | 2014-07-09 | 中国人民解放军第二炮兵工程大学 | 一种基于栅格地图的服务机器人自主导航方法 |
CN103921933A (zh) | 2013-01-10 | 2014-07-16 | 深圳市大疆创新科技有限公司 | 飞行器变形结构及微型飞行器 |
CN103116360B (zh) * | 2013-01-31 | 2015-06-17 | 南京航空航天大学 | 一种无人机避障控制方法 |
CN103744430B (zh) | 2013-02-07 | 2016-08-24 | 山东英特力光通信开发有限公司 | 一种小型无人直升机飞行控制方法 |
US9102406B2 (en) | 2013-02-15 | 2015-08-11 | Disney Enterprises, Inc. | Controlling unmanned aerial vehicles as a flock to synchronize flight in aerial displays |
US9367067B2 (en) | 2013-03-15 | 2016-06-14 | Ashley A Gilmore | Digital tethering for tracking with autonomous aerial robot |
US8989922B2 (en) | 2013-03-15 | 2015-03-24 | Azure Sky Group, LLC. | Modular drone and methods for use |
US9085354B1 (en) * | 2013-04-23 | 2015-07-21 | Google Inc. | Systems and methods for vertical takeoff and/or landing |
US9037396B2 (en) | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US8868328B1 (en) | 2013-06-04 | 2014-10-21 | The Boeing Company | System and method for routing decisions in a separation management system |
US8996207B2 (en) | 2013-06-24 | 2015-03-31 | Honeywell International Inc. | Systems and methods for autonomous landing using a three dimensional evidence grid |
CN203397214U (zh) | 2013-07-09 | 2014-01-15 | 国家电网公司 | 一种适用于山区电网巡检的专用无人直升机避障系统 |
CN103365299B (zh) | 2013-08-02 | 2015-12-23 | 中国科学院自动化研究所 | 一种无人机的避障方法及其装置 |
CN203397215U (zh) | 2013-08-05 | 2014-01-15 | 上海久能能源科技发展有限公司 | 一种自锁式聚光反射定日镜 |
CN103400392B (zh) * | 2013-08-19 | 2016-06-22 | 山东鲁能智能技术有限公司 | 基于变电站巡检机器人的双目视觉导航系统及方法 |
CN103970143B (zh) * | 2013-08-27 | 2017-03-29 | 清华大学 | 一种无人飞行器自主巡点飞行的智能优化方法 |
US20160137293A1 (en) | 2013-10-15 | 2016-05-19 | Skypersonic | Enclosed drone apparatus and method for use thereof |
US9234728B2 (en) | 2013-11-08 | 2016-01-12 | Lonestar Inventions, L.P. | Rocket or artillery launched smart reconnaissance pod |
US9158304B2 (en) * | 2013-11-10 | 2015-10-13 | Google Inc. | Methods and systems for alerting and aiding an emergency situation |
CN104854428B (zh) | 2013-12-10 | 2018-12-14 | 深圳市大疆创新科技有限公司 | 传感器融合 |
US8825226B1 (en) | 2013-12-17 | 2014-09-02 | Amazon Technologies, Inc. | Deployment of mobile automated vehicles |
CN103809597B (zh) * | 2014-02-18 | 2016-09-21 | 清华大学 | 无人机的飞行路径规划方法及无人机 |
CN103901892B (zh) * | 2014-03-04 | 2016-12-07 | 清华大学 | 无人机的控制方法及系统 |
US9476730B2 (en) * | 2014-03-18 | 2016-10-25 | Sri International | Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics |
CN103941747B (zh) * | 2014-03-31 | 2016-08-17 | 清华大学 | 无人机群的控制方法及系统 |
CN103914077A (zh) | 2014-04-03 | 2014-07-09 | 江西洪都航空工业集团有限责任公司 | 一种有人/无人可选择双模飞行控制系统 |
CN103925920B (zh) | 2014-04-10 | 2016-08-17 | 西北工业大学 | 一种基于图像透视的微型无人机室内自主导航方法 |
CN103941748B (zh) * | 2014-04-29 | 2016-05-25 | 百度在线网络技术(北京)有限公司 | 自主导航方法及系统和地图建模方法及系统 |
CN103941750B (zh) * | 2014-04-30 | 2016-08-31 | 东北大学 | 基于小型四旋翼无人机的构图装置及方法 |
US9354296B2 (en) | 2014-05-20 | 2016-05-31 | Verizon Patent And Licensing Inc. | Dynamic selection of unmanned aerial vehicles |
CN103984357B (zh) | 2014-05-30 | 2017-02-01 | 中国人民解放军理工大学 | 一种基于全景立体成像设备的无人机自动避障飞行系统 |
EP2976687B1 (en) | 2014-05-30 | 2017-09-06 | SZ DJI Technology Co., Ltd. | Systems and methods for uav docking |
EP3060966B1 (en) | 2014-07-30 | 2021-05-05 | SZ DJI Technology Co., Ltd. | Systems and methods for target tracking |
JP6181300B2 (ja) | 2014-09-05 | 2017-08-16 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人航空機の速度を制御するシステム |
ES2876449T3 (es) * | 2014-09-05 | 2021-11-12 | Sz Dji Technology Co Ltd | Cartografía de entorno de múltiples sensores |
WO2016033796A1 (en) | 2014-09-05 | 2016-03-10 | SZ DJI Technology Co., Ltd. | Context-based flight mode selection |
JP6759210B2 (ja) | 2014-12-19 | 2020-09-23 | エアロバイロメント, インコーポレイテッドAerovironment, Inc. | 無人航空機システム(uas)操縦の制御および制限のための監視安全システム |
US9552736B2 (en) | 2015-01-29 | 2017-01-24 | Qualcomm Incorporated | Systems and methods for restricting drone airspace access |
DE102015204947B4 (de) | 2015-03-19 | 2021-09-09 | Ford Global Technologies, Llc | Verfahren und Vorrichtung zum Betrieb eines wahlweise manuell steuerbaren oder zu autonomem Fahren fähigen Fahrzeugs |
US9592912B1 (en) | 2016-03-08 | 2017-03-14 | Unmanned Innovation, Inc. | Ground control point assignment and determination system |
US11232713B2 (en) | 2020-04-30 | 2022-01-25 | Dedrone Holdings, Inc. | Systems, methods, apparatuses, and devices for identifying, tracking, and deterring unmanned aerial vehicles via ADS-B signals |
-
2014
- 2014-09-05 ES ES18188201T patent/ES2876449T3/es active Active
- 2014-09-05 EP EP18188201.0A patent/EP3428766B1/en active Active
- 2014-09-05 JP JP2016533706A patent/JP6235716B2/ja active Active
- 2014-09-05 CN CN201480031173.8A patent/CN105492985B/zh active Active
- 2014-09-05 CN CN201811161897.0A patent/CN109388150B/zh active Active
- 2014-09-05 WO PCT/CN2014/086007 patent/WO2016033797A1/en active Application Filing
- 2014-09-05 CN CN202210350511.0A patent/CN114675671A/zh active Pending
- 2014-09-05 EP EP21158873.6A patent/EP3855276A1/en not_active Withdrawn
- 2014-09-05 EP EP14901421.9A patent/EP3103043B1/en active Active
- 2014-09-05 CN CN201910354911.7A patent/CN110174903B/zh active Active
- 2014-09-05 DK DK18188201.0T patent/DK3428766T3/da active
-
2015
- 2015-07-30 US US14/814,159 patent/US10429839B2/en not_active Expired - Fee Related
-
2019
- 2019-09-18 US US16/574,848 patent/US10901419B2/en active Active
-
2021
- 2021-01-25 US US17/157,905 patent/US11914369B2/en active Active
-
2024
- 2024-02-26 US US18/587,530 patent/US20250076875A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3103043B1 (en) | 2018-08-15 |
EP3103043A1 (en) | 2016-12-14 |
JP6235716B2 (ja) | 2017-11-22 |
US10901419B2 (en) | 2021-01-26 |
DK3428766T3 (da) | 2021-06-07 |
CN105492985B (zh) | 2019-06-04 |
US20210247764A1 (en) | 2021-08-12 |
EP3428766A1 (en) | 2019-01-16 |
JP2017501484A (ja) | 2017-01-12 |
CN110174903A (zh) | 2019-08-27 |
EP3855276A1 (en) | 2021-07-28 |
US20200142410A1 (en) | 2020-05-07 |
US20160070265A1 (en) | 2016-03-10 |
CN109388150B (zh) | 2022-04-29 |
US10429839B2 (en) | 2019-10-01 |
WO2016033797A1 (en) | 2016-03-10 |
US11914369B2 (en) | 2024-02-27 |
CN114675671A (zh) | 2022-06-28 |
CN110174903B (zh) | 2023-05-09 |
CN105492985A (zh) | 2016-04-13 |
US20250076875A1 (en) | 2025-03-06 |
EP3103043A4 (en) | 2017-04-19 |
EP3428766B1 (en) | 2021-04-07 |
CN109388150A (zh) | 2019-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2876449T3 (es) | Cartografía de entorno de múltiples sensores | |
JP6487010B2 (ja) | ある環境内で無人航空機を制御する方法、ある環境のマップを生成する方法、システム、プログラムおよび通信端末 | |
US20230365129A1 (en) | Apparatus and methods for obstacle detection | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
ES2874506T3 (es) | Procesamiento selectivo de datos de sensor | |
CN107850902B (zh) | 可移动物体上的相机配置 | |
CN105517666B (zh) | 基于情景的飞行模式选择 | |
CN112859899B (zh) | 用于利用视觉标记进行监视的系统和方法 | |
US20200026720A1 (en) | Construction and update of elevation maps | |
JP6329642B2 (ja) | センサ融合 | |
JP2019050007A (ja) | 移動体の位置を判断する方法および装置、ならびにコンピュータ可読媒体 | |
KR20220031574A (ko) | 3차원 측위 및 지도작성 시스템 및 방법 |