KR102243649B1 - Unmanned aerial vehicle ad-hoc location estimation system in urban environment - Google Patents
Unmanned aerial vehicle ad-hoc location estimation system in urban environment Download PDFInfo
- Publication number
- KR102243649B1 KR102243649B1 KR1020180162061A KR20180162061A KR102243649B1 KR 102243649 B1 KR102243649 B1 KR 102243649B1 KR 1020180162061 A KR1020180162061 A KR 1020180162061A KR 20180162061 A KR20180162061 A KR 20180162061A KR 102243649 B1 KR102243649 B1 KR 102243649B1
- Authority
- KR
- South Korea
- Prior art keywords
- unmanned aerial
- aerial vehicle
- information
- sub
- location information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000004891 communication Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 17
- 238000005259 measurement Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/03—Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- B64C2201/12—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
- B64U2201/104—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/20—Aircraft, e.g. drones
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
도심 환경에서의 무인 항공기 Ad-hoc 위치 추정 시스템이 개시된다. 일 실시예에 따른 무인 항공기 위치 추정 방법은, 제1 무인 항공기(Unmanned Aerial Vehicle)로부터 제2 무인 항공기의 제1 위치 정보를 수신하는 단계와, 상기 제1 위치 정보 및 상기 제2 무인 항공기의 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 위치 정보를 추정하는 단계를 포함하고, 상기 제1 위치 정보는 GNSS(Global Navigation Satellite System) 신호, 상기 제1 무인 항공기에 대한 제1 관성값, 및 상기 제1 무인 항공기가 상공에서 촬영한 제2 무인 항공기의 영상 정보에 기초하여 추정된다.An unmanned aerial vehicle Ad-hoc position estimation system in an urban environment is disclosed. The method for estimating the location of the unmanned aerial vehicle according to an embodiment includes the steps of receiving first location information of a second unmanned aerial vehicle from a first unmanned aerial vehicle, and the first location information and the first location information of the second unmanned aerial vehicle. 2 estimating second location information of the second unmanned aerial vehicle based on an inertia value, wherein the first location information includes a Global Navigation Satellite System (GNSS) signal, and a first inertia value for the first unmanned aerial vehicle , And the first unmanned aerial vehicle is estimated based on image information of the second unmanned aerial vehicle photographed from above.
Description
아래 실시예들은 도심 환경에서의 무인 항공기 Ad-hoc 위치 추정 시스템에 관한 것이다.The following embodiments relate to an unmanned aerial vehicle Ad-hoc position estimation system in an urban environment.
무선통신 방식을 통해 원격 제어되는 무인 항공기(Unmanned Aerial Vehicle)는 군사용으로 개발되어 단순한 사격 연습에 사용되었다. 최근 들어, 무인 항공기는 전자통신 기술의 지속적인 발전에 따라 군사용뿐만 아니라 그 이외의 다양한 분야로 확대 보급되고 있다.Unmanned Aerial Vehicles, which are remotely controlled through wireless communication, were developed for military use and were used for simple shooting practice. In recent years, unmanned aerial vehicles have been expanded and spread not only to military use but also to various other fields according to the continuous development of electronic communication technology.
무인 항공기는 위성 측위 시스템인 GNSS(Global Navigation Satellite System) 신호를 수신하여 자신의 위치 정보를 업데이트한다. 하지만, 무인 항공기가 수신하는 GNSS 신호가 도심 건물이나 빌딩 등의 장애물에 막혀 수신이 불가한 경우 무인 항공기는 자신의 위치 정보를 업데이트할 수 없다.The unmanned aerial vehicle updates its location information by receiving signals from the Global Navigation Satellite System (GNSS), which is a satellite positioning system. However, if the GNSS signal received by the unmanned aerial vehicle is blocked by an obstacle such as an urban building or a building and cannot be received, the unmanned aerial vehicle cannot update its location information.
이 경우 무인 항공기는 고정된 위치에 설치된 비콘(Beacon) 등의 전파 발생 장치를 이용하거나, 고정된 위치에 설치된 카메라가 무인 항공기를 촬영한 영상 정보를 이용하는 등의 방법으로 위치를 추정하였다.In this case, the unmanned aerial vehicle estimated the location by using a radio wave generating device such as a beacon installed at a fixed location, or by using image information captured by a camera installed at a fixed location of the unmanned aerial vehicle.
하지만, 사전에 위치 추정을 위한 장치가 고정적으로 설치되어 있지 않은 지역에서는 무인항공기의 위치 추정이 어렵다.However, it is difficult to estimate the location of the unmanned aerial vehicle in an area where a device for location estimation is not fixedly installed in advance.
실시예들은 제1 무인 항공기가 통신 음영(shadowing) 지역에 있는 제2 무인 항공기의 위치 추정에 필요한 데이터를 유동적으로 제공함으로써, 무인 항공기가 통신 음영 지역에 있어도 위치 정보 등을 업데이트할 수 있는 기술을 제공할 수 있다.The embodiments provide a technology that allows the first unmanned aerial vehicle to flexibly provide data necessary for estimating the location of the second unmanned aerial vehicle in a communication shadowing area, thereby updating location information, etc. even when the unmanned aerial vehicle is in a communication shadowing area. Can provide.
일 실시예에 따른 무인 항공기 위치 추정 방법은, 제1 무인 항공기(Unmanned Aerial Vehicle)로부터 제2 무인 항공기의 제1 위치 정보를 수신하는 단계와, 상기 제1 위치 정보 및 상기 제2 무인 항공기의 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 위치 정보를 추정하는 단계를 포함하고, 상기 제1 위치 정보는 GNSS(Global Navigation Satellite System) 신호, 상기 제1 무인 항공기에 대한 제1 관성값, 및 상기 제1 무인 항공기가 상공에서 촬영한 제2 무인 항공기의 영상 정보에 기초하여 추정된다.The method for estimating the location of the unmanned aerial vehicle according to an embodiment includes the steps of receiving first location information of a second unmanned aerial vehicle from a first unmanned aerial vehicle, and the first location information and the first location information of the second unmanned aerial vehicle. 2 estimating second location information of the second unmanned aerial vehicle based on an inertia value, wherein the first location information includes a Global Navigation Satellite System (GNSS) signal, and a first inertia value for the first unmanned aerial vehicle , And the first unmanned aerial vehicle is estimated based on image information of the second unmanned aerial vehicle photographed from above.
상기 제1 위치정보는, 상기 GNSS 신호와 상기 제1 관성값에 기초하여 생성된 항법해(Navigation Solution) 및 상기 영상 정보를 이용하여 추정할 수 있다.The first location information may be estimated using the image information and a navigation solution generated based on the GNSS signal and the first inertia value.
상기 방법은, 상기 제1 무인 항공기로부터 상기 제2 무인 항공기의 제1 속도 정보를 수신하는 단계와, 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 속도 정보를 생성하는 단계를 더 포함할 수 있다.The method includes receiving first speed information of the second unmanned aerial vehicle from the first unmanned aerial vehicle, and second speed information of the second unmanned aerial vehicle based on the first speed information and the second inertia value It may further include the step of generating.
상기 제1 속도 정보는 상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 계산할 수 있다.The first speed information may be calculated based on the GNSS signal, the first inertia value, and the image information.
다른 일 실시예에 따른 무인 항공기 위치 추정 방법은, GNSS(Global Navigation Satellite System) 신호 및 제1 무인 항공기(Unmanned Aerial Vehicle)의 제1 관성값을 수신하는 단계와, 상기 GNSS 신호, 상기 제1 관성값, 제2 무인 항공기의 제2 관성값, 및 상기 제2 무인 항공기가 상공에서 촬영한 상기 제1 무인 항공기의 영상 정보에 기초하여 상기 제1 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함한다.A method for estimating a location of an unmanned aerial vehicle according to another embodiment includes the steps of receiving a Global Navigation Satellite System (GNSS) signal and a first inertia value of a first unmanned aerial vehicle, the GNSS signal, and the first inertia. Estimating first location information of the first unmanned aerial vehicle based on a value, a second inertia value of the second unmanned aerial vehicle, and image information of the first unmanned aerial vehicle captured by the second unmanned aerial vehicle from above do.
상기 추정하는 단계는, 상기 GNSS 신호, 상기 제2 관성값, 및 상기 영상 정보에 기초하여 상기 제1 무인 항공기의 제2 위치 정보를 추정하는 단계와, 상기 제2 위치 정보 및 상기 제1 관성값에 기초하여 상기 제1 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함할 수 있다.The estimating may include estimating second position information of the first unmanned aerial vehicle based on the GNSS signal, the second inertia value, and the image information, and the second position information and the first inertia value It may include the step of estimating the first location information of the first unmanned aerial vehicle.
상기 제2 위치 정보를 추정하는 단계는, 상기 GNSS 신호 및 상기 제2 관성값에 기초하여 항법해(Navigation Solution)를 생성하는 단계와, 상기 항법해 및 상기 영상 정보를 이용하여 상기 제2 위치 정보를 추정하는 단계를 포함할 수 있다.The step of estimating the second location information includes generating a navigation solution based on the GNSS signal and the second inertia value, and the second location information using the navigation solution and the image information. It may include the step of estimating.
상기 방법은, 상기 GNSS 신호, 상기 제2 관성값 및 상기 영상 정보에 기초하여 상기 제1 무인 항공기의 제1 속도 정보를 계산하는 단계와, 상기 제1 속도 정보 및 상기 제1 관성값에 기초하여 상기 제1 무인 항공기의 제2 속도 정보를 생성하는 단계를 더 포함할 수 있다.The method includes calculating first speed information of the first unmanned aerial vehicle based on the GNSS signal, the second inertia value, and the image information, and based on the first speed information and the first inertia value. It may further include generating second speed information of the first unmanned aerial vehicle.
또 다른 일 실시예에 따른 무인 항공기 위치 추정 방법은, 제1 무인 항공기 및 제2 무인 항공기의 위치를 추정하는 방법에 있어서, 상기 제2 무인 항공기를 촬영하여 영상 정보를 생성하는 단계와, GNSS 신호, 상기 제1 무인 항공기의 제1 관성값, 상기 제2 무인 항공기의 제2 관성값, 및 상기 제1 무인 항공기가 상공에서 촬영한 상기 제2 무인 항공기의 영상 정보에 기초하여 상기 제2 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함한다.A method for estimating a location of a drone according to another embodiment is a method of estimating the location of a first unmanned aerial vehicle and a second unmanned aerial vehicle, the step of generating image information by photographing the second unmanned aerial vehicle, and a GNSS signal , The second unmanned aerial vehicle based on the first inertia value of the first unmanned aerial vehicle, the second inertial value of the second unmanned aerial vehicle, and the image information of the second unmanned aerial vehicle captured by the first unmanned aerial vehicle in the sky. And estimating the first location information of.
상기 추정하는 단계는, 상기 GNSS 신호 및 상기 제1 관성값, 상기 영상 정보에 기초하여 상기 제2 무인 항공기의 제2 위치 정보를 추정하는 단계와, 상기 제1 위치 정보 및 상기 제2 관성값에 기초하여 상기 제2 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함할 수 있다.The estimating may include estimating second position information of the second unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information, and the first position information and the second inertia value It may include the step of estimating the first location information of the second unmanned aerial vehicle.
상기 제2 위치 정보를 추정하는 단계는, 상기 GNSS 신호 및 상기 제1 관성값에 기초하여 항법해(Navigation Solution)를 생성하는 단계와, 상기 항법해 및 상기 영상 정보를 이용하여 상기 제2 위치 정보를 추정하는 단계를 포함할 수 있다.The step of estimating the second location information includes generating a navigation solution based on the GNSS signal and the first inertia value, and the second location information using the navigation solution and the image information. It may include the step of estimating.
상기 방법은, 상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 상기 제2 무인 항공기의 제1 속도 정보를 계산하는 단계와, 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 속도 정보를 생성하는 단계를 더 포함할 수 있다.The method includes calculating first speed information of the second unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information, and based on the first speed information and the second inertia value. It may further include generating second speed information of the second unmanned aerial vehicle.
도 1은 무인 항공기가 장애물에 의해 통신 신호를 수신하지 못하는 상황을 나타낸 도면이다.
도 2는 일 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이다.
도 3은 다른 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이다.
도 4는 도 2에 도시된 마스터 무인 항공기의 개략적인 블록도이다.
도 5는 도 2에 도시된 서브 무인 항공기의 개략적인 블록도이다.
도 6은 도 3에 도시된 위치 추정 장치의 구체적인 블록도이다.
도 7은 무인 항공기 위치 추정 시스템이 무인 항공기의 위치를 추정하는 순서의 일 예를 나타낸 도면이다.
도 8은 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 모식도이다.
도 9는 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 일 예를 나타낸 도면이다.1 is a diagram showing a situation in which the unmanned aerial vehicle cannot receive a communication signal due to an obstacle.
2 is a diagram illustrating a system for estimating a location of an unmanned aerial vehicle according to an exemplary embodiment.
3 is a diagram illustrating a system for estimating a location of an unmanned aerial vehicle according to another embodiment.
Figure 4 is a schematic block diagram of the master unmanned aerial vehicle shown in Figure 2;
5 is a schematic block diagram of the sub unmanned aerial vehicle shown in FIG. 2.
6 is a detailed block diagram of the position estimation apparatus shown in FIG. 3.
7 is a diagram showing an example of a procedure for estimating the position of the unmanned aerial vehicle by the unmanned aerial vehicle position estimation system.
8 is a schematic diagram of an image captured by the master unmanned aerial vehicle shown in FIG. 2 from above.
9 is a diagram showing an example of an image captured from the sky by the master unmanned aerial vehicle shown in FIG. 2.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.
제1 또는 제2등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해서 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 실시예의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the embodiment, the first component may be named as the second component, and similarly The second component may also be referred to as a first component.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.
도 1은 무인 항공기가 장애물에 의해 통신 신호를 수신하지 못하는 상황을 나타낸 도면이다.1 is a diagram showing a situation in which the unmanned aerial vehicle cannot receive a communication signal due to an obstacle.
도 1을 참조하면, 무선 통신 방식을 통해 원격 제어되는 무인 항공기(Unmanned Aerial Vehicle; 10)는 군사용으로 개발되어 단순한 사격 연습에 사용되었을 수 있다. 최근 들어, 무인 항공기(10)는 전자통신 기술의 지속적인 발전에 따라 군사용뿐만 아니라 그 이외의 다양한 분야로 확대 보급되고 있을 수 있다.Referring to FIG. 1, an unmanned
예를 들어, 무인 항공기(10)는 통신 위성(1)에서 위성 측위 시스템인 GNSS(Global Navigation Satellite System) 신호(2)를 수신하여 자신의 위치 정보를 업데이트할 수 있다. 하지만, 무인 항공기(10)가 수신하는 GNSS 신호(2)가 도심 건물이나 빌딩 등의 장애물에 막혀 수신이 불가한 경우(11) 무인 항공기(10)는 자신의 위치 정보를 업데이트하지 못할 수 있다.For example, the unmanned
이 경우 무인 항공기(10)는 고정된 위치에 설치된 비콘(Beacon) 등의 전파 발생 장치를 이용하거나, 고정된 위치에 설치된 카메라가 무인 항공기를 촬영한 영상 정보를 이용하는 등의 방법으로 자신의 위치 등을 추정할 수 있다.In this case, the unmanned
하지만, 무인 항공기는 사전에 위치 추정을 위한 장치가 고정적으로 설치되어 있지 않은 지역에서는 자신의 위치 추정이 어려울 수 있다.However, in an unmanned aerial vehicle, it may be difficult to estimate its own location in an area where a device for location estimation is not fixedly installed in advance.
실시예들은 제1 무인 항공기가 통신 음영 지역에 있는 제2 무인 항공기의 위치 추정에 필요한 데이터를 유동적으로 제공함으로써, 무인 항공기가 사전에 위치 추정을 위한 장치가 고정적으로 설치되어 있지 않은 통신 음영 지역에 있어도 수신한 데이터를 이용하여 위치 정보 등을 업데이트할 수 있는 기술을 제공할 수 있다.In the embodiments, the first unmanned aerial vehicle flexibly provides data necessary for estimating the position of the second unmanned aerial vehicle in the communication shadow area, so that the unmanned aerial vehicle is in a communication shadow area where a device for location estimation is not fixedly installed in advance. Even if there is, it is possible to provide a technology capable of updating location information and the like using the received data.
이하에서는, 도 2 내지 도 6을 참조하여 실시예들을 설명하도록 한다.Hereinafter, embodiments will be described with reference to FIGS. 2 to 6.
도 2는 일 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이고, 도 3은 다른 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이다.FIG. 2 is a diagram illustrating a system for estimating a position of an unmanned aerial vehicle according to an embodiment, and FIG. 3 is a diagram illustrating a system for estimating a position of an unmanned aerial vehicle according to another embodiment.
도 2를 참조하면, 무인 항공기 위치 추정 시스템(20)은 마스터 무인 항공기(100) 및 서브 무인 항공기(200)를 포함한다.Referring to FIG. 2, the unmanned aerial vehicle position estimation system 20 includes a master unmanned
무인 항공기 위치 추정 시스템(20)은 도심 환경, 교량 아래 등과 같은 통신 장애물이 많아 통신 가용성(Availability)이 떨어지는 통신 음영(Shadowing) 환경에서 서브 무인 항공기(200)의 위치 추정의 정확도 및 통신 가용성을 향상시킬 수 있다.The unmanned aerial vehicle position estimation system 20 improves the accuracy and communication availability of the position estimation of the sub unmanned
무인 항공기 위치 추정 시스템(20)은 단수의 마스터 무인 항공기(100)와 단수의 서브 무인 항공기(200)로 구현될 수 있다. 무인 항공기 위치 추정 시스템(20)은 단수의 마스터 무인 항공기(100)와 복수의 서브 무인 항공기(200)로 구현될 수 있다. 무인 항공기 위치 추정 시스템(20)은 복수의 마스터 무인 항공기(100)와 복수의 서브 무인 항공기(200)로 구현될 수 있다.The unmanned aerial vehicle position estimation system 20 may be implemented with a single master unmanned
마스터 무인 항공기(100)는 통신 위성(1)과 통신 가능하며, 통신 음영 지역에 있는 서브 무인 항공기(200)와 통신 가능한 곳에 유동적으로 배치되어 서브 무인 항공기(200)에게 통신 신호를 송신할 수 있다. The master unmanned
마스터 무인 항공기(100)를 통신 음영 지역에 유동적으로 배치하는 것이 가능해 지면서, 기존에 전파 발생 장치 및/또는 카메라 등이 고정적으로 설치되어 있어야 통신 음영 지역에 있는 무인 항공기의 위치를 추정할 수 있었던 한계를 해결할 수 있다.As it becomes possible to flexibly deploy the master unmanned
마스터 무인 항공기(100)는 통신 음영 지역에 있는 서브 무인 항공기(200)로 통신 신호를 송신할 수 있다. 마스터 무인 항공기(100)는 음영 지역에 있는 서브 무인 항공기(200)의 위치 추정 등을 위한 데이터를 제공할 수 있다. 마스터 무인 항공기(100)의 구체적인 동작은 도 4에서 상세히 살펴보기로 한다.The master unmanned
서브 무인 항공기(200)는 마스터 무인 항공기(100)가 전송하는 데이터를 수신하고, 수신된 데이터에 기초하여 자신의 위치 정보 등을 추정할 수 있다. 서브 무인 항공기(200)는 마스터 무인 항공기(100)가 전송하는 데이터를 수신하고, 수신된 데이터에 기초하여 속도 정보 등을 생성할 수 있다.The sub unmanned
서브 무인 항공기(200)는 도심 환경 등에 위치하여 통신 위성(1)의 신호를 전달받지 못할 때, 마스터 무인 항공기(100)가 전송하는 데이터에 기초하여 자신의 위치 정보 및/또는 속도 정보 등을 업데이트 할 수 있다. When the sub unmanned
서브 무인 항공기(200)는 마스터 무인 항공기(100)에 의해 측정된 서브 무인 항공기(200)의 위치 정보를 이용하여 자신의 위치 정보(예를 들어, 서브 무인 항공기(200)의 위치 정보)를 업데이트함으로써, 서브 무인 항공기(200)의 위치 추정 성능이 향상될 수 있다. 서브 무인 항공기(200)의 구체적인 동작은 도 5에서 상세히 살펴보기로 한다.The sub unmanned
도 3을 참조하면, 무인 항공기 위치 추정 시스템(20)은 위치 추정 장치(300)를 더 포함할 수 있다.Referring to FIG. 3, the unmanned aerial vehicle position estimation system 20 may further include a
위치 추정 장치(300)는 마스터 무인 항공기(100) 및 서브 무인 항공기(200)와 인터넷(3000)상으로 연결되어 통신할 수 있다. 위치 추정 장치(300)는 통신 위성(1), 마스터 무인 항공기(100), 및 서브 무인 항공기(200)로부터 데이터를 수신할 수 있다.The
위치 추정 장치(300)는 수신된 데이터에 기초하여 서브 무인 항공기(200)의 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 추정할 수 있다.The
위치 추정 장치(300)는 서브 무인 항공기(200)의 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 서브 무인 항공기(200)로 전송할 수 있다.The
위치 추정 장치(300)의 구체적인 동작은 도 6에서 상세히 살펴보기로 한다.A detailed operation of the
도 4는 도 2에 도시된 마스터 무인 항공기의 개략적인 블록도이다.Figure 4 is a schematic block diagram of the master unmanned aerial vehicle shown in Figure 2;
도 4를 참조하면, 마스터 무인 항공기(100)는 수신기(110), 메모리(130), 컨트롤러(150), 및 카메라(170)를 포함할 수 있다. 마스터 무인 항공기(100)는 관성 측정 장치(미도시)를 더 포함할 수 있다.Referring to FIG. 4, the master unmanned
수신기(110)는 통신 위성(1)으로부터 GNSS 신호(2)를 수신할 수 있다. 수신기(110)는 서브 무인 항공기(200)로부터 제2 관성값을 수신할 수 있다.The
메모리(130)는 컨트롤러(150)에 의해 실행 가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 컨트롤러(150)에 포함된 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The
컨트롤러(150)는 GNSS 신호, 제1 관성값, 제2 관성값, 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 위치 정보를 추정할 수 있다.The
제1 관성값은 관성 측정 장치(Inertial Measurement Unit; 미도시)로 측정된 값일 수 있다. 관성 측정 장치(미도시)는 하나 이상의 가속도계를 사용하여 가속도를 측정할 수 있다. 관성 측정 장치(미도시)는 하나 이상의 자이로스코프(Gyroscope)를 사용하여 회전 속도를 감지할 수 있다. 관성 측정 장치(미도시)는 자기 측정기를 사용하여 자기력을 측정할 수 있다.The first inertia value may be a value measured by an inertial measurement unit (not shown). An inertial measurement device (not shown) may measure acceleration using one or more accelerometers. The inertial measurement device (not shown) may detect the rotational speed using one or more gyroscopes. The inertial measuring device (not shown) may measure magnetic force using a magnetic measuring device.
컨트롤러(150)는 GNSS 신호, 제1 관성값, 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 위치 정보를 추정할 수 있다. 제1 위치 정보는 컨트롤러(150)가 서브 무인 항공기(200)의 절대적 위치를 1차적으로 추정한 위치 정보에 해당할 수 있다.The
컨트롤러(150)는 카메라(170)가 촬영한 사진으로부터 서브 무인 항공기(200)를 식별하고 상대적 위치를 추출한 영상 정보를 생성할 수 있다.The
컨트롤러(150)는 제1 위치 정보 및 제2 관성값에 기초하여 제2 무인 항공기의 제2 위치 정보를 추정할 수 있다. 제2 위치 정보는 최종적으로 추정된 서브 무인 항공기(200)의 현재 절대적 위치 정보를 의미할 수 있다.The
컨트롤러(150)는 GNSS 신호 및 제1 관성값에 기초하여 항법해(Navigation Solution)를 생성할 수 있다.The
컨트롤러(150)는 항법해 및 영상 정보를 이용하여 제1 위치 정보를 추정할 수 있다.The
컨트롤러(150)는 GNSS 신호, 제1 관성값 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 속도 정보를 계산할 수 있다.The
컨트롤러(150)는 제1 속도 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 속도 정보를 생성할 수 있다. 제2 속도 정보는 최종적으로 추정된 서브 무인 항공기(200)의 현재 속도 정보를 의미할 수 있다.The
카메라(170)는 서브 무인 항공기(200)를 촬영하여 서브 무인 항공기(200)를 포함하는 사진을 생성할 수 있다.The
도 5는 도 2에 도시된 서브 무인 항공기의 개략적인 블록도이다.5 is a schematic block diagram of the sub unmanned aerial vehicle shown in FIG. 2.
도 5를 참조하면, 서브 무인 항공기(200)는 수신기(210), 메모리(230), 및 컨트롤러(250)를 포함할 수 있다. 서브 무인 항공기(200)는 관성 측정 장치(미도시)를 더 포함할 수 있다.Referring to FIG. 5, the sub unmanned
수신기(210)는 마스터 무인 항공기(100)가 전송하는 데이터를 수신할 수 있다. 마스터 무인 항공기(100)가 전송하는 데이터에는 GNSS 신호, 제1 관성값, 영상 정보, 항법해, 제1 위치 정보, 및 제1 속도 정보 등이 포함될 수 있다.The
메모리(230)는 컨트롤러(250)에 의해 실행 가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 컨트롤러(250)에 포함된 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The
컨트롤러(250)는 제1 위치 정보 및 제2 무인 항공기의 제2 관성값에 기초하여 제2 무인 항공기의 제2 위치 정보를 추정할 수 있다.The
제2 관성값은 관성 측정 장치(미도시)로 측정된 값일 수 있다. 관성 측정 장치(미도시)는 하나 이상의 가속도계를 사용하여 가속도를 측정할 수 있다. 관성 측정 장치(미도시)는 하나 이상의 자이로스코프(Gyroscope)를 사용하여 회전 속도를 감지할 수 있다. 관성 측정 장치(미도시)는 자기 측정기를 사용하여 자기력을 측정할 수 있다.The second inertia value may be a value measured by an inertial measuring device (not shown). An inertial measurement device (not shown) may measure acceleration using one or more accelerometers. The inertial measurement device (not shown) may detect the rotational speed using one or more gyroscopes. The inertial measuring device (not shown) may measure magnetic force using a magnetic measuring device.
컨트롤러(250)는 제1 속도 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 속도 정보를 생성할 수 있다.The
도 6은 도 3에 도시된 위치 추정 장치의 개략적인 블록도이다.6 is a schematic block diagram of the position estimation apparatus shown in FIG. 3.
도 6을 참조하면, 위치 추정 장치(300)는 수신기(310), 메모리(330), 및 제3 컨트롤러(350)를 포함할 수 있다.Referring to FIG. 6, the
수신기(310)는 마스터 무인 항공기(100)로부터 GNSS 신호, 제1 관성값, 영상 정보, 항법해 등을 수신할 수 있다. 수신기(310)는 마스터 무인 항공기(100)로 GNSS 신호, 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 송신할 수 있다.The
수신기(310)는 서브 무인 항공기(200)로부터 제2 관성값을 수신할 수 있다. 수신기(310)는 서브 무인 항공기(200)로 GNSS 신호, 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 송신할 수 있다.The
메모리(330)는 제3 컨트롤러(350)에 의해 실행 가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 제3 컨트롤러(350)에 포함된 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The
제3 컨트롤러(350)는 GNSS 신호, 제1 관성값, 제2 관성값, 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제2 위치 정보를 추정할 수 있다.The
제3 컨트롤러(350)는 GNSS 신호 및 제1 관성값, 상기 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 위치 정보를 추정할 수 있다.The
제3 컨트롤러(350)는 제1 위치 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 위치 정보를 추정할 수 있다.The
제3 컨트롤러(350)는 GNSS 신호 및 제1 관성값에 기초하여 항법해를 생성할 수 있다.The
제3 컨트롤러(350)는 항법해 및 영상 정보를 이용하여 제1 위치 정보를 추정할 수 있다.The
제3 컨트롤러(350)는 GNSS 신호, 제1 관성값 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 속도 정보를 계산할 수 있다.The
제3 컨트롤러(350)는 제1 속도 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 속도 정보를 생성할 수 있다.The
도 7은 무인 항공기 위치 추정 시스템이 무인 항공기의 위치를 추정하는 순서의 일 예를 나타낸 도면이다.7 is a diagram showing an example of a procedure for estimating the position of the unmanned aerial vehicle by the unmanned aerial vehicle position estimation system.
도 7을 참조하면, 마스터 무인 항공기(100)는 GNSS 신호를 수신하고, 제1 관성값을 측정하고, 영상 정보를 생성할 수 있다(710).Referring to FIG. 7, the master unmanned
마스터 무인 항공기(100)는 GNSS 신호 및 제1 관성값으로 항법해를 생성할 수 있다(720). The master unmanned
마스터 무인 항공기(100)는 항법해 및 영상 정보에 기초하여 제1 위치 정보를 추정할 수 있다(730).The master unmanned
마스터 무인 항공기(100)는 제1 위치 정보를 제2 무인 항공기로 전송할 수 있다(740).The master unmanned
서브 무인 항공기(200)는 제1 위치 정보를 수신할 수 있다(752). 서브 무인 항공기(200)는 제2 관성값을 측정할 수 있다(754).The sub unmanned
서브 무인 항공기(200)는 제1 위치 정보 및 제2 관성값에 기초하여 제2 위치 정보를 추정할 수 있다(760).The sub unmanned
도 8은 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 모식도이고, 도 9는 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 일 예를 나타낸 도면이다.FIG. 8 is a schematic diagram of an image captured from the sky by the master unmanned aerial vehicle shown in FIG. 2, and FIG. 9 is a view showing an example of an image captured by the master unmanned aerial vehicle shown in FIG. 2.
도 8을 참조하면, 통신에 방해되는 장애물들(a 내지 f) 및 서브 무인 항공기들(810, 820, 830)을 상공에서 바라보는 마스터 무인 항공기(100)의 시점을 나타낼 수 있다.Referring to FIG. 8, a viewpoint of the master unmanned
마스터 무인 항공기(100)는 도 8과 같이 서브 무인 항공기들(810, 820, 및 830)의 상공에서 서브 무인 항공기들(810, 820, 및 830)의 위치를 파악할 수 있다.As shown in FIG. 8, the master unmanned
마스터 무인 항공기(100)는 서브 무인 항공기들(810, 820, 및 830)을 포함하는 사진을 촬영할 수 있다. 마스터 무인 항공기(100)는 촬영한 사진으로 서브 무인 항공기들(810, 820, 및 830)의 상대적 위치 정보를 생성할 수 있다.The master unmanned
도 9를 참조하면, 마스터 무인 항공기(100)의 시점으로 촬영된 사진의 일 예를 나타낼 수 있다. 이처럼, 서브 무인 항공기(200)가 통신 음영 지역에 있을때, 마스터 무인 항공기(100)가 서브 무인 항공기(200)의 상공에서 통신 위성(1)의 GNSS 신호 등의 통신 신호를 제공할 수 있다.Referring to FIG. 9, an example of a picture taken from the viewpoint of the master unmanned
또한, 마스터 무인 항공기(100)는 도 9와 같은 영상 정보로 서브 무인 항공기(200)의 제1 위치 정보를 생성할 수 있다. 마스터 무인 항공기(100)는 서브 무인 항공기(200)로부터 수신한 제2 관성값에 기초하여 제2 위치 정보를 생성할 수 있다.In addition, the master unmanned
상술한 바와 같이, 무인 항공기 위치 추정 시스템(20)은 도심 환경, 교량아래 등과 같이 높은 장애물이 많아 위성 측위 시스템인 GNSS를 사용할 수 없거나 신뢰하기 힘든 경우 등의 위성 음영 환경에서 무인 항공기의 위치 추정의 정확도 및 통신 가용성을 향상시킬 수 있다.As described above, the unmanned aerial vehicle position estimation system 20 is used to estimate the position of the unmanned aerial vehicle in a satellite shading environment, such as when the GNSS, which is a satellite positioning system, cannot be used or is difficult to trust because there are many high obstacles such as an urban environment, under a bridge, etc. Accuracy and communication availability can be improved.
무인 항공기 위치 추정 시스템(20)은 카메라 등을 탑재한 마스터 무인 항공기를 이용함으로써 상대항법 플랫폼 및 검출 영역의 이동성(mobility)를 확보하고, 국소 영역 내 다수의 서브 무인 항공기에 항법 보조 정보를 보내 제2 무인 항공기의 위치 추정 성능을 개선할 수 있다.The unmanned aerial vehicle position estimation system 20 secures the mobility of the relative navigation platform and detection area by using a master unmanned aerial vehicle equipped with a camera, and sends navigation assistance information to a number of sub-unmanned aerial vehicles in the local area to provide information. 2 It can improve the position estimation performance of unmanned aerial vehicles.
무인 항공기 위치 추정 시스템(20)은 하나의 마스터 무인 항공기를 통해 다수의 임무 수행용 서브 무인 항공기에 항법 측정치를 제공할 수 있어 도심 지역 등 장애물이 많은 지역에서 다수 비행, 군집 비행 등의 임무를 수행할 때 효과적일 수 있다.The unmanned aerial vehicle position estimation system 20 can provide navigation measurements to sub-unmanned aerial vehicles for performing multiple missions through one master unmanned aerial vehicle, so that it performs missions such as multi-flying and swarming in areas with many obstacles, such as urban areas. It can be effective when done.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the following claims.
Claims (12)
상기 서브 무인 항공기가 상기 마스터 무인 항공기(Unmanned Aerial Vehicle)로부터 상기 서브 무인 항공기의 1차 추정 위치 정보를 수신하는 단계; 및
상기 서브 무인 항공기가 상기 1차 추정 위치 정보 및 상기 서브 무인 항공기의 제2 관성값에 기초하여 상기 서브 무인 항공기의 최종 추정 위치 정보를 추정하는 단계
를 포함하고,
상기 1차 추정 위치 정보는 상기 마스터 무인 항공기가 GNSS(Global Navigation Satellite System) 신호, 상기 마스터 무인 항공기에 대한 제1 관성값, 및 상기 마스터 무인 항공기가 상공에서 촬영한 상기 서브 무인 항공기의 영상 정보에 기초하여 추정한 것이고,
상기 1차 추정 위치 정보 및 상기 최종 추정 위치 정보는 상기 서브 무인 항공기에 대한 절대적 위치 정보인
무인 항공기 위치 추정 방법.
In the method for estimating the position of the sub unmanned aerial vehicle using the master unmanned aerial vehicle,
Receiving, by the sub unmanned aerial vehicle, first estimated position information of the sub unmanned aerial vehicle from the master unmanned aerial vehicle; And
Estimating, by the sub unmanned aerial vehicle, final estimated location information of the sub unmanned aerial vehicle based on the first estimated location information and a second inertia value of the sub unmanned aerial vehicle
Including,
The first estimated location information is based on a GNSS (Global Navigation Satellite System) signal by the master unmanned aerial vehicle, a first inertia value for the master unmanned aerial vehicle, and image information of the sub unmanned aerial vehicle captured by the master unmanned aerial vehicle from above. Is an estimate based on
The first estimated location information and the final estimated location information are absolute location information for the sub unmanned aerial vehicle.
How to estimate the location of the drone.
상기 1차 추정 위치정보는,
상기 GNSS 신호와 상기 제1 관성값에 기초하여 생성된 항법해(Navigation Solution) 및 상기 영상 정보를 이용하여 추정된
무인 항공기 위치 추정 방법.
The method of claim 1,
The first estimated location information,
Estimated using the navigation solution and the image information generated based on the GNSS signal and the first inertia value
How to estimate the location of the drone.
상기 서브 무인 항공기가 상기 마스터 무인 항공기로부터 상기 서브 무인 항공기의 제1 속도 정보를 수신하는 단계; 및
상기 서브 무인 항공기가 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 서브 무인 항공기의 제2 속도 정보를 생성하는 단계
를 더 포함하는 무인 항공기 위치 추정 방법.
The method of claim 1,
Receiving, by the sub unmanned aerial vehicle, first speed information of the sub unmanned aerial vehicle from the master unmanned aerial vehicle; And
Generating, by the sub unmanned aerial vehicle, second speed information of the sub unmanned aerial vehicle based on the first speed information and the second inertia value
Unmanned aerial vehicle position estimation method further comprising a.
상기 제1 속도 정보는
상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 계산된 무인 항공기 위치 추정 방법.
The method of claim 3,
The first speed information is
A method of estimating the position of the unmanned aerial vehicle calculated based on the GNSS signal, the first inertia value, and the image information.
상기 위치 추정 장치가 상기 서브 무인 항공기로부터 상기 서브 무인 항공기의 제2 관성값을 수신하는 단계; 및
상기 위치 추정 장치가 상기 GNSS 신호, 상기 제1 관성값, 상기 제2 관성값, 및 상기 영상 정보에 기초하여 상기 서브 무인 항공기의 최종 추정 위치 정보를 추정하는 단계
를 포함하고,
상기 최종 추정 위치 정보는 상기 서브 무인 항공기에 대한 절대적 위치 정보인
무인 항공기 위치 추정 방법.
Receiving, by a position estimation apparatus, a Global Navigation Satellite System (GNSS) signal from a master unmanned aerial vehicle, a first inertial value of the master unmanned aerial vehicle, and image information of a sub unmanned aerial vehicle captured by the master unmanned aerial vehicle from above;
Receiving, by the position estimation apparatus, a second inertia value of the sub unmanned aerial vehicle from the sub unmanned aerial vehicle; And
Estimating, by the position estimating apparatus, final estimated position information of the sub unmanned aerial vehicle based on the GNSS signal, the first inertia value, the second inertia value, and the image information
Including,
The final estimated location information is absolute location information for the sub unmanned aerial vehicle.
How to estimate the location of the drone.
상기 추정하는 단계는,
상기 GNSS 신호, 상기 제1 관성값, 및 상기 영상 정보에 기초하여 상기 서브 무인 항공기의 1차 추정 위치 정보를 추정하는 단계; 및
상기 1차 추정 위치 정보 및 상기 제2 관성값에 기초하여 상기 서브 무인 항공기의 최종 추정 위치 정보를 추정하는 단계
를 포함하고,
상기 1차 추정 위치 정보는 상기 서브 무인 항공기에 대한 절대적 위치 정보인
무인 항공기 위치 추정 방법.
The method of claim 5,
The estimating step,
Estimating first estimated position information of the sub unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information; And
Estimating final estimated position information of the sub unmanned aerial vehicle based on the first estimated position information and the second inertial value
Including,
The first estimated location information is absolute location information for the sub unmanned aerial vehicle.
How to estimate the location of the drone.
상기 1차 추정 위치 정보를 추정하는 단계는,
상기 GNSS 신호 및 상기 제1 관성값에 기초하여 항법해(Navigation Solution)를 생성하는 단계; 및
상기 항법해 및 상기 영상 정보를 이용하여 상기 1차 추정 위치 정보를 추정하는 단계
를 포함하는 무인 항공기 위치 추정 방법.
The method of claim 6,
The step of estimating the first estimated location information,
Generating a navigation solution based on the GNSS signal and the first inertia value; And
Estimating the first estimated position information using the navigation solution and the image information
Unmanned aerial vehicle position estimation method comprising a.
상기 위치 추정 장치가 상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 상기 서브 무인 항공기의 제1 속도 정보를 계산하는 단계; 및
상기 위치 추정 장치가 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 서브 무인 항공기의 제2 속도 정보를 생성하는 단계
를 더 포함하는 무인 항공기 위치 추정 방법.The method of claim 5,
Calculating, by the position estimation apparatus, first speed information of the sub unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information; And
Generating, by the position estimating device, second speed information of the sub unmanned aerial vehicle based on the first speed information and the second inertia value
Unmanned aerial vehicle position estimation method further comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180162061A KR102243649B1 (en) | 2018-12-14 | 2018-12-14 | Unmanned aerial vehicle ad-hoc location estimation system in urban environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180162061A KR102243649B1 (en) | 2018-12-14 | 2018-12-14 | Unmanned aerial vehicle ad-hoc location estimation system in urban environment |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200073659A KR20200073659A (en) | 2020-06-24 |
KR102243649B1 true KR102243649B1 (en) | 2021-04-22 |
Family
ID=71407778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180162061A Active KR102243649B1 (en) | 2018-12-14 | 2018-12-14 | Unmanned aerial vehicle ad-hoc location estimation system in urban environment |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102243649B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102453333B1 (en) * | 2020-10-23 | 2022-10-11 | 주식회사 성진디에스피 | Drone performance test system using gps signals |
KR102591631B1 (en) * | 2021-10-06 | 2023-10-20 | 주식회사 소프트그래피 | Device and method for deriving location of swarm flying drones |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017045143A1 (en) * | 2015-09-16 | 2017-03-23 | SZ DJI Technology Co., Ltd. | Systems and methods for positioning of uav |
JP2018005914A (en) | 2016-06-30 | 2018-01-11 | シャープ株式会社 | Autonomous movement control system, traveling unit, unmanned aircraft, and autonomous movement control method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101905052B1 (en) * | 2016-11-14 | 2018-10-05 | 동국대학교 산학협력단 | Drone for maintaining formation of swarm flight and method thereof |
KR101956447B1 (en) * | 2017-04-20 | 2019-03-12 | 한국과학기술원 | Method and apparatus for position estimation of unmanned vehicle based on graph structure |
KR20180120289A (en) * | 2017-04-26 | 2018-11-06 | (주)동연시스템 | Multi-vehicle control system using single regulator |
-
2018
- 2018-12-14 KR KR1020180162061A patent/KR102243649B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017045143A1 (en) * | 2015-09-16 | 2017-03-23 | SZ DJI Technology Co., Ltd. | Systems and methods for positioning of uav |
JP2018005914A (en) | 2016-06-30 | 2018-01-11 | シャープ株式会社 | Autonomous movement control system, traveling unit, unmanned aircraft, and autonomous movement control method |
Also Published As
Publication number | Publication date |
---|---|
KR20200073659A (en) | 2020-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102463176B1 (en) | Device and method to estimate position | |
US10565732B2 (en) | Sensor fusion using inertial and image sensors | |
EP1926007B1 (en) | Method and system for navigation of an unmanned aerial vehicle in an urban environment | |
EP3158411B1 (en) | Sensor fusion using inertial and image sensors | |
KR20200044420A (en) | Method and device to estimate position | |
TWI556198B (en) | Positioning and directing data analysis system and method thereof | |
KR101908534B1 (en) | Apparatus and method for determining position and attitude of a vehicle | |
US10642272B1 (en) | Vehicle navigation with image-aided global positioning system | |
KR101985344B1 (en) | Sliding windows based structure-less localization method using inertial and single optical sensor, recording medium and device for performing the method | |
KR102243649B1 (en) | Unmanned aerial vehicle ad-hoc location estimation system in urban environment | |
KR101821992B1 (en) | Method and apparatus for computing 3d position of target using unmanned aerial vehicles | |
JP2021143861A (en) | Information processor, information processing method, and information processing system | |
CN117320148A (en) | Multi-source data fusion positioning method, system, electronic equipment and storage medium | |
CN112902957B (en) | Missile-borne platform navigation method and system | |
CN113470342B (en) | Method and device for estimating self-movement | |
KR102186953B1 (en) | Method and system for tracking moving target | |
AU2018311656B2 (en) | In-flight azimuth determination | |
JP6974290B2 (en) | Position estimation device, position estimation method, program, and recording medium | |
Lukashevich et al. | The new approach for reliable UAV navigation based on onboard camera image processing | |
Indelman et al. | Real-time mosaic-aided aerial navigation: II. Sensor fusion | |
KR102171228B1 (en) | Method and Apparatus for Finger Printing-based Positioning in Urban Canyon Environment by using a Wide Angle Camera | |
WO2017022057A1 (en) | Location estimation device, location estimation method, and computer readable recording medium | |
KR102533943B1 (en) | Error cancellation method and device for IMU and gyroscope data using linear Kalman filter and GNSS information | |
CN116793340B (en) | Unmanned aerial vehicle automatic landing navigation method and device and electronic equipment | |
KR102372007B1 (en) | Method and apparatus for estimation of absolute position of a vehicle under gnss signal disabled area |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20181214 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200407 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20201026 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210415 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210419 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210419 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240326 Start annual number: 4 End annual number: 4 |