[go: up one dir, main page]

KR102243649B1 - Unmanned aerial vehicle ad-hoc location estimation system in urban environment - Google Patents

Unmanned aerial vehicle ad-hoc location estimation system in urban environment Download PDF

Info

Publication number
KR102243649B1
KR102243649B1 KR1020180162061A KR20180162061A KR102243649B1 KR 102243649 B1 KR102243649 B1 KR 102243649B1 KR 1020180162061 A KR1020180162061 A KR 1020180162061A KR 20180162061 A KR20180162061 A KR 20180162061A KR 102243649 B1 KR102243649 B1 KR 102243649B1
Authority
KR
South Korea
Prior art keywords
unmanned aerial
aerial vehicle
information
sub
location information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180162061A
Other languages
Korean (ko)
Other versions
KR20200073659A (en
Inventor
배재휴
성상경
이병진
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020180162061A priority Critical patent/KR102243649B1/en
Publication of KR20200073659A publication Critical patent/KR20200073659A/en
Application granted granted Critical
Publication of KR102243649B1 publication Critical patent/KR102243649B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • B64C2201/12
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/20Aircraft, e.g. drones

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

도심 환경에서의 무인 항공기 Ad-hoc 위치 추정 시스템이 개시된다. 일 실시예에 따른 무인 항공기 위치 추정 방법은, 제1 무인 항공기(Unmanned Aerial Vehicle)로부터 제2 무인 항공기의 제1 위치 정보를 수신하는 단계와, 상기 제1 위치 정보 및 상기 제2 무인 항공기의 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 위치 정보를 추정하는 단계를 포함하고, 상기 제1 위치 정보는 GNSS(Global Navigation Satellite System) 신호, 상기 제1 무인 항공기에 대한 제1 관성값, 및 상기 제1 무인 항공기가 상공에서 촬영한 제2 무인 항공기의 영상 정보에 기초하여 추정된다.An unmanned aerial vehicle Ad-hoc position estimation system in an urban environment is disclosed. The method for estimating the location of the unmanned aerial vehicle according to an embodiment includes the steps of receiving first location information of a second unmanned aerial vehicle from a first unmanned aerial vehicle, and the first location information and the first location information of the second unmanned aerial vehicle. 2 estimating second location information of the second unmanned aerial vehicle based on an inertia value, wherein the first location information includes a Global Navigation Satellite System (GNSS) signal, and a first inertia value for the first unmanned aerial vehicle , And the first unmanned aerial vehicle is estimated based on image information of the second unmanned aerial vehicle photographed from above.

Description

도심 환경에서의 무인 항공기 Ad-hoc 위치 추정 시스템{UNMANNED AERIAL VEHICLE AD-HOC LOCATION ESTIMATION SYSTEM IN URBAN ENVIRONMENT}Unmanned aerial vehicle ad-hoc location estimation system in urban environment {UNMANNED AERIAL VEHICLE AD-HOC LOCATION ESTIMATION SYSTEM IN URBAN ENVIRONMENT}

아래 실시예들은 도심 환경에서의 무인 항공기 Ad-hoc 위치 추정 시스템에 관한 것이다.The following embodiments relate to an unmanned aerial vehicle Ad-hoc position estimation system in an urban environment.

무선통신 방식을 통해 원격 제어되는 무인 항공기(Unmanned Aerial Vehicle)는 군사용으로 개발되어 단순한 사격 연습에 사용되었다. 최근 들어, 무인 항공기는 전자통신 기술의 지속적인 발전에 따라 군사용뿐만 아니라 그 이외의 다양한 분야로 확대 보급되고 있다.Unmanned Aerial Vehicles, which are remotely controlled through wireless communication, were developed for military use and were used for simple shooting practice. In recent years, unmanned aerial vehicles have been expanded and spread not only to military use but also to various other fields according to the continuous development of electronic communication technology.

무인 항공기는 위성 측위 시스템인 GNSS(Global Navigation Satellite System) 신호를 수신하여 자신의 위치 정보를 업데이트한다. 하지만, 무인 항공기가 수신하는 GNSS 신호가 도심 건물이나 빌딩 등의 장애물에 막혀 수신이 불가한 경우 무인 항공기는 자신의 위치 정보를 업데이트할 수 없다.The unmanned aerial vehicle updates its location information by receiving signals from the Global Navigation Satellite System (GNSS), which is a satellite positioning system. However, if the GNSS signal received by the unmanned aerial vehicle is blocked by an obstacle such as an urban building or a building and cannot be received, the unmanned aerial vehicle cannot update its location information.

이 경우 무인 항공기는 고정된 위치에 설치된 비콘(Beacon) 등의 전파 발생 장치를 이용하거나, 고정된 위치에 설치된 카메라가 무인 항공기를 촬영한 영상 정보를 이용하는 등의 방법으로 위치를 추정하였다.In this case, the unmanned aerial vehicle estimated the location by using a radio wave generating device such as a beacon installed at a fixed location, or by using image information captured by a camera installed at a fixed location of the unmanned aerial vehicle.

하지만, 사전에 위치 추정을 위한 장치가 고정적으로 설치되어 있지 않은 지역에서는 무인항공기의 위치 추정이 어렵다.However, it is difficult to estimate the location of the unmanned aerial vehicle in an area where a device for location estimation is not fixedly installed in advance.

실시예들은 제1 무인 항공기가 통신 음영(shadowing) 지역에 있는 제2 무인 항공기의 위치 추정에 필요한 데이터를 유동적으로 제공함으로써, 무인 항공기가 통신 음영 지역에 있어도 위치 정보 등을 업데이트할 수 있는 기술을 제공할 수 있다.The embodiments provide a technology that allows the first unmanned aerial vehicle to flexibly provide data necessary for estimating the location of the second unmanned aerial vehicle in a communication shadowing area, thereby updating location information, etc. even when the unmanned aerial vehicle is in a communication shadowing area. Can provide.

일 실시예에 따른 무인 항공기 위치 추정 방법은, 제1 무인 항공기(Unmanned Aerial Vehicle)로부터 제2 무인 항공기의 제1 위치 정보를 수신하는 단계와, 상기 제1 위치 정보 및 상기 제2 무인 항공기의 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 위치 정보를 추정하는 단계를 포함하고, 상기 제1 위치 정보는 GNSS(Global Navigation Satellite System) 신호, 상기 제1 무인 항공기에 대한 제1 관성값, 및 상기 제1 무인 항공기가 상공에서 촬영한 제2 무인 항공기의 영상 정보에 기초하여 추정된다.The method for estimating the location of the unmanned aerial vehicle according to an embodiment includes the steps of receiving first location information of a second unmanned aerial vehicle from a first unmanned aerial vehicle, and the first location information and the first location information of the second unmanned aerial vehicle. 2 estimating second location information of the second unmanned aerial vehicle based on an inertia value, wherein the first location information includes a Global Navigation Satellite System (GNSS) signal, and a first inertia value for the first unmanned aerial vehicle , And the first unmanned aerial vehicle is estimated based on image information of the second unmanned aerial vehicle photographed from above.

상기 제1 위치정보는, 상기 GNSS 신호와 상기 제1 관성값에 기초하여 생성된 항법해(Navigation Solution) 및 상기 영상 정보를 이용하여 추정할 수 있다.The first location information may be estimated using the image information and a navigation solution generated based on the GNSS signal and the first inertia value.

상기 방법은, 상기 제1 무인 항공기로부터 상기 제2 무인 항공기의 제1 속도 정보를 수신하는 단계와, 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 속도 정보를 생성하는 단계를 더 포함할 수 있다.The method includes receiving first speed information of the second unmanned aerial vehicle from the first unmanned aerial vehicle, and second speed information of the second unmanned aerial vehicle based on the first speed information and the second inertia value It may further include the step of generating.

상기 제1 속도 정보는 상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 계산할 수 있다.The first speed information may be calculated based on the GNSS signal, the first inertia value, and the image information.

다른 일 실시예에 따른 무인 항공기 위치 추정 방법은, GNSS(Global Navigation Satellite System) 신호 및 제1 무인 항공기(Unmanned Aerial Vehicle)의 제1 관성값을 수신하는 단계와, 상기 GNSS 신호, 상기 제1 관성값, 제2 무인 항공기의 제2 관성값, 및 상기 제2 무인 항공기가 상공에서 촬영한 상기 제1 무인 항공기의 영상 정보에 기초하여 상기 제1 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함한다.A method for estimating a location of an unmanned aerial vehicle according to another embodiment includes the steps of receiving a Global Navigation Satellite System (GNSS) signal and a first inertia value of a first unmanned aerial vehicle, the GNSS signal, and the first inertia. Estimating first location information of the first unmanned aerial vehicle based on a value, a second inertia value of the second unmanned aerial vehicle, and image information of the first unmanned aerial vehicle captured by the second unmanned aerial vehicle from above do.

상기 추정하는 단계는, 상기 GNSS 신호, 상기 제2 관성값, 및 상기 영상 정보에 기초하여 상기 제1 무인 항공기의 제2 위치 정보를 추정하는 단계와, 상기 제2 위치 정보 및 상기 제1 관성값에 기초하여 상기 제1 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함할 수 있다.The estimating may include estimating second position information of the first unmanned aerial vehicle based on the GNSS signal, the second inertia value, and the image information, and the second position information and the first inertia value It may include the step of estimating the first location information of the first unmanned aerial vehicle.

상기 제2 위치 정보를 추정하는 단계는, 상기 GNSS 신호 및 상기 제2 관성값에 기초하여 항법해(Navigation Solution)를 생성하는 단계와, 상기 항법해 및 상기 영상 정보를 이용하여 상기 제2 위치 정보를 추정하는 단계를 포함할 수 있다.The step of estimating the second location information includes generating a navigation solution based on the GNSS signal and the second inertia value, and the second location information using the navigation solution and the image information. It may include the step of estimating.

상기 방법은, 상기 GNSS 신호, 상기 제2 관성값 및 상기 영상 정보에 기초하여 상기 제1 무인 항공기의 제1 속도 정보를 계산하는 단계와, 상기 제1 속도 정보 및 상기 제1 관성값에 기초하여 상기 제1 무인 항공기의 제2 속도 정보를 생성하는 단계를 더 포함할 수 있다.The method includes calculating first speed information of the first unmanned aerial vehicle based on the GNSS signal, the second inertia value, and the image information, and based on the first speed information and the first inertia value. It may further include generating second speed information of the first unmanned aerial vehicle.

또 다른 일 실시예에 따른 무인 항공기 위치 추정 방법은, 제1 무인 항공기 및 제2 무인 항공기의 위치를 추정하는 방법에 있어서, 상기 제2 무인 항공기를 촬영하여 영상 정보를 생성하는 단계와, GNSS 신호, 상기 제1 무인 항공기의 제1 관성값, 상기 제2 무인 항공기의 제2 관성값, 및 상기 제1 무인 항공기가 상공에서 촬영한 상기 제2 무인 항공기의 영상 정보에 기초하여 상기 제2 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함한다.A method for estimating a location of a drone according to another embodiment is a method of estimating the location of a first unmanned aerial vehicle and a second unmanned aerial vehicle, the step of generating image information by photographing the second unmanned aerial vehicle, and a GNSS signal , The second unmanned aerial vehicle based on the first inertia value of the first unmanned aerial vehicle, the second inertial value of the second unmanned aerial vehicle, and the image information of the second unmanned aerial vehicle captured by the first unmanned aerial vehicle in the sky. And estimating the first location information of.

상기 추정하는 단계는, 상기 GNSS 신호 및 상기 제1 관성값, 상기 영상 정보에 기초하여 상기 제2 무인 항공기의 제2 위치 정보를 추정하는 단계와, 상기 제1 위치 정보 및 상기 제2 관성값에 기초하여 상기 제2 무인 항공기의 제1 위치 정보를 추정하는 단계를 포함할 수 있다.The estimating may include estimating second position information of the second unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information, and the first position information and the second inertia value It may include the step of estimating the first location information of the second unmanned aerial vehicle.

상기 제2 위치 정보를 추정하는 단계는, 상기 GNSS 신호 및 상기 제1 관성값에 기초하여 항법해(Navigation Solution)를 생성하는 단계와, 상기 항법해 및 상기 영상 정보를 이용하여 상기 제2 위치 정보를 추정하는 단계를 포함할 수 있다.The step of estimating the second location information includes generating a navigation solution based on the GNSS signal and the first inertia value, and the second location information using the navigation solution and the image information. It may include the step of estimating.

상기 방법은, 상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 상기 제2 무인 항공기의 제1 속도 정보를 계산하는 단계와, 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 제2 무인 항공기의 제2 속도 정보를 생성하는 단계를 더 포함할 수 있다.The method includes calculating first speed information of the second unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information, and based on the first speed information and the second inertia value. It may further include generating second speed information of the second unmanned aerial vehicle.

도 1은 무인 항공기가 장애물에 의해 통신 신호를 수신하지 못하는 상황을 나타낸 도면이다.
도 2는 일 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이다.
도 3은 다른 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이다.
도 4는 도 2에 도시된 마스터 무인 항공기의 개략적인 블록도이다.
도 5는 도 2에 도시된 서브 무인 항공기의 개략적인 블록도이다.
도 6은 도 3에 도시된 위치 추정 장치의 구체적인 블록도이다.
도 7은 무인 항공기 위치 추정 시스템이 무인 항공기의 위치를 추정하는 순서의 일 예를 나타낸 도면이다.
도 8은 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 모식도이다.
도 9는 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 일 예를 나타낸 도면이다.
1 is a diagram showing a situation in which the unmanned aerial vehicle cannot receive a communication signal due to an obstacle.
2 is a diagram illustrating a system for estimating a location of an unmanned aerial vehicle according to an exemplary embodiment.
3 is a diagram illustrating a system for estimating a location of an unmanned aerial vehicle according to another embodiment.
Figure 4 is a schematic block diagram of the master unmanned aerial vehicle shown in Figure 2;
5 is a schematic block diagram of the sub unmanned aerial vehicle shown in FIG. 2.
6 is a detailed block diagram of the position estimation apparatus shown in FIG. 3.
7 is a diagram showing an example of a procedure for estimating the position of the unmanned aerial vehicle by the unmanned aerial vehicle position estimation system.
8 is a schematic diagram of an image captured by the master unmanned aerial vehicle shown in FIG. 2 from above.
9 is a diagram showing an example of an image captured from the sky by the master unmanned aerial vehicle shown in FIG. 2.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.

제1 또는 제2등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해서 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 실시예의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the embodiment, the first component may be named as the second component, and similarly The second component may also be referred to as a first component.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.

도 1은 무인 항공기가 장애물에 의해 통신 신호를 수신하지 못하는 상황을 나타낸 도면이다.1 is a diagram showing a situation in which the unmanned aerial vehicle cannot receive a communication signal due to an obstacle.

도 1을 참조하면, 무선 통신 방식을 통해 원격 제어되는 무인 항공기(Unmanned Aerial Vehicle; 10)는 군사용으로 개발되어 단순한 사격 연습에 사용되었을 수 있다. 최근 들어, 무인 항공기(10)는 전자통신 기술의 지속적인 발전에 따라 군사용뿐만 아니라 그 이외의 다양한 분야로 확대 보급되고 있을 수 있다.Referring to FIG. 1, an unmanned aerial vehicle 10 remotely controlled through a wireless communication method may be developed for military use and used for simple shooting practice. In recent years, the unmanned aerial vehicle 10 may be expanded and spread not only to military use but also to various fields other than that according to the continuous development of electronic communication technology.

예를 들어, 무인 항공기(10)는 통신 위성(1)에서 위성 측위 시스템인 GNSS(Global Navigation Satellite System) 신호(2)를 수신하여 자신의 위치 정보를 업데이트할 수 있다. 하지만, 무인 항공기(10)가 수신하는 GNSS 신호(2)가 도심 건물이나 빌딩 등의 장애물에 막혀 수신이 불가한 경우(11) 무인 항공기(10)는 자신의 위치 정보를 업데이트하지 못할 수 있다.For example, the unmanned aerial vehicle 10 may receive a Global Navigation Satellite System (GNSS) signal 2, which is a satellite positioning system, from the communication satellite 1 and update its location information. However, when the GNSS signal 2 received by the unmanned aerial vehicle 10 is blocked by an obstacle such as an urban building or a building and cannot be received (11), the unmanned aerial vehicle 10 may not be able to update its own location information.

이 경우 무인 항공기(10)는 고정된 위치에 설치된 비콘(Beacon) 등의 전파 발생 장치를 이용하거나, 고정된 위치에 설치된 카메라가 무인 항공기를 촬영한 영상 정보를 이용하는 등의 방법으로 자신의 위치 등을 추정할 수 있다.In this case, the unmanned aerial vehicle 10 uses a radio wave generating device such as a beacon installed at a fixed location, or a camera installed at a fixed location uses image information of the unmanned aerial vehicle. Can be estimated.

하지만, 무인 항공기는 사전에 위치 추정을 위한 장치가 고정적으로 설치되어 있지 않은 지역에서는 자신의 위치 추정이 어려울 수 있다.However, in an unmanned aerial vehicle, it may be difficult to estimate its own location in an area where a device for location estimation is not fixedly installed in advance.

실시예들은 제1 무인 항공기가 통신 음영 지역에 있는 제2 무인 항공기의 위치 추정에 필요한 데이터를 유동적으로 제공함으로써, 무인 항공기가 사전에 위치 추정을 위한 장치가 고정적으로 설치되어 있지 않은 통신 음영 지역에 있어도 수신한 데이터를 이용하여 위치 정보 등을 업데이트할 수 있는 기술을 제공할 수 있다.In the embodiments, the first unmanned aerial vehicle flexibly provides data necessary for estimating the position of the second unmanned aerial vehicle in the communication shadow area, so that the unmanned aerial vehicle is in a communication shadow area where a device for location estimation is not fixedly installed in advance. Even if there is, it is possible to provide a technology capable of updating location information and the like using the received data.

이하에서는, 도 2 내지 도 6을 참조하여 실시예들을 설명하도록 한다.Hereinafter, embodiments will be described with reference to FIGS. 2 to 6.

도 2는 일 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이고, 도 3은 다른 실시예에 따른 무인 항공기 위치 추정 시스템을 나타낸 도면이다.FIG. 2 is a diagram illustrating a system for estimating a position of an unmanned aerial vehicle according to an embodiment, and FIG. 3 is a diagram illustrating a system for estimating a position of an unmanned aerial vehicle according to another embodiment.

도 2를 참조하면, 무인 항공기 위치 추정 시스템(20)은 마스터 무인 항공기(100) 및 서브 무인 항공기(200)를 포함한다.Referring to FIG. 2, the unmanned aerial vehicle position estimation system 20 includes a master unmanned aerial vehicle 100 and a sub unmanned aerial vehicle 200.

무인 항공기 위치 추정 시스템(20)은 도심 환경, 교량 아래 등과 같은 통신 장애물이 많아 통신 가용성(Availability)이 떨어지는 통신 음영(Shadowing) 환경에서 서브 무인 항공기(200)의 위치 추정의 정확도 및 통신 가용성을 향상시킬 수 있다.The unmanned aerial vehicle position estimation system 20 improves the accuracy and communication availability of the position estimation of the sub unmanned aerial vehicle 200 in a communication shadowing environment where communication availability is low due to a large number of communication obstacles such as an urban environment, under a bridge, etc. I can make it.

무인 항공기 위치 추정 시스템(20)은 단수의 마스터 무인 항공기(100)와 단수의 서브 무인 항공기(200)로 구현될 수 있다. 무인 항공기 위치 추정 시스템(20)은 단수의 마스터 무인 항공기(100)와 복수의 서브 무인 항공기(200)로 구현될 수 있다. 무인 항공기 위치 추정 시스템(20)은 복수의 마스터 무인 항공기(100)와 복수의 서브 무인 항공기(200)로 구현될 수 있다.The unmanned aerial vehicle position estimation system 20 may be implemented with a single master unmanned aerial vehicle 100 and a single sub unmanned aerial vehicle 200. The unmanned aerial vehicle position estimation system 20 may be implemented with a single master unmanned aerial vehicle 100 and a plurality of sub unmanned aerial vehicles 200. The unmanned aerial vehicle position estimation system 20 may be implemented with a plurality of master unmanned aerial vehicles 100 and a plurality of sub unmanned aerial vehicles 200.

마스터 무인 항공기(100)는 통신 위성(1)과 통신 가능하며, 통신 음영 지역에 있는 서브 무인 항공기(200)와 통신 가능한 곳에 유동적으로 배치되어 서브 무인 항공기(200)에게 통신 신호를 송신할 수 있다. The master unmanned aerial vehicle 100 is capable of communicating with the communication satellite 1, and is flexibly disposed in a place capable of communicating with the sub unmanned aerial vehicle 200 in the communication shaded area to transmit a communication signal to the sub unmanned aerial vehicle 200. .

마스터 무인 항공기(100)를 통신 음영 지역에 유동적으로 배치하는 것이 가능해 지면서, 기존에 전파 발생 장치 및/또는 카메라 등이 고정적으로 설치되어 있어야 통신 음영 지역에 있는 무인 항공기의 위치를 추정할 수 있었던 한계를 해결할 수 있다.As it becomes possible to flexibly deploy the master unmanned aerial vehicle 100 in the communication shaded area, it is possible to estimate the location of the unmanned aerial vehicle in the communication shaded area only when a radio wave generating device and/or a camera is installed fixedly. Can be solved.

마스터 무인 항공기(100)는 통신 음영 지역에 있는 서브 무인 항공기(200)로 통신 신호를 송신할 수 있다. 마스터 무인 항공기(100)는 음영 지역에 있는 서브 무인 항공기(200)의 위치 추정 등을 위한 데이터를 제공할 수 있다. 마스터 무인 항공기(100)의 구체적인 동작은 도 4에서 상세히 살펴보기로 한다.The master unmanned aerial vehicle 100 may transmit a communication signal to the sub unmanned aerial vehicle 200 in a communication shaded area. The master unmanned aerial vehicle 100 may provide data for estimating the location of the sub unmanned aerial vehicle 200 in the shaded area. The detailed operation of the master unmanned aerial vehicle 100 will be described in detail in FIG. 4.

서브 무인 항공기(200)는 마스터 무인 항공기(100)가 전송하는 데이터를 수신하고, 수신된 데이터에 기초하여 자신의 위치 정보 등을 추정할 수 있다. 서브 무인 항공기(200)는 마스터 무인 항공기(100)가 전송하는 데이터를 수신하고, 수신된 데이터에 기초하여 속도 정보 등을 생성할 수 있다.The sub unmanned aerial vehicle 200 may receive data transmitted by the master unmanned aerial vehicle 100 and estimate its own location information, etc. based on the received data. The sub unmanned aerial vehicle 200 may receive data transmitted by the master unmanned aerial vehicle 100 and generate speed information or the like based on the received data.

서브 무인 항공기(200)는 도심 환경 등에 위치하여 통신 위성(1)의 신호를 전달받지 못할 때, 마스터 무인 항공기(100)가 전송하는 데이터에 기초하여 자신의 위치 정보 및/또는 속도 정보 등을 업데이트 할 수 있다. When the sub unmanned aerial vehicle 200 is located in an urban environment and does not receive a signal from the communication satellite 1, it updates its own location information and/or speed information based on the data transmitted by the master unmanned aerial vehicle 100 can do.

서브 무인 항공기(200)는 마스터 무인 항공기(100)에 의해 측정된 서브 무인 항공기(200)의 위치 정보를 이용하여 자신의 위치 정보(예를 들어, 서브 무인 항공기(200)의 위치 정보)를 업데이트함으로써, 서브 무인 항공기(200)의 위치 추정 성능이 향상될 수 있다. 서브 무인 항공기(200)의 구체적인 동작은 도 5에서 상세히 살펴보기로 한다.The sub unmanned aerial vehicle 200 updates its own location information (eg, location information of the sub unmanned aerial vehicle 200) using the location information of the sub unmanned aerial vehicle 200 measured by the master unmanned aerial vehicle 100 By doing so, the position estimation performance of the sub unmanned aerial vehicle 200 may be improved. The detailed operation of the sub unmanned aerial vehicle 200 will be described in detail with reference to FIG. 5.

도 3을 참조하면, 무인 항공기 위치 추정 시스템(20)은 위치 추정 장치(300)를 더 포함할 수 있다.Referring to FIG. 3, the unmanned aerial vehicle position estimation system 20 may further include a position estimation apparatus 300.

위치 추정 장치(300)는 마스터 무인 항공기(100) 및 서브 무인 항공기(200)와 인터넷(3000)상으로 연결되어 통신할 수 있다. 위치 추정 장치(300)는 통신 위성(1), 마스터 무인 항공기(100), 및 서브 무인 항공기(200)로부터 데이터를 수신할 수 있다.The location estimation apparatus 300 may communicate with the master unmanned aerial vehicle 100 and the sub unmanned aerial vehicle 200 by being connected to the Internet 3000. The position estimation apparatus 300 may receive data from the communication satellite 1, the master unmanned aerial vehicle 100, and the sub unmanned aerial vehicle 200.

위치 추정 장치(300)는 수신된 데이터에 기초하여 서브 무인 항공기(200)의 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 추정할 수 있다.The position estimating apparatus 300 may estimate first position information, second position information, first speed information, and second speed information of the sub unmanned aerial vehicle 200 based on the received data.

위치 추정 장치(300)는 서브 무인 항공기(200)의 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 서브 무인 항공기(200)로 전송할 수 있다.The location estimation apparatus 300 may transmit first location information, second location information, first speed information, and second speed information of the sub unmanned aerial vehicle 200 to the sub unmanned aerial vehicle 200.

위치 추정 장치(300)의 구체적인 동작은 도 6에서 상세히 살펴보기로 한다.A detailed operation of the position estimation apparatus 300 will be described in detail with reference to FIG. 6.

도 4는 도 2에 도시된 마스터 무인 항공기의 개략적인 블록도이다.Figure 4 is a schematic block diagram of the master unmanned aerial vehicle shown in Figure 2;

도 4를 참조하면, 마스터 무인 항공기(100)는 수신기(110), 메모리(130), 컨트롤러(150), 및 카메라(170)를 포함할 수 있다. 마스터 무인 항공기(100)는 관성 측정 장치(미도시)를 더 포함할 수 있다.Referring to FIG. 4, the master unmanned aerial vehicle 100 may include a receiver 110, a memory 130, a controller 150, and a camera 170. The master unmanned aerial vehicle 100 may further include an inertial measurement device (not shown).

수신기(110)는 통신 위성(1)으로부터 GNSS 신호(2)를 수신할 수 있다. 수신기(110)는 서브 무인 항공기(200)로부터 제2 관성값을 수신할 수 있다.The receiver 110 may receive the GNSS signal 2 from the communication satellite 1. The receiver 110 may receive a second inertia value from the sub unmanned aerial vehicle 200.

메모리(130)는 컨트롤러(150)에 의해 실행 가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 컨트롤러(150)에 포함된 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The memory 130 may store instructions (or programs) executable by the controller 150. For example, the instructions may include instructions for executing an operation of each component included in the controller 150.

컨트롤러(150)는 GNSS 신호, 제1 관성값, 제2 관성값, 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 위치 정보를 추정할 수 있다.The controller 150 may estimate first location information of the sub unmanned aerial vehicle 200 based on the GNSS signal, the first inertia value, the second inertia value, and the image information.

제1 관성값은 관성 측정 장치(Inertial Measurement Unit; 미도시)로 측정된 값일 수 있다. 관성 측정 장치(미도시)는 하나 이상의 가속도계를 사용하여 가속도를 측정할 수 있다. 관성 측정 장치(미도시)는 하나 이상의 자이로스코프(Gyroscope)를 사용하여 회전 속도를 감지할 수 있다. 관성 측정 장치(미도시)는 자기 측정기를 사용하여 자기력을 측정할 수 있다.The first inertia value may be a value measured by an inertial measurement unit (not shown). An inertial measurement device (not shown) may measure acceleration using one or more accelerometers. The inertial measurement device (not shown) may detect the rotational speed using one or more gyroscopes. The inertial measuring device (not shown) may measure magnetic force using a magnetic measuring device.

컨트롤러(150)는 GNSS 신호, 제1 관성값, 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 위치 정보를 추정할 수 있다. 제1 위치 정보는 컨트롤러(150)가 서브 무인 항공기(200)의 절대적 위치를 1차적으로 추정한 위치 정보에 해당할 수 있다.The controller 150 may estimate first location information of the sub unmanned aerial vehicle 200 based on the GNSS signal, the first inertia value, and image information. The first location information may correspond to location information in which the controller 150 primarily estimates the absolute location of the sub unmanned aerial vehicle 200.

컨트롤러(150)는 카메라(170)가 촬영한 사진으로부터 서브 무인 항공기(200)를 식별하고 상대적 위치를 추출한 영상 정보를 생성할 수 있다.The controller 150 may identify the sub unmanned aerial vehicle 200 from a picture taken by the camera 170 and generate image information obtained by extracting a relative position.

컨트롤러(150)는 제1 위치 정보 및 제2 관성값에 기초하여 제2 무인 항공기의 제2 위치 정보를 추정할 수 있다. 제2 위치 정보는 최종적으로 추정된 서브 무인 항공기(200)의 현재 절대적 위치 정보를 의미할 수 있다.The controller 150 may estimate second location information of the second unmanned aerial vehicle based on the first location information and the second inertia value. The second location information may mean the finally estimated current absolute location information of the sub unmanned aerial vehicle 200.

컨트롤러(150)는 GNSS 신호 및 제1 관성값에 기초하여 항법해(Navigation Solution)를 생성할 수 있다.The controller 150 may generate a navigation solution based on the GNSS signal and the first inertia value.

컨트롤러(150)는 항법해 및 영상 정보를 이용하여 제1 위치 정보를 추정할 수 있다.The controller 150 may estimate the first location information using the navigation solution and image information.

컨트롤러(150)는 GNSS 신호, 제1 관성값 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 속도 정보를 계산할 수 있다.The controller 150 may calculate first speed information of the sub unmanned aerial vehicle 200 based on the GNSS signal, the first inertia value, and the image information.

컨트롤러(150)는 제1 속도 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 속도 정보를 생성할 수 있다. 제2 속도 정보는 최종적으로 추정된 서브 무인 항공기(200)의 현재 속도 정보를 의미할 수 있다.The controller 150 may generate second speed information of the sub unmanned aerial vehicle 200 based on the first speed information and the second inertia value. The second speed information may mean information on the current speed of the sub-unmanned aerial vehicle 200 that is finally estimated.

카메라(170)는 서브 무인 항공기(200)를 촬영하여 서브 무인 항공기(200)를 포함하는 사진을 생성할 수 있다.The camera 170 may photograph the sub unmanned aerial vehicle 200 to generate a photo including the sub unmanned aerial vehicle 200.

도 5는 도 2에 도시된 서브 무인 항공기의 개략적인 블록도이다.5 is a schematic block diagram of the sub unmanned aerial vehicle shown in FIG. 2.

도 5를 참조하면, 서브 무인 항공기(200)는 수신기(210), 메모리(230), 및 컨트롤러(250)를 포함할 수 있다. 서브 무인 항공기(200)는 관성 측정 장치(미도시)를 더 포함할 수 있다.Referring to FIG. 5, the sub unmanned aerial vehicle 200 may include a receiver 210, a memory 230, and a controller 250. The sub unmanned aerial vehicle 200 may further include an inertial measurement device (not shown).

수신기(210)는 마스터 무인 항공기(100)가 전송하는 데이터를 수신할 수 있다. 마스터 무인 항공기(100)가 전송하는 데이터에는 GNSS 신호, 제1 관성값, 영상 정보, 항법해, 제1 위치 정보, 및 제1 속도 정보 등이 포함될 수 있다.The receiver 210 may receive data transmitted by the master unmanned aerial vehicle 100. The data transmitted by the master unmanned aerial vehicle 100 may include a GNSS signal, a first inertia value, image information, a navigation solution, first position information, and first speed information.

메모리(230)는 컨트롤러(250)에 의해 실행 가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 컨트롤러(250)에 포함된 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The memory 230 may store instructions (or programs) executable by the controller 250. For example, the instructions may include instructions for executing an operation of each component included in the controller 250.

컨트롤러(250)는 제1 위치 정보 및 제2 무인 항공기의 제2 관성값에 기초하여 제2 무인 항공기의 제2 위치 정보를 추정할 수 있다.The controller 250 may estimate second location information of the second unmanned aerial vehicle based on the first location information and a second inertia value of the second unmanned aerial vehicle.

제2 관성값은 관성 측정 장치(미도시)로 측정된 값일 수 있다. 관성 측정 장치(미도시)는 하나 이상의 가속도계를 사용하여 가속도를 측정할 수 있다. 관성 측정 장치(미도시)는 하나 이상의 자이로스코프(Gyroscope)를 사용하여 회전 속도를 감지할 수 있다. 관성 측정 장치(미도시)는 자기 측정기를 사용하여 자기력을 측정할 수 있다.The second inertia value may be a value measured by an inertial measuring device (not shown). An inertial measurement device (not shown) may measure acceleration using one or more accelerometers. The inertial measurement device (not shown) may detect the rotational speed using one or more gyroscopes. The inertial measuring device (not shown) may measure magnetic force using a magnetic measuring device.

컨트롤러(250)는 제1 속도 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 속도 정보를 생성할 수 있다.The controller 250 may generate second speed information of the sub unmanned aerial vehicle 200 based on the first speed information and the second inertia value.

도 6은 도 3에 도시된 위치 추정 장치의 개략적인 블록도이다.6 is a schematic block diagram of the position estimation apparatus shown in FIG. 3.

도 6을 참조하면, 위치 추정 장치(300)는 수신기(310), 메모리(330), 및 제3 컨트롤러(350)를 포함할 수 있다.Referring to FIG. 6, the position estimation apparatus 300 may include a receiver 310, a memory 330, and a third controller 350.

수신기(310)는 마스터 무인 항공기(100)로부터 GNSS 신호, 제1 관성값, 영상 정보, 항법해 등을 수신할 수 있다. 수신기(310)는 마스터 무인 항공기(100)로 GNSS 신호, 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 송신할 수 있다.The receiver 310 may receive a GNSS signal, a first inertia value, image information, a navigation solution, and the like from the master unmanned aerial vehicle 100. The receiver 310 may transmit a GNSS signal, first position information, second position information, first speed information, and second speed information to the master unmanned aerial vehicle 100.

수신기(310)는 서브 무인 항공기(200)로부터 제2 관성값을 수신할 수 있다. 수신기(310)는 서브 무인 항공기(200)로 GNSS 신호, 제1 위치 정보, 제2 위치 정보, 제1 속도 정보, 및 제2 속도 정보 등을 송신할 수 있다.The receiver 310 may receive a second inertia value from the sub unmanned aerial vehicle 200. The receiver 310 may transmit a GNSS signal, first position information, second position information, first speed information, and second speed information to the sub unmanned aerial vehicle 200.

메모리(330)는 제3 컨트롤러(350)에 의해 실행 가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 제3 컨트롤러(350)에 포함된 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The memory 330 may store instructions (or programs) executable by the third controller 350. For example, the instructions may include instructions for executing an operation of each component included in the third controller 350.

제3 컨트롤러(350)는 GNSS 신호, 제1 관성값, 제2 관성값, 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제2 위치 정보를 추정할 수 있다.The third controller 350 may estimate second location information of the sub unmanned aerial vehicle 200 based on the GNSS signal, the first inertia value, the second inertia value, and the image information.

제3 컨트롤러(350)는 GNSS 신호 및 제1 관성값, 상기 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 위치 정보를 추정할 수 있다.The third controller 350 may estimate first location information of the sub unmanned aerial vehicle 200 based on the GNSS signal, the first inertia value, and the image information.

제3 컨트롤러(350)는 제1 위치 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 위치 정보를 추정할 수 있다.The third controller 350 may estimate second location information of the sub unmanned aerial vehicle 200 based on the first location information and the second inertia value.

제3 컨트롤러(350)는 GNSS 신호 및 제1 관성값에 기초하여 항법해를 생성할 수 있다.The third controller 350 may generate a navigation solution based on the GNSS signal and the first inertia value.

제3 컨트롤러(350)는 항법해 및 영상 정보를 이용하여 제1 위치 정보를 추정할 수 있다.The third controller 350 may estimate the first location information using the navigation solution and image information.

제3 컨트롤러(350)는 GNSS 신호, 제1 관성값 및 영상 정보에 기초하여 서브 무인 항공기(200)의 제1 속도 정보를 계산할 수 있다.The third controller 350 may calculate first speed information of the sub unmanned aerial vehicle 200 based on the GNSS signal, the first inertia value, and image information.

제3 컨트롤러(350)는 제1 속도 정보 및 제2 관성값에 기초하여 서브 무인 항공기(200)의 제2 속도 정보를 생성할 수 있다.The third controller 350 may generate second speed information of the sub unmanned aerial vehicle 200 based on the first speed information and the second inertia value.

도 7은 무인 항공기 위치 추정 시스템이 무인 항공기의 위치를 추정하는 순서의 일 예를 나타낸 도면이다.7 is a diagram showing an example of a procedure for estimating the position of the unmanned aerial vehicle by the unmanned aerial vehicle position estimation system.

도 7을 참조하면, 마스터 무인 항공기(100)는 GNSS 신호를 수신하고, 제1 관성값을 측정하고, 영상 정보를 생성할 수 있다(710).Referring to FIG. 7, the master unmanned aerial vehicle 100 may receive a GNSS signal, measure a first inertia value, and generate image information (710).

마스터 무인 항공기(100)는 GNSS 신호 및 제1 관성값으로 항법해를 생성할 수 있다(720). The master unmanned aerial vehicle 100 may generate a navigation solution using the GNSS signal and the first inertial value (720).

마스터 무인 항공기(100)는 항법해 및 영상 정보에 기초하여 제1 위치 정보를 추정할 수 있다(730).The master unmanned aerial vehicle 100 may estimate the first location information based on the navigation solution and image information (730).

마스터 무인 항공기(100)는 제1 위치 정보를 제2 무인 항공기로 전송할 수 있다(740).The master unmanned aerial vehicle 100 may transmit the first location information to the second unmanned aerial vehicle (740).

서브 무인 항공기(200)는 제1 위치 정보를 수신할 수 있다(752). 서브 무인 항공기(200)는 제2 관성값을 측정할 수 있다(754).The sub unmanned aerial vehicle 200 may receive the first location information (752). The sub unmanned aerial vehicle 200 may measure the second inertia value (754).

서브 무인 항공기(200)는 제1 위치 정보 및 제2 관성값에 기초하여 제2 위치 정보를 추정할 수 있다(760).The sub unmanned aerial vehicle 200 may estimate the second location information based on the first location information and the second inertia value (760 ).

도 8은 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 모식도이고, 도 9는 도 2에 도시된 마스터 무인 항공기가 상공에서 촬영한 영상의 일 예를 나타낸 도면이다.FIG. 8 is a schematic diagram of an image captured from the sky by the master unmanned aerial vehicle shown in FIG. 2, and FIG. 9 is a view showing an example of an image captured by the master unmanned aerial vehicle shown in FIG. 2.

도 8을 참조하면, 통신에 방해되는 장애물들(a 내지 f) 및 서브 무인 항공기들(810, 820, 830)을 상공에서 바라보는 마스터 무인 항공기(100)의 시점을 나타낼 수 있다.Referring to FIG. 8, a viewpoint of the master unmanned aerial vehicle 100 looking at obstacles a to f obstructing communication and the sub unmanned aerial vehicles 810, 820, and 830 from above may be shown.

마스터 무인 항공기(100)는 도 8과 같이 서브 무인 항공기들(810, 820, 및 830)의 상공에서 서브 무인 항공기들(810, 820, 및 830)의 위치를 파악할 수 있다.As shown in FIG. 8, the master unmanned aerial vehicle 100 may determine the positions of the sub unmanned aerial vehicles 810, 820, and 830 above the sub unmanned aerial vehicles 810, 820, and 830.

마스터 무인 항공기(100)는 서브 무인 항공기들(810, 820, 및 830)을 포함하는 사진을 촬영할 수 있다. 마스터 무인 항공기(100)는 촬영한 사진으로 서브 무인 항공기들(810, 820, 및 830)의 상대적 위치 정보를 생성할 수 있다.The master unmanned aerial vehicle 100 may take a picture including the sub unmanned aerial vehicles 810, 820, and 830. The master unmanned aerial vehicle 100 may generate relative position information of the sub unmanned aerial vehicles 810, 820, and 830 from the photographed photo.

도 9를 참조하면, 마스터 무인 항공기(100)의 시점으로 촬영된 사진의 일 예를 나타낼 수 있다. 이처럼, 서브 무인 항공기(200)가 통신 음영 지역에 있을때, 마스터 무인 항공기(100)가 서브 무인 항공기(200)의 상공에서 통신 위성(1)의 GNSS 신호 등의 통신 신호를 제공할 수 있다.Referring to FIG. 9, an example of a picture taken from the viewpoint of the master unmanned aerial vehicle 100 may be shown. As such, when the sub unmanned aerial vehicle 200 is in a communication shaded area, the master unmanned aerial vehicle 100 may provide a communication signal such as a GNSS signal of the communication satellite 1 above the sub unmanned aerial vehicle 200.

또한, 마스터 무인 항공기(100)는 도 9와 같은 영상 정보로 서브 무인 항공기(200)의 제1 위치 정보를 생성할 수 있다. 마스터 무인 항공기(100)는 서브 무인 항공기(200)로부터 수신한 제2 관성값에 기초하여 제2 위치 정보를 생성할 수 있다.In addition, the master unmanned aerial vehicle 100 may generate first location information of the sub unmanned aerial vehicle 200 with image information as shown in FIG. 9. The master unmanned aerial vehicle 100 may generate second location information based on the second inertia value received from the sub unmanned aerial vehicle 200.

상술한 바와 같이, 무인 항공기 위치 추정 시스템(20)은 도심 환경, 교량아래 등과 같이 높은 장애물이 많아 위성 측위 시스템인 GNSS를 사용할 수 없거나 신뢰하기 힘든 경우 등의 위성 음영 환경에서 무인 항공기의 위치 추정의 정확도 및 통신 가용성을 향상시킬 수 있다.As described above, the unmanned aerial vehicle position estimation system 20 is used to estimate the position of the unmanned aerial vehicle in a satellite shading environment, such as when the GNSS, which is a satellite positioning system, cannot be used or is difficult to trust because there are many high obstacles such as an urban environment, under a bridge, etc. Accuracy and communication availability can be improved.

무인 항공기 위치 추정 시스템(20)은 카메라 등을 탑재한 마스터 무인 항공기를 이용함으로써 상대항법 플랫폼 및 검출 영역의 이동성(mobility)를 확보하고, 국소 영역 내 다수의 서브 무인 항공기에 항법 보조 정보를 보내 제2 무인 항공기의 위치 추정 성능을 개선할 수 있다.The unmanned aerial vehicle position estimation system 20 secures the mobility of the relative navigation platform and detection area by using a master unmanned aerial vehicle equipped with a camera, and sends navigation assistance information to a number of sub-unmanned aerial vehicles in the local area to provide information. 2 It can improve the position estimation performance of unmanned aerial vehicles.

무인 항공기 위치 추정 시스템(20)은 하나의 마스터 무인 항공기를 통해 다수의 임무 수행용 서브 무인 항공기에 항법 측정치를 제공할 수 있어 도심 지역 등 장애물이 많은 지역에서 다수 비행, 군집 비행 등의 임무를 수행할 때 효과적일 수 있다.The unmanned aerial vehicle position estimation system 20 can provide navigation measurements to sub-unmanned aerial vehicles for performing multiple missions through one master unmanned aerial vehicle, so that it performs missions such as multi-flying and swarming in areas with many obstacles, such as urban areas. It can be effective when done.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the following claims.

Claims (12)

마스터 무인 항공기를 이용하여 서브 무인 항공기의 위치 추정 방법에 있어서,
상기 서브 무인 항공기가 상기 마스터 무인 항공기(Unmanned Aerial Vehicle)로부터 상기 서브 무인 항공기의 1차 추정 위치 정보를 수신하는 단계; 및
상기 서브 무인 항공기가 상기 1차 추정 위치 정보 및 상기 서브 무인 항공기의 제2 관성값에 기초하여 상기 서브 무인 항공기의 최종 추정 위치 정보를 추정하는 단계
를 포함하고,
상기 1차 추정 위치 정보는 상기 마스터 무인 항공기가 GNSS(Global Navigation Satellite System) 신호, 상기 마스터 무인 항공기에 대한 제1 관성값, 및 상기 마스터 무인 항공기가 상공에서 촬영한 상기 서브 무인 항공기의 영상 정보에 기초하여 추정한 것이고,
상기 1차 추정 위치 정보 및 상기 최종 추정 위치 정보는 상기 서브 무인 항공기에 대한 절대적 위치 정보인
무인 항공기 위치 추정 방법.
In the method for estimating the position of the sub unmanned aerial vehicle using the master unmanned aerial vehicle,
Receiving, by the sub unmanned aerial vehicle, first estimated position information of the sub unmanned aerial vehicle from the master unmanned aerial vehicle; And
Estimating, by the sub unmanned aerial vehicle, final estimated location information of the sub unmanned aerial vehicle based on the first estimated location information and a second inertia value of the sub unmanned aerial vehicle
Including,
The first estimated location information is based on a GNSS (Global Navigation Satellite System) signal by the master unmanned aerial vehicle, a first inertia value for the master unmanned aerial vehicle, and image information of the sub unmanned aerial vehicle captured by the master unmanned aerial vehicle from above. Is an estimate based on
The first estimated location information and the final estimated location information are absolute location information for the sub unmanned aerial vehicle.
How to estimate the location of the drone.
제1항에 있어서,
상기 1차 추정 위치정보는,
상기 GNSS 신호와 상기 제1 관성값에 기초하여 생성된 항법해(Navigation Solution) 및 상기 영상 정보를 이용하여 추정된
무인 항공기 위치 추정 방법.
The method of claim 1,
The first estimated location information,
Estimated using the navigation solution and the image information generated based on the GNSS signal and the first inertia value
How to estimate the location of the drone.
제1항에 있어서,
상기 서브 무인 항공기가 상기 마스터 무인 항공기로부터 상기 서브 무인 항공기의 제1 속도 정보를 수신하는 단계; 및
상기 서브 무인 항공기가 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 서브 무인 항공기의 제2 속도 정보를 생성하는 단계
를 더 포함하는 무인 항공기 위치 추정 방법.
The method of claim 1,
Receiving, by the sub unmanned aerial vehicle, first speed information of the sub unmanned aerial vehicle from the master unmanned aerial vehicle; And
Generating, by the sub unmanned aerial vehicle, second speed information of the sub unmanned aerial vehicle based on the first speed information and the second inertia value
Unmanned aerial vehicle position estimation method further comprising a.
제3항에 있어서,
상기 제1 속도 정보는
상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 계산된 무인 항공기 위치 추정 방법.
The method of claim 3,
The first speed information is
A method of estimating the position of the unmanned aerial vehicle calculated based on the GNSS signal, the first inertia value, and the image information.
위치 추정 장치가 마스터 무인 항공기로부터 GNSS(Global Navigation Satellite System) 신호, 상기 마스터 무인 항공기의 제1 관성값, 및 상기 마스터 무인 항공기가 상공에서 촬영한 서브 무인 항공기의 영상 정보를 수신하는 단계;
상기 위치 추정 장치가 상기 서브 무인 항공기로부터 상기 서브 무인 항공기의 제2 관성값을 수신하는 단계; 및
상기 위치 추정 장치가 상기 GNSS 신호, 상기 제1 관성값, 상기 제2 관성값, 및 상기 영상 정보에 기초하여 상기 서브 무인 항공기의 최종 추정 위치 정보를 추정하는 단계
를 포함하고,
상기 최종 추정 위치 정보는 상기 서브 무인 항공기에 대한 절대적 위치 정보인
무인 항공기 위치 추정 방법.
Receiving, by a position estimation apparatus, a Global Navigation Satellite System (GNSS) signal from a master unmanned aerial vehicle, a first inertial value of the master unmanned aerial vehicle, and image information of a sub unmanned aerial vehicle captured by the master unmanned aerial vehicle from above;
Receiving, by the position estimation apparatus, a second inertia value of the sub unmanned aerial vehicle from the sub unmanned aerial vehicle; And
Estimating, by the position estimating apparatus, final estimated position information of the sub unmanned aerial vehicle based on the GNSS signal, the first inertia value, the second inertia value, and the image information
Including,
The final estimated location information is absolute location information for the sub unmanned aerial vehicle.
How to estimate the location of the drone.
제5항에 있어서,
상기 추정하는 단계는,
상기 GNSS 신호, 상기 제1 관성값, 및 상기 영상 정보에 기초하여 상기 서브 무인 항공기의 1차 추정 위치 정보를 추정하는 단계; 및
상기 1차 추정 위치 정보 및 상기 제2 관성값에 기초하여 상기 서브 무인 항공기의 최종 추정 위치 정보를 추정하는 단계
를 포함하고,
상기 1차 추정 위치 정보는 상기 서브 무인 항공기에 대한 절대적 위치 정보인
무인 항공기 위치 추정 방법.
The method of claim 5,
The estimating step,
Estimating first estimated position information of the sub unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information; And
Estimating final estimated position information of the sub unmanned aerial vehicle based on the first estimated position information and the second inertial value
Including,
The first estimated location information is absolute location information for the sub unmanned aerial vehicle.
How to estimate the location of the drone.
제6항에 있어서,
상기 1차 추정 위치 정보를 추정하는 단계는,
상기 GNSS 신호 및 상기 제1 관성값에 기초하여 항법해(Navigation Solution)를 생성하는 단계; 및
상기 항법해 및 상기 영상 정보를 이용하여 상기 1차 추정 위치 정보를 추정하는 단계
를 포함하는 무인 항공기 위치 추정 방법.
The method of claim 6,
The step of estimating the first estimated location information,
Generating a navigation solution based on the GNSS signal and the first inertia value; And
Estimating the first estimated position information using the navigation solution and the image information
Unmanned aerial vehicle position estimation method comprising a.
제5항에 있어서,
상기 위치 추정 장치가 상기 GNSS 신호, 상기 제1 관성값 및 상기 영상 정보에 기초하여 상기 서브 무인 항공기의 제1 속도 정보를 계산하는 단계; 및
상기 위치 추정 장치가 상기 제1 속도 정보 및 상기 제2 관성값에 기초하여 상기 서브 무인 항공기의 제2 속도 정보를 생성하는 단계
를 더 포함하는 무인 항공기 위치 추정 방법.
The method of claim 5,
Calculating, by the position estimation apparatus, first speed information of the sub unmanned aerial vehicle based on the GNSS signal, the first inertia value, and the image information; And
Generating, by the position estimating device, second speed information of the sub unmanned aerial vehicle based on the first speed information and the second inertia value
Unmanned aerial vehicle position estimation method further comprising a.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020180162061A 2018-12-14 2018-12-14 Unmanned aerial vehicle ad-hoc location estimation system in urban environment Active KR102243649B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180162061A KR102243649B1 (en) 2018-12-14 2018-12-14 Unmanned aerial vehicle ad-hoc location estimation system in urban environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180162061A KR102243649B1 (en) 2018-12-14 2018-12-14 Unmanned aerial vehicle ad-hoc location estimation system in urban environment

Publications (2)

Publication Number Publication Date
KR20200073659A KR20200073659A (en) 2020-06-24
KR102243649B1 true KR102243649B1 (en) 2021-04-22

Family

ID=71407778

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180162061A Active KR102243649B1 (en) 2018-12-14 2018-12-14 Unmanned aerial vehicle ad-hoc location estimation system in urban environment

Country Status (1)

Country Link
KR (1) KR102243649B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102453333B1 (en) * 2020-10-23 2022-10-11 주식회사 성진디에스피 Drone performance test system using gps signals
KR102591631B1 (en) * 2021-10-06 2023-10-20 주식회사 소프트그래피 Device and method for deriving location of swarm flying drones

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017045143A1 (en) * 2015-09-16 2017-03-23 SZ DJI Technology Co., Ltd. Systems and methods for positioning of uav
JP2018005914A (en) 2016-06-30 2018-01-11 シャープ株式会社 Autonomous movement control system, traveling unit, unmanned aircraft, and autonomous movement control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101905052B1 (en) * 2016-11-14 2018-10-05 동국대학교 산학협력단 Drone for maintaining formation of swarm flight and method thereof
KR101956447B1 (en) * 2017-04-20 2019-03-12 한국과학기술원 Method and apparatus for position estimation of unmanned vehicle based on graph structure
KR20180120289A (en) * 2017-04-26 2018-11-06 (주)동연시스템 Multi-vehicle control system using single regulator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017045143A1 (en) * 2015-09-16 2017-03-23 SZ DJI Technology Co., Ltd. Systems and methods for positioning of uav
JP2018005914A (en) 2016-06-30 2018-01-11 シャープ株式会社 Autonomous movement control system, traveling unit, unmanned aircraft, and autonomous movement control method

Also Published As

Publication number Publication date
KR20200073659A (en) 2020-06-24

Similar Documents

Publication Publication Date Title
KR102463176B1 (en) Device and method to estimate position
US10565732B2 (en) Sensor fusion using inertial and image sensors
EP1926007B1 (en) Method and system for navigation of an unmanned aerial vehicle in an urban environment
EP3158411B1 (en) Sensor fusion using inertial and image sensors
KR20200044420A (en) Method and device to estimate position
TWI556198B (en) Positioning and directing data analysis system and method thereof
KR101908534B1 (en) Apparatus and method for determining position and attitude of a vehicle
US10642272B1 (en) Vehicle navigation with image-aided global positioning system
KR101985344B1 (en) Sliding windows based structure-less localization method using inertial and single optical sensor, recording medium and device for performing the method
KR102243649B1 (en) Unmanned aerial vehicle ad-hoc location estimation system in urban environment
KR101821992B1 (en) Method and apparatus for computing 3d position of target using unmanned aerial vehicles
JP2021143861A (en) Information processor, information processing method, and information processing system
CN117320148A (en) Multi-source data fusion positioning method, system, electronic equipment and storage medium
CN112902957B (en) Missile-borne platform navigation method and system
CN113470342B (en) Method and device for estimating self-movement
KR102186953B1 (en) Method and system for tracking moving target
AU2018311656B2 (en) In-flight azimuth determination
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
Lukashevich et al. The new approach for reliable UAV navigation based on onboard camera image processing
Indelman et al. Real-time mosaic-aided aerial navigation: II. Sensor fusion
KR102171228B1 (en) Method and Apparatus for Finger Printing-based Positioning in Urban Canyon Environment by using a Wide Angle Camera
WO2017022057A1 (en) Location estimation device, location estimation method, and computer readable recording medium
KR102533943B1 (en) Error cancellation method and device for IMU and gyroscope data using linear Kalman filter and GNSS information
CN116793340B (en) Unmanned aerial vehicle automatic landing navigation method and device and electronic equipment
KR102372007B1 (en) Method and apparatus for estimation of absolute position of a vehicle under gnss signal disabled area

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181214

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200407

Patent event code: PE09021S01D

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20201026

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210415

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210419

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210419

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240326

Start annual number: 4

End annual number: 4