KR102768619B1 - Method and system for estimating the trajectory of long-range flying objects using multiple aircraft - Google Patents
Method and system for estimating the trajectory of long-range flying objects using multiple aircraft Download PDFInfo
- Publication number
- KR102768619B1 KR102768619B1 KR1020240096602A KR20240096602A KR102768619B1 KR 102768619 B1 KR102768619 B1 KR 102768619B1 KR 1020240096602 A KR1020240096602 A KR 1020240096602A KR 20240096602 A KR20240096602 A KR 20240096602A KR 102768619 B1 KR102768619 B1 KR 102768619B1
- Authority
- KR
- South Korea
- Prior art keywords
- aircraft
- trajectory
- electro
- optical equipment
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30212—Military
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
복수 개의 항공기에 탑재된 전자광학장비들을 이용하여, 원거리 상공을 이동하는 물체(예: 화염을 분출하며 비행하는 미사일)의 이동 궤적을 용이하게 추정할 수 있는, 원거리 상공 물체의 궤적 추정 방법을 제공한다. 원거리 상공 물체의 궤적 추정 방법은, i) 복수 개의 항공기가 그 각각에 탑재된 전자광학장비를 이용하여 상공의 물체를 탐색하는 1차 탐색 단계, ii) 복수 개의 항공기 중 물체에 대한 탐지를 먼저 성공한 어느 하나의 항공기가 물체에 대한 추적을 수행하며 다른 하나의 항공기에게 2차 탐색 명령을 송신하는 명령 송신 단계, iii) 다른 하나의 항공기가 2차 탐색 명령을 수신한 후, 탑재된 전자광학장비를 이용하여 어느 하나의 항공기에서 제공하는 정보를 기반으로 물체를 탐색하는 2차 탐색 단계, 및 iv) 어느 하나의 항공기에 탑재된 전자광학장비의 시선 벡터와 다른 하나의 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 물체의 궤적을 추정하는 궤적 추정 단계를 포함한다.A method for estimating a trajectory of a remote object in the sky is provided, which can easily estimate a trajectory of an object (e.g., a missile flying while spurting flames) moving in the sky at a long distance using electro-optical equipment mounted on a plurality of aircraft. The method for estimating a trajectory of a remote object in the sky includes: i) a primary search step in which a plurality of aircraft search for an object in the sky using electro-optical equipment mounted on each of the aircraft; ii) a command transmission step in which one of the plurality of aircraft, which succeeds in detecting the object first, tracks the object and transmits a secondary search command to another aircraft; iii) a secondary search step in which, after the other aircraft receives the secondary search command, it searches for the object based on information provided by one of the aircraft using the electro-optical equipment mounted on the other aircraft; and iv) a trajectory estimation step in which the trajectory of the object is estimated using a line-of-sight vector of the electro-optical equipment mounted on one of the aircraft and a line-of-sight vector of the electro-optical equipment mounted on the other aircraft.
Description
본 발명은 원거리 상공 물체의 궤적 추정 방법에 관한 것이다. 더욱 상세하게는, 본 발명은 복수 개의 항공기를 활용한 원거리 상공 물체의 궤적 추정 방법에 관한 것이다.The present invention relates to a method for estimating the trajectory of a remote aerial object. More specifically, the present invention relates to a method for estimating the trajectory of a remote aerial object using a plurality of aircraft.
상공에서 미확인 물체가 이동 중일 때, 관측지점에서 물체까지의 거리는 레이저 장치를 이용하여 측정할 수 있다. 그러나 일반적인 레이저 장치의 측정 거리는 수십 km 이내로 제한된다. 그에 따라, 수백 km 수준의 원거리에서 상공을 이동하는 물체의 경우에는 레이저 장치로 관측지점에서 물체까지의 거리를 측정하기 어렵다. 일반적으로 감시 및 정찰을 목적으로 항공기에 탑재되는 전자광학장비는 수백 km 수준의 원거리에서 상공을 이동하는 물체(예: 화염을 분출하며 비행하는 미사일)를 포착하는 것이 가능하나, 거리 측정은 불가하다.When an unidentified object is moving in the sky, the distance from the observation point to the object can be measured using a laser device. However, the measurement distance of a general laser device is limited to tens of kilometers. Accordingly, it is difficult to measure the distance from the observation point to the object with a laser device in the case of an object moving in the sky at a distance of hundreds of kilometers. Electro-optical equipment generally mounted on aircraft for surveillance and reconnaissance purposes can capture objects moving in the sky at a distance of hundreds of kilometers (e.g., missiles flying while spewing flames), but cannot measure the distance.
복수 개의 항공기에 탑재된 전자광학장비들을 이용하여, 원거리 상공을 이동하는 물체(예: 화염을 분출하며 비행하는 미사일)의 이동 궤적을 용이하게 추정할 수 있는, 원거리 상공 물체의 궤적 추정 방법 및 시스템을 제공하고자 한다.The present invention provides a method and system for estimating the trajectory of a long-distance aerial object, which can easily estimate the trajectory of an object (e.g., a missile flying while spewing flames) moving in the sky over a long distance by using electro-optical equipment mounted on multiple aircraft.
본 발명의 실시예에 따른 원거리 상공 물체의 궤적 추정 방법을 이용하면, 수백 km 수준의 원거리에서 상공을 이동하는 미사일 등의 궤적을 용이하게 추정할 수 있다. 원거리 상공 물체의 궤적 추정 방법은, 복수 개의 항공기를 활용하여 원거리 상공 물체의 궤적을 추정하는 방법으로서, i) 복수 개의 항공기가 그 각각에 탑재된 전자광학장비를 이용하여 상공의 물체를 탐색하는 1차 탐색 단계, ii) 복수 개의 항공기 중 물체에 대한 탐지를 먼저 성공한 어느 하나의 항공기가 물체에 대한 추적을 수행하며 다른 하나의 항공기에게 2차 탐색 명령을 송신하는 명령 송신 단계, iii) 다른 하나의 항공기가 2차 탐색 명령을 수신한 후, 탑재된 전자광학장비를 이용하여 어느 하나의 항공기에서 제공하는 정보를 기반으로 물체를 탐색하는 2차 탐색 단계, 및 iv) 어느 하나의 항공기에 탑재된 전자광학장비의 시선 벡터와 다른 하나의 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 물체의 궤적을 추정하는 궤적 추정 단계를 포함한다.By using the method for estimating the trajectory of a long-distance aerial object according to an embodiment of the present invention, it is possible to easily estimate the trajectory of a missile, etc., moving in the sky from a long distance of several hundred km. The method for estimating the trajectory of a long-distance aerial object is a method for estimating the trajectory of a long-distance aerial object by utilizing a plurality of aircraft, and includes: i) a first search step in which the plurality of aircraft search for an aerial object using electro-optical equipment mounted on each of the aircraft; ii) a command transmission step in which one of the plurality of aircraft, which succeeds in detecting the object first, tracks the object and transmits a second search command to the other aircraft; iii) a second search step in which, after the other aircraft receives the second search command, it searches for the object based on information provided by one of the aircraft using the electro-optical equipment mounted on the other aircraft; and iv) a trajectory estimation step in which the trajectory of the object is estimated by using the line of sight vector of the electro-optical equipment mounted on one of the aircraft and the line of sight vector of the electro-optical equipment mounted on the other aircraft.
2차 탐색 단계에서, 어느 하나의 항공기에서 제공하는 정보는, 어느 하나의 항공기에 탑재된 전자광학장비가 물체를 바라보는 시선 정보를 포함할 수 있고, 다른 하나의 항공기는 어느 하나의 항공기가 물체를 최단거리로 연결하는 가상의 경로를 따라 탐색을 수행하도록 제공될 수 있다.In the second search phase, information provided by one aircraft may include line-of-sight information of the electro-optical equipment mounted on one aircraft toward the object, and information provided by the other aircraft may enable the one aircraft to perform a search along a virtual path that connects the object with the shortest distance.
1차 탐색 단계 및 2차 탐색 단계에서, 물체를 탐색하는 항공기는 스텝-스테어 이미지 수집(Step-Stare Image Gathering) 기법을 이용할 수 있다.During the first and second search phases, the aircraft searching for the object can use the Step-Stare Image Gathering technique.
궤적 추정 단계에서, 어느 하나의 항공기에 탑재된 전자광학장비의 시선 벡터와 다른 하나의 항공기에 탑재된 전자광학장비의 시선 벡터가 물체를 지향할 때, 두 시선 벡터의 교점이 생성되지 않는 경우, 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 물체의 위치로 설정할 수 있다. 또한 물체의 궤적을 예측하기 위해, 상태 벡터로 설계된 모델과 측정치로 설계된 비선형 모델을 비교하여 상태를 추정하고 보정하는 확장칼만필터(EKF)가 이용되고, 물체는 등가속도 운동을 하는 것으로 가정되고, 상태 벡터는 물체의 위치, 속도, 가속도로 정의되고, 측정치는 측정 위치로부터 물체를 향하는 단위 방향 벡터로 정의될 수 있다.In the trajectory estimation step, when the line-of-sight vector of the electro-optical equipment mounted on one aircraft and the line-of-sight vector of the electro-optical equipment mounted on the other aircraft are directed toward the object and if no intersection of the two line-of-sight vectors is generated, the center point of the virtual line connecting the two line-of-sight vectors with the shortest distance can be set as the position of the object. In addition, in order to predict the trajectory of the object, an extended Kalman filter (EKF) is used which estimates and corrects the state by comparing a model designed with a state vector and a nonlinear model designed with measurements, and the object is assumed to move with constant acceleration, the state vector is defined as the position, velocity, and acceleration of the object, and the measurements can be defined as a unit direction vector from the measurement position toward the object.
본 발명의 실시예에 따른 원거리 상공 물체의 궤적 추정 시스템을 이용하면, 수백 km 수준의 원거리에서 상공을 이동하는 미사일 등의 궤적을 용이하게 추정할 수 있다. 원거리 상공 물체의 궤적 추정 시스템, 복수 개의 항공기를 활용하여 원거리 상공 물체의 궤적을 추정하는 시스템으로서, i) 전자광학장비를 탑재하고, 상공의 물체를 탐색하는 제1 항공기, ii) 전자광학장비를 탑재하고, 상공의 물체를 탐색하는 제2 항공기, 및 iii) 연산유닛을 포함하고, 제1 항공기는 제2 항공기보다 먼저 물체를 탐지한 경우, 제2 항공기에게 제1 항공기에 탑재된 전자광학장비가 물체를 바라보는 시선 정보를 기반으로 물체에 대한 추가 탐색을 명령하고, 연산유닛은 명령을 전달받은 제2 항공기가 물체에 대한 탐색을 성공한 경우, 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 제2 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 물체의 궤적을 추정한다.By using the system for estimating the trajectory of a long-distance aerial object according to an embodiment of the present invention, it is possible to easily estimate the trajectory of a missile, etc., moving in the sky from a long distance of several hundred km. The system for estimating the trajectory of a long-distance aerial object, a system for estimating the trajectory of a long-distance aerial object by utilizing a plurality of aircraft, comprises: i) a first aircraft equipped with electro-optical equipment and searching for an object in the sky, ii) a second aircraft equipped with electro-optical equipment and searching for an object in the sky, and iii) a calculation unit, wherein, if the first aircraft detects the object before the second aircraft, it commands the second aircraft to additionally search for the object based on the line of sight information of the electro-optical equipment mounted on the first aircraft toward the object, and if the second aircraft that received the command succeeds in searching for the object, the calculation unit estimates the trajectory of the object by using the line of sight vector of the electro-optical equipment mounted on the first aircraft and the line of sight vector of the electro-optical equipment mounted on the second aircraft.
또한 제2 항공기는 제1 항공기보다 먼저 물체를 탐지한 경우, 제1 항공기에게 제2 항공기에 탑재된 전자광학장비가 물체를 바라보는 시선 정보를 기반으로 물체에 대한 추가 탐색을 명령하고, 연산유닛은 명령을 전달받은 제1 항공기가 물체에 대한 탐색을 성공한 경우, 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 제2 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 물체의 궤적을 추정한다.In addition, if the second aircraft detects the object before the first aircraft, it commands the first aircraft to perform additional search for the object based on the line-of-sight information of the electro-optical equipment mounted on the second aircraft looking at the object, and if the first aircraft that received the command succeeds in searching for the object, the calculation unit estimates the trajectory of the object using the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft.
연산유닛은, 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 제2 항공기에 탑재된 전자광학장비의 시선 벡터가 하나의 물체를 지향할 때, 두 시선 벡터의 교점이 생성되지 않는 경우, 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 물체의 위치로 설정하도록 제공될 수 있다.The operation unit may be provided to set the center point of an imaginary line connecting the two line-of-sight vectors at the shortest distance as the position of the object when the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft are directed toward one object and no intersection of the two line-of-sight vectors is created.
연산유닛은, 제1 항공기 또는 제2 항공기에 제공될 수 있고, 제1 항공기 및제2 항공기 모두에 제공될 수도 있다.The operation unit may be provided on the first aircraft or the second aircraft, or may be provided on both the first aircraft and the second aircraft.
복수 개의 항공기를 활용한 원거리 상공 물체의 궤적 추정 시스템, 제1 항공기와 제2 항공기를 통제하는 작전통제소를 더 포함할 수 있고, 경우에 따라 여러 명령 및 여러 연산 등은 작전통제소에서 이뤄질 수 있다.A system for estimating the trajectory of a distant aerial object using multiple aircraft may further include an operation control center controlling the first aircraft and the second aircraft, and in some cases, multiple commands and multiple operations may be performed at the operation control center.
실시예에 따른 원거리 상공 물체의 궤적 추정 방법 및 시스템을 이용하면, 수백 km 수준의 원거리에서 상공을 이동하는 미사일 등의 궤적을 용이하게 추정할 수 있다.Using the method and system for estimating the trajectory of a long-distance aerial object according to an embodiment, it is possible to easily estimate the trajectory of a missile or the like moving in the sky at a long distance of several hundred kilometers.
도 1은 본 발명의 실시예에 따른 원거리 상공 물체의 궤적 추정 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 원거리 상공 물체의 궤적 추정 방법의 순서도이다.
도 3은 단일 항공기에서 이루어지는 1차 탐색 단계를 기하학적으로 나타낸 도면이다.
도 4는 복수 개의 항공기의 탐색 절차 및 연동 관계를 나타낸다.
도 5는 2차 탐색 단계를 기하학적으로 나타낸 도면이다.
도 6은 2차 탐색 단계의 동작 순서도이다.
도 7은 2차 탐색 알고리즘을 적용하여, 계산한 예시 결과를 도시한 그래프이다[(a)는 중첩률 없이 산출한 결과, (b)는 중첩률 추가 적용한 결과].
도 8은 3차원 좌표계에서 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 구하는 기법을 나타낸다.
도 9는 확장칼만필터를 이용한 궤적 추정 순서도이다.
도 10은 원거리 상공 물체의 궤적 추정 방법에 의한 궤적 추정 결과를 나타낸 그래프이다.FIG. 1 is a configuration diagram of a system for estimating the trajectory of a remote aerial object according to an embodiment of the present invention.
FIG. 2 is a flowchart of a method for estimating the trajectory of a remote aerial object according to an embodiment of the present invention.
Figure 3 is a geometrical diagram illustrating the first search phase performed on a single aircraft.
Figure 4 shows the search procedure and interlocking relationship of multiple aircraft.
Figure 5 is a geometrical diagram illustrating the second exploration stage.
Figure 6 is a flowchart of the second search stage.
Figure 7 is a graph showing an example result calculated by applying a second search algorithm [(a) is the result calculated without the overlap rate, (b) is the result with the overlap rate additionally applied].
Figure 8 shows a technique for finding the center point of an imaginary line connecting two line-of-sight vectors with the shortest distance in a three-dimensional coordinate system.
Figure 9 is a flowchart of trajectory estimation using the extended Kalman filter.
Figure 10 is a graph showing the results of trajectory estimation using a method for estimating the trajectory of a long-distance aerial object.
여기서 사용되는 전문용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는" 의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특정 특성, 영역, 정수, 단계, 동작, 요소, 성분 및/또는 군의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention. As used herein, the singular forms “a,” “an,” and “the” include plural forms as well, unless the context clearly dictates otherwise. The word “comprising,” as used herein, specifies particular features, regions, integers, steps, operations, elements, and/or components, but does not exclude the presence or addition of other particular features, regions, integers, steps, operations, elements, components, and/or groups.
다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다. 일례로서, 이하에서 설명하는 "적용된" 은 적합하게 사용되는 상태와 적합하게 사용되기 전의 상태를 모두 포함하는 것으로 해석된다.Unless otherwise defined, all terms including technical and scientific terms used herein have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms defined in commonly used dictionaries are additionally interpreted as having a meaning consistent with the relevant technical literature and the presently disclosed content, and are not interpreted in an ideal or very formal meaning unless defined. As an example, "applied" described below is interpreted to include both a state of being suitably used and a state before being suitably used.
본 명세서에서 단수로 기재된 표현은 "하나" 또는 "단일" 등의 명시적인 표현을 사용하지 않은 이상, 단수 또는 복수로 해석될 수 있다.In this specification, expressions described in the singular may be interpreted as singular or plural, unless explicit expressions such as “one” or “singular” are used.
본 명세서에서, 제1, 제2 등과 같이 서수를 포함하는 용어들은 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.In this specification, terms including ordinal numbers such as first, second, etc. may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present disclosure, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
본 명세서에서 도면을 참고하여 설명한 흐름도에서, 동작 순서는 변경될 수 있고, 여러 동작들이 병합되거나, 어느 동작이 분할될 수 있고, 특정 동작은 수행되지 않을 수 있다.In the flowcharts described with reference to the drawings in this specification, the order of operations may be changed, several operations may be merged, some operations may be split, and certain operations may not be performed.
이하 첨부한 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.
도 1은 본 발명의 실시예에 따른 원거리 상공 물체의 궤적 추정 시스템(100)의 구성도이다. 도 1에 도시한 바와 같이, 원거리 상공 물체의 궤적 추정 시스템(100)은 복수 개의 항공기[제1 항공기(110), 제2 항공기(120)] 및 연산유닛(미도시)을 포함할 수 있다. 또한 원거리 상공 물체의 궤적 추정 시스템(100)은 작전통제소(130)를 더 포함할 수 있다. 원거리 상공 물체의 궤적 추정 시스템(100)은 원거리에서 상공을 이동하는 물체(T)의 궤적을 추정하는데 이용된다. 위 원거리는 100 km 이상의 거리일 수 있다. 물체(T)는 미사일, 무인항공기, 유인항공기 등일 수 있다.FIG. 1 is a block diagram of a system (100) for estimating a trajectory of a remote aerial object according to an embodiment of the present invention. As illustrated in FIG. 1, the system (100) for estimating a trajectory of a remote aerial object may include a plurality of aircraft [a first aircraft (110), a second aircraft (120)] and a computational unit (not shown). In addition, the system (100) for estimating a trajectory of a remote aerial object may further include an operation control center (130). The system (100) for estimating a trajectory of a remote aerial object is used to estimate a trajectory of an object (T) moving in the sky at a long distance. The above-mentioned long-distance distance may be a distance of 100 km or more. The object (T) may be a missile, an unmanned aerial vehicle, a manned aircraft, etc.
복수 개의 항공기는 특정 개수로 제한되지 않으며, 2대 이상일 수 있다. 본 명세서에서는 편의상 원거리 상공 물체의 궤적 추정 시스템(100)을 이루는 최소 구성 요건인 항공기 2대로 설명을 진행한다. 제1 항공기(110)와 제2 항공기(120)는 특정 항공기로 제한되지 않는다. 제1 항공기(110)와 제2 항공기(120) 각각은 전투기, 수송기, 정찰기 등일 수 있다. 또한 제1 항공기(110)와 제2 항공기(120) 각각은 고정익 또는 회전익으로 제공될 수 있다. 또한 제1 항공기(110)와 제2 항공기(120) 각각은 무인항공기 또는 유인항공기로 제공될 수 있다. 제1 항공기(110)와 제2 항공기(120)는 서로 다른 기종일 수 있다. 제1 항공기(110)에는 전자광학장비(미도시)가 탑재된다. 제2 항공기(120)에는 전자광학장비(미도시)가 탑재된다. 제1 항공기(110)에 탑재된 전자광학장비와 제2 항공기(120)에 탑재된 전자광학장비 각각은 전자 광학(EO, Electro-Optical) 카메라와 적외선(IR, Infrared) 카메라를 포함할 수 있다. 전자 광학 카메라는 낮과 밤의 가시광선 영역에서 고해상도 이미지를 제공하고, 주로 고해상도 사진 및 비디오 촬영에 사용된다. 적외선 카메라는 열 신호를 감지하여 야간이나 악천후 조건에서도 목표물을 식별할 수 있고, 열 신호를 기반으로 한 이미지 생성이 가능해 물체(T)에서 발생하는 열원(추진체에서 발생하는 화염 등)을 탐지한다. 제1 항공기(110)와 제2 항공기(120) 각각은 통신장비를 구비하고, 상호 수집된 정보를 교환할 수 있다.The number of aircraft is not limited to a specific number and may be two or more. In this specification, for convenience, the description is given with two aircraft, which are the minimum configuration requirements for the remote aerial object trajectory estimation system (100). The first aircraft (110) and the second aircraft (120) are not limited to specific aircraft. Each of the first aircraft (110) and the second aircraft (120) may be a fighter jet, a transport aircraft, a reconnaissance aircraft, etc. In addition, each of the first aircraft (110) and the second aircraft (120) may be provided as a fixed wing or a rotary wing. In addition, each of the first aircraft (110) and the second aircraft (120) may be provided as an unmanned aerial vehicle or a manned aircraft. The first aircraft (110) and the second aircraft (120) may be different types of aircraft. The first aircraft (110) is equipped with electro-optical equipment (not shown). The second aircraft (120) is equipped with electro-optical equipment (not shown). The electro-optical equipment equipped on the first aircraft (110) and the electro-optical equipment equipped on the second aircraft (120) may each include an electro-optical (EO) camera and an infrared (IR) camera. The electro-optical camera provides high-resolution images in the visible light range during the day and at night, and is mainly used for high-resolution photography and video shooting. The infrared camera detects heat signals to identify targets even at night or under bad weather conditions, and can generate images based on heat signals to detect heat sources (such as flames generated from propellant) generated from an object (T). The first aircraft (110) and the second aircraft (120) are each equipped with communication equipment, and can exchange information collected by each other.
연산유닛은 제1 항공기(110)와 제2 항공기(120)에서 수집된 정보를 기반으로, 물체(T)의 위치와 예상 궤적을 계산한다. 연산유닛은 제1 항공기(110)와 제2 항공기(120) 둘 모두에 제공될 수 있다. 경우에 따라, 연산유닛은 제1 항공기(110)와 제2 항공기(120) 중 어느 하나에 제공될 수 있다. 또한 연산유닛은 작전통제소(130)에 제공될 수도 있다.The computation unit calculates the position and expected trajectory of the object (T) based on information collected from the first aircraft (110) and the second aircraft (120). The computation unit may be provided in both the first aircraft (110) and the second aircraft (120). In some cases, the computation unit may be provided in either the first aircraft (110) or the second aircraft (120). Additionally, the computation unit may be provided in the operation control center (130).
작전통제소(130)는 제1 항공기(110)와 제2 항공기(120)에 임무를 하달하고, 제1 항공기(110)와 제2 항공기(120)의 작전을 통제한다. 작전통제소(130)는 관제 기능을 포함할 수 있다. 작전통제소(130)는 통신 서버를 포함할 수 있다. 작전통제소(130)는 전술한 연산유닛을 포함하고, 제1 항공기(110)와 제2 항공기(120)에서 수집된 정보를 기반으로, 물체(T)의 위치와 예상 궤적을 계산할 수 있다. 작전통제소(130)가 지상의 건물 내부에 제공되면, 연산 성능이 우수한 대형 연산유닛을 구비할 수 있는 이점이 있다. 경우에 따라, 작전통제소(130)는 항공기, 함선, 차량 등의 내부에 제공될 수도 있다.The operation control center (130) issues missions to the first aircraft (110) and the second aircraft (120) and controls the operations of the first aircraft (110) and the second aircraft (120). The operation control center (130) may include a control function. The operation control center (130) may include a communication server. The operation control center (130) includes the aforementioned calculation unit and can calculate the location and expected trajectory of the object (T) based on the information collected from the first aircraft (110) and the second aircraft (120). If the operation control center (130) is provided inside a building on the ground, there is an advantage in that a large calculation unit with excellent calculation performance can be provided. In some cases, the operation control center (130) may be provided inside an aircraft, a ship, a vehicle, etc.
도 2는 본 발명의 실시예에 따른 원거리 상공 물체의 궤적 추정 방법(S100)의 순서도이다. 도 2에 도시한 바와 같이, 원거리 상공 물체의 궤적 추정 방법(S100)은 1차 탐색 단계(S110), 명령 송신 단계(S120), 2차 탐색 단계(S130) 및 궤적 추정 단계(S140)을 포함한다. 원거리 상공 물체의 궤적 추정 방법(S100)은 원거리 상공 물체의 궤적 추정 시스템(100)에 의하여 수행될 수 있다.FIG. 2 is a flowchart of a method (S100) for estimating a trajectory of a remote aerial object according to an embodiment of the present invention. As illustrated in FIG. 2, the method (S100) for estimating a trajectory of a remote aerial object includes a first search step (S110), a command transmission step (S120), a second search step (S130), and a trajectory estimation step (S140). The method (S100) for estimating a trajectory of a remote aerial object can be performed by a system (100) for estimating a trajectory of a remote aerial object.
도 3은 단일 항공기(110, 120)에서 이루어지는 1차 탐색 단계(S110)를 기하학적으로 나타낸 도면이다. 도 1 내지 도 3을 참조하면, 1차 탐색 단계(S110)에서는 복수 개의 항공기[제1 항공기(110), 제2 항공기(120)]가 그 각각에 탑재된 전자광학장비를 이용하여 상공의 물체(T)를 탐색한다. 1차 탐색 명령은 작전통제소(130)를 통하여, 제1 항공기(110)와 제2 항공기(120)에 하달될 수 있다.FIG. 3 is a diagram geometrically illustrating a first search step (S110) performed in a single aircraft (110, 120). Referring to FIGS. 1 to 3, in the first search step (S110), multiple aircraft [the first aircraft (110), the second aircraft (120)] search for an object (T) in the sky using electro-optical equipment mounted on each of them. The first search command can be transmitted to the first aircraft (110) and the second aircraft (120) through the operation control center (130).
1차 탐색 단계(S110)에서는 항공기에 탑재된 전자광학장비(M)가 관심 영역 좌표(위도, 경도, 고도)를 중심으로 영상의 화각(FOV)을 고려하여 수평방향으로 탐색을 수행할 수 있다. 아래 [수학식 1]과 같이, 먼저 항공기에 탑재된 전자광학장비(M)의 위치 에서 표적 중심 을 향하는 시선 벡터 를 구한다. 이때, 기준좌표는 항공기에 탑재된 전자광학장비(M)가 1차 탐색을 시작한 최초 위치, 작전통제소(130)의 위치 등으로 설정될 수 있다. 계속해서, 기준 수평방향으로 스캔할 각도 을 할당하여 원하는 수 n만큼 시선 벡터 을 구한다. 여기서 DCM(Direction Cosine Matrix)은 회전행렬(Rotation Matrix)을 의미한다. 계속해서, 각 시선벡터 이 향하는 거리 에 해당하는 좌표 를 산출한다. 이렇게 산출된 좌표를 향해 스텝-스테어 이미지 수집(Step-Stare Image Gathering) 기법을 이용하여 스캔 구동을 실시하고, 단방향으로 스캔 구동을 완료할 때마다 물체(T)가 이동한 양을 고려하여 분할 좌표를 재산출하며 탐색 구동을 반복한다. 스텝-스테어 이미지 수집 기법에서, 연속한 두 시점에서 수집(스캔)된 이미지는 소정 비율 중첩될 수 있다.In the first search stage (S110), the electro-optical equipment (M) mounted on the aircraft can perform a horizontal search by considering the field of view (FOV) of the image centered on the coordinates of the area of interest (latitude, longitude, altitude). As shown in [Mathematical Formula 1] below, first, the position of the electro-optical equipment (M) mounted on the aircraft Target-centered in gaze vector toward At this time, the reference coordinates can be set as the initial location where the electro-optical equipment (M) mounted on the aircraft started the first search, the location of the operation control center (130), etc. Continuing, Angle to scan in the reference horizontal direction Assign the desired number n of gaze vectors Find the DCM (Direction Cosine Matrix) here. The DCM (Direction Cosine Matrix) means the Rotation Matrix. Continuing, each gaze vector This distance is heading Coordinates corresponding to Towards the coordinates thus derived, a scan operation is performed using the Step-Stare Image Gathering technique, and each time the scan operation is completed in one direction, the segmentation coordinates are recalculated by considering the amount that the object (T) has moved, and the search operation is repeated. In the Step-Stare Image Gathering technique, images collected (scanned) at two consecutive points in time can be overlapped at a predetermined ratio.
도 4는 복수 개의 항공기[제1 항공기(110), 제2 항공기(120)]의 탐색 절차 및 연동 관계를 나타낸다. 도 4를 참조하면, 명령 송신 단계(S120)는 복수 개의 항공기[제1 항공기(110), 제2 항공기(120)] 중 물체(T)에 대한 탐지를 먼저 성공한 어느 하나의 항공기가 물체(T)에 대한 추적을 수행하며 다른 하나의 항공기에게 2차 탐색 명령(= 추가 탐색 명령)을 송신한다. 보다 구체적으로, 1차 탐색 단계(S110)에서 제1 항공기(110)가 제2 항공기(120)보다 먼저 물체(T)를 탐지한 경우, 제1 항공기(110)는 제2 항공기(120)에게 제1 항공기(110)가 가진 정보를 기반으로 물체(T)에 대한 추가 탐색을 명령한다. 위 정보는 제1 항공기(110)에 탑재된 전자광학장비가 물체(T)를 바라보는 시선 정보를 포함할 수 있다. 이와 마찬가지로, 1차 탐색 단계(S110)에서 제2 항공기(120)가 제1 항공기(110)보다 먼저 물체(T)를 탐지한 경우, 제2 항공기(120)는 제1 항공기(110)에게 제2 항공기(120)가 가진 정보를 기반으로 물체(T)에 대한 추가 탐색을 명령한다. 위 정보는 제2 항공기(120)에 탑재된 전자광학장비가 물체(T)를 바라보는 시선 정보를 포함할 수 있다. 일부 실시예에서, 어느 하나의 항공기에서 다른 하나의 항공기에게 하달되는 탐색 명령은 작전통제소(130)를 경유할 수 있다.FIG. 4 shows the search procedure and interlocking relationship of multiple aircraft [the first aircraft (110), the second aircraft (120)]. Referring to FIG. 4, in the command transmission step (S120), one of the multiple aircraft [the first aircraft (110), the second aircraft (120)] that succeeds in detecting the object (T) first performs tracking of the object (T) and transmits a secondary search command (= additional search command) to the other aircraft. More specifically, in the first search step (S110), if the first aircraft (110) detects the object (T) before the second aircraft (120), the first aircraft (110) commands the second aircraft (120) to perform an additional search for the object (T) based on the information the first aircraft (110) has. The above information may include information on the line of sight of the electro-optical equipment mounted on the first aircraft (110) toward the object (T). Similarly, if the second aircraft (120) detects the object (T) before the first aircraft (110) in the first search phase (S110), the second aircraft (120) commands the first aircraft (110) to perform additional search for the object (T) based on information possessed by the second aircraft (120). The above information may include information on the line of sight of the electro-optical equipment mounted on the second aircraft (120) toward the object (T). In some embodiments, a search command issued from one aircraft to another aircraft may pass through the operation control center (130).
2차 탐색 단계(S130)에서는 2차 탐색 명령을 수신한 다른 하나의 항공기가 탑재된 전자광학장비를 이용하여 어느 하나의 항공기에서 제공하는 정보를 기반으로 물체(T)를 추가 탐색을 수행한다. 위 정보는 어느 하나의 항공기에 탑재된 전자광학장비가 물체(T)를 바라보는 시선 정보를 포함할 수 있다. 즉, 다른 하나의 항공기는 어느 하나의 항공기와 물체(T)를 최단거리로 연결하는 가상의 경로를 따라 탐색을 수행할 수 있다.In the secondary search step (S130), another aircraft that received the secondary search command performs additional search for the object (T) based on information provided by one of the aircraft using the electro-optical equipment mounted on the aircraft. The above information may include information on the line of sight of the electro-optical equipment mounted on one of the aircraft toward the object (T). In other words, the other aircraft can perform search along a virtual path that connects one of the aircraft and the object (T) at the shortest distance.
이하에서는 복수 개의 항공기 중 1차 탐색에 성공한 항공기에 탑재된 전자광학장비를 메인-전자광학장비(M), 2차 탐색 명령을 전달받아 2차 탐색을 수행하는 항공기에 탑재된 전자광학장비를 서브-전자광학장비(S)로 정의한다. 도 5를 참조하면, 메인-전자광학장비(M)는 먼저 탐색을 성공하여, 물체(T)를 향해 시선을 지향하고 있다고 간주하고, 서브-전자광학장비(S)는 메인-전자광학장비(M)가 향하는 시선을 따라 시선의 방향을 바꿔가며 표적을 탐색한다.Hereinafter, the electro-optical equipment mounted on an aircraft that succeeds in the first search among multiple aircraft is defined as the main electro-optical equipment (M), and the electro-optical equipment mounted on an aircraft that receives the second search command and performs the second search is defined as the sub electro-optical equipment (S). Referring to Fig. 5, the main electro-optical equipment (M) first succeeds in the search and is considered to be directing its gaze toward an object (T), and the sub electro-optical equipment (S) searches for the target by changing the direction of its gaze along the gaze of the main electro-optical equipment (M).
2차 탐색은 복수 개의 항공기와 물체(T)가 이동하는 상황을 고려하여 매순간 바뀌는 메인-전자광학장비(M)의 시선 정보를 바탕으로 얼마나 서브-전자광학장비(S)가 정확하고 빠르게 물체(T)를 탐색할 수 있는지가 중요하다. 도 5, 도 6에 도시한 바와 같이, 2차 탐색 수행 알고리즘으로 FOV(Field Of View)를 활용하여 지향 명령값을 구하는 방법이 제시된다. FOV를 활용한다는 것은 서브-전자광학장비(S)가 촬영하는 연속된 프레임 간에 공백이 있어서는 안되므로 FOV의 수평각도 성분만큼 이동해가면서 공간적으로 빈틈없이 스캔을 하는 것을 의미한다. 프레임을 차분시간으로 표현을 하면 n번째를 기준으로 서브-전자광학장비(S)가 (n+1)번째 지향해야 하는 위치 P의 관계는 FOV의 반각인 , 메인-전자광학장비(M)의 위치, 서브-전자광학장비(S)의 위치, 그리고 이전 지향 위치 P에 의하여 구해진다. 하지만 이런 관계를 정리하게 되면 고차의 삼각함수로 이루어진 상당히 복잡한 식으로 이루어지기 때문에 수학적으로 P값을 도출하는데 어려움이 있을 수 있다. 그래서 도 6과 같이, P값을 구하기 위해 수치해석 방법을 활용하여 반복(Iteration) 계산 기법을 통해 P값의 근사치를 구할 수 있다. 여기서 d값은 근사치를 구하기 위해 필요한 초기 값으로 메인-전자광학장비(M)으로부터 임의 지점까지의 거리를 나타낸다. 이전 프레임에 대한 P의 값과 메인-전자광학장비(M)의 위치를 고려하면, 아래 [수학식 2]와 같이 FOV를 통해 적정 d의 초기 값을 구할 수 있다.Secondary search is important in terms of how accurately and quickly the sub-electro-optical equipment (S) can search the object (T) based on the line of sight information of the main electro-optical equipment (M) that changes every moment, considering the situation where multiple aircraft and objects (T) are moving. As shown in Figs. 5 and 6, a method of obtaining a pointing command value by utilizing the FOV (Field Of View) as a secondary search execution algorithm is presented. Utilizing the FOV means that the sub-electro-optical equipment (S) scans spatially without gaps by moving by the horizontal angle component of the FOV, since there should be no gaps between consecutive frames captured by the sub-electro-optical equipment (S). If the frame is expressed in differential time, the relationship between the position P that the sub-electro-optical equipment (S) should aim at (n+1)th based on the nth is the half-angle of the FOV , the position of the main electro-optical equipment (M), the position of the sub-electro-optical equipment (S), and the previous aiming position P. However, since organizing this relationship consists of a fairly complicated equation composed of high-order trigonometric functions, it may be difficult to derive the P value mathematically. Therefore, as shown in Fig. 6, a numerical analysis method can be utilized to obtain the P value, and an approximate value of the P value can be obtained through an iteration calculation technique. Here, the d value is an initial value required to obtain the approximate value and represents the distance from the main electro-optical equipment (M) to an arbitrary point. Considering the value of P for the previous frame and the position of the main electro-optical equipment (M), an appropriate initial value of d can be obtained through the FOV as in [Mathematical Formula 2] below.
도 7은 위 알고리즘을 활용한 예시로서, 도 7(a)를 참조하면, 공간 상의 매프레임간 공백없이 지향 위치가 잘 산출된 것을 알 수 있다. 또한, 도 7(b)를 참조하면, 필요에 따라 에 중첩률을 적용하여, 중첩된 계산도 가능하다는 것을 알 수 있다. 2차 탐색 단계(S130)가 성공적으로 수행되면, 메인-전자광학장비(M)와 서브-전자광학장비(S)로부터 물체(T)를 향하는 최소 2개의 시선 정보를 획득할 수 있다.Figure 7 is an example using the above algorithm. Referring to Figure 7(a), it can be seen that the orientation position is well calculated without any gaps between each frame in space. Also, referring to Figure 7(b), if necessary, By applying the overlap rate, it can be seen that overlapped calculations are also possible. If the second search step (S130) is successfully performed, at least two lines of sight information toward the object (T) can be acquired from the main electro-optical equipment (M) and the sub-electro-optical equipment (S).
궤적 추정 단계(S140)는 메인-전자광학장비(M)의 시선 벡터와, 서브-전자광학장비(S)의 시선 벡터에 의하여, 물체(T)의 위치와 궤적이 계산된다. 궤적 추정 단계(S140)는 연산유닛에 의하여 수행될 수 있다. 앞서 언급한 바와 같이, 연산유닛은 적어도 하나 이상의 항공기(110, 120) 및/또는 작전통제소(130)에 제공될 수도 있다. 궤적 추정 단계(S140)는 연산유닛에서 실시간으로 진행된다.The trajectory estimation step (S140) calculates the position and trajectory of the object (T) by the line of sight vector of the main electro-optical equipment (M) and the line of sight vector of the sub-electro-optical equipment (S). The trajectory estimation step (S140) may be performed by an arithmetic unit. As mentioned above, the arithmetic unit may be provided to at least one aircraft (110, 120) and/or an operation control center (130). The trajectory estimation step (S140) is performed in real time in the arithmetic unit.
메인-전자광학장비(M)의 시선 벡터와 서브-전자광학장비(S)의 시선 벡터가 교차되는 지점을 계산하여, 물체(T)의 위치를 추정할 수 있다. 도 8은 3차원 좌표계에서 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 구하는 기법을 나타낸다. 도 8에서의 , 는 두 카메라의 각각의 위치이고, , 는 카메라가 바라보고 있는 단위 시선 벡터이다. 는 실제 물체(표적)의 위치이다. 서로 다른 두 시선 벡터가 임의의 오차를 가지고 물체를 향하고 있을 때에는, 두 시선 벡터 간 교점이 생기지 않아 해를 구할 수 없다. 그에 따라, 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 물체(T)의 위치로 설정할 수 있다. 즉, 두 시선 벡터가 물체(T)를 정확하게 향하고 있다면, 두 시선 벡터 측정 값인 , 를 일반적인 삼각법에 적용해 물체(T)의 위치를 구할 수 있다. 반면, 두 시선 벡터가 교차하지 않으면, 두 시선 벡터의 관계식만으로는 물체(T)의 위치를 구할 수 없기 때문에, 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점인 를 물체(T)의 위치 추정값으로 사용한다. 이를 수학식으로 나타내면 [수학식 3]과 같이 벡터의 내/외적을 이용한 6가지 방정식을 통해 미지수 를 구할 수 있으며, 최종 산출 값인 를 구할 수 있다. (단, 는 각각 ) 이렇게 구한 중심점 는 확장칼만필터에서 측정치로 사용될 수 있다.The position of the object (T) can be estimated by calculating the point where the line of sight vector of the main electro-optical equipment (M) and the line of sight vector of the sub-electro-optical equipment (S) intersect. Fig. 8 shows a technique for finding the center point of the virtual line connecting two line of sight vectors with the shortest distance in a three-dimensional coordinate system. In Fig. 8 , are the respective positions of the two cameras, , is the unit line of sight vector that the camera is looking at. is the position of the actual object (target). When two different gaze vectors are pointing to the object with an arbitrary error, there is no intersection between the two gaze vectors, so a solution cannot be obtained. Accordingly, the center point of the virtual line connecting the two gaze vectors with the shortest distance can be set as the position of the object (T). In other words, if the two gaze vectors are pointing exactly to the object (T), the two gaze vector measurement values , can be applied to general trigonometry to find the position of the object (T). On the other hand, if the two line-of-sight vectors do not intersect, the position of the object (T) cannot be found using only the relationship between the two line-of-sight vectors, so the center point of the imaginary line connecting the two line-of-sight vectors with the shortest distance is is used as an estimate of the position of the object (T). If this is expressed in a mathematical formula, it is expressed as [Mathematical Formula 3] using six equations using the inner/outer products of vectors. can be obtained, and the final output value is can be obtained. (However, are each ) The center point obtained in this way can be used as a measurement in the Extended Kalman Filter.
메인-전자광학장비(M)와 서브-전자광학장비(S)의 각 시선 벡터가 물체(T)를 향하고 있다고 해도 취합된 측정값들에는 다양한 측정 노이즈가 포함될 수 있다. 이러한 노이즈 성분은 물체(T)의 궤적 추정에 상당한 오차를 야기한다. 따라서 본 명세서에서는 노이즈 성분을 완화시키기 위한 방안으로서 칼만필터를 활용한 신호처리 방안이 제시된다. 앞서 설명된 중심점 는 확장칼만필터(Extended Kalman Filter, EKF)의 초기값으로 사용될 수 있다.Even if the line-of-sight vectors of the main electro-optical equipment (M) and the sub-electro-optical equipment (S) are directed toward the object (T), the collected measurement values may include various measurement noises. These noise components cause significant errors in the trajectory estimation of the object (T). Therefore, in this specification, a signal processing method using a Kalman filter is proposed as a means to alleviate the noise components. The center point described above can be used as the initial value of the Extended Kalman Filter (EKF).
확장칼만필터를 구성하기 위하여 상태 벡터, 운동방정식, 측정치 모델이 설계된다. 먼저 [수학식 4]와 같이 3차원 좌표계에서 물체(T)의 위치, 속도, 가속도를 상태 벡터 로 설정하고, 물체(T)가 등가속 운동을 한다고 가정하여 이산시간 상태 벡터의 관계식을 나타낼 수 있다. 여기서, A는 상태천이행렬, 는 시간간격, 는 시스템 외란에 의한 백색잡음으로 가정한다. 측정치 모델을 설계하기 위해서는 [수학식 5]와 같이 측정값에 해당하는 각각의 시선 벡터 를 측정치 모델인 와, 측정노이즈 성분의 합으로 구성한다. 각 측정치 모델은 측정 위치로부터 물체(T)를 향하는 단위 방향 벡터로 정의된다. 이산시간 내에서 측정치 모델은 분모에 비선형 요소가 있으므로, 선형화 과정을 위해 자코비안 행렬 을 구한다. 이산 시간 시스템의 확장칼만필터를 수행하기 위해서 앞에서 구성한 파라메터들은 도 9와 같이, 확장칼만필터 계산에 활용되고, 매프레임의 상태 벡터들을 추정할 수 있다.In order to construct an extended Kalman filter, a state vector, equations of motion, and a measurement model are designed. First, the position, velocity, and acceleration of an object (T) in a three-dimensional coordinate system are expressed as a state vector as in [Mathematical Equation 4]. Assuming that the object (T) moves with uniform acceleration, the relationship of the discrete-time state vector can be expressed. Here, A is the state transition matrix, is the time interval, is assumed to be white noise due to system disturbance. In order to design a measurement model, each line-of-sight vector corresponding to the measurement value is is a measurement model Wow, measurement noise It is composed of the sum of the components. Each The measurement model is defined as a unit direction vector from the measurement location to the object (T). Since the measurement model in discrete time has nonlinear elements in the denominator, the Jacobian matrix is used for the linearization process. In order to perform the extended Kalman filter of the discrete-time system, the parameters configured above are utilized in the calculation of the extended Kalman filter, as shown in Fig. 9, and the state vectors of each frame can be estimated.
도 10은 원거리의 미사일 궤적을 시뮬레이션을 통해 모델링하고, 원거리 상공 물체의 궤적 추정 방법(S100)을 통해 최종적으로 얻은 추정 궤적 정보와 실제 궤적 정보를 비교한 예시이다. 도 10을 참조하면, 원거리 상공 물체의 궤적 추정 방법(S100)은 확장칼만필터 적용을 통해 측정 노이즈를 효과적으로 완화시키고 실제 물체의 상태 정보를 의미 있게 추종하는 결과값을 산출하는 것을 확인할 수 있다.Fig. 10 is an example of modeling a long-distance missile trajectory through simulation, and comparing the estimated trajectory information finally obtained through a method for estimating a trajectory of a long-distance aerial object (S100) with actual trajectory information. Referring to Fig. 10, it can be confirmed that the method for estimating a trajectory of a long-distance aerial object (S100) effectively alleviates measurement noise through application of an extended Kalman filter and produces a result value that meaningfully tracks the state information of an actual object.
앞서 설명된 원거리 상공 물체의 궤적 추정 방법(S100) 및 원거리 상공 물체의 궤적 추정 시스템(100)을 이용하면, 수백 km 수준의 원거리에서 상공을 이동하는 미사일 등의 궤적을 용이하게 추정할 수 있다.Using the method for estimating the trajectory of a long-distance aerial object (S100) and the system for estimating the trajectory of a long-distance aerial object (100) described above, it is possible to easily estimate the trajectory of a missile, etc. moving in the sky at a long distance of several hundred km.
본 발명을 앞서 기재한 바에 따라 설명하였지만, 다음에 기재하는 특허청구범위의 개념과 범위를 벗어나지 않는 한, 다양한 수정 및 변형이 가능하다는 것을 본 발명이 속하는 기술 분야에서 종사하는 자들은 쉽게 이해할 것이다.Although the present invention has been described in the foregoing manner, it will be readily understood by those skilled in the art that various modifications and variations are possible without departing from the concept and scope of the claims set forth below.
100. 원거리 상공 물체의 궤적 추정 시스템
110. 제1 항공기
120. 제2 항공기
130. 작전통제소
T. 물체
S100. 원거리 상공 물체의 궤적 추정 방법
S110. 1차 탐색 단계
S120. 명령 송신 단계
S130. 2차 탐색 단계
S140. 궤적 추정 단계100. Trajectory estimation system for distant aerial objects
110.
120. Second aircraft
130. Operations Control Center
T. Object
S100. Method for estimating the trajectory of a distant object in the sky
S110. First Exploration Phase
S120. Command transmission stage
S130. Second Exploration Phase
S140. Trajectory estimation step
Claims (17)
복수 개의 항공기가 그 각각에 탑재된 전자광학장비를 이용하여 상공의 물체를 탐색하는 1차 탐색 단계,
상기 복수 개의 항공기 중 상기 물체에 대한 탐지를 먼저 성공한 어느 하나의 항공기가 상기 물체에 대한 추적을 수행하며 다른 하나의 항공기에게 2차 탐색 명령을 송신하는 명령 송신 단계,
상기 다른 하나의 항공기가 상기 2차 탐색 명령을 수신한 후, 탑재된 전자광학장비를 이용하여 상기 어느 하나의 항공기에서 제공하는 정보를 기반으로 상기 물체를 탐색하는 2차 탐색 단계, 및
상기 어느 하나의 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 다른 하나의 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 상기 물체의 궤적을 추정하는 궤적 추정 단계
를 포함하고,
상기 1차 탐색 단계에서,
상기 물체를 탐색하는 항공기는 스텝-스테어 이미지 수집(Step-Stare Image Gathering) 기법을 이용하는, 원거리 상공 물체의 궤적 추정 방법.A method for estimating the trajectory of a distant aerial object using multiple aircraft,
The first search stage, in which multiple aircraft search for objects in the sky using the electro-optical equipment mounted on each aircraft;
A command transmission step in which one of the plurality of aircraft that first succeeds in detecting the object performs tracking of the object and transmits a secondary search command to another aircraft;
A second search step in which the other aircraft searches for the object based on information provided by one of the aircraft using the electro-optical equipment onboard after receiving the second search command, and
A trajectory estimation step for estimating the trajectory of the object by using the line of sight vector of the electro-optical equipment mounted on one of the above aircraft and the line of sight vector of the electro-optical equipment mounted on the other aircraft.
Including,
In the first exploration step above,
A method for estimating the trajectory of a distant object in the sky using the Step-Stare Image Gathering technique for an aircraft searching for the above object.
상기 2차 탐색 단계에서,
상기 어느 하나의 항공기에서 제공하는 정보는, 상기 어느 하나의 항공기에 탑재된 전자광학장비가 상기 물체를 바라보는 시선 정보를 포함하는, 원거리 상공 물체의 궤적 추정 방법.In paragraph 1,
In the second exploration step above,
A method for estimating the trajectory of a remote object in the sky, wherein the information provided by any one of the above aircraft includes information on the line of sight of the electro-optical equipment mounted on any one of the above aircraft toward the object.
상기 2차 탐색 단계에서,
상기 다른 하나의 항공기는 상기 어느 하나의 항공기와 상기 물체를 최단거리로 연결하는 가상의 경로를 따라 탐색을 수행하는, 원거리 상공 물체의 궤적 추정 방법.In paragraph 2,
In the second exploration step above,
A method for estimating the trajectory of a distant aerial object, wherein the other aircraft performs a search along a virtual path connecting the one aircraft and the object at the shortest distance.
상기 2차 탐색 단계에서,
상기 물체를 탐색하는 항공기는 스텝-스테어 이미지 수집 기법을 이용하는, 원거리 상공 물체의 궤적 추정 방법.In paragraph 1,
In the second exploration step above,
A method for estimating the trajectory of a distant aerial object using a step-step image collection technique for an aircraft searching for the above object.
상기 스텝-스테어 이미지 수집 기법에서, 연속한 두 시점에서 수집된 이미지는 소정 비율 중첩되는, 원거리 상공 물체의 궤적 추정 방법.In paragraph 1,
A method for estimating the trajectory of a distant object in the sky, wherein the images collected at two consecutive points in time overlap at a predetermined ratio in the above step-step image collection technique.
상기 궤적 추정 단계에서,
상기 어느 하나의 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 다른 하나의 항공기에 탑재된 전자광학장비의 시선 벡터가 상기 물체를 지향할 때, 두 시선 벡터의 교점이 생성되지 않는 경우, 상기 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 상기 물체의 위치로 설정하는, 원거리 상공 물체의 궤적 추정 방법.In paragraph 1,
In the above trajectory estimation step,
A method for estimating the trajectory of a remote aerial object, wherein when the line-of-sight vector of electro-optical equipment mounted on one of the above aircraft and the line-of-sight vector of electro-optical equipment mounted on the other of the above aircraft are directed toward the object and no intersection of the two line-of-sight vectors is created, the center point of an imaginary line connecting the two line-of-sight vectors at the shortest distance is set as the position of the object.
상기 궤적 추정 단계에서,
상기 물체의 궤적을 예측하기 위해, 상태 벡터로 설계된 모델과 측정치로 설계된 비선형 모델을 비교하여 상태를 추정하고 보정하는 확장칼만필터(EKF)가 이용되고, 상기 물체는 등가속도 운동을 하는 것으로 가정되고, 상기 상태 벡터는 상기 물체의 위치, 속도, 가속도로 정의되고, 상기 측정치는 측정 위치로부터 상기 물체를 향하는 단위 방향 벡터로 정의되는, 원거리 상공 물체의 궤적 추정 방법.In Article 7,
In the above trajectory estimation step,
A method for estimating a trajectory of a remote aerial object, wherein an extended Kalman filter (EKF) is used to estimate and correct a state by comparing a model designed with a state vector and a nonlinear model designed with measurements to predict the trajectory of the object, the object is assumed to move with constant acceleration, the state vector is defined as the position, velocity, and acceleration of the object, and the measurements are defined as a unit direction vector from a measurement position toward the object.
전자광학장비를 탑재하고, 스텝-스테어 이미지 수집 기법을 이용하여 상공의 물체를 탐색하는 제1 항공기,
전자광학장비를 탑재하고, 스텝-스테어 이미지 수집 기법을 이용하여 상공의 물체를 탐색하는 제2 항공기, 및
연산유닛
을 포함하고,
상기 제1 항공기는 상기 제2 항공기보다 먼저 물체를 탐지한 경우, 상기 제2 항공기에게 상기 제1 항공기에 탑재된 전자광학장비가 상기 물체를 바라보는 시선 정보를 기반으로 상기 물체에 대한 추가 탐색을 명령하고,
상기 연산유닛은 상기 명령을 전달받은 상기 제2 항공기가 상기 물체에 대한 탐색을 성공한 경우, 상기 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 제2 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 상기 물체의 궤적을 추정하는, 원거리 상공 물체의 궤적 추정 시스템.A system for estimating the trajectory of a distant object in the sky by utilizing multiple aircraft.
The first aircraft, equipped with electro-optical equipment and using step-step image collection techniques to search for objects in the sky,
A second aircraft equipped with electro-optical equipment and using step-stairs image collection techniques to search for objects in the sky, and
Operation unit
Including,
If the first aircraft detects the object before the second aircraft, it orders the second aircraft to perform additional search for the object based on the line-of-sight information of the electro-optical equipment mounted on the first aircraft looking at the object.
The above-mentioned operation unit is a system for estimating the trajectory of a remote aerial object, which estimates the trajectory of the object by using the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft when the second aircraft that received the above-mentioned command successfully searches for the object.
상기 제2 항공기는 상기 제1 항공기보다 먼저 물체를 탐지한 경우, 상기 제1 항공기에게 상기 제2 항공기에 탑재된 전자광학장비가 상기 물체를 바라보는 시선 정보를 기반으로 상기 물체에 대한 추가 탐색을 명령하고,
상기 연산유닛은 상기 명령을 전달받은 상기 제1 항공기가 상기 물체에 대한 탐색을 성공한 경우, 상기 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 제2 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 상기 물체의 궤적을 추정하는, 원거리 상공 물체의 궤적 추정 시스템.In Article 9,
If the second aircraft detects the object before the first aircraft, it orders the first aircraft to perform additional search for the object based on the line-of-sight information of the electro-optical equipment mounted on the second aircraft looking at the object.
The above-mentioned operation unit is a system for estimating the trajectory of a remote object in the sky, which estimates the trajectory of the object by using the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft when the first aircraft that received the above-mentioned command successfully searches for the object.
상기 연산유닛은, 상기 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 제2 항공기에 탑재된 전자광학장비의 시선 벡터가 하나의 물체를 지향할 때, 두 시선 벡터의 교점이 생성되지 않는 경우, 상기 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 상기 물체의 위치로 설정하는, 원거리 상공 물체의 궤적 추정 시스템.In Article 10,
The above-mentioned operation unit is a system for estimating the trajectory of a remote aerial object, which sets the center point of an imaginary line connecting the two line-of-sight vectors at the shortest distance as the position of the object when the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft are directed toward one object and no intersection of the two line-of-sight vectors is created.
상기 연산유닛은, 상기 제1 항공기 또는 상기 제2 항공기에 제공되는, 원거리 상공 물체의 궤적 추정 시스템.In Article 11,
The above operation unit is a system for estimating the trajectory of a remote aerial object provided to the first aircraft or the second aircraft.
상기 연산유닛은, 상기 제1 항공기 및 상기 제2 항공기 모두에 제공되는, 원거리 상공 물체의 궤적 추정 시스템.In Article 11,
The above operation unit is a system for estimating the trajectory of a remote aerial object provided to both the first aircraft and the second aircraft.
전자광학장비를 탑재하고, 스텝-스테어 이미지 수집 기법을 이용하여 상공의 물체를 탐색하는 제1 항공기,
전자광학장비를 탑재하고, 스텝-스테어 이미지 수집 기법을 이용하여 상공의 물체를 탐색하는 제2 항공기,
상기 제1 항공기와 상기 제2 항공기를 통제하는 작전통제소, 및
연산유닛
을 포함하고,
상기 작전통제소는 상기 제1 항공기가 상기 제2 항공기보다 먼저 물체를 탐지한 경우, 상기 제2 항공기에게 상기 제1 항공기에 탑재된 전자광학장비가 상기 물체를 바라보는 시선 정보를 기반으로 상기 물체에 대한 추가 탐색을 명령하고,
상기 연산유닛은 상기 명령을 전달받은 상기 제2 항공기가 상기 물체에 대한 탐색을 성공한 경우, 상기 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 제2 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 상기 물체의 궤적을 추정하는, 원거리 상공 물체의 궤적 추정 시스템.A system for estimating the trajectory of a distant object in the sky by utilizing multiple aircraft.
The first aircraft, equipped with electro-optical equipment and using step-step image collection techniques to search for objects in the sky,
A second aircraft equipped with electro-optical equipment and using step-step image collection techniques to search for objects in the sky;
The operational control center controlling the first and second aircraft, and
Operation unit
Including,
The above-mentioned operation control center, if the first aircraft detects the object before the second aircraft, orders the second aircraft to conduct additional searches for the object based on the line-of-sight information of the electro-optical equipment mounted on the first aircraft looking at the object.
The above-mentioned operation unit is a system for estimating the trajectory of a remote aerial object, which estimates the trajectory of the object by using the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft when the second aircraft that received the above-mentioned command successfully searches for the object.
상기 작전통제소는 상기 제2 항공기가 상기 제1 항공기보다 먼저 물체를 탐지한 경우, 상기 제1 항공기에게 상기 제2 항공기에 탑재된 전자광학장비가 상기 물체를 바라보는 시선 정보를 기반으로 상기 물체에 대한 추가 탐색을 명령하고,
상기 연산유닛은 상기 명령을 전달받은 상기 제1 항공기가 상기 물체에 대한 탐색을 성공한 경우, 상기 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 제2 항공기에 탑재된 전자광학장비의 시선 벡터를 이용하여, 상기 물체의 궤적을 추정하는, 원거리 상공 물체의 궤적 추정 시스템.In Article 14,
The above-mentioned operation control center, if the second aircraft detects the object before the first aircraft, orders the first aircraft to conduct additional searches for the object based on the line-of-sight information of the electro-optical equipment mounted on the second aircraft looking at the object.
The above-mentioned operation unit is a system for estimating the trajectory of a remote object in the sky, which estimates the trajectory of the object by using the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft when the first aircraft that received the above-mentioned command successfully searches for the object.
상기 연산유닛은, 상기 제1 항공기에 탑재된 전자광학장비의 시선 벡터와 상기 제2 항공기에 탑재된 전자광학장비의 시선 벡터가 하나의 물체를 지향할 때, 두 시선 벡터의 교점이 생성되지 않는 경우, 상기 두 시선 벡터를 최단 거리로 연결하는 가상의 선의 중심점을 상기 물체의 위치로 설정하는, 원거리 상공 물체의 궤적 추정 시스템.In Article 15,
The above-mentioned operation unit is a system for estimating the trajectory of a remote aerial object, which sets the center point of an imaginary line connecting the two line-of-sight vectors at the shortest distance as the position of the object when the line-of-sight vector of the electro-optical equipment mounted on the first aircraft and the line-of-sight vector of the electro-optical equipment mounted on the second aircraft are directed toward one object and no intersection of the two line-of-sight vectors is created.
상기 연산유닛은, 상기 작전통제소에 제공되는, 원거리 상공 물체의 궤적 추정 시스템.In Article 16,
The above operation unit is a system for estimating the trajectory of a remote aerial object provided to the above operation control center.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240096602A KR102768619B1 (en) | 2024-07-22 | 2024-07-22 | Method and system for estimating the trajectory of long-range flying objects using multiple aircraft |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240096602A KR102768619B1 (en) | 2024-07-22 | 2024-07-22 | Method and system for estimating the trajectory of long-range flying objects using multiple aircraft |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102768619B1 true KR102768619B1 (en) | 2025-02-13 |
Family
ID=94629547
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020240096602A Active KR102768619B1 (en) | 2024-07-22 | 2024-07-22 | Method and system for estimating the trajectory of long-range flying objects using multiple aircraft |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102768619B1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101221991B1 (en) * | 2012-05-04 | 2013-01-15 | 삼성탈레스 주식회사 | Method for transfering target and attacking target in sqaud fly |
| JP2016164497A (en) * | 2015-03-06 | 2016-09-08 | 株式会社東芝 | Position detection system, position detection device, flying bodies, and position detection method |
| KR101821992B1 (en) * | 2016-08-22 | 2018-03-08 | 아주대학교 산학협력단 | Method and apparatus for computing 3d position of target using unmanned aerial vehicles |
| KR102266432B1 (en) * | 2021-01-14 | 2021-06-17 | 국방과학연구소 | Method for tracking a location of a target and method for correcting a location of target |
| KR102455005B1 (en) * | 2022-03-14 | 2022-10-13 | 국방과학연구소 | Apparatus and metohd for generating target coordinates of airborne electro-optical infrared system |
-
2024
- 2024-07-22 KR KR1020240096602A patent/KR102768619B1/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101221991B1 (en) * | 2012-05-04 | 2013-01-15 | 삼성탈레스 주식회사 | Method for transfering target and attacking target in sqaud fly |
| JP2016164497A (en) * | 2015-03-06 | 2016-09-08 | 株式会社東芝 | Position detection system, position detection device, flying bodies, and position detection method |
| KR101821992B1 (en) * | 2016-08-22 | 2018-03-08 | 아주대학교 산학협력단 | Method and apparatus for computing 3d position of target using unmanned aerial vehicles |
| KR102266432B1 (en) * | 2021-01-14 | 2021-06-17 | 국방과학연구소 | Method for tracking a location of a target and method for correcting a location of target |
| KR102455005B1 (en) * | 2022-03-14 | 2022-10-13 | 국방과학연구소 | Apparatus and metohd for generating target coordinates of airborne electro-optical infrared system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8229163B2 (en) | 4D GIS based virtual reality for moving target prediction | |
| Caballero et al. | Vision-based odometry and SLAM for medium and high altitude flying UAVs | |
| Strydom et al. | Visual odometry: autonomous uav navigation using optic flow and stereo | |
| Artieda et al. | Visual 3-d slam from uavs | |
| Conte et al. | An integrated UAV navigation system based on aerial image matching | |
| CN107727079B (en) | Target positioning method of full-strapdown downward-looking camera of micro unmanned aerial vehicle | |
| US5128874A (en) | Inertial navigation sensor integrated obstacle detection system | |
| US20160093225A1 (en) | Landing system for an aircraft | |
| Schneider et al. | Fast and effective online pose estimation and mapping for UAVs | |
| US20150192928A1 (en) | Method for the acquisition and processing of geographical information of a path | |
| Caballero et al. | Unmanned aerial vehicle localization based on monocular vision and online mosaicking: a new mapping framework | |
| EP3751233B1 (en) | Multi-aircraft vision and datalink based navigation system and method | |
| CN111413708A (en) | Lidar-based UAV autonomous identification and landing site selection method | |
| Farmani et al. | An optimal sensor management technique for unmanned aerial vehicles tracking multiple mobile ground targets | |
| RU2513900C1 (en) | Method and device to determine object coordinates | |
| Martínez et al. | Trinocular ground system to control UAVs | |
| Xiang et al. | UAV based target tracking and recognition | |
| US20240404082A1 (en) | Passive Optical System To Determine The Trajectory Of Targets At Long Range | |
| Miller et al. | UAV navigation based on videosequences captured by the onboard video camera | |
| Miller et al. | Optical Flow as a navigation means for UAV | |
| KR102768619B1 (en) | Method and system for estimating the trajectory of long-range flying objects using multiple aircraft | |
| Adnastarontsau et al. | Algorithm for Control of Unmanned Aerial Vehicles in the Process of Visual Tracking of Objects with a Variable Movement’s Trajectory | |
| Solonar et al. | Tracking estimator of the ground target coordinates and motion parameters using onboard optical location system data | |
| Turci et al. | Comparison of Visual-Inertial Sensor Fusion Techniques for GNSS-Resilient Navigation | |
| Kim et al. | Decentralized approach to unmanned aerial vehicle navigation: Without the use of the global positioning system and preloaded maps |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20240722 |
|
| PA0201 | Request for examination |
Patent event code: PA02011R01I Patent event date: 20240722 Comment text: Patent Application |
|
| PA0302 | Request for accelerated examination |
Patent event date: 20240724 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination |
|
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20241007 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250205 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250211 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20250211 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |