KR102263227B1 - Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information - Google Patents
Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information Download PDFInfo
- Publication number
- KR102263227B1 KR102263227B1 KR1020190164825A KR20190164825A KR102263227B1 KR 102263227 B1 KR102263227 B1 KR 102263227B1 KR 1020190164825 A KR1020190164825 A KR 1020190164825A KR 20190164825 A KR20190164825 A KR 20190164825A KR 102263227 B1 KR102263227 B1 KR 102263227B1
- Authority
- KR
- South Korea
- Prior art keywords
- screen
- moving object
- unmanned moving
- pilot
- navigation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
상대 항법 정보를 활용한 증강 현실 기반 무인 이동체 무인 이동체 제어 방법 및 장치가 개시된다. 일 실시예에 따른 무인 이동체 제어 방법은 무인 이동체(Unmanned Vehicle)의 항법 정보를 수신하는 단계와, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하는 단계와, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하는 단계와, 상기 영상 처리 장치에 상기 AR 화면을 출력하는 단계를 포함한다.A method and apparatus for controlling an unmanned moving object based on augmented reality using relative navigation information are disclosed. An unmanned vehicle control method according to an embodiment includes the steps of: receiving navigation information of an unmanned vehicle; generating relative navigation information between the unmanned vehicle and a pilot based on the navigation information; The method includes: configuring an AR screen by reflecting the relative navigation information on a pilot image photographed in front by an image processing device; and outputting the AR screen to the image processing device.
Description
아래 실시예들은 상대 항법 정보를 활용한 증강 현실 기반 무인 이동체 제어 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for controlling an unmanned moving object based on augmented reality using relative navigation information.
무인 이동체는 사용 환경에 따라 무인 항공기(UAV: Unmanned Aerial Vehicle), 무인 지상차량(UGV: Unmanned Ground Vehicle), 무인 잠수정(UUV: Unmanned Underwater Vehicle) 등으로 나눌 수 있다. 무인 이동체는 사전에 입력된 임무를 수행하거나 외부에서 조종사가 직접 기체를 바라보며 조종 명령을 줄 수도 있다.Unmanned vehicles can be classified into unmanned aerial vehicles (UAVs), unmanned ground vehicles (UGVs), and unmanned underwater vehicles (UUVs) according to usage environments. The unmanned vehicle may perform a pre-entered mission, or a pilot may give control commands while looking directly at the aircraft from the outside.
무인 이동체가 임무를 수행하는 동안 지상에서 지상관제시스템을 이용해 무인 이동체로부터 정보를 수신 받아 임무 수행 상황을 파악하고, 무인 이동체의 상태 등을 모니터링 할 수 있다. 하지만, 종래의 지상관제시스템은 지상의 컴퓨터나 전용 차량 내부에서 운용하기 때문에 기체를 눈으로 직접 보는 것과 시스템이 출력하는 화면을 동시에 볼 수 없다.While the unmanned vehicle is performing its mission, it is possible to receive information from the unmanned vehicle on the ground using the ground control system to understand the mission performance and to monitor the status of the unmanned vehicle. However, since the conventional ground control system is operated in a computer on the ground or inside a dedicated vehicle, it is impossible to see the aircraft directly and the screen output by the system at the same time.
많은 경우 조종사가 기체를 실제로 계속 지켜보면서 조종하게 되는데, 앞서 말한 단점으로 조종사는 조종과 동시에 지상관제시스템을 모니터링 하지 못한다는 한계가 존재한다.In many cases, the pilot controls the aircraft while actually watching the aircraft, but due to the aforementioned drawback, there is a limit that the pilot cannot monitor the ground control system at the same time as the pilot.
이러한 단점을 해소하기 위해 주로 조종사는 조종만 전담하고, 옆에 모니터링 전담 인원을 배치해 조종사에게 현재 상황을 알려주면서 임무를 수행한다. 하지만, 이 방식도 무인 이동체 운용 시 요구되는 많은 정보량을 전부 전달할 수 없어 효율적이지 않으며, 즉각적인 상황 대처가 어렵다.In order to solve these shortcomings, the pilot is mainly in charge of the operation, and a dedicated monitoring person is placed next to him to perform the mission while notifying the pilot of the current situation. However, this method is also inefficient because it cannot deliver all the large amount of information required for operation of an unmanned moving vehicle, and it is difficult to respond immediately to the situation.
또한 무인 이동체가 조종사와 멀어질 경우 조종사는 육안으로 무인 이동체의 위치나 자세를 식별할 수 없어 직관적인 조종이 힘들어지는 문제가 발생한다.In addition, when the unmanned moving object moves away from the pilot, the pilot cannot visually identify the position or posture of the unmanned moving object, so intuitive control becomes difficult.
실시예들은 무인 이동체와 그것을 관리하는 지상 관제 장비 활용에 증강 현실을 지원하는 HMD 장치를 접목함으로써, 파일럿이 무인 이동체 조종과 상황 모니터링을 동시에 하여 사용자 편의성을 증대시킬 수 있는 기술을 제공할 수 있다.Embodiments may provide a technology capable of increasing user convenience by combining an HMD device supporting augmented reality with the use of an unmanned moving object and ground control equipment that manages it, so that a pilot can control the unmanned moving object and monitor the situation at the same time.
일 실시예에 따른 무인 이동체 제어 방법은 무인 이동체(Unmanned Vehicle)의 항법 정보를 수신하는 단계와, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하는 단계와, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하는 단계와, 상기 영상 처리 장치에 상기 AR 화면을 출력하는 단계를 포함한다.An unmanned vehicle control method according to an embodiment includes the steps of: receiving navigation information of an unmanned vehicle; generating relative navigation information between the unmanned vehicle and a pilot based on the navigation information; The method includes: configuring an AR screen by reflecting the relative navigation information on a pilot image photographed in front by an image processing device; and outputting the AR screen to the image processing device.
상기 방법은 상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하는 단계와, 상기 영상 처리 장치에 상기 FPV 화면을 출력하는 단계를 더 포함할 수 있다.The method may further include configuring an FPV screen by reflecting the navigation information or the relative navigation information in an unmanned moving object image photographed in front of the unmanned moving object, and outputting the FPV screen to the image processing device. can
상기 생성하는 단계는 상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성하는 단계를 포함할 수 있다.The generating may include generating the relative navigation information by processing the navigation information based on the positions, speeds, and postures of the pilot and the unmanned moving object.
상기 AR 화면을 구성하는 단계는 상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하는 단계와, 변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하는 단계와, 상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시하는 단계를 포함할 수 있다.The step of constructing the AR screen includes converting the position in the navigation coordinate system of the unmanned moving object into the image coordinate system of the image capturing device included in the image processing device, and mapping the converted position on the pilot image to cover a rectangular frame. The method may include displaying the unmanned moving object and displaying the relative navigation information on the lower right side of the AR screen.
상기 AR 화면을 구성하는 단계는 상기 무인 이동체의 속도 벡터를 화살표로 표시하는 단계를 더 포함할 수 있다.The configuring of the AR screen may further include displaying the velocity vector of the unmanned moving object as an arrow.
상기 방법은 상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성하는 단계를 더 포함할 수 있다.The method may further include configuring the FPV screen in the lower left corner of the AR screen.
상기 방법은 상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계를 더 포함할 수 있다.The method may further include switching any one of the AR screen and the FPV screen to a main screen based on the relative distance between the unmanned moving object and the pilot.
상기 방법은 상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계를 더 포함할 수 있다.The method may further include switching any one of the AR screen and the FPV screen to a main screen based on whether the visibility vector between the unmanned moving object and the pilot is maintained.
일 실시예에 따른 무인 이동체(Unmanned Vehicle)의 제어를 위한 장치는 인스트럭션들을 저장하는 메모리와, 상기 인스트럭션들을 실행하는 프로세서를 포함하고, 상기 인스트럭션들이 실행될 때, 프로세서는, 상기 무인 이동체의 항법 정보를 수신하고, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하고, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하고, 상기 영상 처리 장치에 상기 AR 화면을 출력한다.An apparatus for controlling an unmanned vehicle according to an embodiment includes a memory storing instructions and a processor executing the instructions, and when the instructions are executed, the processor receives the navigation information of the unmanned vehicle. Receive, generate relative navigation information between the unmanned mobile body and the pilot based on the navigation information, and configure an AR screen by reflecting the relative navigation information in the pilot image photographed in front by the image processing device worn by the pilot, and , and output the AR screen to the image processing device.
상기 프로세서는 상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하고, 상기 영상 처리 장치에 상기 FPV 화면을 출력할 수 있다.The processor may configure an FPV screen by reflecting the navigation information or the relative navigation information in an unmanned moving object image photographed in front of the unmanned moving object, and output the FPV screen to the image processing device.
상기 프로세서는 상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성할 수 있다.The processor may generate the relative navigation information by processing the navigation information based on the position, speed, and posture of the pilot and the unmanned moving object.
상기 프로세서는 상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하고, 변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하고, 상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시할 수 있다.The processor converts the position in the navigation coordinate system of the unmanned moving object into the image coordinate system of the image capturing device included in the image processing device, maps the converted position on the pilot image, and covers the unmanned moving object with a rectangular frame, The relative navigation information may be displayed in the lower right corner of the AR screen.
상기 프로세서는 상기 무인 이동체의 속도 벡터를 화살표로 표시할 수 있다.The processor may display the velocity vector of the unmanned moving object as an arrow.
상기 프로세서는 상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성할 수 있다.The processor may configure the FPV screen in the lower left corner of the AR screen.
상기 프로세서는 상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭할 수 있다.The processor may switch any one of the AR screen and the FPV screen to the main screen based on the relative distance between the unmanned moving object and the pilot.
상기 프로세서는 상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭할 수 있다.The processor may switch any one of the AR screen and the FPV screen to the main screen based on whether the visibility vector between the unmanned vehicle and the pilot is maintained.
상기 장치는 상기 무인 이동체, 상기 영상 처리 장치, 및 상기 무인 이동체를 관리하며 상기 항법 정보를 수신하는 지상 관제 시스템 중에서 적어도 하나에 구현될 수 있다.The device may be implemented in at least one of the unmanned moving object, the image processing device, and a ground control system that manages the unmanned moving object and receives the navigation information.
도 1은 일 실시예에 따른 증강 현실 기반 무인 이동체 지상 관제 시스템을 나타낸다.
도 2는 상대 항법 정보를 생성하고 이를 화면에 표시하는 동작을 설명하기 위한 도면이다.
도 3은 증강 현실 기반 무인 이동체 지상 관제 시스템이 사용자의 AR 장치에 제공하는 화면의 일 예를 나타낸다.
도 4는 화면 스위칭을 설명하기 위한 순서도이고, 도 5는 화면 스위칭에 이용되는 판단 기준을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 조종 영상 생성 장치의 개략적인 블록도이다.1 shows an augmented reality-based unmanned mobile ground control system according to an embodiment.
2 is a diagram for explaining an operation of generating relative navigation information and displaying it on a screen.
3 shows an example of a screen provided by an augmented reality-based unmanned mobile ground control system to a user's AR device.
4 is a flowchart for explaining screen switching, and FIG. 5 is a diagram for explaining a criterion used for screen switching.
6 is a schematic block diagram of an apparatus for generating a steering image according to an exemplary embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for description purposes only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
제1 또는 제2등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해서 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 실시예의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The terms are only for the purpose of distinguishing one element from another element, for example, without departing from the scope of rights according to the concept of the embodiment, a first element may be named as a second element, and similarly The second component may also be referred to as the first component.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
도 1은 일 실시예에 따른 증강 현실 기반 무인 이동체 지상 관제 시스템을 나타낸다.1 shows an augmented reality-based unmanned mobile ground control system according to an embodiment.
무인 이동체 지상 관제 시스템(10)은 무인 이동체(100), 지상 관제 시스템(Ground Control System(GSC); 200), 조종 영상 생성 장치(300), 영상 처리 장치(400), 및 조종 장치(500)를 포함한다. 무인 이동체 지상 관제 시스템(10)은 증강 현실 기반 무인 이동체 지상 관제 시스템을 의미할 수 있다.The unmanned moving object
무인 이동체(100)는 사용 환경에 따라 무인 항공기(UAV(Unmanned Aerial Vehicle)), 무인 지상차량(UGV(Unmanned Ground Vehicle)), 무인 잠수정(UUV(Unmanned Underwater Vehicle)) 등을 포함할 수 있다. 무인 이동체(100)는 사전에 입력된 임무를 수행하거나 외부에서 조종사가 직접 무인 이동체(100)를 바라보며 조종 장치(500)를 통해 조종 명령을 전송할 수도 있다.The unmanned
무인 이동체(100)가 임무를 수행하는 동안, 지상에서 지상 관제 시스템(200)은 무인 이동체(100)를 관리하며, 무인 이동체(100)로부터 정보를 수신 받아 무인 이동체(100)의 임무 수행 상황을 파악하고, 무인 이동체(100)의 상태 등을 모니터링 할 수 있다.While the unmanned
지상 관제 시스템(200)은 무인 이동체(100)로부터 항법 정보 및 무인 이동체 영상을 수신할 수 있다. 지상 관제 시스템(200)은 항법 정보를 조종 영상 생성 장치(300)로 전송할 수 있다. 또한, 지상 관제 시스템(200)은 무인 이동체 영상도 조종 영상 생성 장치(200)로 전송할 수 있다.The
항법 정보는 비행 중인 무인 이동체(100)의 항법과 관련된 정보일 수 있다. 항법 정보는 무인 이동체(100)의 자세 정보, 위치 정보, 속도 정보, 및 고도 정보 등을 포함할 수 있다. 또한, 항법 정보는 무인 이동체(100)의 잔여 에너지량 및 비행 가능 시간 등에 대한 정보를 더 포함할 수 있다.The navigation information may be information related to the navigation of the unmanned
무인 이동체 영상은 무인 이동체(100)에 포함된 영상 촬영 장치를 통해 촬영된 영상일 수 있다. 무인 이동체 영상은 무인 이동체(200)의 전방을 촬영한 영상일 수 있다.The unmanned moving object image may be an image captured by an image capturing device included in the unmanned
조종 영상 생성 장치(300)는 항법 정보 및 조종사 정보에 기초하여 조종사와 무인 이동체(100) 간의 상대 항법 정보를 생성할 수 있다. 예를 들어, 조종사 정보는 조종사의 위치 및 자세 정보 등을 포함하고, 상대 항법 정보는 조종사와 무인 이동체(100) 간의 상대 거리, 상대 속도, 상대 위치 등에 대한 정보를 포할 수 있다. 상대 항법 정보는 조종사를 기준으로 조정사와 무인 이동체(100) 간의 상대적 3차원 항법 정보를 의미할 수 있다.The pilot
조종 영상 생성 장치(300)는 증강 현실(Augmented Reality(AR)), 가상 현실(Virtual Reality(VR)), 혼합 현실(Mixed Reality(MR)), 또는 확장 현실(eXtended Reality(XR))를 구현할 수 있다.The control
조종 영상 생성 장치(300)는 상대 항법 정보를 조종사 영상에 반영하여 AR 화면을 구성할 수 있다. 조종사 영상은 조종사가 착용한 영상 처리 장치(400)에 포함된 영상 촬영 장치를 통해 촬영된 영상일 수 있다. 조종사 영상은 영상 처리 장치(400)의 전방을 촬영한 영상일 수 있다. AR 화면은 3인칭 조종 화면일 수 있다.The pilot
조종 영상 생성 장치(300)는 무인 이동체 영상을 이용하여 FPV(First Person View) 화면을 구성할 수 있다. 또한, 조종 영상 생성 장치(300)는 항법 정보 또는 상대 항법 정보를 무인 이동체 영상에 반영하여 FPV 화면을 구성할 수 있다. FPV 화면은 1인칭 조종 화면일 수 있다.The control
조종 영상 생성 장치(300)는 AR 화면 및/또는 FPV 화면을 영상 처리 장치(400)로 전송할 수 있다.The manipulation
조종사는 영상 처리 장치(400)를 착용하여 무인 이동체(100)를 바라보면서 조종 장치(500)를 이용하여 무인 이동체(100)를 조정할 수 있다.The pilot may control the unmanned moving
영상 처리 장치(400)는 증강 현실(Augmented Reality(AR)), 가상 현실(Virtual Reality(VR)), 혼합 현실(Mixed Reality(MR)), 또는 확장 현실(eXtended Reality(XR))를 구현할 수 있다.The
영상 처리 장치(400)는 휴대용 전자 장치로 구현될 수 있다. 예를 들어, 영상 처리 장치(100)는 스마트 디바이스(smart device)로 구현될 수 있다. 스마트 디바이스는 헤드 마운티드 디스플레이(head mounted display(HMD)), 스마트 글래스(smart glasses), 스마트 워치(smart watch watch), 및 스마트 밴드(smart band)를 포함할 수 있다. 즉, 영상 처리 장치(100)는 사용자가 착용할 수 있는 또는 착용하기에 적합한 웨어러블 디바이스(wearable device)일 수 있다.The
영상 처리 장치(400)는 영상 처리 장치(400)에 포함된 디스플레이를 통해 상대 항법 정보 또는 항법 정보가 반영된 AR 화면 및/또는 FPV 화면을 조종사에게 출력할 수 있다.The
조종사는 영상 처리 장치(400)를 착용하여 무인 이동체(100)를 바라보면서 조종 장치(500)를 이용하여 조종함과 동시에, 각종 상황을 모니터링할 수 있다. 현실 상황 위에 각종 정보를 띄울 수 있는 AR 기술의 장점을 활용하여 조종사가 조종에 방해받지 않고 무인 이동체(100)의 운용 시에 필요한 다양한 정보를 외부 인력의 도움을 받지 않고 독립적으로 모니터링할 수 있다. 이에 더하여 조종사의 조종 편의를 위한 다양한 인터페이스를 같이 영상 처리 장치(400)의 화면에 표시하여 안전하고 효율적인 임무 수행을 가능하도록 한다.The pilot wears the
도 1에서는 조종 영상 생성 장치(300)가 지상 관제 시스템(200), 영상 처리 장치(400), 및 조종 장치(500)와 구별되는 별도의 장치로 도시되어 있지만, 반드시 이에 한정되는 것은 아니며, 실시예에 따라 조종 영상 생성 장치(300)는 지상 관제 시스템(200), 영상 처리 장치(400), 또는 조종 장치(500) 내에 구현될 수 있다.In FIG. 1 , the manipulation
도 2는 상대 항법 정보를 생성하고 이를 화면에 표시하는 동작을 설명하기 위한 도면이고, 도 3은 증강 현실 기반 무인 이동체 지상 관제 시스템이 사용자의 AR 장치에 제공하는 화면의 일 예를 나타낸다.FIG. 2 is a diagram for explaining an operation of generating relative navigation information and displaying it on a screen, and FIG. 3 shows an example of a screen provided by the augmented reality-based unmanned mobile ground control system to the user's AR device.
조종 영상 생성 장치(300)는 AR 화면 및 FPV 화면을 생성할 수 있다. 조종사가 영상 처리 장치(400)를 착용하여 무인 이동체(100)를 바라보면서 조종 장치(500)를 이용하여 조종함과 동시에, 각종 상황을 모니터링할 수 있도록, 조종 영상 생성 장치(300)는 AR 화면 및/또는 FPV 화면을 영상 처리 장치(400)로 전송할 수 있다.The manipulation
AR 화면에는 조종사 영상과 함께 상대 항법 정보가 표시될 수 있다. 복수 개의 무인 이동체(100)를 운용하거나 무인 이동체가 너무 작은 이유 등으로 임무 수행에 지장이 생길 경우 육안으로 무인 이동체(100)의 식별을 편리하게 해주기 위하여, AR 화면에 사각형 표시로 무인 이동체(100)의 위치를 나타낼 수 있다. 또 화살표 표시로 속도 벡터를 나타내고 각종 정보를 옆에 표시하여 조종에 도움이 될 수 있게 한다.The AR screen may display relative navigation information along with the pilot image. In order to facilitate the identification of the unmanned moving
조종 영상 생성 장치(300)는 조종사 및 무인 이동체(100)의 3차원 위치, 속도, 및 자세에 기초하여 항법 정보를 가공하여 상대 항법 정보를 생성할 수 있다.The manipulation
AR 화면에 표시되는 무인 이동체(100) 위에 정보(예를 들어, 상대 항법 정보)를 표시하기 위해서는 무인 이동체가 AR 카메라로 촬영되는 화상 면에서 어느 지점에 있는지 계산해야 한다. 이를 위해 무인 이동체(100)와 조종사 간의 상대적인 위치와 자세를 고려해서, 항법 좌표계에서 계산된 무인 이동체(100)의 항법 위치 정보를 조종사의 영상 처리 장치(400)의 화상 좌표계로 변환하는 과정이 필요하다.In order to display information (eg, relative navigation information) on the unmanned moving
도 2에 도시된 바와 같이, 무인 이동체(100)가 카메라의 화상 면으로 투영될 수 있다. 항법 좌표계상에서 계산된 무인 이동체(100)의 위치 ()를 화상 좌표계상의 점로 변환시키는 과정은 homogeneous 좌표로 다음 수학식 1과 같이 나타낼 수 있다.As shown in FIG. 2 , the unmanned moving
여기서 행렬은 영상 처리 장치(400)에 포함된 영상 촬영 장치(예를 들어, 카메라)의 파라미터 설정에 따라 결정되는 행렬로서, 는 초점 거리, 는 주점, 는 비대칭 계수일 수 있다. 행렬은 항법 좌표계를 영상 처리 장치(400)의 화상 좌표계로 변환시키기 위한 회전/병진이동변환 행렬일 수 있다.here The matrix is a matrix determined according to parameter settings of an image capturing apparatus (eg, a camera) included in the
조종 영상 생성 장치(300)는 조종사 및 무인 이동체(100)의 3차원 위치/속도/자세에 기초하여 상대 항법 정보를 가공하여 2차원 화상 좌표계에서의 유효한 정보로 변환함으로써, 상대 항법 정보를 AR 화면에 효율적인 비행 보조 정보로 제공할 수 있다.The control
조종 영상 생성 장치(300)는 무인 이동체(100)의 위치를 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 기체 식별성을 높이고, 무인 이동체(100)의 이동 방향에 화살표를 도시하여 영상 처리 장치(400)에 포함된 영상 촬영 장치의 2차원 좌표상에서 무인 이동체(100)의 속도 벡터를 화살표 시현함으로써 조종 편의성을 높일 수 있다. 조종 영상 생성 장치(300)는 2차원 위치 및 속도 정보를 이용하여 주변 드론이나 빌딩 등 장애물과의 상대 속도 정보를 생성함으로써, 조종사에 충돌회피 정보로 제공될 수도 있다. 또한, 조종 영상 생성 장치(300)는 무인 이동체(100)와 조종사가 가까워지거나 멀어지는 상대 거리 및/또는 상대 속도 등을 화면에 표시할 수 있다.The control
조종 영상 생성 장치(300)는 조종사에게 출력되는 AR 화면의 우측 하단에 자세한 항법 정보가 표시되도록 AR 화면을 구성할 수 있다. 자세한 항법 정보는 자세 표시기, 기체 위치, 속도, 고도, 온도, 압력, 항법 모드, 모터 출력, 기체 배터리 상황, 임무 진행 상황 등을 포함하는 정보를 포함하며, 구체적으로 표시되어 무인 이동체(100)의 임무의 세밀한 관리를 가능하게 할 수 있다.The pilot
또한, 조종 영상 생성 장치(300)는 AR 화면의 좌측 하단에는 무인 이동체 영상이 표시되도록 FPV 화면을 구성할 수 있다. 조종사는 AR 화면을 통해 무인 이동체(100)의 전방을 1인칭 시점에서 촬영된 무인 이동체 영상도 확인할 수 있다.In addition, the manipulation
조종 영상 생성 장치(300)는 FPV 화면에도 상술한 상대 항법 정보 등에 대한 내용들을 표시할 수 있다.The manipulation
이를 통해, 보다 적은 인력으로 무인 이동체(100)의 운용이 가능한 것과 무인 이동체(100)의 조종 편의성이 향상될 수 있다. 조종사는 무인 이동체(100)에 집중하면서 조종할 수 있음과 동시에 같은 시야 내에 증강 현실로 구현된 각종 임무 상황과 무인 이동체(100)의 기체 정보를 한 눈에 확인할 수 있다. 또한, 무인 이동체(100)가 시야에서 벗어날 경우를 대비하여 무인 이동체(100)에 사각형 표시로 기체 위치를 나타내어 조종사가 기체를 놓치지 않게 해주고, 각종 정보를 옆에 표시하여 조종에 도움이 될 수 있게 한다.Through this, it is possible to operate the unmanned
도 4는 화면 스위칭을 설명하기 위한 순서도이고, 도 5는 화면 스위칭에 이용되는 판단 기준을 설명하기 위한 도면이다.4 is a flowchart for explaining screen switching, and FIG. 5 is a diagram for explaining a criterion used for screen switching.
조종 영상 생성 장치(300)는 AR 화면과 FPV 화면 간에 스위칭하여 출력할 수 있다.The manipulation
무인 이동체(100)가 임무 수행을 위해 출발한 후 무인 이동체(100)가 조종사 시야를 벗어나는 경우, 조종사에게는 조종사와 같은 시야 범위를 가진 영상 처리 장치(400)에서 촬영되는 화면보다 임무가 수행되고 있는 무인 이동체(100)의 FPV 화면을 보는 것이 더 유용할 수 있다.When the unmanned moving
조종사의 가시 상황을 고려해 무인 이동체(100)가 미리 지정된 상대 거리나 장애물 등으로 인하여 가시성 환경을 벗어나는 경우, 조종 영상 생성 장치(300)는 좌측 하단에 표시되던 FPV 화면을 주 화면으로 스위칭하고, 영상 처리 장치(400)에서 제공하던 AR 화면을(예를 들어, 조종사 영상)을 좌측 하단에 작게 표시하여 조종사에게 임무 수행에 더 도움이 되는 화면을 제공할 수 있다.When the unmanned moving
FPV 화면의 경우, 조종사가 마치 무인 이동체(100)에 탑승한 것처럼 VR(Virtual Reality) 환경을 조성하여 조종 편의성을 높여줄 수 있다. 무인 이동체(100)가 임무를 마치고 복귀 및 착륙하기 위해 조종사의 가시성 환경 내로 들어오면 다시 두 화면을 서로 전환하여 조종사 시점에서 편하게 착륙 절차를 진행하도록 할 수 있다. FPV 화면이 주 화면으로 출력되는 경우, 조종 영상 생성 장치(300)는 무인 이동체(100)로부터 직접 무인 이동체 영상을 수신하여 FPT 화면을 구성하고, 이를 출력할 수 있다.In the case of the FPV screen, a virtual reality (VR) environment may be created as if the pilot was riding on the unmanned moving
조종 영상 생성 장치(300)는 두가지의 판단 기준을 이용하여 하나라로 만족하는 경우 상술한 화면 스위칭을 수행할 수 있다.The manipulation
일 예로, 무인 이동체(100)와 조종사의 위치 정보에 기초한 상대 거리가 판단 기준일 수 있다. 조종 영상 생성 장치(300)는 사전 정의된 상대 거리를 벗어날 경우 화면 스위칭을 수행할 수 있다.For example, the relative distance based on the location information of the unmanned moving
다른 예로, 주변 지형 맵정보와 연동하여 무인 이동체(100)와 조종사 간의 가시성 벡터(line-of-sight vector)의 유지 여부가 판단 기준일 수 있다. 조종 영상 생성 장치(300)는 주변 지형 맵 정보에 기초하여 무인 이동체(100)와 조종사 간의 가시성 벡터의 유지 여부를 판별하여 스위칭을 수행할 수 있다.As another example, whether to maintain a line-of-sight vector between the unmanned
도 6은 일 실시예에 따른 조종 영상 생성 장치의 개략적인 블록도이다.6 is a schematic block diagram of an apparatus for generating a steering image according to an exemplary embodiment.
조종 영상 생성 장치(300)는 송수신기(310), 프로세서(330) 및 메모리(350)를 포함한다.The manipulation
송수신기(310)는 무인 이동체(100), 지상 관제 시스템(200) 및 영상 처리 장치(400)와 조종 영상 생성 장치(300) 간의 통신을 수행할 수 있다.The
메모리(350)는 프로세서(330)에 의해 실행가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(330)의 동작 및/또는 프로세서(330)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The memory 350 may store instructions (or programs) executable by the
프로세서(330)는 메모리(350)에 저장된 데이터를 처리할 수 있다. 프로세서(330)는 메모리(350)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(330)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.The
프로세서(330)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.The
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).
프로세서(330)는 비디오 제목 식별 장치(300)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(330)는 조종 영상 생성 장치(300)의 각 구성(310 및 350)의 동작을 제어할 수 있다.The
프로세서(330)는 도 2 및 도 3을 참조하여 설명한 상대 항법 정보 생성, AR 화면 생성, 및 FPV 화면 생성 등에 대한 동작을 수행할 수 있다. 또한, 프로세서(330)는 도 4 및 도 5를 참조하여 설명한 화면 스위칭 동작을 수행할 수 있다.The
즉, 프로세서(330)는 도 1 내지 도 5를 참조하여 설명한 조종 영상 생성 장치(300)의 동작을 실질적으로 수행할 수 있다.That is, the
상술한 바와 같이, 실시예들은 무인 이동체와 그것을 관리하는 지상 관제 장비(Ground Control System) 활용에 증강 현실을 지원하는 장치를 접목해서 파일럿이 무인 이동체 조종과 상황 모니터링을 동시에 하여 사용자 편의성을 증대시킬 수 있다.As described above, the embodiments can increase user convenience by combining an unmanned moving object and a device supporting augmented reality to the use of a ground control system that manages it, so that a pilot can control the unmanned moving object and monitor the situation at the same time. have.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (17)
상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하는 단계;
상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하는 단계; 및
상기 영상 처리 장치에 상기 AR 화면을 출력하는 단계
를 포함하고,
상기 생성하는 단계는,
상기 무인 이동체의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 초점 거리 및 비대칭 계수에 기초한 행렬에 기초하여 변환함으로써 상기 AR 화면의 화상 좌표로 변환하는 단계를 포함하고,
상기 구성하는 단계는,
상기 화상 좌표에 기초하여 상기 무인 이동체를 상기 조종사 영상 위에 매핑하는 단계를 포함하는,
무인 이동체 제어 방법.
Receiving navigation information of an unmanned vehicle;
generating relative navigation information between the unmanned vehicle and a pilot based on the navigation information;
constructing an AR screen by reflecting the relative navigation information in a pilot image photographed in front by the image processing device worn by the pilot; and
outputting the AR screen to the image processing device
including,
The generating step is
converting the position of the unmanned moving object into image coordinates of the AR screen by transforming the position of the unmanned moving object based on a matrix based on a focal length and an asymmetry coefficient of an image capturing apparatus included in the image processing apparatus,
The configuring step is
Comprising the step of mapping the unmanned moving object on the pilot image based on the image coordinates,
An unmanned moving object control method.
상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하는 단계; 및
상기 영상 처리 장치에 상기 FPV 화면을 출력하는 단계
를 더 포함하는 무인 이동체 제어 방법.
According to claim 1,
constructing an FPV screen by reflecting the navigation information or the relative navigation information on an unmanned moving object image photographed in front of the unmanned moving object; and
outputting the FPV screen to the image processing device
An unmanned moving object control method further comprising a.
상기 생성하는 단계는,
상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성하는 단계
를 포함하는 무인 이동체 제어 방법.
According to claim 1,
The generating step is
generating the relative navigation information by processing the navigation information based on the position, speed, and posture of the pilot and the unmanned moving object;
An unmanned moving object control method comprising a.
상기 AR 화면을 구성하는 단계는,
상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하는 단계;
변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하는 단계; 및
상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시하는 단계
를 포함하는 무인 이동체 제어 방법.
4. The method of claim 3,
The step of constructing the AR screen comprises:
converting the position on the navigation coordinate system of the unmanned moving object into an image coordinate system of an image capturing apparatus included in the image processing apparatus;
mapping the converted position on the pilot image and displaying the unmanned moving object by covering a rectangular frame; and
Displaying the relative navigation information on the lower right of the AR screen
An unmanned moving object control method comprising a.
상기 AR 화면을 구성하는 단계는,
상기 무인 이동체의 속도 벡터를 화살표로 표시하는 단계
를 더 포함하는 무인 이동체 제어 방법.
5. The method of claim 4,
The step of constructing the AR screen comprises:
Displaying the velocity vector of the unmanned moving object as an arrow
An unmanned moving object control method further comprising a.
상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성하는 단계
를 더 포함하는 무인 이동체 제어 방법.
3. The method of claim 2,
Composing the FPV screen at the lower left of the AR screen
An unmanned moving object control method further comprising a.
상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계
를 더 포함하는 무인 이동체 제어 방법.
7. The method of claim 6,
Switching any one of the AR screen and the FPV screen to the main screen based on the relative distance between the unmanned moving object and the pilot
An unmanned moving object control method further comprising a.
상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계
를 더 포함하는 무인 이동체 제어 방법.
7. The method of claim 6,
Switching any one of the AR screen and the FPV screen to the main screen based on whether the visibility vector between the unmanned moving object and the pilot is maintained
An unmanned moving object control method further comprising a.
인스트럭션들을 저장하는 메모리; 및
상기 인스트럭션들을 실행하는 프로세서
를 포함하고,
상기 인스트럭션들이 실행될 때, 프로세서는,
상기 무인 이동체의 항법 정보를 수신하고, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하고, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하고, 상기 영상 처리 장치에 상기 AR 화면을 출력하고, 상기 무인 이동체의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 초점 거리 및 비대칭 계수에 기초한 행렬에 기초하여 변환함으로써 상기 AR 화면의 화상 좌표로 변환하고, 상기 화상 좌표에 기초하여 상기 무인 이동체를 상기 조종사 영상 위에 매핑하는
장치.
In the device for controlling an unmanned vehicle,
a memory for storing instructions; and
a processor that executes the instructions
including,
When the instructions are executed, the processor:
Receives the navigation information of the unmanned vehicle, generates relative navigation information between the unmanned vehicle and the pilot based on the navigation information, and adds the relative navigation information to the pilot image captured by the image processing device worn by the pilot in front. By reflecting, constructing an AR screen, outputting the AR screen to the image processing device, and transforming the position of the unmanned moving object based on a matrix based on the focal length and asymmetry coefficient of the image capturing device included in the image processing device Converting to image coordinates of the AR screen, and mapping the unmanned moving object on the pilot image based on the image coordinates
Device.
상기 프로세서는,
상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하고, 상기 영상 처리 장치에 상기 FPV 화면을 출력하는 장치.
10. The method of claim 9,
The processor is
An apparatus for configuring an FPV screen by reflecting the navigation information or the relative navigation information on an unmanned moving object image taken in front of the unmanned moving object, and outputting the FPV screen to the image processing device.
상기 프로세서는,
상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성하는 장치.
10. The method of claim 9,
The processor is
An apparatus for generating the relative navigation information by processing the navigation information based on the position, speed, and posture of the pilot and the unmanned moving object.
상기 프로세서는,
상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하고, 변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하고, 상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시하는 장치.
12. The method of claim 11,
The processor is
The position on the navigation coordinate system of the unmanned vehicle is converted into the image coordinate system of the image capturing device included in the image processing device, the converted position is mapped on the pilot image, and a rectangular frame is covered to display the unmanned vehicle, and the relative navigation method A device that displays information in the lower right corner of the AR screen.
상기 프로세서는,
상기 무인 이동체의 속도 벡터를 화살표로 표시하는 장치.
13. The method of claim 12,
The processor is
A device for displaying the velocity vector of the unmanned moving object as an arrow.
상기 프로세서는,
상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성하는 장치.
11. The method of claim 10,
The processor is
A device for configuring the FPV screen at the lower left of the AR screen.
상기 프로세서는,
상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 장치.
15. The method of claim 14,
The processor is
An apparatus for switching any one of the AR screen and the FPV screen to a main screen based on the relative distance between the unmanned moving object and the pilot.
상기 프로세서는,
상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 장치.
15. The method of claim 14,
The processor is
An apparatus for switching any one of the AR screen and the FPV screen to a main screen based on whether the visibility vector between the unmanned vehicle and the pilot is maintained.
상기 장치는,
상기 무인 이동체, 상기 영상 처리 장치, 및 상기 무인 이동체를 관리하며 상기 항법 정보를 수신하는 지상 관제 시스템 중에서 적어도 하나에 구현되는 장치.10. The method of claim 9,
The device is
A device implemented in at least one of the unmanned moving object, the image processing device, and a ground control system that manages the unmanned moving object and receives the navigation information.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180162106 | 2018-12-14 | ||
| KR20180162106 | 2018-12-14 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20200074023A KR20200074023A (en) | 2020-06-24 |
| KR102263227B1 true KR102263227B1 (en) | 2021-06-10 |
Family
ID=71408073
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020190164825A Active KR102263227B1 (en) | 2018-12-14 | 2019-12-11 | Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102263227B1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102711927B1 (en) * | 2021-11-24 | 2024-10-02 | 한국항공우주연구원 | Augmented reality-based agricultural drone operation assistance system and drone operation method |
| KR102841300B1 (en) * | 2022-02-15 | 2025-08-04 | 윤재순 | Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180094931A1 (en) * | 2016-09-30 | 2018-04-05 | Michael Taylor | Steering assist |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6919222B2 (en) * | 2017-02-27 | 2021-08-18 | セイコーエプソン株式会社 | Display device and control method of display device |
-
2019
- 2019-12-11 KR KR1020190164825A patent/KR102263227B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180094931A1 (en) * | 2016-09-30 | 2018-04-05 | Michael Taylor | Steering assist |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20200074023A (en) | 2020-06-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6735821B2 (en) | System and method for planning and controlling UAV paths | |
| EP3368957B1 (en) | Systems and methods for uav path planning and control | |
| KR102236339B1 (en) | Systems and methods for controlling images captured by an imaging device | |
| US11804052B2 (en) | Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path | |
| US10310502B2 (en) | Head-mounted display device, control method therefor, and computer program | |
| CN108664037B (en) | Head-mounted display device and method for operating unmanned aerial vehicle | |
| US9880551B2 (en) | Point-and-click control of unmanned, autonomous vehicle using omni-directional visors | |
| US20190049949A1 (en) | Modified-reality device and method for operating a modified-reality device | |
| EP4273656B1 (en) | Apparatus, method and software for assisting an operator in flying a drone using a remote controller and ar glasses | |
| CN108780325A (en) | Systems and methods for adjusting the trajectory of an unmanned aerial vehicle | |
| CN103984357A (en) | Unmanned aerial vehicle automatic obstacle avoidance flight system based on panoramic stereo imaging device | |
| JP6445808B2 (en) | Image display system | |
| JP2018165066A (en) | Head-mounted display device and control method thereof | |
| KR101662032B1 (en) | UAV Aerial Display System for Synchronized with Operators Gaze Direction | |
| KR20170090888A (en) | Apparatus for unmanned aerial vehicle controlling using head mounted display | |
| KR101437747B1 (en) | Apparatus and method for image processing | |
| KR102263227B1 (en) | Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information | |
| EP4679215A2 (en) | Apparatus, method and software for assisting a human operator in flying a drone using a remote controller and ar headset | |
| KR101751864B1 (en) | Smart device for controling unmanned moving object and method for controling unmanned moving object and recording medium storing program for executing the same, and recording medium storing program for executing the same | |
| Ai et al. | Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment | |
| US20180202831A1 (en) | Auxiliary control method and system for unmanned aerial vehicle | |
| JP2019081456A (en) | Head-mounted type display device and steering method of unmanned aircraft | |
| Alapetite et al. | Demo of gaze controlled flying | |
| KR20200083787A (en) | System for landing indoor precision of drone and method thereof | |
| CN113272754A (en) | Unmanned aerial vehicle control method and device, unmanned aerial vehicle, control terminal and system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18 | Changes to party contact information recorded |
Free format text: ST27 STATUS EVENT CODE: A-5-5-R10-R18-OTH-X000 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
