[go: up one dir, main page]

KR102263227B1 - Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information - Google Patents

Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information Download PDF

Info

Publication number
KR102263227B1
KR102263227B1 KR1020190164825A KR20190164825A KR102263227B1 KR 102263227 B1 KR102263227 B1 KR 102263227B1 KR 1020190164825 A KR1020190164825 A KR 1020190164825A KR 20190164825 A KR20190164825 A KR 20190164825A KR 102263227 B1 KR102263227 B1 KR 102263227B1
Authority
KR
South Korea
Prior art keywords
screen
moving object
unmanned moving
pilot
navigation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190164825A
Other languages
Korean (ko)
Other versions
KR20200074023A (en
Inventor
유강수
성상경
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Publication of KR20200074023A publication Critical patent/KR20200074023A/en
Application granted granted Critical
Publication of KR102263227B1 publication Critical patent/KR102263227B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

상대 항법 정보를 활용한 증강 현실 기반 무인 이동체 무인 이동체 제어 방법 및 장치가 개시된다. 일 실시예에 따른 무인 이동체 제어 방법은 무인 이동체(Unmanned Vehicle)의 항법 정보를 수신하는 단계와, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하는 단계와, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하는 단계와, 상기 영상 처리 장치에 상기 AR 화면을 출력하는 단계를 포함한다.A method and apparatus for controlling an unmanned moving object based on augmented reality using relative navigation information are disclosed. An unmanned vehicle control method according to an embodiment includes the steps of: receiving navigation information of an unmanned vehicle; generating relative navigation information between the unmanned vehicle and a pilot based on the navigation information; The method includes: configuring an AR screen by reflecting the relative navigation information on a pilot image photographed in front by an image processing device; and outputting the AR screen to the image processing device.

Description

상대 항법 정보를 활용한 증강 현실 기반 무인 이동체 제어 방법 및 장치{METHOD AND APPARATUS FOR CONTROL UNMANNED VEHICLE USING ARTIFICIAL REALITY WITH RELATIVE NAVIGATION INFORMATION}A method and apparatus for controlling an unmanned moving object based on augmented reality using relative navigation information {METHOD AND APPARATUS FOR CONTROL UNMANNED VEHICLE USING ARTIFICIAL REALITY WITH RELATIVE NAVIGATION INFORMATION}

아래 실시예들은 상대 항법 정보를 활용한 증강 현실 기반 무인 이동체 제어 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for controlling an unmanned moving object based on augmented reality using relative navigation information.

무인 이동체는 사용 환경에 따라 무인 항공기(UAV: Unmanned Aerial Vehicle), 무인 지상차량(UGV: Unmanned Ground Vehicle), 무인 잠수정(UUV: Unmanned Underwater Vehicle) 등으로 나눌 수 있다. 무인 이동체는 사전에 입력된 임무를 수행하거나 외부에서 조종사가 직접 기체를 바라보며 조종 명령을 줄 수도 있다.Unmanned vehicles can be classified into unmanned aerial vehicles (UAVs), unmanned ground vehicles (UGVs), and unmanned underwater vehicles (UUVs) according to usage environments. The unmanned vehicle may perform a pre-entered mission, or a pilot may give control commands while looking directly at the aircraft from the outside.

무인 이동체가 임무를 수행하는 동안 지상에서 지상관제시스템을 이용해 무인 이동체로부터 정보를 수신 받아 임무 수행 상황을 파악하고, 무인 이동체의 상태 등을 모니터링 할 수 있다. 하지만, 종래의 지상관제시스템은 지상의 컴퓨터나 전용 차량 내부에서 운용하기 때문에 기체를 눈으로 직접 보는 것과 시스템이 출력하는 화면을 동시에 볼 수 없다.While the unmanned vehicle is performing its mission, it is possible to receive information from the unmanned vehicle on the ground using the ground control system to understand the mission performance and to monitor the status of the unmanned vehicle. However, since the conventional ground control system is operated in a computer on the ground or inside a dedicated vehicle, it is impossible to see the aircraft directly and the screen output by the system at the same time.

많은 경우 조종사가 기체를 실제로 계속 지켜보면서 조종하게 되는데, 앞서 말한 단점으로 조종사는 조종과 동시에 지상관제시스템을 모니터링 하지 못한다는 한계가 존재한다.In many cases, the pilot controls the aircraft while actually watching the aircraft, but due to the aforementioned drawback, there is a limit that the pilot cannot monitor the ground control system at the same time as the pilot.

이러한 단점을 해소하기 위해 주로 조종사는 조종만 전담하고, 옆에 모니터링 전담 인원을 배치해 조종사에게 현재 상황을 알려주면서 임무를 수행한다. 하지만, 이 방식도 무인 이동체 운용 시 요구되는 많은 정보량을 전부 전달할 수 없어 효율적이지 않으며, 즉각적인 상황 대처가 어렵다.In order to solve these shortcomings, the pilot is mainly in charge of the operation, and a dedicated monitoring person is placed next to him to perform the mission while notifying the pilot of the current situation. However, this method is also inefficient because it cannot deliver all the large amount of information required for operation of an unmanned moving vehicle, and it is difficult to respond immediately to the situation.

또한 무인 이동체가 조종사와 멀어질 경우 조종사는 육안으로 무인 이동체의 위치나 자세를 식별할 수 없어 직관적인 조종이 힘들어지는 문제가 발생한다.In addition, when the unmanned moving object moves away from the pilot, the pilot cannot visually identify the position or posture of the unmanned moving object, so intuitive control becomes difficult.

실시예들은 무인 이동체와 그것을 관리하는 지상 관제 장비 활용에 증강 현실을 지원하는 HMD 장치를 접목함으로써, 파일럿이 무인 이동체 조종과 상황 모니터링을 동시에 하여 사용자 편의성을 증대시킬 수 있는 기술을 제공할 수 있다.Embodiments may provide a technology capable of increasing user convenience by combining an HMD device supporting augmented reality with the use of an unmanned moving object and ground control equipment that manages it, so that a pilot can control the unmanned moving object and monitor the situation at the same time.

일 실시예에 따른 무인 이동체 제어 방법은 무인 이동체(Unmanned Vehicle)의 항법 정보를 수신하는 단계와, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하는 단계와, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하는 단계와, 상기 영상 처리 장치에 상기 AR 화면을 출력하는 단계를 포함한다.An unmanned vehicle control method according to an embodiment includes the steps of: receiving navigation information of an unmanned vehicle; generating relative navigation information between the unmanned vehicle and a pilot based on the navigation information; The method includes: configuring an AR screen by reflecting the relative navigation information on a pilot image photographed in front by an image processing device; and outputting the AR screen to the image processing device.

상기 방법은 상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하는 단계와, 상기 영상 처리 장치에 상기 FPV 화면을 출력하는 단계를 더 포함할 수 있다.The method may further include configuring an FPV screen by reflecting the navigation information or the relative navigation information in an unmanned moving object image photographed in front of the unmanned moving object, and outputting the FPV screen to the image processing device. can

상기 생성하는 단계는 상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성하는 단계를 포함할 수 있다.The generating may include generating the relative navigation information by processing the navigation information based on the positions, speeds, and postures of the pilot and the unmanned moving object.

상기 AR 화면을 구성하는 단계는 상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하는 단계와, 변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하는 단계와, 상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시하는 단계를 포함할 수 있다.The step of constructing the AR screen includes converting the position in the navigation coordinate system of the unmanned moving object into the image coordinate system of the image capturing device included in the image processing device, and mapping the converted position on the pilot image to cover a rectangular frame. The method may include displaying the unmanned moving object and displaying the relative navigation information on the lower right side of the AR screen.

상기 AR 화면을 구성하는 단계는 상기 무인 이동체의 속도 벡터를 화살표로 표시하는 단계를 더 포함할 수 있다.The configuring of the AR screen may further include displaying the velocity vector of the unmanned moving object as an arrow.

상기 방법은 상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성하는 단계를 더 포함할 수 있다.The method may further include configuring the FPV screen in the lower left corner of the AR screen.

상기 방법은 상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계를 더 포함할 수 있다.The method may further include switching any one of the AR screen and the FPV screen to a main screen based on the relative distance between the unmanned moving object and the pilot.

상기 방법은 상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계를 더 포함할 수 있다.The method may further include switching any one of the AR screen and the FPV screen to a main screen based on whether the visibility vector between the unmanned moving object and the pilot is maintained.

일 실시예에 따른 무인 이동체(Unmanned Vehicle)의 제어를 위한 장치는 인스트럭션들을 저장하는 메모리와, 상기 인스트럭션들을 실행하는 프로세서를 포함하고, 상기 인스트럭션들이 실행될 때, 프로세서는, 상기 무인 이동체의 항법 정보를 수신하고, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하고, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하고, 상기 영상 처리 장치에 상기 AR 화면을 출력한다.An apparatus for controlling an unmanned vehicle according to an embodiment includes a memory storing instructions and a processor executing the instructions, and when the instructions are executed, the processor receives the navigation information of the unmanned vehicle. Receive, generate relative navigation information between the unmanned mobile body and the pilot based on the navigation information, and configure an AR screen by reflecting the relative navigation information in the pilot image photographed in front by the image processing device worn by the pilot, and , and output the AR screen to the image processing device.

상기 프로세서는 상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하고, 상기 영상 처리 장치에 상기 FPV 화면을 출력할 수 있다.The processor may configure an FPV screen by reflecting the navigation information or the relative navigation information in an unmanned moving object image photographed in front of the unmanned moving object, and output the FPV screen to the image processing device.

상기 프로세서는 상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성할 수 있다.The processor may generate the relative navigation information by processing the navigation information based on the position, speed, and posture of the pilot and the unmanned moving object.

상기 프로세서는 상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하고, 변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하고, 상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시할 수 있다.The processor converts the position in the navigation coordinate system of the unmanned moving object into the image coordinate system of the image capturing device included in the image processing device, maps the converted position on the pilot image, and covers the unmanned moving object with a rectangular frame, The relative navigation information may be displayed in the lower right corner of the AR screen.

상기 프로세서는 상기 무인 이동체의 속도 벡터를 화살표로 표시할 수 있다.The processor may display the velocity vector of the unmanned moving object as an arrow.

상기 프로세서는 상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성할 수 있다.The processor may configure the FPV screen in the lower left corner of the AR screen.

상기 프로세서는 상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭할 수 있다.The processor may switch any one of the AR screen and the FPV screen to the main screen based on the relative distance between the unmanned moving object and the pilot.

상기 프로세서는 상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭할 수 있다.The processor may switch any one of the AR screen and the FPV screen to the main screen based on whether the visibility vector between the unmanned vehicle and the pilot is maintained.

상기 장치는 상기 무인 이동체, 상기 영상 처리 장치, 및 상기 무인 이동체를 관리하며 상기 항법 정보를 수신하는 지상 관제 시스템 중에서 적어도 하나에 구현될 수 있다.The device may be implemented in at least one of the unmanned moving object, the image processing device, and a ground control system that manages the unmanned moving object and receives the navigation information.

도 1은 일 실시예에 따른 증강 현실 기반 무인 이동체 지상 관제 시스템을 나타낸다.
도 2는 상대 항법 정보를 생성하고 이를 화면에 표시하는 동작을 설명하기 위한 도면이다.
도 3은 증강 현실 기반 무인 이동체 지상 관제 시스템이 사용자의 AR 장치에 제공하는 화면의 일 예를 나타낸다.
도 4는 화면 스위칭을 설명하기 위한 순서도이고, 도 5는 화면 스위칭에 이용되는 판단 기준을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 조종 영상 생성 장치의 개략적인 블록도이다.
1 shows an augmented reality-based unmanned mobile ground control system according to an embodiment.
2 is a diagram for explaining an operation of generating relative navigation information and displaying it on a screen.
3 shows an example of a screen provided by an augmented reality-based unmanned mobile ground control system to a user's AR device.
4 is a flowchart for explaining screen switching, and FIG. 5 is a diagram for explaining a criterion used for screen switching.
6 is a schematic block diagram of an apparatus for generating a steering image according to an exemplary embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for description purposes only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

제1 또는 제2등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해서 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 실시예의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The terms are only for the purpose of distinguishing one element from another element, for example, without departing from the scope of rights according to the concept of the embodiment, a first element may be named as a second element, and similarly The second component may also be referred to as the first component.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

도 1은 일 실시예에 따른 증강 현실 기반 무인 이동체 지상 관제 시스템을 나타낸다.1 shows an augmented reality-based unmanned mobile ground control system according to an embodiment.

무인 이동체 지상 관제 시스템(10)은 무인 이동체(100), 지상 관제 시스템(Ground Control System(GSC); 200), 조종 영상 생성 장치(300), 영상 처리 장치(400), 및 조종 장치(500)를 포함한다. 무인 이동체 지상 관제 시스템(10)은 증강 현실 기반 무인 이동체 지상 관제 시스템을 의미할 수 있다.The unmanned moving object ground control system 10 includes an unmanned moving object 100 , a ground control system (GSC) 200 , a manipulating image generating apparatus 300 , an image processing apparatus 400 , and a manipulating apparatus 500 . includes The unmanned mobile ground control system 10 may refer to an augmented reality-based unmanned mobile ground control system.

무인 이동체(100)는 사용 환경에 따라 무인 항공기(UAV(Unmanned Aerial Vehicle)), 무인 지상차량(UGV(Unmanned Ground Vehicle)), 무인 잠수정(UUV(Unmanned Underwater Vehicle)) 등을 포함할 수 있다. 무인 이동체(100)는 사전에 입력된 임무를 수행하거나 외부에서 조종사가 직접 무인 이동체(100)를 바라보며 조종 장치(500)를 통해 조종 명령을 전송할 수도 있다.The unmanned mobile vehicle 100 may include an unmanned aerial vehicle (UAV), an unmanned ground vehicle (UGV), an unmanned underwater vehicle (UUV), etc. depending on the usage environment. The unmanned moving object 100 may perform a mission input in advance, or a pilot may transmit a steering command through the control device 500 while directly looking at the unmanned moving object 100 from the outside.

무인 이동체(100)가 임무를 수행하는 동안, 지상에서 지상 관제 시스템(200)은 무인 이동체(100)를 관리하며, 무인 이동체(100)로부터 정보를 수신 받아 무인 이동체(100)의 임무 수행 상황을 파악하고, 무인 이동체(100)의 상태 등을 모니터링 할 수 있다.While the unmanned mobile body 100 performs a mission, the ground control system 200 on the ground manages the unmanned mobile body 100 and receives information from the unmanned mobile body 100 to monitor the mission performance of the unmanned mobile body 100 . It is possible to identify and monitor the state of the unmanned moving object 100 .

지상 관제 시스템(200)은 무인 이동체(100)로부터 항법 정보 및 무인 이동체 영상을 수신할 수 있다. 지상 관제 시스템(200)은 항법 정보를 조종 영상 생성 장치(300)로 전송할 수 있다. 또한, 지상 관제 시스템(200)은 무인 이동체 영상도 조종 영상 생성 장치(200)로 전송할 수 있다.The ground control system 200 may receive navigation information and an image of the unmanned moving object from the unmanned moving object 100 . The ground control system 200 may transmit navigation information to the manipulation image generating apparatus 300 . Also, the ground control system 200 may transmit an image of an unmanned moving object to the control image generating apparatus 200 .

항법 정보는 비행 중인 무인 이동체(100)의 항법과 관련된 정보일 수 있다. 항법 정보는 무인 이동체(100)의 자세 정보, 위치 정보, 속도 정보, 및 고도 정보 등을 포함할 수 있다. 또한, 항법 정보는 무인 이동체(100)의 잔여 에너지량 및 비행 가능 시간 등에 대한 정보를 더 포함할 수 있다.The navigation information may be information related to the navigation of the unmanned mobile body 100 in flight. The navigation information may include attitude information, location information, speed information, and altitude information of the unmanned moving object 100 . In addition, the navigation information may further include information on the amount of energy remaining and the available flight time of the unmanned moving object 100 .

무인 이동체 영상은 무인 이동체(100)에 포함된 영상 촬영 장치를 통해 촬영된 영상일 수 있다. 무인 이동체 영상은 무인 이동체(200)의 전방을 촬영한 영상일 수 있다.The unmanned moving object image may be an image captured by an image capturing device included in the unmanned moving object 100 . The unmanned moving object image may be an image of the front of the unmanned moving object 200 .

조종 영상 생성 장치(300)는 항법 정보 및 조종사 정보에 기초하여 조종사와 무인 이동체(100) 간의 상대 항법 정보를 생성할 수 있다. 예를 들어, 조종사 정보는 조종사의 위치 및 자세 정보 등을 포함하고, 상대 항법 정보는 조종사와 무인 이동체(100) 간의 상대 거리, 상대 속도, 상대 위치 등에 대한 정보를 포할 수 있다. 상대 항법 정보는 조종사를 기준으로 조정사와 무인 이동체(100) 간의 상대적 3차원 항법 정보를 의미할 수 있다.The pilot image generating apparatus 300 may generate relative navigation information between the pilot and the unmanned moving object 100 based on the navigation information and the pilot information. For example, the pilot information may include the position and attitude information of the pilot, and the relative navigation information may include information on the relative distance, relative speed, relative position, and the like between the pilot and the unmanned moving object 100 . The relative navigation information may refer to relative three-dimensional navigation information between the pilot and the unmanned vehicle 100 with respect to the pilot.

조종 영상 생성 장치(300)는 증강 현실(Augmented Reality(AR)), 가상 현실(Virtual Reality(VR)), 혼합 현실(Mixed Reality(MR)), 또는 확장 현실(eXtended Reality(XR))를 구현할 수 있다.The control image generating device 300 implements augmented reality (Augmented Reality (AR)), virtual reality (Virtual Reality (VR)), mixed reality (Mixed Reality (MR)), or extended reality (eXtended Reality (XR)). can

조종 영상 생성 장치(300)는 상대 항법 정보를 조종사 영상에 반영하여 AR 화면을 구성할 수 있다. 조종사 영상은 조종사가 착용한 영상 처리 장치(400)에 포함된 영상 촬영 장치를 통해 촬영된 영상일 수 있다. 조종사 영상은 영상 처리 장치(400)의 전방을 촬영한 영상일 수 있다. AR 화면은 3인칭 조종 화면일 수 있다.The pilot image generating apparatus 300 may configure the AR screen by reflecting the relative navigation information on the pilot image. The pilot image may be an image captured by an image capturing device included in the image processing device 400 worn by the pilot. The pilot image may be an image taken from the front of the image processing apparatus 400 . The AR screen may be a third-person control screen.

조종 영상 생성 장치(300)는 무인 이동체 영상을 이용하여 FPV(First Person View) 화면을 구성할 수 있다. 또한, 조종 영상 생성 장치(300)는 항법 정보 또는 상대 항법 정보를 무인 이동체 영상에 반영하여 FPV 화면을 구성할 수 있다. FPV 화면은 1인칭 조종 화면일 수 있다.The control image generating apparatus 300 may configure a First Person View (FPV) screen using the unmanned moving object image. Also, the manipulation image generating apparatus 300 may configure the FPV screen by reflecting the navigation information or the relative navigation information on the unmanned moving object image. The FPV screen may be a first-person control screen.

조종 영상 생성 장치(300)는 AR 화면 및/또는 FPV 화면을 영상 처리 장치(400)로 전송할 수 있다.The manipulation image generating device 300 may transmit the AR screen and/or the FPV screen to the image processing device 400 .

조종사는 영상 처리 장치(400)를 착용하여 무인 이동체(100)를 바라보면서 조종 장치(500)를 이용하여 무인 이동체(100)를 조정할 수 있다.The pilot may control the unmanned moving object 100 by using the control device 500 while looking at the unmanned moving object 100 by wearing the image processing apparatus 400 .

영상 처리 장치(400)는 증강 현실(Augmented Reality(AR)), 가상 현실(Virtual Reality(VR)), 혼합 현실(Mixed Reality(MR)), 또는 확장 현실(eXtended Reality(XR))를 구현할 수 있다.The image processing device 400 may implement augmented reality (Augmented Reality (AR)), virtual reality (Virtual Reality (VR)), mixed reality (Mixed Reality (MR)), or extended reality (eXtended Reality (XR)). have.

영상 처리 장치(400)는 휴대용 전자 장치로 구현될 수 있다. 예를 들어, 영상 처리 장치(100)는 스마트 디바이스(smart device)로 구현될 수 있다. 스마트 디바이스는 헤드 마운티드 디스플레이(head mounted display(HMD)), 스마트 글래스(smart glasses), 스마트 워치(smart watch watch), 및 스마트 밴드(smart band)를 포함할 수 있다. 즉, 영상 처리 장치(100)는 사용자가 착용할 수 있는 또는 착용하기에 적합한 웨어러블 디바이스(wearable device)일 수 있다.The image processing apparatus 400 may be implemented as a portable electronic device. For example, the image processing apparatus 100 may be implemented as a smart device. The smart device may include a head mounted display (HMD), smart glasses, a smart watch, and a smart band. That is, the image processing apparatus 100 may be a wearable device that a user can wear or is suitable for wearing.

영상 처리 장치(400)는 영상 처리 장치(400)에 포함된 디스플레이를 통해 상대 항법 정보 또는 항법 정보가 반영된 AR 화면 및/또는 FPV 화면을 조종사에게 출력할 수 있다.The image processing apparatus 400 may output the relative navigation information or the AR screen and/or the FPV screen in which the navigation information is reflected to the pilot through the display included in the image processing apparatus 400 .

조종사는 영상 처리 장치(400)를 착용하여 무인 이동체(100)를 바라보면서 조종 장치(500)를 이용하여 조종함과 동시에, 각종 상황을 모니터링할 수 있다. 현실 상황 위에 각종 정보를 띄울 수 있는 AR 기술의 장점을 활용하여 조종사가 조종에 방해받지 않고 무인 이동체(100)의 운용 시에 필요한 다양한 정보를 외부 인력의 도움을 받지 않고 독립적으로 모니터링할 수 있다. 이에 더하여 조종사의 조종 편의를 위한 다양한 인터페이스를 같이 영상 처리 장치(400)의 화면에 표시하여 안전하고 효율적인 임무 수행을 가능하도록 한다.The pilot wears the image processing device 400 and while looking at the unmanned moving object 100 , the pilot uses the control device 500 to steer and monitor various situations at the same time. By utilizing the advantages of AR technology that can float various information on a real situation, the pilot can independently monitor various information necessary for the operation of the unmanned mobile body 100 without the help of external personnel without being obstructed by the operation. In addition, various interfaces for the pilot's convenience are displayed on the screen of the image processing apparatus 400 to enable safe and efficient mission performance.

도 1에서는 조종 영상 생성 장치(300)가 지상 관제 시스템(200), 영상 처리 장치(400), 및 조종 장치(500)와 구별되는 별도의 장치로 도시되어 있지만, 반드시 이에 한정되는 것은 아니며, 실시예에 따라 조종 영상 생성 장치(300)는 지상 관제 시스템(200), 영상 처리 장치(400), 또는 조종 장치(500) 내에 구현될 수 있다.In FIG. 1 , the manipulation image generating device 300 is illustrated as a separate device distinct from the ground control system 200 , the image processing device 400 , and the manipulation device 500 , but the present invention is not limited thereto. According to an example, the manipulation image generating device 300 may be implemented in the ground control system 200 , the image processing device 400 , or the manipulation device 500 .

도 2는 상대 항법 정보를 생성하고 이를 화면에 표시하는 동작을 설명하기 위한 도면이고, 도 3은 증강 현실 기반 무인 이동체 지상 관제 시스템이 사용자의 AR 장치에 제공하는 화면의 일 예를 나타낸다.FIG. 2 is a diagram for explaining an operation of generating relative navigation information and displaying it on a screen, and FIG. 3 shows an example of a screen provided by the augmented reality-based unmanned mobile ground control system to the user's AR device.

조종 영상 생성 장치(300)는 AR 화면 및 FPV 화면을 생성할 수 있다. 조종사가 영상 처리 장치(400)를 착용하여 무인 이동체(100)를 바라보면서 조종 장치(500)를 이용하여 조종함과 동시에, 각종 상황을 모니터링할 수 있도록, 조종 영상 생성 장치(300)는 AR 화면 및/또는 FPV 화면을 영상 처리 장치(400)로 전송할 수 있다.The manipulation image generating apparatus 300 may generate an AR screen and an FPV screen. The pilot image generating device 300 provides an AR screen so that the pilot can wear the image processing device 400 to monitor the various situations at the same time while using the control device 500 to control the unmanned moving object 100 while looking at the unmanned moving object 100 . and/or the FPV screen may be transmitted to the image processing apparatus 400 .

AR 화면에는 조종사 영상과 함께 상대 항법 정보가 표시될 수 있다. 복수 개의 무인 이동체(100)를 운용하거나 무인 이동체가 너무 작은 이유 등으로 임무 수행에 지장이 생길 경우 육안으로 무인 이동체(100)의 식별을 편리하게 해주기 위하여, AR 화면에 사각형 표시로 무인 이동체(100)의 위치를 나타낼 수 있다. 또 화살표 표시로 속도 벡터를 나타내고 각종 정보를 옆에 표시하여 조종에 도움이 될 수 있게 한다.The AR screen may display relative navigation information along with the pilot image. In order to facilitate the identification of the unmanned moving object 100 with the naked eye when a plurality of unmanned moving objects 100 are operated or the unmanned moving object is too small, etc., it is difficult to identify the unmanned moving object 100 with a square display on the AR screen. ) can be indicated. In addition, the speed vector is indicated by arrow marks, and various information is displayed next to it so that it can be helpful for steering.

조종 영상 생성 장치(300)는 조종사 및 무인 이동체(100)의 3차원 위치, 속도, 및 자세에 기초하여 항법 정보를 가공하여 상대 항법 정보를 생성할 수 있다.The manipulation image generating apparatus 300 may generate relative navigation information by processing the navigation information based on the three-dimensional position, speed, and posture of the pilot and the unmanned moving object 100 .

AR 화면에 표시되는 무인 이동체(100) 위에 정보(예를 들어, 상대 항법 정보)를 표시하기 위해서는 무인 이동체가 AR 카메라로 촬영되는 화상 면에서 어느 지점에 있는지 계산해야 한다. 이를 위해 무인 이동체(100)와 조종사 간의 상대적인 위치와 자세를 고려해서, 항법 좌표계에서 계산된 무인 이동체(100)의 항법 위치 정보를 조종사의 영상 처리 장치(400)의 화상 좌표계로 변환하는 과정이 필요하다.In order to display information (eg, relative navigation information) on the unmanned moving object 100 displayed on the AR screen, it is necessary to calculate at which point the unmanned moving object is in the image captured by the AR camera. To this end, in consideration of the relative position and attitude between the unmanned mobile body 100 and the pilot, the process of converting the navigation position information of the unmanned mobile body 100 calculated in the navigation coordinate system into the image coordinate system of the image processing device 400 of the pilot is required. Do.

도 2에 도시된 바와 같이, 무인 이동체(100)가 카메라의 화상 면으로 투영될 수 있다. 항법 좌표계상에서 계산된 무인 이동체(100)의 위치 (

Figure 112019128139615-pat00001
)를 화상 좌표계상의 점
Figure 112019128139615-pat00002
로 변환시키는 과정은 homogeneous 좌표로 다음 수학식 1과 같이 나타낼 수 있다.As shown in FIG. 2 , the unmanned moving object 100 may be projected onto the image plane of the camera. The position of the unmanned moving object 100 calculated on the navigation coordinate system (
Figure 112019128139615-pat00001
) to a point on the image coordinate system
Figure 112019128139615-pat00002
The process of transforming into ? can be expressed as the following Equation 1 in homogeneous coordinates.

Figure 112019128139615-pat00003
Figure 112019128139615-pat00003

여기서

Figure 112019128139615-pat00004
행렬은 영상 처리 장치(400)에 포함된 영상 촬영 장치(예를 들어, 카메라)의 파라미터 설정에 따라 결정되는 행렬로서,
Figure 112019128139615-pat00005
는 초점 거리,
Figure 112019128139615-pat00006
는 주점,
Figure 112019128139615-pat00007
는 비대칭 계수일 수 있다.
Figure 112019128139615-pat00008
행렬은 항법 좌표계를 영상 처리 장치(400)의 화상 좌표계로 변환시키기 위한 회전/병진이동변환 행렬일 수 있다.here
Figure 112019128139615-pat00004
The matrix is a matrix determined according to parameter settings of an image capturing apparatus (eg, a camera) included in the image processing apparatus 400 ,
Figure 112019128139615-pat00005
is the focal length,
Figure 112019128139615-pat00006
is a tavern,
Figure 112019128139615-pat00007
may be an asymmetry coefficient.
Figure 112019128139615-pat00008
The matrix may be a rotation/translation transformation matrix for converting the navigation coordinate system into the image coordinate system of the image processing apparatus 400 .

조종 영상 생성 장치(300)는 조종사 및 무인 이동체(100)의 3차원 위치/속도/자세에 기초하여 상대 항법 정보를 가공하여 2차원 화상 좌표계에서의 유효한 정보로 변환함으로써, 상대 항법 정보를 AR 화면에 효율적인 비행 보조 정보로 제공할 수 있다.The control image generating apparatus 300 processes the relative navigation information based on the three-dimensional position/velocity/position of the pilot and the unmanned moving object 100 and converts the relative navigation information into valid information in the two-dimensional image coordinate system, thereby converting the relative navigation information to the AR screen. It can be provided as effective flight assistance information to

조종 영상 생성 장치(300)는 무인 이동체(100)의 위치를 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 기체 식별성을 높이고, 무인 이동체(100)의 이동 방향에 화살표를 도시하여 영상 처리 장치(400)에 포함된 영상 촬영 장치의 2차원 좌표상에서 무인 이동체(100)의 속도 벡터를 화살표 시현함으로써 조종 편의성을 높일 수 있다. 조종 영상 생성 장치(300)는 2차원 위치 및 속도 정보를 이용하여 주변 드론이나 빌딩 등 장애물과의 상대 속도 정보를 생성함으로써, 조종사에 충돌회피 정보로 제공될 수도 있다. 또한, 조종 영상 생성 장치(300)는 무인 이동체(100)와 조종사가 가까워지거나 멀어지는 상대 거리 및/또는 상대 속도 등을 화면에 표시할 수 있다.The control image generating apparatus 300 maps the position of the unmanned moving object 100 on the pilot image to increase the identification of the aircraft by covering the rectangular frame, and shows an arrow in the moving direction of the unmanned moving object 100 to the image processing apparatus 400 . By displaying the velocity vector of the unmanned moving object 100 as an arrow on the two-dimensional coordinates of the included image photographing device, it is possible to increase the maneuverability. The pilot image generating apparatus 300 may be provided as collision avoidance information to the pilot by generating relative speed information with an obstacle such as a nearby drone or a building using the two-dimensional position and speed information. In addition, the manipulation image generating apparatus 300 may display a relative distance and/or relative speed at which the unmanned moving object 100 and the pilot are approaching or moving away from each other on the screen.

조종 영상 생성 장치(300)는 조종사에게 출력되는 AR 화면의 우측 하단에 자세한 항법 정보가 표시되도록 AR 화면을 구성할 수 있다. 자세한 항법 정보는 자세 표시기, 기체 위치, 속도, 고도, 온도, 압력, 항법 모드, 모터 출력, 기체 배터리 상황, 임무 진행 상황 등을 포함하는 정보를 포함하며, 구체적으로 표시되어 무인 이동체(100)의 임무의 세밀한 관리를 가능하게 할 수 있다.The pilot image generating apparatus 300 may configure the AR screen so that detailed navigation information is displayed at the lower right of the AR screen output to the pilot. Detailed navigation information includes information including attitude indicator, aircraft position, speed, altitude, temperature, pressure, navigation mode, motor output, gas battery status, mission progress status, etc. It can enable detailed management of tasks.

또한, 조종 영상 생성 장치(300)는 AR 화면의 좌측 하단에는 무인 이동체 영상이 표시되도록 FPV 화면을 구성할 수 있다. 조종사는 AR 화면을 통해 무인 이동체(100)의 전방을 1인칭 시점에서 촬영된 무인 이동체 영상도 확인할 수 있다.In addition, the manipulation image generating apparatus 300 may configure the FPV screen so that an unmanned moving object image is displayed in the lower left corner of the AR screen. The pilot can also check the image of the unmanned moving object taken from a first-person view of the front of the unmanned moving object 100 through the AR screen.

조종 영상 생성 장치(300)는 FPV 화면에도 상술한 상대 항법 정보 등에 대한 내용들을 표시할 수 있다.The manipulation image generating apparatus 300 may also display the above-described relative navigation information on the FPV screen.

이를 통해, 보다 적은 인력으로 무인 이동체(100)의 운용이 가능한 것과 무인 이동체(100)의 조종 편의성이 향상될 수 있다. 조종사는 무인 이동체(100)에 집중하면서 조종할 수 있음과 동시에 같은 시야 내에 증강 현실로 구현된 각종 임무 상황과 무인 이동체(100)의 기체 정보를 한 눈에 확인할 수 있다. 또한, 무인 이동체(100)가 시야에서 벗어날 경우를 대비하여 무인 이동체(100)에 사각형 표시로 기체 위치를 나타내어 조종사가 기체를 놓치지 않게 해주고, 각종 정보를 옆에 표시하여 조종에 도움이 될 수 있게 한다.Through this, it is possible to operate the unmanned mobile body 100 with less manpower and the convenience of controlling the unmanned mobile body 100 can be improved. The pilot can control the unmanned moving object 100 while focusing on it, and at the same time, can check various mission situations implemented in augmented reality within the same field of view and aircraft information of the unmanned moving object 100 at a glance. In addition, in case the unmanned moving object 100 is out of view, the aircraft position is indicated on the unmanned moving object 100 with a square mark so that the pilot does not miss the aircraft, and various information is displayed next to it to help control do.

도 4는 화면 스위칭을 설명하기 위한 순서도이고, 도 5는 화면 스위칭에 이용되는 판단 기준을 설명하기 위한 도면이다.4 is a flowchart for explaining screen switching, and FIG. 5 is a diagram for explaining a criterion used for screen switching.

조종 영상 생성 장치(300)는 AR 화면과 FPV 화면 간에 스위칭하여 출력할 수 있다.The manipulation image generating apparatus 300 may output by switching between the AR screen and the FPV screen.

무인 이동체(100)가 임무 수행을 위해 출발한 후 무인 이동체(100)가 조종사 시야를 벗어나는 경우, 조종사에게는 조종사와 같은 시야 범위를 가진 영상 처리 장치(400)에서 촬영되는 화면보다 임무가 수행되고 있는 무인 이동체(100)의 FPV 화면을 보는 것이 더 유용할 수 있다.When the unmanned moving object 100 departs from the pilot's field of view after the unmanned moving object 100 departs to perform the mission, the pilot is performing the mission rather than the screen captured by the image processing device 400 having the same field of view as the pilot. It may be more useful to view the FPV screen of the unmanned moving object 100 .

조종사의 가시 상황을 고려해 무인 이동체(100)가 미리 지정된 상대 거리나 장애물 등으로 인하여 가시성 환경을 벗어나는 경우, 조종 영상 생성 장치(300)는 좌측 하단에 표시되던 FPV 화면을 주 화면으로 스위칭하고, 영상 처리 장치(400)에서 제공하던 AR 화면을(예를 들어, 조종사 영상)을 좌측 하단에 작게 표시하여 조종사에게 임무 수행에 더 도움이 되는 화면을 제공할 수 있다.When the unmanned moving object 100 deviates from the visibility environment due to a predetermined relative distance or obstacle in consideration of the pilot's visibility situation, the pilot image generating device 300 switches the FPV screen displayed on the lower left to the main screen, The AR screen (eg, a pilot image) provided by the processing device 400 may be displayed in a small size in the lower left corner to provide the pilot with a screen more helpful in performing the mission.

FPV 화면의 경우, 조종사가 마치 무인 이동체(100)에 탑승한 것처럼 VR(Virtual Reality) 환경을 조성하여 조종 편의성을 높여줄 수 있다. 무인 이동체(100)가 임무를 마치고 복귀 및 착륙하기 위해 조종사의 가시성 환경 내로 들어오면 다시 두 화면을 서로 전환하여 조종사 시점에서 편하게 착륙 절차를 진행하도록 할 수 있다. FPV 화면이 주 화면으로 출력되는 경우, 조종 영상 생성 장치(300)는 무인 이동체(100)로부터 직접 무인 이동체 영상을 수신하여 FPT 화면을 구성하고, 이를 출력할 수 있다.In the case of the FPV screen, a virtual reality (VR) environment may be created as if the pilot was riding on the unmanned moving object 100 to increase the convenience of operation. When the unmanned mobile vehicle 100 comes into the pilot's visibility environment to return and land after completing the mission, the two screens may be switched back to each other to facilitate the landing procedure from the pilot's point of view. When the FPV screen is output as the main screen, the control image generating apparatus 300 may receive the unmanned moving object image directly from the unmanned moving object 100 to configure the FPT screen and output it.

조종 영상 생성 장치(300)는 두가지의 판단 기준을 이용하여 하나라로 만족하는 경우 상술한 화면 스위칭을 수행할 수 있다.The manipulation image generating apparatus 300 may perform the above-described screen switching when one is satisfied using two criteria.

일 예로, 무인 이동체(100)와 조종사의 위치 정보에 기초한 상대 거리가 판단 기준일 수 있다. 조종 영상 생성 장치(300)는 사전 정의된 상대 거리를 벗어날 경우 화면 스위칭을 수행할 수 있다.For example, the relative distance based on the location information of the unmanned moving object 100 and the pilot may be a criterion for determination. The manipulation image generating apparatus 300 may perform screen switching when it deviates from a predefined relative distance.

다른 예로, 주변 지형 맵정보와 연동하여 무인 이동체(100)와 조종사 간의 가시성 벡터(line-of-sight vector)의 유지 여부가 판단 기준일 수 있다. 조종 영상 생성 장치(300)는 주변 지형 맵 정보에 기초하여 무인 이동체(100)와 조종사 간의 가시성 벡터의 유지 여부를 판별하여 스위칭을 수행할 수 있다.As another example, whether to maintain a line-of-sight vector between the unmanned mobile vehicle 100 and the pilot in conjunction with the surrounding terrain map information may be a determination criterion. The pilot image generating apparatus 300 may perform switching by determining whether to maintain a visibility vector between the unmanned mobile vehicle 100 and the pilot based on the surrounding terrain map information.

도 6은 일 실시예에 따른 조종 영상 생성 장치의 개략적인 블록도이다.6 is a schematic block diagram of an apparatus for generating a steering image according to an exemplary embodiment.

조종 영상 생성 장치(300)는 송수신기(310), 프로세서(330) 및 메모리(350)를 포함한다.The manipulation image generating apparatus 300 includes a transceiver 310 , a processor 330 , and a memory 350 .

송수신기(310)는 무인 이동체(100), 지상 관제 시스템(200) 및 영상 처리 장치(400)와 조종 영상 생성 장치(300) 간의 통신을 수행할 수 있다.The transceiver 310 may perform communication between the unmanned moving object 100 , the ground control system 200 , and the image processing apparatus 400 and the manipulation image generating apparatus 300 .

메모리(350)는 프로세서(330)에 의해 실행가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(330)의 동작 및/또는 프로세서(330)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The memory 350 may store instructions (or programs) executable by the processor 330 . For example, the instructions may include instructions for executing an operation of the processor 330 and/or an operation of each component of the processor 330 .

프로세서(330)는 메모리(350)에 저장된 데이터를 처리할 수 있다. 프로세서(330)는 메모리(350)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(330)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.The processor 330 may process data stored in the memory 350 . The processor 330 may execute computer readable code (eg, software) stored in the memory 350 and instructions induced by the processor 330 .

프로세서(330)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.The processor 330 may be a hardware-implemented data processing device having a circuit having a physical structure for executing desired operations. For example, desired operations may include code or instructions included in a program.

예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).

프로세서(330)는 비디오 제목 식별 장치(300)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(330)는 조종 영상 생성 장치(300)의 각 구성(310 및 350)의 동작을 제어할 수 있다.The processor 330 may control the overall operation of the video title identification apparatus 300 . For example, the processor 330 may control the operation of each of the components 310 and 350 of the manipulation image generating apparatus 300 .

프로세서(330)는 도 2 및 도 3을 참조하여 설명한 상대 항법 정보 생성, AR 화면 생성, 및 FPV 화면 생성 등에 대한 동작을 수행할 수 있다. 또한, 프로세서(330)는 도 4 및 도 5를 참조하여 설명한 화면 스위칭 동작을 수행할 수 있다.The processor 330 may perform the operations for generating relative navigation information, generating an AR screen, and generating an FPV screen, which have been described with reference to FIGS. 2 and 3 . Also, the processor 330 may perform the screen switching operation described with reference to FIGS. 4 and 5 .

즉, 프로세서(330)는 도 1 내지 도 5를 참조하여 설명한 조종 영상 생성 장치(300)의 동작을 실질적으로 수행할 수 있다.That is, the processor 330 may substantially perform the operation of the manipulation image generating apparatus 300 described with reference to FIGS. 1 to 5 .

상술한 바와 같이, 실시예들은 무인 이동체와 그것을 관리하는 지상 관제 장비(Ground Control System) 활용에 증강 현실을 지원하는 장치를 접목해서 파일럿이 무인 이동체 조종과 상황 모니터링을 동시에 하여 사용자 편의성을 증대시킬 수 있다.As described above, the embodiments can increase user convenience by combining an unmanned moving object and a device supporting augmented reality to the use of a ground control system that manages it, so that a pilot can control the unmanned moving object and monitor the situation at the same time. have.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (17)

무인 이동체(Unmanned Vehicle)의 항법 정보를 수신하는 단계;
상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하는 단계;
상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하는 단계; 및
상기 영상 처리 장치에 상기 AR 화면을 출력하는 단계
를 포함하고,
상기 생성하는 단계는,
상기 무인 이동체의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 초점 거리 및 비대칭 계수에 기초한 행렬에 기초하여 변환함으로써 상기 AR 화면의 화상 좌표로 변환하는 단계를 포함하고,
상기 구성하는 단계는,
상기 화상 좌표에 기초하여 상기 무인 이동체를 상기 조종사 영상 위에 매핑하는 단계를 포함하는,
무인 이동체 제어 방법.
Receiving navigation information of an unmanned vehicle;
generating relative navigation information between the unmanned vehicle and a pilot based on the navigation information;
constructing an AR screen by reflecting the relative navigation information in a pilot image photographed in front by the image processing device worn by the pilot; and
outputting the AR screen to the image processing device
including,
The generating step is
converting the position of the unmanned moving object into image coordinates of the AR screen by transforming the position of the unmanned moving object based on a matrix based on a focal length and an asymmetry coefficient of an image capturing apparatus included in the image processing apparatus,
The configuring step is
Comprising the step of mapping the unmanned moving object on the pilot image based on the image coordinates,
An unmanned moving object control method.
제1항에 있어서,
상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하는 단계; 및
상기 영상 처리 장치에 상기 FPV 화면을 출력하는 단계
를 더 포함하는 무인 이동체 제어 방법.
According to claim 1,
constructing an FPV screen by reflecting the navigation information or the relative navigation information on an unmanned moving object image photographed in front of the unmanned moving object; and
outputting the FPV screen to the image processing device
An unmanned moving object control method further comprising a.
제1항에 있어서,
상기 생성하는 단계는,
상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성하는 단계
를 포함하는 무인 이동체 제어 방법.
According to claim 1,
The generating step is
generating the relative navigation information by processing the navigation information based on the position, speed, and posture of the pilot and the unmanned moving object;
An unmanned moving object control method comprising a.
제3항에 있어서,
상기 AR 화면을 구성하는 단계는,
상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하는 단계;
변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하는 단계; 및
상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시하는 단계
를 포함하는 무인 이동체 제어 방법.
4. The method of claim 3,
The step of constructing the AR screen comprises:
converting the position on the navigation coordinate system of the unmanned moving object into an image coordinate system of an image capturing apparatus included in the image processing apparatus;
mapping the converted position on the pilot image and displaying the unmanned moving object by covering a rectangular frame; and
Displaying the relative navigation information on the lower right of the AR screen
An unmanned moving object control method comprising a.
제4항에 있어서,
상기 AR 화면을 구성하는 단계는,
상기 무인 이동체의 속도 벡터를 화살표로 표시하는 단계
를 더 포함하는 무인 이동체 제어 방법.
5. The method of claim 4,
The step of constructing the AR screen comprises:
Displaying the velocity vector of the unmanned moving object as an arrow
An unmanned moving object control method further comprising a.
제2항에 있어서,
상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성하는 단계
를 더 포함하는 무인 이동체 제어 방법.
3. The method of claim 2,
Composing the FPV screen at the lower left of the AR screen
An unmanned moving object control method further comprising a.
제6항에 있어서,
상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계
를 더 포함하는 무인 이동체 제어 방법.
7. The method of claim 6,
Switching any one of the AR screen and the FPV screen to the main screen based on the relative distance between the unmanned moving object and the pilot
An unmanned moving object control method further comprising a.
제6항에 있어서,
상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 단계
를 더 포함하는 무인 이동체 제어 방법.
7. The method of claim 6,
Switching any one of the AR screen and the FPV screen to the main screen based on whether the visibility vector between the unmanned moving object and the pilot is maintained
An unmanned moving object control method further comprising a.
무인 이동체(Unmanned Vehicle)의 제어를 위한 장치에 있어서,
인스트럭션들을 저장하는 메모리; 및
상기 인스트럭션들을 실행하는 프로세서
를 포함하고,
상기 인스트럭션들이 실행될 때, 프로세서는,
상기 무인 이동체의 항법 정보를 수신하고, 상기 항법 정보에 기초하여 상기 무인 이동체와 조종사 간의 상대 항법 정보를 생성하고, 상기 조종사가 착용한 영상 처리 장치가 전방을 촬영한 조종사 영상에 상기 상대 항법 정보를 반영하여 AR 화면을 구성하고, 상기 영상 처리 장치에 상기 AR 화면을 출력하고, 상기 무인 이동체의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 초점 거리 및 비대칭 계수에 기초한 행렬에 기초하여 변환함으로써 상기 AR 화면의 화상 좌표로 변환하고, 상기 화상 좌표에 기초하여 상기 무인 이동체를 상기 조종사 영상 위에 매핑하는
장치.
In the device for controlling an unmanned vehicle,
a memory for storing instructions; and
a processor that executes the instructions
including,
When the instructions are executed, the processor:
Receives the navigation information of the unmanned vehicle, generates relative navigation information between the unmanned vehicle and the pilot based on the navigation information, and adds the relative navigation information to the pilot image captured by the image processing device worn by the pilot in front. By reflecting, constructing an AR screen, outputting the AR screen to the image processing device, and transforming the position of the unmanned moving object based on a matrix based on the focal length and asymmetry coefficient of the image capturing device included in the image processing device Converting to image coordinates of the AR screen, and mapping the unmanned moving object on the pilot image based on the image coordinates
Device.
제9항에 있어서,
상기 프로세서는,
상기 무인 이동체가 전방을 촬영한 무인 이동체 영상에 상기 항법 정보 또는 상기 상대 항법 정보를 반영하여 FPV 화면을 구성하고, 상기 영상 처리 장치에 상기 FPV 화면을 출력하는 장치.
10. The method of claim 9,
The processor is
An apparatus for configuring an FPV screen by reflecting the navigation information or the relative navigation information on an unmanned moving object image taken in front of the unmanned moving object, and outputting the FPV screen to the image processing device.
제9항에 있어서,
상기 프로세서는,
상기 조종사 및 상기 무인 이동체의 위치, 속도, 자세에 기초하여 상기 항법 정보를 가공하여 상기 상대 항법 정보를 생성하는 장치.
10. The method of claim 9,
The processor is
An apparatus for generating the relative navigation information by processing the navigation information based on the position, speed, and posture of the pilot and the unmanned moving object.
제11항에 있어서,
상기 프로세서는,
상기 무인 이동체의 항법 좌표계상의 위치를 상기 영상 처리 장치에 포함된 영상 촬영 장치의 화상 좌표계로 변환하고, 변환된 위치를 상기 조종사 영상 위에 맵핑하여 사각형 프레임을 씌워 상기 무인 이동체를 표시하고, 상기 상대 항법 정보를 상기 AR 화면의 우측 하단에 표시하는 장치.
12. The method of claim 11,
The processor is
The position on the navigation coordinate system of the unmanned vehicle is converted into the image coordinate system of the image capturing device included in the image processing device, the converted position is mapped on the pilot image, and a rectangular frame is covered to display the unmanned vehicle, and the relative navigation method A device that displays information in the lower right corner of the AR screen.
제12항에 있어서,
상기 프로세서는,
상기 무인 이동체의 속도 벡터를 화살표로 표시하는 장치.
13. The method of claim 12,
The processor is
A device for displaying the velocity vector of the unmanned moving object as an arrow.
제10항에 있어서,
상기 프로세서는,
상기 FPV 화면을 상기 AR 화면의 좌측 하단에 구성하는 장치.
11. The method of claim 10,
The processor is
A device for configuring the FPV screen at the lower left of the AR screen.
제14항에 있어서,
상기 프로세서는,
상기 무인 이동체 및 상기 조종사 간의 상대 거리에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 장치.
15. The method of claim 14,
The processor is
An apparatus for switching any one of the AR screen and the FPV screen to a main screen based on the relative distance between the unmanned moving object and the pilot.
제14항에 있어서,
상기 프로세서는,
상기 무인 이동체 및 상기 조종사 간의 가시성벡터의 유지 여부에 기초하여 상기 AR 화면과 상기 FPV 화면 중에서 어느 하나를 주 화면으로 스위칭하는 장치.
15. The method of claim 14,
The processor is
An apparatus for switching any one of the AR screen and the FPV screen to a main screen based on whether the visibility vector between the unmanned vehicle and the pilot is maintained.
제9항에 있어서,
상기 장치는,
상기 무인 이동체, 상기 영상 처리 장치, 및 상기 무인 이동체를 관리하며 상기 항법 정보를 수신하는 지상 관제 시스템 중에서 적어도 하나에 구현되는 장치.
10. The method of claim 9,
The device is
A device implemented in at least one of the unmanned moving object, the image processing device, and a ground control system that manages the unmanned moving object and receives the navigation information.
KR1020190164825A 2018-12-14 2019-12-11 Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information Active KR102263227B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180162106 2018-12-14
KR20180162106 2018-12-14

Publications (2)

Publication Number Publication Date
KR20200074023A KR20200074023A (en) 2020-06-24
KR102263227B1 true KR102263227B1 (en) 2021-06-10

Family

ID=71408073

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190164825A Active KR102263227B1 (en) 2018-12-14 2019-12-11 Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information

Country Status (1)

Country Link
KR (1) KR102263227B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102711927B1 (en) * 2021-11-24 2024-10-02 한국항공우주연구원 Augmented reality-based agricultural drone operation assistance system and drone operation method
KR102841300B1 (en) * 2022-02-15 2025-08-04 윤재순 Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180094931A1 (en) * 2016-09-30 2018-04-05 Michael Taylor Steering assist

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6919222B2 (en) * 2017-02-27 2021-08-18 セイコーエプソン株式会社 Display device and control method of display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180094931A1 (en) * 2016-09-30 2018-04-05 Michael Taylor Steering assist

Also Published As

Publication number Publication date
KR20200074023A (en) 2020-06-24

Similar Documents

Publication Publication Date Title
JP6735821B2 (en) System and method for planning and controlling UAV paths
EP3368957B1 (en) Systems and methods for uav path planning and control
KR102236339B1 (en) Systems and methods for controlling images captured by an imaging device
US11804052B2 (en) Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path
US10310502B2 (en) Head-mounted display device, control method therefor, and computer program
CN108664037B (en) Head-mounted display device and method for operating unmanned aerial vehicle
US9880551B2 (en) Point-and-click control of unmanned, autonomous vehicle using omni-directional visors
US20190049949A1 (en) Modified-reality device and method for operating a modified-reality device
EP4273656B1 (en) Apparatus, method and software for assisting an operator in flying a drone using a remote controller and ar glasses
CN108780325A (en) Systems and methods for adjusting the trajectory of an unmanned aerial vehicle
CN103984357A (en) Unmanned aerial vehicle automatic obstacle avoidance flight system based on panoramic stereo imaging device
JP6445808B2 (en) Image display system
JP2018165066A (en) Head-mounted display device and control method thereof
KR101662032B1 (en) UAV Aerial Display System for Synchronized with Operators Gaze Direction
KR20170090888A (en) Apparatus for unmanned aerial vehicle controlling using head mounted display
KR101437747B1 (en) Apparatus and method for image processing
KR102263227B1 (en) Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information
EP4679215A2 (en) Apparatus, method and software for assisting a human operator in flying a drone using a remote controller and ar headset
KR101751864B1 (en) Smart device for controling unmanned moving object and method for controling unmanned moving object and recording medium storing program for executing the same, and recording medium storing program for executing the same
Ai et al. Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment
US20180202831A1 (en) Auxiliary control method and system for unmanned aerial vehicle
JP2019081456A (en) Head-mounted type display device and steering method of unmanned aircraft
Alapetite et al. Demo of gaze controlled flying
KR20200083787A (en) System for landing indoor precision of drone and method thereof
CN113272754A (en) Unmanned aerial vehicle control method and device, unmanned aerial vehicle, control terminal and system

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18 Changes to party contact information recorded

Free format text: ST27 STATUS EVENT CODE: A-5-5-R10-R18-OTH-X000 (AS PROVIDED BY THE NATIONAL OFFICE)

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000