KR102843953B1 - System and Method for Monitoring Unmanned Aircraft - Google Patents
System and Method for Monitoring Unmanned AircraftInfo
- Publication number
- KR102843953B1 KR102843953B1 KR1020250001050A KR20250001050A KR102843953B1 KR 102843953 B1 KR102843953 B1 KR 102843953B1 KR 1020250001050 A KR1020250001050 A KR 1020250001050A KR 20250001050 A KR20250001050 A KR 20250001050A KR 102843953 B1 KR102843953 B1 KR 102843953B1
- Authority
- KR
- South Korea
- Prior art keywords
- drone
- flight
- control
- metaverse
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
- B64U50/37—Charging when not in flight
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
- G05D1/222—Remote-control arrangements operated by humans
- G05D1/224—Output arrangements on the remote controller, e.g. displays, haptics or speakers
- G05D1/2244—Optic
- G05D1/2247—Optic providing the operator with simple or augmented images from one or more cameras
- G05D1/2249—Optic providing the operator with simple or augmented images from one or more cameras using augmented reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/50—Navigation or guidance aids
- G08G5/57—Navigation or guidance aids for unmanned aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/80—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Remote Sensing (AREA)
- Combustion & Propulsion (AREA)
- Computer Graphics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Chemical & Material Sciences (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 무인기 관제 시스템 및 무인기 관제 방법에 관한 것으로서, 본 발명의 실시예에 따른 무인기 관제 시스템은, 비행 경로와 관련해 타 무인기와 충돌 가능성의 판단을 가능하게 하는 맵 데이터나 메타버스 데이터의 시뮬레이션 데이터를 저장하며, 외부장치에서 수신되는 제어 신호가 미감지될 때 자체 구비하는 센서의 센서 데이터를 이용해 (기)저장한 시뮬레이션 데이터에서 비행 위치와 고도를 측정하여 자율 비행을 수행하는 무인기, 및 무인기가 비행하는 현실 세계를 메타버스의 가상 세계로 구현하여 메타버스의 화면상에서 무인기의 동향을 관제하도록 하며, 무인기에서 제공하는 촬영 영상, 사진 또는 센서의 센서 데이터의 분석 결과를 메타버스 화면상에 함께 표시하여 관제가 이루어지게 하는 무인기 관제서비스장치를 포함할 수 있다.The present invention relates to a drone control system and a drone control method, and the drone control system according to an embodiment of the present invention may include a drone that stores map data or simulation data of metaverse data that enables judgment of the possibility of collision with another drone in relation to a flight path, and performs autonomous flight by measuring a flight position and altitude from the (pre-)stored simulation data using sensor data of a sensor provided by the drone itself when a control signal received from an external device is not detected, and a drone control service device that implements the real world in which the drone flies as a virtual world of the metaverse to control the movement of the drone on a screen of the metaverse, and displays the analysis results of the sensor data of the video, photo, or sensor provided by the drone on the metaverse screen together to perform control.
Description
본 발명은 무인기 관제 시스템 및 무인기 관제 방법에 관한 것으로서, 더 상세하게는 가령 드론 자체에도 드론의 운행과 관련한 메타버스 프로그램 환경 등의 시뮬레이션부를 포함하여 통신 두절 등의 경우 드론자체 컴퓨터(예: 비행 컨트롤러(혹은 비행 컴퓨터)(FC))로 시뮬레이션 환경에서 위치와 높이를 보정하여 경로를 찾아가는 무인기 관제 시스템 및 무인기 관제 방법에 관한 것이다.The present invention relates to a drone control system and a drone control method, and more specifically, to a drone control system and a drone control method that include a simulation section, such as a metaverse program environment related to the operation of a drone, in the drone itself, and in the event of a communication interruption, etc., corrects the position and height in a simulation environment using the drone's own computer (e.g., a flight controller (or flight computer) (FC)) to find a path.
무인항공기(Unmanned Aerial Vehicle) 또는 드론(dron)은 조종사가 비행체에 직접 탑승하지 않고 지상에서 원격조종, 사전 프로그램된 경로에 따라 자동 또는 반자동 형식으로 자율비행하거나 인공지능을 탑재하여 자체 환경판단에 따라 임무를 수행하는 비행체를 말한다. 드론 시스템은 지상통제장비(GCS: Ground Control Station), 통신장비 및 지원 장비 등의 전체 시스템을 통칭한다. 드론은 독립된 체계 또는 우주, 지상체계들과 연동시켜 운용된다. 활용분야에 따라 다양한 장비(예: 광학, 적외선, 레이더 센서 등)를 탑재하여 감시, 정찰, 정밀 공격 무기 유도, 통신/정보중계 및 디코이(Decoy) 등의 임무를 수행하며, 폭약을 장전시켜 정밀무기 자체로도 개발되어 실용화되고 있어 향후 미래의 주요 경제적 군사력 수단으로 주목을 받고 있다. 또 드론은 군사용을 넘어 다양한 용도로 사용되고 있다. 예를 들어 측량 조사, 영화촬영, 구조, 파이프 라인/전선 점검, 야생 관측, 격리지에 구호품 전달, 상품 배달과 같은 용도로 사용되고 있다. 드론의 이동 및 격납을 위해서 상용 또는 임무용 드론을 차량에 탑재하고 사용 지점으로 이동하여 정해진 위치에서 비행을 하고 다시 원 위치 또는 차량으로 복귀하는 방법을 이용하고 있다.An unmanned aerial vehicle (UAV), or drone, is an aircraft without a pilot on board. It is remotely controlled from the ground, flies autonomously or semi-autonomously along a pre-programmed route, or is equipped with artificial intelligence to perform missions based on its own environmental judgment. A drone system encompasses the entire system, including the Ground Control Station (GCS), communications equipment, and support equipment. Drones operate independently or in conjunction with space and terrestrial systems. Depending on the application, they can be equipped with various devices (e.g., optical, infrared, and radar sensors) to perform missions such as surveillance, reconnaissance, precision attack weapon guidance, communication/information relay, and decoys. They are also being developed and commercialized as precision weapons, loaded with explosives, attracting attention as a key economic and military force of the future. Furthermore, drones are being used for diverse purposes beyond military applications. Examples include surveying, filming, rescue, pipeline/electrical inspection, wildlife observation, relief supplies delivery to quarantined areas, and product delivery. To move and store drones, commercial or mission drones are mounted on vehicles, moved to the point of use, flown at a designated location, and then returned to the original location or vehicle.
최근에는 드론을 활용한 저고도 무인항공기 교통관리(UTM) 기술이 각광받고 있다. UTM의 주요 기능은 UAS 운용자로부터 비행계획을 받고, 외부 데이터 제공자로부터 지형, 날씨, 감시정보 등을 수집하고, 비행정보관리시스템으로부터 운용을 위한 요구조건을 받아 경로, 충돌회피전략, 공역 사용 등을 계획하며, 감시 시스템을 통해 지도 위에 자신의 위치를 실시간으로 보여주는 것이다. 현장에서 획득한 영상 정보를 LTE나 5G를 통해 원격지 관제 센터에 실시간으로 전송하여 표시함으로써 현장성을 확보하고 드론의 위치, 고도, 경도, 속도, 배터리 잔량 등 실시간 비행정보를 GIS 기반 위에 제공함으로써 직관성을 높인다. JCH DroneRTS는 드론 실시간 관제 및 모니터링 부분에서 강점을 가지고 있다.Low-altitude unmanned aerial vehicle (UAV) traffic management (UTM) technology utilizing drones has recently been gaining attention. UTM's primary function is to receive flight plans from UAS operators, gather terrain, weather, and surveillance information from external data providers, receive operational requirements from the flight information management system, plan routes, collision avoidance strategies, and airspace use, and display the aircraft's location on a map in real time through a surveillance system. By transmitting and displaying video data acquired on-site in real time to a remote control center via LTE or 5G, it ensures on-site visibility. Furthermore, by providing real-time flight information, such as the drone's location, altitude, longitude, speed, and battery level, on a GIS-based platform, it enhances intuitiveness. JCH DroneRTS excels in real-time drone control and monitoring.
그런데 종래의 UTM은 LTE나 5G 또 드론을 지상에서 관제하는 지상관제장비(RC) 등의 장애시 시스템 장애가 발생하게 되고, 이에 따라 드론 운행의 안전성을 담보할 수 없는 문제가 있다. 이에 드론 운행의 안전성을 담보하기 위한 기술 개발의 필요성이 요구되고 있다.However, conventional UTM systems suffer from system failures in the event of LTE, 5G, or ground control equipment (RC) failures, compromising the safety of drone operations. This necessitates the development of technologies to ensure the safety of drone operations.
본 발명이 이루고자 하는 기술적 과제는, 가령 드론 자체에도 드론의 운행과 관련한 메타버스 프로그램 환경 등의 시뮬레이션부를 포함하여 통신 두절 등의 경우 드론자체 컴퓨터(예: 비행 컨트롤러(혹은 비행 컴퓨터)(FC))로 시뮬레이션 환경에서 위치와 높이를 보정하여 경로를 찾아가는 무인기 관제 시스템 및 무인기 관제 방법을 제공함에 그 목적이 있다.The technical problem to be achieved by the present invention is to provide a drone control system and a drone control method that includes a simulation section such as a metaverse program environment related to the operation of the drone itself, and in the event of a communication cutoff, etc., corrects the position and height in a simulation environment using the drone's own computer (e.g., flight controller (or flight computer) (FC)) to find a path.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
상기의 과제를 달성하기 위한 본 발명의 실시예에 따른 무인기 관제 시스템은, 비행 경로와 관련해 타 무인기와 충돌 가능성의 판단을 가능하게 하는 맵(map) 데이터나 메타버스 데이터의 시뮬레이션 데이터를 저장하며, 외부장치에서 수신되는 제어 신호가 미감지될 때 자체 구비하는 센서의 센서 데이터를 이용해 상기 저장한 시뮬레이션 데이터에서 비행 위치와 고도를 측정하여 자율 비행을 수행하는 무인기, 및 상기 무인기가 비행하는 현실 세계를 메타버스의 가상 세계로 구현하여 상기 메타버스의 화면상에서 상기 무인기의 동향을 관제하도록 하며, 상기 무인기에서 제공하는 촬영 영상, 사진 또는 센서의 센서 데이터의 분석 결과를 상기 메타버스 화면상에 함께 표시하여 관제가 이루어지게 하는 무인기 관제서비스장치를 포함한다.In order to achieve the above object, the drone control system according to an embodiment of the present invention stores simulation data of map data or metaverse data that enables judgment of the possibility of collision with another drone in relation to a flight path, and performs autonomous flight by measuring a flight position and altitude from the stored simulation data using sensor data of a sensor provided by the drone itself when a control signal received from an external device is not detected, and a drone control service device that implements the real world in which the drone flies as a virtual world of the metaverse to control the movement of the drone on a screen of the metaverse, and displays the analysis results of the sensor data of the captured video, photo, or sensor provided by the drone together on the metaverse screen to perform control.
상기 무인기는 상기 제어 신호가 미감지되는 돌발 상황의 미발생시 상기 외부장치로서 지상에서 상기 무인기를 제어하는 지상관제장치 또는 원거리에서 원격으로 상기 무인기를 관제하는 관제 요원이 제어하는 종합관제장치로부터 제어 신호를 수신하여 지정 경로를 비행할 수 있다.The above drone can receive a control signal from a ground control device that controls the drone on the ground as an external device or a comprehensive control device controlled by a control agent that remotely controls the drone from a long distance in the event of an emergency situation in which the control signal is not detected, and fly a designated route.
상기 무인기 관제 시스템은, 상기 무인기 관제서비스장치에서 제공하는 메타버스 데이터를 화면상에 구현하여 상기 메타버스의 화면상에서 상기 무인기의 비행 위치와 비행 환경을 관제하는 종합관제장치를 더 포함하며, 상기 무인기 관제서비스장치는, 상기 자율 비행을 수행하는 인공지능(AI) 비행 컨트롤러(FC)를 탑재하는 다수의 무인기들의 항적을 상기 메타버스의 화면상에 구현하여 상기 종합관제장치에서 관제되도록 동작할 수 있다.The above drone control system further includes a comprehensive control device that implements metaverse data provided by the drone control service device on a screen to control the flight location and flight environment of the drone on the screen of the metaverse, and the drone control service device can operate to implement the paths of a plurality of drones equipped with an artificial intelligence (AI) flight controller (FC) that performs the autonomous flight on the screen of the metaverse so that they are controlled by the comprehensive control device.
상기 무인기 관제 시스템은, 상기 무인기가 산불예방을 위한 산불예찰의 목적을 사용될 때 상기 무인기가 이착륙하고 상기 무인기를 기준 속도 이상으로 급속 충전시켜 작업 전환이 이루어지도록 하는 스테이션장치를 더 포함할 수 있다.The above drone control system may further include a station device that allows the drone to take off and land and rapidly charge the drone to a speed higher than a reference speed to enable a task transition when the drone is used for the purpose of forest fire surveillance for forest fire prevention.
상기 무인기는 상기 돌발 상황의 미발생시 상기 외부장치를 통해 촬영 영상이나 센서 데이터를 처리하여 분석 결과가 상기 메타버스의 화면에 반영되도록 하며, 상기 돌발 상황의 발생시 상기 AI FC의 가동에 따른 데이터를 상기 무인기 관제서비스장치로 다이렉트 전송하여 상기 메타버스의 화면상에 데이터의 분석 결과가 반영되도록 할 수 있다.The above drone processes the captured video or sensor data through the external device when the above-mentioned unexpected situation does not occur, so that the analysis result is reflected on the screen of the metaverse, and when the above-mentioned unexpected situation occurs, the data according to the operation of the AI FC is directly transmitted to the drone control service device, so that the analysis result of the data is reflected on the screen of the metaverse.
또한 상기의 과제를 달성하기 위한 본 발명의 실시예에 따른 무인기 관제 시스템은, 무인기가, 비행 경로와 관련해 타 무인기와 충돌 가능성의 판단을 가능하게 하는 맵 데이터나 메타버스 데이터의 시뮬레이션 데이터를 저장하며, 외부장치에서 수신되는 제어 신호가 미감지될 때 자체 구비하는 센서의 센서 데이터를 이용해 상기 저장한 시뮬레이션 데이터에서 비행 위치와 고도를 측정하여 자율 비행을 수행하는 단계, 및 무인기 관제서비스장치가 상기 무인기가 비행하는 현실 세계를 메타버스의 가상 세계로 구현하여 상기 메타버스의 화면상에서 상기 무인기의 동향을 관제하도록 하며, 상기 무인기에서 제공하는 촬영 영상, 사진 또는 센서의 센서 데이터의 분석 결과를 상기 메타버스 화면상에 함께 표시하여 관제가 이루어지게 하는 단계를 포함한다.In addition, the drone control system according to an embodiment of the present invention for achieving the above-mentioned task includes a step of storing simulation data of map data or metaverse data that enable the drone to determine the possibility of collision with another drone in relation to the flight path, and performing autonomous flight by measuring the flight position and altitude from the stored simulation data using sensor data of a sensor provided in the drone itself when a control signal received from an external device is not detected, and a step of allowing the drone control service device to implement the real world in which the drone flies into a virtual world of the metaverse and control the movement of the drone on a screen of the metaverse, and displaying the analysis results of the sensor data of the captured video, photo, or sensor provided by the drone together on the metaverse screen to perform control.
상기 무인기 관제 방법은, 상기 무인기가 상기 제어 신호가 미감지되는 돌발 상황의 미발생시 상기 외부장치로서 지상에서 상기 무인기를 제어하는 지상관제장치 또는 원거리에서 원격으로 상기 무인기를 관제하는 관제 요원이 제어하는 종합관제장치로부터 제어 신호를 수신하여 지정 경로를 비행하는 단계를 더 포함할 수 있다.The above drone control method may further include a step of receiving a control signal from a ground control device that controls the drone on the ground as an external device or a comprehensive control device controlled by a control agent that remotely controls the drone from a long distance when an unexpected situation in which the control signal is not detected does not occur, and flying the drone along a designated path.
상기 무인기 관제 방법은, 종합관제장치가 상기 무인기 관제서비스장치에서 제공하는 메타버스 데이터를 화면상에 구현하여 상기 메타버스의 화면상에서 상기 무인기의 비행 위치와 비행 환경을 관제하는 단계, 및 상기 무인기 관제서비스장치가 상기 자율 비행을 수행하는 인공지능(AI) 비행 컨트롤러(FC)를 탑재하는 다수의 무인기들의 항적을 상기 메타버스의 화면상에 구현하여 상기 종합관제장치에서 관제되도록 동작하는 단계를 더 포함할 수 있다.The above drone control method may further include a step of allowing the integrated control device to implement metaverse data provided by the drone control service device on a screen to control the flight location and flight environment of the drone on the screen of the metaverse, and a step of allowing the drone control service device to implement the paths of a plurality of drones equipped with an artificial intelligence (AI) flight controller (FC) performing the autonomous flight on the screen of the metaverse so that the paths are controlled by the integrated control device.
상기 무인기 관제 방법은, 스테이션장치가 상기 무인기가 산불예방을 위한 산불예찰의 목적을 사용될 때 상기 무인기가 이착륙하고 상기 무인기를 기준 속도 이상으로 급속 충전시켜 작업 전환이 이루어지도록 하는 단계를 더 포함할 수 있다.The above drone control method may further include a step in which the station device causes the drone to take off and land and rapidly charge the drone to a speed higher than a reference speed to enable a task transition when the drone is used for the purpose of forest fire surveillance for forest fire prevention.
상기 무인기 관제 방법은, 상기 무인기가 상기 돌발 상황의 미발생시 상기 외부장치를 통해 촬영 영상이나 센서 데이터를 처리하여 분석 결과가 상기 메타버스의 화면에 반영되도록 하는 단계, 및 상기 돌발 상황의 발생시 상기 AI FC의 가동에 따른 데이터를 상기 무인기 관제서비스장치로 다이렉트 전송하여 상기 메타버스의 화면상에 데이터의 분석 결과가 반영되도록 하는 단계를 더 포함할 수 있다.The above drone control method may further include a step of processing video or sensor data captured by the drone through the external device when the unexpected situation does not occur so that the analysis result is reflected on the screen of the metaverse, and a step of directly transmitting data according to the operation of the AI FC when the unexpected situation occurs to the drone control service device so that the analysis result of the data is reflected on the screen of the metaverse.
본 발명의 실시예에 따르면 무인기가 외부장치의 제어 명령에 따라 지정 경로를 비행할 때 의도하지 않은 바람이나 돌풍에 의해 지정 경로의 위치나 고도를 벗어날 때(혹은 이탈할 때) 또 외부장치에서 제어 명령이 미수신되는 통신 불능 상태일 때 내부에 탑재되는 비행 경로와 관련한, 또 다수의 무인기간 충돌을 예방할 수 있도록 하는 맵 데이터나 메타버스 데이터를 이용해 자율 비행을 수행하여 클라우드 서버 등과 데이터 처리가 가능하도록 할 수 있다.According to an embodiment of the present invention, when an unmanned aerial vehicle (UAV) deviates from (or departs from) the position or altitude of the designated route due to unintended wind or gusts while flying a designated route in accordance with a control command from an external device, or when communication is impossible due to a control command not being received from an external device, the UAV can perform autonomous flight using map data or metaverse data related to the flight route installed internally and capable of preventing collisions between multiple UAVs, thereby enabling data processing with a cloud server, etc.
또한 본 발명의 실시예에 따르면 무인기가 의도하지 않은 상황에서 자율 비행을 수행할 때 클라우드 서버 등과 다이렉트로 데이터를 처리하도록 함으로써 즉 하나의 (메타버스) 플랫폼과 2개의 디지털트윈(예: 관제실와 무인기) 즉 2방향(트윈) 운용이 가능하여 전산상의 오류 중복을 점검할 수 있고, 하드웨어나 소프트웨어의 장애시 또 하나의 경로를 통한 안정적인 무인기의 운영이 가능할 수 있다.In addition, according to an embodiment of the present invention, when a drone performs autonomous flight in an unintended situation, data is processed directly with a cloud server or the like, that is, one (metaverse) platform and two digital twins (e.g., control room and drone), that is, two-way (twin) operation is possible, so that computer error duplication can be checked, and in case of hardware or software failure, stable drone operation can be possible through another path.
나아가 본 발명의 실시예는 명령체계 및 데이터 전송을 간소화하고 다변화하여 전송 체계의 안정화를 도모할 수 있다.Furthermore, embodiments of the present invention can simplify and diversify the command system and data transmission, thereby promoting the stabilization of the transmission system.
뿐만 아니라 본 발명의 실시예는 무인기가 돌발 상황에 의해 자율 비행을 수행할 때 내부의 맵 데이터나 메타버스 데이터, 그리고 센서들로부터 취득되는 센서 데이터의 분석 결과를 근거로 최적화 경로를 생성하여 그 최적화 경로를 이용해 자율 비행이 가능할 수 있다.In addition, in an embodiment of the present invention, when a drone performs autonomous flight due to an unexpected situation, an optimized path can be generated based on the analysis results of internal map data, metaverse data, and sensor data acquired from sensors, and autonomous flight can be performed using the optimized path.
도 1은 본 발명의 실시예에 따른 무인기 관제 시스템을 나타내는 도면이다.
도 2는 도 1의 시스템을 도시화하여 보여주는 도면이다.
도 3은 도 1의 시스템을 적용하는 도심항공교통체계(UAM)을 간략하게 보여주는 도면이다.
도 4는 AI 산불예찰 드론 스테이션을 예시한 도면이다.
도 5a 및 도 5b는 도 1의 무인기 관제서비스장치에서 제공하는 관제 화면을 예시도이다.
도 6은 본 발명의 실시예에 따른 무인기 관제 과정을 설명하기 위한 도면이다.
도 7은 도 1의 무인기의 세부구조를 예시한 블록다이어그램이다.
도 8은 도 1의 무인기의 구동과정을 나타내는 흐름도이다.FIG. 1 is a drawing showing an unmanned aerial vehicle control system according to an embodiment of the present invention.
Figure 2 is a drawing showing a schematic representation of the system of Figure 1.
Figure 3 is a schematic diagram showing an urban air mobility (UAM) system that applies the system of Figure 1.
Figure 4 is a diagram illustrating an AI forest fire prediction drone station.
Figures 5a and 5b are examples of control screens provided by the drone control service device of Figure 1.
FIG. 6 is a drawing for explaining a drone control process according to an embodiment of the present invention.
Figure 7 is a block diagram illustrating the detailed structure of the drone of Figure 1.
Figure 8 is a flowchart showing the driving process of the drone of Figure 1.
이하에서 설명할 본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 명확하게 설명하기 위하여 제공되는 것이고, 본 발명의 범위가 하기 실시예에 의해 한정되는 것은 아니며, 하기 실시예는 여러가지 다른 형태로 변형될 수 있다.The embodiments of the present invention described below are provided to more clearly explain the present invention to a person having ordinary skill in the art, and the scope of the present invention is not limited by the following embodiments, and the following embodiments may be modified in various other forms.
본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용되는 단수 형태의 용어는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는 (comprising)"이라는 용어는 언급한 형상, 단계, 숫자, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 단계, 숫자, 동작, 부재, 요소 및/또는 이들 그룹의 존재 또는 부가를 배제하는 것이 아니다. 또한, 본 명세서에서 사용된 "연결"이라는 용어는 어떤 부재들이 직접적으로 연결된 것을 의미할 뿐만 아니라, 부재들 사이에 다른 부재가 더 개재되어 간접적으로 연결된 것까지 포함하는 개념이다.The terminology used herein is used to describe particular embodiments and is not intended to limit the present invention. The singular forms used herein may include the plural forms unless the context clearly dictates otherwise. In addition, the terms "comprise" and/or "comprising" used herein specify the presence of a stated feature, step, number, operation, element, element, and/or group thereof, but do not exclude the presence or addition of one or more other features, steps, numbers, operations, elements, elements, and/or groups thereof. In addition, the term "connection" used herein not only means that certain elements are directly connected, but also includes a concept that indirectly connects elements by interposing another element between them.
아울러, 본원 명세서에서 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다. 본 명세서에서 사용된 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다. 또한, 본원 명세서에서 사용되는 "약", "실질적으로" 등의 정도의 용어는 고유한 제조 및 물질 허용 오차를 감안하여, 그 수치나 정도의 범주 또는 이에 근접한 의미로 사용되고, 본원의 이해를 돕기 위해 제공된 정확하거나 절대적인 수치가 언급된 개시 내용을 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다.In addition, when it is said in this specification that a certain element is located "on" another element, this includes not only cases where a certain element is in contact with another element, but also cases where another element exists between the two elements. The term "and/or" as used in this specification includes any one of the listed items and any and all combinations of one or more of them. In addition, terms of degree such as "about", "substantially", etc. as used in this specification are used to mean a range of or close to the numerical value or degree, taking into account inherent manufacturing and material tolerances, and are used to prevent infringers from unfairly using the disclosure that mentions exact or absolute numbers provided to help the understanding of this specification.
이하 첨부된 도면들을 참조하여 본 발명의 실시예들에 대해 상세히 설명한다. 첨부된 도면에 도시된 영역이나 파트들의 사이즈나 두께는 명세서의 명확성 및 설명의 편의성을 위해 다소 과장되어 있을 수 있다. 상세한 설명 전체에 걸쳐 동일한 참조번호는 동일한 구성요소를 나타낸다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. The sizes and thicknesses of areas or parts illustrated in the attached drawings may be somewhat exaggerated for clarity and convenience of explanation. Like reference numbers designate like components throughout the detailed description.
도 1은 본 발명의 실시예에 따른 무인기 관제 시스템을 나타내는 도면, 도 2는 도 1의 시스템을 도시화하여 보여주는 도면, 도 3은 도 1의 시스템을 적용하는 도심항공교통체계(UAM)을 간략하게 보여주는 도면, 도 4는 AI 산불예찰 드론 스테이션을 예시한 도면, 그리고 도 5a 및 도 5b는 도 1의 무인기 관제서비스장치에서 제공하는 관제 화면의 예시도이다.FIG. 1 is a diagram showing a drone control system according to an embodiment of the present invention, FIG. 2 is a diagram showing a schematic representation of the system of FIG. 1, FIG. 3 is a diagram briefly showing an urban air traffic control system (UAM) applying the system of FIG. 1, FIG. 4 is a diagram showing an AI forest fire prediction drone station as an example, and FIGS. 5a and 5b are exemplary diagrams of control screens provided by the drone control service device of FIG. 1.
도 1 및 도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 무인기 관제 시스템(90)은 가령 UTM이나 UAM(UAM, Urban Air Mobility), 그리고 산불예찰 등에 적용할 수 있는 시스템으로서, 무인기(100), 지상관제장치(110), 통신망(120), 무인기 관제서비스장치(130) 및 종합관제장치(140)의 일부 또는 전부를 포함한다. 기상 정보 등을 제공하는 기상청 서버 등의 서드파티장치를 더 포함할 수 있다.As illustrated in FIGS. 1 and 2, the drone control system (90) according to an embodiment of the present invention is a system that can be applied to, for example, UTM or UAM (Urban Air Mobility), and forest fire forecasting, and includes part or all of a drone (100), a ground control device (110), a communication network (120), a drone control service device (130), and an integrated control device (140). It may further include a third-party device such as a weather service server that provides weather information, etc.
여기서, "일부 또는 전부를 포함한다"는 것은 지상관제장치(110)와 같은 일부 구성요소가 생략되어 도 1의 무인기 관제 시스템(90)이 구성되거나, 무인기 관제서비스장치(130)와 같은 일부 구성요소가 통신망(120)을 구성하는 네트워크 장치(예: 게이트웨이, 무선교환장치 등)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, “including some or all” means that some components, such as the ground control device (110), may be omitted to configure the drone control system (90) of FIG. 1, or some components, such as the drone control service device (130), may be integrated into a network device (e.g., gateway, wireless switching device, etc.) that constitutes the communication network (120), and is described as including all in order to help sufficient understanding of the invention.
무인기(100)는 무인비행체(UAV, Unmanned/Uninhabited Aerial Vehicle) 또는 무인항공기 등 다양하게 명명될 수 있다. 무인기(100)는 조종사가 비행체에 직접 타지 않고 지상에서 원격 조종 또는 사전 프로그램 경로에 따라 자동(반자동), 자율비행하면서 임무를 수행하는 비행체를 말한다. 물론 본 발명의 실시예에 따른 무인기(100)는 통상적으로 지칭하는 드론을 포함할 수 있다. 무인기(100)는 다양한 산업분야에 활용될 수 있으며, 최근에는 도심항공교통체계에 적용함으로써 전세계적으로 각광을 받고 있다. UAM과 관련해서는 도 3에서 잘 보여주고 있다. UAM은 도심내(예: 인구밀집 및 지상 교통 혼잡지역 등)에서 여객 및 화물을 항공운송하는 비행체, 운항인프라, 서비스 등을 일컫는 통칭이다. UAM에 사용하는 비행체는 활주로가 필요없는 eVTOL(Electric Vertival Take-off & Landin)로 국한된다.The unmanned aerial vehicle (100) can be called by various names such as an unmanned aerial vehicle (UAV) or an unmanned aerial vehicle (UAV). The unmanned aerial vehicle (100) refers to an aircraft that performs a mission by remotely controlling it from the ground or flying automatically (semi-automatically) or autonomously according to a pre-programmed route without a pilot directly riding the aircraft. Of course, the unmanned aerial vehicle (100) according to the embodiment of the present invention may include a drone as commonly referred to. The unmanned aerial vehicle (100) can be utilized in various industrial fields, and has recently been attracting attention worldwide by being applied to urban air traffic systems. With regard to UAM, this is well illustrated in FIG. 3. UAM is a general term for aircraft, operation infrastructure, and services that transport passengers and cargo by air within urban areas (e.g., densely populated and congested ground traffic areas). The aircraft used in UAM is limited to eVTOL (Electric Vertical Take-off & Landing) that does not require a runway.
좀더 살펴보면, 무인기(100)가 사용되는 범주는 크게 미래 비행체(AAV)와 미래교통항공체계(AAM, Advance Air Mobility)로 분류해 볼 수 있다. AAV는 다시 Air Taxi나 드론 Taxi와 같은 개인용 비행체(PAV)와 Flying Car나 Flying Taxi와 같은 eVTOL로 구분할 수 있다. 또한 AAM은 UAM과 지역간 항공교통체계로 구분해 볼 수 있다. UAV 시스템은 우인기(UAV)인 비행체와 지상통제 장비 및 통신장비, 지원장비 등의 전체 시스템을 의미한다. 무인항공기시스템(UAS)은 비행체라기보다 항공기로서 시스템의 개발 및 제조 운영 등의 공학적 안전성 확보 등을 위한 공식 명칭이다. 원격조종 비행체(RPV)는 지상에서 무선통신으로 원격 조종하는 무인 비행체를 의미하나, 무인기가 초기 출현했을 때는 사용했으나 최근에는 사용하지 않는다. RPAS는 원격조종 항공기 시스템(Remotely Piloted Aircraft System)을 의미한다. RAM(Regional Air Mobility)은 도시간 또는 대도시를 중심으로 한 위성도시간 여객, 화물을 항공운송하는 비행체, 운항인프라, 서비스 등을 일컫는다. eVTOL이나 eCTOL 모두 운항 가능하나 단 도심내 진입을 위해서는 요건 충족이 필요하다. AAM은 UAM와 RAM 모두를 포함한 산업을 의미하며, 미 항공우주주국(NASA)가 최초 사용하였는데 유럽의 EASA는 이를 IAM(Innovative Air Mobility)라고 한다.Looking into it a little more, the categories in which unmanned aerial vehicles (100) are used can be broadly categorized into future air vehicles (AAVs) and advanced air mobility (AAM). AAVs can be further divided into personal air vehicles (PAVs), such as air taxis or drone taxis, and eVTOLs, such as flying cars or flying taxis. AAM can also be divided into urban air mobility (UAM) and regional air traffic systems. A UAV system refers to the entire system, including the aircraft, which is a UAV, ground control equipment, communication equipment, and support equipment. Unmanned aircraft system (UAS) is the official name for ensuring engineering safety, such as the development, manufacturing, and operation of the system, as an aircraft rather than an aircraft. A remotely piloted aerial vehicle (RPV) refers to an unmanned aerial vehicle that is remotely controlled via radio communication from the ground. It was used when UAVs first appeared, but is no longer used today. RPAS stands for Remotely Piloted Aircraft System. Regional Air Mobility (RAM) refers to aircraft, operational infrastructure, and services that transport passengers and cargo between cities or satellite cities centered around major metropolitan areas. Both eVTOLs and eCTOLs are capable of operation, but certain requirements must be met to enter urban areas. AAM refers to an industry encompassing both UAM and RAM. NASA first coined the term, while EASA in Europe calls it Innovative Air Mobility (IAM).
본 발명의 실시예에 따른 무인기(100)는 가령 UTM을 위해 사용되는 경우에는 산불, 산사태, 병해충 감시를 위해 사용될 수 있다. 이의 경우 무인기(100)는 지상관제장치(110)의 제어 명령에 따라 비행이 이루어질 수 있지만, 해당 감시 동작을 수행하는 관제센터의 종합관제장치(140)의 원격 제어에 의해 동작하는 것도 얼마든지 가능할 수 있다. 예를 들어, 종합관제장치(140)는 무인기(100)와의 통신에 의해 드론 경로비행, 또 3차원 고도비행 등과 관련한 제어 데이터를 송수신할 수 있다. 이에 따라 무인기(100)는 해당 경로를 비행하면서 촬영되는 촬영 영상이나 감지되는 센싱 데이터, 또는 사진을 실시간으로 도 1의 무인기 관제서비스장치(130)로 제공할 수 있으며, 무인기 관제서비스장치(130)는 해당 데이터의 분석 결과를 생성해 종합관제장치(140)로 제공해 줄 수 있다. 물론 이러한 동작은 UAM에 적용되는 것도 얼마든지 가능하다. 도 3에서 볼 수 있는 바와 같이, 무인기(100)가 운항하는 각 버티포트에는 UAM 운항사가 설치될 수 있으며, 각각의 운항사에서는 무인기(100)와 통신(또는 교신)할 수 있다. 이의 과정에서 항로 기상정보, 운항안전정보, 기체 실시간 운항정보, 기체주요 상태정보 등을 주고받을 수 있다. 물론 이러한 비행정보, 감시정보, 기상정보, 항공정보는 별도의 운항지원정보 제공자로부터 제공받아 무인기(100)로 제공할 수 있다. 예를 들어, 기상정보는 기상청의 서버로부터 제공받을 수 있다.The drone (100) according to an embodiment of the present invention can be used for monitoring forest fires, landslides, and pests, for example, when used for UTM. In this case, the drone (100) can fly according to the control command of the ground control unit (110), but it can also be operated by remote control of the integrated control unit (140) of the control center that performs the corresponding monitoring operation. For example, the integrated control unit (140) can transmit and receive control data related to drone path flight, 3D altitude flight, etc., through communication with the drone (100). Accordingly, the drone (100) can provide in real time the captured video, the detected sensing data, or the photos taken while flying the corresponding path to the drone control service unit (130) of FIG. 1, and the drone control service unit (130) can generate the analysis result of the corresponding data and provide it to the integrated control unit (140). Of course, these operations can also be applied to UAM. As shown in Fig. 3, a UAM operator can be installed at each vertiport where a UAV (100) operates, and each operator can communicate (or contact) with the UAV (100). During this process, route weather information, operational safety information, real-time aircraft operation information, and aircraft key status information can be exchanged. Of course, such flight information, surveillance information, weather information, and aviation information can be provided to the UAV (100) by a separate operational support information provider. For example, weather information can be provided from the Korea Meteorological Administration's server.
무엇보다 본 발명의 실시예에 따른 무인기(100)는 인공지능(AI) 기반으로 동작하는 비행 컨트롤러(FC, Flight Controller)를 포함할 수 있다. FC는 비행 컴퓨터라 지칭될 수도 있다. 이를 통해 무인기(100)는 지상관제장치(110), 무인기 관제서비스장치(130)나 종합관제장치(140)와 통신이 두절될 때 자체적으로 보유하는 맵 데이터 또는 메타버스 데이터를 이용해 자동으로 비행 경로 등을 찾아 최적화 경로를 생성해 운행하는 것이 얼마든지 가능할 수 있다. 물론 최적화 경로는 다수의 무인기가 운행하므로 충돌 회피 등을 고래해 경로를 생성할 수 있다. 예를 들어, 무인기(100)는 지상관제장치(110)나 종합관제장치(140)의 제어에 따라 지정된 경로로 비행을 수행할 수 있다. 예를 들어 산불예찰을 수행할 수 있다. 이의 과정에서 의도하지 않은 강한 돌풍을 만나는 경우 지정된 경로를 이탈할 수 있으며, 이의 경우 지상관제장치(110)나 종합관제장치(140)와 통신을 수행할 수 있으며, 통신이 두절될 때 자체적으로 탑재된 가령 비행과 관련한 시뮬레이션 프로그램을 실행해 이탈 경로를 회복해 다시 비행을 지속적으로 수행할 수 있다. 이러한 일종의 자율 비행을 위한 인공지능 프로그램이 적용될 수 있다. 인공지능 동작을 통해 위치와 높이를 보정하여 경로를 찾아가는 것이다. 이러한 AI 동작은 이착륙 및 비행시 동작이 이루어질 수 있으며, 또 AI가 다중의 비행경로를 점검하고 최적화 경로를 생성해 비행하는 것도 얼마든지 가능할 수 있다. 물론 다중의 비행경로를 점검하고 최적화 경로를 생성하는 것은 사전에 학습한 학습 데이터의 학습 결과에 근거한다고 볼 수 있다.Above all, the drone (100) according to an embodiment of the present invention may include a flight controller (FC) that operates based on artificial intelligence (AI). The FC may also be referred to as a flight computer. Through this, the drone (100) may be able to automatically find a flight path, etc., by using its own map data or metaverse data when communication with the ground control unit (110), drone control service unit (130), or integrated control unit (140) is cut off, and may generate an optimized path and operate. Of course, since the optimized path is operated by multiple drones, it may be generated by taking into account collision avoidance, etc. For example, the drone (100) may fly along a designated path under the control of the ground control unit (110) or integrated control unit (140). For example, it may perform forest fire surveillance. During this process, if an unintended strong gust of wind is encountered, the aircraft may deviate from the designated path. In this case, communication can be performed with the ground control unit (110) or the integrated control unit (140). When communication is cut off, the aircraft can recover the deviation path by executing a simulation program related to flight on its own and continue the flight again. An artificial intelligence program for this type of autonomous flight can be applied. It finds the path by correcting the position and height through artificial intelligence actions. This AI action can be performed during takeoff, landing, and flight, and it is also entirely possible for the AI to check multiple flight paths and generate an optimized path to fly. Of course, checking multiple flight paths and generating an optimized path can be considered to be based on the learning results of pre-learned learning data.
도 4에서는 산불예찰 등을 위해 무인기(100)가 사용될 때 무인기(100)가 이착륙하는 스테이션(장치) 즉 정거장을 보여주고 있다. 무인기(100)는 AI 드론이 사용될 수 있으며 스테이션을 활용해 산불 조기감지와 확산을 예방하기 위한 동작을 수행할 수도 있다. 스테이션은 무인기(100)가 이착륙하는 공간을 형성할 수 있다. 예를 들어 스테이션은 무인기(100)가 접근하는 경우 서로 통신하여 무인기(100)는 지정된 방향이나 자세로 안정적으로 착륙이 이루어지도록 유도할 수 있다. 연중화된 산불에 대응하려면 연중화된 산불 감시 체계가 필요하며, 이러한 점에서 무인기(100)와 스테이션을 활용할 수 있다. 예를 들어 각 지자체의 산림에 드론 스테이션을 설치할 수 있다. 그리고 지상 통제 시스템(GCS, Ground Control Statin)를 활용해 산불 감시체계를 구축할 수 있다. 예를 들어 무인기(100)로서 동작하는 AI 드론은 스테이션을 통해 고속 충전을 수행할 수 있으며 이를 통해 빠른 작업 전환이 가능할 수 있다. 드론 배터리의 열을 식혀주는 TEC 에어컨 덕분에 빠른 충전 및 이륙이 가능하며 10%에서 90% 충전까지 약 25분 정도밖에 소요되지 않으므로, 산불예찰에 유용할 수 있다. 이와 같이 주야간 관제할 수 있는 AI 드론 스테이션을 설치, 활용함에 따라 산불 조기 감지에 따른 초기 대응 체계를 마련할 수 있다.Figure 4 illustrates a station (device) where an unmanned aerial vehicle (100) takes off and lands when used for forest fire surveillance, etc. The unmanned aerial vehicle (100) can be an AI drone, and the station can also be used to perform operations for early detection of forest fires and prevention of their spread. The station can form a space where the unmanned aerial vehicle (100) takes off and lands. For example, when a unmanned aerial vehicle (100) approaches, the stations can communicate with each other to guide the unmanned aerial vehicle (100) to land stably in a designated direction or posture. To respond to forest fires that occur year-round, a year-round forest fire surveillance system is required, and in this regard, unmanned aerial vehicles (100) and stations can be utilized. For example, drone stations can be installed in forests of each local government. In addition, a forest fire surveillance system can be established using a ground control system (GCS). For example, an AI drone operating as an unmanned aerial vehicle (100) can perform high-speed charging via the station, enabling rapid task transitions. Thanks to the TEC air conditioner, which cools the drone battery, rapid charging and takeoff are possible. Charging from 10% to 90% takes only about 25 minutes, making it useful for forest fire surveillance. By installing and utilizing an AI drone station capable of day and night monitoring, a system for early detection and early response to forest fires can be established.
도 1의 지상관제장치(110)는 원격제어장치(RC)나 탭(혹은 태블릿) PC 등을 포함할 수 있다. 예를 들어, 지상관제장치(110)는 모니터를 통해 사전에 기저장한 무인기(100)의 비행 환경을 실시간으로 모니터링하면서 지정된 동작을 명령할 수 있다. 무인기(100)는 지상관제장치(110)의 제어에 따라 촬영되는 촬영 영상을 지상관제장치(110)로 제공할 수 있지만, 무인기 관제서비스장치(130)로 전송하여 관제요원 등에 의해 관제센터에서 관제가 이루어지도록 할 수 있다. 지상관제장치(110)는 무인기(100)를 1:1로 제어하고 그 동작을 확인한다면 도 1의 종합관제장치(140)는 현재 운행되고 있는 다수의 무인기(100)들을 통합하여 관리한다고 볼 수 있다. 더 정확하게는 종합관제장치(140)는 다수의 무인기(100)와 관련한 사건이나 사고의 이벤트를 모니터링할 수 있으며, 이러한 사건이나 사고의 통지는 지상관제장치(110)로부터 제공받는 것도 얼마든지 가능하므로, 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다. 예를 들어 지상관제장치(110)는 도 3에서와 같은 UAM 환경에서는 UAM 운항사에서 운영하는 다양한 장치를 의미할 수 있다. 여기서, UAM 운항사의 장치는 관리자가 보유하는 컴퓨터 등을 의미할 수 있으며, 교신을 위한 통신장치를 포함할 수도 있다.The ground control unit (110) of Fig. 1 may include a remote control unit (RC) or a tab (or tablet) PC, etc. For example, the ground control unit (110) may monitor the flight environment of the drone (100) stored in advance through a monitor in real time and command a designated operation. The drone (100) may provide the ground control unit (110) with the captured video taken under the control of the ground control unit (110), but may also transmit it to the drone control service unit (130) so that control can be performed at the control center by a control agent, etc. If the ground control unit (110) controls the drone (100) on a 1:1 basis and confirms its operation, the integrated control unit (140) of Fig. 1 can be viewed as managing a plurality of drones (100) currently in operation in an integrated manner. More precisely, the integrated control device (140) can monitor events of incidents or accidents related to multiple unmanned aerial vehicles (100), and since notifications of such incidents or accidents can be provided from the ground control device (110), the embodiment of the present invention will not be particularly limited to any one form. For example, in a UAM environment such as FIG. 3, the ground control device (110) may refer to various devices operated by a UAM operator. Here, the UAM operator's devices may refer to computers, etc., owned by a manager, and may also include communication devices for communication.
통신망(120)은 다양한 형태로 구성될 수 있다. 통신망(120)은 유무선 통신망을 모두 포함할 수 있다. 가령 통신망(120)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 및 최근에 사물인터넷(IoT) 기술의 적용을 위해 사용되는 LPWA(Low Power Wide Area)기반의 공용 또는 사설의 무선망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(120)은 이에 한정되는 것이 아니며, 향후 구현될 차세대 이동 통신 시스템의 접속망으로서 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망, 6G 등에 사용될 수 있다. 가령, 통신망(120)이 유선 통신망인 경우 통신망 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Transceiver Station), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.The communication network (120) can be configured in various forms. The communication network (120) can include both wired and wireless communication networks. For example, a wired or wireless Internet network can be used or linked as the communication network (120). Here, the wired network includes an Internet network such as a cable network or a public switched telephone network (PSTN), and the wireless communication network includes a public or private wireless network based on CDMA, WCDMA, GSM, EPC (Evolved Packet Core), LTE (Long Term Evolution), Wibro network, and LPWA (Low Power Wide Area) recently used for applying Internet of Things (IoT) technology. Of course, the communication network (120) according to the embodiment of the present invention is not limited thereto, and can be used as an access network of a next-generation mobile communication system to be implemented in the future, for example, a cloud computing network under a cloud computing environment, a 5G network, a 6G network, etc. For example, if the communication network (120) is a wired communication network, an access point within the communication network can connect to a telephone exchange, etc., but if it is a wireless communication network, data can be processed by connecting to an SGSN or GGSN (Gateway GPRS Support Node) operated by a communication company, or data can be processed by connecting to various relays such as a BTS (Base Transceiver Station), NodeB, or e-NodeB.
통신망(120)은 액세스포인트를 포함할 수도 있다. 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함할 수 있다. 여기서, 펨토 또는 피코 기지국은 소형 기지국의 분류상 도 1의 무인기(100)나 지상관제장치(110) 등을 최대 몇대까지 접속할 수 있느냐에 따라 구분될 수 있다. 물론 무인기(100)나 지상관제장치(110) 등을 지그비 및 와이파이(Wi-Fi) 등의 근거리 통신을 수행하기 위한 근거리 통신 모듈을 포함할 수 있다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선(IrDA), UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 무인기 관제 서비스장치(130)로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함될 수 있다.The communication network (120) may include an access point. The access point may include a small base station such as a femto or pico base station, which is often installed inside a building. Here, the femto or pico base station may be classified according to the maximum number of unmanned aerial vehicles (100) or ground control devices (110) of FIG. 1 that can be connected to the small base station. Of course, the unmanned aerial vehicles (100) or ground control devices (110) may include a short-range communication module for performing short-range communication such as Zigbee and Wi-Fi. The access point may use TCP/IP or RTSP (Real-Time Streaming Protocol) for wireless communication. Here, short-range communication may be performed in various standards such as Bluetooth, Zigbee, infrared (IrDA), radio frequency (RF) such as UHF (Ultra High Frequency) and VHF (Very High Frequency) in addition to Wi-Fi, and ultra-wideband communication (UWB). Accordingly, the access point can extract the location of the data packet, designate the best communication path for the extracted location, and forward the data packet along the designated communication path to the next device, such as the drone control service device (130). The access point can share multiple lines in a typical network environment, and may include, for example, a router, a repeater, and a repeater.
무인기 관제서비스장치(130)는 가령 클라우드 서버 등을 포함하며, 해당 서버에 연동하는 DB(120a)를 포함하여 구성될 수 있다. 서버와 DB(120a)는 인트라넷 등의 전용망을 통해 연결되며, 서버에서 처리되는 데이터는 DB(120a)에 무인기(100) 등의 식별정보나, 무인기(100)가 사용되는 지역정보 등을 근거로 체계적으로 분류하여 촬영 영상이나 사진 등의 데이터를 저장 및 관리할 수 있다. 물론 해당 데이터의 분석 결과를 관제 화면으로 생성(혹은 관제 화면에 삽입)하여 도 1의 종합관제장치(140)에서 관제가 이루어지도록 제공할 수 있다. 무인기 관제서비스장치(130)는 가령 여러가지 목적으로 활용되는 무인기(100)를 통합 관리하기 위한 관제 서비스 동작을 수행할 수 있다. 물론 관제 화면은 다양하게 형성될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다. 다시 말해, 무인기 관제서비스장치(130)가 산불예찰을 위해 활용될 때와, 도 3에서와 같이 UAM 환경에 활용될 때의 관제 화면은 상이할 수 있다. 도 3에서 볼 때 UAM 교통관리 서비스 제공자는 도 1의 무인기 관제서비스장치(130)를 구성하는 관제 서버를 포함할 수 있다.The drone control service device (130) may include, for example, a cloud server, and may be configured to include a database (120a) linked to the server. The server and the database (120a) are connected via a dedicated network such as an intranet, and data processed by the server may be systematically classified in the database (120a) based on identification information of the drone (100), regional information where the drone (100) is used, and data such as captured videos or photos may be stored and managed. Of course, the analysis results of the data may be generated as a control screen (or inserted into the control screen) and provided so that control may be performed in the integrated control device (140) of FIG. 1. The drone control service device (130) may perform control service operations for integrated management of drones (100) utilized for various purposes, for example. Of course, the control screen may be formed in various ways, and thus the present invention will not be particularly limited to any one form. In other words, the control screens when the drone control service device (130) is used for forest fire forecasting and when it is used in a UAM environment as shown in FIG. 3 may be different. As shown in FIG. 3, the UAM traffic management service provider may include a control server that constitutes the drone control service device (130) of FIG. 1.
본 발명의 실시예에 따른 무인기 관제서비스장치(130)는 도 1의 무인기(100)가 운행하는 환경을 메타버스 환경으로 구현하여 도 1의 종합관제장치(140)로 제공할 수 있다. 예를 들어, 메타버스 환경을 구축하기 위하여 무인기 관제서비스장치(130)는 가령 산불예찰이 이루어지는 지역에 대한 촬영을 수행하여, 또는 기촬영된 영상이 있는 경우 해당 촬영 영상을 이용해 메타버스의 가상 공간을 생성할 수 있다. 메타버스 환경 즉 가상 공간은 실(제)환경을 가상 공간으로 변환한 것을 의미하며, 그 가상 공간 내에 현재 운행 혹은 비행하는 무인기(100)들의 동향을 화면상에 표시해 줄 수 있는 것이다. 물론 이는 무인기(100)들이 비행할 때 그 위경도 정보와 같은 위치 정보를 근거로 메타버스의 가상 공간상에 또는 맵 데이터상에 표시해 줌으로써 도 1의 종합관제장치(140)에서 관제가 용이하게 이루어질 수 있다. 도 5a에서는 관제 화면을 예시하여 보여주고 있으며, 도 5b는 실제 비행 중인 무인기(100)의 화면상 객체를 보여주고 있다. 무인기(100)와 관련한 메타버스 화면상의 무인기 객체는 관제 요원이 관제에 용이하도록 자신이 직접 설정하는 것도 얼마든지 가능할 수 있다. 예를 들어, 서울과 경기도의 무인기를 비교해야 할 경우, 제조사가 다른 무인기를 비교해야 할 때 등 서로 다른 스타일의 무인기 객체를 지정하여 관제함으로써 지역이나 제조사를 구별해 관제가 용이할 수도 있다. The drone control service device (130) according to an embodiment of the present invention can implement the environment in which the drone (100) of FIG. 1 operates as a metaverse environment and provide it to the comprehensive control device (140) of FIG. 1. For example, in order to build a metaverse environment, the drone control service device (130) can perform photography of an area where forest fire forecasting is performed, or, if there is a previously photographed image, can create a virtual space of the metaverse using the photographed image. The metaverse environment, or virtual space, means a conversion of a real environment into a virtual space, and the trends of drones (100) currently operating or flying within the virtual space can be displayed on the screen. Of course, this can be easily controlled by the comprehensive control device (140) of FIG. 1 by displaying location information, such as latitude and longitude information, on the virtual space of the metaverse or on map data when the drones (100) fly. Fig. 5a illustrates an example of a control screen, and Fig. 5b illustrates an object on the screen of an actual drone (100) in flight. The drone object on the metaverse screen related to the drone (100) can be easily configured by the control agent to facilitate control. For example, when comparing drones in Seoul and Gyeonggi-do, or when comparing drones from different manufacturers, different styles of drone objects can be designated and controlled to distinguish between regions or manufacturers, facilitating control.
물론 본 발명의 실시예에 따른 무인기 관제서비스장치(130)는 도 1의 무인기(100), 지상관제장치(110) 및 종합관제장치(140)와 다양한 형태로 동작할 수 있다. 예를 들어, 무인기 관제서비스장치(130)는 기상청 등의 서버를 포함하는 서드파티장치로부터 기상 정보를 제공받아 현재 무인기(100)가 비행하는 상공의 정보를 화면상에 생성하여 종합관제장치(140)에서 관제가 이루어지도록 할 수 있으며, 또 지상관제장치(110)에서 무인기(100)와의 통신이 두절되어 원격제어를 종합관제장치(140)에 요청한 경우 관제 화면상에 사건이나 사고의 이벤트와 관련한 정보를 표출해 줄 수 있다. 이에 따라 종합관제장치(140)는 무인기(100)와 통신하여 이착륙 및 비행을 원격 제어할 수 있다. 만약 무인기(100)는 지상관제장치(110)나 종합관제장치(140)로부터 통신 두절과 같은 의도하지 않은 상황으로 인해 제어 명령이 없는 경우 자율 모드(mode)로 동작하여 내부에 탑재된 AI 프로그램을 실행해 이착륙이나 비행, 또 다중의 비행경로를 점검하고 최적화 경로를 생성해 비행이 이루어질 수 있으며, 물론 이의 과정에서 도 1의 무인기 관제서비스장치(130)로 현재의 비행과 관련한 촬영 영상이나 위치정보를 실시간으로 전송해 줌으로써 도 1의 지상관제장치(110)의 관리자나 도 1의 종합관제장치(140)의 관제 요원이 무인기(100)의 동작 상태를 쉽게 파악하도록 동작할 수 있다. 무인기(100)는 내부에 탑재되는 비행 환경과 관련한 맵 데이터나 메타버스 데이터를 활용해 이착륙이나 비행, 또 비행경로 점검이나 최적화 경로 생성 등의 동작이 얼마든지 가능할 수 있다. 물론 이러한 과정은 기존에 학습된 학습 데이터를 근거로 이루어지는 것도 얼마든지 가능할 수 있다. 가령, 무인기(100)는 A-B-C-D의 경로로 비행하도록 제어가 이루어질 수 있으며, B의 지점에서 의도하지 않은 통신 불통이 발생할 때 사전에 학습한 학습 데이터를 이용하여 다음 경로가 C라는 것을 알 수 있으며, 또는 맵 데이터나 메타버스 데이터에 포함되는 정보를 이용해 알 수도 있으며, 물론 이의 과정에서 특정 위치나 고도를 유지해야 하는 경우 내부적으로 탑재하는 다양한 유형의 센서의 센서 데이터를 분석해 위치나 고도를 찾아갈 수 있는 것이다. 물론 이의 과정에서 사전에 등록한 비행 환경의 맵 데이터나 메타버스 환경을 이용하는 것도 얼마든지 가능할 수 있다. 다시 말해 무인기(100)가 현재 촬영하는 촬영 영상 속의 객체들과 맵 데이터나 메타버스 환경 내의 객체들의 서로 동일한 경우 무인기(100)는 정상적인 위치나 고도 등을 비행하며, 또 정상 경로를 비행한다고 판단할 수 있는 것이다.Of course, the drone control service device (130) according to the embodiment of the present invention can operate in various forms with the drone (100), ground control device (110), and integrated control device (140) of FIG. 1. For example, the drone control service device (130) can receive weather information from a third-party device including a server such as the Korea Meteorological Administration, generate information on the sky over which the drone (100) is currently flying on the screen, and enable the integrated control device (140) to perform control. In addition, when the ground control device (110) requests remote control to the integrated control device (140) due to a disconnection in communication with the drone (100), the integrated control device (140) can display information related to an incident or accident event on the control screen. Accordingly, the integrated control device (140) can communicate with the drone (100) and remotely control takeoff, landing, and flight. If there is no control command from the ground control unit (110) or the integrated control unit (140) due to an unintended situation such as a communication cutoff, the drone (100) can operate in an autonomous mode and execute an AI program installed inside to perform takeoff and landing, flight, and check multiple flight paths and generate an optimized path to perform flight. Of course, during this process, the drone control service unit (130) of FIG. 1 transmits real-time video footage or location information related to the current flight, so that the manager of the ground control unit (110) of FIG. 1 or the control agent of the integrated control unit (140) of FIG. 1 can easily understand the operating status of the drone (100). The drone (100) can perform any number of operations such as takeoff and landing, flight, flight path check, and optimized path generation by utilizing map data or metaverse data related to the flight environment installed inside. Of course, this process can also be performed based on previously learned learning data. For example, a drone (100) can be controlled to fly along a path of A-B-C-D, and when an unintended communication failure occurs at point B, it can use pre-learned learning data to know that the next path is C, or it can use information included in map data or metaverse data to know, and of course, in the process, if a specific location or altitude must be maintained, the location or altitude can be found by analyzing sensor data from various types of sensors installed internally. Of course, it is also possible to use map data or the metaverse environment of the flight environment registered in advance in the process. In other words, if the objects in the video currently being filmed by the drone (100) and the objects in the map data or the metaverse environment are the same, the drone (100) can be judged to be flying at a normal location or altitude, and also flying a normal path.
본 발명의 실시예에 따른 무인기 관제서비스장치(130)는 다수의 무인 항공기에 대한 컨트롤 및 항적 관제가 가능하며, 이는 무인기(100)에 탑재되는 본 발명의 실시예에 따른 AI FC를 통해 가능할 수 있다. 가령 AI FC를 탑재한 무인 항공기에 한하여 관제가 이루어질 수도 있다. 또한 메타버스 서비스를 제공하는 하나의 플랫폼에서 2개의 디지털 트윈이 가능함으로써 다시 말해 무인기(100)와 디지털 트윈 2방향(혹은 양방향) 운용이 가능하며, 또 종합관제장치(140)와의 5G나 LTE 등의 통신망(120)을 통해 디지털트윈 2방향 운용이 가능하여 전산상의 오류 중복 체크 즉 점검이 가능하고 또 하드웨어나 소프트웨어의 장애시 또 하나의 경로를 통한 안정적인 무인기(100)의 운영이 가능하게 된다. 또 2개의 디지털 트윈을 운영함으로써 명령 체계 및 데이터 전송을 간소화 및 다변화하여 전송 체계의 안정화를 도모할 수 있다. 지상관제장치(110)나 통신망(120) 등의 장애시 무인기(100)의 자체에 탑재되는 AI FC에서 메타버스의 디지털 트윈이 운영될 수 있는 것이다. 디지털 트윈의 지연시간을 최소화할 수 있다. 통신망(120)은 특정 통신사의 기지국 등을 이용하는 것이지만, 무인기(100)에 탑재된 로라(LoRA) 통신 모듈 등을 통해 다이렉트로 무인기 관제서비스장치(130)와 통신을 수행하는 것도 얼마든지 가능할 수 있다.The drone control service device (130) according to an embodiment of the present invention can control and track multiple drones, and this can be done through the AI FC according to an embodiment of the present invention mounted on the drone (100). For example, control can be done only for drones mounted with the AI FC. In addition, since two digital twins are possible on a single platform that provides metaverse services, in other words, two-way (or bidirectional) operation of the drone (100) and the digital twin is possible, and also, two-way operation of the digital twin is possible through a communication network (120) such as 5G or LTE with the integrated control device (140), so that duplicate checks for computer errors, i.e. inspection, are possible, and stable operation of the drone (100) is possible through another path in the event of a hardware or software failure. In addition, by operating two digital twins, the command system and data transmission can be simplified and diversified, thereby promoting the stabilization of the transmission system. In the event of a failure of the ground control unit (110) or communication network (120), the digital twin of the metaverse can be operated by the AI FC mounted on the drone (100). This can minimize the delay time of the digital twin. While the communication network (120) utilizes a base station of a specific telecommunications company, it is entirely possible to communicate directly with the drone control service device (130) via a LoRA communication module mounted on the drone (100).
디지털 트윈의 요소기술은 3D 모델링, 데이터 수집 및 분석, 그리고 예측 및 최적화를 포함한다. 3D 모델링은 드론, GIS, CAD, BIM을 포함하며, 데이터 수집 및 분석은 IoT 센서, 빅데이터, AI를 포함한다. 또한 예측 및 최적화는 시뮬레이션과 AR/VR/MR을 포함한다. 이를 통해 현실세계를 가상세계로 구현할 수 있다. 현실세계와 가상세계는 5G 네트워크, 클라우드, 엣지컴퓨팅, 보안 등을 이용해 동기화되고 최적화될 수 있다. 다시 말해, 본 발명의 실시예에 따른 무인기 관제서비스장치(130)는 무인기(100)가 비행하는 장소나 지역의 영상을 가상 공간상에 구현할 수 있고, 그 가상 공간상에서 무인기(100)의 비행을 감시할 수 있다. 가령 가상 공간상에서 무인기(100)들의 움직임 동향이 구현될 수 있는 것이다. 이를 통해 종합관제장치(140)에서의 관제가 용이할 수 있다.The core technologies of digital twins include 3D modeling, data collection and analysis, and prediction and optimization. 3D modeling includes drones, GIS, CAD, and BIM, while data collection and analysis includes IoT sensors, big data, and AI. Prediction and optimization also include simulation and AR/VR/MR. This allows the real world to be transformed into a virtual world. The real and virtual worlds can be synchronized and optimized using 5G networks, the cloud, edge computing, and security. In other words, the drone control service device (130) according to an embodiment of the present invention can display images of the location or region where the drone (100) is flying in a virtual space and monitor the flight of the drone (100) in that virtual space. For example, the movement trends of the drones (100) can be displayed in the virtual space. This facilitates control from the integrated control device (140).
종합관제장치(140)는 관제 센터에서 관제 동작을 수행하는 관제 요원 등의 컴퓨터 등을 의미할 수 있다. 물론 관제 센터에는 무인기(100)들의 전체 비행을 통합 관제하기 위한 전광판이나 모니터 등이 설치될 수 있으며, 해당 모니터를 통해 통합 관리가 이루어질 수 있다. 그리고 관제 요원들은 모니터를 보면서 무인기(100)의 긴급 상황 등을 판단할 수 있으며, 또 현재 비행 상태를 판단할 수 있으며, 원격 제어가 필요한 경우에는 무인기(100)를 원격 제어하는 것도 얼마든지 가능할 수 있다. 예를 들어, 도 4에서와 같이 AI 드론 스테이션을 이용해 24시간 산불예찰을 해야 하는 경우에는 해당 장소에 도 1의 지상관제장치(110)를 이용하는 관리자가 상주하는 것이 어려울 수 있다. 이의 경우에는 종합관제장치(140)에서 스테이션에 이착륙하는 무인기(100)들을 원격 제어하고 또 관제함으로써 산불예찰을 용이하게 할 수 있다. 가령, 무인기(100)는 스테이션의 동작 상태와 관련한 동작 데이터를 제공해 주는 것도 얼마든지 가능할 수 있다. 물론 스테이션 자체적으로 통신 모듈을 구비함으로써 자신의 동작 상태(예: 고장 등)를 주기적으로 무인기 관제서비스장치(130)로 제공하여 종합관제장치(140)에서 관제가 이루어지도록 할 수 있지만, 무인기(100)를 통해 스테이션의 동작 상태가 관제되도록 함으로써 시스템 구축 비용 등을 절약하는 것도 얼마든지 가능하다. 예를 들어, 무인기(100)가 착륙한 경우 스테이션의 동작 데이터를 무선으로 전송하여 무인기(100)의 통신 모듈을 통해 무인기 관제서비스장치(130)로 데이터가 전송되도록 할 수 있다.The integrated control unit (140) may refer to a computer, such as a control agent, that performs control operations at the control center. Of course, the control center may be equipped with an electronic display board or monitor to comprehensively control the entire flight of drones (100), and integrated management may be performed through the monitor. In addition, the control agents can judge emergency situations, etc. of the drones (100) while looking at the monitor, and can also determine the current flight status. If remote control is required, it may be possible to remotely control the drones (100). For example, in the case where 24-hour forest fire surveillance is required using an AI drone station as shown in FIG. 4, it may be difficult for a manager using the ground control unit (110) of FIG. 1 to be permanently stationed at the relevant location. In this case, forest fire surveillance can be facilitated by remotely controlling and monitoring the drones (100) that take off and land at the station from the integrated control unit (140). For example, the drone (100) may be able to provide operation data related to the station's operation status. Of course, the station itself may be equipped with a communication module so that its operation status (e.g., failure, etc.) may be periodically provided to the drone control service device (130) so that control may be performed by the integrated control device (140). However, it is also possible to save on system construction costs, etc., by having the station's operation status controlled through the drone (100). For example, when the drone (100) lands, the station's operation data may be wirelessly transmitted so that the data may be transmitted to the drone control service device (130) through the drone's (100) communication module.
상기한 내용 이외에도 도 1의 무인기(100), 지상관제장치(110), 통신망(120), 무인기 관제서비스장치(130) 및 종합관제장치(140)는 다양한 동작을 수행할 수 있으며, 관련 내용은 이후에도 계속해서 다루어지므로 그 내용들로 대신하고자 한다.In addition to the above, the drone (100), ground control device (110), communication network (120), drone control service device (130), and integrated control device (140) of FIG. 1 can perform various operations, and since related contents will be continuously covered later, those contents will be replaced.
도 6은 도 1의 무인기의 세부구조를 예시한 블록다이어그램이다.Figure 6 is a block diagram illustrating the detailed structure of the drone of Figure 1.
도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 무인기(100)는 산불예찰에 사용되는 AI 드론이나, 도 3에서와 같이 UAM에 사용되는 무인항공기 등을 포함할 수 있으며, 통신 인터페이스부(600), 감시부(610), 제어부(620), AI FC부(630) 및 저장부(640)의 일부 또는 전부를 포함한다. 물론 무인기(100)는 프로펠러, 이의 구동을 위한 모터 등 기구적(혹은 하드웨어적)인 다양한 구성요소들을 더 포함할 수 있지만, 본 발명의 실시예에서는 기술적 사상에 관련된 구동 메커니즘의 측면에서만 살펴보기로 한다.As illustrated in FIG. 6, the unmanned aerial vehicle (100) according to an embodiment of the present invention may include an AI drone used for forest fire surveillance, an unmanned aerial vehicle used for UAM as in FIG. 3, and includes part or all of a communication interface unit (600), a monitoring unit (610), a control unit (620), an AI FC unit (630), and a storage unit (640). Of course, the unmanned aerial vehicle (100) may further include various mechanical (or hardware) components such as a propeller and a motor for driving the propeller, but in the embodiment of the present invention, only the driving mechanism related to the technical idea will be examined.
여기서, "일부 또는 전부를 포함한다"는 것은 저장부(640)와 같은 일부 구성요소가 생략되어 도 1의 무인기(100)가 구성되거나, AI FC부(630)와 같은 일부 구성요소가 제어부(620)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다. Here, “including some or all” means that some components, such as the storage unit (640), may be omitted to form the drone (100) of FIG. 1, or some components, such as the AI FC unit (630), may be integrated into other components, such as the control unit (620), and so on. In order to help a sufficient understanding of the invention, it is described as including all.
통신 인터페이스부(600)는 지상관제장치(110)와 다이렉트(예: P2P 등)로 통신을 수행하거나, 도 1의 통신망(120)을 경유하여 무인기 관제서비스장치(130) 및 종합관제장치(140)와 각각 통신할 수 있다. 물론 도면에 별도로 도시하지는 않았지만 GPS와 통신을 수행할 수도 있다. 이를 위하여 통신 인터페이스부(600)는 제1 통신모듈 내지 제3 통신모듈을 포함하며, 각각의 통신 모듈을 통해 지상관제장치(110)와 통신하거나 통신망(120)을 경유해 무인기 관제서비스장치(130)나 종합관제장치(140)와 통신할 수 있다. 가령 GPS 모듈을 통해 GPS 통신을 수행하여 현재 무인기(100)가 비행하는 위치의 위치 정보를 생성할 수도 있다. 통신을 수행하는 과정에서 통신 인터페이스부(600)는 변/복조, 인코딩/디코딩 등의 동작을 수행할 수 있다. 이는 당업자에게 자명하므로 더 이상의 설명은 생략하도록 한다.The communication interface unit (600) can communicate directly (e.g., P2P, etc.) with the ground control unit (110), or can communicate with the drone control service unit (130) and the integrated control unit (140) via the communication network (120) of FIG. 1. Of course, although not separately illustrated in the drawing, it can also communicate with GPS. To this end, the communication interface unit (600) includes a first communication module to a third communication module, and can communicate with the ground control unit (110) via each communication module, or can communicate with the drone control service unit (130) or the integrated control unit (140) via the communication network (120). For example, GPS communication can be performed via the GPS module to generate location information on the current flying location of the drone (100). In the process of performing communication, the communication interface unit (600) can perform operations such as modulation/demodulation, encoding/decoding, etc. This is obvious to those skilled in the art, so further explanation will be omitted.
통신 인터페이스부(600)는 제어부(620)의 제어하에 지상관제장치(110)에서의 제어 명령에 따라 지정된 경로를 따라 이동하면서 카메라를 통해 촬영되는 영상이나 사진, 그리고 다양한 유형의 센서를 통해 취득되는 센서 데이터를 지상관제장치(110)로 제공할 수 있다. 이에 따라 지상관제장치(110)의 관리자는 모니터에 표시되는 메타버스 화면상에서 자신이 조종하는 무인기(100)의 비행 상태나 항로를 확인할 수도 있다. 물론 해당 데이터는 프로그램상 지정된 방식에 따라 도 1의 무인기 관제서비스장치(130)로 제공되는 것도 얼마든지 가능하며, 지상관제장치(110)는 무인기 관제서비스장치(130)에서 제공하는 메타버스 화면 등을 통해 무인기(100)의 비행 동향을 확인하는 것도 얼마든지 가능할 수 있다.The communication interface unit (600) can provide the ground control unit (110) with images or photos taken by a camera while moving along a designated path according to a control command from the ground control unit (110) under the control of the control unit (620), and sensor data acquired through various types of sensors. Accordingly, the manager of the ground control unit (110) can check the flight status or route of the drone (100) he or she is controlling on the metaverse screen displayed on the monitor. Of course, the data can also be provided to the drone control service unit (130) of FIG. 1 according to a method designated in the program, and the ground control unit (110) can also check the flight trend of the drone (100) through the metaverse screen provided by the drone control service unit (130).
이외에도 통신 인터페이스부(600)는 제어부(620)의 제어하에 다양한 동작을 수행하며, 예를 들어 무인기(100)가 산불예찰과 같은 목적을 위해 운영될 때 도 1의 종합관제장치(140)의 원격 제어에 의해 비행을 수행할 수 있다. 또한, 통신 인터페이스부(600)는 무인기(100)가 산불예찰과 같은 목적을 위해 비행할 때에도 의도하지 않은 바람이나 돌풍으로 인해 지정된 경로를 이탈하고 더욱이 종합관제장치(140)로부터의 제어 명령이 수신되지 않는 경우에는 제어부(620)의 제어하에 내부적으로 탑재된 AI FC에 의해 자동 제어가 가능하여 이를 통해 생성되는 위치나 고도 정보 등의 데이터를 제공하는 것도 얼마든지 가능할 수 있다.In addition, the communication interface unit (600) performs various operations under the control of the control unit (620), and for example, when the drone (100) is operated for a purpose such as forest fire surveillance, it can perform a flight by remote control of the integrated control unit (140) of FIG. 1. In addition, when the drone (100) is flying for a purpose such as forest fire surveillance, if it deviates from the designated path due to unintended wind or gusts, and furthermore, if a control command from the integrated control unit (140) is not received, the communication interface unit (600) can automatically control the drone by the internally installed AI FC under the control of the control unit (620), and it is entirely possible to provide data such as location and altitude information generated through this.
감시부(610)는 카메라나 다양한 유형의 센서를 포함할 수 있다. 카메라를 통해서는 가령 도 1의 지상관제장치(110)나 종합관제장치(140)의 제어 명령에 따라 지정된 경로를 따라 비행하면서 특정 지역을 촬영하여 촬영 영상을 제공할 수 있으며, 사진을 제공할 수도 있다. 예를 들어 특정 지역의 습생 식물을 촬영하는 것도 가능할 수 있다. 또한 감시부(610)는 다양한 유형의 센서를 통해 무인기(100)의 위치, 가령 비행하는 위치와 관련한 위경도 정보 등의 위치정보를 생성할 수 있다. 가령, GPS를 이용한 위치정보 이외에도 자이로센서나 가속도센서 등의 관성 센서들을 이용해 현 위치의 위치정보를 생성할 수 있고, 또 고도센서를 통해 고도를 측정할 수 있다. 고도센서는 대기압력 검출형 고도센서, 초음파식 고도센서, 비젼센서 등 다양한 유형의 센서가 사용될 수 있다. 무엇보다 본 발명의 실시예에 따른 감시부(610)를 구성하는 센서들은 무인기(100)가 비행이나 운행과 관련한 제어 명령이 외부로부터 단절 즉 미수신될 때 제어부(620)의 제어하에 동작하는 것도 얼마든지 가능할 수 있다. 예를 들어, 무인기(100)는 비행 중에 의도하지 않은 바람이나 돌풍에 직면할 수 있으며, 이의 경우 외부의 제어에 의하지 않고 스스로 판단하여 다음 경로로 운행함으로써 비행 안전성을 유지하도록 하는 것이다. 감시부(610)를 구성하는 센서들은 이러한 동작에 관여할 수 있다.The surveillance unit (610) may include a camera or various types of sensors. For example, the camera may be used to capture images of a specific area and provide photographs while flying along a designated route according to a control command from the ground control unit (110) or integrated control unit (140) of FIG. 1. For example, it may also be possible to capture photographs of wet plants in a specific area. In addition, the surveillance unit (610) may generate location information, such as latitude and longitude information related to the flight location, of the drone (100) using various types of sensors. For example, in addition to location information using GPS, inertial sensors such as a gyro sensor or an acceleration sensor may be used to generate location information of the current location, and altitude may be measured using an altitude sensor. Various types of altitude sensors may be used, such as an atmospheric pressure detection-type altitude sensor, an ultrasonic altitude sensor, or a vision sensor. Above all, the sensors constituting the monitoring unit (610) according to the embodiment of the present invention may be able to operate under the control of the control unit (620) when the control commands related to the flight or operation of the drone (100) are disconnected from the outside, i.e., are not received. For example, the drone (100) may encounter unintended wind or gusts during flight, and in this case, the drone (100) may maintain flight safety by making its own judgment and operating on the next route without relying on external control. The sensors constituting the monitoring unit (610) may be involved in such operations.
제어부(620)는 가령 CPU, MPU, GPU 등의 프로세서를 포함하며, 램(RAM) 등의 메모리를 더 포함할 수 있다. 프로세서와 메모리는 IC칩 등의 형태로 원칩화하여 구성되는 것도 얼마든지 가능하다. 제어부(620)는 통신 인터페이스부(600), 감시부(610), AI FC부(630) 및 저장부(640)의 전반적인 제어 동작을 수행할 수 있다. 제어부(620)는 통신 인터페이스부(600)를 통해 외부에서 비행과 관련한 제어 신호(혹은 명령)가 수신되는 경우 해당 제어 신호에 따라 무인기(100)를 비행할 수 있다. 이를 위하여 감시부(610)를 구성하는 다양한 유형의 센서들을 통해 수신되는 센서 데이터를 근거로 경로를 찾아 비행할 수 있다. 물론 감시부(610)를 구성하는 촬영 영상의 영상 데이터를 분석하여 그 분석 결과를 근거로 객체를 식별하고 그 식별한 객체를 근거로 비행하는 것도 얼마든지 가능할 수는 있다. 다만, 자이로센서 등을 통해 방향을 측정하고, 또 GPS와의 통신에 의해 위경도를 측정하며, 나아가 고도센서에 의해 고도를 측정해 그 측정 결과에 따라 비행을 수행하는 것이 바람직할 수 있다.The control unit (620) includes a processor such as a CPU, an MPU, a GPU, and may further include a memory such as RAM. The processor and the memory may be configured as a single chip in the form of an IC chip, etc. The control unit (620) may perform the overall control operation of the communication interface unit (600), the monitoring unit (610), the AI FC unit (630), and the storage unit (640). When a control signal (or command) related to flight is received from the outside through the communication interface unit (600), the control unit (620) may fly the unmanned aerial vehicle (100) according to the control signal. To this end, the unmanned aerial vehicle (100) may find a path and fly based on sensor data received through various types of sensors constituting the monitoring unit (610). Of course, it is also possible to analyze the image data of the captured images constituting the monitoring unit (610), identify an object based on the analysis result, and fly based on the identified object. However, it may be desirable to measure direction using a gyro sensor, measure latitude and longitude through communication with GPS, and further measure altitude using an altitude sensor and perform flight based on the measurement results.
제어부(620)는 통신 인터페이스부(600)를 통해 외부로부터의 제어 명령이 미수신되는 경우 예를 들어 바람이나 돌풍을 감시부(610)를 구성하는 센서들로부터 감지한 경우 기준값을 초과할 때 또는 기설정된 조건을 만족할 때 지상관제장치(110)나 종합관제장치(140)와 통신을 시도할 수 있다. 이의 과정에서 지정 시간 내에 제어 신호가 미수신되는 경우 AI FC부(630)에 탑재된 AI 프로그램을 실행시킬 수 있다. 해당 AI 프로그램은 일종의 시뮬레이션 프로그램일 수 있으며, 비행 경로의 지역과 관련한 맵 데이터나 메타버스 데이터가 될 수 있다. 제어부(620)는 비행 경로와 관련한 데이터를 사전에 기등록할 수 있으므로, 내부에 저장된 비행 경로 데이터를 이용해 자율 비행을 수행할 수 있다. 이의 과정에서 위치나 고도를 찾아갈 수 있으며, 다시 말해 맵 데이터나 메타버스 데이터 내에는 비행 경로의 위치나 고도 등의 정보가 설정되어 있을 수 있으므로, 감시부(610)에서 수집되는 센서 데이터를 분석해 위치와 고도를 찾아갈 수 있다. 물론 맵 데이터나 비행이 시뮬레이션되는 메타버스와 같은 가상 공간을 나타내는 메타버스 데이터는 비행 경로의 지형지물과 관련한 데이터가 기설정될 수도 있다. 이에 따라 제어부(620)는 지형지물을 근거로 현재 위치와 고도를 판단하는 것도 얼마든지 가능할 수 있다. 다시 말해 A-B-C-D의 경로를 비행하는 과정에서 C 지점의 촬영 영상에서 지정된 객체가 탐지되면 비행이 적절하다고 판단하는 것이다. 제어부(620)는 이러한 동작 수행을 위해 AI FC부(630)와 연계하여 동작할 수 있다.The control unit (620) may attempt to communicate with the ground control unit (110) or the integrated control unit (140) when an external control command is not received through the communication interface unit (600), for example, when wind or gusts are detected by the sensors constituting the monitoring unit (610), when a reference value is exceeded, or when a preset condition is satisfied. During this process, if a control signal is not received within a specified time, an AI program installed in the AI FC unit (630) may be executed. The AI program may be a type of simulation program, and may be map data or metaverse data related to the area of the flight path. Since the control unit (620) may pre-register data related to the flight path, it may perform autonomous flight using the flight path data stored within it. In this process, the location or altitude may be found. In other words, since information such as the location or altitude of the flight path may be set in the map data or metaverse data, the location and altitude may be found by analyzing the sensor data collected by the monitoring unit (610). Of course, metaverse data, which represents a virtual space such as map data or the metaverse where flights are simulated, may also be preset with data related to geographical features along the flight path. Accordingly, the control unit (620) may readily determine the current location and altitude based on geographical features. In other words, if a designated object is detected in the video captured at point C during a flight along the A-B-C-D route, the flight is deemed appropriate. The control unit (620) may operate in conjunction with the AI FC unit (630) to perform these operations.
AI FC부(630)는 도 1의 무인기 관제서비스장치(130)와 트윈으로 동작할 수 있다. 여기서 트윈으로 동작한다는 것은 데이터를 실시간으로 무인기 관제서비스장치(130)로 제공하여 현실세계를 가상세계로 구현하도록 하는 것이다. 양방향 통신을 의미할 수 있다. 예를 들어 AI FC부(630)는 무인기 관제서비스장치(130)와의 통신에 의해 현재 비행하는 경로의 다양한 정보를 수집하는 것도 얼마든지 가능할 수 있다. 지형, 날씨, 감시정보 등을 수집하여 이를 전송할 수 있다. 또 무인기 관제서비스장치(130)로부터 경로, 충돌회피 전략, 공역 사용 등의 계획과 관련한 데이터를 제공받아 그에 따라 운행하는 것도 얼마든지 가능하다.The AI FC unit (630) can operate as a twin with the drone control service unit (130) of FIG. 1. Operating as a twin here means providing data to the drone control service unit (130) in real time to implement the real world as a virtual world. This can imply two-way communication. For example, the AI FC unit (630) can collect various information about the current flight path through communication with the drone control service unit (130). It can collect and transmit terrain, weather, surveillance information, etc. Furthermore, it is entirely possible to receive data related to plans such as routes, collision avoidance strategies, and airspace use from the drone control service unit (130) and operate accordingly.
본 발명의 실시예에 따른 AI FC부(630)는 비행 경로와 관련한 맵 데이터나 메타버스 데이터를 내부적으로 탑재할 수 있으며, 평상시에는 이를 통해 비행금지 제한 구역 등의 공역정보를 확인할 수 있고, 또 온도, 습도, 풍향, 풍속 등의 정보를 수집해 무인기 관제서비스장치(130)로 제공하여 메타버스의 가상세계에 해당 정보가 표시되도록 할 수 있다. 물론 이외에도 위경도, 고도, 속도, 방향, 짐벌 피치 등의 정보도 제공하여 가상공간에 표시되도록 할 수 있다. 무엇보다 AI FC부(630)는 예정된 비행 경로를 따라 비행 중에 돌발 상황이 발생할 경우 자율 비행을 위한 동작을 수행할 수도 있다. 이를 통해 이착륙 및 비행, 그리고 다중의 비행경로 점검 및 최적화 경로 생성 등의 동작을 수행할 수 있다. 예를 들어, 외부로부터 제어 명령이 미수신될 때 내부에 저장된 맵 데이터나 메타버스 데이터를 이용해 자율 비행을 수행할 수 있으며, 이의 과정에서 비행경로를 확인해 이착륙이나 비행을 수행할 수 있다. 그리고, 감지부(610)를 구성하는 센서들이나 카메라를 통해 수신되는 촬영 영상을 분석하여 현재의 위치(예: 위경도)나 고도, 방향 등을 판단하여 맵 데이터나 메타버스 데이터상의 정보를 근거로 자율 비행을 수행할 수 있다. 물론 이의 과정에서 카메라를 통해 촬영되는 촬영 영상 내의 객체들을 판단하여 기지정된 객체가 탐지되는 경우 지정된 비행 경로로 정상적인 비행을 하고 있다고 판단할 수 있다.The AI FC unit (630) according to an embodiment of the present invention can internally load map data or metaverse data related to the flight path, and through this, airspace information such as no-fly zones can be checked in normal times, and information such as temperature, humidity, wind direction, and wind speed can be collected and provided to the drone control service device (130) so that the corresponding information can be displayed in the virtual world of the metaverse. Of course, in addition, information such as latitude and longitude, altitude, speed, direction, and gimbal pitch can also be provided so that it can be displayed in the virtual space. Above all, the AI FC unit (630) can perform operations for autonomous flight when an unexpected situation occurs during flight along the scheduled flight path. Through this, operations such as takeoff and landing and flight, as well as multiple flight path inspection and optimized path generation can be performed. For example, when a control command is not received from an external source, autonomous flight can be performed using the map data or metaverse data stored internally, and in the process, the flight path can be confirmed and takeoff and landing or flight can be performed. In addition, by analyzing the captured images received through the sensors or cameras that constitute the detection unit (610), the current location (e.g., latitude and longitude), altitude, direction, etc. can be determined, and autonomous flight can be performed based on information in map data or metaverse data. Of course, in this process, if the objects in the captured images captured by the camera are determined, and a designated object is detected, it can be determined that normal flight is being performed along the designated flight path.
저장부(640)는 제어부(620)의 제어하에 처리되는 다양한 유형의 정보나 데이터를 임시 저장할 수 있다. 여기서 정보나 데이터는 실무상 혼용되는 용어이므로 그 용어의 개념에 특별히 한정하지는 않을 것이다. 다만, 무인기(100)는 장치ID와 같은 식별정보를 촬영 영상의 영상 데이터나 센서의 센서 데이터와 함께 저장부(640)에 임시 저장한 후 불러내어 AI FC부(630) 등을 통해 지정 데이터 포맷으로 생성하여 도 1의 무인기 관제서비스장치(130)로 전송할 수 있다.The storage unit (640) can temporarily store various types of information or data processed under the control of the control unit (620). Here, since the terms information and data are used interchangeably in practice, the concept of the terms will not be specifically limited. However, the drone (100) can temporarily store identification information such as a device ID in the storage unit (640) together with image data of a captured image or sensor data of a sensor, and then retrieve it and generate it in a designated data format through the AI FC unit (630) and transmit it to the drone control service device (130) of FIG. 1.
상기한 내용 이외에도 도 6의 통신 인터페이스부(600), 센서부(610), 제어부(620), AI FC부(630) 및 지장부(640)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, the communication interface unit (600), sensor unit (610), control unit (620), AI FC unit (630), and control unit (640) of FIG. 6 can perform various operations, and other detailed information has been sufficiently explained above, so it will be replaced with those contents.
본 발명의 실시예에 따른 도 6의 통신 인터페이스부(600), 센서부(610), 제어부(620), AI FC부(630) 및 지장부(640)는 서로 물리적으로 분리된 하드웨어 모듈로 구성되지만, 각 모듈은 내부에 상기의 동작을 수행하기 위한 소프트웨어를 저장하고 이를 실행할 수 있을 것이다. 다만, 해당 소프트웨어는 소프트웨어 모듈의 집합이고, 각 모듈은 하드웨어로 형성되는 것이 얼마든지 가능하므로 소프트웨어니 하드웨어니 하는 구성에 특별히 한정하지 않을 것이다. 예를 들어 저장부(640)는 하드웨어인 스토리지(storage) 또는 메모리(memory)일 수 있다. 하지만, 소프트웨어적으로 정보를 저장(repository)하는 것도 얼마든지 가능하므로 위의 내용에 특별히 한정하지는 않을 것이다.According to an embodiment of the present invention, the communication interface unit (600), sensor unit (610), control unit (620), AI FC unit (630), and control unit (640) of FIG. 6 are configured as physically separate hardware modules, but each module may store and execute software for performing the above operations therein. However, the software is a collection of software modules, and each module may be formed of hardware, so there is no particular limitation on the configuration such as software or hardware. For example, the storage unit (640) may be hardware such as storage or memory. However, since it is also possible to store information (repository) in software, there is no particular limitation on the above.
한편, 본 발명의 다른 실시예로서 제어부(620)는 CPU 및 메모리를 포함할 수 있으며, 원칩화하여 형성될 수 있다. CPU는 제어회로, 연산부(ALU), 명령어해석부 및 레지스트리 등을 포함하며, 메모리는 램을 포함할 수 있다. 제어회로는 제어동작을, 그리고 연산부는 2진비트 정보의 연산 동작을, 그리고 명령어해석부는 인터프리터나 컴파일러 등을 포함하여 고급언어를 기계어로, 또 기계어를 고급언어로 변환하는 동작을 수행할 수 있으며, 레지스트리는 소프트웨어적인 데이터 저장에 관여할 수 있다. 상기의 구성에 따라, 가령 무인기 관제서비스장치(130)의 동작 초기에 AI FC부(630)에 저장되어 있는 프로그램을 복사하여 메모리 즉 램(RAM)에 로딩한 후 이를 실행시킴으로써 데이터 연산 처리 속도를 빠르게 증가시킬 수 있다. 딥러닝 모델 같은 경우 램(RAM)이 아닌 GPU 메모리에 올라가 GPU를 이용하여 수행 속도를 가속화하여 실행될 수도 있다.Meanwhile, as another embodiment of the present invention, the control unit (620) may include a CPU and a memory, and may be formed as a single chip. The CPU may include a control circuit, an operation unit (ALU), a command interpretation unit, and a registry, and the memory may include a RAM. The control circuit may perform a control operation, the operation unit may perform an operation of binary bit information, and the command interpretation unit may perform an operation of converting a high-level language into machine language and vice versa, including an interpreter or a compiler, and the registry may be involved in software data storage. According to the above configuration, for example, at the initial operation of the drone control service device (130), a program stored in the AI FC unit (630) may be copied and loaded into memory, i.e., RAM, and then executed, thereby rapidly increasing the data operation processing speed. In the case of a deep learning model, it may be loaded into the GPU memory instead of the RAM and executed by accelerating the execution speed using the GPU.
도 7은 본 발명의 실시예에 따른 무인기 관제 과정을 설명하기 위한 도면이다.FIG. 7 is a drawing for explaining a drone control process according to an embodiment of the present invention.
도 7에 도시된 바와 같이, 본 발명의 실시예에 따른 무인기(100)는 지상관제장치(110)나 종합관제장치(140)의 제어에 의해 지정 경로를 따라 비행을 수행할 수 있다(S700, S710). 이러한 제어에 의해 비행이 이루어지는 경우 무인기(100)는 비행과 관련한 촬영 영상의 영상 데이터나 다양한 유형의 센서들로부터 취득되는 센서 데이터를 지상관제장치(110)나 종합관제장치(140)로 전송하여 데이터가 처리되도록 동작할 수 있다. 예를 들어, 무인기 관제서비스장치(130)를 통해 메타버스 화면상에서 무인기의 항적, 비행 환경(예: 위치나 고도, 날씨 등)이 표시되도록 할 수 있다(S705, S715).As illustrated in FIG. 7, the drone (100) according to an embodiment of the present invention can perform a flight along a designated path under the control of a ground control unit (110) or a comprehensive control unit (140) (S700, S710). When a flight is performed under such control, the drone (100) can transmit image data of a video shot related to the flight or sensor data acquired from various types of sensors to the ground control unit (110) or the comprehensive control unit (140) so that the data can be processed. For example, the drone control service unit (130) can display the drone's flight path and flight environment (e.g., location, altitude, weather, etc.) on the metaverse screen (S705, S715).
무인기(100)는 지상관제장치(110)나 종합관제장치(140)와 통신 중에 바람이나 돌풍에 의해 의도하지 않은 경로 이탈이나 통신 두절 등의 비상 상황이 발생한 경우 내부에 탑재되는 AI FC를 가동시킬 수 있다(S720). AI FC는 가령 비상 상황에서 자율 비행을 위한 인공지능 프로그램을 탑재하며, 무인기(100)는 비행하는 비행 경로와 관련한 맵 데이터, 또는 3차원의 가상으로 구현된 메타버스 데이터를 이용하여 자율 비행을 수행할 수 있다. 예를 들어, 맵 데이터나 메타버스 데이터상에는 비행 경로와 관련한 각각의 위치에 대한 다양한 정보들이 매칭될 수 있다. 가령 무인기(100)는 A-B-C-D의 비행 경로가 지정되는 경우 가령 C 지점과 관련한 위경도나 고도, 그리고 해당 위치에서 촬영되는 지형지물에 대한 정보를 포함할 수도 있다.If an emergency situation, such as an unintended path deviation or communication interruption due to wind or gusts, occurs while the drone (100) is communicating with the ground control unit (110) or the integrated control unit (140), the drone (100) can activate the AI FC installed inside (S720). The AI FC is equipped with an artificial intelligence program for autonomous flight in an emergency situation, and the drone (100) can perform autonomous flight using map data related to the flight path or 3D virtually implemented metaverse data. For example, various information about each location related to the flight path can be matched on the map data or metaverse data. For example, if the flight path of A-B-C-D is designated, the drone (100) may include information about the latitude and longitude or altitude related to point C, and information about terrain features photographed at the corresponding location.
이와 같이 무인기(100)는 AI FC의 가동에 따라 이를 이용해 이착륙, 비행, 다중의 비행경로 점검, 최적화 경로 생성 동작 등을 수행할 수 있다(S730). 가령 최적화 경로의 생성의 경우 현재 위치에서 풍속이나 풍향 등의 센서 데이터를 분석한 결과 비행이 곤란하다고 판단될 때 촬영되는 촬영 영상의 분석 결과를 근거로 새로운 경로를 생성하고, 가령 C 지점과 D 지점을 연결하는 새로운 경로를 생성해 비행을 수행할 수도 있다. 예를 들어, 본 발명의 실시예에서는 무인기(100)의 비행 환경을 산불예찰을 위한 환경, 그리고 UAM과 같은 환경을 예시하였으므로, 무인기(100)의 운행 환경에 따라 다양하게 자율 비행 동작이 가능할 수 있을 것이다.In this way, the drone (100) can perform operations such as takeoff and landing, flight, multiple flight path inspection, and optimized path generation by utilizing the AI FC (S730). For example, in the case of generating an optimized path, when flight is determined to be difficult as a result of analyzing sensor data such as wind speed or wind direction at the current location, a new path is generated based on the analysis results of the captured video, and for example, a new path connecting point C and point D can be generated and flight can be performed. For example, in the embodiment of the present invention, since the flight environment of the drone (100) is exemplified as an environment for forest fire surveillance and an environment such as UAM, various autonomous flight operations may be possible depending on the operating environment of the drone (100).
무인기(100)는 지상관제장치(110)나 종합관제장치(140)로의 데이터 처리가 불가능한 경우 다이렉트로 무인기 관제서비스장치(130)로 카메라를 통해 촬영되는 촬영 영상의 영상 데이터나, 다양한 유형의 센서들로부터 취득되는 센서 데이터를 전송할 수 있다(S740). 즉 데이터의 전송 경로를 변경할 수 있는 것이다.When data processing by the ground control unit (110) or the integrated control unit (140) is impossible, the drone (100) can directly transmit image data of images captured by a camera or sensor data acquired from various types of sensors to the drone control service unit (130) (S740). In other words, the data transmission path can be changed.
이에 따라 무인기 관제서비스장치(130)는 다이렉트로 전송된 데이터를 처리하여 메타버스 화면상에 구현할 수 있고, 그 메타버스 데이터를 지상관제장치(110)나 종합관제장치(140)로 전송하여 관제가 이루어지도록 할 수도 있다(S750).Accordingly, the drone control service device (130) can process the directly transmitted data and implement it on the metaverse screen, and can also transmit the metaverse data to the ground control device (110) or the integrated control device (140) to enable control (S750).
상기한 내용 이외에도 무인기(100), 지상관제장치(110), 무인기 관제서비스장치(130) 및 종합관제장치(140)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, the drone (100), ground control device (110), drone control service device (130), and integrated control device (140) can perform various operations, and other detailed information has been sufficiently explained above, so it will be replaced with that information.
도 8은 도 1의 무인기의 구동과정을 나타내는 흐름도이다.Figure 8 is a flowchart showing the driving process of the drone of Figure 1.
설명의 편의상 도 8을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 무인기(100)는 가령 산불예찰에 사용되는 인공지능(AI) 드론이나 UAM에 사용되는 무인항공기 등으로서, 외부장치(예: 도 1의 지상관제장치나 종합관제장치)로부터 제어신호가 미수신되는 통신 두절을 포함하는 돌발 상황시 기탑재된 AI FC를 가동한다(S800). 여기서, AI FC는 인공지능 모델(model) 혹은 모듈(module)을 탑재할 수 있으며, 가령 돌발 상황으로서 돌풍 등에 의해 의도하지 않게 무인기(100)가 지정 경로를 이탈했을 때 자체적으로 구축하는 맵 데이터 또는 메타버스 데이터를 근거로 자율 비행으로 위치(예: 위경도 등)나 고도를 찾아가기 위해 사용될 수 있다. 여기서, 맵 데이터는 사전에 무인기(100)가 비행할 지역의 촬영 영상을 확보하여 이를 격자 형태의 셀(cell)로 구분하고, 해당 셀마다 물리적 위치 즉 위경도 정보, 고도 정보, 나아가 해당 셀에 위치하는 건물 등의 객체 정보를 매칭하여 저장시킬 수 있다. 메타버스 데이터는 현재 비행하는 무인기(100)가 비행 경로를 재설정하는 등의 동작을 통해 비행할 때 타 무인기(100)와의 충돌 등을 방지해야 하므로, 이를 구현(혹은 시뮬레이션)하는 형태의 시뮬레이션 환경을 의미할 수 있다. 물론 맵 데이터의 경우에도 메타버스 데이터와 같이 충돌 회피를 위한 동작에 얼마든지 적용이 가능하며, 맵 데이터나 메타버스 데이터는 본 발명의 실시예에 따른 시뮬레이션 데이터라 명명될 수 있다. 물론 AI 모델은 이러한 동작을 위하여 사전에 다양한 유형 즉 비행이나 비행 지역과 관련한 데이터를 학습할 수도 있으며 그 학습 데이터의 학습 결과에 근거하여 동작한다고 볼 수 있다.For convenience of explanation, referring to FIG. 8 together with FIG. 1, an unmanned aerial vehicle (100) according to an embodiment of the present invention, such as an artificial intelligence (AI) drone used for forest fire forecasting or an unmanned aerial vehicle used for UAM, operates the pre-installed AI FC in an emergency situation including a communication cutoff in which a control signal is not received from an external device (e.g., a ground control device or an integrated control device of FIG. 1) (S800). Here, the AI FC may be equipped with an artificial intelligence model or module, and may be used to find a location (e.g., latitude and longitude, etc.) or altitude through autonomous flight based on map data or metaverse data that the unmanned aerial vehicle (100) constructs itself when it unintentionally deviates from a designated path due to an emergency situation such as a gust of wind. Here, the map data can be obtained by securing a video of the area where the drone (100) will fly in advance, dividing it into cells in a grid shape, and storing the physical location, i.e., latitude and longitude information, altitude information, and even object information such as buildings located in the cell, by matching them to each cell. The metaverse data can refer to a simulation environment that implements (or simulates) the current flying drone (100) to prevent collisions with other drones (100) when flying by resetting the flight path, etc. Of course, in the case of map data, it can be applied to operations for collision avoidance like metaverse data, and the map data or metaverse data can be called simulation data according to an embodiment of the present invention. Of course, the AI model can learn various types of data related to flights or flight areas in advance for such operations, and it can be seen that it operates based on the learning results of the learning data.
이와 같이 무인기(100)는 AI FC의 가동에 따라 즉 AI 모델의 실행에 따라 이착륙, 비행, 다중의 비행 경로 점검, 최적의 경로 생성 등의 동작을 수행할 수 있다(S810). 예를 들어, 무인기(100)는 지정 경로를 비행 중 돌풍으로 인해 비행 경로를 이탈할 경우 무인기(100)는 AI FC의 가동에 따라 또 자신이 탑재하고 있는 다양한 유형의 센서들로부터 수집되는 센서 데이터를 분석하여 방향이나 고도를 감지할 수 있으며, 현재 자신이 기존의 기설정된 지정 경로에서 얼마나 이탈되어 있는지, 또 다음 비행해야 할 경로가 어디인지를 판단할 수 있다. 이를 위하여 위에서 설명한 바 있는 맵 데이터나 메타버스 데이터를 이용해 현재 위치를 감지하고, 또 새로운 최적의 경로를 생성하는 것도 얼마든지 가능할 수 있다. 가령, GPS 모듈을 이용해 GPS와 통신하는 경우 현재의 위치를 감지하는 것을 어렵지 않으며, 또 고도센서 등을 통해 고도를 측정하는 것도 얼마든지 가능하다. 최적의 경로 설정을 위해서는 사전에 학습한 학습 데이터에 근거해 최적 경로를 생성할 수 있다. 본 발명의 실시예에 따른 무인기(100)의 운행 환경은 다수의 무인기(100)들이 비행하는 환경이므로 충돌 회피 등의 문제를 고려하여 최적의 비행 경로를 생성하거나 다중의 비행 경로를 점검할 수 있는 것이다. 물론 이외에도 무인기(100)는 카메라를 통해 촬영되는 촬영 영상 내의 객체들, 즉 실제 물리적 공간에서의 지형지물(예: 특정 건물)을 영상이나 이미지 분석을 통해 판단하여 이를 근거로 현 위치를 판단하거나 비행 중인 경로를 판단하는 것도 얼마든지 가능할 수 있다. 물론 이러한 지형지물의 정보도 앞서의 맵 데이터나 메타버스 데이터상에 매칭되어 기저장되므로 해당 데이터와의 비교에 의해 위치를 판단하는 것도 얼마든지 가능하다.In this way, the drone (100) can perform operations such as takeoff and landing, flight, multiple flight path check, and optimal path generation depending on the operation of the AI FC, that is, the execution of the AI model (S810). For example, if the drone (100) deviates from the designated path due to a gust of wind while flying on the designated path, the drone (100) can detect the direction and altitude by analyzing the sensor data collected from the various types of sensors it is equipped with and depending on the operation of the AI FC, and can determine how much it has deviated from the existing preset designated path and where the next path to fly is. To this end, it is entirely possible to detect the current location using the map data or metaverse data described above and to generate a new optimal path. For example, if the GPS module is used to communicate with the GPS, it is not difficult to detect the current location, and it is also entirely possible to measure the altitude using an altitude sensor, etc. To set the optimal path, the optimal path can be generated based on pre-learned learning data. The operating environment of the drone (100) according to the embodiment of the present invention is an environment in which multiple drones (100) fly, so that an optimal flight path can be generated or multiple flight paths can be checked while considering issues such as collision avoidance. Of course, in addition, the drone (100) can also determine objects in the captured image captured by the camera, i.e., geographical features (e.g., specific buildings) in an actual physical space, through video or image analysis, and determine the current location or the flight path based on this. Of course, since the information on these geographical features is also matched and stored on the above map data or metaverse data, it is also possible to determine the location by comparison with the corresponding data.
나아가 본 발명의 실시예에 따른 무인기(100)는 무인기(100)의 비상 상황을 메타버스 화면상에 구현 및 자율 비행에 따른 데이터가 화면에 표시되도록 클라우드 서버와 같은 무인기 관제서비스장치(130)로 자율 비행에 따른 비행 데이터를 다이렉트로 전송한다(S820). 물론 여기서 다이렉트란 돌발 상황이 아닌 경우에는 별도의 제어 장치, 가령 도 1의 지상관제장치(110)나 종합관제장치(140)의 제어에 의해 비행이 이루어지고, 또 그에 따라 무인기(100)에서 촬영되거나 센서들에 의해 취득되는 데이터가 처리되지만, 돌발 상황에서는 해당 외부 장치를 경유하지 않고 직접 로라 통신 등을 통해 데이터를 전송해 주는 것을 의미할 수 있다. 로라 통신은 최대 15km까지 통신이 가능한 것으로 알려져 있다.Furthermore, the drone (100) according to an embodiment of the present invention directly transmits flight data according to autonomous flight to a drone control service device (130), such as a cloud server, so that an emergency situation of the drone (100) is implemented on the metaverse screen and data according to autonomous flight is displayed on the screen (S820). Of course, the term "direct" here means that in non-emergency situations, flight is performed by the control of a separate control device, such as the ground control device (110) or the integrated control device (140) of FIG. 1, and data captured by the drone (100) or acquired by sensors is processed accordingly. However, in emergency situations, it may mean that data is transmitted directly through LoRa communication or the like without going through the external device. LoRa communication is known to be capable of communication up to 15 km.
이에 따라 무인기 관제서비스장치(130)는 돌발 상황에서도 지상관제장치(110)나 종합관제장치(140)의 관리자들이 무인기(100)의 비행 상태를 메타버스 화면상에서 쉽게 확인할 수 있어 비행의 안전성이나 시스템 즉 서비스의 안정성이 확보될 수 있을 것이다.Accordingly, the drone control service device (130) will enable managers of the ground control device (110) or the integrated control device (140) to easily check the flight status of the drone (100) on the metaverse screen even in an emergency situation, thereby ensuring the safety of the flight and the stability of the system, i.e., the service.
나아가 본 발명의 실시예에 따른 무인기(100)는 가령 산불예찰의 경우 앞서 설명한 바와 같이, AI 드론 스테이션(장치)과 연계하여 동작할 수 있다. 지정된 프로그램에 따라 자신이 비행해야 할 경로에 따라 비행을 하게 되며 이의 과정에서 촬영 영상이나 센서 데이터들을 전송해 줄 수 있다. 이의 경우에도 돌발 상황이 발생할 때 해당 AI 드론 스테이션으로 자동 이착륙 등이 이루어질 수 있다. 나아가 AI 드론 스테이션의 동작 데이터, 가령 고장이나 배터리 교체 등의 문제가 발생할 경우 이를 무인기(100)가 직접 데이터를 전송해 주어 알림으로써 AI 드론 스테이션의 수리가 이루어지는 것도 얼마든지 가능할 수 있다.Furthermore, the drone (100) according to an embodiment of the present invention can operate in conjunction with an AI drone station (device), for example, in the case of forest fire surveillance, as described above. It flies along a route it should fly according to a designated program, and can transmit captured images or sensor data during the process. In this case, automatic takeoff and landing can be performed to the corresponding AI drone station when an emergency occurs. Furthermore, in the event of a problem with the AI drone station, such as a breakdown or battery replacement, the drone (100) can directly transmit data to notify the user, allowing for repairs to the AI drone station.
상기한 내용 이외에도 본 발명의 실시예에 따른 무인기(100)는 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, the drone (100) according to the embodiment of the present invention can perform various operations, and other detailed information has been sufficiently explained above, so it will be replaced with that information.
본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.Even though all components constituting the embodiments of the present invention have been described as being combined or operating in combination, the present invention is not necessarily limited to such embodiments. That is, within the scope of the present invention, all of the components may be selectively combined and operated one or more times. In addition, although all of the components may be implemented as individual hardware, some or all of the components may be selectively combined and implemented as a computer program having program modules that perform some or all of the functions of the combined hardware in one or more pieces. The codes and code segments constituting the computer program will be readily inferred by those skilled in the art. Such a computer program may be stored in a non-transitory computer-readable storage medium and read and executed by a computer, thereby implementing the embodiments of the present invention.
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable storage medium refers to a medium that permanently stores data and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, the above-described programs may be stored and provided on a non-transitory readable storage medium, such as a CD, DVD, hard disk, Blu-ray disc, USB, memory card, or ROM.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the attached drawings, those skilled in the art will appreciate that the present invention can be implemented in other specific forms without altering the technical spirit or essential characteristics of the present invention. Therefore, the embodiments described above should be understood to be illustrative in all respects and not restrictive.
100: 무인기 110: 지상관제장치
120: 통신망 130: 무인기 관제서비스장치
140: 종합관제장치 600: 통신 인터페이스부
610: 감시부 620: 제어부
630: AI FC부 640: 저장부100: Unmanned aerial vehicle 110: Ground control device
120: Communication network 130: Drone control service device
140: Integrated control unit 600: Communication interface unit
610: Surveillance Unit 620: Control Unit
630: AI FC section 640: Storage section
Claims (10)
상기 무인기가 비행하는 현실 세계를 메타버스의 가상 세계로 구현하여 상기 메타버스의 화면상에서 상기 무인기의 동향을 관제하도록 하며, 상기 무인기에서 제공하는 촬영 영상, 사진 또는 센서의 센서 데이터의 분석 결과를 상기 메타버스 화면상에 함께 표시하여 관제가 이루어지게 하는 무인기 관제서비스장치; 및
상기 무인기 관제서비스장치에서 제공하는 메타버스 데이터를 화면상에 구현하여 상기 메타버스의 화면상에서 상기 무인기의 비행 위치와 비행 환경을 관제하는 종합관제장치;를 포함하되,
상기 무인기 관제서비스장치는, 상기 자율 비행을 수행하는 인공지능(AI) 비행 컨트롤러(FC)를 탑재하는 다수의 무인기들의 항적을 상기 메타버스의 화면상에 구현하여 상기 종합관제장치에서 관제되도록 동작하고,
상기 무인기는 상기 자율 비행을 위한 자율 모드(mode)로 동작하여 상기 AI FC에 탑재되는 AI 프로그램을 실행해 이착륙, 비행 및 다중의 비행 경로를 점검하고 충돌 회피를 고려하는 최적화 경로를 생성해 비행을 수행하며,
상기 무인기는 현재 촬영되는 촬영 영상 속의 객체들과 상기 맵 데이터나 메타버스 환경 내의 객체들이 서로 동일한 경우 정상적인 위치나 고도를 비행하여 정상 경로를 비행한다고 판단하고,
상기 무인기는 상기 제어 신호가 미감지되는 돌발 상황의 미발생시 상기 외부장치를 통해 촬영 영상이나 센서 데이터를 처리하여 분석 결과가 상기 메타버스의 화면에 반영되도록 하며, 상기 돌발 상황의 발생시 상기 AI FC의 가동에 따른 데이터를 상기 무인기 관제서비스장치로 다이렉트 전송하여 상기 메타버스의 화면상에 데이터의 분석 결과가 반영되도록 하는, 무인기 관제 시스템.An unmanned aerial vehicle that stores simulation data of map data or metaverse data that enables judgment of the possibility of collision with other unmanned aerial vehicles in relation to a flight path, and when a control signal received from an external device is not detected, measures the flight position and altitude from the stored simulation data using sensor data of sensors including an inertial sensor and an altitude sensor that it has, and performs autonomous flight by finding the position and altitude based on the measurement results;
A drone control service device that implements the real world where the drone flies into a virtual world of the metaverse to control the drone's movements on the screen of the metaverse, and displays the analysis results of the video, photos or sensor data provided by the drone on the screen of the metaverse to enable control; and
A comprehensive control device that implements metaverse data provided by the drone control service device on a screen and controls the flight location and flight environment of the drone on the screen of the metaverse; including,
The above drone control service device operates to display the paths of multiple drones equipped with artificial intelligence (AI) flight controllers (FCs) performing autonomous flight on the screen of the metaverse and to be controlled by the integrated control device.
The above drone operates in an autonomous mode for autonomous flight, executes an AI program mounted on the AI FC, checks takeoff and landing, flight, and multiple flight paths, and generates an optimized path that takes collision avoidance into account to perform flight.
The drone judges that it is flying a normal route by flying at a normal location or altitude when the objects in the currently filmed video and the objects in the map data or metaverse environment are the same.
The above drone is a drone control system that processes captured images or sensor data through the external device when an unexpected situation in which the control signal is not detected does not occur, so that the analysis results are reflected on the screen of the metaverse, and directly transmits data according to the operation of the AI FC when the unexpected situation occurs to the drone control service device so that the analysis results of the data are reflected on the screen of the metaverse.
상기 무인기는 상기 돌발 상황의 미발생시 상기 외부장치로서 지상에서 상기 무인기를 제어하는 지상관제장치 또는 원거리에서 원격으로 상기 무인기를 관제하는 관제 요원이 제어하는 종합관제장치로부터 제어 신호를 수신하여 지정 경로를 비행하는, 무인기 관제 시스템.In the first paragraph,
A drone control system in which the drone receives a control signal from a ground control device that controls the drone on the ground as an external device when the above-mentioned emergency situation does not occur, or from a comprehensive control device controlled by a control agent that remotely controls the drone from a long distance, and flies a designated route.
상기 무인기가 산불예방을 위한 산불예찰의 목적을 사용될 때 상기 무인기가 이착륙하고 상기 무인기를 기준 속도 이상으로 급속 충전시켜 작업 전환이 이루어지도록 하는 스테이션장치;를 더 포함하는, 무인기 관제 시스템.In the second paragraph,
A drone control system further comprising a station device that allows the drone to take off and land and rapidly charge the drone to a speed higher than a reference speed to enable a task transition when the drone is used for the purpose of forest fire surveillance for forest fire prevention.
무인기 관제서비스장치가, 상기 무인기가 비행하는 현실 세계를 메타버스의 가상 세계로 구현하여 상기 메타버스의 화면상에서 상기 무인기의 동향을 관제하도록 하며, 상기 무인기에서 제공하는 촬영 영상, 사진 또는 센서의 센서 데이터의 분석 결과를 상기 메타버스 화면상에 함께 표시하여 관제가 이루어지게 하는 단계;
종합관제장치가, 상기 무인기 관제서비스장치에서 제공하는 메타버스 데이터를 화면상에 구현하여 상기 메타버스의 화면상에서 상기 무인기의 비행 위치와 비행 환경을 관제하는 단계; 및
상기 무인기 관제서비스장치가 상기 자율 비행을 수행하는 인공지능(AI) 비행 컨트롤러(FC)를 탑재하는 다수의 무인기들의 항적을 상기 메타버스의 화면상에 구현하여 상기 종합관제장치에서 관제되도록 동작하는 단계;를 포함하되,
상기 무인기가, 상기 자율 비행을 위한 자율 모드(mode)로 동작하여 상기 AI FC에 탑재되는 AI 프로그램을 실행해 이착륙, 비행 및 다중의 비행 경로를 점검하고 충돌 회피를 고려하는 최적화 경로를 생성해 비행을 수행하는 단계;
상기 무인기가 현재 촬영되는 촬영 영상 속의 객체들과 상기 맵 데이터나 메타버스 환경 내의 객체들이 서로 동일한 경우 정상적인 위치나 고도를 비행하여 정상 경로를 비행한다고 판단하는 단계;
상기 무인기가 상기 제어 신호가 미감지되는 돌발 상황의 미발생시 상기 외부장치를 통해 촬영 영상이나 센서 데이터를 처리하여 분석 결과가 상기 메타버스의 화면에 반영되도록 하는 단계; 및
상기 돌발 상황의 발생시 상기 AI FC의 가동에 따른 데이터를 상기 무인기 관제서비스장치로 다이렉트 전송하여 상기 메타버스의 화면상에 데이터의 분석 결과가 반영되도록 하는 단계;를 더 포함하는 무인기 관제 방법.A step in which an unmanned aerial vehicle stores simulation data of map data or metaverse data that enables the determination of the possibility of collision with another unmanned aerial vehicle in relation to a flight path, and when a control signal received from an external device is not detected, measures the flight position and altitude from the stored simulation data using sensor data of a sensor including an inertial sensor and an altitude sensor that the unmanned aerial vehicle has, and performs autonomous flight by finding the position and altitude based on the measurement results;
A step in which a drone control service device implements the real world in which the drone flies into a virtual world of the metaverse to control the movement of the drone on the screen of the metaverse, and displays the analysis results of captured images, photos or sensor data provided by the drone on the screen of the metaverse to enable control;
A step in which the integrated control device implements the metaverse data provided by the drone control service device on the screen and controls the flight location and flight environment of the drone on the screen of the metaverse; and
A step in which the above drone control service device operates to display the paths of a plurality of drones equipped with an artificial intelligence (AI) flight controller (FC) performing the autonomous flight on the screen of the metaverse so that the paths are controlled by the integrated control device; including,
A step in which the drone operates in an autonomous mode for autonomous flight, executes an AI program mounted on the AI FC, checks takeoff and landing, flight, and multiple flight paths, and generates an optimized path that takes collision avoidance into account to perform flight;
A step of determining that the drone is flying a normal path by flying at a normal location or altitude when the objects in the currently filmed video and the objects in the map data or metaverse environment are the same;
A step for processing the captured video or sensor data through the external device when an unexpected situation in which the control signal is not detected by the drone does not occur, so that the analysis result is reflected on the screen of the metaverse; and
A drone control method further comprising a step of directly transmitting data according to the operation of the AI FC when the above-mentioned emergency situation occurs to the drone control service device so that the analysis results of the data are reflected on the screen of the metaverse.
상기 무인기가 상기 돌발 상황의 미발생시 상기 외부장치로서 지상에서 상기 무인기를 제어하는 지상관제장치 또는 원거리에서 원격으로 상기 무인기를 관제하는 관제 요원이 제어하는 종합관제장치로부터 제어 신호를 수신하여 지정 경로를 비행하는 단계;를 더 포함하는, 무인기 관제 방법.In paragraph 6,
A method for controlling a drone, further comprising: a step of receiving a control signal from a ground control device that controls the drone on the ground as an external device when the unexpected situation does not occur, or a comprehensive control device controlled by a control agent that remotely controls the drone from a long distance, and flying the drone along a designated path.
스테이션장치가, 상기 무인기가 산불예방을 위한 산불예찰의 목적을 사용될 때 상기 무인기가 이착륙하고 상기 무인기를 기준 속도 이상으로 급속 충전시켜 작업 전환이 이루어지도록 하는 단계;를 더 포함하는, 무인기 관제 방법.In paragraph 7,
A method for controlling a drone, further comprising: a step of causing the station device to take off and land when the drone is used for the purpose of forest fire surveillance for forest fire prevention, and rapidly charging the drone to a speed higher than a reference speed to enable a task transition;
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020250001050A KR102843953B1 (en) | 2025-01-03 | 2025-01-03 | System and Method for Monitoring Unmanned Aircraft |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020250001050A KR102843953B1 (en) | 2025-01-03 | 2025-01-03 | System and Method for Monitoring Unmanned Aircraft |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102843953B1 true KR102843953B1 (en) | 2025-08-08 |
Family
ID=96735871
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020250001050A Active KR102843953B1 (en) | 2025-01-03 | 2025-01-03 | System and Method for Monitoring Unmanned Aircraft |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102843953B1 (en) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170080354A (en) * | 2015-12-31 | 2017-07-10 | 자이로캠주식회사 | The virtual skyway and air traffic control system for the drone's safe flight or the drone navigation system or service |
| KR20190053709A (en) * | 2017-11-10 | 2019-05-20 | 엔드론 주식회사 | Method for controlling drone, and apparatus and system using the same |
| KR102254491B1 (en) | 2019-11-22 | 2021-05-21 | (주)가시 | Automatic fly drone embedded with intelligent image analysis function |
| KR102259855B1 (en) | 2019-11-04 | 2021-06-01 | 충북대학교 산학협력단 | Hazard Analysis Technique and Its System for Safety Verification for Autonomous Dron Navigation |
| KR102500221B1 (en) | 2021-12-21 | 2023-02-16 | 코아글림 주식회사 | Control system and method of intelligent automatic flight UAV |
| KR20230035183A (en) * | 2021-09-03 | 2023-03-13 | 주식회사 맨든 | System for controlling drone for monitoring forest fire |
| KR20230055411A (en) * | 2021-10-18 | 2023-04-26 | 주식회사 플랜비 | Intelligent parking lot control system using artificial intelligence and metaverse and method thereof |
| KR20230141037A (en) * | 2022-03-31 | 2023-10-10 | 주식회사 휴인스 | Drone that can autonomously fly indoors based on artificial intelligence |
| KR20240095646A (en) | 2022-12-16 | 2024-06-26 | 주식회사 에스제이 테크 | Drone control system |
-
2025
- 2025-01-03 KR KR1020250001050A patent/KR102843953B1/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170080354A (en) * | 2015-12-31 | 2017-07-10 | 자이로캠주식회사 | The virtual skyway and air traffic control system for the drone's safe flight or the drone navigation system or service |
| KR20190053709A (en) * | 2017-11-10 | 2019-05-20 | 엔드론 주식회사 | Method for controlling drone, and apparatus and system using the same |
| KR102259855B1 (en) | 2019-11-04 | 2021-06-01 | 충북대학교 산학협력단 | Hazard Analysis Technique and Its System for Safety Verification for Autonomous Dron Navigation |
| KR102254491B1 (en) | 2019-11-22 | 2021-05-21 | (주)가시 | Automatic fly drone embedded with intelligent image analysis function |
| KR20230035183A (en) * | 2021-09-03 | 2023-03-13 | 주식회사 맨든 | System for controlling drone for monitoring forest fire |
| KR20230055411A (en) * | 2021-10-18 | 2023-04-26 | 주식회사 플랜비 | Intelligent parking lot control system using artificial intelligence and metaverse and method thereof |
| KR102500221B1 (en) | 2021-12-21 | 2023-02-16 | 코아글림 주식회사 | Control system and method of intelligent automatic flight UAV |
| KR20230141037A (en) * | 2022-03-31 | 2023-10-10 | 주식회사 휴인스 | Drone that can autonomously fly indoors based on artificial intelligence |
| KR20240095646A (en) | 2022-12-16 | 2024-06-26 | 주식회사 에스제이 테크 | Drone control system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20220177130A1 (en) | Systems and methods for tracking, evaluating and determining a response to emergency situations using unmanned airborne vehicles | |
| US20240262496A1 (en) | Unmanned Aerial Vehicle Beyond Visual Line of Sight Control | |
| US12400552B2 (en) | Unmanned aerial vehicle visual line of sight control | |
| US11709491B2 (en) | Dynamically adjusting UAV flight operations based on radio frequency signal data | |
| Shakhatreh et al. | Unmanned aerial vehicles (UAVs): A survey on civil applications and key research challenges | |
| Sharma et al. | UAV‐based framework for effective data analysis of forest fire detection using 5G networks: An effective approach towards smart cities solutions | |
| KR20250009392A (en) | Method and system for providing route of unmanned air vehicle | |
| KR102752939B1 (en) | Method and system for providing route of unmanned air vehicle | |
| US9105184B2 (en) | Systems and methods for real-time data communications and messaging with operators of small unmanned aircraft systems (sUAS) | |
| US8886459B2 (en) | Systems and methods for small unmanned aircraft systems (sUAS) tactical tracking and mission data acquisition | |
| Lappas et al. | EuroDRONE, a european UTM testbed for U-Space | |
| WO2016130994A1 (en) | Unmanned aerial vehicle remote flight planning system | |
| US12254779B2 (en) | Unmanned aerial vehicle privacy controls | |
| US20240248477A1 (en) | Multi-drone beyond visual line of sight (bvlos) operation | |
| Baculi et al. | Onboard decision-making for nominal and contingency sUAS flight | |
| Pathiyil et al. | Enabling safe operations of unmanned aircraft systems in an urban environment: a preliminary study | |
| Jain et al. | Towards a smarter surveillance solution: The convergence of smart city and energy efficient unmanned aerial vehicle technologies | |
| Glossner et al. | An overview of the drone open-source ecosystem | |
| WO2017147142A1 (en) | Unmanned aerial vehicle visual line of sight control | |
| KR102843953B1 (en) | System and Method for Monitoring Unmanned Aircraft | |
| Afghah | Autonomous unmanned aerial vehicle systems in wildfire detection and management-challenges and opportunities | |
| Zulkifley et al. | Mobile communications and parachute systems for safe beyond visual line of sight (BVLoS) UAV operation | |
| KR20240074964A (en) | Base-type multi-purpose unmanned drone operation system linked with CCTV | |
| Aminzadeh et al. | Aerial cooperative multi-robot system for remote sensing and automated victim search | |
| Marube et al. | An autonomous unmanned aerial security surveillance system to enhance security in remote territories |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| D22 | Grant of ip right intended |
Free format text: ST27 STATUS EVENT CODE: A-1-2-D10-D22-EXM-PE0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |