KR101779255B1 - Automatic navigation and communication possible drones operating system - Google Patents
Automatic navigation and communication possible drones operating system Download PDFInfo
- Publication number
- KR101779255B1 KR101779255B1 KR1020150132730A KR20150132730A KR101779255B1 KR 101779255 B1 KR101779255 B1 KR 101779255B1 KR 1020150132730 A KR1020150132730 A KR 1020150132730A KR 20150132730 A KR20150132730 A KR 20150132730A KR 101779255 B1 KR101779255 B1 KR 101779255B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- route
- image
- sound
- unmanned airplane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims abstract description 15
- 230000002093 peripheral effect Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
- B64D45/04—Landing aids; Safety measures to prevent collision with earth's surface
- B64D45/08—Landing aids; Safety measures to prevent collision with earth's surface optical
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
-
- G06K9/32—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B64C2201/12—
-
- B64C2201/127—
-
- B64C2201/146—
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 자동항법 및 정보전달 가능한 무인비행시스템에 관한 것으로, 더욱 상세하게는 동력을 갖고, 자체 이동이 가능한 무인비행기, 상기 무인비행기에 구비되어 입력된 항로를 따라, 무인비행기를 제어하는 항로제어부, 무선 네트워크를 이용하여 상기 항로제어부로 항로데이터를 전송하기 위한 관제부, 상기 무인비행기에 구비되어 주변 영상을 실시간으로 획득하여 특정 대상을 인식하기 위한 영상인식부, 상기 무인비행기에 구비되어 음향을 출력하기 위한 음향출력부, 상기 무인비행기에 구비되어 외부 음향을 실시간 획득하기 위한 마이크부, 및 상기 영상인식부의 영상데이터, 마이크부의 음향데이터를 상기 관제부와 송수신하기 위한 통신부,를 포함하고, 상기 무인비행기는 항로제어부에 의해 대상물을 향하여 자동비행한 후, 영상과 음향을 획득하고, 음향을 출력하여 양방향 정보전달 가능하다.
상기와 같은 본 발명에 의하면, 설정된 항로를 따라 자동으로 대상의 위치로 비행하여 대상을 향하여 지향성 음향을 출력하고, 대상 또는 대상 주변의 영상과 음향을 획득하고 실시간 확인할 수 있어, 대화를 통해 정보전달이 가능함에 따라, 정보전달의 정확도를 향상시킴은 물론, 원거리에서도 실시간 정보전달 가능하다.More particularly, the present invention relates to an unmanned aerial vehicle having a power source and capable of self-moving, a navigation control unit for controlling the unmanned airplane along an input route provided in the unmanned airplane, A control unit for transmitting route data to the route control unit using a wireless network, an image recognition unit for recognizing a specific object by acquiring peripheral images in real time on the unmanned airplane, And a communication unit for transmitting and receiving acoustic data of the image data and the microphone unit of the image recognition unit to and from the control unit, The unmanned airplane is automatically flown toward the object by the route control unit, And outputs sound to transmit bi-directional information.
According to the present invention as described above, the directional sound is automatically outputted to the target position along the set course, the directional sound is outputted toward the target, the image and sound of the target or the target surroundings can be acquired and can be confirmed in real time, It is possible to improve the accuracy of information transmission and to transmit real time information at a long distance.
Description
본 발명은 무인비행시스템에 관한 것으로, 더욱 상세하게는 원거리에 위치한 특정 대상으로 자동비행하여 영상과 음향을 획득하고, 특정 대상에게 음향으로 정보를 전달할 수 있게 하여 상황에 따라, 신속하게 대응할 수 있게 하는 자동항법 및 정보전달 가능한 무인비행시스템에 관한 것이다.
The present invention relates to an unmanned aerial vehicle system, and more particularly, to an unmanned aerial vehicle system capable of automatically acquiring images and sounds by automatically flying to a specific object located at a remote location, transmitting information to a specific object by sound, And more particularly, to an automatic navigation system and an information-delivering unmanned aerial vehicle system.
일반적으로, 인간이 근접하기 힘든 지역의 정보를 취득하기 위하여 무인 비행체, 무인 로봇 등을 이용하는 경우가 많아지고 있다.In general, unmanned aerial vehicles, unmanned robots, and the like are often used to acquire information on areas where human beings are difficult to approach.
일 실시 예로, 종래 공개특허 10-2013-0126300에서 개진된 바와 같이, 비행체를 이용하여 최적경로를 산출한 후, 이동하면 영상을 촬영하여 산불 여부를 감시하고 있다.In one embodiment, as described in the conventional patent document 10-2013-0126300, an optimal route is calculated using a flight vehicle, and then the image is photographed to monitor the presence of forest fire.
그러나 종래 산불감시시스템은 무인 비행체가 도착 후, 영상을 확인하여 색상 분포도를 비교함에 따라 산불 여부를 확인하고 있기 때문에, 신속하게 대응하지 못하는 문제점이 있다.However, the forest fire monitoring system in the prior art has a problem that the unmanned aerial vehicle can not respond quickly because it confirms whether the unmanned aerial vehicle is on fire after checking the images and comparing the color distribution.
여기서, 특정 대상이 사람인 경우, 그 사람의 위치를 파악하더라도 일정 시간이 경과된 후이기 때문에, 그 사람에게 정보를 전달하기 어려운 것이다.Here, in the case where the specific object is a person, even if the position of the person is grasped, since a certain time has elapsed, it is difficult to transmit the information to the person.
예를 들어, 사람들이 많은 대공원이나 놀이공원 등에서 미아가 발생할 경우, 미아를 찾기 위해, 종래의 방법을 사용하더라도 신속하게 찾을 수 없는 문제가 있는 것이다.For example, when a person is found in many grand open spaces or amusement parks, there is a problem that can not be quickly found even if a conventional method is used to find a child.
이에 따라, 특정 대상에 신속한 정보전달을 위하여 이동 시, 실시간 영상을 확인하여 신속하게 이동은 물론, 정확한 정보전달을 할 수 있는 기술에 대한 개발이 절실히 요구되고 있는 실정이다.
Accordingly, there is an urgent need to develop a technique for promptly transferring information, as well as promptly moving and checking real-time images, in order to transfer information quickly to a specific object.
이에 본 발명은 상기와 같은 문제점들을 해소하기 위해 안출된 것으로써, 무인비행기에 구비되어 입력된 항로를 따라, 무인비행기를 제어하는 항로제어부, 무선 네트워크를 이용하여 상기 항로제어부로 항로데이터를 전송하기 위한 관제부, 상기 무인비행기에 구비되어 주변 영상을 실시간으로 획득하여 특정 대상을 인식하기 위한 영상인식부, 상기 무인비행기에 구비되어 음향을 출력하기 위한 음향출력부, 상기 무인비행기에 구비되어 외부 음향을 실시간 획득하기 위한 마이크부, 및 상기 영상인식부의 영상데이터, 마이크부의 음향데이터를 상기 관제부와 송수신하기 위한 통신부,를 포함하고, 상기 무인비행기는 항로제어부에 의해 대상을 향하여 자동비행한 후, 실시간 영상과 음향을 획득하고, 음향을 출력하여 양방향 정보전달 가능한 자동항법 및 정보전달 가능한 무인비행시스템을 제공하는 것이 목적이다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and an object of the present invention is to provide a route control apparatus and a route control method for an unmanned airplane, An image recognition unit for acquiring a surrounding image in real time in the unmanned airplane and recognizing a specific object, an acoustic output unit for outputting sound in the unmanned airplane, And a communication unit for transmitting and receiving the image data of the image recognition unit and the sound data of the microphone unit to and from the control unit. The unmanned airplane automatically flies toward the object by the route control unit, Real-time video and sound are acquired, and audio is output to transmit bidirectional information. And it aims to provide a communication system capable unmanned flight.
상기 목적을 이루기 위한 본 발명은, 동력을 갖고, 자체 이동이 가능한 무인비행기, 상기 무인비행기에 구비되어 입력된 항로를 따라, 무인비행기를 제어하는 항로제어부, 무선 네트워크를 이용하여 상기 항로제어부로 항로데이터를 전송하기 위한 관제부, 상기 무인비행기에 구비되어 주변 영상을 실시간으로 획득하여 특정 대상을 인식하기 위한 영상인식부, 상기 무인비행기에 구비되어 음향을 출력하기 위한 음향출력부, 상기 무인비행기에 구비되어 외부 음향을 실시간 획득하기 위한 마이크부, 및 상기 영상인식부의 영상데이터, 마이크부의 음향데이터를 상기 관제부와 송수신하기 위한 통신부,를 포함하고, 상기 무인비행기는 항로제어부에 의해 대상을 향하여 자동비행한 후, 영상과 음향을 획득하고, 음향을 출력하여 양방향 정보전달 가능하다.According to another aspect of the present invention, there is provided a navigation system including a unmanned airplane having a power and capable of moving by itself, a navigation controller for controlling the unmanned airplane along an input route provided in the unmanned airplane, A controller for transmitting data, an image recognition unit provided in the unmanned airplane to acquire a peripheral image in real time to recognize a specific object, an acoustic output unit provided in the unmanned airplane for outputting sound, And a communication unit for transmitting and receiving the sound data of the image data and the microphone unit of the image recognition unit to and from the control unit, wherein the unmanned airplane is automatically controlled by the navigation control unit After flight, acquire image and sound, and output sound to enable bi-directional information transmission. .
바람직하게, 상기 관제부는, 대상에서 발생되는 신호나 좌표에 의해 항로를 설정한다.Preferably, the control unit sets the route according to a signal or coordinates generated in the object.
그리고 상기 관제부와 통신부에서 사용되는 무선네트워크는 GPS와 LTE망 중 어느 하나 이상이다.The wireless network used by the control unit and the communication unit is at least one of a GPS and an LTE network.
또한, 상기 영상인식부는, 영상을 촬영하기 위한 영상카메라, 및 상기 영상카메라에 의해 획득된 영상에서 특정 대상을 판별하기 위한 영상판별부,를 포함한다.The image recognizing unit may include an image camera for capturing an image, and an image discriminating unit for discriminating a specific object from the image acquired by the image camera.
그리고 상기 무인비행기에 구비되어 무인비행기의 위치를 실시간 확인하기 위한 제1위치확인부, 상기 영상인식부에서 인식된 특정 대상의 위치를 확인하기 위한 제2위치확인부, 및 상기 제1위치확인부와 제2위치확인부를 비교하여 새로운 항로데이터를 생성 후, 상기 관제부로 전송하는 항로조정부,를 더 포함하고, 상기 영상인식부에서 특정 대상물의 위치를 확인할 경우, 상기 항로조정부에서 항로데이터를 실시간 생성하여 항로를 조정한다.A first position identifying unit for identifying the position of the unmanned airplane in real time on the unmanned airplane, a second position identifying unit for identifying the position of the specific object recognized by the image recognizing unit, Further comprising a navigation unit configured to compare the second location data with the second location data to generate new route data and transmit the new data to the control unit. When the location of the specific object is identified by the image recognition unit, To adjust the route.
또한, 레이저를 이용하여 거리를 측정하기 위한 거리측정부;가 무인비행기에 더 포함되고, 상기 항로조정부는, 제자리 비행을 하는 상기 무인비행기의 고도를 아는 상태에서, 상기 거리측정부를 통해 측정된 특정 대상물과 직선거리 및 수평선을 기준으로 레이저 조사각도를 이용하여 특정 대상물과의 수평방향 직선거리를 연산하여 새로운 항로데이터를 생성한다.The distance measuring unit may further include a distance measuring unit for measuring a distance using a laser, and the route adjusting unit may further include a distance measuring unit for measuring a distance measured by the distance measuring unit in a state of knowing the altitude of the unmanned airplane A new route data is generated by calculating a horizontal straight line distance from a specific object using a laser irradiation angle based on an object, a straight line distance, and a horizontal line.
그리고 상기 음향출력부는 지향성 음향을 출력하는 것으로, 상기 관제부에서 전송되는 음향을 특정 대상을 향하여 출력한다.The sound output unit outputs a directional sound, and outputs the sound transmitted from the control unit toward a specific object.
또한, 상기 음향출력부는, 일반 음향을 출력하는 제1음향출력부, 및 지향성 음향을 출력하는 제2음향출력부,를 포함하고, 항로를 따라 상기 무인비행기가 목적 위치로 이동 후, 상기 영상카메라에 의해 주변 영상을 실시간 촬영하는 상태에서, 상기 제1음향출력부를 통해 특정 대상의 이름을 출력하여 반응을 보인 반응 대상들의 얼굴을 획득하여 상기 영상판별부에서 특정 대상 여부를 판별한다.The sound output unit may include a first sound output unit for outputting a general sound and a second sound output unit for outputting a directional sound, and after the unmanned airplane moves to a destination position along the route, A name of a specific object is output through the first sound output unit to obtain a face of a responding object, and the image discriminating unit discriminates a specific object.
그리고 상기 무인비행기에 적외선센서,가 더 포함되고, 상기 적외선센서에 의해 장애물을 판별하여 판별된 장애물의 형상데이터를 상기 항로조정부로 전송하여 해당 장애물을 회피하기 위한 새로운 항로데이터를 생성한다.
An infrared sensor is further included in the unmanned airplane, and the obstacle is discriminated by the infrared sensor, and shape data of the obstacle discriminated by the infrared sensor is transmitted to the route adjusting unit to generate new route data for avoiding the obstacle.
상기한 바와 같이, 본 발명에 의한 자동항법 및 정보전달 가능한 무인비행시스템에 의하면, 설정된 항로를 따라 자동으로 대상의 위치로 비행하여 대상을 향하여 지향성 음향을 출력하고, 대상 또는 대상 주변의 영상과 음향을 획득하고 실시간 확인할 수 있어, 대화를 통해 정보전달이 가능함에 따라, 정보전달의 정확도를 향상시킴은 물론, 원거리에서도 실시간 정보전달 가능하게 하는 매우 유용하고 효과적인 발명이다.
As described above, according to the automatic navigation system and the information-transferable unmanned airship flight system according to the present invention, a directional sound is automatically output toward a target in accordance with a set route and a directional sound is output toward the target, And it is a very useful and effective invention that not only improves the accuracy of information transmission but also enables real-time information transmission from a remote place as information can be transmitted through conversation.
도 1은 본 발명에 따른 자동항법 및 정보전달 가능한 무인비행시스템의 다이아그램을 도시한 도면이고,
도 2는 본 발명에 따른 자동항법 및 정보전달 가능한 무인비행시스템을 계략적으로 도시한 도면이며,
도 3은 본 발명에 따른 영상인식부를 도시한 도면이고,
도 4는 본 발명에 따른 자동항법 및 정보전달 가능한 무인비행시스템에 항로조정부가 더 포함된 상태를 도시한 도면이며,
도 5는 본 발명의 항로조정부에 의한 비행상태를 도시한 도면이고,
도 6은 본 발명의 다른 실시 예의 음향출력부에 의한 비행상태를 도시한 도면이며,
도 7은 본 발명의 자동항법 및 정보전달 가능한 무인비행시스템에 거리측정부가 더 포함된 상태를 도시한 도면이고,
도 8은 본 발명의 자동항법 및 정보전달 가능한 무인비행시스템에 적외선센서가 더 포함된 상태를 도시한 도면이다.FIG. 1 is a diagram illustrating an automatic navigation system and an information-transferable unmanned aerial vehicle system according to the present invention,
FIG. 2 is a view schematically showing an automatic navigation system and an information-transferable unmanned aerial vehicle according to the present invention,
3 is a diagram illustrating an image recognition unit according to the present invention,
4 is a view showing a state in which an airway control unit is further included in the automatic navigation system and the information-transferable unmanned aerial vehicle according to the present invention,
FIG. 5 is a diagram showing a flight state by the flight control unit of the present invention,
6 is a diagram showing a flight state by an acoustic output unit according to another embodiment of the present invention,
7 is a view showing a state in which a distance measuring unit is further included in the automatic navigation system and the information transferable unmanned aerial vehicle of the present invention,
FIG. 8 is a view illustrating a state in which an infrared sensor is further included in the automatic navigation system and the information-transferable unmanned aerial vehicle of the present invention.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description, together with the accompanying drawings, is intended to illustrate exemplary embodiments of the invention and is not intended to represent the only embodiments in which the invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, those skilled in the art will appreciate that the present invention may be practiced without these specific details.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.In some instances, well-known structures and devices may be omitted or may be shown in block diagram form, centering on the core functionality of each structure and device, to avoid obscuring the concepts of the present invention.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when an element is referred to as "comprising" or " including ", it is meant that the element does not exclude other elements, do. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have. Also, the terms " a or ", "one "," the ", and the like are synonyms in the context of describing the invention (particularly in the context of the following claims) May be used in a sense including both singular and plural, unless the context clearly dictates otherwise.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예에 대해 살펴보기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명에 따른 자동항법 및 정보전달 가능한 무인비행시스템의 다이아그램을 도시한 도면이고, 도 2는 본 발명에 따른 자동항법 및 정보전달 가능한 무인비행시스템을 계략적으로 도시한 도면이며, 도 3은 본 발명에 따른 영상인식부를 도시한 도면이고, 도 4는 본 발명에 따른 자동항법 및 정보전달 가능한 무인비행시스템에 항로조정부가 더 포함된 상태를 도시한 도면이며, 도 5는 본 발명의 항로조정부에 의한 비행상태를 도시한 도면이고, 도 6은 본 발명의 다른 실시 예의 음향출력부에 의한 비행상태를 도시한 도면이며, 도 7은 본 발명의 자동항법 및 정보전달 가능한 무인비행시스템에 거리측정부가 더 포함된 상태를 도시한 도면이고, 도 8은 본 발명의 자동항법 및 정보전달 가능한 무인비행시스템에 적외선센서가 더 포함된 상태를 도시한 도면이다.FIG. 1 is a diagram illustrating a diagram of an automatic navigation system and an information-transferable unmanned aerial flight system according to the present invention. FIG. 2 is a schematic view of an automatic navigation system and an information- FIG. 3 is a view showing an image recognition unit according to the present invention, FIG. 4 is a view showing a state in which an airway control unit is further included in an automatic navigation system and an information-transferable unmanned aerial vehicle according to the present invention, FIG. 6 is a view showing a state of flight by the sound output unit of another embodiment of the present invention, and FIG. 7 is a view showing the state of flight of the automatic navigation and information- FIG. 8 is a view showing a state in which the infrared sensor is further included in the automatic navigation system and the information-transferable unmanned aerial vehicle according to the present invention. Diagram.
도면에서 도시한 바와 같이, 자동항법 및 정보전달 가능한 무인비행시스템은 무인비행기(100)와 항로제어부(200), 관제부(300), 영상인식부(400), 음향출력부(500), 마이크부(600) 및 통신부(700)로 구성됩니다.As shown in the figure, an automatic navigation system and an information transmitting capable unmanned airplane (UAV) system includes a
무인비행기(100)는 동력을 갖고, 자체 이동이 가능한 것으로, 이착륙과 조향 등이 가능하게 구비됨이 당연하다.The unmanned airplane (100) has power and is self-moving, and it is natural that the unmanned airplane (100) is capable of taking off and landing and steering.
일 실시 예로, 다수의 프로펠러를 갖는 드론이 사용됨이 바람직한 것으로, 일정 고도에서 위치 및 자세를 유지할 수도 있다.In one embodiment, a dron with a plurality of propellers is preferably used to maintain position and posture at a certain elevation.
그리고 항로제어부(200)는 무인비행기(100)에 구비되어 입력된 항로를 따라, 무인비행기(100)를 제어하게 된다.The
관제부(300)는 무선네트워크를 이용하여 항로제어부(200)로 항로데이터를 전송하기 위해 구비되며, 무인비행기(100)를 원거리에서 제어하게 된다.The
이러한 관제부(300)는 PC나 스마트폰 등이 사용될 수 있다.The
또한 영상인식부(400)는 무인비행기(100)에 구비되어 주변 영상을 실시간으로 획득하여 특정 대상(A)을 인식하기 위해 구비된다. 바람직하게는 상기 특정 대상은 사람이다.The
음향출력부(500)는 무인비행기(100)에 구비되어 음향을 출력하기 위해 구비되고, 마이크부(600)는 무인비행기(100)에 구비되어 외부 음향을 실시간 획득하기 위해 구비된다.The
그리고 통신부(700)는 영상인식부(400)의 영상데이터, 마이크부(600)의 음향데이터를 관제부(300)와 송수신하기 위해 구비된다.The
이러한 무인비행기(100)는 항로제어부(200)에 의해 특정 대상(A)을 향하여 자동비행한 후, 영상과 음향을 획득하고, 음향을 출력하여 양방향 정보전달이 가능하다.The
여기서, 영상인식부(400)는 특정 대상(A)에 대한 영상이나 이미지 등의 정보가 미리 저장되어 있음이 당연하며, 필요에 따라, 관제부(300)에서 데이터를 전송할 수도 있다.Here, the
도 3에서 도시한 바와 같이, 영상인식부(400)는 영상카메라(410)와 영상판별부(420)로 구성된다.As shown in FIG. 3, the
영상카메라(410)는 영상을 촬영하기 위해 무인비행기(100)에 구비되고, 영상판별부(420)는 영상카메라(410)에 의해 획득된 영상에서 특정 대상(A)을 판별하기 위해 구비된다.The
여기서, 영상판별부(420)는 무인비행기(100)에 구비될 수도 있고, 무인비행기(100)와는 별도로 구비될 수도 있다.Here, the
다시 말해, 영상판별부(420)는 관제부(300) 주변에 구비될 수 있다.In other words, the
이러한 영상판별부(420)는 실시간 영상을 확인하는 관측자가 특정 대상(A)을 확인하거나 데이터베이스(미 도시)에 저장된 특정 대상(A)의 데이터를 이용하여 확인할 수도 있다.The
그리고 관제부(300)는 특정 대상(A)에서 발생되는 신호나 좌표에 의해 항로를 설정한다.Then, the
다시 말해, 신호를 추적하는 경우, 특정 대상(A)이나 특정 대상(A) 주변에 신호를 발생할 수 있는 장치를 구비하여 발생한 신호를 따라 항로를 설정하거나 좌표로 항로를 설정하는 것이다.In other words, when a signal is tracked, a device capable of generating a signal around a specific object A or a specific object A is provided, and a path is set or a path is set according to a signal generated.
그리고 본 발명의 일 실시예에 따른 음향출력부(500)는 지향성 음향을 출력하는 것으로, 관제부(300)에서 전송되는 음향을 특정 대상(A)을 향하여 출력하게 된다.In addition, the
다시 말해, 특정 대상(A)을 향하여 설정된 항로를 따라 무인비행기(100)가 이동된 후, 음향출력부(500)를 통해 지향성 음향을 특정 대상(A)으로 출력하는 것이다.In other words, after the
또한 마이크부(600)를 통해 특정 대상(A)이나 그 주변에서 발생된 음향을 획득하고, 획득된 음향을 통신부(700)를 통해 관제부(300)로 전송됨에 따라, 특정 대상(A)과 실시간 대화도 가능하게 된다.The sound generated from the specific object A or its surroundings is acquired through the
이러한 관제부(300)와 통신부(700)에서 사용되는 무선네트워크는 GPS와 LTE망 중 어느 하나 이상을 통해 통신이 이루어지는 것으로, 무선통신이 가능한 다른 시스템이라면 사용 가능함이 당연하다.The wireless network used in the
그리고 도 4에서 도시한 바와 같이, 자동항법 및 정보전달 가능한 무인비행시스템에 제1위치확인부(800)와 제2위치확인부(900) 및 항로조정부(1000)가 더 포함된다.As shown in FIG. 4, the
제1위치확인부(800)은 무인비행기(100)에 구비되어 무인비행기(100)의 위치를 실시간 확인하기 위한 것으로, 실제 무인비행기(100)의 좌표와 고도를 확인하게 된다.The first
물론, 무인비행기(100)의 위치는 관제부(300)에서 실시간 확인할 수 있지만, 통신장애나 오작동 등의 장애요인이 발생될 경우, 무인비행기(100)의 실시간 위치를 정확하게 파악하기 위해 제1위치확인부(800)가 구비된다.Of course, the position of the
또한 제2위치확인부(900)는 영상인식부(400)에서 인식된 특정 대상(A)의 위치를 확인하기 위해 구비된다.The second
다시 말해, 제2위치확인부(900)는 실시간 이동할 수 있는 특정 대상(A)의 위치를 획득한 영상데이터를 통해 확인하여 특정 대상(A)의 실시간 위치를 확인하게 된다.In other words, the second
항로조정부(1000)는 제1위치확인부(800)와 제2위치확인부(900)를 비교하여 새로운 항로데이터를 생성 후, 관제부(300)로 전송함에 따라, 항로가 실시간 수정된다.The
작동상태를 다시 살펴보면, 도 5에서 도시한 바와 같이, 무인비행기(100)가 항로를 따라 이동하여 특정 대상(A)에 근접한 상태에서, 영상인식부(400)를 통해 특정 대상(A)의 위치를 확인할 경우, 항로조정부(1000)에서 항로데이터를 실시간 생성하여 항로를 조정하게 된다.5, when the
이에 따라, 특정 대상(A)에 정확하게 접근할 수 있어 정보전달 및 수집을 더욱 명확하게 할 수 있게 된다.Accordingly, the specific object A can be accurately accessed, and information transmission and collection can be made clearer.
이와 같은, 자동항법 및 정보전달 가능한 무인비행시스템은 특정 대상(A)을 찾아 정보를 전달하기 위해 사용된다.Such an automatic navigation and informative unmanned aerial vehicle system is used to locate and deliver information about a specific object (A).
일 실시 예로, 사람이 많은 대공원이나 놀이공원 등에서 미아의 위치를 확인하여 신속하게 대응할 수 있다.In one embodiment, the location of a child can be identified in many large open spaces, amusement parks, and the like, and quickly responded.
또한 아이들의 위치를 원거리에서 확인 및 정보를 전달할 수 있으며, 음향출력부(500)와 마이크부(600)를 통해 직접 대화도 가능하다.Also, it is possible to confirm the position of the children at a long distance and to transmit information, and to directly communicate with the
이러한 자동항법 및 정보전달 가능한 무인비행시스템을 이용하기 위하여 서버에 가입하여 정보를 등록하고, 개별 관제부(300)인 PC나 스마트폰 역시, 설정하여 용이하게 사용할 수 있다.In order to use the automatic navigation system and the information-transferable unmanned aerial flight system, information is registered by joining the server, and the
한편, 도 6에서 도시한 바와 같이, 다른 실시 예의 음향출력부(500')는 제1음향출력부(510')와 제2음향출력부(520')로 구성된다.Meanwhile, as shown in FIG. 6, the sound output unit 500 'of another embodiment includes a first sound output unit 510' and a second sound output unit 520 '.
바람직하게는 제1음향출력부(510')는 일반 음향을 출력하고, 제2음향출력부(520')는 지향성 음향을 출력하게 된다.Preferably, the first sound output unit 510 'outputs a general sound and the second sound output unit 520' outputs a directional sound.
이러한 음향출력부(500')를 이용하여 특정 대상(A)으로 이동하는 방법을 살펴보면, 먼저, 항로를 따라 무인비행기(100)가 목적 위치로 이동 후, 영상카메라(410)에 의해 주변 영상을 실시간 촬영하게 된다. A method of moving to the specific object A using the sound output unit 500 'will be described. First, the
본 발명의 실시예에서 상기 영상카메라에 감지된 사람이 한 명일 경우 제1음향출력부(510') 만을 출력하고, 여러 명일 경우에는 각 대상에게 제2음향출력부(520')를 통해 순차적으로 지향성 음향을 출력하도록 하는 것이 바람직하다. 이때, 송출된 음향(예로, 이름호명)에 반응(고개를 돌리는 등)을 보이는 대상이 찾고 있는 대상일 가능성이 높으므로 이 대상을 1차 타겟으로 하여 대상의 얼굴정보를 영상카메라(410)로 획득하여 영상판별부(420)에서 특정 대상(A) 여부를 판별한다. 이때, 얼굴정보의 획득 및 영상판별은 공지의 이미지 프로세싱 기술을 통해 달성될 수 있으므로 이에 대한 상세한 설명은 생략하기로 한다.In the embodiment of the present invention, only the first sound output unit 510 'is output when the number of persons sensed by the image camera is one, and when a plurality of people are detected, the second sound output unit 520' It is preferable to output a directional sound. At this time, since it is highly likely that an object showing a response (such as turning a head) to an emitted sound (e.g., a name call) is the target to be searched for, And determines whether the specific object A is present or not in the
그리고 도 7에서 도시한 바와 같이, 레이저를 이용하여 거리를 측정하기 위한 거리측정부(1100)가 무인비행기(100)에 더 포함될 수 있다.As shown in FIG. 7, the
항로조정부(1000)는 제자리비행을 하는 무인비행기(100)의 고도(B)를 아는 상태에서, 거리측정부(1100)를 통해 측정된 특정 대상물(A)과 직선거리(L)를 확인하게 된다.The
또한 항로조정부(1000)는 거리측정부(1100)를 통해 수평선을 기준으로 레이저 조사각도(C)를 이용하여 특정 대상(A)과의 수평방향 직선거리(D)를 연산하여 새로운 항로데이터를 생성한다.The
그리고 도 8에서 도시한 바와 같이, 무인비행기(100)에 적외선센서(1200)가 더 포함된다.As shown in FIG. 8, the
이러한 적외선센서(1200)에 의해 장애물(E)을 판별하여 판별된 장애물(E)의 형상데이터를 항로조정부(1000)로 전송하여 해당 장애물(E)을 회피하기 위한 새로운 항로데이터를 생성함에 따라, 회피비행이 가능하게 된다.
The
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 예를 들어 클라이언트 에이전트와 보안 에이전트는 사용자 단말기에 설치되어질 수도 있고, 사용자 단말기와는 별도의 관리용 단말기내에 탑재하여 구동하는 것도 본 발명의 권리범위에 속하며, 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
As described above, the client agent and the security agent can be installed in the user terminal, and the client agent and the security agent can be mounted and operated in the management terminal separate from the user terminal. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined in the appended claims.
100 : 무인비행기 200 : 항로제어부
300 : 관제부 400 : 영상인식부
500 : 음향출력부 600 : 마이크부
700 : 통신부 800 : 제1위치확인부
900 : 제2위치확인부 1000 : 항로조정부
1100 : 거리측정부 1200 : 적외선센서100: unmanned airplane 200: route control unit
300: control unit 400: image recognition unit
500: Acoustic output unit 600: Microphone unit
700: communication unit 800: first position check unit
900: second position check unit 1000: route control unit
1100: Distance measuring part 1200: Infrared sensor
Claims (9)
상기 무인비행기에 구비되어 입력된 항로를 따라, 무인비행기를 제어하는 항로제어부;
무선 네트워크를 이용하여 상기 항로제어부로 항로데이터를 전송하기 위한 관제부;
상기 무인비행기에 구비되어 주변 영상을 실시간으로 획득하여 특정 대상을 인식하기 위한 영상인식부;
상기 무인비행기에 구비되어 음향을 출력하기 위한 음향출력부;
상기 무인비행기에 구비되어 외부 음향을 실시간 획득하기 위한 마이크부; 및
상기 영상인식부의 영상데이터, 마이크부의 음향데이터를 상기 관제부와 송수신하기 위한 통신부;를 포함하고,
상기 무인비행기는 항로제어부에 의해 대상을 향하여 자동비행한 후, 영상과 음향을 획득하고, 음향을 출력하여 양방향 정보전달 가능하며,
상기 무인비행기에 구비되어 무인비행기의 위치를 실시간 확인하기 위한 제1위치확인부;
상기 영상인식부에서 인식된 특정 대상의 위치를 확인하기 위한 제2위치확인부; 및
상기 제1위치확인부와 제2위치확인부를 비교하여 새로운 항로데이터를 생성 후, 상기 관제부로 전송하는 항로조정부;를 더 포함하고,
상기 영상인식부에서 특정 대상의 위치를 확인할 경우, 상기 항로조정부에서 항로데이터를 실시간 생성하여 항로를 조정하며,
레이저를 이용하여 거리를 측정하기 위한 거리측정부;가 무인비행기에 더 포함되고,
상기 항로조정부는,
제자리비행을 하는 상기 무인비행기의 고도를 아는 상태에서, 상기 거리측정부를 통해 측정된 특정 대상과 직선거리 및 수평선을 기준으로 레이저 조사각도를 이용하여 특정 대상과의 수평방향 직선거리를 연산하여 새로운 항로데이터를 생성하며,
상기 무인비행기에 적외선센서;가 더 포함되고,
상기 적외선센서에 의해 장애물을 판별하여 판별된 장애물의 형상데이터를 상기 항로조정부로 전송하여 해당 장애물을 회피하기 위한 새로운 항로데이터를 생성함에 따라, 회피비행이 가능한 것을 특징으로 하는 자동항법 및 정보전달 가능한 무인비행시스템.A motorized, self-propelled drone;
A route control unit for controlling the unmanned airplane along the route entered in the unmanned airplane;
A control unit for transmitting route data to the route control unit using a wireless network;
An image recognition unit provided in the unmanned airplane to acquire a peripheral image in real time to recognize a specific object;
An acoustic output unit provided in the unmanned airplane and outputting sound;
A microphone unit provided in the unmanned airplane and acquiring external sound in real time; And
And a communication unit for transmitting and receiving the image data of the image recognition unit and the sound data of the microphone unit to and from the control unit,
The unmanned airplane is capable of acquiring images and sound after automatically flying toward the object by the route control unit, outputting sounds and transmitting bidirectional information,
A first position checking unit provided in the unmanned airplane to confirm the position of the unmanned airplane in real time;
A second position identifying unit for identifying a position of a specific object recognized by the image recognizing unit; And
Further comprising: a route adjusting unit for comparing the first location determining unit and the second location determining unit to generate new route data and transmitting the new route data to the control unit,
When the position of a specific object is checked in the image recognition unit, the route adjusting unit adjusts the route by generating route data in real time,
A distance measuring unit for measuring a distance using a laser is further included in the unmanned airplane,
The route adjusting unit,
Calculating a horizontal straight line distance between the specific object and the specific object using the laser irradiation angle based on the straight line distance and the horizontal line measured by the distance measuring unit in a state of knowing the altitude of the unmanned airplane flying in place, Data,
Further comprising an infrared sensor on the unmanned airplane,
And an avoidance flight is possible by generating new route data for avoiding the obstacle by transmitting the shape data of the obstacle discriminated by discriminating the obstacle by the infrared sensor to the route adjusting unit, Unmanned flight system.
대상에서 발생되는 신호나 좌표에 의해 항로를 설정하는 것을 특징으로 하는 자동항법 및 정보전달 가능한 무인비행시스템.
The apparatus according to claim 1,
Wherein the route is set according to signals and coordinates generated in the object.
상기 관제부와 통신부에서 사용되는 무선네트워크는 GPS와 LTE망 중 어느 하나 이상인 것을 특징으로 하는 자동항법 및 정보전달 가능한 무인비행시스템.
The method according to claim 1,
Wherein the wireless network used by the control unit and the communication unit is at least one of a GPS and an LTE network.
영상을 촬영하기 위한 영상카메라; 및
상기 영상카메라에 의해 획득된 영상에서 특정 대상을 판별하기 위한 영상판별부;를 포함하는 자동항법 및 정보전달 가능한 무인비행시스템.
2. The image processing apparatus according to claim 1,
A video camera for capturing an image; And
And an image discrimination unit for discriminating a specific object from the image acquired by the image camera.
상기 음향출력부는 지향성 음향을 출력하는 것으로, 상기 관제부에서 전송되는 음향을 특정 대상을 향하여 출력하는 것을 특징으로 하는 자동항법 및 정보전달 가능한 무인비행시스템.The method according to claim 1,
Wherein the sound output unit outputs a directional sound and outputs the sound transmitted from the control unit toward a specific object.
상기 음향출력부는,
일반 음향을 출력하는 제1음향출력부; 및
지향성 음향을 출력하는 제2음향출력부;를 포함하고,
항로를 따라 상기 무인비행기가 목적 위치로 이동 후, 상기 영상카메라에 의해 주변 영상을 실시간 촬영하는 상태에서, 상기 제1음향출력부를 통해 특정 대상의 이름을 출력하여 반응을 보인 반응 대상들의 얼굴정보를 획득하여 상기 영상판별부에서 특정 대상을 판별하는 것을 특징으로 하는 자동항법 및 정보전달 가능한 무인비행시스템.5. The method of claim 4,
The sound output unit includes:
A first sound output unit for outputting general sound; And
And a second sound output unit for outputting a directional sound,
The method according to claim 1, further comprising the step of, after moving the unmanned airplane to a target position along the route, capturing a surrounding image in real time by the image camera, outputting a name of a specific object through the first sound output unit, And the image discrimination unit discriminates a specific object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150132730A KR101779255B1 (en) | 2015-09-19 | 2015-09-19 | Automatic navigation and communication possible drones operating system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150132730A KR101779255B1 (en) | 2015-09-19 | 2015-09-19 | Automatic navigation and communication possible drones operating system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170034461A KR20170034461A (en) | 2017-03-29 |
KR101779255B1 true KR101779255B1 (en) | 2017-09-15 |
Family
ID=58497990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150132730A Active KR101779255B1 (en) | 2015-09-19 | 2015-09-19 | Automatic navigation and communication possible drones operating system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101779255B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190293765A1 (en) * | 2017-08-02 | 2019-09-26 | SOS Lab co., Ltd | Multi-channel lidar sensor module |
KR20190142079A (en) * | 2018-06-15 | 2019-12-26 | 주식회사 케이티 | Mobile Base Station and System for Providing Services Using Mobile Base Station |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102288079B1 (en) * | 2020-11-30 | 2021-08-11 | 한국스마트드론 주식회사 | Monitoring system using unmanned aerial vehicle and methid thereof |
CN119341274B (en) * | 2024-12-19 | 2025-03-28 | 上海狄兹精密机械有限公司 | Integrated miniature electric cylinder based on double closed loop detection |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101535401B1 (en) * | 2015-04-01 | 2015-07-08 | 오인선 | Drone type life ring dropping device |
-
2015
- 2015-09-19 KR KR1020150132730A patent/KR101779255B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101535401B1 (en) * | 2015-04-01 | 2015-07-08 | 오인선 | Drone type life ring dropping device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190293765A1 (en) * | 2017-08-02 | 2019-09-26 | SOS Lab co., Ltd | Multi-channel lidar sensor module |
US11579254B2 (en) * | 2017-08-02 | 2023-02-14 | SOS Lab co., Ltd | Multi-channel lidar sensor module |
KR20190142079A (en) * | 2018-06-15 | 2019-12-26 | 주식회사 케이티 | Mobile Base Station and System for Providing Services Using Mobile Base Station |
KR102503849B1 (en) * | 2018-06-15 | 2023-02-23 | 주식회사 케이티 | Mobile Base Station and System for Providing Services Using Mobile Base Station |
Also Published As
Publication number | Publication date |
---|---|
KR20170034461A (en) | 2017-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11040774B2 (en) | Drone authentication system | |
US11250710B2 (en) | Drone flight operations | |
EP3619695B1 (en) | System and method for threat monitoring, detection, and response | |
US10546505B2 (en) | Systems and methods for providing emergency alerts at emergency landing areas of unmanned aerial vehicles | |
US8983682B1 (en) | Unlocking mobile-device and/or unmanned aerial vehicle capability in an emergency situation | |
JP6437675B2 (en) | "Method for selecting a pilot for controlling an unmanned aerial vehicle (UA), apparatus for selecting a pilot for controlling an unmanned aerial vehicle (UA), selection of a pilot for controlling an unmanned aerial vehicle (UA) And method for facilitating unmanned aerial vehicles (UA) | |
US9849979B2 (en) | Providing services using unmanned aerial vehicles | |
CN108334109B (en) | Voice control device | |
JP6393918B2 (en) | Audio transmission system | |
US20150094883A1 (en) | Multi-part Navigation Process by an Unmanned Aerial Vehicle for Navigation | |
US20200150662A1 (en) | Flying body, living body detection system, living body detection method, program and recording medium | |
KR101779255B1 (en) | Automatic navigation and communication possible drones operating system | |
CN106444843A (en) | Unmanned aerial vehicle relative azimuth control method and device | |
KR102333350B1 (en) | Vertical takeoff and landing system of UAV and its operation method | |
KR101682797B1 (en) | Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof | |
US20210323669A1 (en) | Method for inducing an autonomous behavior into an unmanned vehicle, and a communication unit for use in such a method | |
JP2019018664A (en) | Imaging control system | |
KR20180058331A (en) | Security apparatus and method using drone | |
KR102468933B1 (en) | Successive building information management system based on drone | |
KR20190097609A (en) | Drone for overpowering the criminals | |
KR20240126735A (en) | Method of viewer system using ar glass of drone image | |
WO2024094378A1 (en) | - a system for real-time remote viewing of a site | |
KR102348778B1 (en) | Method for controlling steering angle of drone and apparatus thererfor | |
KR102111992B1 (en) | Real-time geographic information providing method using unmanned aerial vehicle | |
CN114111783A (en) | Urban rescue intelligent planning system and using method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150919 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20161206 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20170807 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20170829 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20170911 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20170911 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20220901 Start annual number: 6 End annual number: 6 |