[go: up one dir, main page]

KR101882483B1 - Apparatus and method for detecting obstacle by unmanned surface vessel - Google Patents

Apparatus and method for detecting obstacle by unmanned surface vessel Download PDF

Info

Publication number
KR101882483B1
KR101882483B1 KR1020180008905A KR20180008905A KR101882483B1 KR 101882483 B1 KR101882483 B1 KR 101882483B1 KR 1020180008905 A KR1020180008905 A KR 1020180008905A KR 20180008905 A KR20180008905 A KR 20180008905A KR 101882483 B1 KR101882483 B1 KR 101882483B1
Authority
KR
South Korea
Prior art keywords
obstacle
data
radar
radius range
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180008905A
Other languages
Korean (ko)
Inventor
유재관
이순걸
원인식
Original Assignee
엘아이지넥스원 주식회사
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사, 경희대학교 산학협력단 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020180008905A priority Critical patent/KR101882483B1/en
Application granted granted Critical
Publication of KR101882483B1 publication Critical patent/KR101882483B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/9307
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B35/00Vessels or similar floating structures specially adapted for specific purposes and not otherwise provided for
    • B63B2035/006Unmanned surface vessels, e.g. remotely controlled
    • B63B2035/007Unmanned surface vessels, e.g. remotely controlled autonomously operating

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an apparatus and a method for detecting an obstacle of an unmanned surface vessel. More specifically, the present invention provides an apparatus and a method for detecting an obstacle of an unmanned surface vessel which can detect an obstacle by mutually supplementing a short range detection limit of a radar sensor detecting an obstacle in an unmanned surface vessel, and computation amount and data processing time limits of a lidar sensor.

Description

무인 수상정의 장애물 탐지 장치 및 방법{Apparatus and method for detecting obstacle by unmanned surface vessel}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an apparatus and method for detecting an obstacle,

본 발명은 무인 수상정의 장애물 탐지 장치 및 방법에 관한 것으로서, 더욱 상세하게는 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와, 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하며 장애물을 탐지할 수 있는 무인 수상정의 장애물 탐지 장치 및 방법에 관한 것이다.More particularly, the present invention relates to an apparatus and method for detecting an obstacle in an unmanned aerial vehicle, and more particularly, to an apparatus and method for detecting obstacles in an unmanned aerial vehicle including an obstacle detection limit of a radar sensor, And more particularly, to an apparatus and method for detecting an unmanned waterborne obstacle.

최근 해양 로봇은 연구가 거듭됨에 따라 해양 탐사나 특정 임무를 수행하기 위해 목적에 따라 여러 가지 형태로 제작되어 활용되고 있다. 해양 로봇 중에서도 무인 수상 환경에서 Unmanned surface vehicle(USV)는 군사, 환경보호, 탐사 등과 같은 여러 가지 목적으로 연구 및 개발이 되고 있다. Recently, marine robots have been used in various forms according to their purpose in order to carry out marine exploration and specific missions according to the research. Among marine robots, unmanned surface vehicle (USV) has been studied and developed for various purposes such as military, environmental protection,

각 목적에 따른 임무를 수행하기 위해서는 공통적으로 자율항법을 위해서 자기 위치인식부터 경로계획, 경로추종, 장애물 회피와 같은 요소들이 필요하다. In order to carry out the mission according to each purpose, common factors such as self-location, path planning, path follow-up, and obstacle avoidance are required for autonomous navigation.

이 중에서 장애물 탐지는 안전한 자율항법을 위해 중요한 부분이다. 장애물을 인식하는 간단한 알고리즘부터, 아주 정교한 알고리즘을 탑재하여 장애물을 회피하는 방법까지 다양한 연구들이 이루어지고 있다.Of these, obstacle detection is an important part for safe autonomous navigation. Various researches have been conducted from simple algorithms to recognize obstacles to avoid obstacles with very sophisticated algorithms.

한국 등록 특허 제10-1514407호 (등록)Korean Registered Patent No. 10-1514407 (registered)

본 발명은 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하고, 레이더 센서와 라이더 센서로부터 획득된 물체 정보를 종합하여 더욱 정확한 동적 물체 추정이 가능하도록 하며, 나아가 레이더 센서와 라이더 센서의 융합을 통해 물체 이동 궤적을 예측하여 중요한 영역에서 장애물을 탐지할 수 있는 무인 수상정의 장애물 탐지 장치 및 방법을 제공하는 것을 그 목적으로 한다.The object of the present invention is to compensate for the proximity detection limit of a radar sensor for detecting obstacles in the unmanned water condition, the computation amount of the rider sensor and the data processing time limit, and integrate the object information obtained from the radar sensor and the rider sensor, And an object of the present invention is to provide an apparatus and method for detecting an obstacle in an important area by predicting an object movement trajectory through fusion of a radar sensor and a rider sensor.

상기 목적을 달성하기 위한 본 발명은 무인 수상정의 주변영역에 대해 레이더 센서를 이용하여 물체에 대한 레이더 데이터를 획득하는 단계와, 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하는 단계와, 라이다 센서를 통해 상기 한계 반경범위를 포함하는 영역에서 상기 물체에 대한 라이다 데이터를 획득하는 단계와, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 단계 및 상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 단계를 포함하는 무인 수상정의 장애물 추적방법을 개시한다.According to another aspect of the present invention, there is provided a method of detecting radar data, comprising the steps of: obtaining radar data for an object using a radar sensor with respect to an area around an unmanned aerial image; Generating a predicted locus by predicting the trajectory of the object based on the already acquired radar data; acquiring the ladder data for the object in the region including the limit radius range through the Lidar sensor; Setting the Lidar data in the predicted trajectory as valid data, and tracking an obstacle based on an analysis of the valid data.

바람직하게는 ,상기 물체에 대한 레이더 데이터를 획득하는 단계 이전에, 상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 단계를 더 포함한다.Preferably, before obtaining the radar data for the object, the limit radius range reflecting the detection limit distance of the radar sensor from the unmanned water estimation is set in accordance with the detection limit distance for the short range of the radar sensor .

바람직하게는, 상기 물체의 예측궤적을 생성하는 단계는, 상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다.Preferably, the step of generating the predicted locus of the object predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range, And generates the predicted locus based on the points.

바람직하게는, 상기 물체의 예측궤적을 생성하는 단계는, 상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내에 레이더 데이터가 검출될 확률을 계산한다.Preferably, the step of generating the predicted trajectory of the object includes applying a Kalman filter to generate the predicted trajectory, and using the velocity and the heading angle of the object, And calculates the probability that radar data will be detected.

바람직하게는, 상기 물체에 대한 레이더 데이터를 획득하는 단계 이 후, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계 및 상기 물체가 장애물로 판단된 경우에 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 단계를 더 포함한다.Preferably, after obtaining the radar data for the object, it is determined whether or not the object is an obstacle to the unattended water pres- sure according to the bow angle and the relative velocity of the object for the unattended water pres- sure, and Determining whether the object enters the limit radius range based on the assumption of the unmanned water when the object is determined to be an obstacle.

바람직하게는, 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계는, 상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단한다.Preferably, the step of determining whether the object is an obstacle to the unattended water presupposition may include determining whether or not the bow angle of the object corresponds to a predetermined direction range toward the unattended water presupposition, The obstacle is determined as an obstacle to the unmanned water presupposition.

또한, 본 발명은 무인 수상정의 주변영역에서 물체에 대한 레이더 데이터를 수집하는 레이더 센서부와, 상기 무인 수상정의 주변영역에서 상기 물체에 대한 라이다 데이터를 수집하는 라이다 센서부 및 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하고, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 분석하여 장애물을 추적하는 신호 처리부를 포함하는 무인 수상정의 장애물 추적장치를 제안한다.According to another aspect of the present invention, there is provided a radar sensor system including a radar sensor unit for collecting radar data for an object in an area around an unmanned aerial image, a lidar sensor unit for collecting radar data for the object in the area around the unmanned aerial image definition, When entering the limit radius range based on the assumption of unattended water, generating a predicted trajectory by predicting the trajectory of the object based on the already obtained radar data, analyzing the LIDAR data in the predicted trajectory, And a signal processing unit for detecting an obstacle.

바람직하게는, 상기 신호 처리부는, 상기 레이더 데이터 및 상기 라이다 데이터를 수집하는 데이터 수집부와, 상기 물체가 상기 한계 반경범위에 진입하는 경우, 상기 레이더 데이터가 상기 한계 반경범위 내에 상기 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 예측궤적을 생성하는 예측궤적 생성부와, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 유효 데이터 설정부 및 상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 장애물 탐지부를 포함한다.Preferably, the signal processing unit includes: a data collecting unit for collecting the radar data and the ladder data; and a control unit for, when the object enters the limit radial range, A predicted locus generator for predicting a point to be continuously detected and generating a predicted locus based on the points; a valid data setting unit for setting the LIDAR data in the predicted locus as effective data; And an obstacle detection unit for tracking the obstacle based on the analysis.

바람직하게는, 상기 신호 처리부는, 상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정한다.Preferably, the signal processing unit sets the limit radius range reflecting the detection limit distance of the radar sensor from the unattended water detection according to a detection limit distance for a short distance of the radar sensor.

바람직하게는, 상기 예측궤적 생성부는, 상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다.Preferably, the predicted locus generation unit predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range, and based on the points, And generates a predicted locus.

바람직하게는, 상기 예측궤적 생성부는, 상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내의 상기 포인트들에 대한 확률을 계산한다.Preferably, the predicted locus generator applies a Unscented Kalman filter to generate the predicted locus, and uses a heading angel of the object to generate the predicted locus, And calculates the probability.

바람직하게는, 상기 신호 처리부는, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하고, 상기 물체가 장애물로 판단된 경우, 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단한다.Preferably, the signal processing unit determines whether or not the object is an obstacle to the unmanned water reception according to the bow angle and the relative speed of the object with respect to the unattended water injection, and when the object is determined to be an obstacle, It is determined whether or not the object enters the limit radius range based on the unattended water estimation.

바람직하게는, 상기 신호 처리부는, 상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단한다.Preferably, the signal processing unit is configured to set the object so that when the bow angle of the object corresponds to a predetermined direction range toward the unattended water correction, and the relative speed of the object with respect to the unattended water correction exceeds a threshold value, It is judged that it is an obstacle to the unmanned water.

또한, 본 발명의 또 다른 목적을 달성하기 위하여, 본 발명은 뭉니 수상정의 장애물 추적 방법이 컴퓨터에서 수행되며, 컴퓨터에서 판독 가능한 기록 매체를 제공한다.According to another aspect of the present invention, there is provided a computer-readable recording medium on which a computer-readable recording medium is recorded.

본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치 및 방법에 따르면, 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하면서, 레이더 센서와 라이더 센서로부터 획득된 물체 정보를 종합하여 더욱 정확한 동적 물체 추정이 가능하다.According to the apparatus and method for detecting an unmanned waterborne obstacle according to the embodiment of the present invention, while compensating for the proximity detection limit of the radar sensor for detecting an obstacle in the unmanned water determination, the computation amount of the rider sensor and the data processing time limit, And the object information obtained from the rider sensor are integrated to enable more accurate dynamic object estimation.

또한, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치 및 방법에 따르면, 레이더 센서와 라이더 센서의 융합을 통해 물체 이동 궤적을 예측하여 중요한 영역에서 장애물을 탐지할 수 있다.Also, according to the apparatus and method for detecting an unmanned aerial vehicle according to an embodiment of the present invention, an obstacle can be detected in an important area by predicting an object movement trajectory through fusion of a radar sensor and a rider sensor.

도 1은 본 발명의 일 실시예에 따른 무인 수상정의 장애물 탐지 장치의 개략적인 구성을 도시하는 블록도이다.
도 2는 본 발명의 실시 예에 따라 설정된 무인 수상정 주변에 대한 레이더 센서 및 라이다 센서 별 탐지 영역을 도시한다.
도 3은 본 발명의 실시 예에 따라 예측 궤적 생성의 대상이 되는 물체의 조건 여부를 판단하기 위한 예시도이다.
도 4는 본 발명의 실시 예에 따라 예측 궤적 생성의 대상이 되는 물체에 식별번호가 부여된 일 예를 도시하는 예시도이다.
도 5는 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치가 장애물을 탐지하는 방법을 설명하기 위한 예시도이다.
도 6은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 방법을 설명하기 위한 순서도이다.
도 7은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 프로그램을 통해 물체를 추적하는 실행화면의 일예를 도시한다.
1 is a block diagram showing a schematic configuration of an apparatus for detecting an unmanned waterborne obstacle according to an embodiment of the present invention.
FIG. 2 shows a radar sensor and a Lada sensor-specific detection area for the unmanned water around the assumed water level set according to the embodiment of the present invention.
FIG. 3 is an exemplary diagram for determining whether or not an object to be predicted locus generation is conditioned according to an embodiment of the present invention.
4 is an exemplary diagram showing an example in which an identification number is assigned to an object to be predicted locus generation according to an embodiment of the present invention.
5 is a diagram for explaining a method of detecting an obstacle by the apparatus for detecting unmanned water based obstacle according to an embodiment of the present invention.
6 is a flowchart illustrating a method for detecting an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 7 shows an example of an execution screen for tracking an object through the unmanned aberration-based obstacle detection program according to the embodiment of the present invention.

첨부된 도면들을 참조하여 본 발명을 일실시예에 따라 상세히 설명한다.The present invention will be described in detail with reference to the accompanying drawings.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.

본 발명의 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라 질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다.The term used in the specification of the present invention selects the general term that is widely used in the present invention while considering the function of the present invention, but it may be changed depending on the intention or custom of the technician engaged in the field or appearance of new technology . Also, in certain cases, there may be a term chosen arbitrarily by the applicant, in which case the meaning thereof will be described in the description of the corresponding invention. Therefore, it is intended that the terminology used herein should be interpreted based on the meaning of the term rather than on the name of the term, and on the entire contents of the specification. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment.

나아가, 도면들 중 참조번호 및 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Further, although the reference numerals and the like of the drawings are denoted by the same reference numerals and signs as possible, even if they are shown in different drawings, the same reference numerals and signs are used. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

따라서 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하에서는, 첨부된 도면을 참조하여 무인 수상정의 장애물 탐지 장치 및 방법을 후술된 실시예들에 따라 구체적으로 설명하도록 한다. 도면에서 동일한 부호는 동일한 구성 요소를 나타낸다.Hereinafter, an apparatus and method for detecting an unmanned aerial vehicle according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. Like numbers refer to like elements throughout the drawings.

도 1은 본 발명의 일 실시예에 따른 무인 수상정의 장애물 탐지 장치의 개략적인 구성을 도시하는 블록도이다. 도 1을 참조하면, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치(100)는 레이더 센서부(110), 라이더 센서부(120) 및 신호 처리부(130)를 포함하여 구성된다. 신호 처리부(130)는 구체적으로 데이터 수집부(132), 예측궤적 생성부(134), 유효 데이터 설정부(136) 및 장애물 탐지부(138)를 포함하여 구성된다.1 is a block diagram showing a schematic configuration of an apparatus for detecting an unmanned waterborne obstacle according to an embodiment of the present invention. Referring to FIG. 1, an apparatus 100 for detecting an unmanned aerial vehicle according to an embodiment of the present invention includes a radar sensor unit 110, a lidar sensor unit 120, and a signal processing unit 130. The signal processing unit 130 includes a data collecting unit 132, a predicted locus generating unit 134, a valid data setting unit 136, and an obstacle detecting unit 138.

레이더 센서부(110)는 무인 수상정(10)의 주변영역에서 물체(20)에 대한 레이더를 수집하여 데이터 수집부(132)로 전송한다.The radar sensor unit 110 collects the radar for the object 20 in the peripheral region of the unmanned water reception system 10 and transmits it to the data collection unit 132.

라이더 센서부(120)는 무인 수상정(10)의 주변영역에서 물체(20)에 대한 라이다 데이터를 획득하여 데이터 수집부(132)로 전송한다. 라이더 센서부(120)는 물체(20)가 레이더 센서부(110)의 탐지 한계 거리에 근접할 경우에 신호 처리부(130)에 의해 동작하여 물체(20)에 대한 라이다 데이터를 획득한다. 이에 대한 상세한 설명은 후술하기로 한다.The rider sensor unit 120 acquires the Raid data for the object 20 in the peripheral region of the unmanned water reception system 10 and transmits it to the data collection unit 132. The rider sensor unit 120 is operated by the signal processing unit 130 to acquire the Raid data for the object 20 when the object 20 is close to the detection limit distance of the radar sensor unit 110. [ A detailed description thereof will be given later.

레이더 센서부(110)는 원래 15Km 정도를 탐지하는 원거리용 장치이기 때문에 탐지중인 물체가 근거리로 근접할수록 물체에 대한 정확한 탐지가 어렵게 된다. 다시 말하면, 레이더 센서부(110)의 물체에 대한 탐지 한계 거리는 50m 이내의 거리이므로, 무인 수상정(10)으로부터 50m이내로 근접하는 물체(20)에 대해서 정확한 탐지가 어려운 것으로 여겨진다.Since the radar sensor unit 110 is a remote device originally detecting about 15 km, it is difficult to accurately detect an object as the object being detected is closer to the near side. In other words, since the detection limit distance to the object of the radar sensor unit 110 is within 50 m, it is considered that accurate detection is difficult for the object 20 approaching within 50 m from the unmanned water reception system 10.

이에 신호 처리부(130)는 레이더 센서부(110)의 근거리에 대한 탐지 한계 거리에 따라 무인 수상정(10)으로부터 레이더 센서부(110)의 탐지 한계 거리를 반영하는 한계 반경범위를 설정한다. The signal processing unit 130 sets a limit radius range that reflects the detection limit distance of the radar sensor unit 110 from the unmanned water reception system 10 in accordance with the detection limit distance for the short distance of the radar sensor unit 110. [

일컨대, 한계 반경범위는 무인 수상정(10)으로부터 50m 내지 80m 이내로 설정될 수 있으나, 각 레이더 센서부(110) 및 라이다 센서부(110)의 각 기능 및 상태에 따라 본 발명의 요지를 벗어나지 않는 범위 내에서 변경 가능하다.The range of the limit radius may be set within a range of 50 m to 80 m from the unmanned water reception system 10. It is to be understood that the scope of the present invention may be changed depending on the respective functions and states of the radar sensor unit 110 and the lidar sensor unit 110 And can be changed within a range that does not deviate.

신호 처리부(130)는 먼저, 데이터 수집부(132)를 통해 레이더 센서부(110)로부터 레이더 데이터를 수집한다.The signal processing unit 130 first acquires radar data from the radar sensor unit 110 through the data collecting unit 132.

신호 처리부(130)는 레이더 센서부(110)로부터 전자파를 발사하여 반사되는 전력량에 따라서 거리를 계산한다. 여기서 측정된 송신전력을 통해서 레이더 송수신기와 물체(20)까지의 거리를 계산할 수 있다.The signal processing unit 130 emits an electromagnetic wave from the radar sensor unit 110 and calculates a distance according to the amount of reflected electric power. Here, the distance between the radar transceiver and the object 20 can be calculated through the measured transmission power.

신호 처리부(130)는 상기와 같이 계산된 레이더 송신기에서 물체(20)까지의 거리를 통해서 시간에 따른 궤적을 계산하여, 동적 물체(20)와 무인 수상정(10)간의 상대속도, 방위각을 계산한다. 이러한 기술은 이미 알려진 기술 내용이므로 더 상세한 설명은 생략하기로 한다.The signal processing unit 130 calculates the locus along the time from the distance calculated from the radar transmitter to the object 20 as described above and calculates the relative speed and azimuth angle between the dynamic object 20 and the unmanned water reception system 10 do. Since these techniques are already known, detailed description will be omitted.

도 2는 본 발명의 실시 예에 따라 설정된 무인 수상정 주변에 대한 레이더 센서 및 라이다 센서 별 탐지 영역을 도시한다. 도 2를 참조하면, 레이더 센서부(110)의 탐지 한계 거리는 무인 수상정(10)으로부터 50m 내지 80m이므로 탐지 한계 범위로 근접하는 물체(20)에 대해서 정확한 탐지가 어려운 것으로 여겨진다.FIG. 2 shows a radar sensor and a Lada sensor-specific detection area for the unmanned water around the assumed water level set according to the embodiment of the present invention. Referring to FIG. 2, since the detection limit distance of the radar sensor unit 110 is 50 to 80 meters from the unmanned water intake 10, it is considered that accurate detection is difficult for the object 20 approaching the detection limit range.

따라서, 본 발명은 무인 수상정(10)으로부터 50m ~ 1km 영역 내에서 선수각이 무인 수상정(10)을 향하고, 무인 수상정(10) 대비 상대속도가 임계치 이상인 물체(20)에 한정지어서, 물체(20)에 대해 예측되는 궤적인 예측궤적을 생성한다. 예측 궤적 생성의 대상이 되는 물체(20)로 선정되는 기본 조건은 도 3을 참조하여 설명한다.Accordingly, the present invention is limited to the object 20 whose bow angle is directed toward the unmanned water receiving surface 10 within the range of 50 m to 1 km from the waterless water receiving surface 10 and whose relative speed to the unmanned water receiving surface 10 is equal to or higher than the threshold, Which is a trajectory predicted with respect to the object 20, is generated. The basic condition to be selected by the object 20 to be the target of the predicted locus generation will be described with reference to FIG.

도 3은 무인 수상정(10)과 주변 영역의 물체(20) 간의 좌표계를 계산하기 위한 방법을 설명하기 위한 참고도이다. 무인 수상정(10)의 주변 환경에 있는 물체(20)가 장애물인지 판단하기 전에 먼저, 신호 처리부(130)는 도 3에 도시된 바와 같이 물체(20)의 선수각이 수상정을 향하고 있는지 판단하고, 상대속도 Vr> 0이상인지 분석한다.3 is a reference diagram for explaining a method for calculating the coordinate system between the unmanned water estimation 10 and the object 20 in the peripheral region. 3, the signal processing unit 130 determines whether or not the bow angle of the object 20 is heading to the predetermined position before determining whether the object 20 in the surrounding environment of the water-free water table 10 is an obstacle And it is analyzed whether or not the relative speed V r > 0.

즉, 신호처리부(130)는 물체(20)의 선수각이 상기 무인 수상정(10)을 향하는 기설정된 방향 범위에 해당하고, 무인 수상정(10)에 대한 물체(20)의 상대속도가 임계치를 초과하는 경우 물체(20)를 무인 수상정(10)에 대한 장애물로 판단하여, 물체(20)의 예측 궤적을 생성하기로 한다.That is, the signal processing unit 130 determines whether or not the angle of the bow of the object 20 corresponds to a predetermined directional range toward the unmanned water table 10 and the relative velocity of the object 20 to the unmanned water table 10 is the threshold , It is determined that the object 20 is an obstacle to the unmanned water reception system 10 and a predicted locus of the object 20 is generated.

여기서, 물체(20)에 대한 선수각은 무인 수상정(10)의 방향각을 진북 방향을 기준으로 θusv라고 했을 때 물체(20)에 대한 선수각은 θr은 레이더 센서부(110)를 이용하여 획득한 물체(20)까지의 거리(d)와 무인 수상정(10) 기준 물체(20) 간의 각도를 이용해서 계산 가능하다. 그래서 시간에 따른 (x(t), y(t)의 이동 궤적을 통해서 계산되는 헤딩각(Heading)은 진북방향을 기준으로 변환할 수 있으며, θusv와 θr의 비교를 통해서 물체(20)의 선수각이 무인 수상정(10)으로 향하고 있는지 판단이 가능하다.Here, the bow angle with respect to the object 20 is defined as θ usv with respect to the true north direction as the direction angle of the unmanned water receiving system 10, and the bow angle θ r with respect to the object 20 is the radar sensor unit 110 Can be calculated by using an angle between the distance d to the object 20 acquired by using the angle? Thus, the heading calculated through the movement trajectory of x (t), y (t) over time can be transformed on the basis of the true north direction, and the object 20 can be transformed by comparing θ usv and θ r , It is possible to judge whether or not the bow angle of the player is heading toward the unmanned water receiving side 10.

도 4에 도시된 바와 같이, 신호 처리부(130)는 예측 궤적 생성의 대상이 되는 물체의 조건을 만족하는 물체에 대해서는 고유의 식별번호를 부여하고, 이후 식별번호가 부여된 물체에 대한 이동 궤적을 예측하고, 이동 궤적을 물체에 대한 라이다 데이터와 결부시켜 물체를 추적하도록 한다. As shown in FIG. 4, the signal processing unit 130 assigns a unique identification number to an object satisfying the condition of an object to be predicted locus generation, and then obtains a movement locus for an object to which an identification number is assigned And traces the object by associating the movement trajectory with the Lada data for the object.

도 5에 도시된 바와 같이, 예측 궤적 생성부(134)는 물체(20)가 상기 한계 반경범위 내에 진입함에 따라, 이미 획득된 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다.As shown in Fig. 5, the predicted locus generator 134 predicts the point at which the next radar data is successively detected based on the already obtained radar data as the object 20 enters the limit radius range , And generates the predicted locus based on the points.

이때, 다음 레이더 데이터가 연속적으로 검출될 포인터들에 기반한 연속적인 예측궤적 생성을 위해서, 칼만 필터(Unscented Kalman filter)를 적용하고, 물체(20)의 속도와 헤딩각(heading angle)을 이용하여 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하여, 상기 포인트에 대한 확률을 계산한다. At this time, a Kalman filter (Unscented Kalman filter) is applied to generate consecutive predicted trajectories based on pointers on which the next radar data will be continuously detected, and then the velocity and the heading angle of the object 20 Predicts a point at which radar data will be successively detected, and calculates a probability for the point.

한편, 신호 처리부(130)는 레이더 센서부(110)의 한계 반경범위 이내 뿐만 아니라, 탐지 한계 거리로부터 일정 범위 내에 물체(20)가 접근 시, 레이더 센서부(110)로부터 물체(20)에 대한 레이더 데이터를 정상적으로 획득하지 못하는 경우에도 라이더 센서부(120)를 구동시켜, 50~80m사이에 존재하는 물체(20)에 대한 라이다 데이터를 획득한다. The signal processing unit 130 may detect the distance from the radar sensor unit 110 to the object 20 within a range of the limit radius of the radar sensor unit 110, Even when the radar data can not be acquired normally, the lidar sensor unit 120 is driven to acquire the ladder data for the object 20 existing between 50 and 80 m.

또한, 신호 처리부(130)는 레이더 센서부(110)가 탐지 한계 거리로부터 일정 범위 내에서 물체(20)에 대한 레이더 데이터를 정상적으로 획득하지 못하는 시점에서부터 이미 획득된 레이더 데이터들을 기반으로 물체(20)에 대한 예측 궤적을 생성한다. The signal processing unit 130 detects the position of the object 20 based on the already acquired radar data from the time when the radar sensor unit 110 can not normally acquire the radar data for the object 20 within a certain range from the detection limit distance, Lt; / RTI >

또한, 레이더 센서부(110)가 무인 수상정(10)에 스테빌라이저가 없는 고정축으로 연결되어 있기에 무인 수상정(10)의 롤링(Rolling)과 피치(Pitch)에 취약하여, 파고가 높을 경우에는 원거리에 있는 물체에 대해서도 레이더 데이터를 소실하기도 하는데, 이때에도 신호 처리부(130)는 물체(20)에 대한 예측 궤적을 생성하고, 라이다 센서부(120)를 구동시킬 수 있다.In addition, since the radar sensor unit 110 is connected to the unmanned water tank 10 via a fixed shaft without stabilizer, it is vulnerable to rolling and pitch of the unmanned water tank 10, The signal processing unit 130 may generate a predicted locus for the object 20 and may drive the RI sensor unit 120 at this time as well.

물체(20)가 한계 반경범위로 진입함에 따라 소실되는 레이더 데이터에 대해 예상되는 연속적인 궤적 추출을 위해서 칼만 필터와 선수각을 이용하는 알고리즘의 수학식은 다음과 같다. The following equation is used for the Kalman filter and the algorithm that uses the bow angle for the continuous trajectory extraction expected for the radar data that disappears as the object 20 enters the limit radius range.

[수학식 1][Equation 1]

Figure 112018008505731-pat00001
Figure 112018008505731-pat00001

상기 수학식 1을 통해서 k번째에서 측정값

Figure 112018008505731-pat00002
를 통해서, 추정값
Figure 112018008505731-pat00003
를 계산할 수 있으며, 수학식 1에는
Figure 112018008505731-pat00004
: 칼만필터 이득값을 통해서 추정값을 계산한다. From the above equation (1), the measurement value
Figure 112018008505731-pat00002
, The estimated value
Figure 112018008505731-pat00003
, And Equation (1)
Figure 112018008505731-pat00004
: Calculate the estimate through the Kalman filter gain value.

[수학식 2]&Quot; (2) "

Figure 112018008505731-pat00005
Figure 112018008505731-pat00005

상기 수학식 2를 통해서 오차 공분산 계산을 하며,

Figure 112018008505731-pat00006
:
Figure 112018008505731-pat00007
번째의 오차공분산이 된다. 이를 통해서 칼만필터 이득값을 계산하는 수학식 3이 적용 가능해진다.The error covariance calculation is performed through Equation (2)
Figure 112018008505731-pat00006
:
Figure 112018008505731-pat00007
Th error covariance. The equation (3) for calculating the Kalman filter gain value becomes applicable.

[수학식 3]&Quot; (3) "

Figure 112018008505731-pat00008
Figure 112018008505731-pat00008

[수학식 4]&Quot; (4) "

Figure 112018008505731-pat00009
Figure 112018008505731-pat00009

수학식 4와 같이 예측된 값

Figure 112018008505731-pat00010
는 레이더 탐색 물체의 위치와 선수각이 포함되어 있으며, 수학식 1에는
Figure 112018008505731-pat00011
; 물체의 상대속도를 포함하여 예측정보로 갱신하게 된다.The predicted value < RTI ID = 0.0 >
Figure 112018008505731-pat00010
Includes the position and the bow angle of the radar search object, and Equation 1
Figure 112018008505731-pat00011
; And updates the prediction information including the relative velocity of the object.

라이더 센서로만 무인 수상정에서 장애물을 탐지하기에는 라이다 센서의 데이터 처리 시간과 연산량이 크기 때문에, 본 발명에서는 레이더 센서로부터 검출되는 데이터 신호의 상태에 따라 라이다 센서를 선택적으로 이용함으로써, 두 센서의 장점을 이용하고 단점을 보완하며, 신속하고 정확하게 장애물을 탐지할 수 있는 효과가 있다.Since the data processing time and the computation amount of the LIDAR sensor are large in order to detect obstacles in the unmanned water under only the rider sensor, in the present invention, the LIDAR sensor is selectively used according to the state of the data signal detected from the radar sensor, Advantages are utilized, defects are compensated, and obstacles can be detected quickly and accurately.

유효 데이터 설정부(136)는 예측궤적 내에 접하는 라이다 데이터를 유효 데이터로 설정한다. 도 5를 참조하면, 레이더 데이터를 통해 생성된 물체(20)의 예측 궤적에 라이다 데이터의 포인트가 접하는 것을 알 수 있다. 이때, 예측 궤적에 접하는 라이다 데이터의 포인트들은 적어도 하나 이상일 수 있고, 이 라이다 데이터의 포인트들을 유효 데이터로 설정한다.The valid data setting unit 136 sets the LADID data in the predicted locus as valid data. Referring to FIG. 5, it can be seen that the point of the Lada data comes into contact with the predicted locus of the object 20 generated through the radar data. At this time, the points of the LR data corresponding to the predicted locus may be at least one or more, and the points of the LR data are set as the valid data.

장애물 탐지부(138)는 유효 데이터에 대한 분석에 기초하여 물체(20)를 장애물로 판단하고, 장애물의 이동을 계속적으로 추적한다. The obstacle detection unit 138 judges the object 20 as an obstacle based on the analysis of the valid data and continuously tracks the movement of the obstacle.

즉, 예측궤적과 라이다 데이터의 접점 영역에서 생성된 라이다 포인트 데이터와, 예측궤적을 관심그룹으로 설정하고, 설정된 라이다 포인트 데이터에 대한 분석에 기초하여 무인 수상정(10)을 기준으로 근거리 장애물에 대한 이동을 탐지하고 추적할 수 있다.That is, the lidar point data generated in the contact area of the predicted locus and the lidar data and the predicted locus are set as the interest group, and based on the analysis of the set lidar point data, Movements to obstacles can be detected and tracked.

한편, 신호 처리부(130)는 무인 수상정(10), 레이더 센서부(110)로부터 획득한 레이더 데이터, 라이더 센서부(120)로부터 획득한 라이더 데이터, 식별번호가 부여된 물체 데이터, 물체(20)에 대해 생성된 예측 궤적, 예측 궤적에 접하는 라이다 데이터를 디스플레이 상에 이미지로 표현할 수 있다. On the other hand, the signal processing unit 130 receives the radar data acquired from the radar sensor unit 110, the rider data acquired from the lid sensor unit 120, the object data to which the identification number is assigned, the object 20 ), And the Lattice data in contact with the predicted locus can be expressed as an image on the display.

도 7은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 프로그램을 통해 물체를 추적하는 실행화면의 일예를 도시한다. 상기 실행화면은 추적되는 물체의 이동 방향을 화살표로 표시할 수 있고, 물체의 선수각이 무인 수상정으로 향하는 경우, 해당 물체를 하이라이트 표시하고, 물체가 한계 반경범위 내에 진입함에 따라, 이미 획득된 데이터들을 기반으로 다음 데이터가 연속적으로 검출될 예측 포인트도 표시하여 사용자가 이를 직관적으로 인지할 수 있도록 할 수 있다. FIG. 7 shows an example of an execution screen for tracking an object through the unmanned aberration-based obstacle detection program according to the embodiment of the present invention. The execution screen can display the moving direction of the object to be tracked with an arrow. When the bow angle of the object is directed toward the unmanned water elevation, the object is highlighted, and as the object enters the limit radius range, Based on the data, the prediction point to which the next data is successively detected can also be displayed so that the user can intuitively recognize the prediction point.

이와 같이 본 발명은 레이더 센서만으로는 근거리에서 탐지가 어려운 물체에 대해서 3차원 라이다 센서와 레이더 센서의 특성을 융합하여 유효 데이터를 획득함으로써, 무인 수상정의 주변 영역에서 장애물 탐지의 효율을 높인다. As described above, the present invention improves the efficiency of obstacle detection in the vicinity of the unmanned aerial vehicle by acquiring valid data by fusing the characteristics of a three-dimensional ray sensor and a radar sensor with respect to an object which is difficult to detect at a close range by a radar sensor alone.

그리고, 라이더 센서로만 무인 수상정 주변의 장애물을 탐지하기에는 라이다 센서의 데이터 처리 시간과 연산량이 크기 때문에, 본 발명에서는 레이더 센서로부터 검출되는 데이터 신호의 상태에 따라 라이다 센서를 선택적으로 이용하여, 두 센서의 장점을 이용하고 단점을 보완함으로써, 동적 장애물 추정의 정확도를 높이고, 신속하고 정확하게 장애물을 탐지할 수 있는 효과가 있다.Since the data processing time and the computation amount of the LIDAR sensor are large in order to detect the obstacle around the unmanned water only by the rider sensor, in the present invention, the LIDAR sensor is selectively used according to the state of the data signal detected from the radar sensor, By utilizing the merits of the two sensors and compensating for their disadvantages, it is possible to increase the accuracy of dynamic obstacle estimation and to detect obstacles quickly and accurately.

도 6은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 방법을 설명하기 위한 흐름도이다. 6 is a flowchart illustrating a method for detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 방법은 먼저, 무인 수상정의 주변 탐색 영역에 대해 레이더 센서를 이용하여 물체에 대한 레이더 데이터를 획득한다(S110). 여기서, 물체에 대한 레이더 데이터를 획득하는 단계 이전에, 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 단계를 더 포함할 수 있다.Referring to FIG. 6, in the method for detecting an unmanned aerial image according to an exemplary embodiment of the present invention, radar data for an object is acquired using a radar sensor for an area around the unmanned aerial image (S110). Here, before the step of acquiring radar data for the object, the step of setting the limit radius range reflecting the detection limit distance of the radar sensor from the unmanned water estimation in accordance with the detection limit distance for the short range of the radar sensor .

그리고, 물체에 대한 레이더 데이터를 획득하는 단계 이후, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계와, 상기 물체가 장애물로 판단된 경우에 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 단계를 더 포함할 수 있다. 구체적으로, 물체의 선수각이 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 무인 수상정에 대한 물체의 상대속도가 임계치를 초과하는 경우 물체를 상기 무인 수상정에 대한 장애물로 판단한다. 장애물로 판단된 물체에는 고유의 식별번호를 부여한다.Determining whether the object is an obstacle to the unmanned water reception in accordance with the bow angle and relative velocity of the object with respect to the unattended water presumption after obtaining the radar data for the object; Determining whether the object enters the limit radius range based on the assumption of the unmanned water when it is determined that the object is an obstacle. Specifically, when the bow angle of the object corresponds to a predetermined direction range toward the unmanned water intake, and the relative velocity of the object with respect to the unmanned water intake exceeds the threshold value, the object is determined as an obstacle to the unmanned water intake. An object identification number is assigned to an object judged to be an obstacle.

이는 무인 수상정 주변의 모든 물체를 탐지하는 것이 아니라, 무인 수상정에 대해 장애물이 되는 물체만을 선별하여 이동 궤적을 탐지하기 위함이다.This is to detect not only all objects in the vicinity of the unmanned water, but also the moving trajectory by selecting only the obstacles to the unmanned water.

다음으로, 물체가 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하고(S120), 물체가 한계 반경범위에 진입하는 것으로 판단될 경우, 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성한다(S130). 이를 위해, 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다. Next, it is determined whether the object enters the limit radius range based on the unmanned water estimation (S120). If it is determined that the object enters the limit radius range, the trajectory of the object is predicted based on the radar data, (S130). To this end, as the object enters the limit radius range, the next radar data is continuously predicted based on the already extracted radar data, and the predicted locus is generated based on the points.

이때, 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 이용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내에 레이더 데이터가 검출될 확률을 계산하여, 예측 궤적을 생성하는 데에 활용한다.At this time, a Kalman filter is used to generate the predicted locus, and the probability that the radar data is detected within the limit radius range is calculated using the velocity and the heading angle of the object, It is used to generate.

다음으로, 라이다 센서를 통해 한계 반경범위를 포함하는 영역에서 물체에 대한 라이다 데이터를 획득한다(S140).Next, the LIDAR data for the object is obtained in the region including the limit radius range through the LIDAR sensor (S140).

다음으로, 예측궤적 내에 접하는 라이다 데이터를 유효 데이터로 설정한다(S150). Next, the Lattice data in the predicted locus is set as valid data (S150).

일반적으로 라이다 센서를 통해 획득할 수 있는 라이다 데이터는 직각 좌표계로 표시되고, 레이더 센서를 통해 획득할 수 있는 레이더 데이터는 극 좌표계로 표시될 수 있다. 따라서, 라이다 센서와 레이더 센서를 융합하여 유효 데이터를 획득하기 위해서는 레이더 센서를 통해 획득되는 레이더 데이터를 라이다 데이터와 같이 직각 좌표계로 변환하여 표시한다. Generally, the radar data that can be acquired through the radar sensor is represented by a rectangular coordinate system, and the radar data that can be acquired through the radar sensor can be displayed in a polar coordinate system. Accordingly, in order to acquire valid data by fusing a radar sensor and a radar sensor, the radar data acquired through the radar sensor is converted into a rectangular coordinate system such as Lada data and displayed.

다음으로, 유효 데이터에 대한 분석에 기초하여 장애물을 탐지한다(S160). 즉, 예측궤적과 라이다 데이터의 접점 영역에서 생성된 라이다 포인트 데이터와, 예측궤적을 관심그룹으로 설정하고, 설정된 라이다 포인트 데이터에 대한 분석에 기초하여 근거리 장애물을 탐지하고 추적할 수 있다.Next, the obstacle is detected based on the analysis of the valid data (S160). That is, the lidar point data generated in the contact area of the predicted locus and the lidar data and the predicted locus can be set as the interest group, and the near obstacle can be detected and tracked based on the analysis of the set lidar point data.

이와 같은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치에 따르면, 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하면서, 레이더 센서와 라이더 센서로부터 획득된 물체 정보를 종합하여 더욱 정확한 동적 물체 추정이 가능하다.According to the apparatus for detecting an unmanned waterborne obstacle according to the embodiment of the present invention, while the limit of the near detection limit of the radar sensor for detecting an obstacle in the unmanned water reception, the calculation amount of the rider sensor and the data processing time are complemented, And the object information obtained from the rider sensor are integrated to enable more accurate dynamic object estimation.

또한, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치 및 방법에 따르면, 레이더 센서와 라이더 센서의 융합을 통해 물체 이동 궤적을 예측하여 중요한 영역에서 장애물을 탐지할 수 있다.Also, according to the apparatus and method for detecting an unmanned aerial vehicle according to an embodiment of the present invention, an obstacle can be detected in an important area by predicting an object movement trajectory through fusion of a radar sensor and a rider sensor.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (14)

무인 수상정의 주변영역에 대해 레이더 센서를 이용하여 물체에 대한 레이더 데이터를 획득하는 단계;
상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하는 단계;
라이다 센서를 통해 상기 한계 반경범위를 포함하는 영역에서 상기 물체에 대한 라이다 데이터를 획득하는 단계;
상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 단계; 및
상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 단계;를 포함하며,
상기 물체에 대한 레이더 데이터를 획득하는 단계 이후,
상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계; 및
상기 물체가 장애물로 판단된 경우에 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 단계를 더 포함하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.
Acquiring radar data for an object using a radar sensor for an area around the unmanned aerial image;
Generating a predicted trajectory by predicting the trajectory of the object based on the already obtained radar data when the object enters the limit radius range based on the unattended water presumption;
Obtaining lidar data for the object in the region including the limit radius range through the lidar sensor;
Setting the Lattice data in the predicted trajectory as valid data; And
And tracking an obstacle based on an analysis of the valid data,
After acquiring radar data for the object,
Determining whether the object is an obstacle to the unmanned water reception according to the bow angle and the relative speed of the object with respect to the unattended water reception; And
Further comprising the step of determining whether the object enters the limit radius range based on the assumption of the unmanned water when the object is determined to be an obstacle.
제 1 항에 있어서,
상기 물체에 대한 레이더 데이터를 획득하는 단계 이전에,
상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 단계를 더 포함하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.
The method according to claim 1,
Prior to acquiring radar data for the object,
Further comprising the step of setting the limit radius range reflecting the detection limit distance of the radar sensor from the unattended water presumption according to a detection limit distance for a short distance of the radar sensor.
제 2 항에 있어서,
상기 물체의 예측궤적을 생성하는 단계는,
상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.
3. The method of claim 2,
Wherein the step of generating the predicted locus of the object comprises:
Predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range and generates the predicted locus based on the points. How to Track a Defined Obstacle.
제 3 항에 있어서,
상기 물체의 예측궤적을 생성하는 단계는,
상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내에 레이더 데이터가 검출될 확률을 계산하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.
The method of claim 3,
Wherein the step of generating the predicted locus of the object comprises:
Wherein a probability of detecting radar data within the limit radius range is calculated by applying a Kalman filter to generate the predicted trajectory and using a heading angel of the object and a velocity of the object. How to Track a Defined Obstacle.
삭제delete 제 1 항에 있어서,
상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계는,
상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.
The method according to claim 1,
Wherein the step of determining whether the object is an obstacle to the unattended water presumption comprises:
When the bow angle of the object corresponds to a predetermined direction range toward the unattended water presupposition and the relative speed of the object with respect to the unattended water presupposition exceeds the threshold value, the object is determined to be an obstacle to the unattended water presupposition Wherein the method further comprises the steps of:
제1항 내지 제4항 및 제6항 중 어느 한 항에 따른 무인 수상정의 장애물 추적방법을 컴퓨터에서 수행하기 위한 컴퓨터에서 수행하기 위한 컴퓨터에서 판독 가능한 프로그램이 기록된 저장 매체.A computer-readable storage medium on which a computer-readable program for performing the method of claim 1, 2, 3, 4, 5, 6, 무인 수상정의 주변영역에서 물체에 대한 레이더 데이터를 수집하는 레이더 센서부;
상기 무인 수상정의 주변영역에서 상기 물체에 대한 라이다 데이터를 수집하는 라이다 센서부; 및
상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하고, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 분석하여 장애물을 추적하는 신호 처리부;를 포함하며,
상기 신호 처리부는, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하고,
상기 물체가 장애물로 판단된 경우, 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.
A radar sensor unit for collecting radar data for an object in an area around the unmanned aerial image;
A lidar sensor unit for collecting lidar data for the object in the area around the unmanned aerial image; And
When the object enters the limit radius range based on the unattended water estimation, generates a predicted trajectory by predicting the trajectory of the object based on the already obtained radar data, and analyzes the LR data in the predicted trajectory And a signal processing unit for tracking an obstacle,
Wherein the signal processing unit determines whether the object is an obstacle to the unmanned water reception according to the bow angle and the relative speed of the object with respect to the unattended water reception,
Wherein if the object is determined to be an obstacle, it is determined whether the object enters the limit radius range based on the assumption of the unmanned water.
제 8 항에 있어서,
상기 신호 처리부는,
상기 레이더 데이터 및 상기 라이다 데이터를 수집하는 데이터 수집부;
상기 물체가 상기 한계 반경범위에 진입하는 경우, 상기 레이더 데이터가 상기 한계 반경범위 내에 상기 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 예측궤적을 생성하는 예측궤적 생성부;
상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 유효 데이터 설정부; 및
상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 장애물 탐지부;를 포함하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.
9. The method of claim 8,
The signal processing unit,
A data collecting unit collecting the radar data and the ladder data;
A predicted locus generator for predicting a point at which the radar data is continuously detected within the limit radius range when the object enters the limit radius range and generating a predicted locus based on the points;
A valid data setting unit for setting the Lattice data in the predicted locus as effective data; And
And an obstacle detection unit for tracking an obstacle based on the analysis of the valid data.
제 8 항에 있어서,
상기 신호 처리부는,
상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.
9. The method of claim 8,
The signal processing unit,
Wherein the limit radius range reflecting the detection limit distance of the radar sensor is set based on the detection limit distance for the short range of the radar sensor.
제 9 항에 있어서,
상기 예측궤적 생성부는,
상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.
10. The method of claim 9,
Wherein the predicted locus generator comprises:
Predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range and generates the predicted locus based on the points. An augmented obstacle tracking device.
제 11 항에 있어서,
상기 예측궤적 생성부는,
상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내의 상기 포인트들에 대한 확률을 계산하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.
12. The method of claim 11,
Wherein the predicted locus generator comprises:
Applying a Kalman filter to generate the predicted trajectory and calculating a probability for the points within the limit radius range using a velocity and a heading angle of the object. An augmented obstacle tracking device.
삭제delete 제 8 항에 있어서,
상기 신호 처리부는,
상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.
9. The method of claim 8,
The signal processing unit,
When the bow angle of the object corresponds to a predetermined direction range toward the unattended water presupposition and the relative speed of the object with respect to the unattended water assumption exceeds a threshold value, the object is determined to be an obstacle to the unattended water guidance Wherein the obstacle tracking device is an unmanned aerial vehicle.
KR1020180008905A 2018-01-24 2018-01-24 Apparatus and method for detecting obstacle by unmanned surface vessel Active KR101882483B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180008905A KR101882483B1 (en) 2018-01-24 2018-01-24 Apparatus and method for detecting obstacle by unmanned surface vessel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180008905A KR101882483B1 (en) 2018-01-24 2018-01-24 Apparatus and method for detecting obstacle by unmanned surface vessel

Publications (1)

Publication Number Publication Date
KR101882483B1 true KR101882483B1 (en) 2018-07-27

Family

ID=63078378

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180008905A Active KR101882483B1 (en) 2018-01-24 2018-01-24 Apparatus and method for detecting obstacle by unmanned surface vessel

Country Status (1)

Country Link
KR (1) KR101882483B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110736982A (en) * 2019-10-28 2020-01-31 江苏集萃智能传感技术研究所有限公司 Underground parking lot vehicle tracking method and device based on radar monitoring
KR102076775B1 (en) * 2019-06-14 2020-02-12 주식회사 한국건설방재연구원 Unmanned Air Boat for Safety Inspection of Sub-Bottom of Landing Pier and Inside of Medium-Large Sized Culvert
CN112099494A (en) * 2020-09-02 2020-12-18 西安交通大学 A kind of all-terrain vehicle and its automatic detection of stairs and climbing method
KR20210044673A (en) * 2019-10-15 2021-04-23 한국조선해양 주식회사 support system for vessel operation and ship having the same
CN112946674A (en) * 2021-02-01 2021-06-11 浙江华消科技有限公司 Method for detecting underwater deep hole and water rescue robot
CN114994705A (en) * 2022-05-16 2022-09-02 杭州电子科技大学 Unmanned ship obstacle avoidance method based on laser radar angle correction
KR102455565B1 (en) * 2021-11-29 2022-10-17 한국해양과학기술원 System and method for multi-image-based vessel proximity situation recognition support
CN119625337A (en) * 2024-10-28 2025-03-14 宜昌测试技术研究所 A method and system for joint perception of multi-information of unmanned surface vessels

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010503908A (en) * 2006-09-13 2010-02-04 マリン・アンド・リモート・センシング・ソリューションズ・(エムエーアールエスエス) Steering and safety systems for vehicles or equipment
KR20140004430A (en) * 2012-07-02 2014-01-13 한국해양과학기술원 Radar apparatus for marine, monitoring system of ship and method using the same
JP2014025925A (en) * 2012-07-24 2014-02-06 Toyota Motor Engineering & Manufacturing North America Inc Vehicle controller and vehicle system
KR101514407B1 (en) 2014-03-07 2015-04-23 한국해양과학기술원 Real time sea observation system
KR101784611B1 (en) * 2016-06-09 2017-11-06 재단법인대구경북과학기술원 A human detecting apparatus and method using a lidar sensor and a radar sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010503908A (en) * 2006-09-13 2010-02-04 マリン・アンド・リモート・センシング・ソリューションズ・(エムエーアールエスエス) Steering and safety systems for vehicles or equipment
KR20140004430A (en) * 2012-07-02 2014-01-13 한국해양과학기술원 Radar apparatus for marine, monitoring system of ship and method using the same
JP2014025925A (en) * 2012-07-24 2014-02-06 Toyota Motor Engineering & Manufacturing North America Inc Vehicle controller and vehicle system
KR101514407B1 (en) 2014-03-07 2015-04-23 한국해양과학기술원 Real time sea observation system
KR101784611B1 (en) * 2016-06-09 2017-11-06 재단법인대구경북과학기술원 A human detecting apparatus and method using a lidar sensor and a radar sensor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102076775B1 (en) * 2019-06-14 2020-02-12 주식회사 한국건설방재연구원 Unmanned Air Boat for Safety Inspection of Sub-Bottom of Landing Pier and Inside of Medium-Large Sized Culvert
KR20210044673A (en) * 2019-10-15 2021-04-23 한국조선해양 주식회사 support system for vessel operation and ship having the same
KR102269383B1 (en) * 2019-10-15 2021-06-25 한국조선해양 주식회사 support system for vessel operation and ship having the same
CN110736982A (en) * 2019-10-28 2020-01-31 江苏集萃智能传感技术研究所有限公司 Underground parking lot vehicle tracking method and device based on radar monitoring
CN112099494A (en) * 2020-09-02 2020-12-18 西安交通大学 A kind of all-terrain vehicle and its automatic detection of stairs and climbing method
CN112946674A (en) * 2021-02-01 2021-06-11 浙江华消科技有限公司 Method for detecting underwater deep hole and water rescue robot
CN112946674B (en) * 2021-02-01 2024-05-10 浙江华消科技有限公司 Method for detecting underwater deep hole and water rescue robot
KR102455565B1 (en) * 2021-11-29 2022-10-17 한국해양과학기술원 System and method for multi-image-based vessel proximity situation recognition support
CN114994705A (en) * 2022-05-16 2022-09-02 杭州电子科技大学 Unmanned ship obstacle avoidance method based on laser radar angle correction
CN119625337A (en) * 2024-10-28 2025-03-14 宜昌测试技术研究所 A method and system for joint perception of multi-information of unmanned surface vessels

Similar Documents

Publication Publication Date Title
KR101882483B1 (en) Apparatus and method for detecting obstacle by unmanned surface vessel
US7463340B2 (en) Ladar-based motion estimation for navigation
CN111352110B (en) Method and device for processing radar data
Adolfsson et al. Cfear radarodometry-conservative filtering for efficient and accurate radar odometry
US12005907B2 (en) Method for determining position data and/or motion data of a vehicle
CN111316127A (en) Target track determining method, target tracking system and vehicle
JP4343536B2 (en) Car sensing device
KR102151814B1 (en) Method and Apparatus for Vehicle Detection Using Ladar Sensor and Camera
KR102456151B1 (en) Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles
Adams et al. Robotic navigation and mapping with radar
RU2720140C1 (en) Method for self-position estimation and self-position estimation device
US20150336575A1 (en) Collision avoidance with static targets in narrow spaces
US8319679B2 (en) Systems and methods for predicting locations of weather relative to an aircraft
JP7155284B2 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
García et al. Environment perception based on LIDAR sensors for real road applications
JP2016080460A (en) Moving body
CN111959482B (en) Autonomous driving device and method
KR20210011585A (en) Method and Apparatus for Tracking Vehicle Location Using Extended Kalman Filter
WO2008009966A2 (en) Determining the location of a vehicle on a map
CN106093951A (en) Object tracking methods based on array of ultrasonic sensors
KR101968327B1 (en) Apparatus and method for compensating distance of track
Scannapieco et al. Ultralight radar for small and micro-uav navigation
US8548194B1 (en) System and method for determining altitude
Cremean et al. Model-based estimation of off-highway road geometry using single-axis ladar and inertial sensing
JP6263453B2 (en) Momentum estimation device and program

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20180124

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20180219

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20180124

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20180321

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20180717

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20180720

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20180720

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20210511

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20230411

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20240418

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20250318

Start annual number: 8

End annual number: 8