KR101882483B1 - Apparatus and method for detecting obstacle by unmanned surface vessel - Google Patents
Apparatus and method for detecting obstacle by unmanned surface vessel Download PDFInfo
- Publication number
- KR101882483B1 KR101882483B1 KR1020180008905A KR20180008905A KR101882483B1 KR 101882483 B1 KR101882483 B1 KR 101882483B1 KR 1020180008905 A KR1020180008905 A KR 1020180008905A KR 20180008905 A KR20180008905 A KR 20180008905A KR 101882483 B1 KR101882483 B1 KR 101882483B1
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- data
- radar
- radius range
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 30
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 71
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000003190 augmentative effect Effects 0.000 claims 2
- 230000001502 supplementing effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000011895 specific detection Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B49/00—Arrangements of nautical instruments or navigational aids
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G01S13/9307—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B35/00—Vessels or similar floating structures specially adapted for specific purposes and not otherwise provided for
- B63B2035/006—Unmanned surface vessels, e.g. remotely controlled
- B63B2035/007—Unmanned surface vessels, e.g. remotely controlled autonomously operating
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Ocean & Marine Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 무인 수상정의 장애물 탐지 장치 및 방법에 관한 것으로서, 더욱 상세하게는 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와, 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하며 장애물을 탐지할 수 있는 무인 수상정의 장애물 탐지 장치 및 방법에 관한 것이다.More particularly, the present invention relates to an apparatus and method for detecting an obstacle in an unmanned aerial vehicle, and more particularly, to an apparatus and method for detecting obstacles in an unmanned aerial vehicle including an obstacle detection limit of a radar sensor, And more particularly, to an apparatus and method for detecting an unmanned waterborne obstacle.
최근 해양 로봇은 연구가 거듭됨에 따라 해양 탐사나 특정 임무를 수행하기 위해 목적에 따라 여러 가지 형태로 제작되어 활용되고 있다. 해양 로봇 중에서도 무인 수상 환경에서 Unmanned surface vehicle(USV)는 군사, 환경보호, 탐사 등과 같은 여러 가지 목적으로 연구 및 개발이 되고 있다. Recently, marine robots have been used in various forms according to their purpose in order to carry out marine exploration and specific missions according to the research. Among marine robots, unmanned surface vehicle (USV) has been studied and developed for various purposes such as military, environmental protection,
각 목적에 따른 임무를 수행하기 위해서는 공통적으로 자율항법을 위해서 자기 위치인식부터 경로계획, 경로추종, 장애물 회피와 같은 요소들이 필요하다. In order to carry out the mission according to each purpose, common factors such as self-location, path planning, path follow-up, and obstacle avoidance are required for autonomous navigation.
이 중에서 장애물 탐지는 안전한 자율항법을 위해 중요한 부분이다. 장애물을 인식하는 간단한 알고리즘부터, 아주 정교한 알고리즘을 탑재하여 장애물을 회피하는 방법까지 다양한 연구들이 이루어지고 있다.Of these, obstacle detection is an important part for safe autonomous navigation. Various researches have been conducted from simple algorithms to recognize obstacles to avoid obstacles with very sophisticated algorithms.
본 발명은 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하고, 레이더 센서와 라이더 센서로부터 획득된 물체 정보를 종합하여 더욱 정확한 동적 물체 추정이 가능하도록 하며, 나아가 레이더 센서와 라이더 센서의 융합을 통해 물체 이동 궤적을 예측하여 중요한 영역에서 장애물을 탐지할 수 있는 무인 수상정의 장애물 탐지 장치 및 방법을 제공하는 것을 그 목적으로 한다.The object of the present invention is to compensate for the proximity detection limit of a radar sensor for detecting obstacles in the unmanned water condition, the computation amount of the rider sensor and the data processing time limit, and integrate the object information obtained from the radar sensor and the rider sensor, And an object of the present invention is to provide an apparatus and method for detecting an obstacle in an important area by predicting an object movement trajectory through fusion of a radar sensor and a rider sensor.
상기 목적을 달성하기 위한 본 발명은 무인 수상정의 주변영역에 대해 레이더 센서를 이용하여 물체에 대한 레이더 데이터를 획득하는 단계와, 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하는 단계와, 라이다 센서를 통해 상기 한계 반경범위를 포함하는 영역에서 상기 물체에 대한 라이다 데이터를 획득하는 단계와, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 단계 및 상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 단계를 포함하는 무인 수상정의 장애물 추적방법을 개시한다.According to another aspect of the present invention, there is provided a method of detecting radar data, comprising the steps of: obtaining radar data for an object using a radar sensor with respect to an area around an unmanned aerial image; Generating a predicted locus by predicting the trajectory of the object based on the already acquired radar data; acquiring the ladder data for the object in the region including the limit radius range through the Lidar sensor; Setting the Lidar data in the predicted trajectory as valid data, and tracking an obstacle based on an analysis of the valid data.
바람직하게는 ,상기 물체에 대한 레이더 데이터를 획득하는 단계 이전에, 상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 단계를 더 포함한다.Preferably, before obtaining the radar data for the object, the limit radius range reflecting the detection limit distance of the radar sensor from the unmanned water estimation is set in accordance with the detection limit distance for the short range of the radar sensor .
바람직하게는, 상기 물체의 예측궤적을 생성하는 단계는, 상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다.Preferably, the step of generating the predicted locus of the object predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range, And generates the predicted locus based on the points.
바람직하게는, 상기 물체의 예측궤적을 생성하는 단계는, 상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내에 레이더 데이터가 검출될 확률을 계산한다.Preferably, the step of generating the predicted trajectory of the object includes applying a Kalman filter to generate the predicted trajectory, and using the velocity and the heading angle of the object, And calculates the probability that radar data will be detected.
바람직하게는, 상기 물체에 대한 레이더 데이터를 획득하는 단계 이 후, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계 및 상기 물체가 장애물로 판단된 경우에 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 단계를 더 포함한다.Preferably, after obtaining the radar data for the object, it is determined whether or not the object is an obstacle to the unattended water pres- sure according to the bow angle and the relative velocity of the object for the unattended water pres- sure, and Determining whether the object enters the limit radius range based on the assumption of the unmanned water when the object is determined to be an obstacle.
바람직하게는, 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계는, 상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단한다.Preferably, the step of determining whether the object is an obstacle to the unattended water presupposition may include determining whether or not the bow angle of the object corresponds to a predetermined direction range toward the unattended water presupposition, The obstacle is determined as an obstacle to the unmanned water presupposition.
또한, 본 발명은 무인 수상정의 주변영역에서 물체에 대한 레이더 데이터를 수집하는 레이더 센서부와, 상기 무인 수상정의 주변영역에서 상기 물체에 대한 라이다 데이터를 수집하는 라이다 센서부 및 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하고, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 분석하여 장애물을 추적하는 신호 처리부를 포함하는 무인 수상정의 장애물 추적장치를 제안한다.According to another aspect of the present invention, there is provided a radar sensor system including a radar sensor unit for collecting radar data for an object in an area around an unmanned aerial image, a lidar sensor unit for collecting radar data for the object in the area around the unmanned aerial image definition, When entering the limit radius range based on the assumption of unattended water, generating a predicted trajectory by predicting the trajectory of the object based on the already obtained radar data, analyzing the LIDAR data in the predicted trajectory, And a signal processing unit for detecting an obstacle.
바람직하게는, 상기 신호 처리부는, 상기 레이더 데이터 및 상기 라이다 데이터를 수집하는 데이터 수집부와, 상기 물체가 상기 한계 반경범위에 진입하는 경우, 상기 레이더 데이터가 상기 한계 반경범위 내에 상기 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 예측궤적을 생성하는 예측궤적 생성부와, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 유효 데이터 설정부 및 상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 장애물 탐지부를 포함한다.Preferably, the signal processing unit includes: a data collecting unit for collecting the radar data and the ladder data; and a control unit for, when the object enters the limit radial range, A predicted locus generator for predicting a point to be continuously detected and generating a predicted locus based on the points; a valid data setting unit for setting the LIDAR data in the predicted locus as effective data; And an obstacle detection unit for tracking the obstacle based on the analysis.
바람직하게는, 상기 신호 처리부는, 상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정한다.Preferably, the signal processing unit sets the limit radius range reflecting the detection limit distance of the radar sensor from the unattended water detection according to a detection limit distance for a short distance of the radar sensor.
바람직하게는, 상기 예측궤적 생성부는, 상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다.Preferably, the predicted locus generation unit predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range, and based on the points, And generates a predicted locus.
바람직하게는, 상기 예측궤적 생성부는, 상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내의 상기 포인트들에 대한 확률을 계산한다.Preferably, the predicted locus generator applies a Unscented Kalman filter to generate the predicted locus, and uses a heading angel of the object to generate the predicted locus, And calculates the probability.
바람직하게는, 상기 신호 처리부는, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하고, 상기 물체가 장애물로 판단된 경우, 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단한다.Preferably, the signal processing unit determines whether or not the object is an obstacle to the unmanned water reception according to the bow angle and the relative speed of the object with respect to the unattended water injection, and when the object is determined to be an obstacle, It is determined whether or not the object enters the limit radius range based on the unattended water estimation.
바람직하게는, 상기 신호 처리부는, 상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단한다.Preferably, the signal processing unit is configured to set the object so that when the bow angle of the object corresponds to a predetermined direction range toward the unattended water correction, and the relative speed of the object with respect to the unattended water correction exceeds a threshold value, It is judged that it is an obstacle to the unmanned water.
또한, 본 발명의 또 다른 목적을 달성하기 위하여, 본 발명은 뭉니 수상정의 장애물 추적 방법이 컴퓨터에서 수행되며, 컴퓨터에서 판독 가능한 기록 매체를 제공한다.According to another aspect of the present invention, there is provided a computer-readable recording medium on which a computer-readable recording medium is recorded.
본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치 및 방법에 따르면, 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하면서, 레이더 센서와 라이더 센서로부터 획득된 물체 정보를 종합하여 더욱 정확한 동적 물체 추정이 가능하다.According to the apparatus and method for detecting an unmanned waterborne obstacle according to the embodiment of the present invention, while compensating for the proximity detection limit of the radar sensor for detecting an obstacle in the unmanned water determination, the computation amount of the rider sensor and the data processing time limit, And the object information obtained from the rider sensor are integrated to enable more accurate dynamic object estimation.
또한, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치 및 방법에 따르면, 레이더 센서와 라이더 센서의 융합을 통해 물체 이동 궤적을 예측하여 중요한 영역에서 장애물을 탐지할 수 있다.Also, according to the apparatus and method for detecting an unmanned aerial vehicle according to an embodiment of the present invention, an obstacle can be detected in an important area by predicting an object movement trajectory through fusion of a radar sensor and a rider sensor.
도 1은 본 발명의 일 실시예에 따른 무인 수상정의 장애물 탐지 장치의 개략적인 구성을 도시하는 블록도이다.
도 2는 본 발명의 실시 예에 따라 설정된 무인 수상정 주변에 대한 레이더 센서 및 라이다 센서 별 탐지 영역을 도시한다.
도 3은 본 발명의 실시 예에 따라 예측 궤적 생성의 대상이 되는 물체의 조건 여부를 판단하기 위한 예시도이다.
도 4는 본 발명의 실시 예에 따라 예측 궤적 생성의 대상이 되는 물체에 식별번호가 부여된 일 예를 도시하는 예시도이다.
도 5는 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치가 장애물을 탐지하는 방법을 설명하기 위한 예시도이다.
도 6은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 방법을 설명하기 위한 순서도이다.
도 7은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 프로그램을 통해 물체를 추적하는 실행화면의 일예를 도시한다. 1 is a block diagram showing a schematic configuration of an apparatus for detecting an unmanned waterborne obstacle according to an embodiment of the present invention.
FIG. 2 shows a radar sensor and a Lada sensor-specific detection area for the unmanned water around the assumed water level set according to the embodiment of the present invention.
FIG. 3 is an exemplary diagram for determining whether or not an object to be predicted locus generation is conditioned according to an embodiment of the present invention.
4 is an exemplary diagram showing an example in which an identification number is assigned to an object to be predicted locus generation according to an embodiment of the present invention.
5 is a diagram for explaining a method of detecting an obstacle by the apparatus for detecting unmanned water based obstacle according to an embodiment of the present invention.
6 is a flowchart illustrating a method for detecting an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 7 shows an example of an execution screen for tracking an object through the unmanned aberration-based obstacle detection program according to the embodiment of the present invention.
첨부된 도면들을 참조하여 본 발명을 일실시예에 따라 상세히 설명한다.The present invention will be described in detail with reference to the accompanying drawings.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.
본 발명의 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라 질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다.The term used in the specification of the present invention selects the general term that is widely used in the present invention while considering the function of the present invention, but it may be changed depending on the intention or custom of the technician engaged in the field or appearance of new technology . Also, in certain cases, there may be a term chosen arbitrarily by the applicant, in which case the meaning thereof will be described in the description of the corresponding invention. Therefore, it is intended that the terminology used herein should be interpreted based on the meaning of the term rather than on the name of the term, and on the entire contents of the specification. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment.
나아가, 도면들 중 참조번호 및 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Further, although the reference numerals and the like of the drawings are denoted by the same reference numerals and signs as possible, even if they are shown in different drawings, the same reference numerals and signs are used. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
따라서 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
이하에서는, 첨부된 도면을 참조하여 무인 수상정의 장애물 탐지 장치 및 방법을 후술된 실시예들에 따라 구체적으로 설명하도록 한다. 도면에서 동일한 부호는 동일한 구성 요소를 나타낸다.Hereinafter, an apparatus and method for detecting an unmanned aerial vehicle according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. Like numbers refer to like elements throughout the drawings.
도 1은 본 발명의 일 실시예에 따른 무인 수상정의 장애물 탐지 장치의 개략적인 구성을 도시하는 블록도이다. 도 1을 참조하면, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치(100)는 레이더 센서부(110), 라이더 센서부(120) 및 신호 처리부(130)를 포함하여 구성된다. 신호 처리부(130)는 구체적으로 데이터 수집부(132), 예측궤적 생성부(134), 유효 데이터 설정부(136) 및 장애물 탐지부(138)를 포함하여 구성된다.1 is a block diagram showing a schematic configuration of an apparatus for detecting an unmanned waterborne obstacle according to an embodiment of the present invention. Referring to FIG. 1, an
레이더 센서부(110)는 무인 수상정(10)의 주변영역에서 물체(20)에 대한 레이더를 수집하여 데이터 수집부(132)로 전송한다.The radar sensor unit 110 collects the radar for the
라이더 센서부(120)는 무인 수상정(10)의 주변영역에서 물체(20)에 대한 라이다 데이터를 획득하여 데이터 수집부(132)로 전송한다. 라이더 센서부(120)는 물체(20)가 레이더 센서부(110)의 탐지 한계 거리에 근접할 경우에 신호 처리부(130)에 의해 동작하여 물체(20)에 대한 라이다 데이터를 획득한다. 이에 대한 상세한 설명은 후술하기로 한다.The
레이더 센서부(110)는 원래 15Km 정도를 탐지하는 원거리용 장치이기 때문에 탐지중인 물체가 근거리로 근접할수록 물체에 대한 정확한 탐지가 어렵게 된다. 다시 말하면, 레이더 센서부(110)의 물체에 대한 탐지 한계 거리는 50m 이내의 거리이므로, 무인 수상정(10)으로부터 50m이내로 근접하는 물체(20)에 대해서 정확한 탐지가 어려운 것으로 여겨진다.Since the radar sensor unit 110 is a remote device originally detecting about 15 km, it is difficult to accurately detect an object as the object being detected is closer to the near side. In other words, since the detection limit distance to the object of the radar sensor unit 110 is within 50 m, it is considered that accurate detection is difficult for the
이에 신호 처리부(130)는 레이더 센서부(110)의 근거리에 대한 탐지 한계 거리에 따라 무인 수상정(10)으로부터 레이더 센서부(110)의 탐지 한계 거리를 반영하는 한계 반경범위를 설정한다. The
일컨대, 한계 반경범위는 무인 수상정(10)으로부터 50m 내지 80m 이내로 설정될 수 있으나, 각 레이더 센서부(110) 및 라이다 센서부(110)의 각 기능 및 상태에 따라 본 발명의 요지를 벗어나지 않는 범위 내에서 변경 가능하다.The range of the limit radius may be set within a range of 50 m to 80 m from the unmanned
신호 처리부(130)는 먼저, 데이터 수집부(132)를 통해 레이더 센서부(110)로부터 레이더 데이터를 수집한다.The
신호 처리부(130)는 레이더 센서부(110)로부터 전자파를 발사하여 반사되는 전력량에 따라서 거리를 계산한다. 여기서 측정된 송신전력을 통해서 레이더 송수신기와 물체(20)까지의 거리를 계산할 수 있다.The
신호 처리부(130)는 상기와 같이 계산된 레이더 송신기에서 물체(20)까지의 거리를 통해서 시간에 따른 궤적을 계산하여, 동적 물체(20)와 무인 수상정(10)간의 상대속도, 방위각을 계산한다. 이러한 기술은 이미 알려진 기술 내용이므로 더 상세한 설명은 생략하기로 한다.The
도 2는 본 발명의 실시 예에 따라 설정된 무인 수상정 주변에 대한 레이더 센서 및 라이다 센서 별 탐지 영역을 도시한다. 도 2를 참조하면, 레이더 센서부(110)의 탐지 한계 거리는 무인 수상정(10)으로부터 50m 내지 80m이므로 탐지 한계 범위로 근접하는 물체(20)에 대해서 정확한 탐지가 어려운 것으로 여겨진다.FIG. 2 shows a radar sensor and a Lada sensor-specific detection area for the unmanned water around the assumed water level set according to the embodiment of the present invention. Referring to FIG. 2, since the detection limit distance of the radar sensor unit 110 is 50 to 80 meters from the
따라서, 본 발명은 무인 수상정(10)으로부터 50m ~ 1km 영역 내에서 선수각이 무인 수상정(10)을 향하고, 무인 수상정(10) 대비 상대속도가 임계치 이상인 물체(20)에 한정지어서, 물체(20)에 대해 예측되는 궤적인 예측궤적을 생성한다. 예측 궤적 생성의 대상이 되는 물체(20)로 선정되는 기본 조건은 도 3을 참조하여 설명한다.Accordingly, the present invention is limited to the
도 3은 무인 수상정(10)과 주변 영역의 물체(20) 간의 좌표계를 계산하기 위한 방법을 설명하기 위한 참고도이다. 무인 수상정(10)의 주변 환경에 있는 물체(20)가 장애물인지 판단하기 전에 먼저, 신호 처리부(130)는 도 3에 도시된 바와 같이 물체(20)의 선수각이 수상정을 향하고 있는지 판단하고, 상대속도 Vr> 0이상인지 분석한다.3 is a reference diagram for explaining a method for calculating the coordinate system between the
즉, 신호처리부(130)는 물체(20)의 선수각이 상기 무인 수상정(10)을 향하는 기설정된 방향 범위에 해당하고, 무인 수상정(10)에 대한 물체(20)의 상대속도가 임계치를 초과하는 경우 물체(20)를 무인 수상정(10)에 대한 장애물로 판단하여, 물체(20)의 예측 궤적을 생성하기로 한다.That is, the
여기서, 물체(20)에 대한 선수각은 무인 수상정(10)의 방향각을 진북 방향을 기준으로 θusv라고 했을 때 물체(20)에 대한 선수각은 θr은 레이더 센서부(110)를 이용하여 획득한 물체(20)까지의 거리(d)와 무인 수상정(10) 기준 물체(20) 간의 각도를 이용해서 계산 가능하다. 그래서 시간에 따른 (x(t), y(t)의 이동 궤적을 통해서 계산되는 헤딩각(Heading)은 진북방향을 기준으로 변환할 수 있으며, θusv와 θr의 비교를 통해서 물체(20)의 선수각이 무인 수상정(10)으로 향하고 있는지 판단이 가능하다.Here, the bow angle with respect to the
도 4에 도시된 바와 같이, 신호 처리부(130)는 예측 궤적 생성의 대상이 되는 물체의 조건을 만족하는 물체에 대해서는 고유의 식별번호를 부여하고, 이후 식별번호가 부여된 물체에 대한 이동 궤적을 예측하고, 이동 궤적을 물체에 대한 라이다 데이터와 결부시켜 물체를 추적하도록 한다. As shown in FIG. 4, the
도 5에 도시된 바와 같이, 예측 궤적 생성부(134)는 물체(20)가 상기 한계 반경범위 내에 진입함에 따라, 이미 획득된 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다.As shown in Fig. 5, the predicted locus generator 134 predicts the point at which the next radar data is successively detected based on the already obtained radar data as the
이때, 다음 레이더 데이터가 연속적으로 검출될 포인터들에 기반한 연속적인 예측궤적 생성을 위해서, 칼만 필터(Unscented Kalman filter)를 적용하고, 물체(20)의 속도와 헤딩각(heading angle)을 이용하여 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하여, 상기 포인트에 대한 확률을 계산한다. At this time, a Kalman filter (Unscented Kalman filter) is applied to generate consecutive predicted trajectories based on pointers on which the next radar data will be continuously detected, and then the velocity and the heading angle of the
한편, 신호 처리부(130)는 레이더 센서부(110)의 한계 반경범위 이내 뿐만 아니라, 탐지 한계 거리로부터 일정 범위 내에 물체(20)가 접근 시, 레이더 센서부(110)로부터 물체(20)에 대한 레이더 데이터를 정상적으로 획득하지 못하는 경우에도 라이더 센서부(120)를 구동시켜, 50~80m사이에 존재하는 물체(20)에 대한 라이다 데이터를 획득한다. The
또한, 신호 처리부(130)는 레이더 센서부(110)가 탐지 한계 거리로부터 일정 범위 내에서 물체(20)에 대한 레이더 데이터를 정상적으로 획득하지 못하는 시점에서부터 이미 획득된 레이더 데이터들을 기반으로 물체(20)에 대한 예측 궤적을 생성한다. The
또한, 레이더 센서부(110)가 무인 수상정(10)에 스테빌라이저가 없는 고정축으로 연결되어 있기에 무인 수상정(10)의 롤링(Rolling)과 피치(Pitch)에 취약하여, 파고가 높을 경우에는 원거리에 있는 물체에 대해서도 레이더 데이터를 소실하기도 하는데, 이때에도 신호 처리부(130)는 물체(20)에 대한 예측 궤적을 생성하고, 라이다 센서부(120)를 구동시킬 수 있다.In addition, since the radar sensor unit 110 is connected to the
물체(20)가 한계 반경범위로 진입함에 따라 소실되는 레이더 데이터에 대해 예상되는 연속적인 궤적 추출을 위해서 칼만 필터와 선수각을 이용하는 알고리즘의 수학식은 다음과 같다. The following equation is used for the Kalman filter and the algorithm that uses the bow angle for the continuous trajectory extraction expected for the radar data that disappears as the
[수학식 1][Equation 1]
상기 수학식 1을 통해서 k번째에서 측정값 를 통해서, 추정값 를 계산할 수 있으며, 수학식 1에는 : 칼만필터 이득값을 통해서 추정값을 계산한다. From the above equation (1), the measurement value , The estimated value , And Equation (1) : Calculate the estimate through the Kalman filter gain value.
[수학식 2]&Quot; (2) "
상기 수학식 2를 통해서 오차 공분산 계산을 하며, : 번째의 오차공분산이 된다. 이를 통해서 칼만필터 이득값을 계산하는 수학식 3이 적용 가능해진다.The error covariance calculation is performed through Equation (2) : Th error covariance. The equation (3) for calculating the Kalman filter gain value becomes applicable.
[수학식 3]&Quot; (3) "
[수학식 4]&Quot; (4) "
수학식 4와 같이 예측된 값 는 레이더 탐색 물체의 위치와 선수각이 포함되어 있으며, 수학식 1에는 ; 물체의 상대속도를 포함하여 예측정보로 갱신하게 된다.The predicted value < RTI ID = 0.0 > Includes the position and the bow angle of the radar search object, and
라이더 센서로만 무인 수상정에서 장애물을 탐지하기에는 라이다 센서의 데이터 처리 시간과 연산량이 크기 때문에, 본 발명에서는 레이더 센서로부터 검출되는 데이터 신호의 상태에 따라 라이다 센서를 선택적으로 이용함으로써, 두 센서의 장점을 이용하고 단점을 보완하며, 신속하고 정확하게 장애물을 탐지할 수 있는 효과가 있다.Since the data processing time and the computation amount of the LIDAR sensor are large in order to detect obstacles in the unmanned water under only the rider sensor, in the present invention, the LIDAR sensor is selectively used according to the state of the data signal detected from the radar sensor, Advantages are utilized, defects are compensated, and obstacles can be detected quickly and accurately.
유효 데이터 설정부(136)는 예측궤적 내에 접하는 라이다 데이터를 유효 데이터로 설정한다. 도 5를 참조하면, 레이더 데이터를 통해 생성된 물체(20)의 예측 궤적에 라이다 데이터의 포인트가 접하는 것을 알 수 있다. 이때, 예측 궤적에 접하는 라이다 데이터의 포인트들은 적어도 하나 이상일 수 있고, 이 라이다 데이터의 포인트들을 유효 데이터로 설정한다.The valid
장애물 탐지부(138)는 유효 데이터에 대한 분석에 기초하여 물체(20)를 장애물로 판단하고, 장애물의 이동을 계속적으로 추적한다. The
즉, 예측궤적과 라이다 데이터의 접점 영역에서 생성된 라이다 포인트 데이터와, 예측궤적을 관심그룹으로 설정하고, 설정된 라이다 포인트 데이터에 대한 분석에 기초하여 무인 수상정(10)을 기준으로 근거리 장애물에 대한 이동을 탐지하고 추적할 수 있다.That is, the lidar point data generated in the contact area of the predicted locus and the lidar data and the predicted locus are set as the interest group, and based on the analysis of the set lidar point data, Movements to obstacles can be detected and tracked.
한편, 신호 처리부(130)는 무인 수상정(10), 레이더 센서부(110)로부터 획득한 레이더 데이터, 라이더 센서부(120)로부터 획득한 라이더 데이터, 식별번호가 부여된 물체 데이터, 물체(20)에 대해 생성된 예측 궤적, 예측 궤적에 접하는 라이다 데이터를 디스플레이 상에 이미지로 표현할 수 있다. On the other hand, the
도 7은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 프로그램을 통해 물체를 추적하는 실행화면의 일예를 도시한다. 상기 실행화면은 추적되는 물체의 이동 방향을 화살표로 표시할 수 있고, 물체의 선수각이 무인 수상정으로 향하는 경우, 해당 물체를 하이라이트 표시하고, 물체가 한계 반경범위 내에 진입함에 따라, 이미 획득된 데이터들을 기반으로 다음 데이터가 연속적으로 검출될 예측 포인트도 표시하여 사용자가 이를 직관적으로 인지할 수 있도록 할 수 있다. FIG. 7 shows an example of an execution screen for tracking an object through the unmanned aberration-based obstacle detection program according to the embodiment of the present invention. The execution screen can display the moving direction of the object to be tracked with an arrow. When the bow angle of the object is directed toward the unmanned water elevation, the object is highlighted, and as the object enters the limit radius range, Based on the data, the prediction point to which the next data is successively detected can also be displayed so that the user can intuitively recognize the prediction point.
이와 같이 본 발명은 레이더 센서만으로는 근거리에서 탐지가 어려운 물체에 대해서 3차원 라이다 센서와 레이더 센서의 특성을 융합하여 유효 데이터를 획득함으로써, 무인 수상정의 주변 영역에서 장애물 탐지의 효율을 높인다. As described above, the present invention improves the efficiency of obstacle detection in the vicinity of the unmanned aerial vehicle by acquiring valid data by fusing the characteristics of a three-dimensional ray sensor and a radar sensor with respect to an object which is difficult to detect at a close range by a radar sensor alone.
그리고, 라이더 센서로만 무인 수상정 주변의 장애물을 탐지하기에는 라이다 센서의 데이터 처리 시간과 연산량이 크기 때문에, 본 발명에서는 레이더 센서로부터 검출되는 데이터 신호의 상태에 따라 라이다 센서를 선택적으로 이용하여, 두 센서의 장점을 이용하고 단점을 보완함으로써, 동적 장애물 추정의 정확도를 높이고, 신속하고 정확하게 장애물을 탐지할 수 있는 효과가 있다.Since the data processing time and the computation amount of the LIDAR sensor are large in order to detect the obstacle around the unmanned water only by the rider sensor, in the present invention, the LIDAR sensor is selectively used according to the state of the data signal detected from the radar sensor, By utilizing the merits of the two sensors and compensating for their disadvantages, it is possible to increase the accuracy of dynamic obstacle estimation and to detect obstacles quickly and accurately.
도 6은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 방법을 설명하기 위한 흐름도이다. 6 is a flowchart illustrating a method for detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention.
도 6을 참조하면, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 방법은 먼저, 무인 수상정의 주변 탐색 영역에 대해 레이더 센서를 이용하여 물체에 대한 레이더 데이터를 획득한다(S110). 여기서, 물체에 대한 레이더 데이터를 획득하는 단계 이전에, 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 단계를 더 포함할 수 있다.Referring to FIG. 6, in the method for detecting an unmanned aerial image according to an exemplary embodiment of the present invention, radar data for an object is acquired using a radar sensor for an area around the unmanned aerial image (S110). Here, before the step of acquiring radar data for the object, the step of setting the limit radius range reflecting the detection limit distance of the radar sensor from the unmanned water estimation in accordance with the detection limit distance for the short range of the radar sensor .
그리고, 물체에 대한 레이더 데이터를 획득하는 단계 이후, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계와, 상기 물체가 장애물로 판단된 경우에 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 단계를 더 포함할 수 있다. 구체적으로, 물체의 선수각이 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 무인 수상정에 대한 물체의 상대속도가 임계치를 초과하는 경우 물체를 상기 무인 수상정에 대한 장애물로 판단한다. 장애물로 판단된 물체에는 고유의 식별번호를 부여한다.Determining whether the object is an obstacle to the unmanned water reception in accordance with the bow angle and relative velocity of the object with respect to the unattended water presumption after obtaining the radar data for the object; Determining whether the object enters the limit radius range based on the assumption of the unmanned water when it is determined that the object is an obstacle. Specifically, when the bow angle of the object corresponds to a predetermined direction range toward the unmanned water intake, and the relative velocity of the object with respect to the unmanned water intake exceeds the threshold value, the object is determined as an obstacle to the unmanned water intake. An object identification number is assigned to an object judged to be an obstacle.
이는 무인 수상정 주변의 모든 물체를 탐지하는 것이 아니라, 무인 수상정에 대해 장애물이 되는 물체만을 선별하여 이동 궤적을 탐지하기 위함이다.This is to detect not only all objects in the vicinity of the unmanned water, but also the moving trajectory by selecting only the obstacles to the unmanned water.
다음으로, 물체가 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하고(S120), 물체가 한계 반경범위에 진입하는 것으로 판단될 경우, 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성한다(S130). 이를 위해, 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성한다. Next, it is determined whether the object enters the limit radius range based on the unmanned water estimation (S120). If it is determined that the object enters the limit radius range, the trajectory of the object is predicted based on the radar data, (S130). To this end, as the object enters the limit radius range, the next radar data is continuously predicted based on the already extracted radar data, and the predicted locus is generated based on the points.
이때, 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 이용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내에 레이더 데이터가 검출될 확률을 계산하여, 예측 궤적을 생성하는 데에 활용한다.At this time, a Kalman filter is used to generate the predicted locus, and the probability that the radar data is detected within the limit radius range is calculated using the velocity and the heading angle of the object, It is used to generate.
다음으로, 라이다 센서를 통해 한계 반경범위를 포함하는 영역에서 물체에 대한 라이다 데이터를 획득한다(S140).Next, the LIDAR data for the object is obtained in the region including the limit radius range through the LIDAR sensor (S140).
다음으로, 예측궤적 내에 접하는 라이다 데이터를 유효 데이터로 설정한다(S150). Next, the Lattice data in the predicted locus is set as valid data (S150).
일반적으로 라이다 센서를 통해 획득할 수 있는 라이다 데이터는 직각 좌표계로 표시되고, 레이더 센서를 통해 획득할 수 있는 레이더 데이터는 극 좌표계로 표시될 수 있다. 따라서, 라이다 센서와 레이더 센서를 융합하여 유효 데이터를 획득하기 위해서는 레이더 센서를 통해 획득되는 레이더 데이터를 라이다 데이터와 같이 직각 좌표계로 변환하여 표시한다. Generally, the radar data that can be acquired through the radar sensor is represented by a rectangular coordinate system, and the radar data that can be acquired through the radar sensor can be displayed in a polar coordinate system. Accordingly, in order to acquire valid data by fusing a radar sensor and a radar sensor, the radar data acquired through the radar sensor is converted into a rectangular coordinate system such as Lada data and displayed.
다음으로, 유효 데이터에 대한 분석에 기초하여 장애물을 탐지한다(S160). 즉, 예측궤적과 라이다 데이터의 접점 영역에서 생성된 라이다 포인트 데이터와, 예측궤적을 관심그룹으로 설정하고, 설정된 라이다 포인트 데이터에 대한 분석에 기초하여 근거리 장애물을 탐지하고 추적할 수 있다.Next, the obstacle is detected based on the analysis of the valid data (S160). That is, the lidar point data generated in the contact area of the predicted locus and the lidar data and the predicted locus can be set as the interest group, and the near obstacle can be detected and tracked based on the analysis of the set lidar point data.
이와 같은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치에 따르면, 무인 수상정에서 장애물을 탐지하는 레이더 센서의 근거리 탐지 한계와 라이더 센서의 연산량과 데이터 처리 시간의 한계를 서로 보완하면서, 레이더 센서와 라이더 센서로부터 획득된 물체 정보를 종합하여 더욱 정확한 동적 물체 추정이 가능하다.According to the apparatus for detecting an unmanned waterborne obstacle according to the embodiment of the present invention, while the limit of the near detection limit of the radar sensor for detecting an obstacle in the unmanned water reception, the calculation amount of the rider sensor and the data processing time are complemented, And the object information obtained from the rider sensor are integrated to enable more accurate dynamic object estimation.
또한, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 장치 및 방법에 따르면, 레이더 센서와 라이더 센서의 융합을 통해 물체 이동 궤적을 예측하여 중요한 영역에서 장애물을 탐지할 수 있다.Also, according to the apparatus and method for detecting an unmanned aerial vehicle according to an embodiment of the present invention, an obstacle can be detected in an important area by predicting an object movement trajectory through fusion of a radar sensor and a rider sensor.
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.
또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
Claims (14)
상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하는 단계;
라이다 센서를 통해 상기 한계 반경범위를 포함하는 영역에서 상기 물체에 대한 라이다 데이터를 획득하는 단계;
상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 단계; 및
상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 단계;를 포함하며,
상기 물체에 대한 레이더 데이터를 획득하는 단계 이후,
상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계; 및
상기 물체가 장애물로 판단된 경우에 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 단계를 더 포함하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.Acquiring radar data for an object using a radar sensor for an area around the unmanned aerial image;
Generating a predicted trajectory by predicting the trajectory of the object based on the already obtained radar data when the object enters the limit radius range based on the unattended water presumption;
Obtaining lidar data for the object in the region including the limit radius range through the lidar sensor;
Setting the Lattice data in the predicted trajectory as valid data; And
And tracking an obstacle based on an analysis of the valid data,
After acquiring radar data for the object,
Determining whether the object is an obstacle to the unmanned water reception according to the bow angle and the relative speed of the object with respect to the unattended water reception; And
Further comprising the step of determining whether the object enters the limit radius range based on the assumption of the unmanned water when the object is determined to be an obstacle.
상기 물체에 대한 레이더 데이터를 획득하는 단계 이전에,
상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 단계를 더 포함하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.The method according to claim 1,
Prior to acquiring radar data for the object,
Further comprising the step of setting the limit radius range reflecting the detection limit distance of the radar sensor from the unattended water presumption according to a detection limit distance for a short distance of the radar sensor.
상기 물체의 예측궤적을 생성하는 단계는,
상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.3. The method of claim 2,
Wherein the step of generating the predicted locus of the object comprises:
Predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range and generates the predicted locus based on the points. How to Track a Defined Obstacle.
상기 물체의 예측궤적을 생성하는 단계는,
상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내에 레이더 데이터가 검출될 확률을 계산하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.The method of claim 3,
Wherein the step of generating the predicted locus of the object comprises:
Wherein a probability of detecting radar data within the limit radius range is calculated by applying a Kalman filter to generate the predicted trajectory and using a heading angel of the object and a velocity of the object. How to Track a Defined Obstacle.
상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하는 단계는,
상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단하는 것을 특징으로 하는 무인 수상정의 장애물 추적방법.The method according to claim 1,
Wherein the step of determining whether the object is an obstacle to the unattended water presumption comprises:
When the bow angle of the object corresponds to a predetermined direction range toward the unattended water presupposition and the relative speed of the object with respect to the unattended water presupposition exceeds the threshold value, the object is determined to be an obstacle to the unattended water presupposition Wherein the method further comprises the steps of:
상기 무인 수상정의 주변영역에서 상기 물체에 대한 라이다 데이터를 수집하는 라이다 센서부; 및
상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는 경우, 이미 획득된 레이더 데이터를 기반으로 상기 물체의 궤적을 예측하여 예측궤적을 생성하고, 상기 예측궤적 내에 접하는 상기 라이다 데이터를 분석하여 장애물을 추적하는 신호 처리부;를 포함하며,
상기 신호 처리부는, 상기 무인 수상정에 대한 상기 물체의 선수각 및 상대속도에 따라 상기 물체가 상기 무인 수상정에 대한 장애물인지 여부를 판단하고,
상기 물체가 장애물로 판단된 경우, 상기 물체가 상기 무인 수상정을 기준으로 한계 반경범위에 진입하는지 판단하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.A radar sensor unit for collecting radar data for an object in an area around the unmanned aerial image;
A lidar sensor unit for collecting lidar data for the object in the area around the unmanned aerial image; And
When the object enters the limit radius range based on the unattended water estimation, generates a predicted trajectory by predicting the trajectory of the object based on the already obtained radar data, and analyzes the LR data in the predicted trajectory And a signal processing unit for tracking an obstacle,
Wherein the signal processing unit determines whether the object is an obstacle to the unmanned water reception according to the bow angle and the relative speed of the object with respect to the unattended water reception,
Wherein if the object is determined to be an obstacle, it is determined whether the object enters the limit radius range based on the assumption of the unmanned water.
상기 신호 처리부는,
상기 레이더 데이터 및 상기 라이다 데이터를 수집하는 데이터 수집부;
상기 물체가 상기 한계 반경범위에 진입하는 경우, 상기 레이더 데이터가 상기 한계 반경범위 내에 상기 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 예측궤적을 생성하는 예측궤적 생성부;
상기 예측궤적 내에 접하는 상기 라이다 데이터를 유효 데이터로 설정하는 유효 데이터 설정부; 및
상기 유효 데이터에 대한 분석에 기초하여 장애물을 추적하는 장애물 탐지부;를 포함하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치. 9. The method of claim 8,
The signal processing unit,
A data collecting unit collecting the radar data and the ladder data;
A predicted locus generator for predicting a point at which the radar data is continuously detected within the limit radius range when the object enters the limit radius range and generating a predicted locus based on the points;
A valid data setting unit for setting the Lattice data in the predicted locus as effective data; And
And an obstacle detection unit for tracking an obstacle based on the analysis of the valid data.
상기 신호 처리부는,
상기 레이더 센서의 근거리에 대한 탐지 한계 거리에 따라 상기 무인 수상정으로부터 상기 레이더 센서의 탐지 한계 거리를 반영하는 상기 한계 반경범위를 설정하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치. 9. The method of claim 8,
The signal processing unit,
Wherein the limit radius range reflecting the detection limit distance of the radar sensor is set based on the detection limit distance for the short range of the radar sensor.
상기 예측궤적 생성부는,
상기 물체가 상기 한계 반경범위 내에 진입함에 따라, 이미 추출된 상기 레이더 데이터들을 기반으로 다음 레이더 데이터가 연속적으로 검출될 포인트를 예측하고, 상기 포인트들을 기반으로 상기 예측궤적을 생성하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.10. The method of claim 9,
Wherein the predicted locus generator comprises:
Predicts a point at which the next radar data will be successively detected based on the already extracted radar data as the object enters the limit radius range and generates the predicted locus based on the points. An augmented obstacle tracking device.
상기 예측궤적 생성부는,
상기 예측궤적 생성을 위해서 칼만 필터(Unscented Kalmen filter)를 적용하고, 상기 물체의 속도와 헤딩각(heading angel)을 이용하여 상기 한계 반경범위 내의 상기 포인트들에 대한 확률을 계산하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.12. The method of claim 11,
Wherein the predicted locus generator comprises:
Applying a Kalman filter to generate the predicted trajectory and calculating a probability for the points within the limit radius range using a velocity and a heading angle of the object. An augmented obstacle tracking device.
상기 신호 처리부는,
상기 물체의 선수각이 상기 무인 수상정을 향하는 기설정된 방향 범위에 해당하고, 상기 무인 수상정에 대한 상기 물체의 상대속도가 임계치를 초과하는 경우 상기 물체를 상기 무인 수상정에 대한 장애물로 판단하는 것을 특징으로 하는 무인 수상정의 장애물 추적 장치.9. The method of claim 8,
The signal processing unit,
When the bow angle of the object corresponds to a predetermined direction range toward the unattended water presupposition and the relative speed of the object with respect to the unattended water assumption exceeds a threshold value, the object is determined to be an obstacle to the unattended water guidance Wherein the obstacle tracking device is an unmanned aerial vehicle.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180008905A KR101882483B1 (en) | 2018-01-24 | 2018-01-24 | Apparatus and method for detecting obstacle by unmanned surface vessel |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180008905A KR101882483B1 (en) | 2018-01-24 | 2018-01-24 | Apparatus and method for detecting obstacle by unmanned surface vessel |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR101882483B1 true KR101882483B1 (en) | 2018-07-27 |
Family
ID=63078378
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020180008905A Active KR101882483B1 (en) | 2018-01-24 | 2018-01-24 | Apparatus and method for detecting obstacle by unmanned surface vessel |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101882483B1 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110736982A (en) * | 2019-10-28 | 2020-01-31 | 江苏集萃智能传感技术研究所有限公司 | Underground parking lot vehicle tracking method and device based on radar monitoring |
| KR102076775B1 (en) * | 2019-06-14 | 2020-02-12 | 주식회사 한국건설방재연구원 | Unmanned Air Boat for Safety Inspection of Sub-Bottom of Landing Pier and Inside of Medium-Large Sized Culvert |
| CN112099494A (en) * | 2020-09-02 | 2020-12-18 | 西安交通大学 | A kind of all-terrain vehicle and its automatic detection of stairs and climbing method |
| KR20210044673A (en) * | 2019-10-15 | 2021-04-23 | 한국조선해양 주식회사 | support system for vessel operation and ship having the same |
| CN112946674A (en) * | 2021-02-01 | 2021-06-11 | 浙江华消科技有限公司 | Method for detecting underwater deep hole and water rescue robot |
| CN114994705A (en) * | 2022-05-16 | 2022-09-02 | 杭州电子科技大学 | Unmanned ship obstacle avoidance method based on laser radar angle correction |
| KR102455565B1 (en) * | 2021-11-29 | 2022-10-17 | 한국해양과학기술원 | System and method for multi-image-based vessel proximity situation recognition support |
| CN119625337A (en) * | 2024-10-28 | 2025-03-14 | 宜昌测试技术研究所 | A method and system for joint perception of multi-information of unmanned surface vessels |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010503908A (en) * | 2006-09-13 | 2010-02-04 | マリン・アンド・リモート・センシング・ソリューションズ・(エムエーアールエスエス) | Steering and safety systems for vehicles or equipment |
| KR20140004430A (en) * | 2012-07-02 | 2014-01-13 | 한국해양과학기술원 | Radar apparatus for marine, monitoring system of ship and method using the same |
| JP2014025925A (en) * | 2012-07-24 | 2014-02-06 | Toyota Motor Engineering & Manufacturing North America Inc | Vehicle controller and vehicle system |
| KR101514407B1 (en) | 2014-03-07 | 2015-04-23 | 한국해양과학기술원 | Real time sea observation system |
| KR101784611B1 (en) * | 2016-06-09 | 2017-11-06 | 재단법인대구경북과학기술원 | A human detecting apparatus and method using a lidar sensor and a radar sensor |
-
2018
- 2018-01-24 KR KR1020180008905A patent/KR101882483B1/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010503908A (en) * | 2006-09-13 | 2010-02-04 | マリン・アンド・リモート・センシング・ソリューションズ・(エムエーアールエスエス) | Steering and safety systems for vehicles or equipment |
| KR20140004430A (en) * | 2012-07-02 | 2014-01-13 | 한국해양과학기술원 | Radar apparatus for marine, monitoring system of ship and method using the same |
| JP2014025925A (en) * | 2012-07-24 | 2014-02-06 | Toyota Motor Engineering & Manufacturing North America Inc | Vehicle controller and vehicle system |
| KR101514407B1 (en) | 2014-03-07 | 2015-04-23 | 한국해양과학기술원 | Real time sea observation system |
| KR101784611B1 (en) * | 2016-06-09 | 2017-11-06 | 재단법인대구경북과학기술원 | A human detecting apparatus and method using a lidar sensor and a radar sensor |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102076775B1 (en) * | 2019-06-14 | 2020-02-12 | 주식회사 한국건설방재연구원 | Unmanned Air Boat for Safety Inspection of Sub-Bottom of Landing Pier and Inside of Medium-Large Sized Culvert |
| KR20210044673A (en) * | 2019-10-15 | 2021-04-23 | 한국조선해양 주식회사 | support system for vessel operation and ship having the same |
| KR102269383B1 (en) * | 2019-10-15 | 2021-06-25 | 한국조선해양 주식회사 | support system for vessel operation and ship having the same |
| CN110736982A (en) * | 2019-10-28 | 2020-01-31 | 江苏集萃智能传感技术研究所有限公司 | Underground parking lot vehicle tracking method and device based on radar monitoring |
| CN112099494A (en) * | 2020-09-02 | 2020-12-18 | 西安交通大学 | A kind of all-terrain vehicle and its automatic detection of stairs and climbing method |
| CN112946674A (en) * | 2021-02-01 | 2021-06-11 | 浙江华消科技有限公司 | Method for detecting underwater deep hole and water rescue robot |
| CN112946674B (en) * | 2021-02-01 | 2024-05-10 | 浙江华消科技有限公司 | Method for detecting underwater deep hole and water rescue robot |
| KR102455565B1 (en) * | 2021-11-29 | 2022-10-17 | 한국해양과학기술원 | System and method for multi-image-based vessel proximity situation recognition support |
| CN114994705A (en) * | 2022-05-16 | 2022-09-02 | 杭州电子科技大学 | Unmanned ship obstacle avoidance method based on laser radar angle correction |
| CN119625337A (en) * | 2024-10-28 | 2025-03-14 | 宜昌测试技术研究所 | A method and system for joint perception of multi-information of unmanned surface vessels |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101882483B1 (en) | Apparatus and method for detecting obstacle by unmanned surface vessel | |
| US7463340B2 (en) | Ladar-based motion estimation for navigation | |
| CN111352110B (en) | Method and device for processing radar data | |
| Adolfsson et al. | Cfear radarodometry-conservative filtering for efficient and accurate radar odometry | |
| US12005907B2 (en) | Method for determining position data and/or motion data of a vehicle | |
| CN111316127A (en) | Target track determining method, target tracking system and vehicle | |
| JP4343536B2 (en) | Car sensing device | |
| KR102151814B1 (en) | Method and Apparatus for Vehicle Detection Using Ladar Sensor and Camera | |
| KR102456151B1 (en) | Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles | |
| Adams et al. | Robotic navigation and mapping with radar | |
| RU2720140C1 (en) | Method for self-position estimation and self-position estimation device | |
| US20150336575A1 (en) | Collision avoidance with static targets in narrow spaces | |
| US8319679B2 (en) | Systems and methods for predicting locations of weather relative to an aircraft | |
| JP7155284B2 (en) | Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium | |
| García et al. | Environment perception based on LIDAR sensors for real road applications | |
| JP2016080460A (en) | Moving body | |
| CN111959482B (en) | Autonomous driving device and method | |
| KR20210011585A (en) | Method and Apparatus for Tracking Vehicle Location Using Extended Kalman Filter | |
| WO2008009966A2 (en) | Determining the location of a vehicle on a map | |
| CN106093951A (en) | Object tracking methods based on array of ultrasonic sensors | |
| KR101968327B1 (en) | Apparatus and method for compensating distance of track | |
| Scannapieco et al. | Ultralight radar for small and micro-uav navigation | |
| US8548194B1 (en) | System and method for determining altitude | |
| Cremean et al. | Model-based estimation of off-highway road geometry using single-axis ladar and inertial sensing | |
| JP6263453B2 (en) | Momentum estimation device and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20180124 |
|
| PA0201 | Request for examination | ||
| PA0302 | Request for accelerated examination |
Patent event date: 20180219 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20180124 Patent event code: PA03021R01I Comment text: Patent Application |
|
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20180321 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20180717 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20180720 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20180720 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee |
Payment date: 20210511 Start annual number: 4 End annual number: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20230411 Start annual number: 6 End annual number: 6 |
|
| PR1001 | Payment of annual fee |
Payment date: 20240418 Start annual number: 7 End annual number: 7 |
|
| PR1001 | Payment of annual fee |
Payment date: 20250318 Start annual number: 8 End annual number: 8 |