KR100901311B1 - Autonomous platform - Google Patents
Autonomous platform Download PDFInfo
- Publication number
- KR100901311B1 KR100901311B1 KR1020090021824A KR20090021824A KR100901311B1 KR 100901311 B1 KR100901311 B1 KR 100901311B1 KR 1020090021824 A KR1020090021824 A KR 1020090021824A KR 20090021824 A KR20090021824 A KR 20090021824A KR 100901311 B1 KR100901311 B1 KR 100901311B1
- Authority
- KR
- South Korea
- Prior art keywords
- laser scanner
- information
- main body
- scanner
- distance
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 3
- 230000001678 irradiating effect Effects 0.000 claims description 3
- 238000011161 development Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 지면을 이동할 수 있도록 바퀴를 구비하는 본체와; 상기 본체 전방의 일정 거리까지 스캐닝하여 제1정보를 생성하는 제1스캐너와; 상기 본체의 전방 영상을 촬영하여 제2정보를 생성하기 위한 카메라와; 상기 제1스캐너와 카메라가 장착되며, 상기 제1스캐너와 카메라의 지향 방향을 조절할 수 있도록 상기 제1스캐너와 카메라를 회전 구동시키는 마운트; 및 상기 제1 및 제2정보를 근거로 상기 본체의 자율 이동을 제어하는 제어부를 포함하는 자율이동 플랫폼을 개시한다.The present invention and the main body having a wheel to move the ground; A first scanner configured to generate first information by scanning to a predetermined distance in front of the main body; A camera for photographing the front image of the main body to generate second information; A mount configured to mount the first scanner and the camera and to rotate the first scanner and the camera so as to adjust a direction in which the first scanner and the camera are directed; And a controller for controlling autonomous movement of the main body based on the first and second information.
Description
본 발명은 복수의 센서들을 이용하여 스스로 주변 상황을 인식하고 판단하여 이동할 수 있는 자율이동 플랫폼 및 이의 이동 제어방법에 관한 것이다.The present invention relates to an autonomous platform and a movement control method thereof that can recognize and determine the surrounding situation by itself using a plurality of sensors.
첨단 과학기술의 개발 및 발전으로 인해 다양한 기술들이 군사용 분야에 적용되고 있으며, 특히, 센서 및 컴퓨터 하드웨어의 발전은 전투체계의 무인화를 가능하게 만들고 있다. Due to the development and development of advanced science and technology, various technologies have been applied to the military field, and in particular, the development of sensors and computer hardware makes the combat system unmanned.
선진국에서는 이미 군사용 로봇에 대한 개발에 큰 관심을 가지고 있으며, 특히 미국은 미래전투체계(Future Combat System)에 무인차량을 배치하기 위해서 국방분야의 무인화에 대한 연구를 진행하고 있다. 국내에서도 무인 차량에 대한 연구가 활발하게 진행되고 있으며 국방분야에서도 다양한 무인체계에 대한 개발이 진행 중에 있다. Developed countries already have great interest in the development of military robots, and the United States, in particular, is conducting research on the unmanned military sector in order to deploy unmanned vehicles in the Future Combat System. Unmanned vehicles are being actively researched in Korea, and various unmanned systems are being developed in the defense sector.
무인화 분야에서의 기술개발 방향을 살펴보면 감시정찰 및 타격, 지휘통제, 폭발물 탐지/제거 등의 임무 기능을 무인 차량, 즉 자율이동 플랫폼이 수행하게 되며, 개별 플랫폼의 체계는 광대역 통신망으로 연동되어 다수의 플랫폼이 가시선/비 가시선 환경에서 체계적인 임무 수행이 가능하게 된다.When looking at the direction of technology development in the unmanned field, unmanned vehicles, or autonomous mobile platforms, perform mission functions such as surveillance, reconnaissance, hitting, command control, and explosive detection / removal. Platforms will be able to perform systematic tasks in the line of sight / non-visible environment.
자율이동이라 함은 인간의 개입 없이 사람의 두뇌 역할을 하는 컴퓨터와 눈의 역할을 센서들을 이용하여 스스로 주변 상황을 인식하고 판단하여 이동하는 것을 의미한다. 이러한 자율이동이 가능하게 하려면 무엇보다 자율이동 플랫폼의 이동 경로의 지형과 상황을 인식할 수 있는 정확한 감지 수단이 필요하다. 이러한 감지 수단으로서 여러 가지 종류의 센서들이 사용되고 있으며, 자율 이동을 최적화시킬 수 있는 센서들의 채택, 조합, 및 배치 등에 대한 다양한 연구가 이루어지고 있다.Autonomous movement refers to the movement of the computer and the eyes, which act as the human brain and humans, using sensors to recognize and judge the surrounding environment without human intervention. In order to enable such autonomous movement, an accurate sensing means capable of recognizing the terrain and the situation of the movement path of the autonomous platform is needed. Various kinds of sensors are used as the sensing means, and various studies have been made on the adoption, combination, and placement of sensors capable of optimizing autonomous movement.
본 발명은 서로 다른 특성을 가진 센서들을 가능한 적은 수로 배치하여 최적의 3차원 공간 모델링이 가능한 자율이동 플랫폼을 제공함과 아울러, 3차원 공간 모델링을 기초로 자율이동 플랫폼의 이동을 효율적으로 제어하기 위한 제어방법을 제공하기 위한 것이다.The present invention provides an autonomous platform capable of optimal 3D space modeling by arranging as few sensors with different characteristics as possible, and also controls to efficiently control movement of the autonomous platform based on 3D space modeling. It is to provide a method.
상기와 같은 목적을 달성하기 위하여 본 발명은 지면을 이동할 수 있도록 바퀴를 구비하는 본체와; 상기 본체 전방의 일정 거리까지 스캐닝하여 제1정보를 생성하는 제1스캐너와; 상기 본체의 전방 영상을 촬영하여 제2정보를 생성하기 위한 카메라와; 상기 제1스캐너와 카메라가 장착되며, 상기 제1스캐너와 카메라의 지향 방향을 조절할 수 있도록 상기 제1스캐너와 카메라를 회전 구동시키는 마운트; 및 상기 제1 및 제2정보를 근거로 상기 본체의 자율 이동을 제어하는 제어부를 포함하는 자율이동 플랫폼을 개시한다.In order to achieve the above object, the present invention includes a main body having a wheel to move the ground; A first scanner configured to generate first information by scanning to a predetermined distance in front of the main body; A camera for photographing the front image of the main body to generate second information; A mount configured to mount the first scanner and the camera and to rotate the first scanner and the camera so as to adjust a direction in which the first scanner and the camera are directed; And a controller for controlling autonomous movement of the main body based on the first and second information.
상기 제1스캐너는 본체 전방을 향하여 레이저 빔을 조사하는 2D 레이저 스캐너이며, 상기 제1정보는 상기 레이저 빔이 도달하는 대상까지의 거리 정보를 포함할 수 있다.The first scanner is a 2D laser scanner for irradiating a laser beam toward the front of the main body, and the first information may include distance information to a target that the laser beam reaches.
상기 카메라는 제1 및 제2촬영부를 구비하는 스테레오 카메라이며, 상기 제2정보는 스테레오 매칭을 통해 대상의 촬영대상의 위치 정보를 추정할 수 있도록 동일 촬영대상에 대하여 상기 제1 및 제2촬영부가 각각 촬영한 한 쌍의 영상 정보일 수 있다.The camera is a stereo camera having a first and a second recording unit, wherein the second information is the first and second recording unit for the same object to be estimated so as to estimate the position information of the object to be photographed through stereo matching Each photographed pair may be image information.
상기 제어부는 상기 제1 및 제2정보를 융합하여 3차원의 월드 모델을 생성하는 월드 모델링부; 및 상기 월드 모델을 근거로 상기 본체의 자율 이동에 대한 경로 계획을 형성하는 경로계획 생성부를 포함할 수 있다.The control unit comprises a world modeling unit for generating a three-dimensional world model by fusing the first and second information; And it may include a route plan generation unit for forming a route plan for the autonomous movement of the main body based on the world model.
상기 본체에는 지면과 평행한 방향으로 전방을 스캐닝하여 제3정보를 생성하는 제2스캐너가 추가적으로 구비될 수 있다. 또한, 상기 본체에는 상기 제1스캐너의 스캐닝 거리보다 원거리까지 스캐닝하여 제4정보를 생성하는 제3스캐너가 추가적으로 구비될 수 있다.The main body may further include a second scanner that scans the front in a direction parallel to the ground to generate third information. The main body may further include a third scanner that generates fourth information by scanning farther than the scanning distance of the first scanner.
한편, 본 발명은 자율이동 플랫폼으로부터 일정 거리까지 스캐닝하여 제1정보를 생성하고, 상기 자율이동 플랫폼의 전방 영상을 촬영하여 제2정보를 생성하는 단계와; 상기 제1 및 제2정보를 융합하여 3차원의 월드 모델을 생성하는 단계와; 상기 월드 모델을 근거로 상기 자율이동 플랫폼의 자율이동에 대한 경로 계획을 생성하는 단계; 및 상기 경로 계획에 따라 상기 자율이동 플랫폼의 자율이동을 제어하는 단계를 포함하는 자율이동 플랫폼의 이동 제어방법을 개시한다.On the other hand, the present invention includes the steps of generating a first information by scanning a distance from the autonomous platform, and generating a second information by photographing the front image of the autonomous platform; Fusing the first and second information to generate a three-dimensional world model; Generating a route plan for autonomous movement of the autonomous platform based on the world model; And controlling the autonomous movement of the autonomous platform in accordance with the route plan.
상기 월드 모델의 생성단계는 상기 제1 및 제2정보에 항법 센서에 의해 획득된 위치 정보를 결합하여 포인트 분포 지도를 생성하는 단계와; 상기 포인트 분포 지도의 포인트들을 연결하여 복수의 그리드로 표현하는 단계를 포함할 수 있다.The generating of the world model may include: generating a point distribution map by combining position information obtained by the navigation sensor with the first and second information; And connecting the points of the point distribution map to represent a plurality of grids.
상기 경로 계획은 3D 레이저 스캐너에 의해 획득된 정보를 근거로 생성되는 원거리 경로 계획과, 상기 제1 및 제2정보를 근거로 생성되는 근거리 경로 계획을 포함할 수 있다.The path plan may include a far path plan generated based on information obtained by the 3D laser scanner, and a near path plan generated based on the first and second information.
본 발명은 제1스캐너와 카메라를 동일 마운트에 장착시키고, 제1스캐너와 카메라를 회전 구동시켜 적은 수의 센서로도 많은 갯수의 센서를 적용한 것과 같은 효과를 발휘하며, 이를 기초로 최적의 공간 모델링이 가능한 자율이동 플랫폼을 제공한다.According to the present invention, the first scanner and the camera are mounted on the same mount, and the first scanner and the camera are rotated to achieve the same effect as applying a large number of sensors with a small number of sensors. This provides a viable autonomous platform.
또한, 본 발명은 자율 이동 플랫폼이 야지 및 험지를 신속하게 이동할 때 갑자기 출현하는 이동 장애물을 신속하게 회피할 수 있도록 사각지역 없이 자율 이동 플랫폼 전방의 전 영역을 센싱할 수 있는 센서의 배치 구조를 제공한다.In addition, the present invention provides an arrangement structure of the sensor that can sense the entire area in front of the autonomous mobile platform without blind spots so that the autonomous mobile platform can quickly avoid moving obstacles that suddenly appear when moving quickly to the field and rough terrain. do.
또한, 본 발명은 센서들로부터 획득한 데이터를 근거로 월드 모델을 생성하고 이를 기초로 한 경로 계획에 따라 자율이동 플랫폼의 이동을 제어하는 효율적인 자율이동 플랫폼의 제어방법을 제공한다.In addition, the present invention provides an efficient method for controlling an autonomous mobile platform for generating a world model based on the data obtained from the sensors and controlling the movement of the autonomous mobile platform according to a route plan based on the same.
이하, 본 발명과 관련된 자율이동 플랫폼 및 이의 이동 제어방법에 대하여 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, the autonomous platform and the movement control method thereof according to the present invention will be described in more detail with reference to the accompanying drawings.
도 1 및 도 2는 본 발명의 일실시예와 관련된 자율이동 플랫폼의 사시도와 정면도이다.1 and 2 are a perspective view and a front view of the autonomous platform according to an embodiment of the present invention.
본 발명과 관련된 자율이동 플랫폼은 본체(110), 제1스캐너(120), 카메라(130), 및 마운트(140), 및 제어부(150, 도 5 참조)를 포함한다.The autonomous platform associated with the present invention includes a
본체(110)는 자율이동 플랫폼이 지면을 이동할 수 있도록 복수의 바퀴(111)들을 구비한다. 바퀴(111)들은 자율이동 플랫폼이 야지 및 험지에서 주행할 수 있 도록 본체(110)에 회전 가능하게 연결된 암에 연결될 수 있다.The
본체(110)에는 자율이동 플랫폼의 자율 이동을 제어하는 제어부(150)와, 무선통신을 위한 무선통신모듈 등이 전자부품의 형태로 내장된다.The
제1스캐너(120)는 본체 전방의 일정 거리까지 스캐닝하여 제1정보를 생성한다. 제1스캐너(120)는 본체(110)의 전방을 향하여 레이저 빔을 조사하여 대상 물체로부터 반사된 레이저를 수광하는 2D 레이저 스캐너의 형태로 구현될 수 있다. 이러한 경우, 제1정보는 레이저빔이 도달하는 대상까지의 거리 정보의 형태를 갖는다. The
본 실시예에 적용된 2D 레이저 스캐너는 전방 200m 거리까지의 대상물체와의 거리를 2차원의 정보로 나타낸다. 2D 레이저 스캐너의 장착 위치가 본체의 폭 방향으로 중앙인 경우, 수직 방향으로 0.8° 각도의 4개의 주사선이 동일하게 전방을 지향하여 대상 물체와의 거리 데이터를 획득한다.The 2D laser scanner applied to the present embodiment shows the distance from the object to the front 200m distance in two-dimensional information. When the mounting position of the 2D laser scanner is centered in the width direction of the main body, four scanning lines at an angle of 0.8 ° in the vertical direction are equally forward to obtain distance data with the target object.
카메라(130)는 본체(110)의 전방 영상을 촬영하여 제2정보를 생성하기 위한 것이다. 카메라(130)는 복수의 CCD 카메라들이 하나의 마운트에 고정된 형태를 갖는 스테레오 카메라의 형태를 가질 수 있다.The
본 실시예에 의한 카메라(130)는 제1 및 제2촬영부(131,132)를 구비하는 스테레오 카메라의 형태로 구현될 수 있다. 이러한 경우, 제2정보는 동일 촬영 대상에 대하여 제1 및 제2촬영부(131,132)가 각각 촬영한 한 쌍의 영상 정보일 수 있으며, 이러한 영상 정보는 스테레오 매칭을 통해 대상의 촬영대상의 위치 정보를 추정하는데 사용된다. The
스테레오 카메라는 획득된 좌,우 영상들의 변이를 추정하고 삼각법을 통해서 본체(110)와 대상 물체와의 거리 및 지형정보의 3차원 거리 데이터를 측정할 수 있다. 이러한 3차원 거리데이터를 지면 기준으로 투영하게 되면 지형의 고도맵이 생성되며, 이러한 고도맵은 제1스캐너(120)의 2차원 데이터(제1정보)와 융합되어 전방의 3차원 공간 모델링에 사용된다.The stereo camera may estimate the disparity of the acquired left and right images, and measure the distance between the
마운트(140)는 제1스캐너(120)와 카메라(130)를 함께 안착시키기 위한 구조로서, 본체(110)의 전면에 고정된다. 마운트(140)에는 제1스캐너(120)와 카메라(130)의 지향 방향을 조절할 수 있도록 제1스캐너(120)와 카메라(130)가 회전 가능하게 장착된다. 본 실시예에 의하면 제1 및 제2촬영부(131,132)가 제1스캐너(120)의 양단에 위치한다.The
도 3 및 도 4는 제1스캐너와 카메라의 센싱 범위를 나타내는 개념도이다.3 and 4 are conceptual diagrams illustrating sensing ranges of a first scanner and a camera.
마운트(140)는 여러가지 상황, 예를 들어 자율이동 플랫폼의 임무 목적, 이동중인지의 여부, 주행환경 등에 따라 제1스캐너(120)와 카메라(130)의 회전 방향 및 속도가 조절할 수 있도록 구성될 수 있다.The
본 실시예에 적용된 마운트(140)는 제1스캐너(120)와 카메라(130)를 수평방향에서 아래 방향으로 -30°, 그리고, 위 방향으로 +10°까지 회전 구동시킬 수 있도록 구성된다.The
마운트(140)는 상기와 같은 회전 범위 내에서 제1스캐너(120)와 카메라(130)를 반복적으로 회전 구동시킬 수 있다. 마운트(140)는 이와 같이 제1스캐너(120)와 카메라(130)의 지향 방향을 조절함으로써 일정 구간의 범위 내에 있는 대상물의 거 리 데이터를 획득할 수 있다. 여기서, 제1스캐너(120)와 카메라(130)의 회전 속도는 본체(110)의 이동 속도에 따라 조절될 수 있다. 예를 들어, 마운트는 본체의 이동 속도에 비례하여 제1스캐너(120)와 카메라(130)의 회전 속도를 증가시킬 수 있다.The
또한, 본체(110)가 험지를 이동하면서 경사로를 오르거나 내려갈 때 본체(110)의 전면이 들리거나 내려가 제1스캐너(120)와 카메라(130)의 지향 방향이 허공을 향하게 되는 경우, 마운트(140)는 지면의 기울기에 따라 제1스캐너(120)와 카메라(130)의 지향 방향을 조절할 수 있다.In addition, when the
본 실시예에 의하면, 마운트(140)가 제1스캐너(120)와 카메라(130)를 본체(110)의 상하 방향으로 구동시키는 것을 예시하고 있으나, 마운트(140)는 제1스캐너(120)와 카메라(130)를 상하 방향뿐만 아니라 본체(110)의 좌우 방향으로 구동시키도록 구성되는 것도 가능하다. According to the present exemplary embodiment, the
예를 들어, 자율이동 플랫폼은 본체(110)에 장착된 항법센서로부터 위치 데이터를 수신 받는데, 항법 센서의 고장 및 음영지역 등으로 자신의 위치 데이터를 잃었을 경우 순수하게 Dead-reckoning(몇 개의 다른 저가의 보조센서와 필터 등을 이용해서 시작점의 위치정보를 추정하는 추측항법)으로만 자신의 위치를 찾아 이동해야 하는 경우가 있다. For example, the autonomous platform receives position data from the navigation sensor mounted on the
이러할 경우, 자율이동 플랫폼은 자신의 위치를 찾기 위해서 기 저장된 영상 DB(사전 주행을 통해 위치 데이터와 영상 특징 정보가 함께 저장됨)와 좌우로 스캔된 영상 데이터에서 추출된 특징점을 기준으로 검색하여 현재 자신의 위치를 찾게 되는데, 이때 마운트(140)를 선택적으로 좌우로 구동하여 주변 영상정보를 최대한 획득함으로써 검색의 성공 가능성을 높일 수 있다.In this case, the autonomous platform is searched based on the pre-stored image DB (the location data and the image feature information are stored together through pre-driving) and the feature points extracted from the left and right scanned image data to find its location. It finds its own position, and in this case, the
이와 같이, 마운트(140)의 구동에 의하여 다수의 센서를 배치한 것과 같은 센서 운용이 가능하다.In this way, the sensor can be operated such that a plurality of sensors are arranged by driving the
제어부(150)는 제1스캐너(120)와 카메라(130)에 의해 생성된 제1 및 제2정보를 근거로 본체(110)의 자율 이동을 제어한다. 제어부(150)는 제1스캐너(120)와 카메라(130)가 생성한 거리 데이터들에 본체(110)에 장착된 항법 센서로부터 제공된 고도 값을 결합하여 3차원 데이터를 생성한다. 제어부(150)는 이러한 3차원 데이터를 근거로 자율이동 플랫폼이 이동을 제어하게 된다. 자율이동 플랫폼의 이동을 제어하는 상세한 과정에 대해서는 후술하기로 한다.The
한편, 본체(110)에는 지면과 평행한 방향으로 전방을 스캐닝하여 제3정보를 생성하는 제2스캐너(160)가 추가적으로 장착될 수 있다. 본 실시예와 같이 마운트(140)가 본체(110)의 상부에 위치하는 경우, 제1스캐너(120)의 센싱범위는 본체의 수평 방향을 기준으로 상하 방향으로 일정 각도 범위 내에 있게 된다. 이에 따라 도 3과 같이 본체(110)의 하부 주변에는 제1스캐너(120)의 센싱 범위를 벗어나는 사각 지역이 발생하게 된다. 따라서, 제2스캐너(160)는 본체(110)의 마운트(140)의 장착 위치에서 하측 방향으로 일정 간격만큼 이격된 위치에 추가적으로 장착되어, 이러한 사각지역에 있는 대상물의 거리 정보를 측정한다.On the other hand, the
제2스캐너(160)로서 제1스캐너(120)와 마찬가지로 2D 레이저 스캐너가 사용될 수 있으며, 제3정보는 지면과 평행한 방향에 위치한 지형 및 장애물 등에 관한 거리 정보일 수 있다. Like the
제2스캐너(160)는 지면을 기준으로 수평 방향을 지향하도록 배치되며, 그로부터 본체(110)의 이동시 전방의 일정 높이 이상의 장애물에 대한 거리 및 폭 정보를 획득한다. 이러한 정보는 장애물 인식의 요청이 들어오면 2차원 데이터로 구성된 장애물 맵으로 변환 활용할 수 있다. 이동 장애물의 경우 장애물 인식에 대한 빠른 응답성이 요구되기 때문에 계산량이 많고 복잡한 3차원 데이터 대신 2차원 데이터가 사용된다. 본체(110)는 제2스캐너(160)로부터 제공된 제3정보에 의해 근거리 장애물과 주행로를 정확히 판단함과 아울러 근거리에서 갑자기 출현하는 이동 장애물 등을 인식하여 신속히 회피할 수 있다.The
제2스캐너(160)는 지면으로부터 바퀴(111)의 반경(R)에 대응되는 높이에 위치할 수 있다. 본 실시예에 의한 자율이동 플랫폼은 바퀴(111)의 반경(R)보다 낮은 높이의 장애물을 넘을 수 있도록 설계되어 있다. 이러한 경우, 반경(R)에 대응되는 높이에 위치한 제2스캐너(160)가 제공한 거리 정보는 자율이동 플랫폼이 장애물을 넘어서 이동할 것인지 아니면 장애물을 회피하여 이동할 것인지를 결정하기 위한 기초 자료로서 사용될 수 있다.The
보다 구체적으로 설명하면, 지향 방향에 차이가 있는 제1 및 제2스캐너(120,160)로부터 획득된 2차원 거리 데이터들로부터 상호 지향각의 차이를 이용하여 전방 대상이 지면인지 또는 장애물인지를 구분하는데 활용된다. 즉, 보는 각도가 다르게 배치된 제1 및 제2스캐너(120,160)로부터 획득되는 거리정보를 활용하여 대상물체의 기울기를 계산하고 기울기의 정도에 따라 전방의 대상물이 경사가 가파른 지면인지, 아니면 회피해야 할 장애물인지를 구분할 수 있다. In more detail, the two-dimensional distance data obtained from the first and
도 1 및 2를 참조하면, 본체(110)의 일면에는 제1스캐너(120)의 스캐닝 거리보다 원거리까지 스캐닝하여 제4정보를 생성하는 제3스캐너(170)가 추가적으로 배치될 수 있다.1 and 2, a
제3스캐너(170)는 360도 회전 가능하도록 본체(110)의 상면에 돌출되게 설치될 수 있으며, 제3스캐너(170)로서 2D 레이저 스캐너보다 먼 거리에 있는 대상물의 거리 정보(제4정보)를 획득할 수 있는 3D 레이저 스캐너가 사용될 수 있다.The
3D 레이저 스캐너는 제1스캐너(120, 2D 레이저 스캐너)와 항법센서로부터 생성되는 3차원 데이터보다 정확한 3차원 좌표 값을 획득할 수 있다. 본 실시예에 사용된 3D 레이저 스캐너는 수직방향으로 다중 배열된 레이저 발생장치에서 동일 시간대에 전방 방향 주사를 수행하고, 또한 360°로 회전하면서 방위각 전 방향에 대한 3차원 데이터를 생성한다. The 3D laser scanner may acquire more accurate 3D coordinate values than 3D data generated from the first scanner 120 (2D laser scanner) and the navigation sensor. The 3D laser scanner used in the present embodiment performs forward scanning at the same time zone in the laser generator arranged in the vertical direction, and also generates three-dimensional data for the azimuth direction while rotating at 360 °.
3D 레이저 스캐너는 단방향에 대해 고속으로 좌우 스캔하는 2D 레이저 스캐너보다 단위방향의 스캔속도나 공간 분해능이 부족하지만, 전 방향으로 3차원 데이터를 직접적으로 충분히 획득할 수 있다. 이러한 3차원 데이터는 사전에 계획되지 않은 넓은 지역의 경로계획 및 주행 판단에 사용될 수 있다. 또한, 3D 레이저 스캐너가 획득한 3차원 데이터는 2D 레이저 스캐너(120)와 항법센서로부터 생성되는 3차원 데이터와 상호 비교 융합됨으로써 데이터의 정확도와 신뢰도를 검증하거나 향상시킬 수 있다.Although the 3D laser scanner lacks a unit scan speed or spatial resolution than a 2D laser scanner that scans left and right at a high speed in a single direction, the 3D laser scanner can directly and sufficiently acquire 3D data in all directions. This three-dimensional data can be used for route planning and driving judgment in large areas that have not been planned in advance. In addition, the 3D data obtained by the 3D laser scanner is compared and fused with the 3D data generated from the
이하에서는 앞선 설명을 기초로 본 발명과 관련된 자율이동 플랫폼의 이동 제어방법에 대하여 설명한다.Hereinafter, a description will be given of the movement control method of the autonomous platform associated with the present invention based on the foregoing description.
도 5는 본 발명의 일실시예에 따른 자율이동 플랫폼의 블록 구성도이다.5 is a block diagram of an autonomous platform according to an embodiment of the present invention.
도 5를 참조하면, 제어부(150)는 월드 모델링부(151)와 경로계획 생성부(152)와, 제어신호 발생부(153)을 포함한다.Referring to FIG. 5, the
월드 모델링부(151)는 제1스캐너(120, 2D 레이저 스캐너)에서 생성된 거리 데이터에 항법 센서로부터의 획득된 고도 값을 결합하여 3차원 데이터(포인트 분포지도, point cloud)를 생성할 수 있다. 도 6은 제1스캐너(120, 2D 레이저 스캐너)로부터 획득된 거리 데이터를 근거로 생성된 포인트 분포 지도를 나타내고 있다.The
월드 모델링부(151)는 포인트 분포 지도를 기초로 월드 모델을 생성한다. 여기서 월드 모델은 포인트 분포지도를 메쉬(mesh) 형태로 연결하여 지면을 그리드(grid) 형태로 표현한 것을 의미한다. 도 8은 이러한 월드 모델 데이터의 일예를 나타내고 있다.The
앞서 설명된 바와 같이, 카메라(130)에 의해 측정된 거리 데이터를 이용하여 지형의 고도맵이 생성될 수 있으며, 이러한 고도맵은 제1스캐너(120)의 데이터와 융합되어 포인트 분포 지도를 형성할 수 있다. 포인트 분포 지도는 시공간 누적을 통해 최종 통합된 월드 모델로 표현된다.As described above, an altitude map of the terrain may be generated using distance data measured by the
제2스캐너(160)는 전방 50m 정도 구간의 거리 데이터, 즉 전방 지형의 굴곡 및 장애물에 관한 거리 데이터를 생성한다. 이러한 제2스캐터가 생성한 데이터를 이용하여 월드 모델을 보다 정교하게 생성시킬 수 있다. 이에 따라 자율이동 플랫폼은 근거리 장애물과 주행로를 정확히 판단함과 아울러 근거리에서 갑자기 출현하 는 이동 장애물을 인식하여 신속히 회피할 수 있다.The
제3스캐너(170). 즉 3D 레이저 스캐너는 앞서 설명된 바와 같이 제1스캐너(120)보다 먼 거리의 거리 정보를 획득하며, 수신되는 전 방향 공간에 대한 거리정보는 3차원의 포인트 분포지도(point cloud)로 변환된다. 도 7은 3D 레이저 스캐너에 의해 획득된 거리 데이터를 근거로 생성된 포인트 분포지도(point cloud)의 일 예를 나타내며, 이로부터 격자구조의 월드모델을 생성할 수 있다.
상기 설명된 제1 내지 제3스캐너(120,160,170)와 카메라(130)에서 생성된 3차원 데이터들을 모두 이용하여 최종의 월드 모델 데이터를 생성할 수 있다. 즉, 포인트 분포지도의 이전 프레임과 다음 프레임의 시공간 누적을 통해 최종 통합된 월드 모델 데이터가 생성되게 된다. 도 8은 이와 같이 스캐너들과 카메라에서 생성된 3차원 데이터가 융합되어 최종의 월드 모델 데이터를 생성시킨 것을 예시하고 있다.The final world model data may be generated using all of the 3D data generated by the first to
경로계획 생성부(152)는 기설정된 시작점과 끝점, 및 상기와 같이 생성된 월드 모델 데이터를 근거로 자율이동 플랫폼의 자율이동에 대한 경로계획을 생성한다. 즉, 경로계획 생성부(152)는 자율이동 플랫폼이 주행하고자 하는 이동 경로를 설정함과 아울러 자율 이동 플랫폼이 장애물을 극복하거나 회피하기 위한 최종의 이동 지도(mobility map)을 생성한다.The route
이와 같은 경로계획은 근거리 경로계획과 원거리 경로계획을 포함할 수 있다. 경로계획 생성부(152)는 제1스캐너(120)와 카메라(130)의 제1 및 제2정보, 제2스캐너(160)의 제3정보 등을 근거로 근거리 경로계획을 생성할 수 있다. 아울러, 경로계획 생성부(152)는 제3스캐너(170)의 제4정보를 근거로 원거리 경로계획을 생성할 수 있다.Such a route plan may include a near route plan and a far route plan. The
근거리 경로계획이라 함은 제1스캐너(120)와 카메라(130)가 감지하는 영역내의 대상물을 감지하고 주행할 경로를 생성하는 근거리(예를 들어, 50m 이내) 주행 경로 점들의 집합(set)을 의미한다.The short-range route plan refers to a set of short-range (eg, within 50m) driving route points that detects an object in an area detected by the
이러한 주행 경로들은 자율이동 플랫폼이 갑자기 출현하는 이동 장애물을 회피할 수 있도록 새로운 경로로 다시 갱신되는 주기를 가지고 있다. These driving paths have a cycle in which the autonomous platform is updated again with new paths to avoid sudden obstacles to movement.
원거리 경로계획이라 함은 제3스캐너(170)에 의해 감지되는 영역에서 고려되는 근거리 경로계획보다 상대적으로 먼 거리 즉(50∼120m이내)의 주행 경로점의 집합(set)을 의미한다. The far path plan refers to a set of driving path points of a relatively far distance (within 50 to 120 m) than the near path plan considered in the area sensed by the
도 9는 앞서 설명된 제1 내지 제3스캐너의 스캐닝 범위 및 데이터의 측정의 유효거리를 나타내는 개념도이다.FIG. 9 is a conceptual diagram illustrating an effective range of a scanning range and measurement of data of the first to third scanners described above.
도 9의 가장 바깥에 표시된 라운드 실선은 제3스캐너(170), 즉 3D 레이저 스캐너에 의해 유효하게 측정되는 데이터 센싱 영역을 나타낸다. The outer solid line shown in the outermost part of FIG. 9 represents a data sensing area that is effectively measured by the
가운데 점선은 중앙에 배치된 제1스캐너(120) 및 카메라(130)에 의해 유효하게 측정되는 데이터 센싱 영역을 표시하며, 근거리 경로계획을 위해 활용된다. The dotted line in the middle indicates a data sensing area effectively measured by the
마지막 가장 안쪽의 점선은 근거리 장애물 회피용으로 배치된 제2스캐너(160)의 유효하게 측정되는 데이터 센싱 영역을 의미한다.The last inner dashed line indicates an effective measured data sensing area of the
자율이동 플랫폼 전면의 좌우 및 후방에는 초음파 센서에 의해 감지되는 영역이 표시되어 있다. 초음파 센서는 자율이동 플랫폼에 근접하게 출현하는 이동물 체를 감지하기 위하여 자율이동 플랫폼 전면의 좌우 및 후방에 추가적으로 설치될 수 있다.Areas detected by the ultrasonic sensors are displayed on the left and right and rear sides of the front surface of the autonomous platform. Ultrasonic sensors may be additionally installed on the left and right and rear sides of the front surface of the autonomous platform in order to detect moving objects appearing in proximity to the autonomous platform.
한편, 원거리 경로계획은 상대적으로 높은 갱신 주기를 갖는 근거리 경로계획의 갱신에 의하여 재수정될 수 있다.On the other hand, the remote route plan can be re-modified by updating the near route plan with a relatively high update period.
예를 들어, 자율이동 플랫폼의 주행 중 전방 영역에서 이동 물체가 감지되면 근거리 경로계획에 의하여 이동 물체를 회피하며, 이러한 자율이동 플랫폼의 이동 경로가 원거리 경로계획에서 많이 벗어난 경우 원거리 경로계획이 재수정될 수 있다.For example, if a moving object is detected in the front area during the operation of the autonomous platform, the moving object is avoided by the near path plan. If the moving path of the autonomous platform is far from the far path plan, the far path plan may be modified. Can be.
원거리 경로계획에서는 이동 물체의 감지 및 인식 정보에 의한 추적 및 충돌회피는 고려되지 않는다. 즉, 원거리 물체에 대한 이동이나 정지 물체의 판단은 요구되지 않는다. 왜냐하면, 레이저 스캐너의 특성상 원거리 데이터의 정확도는 많은 에러를 가지고 있으며, 이동 물체의 추적을 위해서는 데이터의 갱신율 및 정확도가 증가하여야 하며, 이를 위해서는 고가의 고성능 장비가 필요하게 되기 때문이다. 따라서,장애물 충돌회피는 근거리 경로계획에서만 고려대상이 된다.In remote path planning, tracking and collision avoidance by moving object detection and recognition information are not considered. That is, the movement of the remote object or the determination of the stationary object is not required. This is because the accuracy of the remote data has a lot of errors due to the characteristics of the laser scanner, and the update rate and accuracy of the data need to be increased for tracking the moving object, which requires expensive and high-performance equipment. Therefore, obstacle avoidance is only considered in the near path planning.
3D 레이저 스캐너, 즉 제3스캐너(170)는 2D 레이저 스캐너에 비해 낮은 데이터 갱신율을(15Hz 수준)을 가지며, 최초 계획된 원거리 경로계획을 변경함에 있어 기초가 되는 원거리 데이터를 제공한다. The 3D laser scanner, i.e., the
제어신호 발생부(152)는 상기와 같은 경로계획을 근거로 자율이동 플랫폼의 이동을 위한 제어신호를 발생시킨다. 이에 따라 자율이동 플랫폼은 경로계획을 따라 자율이동을 수행하게 된다.The
이상에서는 본 발명에 관련된 자율이동 플랫폼 및 이의 이동 제어방법을 첨부한 도면들을 참조하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있다.In the above described with reference to the accompanying drawings, the autonomous mobile platform and the movement control method related to the present invention, the present invention is not limited by the embodiments and drawings disclosed herein, it is within the scope of the technical idea of the present invention Various modifications can be made by those skilled in the art.
도 1은 본 발명의 일실시예와 관련된 자율이동 플랫폼의 사시도.1 is a perspective view of an autonomous platform associated with an embodiment of the present invention.
도 2는 도 1에 도시된 자율이동 플랫폼의 정면도.FIG. 2 is a front view of the autonomous platform shown in FIG. 1. FIG.
도 3 및 도 4는 제1스캐너와 카메라의 센싱 범위를 나타내는 개념도.3 and 4 are conceptual views illustrating a sensing range of a first scanner and a camera.
도 5는 본 발명의 일실시예와 관련된 자율이동 플랫폼의 블록 구성도.Figure 5 is a block diagram of an autonomous platform associated with one embodiment of the present invention.
도 6은 제1스캐너로부터 획득된 거리 데이터를 근거로 생성한 포인트 분포 지도.6 is a point distribution map generated based on distance data obtained from a first scanner.
도 7은 제3스캐너로부터 획득된 거리 데이터를 근거로 생성한 포인트 분포지도.7 is a point distribution map generated based on distance data obtained from a third scanner.
도 8은 도 6 및 7의 포인트 분포 지도로부터 생성된 월드 모델 데이터.8 is world model data generated from the point distribution maps of FIGS. 6 and 7;
도 9는 제1 내지 제3스캐너의 스캐닝 범위 및 데이터의 측정의 유효거리를 나타내는 개념도.9 is a conceptual diagram showing an effective range of the scanning range of the first to third scanners and measurement of data;
Claims (24)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090021824A KR100901311B1 (en) | 2009-03-13 | 2009-03-13 | Autonomous platform |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090021824A KR100901311B1 (en) | 2009-03-13 | 2009-03-13 | Autonomous platform |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100901311B1 true KR100901311B1 (en) | 2009-06-05 |
Family
ID=40982364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090021824A KR100901311B1 (en) | 2009-03-13 | 2009-03-13 | Autonomous platform |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100901311B1 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101209573B1 (en) | 2010-11-16 | 2012-12-07 | 한국과학기술연구원 | Curb detection method using distance sensor and unmaned vehicle using the same |
KR101242253B1 (en) | 2011-02-23 | 2013-03-11 | 고려대학교 산학협력단 | Method for building an elevation map with elevation information baded on terrain classification and matching strategy |
KR101359649B1 (en) | 2012-02-02 | 2014-02-05 | 삼성중공업 주식회사 | Obstacle detection sensor |
KR101461316B1 (en) * | 2013-04-30 | 2014-11-13 | 공주대학교 산학협력단 | System and method for controling Automatic Guided Vehicles based on color maker using dual camera |
KR101640789B1 (en) * | 2016-02-04 | 2016-07-19 | 국방과학연구소 | Guard and surveillance system using mobile robot and control method thereof |
CN107562061A (en) * | 2017-10-18 | 2018-01-09 | 长沙冰眼电子科技有限公司 | Counterreconnaissance unmanned vehicle |
KR20180055292A (en) * | 2016-11-16 | 2018-05-25 | 국민대학교산학협력단 | Integration method for coordinates of multi lidar |
CN108161886A (en) * | 2018-01-22 | 2018-06-15 | 东莞理工学院 | Map Construction Robot Based on Laser Scanning and Kalman Filtering Technology |
CN111152237A (en) * | 2020-01-22 | 2020-05-15 | 深圳国信泰富科技有限公司 | Robot head with laser radars arranged on two sides and environment sampling method thereof |
KR20200070854A (en) * | 2018-12-10 | 2020-06-18 | 한국앱티브유한회사 | Apparatus and method for identificating short cut-in vehicle and vehicle including the same |
CN112147641A (en) * | 2020-09-18 | 2020-12-29 | 河南理工大学 | Laser navigation light system and navigation method for rescue vehicle in complex environment |
CN112947473A (en) * | 2021-03-19 | 2021-06-11 | 广东中科天机医疗装备有限公司 | Intelligent mobile DR robot trolley and control method thereof |
KR102559715B1 (en) | 2022-09-30 | 2023-07-27 | 주식회사 한국쓰리축 | Agricultural driving apparatus using mobile platform with track driving device |
KR102559714B1 (en) | 2022-09-30 | 2023-07-27 | 주식회사 한국쓰리축 | Mobile platform with track driving apparatus |
KR20240083401A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Tension control apparatus of driving part for agicultural mobile platform |
KR20240083394A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Driving apparatus for agicultural mobile platform |
KR20240083389A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Agicultural mobile platform for the aged and female |
KR20240083405A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Frame for agicultural mobile platform |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004170429A (en) | 2003-12-01 | 2004-06-17 | Asahi Koyo Kk | Method and apparatus for generating three-dimensional information |
JP2006031642A (en) * | 2004-07-22 | 2006-02-02 | Ihi Aerospace Co Ltd | Self-position specification method of mobile object |
JP2006209644A (en) | 2005-01-31 | 2006-08-10 | Matsushita Electric Works Ltd | Cleaning robot |
KR100877072B1 (en) * | 2007-06-28 | 2009-01-07 | 삼성전자주식회사 | Method and apparatus for simultaneously creating and cleaning maps for mobile robots |
-
2009
- 2009-03-13 KR KR1020090021824A patent/KR100901311B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004170429A (en) | 2003-12-01 | 2004-06-17 | Asahi Koyo Kk | Method and apparatus for generating three-dimensional information |
JP2006031642A (en) * | 2004-07-22 | 2006-02-02 | Ihi Aerospace Co Ltd | Self-position specification method of mobile object |
JP2006209644A (en) | 2005-01-31 | 2006-08-10 | Matsushita Electric Works Ltd | Cleaning robot |
KR100877072B1 (en) * | 2007-06-28 | 2009-01-07 | 삼성전자주식회사 | Method and apparatus for simultaneously creating and cleaning maps for mobile robots |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101209573B1 (en) | 2010-11-16 | 2012-12-07 | 한국과학기술연구원 | Curb detection method using distance sensor and unmaned vehicle using the same |
KR101242253B1 (en) | 2011-02-23 | 2013-03-11 | 고려대학교 산학협력단 | Method for building an elevation map with elevation information baded on terrain classification and matching strategy |
KR101359649B1 (en) | 2012-02-02 | 2014-02-05 | 삼성중공업 주식회사 | Obstacle detection sensor |
KR101461316B1 (en) * | 2013-04-30 | 2014-11-13 | 공주대학교 산학협력단 | System and method for controling Automatic Guided Vehicles based on color maker using dual camera |
KR101640789B1 (en) * | 2016-02-04 | 2016-07-19 | 국방과학연구소 | Guard and surveillance system using mobile robot and control method thereof |
KR20180055292A (en) * | 2016-11-16 | 2018-05-25 | 국민대학교산학협력단 | Integration method for coordinates of multi lidar |
CN107562061A (en) * | 2017-10-18 | 2018-01-09 | 长沙冰眼电子科技有限公司 | Counterreconnaissance unmanned vehicle |
CN108161886A (en) * | 2018-01-22 | 2018-06-15 | 东莞理工学院 | Map Construction Robot Based on Laser Scanning and Kalman Filtering Technology |
KR20200070854A (en) * | 2018-12-10 | 2020-06-18 | 한국앱티브유한회사 | Apparatus and method for identificating short cut-in vehicle and vehicle including the same |
KR102699145B1 (en) * | 2018-12-10 | 2024-09-30 | 현대자동차주식회사 | Apparatus and method for identificating short cut-in vehicle and vehicle including the same |
CN111152237B (en) * | 2020-01-22 | 2023-12-22 | 深圳国信泰富科技有限公司 | Robot head with laser radars arranged on two sides and environment sampling method thereof |
CN111152237A (en) * | 2020-01-22 | 2020-05-15 | 深圳国信泰富科技有限公司 | Robot head with laser radars arranged on two sides and environment sampling method thereof |
CN112147641A (en) * | 2020-09-18 | 2020-12-29 | 河南理工大学 | Laser navigation light system and navigation method for rescue vehicle in complex environment |
CN112147641B (en) * | 2020-09-18 | 2024-05-17 | 河南理工大学 | Laser navigation lamp system for rescue vehicle in complex environment and navigation method |
CN112947473A (en) * | 2021-03-19 | 2021-06-11 | 广东中科天机医疗装备有限公司 | Intelligent mobile DR robot trolley and control method thereof |
KR102559714B1 (en) | 2022-09-30 | 2023-07-27 | 주식회사 한국쓰리축 | Mobile platform with track driving apparatus |
KR102559715B1 (en) | 2022-09-30 | 2023-07-27 | 주식회사 한국쓰리축 | Agricultural driving apparatus using mobile platform with track driving device |
KR20240083401A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Tension control apparatus of driving part for agicultural mobile platform |
KR20240083394A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Driving apparatus for agicultural mobile platform |
KR20240083389A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Agicultural mobile platform for the aged and female |
KR20240083405A (en) | 2022-12-05 | 2024-06-12 | 경북대학교 산학협력단 | Frame for agicultural mobile platform |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100901311B1 (en) | Autonomous platform | |
JP7607000B2 (en) | Long-range steerable LIDAR system | |
CN107992052B (en) | Target tracking method and device, mobile device and storage medium | |
US20210318444A1 (en) | Sensing assembly for autonomous driving | |
CN108572663B (en) | Target tracking | |
EP3692395B1 (en) | Methods for autonomous vehicle localization | |
KR102327997B1 (en) | Surround sensing system | |
JP3561473B2 (en) | Object position tracking / detection method and vehicle | |
CN110275538A (en) | Intelligent cruise vehicle navigation method and system | |
CN110235026A (en) | The automobile navigation of image and laser radar information based on alignment | |
WO2017149813A1 (en) | Sensor calibration system | |
KR20170061373A (en) | Mobile Robot And Method Thereof | |
WO2018061084A1 (en) | Self-position estimation method and self-position estimation device | |
CN112740274A (en) | System and method for VSLAM scale estimation on robotic devices using optical flow sensors | |
RU2669200C2 (en) | Obstacle detection device with crossing planes and method of detecting thereby | |
JP6527726B2 (en) | Autonomous mobile robot | |
RU2740229C1 (en) | Method of localizing and constructing navigation maps of mobile service robot | |
JP5429986B2 (en) | Mobile robot remote environment recognition apparatus and method | |
CN112819943A (en) | Active vision SLAM system based on panoramic camera | |
KR101040528B1 (en) | Terrain sensor assembly and autonomous mobile platform | |
CN110945510A (en) | Method for spatial measurement by means of a measuring vehicle | |
JP4116116B2 (en) | Ranging origin recognition device for moving objects | |
JP4333611B2 (en) | Obstacle detection device for moving objects | |
CN117930196A (en) | System and method for calibrating and verifying non-overlapping ranging sensors of autonomous vehicles | |
US12197208B2 (en) | Camera calibration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20090313 |
|
PA0201 | Request for examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20090313 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20090430 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20090529 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20090601 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20090601 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20120601 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130531 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20130531 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140602 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20140602 Start annual number: 6 End annual number: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150601 Year of fee payment: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20150601 Start annual number: 7 End annual number: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190604 Year of fee payment: 11 |
|
PR1001 | Payment of annual fee |
Payment date: 20190604 Start annual number: 11 End annual number: 11 |
|
PR1001 | Payment of annual fee |
Payment date: 20200602 Start annual number: 12 End annual number: 12 |
|
PR1001 | Payment of annual fee |
Payment date: 20210602 Start annual number: 13 End annual number: 13 |
|
PR1001 | Payment of annual fee |
Payment date: 20240603 Start annual number: 16 End annual number: 16 |