[go: up one dir, main page]

KR100926760B1 - 이동 로봇의 위치 인식 및 지도 작성 방법 - Google Patents

이동 로봇의 위치 인식 및 지도 작성 방법 Download PDF

Info

Publication number
KR100926760B1
KR100926760B1 KR1020070132375A KR20070132375A KR100926760B1 KR 100926760 B1 KR100926760 B1 KR 100926760B1 KR 1020070132375 A KR1020070132375 A KR 1020070132375A KR 20070132375 A KR20070132375 A KR 20070132375A KR 100926760 B1 KR100926760 B1 KR 100926760B1
Authority
KR
South Korea
Prior art keywords
horizontal plane
mobile robot
plane line
feature point
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020070132375A
Other languages
English (en)
Other versions
KR20090064981A (ko
Inventor
윤석준
민승기
노경식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070132375A priority Critical patent/KR100926760B1/ko
Priority to US12/153,817 priority patent/US8331652B2/en
Publication of KR20090064981A publication Critical patent/KR20090064981A/ko
Application granted granted Critical
Publication of KR100926760B1 publication Critical patent/KR100926760B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 이동 로봇의 위치 인식 및 지도 작성 방법에 관한 것으로, 본 발명은 이동 로봇을 이동시키며 각 위치에서 촬영된 전방위 영상의 수평면선을 추출하고, 상기 추출된 수평면선을 보정하여 새로운 수평면선을 생성하고, 상기 생성된 수평면선과 이전 생성된 수평면선을 이용하여 이동 로봇의 위치 인식 및 지도를 작성한다.
로봇, 전방위영상, 위치인식

Description

이동 로봇의 위치 인식 및 지도 작성 방법{A Simultaneous Localization and Map Building Method of Moving Robot}
본 발명은 이동 로봇의 위치 인식 및 지도 작성 방법에 관한 것으로, 더욱 상세하게는 전방위 영상을 이용하여 이동 로봇의 위치 인식 및 지도 작성을 동시에 수행하는 이동 로봇의 위치 인식 및 지도 작성 (SLAM : Simultaneous Localization and Map Building)방법에 관한 것이다.
전방위 카메라는 카메라 주위의 360°영상을 얻을 수 있는 카메라로, 최근 전술한 전방위 카메라를 이동 로봇에 장착하고, 전방위 카메라에서 촬영된 전방위 영상을 이용하여 이동 로봇의 위치 인식 및 지도 작성하는 기술이 소개되었다.
이 기술은 일본 공개특허공보 특개평 10-160463호에 기재된 바와 같이, 전방위 시야를 갖는 전방위 시각 센서를 이동체에 탑재하고 이동체를 특정한 경로상으로 이동시키면서 전방위 시각 센서에서 이동체 주변의 화상을 시계열적인 표준 패턴으로 취득하였다. 또한, 이동체가 임의의 경로를 이동하면 전방위 시각 센서의 취득 영상과 미리 설정된 표준 패턴의 영상을 비교하고,두 영상이 일치하면 표준 패턴의 영상에 연관되는 위치를 검출 결과로 인정하였다.
그러나, 이와 같은 종래의 이동체 위치 인식 및 지도 작성 방법은 표준 패턴의 기준 영상을 대상으로 위치를 인식하기 때문에 기준 영상이 미리 준비되어 있어야 하는 문제점이 있었다.
또한, 종래의 이동체 위치 인식 및 지도 작성 방법은 취득된 전방위 영상과 기존의 표준영상을 모두 비교함에 따라 작업할 연산량이 늘어나 이동체의 위치 인식 및 지도작성의 수행시간이 길어지는 문제점이 있었다.
본 발명은 전술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 기준 영상의 필요 없이 이동 로봇의 위치 인식 및 지도 작성을 보다 효율적으로 동시에 수행할 수 있는 이동 로봇의 위치 인식 및 지도 작성 방법을 제공함에 있다.
또한, 본 발명의 다른 목적은 전방위 영상 중 수평면선의 정보만 이용하여 이동 로봇의 위치 인식 및 지도 작성의 수행시간을 단축시키는 이동 로봇의 위치 인식 및 지도 작성 방법을 제공함에 있다.
전술한 목적을 달성하기 위한 본 발명은 이동 로봇을 이동시키며 각 위치에서 촬영된 전방위 영상의 수평면선을 추출하고, 상기 추출된 수평면선을 보정하여 새로운 수평면선을 생성하고, 상기 생성된 수평면선과 이전 생성된 수평면선을 이용하여 이동 로봇의 위치 인식 및 지도를 작성한다.
또한, 상기 생성된 수평면선은 상기 추출된 수평면선을 가우시안 필터에 의 하여 보정한 수평면선이다.
또한, 상기 생성된 수평면선 영상은 상기 추출된 수평면선을 가우시안 필터로 필터링하고, 상기 필터링된 수평면선을 상기 추출된 수평면선의 위, 아래로 구축한 것이다.
또한, 상기 추출된 수평면선은 특징점을 포함하고,
상기 특징점은 상기 수평면선의 픽셀 중 밝기가 제 1 밝기레벨만큼 어두운 픽셀인 것을 특징으로 한다.
또한, 상기 생성된 수평면선은 상기 특징점을 포함하고, 상기 특징점의 좌표는 상기 이동 로봇의 이동 위치 및 상기 이동 로봇과 상기 특징점이 상기 생성된 수평면선에서 이루는 각도를 하기 수학식에 대입하여 구한다.
Figure 112007090613459-pat00001
,
Figure 112007090613459-pat00002
( 단, α = 이동 로봇과 특징점이 수평면선에서 이루는 각도, X,Y= 특징점의 좌표, x,y = 이동로봇의 좌표)
또한, 상기 이동 로봇과 특징점이 상기 생성된 수평면선에서 이루는 각도는 상기 생성된 수평면선과 상기 이전 생성된 수평면선의 특징점 매칭을 통하여 구한다.
또한, 상기 특징점 매칭은 SAD(Sum of Absolute Difference) 방법을 통하여 매칭된다.
또한, 상기 이동 로봇의 위치, 상기 특징점의 좌표, 상기 이동 로봇과 상기 특징점이 상기 생성된 수평면선에서 이루는 각도를 확장 칼만 필터(Extended Kalman Filter)에 적용하여 상기 이동 로봇의 위치 및 지도를 작성한다.
그리고 본 발명은 이동 로봇을 이동하며 촬영한 전방위 영상 중 수평면선을 추출하고, 상기 수평면선을 이전 추출된 수평면선과 매칭하여 특징점과 상기 이동 로봇이 수평면선에서 이루는 각도를 확인하고, 상기 이동 로봇의 이동 위치에 따른 상기 각도를 이용하여 상기 특징점의 위치를 확인한다.
또한, 상기 특징점의 위치가 확인되면, 상기 이동 로봇과 특징점이 수평면선에서 이루는 각도, 상기 이동 로봇의 이동 위치, 상기 특징점의 위치를 확장 칼만 필터(Extended Kalman Filter)에 적용하여 상기 이동 로봇의 이동 위치에 따른 지도를 작성한다.
또한, 상기 수평면선이 추출되면 상기 수평면선을 중심으로 가우시안 필터에 의하여 필터링된 수평면선을 상기 추출된 수평면선의 위,아래로 구축한 새로운 수 평면선을 생성한다.
또한, 상기 생성된 수평면선과 이전 생성된 수평면선을 매칭하여 상기 특징점과 이동 로봇이 상기 생성된 수평면선에서 이루는 각도를 구한다.
또한, 상기 특징점은 상기 추출된 수평면선의 픽셀 중 밝기가 제 1 밝기레벨만큼 어두운 픽셀이다.
이상에서 상세히 설명한 바와 같이, 본 발명은 전방위 영상 중 수평면선의 정보만 이용하여 이동 로봇의 위치 인식 및 지도 작성을 수행함에 따라 수행시간이 단축되는 효과가 있다.
또한, 미리 설정된 기준 영상을 이용하여 위치 인식을 하지 않고, 이동 로봇이 이동함에 따라 작성된 지도를 이용하여 위치 인식을 함에 따라 주위 환경 변화에 적응이 용이하다.
또한, 가우시안 필터로 재구축된 수평면선 영상을 사용함으로써, 수평면선 매칭시 노이즈 및 오차가 발생하는 문제점을 감소시켰다.
이하에서는 본 발명의 바람직한 실시예를 본 도면을 참조하여 상세하게 설명하도록 한다.
도1에 도시한 바와 같이 본 발명이 적용되는 이동 로봇(10)은 로봇 본체(12)와, 로봇 본체(12)에 장착된 전방위 카메라(11)를 포함한다. 전방위 카메라(11)는 도2에 도시된 바와 같이 전방위 렌즈(11a)와 CCD 소자(11b)로 구성되며, 전방위 카 메라(11)의 전면부에는 곡면 거울이 장착되어 도3에 예시한 것과 같이 전방위 카메라 주변의 360° 영상을 얻을 수 있다. 즉, 임의의 공간상의 점 Xmir는 곡면거울 면의 점 xmir에서 반사되어 CCD 소자(11b)에 결상되고 최종적으로는 영상면의 점 ximg로 나타나는데, 전술한 Xmir는 전방위에 분포하므로 전방위 카메라가 360° 영상을 획득할 수 있는 것이다.
도4에 도시한 바와 같이 본 발명이 적용되는 이동 로봇(10)은 도1 또는 도2에 도시한 구성요소 외에 전방위 카메라(11)에서 촬영된 전방위 영상 중 수평면선 영상을 추출하여 재구축하는 영상 처리부(20), 재구축된 수평면선 영상을 이용하여 로봇의 위치 인식 및 지도를 작성하는 제어부(30), 재구축된 수평면선 영상이 저장되는 메모리(40)를 포함한다.
전방위 카메라(11)에서 촬영된 전방위 영상은 도 3에 예시한 것과 같이 360°의 영상이다. 전방위 영상은 배경 및 그 배경과 밝기가 다른 사물 또는 사람과 같은 객체를 담고 있으며, 객체와 배경 사이의 가장자리는 주위 영역보다 어두워 져 이동 로봇(10)의 위치를 인식하기에 좋은 이정표 역할을 하며, 이러한 점들을 본 발명에서는 특징점으로 칭한다.
전방위 카메라(11)에서 촬영된 전방위 영상을 모두 이용하여 로봇의 위치를 인식하기에는 방대한 데이터 처리에 따른 부하가 너무 커 시간 지연이 일어난다. 따라서, 영상 처리부(20)는 입력받은 전방위 영상 중 전방위 카메라(11)의 Epipolar Plane로 언제나 항상 같은 평면인 수평면선을 추출한다. 하지만, 이동 로봇(10)이 이동시 지표면에 약간의 굴곡이 있다면 전방위 카메라(11)에서 촬영된 수 평면선은 변경되거나 사라질 수 있는 문제점이 발생한다.
따라서, 영상 처리부(20)는 후술할 제어부(30)의 특징점 매칭시 문제가 되는 추적 오차를 줄이기 위하여 가우시안 필터가 적용된 수평면선의 재구축 작업을 한다. 이 가우시안 필터의 적용에 따라 주위에 비하여 상대적으로 높은 주파수를 가지는 특징점의 주파수는 감쇄하게 되고, 이로 인하여 후술할 제어부(30)에서의 특징점 매칭시 오차가 줄어든다.
영상 처리부(20)에서 재구축된 수평면선 영상은 5개의 수평면선으로 구성되고, 이 중 3번째 가운데 수평면선이 재구축 전의 수평면선이다. 재구축된 수평면선 영상의 2번째(3번째 수평면선의 상부 수평면선)와 4번째 수평면선(3번째 수평면선의 하부 수평면선)은 3번째 수평면선에 3*3의 가우시안 필터가 적용되고, 1번째(2번째 수평면선의 상부 수평면선)와 5번째 수평면선(4번째 수평면선의 하부 수평면선)은 5*5의 가우시안 필터가 적용된다.
영상 처리부(20)는 재구축된 수평면선 영상을 제어부(30)에 전송 및 메모리(40)에 저장한다.
제어부(30)는 영상 처리부(20) 및 메모리(40)에서 재구축된 수평면선 영상을 입력받아 색의 경계선에 해당하는 특징점을 찾아내고, 이 특징점의 위치를 이용하여 이동 로봇의 위치 인식 및 지도작성을 한다.
이동 로봇의 위치 인식 및 지도 작성을 위해서는 이동 로봇과 특징점이 이루는 각도, 이동 로봇의 공간상 2차원 좌표, 그리고 특징점의 공간상 2차원 좌표가 필요하다. 이동 로봇의 공간상 2차원 좌표는 이동 로봇의 움직임에 따라 결정되므 로 제어부(30)에서 인식이 가능하다. 그리고, 이동 로봇과 특징점이 이루는 각도는 영상 처리부(20)에서 전송된 현재 재구축된 수평면선 영상과 메모리(40)에 저장된 이동 로봇(10)의 이동 전 재구축된 수평면선 영상의 매칭을 통하여 구할 수 있다.
수평면선을 구성하는 총 픽셀은 CCD소자(11b)의 특성에 따라 다르며, 제어부(30)에는 이 수평면선의 픽셀의 개수가 설정되어 있다. 따라서, 제어부(30)는 수평면선에서 특징점을 찾고, 로봇의 이동에 따라 새로 입력되는 수평면선의 특징점을 이전 수평면선의 특징점과 매칭시켜, 하나의 특징점에 대하여 이동 로봇이 이동시 수평면선에서 이루는 각의 변화를 검출할 수 있다. 즉, 수평면선을 구성하는 픽셀이 360개라면 이 수평면선은 1개의 라인으로 구성되어 있으므로 1 픽셀이 1°에 해당한다. 그리고, 특징점이 수평면선의 50번째 라인에 위치한다면 상기 특징점과 이동 로봇이 수평면선에서 이루는 각은 50°가 되며, 로봇이 이동함에 따라 상기 50°에 위치하던 특징점의 각도는 변경된다.
수평면선 영상의 매칭은 메모리(40)에 저장된 이전 재구축된 수평면선 영상에서 5*5 크기의 윈도우를 만들어 영상 처리부(20)에서 입력받은 현재 재구축된 수평면선 영상과 SAD(Sum of Absolute Difference)방법으로 매칭을 수행한다.
제어부(30)는 상기 특징점 매칭에 의하여 이동 로봇(10)과 특징점이 이루는 각도는 알 수 있지만, 특징점과 이동 로봇(10) 사이의 거리를 모르기 때문에 특징점이 수평면선 영상에서 어떠한 위치에 있는지 확인이 불가능하다. 더 자세히 설명하면, 전방위 카메라(11)에서 촬영된 수평면선은 이동 로봇(10)의 움직임에 상관없이 항상 같은 위치(ex: 벽면)가 촬영되므로, 제어부(30)는 이 거리 차를 인식하지 못함에 따라 특징점의 위치 확인이 불가능하다.
따라서, 제어부(30)는 수평면선에서 특징점의 위치를 구하기 위하여 이동 로봇(10)을 도 5에 예시된 것처럼 1m 전진 후 90 ° 회전하는 방식으로 하나의 특징점에 대하여 각기 다른 4곳에서 측정된 이동로봇의 각 좌표(x,y) 및 이동로봇과 특징점이 이루는 각도를 하기 수학식 1에 적용하여, 상기 특징점 하나의 2차원 위치(X,Y)를 구한다. 그리고, 제어부(30)는 나머지 특징점의 좌표도 이와 같은 방식으로 수학식 1을 이용하여 구한다.
Figure 112007090613459-pat00003
,
Figure 112007090613459-pat00004
( 단, α = 이동 로봇과 특징점이 수평면선에서 이루는 각도, X,Y= 특징점의 좌표, x,y = 이동로봇의 좌표)
위의 식에서 이동 로봇의 두번 이동으로 상기 2개의 미지수(X,Y)를 가지는 특징점의 좌표를 구할 수 있지만, 본 발명에서는 특징점 좌표의 오차를 줄이기 위하여 상기 4번의 이동 로봇의 이동을 통하여 특징점의 좌표를 구한다.
제어부(30)는 이동 로봇이 이동시 이동로봇의 위치, 특징점의 위치, 이동 로봇과 특징점이 수평면선에서 이루는 각도를 EKF(Extended Kalman Filter)에 적용하여 로봇의 위치 인식 및 지도를 작성한다.
이하에서는 도 7 및 도 8을 참조하여 본 발명의 일실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 방법을 설명한다.
이동 로봇(10)이 공간상의 임의의 위치에 놓이면 이동 로봇(10)의 전방위 카메라(11)는 전방위 영상을 촬영한다(700).
500 단계에서 촬영된 전방위 영상은 영상 처리부(20)로 전송되고, 영상 처리부(20)는 입력받은 전방위 영상을 분석하여 수평면선을 추출한다. 그리고, 영상 처리부(20)는 상기 추출된 수평면선(제3수평면선)에서 3*3의 가우시안 필터를 적용한 2개의 수평면선(제2,4 수평면선)과, 수평면선을 5*5의 가우시안 필터를 적용한 2개의 수평면선(제1,제5 수평면선)을 만든다. 그리고, 영상 처리부(20)는 도 6에 예시된 것처럼 제 1 수평면선부터 제 5 수평면선이 순서대로 정렬된 하나의 재구축된 수평면선 영상을 만들고, 이 재구축된 수평면선 영상을 메모리(40)에 저장 및 제어부(30)로 전송한다(710).
제어부(30)는 재구축된 수평면선 영상이 입력되면, 이 수평면선 영상중 주위 배경보다 색이 급격히 어두워지는 특징점들을 파악한다(720).
특징점들이 파악되면 제어부(30)는 이 특징점들의 공간상 위치를 확인하기 위하여 이동 로봇(10)의 위치 정보 및 이동 로봇과 특징점들이 이루는 각도를 구한다. 제어부(30)는 이 특징점들의 공간상 위치를 확인하기 위하여 도 5 에 도시된 것처럼, 이동 로봇(10)을 1m 전진 후 90 ° 회전하여 하나의 특징점에 대하여 각기 다른 4곳에서 측정된 이동로봇의 각 좌표(x,y)를 확인한다. 이때, 제어부(30)는 각기 다른 4곳으로 이동시마다 영상 처리부(20)에서 전송되는 재구축된 수평면선 영상과 메모리(40)에 저장된 이전 위치에서 재구축된 수평면선 영상을 SAD방법으로 매칭하여 이동로봇(10)과 특징점이 이루는 각도를 구한다(730).
제어부(30)는 이동 로봇(10)의 위치 및 이동 로봇(10)과 특징점들이 이루는 각도가 구해지면, 이 값들을 상기 수학식 1에 적용하여 특징점들의 공간상 2차원 좌표(X,Y)를 구한다(740).
제어부(30)는 740 단계에서 특징점들의 좌표가 구해지면, 이 특징점의 좌표를 기준으로 이동 로봇의 초기 지도를 작성한다(750).
750 단계에서 이동 로봇의 초기 지도가 작성되면, 제어부(30)는 미리 설정된 이동 로봇(10)의 이동 알고리즘에 따라 이동 로봇을 이동시키며, 이동된 장소에서 영상 처리부(20)를 통하여 재구축된 수평면선 영상을 입력받는다. 그리고, 제어부(30)는 메모리(40)에 저장된 이동로봇(10)의 이전 위치에서 재구축된 수평면선 영상을 입력받아 현재 위치에서 재구축된 수평면선 영상과 SAD방법으로 매칭을 수행하여 이동 로봇(10)과 특징점이 이루는 각도를 구한다. 제어부(30)는 매칭작업 수행으로 얻어진 이동 로봇과 특징점과의 각도, 이동 로봇의 위치를 상기 수학식 1 에 적용하여 특징점의 공간상 위치를 파악하고, 이 데이터들을 EKF(Extended Kalman Filter)에 적용하여 로봇의 위치 추적 및 지도 갱신을 동시에 수행한다(760).
도 1은 본 발명의 일실시예에 따른 이동 로봇의 외형도이다.
도 2는 도 1의 이동 로봇에 설치된 전방위 카메라의 단면도이다.
도 3은 도 2의 전방위 카메라에서 촬영된 전방위 영상을 예시한 도면이다.
도 4는 본 발명의 일실시예에 따른 이동 로봇의 블록도이다.
도 5는 본 발명의 일실시예에 따른 특징점을 구하기 위한 이동 로봇의 이동을 예시한 도면이다.
도 6은 도 3의 전방위 영상에서 재구축된 수평면선 영상을 예시한 도면이다.
도 7은 본 발명의 일실시예에 따른 이동 로봇의 위치 인식 및 지도 작성 방법을 도시한 흐름도이다.
* 도면의 주요 부분에 대한 부호 설명 *
10 : 이동 로봇 11 : 전방위 카메라
20 : 영상 처리부 30 : 제어부
40 : 메모리

Claims (13)

  1. 이동 로봇을 이동시키며 각 위치에서 촬영된 전방위 영상의 수평면선을 추출하고,
    상기 추출된 수평면선을 보정하여 새로운 수평면선을 생성하고,
    상기 생성된 수평면선과 이전 생성된 수평면선을 이용하여 이동 로봇의 위치 인식 및 지도를 작성하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  2. 제 1 항에 있어서,
    상기 생성된 수평면선은 상기 추출된 수평면선을 가우시안 필터에 의하여 보정한 수평면선인 이동 로봇의 위치 인식 및 지도 작성 방법.
  3. 제 2 항에 있어서,
    상기 생성된 수평면선 영상은 상기 추출된 수평면선을 가우시안 필터로 필터링하고, 상기 필터링된 수평면선을 상기 추출된 수평면선의 위, 아래로 구축한 것인 이동 로봇의 위치 인식 및 지도 작성 방법.
  4. 제 1 항에 있어서,
    상기 추출된 수평면선은 특징점을 포함하고,
    상기 특징점은 상기 수평면선의 픽셀 중 밝기가 제 1 밝기레벨만큼 어두운 픽셀인 것을 특징으로 하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  5. 제 4 항에 있어서,
    상기 생성된 수평면선은 상기 특징점을 포함하고,
    상기 특징점의 좌표는 상기 이동 로봇의 이동 위치 및 상기 이동 로봇과 상기 특징점이 상기 생성된 수평면선에서 이루는 각도를 하기 수학식에 대입하여 구하는 이동 로봇의 위치 인식 및 지도 작성 방법.
    Figure 112007090613459-pat00005
    ,
    Figure 112007090613459-pat00006
    ( 단, α = 이동 로봇과 특징점이 수평면선에서 이루는 각도, X,Y= 특징점의 좌표, x,y = 이동로봇의 좌표)
  6. 제 5 항에 있어서,
    상기 이동 로봇과 특징점이 상기 생성된 수평면선에서 이루는 각도는 상기 생성된 수평면선과 상기 이전 생성된 수평면선의 특징점 매칭을 통하여 구하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  7. 제 6 항에 있어서,
    상기 특징점 매칭은 SAD(Sum of Absolute Difference) 방법을 통하여 매칭되는 로봇의 위치 인식 및 지도 작성 방법.
  8. 제 5 항에 있어서,
    상기 이동 로봇의 위치, 상기 특징점의 좌표, 상기 이동 로봇과 상기 특징점이 상기 생성된 수평면선에서 이루는 각도를 확장 칼만 필터(Extended Kalman Filter)에 적용하여 상기 이동 로봇의 위치 및 지도를 작성하는 이동 로봇의 위치 및 지도 작성 방법.
  9. 이동 로봇을 이동하며 촬영한 전방위 영상 중 수평면선을 추출하고,
    상기 수평면선을 이전 추출된 수평면선과 매칭하여 특징점과 상기 이동 로봇이 수평면선에서 이루는 각도를 확인하고,
    상기 이동 로봇의 이동 위치에 따른 상기 각도를 이용하여 상기 특징점의 위치를 확인하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  10. 제 9 항에 있어서,
    상기 특징점의 위치가 확인되면,
    상기 이동 로봇과 특징점이 수평면선에서 이루는 각도, 상기 이동 로봇의 이동 위치, 상기 특징점의 위치를 확장 칼만 필터(Extended Kalman Filter)에 적용하여 상기 이동 로봇의 이동 위치에 따른 지도를 작성하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  11. 제 9 항에 있어서,
    상기 수평면선이 추출되면 상기 수평면선을 중심으로 가우시안 필터에 의하여 필터링된 수평면선을 상기 추출된 수평면선의 위,아래로 구축한 새로운 수평면선을 생성하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  12. 제 11 항에 있어서,
    상기 생성된 수평면선과 이전 생성된 수평면선을 매칭하여 상기 특징점과 이동 로봇이 상기 생성된 수평면선에서 이루는 각도를 구하는 이동 로봇의 위치 인식 및 지도 작성 방법.
  13. 제 9 항에 있어서,
    상기 특징점은 상기 추출된 수평면선의 픽셀 중 밝기가 제 1 밝기레벨만큼 어두운 픽셀인 이동 로봇의 위치 인식 및 지도 작성 방법.
KR1020070132375A 2007-12-17 2007-12-17 이동 로봇의 위치 인식 및 지도 작성 방법 Active KR100926760B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070132375A KR100926760B1 (ko) 2007-12-17 2007-12-17 이동 로봇의 위치 인식 및 지도 작성 방법
US12/153,817 US8331652B2 (en) 2007-12-17 2008-05-23 Simultaneous localization and map building method and medium for moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070132375A KR100926760B1 (ko) 2007-12-17 2007-12-17 이동 로봇의 위치 인식 및 지도 작성 방법

Publications (2)

Publication Number Publication Date
KR20090064981A KR20090064981A (ko) 2009-06-22
KR100926760B1 true KR100926760B1 (ko) 2009-11-16

Family

ID=40753353

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070132375A Active KR100926760B1 (ko) 2007-12-17 2007-12-17 이동 로봇의 위치 인식 및 지도 작성 방법

Country Status (2)

Country Link
US (1) US8331652B2 (ko)
KR (1) KR100926760B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101076803B1 (ko) 2009-06-30 2011-10-25 국민대학교산학협력단 실내 기동 로봇의 지도 작성 방법 및 이를 이용한 기동 위치 판별 방법

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524020B1 (ko) * 2009-03-06 2015-05-29 엘지전자 주식회사 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
KR101686170B1 (ko) * 2010-02-05 2016-12-13 삼성전자주식회사 주행 경로 계획 장치 및 방법
KR20110099845A (ko) * 2010-03-03 2011-09-09 삼성전자주식회사 화상 통화 시스템에서 전방향 화자 인식을 위한 장치 및 방법
KR101782057B1 (ko) * 2010-05-03 2017-09-26 삼성전자주식회사 지도 생성 장치 및 방법
KR20120021064A (ko) 2010-08-31 2012-03-08 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
KR101772977B1 (ko) * 2010-10-07 2017-08-31 삼성전자주식회사 이동 로봇 및 그 지도 작성 방법
KR101739996B1 (ko) * 2010-11-03 2017-05-25 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법
US9026242B2 (en) 2011-05-19 2015-05-05 Taktia Llc Automatically guided tools
JP6301314B2 (ja) 2012-04-26 2018-03-28 シェイパー ツールズ, インク.Shaper Tools, Inc. 材料に作業を実行するため又は材料の表面に対する装置の位置を特定するためのシステム及び方法
GB2506338A (en) 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
KR102087595B1 (ko) * 2013-02-28 2020-03-12 삼성전자주식회사 내시경 시스템 및 그 제어방법
US9599988B2 (en) * 2013-10-28 2017-03-21 Pixart Imaging Inc. Adapted mobile carrier and auto following system
KR102172954B1 (ko) * 2013-11-08 2020-11-02 삼성전자주식회사 보행 보조 로봇 및 보행 보조 로봇의 제어 방법
CN103941750B (zh) * 2014-04-30 2016-08-31 东北大学 基于小型四旋翼无人机的构图装置及方法
KR102361641B1 (ko) 2014-12-26 2022-02-10 삼성전자주식회사 위치 정보 처리 방법 및 그것을 포함하는 계측 정보 처리 방법
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
WO2016183390A1 (en) 2015-05-13 2016-11-17 Taktia Llc Systems, methods and apparatus for guided tools
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
EP3371671B1 (en) 2015-11-02 2020-10-21 Starship Technologies OÜ Method, device and assembly for map generation
CN106210450B (zh) * 2016-07-20 2019-01-11 罗轶 一种多通道多视角大数据视频剪辑方法
EP4375773A3 (en) 2016-08-19 2024-07-17 Shaper Tools, Inc. Apparatus and method for guiding a tool positioned on the surface of a piece of material
EP3631755B1 (en) 2017-05-25 2023-11-01 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for representing environmental elements, system, and vehicle/robot
US10776652B2 (en) * 2017-09-28 2020-09-15 Baidu Usa Llc Systems and methods to improve visual feature detection using motion-related data
US11175148B2 (en) 2017-09-28 2021-11-16 Baidu Usa Llc Systems and methods to accommodate state transitions in mapping
CN109062211B (zh) * 2018-08-10 2021-12-10 远形时空科技(北京)有限公司 一种基于slam识别临近空间的方法、装置、系统及存储介质
CN110956660B (zh) * 2018-09-26 2023-10-10 深圳市优必选科技有限公司 定位方法、机器人以及计算机存储介质
US20200182623A1 (en) * 2018-12-10 2020-06-11 Zebra Technologies Corporation Method, system and apparatus for dynamic target feature mapping
CN112013844B (zh) * 2019-05-31 2022-02-11 北京小米智能科技有限公司 建立室内环境地图的方法及装置
CN112833890B (zh) * 2020-12-30 2024-08-13 深圳市海柔创新科技有限公司 地图构建方法、装置、设备、机器人及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198810A (ja) 1997-01-14 1998-07-31 Fujitsu Ltd イメージデータ生成装置
KR20060081673A (ko) * 2006-05-25 2006-07-13 한국정보통신대학교 산학협력단 센서 네트워크 기반의 광범위 방범 로봇 시스템 및 방법
JP2007255955A (ja) * 2006-03-22 2007-10-04 Mitsubishi Electric Corp 姿勢角検出装置、カメラ
KR20080053172A (ko) * 2006-12-08 2008-06-12 한국전자통신연구원 수평선 추출 장치 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3641335B2 (ja) 1996-12-03 2005-04-20 シャープ株式会社 全方位視覚センサを用いた位置検出方法
US7386183B2 (en) * 2004-07-09 2008-06-10 Aloka Co., Ltd. Method and apparatus for image processing
US7826926B2 (en) * 2005-11-07 2010-11-02 Samsung Electronics Co., Ltd. Robot and method of localizing the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198810A (ja) 1997-01-14 1998-07-31 Fujitsu Ltd イメージデータ生成装置
JP2007255955A (ja) * 2006-03-22 2007-10-04 Mitsubishi Electric Corp 姿勢角検出装置、カメラ
KR20060081673A (ko) * 2006-05-25 2006-07-13 한국정보통신대학교 산학협력단 센서 네트워크 기반의 광범위 방범 로봇 시스템 및 방법
KR20080053172A (ko) * 2006-12-08 2008-06-12 한국전자통신연구원 수평선 추출 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101076803B1 (ko) 2009-06-30 2011-10-25 국민대학교산학협력단 실내 기동 로봇의 지도 작성 방법 및 이를 이용한 기동 위치 판별 방법

Also Published As

Publication number Publication date
KR20090064981A (ko) 2009-06-22
US8331652B2 (en) 2012-12-11
US20090154791A1 (en) 2009-06-18

Similar Documents

Publication Publication Date Title
KR100926760B1 (ko) 이동 로봇의 위치 인식 및 지도 작성 방법
EP2531980B1 (en) Depth camera compatibility
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
Saeedi et al. Vision-based 3-D trajectory tracking for unknown environments
US20150235367A1 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
CN110926330B (zh) 图像处理装置和图像处理方法
US20220189113A1 (en) Method for generating 3d skeleton using joint-based calibration acquired from multi-view camera
US11113879B2 (en) Systems and methods for generating augmented reality environments from two-dimensional drawings
KR20120014925A (ko) 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법
WO2004038657A2 (en) Tracking a surface in a 3-dimensional scene using natural visual features of the surface
KR101207535B1 (ko) 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법
WO2018098862A1 (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
KR101972582B1 (ko) Ptz 촬상장치 기반 변위 측정 시스템 및 방법
KR100647750B1 (ko) 화상 처리 장치
CN118864886B (zh) 一种实时动态场景焦平面跟踪方法及跟踪系统
JP2016148956A (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
KR20090090983A (ko) 복수의 카메라 영상을 이용한 공간좌표 추출방법
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
US20100262290A1 (en) Data matching apparatus, data matching method and mobile robot
KR101837482B1 (ko) 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치
US12283007B2 (en) Method for generating an augmented image
KR20160111151A (ko) 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치
KR101964829B1 (ko) 자동 캘리브레이션 기능을 구비한 어라운드뷰 제공 방법 및 장치
CN118918011B (zh) 一种应用于超分辨率成像的焦平面识别方法及识别系统
TWI877760B (zh) 用於車輛的校準系統與用於車輛的校準方法

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20071217

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20080122

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20071217

Comment text: Patent Application

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20091014

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20091106

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20091109

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20121016

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20121016

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20131022

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20131022

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20141022

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20141022

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20151019

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20151019

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20161018

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20161018

Start annual number: 8

End annual number: 8

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 9

PR1001 Payment of annual fee

Payment date: 20171018

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20221005

Start annual number: 14

End annual number: 14

PR1001 Payment of annual fee

Payment date: 20240304

Start annual number: 15

End annual number: 15

PR1001 Payment of annual fee

Payment date: 20241024

Start annual number: 16

End annual number: 16