[go: up one dir, main page]

KR20170000282A - 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법 - Google Patents

센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법 Download PDF

Info

Publication number
KR20170000282A
KR20170000282A KR1020150089318A KR20150089318A KR20170000282A KR 20170000282 A KR20170000282 A KR 20170000282A KR 1020150089318 A KR1020150089318 A KR 1020150089318A KR 20150089318 A KR20150089318 A KR 20150089318A KR 20170000282 A KR20170000282 A KR 20170000282A
Authority
KR
South Korea
Prior art keywords
robot
information
sensor
position information
map information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020150089318A
Other languages
English (en)
Inventor
노명찬
정영숙
서범수
이경근
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020150089318A priority Critical patent/KR20170000282A/ko
Priority to US15/190,064 priority patent/US20160375583A1/en
Publication of KR20170000282A publication Critical patent/KR20170000282A/ko
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법에 관한 것으로 로봇 위치정보 생성부, 로봇 위치 정확도 계산부를 포함할 수 있으며, 이를 통해 로봇이 실제 위치 및 이동경로와 로봇이 인식하고 있는 자신의 위치 및 이동경로가 상이함으로 인하여 발생하는 충돌 및 안전 사고를 방지하기 위하여 로봇이 인식하고 있는 자신의 위치정보에 대한 정확도를 제공하는데 그 목적이 있다.

Description

센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법{Robot position accuracy information providing apparatus using a sensor and method therefor}
본 발명은 로봇의 위치 정보를 제공하는 장치에 관한 것으로서, 보다 구체적으로는 이러한 로봇의 현재 위치 또는 이동 경로를 추적할 때 더욱 정확한 위치 정보를 제공하기 위하여 다양한 위치에 존재하는 센서를 통해 사용자에게 제공되는 위치정보의 정확도에 대한 정보를 제공하는 장치 및 방법에 관한 것이다.
최근 로봇의 운용방법은 운용환경에 대한 지도가 로봇에게 주어지고 사용자의 명령에 따라 로봇은 주어진 지도를 이용하여 출발지에서 목적지까지 이동경로를 생성하고, 생성된 경로를 따라 목적지까지 이동하는 방법으로 지도 정보 상에서 정해진 위치까지 이동할 수 있게 되었다.
이렇게 자율적으로 이동하는 로봇위치를 추정하기 위한 센서로 위성항법장치를 비롯해 오토메터, 비주얼 오토메터 등 다양한 센서가 사용되며, 이들 센서간 융합을 통해 로봇의 위치를 추정할 수 있다.
이러한 상황에서 실외 환경에서의 대부분의 로봇들은 위성항법장치에 대한 의존도가 상당히 높으나 위성항법장치는 날씨, 계절, 빌딩 주위와 같은 환경에서는 위성항법장치의 데이터 수신이 원할 하지 않는 음영지역이 발생한다.
따라서 이러한 이유로 실제 로봇의 이동경로와 로봇이 자신의 위치를 인식하여 주어진 경로를 따라 이동한 경로간에 차이가 발생하게 되고 의도치 않은 충돌 및 안전사고도 발생하게 된다.
본 발명의 목적은 로봇이 실제 위치 및 이동경로와 로봇이 인식하고 있는 자신의 위치 및 이동경로가 상이함으로 인하여 발생하는 충돌 및 안전 사고를 방지하기 위하여 로봇이 인식하고 있는 자신의 위치정보에 대한 정확도를 제공하는 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법을 제공하는 것이다.
본 발명에 실시 예에 따르면 센서를 이용한 로봇 위치 정확도 정보 제공장치는 로봇의 외부에 위치한 적어도 하나의 센서를 이용하여 로봇의 위치 및 센서 영점 값을 계산하고 상기 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치되도록 회전시키고 이를 반영하여 로봇위치를 제1차 보정하며, 상기 센서 영점 값을 상기 보정된 로봇 위치에 반영하여 로봇의 위치를 제2차 보정함으로써 외부 위치정보를 생성하고, 로봇에 포함된 적어도 하나의 센서를 이용하여 지도 정보 상의 로봇의 위치를 포함하는 내부 위치정보를 생성하며, 상기 외부 위치정보 및 내부 위치정보를 포함하는 통합 위치정보를 생성하는 로봇 위치정보 생성부; 및 수신한 통합 위치정보 및 지도 정보를 각각 대응시켜, 상기 대응되는 위치정보가 일치하는 정도에 따라 로봇 위치 정보의 정확도를 계산하는 로봇 위치 정확도 계산부를 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 로봇 위치정보 생성부는, 로봇의 외부에 위치한 적어도 하나의 센서로부터 로봇과 상기 센서와의 거리를 측정한 거리 측정 값을 획득하여 로봇의 위치를 계산하고, 상기 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치되도록 상기 계산된 로봇 위치의 좌표축을 회전시키고 이를 반영하여 로봇의 위치를 제1차 보정하며, 지도의 원점좌표와 상기 센서의 X축과 Y축의 오차를 센서 영점 값으로 생성하고, 상기 보정된 로봇 위치에 상기 센서 영점 값을 반영하는 제2차 보정을 통해 외부 위치정보를 생성하는 외부 위치정보 생성부; 로봇에 포함된 센서를 이용하여 로봇의 현재 위치 값을 획득하고, 상기 획득한 현재 위치 값으로 지도 정보 상의 로봇의 현재 위치를 계산하는 내부 위치정보 생성부; 및 상기 생성된 외부 위치 정보 및 내부 위치 정보를 포함하는 통합 위치 정보를 생성하는 통합 위치정보 생성부를 더 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 외부 위치정보 생성부는, 로봇의 외부에 위치한 적어도 하나의 센서로부터 상기 센서와 로봇과의 거리를 측정한 거치 측정 값을 획득하는 거리 측정 값 획득부; 상기 획득한 거리 측정 값을 이용하여 측정한 센서의 지도 정보 상의 위치를 기준으로 측정된 거리만큼 상기 센서와 로봇이 이격되어 있는 것으로 로봇의 위치를 계산하는 로봇 위치 계산부; 상기 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치되도록 상기 계산된 로봇 위치의 좌표축을 회전시키고 이를 반영하여 로봇 위치를 제1차 보정하는 좌표 축 보정부; 지도의 원점좌표와 상기 센서의 X축과 Y축의 오차를 센서 영점 값으로 생성하는 센서 영점 값 생성부; 및 상기 보정된 로봇의 위치에 상기 생성된 센서 영점 값을 적용하는 로봇의 위치의 제2차 보정을 통해 외부 위치정보를 생성하는 로봇 위치 보정부를 더 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 로봇 위치 계산부는, 상기 적어도 하나 이상의 센서로부터 획득한 복수의 거리 측정 값을 획득하여, 상기 획득한 거리 측정 값을 통합하여 지도 정보 상의 각 센서의 위치를 기준으로 로봇의 위치를 계산할 수 있다.
본 발명의 일 실시 예에 따르면 상기 로봇 위치 정확도 계산부는, 수신한 통합 위치정보에 포함된 외부 위치정보 및 내부 위치정보에 대응하는 지도 정보 상의 좌표를 각각 확정하고, 내부 위치정보에 대응하는 지도 정보 상의 좌표를 원점으로 하여 외부 위치정보에 대응하는 지도 정보 상의 좌표가 일치하는 정도에 따라 로봇 위치 정보의 정확도를 계산할 수 있다.
본 발명의 실시 예에 따르면 센서를 이용한 로봇 위치 정확도 정보 제공방법 은 로봇의 외부에 위치한 적어도 하나의 센서를 이용하여 로봇의 위치 및 센서 영점 값을 계산하고 상기 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치되도록 회전시키고 이를 반영하여 로봇위치를 제1차 보정하며, 상기 센서 영점 값을 상기 보정된 로봇 위치에 반영하여 로봇의 위치를 제2차 보정함으로써 외부 위치정보를 생성하고, 로봇에 포함된 적어도 하나의 센서를 이용하여 지도 정보 상의 로봇의 위치를 포함하는 내부 위치정보를 생성하며, 상기 외부 위치정보 및 내부 위치정보를 포함하는 통합 위치정보를 생성하는 단계 및 수신한 통합 위치정보 및 지도 정보를 각각 대응시켜, 상기 대응되는 위치정보가 일치하는 정도에 따라 로봇 위치 정보의 정확도를 계산하는 단계를 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 통합 위치정보를 생성하는 단계는, 로봇의 외부에 위치한 적어도 하나의 센서로부터 로봇과 상기 센서와의 거리를 측정한 거리 측정 값을 획득하여 로봇의 위치를 계산하고, 상기 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치되도록 상기 계산된 로봇 위치의 좌표축을 회전시키고 이를 반영하여 로봇의 위치를 제1차 보정하며, 지도의 원점좌표와 상기 센서의 X축과 Y축의 오차를 센서 영점 값으로 생성하고, 상기 보정된 로봇 위치에 상기 센서 영점 값을 반영하는 제2차 보정을 통해 외부 위치정보를 생성하는 단계, 로봇에 포함된 센서를 이용하여 로봇의 현재 위치 값을 획득하고, 상기 획득한 현재 위치 값으로 지도 정보 상의 로봇의 현재 위치를 계산하는 단계; 및 상기 생성된 외부 위치 정보 및 내부 위치 정보를 포함하는 통합 위치 정보를 생성하는 단계를 더 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 외부 위치정보를 생성하는 단계는, 로봇의 외부에 위치한 적어도 하나의 센서로부터 상기 센서와 로봇과의 거리를 측정한 거치 측정 값을 획득하는 단계; 상기 획득한 거리 측정 값을 이용하여 측정한 센서의 지도 정보 상의 위치를 기준으로 측정된 거리만큼 상기 센서와 로봇이 이격되어 있는 것으로 로봇의 위치를 계산하는 단계; 상기 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치되도록 상기 계산된 로봇 위치의 좌표축을 회전시키고 이를 반영하여 로봇 위치를 제1차 보정하는 단계; 지도의 원점좌표와 상기 센서의 X축과 Y축의 오차를 센서 영점 값으로 생성하는 단계; 및 상기 보정된 로봇의 위치에 상기 생성된 센서 영점 값을 적용하는 로봇의 위치의 제2차 보정을 통해 외부 위치정보를 생성하는 단계를 더 포함할 수 있다.
본 발명의 일 실시 예에 따르면 상기 로봇의 위치를 계산하는 단계는, 상기 적어도 하나 이상의 센서로부터 획득한 복수의 거리 측정 값을 획득하여, 상기 획득한 거리 측정 값을 통합하여 지도 정보 상의 각 센서의 위치를 기준으로 로봇의 위치를 계산할 수 있다.
본 발명의 일 실시 예에 따르면 상기 로봇 위치 정보의 정확도를 계산하는 단계는, 수신한 통합 위치정보에 포함된 외부 위치정보 및 내부 위치정보에 대응하는 지도 정보 상의 좌표를 각각 확정하고, 내부 위치정보에 대응하는 지도 정보 상의 좌표를 원점으로 하여 외부 위치정보에 대응하는 지도 정보 상의 좌표가 일치하는 정도에 따라 로봇 위치 정보의 정확도를 계산할 수 있다.
도 1은 본 발명의 실시 예에 따른 센서를 이용한 로봇 위치 정확도 정보 제공장치의 구성도이다.
도 2는 도 1에 도시된 로봇 위치정보 생성부의 세부 구성도이다.
도 3은 도 2 에 도시된 외부 위치정보 생성부의 세부 구성도이다.
도 4는 본 발명의 실시 예에 따른 통합 위치정보를 저장하기 위한 데이터베이스 형식을 나타낸 도면이다.
도 5는 본 발명의 실시 예에 따른 데이터 베이스에 저장된 지도정보의 형식을 나타낸 도면이다.
도 6은 단일 외부 센서에 의한 외부 위치정보 생성을 나타낸 도면이다.
도 7은 복수 외부 센서에 의한 외부 위치정보 생성을 나타낸 도면이다.
도 8은 본 발명의 실시 예에 따른 외부 센서가 로봇과의 거리를 측정하는 것을 나타낸 도면이다,
도 9는 본 발명의 실시 예에 따른 로봇 위치 정확도 정보 제공방법을 나타낸 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하, 도면을 참조하여 본 발명의 실시 예에 따른 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법에 대하여 설명한다.
도 1은 본 발명의 실시 예에 따른 센서를 이용한 로봇 위치 정확도 정보 제공장치(1000)의 구성도이다.
도 1을 참조하면 센서를 이용한 로봇 위치 정확도 정보 제공장치(1000)는 로봇 위치정보 생성부(100), 로봇 위치 정확도 계산부(200)를 포함 할 수 있다.
로봇 위치정보 생성부(100)는 로봇의 외부에 위치한 적어도 하나의 센서를 이용하여 로봇의 위치 및 센서 영점 값을 계산하고 계산된 로봇 위치 및 센서 영점 값을 이용하여 로봇의 위치를 보정함으로써 외부 위치정보를 생성할 수 있다.
또한 데이터 베이스로부터 지도 정보를 수신하고 로봇에 포함된 적어도 하나의 센서를 이용하여 계산된 지도 정보 상의 로봇의 위치를 포함하는 내부 위치정보를 생성할 수 있으며, 생성된 외부 위치정보 및 내부 위치정보를 포함하는 통합 위치정보를 생성할 수 있다.
여기서 센서는 외부에 위치하여 로봇과 센서와의 거리를 측정할 수 있는 일종의 거리측정센서 또는 로봇 내부에 포함되어 로봇의 현재 위치에 대한 정보를 획득 할 수 있는 GPS등의 지리적 위치 센서가 사용될 수 있다.
본 발명의 일시 예에 따른 로봇 위치정보 생성부(100)는 도 2를 참조하며 더 자세히 설명하도록 한다.
로봇 위치 정확도 계산부(200)는 수신한 통합 위치정보 및 지도 정보를 각각 대응시켜, 상기 대응되는 각 지도 정보상 로봇 위치의 일치 정도에 따라 로봇 위치 정보의 정확도를 계산할 수 있다.
본 발명의 일 실시 예에 따르면 로봇 위치 정확도 계산부(200)는 수신한 통합 위치정보에 포함된 외부 위치정보 및 내부 위치정보에 대응하는 지도 정보 상의 좌표를 각각 확정하고, 내부 위치정보에 대응하는 지도 정보 상의 좌표를 원점으로 하여 상기 원점과 외부 위치정보에 대응하는 지도 정보 상의 좌표가 일치하는 정도에 따라 로봇 위치 정보의 정확도를 계산할 수 있다.
이때 정확도를 계산하는 방법으로는 수신한 지도 정보상의 X축과 Y축을 각각 1로 환산하고, 내부 위치정보에 대응하는 지도 정보 상의 좌표 및 외부 위치정보에 대응하는 지도 정보 상의 좌표를 산출하며, 내부 위치정보에 대응하는 지도 정보 상의 위치 좌표를 기준으로 하여 외부 위치정보에 대응하는 지도 정보 상의 좌표와의 사이에 발생하는 X축, Y축에서의 차이를 측정 가능한 범위의 X축과 Y축을 각각 1로 환산한 거리에 맞추어 산출하여, 산출된 값을 각각 1에서 감소시키고, 남은 X축 값과 Y축 값을 곱한 값을 정확도로 계산할 수 있다.
예를 들어 X축을 10만큼, Y축을 10만큼 측정할 수 있는 지도에서, 로봇의 내부 위치정보에 대응하는 지도 정보 상의 위치 좌표가 (4. 5)인 반면에 외부 위치정보에 대응하는 지도 정보 상의 좌표는 (2, 6)이라면, X축은 2만큼, Y축은 1만큼 차이가 나며 이러한 차이는 10을 1로 환산한 거리에서 각각 0.2, 0.1이되므로 이를 1에서 감소시킨 0.8과 0.9를 곱한 0.72를 정확도로 산출 하여 사용자에게 정확도가 72%인 정보라고 제공할 수 있다.
이러한 정확도 산출 방법은 하나의 실시 예에 불과하며 원점과의 오차 값을 이용하여 정확도를 산출하는 방법이라면 제한 없이 사용될 수 있다.
도 2는 도 1에 도시된 로봇 위치정보 생성부(100)의 세부 구성도이다.
도 2를 참조하면 로봇 위치정보 생성부(100)는 외부 위치정보 생성부(110), 내부 위치정보 생성부(120), 통합 위치정보 생성부(130)을 포함할 수 있다.
외부 위치정보 생성부(110)는 로봇의 외부에 위치한 적어도 하나의 센서로부터 로봇과 센서와의 거리를 측정한 거리 측정 값을 획득하여 로봇의 위치를 계산하고 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치하도록 계산된 로봇 위치의 좌표축을 회전시킴으로써 로봇의 위치를 제1차 보정할 수 있다.
또한 지도 정보 상의 원점좌표와 상기 센서의 영점좌표 간의 오차를 센서 영점 값으로 생성하고, 상기 제1차 보정된 로봇 위치에 상기 센서 영점 값을 반영하여 제2차 보정함으로써 외부 위치정보를 생성할 수 있다.
외부 위치정보 생성부(110)에 대하여는 도 3을 참조하며 더 자세히 설명하도록 한다.
내부 위치정보 생성부(120)는 로봇에 포함된 센서를 이용하여 로봇의 현재 위치 값을 획득하고, 획득한 현재 위치 값을 이용하여 수신한 지도 정보 상에서의 로봇의 현재 위치를 계산할 수 있다.
여기서 로봇에 포함된 센서는 로봇의 현재 위치를 파악할 수 있도록 GPS를 사용할 수 있으나, 지리적 정보를 수집 센서로 현재 위치에 대한 데이터를 수집할 수 있는 센서라면 제한 없이 사용될 수 있다.
본 발명의 일 실시 예에 따르면 수신한 지도 정보 상에서의 로봇의 현재 위치를 계산하는 것은 센서로부터 획득한 현재 위치 값에 지도 정보 상의 좌표를 대응시켜, 대응된 지도 정보 상의 좌표를 지도 정보 상 로봇의 현재 위치로 선정하는 방법을 사용할 수 있다.
통합 위치정보 생성부(130)는 생성된 외부 위치 정보 및 내부 위치 정보를 포함하는 통합 위치 정보를 생성할 수 있다.
본 발명의 일 실시 예에 따르면 생성된 통합 위치정보는 도 4에 나타난 데이터 베이스 형식을 가질 수 있다.
도 4는 본 발명의 실시 예에 따른 통합 위치정보를 저장하기 위한 데이터베이스 형식을 나타낸 도면이다.
도 4를 참조하면 통합 위치정보를 생성할 때 내부 위치 정보 및 외부 위치정보의 시간적 동기화를 위하여, 외부 위치정보와 내부 위치정보는 동일한 시간으로, 또는 단일 행으로 저장할 수 있다.
여기서 내부 위치 정보 및 내부 위치정보는 각각 (X, Y) 또는 (X, Y, Theta)의 형식으로 저장 될 수 있다.
이때 X는 X축의 좌표, Y는 Y축의 좌표, Theta는 Theta축의 각도를 나타낼 수 있다.
도 3은 도 2 에 도시된 외부 위치정보 생성부(110)의 세부 구성도이다.
도 3을 참조하면 외부 위치정보 생성부(110)는 거리 측정 값 획득부(111), 로봇 위치 계산부(112), 좌표 축 보정부(113), 센서 영점 값 생성부(114), 로봇 위치 보정부(115)를 포함할 수 있다.
거리 측정 값 획득부(111)는 로봇의 외부에 위치한 적어도 하나의 센서로부터 센서와 로봇의 사이의 거리를 측정한 거치 측정 값을 획득할 수 있다.
본 발명의 실시 예에 따르면 센서와 로봇과의 거리를 측정하는 것은 도 8과 같은 방법을 사용할 수 있다.
도 8은 본 발명의 실시 예에 따른 외부 센서가 로봇과의 거리를 측정하는 것을 나타낸 도면이다,
도 8을 참조하면 로봇은 그 상단에 원통형의 물체를 부착할 수 있으며 외부에 위치한 센서는 로봇 몸체를 탐색하는 것이 아니라, 로봇 몸체 상단에 부착된 원통형의 물체를 탐색하여 그 물체와 센서와의 거리를 측정 할 수 있다.
이러한 방법을 사용하는 이유는 특정 부위가 튀어나오거나 들어가지 아니한 원통형의 물체를 탐색하여 그 거리를 측정함으로써 센서와 로봇과의 정확환 거리를 측정하기 위함이다.
상기 실시 예에 따르면 거리 측정 값이란 센서와 탐색된 로봇의 상단에 부착된 원통형의 물체와의 이격거리를 의미할 수 있다.
로봇 위치 계산부(112)는 획득한 거리 측정 값만큼 지도 정보 상의 센서의 위치로부터 로봇이 이격되어 있는 것으로 지도 정보 상의 로봇의 위치를 계산할 수 있다.
여기서 로봇의 위 계산 방법은 지도 정보 상의 센서의 위치를 획득하여 그 위치로부터 획득한 거리 측정 값만큼 지도 정보 상에 떨어진 거리에 로봇이 위치하는 것으로 계산할 수 있다.
본 발명의 일 실시 예에 따르면 로봇 위치 계산부(112)는 적어도 하나 이상의 센서로부터 획득한 복수의 거리 측정 값을 획득하여, 획득한 거리 측정 값을 통합하여 수신한 지도 정보 상에서의 각 센서의 위치를 기준으로 로봇의 위치를 계산할 수 있다.
본 발명의 일 실시 예에 따르면 여기서 획득한 거리 측정 값을 통합하는 것은 각 센서로부터 획득한 센서의 지도 정보 상의 위치 및 그 센서로부터 측정한 거리 측정 값을 통하여 로봇의 위치를 지도 정보 상의 좌표로 결정하고, 상기 지도 정보 상의 좌표들을 각 축 별로 모아 이를 평균하여 산출한 평균값으로 지도 정보 상의 좌표를 결정하여, 결정된 지도 정보 상의 좌표를 현재 로봇의 위치로 산출 할 수 있다.
좌표 축 보정부(113)는 계산된 로봇 위치의 좌표축이 수신한 지도 정보 상의 좌표축과 일치되도록 계산된 로봇 위치의 좌표축을 회전시켜 로봇의 위치를 제1차 보정할 수 있다.
본 발명의 실시 예에 따르면 로봇 위치의 좌표축을 회전하는 것은, 로봇위치의 X축, Y축을 지도의 좌표축을 기준으로 일정한 방향 또는 양방향으로 회전하는 방법을 사용할 수 있다.
좌표축을 보정하는 방법은 도 6, 7을 참조하여 더 자세히 설명하도록 한다.
센서 영점 값 생성부(114)는 지도의 원점좌표와 상기 센서의 X축과 Y축의 오차를 센서 영점 값으로 생성할 수 있다.
여기서 센서 영점 값은 제3자 입장에서의 로봇 위치를 측정하기 위해 로봇 외부에 위치한 센서를 임의의 지도 정보 상에 위치시키고, 센서에 대한 지도 정보 상의 원점좌표의 좌표축과 센서의 좌표축 간의 X축과 Y축의 차이 값을 의미할 수 있다.
로봇 위치 보정부(115)는 제1차 보정된 로봇의 위치에 생성된 센서 영점 값을 적용하여 로봇의 위치를 제2차 보정함으로써 외부 위치정보를 생성할 수 있다.
본 발명의 실시 예에 따르면 계산된 로봇의 지도 정보 상의 위치에 생성된 센서 영점 값을 적용하여 지도 정보 상의 원점좌표의 좌표축과 센서의 좌표축 간의 오차를 보정할 수 있다.
도 5는 본 발명의 실시 예에 따른 데이터 베이스에 저장된 지도정보의 형식을 나타낸 도면이다.
도 5를 참조하면 데이터 베이스에 저장된 지도정보의 형식은 해당 위치를 식별할 수 있는 위치 식별자, 식별된 위치에 대한 지도 정보 상의 위치정보를 포함할 수 있으며 일 실시 예에 따르면 추가적으로 해당 위치에 대한 속성정보를 포함할 수 있다.
본 발명의 일 실시 예에 따르면 해당 위치에 대한 속성정보는 해당 위치의 장애물 정보, 위험 경보, 경로 정보 등을 포함할 수 있다.
도 6은 단일 외부 센서에 의한 외부 위치정보 생성을 나타낸 도면이다.
도 6을 참조하면 로봇의 외부에 위치한 센서가 하나만 존재하는 경우 로봇 위치 정확도 정보 제공장치(1000)는 로봇의 외부 위치정보를 생성할 수 있다.
본 발명의 일 실시 예에 따르면 로봇 위치 정확도 정보 제공장치(1000)는 로봇의 외부에 위치한 센서는 로봇 운용 공간, 즉 지도 정보 상에 인식될 수 있는 공간에 위치한 로봇을 인식하여 거리 측정 값을 획득할 수 있다.
그리고 획득한 거리 측정 값을 이용하여 측정한 센서의 지도 정보 상의 위치를 기준으로 측정된 거리만큼 상기 센서와 로봇이 이격되어 있는 것으로 로봇의 위치를 계산할 수 있다.
여기서 센서는 로봇의 외부에 위치한 센서를 의미할 수 있으며, 본 발명의 일 실시 예에 따르면 거리를 측정할 수 있는 거리 측정 센서를 사용할 수 있다,
로봇 위치를 계산한 다음, 계산된 로봇 위치의 좌표축이 지도 정보 상의 좌표축과 일치되도록 상기 로봇을 회전시켜 이를 반영하여 로봇의 위치를 보정할 수 있다.
이때 로봇의 외부에 위치하는 센서가 하나이므로 로봇 위치의 좌표축이 지도 정보 상의 좌표축에 일치하도록 로봇을 rTh 만큼 회전할 수 있다.
본 발명의 일 실시 예에 따르면 계산된 로봇 위치의 좌표 축을 rTh 만큼 회전한 그 위치를 제1차 보정된 로봇 위치로 정의하여 보정하는 방법을 사용할 수 있다.
본 발명의 일 실시 예에 따르면 센서로부터 수신한 센서의 X축과 Y축 정보와 지도의 원점좌표를 대응시켜 지도의 원점좌표와 상기 센서의 X축과 Y축의 오차를 센서 영점 값으로 생성 할 수 있다.
또한 보정된 로봇의 위치에 상기 생성된 센서 영점 값을 적용하는 로봇의 위치의 제2차 보정을 통해 외부 위치정보를 생성할 수 있다.
도 7은 복수 외부 센서에 의한 외부 위치정보 생성을 나타낸 도면이다.
도 7을 참조하면 n개의 외부 센서를 사용하는 일 실시 예에 따르면 도 6의 단일 외부 센서에서 로봇 위치의 좌표 축을 rTh 만큼 회전한 그 위치를 제1차 보정한 위치로 정의하는 것과는 달리, 로봇 위치의 좌표축이 지도 정보 상의 좌표축에 일치하도록 로봇의 좌표축을 rTh1, rTh2… rThn 만큼 회전할 수 있고, 회전한 그 위치를 제1차 보정한 위치로 정의하여 보정할 수 있다.
도 9는 본 발명의 실시 예에 따른 로봇 위치 정확도 정보 제공방법을 나타낸 흐름도이다.
센서와 로봇과의 거리를 측정한 거리 측정 값을 획득한다(900).
본 발명의 실시 예에 따르면 로봇의 외부에 위치한 적어도 하나의 센서로부터 상기 센서와 로봇의 사이의 거리를 측정한 거치 측정 값을 획득할 수 있다.
본 발명의 일 실시 예에 따르면 로봇은 그 상단에 원통형의 물체를 부착할 수 있으며 외부에 위치한 센서는 로봇 몸체를 탐색하는 것이 아니라, 로봇 몸체 상단에 부착된 원통형의 물체를 탐색하여 그 물체와 센서와의 거리를 측정 할 수 있다.
이러한 방법을 사용하는 이유는 특정 부위가 튀어나오거나 들어가지 아니한 원통형의 물체를 탐색하여 그 거리를 측정함으로써 센서와 로봇과의 정확환 거리를 측정하기 위함이다.
상기 실시 예에 따르면 거리 측정 값이란 센서와 탐색된 로봇의 상단에 부착된 원통형의 물체와의 이격거리를 의미할 수 있다.
획득한 거리 측정 값을 이용하여 로봇의 지도 정보상의 위치를 계산한다(910).
본 발명의 실시 예에 따르면 획득한 거리 측정 값만큼 지도 정보 상의 센서의 위치로부터 로봇이 이격되어 있는 것으로 지도 정보 상의 로봇의 위치를 계산할 수 있다.
여기서 로봇의 위 계산 방법은 지도 정보 상의 센서의 위치를 획득하여 그 위치로부터 획득한 거리 측정 값만큼 지도 정보 상에 떨어진 거리에 로봇이 위치하는 것으로 계산할 수 있다.
본 발명의 일 실시 예에 따르면 적어도 하나 이상의 센서로부터 획득한 복수의 거리 측정 값을 획득하여, 획득한 거리 측정 값을 통합하여 수신한 지도 정보 상에서의 각 센서의 위치를 기준으로 로봇의 위치를 계산할 수 있다.
여기서 획득한 거리 측정 값을 통합하는 것은 각 센서로부터 획득한 센서의 지도 정보 상의 위치 및 그 센서로부터 측정한 거리 측정 값을 통하여 로봇의 위치를 지도 정보상의 좌표로 결정하고, 지도 정보 상의 좌표들을 각 축 별로 모아 이를 평균하여 산출한 평균값으로 지도 정보 상의 좌표를 결정하여, 결정된 지도 정보 상의 좌표를 현재 로봇의 위치로 산출 할 수 있다.
로봇 위치의 좌표축을 회전시키고 로봇 위치를 제1차 보정한다(920).
본 발명의 실시 예에 따르면 계산된 로봇 위치의 좌표축이 수신한 지도 정보 상의 좌표축과 일치되도록 계산된 로봇 위치의 좌표축을 회전시켜 로봇의 위치를 제1차 보정할 수 있다.
본 발명의 일 실시 예에 따르면 로봇 위치의 좌표축을 회전하는 것은, 로봇위치의 X축, Y축을 지도의 좌표축을 기준으로 일정한 방향 또는 양방향으로 회전하는 방법을 사용할 수 있다.
수신한 지도 정보 상의 원점좌표와 상기 센서의 원점좌표의 오차를 센서 영점 값으로 생성한다(930).
본 발명의 실시 예에 따르면 센서 영점 값은 지도 정보 상 원점좌표의 좌표축과 로봇 외부에 위치한 센서의 좌표축 간의 X축과 Y축의 차이 값을 의미할 수 있다.
제1차 보정된 로봇의 위치에 상기 생성된 센서 영점 값을 적용하여 로봇의 위치를 제2차 보정하여 외부 위치정보를 생성한다(940).
본 발명의 실시 예에 따르면 계산된 로봇의 지도 정보 상의 위치에 생성된 센서 영점 값을 적용하여 지도 정보 상의 원점좌표의 좌표축과 센서의 좌표축 간의 오차를 보정할 수 있으며, 이렇게 보정된 로봇위치를 이용하여 외부 위치정보를 생성할 수 있다.
로봇에 포함된 센서를 이용하여 로봇의 현재 위치 값을 획득한다(950).
본 발명의 일 실시 예에 따르면 로봇에 포함된 센서는 로봇의 현재 위치를 파악할 수 있도록 GPS를 사용할 수 있으나, 지리적 정보를 수집 센서로 현재 위치에 대한 데이터를 수집할 수 있는 센서라면 제한 없이 사용될 수 있다.
획득한 현재 위치 값으로 지도 정보 상 로봇의 현재 위치를 확정한다(960).
본 발명의 일 실시 예에 따르면 지도 정보 상 로봇의 현재 위치를 확정하는 것은 센서로부터 획득한 현재 위치 값에 지도 정보 상의 좌표를 대응시켜, 대응된 지도 정보 상의 좌표를 지도 정보 상 로봇의 현재 위치로 선정하는 방법을 사용할 수 있다.
외부 위치 정보 및 내부 위치 정보를 포함하는 통합 위치 정보를 생성한다(970).
본 발명의 일 실시 예에 따르면 통합 위치정보를 생성할 때 내부 위치 정보 및 외부 위치정보의 시간적 동기화를 위하여, 외부 위치정보와 내부 위치정보는 동일한 시간으로, 또는 단일 행으로 저장할 수 있다.
여기서 내부 위치 정보 및 내부 위치정보는 각각 (X, Y) 또는 (X, Y, Theta)의 형식으로 저장 될 수 있다.
이때 X는 X축의 좌표, Y는 Y축의 좌표, Theta는 Theta축의 각도를 나타낼 수 있다.
수신한 통합 위치정보 및 지도 정보를 각각 대응한다(980).
본 발명의 일 실시 예에 따르면 수신한 통합 위치정보에 포함된 외부 위치정보 및 내부 위치정보에 대응하는 지도 정보 상의 좌표를 각각 확정할 수 있다.
각 위치 정보에 대응되는 지도 정보 상의 좌표의 일치 정도에 따라 로봇 위치 정보의 정확도를 계산한다(990).
여기서 각 위치 정보에 대응되는 지도 정보 상의 좌표는 통합 위치정보에 포함된 내부, 외부 위치정보에 대응하는 지도 정보 상의 좌표일 수 있다.
본 발명의 일 실시 예에 따르면 정확도를 계산하는 방법으로는 인식될 수 있는 지도 정보 상에 X축과 Y축을 각각 1로 환산하고 원점인 지도 정보 상의 좌표로부터 외부 위치정보에 대응하는 지도 정보 상의 좌표가 X축, Y축에서 발생하는 차이를 1로 환산한 거리에 맞추어 산출하여, 산출된 값을 각각 1에서 감소시키고, 남은 X축 값과 Y축 값을 곱한 값을 정확도로 산출할 수 있다.
예를 들어 X축을 10만큼, Y축을 10만큼 측정할 수 있는 지도에서, 지도 정보 상의 좌표가 (4. 5)인 반면에 외부 위치정보에 대응하는 지도 정보 상의 좌표는 (2, 6)이라면, X축은 2만큼, Y축은 1만큼 차이가 나며 이러한 차이는 10을 1로 환산한 거리에서 각각 0.2, 0.1이되므로 이를 1에서 감소시킨 0.8과 0.9를 곱한 0.72를 정확도로 산출 하여 사용자에게 정확도가 72%인 정보라고 제공할 수 있다.
이러한 정확도 산출 방법은 하나의 실시 예에 불과하며 원점과의 오차 값을 이용하여 정확도를 산출하는 방법이라면 제한 없이 사용될 수 있다.
본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100 : 로봇 위치정보 생성부 110 : 외부 위치정보 생성부
111 : 거리 측정 값 획득부 112 : 로봇 위치 계산부
113 : 좌표 축 보정부 114 : 센서 영점 값 생성부
115 : 로봇 위치 보정부 120 : 내부 위치정보 생성부
130 : 통합 위치정보 생성부 200 : 로봇 위치 정확도 계산부

Claims (10)

  1. 로봇의 외부에 위치한 적어도 하나의 센서를 이용하여 로봇의 위치 및 센서 영점 값을 계산하고 상기 계산된 로봇 위치 및 센서 영점 값을 이용하여 로봇의 위치를 보정함으로써 외부 위치정보를 생성하고, 데이터 베이스로부터 지도 정보를 수신하고 로봇에 포함된 적어도 하나의 센서를 이용하여 계산된 상기 지도 정보 상의 로봇의 위치를 포함하는 내부 위치정보를 생성하여, 상기 생성된 외부 위치정보 및 내부 위치정보를 포함하는 통합 위치정보를 생성하는 로봇 위치정보 생성부; 및
    수신한 통합 위치정보를 상기 지도 정보에 각각 대응시켜, 상기 대응되는 각 지도 정보상 로봇 위치의 일치 정도에 따라 로봇 위치 정보의 정확도를 계산하는 로봇 위치 정확도 계산부를 포함하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공장치.
  2. 제 1 항에 있어서 상기 로봇 위치정보 생성부는,
    로봇의 외부에 위치한 적어도 하나의 센서로부터 로봇과 상기 센서와의 거리를 측정한 거리 측정 값을 획득하여 로봇의 위치를 계산하고 상기 계산된 로봇 위치의 좌표축이 상기 지도 정보 상의 좌표축과 일치하도록 상기 계산된 로봇 위치의 좌표축을 회전시킴으로써 로봇의 위치를 제1차 보정하며, 지도 정보 상의 원점좌표와 상기 센서의 영점좌표 간의 오차를 센서 영점 값으로 생성하고, 상기 제1차 보정된 로봇 위치에 상기 센서 영점 값을 반영하여 제2차 보정함으로써 외부 위치정보를 생성하는 외부 위치정보 생성부;
    로봇에 포함된 센서를 이용하여 로봇의 현재 위치 값을 획득하고, 상기 획득한 현재 위치 값을 이용하여 상기 수신한 지도 정보 상에서의 로봇의 현재 위치를 계산하는 내부 위치정보 생성부; 및
    상기 생성된 외부 위치 정보 및 내부 위치 정보를 포함하는 통합 위치 정보를 생성하는 통합 위치정보 생성부를 더 포함하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공장치.
  3. 제 2 항에 있어서 상기 외부 위치정보 생성부는,
    로봇의 외부에 위치한 적어도 하나의 센서로부터 상기 센서와 로봇의 사이의 거리를 측정한 거치 측정 값을 획득하는 거리 측정 값 획득부;
    상기 획득한 거리 측정 값만큼 지도 정보 상의 센서의 위치로부터 로봇이 이격되어 있는 것으로 지도 정보 상의 로봇의 위치를 계산하는 로봇 위치 계산부;
    상기 계산된 로봇 위치의 좌표축이 수신한 지도 정보 상의 좌표축과 일치되도록 상기 계산된 로봇 위치의 좌표축을 회전시켜 로봇의 위치를 제1차 보정하는 좌표 축 보정부;
    수신한 지도 정보 상의 원점좌표와 상기 센서의 원점좌표의 오차를 센서 영점 값으로 생성하는 센서 영점 값 생성부; 및
    상기 제1차 보정된 로봇의 위치에 상기 생성된 센서 영점 값을 적용하여 로봇의 위치를 제2차 보정함으로써 외부 위치정보를 생성하는 로봇 위치 보정부를 더 포함하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공장치.
  4. 제 3 항에 있어서 상기 로봇 위치 계산부는,
    상기 적어도 하나 이상의 센서로부터 획득한 복수의 거리 측정 값을 획득하여, 상기 획득한 거리 측정 값을 통합하여 수신한 지도 정보 상에서의 각 센서의 위치를 기준으로 로봇의 위치를 계산하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공장치.
  5. 제 1 항에 있어서 상기 로봇 위치 정확도 계산부는,
    수신한 통합 위치정보에 포함된 외부 위치정보 및 내부 위치정보에 대응하는 지도 정보 상의 좌표를 각각 확정하고, 내부 위치정보에 대응하는 지도 정보 상의 좌표를 원점으로 하여 상기 원점과 외부 위치정보에 대응하는 지도 정보 상의 좌표가 일치하는 정도에 따라 로봇 위치 정보의 정확도를 계산할 수 있는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공장치.
  6. 로봇의 외부에 위치한 적어도 하나의 센서를 이용하여 로봇의 위치 및 센서 영점 값을 계산하고 상기 계산된 로봇 위치 및 센서 영점 값을 이용하여 로봇의 위치를 보정함으로써 외부 위치정보를 생성하고, 데이터 베이스로부터 지도 정보를 수신하고 로봇에 포함된 적어도 하나의 센서를 이용하여 계산된 상기 수신한 지도 정보 상의 로봇의 위치를 포함하는 내부 위치정보를 생성하여, 상기 생성된 외부 위치정보 및 내부 위치정보를 포함하는 통합 위치정보를 생성하는 단계; 및
    수신한 통합 위치정보를 상기 지도 정보에 각각 대응시켜, 상기 대응되는 각 지도 정보상 로봇 위치의 일치 정도에 따라 로봇 위치 정보의 정확도를 계산하는 단계를 포함하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공방법.
  7. 제 6 항에 있어서 상기 통합 위치정보를 생성하는 단계는,
    로봇의 외부에 위치한 적어도 하나의 센서로부터 로봇과 상기 센서와의 거리를 측정한 거리 측정 값을 획득하여 로봇의 위치를 계산하고 상기 계산된 로봇 위치의 좌표축이 상기 지도 정보 상의 좌표축과 일치하도록 상기 계산된 로봇 위치의 좌표축을 회전시킴으로써 로봇의 위치를 제1차 보정하며, 지도 정보 상의 원점좌표와 상기 센서의 영점좌표 간의 오차를 센서 영점 값으로 생성하고, 상기 제1차 보정된 로봇 위치에 상기 센서 영점 값을 반영하여 제2차 보정함으로써 외부 위치정보를 생성하는 단계;
    로봇에 포함된 센서를 이용하여 로봇의 현재 위치 값을 획득하고, 상기 획득한 현재 위치 값을 이용하여 상기 수신한 지도 정보 상에서의 로봇의 현재 위치를 계산하는 단계; 및
    상기 생성된 외부 위치 정보 및 내부 위치 정보를 포함하는 통합 위치 정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공방법.
  8. 제 7 항에 있어서 상기 외부 위치정보를 생성하는 단계는,
    로봇의 외부에 위치한 적어도 하나의 센서로부터 상기 센서와 로봇의 사이의 거리를 측정한 거치 측정 값을 획득하는 단계;
    상기 획득한 거리 측정 값만큼 지도 정보 상의 센서의 위치로부터 로봇이 이격되어 있는 것으로 지도 정보 상의 로봇의 위치를 계산하는 단계;
    상기 계산된 로봇 위치의 좌표축이 수신한 지도 정보 상의 좌표축과 일치되도록 상기 계산된 로봇 위치의 좌표축을 회전시켜 로봇의 위치를 제1차 보정하는 단계;
    수신한 지도 정보 상의 원점좌표와 상기 센서의 원점좌표의 오차를 센서 영점 값으로 생성하는 단계; 및
    상기 제1차 보정된 로봇의 위치에 상기 생성된 센서 영점 값을 적용하여 로봇의 위치를 제2차 보정함으로써 외부 위치정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공방법.
  9. 제 8 항에 있어서 상기 지도 정보 상의 로봇의 위치를 계산하는 단계는,
    상기 적어도 하나 이상의 센서로부터 획득한 복수의 거리 측정 값을 획득하여, 상기 획득한 거리 측정 값을 통합하여 수신한 지도 정보 상에서의 각 센서의 위치를 기준으로 로봇의 위치를 계산하는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공방법.
  10. 제 6 항에 있어서 상기 로봇 위치 정보의 정확도를 계산하는 단계는,
    수신한 통합 위치정보에 포함된 외부 위치정보 및 내부 위치정보에 대응하는 지도 정보 상의 좌표를 각각 확정하고, 내부 위치정보에 대응하는 지도 정보 상의 좌표를 원점으로 하여 상기 원점과 외부 위치정보에 대응하는 지도 정보 상의 좌표가 일치하는 정도에 따라 로봇 위치 정보의 정확도를 계산할 수 있는 것을 특징으로 하는 센서를 이용한 로봇 위치 정확도 정보 제공방법.
KR1020150089318A 2015-06-23 2015-06-23 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법 Withdrawn KR20170000282A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150089318A KR20170000282A (ko) 2015-06-23 2015-06-23 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법
US15/190,064 US20160375583A1 (en) 2015-06-23 2016-06-22 Apparatus and method for providing accuracy of robot location information by using sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150089318A KR20170000282A (ko) 2015-06-23 2015-06-23 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR20170000282A true KR20170000282A (ko) 2017-01-02

Family

ID=57600857

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150089318A Withdrawn KR20170000282A (ko) 2015-06-23 2015-06-23 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법

Country Status (2)

Country Link
US (1) US20160375583A1 (ko)
KR (1) KR20170000282A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054676A1 (ko) * 2017-09-14 2019-03-21 삼성전자주식회사 이동 로봇 시스템 및 그 제어 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11274930B1 (en) * 2019-12-11 2022-03-15 Amazon Technologies, Inc. System for assessing an autonomously determined map
CN111283730B (zh) * 2020-03-03 2021-04-20 广州赛特智能科技有限公司 基于点线特征机器人初始位姿获取方法及开机自定位方法
CN114505854B (zh) * 2022-01-11 2025-03-21 北京盈迪曼德科技有限公司 多传感器数据的检测处理方法、装置及机器人

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579846A (ja) * 1991-09-19 1993-03-30 Matsushita Electric Ind Co Ltd 車両位置算出装置
US5512904A (en) * 1994-06-13 1996-04-30 Andrew Corporation Method and apparatus of establishing a vehicle azimuth
US7629899B2 (en) * 1997-10-22 2009-12-08 Intelligent Technologies International, Inc. Vehicular communication arrangement and method
EP0789223B1 (en) * 1995-08-28 2002-12-04 Data Tec Co., Ltd. Movement detector
DE19536601A1 (de) * 1995-09-19 1997-03-20 Teldix Gmbh Navigationssystem für ein Fahrzeug, insbesondere für ein Landfahrzeug
US5928309A (en) * 1996-02-05 1999-07-27 Korver; Kelvin Navigation/guidance system for a land-based vehicle
US6147629A (en) * 1998-10-15 2000-11-14 Intel Corporation Method and apparatus for variable length decoding
US6611755B1 (en) * 1999-12-19 2003-08-26 Trimble Navigation Ltd. Vehicle tracking, communication and fleet management system
DE60113581T2 (de) * 2000-03-24 2006-05-18 Clarion Co., Ltd. GPS-Empfänger fähig zur genauen 2DRMS Berechnung
US7751973B2 (en) * 2004-05-04 2010-07-06 Visteon Global Technologies, Inc. Curve warning system
JP4124249B2 (ja) * 2006-07-25 2008-07-23 トヨタ自動車株式会社 測位装置、ナビゲーションシステム
JP2011511281A (ja) * 2008-02-04 2011-04-07 テレ アトラス ノース アメリカ インコーポレイテッド センサにより検出されたオブジェクトとマップマッチングする方法
JP4655139B2 (ja) * 2008-11-19 2011-03-23 トヨタ自動車株式会社 移動体位置測位装置
JP5546409B2 (ja) * 2010-09-30 2014-07-09 本田技研工業株式会社 運転支援システム
US20120143495A1 (en) * 2010-10-14 2012-06-07 The University Of North Texas Methods and systems for indoor navigation
EP3036924A4 (en) * 2013-08-23 2017-04-12 Cellepathy Ltd. Mobile device context aware determinations
US9626566B2 (en) * 2014-03-19 2017-04-18 Neurala, Inc. Methods and apparatus for autonomous robotic control
US9514651B2 (en) * 2014-08-19 2016-12-06 Here Global B.V. Optimal warning distance

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054676A1 (ko) * 2017-09-14 2019-03-21 삼성전자주식회사 이동 로봇 시스템 및 그 제어 방법
US11465275B2 (en) 2017-09-14 2022-10-11 Samsung Electronics Co., Ltd. Mobile robot and method of controlling the same and mobile robot system

Also Published As

Publication number Publication date
US20160375583A1 (en) 2016-12-29

Similar Documents

Publication Publication Date Title
CN107918386B (zh) 用于车辆的多传感器数据融合方法、装置及车辆
JP6442193B2 (ja) 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム
US9952597B2 (en) Apparatus for correcting vehicle location
US20110098923A1 (en) Method of and apparatus for creating map of artificial marks, and method and apparatus for measuring position of moving object using the map
US10495456B2 (en) Method for calibrating a detection device, and detection device
CN111551186B (zh) 一种车辆实时定位方法、系统及车辆
US8554504B2 (en) Positioning apparatus, positioning method and storage medium for positioning of pedestrian by autonomous navigation
WO2019119289A1 (zh) 一种定位方法、装置及电子设备、计算机程序产品
CN109425346B (zh) 用于自动化车辆的导航系统
US8965684B2 (en) Mobile terminal, system and method
CA3066341A1 (en) Map data correcting method and device
CN108469826B (zh) 一种基于机器人的地图生成方法及系统
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
JP2017090239A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
KR20170000282A (ko) 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법
JPWO2017199333A1 (ja) 情報出力装置、端末装置、制御方法、プログラム及び記憶媒体
KR20120003578A (ko) 실내 측위 시스템 및 그 방법
JP6698430B2 (ja) 測定装置、測定方法およびプログラム
KR101553898B1 (ko) 지형지물의 위치정보를 이용한 자율이동차량의 위치추정시스템 및 방법
JP5716273B2 (ja) 捜索目標位置特定装置、捜索目標位置特定方法及びプログラム
KR20200119092A (ko) 차량 및 차량의 위치 검출 방법
JP5355443B2 (ja) 位置補正システム
TWI635302B (zh) 載具即時精準定位系統
JP2020046411A (ja) データ構造、記憶装置、端末装置、サーバ装置、制御方法、プログラム及び記憶媒体
CN109945890B (zh) 多定位系统切换与融合校正方法及其装置

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150623

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination