KR101857952B1 - Apparatus and System for Remotely Controlling a Robot Cleaner and Method thereof - Google Patents
Apparatus and System for Remotely Controlling a Robot Cleaner and Method thereof Download PDFInfo
- Publication number
- KR101857952B1 KR101857952B1 KR1020160109292A KR20160109292A KR101857952B1 KR 101857952 B1 KR101857952 B1 KR 101857952B1 KR 1020160109292 A KR1020160109292 A KR 1020160109292A KR 20160109292 A KR20160109292 A KR 20160109292A KR 101857952 B1 KR101857952 B1 KR 101857952B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile robot
- area
- map
- cleaning
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000004891 communication Methods 0.000 claims abstract description 38
- 230000004044 response Effects 0.000 claims abstract description 7
- 238000004140 cleaning Methods 0.000 claims description 106
- 238000010586 diagram Methods 0.000 claims description 15
- 239000000428 dust Substances 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/02—Reservations, e.g. for tickets, services or events
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2823—Reporting information sensed by appliance or service execution status of appliance services in a home automation network
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L2012/2847—Home automation networks characterised by the type of home appliance used
- H04L2012/285—Generic home appliances, e.g. refrigerators
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Tourism & Hospitality (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
본 발명은 이동로봇을 원격으로 제어하기 위한 원격 제어 장치에 관한 것으로서, 이동로봇의 주행영역과 관련된 맵을 표시하고, 상기 이동로봇의 동작과 관련된 사용자 명령을 입력받는 사용자 인터페이스부, 상기 입력받은 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하고, 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성하는 프로세서 및상기 생성된 제어신호를 상기 이동로봇으로 송신하고, 상기 이동로봇으로부터 상기 제어신호에 따른 응답신호를 수신하는 무선 통신부를 포함한다.A remote control apparatus for remotely controlling a mobile robot includes a user interface unit for displaying a map related to a traveling region of the mobile robot and receiving user commands related to the operation of the mobile robot, A processor for selecting at least a part of the map as a designation area and generating a control signal for remotely controlling the mobile robot in consideration of an instruction from the mobile robot and transmitting the generated control signal to the mobile robot, And a wireless communication unit for receiving a response signal according to the control signal.
Description
본 발명은 이동 로봇을 원격으로 제어하는 원격 제어 장치에 관한 것으로써, 더욱 상세하게는 사용자의 명령에 따른 지정영역을 인식하여 상기 이동 로봇을 제어하는 원격 제어 장치, 원격 제어 시스템 및 방법에 관한 것이다. BACKGROUND OF THE
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고 있으며, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.In general, robots have been developed for industrial use and have been part of factory automation. In recent years, medical robots, aerospace robots, and the like have been developed, and home robots that can be used in ordinary homes are being developed.
가정용 로봇의 대표적인 일 예로, 청소 로봇을 들 수 있는데, 이 때 청소 로봇이란 사용자의 조작 없이도 청소하고자 하는 영역을 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입함으로써, 청소하고자 하는 영역을 자동으로 청소하는 장치를 의미한다. 이러한 청소 로봇은 각종 센서 등을 통해 청소 영역 내에 위치하는 장애물 등을 감지하고, 감지 결과를 이용하여, 청소 로봇의 주행 경로 및 청소 동작을 제어하게 된다.A typical example of a domestic robot is a cleaning robot. In this case, a cleaning robot is a robot that automatically moves a region to be cleaned by itself while suctioning foreign substances such as dust from the floor surface, . The cleaning robot senses an obstacle or the like located in the cleaning area through various sensors and controls the traveling path and the cleaning operation of the cleaning robot using the detection result.
초기의 청소 로봇은 스스로 주행하면서 무작위로 청소를 수행하였으며, 장애물의 존재 및 바닥면의 상태 등에 의해 청소를 수행하지 못하는 영역이 발생하기도 했다. 이를 보완하기 위해, 최근에는 청소하고자 하는 모든 영역 즉, 전체 청소 영역을 복수의 청소영역 또는 셀로 구획하여 청소를 수행하거나, 전체 청소 영역에 대한 지도를 작성하여, 작성된 청소지도 내에서 청소가 수행된 영역과 청소를 수행해야 할 영역을 구분하여 청소를 수행하는 등의 기술들이 개발되고 있다.The initial cleaning robot performed a random cleaning while traveling on its own, and areas where obstacles existed or the floor surface was not cleaned due to the presence of obstacles occurred. In order to compensate for this, recently, all the areas to be cleaned, that is, the entire cleaning area is divided into a plurality of cleaning areas or cells to perform cleaning, a map is created for the entire cleaning area, And cleaning is performed by dividing the area and the area to be cleaned.
본 발명은 상기와 같은 종래 기술상의 문제점을 해결하기 위하여, 이동 로봇을 제어하는 원격 제어 장치를 이용하여, 사용자가 직접 영역을 설정할 수 있고, 영역별 청소모드를 구분하여, 이동로봇의 불필요한 동작을 줄여, 효율 좋은 청소를 수행할 수 있는 방법을 제공하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION In order to solve the above problems, the present invention provides a remote control device for controlling a mobile robot, in which a user can directly set an area, classify a cleaning mode for each area, And to provide a method for performing efficient cleaning.
상기 목적을 달성하기 위한 본 발명의 일 예에 따른 원격 제어 장치는, 이동로봇의 주행영역과 관련된 맵을 표시하고, 상기 이동로봇의 동작과 관련된 사용자 명령을 입력받는 사용자 인터페이스부, 상기 입력받은 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하고, 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성하는 프로세서 및 상기 생성된 제어신호를 상기 이동로봇으로 송신하고, 상기 이동로봇으로부터 상기 제어신호에 따른 응답신호를 수신하는 무선 통신부를 포함할 수 있다.According to an aspect of the present invention, there is provided a remote control apparatus including a user interface unit for displaying a map related to a traveling region of a mobile robot and receiving a user command related to an operation of the mobile robot, A processor for selecting at least a part of the map as a designation area and generating a control signal for remotely controlling the mobile robot in consideration of an instruction from the mobile robot and transmitting the generated control signal to the mobile robot, And a wireless communication unit for receiving a response signal according to the control signal.
본 발명에서, 사용자 명령은 상기 사용자 인터페이스부에서 표시되는 맵 중 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치입력을 포함할 수 있다.In the present invention, the user command may include a touch input input by the user in a touch manner to specify at least a part of the map displayed in the user interface unit.
또한, 상기 이동 로봇은 청소 로봇이고, 상기 프로세서는 상기 맵을 표시하되, 상기 맵은 상기 청소 로봇으로부터 전송되는 것이며, 상기 지정영역은 집중 청소를 위한 제1 영역, 회피 주행을 위한 제2 영역 및 탈출 주행을 위한 제3 영역 중 적어도 하나를 포함할 수 있다.Also, the mobile robot is a cleaning robot, and the processor displays the map, wherein the map is transmitted from the cleaning robot, and the designation area includes a first area for intensive cleaning, a second area for avoidance travel, And a third area for escape travel.
또한, 상기 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치 입력은, 상기 일부의 영역에 포함된 제1 지점을 지정하기 위한 제1 터치 입력, 상기 일부의 영역에 포함된 제2 지점을 지정하기 위한 제2 터치 입력 및상기 제1 지점에서 시작하여 제2 지점까지 연결되는 드래그 입력을 포함할 수 있다.The touch input input by the user in a touch manner to designate the at least part of the area may include a first touch input for designating a first point included in the partial area, A second touch input for designating a point and a drag input connected to the second point starting at the first point.
본 발명에서, 상기 사용자 명령에 따른 상기 지정영역은 제1 영역이고, 상기 프로세서는 상기 청소 로봇이 상기 지정 영역을 주행할 경우, 먼지를 흡입하기 위한 흡입력을 상승시키거나, 상기 지정 영역 내에서의 주행 속도를 느리게 하거나, 또는 상기 지정 영역 내에서 상기 청소 로봇이 반복하여 주행하도록 하는 제어신호를 생성할 수 있다.In the present invention, the designation area according to the user command is a first area, and when the cleaning robot travels on the designated area, the suction force for suctioning dust is raised, It is possible to generate a control signal for slowing the traveling speed or causing the cleaning robot to repeatedly travel within the designated area.
본 발명에서, 상기 프로세서는, 상기 이동로봇이 주행하는 맵을 영역별 경계를 추출하는 세선화 방법 및 보로노이 다이어그램을 이용하여 분할하는 분할영역을 생성할 수 있다.In the present invention, the processor can generate a divided area for dividing a map running by the mobile robot using a thinning method for extracting boundaries for each area and a Voronoi diagram.
본 발명에서, 상기 프로세서는, 상기 사용자의 명령에 따라 선택된 지정영역 및 분할영역에서 장애물이 없는 영역의 좌표를 추출하고, 상기 추출된 좌표들을 고려하여 상기 이동로봇의 주행영역을 타원형태로 피팅하고, 상기 타원으로 피팅된 영역 중 상기 타원이 이루는 가로와 세로의 선분 중 상대적으로 더 긴 선분을 기준으로 상기 이동로봇의 동작수행 방향으로 설정할 수 있다.In the present invention, the processor extracts coordinates of an obstacle-free area in a designated area and a divided area selected according to a command of the user, and fitting the traveling area of the mobile robot into an elliptic shape in consideration of the extracted coordinates , And the movement direction of the mobile robot can be set based on a relatively long line segment of the horizontal and vertical line segments formed by the ellipse among the areas fitted to the ellipse.
상기 사용자의 명령에 따라 선택된 지정영역 및 분할영역에서 장애물이 없는 영역의 좌표를 추출하고, 상기 추출된 좌표들을 고려하여 상기 이동로봇의 주행영역을 타원형태로 피팅하고,Extracting coordinates of an obstacle-free area in a designated area and a divided area selected according to a command of the user, fitting the traveling area of the mobile robot into an elliptic shape in consideration of the extracted coordinates,
또한, 상기 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치 입력은, 상기 일부의 영역에 포함되는 제1 지점을 정의하는 제1 터치 입력, 상기 일부의 영역에 포함되며, 상기 제1 지점과 인접한 제2 지점을 지정하기 위한 제2 터치 입력 및 상기 일부의 영역에 포함되며, 상기 제2 지점과 인접한 제3 지점을 지정하기 위한 제3 터치 입력을 포함할 수 있다.The touch input input by the user in a touch manner to designate the at least a partial area may include a first touch input that defines a first point included in the partial area, A second touch input for designating a second point adjacent to the first point, and a third touch input for specifying a third point adjacent to the second point, the second touch input being included in the partial area.
또한, 본 발명의 일 실시예에 따르는 이동로봇 제어 시스템은, 이동로봇 및상기 이동로봇의 주행영역과 관련된 맵을 표시하고, 상기 이동로봇의 동작과 관련된 사용자 명령을 입력받는 사용자 인터페이스부, 상기 입력받은 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하고, 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성하는 프로세서 및 상기 생성된 제어신호를 상기 이동로봇으로 송신하고, 상기 이동로봇으로부터 상기 제어신호에 따른 응답신호를 수신하는 무선 통신부를 포함할 수 있다.The mobile robot control system according to an embodiment of the present invention includes a user interface unit for displaying a map related to a mobile robot and a traveling region of the mobile robot and receiving user commands related to the operation of the mobile robot, A processor for selecting at least a part of the map as a designated area in consideration of a received user command and generating a control signal for remotely controlling the mobile robot and a processor for transmitting the generated control signal to the mobile robot, And a wireless communication unit for receiving a response signal corresponding to the control signal from the robot.
본 발명에서, 상기 사용자 명령은 상기 사용자 인터페이스부에서 표시되는 맵 중 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치입력을 포함할 수 있다.In the present invention, the user command may include a touch input input by the user in a touch manner to designate at least a part of the map displayed in the user interface unit.
본 발명에서, 상기 이동 로봇은 청소 로봇이고, 상기 지정영역은 집중 청소를 위한 제1 영역, 회피 주행을 위한 제2 영역 및 탈출 주행을 위한 제3 영역 중 적어도 하나를 포함할 수 있다.In the present invention, the mobile robot may be a cleaning robot, and the designated area may include at least one of a first area for intensive cleaning, a second area for avoidance driving, and a third area for escape driving.
또한, 상기 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치 입력은, 상기 일부의 영역에 포함된 제1 지점을 지정하기 위한 제1 터치 입력, 상기 일부의 영역에 포함된 제2 지점을 지정하기 위한 제2 터치 입력 및상기 제1 지점에서 시작하여 제2 지점까지 연결되는 드래그 입력을 포함할 수 있다.The touch input input by the user in a touch manner to designate the at least part of the area may include a first touch input for designating a first point included in the partial area, A second touch input for designating a point and a drag input connected to the second point starting at the first point.
본 발명에서, 상기 이동로봇은, 상기 이동로봇을 이동시키는 주행부, 상기 이동로봇이 주행하는 영역을 청소하는 청소부, 상기 원격 제어 장치로부터 상기 제어신호를 수신하고, 상기 제어신호에 따른 응답신호를 송신하는 송수신부, 상기 제어신호에 따라, 상기 이동로봇의 동작위치를 감지하는 감지부 및 상기 주행영역의 영상을 획득하는 영상획득부를 더 포함할 수 있다.In the present invention, the mobile robot includes: a traveling section that moves the mobile robot; a cleaning section that cleans a region where the mobile robot travels; and a control section that receives the control signal from the remote control device, A transmitting and receiving unit for transmitting, a sensing unit for sensing an operation position of the mobile robot according to the control signal, and an image acquiring unit for acquiring an image of the traveling region.
본 발명에서, 상기 이동로봇은, 미리 설정된 적어도 하나의 자율 주행 모드에 따라, 상기 이동로봇의 주행영역에 관련된 맵을 생성하는 맵생성부를 더 포함할 수 있다.In the present invention, the mobile robot may further include a map generator for generating a map related to a traveling region of the mobile robot in accordance with at least one preset autonomous mode.
또한, 상기 이동로봇은, 상기 수신된 제어신호에 따라 상기 지정영역을 고려하여 동작할 수 있다.Also, the mobile robot can operate in consideration of the designated area according to the received control signal.
또한, 상기 이동로봇과 상기 원격 제어 장치간 송수신하는 신호를 전달하는 서버를 더 포함할 수 있다.The mobile robot may further include a server for transmitting and receiving signals between the mobile robot and the remote controller.
본 발명의 일 실시예에 따르는 이동로봇을 원격으로 제어하는 원격 제어 방법은, 이동로봇을 원격으로 제어하는 원격 제어 장치의 원격 제어 방법에 있어서, 상기 이동로봇이 미리 저장된 적어도 하나의 주행모드를 수행함에 따라, 맵을 생성하는 단계, 상기 원격 제어 장치가 상기 이동로봇으로부터 생성된 맵을 전달받아, 상기 이동로봇의 동작과 관련된 사용자 명령을 입력받는 단계, 상기 원격 제어 장치가 상기 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하는 단계, 상기 원격 제어 장치가 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성하는 단계를 포함할 수 있다.A remote control method for remotely controlling a mobile robot according to an embodiment of the present invention is a remote control method of a remote control device for remotely controlling a mobile robot, wherein the mobile robot performs at least one traveling mode stored in advance , Receiving a map generated from the mobile robot, and receiving a user command related to the operation of the mobile robot, the remote control device taking into account the user command , Selecting at least a part of the map as a designated area, and generating a control signal for remotely controlling the mobile robot by the remote control device.
또한, 상기 맵을 생성하는 단계는, 장애물의 유무에 따라 상기 동작영역을 분할하여, 상기 맵을 생성할 수 있다.The generating of the map may generate the map by dividing the operation region according to the presence or absence of an obstacle.
본 발명에서, 상기 이동로봇은 청소로봇이고, 상기 동작은 청소 및 주행일 수 있다.In the present invention, the mobile robot is a cleaning robot, and the operation may be cleaning and running.
또한, 본 발명의 또 다른 목적을 달성하기 위하여, 본 발명은 원격 제어 방법이 컴퓨터에서 수행되며, 컴퓨터에서 판독 가능한 기록 매체를 제공한다.According to another aspect of the present invention, there is provided a computer-readable recording medium on which a remote control method is performed by a computer.
따라서, 청소영역의 맵을 생성하고, 사용자에 의해 청소 영역 설정 편집이 가능하게 한다. Therefore, a map of the cleaning area is generated, and the user can edit the cleaning area setting.
또한, 이동 로봇이 청소하는 과정에서, 환경 변화 도는 가능 여부를 자동으로 판단하고, 이에 대해 능동적으로 대처할 수 있도록 한다. Further, in the process of cleaning the mobile robot, it is possible to automatically determine whether or not the environment change is possible, and actively cope with it.
또한, 사용자 인터페이스를 제공하므로, 이동 로봇에 대한 사용자 편의성을 향상시킬 수 있다.Further, since the user interface is provided, the user convenience for the mobile robot can be improved.
도1은 본 발명의 일 실시예에 따른 이동로봇 제어 시스템을 도시한 도면이다.
도2은 본 발명의 일 실시예에 따른 이동로봇 제어 시스템의 구성도를 도시한 도면이다.
도3는 일 실시예에 의한 이동로봇이 주행하는 장소의 맵을 도시한 도면이다.
도4는 본 발명의 일 실시예에 따른 원격 제어 장치에서 이동로봇 주행 제어를 위한 사용자 입력 장치를 도시한 도면이다.
도5는 본 발명의 일 실시예에 의한 원격 제어 장치에서 이동로봇이 맵을 생성하는 과정을 확인하는 장면을 도시한 도면이다.
도6은 본 발명의 일 실시예에 따른 지정 영역 중 집중 청소를 위한 제1 영역을 설정하는 장면을 도시한 도면이다.
도7은 본 발명의 일 실시예에 따른 지정 영역 중 회피 주행을 위한 제2 영역을 설정하는 장면을 도시한 도면이다.
도8은 본 발명의 일 실시예에 의한 이동로봇의 동작수행 방향을 설정하는 방법을 설명하기 위한 도면이다.
도9는 본 발명의 일 실시예에 따른 이동로봇을 원격으로 제어하는 원격 제어 방법을 개략적으로 도시한 흐름도이다.
도10은 본 발명의 일 실시예에 의한 영역분할된 격자지도를 도시한 도면이다.1 is a view illustrating a mobile robot control system according to an embodiment of the present invention.
2 is a block diagram of a mobile robot control system according to an embodiment of the present invention.
3 is a diagram showing a map of a place where the mobile robot travels according to one embodiment.
FIG. 4 is a diagram illustrating a user input device for controlling travel of a mobile robot in a remote control device according to an embodiment of the present invention. Referring to FIG.
5 is a view illustrating a process of confirming a process of generating a map by a mobile robot in a remote control device according to an embodiment of the present invention.
FIG. 6 is a view illustrating a setting of a first area for centralized cleaning among designated areas according to an exemplary embodiment of the present invention. Referring to FIG.
FIG. 7 is a view illustrating a scene in which a second area for avoidance driving is set in a designated area according to an embodiment of the present invention.
FIG. 8 is a view for explaining a method of setting an operation direction of a mobile robot according to an embodiment of the present invention.
9 is a flowchart schematically showing a remote control method for remotely controlling a mobile robot according to an embodiment of the present invention.
FIG. 10 is a diagram illustrating a region-divided grid map according to an embodiment of the present invention.
첨부된 도면들을 참조하여 본 발명을 일실시예에 따라 상세히 설명한다.The present invention will be described in detail with reference to the accompanying drawings.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings, but the present invention is not limited to or limited by the embodiments.
본 발명의 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라 질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다.The term used in the specification of the present invention selects the general term that is widely used in the present invention while considering the function of the present invention, but it may be changed depending on the intention or custom of the technician engaged in the field or appearance of new technology . Also, in certain cases, there may be a term chosen arbitrarily by the applicant, in which case the meaning thereof will be described in the description of the corresponding invention. Therefore, it is intended that the terminology used herein should be interpreted based on the meaning of the term rather than on the name of the term, and on the entire contents of the specification. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment.
나아가, 도면들 중 참조번호 및 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Further, although the reference numerals and the like of the drawings are denoted by the same reference numerals and signs as possible, even if they are shown in different drawings, the same reference numerals and signs are used. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
따라서 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
이하에서는, 첨부된 도면을 참조하여 원격 제어 장치, 이동로봇 제어 시스템 및 원격 제어 방법을 후술된 실시예들에 따라 구체적으로 설명하도록 한다. 도면에서 동일한 부호는 동일한 구성 요소를 나타낸다.Hereinafter, the remote control device, the mobile robot control system, and the remote control method will be described in detail with reference to the embodiments described below with reference to the accompanying drawings. Like numbers refer to like elements throughout the drawings.
도1은 본 발명의 일 실시예에 따른 이동로봇 제어 시스템을 도시한 도면이다. 본 발명에 따른 이동로봇 제어 시스템은 이동로봇(2)으로부터 획득한 정보를 네트워크를 통해 원격 제어 장치(1)에 전달하여 이동로봇(2)의 작동 상태, 계산 결과 등을 확인할 수 있다. 또한, 원격 제어 장치(1)의 입력 장치를 통해 입력된 정보의 네트워크를 통해 이동로봇(2)의 행위 등을 조정할 수 있다. 이동로봇(2)이 네트워크 기반의 서비스를 제공하기 위해서는 외부의 인터넷과 연결되기 위한 매개체인 공유기에 연결되어야 한다.1 is a view illustrating a mobile robot control system according to an embodiment of the present invention. The mobile robot control system according to the present invention can transmit information acquired from the
본 발명의 실시예에 따른 이동로봇 제어 시스템은 원격 제어 장치(1), 이동로봇(2), 공유기(3) 및 외부 서버(4)를 포함한다.The mobile robot control system according to the embodiment of the present invention includes a
원격 제어 장치(1)는 이동로봇(2)을 원격으로 제어하기 위한 사용자로부터의 제어 신호를 생성하고, 상기 이동로봇에 전송한다. 원격 제어 장치(1)는 무선 통신 모듈을 포함하며, 예를 들어 휴대폰, 스마트폰, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Plyaer), 네비게이션, 넷북, 태블릿 등을 포함하여, 다양한 형태로 마련될 수 있고, 본 실시예에서는 "사용자 단말"과 혼용된다.The
이동로봇(2)은 예를 들어, 청소로봇, 병원 서비스 로봇, 물류 서비스 로봇, 군사용 로봇, 산업용 로봇으로 예시될 수 있으며 로봇의 종류에 제한은 없다. 다만, 아래의 실시예에서는 대표적인 이동 로봇인 청소 로봇을 위주로 설명한다.The
원격 제어 장치(1)로부터의 원격 제어 신호에 응답하고, 이에 따른 동작을 수행하며, 주행중인 공간에 대한 맵을 생성하여 공유기(3)를 통해, 상기 원격 제어 장치(1)로 전송한다. 보다 상세하게는, 이동로봇(2)은 유선 또는 무선 공유기에 연결하기 위한 네트워크 어뎁터(adapter)를 포함할 수 있다. Responds to a remote control signal from the
일반적으로 네트워크 어뎁터는 기존의 무선 공유기에 연결하는 클라이언트 모드로 작동하나, 필요에 따라서 무선 공유기의 역할인 Soft AP 또는 infrastructure mode를 할 수 있다. 따라서 이동로봇(2)에서 특정 버튼을 누르면 이동 로봇(2)은 공유기의 역할을 수행하고, 원격 제어 장치(1)는 이동로봇(2)의 공유기에 연결하여 통신을 수행한다. 이 때, 원격 제어 장치(1)는 이동로봇(2)이 연결되어야 할 기존의 공유기 정보 즉, SSID, 보안 프로토콜, 보안 알고리즘 및 키 정보를 이동로봇(2)에 전달하고, 이동로봇(2)은 정보를 전달받은 후, 공유기의 역할을 중지하고 전달받은 정보를 바탕으로 기존의 공유기에 연결할 수 있다.Generally, the network adapter operates as a client mode to connect to a conventional wireless router, but it can be a soft AP or a infrastructure mode, which is a role of a wireless router as needed. Therefore, when the specific button is pressed in the
공유기(3)는 집으로 들어오는 인터넷 라인에 연결하여, 무선 신호로 송출하면서, 복수개의 소프트웨어 장치가 하나의 인터넷 라인을 공유해, 동시에 인터넷 접근이 가능하게 하는 네트워크 기기이다. 공유기(3)는 AP(Access Point)로서, 일정 거리의 무선 통신 가능 영역에서 무선 통신을 수행하여, 이동로봇(2)을 네트워크에 연결하게 한다.The
본 발명의 일 실시예에 따르는 서버(4)는 정보를 제공하는 원격 제어 장치(1)와 이동로봇(2)이 사이에 위치하여 사용자가 요구한 정보를 대신하여 가져와 이를 사용자에게 전달하고, 또, 사용자가 제공하는 정보를 이동로봇(2)에게 전달하며, 해당 정보를 일시적으로 보관하여, 사용자가 정보를 재차 요구할 때, 다시 접속하지 않고도 해당 정보를 사용자에게 신속하게 전달해 주는 중계서버 또는 프록시서버(Proxy Server)로 마련될 수 있다.The server 4 according to the embodiment of the present invention is located between the
또 다른 일 실시예에 따른 서버(4)는 이동로봇(2)을 제공하는 회사에서 운영하는 것으로써, 네트워크를 통해 복수개의 이동로봇(2)과 연결되어 있으며, 이동로봇(2)은 복수개의 이동로봇(2)의 IP 주소와 시리얼 번호, 아이디 및 비밀번호를 저장할 수 있다. 따라서, 사용자가 원격 제어 장치(1)를 통해 아이디와 비밀번호를 입력하면, 이동로봇(2)은 그 아이디와 비밀번호에 해당하는 이동로봇(2)의 IP 주소를 찾고, 그 주소를 갖는 로봇과 접속할 수 있다. The server 4 according to another embodiment is operated by a company that provides the
또한, 이동로봇(2)을 원격 제어하기 위한 프로그램은 이동로봇과 원격제어장치 각각에 설치될 수 있다. 원격 제어 장치(1)는 설치된 프로그램에 의하여 정의된 동작에 따라 네트워크를 통해 이동로봇(2)에 접속하고, 이동로봇(2)을 제어할 수 있는 화면을 원격 제어 장치(1)의 사용자 인터페이스부(10)에 출력한 후, 사용자 지시를 입력 받아, 사용자 지시를 이동 로봇에 전송하는 방식으로 이동 로봇을 제어할 수 있다.In addition, a program for remotely controlling the
본 실시예에서 이동로봇(2)과 원격 제어 장치(1)가 처음에는 상기 서버(4)에 연결되어, 상대의 식별 정보 및 상대의 네트워크 상의 위치 정보를 얻은 후, 상기 서버(4)와는 별개로 상호 연결을 이룰 수 있다.In this embodiment, the
도2은 본 발명의 일 실시예에 따른 이동로봇 제어 시스템의 구성도를 도시한 도면이다.2 is a block diagram of a mobile robot control system according to an embodiment of the present invention.
도2을 참조하면, 원격 제어 장치(1)는 사용자 인터페이스부(10), 프로세서(20) 및 무선 통신부(30)를 포함한다. 2, the
본 실시예에서 사용자 인터페이스부(10)는 이동로봇(2)의 주행영역과 관련된 맵(map)을 표시하고, 이동로봇(2)의 동작과 관련된 사용자 명령을 입력받는다. 이동로봇(2)의 제어를 위한 사용자 명령을 입력받거나, 이동로봇(2)과 관련된 정보, 예를 들어 현재의 청소 상태(청소된 영역을 표시하거나, 전체 영역 중 청소완료된 영역에 대한 비율 표시, 남은 청소시간 표시 등)를 표시할 수 있다.The user interface unit 10 displays a map related to the traveling region of the
인터페이스부(10)는 사용자 입력부(11) 및 디스플레이부(12)를 포함할 수 있다. 사용자 입력부(11)는 사용자 명령을 입력 받기 위한 터치 스크린으로 예시되며, 디스플레이부(12)는 맵, 사용자 명령 입력화면, 청소 상태 정보 표시화면을 터치 스크린에 영상 또는 텍스트의 형태로 표시하기 위한 신호 처리를 수행한다.The interface unit 10 may include a
프로세서(20)는 사용자 인터페이스부(10)로부터 입력받은 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하고, 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성한다. 또한, 프로세서는 무선 통신부(30)가 청소 로봇으로부터 수신한 맵 데이터를 전달 받고, 전달된 맵 데이터가 사용자 인터페이스부(10)를 통해 사용자 단말인 원격 제어 장치의 화면에 표시될 수 있도록 필요한 신호 처리를 수행할 수 있다.The
본 실시예에서 원격 제어 장치의 화면에 표시되는 맵은, 청소로봇이 생성한 맵 데이터에 근거하는 맵이 바람직하다. 청소 로봇은 이미 저장된 해당 영역에 대한 맵 데이터를 저장하고 있거나, 또는 저장된 맵 데이터와는 무관하게 이동 로봇이 주행을 시작하면서 이동된 경로에 따라 인식하여 생성되는 맵 데이터를 실시간으로 생성할 수 있다.In the present embodiment, the map displayed on the screen of the remote control device is preferably a map based on the map data generated by the cleaning robot. The cleaning robot may store map data for a corresponding area already stored or may generate map data generated in real time by recognizing the moving route while the mobile robot starts traveling regardless of the stored map data.
또한, 원격 제어 장치(10)도 청소하고자 하는 영역에 대한 맵 데이터를 히스토리 정보로서 저장할 수 있으며, 이 경우 프로세서(20)는 청소 로봇으로부터 전달되고 업데이트되는 맵 데이터를 이미 저장되어 있는 맵 데이터와 비교하고, 비교 결과 유사한 것으로 판단되는 경우, 기 저장된 맵 데이터를 사용자 화면에 표시하도록 디스플레이부를 제어할 수 있다. 여기에서 프로세서는 각 맵에서 인식되는 외곽선 라인 내지는 외곽선을 이루는 특징점들 간의 위치 관계를 이용하여 유사 여부를 판단할 수 있다. In addition, the remote control device 10 can also store map data for the area to be cleaned as history information. In this case, the
더욱 자세하게는, 프로세서(20)는 각각의 맵에서 추출된 특징점들 중 적어도 일부를 서로 매칭하고, 매칭된 특징점들 중 일부를 스캐일 조절을 통해 맵의 사이즈를 동일하게 한 후, 대응되는 특징점들간의 유사도 거리를 이용하여, 맵들간의 유사 여부를 판단할 수 있다. 예를 들어, 유사도 거리는 유클리드 거리(Euclidean distance), 코사인 거리(Cosine distance), 마하라노비스 거리(Mahalanobis's distance), 맨하탄 거리(Manhattan distance)와 같은 방법을 이용하여, 프로세서(20)는 맵들 간의 유사도를 판단할 수 있다. More specifically, the
또한, 프로세서(20)는 기 저장된 맵 데이터에 따른 맵과, 청소 로봇으로부터 실시간으로 수신된 맵 데이터에 따른 맵을 동시에 오버랩하여 화면에 표시할 수 있다. 이 경우 사용자의 조작에 따라 둘 중에서 선택된 하나의 맵 만이 표시될 수도 있고, 맵들 간의 유사도가 일정 수준 이하로 낮게 계산될 경우에는 기 저장된 맵 데이터 대신청소 로봇으로부터 수신된 맵만을 화면에 표시할 것을 결정할 수 있다. 본 실시예에서, 기 저장된 맵 데이터를 이용하여 화면에 맵을 표시할 경우, 화면에 표시되는 맵 데이터와 관련된 프로세싱의 부담을 줄일 수 있고, 사용자는 지정 영역을 신속하게 지정할 수 있기 때문에 청소 효율을 향상시킬 수 있다.In addition, the
도3는 일 실시예에 의한 이동로봇(2)이 주행하는 장소의 맵을 도시한 도면이다. 보다 구체적인 설명을 위해 도3를 참조하면, 예컨대, 이동로봇(2)이 위치하는 장소가 한 가정(home)이라고 가정했을 때, 맵(map)은 이동로봇이 주행하는 영역을 포함하는 집 안의 구조를 나타내는 지도를 말한다.3 is a diagram showing a map of a place where the
일 실시예에 따른 맵(map)을 생성하는 방법은, 이동로봇(1)이 주행 및 청소 동작이 시작되면, 회전가능한 영상획득부(600)를 이용하여, 천정 영상을 획득하고, 획득된 천정 영상을 분석하여, 이동로봇(2)이 위치하고 있는 해당 영역의 중심 위치로 이동한다. A method of generating a map according to an embodiment is a method of generating a map by using a rotatable
이동로봇(2)은 임의의 각도의 정면 영상을 획득하여, 원격 제어 장치(1)로 전송한다. 영상을 수신한 원격 제어 장치(1)의 프로세서(20)는 수신한 영상의 특징점을 추출하고, 기 저장된 템플릿 영상의 특징점들과 비교 및 분석하여, 추출한 특징점과 기 저장된 특징점의 매칭이 되는 위치를 "시작점"으로 설정하고, 프로세서(20)는 이동로봇(2)으로 주행 명령을 내리기 위해, 제어신호를 생성하여 전송한다. The
제어 신호를 전달받은 이동로봇(2)은 "시작점"으로 이동하여, 주행하며 주행장소의 벽면을 인식하며, 외곽영역을 추출해나가며, 맵을 생성한다. 상기 맵 생성 과정은, 이동로봇(2)으로부터 획득된 데이터를 원격 제어 장치(1)로 제공하여, 프로세서(20)에서 생성할 수 있고, 제어부(400)가 바로 생성할 수 있도록 구현될 수 있다.The
사용자 입력부(11)는 터치와 같은 사용자의 명령을 입력 받기 위한 것으로서, 예컨대, 터치 입력을 위한 GUI(Graphical User interface), 내지는 터치 입력을 위한 소프트웨어를 포함하는 터치 패널로 예시될 수 있다. 터치 패널은 디스플레이부(12)와 상호 레이어 구조를 이루는 형태로 구현될 수 있다. 사용자 입력부(11)는 이러한 터치 패널 형태 뿐만 아니라 사용자의 입력을 위해 각종 버튼이나 스위치, 페달(pedal), 키보드, 마우스, 트랙볼(track-ball), 각종 레버(lever), 핸들(handle)이나 스틱(stick) 등과 같은 하드웨어적인 장치의 형태로 구현될 수 있다.The
디스플레이부(12)는 이동로봇으로부터 전달 받은 맵을 시각적인 화면을 통해 사용자에게 제공한다. 또한, 디스플레이부(12)는 청각적인 형태의 정보를 스피커를 통해 사용자에게 제공할 수도 있다. 특히, 디스플레이부(12)는 일반적으로 액정 터치 패널과, 상기 터치 패널을 구동하기 위한 구동부를 포함할 수 있으나, 이에 제한되지는 않는다. 디스플레이부(12)는 프로세서(20)로부터의 신호에 따른 맵 내지는 정보를 화면에 표시할 수 있다. The
도4는 본 발명의 일 실시예에 따른 원격 제어 장치에서 이동로봇 주행 제어를 위한 사용자 입력 장치를 도시한 도면이다.FIG. 4 is a diagram illustrating a user input device for controlling travel of a mobile robot in a remote control device according to an embodiment of the present invention. Referring to FIG.
도4를 참조하면, 이동로봇(2)의 영상획득부(600)로부터 획득된 영상을 디스플레이부(12)에 표시하고, 디스플레이부(12)와 레이어(layer) 형태를 이루고 있는 사용자 입력부(11)에는 이동 방향을 나타낸 3개의 버튼이 있고, 각 버튼에는 이동방향 및 주행 여부를 포함하는 명령어가 연결되어 있다. 사용자가 버튼을 누르게 되면, 해당 이동 방향과 주행 시작이라는 명령이 네트워크를 통해 이동로봇(2)으로 전달되고, 이동로봇(2)은 명령을 해석하여, 해당 이동 방향으로 주행을 시작한다.4, the image obtained from the
도5는 본 발명의 일 실시예에 의한 원격 제어 장치(1)에서 이동로봇(2)이 맵을 생성하는 과정을 확인하는 장면을 도시한 도면이다.5 is a view showing a scene in which the
도5의 (a)는 원격 제어 장치(1)에서 이동로봇(2)이 맵 정보를 갱신하는 과정을 확인하는 장면을 도시한 도면이고, (b)는 원격 제어 장치에서 이동로봇이 청소를 완료한 후의 맵 정보를 도시한 도면이다. 이동로봇(1)은 청소 중 생성 또는 갱신되는 지도 정보와 이동로봇(2)의 지도상 위치 정보를 네트워크를 통해 원격 제어 장치(1)에 전달한다. 원격 제어 장치(1)는 정방형 격자의 배열로 이루어진 지도 정보를 출력 장치에 표현하여, 사용자가 맵 정보를 확인할 수 있도록 한다. 특히, 원격 제어 장치(1)는 각각의 정방형 격자를 지역 구분에 따라 다른 색으로 표현하기 위하여, 사용자가 청소상태를 보다 정확히 이해할 수 있도록 돕는다.FIG. 5A is a view showing a scene in which the
프로세서(20)는 사용자로부터 입력받은 사용자 명령을 고려하여, 맵 중 적어도 일부를 지정영역으로 선택하고, 이동로봇(2)을 원격으로 제어하기 위한 제어신호를 생성한다. 본 발명의 일 실시예에 따른 사용자 명령이란, 사용자 인터페이스부(10)에서 표시되는 맵(map) 중 적어도 일부의 영역을 지정하기 위한 터치입력을 말한다. 여기서, 맵 중 적어도 일부의 영역을 지정하기 위한 터치입력을 보다 상세하게 설명하기 위해, 도4를 참조한다.The
본 실시예에서 이동 로봇(2)은 주행을 시작함과 동시에 도 5와 같은 맵을 생성해 나가기 시작하는데, 이때 생성되는 맵 데이터는 이동 로봇의 주행 모드에 의존한다. 이동 로봇의 주행 모드는, 랜덤 모드, 지그재그 모드, SLAM 모드 등 특별한 제한은 없다. 다만, 원격 제어 장치 또는 이동 로봇에 기 저장된 맵과, 이동 로봇이 생성하는 맵 간의 유사도 판단을 신속하게 하기 위해서는, 영역의 외곽 정보가 우선적으로 필요할 수 있다. 이 경우, 외곽 영역을 특정하기 위해 외곽 영역을 먼저 주행하고, 특정된 외곽 영역의 내측을 주행하는 모드를 차순으로 수행하는 모드가 바람직하다. In this embodiment, the
도6은 본 발명의 일 실시예에 따른 지정 영역 중 집중 청소를 위한 제1 영역을 설정하는 장면을 도시한 도면이다.FIG. 6 is a view illustrating a setting of a first area for centralized cleaning among designated areas according to an exemplary embodiment of the present invention. Referring to FIG.
보다 상세하게는, 맵 중 일부의 영역을 지정하기 위해, 사용자가 터치 방식으로 입력한 터치 입력은, 상기 일부의 영역에 포함된 제1 지점을 지정하기 위한 제1 터치 입력, 상기 일부의 영역에 포함된 제2 지점을 지정하기 위한 제2 터치 입력 및 상기 제1 지점에서 시작하여 제2지점까지 연결되는 드래그(drag) 입력을 포함한다. 다양하게 구현될 수 있는 터치 방법 중 일 예로, 맵 중 선택하고자 하는 지정영역 중 하나의 꼭지점인 제1 지점을 선택하여 터치하고, 제1 지점에서 마주보는 지점의 꼭지점인 제2 지점까지 드래그(drag)한 후, 터치를 떼면 사각형 구조의 한 영역이 선택된다. More specifically, in order to specify an area of a part of the map, a touch input input by a user in a touch manner includes a first touch input for designating a first point included in the partial area, A second touch input for designating a second point included and a drag input connected from the first point to a second point. As one example of a touch method that can be variously implemented, a first point, which is a vertex of one of the designated areas to be selected, is selected and touched and dragged from the first point to a second point, ), The area of the rectangular structure is selected when the touch is released.
또 다른 실시예에 의한, 사용자의 터치 입력을 이용한 영역 설정은, 맵 중 선택하고자 하는 지정영역 중 하나의 꼭지점인 제1 지점을 선택하여 터치한 후, 또 다른 하나의 꼭지점인 제2 지점을 선택하여 터치하고, 상기 제1 지점과 제2 지점을 드래그(drag)하면, 사각형 구조의 한 영역이 선택될 수 있도록 구현할 수 있다. According to another embodiment, the area setting using the touch input by the user is performed by selecting and touching the first point which is one of the designated areas to be selected from the map, and then selecting the second point which is another vertex And dragging the first point and the second point to select one region of the rectangular structure.
상기 두 가지의 지정 영역 선택 방법과는 또 다른 일 예로서, 상기 일부의 영역에 포함되는 제1 지점을 정의하는 제1 터치 입력, 상기 일부의 영역에 포함되며, 상기 제1 지점과 인접한 제2 지점을 지정하기 위한 제2 터치 입력 및 상기 일부의 영역에 포함되며, 상기 제2 지점과 인접한 제3 지점을 지정하기 위한 제3 터치 입력을 포함할 수 있다. 예컨대, 사용자가 선택하고자 하는 제1 지점, 제2 지점 그리고 제3 지점을 선택하고, 90도를 이루는 두 선분이 상기 제1 지점, 제2 지점 및 제3 지점 중 두 지점을 이어 형성되는 영역을 지정 영역으로 선택할 수 있다.As another example of the above two designation area selection methods, a first touch input that defines a first point included in the partial area, a second touch input that is included in the partial area, A second touch input for specifying a point and a third touch input for specifying a third point adjacent to the second point, the third touch input being included in the partial area. For example, the first point, the second point, and the third point to be selected by the user are selected, and two line segments forming 90 degrees are formed in the region where the two points of the first point, the second point, Can be selected as the designated area.
사용자에 의한 지정 영역 선택 방법은 상술한 실시예들에 한정되지 않고, 다양한 방법에 따른 다양한 형태의 구조로 선택될 수 있다.The method of selecting a designated area by the user is not limited to the above-described embodiments, and various types of structures according to various methods can be selected.
이 때, 사용자 입력에 따른 지정 영역은, 집중 청소를 위한 제1 영역, 회피 주행을 위한 제2 영역 및 탈출 주행을 위한 제3 영역 중 적어도 하나를 포함하는 영역이다. At this time, the designation area according to the user input is an area including at least one of a first area for intensive cleaning, a second area for escape driving, and a third area for escape driving.
일 예로, 사용자 명령에 따른 지정 영역이 집중 청소를 위한 제1 영역이고, 상기 청소 로봇(2)이 지정 영역을 주행할 경우, 프로세서(20)는 먼지를 흡입하기 위한 흡입력을 상승시키거나, 지정 영역 내에서의 주행 속도를 느리게 하거나, 또는 상기 기정 영역 내에서 상기 청소 로봇(2)이 반복하여 주행하도록 하는 제어신호를 생성한다.For example, when the cleaning
도7은 본 발명의 일 실시예에 따른 지정 영역 중 회피 주행을 위한 제2 영역을 설정하는 장면을 도시한 도면이다. 도7을 참조하면, 사용자에 의한 선택된 지정영역이 회피 주행 영역인 경우, 로봇은 해당 지역에 접근하지 않는 회피 주행 동작을 수행한다.FIG. 7 is a view illustrating a scene in which a second area for avoidance driving is set in a designated area according to an embodiment of the present invention. Referring to FIG. 7, when the designated area selected by the user is the avoidance driving area, the robot performs the avoidance driving operation which does not approach the area.
원격 제어 장치(1)의 프로세서(20)는 사용자 인터페이스부(10)를 통해 입력된 사용자 명령에 기초하여, 원격 제어 장치(10)의 각 구성 즉, 무선 통신부(30), 사용자 인터페이스부(10) 및 저장부(40)를 제어할 수 있다.The
프로세서(20)는 무선 통신부(30)를 위한 제어신호를 생성할 수 있다. 예를 들어, 사용자가 "지정영역 설정" 명령을 입력하는 경우, 사용자에 의해 선택된 지정영역을 이동로봇(2)에 명령하기 위해, 프로세서(20)는 제어신호를 생성하여 서버(3)를 통해 송신한다. 또 다른 일 예로, 사용자가 "맵 생성" 명령을 입력하는 경우, 프로세서(20)는 이동로봇(2)에 맵 생성 명령을 전송하도록 제어신호를 생성할 수 있다. 프로세서(20)는 이동로봇(2)으로부터 청소이력 데이터를 수신하도록 제어신호를 생성할 수도 있다. 상술한 바와 같이, 원격 제어 장치(1)이 프로세서(20)는 이동로봇(1)에 신호를 송신하기 위한 모든 제어신호를 생성한다.The
도8은 본 발명의 일 실시예에 의한 이동로봇의 동작수행 방향을 설정하는 방법을 설명하기 위한 도면이다. 도8을 참조하면, 프로세서(20)는 사용자의 명령에 따라 선택된 지정영역 및 분할영역에서 장애물이 없는 영역의 좌표를 추출하고, 추출된 좌표들을 이용하여, 이동로봇의 주행영역을 타원형태로 피팅(fitting)한다. 프로세서(20)는 타원으로 피팅된 영역 중 타원이 이루는 가로와 세로의 선분 중 상대적으로 더 긴 선분을 기준으로 하여, 이동로봇의 동작수행 방향으로 설정한다. FIG. 8 is a view for explaining a method of setting an operation direction of a mobile robot according to an embodiment of the present invention. Referring to FIG. 8, the
일 예로, 프로세서(20)가 사용자에 의해 선택된 지정영역에 대한 청소수행명령을 위한 제어신호를 생성하는 경우, 불필요한 이동로봇(2)의 주행 회전 수를 줄이기 위하여, 이동로봇(2)의 감지부(300)가 선택된 지정영역내의 장애물을 감지하고, 감지된 장애물이 없는 영역의 좌표를 프로세서(20)로 전송한다. 프로세서(20)는 전송된 좌표를 고려하여, 이동로봇(2)의 청소주행영역을 타원형태로 피팅(fitting)한다. 타원형태로 피팅된 영역 중 도8과 같이 영역을 이루고 있는 폭(width)과 길이(length) 중 상대적으로 더 길이가 긴 방향을 기준으로 하여, 이동로봇(2)이 해당 방향으로 청소동작을 수행하도록 설정할 수 있다.For example, when the
다시 도2를 참조하면, 무선 통신부(30)는 상기 생성된 제어신호를 이동로봇(2)으로 송신하고, 이동로봇으로부터 제어신호에 따른 응답신호를 수신한다.Referring again to FIG. 2, the
무선 통신부(30)는 유무선 통신을 통해 이동로봇(2) 또는 외부 서버(3)와 각종 신호 및 데이터를 송수신한다. 예를 들어, 무선 통신부(30)는 사용자 인터페이스부(10)를 통한 사용자 명령에 따라, 이동로봇(1)을 관리하기 위한 어플리케이션을 외부 서버(3)로부터 다운로드 받을 수 있다. 또한, 무선 통신부(30)는 외부 서버로부터 청소 영역의 맵을 다운로드 받을 수 있다.The
무선 통신부(30)는 사용자의 "맵 생성" 명령을 이동로봇(2)에 전송할 수 있고, 생성된 맵을 수신할 수 있다. 또한, 무선 통신부(30)는 사용자에 의해 편집된 맵을 이동 로봇(2)에 전송할 수 있다. 무선 통신부(30)는 설정되거나 편집된 청소일정을 이동 로봇(200)에 전송할 수 있다. 무선 통신부(30)는 이동로봇(2)으로부터 청소이력 데이터를 수신 받을 수도 있다. 여기서, 청소이력데이터는 이동로봇(2)의 청소 이력에 따라 형성된 청소영역의 면적, 청소영역에 대한 주행속도, 소비전력, 청소소요시간 등을 포함할 수 있다.The
무선 통신부(30)는 사용자에 의해 입력된 "청소 시작" 명령 또는 "청소 종료" 명령을 이동로봇(2)에 전송할 수도 있다The
이를 위해, 무선 통신부(30)는 무선 인터넷 모듈, 근거리 통신 모듈, 이동통신 모듈 등 다양한 통신 모듈을 포함할 수 있다.For this purpose, the
무선 인터넷 모듈은 무선 랜(Wireless LAN; WLAN), 와이파이(Wi-Fi), Wibro(Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등과 같은 통신 프로토콜에 따라 외부 네트워트에 연결되어 통신을 수행하는 모듈을 의미한다.The wireless Internet module may be connected to the outside according to communication protocols such as wireless LAN (WLAN), Wi-Fi, Wibro (wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) Means a module connected to a network and performing communication.
근거리 통신 모듈은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등과 같은 근걸 통신 방식에 따라, 근거리에 위치한 외부 기기와 통신을 수행하기 위한 모듈을 의미한다.The short-range communication module may be connected to an external device located in close proximity to the mobile communication terminal according to a proximity communication method such as Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (UDA), Ultra Wideband (UWB), ZigBee Means a module for performing communication.
이동 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신을 수행하는 모듈을 의미한다.The mobile communication module refers to a module that connects to a mobile communication network and performs communication according to various mobile communication standards such as 3G (3rd Generation), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE)
다만, 이에 한정되는 것은 아니며, 이동 로봇(2) 및 외부 서버(3)와 통신을 수행할 수 있다면, 무선 통신부(30)는 상술한 바 외에 다른 형태의 통신 모듈을 채용할 수도 있다.However, the present invention is not limited to this, and if the
저장부(40)는 원격 제어 장치(1)의 동작을 위한 데이터 및 프로그램을 일시 또는 비일시적으로 저장한다. 예를 들어, 저장부(40)는 이동로봇(2)을 관리하기 위한 어플리케이션을 저장할 수 있다. 저장부(40)는 수신된 맵 또는 편집된 맵을 저장할 수 있으며, 회피영역 및 집중영역이 구분된 분할된 영역을 포함하는 맵 정보를 저장할 수 있다. The
이동로봇(2)은 전원부(100), 주행부(200), 감지부(300), 제어부(400), 청소부(500), 영상획득부(600), 송수신부(700) 및 메모리부(800)를 포함한다.The
전원부(100)는 배터리로 구현될 수 있고, 이동로봇(2)을 구동시키기 위한 구동전원을 공급한다.The
주행부(200)는 도시되지 않은 구동모터와 상기 구동모터의 구동력에 의해 구동되는 구동바퀴를 포함한다.The driving
이동로봇(2)의 감지부(300)는 다양한 센서를 포함할 수 있다. 예컨대, 감지부(300)는 장애물 감지 센서, 바닥 감지 센서 및 비전 센서를 포함할 수 있다.The
일 예인, 장애물 감지 센서는 장애물과의 접촉 여부에 따라 접촉식 센서로 마련될 수도 있고, 비접촉식 센서로 마련될 수 있으며, 접촉식 센서와 비접촉식 센서가 혼용되어 마련되는 것도 가능하다. 접촉식 센서는 실제로 이동장치(2) 본체가 장애물과 충돌함으로써 장애물을 감지하는 센서를 의미하여, 비접촉식 센서는 이동장치의 본체가 장애물과 충돌하지 않거나 장애물과의 충돌 전에 장애물을 미리 감지하는 센서를 의미한다. 비접촉식 센서는 초음파 센서, 광 센서 또는 RF 센서 등을 포함할 수 있다. An obstacle detecting sensor, which is an example, may be provided as a contact type sensor according to contact with an obstacle, or may be provided as a non-contact type sensor, or a contact type sensor and a non-contact type sensor may be used in combination. The contactless sensor means a sensor which actually detects the obstacle by colliding with the obstacle by the body of the
바닥 감지 센서는 다양한 형태의 광 센서를 포함하여, 바닥면으로부터 이동로봇(2)이 떨어진 거리 또는 바닥면과 이동로봇(2)의 본체의 저면간의 거리를 감지할 수 있다. 또한, 바닥 감지 센서는 기울기 스위치, 가속도 센서 또는 자이로 센서를 포함하는 센서로 구현될 수 있다.The floor sensor includes various types of optical sensors and can sense the distance between the
비전 센서(vision sensor)는 이동로봇(2)의 위치를 인식하고, 이동 로봇(2)의 주행 또는 주행영역에 대한 맵을 형성하기 위한 센서를 의미한다.The vision sensor means a sensor for recognizing the position of the
비전 센서는 카메라와 같은 영상획득부(600)를 포함하여 구현될 수 있고, 상기 영상획득부(600)로부터 획득된 영상데이터로부터 특징점을 추출하고, 특징점을 이용하여 이동로봇(2)의 위치를 인식한다. 비전 센서를 통해 감지된 위치 정보는 제어부(400)에 전달될 수 있다.The vision sensor can be implemented by including an
감지부(300)가 추출한 센서값은 제어부(400)에 전달되고, 제어부(400)는 이에 기초하여, 청소영역에 대한 맵을 생성할 수 있다. 센서값에 기초한 맵 생성방법은 공지된 기술로서, 그에 대한 구체적 설명은 이하 생략하기로 한다. 또한, 감지부(400)가 청소영역의 맵을 생성할 수 있다면, 다른 종류의 센서가 더 포함하거나, 일부 센서가 생략되는 것도 가능할 것이다.The sensor value extracted by the
제어부(400)는 이동로봇(2)의 전반적인 동작을 제어한다. 제어부(400)는 전원부(100), 주행부(200), 감지부(300), 청소부(500), 영상획득부(600), 송수신부(700) 및 메모리부(800) 등을 제어할 수 있다.The
일 예로, 제어부(400)는 송수신부(700)로부터 "맵 생성" 명령을 전달받는 경우, 주행부(200)의 구동바퀴를 구동시키도록 제어할 수 있다. 주행부(200)가 주행하는 동안, 제어부(400)는 감지부(300)로부터 센서값을 전송받고, 이에 기초하여, 청소영역에 대한 맵을 생성할 수 있다.For example, when the
청소부(500)는 사용자의 명령에 따라, 이동로봇(2)이 주행함과 동시에, 청소하는 동작을 수행한다. 본 발명의 일 실시예에 따른 청소부(500)는 제어부(400)의 제어신호에 따라 이동로봇(2)이 주행하는 청소 영역의 바닥면으로부터 먼지 등의 이물질을 흡입하여 청소 작업을 수행하도록 흡입모터와 브러시모터 등 다양한 청소 툴(tool)을 탑재하여 구현될 수 있다.The
본 발명의 일 실시예에 따른 영상획득부(600)는 이동로봇(2)의 본체에 마련되어, 주행하는 이동로봇(2)의 청소작업 수행에 관련된 영상을 획득하는 카메라로 구현될 수 있다. The
송수신부(700)는 유무선 통신을 통해 원격 제어 장치(1)와 각종 신호 및 데이터를 송수신한다. 예를 들어, 송수신부(700)는 사용자의 "맵 생성" 명령을 원격 제어 장치(1)로부터 전송받고, 생성된 맵을 원격 제어 장치(1)에 송신할 수 있다. 또한, 송수신부(700)는 원격 제어 장치(1)로부터 사용자의 청소 시작명령 또는 청소 종료명령을 전송 받을 수도 있다. The
메모리부(800)는 이동로봇(2)의 동작을 위한 데이터 및 프로그램을 일시 또는 비일시적으로 저장한다. 메모리부(800)는 청소이력데이터를 저장할 수 있으며, 청소이력데이터는 주기적 또는 비주기적으로 업데이트될 수 있다. 제어부(400)가 맵을 생성하거나, 맵을 갱신하는 경우, 메모리부(800)는 생성된 맵 또는 갱신된 맵을 저장할 수 있다. The
이하에서는, 본 발명의 일 실시예에 따른 이동로봇을 원격으로 제어하는 원격 제어 방법에 대해 자세하게 설명한다. Hereinafter, a remote control method for remotely controlling the mobile robot according to an embodiment of the present invention will be described in detail.
이동로봇(2)은 사용자의 명령에 따라, 맵 생성 모드를 입력받는다. 이동로봇은 맵을 생성하기 위해, 미리 저장된 적어도 하나의 주행모드를 수행한다. 여기서, 미리 저장된 주행모드는, 지그재그(zigzag) 모드, 나선형 모드, 스파이럴(spiral) 모드 등 다양한 주행모드 중 하나의 주행모드로 이동로봇(2)의 주행영역을 주행하며, 감지부(300)가 측정한 센서값을 이용하여, 제어부(400)에서 맵을 생성한다. The
도9는 본 발명의 일 실시예에 따른 이동로봇을 원격으로 제어하는 원격 제어 방법을 개략적으로 도시한 흐름도이다. 9 is a flowchart schematically showing a remote control method for remotely controlling a mobile robot according to an embodiment of the present invention.
도9를 참조하면, 원격 제어 장치(1)는 이동로봇(2)으로부터 생성된 맵을전송받고, 디스플레이부(12)로 디스플레이한다(S100).9, the
사용자는 디스플레이부(12)로 디스플레이된 맵을 확인하고, 자동 분할 영역을 생성할 것인지 여부를 결정한다(S200). 현재의 모드가 자동 분할 영역 모드인 경우, 프로세서(20)는 현재의 맵에 포함되는 영역을 미리 정해진 기준에 따라 분할하여 분할 영역을 생성하고, 생성된 분할 영역을 디스플레이부(12)에 표시한다(S300). The user confirms the map displayed on the
이 때, 프로세서(20)가 자동으로 분할 영역을 생성하는 방법은, 세선화(thinning) 또는보로노이 다이어그램 (voronoi diagram)을 이용하여 분할영역을 생성할 수 있다.At this time, the method for the
세선화(thinning)란, 영상처리에서 이미지의 골격을 추출하는 방법으로서, 이미지의 골격을 한 격자 두께의 세선으로 추출하며, 이미지에 구성되는 복수개의 노드(node)를 이용하여, 픽셀을 생성하여 이동로봇(2)의 경로의 골격을 추출하는 것이다. 보다 상세하게 설명하면, 이동로봇(2)은 생성된 맵에서 이동로봇(2)이 주행 가능한 영역을 세선화하여, 경로의 골격 즉, 청소 영역의 외곽 라인을 추출한다. 프로세서(20)는 추출된 외곽 라인이 끝나거나 여러 선들로 갈라져 나가는 부분을 노드(node)로 설정할 수 있다. 또한, 프로세서(20)는 이동로봇(2)이 현재 위치하고 있는 픽셀 주변에서 주변의 픽셀의 개수를 분석할 때, 복수개의 선이 연결되어 있으면, 해당 지점을 분기 노드(branch node)로 결정할 수 있다. 프로세서(20)는 상기 분기 노드로부터 선을 이루는 픽셀을 따라가면서 하나의 경로를 찾고, 찾은 경로에서 곡률이 큰 픽셀은 다시 노드로 분리하며, 이 과정을 반복할 수 있다.Thinning is a method of extracting a skeleton of an image in image processing. The skeleton of an image is extracted as a thin line of a grid thickness, and a pixel is generated by using a plurality of nodes constituting the image The skeleton of the path of the
분할영역 생성 방법의 또 다른 실시예인, 보로노이 다이어그램(voronoi diagram)은 유클리디언 공간상에 많은 특징점들이 존재해 있을 때, 각각의 특징점들에서 같은 거리에 떨어진 지점들을 기준으로 공간을 분할하는 방법이다. 보로노이다각형은, 복수개의 부분 다각형들을 포함하며, 각각의 부분 다각형들은 각각의 공간을 특정하기 위하여 선택된 복수개의 특징점들에 의하여 정의될 수 있다. 이때, 각각의 보로노이 다각형에서는 내부의 점들에 대해 다른 보로노이 다각형의 기준점에서의 거리보다 자신이 속한 다각형의 기준점까지의 거리가 항상 가까운데, 이러한 보로노이 다각형은 임의의 특징점(기준점)과 상기 기준점과 인접한 특징점과의 수직이등분선들이 만나서 형성되는 다각형으로 정해진다.The voronoi diagram, which is another embodiment of the method of generating a divided area, is a method of dividing a space based on points spaced at the same distance from each characteristic point when many characteristic points exist on the Euclidean space to be. The Voronoi polygon includes a plurality of partial polygons, and each partial polygon can be defined by a plurality of minutiae points selected to specify each space. At this time, in each Voronoi polygon, distances to the reference points of the polygons to which the Voronoi polygon belongs are always closer than the distances from the reference points of the other Voronoi polygons to the inner points of the respective Voronoi polygons. And the polygons formed by the intersection of the vertical bisectors with the adjacent feature points.
상기 분할 영역을 생성하는 단계는, 원격 제어 장치(1)가 생성할 수 있고, 이동로봇(2)이 생성할 수 있다.The step of generating the divided area can be generated by the
도10은 본 발명의 일 실시예에 의한 영역분할된 격자지도를 도시한 도면이다. 이해를 돕기 위해, 도8을 참조하면, 실시예인 세선화(thinning) 및 보로노이 다이어그램(voronoi diagram)을 이용하여, 생성한 영역이 분할된 격자지도이다.FIG. 10 is a diagram illustrating a region-divided grid map according to an embodiment of the present invention. For the sake of understanding, referring to FIG. 8, the generated region is a divided grid map, using thinning and Voronoi diagrams, which are embodiments.
자동 분할 영역 모드가 아니라면, 원격 제어 장치(1)는 사용자가 선택한 지정영역에 따른 영역별 청소모드를 미리 설정했는지 여부를 판단한다(S400). 프로세서(20)는 사용자가 선택한 지정 영역이 아닌 경우, 이동로봇(2)의 자율주행 및 자율주행에 따른 청소모드로 설정한다(S500). If not, the
사용자가 선택한 지정 영역이라면, 원격 제어 장치(1)는 사용자가 선택한 지정영역에 따른 영역별 청소모드를 미리 설정했는지 여부를 판단한다(S600). 예를 들어, 생성된 맵에 분할된 영역인 영역1, 영역2, 영역3이 존재한다고 할 때, 원격 제어 장치(1)는 영역1은 회피영역, 영역2는 집중청소영역, 영역3은 탈출주행영역 등과 같은, 영역별 다른 청소모드를 미리 설정하였는지 확인한다.If the user selects the designated area, the
지정영역에 따른 청소모드가 미리 설정되지 않았다면, 원격 제어 장치(1)는 기 설정된 알고리즘에 따라 자동으로 청소모드를 결정한다(S700). 예컨대, 이동로봇(2)에 다양하게 탑재되어 있는 센서로부터 측정된 정보에 따라, 프로세서(20)는 이동로봇(2)으로부터 측정된 정보를 전달받고, 임의로 영역별 설정을 수행 및 결정한다. 일 예로, 이동로봇(2)의 오염농도측정 센서로부터 먼지농도가 다량 검출되면, 현재 위치하고 있는 해당 영역은 집중청소영역으로 설정될 것이다. 프로세서(20)에 의해 설정되는 청소모드는, 주기적으로 갱신될 수 있으며, 설정되는 정보는 일시적으로 설정하는 동작일 수 있다.If the cleaning mode according to the designated area is not set in advance, the
지정영역에 따른 청소모드가 미리 설정되어 있다면, 프로세서(20)는 해당 지정영역에 맞는 청소모드에 따른 제어신호를 이동로봇(2)으로 전송한다(S800).If the cleaning mode according to the designated area is set in advance, the
이렇게, 맵 생성 및 분할 영역에 따른 청소모드가 모두 설정되면, 맵 정보를 원격 제어 장치(1)의 저장부(40)와 이동로봇(2)의 메모리부(800)에 저장하고, 디스플레이부(12)에 표시한다(S900).When the map generation and the cleaning mode according to the divided area are all set, the map information is stored in the
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.
또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
1: 원격 제어 장치
2: 이동 로봇
3: 서버
10: 사용자 인터페이스부
11: 사용자 입력부
12: 디스플레이부
20: 프로세서
30: 무선 통신부
40: 저장부
100: 전원부
200: 주행부
300: 감지부
400: 제어부
500: 청소부
600: 영상획득부
700: 송수신부
800: 메모리부1: Remote control device
2: Mobile robot
3: Server
10: User interface section
11: User input
12:
20: Processor
30:
40:
100:
200:
300:
400:
500: Cleaner
600:
700: Transmitting /
800:
Claims (20)
상기 입력받은 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하고, 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성하는 프로세서; 및
상기 생성된 제어신호를 상기 이동로봇으로 송신하고, 상기 이동로봇으로부터 상기 제어신호에 따른 응답신호를 수신하는 무선 통신부;를 포함하되,
상기 이동로봇은 청소로봇이고, 상기 프로세서는 상기 맵을 표시하되, 상기 맵은 상기 청소로봇으로부터 전송되는 것이며, 상기 지정영역은 집중 청소를 위한 제1 영역, 회피 주행을 위한 제2 영역 및 탈출 주행을 위한 제3 영역 중 적어도 하나를 포함하고,
상기 사용자 명령에 따른 지정영역이 상기 제1 영역인 경우에 따라 상기 청소로봇이 상기 제1 영역을 주행하는 경우, 상기 프로세서는 먼지를 흡입하기 위한 흡입력을 상승시키거나, 상기 제1 영역 내에서의 주행 속도를 느리게 하거나, 또는 상기 제1 영역 내에서 상기 청소로봇이 반복하여 주행하도록 하는 제어신호를 생성하는 것을 특징으로 하는 이동로봇을 원격으로 제어하기 위한 원격 제어 장치.A user interface unit for displaying a map related to a traveling region of the mobile robot and receiving user commands related to the operation of the mobile robot;
A processor for selecting at least a part of the map as a designated area in consideration of the inputted user command and generating a control signal for remotely controlling the mobile robot; And
And a wireless communication unit transmitting the generated control signal to the mobile robot and receiving a response signal corresponding to the control signal from the mobile robot,
Wherein the mobile robot is a cleaning robot, the processor displays the map, the map is transmitted from the cleaning robot, and the designated area includes a first area for intensive cleaning, a second area for avoidance driving, And a third region for the second region,
When the cleaning robot travels in the first area according to a case where the designated area according to the user command is the first area, the processor increases the suction force for sucking dust, The control unit generates a control signal for slowing the traveling speed or causing the cleaning robot to repeatedly travel within the first area.
상기 사용자 명령은 상기 사용자 인터페이스부에서 표시되는 맵 중 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치입력을 포함하는 것을 특징으로 하는 이동로봇을 원격으로 제어하기 위한 원격 제어 장치.The method according to claim 1,
Wherein the user command includes a touch input input by a user in a touch manner to designate at least a part of a map displayed in the user interface unit.
상기 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치 입력은,
상기 일부의 영역에 포함된 제1 지점을 지정하기 위한 제1 터치 입력,
상기 일부의 영역에 포함된 제2 지점을 지정하기 위한 제2 터치 입력 및
상기 제1 지점에서 시작하여 제2 지점까지 연결되는 드래그 입력을 포함하는 것을 특징으로 하는 원격 제어 장치. The method according to claim 1,
Wherein the touch input input by the user in a touch manner to designate the at least a part of the area comprises:
A first touch input for designating a first point included in the partial area,
A second touch input for designating a second point included in the partial area, and
And a drag input connected from the first point to the second point.
상기 이동로봇이 주행하는 맵을 영역별 경계를 추출하는 세선화 방법 또는 보로노이 다이어그램을 이용하여 분할하는 분할영역을
생성하는 것을 특징으로 하는 것을 더 포함하는 이동로봇을 원격으로 제어하기 위한 원격 제어 장치.2. The apparatus of claim 1,
A thinning method for extracting boundaries for each region of the map traveled by the mobile robot or a segmentation region for segmenting using a Voronoi diagram
Wherein the remote control device further comprises a remote control device for controlling the mobile robot.
상기 사용자의 명령에 따라 선택된 지정영역 및 분할영역에서 장애물이 없는 영역의 좌표를 추출하고, 상기 추출된 좌표들을 고려하여 상기 이동로봇의 주행영역을 타원형태로 피팅하고,
상기 타원으로 피팅된 영역 중 상기 타원이 이루는 가로와 세로의 선분 중 상대적으로 더 긴 선분을 기준으로 상기 이동로봇의 동작수행 방향으로 설정하는 것을 특징으로 하는 것을 더 포함하는 이동로봇을 원격으로 제어하기 위한 원격 제어 장치.7. The apparatus of claim 6,
Extracting coordinates of an obstacle-free area in a designated area and a divided area selected according to a command of the user, fitting the traveling area of the mobile robot into an elliptic shape in consideration of the extracted coordinates,
And setting the movement direction of the mobile robot to a direction in which the mobile robot is operated based on a relatively long line segment of the horizontal and vertical line segments formed by the ellipse among the areas fitted to the ellipse. For remote control.
상기 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치 입력은,
상기 일부의 영역에 포함되는 제1 지점을 정의하는 제1 터치 입력,
상기 일부의 영역에 포함되며, 상기 제1 지점과 인접한 제2 지점을 지정하기 위한 제2 터치 입력 및
상기 일부의 영역에 포함되며, 상기 제2 지점과 인접한 제3 지점을 지정하기 위한 제3 터치 입력을 포함하는 것을 특징으로 하는 원격 제어 장치. 3. The method of claim 2,
Wherein the touch input input by the user in a touch manner to designate the at least a part of the area comprises:
A first touch input for defining a first point included in the partial area,
A second touch input for specifying a second point adjacent to the first point, included in the partial area, and
And a third touch input for specifying a third point that is included in the partial area and is adjacent to the second point.
상기 이동로봇의 주행영역과 관련된 맵을 표시하고, 상기 이동로봇의 동작과 관련된 사용자 명령을 입력받는 사용자 인터페이스부;
상기 입력받은 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하고, 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성하는 프로세서; 및
상기 생성된 제어신호를 상기 이동로봇으로 송신하고, 상기 이동로봇으로부터 상기 제어신호에 따른 응답신호를 수신하는 무선 통신부;를 포함하되,
상기 이동로봇은 청소로봇이고, 상기 프로세서는 상기 맵을 표시하되, 상기 맵은 상기 청소로봇으로부터 전송되는 것이며, 상기 지정영역은 집중 청소를 위한 제1 영역, 회피 주행을 위한 제2 영역 및 탈출 주행을 위한 제3 영역 중 적어도 하는 포함하고,
상기 사용자 명령에 따른 지정영역이 상기 제1 영역인 경우에 따라 상기 청소로봇이 상기 제1 영역을 주행하는 경우, 상기 프로세서는 먼지를 흡입하기 위한 흡입력을 상승시키거나, 상기 제1 영역 내에서의 주행속도를 느리게 하거나, 또는 상기 제1 영역 내에서 상기 청소로봇이 반복하여 주행하도록 하는 제어신호를 생성하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 이동로봇 제어 시스템.A mobile robot; And
A user interface for displaying a map related to a traveling region of the mobile robot and receiving user commands related to the operation of the mobile robot;
A processor for selecting at least a part of the map as a designated area in consideration of the inputted user command and generating a control signal for remotely controlling the mobile robot; And
And a wireless communication unit transmitting the generated control signal to the mobile robot and receiving a response signal corresponding to the control signal from the mobile robot,
Wherein the mobile robot is a cleaning robot, the processor displays the map, the map is transmitted from the cleaning robot, and the designated area includes a first area for intensive cleaning, a second area for avoidance driving, And at least a third region for < RTI ID = 0.0 >
When the cleaning robot travels in the first area according to a case where the designated area according to the user command is the first area, the processor increases the suction force for sucking dust, The control unit generates a control signal for slowing the traveling speed or causing the cleaning robot to repeatedly travel in the first area.
상기 사용자 명령은 상기 사용자 인터페이스부에서 표시되는 맵 중 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치입력을 포함하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 이동로봇 제어 시스템.10. The method of claim 9,
Wherein the user command comprises a touch input input by a user in a touch manner to designate at least a part of a map displayed in the user interface unit.
상기 적어도 일부의 영역을 지정하기 위해 사용자가 터치 방식으로 입력한 터치 입력은,
상기 일부의 영역에 포함된 제1 지점을 지정하기 위한 제1 터치 입력,
상기 일부의 영역에 포함된 제2 지점을 지정하기 위한 제2 터치 입력 및
상기 제1 지점에서 시작하여 제2 지점까지 연결되는 드래그 입력을 포함하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 이동로봇 제어 시스템.10. The method of claim 9,
Wherein the touch input input by the user in a touch manner to designate the at least a part of the area comprises:
A first touch input for designating a first point included in the partial area,
A second touch input for designating a second point included in the partial area, and
And a drag input connected to the first point and starting from the first point to the second point.
상기 이동로봇을 이동시키는 주행부;
상기 이동로봇이 주행하는 영역을 청소하는 청소부;
상기 무선통신부로부터 상기 제어신호를 수신하고, 상기 제어신호에 따른 응답신호를 송신하는 송수신부;
상기 제어신호에 따라, 상기 이동로봇의 동작위치를 감지하는 감지부; 및
상기 주행영역의 영상을 획득하는 영상획득부;
를 포함하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 이동로봇 제어 시스템.10. The mobile robot according to claim 9,
A traveling unit for moving the mobile robot;
A cleaning unit for cleaning a region where the mobile robot travels;
A transmission / reception unit that receives the control signal from the wireless communication unit and transmits a response signal in accordance with the control signal;
A sensing unit for sensing an operation position of the mobile robot according to the control signal; And
An image acquiring unit acquiring an image of the traveling region;
And controlling the mobile robot to be controlled by the mobile robot.
미리 설정된 적어도 하나의 자율 주행 모드에 따라, 상기 이동로봇의 주행영역에 관련된 맵을 생성하는 맵생성부를 더 포함하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 이동로봇 제어 시스템.10. The mobile robot according to claim 9,
Further comprising a map generation unit for generating a map related to a traveling region of the mobile robot in accordance with at least one autonomous traveling mode set in advance.
상기 수신된 제어신호에 따라 상기 지정영역을 고려하여 동작하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 이동로봇 제어 시스템.10. The mobile robot according to claim 9,
Wherein the control unit operates in consideration of the designated area according to the received control signal.
상기 이동로봇과 상기 무선통신부간 송수신하는 신호를 전달하는 서버;
를 더 포함하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 이동로봇 제어 시스템.10. The method of claim 9,
A server for transmitting signals transmitted and received between the mobile robot and the wireless communication unit;
The mobile robot control system according to claim 1, further comprising:
상기 이동로봇이 미리 저장된 적어도 하나의 주행모드를 수행함에 따라, 맵을 생성하는 단계;
상기 원격 제어 장치가 상기 이동로봇으로부터 생성된 맵을 전달받아, 상기 이동로봇의 동작과 관련된 사용자 명령을 입력받는 단계;
상기 원격 제어 장치가 상기 사용자 명령을 고려하여, 상기 맵 중 적어도 일부를 지정영역으로 선택하는 단계;
상기 원격 제어 장치가 상기 이동로봇을 원격으로 제어하기 위한 제어신호를 생성하는 단계;를 포함하되,
상기 이동로봇은 청소로봇이고, 상기 원격 제어 장치는 상기 맵을 표시하되, 상기 맵은 상기 청소 로봇으로부터 전송되는 것이며, 상기 지정영역은 집중청소를 위한 제1 영역, 회피 주행을 위한 제2 영역 및 탈출 주행을 위한 제3 영역 중 적어도 하나를 포함하고,
상기 사용자 명령에 따른 지정영역이 상기 제1 영역인 경우에 따라 상기 청소로봇이 상기 제1 영역을 주행하는 경우, 상기 원격 제어 장치는 먼지를 흡입하기 위한 흡입력을 상승시키거나, 상기 제1 영역 내에서의 주행 속도를 느리게하거나, 도는 상기 제1 영역 내에서 상기 청소로봇이 반복하여 주행하도록 하는 제어신호를 생성하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 원격 제어 방법.A remote control method of a remote control device for remotely controlling a mobile robot,
Generating a map as the mobile robot performs at least one traveling mode stored in advance;
Receiving the map generated from the mobile robot and receiving a user command related to the operation of the mobile robot;
Selecting at least a part of the map as a designated area in consideration of the user command by the remote control device;
And generating a control signal for remotely controlling the mobile robot by the remote control device,
Wherein the mobile robot is a cleaning robot, and the remote control device displays the map, wherein the map is transmitted from the cleaning robot, the designation area includes a first area for intensive cleaning, a second area for avoidance driving, And a third region for escape travel,
When the cleaning robot travels in the first area in accordance with the user area, the remote control device increases the suction force for suctioning the dust, or increases the suction force in the first area And the control unit generates a control signal for causing the cleaning robot to repeatedly travel in the first area or to remotely control the mobile robot.
장애물의 유무에 따라 상기 이동로봇이 동작하고자 하는 동작영역을 분할하여, 상기 맵을 생성하는 것을 특징으로 하는 이동로봇을 원격으로 제어하는 원격 제어 방법.18. The method of claim 17, wherein generating the map further comprises:
A remote control method for remotely controlling a mobile robot, comprising: dividing an operation region in which the mobile robot is to operate according to presence or absence of an obstacle, thereby generating the map.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/261,770 US10175688B2 (en) | 2016-01-20 | 2016-09-09 | Apparatus and system for remotely controlling a moving robot and method thereof |
EP16188641.1A EP3196726B1 (en) | 2016-01-20 | 2016-09-13 | Apparatus and system for remotely controlling a moving robot and method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20160007244 | 2016-01-20 | ||
KR1020160007244 | 2016-01-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170087384A KR20170087384A (en) | 2017-07-28 |
KR101857952B1 true KR101857952B1 (en) | 2018-05-15 |
Family
ID=59422500
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160109292A KR101857952B1 (en) | 2016-01-20 | 2016-08-26 | Apparatus and System for Remotely Controlling a Robot Cleaner and Method thereof |
KR1020160109294A KR101941060B1 (en) | 2016-01-20 | 2016-08-26 | Signal Processing Method and Apparatus for Performing Communication with Mobile Robot |
KR1020160109293A KR101844744B1 (en) | 2016-01-20 | 2016-08-26 | Remote control apparatus and system for a mobile robot, and method thereof |
KR1020160114021A KR20170087387A (en) | 2016-01-20 | 2016-09-05 | Multi-map management and its usage with relocation |
KR1020170000350A KR101901599B1 (en) | 2016-01-20 | 2017-01-02 | System for operating mobile robot based on complex map information and operating method thereof |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160109294A KR101941060B1 (en) | 2016-01-20 | 2016-08-26 | Signal Processing Method and Apparatus for Performing Communication with Mobile Robot |
KR1020160109293A KR101844744B1 (en) | 2016-01-20 | 2016-08-26 | Remote control apparatus and system for a mobile robot, and method thereof |
KR1020160114021A KR20170087387A (en) | 2016-01-20 | 2016-09-05 | Multi-map management and its usage with relocation |
KR1020170000350A KR101901599B1 (en) | 2016-01-20 | 2017-01-02 | System for operating mobile robot based on complex map information and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (5) | KR101857952B1 (en) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6989210B2 (en) | 2017-09-26 | 2022-01-05 | アクチエボラゲット エレクトロルックス | Controlling the movement of robot cleaning devices |
KR102605785B1 (en) * | 2017-10-11 | 2023-11-24 | 트리나미엑스 게엠베하 | Automatic robotic devices and related control methods |
KR102428216B1 (en) * | 2017-12-04 | 2022-08-01 | 엘지전자 주식회사 | a Moving robot Using artificial intelligence, Controlling method for the moving robot, Controlling system for the moving robot |
KR102008367B1 (en) * | 2018-01-18 | 2019-08-07 | 소프트온넷(주) | System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot |
US11173605B2 (en) | 2018-02-26 | 2021-11-16 | dogugonggan Co., Ltd. | Method of controlling mobile robot, apparatus for supporting the method, and delivery system using mobile robot |
KR102500529B1 (en) * | 2018-04-05 | 2023-02-15 | 엘지전자 주식회사 | Moving Robot and controlling method |
CN108628311B (en) * | 2018-05-14 | 2021-11-02 | 努比亚技术有限公司 | Control method, sweeping robot, terminal and computer-readable storage medium |
KR102557736B1 (en) * | 2018-07-19 | 2023-07-24 | 삼성전자주식회사 | Movable robot control apparatus through drawing and method of operation thereof |
KR20200015340A (en) | 2018-08-02 | 2020-02-12 | 주식회사 유진로봇 | Mobile Robot That Moves Dynamically according to Attribute Block, User Terminal Device, and Map Management Server |
US11278176B2 (en) | 2018-09-06 | 2022-03-22 | Irobot Corporation | Scheduling system for autonomous robots |
KR102147211B1 (en) | 2018-10-22 | 2020-08-24 | 엘지전자 주식회사 | Controlling method for Artificial intelligence Moving robot |
KR102255273B1 (en) | 2019-01-04 | 2021-05-24 | 삼성전자주식회사 | Apparatus and method for generating map data of cleaning space |
KR102212268B1 (en) * | 2019-05-15 | 2021-02-04 | 주식회사 폴라리스쓰리디 | Localization system and means of transportation with the same and computing device for executing the same |
CN113906438A (en) * | 2019-06-03 | 2022-01-07 | 三星电子株式会社 | Electronic device for object identification and control method thereof |
KR102190900B1 (en) * | 2019-07-08 | 2020-12-14 | 이상부 | A method for providing cleaning service and an apparatus therefore |
CN111449572A (en) * | 2020-03-26 | 2020-07-28 | 北京石头世纪科技股份有限公司 | Cleaning robot control method and device, storage medium and cleaning robot |
WO2022086161A1 (en) * | 2020-10-20 | 2022-04-28 | 삼성전자주식회사 | Robot and control method therefor |
WO2023068542A1 (en) * | 2021-10-21 | 2023-04-27 | 한국전자통신연구원 | Method and computing device for global localization of mobile robot |
KR102668808B1 (en) | 2021-12-20 | 2024-05-24 | 한국전자기술연구원 | Autonomous driving mobile robot and method using schematic map |
KR20230100049A (en) * | 2021-12-28 | 2023-07-05 | (주)에스엘엠 | A hull surface management system |
KR20230102387A (en) | 2021-12-30 | 2023-07-07 | 주식회사 클로봇 | Method, apparatus and program for correcting position of mobile robot corresponding to the map change |
CN114983267A (en) * | 2022-05-10 | 2022-09-02 | 安克创新科技股份有限公司 | Cleaning robot control method, device and system and cleaning robot |
KR102751166B1 (en) | 2022-11-07 | 2025-01-13 | 주식회사 나비프라 | Mobile robot path map generating unit unit and method for generating mobile robot path map |
KR102611689B1 (en) * | 2022-12-30 | 2023-12-08 | 한국로봇융합연구원 | Robot cleaning system and control method thereof |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101458349B1 (en) * | 2005-02-18 | 2014-11-04 | 아이로보트 코퍼레이션 | A surface cleaning apparatus and a method for cleaning a surface with a cleaning apparatus |
KR101553950B1 (en) * | 2009-03-02 | 2015-09-17 | 엘지전자 주식회사 | Robot cleaner and method for detecting its position |
KR101412590B1 (en) * | 2011-09-07 | 2014-06-26 | 엘지전자 주식회사 | Robot cleaner, and system and method for remotely controlling the same |
KR102094347B1 (en) | 2013-07-29 | 2020-03-30 | 삼성전자주식회사 | Auto-cleaning system, cleaning robot and controlling method thereof |
KR102118049B1 (en) * | 2013-12-19 | 2020-06-09 | 엘지전자 주식회사 | robot cleaner, robot cleaner system and a control method of the same |
KR101784183B1 (en) * | 2014-06-17 | 2017-10-11 | 주식회사 유진로봇 | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF |
-
2016
- 2016-08-26 KR KR1020160109292A patent/KR101857952B1/en active IP Right Grant
- 2016-08-26 KR KR1020160109294A patent/KR101941060B1/en active IP Right Grant
- 2016-08-26 KR KR1020160109293A patent/KR101844744B1/en active IP Right Grant
- 2016-09-05 KR KR1020160114021A patent/KR20170087387A/en unknown
-
2017
- 2017-01-02 KR KR1020170000350A patent/KR101901599B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101901599B1 (en) | 2018-09-28 |
KR101844744B1 (en) | 2018-04-05 |
KR20170087386A (en) | 2017-07-28 |
KR20170087384A (en) | 2017-07-28 |
KR20170087385A (en) | 2017-07-28 |
KR20170087403A (en) | 2017-07-28 |
KR20170087387A (en) | 2017-07-28 |
KR101941060B1 (en) | 2019-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101857952B1 (en) | Apparatus and System for Remotely Controlling a Robot Cleaner and Method thereof | |
EP3196726B1 (en) | Apparatus and system for remotely controlling a moving robot and method thereof | |
US11468983B2 (en) | Time-dependent navigation of telepresence robots | |
US20220199253A1 (en) | Interfacing With a Mobile Telepresence Robot | |
CN113226667B (en) | Cleaning robot and task execution method thereof | |
US10335949B2 (en) | System for operating mobile robot based on complex map information and operating method thereof | |
EP3460614B1 (en) | Combined robot and cruising path generation method therefor | |
EP3970590B1 (en) | Method and system for controlling a robot cleaner | |
JP5550671B2 (en) | Autonomous traveling robot and traveling control method for autonomous traveling robot | |
US20220357174A1 (en) | Stand-alone self-driving material-transport vehicle | |
JP2016133945A (en) | Server device and method for determining travel route | |
KR102462636B1 (en) | A building where robots that are remotely controlled by a cloud server and robot remote control system move | |
US11642257B2 (en) | Mapping and data collection of in-building layout via mobility devices | |
CN109991961A (en) | Mobile device, control method thereof, and remote control system | |
EP3748296A1 (en) | Method and scanning system for computing a use case specific scan route | |
JP2022003437A (en) | Control system and control method of mobile body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160826 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20170822 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20180220 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20180509 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20180509 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20210504 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20220404 Start annual number: 5 End annual number: 5 |