[go: up one dir, main page]

KR102768288B1 - Unmanned moving object, method, system and program for deciding to get on and off an elevator of unmanned moving object - Google Patents

Unmanned moving object, method, system and program for deciding to get on and off an elevator of unmanned moving object Download PDF

Info

Publication number
KR102768288B1
KR102768288B1 KR1020220135420A KR20220135420A KR102768288B1 KR 102768288 B1 KR102768288 B1 KR 102768288B1 KR 1020220135420 A KR1020220135420 A KR 1020220135420A KR 20220135420 A KR20220135420 A KR 20220135420A KR 102768288 B1 KR102768288 B1 KR 102768288B1
Authority
KR
South Korea
Prior art keywords
elevator
preset
image
emergency
unmanned vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220135420A
Other languages
Korean (ko)
Other versions
KR20240055922A (en
Inventor
함형하
Original Assignee
주식회사 클로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 클로봇 filed Critical 주식회사 클로봇
Priority to KR1020220135420A priority Critical patent/KR102768288B1/en
Publication of KR20240055922A publication Critical patent/KR20240055922A/en
Application granted granted Critical
Publication of KR102768288B1 publication Critical patent/KR102768288B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/34Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
    • B66B1/3415Control system configuration and the data transmission or communication within the control system
    • B66B1/3446Data transmission or communication within the control system
    • B66B1/3461Data transmission or communication within the control system between the elevator control system and remote or mobile stations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/34Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
    • B66B1/3476Load weighing or car passenger counting devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)

Abstract

본 개시는 무인 이동체의 엘리베이터 승하차 결정 방법에 있어서, 엘리베이터의 문이 열리기 전에, 엘리베이터에 장착된 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받는 단계; 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터의 문이 열리면, 무인 이동체의 카메라를 통해 획득된 영상 내의 물체를 수신받는 단계; 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하는 단계; 영상 내의 물체가 제1 시간 동안 충돌 감지 영역에 있는 경우, 영상 내의 물체에게 충돌 감지 영역에서 벗어나도록, 무인 이동체의 스피커를 통해 음성으로 알리는 단계; 음성으로 알림이 완료되고, 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하는 단계; 및 목표 탑승 지점으로 이동이 완료되고, 무인 이동체와 통신을 수행하는 서버로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 엘리베이터의 문이 열릴 때에 하차하는 단계; 를 포함할 수 있다.The present disclosure relates to a method for determining whether an unmanned vehicle gets on or off an elevator, the method including: receiving weight information of the elevator acquired through a weight sensor mounted on the elevator before the elevator door opens; receiving an object in an image acquired through a camera of the unmanned vehicle when the elevator door opens if the weight information of the elevator satisfies a preset level; moving to a preset target boarding point if the object in the image is not in a collision detection area for a preset first time period; notifying the object in the image to leave the collision detection area by voice through a speaker of the unmanned vehicle if the object in the image is in the collision detection area for the preset first time period; moving to the target boarding point by repeating preset stop and move operations if the voice notification is completed and the object in the image is not in the collision detection area for a preset second time period; and getting off when the elevator door opens if the movement to the target boarding point is completed and at least one of emergency get-off information and emergency work information required at another destination is received from a server that performs communication with the unmanned vehicle.

Description

무인 이동체, 무인 이동체의 엘리베이터 승하차 결정 방법, 시스템 및 프로그램{UNMANNED MOVING OBJECT, METHOD, SYSTEM AND PROGRAM FOR DECIDING TO GET ON AND OFF AN ELEVATOR OF UNMANNED MOVING OBJECT}{UNMANNED MOVING OBJECT, METHOD, SYSTEM AND PROGRAM FOR DECIDING TO GET ON AND OFF AN ELEVATOR OF UNMANNED MOVING OBJECT}

본 개시는 무인 이동체에 관한 것이다. 보다 상세하게는, 본 개시는 무인 이동체, 무인 이동체의 엘리베이터 승하차 결정 방법, 시스템 및 프로그램에 관한 것이다.The present disclosure relates to an unmanned vehicle. More specifically, the present disclosure relates to an unmanned vehicle, a method for determining boarding and disembarking of an elevator for an unmanned vehicle, a system, and a program.

4차 산업혁명 시대를 맞이하여 유통, 호텔, 물류 등 다양한 산업 분야에서 무인 이동체의 도입이 증가하는 추세이다.As we enter the era of the 4th industrial revolution, the introduction of unmanned vehicles is increasing in various industries such as distribution, hotels, and logistics.

일반적으로, 무인 이동체는 엘리베이터를 탑승하려고 할 때에, 엘리베이터의 대기 존으로 이동하고, 엘리베이터의 문이 열리면, 엘리베이터의 탑승을 시도하였다.Typically, when an unmanned vehicle attempts to board an elevator, it moves to the elevator's waiting area and attempts to board the elevator when the elevator door opens.

그런데, 종래 무인 이동체는 엘리베이터의 승차 여부를 빠르게 결정하지 못하여, 목표 탑승 지점으로 이동을 완료하는데에 소요되는 시간이 증가하였다.However, since conventional unmanned vehicles cannot quickly decide whether to board an elevator, the time required to complete movement to the target boarding point increases.

또한, 종래 무인 이동체는 엘리베이터의 탑승을 시도하다가 탑승이 불가능할 경우, 엘리베이터로부터 하차하므로, 엘리베이터를 이용하는 사람들에게 불편함을 제공하였다.In addition, conventional unmanned vehicles would attempt to board an elevator, but if boarding was not possible, they would get off the elevator, causing inconvenience to people using the elevator.

따라서, 최근에는 엘리베이터의 승하차 여부를 빠르게 결정하여, 엘리베이터의 탑승 가능시에 물체와의 충돌없이 목표 탑승 지점으로 이동을 완료하거나, 엘리베이터의 탑승 불가능시에 엘리베이터의 탑승을 시도하지 않고 엘리베이터를 빠르게 보낼 수 있으며, 작업 수행 취소에 따른 긴급 하차 또는 위급 상황에 따른 하차를 빠르게 수행할 수 있는 무인 이동체의 연구가 지속적으로 행해져 오고 있다.Accordingly, research has been continuously conducted recently on unmanned vehicles that can quickly determine whether to board or disembark an elevator, complete the movement to the target boarding point without colliding with an object when the elevator can be boarded, quickly send the elevator without attempting to board the elevator when the elevator cannot be boarded, and quickly perform emergency disembarkation due to cancellation of work or disembarkation in an emergency situation.

대한민국 공개특허공보 제10-2022-0009078호(2022.01.24)Republic of Korea Patent Publication No. 10-2022-0009078 (2022.01.24)

본 개시에 개시된 실시예는, 엘리베이터의 탑승 가능시에, 물체와의 충돌없이 목표 탑승 지점으로 이동을 완료할 수 있는 것을 제공하는데 그 목적이 있다.The purpose of the embodiment disclosed in the present disclosure is to provide an elevator capable of completing movement to a target boarding point without colliding with an object when boarding is possible.

또한, 본 개시에 개시된 실시예는, 엘리베이터의 탑승 불가능시에, 엘리베이터의 탑승을 시도하지 않고, 엘리베이터를 빠르게 보낼 수 있는 것을 제공하는데 그 목적이 있다.In addition, the embodiment disclosed in the present disclosure aims to provide a method for quickly sending an elevator without attempting to board the elevator when boarding is impossible.

또한, 본 개시에 개시된 실시예는, 작업 수행 취소에 따른 긴급 하차 또는 위급 상황에 따른 하차를 빠르게 수행할 수 있는 것을 제공하는데 그 목적이 있다.In addition, the embodiment disclosed in the present disclosure aims to provide a means for quickly performing emergency disembarkation due to cancellation of work performance or disembarkation due to an emergency situation.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 기술적 과제를 달성하기 위한 본 개시의 일 측면에 따른 무인 이동체의 엘리베이터 승하차 결정 방법은, 상기 엘리베이터의 문이 열리기 전에, 상기 엘리베이터에 장착된 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받는 단계; 상기 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 상기 엘리베이터의 문이 열리면, 상기 무인 이동체의 카메라를 통해 획득된 영상 내의 물체를 수신받는 단계; 상기 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하는 단계; 상기 영상 내의 물체가 상기 제1 시간 동안 충돌 감지 영역에 있는 경우, 상기 영상 내의 물체에게 상기 충돌 감지 영역에서 벗어나도록, 상기 무인 이동체의 스피커를 통해 음성으로 알리는 단계; 상기 음성으로 알림이 완료되고, 상기 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하는 단계; 및 상기 목표 탑승 지점으로 이동이 완료되고, 상기 무인 이동체와 통신을 수행하는 서버로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 상기 엘리베이터의 문이 열릴 때에 하차하는 단계; 를 포함할 수 있다.According to one aspect of the present disclosure for achieving the above-described technical problem, a method for determining whether to get on or off an elevator by an unmanned vehicle comprises the steps of: receiving weight information of an elevator acquired through a weight sensor mounted on the elevator before the door of the elevator opens; receiving an object in an image acquired through a camera of the unmanned vehicle when the door of the elevator opens if the weight information of the elevator satisfies a preset level; moving to a preset target boarding point if the object in the image is not in a collision detection area for a preset first time period; notifying the object in the image to leave the collision detection area by voice through a speaker of the unmanned vehicle if the object in the image is in the collision detection area for the first time period; and moving to a preset stop operation and a movement operation by repeating preset movement operations if the voice notification is completed and the object in the image is not in the collision detection area for a preset second time period. And when movement to the target boarding point is completed, and at least one of emergency disembarkation information and emergency work information required at another destination is received from a server that performs communication with the unmanned vehicle, the step of disembarking when the elevator door opens may be included.

또한, 상기 이동 단계는, 상기 영상 내의 물체가 상기 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 상기 기 설정된 정지 동작과 이동 동작을 반복하여 상기 목표 탑승 지점으로 이동하는 것을 특징으로 할 수 있다.In addition, the moving step may be characterized by moving to the target boarding point by repeating the preset stop motion and moving motion when the object in the image is not in the collision detection area for the preset first time.

또한, 상기 하차 단계는, 상기 긴급 하차 정보 및 상기 다른 목적지에서 필요한 긴급 작업 정보를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 할 수 있다.In addition, the disembarking step may be characterized by disembarking when the elevator door opens on a previous floor before reaching the floor of the preset destination, upon receiving the emergency disembarkation information and the emergency work information required at the other destination.

또한, 상기 하차 단계는, 상기 목표 탑승 지점으로 이동이 완료되고, 상기 무인 이동체의 음성 인식부를 통해 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 더 수신받으며, 상기 음성 데이터의 수신이 완료되면, 상기 카메라를 통해 획득된 위급 상황에 대한 영상을 더 수신받고, 상기 위급 상황에 대한 영상 내의 객체를 기반으로 위급 상황인지를 더 판단하며, 상기 위급 상황이면, 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 할 수 있다.In addition, the disembarkation step may be characterized in that, when movement to the target boarding point is completed, voice data regarding an emergency situation is further received from at least one passenger through a voice recognition unit of the unmanned vehicle, and when reception of the voice data is completed, an image regarding the emergency situation acquired through the camera is further received, and whether it is an emergency situation is further determined based on an object in the image regarding the emergency situation, and if it is an emergency situation, disembarkation is performed when the elevator door opens.

또한, 본 개시의 다른 측면에 따른 무인 이동체는, 엘리베이터까지의 이동 경로와 목적지까지의 이동 경로가 저장된 메모리; 및 상기 엘리베이터의 승하차를 결정하기 위한 동작을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 엘리베이터의 문이 열리기 전에, 상기 엘리베이터에 장착된 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받으며, 상기 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 상기 엘리베이터의 문이 열리면, 카메라를 통해 획득된 영상 내의 물체를 수신받고, 상기 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하며, 상기 영상 내의 물체가 상기 제1 시간 동안 충돌 감지 영역에 있는 경우, 상기 영상 내의 물체에게 상기 충돌 감지 영역에서 벗어나도록, 스피커를 통해 음성으로 알리고, 상기 음성으로 알림이 완료되고, 상기 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하며, 상기 목표 탑승 지점으로 이동이 완료되고, 서버로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 할 수 있다.In addition, an unmanned vehicle according to another aspect of the present disclosure includes a memory storing a movement path to an elevator and a movement path to a destination; And a processor controlling an operation for determining boarding and disembarking of the elevator, wherein the processor receives, before the door of the elevator opens, weight information of the elevator acquired through a weight sensor mounted on the elevator, and if the weight information of the elevator satisfies a preset level, when the door of the elevator opens, an object in an image acquired through a camera is received, and if the object in the image is not in a collision detection area for a preset first time, moves to a preset target boarding point, and if the object in the image is in the collision detection area for the preset first time, notifies the object in the image by voice through a speaker to leave the collision detection area, and if the voice notification is completed and the object in the image is not in the collision detection area for a preset second time, moves to a target boarding point by repeating a preset stop operation and a move operation, and if the movement to the target boarding point is completed and at least one of emergency disembarkation information and emergency work information required at another destination is received from a server, gets off when the door of the elevator opens.

또한, 상기 프로세서는, 상기 영상 내의 물체가 상기 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 상기 기 설정된 정지 동작과 이동 동작을 반복하여 상기 목표 탑승 지점으로 이동하는 것을 특징으로 할 수 있다.In addition, the processor may be characterized in that, if an object in the image is not in the collision detection area for the preset first time, the processor moves to the target boarding point by repeating the preset stop motion and movement motion.

또한, 상기 프로세서는, 상기 긴급 하차 정보 및 상기 다른 목적지에서 필요한 긴급 작업 정보를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 할 수 있다.In addition, the processor may be characterized in that, when receiving the emergency disembarkation information and the emergency work information required at the other destination, the processor disembarks when the elevator door opens on a previous floor before reaching the floor of the preset destination.

또한, 상기 프로세서는, 상기 목표 탑승 지점으로 이동이 완료되고, 상기 무인 이동체의 음성 인식부를 통해 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 더 수신받으며, 상기 음성 데이터의 수신이 완료되면, 상기 카메라를 통해 획득된 위급 상황에 대한 영상을 더 수신받고, 상기 위급 상황에 대한 영상 내의 객체를 기반으로 위급 상황인지를 더 판단하며, 상기 위급 상황이면, 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 할 수 있다.In addition, the processor may be characterized in that, when movement to the target boarding point is completed, voice data regarding an emergency situation is further received from at least one passenger through a voice recognition unit of the unmanned vehicle, and when reception of the voice data is completed, an image regarding the emergency situation acquired through the camera is further received, and based on an object in the image regarding the emergency situation, whether it is an emergency situation is further determined, and if it is an emergency situation, the processor disembarks when the elevator door opens.

또한, 본 개시의 또 다른 측면에 따른 무인 이동체의 엘리베이터 승하차 결정 시스템은, 엘리베이터의 승하차를 결정하는 무인 이동체; 상기 엘리베이터의 일측에 장착되고, 상기 무인 이동체와 통신을 수행하는 무게 센서; 및 상기 무인 이동체와 통신을 수행하고, 상기 무인 이동체에 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보를 제공하는 서버; 를 포함하며, 상기 무인 이동체는, 상기 엘리베이터의 문이 열리기 전에, 상기 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받으며, 상기 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 상기 엘리베이터의 문이 열리면, 카메라를 통해 획득된 영상 내의 물체를 수신받고, 상기 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하며, 상기 영상 내의 물체가 상기 제1 시간 동안 충돌 감지 영역에 있는 경우, 상기 영상 내의 물체에게 상기 충돌 감지 영역에서 벗어나도록, 스피커를 통해 음성으로 알리고, 상기 음성으로 알림이 완료되고, 상기 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하며, 상기 목표 탑승 지점으로 이동이 완료되고, 상기 서버로부터 상기 긴급 하차 정보 및 상기 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 할 수 있다.In addition, according to another aspect of the present disclosure, an elevator boarding/disembarking decision system for an unmanned vehicle comprises: an unmanned vehicle that determines boarding/disembarking of an elevator; a weight sensor mounted on one side of the elevator and communicating with the unmanned vehicle; and a server that communicates with the unmanned vehicle and provides emergency disembarkation information and emergency work information required at another destination to the unmanned vehicle; Including, the unmanned vehicle receives, before the door of the elevator opens, weight information of the elevator acquired through the weight sensor, and if the weight information of the elevator satisfies a preset level, when the door of the elevator opens, an object in an image acquired through the camera is received, and if the object in the image is not in the collision detection area for a preset first time, moves to a preset target boarding point, and if the object in the image is in the collision detection area for the first time, notifies the object in the image by voice through a speaker to leave the collision detection area, and if the voice notification is completed and the object in the image is not in the collision detection area for a preset second time, moves to a target boarding point by repeating preset stop and move operations, and if the movement to the target boarding point is completed and at least one of the emergency disembarkation information and the emergency work information required at the other destination is received from the server, gets off when the door of the elevator opens.

이 외에도, 본 개시를 구현하기 위한 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition, a computer program stored in a computer-readable recording medium for execution to implement the present disclosure may be further provided.

이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition, a computer-readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.

본 개시의 전술한 과제 해결 수단에 의하면, 엘리베이터의 탑승 가능시에, 물체와의 충돌없이 목표 탑승 지점으로 이동을 완료할 수 있다.According to the above-described problem solving means of the present disclosure, when the elevator is boardable, movement to the target boarding point can be completed without collision with an object.

또한, 본 개시의 전술한 과제 해결 수단에 의하면, 엘리베이터의 탑승 불가능시에, 엘리베이터의 탑승을 시도하지 않고, 엘리베이터를 빠르게 보낼 수 있다.In addition, according to the above-described problem solving means of the present disclosure, when boarding the elevator is impossible, the elevator can be quickly sent without attempting to board the elevator.

또한, 본 개시의 전술한 과제 해결 수단에 의하면, 작업 수행 취소에 따른 긴급 하차 또는 위급 상황에 따른 하차를 빠르게 수행할 수 있다.In addition, according to the above-described problem solving means of the present disclosure, emergency disembarkation due to cancellation of work performance or disembarkation due to an emergency situation can be quickly performed.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 개시에 따른 무인 이동체의 엘리베이터 승하차 결정 시스템의 구성을 나타낸 도면이다.
도 2 내지 도 4는 본 개시에 따른 무인 이동체의 엘리베이터 승하차 결정 방법을 나타낸 순서도들이다.
도 5 내지 도 8은 본 개시에 따른 무인 이동체의 엘리베이터 탑승이 가능한 상태를 일 예로 나타낸 도면들이다.
도 9는 본 개시에 따른 무인 이동체의 엘리베이터 탑승이 불가능한 상태를 일 예로 나타낸 도면이다.
도 10 및 도 11은 본 개시에 따른 무인 이동체의 엘리베이터 하차 상태를 일 예로 나타낸 도면이다.
FIG. 1 is a drawing showing the configuration of an elevator boarding/disembarking decision system of an unmanned vehicle according to the present disclosure.
Figures 2 to 4 are flowcharts showing a method for determining boarding and disembarking of an elevator for an unmanned vehicle according to the present disclosure.
Figures 5 to 8 are drawings showing examples of a state in which an unmanned vehicle according to the present disclosure can board an elevator.
FIG. 9 is a drawing showing an example of a state in which an unmanned vehicle according to the present disclosure cannot board an elevator.
FIG. 10 and FIG. 11 are drawings showing an example of an elevator disembarkation state of an unmanned mobile vehicle according to the present disclosure.

본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는‘부, 모듈, 부재, 블록’이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Throughout this disclosure, the same reference numerals refer to the same components. This disclosure does not describe all elements of the embodiments, and any content that is general in the technical field to which this disclosure belongs or that overlaps between the embodiments is omitted. The terms ‘part, module, element, block’ used in the specification can be implemented in software or hardware, and according to the embodiments, a plurality of ‘parts, modules, elements, blocks’ can be implemented as a single component, or a single ‘part, module, element, block’ can include a plurality of components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우 뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only a direct connection but also an indirect connection, and an indirect connection includes a connection via a wireless communications network.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part is said to "include" a component, this does not mean that it excludes other components, but rather that it may include other components, unless otherwise specifically stated.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when it is said that an element is "on" another element, this includes not only cases where the element is in contact with the other element, but also cases where there is another element between the two elements.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.The terms first, second, etc. are used to distinguish one component from another, and the components are not limited by the aforementioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly indicates otherwise.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification codes in each step are used for convenience of explanation and do not describe the order of each step. Each step may be performed in a different order than specified unless the context clearly indicates a specific order.

이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.The operating principle and embodiments of the present disclosure are described below with reference to the attached drawings.

본 명세서에서 본 개시에 따른 무인 이동체의 제어부는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 제어부는, 컴퓨터, 서버를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, the control unit of the unmanned vehicle according to the present disclosure includes various devices that can perform computational processing and provide results to the user. For example, the control unit according to the present disclosure may include both a computer and a server, or may be in the form of either one.

여기에서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC, 싱글보드 컴퓨터 등을 포함할 수 있다.Here, the computer may include, for example, a notebook, desktop, laptop, tablet PC, slate PC, single-board computer, etc. having a WEB Browser.

서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.A server device is a server that processes information by communicating with external devices, and may include an application server, a computing server, a database server, a file server, a mail server, a proxy server, and a web server.

휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.A portable terminal is, for example, a wireless communication device that ensures portability and mobility, and may include all kinds of handheld-based wireless communication devices such as a PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, a smart phone, and wearable devices such as a watch, ring, bracelet, anklet, necklace, glasses, contact lenses, or a head-mounted-device (HMD).

본 개시에 따른 무인 이동체는, 엘리베이터의 문이 열리기 전에, 엘리베이터에 장착된 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받으며, 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터의 문이 열리면, 카메라를 통해 획득된 영상 내의 물체를 수신받고, 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하며, 영상 내의 물체가 제1 시간 동안 충돌 감지 영역에 있는 경우, 영상 내의 물체에게 충돌 감지 영역에서 벗어나도록, 스피커를 통해 음성으로 알리고, 음성으로 알림이 완료되고, 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하며, 목표 탑승 지점으로 이동이 완료되고, 서버로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보를 수신받으면, 엘리베이터의 문이 열릴 때에 하차할 수 있다.An unmanned vehicle according to the present disclosure receives weight information of an elevator acquired through a weight sensor mounted on the elevator before the elevator door opens, and if the weight information of the elevator satisfies a preset level, when the elevator door opens, receives an object in an image acquired through a camera, and if the object in the image is not in a collision detection area for a preset first time, moves to a preset target boarding point, and if the object in the image is in the collision detection area for the first time, notifies the object in the image by voice through a speaker to leave the collision detection area, and if the voice notification is completed and the object in the image is not in the collision detection area for a preset second time, moves to the target boarding point by repeating preset stop and move operations, and if the movement to the target boarding point is completed and emergency disembarkation information and emergency work information required at another destination are received from a server, the vehicle can get off when the elevator door opens.

이러한, 무인 이동체는, 엘리베이터의 탑승 가능시에 물체와의 충돌없이 목표 탑승 지점으로 이동을 완료하거나, 엘리베이터의 탑승 불가능시에 엘리베이터의 탑승을 시도하지 않고 엘리베이터를 빠르게 보낼 수 있으며, 작업 수행 취소에 따른 긴급 하차 또는 위급 상황에 따른 하차를 빠르게 수행할 수 있다.Such unmanned vehicles can complete movement to a target boarding point without colliding with an object when boarding the elevator is possible, quickly send an elevator without attempting to board the elevator when boarding is not possible, and quickly perform emergency disembarkation due to cancellation of work performance or disembarkation in an emergency situation.

이하에서는, 무인 이동체를 자세하게 살펴보기로 한다.Below, we will take a closer look at unmanned vehicles.

도 1은 본 개시에 따른 무인 이동체의 엘리베이터 승하차 결정 시스템의 구성을 나타낸 도면이다.FIG. 1 is a drawing showing the configuration of an elevator boarding/disembarking decision system of an unmanned vehicle according to the present disclosure.

도 1을 참조하면, 무인 이동체(100)는 사람의 도움없이 스스로 외부 환경을 인식해 상황을 판단하고 임무를 수행하는 이동체일 수 있다. 이때, 무인 이동체(100)는 엘리베이터(10)의 승하차를 결정할 수 있다. 예를 들어, 무인 이동체(100)는 이동 로봇일 수 있다. 무인 이동체(100)는 통신부(110), 센서부(120), 카메라(130), 제어부(140), 구동부(150), 스피커(160)를 포함할 수 있다.Referring to FIG. 1, the unmanned vehicle (100) may be a vehicle that recognizes the external environment by itself, judges the situation, and performs a task without human assistance. At this time, the unmanned vehicle (100) may determine whether to get on or off an elevator (10). For example, the unmanned vehicle (100) may be a mobile robot. The unmanned vehicle (100) may include a communication unit (110), a sensor unit (120), a camera (130), a control unit (140), a driving unit (150), and a speaker (160).

통신부(110)는 제어부(140)와 전기적으로 연결될 수 있고, 엘리베이터(10)의 일측에 장착된 무게 센서(11)와 통신을 수행할 수 있으며, 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보를 수신받을 수 있다. 이때, 통신부(110)는 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.The communication unit (110) can be electrically connected to the control unit (140), can communicate with the weight sensor (11) mounted on one side of the elevator (10), and can receive emergency disembarkation information and emergency work information required at another destination from the server (20). At this time, the communication unit (110) can include a wireless communication module that supports various wireless communication methods such as GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), UMTS (universal mobile telecommunications system), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), 4G, 5G, and 6G, in addition to a WiFi module and a WiBro (Wireless broadband) module.

센서부(120)는 초음파 센서, 레이더 센서, 라이다 센서 중 적어도 하나를 포함할 수 있다. 센서부(120)는 라이다 센서를 통해 라이다 데이터를 획득할 수 있다. 여기에서, 센서부(120)는 엘리베이터(10)에 있는 물체와의 거리 정보를 획득할 수 있다. 이때, 물체는 정적 물체와 동적 물체일 수 있다. 예를 들어, 정적 물체는 장애물과 물건 중 적어도 하나의 고정형 물체일 수 있고, 동적 물체는 사람과 반려 동물 중 적어도 하나의 이동형 물체일 수 있다.The sensor unit (120) may include at least one of an ultrasonic sensor, a radar sensor, and a lidar sensor. The sensor unit (120) may obtain lidar data through the lidar sensor. Here, the sensor unit (120) may obtain distance information to an object in the elevator (10). At this time, the object may be a static object or a dynamic object. For example, the static object may be at least one fixed object among obstacles and objects, and the dynamic object may be at least one moving object among people and pets.

카메라(130)는 이미지 센서를 이용하는 영상 카메라로 제공될 수 있다. 카메라(130)는 이미지 센서를 통해 획득한 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다. 한편, 카메라(130)가 복수개일 경우, 매트릭스 구조를 이루도록 배치될 수 있다. 이러한 매트릭스 구조를 이루는 영상 카메라들을 통해 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 영상 카메라들은 3차원의 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다. 또한, 카메라(130)는 AI 카메라로 제공될 수도 있다. AI 카메라는 인간의 망막을 모방하여 만들어진 광각센서를 통해 인식된 이미지를, 뇌신경망 알고리즘으로 미세하게 조정할 수 있다. AI 카메라는 셔터 속도, 광노출, 포화도, 색 농도, 동적 범위, 대비 등을 조절할 수 있다. 또한, AI 카메라는 촬영된 영상을 양질의 영상으로 출력할 수 있다. 여기에서, 카메라(130)는 영상 내의 물체를 획득할 수 있다. 이때, 물체는 정적 물체와 동적 물체일 수 있다. 예를 들어, 정적 물체는 장애물과 물건 중 적어도 하나의 고정형 물체일 수 있고, 동적 물체는 사람과 반려 동물 중 적어도 하나의 이동형 물체일 수 있다.The camera (130) may be provided as a video camera using an image sensor. The camera (130) may process image frames such as still images or moving images acquired through the image sensor. Meanwhile, when there are multiple cameras (130), they may be arranged to form a matrix structure. Multiple image information having various angles or foci may be input through the video cameras forming the matrix structure. In addition, the video cameras may be arranged in a stereo structure to acquire left and right images for implementing a three-dimensional stereoscopic image. In addition, the camera (130) may be provided as an AI camera. The AI camera may finely adjust an image recognized through a wide-angle sensor made by imitating the human retina using a brain neural network algorithm. The AI camera may adjust shutter speed, light exposure, saturation, color density, dynamic range, contrast, etc. In addition, the AI camera may output the captured image as a high-quality image. Here, the camera (130) may acquire an object in the image. At this time, the object may be a static object or a dynamic object. For example, a static object can be at least one stationary object among obstacles and objects, and a dynamic object can be at least one movable object among people and pets.

제어부(140)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(141), 및 메모리(141)에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(142)로 구현될 수 있다. 여기에서, 메모리(141)와 프로세서(142)는 각각 별개의 칩으로 구현될 수 있다. 또한, 메모리(141)와 프로세서(142)는 단일 칩으로 구현될 수도 있다.The control unit (140) may be implemented with a memory (141) that stores data on an algorithm for controlling the operation of components within the device or a program that reproduces the algorithm, and at least one processor (142) that performs the aforementioned operation using the data stored in the memory (141). Here, the memory (141) and the processor (142) may each be implemented as separate chips. In addition, the memory (141) and the processor (142) may also be implemented as a single chip.

메모리(141)는 본 장치의 다양한 기능을 지원하는 데이터와, 제어부의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.The memory (141) can store data supporting various functions of the device, programs for the operation of the control unit, can store input/output data, and can store a plurality of application programs (or applications) run on the device, data for the operation of the device, and commands. At least some of these application programs can be downloaded from an external server via wireless communication.

이러한, 메모리(141)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(141)는 본 장치와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.The memory (141) may include at least one type of storage medium among a flash memory type, a hard disk type, an SSD (Solid State Disk type), an SDD (Silicon Disk Drive) type, a multimedia card micro type, a card type memory (for example, an SD or XD memory, etc.), a random access memory (RAM), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. In addition, the memory (141) may be a database that is separate from the device but connected by wire or wirelessly.

메모리(141)는 엘리베이터(10)까지의 이동 경로와 목적지까지의 이동 경로가 저장될 수 있고, 엘리베이터(10)의 승하차를 결정하기 위한 데이터가 저장될 수 있다. 프로세서(142)는 엘리베이터(10)의 승하차를 결정하기 위한 동작을 제어할 수 있다.The memory (141) can store the movement path to the elevator (10) and the movement path to the destination, and can store data for determining boarding and disembarking of the elevator (10). The processor (142) can control the operation for determining boarding and disembarking of the elevator (10).

프로세서(142)는 엘리베이터(10)의 문이 열리기 전에, 엘리베이터(10)에 장착된 무게 센서(11)를 통해 획득된 엘리베이터(10)의 무게 정보를 수신받을 수 있다.The processor (142) can receive weight information of the elevator (10) obtained through a weight sensor (11) mounted on the elevator (10) before the door of the elevator (10) opens.

프로세서(142)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족하지 않을 경우, 엘리베이터(10)의 탑승 동작을 중지할 수 있다.The processor (142) can stop the boarding operation of the elevator (10) if the weight information of the elevator (10) does not satisfy a preset level.

프로세서(142)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터(10)의 문이 열리면, 카메라(130)를 통해 획득된 영상 내의 물체를 수신받을 수 있다. 여기에서, 프로세서(142)는 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동할 수 있다. The processor (142) can receive an object in an image acquired through the camera (130) when the door of the elevator (10) opens if the weight information of the elevator (10) satisfies a preset level. Here, the processor (142) can move to a preset target boarding point if the object in the image is not in the collision detection area for a preset first time.

또한, 프로세서(142)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터(10)의 문이 열리면, 360도 회전하는 카메라(130)를 통해 획득된 영상 내의 물체를 수신받을 수도 있다. 여기에서, 프로세서(142)는 영상 내의 물체가 기 설정된 신체적 약자를 포함하고 있는 경우, 신체적 약자가 엘리베이터(10)를 탑승할 때까지 대기하고 있다가, 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동할 수 있다. 예를 들어, 신체적 약자는 노인, 어린이, 거동이 불편한 환자, 장애인 등일 수 있다.In addition, if the weight information of the elevator (10) satisfies a preset level, the processor (142) may receive an object in an image acquired through a camera (130) that rotates 360 degrees when the door of the elevator (10) opens. Here, if the object in the image includes a preset physically weak person, the processor (142) waits until the physically weak person boards the elevator (10), and if the object in the image is not in the collision detection area for a preset first time, the processor may move to a preset target boarding point. For example, the physically weak person may be an elderly person, a child, a patient with difficulty moving, a disabled person, etc.

이때, 프로세서(142)는 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 제1 정지 동작과 제1 이동 동작을 반복하여 목표 탑승 지점으로 구동부(150)를 통해 무인 이동체(100)를 이동할 수 있다. 구동부(150)는 제1 정지 동작과 제1 이동 동작을 반복하여 목표 탑승 지점까지 무인 이동체(100)를 이동할 수 있다. 이때, 충돌 감지 영역은 영상 내의 물체와 충돌이 가능한 것으로 판단되는 영역일 수 있다. 예를 들어, 구동부(130)는 무인 이동체들(100)의 주행에 필요한 동력을 제공하기 위해, 배터리 및 배터리로부터 전원을 공급받는 전자적인 부품, 배터리 및 배터리로부터 전원을 공급받아 구동하는 바퀴 또는 구동벨트 등의 기계적인 구동 부품을 포함할 수 있다.At this time, if the object in the image is not in the collision detection area for a preset first time, the processor (142) may move the unmanned vehicle (100) to the target boarding point by repeating the preset first stop operation and the first movement operation through the driving unit (150). The driving unit (150) may move the unmanned vehicle (100) to the target boarding point by repeating the first stop operation and the first movement operation. At this time, the collision detection area may be an area where it is determined that a collision with an object in the image is possible. For example, the driving unit (130) may include a battery and electronic components supplied with power from the battery, and mechanical driving components such as a battery and wheels or a driving belt supplied with power from the battery to provide power necessary for driving the unmanned vehicles (100).

프로세서(142)는 영상 내의 물체가 제1 시간 동안 충돌 감지 영역에 있는 경우, 영상 내의 물체에게 충돌 감지 영역에서 벗어나도록, 스피커(160)를 통해 음성으로 알릴 수 있다.The processor (142) can notify the object in the image to leave the collision detection area through the speaker (160) if the object in the image is in the collision detection area for a first time.

프로세서(142)는 음성으로 알림이 완료되고, 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 있는 경우, 엘리베이터(10)의 탑승 동작을 중지할 수 있다. 프로세서(142)는 영상 내의 물체가 제2 시간 동안 충돌 감지 영역에 있는 경우, 엘리베이터의 내부가 혼잡한 상태로 판단하여, 엘리베이터(10)의 탑승 동작을 중지할 수 있다.The processor (142) can stop the boarding operation of the elevator (10) when the voice notification is completed and the object in the image is in the collision detection area for a preset second time. The processor (142) can stop the boarding operation of the elevator (10) when the object in the image is in the collision detection area for a preset second time, judging that the interior of the elevator is crowded.

프로세서(142)는 음성으로 알림이 완료되고, 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 제2 정지 동작과 제2 이동 동작을 반복하여 목표 탑승 지점으로 구동부(150)를 통해 무인 이동체(100)를 이동할 수 있다. 구동부(150)는 제2 정지 동작과 제2 이동 동작을 반복하여 목표 탑승 지점까지 무인 이동체(100)를 이동할 수 있다. 이때, 제2 시간은 제1 시간보다 이후의 시간일 수 있고, 제2 정지 동작 및 제2 이동 동작의 반복 동작에 대한 속도는 제1 정지 동작 및 제1 이동 동작의 반복 동작에 대한 속도보다 늦을 수 있다. 즉, 프로세서(142)는 영상 내의 물체가 제2 시간 동안 충돌 감지 영역에 없는 경우, 영상 내의 물체와 충돌을 미연에 방지하도록, 제2 정지 동작 및 제2 이동 동작의 반복 동작에 대한 속도를 제1 정지 동작 및 제1 이동 동작의 반복 동작에 대한 속도보다 늦출 수 있다.The processor (142) may move the unmanned vehicle (100) to the target boarding point by repeating the second stop operation and the second movement operation when the voice notification is completed and the object in the image is not in the collision detection area for the preset second time period, via the driving unit (150). The driving unit (150) may move the unmanned vehicle (100) to the target boarding point by repeating the second stop operation and the second movement operation. At this time, the second time period may be a time later than the first time period, and the speed for the repeated operation of the second stop operation and the second movement operation may be slower than the speed for the repeated operation of the first stop operation and the first movement operation. That is, the processor (142) may slow down the speed for the repeated operation of the second stop operation and the second movement operation than the speed for the repeated operation of the first stop operation and the first movement operation in order to prevent a collision with the object in the image in advance when the object in the image is not in the collision detection area for the second time period.

프로세서(142)는 목표 탑승 지점으로 이동이 완료되고, 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 엘리베이터(10)의 문이 열릴 때에 하차할 수 있다. 여기에서, 프로세서(142)는 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 엘리베이터(10)의 문이 열릴 때에 하차할 수 있다. 이때, 프로세서(142)는 무인 이동체(100)의 음성 인식부(170)를 통해 엘리베이터(10)가 음성으로 발화하는 층에 대한 해당 음성 데이터를 더 수신받을 수도 있다. 여기에서, 프로세서(142)는 엘리베이터(10)가 음성으로 발화하는 층에 대한 해당 음성 데이터의 수신이 완료되면, 서버(20)로부터 수신된 다른 목적지에서 필요한 긴급 작업 정보 중 해당 음성 데이터에 상응하여 기 설정된 해당 층의 목적지 별 긴급 작업 정보를 기반으로, 해당 층의 해당 목적지에서 긴급 작업이 필요한 상태인지를 더 판단할 수도 있다. 이때, 프로세서(142)는 해당 층의 해당 목적지에서 긴급 작업이 필요한 상태이면, 기 설정된 목적지의 층에 도달하기 전의 해당 층에서 엘리베이터(10)의 문이 열릴 때에 하차하여, 해당 목적지로 이동할 수도 있다. 예를 들어, 긴급 하차 정보는, 임무를 부여받은 작업 수행의 취소에 따라, 목적지의 층에 도달하기 전의 해당 층에서 하차 명령을 수신받은 정보일 수 있다. 다른 예를 들어, 다른 목적지에서 필요한 긴급 작업 정보는, 임무를 부여받은 작업 수행의 취소에 따라, 목적지의 층에 도달하기 전에 해당 층의 해당 목적지에서 긴급 작업 명령을 수신받은 정보일 수 있다. 이때, 긴급 작업 정보는 물류 이송 작업, 적재/하차 작업, 배달 작업 중 적어도 하나일 수 있다.When the processor (142) completes moving to the target boarding point and receives at least one of emergency disembarkation information and emergency work information required for another destination from the server (20), the processor can disembark when the door of the elevator (10) opens. Here, when the processor (142) receives at least one of emergency disembarkation information and emergency work information required for another destination, the processor can disembark when the door of the elevator (10) opens on the previous floor before reaching the floor of the preset destination. At this time, the processor (142) may additionally receive corresponding voice data for the floor on which the elevator (10) speaks through the voice recognition unit (170) of the unmanned mobile device (100). Here, when the processor (142) completes receiving the corresponding voice data for the floor where the elevator (10) speaks, it may further determine whether an emergency operation is required at the corresponding destination of the corresponding floor based on the emergency operation information for the destination of the corresponding floor that is preset according to the corresponding voice data among the emergency operation information required at other destinations received from the server (20). At this time, if the processor (142) is in a state where an emergency operation is required at the corresponding destination of the corresponding floor, it may get off when the door of the elevator (10) opens at the corresponding floor before reaching the floor of the preset destination and move to the corresponding destination. For example, the emergency disembarkation information may be information that an disembarkation command is received at the corresponding floor before reaching the floor of the destination due to cancellation of the assigned task execution. For another example, the emergency operation information required at another destination may be information that an emergency operation command is received at the corresponding destination of the corresponding floor before reaching the floor of the destination due to cancellation of the assigned task execution. At this time, the emergency operation information may be at least one of a logistics transport operation, a loading/unloading operation, and a delivery operation.

프로세서(142)는 목표 탑승 지점으로 이동이 완료되고, 무인 이동체(100)의 음성 인식부(170)를 통해 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 더 수신받을 수 있다. 여기에서, 프로세서(142)는 음성 데이터의 수신이 완료되면, 카메라(130)를 통해 획득된 위급 상황에 대한 영상을 더 수신받을 수 있고, 위급 상황에 대한 영상 내의 객체를 기반으로 위급 상황인지를 더 판단할 수 있다. 이때, 프로세서(142)는 위급 상황이면, 엘리베이터(10)의 문이 열릴 때에 하차할 수 있다.The processor (142) may receive additional voice data regarding an emergency situation from at least one passenger through the voice recognition unit (170) of the unmanned vehicle (100) after moving to the target boarding point. Here, when the processor (142) completes receiving the voice data, the processor (142) may receive additional images regarding the emergency situation acquired through the camera (130) and may further determine whether the emergency situation is based on an object in the images regarding the emergency situation. At this time, if it is an emergency situation, the processor (142) may allow the passenger to get off when the door of the elevator (10) opens.

도 2 내지 도 4는 본 개시에 따른 무인 이동체의 엘리베이터 승하차 결정 방법을 나타낸 순서도들이다. 도 5 내지 도 8은 본 개시에 따른 무인 이동체의 엘리베이터 탑승이 가능한 상태를 일 예로 나타낸 도면들이다.FIGS. 2 to 4 are flowcharts illustrating a method for determining whether to board or disembark an elevator for an unmanned vehicle according to the present disclosure. FIGS. 5 to 8 are drawings illustrating examples of a state in which an unmanned vehicle according to the present disclosure can board an elevator.

도 9는 본 개시에 따른 무인 이동체의 엘리베이터 탑승이 불가능한 상태를 일 예로 나타낸 도면이다. 도 10 및 도 11은 본 개시에 따른 무인 이동체의 엘리베이터 하차 상태를 일 예로 나타낸 도면이다.FIG. 9 is a drawing showing an example of a state in which an unmanned vehicle according to the present disclosure cannot board an elevator. FIG. 10 and FIG. 11 are drawings showing an example of a state in which an unmanned vehicle according to the present disclosure can get off an elevator.

도 2 내지 도 11을 참조하면, 무인 이동체의 엘리베이터 승하차 결정 방법은, 제1 수신 단계(S211), 제1 판단 단계(S212), 제2 수신 단계(S221), 제2 판단 단계(S222), 제1 이동 단계(S223), 음성 알림 단계(S224), 제3 판단 단계(S225), 탑승 중지 단계(S226), 제2 이동 단계(S227), 제4 판단 단계(S231), 제1 탑승 유지 단계(S232), 제1 하차 단계(S233), 제5 판단 단계(S234), 제2 탑승 유지 단계(S235), 제3 수신 단계(S236), 제6 판단 단계(S237), 제2 하차 단계(S238)를 포함할 수 있다.Referring to FIGS. 2 to 11, a method for determining whether to board or disembark an elevator for an unmanned vehicle may include a first receiving step (S211), a first judgment step (S212), a second receiving step (S221), a second judgment step (S222), a first moving step (S223), a voice notification step (S224), a third judgment step (S225), a boarding stop step (S226), a second moving step (S227), a fourth judgment step (S231), a first boarding maintenance step (S232), a first disembarkation step (S233), a fifth judgment step (S234), a second boarding maintenance step (S235), a third receiving step (S236), a sixth judgment step (S237), and a second disembarkation step (S238).

제1 수신 단계는, 엘리베이터(10)의 문이 열리기 전에, 엘리베이터(10)에 장착된 무게 센서(11)를 통해 획득된 엘리베이터(10)의 무게 정보를 프로세서(142)를 통해 수신받을 수 있다(S211).In the first receiving step, before the door of the elevator (10) opens, weight information of the elevator (10) obtained through the weight sensor (11) mounted on the elevator (10) can be received through the processor (142) (S211).

제1 판단 단계는, 프로세서(142)를 통해, 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족하지 않을 경우(S212의 아니오), 엘리베이터(10)의 탑승 동작을 중지할 수 있다(S226). 이때, 프로세서(142)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족하지 않을 경우, 엘리베이터(10)의 내부가 혼잡한 상태로 판단하여, 엘리베이터(10)의 탑승 동작을 중지할 수 있다. 예를 들어, 프로세서(142)는 엘리베이터(10)의 무게 정보에 상응하는 물체를 포함하는 총 무게 값이 기 설정된 기준 무게 값보다 클 경우, 엘리베이터(10)의 내부가 혼잡한 상태로 판단하여, 엘리베이터(10)의 탑승 동작을 중지할 수 있다.The first judgment step is that, if the weight information of the elevator (10) does not satisfy the preset level (NO of S212), the boarding operation of the elevator (10) can be stopped (S226) through the processor (142). At this time, if the weight information of the elevator (10) does not satisfy the preset level, the processor (142) determines that the interior of the elevator (10) is crowded and can stop the boarding operation of the elevator (10). For example, if the total weight value including the object corresponding to the weight information of the elevator (10) is greater than the preset reference weight value, the processor (142) determines that the interior of the elevator (10) is crowded and can stop the boarding operation of the elevator (10).

제2 수신 단계는, 프로세서(142)를 통해, 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우(S212의 예), 엘리베이터(10)의 문이 열리면, 카메라(130)를 통해 획득된 영상 내의 물체를 프로세서(142)를 통해 수신받을 수 있다(S221). 또한, 제2 수신 단계는, 프로세서(142)를 통해, 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우(S212의 예), 엘리베이터(10)의 문이 열리면, 360도 회전하는 카메라(130)를 통해 획득된 영상 내의 물체를 프로세서(142)를 통해 수신받을 수도 있다.In the second receiving step, if the weight information of the elevator (10) satisfies a preset level (example of S212) and the door of the elevator (10) opens, the object in the image acquired through the camera (130) can be received through the processor (142) (S221). In addition, in the second receiving step, if the weight information of the elevator (10) satisfies a preset level (example of S212) and the door of the elevator (10) opens, the object in the image acquired through the camera (130) that rotates 360 degrees can be received through the processor (142).

이때, 프로세서(142)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터(10)의 내부가 여유있는 상태로 판단하여, 카메라(130) 또는 360도 회전하는 카메라(130)를 통해 획득된 영상 내의 물체를 수신받을 수 있다. 예를 들어, 프로세서(142)는 엘리베이터(10)의 무게 정보에 상응하는 물체를 포함하는 총 무게 값이 기 설정된 기준 무게 값보다 작을 경우, 엘리베이터(10)의 내부가 여유있는 상태로 판단하여, 카메라(130) 또는 360도 회전하는 카메라(130)를 통해 획득된 영상 내의 물체를 수신받을 수 있다.At this time, if the weight information of the elevator (10) satisfies a preset level, the processor (142) determines that the interior of the elevator (10) is in a roomy state and can receive an object in an image acquired through the camera (130) or the camera (130) that rotates 360 degrees. For example, if the total weight value including the object corresponding to the weight information of the elevator (10) is less than a preset reference weight value, the processor (142) determines that the interior of the elevator (10) is in a roomy state and can receive an object in an image acquired through the camera (130) or the camera (130) that rotates 360 degrees.

제2 판단 단계는, 프로세서(142)를 통해, 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 있는지를 판단할 수 있다(S222).The second judgment step can determine, through the processor (142), whether an object in the image is in the collision detection area for a preset first time (S222).

제1 이동 단계는, 프로세서(142)를 통해, 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우(S222의 아니오), 기 설정된 목표 탑승 지점으로 이동할 수 있다(S223). 또한, 제1 이동 단계는, 프로세서(142)를 통해, 360도 회전하는 카메라(130)에 의해 획득된 영상 내의 물체가 기 설정된 신체적 약자를 포함하고 있는 경우, 신체적 약자가 엘리베이터(10)를 탑승할 때까지 대기하고 있다가, 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동할 수 있다. 제1 이동 단계는, 프로세서(142)를 통해, 영상 내의 물체가 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 제1 정지 동작과 제1 이동 동작을 반복하여 목표 탑승 지점으로 구동부(150)를 통해 무인 이동체(100)를 이동할 수 있다.In the first movement step, if the object in the image is not in the collision detection area for a first preset time (NO in S222), the vehicle can move to the preset target boarding point (S223) via the processor (142). In addition, in the first movement step, if the object in the image acquired by the 360-degree rotating camera (130) includes a preset physically weak person, the vehicle can wait until the physically weak person boards the elevator (10) via the processor (142), and if the object in the image is not in the collision detection area for the first preset time, the vehicle can move to the preset target boarding point. In the first movement step, if the object in the image is not in the collision detection area for the first time, the vehicle can move to the target boarding point via the drive unit (150) by repeating the preset first stop operation and the first movement operation.

여기에서, 구동부(150)는 제1 정지 동작과 제1 이동 동작을 반복하여 목표 탑승 지점까지 무인 이동체(100)를 이동할 수 있다. 무인 이동체(100)는 영상 내의 물체가 충돌 감지 영역에 들어오지 않으면 이동 속도를 멈추지 않도록 제어할 수 있고, 영상 내의 물체가 충돌 감지 영역에 들어오면 감속하도록 제어할 수 있다. 이러한, 무인 이동체(100)는 정밀하고 저속 주행 속도로 목표 탑승 지점까지 이동할 수 있다.Here, the driving unit (150) can move the unmanned vehicle (100) to the target boarding point by repeating the first stop operation and the first moving operation. The unmanned vehicle (100) can be controlled so as not to stop moving if an object in the image does not enter the collision detection area, and can be controlled so as to decelerate if an object in the image enters the collision detection area. In this way, the unmanned vehicle (100) can move to the target boarding point at a precise and low-speed driving speed.

음성 알림 단계는, 프로세서(142)를 통해, 영상 내의 물체가 제1 시간 동안 충돌 감지 영역에 있는 경우(S222의 예), 영상 내의 물체에게 충돌 감지 영역에서 벗어나도록, 무인 이동체(100)의 스피커(160)를 통해 음성으로 알릴 수 있다(S224). 예를 들어, 스피커(160)는 영상 내의 물체에게 충돌 감지 영역에서 벗어나도록, "엘리베이터 안쪽으로 조금씩만 들어가주십시요!"라는 음성으로 알릴 수 있다.The voice notification step can notify the object in the image to leave the collision detection area through the speaker (160) of the unmanned vehicle (100) via a voice (S224) if the object in the image is in the collision detection area for a first time (example of S222) via the processor (142). For example, the speaker (160) can notify the object in the image to leave the collision detection area by saying, "Please move into the elevator little by little!"

제3 판단 단계는, 음성으로 알림이 완료되고, 프로세서(142)를 통해, 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 있는지를 판단할 수 있다(S225).The third judgment step is to determine whether an object in the image is in the collision detection area for a preset second time period through the processor (142) after the voice notification is completed (S225).

탑승 중지 단계는, 음성으로 알림이 완료되고, 프로세서(142)를 통해, 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 있는 경우(S225의 예), 엘리베이터(10)의 탑승 동작을 중지할 수 있다(S226). 이때, 프로세서(142)는 영상 내의 물체가 제2 시간 동안 충돌 감지 영역에 있는 경우, 엘리베이터의 내부가 혼잡한 상태로 판단하여, 엘리베이터(10)의 탑승 동작을 중지할 수 있다.The boarding stop step can be performed by stopping the boarding operation of the elevator (10) (S226) when the voice notification is completed and the object in the image is in the collision detection area for a preset second time (example of S225) through the processor (142). At this time, the processor (142) can determine that the inside of the elevator is crowded when the object in the image is in the collision detection area for the second time, and can stop the boarding operation of the elevator (10).

제2 이동 단계는, 음성으로 알림이 완료되고, 프로세서(142)를 통해, 영상 내의 물체가 제2 시간 동안 충돌 감지 영역에 없는 경우(S225의 아니오), 기 설정된 제2 정지 동작과 제2 이동 동작을 반복하여 목표 탑승 지점으로 구동부(150)를 통해 무인 이동체(100)를 이동할 수 있다(S227). 여기에서, 구동부(150)는 제2 정지 동작과 제2 이동 동작을 반복하여 목표 탑승 지점까지 무인 이동체(100)를 이동할 수 있다. 무인 이동체(100)는 영상 내의 물체가 충돌 감지 영역에 들어오지 않으면 이동 속도를 멈추지 않도록 제어할 수 있고, 영상 내의 물체가 충돌 감지 영역에 들어오면 감속하도록 제어할 수 있다. 이러한, 무인 이동체(100)는 더욱 정밀하고 저속 주행 속도로 조심스럽게 목표 탑승 지점까지 이동할 수 있다. 이때, 제2 시간은 제1 시간보다 이후의 시간일 수 있고, 제2 정지 동작 및 제2 이동 동작의 반복 동작에 대한 속도는 제1 정지 동작 및 제1 이동 동작의 반복 동작에 대한 속도보다 늦을 수 있다. 즉, 프로세서(142)는 영상 내의 물체가 제2 시간 동안 충돌 감지 영역에 없는 경우(S225의 아니오), 영상 내의 물체와 충돌을 미연에 방지하도록, 제2 정지 동작 및 제2 이동 동작의 반복 동작에 대한 속도를 제1 정지 동작 및 제1 이동 동작의 반복 동작에 대한 속도보다 늦출 수 있다.In the second movement step, when the voice notification is completed and the object in the image is not in the collision detection area for a second time (NO in S225) through the processor (142), the preset second stop operation and the second movement operation are repeated to move the unmanned vehicle (100) to the target boarding point through the driving unit (150) (S227). Here, the driving unit (150) can move the unmanned vehicle (100) to the target boarding point by repeating the second stop operation and the second movement operation. The unmanned vehicle (100) can control the moving speed not to stop if the object in the image does not enter the collision detection area, and can control it to decelerate if the object in the image enters the collision detection area. In this way, the unmanned vehicle (100) can move to the target boarding point more precisely and carefully at a low driving speed. At this time, the second time may be a time later than the first time, and the speed for the repeated operation of the second stop operation and the second movement operation may be slower than the speed for the repeated operation of the first stop operation and the first movement operation. That is, if the object in the image is not in the collision detection area during the second time (NO in S225), the processor (142) may slow down the speed for the repeated operation of the second stop operation and the second movement operation to be slower than the speed for the repeated operation of the first stop operation and the first movement operation in order to prevent collision with the object in the image in advance.

도 3에 도시된 바와 같이, 제4 판단 단계는, 목표 탑승 지점으로 이동이 완료되고, 프로세서(142)를 통해, 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받았는지를 판단할 수 있다(S231). 예를 들어, 긴급 하차 정보는, 임무를 부여받은 작업 수행의 취소에 따라, 목적지의 층에 도달하기 전의 해당 층에서 하차 명령을 수신받은 정보일 수 있다. 다른 예를 들어, 다른 목적지에서 필요한 긴급 작업 정보는, 임무를 부여받은 작업 수행의 취소에 따라, 목적지의 층에 도달하기 전에 해당 층의 해당 목적지에서 긴급 작업 명령을 수신받은 정보일 수 있다. 이때, 긴급 작업 정보는 물류 이송 작업, 적재/하차 작업, 배달 작업 중 적어도 하나일 수 있다.As illustrated in FIG. 3, the fourth judgment step may determine whether movement to the target boarding point is completed and at least one of emergency disembarkation information and emergency work information required at another destination has been received from the server (20) via the processor (142) (S231). For example, the emergency disembarkation information may be information on receiving an order to disembark on a corresponding floor before reaching the floor of the destination due to cancellation of the assigned work performance. As another example, the emergency work information required at another destination may be information on receiving an emergency work order at a corresponding destination on a corresponding floor before reaching the floor of the destination due to cancellation of the assigned work performance. At this time, the emergency work information may be at least one of a logistics transport work, a loading/unloading work, and a delivery work.

제1 탑승 유지 단계는, 프로세서(142)를 통해, 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보를 수신받지 않으면(S231의 아니오), 엘리베이터(10)의 탑승을 유지할 수 있다(S232).The first boarding maintenance step is to maintain boarding of the elevator (10) if emergency disembarkation information and emergency work information required at another destination are not received from the server (20) via the processor (142) (NO in S231).

제1 하차 단계는, 프로세서(142)를 통해, 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면(S231의 예), 엘리베이터(10)의 문이 열릴 때에 하차할 수 있다(S233). 여기에서, 프로세서(142)는 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 엘리베이터(10)의 문이 열릴 때에 하차할 수 있다. 이때, 프로세서(142)는 음성 인식부(170)를 통해 엘리베이터(10)가 음성으로 발화하는 층에 대한 해당 음성 데이터를 더 수신받을 수도 있다. 여기에서, 프로세서(142)는 엘리베이터(10)가 음성으로 발화하는 층에 대한 해당 음성 데이터의 수신이 완료되면, 서버(20)로부터 수신된 다른 목적지에서 필요한 긴급 작업 정보 중 해당 음성 데이터에 상응하여 기 설정된 해당 층의 목적지 별 긴급 작업 정보를 기반으로, 해당 층의 해당 목적지에서 긴급 작업이 필요한 상태인지를 더 판단할 수도 있다. 이때, 프로세서(142)는 해당 층의 해당 목적지에서 긴급 작업이 필요한 상태이면, 기 설정된 목적지의 층에 도달하기 전의 해당 층에서 엘리베이터(10)의 문이 열릴 때에 하차하여, 해당 목적지로 이동할 수도 있다.In the first disembarkation step, if at least one of emergency disembarkation information and emergency work information required for another destination is received from the server (20) through the processor (142) (example of S231), the user can disembark when the door of the elevator (10) opens (S233). Here, if the processor (142) receives at least one of emergency disembarkation information and emergency work information required for another destination, the user can disembark when the door of the elevator (10) opens on a previous floor before reaching the floor of the preset destination. At this time, the processor (142) may additionally receive corresponding voice data for the floor on which the elevator (10) speaks through the voice recognition unit (170). Here, when the processor (142) completes receiving the corresponding voice data for the floor where the elevator (10) speaks, it may further determine whether an emergency operation is required at the corresponding destination of the corresponding floor based on the emergency operation information for each destination of the corresponding floor that is preset according to the corresponding voice data among the emergency operation information required at other destinations received from the server (20). At this time, when the processor (142) determines that an emergency operation is required at the corresponding destination of the corresponding floor, it may get off when the door of the elevator (10) opens on the corresponding floor before reaching the floor of the preset destination and move to the corresponding destination.

도 4에 도시된 바와 같이, 제5 판단 단계는, 무인 이동체(100)의 음성 인식부(170)를 통해 획득된 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 프로세서(142)를 통해 수신받았는지를 더 판단할 수 있다(S234). 예를 들어, 프로세서(142)는 음성 인식부(170)를 통해 획득된 적어도 하나의 탑승자로부터 "응급 환자 발생" 또는 "위급 환자 발생" 등의 음성 데이터를 수신받았는지를 판단할 수 있다.As illustrated in FIG. 4, the fifth judgment step may further determine whether voice data regarding an emergency situation from at least one passenger obtained through the voice recognition unit (170) of the unmanned vehicle (100) has been received through the processor (142) (S234). For example, the processor (142) may determine whether voice data such as “emergency patient occurrence” or “emergency patient occurrence” has been received from at least one passenger obtained through the voice recognition unit (170).

제2 탑승 유지 단계는, 프로세서(142)를 통해, 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 수신받지 않으면(S234의 아니오), 엘리베이터(10)의 탑승을 유지할 수 있다(S235).The second boarding maintenance step can maintain boarding of the elevator (10) (S235) if voice data regarding an emergency situation is not received from at least one passenger through the processor (142) (NO in S234).

제3 수신 단계는, 프로세서(142)를 통해, 위급 상황에 대한 음성 데이터의 수신이 완료되면, 카메라(130)를 통해 획득된 위급 상황에 대한 영상을 수신받을 수 있다(S236). 예를 들어, 프로세서(142)는 카메라(130)를 통해 획득된 응급 환자에 대한 영상을 수신받을 수 있다.In the third receiving step, when the reception of voice data regarding an emergency situation is completed through the processor (142), an image regarding an emergency situation acquired through the camera (130) can be received (S236). For example, the processor (142) can receive an image regarding an emergency patient acquired through the camera (130).

제6 판단 단계는, 프로세서(142)를 통해, 영상 내의 응급 환자가 인공지능 모델을 통해 학습된 위급 상황에 상응하는 응급 환자인지를 판단할 수 있다(S237).The sixth judgment step can determine, through the processor (142), whether the emergency patient in the image is an emergency patient corresponding to the emergency situation learned through the artificial intelligence model (S237).

제2 하차 단계는, 프로세서(142)를 통해, 위급 상황이면(S237의 예), 엘리베이터(10)의 문이 열릴 때에 하차할 수 있다(S238). 이때, 프로세서(142)는 위급 상황이 아니면(S237의 아니오), 엘리베이터(10)의 탑승을 유지할 수 있다(S235). The second disembarkation step is, through the processor (142), if there is an emergency (yes of S237), the user can disembark when the door of the elevator (10) opens (S238). At this time, if there is no emergency (no of S237), the processor (142) can maintain boarding of the elevator (10) (S235).

예를 들어, 도 5에 도시된 바와 같이, 무인 이동체(100)는 엘리베이터(10)의 문(D)이 열리기 전에, 엘리베이터(10)에 장착된 무게 센서(11)를 통해 획득된 엘리베이터(10)의 무게 정보를 프로세서(142)를 통해 수신받을 수 있다. 무인 이동체(100)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족하지 않을 경우, 엘리베이터(10)의 내부가 혼잡한 상태로 판단하여, 엘리베이터(10)의 탑승 동작을 중지할 수 있다.For example, as illustrated in FIG. 5, the unmanned vehicle (100) can receive weight information of the elevator (10) obtained through the weight sensor (11) mounted on the elevator (10) through the processor (142) before the door (D) of the elevator (10) opens. If the weight information of the elevator (10) does not satisfy a preset level, the unmanned vehicle (100) can determine that the interior of the elevator (10) is crowded and stop the boarding operation of the elevator (10).

다른 예를 들어, 도 6에 도시된 바와 같이, 무인 이동체(100)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터(10)의 문(D)이 열리면, 카메라(130)를 통해 획득된 영상 내의 물체(A)를 프로세서(142)를 통해 수신받을 수 있다. 또한, 무인 이동체(100)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터(10)의 문(D)이 열리면, 360도 회전하는 카메라(130)를 통해 획득된 영상 내의 물체(A, Z)를 프로세서(142)를 통해 수신받을 수도 있다. 이때, 무인 이동체(100)는 엘리베이터(10)의 무게 정보가 기 설정된 수준을 만족할 경우, 엘리베이터(10)의 내부가 여유있는 상태로 판단하여, 카메라(130) 또는 360도 회전하는 카메라(130)를 통해 획득된 영상 내의 물체(A, Z)를 수신받을 수 있다. 이때, A는 엘리베이터에 탑승한 탑승자이고, Z는 엘리베이터를 대기하고 있는 신체적 약자일 수 있다.For another example, as illustrated in FIG. 6, if the weight information of the elevator (10) satisfies a preset level, the unmanned vehicle (100) may receive an object (A) in an image acquired through the camera (130) through the processor (142) when the door (D) of the elevator (10) opens. In addition, if the weight information of the elevator (10) satisfies a preset level, the unmanned vehicle (100) may receive an object (A, Z) in an image acquired through the camera (130) rotating 360 degrees through the processor (142) when the door (D) of the elevator (10) opens. At this time, if the weight information of the elevator (10) satisfies a preset level, the unmanned vehicle (100) may determine that the interior of the elevator (10) is spacious and receive an object (A, Z) in an image acquired through the camera (130) or the camera (130) rotating 360 degrees. At this time, A may be a passenger on the elevator, and Z may be a physically weak person waiting for the elevator.

또 다른 예를 들어, 도 7에 도시된 바와 같이, 무인 이동체(100)는 영상 내의 물체(A, B)가 기 설정된 제1 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 수 있다. 이 후, 무인 이동체(100)는 영상 내의 물체(A, B)가 제1 시간 동안 충돌 감지 영역(R)에 없는 경우, 기 설정된 제1 정지 동작과 제1 이동 동작을 반복하여 목표 탑승 지점(G)으로 구동부(150)를 통해 이동할 수 있다. As another example, as illustrated in FIG. 7, the unmanned vehicle (100) can determine whether an object (A, B) in the image is in the collision detection area (R) for a preset first time period. Thereafter, if the object (A, B) in the image is not in the collision detection area (R) for the first time period, the unmanned vehicle (100) can move to the target boarding point (G) via the driving unit (150) by repeating the preset first stop operation and the first move operation.

또한, 무인 이동체(100)는 360도 회전하는 카메라(130)에 의해 획득된 영상 내의 물체(Z)가 기 설정된 신체적 약자를 포함하고 있는 경우, 신체적 약자가 엘리베이터(10)를 탑승할 때까지 대기하고 있다가, 영상 내의 물체(A, B, Z)가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점(G)으로 이동할 수 있다. 무인 이동체(100)는 영상 내의 물체(A, B, Z)가 제1 시간 동안 충돌 감지 영역(R)에 없는 경우, 기 설정된 제1 정지 동작과 제1 이동 동작을 반복하여 목표 탑승 지점(G)으로 구동부(150)를 통해 이동할 수 있다.In addition, if the object (Z) in the image acquired by the 360-degree rotating camera (130) includes a preset physically weak person, the unmanned vehicle (100) waits until the physically weak person boards the elevator (10), and if the object (A, B, Z) in the image is not in the collision detection area for a preset first time, the unmanned vehicle (100) can move to the preset target boarding point (G). If the object (A, B, Z) in the image is not in the collision detection area (R) for a preset first time, the unmanned vehicle (100) can move to the target boarding point (G) by repeating the preset first stop operation and the first move operation through the drive unit (150).

여기에서, 무인 이동체(100)는 목표 탑승 지점(G)으로의 이동이 완료되면, 엘리베이터(10)의 문(D)을 바라보도록 제자리 회전을 수행한 후, 탑승을 완료할 수 있다.Here, when the unmanned vehicle (100) completes moving to the target boarding point (G), it performs a rotation in place to face the door (D) of the elevator (10) and then completes boarding.

또 다른 예를 들어, 도 8에 도시된 바와 같이, 무인 이동체(100)는 엘리베이터(10)의 문(D)이 열리면, 영상 내의 물체(A, B, Z)가 기 설정된 제1 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 수 있다. 이때, 무인 이동체(100)는 영상 내의 물체(A, B)가 기 설정된 제1 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 때에, Gilbert-Johnson-Keerthi(GJK) distance algorithm을 기반으로, 영상 내의 물체(A, B)와 충돌 영역 도형 간의 충돌 여부를 판단할 수 있다. 예를 들어, 프로세서(142)는 GJK distance algorithm을 기반으로, 충돌 영역 도형에서 목표점에 가장 가까운 두 꼭지점(A,B)을 검출하고, 두 꼭지점(A,B)을 잇는 벡터를 구하며, 목표점 방향의 가장 먼 꼭지점을 찾고,이 거리와 목표점 간의 거리를 비교할 수 있다.As another example, as illustrated in FIG. 8, when the door (D) of the elevator (10) opens, the unmanned vehicle (100) can determine whether objects (A, B, Z) in the image are in the collision detection area (R) for a preset first time period. At this time, when determining whether objects (A, B) in the image are in the collision detection area (R) for the preset first time period, the unmanned vehicle (100) can determine whether there is a collision between the objects (A, B) in the image and the collision area shape based on the Gilbert-Johnson-Keerthi (GJK) distance algorithm. For example, the processor (142) can detect the two vertices (A, B) closest to the target point in the collision area shape based on the GJK distance algorithm, obtain a vector connecting the two vertices (A, B), find the farthest vertex in the direction of the target point, and compare this distance with the distance between the target point.

이 후, 무인 이동체(100)는 영상 내의 물체(A, B)가 제1 시간 동안 충돌 감지 영역(R)에 있는 경우, 영상 내의 물체(A, B)에게 충돌 감지 영역에서 벗어나도록, 스피커(160)를 통해 음성으로 알릴 수 있다. 예를 들어, 스피커(160)는 영상 내의 물체(A, B)에게 충돌 감지 영역에서 벗어나도록, "엘리베이터 안쪽으로 조금씩만 들어가주십시요!"라는 음성으로 알릴 수 있다.After this, if an object (A, B) in the image is in the collision detection area (R) for a first time, the unmanned vehicle (100) can notify the object (A, B) in the image to leave the collision detection area by voice through the speaker (160). For example, the speaker (160) can notify the object (A, B) in the image to leave the collision detection area by voice, saying, "Please go into the elevator little by little!"

무인 이동체(100)는 음성으로 알림이 완료된 경우, 영상 내의 물체(A, B)가 기 설정된 제2 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 수 있다. 이 후, 무인 이동체(100)는 영상 내의 물체(A, B)가 제2 시간 동안 충돌 감지 영역(R)에 없는 경우, 기 설정된 제2 정지 동작과 제2 이동 동작을 반복하여 목표 탑승 지점(G)으로 구동부(150)를 통해 이동할 수 있다. 여기에서, 구동부(150)는 제2 정지 동작과 제2 이동 동작을 반복하여 목표 탑승 지점(G)까지 무인 이동체(100)를 이동할 수 있다. 무인 이동체(100)는 목표 탑승 지점(G)으로의 이동이 완료되면, 엘리베이터(10)의 문(D)을 바라보도록 제자리 회전을 수행한 후, 탑승을 완료할 수 있다.When the voice notification is completed, the unmanned vehicle (100) can determine whether the object (A, B) in the image is in the collision detection area (R) for a preset second time period. Thereafter, when the object (A, B) in the image is not in the collision detection area (R) for the second time period, the unmanned vehicle (100) can move to the target boarding point (G) through the driving unit (150) by repeating the preset second stop operation and the second moving operation. Here, the driving unit (150) can move the unmanned vehicle (100) to the target boarding point (G) by repeating the second stop operation and the second moving operation. When the unmanned vehicle (100) completes moving to the target boarding point (G), it can perform a standstill rotation to face the door (D) of the elevator (10) and then complete boarding.

또 다른 예를 들어, 도 9에 도시된 바와 같이, 무인 이동체(100)는 엘리베이터(10)의 문(D)이 열리면, 영상 내의 물체(A, B)가 기 설정된 제1 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 수 있다. 이때, 무인 이동체(100)는 영상 내의 물체(A, B)가 기 설정된 제1 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 때에, Gilbert-Johnson-Keerthi(GJK) distance algorithm을 기반으로, 영상 내의 물체(A, B)와 충돌 영역 도형 간의 충돌 여부를 판단할 수 있다.As another example, as illustrated in FIG. 9, when the door (D) of the elevator (10) opens, the unmanned vehicle (100) can determine whether an object (A, B) in the image is in the collision detection area (R) for a preset first time period. At this time, when determining whether an object (A, B) in the image is in the collision detection area (R) for the preset first time period, the unmanned vehicle (100) can determine whether there is a collision between the objects (A, B) in the image and the collision area shape based on the Gilbert-Johnson-Keerthi (GJK) distance algorithm.

이 후, 무인 이동체(100)는 영상 내의 물체(A, B)가 제1 시간 동안 충돌 감지 영역(R)에 있는 경우, 영상 내의 물체(A, B)에게 충돌 감지 영역에서 벗어나도록, 스피커(160)를 통해 음성으로 알릴 수 있다. 예를 들어, 스피커(160)는 영상 내의 물체(A, B)에게 충돌 감지 영역에서 벗어나도록, "엘리베이터 안쪽으로 조금씩만 들어가주십시요!"라는 음성으로 알릴 수 있다.After this, if an object (A, B) in the image is in the collision detection area (R) for a first time, the unmanned vehicle (100) can notify the object (A, B) in the image to leave the collision detection area by voice through the speaker (160). For example, the speaker (160) can notify the object (A, B) in the image to leave the collision detection area by voice, saying, "Please go into the elevator little by little!"

무인 이동체(100)는 음성으로 알림이 완료된 경우, 영상 내의 물체(A, B)가 기 설정된 제2 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 수 있다. 이때, 무인 이동체(100)는 영상 내의 물체(A, B)가 기 설정된 제2 시간 동안 충돌 감지 영역(R)에 있는지를 판단할 때에, Gilbert-Johnson-Keerthi(GJK) distance algorithm을 기반으로, 영상 내의 물체(A, B)와 충돌 영역 도형 간의 충돌 여부를 판단할 수 있다.When the voice notification is completed, the unmanned vehicle (100) can determine whether the object (A, B) in the image is in the collision detection area (R) for a preset second time period. At this time, when determining whether the object (A, B) in the image is in the collision detection area (R) for a preset second time period, the unmanned vehicle (100) can determine whether there is a collision between the object (A, B) in the image and the collision area shape based on the Gilbert-Johnson-Keerthi (GJK) distance algorithm.

이 후, 무인 이동체(100)는 영상 내의 물체(A, B)가 제2 시간 동안 충돌 감지 영역(R)에 있는 경우, 엘리베이터(10)의 내부가 혼잡한 상태로 판단하여, 엘리베이터(10)의 탑승 동작을 중지할 수 있다.After this, if an object (A, B) in the image is in the collision detection area (R) for a second time, the unmanned vehicle (100) determines that the interior of the elevator (10) is crowded and can stop the boarding operation of the elevator (10).

또 다른 예를 들어, 도 10에 도시된 바와 같이, 무인 이동체(100)는 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받았는지를 판단할 수 있다. 이때, 무인 이동체(100)는 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보를 수신받지 않으면, 엘리베이터(10)의 탑승을 유지할 수 있다.As another example, as illustrated in FIG. 10, the unmanned vehicle (100) can determine whether it has received at least one of emergency disembarkation information and emergency work information required at another destination from the server (20). At this time, if the unmanned vehicle (100) does not receive emergency disembarkation information and emergency work information required at another destination from the server (20), it can maintain boarding the elevator (10).

또한, 무인 이동체(100)는 서버(20)로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 엘리베이터(10)의 문(D)이 열릴 때에 하차할 수 있다. 여기에서, 무인 이동체(100)는 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 엘리베이터(10)의 문(D)이 열릴 때에 하차할 수 있다. 이때, 무인 이동체(100)는 음성 인식부(170)를 통해 엘리베이터(10)가 음성으로 발화하는 층에 대한 해당 음성 데이터를 더 수신받을 수도 있다. 여기에서, 무인 이동체(100)는 엘리베이터(10)가 음성으로 발화하는 층에 대한 해당 음성 데이터의 수신이 완료되면, 서버(20)로부터 수신된 다른 목적지에서 필요한 긴급 작업 정보 중 해당 음성 데이터에 상응하여 기 설정된 해당 층의 목적지 별 긴급 작업 정보를 기반으로, 해당 층의 해당 목적지에서 긴급 작업이 필요한 상태인지를 더 판단할 수도 있다. 이 후, 무인 이동체(100)는 해당 층의 해당 목적지에서 긴급 작업이 필요한 상태이면, 기 설정된 목적지의 층에 도달하기 전의 해당 층에서 엘리베이터(10)의 문이 열릴 때에 하차하여, 해당 목적지로 이동할 수도 있다.In addition, if the unmanned vehicle (100) receives at least one of emergency disembarkation information and emergency work information required for another destination from the server (20), it can disembark when the door (D) of the elevator (10) opens. Here, if the unmanned vehicle (100) receives at least one of emergency disembarkation information and emergency work information required for another destination, it can disembark when the door (D) of the elevator (10) opens on the previous floor before reaching the floor of the preset destination. At this time, the unmanned vehicle (100) may additionally receive corresponding voice data for the floor on which the elevator (10) speaks through the voice recognition unit (170). Here, when the unmanned vehicle (100) completes receiving the corresponding voice data for the floor where the elevator (10) speaks, it may further determine whether an emergency operation is required at the corresponding destination of the corresponding floor based on the emergency operation information for each destination of the corresponding floor that is preset according to the corresponding voice data among the emergency operation information required at other destinations received from the server (20). After this, when the unmanned vehicle (100) determines that an emergency operation is required at the corresponding destination of the corresponding floor, it may get off when the door of the elevator (10) opens on the corresponding floor before reaching the floor of the preset destination and move to the corresponding destination.

예를 들어, 무인 이동체(100)는 엘리베이터(10)가 음성으로 발화하는 "5층입니다" 에 대한 해당 음성 데이터의 수신이 완료되면, 서버(20)로부터 수신된 다른 목적지에서 필요한 긴급 작업 정보 중 해당 음성 데이터에 상응하여 기 설정된 5층의 목적지 별 긴급 작업 정보를 기반으로, 5층의 해당 목적지에서 긴급 작업이 필요한 상태인지를 더 판단할 수도 있다. 이 후, 무인 이동체(100)는 5층의 해당 목적지에서 긴급 작업이 필요한 상태이면, 기 설정된 목적지의 10층에 도달하기 전의 5층에서 엘리베이터(10)의 문이 열릴 때에 하차하여, 5층의 해당 목적지로 이동할 수도 있다.For example, when the unmanned vehicle (100) completes receiving the corresponding voice data for "It is the 5th floor" spoken by the elevator (10), it may further determine whether an emergency operation is required at the corresponding destination on the 5th floor based on the emergency operation information for each destination on the 5th floor that corresponds to the corresponding voice data among the emergency operation information required at other destinations received from the server (20). Thereafter, when the unmanned vehicle (100) determines that an emergency operation is required at the corresponding destination on the 5th floor, it may get off when the door of the elevator (10) opens on the 5th floor before reaching the 10th floor of the preset destination and move to the corresponding destination on the 5th floor.

또 다른 예를 들어, 도 11에 도시된 바와 같이, 무인 이동체(100)는 음성 인식부(170)를 통해 획득된 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 프로세서(142)를 통해 수신받았는지를 판단할 수 있다. 예를 들어, 무인 이동체(100)는 음성 인식부(170)를 통해 획득된 적어도 하나의 탑승자로부터 "응급 환자 발생" 또는 "위급 환자 발생" 등의 음성 데이터를 수신받았는지를 판단할 수 있다. 이때, 무인 이동체(100)는 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 수신받지 않으면, 엘리베이터(10)의 탑승을 유지할 수 있다.As another example, as illustrated in FIG. 11, the unmanned vehicle (100) may determine whether voice data regarding an emergency situation has been received from at least one passenger through the voice recognition unit (170) via the processor (142). For example, the unmanned vehicle (100) may determine whether voice data such as “emergency patient occurrence” or “emergency patient occurrence” has been received from at least one passenger through the voice recognition unit (170). At this time, if the unmanned vehicle (100) does not receive voice data regarding an emergency situation from at least one passenger, the vehicle may maintain boarding of the elevator (10).

또한, 무인 이동체(100)는 위급 상황에 대한 음성 데이터의 수신이 완료되면, 카메라(130)를 통해 획득된 위급 상황에 대한 영상을 수신받을 수 있다. 예를 들어, 무인 이동체(100)는 카메라(130)를 통해 획득된 응급 환자(x)에 대한 영상을 수신받을 수 있다.In addition, when the unmanned vehicle (100) completes receiving voice data regarding an emergency situation, it can receive an image of the emergency situation acquired through the camera (130). For example, the unmanned vehicle (100) can receive an image of an emergency patient (x) acquired through the camera (130).

이때, 무인 이동체(100)는 영상 내의 응급 환자(x)가 인공지능 모델을 통해 학습된 위급 상황에 상응하는 응급 환자인지를 판단할 수 있다. 여기에서, 무인 이동체(100)는 위급 상황이 아니면 엘리베이터(10)의 탑승을 유지할 수 있고, 위급 상황이면 엘리베이터(10)의 문(D)이 열릴 때에 하차할 수 있다. 이때, 무인 이동체(100)는 엘리베이터(10)에서 하차함과 동시에 "응급환자 발생! 비켜주십시요!"라는 음성으로 위급 상황에 대해 빠르게 대처하고자 하는 음성을 알릴 수 있고, 위급 상황에 대해 빠르게 조치를 취하도록 서버(20) 또는 병원 서버 등의 외부 서버로 위급 상황 정보를 전송할 수도 있다.At this time, the unmanned vehicle (100) can determine whether the emergency patient (x) in the image is an emergency patient corresponding to the emergency situation learned through the artificial intelligence model. Here, the unmanned vehicle (100) can maintain boarding the elevator (10) if it is not an emergency situation, and can get off when the door (D) of the elevator (10) opens if it is an emergency situation. At this time, the unmanned vehicle (100) can notify a voice that wants to quickly respond to the emergency situation by saying, "Emergency patient! Please get out of the way!" at the same time as getting off the elevator (10), and can also transmit emergency situation information to an external server such as a server (20) or a hospital server so that quick action can be taken regarding the emergency situation.

도 1에 도시된 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted in accordance with the performance of the components illustrated in FIG. 1. In addition, it will be readily understood by those skilled in the art that the mutual positions of the components may be changed in accordance with the performance or structure of the system.

도 2 내지 도 4는 복수의 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 2 내지 도 4에 기재된 순서를 변경하여 실행하거나 복수의 단계 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 2 내지 도 4는 시계열적인 순서로 한정되는 것은 아니다.Although FIGS. 2 to 4 describe the execution of multiple steps sequentially, this is merely an example explaining the technical idea of the present embodiment, and those skilled in the art to which the present embodiment pertains may modify and change the order described in FIGS. 2 to 4 without departing from the essential characteristics of the present embodiment, or may execute one or more of the multiple steps in parallel, thereby applying various modifications and variations. Therefore, FIGS. 2 to 4 are not limited to a chronological order.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. The instructions may be stored in the form of program codes, and when executed by a processor, may generate program modules to perform the operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.Computer-readable storage media include all types of storage media that store instructions that can be deciphered by a computer. Examples include ROM (Read Only Memory), RAM (Random Access Memory), magnetic tape, magnetic disk, flash memory, and optical data storage devices.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. Those skilled in the art to which the present disclosure pertains will understand that the present disclosure can be implemented in forms other than the disclosed embodiments without changing the technical idea or essential features of the present disclosure. The disclosed embodiments are exemplary and should not be construed as limiting.

100: 무인 이동체 110: 통신부
120: 센서부 130: 카메라
140: 제어부 141: 메모리
142: 프로세서 150: 구동부
160: 스피커 170: 음성 인식부
100: Unmanned vehicle 110: Communications unit
120: Sensor part 130: Camera
140: Control unit 141: Memory
142: Processor 150: Drive Unit
160: Speaker 170: Voice recognition unit

Claims (10)

무인 이동체의 엘리베이터 승하차 결정 방법에 있어서,
상기 엘리베이터의 문이 열리기 전에, 상기 엘리베이터에 장착된 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받는 단계;
상기 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 상기 엘리베이터의 문이 열리면, 상기 무인 이동체의 카메라를 통해 획득된 영상 내의 물체를 수신받는 단계;
상기 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하는 단계;
상기 영상 내의 물체가 상기 제1 시간 동안 충돌 감지 영역에 있는 경우, 상기 영상 내의 물체에게 상기 충돌 감지 영역에서 벗어나도록, 상기 무인 이동체의 스피커를 통해 음성으로 알리는 단계;
상기 음성으로 알림이 완료되고, 상기 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하는 단계; 및
상기 목표 탑승 지점으로 이동이 완료되고, 상기 무인 이동체와 통신을 수행하는 서버로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 상기 엘리베이터의 문이 열릴 때에 하차하는 단계를 포함하되,
상기 이동하는 단계는,
상기 영상 내의 물체가 상기 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 상기 기 설정된 정지 동작과 이동 동작을 반복하여 상기 목표 탑승 지점으로 이동하고,
상기 하차하는 단계는,
상기 긴급 하차 정보 및 상기 다른 목적지에서 필요한 긴급 작업 정보를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 상기 엘리베이터의 문이 열릴 때에 하차하고,
상기 목표 탑승 지점으로 이동이 완료되고, 상기 무인 이동체의 음성 인식부를 통해 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 더 수신받으며, 상기 음성 데이터의 수신이 완료되면, 상기 카메라를 통해 획득된 위급 상황에 대한 영상을 더 수신받고,
상기 위급 상황에 대한 영상 내의 객체를 기반으로 위급 상황인지를 더 판단하며, 상기 위급 상황이면, 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 하는, 방법.
In a method for determining boarding and disembarking of an elevator for an unmanned vehicle,
A step of receiving weight information of an elevator obtained through a weight sensor mounted on the elevator before the door of the elevator opens;
When the weight information of the elevator satisfies a preset level, a step of receiving an object in an image acquired through a camera of the unmanned vehicle when the door of the elevator opens;
A step of moving to a preset target boarding point when an object in the above image is not in a collision detection area for a preset first time;
A step of audibly notifying the object in the image through a speaker of the unmanned vehicle to leave the collision detection area when the object in the image is in the collision detection area for the first time;
When the above voice notification is completed and the object in the image is not in the collision detection area for a preset second time, a step of moving to the target boarding point by repeating the preset stop and move actions; and
When movement to the above target boarding point is completed and at least one of emergency disembarkation information and emergency work information required at another destination is received from a server performing communication with the above unmanned vehicle, a step of disembarking when the elevator door opens is included.
The above moving steps are,
If the object in the above image is not in the collision detection area for the preset first time, the preset stop and move actions are repeated to move to the target boarding point,
The above steps for getting off are:
Upon receiving the above emergency disembarkation information and the emergency work information required at the other destination, get off when the elevator door opens on the previous floor before reaching the floor of the preset destination.
Upon completion of movement to the above target boarding point, voice data regarding an emergency situation is further received from at least one passenger through the voice recognition unit of the unmanned vehicle, and upon completion of reception of the voice data, a video regarding the emergency situation acquired through the camera is further received.
A method characterized in that it further determines whether the emergency situation is an emergency situation based on an object in the video for the emergency situation, and if it is an emergency situation, it disembarks when the elevator door opens.
삭제delete 삭제delete 삭제delete 엘리베이터까지의 이동 경로와 목적지까지의 이동 경로가 저장된 메모리; 및
상기 엘리베이터의 승하차를 결정하기 위한 동작을 제어하는 프로세서를 포함하고,
상기 프로세서는,
상기 엘리베이터의 문이 열리기 전에, 상기 엘리베이터에 장착된 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받으며,
상기 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 상기 엘리베이터의 문이 열리면, 카메라를 통해 획득된 영상 내의 물체를 수신받고,
상기 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하며,
상기 영상 내의 물체가 상기 제1 시간 동안 충돌 감지 영역에 있는 경우, 상기 영상 내의 물체에게 상기 충돌 감지 영역에서 벗어나도록, 스피커를 통해 음성으로 알리고,
상기 음성으로 알림이 완료되고, 상기 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하며,
상기 목표 탑승 지점으로 이동이 완료되고, 서버로부터 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 상기 엘리베이터의 문이 열릴 때에 하차하되,
상기 목표 탑승 지점으로 이동할 때,
상기 영상 내의 물체가 상기 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 상기 기 설정된 정지 동작과 이동 동작을 반복하여 상기 목표 탑승 지점으로 이동하고,
상기 엘리베이터의 문이 열릴 때에 하차할 때,
상기 긴급 하차 정보 및 상기 다른 목적지에서 필요한 긴급 작업 정보를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 상기 엘리베이터의 문이 열릴 때에 하차하고,
상기 목표 탑승 지점으로 이동이 완료되고, 무인 이동체의 음성 인식부를 통해 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 더 수신받으며, 상기 음성 데이터의 수신이 완료되면, 상기 카메라를 통해 획득된 위급 상황에 대한 영상을 더 수신받고,
상기 위급 상황에 대한 영상 내의 객체를 기반으로 위급 상황인지를 더 판단하며, 상기 위급 상황이면, 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 하는, 무인 이동체.
Memory storing the route to the elevator and the route to the destination; and
Including a processor that controls the operation for determining boarding and disembarking of the elevator,
The above processor,
Before the door of the elevator opens, the weight information of the elevator obtained through the weight sensor mounted on the elevator is received,
When the weight information of the above elevator satisfies the preset level, when the door of the above elevator opens, the object in the image acquired through the camera is received,
If the object in the above image is not in the collision detection area for a preset first time, it moves to the preset target boarding point.
If an object in the above image is in the collision detection area for the first time, the object in the image is notified by voice through a speaker to leave the collision detection area.
When the above voice notification is completed and the object in the above video is not in the collision detection area for the preset second time, the preset stop and move actions are repeated to move to the target boarding point.
When the movement to the above target boarding point is completed and at least one of emergency disembarkation information and emergency work information required at another destination is received from the server, disembark when the elevator door opens.
When moving to the above target boarding point,
If the object in the above image is not in the collision detection area for the preset first time, the preset stop and move actions are repeated to move to the target boarding point,
When getting off the elevator when the door opens,
Upon receiving the above emergency disembarkation information and the emergency work information required at the other destination, get off when the elevator door opens on the previous floor before reaching the floor of the preset destination.
After completing the movement to the above target boarding point, further voice data regarding the emergency situation is received from at least one passenger through the voice recognition unit of the unmanned vehicle, and when the reception of the voice data is completed, further video regarding the emergency situation acquired through the camera is received,
An unmanned vehicle characterized in that it further determines whether the emergency situation is based on an object in the video regarding the emergency situation, and if it is the emergency situation, it gets off when the elevator door opens.
삭제delete 삭제delete 삭제delete 엘리베이터의 승하차를 결정하는 무인 이동체;
상기 엘리베이터의 일측에 장착되고, 상기 무인 이동체와 통신을 수행하는 무게 센서; 및
상기 무인 이동체와 통신을 수행하고, 상기 무인 이동체에 긴급 하차 정보 및 다른 목적지에서 필요한 긴급 작업 정보를 제공하는 서버; 를 포함하며,
상기 무인 이동체는,
상기 엘리베이터의 문이 열리기 전에, 상기 무게 센서를 통해 획득된 엘리베이터의 무게 정보를 수신받으며,
상기 엘리베이터의 무게 정보가 기 설정된 수준을 만족할 경우, 상기 엘리베이터의 문이 열리면, 카메라를 통해 획득된 영상 내의 물체를 수신받고,
상기 영상 내의 물체가 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 목표 탑승 지점으로 이동하며,
상기 영상 내의 물체가 상기 제1 시간 동안 충돌 감지 영역에 있는 경우, 상기 영상 내의 물체에게 상기 충돌 감지 영역에서 벗어나도록, 스피커를 통해 음성으로 알리고,
상기 음성으로 알림이 완료되고, 상기 영상 내의 물체가 기 설정된 제2 시간 동안 충돌 감지 영역에 없는 경우, 기 설정된 정지 동작과 이동 동작을 반복하여 목표 탑승 지점으로 이동하며,
상기 목표 탑승 지점으로 이동이 완료되고, 상기 서버로부터 상기 긴급 하차 정보 및 상기 다른 목적지에서 필요한 긴급 작업 정보 중 적어도 하나를 수신받으면, 상기 엘리베이터의 문이 열릴 때에 하차하되,
상기 목표 탑승 지점으로 이동할 때,
상기 영상 내의 물체가 상기 기 설정된 제1 시간 동안 충돌 감지 영역에 없는 경우, 상기 기 설정된 정지 동작과 이동 동작을 반복하여 상기 목표 탑승 지점으로 이동하고,
상기 엘리베이터의 문이 열릴 때에 하차할 때,
상기 긴급 하차 정보 및 상기 다른 목적지에서 필요한 긴급 작업 정보를 수신받으면, 기 설정된 목적지의 층에 도달하기 전의 이전 층에서 상기 엘리베이터의 문이 열릴 때에 하차하고,
상기 목표 탑승 지점으로 이동이 완료되고, 상기 무인 이동체의 음성 인식부를 통해 적어도 하나의 탑승자로부터 위급 상황에 대한 음성 데이터를 더 수신받으며, 상기 음성 데이터의 수신이 완료되면, 상기 카메라를 통해 획득된 위급 상황에 대한 영상을 더 수신받고,
상기 위급 상황에 대한 영상 내의 객체를 기반으로 위급 상황인지를 더 판단하며, 상기 위급 상황이면, 상기 엘리베이터의 문이 열릴 때에 하차하는 것을 특징으로 하는, 무인 이동체의 엘리베이터 승하차 결정 시스템.
An unmanned vehicle that determines who gets on and off an elevator;
A weight sensor mounted on one side of the elevator and communicating with the unmanned vehicle; and
A server for performing communication with the unmanned vehicle and providing emergency disembarkation information and emergency work information required at another destination to the unmanned vehicle;
The above unmanned vehicle is,
Before the door of the elevator opens, the weight information of the elevator obtained through the weight sensor is received,
When the weight information of the above elevator satisfies the preset level, when the door of the above elevator opens, the object in the image acquired through the camera is received,
If the object in the above image is not in the collision detection area for a preset first time, it moves to the preset target boarding point.
If an object in the above image is in the collision detection area for the first time, the object in the image is notified by voice through a speaker to leave the collision detection area.
When the above voice notification is completed and the object in the above video is not in the collision detection area for the preset second time, the preset stop and move actions are repeated to move to the target boarding point.
When the movement to the above target boarding point is completed and at least one of the emergency disembarkation information and the emergency work information required at the other destination is received from the server, disembark when the elevator door opens.
When moving to the above target boarding point,
If the object in the above image is not in the collision detection area for the preset first time, the preset stop and move actions are repeated to move to the target boarding point,
When getting off the elevator when the door opens,
Upon receiving the above emergency disembarkation information and the emergency work information required at the other destination, get off when the elevator door opens on the previous floor before reaching the floor of the preset destination.
Upon completion of movement to the above target boarding point, voice data regarding an emergency situation is further received from at least one passenger through the voice recognition unit of the unmanned vehicle, and upon completion of reception of the voice data, a video regarding the emergency situation acquired through the camera is further received.
An elevator boarding and disembarking decision system for an unmanned vehicle, characterized in that it further determines whether the emergency situation is based on an object in an image of the emergency situation, and if it is the emergency situation, it disembarks when the elevator door opens.
하드웨어인 컴퓨터와 결합되어, 제1항의 무인 이동체의 엘리베이터 승하차 결정 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된, 프로그램.A program stored in a computer-readable recording medium, coupled with a computer as hardware, for executing the method for determining boarding and disembarking of an elevator of an unmanned mobile device according to claim 1.
KR1020220135420A 2022-10-20 2022-10-20 Unmanned moving object, method, system and program for deciding to get on and off an elevator of unmanned moving object Active KR102768288B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220135420A KR102768288B1 (en) 2022-10-20 2022-10-20 Unmanned moving object, method, system and program for deciding to get on and off an elevator of unmanned moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220135420A KR102768288B1 (en) 2022-10-20 2022-10-20 Unmanned moving object, method, system and program for deciding to get on and off an elevator of unmanned moving object

Publications (2)

Publication Number Publication Date
KR20240055922A KR20240055922A (en) 2024-04-30
KR102768288B1 true KR102768288B1 (en) 2025-02-18

Family

ID=90884577

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220135420A Active KR102768288B1 (en) 2022-10-20 2022-10-20 Unmanned moving object, method, system and program for deciding to get on and off an elevator of unmanned moving object

Country Status (1)

Country Link
KR (1) KR102768288B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101287699B1 (en) * 2010-07-08 2013-07-24 가부시키가이샤 히타치세이사쿠쇼 Elevator system that autonomously moving device ride together

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210063121A (en) * 2019-11-22 2021-06-01 엘지전자 주식회사 Robot and method for controlling same
KR102363944B1 (en) 2020-07-15 2022-02-17 네이버랩스 주식회사 Method and system for controlling elevator for which robot boards

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101287699B1 (en) * 2010-07-08 2013-07-24 가부시키가이샤 히타치세이사쿠쇼 Elevator system that autonomously moving device ride together

Also Published As

Publication number Publication date
KR20240055922A (en) 2024-04-30

Similar Documents

Publication Publication Date Title
US10878583B2 (en) Determining structure and motion in images using neural networks
US20210138654A1 (en) Robot and method for controlling the same
US11663936B2 (en) Robot
CN112020411B (en) Mobile robot apparatus and method for providing service to user
US20210072759A1 (en) Robot and robot control method
US20050069208A1 (en) Object detector, object detecting method and robot
US20210097852A1 (en) Moving robot
US20210101288A1 (en) Moving bed robot
US20230084082A1 (en) Perception supporting hardware features for a wheelchair accessible autonomous vehicle
US20210197387A1 (en) Self-driving robot and method of operating same
US20230294277A1 (en) Reactive interactions for robotic applications and other automated systems
US11878417B2 (en) Robot, method of controlling same, and server for controlling same
US20210163273A1 (en) Transport device and robot including same
KR20240031023A (en) Mobile robot, docking control method and program of mobile robot based on successful docking notification signal
KR102768288B1 (en) Unmanned moving object, method, system and program for deciding to get on and off an elevator of unmanned moving object
WO2024046473A1 (en) Data processing method and apparatus
KR102527687B1 (en) Control method, apparatus and system for automating logistics sorting
US20220036109A1 (en) People detection and tracking with multiple features augmented with orientation and size based classifiers
KR102767869B1 (en) Moving robot, method for determining get off the elevator for each emergency situation of moving robot, system and program
US11537132B2 (en) Mobile robot and method for operating the same
CN116337082A (en) Robot autonomous navigation method, device and storage medium based on local information
CN117193523A (en) Data processing method and device
WO2024017282A1 (en) Data processing method and device
CN116931553A (en) AGV control method, device, electronic equipment and storage medium
US20240134391A1 (en) Robot and controlling method of robot

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20221020

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240821

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20241223

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250211

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250211

End annual number: 3

Start annual number: 1

PG1601 Publication of registration