KR102890784B1 - Method and System for Realizing Digital Twin for Warehouse Using 2D Semantic Map and Object Modeling - Google Patents
Method and System for Realizing Digital Twin for Warehouse Using 2D Semantic Map and Object ModelingInfo
- Publication number
- KR102890784B1 KR102890784B1 KR1020220169586A KR20220169586A KR102890784B1 KR 102890784 B1 KR102890784 B1 KR 102890784B1 KR 1020220169586 A KR1020220169586 A KR 1020220169586A KR 20220169586 A KR20220169586 A KR 20220169586A KR 102890784 B1 KR102890784 B1 KR 102890784B1
- Authority
- KR
- South Korea
- Prior art keywords
- digital twin
- data
- learning
- objects
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Entrepreneurship & Innovation (AREA)
- Quality & Reliability (AREA)
- Human Resources & Organizations (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Development Economics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
본 발명은 2D시멘틱맵 및 객체모델링을 이용한 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는, 서비스서버는 물류창고 내 물류운송로봇으로부터 2D라이다데이터 및 이미지데이터를 수신하여, 정적객체, 동적객체 및 시멘틱정보가 포함된 2D시멘틱맵을 구축하고, 2D시멘틱맵의 객체에 객체모델링을 배치하여 디지털트윈을 구현하고, 디지털트윈 상의 가상의 객체를 배치하여 물류운송로봇에 대한 로봇학습데이터를 생성하는, 2D시멘틱맵 및 객체모델링을 이용한 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for implementing a digital twin for a logistics warehouse using a 2D semantic map and object modeling, and more specifically, to a method and system for implementing a digital twin for a logistics warehouse using a 2D semantic map and object modeling, in which a service server receives 2D lidar data and image data from a logistics transport robot in a logistics warehouse, constructs a 2D semantic map including static objects, dynamic objects, and semantic information, places object modeling on objects of the 2D semantic map to implement a digital twin, and places virtual objects on the digital twin to generate robot learning data for the logistics transport robot.
Description
본 발명은 2D시멘틱맵 및 객체모델링을 이용한 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는, 서비스서버는 물류창고 내 물류운송로봇으로부터 2D라이다데이터 및 이미지데이터를 수신하여, 정적객체, 동적객체 및 시멘틱정보가 포함된 2D시멘틱맵을 구축하고, 2D시멘틱맵의 객체에 객체모델링을 배치하여 디지털트윈을 구현하고, 디지털트윈 상의 가상의 객체를 배치하여 물류운송로봇에 대한 로봇학습데이터를 생성하는, 2D시멘틱맵 및 객체모델링을 이용한 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for implementing a digital twin for a logistics warehouse using a 2D semantic map and object modeling, and more specifically, to a method and system for implementing a digital twin for a logistics warehouse using a 2D semantic map and object modeling, in which a service server receives 2D lidar data and image data from a logistics transport robot in a logistics warehouse, constructs a 2D semantic map including static objects, dynamic objects, and semantic information, places object modeling on objects of the 2D semantic map to implement a digital twin, and places virtual objects on the digital twin to generate robot learning data for the logistics transport robot.
온라인 유통시장 확대 등에 따라 물류창고 규모가 커지고 있고, 최저임금 상승 등으로 인해 물류자동화를 위한 로봇 시스템 개발이 이루어지고 있다. 종래에는 물류자동화를 위해서 가이드라인, qr코드 등 별도의 시설이 필요했다.With the expansion of online distribution, logistics warehouses are growing in size. Furthermore, rising minimum wages are driving the development of robotic systems for logistics automation. Previously, logistics automation required separate facilities like guidelines and QR codes.
물류자동화를 위해서는 다양한 물류, 물류운송로봇, 작업자 등이 혼재되어 있는 물류창고 내의 지도를 작성하고, 더 나아가 물류창고에 대한 디지털트윈을 구현하는 것은 중요한 일이다.For logistics automation, it is crucial to create a map of the warehouse, where various logistics, logistics transport robots, and workers are intertwined, and furthermore, to implement a digital twin of the warehouse.
별도의 시설을 추가하지 않고 물류창고 내의 지도를 구축하기 위해서는 SLAM을 활용할 수 있다. SLAM 기술로 물류창고 내의 객체 인식하여 지도를 작성할 수 있다. 이를 위해서는 인공신경망 기반의 추론모델을 이용하고, 인공신경망에는 이미지, 라이다 데이터 등을 입력하여 객체를 인식하게 할 수 있다.SLAM can be used to build a map of a warehouse without adding additional facilities. SLAM technology can be used to recognize objects within the warehouse and create a map. To achieve this, an artificial neural network-based inference model is used, and images, lidar data, and other data are input into the artificial neural network to recognize objects.
라이다는 'Light Detection And Ranging(빛 탐지 및 범위 측정)' 또는 'Laser Imaging, Detection and Ranging(레이저 이미징, 탐지 및 범위 측정)'의 약자로 레이저 기술을 기반으로 하는 원격 감지 기술이다. 라이다는 센서와 표면 사이의 거리를 결정하기 위해 방출된 레이저 펄스의 두 가지 이동 시 간을 측정하여, 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성을 감지하는 기술이다. LiDAR, short for 'Light Detection And Ranging' or 'Laser Imaging, Detection and Ranging', is a remote sensing technology based on laser technology. LiDAR is a technology that detects distance, direction, speed, temperature, material distribution, and concentration characteristics by measuring two travel times of emitted laser pulses to determine the distance between the sensor and the surface.
라이다의 종류에는 2차원 및 3차원이 있다. 3차원 라이다를 활용하여 물류창고 내의 지도를 작성할 수 있지만, 가격이 비싸고, 3차원 라이다로 측정되는 데이터는 처리하기 위해서는 복잡한 알고리즘과 긴 시간이 소모된다.LiDAR comes in two-dimensional and three-dimensional varieties. While 3D LiDAR can be used to map warehouse interiors, it is expensive, and processing the data measured by 3D LiDAR requires complex algorithms and a long time.
이에 따라, 3차원 라이다보다 가격이 저렴하고, 데이터 2차원 라이다 및 이미지 카메라를 활용하여 객체를 인식하여 물류창고 내의 지도를 작성하고, 물류창고 내의 물류운송로봇의 위치를 파악하여 궁극적으로는 물류자동화의 토대를 마련할 수 있는 발명이 필요한 실정이다.Accordingly, there is a need for an invention that is cheaper than a 3D lidar, utilizes a data 2D lidar and image camera to recognize objects, create a map within a logistics warehouse, and determine the location of logistics transport robots within the warehouse, ultimately laying the foundation for logistics automation.
한편, 디지털트윈은 공간, 객체를 3D 공간으로 복제하여 3D 공간에 해당 공간 및 객체를 구현하는 기술을 의미한다. 디지털트윈을 구현하기 위해서는 공간 및 객체를 현실과 동일한 객체 각각의 위치 및 형상 3D가 필요하다.Meanwhile, a digital twin refers to a technology that replicates a space or object in 3D space and implements that space or object in 3D space. To implement a digital twin, the location and shape of each space and object, identical to their real-world counterparts, are required in 3D.
물류자동화를 위해서는, 물류창고에서 발생할 수 있는 문제 상황 및 문제 상황에 대한 대응을 물류운송로봇에게 학습시켜야 한다. 물류운송로봇을 디지털트윈 공간에서 학습시킨다면, 실제 환경에서 보다 경제적이고 효율적으로 물류운송로봇을 학습시킬 수 있을 것이다.To automate logistics, logistics transport robots must be taught how to identify and respond to potential problems that may arise in a warehouse. Training logistics transport robots in a digital twin space will allow them to be trained more economically and efficiently in a real-world environment.
따라서, 실제 물류창고와 상응하는 디지털트윈을 구현하고, 디지털트윈을 학습시키기 위한 최적의 공간으로 변경할 수 있는 기술이 필요한 실정이다.Therefore, there is a need for technology that can implement a digital twin that corresponds to an actual logistics warehouse and transform it into an optimal space for training the digital twin.
본 발명은 2D시멘틱맵 및 객체모델링을 이용한 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는, 서비스서버는 물류창고 내 물류운송로봇으로부터 2D라이다데이터 및 이미지데이터를 수신하여, 정적객체, 동적객체 및 시멘틱정보가 포함된 2D시멘틱맵을 구축하고, 2D시멘틱맵의 객체에 객체모델링을 배치하여 디지털트윈을 구현하고, 디지털트윈 상의 가상의 객체를 배치하여 물류운송로봇에 대한 로봇학습데이터를 생성하는, 2D시멘틱맵 및 객체모델링을 이용한 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for implementing a digital twin for a logistics warehouse using a 2D semantic map and object modeling, and more specifically, to a method and system for implementing a digital twin for a logistics warehouse using a 2D semantic map and object modeling, in which a service server receives 2D lidar data and image data from a logistics transport robot in a logistics warehouse, constructs a 2D semantic map including static objects, dynamic objects, and semantic information, places object modeling on objects of the 2D semantic map to implement a digital twin, and places virtual objects on the digital twin to generate robot learning data for the logistics transport robot.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 물류운송로봇과 통신을 수행하는 서비스서버에서 수행하는 물류창고에 대한 디지털트윈을 구현하는 방법으로서, 상기 물류운송로봇은, 2D라이다데이터를 수집할 수 있는 2D라이다카메라, 및 이미지데이터를 수집할 수 있는 이미지카메라를 포함하고, 물류운송로봇으로부터 상기 2D라이다데이터 및 이미지데이터를 수신하고, 상기 2D라이다데이터, 및 이미지데이터를 기초로 정적객체 및 동적객체를 검출하는 정보검출단계; 상기 정보검출단계에서 검출된, 물류창고 내부에 위치하는 정적객체, 혹은 정적객체와 동적객체를 기초로, 상기 물류창고에 대한 평면적 지오메트리, 및 평면적 지오메트리 내에 위치하는 상기 정적객체 및 동적객체를 포함하는 객체에 대한 시멘틱(semantic)정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵구축단계; 상기 2D시멘틱맵에 위치하는 상기 객체 각각의 시멘틱정보에 기초하여, 상기 서비스서버에 기저장되어 있는 복수의 객체모델링 중 각각의 시멘틱정보에 해당하는 객체모델링을 상기 2D시멘틱맵 상의 해당 객체의 위치에 디스플레이하여 물류창고에 대한 디지털트윈을 구현하는 디지털트윈구현단계; 및 상기 디지털트윈에 기초하여, 객체모델링으로 디스플레이되는 가상의 객체를 추가한, 상기 디지털트윈과 달라진 환경 및 조건을 형성하는, 학습디지털트윈을 구현하고, 상기 학습디지털트윈에서 동작하는 가상의 물류운송로봇을 배치하여, 상기 학습디지털트윈이 포함하는 객체와 인터랙션하는 가상의 물류운송로봇에 대한 로봇학습데이터를 생성하는 로봇학습데이터생성단계;를 포함하는, 물류창고에 대한 디지털트윈을 구현하는 방법을 제공한다.In order to solve the above problem, one embodiment of the present invention is a method for implementing a digital twin for a logistics warehouse performed by a service server that performs communication with a logistics transport robot, wherein the logistics transport robot includes a 2D lidar camera capable of collecting 2D lidar data and an image camera capable of collecting image data, and receives the 2D lidar data and the image data from the logistics transport robot, and detects static objects and dynamic objects based on the 2D lidar data and the image data; a 2D semantic map construction step that constructs a 2D semantic map including semantic information for a planar geometry for the logistics warehouse and objects including the static objects and dynamic objects located within the planar geometry based on the static objects, or the static objects and the dynamic objects detected in the information detection step, located inside the logistics warehouse; A method for implementing a digital twin for a logistics warehouse is provided, including: a digital twin implementation step of displaying an object modeling corresponding to each semantic information among a plurality of object models pre-stored in the service server at the location of the corresponding object on the 2D semantic map based on the semantic information of each object located on the 2D semantic map to implement a digital twin for a logistics warehouse; and a robot learning data generation step of implementing a learning digital twin by adding a virtual object displayed as an object modeling based on the digital twin and forming an environment and conditions different from the digital twin, and deploying a virtual logistics transport robot operating in the learning digital twin to generate robot learning data for the virtual logistics transport robot interacting with the object included in the learning digital twin.
본 발명의 일 실시예에서는, 상기 물류창고에 대한 디지털트윈을 구현하는 방법은 객체모델링생성단계를 더 포함하고, 상기 객체모델링생성단계는, 사용자단말로부터, 상기 정적객체 및 동적객체의 시멘틱정보에 해당하는 객체의 실제 형상과 상응하는 3D 모델링인 객체모델링을 수신하는 모델링수신단계; 및 상기 객체모델링을 해당 시멘틱정보와 매칭하여 저장하는 모델링저장단계;를 포함할 수 있다.In one embodiment of the present invention, the method for implementing a digital twin for the logistics warehouse may further include an object modeling generation step, and the object modeling generation step may include a modeling reception step for receiving, from a user terminal, an object modeling that is a 3D modeling corresponding to the actual shape of an object corresponding to semantic information of the static object and the dynamic object; and a modeling storage step for matching and storing the object modeling with the corresponding semantic information.
본 발명의 일 실시예에서는, 상기 학습디지털트윈은 제1학습트윈 및 제2학습트윈을 포함하고, 상기 제1학습트윈은, 상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현되고, 상기 제2학습트윈은, 상기 디지털트윈이 포함하는 기존의 객체 일부 혹은 전체를 변경하여, 변경된 객체에 대한 변경된 객체모델링을 포함하고, 상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현될 수 있다.In one embodiment of the present invention, the learning digital twin includes a first learning twin and a second learning twin, and the first learning twin is implemented by adding the virtual object to the digital twin and adding object modeling corresponding to the virtual object, and the second learning twin is implemented by changing part or all of an existing object included in the digital twin and including changed object modeling for the changed object, and adding the virtual object to the digital twin and adding object modeling corresponding to the virtual object.
본 발명의 일 실시예에서는, 상기 로봇학습데이터생성단계는, 상기 환경 및 조건을 포함하는 기설정된 시나리오에 기초하여, 가상의 객체를 추가하여 학습디지털트윈을 구현하는 시나리오구현단계; 상기 가상의 물류운송로봇을 상기 학습디지털트윈 상에 배치하고, 상기 가상의 물류운송로봇으로부터, 상기 가상의 물류운송로봇이 해당 시나리오를 수행하며 상기 학습디지털트윈이 포함하는 객체와 인터랙션한 인터랙션데이터를 수신하는 시나리오수행단계; 및 상기 인터랙션데이터를 기초로 로봇학습데이터를 생성하는 로봇학습데이터생성단계;를 포함하는, 물류창고에 대한 디지털트윈을 구현할 수 있다.In one embodiment of the present invention, the robot learning data generation step may include a scenario implementation step of implementing a learning digital twin by adding a virtual object based on a preset scenario including the environment and conditions; a scenario execution step of placing the virtual logistics transport robot on the learning digital twin and receiving, from the virtual logistics transport robot, interaction data in which the virtual logistics transport robot performs the corresponding scenario and interacts with an object included in the learning digital twin; and a robot learning data generation step of generating robot learning data based on the interaction data, thereby implementing a digital twin for a logistics warehouse.
본 발명의 일 실시예에서는, 상기 서비스서버는 위치정보도출단계를 더 수행하고, 상기 위치정보도출단계는, 이동형로봇으로부터 수신한 실시간 2D라이다데이터 및 이미지데이터로부터 해당 이동형로봇 인근의 정적객체 및 동적객체 중 1 이상을 검출하고, 검출된 정보를 기초로 상기 2D시멘틱맵에 조회함으로써, 상기 2D시멘틱맵 상에서 해당 이동형로봇의 위치정보를 도출하고, 상기 서비스서버는 2D라이다데이터 및 이미지데이터를 기초로 기설정된 규칙에 의해 정적객체 및 동적객체를 검출하고, 상기 기설정된 규칙은, 상기 2D라이다데이터 및 이미지데이터로부터 객체를 검출하고, 상기 객체를 상기 2D시멘틱맵에서 검색하여, 상기 객체가 정적객체 혹은 동적객체인지 판단하는 규칙에 해당할 수 있다.In one embodiment of the present invention, the service server further performs a location information derivation step, and the location information derivation step detects at least one of a static object and a dynamic object near the mobile robot from real-time 2D lidar data and image data received from the mobile robot, and searches the 2D semantic map based on the detected information, thereby deriving location information of the mobile robot on the 2D semantic map, and the service server detects the static object and the dynamic object based on the 2D lidar data and the image data according to a preset rule, and the preset rule may correspond to a rule for detecting an object from the 2D lidar data and the image data, searching the object in the 2D semantic map, and determining whether the object is a static object or a dynamic object.
상기와 같은 과제를 해결하기 위하여 본 발명의 일 실시예는, 물류운송로봇 및 상기 물류운송로봇과 통신을 수행하는 서비스서버를 포함하는 물류창고에 대한 디지털트윈을 구현하는 시스템으로서, 상기 물류운송로봇은, 2D라이다데이터를 수집할 수 있는 2D라이다카메라, 및 이미지데이터를 수집할 수 있는 이미지카메라를 포함하고, 상기 서비스서버는, 물류운송로봇으로부터 상기 2D라이다데이터 및 이미지데이터를 수신하고, 상기 2D라이다데이터, 및 이미지데이터를 기초로 정적객체 및 동적객체를 검출하는 정보검출부; 상기 정보검출부에서 검출된, 물류창고 내부에 위치하는 정적객체, 혹은 정적객체와 동적객체를 기초로, 상기 물류창고에 대한 평면적 지오메트리, 및 평면적 지오메트리 내에 위치하는 상기 정적객체 및 동적객체를 포함하는 객체에 대한 시멘틱(semantic)정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵구축부; 상기 2D시멘틱맵에 위치하는 상기 객체 각각의 시멘틱정보에 기초하여, 상기 서비스서버에 기저장되어 있는 복수의 객체모델링 중 각각의 시멘틱정보에 해당하는 객체모델링을 상기 2D시멘틱맵 상의 해당 객체의 위치에 디스플레이하여 물류창고에 대한 디지털트윈을 구현하는 디지털트윈구현부; 및 상기 디지털트윈에 기초하여, 객체모델링으로 디스플레이되는 가상의 객체를 추가한, 상기 디지털트윈과 달라진 환경 및 조건을 형성하는, 학습디지털트윈을 구현하고, 상기 학습디지털트윈에서 동작하는 가상의 물류운송로봇을 배치하여, 상기 학습디지털트윈이 포함하는 객체와 인터랙션하는 가상의 물류운송로봇에 대한 로봇학습데이터를 생성하는 학습부;를 포함하는, 고속 SLAM 위치 측위 시스템을 제공한다.In order to solve the above-described problem, one embodiment of the present invention is a system for implementing a digital twin for a logistics warehouse, including a logistics transport robot and a service server that performs communication with the logistics transport robot, wherein the logistics transport robot includes a 2D lidar camera capable of collecting 2D lidar data and an image camera capable of collecting image data, and the service server includes: an information detection unit that receives the 2D lidar data and the image data from the logistics transport robot, and detects static objects and dynamic objects based on the 2D lidar data and the image data; a 2D semantic map construction unit that constructs a 2D semantic map including semantic information for a planar geometry of the logistics warehouse and objects including the static objects and dynamic objects located within the planar geometry based on the static objects, or the static objects and the dynamic objects, located within the planar geometry, detected by the information detection unit; A high-speed SLAM positioning system is provided, comprising: a digital twin implementation unit that displays an object modeling corresponding to each semantic information among a plurality of object models pre-stored in the service server at the location of the corresponding object on the 2D semantic map based on the semantic information of each object located on the 2D semantic map to implement a digital twin for a logistics warehouse; and a learning unit that implements a learning digital twin by adding a virtual object displayed as an object modeling based on the digital twin and forming an environment and conditions different from the digital twin, and deploying a virtual logistics transport robot operating in the learning digital twin to generate robot learning data for the virtual logistics transport robot interacting with the object included in the learning digital twin.
본 발명의 일 실시예에 따르면, 정적객체, 동적객체, 각각의 시멘틱정보 및 위치정보를 포함한 2D시멘틱맵을 구축하므로, 상기 2D시멘틱맵이 포함하는 정보를 기반으로 동작하는 자동화된 물류운송로봇을 제공하고, 궁극적으로는 물류 자동화를 이룰 수 있는 토대를 마련하는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a 2D semantic map including static objects, dynamic objects, semantic information and location information of each is constructed, thereby providing an automated logistics transport robot that operates based on information included in the 2D semantic map, and ultimately providing an effect of laying the foundation for achieving logistics automation.
본 발명의 일 실시예에 따르면, 물류운송로봇에 의해 수집된 2D라이다데이터 및 이미지데이터를 기초로 동적객체를 도출하므로, 해당 동적객체에 대한 위치정보를 도출할 수 있어, 별도의 장치(GPS, Marker 등) 추가 없이 움직이는 객체에 대한 위치를 파악할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since a dynamic object is derived based on 2D lidar data and image data collected by a logistics transport robot, location information for the dynamic object can be derived, thereby achieving the effect of being able to identify the location of a moving object without adding a separate device (GPS, Marker, etc.).
본 발명의 일 실시예에 따르면, 이미지카메라 및 2D라이다에 의해 데이터를 수집하고 처리하므로, 처리해야되는 데이터의 양이 적고, 복잡한 알고리즘이 필요하지 않아 데이터처리 속도가 빠르고, 보다 저렴하게 2D시멘틱맵을 구축할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since data is collected and processed by an image camera and a 2D lidar, the amount of data to be processed is small, no complex algorithm is required, so the data processing speed is fast and a 2D semantic map can be constructed more cheaply.
본 발명의 일 실시예에 따르면, 2D시멘틱맵은 정적객체, 동적객체, 각각의 시멘틱정보 및 위치정보를 포함하므로, 보다 경량화된 2D맵을 제공할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a 2D semantic map includes static objects, dynamic objects, and semantic information and location information of each, and thus can provide an effect of providing a more lightweight 2D map.
본 발명의 일 실시예에 따르면, 물류운송로봇이 수신한 실시간 데이터로 정적객체 및 동적객체를 검출할 수 있으므로, 물류운송로봇이 객체를 회피할 수 있게 정보를 제공하는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since a logistics transport robot can detect static objects and dynamic objects using real-time data received, it can have the effect of providing information that enables the logistics transport robot to avoid objects.
본 발명의 일 실시예에 따르면, 2D시멘틱맵에 기초하여 정적객체 및 동적객체를 도출하므로, 정적객체 및 동적객체가 혼재되어 있는 물류창고에서의 객체 인식의 오류를 감소시킬 수 있고, 객체의 정확한 위치를 파악할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since static objects and dynamic objects are derived based on a 2D semantic map, errors in object recognition in a logistics warehouse where static objects and dynamic objects are mixed can be reduced, and the effect of being able to determine the exact location of an object can be achieved.
본 발명의 일 실시예에 따르면, 서비스서버는 시멘틱정보에 대한 객체모델링을 저장하고, 2D시멘틱맵 상의 시멘틱정보에 기초하여 해당 위치에 객체모델링을 배치하므로, 디지털트윈을 구현하기 위한 연산 부하를 줄일 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, the service server stores object modeling for semantic information and places the object modeling at a corresponding location based on the semantic information on a 2D semantic map, thereby reducing the computational load for implementing a digital twin.
본 발명의 일 실시예에 따르면, 실시간으로 업데이트 되는 2D시멘틱맵을 기초로 디지털트윈을 구현하므로, 해당 물류창고와 실시간으로 동기화된 디지털트윈을 제공할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a digital twin is implemented based on a 2D semantic map that is updated in real time, thereby providing an effect of providing a digital twin that is synchronized in real time with the corresponding logistics warehouse.
본 발명의 일 실시예에 따르면, 디지털트윈 상에서 객체들과 인터랙션하는 가상의 물류운송로봇의 동작으로부터 실제 물류운송로봇에 대한 로봇학습데이터를 도출하여 학습시킬 수 있으므로, 물류자동화를 이룰 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, robot learning data for an actual logistics transport robot can be derived and trained from the operations of a virtual logistics transport robot interacting with objects on a digital twin, thereby achieving the effect of achieving logistics automation.
본 발명의 일 실시예에 따르면, 사용자단말은 디지털트윈 상의 물류운송로봇 및 실제 물류운송로봇을 조작할 수 있으므로, 원격으로 물류운송로봇을 제어하여 학습데이터를 생성할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a user terminal can operate a logistics transport robot on a digital twin and an actual logistics transport robot, thereby achieving the effect of generating learning data by remotely controlling the logistics transport robot.
본 발명의 일 실시예에 따르면, 디지털트윈 상에서 물류운송로봇에 대한 학습데이터를 생성할 수 있으므로, 물류운송로봇의 학습에 대한 운용 비용을 줄이고 효율적으로 시간을 사용할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, learning data for a logistics transport robot can be generated on a digital twin, thereby reducing the operating cost for learning of the logistics transport robot and enabling efficient use of time.
도 1은 본 발명의 일 실시예에 따른 물류창고에 대한 디지털트윈을 구현하는 방법을 수행하는 구성을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 물류창고에 대한 디지털트윈을 구현하는 방법의 세부단계를 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 제1추론모델 및 제2추론모델을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 2D시멘틱맵구축단계를 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 기설정된 규칙을 개략적으로 도시한다.
도 6는 본 발명의 일 실시예에 따른 위치정보도출단계를 개략적으로 도시한다.
도 7는 본 발명의 일 실시예에 따른 위치정보도출단계의 세부단계를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 이미지카메라 및 위치정보도출단계의 세부단계를 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 객체모델링생성단계를 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 디지털트윈구현단계를 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 로봇학습데이터생성단계를 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 학습디지털트윈을 개략적으로 도시한다.
도 13는 본 발명의 일 실시예에 따른 로봇학습데이터생성단계의 세부단계를 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 개략적으로 도시한다.FIG. 1 schematically illustrates a configuration for performing a method for implementing a digital twin for a logistics warehouse according to one embodiment of the present invention.
Figure 2 schematically illustrates detailed steps of a method for implementing a digital twin for a logistics warehouse according to one embodiment of the present invention.
Figure 3 schematically illustrates a first inference model and a second inference model according to one embodiment of the present invention.
Figure 4 schematically illustrates a 2D semantic map construction step according to one embodiment of the present invention.
Figure 5 schematically illustrates a preset rule according to one embodiment of the present invention.
Figure 6 schematically illustrates a location information derivation step according to one embodiment of the present invention.
Figure 7 schematically illustrates detailed steps of a location information derivation step according to one embodiment of the present invention.
Figure 8 schematically illustrates detailed steps of an image camera and location information derivation step according to one embodiment of the present invention.
Figure 9 schematically illustrates an object modeling generation step according to one embodiment of the present invention.
Figure 10 schematically illustrates a digital twin implementation step according to one embodiment of the present invention.
Figure 11 schematically illustrates a robot learning data generation step according to one embodiment of the present invention.
Figure 12 schematically illustrates a learning digital twin according to one embodiment of the present invention.
Figure 13 schematically illustrates detailed steps of a robot learning data generation step according to one embodiment of the present invention.
Figure 14 schematically illustrates the internal configuration of a computing device according to one embodiment of the present invention.
이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Hereinafter, various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will be apparent to one skilled in the art that such aspects may be practiced without these specific details. The following description and the attached drawings detail specific exemplary aspects of one or more aspects. However, these aspects are exemplary, and it is to be understood that any of the various methods within the principles of the various aspects may be utilized, and the description is intended to encompass all such aspects and their equivalents.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Additionally, various aspects and features will be presented by systems that may include a number of devices, components, and/or modules. It is also to be understood and appreciated that various systems may include additional devices, components, and/or modules, and/or may not include all of the devices, components, and modules discussed in connection with the drawings.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.The terms "embodiment," "example," "aspect," and "example" used herein may not be construed as implying that any aspect or design described is better or advantageous than other aspects or designs. The terms "part," "component," "module," "system," and "interface" used below generally refer to computer-related entities, and may refer to, for example, hardware, a combination of hardware and software, or software.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Additionally, it should be understood that the terms "comprises" and/or "comprising" imply the presence of the features and/or components, but do not preclude the presence or addition of one or more other features, components and/or groups thereof.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Additionally, terms including ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by these terms. These terms are used solely to distinguish one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term and/or includes a combination of a plurality of related described items or any of a plurality of related described items.
또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Additionally, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with their meaning in the context of the relevant technology, and shall not be interpreted in an idealized or overly formal sense unless explicitly defined in the embodiments of the present invention.
도 1은 본 발명의 일 실시예에 따른 물류창고에 대한 디지털트윈을 구현하는 방법을 수행하는 구성을 개략적으로 도시한다.FIG. 1 schematically illustrates a configuration for performing a method for implementing a digital twin for a logistics warehouse according to one embodiment of the present invention.
도 1에 도시된 바와 같이, 상기 물류운송로봇(2000)은, 2D라이다데이터를 수집할 수 있는 2D라이다카메라(2100), 및 이미지데이터를 수집할 수 있는 이미지카메라(2200)를 포함할 수 있다.As illustrated in FIG. 1, the logistics transport robot (2000) may include a 2D lidar camera (2100) capable of collecting 2D lidar data and an image camera (2200) capable of collecting image data.
물류운송로봇(2000)은 물류창고 내에서 이동을 하며 물류창고 내의 업무를 수행하는 로봇으로서, 2D라이다카메라(2100), 이미지카메라(2200) 및 통신모듈을 포함할 수 있다. A logistics transport robot (2000) is a robot that moves within a logistics warehouse and performs tasks within the logistics warehouse, and may include a 2D lidar camera (2100), an image camera (2200), and a communication module.
본 발명에서의 물류운송로봇(2000)은 지게차, 카트, 로봇 등 다양한 형태의 물류 운반 수단을 모두 포함하는 개념으로 이해될 수 있고, 자율주행, 사람 및 사용자단말에 의한 조작이 가능하다.The logistics transport robot (2000) in the present invention can be understood as a concept that includes various types of logistics transport means such as forklifts, carts, and robots, and can be operated autonomously, by people, and by user terminals.
상기 2D라이다카메라(2100)는 2D라이다데이터를 획득할 수 있고, 상기 2D라이다데이터는 2차원 포인트 클라우드 데이터를 포함할 수 있다.The above 2D lidar camera (2100) can acquire 2D lidar data, and the 2D lidar data can include 2D point cloud data.
상기 이미지카메라(2200)는 스테레오카메라, RGB카메라, RGB-D카메라 등 이미지를 획득할 수 있는 카메라를 포함할 수 있고, 이미지데이터를 획득할 수 있다. 상기 이미지데이터는 획득한 이미지 내의 픽셀에 기초한 객체들의 3차원 정보를 포함하는 이미지를 포함할 수 있다.The image camera (2200) may include a camera capable of acquiring images, such as a stereo camera, an RGB camera, or an RGB-D camera, and may acquire image data. The image data may include an image containing three-dimensional information about objects based on pixels within the acquired image.
상기 2D라이다카메라(2100) 및 이미지카메라(2200)는 상기 물류운송로봇(2000)의 전면, 후면, 측면 등 다양한 방향에 대한 정보를 획득할 수 있게 상기 물류운송로봇(2000) 상에 설치될 수 있다. The above 2D lidar camera (2100) and image camera (2200) can be installed on the logistics transport robot (2000) to obtain information on various directions, such as the front, rear, and side of the logistics transport robot (2000).
상기 통신모듈은 서비스서버(1000) 및 사용자단말(3000)과 통신을 수행하여, 상기 서비스서버(1000)에 2D라이다데이터 및 이미지데이터를 송신할 수 있고, 상기 서비스서버(1000) 혹은 상기 사용자단말(3000)로부터 판단정보, 위치정보, 명령, 제어신호 등을 수신할 수 있다. 즉, 상기 물류운송로봇(2000)은 자율주행 및 사용자단말을 통해 사람(관리자, 사용자)에 의해서 조작이 가능할 수 있다.The above communication module can perform communication with the service server (1000) and the user terminal (3000), transmit 2D lidar data and image data to the service server (1000), and receive judgment information, location information, commands, control signals, etc. from the service server (1000) or the user terminal (3000). That is, the logistics transport robot (2000) can be operated by a person (manager, user) through autonomous driving and the user terminal.
본 발명에서는 3D라이다카메라가 아닌 2D라이다카메라(2100)를 사용하여, 2D라이다데이터를 획득하여 처리하므로, 연산속도를 향상시킬 수 있는 효과를 발휘할 수 있다.In the present invention, a 2D lidar camera (2100) rather than a 3D lidar camera is used to acquire and process 2D lidar data, thereby achieving the effect of improving the computation speed.
서비스서버(1000)는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치로서 물류창고에 대한 디지털트윈을 구현하는 방법을 구현하기 위한 명령어들이 기록된 컴퓨터 프로그램이 구비되어 있고, 상기 사용자단말(3000)에서 상기 컴퓨터 프로그램을 실행하여 해당 방법이 수행될 수 있다.The service server (1000) is a computing device including one or more processors and one or more memories, and has a computer program in which commands for implementing a method of implementing a digital twin for a logistics warehouse are recorded, and the method can be performed by executing the computer program on the user terminal (3000).
구체적으로, 상기 서비스서버(1000)는 물류창고 내의 복수의 물류운송로봇(2000)과 통신을 수행할 수 있고, 상기 물류운송로봇(2000)으로부터 2D라이다데이터 및 이미지데이터를 수신할 수 있다. Specifically, the service server (1000) can communicate with multiple logistics transport robots (2000) within a logistics warehouse and receive 2D lidar data and image data from the logistics transport robots (2000).
상기 서비스서버(1000)는 상기 2D라이다데이터 및 이미지데이터를 기초로 그리드맵을 구축, 정적객체 및 동적객체 검출, 시멘틱정보 도출, 2D시멘틱맵을 구축 및 디지털트윈을 구현할 수 있다. 자세한 사항에 대해서는 후술하도록한다.The above service server (1000) can construct a grid map based on the 2D lidar data and image data, detect static and dynamic objects, derive semantic information, construct a 2D semantic map, and implement a digital twin. Details will be described later.
또한, 상기 서비스서버(1000)는 고속 SLAM 위치 측위 방법 및 물류창고의 디지털트윈에서 학습데이터를 도출하기 위해서 사용자단말(3000)과 통신을 수행하여, 상기 사용자단말(3000)에 상기 그리드맵, 2D시멘틱맵, 복수의 물류운송로봇(2000)의 위치정보, 물류창고에 대한 디지털트윈을 제공할 수 있다.In addition, the service server (1000) communicates with a user terminal (3000) to derive learning data from a high-speed SLAM positioning method and a digital twin of a logistics warehouse, thereby providing the user terminal (3000) with the grid map, 2D semantic map, location information of multiple logistics transport robots (2000), and a digital twin for the logistics warehouse.
상기 사용자단말(3000)은 데스크탑, 랩탑, 스마트폰 등 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치를 포함할 수 있다.The above user terminal (3000) may include a computing device including one or more processors and one or more memories, such as a desktop, laptop, or smartphone.
상기 사용자단말(3000)에 구비된 웹 브라우저, 컴퓨터 프로그램, 애플리케이션 등을 통해서 상기 서비스서버(1000)가 제공하는 상기 그리드맵, 2D시멘틱맵, 복수의 물류운송로봇(2000)의 위치정보, 디지털트윈를 표시할 수 있고, 상기 서비스서버(1000)를 통해 물류운송로봇(2000)에 물류창고 내 및 디지털트윈 내에서의 작동에 대한 명령, 제어신호 등을 송신할 수 있다.The grid map, 2D semantic map, location information of multiple logistics transport robots (2000), and digital twin provided by the service server (1000) can be displayed through a web browser, computer program, application, etc. provided in the user terminal (3000), and commands, control signals, etc. for operation within the logistics warehouse and within the digital twin can be transmitted to the logistics transport robots (2000) through the service server (1000).
본 발명에서 사용자단말은, 디지털트윈 상의 물류운송로봇, 실제 물류창고에 배치되어 있는 물류운송로봇, 및 디지털트윈 상에 가시화된 실제 물류창고에 배치되어 있는 물류운송로봇을 조작할 수 있다.In the present invention, the user terminal can operate a logistics transport robot on a digital twin, a logistics transport robot deployed in an actual logistics warehouse, and a logistics transport robot deployed in an actual logistics warehouse visualized on a digital twin.
도 2는 본 발명의 일 실시예에 따른 물류창고에 대한 디지털트윈을 구현하는 방법의 세부단계를 개략적으로 도시한다.Figure 2 schematically illustrates detailed steps of a method for implementing a digital twin for a logistics warehouse according to one embodiment of the present invention.
도 2에 도시된 바와 같이, 물류운송로봇(2000)과 통신을 수행하는 서비스서버(1000)에서 수행하는 고속 SLAM 위치 측위 방법으로서, 물류운송로봇(2000)로부터 상기 2D라이다데이터 및 이미지데이터를 수신하고, 상기 2D라이다데이터, 및 이미지데이터를 기초로 정적객체 및 동적객체를 검출하는 정보검출단계(S100); 상기 정보검출단계(S100)에서 검출된, 물류창고 내부에 위치하는 정적객체, 혹은 정적객체와 동적객체를 기초로 상기 물류창고에 대한 평면적 지오메트리 및 평면적 지오메트리 내에 위치하는 상기 정적객체 및 동적객체를 포함하는 객체에 대한 시멘틱정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵구축단계(S200); 및 물류운송로봇(2000)으로부터 수신한 실시간 2D라이다데이터 및 이미지데이터로부터 해당 물류운송로봇(2000) 인근의 정적객체 및 동적객체 중 1 이상을 검출하고, 검출된 정보를 기초로 상기 2D시멘틱맵에 조회함으로써, 상기 2D시멘틱맵 상에서 해당 물류운송로봇(2000)의 위치정보를 도출하는 위치정보도출단계(S300); 상기 2D시멘틱맵에 위치하는 상기 객체 각각의 시멘틱정보에 기초하여, 상기 서비스서버(1000)에 기저장되어 있는 복수의 객체모델링 중 각각의 시멘틱정보에 해당하는 객체모델링을 상기 2D시멘틱맵 상의 해당 객체의 위치에 디스플레이하여 물류창고에 대한 디지털트윈을 구현하는 디지털트윈구현단계(S400); 및 상기 디지털트윈에 기초하여, 객체모델링으로 디스플레이되는 가상의 객체를 추가한, 상기 디지털트윈과 달라진 환경 및 조건을 형성하는, 학습디지털트윈을 구현하고, 상기 학습디지털트윈에서 동작하는 가상의 물류운송로봇(2000)을 배치하여, 상기 학습디지털트윈이 포함하는 객체와 인터랙션하는 가상의 물류운송로봇(2000)에 대한 로봇학습데이터를 생성하는 로봇학습데이터생성단계(S500);를 포함할 수 있다.As illustrated in FIG. 2, a high-speed SLAM positioning method performed by a service server (1000) that performs communication with a logistics transport robot (2000) comprises: an information detection step (S100) of receiving 2D lidar data and image data from the logistics transport robot (2000), and detecting static objects and dynamic objects based on the 2D lidar data and image data; a 2D semantic map construction step (S200) of constructing a 2D semantic map including semantic information on objects including the static objects and dynamic objects located within the planar geometry of the logistics warehouse based on the static objects, or the static objects and dynamic objects, detected in the information detection step (S100); And a location information derivation step (S300) of detecting at least one static object and dynamic object near the logistics transport robot (2000) from real-time 2D lidar data and image data received from the logistics transport robot (2000), and deriving location information of the logistics transport robot (2000) on the 2D semantic map by searching the 2D semantic map based on the detected information; a digital twin implementation step (S400) of implementing a digital twin for the logistics warehouse by displaying an object modeling corresponding to each semantic information among a plurality of object models pre-stored in the service server (1000) at the location of the object on the 2D semantic map based on the semantic information of each object located on the 2D semantic map; And, based on the digital twin, a learning digital twin is implemented by adding a virtual object displayed by object modeling, forming an environment and conditions different from the digital twin, and a virtual logistics transport robot (2000) operating in the learning digital twin is placed, thereby generating robot learning data for the virtual logistics transport robot (2000) that interacts with the object included in the learning digital twin (S500);
정보검출단계(S100), 2D시멘틱맵구축단계(S200), 및 위치정보도출단계(S300), 디지털트윈구현단계(S400), 및 로봇학습데이터생성단계(S500)는 서비스서버(1000)에 의해서 수행될 수 있다.The information detection step (S100), the 2D semantic map construction step (S200), the location information derivation step (S300), the digital twin implementation step (S400), and the robot learning data generation step (S500) can be performed by the service server (1000).
상기 물류운송로봇(2000)은 물류창고 내를 이동하면서 상기 물류운송로봇(2000)이 포함하는, 2D라이다카메라(2100)로 2D라이다데이터를 획득하고, 이미지카메라(2200)로 이미지데이터를 획득할 수 있다. The above logistics transport robot (2000) can obtain 2D lidar data with the 2D lidar camera (2100) included in the logistics transport robot (2000) and obtain image data with the image camera (2200) while moving within the logistics warehouse.
정보검출단계(S100)에서, 상기 서비스서버(1000)는 상기 물류운송로봇(2000)으로부터 2D라이다데이터 및 이미지데이터를 수신할 수 있고, 2D라이다데이터 및 이미지데이터를 기초로 정적객체 및 동적객체를 검출할 수 있다.In the information detection step (S100), the service server (1000) can receive 2D lidar data and image data from the logistics transport robot (2000), and can detect static objects and dynamic objects based on the 2D lidar data and image data.
상기 2D라이다데이터 및 이미지데이터는 해당 물류운송로봇(2000)의 속도에 따른 기설정된 시간간격 마다 수신할 수 있어, 불필요한 데이터를 수신하지 않아, 데이터부하를 줄일 수 있는 효과를 발휘할 수 있다.The above 2D lidar data and image data can be received at preset time intervals according to the speed of the logistics transport robot (2000), thereby reducing the data load by not receiving unnecessary data.
구체적으로, 상기 서비스서버(1000)는 1 이상의 인경신공망을 포함하는 제1추론모델, 제2추론모델을 포함할 수 있고, 상기 2D라이다데이터 및 이미지데이터를 상기 제1추론모델 및 제2추론모델에 입력하여 정적객체 및 동적객체를 검출할 수 있다. 또한, 상기 서비스서버(1000)는 기설정된 규칙에 의해서 상기 2D라이다데이터 및 이미지데이터로부터 정적객체 및 동적객체를 검출할 수 있다.Specifically, the service server (1000) may include a first inference model and a second inference model including one or more artificial intelligence networks, and may input the 2D lidar data and image data into the first inference model and the second inference model to detect static objects and dynamic objects. In addition, the service server (1000) may detect static objects and dynamic objects from the 2D lidar data and image data according to preset rules.
상기 정적객체로 분류되는 객체는 물류창고 내의 기둥, 선반, 벽 등 움직이지 않는 구조물을 포함할 할 수 있고, 상기 동적객체로 분류되는 객체는 물류창고 내의 작업자, 물류운송로봇(2000) 등 움직이는 물체를 포함할 수 있다. 즉, 상기 정적객체 및 동적객체는 해당 객체가 움직이지 않는 구조물인지, 움직이는 물체 혹은 사람인지에 대한 구분에 해당할 수 있다.Objects classified as static objects may include non-moving structures such as pillars, shelves, and walls within a logistics warehouse, and objects classified as dynamic objects may include moving objects such as workers within a logistics warehouse and logistics transport robots (2000). In other words, the static objects and dynamic objects may correspond to a distinction as to whether the objects are non-moving structures, moving objects, or people.
2D시멘틱맵구축단계(S200)에서, 상기 서비스서버(1000)는 수신한 물류창고 전체에 대한 정적객체 및 동적객체를 기초로 2D시멘틱맵을 구축할 수 있다.In the 2D semantic map construction step (S200), the service server (1000) can construct a 2D semantic map based on static objects and dynamic objects for the entire received logistics warehouse.
구체적으로, 상기 서비스서버(1000)는 상기 정적객체 및 동적객체 1 이상을 기초로, 각각에 대한, 각각의 객체의 의미(정보)를 포함하는 시멘틱정보를 도출할 수 있다.Specifically, the service server (1000) can derive semantic information including the meaning (information) of each object based on one or more of the static objects and dynamic objects.
상기 시멘틱정보는 해당 정적객체 혹은 동적객체가 무엇인지에 대한 정보(의미)를 포함할 수 있다. 예를 들어, 시멘틱정보는 기둥, 선반, 벽, 작업자 물류운송로봇(2000) 등에 해당할 수 있다. The above semantic information may include information (meaning) regarding the identity of the static or dynamic object. For example, the semantic information may correspond to a pillar, shelf, wall, or worker logistics transport robot (2000).
상기 서비스서버(1000)는 시멘틱정보를 포함하는 2D시멘틱맵을 구축할 수 있다. 상기 2D시멘틱맵은 정적객체에 대한 제1시멘틱맵, 및 정적객체와 동적객체에 대한 제2시멘틱맵을 포함할 수 있다. 자세한 사항에 대해서는 후술하도록 한다.The above service server (1000) can construct a 2D semantic map containing semantic information. The 2D semantic map can include a first semantic map for static objects and a second semantic map for static and dynamic objects. Details will be described later.
위치정보도출단계(S300)에서, 상기 서비스서버(1000)는 물류운송로봇(2000)으로부터 실시간으로 2D라이다데이터 및 이미지데이터를 수신할 수 있고, 실시간 2D라이다데이터 및 실시간 이미지데이터에서 정적객체 및 동적객체 중 1 이상을 검출할 수 있다. 검출된 정보를 기초로 해당 정적객체 및 동적객체 중 1 이상을 기초로 상기 2D시멘틱맵에 조회하여, 상기 물류운송로봇(2000)의 위치에 대한 상기 2D시멘틱맵 상에서의 위치정보를 도출할 수 있다.In the location information derivation step (S300), the service server (1000) can receive 2D lidar data and image data in real time from the logistics transport robot (2000), and can detect at least one of static objects and dynamic objects from the real-time 2D lidar data and real-time image data. Based on the detected information, at least one of the static objects and dynamic objects can be queried in the 2D semantic map, and location information on the 2D semantic map for the location of the logistics transport robot (2000) can be derived.
디지털트윈구현단계(S400)에서, 상기 서비스서버(1000)는 정적객체 및 동적객체를 포함하는 객체 각각의 시멘틱정보, 2D시멘틱맵 및 상기 시멘틱정보 각각에 대해 기저장되어 있는 객체모델링을 물류창고에 대한 디지털트윈을 구현할 수 있다. 자세한 사항에 대해서는 후술하도록 한다.In the digital twin implementation step (S400), the service server (1000) can implement a digital twin for the logistics warehouse using semantic information for each object, including static and dynamic objects, a 2D semantic map, and object models pre-stored for each of the semantic information. Further details will be described later.
로봇학습데이터생성단계(S500)에서 상기 서비스서버(1000)는 상기 디지털트윈에 가상의 객체를 추가하여 학습디지털트윈을 구현할 수 있고, 상기 학습디지털트윈상에서 동작하는 가상의 물류운송로봇(2000)으로부터 상기 학습디지털트윈 상에서 동작하는 객체들과 인터랙션한 로봇학습데이터를 생성할 수 있다. 자세한 사항에 대해서는 후술하도록 한다.In the robot learning data generation step (S500), the service server (1000) can implement a learning digital twin by adding a virtual object to the digital twin, and can generate robot learning data from interactions between a virtual logistics transport robot (2000) operating on the learning digital twin and objects operating on the learning digital twin. Details will be described later.
1. 2D라이다데이터와 이미지데이터를 이용한 고속 SLAM 위치 측위 방법 및 시스템1. High-speed SLAM positioning method and system using 2D lidar data and image data
물류창고 내의 맵을 구축하기 위해서, SLAM 기술을 활용할 수 있다. 종래의 SLAM 기술은 3차원라이다가 활용되었으나, 본 발명에서는 2차원라이다 및 이미지카메라(2200)를 이용하여, 3차원라이다가 구현하는 SLAM보다 데이터처리 속도가 향상되고, 보다 저렴하게 시스템을 구축할 수 있다.SLAM technology can be utilized to build a map of a logistics warehouse. While conventional SLAM technology utilizes 3D LiDAR, the present invention utilizes 2D LiDAR and an image camera (2200), resulting in faster data processing and a more cost-effective system than 3D LiDAR-based SLAM.
도 3은 본 발명의 일 실시예에 따른 제1추론모델 및 제2추론모델을 개략적으로 도시한다.Figure 3 schematically illustrates a first inference model and a second inference model according to one embodiment of the present invention.
도 3에 도시된 바와 같이, 상기 서비스서버(1000)는, 제1추론모델 및 제2추론모델을 포함하고, 상기 제1추론모델은, 하나의 이미지데이터로부터 정적객체 및 동적객체를 검출하고, 상기 정적객체 및 동적객체에 대한 시멘틱정보를 도출하고, 상기 제2추론모델은, 복수의 이미지데이터로부터 정적객체 및 동적객체를 검출하고, 상기 정적객체 및 동적객체에 대한 시멘틱정보를 도출할 수 있다.As illustrated in FIG. 3, the service server (1000) includes a first inference model and a second inference model, and the first inference model can detect static objects and dynamic objects from one image data and derive semantic information about the static objects and dynamic objects, and the second inference model can detect static objects and dynamic objects from a plurality of image data and derive semantic information about the static objects and dynamic objects.
서비스서버(1000)는 CNN, DNN, 캡슐네트워크(CapsNet) 등 1 이상의 학습된 인공신경망을 포함하는 제1추론모델 및 제2추론모델을 포함할 수 있다.The service server (1000) may include a first inference model and a second inference model including one or more learned artificial neural networks such as CNN, DNN, and CapsNet.
상기 정보검출단계(S100) 및 위치정보도출단계(S300)에서의 상기 2D라이다데이터 및 이미지데이터를 기초로 정적객체 및 동적객체 검출, 및 시멘틱정보 도출은 상기 제1추론모델 및 제2추론모델에 의해서 수행될 수 있다.In the above information detection step (S100) and location information derivation step (S300), static object and dynamic object detection and semantic information derivation based on the 2D lidar data and image data can be performed by the first inference model and the second inference model.
즉, 상기 2D라이다데이터 혹은 이미지데이터를 상기 제1추론모델 및 제2추론모델에 입력하여 정적객체 및 동적객체 검출하고, 시멘틱정보를 도출할 수 있다.That is, by inputting the above 2D lidar data or image data into the first and second inference models, static and dynamic objects can be detected and semantic information can be derived.
도 3에서는 상기 제1추론모델 및 제2추론모델에 이미지데이터를 입력하는 것으로 도시되어 있으나, 상기 제1추론모델 및 제2추론모델에는 상기 2D라이다데이터 혹은 이미지데이터가 입력될 수 있다.In Fig. 3, image data is shown as being input to the first inference model and the second inference model, but the 2D lidar data or image data may be input to the first inference model and the second inference model.
도 3에서는 이미지데이터 입력을 일 실시예로 서술하도록 한다. 즉, 도 3에 대해서 서술하는 바는 2D라이다데이터를 입력하는 것에도 적용될 수 있다.In Fig. 3, image data input is described as an example. That is, the description of Fig. 3 can also be applied to inputting 2D lidar data.
도 3의 (A)는 제1추론모델을 도시한 도면에 해당한다.Figure 3 (A) corresponds to a drawing illustrating the first inference model.
제1추론모델에는 하나의 이미지데이터가 입력될 수 있다. 도 3의 (A)에 대해 서술하는 이하의 이미지데이터는 하나의 이미지데이터를 의미한다.A single image data can be input into the first inference model. The image data described below in (A) of Fig. 3 refers to a single image data.
제1추론모델은 이미지데이터가 포함하는 객체에 대해서 정적객체 혹은 동적객체를 검출하고, 해당 정적객체 혹은 동적객체 각각에 대해 시멘틱정보를 도출할 수 있다.The first inference model can detect static or dynamic objects from the objects contained in the image data and derive semantic information for each static or dynamic object.
구체적으로, 상기 제1추론모델은 상기 이미지데이터에서 객체를 검출하고, 각각의 객체에 대해서 정적객체인지 동적객체인지 판단하여, 검출한 해당 객체에 대해서 정적객체 혹은 동적객체를 부여할 수 있다. Specifically, the first inference model can detect objects in the image data, determine whether each object is a static object or a dynamic object, and assign a static object or a dynamic object to the detected object.
이어서, 상기 제1추론모델은 검출한 각각의 정적객체 및 동적객체에 대해서 시멘틱정보를 도출할 수 있다.Next, the first inference model can derive semantic information for each detected static object and dynamic object.
즉, 상기 제1추론모델에 하나의 이미지데이터를 입력하면, 출력값으로, 이미지데이터가 포함하고 있는 각각의 객체에 대한 정적객체 혹은 동적객체 및 해당 시멘틱정보가 출력될 수 있다.That is, when one image data is input into the first inference model, a static object or dynamic object and corresponding semantic information for each object contained in the image data can be output as output values.
예를 들어, 도 3의 (A)에서와 같이, 이미지데이터에는 A 물체 및 사람이 포함될 수 있고, 해당 이미지데이터를 상기 제1추론모델에 입력할 수 있다.For example, as in (A) of Fig. 3, the image data may include object A and a person, and the image data may be input into the first inference model.
상기 제1추론모델은 상기 이미지데이터로부터 A 물체에 대한 A객체를 검출하고, 사람에 대한 B객체를 검출하고, A객체 및 B객체가 정적객체 혹은 동적객체인지 판단하여, A 물체가 움직이지 않는 정적객체라고 판단하였고, 사람이 움직이는 동적객체라고 판단하였고, A객체 및 B객체가 무엇인지에 대한 시멘틱정보를 도출할 수 있다. 이때, 시멘틱정보는 A 물체 및 사람에 해당할 수 있다.The above first inference model detects object A for object A from the image data, detects object B for a person, determines whether object A and object B are static or dynamic objects, determines that object A is a static object that does not move, and determines that person is a dynamic object that moves, and can derive semantic information about what object A and object B are. At this time, the semantic information may correspond to object A and person.
제1추론모델은 정적객체에 대한 이미지, 및 동적객체에 대한 이미지로 학습할 수 있고, 정적객체 및 동적객체 각각에 시멘틱정보를 매칭시킨 데이터로 학습할 수 있다.The first inference model can be trained with images of static objects and images of dynamic objects, and can be trained with data that matches semantic information to each of the static and dynamic objects.
도 3의 (B)는 제2추론모델을 도시한 도면에 해당한다.Figure 3 (B) corresponds to a drawing illustrating the second inference model.
제1추론모델에는 복수의 이미지데이터가 입력될 수 있다. 도 3의 (B)에 대해 서술하는 이하의 이미지데이터는 복수의 이미지데이터를 의미한다.The first inference model can be input with multiple image data. The image data described below in (B) of Fig. 3 refers to multiple image data.
제2추론모델은 이미지데이터가 포함하는 객체에 대해서 정적객체 혹은 동적객체를 검출하고, 해당 정적객체 혹은 동적객체 각각에 대해 시멘틱정보를 도출할 수 있다.The second inference model can detect static or dynamic objects from the objects contained in the image data and derive semantic information for each static or dynamic object.
구체적으로, 상기 제2추론모델은 상기 이미지데이터에서 객체를 검출하고, 각각의 객체에 대해서 정적객체인지 동적객체인지 판단하여, 검출한 해당 객체에 대해서 정적객체 혹은 동적객체를 부여할 수 있다. Specifically, the second inference model can detect objects in the image data, determine whether each object is a static object or a dynamic object, and assign a static object or a dynamic object to the detected object.
이어서, 상기 제2추론모델은 검출한 각각의 정적객체 및 동적객체에 대해서 시멘틱정보를 도출할 수 있다.Next, the second inference model can derive semantic information for each detected static object and dynamic object.
즉, 상기 제2추론모델에 복수의 이미지데이터를 입력하면, 출력값으로, 이미지데이터가 포함하고 있는 각각의 객체에 대한 정적객체 혹은 동적객체 및 해당 시멘틱정보가 출력될 수 있다.That is, when multiple image data are input into the second inference model, static objects or dynamic objects and corresponding semantic information for each object contained in the image data can be output as output values.
예를 들어, 도 3의 (B)에서와 같이, 이미지데이터에는 A 물체 및 사람이 포함될 수 있고, 해당 이미지데이터를 상기 제2추론모델에 입력할 수 있다.For example, as in (B) of Fig. 3, the image data may include object A and a person, and the image data may be input into the second inference model.
상기 제2추론모델은 상기 이미지데이터로부터 A 물체에 대한 A객체를 검출하고, 사람에 대한 B객체를 검출하고, A객체 및 B객체가 정적객체 혹은 동적객체인지 판단하여, A 물체가 움직이지 않는 정적객체라고 판단하였고, 사람이 움직이는 동적객체라고 판단하였고, A객체 및 B객체가 무엇인지에 대한 시멘틱정보를 도출할 수 있다. 이때, 시멘틱정보는 A 물체 및 사람에 해당할 수 있다.The second inference model detects object A for object A from the image data, detects object B for a person, determines whether object A and object B are static or dynamic objects, determines that object A is a static object that does not move, and determines that person is a dynamic object that moves, and can derive semantic information about what object A and object B are. At this time, the semantic information may correspond to object A and person.
제2추론모델은 복수의 이미지데이터의 객체의 변화를 감지하여 학습할 수 있다. 즉, 복수의 이미지데이터 각각을 비교하여, 움직임이 있는 객체에 대해서는 동적객체로 판단할 수 있다. 또한, 정적객체 및 동적객체 각각에 시멘틱정보를 매칭시킨 데이터로 학습할 수 있다.The second inference model can learn by detecting changes in objects in multiple image data. That is, by comparing multiple image data, it can determine if an object is moving as a dynamic object. Furthermore, it can learn using data that matches semantic information to each static and dynamic object.
본 발명의 일 실시예에 따르면, 제1추론모델 및 제2추론모델에 입력되는 데이터는, 바람직하게는, 이미지데이터에 해당할 수 있고, 2D라이다데이터는 보조적인 수단으로 활용될 수 있다. 즉, 상기 정적객체 및 동적객체에는 2D라이다데이터가 포함될 수 있다. 즉, 상기 이미지데이터로부터 해당 객체에 대해서 상기 정적객체 혹은 동적객체인지 판단하여, 해당 이미지데이터를 획득한 시점의 2D라이다데이터가 포함된 정적객체 혹은 동적객체가 검출될 수 있다.According to one embodiment of the present invention, the data input to the first inference model and the second inference model may preferably correspond to image data, and 2D lidar data may be utilized as an auxiliary means. That is, the static object and the dynamic object may include 2D lidar data. That is, by determining whether the object is the static object or the dynamic object from the image data, the static object or the dynamic object including the 2D lidar data at the time when the image data was acquired may be detected.
본 발명의 일 실시예에 따르면, 제1추론모델은 하나의 데이터(2D라이다데이터 혹은 이미지데이터)부터 정보를 검출하고, 제2추론모델은 복수의 데이터로부터 정보를 검출하므로, 제1추론모델 및 제2추론모델의 정확도는 상대적으로 제2추론모델이 높고, 연산속도는 상대적으로 제1추론모델이 높을 수 있으므로, 관리자는 경우에 따라서 처리 속도 및 정확도를 설정할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, the first inference model detects information from one data (2D lidar data or image data), and the second inference model detects information from multiple data, so the accuracy of the first inference model and the second inference model is relatively high in the second inference model, and the operation speed of the first inference model can be relatively high, so that the administrator can have the effect of setting the processing speed and accuracy as needed.
도 4는 본 발명의 일 실시예에 따른 2D시멘틱맵구축단계(S200)를 개략적으로 도시한다.Figure 4 schematically illustrates a 2D semantic map construction step (S200) according to one embodiment of the present invention.
도 4에 도시된 바와 같이, 상기 2D시멘틱맵구축단계(S200)에서는, 상기 정보검출단계(S100)에서 검출된, 물류창고 내부에 위치하는 정적객체, 혹은 정적객체와 동적객체를 기초로 상기 물류창고에 대한 평면적 지오메트리 및 평면적 지오메트리 내에 위치하는 상기 정적객체 및 동적객체를 포함하는 객체에 대한 시멘틱정보를 포함하는 2D시멘틱맵을 구축할 수 있다.As illustrated in FIG. 4, in the 2D semantic map construction step (S200), a 2D semantic map including semantic information on objects including the static objects and dynamic objects located within the logistics warehouse and the planar geometry of the logistics warehouse can be constructed based on the static objects, or the static objects and dynamic objects located within the planar geometry, located within the logistics warehouse, detected in the information detection step (S100).
상기 시멘틱맵구축단계는, 상기 정보검출단계(S100)에서 물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터에 대해서 검출된 정적객체 및 동적객체를 기초로 상기 물류창고에 대한 평면적 지오메트리인 그리드맵을 도출하는 그리드맵도출단계; 물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터에 대해서 검출된 정적객체 및 동적객체를 기초로 각각의 시멘틱정보를 도출하는 시멘틱정보도출단계; 및 상기 그리드맵 내에 위치하는 정적객체 및 동적객체를 포함하는 객체에 대해서, 해당 객체의 정적객체 혹은 동적객체에 해당하는 시멘틱정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵합성단계;를 포함할 수 있다.The above semantic map construction step may include a grid map derivation step for deriving a grid map, which is a planar geometry of the logistics warehouse, based on static objects and dynamic objects detected from 2D lidar data and image data for the entire interior of the logistics warehouse in the information detection step (S100); a semantic information derivation step for deriving semantic information for each of the static objects and dynamic objects detected from 2D lidar data and image data for the entire interior of the logistics warehouse; and a 2D semantic map synthesis step for constructing a 2D semantic map including semantic information corresponding to the static object or dynamic object of an object including the static object and dynamic object located in the grid map.
구체적으로, 서비스서버(1000)는 물류창고 내의 복수 혹은 하나의 물류운송로봇(2000)으로부터 물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터를 수신할 수 있다. Specifically, the service server (1000) can receive 2D lidar data and image data for the entire interior of the logistics warehouse from one or more logistics transport robots (2000) within the logistics warehouse.
본 발명의 일 실시예에 따르면, 어느 물류운송로봇(2000)은 2D시멘틱맵을 구축하기 위해서 물류창고 내 전체를 스캔하여 물류창고 전체에 대한 2D라이다데이터 및 이미지데이터를 수집할 수 있고, 이를 서비스서버(1000)로 송신할 수 있다.According to one embodiment of the present invention, a logistics transport robot (2000) can scan the entire logistics warehouse to collect 2D lidar data and image data for the entire logistics warehouse in order to build a 2D semantic map, and transmit the same to a service server (1000).
물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터를 수신한 서비스서버(1000)는, 물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터를 상술한 제1추론모델 혹은 제2추론모델에 입력하여 해당 2D라이다데이터 및 이미지데이터에 대한 정적객체 및 동적객체를 검출하고, 해당 정적객체 혹은 동적객체에 대한 시멘틱정보를 도출할 수 있다.The service server (1000) that receives 2D lidar data and image data for the entire interior of the logistics warehouse can input the 2D lidar data and image data for the entire interior of the logistics warehouse into the first or second inference model described above to detect static objects and dynamic objects for the corresponding 2D lidar data and image data, and derive semantic information for the corresponding static objects or dynamic objects.
상기 정적객체에는 해당 정적객체를 검출한 데이터(2D라이다데이터 혹은 이미지데이터)를 포함할 수 있고, 상기 동적객체에는 해당 동적객체를 검출한 데이터(2D라이다데이터 혹은 이미지데이터)를 포함할 수 있다.The above static object may include data (2D lidar data or image data) that detects the static object, and the above dynamic object may include data (2D lidar data or image data) that detects the dynamic object.
상기 서비스서버(1000)는 검출한 정적객체 및 동적객체에 기초하여 물류창고에 대한 평면적 지오메트리인 그리드맵을 도출할 수 있다. The above service server (1000) can derive a grid map, which is a planar geometry of a logistics warehouse, based on the detected static and dynamic objects.
구체적으로, 상기 정적객체 및 동적객체는 해당 2D라이다데이터 혹은 이미지데이터를 포함하므로, 상기 그리드맵은 정적객체, 2D라이다데이터 및 이미지데이터 중 1 이상, 혹은 정적객체, 동적객체 및 2D라이다데이터 및 이미지데이터 중 1 이상을 기초로 도출할 수 있다. Specifically, since the static object and dynamic object include the corresponding 2D lidar data or image data, the grid map can be derived based on at least one of the static object, 2D lidar data and image data, or at least one of the static object, dynamic object and 2D lidar data and image data.
더 구체적으로, 상기 2D라이다데이터는 해당 물류운송로봇(2000) 및 해당 객체에 대한 좌표값을 포함할 수 있으므로, 연속적으로 획득된 정적객체 및 동적객체에 의해서 시작점부터 연속적으로 정적객체 및 동적객체를 해당 위치에 출력하여 그리드맵을 구축할 수 있다.More specifically, since the above 2D lidar data may include coordinate values for the corresponding logistics transport robot (2000) and the corresponding object, a grid map can be constructed by continuously outputting static objects and dynamic objects to the corresponding positions from the starting point by continuously acquiring static objects and dynamic objects.
즉, 상기 그리드맵에는 정적객체 및 동적객체를 포함하는 객체가 해당 위치에 디스플레이되어 있을 수 있다.That is, the above grid map may display objects including static objects and dynamic objects at their respective locations.
본 발명의 일 실시예에 따르면, 상기 그리드맵은 정적객체만을 포함하는 제1그리드맵, 및 정적객체와 동적객체를 포함하는 제2그리드맵을 포함할 수 있다. 도 4에 도시된 그리드맵 F는 제2그리드맵에 해당할 수 있다.According to one embodiment of the present invention, the grid map may include a first grid map including only static objects, and a second grid map including both static and dynamic objects. Grid map F illustrated in FIG. 4 may correspond to the second grid map.
이후에, 서비스서버(1000)는 상기 그리드맵 상의 정적객체 및 동적객체에 해당하는 시멘틱정보를 포함하는 2D시멘틱맵을 구축할 수 있다.Afterwards, the service server (1000) can build a 2D semantic map including semantic information corresponding to static objects and dynamic objects on the grid map.
즉, 상기 2D시멘틱맵은 정적객체, 정적객체에 해당하는 시멘틱정보, 동적객체 및 동적객체에 해당하는 시멘틱정보를 포함할 수 있다.That is, the above 2D semantic map may include a static object, semantic information corresponding to the static object, a dynamic object, and semantic information corresponding to the dynamic object.
본 발명의 일 실시예에 따르면, 상기 2D시멘틱맵은, 정적객체 및 정적객체의 시멘틱정보를 포함하는 제1시멘틱맵, 및 정적객체, 정적객체의 시멘틱정보, 동적객체, 동적객체의 시멘틱정보를 포함하는 제2시멘틱맵을 포함할 수 있다.According to one embodiment of the present invention, the 2D semantic map may include a first semantic map including a static object and semantic information of the static object, and a second semantic map including a static object, semantic information of the static object, a dynamic object, and semantic information of the dynamic object.
도 4에서 A, C, D, E에 해당하는 객체는 정적객체에 해당할 수 있고, B에 해당하는 객체는 동적객체에 해당할 수 있고, A, B, C, D, E는 시멘틱정보에 해당할 수 있다. 예를 들면, A는 기둥, B는 움직이는 사람, C 및 D는 선반, E는 벽에 해당할 수 있다.In Fig. 4, objects corresponding to A, C, D, and E may correspond to static objects, object corresponding to B may correspond to dynamic objects, and A, B, C, D, and E may correspond to semantic information. For example, A may correspond to a pillar, B may correspond to a moving person, C and D may correspond to a shelf, and E may correspond to a wall.
본 발명의 일 실시예에 다르면, 2D시멘틱맵에는 시멘틱정보 및 객체 중 1 이상에 따라 서로 다르게 표시될 수 있다.According to one embodiment of the present invention, a 2D semantic map may display different information depending on one or more of the semantic information and the object.
도 5는 본 발명의 일 실시예에 따른 기설정된 규칙을 개략적으로 도시한다.Figure 5 schematically illustrates a preset rule according to one embodiment of the present invention.
도 5에 도시된 바와 같이, 상기 서비스서버(1000)는, 정적시멘틱추론모델 및 동적시멘틱추론모델을 포함하고, 상기 2D라이다데이터 및 이미지데이터를 기초로 기설정된 규칙에 의해 정적객체 및 동적객체를 검출하고, 상기 정적시멘틱추론모델은, 상기 정적객체로부터 정적객체에 대한 시멘틱정보를 도출하고, 상기 동적시멘틱추론모델은, 상기 동적객체로부터 동적객체에 대한 시멘틱정보를 도출하고, 상기 기설정된 규칙은, 상기 2D라이다데이터 및 이미지데이터로부터 객체정보를 검출하고, 상기 객체정보를 상기 2D시멘틱맵에서 검색하여, 상기 객체정보가 정적객체 혹은 동적객체인지 판단하는 규칙에 해당할 수 있다.As illustrated in FIG. 5, the service server (1000) includes a static semantic inference model and a dynamic semantic inference model, and detects static objects and dynamic objects based on the 2D lidar data and image data according to preset rules, the static semantic inference model derives semantic information about the static object from the static object, the dynamic semantic inference model derives semantic information about the dynamic object from the dynamic object, and the preset rules may correspond to rules for detecting object information from the 2D lidar data and image data, searching for the object information in the 2D semantic map, and determining whether the object information is a static object or a dynamic object.
서비스서버(1000)는 2D라이다데이터 및 이미지데이터에 기설정된 규칙을 적용하여 정적객체 및 동적객체를 검출할 수 있다.The service server (1000) can detect static and dynamic objects by applying preset rules to 2D lidar data and image data.
구체적으로, 상기 서비스서버(1000)는 상기 2D라이다데이터 및 이미지데이터로부터 객체에 대한 객체정보를 검출할 수 있다. 본 발명의 일 실시예에 따르면, 상기 2D라이다데이터 및 이미지데이터를 객체정보를 도출할 수 있는 추론모델에 입력하여 객체정보를 검출할 수 있다.Specifically, the service server (1000) can detect object information about an object from the 2D lidar data and image data. According to one embodiment of the present invention, the object information can be detected by inputting the 2D lidar data and image data into an inference model capable of deriving object information.
상기 객체정보를 정적객체 및 동적객체 중 1 이상을 포함하는 2D시멘틱맵에 검색할 수 있고, 일치하는 정적객체 혹은 동적객체가 있는 경우 해당 결과로 객체정보를 정적객체인지 동적객체인지 판단할 수 있다.The above object information can be searched in a 2D semantic map that includes at least one of a static object and a dynamic object, and if there is a matching static object or dynamic object, the object information can be determined as a static object or a dynamic object based on the result.
본 발명의 일 실시예에 따르면, 도 5에 도시된 바와 같이, 상기 2D시멘틱맵은 정적객체만을 포함하는 제1시멘틱맵에 해당할 수 있어, 상기 객체정보를 검색하였을 때, 상기 제1시멘틱맵 상에 해당 객체정보가 없는 경우, 동적객체라고 판단하고, 해당 객체정보가 있는 경우 정적객체라고 판단할 수 있다.According to one embodiment of the present invention, as illustrated in FIG. 5, the 2D semantic map may correspond to a first semantic map that includes only static objects, so that when the object information is searched, if the corresponding object information is not found in the first semantic map, it may be determined to be a dynamic object, and if the corresponding object information is found, it may be determined to be a static object.
이후에, 서비스서버(1000)는, 기설정된 규칙에 의해 판단된 정적객체는 정적시멘틱모델에 입력하여 해당 정적객체에 대한 시멘틱정보를 도출할 수 있고, 기설정된 규칙에 의해 판단된 동적객체는 동적시멘틱모델에 입력하여 해당 동적객체에 대한 시멘틱정보를 도출할 수 있다.Afterwards, the service server (1000) can input static objects judged by preset rules into a static semantic model to derive semantic information about the corresponding static objects, and can input dynamic objects judged by preset rules into a dynamic semantic model to derive semantic information about the corresponding dynamic objects.
상기 정적시멘틱모델 및 상기 동적시멘틱모델 각각은 정적객체 혹은 동적객체 각각에 매칭된 시멘틱정보에 의해서 학습될 수 있다.Each of the above static semantic model and the above dynamic semantic model can be learned by semantic information matched to each static object or dynamic object.
본 발명의 일 실시예에 따르면, 2D시멘틱맵이 구축되어 있는 상태에서는, 상기 서비스서버(1000)는 기설정된 규칙에 의해서 정적객체 및 동적객체를 검출할 수 있으므로, 제1 혹은 제2추론모델에 의한 연산 부하를 줄일 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, when a 2D semantic map is constructed, the service server (1000) can detect static objects and dynamic objects according to preset rules, thereby reducing the computational load by the first or second inference model.
도 6는 본 발명의 일 실시예에 따른 위치정보도출단계(S300)를 개략적으로 도시한다.Figure 6 schematically illustrates a location information derivation step (S300) according to one embodiment of the present invention.
도 6에 도시된 바와 같이, 상기 위치정보도출단계(S300)에서는, 물류운송로봇(2000)으로부터 수신한 실시간 2D라이다데이터 및 이미지데이터로부터 해당 물류운송로봇(2000) 인근의 정적객체 및 동적객체 중 1 이상을 검출하고, 검출된 정보를 기초로 상기 2D시멘틱맵에 조회함으로써, 상기 2D시멘틱맵 상에서 해당 물류운송로봇(2000)의 위치정보를 도출할 수 있다.As illustrated in FIG. 6, in the location information derivation step (S300), at least one of static objects and dynamic objects near the logistics transport robot (2000) is detected from real-time 2D lidar data and image data received from the logistics transport robot (2000), and based on the detected information, the 2D semantic map is searched, thereby deriving the location information of the logistics transport robot (2000) on the 2D semantic map.
서비스서버(1000)는 물류창고 내의 복수의 물류운송로봇(2000)의 각각의 위치정보를 도출할 수 있고, 이를 상기 2D시멘틱맵 상에서 표시할 수 있다.The service server (1000) can derive location information of each of multiple logistics transport robots (2000) within the logistics warehouse and display this on the 2D semantic map.
구체적으로, 서비스서버(1000)는 물류창고 내의 복수의 물류운송로봇(2000)으로부터 실시간으로 2D라이다데이터 및 이미지데이터를 수신할 수 있다. Specifically, the service server (1000) can receive 2D lidar data and image data in real time from multiple logistics transport robots (2000) within a logistics warehouse.
수신한 2D라이다데이터 및 이미지데이터에서, 상술한 제1 혹은 제2추론모델, 및 기설정된 규칙에 의해서, 해당 물류운송로봇(2000) 인근의 정적객체 및 동적객체가 검출될 수 있고, 상기 제1 혹은 제2추론모델, 정적시멘틱추론모델, 및 동적시멘틱추론모델에 의해서 각각의 시멘틱정보가 도출될 수 있다.From the received 2D lidar data and image data, static objects and dynamic objects near the logistics transport robot (2000) can be detected by the first or second inference model described above and preset rules, and each semantic information can be derived by the first or second inference model, the static semantic inference model, and the dynamic semantic inference model.
서비스서버(1000)는 검출한 정적객체, 동적객체, 및 각각의 시멘틱정보를 상기 2D시멘틱맵에서 조회할 수 있고, 상기 조회에 따라서 위치정보를 도출할 수 있다. 이에 대한 자세한 사항은 후술하도록 한다.The service server (1000) can search for detected static objects, dynamic objects, and their respective semantic information in the 2D semantic map, and derive location information based on the search. Details on this will be described later.
본 발명의 일 실시예에 따르면, 상기 위치정보는 상기 2D시멘틱맵에 표시될 수 있어 관리자는 사용자단말(3000)에서 디스플레이되는 2D시멘틱맵을 통해 물류운송로봇(2000)의 위치를 파악할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, the location information can be displayed on the 2D semantic map, so that the manager can effectively identify the location of the logistics transport robot (2000) through the 2D semantic map displayed on the user terminal (3000).
본 발명의 일 실시예에 따르면, 2D시멘틱맵 상에서 물류운송로봇(2000)의 위치정보를 도출할 수 있고, 2D시멘틱맵 상에서의 시멘틱정보를 제공할 수 있으므로, 상기 물류운송로봇(2000)이 물류창고 내에서 업무를 수행하는데 보조적인 정보를 제공할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, the location information of a logistics transport robot (2000) can be derived on a 2D semantic map, and semantic information can be provided on the 2D semantic map, so that the logistics transport robot (2000) can have the effect of providing auxiliary information for performing work within a logistics warehouse.
도 6에서는 물류운송로봇(2000)이 수집한 2D라이다데이터 및 이미지데이터가 동적객체를 포함하므로, 동적객체를 포함하는 제2시멘틱맵이 활용되었지만, 정적객체만을 포함하는 경우는 따라서 제1시멘틱맵이 활용될 수 있다.In Fig. 6, since the 2D lidar data and image data collected by the logistics transport robot (2000) include dynamic objects, the second semantic map including dynamic objects is utilized, but in cases where only static objects are included, the first semantic map can be utilized.
도 7는 본 발명의 일 실시예에 따른 위치정보도출단계(S300)의 세부단계를 개략적으로 도시한다.Figure 7 schematically illustrates detailed steps of a location information derivation step (S300) according to one embodiment of the present invention.
도 7에 도시된 바와 같이, 상기 위치도출단계는, 상기 실시간 2D라이다데이터 및 이미지데이터로부터 해당 이동식로봇 인근의 정적객체 및 동적객체 중 1 이상을 검출하는 제1실시간정보검출단계(S311); 상기 제1실시간정보검출단계(S311)에서 검출된 정적객체 및 동적객체 중 1 이상에 대해 시멘틱정보를 도출하고, 해당 시멘틱정보를 상기 2D시멘틱맵에서 조회하는 제1정보조회단계(S312); 및 상기 제1정보조회단계(S312)에서, 해당 시멘틱정보와 일치하는 상기 2D시멘틱맵 상에서의 시멘틱정보가 있는 경우, 상기 2D시멘틱맵 상에서의 시멘틱정보에 기초하여 상기 2D시멘틱맵 상에서의 해당 물류운송로봇(2000)의 위치정보를 도출하는 제1위치정보도출단계(S313);를 포함할 수 있다.As illustrated in FIG. 7, the position derivation step may include a first real-time information detection step (S311) of detecting at least one static object and dynamic object near the mobile robot from the real-time 2D lidar data and image data; a first information search step (S312) of deriving semantic information for at least one of the static objects and dynamic objects detected in the first real-time information detection step (S311) and searching for the semantic information in the 2D semantic map; and a first position information derivation step (S313) of deriving position information of the logistics transport robot (2000) on the 2D semantic map based on the semantic information on the 2D semantic map if there is semantic information on the 2D semantic map that matches the semantic information in the first information search step (S312).
제1실시간정보검출단계(S311)에서, 상기 실시간 2D라이다데이터 및 이미지데이터로부터 정적객체를 검출하거나, 동적객체를 검출하거나, 정적객체 및 동적객체를 검출할 수 있다. 상기 제1실시간정보검출단계(S311)에서는 상술한 제1추론모델, 제2추론모델, 기설정된 규칙 중 1 이상에 의해서 정적객체 및 동적객체 중 1 이상이 검출될 수 있다.In the first real-time information detection step (S311), a static object, a dynamic object, or both a static object and a dynamic object can be detected from the real-time 2D lidar data and image data. In the first real-time information detection step (S311), at least one of the static object and the dynamic object can be detected by at least one of the first inference model, the second inference model, and the preset rules described above.
제1정보조회단계(S312)에서는 상기 제1실시간정보검출단계(S311)에서 검출한, 정적객체 및 동적객체 중 1 이상에서 시멘틱정보를 도출할 수 있다. 이는, 상술한 제1추론모델, 제2추론모델, 정적시멘틱추론모델, 및 동적시멘틱추론모델 중 1 이상에 의해서 수행될 수 있다.In the first information retrieval step (S312), semantic information can be derived from at least one of the static objects and dynamic objects detected in the first real-time information detection step (S311). This can be performed by at least one of the first inference model, the second inference model, the static semantic inference model, and the dynamic semantic inference model described above.
이어서, 상기 제1정보조회단계(S312)에서는, 해당 시멘틱정보를 상기 2D시멘틱맵에서 조회할 수 있다.Next, in the first information search step (S312), the corresponding semantic information can be searched in the 2D semantic map.
해당 시멘틱정보가 정적객체에 대한 시멘틱정보일 경우에는 제1시멘틱맵 혹은 제2시멘틱맵에서 조회할 수 있지만, 바람직하게는 제1시멘틱맵에서 조회하여 연산 속도를 높일 수 있다. 해당 시멘틱정보가 동적객체에 대한 시멘틱정보를 포함하는 경우에는 제2시멘틱맵에서 조회할 수 있다.If the semantic information pertains to a static object, it can be retrieved from either the first or second semantic map. However, it is preferable to retrieve it from the first semantic map to increase computation speed. If the semantic information pertains to a dynamic object, it can be retrieved from the second semantic map.
제1위치정보도출단계(S313)는 해당 시멘틱정보와 일치하는 상기 2D시멘틱맵 상에서의 시멘틱정보가 있는 경우 수행될 수 있다. The first location information derivation step (S313) can be performed when there is semantic information on the 2D semantic map that matches the corresponding semantic information.
상기 제1위치정보도출단계(S313)에서는, 상기 2D시멘틱맵 상에서의 시멘틱정보에 기초하여, 상기 2D시멘틱맵 상에서의 해당 물류운송로봇(2000)의 위치정보를 도출할 수 있다.In the first location information derivation step (S313), the location information of the corresponding logistics transport robot (2000) on the 2D semantic map can be derived based on the semantic information on the 2D semantic map.
본 발명의 다른 실시예에서는, 상기 제1정보조회단계(S312)에서는, 상기 검출된 정저객체정보 및 동적객체 중 1 이상을 상기 2D시멘틱맵에서 조회할 수 있고, 상기 제1위치정보도출단계(S313)에서는, 상기 검출된 정저객체정보 및 동적객체 중 1 이상이 상기 2D시멘틱맵 상에서 존재하는 경우, 상기 검출된 정저객체정보 및 동적객체 중 1 이상에 기초하여 상기 2D시멘틱맵 상에서의 해당 물류운송로봇(2000)의 위치정보를 도출할 수 있다.In another embodiment of the present invention, in the first information search step (S312), at least one of the detected static object information and dynamic objects can be searched in the 2D semantic map, and in the first location information derivation step (S313), if at least one of the detected static object information and dynamic objects exists on the 2D semantic map, location information of the corresponding logistics transport robot (2000) on the 2D semantic map can be derived based on at least one of the detected static object information and dynamic objects.
도 8은 본 발명의 일 실시예에 따른 이미지카메라(2200) 및 위치정보도출단계(S300)의 세부단계를 개략적으로 도시한다.Figure 8 schematically illustrates detailed steps of an image camera (2200) and a location information derivation step (S300) according to one embodiment of the present invention.
도 8에 도시된 바와 같이, 상기 이미지카메라(2200)는 픽셀별 거리를 측정할 수 있는 RGB-D카메라를 포함하고, 상기 RGB-D카메라에 의해 수집된 이미지데이터는 픽셀별 거리정보를 포함하고, 상기 위치도출단계는, 상기 실시간 2D라이다데이터 및 이미지데이터로부터 해당 이동식로봇 인근의 정적객체 및 동적객체 중 1 이상을 검출하는 제2실시간정보검출단계(S321); 상기 제2실시간정보검출단계(S321)에서 검출된 정적객체 및 동적객체 중 1 이상에 대해 시멘틱정보를 도출하고, 해당 시멘틱정보를 상기 2D시멘틱맵에서 조회하는 제2정보조회단계(S322); 및 상기 제2정보조회단계(S322)에서, 해당 시멘틱정보와 일치하는 상기 2D시멘틱맵 상에서의 시멘틱정보가 있는 경우, 상기 실시간 이미지데이터의 거리정보 및 상기 2D시멘틱맵 상에서의 시멘틱정보에 기초하여 상기 2D시멘틱맵 상에서의 해당 물류운송로봇(2000)의 위치정보를 도출하는 제2위치정보도출단계;를 포함할 수 있다.As illustrated in FIG. 8, the image camera (2200) includes an RGB-D camera capable of measuring a distance per pixel, and the image data collected by the RGB-D camera includes distance information per pixel, and the position derivation step includes: a second real-time information detection step (S321) of detecting at least one of a static object and a dynamic object near the mobile robot from the real-time 2D lidar data and the image data; a second information inquiry step (S322) of deriving semantic information for at least one of the static objects and dynamic objects detected in the second real-time information detection step (S321) and searching for the semantic information in the 2D semantic map; And in the second information search step (S322), if there is semantic information on the 2D semantic map that matches the semantic information, a second location information derivation step for deriving location information of the corresponding logistics transport robot (2000) on the 2D semantic map based on the distance information of the real-time image data and the semantic information on the 2D semantic map may be included.
도 8의 (A)는 이미지카메라(2200)를 도시화한 도면에 해당한다.Figure 8 (A) corresponds to a drawing depicting an image camera (2200).
이미지카메라(2200)는 RGB-D카메라 등 픽셀 간의 거리정보를 포함할 수 있는 카메라에 해당할 수 있다. The image camera (2200) may correspond to a camera that can include distance information between pixels, such as an RGB-D camera.
상기 이미지카메라(2200)로 획득한 이미지데이터에는 해당 이미지데이터가 포함하는 복수의 객체간의 거리정보, 상기 이미지카메라(2200)가 설치되어 있는 물류운송로봇(2000)과 상기 복수의 객체간의 거리정보가 포함될 수 있다.The image data acquired by the image camera (2200) may include distance information between a plurality of objects included in the image data, and distance information between the logistics transport robot (2000) on which the image camera (2200) is installed and the plurality of objects.
도 8의 (B)는 위치정보도출단계(S300)의 세부단계를 도시화한 도면에 해당한다.Figure 8 (B) corresponds to a drawing illustrating the detailed steps of the location information derivation step (S300).
제2실시간정보검출단계(S321)에서, 상기 실시간 2D라이다데이터 및 이미지데이터로부터 정적객체를 검출하거나, 동적객체를 검출하거나, 정적객체 및 동적객체를 검출할 수 있다. 상기 제2실시간정보검출단계(S321)에서는 상술한 제1추론모델, 제2추론모델, 기설정된 규칙 중 1 이상에 의해서 정적객체 및 동적객체 중 1 이상이 검출될 수 있다.In the second real-time information detection step (S321), static objects, dynamic objects, or both static and dynamic objects can be detected from the real-time 2D lidar data and image data. In the second real-time information detection step (S321), at least one of the static objects and dynamic objects can be detected by at least one of the first inference model, the second inference model, and the preset rules described above.
제2정보조회단계(S322)에서는 상기 제2실시간정보검출단계(S321)에서 검출한, 정적객체 및 동적객체 중 1 이상에서 시멘틱정보를 도출할 수 있다. 이는, 상술한 제1추론모델, 제2추론모델, 정적시멘틱추론모델, 및 동적시멘틱추론모델 중 1 이상에 의해서 수행될 수 있다.In the second information retrieval step (S322), semantic information can be derived from at least one of the static objects and dynamic objects detected in the second real-time information detection step (S321). This can be performed by at least one of the first inference model, the second inference model, the static semantic inference model, and the dynamic semantic inference model described above.
이어서, 상기 제2정보조회단계(S322)에서는, 해당 시멘틱정보를 상기 2D시멘틱맵에서 조회할 수 있다.Next, in the second information search step (S322), the corresponding semantic information can be searched in the 2D semantic map.
해당 시멘틱정보가 정적객체에 대한 시멘틱정보일 경우에는 제1시멘틱맵 혹은 제2시멘틱맵에서 조회할 수 있지만, 바람직하게는 제1시멘틱맵에서 조회하여 연산 속도를 높일 수 있다. 해당 시멘틱정보가 동적객체에 대한 시멘틱정보를 포함하는 경우에는 제2시멘틱맵에서 조회할 수 있다.If the semantic information pertains to a static object, it can be retrieved from either the first or second semantic map. However, it is preferable to retrieve it from the first semantic map to increase computation speed. If the semantic information pertains to a dynamic object, it can be retrieved from the second semantic map.
제2위치정보도출단계는 해당 시멘틱정보와 일치하는 상기 2D시멘틱맵 상에서의 시멘틱정보가 있는 경우 수행될 수 있다. The second location information derivation step can be performed when there is semantic information on the 2D semantic map that matches the corresponding semantic information.
상기 제2위치정보도출단계에서는, 상기 2D시멘틱맵 상에서의 시멘틱정보 및 해당 이미지데이터의 거리정보에 기초하여, 상기 2D시멘틱맵 상에서의 해당 물류운송로봇(2000)의 위치정보를 도출할 수 있다.In the second location information derivation step, the location information of the corresponding logistics transport robot (2000) on the 2D semantic map can be derived based on the semantic information on the 2D semantic map and the distance information of the corresponding image data.
상기 거리정보는 해당 물류운송로봇(2000)으로부터 객체까지의 거리에 해당할 수 있고, 예를 들어, 도 7에 도시된 바와 같이, 해당 물류운송로봇(2000)으로부터 객체 A까지의 거리 Nm 및 객체 B까지의 거리 Mm에 해당할 수 있고, 2D시멘틱맵에는 해당 2D시멘틱맵의 비율이 적용된 N'm 및 M'm로 표시될 수 있다.The above distance information may correspond to the distance from the corresponding logistics transport robot (2000) to the object, and for example, as shown in FIG. 7, it may correspond to the distance Nm from the corresponding logistics transport robot (2000) to object A and the distance Mm to object B, and may be displayed as N'm and M'm to which the ratio of the corresponding 2D semantic map is applied in the 2D semantic map.
본 발명의 일 실시예에 따르면, 해당 물류운송로봇(2000)으로부터 상기 객체 간의 거리정보를 반지름으로, 객체를 중심으로 원을 그렸을 때, 겹치는 부분을 해당 물류운송로봇(2000)의 위치정보로 도출할 수 있다.According to one embodiment of the present invention, when a circle is drawn with the object as the center and the distance information between the objects from the logistics transport robot (2000) as the radius, the overlapping portion can be derived as the location information of the logistics transport robot (2000).
본 발명의 다른 실시예에서는, 상기 제2정보조회단계(S322)에서는, 상기 검출된 정저객체정보 및 동적객체 중 1 이상을 상기 2D시멘틱맵에서 조회할 수 있고, 상기 제2위치정보도출단계에서는, 상기 검출된 정저객체정보 및 동적객체 중 1 이상이 상기 2D시멘틱맵 상에서 존재하는 경우, 상기 검출된 정저객체정보 및 동적객체 중 1 이상에 기초하여 상기 2D시멘틱맵 상에서의 해당 물류운송로봇(2000)의 위치정보를 도출할 수 있다.In another embodiment of the present invention, in the second information search step (S322), at least one of the detected static object information and dynamic objects can be searched in the 2D semantic map, and in the second location information derivation step, if at least one of the detected static object information and dynamic objects exists on the 2D semantic map, the location information of the corresponding logistics transport robot (2000) on the 2D semantic map can be derived based on at least one of the detected static object information and dynamic objects.
2. 물류운송로봇과 통신을 수행하는 서비스서버에서 수행하는 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템2. Method and system for implementing a digital twin for a logistics warehouse performed by a service server that communicates with a logistics transport robot.
상술한 바와 같이 본 발명의 서비스서버(1000)는 물류창고에 대한 정적객체 및 동적객체 중 1 이상 및 각각의 객체의 시멘틱정보를 포함하는 2D시멘틱맵을 구축할 수 있고, 이하에서는 본 발명의 물류운송로봇(2000)과 통신을 수행하는 서비스서버(1000)에서 수행하는 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템에 대해서 설명하도록 한다.As described above, the service server (1000) of the present invention can construct a 2D semantic map including at least one static object and dynamic object for a logistics warehouse and semantic information of each object. Hereinafter, a method and system for implementing a digital twin for a logistics warehouse performed by the service server (1000) that performs communication with the logistics transport robot (2000) of the present invention will be described.
도 9는 본 발명의 일 실시예에 따른 객체모델링생성단계를 개략적으로 도시한다.Figure 9 schematically illustrates an object modeling generation step according to one embodiment of the present invention.
도 9에 도시된 바와 같이, 상기 물류창고에 대한 디지털트윈을 구현하는 방법은 객체모델링생성단계를 더 포함하고, 상기 객체모델링생성단계는, 사용자단말(3000)로부터, 상기 정적객체 및 동적객체의 시멘틱정보에 해당하는 객체의 실제 형상과 상응하는 3D 모델링인 객체모델링을 수신하는 모델링수신단계; 및 상기 객체모델링을 해당 시멘틱정보와 매칭하여 저장하는 모델링저장단계;를 포함할 수 있다.As illustrated in FIG. 9, the method for implementing a digital twin for the logistics warehouse may further include an object modeling generation step, and the object modeling generation step may include a modeling reception step for receiving, from a user terminal (3000), an object modeling that is a 3D modeling corresponding to the actual shape of an object corresponding to the semantic information of the static object and the dynamic object; and a modeling storage step for matching and storing the object modeling with the corresponding semantic information.
본 발명에서는 생성된 2D시멘틱맵 상에 표시되는 객체 각각의 위치에 객체모델링을 배치하여 디지털트윈을 보다 쉽게 구현할 수 있다. 이를 위해서, 상기 서비스서버(1000)에는 시멘틱정보 각각에 대한 객체모델링이 저장되어 있을 수 있다. 상기 객체모델링은 사용자(사람) 혹은 서비스서버(1000)에 의해서 생성될 수 있고, 해당 객체의 실제 형상을 포함할 수 있다. The present invention facilitates the implementation of digital twins by placing object models at the locations of each object displayed on a generated 2D semantic map. To this end, the service server (1000) may store object models for each semantic piece of information. The object models may be generated by a user (person) or the service server (1000) and may include the actual shape of the corresponding object.
모델링수신단계에서 서비스서버(1000)는 상기 사용자에 의해서 생성된 객체모델링을 사용자단말(3000)로부터 수신할 수 있다. In the modeling reception step, the service server (1000) can receive object modeling created by the user from the user terminal (3000).
모델링저장단계에서 서비스서버(1000)는 상기 모델링수신단계에서 수신한 객체모델링을 상기 객체모델링에 해당하는 시멘틱정보에 매칭할 수 있다.In the modeling storage step, the service server (1000) can match the object modeling received in the modeling reception step to semantic information corresponding to the object modeling.
구체적으로, 상기 서비스서버(1000)에는 복수의 정적객체 및 동적객체가 저장되어 있고, 정적객체 혹은 동적객체에 각각에 대한 시멘틱정보가 저장되어 있고, 각각의 시멘틱정보에는 해당하는 객체모델링이 매칭될 수 있다. Specifically, the service server (1000) stores a plurality of static objects and dynamic objects, and semantic information is stored for each static object or dynamic object, and a corresponding object modeling can be matched to each semantic information.
예를 들어, 상기 서비스서버(1000)에는 동적객체로서 물류운송로봇(2000)이 상기 물류운송로봇(2000)에 해당하는 시멘틱정보로 저장되어 있을 수 있고, 상기 물류운송로봇(2000)에 상응하는 형상인 바퀴, 몸체, 복수의 카메라 등을 포함하는 객체모델링이 매칭될 수 있다.For example, in the service server (1000), a logistics transport robot (2000) as a dynamic object may be stored as semantic information corresponding to the logistics transport robot (2000), and an object modeling including wheels, a body, multiple cameras, etc., which are shapes corresponding to the logistics transport robot (2000) may be matched.
상기 객체모델링은, 인벤터, CATIA, 솔리드웍스, 라이노 등 3DCAD프로그램을 이용하여 생성한 3D 모델링에 해당할 수 있고, 상기 시멘틱정보에 상응하는 물체, 사람 등의 실제 형상에 상응한 형상일 수 있다.The above object modeling may correspond to 3D modeling created using a 3DCAD program such as Inventor, CATIA, Solidworks, or Rhino, and may be a shape corresponding to the actual shape of an object, person, etc. corresponding to the above semantic information.
본 발명의 일 실시예에 따르면, 서비스서버(1000)는 시멘틱정보에 대한 객체모델링을 저장하고, 2D시멘틱맵 상의 시멘틱정보에 기초하여 해당 위치에 객체모델링을 배치하므로, 디지털트윈을 구현하기 위한 연산 부하를 줄일 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, the service server (1000) stores object modeling for semantic information and places the object modeling at a corresponding location based on the semantic information on a 2D semantic map, thereby reducing the computational load for implementing a digital twin.
도 10은 본 발명의 일 실시예에 따른 디지털트윈구현단계(S400)를 개략적으로 도시한다.Figure 10 schematically illustrates a digital twin implementation step (S400) according to one embodiment of the present invention.
도 10에 도시된 바와 같이, 디지털트윈구현단계(S400)는, 상기 2D시멘틱맵에 위치하는 상기 객체 각각의 시멘틱정보에 기초하여, 상기 서비스서버(1000)에 기저장되어 있는 복수의 객체모델링 중 각각의 시멘틱정보에 해당하는 객체모델링을 상기 2D시멘틱맵 상의 해당 객체의 위치에 디스플레이하여 물류창고에 대한 디지털트윈을 구현할 수 있다.As illustrated in FIG. 10, the digital twin implementation step (S400) can implement a digital twin for a logistics warehouse by displaying an object modeling corresponding to each semantic information among a plurality of object models pre-stored in the service server (1000) at the location of the corresponding object on the 2D semantic map based on the semantic information of each object located on the 2D semantic map.
본 발명에서 디지털트윈은 기 생성된 2D시멘틱맵을 활용하여 구현할 수 있어, 복잡한 과정 없이 디지털트윈을 보다 쉽게 구현할 수 있는 효과를 발휘할 수 있다.In the present invention, a digital twin can be implemented by utilizing a pre-generated 2D semantic map, thereby achieving the effect of enabling easier implementation of a digital twin without a complicated process.
구체적으로, 상기 2D시멘틱맵은 정적객체 및 동적객체를 포함하는 객체, 상기 객체가 해당 위치에 표시될 수 있고, 서비스서버(1000)에는 해당 위치에 따른 각각의 객체에 대해 시멘틱정보, 및 상기 시멘틱정보에 매칭되어 있는 객체모델링이 저장되어 있을 수 있다.Specifically, the 2D semantic map may include objects including static objects and dynamic objects, the objects may be displayed at corresponding locations, and the service server (1000) may store semantic information for each object according to the corresponding location, and object modeling matching the semantic information.
서비스서버(1000)는 상기 2D시멘틱맵의 각각의 객체의 위치에, 해당 시멘틱정보의 객체모델링을 배치하여 디지털트윈을 구현할 수 있다.The service server (1000) can implement a digital twin by placing object modeling of the corresponding semantic information at the location of each object in the 2D semantic map.
도 10에 도시된 바와 같이, 정적객체 및 동적객체를 모두 포함하는 제2시멘틱맵은 A 내지 E에 해당하는 객체를 포함할 수 있고, 각각의 객체의 해당 시멘틱정보에 매칭되어 있는 객체모델링을 해당 객체의 위치에 배치할 수 있다.As illustrated in Fig. 10, the second semantic map including both static objects and dynamic objects can include objects corresponding to A to E, and object modeling matching the corresponding semantic information of each object can be placed at the location of the corresponding object.
도 10에서 제2시멘틱맵에, A의 위치에 해당 시멘틱정보인 기둥에 해당하는 객체모델링을 배치하고, B의 위치에 해당 시멘틱정보인 작업자에 해당하는 객체모델링을 배치하고, C의 위치에 해당 시멘틱정보인 선반 및 박스에 해당하는 객체모델링을 배치하고, D의 위치에 해당 시멘틱정보인 팔렛트에 해당하는 객체모델링을 배치하고, E의 위치에 해당 시멘틱정보인 벽에 해당하는 객체모델링을 배치하여, 디지털트윈을 구현할 수 있다.In Fig. 10, in the second semantic map, a digital twin can be implemented by placing an object modeling corresponding to a column, which is semantic information, at position A, an object modeling corresponding to a worker, which is semantic information, at position B, an object modeling corresponding to a shelf and box, which is semantic information, at position C, an object modeling corresponding to a pallet, which is semantic information, at position D, and an object modeling corresponding to a wall, which is semantic information, at position E.
즉, 상기 디지털트윈은 물류운송로봇(2000)으로부터 수신하는 2D라이다데이터 및 이미지데이터에 기초하여 실시간으로 업데이트되는 2D시멘틱맵에 따라서, 실제 물류창고와 동기화 되어 상기 디지털트윈 상의 객체모델링이 동작될 수 있다. 이에 따라, 사용자단말(3000)에는 실시간 디지털트윈이 디스플레이될 수 있다.That is, the digital twin can be synchronized with an actual logistics warehouse and object modeling on the digital twin can be performed according to a 2D semantic map that is updated in real time based on 2D lidar data and image data received from a logistics transport robot (2000). Accordingly, a real-time digital twin can be displayed on the user terminal (3000).
도 11은 본 발명의 일 실시예에 따른 로봇학습데이터생성단계(S500)를 개략적으로 도시한다.Figure 11 schematically illustrates a robot learning data generation step (S500) according to one embodiment of the present invention.
도 11에 도시된 바와 같이, 로봇학습데이터생성단계(S500)는, 상기 디지털트윈에 기초하여, 객체모델링으로 디스플레이되는 가상의 객체를 추가한, 상기 디지털트윈과 달라진 환경 및 조건을 형성하는, 학습디지털트윈을 구현하고, 상기 학습디지털트윈에서 동작하는 가상의 물류운송로봇(2000)을 배치하여, 상기 학습디지털트윈이 포함하는 객체와 인터랙션하는 가상의 물류운송로봇(2000)에 대한 로봇학습데이터를 생성할 수 있고, 상기 로봇학습데이터생성단계(S500)에서 추가되는 상기 가상의 객체는 정적객체 및 동적객체 중 1 이상을 포함하고, 상기 가상의 객체에 해당하는 동적객체는, 기설정된 동작규칙 혹은 학습된 인공신경망 기반 객체학습모델에 의해서 동작될 수 있다.As illustrated in FIG. 11, the robot learning data generation step (S500) implements a learning digital twin that forms an environment and conditions different from the digital twin by adding a virtual object displayed by object modeling based on the digital twin, and deploys a virtual logistics transport robot (2000) that operates in the learning digital twin, thereby generating robot learning data for the virtual logistics transport robot (2000) that interacts with an object included in the learning digital twin, and the virtual object added in the robot learning data generation step (S500) includes at least one of a static object and a dynamic object, and the dynamic object corresponding to the virtual object can be operated by a preset operation rule or a learned artificial neural network-based object learning model.
도 11의 (A)는 로봇학습데이터생성단계(S500)의 세부를 도시화한 도면에 해당한다.Figure 11 (A) is a drawing illustrating the details of the robot learning data generation step (S500).
본 발명에서는 물류창고에 상응하는 디지털트윈에 가상의 객체를 추가하여 학습데이터를 도출할 수 있다.In the present invention, learning data can be derived by adding a virtual object to a digital twin corresponding to a logistics warehouse.
구체적으로, 상기 디지털트윈에 해당하는 물류창고에는 없는 가상의 객체를 추가할 수 있고, 상기 디지털트윈과는 다른 환경 및 조건을 추가하여 학습디지털트윈을 구현할 수 있다.Specifically, a virtual object that does not exist in the logistics warehouse corresponding to the digital twin can be added, and a learning digital twin can be implemented by adding an environment and conditions different from the digital twin.
상기 가상의 객체는 사용자에 의해서 위치가 정해져 배치될 수 있다. 이에 따라서, 학습디지털트윈은 상기 디지털트윈과 환경 및 조건이 변경될 수 있다.The above virtual objects can be positioned and placed by the user. Accordingly, the learning digital twin can change its environment and conditions.
또한, 상기 환경 및 조건을 변경하기 위해서, 각각의 동적객체의 속도, 각각의 객체의 크기 위치 등을 변화시킬 수 있다.Additionally, in order to change the above environment and conditions, the speed of each dynamic object, the size and position of each object, etc. can be changed.
서비스서버(1000)는 상기 학습디지털트윈에 객체모델링으로 가시화하여 물류운반로봇을 배치할 수 있고, 상기 학습디지털트윈에 배치된 물류운반로봇은 상기 사용자단말(3000) 혹은 로봇학습모델에 의해서 동작될 수 있다.The service server (1000) can place a logistics transport robot in the learning digital twin by visualizing it through object modeling, and the logistics transport robot placed in the learning digital twin can be operated by the user terminal (3000) or the robot learning model.
본 발명의 일 실시예에 따르면, 도 10에 도시된 바와 같이, 상기 사용자단말(3000)에는 상기 학습디지털트윈이 상기 학습디지털트윈에 배치된 물류운반로봇의 1인칭 시점으로 디스플레이(A)될 수 있고, 상기 사용자단말(3000)에 의해서 상기 학습디지털트윈에 배치된 물류운반로봇은 상기 학습디지털트윈 내에서 동작될 수 있다.According to one embodiment of the present invention, as illustrated in FIG. 10, the learning digital twin can be displayed (A) on the user terminal (3000) as a first-person viewpoint of a logistics transport robot placed in the learning digital twin, and the logistics transport robot placed in the learning digital twin can be operated within the learning digital twin by the user terminal (3000).
상기 학습디지털트윈에 배치된 물류운반로봇은 상기 학습디지털트윈이 포함하는 객체들과 인터랙션할 수 있고, 이에 따라 물류운반로봇의 동작에 대한 로봇학습데이터가 생성될 수 있다.The logistics transport robot deployed in the above learning digital twin can interact with objects included in the above learning digital twin, and accordingly, robot learning data on the operations of the logistics transport robot can be generated.
도 11의 (B)는 가상의 객체의 세부를 도시화한 도면에 해당한다.Figure 11 (B) corresponds to a drawing depicting the details of a virtual object.
상기 가상의 객체는 정적객체 및 동적객체를 포함할 수 있다. 즉, 상기 학습디지털트윈에 추가되는 가상의 객체는 정적객체 및 동적객체 중 1 이상을 포함할 수 있다.The above virtual object may include static objects and dynamic objects. That is, the virtual object added to the learning digital twin may include one or more of a static object and a dynamic object.
추가된 동적객체는 기설정된 동작규칙 혹은 객체학습모델에 의해서 동작할 수 있어, 상기 학습디지털트윈에 환경 및 조건을 부여할 수 있는 효과를 발휘할 수 있다.The added dynamic object can operate according to preset operation rules or object learning models, and thus can exert the effect of providing an environment and conditions to the learning digital twin.
상기 기설정된 동작규칙은 동적객체의 속도, 동작 경로 등을 포함할 수 있고, 상기 객체학습모델에 의해서 동작하는 동적객체는 자율주행에 해당할 수 있다.The above preset motion rules may include the speed, motion path, etc. of the dynamic object, and the dynamic object that operates by the object learning model may correspond to autonomous driving.
상기 객체학습모델은 CNN, DNN, 캡슐네트워크(CapsNet) 등 1 이상의 학습된 인공신경망을 포함하는 추론모델을 포함할 수 있고, 상기 로봇학습데이터에 의해서 학습될 수 있다.The above object learning model may include an inference model including one or more learned artificial neural networks such as CNN, DNN, and CapsNet, and may be learned by the robot learning data.
상기 객체학습모델은 실시간으로 업데이트되는 2D시멘틱맵에 따라서, 물류창고 내의 객체의 동작을 실시간으로 구현하는 디지털트윈 상의 객체모델링의 동작정보를 추출하여 학습시킬 수 있다. 즉, 실제 객체들의 동작정보를 추출하여 상기 객체학습모델에 학습시킬 수 있다.The above object learning model can learn by extracting motion information from object modeling on a digital twin that implements the motion of objects within a logistics warehouse in real time according to a 2D semantic map that is updated in real time. In other words, motion information of actual objects can be extracted and taught to the object learning model.
도 12는 본 발명의 일 실시예에 따른 학습디지털트윈을 개략적으로 도시한다.Figure 12 schematically illustrates a learning digital twin according to one embodiment of the present invention.
도 12에 도시된 바와 같이, 상기 학습디지털트윈은 제1학습트윈 및 제2학습트윈을 포함하고, 상기 제1학습트윈은, 상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현되고, 상기 제2학습트윈은, 상기 디지털트윈이 포함하는 기존의 객체 일부 혹은 전체를 변경하여, 변경된 객체에 대한 변경된 객체모델링을 포함하고, 상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현될 수 있다.As illustrated in FIG. 12, the learning digital twin includes a first learning twin and a second learning twin, and the first learning twin is implemented by adding a virtual object to the digital twin and adding object modeling corresponding to the virtual object, and the second learning twin is implemented by changing some or all of an existing object included in the digital twin and including changed object modeling for the changed object, and adding the virtual object to the digital twin and adding object modeling corresponding to the virtual object.
학습디지털트윈은 제1학습트윈 및 제2학습트윈을 포함할 수 있다.A learning digital twin may include a first learning twin and a second learning twin.
상기 제1학습트윈은 상기 디지털트윈구현단계(S400)에서 구현한 디지털트윈에 가상의 객체를 추가한 것에 해당할 수 있다.The above first learning twin may correspond to a virtual object added to the digital twin implemented in the digital twin implementation step (S400).
상기 제2학습트윈은 상기 디지털트윈구현단계(S400)에서 구현한 디지털트윈이 포함하는 객체를 변경하고, 상기 디지털트윈이 포함하는 객체를 변경하여 생성된, 변경된 디지털트윈에 가상의 객체를 추가한 것에 해당할 수 있다.The above second learning twin may correspond to a digital twin created by changing an object included in the digital twin implemented in the digital twin implementation step (S400) and adding a virtual object to the changed digital twin created by changing the object included in the digital twin.
상기 변경된 디지털트윈은 기존의 디지털트윈이 포함하는 객체의 크기, 속도, 동작 경로, 개수, 위치, 시멘틱정보(종류) 등을 변경한 변경된 객체를 포함할 수 있다. 변경된 객체의 위치에 상기 변경된 객체에 해당하는 변경된 객체모델링을 배치하여 제2학습트윈을 구현할 수 있다.The above-mentioned modified digital twin may include a modified object that has changed the size, speed, motion path, number, location, semantic information (type), etc. of the object included in the existing digital twin. A second learning twin can be implemented by placing a modified object model corresponding to the modified object at the location of the modified object.
도 13는 본 발명의 일 실시예에 따른 로봇학습데이터생성단계(S500)의 세부단계를 개략적으로 도시한다.Figure 13 schematically illustrates detailed steps of a robot learning data generation step (S500) according to one embodiment of the present invention.
도 13에 도시된 바와 같이, 상기 로봇학습데이터생성단계(S500)는, 상기 환경 및 조건을 포함하는 기설정된 시나리오에 기초하여, 가상의 객체를 추가하여 학습디지털트윈을 구현하는 시나리오구현단계(S510); 상기 가상의 물류운송로봇(2000)을 상기 학습디지털트윈 상에 배치하고, 상기 가상의 물류운송로봇(2000)으로부터, 상기 가상의 물류운송로봇(2000)이 해당 시나리오를 수행하며 상기 학습디지털트윈이 포함하는 객체와 인터랙션한 인터랙션데이터를 수신하는 시나리오수행단계(S520); 및 상기 인터랙션데이터를 기초로 로봇학습데이터를 생성하는 학습데이터생성단계(S530);를 포함할 수 있다.As illustrated in FIG. 13, the robot learning data generation step (S500) may include a scenario implementation step (S510) of implementing a learning digital twin by adding a virtual object based on a preset scenario including the environment and conditions; a scenario execution step (S520) of placing the virtual logistics transport robot (2000) on the learning digital twin and receiving interaction data from the virtual logistics transport robot (2000) in which the virtual logistics transport robot (2000) performs the corresponding scenario and interacts with an object included in the learning digital twin; and a learning data generation step (S530) of generating robot learning data based on the interaction data.
로봇학습데이터생성단계(S500)는 시나리오구현단계(S510), 시나리오수행단계(S520) 및 학습데이터생성단계를 포함할 수 있다. 상기 로봇학습데이터생성단계(S500)는 서비스서버(1000)에 의해서 수행되므로, 상기 시나리오구현단계(S510), 시나리오수행단계(S520) 및 학습데이터생성단계(S530)는 서비스서버(1000)에 의해서 수행될 수 있다.The robot learning data generation step (S500) may include a scenario implementation step (S510), a scenario execution step (S520), and a learning data generation step. Since the robot learning data generation step (S500) is performed by the service server (1000), the scenario implementation step (S510), the scenario execution step (S520), and the learning data generation step (S530) may be performed by the service server (1000).
구체적으로, 시나리오구현단계(S510)에서는 시나리오에 기초하여 가상의 객체를 추가할 수 있다.Specifically, in the scenario implementation step (S510), a virtual object can be added based on the scenario.
상기 시나리오는 물류창고에 대한 환경 및 조건을 포함할 수 있고, 물류운송로봇(2000)이 수행해야하는 과제를 포함할 수 있다. The above scenario may include the environment and conditions for a logistics warehouse and may include tasks to be performed by a logistics transport robot (2000).
상기 환경 및 조건은 객체의 종류, 속도, 크기, 개수 등이 포함될 수 있고, 상기 과제는 상기 물류운송로봇(2000)이 물류창고 내에서 수행해야 하는 작업에 해당할 수 있다. 예를 들면, 물류운송로봇(2000)이 평소보다 2배인 환경 및 1.5배 빠른 조건에서, 특정 구역의 특정 물건을 가지고 오는 과제 등에 해당할 수 있다. The above environment and conditions may include the type, speed, size, and number of objects, and the above task may correspond to a task that the logistics transport robot (2000) must perform within a logistics warehouse. For example, the task may involve the logistics transport robot (2000) retrieving a specific item from a specific area under conditions of an environment that is twice as dense and 1.5 times as fast as usual.
본 발명의 일 실시예에서는, 상기 시나리오구현단계(S510)에서 상기 시나리오에 따라 필요한 가상의 객체를 추가할 수 있다. 즉, 상기 제1학습트윈을 구현할 수 있다.In one embodiment of the present invention, in the scenario implementation step (S510), necessary virtual objects can be added according to the scenario. That is, the first learning twin can be implemented.
본 발명의 다른 실시예에서는, 상기 시나리오구현단계(S510)에서 상기 시나리오에 따라 필요한 가상의 객체를 추가하고, 기존의 디지털트윈의 객체를 변경하여 변경된 객체를 생성할 수 있다. 즉, 상기 제2학습트윈을 구현할 수 있다.In another embodiment of the present invention, in the scenario implementation step (S510), necessary virtual objects can be added according to the scenario, and objects of an existing digital twin can be modified to create modified objects. In other words, the second learning twin can be implemented.
이어서, 시나리오수행단계(S520)에서는 상기 제1학습트윈 혹은 제2학습트윈 상을 포함하는 학습디지털트윈에, 가상의 물류운송로봇(2000)을 배치할 수 있고, 상기 가상의 물류운송로봇(2000)은 상기 학습디지털트윈 상에서 해당 시나리오가 포함하는 과제를 수행하며, 상기 학습디지털트윈이 포함하는 객체들과 인터랙션한 인터랙션데이터를 생성하면, 서비스서버(1000)는 상기 인터랙션데이터를 수신할 수 있다.Next, in the scenario execution step (S520), a virtual logistics transport robot (2000) can be placed in the learning digital twin including the first learning twin or the second learning twin, and the virtual logistics transport robot (2000) performs the task included in the scenario on the learning digital twin, and when interaction data is generated by interacting with objects included in the learning digital twin, the service server (1000) can receive the interaction data.
상기 가상의 물류운송로봇(2000)은 사용자단말(3000)의 조작 혹은 로봇학습모델에 의해서 동작될 수 있다. 즉, 상기 로봇학습모델에 의해서 동작되는 가상의 물류운송로봇(2000)은 자율주행에 해당할 수 있다.The above virtual logistics transport robot (2000) can be operated by the operation of a user terminal (3000) or a robot learning model. That is, the virtual logistics transport robot (2000) operated by the above robot learning model can correspond to autonomous driving.
상기 로봇학습모델은 CNN, DNN, 캡슐네트워크(CapsNet) 등 1 이상의 학습된 인공신경망을 포함하는 추론모델을 포함할 수 있고, 상기 로봇학습데이터 및 상기 동작정보에 의해서 학습될 수 있다.The above robot learning model may include an inference model including one or more learned artificial neural networks such as CNN, DNN, and CapsNet, and may be learned by the robot learning data and the motion information.
상기 인터랙션데이터는 상기 가상의 물류운송로봇(2000)의 주변의 객체에 따라서 상기 가상의 물류운송로봇(2000)이 반응하여 대처한 동작 데이터에 해당할 수 있다. 예를 들어, 앞에 갑작스럽게 사람이 나타나면 대처한 동작 등이 해당할 수 있다. The above interaction data may correspond to the action data that the virtual logistics transport robot (2000) reacts to and responds to objects surrounding the virtual logistics transport robot (2000). For example, this may correspond to the action taken when a person suddenly appears in front of the robot.
학습데이터생성단계(S530)에서 서비스서버(1000)는 상기 인터랙션데이터를 기초로, 로봇학습데이터를 생성할 수 있다. 상기 로봇학습데이터는 상기 로봇학습모델 등과 같이 물류운송로봇(2000)을 동작시키는 DNN 등을 포함하는 학습된 인공신경망 추론모델을 학습시킬 수 있는 데이터에 해당할 수 있다.In the learning data generation step (S530), the service server (1000) can generate robot learning data based on the interaction data. The robot learning data may correspond to data capable of training a learned artificial neural network inference model, including a DNN that operates a logistics transport robot (2000), such as the robot learning model.
상기 로봇학습데이터는 인터랙션데이터에 학습디지털트윈에 대한 상황데이터, 조건데이터, 환경데이터 등 상기 가상의 물류운송로봇(2000)의 주변의 데이터를 포함하여 생성할 수 있다. 즉, 상기 로봇학습데이터는 어떠한 상황에서 어떠하게 반응하여야 되는지에 대한 자율주행을 가능하게 하는 데이터에 해당할 수 있다.The above robot learning data can be generated by including data surrounding the virtual logistics transport robot (2000), such as situational data, conditional data, and environmental data for the learning digital twin, in the interaction data. In other words, the robot learning data can correspond to data that enables autonomous driving, such as how to react in certain situations.
본 발명의 일 실시예에 따르면, 물류창고에 상응하는 디지털트윈에 물류창고에는 없는 가상의 객체를 추가하여 학습디지털트윈을 구현하여 다양한 환경 및 조건을 부여한 시나리오를 구현할 수 있으므로, 다양한 상황 및 조건에 따른 로봇학습데이터를 생성할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a learning digital twin can be implemented by adding a virtual object that does not exist in the logistics warehouse to a digital twin corresponding to the logistics warehouse, thereby implementing a scenario with various environments and conditions, thereby generating robot learning data according to various situations and conditions.
도 14은 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 개략적으로 도시한다.Figure 14 schematically illustrates the internal configuration of a computing device according to one embodiment of the present invention.
상술한 도 1에 도시된 서비스서버(1000) 및 사용자단말(3000)은 상기 도 14에 도시된 컴퓨팅장치(11000)의 구성요소들을 포함할 수 있다.The service server (1000) and user terminal (3000) illustrated in the above-described FIG. 1 may include components of the computing device (11000) illustrated in the above-described FIG. 14.
도 14에 도시된 바와 같이, 컴퓨팅장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅장치(11000)는 도 1에 도시된 서비스서버(1000) 및 사용자단말(3000)에 해당될 수 있다.As illustrated in FIG. 14, the computing device (11000) may include at least one processor (11100), memory (11200), peripheral interface (11300), input/output subsystem (I/Osubsystem) (11400), power circuit (11500), and communication circuit (11600). In this case, the computing device (11000) may correspond to the service server (1000) and user terminal (3000) illustrated in FIG. 1.
메모리(11200)는 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory (11200) may include, for example, high-speed random access memory, a magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. The memory (11200) may include software modules, instruction sets, or other various data necessary for the operation of the computing device (11000).
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.At this time, access to the memory (11200) from other components such as the processor (11100) or peripheral interface (11300) may be controlled by the processor (11100).
주변장치 인터페이스(11300)는 컴퓨팅장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral interface (11300) may couple input and/or output peripherals of the computing device (11000) to the processor (11100) and memory (11200). The processor (11100) may execute software modules or instruction sets stored in the memory (11200) to perform various functions for the computing device (11000) and process data.
입/출력 서브시스템은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem can couple various input/output peripherals to the peripheral interface (11300). For example, the input/output subsystem can include a controller for coupling peripherals such as a monitor, a keyboard, a mouse, a printer, or, as needed, a touchscreen or sensor to the peripheral interface (11300). In another aspect, the input/output peripherals can be coupled to the peripheral interface (11300) without going through the input/output subsystem.
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit (11500) may supply power to all or part of the components of the terminal. For example, the power circuit (11500) may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or any other components for power generation, management, and distribution.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅장치와 통신을 가능하게 할 수 있다.The communication circuit (11600) may enable communication with another computing device using at least one external port.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit (11600) may enable communication with other computing devices by transmitting and receiving RF signals, also known as electromagnetic signals, including RF circuits, as needed.
이러한 도 14의 실시예는, 컴퓨팅장치(11000)의 일례일 뿐이고, 컴퓨팅장치(11000)는 도 14에 도시된 일부 컴포넌트가 생략되거나, 도 14에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅장치는 도 14에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(11600)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 14 is only an example of a computing device (11000), and the computing device (11000) may have some components illustrated in FIG. 14 omitted, may further include additional components not illustrated in FIG. 14, or may have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor, in addition to the components illustrated in FIG. 14, and may include a circuit for RF communication of various communication methods (WiFi, 3G, LTE, Bluetooth, NFC, Zigbee, etc.) in the communication circuit (11600). Components that can be included in the computing device (11000) may be implemented as hardware including one or more signal processing or application-specific integrated circuits, software, or a combination of both hardware and software.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 어플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 서비스서버(1000) 혹은 사용자단말(3000)에 설치될 수 있다. 일 예로, 파일 배포 시스템은 서비스서버(1000) 혹은 사용자단말(3000)의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded on a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application exclusively for mobile terminals. The application to which the present invention is applied may be installed on a service server (1000) or a user terminal (3000) through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request from the service server (1000) or the user terminal (3000).
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be implemented using one or more general-purpose computers or special-purpose computers, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding to them. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Furthermore, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For ease of understanding, the processing device is sometimes described as being used alone; however, one of ordinary skill in the art will recognize that the processing device may include multiple processing elements and/or multiple types of processing elements. For example, a processing unit may include multiple processors, or a processor and a controller. Other processing configurations, such as parallel processors, are also possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, and may configure a processing device to perform a desired operation or, independently or collectively, command the processing device. The software and/or data may be permanently or temporarily embodied in any type of machine, component, physical device, virtual equipment, computer storage medium or device, or transmitted signal wave for interpretation by the processing device or for providing instructions or data to the processing device. The software may also be distributed across network-connected computing devices and stored or executed in a distributed manner. The software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program commands, data files, data structures, etc., alone or in combination. The program commands recorded on the medium may be those specially designed and configured for the embodiment or may be those known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program commands, such as ROMs, RAMs, and flash memories. Examples of the program commands include not only machine language codes generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiment, and vice versa.
본 발명의 일 실시예에 따르면, 정적객체, 동적객체, 각각의 시멘틱정보 및 위치정보를 포함한 2D시멘틱맵을 구축하므로, 상기 2D시멘틱맵이 포함하는 정보를 기반으로 동작하는 자동화된 물류운송로봇을 제공하고, 궁극적으로는 물류 자동화를 이룰 수 있는 토대를 마련하는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a 2D semantic map including static objects, dynamic objects, semantic information and location information of each is constructed, thereby providing an automated logistics transport robot that operates based on information included in the 2D semantic map, and ultimately providing an effect of laying the foundation for achieving logistics automation.
본 발명의 일 실시예에 따르면, 물류운송로봇에 의해 수집된 2D라이다데이터 및 이미지데이터를 기초로 동적객체를 도출하므로, 해당 동적객체에 대한 위치정보를 도출할 수 있어, 별도의 장치(GPS, Marker 등) 추가 없이 움직이는 객체에 대한 위치를 파악할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since a dynamic object is derived based on 2D lidar data and image data collected by a logistics transport robot, location information for the dynamic object can be derived, thereby achieving the effect of being able to identify the location of a moving object without adding a separate device (GPS, Marker, etc.).
본 발명의 일 실시예에 따르면, 이미지카메라 및 2D라이다에 의해 데이터를 수집하고 처리하므로, 처리해야되는 데이터의 양이 적고, 복잡한 알고리즘이 필요하지 않아 데이터처리 속도가 빠르고, 보다 저렴하게 2D시멘틱맵을 구축할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since data is collected and processed by an image camera and a 2D lidar, the amount of data to be processed is small, no complex algorithm is required, so the data processing speed is fast and a 2D semantic map can be constructed more cheaply.
본 발명의 일 실시예에 따르면, 2D시멘틱맵은 정적객체, 동적객체, 각각의 시멘틱정보 및 위치정보를 포함하므로, 보다 경량화된 2D맵을 제공할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a 2D semantic map includes static objects, dynamic objects, and semantic information and location information of each, and thus can provide an effect of providing a more lightweight 2D map.
본 발명의 일 실시예에 따르면, 물류운송로봇이 수신한 실시간 데이터로 정적객체 및 동적객체를 검출할 수 있으므로, 물류운송로봇이 객체를 회피할 수 있게 정보를 제공하는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since a logistics transport robot can detect static objects and dynamic objects using real-time data received, it can have the effect of providing information that enables the logistics transport robot to avoid objects.
본 발명의 일 실시예에 따르면, 2D시멘틱맵에 기초하여 정적객체 및 동적객체를 도출하므로, 정적객체 및 동적객체가 혼재되어 있는 물류창고에서의 객체 인식의 오류를 감소시킬 수 있고, 객체의 정확한 위치를 파악할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, since static objects and dynamic objects are derived based on a 2D semantic map, errors in object recognition in a logistics warehouse where static objects and dynamic objects are mixed can be reduced, and the effect of being able to determine the exact location of an object can be achieved.
본 발명의 일 실시예에 따르면, 서비스서버는 시멘틱정보에 대한 객체모델링을 저장하고, 2D시멘틱맵 상의 시멘틱정보에 기초하여 해당 위치에 객체모델링을 배치하므로, 디지털트윈을 구현하기 위한 연산 부하를 줄일 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, the service server stores object modeling for semantic information and places the object modeling at a corresponding location based on the semantic information on a 2D semantic map, thereby reducing the computational load for implementing a digital twin.
본 발명의 일 실시예에 따르면, 실시간으로 업데이트 되는 2D시멘틱맵을 기초로 디지털트윈을 구현하므로, 해당 물류창고와 실시간으로 동기화된 디지털트윈을 제공할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a digital twin is implemented based on a 2D semantic map that is updated in real time, thereby providing an effect of providing a digital twin that is synchronized in real time with the corresponding logistics warehouse.
본 발명의 일 실시예에 따르면, 디지털트윈 상에서 객체들과 인터랙션하는 가상의 물류운송로봇의 동작으로부터 실제 물류운송로봇에 대한 로봇학습데이터를 도출하여 학습시킬 수 있으므로, 물류자동화를 이룰 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, robot learning data for an actual logistics transport robot can be derived and trained from the operations of a virtual logistics transport robot interacting with objects on a digital twin, thereby achieving the effect of achieving logistics automation.
본 발명의 일 실시예에 따르면, 사용자단말은 디지털트윈 상의 물류운송로봇 및 실제 물류운송로봇을 조작할 수 있으므로, 원격으로 물류운송로봇을 제어하여 학습데이터를 생성할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, a user terminal can operate a logistics transport robot on a digital twin and an actual logistics transport robot, thereby achieving the effect of generating learning data by remotely controlling the logistics transport robot.
본 발명의 일 실시예에 따르면, 디지털트윈 상에서 물류운송로봇에 대한 학습데이터를 생성할 수 있으므로, 물류운송로봇의 학습에 대한 운용 비용을 줄이고 효율적으로 시간을 사용할 수 있는 효과를 발휘할 수 있다.According to one embodiment of the present invention, learning data for a logistics transport robot can be generated on a digital twin, thereby reducing the operating cost for learning of the logistics transport robot and enabling efficient use of time.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments described above have been described by way of limited examples and drawings, those skilled in the art will appreciate that various modifications and variations can be made based on the above teachings. For example, appropriate results can still be achieved even if the described techniques are performed in a different order than described, and/or components of the described systems, structures, devices, circuits, etc. are combined or combined in a different manner than described, or are replaced or substituted with other components or equivalents.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims also fall within the scope of the claims described below.
Claims (6)
상기 물류운송로봇은,
2D라이다데이터를 수집할 수 있는 2D라이다카메라, 및 이미지데이터를 수집할 수 있는 이미지카메라를 포함하고,
물류운송로봇으로부터 상기 2D라이다데이터 및 이미지데이터를 수신하고, 상기 2D라이다데이터, 및 이미지데이터를 기초로 정적객체 및 동적객체를 검출하는 정보검출단계;
상기 정보검출단계에서 검출된, 물류창고 내부에 위치하는 정적객체, 혹은 정적객체와 동적객체를 기초로, 상기 물류창고에 대한 평면적 지오메트리, 및 평면적 지오메트리 내에 위치하는 상기 정적객체 및 동적객체를 포함하는 객체에 대한 시멘틱(semantic)정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵구축단계;
상기 2D시멘틱맵에 위치하는 상기 객체 각각의 시멘틱정보에 기초하여, 상기 서비스서버에 기저장되어 있는 복수의 객체모델링 중 각각의 시멘틱정보에 해당하는 객체의 클래스 및 객체의 실제 형상과 상응하는 3D 모델링인 객체모델링을 상기 2D시멘틱맵 상의 해당 객체의 위치에 디스플레이하여 물류창고에 대한 디지털트윈을 실시간으로 구현하는 디지털트윈구현단계; 및
상기 디지털트윈에 기초하여, 객체모델링으로 디스플레이되는 가상의 객체를 추가한, 상기 디지털트윈과 달라진 환경 및 조건을 형성하는, 학습디지털트윈을 실시간으로 구현하고, 상기 학습디지털트윈에서 동작하는 가상의 물류운송로봇을 배치하여, 상기 학습디지털트윈이 포함하는 객체와 인터랙션하는 가상의 물류운송로봇에 대한 로봇학습데이터를 생성하는 로봇학습데이터생성단계;를 포함하고,
상기 로봇학습데이터는 학습디지털트윈에 대한 상황데이터, 조건데이터, 환경데이터 및 인터랙션데이터를 포함하고,
상기 인터랙션데이터는 상기 상황데이터, 조건데이터, 및 환경데이터에 따라 기설정된 시나리오에 기초하여 상기 가상의 물류운송로봇이 상기 학습디지털트윈이 포함하는 객체의 동작에 따라 반응하여 대처한 동작을 포함하는 동작데이터에 해당하고,
상기 학습디지털트윈은 제1학습트윈 및 제2학습트윈을 포함하고,
상기 제1학습트윈은,
상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현되고,
상기 제2학습트윈은,
상기 기설정된 시나리오에 따라 상기 디지털트윈이 포함하는 기존의 객체 일부 혹은 전체를 변경하여, 변경된 객체에 대한 변경된 객체모델링을 포함하고, 상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현되고,
상기 2D시멘틱맵구축단계는,
상기 정보검출단계에서 물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터에 대해서 검출된 정적객체 및 동적객체를 기초로, 연속적으로 획득된 정적객체 및 동적객체에 의해서 시작점부터 연속적으로 정적객체 및 동적객체를 해당 위치에 출력하여 상기 물류창고에 대한 평면적 지오메트리인 그리드맵을 도출하는 그리드맵도출단계;
물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터에 대해서 검출된 정적객체 및 동적객체를 기초로 각각의 시멘틱정보를 도출하는 시멘틱정보도출단계; 및
상기 그리드맵 내에 위치하는 정적객체 및 동적객체를 포함하는 객체에 대해서, 해당 객체의 정적객체 혹은 동적객체에 해당하는 시멘틱정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵합성단계;를 포함하는, 물류창고에 대한 디지털트윈을 구현하는 방법.
A method for implementing a digital twin for a logistics warehouse performed by a service server that communicates with a logistics transport robot.
The above logistics transport robot is,
It includes a 2D lidar camera capable of collecting 2D lidar data and an image camera capable of collecting image data.
An information detection step of receiving the 2D lidar data and image data from a logistics transport robot and detecting static objects and dynamic objects based on the 2D lidar data and image data;
A 2D semantic map construction step for constructing a 2D semantic map including semantic information on objects including the static objects and dynamic objects located within the logistics warehouse and the planar geometry of the logistics warehouse based on the static objects, or the static objects and dynamic objects located within the planar geometry, detected in the above information detection step;
A digital twin implementation step for implementing a digital twin for a logistics warehouse in real time by displaying an object modeling that is a 3D modeling corresponding to the class and actual shape of an object corresponding to each semantic information among a plurality of object models pre-stored in the service server based on the semantic information of each object located in the 2D semantic map; and
A robot learning data generation step is included, which creates a learning digital twin in real time by adding a virtual object displayed by object modeling based on the digital twin, forming an environment and conditions different from the digital twin, and deploying a virtual logistics transport robot operating in the learning digital twin to generate robot learning data for the virtual logistics transport robot interacting with the object included in the learning digital twin.
The above robot learning data includes situation data, condition data, environmental data, and interaction data for the learning digital twin.
The above interaction data corresponds to motion data including the motion in which the virtual logistics transport robot reacts and responds to the motion of the object included in the learning digital twin based on a pre-set scenario according to the situation data, condition data, and environment data.
The above learning digital twin includes a first learning twin and a second learning twin,
The above first learning twin is,
The virtual object is added to the digital twin and object modeling corresponding to the virtual object is added and implemented.
The above second learning twin is,
According to the above-described scenario, some or all of the existing objects included in the digital twin are changed, and the changed object modeling for the changed objects is included, and the virtual object is added to the digital twin, and the object modeling corresponding to the virtual object is added and implemented.
The above 2D semantic map construction step is:
A grid map derivation step for deriving a grid map, which is a planar geometry for the logistics warehouse, by sequentially outputting static objects and dynamic objects to the corresponding positions from a starting point based on the static objects and dynamic objects detected for the 2D lidar data and image data for the entire interior of the logistics warehouse in the above information detection step;
A semantic information derivation step for deriving semantic information for each static object and dynamic object detected from 2D lidar data and image data for the entire interior of the logistics warehouse; and
A method for implementing a digital twin for a logistics warehouse, comprising a 2D semantic map synthesis step of constructing a 2D semantic map including semantic information corresponding to the static object or dynamic object of an object including static objects and dynamic objects located within the above grid map.
상기 물류창고에 대한 디지털트윈을 구현하는 방법은 객체모델링생성단계를 더 포함하고,
상기 객체모델링생성단계는,
사용자단말로부터, 상기 정적객체 및 동적객체의 시멘틱정보에 해당하는 객체의 실제 형상과 상응하는 3D 모델링인 객체모델링을 수신하는 모델링수신단계; 및
상기 객체모델링을 해당 시멘틱정보와 매칭하여 저장하는 모델링저장단계;를 포함하는, 물류창고에 대한 디지털트윈을 구현하는 방법.
In claim 1,
The method for implementing a digital twin for the above logistics warehouse further includes an object modeling generation step,
The above object modeling creation step is,
A modeling reception step for receiving, from a user terminal, an object modeling corresponding to the actual shape of an object corresponding to the semantic information of the static object and dynamic object, which is a 3D modeling; and
A method for implementing a digital twin for a logistics warehouse, comprising a modeling storage step of matching the above object modeling with the corresponding semantic information and storing it.
상기 로봇학습데이터생성단계는,
상기 환경 및 조건을 포함하는 기설정된 시나리오에 기초하여, 가상의 객체를 추가하여 학습디지털트윈을 구현하는 시나리오구현단계;
상기 가상의 물류운송로봇을 상기 학습디지털트윈 상에 배치하고, 상기 가상의 물류운송로봇으로부터, 상기 가상의 물류운송로봇이 해당 시나리오를 수행하며 상기 학습디지털트윈이 포함하는 객체와 인터랙션한 인터랙션데이터를 수신하는 시나리오수행단계; 및
상기 인터랙션데이터를 기초로 로봇학습데이터를 생성하는 학습데이터생성단계;를 포함하는, 물류창고에 대한 디지털트윈을 구현하는 방법.
In claim 1,
The above robot learning data generation step is:
A scenario implementation step for implementing a learning digital twin by adding a virtual object based on a preset scenario including the above environment and conditions;
A scenario execution step of placing the virtual logistics transport robot on the learning digital twin and receiving interaction data from the virtual logistics transport robot in which the virtual logistics transport robot performs the scenario and interacts with an object included in the learning digital twin; and
A method for implementing a digital twin for a logistics warehouse, comprising a learning data generation step of generating robot learning data based on the above interaction data.
상기 서비스서버는 위치정보도출단계를 더 수행하고,
상기 위치정보도출단계는,
이동형로봇으로부터 수신한 실시간 2D라이다데이터 및 이미지데이터로부터 해당 이동형로봇 인근의 정적객체 및 동적객체 중 1 이상을 검출하고, 검출된 정보를 기초로 상기 2D시멘틱맵에 조회함으로써, 상기 2D시멘틱맵 상에서 해당 이동형로봇의 위치정보를 도출하고,
상기 서비스서버는 2D라이다데이터 및 이미지데이터를 기초로 기설정된 규칙에 의해 정적객체 및 동적객체를 검출하고,
상기 기설정된 규칙은,
상기 2D라이다데이터 및 이미지데이터로부터 객체를 검출하고, 상기 객체를 상기 2D시멘틱맵에서 검색하여, 상기 객체가 정적객체 혹은 동적객체인지 판단하는 규칙에 해당하는, 물류창고에 대한 디지털트윈을 구현하는 방법.
In claim 1,
The above service server further performs the location information derivation step,
The above location information derivation step is,
Detecting at least one static object and dynamic object near the mobile robot from real-time 2D lidar data and image data received from the mobile robot, and searching the 2D semantic map based on the detected information to derive location information of the mobile robot on the 2D semantic map,
The above service server detects static and dynamic objects based on 2D lidar data and image data according to preset rules.
The above preset rules are:
A method for implementing a digital twin for a logistics warehouse, which detects an object from the above 2D lidar data and image data, searches for the object in the above 2D semantic map, and determines whether the object is a static object or a dynamic object based on a rule.
상기 물류운송로봇은,
2D라이다데이터를 수집할 수 있는 2D라이다카메라, 및 이미지데이터를 수집할 수 있는 이미지카메라를 포함하고,
상기 서비스서버는,
물류운송로봇으로부터 상기 2D라이다데이터 및 이미지데이터를 수신하고, 상기 2D라이다데이터, 및 이미지데이터를 기초로 정적객체 및 동적객체를 검출하는 정보검출부;
상기 정보검출부에서 검출된, 물류창고 내부에 위치하는 정적객체, 혹은 정적객체와 동적객체를 기초로, 상기 물류창고에 대한 평면적 지오메트리, 및 평면적 지오메트리 내에 위치하는 상기 정적객체 및 동적객체를 포함하는 객체에 대한 시멘틱(semantic)정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵구축부;
상기 2D시멘틱맵에 위치하는 상기 객체 각각의 시멘틱정보에 기초하여, 상기 서비스서버에 기저장되어 있는 복수의 객체모델링 중 각각의 시멘틱정보에 해당하는 객체의 클래스 및 객체의 실제 형상과 상응하는 3D 모델링인 객체모델링을 상기 2D시멘틱맵 상의 해당 객체의 위치에 디스플레이하여 물류창고에 대한 디지털트윈을 실시간으로 구현하는 디지털트윈구현부; 및
상기 디지털트윈에 기초하여, 객체모델링으로 디스플레이되는 가상의 객체를 추가한, 상기 디지털트윈과 달라진 환경 및 조건을 형성하는, 학습디지털트윈을 실시간으로 구현하고, 상기 학습디지털트윈에서 동작하는 가상의 물류운송로봇을 배치하여, 상기 학습디지털트윈이 포함하는 객체와 인터랙션하는 가상의 물류운송로봇에 대한 로봇학습데이터를 생성하는 로봇학습데이터생성부;를 포함하고,
상기 로봇학습데이터는 학습디지털트윈에 대한 상황데이터, 조건데이터, 환경데이터 및 인터랙션데이터를 포함하고,
상기 인터랙션데이터는 상기 상황데이터, 조건데이터, 및 환경데이터에 따라 기설정된 시나리오에 기초하여 상기 가상의 물류운송로봇이 상기 학습디지털트윈이 포함하는 객체의 동작에 따라 반응하여 대처한 동작을 포함하는 동작데이터에 해당하고,
상기 학습디지털트윈은 제1학습트윈 및 제2학습트윈을 포함하고,
상기 제1학습트윈은,
상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현되고,
상기 제2학습트윈은,
상기 기설정된 시나리오에 따라 상기 디지털트윈이 포함하는 기존의 객체 일부 혹은 전체를 변경하여, 변경된 객체에 대한 변경된 객체모델링을 포함하고, 상기 디지털트윈에 상기 가상의 객체를 추가하여 상기 가상의 객체에 해당하는 객체모델링이 추가되어 구현되고,
상기 2D시멘틱맵구축부는,
상기 정보검출부에서 물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터에 대해서 검출된 정적객체 및 동적객체를 기초로, 연속적으로 획득된 정적객체 및 동적객체에 의해서 시작점부터 연속적으로 정적객체 및 동적객체를 해당 위치에 출력하여 상기 물류창고에 대한 평면적 지오메트리인 그리드맵을 도출하는 그리드맵도출단계;
물류창고 내부 전체에 대한 2D라이다데이터 및 이미지데이터에 대해서 검출된 정적객체 및 동적객체를 기초로 각각의 시멘틱정보를 도출하는 시멘틱정보도출단계; 및
상기 그리드맵 내에 위치하는 정적객체 및 동적객체를 포함하는 객체에 대해서, 해당 객체의 정적객체 혹은 동적객체에 해당하는 시멘틱정보를 포함하는 2D시멘틱맵을 구축하는 2D시멘틱맵합성단계;를 수행하는, 물류창고에 대한 디지털트윈을 구현하는 시스템.
A system for implementing a digital twin for a logistics warehouse, including a logistics transport robot and a service server that communicates with the logistics transport robot.
The above logistics transport robot is,
It includes a 2D lidar camera capable of collecting 2D lidar data and an image camera capable of collecting image data.
The above service server,
An information detection unit that receives the 2D lidar data and image data from a logistics transport robot and detects static objects and dynamic objects based on the 2D lidar data and image data;
A 2D semantic map construction unit that constructs a 2D semantic map including semantic information on objects including the static objects and dynamic objects located within the logistics warehouse and the planar geometry of the logistics warehouse based on the static objects, or the static objects and dynamic objects located within the logistics warehouse, detected by the information detection unit;
A digital twin implementation unit that implements a digital twin for a logistics warehouse in real time by displaying an object modeling that is a 3D modeling corresponding to the class and actual shape of an object corresponding to each semantic information among a plurality of object models pre-stored in the service server based on the semantic information of each object located in the 2D semantic map; and
A robot learning data generation unit is provided, which creates a learning digital twin in real time by adding a virtual object displayed by object modeling based on the digital twin, forming an environment and conditions different from the digital twin, and deploying a virtual logistics transport robot operating in the learning digital twin to generate robot learning data for the virtual logistics transport robot interacting with the object included in the learning digital twin.
The above robot learning data includes situation data, condition data, environmental data, and interaction data for the learning digital twin.
The above interaction data corresponds to motion data including the motion in which the virtual logistics transport robot reacts and responds to the motion of the object included in the learning digital twin based on a pre-set scenario according to the situation data, condition data, and environment data.
The above learning digital twin includes a first learning twin and a second learning twin,
The above first learning twin is,
The virtual object is added to the digital twin and object modeling corresponding to the virtual object is added and implemented.
The above second learning twin is,
According to the above-described scenario, some or all of the existing objects included in the digital twin are changed, and the changed object modeling for the changed objects is included, and the virtual object is added to the digital twin, and the object modeling corresponding to the virtual object is added and implemented.
The above 2D semantic map construction unit,
A grid map derivation step for deriving a grid map, which is a planar geometry for the logistics warehouse, by outputting static objects and dynamic objects to the corresponding positions from a starting point based on static objects and dynamic objects detected from 2D lidar data and image data for the entire interior of the logistics warehouse in the above information detection unit;
A semantic information derivation step for deriving semantic information for each static object and dynamic object detected from 2D lidar data and image data for the entire interior of the logistics warehouse; and
A system for implementing a digital twin for a logistics warehouse, which performs a 2D semantic map synthesis step of constructing a 2D semantic map including semantic information corresponding to the static object or dynamic object of an object including static objects and dynamic objects located within the above grid map.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220169586A KR102890784B1 (en) | 2022-12-07 | 2022-12-07 | Method and System for Realizing Digital Twin for Warehouse Using 2D Semantic Map and Object Modeling |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220169586A KR102890784B1 (en) | 2022-12-07 | 2022-12-07 | Method and System for Realizing Digital Twin for Warehouse Using 2D Semantic Map and Object Modeling |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20240084845A KR20240084845A (en) | 2024-06-14 |
| KR102890784B1 true KR102890784B1 (en) | 2025-11-25 |
Family
ID=91482104
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020220169586A Active KR102890784B1 (en) | 2022-12-07 | 2022-12-07 | Method and System for Realizing Digital Twin for Warehouse Using 2D Semantic Map and Object Modeling |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102890784B1 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118438467B (en) * | 2024-07-08 | 2024-09-17 | 成都信息工程大学 | Application method of robot indoor inspection system based on dynamic digital twin |
| CN118586805B (en) * | 2024-08-06 | 2024-10-29 | 北京鑫平物流有限公司 | Industrial Internet of things management system and method for express logistics transportation |
| CN119692937A (en) * | 2024-12-03 | 2025-03-25 | 重庆华服人力资源管理有限公司 | A digital archive management system and method |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102420462B1 (en) * | 2021-12-13 | 2022-07-13 | 세종대학교산학협력단 | Collaborative learning method using digital twin |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9811074B1 (en) * | 2016-06-21 | 2017-11-07 | TruPhysics GmbH | Optimization of robot control programs in physics-based simulated environment |
| GB2589843B (en) * | 2019-11-19 | 2022-06-15 | Move Ai Ltd | Real-time system for generating 4D spatio-temporal model of a real-world environment |
| KR102833918B1 (en) * | 2021-05-24 | 2025-07-15 | 한국전자통신연구원 | System for managing robot based on digital twin and method for interworking between heterogeneous digital twins |
-
2022
- 2022-12-07 KR KR1020220169586A patent/KR102890784B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102420462B1 (en) * | 2021-12-13 | 2022-07-13 | 세종대학교산학협력단 | Collaborative learning method using digital twin |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20240084845A (en) | 2024-06-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102890784B1 (en) | Method and System for Realizing Digital Twin for Warehouse Using 2D Semantic Map and Object Modeling | |
| Kuric et al. | Development of simulation software for mobile robot path planning within multilayer map system based on metric and topological maps | |
| US20220121837A1 (en) | Pose determination by autonomous robots in a facility context | |
| Haj Darwish et al. | Using the Bees Algorithm for wheeled mobile robot path planning in an indoor dynamic environment | |
| US11880209B2 (en) | Electronic apparatus and controlling method thereof | |
| Kenk et al. | Human-aware Robot Navigation in Logistics Warehouses. | |
| Damjanović et al. | A comprehensive survey on SLAM and machine learning approaches for indoor autonomous navigation of mobile robots | |
| KR20240085303A (en) | Control Reinforcement Learning Method and System for Digital Twin-Based Logistics Transportation Robots | |
| Nguyen et al. | MoDeT: a low-cost obstacle tracker for self-driving mobile robot navigation using 2D-laser scan | |
| Chen et al. | Social crowd navigation of a mobile robot based on human trajectory prediction and hybrid sensing | |
| Kohlbrecher et al. | Towards highly reliable autonomy for urban search and rescue robots | |
| Ioannidis et al. | A path planning method based on cellular automata for cooperative robots | |
| KR20240094141A (en) | High-speed SLAM Positioning Method and System Using 2D lidar Data and Image Data | |
| Liu et al. | Enhancing autonomous exploration for robotics via real time map optimization and improved frontier costs | |
| KR102909978B1 (en) | Method and Service Server for Controlling Operations on Picking Robots | |
| KR102909980B1 (en) | Method and service server for generating learning data for picking robots | |
| Guo et al. | Object goal visual navigation using semantic spatial relationships | |
| Vokhmintsev et al. | Robot path planning algorithm based on symbolic tags in dynamic environment | |
| Schlegel et al. | Building a navigation system for a shopping assistant robot from off-the-shelf components | |
| Macias et al. | Simultaneous localization and mapping using an RGB-D camera for autonomous mobile robot navigation | |
| Denisov et al. | Dcegen: dense clutter environment generation tool for autonomous 3d exploration and coverage algorithms testing | |
| KR20230091396A (en) | Robot and method of navigating a path in a robot | |
| Maletić et al. | Spatial-Semantic Reasoning using Large Language Models for Efficient UAV Search Operations | |
| Priyandoko et al. | Mapping and Navigation for Indoor Robot Using Multiple Sensor Under ROS Framework | |
| Najem et al. | Object Classification Using 2D-LiDAR and YOLO for Robot Navigation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E90F | Notification of reason for final refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| D22 | Grant of ip right intended |
Free format text: ST27 STATUS EVENT CODE: A-1-2-D10-D22-EXM-PE0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |