WO2025089587A1 - Cargo unloading automation method based on cargo vision recognition and computing device for performing same - Google Patents
Cargo unloading automation method based on cargo vision recognition and computing device for performing same Download PDFInfo
- Publication number
- WO2025089587A1 WO2025089587A1 PCT/KR2024/012427 KR2024012427W WO2025089587A1 WO 2025089587 A1 WO2025089587 A1 WO 2025089587A1 KR 2024012427 W KR2024012427 W KR 2024012427W WO 2025089587 A1 WO2025089587 A1 WO 2025089587A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- cargo
- loaded
- unloading
- point cloud
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G67/00—Loading or unloading vehicles
- B65G67/02—Loading or unloading land vehicles
- B65G67/24—Unloading land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G59/00—De-stacking of articles
- B65G59/02—De-stacking from the top of the stack
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G61/00—Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2201/00—Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
- B65G2201/02—Articles
- B65G2201/0285—Postal items, e.g. letters, parcels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/02—Control or detection
- B65G2203/0208—Control or detection relating to the transported articles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/04—Detection means
- B65G2203/042—Sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2814/00—Indexing codes relating to loading or unloading articles or bulk materials
- B65G2814/03—Loading or unloading means
- B65G2814/0301—General arrangements
- B65G2814/0308—Destacking devices
- B65G2814/031—Removing from the top
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2814/00—Indexing codes relating to loading or unloading articles or bulk materials
- B65G2814/03—Loading or unloading means
- B65G2814/0301—General arrangements
- B65G2814/0311—Other article loading or unloading devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Definitions
- An embodiment of the present invention relates to a cargo unloading automation technology.
- the present invention is derived from research conducted as part of the Robot Industry Core Technology Development Project of the Ministry of Trade, Industry and Energy - Inter-ministerial Cooperation Robot Product Technology (Project Unique Number: 1415168943, Subproject Number: 20009109, Research Project Name: Development of a Trunk Freight Logistics Vehicle Unloading Work System Using a Robot, Organized by: Korea Industrial Technology Evaluation and Planning Institute, Research Period: 2020.05.01 ⁇ 2024.12.31).
- trunk cargo trucks at hub terminals are usually loaded with about 2,000 pieces of cargo per truck, and two workers must unload them all within one hour. This is the most intense of the various tasks at the parcel hub terminal, and is a task that workers avoid. Therefore, the development of a robot system that can automate the unloading work of trunk cargo trucks is required.
- the purpose of the present invention is to provide an automated cargo unloading method capable of recognizing cargo in a loading compartment and automatically unloading it, and a computing device for performing the same.
- a cargo unloading automation method is provided, which is performed in a cargo unloading automation machine including one or more processors and a memory storing one or more programs executed by the one or more processors, comprising: a step of obtaining an RGB image and a depth image of loaded cargoes using an RGB-D (Red Green Blue Depth) sensor; a step of obtaining a point cloud of the loaded cargoes based on at least one of the RGB image and the depth image; a step of obtaining boundary information of individual cargoes from the RGB image; and a step of recognizing regular cargoes and irregular cargoes of the loaded cargoes based on the depth image, the point cloud, and the boundary information, respectively.
- RGB-D Red Green Blue Depth
- the step of obtaining the above boundary information obtains boundary information of individual cargo from the RGB image using a deep learning-based object segmentation model, and the object segmentation model may be a model learned to detect individual cargo in a state where regular cargo and irregular cargo are mixedly loaded and to detect the boundary of each cargo.
- the above-described recognizing step may include, in the case of a regular cargo among the loaded cargoes, a step of performing a polyhedral transformation on a point cloud of the corresponding cargo to obtain a main plane of the corresponding cargo; a step of obtaining an outline of the corresponding cargo based on a point cloud on a boundary line projected onto the main plane; and a step of performing a rotation caliper along the obtained outline to estimate the position, direction, and size of a three-dimensional oriented bounding box of the corresponding cargo.
- the above-mentioned recognizing step may include, in the case of irregular cargo among the loaded cargoes, a step of obtaining a segmented point cloud by merging the boundary line with a point cloud obtained from inside the boundary line of the corresponding cargo; and a step of estimating the position, direction, and size of the corresponding cargo based on the segmented point cloud.
- a computing device comprises: one or more processors; a memory; and one or more programs, wherein the one or more programs are stored in the memory and are configured to be executed by the one or more processors, wherein the one or more programs include: a command for obtaining an RGB image and a depth image of loaded cargoes using an RGB-D (Red Green Blue Depth) sensor; a command for obtaining a point cloud of the loaded cargoes based on at least one of the RGB image and the depth image; a command for obtaining boundary information of individual cargoes from the RGB image; and a command for recognizing regular cargoes and irregular cargoes of the loaded cargoes based on the depth image, the point cloud, and the boundary information, respectively.
- RGB-D Red Green Blue Depth
- a cargo unloading automation machine has a pair of robot arm devices capable of multi-axis rotation and movement, and since the robot arm devices have an unloading conveyor belt, an adsorption means, and a clamp means, the machine operates in various unloading modes, such as a down sweep mode, a side sweep mode, an adsorption mode, and a clamping mode, depending on the position of the loaded cargo, the loading pattern of the cargo, the type of the cargo, etc., so that the loaded cargo can be unloaded easily and quickly.
- unloading modes such as a down sweep mode, a side sweep mode, an adsorption mode, and a clamping mode
- the speed of cargo recognition can be increased by recognizing each individual cargo without a separate 3D model conversion process based on the RGB image and depth image of the loaded cargo, and regular cargo and irregular cargo can be recognized separately.
- Figures 1 and 2 are a front perspective view and a bottom perspective view showing an automated cargo unloading machine according to one embodiment of the present invention.
- FIG. 3 is a perspective view showing a robot arm device according to one embodiment of the present invention.
- FIG. 4 is a drawing showing each axis part of the arm unit of a robot arm device according to one embodiment of the present invention.
- FIGS. 5 and 6 are perspective views showing one side and the other side of a hand unit according to one embodiment of the present invention.
- Figures 7a and 7b are drawings showing a state in which the suction pad part moves forward in one embodiment of the present invention.
- Figures 8a and 8b are drawings showing a state in which the clamping part moves forward in one embodiment of the present invention.
- FIGS. 9 to 15c are drawings showing the operation of a cargo unloading automation machine according to one embodiment of the present invention unloading loaded cargo from a loading box.
- FIG. 16 is a drawing showing a process of determining an unloading mode in an automated cargo unloading method according to one embodiment of the present invention.
- FIG. 17 is a flow chart showing a method for recognizing individual loaded cargo in a cargo unloading automation method according to one embodiment of the present invention.
- FIG. 18 is a diagram showing a state in which labeling is performed on learning data for learning an object segmentation model in one embodiment of the present invention.
- FIG. 19 is a drawing showing the result of object segmentation using an RGB image of a loaded cargo and an object segmentation model in one embodiment of the present invention.
- Figure 20 is a drawing showing a process of recognizing regular cargo and irregular cargo in one embodiment of the present invention.
- FIG. 21 is a block diagram illustrating a computing environment including a computing device suitable for use in exemplary embodiments.
- directional terms such as upper, lower, one side, the other side, etc. are used in connection with the orientation of the disclosed drawings. Since the components of the embodiments of the present invention may be positioned in various orientations, directional terms are used for illustrative purposes and not for limitation.
- FIGS. 1 and 2 are a front perspective view and a bottom perspective view showing an automated cargo unloading machine according to one embodiment of the present invention.
- the cargo unloading automation machine (100) may include a robot arm device (102), a conveyor device (104), a track device (106), and a main body frame (108).
- the cargo unloading automatic machine (100) is for unloading cargo (hereinafter, referred to as loaded cargo) loaded in a loading box (50) or transporting it after unloading.
- the loading box (50) may be a loading box mounted on a cargo vehicle (e.g., a trunk cargo vehicle, etc.) or may be a container.
- the cargo unloading automatic machine (100) may unload the loaded cargo in the loading box (50) at the entrance of the loading box (50), or may enter the interior of the loading box (50) and unload the loaded cargo in the loading box.
- the cargo unloading automation machine (100) may include various sensor equipment (e.g., vision sensor or Lidar or vision and Lidar fusion sensor, scanner, etc.) to recognize cargo loading pattern, cargo loading location, cargo type, etc. and determine cargo unloading mode accordingly.
- sensor equipment e.g., vision sensor or Lidar or vision and Lidar fusion sensor, scanner, etc.
- the robot arm device (102) may be provided on both sides of the main body frame (108). That is, the robot arm devices (102) may be provided as a pair on both sides of the main body frame (108).
- the robot arm devices (102) may be provided to operate as a pair like human arms to unload various types of cargo, such as boxes, vinyl pouches, and sacks, that are piled in bulk form in a loading bin.
- the robot arm device (102) may unload the loaded cargo in the loading bin toward the conveyor device (104).
- a conveyor device (104) may be mounted on the main body frame (108).
- the conveyor device (104) may be provided along the length direction of the robot arm device (102) on the main body frame (108).
- the conveyor device (104) may serve to transport a loaded cargo unloaded by the robot arm device (102) to the rear of the main body frame (108).
- the conveyor device (104) can operate in conjunction with the robot arm device (102).
- the front end of the conveyor device (104) can be provided so that its height is adjusted according to the operation of the robot arm device (102). At this time, the front end of the conveyor device (104) can be adjusted in height according to the height of the loaded cargo to be unloaded by the robot arm device (102).
- the track device (106) may be provided at the bottom of the main body frame (108).
- the track device (106) may play a role in moving the cargo unloading automation machine (100). That is, the track device (106) may move the cargo unloading automation machine (100) to the entrance of the loading box or cause it to enter the inside of the loading box.
- the moving means of the cargo unloading automation machine (100) is described as the track device (106) here, it is not limited thereto, and it is obvious that a wheel-type moving means may also be included.
- the main body frame (108) can serve to support the cargo unloading automation machine (100).
- the main body frame (108) can be provided in various shapes that can support the cargo unloading automation machine (100), and its shape is not limited.
- the main body frame (108) can be provided to support the robot arm device (102).
- the main body frame (108) can be provided to support the conveyor device (104).
- the main body frame (108) can be connected to the track device (106) at the upper portion of the track device (106).
- the main body frame (108) may be equipped with a power box (108a) that provides power to the cargo unloading automation machine (100) and includes circuit devices that control the operation of the cargo unloading automation machine (100).
- the main body frame (108) may be equipped with a hydraulic tank (108b) for providing hydraulic pressure to at least one of the robot arm device (102) and the track device (106).
- the main body frame (108) may be equipped with at least one monitor (108c) for checking the operation of the cargo unloading automation machine (100).
- FIG. 3 is a perspective view showing a robot arm device (102) according to one embodiment of the present invention
- FIG. 4 is a drawing showing each axis part of the arm unit of the robot arm device (102) according to one embodiment of the present invention.
- the robotic arm device (102) may include an arm unit (111) and a hand unit (113).
- the robot arm device (102) can be operated in an unloading mode determined according to one or more of a loading pattern of cargo in a loading box, a loading location of cargo, and a type of cargo.
- the unloading mode is an operation mode for unloading cargo in a loading box, and for example, the unloading mode can include a down sweep mode, a side sweep mode, a suction mode, and a clamping mode.
- the arm unit (111) may be mounted on both sides of the main body frame (108).
- the arm unit (111) may be provided to enable multi-axis rotation.
- the arm unit (111) may be provided to enable forward and backward movement.
- the arm unit (111) may be provided to perform multi-axis rotation and forward or backward movement simultaneously.
- the arm unit (111) may be configured to have six degrees of freedom.
- the arm unit (111) may include a first axis portion (111-1), a second axis portion (111-2), a third axis portion (111-3), a fourth axis portion (111-4), a fifth axis portion (111-5), and a sixth axis portion (111-6).
- the first shaft part (111-1) may be mounted on the main body frame (108).
- the first shaft part (111-1) may be provided to be rotatable in a first direction (1).
- the second shaft part (111-2) may be provided to be connected to the first shaft part (111-1).
- the second shaft part (111-2) may be provided to be rotatable in a second direction (2).
- the third shaft part (111-3) may be provided to be connected to the second shaft part (111-2).
- the third shaft part (111-3) may be provided to be capable of moving forward and backward along the third direction (3).
- the fourth axis part (111-4) may be provided connected to the third axis part (111-3).
- the fourth axis part (111-4) may be provided so as to be rotatable in the fourth direction (4).
- the fifth axis part (111-5) may be provided connected to the fourth axis part (111-4).
- the fifth axis part (111-5) may be provided so as to be rotatable in the fifth direction (5).
- the sixth axis part (111-6) may be provided connected to the fifth axis part (111-5).
- the sixth axis part (111-6) may be provided so as to be rotatable in the sixth direction (6).
- the first direction (1) to the sixth direction (6) may be different directions from each other. In this case, the arm unit (111) can move forward and backward while rotating in the five axial directions.
- the hand unit (113) may be provided connected to the end of the arm unit (111).
- the hand unit (113) is a portion that comes into contact with the loaded cargo and is a portion that unloads the loaded cargo toward the conveyor device (104).
- the hand unit (113) may be provided connected to the sixth axis portion (111-6). Since the hand unit (113) is connected to the arm unit (111), the hand unit (113) can move forward and backward while rotating in five axial directions together with the arm unit (111) according to the operation of the arm unit (111). In this way, since the robot arm device (102) is provided to have six degrees of freedom, it is possible to cover the entire range within the loading box and unload the loaded cargo.
- FIGS 5 and 6 are perspective views showing one side and the other side of a hand unit (113) according to one embodiment of the present invention.
- the hand unit (113) may include a disembarkation conveyor belt (121), an adsorption means (123), and a clamp means (125).
- An unloading conveyor belt (121) may be mounted on one side of the hand unit (113).
- the unloading conveyor belt (121) may be provided along the length direction of the arm unit (111).
- the unloading conveyor belt (121) may be provided to rotate in a certain direction.
- the unloading conveyor belt (121) may be provided in a loop shape to rotate cyclically.
- the unloading conveyor belt (121) may be arranged to rotate toward the main body frame (108) (i.e., inwardly). That is, the unloading conveyor belt (121) of each hand unit (113) of a pair of robot arm devices (102) may be arranged to rotate toward the main body frame (108).
- the unloading conveyor belt (121) As the pair of unloading conveyor belts (121) rotate toward the main body frame (108), the loaded cargoes that come into contact with the pair of unloading conveyor belts (121) between the pair of unloading conveyor belts (121) are swept toward the main body frame (108) and unloaded toward the conveyor device (104). That is, the unloading conveyor belt (121) is used in a sweep mode and can be used when the unloading mode of the robot arm device (102) is a down sweep mode or a side sweep mode.
- a rough pattern portion (121a) may be formed on the surface of the unloading conveyor belt (121) to increase friction with the loaded cargo when sweeping the loaded cargo.
- the rough pattern portion (121a) may be provided in a form that protrudes from the surface of the unloading conveyor belt (121), but is not limited thereto.
- a plurality of rough pattern portions (121a) may be provided at regular intervals along the length direction of the unloading conveyor belt (121).
- the other side of the hand unit (113) may be provided with a suction means (123) and a clamp means (125), respectively.
- a suction means (123) and a clamp means (125) When the robot arm device (102) is likened to a human arm, the other side of the hand unit (113) may be likened to the back of the hand.
- the suction means (123) and the clamp means (125) may be arranged vertically, respectively, on the other side of the hand unit (113).
- the suction means (123) and the clamp means (125) may be provided along the longitudinal direction of the hand unit (113), respectively.
- the suction means (123) and the clamp means (125) may be mounted to the hand unit (113) via a hand bracket (127). Both sides of the hand bracket (127) may be fixed to both sides of the unloading conveyor belt (121). The hand bracket (127) may be provided between the unloading conveyor belt (121) and the suction means (123) and the clamp means (125).
- the suction means (123) can play a role in sucking and unloading the loaded cargo in the loading box. That is, the suction means (123) can be used when the unloading mode of the robot arm device (102) is the suction mode.
- the suction means (123) can be arranged to move forward and backward along the longitudinal direction of the hand unit (113).
- the suction means (123) can include a suction pad portion (123a) and a suction drive portion (123b).
- the suction pad section (123a) is a section that absorbs the loaded cargo.
- a plurality of suction pad sections (123a) may be provided.
- One end of each of the plurality of suction pad sections (123a) may be fixed to a mounting plate (123a-2).
- the mounting plate (123a-2) may be connected to the suction drive section (123b).
- the suction pad section (123a) is illustrated as being provided in a plurality of pieces, but is not limited thereto.
- a suction cup (123a-1) for vacuum-absorbing a loaded cargo may be provided at the end of the suction pad section (123a).
- the suction cup (123a-1) may be provided in a Javara shape so as to be able to bend in various directions, but its shape is not limited thereto.
- the suction drive unit (123b) may be provided to move the suction pad unit (123a) forward and backward.
- the suction drive unit (123b) may include a vacuum generator so that the suction pad unit (123a) absorbs the loaded cargo.
- Figures 7a and 7b are drawings showing a state in which the suction pad part (123a) moves forward in one embodiment of the present invention.
- the suction drive part (123b) can move the suction pad part (123a) forward in the suction mode to suction the loaded cargo.
- the suction drive part (123b) can move the suction pad part (123a) that has unloaded the suctioned loaded cargo backward to return it to its original position.
- the suction pad part (123a) moves forward to absorb the loaded cargo, but it is not limited to this, and the hand unit (111) may move toward the loaded cargo while the suction pad part (123a) is fixed, and then the loaded cargo may be absorbed through the suction pad part (123a).
- the clamp means (125) can play a role in picking up and unloading a loaded cargo within a loading compartment. That is, the clamp means (125) can be used when the unloading mode of the robot arm device (102) is a clamping mode. For example, the clamp means (125) can be arranged to move forward and backward along the longitudinal direction of the hand unit (113).
- the clamp means (125) can include a clamping portion (125a) and a clamp driving portion (125b).
- the clamping part (125a) is a part that picks up the loaded cargo.
- the type of the loaded cargo may be a sack. That is, the clamping part (125a) may be provided to pick up a sack among the loaded cargo.
- the end of the clamping part (125a) may be provided in the form of a pair of tongs.
- the clamp driving part (125b) may be provided to move the clamping part (125a) forward and backward.
- Figures 8a and 8b are drawings showing a state in which the clamping part (125a) moves forward in one embodiment of the present invention.
- the clamp driving part (125b) can move the clamping part (125a) forward in the clamping mode to pick up the loaded cargo.
- the clamp driving part (125b) can move the clamping part (125a) that has unloaded the loaded cargo backward to return it to its original position.
- the clamping part (125a) moves forward to pick up the loaded cargo, but it is not limited to this, and it may be arranged that the hand unit (111) moves toward the loaded cargo while the clamping part (125a) is fixed and then the loaded cargo is clamped through the clamping part (125a).
- FIGS. 9 to 15c are drawings showing the operation of an automated cargo unloading machine according to one embodiment of the present invention unloading loaded cargo from a loading bin.
- the cargo unloading automation machine (100) can recognize the distance to the cargo, the cargo loading pattern, the cargo loading position, and the type of cargo through a vision sensor, etc. At this time, the cargo unloading automation machine (100) can move toward the cargo according to the distance from the cargo. The cargo unloading automation machine (100) can sequentially unload the cargo according to the height of the loaded cargo.
- the cargo unloading automation machine (100) can adjust the front end height of the conveyor device (104) according to the loading height of the cargo.
- the cargo unloading automation machine (100) can adjust the front end height of the conveyor device (104) based on the height of the cargo located at the top among the loaded cargo. That is, since the robot arm device (102) unloads the cargo located at the top among the loaded cargo, the front end height of the conveyor device (104) can be adjusted to a height that can safely receive the cargo located at the top among the loaded cargo.
- the cargo unloading automation machine (100) can position the robot arm device (102) above the cargo in order to unload the cargo located at the top among the loaded cargo.
- the robot arm device (102) can operate in a down sweep mode to unload the cargo located at the top.
- the robot arm device (102) can unload the cargo located at the outermost part among the cargo located at the top among the loaded cargo in the down sweep mode, but is not limited thereto.
- the robot arm device (102) is shown in a state in which the cargo located at the top among the loaded cargo is unloaded toward the conveyor device (104) through the down sweep mode.
- the down sweep mode may mean an operation mode in which the unloading conveyor belt (121) of the hand unit (113) is positioned to face the target cargo (i.e., the cargo to be unloaded) from above the target cargo (i.e., the surface of the unloading conveyor belt (121) faces the upper surface of the target cargo from above the target cargo) and the unloading conveyor belt (121) is rotated toward the main body frame (108) to sweep down the target cargo.
- both of the unloading conveyor belts (121) may operate in the down sweep mode, or only one of them may operate in the down sweep mode.
- the robot arm device (102) is shown in a state of unloading loaded cargo through a side sweep mode.
- the robot arm device (102) may unload cargo located at the outermost end among the loaded cargoes located at the top end in a down sweep mode, and then unload cargoes located at the center end in a side sweep mode.
- the present invention is not limited thereto, and if the cargo located at the top end among the loaded cargoes is in a box shape and an entry space for the robot arm device (102) is secured on the side of the cargo located at the top end, the robot arm device (102) may operate in the side sweep mode to unload the cargo.
- the side sweep mode may mean an operation mode in which one or more target cargoes are positioned between a pair of unloading conveyor belts (121), and a pair of unloading conveyor belts (121) are positioned to face the target cargo (i.e., cargo to be unloaded) on both sides of the target cargo (i.e., a state in which the surface of the unloading conveyor belt (121) faces the side of the target cargo on the side of the target cargo) and the pair of unloading conveyor belts (121) are rotated toward the main body frame (108) to sweep down the target cargo.
- the target cargo i.e., cargo to be unloaded
- the pair of unloading conveyor belts (121) are rotated toward the main body frame (108) to sweep down the target cargo.
- the robot arm device (102) can cause the hand unit (113) to enter the side space of the loaded cargo (FIG. 13a).
- the robot arm device (102) can arrange a pair of unloading conveyor belts (121) of the hand unit (113) to face the side of the target cargo (FIG. 13b).
- the robot arm device (102) can rotate the pair of unloading conveyor belts (121) toward the main body frame (108) to unload the target cargo downward (FIG. 13c).
- the cargo unloading automation machine (100) can continue to operate in a side sweep mode while bringing the pair of robot arm devices (102) inward to each other as the loaded cargo is unloaded.
- the cargo unloading automation machine (100) can operate the robot arm device (102) in the clamping mode depending on the type of cargo to be unloaded. For example, if the type of cargo to be unloaded is a cargo that can be held through a clamping means (125), such as a sack or pouch, the cargo unloading automation machine (100) can operate the robot arm device (102) in the clamping mode.
- a clamping means such as a sack or pouch
- the robot arm device (102) can move the hand unit (113) toward the target cargo and then grab the target cargo through the clamping part (125a) of the clamping means (125) (Fig. 14b). At this time, the clamping part (125a) can also be moved forward depending on the distance from the target cargo. Next, the robot arm device (102) can pull the target cargo down to unload the target cargo (Fig. 14c).
- FIGS. 15A to 15C a state in which the robot arm device (102) unloads a loaded cargo through the suction mode is illustrated.
- the robot arm device (102) can unload a cargo through the suction mode depending on at least one of the loading height of the cargo and the type of the cargo. For example, when the target cargo is located at the bottom or top and the cargo is in the shape of a box, the robot arm device (102) can unload the target cargo through the suction mode.
- FIGS. 15A to 15C illustrate a state in which the cargo is unloaded through the suction mode when the target cargo is in the shape of a box located at the bottom.
- the robot arm device (102) can adsorb the target cargo through the adsorption pad portion (123a) of the adsorption means (123) (Fig. 15a). At this time, the adsorption pad portion (123a) can also be moved forward depending on the distance from the target cargo.
- the robot arm device (102) can move the target cargo to the upper part of the conveyor device (104) while adsorbing the target cargo (Fig. 15b).
- the robot arm device (102) can detach the target cargo from the adsorption pad portion (123a) and unload the target cargo onto the conveyor device (104) (Fig. 15c).
- a cargo unloading automation machine (100) is provided with a pair of robot arm devices (102) capable of multi-axis rotation and movement, and since the robot arm devices (102) are provided with an unloading conveyor belt (121), an adsorption means (123), and a clamp means (125), the machine operates in various unloading modes, such as a down sweep mode, a side sweep mode, an adsorption mode, and a clamping mode, depending on the position of the loaded cargo, the loading pattern of the cargo, the type of the cargo, etc., thereby enabling the loaded cargo to be unloaded easily and quickly.
- unloading modes such as a down sweep mode, a side sweep mode, an adsorption mode, and a clamping mode, depending on the position of the loaded cargo, the loading pattern of the cargo, the type of the cargo, etc.
- FIG. 16 is a drawing showing a process for determining an unloading mode in a cargo unloading automation method according to one embodiment of the present invention.
- the method is described by dividing it into a plurality of steps, but at least some of the steps may be performed in a different order, combined with other steps and performed together, omitted, divided into detailed steps, or performed by adding one or more steps that are not illustrated.
- the cargo unloading automation machine (100) can obtain an image (loaded cargo image) of cargo loaded inside a loading box (S 101).
- the cargo unloading automation machine (100) can obtain an image of loaded cargo through a 3D depth camera, a vision sensor or Lidar, and equipment combining these.
- the cargo unloading automation machine (100) can recognize each loaded cargo based on edge information and depth information of each object in the loaded cargo image (S 103).
- the cargo unloading automation machine (100) photographs the inside of the loading box from the front of the loading box, so the depth information may mean the distance between the object included in the loaded cargo image and the cargo unloading automation machine (100).
- the loaded cargo image may be photographed so that such depth information can be known.
- the boundary information of each object in the loaded cargo image can be obtained using an object segmentation model among artificial neural network models based on deep learning.
- the cargo unloading automation machine (100) can assign an index to each recognized cargo. A specific method for recognizing each loaded cargo will be described later.
- the cargo unloading automation machine (100) can generate loaded cargo-related information including one or more of the recognized location of each cargo, the size of each cargo, the type of each cargo, and the loading pattern of the cargo in the loading box (S 105).
- the cargo unloading automation machine (100) can check the location of each cargo within the loading compartment, the size of each cargo, the type of each cargo, and the pattern in which the cargo within the loading compartment is loaded.
- various types of cargo are loaded in various patterns (for example, when boxes are loaded in an aligned manner, when boxes are loaded in an aligned manner at the bottom and unaligned at the top, when sacks are loaded in an aligned manner, when sacks are loaded in an aligned manner at the bottom and unaligned at the top, when boxes are loaded in the bottom and sacks are loaded in an aligned manner at the top, etc.), and the cargo unloading automation machine (100) can analyze the loaded cargo image to generate information related to the loaded cargo.
- the cargo unloading automation machine (100) may use a classification model among artificial neural network models based on deep learning when generating information related to loaded cargo.
- the cargo unloading automation machine (100) can determine the cargo unloading order and cargo unloading mode based on the loaded cargo-related information (S 107).
- the cargo unloading automation machine (100) can determine in what order to unload the cargo loaded in the loading box based on the information related to the loaded cargo. In addition, the cargo unloading automation machine (100) can determine which unloading mode to use when unloading each cargo.
- Fig. 17 is a flow chart showing a method for recognizing individual loaded cargo in a cargo unloading automation method according to one embodiment of the present invention.
- the method is described by dividing it into a plurality of steps, but at least some of the steps may be performed in a different order, combined with other steps and performed together, omitted, divided into detailed steps, or performed by adding one or more steps that are not illustrated.
- the cargo unloading automation machine (100) can obtain RGB images and depth images of loaded cargo using an RGB-D (Red Green Blue Depth) sensor, and obtain a point cloud of the loaded cargo from them (S 201).
- the cargo unloading automation machine (100) can obtain RGB images and depth images of loaded cargo using two RGB-D sensors (a left sensor and a right sensor).
- the cargo unloading automation machine (100) can obtain boundary information of each individual cargo loaded from the RGB image (S 203).
- the cargo unloading automation machine (100) can obtain boundary information of each individual cargo from the RGB image using a deep learning-based object segmentation model.
- the object segmentation model may be an artificial intelligence model learned to detect and segment objects included in an input image from the corresponding image.
- FIG. 19 is a diagram showing a state in which labeling is performed on learning data for learning an object segmentation model in one embodiment of the present invention.
- labeling box, icebox, sack, etc.
- the learning data is input to the object segmentation model to train the object segmentation model.
- Fig. 19 is a diagram showing the result of object segmentation using an RGB image of loaded cargo and an object segmentation model in one embodiment of the present invention.
- the object segmentation model can segment each object in the RGB image to obtain boundary information of each individual cargo.
- the cargo unloading automation machine (100) can recognize regular cargo and irregular cargo, respectively, based on the depth image of the loaded cargo, the point cloud, and the boundary information of each cargo (S 205).
- FIG. 20 is a diagram showing a process for recognizing regular cargo and irregular cargo in one embodiment of the present invention.
- the cargo unloading automation machine (100) can obtain the depth value of the corresponding cargo from inside the boundary line of the corresponding cargo to prevent the corresponding cargo from being affected by the depth values of the surrounding cargo.
- the cargo unloading automation machine (100) can perform polyhedral transformation on the point cloud of the corresponding cargo to obtain a plane having the largest number of internal point clouds located on the plane as the main plane of the corresponding cargo.
- the cargo unloading automation machine (100) can obtain the outline of the corresponding cargo based on the point cloud on the boundary line projected onto the main plane, and can estimate the position, direction, and size of the 3D oriented bounding box of the corresponding cargo by performing a rotation caliper along the obtained outline.
- the cargo unloading automation machine (100) acquires a segmented point cloud by merging the point cloud acquired inside the boundary line of the cargo and the boundary line, and can estimate the location, direction, and size of the cargo based on the segmented point cloud.
- the cargo unloading automation machine (100) can generate information related to the loaded cargo by recognizing the loading status of multiple cargoes by integrating the recognition information of the individual cargo.
- the cargo recognition speed can be increased by recognizing each individual cargo without a process of converting a separate 3D model based on an RGB image and a depth image of the loaded cargo, and regular cargo and irregular cargo can be recognized separately.
- FIG. 21 is a block diagram illustrating a computing environment (10) including a computing device suitable for use in exemplary embodiments.
- each component may have different functions and capabilities other than those described below, and may include additional components other than those described below.
- the illustrated computing environment (10) includes a computing device (12).
- the computing device (12) may be a cargo unloading automation machine (100).
- the computing device (12) may be a device for performing a cargo unloading automation method.
- a computing device (12) includes at least one processor (14), a computer-readable storage medium (16), and a communication bus (18).
- the processor (14) may cause the computing device (12) to operate in accordance with the exemplary embodiments described above.
- the processor (14) may execute one or more programs stored in the computer-readable storage medium (16).
- the one or more programs may include one or more computer-executable instructions, which, when executed by the processor (14), may be configured to cause the computing device (12) to perform operations in accordance with the exemplary embodiments.
- a computer-readable storage medium (16) is configured to store computer-executable instructions or program code, program data, and/or other suitable forms of information.
- a program (20) stored in the computer-readable storage medium (16) includes a set of instructions executable by the processor (14).
- the computer-readable storage medium (16) may be a memory (volatile memory such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, any other form of storage medium that can be accessed by the computing device (12) and capable of storing desired information, or a suitable combination thereof.
- a communication bus (18) interconnects various other components of the computing device (12), including the processor (14) and computer-readable storage media (16).
- the computing device (12) may also include one or more input/output interfaces (22) that provide interfaces for one or more input/output devices (24) and one or more network communication interfaces (26).
- the input/output interfaces (22) and the network communication interfaces (26) are coupled to the communication bus (18).
- the input/output devices (24) may be coupled to other components of the computing device (12) via the input/output interfaces (22).
- Exemplary input/output devices (24) may include input devices such as a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or a touchscreen), a voice or sound input device, various types of sensor devices and/or photographing devices, and/or output devices such as a display device, a printer, speakers, and/or a network card.
- the exemplary input/output devices (24) may be included within the computing device (12) as a component that constitutes the computing device (12), or may be coupled to the computing device (12) as a separate device distinct from the computing device (12).
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Aviation & Aerospace Engineering (AREA)
- Geometry (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명의 실시예는 화물 하차 자동화 기술과 관련된다. 본 발명은 산업통상자원부의 로봇산업핵심기술개발사업-범부처협력로봇제품기술 (과제고유번호: 1415168943, 세부과제번호: 20009109, 연구과제명: 로봇을 활용한 간선화물 물류 운송 차량 하차 작업 시스템 개발, 주관기관: 한국산업기술평가관리원, 연구기간: 2020.05.01 ~ 2024.12.31)의 일환으로 수행한 연구로부터 도출된 것이다.An embodiment of the present invention relates to a cargo unloading automation technology. The present invention is derived from research conducted as part of the Robot Industry Core Technology Development Project of the Ministry of Trade, Industry and Energy - Inter-ministerial Cooperation Robot Product Technology (Project Unique Number: 1415168943, Subproject Number: 20009109, Research Project Name: Development of a Trunk Freight Logistics Vehicle Unloading Work System Using a Robot, Organized by: Korea Industrial Technology Evaluation and Planning Institute, Research Period: 2020.05.01 ~ 2024.12.31).
최근 3년간 택배 물동량은 매년 10~13%씩 증가했으나 택배 평균 배송단가는 매년 2~3%씩 하락하고 있어 물류 산업에서 자동화는 기업의 경쟁력 유지를 위해 매우 중요한 일이 되고 있다. 현재 택배 공정 중 상당 부분은 벨트 소터 등 장비를 이용한 물류 센터 내 자동화가 적용되어 있지만 차량의 적재함에서 각종 택배 화물을 내리는 하차 작업은 수작업에 의존하고 있다. In the past three years, the volume of parcel delivery has increased by 10-13% each year, but the average cost of parcel delivery has decreased by 2-3% each year, so automation in the logistics industry is becoming very important for companies to maintain their competitiveness. Currently, a significant portion of the parcel delivery process is automated in logistics centers using equipment such as belt sorters, but the unloading work of unloading various parcel cargoes from the vehicle's loading compartment is still dependent on manual labor.
그리고, 전국적인 1일 택배 수요량 처리를 위해 허브 터미널의 간선 화물 트럭은 통상 1대당 2천여개의 화물을 적재하여 2명의 작업자가 1시간 내에 모두 하차해야 한다. 이는 택배 허브 터미널의 여러 작업 중 가장 강도가 높아 작업자들의 기피 작업이 되고 있다. 따라서, 간선 화물 트럭의 하차 작업을 자동화할 수 있는 로봇 시스템의 개발이 요구된다.In addition, in order to handle the nationwide daily delivery demand, trunk cargo trucks at hub terminals are usually loaded with about 2,000 pieces of cargo per truck, and two workers must unload them all within one hour. This is the most intense of the various tasks at the parcel hub terminal, and is a task that workers avoid. Therefore, the development of a robot system that can automate the unloading work of trunk cargo trucks is required.
본 발명은 적재함 내 화물을 인식하고 자동으로 하차시킬 수 있는 화물 하차 자동화 방법 및 이를 수행하기 위한 컴퓨팅 장치를 제공하는 것을 목적으로 한다.The purpose of the present invention is to provide an automated cargo unloading method capable of recognizing cargo in a loading compartment and automatically unloading it, and a computing device for performing the same.
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by a person having ordinary knowledge in the technical field to which the present invention belongs from the description below.
본 발명의 일 실시예에 따른 화물 하차 자동화 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 포함하는 화물 하차 자동화 머신에서 수행되는 방법으로서, RGB-D(Red Green Blue Depth) 센서를 이용하여 적재된 화물들에 대한 RGB 이미지 및 깊이 이미지를 획득하는 단계; 상기 RGB 이미지 및 상기 깊이 이미지 중 하나 이상에 기초하여 상기 적재된 화물들에 대한 포인트 클라우드를 획득하는 단계; 상기 RGB 이미지에서 개별 화물의 경계선 정보를 획득하는 단계; 및 상기 깊이 이미지, 상기 포인트 클라우드, 및 상기 경계선 정보에 기초하여 상기 적재된 화물들의 정형 화물 및 비정형 화물을 각각 인식하는 단계를 포함한다.According to one embodiment of the present invention, a cargo unloading automation method is provided, which is performed in a cargo unloading automation machine including one or more processors and a memory storing one or more programs executed by the one or more processors, comprising: a step of obtaining an RGB image and a depth image of loaded cargoes using an RGB-D (Red Green Blue Depth) sensor; a step of obtaining a point cloud of the loaded cargoes based on at least one of the RGB image and the depth image; a step of obtaining boundary information of individual cargoes from the RGB image; and a step of recognizing regular cargoes and irregular cargoes of the loaded cargoes based on the depth image, the point cloud, and the boundary information, respectively.
상기 경계선 정보를 획득하는 단계는, 딥 러닝 기반의 객체 분할 모델을 이용하여 상기 RGB 이미지에서 개별 화물의 경계선 정보를 획득하며, 상기 객체 분할 모델은, 정형 화물과 비정형 화물이 혼합 적재된 상태에서 개별 화물을 검출하여 각 화물의 경계를 검출하도록 학습된 모델일 수 있다.The step of obtaining the above boundary information obtains boundary information of individual cargo from the RGB image using a deep learning-based object segmentation model, and the object segmentation model may be a model learned to detect individual cargo in a state where regular cargo and irregular cargo are mixedly loaded and to detect the boundary of each cargo.
상기 인식하는 단계는, 상기 적재된 화물들 중 정형 화물의 경우, 해당 화물의 포인트 클라우드에 대해 다면체 변환을 수행하여 해당 화물의 주 평면을 획득하는 단계; 상기 주 평면 상에 투영한 경계선 상의 포인트 클라우드에 기초하여 해당 화물의 윤곽선을 획득하는 단계; 및 상기 획득한 윤곽선을 따라 로테이션 캘리퍼(rotation caliper)를 수행하여 해당 화물의 3차원 유향 경계 상자(Oriented Bound Box)의 위치, 방향, 및 크기를 추정하는 단계를 포함할 수 있다.The above-described recognizing step may include, in the case of a regular cargo among the loaded cargoes, a step of performing a polyhedral transformation on a point cloud of the corresponding cargo to obtain a main plane of the corresponding cargo; a step of obtaining an outline of the corresponding cargo based on a point cloud on a boundary line projected onto the main plane; and a step of performing a rotation caliper along the obtained outline to estimate the position, direction, and size of a three-dimensional oriented bounding box of the corresponding cargo.
상기 인식하는 단계는, 상기 적재된 화물들 중 비정형 화물의 경우, 해당 화물의 경계선 안쪽에서 획득한 포인트 클라우드와 상기 경계선을 병합하여 세그먼트화된 포인트 클라우드(segmented pointcloud)를 획득하는 단계; 및 상기 세그먼트화된 포인트 클라우드에 기초하여 해당 화물의 위치, 방향, 및 크기를 추정하는 단계를 포함할 수 있다.The above-mentioned recognizing step may include, in the case of irregular cargo among the loaded cargoes, a step of obtaining a segmented point cloud by merging the boundary line with a point cloud obtained from inside the boundary line of the corresponding cargo; and a step of estimating the position, direction, and size of the corresponding cargo based on the segmented point cloud.
개시되는 일 실시예에 따른 컴퓨팅 장치는, 하나 이상의 프로세서들; 메모리; 및 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은 상기 메모리에 저장되고, 상기 하나 이상의 프로세서들에 의해 실행되도록 구성되며, 상기 하나 이상의 프로그램들은, RGB-D(Red Green Blue Depth) 센서를 이용하여 적재된 화물들에 대한 RGB 이미지 및 깊이 이미지를 획득하기 위한 명령; 상기 RGB 이미지 및 상기 깊이 이미지 중 하나 이상에 기초하여 상기 적재된 화물들에 대한 포인트 클라우드를 획득하기 위한 명령; 상기 RGB 이미지에서 개별 화물의 경계선 정보를 획득하기 위한 명령; 및 상기 깊이 이미지, 상기 포인트 클라우드, 및 상기 경계선 정보에 기초하여 상기 적재된 화물들의 정형 화물 및 비정형 화물을 각각 인식하기 위한 명령을 포함한다.A computing device according to one embodiment of the present disclosure comprises: one or more processors; a memory; and one or more programs, wherein the one or more programs are stored in the memory and are configured to be executed by the one or more processors, wherein the one or more programs include: a command for obtaining an RGB image and a depth image of loaded cargoes using an RGB-D (Red Green Blue Depth) sensor; a command for obtaining a point cloud of the loaded cargoes based on at least one of the RGB image and the depth image; a command for obtaining boundary information of individual cargoes from the RGB image; and a command for recognizing regular cargoes and irregular cargoes of the loaded cargoes based on the depth image, the point cloud, and the boundary information, respectively.
본 발명의 실시예에 따르면, 화물 하차 자동화 머신은 다축 회전 및 이동이 가능한 한 쌍의 로봇 팔 장치를 구비하며, 로봇 팔 장치가 하차 컨베이어 벨트, 흡착 수단, 및 클램프 수단을 구비함으로써, 적재된 화물의 위치, 화물의 적재 패턴, 및 화물의 종류 등에 따라 다운 스윕(down sweep) 모드, 측면 스윕(side sweep) 모드, 흡착 모드, 및 클램핑 모드 등과 같은 다양한 하차 모드로 동작하여 적재 화물을 용이하고 신속하게 하차시킬 수 있게 된다. According to an embodiment of the present invention, a cargo unloading automation machine has a pair of robot arm devices capable of multi-axis rotation and movement, and since the robot arm devices have an unloading conveyor belt, an adsorption means, and a clamp means, the machine operates in various unloading modes, such as a down sweep mode, a side sweep mode, an adsorption mode, and a clamping mode, depending on the position of the loaded cargo, the loading pattern of the cargo, the type of the cargo, etc., so that the loaded cargo can be unloaded easily and quickly.
또한, 적재된 화물의 RGB 이미지 및 깊이 이미지에 기초하여 별도의 3D 모델을 변환하는 과정 없이 각 개별 화물을 인식함으로써 화물 인식 속도를 높일 수 있고, 정형 화물과 비정형 화물을 각각 구분하여 인식할 수 있게 된다.In addition, the speed of cargo recognition can be increased by recognizing each individual cargo without a separate 3D model conversion process based on the RGB image and depth image of the loaded cargo, and regular cargo and irregular cargo can be recognized separately.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the effects obtainable from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by a person having ordinary skill in the art to which the present invention belongs from the description below.
도 1 및 도 2는 본 발명의 일 실시예에 따른 화물 하차 자동화 머신을 나타낸 전면 사시도 및 저면 사시도이고,Figures 1 and 2 are a front perspective view and a bottom perspective view showing an automated cargo unloading machine according to one embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 로봇 팔 장치를 나타낸 사시도이고, FIG. 3 is a perspective view showing a robot arm device according to one embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 로봇 팔 장치의 암 유닛에서 각 축부를 나타낸 도면이며,FIG. 4 is a drawing showing each axis part of the arm unit of a robot arm device according to one embodiment of the present invention.
도 5 및 도 6은 본 발명의 일 실시예에 따른 핸드 유닛의 일측부 및 타측부를 나타낸 사시도이고,FIGS. 5 and 6 are perspective views showing one side and the other side of a hand unit according to one embodiment of the present invention.
도 7a 및 도 7b는 본 발명의 일 실시예에서 흡착 패드부가 전진 이동되는 상태를 나타낸 도면이며, Figures 7a and 7b are drawings showing a state in which the suction pad part moves forward in one embodiment of the present invention.
도 8a 및 도 8b는 본 발명의 일 실시예에서 클램핑부가 전진 이동되는 상태를 나타낸 도면이고, Figures 8a and 8b are drawings showing a state in which the clamping part moves forward in one embodiment of the present invention.
도 9 내지 도 15c는 본 발명의 일 실시예에 따른 화물 하차 자동화 머신이 적재함에서 적재 화물을 하차시키는 동작을 나타낸 도면이며,FIGS. 9 to 15c are drawings showing the operation of a cargo unloading automation machine according to one embodiment of the present invention unloading loaded cargo from a loading box.
도 16은 본 발명의 일 실시예에 따른 화물 하차 자동화 방법에서 하차 모드를 결정하는 과정을 나타낸 도면이고,FIG. 16 is a drawing showing a process of determining an unloading mode in an automated cargo unloading method according to one embodiment of the present invention.
도 17은 본 발명의 일 실시예에 따른 화물 하차 자동화 방법에서 적재된 개별 화물을 인식하는 방법을 나타낸 흐름도이며,FIG. 17 is a flow chart showing a method for recognizing individual loaded cargo in a cargo unloading automation method according to one embodiment of the present invention.
도 18은 본 발명의 일 실시예에서 객체 분할 모델을 학습하기 위한 학습 데이터에 라벨링을 수행한 상태를 나타낸 도면이고,FIG. 18 is a diagram showing a state in which labeling is performed on learning data for learning an object segmentation model in one embodiment of the present invention.
도 19는 본 발명의 일 실시예에서 적재된 화물의 RGB 이미지 및 객체 분할 모델을 통한 객체 분할의 결과를 나타낸 도면이며,FIG. 19 is a drawing showing the result of object segmentation using an RGB image of a loaded cargo and an object segmentation model in one embodiment of the present invention.
도 20은 본 발명의 일 실시예에서 정형 화물 및 비정형 화물을 인식하는 과정을 나타낸 도면이고,Figure 20 is a drawing showing a process of recognizing regular cargo and irregular cargo in one embodiment of the present invention.
도 21은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.FIG. 21 is a block diagram illustrating a computing environment including a computing device suitable for use in exemplary embodiments.
이하, 본 발명의 실시 예를 첨부된 도면들을 참조하여 더욱 상세하게 설명한다. 본 발명의 실시 예는 여러 가지 형태로 변형할 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것으로 해석되어서는 안 된다. 본 실시 예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이다. 따라서 도면에서의 요소의 형상은 보다 명확한 설명을 강조하기 위해 과장되었다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the attached drawings. The embodiments of the present invention can be modified in various forms, and the scope of the present invention should not be construed as being limited to the embodiments below. The embodiments are provided to more completely explain the present invention to those with average knowledge in the art. Therefore, the shapes of the elements in the drawings are exaggerated to emphasize a clearer explanation.
본 발명이 해결하고자 하는 과제의 해결 방안을 명확하게 하기 위한 발명의 구성을 본 발명의 바람직한 실시 예에 근거하여 첨부 도면을 참조하여 상세히 설명하되, 도면의 구성요소들에 참조번호를 부여함에 있어서 동일 구성요소에 대해서는 비록 다른 도면상에 있더라도 동일 참조번호를 부여하였으며 당해 도면에 대한 설명 시 필요한 경우 다른 도면의 구성요소를 인용할 수 있음을 미리 밝혀둔다.In order to clearly explain the solution to the problem to be solved by the present invention, the composition of the invention will be described in detail based on a preferred embodiment of the present invention with reference to the attached drawings. In assigning reference numbers to components in the drawings, the same reference numbers are assigned to the same components even if they are in different drawings. It is to be noted in advance that components in other drawings may be cited when necessary when describing the drawings.
한편, 상측, 하측, 일측, 타측 등과 같은 방향성 용어는 개시된 도면들의 배향과 관련하여 사용된다. 본 발명의 실시예의 구성 요소는 다양한 배향으로 위치 설정될 수 있으므로, 방향성 용어는 예시를 목적으로 사용되는 것이지 이를 제한하는 것은 아니다.Meanwhile, directional terms such as upper, lower, one side, the other side, etc. are used in connection with the orientation of the disclosed drawings. Since the components of the embodiments of the present invention may be positioned in various orientations, directional terms are used for illustrative purposes and not for limitation.
도 1 및 도 2는 본 발명의 일 실시예에 따른 화물 하차 자동화 머신을 나타낸 전면 사시도 및 저면 사시도이다. FIGS. 1 and 2 are a front perspective view and a bottom perspective view showing an automated cargo unloading machine according to one embodiment of the present invention.
도 1 및 도 2를 참조하면, 화물 하차 자동화 머신(100)은 로봇 팔 장치(102), 컨베이어 장치(104), 궤도 장치(106), 및 본체 프레임(108)을 포함할 수 있다. Referring to FIGS. 1 and 2, the cargo unloading automation machine (100) may include a robot arm device (102), a conveyor device (104), a track device (106), and a main body frame (108).
화물 하차 자동화 머신(100)은 적재함(50) 내에 적재되어 있는 화물(이하, 적재 화물이라 지칭할 수 있음)들을 하차하거나 하차 후 운반하기 위한 것이다. 여기서, 적재함(50)은 화물 차량(예를 들어, 간선 화물차 등)에 장착되는 적재함일 수도 있고 컨테이너일 수도 있다. 화물 하차 자동화 머신(100)은 적재함(50)의 입구에서 적재함 내의 적재 화물을 하차시킬 수도 있고, 적재함(50)의 내부로 진입하여 적재함 내의 적재 화물을 하차시킬 수도 있다. The cargo unloading automatic machine (100) is for unloading cargo (hereinafter, referred to as loaded cargo) loaded in a loading box (50) or transporting it after unloading. Here, the loading box (50) may be a loading box mounted on a cargo vehicle (e.g., a trunk cargo vehicle, etc.) or may be a container. The cargo unloading automatic machine (100) may unload the loaded cargo in the loading box (50) at the entrance of the loading box (50), or may enter the interior of the loading box (50) and unload the loaded cargo in the loading box.
또한, 화물 하차 자동화 머신(100)은 화물의 적재 패턴, 화물의 적재 위치, 화물의 종류 등을 인식하고 그에 따라 화물의 하차 모드를 결정하기 위한 다양한 센서 장비(예를 들어, 비전 센서 또는 라이다(Lidar) 또는 비전 및 라이다의 융합 센서, 스캐너 등)를 포함할 수 있다. In addition, the cargo unloading automation machine (100) may include various sensor equipment (e.g., vision sensor or Lidar or vision and Lidar fusion sensor, scanner, etc.) to recognize cargo loading pattern, cargo loading location, cargo type, etc. and determine cargo unloading mode accordingly.
로봇 팔 장치(102)는 본체 프레임(108)의 양측에 마련될 수 있다. 즉, 로봇 팔 장치(102)는 본체 프레임(108)의 양측에서 한 쌍으로 마련될 수 있다. 로봇 팔 장치(102)는 사람의 팔처럼 한 쌍으로 동작하여 적재함 내 벌크 형태로 쌓여 있는 박스, 비닐 파우치, 및 마대 등 다양한 형태의 화물을 하차시키도록 마련될 수 있다. 로봇 팔 장치(102)는 적재함 내 적재 화물을 컨베이어 장치(104) 측으로 하차시킬 수 있다.The robot arm device (102) may be provided on both sides of the main body frame (108). That is, the robot arm devices (102) may be provided as a pair on both sides of the main body frame (108). The robot arm devices (102) may be provided to operate as a pair like human arms to unload various types of cargo, such as boxes, vinyl pouches, and sacks, that are piled in bulk form in a loading bin. The robot arm device (102) may unload the loaded cargo in the loading bin toward the conveyor device (104).
컨베이어 장치(104)는 본체 프레임(108)에 장착될 수 있다. 컨베이어 장치(104)는 본체 프레임(108)에서 로봇 팔 장치(102)의 길이 방향을 따라 마련될 수 있다. 컨베이어 장치(104)는 로봇 팔 장치(102)에 의해 하차된 적재 화물을 본체 프레임(108)의 후방으로 이송시키는 역할을 할 수 있다. A conveyor device (104) may be mounted on the main body frame (108). The conveyor device (104) may be provided along the length direction of the robot arm device (102) on the main body frame (108). The conveyor device (104) may serve to transport a loaded cargo unloaded by the robot arm device (102) to the rear of the main body frame (108).
컨베이어 장치(104)는 로봇 팔 장치(102)와 연동하여 동작할 수 있다. 컨베이어 장치(104)의 전단부는 로봇 팔 장치(102)의 동작에 따라 높이가 조절되도록 마련될 수 있다. 이때, 컨베이어 장치(104)의 전단부는 로봇 팔 장치(102)에 의해 하차되려고 하는 적재 화물의 높이에 따라 높이 조절이 될 수 있다. The conveyor device (104) can operate in conjunction with the robot arm device (102). The front end of the conveyor device (104) can be provided so that its height is adjusted according to the operation of the robot arm device (102). At this time, the front end of the conveyor device (104) can be adjusted in height according to the height of the loaded cargo to be unloaded by the robot arm device (102).
궤도 장치(106)는 본체 프레임(108)의 하부에 마련될 수 있다. 궤도 장치(106)는 화물 하차 자동화 머신(100)을 이동시키는 역할을 할 수 있다. 즉, 궤도 장치(106)는 화물 하차 자동화 머신(100)을 적재함 입구로 이동시키거나 적재함 내부로 진입하도록 할 수 있다. 한편, 여기서는 화물 하차 자동화 머신(100)의 이동 수단이 궤도 장치(106)인 것으로 설명하였으나, 이에 한정되는 것은 아니며 휠 타입의 이동 수단도 포함될 수 있음은 물론이다. The track device (106) may be provided at the bottom of the main body frame (108). The track device (106) may play a role in moving the cargo unloading automation machine (100). That is, the track device (106) may move the cargo unloading automation machine (100) to the entrance of the loading box or cause it to enter the inside of the loading box. Meanwhile, although the moving means of the cargo unloading automation machine (100) is described as the track device (106) here, it is not limited thereto, and it is obvious that a wheel-type moving means may also be included.
본체 프레임(108)은 화물 하차 자동화 머신(100)을 지지하는 역할을 할 수 있다. 본체 프레임(108)은 화물 하차 자동화 머신(100)을 지지할 수 있는 다양한 형태로 마련될 수 있는 바, 그 형태가 한정되는 것은 아니다. 본체 프레임(108)은 로봇 팔 장치(102)를 지지하도록 마련될 수 있다. 본체 프레임(108)은 컨베이어 장치(104)를 지지하도록 마련될 수 있다. 또한, 본체 프레임(108)은 궤도 장치(106)의 상부에서 궤도 장치(106)와 연결될 수 있다. The main body frame (108) can serve to support the cargo unloading automation machine (100). The main body frame (108) can be provided in various shapes that can support the cargo unloading automation machine (100), and its shape is not limited. The main body frame (108) can be provided to support the robot arm device (102). The main body frame (108) can be provided to support the conveyor device (104). In addition, the main body frame (108) can be connected to the track device (106) at the upper portion of the track device (106).
본체 프레임(108)에는 화물 하차 자동화 머신(100)에 동력을 제공하고, 화물 하차 자동화 머신(100)의 동작을 제어하는 회로 장치들을 포함하는 전장 함(108a)이 장착될 수 있다. 또한, 본체 프레임(108)에는 로봇 팔 장치(102) 및 궤도 장치(106) 중 하나 이상에 유압을 제공하기 위한 유압 탱크(108b)가 장착될 수 있다. 또한, 본체 프레임(108)에는 화물 하차 자동화 머신(100)의 동작을 확인하기 위한 하나 이상의 모니터(108c)가 장착될 수 있다. The main body frame (108) may be equipped with a power box (108a) that provides power to the cargo unloading automation machine (100) and includes circuit devices that control the operation of the cargo unloading automation machine (100). In addition, the main body frame (108) may be equipped with a hydraulic tank (108b) for providing hydraulic pressure to at least one of the robot arm device (102) and the track device (106). In addition, the main body frame (108) may be equipped with at least one monitor (108c) for checking the operation of the cargo unloading automation machine (100).
도 3은 본 발명의 일 실시예에 따른 로봇 팔 장치(102)를 나타낸 사시도이고, 도 4는 본 발명의 일 실시예에 따른 로봇 팔 장치(102)의 암 유닛에서 각 축부를 나타낸 도면이다.FIG. 3 is a perspective view showing a robot arm device (102) according to one embodiment of the present invention, and FIG. 4 is a drawing showing each axis part of the arm unit of the robot arm device (102) according to one embodiment of the present invention.
도 3 및 도 4를 참조하면, 로봇 팔 장치(102)는 암 유닛(arm unit)(111) 및 핸드 유닛(113)을 포함할 수 있다. Referring to FIGS. 3 and 4, the robotic arm device (102) may include an arm unit (111) and a hand unit (113).
로봇 팔 장치(102)는 적재함 내 화물의 적재 패턴, 화물의 적재 위치, 및 화물의 종류 중 하나 이상에 따라 결정되는 하차 모드로 동작될 수 있다. 하차 모드는 적재함 내 화물을 하차시키기 위한 동작 모드로서, 예를 들어, 하차 모드에는 다운 스윕(down sweep) 모드, 측면 스윕(side sweep) 모드, 흡착 모드, 및 클램핑 모드 등이 있을 수 있다. The robot arm device (102) can be operated in an unloading mode determined according to one or more of a loading pattern of cargo in a loading box, a loading location of cargo, and a type of cargo. The unloading mode is an operation mode for unloading cargo in a loading box, and for example, the unloading mode can include a down sweep mode, a side sweep mode, a suction mode, and a clamping mode.
암 유닛(111)은 본체 프레임(108)의 양측에 장착될 수 있다. 암 유닛(111)은 다축 회전이 가능하도록 마련될 수 있다. 또한, 암 유닛(111)은 전진 및 후진 이동이 가능하도록 마련될 수 있다. 암 유닛(111)은 다축 회전과 전진 또는 후진 이동을 동시에 수행하도록 마련될 수 있다. The arm unit (111) may be mounted on both sides of the main body frame (108). The arm unit (111) may be provided to enable multi-axis rotation. In addition, the arm unit (111) may be provided to enable forward and backward movement. The arm unit (111) may be provided to perform multi-axis rotation and forward or backward movement simultaneously.
예시적인 실시예에서, 암 유닛(111)은 6축 자유도를 갖도록 마련될 수 있다. 암 유닛(111)은 제1 축부(111-1), 제2 축부(111-2), 제3 축부(111-3), 제4 축부(111-4), 제5 축부(111-5), 및 제6 축부(111-6)를 포함할 수 있다. In an exemplary embodiment, the arm unit (111) may be configured to have six degrees of freedom. The arm unit (111) may include a first axis portion (111-1), a second axis portion (111-2), a third axis portion (111-3), a fourth axis portion (111-4), a fifth axis portion (111-5), and a sixth axis portion (111-6).
제1 축부(111-1)는 본체 프레임(108) 상에 장착될 수 있다. 제1 축부(111-1)는 제1 방향(1)으로 회전 가능하게 마련될 수 있다. 제2 축부(111-2)는 제1 축부(111-1)와 연결되어 마련될 수 있다. 제2 축부(111-2)는 제2 방향(2)으로 회전 가능하게 마련될 수 있다. 제3 축부(111-3)는 제2 축부(111-2)와 연결되어 마련될 수 있다. 제3 축부(111-3)는 제3 방향(3)을 따라 전진 및 후진 이동 가능하게 마련될 수 있다. The first shaft part (111-1) may be mounted on the main body frame (108). The first shaft part (111-1) may be provided to be rotatable in a first direction (1). The second shaft part (111-2) may be provided to be connected to the first shaft part (111-1). The second shaft part (111-2) may be provided to be rotatable in a second direction (2). The third shaft part (111-3) may be provided to be connected to the second shaft part (111-2). The third shaft part (111-3) may be provided to be capable of moving forward and backward along the third direction (3).
제4 축부(111-4)는 제3 축부(111-3)와 연결되어 마련될 수 있다. 제4 축부(111-4)는 제4 방향(4)으로 회전 가능하게 마련될 수 있다. 제5 축부(111-5)는 제4 축부(111-4)와 연결되어 마련될 수 있다. 제5 축부(111-5)는 제5 방향(5)으로 회전 가능하게 마련될 수 있다. 제6 축부(111-6)는 제5 축부(111-5)와 연결되어 마련될 수 있다. 제6 축부(111-6)는 제6 방향(6)으로 회전 가능하게 마련될 수 있다. 여기서, 제1 방향(1) 내지 제6 방향(6)은 각각 서로 다른 방향일 수 있다. 이 경우, 암 유닛(111)은 5개의 축 방향으로 회전하면서 전진 및 후진 이동할 수 있게 된다. The fourth axis part (111-4) may be provided connected to the third axis part (111-3). The fourth axis part (111-4) may be provided so as to be rotatable in the fourth direction (4). The fifth axis part (111-5) may be provided connected to the fourth axis part (111-4). The fifth axis part (111-5) may be provided so as to be rotatable in the fifth direction (5). The sixth axis part (111-6) may be provided connected to the fifth axis part (111-5). The sixth axis part (111-6) may be provided so as to be rotatable in the sixth direction (6). Here, the first direction (1) to the sixth direction (6) may be different directions from each other. In this case, the arm unit (111) can move forward and backward while rotating in the five axial directions.
핸드 유닛(113)은 암 유닛(111)의 단부에 연결되어 마련될 수 있다. 핸드 유닛(113)은 적재 화물과 접촉되는 부분으로, 적재 화물을 컨베이어 장치(104) 측으로 하차시키는 부분이다. 핸드 유닛(113)은 제6 축부(111-6)에 연결되어 마련될 수 있다. 핸드 유닛(113)이 암 유닛(111)에 연결되어 있는 바, 핸드 유닛(113)은 암 유닛(111)의 동작에 따라 암 유닛(111)과 함께 5개의 축 방향으로 회전하면서 전진 및 후진 이동할 수 있게 된다. 이와 같이, 로봇 팔 장치(102)가 6축 자유도를 가지도록 마련됨으로써, 적재함 내 모든 범위를 커버하여 적재 화물을 하차시킬 수 있게 된다. The hand unit (113) may be provided connected to the end of the arm unit (111). The hand unit (113) is a portion that comes into contact with the loaded cargo and is a portion that unloads the loaded cargo toward the conveyor device (104). The hand unit (113) may be provided connected to the sixth axis portion (111-6). Since the hand unit (113) is connected to the arm unit (111), the hand unit (113) can move forward and backward while rotating in five axial directions together with the arm unit (111) according to the operation of the arm unit (111). In this way, since the robot arm device (102) is provided to have six degrees of freedom, it is possible to cover the entire range within the loading box and unload the loaded cargo.
도 5 및 도 6은 본 발명의 일 실시예에 따른 핸드 유닛(113)의 일측부 및 타측부를 나타낸 사시도이다. 핸드 유닛(113)은 하차 컨베이어 벨트(121), 흡착 수단(123), 및 클램프 수단(125)을 포함할 수 있다. Figures 5 and 6 are perspective views showing one side and the other side of a hand unit (113) according to one embodiment of the present invention. The hand unit (113) may include a disembarkation conveyor belt (121), an adsorption means (123), and a clamp means (125).
핸드 유닛(113)의 일측부에는 하차 컨베이어 벨트(121)가 장착될 수 있다. 로봇 팔 장치(102)를 사람의 팔로 비유할 때 핸드 유닛(113)의 일측부는 손바닥으로 비유할 수 있다. 하차 컨베이어 벨트(121)는 암 유닛(111)의 길이 방향을 따라 마련될 수 있다. 하차 컨베이어 벨트(121)는 일정 방향으로 회전되도록 마련될 수 있다. 예를 들어, 하차 컨베이어 벨트(121)는 순환 회전되도록 루프 형태로 마련될 수 있다. An unloading conveyor belt (121) may be mounted on one side of the hand unit (113). When the robot arm device (102) is likened to a human arm, one side of the hand unit (113) may be likened to a palm. The unloading conveyor belt (121) may be provided along the length direction of the arm unit (111). The unloading conveyor belt (121) may be provided to rotate in a certain direction. For example, the unloading conveyor belt (121) may be provided in a loop shape to rotate cyclically.
하차 컨베이어 벨트(121)는 본체 프레임(108) 방향 측으로(즉, 안쪽 방향으로) 회전하도록 마련될 수 있다. 즉, 한 쌍의 로봇 팔 장치(102)에서 각 핸드 유닛(113)의 하차 컨베이어 벨트(121)는 본체 프레임(108) 방향 측으로 회전하도록 마련될 수 있다. The unloading conveyor belt (121) may be arranged to rotate toward the main body frame (108) (i.e., inwardly). That is, the unloading conveyor belt (121) of each hand unit (113) of a pair of robot arm devices (102) may be arranged to rotate toward the main body frame (108).
한 쌍의 하차 컨베이어 벨트(121)가 본체 프레임(108) 방향 측으로 회전함에 따라, 한 쌍의 하차 컨베이어 벨트(121) 사이에서 한 쌍의 하차 컨베이어 벨트(121)와 접촉하는 적재 화물들이 본체 프레임(108) 방향 쪽으로 쓸려 내려가면서 컨베이어 장치(104) 측으로 하차되게 된다. 즉, 하차 컨베이어 벨트(121)는 스윕(sweep) 모드에 사용되는 것으로, 로봇 팔 장치(102)의 하차 모드가 다운 스윕(down sweep) 모드 또는 측면 스윕(side sweep) 모드일 때 사용될 수 있다. As the pair of unloading conveyor belts (121) rotate toward the main body frame (108), the loaded cargoes that come into contact with the pair of unloading conveyor belts (121) between the pair of unloading conveyor belts (121) are swept toward the main body frame (108) and unloaded toward the conveyor device (104). That is, the unloading conveyor belt (121) is used in a sweep mode and can be used when the unloading mode of the robot arm device (102) is a down sweep mode or a side sweep mode.
하차 컨베이어 벨트(121)의 표면에는 적재 화물을 쓸어 내릴 때, 적재 화물과의 마찰력을 높이기 위해 요철 패턴부(121a)가 형성될 수 있다. 요철 패턴부(121a)는 하차 컨베이어 벨트(121)의 표면에서 돌출되는 형태로 마련될 수 있으나, 이에 한정되는 것은 아니다. 요철 패턴부(121a)는 하차 컨베이어 벨트(121)의 길이 방향을 따라 일정 간격으로 복수 개가 마련될 수 있다. A rough pattern portion (121a) may be formed on the surface of the unloading conveyor belt (121) to increase friction with the loaded cargo when sweeping the loaded cargo. The rough pattern portion (121a) may be provided in a form that protrudes from the surface of the unloading conveyor belt (121), but is not limited thereto. A plurality of rough pattern portions (121a) may be provided at regular intervals along the length direction of the unloading conveyor belt (121).
핸드 유닛(113)의 타측부에는 흡착 수단(123) 및 클램프 수단(125)이 각각 마련될 수 있다. 로봇 팔 장치(102)를 사람의 팔로 비유할 때 핸드 유닛(113)의 타측부는 손등으로 비유할 수 있다. 핸드 유닛(113)의 타측부에서 흡착 수단(123)과 클램프 수단(125)은 각각 상하로 배치될 수 있다. 흡착 수단(123) 및 클램프 수단(125)은 각각 핸드 유닛(113)의 길이 방향을 따라 마련될 수 있다. The other side of the hand unit (113) may be provided with a suction means (123) and a clamp means (125), respectively. When the robot arm device (102) is likened to a human arm, the other side of the hand unit (113) may be likened to the back of the hand. The suction means (123) and the clamp means (125) may be arranged vertically, respectively, on the other side of the hand unit (113). The suction means (123) and the clamp means (125) may be provided along the longitudinal direction of the hand unit (113), respectively.
예시적인 실시예에서, 흡착 수단(123) 및 클램프 수단(125)은 핸드 브라켓(127)을 통해 핸드 유닛(113)에 장착될 수 있다. 핸드 브라켓(127)의 양측은 하차 컨베이어 벨트(121)의 양측에 고정될 수 있다. 핸드 브라켓(127)은 하차 컨베이어 벨트(121)와 흡착 수단(123) 및 클램프 수단(125) 사이에 마련될 수 있다. In an exemplary embodiment, the suction means (123) and the clamp means (125) may be mounted to the hand unit (113) via a hand bracket (127). Both sides of the hand bracket (127) may be fixed to both sides of the unloading conveyor belt (121). The hand bracket (127) may be provided between the unloading conveyor belt (121) and the suction means (123) and the clamp means (125).
흡착 수단(123)은 적재함 내의 적재 화물을 흡착하여 하차시키는 역할을 할 수 있다. 즉, 흡착 수단(123)은 로봇 팔 장치(102)의 하차 모드가 흡착 모드인 경우 사용될 수 있다. 예를 들어, 흡착 수단(123)은 핸드 유닛(113)의 길이 방향을 따라 전진 및 후진 이동하도록 마련될 수 있다. 흡착 수단(123)은 흡착 패드부(123a) 및 흡착 구동부(123b)를 포함할 수 있다. The suction means (123) can play a role in sucking and unloading the loaded cargo in the loading box. That is, the suction means (123) can be used when the unloading mode of the robot arm device (102) is the suction mode. For example, the suction means (123) can be arranged to move forward and backward along the longitudinal direction of the hand unit (113). The suction means (123) can include a suction pad portion (123a) and a suction drive portion (123b).
흡착 패드부(123a)는 적재 화물을 흡착시키는 부분이다. 흡착 패드부(123a)는 복수 개가 마련될 수 있다. 복수 개의 흡착 패드부(123a)의 일단은 각각 장착 플레이트(123a-2)에 고정될 수 있다. 장착 플레이트(123a-2)는 흡착 구동부(123b)와 연결될 수 있다. 여기서는, 흡착 패드부(123a)가 복수 개 마련되는 것으로 도시하였으나, 이에 한정되는 것은 아니다. The suction pad section (123a) is a section that absorbs the loaded cargo. A plurality of suction pad sections (123a) may be provided. One end of each of the plurality of suction pad sections (123a) may be fixed to a mounting plate (123a-2). The mounting plate (123a-2) may be connected to the suction drive section (123b). Here, the suction pad section (123a) is illustrated as being provided in a plurality of pieces, but is not limited thereto.
흡착 패드부(123a)의 단부에는 적재 화물을 진공 흡착하는 석션 컵(123a-1)이 마련될 수 있다. 석션 컵(123a-1)은 다양한 방향으로 굽힘이 가능하도록 자바라 형태로 마련될 수 있으나, 그 형태가 이에 한정되는 것은 아니다. A suction cup (123a-1) for vacuum-absorbing a loaded cargo may be provided at the end of the suction pad section (123a). The suction cup (123a-1) may be provided in a Javara shape so as to be able to bend in various directions, but its shape is not limited thereto.
흡착 구동부(123b)는 흡착 패드부(123a)를 전진 및 후진 이동시키도록 마련될 수 있다. 또한, 흡착 구동부(123b)는 흡착 패드부(123a)가 적재 화물을 흡착하도록 진공 발생기를 포함할 수 있다. The suction drive unit (123b) may be provided to move the suction pad unit (123a) forward and backward. In addition, the suction drive unit (123b) may include a vacuum generator so that the suction pad unit (123a) absorbs the loaded cargo.
도 7a 및 도 7b는 본 발명의 일 실시예에서 흡착 패드부(123a)가 전진 이동되는 상태를 나타낸 도면이다. 흡착 구동부(123b)는 흡착 모드 시 흡착 패드부(123a)를 전진 이동시켜 적재 화물을 흡착하도록 할 수 있다. 흡착 구동부(123b)는 흡착된 적재 화물을 하차시킨 흡착 패드부(123a)를 후진 이동하여 원 위치시킬 수 있다. Figures 7a and 7b are drawings showing a state in which the suction pad part (123a) moves forward in one embodiment of the present invention. The suction drive part (123b) can move the suction pad part (123a) forward in the suction mode to suction the loaded cargo. The suction drive part (123b) can move the suction pad part (123a) that has unloaded the suctioned loaded cargo backward to return it to its original position.
여기서는 흡착 패드부(123a)가 전진 이동하여 적재 화물을 흡착하는 것으로 설명하였으나, 이에 한정되는 것은 아니며 흡착 패드부(123a)가 고정된 상태에서 핸드 유닛(111)이 적재 화물 측으로 이동한 후 흡착 패드부(123a)을 통해 적재 화물을 흡착할 수도 있다. Here, it is described that the suction pad part (123a) moves forward to absorb the loaded cargo, but it is not limited to this, and the hand unit (111) may move toward the loaded cargo while the suction pad part (123a) is fixed, and then the loaded cargo may be absorbed through the suction pad part (123a).
클램프 수단(125)은 적재함 내의 적재 화물을 집어서 하차시키는 역할을 할 수 있다. 즉, 클램프 수단(125)은 로봇 팔 장치(102)의 하차 모드가 클램핑 모드인 경우 사용될 수 있다. 예를 들어, 클램프 수단(125)은 핸드 유닛(113)의 길이 방향을 따라 전진 및 후진 이동하도록 마련될 수 있다. 클램프 수단(125)은 클램핑부(125a) 및 클램프 구동부(125b)를 포함할 수 있다. The clamp means (125) can play a role in picking up and unloading a loaded cargo within a loading compartment. That is, the clamp means (125) can be used when the unloading mode of the robot arm device (102) is a clamping mode. For example, the clamp means (125) can be arranged to move forward and backward along the longitudinal direction of the hand unit (113). The clamp means (125) can include a clamping portion (125a) and a clamp driving portion (125b).
클램핑부(125a)는 적재 화물을 집어드는 부분이다. 이때, 적재 화물의 종류는 마대 자루일 수 있다. 즉, 클램핑부(125a)는 적재 화물 중 마대 자루를 집어들도록 마련될 수 있다. 이를 위해, 클램핑부(125a)의 단부는 집게 형태로 마련될 수 있다. 클램프 구동부(125b)는 클램핑부(125a)를 전진 및 후진 이동시키도록 마련될 수 있다. The clamping part (125a) is a part that picks up the loaded cargo. At this time, the type of the loaded cargo may be a sack. That is, the clamping part (125a) may be provided to pick up a sack among the loaded cargo. For this purpose, the end of the clamping part (125a) may be provided in the form of a pair of tongs. The clamp driving part (125b) may be provided to move the clamping part (125a) forward and backward.
도 8a 및 도 8b는 본 발명의 일 실시예에서 클램핑부(125a)가 전진 이동되는 상태를 나타낸 도면이다. 클램프 구동부(125b)는 클램핑 모드 시 클램핑부(125a)를 전진 이동시켜 적재 화물을 집도록 할 수 있다. 클램프 구동부(125b)는 적재 화물을 하차시킨 클램핑부(125a)를 후진 이동하여 원 위치시킬 수 있다. Figures 8a and 8b are drawings showing a state in which the clamping part (125a) moves forward in one embodiment of the present invention. The clamp driving part (125b) can move the clamping part (125a) forward in the clamping mode to pick up the loaded cargo. The clamp driving part (125b) can move the clamping part (125a) that has unloaded the loaded cargo backward to return it to its original position.
여기서는 클램핑부(125a)가 전진 이동하여 적재 화물을 집는 것으로 설명하였으나, 이에 한정되는 것은 아니며 클램핑부(125a)가 고정된 상태에서 핸드 유닛(111)이 적재 화물 측으로 이동한 후 클램핑부(125a)을 통해 적재 화물을 클램핑하도록 마련될 수도 있다. Here, it is described that the clamping part (125a) moves forward to pick up the loaded cargo, but it is not limited to this, and it may be arranged that the hand unit (111) moves toward the loaded cargo while the clamping part (125a) is fixed and then the loaded cargo is clamped through the clamping part (125a).
도 9 내지 도 15c는 본 발명의 일 실시예에 따른 화물 하차 자동화 머신이 적재함에서 적재 화물을 하차시키는 동작을 나타낸 도면이다. FIGS. 9 to 15c are drawings showing the operation of an automated cargo unloading machine according to one embodiment of the present invention unloading loaded cargo from a loading bin.
도 9를 참조하면, 화물 하차 자동화 머신(100)은 비전 센서 등을 통해 화물과의 거리, 화물의 적재 패턴, 화물의 적재 위치, 및 화물의 종류 등을 인식할 수 있다. 이때, 화물 하차 자동화 머신(100)은 화물과의 거리에 따라 화물 측으로 이동할 수 있다. 화물 하차 자동화 머신(100)은 적재된 화물의 높이에 따라 순차적으로 화물을 하차시킬 수 있다.Referring to Fig. 9, the cargo unloading automation machine (100) can recognize the distance to the cargo, the cargo loading pattern, the cargo loading position, and the type of cargo through a vision sensor, etc. At this time, the cargo unloading automation machine (100) can move toward the cargo according to the distance from the cargo. The cargo unloading automation machine (100) can sequentially unload the cargo according to the height of the loaded cargo.
도 10을 참조하면, 화물 하차 자동화 머신(100)은 화물의 적재 높이에 따라 컨베이어 장치(104)의 전단부 높이를 조절할 수 있다. 화물 하차 자동화 머신(100)은 적재된 화물 중 최상단에 위치한 화물의 높이에 기반하여 컨베이어 장치(104)의 전단부 높이를 조절할 수 있다. 즉, 로봇 팔 장치(102)가 적재된 화물 중 최상단에 위치한 화물부터 하차시키게 되는 바, 적재된 화물 중 최상단에 위치한 화물을 안전하게 받아 낼 수 있는 높이로 컨베이어 장치(104)의 전단부 높이를 조절할 수 있다.Referring to FIG. 10, the cargo unloading automation machine (100) can adjust the front end height of the conveyor device (104) according to the loading height of the cargo. The cargo unloading automation machine (100) can adjust the front end height of the conveyor device (104) based on the height of the cargo located at the top among the loaded cargo. That is, since the robot arm device (102) unloads the cargo located at the top among the loaded cargo, the front end height of the conveyor device (104) can be adjusted to a height that can safely receive the cargo located at the top among the loaded cargo.
도 11을 참조하면, 화물 하차 자동화 머신(100)은 적재된 화물 중 최상단에 위치한 화물을 하차시키기 위해 로봇 팔 장치(102)를 해당 화물의 상부로 위치시킬 수 있다. 예시적인 실시예에서, 적재된 화물 중 최상단에 위치한 화물이 박스 형태이고 최상단에 위치한 화물의 상부에 로봇 팔 장치(102)의 진입 공간이 확보된 경우, 로봇 팔 장치(102)는 다운 스윕(down sweep) 모드로 동작하여 최상단에 위치한 화물을 하차시킬 수 있다. 이때, 로봇 팔 장치(102)는 적재된 화물에서 최상단에 위치한 화물 중 가장 바깥쪽에 위치하는 화물들을 다운 스윕 모드로 하차시킬 수 있으나, 이에 한정되는 것은 아니다.Referring to FIG. 11, the cargo unloading automation machine (100) can position the robot arm device (102) above the cargo in order to unload the cargo located at the top among the loaded cargo. In an exemplary embodiment, if the cargo located at the top among the loaded cargo is in the shape of a box and an entry space for the robot arm device (102) is secured above the cargo located at the top, the robot arm device (102) can operate in a down sweep mode to unload the cargo located at the top. At this time, the robot arm device (102) can unload the cargo located at the outermost part among the cargo located at the top among the loaded cargo in the down sweep mode, but is not limited thereto.
도 12를 참조하면, 로봇 팔 장치(102)가 다운 스윕(down sweep) 모드를 통해 적재된 화물 중 최상단에 위치한 화물을 컨베이어 장치(104) 측으로 하차시키는 상태를 나타내었다. 여기서, 다운 스윕 모드는 핸드 유닛(113)의 하차 컨베이어 벨트(121)를 대상 화물(즉, 하차시킬 화물)의 상부에서 대상 화물과 마주보도록 배치시킨 상태(즉, 하차 컨베이어 벨트(121)의 표면이 대상 화물의 상부에서 대상 화물의 상면과 마주보는 상태)에서 하차 컨베이어 벨트(121)를 본체 프레임(108) 방향 측으로 회전하여 대상 화물을 아래로 쓸어 내리도록 하는 동작 모드를 의미할 수 있다. 이때, 다운 스윕 모드를 통해 하차시킬 화물의 개수 또는 화물의 위치 등에 따라 한 쌍의 하차 컨베이어 벨트(121)가 모두 다운 스윕 모드로 동작할 수도 있고, 그 중 어느 하나만 다운 스윕 모드로 동작할 수도 있다.Referring to FIG. 12, the robot arm device (102) is shown in a state in which the cargo located at the top among the loaded cargo is unloaded toward the conveyor device (104) through the down sweep mode. Here, the down sweep mode may mean an operation mode in which the unloading conveyor belt (121) of the hand unit (113) is positioned to face the target cargo (i.e., the cargo to be unloaded) from above the target cargo (i.e., the surface of the unloading conveyor belt (121) faces the upper surface of the target cargo from above the target cargo) and the unloading conveyor belt (121) is rotated toward the main body frame (108) to sweep down the target cargo. At this time, depending on the number of cargo to be unloaded or the location of the cargo through the down sweep mode, both of the unloading conveyor belts (121) may operate in the down sweep mode, or only one of them may operate in the down sweep mode.
도 13a 내지 도 13c를 참조하면, 로봇 팔 장치(102)가 측면 스윕(side sweep) 모드를 통해 적재된 화물을 하차시키는 상태를 나타내었다. 예시적인 실시예에서, 로봇 팔 장치(102)는 적재된 화물에서 최상단에 위치한 화물 중 가장 바깥쪽에 위치하는 화물들을 다운 스윕 모드로 하차시킨 후, 가운데 부분에 위치하는 화물들을 측면 스윕 모드로 하차시킬 수 있다. 그러나, 이에 한정되는 것은 아니며 적재된 화물 중 최상단에 위치한 화물이 박스 형태이고 최상단에 위치한 화물의 측부에 로봇 팔 장치(102)의 진입 공간이 확보된 경우, 로봇 팔 장치(102)는 측면 스윕 모드로 동작하여 화물을 하차시킬 수 있다.Referring to FIGS. 13A to 13C, the robot arm device (102) is shown in a state of unloading loaded cargo through a side sweep mode. In an exemplary embodiment, the robot arm device (102) may unload cargo located at the outermost end among the loaded cargoes located at the top end in a down sweep mode, and then unload cargoes located at the center end in a side sweep mode. However, the present invention is not limited thereto, and if the cargo located at the top end among the loaded cargoes is in a box shape and an entry space for the robot arm device (102) is secured on the side of the cargo located at the top end, the robot arm device (102) may operate in the side sweep mode to unload the cargo.
여기서, 측면 스윕 모드는 한 쌍의 하차 컨베이어 벨트(121) 사이에 하나 이상의 대상 화물이 위치하도록 하고, 한 쌍의 하차 컨베이어 벨트(121)를 대상 화물(즉, 하차시킬 화물)의 양측부에서 대상 화물과 마주보도록 배치시킨 상태(즉, 하차 컨베이어 벨트(121)의 표면이 대상 화물의 측부에서 대상 화물의 측면과 마주보는 상태)에서 한 쌍의 하차 컨베이어 벨트(121)를 본체 프레임(108) 방향 측으로 회전하여 대상 화물을 아래로 쓸어 내리도록 하는 동작 모드를 의미할 수 있다. Here, the side sweep mode may mean an operation mode in which one or more target cargoes are positioned between a pair of unloading conveyor belts (121), and a pair of unloading conveyor belts (121) are positioned to face the target cargo (i.e., cargo to be unloaded) on both sides of the target cargo (i.e., a state in which the surface of the unloading conveyor belt (121) faces the side of the target cargo on the side of the target cargo) and the pair of unloading conveyor belts (121) are rotated toward the main body frame (108) to sweep down the target cargo.
구체적으로, 로봇 팔 장치(102)는 핸드 유닛(113)을 적재된 화물의 측부 공간으로 진입시킬 수 있다(도 13a). 다음으로, 로봇 팔 장치(102)는 핸드 유닛(113)의 한 쌍의 하차 컨베이어 벨트(121)가 대상 화물의 측면과 마주보도록 배치할 수 있다(도 13b). 다음으로, 로봇 팔 장치(102)는 한 쌍의 하차 컨베이어 벨트(121)를 본체 프레임(108) 방향 측으로 회전하여 대상 화물을 아래로 하차시킬 수 있다(도 13c). 이때, 화물 하차 자동화 머신(100)은 적재된 화물들이 하차됨에 따라 한 쌍의 로봇 팔 장치(102)를 상호 안쪽으로 모으면서 측면 스윕 모드로 계속 동작할 수 있다.Specifically, the robot arm device (102) can cause the hand unit (113) to enter the side space of the loaded cargo (FIG. 13a). Next, the robot arm device (102) can arrange a pair of unloading conveyor belts (121) of the hand unit (113) to face the side of the target cargo (FIG. 13b). Next, the robot arm device (102) can rotate the pair of unloading conveyor belts (121) toward the main body frame (108) to unload the target cargo downward (FIG. 13c). At this time, the cargo unloading automation machine (100) can continue to operate in a side sweep mode while bringing the pair of robot arm devices (102) inward to each other as the loaded cargo is unloaded.
도 14a 내지 도 14c를 참조하면, 로봇 팔 장치(102)가 클램핑 모드를 통해 적재된 화물을 하차시키는 상태를 나타내었다. 예시적인 실시예에서, 화물 하차 자동화 머신(100)은 하차해야 할 화물의 종류에 따라 로봇 팔 장치(102)를 클램핑 모드로 동작시킬 수 있다. 예를 들어, 하차해야 할 화물의 종류가 마대 자루 또는 파우치와 같이 클램프 수단(125)을 통해 잡을 수 있는 화물인 경우, 화물 하차 자동화 머신(100)은 로봇 팔 장치(102)를 클램핑 모드로 동작시킬 수 있다. Referring to FIGS. 14A to 14C, a state in which the robot arm device (102) unloads a loaded cargo through a clamping mode is illustrated. In an exemplary embodiment, the cargo unloading automation machine (100) can operate the robot arm device (102) in the clamping mode depending on the type of cargo to be unloaded. For example, if the type of cargo to be unloaded is a cargo that can be held through a clamping means (125), such as a sack or pouch, the cargo unloading automation machine (100) can operate the robot arm device (102) in the clamping mode.
구체적으로, 화물의 종류가 마대 자루인 경우(도 14a), 로봇 팔 장치(102)는 핸드 유닛(113)을 대상 화물 측으로 이동시킨 후 클램프 수단(125)의 클램핑부(125a)을 통해 대상 화물을 붙잡을 수 있다(도 14b). 이때, 대상 화물과의 거리에 따라 클램핑부(125a)를 전진 이동시킬 수도 있다. 다음으로, 로봇 팔 장치(102)는 대상 화물을 아래로 잡아당겨 대상 화물을 하차시킬 수 있다(도 14c).Specifically, when the type of cargo is a sack (Fig. 14a), the robot arm device (102) can move the hand unit (113) toward the target cargo and then grab the target cargo through the clamping part (125a) of the clamping means (125) (Fig. 14b). At this time, the clamping part (125a) can also be moved forward depending on the distance from the target cargo. Next, the robot arm device (102) can pull the target cargo down to unload the target cargo (Fig. 14c).
도 15a 내지 도 15c를 참조하면, 로봇 팔 장치(102)가 흡착 모드를 통해 적재된 화물을 하차시키는 상태를 나타내었다. 예시적인 실시예에서, 로봇 팔 장치(102)는 화물의 적재 높이 및 화물의 종류 중 하나 이상에 따라 흡착 모드로 화물을 하차시킬 수 있다. 예를 들어, 대상 화물이 최하단 또는 최상단에 위치하고 화물이 박스 형태인 경우, 로봇 팔 장치(102)는 흡착 모드를 통해 대상 화물을 하차시킬 수 있다. 도 15a 내지 도 15c에서는 대상 화물이 최하단에 위치하는 박스 형태인 경우 흡착 모드로 화물을 하차시키는 상태를 나타내었다. Referring to FIGS. 15A to 15C, a state in which the robot arm device (102) unloads a loaded cargo through the suction mode is illustrated. In an exemplary embodiment, the robot arm device (102) can unload a cargo through the suction mode depending on at least one of the loading height of the cargo and the type of the cargo. For example, when the target cargo is located at the bottom or top and the cargo is in the shape of a box, the robot arm device (102) can unload the target cargo through the suction mode. FIGS. 15A to 15C illustrate a state in which the cargo is unloaded through the suction mode when the target cargo is in the shape of a box located at the bottom.
구체적으로, 로봇 팔 장치(102)는 흡착 수단(123)의 흡착 패드부(123a)를 통해 대상 화물을 흡착할 수 있다(도 15a). 이때, 대상 화물과의 거리에 따라 흡착 패드부(123a)를 전진 이동시킬 수도 있다. 다음으로, 로봇 팔 장치(102)는 대상 화물을 흡착시킨 상태에서 대상 화물을 컨베이어 장치(104)의 상부로 이동시킬 수 있다(도 15b). 다음으로, 로봇 팔 장치(102)는 흡착 패드부(123a)에서 대상 화물을 탈착시켜 대상 화물을 컨베이어 장치(104)에 하차시킬 수 있다(도 15c).Specifically, the robot arm device (102) can adsorb the target cargo through the adsorption pad portion (123a) of the adsorption means (123) (Fig. 15a). At this time, the adsorption pad portion (123a) can also be moved forward depending on the distance from the target cargo. Next, the robot arm device (102) can move the target cargo to the upper part of the conveyor device (104) while adsorbing the target cargo (Fig. 15b). Next, the robot arm device (102) can detach the target cargo from the adsorption pad portion (123a) and unload the target cargo onto the conveyor device (104) (Fig. 15c).
개시되는 실시예에 의하면, 화물 하차 자동화 머신(100)은 다축 회전 및 이동이 가능한 한 쌍의 로봇 팔 장치(102)를 구비하며, 로봇 팔 장치(102)가 하차 컨베이어 벨트(121), 흡착 수단(123), 및 클램프 수단(125)을 구비함으로써, 적재된 화물의 위치, 화물의 적재 패턴, 및 화물의 종류 등에 따라 다운 스윕(down sweep) 모드, 측면 스윕(side sweep) 모드, 흡착 모드, 및 클램핑 모드 등과 같은 다양한 하차 모드로 동작하여 적재 화물을 용이하고 신속하게 하차시킬 수 있게 된다. According to the disclosed embodiment, a cargo unloading automation machine (100) is provided with a pair of robot arm devices (102) capable of multi-axis rotation and movement, and since the robot arm devices (102) are provided with an unloading conveyor belt (121), an adsorption means (123), and a clamp means (125), the machine operates in various unloading modes, such as a down sweep mode, a side sweep mode, an adsorption mode, and a clamping mode, depending on the position of the loaded cargo, the loading pattern of the cargo, the type of the cargo, etc., thereby enabling the loaded cargo to be unloaded easily and quickly.
도 16은 본 발명의 일 실시예에 따른 화물 하차 자동화 방법에서 하차 모드를 결정하는 과정을 나타낸 도면이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.FIG. 16 is a drawing showing a process for determining an unloading mode in a cargo unloading automation method according to one embodiment of the present invention. In the illustrated flowchart, the method is described by dividing it into a plurality of steps, but at least some of the steps may be performed in a different order, combined with other steps and performed together, omitted, divided into detailed steps, or performed by adding one or more steps that are not illustrated.
도 16을 참조하면, 화물 하차 자동화 머신(100)은 적재함 내부에 적재된 화물을 촬영한 영상(적재 화물 영상)을 획득할 수 있다(S 101). 예를 들어, 화물 하차 자동화 머신(100)은 3D 깊이 카메라(3D depth camera), 비전 센서 또는 라이다(Lidar), 및 이들이 조합된 장비 등을 통해 적재 화물 영상을 획득할 수 있다. Referring to Fig. 16, the cargo unloading automation machine (100) can obtain an image (loaded cargo image) of cargo loaded inside a loading box (S 101). For example, the cargo unloading automation machine (100) can obtain an image of loaded cargo through a 3D depth camera, a vision sensor or Lidar, and equipment combining these.
다음으로, 화물 하차 자동화 머신(100)은 적재 화물 영상에서 각 객체의 경계(edge) 정보 및 깊이(depth) 정보에 기반하여 적재된 개별 화물을 인식할 수 있다(S 103). Next, the cargo unloading automation machine (100) can recognize each loaded cargo based on edge information and depth information of each object in the loaded cargo image (S 103).
여기서, 화물 하차 자동화 머신(100)은 적재함의 전방에서 적재함 내부를 촬영하게 되므로, 깊이 정보는 적재 화물 영상에 포함된 객체와 화물 하차 자동화 머신(100)과의 거리를 의미할 수 있다. 적재 화물 영상은 이러한 깊이 정보를 알 수 있도록 촬영된 것일 수 있다. 그리고, 적재 화물 영상에서 각 객체의 경계 정보는 딥러닝(Deep Learning) 기반의 인공 신경망 모델들 중 객체 분할 모델을 이용하여 획득할 수 있다. 화물 하차 자동화 머신(100)은 인식된 각 화물에 인덱스를 부여할 수 있다. 적재된 개별 화물을 인식하는 구체적인 방법에 대해서는 후술하기로 한다.Here, the cargo unloading automation machine (100) photographs the inside of the loading box from the front of the loading box, so the depth information may mean the distance between the object included in the loaded cargo image and the cargo unloading automation machine (100). The loaded cargo image may be photographed so that such depth information can be known. In addition, the boundary information of each object in the loaded cargo image can be obtained using an object segmentation model among artificial neural network models based on deep learning. The cargo unloading automation machine (100) can assign an index to each recognized cargo. A specific method for recognizing each loaded cargo will be described later.
다음으로, 화물 하차 자동화 머신(100)은 인식된 각 화물의 위치, 각 화물의 크기, 각 화물의 종류, 및 적재함 내 화물의 적재 패턴 중 하나 이상을 포함하는 적재 화물 관련 정보를 생성할 수 있다(S 105). Next, the cargo unloading automation machine (100) can generate loaded cargo-related information including one or more of the recognized location of each cargo, the size of each cargo, the type of each cargo, and the loading pattern of the cargo in the loading box (S 105).
즉, 화물 하차 자동화 머신(100)은 적재함 내에서 각 화물이 어느 위치에 존재하는지, 각 화물의 크기는 어떻게 되는지, 각 화물의 종류가 어떻게 되는지, 적재함 내 화물들이 어떤 패턴으로 적재되어 있는지 등을 확인할 수 있다. That is, the cargo unloading automation machine (100) can check the location of each cargo within the loading compartment, the size of each cargo, the type of each cargo, and the pattern in which the cargo within the loading compartment is loaded.
적재함 내에는 다양한 종류의 화물들이 다양한 패턴(예를 들어, 박스들이 정렬되어 적재된 경우, 밑 부분에는 박스들이 정렬되어 적재되고 윗 부분에는 박스들이 비정렬되어 적재된 경우, 마대자루들이 정렬되어 적재된 경우, 밑 부분에는 마대자루들이 정렬되어 적재되고 윗 부분에는 마대자루들이 비정렬되어 적재된 경우, 밑 부분에는 박스들이 적재되고, 윗 부분에는 마대자루들이 적재된 경우 등)으로 적재되어 있는데, 화물 하차 자동화 머신(100)은 적재 화물 영상을 분석하여 적재 화물 관련 정보를 생성할 수 있다. Inside the loading compartment, various types of cargo are loaded in various patterns (for example, when boxes are loaded in an aligned manner, when boxes are loaded in an aligned manner at the bottom and unaligned at the top, when sacks are loaded in an aligned manner, when sacks are loaded in an aligned manner at the bottom and unaligned at the top, when boxes are loaded in the bottom and sacks are loaded in an aligned manner at the top, etc.), and the cargo unloading automation machine (100) can analyze the loaded cargo image to generate information related to the loaded cargo.
예시적인 실시예에서, 화물 하차 자동화 머신(100)은 적재 화물 관련 정보 생성 시 딥러닝(Deep Learning) 기반의 인공 신경망 모델들 중 분류 모델을 이용할 수 있다. In an exemplary embodiment, the cargo unloading automation machine (100) may use a classification model among artificial neural network models based on deep learning when generating information related to loaded cargo.
다음으로, 화물 하차 자동화 머신(100)은 적재 화물 관련 정보에 기반하여 화물의 하차 순서 및 화물의 하차 모드를 결정할 수 있다(S 107).Next, the cargo unloading automation machine (100) can determine the cargo unloading order and cargo unloading mode based on the loaded cargo-related information (S 107).
즉, 화물 하차 자동화 머신(100)은 적재 화물 관련 정보에 기반하여 적재함 내 적재된 화물들을 어떤 순서로 하차시킬지 결정할 수 있다. 그리고, 화물 하차 자동화 머신(100)은 각 화물을 하차시킬 때 어떤 하차 모드를 통해 하차시킬지 여부를 결정할 수 있다. That is, the cargo unloading automation machine (100) can determine in what order to unload the cargo loaded in the loading box based on the information related to the loaded cargo. In addition, the cargo unloading automation machine (100) can determine which unloading mode to use when unloading each cargo.
도 17은 본 발명의 일 실시예에 따른 화물 하차 자동화 방법에서 적재된 개별 화물을 인식하는 방법을 나타낸 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.Fig. 17 is a flow chart showing a method for recognizing individual loaded cargo in a cargo unloading automation method according to one embodiment of the present invention. In the illustrated flow chart, the method is described by dividing it into a plurality of steps, but at least some of the steps may be performed in a different order, combined with other steps and performed together, omitted, divided into detailed steps, or performed by adding one or more steps that are not illustrated.
도 17을 참조하면, 화물 하차 자동화 머신(100)은 RGB-D(Red Green Blue Depth) 센서를 이용하여 적재된 화물에 대한 RGB 이미지 및 깊이 이미지를 획득하고, 이들로부터 적재된 화물에 대한 포인트 클라우드를 획득할 수 있다(S 201). 일 실시예에서, 화물 하차 자동화 머신(100)은 2개의 RGB-D 센서(좌측 센서 및 우측 센서)를 이용하여 적재된 화물에 대한 RGB 이미지 및 깊이 이미지를 획득할 수 있다. Referring to FIG. 17, the cargo unloading automation machine (100) can obtain RGB images and depth images of loaded cargo using an RGB-D (Red Green Blue Depth) sensor, and obtain a point cloud of the loaded cargo from them (S 201). In one embodiment, the cargo unloading automation machine (100) can obtain RGB images and depth images of loaded cargo using two RGB-D sensors (a left sensor and a right sensor).
다음으로, 화물 하차 자동화 머신(100)은 RGB 이미지에서 적재된 각 개별 화물의 경계선 정보를 획득할 수 있다(S 203). 일 실시예에서, 화물 하차 자동화 머신(100)은 딥러닝 기반의 객체 분할 모델을 이용하여 RGB 이미지에서 각 개별 화물의 경계선 정보를 획득할 수 있다. 이때, 객체 분할 모델은 입력되는 이미지로부터 해당 이미지 내에 포함된 객체를 검출 및 분할하도록 학습된 인공지능 모델일 수 있다. Next, the cargo unloading automation machine (100) can obtain boundary information of each individual cargo loaded from the RGB image (S 203). In one embodiment, the cargo unloading automation machine (100) can obtain boundary information of each individual cargo from the RGB image using a deep learning-based object segmentation model. At this time, the object segmentation model may be an artificial intelligence model learned to detect and segment objects included in an input image from the corresponding image.
객체 분할 모델은 정형 화물과 비정형 화물이 혼합 적재된 상태에서도 각 개별 화물을 검출하여 각 화물의 경계를 검출하도록 학습될 수 있다. 도 19는 본 발명의 일 실시예에서 객체 분할 모델을 학습하기 위한 학습 데이터에 라벨링을 수행한 상태를 나타낸 도면이다. 도 18에서와 같이, 적재된 화물을 촬영한 RGB 이미지에서 각 화물에 대해 라벨링(box, icebox, sack 등)을 수행하여 학습 데이터를 생성하고, 학습 데이터를 객체 분할 모델에 입력하여 객체 분할 모델을 학습시킬 수 있다. The object segmentation model can be trained to detect each individual cargo and detect the boundary of each cargo even when regular cargo and irregular cargo are mixedly loaded. FIG. 19 is a diagram showing a state in which labeling is performed on learning data for learning an object segmentation model in one embodiment of the present invention. As in FIG. 18, labeling (box, icebox, sack, etc.) is performed on each cargo in an RGB image of the loaded cargo to generate learning data, and the learning data is input to the object segmentation model to train the object segmentation model.
도 19는 본 발명의 일 실시예에서 적재된 화물의 RGB 이미지 및 객체 분할 모델을 통한 객체 분할의 결과를 나타낸 도면이다. 적재된 화물의 RGB 이미지를 객체 분할 모델에 입력하면, 객체 분할 모델에서 RGB 이미지 내 각 객체를 분할하여 각 개별 화물의 경계선 정보를 획득할 수 있다.Fig. 19 is a diagram showing the result of object segmentation using an RGB image of loaded cargo and an object segmentation model in one embodiment of the present invention. When the RGB image of loaded cargo is input into the object segmentation model, the object segmentation model can segment each object in the RGB image to obtain boundary information of each individual cargo.
다음으로, 화물 하차 자동화 머신(100)은 적재된 화물에 대한 깊이 이미지, 포인트 클라우드, 및 개별 화물의 경계선 정보에 기초하여 정형 화물 및 비정형 화물을 각각 인식할 수 있다(S 205).Next, the cargo unloading automation machine (100) can recognize regular cargo and irregular cargo, respectively, based on the depth image of the loaded cargo, the point cloud, and the boundary information of each cargo (S 205).
도 20은 본 발명의 일 실시예에서 정형 화물 및 비정형 화물을 인식하는 과정을 나타낸 도면이다. 적재된 화물 중 정형 화물(예를 들어, 박스 또는 아이스 박스 등)의 경우, 화물 하차 자동화 머신(100)은 해당 화물의 깊이 값을 해당 화물의 경계선 안쪽에서 획득하여 해당 화물이 주변 화물의 깊이 값에 영향을 받는 것을 방지할 수 있다. 또한, 화물 하차 자동화 머신(100)은 해당 화물의 포인트 클라우드에 대해 다면체 변환을 수행하여 평면 상에 위치한 내부 포인트 클라우드가 가장 많은 평면을 해당 화물의 주 평면으로 획득할 수 있다. 화물 하차 자동화 머신(100)은 주 평면 상에 투영한 경계선 상의 포인트 클라우드에 기초하여 해당 화물의 윤곽선을 획득하고, 획득한 윤곽선을 따라 로테이션 캘리퍼(rotation caliper)를 수행하여 해당 화물의 3차원 유향 경계 상자(Oriented Bound Box)의 위치, 방향, 및 크기를 추정할 수 있다. FIG. 20 is a diagram showing a process for recognizing regular cargo and irregular cargo in one embodiment of the present invention. In the case of regular cargo (e.g., a box or an ice box) among the loaded cargo, the cargo unloading automation machine (100) can obtain the depth value of the corresponding cargo from inside the boundary line of the corresponding cargo to prevent the corresponding cargo from being affected by the depth values of the surrounding cargo. In addition, the cargo unloading automation machine (100) can perform polyhedral transformation on the point cloud of the corresponding cargo to obtain a plane having the largest number of internal point clouds located on the plane as the main plane of the corresponding cargo. The cargo unloading automation machine (100) can obtain the outline of the corresponding cargo based on the point cloud on the boundary line projected onto the main plane, and can estimate the position, direction, and size of the 3D oriented bounding box of the corresponding cargo by performing a rotation caliper along the obtained outline.
한편, 적재된 화물 중 비정형 화물(예를 들어, 마대, 파우치 등)의 경우, 화물 하차 자동화 머신(100)은 해당 화물의 경계선 안쪽에서 획득한 포인트 클라우드와 경계선을 병합하여 세그먼트화된 포인트 클라우드(segmented pointcloud)를 획득하고, 세그먼트화된 포인트 클라우드에 기초하여 해당 화물의 위치, 방향, 및 크기를 추정할 수 있다. Meanwhile, in the case of irregular cargo (e.g., a sling, a pouch, etc.) among the loaded cargo, the cargo unloading automation machine (100) acquires a segmented point cloud by merging the point cloud acquired inside the boundary line of the cargo and the boundary line, and can estimate the location, direction, and size of the cargo based on the segmented point cloud.
적재된 화물에서 개별 화물은 인식한 경우, 화물 하차 자동화 머신(100)은 개별 화물의 인식 정보를 통합하여 복수 개의 화물 적재 상태를 인식함에 따라 적재 화물 관련 정보를 생성할 수 있다. When individual cargo is recognized from the loaded cargo, the cargo unloading automation machine (100) can generate information related to the loaded cargo by recognizing the loading status of multiple cargoes by integrating the recognition information of the individual cargo.
개시되는 실시예에 의하면, 적재된 화물의 RGB 이미지 및 깊이 이미지에 기초하여 별도의 3D 모델을 변환하는 과정 없이 각 개별 화물을 인식함으로써 화물 인식 속도를 높일 수 있고, 정형 화물과 비정형 화물을 각각 구분하여 인식할 수 있게 된다.According to the disclosed embodiment, the cargo recognition speed can be increased by recognizing each individual cargo without a process of converting a separate 3D model based on an RGB image and a depth image of the loaded cargo, and regular cargo and irregular cargo can be recognized separately.
도 21은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.FIG. 21 is a block diagram illustrating a computing environment (10) including a computing device suitable for use in exemplary embodiments. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components other than those described below.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 화물 하차 자동화 머신(100)일 수 있다. 컴퓨팅 장치(12)는 화물 하차 자동화 방법을 수행하기 위한 장치일 수 있다. The illustrated computing environment (10) includes a computing device (12). In one embodiment, the computing device (12) may be a cargo unloading automation machine (100). The computing device (12) may be a device for performing a cargo unloading automation method.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.A computing device (12) includes at least one processor (14), a computer-readable storage medium (16), and a communication bus (18). The processor (14) may cause the computing device (12) to operate in accordance with the exemplary embodiments described above. For example, the processor (14) may execute one or more programs stored in the computer-readable storage medium (16). The one or more programs may include one or more computer-executable instructions, which, when executed by the processor (14), may be configured to cause the computing device (12) to perform operations in accordance with the exemplary embodiments.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.A computer-readable storage medium (16) is configured to store computer-executable instructions or program code, program data, and/or other suitable forms of information. A program (20) stored in the computer-readable storage medium (16) includes a set of instructions executable by the processor (14). In one embodiment, the computer-readable storage medium (16) may be a memory (volatile memory such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, any other form of storage medium that can be accessed by the computing device (12) and capable of storing desired information, or a suitable combination thereof.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.A communication bus (18) interconnects various other components of the computing device (12), including the processor (14) and computer-readable storage media (16).
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.The computing device (12) may also include one or more input/output interfaces (22) that provide interfaces for one or more input/output devices (24) and one or more network communication interfaces (26). The input/output interfaces (22) and the network communication interfaces (26) are coupled to the communication bus (18). The input/output devices (24) may be coupled to other components of the computing device (12) via the input/output interfaces (22). Exemplary input/output devices (24) may include input devices such as a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or a touchscreen), a voice or sound input device, various types of sensor devices and/or photographing devices, and/or output devices such as a display device, a printer, speakers, and/or a network card. The exemplary input/output devices (24) may be included within the computing device (12) as a component that constitutes the computing device (12), or may be coupled to the computing device (12) as a separate device distinct from the computing device (12).
이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위내에서 변경 또는 수정이 가능하다. 저술한 실시예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The above detailed description is illustrative of the present invention. In addition, the above contents illustrate and explain the preferred embodiment of the present invention, and the present invention can be used in various other combinations, changes, and environments. That is, changes or modifications are possible within the scope of the inventive concept disclosed in this specification, the scope equivalent to the written disclosure, and/or the scope of technology or knowledge in the art. The written embodiment describes the best state for implementing the technical idea of the present invention, and various changes required for specific application fields and uses of the present invention are also possible. Therefore, the above detailed description of the invention is not intended to limit the present invention to the disclosed embodiments. In addition, the appended claims should be interpreted to include other embodiments.
Claims (5)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230145545A KR102923339B1 (en) | 2023-10-27 | Cargo unloading automation method based on cargo vision recognition and computing device for executing the method | |
| KR10-2023-0145545 | 2023-10-27 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025089587A1 true WO2025089587A1 (en) | 2025-05-01 |
Family
ID=95516106
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2024/012427 Pending WO2025089587A1 (en) | 2023-10-27 | 2024-08-21 | Cargo unloading automation method based on cargo vision recognition and computing device for performing same |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025089587A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2015185628A2 (en) * | 2014-06-03 | 2015-12-10 | Ocado Innovation Limited | Methods, systems and apparatus for controlling movement of transporting devices |
| JP2020040789A (en) * | 2018-09-11 | 2020-03-19 | 株式会社東芝 | Unloading device and detecting method of cargo |
| JP6942576B2 (en) * | 2017-09-15 | 2021-09-29 | 株式会社東芝 | Transport device |
| KR20230046321A (en) * | 2020-08-11 | 2023-04-05 | 오카도 이노베이션 리미티드 | Picker for items retrievable by robots |
| KR20230072392A (en) * | 2021-11-15 | 2023-05-24 | 주식회사 에스티씨엔지니어링 | Cargo unloading automation method and computing device for executing the method |
-
2024
- 2024-08-21 WO PCT/KR2024/012427 patent/WO2025089587A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2015185628A2 (en) * | 2014-06-03 | 2015-12-10 | Ocado Innovation Limited | Methods, systems and apparatus for controlling movement of transporting devices |
| JP6942576B2 (en) * | 2017-09-15 | 2021-09-29 | 株式会社東芝 | Transport device |
| JP2020040789A (en) * | 2018-09-11 | 2020-03-19 | 株式会社東芝 | Unloading device and detecting method of cargo |
| KR20230046321A (en) * | 2020-08-11 | 2023-04-05 | 오카도 이노베이션 리미티드 | Picker for items retrievable by robots |
| KR20230072392A (en) * | 2021-11-15 | 2023-05-24 | 주식회사 에스티씨엔지니어링 | Cargo unloading automation method and computing device for executing the method |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20250063847A (en) | 2025-05-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11383380B2 (en) | Object pickup strategies for a robotic device | |
| US20200055091A1 (en) | Logistics sorting system and logistics sorting method | |
| WO2019061310A1 (en) | Robot-based automatic sorting method and system, robot and storage device | |
| US9457970B1 (en) | Modular cross-docking system | |
| CN102565749B (en) | Flexible automatic verification system and method for watt-hour meter | |
| WO2020093902A1 (en) | Logistics sorting system and logistics sorting method | |
| KR102762710B1 (en) | Cargo unloading automation method and computing device for executing the method | |
| CN113602799B (en) | Airport luggage case carrying system and control method thereof | |
| WO2023001125A1 (en) | Cargo handling method and apparatus, and robot, sorting apparatus and warehousing system | |
| CN208036071U (en) | A kind of unmanned express delivery vehicle and unmanned express delivery delivery system | |
| CN114435840B (en) | Automatic picking device, material picking method and server | |
| JP2023038933A (en) | Robotic gripper assemblies for openable objects and methods for picking objects | |
| CN212550534U (en) | Goods picking system | |
| KR102734390B1 (en) | Cargo unloading automation method and cargo unloading automation machine for unloading cargo in the loading box | |
| WO2025089587A1 (en) | Cargo unloading automation method based on cargo vision recognition and computing device for performing same | |
| CN114453258A (en) | Parcel sorting system, parcel sorting method, industrial control equipment and storage medium | |
| WO2024242212A1 (en) | Cargo unloading automation method and computing device for performing same | |
| CN202421490U (en) | Flexible and automatic detection system for electric energy meter | |
| KR102923339B1 (en) | Cargo unloading automation method based on cargo vision recognition and computing device for executing the method | |
| CN118205848A (en) | A high-level intelligent book handling, classification and sorting robot and its use method | |
| CN109629859A (en) | A kind of removable stage roller shutter type wing flats and its building method based on AGV Yu machine person cooperative work | |
| CN107942920A (en) | A kind of battery testing Workshop monitoring system | |
| CN114755989A (en) | Intelligent control system of storage logistics transport trolley | |
| CN218100264U (en) | Visual identification system | |
| KR102735078B1 (en) | Cargo unloading automation method and cargo unloading automation machine for executing the method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24882616 Country of ref document: EP Kind code of ref document: A1 |