CN109863365B - 从容器中拾取对象的方法、电子设备和系统 - Google Patents
从容器中拾取对象的方法、电子设备和系统 Download PDFInfo
- Publication number
- CN109863365B CN109863365B CN201680089846.4A CN201680089846A CN109863365B CN 109863365 B CN109863365 B CN 109863365B CN 201680089846 A CN201680089846 A CN 201680089846A CN 109863365 B CN109863365 B CN 109863365B
- Authority
- CN
- China
- Prior art keywords
- image
- container
- pixels
- robotic manipulator
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000013459 approach Methods 0.000 claims abstract description 11
- 230000009471 action Effects 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 13
- 230000003628 erosive effect Effects 0.000 claims description 9
- 238000010191 image analysis Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39543—Recognize object and plan hand shapes in grasping movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
公开了一种通过机器人机械手(211)从容器(230)中拾取对象的方法(100),并且该方法包括:获取包含表示对象(220)和容器(230)的灰度信息的像素的第一图像;获取包含表示对象(220)和容器(230)的3D空间信息的像素的第二图像;基于灰度信息来标识第一图像中的对象(220)的至少一个表面;基于所标识的第一图像中的对象(220)的至少一个表面和3D空间信息,来标识第二图像中的对象(220)的至少一个表面的像素;基于所标识的第二图像中的像素,控制机器人机械手(211)接近所标识的至少一个表面以拾取对象(220)。根据本公开的设备、系统或方法提供了一种用于使图像分析所需要的计算资源要求较低的改进的解决方案。另外,处理速度将大大提高,并且因此机器人机械手(211)的拾取动作快速且准确。
Description
技术领域
本文中公开的示例实施例总体上涉及通过机器人机械手从容器中拾取对象的方法,并且还涉及用于实现该方法的电子设备以及用于从容器中拾取对象的系统。
背景技术
在物流业或其他行业中,机器人广泛用于从较大的容器中拾取对象。通常,诸如盒子等对象随机放置在容器中。容器通常在传送带上移动,并且当机器人机械手准备从容器中拾取盒子时,传送带将停止。
因此,工业上需要能够从容器中快速拾取盒子,以便可以在更短的时间内清空容器。在清空容器之后,下一容器将被放置在适当位置以便机器人机械手清空。更快地清空一个容器中的盒子可以使得整体效率显著提高。
目前,3D相机可以用于促进拾取过程。基于由3D相机捕获的3D照片,机器人机械手能够接近容器中的盒子的很多表面中对于机器人机械手从中拾取来说相对容易的一个表面。通常,机器人或系统可以将对象的顶表面视为机器人机械手从中拾取的更容易的对象表面,因为顶表面不太可能被其他对象阻挡。然而,从所捕获的3D照片计算表面分布以便确定要接近的表面需要大量计算资源。因此,3D照片的分析需要时间,这对物流业来说并不令人满意。
发明内容
本文中公开的示例实施例提出了一种通过机器人机械手从容器中拾取对象的方法。
在一个方面,本文中公开的示例实施例提供了一种通过机器人机械手从容器中拾取对象的方法。该方法包括:获取包含表示对象和容器的灰度信息的像素的第一图像;获取包含表示对象和容器的3D空间信息的像素的第二图像;基于灰度信息来标识第一图像中的对象的至少一个表面;基于所标识的第一图像中的对象的至少一个表面和3D空间信息,来标识第二图像中的对象的至少一个表面的像素;以及基于所标识的第二图像中的像素,控制机器人机械手接近所标识的至少一个表面以拾取对象。
在另一方面,本文中公开的示例实施例提供了一种电子设备。该电子设备包括处理单元和存储器,该存储器被耦合到处理单元并且存储用于由处理单元执行的指令。这些指令在由处理单元执行时使得该设备执行包括以下操作的动作:基于对象和容器的灰度信息,标识第一图像中的对象的至少一个表面,第一图像包含表示对象和容器的灰度信息的像素;基于所标识的第一图像中的对象的至少一个表面、以及对象和容器的3D空间信息,标识第二图像中的对象的至少一个表面的像素,第二图像包含表示对象和容器的3D空间信息的像素;以及基于所标识的第二图像中的像素,控制机器人机械手接近所标识的至少一个表面以拾取对象。
在又一方面,本文中公开的示例实施例提供了一种用于从容器中拾取对象的系统。该系统包括:包括用于拾取对象的机器人机械手的机器人、相机和如上所述的电子设备。相机被配置为:获取包含表示对象和容器的灰度信息的像素的第一图像;并且获取包含表示对象和容器的3D空间信息的像素的第二图像。
通过以下描述,应当理解,根据本公开的设备、系统或方法提供了一种用于使图像分析所需要的计算资源要求较低的改进的解决方案。通过考虑灰度信息和3D空间信息,处理速度将大大提高,并且因此机器人机械手的拾取动作快速且准确。
附图说明
通过以下参考附图的详细描述,本文中公开的示例实施例的上述和其他目的、特征和优点将变得更易于理解。在附图中,将在示例中以非限制性方式示出本文中公开的若干示例实施例,在附图中:
图1示出了根据一个示例实施例的由机器人机械手从容器中拾取对象的方法的流程图;
图2示出了根据另一示例实施例的用于机器人拾取容器中的对象的示例工作环境;以及
图3-9分别示出了根据一个示例实施例的在每个处理阶段之后的图像。
在整个附图中,相同或相应的附图标记表示相同或相应的部分。
具体实施方式
现在将参考若干示例实施例讨论本文中描述的主题。这些实施例被讨论仅用于使得本领域技术人员能够更好地理解并且因此实现本文中描述的主题的目的,而不是暗示对主题的范围的任何限制。
术语“包括(comprises)”或“包含(includes)”及其变体应当被理解为表示“包括但不限于”的开放术语。术语“或”应当理解为“和/或”,除非上下文另外清楚地说明。术语“基于”应当被理解为“至少部分基于”。术语“可操作以”是指功能、动作、运动或状态可以通过由用户或外部机制引起的操作来实现。术语“一个实施例”和“实施例”应当被理解为“至少一个实施例”。术语“另一实施例”应当被理解为“至少一个其他实施例”。除非另有说明或限制,否则术语“安装”、“连接”、“支撑”和“耦合”及其变体被广泛使用并且包括直接和间接安装、连接、支撑和耦合。此外,“连接”和“耦合”不限于物理或机械连接或耦合。在下面的描述中,相同的附图标记和标号用于描述图1-10的若干视图中的相同、相似或相应的部分。下面可以包括明确的和隐含的其他定义。
图1示出了根据一个示例实施例的由机器人机械手从容器中拾取对象的方法100的流程图。图2示出了用于机器人210拾取容器230中的对象220的示例工作环境200。图3至图9分别示出了在每个处理阶段之后的图像300-900。在下文中,将以图1的流程中所示的顺序来解释根据本公开的方法。对于方法100中的每个块和子块(如果有的话),将相应地描述如图2-9中的任一个中所示的相应图像。
图2示出了用于在实际工作环境中从容器230中拾取对象220的系统200。系统200包括具有用于拾取对象220的机器人机械手211的机器人210和可以位于机器人机械手211的末梢附近的相机(未示出)。相机可以用于获取包含对象220和容器230的必要信息的图像,这将在以下段落中参考方法100详细说明。此外,系统200包括通常位于机器人210中的某处的电子设备。电子设备包括处理单元和耦合到处理单元并且存储用于由处理单元执行的指令的存储器,这些指令在由处理单元执行时使得该设备执行方法100中的动作。
容器230放置在传送带240上,并且机器人210固定到工作台250上。随着在传送带240上移动的容器230到达其中机器人210的机器人机械手211能够接近整个容器230的区域,传送带240将停止移动在其上的容器230。在图2的配置中,机器人机械手211可以进入容器230内的空间并且抓握任何对象220。这样的抓握动作可以通过本领域的任何现有手段来实现。例如,可以使用气动吸盘粘附到对象的表面。存在通常用于机器人机械手的其他抓握装置,并且它们通常要求在该空间中标识对象的特定表面以便于抓握动作。
图2示出了在基本上垂直于对象220的一个顶表面的方向上,将机器人机械手211接近该顶表面而使该顶表面被粘附到该机器人机械手211。如果机器人机械手211试图从另一角度接近对象220或者试图在另一表面处接近对象220,则由于对象的形状或由容器230限制的受限空间而可能难以拾取对象220。
应当理解,机器人机械手211如何接近对象220在很大程度上取决于对象220的形状和尺寸以及机器人机械手211的类型。例如,在容器中的对象是矩形盒子的情况下,可以有效地接近该盒子的六个表面之一。在其他情况下,接近对象的一个边缘可能是有效的。在实际运行传送带之前,用户可以定制如何通过什么类型的机器人机械手来拾取特定尺寸的对象。然而,为了成功地拾取对象,就在空间(容器)中的定位而言,标识对象的暴露表面总是有益的。
例如,假定容器230相对于机器人210静止并且放置在机器人机械手211能够拾取容器230中的任何对象220的区域内,可以执行方法100以用于从容器230中拾取一个对象220。通过重复方法100,机器人机械手211可以一个接一个地拾取所有对象220。一旦特定容器230被清空(即,留下空容器),具有多个对象的另一容器被传送带移动到该区域以代替空容器。然后控制机器人机械手一个接一个地从新容器中拾取对象。
在框101处,获取包含表示对象和容器的灰度信息的像素的第一图像。第一图像可以由数码相机捕获,该数码相机包括透镜、将光转换成信号的传感器和用于生成第一图像的处理器。所捕获的图像通常是以像素矩阵为特征的位图图像。为每个像素分配用于表示颜色和/或亮度的一些值。为了有效地标识第一图像的透视图内的对象的边界或边缘,仅使用亮度信息。这表示,所捕获的第一图像被转换为灰度图像。
应当理解,在本文中,亮度信息可以与灰度信息可互换地使用,并且包含灰度信息的图像并不表示它排除颜色信息。换言之,所捕获的第一图像可以包含颜色信息和灰度信息两者,尽管在框101的示例中仅利用灰度信息。也就是说,根据本公开的实施例,图像的颜色信息可以在某些情况下被保持,并且该颜色信息的使用也可能是有益的。另外,在整个说明书中,“边界”和“边缘”可以可互换地使用。这两个术语都可以指代对象的表面或外围线之间的边缘。
图3示出了第一图像的示例,图3是示出包括容器330的边界、矩形盒子形式的多个对象320和机器人310的一部分的透视图的灰度照片。从灰度图片可以看出,每个对象320具有一些边缘和一些表面,这些表面由于从一个表面到另一表面的亮度的突然变化而是可区分的。
在框102处,获取包含表示对象和容器的3D空间信息的像素的第二图像。第二图像可以由3D相机捕获。这样的3D相机的一个示例是输出空间中的对象的3D点云数据的双目相机。3D点云数据记录透视图中的对象的位置和取向。在一些实施例中,在框102处使用的3D相机可以与在框101处使用的相机集成。换言之,同一双目相机能够捕获灰度位图图像以及包括3D空间信息的图像。以此方式,两张照片共享相同的透视图,并且结果,表面和边缘的位置在这两个图像中是一致的。在替代实施例中,还可以针对框101和102使用两个相机。
作为示例,图4示出了包括3D空间信息的实际图像。该图像与在框101处生成的图像共享相同的透视图。因此,容器430和对象420的3D空间信息。容器430和对象420分别对应于图3中的容器330和对象320。然而,图3的第一图像示出了每个必须具有灰度或亮度信息的像素矩阵,而图4的第二图像示出了每个必须具有3D点云数据的像素矩阵。对于一个像素,3D点云数据可以包括表示该点的空间位置的坐标的X、Y和Z值(3D空间中的3个轴)。例如,用于记录3D点云数据的一种方法是针对三个轴在一个像素中包含红色、绿色和蓝色,并且因此三个轴的尺寸可以由三种颜色的水平表示。应当理解,用于记录和表示空间信息的其他三通道数据也是可行的。
从由3D相机捕获的第二图像,可以直接提取每个对象和对象的每个表面的位置和取向。但是,直接提取通常耗费时间和资源。而且,从图4中可以看出,当对象彼此靠近时,有时不同对象420的边界太靠近。在这样的情况下,所生成的第二图像可能具有大的域,其中若干表面连接或合并在一起,产生难以标识的边界。仅通过分析第二图像,可能经常发生表面的错误标识。为了解决上述问题,包含灰度信息的第一图像对于在分析第二图像之前确定2D照片中的边界/边缘的分布是有用的。
在框103处,基于来自第一图像的灰度信息来标识第一图像中的对象的至少一个表面。框103处的操作可以在将参考图5-7进行描述的三个子块中完成。在图5中,示出了通过去除诸如容器的边界等不相关区域来调节第一图像的透视图。结果,留下了对象520,其对应于图3中的对象320。
然后,如图6所示,基于灰度信息来提取对象的边缘。因为对象的每个表面面向不同的方向(取向),所以来自每个表面的反射光被相机不同地捕获。结果,通过分析第一图像中的灰度信息,能够标识对象的边缘。如图所示,通过突出显示图6的图像中的对象620的边缘/边界来标记对象620(对应于图3中的对象320和图5中的对象520)。
图7示出了另一突出显示的图像,其中边缘/边界变厚,从而进一步区分相同对象或不同对象的表面。在一些实施例中,这可以通过例如对边缘执行侵蚀过程来完成。侵蚀过程是一种用于消除边界内的嘈杂或无意义的点的常用的图像处理。另外,可以在侵蚀过程之前执行扩展过程,扩展过程通常也用于消除边界外的嘈杂或无意义的点。因此,通过图像处理技术,可以获取第一图像中的另外的区分表面720(对应于图3中的对象320、图5中的对象520和图6中的对象620)。由于形态学开放(扩展)和闭合(侵蚀)操作是现有技术,因此不在上下文中详细讨论它们。
应当注意,在上述过程中不一定需要某些操作。例如,容器的边界可以被保持在图像中,并且可以省略扩展或侵蚀操作。利用框103处的操作,标识并且提取对象的边缘/边界。因此,在框103之后,获取边缘在其位置方面的分布,这将在稍后在框104处使用。此外,在框103之后,通常同时标识对象的表面和边缘,因为表面被一些边缘包围,并且边缘又围绕表面。表面或边缘不能单独存在,因此所标识的表面也表示一些标识的边缘,反之亦然。
仍然参考图1,在框104处,基于所标识的第一图像中的对象(或边缘)的至少一个表面和3D空间信息来标识第二图像中的对象的至少一个表面的像素。具体地,所标识的第一图像中的边缘或表面指示对象的表面或边缘的分布,并且第一图像的透视图基本上对应于第二图像的透视图。因此,从第一图像中提取的位置信息可以无缝地应用于第二图像。例如,可以仅保留由所标识的第一图像中的边缘围绕的域,其中移除了第二图像中的其余像素。利用框104处的处理,如图8所示,有源像素的数量大大减少。结果,分析空间中的表面的位置和取向所需要的计算能力显著降低,并且因此有利地减少了实现计算所需要的时间。
在图8中,仍然存在一些不需要的区域801。这可能是由于在分析第一图像的过程中的一些错误地标识的边缘而导致的。由这些标识的边缘围绕的区域801可能在框104之后留在第二图像中。可以另外使用一些现有的图像处理算法来移除这些不需要的区域801,并且因此可以从第二图像中移除对象外部的像素。例如,在仅涉及立方体或矩形盒子的情况下,已知表面是四边形,并且因此可以消除除了四边形之外的任何形状。图9中示出了主要包括对象的表面的空间信息的结果图像的一个示例。通过使用空间信息,机器人可以很容易地知道容器中的盒子的空间分布,并且然后确定哪个表面是机器人机械手的“轻松选择”。
然后,在框105处,基于所标识的第二图像中的像素,控制机器人机械手接近所标识的至少一个表面以拾取对象。通常,机器人机械手更容易接近最靠近机械手的顶表面。因此,在一个实施例中,将从所标识的第二图像中的很多表面中确定顶表面。然后,向机器人机械手发出接近该顶表面以拾取相应对象的控制命令。
应当理解,方法100的序列不一定是上面讨论的序列。例如,用于获取第二图像的框102可以在用于获取第一图像的框101之前,或者可以在用于标识对象的表面或边缘的框103之后。此外,对象可以具有不同数量的表面,并且对象的形状可以是规则的(例如,立方体、盒子、金字塔等)或不规则的(例如,倒角或圆角对象)。
虽然在以上描述中以特定顺序描绘了操作,但是不应当理解为要求以所示的特定顺序或按顺序执行这些操作或者执行所有示出的操作以实现期望的结果。在某些情况下,多任务处理和并行处理可能是有利的。同样地,尽管在上述讨论中包含若干细节,但这些细节不应当被解释为对本文中描述的主题的范围的限制,而是作为可能特定于特定实施例的特征的描述。在单独实施例的上下文中描述的某些特征也可以在单个实施例中组合实现。另一方面,在单个实施例的上下文中描述的各种特征也可以在多个实施例中单独地或以任何合适的子组合来实现。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但应当理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。而是,上述具体特征和动作被公开作为实现权利要求的示例形式。
Claims (17)
1.一种通过机器人机械手从容器中拾取对象的方法,包括:
获取包含表示所述对象和所述容器的灰度信息的像素的第一图像;
获取包含表示所述对象和所述容器的3D空间信息的像素的第二图像;
基于所述灰度信息来标识所述第一图像中的所述对象的至少一个表面;
基于所标识的、所述第一图像中的所述对象的至少一个表面和所述3D空间信息,来标识所述第二图像中的所述对象的所述至少一个表面的像素;以及
基于所标识的、所述第二图像中的像素,控制所述机器人机械手接近所标识的至少一个表面以拾取所述对象。
2.根据权利要求1所述的方法,其中获取所述第二图像包括:
通过3D相机捕获所述第二图像;以及
确定所捕获的第二图像中的每个像素的3D点云数据的值。
3.根据权利要求2所述的方法,其中每个像素的3D点云数据的值包括第一维度中的值、第二维度中的值和第三维度中的值。
4.根据权利要求1所述的方法,其中标识所述第一图像中的所述对象的至少一个表面包括:
基于所述灰度信息来提取所述第一图像中的所述对象的边缘;以及
对所述边缘执行侵蚀过程,以标识所述第一图像中的所述对象的所述至少一个表面。
5.根据权利要求4所述的方法,其中在执行所述侵蚀过程之前,标识所述第一图像中的所述对象的至少一个表面还包括:
对所述边缘执行扩展过程。
6.根据权利要求1所述的方法,其中标识所述对象的所述至少一个表面的像素包括:
从所述第二图像中移除在所述对象外部的像素。
7.根据权利要求1所述的方法,其中控制所述机器人机械手还包括:
从所述至少一个表面中确定最靠近所述机器人机械手的顶表面;以及
控制所述机器人机械手接近最靠近的表面以拾取所述对象。
8.根据权利要求1至7中任一项所述的方法,其中所述对象是矩形盒子。
9.一种电子设备,包括:
处理单元;以及
存储器,被耦合到所述处理单元并且存储用于由所述处理单元执行的指令,所述指令在由所述处理单元执行时使得所述设备执行包括以下操作的动作:
基于对象和容器的灰度信息,标识第一图像中的所述对象的至少一个表面,所述第一图像包含表示所述对象和所述容器的灰度信息的像素;
基于所标识的所述第一图像中的所述对象的至少一个表面、以及所述对象和所述容器的3D空间信息,标识第二图像中的所述对象的所述至少一个表面的像素,所述第二图像包含表示所述对象和所述容器的3D空间信息的像素;以及
基于所标识的所述第二图像中的像素,控制机器人机械手接近所标识的至少一个表面以拾取所述对象。
10.根据权利要求9所述的电子设备,其中所述第二图像由3D相机捕获,并且所述指令在由所述处理单元执行时还使得所述设备执行包括以下操作的动作:
确定所捕获的第二图像中的每个像素的3D点云数据的值。
11.根据权利要求10所述的电子设备,其中每个像素的3D点云数据的值包括第一维度中的值、第二维度中的值和第三维度中的值。
12.根据权利要求9所述的电子设备,其中所述指令在由所述处理单元执行时还使得所述设备执行包括以下操作的动作:
基于所述灰度信息来提取所述第一图像中的所述对象的边缘;以及
对所述边缘执行侵蚀过程,以标识所述第一图像中的所述对象的所述至少一个表面。
13.根据权利要求12所述的电子设备,其中所述指令在由所述处理单元执行时还使得所述设备在执行所述侵蚀过程之前执行包括以下操作的动作:
对所述边缘执行扩展过程。
14.根据权利要求9所述的电子设备,其中所述指令在由所述处理单元执行时还使得所述设备执行包括以下操作的动作:
从所述第二图像中移除在所述对象外部的像素。
15.根据权利要求9所述的电子设备,其中所述指令在由所述处理单元执行时还使得所述设备执行包括以下操作的动作:
从所述至少一个表面中确定最靠近所述机器人机械手的顶表面;以及
控制所述机器人机械手接近最靠近的表面以拾取所述对象。
16.根据权利要求9至15中任一项所述的电子设备,其中所述对象是矩形盒子。
17.一种用于从容器中拾取对象的系统,包括:
机器人,包括用于拾取所述对象的机器人机械手;
相机,被配置为:
获取包含表示所述对象和所述容器的灰度信息的像素的第一图像;以及
获取包含表示所述对象和所述容器的3D空间信息的像素的第二图像;以及
根据权利要求9至16中任一项所述的电子设备。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/102932 WO2018072208A1 (en) | 2016-10-21 | 2016-10-21 | Method, electronic device and system of picking an object from a container |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109863365A CN109863365A (zh) | 2019-06-07 |
CN109863365B true CN109863365B (zh) | 2021-05-07 |
Family
ID=62018244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680089846.4A Active CN109863365B (zh) | 2016-10-21 | 2016-10-21 | 从容器中拾取对象的方法、电子设备和系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109863365B (zh) |
WO (1) | WO2018072208A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109615658B (zh) * | 2018-12-04 | 2021-06-01 | 广东拓斯达科技股份有限公司 | 机器人的物品拿取方法、装置、计算机设备及存储介质 |
CN110000783B (zh) * | 2019-04-04 | 2021-04-30 | 上海节卡机器人科技有限公司 | 机器人的视觉抓取方法和装置 |
WO2021053750A1 (ja) * | 2019-09-18 | 2021-03-25 | 株式会社Fuji | 作業ロボットおよび作業システム |
FR3135555B1 (fr) * | 2022-05-03 | 2024-08-30 | Innodura Tb | Procédé de préhension d’objets disposés en vrac |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1833258A (zh) * | 2003-08-07 | 2006-09-13 | 皇家飞利浦电子股份有限公司 | 图像对象处理 |
CN1834582A (zh) * | 2005-03-15 | 2006-09-20 | 欧姆龙株式会社 | 图像处理方法、三维位置测量方法以及图像处理装置 |
CN102601797A (zh) * | 2012-04-07 | 2012-07-25 | 大连镔海自控股份有限公司 | 一种三维平动和一维转动的高速并联机器人 |
CN103150544A (zh) * | 2011-08-30 | 2013-06-12 | 精工爱普生株式会社 | 用于对象姿态估计的方法和设备 |
US8565515B2 (en) * | 2009-03-12 | 2013-10-22 | Omron Corporation | Three-dimensional recognition result displaying method and three-dimensional visual sensor |
CN105333819A (zh) * | 2014-08-15 | 2016-02-17 | 苏州北硕检测技术有限公司 | 基于面激光传感器的机器人工件装配及形位公差检测系统及其检测方法 |
CN106204620A (zh) * | 2016-07-21 | 2016-12-07 | 清华大学 | 一种基于微视觉的触觉三维力检测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100357974C (zh) * | 2004-12-28 | 2007-12-26 | 北京航空航天大学 | 一种子像素级阶跃边缘快速提取方法 |
JP2011083883A (ja) * | 2009-10-19 | 2011-04-28 | Yaskawa Electric Corp | ロボット装置 |
CN102721376B (zh) * | 2012-06-20 | 2014-12-31 | 北京航空航天大学 | 一种大视场三维视觉传感器的标定方法 |
DE102014105456B4 (de) * | 2014-04-16 | 2020-01-30 | Minikomp Bogner GmbH | Verfahren zur Vermessung der Außenkontur von dreidimensionalen Messobjekten und zugehöriges Messsystem |
-
2016
- 2016-10-21 WO PCT/CN2016/102932 patent/WO2018072208A1/en active Application Filing
- 2016-10-21 CN CN201680089846.4A patent/CN109863365B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1833258A (zh) * | 2003-08-07 | 2006-09-13 | 皇家飞利浦电子股份有限公司 | 图像对象处理 |
CN1834582A (zh) * | 2005-03-15 | 2006-09-20 | 欧姆龙株式会社 | 图像处理方法、三维位置测量方法以及图像处理装置 |
US8565515B2 (en) * | 2009-03-12 | 2013-10-22 | Omron Corporation | Three-dimensional recognition result displaying method and three-dimensional visual sensor |
CN103150544A (zh) * | 2011-08-30 | 2013-06-12 | 精工爱普生株式会社 | 用于对象姿态估计的方法和设备 |
CN102601797A (zh) * | 2012-04-07 | 2012-07-25 | 大连镔海自控股份有限公司 | 一种三维平动和一维转动的高速并联机器人 |
CN105333819A (zh) * | 2014-08-15 | 2016-02-17 | 苏州北硕检测技术有限公司 | 基于面激光传感器的机器人工件装配及形位公差检测系统及其检测方法 |
CN106204620A (zh) * | 2016-07-21 | 2016-12-07 | 清华大学 | 一种基于微视觉的触觉三维力检测方法 |
Non-Patent Citations (3)
Title |
---|
Automatic post-picking using MAPPOS improves particle image detection from cryo-EM micrographs;Ramin Norousi;《Journal of Structural Biology》;20131231;全文 * |
基于OpenCV的嵌入式自动捡乒乓球系统设计;王晓龙;《计算机测量与控制》;20151231;全文 * |
基于逆向工程的鸡蛋拾取机械手设计;魏志刚1;《制造业信息化》;20131231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018072208A1 (en) | 2018-04-26 |
CN109863365A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109388093B (zh) | 基于线特征识别的机器人姿态控制方法、系统及机器人 | |
CN104842361B (zh) | 具有3d箱体定位功能的机器人系统 | |
CN110660104A (zh) | 工业机器人视觉识别定位抓取方法、计算机装置以及计算机可读存储介质 | |
CN109863365B (zh) | 从容器中拾取对象的方法、电子设备和系统 | |
WO2019189661A1 (ja) | 学習データセット作製方法及び装置 | |
CN113191174B (zh) | 物品定位方法和装置、机器人及计算机可读存储介质 | |
US11772271B2 (en) | Method and computing system for object recognition or object registration based on image classification | |
CN112975957B (zh) | 目标提取方法、系统、机器人及存储介质 | |
CN113172636B (zh) | 一种自动手眼标定方法、装置及存储介质 | |
CN114419437A (zh) | 基于2d视觉的工件分拣系统及其控制方法和控制装置 | |
JP7408107B2 (ja) | 物体取り扱いを伴うロボットシステムのためのシステム及び方法 | |
CN116228854B (zh) | 一种基于深度学习的包裹自动分拣方法 | |
CN117689716A (zh) | 板件视觉定位识别抓取方法、控制系统及板件生产线 | |
CN112566758A (zh) | 机器人控制装置、机器人控制方法及机器人控制程序 | |
CN114092428A (zh) | 图像数据处理方法、装置、电子设备和存储介质 | |
CN114037595A (zh) | 图像数据处理方法、装置、电子设备和存储介质 | |
CN114638891A (zh) | 基于图像和点云融合的目标检测定位方法与系统 | |
CN109388131B (zh) | 基于角点特征识别的机器人姿态控制方法、系统及机器人 | |
KR20250016339A (ko) | 발견법-기반 로봇식 파지들 | |
WO2023082417A1 (zh) | 抓取点信息获取方法、装置、电子设备和存储介质 | |
CN117037062A (zh) | 一种目标物体抓取方法、系统、电子设备及存储介质 | |
WO2023083273A1 (zh) | 抓取点信息获取方法、装置、电子设备和存储介质 | |
CN114022342A (zh) | 抓取点信息获取方法、装置、电子设备和存储介质 | |
WO2022137509A1 (ja) | 物体認識装置、物体認識方法、非一時的なコンピュータ可読媒体及び物体認識システム | |
Kucarov et al. | Transparent slide detection and gripper design for slide transport by robotic arm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |