[go: up one dir, main page]

CN111695562A - 一种基于卷积神经网络的机器人自主抓取方法 - Google Patents

一种基于卷积神经网络的机器人自主抓取方法 Download PDF

Info

Publication number
CN111695562A
CN111695562A CN202010454612.3A CN202010454612A CN111695562A CN 111695562 A CN111695562 A CN 111695562A CN 202010454612 A CN202010454612 A CN 202010454612A CN 111695562 A CN111695562 A CN 111695562A
Authority
CN
China
Prior art keywords
grabbing
loss
grasping
detection model
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010454612.3A
Other languages
English (en)
Other versions
CN111695562B (zh
Inventor
赵燕伟
周仙明
张健
吴耿育
王观龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010454612.3A priority Critical patent/CN111695562B/zh
Publication of CN111695562A publication Critical patent/CN111695562A/zh
Application granted granted Critical
Publication of CN111695562B publication Critical patent/CN111695562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的机器人自主抓取方法,包括:首先构建抓取检测模型,通过大量的数据集训练得到鲁棒性更强泛化能力更好的特征提取器;采集包含待抓取物体的场景图像送入到抓取检测模型中,得到待抓取物体在图像空间下的抓取框;根据机器人抓取过程中各坐标系之间的转换关系得到最终抓取位姿,控制机械臂到达指定位姿完成自主抓取操作。本发明将跨尺度检测的思想带入到抓取框的识别中,提高了不同尺度下的检测效果。同时将抓取框方向角的预测转化为分类与回归的组合,改善了多角度抓取的性能,提高了算法的准确率,有效的改善了机器人在非结构化环境中自主抓取的性能。

Description

一种基于卷积神经网络的机器人自主抓取方法
技术领域
本发明属于机器人智能控制与计算机视觉领域,具体涉及一种基于卷积神经网络的机器人自主抓取方法。
背景技术
随着科技的发展以及社会的进步,人们不仅仅希望从简单重复的工作中解脱出来,而且更加盼望机器人能够在生产生活中满足人们各方面的需求。提升机器人智能化的同时也面临着许多技术难题,其中之一就是机器人在非结构环境下自主抓取问题,因为抓取是机器人与外界交互的主要方式之一。
传统的工业机器人往往工作在结构化环境中,其依靠目标物体的三维模型进行抓取规划。而非结构化环境下预先知道目标物体的三维模型往往是不现实的,因为非结构化环境中包含大量未知物体,且待抓取物体的尺度存在变化以及物体间存在重叠遮挡等诸多因素。针对此问题,常用的方法是利用卷积神经网络来学习待抓取物体的特征信息,得到待抓取物体与机器人之间位姿映射关系从而实现自主抓取。相比人工设计得到的特征或根据待抓取物体的三维特征建立数据库保存抓取经验等方法,卷积神经网络通过大量的训练数据集得到鲁棒性更强泛化能力更好的特征提取器,能够进一步的将抓取经验迁移到未曾见过的物体上。为了提高抓取检测算法的整体性能,算法的网络结构往往比较复杂,但随着网络深度的加深计算的复杂程度也随之加大,同时也更加需要依赖硬件资源。因此,利用卷积神经网络、计算机视觉以及机器人运动学等相关技术,兼顾算法的准确率以及实时性,如何研发一套基于卷积神经网络的机器人自主抓取算法是亟待解决的问题。
发明内容
针对目前存在的问题,本发明提供了一种基于卷积神经网络的机器人自主抓取算法,能够同时在多个尺度下对目标物体进行检测,提高算法的准确率。同时在抓取检测过程中能满足实时性的要求,保证机器人能够在非结构化环境以及一些复杂场景下的自主抓取。
为达到上述目的,本发明采用的技术方案为,一种基于卷积神经网络的机器人自主抓取方法,包括以下步骤:
S1:构建基于多尺度特征的抓取检测模型,实现对抓取位姿的估计,具体包括:
S11:抓取检测模型特征提取部分的设计:特征提取部分以Darknet-53网络为基础,将SE模块嵌入到Darknet-53网络中的前四组残差结构中,使网络能够感知不同特征通道的重要程度,实现通道的自适应校准。将末端残差结构中的3×3的卷积替换为可变形卷积,使卷积核可以根据待抓取物体轮廓作为边界,而不是将感受眼局限于规则的矩形之中。
S12:抓取检测模型输出检测部分的设计:输出检测部分采用跨尺度预测的思想,抓取检测模型依次在三个尺度的特征图上进行抓取框的预测。抓取检测模型以五维向量抓取框的形式进行输出,抓取框定义为:
G={x,y,h,w,θ} (1)
其中,(x,y)表示抓取框的中心点;(h,w)表示抓取框的长度和宽度;θ表示抓取框的方位角,本发明将方向角的预测转化为分类与回归组合的问题,定义为:
θ=θclsreg (2)
其中,θcls表示方向角的类别,θcls∈{0°,10°,…,170°},将方向角从0°~180°依次划分成18个类别。θreg表示方向角回归部分的具体角度,θreg∈[0°,10°)。
S13:抓取检测模型损失函数的设计:损失函数主要分为回归损失(Lreg)、分类损失(Lcls)和置信度损失(Lconf)。回归损失包含抓取框的定位损失以及方向角的回归部分的损失。其中抓取框的定位损失采用DIoU,当预测的抓取框与真值框的DIoU值越高时,表明两个边界框重叠和对齐的越好。方向角回归部分的损失采用smoothL1,当预测的抓取框与真值框的smoothL1值越小时,表明方向角回归的越好。回归部分的损失函数定义为:
Figure BDA0002508754550000021
其中S×S表示每张图片预测的栅格数;B表示每个栅格预测抓取框的数目;
Figure BDA0002508754550000022
表示第i个栅格中第j个抓取框是否包含待抓取物体,有为1没有为0;k表示抓取框的预测值,k′表示抓取框的真实值;θreg表示方向角回归部分的预测值,θ′reg表示方向角回归部分的真实值。
分类损失部分主要为方向角分类部分的损失,其损失函数采用FocalLoss,当预测的抓取框与真值框的FocalLoss值越小时,表明方向角分到类别的越正确。分类部分的损失函数定义为:
Figure BDA0002508754550000031
其中θcls表示方向角分类部分的预测值,θ′cls表示方角分类部分的真实值。
置信度为判断某个栅格内是否包含待抓取物体,同时也更好的让模型去区分前景区域与背景区域。置信度部损失函数定义为:
Figure BDA0002508754550000032
其中c表示预测出的置信度,c′表示真实的置信度。
总的损失函数(Loss)为回归损失、分类损失以及置信度损失的加权和,定义为:
Loss=αLreg+βLcls+Lconf (6)
其中α为回归损失部分的加权系数;β为分类损失部分的加权系数。
S2:通过视觉传感器采集大量包含待抓取物体的场景信息,并作为训练的数据集。同时为了防止抓取检测模型过拟合借助迁移学习的思想对抓取检测模型进行训练,最终得到鲁棒性更强泛化能力更好的抓取检测模型。
S3:将抓取检测模型运用到实际检测过程中,将包含待抓取物体的场景图片输入到抓取检测模型中,并对输入图像进行预处理,使其符合抓取检测模型的输入要求。最终抓取检测模型预测得到待抓取物体在像素坐标系下的抓取位姿。预测的过程可以表示为:
F(imgRGB)→Gobj(x,y,w,h,θ) (7)
其中,F表示抓取检测模型;imgRGB表示包含RGB信息的输入图片;Gobj表示待抓取物体在像素坐标系下的抓取位姿。
S4:根据相机内参将像素坐标系下的抓取位姿转化到相机坐标系下,根据手眼参数将相机坐标系下的抓取位姿转化到机器人基坐标下,通过与末端执行器之间的坐标变化关系进一步得到末端执行器的抓取位姿,最后根据建立的机器人运动学模型,通过计算机器人逆运动学求解得到机器人各个关节的坐标,驱动各关节到达指定位置完成对物体的抓取。
实现从待抓取物体的像素坐标到机器人关节坐标的转化,需要经过3次坐标变换和1次运动学求逆计算,假设将其统称为4次变换,那么待抓取物体在像素坐标系下的抓取位姿到机器人关节坐标的映射函数可以表示为:
Figure BDA0002508754550000041
其中,
Figure BDA0002508754550000042
代表像素坐标系到相机坐标系的变换矩阵;
Figure BDA0002508754550000043
代表相机坐标系到机器人基坐标系的变换矩阵;
Figure BDA0002508754550000044
代表机器人基坐标系到机器人末端执行器位姿的变换矩阵;
Figure BDA0002508754550000045
代表机器人末端执行器位姿到关节坐标的变换矩阵。
与现有技术相比,本发明具有以下优点:
1.本发明为解决机器人在非结构环境下以及复杂场景中的自主抓取问题,提出了一种基于卷积神经网络的机器人自主抓取方法。使用卷积神经网络通过大量的预训练数据得可以到鲁棒性更强泛化能力更好的特征提取器,能够进一步的将抓取经验迁移到未曾见过的物体上。
2.本发明将跨尺度检测的思想带入到抓取框的识别中,提高了不同尺度下的检测效果。同时将抓取框方向角的预测转化为分类与回归的组合,改善了多角度抓取的性能,提高了算法的准确率。
附图说明
图1为本发明方法整体流程图。
图2为本发明方法中抓取检测模型结构示意图。
图3为本发明方法中抓取检测模型抓取检的定义图。
图4为本发明方法中某些实例物体的抓取框预测结果示意图。
图5为本发明方法中机器人抓取过程坐标系之间转化的关系图。
具体实施方式
为了能更好的理解本发明,下面结合附图和实施例对本发明进行详细描述。
本发明方法的流程图如图1所示,包括以下步骤:
S1:构建基于多尺度特征的抓取检测模型,实现对抓取位姿的估计。抓取检测模型结构示意图如图2所示。
在步骤S1中,包括如下子步骤。
S11:抓取检测模型特征提取部分的设计:特征提取部分以Darknet-53网络为基础,将SE模块嵌入到Darknet-53网络中的前四组残差结构中,使网络能够感知不同特征通道的重要程度,实现通道的自适应校准。将末端残差结构中的3×3的卷积替换为可变形卷积,使卷积核可以根据待抓取物体轮廓作为边界,而不是将感受眼局限于规则的矩形之中。
S12:抓取检测模型输出检测部分的设计:输出检测部分采用跨尺度预测的思想,抓取检测模型依次在三个尺度的特征图上进行抓取框的预测。假设输入图像的尺度为(w,h),那么对应的三个尺度特征图的尺寸依次为
Figure BDA0002508754550000051
分别针对小中大物体进行检测。抓取检测模型以五维向量抓取框的形式进行输出,如图3所示,抓取框定义为:
G={x,y,h,w,θ} (9)
其中,(x,y)表示抓取框的中心点;(h,w)表示抓取框的长度和宽度;θ表示抓取框的方位角,本发明将方向角的预测转化为分类与回归组合的问题,定义为:
θ=θclsreg (10)
其中,θcls表示方向角的类别,θcls∈{0°,10°,…,170°},将方向角从0°~180°依次划分成18个类别。θreg表示方向角回归部分的具体角度,θreg∈[0°,10°)。
S13:抓取检测模型损失函数的设计:损失函数主要分为回归损失(Lreg)、分类损失(Lcls)和置信度损失(Lconf)。回归损失包含抓取框的定位损失以及方向角的回归部分的损失。其中抓取框的定位损失采用DIoU,当预测的抓取框与真值框的DIoU值越高时,表明两个边界框重叠和对齐的越好。方向角回归部分的损失采用smoothL1,当预测的抓取框与真值框的smoothL1值越小时,表明方向角回归的越好。回归部分的损失函数定义为:
Figure BDA0002508754550000061
其中S×S表示每张图片预测的栅格数;B表示每个栅格预测抓取框的数目;
Figure BDA0002508754550000062
表示第i个栅格中第j个抓取框是否包含待抓取物体,有为1没有为0;k表示抓取框的预测值,k′表示抓取框的真实值;θreg表示方向角回归部分的预测值,θ′reg表示方向角回归部分的真实值。
分类损失部分主要为方向角分类部分的损失,其损失函数采用FocalLoss,当预测的抓取框与真值框的FocalLoss值越小时,表明方向角分到类别的越正确。分类部分的损失函数定义为:
Figure BDA0002508754550000063
其中θcls表示方向角分类部分的预测值,θ′cls表示方角分类部分的真实值。
置信度为判断某个栅格内是否包含待抓取物体,同时也更好的让模型去区分前景区域与背景区域。置信度部损失函数定义为:
Figure BDA0002508754550000064
其中c表示预测出的置信度,c′表示真实的置信度。
总的损失函数(Loss)为回归损失、分类损失以及置信度损失的加权和,定义为:
Loss=αLreg+βLcls+Lconf (14)
其中α为回归损失部分的加权系数;β为分类损失部分的加权系数。
S2:通过视觉传感器采集大量包含待抓取物体的场景信息,并作为训练的数据集。同时为了防止抓取检测模型过拟合借助迁移学习的思想对抓取检测模型进行训练,最终得到鲁棒性更强泛化能力更好的抓取检测模型。
S3:将抓取检测模型运用到实际检测过程中,将包含待抓取物体的场景图片输入到抓取检测模型中,并对输入图像进行预处理,使其符合抓取检测模型的输入要求。最终抓取检测模型预测得到待抓取物体在像素坐标系下的抓取位姿。预测的过程可以表示为:
F(imgRGB)→Gobj(x,y,w,h,θ) (15)
其中,F表示抓取检测模型;imgRGB表示包含RGB信息的输入图片;Gobj表示待抓取物体在像素坐标系下的抓取位姿。
如图4所示第一行为包含待抓取物体的原始图片。第二行为单一尺度下的检测结果,图中方框为Gobj(x,y,w,h,θ)可视化后的结果,可以看出预测出来的抓取框基本能满足真实抓取,但部分抓取框偏大。第三行表示的是多尺度下的检测结果,可以明显看出检测更加符合实际抓取需求。
S4:根据相机内参将像素坐标系下的抓取位姿转化到相机坐标系下,根据手眼参数将相机坐标系下的抓取位姿转化到机器人基坐标下,通过与末端执行器之间的坐标变化关系进一步得到末端执行器的抓取位姿,最后根据建立的机器人运动学模型,通过计算机器人逆运动学求解得到机器人各个关节的坐标,驱动各关节到达指定位置完成对物体的抓取。
实现从待抓取物体的像素坐标到机器人关节坐标的转化,转化过程如图5所示,需要经过3次坐标变换和1次运动学求逆计算,假设将其统称为4次变换,那么待抓取物体在像素坐标系下的抓取位姿到机器人关节坐标的映射函数可以表示为:
Figure BDA0002508754550000071
其中,
Figure BDA0002508754550000072
代表像素坐标系到相机坐标系的变换矩阵;
Figure BDA0002508754550000073
代表相机坐标系到机器人基坐标系的变换矩阵;
Figure BDA0002508754550000074
代表机器人基坐标系到机器人末端执行器位姿的变换矩阵;
Figure BDA0002508754550000075
代表机器人末端执行器位姿到关节坐标的变换矩阵。
总之本发明为解决机器人在非结构环境下以及复杂场景中的自主抓取问题,提出了一种基于卷积神经网络的机器人自主抓取方法。使用卷积神经网络通过大量的预训练数据得可以到鲁棒性更强泛化能力更好的特征信息,能够进一步的将抓取经验迁移到未曾见过的物体上。同时将跨尺度检测的思想带入到抓取框的识别中,提高了不同尺度下的检测效果。同时将抓取框方向角的预测转化为分类与回归的组合,改善了多角度抓取的性能,提高了算法的准确率。
尽管以上结合附图对本发明的具体实施过程进行了描述,但本发明并不局限于上述的具体实施方案,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (1)

1.一种基于卷积神经网络的机器人自主抓取方法,其特征在于:包含以下步骤:
S1:构建基于多尺度特征的抓取检测模型,实现对抓取位姿的估计,具体包括:
S11:抓取检测模型特征提取部分的设计:特征提取部分以Darknet-53网络为基础,将SE模块嵌入到Darknet-53网络中的前四组残差结构中,使网络能够感知不同特征通道的重要程度,实现通道的自适应校准;将末端残差结构中的3×3的卷积替换为可变形卷积,使卷积核可以根据待抓取物体轮廓作为边界,而不是将感受眼局限于规则的矩形之中;
S12:抓取检测模型输出检测部分的设计:输出检测部分采用跨尺度预测的思想,抓取检测模型依次在三个尺度的特征图上进行抓取框的预测;抓取检测模型以五维向量抓取框的形式进行输出,抓取框定义为:
G={x,y,h,w,θ} (1)
其中,(x,y)表示抓取框的中心点;(h,w)表示抓取框的长度和宽度;θ表示抓取框的方位角,本发明将方向角的预测转化为分类与回归组合的问题,定义为:
θ=θclsreg (2)
其中,θcls表示方向角的类别,θcls∈{0°,10°,…,170°},将方向角从0°~180°依次划分成18个类别;θreg表示方向角回归部分的具体角度,θreg∈[0°,10°);
S13:抓取检测模型损失函数的设计:损失函数主要分为回归损失(Lreg)、分类损失(Lcls)和置信度损失(Lconf);回归损失包含抓取框的定位损失以及方向角的回归部分的损失;其中抓取框的定位损失采用DIoU,当预测的抓取框与真值框的DIoU值越高时,表明两个边界框重叠和对齐的越好;方向角回归部分的损失采用smoothL1,当预测的抓取框与真值框的smoothL1值越小时,表明方向角回归的越好;回归部分的损失函数定义为:
Figure FDA0002508754540000011
其中S×S表示每张图片预测的栅格数;B表示每个栅格预测抓取框的数目;
Figure FDA0002508754540000012
表示第i个栅格中第j个抓取框是否包含待抓取物体,有为1没有为0;k表示抓取框的预测值,k′表示抓取框的真实值;θreg表示方向角回归部分的预测值,θreg表示方向角回归部分的真实值;
分类损失部分主要为方向角分类部分的损失,其损失函数采用FocalLoss,当预测的抓取框与真值框的FocalLoss值越小时,表明方向角分到类别的越正确;分类部分的损失函数定义为:
Figure FDA0002508754540000021
其中θcls表示方向角分类部分的预测值,θcls表示方角分类部分的真实值;
置信度为判断某个栅格内是否包含待抓取物体,同时也更好的让模型去区分前景区域与背景区域;置信度部损失函数定义为:
Figure FDA0002508754540000022
其中c表示预测出的置信度,c′表示真实的置信度;
总的损失函数(Loss)为回归损失、分类损失以及置信度损失的加权和,定义为:
Loss=αLreg+βLcls+Lconf (6)
其中α为回归损失部分的加权系数;β为分类损失部分的加权系数;
S2:通过视觉传感器采集大量包含待抓取物体的场景信息,并作为训练的数据集;同时为了防止抓取检测模型过拟合借助迁移学习的思想对抓取检测模型进行训练,最终得到鲁棒性更强泛化能力更好的抓取检测模型;
S3:将抓取检测模型运用到实际检测过程中,将包含待抓取物体的场景图片输入到抓取检测模型中,并对输入图像进行预处理,使其符合抓取检测模型的输入要求;最终抓取检测模型预测得到待抓取物体在像素坐标系下的抓取位姿;预测的过程表示为:
F(imgRGB)→Gobj(x,y,w,h,θ) (7)
其中,F表示抓取检测模型;imgRGB表示包含RGB信息的输入图片;Gobj表示待抓取物体在像素坐标系下的抓取位姿;
S4:根据相机内参将像素坐标系下的抓取位姿转化到相机坐标系下,根据手眼参数将相机坐标系下的抓取位姿转化到机器人基坐标下,通过与末端执行器之间的坐标变化关系进一步得到末端执行器的抓取位姿,最后根据建立的机器人运动学模型,通过计算机器人逆运动学求解得到机器人各个关节的坐标,驱动各关节到达指定位置完成对物体的抓取;
实现从待抓取物体的像素坐标到机器人关节坐标的转化,需要经过3次坐标变换和1次运动学求逆计算,假设将其统称为4次变换,那么待抓取物体在像素坐标系下的抓取位姿到机器人关节坐标的映射函数可以表示为:
Figure FDA0002508754540000031
其中,
Figure FDA0002508754540000032
代表像素坐标系到相机坐标系的变换矩阵;
Figure FDA0002508754540000033
代表相机坐标系到机器人基坐标系的变换矩阵;
Figure FDA0002508754540000034
代表机器人基坐标系到机器人末端执行器位姿的变换矩阵;
Figure FDA0002508754540000035
代表机器人末端执行器位姿到关节坐标的变换矩阵。
CN202010454612.3A 2020-05-26 2020-05-26 一种基于卷积神经网络的机器人自主抓取方法 Active CN111695562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010454612.3A CN111695562B (zh) 2020-05-26 2020-05-26 一种基于卷积神经网络的机器人自主抓取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010454612.3A CN111695562B (zh) 2020-05-26 2020-05-26 一种基于卷积神经网络的机器人自主抓取方法

Publications (2)

Publication Number Publication Date
CN111695562A true CN111695562A (zh) 2020-09-22
CN111695562B CN111695562B (zh) 2022-04-19

Family

ID=72478311

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010454612.3A Active CN111695562B (zh) 2020-05-26 2020-05-26 一种基于卷积神经网络的机器人自主抓取方法

Country Status (1)

Country Link
CN (1) CN111695562B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528971A (zh) * 2021-02-07 2021-03-19 北京智芯微电子科技有限公司 基于深度学习的输电线路异常目标检测方法及系统
CN112906797A (zh) * 2021-02-25 2021-06-04 华北电力大学 一种基于计算机视觉和深度学习的平面抓取检测方法
CN112949452A (zh) * 2021-02-25 2021-06-11 山西大学 一种基于多任务共享网络的机器人弱光环境抓取检测方法
CN113011486A (zh) * 2021-03-12 2021-06-22 重庆理工大学 鸡爪分类及定位模型的构建方法及系统、鸡爪分拣方法
CN113524194A (zh) * 2021-04-28 2021-10-22 重庆理工大学 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法
CN113592871A (zh) * 2021-07-09 2021-11-02 西北工业大学 一种基于分割监督的机器人物体抓取检测方法
CN113658259A (zh) * 2021-08-30 2021-11-16 武汉科技大学 基于视觉定位的冷轧厂轧辊的自动抓取方法
CN113681552A (zh) * 2021-06-30 2021-11-23 大连理工江苏研究院有限公司 一种基于级联神经网络的机器人混杂物体五维抓取方法
CN113799124A (zh) * 2021-08-30 2021-12-17 贵州大学 一种非结构化环境的机器人灵活抓取检测方法
CN114373127A (zh) * 2021-12-24 2022-04-19 复旦大学 一种基于手绘草图的目标物可抓取点检测方法及系统
CN114782827A (zh) * 2022-06-22 2022-07-22 中国科学院微电子研究所 一种基于图像的物体抓取点获取方法和装置
CN114926527A (zh) * 2022-06-08 2022-08-19 哈尔滨理工大学 一种复杂背景下的机械臂抓取位姿检测方法
CN115366095A (zh) * 2022-07-25 2022-11-22 之江实验室 一种杂乱环境机器人6自由度抓取姿态生成方法
WO2023051706A1 (zh) * 2021-09-29 2023-04-06 达闼科技(北京)有限公司 抓取的控制方法、装置、服务器、设备、程序及介质
CN116079711A (zh) * 2022-11-30 2023-05-09 西北工业大学 一种用于提高机器人抓取成功率的检测方法
CN116852354A (zh) * 2023-06-27 2023-10-10 山东新一代信息产业技术研究院有限公司 一种基于改进Cascade R-CNN网络的机械臂抓取检测方法
CN117681211A (zh) * 2024-01-23 2024-03-12 哈尔滨工业大学 基于深度学习的二指欠驱动机械手爪抓取位姿检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110480637A (zh) * 2019-08-12 2019-11-22 浙江大学 一种基于Kinect传感器的机械臂零件图像识别抓取方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110480637A (zh) * 2019-08-12 2019-11-22 浙江大学 一种基于Kinect传感器的机械臂零件图像识别抓取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JEFFREY MAHLER 等: "Dex-Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point Clouds and Analytic Grasp Metrics", 《ROBOTICS: SCIENCE AND SYSTEMS 2017》 *
YINGYING YU等: "A Grasping CNN with Image Segmentation for Mobile Manipulating Robot", 《2019 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETICS》 *
王铮等: "面向传送带作业系统的机器人目标跟踪与抓取策略研究", 《计算机测量与控制》 *
蔡晨等: "基于卷积神经网络的改进机械臂抓取方法", 《计算机与数字工程》 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528971A (zh) * 2021-02-07 2021-03-19 北京智芯微电子科技有限公司 基于深度学习的输电线路异常目标检测方法及系统
CN112528971B (zh) * 2021-02-07 2021-06-04 北京智芯微电子科技有限公司 基于深度学习的输电线路异常目标检测方法及系统
CN112906797B (zh) * 2021-02-25 2024-01-12 华北电力大学 一种基于计算机视觉和深度学习的平面抓取检测方法
CN112949452A (zh) * 2021-02-25 2021-06-11 山西大学 一种基于多任务共享网络的机器人弱光环境抓取检测方法
CN112949452B (zh) * 2021-02-25 2022-05-31 山西大学 一种基于多任务共享网络的机器人弱光环境抓取检测方法
CN112906797A (zh) * 2021-02-25 2021-06-04 华北电力大学 一种基于计算机视觉和深度学习的平面抓取检测方法
CN113011486A (zh) * 2021-03-12 2021-06-22 重庆理工大学 鸡爪分类及定位模型的构建方法及系统、鸡爪分拣方法
CN113524194A (zh) * 2021-04-28 2021-10-22 重庆理工大学 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法
CN113524194B (zh) * 2021-04-28 2023-03-21 重庆理工大学 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法
CN113681552A (zh) * 2021-06-30 2021-11-23 大连理工江苏研究院有限公司 一种基于级联神经网络的机器人混杂物体五维抓取方法
CN113681552B (zh) * 2021-06-30 2022-08-16 大连理工江苏研究院有限公司 一种基于级联神经网络的机器人混杂物体五维抓取方法
CN113592871A (zh) * 2021-07-09 2021-11-02 西北工业大学 一种基于分割监督的机器人物体抓取检测方法
CN113592871B (zh) * 2021-07-09 2024-05-28 西北工业大学 一种基于分割监督的机器人物体抓取检测方法
CN113799124B (zh) * 2021-08-30 2022-07-15 贵州大学 一种非结构化环境的机器人灵活抓取检测方法
CN113799124A (zh) * 2021-08-30 2021-12-17 贵州大学 一种非结构化环境的机器人灵活抓取检测方法
CN113658259A (zh) * 2021-08-30 2021-11-16 武汉科技大学 基于视觉定位的冷轧厂轧辊的自动抓取方法
WO2023051706A1 (zh) * 2021-09-29 2023-04-06 达闼科技(北京)有限公司 抓取的控制方法、装置、服务器、设备、程序及介质
CN114373127A (zh) * 2021-12-24 2022-04-19 复旦大学 一种基于手绘草图的目标物可抓取点检测方法及系统
CN114926527A (zh) * 2022-06-08 2022-08-19 哈尔滨理工大学 一种复杂背景下的机械臂抓取位姿检测方法
CN114782827A (zh) * 2022-06-22 2022-07-22 中国科学院微电子研究所 一种基于图像的物体抓取点获取方法和装置
CN115366095A (zh) * 2022-07-25 2022-11-22 之江实验室 一种杂乱环境机器人6自由度抓取姿态生成方法
CN116079711A (zh) * 2022-11-30 2023-05-09 西北工业大学 一种用于提高机器人抓取成功率的检测方法
CN116852354A (zh) * 2023-06-27 2023-10-10 山东新一代信息产业技术研究院有限公司 一种基于改进Cascade R-CNN网络的机械臂抓取检测方法
CN117681211A (zh) * 2024-01-23 2024-03-12 哈尔滨工业大学 基于深度学习的二指欠驱动机械手爪抓取位姿检测方法
CN117681211B (zh) * 2024-01-23 2024-07-16 哈尔滨工业大学 基于深度学习的二指欠驱动机械手爪抓取位姿检测方法

Also Published As

Publication number Publication date
CN111695562B (zh) 2022-04-19

Similar Documents

Publication Publication Date Title
CN111695562B (zh) 一种基于卷积神经网络的机器人自主抓取方法
CN110202583B (zh) 一种基于深度学习的仿人机械手控制系统及其控制方法
CN108491880B (zh) 基于神经网络的物体分类和位姿估计方法
CN111523486B (zh) 一种基于改进CenterNet的机械臂抓取检测方法
CN108280856B (zh) 基于混合信息输入网络模型的未知物体抓取位姿估计方法
CN111243017B (zh) 基于3d视觉的智能机器人抓取方法
CN110480637B (zh) 一种基于Kinect传感器的机械臂零件图像识别抓取方法
CN113752255B (zh) 一种基于深度强化学习的机械臂六自由度实时抓取方法
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建系统
CN111331607A (zh) 一种基于机械臂的自主抓取与码垛方法及系统
CN113762159B (zh) 一种基于有向箭头模型的目标抓取检测方法及系统
CN117984327A (zh) 一种基于深度学习的五指灵巧臂手机器人接触点抓取方法
CN115861780A (zh) 一种基于yolo-ggcnn的机械臂检测抓取方法
CN111310637A (zh) 一种基于尺度不变网络的机器人目标抓取检测方法
CN116894988A (zh) 一种基于Transformer的抓取位姿检测方法
Ito et al. Integrated learning of robot motion and sentences: Real-time prediction of grasping motion and attention based on language instructions
CN117464689A (zh) 一种基于自主探索算法的机器人脑波自适应抓取方法和系统
Yang et al. Robotic pushing and grasping knowledge learning via attention deep Q-learning network
CN115270399A (zh) 一种工业机器人姿态识别方法、装置及存储介质
CN115810188A (zh) 基于单张二维图像的树上果实三维位姿识别方法及系统
Wang et al. Unsupervised representation learning for visual robotics grasping
CN115256377A (zh) 一种基于多源信息融合的机器人抓取方法和装置
CN114648687A (zh) 一种基于深度学习的无需深度信息的物体位姿预测算法
CN118990489A (zh) 一种基于深度强化学习的双机械臂协作搬运系统
CN117315019A (zh) 一种基于深度学习的机械臂抓取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant