CN113021391A - 一种集成视觉机器人夹爪及其使用方法 - Google Patents
一种集成视觉机器人夹爪及其使用方法 Download PDFInfo
- Publication number
- CN113021391A CN113021391A CN202110324704.4A CN202110324704A CN113021391A CN 113021391 A CN113021391 A CN 113021391A CN 202110324704 A CN202110324704 A CN 202110324704A CN 113021391 A CN113021391 A CN 113021391A
- Authority
- CN
- China
- Prior art keywords
- clamping jaw
- vision
- robot
- control box
- vision module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 239000000463 material Substances 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000009434 installation Methods 0.000 abstract description 3
- 230000007547 defect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000004922 lacquer Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种集成视觉机器人夹爪及其使用方法,包括机器人本体以及位于所述机器人本体运动端的夹爪本体;所述夹爪本体包括控制盒、位于所述控制盒上的视觉模组以及位于所述控制盒两端的夹爪手指,所述视觉模组位于所述控制盒的中心位置处,所述视觉模组的控制视野位于两夹爪手指的对称位置处,所述视觉模组与所述控制盒电连接,所述夹爪手指与所述控制盒电连接。本发明公开的机器人夹爪提高了定位效率;无论夹爪张开还是闭合拾取物体,均能检测到物体与夹爪的相对位姿,提高了抓取精度;便于安装;可加快配合速度;视野对称,计算物体与指尖的相对位姿时,就不易受摄像头畸变对精度的影响,减小定位误差。
Description
技术领域
本发明属于机器人夹爪技术领域,尤其涉及一种集成视觉机器人夹爪及其使用方法。
背景技术
在工业界,机器人用于分拣抓取的应用越来越普遍,机器人在抓取时,一般采用2D或3D视觉进行物品的定位以及位姿的计算。具体实现方法是通过机械手手眼标定,将相机坐标系与机器人坐标系进行绑定,在视觉检测出目标位置后,将目标位置自动的转换为机器人坐标系下的位置,从而进行自动的定位抓取。视觉传感器与机器人的配合分为两种,一种是相机固定在机器人手臂外,称为eye-to-hand,一种是视觉安装在机器人末端,跟随机器人末端夹爪而运动,称为eye-in-hand。传统的应用中,视觉传感器只能拍照一次,获得目标位置后,交由机械手进行独立的抓取,不能进行实时的机械手夹爪与物品的相对位姿监控,属于开环控制,误差较大,常有抓取失败的现象。同时,由于传统的相机安装在夹爪一侧,相机的视野易于被机械手的手臂及夹爪遮挡,从而无法对目标进行多次的拍摄,无法实时修正位姿误差。另外,视觉传感器安装在夹爪单侧的模式,也增大了夹爪整体的体积,不利于在狭小空间的物体抓取。
本发明为解决这些问题,实现视觉对机器人夹爪与物品间的位置距离进行实时的监控,并尽可能的减小夹爪的空间尺寸,提出一种集成视觉机器人夹爪及其使用方法。
发明内容
本发明克服了现有技术的不足,提供一种集成视觉机器人夹爪及其使用方法,以解决现有技术中存在的问题。
为达到上述目的,本发明采用的技术方案为:一种集成视觉机器人夹爪,包括机器人本体以及位于所述机器人本体运动端的夹爪本体;所述夹爪本体包括控制盒、位于所述控制盒上的视觉模组以及位于所述控制盒两端的夹爪手指,所述视觉模组位于所述控制盒的中心位置处,所述视觉模组的控制视野位于两夹爪手指的对称位置处,所述视觉模组与所述控制盒电连接,所述夹爪手指与所述控制盒电连接。
本发明一个较佳实施例中,所述夹爪本体通过连接法兰与所述机器人本体连接。
本发明一个较佳实施例中,所述机器人本体包括底座与连杆结构,所述连接法兰与所述连杆结构连接。
本发明一个较佳实施例中,所述视觉模组为2D视觉传感器或3D视觉传感器。
本发明还公开了一种集成视觉机器人夹爪的使用方法,包括以下步骤:
S1、将夹爪本体对准料箱,由视觉模组对料箱内进行拍照或摄像处理;
S2、采用算法计算得到料箱内物体的摆放图,同时识别料箱内的最上层物体;
S3、采用机器人智能轨迹规划算法,得出优先需要抓取的物体位置;
S4、对优先需要抓取的物体进行抓取。
本发明一个较佳实施例中,所述视觉模组为双目结构光系统。
本发明一个较佳实施例中,步骤S2中,物体在一视觉传感器中得到的图像与另一视觉传感器中得到的图像存在像素视差,通过算法计算得到整个料箱中物体的摆放图。
本发明解决了背景技术中存在的缺陷,本发明具备以下有益效果:
(1)视野处于中心,在夹爪张开时,没有视野遮挡,可对目标实时定位,提高了定位效率;
(2)无论夹爪张开还是闭合拾取物体,均能检测到物体与夹爪的相对位姿,提高了抓取精度;
(3)能有效缩小视觉夹爪整体空间,便于安装;
(4)视野中心与机器人末端法兰中心重合,有利于简化机器人标定及内部坐标计算,可加快配合速度;
(5)视野对称,计算物体与指尖的相对位姿时,就不易受摄像头畸变对精度的影响,减小定位误差。
附图说明
下面结合附图和实施例对本发明进一步说明;
图1为本发明优选实施例的整体结构示意图;
图2为本发明优选实施例的局部结构示意图;
图3为本发明优选实施例夹爪与料箱的配合结构示意图;
图4为本发明优选实施例步骤S1中得到的拍摄图像;
图5为本发明优选实施例步骤S2中得到的摆放图与步骤S3中优先抓取物体的位置;
图6为本发明优选实施例的流程图;
图中:1、机器人本体;11、底座;12、连杆结构;2、夹爪本体;21、控制盒;22、视觉模组;23、夹爪手指;3、连接法兰;4、料箱;5、摆放图;6、优先抓取物体。
具体实施方式
现在结合附图和实施例对本发明作进一步详细的说明,这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1至图6所示,一种集成视觉机器人夹爪,包括机器人本体1以及位于机器人本体1运动端的夹爪本体2;夹爪本体2包括控制盒21、位于控制盒21上的视觉模组22以及位于控制盒21两端的夹爪手指23,视觉模组22位于控制盒21的中心位置处,视觉模组22的控制视野位于两夹爪手指23的对称位置处,视觉模组22与控制盒21电连接,夹爪手指23与控制盒21电连接。
在本实施例中,视觉模组22为双目结构光系统,位置a处设置有视觉传感器,位置b处设置有结构光源,通过双目结构光系统,能够检测出料箱内物体的摆放情况,根据双目结构光系统测量物体深度的原理,物体在一视觉传感器中得到的图像c与另一视觉传感器中得到的图像d存在像素视差,通过算法计算得到整个料箱中物体的摆放图5,同时识别最上层物料,再采用机器人智能轨迹规划算法,得出需优先抓取物体6的位置。
进一步地,在抓取过程中,在夹爪手指23接触到物体之前,由于夹爪手指23始终处于打开状态,无论夹爪手指23与物体距离多远,夹爪手指23都不会遮挡到视觉传感器的视野,可以在夹爪手指23向物体运动过程中,多次连续拍照,实时计算夹爪手指23与物体之间的距离及姿态误差,实现实时修正,从而提高夹爪手指23对物体夹持的速度与准确率,当夹爪手指23到达最佳的抓取位置后,夹爪手指23闭合对物体进行抓取,此时,夹爪手指23与物体始终处于视野的中心位置处,通过算法的计算,可以得到物体的尺寸,以及夹爪手指23的相对位置,从而更为准确的判断是否抓取稳定与成功。
具体地,在本实施例中,双目结构光系统能够测量出物体相对于夹爪手指23的姿态及其相对位置,进而提高对物体的抓取精度。
在本实施例中,夹爪本体2通过连接法兰3与机器人本体1连接。
具体地,机器人本体1包括底座11与连杆结构12,连接法兰3与连杆结构12连接。
进一步地,视觉模组22还可以为单目被动相机或单目主动相机或双目被动相机,这几种相机均为定焦或连续聚焦相机。
进一步地,在本实施例中,双目结构光系统能够连续、实时的检测物体表面的缺陷,如划伤、掉漆、脏污、边沿损伤等问题,利于对物体的抓取。
本实施例还公开了一种集成视觉机器人夹爪的使用方法,包括以下步骤:
S1、将夹爪本体2对准料箱4,由视觉模组22对料箱4内进行拍照或摄像处理;
S2、采用算法计算得到料箱4内物体的摆放图5,同时识别料箱内的最上层物体;
S3、采用机器人智能轨迹规划算法,得出优先抓取物体6的位置;
S4、对优先抓取物体6进行抓取。
具体地,视觉模组22为双目结构光系统。
进一步地,在本实施例中,步骤S2中,物体在一视觉传感器中得到的图像c与另一视觉传感器中得到的图像d存在像素视差,通过算法计算得到整个料箱4中物体的摆放图5。
总而言之,本发明公开的机器人夹爪提高了定位效率;无论夹爪张开还是闭合拾取物体,均能检测到物体与夹爪的相对位姿,提高了抓取精度;便于安装;可加快配合速度;视野对称,计算物体与指尖的相对位姿时,就不易受摄像头畸变对精度的影响,减小定位误差。
以上依据本发明的理想实施例为启示,通过上述的说明内容,相关人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定技术性范围。
Claims (7)
1.一种集成视觉机器人夹爪,其特征在于,包括机器人本体以及位于所述机器人本体运动端的夹爪本体;所述夹爪本体包括控制盒、位于所述控制盒上的视觉模组以及位于所述控制盒两端的夹爪手指,所述视觉模组位于所述控制盒的中心位置处,所述视觉模组的控制视野位于两夹爪手指的对称位置处,所述视觉模组与所述控制盒电连接,所述夹爪手指与所述控制盒电连接。
2.根据权利要求1所述的一种集成视觉机器人夹爪,其特征在于,所述夹爪本体通过连接法兰与所述机器人本体连接。
3.根据权利要求2所述的一种集成视觉机器人夹爪,其特征在于,所述机器人本体包括底座与连杆结构,所述连接法兰与所述连杆结构连接。
4.根据权利要求1所述的一种集成视觉机器人夹爪,其特征在于,所述视觉模组为2D视觉传感器或3D视觉传感器。
5.根据权利要求1至4任意一项所述的一种集成视觉机器人夹爪的使用方法,其特征在于,包括以下步骤:
S1、将夹爪本体对准料箱,由视觉模组对料箱内进行拍照或摄像处理;
S2、采用算法计算得到料箱内物体的摆放图,同时识别料箱内的最上层物体;
S3、采用机器人智能轨迹规划算法,得出优先需要抓取的物体位置;
S4、对优先需要抓取的物体进行抓取。
6.根据权利要求5所述的一种集成视觉机器人夹爪的使用方法,其特征在于,所述视觉模组为双目结构光系统。
7.根据权利要求5所述的一种集成视觉机器人夹爪的使用方法,其特征在于,步骤S2中,物体在一视觉传感器中得到的图像与另一视觉传感器中得到的图像存在像素视差,通过算法计算得到整个料箱中物体的摆放图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110324704.4A CN113021391A (zh) | 2021-03-26 | 2021-03-26 | 一种集成视觉机器人夹爪及其使用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110324704.4A CN113021391A (zh) | 2021-03-26 | 2021-03-26 | 一种集成视觉机器人夹爪及其使用方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113021391A true CN113021391A (zh) | 2021-06-25 |
Family
ID=76474136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110324704.4A Withdrawn CN113021391A (zh) | 2021-03-26 | 2021-03-26 | 一种集成视觉机器人夹爪及其使用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113021391A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113427465A (zh) * | 2021-07-21 | 2021-09-24 | 广州市刑事科学技术研究所 | 配送检测样本的协作机器人 |
CN114211516A (zh) * | 2021-12-31 | 2022-03-22 | 重庆电子工程职业学院 | 一种柔性机器触觉传感装置 |
CN114919993A (zh) * | 2022-05-31 | 2022-08-19 | 无锡图创智能科技有限公司 | 一种3d视觉自动识别抓取上料系统 |
CN118977272A (zh) * | 2023-12-15 | 2024-11-19 | 江苏美申美克精密机械(南通)有限公司 | 一种加工中心用工件智能拆装装置 |
-
2021
- 2021-03-26 CN CN202110324704.4A patent/CN113021391A/zh not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113427465A (zh) * | 2021-07-21 | 2021-09-24 | 广州市刑事科学技术研究所 | 配送检测样本的协作机器人 |
CN113427465B (zh) * | 2021-07-21 | 2024-11-29 | 广州市刑事科学技术研究所 | 配送检测样本的协作机器人 |
CN114211516A (zh) * | 2021-12-31 | 2022-03-22 | 重庆电子工程职业学院 | 一种柔性机器触觉传感装置 |
CN114919993A (zh) * | 2022-05-31 | 2022-08-19 | 无锡图创智能科技有限公司 | 一种3d视觉自动识别抓取上料系统 |
CN118977272A (zh) * | 2023-12-15 | 2024-11-19 | 江苏美申美克精密机械(南通)有限公司 | 一种加工中心用工件智能拆装装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113021391A (zh) | 一种集成视觉机器人夹爪及其使用方法 | |
CN108399639B (zh) | 基于深度学习的快速自动抓取与摆放方法 | |
CN109483554B (zh) | 基于全局和局部视觉语义的机器人动态抓取方法及系统 | |
CN108109174B (zh) | 一种用于散乱零件随机分拣的机器人单目引导方法和系统 | |
CN106514201B (zh) | 一种自动接插件装配机器人系统及其控制方法 | |
CN107009358B (zh) | 一种基于单相机的机器人无序抓取装置及方法 | |
CN111452040B (zh) | 在引导装配环境中将机器视觉坐标空间关联的系统和方法 | |
CN114248086B (zh) | 一种柔性化三维视觉引导的机器人对位系统及方法 | |
CN110480637B (zh) | 一种基于Kinect传感器的机械臂零件图像识别抓取方法 | |
CN203650513U (zh) | 一种用于电子产品贴装电路的机械手爪及工业机器人 | |
CN111645074A (zh) | 一种机器人抓取定位方法 | |
CN112010024B (zh) | 一种基于激光和视觉融合检测的货箱自动抓取方法及系统 | |
CN110666805A (zh) | 一种基于主动视觉的工业机器人分拣方法 | |
CN110298885B (zh) | 一种非光滑类球体目标的立体视觉识别方法和定位夹持检测装置及其应用 | |
CN108827154A (zh) | 一种机器人无示教抓取方法、装置及计算机可读存储介质 | |
CN113103215B (zh) | 一种机器人视觉飞拍的运动控制方法 | |
CN105547153A (zh) | 基于双目视觉的插件元件针脚视觉定位方法及装置 | |
CN113500593B (zh) | 一种抓取轴类工件指定部位进行上料的方法 | |
CN114260903A (zh) | 圆盘式多工位抓手的工业机器人3d视觉精密插装引导控制方法 | |
CN113602799A (zh) | 一种航空港行李箱搬运系统及其控制方法 | |
Tsarouchi et al. | Vision system for robotic handling of randomly placed objects | |
CN115582827A (zh) | 一种基于2d和3d视觉定位的卸货机器人抓取方法 | |
CN114654465A (zh) | 一种基于线激光结构光视觉传感的焊缝跟踪提取方法 | |
TWI702179B (zh) | 取物系統及方法 | |
JP2013024852A (ja) | 成形品画像処理検査装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210625 |
|
WW01 | Invention patent application withdrawn after publication |