[go: up one dir, main page]

CN103770112A - 机器人系统及加工件的制造方法 - Google Patents

机器人系统及加工件的制造方法 Download PDF

Info

Publication number
CN103770112A
CN103770112A CN201310489327.5A CN201310489327A CN103770112A CN 103770112 A CN103770112 A CN 103770112A CN 201310489327 A CN201310489327 A CN 201310489327A CN 103770112 A CN103770112 A CN 103770112A
Authority
CN
China
Prior art keywords
workpiece
input
processing
processing position
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310489327.5A
Other languages
English (en)
Inventor
中原义光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Publication of CN103770112A publication Critical patent/CN103770112A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

本发明提供能够容易地进行期望的动作示教的机器人系统及加工件的制造方法。该机器人系统(100)具备:安装有工具(18)的机器人臂(13);机器人控制器(2);用于拍摄工件(201)的拍摄部(15);显示工件(201)的图像的显示部(31);以及基于显示部(31)上显示的工件(201)的图像接收确定并输入对工件(201)进行处理的位置、即加工处理位置时的输入的PC(3)。机器人控制器(2)构成为进行以下控制:通过基于由PC(3)接收的工件(201)的加工处理位置操作机器人臂(13),来对工件(201)进行加工处理。

Description

机器人系统及加工件的制造方法
技术领域
本发明涉及机器人系统及加工件的制造方法。
背景技术
以往,已知具备安装有末端执行器(工具)的机器人臂的机器人系统(例如,参照专利文献1)。在上述专利文献1中公开了如下机器人系统,其具备机器人臂、安装于机器人臂的末端执行器、以及安装于末端执行器的把持部。该机器人系统构成为:用户通过把持末端执行器上安装的把持部并使末端执行器(机器人臂)移动,来直接向机器人系统示教期望的动作。
专利文献1:日本特开2009-214257号公报
然而,在上述专利文献1记载的机器人系统中存在如下问题:由于需要用户移动到机器人系统附近,来把持末端执行器的把持部并使末端执行器(机器人臂)移动,所以对机器人系统进行的期望动作的示教比较麻烦(复杂)。
发明内容
本发明是为了解决上述课题而完成的,本发明的一个目的是提供能够容易地进行期望动作的示教的机器人系统及加工件的制造方法。
为达成上述目的,第一方面的机器人系统具备:机器人臂,其安装有用于对工件进行处理的工具;控制器,其用于对机器人臂进行操作;拍摄部,其用于对工件进行拍摄;显示部,其显示由拍摄部拍摄的工件的图像;以及输入接收部,其基于显示部上显示的工件的图像,接收确定并输入对工件进行处理的位置、即加工处理位置时的输入,控制器构成为进行以下控制:基于由输入接收部接收的工件的加工处理位置来操作机器人臂,从而对工件进行加工处理。
在该第一方面的机器人系统中,如上所述,设置了基于工件的图像接收确定并输入对工件进行处理的位置、即加工处理位置时的输入的输入接收部,并将控制器构成为进行以下控制:基于由输入接收部接收的工件的加工处理位置操作机器人臂,从而对工件进行加工处理。由此,与用户移动至机器人系统的附近并把持移动机器人臂来直接示教期望的动作的情况不同,用户不需要为了期望动作的示教而使机器人臂移动,仅通过将工件的加工处理位置输入到输入接收部就能够容易地进行期望动作的示教。
第二方面的加工件的制造方法具备:利用拍摄部拍摄工件的工序;基于由拍摄部拍摄的工件的图像,接收对工件进行处理的位置、即加工处理位置的输入的工序;以及基于接收的工件的加工处理位置操作机器人臂,由此对工件进行加工处理的工序。
在该第二方面的加工件的制造方法中,具备基于由拍摄部拍摄的工件的图像,接收对工件进行处理的位置、即加工处理位置的输入的工序;以及基于接收的工件的加工处理位置操作机器人臂,由此对工件进行加工处理的工序。由此,提供了一种加工件的制造方法,其与用户移动至机器人系统的附近并把持移动机器人臂来直接示教期望的动作的情况不同,不需要为了期望动作的示教而使机器人臂移动,仅通过将工件的加工处理位置输入到输入接收部就能够容易地进行期望动作的示教。
根据上述结构,能够容易地进行期望动作的示教。
附图说明
图1是第一实施方式的机器人系统的整体图。
图2是第一实施方式的机器人系统的机器人的整体图。
图3是从一侧观察第一实施方式的机器人系统的安装在手架上的工具的图。
图4是从另一侧观察图3的安装在手架上的工具的图。
图5是示出第一实施方式的机器人系统的距离测定部的图。
图6是第一实施方式的机器人系统的框图。
图7是示出第一实施方式的机器人系统的PC(个人计算机)的显示部的图。
图8是示出在图7的PC的显示部的画面上输入工件的轮廓的状态的图。
图9是示出在图7的PC的显示部的画面上输入工件的加工处理位置的状态的图。
图10是用于说明第一实施方式的机器人系统的基于距离测定部测定出的至工件的距离来对工具的姿态进行调整的动作的图。
图11是从上方观察图10的工具的图。
图12是示出第一实施方式的机器人系统的利用工具对工件进行加工处理的状态的图。
图13是用于说明第一实施方式的机器人系统的控制器的动作的流程图。
图14是用于说明第一实施方式的机器人系统的拍摄部的安装动作的图。
图15是用于说明第一实施方式的机器人系统的拍摄部进行的工件拍摄动作的图。
图16是从侧方观察本发明的第二实施方式的机器人系统的拍摄部进行的工件拍摄动作的图。
图17是从上方观察本发明的第二实施方式的机器人系统的拍摄部进行的工件拍摄动作的图。
标号说明
2:机器人控制器(控制器);
3:个人计算机(PC)(输入接收部);
13:机器人臂;
15:拍摄部;
17、17a、17b、17c:距离测定部;
18:工具;
31:显示部;
32:鼠标(输入部);
33:指针;
100:机器人系统;
201:工件;
202:白线(加工处理位置标识)。
具体实施方式
以下,基于附图说明本实施方式。
(第一实施方式)
首先,参照图1及图2,对第一实施方式的机器人系统100的结构进行说明。
如图1所示,机器人系统100具备机器人1、机器人控制器2和个人计算机(PC)3。并且,在机器人1的附近设有用于载置后述拍摄部15的台部4。并且,在机器人1的附近配置有载置在工作台200上的工件201。并且,工件201例如由金属板构成,以向上方(箭头Z1的方向)弯曲的方式形成曲面状。并且,在工件201上预先设有表示加工处理位置(磨削位置)的多条白线202。此外,机器人控制器2是“控制器”的一个示例。并且,PC3是“输入接收部”的一个示例。并且,白线202是“加工处理位置标识”的一个示例。
如图2所示,机器人1由垂直多关节机器人构成。该机器人1包括机器人主体11和工具18,工具18安装在机器人主体11的末端,用于对工件201进行加工。并且,机器人主体11具有基座12和机器人臂13(臂部13a~13f)。基座12固定在设置面,并且臂部13a被连结成能够相对于基座12绕旋转轴线A1旋转。臂部13b被连结成能够绕与旋转轴线A1大致垂直的旋转轴线A2旋转。臂部13c被连结成能够绕与旋转轴线A2大致平行的旋转轴线A3旋转。臂部13d被连结成能够绕与旋转轴线A3大致垂直的旋转轴线A4旋转。臂部13e被连结成能够绕与旋转轴线A4大致垂直的旋转轴线A5旋转。臂部13f被连结成能够绕与旋转轴线A5大致垂直的旋转轴线A6旋转。在臂部13a~13f中,与各旋转轴线A1~A6分别对应地内置有致动器(未图示),该致动器具有伺服电机及减速器。各伺服电机与机器人控制器2连接,并构成为基于来自机器人控制器2的动作指令进行动作控制。
另外,如图3及图4所示,在最末端侧的臂部13f安装有手架(Hand Bracket)14。在手架14的末端安装有工具18。工具18具有圆柱形状,并且以插入手架14的状态安装在手架14的末端侧。此外,工具18例如由除去工件201的表面的毛刺(多余的部分)的磨削装置构成。
另外,在手架14上安装有拍摄部15。拍摄部15例如由CCD(CMOS)照相机等拍摄二维图像的照相机构成。此外,拍摄部15与PC3连接(参照图6),并构成为将拍摄部15拍摄的图像数据取入到PC3中。这里,在第一实施方式中,拍摄部15以能够装卸的方式安装于手架14(机器人臂13)。而且,构成为利用机器人控制器2来操作机器人臂13进行如下动作:在利用拍摄部15对工件201进行拍摄后、且在利用工具18对工件201进行加工处理(磨削)前,将拍摄部15从手架14卸下。拍摄部15例如借助未图示的自动工具更换装置(Auto Tool Changer:A.T.C.)而可装卸地安装于手架14。并且,在手架14上安装有用于对工件201照射光的照明部16。
另外,在第一实施方式中,在手架14上,以俯视观察时包围工具18的方式(参照图11),设有多个(在第一实施方式中为三个)用于测定至工件201的距离的距离测定部17(距离测定部17a、17b及17c)。在俯视观察时,三个距离测定部17以大致等角度间隔(120度间隔)配置于在手架14的末端侧安装的工具18的外侧的位置。并且,距离测定部17例如由传感器构成,该传感器通过朝向下方(箭头Z2方向)射出激光来测定至工件201的距离。并且,如图5所示,距离测定部17构成为包括主体部171和罩部172,该罩部172被设成覆盖主体部171并用于从外部供给空气。利用从外部供给来的空气将距离测定部17的主体部171附近的灰尘等异物除去,由此能够正确地测定至工件201的距离。
并且,如图6所示,在机器人控制器2设有控制部21和存储部22。并且,机器人1、PC3、照明部16及三个距离测定部17连接于机器人控制器2。并且,PC3具有显示部31及鼠标32。此外,鼠标32是“输入部”的一个示例。
这里,在第一实施方式中,如图7所示,PC3的显示部31构成为显示由拍摄部15拍摄的工件201的图像。PC3构成为能够在显示有工件201的图像的显示部31的画面上接收工件201的轮廓的输入。此外,工件201的轮廓的输入由用户(作业者)300进行。具体构成为,如图8所示,在使指针33对准在显示部31的画面上显示的曲面状的工件201的二维图像上的状态下,通过点击鼠标32来输入工件201的轮廓。并且,通过沿着显示部31的画面上显示的工件201的轮廓点击鼠标32,在画面上点状(点A)地输入工件201的轮廓。
另外,在第一实施方式中,PC3构成为:基于工件201的图像(在显示有工件201的图像的显示部31的画面上)接收确定并输入对工件201进行处理的位置、即加工处理位置(磨削位置)时的输入。此外,工件201的加工处理位置的输入由用户(作业者)300进行。具体构成为,如图9所示,在使指针33对准在显示部31的画面上显示的曲面状的工件201的二维图像上的状态下,通过点击鼠标32(参照图6),来输入工件201的加工处理位置(磨削位置)。而且,在工件201上预先设有表示加工处理位置(磨削位置)的多条白线202,并且通过沿着在显示部31的画面上显示的、表示工件201的加工处理位置的白线202的图像点击鼠标32,来在画面上点状(点B)地输入工件201的加工处理位置。而且,如后述那样,以通过点状地输入的加工处理位置的方式操作机器人臂13,由此对工件201进行加工处理。即,以沿着加工处理线L1~L4移动机器人臂13的方式进行操作。
另外,在第一实施方式中,PC3构成为例如能够用鼠标32(指针33)操作图标34来接收对以下两种情况的选择,该两种情况为:通过点状地输入的工件201的加工处理位置(磨削位置)而一直到根据输入的工件201的轮廓确定的工件201的端部为止对工件201进行加工处理的情况(图9的加工处理线L1);和对点状地输入的工件201的加工处理位置之间进行加工处理而并不加工处理至工件201的端部的情况(图9的加工处理线L2、L3)。即,在加工处理线L1上,虽然输入的加工处理位置(点B)仅在加工处理线L1的实线上,但对所有的加工处理线L1(实线部分和虚线部分双方)都进行加工处理。并且,在加工处理线L2及L3上,仅在输入的加工处理位置(点B)之间进行加工处理。此外,构成为:在点状地输入的工件201的加工处理位置从工件201的轮廓(端部)超出的情况(图9的加工处理线L4)下,由机器人控制器2操作工件201的加工处理以使其进行至工件201的轮廓(端部)为止。
另外,在设定为从工件201的端部起进行工件201的加工处理的情况下(例如图9的加工处理线L2),构成为由机器人控制器2进行操作,以像图9的虚线所示的工具18那样,从工具18的端部与工件201的轮廓(端部)相接的位置(即,工具18不从工件201超出的位置)开始进行加工处理。并且,PC3构成为还能够接收点状地输入的工件201的加工处理位置之间(点B和点B之间)的加工处理速度(工具18的移动速度)的输入。并且,PC3构成为还能够接收使工具18在工件201的加工处理位置(点B)上停止预定时间的动作的输入。
这里,在第一实施方式中,机器人控制器2构成为进行以下控制:基于由PC3接收的工件201的加工处理位置(研磨位置)来操作机器人臂13,由此对工件201进行加工处理(磨削)。具体而言,机器人控制器2构成为进行以下控制:操作机器人臂13,以通过点状地输入的加工处理位置(沿着加工处理线L1~L4移动),由此对工件201进行加工处理。
另外,在第一实施方式中,机器人控制器2构成为进行以下控制:基于在显示部31的画面上显示的曲面状的工件201的二维图像上由PC3接收的工件21的加工处理位置、以及由三个距离测定部17测定的至工件201距离,来对机器人臂13进行三维的操作,由此对工件201进行加工处理。并且,机器人控制器2构成为:操作机器人臂13,以使由三个距离测定部17测定的至曲面状的工件201的距离分别大致相等,从而对工具18相对于工件201的姿态进行三维的调整。
接着,参照图10及图11,对工具18相对于工件201的姿态的三维调整进行说明。
如图10及图11所示,操作机器人臂13,以使由三个距离测定部17中的一个距离测定部17a测定的至工件201的距离(Z方向的距离)与期望的距离大致相等,从而调整工具18的Z方向的位置(高度)。并且,调整工具18相对于工件201的姿态,以使由距离测定部17a及距离测定部17b测定的至工件201的距离大致相等,从而调整工具18相对于Rx轴线的姿态。并且,调整工具18相对于工件201的姿态,以使由距离测定部17b及距离测定部17c测定的至工件201的距离大致相等,从而调整工具18相对于Ry轴线的姿态。由此,如图12所示,工具18的工件201侧的面和工件201的工具18侧的面以大致平行的状态相对置。
接着,参照图7~图15,对加工处理位置的输入、以及利用工具18进行加工处理时的机器人系统100的机器人控制器2(PC3)的控制动作进行说明。
首先,如图13所示,在步骤S1中,进行如下操作:将机器人臂13移动至载置有拍摄部15的台部4(参照图14)的附近,并将拍摄部15安装至机器人臂13的手架14。接着,在步骤S2中,如图15所示,将机器人臂13移动至工件201的上方的预定的一个拍摄位置,并且在该一个拍摄位置处利用拍摄部15对工件201的整体进行拍摄。此外,工件201形成曲面状,而拍摄到的工件201的图像是二维的图像,并在PC3的显示部31(参照图7)上显示二维的工件201的图像。接着,在步骤S3中,卸下安装在机器人臂13的手架14上的拍摄部15并载置于台部4。
接着,在步骤S4中,如图8所示,在将指针33对准在PC3的显示部31的画面上显示的曲面状的工件201的二维图像上的状态下,通过点击鼠标32,来接收点状的、工件201的轮廓的输入。
接着,在步骤S5中,如图9所示,在将指针33对准在显示部31的画面上显示的曲面状的工件201的二维图像上的状态下,通过点击鼠标32(参照图6),来接收点状的对工件201的加工处理位置(磨削位置)的输入。此外,工件201的加工处理位置的输入是通过沿着显示部31的画面上显示的、表示工件201的加工处理位置的白线202的图像点击鼠标32来进行的。并且,例如通过用鼠标32(指针33)选择画面上的图标34来接收对以下两个情况的选择,该两个情况为:通过点状地输入的工件201的加工处理位置而一直到根据输入的工件201的轮廓确定的工件201的端部为止对工件201进行加工处理的情况(例如图9的加工处理线L1);和对点状地输入的工件201的加工处理位置之间进行加工处理而并不加工处理至工件201的端部的情况(图9的加工处理线L2、L3)。并且,根据需要接收点状地输入的工件201的加工处理位置之间的加工处理速度(工具18的移动速度)、和使工具18在工件201的加工处理位置上停止预定时间的动作的输入。
接着,在步骤S6中,基于接收的工件201的加工处理位置(磨削位置),将机器人臂13移动至工件201附近。此时,如图10及图11所示,操作机器人臂13,以使由三个距离测定部17测定的至曲面状的工件201的距离分别大致相等,从而对工具18相对于工件201的姿态进行三维的调整。然后,在步骤S7中,操作机器人臂13,以通过点状地输入的加工处理位置(加工处理线L1~L4),由此利用工具18进行工件201的加工处理(磨削)。由此,完成工件201的加工处理(磨削)。
在第一实施方式中,如上所述,设置了PC3,PC3用于在显示有工件201的图像的显示部31的画面上,接收确定并输入工件201的加工处理位置时的输入,并且将机器人控制器2构成为进行以下控制:通过基于由PC3接收的工件201的加工处理位置操作机器人臂13,从而对工件201进行加工处理。由此,与通过用户300移动至机器人系统100的附近并把持并移动机器人臂13来直接示教期望的动作的情况不同,用户300不需要为了期望动作的示教而使机器人臂13移动,仅通过将工件201的加工处理位置输入PC3就能够容易地进行期望动作的示教。
另外,在第一实施方式中,如上所述,PC3构成为在显示部31的画面上显示的工件201的图像上,点状地接收工件201的加工处理位置的输入,并且将机器人控制器2构成为进行以下控制:以通过点状地输入的加工处理位置的方式操作机器人臂13,由此对工件201进行加工处理。由此,与以线状描绘的方式输入工件201的加工处理位置的情况不同,能够容易地进行工件201的加工处理位置的输入。
另外,在第一实施方式中,如上所述,在工件201上预先设有表示加工处理位置的白线202,并且将机器人控制器2构成为进行以下控制:基于沿着在显示部31的画面上显示的工件201的白线202的图像而在画面上点状地输入的工件201的加工处理位置操作机器人臂13,从而对工件201进行加工处理。由此,利用白线202更容易识别工件201的加工处理位置,因此能够更容易地进行工件201的加工处理位置的输入。
另外,在第一实施方式中,如上所述,将PC3构成为在显示部31的画面上显示的曲面状的工件201的二维图像中,接收工件201的加工处理位置的输入。并且,将机器人控制器2构成为进行以下控制:基于由PC3接收的工件201的加工处理位置、及由多个距离测定部17测定的至工件201的距离,来对机器人臂13进行三维的操作,由此对工件201进行加工处理。由此,能够基于在二维图像上接收的加工处理位置(二维加工处理位置)对机器人臂13进行三维的操作,因此与用户300三维地输入加工处理位置的情况不同,能够更容易地进行工件201的加工处理位置的输入。
另外,在第一实施方式中,如上所述,将机器人控制器2构成为:操作机器人臂13,以使由多个距离测定部17测定的至曲面状的工件201的距离分别大致相等,从而对工具18相对于曲面状的工件201的姿态进行三维的调整。由此,在移动机器人臂13的期间,能够在将曲面状的工件201的工具18侧的面和工具18的工件201侧的面维持在预定的距离的状态(大致平行的状态)下使它们相对置,因此能够有效地利用工具18进行工件201的加工处理(磨削)。
另外,在第一实施方式中,如上所述,将PC3构成为通过在使指针33对准在显示部31的画面上显示的工件201的图像上的状态下点击鼠标32来输入工件201的加工处理位置。由此,用户300能够一边观察显示部31的图像,一边容易地进行工件201的加工处理位置的输入。
另外,在第一实施方式中,如上所述,将PC3构成为能够在显示有工件201的图像的显示部31的画面上,接收工件201的轮廓的输入。由此,由于识别了工件201的端部,因此能够抑制工具18超出工件201的端部进行加工处理的情况。
另外,在第一实施方式中,如上所述,将PC3构成为能够接收以下两种情况的选择,该两种情况为:通过点状地输入的工件201的加工处理位置而一直到根据输入的工件201的轮廓确定的工件201的端部为止对工件201进行加工处理的情况;以及对点状地输入的工件201的加工处理位置之间进行加工处理而并不加工处理至工件201的端部的情况。由此,即使在对工件201进行加工处理至工件201的端部的情况下,也不需要一直到工件201的端部为止确定工件201的加工处理位置,因此能够省却输入工件201的加工处理位置的麻烦。并且,通过将PC3构成为能够接收对点状地输入的工件201的加工处理位置之间进行加工处理而不加工处理至工件201的端部的情况的选择,能够可靠地抑制超出工件201的加工处理位置进行加工处理的情况。
另外,在第一实施方式中,如上所述,将拍摄部15以可装卸的方式安装于机器人臂13,并将机器人控制器2构成为:操作机器人臂13,从而在利用拍摄部15对工件201进行拍摄后,且在利用工具18对工件201加工处理前,进行将拍摄部15从机器人臂13卸下的动作。由此,在对工件201进行加工处理时,拍摄部15被从机器人臂13卸下,因此能够抑制由于拍摄部15被进行工件201的加工处理时产生的尘屑等污染而导致工件201的拍摄精度变差的情况。
(第二实施方式)
接着,参照图16及图17对第二实施方式进行说明。在该第二实施方式中,与在一个拍摄位置利用拍摄部15对工件201的整体进行拍摄的上述第一实施方式不同,对在多个拍摄位置利用拍摄部15对工件201进行拍摄的情况进行说明。
如图16及图17所示,在第二实施方式中,机器人控制器2构成为,通过操作机器人臂13,在多个拍摄位置利用拍摄部15对工件201进行拍摄,并且将在多个拍摄位置拍摄的多个分割图像合成为一个图像。例如,在第二实施方式中,沿X方向在10个拍摄位置利用拍摄部15拍摄工件201,并且沿Y方向在10个拍摄位置利用拍摄部15拍摄工件201。在图16及图17中,示出了在第一位置利用拍摄部15对工件201进行拍摄(虚线)后,使机器人臂13向箭头X1方向移动,在第二位置利用拍摄部15对工件201进行拍摄(实线)的情况。即,以10行10列的矩阵状拍摄工件201。由此,拍摄到100张(=10×10)分割图像,并且机器人控制器2将100张图像合成为一个图像。
另外,在预定的高度位置(例如,距离工作台200的表面为高度h的位置),在多个(100个位置)拍摄位置利用拍摄部15拍摄工件201。然后,与上述第一实施方式相同地,PC3构成为基于显示部31上显示的工件201的合成为一个后的图像(参照图7),接收在确定并输入对工件201进行处理的位置、即加工处理位置时的输入。而且,第二实施方式的其他结构及动作与上述第一实施方式相同。
在第二实施方式中,如上所述,将机器人控制器2构成为,通过操作机器人臂13,在多个拍摄位置利用拍摄部15拍摄工件201,并且将在多个拍摄位置拍摄的多个分割图像合成为一个图像。这里,在一个拍摄位置(例如工件201的中心的上方的位置)利用拍摄部15拍摄工件201的整体的情况下,在拍摄部15的正下方附近,拍摄到的图像上的表示加工处理位置(磨削位置)的白线202的位置和实际的白线202的位置(坐标)大致相同。另一方面,在远离拍摄部15的正下方的位置(工件201的端部附近),存在拍摄到的图像上的白线202的位置和实际的白线202的位置(坐标)发生偏差的情况。因此,通过将机器人控制器2构成为在多个拍摄位置利用拍摄部15拍摄工件201,并将在多个拍摄位置拍摄的多个分割图像合成为一个图像,工件201所有的部分都在拍摄部15的正下方附近拍摄,因此能够抑制拍摄到的图像上的白线202的位置和实际的白线202的位置(坐标)发生偏差的情况。由此,能够高精度地进行工具18对工件201的加工处理。
而且,此次公开的实施方式应被认为在所有方面均为例示而并不进行限制。本发明的范围不是由上述实施方式的说明而是由权利要求书示出的,还包含与权利要求等同的意思和范围内的所有变更。
例如,在上述第一及第二实施方式中,示出了用于对工件进行处理的工具由对工件进行磨削处理的磨削装置构成的例子,但对工件的处理不限于磨削。例如,工具也可以是用于对工件的加工处理位置进行加热处理的加热装置。在对工件进行局部加热的处理中,通常,加热工件的位置等需要根据工件的状态和作业时的环境由人类作业者进行经验性的调整,因此需要频繁地进行机器人的动作示教,本发明是有效的。另外,工具也可以是沿着预定的轨迹进行处理的进行焊接(焊枪)或切断等的工具。
另外,在上述第一及第二实施方式中,示出了点状地输入工件的加工处理位置的例子,但也可以构成为,例如,用户以在PC的显示部显示的工件的图像的画面上进行描绘的方式进行输入操作,从而线状地输入工件的加工处理位置。
另外,在上述第一及第二实施方式中,示出了在工件上设有表示加工处理位置的白线(加工处理位置标识)的示例,但也可以在工件上设置用于表示加工处理位置的白线以外的颜色的线、点或表示一定的范围的圆等。
另外,在上述第一及第二实施方式中,示出了预先在工件的表面设置表示加工处理位置的白线的示例,但用户也可以在未设有表示加工处理位置的白线的工件的图像画面上,确定并输入工件的加工处理位置。
另外,在上述第一及第二实施方式中,示出了设有三个距离测定部的示例,但也可以设置两个距离测定部,也可以设置四个以上的距离测定部。
另外,在上述第一及第二实施方式中,示出了用户通过使指针对准在PC的显示部上显示的工件的图像的画面上并点击鼠标,来输入工件的加工处理位置的示例,但也可以构成为,在触摸板式的显示部上显示工件的图像,用户通过触摸触摸板式的显示部的画面,来输入工件的加工处理位置。
另外,在上述第一及第二实施方式中,示出了工件以向上方弯曲的方式形成曲面状的示例,但工件也可以形成凹凸状。
另外,在上述第二实施方式中,示出了沿X方向在10个拍摄位置利用拍摄部对工件进行拍摄,并且沿着Y方向在10个拍摄位置利用拍摄部对工件进行拍摄的示例,但也可以例如沿X方向及Y方向在10个以外的多个拍摄位置利用拍摄部对工件进行拍摄。

Claims (11)

1.一种机器人系统,其具备:
机器人臂,其安装有用于对工件进行处理的工具;
控制器,其用于对所述机器人臂进行操作;
拍摄部,其用于对所述工件进行拍摄;
显示部,其显示由所述拍摄部拍摄的所述工件的图像;以及
输入接收部,其基于所述显示部上显示的所述工件的图像,接收确定并输入对所述工件进行处理的位置、即加工处理位置时的输入,
所述控制器构成为进行以下控制:基于由所述输入接收部接收的所述工件的加工处理位置来操作所述机器人臂,从而对所述工件进行加工处理。
2.根据权利要求1所述的机器人系统,其中,
所述输入接收部构成为,在所述显示部的画面上显示的所述工件的图像上,点状或线状地接收所述工件的加工处理位置的输入,
所述控制器构成为进行以下控制:操作所述机器人臂,以通过点状或线状地输入的加工处理位置,由此对所述工件进行加工处理。
3.根据权利要求2所述的机器人系统,其中,
在所述工件上预先设有表示加工处理位置的加工处理位置标识,
所述控制器构成为进行以下控制:基于沿着所述显示部的画面上显示的所述工件的加工处理位置标识的图像在画面上点状或线状地输入的所述工件的加工处理位置,操作所述机器人臂,由此对所述工件进行加工处理。
4.根据权利要求1~3中任意一项所述的机器人系统,其中,
所述机器人系统还具备用于测定至所述工件的距离的多个距离测定部,
所述工件形成为曲面状或凹凸状,
所述输入接收部在所述显示部的画面上显示的所述曲面状或凹凸状的工件的二维图像上接收所述工件的加工处理位置的输入,并且
所述控制器构成为进行以下控制:基于由所述输入接收部接收的所述工件的加工处理位置、及由所述多个距离测定部测定的至所述工件的距离,来对所述机器人臂进行三维的操作,由此对所述工件进行加工处理。
5.根据权利要求4所述的机器人系统,其中,
所述控制器构成为:操作所述机器人臂,以使由所述多个距离测定部测定的至所述曲面状或凹凸状的工件的距离分别大致相等,从而三维地调整所述工具相对于所述工件的姿态。
6.根据权利要求1~3中任意一项所述的机器人系统,其中,
所述输入接收部包括输入部,所述输入部与所述显示部分开设置,用于确定并输入所述工件的加工处理位置,
所述机器人系统构成为:使用所述输入部,在使指针对准在所述显示部的画面所显示的所述工件的图像上的状态下进行输入操作,从而输入所述工件的加工处理位置。
7.根据权利要求1~3中任意一项所述的机器人系统,其中,
所述输入接收部构成为,能够在显示有所述工件的图像的所述显示部的画面上接收所述工件的轮廓的输入。
8.根据权利要求7所述的机器人系统,其中,
所述输入接收部构成为能够接收以下两种情况的选择,该两种情况为:通过点状地输入的所述工件的加工处理位置而一直到根据所述输入的工件的轮廓确定的所述工件的端部为止对所述工件进行加工处理的情况;和对所述点状地输入的所述工件的加工处理位置之间进行加工处理而并非加工处理至所述工件的端部的情况。
9.根据权利要求1~3中任意一项所述的机器人系统,其中,
所述拍摄部以能够装卸的方式安装于所述机器人臂,
所述控制器构成为:操作所述机器人臂,以在利用所述拍摄部对所述工件进行拍摄后,且在利用所述工具对所述工件进行加工处理前,进行将所述拍摄部从所述机器人臂卸下的动作。
10.根据权利要求1~3中任意一项所述的机器人系统,其中,
所述控制器构成为:通过操作所述机器人臂,在多个拍摄位置利用所述拍摄部对所述工件进行拍摄,并且将在所述多个拍摄位置拍摄的多个分割图像合成为一个图像,
所述输入接收部基于在所述显示部上显示的工件的所述合成为一个后的图像,接收确定并输入对所述工件进行处理的位置、即加工处理位置时的输入。
11.一种加工件的制造方法,其具备:
利用拍摄部拍摄工件的工序;
基于由所述拍摄部拍摄的所述工件的图像,接收对所述工件进行处理的位置、即加工处理位置的输入的工序;以及
基于接收的所述工件的加工处理位置操作机器人臂,由此对所述工件进行加工处理的工序。
CN201310489327.5A 2012-10-19 2013-10-18 机器人系统及加工件的制造方法 Pending CN103770112A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-232332 2012-10-19
JP2012232332A JP5664629B2 (ja) 2012-10-19 2012-10-19 ロボットシステムおよび加工品の製造方法

Publications (1)

Publication Number Publication Date
CN103770112A true CN103770112A (zh) 2014-05-07

Family

ID=49354562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310489327.5A Pending CN103770112A (zh) 2012-10-19 2013-10-18 机器人系统及加工件的制造方法

Country Status (4)

Country Link
US (1) US20140114459A1 (zh)
EP (1) EP2722138A2 (zh)
JP (1) JP5664629B2 (zh)
CN (1) CN103770112A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104858712A (zh) * 2015-04-10 2015-08-26 深圳市圆梦精密技术研究院 曲面零件的加工方法及曲面零件的加工设备
CN105058205A (zh) * 2015-08-31 2015-11-18 温州金石机器人科技有限公司 用于安装研磨带的自动研磨装置
CN105082133A (zh) * 2014-05-08 2015-11-25 东芝机械株式会社 拣选装置以及拣选方法
CN105396740A (zh) * 2014-09-09 2016-03-16 株式会社安川电机 涂布装置、涂布机器人及涂布方法
CN105599241A (zh) * 2016-01-13 2016-05-25 重庆世纪精信实业(集团)有限公司 基于图像识别技术的机械手自动对准方法及装置
CN106041948A (zh) * 2016-06-13 2016-10-26 哈尔滨工大智慧工厂有限公司 一种运用视觉检测的机器人去毛刺系统及去毛刺方法
CN106182083A (zh) * 2015-06-01 2016-12-07 精工爱普生株式会社 机器人系统以及紧急停止处理装置
CN106737662A (zh) * 2015-11-24 2017-05-31 发那科株式会社 机器人系统
CN107866717A (zh) * 2017-11-09 2018-04-03 四川工程职业技术学院 一种水轮机叶片自动打磨系统
CN107921632A (zh) * 2015-09-03 2018-04-17 株式会社安川电机 处理轨迹编辑装置、机器人、物品处理系统以及物品制造方法
CN108214488A (zh) * 2016-12-22 2018-06-29 精工爱普生株式会社 控制装置、机器人以及机器人系统
CN110366474A (zh) * 2017-06-21 2019-10-22 株式会社大气社 自动研磨系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5382053B2 (ja) * 2011-04-15 2014-01-08 株式会社安川電機 ロボットシステムおよびロボットシステムを用いた検査方法
CN105290926A (zh) * 2014-12-16 2016-02-03 电子科技大学 叶片智能磨削柔性制造系统
CN106181699A (zh) * 2016-07-21 2016-12-07 广东意戈力智能装备有限公司 一种柔性抛光打磨系统
DE102016221734A1 (de) * 2016-11-07 2018-05-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Feinausrichtung von Roboterwerkzeugen
JP6472472B2 (ja) * 2017-03-08 2019-02-20 本田技研工業株式会社 位置姿勢調整方法
US10307908B2 (en) 2017-04-07 2019-06-04 X Development Llc Methods and systems for establishing and maintaining a pre-build relationship
JP6713015B2 (ja) 2018-04-13 2020-06-24 株式会社大気社 自動研磨システム
DE102018113122A1 (de) * 2018-06-01 2019-12-05 Mack Rides Gmbh & Co Kg Verfahren zum Facettieren sowie Vorrichtung für ein solches Verfahren
JP7237482B2 (ja) * 2018-07-18 2023-03-13 藤森工業株式会社 エンドエフェクタ取付冶具
EP3830771A1 (en) * 2018-08-01 2021-06-09 3M Innovative Properties Company Predictive modeling tool
GB2589418A (en) * 2019-08-09 2021-06-02 Quantum Leap Tech Limited Fabric maintenance system and method of use
JP6903777B1 (ja) * 2020-01-24 2021-07-14 株式会社大気社 自動ティーチングシステム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09222913A (ja) * 1996-02-20 1997-08-26 Komatsu Ltd ロボットの教示位置補正装置
JPH10264060A (ja) * 1997-03-27 1998-10-06 Trinity Ind Corp 塗装ロボットのティーチング装置
US20030078694A1 (en) * 2000-12-07 2003-04-24 Fanuc Ltd. Robot teaching apparatus
EP1512499A2 (en) * 2003-09-02 2005-03-09 Fanuc Ltd Robot having a camera mounted at the distal end of its arm and method for operating such a robot
CN1830613A (zh) * 2005-03-09 2006-09-13 发那科株式会社 激光焊接示教装置以及方法
JP2011255473A (ja) * 2010-06-10 2011-12-22 Kobe Steel Ltd 溶接マニピュレータ教示装置
CN102695582A (zh) * 2010-01-06 2012-09-26 本田技研工业株式会社 加工系统及加工方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6311290A (ja) * 1986-06-30 1988-01-18 株式会社東芝 三次元位置設定装置
JP2708032B2 (ja) * 1995-12-26 1998-02-04 日本電気株式会社 ロボット教示装置
US5959425A (en) * 1998-10-15 1999-09-28 Fanuc Robotics North America, Inc. Vision guided automatic robotic path teaching method
JP3515023B2 (ja) * 1999-08-25 2004-04-05 太 森山 測定方法および測定装置
JP2003203216A (ja) * 2002-01-08 2003-07-18 Mitsutoyo Corp 画像測定装置用パートプログラム生成装置及び画像測定装置用パートプログラム生成用プログラム
JP4578056B2 (ja) * 2003-02-06 2010-11-10 株式会社ダイヘン 作業ロボットを用いた制御システムによるワーク加工方法
JP2006255826A (ja) * 2005-03-16 2006-09-28 Toguchi Seisakusho:Kk 計測ヘッド及び工作機械
US20070075048A1 (en) * 2005-09-30 2007-04-05 Nachi-Fujikoshi Corp. Welding teaching point correction system and calibration method
JP2009214257A (ja) 2008-03-12 2009-09-24 Toyota Motor Corp ロボット教示方法
CN102378943A (zh) * 2009-02-03 2012-03-14 范努克机器人技术美国有限公司 控制机器人工具的方法
JP4837116B2 (ja) * 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP5382053B2 (ja) * 2011-04-15 2014-01-08 株式会社安川電機 ロボットシステムおよびロボットシステムを用いた検査方法
JP2012223839A (ja) * 2011-04-15 2012-11-15 Yaskawa Electric Corp ロボットシステムおよびロボットシステムの駆動方法
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5975685B2 (ja) * 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09222913A (ja) * 1996-02-20 1997-08-26 Komatsu Ltd ロボットの教示位置補正装置
JPH10264060A (ja) * 1997-03-27 1998-10-06 Trinity Ind Corp 塗装ロボットのティーチング装置
US20030078694A1 (en) * 2000-12-07 2003-04-24 Fanuc Ltd. Robot teaching apparatus
EP1512499A2 (en) * 2003-09-02 2005-03-09 Fanuc Ltd Robot having a camera mounted at the distal end of its arm and method for operating such a robot
CN1830613A (zh) * 2005-03-09 2006-09-13 发那科株式会社 激光焊接示教装置以及方法
CN102695582A (zh) * 2010-01-06 2012-09-26 本田技研工业株式会社 加工系统及加工方法
JP2011255473A (ja) * 2010-06-10 2011-12-22 Kobe Steel Ltd 溶接マニピュレータ教示装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105082133A (zh) * 2014-05-08 2015-11-25 东芝机械株式会社 拣选装置以及拣选方法
US9604364B2 (en) 2014-05-08 2017-03-28 Toshiba Kikai Kabushiki Kaisha Picking apparatus and picking method
CN105396740A (zh) * 2014-09-09 2016-03-16 株式会社安川电机 涂布装置、涂布机器人及涂布方法
CN104858712A (zh) * 2015-04-10 2015-08-26 深圳市圆梦精密技术研究院 曲面零件的加工方法及曲面零件的加工设备
CN104858712B (zh) * 2015-04-10 2017-09-22 深圳市圆梦精密技术研究院 曲面零件的加工方法及曲面零件的加工设备
CN106182083A (zh) * 2015-06-01 2016-12-07 精工爱普生株式会社 机器人系统以及紧急停止处理装置
CN105058205A (zh) * 2015-08-31 2015-11-18 温州金石机器人科技有限公司 用于安装研磨带的自动研磨装置
CN107921632A (zh) * 2015-09-03 2018-04-17 株式会社安川电机 处理轨迹编辑装置、机器人、物品处理系统以及物品制造方法
CN106737662B (zh) * 2015-11-24 2019-06-28 发那科株式会社 机器人系统
CN106737662A (zh) * 2015-11-24 2017-05-31 发那科株式会社 机器人系统
US10259118B2 (en) 2015-11-24 2019-04-16 Fanuc Corporation Robot system having function of simplifying teaching operation and improving operating performance by learning
CN105599241A (zh) * 2016-01-13 2016-05-25 重庆世纪精信实业(集团)有限公司 基于图像识别技术的机械手自动对准方法及装置
CN106041948A (zh) * 2016-06-13 2016-10-26 哈尔滨工大智慧工厂有限公司 一种运用视觉检测的机器人去毛刺系统及去毛刺方法
CN108214488A (zh) * 2016-12-22 2018-06-29 精工爱普生株式会社 控制装置、机器人以及机器人系统
CN110366474A (zh) * 2017-06-21 2019-10-22 株式会社大气社 自动研磨系统
US11717937B2 (en) 2017-06-21 2023-08-08 Taikisha Ltd. Automatic polishing system
CN107866717A (zh) * 2017-11-09 2018-04-03 四川工程职业技术学院 一种水轮机叶片自动打磨系统

Also Published As

Publication number Publication date
EP2722138A2 (en) 2014-04-23
JP2014083610A (ja) 2014-05-12
JP5664629B2 (ja) 2015-02-04
US20140114459A1 (en) 2014-04-24

Similar Documents

Publication Publication Date Title
CN103770112A (zh) 机器人系统及加工件的制造方法
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP5725796B2 (ja) 工具の測定方法及び測定装置、並びに工作機械
JP2022028672A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP3946711B2 (ja) ロボットシステム
EP2682711B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
JP4763074B2 (ja) ロボットのツール先端点の位置の計測装置および計測方法
JP5670416B2 (ja) ロボットシステム表示装置
EP3272472A2 (en) Control device, robot, and robot system
JP6900290B2 (ja) ロボットシステム
JP2019113895A (ja) ワークを撮像する視覚センサを備える撮像装置
JP2009175954A (ja) 加工用ロボットプラグラムの作成装置
CN109834710B (zh) 机器人和机器人系统
JP2016187846A (ja) ロボット、ロボット制御装置およびロボットシステム
JP4289619B2 (ja) 多関節ロボットのツール位置補正方法
CN113015604A (zh) 机器人控制系统及机器人控制方法
WO2022163580A1 (ja) 視覚センサにて取得される3次元の位置情報から断面画像を生成する処理装置および処理方法
JP2006082170A (ja) キャリブレーション方法
JP2004009209A (ja) ロボットの教示装置
JP2009214289A (ja) 倣い研削方法及びその装置
CN116472144A (zh) 图像处理系统以及图像处理方法
WO2018100620A1 (ja) 情報処理装置及び情報処理方法
JP7383350B2 (ja) 画像測定装置のティーチングプログラム
TW202411032A (zh) 在機器人座標系統設定搬送裝置座標系統之裝置、及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20170315

C20 Patent right or utility model deemed to be abandoned or is abandoned