CN109945780B - 物体检查系统以及物体检查方法 - Google Patents
物体检查系统以及物体检查方法 Download PDFInfo
- Publication number
- CN109945780B CN109945780B CN201811574755.7A CN201811574755A CN109945780B CN 109945780 B CN109945780 B CN 109945780B CN 201811574755 A CN201811574755 A CN 201811574755A CN 109945780 B CN109945780 B CN 109945780B
- Authority
- CN
- China
- Prior art keywords
- image
- coordinate system
- inspection
- unit
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 286
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000003384 imaging method Methods 0.000 claims abstract description 209
- 230000000007 visual effect Effects 0.000 claims abstract description 11
- 230000007246 mechanism Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000003287 optical effect Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000004088 simulation Methods 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000009466 transformation Effects 0.000 description 12
- 210000000707 wrist Anatomy 0.000 description 7
- 238000005286 illumination Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000010968 computed tomography angiography Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003746 surface roughness Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
本发明提供一种物体检查系统以及物体检查方法,当在掩膜图像与检查图像之间产生了偏差的情况下,能够迅速且容易地将掩膜图像与检查图像对准。物体检查系统具备:拍摄部;使第1物体或第2物体与拍摄部相对移动的移动机械;取得移动机械将第1物体或第2物体与拍摄部配置在相对位置时的移动机械的位置数据的位置数据取得部;取得第1物体的第1图像和第2物体的第2图像的图像数据取得部;以及进行第1图像与第2图像的对准的图像对准部,能够检查有无第2物体相对于第1物体的视觉识别的误差。
Description
技术领域
本发明涉及物体检查系统以及物体检查方法。
背景技术
已知对工件等物体的表面进行拍摄来检查该物体的表面的物体检查系统(例如,日本特开2017-015396号公报)。
在物体检查系统中,取得成为基准的物体的掩膜图像,并且取得成为检查对象的物体的检查图像,通过将这两个图像进行比较来检查成为检查对象的物体相对于成为基准的物体有无视觉上的误差。
在该情况下,存在掩膜图像与检查图像之间产生偏差的情况。以往,寻求在产生了这样的偏差的情况下,能够将掩膜图像与检查图像迅速且容易地对准的技术。
发明内容
在本公开的一方式中,物体检查系统具备:拍摄部,其对具有共同的外形的第1物体和第2物体进行拍摄;移动机械,其使第1物体或第2物体与拍摄部相对地移动;位置数据取得部,其取得移动机械将第1物体与拍摄部配置在第1相对位置时的移动机械的第1位置数据,并且取得移动机械将第2物体与拍摄部配置在第2相对位置时的移动机械的第2位置数据;图像数据取得部,其取得在第1相对位置由拍摄部拍摄到的第1物体的第1图像,并且取得在第2相对位置由拍摄部拍摄到的第2物体的第2图像;以及图像对准部,其使用移动机械的移动机械坐标系与拍摄部的拍摄坐标系之间的已知的位置关系、第1位置数据以及第2位置数据,进行拍摄坐标系中的第1图像与第2图像的对准,并且基于进行了对准后的第1图像与第2图像,能够检查有无第2物体相对于第1物体的视觉识别的误差。
在本公开的另一方式中,物体检查方法具备以下步骤:取得通过移动机械将第1物体与拍摄部配置在第1相对位置时的移动机械的第1位置数据;取得在第1相对位置由拍摄部拍摄到的第1物体的第1图像;取得通过移动机械将具有与第1物体共同的外形的第2物体和拍摄部配置在第2相对位置时的移动机械的第2位置数据;取得在第2相对位置由拍摄部拍摄到的第2物体的第2图像;使用移动机械的移动机械坐标系与拍摄部的拍摄坐标系之间的已知的位置关系、第1位置数据以及第2位置数据来进行拍摄坐标系中的第1图像与第2图像的对准;基于进行了对准后的第1图像与第2图像,检查有无第2物体相对于第1物体的视觉识别的误差。
根据本公开的一个方式,假设在掩膜图像与检查图像之间产生了偏差的情况下,能够使用移动机械的位置数据进行这两个图像的对准。由此,能够实现图像的对准作业的简化和快速化。
附图说明
图1是一个实施方式的物体检查系统的图。
图2是物体检查系统的框图。
图3是图1所示的机械手的放大图,是从工具坐标系的y轴正方向观察该机械手的图。
图4用于说明针对物体的工具坐标系的配置。
图5是将图1的拍摄部和物体进行了放大的放大图。
图6表示将第1物体与拍摄部定位在第1基准相对位置时的被检查面中的视场。
图7表示在将第1物体与拍摄部配置在第1基准相对位置时由拍摄部拍摄的掩膜图像的例子。
图8表示将第1物体与拍摄部配置在第n基准相对位置(n=1~12)时的被检查面中的视场。
图9表示在将第2物体与拍摄部配置在第1检查相对位置时由拍摄部拍摄的检查图像的例子。
图10表示在将第2物体与拍摄部配置在第1检查相对位置时由拍摄部拍摄的检查图像的例子。
图11表示在将第2物体与拍摄部配置在第1检查相对位置时由拍摄部拍摄的检查图像的例子。
图12表示在将第2物体与拍摄部配置在第1检查相对位置时由拍摄部拍摄的检查图像的例子。
图13用于说明拍摄到图12所示的检查图像时的物体与拍摄部的位置关系,图13的(a)表示拍摄掩膜图像时的第1物体与拍摄部的位置关系,图13的(b)表示拍摄检查图像时的第2物体与拍摄部的位置关系。
图14是表示物体检查系统的动作流程的一个例子的流程图。
图15是表示图14中的步骤S1的流程的一个例子的流程图。
图16是表示图14中的步骤S2的流程的一个例子的流程图。
图17是表示图14中的步骤S3的流程的一个例子的流程图。
图18是表示图14中的步骤S4的流程的一个例子的流程图。
图19是表示物体检查系统的其他的功能的框图。
图20是表示图19所示的物体检查系统执行的图14中的步骤S1的流程的一个例子的流程图。
图21表示指定了基准点的第1掩膜图像的例子。
图22表示描绘了检查基准点的第1检查图像的例子。
图23表示描绘了检查基准点的第1检查图像的例子。
图24表示描绘了检查基准点的第1检查图像的例子。
图25表示指定了基准点的第1掩膜图像的例子。
图26表示描绘了检查基准点的第1检查图像的例子。
图27是表示物体检查系统的另一功能的框图。
图28是表示物体检查系统的另一功能的框图。
图29是另一实施方式的物体检查系统的图。
图30是另一实施方式的物体检查系统的框图。
具体实施方式
以下,基于附图对本公开的实施方式进行详细说明。此外,在以下说明的各种实施方式中,对相同的要素标注相同的附图标记,并省略重复的说明。首先,参照图1~图3对一个实施方式的物体检查系统10进行说明。
物体检查系统10具备:控制部12、移动机械14、拍摄部16、照明装置18。控制部12具有CPU和存储部(未图示)等,对移动机械14、拍摄部16和照明装置18进行控制。
在本实施方式中,移动机械14是垂直多关节机器人,具有:机器人基座20、旋转体22、机械臂24、手腕部26、以及机械手(抓持部)28。机器人基座20固定在作业单元的地面上。旋转体22以能够围绕垂直轴旋转的方式设置在机器人基座20上。
机械臂24具有以能够转动的方式与旋转体22连结的上臂部30、以及以能够转动的方式与该上臂部30的前端连结的前臂部32。手腕部26安装在前臂部32的前端,能够转动地支撑机械手28。
如图3所示,机械手28具有:手基座34、多个指部36、以及指部驱动部(未图示)。手基座34与手腕部26连结。多个指部36以能够开闭的方式设置在手基座34。
多个指部36从手基座34朝向一方延伸,并且在相互相对的面上具有阶梯部36a。在机械手28对工件等物体W进行抓持时,物体W的上表面SU与阶梯部36a卡合。指部驱动部例如是气缸,内置在手基座34中。指部驱动部根据来自控制部12的指令使指部36开闭。
移动机械14具有多个伺服电动机38(图2)。伺服电动机38分别内置于移动机械14的旋转体22、机械臂24以及手腕部26,根据来自控制部12的指令(速度指令、扭矩指令等)驱动这些构成要素。
作为用于控制移动机械14的各构成要素的自动控制的坐标系之一,设定机器人坐标系(移动机械坐标系)CR(图1)。控制部12以机器人坐标系CR为基准,使该移动机械14的各构成要素进行动作。例如,机器人坐标系CR的z轴与实际空间的铅垂方向平行,旋转体22围绕机器人坐标系CR的z轴进行转动。
另一方面,针对机械手28,设定工具坐标系CT。该工具坐标系CT是自动控制的坐标系之一,通过机器人坐标系CR表现该工具坐标系CT的位置和方向,由此规定空间内的机械手28的位置和姿势。
如图3所示,在本实施方式中,设定工具坐标系CT,使得工具坐标系CT的原点位于指部36的阶梯部36a之间,指部36从手基座34向工具坐标系CT的z轴正方向延伸,并向工具坐标系CT的x轴方向进行开闭。
控制部12在机器人坐标系CR中使旋转体22、机械臂24以及手腕部26进行动作,使得机械手28的位置和姿势与通过工具坐标系CT规定的位置和姿势一致。如此,将机械手28在机器人坐标系CR中配置为任意的位置和姿势。
拍摄部16具有聚焦透镜等光学系统、CCD传感器或CMOS传感器等拍摄传感器。在本实施方式中,将拍摄部16以从移动机械14离开的方式固定在机器人坐标系CR中的预先决定的位置。拍摄部16根据来自控制部12的指令,对物体W进行拍摄,将拍摄到的图像向控制部12发送。
将拍摄部16的固定位置以及该拍摄部16的光轴O(即,向拍摄部16的光学系统入射的被拍摄物图像的光路)预先对于机器人坐标系CR进行校准,由此在机器人坐标系CR中使其坐标化,并预先存储在控制部12的存储部中。由此,控制部12能够识别机器人坐标系CR的拍摄部16以及光轴O的位置。
照明装置18具有白炽灯、荧光灯、或LED等,被固定在预先决定的位置。照明装置18根据来自控制部12的指令进行开/关,在成为开时,向移动机械14抓持的物体W照射光。
接下来,参照图1~图11,对物体检查系统10的功能进行说明。在本实施方式中,物体检查系统10对第1物体W1的被检查面SI进行拍摄,接下来,对第2物体W2的被检查面SI进行拍摄,将这两个图像进行比较,由此检查有无第2物体W2相对于第1物体W1的可视觉识别的误差(例如,伤痕、表面粗糙度的差、部件安装位置的差、焊接位置的差等)。
第1物体W1与第2物体W2具有共同的外形。在本实施方式中,第1物体W1与第2物体W2是互为为相同外形的矩形板,具有总共四个孔H。
首先,控制部12使移动机械14动作,通过机械手28来抓持在预先决定的保管场所保管的第1物体W1。此时,机械手28在预先指定的抓持位置(目的位置)抓持第1物体W1。该抓持位置由在通过机械手28抓持第1物体W1时控制部12设定的工具坐标系CT的位置和方向来决定。
作为一个例子,操作人员对在物体检查系统10设置的键盘或触摸面板等操作部(未图示)进行操作,在第1物体W1指定工具坐标系CT的原点的位置。
如图4所示,假设操作人员将工具坐标系CT的原点的位置指定为第1物体W1的上表面SU的中心。在该情况下,控制部12在通过机械手28抓持在保管场所保管的第1物体W1时,对该第1物体W1设定工具坐标系CT,使得工具坐标系CT的原点位于该第1物体W1的上表面SU的中心,并且工具坐标系CT的y-z平面与被检查面SI平行。
然后,控制部12使移动机械14进行动作,从而将机械手28配置为通过所设定的工具坐标系CT规定的位置和姿势,通过该机械手28抓持第1物体W1。结果,如图1、图3和图5所示,机械手28在与操作人员指定的工具坐标系CT对应的抓持位置,抓持第1物体W1。
在机械手28在预定的抓持位置抓持了第1物体W1的情况下,第1物体W1相对于机械手28(即,工具坐标系CT)的位置为已知,对于第1物体W1上的任意的位置,能够使用该抓持位置和第1物体W1的附图数据,在机器人坐标系CR中坐标化。
换言之,在已知的抓持位置由机械手28抓持的第1物体W1能够看做是在机器人坐标系CR中被控制的移动机械14的一个构成要素。
接下来,控制部12使移动机械14进行动作从而使第1物体W1移动,使得第1物体W1的被检查面SI的至少一部分进入拍摄部16的视场A,将该第1物体W1与该拍摄部16配置在基准相对位置(第1相对位置)。
参照图5,对拍摄部16的视场A进行说明。拍摄部16具有表示能够拍摄的范围的视场角。该视场角取决于拍摄部16的光学系统和拍摄传感器的规格。具体而言,拍摄部16的光学系统的焦距越长,或拍摄传感器的受光面越小,视场角越窄。
将拍摄部16的视场角的例子表示为图1和图5中的假想线B。通过该视场角B以及拍摄部16与被检查面SI之间的距离D来决定如图1所示将第1物体W1与拍摄部16进行了定位时拍摄部16能够拍摄的被检查面SI上的范围(即,视场A)。
换句话说,在将拍摄部16与被检查面SI配置为彼此分离距离D时,该视场A表示在拍摄部16进行了对焦的状态下拍摄部16能够拍摄的被检查面SI上的区域。此外,拍摄部16拍摄的图像的分辨率与视场A处于反比例的关系,视场A越小,所得的图像的分辨率越高。
在通过机械手28抓持了第1物体W1的抓持位置后,控制部12使移动机械14动作,从而将机械手28配置为图1所示的第1位置和姿势。
具体而言,控制部12将工具坐标系CT设定为图1所示的第1位置和方向(即,原点位置和各轴的方向)。然后,控制部12使移动机械14进行动作从而使抓持了第1物体W1的机械手28移动,使其与通过图1所示的工具坐标系CT规定的位置和姿势一致。
结果,将机械手28配置为第1位置和姿势,将机械手28抓持的第1物体W1相对于拍摄部16定位在图1所示的第1基准相对位置。
此时,将拍摄部16的视场A相对于第1物体W1的被检查面SI,配置在图1、图5、和图6所示的位置。而且,拍摄部16的光轴O与第1物体W1的被检查面SI正交,并且拍摄部16与被检查面SI彼此分离距离D。
接下来,控制部12向照明装置18发送指令,使该照明装置18接通。由此,移动机械14抓持的第1物体W1被照明装置18照亮。
接下来,控制部12向拍摄部16发送拍摄指令。拍摄部16若从控制部12接收到拍摄指令,则对第1物体W1的被检查面SI进行拍摄。图7表示在将第1物体W1与拍摄部16定位在第1基准相对位置时由拍摄部16拍摄的第1物体W1的图像(第1图像。以下,设为“掩膜图像”)的例子。
图7所示的第1掩膜图像40是在将第1物体W1与拍摄部16定位在第1基准相对位置时(即,将抓持第1物体W1的机械手28配置为第1位置和姿势时),进入拍摄部16的视场A的图像。
由拍摄部16拍摄到的第1掩膜图像40的各像素由图7中的拍摄坐标系CI表示。拍摄坐标系CI是规定拍摄部16的视场A的坐标系,将拍摄部16拍摄到的第1掩膜图像40的各像素表示为拍摄坐标系CI的坐标。
通过上述的校准,机器人坐标系CR与拍摄坐标系CI的位置关系(即,拍摄坐标系CI相对于机器人坐标系CR的原点位置和各轴的方向)为已知。
更具体而言,操作人员相对于机器人坐标系CR校准拍摄部16的固定位置以及该拍摄部16的光轴O的位置,由此取得机器人坐标系CR与拍摄坐标系CI之间的坐标变换数据。该坐标变换数据例如是雅可比矩阵,是用于将机器人坐标系CR的坐标变换成拍摄坐标系CI的坐标的数据。
控制部12取得该坐标变换数据,并存储在存储部。如此,在本实施方式中,控制部12作为用于取得坐标变换数据的坐标变换数据取得部42(图2)发挥功能。
控制部12取得在将第1物体W1与拍摄部16配置在第1基准相对位置并通过拍摄部16拍摄第1物体W1时的移动机械14的位置数据(第1位置数据。以下,设为“基准位置数据”)。
例如,控制部12取得将第1物体W1与拍摄部16配置在第1基准相对位置时的机器人坐标系CR中的工具坐标系CT的位置和方向的信息,来作为第1基准位置数据。
或者,控制部12存储将第1物体W1与拍摄部16配置在第1基准相对位置时的移动机械14的各伺服电动机38的旋转角度,根据该旋转角度来计算机器人坐标系CR中的机械手28的位置和姿势。控制部12可以取得计算出的机械手28的位置和姿势来作为第1基准位置数据。
该第1基准位置数据成为在将第1物体W1与拍摄部16配置在第1基准相对位置时的与第1物体W1在机器人坐标系CR中的位置和姿势对应的信息。这样,在本实施方式中,控制部12作为用于取得基准位置数据(第1位置数据)的位置数据取得部44(图2)发挥功能。
接下来,控制部12使移动机械14进行动作从而将抓持了第1物体W1的机械手28配置为第2位置和姿势。在将机械手28配置为第2位置和姿势时,被机械手28抓持的第1物体W1相对于拍摄部16被配置在第2基准相对位置。此时,拍摄部16的视场A相对于第1物体W1的被检查面SI,被配置在图8中的区域A2所示的位置。
在将第1物体W1与拍摄部16定位在第2基准相对位置时(即,将机械手28配置为第2位置和姿势时),控制部12向拍摄部16发送拍摄指令,对第1物体W1的被检查面SI进行拍摄。由此,拍摄与图8中的区域A2对应的第2掩膜图像。
这里,图8中的区域An(n=1~12)表示在将抓持了第1物体W1的机械手28配置为第n位置和姿势,由此将第1物体W1相对于拍摄部16配置在第n基准相对位置时的针对被检查面SI的拍摄部16的视场A的位置。
如图8所示,区域An与区域An+1以一边相互一致的方式邻接。此外,也可以以相互邻接的两个区域An的至少一部分相互重复的方式规定第1物体W1相对于拍摄部16的第n基准相对位置。
在将机械手28配置为第n位置和姿势时,控制部12将工具坐标系CT设定为第n位置和方向。然后,控制部12使移动机械14进行动作从而使机械手28移动,使其与配置为第n位置和方向的工具坐标系CT所规定的位置和姿势一致。
这样,控制部12将机械手28依次配置为第3位置和姿势、第4位置和姿势、···第n位置和姿势,由此将机械手28所抓持的第1物体W1相对于拍摄部16依次定位在第3基准相对位置、第4基准相对位置、···第n基准相对位置。
控制部12在每次将第1物体W1与拍摄部16定位在各个基准相对位置时,通过拍摄部16对第1物体W1的被检查面SI进行拍摄。由此,控制部12取得与图8中的区域A1~A12对应的第1掩膜图像~第12掩膜图像。这样,在本实施方式中,控制部12作为取得第n掩膜图像的图像数据取得部46(图2)发挥功能。
另外,控制部12作为位置数据取得部44发挥功能,分别取得在将第1物体W1与拍摄部16配置在第n基准相对位置来拍摄了第n掩膜图像时的移动机械14的位置,来作为第n基准位置数据。
控制部12按照机器人程序,执行上述的一系列的定位动作。关于该机器人程序,例如由操作人员使用示教操作盘(未图示)向实际的移动机械14示教将机械手28配置为第n位置和姿势的动作,来构建该机器人程序。
机器人程序包含在将机械手28配置为第n位置和姿势时的工具坐标系CT的第n位置和方向的信息、以及移动机械14的各伺服电动机38的旋转角度的信息。
接下来,控制部12取得对第2物体W2的被检查面SI进行拍摄而得到的检查图像(第2图像)。具体而言,控制部12使移动机械14进行动作从而通过机械手28抓持在预先决定的保管场所保管的第2物体W2。
此时,机械手28在与针对第1物体W1指定的抓持位置相同的抓持位置抓持第2物体W2。即,在通过机械手28抓持第2物体W2时,如图4所示,针对该第2物体W2设定工具坐标系CT,使得工具坐标系CT的原点位于该第2物体W2的上表面SU的中心,并且工具坐标系CT的y-z平面与该第2物体W2的被检查面SI平行。
而且,控制部12使移动机械14进行动作从而将机械手28配置为通过设定的工具坐标系CT规定的位置和姿势,通过该机械手28抓持第2物体W2。这样,机械手28在与针对第1物体W1指定的抓持位置相同的抓持位置抓持第2物体W2。
接下来,控制部12使移动机械14动作,将由机械手28抓持的第2物体W2相对于拍摄部16配置在第1检查相对位置(第2相对位置)。该第1检查相对位置是与第1基准相对位置对应的位置。接下来,控制部12向拍摄部16发送拍摄指令,对第2物体W2的被检查面SI进行拍摄,取得检查图像(第2图像)。
这里,存在在第1基准相对位置与第1检查相对位置之间产生偏移的情况。关于这样的偏移,例如在控制部12一边通过移动机械14使第2物体W2移动一边通过拍摄部16对第2物体W2进行了拍摄时可能产生。或者,这样的偏移在拍摄第2物体W2时对移动机械14的位置和姿势进行了微调的情况下也可能产生。
图9~图12表示在产生了这样的偏移的状态下,拍摄部16在第1检查相对位置对第2物体W2进行拍摄而得到的第1检查图像的例子。在图9~图12中,利用一点划线表示在以拍摄坐标系CI(即,视场A)为基准将第1检查图像与第1掩膜图像40重叠时在第1掩膜图像40中映现的第1物体W1的影像。
在图9所示的第1检查图像48中,该第1检查图像48中映现的第2物体W2的影像相对于第1掩膜图像40中映现的第1物体W1的影像向拍摄坐标系CI的x轴正方向偏移了位置差δ。
在配置在第1检查相对位置的第2物体W2相对于配置在第1基准相对位置的第1物体W1向拍摄坐标系CI的x轴正方向产生了偏移时产生这样的位置差δ。
在图10所示的第1检查图像50中,该第1检查图像50中映现的第2物体W2的影像相对于第1掩膜图像40中映现的第1物体W1的影像向围绕拍摄部16的光轴O的方向旋转了位置差θ。
在配置在第1检查相对位置的第2物体W2相对于配置在第1基准相对位置的第1物体W1围绕拍摄部的光轴O产生了偏移时,产生这样的位置差θ。
另外,在图11所示的第1检查图像52中,该第1检查图像52中映现的第2物体W2的影像与第1掩膜图像40中映现的第1物体W1的影像相比,缩小了位置差α。
在配置在第1检查相对位置的第2物体W2相对于配置在第1基准相对位置的第1物体W1向拍摄部的光轴O的方向产生了偏移(更具体而言分离)时产生这样的位置差α。
在产生了该位置差α时,配置在第1基准相对位置的第1物体W1的被检查面SI与拍摄部16之间的距离D1与配置在第1检查相对位置的第2物体W2的被检查面SI与拍摄部16之间的距离D2互不相同(更具体而言,D1<D2)。该位置差α表示第1检查图像52相对于第1掩膜图像40的缩小率。
另外,在图12所示的第1检查图像53中,如箭头E所示,该第1检查图像53中映现的第2物体W2的影像相对于第1掩膜图像40中映现的第1物体W1的影像产生了偏移。
参照图13对这样的第1检查图像53进行说明。图13的(a)表示拍摄第1掩膜图像40时的第1物体W1与拍摄部18的位置关系,图13的(b)表示拍摄第1检查图像53时的第2物体W2与拍摄部18的位置关系。
在拍摄第1掩膜图像40时,如上所述,将第1物体W1相对于拍摄部16定位于第1基准相对位置。在该第1基准相对位置,如图13的(a)所示,拍摄部16的光轴O与第1物体W1的被检查面SI正交,并且拍摄部16与被检查面SI彼此分离距离D1。
另一方面,在拍摄第1检查图像53时,如图13的(b)所示,第2物体W2的被检查面SI(即,工具坐标系CT的y-z平面)相对于拍摄部16的光轴O倾斜。
由于这样的倾斜,如第1检查图像53那样,第2物体W2的影像相对于第1掩膜图像40中映现的第1物体W1的影像如箭头E所示产生偏移。由于这样的倾斜而导致的第1检查图像53中映现的第2物体W2的影像与第1掩膜图像40中映现的第1物体W1的影像之间的位置差能够由后述的矩阵M(例如,单应性矩阵)来表示。
在产生了以上的偏移的情况下,在为了检测第2物体W2的被检查面SI而将掩膜图像与检查图像进行比较时,需要进行两个图像的对准。因此,本实施方式的物体检查系统10计算位置差δ、θ、α、M,基于该位置差δ、θ、α、M将掩膜图像与检查图像对准。
这里,“对准”是指使拍摄坐标系CI中的掩膜图像中映现的第1物体W1的影像与检查图像中映现的第2物体W2的影像相互一致(对位)。
具体而言,控制部12作为位置数据取得部44发挥功能,取得移动机械14将第2物体W2与拍摄部16配置在第1检查相对位置并通过拍摄部16拍摄到第1检查图像48、50、52时的移动机械14的位置数据(第2位置数据。以下,设为“检查位置数据”)。
例如,控制部12取得将第2物体W2与拍摄部16配置在第1检查相对位置时的机器人坐标系CR中的工具坐标系CT的位置和方向的信息,来作为第1检查位置数据。
或者,控制部12存储将第2物体W2与拍摄部16配置在第1检查相对位置时的移动机械14的各伺服电动机38的旋转角度,根据该旋转角度计算机器人坐标系CR中的机械手28的位置和姿势。控制部12可以取得计算出的机械手28的位置和姿势来作为第1检查位置数据。
该第1检查位置数据成为将第2物体W2与拍摄部16配置在第1检查相对位置时的与第2物体W2在机器人坐标系中的位置和姿势对应的信息。
同样地,控制部12使移动机械14进行动作从而将机械手28抓持的第2物体W2相对于拍摄部16定位在第n检查相对位置(n=2~12)。第n检查相对位置与第n基准相对位置对应。
控制部12在每次将第2物体W2与拍摄部16定位在第n检查相对位置时,通过拍摄部16对第2物体W2的被检查面SI进行拍摄,取得第n检查图像。然后,控制部12作为位置数据取得部44发挥功能,分别取得将第2物体W2与拍摄部16定位在第n检查相对位置时的移动机械14的位置数据,来作为第n检查位置数据。
接下来,控制部12基于机器人坐标系CR与拍摄坐标系CI的位置关系、第1基准位置数据和第1检查位置数据,计算第1位置差(例如,δ、θ或α)。
作为一个例子,针对上述的位置差δ或θ,控制部12取得第1基准位置数据包含的工具坐标系CT的位置和方向在机器人坐标系CR中的坐标、以及第1检查位置数据包含的工具坐标系CT的位置和方向在机器人坐标系CR中的坐标,计算这两个坐标的差ΔR1。
然后,控制部12使用通过校准而得的坐标变换数据,将表示为机器人坐标系CR的值的差ΔR1变换成拍摄坐标系CI的值。由此,计算拍摄坐标系CI中的位置差δ或θ。
另外,关于上述的位置差α,例如,控制部12根据第1基准位置数据包含的工具坐标系CT的位置在机器人坐标系CR中的坐标以及第1检查位置数据包含的工具坐标系CT的位置在机器人坐标系CR中的坐标,求出上述的距离D1与距离D2。
然后,控制部12根据求出的D1与D2的比率,求出表示第1检查图像52相对于第1掩膜图像40的缩小率(或放大率)的位置差α。D1与D2之间的比率与第1检查图像52相对于第1掩膜图像40的缩小率α(或放大率α)相互相关。
控制部12通过相同的方法,计算第n掩膜图像中映现的第1物体W1的影像与第n检查图像中映现的第2物体W2的影像的第n位置差(n=2~12)。这样,在本实施方式中,控制部12作为取得拍摄坐标系CI中的掩膜图像(第1图像)与检查图像(第2图像)的位置差(例如,δ、θ、α)的图像位置差取得部54(图2)发挥功能。此外,将在后面叙述作为位置差取得上述的矩阵M的例子。
接下来,控制部12基于计算出的第1位置差(δ、θ、α),使第1掩膜图像40或第1检查图像48、50、52移位来对这两个图像进行对准。
例如,在计算出第1位置差δ的情况下,控制部12使第1检查图像48(或第1掩膜图像40)向拍摄坐标系CI的x轴负方向(或x轴正方向),在拍摄坐标系CI的x-y平面内移动第1位置差δ。
另外,在计算出第1位置差θ的情况下,控制部12使第1检查图像50(或第1掩膜图像40)围绕与拍摄坐标系CI的x-y平面正交的光轴O,以从图10的纸面表面侧观察成为逆时针方向(或顺时针方向)的方式旋转第1位置差θ。
另外,在计算出第1位置差α的情况下,控制部12基于第1位置差α将第1检查图像48(或第1掩膜图像40)放大(或缩小)。
由此,能够使第1掩膜图像40中映现的第1物体W1的影像与检查图像48中映现的第2物体W2的影像在拍摄坐标系CI中一致。这样,在本实施方式中,控制部12作为进行拍摄坐标系CI中的掩膜图像(第1图像)与检查图像(第2图像)的对准的图像对准部56(图2)发挥功能。此外,将在后面叙述图像对准部56基于作为位置差的矩阵M对掩膜图像(40)与检查图像(53)进行对准的例子。
相同地,控制部12基于第n位置差,使第n掩膜图像或第n检查图像移位来依次进行这两个图像的对准。
接下来,控制部12使用进行了对准的第n掩膜图像(40)与第n检查图像(48、50、52),检查有无第2物体W2相对于第1物体W1的视觉识别的误差。具体而言,控制部12生成进行了对准的第n掩膜图像与第n检查图像的第n差分图像。
该第n差分图像例如表示第n掩膜图像的各像素的亮度与第n检查图像的各像素的亮度的差。控制部12对该第n差分图像进行解析,由此检查是否存在第2物体W2的被检查面SI相对于第1物体W1的被检查面SI的误差(伤痕、表面粗糙度的差等)。
这样,在本实施方式中,控制部12作为检查有无第2物体W2相对于第1物体W1的误差的物体检查部58(图2)发挥功能。
接下来,参照图14~图18,对物体检查系统10的动作流程的一个例子进行说明。在控制部12从操作人员或上位控制器接受了检查执行指令时开始图14所示的流程。
在步骤S1中,控制部12取得掩膜图像(第1图像)和基准位置数据(第1位置数据)。参照图15对该步骤S1进行说明。在步骤S11中,控制部12将用于确定第n掩膜图像、第n检查图像、第n基准位置数据、第n检查位置数据、第n基准相对位置、第n检查相对位置以及第n位置差的编号“n”设为“1”。
在步骤S12中,控制部12取得第n掩膜图像。具体而言,控制部12通过上述的方法,使移动机械14进行动作从而将机械手28抓持的第1物体W1相对于拍摄部16配置在第n基准相对位置。然后,控制部12通过拍摄部16对第1物体W1的被检查面SI进行拍摄,取得第n掩膜图像。假设在开始步骤S12的时间点设为了n=1的情况下,控制部12取得图7所示的第1掩膜图像40。
在步骤S13中,控制部12取得第n基准位置数据。具体而言,控制部12通过上述的方法,取得将第1物体W1与拍摄部16配置在第n基准相对位置时的移动机械14的位置数据来作为第n基准位置数据。
在步骤S14中,控制部12将编号“n”增加“1”(即,n=n+1)。
在步骤S15中,控制部12判定编号“n”是否成为大于“12”的值。该数“12”相当于图8所示的区域A1~A12的数量(即,取得掩膜图像和检查图像的次数),由操作人员来决定。控制部12在判定为编号“n”大于“12”(即为是)的情况下,进入图14的步骤S2。
另一方面,控制部12在判定为编号“n”为“12”以下(即为否)的情况下,返回步骤S12。这样,控制部12使步骤S12~S15循环,直至在步骤S15中判定为是为止。
再次参照图14,在步骤S2中,控制部12取得检查图像(第2图像)和检查位置数据(第2位置数据)。参照图16对该步骤S2进行说明。在步骤S21中,控制部12将编号“n”设为“1”。
在步骤S22中,取得第n检查图像。具体而言,控制部12通过上述的方法,使移动机械14进行动作从而使机械手28抓持的第2物体W2相对于拍摄部16移动,将第2物体W2与拍摄部16配置在第n检查相对位置。
然后,控制部12通过拍摄部16对第2物体W2的被检查面SI进行拍摄,取得第n检查图像。此时,控制部12也可以一边通过移动机械14使第2物体W2移动,一边通过拍摄部16对第2物体W2进行拍摄。在该情况下,通过拍摄部16对第2物体W2进行了拍摄的时间点的第2物体W2相对于拍摄部16的相对位置成为第n检查相对位置。
假设在开始该步骤S22的时间点设为了n=1的情况下,控制部12取得图9、图10或图11所示的第1检查图像48、50或52。
在步骤S23中,控制部12取得第n检查位置数据。具体而言,控制部12通过上述的方法,取得将第2物体W2与拍摄部16配置在第n检查相对位置时的移动机械14的位置数据来作为第n检查位置数据。
在步骤S24中,控制部12将编号“n”增加“1”(即,n=n+1)。
在步骤S25中,控制部12判定编号“n”是否成为大于“12”的值。控制部12在判定为编号“n”大于“12”(即为是)的情况下,进入图14的步骤S3。
另一方面,控制部12在判定为编号“n”为“12”以下(即为否)的情况下,返回步骤S22。这样,控制部12使步骤S22~S25循环,直至在步骤S25中判定为是为止。
再次参照图14,在步骤S3中,控制部12取得拍摄坐标系CI中的掩膜图像与检查图像的位置差。参照图17对该步骤S3进行说明。在步骤S31中,控制部12将编号“n”设为“1”。
在步骤S32中,控制部12判定是否存在第n基准相对位置与第n检查相对位置的差。具体而言,控制部12读出第n基准位置数据(例如,机器人坐标系CR中的工具坐标系CT的位置坐标)与第n检查位置数据,判定两者的差Δ2是否为预先决定的阈值β以上。
控制部12在Δ2≥β的情况下判定为是,进入步骤S33。另一方面,控制部12在Δ2<β的情况下判定为否,进入步骤S34。
在步骤S33中,控制部12取得第n位置差。假设在开始该步骤S33的时间点设为了n=1的情况下,控制部12使用上述的方法,取得拍摄坐标系CI中的第1掩膜图像40与第1检查图像48、50或52的第1位置差δ、θ或α。
在步骤S34中,控制部12将编号“n”增加“1”(即,n=n+1)。
在步骤S35中,控制部12判定编号“n”是否成为大于“12”的值。控制部12在判定为编号“n”大于“12”(即为是)的情况下,进入图14的步骤S4。
另一方面,控制部12在判定为编号“n”为“12”以下(即为否)的情况下,返回步骤S32。这样,控制部12使步骤S32~S35循环,直至在步骤S35中判定为是为止。
再次参照图14,在步骤S4中,控制部12进行掩膜图像与检查图像的对准。参照图18对该步骤S4进行说明。在步骤S41中,控制部12将编号“n”设为“1”。
在步骤S42中,控制部12判定是否在上述的步骤S33中取得了第n位置差。假设在开始该步骤S42的时间点设为了n=1的情况下,控制部12判定是否取得了第1位置差(例如,δ、θ或α)。
控制部12在判定为取得了第n位置差(即为是)的情况下,进入步骤S43。另一方面,控制部12在判定为未取得第n位置差(即为否)的情况下,进入步骤S44。
在步骤S43中,控制部12对第n掩膜图像与第n检查图像进行对准。假设在开始该步骤S43的时间点设为了n=1的情况下,控制部12使用上述的方法,基于第1位置差(δ、θ、α),使第1掩膜图像40或第1检查图像48、50、52移位来进行这两个图像的对准。
结果,能够使第1掩膜图像40中映现的第1物体W1的影像与检查图像48中映现的第2物体W2的影像在拍摄坐标系CI中一致。
另一方面,当在步骤S42中判定为否的情况下,在步骤S44中,控制部12以拍摄坐标系CI为基准使第n掩膜图像与第n检查图像相互重叠。针对该第n掩膜图像和第n检查图像,不存在第n位置差,即为第n基准相对位置与第n检查相对位置是相同的相对位置。
因此,仅通过以拍摄坐标系CI为基准使第n掩膜图像与第n检查图像重叠,第1掩膜图像40中映现的第1物体W1的影像与检查图像48中映现的第2物体W2的影像在拍摄坐标系CI中相互一致。
在步骤S45中,控制部12将编号“n”增加“1”(即,n=n+1)。
在步骤S46中,控制部12判定编号“n”是否成为大于“12”的值。控制部12在判定为编号“n”大于“12”(即为是)的情况下,进入图14的步骤S5。
另一方面,控制部12在判定为编号“n”为“12”以下(即为否)的情况下,返回步骤S42。这样,控制部12使步骤S42~S46循环,直至在步骤S46中判定为是为止。
再次参照图14,在步骤S5中,控制部12作为物体检查部58(图2)发挥功能,检查有无第2物体W2相对于第1物体W1的视觉识别的误差。具体而言,控制部12生成在步骤S43中进行了对准的、或者在步骤S44中进行了重叠的第n掩膜图像与第n检查图像之间的第n差分图像。
控制部12对该第n差分图像进行解析,检查是否存在第2物体W2的被检查面SI相对于第1物体W1的被检查面SI的误差。对n=1~12执行该作业,由此能够检查第2物体W2的被检查面SI的整个区域。
这样,在本实施方式中,控制部12使用机器人坐标系CR与拍摄坐标系CI的已知的位置关系(坐标变换数据)、第n基准位置数据和第n检查位置数据,进行了拍摄坐标系CI中的第n掩膜图像与第n检查图像的对准。
根据该结构,假设在掩膜图像与检查图像之间产生了偏移的情况下,能够使用移动机械14的位置数据进行这两个图像的对准。由此,能够实现图像的对准作业的简化和快速化。
另外,在本实施方式中,控制部12取得表示机器人坐标系CR与拍摄坐标系CI的位置关系的坐标变换数据。根据该结构,能够将机器人坐标系CR的坐标变换为拍摄坐标系CI,使用移动机械14的位置数据高精度地进行拍摄坐标系CI中的掩膜图像与检查图像的对准。
另外,在本实施方式中,控制部12取得位置差(例如,δ、θ或α)(步骤S3),基于该位置差进行掩膜图像与检查图像的对准。根据该结构,能够更高精度地进行掩膜图像与检查图像的对准。
接下来,参照图14、图16~图26对物体检查系统10的其他的功能进行说明。图19是表示物体检查系统10的其他功能的框图。控制部12执行图14所示的流程。
这里,在本实施方式中,控制部12执行图20所示的步骤S1。此外,在图20所示的流程中,对与图15所示的流程相同的工序标注相同的步骤编号,并省略重复的说明。在开始步骤S1后,控制部12依次执行上述的步骤S11、S12、S14、S15、S11。
在步骤S51中,控制部12接受在第n掩膜图像中设定的第n组基准点的指定。假设在当前时间点设为了n=1。在该情况下,控制部12在设置在物体检查系统10中的显示部(未图示)中显示图7所示的第1掩膜图像40。
然后,操作人员在视觉识别在显示部(未图示)中显示的第1掩膜图像40的同时操作键盘或触摸面板等操作部指定至少一个基准点。图21表示指定了3个基准点60、62、和64的例子。另外,图25表示指定了4个基准点80、82、84和86的例子。
谈到在第1掩膜图像40中指定的基准点60、62和64、以及基准点80、82、84和86来作为第1组的基准点60、62和64、以及第1组的基准点80、82、84和86。
控制部12接受第1组的基准点60、62和64(或80、82、84和86)的指定。这样,在本实施方式中,控制部12作为接受基准点的指定的基准点接受部70(图19)发挥功能。
在步骤S52中,控制部12取得第n基准位置数据。具体而言,控制部12取得第n组基准点在机器人坐标系CR中的坐标与第n组基准点在工具坐标系CT中的坐标,来作为第n基准位置数据。
假设在当前时间点设为了n=1。在该情况下,控制部12首先取得在步骤S51中指定的第1组基准点60、62以及64(或80、82、84以及86)在拍摄坐标系CI中的坐标。
接下来,控制部12使用机器人坐标系CR与拍摄坐标系CI之间的坐标变换数据(变换矩阵),将拍摄坐标系CI中的第1组基准点60、62以及64(或80、82、84以及86)的坐标变换成机器人坐标系CR,取得机器人坐标系CR中的第1组基准点60、62以及64(或80、82、84以及86)的坐标。
接下来,控制部12取得工具坐标系CT中的第1组基准点60、62以及64(或80、82、84以及86)的坐标。在该时间点,工具坐标系CT在机器人坐标系CR中被配置为与第1基准相对位置对应的第1位置和方向(步骤S12)。
这样,机器人坐标系CR与工具坐标系CT的位置关系是已知的,因此控制部12对第1组基准点60、62以及64(或80、82、84以及86)在机器人坐标系CR的坐标乘以变换矩阵,由此能够取得为第1组基准点60、62以及64(或80、82、84以及86)在工具坐标系CT中的坐标。该变换矩阵例如是雅可比矩阵,根据机器人坐标系CR中的工具坐标系CT的位置和方向来决定。
工具坐标系CT中的第1组基准点60、62以及64(或80、82、84以及86)的坐标成为表示第1物体W1的被检查面S1中的基准点60、62以及64(或80、82、84以及86)的位置的数据。
这样,控制部12取得该基准点60、62以及64(或80、82、84以及86)在机器人坐标系CR中的坐标以及在工具坐标系CT中的坐标,来作为第1组基准点60、62以及64(或80、82、84以及86)的位置数据。
如上所述,当机械手28在预定的抓持位置抓持了第1物体W1的情况下,能够将第1物体W1看做是移动机械14的一个构成要素。由此,能够将第1物体W1上的第1组基准点60、62以及64(或80、82、84以及86)的位置数据看做是移动机械14将第1物体W1与拍摄部16配置在第1基准相对位置时的移动机械14的第1基准位置数据。
这样,控制部12作为位置数据取得部66(图19)发挥功能。在步骤S52后,控制部12依次执行上述的步骤S14和S15。
再次参照图14,控制部12在步骤S2中,取得检查图像(第2图像)和检查位置数据(第2位置数据)。参照图16对该步骤S2进行说明。
与上述实施方式相比,本实施方式的步骤S2在步骤S23中不同。具体而言,控制部12在步骤S23中,取得移动机械14将第2物体W2和拍摄部16配置在第n检查相对位置时的与第n组基准点对应的第2物体W2上的点(第2基准点。以下,设为检查基准点)的位置数据,来作为第n检查位置数据。
假设若在当前时间点设为了n=1,则控制部12取得与第1组基准点60、62以及64(或80、82、84以及86)对应的第2物体W2上的第1组检查基准点的位置数据。
该第1组检查基准点是指第1物体W1中的第1组基准点60、62以及64(或80、82、84以及86)的位置关系(即,工具坐标系CT的坐标)与第2物体W2中的第1组检查基准点的位置关系相互相同的点。
控制部12取得机器人坐标系CR中的第1组检查基准点的坐标,来作为第1检查位置数据。机器人坐标系CR中的第1组检查基准点的坐标能够根据在步骤S52中取得的工具坐标系CT中的第1组基准点60、62以及64(或80、82、84以及86)的坐标以及将第2物体W2和拍摄部16配置在第1检查相对位置时的机器人坐标系CR中的工具坐标系CT的位置和方向来求出。
这样,控制部12在该步骤S23中,作为位置数据取得部66(图19)发挥功能,取得机器人坐标系CR中的第n组检查基准点的坐标来作为第n检查位置数据。
再次参照图14,控制部12在步骤S3中取得位置差。参照图17对该步骤S3进行说明。与上述的实施方式相比,本实施方式的步骤S3在步骤S33中不同。
具体而言,在步骤S33中,控制部12取得在步骤S52中取得的第n组基准点的位置数据与在步骤S23中取得的第n组检查基准点的位置数据在拍摄坐标系CI中的差,来作为第n位置差。
假设若在当前时间点设为了n=1,则控制部12使用机器人坐标系CR与拍摄坐标系CI之间的坐标变换数据(变换矩阵),将在步骤S23中取得的机器人坐标系CR中的第1组检查基准点的坐标变换成拍摄坐标系CI的坐标。
图22~图24表示在第1检查图像中描绘了第1组检查基准点的图。此外,在图22~图24中,在以拍摄坐标系CI(即,视场A)为基准将第1检查图像与第1掩膜图像40(图21)重叠时,利用一点划线表示第1掩膜图像40中映现的第1物体W1的影像。
在图22所示的第1检查图像48中,分别描绘了与第1组基准点60、62以及64对应的第1组检查基准点60a、62a以及64a。
在第1检查图像48中,第2物体W2的影像相对于第1掩膜图像40中映现的第1物体W1的影像向拍摄坐标系CI的x轴正方向偏移了位置差δ。这样的偏移与拍摄坐标系CI中的基准点60与检查基准点60a的位置、基准点62与检查基准点62a的位置、以及基准点64与检查基准点64a的位置差一致。
控制部12取得拍摄坐标系CI中的基准点60、62或64的坐标与检查基准点60a、62a或64a的坐标的差,来作为第1位置差δ。
在图23所示的第1检查图像50中,分别描绘了与第1组基准点60、62和64对应的第1组检查基准点60b、62b和64b。
在第1检查图像50中,该第1检查图像50中映现的第2物体W2的影像相对于第1掩膜图像40中映现的第1物体W1的影像向围绕拍摄部的光轴O的方向旋转了位置差θ。
作为一个例子,控制部12基于拍摄坐标系CI中的基准点60、62以及64和检查基准点60b、62b以及64b的坐标,求出将基准点60、62以及64中的2点(例如,基准点60和62)相连结的直线与将该2点所对应的检查基准点60b、62b以及64b中的2点(例如,检查基准点60b和62b)相连结的直线所成的角度。控制部12取得该角度来作为位置差θ。
在图24所示的第1检查图像52中,分别描绘了与第1组基准点60、62以及64对应的第1组检查基准点60c、62c以及64c。
在第1检查图像52中,该第1检查图像52中映现的第2物体W2的影像与第1掩膜图像40中映现的第1物体W1的影像相比,缩小了位置差α。
作为一个例子,控制部12基于拍摄坐标系CI中的基准点60、62以及64和检查基准点60c、62c以及64c的坐标,求出由拍摄坐标系CI中的基准点60、62以及64划定的图形(在本实施方式中为三角形)与由检查基准点60c、62c以及64c划定的图形的面积比。控制部12基于该面积比计算位置差α。
另一方面,图26表示在第1检查图像53中描绘了第1组检查基准点80a、82a、84a以及86a的图。在图26所示的第1检查图像53中,分别描绘了与图25所示的第1组基准点80、82、84以及86对应的第1组检查基准点80a、82a、84a以及86a。此外,在图26中,利用一点划线表示第1组基准点80、82、84以及86。
作为一个例子,控制部12使用在上述的步骤S52中取得的第1组基准点80、82、84以及86在机器人坐标系CR中的坐标CR_80、CR_82、CR_84、CR_86以及在上述的步骤S23中取得的第1组检查基准点80a、82a、84a以及86a在机器人坐标系CR中的坐标CR_80a、CR_82a、CR_84a、CR_86a,求出满足以下的式1的矩阵M。
CR_80=M·CR_80a···(式1)
CR_82=M·CR_82a···(式2)
CR_84=M·CR_84a···(式3)
CR_86=M·CR_86a···(式4)
这里,坐标CR-80表示机器人坐标系CR中的基准点80的坐标,坐标CR-80a表示机器人坐标系CR中的检查基准点80a的坐标。其他的坐标CR-82、CR-84、CR-86、CR-82a、CR-84a以及CR-86a也相同。
根据以上的式1~式4,能够求出矩阵M的各参数。这样求出的矩阵M例如是单应性矩阵,表示图26所示的第1检查图像53中映现的第2物体W2的影像与第1掩膜图像40中映现的第1物体W1的影像的第1位置差。
这样,控制部12取得拍摄坐标系CI中的第n掩膜图像与第n检查图像的第n位置差(α、θ、α、M)。因此,控制部12作为取得第n位置差的图像位置差取得部68(图19)发挥功能。
再次参照图14,在步骤S3后,控制部12作为图像对准部56发挥功能,在步骤S4中进行掩膜图像与检查图像的对准。例如,当在步骤S33中取得了位置差δ、θ、或α的情况下,在步骤S43中,与上述实施方式相同地,控制部12基于第1位置差(δ、θ、α),使第1掩膜图像40或第1检查图像48、50、52移位来进行这两个图像的对准。
另一方面,当在步骤S33中作为第n位置差取得了矩阵(包含矩阵M)的情况下,在步骤S43中,控制部12利用矩阵(M)对第n检查图像(53)进行变换。
然后,控制部12以拍摄坐标系CI为基准使变换后的第n检查图像与第n掩膜图像(40)相互重叠。由此,能够使变换后的第n检查图像中映现的第2物体W2的影像与第n掩膜图像(40)中映现的第1物体W1的影像一致。
此外,当在利用矩阵(M)对第n检查图像(53)进行变换后与第n掩膜图像进行了重叠时,变换后的第n检查图像中映现的第2物体W2的影像与第n掩膜图像(40)中映现的第1物体W1的影像之间依然存在偏移的情况下,控制部12可以使变换后的第n检查图像或第n掩膜图像(40)在拍摄坐标系CI的x-y平面内进一步移位,来进行变换后的第n检查图像与第n掩膜图像(40)的对准。
在步骤S4后,控制部12在步骤S5中检查有无第2物体W2相对于第1物体W1的视觉识别的误差。
这样,在本实施方式中,控制部12取得第1物体W1上的基准点(60、62、64、80、82、84、86)的位置数据以及第2物体W2上的检查基准点(第2基准点)的位置数据(步骤S52、S23),使用这些位置数据取得了掩膜图像(40)与检查图像(48、50、52)的位置差。根据该结构,能够高精度地计算掩膜图像与检查图像之间的位置差。
另外,在本实施方式中,控制部12从操作人员接受基准点(60、62、64、80、82、84、86)的指定(步骤S51)。根据该结构,操作人员能够任意地设定掩膜图像与检查图像的对准所使用的基准点。
此外,控制部12也可以将第1物体W1的特征点设定为基准点。该特征点例如可以是孔H的中心点、第1物体W1的边缘、在第1物体W1的被检查面SI形成的花纹或形状。在该情况下,控制部12在上述的步骤S51中,例如通过进行图像处理来检测第1物体W1的特征点。
接下来,参照图27对物体检查系统10的另一功能进行说明。
图27是表示物体检查系统10的另一功能的框图。当在上述步骤S22中移动机械14正在使第2物体W2移动时,存在机械手28抓持第2物体W2的位置(第2物体W2相对于机械手28(工具坐标系CT)的位置)从预定的抓持位置偏移的情况。
在本实施方式中,控制部12取得机械手28抓持了第2物体W2的位置相对于预定的抓持位置的位置偏移。这样的位置偏移例如可以通过对拍摄部16拍摄到的图像(例如,第n检查图像)进行图像处理来求出,或者也可以设置位置偏移检测用的其他的拍摄部来检测该位置偏移。
控制部12作为位置偏移取得部72(图27)发挥功能,取得检测到的位置偏移。在取得了位置偏移的情况下,控制部12计算机器人坐标系CR中的位置偏移,当在上述步骤S22中将第2物体W2与拍摄部16配置在第n检查相对位置时,使移动机械14进行动作从而使第2物体W2相对于拍摄部16移动,使得消除该位置偏移。
或者,控制部12也可以取得将机器人坐标系CR中的位置偏移变换为拍摄坐标系CI后的拍摄坐标系位置偏移,在上述的步骤S43中还使用该拍摄坐标系位置偏移来进行掩膜图像与检测图像的对准。
根据该结构,假设即便在机械手28抓持第2物体W2的位置从预定的抓持位置发生了偏移的情况下,也能够进行掩膜图像与检测图像的对准。
接下来,参照图28对物体检查系统10的另一功能进行说明。
图28是表示物体检查系统10的另一功能的框图。在本实施方式中,控制部12通过模拟来取得上述的第n基准位置数据。
具体而言,控制部12在作为虚拟空间的模型环境中配置将拍摄部16模型化的拍摄部模型、将移动机械14模型化的机械模型、以及将第1物体W1模型化的物体模型。
然后,控制部12使拍摄部模型与机械模型在模型环境中虚拟地进行动作,从而将拍摄部模型与机械模型配置在第n基准相对位置。控制部12取得在模型环境中将拍摄部模型与机械模型配置在第n基准相对位置时的机械模型的位置数据,来作为第n基准位置数据。
这样,在本实施方式中,控制部12作为取得第n基准位置数据的位置数据取得部74发挥功能,该位置数据取得部74具有通过模拟来取得第n基准位置数据的模拟部76。根据该结构,无需对实际的移动机械14进行示教,能够通过模拟取得第n基准位置数据,因此能够减少示教的作业。
接下来,参照图2和图29对另一实施方式的物体检查系统100进行说明。物体检查系统100与上述的物体检查系统10相比,在以下的结构中不同。
即,在物体检查系统100中,拍摄部16被固定在移动机械14的手腕部26。另一方面,物体W1、W2被固定在工件保持部102,并且与移动机械14相分离地配置在机器人坐标系CR中的预先决定的位置。控制部12的存储部预先存储机器人坐标系CR中的物体W1、W2的固定位置的信息。
在本实施方式中,对于拍摄部16设定工具坐标系CT。该工具坐标系CT是自动控制的坐标系之一,通过在机器人坐标系CR上表现该工具坐标系CT的位置来规定空间内的拍摄部16的位置和姿势。
在本实施方式中,以工具坐标系CT的z轴与拍摄部16的光轴O一致的方式,设定了工具坐标系CT。即,拍摄坐标系CI相对于工具坐标系CT成为预定的位置关系。
另一方面,控制部12持有机器人坐标系CR中的工具坐标系CT的位置和方向的信息。因此,机器人坐标系CR与拍摄坐标系CI的位置关系经由工具坐标系CT为已知。
控制部12在机器人坐标系CR中使旋转体22、机械臂24以及手腕部26进行动作,使得拍摄部16的位置和姿势与通过工具坐标系CT规定的位置和姿势一致。这样,在机器人坐标系CR中将拍摄部16配置为任意的位置和姿势。
物体检查系统100的控制部12通过执行图14~图18所示的流程,能够与上述的物体检查系统10相同地进行掩膜图像与检查图像的对准、以及掩膜图像与检查图像有无误差的检查。
以下,针对物体检查系统100的动作流程,说明与物体检查系统10不同的工序。在开始图14所示的流程时,将第1物体W1固定在工件保持部102。
参照图15,在步骤S12中,控制部12作为图像数据取得部46(图2)发挥功能,取得第n掩膜图像。具体而言,使移动机械14进行动作从而将拍摄部16相对于第1物体W1配置在第n基准相对位置。然后,控制部12通过拍摄部16拍摄第1物体W1的被检查面SI来取得第n掩膜图像。
假设在开始步骤S12的时间点设为了n=1的情况下,控制部12将拍摄部16与第1物体W1配置在图29所示的第1基准相对位置,并通过拍摄部16拍摄第1物体W1的被检查面SI。结果,控制部12取得图7所示的第1掩膜图像40。
在此,控制部12在每次将拍摄部16与第1物体W1配置在第n基准相对位置时,作为坐标变换数据取得部42(图2)发挥功能,取得与机器人坐标系CR与拍摄坐标系CI之间的位置关系相关的信息(坐标变换数据)。
在步骤S13中,控制部12作为位置数据取得部44(图2)发挥功能,取得第n基准位置数据。具体而言,控制部12取得将拍摄部16与第1物体W1配置在第n基准相对位置时的移动机械14的位置数据,来作为第n基准位置数据。
例如,控制部12取得将拍摄部16与第1物体W1配置在第n基准相对位置时的机器人坐标系CR中的工具坐标系CT的位置和方向的信息,来作为第n基准位置数据。
在图15所示的步骤S1结束时,第2物体W2被固定在工件保持部102。参照图16,在步骤S22中,控制部12取得第n检查图像。具体而言,控制部12使移动机械14进行动作从而将拍摄部16相对于第2物体W2配置在第n检查相对位置。然后,控制部12通过拍摄部16拍摄第2物体W2的被检查面SI,取得第n检查图像。
假设在开始步骤S12的时间点设为了n=1的情况下,控制部12将拍摄部16与第1物体W1配置在第1检查相对位置,通过拍摄部16拍摄第1物体W1的被检查面SI,取得图9、图10或图11所示的第1检查图像48、50或52。
这里,控制部12在每次将拍摄部16与第2物体W2配置在第n检查相对位置时,作为坐标变换数据取得部42发挥功能,取得与机器人坐标系CR和拍摄坐标系CI之间的位置关系相关的信息(坐标变换数据)。
在步骤S23中,控制部12取得第n检查位置数据。具体而言,控制部12取得将拍摄部16与第2物体W2配置在第n检查相对位置时的移动机械14的位置数据来作为第n检查位置数据。
参照图17,在步骤S33中,控制部12作为图像位置差取得部54(图2)发挥功能,取得第n位置差。假设在开始步骤S33的时间点设为了n=1的情况下,控制部12取得拍摄坐标系CI中的第1掩膜图像40与第1检查图像48、50、52或53的第1位置差δ、θ、α、M。
例如,关于第1位置差δ或θ,控制部12计算第1基准位置数据包含的工具坐标系CT的位置和方向在机器人坐标系CR中的坐标、以及第1检查位置数据包含的工具坐标系CT的位置和方向在机器人坐标系CR中的坐标,并计算这两个坐标的差ΔR1。
然后,控制部12使用在步骤S22(或S12)中取得的坐标变换数据,将表示为机器人坐标系CR的值的差ΔR1变换为执行步骤S22(或S12)时的拍摄坐标系CI的值。由此,在第1检查图像48、50(或第1掩膜图像40)中,计算拍摄坐标系CI中的位置差δ或θ。
另外,关于上述的位置差α,控制部12根据第1基准位置数据包含的工具坐标系CT的位置在机器人坐标系CR中的坐标以及第1检查位置数据包含的工具坐标系CT的位置在机器人坐标系CR中的坐标,求出距离D1与距离D2。然后,控制部12根据求出的D1与D2的比率,求出表示第1检查图像52相对于第1掩膜图像40的缩小率(或放大率)的位置差α。
另外,在作为位置差取得矩阵M的情况下,例如,控制部12使用第1基准位置数据包含的第1组基准点80、82、84和86在机器人坐标系CR中的坐标CR_80、CR_82、CR_84和CR_86、以及第1检查位置数据包含的第1组检查基准点80a、82a、84a和86a在机器人坐标系CR中的坐标CR_80a、CR_82a、CR_84a和CR_86a,求出矩阵M的各参数。
参照图18,在步骤S43中,控制部12作为图像对准部56(图2)发挥功能,与上述实施方式相同地,进行第n掩膜图像与第n检查图像的对准。假设在开始该步骤S43的时间点设为了n=1的情况下,控制部12基于在步骤S33中取得的第1位置差δ、θ、α、M,使第1掩膜图像40或第1检查图像48、50、52、53移位,进行这两个图像的对准。
当在步骤S33中计算出第1检查图像48、50、52的位置差δ、θ、α的情况下,控制部12在该步骤S43中,作为图像对准部56(图2)发挥功能,使第1检查图像48、50、52移位,进行第1掩膜图像40与第1检查图像48、50、52的对准。
另一方面,当在步骤S33中计算出第1掩膜图像40的位置差δ、θ、α的情况下,控制部12在该步骤S43中,使第1掩膜图像40移位,进行第1掩膜图像40与第1检查图像48、50、52的对准。结果,能够使第1掩膜图像40中映现的第1物体W1的影像与检查图像48中映现的第2物体W2的影像在拍摄坐标系CI中一致。
接下来,在图14所示的步骤S5中,控制部12作为物体检查部58(图2)发挥功能,与上述的物体检查系统10同样地检查有无第2物体W2相对于第1物体W1的视觉识别的误差。
这样,根据本实施方式,假设在掩膜图像与检查图像之间产生了偏移的情况下,能够使用移动机械14的位置数据进行这两个图像的对准。由此,能够实现图像的对准作业的简化和快速化。
接下来,参照图30对另一实施方式的物体检查系统110进行说明。物体检查系统110具备:移动机械14、拍摄部16、位置数据取得部112、图像数据取得部114、图像对准部116。
位置数据取得部112、图像数据取得部114以及图像对准部116可以由各个计算机分别构成,也可以由一个计算机构成。
位置数据取得部112取得移动机械14将第1物体W1与拍摄部16配置在基准相对位置时的移动机械14的基准位置数据,并且取得移动机械14将第2物体W2与拍摄部16配置在检查相对位置时的移动机械14的检查位置数据。
图像数据取得部114取得拍摄部16在基准相对位置拍摄到的掩膜图像,并且取得拍摄部16在检查相对位置拍摄到的检查图像。
图像对准部116使用机器人坐标系CR与拍摄坐标系CI之间的已知的位置关系、基准位置数据和检查位置数据,进行拍摄坐标系CI中的掩膜图像与检查图像的对准。
例如,图像对准部116预先存储了表示机器人坐标系CR的坐标与拍摄坐标系CI的坐标的关系的数据表,在该数据表中应用机器人坐标系CR中的基准位置数据和检查位置数据,取得拍摄坐标系CI中的基准位置数据和检查位置数据。
然后,图像对准部116基于拍摄坐标系CI中的基准位置数据和检查位置数据,进行掩膜图像与检查图像的对准。在该情况下,图像对准部116无需取得上述位置差能够进行掩膜图像与检查图像的对准。
此外,也可以从上述的物体检查系统10或100省略照明装置18,例如通过自然光对物体W1、W2的被检查面SI进行照明。
另外,在上述的实施方式中,叙述了移动机械14是垂直多关节机器人的情况,但不局限于此,移动机械14可以是并联连杆机器人,或也可以是装载机等其他的机械。
在上述的实施方式中,叙述了第1物体W1与第2物体W2具有相互相同的外形的情况。然而,并不局限于此,第1物体W1与第2物体W2只要至少在一部分具有共同的外形即可。在该情况下,拍摄部16取得对该共同的外形进行拍摄而得到的掩膜图像和检查图像。
以上通过实施方式对本公开进行了说明,但上述的实施方式并非限定权利要求书的发明。
Claims (13)
1.一种物体检查系统,其特征在于,具备:
拍摄部,其对具有共同的外形的第1物体以及第2物体进行拍摄;
移动机械,其使所述第1物体或所述第2物体与所述拍摄部相对地移动;
位置数据取得部,其取得所述移动机械将所述第1物体与所述拍摄部配置在第1相对位置时的所述移动机械的第1位置数据,并且取得所述移动机械将所述第2物体与所述拍摄部配置在第2相对位置时的所述移动机械的第2位置数据;
图像数据取得部,其取得在所述第1相对位置由所述拍摄部拍摄到的所述第1物体的第1图像,并且取得在所述第2相对位置由所述拍摄部拍摄到的所述第2物体的第2图像;以及
图像对准部,其使用所述移动机械的移动机械坐标系与所述拍摄部的拍摄坐标系之间的已知的位置关系、所述第1位置数据以及所述第2位置数据,进行所述拍摄坐标系中的所述第1图像与所述第2图像的对准,
能够基于进行了对准的所述第1图像与所述第2图像来检查有无所述第2物体相对于所述第1物体的视觉识别的误差。
2.根据权利要求1所述的物体检查系统,其特征在于,
所述物体检查系统还具备坐标变换数据取得部,该坐标变换数据取得部取得所述移动机械坐标系与所述拍摄坐标系之间的坐标变换数据,
所述图像对准部使用所述坐标变换数据来作为所述已知的位置关系。
3.根据权利要求1或2所述的物体检查系统,其特征在于,
所述物体检查系统还具备图像位置差取得部,该图像位置差取得部基于所述已知的位置关系、所述第1位置数据以及所述第2位置数据,取得所述拍摄坐标系中的所述第1图像与所述第2图像的位置差,
所述图像对准部基于所述位置差进行所述对准。
4.根据权利要求1或2所述的物体检查系统,其特征在于,
所述物体检查系统还具备物体检查部,该物体检查部使用进行了对准的所述第1图像与所述第2图像,检查有无所述第2物体相对于所述第1物体的所述误差。
5.根据权利要求1或2所述的物体检查系统,其特征在于,
所述拍摄部被固定在预先决定的位置,
所述移动机械在预先决定的目的位置与所述第1物体或所述第2物体接触来使该第1物体或该第2物体移动。
6.根据权利要求5所述的物体检查系统,其特征在于,
所述移动机械具有抓持所述第1物体或所述第2物体的抓持部,
所述第1位置数据和所述第2位置数据是所述抓持部的位置数据。
7.根据权利要求5所述的物体检查系统,其特征在于,
所述第1位置数据是由所述移动机械移动的所述第1物体上的基准点的位置数据,
所述第2位置数据是由所述移动机械移动的所述第2物体上的与所述基准点对应的第2基准点的位置数据。
8.根据权利要求7所述的物体检查系统,其特征在于,
所述物体检查系统还具备基准点接受部,该基准点接受部接受所述基准点的指定。
9.根据权利要求5所述的物体检查系统,其特征在于,
所述物体检查系统还具备位置偏移取得部,该位置偏移取得部取得所述移动机械抓持了所述第2物体时的所述第2物体相对于所述移动机械的从所述目的位置开始的位置偏移,
所述移动机械为了消除所述位置偏移使所述第2物体相对于所述拍摄部移动,从而将该第2物体与该拍摄部定位在所述第2相对位置,
或者,所述图像对准部还使用所述位置偏移进行所述对准。
10.根据权利要求1或2所述的物体检查系统,其特征在于,
所述图像对准部使所述第1图像或所述第2图像在与所述拍摄部的光轴正交的平面内移动,由此来进行所述对准,
或者,所述图像对准部使所述第1图像或所述第2图像围绕所述光轴旋转,由此来进行所述对准,
或者,所述图像对准部将所述第1图像或所述第2图像放大或缩小,由此来进行所述对准。
11.根据权利要求3所述的物体检查系统,其特征在于,
所述图像位置差取得部取得对所述第2图像进行变换使其与所述第1图像一致的矩阵,来作为所述位置差,
所述图像对准部通过所述矩阵对所述第2图像进行变换,由此进行所述对准。
12.根据权利要求1或2所述的物体检查系统,其特征在于,
所述位置数据取得部具有模拟部,
该模拟部通过使拍摄部模型和机械模型在模型环境中进行动作来取得所述第1位置数据,所述拍摄部模型是将所述拍摄部模型化的模型,所述机械模型是将所述移动机械模型化的模型。
13.一种物体检查方法,其特征在于,具备以下步骤:
取得通过移动机械将第1物体与拍摄部配置在第1相对位置时的所述移动机械的第1位置数据;
取得在所述第1相对位置由所述拍摄部拍摄到的所述第1物体的第1图像;
取得通过所述移动机械将具有与所述第1物体共同的外形的第2物体和所述拍摄部配置在第2相对位置时的所述移动机械的第2位置数据;
取得在所述第2相对位置由所述拍摄部拍摄到的所述第2物体的第2图像;
使用所述移动机械的移动机械坐标系与所述拍摄部的拍摄坐标系之间的已知的位置关系、所述第1位置数据以及所述第2位置数据来进行所述拍摄坐标系中的所述第1图像与所述第2图像的对准;
基于进行了对准的所述第1图像与所述第2图像,检查有无所述第2物体相对于所述第1物体的视觉识别的误差。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-245290 | 2017-12-21 | ||
JP2017245290A JP6585693B2 (ja) | 2017-12-21 | 2017-12-21 | 物体検査システム及び物体検査方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109945780A CN109945780A (zh) | 2019-06-28 |
CN109945780B true CN109945780B (zh) | 2020-10-16 |
Family
ID=66768755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811574755.7A Active CN109945780B (zh) | 2017-12-21 | 2018-12-21 | 物体检查系统以及物体检查方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10607337B2 (zh) |
JP (1) | JP6585693B2 (zh) |
CN (1) | CN109945780B (zh) |
DE (1) | DE102018009836B4 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7278186B2 (ja) * | 2019-09-20 | 2023-05-19 | 株式会社Screenホールディングス | 撮像装置 |
WO2021054059A1 (ja) * | 2019-09-20 | 2021-03-25 | 株式会社Screenホールディングス | 撮像装置 |
JP7514386B2 (ja) * | 2020-07-31 | 2024-07-10 | 武田薬品工業株式会社 | 液体ハンドリングロボット用の把持検出システム |
TWI746318B (zh) * | 2020-12-17 | 2021-11-11 | 萬潤科技股份有限公司 | 檢測方法、檢測裝置及設備 |
CN114723752A (zh) * | 2022-06-07 | 2022-07-08 | 成都新西旺自动化科技有限公司 | 一种融合目标检测和模板匹配的高精度对位方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05301183A (ja) * | 1992-04-28 | 1993-11-16 | Fujitsu Ltd | ロボット制御装置及びロボット制御方法 |
CN101034070A (zh) * | 2006-03-10 | 2007-09-12 | 欧姆龙株式会社 | 表面状态的检查方法以及表面状态检查装置 |
JP2017015396A (ja) * | 2015-06-26 | 2017-01-19 | キヤノン株式会社 | 検査方法、検査装置、処理装置、プログラム及び記録媒体 |
JP2017203701A (ja) * | 2016-05-12 | 2017-11-16 | キヤノン株式会社 | 情報処理装置、計測システム、情報処理方法およびプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3377465B2 (ja) * | 1999-04-08 | 2003-02-17 | ファナック株式会社 | 画像処理装置 |
US8396329B2 (en) * | 2004-12-23 | 2013-03-12 | General Electric Company | System and method for object measurement |
JP2008155093A (ja) * | 2006-12-21 | 2008-07-10 | Fulta Electric Machinery Co Ltd | 回転式のミスト処理板を備えたミストコレクタ装置 |
-
2017
- 2017-12-21 JP JP2017245290A patent/JP6585693B2/ja active Active
-
2018
- 2018-12-07 US US16/212,689 patent/US10607337B2/en active Active
- 2018-12-14 DE DE102018009836.3A patent/DE102018009836B4/de active Active
- 2018-12-21 CN CN201811574755.7A patent/CN109945780B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05301183A (ja) * | 1992-04-28 | 1993-11-16 | Fujitsu Ltd | ロボット制御装置及びロボット制御方法 |
CN101034070A (zh) * | 2006-03-10 | 2007-09-12 | 欧姆龙株式会社 | 表面状态的检查方法以及表面状态检查装置 |
JP2017015396A (ja) * | 2015-06-26 | 2017-01-19 | キヤノン株式会社 | 検査方法、検査装置、処理装置、プログラム及び記録媒体 |
JP2017203701A (ja) * | 2016-05-12 | 2017-11-16 | キヤノン株式会社 | 情報処理装置、計測システム、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN109945780A (zh) | 2019-06-28 |
US10607337B2 (en) | 2020-03-31 |
DE102018009836B4 (de) | 2021-01-07 |
JP2019113348A (ja) | 2019-07-11 |
DE102018009836A1 (de) | 2019-06-27 |
US20190197676A1 (en) | 2019-06-27 |
JP6585693B2 (ja) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109945780B (zh) | 物体检查系统以及物体检查方法 | |
JP6429473B2 (ja) | ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 | |
CN110712194B (zh) | 物体检查装置、物体检查系统以及调整检查位置的方法 | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP6734253B2 (ja) | ワークを撮像する視覚センサを備える撮像装置 | |
CN108965690B (zh) | 图像处理系统、图像处理装置及计算机可读存储介质 | |
JP5815761B2 (ja) | 視覚センサのデータ作成システム及び検出シミュレーションシステム | |
CN107639653A (zh) | 控制装置、机器人以及机器人系统 | |
CN101733755A (zh) | 机械手系统、机械手控制装置以及机械手控制方法 | |
US10656097B2 (en) | Apparatus and method for generating operation program of inspection system | |
JP2009269110A (ja) | 組立装置 | |
CN108627515B (zh) | 计算成为检查系统的检查对象外的图像区域的装置及方法 | |
US20190030722A1 (en) | Control device, robot system, and control method | |
JP6410411B2 (ja) | パターンマッチング装置及びパターンマッチング方法 | |
CN113302027B (zh) | 作业坐标生成装置 | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
JP2023069253A (ja) | ロボット教示システム | |
JP2009216503A (ja) | 三次元位置姿勢計測方法および装置 | |
JP5610211B2 (ja) | 投影面情報提示装置と方法 | |
US20240269853A1 (en) | Calibration method, calibration device, and robotic system | |
JP2012228757A (ja) | ロボット教示方法、ロボット教示装置およびプログラム | |
JP2010214546A (ja) | 組立装置および組立方法 | |
JPH0820207B2 (ja) | 光学式3次元位置計測方法 | |
JPWO2020050405A1 (ja) | 作業装置 | |
JP7583942B2 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |