CN110171159A - 控制装置以及机器学习装置 - Google Patents
控制装置以及机器学习装置 Download PDFInfo
- Publication number
- CN110171159A CN110171159A CN201910122158.9A CN201910122158A CN110171159A CN 110171159 A CN110171159 A CN 110171159A CN 201910122158 A CN201910122158 A CN 201910122158A CN 110171159 A CN110171159 A CN 110171159A
- Authority
- CN
- China
- Prior art keywords
- control
- press machine
- servo press
- instruction
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 71
- 238000012545 processing Methods 0.000 claims abstract description 59
- 239000002184 metal Substances 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000006399 behavior Effects 0.000 description 44
- 238000000034 method Methods 0.000 description 15
- 210000002569 neuron Anatomy 0.000 description 12
- 239000013598 vector Substances 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 239000000463 material Substances 0.000 description 7
- 238000004080 punching Methods 0.000 description 7
- 230000008929 regeneration Effects 0.000 description 5
- 238000011069 regeneration method Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000005520 cutting process Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06395—Quality analysis or management
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B30—PRESSES
- B30B—PRESSES IN GENERAL
- B30B15/00—Details of, or accessories for, presses; Auxiliary measures in connection with pressing
- B30B15/14—Control arrangements for mechanically-driven presses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B30—PRESSES
- B30B—PRESSES IN GENERAL
- B30B15/00—Details of, or accessories for, presses; Auxiliary measures in connection with pressing
- B30B15/26—Programme control arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B30—PRESSES
- B30B—PRESSES IN GENERAL
- B30B9/00—Presses specially adapted for particular purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mechanical Engineering (AREA)
- Educational Administration (AREA)
- Evolutionary Computation (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Development Economics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Control Of Presses (AREA)
- Numerical Control (AREA)
Abstract
本发明涉及控制装置以及机器学习装置。控制装置具有的机器学习装置具有:状态观测部,其观测表示伺服冲压机的控制用的指令的控制指令数据和表示针对控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;判定数据取得部,其取得判定根据伺服冲压机的控制用的指令加工出的工件的质量的工件质量判定数据和判定工件的加工所花费的时间的周期时间判定数据,作为表示与工件的加工相关的判定结果的判定数据;学习部,其将针对伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习。
Description
技术领域
本发明涉及控制装置以及机器学习装置。
背景技术
在对轴控制采用了伺服电动机的冲压机(伺服冲压机)中,从控制装置向伺服电动机提供每周期相同的指令值(位置指令值、速度指令值、压力指令值、转矩指令值等),由此高精度地控制滑块的位置和速度而上下驱动,从而进行工件的加工(例如,日本特开2004-17098号公报)。
在伺服冲压机中,即使使针对伺服电动机的指令值每周期都为相同的值,因存在伺服冲压机的机械状态(金属模具的损伤的累积等)、或是冲床的情况下冲压时对机械的冲击造成的振动(锤击缓冲)等外在因素,有时并非每周期都能够得到相同的结果,例如,还考虑了加工精度低下、加工失败、最坏的情况,以及上下金属模具直接碰撞等对机械造成严重的破坏的情况。
以往,存在如下课题:为了抑制这些问题的产生,通过作业员的经验等来进行指令值或金属模具的调整,但是经验少的作业员难以进行这些指令值或金属模具的调整。
发明内容
因此,本发明的目的在于,提供能够在伺服冲压机进行的工件的加工中,不将周期时间延长至所需以上而使加工的质量提升的控制装置和机器学习装置。
本发明的一方式为一种控制装置,其对通过金属模具来加工工件的伺服冲压机进行控制,该控制装置具有学习所述伺服冲压机的控制用的指令的机器学习装置,所述机器学习装置具有:状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;判定数据取得部,其取得判定根据所述伺服冲压机的控制用的指令加工出的工件的质量的工件质量判定数据,作为表示与所述工件的加工相关的判定结果的判定数据;以及学习部,其使用所述状态变量和所述判定数据,将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习。
本发明的另一方式为一种控制装置,其对通过金属模具来加工工件的伺服冲压机进行控制,该控制装置具有学习所述伺服冲压机的控制用的指令的机器学习装置,所述机器学习装置具有:状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;学习部,其将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习;以及决策部,其根据所述状态观测部观测到的状态变量、所述学习部的学习结果,来决定伺服冲压机的控制用的指令。
本发明的又一方式为一种机器学习装置,其学习通过金属模具来加工工件的伺服冲压机的控制用的指令,该机器学习装置具有:状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;判定数据取得部,其取得判定根据所述伺服冲压机的控制用的指令加工出的工件的质量的工件质量判定数据,作为表示与所述工件的加工相关的判定结果的判定数据;以及学习部,其使用所述状态变量和所述判定数据,将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习。
本发明的再一方式为一种机器学习装置,其学习通过金属模具来加工工件的伺服冲压机的控制用的指令,该机器学习装置具有:状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;学习部,其将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习;以及决策部,其根据所述状态观测部观测到的状态变量、所述学习部的学习结果,来决定伺服冲压机的控制用的指令。
在本发明中,为了决定伺服冲压机的控制用的指令而导入机器学习,由此改善从控制装置提供的指令值,取得不良率的降低、加工精度的提升、不良时对金属模具的损伤的降低、以及它们的加工质量的提升与周期时间的平衡。
附图说明
根据参照附图进行的以下实施例的说明,可以明确本发明的所述以及其它目的和特征。这些图中:
图1是第一实施方式的控制装置的概略硬件结构图。
图2是第一实施方式的控制装置的概略功能框图。
图3是表示控制指令数据S1和控制反馈数据S2的示例的图。
图4是表示控制装置的一方式的概略功能框图。
图5是表示机器学习方法的一方式的概略流程图。
图6A是说明神经元的图。
图6B是说明神经网络的图。
图7是第二实施方式的控制装置的概略功能框图。
图8是表示装入了控制装置的系统的一方式的概略功能框图。
具体实施方式
以下,与附图一起来说明本发明的实施方式。
图1是表示第一实施方式的控制装置的主要部分的概略硬件结构图。控制装置1例如可以安装为控制伺服冲压机的控制装置。此外,控制装置1例如可以安装为附设于控制伺服冲压机的控制装置的个人电脑、经由有线/无线网络与控制装置连接的单元计算机、主计算机、边缘服务器、云服务器等计算机。在本实施方式中,表示将控制装置1安装为控制伺服冲压机的控制装置时的示例。
本实施方式的控制装置1具有的CPU11是对控制装置1进行整体控制的处理器。CPU11经由总线20读出存储于ROM12的系统程序,按照该系统程序来对控制装置1的整体进行控制。将临时的计算数据或显示数据、操作员经由未图示的输入部输入的各种数据等暂时存储于RAM13中。
非易失性存储器14构成为例如通过未图示的电池而备份等,即使断开控制装置1的电源也可保持存储状态的存储器。在非易失性存储器14中存储有经由接口15从外部设备72读入的程序或经由显示器/MDI单元70输入的程序、从控制装置1的各部或伺服冲压机取得的各种数据(例如,位置指令值、速度指令值、压力指令值、转矩指令值、位置反馈、速度反馈、压力反馈、转矩反馈、电动机电流值、电动机温度、机械温度、周围温度、金属模具的使用次数、工件的形状、工件的材料、金属模具的形状、金属模具的材料、加工的周期时间等)。存储于非易失性存储器14的程序或各种数据可以在执行时/利用时在RAM13中展开。此外,在ROM12中预先写入公知的解析程序等各种系统程序(包含用于控制与后述的机器学习装置100的交换的系统程序)。
接口15是用于连接控制装置1与适配器等外部设备72的接口。从外部设备72侧读入程序或各种参数等。此外,在控制装置1内编辑的程序或各种参数等可以经由外部设备72存储于外部存储单元。PMC(可编程机器控制器)16经由I/O单元17通过内置于控制装置1的时序程序向伺服冲压机和该伺服冲压机的周边装置(更换工件的机器人等)输出信号来进行控制。此外,接受伺服冲压机本体所具有的操作盘的各种开关或各种传感器的信号,在进行了所需的处理之后,转发给CPU11。
显示器/MDI单元70是具有显示器或键盘等的手动数据输入装置,接口18接受来自显示器/MDI单元70的键盘的指令、数据转发给CPU11。接口19与操作盘71连接,该操作盘71具有在手动驱动各轴时使用的手动脉冲发生器等。
用于控制伺服冲压机各轴的轴控制电路30接受来自CPU11的轴的移动指令量,将轴的指令输出给伺服放大器40。伺服放大器40接收该指令,驱动使伺服冲压机具备的轴移动的伺服电动机50。轴的伺服电动机50内置位置和速度检测器,将来自该位置和速度检测器的位置和速度反馈信号反馈给轴控制电路30,进行位置和速度的反馈控制。另外,在图1的硬件结构图中只是逐个地示出了轴控制电路30、伺服放大器40、伺服电动机50,而实际上仅需准备成为控制对象的伺服冲压机所具备的轴的数量(存在一个的情况,也存在多个的情况)。
接口21是用于将控制装置1与机器学习装置100连接的接口。机器学习装置100具有:统制机器学习装置100整体的处理器101、存储系统程序等的ROM102、用于进行机器学习所涉及的各处理中的临时存储的RAM103、以及用于存储学习模型等的非易失性存储器104。机器学习装置100可以经由接口21观测控制装置1能够取得的各信息(例如,位置指令值、速度指令值、压力指令值、转矩指令值、位置反馈、速度反馈、压力反馈、转矩反馈、电动机电流值、电动机温度、机械温度、周围温度、金属模具的使用次数、工件的形状、工件的材料、金属模具的形状、金属模具的材料、加工的周期时间等)。此外,控制装置1接收从机器学习装置100输出的、控制用的指令,来控伺服冲压机的动作。
图2是第一实施方式的控制装置1和机器学习装置100的概略功能框图。通过图1所示的控制装置1具有的CPU11、以及机器学习装置100的处理器101执行各系统程序对控制装置1和机器学习装置100各部的动作进行控制,由此实现图2所示的各功能块。
本实施方式的控制装置1具有:控制部34,其根据从机器学习装置100输出的伺服冲压机2的控制用的指令来控制伺服冲压机2。控制部34一般情况下按照基于程序等的指令来控制伺服冲压机2的动作,但是此时,若从机器学习装置100输出伺服冲压机2的控制用的指令,则代替基于所述程序等的指令,而是根据从机器学习装置100输出的指令来控制伺服冲压机2。
另一方面,控制装置1具有的机器学习装置100包含用于通过所谓的机器学习来自我学习相对于针对伺服冲压机2的控制的反馈和切削阻力的切削分力方向信息的伺服冲压机2的控制用的指令的软件(学习算法等)和硬件(处理器101等)。控制装置1具有的机器学习装置100进行学习的结果相当于表示针对伺服冲压机2的控制的反馈和切削阻力的切削分力方向信息、与伺服冲压机2的控制用的指令的相关性的模型结构。
如图2的功能块所示,控制装置1具有的机器学习装置100具有:状态观测部106,其观测表示环境当前状态的状态变量S,所述状态变量S包含表示伺服冲压机2的控制用的指令的控制指令数据S1、以及针对伺服冲压机2的控制的反馈的控制反馈数据S2;判定数据取得部108,其取得包含工件质量判定数据D1和周期时间判定数据D2在内的判定数据D,所述工件质量判定数据D1用于判定根据决定出的伺服冲压机2的控制用的指令加工出的工件的质量,所述周期时间判定数据D2用于判定加工工件所花费的时间;以及学习部110,其使用状态变量S和判定数据D,将针对伺服冲压机2的控制的反馈与伺服冲压机2的控制用的指令关联起来进行学习。
状态观测部106观测的状态变量S中的控制指令数据S1可以取得为伺服冲压机2的控制用的指令。伺服冲压机2的控制用的指令例如例示出由伺服冲压机2所进行的加工中的位置指令值、速度指令值、压力指令值、转矩指令值等,可以从控制伺服冲压机2的动作的程序或前一个学习周期中输出的伺服冲压机2的控制用的指令中取得。
就控制指令数据S1而言,机器学习装置100可以根据学习部110的学习结果对前一个学习周期中的针对伺服冲压机2的控制的反馈,直接使用在该学习周期中决定出的伺服冲压机2的控制用的指令。在取得这样的方法的情况下,机器学习装置100按学习周期将伺服冲压机2的控制用的指令暂时存储于RAM103,状态观测部106可以从RAM103中取得前一个学习周期中的伺服冲压机2的控制用的指令作为本次的学习周期的控制指令数据S1。
状态观测部106观测的状态变量S中的控制反馈数据S2可以取得为来自驱动伺服冲压机2的伺服电动机50的反馈值。来自伺服电动机50的反馈值例示出位置反馈值、速度反馈值、压力反馈值、转矩反馈值等。
图3是表示控制指令数据S1和控制反馈数据S2的示例的图。如图3所例示那样,控制指令数据S1和控制反馈数据S2作为对观测到的各值以预定的采样周期△t进行了采样而得的时间上连续的离散值的数据来进行观测。就状态观测部106而言,作为控制指令数据S1和控制反馈数据S2可以使用1加工周期所取得的数据,还可以使用伺服冲压机2的上金属模具与工件接触之前到冲压动作完全结束为止的期间所取得的数据。状态观测部106在基于学习部110的1次的学习周期中,向学习部110输出在相同的时间范围内取得的控制指令数据S1和控制反馈数据S2的各数据。
状态观测部106将工件的加工过程中取得的各信息作为原始数据由控制装置1存储于非易失性存储器14中,状态观测部106解析所记录的原始数据而取得各状态变量即可。
作为工件质量判定数据D1,判定数据取得部108可以使用根据所决定的伺服冲压机2的控制用的指令进行了加工时的工件的质量的判定结果。作为判定数据取得部108使用的工件质量判定数据D1,例如只要使用工件是良品(适合),还是产生了划痕或龟裂的不良品(否),工件的尺寸误差是预先预定的阈值以内(适合),还是超过阈值(否)这样的、由适当设定出的判定基准判定出的结果即可。
此外,作为周期时间判定数据D2,判定数据取得部108可以使用根据所决定出的伺服冲压机2的控制用的指令进行的工件的加工所花费的时间的判定结果。作为判定数据取得部108使用的周期时间判定数据D2例如只要使用根据决定出的伺服冲压机2的控制用的指令进行的工件的加工所花费的时间比预先设定的预定阈值短(适合),还是长(否)这样的、由适当设定的判定基准判定出的结果即可。
另外,判定数据取得部108在学习部110涉及的学习阶段为必需的结构,但是在学习部110涉及的将针对伺服冲压机2的控制的反馈与伺服冲压机2的控制用的指令关联起来的学习结束之后未必为必需的结构。例如,在将学习完成的机器学习装置100出货给顾客时等,可以拆除判定数据取得部108而出货。
同时输入给学习部110的状态变量S是在学习部110所涉及的学习周期下考虑时,基于取得了判定数据D的一学习周期前的数据的状态变量S。这样,在控制装置1具有的机器学习装置100进行学习的期间、环境下,重复实施控制反馈数据S2的取得、根据所取得的各数据决定出的控制指令数据S1的伺服冲压机2涉及的工件的加工、判定数据D的取得。
学习部110按照统称为机器学习的任意学习算法,学习相对于针对伺服冲压机2的控制的反馈的伺服冲压机2的控制用的指令。学习部110可以反复执行基于数据集合的学习,该数据集合包含所述的状态变量S和判定数据D。在反复相对于针对伺服冲压机2的控制的反馈的伺服冲压机2的控制用的指令的学习周期的过程中,如上所述,从一个学习周期前的针对伺服冲压机2的控制的反馈、和在一学习周期前决定出的伺服冲压机2的控制用的指令中取得状态变量S,此外,判定数据D设为根据决定出的伺服冲压机2的控制用的指令进行的工件的加工相关的各观点(加工质量、加工花费的时间等)的判定结果。
通过重复这样的学习周期,学习部110可以识别暗示针对伺服冲压机2的控制的反馈与伺服冲压机2的控制用的指令的相关性的特征。在开始学习算法时,针对伺服冲压机2的控制的反馈与伺服冲压机2的控制用的指令的相关性实际上是不知道的,但是学习部110随着学习进展而逐渐识别特征从而解释相关性。若针对伺服冲压机2的控制的反馈与伺服冲压机2的控制用的指令的相关性被解释为达到某种可以相信的水平,则学习部110反复输出的学习结果可以用于针对当前状态(也就是说,针对伺服冲压机2的控制的反馈)进行应该怎样决定伺服冲压机2的控制用的指令这样的行为的选择(即决策)。也就是说,学习部110随着学习算法的进行,可以使与如针对伺服冲压机2的控制的反馈应该以怎样的方式设定伺服冲压机2的控制用的指令这样的行为的相关性逐渐接近最佳解。
决策部122根据学习部110学习到的结果,来决定伺服冲压机2的控制用的指令,将决定出的伺服冲压机2的控制用的指令输出给控制部34。决策部122在学习部110进行的学习处于能够利用的状态的阶段,若向机器学习装置100输入针对伺服冲压机2的控制的反馈,则输出伺服冲压机2的控制用的指令(位置指令值、速度指令值、压力指令值、转矩指令值等)。决策部122输出的伺服冲压机2的控制用的指令是在当前状态下,在能够将加工的周期时间维持某种程度的范围内,可以良好地设定工件的质量的指令。决策部122根据状态变量S和学习部110学习到的结果,来决定适当的伺服冲压机2的控制用的指令。
如上所述,控制装置1具有的机器学习装置100使用状态观测部106观测到的状态变量S与判定数据取得部108取得的判定数据D,学习部110按照机器学习算法,学习相对于针对伺服冲压机2的控制的反馈的伺服冲压机2的控制用的指令。状态变量S由控制指令数据S1和控制反馈数据S2这样的数据构成,此外,通过解析从加工工件的工序或计测加工出的工件的结果取得的信息而唯一求出判定数据D。因此,根据控制装置1具有的机器学习装置100,通过使用学习部110的学习结果,能够自动且准确地进行与针对伺服冲压机2的控制的反馈对应的、伺服冲压机2的控制用的指令。
并且,如果可以自动进行伺服冲压机2的控制用的指令的决定,则通过只掌握针对伺服冲压机2的控制的反馈(控制反馈数据S2),就可以迅速决定伺服冲压机2的控制用的指令的适当值。因此,可以高效地进行伺服冲压机2的控制用的指令的决定。
作为控制装置1具有的机器学习装置100的一变形例,除了控制指令数据S1和控制反馈数据S2之外,状态观测部106还可以将表示金属模具的状态的金属模具状态数据S3观测为状态变量S。作为金属模具的状态,例如例示出金属模具的材料、金属模具的形状(金属模具的深度或最大曲率等)、金属模具的使用次数等。在金属模具的材料柔软的情况下,在金属模具的使用次数多的情况下,金属模具容易磨损和变形,此外,在金属模具深的情况下或具有陡角的情况下,在加工时容易使工件受损,因此通过将这些观测为状态变量S,可以提升学习部110学习的精度。
作为控制装置1具有的机器学习装置100的其他变形例,除了控制指令数据S1和控制反馈数据S2之外,状态观测部106还可以观测表示工件的状态的工件状态数据S4作为状态变量S。因工件的材料、工件加工前的形状、工件的温度,有时加工的结果产生不同,因此,通过将这些观测为状态变量S,可以提升学习部110学习的精度。
作为控制装置1具有的机器学习装置100的其他变形例,除了控制指令数据S1和控制反馈数据S2之外,状态观测部106还可以观测表示电动机的状态的电动机状态数据S5作为状态变量S。作为电动机的状态,例示出流经电动机的电流值或电动机的温度等。由于认为加工工件时的1个加工周期内的流经伺服电动机50的电流值或温度的变化作为间接表示加工工件的状态的数据是有效的,因此,通过观测以预定的采样周期△t对加工周期中的伺服电动机50的电流值或温度进行采样而得的、时间上连续的离散值来作为状态变量S,可以提升学习部110学习的精度。
作为控制装置1具有的机器学习装置100的其他变形例,除了控制指令数据S1和控制反馈数据S2之外,状态观测部106可以将表示伺服冲压机2的状态的机械状态数据S6观测为状态变量S。作为伺服冲压机2的状态,例示出伺服冲压机2的温度等,有时这些状态成为加工结果产生差异的原因,因此通过将这些观测为状态变量S,可以提升学习部110学习的精度。
作为控制装置1具有的机器学习装置100的其他变形例,除了控制指令数据S1和控制反馈数据S2之外,状态观测部106还可以将表示伺服冲压机2周边的状态的周边状态数据S7观测为状态变量S。作为伺服冲压机2周边的状态,例示出周边温度或周边湿度等,有时这些状态成为加工结果产生差异的原因,因此通过将这些观测为状态变量S,可以提升学习部110学习的精度。
作为控制装置1具有的机器学习装置100的其他变形例,除了工件质量判定数据D1和周期时间判定数据D2之外,判定数据取得部108还可以取得判定由伺服冲压机2所进行的工件的加工时产生的锤击缓冲的程度的锤击缓冲判定数据D3。锤击缓冲在伺服冲压机进行的加工过程中,在从冲压轴对工件施加压力时,若工件与金属模具分离(破裂),则是冲压轴一下子承受逆变形力的现象,并且是所谓剪切加工中的冲击、噪音的最大的原因,对工件的加工质量或伺服冲压机的状态(故障等)造成影响。判定数据取得部108解析加工工件时的伺服电动机50的转矩值等,在产生了锤击缓冲的情况下,只要取得锤击缓冲判定数据D3即可,该锤击缓冲判定数据D3在锤击缓冲大小是预先设定的阈值以下的情况下判为适合,在并非预先设定的阈值以下的情况下判为否。
在具有上述结构的机器学习装置100中,学习部110执行的学习算法没有特别限定,作为机器学习可以采用公知的学习算法。图4是图2所示的控制装置1的一方式,表示作为学习算法的一例而具有执行强化学习的学习部110的结构。强化学习是如下方法:观测学习对象所在的环境的当前状态(即输入)并且在当前状态来执行预定行为(即输出),以试错的方式反复针对该行为给予任何回报的周期,并将使回报的总和最大化的方法(在本申请的机器学习装置中伺服冲压机2的控制用的指令)作为最佳解来进行学习。
在图4所示的控制装置1具有的机器学习装置100中,学习部110具有:回报计算部112,其根据状态变量S来决定伺服冲压机2的控制用的指令,求出基于决定出的伺服冲压机2的控制用的指令的与伺服冲压机2所涉及的工件的加工相关的判定结果(相当于取得状态变量S的下一学习周期所使用的判定数据D)关联的回报R;以及价值函数更新部114,其使用回报R来更新表示伺服冲压机2的控制用的指令的价值的函数Q。学习部110通过价值函数更新部114重复函数Q的更新,来学习相对于针对伺服冲压机2的控制的反馈的伺服冲压机2的控制用的指令。
对学习部110执行的强化学习的算法的一例进行说明。该示例涉及的算法作为Q学习(Q-learning)而被知晓,是将行为主体的状态s与行为主体在该状态s下能够选择的行为a设为独立变量,而对表示在状态s下选择出行为a时的行为的价值的函数Q(s、a)进行学习的方法。在状态s下选择价值函数Q为最高的行为a是最佳解。状态s与行为a的相关性在未知的状态下开始Q学习,通过重复在任意状态s下选择各种行为a的试错,而反复更新价值函数Q,靠近最佳解。这里,作为在状态s下选择出行为a的结果当环境(即状态s)发生变化时,获得与该变化对应的回报(即行为a的权重)r,引导学习以选择获得更高的回报r的行为a,由此可以以比较短的时间使价值函数Q接近最佳解。
价值函数Q的更新式一般情况下可以如下述的数学式1那样表示。在数学式1中,st和at分别是时刻t的状态和行为,状态因行为at而变化为st+1。rt+1是状态从st变化为st+1而获得的回报。maxQ的项表示进行在时刻t+1为最大的价值Q的(在时刻t考虑的)行为a时的Q。α和γ分别是学习系数和折扣率,在0<α≤1、0<γ≤1的范围内任意设定。
【数学式1】
学习部110在执行Q学习时,状态观测部106观测到的状态变量S和判定数据取得部108取得的判定数据D与更新式的状态s相符,应该以怎样的方式来决定相对于当前状态(即,针对伺服冲压机2的控制的反馈)的伺服冲压机2的控制用的指令这样的行为与更新式的行为a相符,回报计算部112求出的回报R与更新式的回报r相符。因此价值函数更新部114通过使用了回报R的Q学习而重复更新表示相对于当前状态的伺服冲压机2的控制用的指令的价值的函数Q。
回报计算部112求出的回报R例如在决定了伺服冲压机2的控制用的指令之后进行的、基于决定出的伺服冲压机2的控制用的指令的工件的加工相关的判定结果判定为“适合”时(例如,加工后的工件没有破损的情况、工件的尺寸误差是预先设定的阈值以下的情况、加工的周期时间比预先设定的阈值、或前一学习周期中的周期时间短的情况等)设为正(plus)回报R,在决定了伺服冲压机2的控制用的指令之后进行的、基于决定出的伺服冲压机2的控制用的指令的工件的加工相关的判定结果判定为“否”时(例如,加工后的工件存在破损的情况、工件的尺寸误差超过预先设定的阈值的情况、加工的周期时间比预先设定的阈值、或前一学习周期中的周期时间长的情况等)设为负(minus)回报R。正负回报R的绝对值既可以彼此相同也可以不同。此外,作为判定的条件可以将判定数据D所含的多个值组合而进行判定。
此外,不仅“适合”和“否”这两者,还可以多阶段地设定基于设定出的伺服冲压机2的控制用的指令的工件的加工相关的判定结果。作为示例,可以构成为:在加工工件的周期时间的阈值是Tmax的情况下,当作业员的组装作业的周期时间T为0≤T<Tmax/5时给予回报R=5,在Tmax/5≤T<Tmax/2时给予回报R=3,在Tmax/2≤T<Tmax时给予回报R=1,在Tmax≤T时给予回报R=-3(负回报)。
并且,学习的初始阶段可以构成为将用于判定的阈值设定得比较大,而随着学习的进行缩小用于判定的阈值。
价值函数更新部114可以具有将状态变量S、判定数据D、回报R与由函数Q表示的行为价值(例如数值)关联起来进行整理而得的行为价值表。该情况下,价值函数更新部114更新函数Q的行为与价值函数更新部114更新行为价值表的行为一样。在开始Q学习时环境的当前状态与伺服冲压机2的控制用的指令的相关性未知,因此,在行为价值表中,以与随机确定的行为价值的值(函数Q)关联起来的形式而准备各种状态变量S、判定数据D、回报R。另外,回报计算部112如果知晓判定数据D则可以立即计算与此对应的回报R,将计算出的值R写入到行为价值表中。
在与使用伺服冲压机2的动作相关的判定结果相对应的回报R来进行Q学习时,向选择获得更高的回报R的行为的方向引导学习,作为在当前状态下执行了选择出的行为的结果而根据变化的环境的状态(即状态变量S和判定数据D),改写当前状态下进行的行为的行为价值的值(函数Q)而更新行为价值表。通过重复该更新,以越是适当的行为(本发明的情况下,在没有将加工工件所涉及的周期时间设为极长的范围内,调整针对伺服电动机50的指令值的行为)越是成为较大的值的方式来改写行为价值表所显示的行为价值的值(函数Q)。这样,逐渐明确未知环境的当前状态(针对伺服冲压机2的控制的反馈)与相对于此的行为(伺服冲压机2的控制用的指令)的相关性。即,通过行为价值表的更新,使针对伺服冲压机2的控制的反馈与伺服冲压机2的控制用的指令的关系逐渐接近最佳解。
参照图5,进一步说明学习部110执行的上述Q学习的流程(即机器学习方法的一方式)。首先,在步骤SA01中,价值函数更新部114一边参照该时间点的行为价值表,一边作为状态观测部106观测到的状态变量S表示的当前状态下进行的行为而随机选择伺服冲压机2的控制用的指令。接下来,价值函数更新部114在步骤SA02中,提取状态观测部106所观测的当前状态的状态变量S,在步骤SA03中,提取判定数据取得部108所取得的当前状态的判定数据D。接着,价值函数更新部114在步骤SA04中,根据判定数据D,判断伺服冲压机2的控制用的指令是否适合,在适合时,在步骤SA05中,将回报计算部112求出的正回报R应用于函数Q的更新式,接下来,在步骤SA06中,使用当前状态下的状态变量S、判定数据D、回报R、行为价值的值(更新后的函数Q)来更新行为价值表。在步骤SA04中,当判断为伺服冲压机2的控制用的指令不适合时,在步骤SA07中,将回报计算部112求出的负回报R应用于函数Q的更新式,接着在步骤SA06中,使用当前状态下的状态变量S、判定数据D、回报R、行为价值的值(更新后的函数Q)来更新行为价值表。
学习部110通过重复步骤SA01~SA07而反复更新行为价值表,来进行伺服冲压机2的控制用的指令的学习。另外,对于判定数据D所含的各数据执行从步骤SA04到步骤SA07的求出回报R的处理和价值函数的更新处理。
在进行所述强化学习时,例如可以应用神经网络。图6A示意性地表示神经元的模型。图6B示意性地表示将图6A所示的神经元组合而构成的三层神经网络的模型。例如可以由实现模拟了神经元模型的运算装置或存储装置等来构成神经网络。
图6A所示的神经元输出针对多个输入x(这里作为一个示例,输入x1~输入x3)的结果y。对各输入x1~x3乘以与该输入x对应的权重w(w1~w3)。由此,神经元输出由如下数学式2表现的输出y。另外,在数学式2中,输入x、输出y以及权重w都是向量。此外,θ是偏置(bias),fk是激活函数。
【数学式2】
图6B所示的三层神经网络从左侧输入多个输入x(这里作为一例,输入x1~输入x3),从右侧输出结果y(这里作为一例,结果y1~结果y3)。在图示的示例中,输入x1、x2、x3分别乘以对应的权重(统一通过w1来表示),各输入x1、x2、x3输入到三个神经元N11、N12、N13中的每一个。
在图6B中,将神经元N11~N13的各自输出统一通过z1来表示。z1可以看作是提取出输入向量的特征量而得的特征向量。在图示的示例中,特征向量z1分别乘以对应的权重(统一通过w2来表示),各特征向量z1输入到两个神经元N21、N22中的每一个。特征向量z1表示权重W1与权重W2之间的特征。
在图6B中,将神经元N21~N22的各自的输出统一通过z2来表示。z2可以看作是提取出特征向量z1的特征量而得的特征向量。在图示的示例中,特征向量z2分别乘以对应的权重(统一通过w3来表示),各特征向量z2输入到三个神经元N31、N32、N33中的每一个。特征向量z2表示权重W2与权重W3之间的特征。最后,神经元N31~N33分别输出结果y1~y3。
另外,还能够使用所谓的深层学习的方法,该深层学习使用了构成三层以上的层的神经网络。
在控制装置1具有的机器学习装置100中,将神经网络用作Q学习中的价值函数,将状态变量S与行为a设为输入x,学习部110进行按照上述神经网络的多层构造的运算,由此也可以输出该状态下的该行为的价值(结果y)。另外,在神经网络的动作模式中有学习模式和价值预测模式,例如也可以在学习模式中使用学习数据集来学习权重w,在价值预测模式中使用学习到的权重w来进行行为的价值判断。另外,在价值预测模式中也可以进行检测、分类、推论等。
上述控制装置1的结构可以记述为处理器101执行的机器学习方法(或者软件)。该机器学习方法是学习伺服冲压机2的控制用的指令的机器学习方法,具有由计算机的CPU执行的如下步骤:观测控制指令数据S1和控制反馈数据S2来作为表示伺服冲压机2动作的环境的当前状态的状态变量S;取得表示基于决定出的伺服冲压机2的控制用的指令的加工工件相关的判定结果的判定数据D;使用状态变量S和判定数据D,将控制反馈数据S2与伺服冲压机2的控制用的指令关联起来进行学习。
图7是第二实施方式的控制装置1与机器学习装置100的概略功能框图,表示作为学习算法的其他示例而具有执行监督学习的学习部110的结构。监督学习是如下方案:给予输入和与之对应的输出的已知数据集(称为训练数据),从这些训练数据中识别暗示输入与输出之间的相关性的特征,由此学习相关性模型,该相关性模型用于推定针对新输入所要的输出。
本实施方式的控制装置1具有的机器学习装置100代替判定数据取得部108,而具有:标签数据取得部109,其取得标签数据L,所述标签数据L包含表示对当前的状态适当进行了加工的伺服冲压机2的控制用的指令的控制指令数据L1。
标签数据取得部109可以利用在某种状态下适当的伺服冲压机2的控制用的指令。该数据在过去进行的伺服冲压机2的动作时,将针对伺服冲压机2的控制的反馈(控制反馈数据S2)记录为原始数据,解析该原始数据,只要取得在不使加工的周期时间延长至所需以上地将通过工件的加工而获得了良好的评价的伺服冲压机2的控制用的指令的数据作为适当的控制用的指令数据(控制指令数据L1)即可。关于依据什么认为是适当的控制用的指令数据,只要与第一实施方式中的针对判定数据D的判定一样考虑即可。
本实施方式的状态观测部106不需要观测控制指令数据S1。此外,标签数据取得部109与判定数据取得部108一样,在学习部110进行的学习阶段为必须的结构,但是在将学习部110涉及的针对伺服冲压机2的控制的反馈与伺服冲压机2的控制用的指令关联起来的学习结束之后未必为必须的结构。
在图7所示的控制装置1具有的机器学习装置100中,学习部110具有:误差计算部116,其计算根据针对伺服冲压机2的控制的反馈来推定伺服冲压机2的控制用的指令的相关性模型M、与从过去取得的针对伺服冲压机2的控制的反馈和适当的伺服冲压机2的控制用的指令的结果获得的训练数据T而识别的相关性特征之间的误差E;模型更新部118,其更新相关性模型M使得缩小误差E。学习部110通过模型更新部118反复更新相关性模型M,学习来自针对伺服冲压机2的控制的反馈的伺服冲压机2的控制用的指令的推定。
相关性模型M的初始值例如简化地(例如通过N次函数)表现了状态变量S与标签数据L之间的相关性,在开始监督学习之前提供给学习部110。训练数据T可以利用在本发明中如上所述在过去取得的针对伺服冲压机2的控制的反馈和与它们适合的伺服冲压机2的控制用的指令的数据,在控制装置1运用时随时提供给学习部110。误差计算部116通过随时提供给学习部110的训练数据T,识别暗示针对伺服冲压机2的控制的反馈和伺服冲压机2的控制用的指令之间的相关性的相关性特征,求出该相关性特征、与当前状态下的状态变量S和标签数据L对应的相关性模型M之间的误差E。模型更新部118例如按照预先设定的更新规则,向误差E变小的方向更新相关性模型M。
在下一学习周期中,误差计算部116按照更新后的相关性模型M使用状态变量S来推定伺服冲压机2的控制用的指令,求出该推定的结果与实际取得的标签数据L之间的误差E,模型更新部118再次更新相关性模型M。这样,逐渐明了未知环境的当前状态和与之相对的推定之间的相关性。另外,即使在第二实施方式中,也与第一实施方式一样,作为状态变量S可以观测各种状态变量。
图8表示具有控制装置1的第三实施方式的系统170。系统170具有安装为单元计算机、主计算机、云服务器等计算机的一部分的至少一台控制装置1、成为控制对象的多个伺服冲压机2、将控制装置1和伺服冲压机2相互连接的有线/无线网络172。
就具有上述结构的系统170而言,具有机器学习装置100的控制装置1使用学习部110的学习结果,可以按各伺服冲压机2自动且准确地求出相对于针对伺服冲压机2的控制的反馈的伺服冲压机2的控制用的指令。此外,控制装置1的机器学习装置100可以构成为:根据针对多个伺服冲压机2的每一个而获得的状态变量S和判定数据D,学习与所有伺服冲压机2共通的伺服冲压机2的控制用的指令,在所有伺服冲压机2的动作中共享该学习结果。因此,根据系统170,将更多样的数据集合(包含状态变量S和判定数据D)作为输入,可以提升伺服冲压机2的控制用的指令学习的速度和信赖性。
以上,对本发明的实施方式进行了说明,但是本发明不只限定于上述实施方式的示例,可以通过增加适当的变更而以各种方式来实施。
例如,机器学习装置100执行的学习算法、运算算法、控制装置1执行的控制算法等不限定于上述内容,可以采用各种算法。
此外,在上述实施方式中说明了控制装置1与机器学习装置100是具有不同的CPU的装置,但是机器学习装置100可以通过控制装置1具有的CPU11、存储于ROM12的系统程序来实现。
Claims (8)
1.一种控制装置,其对通过金属模具来加工工件的伺服冲压机进行控制,其特征在于,
所述控制装置具有:机器学习装置,其学习所述伺服冲压机的控制用的指令,
所述机器学习装置具有:
状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;
判定数据取得部,其取得判定根据所述伺服冲压机的控制用的指令加工出的工件的质量的工件质量判定数据,作为表示与所述工件的加工相关的判定结果的判定数据;以及
学习部,其使用所述状态变量和所述判定数据,将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习。
2.根据权利要求1所述的控制装置,其特征在于,
所述判定数据取得部还取得判定所述工件的加工所花费的时间的周期时间判定数据作为判定数据。
3.根据权利要求1或2所述的控制装置,其特征在于,
所述学习部具有:
回报计算部,其求出与所述判定结果相关联的回报;以及
价值函数更新部,其使用所述回报,来更新表示相对于针对所述伺服冲压机的控制的反馈的所述伺服冲压机的控制用的指令的价值的函数,
所述工件的质量越高、以及所述工件的加工有关的时间越短,所述回报计算部越是给予高的回报。
4.根据权利要求1~3中任一项所述的控制装置,其特征在于,
所述学习部通过多层结构来运算所述状态变量和所述判定数据。
5.一种控制装置,其对通过金属模具来加工工件的伺服冲压机进行控制,其特征在于,
所述控制装置具有:机器学习装置,其学习所述伺服冲压机的控制用的指令,
所述机器学习装置具有:
状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;
学习部,其将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习;以及
决策部,其根据所述状态观测部观测到的状态变量、所述学习部的学习结果,来决定伺服冲压机的控制用的指令。
6.根据权利要求1~5中任一项所述的控制装置,其特征在于,
所述机器学习装置存在于云服务器。
7.一种机器学习装置,其学习通过金属模具来加工工件的伺服冲压机的控制用的指令,其特征在于,
所述机器学习装置具有:
状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;
判定数据取得部,其取得判定根据所述伺服冲压机的控制用的指令加工出的工件的质量的工件质量判定数据,作为表示与所述工件的加工相关的判定结果的判定数据;以及
学习部,其使用所述状态变量和所述判定数据,将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习。
8.一种机器学习装置,其学习通过金属模具来加工工件的伺服冲压机的控制用的指令,其特征在于,
所述机器学习装置具有:
状态观测部,其观测表示所述伺服冲压机的控制用的指令的控制指令数据和表示针对所述伺服冲压机的控制的反馈的控制反馈数据,作为表示环境当前状态的状态变量;
学习部,其将针对所述伺服冲压机的控制的反馈与伺服冲压机的控制用的指令关联起来进行学习;以及
决策部,其根据所述状态观测部观测到的状态变量、所述学习部的学习结果,来决定伺服冲压机的控制用的指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-027009 | 2018-02-19 | ||
JP2018027009A JP2019141869A (ja) | 2018-02-19 | 2018-02-19 | 制御装置及び機械学習装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110171159A true CN110171159A (zh) | 2019-08-27 |
Family
ID=67482230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910122158.9A Pending CN110171159A (zh) | 2018-02-19 | 2019-02-19 | 控制装置以及机器学习装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190258982A1 (zh) |
JP (1) | JP2019141869A (zh) |
CN (1) | CN110171159A (zh) |
DE (1) | DE102019001044A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112775242A (zh) * | 2020-12-25 | 2021-05-11 | 佛山市康思达液压机械有限公司 | 冲压控制方法 |
CN114074141A (zh) * | 2020-08-21 | 2022-02-22 | 香港生产力促进局 | 数字化金属冲压装置及方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10635944B2 (en) * | 2018-06-15 | 2020-04-28 | Google Llc | Self-supervised robotic object interaction |
JP7389663B2 (ja) * | 2020-01-24 | 2023-11-30 | 株式会社アマダ | プレス装置及びプレス方法 |
JP7139368B2 (ja) * | 2020-02-04 | 2022-09-20 | 株式会社日本製鋼所 | プレス成形システムおよびプレス成形システムの成形条件値の設定方法 |
KR102501902B1 (ko) * | 2020-09-24 | 2023-02-21 | 하은테크(주) | 버 제어를 위한 지능형 프레스 시스템 |
JP7459856B2 (ja) * | 2021-11-26 | 2024-04-02 | 横河電機株式会社 | 装置、方法およびプログラム |
JP7484868B2 (ja) * | 2021-10-27 | 2024-05-16 | 横河電機株式会社 | 操業システム、操業方法、および、操業プログラム、ならびに、評価モデル生成装置、評価モデル生成方法、および、評価モデル生成プログラム |
WO2024171312A1 (ja) * | 2023-02-14 | 2024-08-22 | 日本電信電話株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3818788B2 (ja) * | 1998-03-16 | 2006-09-06 | 株式会社山田ドビー | プレス機のスライド制御装置 |
JP6148316B2 (ja) * | 2015-07-31 | 2017-06-14 | ファナック株式会社 | 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム |
JP6077617B1 (ja) * | 2015-09-25 | 2017-02-08 | ファナック株式会社 | 最適な速度分布を生成する工作機械 |
JP6219897B2 (ja) * | 2015-09-28 | 2017-10-25 | ファナック株式会社 | 最適な加減速を生成する工作機械 |
JP6457382B2 (ja) * | 2015-12-28 | 2019-01-23 | ファナック株式会社 | キャッシュロックを学習する機械学習器,産業機械システム,製造システム,機械学習方法および機械学習プログラム |
JP6625914B2 (ja) * | 2016-03-17 | 2019-12-25 | ファナック株式会社 | 機械学習装置、レーザ加工システムおよび機械学習方法 |
JP6140331B1 (ja) * | 2016-04-08 | 2017-05-31 | ファナック株式会社 | 主軸または主軸を駆動するモータの故障予知を学習する機械学習装置および機械学習方法、並びに、機械学習装置を備えた故障予知装置および故障予知システム |
JP6506219B2 (ja) * | 2016-07-21 | 2019-04-24 | ファナック株式会社 | モータの電流指令を学習する機械学習器,モータ制御装置および機械学習方法 |
-
2018
- 2018-02-19 JP JP2018027009A patent/JP2019141869A/ja active Pending
-
2019
- 2019-02-12 DE DE102019001044.2A patent/DE102019001044A1/de not_active Withdrawn
- 2019-02-13 US US16/274,647 patent/US20190258982A1/en not_active Abandoned
- 2019-02-19 CN CN201910122158.9A patent/CN110171159A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114074141A (zh) * | 2020-08-21 | 2022-02-22 | 香港生产力促进局 | 数字化金属冲压装置及方法 |
CN112775242A (zh) * | 2020-12-25 | 2021-05-11 | 佛山市康思达液压机械有限公司 | 冲压控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190258982A1 (en) | 2019-08-22 |
JP2019141869A (ja) | 2019-08-29 |
DE102019001044A1 (de) | 2019-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110171159A (zh) | 控制装置以及机器学习装置 | |
JP6680756B2 (ja) | 制御装置及び機械学習装置 | |
CN109955115B (zh) | 切屑去除装置以及信息处理装置 | |
CN106552974B (zh) | 具有移动轴异常负载警告功能的线放电加工机 | |
JP6557285B2 (ja) | 制御装置及び機械学習装置 | |
JP6923484B2 (ja) | 加工条件調整装置及び機械学習装置 | |
TWI711982B (zh) | 控制裝置及機器學習裝置 | |
CN109725597B (zh) | 测试装置以及机器学习装置 | |
CN109002012A (zh) | 控制装置以及机器学习装置 | |
CN110347120A (zh) | 控制装置以及机器学习装置 | |
JP6659652B2 (ja) | 加工条件調整装置及び機械学習装置 | |
JP6813532B2 (ja) | シミュレーション装置 | |
CN110125955B (zh) | 控制装置以及机器学习装置 | |
JP6841852B2 (ja) | 制御装置及び制御方法 | |
JP6767416B2 (ja) | 加工条件調整装置及び機械学習装置 | |
JP2017068566A (ja) | 工作機械の工具補正の頻度を最適化する機械学習装置及び機械学習方法、並びに該機械学習装置を備えた工作機械 | |
CN110531705B (zh) | 可编程控制器以及机器学习装置 | |
CN108427378B (zh) | 数值控制装置 | |
CN110174871A (zh) | 控制装置、机器学习装置以及系统 | |
CN110340884B (zh) | 测定动作参数调整装置、机器学习装置以及系统 | |
JP6940425B2 (ja) | 制御装置及び機械学習装置 | |
JP6829271B2 (ja) | 測定動作パラメータ調整装置、機械学習装置及びシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190827 |