[go: up one dir, main page]

CN107153630B - 一种机器学习系统的训练方法和训练系统 - Google Patents

一种机器学习系统的训练方法和训练系统 Download PDF

Info

Publication number
CN107153630B
CN107153630B CN201610125904.6A CN201610125904A CN107153630B CN 107153630 B CN107153630 B CN 107153630B CN 201610125904 A CN201610125904 A CN 201610125904A CN 107153630 B CN107153630 B CN 107153630B
Authority
CN
China
Prior art keywords
loss function
training
current
function value
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610125904.6A
Other languages
English (en)
Other versions
CN107153630A (zh
Inventor
周俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Tmall Technology Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201610125904.6A priority Critical patent/CN107153630B/zh
Priority to TW106104648A priority patent/TWI740896B/zh
Priority to JP2018546445A priority patent/JP7004661B2/ja
Priority to PCT/CN2017/074318 priority patent/WO2017148314A1/zh
Priority to EP17759165.8A priority patent/EP3425527A4/en
Publication of CN107153630A publication Critical patent/CN107153630A/zh
Priority to US16/119,585 priority patent/US11257005B2/en
Application granted granted Critical
Publication of CN107153630B publication Critical patent/CN107153630B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Numerical Control (AREA)

Abstract

本申请公开一种机器学习系统的训练方法和系统,利用训练数据对所述机器学习系统进行训练,所述训练方法包括:将训练数据分配给多个工作机;将每一个工作机分配得到的训练数据划分为多个数据片;获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;汇总这些本地权重和本地损失函数值,获得当前权重和当前损失函数值;利用当前权重和/或当前损失函数值执行模型异常检测;当检测结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;当检测结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入机器学习系统进行训练。

Description

一种机器学习系统的训练方法和训练系统
技术领域
本申请涉及大数据处理领域,尤其涉及一种机器学习系统的训练方法和训练系统。
背景技术
现如今,服务好用户是各互联网公司都希望实现的目标。为此,绝大部分公司都采用机器学习的方式捕捉用户的偏好和习惯,提供个性化的服务。举例来说,各网站可以利用机器学习系统,收集用户上网的行为数据,为不同性别/年龄的用户提供不同的搜索结果,做到最大程度地根据用户的喜好提供服务。
上述的机器学习系统可以收集大量用户的行为数据,例如用户浏览/点击/购买/顶帖子/发表对帖子的意见等等,并利用某些机器学习算法,离线对机器学习系统进行训练。在得到一个预测模型之后,放在线上系统,对用户提供服务。例如亚马逊的推荐系统,其可以根据用户以往的行为日志(比如包含昨天以及昨天再向前推2周的日志),学习用户偏好之后,给不同用户推荐不同的商品.
这种利用以往用户行为数据,离线进行训练,得到模型的方式称为离线学习。然而正常情况下用户行为和兴趣可能在一天之内都会发生显著变化,由于离线学习系统中用户当下产生的日志并不能马上加入到系统中去训练,离线学习显然不能捕获这种变化。
在线学习就是模型随着接收的新训练数据,不断更新模型本身。因而它能取得更好的效果。在线学习精度比较高,但由于数据采集的时间段比较短,模型受数据中噪声影响比较大,造成模型训练不稳定;同时由于在线学习采用异步更新模型的方式,训练数据不断流入模型,模型不断进行更新学习,经常由于某些不可控的问题导致模型训练卡死,出现训练失败,导致无法产出可用的模型、影响线上服务、损害用户体验。
发明内容
鉴于上述问题,提出了本申请实施例以便提供一种克服上述问题或者至少部分地解决上述问题的机器学习系统的训练方法和训练系统。
为解决上述问题,本申请公开一种机器学习系统的训练方法,利用训练数据对所述机器学习系统进行训练,所述训练方法包括:
将所述训练数据分配给多个工作机;
将每一个工作机分配得到的训练数据划分为多个数据片;
获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
利用当前权重和/或当前损失函数值执行模型异常检测;
当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
本申请实施例至少具有以下优点:
根据本申请实施例提出的机器学习系统的训练方法和训练系统,通过使每一个工作机一次只针对一个数据片进行处理、并根据该数据片计算得出的本地权重和本地损失函数值进行汇总,达到了每一次计算后能够准确地小幅度更新权重和损失函数值的效果,避免了现有技术的在线学习中容易受到数据中噪声影响的问题。同时,在获得当前权重和/或当前损失函数值之后执行异常检测,当检测出所获得的当前权重和/或当前损失函数值属于第一类异常或第二类异常,可以抛弃本次计算出的当前权重和/或当前损失函数值,而将上一次汇总得到的权重和损失函数值输入机器学习模型,或者对本次计算出的当前权重和/或当前损失函数值进行修正,将每次计算和汇总获得的权重和损失函数值的更新限制在有效范围内,避免了模型训练的不稳定性,增强了系统抗数据噪声的能力,提升了在线学习的机器学习系统的稳定性,确保了机器学习系统的正常产出,提高了上线后的机器学习系统的服务能力。
附图说明
图1是本申请第一实施例的机器学习系统的训练方法的流程图。
图2是本申请第二实施例的机器学习系统的训练方法的流程图。
图3是本申请第三实施例的机器学习系统的训练方法的流程图。
图4是本申请第四实施例的机器学习系统的训练系统的方框图。
图5是本申请第五实施例的机器学习系统的训练系统的方框图。
图6是本申请第六实施例的机器学习系统的训练系统的方框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
本申请的核心思想之一在于,提出一种机器学习系统的训练方法,在该方法中,首先将训练数据分配给多个工作机;将每一个工作机分配得到的训练数据划分为多个数据片;获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;汇总这些本地权重和本地损失函数值,获得当前权重和当前损失函数值;利用当前权重和/或当前损失函数值执行模型异常检测;当检测结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;当检测结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入机器学习系统进行训练。
第一实施例
本申请第一实施例提出一种机器学习系统的训练方法,如图1所示为本申请第一实施例的机器学习系统的训练方法的流程图。该机器学习系统优选为分布式机器学习系统,包括参数服务器(parameter server),该参数服务器例如可以包括多个工作机(worker或者slaver)、多个服务器(server)、一个协调器(coordinator)。如图1所示,该训练方法包括如下步骤:
步骤S101,将所述训练数据分配给多个工作机;
在这一步骤中,例如,每个工作机可以根据其标识读取属于自己的训练数据,各工作机之间的数据不重叠。这一步骤例如可以由协调器按照每个工作机的id将训练数据划分为属于每一个工作机的训练数据,并由对应的工作机读取该训练数据。
步骤S102,将每一个工作机分配得到的训练数据划分为多个数据片;
在这一步骤中,例如,每一个工作机基于其自身的系统配置将其分配得到的训练数据划分为多个数据片,每一个工作机的每次处理是基于一个数据片进行处理。即,每个工作机每次只处理一个数据片。
步骤S103,获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
在这一步骤中,例如,在每一个工作机中,基于该工作机获得的训练数据中的一个数据片,计算获得该工作机该次计算对应的本地权重和本地损失函数值;由于该机器学习系统包括多个工作机,在这一步骤中,可以获得多个工作机在该次计算中获得的本地权重和本地损失函数值。
步骤S104,汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
在这一步骤中,例如,每一个工作机将计算出的本地权重和本地损失函数值发送至服务器,由服务器对由多个工作机在本次计算出的多个本地权重和本地损失函数值进行汇总,获得当前权重和当前损失函数值。汇总的过程包括但不限于相加、相加后平均等,本发明并不特别限制。
在步骤S103中每一个工作机计算出本地权重和本地损失函数值之后,可以异步地发送给服务器,在步骤S104中,可以由协调器驱动服务器进行多个本地权重和本地损失函数的汇总。
步骤S105,利用当前权重和/或当前损失函数值执行模型异常检测;
在这一步骤中,例如,可以将汇总后的当前权重和/或当前损失函数值输入模型异常检测装置,根据预设的条件对模型是否异常进行检测。检测的结果例如可以为正常、第一类异常和第二类异常,并在后续分别针对这三种情况进行对应处理。
在一实施例中,模型异常检测装置的输入值为当前权重、当前损失函数值、上一次汇总后的权重和上一次汇总后的损失函数值。上一次汇总后的权重由每一个工作机基于上一次计算使用的数据片计算得出的上一次本地权重进行汇总获得;上一次汇总后的损失函数值由每一个工作机基于上一次计算使用的数据片计算得出的上一次本地损失函数值进行汇总获得。
步骤S106,当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
在这一步骤中,例如检测结果为第一类异常,则忽略或删除每一个工作机本次计算获得的本地权重和本地损失函数值以及汇总后的当前权重和当前损失函数值,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练。
步骤S107,当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
在这一步骤中,例如检测结果是第二类异常,可以进入模型微调装置,将当前权重和/或当前损失函数值减去预设的第一阈值,获得每一个元素的数值均位于第一阈值内的当前权重和/或当前损失函数值,并输入机器学习系统进行训练。特别地,当第一次减去预设的第一阈值仍不能得到位于第一阈值内的当前权重和/或当前损失函数值时,则可以再进行一次或多次减去第一阈值的处理,直到每一个元素的数值均位于第一阈值内。
在本申请第一实施例提出的机器学习系统的训练方法中,通过使每一个工作机一次只针对一个数据片进行处理、并根据该数据片计算得出的本地权重和本地损失函数值进行汇总,达到了每一次计算后能够准确地小幅度更新权重和损失函数值的效果,避免了现有技术的在线学习中容易受到数据中噪声影响的问题。同时,在获得当前权重和/或当前损失函数值之后执行异常检测,当检测出所获得的当前权重和/或当前损失函数值属于第一类异常或第二类异常,可以抛弃本次计算出的当前权重和/或当前损失函数值,而将上一次汇总得到的权重和损失函数值输入机器学习模型,或者对本次计算出的当前权重和/或当前损失函数值进行修正,将每次计算和汇总获得的权重和损失函数值的更新限制在有效范围内,避免了模型训练的不稳定性,增强了系统抗数据噪声的能力,提升了在线学习的机器学习系统的稳定性,确保了机器学习系统的正常产出,提高了上线后的机器学习系统的服务能力。
第二实施例
本申请第二实施例提出一种机器学习系统的训练方法,如图2所示为本申请第二实施例的机器学习系统的训练方法的流程图。该机器学习系统优选为分布式机器学习系统,如图2所示,该训练方法包括如下步骤:
S201,将所述训练数据分配给多个工作机;
S202,将每一个工作机分配得到的训练数据划分为多个数据片;
S203,获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
S204,汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
S205,利用当前权重和/或当前损失函数值执行模型异常检测;
S206,当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
S207,当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
上述步骤S201至S207与第一实施例中的步骤S101至S107相同的部分在此不再赘述。
在本实施例中,步骤S205,即所述利用当前权重和/或当前损失函数值执行模型异常检测的步骤包括:
子步骤S205a,判断当前损失函数值是否大于上一次汇总后的损失函数的值的k倍;
在这一子步骤中,可以预先设置数值k,作为判定当前损失函数值是否异常的判定依据。
子步骤S205b,当判断出当前损失函数值是否大于上一次汇总后的损失函数的值的k倍时,判定所述模型异常检测的结果为第一类异常。
在这一子步骤中,当判断出当前损失函数值大于上一次汇总后的损失函数的值的k倍时,可以认为本次计算并汇总出的当前损失函数值为第一类异常,即较为严重的异常。当判断出模型出现这一类异常,则可以直接抛弃本次计算出的当前权重和当前损失函数值。
在本实施例中,步骤S205,即所述利用当前权重和/或当前损失函数值执行模型异常检测的步骤还可以包括:
子步骤S205c判断当前权重中的元素的最大值和/或最小值的绝对值是否大于预设的第二阈值;
在这一子步骤中,当前权重为包括N个元素的向量,在汇总得出当前权重后,可以判断该向量的每一个元素(即每一个维度)的最大值和/或最小值的绝对值是否大于预设的第二阈值;第二阈值可以预先指定。
子步骤S205d,当判断出当前权重中的元素的最大值和/或最小值的绝对值是否大于预设的第二阈值时,判定所述模型异常检测的结果为第二类异常。
在这一子步骤中,当判断出当前权重中的元素的最大值和最小值中的至少一者的绝对值大于预设的第二阈值时,则认为所述模型存在第二类异常,即相对较为轻微的异常。可以通过修正保留本次计算出的当前权重和当前损失函数值,将其修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
优选地,将当前权重和/或当前损失函数值修正为第一阈值内的本地权重和/或本地损失函数值的步骤可以包括:
将所述最大值和/或最小值的绝对值大于预设的第二阈值的元素减去所述第二阈值,获得每一个元素均位于所述第二阈值内的当前权重。
在本实施例中,步骤S205,即所述利用当前权重和/或当前损失函数值执行模型异常检测的步骤还可以包括:
子步骤S205e,判断前n次汇总后的损失函数值的平均值是否大于第一次汇总后的损失函数值;
在这一子步骤中,前n次汇总得出的损失函数值例如存储在特定的存储区域,可以计算前n次汇总后的损失函数值的平均值,并判断该值是否大于第一次汇总得出的损失函数值。
子步骤S205f,当判断出前n次汇总后的损失函数值的平均值大于第一次汇总后的损失函数值时,判定所述模型异常检测的结果为第一类异常。
在这一子步骤中,当判断出前n次汇总后的损失函数值的平均值大于第一次汇总后的损失函数值时,则可以认为该模型存在第一类异常,即较为严重的异常,当判断出模型出现这一类异常,则可以直接抛弃本次计算出的当前权重和当前损失函数值。
在本申请第二实施例提出的机器学习系统的训练方法中,通过使每一个工作机一次只针对一个数据片进行处理、并根据该数据片计算得出的本地权重和本地损失函数值进行汇总,达到了每一次计算后能够准确地小幅度更新权重和损失函数值的效果,避免了现有技术的在线学习中容易受到数据中噪声影响的问题。同时,在获得当前权重和/或当前损失函数值之后执行异常检测,当检测出所获得的当前权重和/或当前损失函数值属于第一类异常或第二类异常,可以抛弃本次计算出的当前权重和/或当前损失函数值,而将上一次汇总得到的权重和损失函数值输入机器学习模型,或者对本次计算出的当前权重和/或当前损失函数值进行修正,将每次计算和汇总获得的权重和损失函数值的更新限制在有效范围内,避免了模型训练的不稳定性,增强了系统抗数据噪声的能力,提升了在线学习的机器学习系统的稳定性,确保了机器学习系统的正常产出,提高了上线后的机器学习系统的服务能力。
第三实施例
本申请第三实施例提出一种机器学习系统的训练方法,如图3所示为本申请第三实施例的机器学习系统的训练方法的流程图。该机器学习系统优选为分布式机器学习系统,如图3所示,该训练方法包括如下步骤:
S301,将所述训练数据分配给多个工作机;
S302,将每一个工作机分配得到的训练数据划分为多个数据片;
S303,获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
S304,汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
S305,利用当前权重和/或当前损失函数值执行模型异常检测;
S306,当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
S307,当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
上述步骤S301至S307与第一实施例中的步骤S101至S107相同的部分在此不再赘述。
在本实施例中,在步骤S305即所述利用当前权重和/或当前损失函数值执行模型异常检测的步骤之后,所述训练方法还可以包括:
S308,当所述模型异常检测的结果为正常,将当前权重和/或当前损失函数值输入所述机器学习系统进行训练。
在这一实施例中,当检测出本次计算并汇总后的当前权重和当前损失函数值下该模型正常,则可以将当前权重和/或当前损失函数值作为有效的计算结果,输入所述机器学习系统进行训练。
进一步地,在该实施例中,在步骤S308即所述当所述模型异常检测的结果为正常,将当前权重和/或当前损失函数值输入所述机器学习系统进行训练的步骤之后,所述方法还包括:
S309,判断训练是否结束;
在该步骤中,例如,当检测到当前损失函数的值与上一次汇总后损失函数的值小于第三阈值时,判定训练结束。该第三阈值可以是系统检测到的阈值。
然而,本领域技术人员可以明确,该判断步骤并不限定于通过与差值与第三阈值的比较的方式进行,本领域还有多种验证训练是否可以结束的方法,在此不再赘述。
S310,当判定训练结束,产出所述模型;
在这一步骤中,当判断出训练结束,即该模型已可以使用,则产出该模型,例如可以使该模型上线进行应用。
S311,当判定训练未结束,重复执行获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值的步骤。
在这一步骤中,例如,当检测到当前损失函数的值与上一次汇总后损失函数的值大于第三阈值时,判定训练未结束。在此情况下,可以重复执行获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值的步骤,即让每一个工作机继续基于其他数据片计算出本地权重和本地损失函数值,并在后续汇总获得当前权重和当前损失函数值,重复该训练方法,直到获得满足使用要求的模型。
另外,在第一至第三实施例公开的方案中,优先地,在将所述训练数据分配给多个工作机的步骤之前,所述方法还包括:
获取训练数据;
将所述训练数据分配给多个工作机的步骤还包括:
按照每一个工作机的标识,将所述训练数据分配给多个工作机。
另外,在第一至第三实施例公开的方案中,优先地,所述汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值的步骤可以包括:
将每一个工作机基于每一个数据片计算出的所述本地权重相加,获得当前权重;
将每一个工作机基于每一个数据片计算出的所述本地损失函数值相加,获得当前本地损失函数。
在本申请第三实施例提出的机器学习系统的训练方法中,通过使每一个工作机一次只针对一个数据片进行处理、并根据该数据片计算得出的本地权重和本地损失函数值进行汇总,达到了每一次计算后能够准确地小幅度更新权重和损失函数值的效果,避免了现有技术的在线学习中容易受到数据中噪声影响的问题。同时,在获得当前权重和/或当前损失函数值之后执行异常检测,当检测出所获得的当前权重和/或当前损失函数值属于第一类异常或第二类异常,可以抛弃本次计算出的当前权重和/或当前损失函数值,而将上一次汇总得到的权重和损失函数值输入机器学习模型,或者对本次计算出的当前权重和/或当前损失函数值进行修正,将每次计算和汇总获得的权重和损失函数值的更新限制在有效范围内,避免了模型训练的不稳定性,增强了系统抗数据噪声的能力,提升了在线学习的机器学习系统的稳定性,确保了机器学习系统的正常产出,提高了上线后的机器学习系统的服务能力。
第四实施例
本申请第四实施例提出一种机器学习系统的训练系统,如图4是本申请第四实施例的机器学习系统的训练系统的方框图。该机器学习系统优选为分布式机器学习系统,如图4所示,该训练系统400包括:
训练数据分配模块401,用于将所述训练数据分配给多个工作机;
训练数据划分模块402,用于将每一个工作机分配得到的训练数据划分为多个数据片;
获取模块403,用于获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
汇总模块404,用于汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
异常检测模块405,用于利用当前权重和/或当前损失函数值执行模型异常检测;
第一处理模块406,用于当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
第二处理模块407,用于当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
在本申请第四实施例提出的机器学习系统的训练系统中,通过使每一个工作机一次只针对一个数据片进行处理、并根据该数据片计算得出的本地权重和本地损失函数值进行汇总,达到了每一次计算后能够准确地小幅度更新权重和损失函数值的效果,避免了现有技术的在线学习中容易受到数据中噪声影响的问题。同时,在获得当前权重和/或当前损失函数值之后执行异常检测,当检测出所获得的当前权重和/或当前损失函数值属于第一类异常或第二类异常,可以抛弃本次计算出的当前权重和/或当前损失函数值,而将上一次汇总得到的权重和损失函数值输入机器学习模型,或者对本次计算出的当前权重和/或当前损失函数值进行修正,将每次计算和汇总获得的权重和损失函数值的更新限制在有效范围内,避免了模型训练的不稳定性,增强了系统抗数据噪声的能力,提升了在线学习的机器学习系统的稳定性,确保了机器学习系统的正常产出,提高了上线后的机器学习系统的服务能力。
第五实施例
本申请第五实施例提出一种机器学习系统的训练系统,如图5是本申请第五实施例的机器学习系统的训练系统的方框图。该机器学习系统优选为分布式机器学习系统,如图5所示,该训练系统500包括:
训练数据分配模块501,用于将所述训练数据分配给多个工作机;
训练数据划分模块502,用于将每一个工作机分配得到的训练数据划分为多个数据片;
获取模块503,用于获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
汇总模块504,用于汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
异常检测模块505,用于利用当前权重和/或当前损失函数值执行模型异常检测;
第一处理模块506,用于当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
第二处理模块507,用于当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
在该实施例中,所述异常检测模块505包括:
第一判断子模块505a,用于判断当前损失函数值是否大于上一次汇总后的损失函数值的k倍;
第一判定子模块505b,用于当判断出当前损失函数值大于上一次汇总后的损失函数值的k倍时,判定所述模型异常检测的结果为第一类异常。
第二判断子模块505c,用于判断当前权重中的元素的最大值和/或最小值的绝对值是否大于预设的第二阈值;
第二判定子模块505d,用于当判断出当前权重中的元素的最大值和/或最小值的绝对值大于预设的第二阈值时,判定所述模型异常检测的结果为第二类异常。
所述异常检测模块505还包括:
第三判断子模块505e,用于判断前n次汇总后的损失函数值的平均值是否大于第一次汇总后的损失函数值;
第三判定子模块505f,用于当判断出前n次汇总后的损失函数值的平均值大于第一次汇总后的损失函数值时,判定所述模型异常检测的结果为第一类异常。
优选地,当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第二阈值内的当前权重和/或当前损失函数值的步骤包括:
将所述最大值和/或最小值的绝对值大于预设的第二阈值的元素减去所述第二阈值,获得每一个元素均位于所述第二阈值内的当前权重。
在本申请第五实施例提出的机器学习系统的训练系统中,通过使每一个工作机一次只针对一个数据片进行处理、并根据该数据片计算得出的本地权重和本地损失函数值进行汇总,达到了每一次计算后能够准确地小幅度更新权重和损失函数值的效果,避免了现有技术的在线学习中容易受到数据中噪声影响的问题。同时,在获得当前权重和/或当前损失函数值之后执行异常检测,当检测出所获得的当前权重和/或当前损失函数值属于第一类异常或第二类异常,可以抛弃本次计算出的当前权重和/或当前损失函数值,而将上一次汇总得到的权重和损失函数值输入机器学习模型,或者对本次计算出的当前权重和/或当前损失函数值进行修正,将每次计算和汇总获得的权重和损失函数值的更新限制在有效范围内,避免了模型训练的不稳定性,增强了系统抗数据噪声的能力,提升了在线学习的机器学习系统的稳定性,确保了机器学习系统的正常产出,提高了上线后的机器学习系统的服务能力。
第六实施例
本申请第六实施例提出一种机器学习系统的训练系统,如图6所示为本申请第六实施例的机器学习系统的训练系统的方框图。该机器学习系统优选为分布式机器学习系统,如图6所示,该训练系统包括:
训练数据分配模块601,用于将所述训练数据分配给多个工作机;
训练数据划分模块602,用于将每一个工作机分配得到的训练数据划分为多个数据片;
获取模块603,用于获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
汇总模块604,用于汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
异常检测模块605,用于利用当前权重和/或当前损失函数值执行模型异常检测;
第一处理模块606,用于当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
第二处理模块607,用于当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
在本实施例中,所述系统还包括:
训练模块608,用于当所述模型异常检测的结果为正常,将当前权重和/或当前损失函数值输入所述机器学习系统进行训练。
在本实施例中,所述系统还包括:
结束判定模块609,用于判断训练是否结束;
模型产出模块610,用于当判定训练结束时,产出所述模型;
返回执行模块611,用于当判定训练未结束,重复执行获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值的步骤。
在本实施例中,所述结束判定模块用于当检测到当前损失函数的值与上一次汇总后损失函数的值小于第三阈值,判定训练结束。
在本实施例中,所述系统还可以包括:
训练数据获取模块,用于获取训练数据。所述训练数据分配模块用于按照每一个工作机的标识,将所述训练数据分配给多个工作机。
优选地,所述汇总模块包括:
权重累加模块,用于将每一个工作机基于每一个数据片计算出的所述本地权重相加,获得当前权重;
损失函数值累加模块,用于将每一个工作机基于每一个数据片计算出的所述本地损失函数值相加,获得当前本地损失函数。
在本申请第六实施例提出的机器学习系统的训练系统中,通过使每一个工作机一次只针对一个数据片进行处理、并根据该数据片计算得出的本地权重和本地损失函数值进行汇总,达到了每一次计算后能够准确地小幅度更新权重和损失函数值的效果,避免了现有技术的在线学习中容易受到数据中噪声影响的问题。同时,在获得当前权重和/或当前损失函数值之后执行异常检测,当检测出所获得的当前权重和/或当前损失函数值属于第一类异常或第二类异常,可以抛弃本次计算出的当前权重和/或当前损失函数值,而将上一次汇总得到的权重和损失函数值输入机器学习模型,或者对本次计算出的当前权重和/或当前损失函数值进行修正,将每次计算和汇总获得的权重和损失函数值的更新限制在有效范围内,避免了模型训练的不稳定性,增强了系统抗数据噪声的能力,提升了在线学习的机器学习系统的稳定性,确保了机器学习系统的正常产出,提高了上线后的机器学习系统的服务能力。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本申请实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
在一个典型的配置中,所述计算机设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信号存储。信号可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信号。按照本文中的界定,计算机可读介质不包括非持续性的电脑可读媒体(transitory media),如调制的数据信号和载波。
本申请实施例是参照根据本申请实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种机器学习系统的训练方法和系统,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (20)

1.一种机器学习系统的训练方法,利用训练数据对所述机器学习系统进行训练,其特征在于,所述训练方法包括:
将所述训练数据分配给多个工作机;
将每一个工作机分配得到的训练数据划分为多个数据片;
获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
利用当前权重和当前损失函数值执行模型异常检测;
当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为小于第一阈值的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
2.如权利要求1所述的训练方法,其特征在于,所述利用当前权重和当前损失函数值执行模型异常检测的步骤包括:
判断当前损失函数值是否大于上一次汇总后的损失函数值的k倍;
当判断出当前损失函数值大于上一次汇总后的损失函数值的k倍时,判定所述模型异常检测的结果为第一类异常。
3.如权利要求1所述的训练方法,其特征在于,所述利用当前权重和当前损失函数值执行模型异常检测的步骤包括:
判断当前权重中的元素的最大值和/或最小值的绝对值是否大于预设的第二阈值;
当判断出当前权重中的元素的最大值和/或最小值的绝对值大于预设的第二阈值时,判定所述模型异常检测的结果为第二类异常。
4.如权利要求3所述的训练方法,其特征在于,当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值的步骤包括:
将所述最大值和/或最小值的绝对值大于预设的第二阈值的元素减去所述第一阈值,获得每一个元素均小于所述第一阈值的当前权重。
5.如权利要求1所述的训练方法,其特征在于,所述利用当前权重和当前损失函数值执行模型异常检测的步骤包括:
判断前n次汇总后的损失函数值的平均值是否大于第一次汇总后的损失函数值;
当判断出前n次汇总后的损失函数值的平均值大于第一次汇总后的损失函数值时,判定所述模型异常检测的结果为第一类异常。
6.如权利要求1所述的训练方法,其特征在于,所述利用当前权重和当前损失函数值执行模型异常检测的步骤之后,所述方法还包括:
当所述模型异常检测的结果为正常,将当前权重和/或当前损失函数值输入所述机器学习系统进行训练。
7.如权利要求6所述的训练方法,其特征在于,所述当所述模型异常检测的结果为正常,将当前权重和/或当前损失函数值输入所述机器学习系统进行训练的步骤之后,所述方法还包括:
判断训练是否结束;
当判定训练结束,产出所述模型;
当判定训练未结束,返回执行获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值的步骤。
8.如权利要求6所述的训练方法,其特征在于,判断训练是否结束的步骤包括:
当检测到当前损失函数的值与上一次汇总后损失函数的值小于第三阈值,判定训练结束。
9.如权利要求1所述的训练方法,其特征在于,在将所述训练数据分配给多个工作机的步骤之前,所述方法还包括:
获取训练数据;
将所述训练数据分配给多个工作机的步骤还包括:
按照每一个工作机的标识,将所述训练数据分配给多个工作机。
10.如权利要求1所述的训练方法,其特征在于,所述汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值的步骤包括:
将每一个工作机基于每一个数据片计算出的所述本地权重相加,获得当前权重;
将每一个工作机基于每一个数据片计算出的所述本地损失函数值相加,获得当前本地损失函数。
11.一种机器学习系统的训练系统,利用训练数据对所述机器学习系统进行训练,其特征在于,所述训练系统包括:
训练数据分配模块,用于将所述训练数据分配给多个工作机;
训练数据划分模块,用于将每一个工作机分配得到的训练数据划分为多个数据片;
获取模块,用于获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值;
汇总模块,用于汇总每一个工作机基于每一个数据片计算出的所述本地权重和本地损失函数值,获得当前权重和当前损失函数值;
异常检测模块,用于利用当前权重和当前损失函数值执行模型异常检测;
第一处理模块,用于当所述模型异常检测的结果为第一类异常,将上一次汇总后的权重和上一次汇总后的损失函数值输入所述机器学习系统进行训练;
第二处理模块,用于当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为小于第一阈值的当前权重和/或当前损失函数值,并输入所述机器学习系统进行训练。
12.如权利要求11所述的训练系统,其特征在于,所述异常检测模块包括:
第一判断子模块,用于判断当前损失函数值是否大于上一次汇总后的损失函数值的k倍;
第一判定子模块,用于当判断出当前损失函数值大于上一次汇总后的损失函数值的k倍时,判定所述模型异常检测的结果为第一类异常。
13.如权利要求11所述的训练系统,其特征在于,所述异常检测模块包括:
第二判断子模块,用于判断当前权重中的元素的最大值和/或最小值的绝对值是否大于预设的第二阈值;
第二判定子模块,用于当判断出当前权重中的元素的最大值和/或最小值的绝对值大于预设的第二阈值时,判定所述模型异常检测的结果为第二类异常。
14.如权利要求13所述的训练系统,其特征在于,当所述模型异常检测的结果为第二类异常,将当前权重和/或当前损失函数值修正为第一阈值内的当前权重和/或当前损失函数值的步骤包括:
将所述最大值和/或最小值的绝对值大于预设的第二阈值的元素减去所述第一阈值,获得每一个元素均小于所述第一阈值的当前权重。
15.如权利要求11所述的训练系统,其特征在于,所述异常检测模块包括:
第三判断子模块,用于判断前n次汇总后的损失函数值的平均值是否大于第一次汇总后的损失函数值;
第三判定子模块,用于当判断出前n次汇总后的损失函数值的平均值大于第一次汇总后的损失函数值时,判定所述模型异常检测的结果为第一类异常。
16.如权利要求11所述的训练系统,其特征在于,所述训练系统还包括:
训练模块,用于当所述模型异常检测的结果为正常,将当前权重和/或当前损失函数值输入所述机器学习系统进行训练。
17.如权利要求16所述的训练系统,其特征在于,所述训练系统还包括:
结束判定模块,用于判断训练是否结束;
模型产出模块,用于当判定训练结束时,产出所述模型;
返回执行模块,用于当判定训练未结束,重复执行获取每一个工作机基于每一个数据片计算出的本地权重和本地损失函数值的步骤。
18.如权利要求17所述的训练系统,其特征在于,所述结束判定模块用于:
当检测到当前损失函数的值与上一次汇总后损失函数的值小于第三阈值,判定训练结束。
19.如权利要求11所述的训练系统,其特征在于,所述训练系统还包括:
训练数据获取模块,用于获取训练数据;
所述训练数据分配模块用于按照每一个工作机的标识,将所述训练数据分配给多个工作机。
20.如权利要求11所述的训练系统,其特征在于,所述汇总模块包括:
权重累加模块,用于将每一个工作机基于每一个数据片计算出的所述本地权重相加,获得当前权重;
损失函数值累加模块,用于将每一个工作机基于每一个数据片计算出的所述本地损失函数值相加,获得当前本地损失函数。
CN201610125904.6A 2016-03-04 2016-03-04 一种机器学习系统的训练方法和训练系统 Active CN107153630B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201610125904.6A CN107153630B (zh) 2016-03-04 2016-03-04 一种机器学习系统的训练方法和训练系统
TW106104648A TWI740896B (zh) 2016-03-04 2017-02-13 機器學習系統的訓練方法和訓練系統
JP2018546445A JP7004661B2 (ja) 2016-03-04 2017-02-21 機械学習システムのトレーニング方法及びトレーニングシステム
PCT/CN2017/074318 WO2017148314A1 (zh) 2016-03-04 2017-02-21 一种机器学习系统的训练方法和训练系统
EP17759165.8A EP3425527A4 (en) 2016-03-04 2017-02-21 METHOD FOR DRIVING MACHINE LEARNING SYSTEM, AND DRIVE SYSTEM
US16/119,585 US11257005B2 (en) 2016-03-04 2018-08-31 Training method and training system for machine learning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610125904.6A CN107153630B (zh) 2016-03-04 2016-03-04 一种机器学习系统的训练方法和训练系统

Publications (2)

Publication Number Publication Date
CN107153630A CN107153630A (zh) 2017-09-12
CN107153630B true CN107153630B (zh) 2020-11-06

Family

ID=59743465

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610125904.6A Active CN107153630B (zh) 2016-03-04 2016-03-04 一种机器学习系统的训练方法和训练系统

Country Status (6)

Country Link
US (1) US11257005B2 (zh)
EP (1) EP3425527A4 (zh)
JP (1) JP7004661B2 (zh)
CN (1) CN107153630B (zh)
TW (1) TWI740896B (zh)
WO (1) WO2017148314A1 (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754105B (zh) 2017-11-07 2024-01-05 华为技术有限公司 一种预测方法及终端、服务器
US10114857B1 (en) 2017-11-13 2018-10-30 Lendingclub Corporation Techniques for performing multi-system computer operations
US11354301B2 (en) 2017-11-13 2022-06-07 LendingClub Bank, National Association Multi-system operation audit log
CN107944990A (zh) * 2017-12-29 2018-04-20 山大地纬软件股份有限公司 一种基于机器学习的精准化推送的综合柜员装置及方法
CN108875776B (zh) * 2018-05-02 2021-08-20 北京三快在线科技有限公司 模型训练方法和装置、业务推荐的方法和装置、电子设备
CN110689133B (zh) * 2018-06-20 2023-09-05 深信服科技股份有限公司 一种训练机器学习引擎的方法、系统及相关装置
CN109902167B (zh) * 2018-12-04 2020-09-01 阿里巴巴集团控股有限公司 嵌入结果的解释方法和装置
US12039458B2 (en) * 2019-01-10 2024-07-16 Visa International Service Association System, method, and computer program product for incorporating knowledge from more complex models in simpler models
CN111507483A (zh) * 2019-01-30 2020-08-07 鸿富锦精密电子(天津)有限公司 返修板检测装置、方法及计算机可读存储介质
CN110084380A (zh) * 2019-05-10 2019-08-02 深圳市网心科技有限公司 一种迭代训练方法、设备、系统及介质
CN110263294B (zh) * 2019-05-23 2020-08-04 阿里巴巴集团控股有限公司 损失函数取值的确定方法、装置和电子设备
US10956597B2 (en) 2019-05-23 2021-03-23 Advanced New Technologies Co., Ltd. Loss function value determination method and device and electronic equipment
US11392796B2 (en) 2019-08-20 2022-07-19 Micron Technology, Inc. Feature dictionary for bandwidth enhancement
US11755884B2 (en) 2019-08-20 2023-09-12 Micron Technology, Inc. Distributed machine learning with privacy protection
CN110837657B (zh) * 2019-11-06 2023-03-14 腾讯云计算(北京)有限责任公司 数据处理方法、客户端、服务器及存储介质
CN111159961B (zh) * 2019-12-13 2024-02-02 杭州广立微电子股份有限公司 一种基于曲线数据的异常检测方法及系统
CN114067379A (zh) * 2020-07-28 2022-02-18 北京君正集成电路股份有限公司 一种人脸角度检测模型训练中损失函数的设计方法
CN111881983B (zh) * 2020-07-30 2024-05-28 平安科技(深圳)有限公司 基于分类模型的数据处理方法、装置、电子设备及介质
CN112527631A (zh) * 2020-11-18 2021-03-19 武汉迈威通信股份有限公司 bug定位方法、系统、电子设备及存储介质
US11310563B1 (en) * 2021-01-07 2022-04-19 Dish Network L.L.C. Searching for and prioritizing audiovisual content using the viewer's age
CN113298127B (zh) * 2021-05-12 2024-08-06 深圳前海微众银行股份有限公司 训练异常检测模型的方法及电子设备
CN113378914B (zh) * 2021-06-08 2023-06-30 上海壁仞智能科技有限公司 虚假关联性去除方法及装置
CN114021464A (zh) * 2021-11-09 2022-02-08 京东科技信息技术有限公司 数据处理方法、装置和存储介质
CN114282624B (zh) * 2021-12-29 2024-07-19 北京天融信网络安全技术有限公司 对象标注方法、装置、设备及介质
CN114970864A (zh) * 2022-04-29 2022-08-30 珠高智能科技(深圳)有限公司 模型更新方法、装置、电子设备及存储介质
CN115972214B (zh) * 2023-02-28 2025-04-04 广东电网有限责任公司 绑扎作业机器人控制方法、装置、机器人和存储介质
CN117668719B (zh) * 2023-11-14 2024-08-16 深圳大学 一种自适应阈值的隧道监测数据异常检测方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344590A (ja) 2000-05-31 2001-12-14 Fuji Electric Co Ltd ニューラルネットワーク及びその学習方法、解析方法並びに異常判定方法
KR100640264B1 (ko) * 2002-03-02 2007-02-28 김용대 앙상블 모형을 이용한 데이터 마이닝 모형 구축 장치 및그 방법
US7467118B2 (en) * 2006-01-12 2008-12-16 Entelos Inc. Adjusted sparse linear programming method for classifying multi-dimensional biological data
US20070233679A1 (en) * 2006-04-03 2007-10-04 Microsoft Corporation Learning a document ranking function using query-level error measurements
JP2009288933A (ja) 2008-05-28 2009-12-10 Sony Corp 学習装置、学習方法、及びプログラム
JP5206197B2 (ja) 2008-07-28 2013-06-12 富士通株式会社 規則学習方法、プログラム及び装置
JP5584914B2 (ja) 2010-07-15 2014-09-10 株式会社日立製作所 分散計算システム
CN102176698A (zh) * 2010-12-20 2011-09-07 北京邮电大学 一种基于迁移学习的用户异常行为检测方法
CN102737126B (zh) * 2012-06-19 2014-03-12 合肥工业大学 云计算环境下的分类规则挖掘方法
TWI474673B (zh) * 2012-12-06 2015-02-21 Inst Information Industry 工作負載分配裝置及其工作負載分配方法
CN104077306B (zh) * 2013-03-28 2018-05-11 阿里巴巴集团控股有限公司 一种搜索引擎的结果排序方法及系统
CN103425996B (zh) * 2013-08-01 2017-08-25 华南理工大学 一种并行分布式的大规模图像识别方法
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
CN104008420A (zh) * 2014-05-26 2014-08-27 中国科学院信息工程研究所 一种基于自动编码机的分布式离群点检测方法及系统
CN105187411B (zh) * 2015-08-18 2018-09-14 福建省海峡信息技术有限公司 一种分布式异常检测网络数据流的方法
US11087234B2 (en) 2016-01-29 2021-08-10 Verizon Media Inc. Method and system for distributed deep machine learning

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A parallel genetic local search algorithm for intrusion detection;Mohammad Saniee Abadeh等;《Engineering Applications of Artificial Intelligence》;20071031;第20卷(第8期);1058-1069 *
Robust Distributed Training of Linear Classifiers Based on Divergence Minimization Principle;Junpei Komiyama等;《ECML PKDD 2014: Machine Learning and Knowledge Discovery in Databases》;20141231;1-17 *
基于BSP模型的并行神经网络训练算法;谭煜东等;《计算机工程》;20020131;第28卷(第1期);59-61 *

Also Published As

Publication number Publication date
EP3425527A4 (en) 2019-11-27
EP3425527A1 (en) 2019-01-09
US20180365595A1 (en) 2018-12-20
JP7004661B2 (ja) 2022-01-21
JP2019507442A (ja) 2019-03-14
TWI740896B (zh) 2021-10-01
US11257005B2 (en) 2022-02-22
CN107153630A (zh) 2017-09-12
TW201734871A (zh) 2017-10-01
WO2017148314A1 (zh) 2017-09-08

Similar Documents

Publication Publication Date Title
CN107153630B (zh) 一种机器学习系统的训练方法和训练系统
KR102192863B1 (ko) 정보 권고 방법 및 장치
JP6841910B2 (ja) ユーザー異常行動検出方法、装置及びシステム
CN106355431B (zh) 作弊流量检测方法、装置及终端
CN104951465B (zh) 应用推荐方法及装置
CN110743169B (zh) 基于区块链的防作弊方法及系统
CN106651417B (zh) 广告投放信息的分析方法及装置
CN113641526A (zh) 告警根因定位方法、装置、电子设备及计算机存储介质
CN109726068A (zh) 一种数据检测方法及装置
CN108366274B (zh) 一种刷播放量的检测方法和装置
CN110955846A (zh) 传播路径图生成方法及装置
Yu Image noise preprocessing of interactive projection system based on switching filtering scheme
CN109600245B (zh) 服务器自动配置方法及装置
CN105653550A (zh) 网页过滤方法和装置
CN110889065B (zh) 页面停留时长确定方法、装置与设备
CN110633804B (zh) 金融产品进件评价方法、服务器和存储介质
CN107123032B (zh) 一种物品推荐方法及装置
CN112036974A (zh) 一种服务商品上线方法、装置、设备和存储介质
CN108171559B (zh) 一种用户等级处理、目标对象推送方法和设备
CN110580265A (zh) Etl任务的处理方法、装置、设备及存储介质
CN108255892B (zh) Cookie生命周期的计算方法及装置
CN111104107A (zh) 一种用户界面生成方法、测试方法及装置
CN110969181A (zh) 数据推送方法及装置
CN110968754A (zh) 一种爬虫翻页策略的检测方法及装置
CN110968758B (zh) 网页数据的爬取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211105

Address after: Room 507, floor 5, building 3, No. 969, Wenyi West Road, Wuchang Street, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: ZHEJIANG TMALL TECHNOLOGY Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Patentee before: ALIBABA GROUP HOLDING Ltd.