JP6558188B2 - 分散処理システム、学習モデル作成方法、データ処理方法、学習モデル作成プログラムおよびデータ処理プログラム - Google Patents
分散処理システム、学習モデル作成方法、データ処理方法、学習モデル作成プログラムおよびデータ処理プログラム Download PDFInfo
- Publication number
- JP6558188B2 JP6558188B2 JP2015195302A JP2015195302A JP6558188B2 JP 6558188 B2 JP6558188 B2 JP 6558188B2 JP 2015195302 A JP2015195302 A JP 2015195302A JP 2015195302 A JP2015195302 A JP 2015195302A JP 6558188 B2 JP6558188 B2 JP 6558188B2
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- data
- update
- timing information
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 68
- 238000000034 method Methods 0.000 title claims description 50
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000010586 diagram Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 2
- 238000010923 batch production Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Debugging And Monitoring (AREA)
Description
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図6は、プログラムを実行するコンピュータを示す図である。
2 ネットワーク
10 サーバ装置
11 データ分配部
20 学習モデル作成装置
21 データ記憶部
22 学習モデル作成部
23 タイミング情報更新部
30 学習モデル記憶装置
31 学習モデル記憶部
40、40−1〜40−n ノード
41 切替部
42−1 第1の学習モデル記憶部
42−2 第2の学習モデル記憶部
43 予測部
Claims (7)
- 割り当てられたデータをバッファへ格納し、前記バッファに格納した所定数のデータ単位で当該データに学習モデルを適用して当該データのタイムスタンプを基準とした所定時間内に当該データを処理する複数のノードと、
データを前記複数のノードに分配して割り当てる分配部と、
入力データをもとに更新用の学習モデルを作成し、該更新用の学習モデルを前記複数のノードへ送信する学習モデル更新部と、
前記学習モデル更新部により前記複数のノードへ送信された前記更新用の学習モデルと対応する、該更新用の学習モデルの適用対象であるデータのタイムスタンプに関する適用タイミング情報を前記複数のノードへ送信する適用タイミング情報配布部と、
を有し、
前記複数のノードは、前記学習モデル更新部から前記更新用の学習モデルを受信し、前記適用タイミング情報配布部から前記適用タイミング情報を受信すると、前記適用タイミング情報より前のタイミングに対応するデータには更新前の学習モデルを適用し、前記適用タイミング情報より以後のタイミングに対応するデータには前記更新用の学習モデルを適用する
ことを特徴とする分散処理システム。 - 前記適用タイミング情報配布部は、前記適用タイミング情報を、前記分配部が前記ノードに分配するデータとともに送信する
ことを特徴とする請求項1に記載の分散処理システム。 - 前記複数のノードそれぞれは、前記更新用の学習モデルを、データの不可分性およびデータの一貫性を有する分散ファイルシステムから読み出す
ことを特徴とする請求項1に記載の分散処理システム。 - コンピュータが、
入力データをもとに更新用の学習モデルを作成し、該更新用の学習モデルを、データに学習モデルを適用して当該データのタイムスタンプを基準とした所定時間内に当該データを処理する複数のノードへ送信し、
前記複数のノードへ送信された前記更新用の学習モデルと対応する、該更新用の学習モデルの適用対象であるデータのタイムスタンプに関する適用タイミング情報を前記複数のノードへ送信する
各処理を実行することを特徴とする学習モデル作成方法。 - コンピュータが、
受信データをバッファへ格納し、前記バッファに格納した所定数の受信データ単位で当該受信データに学習モデルを適用して当該受信データのタイムスタンプを基準とした所定時間内に当該受信データを処理し、
更新用の学習モデルと、該更新用の学習モデルと対応する、該更新用の学習モデルの適用対象である受信データのタイムスタンプに関する適用タイミング情報とを受信し、
前記適用タイミング情報より前のタイミングに対応する受信データには更新前の学習モデルを適用し、前記適用タイミング情報より以後のタイミングに対応する受信データには前記更新用の学習モデルを適用するように、受信データに適用する学習モデルを切り替える
各処理を実行することを特徴とするデータ処理方法。 - コンピュータに、
入力データをもとに更新用の学習モデルを作成し、該更新用の学習モデルを、データに学習モデルを適用して当該データのタイムスタンプを基準とした所定時間内に当該データを処理する複数のノードへ送信し、
前記複数のノードへ送信された前記更新用の学習モデルと対応する、該更新用の学習モデルの適用対象であるデータのタイムスタンプに関する適用タイミング情報を前記複数のノードへ送信する
各処理を実行させることを特徴とする学習モデル作成プログラム。 - コンピュータに、
受信データをバッファへ格納し、前記バッファに格納した所定数の受信データ単位で当該受信データに学習モデルを適用して当該受信データのタイムスタンプを基準とした所定時間内に当該受信データを処理し、
更新用の学習モデルと、該更新用の学習モデルと対応する、該更新用の学習モデルの適用対象である受信データのタイムスタンプに関する適用タイミング情報とを受信し、
前記適用タイミング情報より前のタイミングに対応する受信データには更新前の学習モデルを適用し、前記適用タイミング情報より以後のタイミングに対応する受信データには前記更新用の学習モデルを適用するように、受信データに適用する学習モデルを切り替える
各処理を実行させることを特徴とするデータ処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015195302A JP6558188B2 (ja) | 2015-09-30 | 2015-09-30 | 分散処理システム、学習モデル作成方法、データ処理方法、学習モデル作成プログラムおよびデータ処理プログラム |
US15/251,729 US20170091669A1 (en) | 2015-09-30 | 2016-08-30 | Distributed processing system, learning model creating method and data processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015195302A JP6558188B2 (ja) | 2015-09-30 | 2015-09-30 | 分散処理システム、学習モデル作成方法、データ処理方法、学習モデル作成プログラムおよびデータ処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017068710A JP2017068710A (ja) | 2017-04-06 |
JP6558188B2 true JP6558188B2 (ja) | 2019-08-14 |
Family
ID=58409654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015195302A Expired - Fee Related JP6558188B2 (ja) | 2015-09-30 | 2015-09-30 | 分散処理システム、学習モデル作成方法、データ処理方法、学習モデル作成プログラムおよびデータ処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170091669A1 (ja) |
JP (1) | JP6558188B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7267044B2 (ja) * | 2019-03-15 | 2023-05-01 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | データ処理装置、データ処理方法及びデータ処理プログラム |
KR102434460B1 (ko) * | 2019-07-26 | 2022-08-22 | 한국전자통신연구원 | 기계학습 기반 예측 모델 재학습 장치 및 그 방법 |
KR102215978B1 (ko) * | 2019-09-17 | 2021-02-16 | 주식회사 라인웍스 | 블록체인망 상 비동기 분산 병렬형 앙상블 모델 학습 및 추론 시스템 및 그 방법 |
KR102377628B1 (ko) * | 2019-11-07 | 2022-03-24 | 한국전자통신연구원 | 인공지능 서비스에 대한 성능 관리 장치 및 방법 |
KR102283523B1 (ko) * | 2019-12-16 | 2021-07-28 | 박병훈 | 인공지능 서비스를 제공하기 위한 방법 |
CN110958472A (zh) * | 2019-12-16 | 2020-04-03 | 咪咕文化科技有限公司 | 视频点击量评级预测方法、装置、电子设备及存储介质 |
KR102433431B1 (ko) * | 2020-08-07 | 2022-08-19 | 주식회사 에이젠글로벌 | 이종 데이터를 이용한 향상된 예측 시스템 및 예측 방법 |
JP7567297B2 (ja) | 2020-09-01 | 2024-10-16 | 株式会社富士通ゼネラル | 選択プログラム、情報処理装置および制御方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8234395B2 (en) * | 2003-07-28 | 2012-07-31 | Sonos, Inc. | System and method for synchronizing operations among a plurality of independently clocked digital data processing devices |
US7231399B1 (en) * | 2003-11-14 | 2007-06-12 | Google Inc. | Ranking documents based on large data sets |
US20070220034A1 (en) * | 2006-03-16 | 2007-09-20 | Microsoft Corporation | Automatic training of data mining models |
JP5584914B2 (ja) * | 2010-07-15 | 2014-09-10 | 株式会社日立製作所 | 分散計算システム |
US9286574B2 (en) * | 2013-11-04 | 2016-03-15 | Google Inc. | Systems and methods for layered training in machine-learning architectures |
US20150242760A1 (en) * | 2014-02-21 | 2015-08-27 | Microsoft Corporation | Personalized Machine Learning System |
US9984337B2 (en) * | 2014-10-08 | 2018-05-29 | Nec Corporation | Parallelized machine learning with distributed lockless training |
WO2016122659A1 (en) * | 2015-01-30 | 2016-08-04 | Hitachi, Ltd. | Performance monitoring at edge of communication networks |
WO2016151637A1 (ja) * | 2015-03-26 | 2016-09-29 | 日本電気株式会社 | 学習モデル生成システム、方法およびプログラム |
US20160358099A1 (en) * | 2015-06-04 | 2016-12-08 | The Boeing Company | Advanced analytical infrastructure for machine learning |
US9699205B2 (en) * | 2015-08-31 | 2017-07-04 | Splunk Inc. | Network security system |
-
2015
- 2015-09-30 JP JP2015195302A patent/JP6558188B2/ja not_active Expired - Fee Related
-
2016
- 2016-08-30 US US15/251,729 patent/US20170091669A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20170091669A1 (en) | 2017-03-30 |
JP2017068710A (ja) | 2017-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6558188B2 (ja) | 分散処理システム、学習モデル作成方法、データ処理方法、学習モデル作成プログラムおよびデータ処理プログラム | |
US10924535B2 (en) | Resource load balancing control method and cluster scheduler | |
US9235801B2 (en) | Managing computer server capacity | |
CN107025205B (zh) | 一种分布式系统中的训练模型的方法及设备 | |
US20200026538A1 (en) | Machine learning prediction of virtual computing instance transfer performance | |
CN112740290A (zh) | 多阶段云服务节点错误预测 | |
JP2014123365A (ja) | MapReduceフレームワークにおけるデータ処理の最適化のためのデバイスおよび方法 | |
KR102215978B1 (ko) | 블록체인망 상 비동기 분산 병렬형 앙상블 모델 학습 및 추론 시스템 및 그 방법 | |
US12206595B2 (en) | Enhanced redeploying of computing resources | |
WO2017106997A1 (en) | Techniques for co-migration of virtual machines | |
US9141677B2 (en) | Apparatus and method for arranging query | |
US9170853B2 (en) | Server device, computer-readable storage medium, and method of assuring data order | |
US9535743B2 (en) | Data processing control method, computer-readable recording medium, and data processing control device for performing a Mapreduce process | |
JPWO2014020959A1 (ja) | 分散処理装置及び分散処理システム並びに分散処理方法 | |
US20140195861A1 (en) | Implementing rate controls to limit timeout-based faults | |
CN112527470B (zh) | 用于预测性能指标的模型训练方法、装置及可读存储介质 | |
Tran et al. | Proactive stateful fault-tolerant system for kubernetes containerized services | |
US9582189B2 (en) | Dynamic tuning of memory in MapReduce systems | |
CN113535399A (zh) | 一种nfv资源调度方法、装置以及系统 | |
US11562270B2 (en) | Straggler mitigation for iterative machine learning via task preemption | |
US20170359426A1 (en) | Method and apparatus for detecting network service | |
Yoginath et al. | Parallel vehicular traffic simulation using reverse computation-based optimistic execution | |
Ibrahim et al. | Improving mapreduce performance with progress and feedback based speculative execution | |
US9479437B1 (en) | Efficient updates of weighted cost multipath (WCMP) groups | |
Ovalle et al. | Distributed Cache Strategies for Machine Learning Classification Tasks over Cluster Computing Resources |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6558188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |