KR102194280B1 - Dnn의 분산 훈련 시스템 및 분산 훈련 방법 - Google Patents
Dnn의 분산 훈련 시스템 및 분산 훈련 방법 Download PDFInfo
- Publication number
- KR102194280B1 KR102194280B1 KR1020160125105A KR20160125105A KR102194280B1 KR 102194280 B1 KR102194280 B1 KR 102194280B1 KR 1020160125105 A KR1020160125105 A KR 1020160125105A KR 20160125105 A KR20160125105 A KR 20160125105A KR 102194280 B1 KR102194280 B1 KR 102194280B1
- Authority
- KR
- South Korea
- Prior art keywords
- training
- data
- weight
- server
- distributed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 32
- 230000006870 function Effects 0.000 description 12
- 230000010354 integration Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000013518 transcription Methods 0.000 description 4
- 230000035897 transcription Effects 0.000 description 4
- 238000013499 data model Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000009223 counseling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 분산 훈련 시스템을 도시하는 도면이다.
도 3은 분류 서버에 의해 수행되는 과정을 설명하기 위한 의사 코드를 나타내는 도면이다.
도 4는 제어 서버에 의해 수행되는 과정을 설명하기 위한 의사 코드를 나타내는 도면이다.
도 5는 통합 서버에 의해 수행되는 과정을 설명하기 위한 의사 코드를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 분산 훈련 방법을 설명하기 위한 순서도이다.
210: 분류 서버
230: 제어 서버
250: 훈련 서버
270: 통합 서버
Claims (12)
- 분산 훈련 시스템에 의한 DNN (Deep Neural Network)의 분산 훈련 방법에 있어서,
훈련 데이터를 복수의 데이터 그룹으로 클러스터링하는 단계;
상기 복수의 데이터 그룹 각각에 포함된 데이터의 양에 기초하여, 상기 복수의 데이터 그룹 각각에 대응하는 훈련 파라미터를 설정하는 단계;
복수의 훈련 서버를 통해 상기 복수의 데이터 그룹 및 상기 설정된 훈련 파라미터를 이용하여 복수의 서브 DNN을 훈련하는 단계; 및
상기 훈련 결과에 따라 상기 복수의 훈련 서버 각각에서 도출되는 복수의 서브 DNN의 웨이트 매트릭스를 통합하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 클러스터링하는 단계는,
상기 훈련 데이터의 특성에 따라 상기 훈련 데이터를 복수의 데이터 그룹으로 클러스터링하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 클러스터링하는 단계는,
상기 데이터 그룹의 개수가 상기 훈련 서버의 개수와 동일하도록 상기 훈련 데이터를 클러스터링하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 훈련 파라미터는,
데이터 그룹을 이용하여 서브 DNN을 훈련하는 동안의 웨이트 변화율 및 에포크(epoch) 횟수 중 적어도 하나를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제4항에 있어서,
상기 훈련 파라미터를 설정하는 단계는,
각 데이터 그룹에 포함된 데이터의 양이 많을수록 상기 웨이트 변화율을 크게 설정하고, 상기 에포크 횟수는 작게 설정하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제4항에 있어서,
상기 훈련 파라미터를 설정하는 단계는,
상기 웨이트 변화율을 하기의 수학식 1에 따라 결정하되,
[수학식 1]
η[i] = L * softmaxN[i]
상기 i는 각 데이터 그룹의 인덱스, η은 웨이트 변화율, L은 기 설정된 초기 웨이트 변화율, softmaxN은 각 데이터 그룹에 포함된 데이터의 양을 나타내는 것을 특징으로 하는 분산 훈련 방법.
- 제4항에 있어서,
상기 훈련 파라미터를 설정하는 단계는,
상기 에포크 횟수를 하기의 수학식 2에 따라 결정하되,
[수학식 2]
E[i] = M / softmaxN[i]
상기 i는 각 데이터 그룹의 인덱스, E는 에포크 횟수, M은 기 설정된 초기 에포크 횟수, softmaxN은 각 데이터 그룹에 포함된 데이터의 양을 나타내는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 웨이트 매트릭스를 통합하는 단계는,
상기 복수의 훈련 서버 각각에서 도출되는 웨이트 매트릭스에 각 데이터 그룹에 포함된 데이터의 양에 기초하여 설정된 가중치를 적용한 후, 가중치가 적용된 웨이트 매트릭스를 통합하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제8항에 있어서,
상기 통합된 웨이트 매트릭스는 하기의 수학식 3에 기초하여 계산되되,
[수학식 3]
Wt = (W[0]*a[o]+W[1]*a[1]+ … +W[N]*a[N]) / N
상기 Wt는 통합된 웨이트 매트릭스, W[i]는 i 데이터 그룹을 훈련한 훈련 서버에서 도출된 웨이트 매트릭스, a[i]는 i 데이터 그룹에 포함된 데이터의 양에 기초하여 설정된 가중치, N은 데이터 그룹의 개수를 의미하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 분산 훈련 방법은,
다음 에포크를 위해 상기 통합된 웨이트 매트릭스를 상기 복수의 훈련 서버 각각에 설정하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 분산 훈련 방법은,
전체 에포크가 완료됨으로써 최종적으로 도출되는 통합 웨이트 매트릭스를 최종 DNN에 설정하는 단계를 더 포함하는 것을 특징으로 하는 분산 훈련 방법.
- DNN (Deep Neural Network)의 분산 훈련 시스템에 있어서,
훈련 데이터를 복수의 데이터 그룹으로 클러스터링하는 분류 서버;
상기 복수의 데이터 그룹 각각에 포함된 데이터의 양에 기초하여, 상기 복수의 데이터 그룹 각각에 대응하는 훈련 파라미터를 설정하는 제어 서버;
상기 복수의 데이터 그룹 및 상기 설정된 훈련 파라미터를 이용하여 복수의 서브 DNN을 훈련하는 복수의 훈련 서버; 및
상기 훈련 결과에 따라 상기 복수의 훈련 서버 각각에서 도출되는 복수의 서브 DNN의 웨이트 매트릭스를 통합하는 통합 서버를 포함하는 것을 특징으로 하는 분산 훈련 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160125105A KR102194280B1 (ko) | 2016-09-28 | 2016-09-28 | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160125105A KR102194280B1 (ko) | 2016-09-28 | 2016-09-28 | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180035073A KR20180035073A (ko) | 2018-04-05 |
KR102194280B1 true KR102194280B1 (ko) | 2020-12-22 |
Family
ID=61977432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160125105A Active KR102194280B1 (ko) | 2016-09-28 | 2016-09-28 | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102194280B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240152640A (ko) | 2023-04-13 | 2024-10-22 | 경희대학교 산학협력단 | 계층적 모바일 네트워크에서 기계학습 방법, 컴퓨터 장치 및 프로그램 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105006B (zh) * | 2018-10-26 | 2023-08-04 | 杭州海康威视数字技术股份有限公司 | 一种深度学习网络训练系统及方法 |
KR102811042B1 (ko) * | 2018-11-26 | 2025-05-23 | 삼성전자주식회사 | 다이어딕 매트릭스 형태의 웨이트를 이용해 뉴럴 네트워크를 가속하는 장치 및 그것의 동작 방법 |
KR102729685B1 (ko) | 2019-03-26 | 2024-11-13 | 한국전자통신연구원 | 심층 신경망 분할 방법 및 장치 |
US12321852B2 (en) * | 2020-12-26 | 2025-06-03 | International Business Machines Corporation | Filtering hidden matrix training DNN |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299059A (ja) | 2006-04-27 | 2007-11-15 | Matsushita Electric Works Ltd | 信号識別方法 |
JP2012022558A (ja) | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
JP2013073301A (ja) | 2011-09-27 | 2013-04-22 | Hitachi Ltd | 分散計算機システム及び分散計算機システムの制御方法 |
US20150193695A1 (en) | 2014-01-06 | 2015-07-09 | Cisco Technology, Inc. | Distributed model training |
US20160125316A1 (en) | 2014-10-08 | 2016-05-05 | Nec Laboratories America, Inc. | MALT: Distributed Data-Parallelism for Existing ML Applications |
-
2016
- 2016-09-28 KR KR1020160125105A patent/KR102194280B1/ko active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299059A (ja) | 2006-04-27 | 2007-11-15 | Matsushita Electric Works Ltd | 信号識別方法 |
JP2012022558A (ja) | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
JP2013073301A (ja) | 2011-09-27 | 2013-04-22 | Hitachi Ltd | 分散計算機システム及び分散計算機システムの制御方法 |
US20150193695A1 (en) | 2014-01-06 | 2015-07-09 | Cisco Technology, Inc. | Distributed model training |
US20160125316A1 (en) | 2014-10-08 | 2016-05-05 | Nec Laboratories America, Inc. | MALT: Distributed Data-Parallelism for Existing ML Applications |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240152640A (ko) | 2023-04-13 | 2024-10-22 | 경희대학교 산학협력단 | 계층적 모바일 네트워크에서 기계학습 방법, 컴퓨터 장치 및 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
KR20180035073A (ko) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102194280B1 (ko) | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 | |
EP3966816B1 (en) | Large-scale multilingual speech recognition with a streaming end-to-end model | |
Lozano-Diez et al. | An analysis of the influence of deep neural network (DNN) topology in bottleneck feature based language recognition | |
US11275991B2 (en) | Coordinated heterogeneous processing of training data for deep neural networks | |
US20200151253A1 (en) | Intent discovery with a prototype classifier | |
US20200151254A1 (en) | Processing communications using a prototype classifier | |
US10726326B2 (en) | Learning of neural network | |
US20140088964A1 (en) | Exemplar-Based Latent Perceptual Modeling for Automatic Speech Recognition | |
US20220180206A1 (en) | Knowledge distillation using deep clustering | |
US11763084B2 (en) | Automatic formulation of data science problem statements | |
WO2014035738A1 (en) | Computer-implemented deep tensor neural network | |
US20200210780A1 (en) | Agile video query using ensembles of deep neural networks | |
US11748393B2 (en) | Creating compact example sets for intent classification | |
US11928182B1 (en) | Artificial intelligence system supporting semi-supervised learning with iterative stacking | |
EP3655862B1 (en) | Multiscale quantization for fast similarity search | |
KR20190136578A (ko) | 음성 인식 방법 및 장치 | |
Moriya et al. | Evolution-strategy-based automation of system development for high-performance speech recognition | |
Mirhassani et al. | Age Estimation Based on Children’s Voice: A Fuzzy‐Based Decision Fusion Strategy | |
CN118278534A (zh) | 一种生成模型的方法及装置 | |
US11942070B2 (en) | Voice cloning transfer for speech synthesis | |
US6789063B1 (en) | Acoustic modeling using a two-level decision tree in a speech recognition system | |
CN118886915A (zh) | 多渠道多语言全自动化智能化客服服务交互管理系统 | |
JP2015230455A (ja) | 音声分類装置、音声分類方法、プログラム | |
CN113792819B (zh) | 一种基于多任务模型的节点可复用智能外呼方法及系统 | |
JP5610304B2 (ja) | モデルパラメータ配列装置とその方法とプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160928 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20190715 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20160928 Comment text: Patent Application |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20200915 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20201216 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20201217 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20231129 Start annual number: 4 End annual number: 4 |