JP7617724B2 - MODEL LEARNING METHOD, MODEL LEARNING SYSTEM, SERVER DEVICE, AND COMPU - Google Patents
MODEL LEARNING METHOD, MODEL LEARNING SYSTEM, SERVER DEVICE, AND COMPU Download PDFInfo
- Publication number
- JP7617724B2 JP7617724B2 JP2020186617A JP2020186617A JP7617724B2 JP 7617724 B2 JP7617724 B2 JP 7617724B2 JP 2020186617 A JP2020186617 A JP 2020186617A JP 2020186617 A JP2020186617 A JP 2020186617A JP 7617724 B2 JP7617724 B2 JP 7617724B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- model
- local
- nodes
- global model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
- Machine Translation (AREA)
Description
本発明は、分散学習の実用化のためのモデル学習方法、モデル学習システム、サーバ装置、及びコンピュータプログラムに関する。 The present invention relates to a model learning method, a model learning system, a server device, and a computer program for the practical application of distributed learning.
深層学習に基づく学習モデルを用いた判定、認識等が実用化されている。学習モデルは多様な技術分野で活用できることが確認されている。学習モデルの精度を各種分野で実用化できる程度に向上するために膨大なトレーニングデータを用いたとしてもパラメータの収束に長時間を要し、精度が良くなるとも限らない。 Judgment, recognition, etc. using learning models based on deep learning have been put to practical use. It has been confirmed that learning models can be used in a variety of technical fields. Even if a huge amount of training data is used to improve the accuracy of the learning models to a level that makes them practical for use in various fields, it takes a long time for the parameters to converge, and there is no guarantee that the accuracy will improve.
特許文献1には、学習対象の学習モデルのレプリカを複数用意し、それらの複数のモデルレプリカが、非同期で独自に学習する方法が開示されている。特許文献1では、パラメータサーバが複数に断片化されており、学習モデルの複数のレプリカが夫々、非同期で、断片化されたパラメータサーバからパラメータを取得して学習し、パラメータを各パラメータサーバへ返すことを繰り返す。このような分散処理により、学習モデルのパラメータが早期に収束するとされている。
特許文献1に開示されているような分散処理による深層学習の方法であっても、トレーニングデータは集約している。しかしながら、医療、金融、認証といった分野のデータは個人データであって機密性が高い。モデルの精度を高めるためにトレーニングデータとしてデータを集約するためには、データの提供に各個人の同意が必要である上、同意が得られたとしてもデータ管理の安全性に対するリスクが常につきまとう。
Even in the deep learning method using distributed processing as disclosed in
本発明は、斯かる事情に鑑みてなされたものであり、分散学習に基づく学習モデルの実用化を促進するモデル学習方法、モデル学習システム、サーバ装置、及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in consideration of the above circumstances, and aims to provide a model learning method, a model learning system, a server device, and a computer program that promote the practical application of learning models based on distributed learning.
本開示の一実施形態のモデル学習方法は、サーバに記憶するグローバルモデルのデータを複数のノードに対して配布し、前記複数のノードで処理するローカルデータによって前記グローバルモデルを基に学習したローカルモデルのデータを取得し、前記複数のノード夫々から取得した複数のローカルモデルのデータに基づいて、グローバルモデルのデータを更新する処理を含む。 A model learning method according to one embodiment of the present disclosure includes distributing global model data stored in a server to multiple nodes, acquiring local model data learned based on the global model using local data processed by the multiple nodes, and updating the global model data based on the multiple local model data acquired from each of the multiple nodes.
本開示の一実施形態のモデル学習システムは、ローカルデータを各々処理する複数のノードと、該複数のノードから通信接続されるサーバとを含み、前記サーバは、前記複数のノードへグローバルモデルのデータを配布し、前記複数のノードは夫々、処理対象のローカルデータによって前記グローバルモデルからローカルモデルの学習を各々進め、前記サーバは、学習後のローカルモデルのデータを前記複数のノードから取得し、取得した複数のローカルモデルのデータに基づいてグローバルモデルのデータを更新する。 The model learning system of one embodiment of the present disclosure includes a plurality of nodes each processing local data, and a server connected to the plurality of nodes for communication, the server distributes global model data to the plurality of nodes, the plurality of nodes each proceeds with learning a local model from the global model using the local data to be processed, and the server acquires learned local model data from the plurality of nodes and updates the global model data based on the acquired data for the plurality of local models.
本開示の一実施形態のサーバ装置は、複数のノードと通信接続する通信部と、記憶するグローバルモデルのデータに対する処理部とを備え、前記処理部により、前記グローバルモデルのデータを複数のノードに対して配布し、前記複数のノードで処理するローカルデータによって前記グローバルモデルのデータを基に学習したローカルモデルのデータを前記通信部から取得し、前記複数のノード夫々から取得した複数のローカルモデルのデータに基づいて、グローバルモデルのデータを更新する。 A server device according to an embodiment of the present disclosure includes a communication unit that communicates with a plurality of nodes and a processing unit for storing global model data, and distributes the global model data to the plurality of nodes using the processing unit, acquires from the communication unit local model data learned based on the global model data using local data processed by the plurality of nodes, and updates the global model data based on the plurality of local model data acquired from each of the plurality of nodes.
本開示の一実施形態のコンピュータプログラムは、複数のノードに通信接続が可能なコンピュータに、記憶するグローバルモデルのデータを前記複数のノードに対して配布し、前記複数のノードで処理するローカルデータによって前記グローバルモデルを基に学習したローカルモデルのデータを取得し、前記複数のノード夫々から取得した複数のローカルモデルのデータに基づいて、グローバルモデルのデータを更新する処理を実行させる。 A computer program according to an embodiment of the present disclosure causes a computer capable of communication with multiple nodes to execute a process of distributing stored global model data to the multiple nodes, acquiring local model data learned based on the global model using local data processed by the multiple nodes, and updating the global model data based on the multiple local model data acquired from each of the multiple nodes.
本開示のモデル学習方法、モデル学習システム、サーバ装置、及びコンピュータプログラムでは、配布されたグローバルモデルのデータに対し、複数のノードがアクセス可能なローカルデータで学習を実行し、ローカルモデルを作成し、そのデータをサーバへ送信する。サーバにローカルデータを集約せずとも、複数のノード夫々でアクセス可能なローカルデータを用いた学習が可能となる。 In the model learning method, model learning system, server device, and computer program disclosed herein, learning is performed on distributed global model data using local data accessible to multiple nodes, a local model is created, and the data is sent to the server. Learning is possible using local data accessible by each of multiple nodes without aggregating the local data on the server.
本開示の一実施形態のモデル学習方法では、更新後のグローバルモデルのデータを前記複数のノードへ再分配してもよい。 In a model learning method according to an embodiment of the present disclosure, the updated global model data may be redistributed to the multiple nodes.
更新後のグローバルモデルを、ローカルデータで再学習し、更にこれを集約することでグローバルモデルの精度を向上させることが期待できる。 By re-learning the updated global model using local data and then aggregating this data, it is expected that the accuracy of the global model will be improved.
本開示の一実施形態のモデル学習方法では、前記サーバは、前記複数のノードから取得したローカルモデルのデータを統計処理して前記グローバルモデルのデータを更新する。 In a model learning method according to one embodiment of the present disclosure, the server performs statistical processing on the local model data acquired from the multiple nodes to update the global model data.
グローバルモデルは、ローカルモデルの平均、加重平均等の統計処理によって求めることができる。各ノードがアクセス可能なローカルデータはデータ量が少量であっても、複数のノードからのローカルモデルを統計処理することによって、各ローカルデータによる学習が反映されたグローバルモデルが作成される。 The global model can be calculated by statistical processing such as averaging or weighted averaging of local models. Even if the amount of local data accessible to each node is small, a global model that reflects learning from each local data can be created by statistically processing local models from multiple nodes.
本開示の一実施形態のモデル学習方法は、前記グローバルモデルのデータの更新の都度、前記複数のノード夫々のローカルデータで前記グローバルモデルの精度の評価値を各算出させ、前記複数のノードで算出された異なる評価値に基づいて前記グローバルモデルの総評価値を算出し、算出された総評価値と対応付けて前記グローバルモデルのデータを記憶する処理を含んでもよい。 The model learning method of one embodiment of the present disclosure may include a process of calculating an evaluation value of the accuracy of the global model using local data of each of the multiple nodes each time the data of the global model is updated, calculating a total evaluation value of the global model based on the different evaluation values calculated at the multiple nodes, and storing the data of the global model in association with the calculated total evaluation value.
総評価値は、各ノードでのローカルデータを用いた精度に基づいて算出される。総評価値は、精度の平均でもよいし、ローカルデータのデータ量に基づく加重平均であってもよい。 The total evaluation value is calculated based on the accuracy using local data at each node. The total evaluation value may be the average of the accuracy values, or a weighted average based on the amount of local data.
本開示の一実施形態のモデル学習方法は、前記総評価値に基づいて学習が所定の基準を満たすまで前記グローバルモデルのデータの更新を継続し、前記所定の基準を満たした学習結果に対応するグローバルモデルのデータの前記複数のノード及び他の装置への提供を許可する処理を含んでもよい。 The model learning method of one embodiment of the present disclosure may include a process of continuing to update the data of the global model until the learning satisfies a predetermined criterion based on the total evaluation value, and allowing the provision of the data of the global model corresponding to the learning result that satisfies the predetermined criterion to the multiple nodes and other devices.
総評価値に基づいて学習が所定の基準を満たしてノード以外の他の装置への配布が可能と判断される程度まで学習が完了した段階で、学習に協力したノードのみならず他の装置への提供がされる。複数のノードのローカルデータに基づく集合知的な学習モデルを広く利用することが可能になる。所定の基準とは、総評価値に基づき学習の精度が向上しなくなること、総評価値が所定値以上となること等として設定されてよい。 When learning is completed to the extent that it is judged based on the total evaluation value that the learning meets a predetermined criterion and can be distributed to devices other than the node, it will be provided not only to the nodes that cooperated in the learning but also to other devices. This makes it possible to widely use a collective intelligence learning model based on the local data of multiple nodes. The predetermined criterion may be set as the accuracy of the learning no longer improving based on the total evaluation value, the total evaluation value being equal to or greater than a predetermined value, etc.
本開示の一実施形態のモデル学習方法は、前記グローバルモデルのデータの更新の都度、更新後のグローバルモデルに対して算出された総評価値を記憶し、総評価に基づいて再分配するグローバルモデルを決定する処理を含んでもよい。 The model learning method of one embodiment of the present disclosure may include a process of storing a total evaluation value calculated for the updated global model each time the data of the global model is updated, and determining a global model to be redistributed based on the total evaluation.
グローバルモデルのデータの配布、ローカルモデルの学習、学習されたローカルモデルのデータに基づくグローバルモデルのデータの更新の繰り返しの中では、1つ前の更新におけるグローバルモデルの方が、評価が高いことがあり得る。ローカルデータが逐次追記されていく環境では、繰り返しの中で時折、過去のグローバルモデルを基に再度学習を進めることで、精度を向上させることが期待できる。 When distributing data from a global model, training a local model, and updating the data of the global model based on the trained local model data is repeated, the global model from the previous update may be evaluated more highly. In an environment where local data is added sequentially, it is expected that accuracy can be improved by occasionally re-learning based on past global models during the repetitions.
本開示の一実施形態のモデル学習方法は、更新後のグローバルモデルに対して算出された総評価値と、前回の更新後のグローバルモデルに対する総評価値とを比較し、比較の結果、評価がより高いグローバルモデルを、再分配するグローバルモデルとして決定する処理を含んでもよい。 The model learning method of one embodiment of the present disclosure may include a process of comparing a total evaluation value calculated for the updated global model with a total evaluation value for the global model after a previous update, and determining the global model with the higher evaluation as the result of the comparison as the global model to be redistributed.
過去のグローバルモデルを選択する場合は、総評価値を基準として選択するとよい。 When selecting a past global model, it is a good idea to use the total evaluation value as the basis for your selection.
本開示の一実施形態のモデル学習方法では、前記複数のノードは、ローカルモデルの学習に用いたローカルデータのデータ量、又はローカルモデルの学習量を逐次記憶し、前記サーバは、前記複数のノードから集約したローカルモデルのデータ夫々に、前記データ量又は学習量に対応する重みを付与して前記グローバルモデルのデータの更新に使用する処理を含んでもよい。 In a model learning method according to an embodiment of the present disclosure, the plurality of nodes may sequentially store the amount of local data used to learn the local model or the amount of learning of the local model, and the server may include a process of assigning a weight corresponding to the amount of data or the amount of learning to each of the local model data aggregated from the plurality of nodes and using the weight to update the data of the global model.
本開示の一実施形態のモデル学習方法では、前記複数のノードは、ローカルデータの特性を記憶しており、前記サーバは、前記複数のノードから集約したローカルモデルのデータ夫々に、各ノードのローカルデータの特性に対応する重みを付与して前記グローバルモデルのデータの更新に使用する処理を含んでもよい。 In a model learning method according to an embodiment of the present disclosure, the plurality of nodes may store characteristics of local data, and the server may include a process of assigning weights corresponding to the characteristics of the local data of each node to each piece of local model data aggregated from the plurality of nodes and using the weights to update the data of the global model.
本開示の一実施形態のモデル学習方法では、前記ローカルデータの特性は、各ノードによるローカルデータの取得方法、前記ローカルデータを出力する機器の仕様、又は、前記ローカルデータの精度評価であってもよい。 In the model learning method of one embodiment of the present disclosure, the characteristics of the local data may be a method for acquiring the local data by each node, a specification of a device that outputs the local data, or an accuracy evaluation of the local data.
ローカルモデルに基づくグローバルモデルのデータは、各ローカルモデルの基になったデータ量、又は、ローカルモデルにおける学習量に応じて、加重平均で算出される。グローバルモデルは、ローカルデータの特性に応じて加重平均で算出されてもよい。ローカルデータの規模又は品質は、各所で多様であり、それらを均等に統計処理するよりも、精度の向上が期待できる。ローカルモデルは、ローカルデータを取得するための方法、ローカルデータを出力する機器の仕様、ローカルデータをトレーニングデータとして使用する場合のアノテーション精度等に影響される。これらの影響に対応する重みで加重平均することによって、グローバルモデルのデータの更新が適切に行なわれることが期待できる。 Data for a global model based on local models is calculated as a weighted average according to the amount of data on which each local model is based or the amount of learning in the local model. The global model may be calculated as a weighted average according to the characteristics of the local data. The scale or quality of the local data varies from place to place, and it is expected that accuracy will be improved compared to uniform statistical processing of the data. The local model is influenced by the method for acquiring the local data, the specifications of the equipment that outputs the local data, the annotation accuracy when the local data is used as training data, etc. By calculating a weighted average with weights corresponding to these influences, it is expected that the data for the global model will be updated appropriately.
本開示の一実施形態のモデル学習方法では、前記複数のノードに、前記サーバで更新された後のグローバルモデルに対して、ローカルデータに基づき評価値を算出させる都度に前記評価値及び前記グローバルモデルのデータを記憶し、最も評価値が高い更新後のグローバルモデルを選択してもよい。 In a model learning method according to an embodiment of the present disclosure, each time the multiple nodes calculate an evaluation value for a global model after it has been updated by the server based on local data, the evaluation value and data for the global model may be stored, and the updated global model with the highest evaluation value may be selected.
前回の更新のみならず、過去のグローバルモデルから最も評価値が高いグローバルモデルを選択してもよい。過去のグローバルモデルを基に再度学習を進めることで、精度を向上させることが期待できる。 In addition to the previous update, the global model with the highest evaluation value may be selected from past global models. By re-learning based on past global models, it is expected that accuracy will improve.
本開示のモデル学習方法によれば、学習用にデータを集約せずとも、その多数のデータに基づくモデル学習が可能になる。本開示のモデル学習方法は、データの機密性が高い場合でも、モデル学習を実用的にすることができる。 The model learning method disclosed herein enables model learning based on a large amount of data without aggregating the data for learning. The model learning method disclosed herein makes model learning practical even when the data is highly confidential.
本開示をその実施の形態を示す図面を参照して具体的に説明する。 This disclosure will be specifically described with reference to drawings showing embodiments thereof.
(第1の実施形態)
図1は、第1の実施形態のモデル学習システム100の概要図である。モデル学習システム100は、データを記憶する記憶装置2に対して1又は複数設けられたノード1と、サーバ3と、ノード1及びサーバ3間を通信接続する通信網Nとを含む。
(First embodiment)
1 is a schematic diagram of a
記憶装置2は、物理量を測定するセンサ、画像を撮影するカメラ等、学習対象のデータを入出力する機器との間でデータの入出力が可能であり、それらのデータを蓄積する。記憶装置2は、操作によって入力されるデータに応じて出力する特定用途の計算機に接続されてもよい。記憶装置2は、ユーザが用いる情報端末の記憶装置であってもよい。記憶装置2は、クライアント装置からデータを収集するサーバ装置に使用される記憶装置であってもよい。
The
ノード1は、記憶装置2が記憶しているデータと同種のデータが入力された場合に、データに基づいて認識結果、判定結果、又は新たなデータを出力するように、モデルの深層学習を実行する。サーバ3は、ノード1に対してモデルを提供するコンピュータであると共に、ノード1と協働してモデルを学習するモデル学習システム100を実現する。記憶装置2が記憶しているデータ(以下、ローカルデータという)をトレーニングデータとしてモデルの学習を実行するには、これらにアクセスできる必要がある。本実施の形態のモデル学習システム100は、サーバ3からのローカルデータへのアクセスを不可とした状態で、学習を進行させることができる。
When
サーバ3は、初期的に、第0次グローバルモデル51を得る。サーバ3は、第0次グローバルモデル51を、通信網Nを介してノード1へ配布する。サーバ3からノード1へ配布されるグローバルモデルモデル51の実体(データ)は、学習済みのパラメータのみ、又は、学習済みのパラメータとプログラムとの両方である。グローバルモデル51は、モデルの構成を定義する定義データ(ネットワーク定義、損失や予め設定されるハイパーパラメータを含む)と、学習対象の重み係数等のパラメータとであってもよい。
The
学習対象のモデルは、深層学習と呼ばれる学習の対象であればアーキテクチャは問わない。深層学習のモデルの種類は、入力データ及び出力データの内容に応じて適切に選択されるべきである。以下説明する学習対象のモデルは、畳み込み層を含むCNN(Convolutional Neural Network)を用いた分類系、検出系、又は生成系等のいずれでもよいし、時系列要素を加味して学習するRNN(Recurrent Neural Network)であってもよい。 The model to be trained can have any architecture as long as it is the subject of learning called deep learning. The type of deep learning model should be appropriately selected depending on the contents of the input data and output data. The model to be trained described below may be a classification system, detection system, or generation system using a CNN (Convolutional Neural Network) including a convolutional layer, or it may be a RNN (Recurrent Neural Network) that learns by taking into account time series elements.
通信網Nは、所謂インターネットである公衆通信網、キャリアネットワークを含む。通信網Nは、モデル学習システム100用の専用回線であってもよい。
The communication network N includes a public communication network, such as the Internet, and a carrier network. The communication network N may be a dedicated line for the
ノード1は、記憶装置2との間のローカルネットワークLNに基づいて、記憶装置2に蓄積されたローカルデータにアクセス可能である。ノード1は、アクセス可能なローカルデータを用いて深層学習を実行する。ローカルデータに対しては既に、ノード1が設置されている場所のオペレータによってアノテーションが実施済であるとよい。ノード1は、サーバ3から配布される第0次グローバルモデル51を取得する。ノード1は、第0次グローバルモデル51を基に、ローカルデータをトレーニングデータとして学習を進行し、第1次ローカルモデル52を得る。
ノード1は、第1次ローカルモデル52を、サーバ3へ送信する。ローカルデータはサーバ3へ送信されないから、ローカルデータの抽象化、匿名化等の処理は不要である。
サーバ3は、複数のノード1夫々から第1次ローカルモデル52を複数受信し、受信した複数の第1次ローカルモデル52に対して統計処理を実行して第1次グローバルモデル51を作成する。サーバ3は、第1次グローバルモデル51を、複数のノード1へ再配布する。再配布されるグローバルモデル51は、重み係数のみであってもよい。再配布される重み係数は学習対象であってもよいし、全体であってもよい。再配布するグローバルモデル51は、前回の更新からの差分に対応するものであってもよい。
The
モデル学習システム100は、サーバ3からノード1への第n次グローバルモデル51の配布、第n次グローバルモデル51のノード1におけるローカルデータを用いた学習、学習によって得られる第(n+1)次ローカルモデル52のサーバ3への送信、サーバ3での第(n+1)次ローカルモデル52の収集及び第(n+1)次グローバルモデル51の作成(更新)を繰り返す。「n」は予め上限を設定してもよいし、更新の途上でサーバ3のオペレータによって更新を手動で停止させるようにしてもよい。オペレータからのサーバ3に対する操作指示は、サーバ3と同一のローカルなネットワーク内のみから可能であってもよいし(オンプレミス型)、通信網N経由で例えばノード1から可能であってもよい(クラウド型)。
The
これにより、サーバ3からローカルデータへのアクセスを許可することなく、分散学習が可能になる。
This enables distributed learning without allowing
分散学習によってノード1以外へも配布可能な精度までに学習されたグローバルモデル51は、各ノード1に加え、ローカルモデル52の作成に参加しない情報処理装置4へも配布され、使用される。
The
このような学習方法を実現するためのモデル学習システム100の構成について詳細に説明する。
The configuration of the
図2は、ノード1の構成を示すブロック図である。ノード1は、パーソナルコンピュータ又はサーバコンピュータである。ノード1は、処理部10、記憶部11、通信部12、表示部13及び操作部14を備える。
Figure 2 is a block diagram showing the configuration of
処理部10は、CPU(Central Processing Unit )及び/又はGPU(Graphics Processing Unit)を用いたプロセッサである。処理部10は、記憶部11に記憶されているノードプログラム1Pに基づき、記憶装置2からのデータの読み出し、サーバ3との間でのモデルの送受信、及びモデル学習を含む処理を実行する。
The
記憶部11は、例えばハードディスク、フラッシュメモリ、SSD(Solid State Drive)等の不揮発性メモリを用いる。記憶部11は、処理部10が参照するデータを記憶する。記憶部11は、ノードプログラム1Pを記憶する。記憶部11は、深層学習用のライブラリ1Lを記憶する。ノードプログラム1P及び/又は深層学習用のライブラリ1Lは、記録媒体8に記憶してあるノードプログラム8P及び/又は深層学習用のライブラリ8Lを処理部10が読み出して記憶部11に複製したものであってもよい。記憶部11は、サーバ3から取得するグローバルモデル51、及び、ローカルデータによって学習されるローカルモデル52夫々を記憶する。
The
通信部12は、通信網Nを介したデータ通信、及び、ローカルネットワークLNを介した記憶装置2との通信を各々実現する。通信部12は具体的には、例えばネットワークカードである。処理部10は、通信部12によって記憶装置2からデータを読み出し、サーバ3との間でデータを送受信する。
The
表示部13は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等のディスプレイである。表示部13は、記憶部11に記憶されているデータに基づく情報、又はサーバ3から提供されるデータを含む画面を表示する。表示部13は、タッチパネル内蔵型ディスプレイであってもよい。
The
操作部14は、処理部10との間で入出力が可能なキーボード及びポインティングデバイス等のユーザインタフェースである。操作部14は、音声入力部であってもよい。操作部14は、表示部13のタッチパネルであってもよい。操作部14は、物理ボタンであってもよい。操作部14は、ノード1のオペレータによる操作データを処理部10へ通知する。
The
図3は、サーバ3の構成を示すブロック図である。サーバ3は、サーバコンピュータである。サーバ3は、処理部30、記憶部31及び通信部32を備える。サーバ3は、以下の説明においては1台のサーバコンピュータによって構成されるものとして説明するが、複数台のサーバコンピュータをネットワークで通信接続して分散処理させる態様であってもよい。サーバ3は、通信網Nを介して各ノード1から通信接続が可能なクラウド型であってもよいし、仮想的なプライベートネットワークを介して各ノード1と通信接続するオンプレミス型であってもよい。
FIG. 3 is a block diagram showing the configuration of
処理部30は、CPU及び/又はGPUを用いたプロセッサである。処理部30は、記憶部31に記憶されているサーバ用プログラム3Pに基づき、グローバルモデル51の学習処理を実行する。
The
記憶部31は、例えばハードディスク、SSD等の不揮発性メモリを用いる。記憶部31は、処理部30が参照するデータを記憶する。記憶部31は、サーバ用プログラム3Pを記憶する。記憶部31は、学習対象のグローバルモデル51、複数のノード1から送信されるローカルモデル52を記憶する。サーバ用プログラム3Pは、記録媒体9に記憶してあるサーバ用プログラム9Pを処理部30が読み出して記憶部31に複製したものであってもよい。
The
通信部32は、通信網Nを介したデータ通信を実現する。通信部32は具体的には、例えばネットワークカードである。処理部30は、通信部32によって複数のノード1との間でデータを送受信する。
The
このように構成されるモデル学習システム100における学習処理手順について説明する。図4は、モデル学習システム100における学習処理手順の一例を示すフローチャートである。
The learning process procedure in the
サーバ3は、予め用意された初期的な(第0次)グローバルモデル51を取得する(ステップS1)。初期的なグローバルモデル51は、特定のノード1で第0次モデルとして作成されたモデルであってもよいし、ノード1ではなく特定の場所で学習されたモデルであってもよく、予め記憶部31に記憶してあるとよい。ステップS1の取得は、予め記憶部31に記憶されているグローバルモデル51の読み出しを含む。
The
サーバ3は、取得した第0次グローバルモデル51をノード1へ配布する(ステップS2)。
The
サーバ3は、ノード1へ配布したグローバルモデル51を基に、ノード1で学習されるローカルモデル52を取得する(ステップS3)。
The
サーバ3は、取得したローカルモデル52に対して統計処理を実行し、次世代のグローバルモデル51に更新する(ステップS4)。ステップS4においてサーバ3は、更新(ラウンド)の回数を加算するとよい。
The
サーバ3は、更新したグローバルモデル51が学習完了条件を満たすか否か判断する(ステップS5)。
The
ステップS5についてサーバ3は例えば、学習回数が所定回数に到達したか否かで判断する。サーバ3は、特定のノード1又は特定の場所におけるトレーニングデータの入力データをグローバルモデル51に入力した場合に、対応する出力データを出力する精度が所定の条件(所定値以上、向上が見られない等)を満たすか否かで判断してもよい。またサーバ3は、後述する方法によって学習完了条件を満たすか否かを判断してもよい。ステップS5においてサーバ3は、オペレータの操作によって学習回数が所定回数に到達していなくとも学習停止が指示されたか否かを判断し、指示された場合にはステップS5において条件を満たすと判断してもよい。
In step S5, the
学習完了条件を満たさないと判断された場合(S5:NO)、サーバ3は、更新後のグローバルモデル51を複数のノード1へ再分配し(ステップS6)、処理をステップS3へ戻す。
If it is determined that the learning completion condition is not met (S5: NO), the
ステップS6においてサーバ3は、グローバルモデル51をそのまま再配布するのではなく、重み係数等のパラメータのみを再配布してもよい。
In step S6, the
ステップS6においてサーバ3は、何回目の更新後のグローバルモデル51であるのか、即ち第n次グローバルモデル51の「n」を示すデータを共に送信するとよい。ステップS6においてサーバ3は、後述するように学習のラウンド情報を得られる場合にはそのラウンド情報を、グローバルモデル51に対応付けて送信するとよい。ラウンド情報は、学習完了条件を満たすと判断されるまでに、ノード1への分配及び統計処理の実行した回数を示す情報である。サーバ3は、グローバルモデル51の種類、例えばどのようなアーキテクチャの深層学習がされたのか、を示すデータを共にノード1へ送信してもよい。
In step S6, the
学習完了条件を満たすと判断された場合(S5:YES)、サーバ3は、更新後のグローバルモデル51を、ノード1以外の装置へも配布可能なグローバルモデル51として記憶する(ステップS7)。
If it is determined that the learning completion condition is met (S5: YES), the
サーバ3は、記憶したグローバルモデル51を複数のノード1又は他の情報処理装置へ送信し(ステップS8)、処理を終了する。他の情報処理装置とは、ノード1同様に、学習対象と同種のデータを用いるが、ローカルデータをトレーニング用に提供しない装置である。
The
サーバ3は、図4のフローチャートに示した処理手順を、複数、例えば月に一度といった周期で実行してもよい。その都度、グローバルモデルのバージョンが上昇し、より実用的なモデルとなる。
The
図5は、配布されたグローバルモデル51に基づくローカルモデル52の学習処理手順の一例を示すフローチャートである。図5のフローチャートに示す処理は、サーバ3がステップS2又はステップS6でグローバルモデル51を配布した場合に、複数のノード1夫々で実行する処理である。
Figure 5 is a flowchart showing an example of a learning process procedure for a
ノード1の処理部10は、配布されたグローバルモデル51を受信し、記憶部11に記憶する(ステップS301)。
The
ノード1の処理部10は、記憶したグローバルモデル51をインスタンスとしてロードする(ステップS302)。処理部10は、記憶装置2に記憶してあるローカルデータをトレーニングデータとして取得し(ステップS303)、これをグローバルモデル51に与えて学習を実行する(ステップS304)。
The
ステップS304において処理部10は、ロードしたグローバルモデル51に対してローカルデータに含まれる入力データを入力する。処理部10は、出力されたデータと、ローカルデータに含まれる前記入力データに対応する結果データとに対する損失関数を算出する。処理部は、出力されたデータと、ローカルデータに含まれる前記入力データに対応する結果データとの合致率、合致しているか否かの正誤によって学習を進めてもよい。処理部10は、算出した損失関数に基づいて配布されたグローバルモデル51における重み係数を含むパラメータを学習する。
In step S304, the
ノード1の処理部10は、学習完了条件を満たすか否かを判断する(ステップS305)。ステップS305において処理部10は、学習回数が所定回数(1回以上)を満たすことを学習完了条件としてよい。処理部10は、学習後のグローバルモデル51の出力精度が記憶してある所定値以上である場合に、学習完了条件を満たすと判断してもよい。処理部10は、精度の変化が所定範囲内に収まり、収束していると判断できる場合に学習完了条件を満たすと判断してもよい。
The
学習完了条件を満たさないと判断された場合(S305:NO)、処理部10は処理をステップS304へ戻す。これにより、学習が続行される。
If it is determined that the learning completion condition is not met (S305: NO), the
学習完了条件を満たすと判断された場合(S305:YES)、処理部10は学習を終了し、パラメータが更新されたグローバルモデル51を、ローカルモデル52として記憶する(ステップS306)。
If it is determined that the learning completion condition is met (S305: YES), the
ノード1の処理部10は、記憶したローカルモデル52を、サーバ3へ送信し(ステップS307)、処理を終了する。これにより、サーバ3は、複数のノード1夫々から、ローカルデータで学習されたローカルモデル52を取得することができる。
The
ステップS307において処理部10は、第n次のローカルモデル52なのか、又は元となるグローバルモデル51が第n次なのかの「n」を示すデータを共に送信するとよい。ステップS307においてノード1は、後述するように1回の学習完了までのラウンド情報を得られる場合にはそのラウンド情報を、ローカルモデル52に対応付けて送信してもよい。
In step S307, the
図5のフローチャートに示した処理によってノード1からは、ローカルデータがサーバ3へ送信されることがない点が、着目されるべきである。ローカルデータの匿名化も実行されない。ノード1から送信されるデータは、モデルそのものである。ローカルデータの特性は反映されているが、データの送信はされない。
It should be noted that the process shown in the flowchart of Figure 5 does not result in local data being sent from
図6は、サーバ3におけるグローバルモデル51の更新処理の一例を示すフローチャートである。図6のフローチャートに示す処理手順は、図4のフローチャートに示す処理手順の内のステップS4の詳細に対応する。
Figure 6 is a flowchart showing an example of a process for updating the
サーバ3の処理部30は、ノード1から送信されるローカルモデル52を取得し(ステップS401)、ノード1の識別データと対応付けてローカルモデル52を記憶する(ステップS402)。ステップS401においてサーバ3の処理部30は、非同期に各ノード1から送信されるローカルモデル52を取得する。
The
処理部30は、取得したローカルモデル52でグローバルモデル51を更新すべきか否かを判断する(ステップS403)。ステップS403において処理部30は、グローバルモデル51を配布した配布先のノード1全てからローカルモデル52を取得できた場合に更新すべきであると判断してもよい。ステップS403において処理部30は、予め決定しておいた代表的の複数のノード1からローカルモデル52を取得できた場合に更新すべきであると判断してもよい。
The
更新すべきでないと判断された場合(S403:NO)、サーバ3の処理部30は処理をステップS401へ戻す。更新すべきであると判断されるまで、各ノード1から送信されるローカルモデル52を取得し、集約する。
If it is determined that an update is not necessary (S403: NO), the
更新すべきであると判断された場合(S403:YES)、サーバ3の処理部30は、複数のノード1からのローカルモデル52の平均を求める(ステップS404)。処理部30は、平均を新たなグローバルモデル51として更新する(ステップS405)。
If it is determined that an update is necessary (S403: YES), the
処理部30は、更新後のグローバルモデル51を、ラウンド数(第n次)を示すデータと対応付けて記憶し(ステップS406)、グローバルモデル51の更新処理を終了する。これにより、第n-1次グローバルモデル51は、第n次グローバルモデル51に更新される。
The
更新が完了したグローバルモデル51は、各ノード1及び情報処理装置4から利用可能になる。図7は、ノード1で表示される画面例を示す。図7の更新結果画面431は、サーバ3から提供されるWebページに基づいてノード1の表示部13に表示される。更新結果画面431には、配布可能なモデルとして記憶されたグローバルモデル51の一覧が表示されている。更新結果画面431は、ノード1へサーバ3から自動的に配布された最新のグローバルモデル51のモデル名及び更新日時を示す。
Once the update is complete, the
サーバ3で更新が完了したグローバルモデル51は、各ノード1及び情報処理装置4から、選択的に利用されてもよい。更新結果画面431は、グローバルモデル51を識別するモデル名を表すテキストに、ダウンロードへのリンクを含んで選択可能にしてもよい。各々のグローバルモデル51を識別するテキストにダウンロードのアイコン等のインタフェースが含まれていてもよい。更新結果画面431に対し、ノード1又は情報処理装置4のオペレータが、モデルのいずれかを選択することによって初めて、選択されたモデルがノード1に記憶されるようにしてもよい。この場合、配布可能なモデルとして提供されるグローバルモデル51がノード1又は情報処理装置4でダウンロードされ、利用可能となる。なおこの場合、各モデルには、オペレータが選択するか否かを判断する基準となる評価や精度の情報が表示されていることが好ましい。
The
上述したように第1の実施形態のモデル学習システム100では、ローカルデータはサーバ3へ送信されることなしに、各所に記憶されているローカルデータを用いた学習結果に基づいてグローバルモデル51が実用化される。各所のローカルデータのみでは、データ量が不足するような場合であっても、1箇所に集約させた大量のデータによる学習よりも精度よく、且つ早期に実用可能なモデルを提供することが可能になる。
As described above, in the
(第2の実施形態)
第2の実施形態におけるモデル学習システム100は、学習完了条件を満たすための判断処理が、第1の実施形態と異なる。第2の実施形態におけるモデル学習システム100の構成は、上述の判断処理の詳細を除いて第1の実施形態のモデル学習システム100と同様の構成であるから、共通する構成については同一の符号を付して詳細な説明を省略する。
Second Embodiment
The
図8は、第2の実施形態のモデル学習システム100における学習処理手順の一例を示すフローチャートである。図8のフローチャートに示す処理手順の内、図4のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。
Figure 8 is a flowchart showing an example of a learning process procedure in the
ステップS4でグローバルモデル51を更新すると(S4)、サーバ3の処理部30は、更新後のグローバルモデル51を、複数のノード1へ送信する(ステップS501)。
When the
更新後のグローバルモデル51を受信した複数のノード1は夫々、送信されたグローバルモデル51を用いて、記憶装置2からローカルデータを読み出し、入力データに対する精度評価を実行する。ノード1の処理部10は、ローカルデータの入力データを入力した場合の精度を算出し、サーバ3へ送信する。処理部10は、精度として、ローカルデータにおける入力データをグローバルモデル51に入力した場合の出力データと、ローカルデータにおいて入力データに対応する出力データとの合致率を算出してもよい。処理部10は、ノード1のオペレータから操作部14を介して精度評価を受け付けてもよい。
Each of the
サーバ3の処理部30は、各ノード1から送信される評価値を取得し(ステップS502)、複数のノード1から取得した評価値から総評価値を算出する(ステップS503)。ステップS503において処理部30は、精度の平均値を算出してもよいし、合致率の平均でもよいし、オペレータから受けた評価の平均を求めてもよい。
The
処理部30は、算出した総評価値が所定の基準を満たすか否かを判断し(ステップS504)、所定の基準を満たすと判断された場合(S504:YES)、処理をステップS7へ進める。ステップS504において処理部30は、グローバルモデル51の更新を停止するか否かを判断してもよい。
The
所定の基準を満たさないと判断された場合(S504:NO)、処理部30は処理をステップS6へ進める。
If it is determined that the specified criteria are not met (S504: NO), the
ステップS504において所定の基準とは例えば、評価値が精度であって、評価値がその平均の場合、その値に対する閾値であることである。その他、所定の条件は、評価がA,B,C評価である場合にはB以上であることであってもよいし、評価に対する良/可/不可等の条件であってもよい。また所定の条件は、精度が安定することであってもよい。評価値の変化が学習の進行に応じて小さくなった場合に、所定の条件を満たすとしてもよい。 In step S504, the specified criterion is, for example, the evaluation value being the accuracy, and if the evaluation value is the average, the threshold value for that value. Alternatively, the specified condition may be B or higher if the evaluation is A, B, or C, or may be a condition such as good/passable/fail for the evaluation. The specified condition may also be that the accuracy is stable. The specified condition may be satisfied when the change in the evaluation value becomes smaller as the learning progresses.
評価をノード1におけるローカルデータを用いた有用性に基づいて導出し、各ノード1で精度が認められる場合に配布可能なモデルとして提供することができる。
The evaluation is derived based on the usefulness using local data at
(第3の実施形態)
第3の実施形態では、サーバ3が、過去の更新後のグローバルモデル51と比較して、分配するグローバルモデル51を決定する。第3の実施形態のモデル学習システム100の構成は、第1の実施形態のモデル学習システム100の構成と同様であるから、共通する構成については同一の符号を付して詳細な説明を省略する。
Third Embodiment
In the third embodiment, the
図9及び図10は、第3の実施形態のモデル学習システム100における学習処理手順の一例を示すフローチャートである。図9及び図10のフローチャートに示す処理手順の内、第2の実施形態の図8のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。
Figures 9 and 10 are flowcharts showing an example of a learning process procedure in the
サーバ3は、ステップS4で更新した後のグローバルモデル51と、更新前のグローバルモデル51とを各ノード1へ送信する(ステップS511)。
The
サーバ3は、送信先の複数のノード1から、各々のグローバルモデル51の評価値を取得し(ステップS512)、総評価値を算出する(ステップS513)。サーバ3は、ラウンド情報と対応付けて、更新後のグローバルモデル51、及び総評価値を、記憶部31に記憶する(ステップS514)。ラウンド情報は、1回の学習(バージョン)が完了するまでの間に何度目に更新されたグローバルモデル51であるかを示すデータであり、第n次の「n」の情報である。
The
サーバ3は、ステップS513で算出した、更新後のグローバルモデル51に対して算出した総評価値と、更新前のグローバルモデル51に対する総評価値とを比較する(ステップS515)。
The
ステップS515においてサーバ3は、総評価値が数値である場合には値同士を比較してもよいし、総評価値が、複数段階の評価である場合には評価内容同士を比較してもよい。ステップS515においてサーバ3は、過去の更新後のグローバルモデル51を廃棄せずに記憶している場合、3つ以上のグローバルモデル51に対する総評価値を比較してもよい。
In step S515, the
サーバ3は、評価が高い方のグローバルモデル51を、分配対象の最新のグローバルモデル51として決定する(ステップS516)。サーバ3は、評価が低い方のグローバルモデル51を、記憶部31から削除(廃棄)してもよい。
The
サーバ3は、決定したグローバルモデル51に対してステップS513で算出した総評価値が所定の基準を満たすか否かを判断する(ステップS517)。所定の基準は、評価値が精度であって、総評価値がその平均である場合、その値に対する閾値であることである。その他、所定の条件は、評価がA,B,C評価である場合にはB以上であることであってもよいし、評価に対する良/可/不可等の条件であってもよい。また所定の条件は、精度が安定することであってもよい。評価値の変化が学習の進行に応じて小さくなった場合に、所定の条件を満たすとしてもよい
The
所定の基準を満たさないと判断された場合(S517:NO)、サーバ3は、分配対象のグローバルモデル51を各ノード1へ再配布し(ステップS518)、処理をステップS3へ戻す。
If it is determined that the specified criteria are not met (S517: NO), the
所定の基準を満たすと判断された場合(S517:YES)、サーバ3は、決定したグローバルモデル51を他の装置へも配布可能なモデルとして記憶部31に記憶し(ステップS519)、処理をステップS8へ進める。
If it is determined that the specified criteria are met (S517: YES), the
図11は、第3の実施形態のモデル学習の概要図である。図11の概要図では、サーバ3が、グローバルモデルの更新時に、前回の更新後の第n次グローバルモデルモデル51が、今回の更新後の第n+1次グローバルモデル51よりも評価が高い場合に、前回の第n次グローバルモデル51を選択することを示している。図1のモデル学習システムの概要図と比較して、グローバルモデル51が常に、更新されるものが連綿と採用されるのではないことが示されている。
Figure 11 is an overview diagram of model learning in the third embodiment. The overview diagram in Figure 11 shows that when updating the global model, if the nth order
1回のグローバルモデル51の更新の間に、各ノード1ではローカルデータが増加している、又は、更新されている。前回更新された第n次グローバルモデル51が採用され続けたとしても、各ノード1でアクセス可能なローカルデータに基づく評価が変化し得る。同一のグローバルモデル51でも、評価が高くなるグローバルモデル51が得られる。
During one update of the
これにより、精度が良くなるように分散学習を進めることが可能になる。 This makes it possible to carry out distributed learning to improve accuracy.
(第4の実施形態)
第4の実施形態では、各ノード1で学習されたローカルモデル52に基づくグローバルモデル51の更新方法が第1~第3の実施形態で説明した方法と異なる。第4の実施形態におけるモデル学習システム100の構成は、グローバルモデル51の更新処理の詳細を除いて第1の実施形態のモデル学習システム100と同様の構成であるから、共通する構成については同一の符号を付して詳細な説明を省略する。
(Fourth embodiment)
In the fourth embodiment, the method of updating the
第4の実施形態のモデル学習システム100では、サーバ3は第1の実施形態の図4のフローチャートに示した処理手順、第2の実施形態の図8のフローチャートに示した処理手順、第3の実施形態の図9及び図10のフローチャートに示した処理手順のいずれかの学習処理手順を実行する。第4の実施形態では、それらの処理手順の内、ステップS4の更新処理が異なる。また、更新処理が異なることに対応して、ノード1から送信されるデータ内容も第1の実施形態での説明と異なる。
In the
図12は、第4の実施形態のノード1におけるローカルモデル52の学習処理手順の一例を示すフローチャートである。図12のフローチャートに示す処理手順の内、第1の実施形態における図6のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。
Figure 12 is a flowchart showing an example of a learning process procedure for the
ノード1の処理部10は、記憶装置2からその時点で記憶されているローカルデータを取得し(S303)、ローカルデータのデータ量(データ件数)を算出し(ステップS313)、処理をステップS304へ進める。
The
ノード1の処理部10は、学習を実行する都度(S304)、学習量を算出し(ステップS314)、学習完了条件を満たすか否かを判断する(S305)。
Each time learning is performed (S304), the
ステップS314において処理部10は、学習の繰り返し回数を学習量として算出してもよいし、前回のラウンドにおけるローカルモデル52からの精度の向上度合いを学習量として算出してもよいし、ローカルモデル52の変化量を学習量として算出してもよい。
In step S314, the
ステップS305において処理部10は、学習の結果、ローカルデータに対するニューラルネットワークからの出力データの精度が所定の条件を満たす、例えば精度が所定値以上である場合に、学習完了条件を満たすと判断してもよい。処理部10は、学習量(学習回数)が所定量(所定回数)以上である場合に学習完了条件を満たすと判断してもよい。
In step S305, the
ノード1の処理部10は、学習したローカルモデル52と共に、ステップS313で算出したデータ量、又は、カウントされている学習量をサーバ3へ送信し(ステップS315)、処理を終了する。これにより、サーバ3は、複数のノード1夫々から、ローカルデータで学習されたローカルモデル52と共に、元となるローカルデータのデータ量、又は、学習量を取得することができる。
The
第4の実施形態においても、ノード1からは、ローカルデータのデータ量は送信されても、データ自体がサーバ3へ送信されることがない。
Even in the fourth embodiment,
図13は、第4の実施形態のサーバ3におけるグローバルモデル51の更新処理の一例を示すフローチャートである。図13のフローチャートに示す処理手順の内、第1の実施形態の図7のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。
Figure 13 is a flowchart showing an example of a process for updating the
サーバ3の処理部30は、各ノード1から送信されるローカルモデル52、及びデータ量又は学習量を取得し(ステップS411)、ノード1の識別データと対応付けてローカルモデル52、及びデータ量又は学習量を記憶する(ステップS412)。ステップS411においてサーバ3の処理部30は、非同期に、各ノード1から送信されるローカルモデル52を取得する。
The
処理部30は、更新すべきであると判断された場合(S403:YES)、サーバ3の処理部30は、複数のノード1からのローカルモデル52に、データ量又は学習量の重みを付与した加重平均を求める(ステップS414)。処理部30は、ローカルモデル52の加重平均を、新たなグローバルモデル51として更新する(ステップS415)。
When the
処理部30は、更新後のグローバルモデル51を、ラウンド情報を示すデータと対応付けて記憶し(S406)、グローバルモデル51の更新処理を終了する。
The
更新後のグローバルモデル51の精度が所定の基準を満たすまで、図13のフローチャートに示した更新処理を継続する。
The update process shown in the flowchart in Figure 13 continues until the accuracy of the updated
第4の実施形態における更新方法によって、データ量が異なるローカルデータによって学習されたモデルを、データ量に応じて扱い、適切に評価することが可能になる。また、異なる学習量のローカルモデル52を単純平均するよりも、グローバルモデル51の性能の向上が期待できる。
The update method in the fourth embodiment makes it possible to handle models trained using local data with different amounts of data according to the amount of data and to appropriately evaluate them. In addition, it is expected that the performance of the
(第5の実施形態)
モデル学習システム100は、ニューラルネットワークを始めとする深層学習のモデルに適用できる。例えば、入力データは画像データであり、出力データは画像データの画像に写っている被写体の検出結果、又は被写体に対する判定結果である。他の例では、入力データは、入出金データであり、出力データは評価等の判定結果、あるいは企業業況変化(成長または劣化)に関する予測値や経済予測に関する予測値である。他の例では、入力データは、工場、生産設備に設けられた各種センサからの測定データであり、出力データは異常/正常を含む生産管理に関するデータである。他の例では、入力データはテキストデータであり、出力データは判定結果、または予測データである。
Fifth Embodiment
The
第5の実施形態では、モデル学習システム100を、医療施設にて患者に関して得られる医療データから、患者に特定の病気の症状が発生しているか否かの診断を支援するデータを出力するモデルの学習に適用させた例を挙げて説明する。以下の説明では、医療データは、例えば検査で撮影された眼底写真の画像データである。
In the fifth embodiment, an example will be described in which the
図14は、第5の実施形態のモデル学習システム100の概要図である。第5の実施形態におけるモデル学習システム100の構成は基本的に、第1の実施形態のモデル学習システム100と同様である。第5の実施形態のモデル学習システム100の内、第1の実施形態のモデル学習システム100と共通する構成については同一の符号を付して詳細な説明を省略する。
Figure 14 is a schematic diagram of the
第5の実施形態においてノード1及び情報処理装置は、医療施設に設けられている。ノード1及び情報処理装置は、患者の眼底写真を撮影する撮影装置から得られる画像データを取得できる。ノード1が設けられている医療施設では、撮影装置は記憶装置2に対して画像データを出力する。撮影装置は、異なる種類の装置を含む。
In the fifth embodiment, the
第5の実施形態においてグローバルモデル51、ローカルモデル52及び配布可として記憶されるモデルは、画像データが入力された場合に、緑内障の診断を支援するデータ及び精度を出力するように学習されるモデルである。トレーニングデータとして用いられるローカルデータは、入力データとして画像データと、出力データとして眼底写真におけるDisc部分とCup部分とをセグメンテーションした結果の画像データである。出力データはその他、症状がみられるか否かを医師又は技師が判定した判定結果を含むデータセットであってもよい。ローカルデータの入力データである画像データは、撮影装置の種類を示す装置データと対応付けられている。装置データは型番でもよいし、装置メーカを識別するデータであってもよい。
In the fifth embodiment, the
第5の実施形態においてモデル学習システム100では、サーバ3が予め特定の医療施設で複数の異なるアーキテクチャで作成された初期的なグローバルモデル(第0次グローバルモデル)51を取得する。サーバ3は、異なるアーキテクチャの第0次グローバルモデル51を、トレーニングに協力する医療施設のノード1へ各配布する。
In the fifth embodiment of the
各ノード1は、配布された複数の第0次グローバルモデル51を受信し、異なる第0次グローバルモデル51に基づいてそれぞれ、ローカルデータをトレーニングデータとして学習を進行し、複数の第1次ローカルモデル52を得る。ノード1は、異なるアーキテクチャで学習された第1次ローカルモデル52をサーバ3へ送信する。
Each
サーバ3は、各ノード1から取得したローカルモデル52を、異なるアーキテクチャ毎に、加重平均して第1次グローバルモデル51を作成する。作成された第1次グローバルモデル51を、サーバ3は、複数のノード1へ再配布する。
The
サーバ3は、配布した第n次グローバルモデル51から作成される第(n+1)次ローカルモデル52の取得、第(n+1)次ローカルモデル52からの第(n+1)次グローバルモデル51の更新を、異なるアーキテクチャ毎に繰り返す。
The
サーバ3は、異なるアーキテクチャ毎に繰り返して得られたグローバルモデル51を、相互に比較し、精度がより高いアーキテクチャのグローバルモデル51を選択し、配布可能なモデルとしてノード1及び情報処理装置へ提供する。
The
これにより、個人情報そのものである検査結果の画像データが、サーバ3へ集約されることなく、且つ、異なる医療施設に亘って多くのデータを用いて学習することが可能になる。
This makes it possible to learn using a large amount of data from different medical facilities without consolidating image data of test results, which is personal information itself, on
図15は、第5の実施形態のモデル学習システム100における学習処理手順の一例を示すフローチャートである。
Figure 15 is a flowchart showing an example of a learning process procedure in the
サーバ3は、特定の医療施設にて、異なるアーキテクチャで作成された初期的な(第0次)グローバルモデル51を取得する(ステップS201)。ステップS201の取得は、予め記憶部31に記憶されているグローバルモデル51の読み出しを含む。
The
サーバ3は、取得した複数の第0次グローバルモデル51を各ノード1へ配布する(ステップS202)。
The
サーバ3は、ノード1へ配布したグローバルモデル51を基に、異なるアーキテクチャ毎に、ノード1で学習されるローカルモデル52を取得する(ステップS203)。
Based on the
サーバ3は、取得したローカルモデル52に対し、異なるアーキテクチャ毎に、統計処理を実行し、次世代のグローバルモデル51に更新する(ステップS204)。ステップS204においてサーバ3は、更新の回数を加算するとよい。
The
サーバ3は、学習完了条件を満たすか否かを判断する(ステップS205)。
The
ステップS205についてサーバ3は例えば、更新回数(ラウンド数)が所定回数に到達したか否かで判断する。サーバ3は、特定のノード1におけるローカルデータの入力データを異なるアーキテクチャのグローバルモデル51に入力した場合に、いずれか複数のグローバルモデル51において、対応する出力データを出力する精度が所定の条件を満たすか否かで判断してもよい。学習完了条件は、第2から第4の実施形態で示したように、各ノード1へ送信したグローバルモデル51に対する評価値から総評価値を算出し、総評価値が所定の基準を満たすことであってもよい。
In step S205, the
学習完了条件を満たさないと判断された場合(S205:NO)、サーバ3は、更新後の各アーキテクチャのグローバルモデル51を複数のノード1へ再分配し(ステップS206)、処理をステップS203へ戻す。
If it is determined that the learning completion condition is not met (S205: NO), the
学習完了条件を満たすと判断された場合(S205:YES)、サーバ3は、更新後の各アーキテクチャのグローバルモデル51から、1又は複数、配布可能なグローバルモデル51として選択する(ステップS207)。ステップS207においてサーバ3は例えば、精度が比較的高い1又は複数のグローバルモデル51を選択する。
If it is determined that the learning completion condition is met (S205: YES), the
サーバ3は、記憶したグローバルモデル51を複数のノード1又は他の情報処理装置へ送信し(ステップS208)、処理を終了する。
The
これにより、各医療施設の画像データに対しての精度が高く、実用性が高いアーキテクチャのモデルを、各医療施設で使用することができる。一旦配布可能なモデルとして送信されるグローバルモデル51についても、サーバ3は以後、図15のフローチャートに示した処理を実行してバージョンを更新するとよい。
This allows each medical facility to use a model with a highly accurate and practical architecture for the image data of that facility. Once the
図16は、第5の実施形態におけるローカルモデル52の学習処理手順の一例を示すフローチャートである。図16のフローチャートに示す処理は、サーバ3がステップS202又はステップS206でグローバルモデル51を配布した場合に、複数のノード1夫々で実行する処理である。図16のフローチャートに示す処理手順の内、第1の実施形態の図6のフローチャートに示した処理手順と共通する手順については同一の符号を付して詳細な説明を省略する。
Figure 16 is a flowchart showing an example of a learning process procedure for the
ノード1の処理部10は、配布されたグローバルモデル51を受信及び記憶すると(S301)、アーキテクチャ毎に、S302からS305の処理を実行する。処理部10は、学習後のグローバルモデル51を、ローカルモデル52として、アーキテクチャを識別するデータと対応付けて記憶する(ステップS316)。
When the
処理部10は、学習を完了させた時点における前記ローカルモデル52の出力精度の評価を、ローカルデータに基づいて算出する(ステップS317)。ステップS317で処理部10は、ローカルモデル52にローカルデータの入力データを与えた場合に出力される精度の平均を精度評価として算出してよい。処理部10は、ローカルデータをローカルモデル52に入力した場合の出力データがトレーニングデータの出力データと合致する合致率を、精度評価として算出してもよい。処理部10は、精度評価を操作部14にて受け付けてもよい。
The
処理部10は、全てのアーキテクチャについて学習を完了したか否か判断する(ステップS318)。
The
学習が完了していないと判断された場合(S318:NO)、処理部10は処理をステップS302へ戻し、次のアーキテクチャについてステップS302からS317の処理を実行する。
If it is determined that learning is not complete (S318: NO), the
全てのアーキテクチャについて学習が完了したと判断された場合(S318:YES)、ノード1の処理部10は、記憶したローカルモデル52及びその精度の評価を、ローカルデータの特性である装置データと対応付けてサーバ3へ送信する(ステップS319)。そして処理部10はノード1における第n次の学習処理を終了する。
If it is determined that learning has been completed for all architectures (S318: YES), the
これにより、サーバ3は、複数のノード1夫々から、ローカルデータで学習されたローカルモデル52を取得することができる。ローカルデータそのものはサーバ3へ送信されないが、ローカルデータの品質が、サーバ3で区別できるようになる。
This allows the
図17は、第5の実施形態のサーバ3におけるグローバルモデル51の更新処理の一例を示すフローチャートである。図17のフローチャートに示す処理手順は、図15のフローチャートに示した処理手順の内のステップS204の詳細に対応する。図17のフローチャートに示す処理手順の内、第1の実施形態の図6のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。
Figure 17 is a flowchart showing an example of a process for updating the
サーバ3の処理部30は、ノード1から送信されるアーキテクチャ毎のローカルモデル52及び精度評価、並びに装置データを取得する(ステップS421)。処理部30は、取得したアーキテクチャ毎のローカルモデル52及びノード1における精度評価、並びに装置データを、ノード1の識別コードと対応付けて記憶する(ステップS422)。
The
更新すべきであると判断された場合(S403:YES)、サーバ3の処理部30は、複数のノード1からのローカルモデル52の内、精度評価が所定の評価よりも低いローカルモデル52を除外する(ステップS423)。処理部30は、除外後のローカルモデル52に対して装置データに対応付けられている重みを付与した加重平均を、アーキテクチャ毎に求める(ステップS424)。処理部30は、ローカルモデル52の加重平均を、アーキテクチャ毎に、新たなグローバルモデル51として更新する(ステップS425)。
If it is determined that an update is necessary (S403: YES), the
ステップS424において装置データに対応付けられている重みは、予め記憶部31に記憶されている。装置が新しく、品質が高い画像データのローカルデータから学習されたローカルモデル52については、重みを大きくし、古い装置から得られる画像データのローカルデータから学習されたローカルモデル52については、重みを小さくしてあってもよい。装置の医療施設への普及量が大きいほど、重みが大きくしてあり、汎用性の高いモデルが作成されるようにしてあってもよい。異なる品質で集められているローカルデータから学習されたローカルモデル52を、そのまま平均した場合よりも、ローカルデータの品質に応じた重みをローカルモデル52に付与して加重平均を算出する場合の精度の向上が期待できる。
The weights associated with the device data in step S424 are stored in advance in the
ステップS424では、精度評価が所定の評価よりも低いローカルモデル52を除外することによって、評価に応じた重みを考慮したグローバルモデル51を作成することができる。なお所定の評価については、予めサーバ3のオペレータによって閾値が設定されてもよい。ノード1経由で、サーバ3のオペレータからのアクセスを許可して、ローカルモデル52の評価を受け付けてもよい。
In step S424, a
ステップS424において、上述の例では、重みは、装置データに対応付けられているデータが採用された。これに限られず、ローカルデータに対するアノテーションの正確性についての評価を、各ノード1で記憶しておき、サーバ3は、その評価の高低に応じた重みによって加重平均を算出してもよい。アノテーションの正確性についての評価は、ノード1の管理者によって実行されてもよい。
In step S424, in the above example, the weights used are those associated with the device data. This is not limiting, and each
処理部30は、ステップS425で更新したグローバルモデル51を、アーキテクチャ毎に、記憶部31に記憶し(ステップS426)、処理を終了する。
The
第5の実施形態では、ローカルデータは医療データであるから、ステップS424の加重平均で用いられる重みは、医療データの属性に応じて付与されてもよい。例えば、患者の男女比、年齢分布、又は地域性等に応じた重みが付与されてもよい。これらの抽象化されたデータについてはローカルモデル52に反映されてもよい。
In the fifth embodiment, since the local data is medical data, the weights used in the weighted average in step S424 may be assigned according to the attributes of the medical data. For example, weights may be assigned according to the male/female ratio of patients, age distribution, regionality, etc. These abstracted data may be reflected in the
第5の実施形態では、更新後のグローバルモデル51が学習完了条件を満たすまで、図17のフローチャートに示した更新処理を継続する。
In the fifth embodiment, the update process shown in the flowchart in FIG. 17 is continued until the updated
第5の実施形態における更新方法によって、品質が異なるローカルデータによって学習されたモデルを、データの品質に応じて重みを変えて統合することができる。異なる品質のローカルモデル52を単純平均するよりも、グローバルモデル51の性能の向上が期待できる。
The update method in the fifth embodiment makes it possible to integrate models trained using local data of different quality by changing the weights according to the quality of the data. This is expected to improve the performance of the
第5の実施形態における更新方法によって、異なるアーキテクチャのCNNのいずれを用いたグローバルモデル51が最も適切であるかが評価されて実用可能となる。
The update method in the fifth embodiment allows for evaluation of which of the different CNN architectures is most appropriate for the
上述のように開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。 The embodiments disclosed above are illustrative in all respects and are not restrictive. The scope of the present invention is defined by the claims, and includes all modifications within the meaning and scope of the claims.
1 ノード
10 処理部
2 記憶装置
3 サーバ
30 処理部
51 グローバルモデル
52 ローカルモデル
Claims (18)
前記複数のノードで処理するローカルデータによって前記グローバルモデルを基に学習したローカルモデルのデータを、前記ローカルデータの特性と共に取得し、
前記複数のノード夫々から取得した複数のローカルモデルのデータに、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みを付与することにより、グローバルモデルのデータを更新する
処理を前記サーバによって実行し、
前記ローカルデータの特性は、各ノードによるローカルデータの取得方法、又は、前記ローカルデータを出力する機器の仕様である、モデル学習方法。 Distributing global model data stored in the server to multiple nodes;
acquiring data of a local model trained on the global model using local data processed by the plurality of nodes together with characteristics of the local data;
updating data of a global model by assigning weights to data of a plurality of local models acquired from each of the plurality of nodes, the weights corresponding to characteristics of local data used in training each of the local models ;
A model learning method , wherein the characteristics of the local data are a method for acquiring the local data by each node or a specification of a device that outputs the local data .
前記複数のノードで処理するローカルデータによって前記グローバルモデルを基に学習したローカルモデルのデータを、前記ローカルデータの特性と共に取得し、
前記複数のノード夫々から取得した複数のローカルモデルのデータに、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みを付与することにより、グローバルモデルのデータを更新する
処理を前記サーバによって実行し、
前記ローカルデータの特性は、前記ローカルデータの取得元の人物の属性であって、
前記重みとして、前記人物の男女比、年齢分布、又は地域性に応じて予め設定されている重みが付与される、モデル学習方法。 Distributing global model data stored in the server to multiple nodes;
acquiring data of a local model trained on the global model using local data processed by the plurality of nodes together with characteristics of the local data;
updating data of a global model by assigning weights to data of a plurality of local models acquired from each of the plurality of nodes, the weights corresponding to characteristics of local data used in training each of the local models ;
The characteristics of the local data are attributes of a person from whom the local data was obtained,
A model learning method , wherein the weights are preset based on the gender ratio, age distribution, or regionality of the persons .
処理を含む請求項1又は2に記載のモデル学習方法。 The model learning method according to claim 1 or 2 , further comprising the step of redistributing data of the updated global model to the plurality of nodes.
請求項1から請求項3のいずれか1項に記載のモデル学習方法。 The model learning method according to claim 1 , wherein the server performs statistical processing on the data of the local model acquired from the plurality of nodes to update the data of the global model.
前記複数のノードで算出された異なる評価値に基づいて前記グローバルモデルの総評価値を算出し、
算出された総評価値と対応付けて前記グローバルモデルのデータを記憶する
処理を含む請求項1から請求項4のいずれか1項に記載のモデル学習方法。 Each time the data of the global model is updated, an evaluation value of the accuracy of the global model is calculated using local data of each of the plurality of nodes;
calculating a total evaluation value of the global model based on the different evaluation values calculated at the plurality of nodes;
The model learning method according to claim 1 , further comprising: storing data of the global model in association with the calculated total evaluation value.
前記所定の基準を満たした学習結果に対応するグローバルモデルのデータの前記複数のノード及び他の装置への提供を許可する
処理を含む請求項5に記載のモデル学習方法。 continuing to update the data of the global model based on the total evaluation value until the learning satisfies a predetermined criterion;
The model learning method according to claim 5 , further comprising a process of permitting provision of global model data corresponding to the learning result that satisfies the predetermined criterion to the plurality of nodes and other devices.
更新後のグローバルモデルに対して算出された総評価値を記憶し、
総評価に基づいて再分配するグローバルモデルを決定する
処理を含む請求項5又は6に記載のモデル学習方法。 Each time the data of the global model is updated,
A total evaluation value calculated for the updated global model is stored.
The model learning method according to claim 5 or 6 , further comprising a process of determining a global model for redistribution based on a total evaluation.
比較の結果、評価がより高いグローバルモデルを、再分配するグローバルモデルとして決定する
処理を含む請求項7に記載のモデル学習方法。 A total evaluation value calculated for the updated global model is compared with a total evaluation value for the previously updated global model;
The model learning method according to claim 7 , further comprising the step of: determining, as a result of the comparison, a global model having a higher evaluation as a global model to be redistributed.
前記サーバは、前記複数のノードから集約したローカルモデルのデータ夫々に、前記データ量又は学習量に対応する重みを付与して前記グローバルモデルのデータの更新に使用する
処理を含む請求項1から請求項8のいずれか1項に記載のモデル学習方法。 the plurality of nodes sequentially store an amount of local data used in learning a local model or an amount of learning of the local model;
9. The model learning method according to claim 1, further comprising a process in which the server assigns a weight corresponding to the amount of data or the amount of learning to each of the local model data aggregated from the plurality of nodes and uses the weight for updating the data of the global model.
画像データの画質が高いほどに重みが大きく付与される
請求項1に記載のモデル学習方法。 The local data is image data, and the characteristic is image quality of the image data output by the device,
The model learning method according to claim 1 , wherein the higher the image quality of the image data, the greater the weighting.
普及度が高い型番の機器から出力されるローカルデータほどに重みが大きく付与される
請求項1に記載のモデル学習方法。 The characteristic is a model number of a device that outputs the local data,
The model learning method according to claim 1 , wherein a greater weight is assigned to local data output from a device having a model number that is more widely used.
最も評価値が高い更新後のグローバルモデルを選択する
請求項5に記載のモデル学習方法。 storing, in the plurality of nodes, an evaluation value for a global model updated by the server based on local data, the evaluation value and data of the global model;
The model learning method according to claim 5 , further comprising the step of selecting the updated global model having the highest evaluation value.
前記サーバは、前記複数のノードへグローバルモデルのデータを配布し、
前記複数のノードは夫々、処理対象のローカルデータによって前記グローバルモデルからローカルモデルの学習を各々進め、
前記サーバは、
学習後のローカルモデルのデータを、学習に使用したローカルデータの特性と共に前記複数のノードから取得し、
前記ローカルデータの特性は、各ノードによるローカルデータの取得方法、又は、前記ローカルデータを出力する機器の仕様であり、
前記サーバは、取得した複数のローカルモデルのデータを、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みを付与することにより、グローバルモデルのデータを更新する
モデル学習システム。 The system includes a plurality of nodes each processing local data, and a server connected to the plurality of nodes for communication;
The server distributes data of a global model to the plurality of nodes;
each of the plurality of nodes learns a local model from the global model using local data to be processed;
The server,
obtaining trained local model data from the plurality of nodes together with characteristics of the local data used in training;
the characteristics of the local data are a method for acquiring the local data by each node or a specification of a device that outputs the local data;
The server updates the data of the global model by assigning weights to the acquired data of the multiple local models corresponding to characteristics of the local data used to train each local model.
前記サーバは、前記複数のノードへグローバルモデルのデータを配布し、The server distributes data of a global model to the plurality of nodes;
前記複数のノードは夫々、処理対象のローカルデータによって前記グローバルモデルからローカルモデルの学習を各々進め、each of the plurality of nodes learns a local model from the global model using local data to be processed;
前記サーバは、The server,
学習後のローカルモデルのデータを、学習に使用したローカルデータの特性と共に前記複数のノードから取得し、obtaining trained local model data from the plurality of nodes together with characteristics of the local data used in training;
前記ローカルデータの特性は、前記ローカルデータの取得元の人物の属性であって、The characteristics of the local data are attributes of a person from whom the local data was obtained,
前記複数のノード夫々から取得した複数のローカルモデルのデータに対し、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みとして、前記人物の男女比、年齢分布、又は地域性に応じて予め設定されている重みを付与することにより、グローバルモデルのデータを更新するThe data of the global model is updated by assigning weights, which are preset according to the gender ratio, age distribution, or regionality of the people, to the data of the multiple local models acquired from each of the multiple nodes as weights corresponding to the characteristics of the local data used in learning each local model.
モデル学習システム。Model learning system.
記憶するグローバルモデルのデータに対する処理部と
を備え、
前記処理部により、
前記グローバルモデルのデータを複数のノードに対して配布し、
前記複数のノードで処理するローカルデータによって前記グローバルモデルのデータを基に学習したローカルモデルのデータを、前記ローカルデータの特性と共に前記通信部から取得する処理を実行し、
前記ローカルデータの特性は、各ノードによるローカルデータの取得方法、又は、前記ローカルデータを出力する機器の仕様であり、
前記処理部は、前記複数のノード夫々から取得した複数のローカルモデルのデータを、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みを付与することにより、グローバルモデルのデータを更新する
サーバ装置。 A communication unit that communicates with a plurality of nodes;
a processing unit for storing data of a global model,
The processing unit
Distributing the global model data to a plurality of nodes;
execute a process of acquiring data of a local model learned based on data of the global model by local data processed by the plurality of nodes from the communication unit together with characteristics of the local data;
the characteristics of the local data are a method for acquiring the local data by each node or a specification of a device that outputs the local data;
The processing unit updates the data of a global model by assigning weights to the data of a plurality of local models acquired from each of the plurality of nodes, the weights corresponding to characteristics of the local data used in training each local model.
記憶するグローバルモデルのデータに対する処理部とA processing unit for storing data of a global model;
を備え、Equipped with
前記処理部により、The processing unit
前記グローバルモデルのデータを複数のノードに対して配布し、Distributing the global model data to a plurality of nodes;
前記複数のノードで処理するローカルデータによって前記グローバルモデルのデータを基に学習したローカルモデルのデータを、前記ローカルデータの特性と共に前記通信部から取得する処理を実行し、execute a process of acquiring data of a local model learned based on data of the global model by local data processed by the plurality of nodes from the communication unit together with characteristics of the local data;
前記ローカルデータの特性は、前記ローカルデータの取得元の人物の属性であって、The characteristics of the local data are attributes of a person from whom the local data was obtained,
前記複数のノード夫々から取得した複数のローカルモデルのデータに対し、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みとして、前記人物の男女比、年齢分布、又は地域性に応じて予め設定されている重みを付与することにより、グローバルモデルのデータを更新するThe data of the global model is updated by assigning weights, which are preset according to the gender ratio, age distribution, or regionality of the people, to the data of the multiple local models acquired from each of the multiple nodes as weights corresponding to the characteristics of the local data used in learning each local model.
サーバ装置。Server device.
記憶するグローバルモデルのデータを前記複数のノードに対して配布し、
前記複数のノードで処理するローカルデータによって前記グローバルモデルを基に学習したローカルモデルのデータを、前記ローカルデータの特性と共に取得する処理を実行させ、
前記ローカルデータの特性は、各ノードによるローカルデータの取得方法、又は、前記ローカルデータを出力する機器の仕様であり、
前記コンピュータに、
前記複数のノード夫々から取得した複数のローカルモデルのデータを、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みを付与することにより、グローバルモデルのデータを更新する
処理を実行させるコンピュータプログラム。 A computer that can communicate with multiple nodes.
Distributing the stored global model data to the plurality of nodes;
executing a process of acquiring data of a local model learned based on the global model by local data processed by the plurality of nodes together with characteristics of the local data;
the characteristics of the local data are a method for acquiring the local data by each node or a specification of a device that outputs the local data;
The computer includes:
A computer program that executes a process of updating data of a global model by assigning weights to data of a plurality of local models acquired from each of the plurality of nodes, the weights corresponding to characteristics of the local data used in training each local model.
記憶するグローバルモデルのデータを前記複数のノードに対して配布し、Distributing the stored global model data to the plurality of nodes;
前記複数のノードで処理するローカルデータによって前記グローバルモデルを基に学習したローカルモデルのデータを、前記ローカルデータの特性と共に取得する処理を実行させ、executing a process of acquiring data of a local model learned based on the global model by local data processed by the plurality of nodes together with characteristics of the local data;
前記ローカルデータの特性は、前記ローカルデータの取得元の人物の属性であって、The characteristics of the local data are attributes of a person from whom the local data was obtained,
前記コンピュータに、The computer includes:
前記複数のノード夫々から取得した複数のローカルモデルのデータに対し、各ローカルモデルの学習に用いられたローカルデータの特性に対応する重みとして、前記人物の男女比、年齢分布、又は地域性に応じて予め設定されている重みを付与することにより、グローバルモデルのデータを更新するThe data of the global model is updated by assigning weights, which are preset according to the gender ratio, age distribution, or regionality of the people, to the data of the multiple local models acquired from each of the multiple nodes as weights corresponding to the characteristics of the local data used in learning each local model.
処理を実行させるコンピュータプログラム。A computer program that executes a process.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020186617A JP7617724B2 (en) | 2020-11-09 | 2020-11-09 | MODEL LEARNING METHOD, MODEL LEARNING SYSTEM, SERVER DEVICE, AND COMPU |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020186617A JP7617724B2 (en) | 2020-11-09 | 2020-11-09 | MODEL LEARNING METHOD, MODEL LEARNING SYSTEM, SERVER DEVICE, AND COMPU |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022076274A JP2022076274A (en) | 2022-05-19 |
| JP7617724B2 true JP7617724B2 (en) | 2025-01-20 |
Family
ID=81606562
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020186617A Active JP7617724B2 (en) | 2020-11-09 | 2020-11-09 | MODEL LEARNING METHOD, MODEL LEARNING SYSTEM, SERVER DEVICE, AND COMPU |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7617724B2 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7673678B2 (en) | 2022-05-02 | 2025-05-09 | トヨタ自動車株式会社 | Luggage delivery vehicle |
| JP2024006291A (en) * | 2022-07-01 | 2024-01-17 | 株式会社東芝 | Learning systems and methods |
| WO2025177459A1 (en) * | 2024-02-21 | 2025-08-28 | Ntt株式会社 | Model integration device, method, and program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019526851A (en) | 2016-07-18 | 2019-09-19 | ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC | Distributed machine learning system, apparatus, and method |
| JP2020528589A (en) | 2017-08-11 | 2020-09-24 | グーグル エルエルシー | On-device machine learning platform |
| CN111754000A (en) | 2020-06-24 | 2020-10-09 | 清华大学 | Quality-aware edge intelligent federated learning method and system |
| WO2020223620A1 (en) | 2019-05-02 | 2020-11-05 | Splashlight Holding Llc | Digital anthropology and ethnography system |
-
2020
- 2020-11-09 JP JP2020186617A patent/JP7617724B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019526851A (en) | 2016-07-18 | 2019-09-19 | ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC | Distributed machine learning system, apparatus, and method |
| JP2020528589A (en) | 2017-08-11 | 2020-09-24 | グーグル エルエルシー | On-device machine learning platform |
| WO2020223620A1 (en) | 2019-05-02 | 2020-11-05 | Splashlight Holding Llc | Digital anthropology and ethnography system |
| CN111754000A (en) | 2020-06-24 | 2020-10-09 | 清华大学 | Quality-aware edge intelligent federated learning method and system |
Non-Patent Citations (2)
| Title |
|---|
| JADHAV, Ashwin R et al.,Federated-Learning-PyTorch / src / federated_main.py,GitHub [online],2020年07月25日,[検索日 2024.05.16]、インターネット:<URL:https://github.com/AshwinRJ/Federated-Learning-PyTorch/blob/master/src/federated_main.py> |
| MCMAHAN, H. Brendan et al.,Communication-Efficient Learning of Deep Networks from Decentralized Data,arXiv [online],2017年02月28日,pp.1-11,[検索日 2024.05.16]、インターネット:<URL:https://arxiv.org/pdf/1602.05629v3> |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022076274A (en) | 2022-05-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Jesson et al. | Quantifying ignorance in individual-level causal-effect estimates under hidden confounding | |
| JP7617724B2 (en) | MODEL LEARNING METHOD, MODEL LEARNING SYSTEM, SERVER DEVICE, AND COMPU | |
| KR102190299B1 (en) | Method, device and program for predicting the prognosis of gastric cancer using artificial neural networks | |
| JP6975692B2 (en) | Method of presenting information related to the basis of the predicted value output by the computer system and the predictor. | |
| US20180144244A1 (en) | Distributed clinical workflow training of deep learning neural networks | |
| CN112735535A (en) | Prediction model training method, prediction model training device, data prediction method, data prediction device and storage medium | |
| US20190019582A1 (en) | Systems and methods for predicting multiple health care outcomes | |
| EP3223183A1 (en) | Case-based reasoning in the cloud using deep learning | |
| CN112074915A (en) | Visualization of biomedical predictions | |
| JP2019185751A (en) | Method of feature quantity preparation, system, and program | |
| CN114611707A (en) | Method and system for machine learning by combining rules | |
| US11847389B2 (en) | Device and method for optimizing an input parameter in a processing of a semiconductor | |
| CN105808906B (en) | The analysis method and its device of patient personal characteristics | |
| JP2022076278A (en) | Model learning method, model learning system, server device, and computer program | |
| KR102829085B1 (en) | Health state prediction system including ensemble prediction model and operation method thereof | |
| JP2023533587A (en) | Selecting a training dataset on which to train the model | |
| JP7561005B2 (en) | Model learning method, model learning system, and computer program | |
| Cunha Jr et al. | Uncertainty quantification in mechanistic epidemic models via cross-entropy approximate Bayesian computation | |
| US9304895B1 (en) | Evolutionary technique with n-pool evolution | |
| Farag et al. | Inductive conformal prediction for harvest-readiness classification of cauliflower plants: A comparative study of uncertainty quantification methods | |
| CN118114257B (en) | Private domain data privacy disclosure risk assessment method based on knowledge graph | |
| JP7551458B2 (en) | Model data providing method, model data providing system, server device, and computer program | |
| CN116324830A (en) | Appropriate for decentralized training methods on disparate training sets | |
| JP7401260B2 (en) | Information processing system, information processing method and computer program | |
| JP7545297B2 (en) | Model data provision method, model data provision system, and computer program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230607 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240410 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240528 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20240717 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240724 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20240717 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240903 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241126 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20241209 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241224 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250107 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7617724 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |