JP7502808B2 - Learning device, learning method, and learning program - Google Patents
Learning device, learning method, and learning program Download PDFInfo
- Publication number
- JP7502808B2 JP7502808B2 JP2022101590A JP2022101590A JP7502808B2 JP 7502808 B2 JP7502808 B2 JP 7502808B2 JP 2022101590 A JP2022101590 A JP 2022101590A JP 2022101590 A JP2022101590 A JP 2022101590A JP 7502808 B2 JP7502808 B2 JP 7502808B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- extraction
- label
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 77
- 238000000605 extraction Methods 0.000 claims description 131
- 238000012545 processing Methods 0.000 claims description 56
- 238000011156 evaluation Methods 0.000 claims description 37
- 230000003416 augmentation Effects 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 8
- 230000000670 limiting effect Effects 0.000 claims description 6
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000002950 deficient Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Supply And Installment Of Electrical Components (AREA)
- Testing And Monitoring For Control Systems (AREA)
Description
本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method, and a learning program.
従来から、画像処理の技術を用いて製品の良否の判定等を行うために、ニューラルネットワークを用いたディープラーニングによる学習結果を利用することが行われている。また、ディープラーニングによる学習を効率化するために、特許文献1において、モデルの学習を適切に行うための学習支援装置、及び学習装置等が提案されている。 Conventionally, the results of learning through deep learning using neural networks have been used to determine the quality of products using image processing technology. In addition, in order to make learning through deep learning more efficient, Patent Document 1 proposes a learning support device and a learning device for appropriately learning a model.
特許文献1の学習支援装置は、対象データを第1ラベル及び第2ラベルの何れかに分類するように教師データを用いて学習されたモデルと、第1ラベルが付与された第1データ及び第2ラベルが付与された第2データを有する教師データとに基づいて、教師データの特徴量を教師データごとに導出している。 The learning support device of Patent Document 1 derives features of the teacher data for each piece of teacher data based on a model trained using teacher data to classify target data into either a first label or a second label, and the teacher data having first data assigned with a first label and second data assigned with a second label.
また、同装置では、第1ラベル及び第2ラベルの何れかがそれぞれに付与された少なくとも1つの教師候補データとモデルとに基づいて教師候補データの特徴量を教師候補データごとに導出する導出部と、教師候補データと第1データとの距離、及び、教師候補データと第2データとの距離の少なくとも一方を教師候補データごとに算出する算出部と、距離に基づいて教師候補データの中から教師データとして追加するデータを選択する選択部と、を備える。 The device also includes a derivation unit that derives features of the teacher candidate data for each teacher candidate data based on at least one of teacher candidate data to which either a first label or a second label has been assigned and a model, a calculation unit that calculates at least one of the distance between the teacher candidate data and the first data and the distance between the teacher candidate data and the second data for each teacher candidate data, and a selection unit that selects data to be added as teacher data from the teacher candidate data based on the distance.
特許文献1の学習支援装置では、第1ラベルに分類された複数の教師候補データの中から、前記距離が第2ラベルの教師データに近いものを選択し、第2ラベルに分類された複数の教師候補データの中から、前記距離が第1ラベルの教師データに近いものを選択する。 In the learning support device of Patent Document 1, from among multiple teacher candidate data classified into a first label, data whose distance is close to the teacher data of a second label is selected, and from among multiple teacher candidate data classified into a second label, data whose distance is close to the teacher data of the first label is selected.
当該処理によって、第1ラベルである教師候補データのうち第2ラベルに近いもの、即ち、第1ラベルか第2ラベルかの識別が困難な教師候補データを選択することになる。第2ラベルの教師候補データについても同様である。特許文献1の学習支援装置では、このような識別が困難な教師候補データを教師データとすることにより、教師データの質を向上させ、モデルを効率的に学習させることが可能となった。 This process selects teacher candidate data with the first label that is close to the second label, i.e., teacher candidate data that is difficult to distinguish between the first label and the second label. The same applies to teacher candidate data with the second label. In the learning support device of Patent Document 1, by using such teacher candidate data that is difficult to distinguish as teacher data, it is possible to improve the quality of the teacher data and efficiently train the model.
特許文献1に記載の学習支援装置によって、効率のよい学習を行うことができるようになった。ところで、一般的な学習方法においては、教師データを所定の手法によって増加させる増加処理を行うと、学習効果を高められることが一般に知られている。このため、特許文献1に記載の学習支援装置においても、教師データを増加させることにより、学習効果が高まることが期待される。 The learning support device described in Patent Document 1 makes it possible to carry out efficient learning. However, in general learning methods, it is generally known that the learning effect can be improved by performing an increase process in which the teacher data is increased using a specified method. For this reason, it is expected that the learning effect will also be improved by increasing the teacher data in the learning support device described in Patent Document 1.
しかしながら、特許文献1に記載の学習支援装置において、選択された教師データに対して増加処理を行ったところ、最大エポック数に達しても学習の終了条件を満たすことができないケースや、学習時間が過大となるケースが発生することが判明した。 However, when the learning support device described in Patent Document 1 performed an increase process on selected teacher data, it was found that there were cases where the learning termination condition could not be met even when the maximum number of epochs was reached, and cases where the learning time became excessive.
本発明は、上記課題に鑑み、モデルの学習を適切に行うことができる学習装置、学習方法及び学習プログラムを提供することを目的とする。 In view of the above problems, the present invention aims to provide a learning device, a learning method, and a learning program that can appropriately learn a model.
上記目的を達成するために、本発明の学習装置は、対象データについて評価値を算出し、前記評価値と所定の閾値を比較して少なくとも第1ラベル又は第2ラベルの何れかのラベルに分類するように教師データを用いて学習するモデルに、学習を行わせる学習装置であって、少なくとも前記第1ラベル又は前記第2ラベルの何れかに分類された教師候補データを取得するデータ取得部と、前記教師候補データの内容の一部を変更して一又は複数の変更教師候補データを生成する増加処理部と、前記教師候補データ及び前記変更教師候補データを母集団として、前記母集団について前記モデルを用いて評価値を算出し、前記評価値が前記閾値を含む所定の抽出範囲にあるデータを抽出する抽出処理を行う抽出部と、所定の学習率で前記モデルに学習処理を行わせる学習部と、前記抽出部及び前記学習部を制御する制御部を備え、前記制御部は、前記抽出部により前記抽出処理を行った結果抽出された抽出データの数が所定の停止数を超えるときは、前記抽出データを前記教師データに追加して前記学習処理を行うと共に、前記抽出処理を行い、新たな抽出データの数が前記停止数となるまで前記学習処理と前記抽出処理を実行することを特徴とする。 In order to achieve the above object, the learning device of the present invention is a learning device that performs learning on a model that uses teacher data to calculate an evaluation value for target data, compares the evaluation value with a predetermined threshold, and classifies the target data into at least one of a first label or a second label. The learning device includes a data acquisition unit that acquires teacher candidate data classified into at least one of the first label or the second label, an increase processing unit that changes part of the content of the teacher candidate data to generate one or more modified teacher candidate data, an extraction unit that performs an extraction process that uses the teacher candidate data and the modified teacher candidate data as a population, calculates an evaluation value for the population using the model, and extracts data whose evaluation value is in a predetermined extraction range including the threshold, a learning unit that causes the model to perform a learning process at a predetermined learning rate, and a control unit that controls the extraction unit and the learning unit. When the number of extracted data extracted as a result of the extraction unit performing the extraction process exceeds a predetermined stop number, the control unit adds the extracted data to the teacher data and performs the learning process, and performs the extraction process, and performs the learning process and the extraction process until the number of new extracted data reaches the stop number.
本発明の学習装置は、教師候補データの内容の一部を変更して一又は複数の変更教師候補データを生成する増加処理部を備えており、教師候補データのみならず変更教師候補データを含めて教師候補データを抽出するための母集団としている。この増加処理部によるデータの増加は、学習処理と抽出処理を行う前に行っているため、学習処理と抽出処理を繰り返すことにより最終的には抽出データの数が所定の停止数となり、学習が終了する。従って、本発明の学習装置は、従来の学習装置と比べて、モデルに対して多くの母集団を用いて効率よく学習させることができる。 The learning device of the present invention is equipped with an augmentation processing unit that modifies part of the content of the teacher candidate data to generate one or more modified teacher candidate data, and uses not only the teacher candidate data but also the modified teacher candidate data as a population for extracting teacher candidate data. Since the data augmentation by this augmentation processing unit is performed before the learning process and the extraction process are performed, the number of extracted data eventually reaches a predetermined stopping number by repeating the learning process and the extraction process, and learning ends. Therefore, compared to conventional learning devices, the learning device of the present invention can efficiently train a model using a larger population.
本発明の学習装置において、前記制御部は、学習済みのモデルを用いて抽出処理を行う際に、前記母集団から前記抽出データを除いた新たな母集団を作成し、前記新たな母集団に対して前記抽出部によって前記抽出処理を行うようにしてもよい。当該構成によれば、学習処理と抽出処理を繰り返す度に母集団のデータ数が減少していくので、制御部における処理の負担を軽減することができる。 In the learning device of the present invention, when performing the extraction process using a trained model, the control unit may create a new population by removing the extracted data from the population, and perform the extraction process on the new population using the extraction unit. With this configuration, the amount of data in the population decreases each time the learning process and the extraction process are repeated, thereby reducing the processing load on the control unit.
本発明の学習装置は、前記抽出処理において、変更の基礎となった前記教師候補データが共通する前記変更教師候補データが複数あるときは、一度の前記抽出処理において所定の限度抽出数のみの前記教師候補データ又は前記変更教師候補データを抽出する限定処理を行うようにしてもよい。当該構成によれば、学習処理を行う際の教師候補データ又は変更教師候補データの数が抑えられるので、学習処理を迅速に行うことができる。 In the extraction process, when there are multiple pieces of modified teacher candidate data that share the teacher candidate data that was the basis for the change, the learning device of the present invention may perform a limiting process to extract only a predetermined limited number of teacher candidate data or modified teacher candidate data in one extraction process. With this configuration, the number of teacher candidate data or modified teacher candidate data when performing the learning process is reduced, so that the learning process can be performed quickly.
また、本発明の学習装置において、前記抽出データを表示させる表示部と、前記表示部に表示された前記抽出データについて前記ラベルの変更が可能なラベル変更部をさらに備え、前記抽出データを前記教師データに追加する前に、前記ラベル変更部により前記ラベルの変更を可能としてもよい。当該構成によれば、ユーザはラベル変更部と入力部により、抽出部におけるラベルの判定結果を確認でき、判定結果に誤りがあるときはラベル変更部により変更ができるので、抽出部における判定の精度を向上させることができる。 The learning device of the present invention may further include a display unit that displays the extracted data, and a label change unit that can change the label of the extracted data displayed on the display unit, and the label change unit may change the label before the extracted data is added to the teacher data. With this configuration, a user can check the label determination result in the extraction unit using the label change unit and the input unit, and if there is an error in the determination result, it can be changed by the label change unit, thereby improving the accuracy of the determination in the extraction unit.
また、本発明の学習装置において、前記制御部が、前記抽出データの数が前記停止数を超え、所定の基準データ数未満の場合、前記抽出範囲の幅を広げる拡張処理を行って前記抽出処理を行い、前記抽出データの数が前記基準データ数以上となったときに前記学習処理を行うようにしてもよい。 In addition, in the learning device of the present invention, the control unit may perform the extraction process by performing an extension process to widen the width of the extraction range when the number of extracted data exceeds the stop number and is less than a predetermined reference number of data, and perform the learning process when the number of extracted data becomes equal to or greater than the reference number of data.
抽出データが基準データ数より少ない状態で、ユーザがラベル変更部によりラベルの変更を行うと、ラベルの変更の頻度が多くなりユーザに負担が生じる。本発明では、抽出データの数が基準データ数以上となってから学習処理及び抽出処理を行うので、ユーザが選択部によりラベルの選択を行う頻度を減少させることができる。 When the number of extracted data is less than the reference number of data, if the user changes the labels using the label change unit, the frequency of label changes increases, placing a burden on the user. In the present invention, the learning process and extraction process are performed after the number of extracted data becomes equal to or greater than the reference number of data, so that the frequency with which the user selects labels using the selection unit can be reduced.
また、本発明の学習装置において、前記制御部が、前記拡張処理として前記抽出範囲の幅を広げると共に前記学習率を低下させるようにしてもよい。このように、抽出範囲を広げることで、抽出データの数を増加させることができる。また、学習率は、1回の学習でニューラルネットワーク内の重みやバイアスを更新する量の調整値である。本発明では、拡張処理において、抽出範囲を広げた際に学習率を低下させることで、抽出データの数の微調整が行われる。 In addition, in the learning device of the present invention, the control unit may widen the width of the extraction range and decrease the learning rate as the expansion process. In this way, by widening the extraction range, the number of extracted data can be increased. Furthermore, the learning rate is an adjustment value for the amount by which weights and biases in the neural network are updated in one learning session. In the present invention, in the expansion process, the learning rate is decreased when the extraction range is widened, thereby fine-tuning the number of extracted data.
また、本発明の学習装置は、対象データについて評価値を算出し、前記評価値と所定の閾値を比較して少なくとも第1ラベル又は第2ラベルの何れかのラベルに分類するように教師データを用いて学習するモデルに、学習を行わせる学習装置であって、少なくとも前記第1ラベル又は前記第2ラベルの何れかに分類された教師候補データを取得するデータ取得部と、前記教師候補データを母集団として、前記母集団について前記モデルを用いて評価値を算出し、前記評価値が前記閾値を含む所定の抽出範囲にあるデータを抽出する抽出処理を行う抽出部と、所定の学習率で前記モデルに学習処理を行わせる学習部と、前記抽出部及び前記学習部を制御する制御部を備え、前記制御部は、前記抽出部により抽出された抽出データの数が所定の停止数を超え、所定の基準データ数未満の場合、前記抽出範囲の幅を広げる拡張処理を行って前記抽出処理を行い、前記抽出データの数が前記基準データ数以上となったときに、前記抽出データを前記教師データに追加して前記学習処理を行うと共に、前記抽出処理を行い、新たな抽出データの数が前記停止数となるまで前記学習処理と前記抽出処理を実行することを特徴とする。 The learning device of the present invention is a learning device that performs learning on a model that uses teacher data to calculate an evaluation value for target data, compares the evaluation value with a predetermined threshold, and classifies the target data into at least one of the first label or the second label. The learning device includes a data acquisition unit that acquires teacher candidate data classified into at least one of the first label or the second label, an extraction unit that performs an extraction process that uses the teacher candidate data as a population, calculates an evaluation value for the population using the model, and extracts data whose evaluation value is in a predetermined extraction range including the threshold, a learning unit that causes the model to perform a learning process at a predetermined learning rate, and a control unit that controls the extraction unit and the learning unit. When the number of extracted data extracted by the extraction unit exceeds a predetermined stop number and is less than a predetermined reference data number, the control unit performs an extension process that widens the width of the extraction range and performs the extraction process, and when the number of extracted data becomes equal to or greater than the reference data number, the control unit adds the extracted data to the teacher data and performs the learning process, and performs the extraction process, and performs the learning process and the extraction process until the number of new extracted data becomes the stop number.
上記構成の学習装置によれば、抽出手段による抽出数が所定の基準データ数より少ない場合は、抽出数が多くなるように抽出範囲の幅を広げるため、抽出数が多くなるので、効率よく学習処理を行うことができる。 According to the learning device configured as above, if the number of data extracted by the extraction means is less than a predetermined reference number, the width of the extraction range is widened so that the number of data extracted increases, and the number of data extracted increases, allowing the learning process to be performed efficiently.
本発明の学習方法は、対象データについて評価値を算出し、前記評価値と所定の閾値を比較して少なくとも第1ラベル又は第2ラベルの何れかのラベルに分類するように教師データを用いて学習するモデルに、学習を行わせる学習方法であって、少なくとも前記第1ラベル又は前記第2ラベルの何れかに分類された教師候補データを取得するデータ取得工程と、前記教師候補データの内容の一部を変更して一又は複数の変更教師候補データを生成する増加処理工程と、前記教師候補データ及び前記変更教師候補データを母集団として、前記母集団について前記モデルを用いて評価値を算出し、前記評価値が前記閾値を含む所定の抽出範囲にあるデータを抽出する抽出工程と、所定の学習率で前記モデルに学習を行わせる学習工程とを含み、前記抽出工程により抽出された抽出データの数が所定の停止数を超えるときは、前記抽出データを前記教師データに追加して前記学習工程を実行すると共に、前記母集団から前記抽出データを除いた新たな母集団を作成し、前記新たな母集団に対して前記抽出工程を実行し、新たな抽出データの数が前記停止数となるまで前記学習工程と前記抽出工程を実行することを特徴とする。 The learning method of the present invention is a learning method for causing a model that uses teacher data to learn so as to calculate an evaluation value for target data, compare the evaluation value with a predetermined threshold value, and classify the target data into at least one of the first label or the second label, and includes a data acquisition step of acquiring teacher candidate data classified into at least one of the first label or the second label, an increase processing step of generating one or more modified teacher candidate data by modifying a part of the content of the teacher candidate data, an extraction step of calculating an evaluation value for the teacher candidate data and the modified teacher candidate data as a population using the model, and extracting data whose evaluation value is within a predetermined extraction range including the threshold value, and a learning step of causing the model to learn at a predetermined learning rate, and when the number of extracted data extracted by the extraction step exceeds a predetermined stopping number, the extracted data is added to the teacher data and the learning step is executed, and a new population is created by removing the extracted data from the population, and the extraction step is executed for the new population, and the learning step and the extraction step are executed until the number of new extracted data reaches the stopping number.
本発明の学習プログラムは、コンピュータを上記各学習装置として機能させるためのプログラムである。 The learning program of the present invention is a program for causing a computer to function as each of the above learning devices.
次に、図1~図6を参照して、本発明の実施形態である学習装置、学習方法及び学習プログラムについて説明する。図1は、本実施形態の学習装置1の機能的構成を示す説明図である。 Next, a learning device, a learning method, and a learning program according to an embodiment of the present invention will be described with reference to Figures 1 to 6. Figure 1 is an explanatory diagram showing the functional configuration of the learning device 1 according to this embodiment.
本実施形態の学習装置1は、対象データについて評価値を算出して、少なくとも第1ラベルか第2ラベルかを判定して分類するモデルMについて、モデルMが適切な判定を行うことができるように学習をさせる装置である。ここで、モデルとは、コンピュータが判別可能な何らかの入力値を受け取り、何らかの評価・判定をして出力値を出す仕組みをいう。 The learning device 1 of this embodiment is a device that performs learning on a model M that calculates an evaluation value for target data and classifies the data by determining at least whether it is a first label or a second label, so that the model M can make appropriate judgments. Here, a model refers to a mechanism that receives some input value that a computer can distinguish, performs some evaluation or judgment, and outputs an output value.
モデルMは、ニューラルネットワークとパラメータとを含む構造を有する。ニューラルネットワークは、複数のニューロンを結合させた構造を有する。一例として、ニューラルネットワークは、複数のニューロンがグループ化された層を連ねた階層型の多層ニューラルネットワークとすることができる。 The model M has a structure including a neural network and parameters. The neural network has a structure in which multiple neurons are connected. As an example, the neural network can be a hierarchical multi-layer neural network in which layers are connected in which multiple neurons are grouped.
ニューラルネットワークは、ニューロンの個数及び結合関係で定義される。ニューロン間又は層間の結合強度は、パラメータ(重み係数など)を用いて定義される。ニューラルネットワークでは、対象データが入力され、複数のニューロンの演算結果及びパラメータに基づいて、対象データの評価及びラベルの付与が行われる。 A neural network is defined by the number of neurons and their connection relationships. The strength of connections between neurons or layers is defined using parameters (such as weighting coefficients). Target data is input into a neural network, and the target data is evaluated and labeled based on the calculation results and parameters of multiple neurons.
モデルMは、対象データの内容を認識し、少なくとも第1ラベルか第2ラベルかの判定を行う。例えば、対象データが画像データである場合、ラベルとしては、被写体の種類(人物、乗り物、動物等)、又は被写体の品質(良品、不良品等)とすることができる。このラベルは、対象データに紐付けて記憶される。なお、モデルMの構成は、特許文献1と同様であるので、詳細な説明は省略する。 Model M recognizes the contents of the target data and determines whether it is at least the first label or the second label. For example, if the target data is image data, the label can be the type of subject (person, vehicle, animal, etc.) or the quality of the subject (good, defective, etc.). This label is linked to the target data and stored. Note that the configuration of model M is the same as that of Patent Document 1, so a detailed description will be omitted.
次に、図1を参照して、本実施形態の学習装置1の機能的構成について説明する。本実施形態の学習装置1は、機能的構成として、データ取得部2、増加処理部3、制御部4、抽出部5、学習部6、表示部7及びラベル変更部8を備えている。
Next, the functional configuration of the learning device 1 of this embodiment will be described with reference to FIG. 1. The learning device 1 of this embodiment includes, as its functional configuration, a
本実施形態の学習装置1で取り扱う対象データは、第1ラベル又は第2ラベルの何れかが付与された教師データ11と、教師データ11の候補となる教師候補データ12と、増加処理部3によって増加処理がなされた変更教師候補データ13である。教師候補データ12及び変更教師候補データ13についても、教師データ11と同様に、第1ラベル又は第2ラベルの何れかが付与されている。
The target data handled by the learning device 1 of this embodiment are teacher data 11 to which either a first label or a second label has been assigned,
ここで、教師データとは、モデルMに与えられる例題と解答を示すデータをいう。また、教師候補データとは、モデルMに与える新たな教師データの候補となりうるデータをいう。 Here, teacher data refers to data that shows example questions and answers to be given to model M. Also, candidate teacher data refers to data that can be candidates for new teacher data to be given to model M.
データ取得部2は、学習装置1によってモデルMの学習を行うために、教師候補データ12を取得するデータ取得工程を行う機能部である。
The
増加処理部3は、教師候補データ12の内容の一部を変更して一又は複数の変更教師候補データ13を生成する機能部である。増加処理としては、例えば、教師候補データ12が画像データの場合、以下のような処理を挙げることができる。
The
例えば、元画像データを左右反転したデータ、上下反転したデータ、及び180°回転したデータを作成するフリップ処理、元画像データをX-Y方向に少しずつ座標をずらしたデータを作成するシフト処理、元画像データを右方向及び左方向に微小角度回転させたデータを作成する微小回転処理、元画像データに中央値フィルタやガウシアンフィルタ等のフィルタをかけるフィルタ処理等である。 For example, there is flip processing, which creates data that is mirror-inverted, mirror-inverted, or rotated 180 degrees from the original image data; shift processing, which creates data in which the coordinates of the original image data are shifted slightly in the X-Y direction; micro-rotation processing, which creates data in which the original image data is rotated a small angle to the right or left; and filter processing, which applies a filter such as a median filter or Gaussian filter to the original image data.
制御部4は、抽出部5と学習部6を制御してモデルMに効果的な学習処理を行わせる機能部である。抽出部5は、教師候補データ12及び変更教師候補データ13を母集団14として、この母集団14についてモデルMを用いて評価値を算出し、評価値が第1ラベルと第2ラベルとの閾値を含む所定の抽出範囲にあるデータを抽出する抽出処理を行う機能部である。学習部6は、所定の学習率でモデルMに学習処理を行わせる機能部である。学習処理とは、モデルMのパラメータを最適値に近づけるように調整する処理である。
The control unit 4 is a functional unit that controls the
表示部7は、対象データの判定を行うユーザが、抽出部5によって抽出された抽出データ15を確認できるように、ディスプレイ等の表示機器にデータを表示させる機能部である。ラベル変更部8は、抽出データ15に付与された第1ラベル又は第2ラベルのラベルについて、ユーザが確認してラベルを変更する必要がある場合に、抽出データ15に付されたラベルを変更することができる機能部である。
The
本実施形態の学習装置1は、主要なハードウェアとしてコンピュータ(図示省略)を備えている。コンピュータは、CPU、GPU等のプロセッサ、RAM、ROM、ハードディスク又はSSD(ソリッドステートドライブ)等の記憶装置、インターネット等のネットワークへの接続を行う通信部等を備えている。また、コンピュータの記憶装置には、コンピュータを本実施形態の学習装置1として作動させるための学習プログラムが記憶されている。なお、コンピュータには、クラウドコンピューティングシステムが含まれる。前記各機能部は、ハードウェアとしてコンピュータと、ソフトウェアである学習プログラムによって実現される。 The learning device 1 of this embodiment includes a computer (not shown) as its main hardware. The computer includes a processor such as a CPU or GPU, a storage device such as a RAM, a ROM, a hard disk or an SSD (solid state drive), a communication unit for connecting to a network such as the Internet, and the like. The storage device of the computer also stores a learning program for operating the computer as the learning device 1 of this embodiment. The computer includes a cloud computing system. Each of the functional units is realized by the computer as hardware and the learning program as software.
次に、図2を参照して、本実施形態の学習装置1の作動である学習方法について、対象データが画像である場合を例にして説明する。まず、データ取得部2が教師候補データ12を取得する取得工程を行う(STEP1)。この教師候補データ12は、予め、第1ラベル又は第2ラベルの何れかのラベルが付されている。教師候補データ12の数は、モデルMの学習に必要な数を予め準備しておく。
Next, referring to FIG. 2, a learning method which is the operation of the learning device 1 of this embodiment will be described using an example in which the target data is an image. First, an acquisition step is performed in which the
次に、増加処理部3が、教師候補データ12に対して増加処理を行って変更教師候補データ13を生成する増加処理工程を行う(STEP2)。増加処理としては、前述のフリップ処理、シフト処理、微小回転処理及びフィルタ処理の何れか、又はこれらの処理の組み合わせることにより行う。いずれの処理を行うかは、対象データの性質、モデルMの学習の目的、或いはモデルMによる判定の内容によって適宜選択することができる。
Next, the
次に、制御部4が、初回の処理か否かの確認を行う(STEP3)。初回の処理の場合は(STEP3でYES)、学習済みで初期状態のモデルMについて、学習率を初期値に設定する(STEP5)。この学習率の初期値は、例えば0.001に設定することができる。また、抽出部5における抽出範囲を初期値に設定する(STEP5)。この抽出範囲の初期値は、例えば3に設定することができる。なお、抽出範囲の内容については後述する。
Next, the control unit 4 checks whether or not this is the first processing (STEP 3). If this is the first processing (YES in STEP 3), the learning rate is set to an initial value for the model M that has been trained and is in an initial state (STEP 5). The initial value of this learning rate can be set to 0.001, for example. In addition, the extraction range in the
次に、抽出部5により抽出処理(抽出工程)を行う(STEP6)。抽出処理においては、教師候補データ12と変更教師候補データ13を母集団14として、この母集団14のデータをモデルMに入力し、モデルMにおいて評価値を算出し、この評価値が抽出範囲内であれば抽出データ15として抽出を行い、評価値が抽出範囲外であれば抽出を行わない。
Next, the
図3は、本実施形態の学習装置1における抽出処理をイメージ的に表現したものである。この抽出部5における抽出処理では、母集団14の各データについて、モデルMを用いて評価値を算出する。図3においては、評価値は図の右側に行くほど高く、左側に行くほど低くなる。本実施形態においては、評価が高い方が第1ラベルとなり、評価が低い方が第2ラベルとなる。
Figure 3 is an image of the extraction process in the learning device 1 of this embodiment. In the extraction process in the
図3においては、第1ラベルと第2ラベルとの境界線Bが両ラベルを分ける閾値であり、この閾値を含む所定の範囲を抽出範囲としている。ここで、図3に示すように、評価値が閾値に近い領域にあるものは、第1ラベルであっても第2ラベルに近いものとなり、良品と不良品の差が少ないものとなる。本実施形態においては、図3における抽出範囲の値は3に設定されているが、1~20の値で設定することができる。この値は、抽出の条件や学習の対象に応じて適宜変更が可能である。 In FIG. 3, the boundary line B between the first label and the second label is the threshold value that separates the two labels, and a predetermined range including this threshold value is the extraction range. Here, as shown in FIG. 3, if an evaluation value is in a region close to the threshold value, it will be close to the second label even if it is the first label, and there will be little difference between good and bad products. In this embodiment, the value of the extraction range in FIG. 3 is set to 3, but it can be set to a value between 1 and 20. This value can be changed as appropriate depending on the extraction conditions and the target of learning.
このように、第1ラベルと第2ラベルの所定の領域にあるデータを用いてモデルMの学習を行えば、第1ラベルか第2ラベルかについて見分けが付きにくいデータで学習を行うことができる。このようなデータで学習を行ったモデルMは、些細な差異についての判断を正確に行うことができるようになる。即ち、このようなデータは、効率よくモデルMの学習を行うことができる良質なデータとなる。 In this way, by training model M using data in a specified area of the first label and the second label, it is possible to train with data that is difficult to distinguish as being the first label or the second label. Model M trained with such data will be able to accurately judge minor differences. In other words, such data is good quality data that can be used to train model M efficiently.
抽出部5における抽出処理の内容は、特許文献1に記載された処理と同様である。具体的には、教師候補データ12と変更教師候補データ13をモデルMに入力し、モデルMと教師データ11に基づいて、予め定められた次元の特徴空間で表現される特徴量(ベクトル)をデータごとに算出する。また、特徴空間における教師データ11と教師候補データ12及び変更教師候補データ13との距離をそれぞれ算出する。この距離が抽出範囲内にあればそのデータは抽出され、抽出範囲外であれば当該データは抽出しないという処理を行う。なお、特徴空間における距離の算出の手法については、特許文献1と同様であるので、詳細な説明は省略する。
The content of the extraction process in the
本実施形態の学習装置1においては、抽出部5による抽出処理を行う際に、母集団14において、変更教師候補データ13の変更の基礎となった教師候補データ12が共通するデータが複数あるときは、一度の抽出処理において所定の限度抽出数のデータのみを抽出する限定処理を行っている(STEP6)。
In the learning device 1 of this embodiment, when the
この限定処理を行うことにより、後述するSTEP5において新たな教師データ11によりモデルMを学習させる際に、急激に教師データ11が増加することがないので、学習処理を迅速に行うことができる。本実施形態では、限度抽出数を1としている。このため、本実施形態では、同じ教師候補データ12から複数の変更教師候補データ13が生成されている場合であっても、1回の抽出処理において1個の教師候補データ12又は変更教師候補データ13のみが抽出される。この限度抽出数は、モデルMの状態やハードウェア等の状態により適宜変更することができる。
By performing this limiting process, when learning the model M with new teacher data 11 in
次に、制御部4が、抽出部5により抽出された抽出データ15の数を確認する(STEP7)。具体的には、(1)として、抽出データ15の数xが、所定の停止数を超えているか、及び所定の基準データ数以上であるか、或いは抽出範囲が拡張範囲であるか否かの確認を行う(図2のSTEP7においては、「基準データ数」を「基準数」と表記している)。又は、STEP7では、(2)として、抽出データ15が停止数を超えているが、基準データ数未満であるか否かの確認を行う。
Next, the control unit 4 checks the number of extracted
ここで、停止数は、学習装置1による学習を停止させるか否かの基準となる数字であり、例えば0とすることができる。この場合、抽出部5により抽出されるデータが0になった場合に学習を停止させることになる。
The stop count is a number that is a criterion for whether or not to stop learning by the learning device 1, and can be set to 0, for example. In this case, learning will be stopped when the data extracted by the
また、基準データ数は、後述するユーザの確認作業(STEP8~9)の頻度を低減させるための数字であり、例えば第1ラベルが20、第2ラベルが20とすることができる。この基準データ数は、データの種類や学習環境等の要因により適宜変更することが可能である。 The standard number of pieces of data is a number for reducing the frequency of the user's confirmation work (STEPs 8-9) described below, and can be, for example, 20 for the first label and 20 for the second label. This standard number of pieces of data can be changed as appropriate depending on factors such as the type of data and the learning environment.
この場合、抽出部5により抽出される抽出データ15の数が、第1ラベルが20未満、又は第2ラベルが20未満の場合、ユーザの確認作業を行わずに、再度抽出処理を行って、抽出データ15の数が40以上となった場合にユーザの確認作業を行う。当該処理により、ユーザの確認作業の頻度が減少するので、ユーザの負担軽減を行うことができる。
In this case, if the number of extracted
抽出データ15の数が、停止数を超えると共に、基準データ数以上である場合は(STEP7で1)、表示部7に抽出データ15を表示させる(STEP8)。図4は、表示部7に抽出データ15が表示された状態である。表示画面16には、ラベル変更部8によって抽出データ15に付されたラベル17が適切か否かを確認し、ラベル17の変更を行うための変更表示18が表示される。
If the number of extracted
図4(A)において、表示画面16の上方には、「これは本当に良品ですか?」との記載が表示され、表示画面16の中央には抽出された抽出データ15が表示され、抽出データ15の左側にはラベル17が「良品」として表示され、表示画面16の下方には変更表示18として「はい」「いいえ」「わからない」の3個のボタンが表示される。ユーザがこの変更表示18のボタンをタップする等の操作を行うことにより、抽出データに付されたラベル17(この場合は「良品」)が適切であるか否かを確認し、適切でない場合はラベル17を変更することが可能となる。
In FIG. 4(A), the words "Is this really a good product?" are displayed at the top of the
図4(B)の場合は、ラベル17が「不良品」であり、抽出データ15には不良品と判定された画像が表示される。なお、変更表示18においてユーザが「わからない」を選択した際は、ユーザによる判定を保留して、事後的に判定を行うことができるようになっている。
In the case of FIG. 4(B), the
ユーザによる抽出データ15の確認が行われた後、制御部4は、当該抽出データ15を教師データ11として格納し、新たな教師データ11が次回のラベル17の学習に用いられる。また、制御部4は、母集団14から抽出データ15を取り除き、新たな母集団14を作成する(STEP10)。
After the user has confirmed the extracted
次に、再度初回の処理か否かが確認されるが(STEP3)、この場合は既に初回の処理が終了して2回目以降の処理となるため(STEP3でNO)、制御部4は、新たな教師データ11を加えたモデルMを用いて、学習処理(学習工程)を行う(STEP4)。新たに加えられた教師データ11は、抽出部5によって抽出された学習効果の高い抽出データ15であるので、モデルMによる評価の精度が向上する。その後、学習率を初期値に設定すると共に、抽出部5における抽出範囲を初期値に設定する(STEP5)。
Next, it is checked again whether this is the first processing or not (STEP 3), but in this case, the first processing has already ended and it is the second or subsequent processing (NO in STEP 3), so the control unit 4 performs a learning process (learning step) using the model M to which new teacher data 11 has been added (STEP 4). The newly added teacher data 11 is extracted
制御部4は、以上の抽出処理と学習処理を抽出データ15の数が停止数である0になるまで繰り返す。抽出データ15が停止数である0になったときは(STEP7で3)、処理が終了となる。
The control unit 4 repeats the above extraction process and learning process until the number of extracted
一方で、抽出データ15が停止数を超えているが、基準データ数未満である場合は(STEP7で2)、抽出範囲の幅を広げて拡張範囲(例えば3.7)とすると共に、学習率を低下(例えば0.0002)させる拡張処理を行う(STEP11)。この状態で抽出処理を行うと(STEP6)、抽出範囲の幅が広がっており、抽出部5によって抽出されるデータ数が増加する。また、この抽出処理により、学習率の微調整が行われる。
On the other hand, if the extracted
次に、制御部4は、抽出データ数を確認するが(STEP7)、この場合はSTEP11によって抽出範囲が拡張範囲となっているため(STEP7で1)、抽出処理によって抽出された抽出データの表示及び確認を行う(STEP8~9)。抽出範囲が拡張範囲である場合は、STEP11の拡張処理がなされている状態であり、仮に抽出データ15の数が基準データ数未満であっても、当該基準データ数に近い数のデータが存在することが予想されるためである。
Next, the control unit 4 checks the number of extracted data (STEP 7), but in this case, because the extraction range has been set to an extended range in STEP 11 (1 in STEP 7), the extracted data extracted by the extraction process is displayed and confirmed (STEPs 8-9). If the extraction range is an extended range, the extension process of STEP 11 has been performed, and even if the number of extracted
次に、図5を参照して、増加処理部3によって行われる増加処理の具体例について説明する。図5(A)は、フリップ処理を行った状態を示す説明図であり、オリジナル画像である教師候補データ12から、フリップ処理により、上下反転した画像データ、左右反転した画像データ、及び180°回転させた画像データが生成される。このフリップ処理を行うことで、教師候補データ12に加えて、3個の変更教師候補データ13を得ることができる。
Next, referring to Fig. 5, a specific example of the increase processing performed by the
図5(B)は、シフト処理を行った状態を示す説明図であり、元画像データである教師候補データ12と、フリップ処理で生成された3個の変更教師候補データ13の合計4個のデータについて、X-Y方向にそれぞれ(-1,-1)、(-1,1)・・・という形で画像を微小移動させる。このシフト処理により、32個の画像データを得ることができる。このシフトの単位は、画像であれば画素(ピクセル)としてもよく、mm、或いはμmとしてもよい。また、シフトの範囲は学習の目的等によって適宜変更することができる。
Figure 5 (B) is an explanatory diagram showing the state after shift processing, in which the original image data,
図5(C)は、微小回転処理を行った状態を示す説明図であり、回転無しの画像データに対して、左に1°回転した画像データと、右に1°回転した画像データを生成する。この微小回転の角度は、学習の目的等によって適宜変更することができる。 Figure 5 (C) is an explanatory diagram showing the state after micro-rotation processing, in which image data rotated 1° to the left and image data rotated 1° to the right are generated in comparison with unrotated image data. The angle of this micro-rotation can be changed as appropriate depending on the purpose of learning, etc.
図5(D)は、フィルタ処理を行った状態を示す説明図であり、フィルタ無しの画像データに対して、中央値フィルタを施したデータと、ガウシアンフィルタを施したデータを生成する。中央値フィルタは、メディアンフィルタとも呼ばれており、画像のノイズを除去する際に用いられるフィルタである。ガウシアンフィルタは、平滑化フィルタの一種であり、ガウス分布に従って画像をぼかしてなめらかにするフィルタである。なお、フィルタ処理として、公知の他のフィルタを用いてもよい。 Figure 5 (D) is an explanatory diagram showing the state after filter processing, in which data that has been subjected to a median filter and data that has been subjected to a Gaussian filter are generated from unfiltered image data. A median filter is also called a median filter, and is a filter used to remove noise from an image. A Gaussian filter is a type of smoothing filter that blurs and smoothes an image according to a Gaussian distribution. Note that other well-known filters may also be used for filter processing.
増加処理部3において行われる増加処理は、図5(A)のフリップ処理のみであれば、データ数は4倍となる。さらに、図5(B)のシフト処理を行うと32倍のデータとなり、シフト処理をしない4個のデータを加えると36倍のデータとなる。さらに、図5(C)の微小回転処理を行えば、シフト処理を行った32倍のデータがさらに3倍されて96個のデータとなり、最初の4個のデータを加えると100倍のデータとなる。さらに、図5(D)のフィルタ処理を行えば、100倍のデータが3倍の300倍となる。
If the increase processing performed by the
このように、本実施形態の学習装置1では、増加処理によって教師候補データ12に近似する変更教師候補データ13を多数生成することができるので、抽出処理によって学習効果の高いデータを多数抽出することができる。
In this way, in the learning device 1 of this embodiment, a large amount of modified
次に、本実施形態の学習装置1の作用効果について、図6を参照して説明する。図6は、対象データ数と学習時間との関係を示すグラフである。グラフにおいて実線で示すデータは本実施形態の学習装置1であり、点線で示すデータは従来の学習装置(比較例)を示している。図6のグラフに示すように、本実施形態の学習装置1は、対象データ数が300倍である場合も、学習を終了させることができた。一方で、比較例においては、対象データ数の増加倍数が8倍を超えると、学習を終了させることができなかった。 Next, the effect of the learning device 1 of this embodiment will be described with reference to FIG. 6. FIG. 6 is a graph showing the relationship between the number of target data and learning time. In the graph, the data shown by the solid line is the learning device 1 of this embodiment, and the data shown by the dotted line is a conventional learning device (comparative example). As shown in the graph in FIG. 6, the learning device 1 of this embodiment was able to complete learning even when the number of target data was 300 times. On the other hand, in the comparative example, learning could not be completed when the increase in the number of target data exceeded 8 times.
以上の通り、本実施形態の学習装置1は、従来の学習装置に比べて対象データを増加させることにより、学習の質を向上させることができると共に、対象データが増加された場合であっても学習を終了させることができる。 As described above, the learning device 1 of this embodiment can improve the quality of learning by increasing the amount of target data compared to conventional learning devices, and can also terminate learning even when the amount of target data is increased.
なお、上記実施形態においては、抽出データ15の数が、停止数を超えると共に、基準データ数以上である場合は(STEP7で1)、抽出データ15を表示部7に表示させてユーザによる確認作業を行っているが、表示部7にデータを表示させずに、抽出データ15を教師データ11に加えるようにしてもよい。例えば、増加処理において、すでに教師候補データ12をもとに作成された変更教師候補データ13が表示されて確認作業を受けていれば、表示部7での表示を省略することができる。
In the above embodiment, when the number of extracted
また、上記実施形態においては、対象データが画像データである場合について説明したが、対象データは、音声データ、グラフデータ、又は動画データ等のデータであってもよい。また、上記実施形態では、STEP7において確認する停止数を0に設定しているが、これに限らず、他の数字(例えば1或いは10等の整数)としてもよい。
In the above embodiment, the target data is image data, but the target data may be audio data, graph data, video data, or other data. In the above embodiment, the number of stops to be confirmed in
また、上記実施形態においては、モデルMは、被写体の良品又は不良品を判定するために、第1ラベル又は第2ラベルの判定を行う例について説明しているが、被写体の種類(人物、乗り物、動物等)の判定を行うモデルMについても、上記実施形態と同様に適用が可能である。 In addition, in the above embodiment, an example is described in which model M judges the first label or the second label to determine whether the subject is good or bad, but the above embodiment can also be applied to model M that judges the type of subject (person, vehicle, animal, etc.).
例えば、被写体の種類をラベルA,ラベルB及びラベルCに分類するモデルの場合、STEP7において、ラベルA,ラベルB及びラベルCについて、それぞれラベルについての抽出数が全て基準データ数を超えた場合にSTEP8~STEP10の処理を行い、それぞれラベルについての抽出数が停止数を超え、且つ基準データ数未満の場合にSTEP11の処理を行うようにすればよい。
For example, in the case of a model that classifies the type of subject into labels A, B, and C, in
また、上記実施形態においては、増加処理として、フリップ処理、シフト処理、微小回転処理及びフィルタ処理を例にしているが、これに限らず、インパルズノイズの付加、コントラスト調整、明度調整、拡大・縮小、部分マスク、トリミング、変形、或いは変色等の各処理を行ってもよい。従って、増加するデータの数は上記実施形態の300倍に限られず、適宜変更することができる。 In addition, in the above embodiment, flip processing, shift processing, micro-rotation processing, and filter processing are given as examples of increasing processing, but the present invention is not limited to these, and various processing such as adding impulse noise, adjusting contrast, adjusting brightness, enlarging/reducing, partial masking, trimming, deformation, or discoloring may also be performed. Therefore, the amount of data to be increased is not limited to 300 times that of the above embodiment, and can be changed as appropriate.
また、上記実施形態においては、学習済みのモデルMを用いた学習の例を示したが、これに限らず、未学習のモデルMを用いて上記処理を行ってもよい。その際、図2のSTEP1の前処理として、未学習のモデルMに学習用の教師データを用いて学習を行い、その後にSTEP1以降の処理を行えばよい。 In addition, in the above embodiment, an example of learning using a trained model M is shown, but this is not limiting, and the above processing may be performed using an untrained model M. In this case, as a preprocessing step of STEP 1 in FIG. 2, the untrained model M is trained using training teacher data, and then the processing from STEP 1 onward is performed.
また、上記実施形態においては、STEP7のにおいて、抽出範囲が拡張範囲である場合に、(1)側に移動して、抽出処理によって抽出された抽出データの表示及び確認を行っているが(STEP8~9)、これに限らず、(2)側に移動して再度抽出範囲を拡張範囲として(STEP11)、抽出処理(STEP6)を行ってもよい。その際、拡張範囲の値を変更してもよく、抽出処理(STEP6)の回数を制限してもよい。
In the above embodiment, if the extraction range is an extended range in
M…モデル
1…学習装置
2…データ取得部
3…増加処理部
4…制御部
5…抽出部
6…学習部
7…表示部
8…ラベル変更部
11…教師データ
12…教師候補データ
13…変更教師候補データ
14…母集団
15…抽出データ
16…表示画面
17…ラベル
18…変更表示
M... Model 1...
Claims (9)
少なくとも前記第1ラベル又は前記第2ラベルの何れかに分類された教師候補データを取得するデータ取得部と、
前記教師候補データの内容の一部を変更して一又は複数の変更教師候補データを生成する増加処理部と、
前記教師候補データ及び前記変更教師候補データを母集団として、前記母集団について前記モデルを用いて評価値を算出し、前記評価値が前記閾値を含む所定の抽出範囲にあるデータを抽出する抽出処理を行う抽出部と、
所定の学習率で前記モデルに学習処理を行わせる学習部と、
前記抽出部及び前記学習部を制御する制御部を備え、
前記制御部は、
前記抽出部により前記抽出処理を行った結果抽出された抽出データの数が所定の停止数を超えるときは、前記抽出データを前記教師データに追加して前記学習処理を行うと共に、前記抽出処理を行い、新たな抽出データの数が前記停止数となるまで前記学習処理と前記抽出処理を実行することを特徴とする学習装置。 A learning device that performs learning on a model that uses training data to calculate an evaluation value for target data, compares the evaluation value with a predetermined threshold, and classifies the target data into at least one of a first label and a second label, the learning device comprising:
a data acquisition unit that acquires teacher candidate data classified into at least one of the first label and the second label;
an augmentation processing unit that generates one or more pieces of modified teacher candidate data by modifying a part of the content of the teacher candidate data;
an extraction unit that performs an extraction process for calculating an evaluation value for the teacher candidate data and the modified teacher candidate data as a population using the model, and extracting data in which the evaluation value is within a predetermined extraction range including the threshold value;
A learning unit that causes the model to undergo a learning process at a predetermined learning rate;
a control unit that controls the extraction unit and the learning unit,
The control unit is
When the number of extracted data extracted as a result of the extraction process performed by the extraction unit exceeds a predetermined stop number, the extracted data is added to the teacher data and the learning process is performed while the extraction process is performed, and the learning process and the extraction process are executed until the number of new extracted data reaches the stop number.
前記制御部は、学習済みのモデルを用いて抽出処理を行う際に、前記母集団から前記抽出データを除いた新たな母集団を作成し、前記新たな母集団に対して前記抽出部によって前記抽出処理を行うことを特徴とする学習装置。 The learning device according to claim 1 ,
The control unit, when performing an extraction process using a trained model, creates a new population by removing the extracted data from the population, and performs the extraction process on the new population using the extraction unit.
前記抽出処理において、変更の基礎となった前記教師候補データが共通する前記変更教師候補データが複数あるときは、一度の前記抽出処理において所定の限度抽出数のみの前記教師候補データ又は前記変更教師候補データを抽出する限定処理を行うことを特徴とする学習装置。 The learning device according to claim 1 ,
In the extraction process, when there are a plurality of changed teacher candidate data which have the same teacher candidate data that was the basis of the change, a limiting process is performed to extract only a predetermined limited number of the teacher candidate data or the changed teacher candidate data in one extraction process.
前記抽出データを表示させる表示部と、前記表示部に表示された前記抽出データについて前記ラベルの変更が可能なラベル変更部をさらに備え、
前記抽出データを前記教師データに追加する前に、前記ラベル変更部により前記ラベルの変更を可能とする学習装置。 The learning device according to claim 1 ,
The apparatus further includes a display unit that displays the extracted data, and a label change unit that can change the label of the extracted data displayed on the display unit,
A learning device that enables the label change unit to change the label of the extracted data before the data is added to the training data.
前記制御部は、前記抽出データの数が前記停止数を超え、所定の基準データ数未満の場合、前記抽出範囲の幅を広げる拡張処理を行って前記抽出処理を行い、
前記抽出データの数が前記基準データ数以上となったときに前記学習処理を行う学習装置。 The learning device according to claim 4,
When the number of the extracted data exceeds the stop number and is less than a predetermined reference number of data, the control unit performs an extension process to widen the width of the extraction range and performs the extraction process;
A learning device that performs the learning process when the number of the extracted data becomes equal to or greater than the reference number of data.
前記制御部は、前記拡張処理として前記抽出範囲の幅を広げると共に前記学習率を低下させる学習装置。 The learning device according to claim 5,
The control unit is a learning device that performs the extension process by widening the width of the extraction range and decreasing the learning rate.
少なくとも前記第1ラベル又は前記第2ラベルの何れかに分類された教師候補データを取得するデータ取得部と、
前記教師候補データを母集団として、前記母集団について前記モデルを用いて評価値を算出し、前記評価値が前記閾値を含む所定の抽出範囲にあるデータを抽出する抽出処理を行う抽出部と、
所定の学習率で前記モデルに学習処理を行わせる学習部と、
前記抽出部及び前記学習部を制御する制御部を備え、
前記制御部は、
前記抽出部により抽出された抽出データの数が所定の停止数を超え、所定の基準データ数未満の場合、前記抽出範囲の幅を広げる拡張処理を行って前記抽出処理を行い、
前記抽出データの数が前記基準データ数以上となったときに、前記抽出データを前記教師データに追加して前記学習処理を行うと共に、前記抽出処理を行い、新たな抽出データの数が前記停止数となるまで前記学習処理と前記抽出処理を実行することを特徴とする学習装置。 A learning device that performs learning on a model that uses training data to calculate an evaluation value for target data, compares the evaluation value with a predetermined threshold, and classifies the target data into at least one of a first label and a second label, the learning device comprising:
a data acquisition unit that acquires teacher candidate data classified into at least one of the first label and the second label;
an extraction unit that performs an extraction process of calculating an evaluation value for the teacher candidate data as a population using the model and extracting data in which the evaluation value is within a predetermined extraction range including the threshold value;
A learning unit that causes the model to undergo a learning process at a predetermined learning rate;
a control unit that controls the extraction unit and the learning unit,
The control unit is
When the number of extracted data extracted by the extraction unit exceeds a predetermined number of stops and is less than a predetermined reference number of data, an extension process is performed to widen the width of the extraction range, and the extraction process is performed.
A learning device characterized in that, when the number of extracted data becomes equal to or greater than the reference number of data, the extracted data is added to the teacher data, the learning process is performed, and the extraction process is performed, and the learning process and the extraction process are performed until the number of newly extracted data becomes the stopping number.
少なくとも前記第1ラベル又は前記第2ラベルの何れかに分類された教師候補データを取得するデータ取得工程と、
前記教師候補データの内容の一部を変更して一又は複数の変更教師候補データを生成する増加処理工程と、
前記教師候補データ及び前記変更教師候補データを母集団として、前記母集団について前記モデルを用いて所定の学習率で評価値を算出し、前記評価値が前記閾値を含む所定の抽出範囲にあるデータを抽出する抽出工程と、前記モデルに学習を行わせる学習工程とを含み、
前記抽出工程により抽出された抽出データの数が所定の停止数を超えるときは、前記抽出データを前記教師データに追加して前記学習工程を実行すると共に、前記母集団から前記抽出データを除いた新たな母集団を作成し、前記新たな母集団に対して前記抽出工程を実行し、新たな抽出データの数が前記停止数となるまで前記学習工程と前記抽出工程を実行することを特徴とする学習方法。 A learning method for learning a model that uses training data to calculate an evaluation value for target data, compares the evaluation value with a predetermined threshold, and classifies the target data into at least one of a first label and a second label, the learning method comprising the steps of:
a data acquisition step of acquiring teacher candidate data classified into at least either the first label or the second label;
an augmentation process for generating one or more modified teacher candidate data by modifying a part of the content of the teacher candidate data;
the teacher candidate data and the modified teacher candidate data are treated as a population, and an extraction step of calculating an evaluation value for the population at a predetermined learning rate using the model, and extracting data in which the evaluation value is within a predetermined extraction range including the threshold value; and a learning step of causing the model to learn,
A learning method characterized in that, when the number of extracted data extracted by the extraction process exceeds a predetermined stopping number, the extracted data is added to the teacher data and the learning process is executed, while a new population is created by removing the extracted data from the population, and the extraction process is executed on the new population, and the learning process and the extraction process are executed until the number of new extracted data reaches the stopping number.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022101590A JP7502808B2 (en) | 2022-06-24 | 2022-06-24 | Learning device, learning method, and learning program |
TW112122016A TWI849972B (en) | 2022-06-24 | 2023-06-13 | Learning device, learning method and learning program |
CN202380047912.1A CN119487530A (en) | 2022-06-24 | 2023-06-16 | Learning devices, learning methods and learning programs |
PCT/JP2023/022440 WO2023248948A1 (en) | 2022-06-24 | 2023-06-16 | Learning device, learning method, and learning program |
KR1020257002184A KR20250020696A (en) | 2022-06-24 | 2023-06-16 | Learning devices, learning methods and learning programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022101590A JP7502808B2 (en) | 2022-06-24 | 2022-06-24 | Learning device, learning method, and learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2024002431A JP2024002431A (en) | 2024-01-11 |
JP7502808B2 true JP7502808B2 (en) | 2024-06-19 |
Family
ID=89379899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022101590A Active JP7502808B2 (en) | 2022-06-24 | 2022-06-24 | Learning device, learning method, and learning program |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7502808B2 (en) |
KR (1) | KR20250020696A (en) |
CN (1) | CN119487530A (en) |
TW (1) | TWI849972B (en) |
WO (1) | WO2023248948A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191426A (en) | 2014-03-28 | 2015-11-02 | セコム株式会社 | Learning data generator |
JP2016076073A (en) | 2014-10-06 | 2016-05-12 | 日本電気株式会社 | Data processing device, data processing method, and computer program |
JP2019087078A (en) | 2017-11-08 | 2019-06-06 | オムロン株式会社 | Data generation device, data generation method, and data generation program |
JP2020061007A (en) | 2018-10-11 | 2020-04-16 | 富士通株式会社 | Learning program, learning method, and learning device |
JP2020126328A (en) | 2019-02-01 | 2020-08-20 | 株式会社日立製作所 | Computer, generation method of learning data, and computer system |
WO2021100818A1 (en) | 2019-11-19 | 2021-05-27 | 学校法人関西学院 | Learning method and learning device employing augmentation |
JP2021103344A (en) | 2019-12-24 | 2021-07-15 | 株式会社 東京ウエルズ | Learning support device, learning device, learning support method and learning support program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6880891B2 (en) * | 2017-03-23 | 2021-06-02 | 日本電気株式会社 | Malware judgment method, malware judgment device and malware judgment program |
JP6933164B2 (en) * | 2018-03-08 | 2021-09-08 | 株式会社Jvcケンウッド | Learning data creation device, learning model creation system, learning data creation method, and program |
WO2020194509A1 (en) * | 2019-03-26 | 2020-10-01 | 三菱電機株式会社 | Reliability assessment device and reliability assessment method |
-
2022
- 2022-06-24 JP JP2022101590A patent/JP7502808B2/en active Active
-
2023
- 2023-06-13 TW TW112122016A patent/TWI849972B/en active
- 2023-06-16 WO PCT/JP2023/022440 patent/WO2023248948A1/en active Application Filing
- 2023-06-16 KR KR1020257002184A patent/KR20250020696A/en active Pending
- 2023-06-16 CN CN202380047912.1A patent/CN119487530A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191426A (en) | 2014-03-28 | 2015-11-02 | セコム株式会社 | Learning data generator |
JP2016076073A (en) | 2014-10-06 | 2016-05-12 | 日本電気株式会社 | Data processing device, data processing method, and computer program |
JP2019087078A (en) | 2017-11-08 | 2019-06-06 | オムロン株式会社 | Data generation device, data generation method, and data generation program |
JP2020061007A (en) | 2018-10-11 | 2020-04-16 | 富士通株式会社 | Learning program, learning method, and learning device |
JP2020126328A (en) | 2019-02-01 | 2020-08-20 | 株式会社日立製作所 | Computer, generation method of learning data, and computer system |
WO2021100818A1 (en) | 2019-11-19 | 2021-05-27 | 学校法人関西学院 | Learning method and learning device employing augmentation |
JP2021103344A (en) | 2019-12-24 | 2021-07-15 | 株式会社 東京ウエルズ | Learning support device, learning device, learning support method and learning support program |
Also Published As
Publication number | Publication date |
---|---|
CN119487530A (en) | 2025-02-18 |
TWI849972B (en) | 2024-07-21 |
JP2024002431A (en) | 2024-01-11 |
TW202405702A (en) | 2024-02-01 |
KR20250020696A (en) | 2025-02-11 |
WO2023248948A1 (en) | 2023-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nafchi et al. | Efficient no-reference quality assessment and classification model for contrast distorted images | |
CN110619319A (en) | Improved MTCNN model-based face detection method and system | |
JP2019075121A (en) | Learning method and learning device for adjusting parameter of cnn by using multi-scale feature map, and testing method and testing device using the same | |
JPWO2019026104A1 (en) | Information processing apparatus, information processing program, and information processing method | |
CN104680483B (en) | Image noise estimation method, video image denoising method and device | |
CN110503641A (en) | A kind of method and apparatus improving continuous casting billet face crack | |
JP6773707B2 (en) | Signal processing equipment, signal processing methods and programs | |
CN112116567B (en) | No-reference image quality evaluation method, device and storage medium | |
CN102930559B (en) | The method of image procossing and device | |
CN112085164B (en) | Regional recommendation network extraction method based on anchor-free frame network | |
JP4477618B2 (en) | Reliable image sharpening method | |
JP2021086284A (en) | Image processing device, image processing method, and program | |
CN108921788A (en) | Image super-resolution method, device and storage medium based on deep layer residual error CNN | |
JP7512150B2 (en) | Information processing device, information processing method, and program | |
CN117788997A (en) | Yolov 5-based lotus seedpod lightweight target detection method | |
JP7502808B2 (en) | Learning device, learning method, and learning program | |
CN111612732A (en) | Image quality assessment method, device, computer equipment and storage medium | |
JPH05282456A (en) | Pattern recognition device | |
CN108694398A (en) | A kind of image analysis method and device | |
US12125174B2 (en) | Image processing method and device, and computer-readable storage medium | |
JP7665163B1 (en) | Learning device, learning method, and learning program | |
Sun et al. | Visual object tracking based on adaptive deblurring integrating motion blur perception | |
CN114462514B (en) | A grasped object detection algorithm based on edge extraction and dilated convolution | |
Saha et al. | Full-reference image quality assessment by combining global and local distortion measures | |
CN120031872B (en) | Printed circuit board surface defect detection method based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7502808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |