JP2019144022A - Characteristic prediction method, characteristic prediction program and characteristic prediction device for beverage - Google Patents
Characteristic prediction method, characteristic prediction program and characteristic prediction device for beverage Download PDFInfo
- Publication number
- JP2019144022A JP2019144022A JP2018026368A JP2018026368A JP2019144022A JP 2019144022 A JP2019144022 A JP 2019144022A JP 2018026368 A JP2018026368 A JP 2018026368A JP 2018026368 A JP2018026368 A JP 2018026368A JP 2019144022 A JP2019144022 A JP 2019144022A
- Authority
- JP
- Japan
- Prior art keywords
- beverage
- prediction
- model
- value
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】入力された試醸条件から予測される飲料の特性を高い精度で推定する、飲料の特性予測方法、特性予測プログラムおよび特性予測装置を提供する。【解決手段】本発明に係る飲料の特性予測方法は、飲料の試醸条件における設定項目を説明変数とした試醸サンプルを生成するステップと、前記試醸サンプルを、複数の予測モデルに入力し、前記予測モデルごとに前記飲料の成分値の推定値を求めるステップと、前記試醸サンプルを、前記予測モデルに対応する誤差判定モデルに入力し、前記予測モデルごとに許容誤差内確率を計算するステップと、手法選択モデルに、前記試醸サンプルに係る説明変数と、複数の前記許容誤差内確率を入力し、前記手法選択モデルの出力値に基づき、前記飲料の前記試醸条件における前記成分値として提示される、前記推定値の選択を行うステップとをコンピュータが実行することを特徴とする。【選択図】 図1PROBLEM TO BE SOLVED: To provide a beverage characteristic prediction method, a characteristic prediction program and a characteristic prediction device for estimating the characteristics of a beverage predicted from input trial brewing conditions with high accuracy. SOLUTION: In the method for predicting the characteristics of a beverage according to the present invention, a step of generating a trial brewing sample using a setting item in the trial brewing condition of the beverage as an explanatory variable and the trial brewing sample are input to a plurality of prediction models. , The step of obtaining the estimated value of the component value of the beverage for each prediction model, and the trial brewing sample are input to the error determination model corresponding to the prediction model, and the probability within the margin of error is calculated for each prediction model. The explanatory variables related to the trial brewing sample and the plurality of probabilities within the margin of error are input to the step, the method selection model, and the component values of the beverage under the trial brewing conditions based on the output values of the method selection model. It is characterized in that the computer executes the step of selecting the estimated value, which is presented as. [Selection diagram] Fig. 1
Description
本発明は、飲料の特性予測方法、特性予測プログラムおよび特性予測装置に関する。 The present invention relates to a beverage characteristic prediction method, a characteristic prediction program, and a characteristic prediction apparatus.
近年は消費者の嗜好が短期間で変化するようになり、飲料市場における競争は激しさを増している。このような状況では、消費者の要求を満たし、高い競争力を有する新商品の麦芽アルコール飲料(例えば、ビールや発泡酒など)やビールテイスト飲料をタイムリーに市場へ投入していく必要がある。新商品の開発において、技術者は過去に蓄積されたレシピなどのデータを参照しながら、消費者の要求を満たす味、香り、色、アルコール度数などの特性を備えた飲料が得られるよう、試醸を繰り返す。過去のデータをどのように活用して、試醸の条件を決めるのかは、それぞれの技術者次第である。一般に、技術者は開発経験で培った感覚やノウハウを生かして試醸の条件を決めているが、実際にこのような感覚やノウハウを形式知や組織知として伝承していくのは難しい。試醸を行うと、多くの材料、設備、工数を使う必要があり、試作回数が多くなれば時間だけでなく、リソースの消費も大きくなる。 In recent years, consumer preferences have changed in a short period of time, and competition in the beverage market has intensified. Under such circumstances, it is necessary to timely introduce new malt alcoholic beverages (for example, beer and sparkling liquor) and beer-taste beverages that meet consumer demands and have high competitiveness to the market. . In the development of new products, engineers can try to obtain beverages with characteristics such as taste, aroma, color, and alcohol content that meet consumer demand while referring to data such as recipes accumulated in the past. Repeat the brew. It is up to each engineer to decide how to use the past data to determine the brewing conditions. In general, engineers use the senses and know-how cultivated through development experience to determine the conditions for brewing, but it is difficult to actually pass on such senses and know-how as formal knowledge and organizational knowledge. When brewing, it is necessary to use many materials, equipment, and man-hours. As the number of trials increases, not only time but also resource consumption increases.
そこで、効率的な麦芽アルコール飲料やビールテイスト飲料などの試作を実現すべく、過去に蓄積されたデータを分析し、特性を予測する技術を開発することが考えられる。食品の分野では、過去のデータから食品の品質などを予想する技術が開発されている。特許文献1には食品中の微生物の増殖時間を予測し、食品の日持ち時間などを予測する技術が開示されている。特許文献2にはビールテイスト飲料の中間製品である濾過前液の濾過性を予測する技術が開示されている。特許文献3には麦汁のノネナールポテンシャルから麦芽アルコール発酵飲料の香味安定性を予測する技術が開示されている。
Therefore, in order to realize trial production of efficient malt alcoholic beverages and beer-taste beverages, it is conceivable to develop a technique for analyzing characteristics accumulated in the past and predicting characteristics. In the field of food, techniques for predicting the quality of food from past data have been developed.
特許文献1の方法は、食品における微生物の成長を予測することが目的であり、生産された食品の特性を予測するものではない。特許文献2の方法では、飲料の生産工程における中間製品の特性を推定することができるが、醸造によって最終的に生成される飲料の特性を予測するものではない。特許文献3の方法は、飲料の一部の特性を予測することができるが、試醸条件に係る複数の変数を入力として、飲料の全般的な特性を予測するものではない。すなわち、先行技術ではモデルに変数として入力できる条件の数と、予想可能な飲料の特性が限られており、飲料を試醸(醸造)したときの結果の予測にそのまま適用するのは難しい。
The method of
これらの課題を踏まえ、麦芽アルコール飲料やビールテイスト飲料などの試作においては、過去に蓄積されたデータを分析し、入力された試醸条件から醸造(試醸)される飲料の特性を正確に予測する技術の開発が望まれている。本発明は、過去のデータに基づき、入力された試醸条件から予測される飲料の特性を高い精度で推定する、飲料の特性予測方法、特性予測プログラムおよび特性予測装置を提供する。 Based on these issues, in the trial production of malt alcoholic beverages and beer-taste beverages, the data accumulated in the past is analyzed, and the characteristics of the beverages brewed (trial brew) are accurately predicted from the input brewing conditions. Development of technology to do this is desired. The present invention provides a beverage characteristic prediction method, a characteristic prediction program, and a characteristic prediction apparatus that estimate a characteristic of a beverage predicted from input brewing conditions with high accuracy based on past data.
本発明に係る飲料の特性予測方法は、飲料の試醸条件における設定項目を説明変数とした試醸サンプルを生成するステップと、前記試醸サンプルを、複数の予測モデルに入力し、前記予測モデルごとに前記飲料の成分値の推定値を求めるステップと、前記試醸サンプルを、前記予測モデルに対応する誤差判定モデルに入力し、前記予測モデルごとに許容誤差内確率を計算するステップと、手法選択モデルに、前記試醸サンプルに係る説明変数と、複数の前記許容誤差内確率を入力し、前記手法選択モデルの出力値に基づき、前記飲料の前記試醸条件における前記成分値として提示される、前記推定値の選択を行うステップとをコンピュータが実行することを特徴とする。 The method for predicting beverage characteristics according to the present invention includes a step of generating a tasting sample with setting items in beverage tasting conditions as explanatory variables, the tasting sample being input to a plurality of prediction models, and the prediction model A step of obtaining an estimated value of the component value of the beverage every time, a step of inputting the brew sample into an error determination model corresponding to the prediction model, and calculating a probability within tolerance for each prediction model, and a method An explanatory variable related to the tasting sample and a plurality of probabilities within the allowable error are input to the selection model, and are presented as the component values in the brewing conditions of the beverage based on the output value of the method selection model. The computer executes the step of selecting the estimated value.
以下では、図面を参照しながら、本発明の実施形態について説明する。また、図面において同一の構成要素は、同じ番号を付し、説明は、適宜省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same components are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
(第1の実施形態)
図1は、第1の実施形態に係る特性予測装置全体の構成例を示す図である。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration example of the entire characteristic prediction apparatus according to the first embodiment.
図1の特性予測装置1は、記憶部2と、学習部3と、前処理部4と、表示部5と、操作部6とを備えている。最初に、特性予測装置1で実行される処理の概要について説明する。
The
特性予測装置1は、過去の醸造事例に係る情報を含む醸造データを使って、任意の条件で醸造を行った場合に予想される飲料の特性を出力する。過去の醸造事例は、過去に飲料の醸造(試醸)が行われたときにおける原材料または醸造工程の少なくともいずれかの設定項目(レシピ)と、生成された飲料の成分値の情報を含む。飲料の例としては、麦芽を原材料に含む飲料(麦芽飲料)の生産に使われる麦汁、生産工程で発酵を伴う発酵飲料、非発酵のノンアルコール飲料、ビールテイスト飲料(アルコール分が1%未満であるビール風味の発泡性炭酸飲料)などが挙げられる。
The
発酵飲料の例としては、ビール、発泡酒、麦芽使用の新ジャンル、麦芽を使用したウイスキーなどの麦芽アルコール飲料が挙げられる。ただし、発酵飲料はワイン、日本酒などその他の種類の醸造酒であってもよいし、ウイスキー、ウォッカ、焼酎、白酒、ブランデーなどの蒸留工程を伴う蒸留酒であってもよい。飲料の原材料、飲料の生産において使われる酵母や菌類の種類、最終的に生成される飲料におけるアルコール成分の有無、アルコール度数については特に問わない。 Examples of fermented beverages include beer, happoshu, a new genre using malt, and malt alcoholic beverages such as whiskey using malt. However, the fermented beverage may be other types of brewed liquor such as wine and sake, or may be distilled liquor accompanied by a distillation step such as whiskey, vodka, shochu, white sake, and brandy. There are no particular restrictions on the raw materials of beverages, the types of yeasts and fungi used in beverage production, the presence or absence of alcohol components in the finally produced beverage, and the alcohol content.
麦芽アルコール飲料の特性は、例えば最終外観発酵度(AAL:Apparent Atennuation Limit)、色度、pH、全窒素、アミノ酸合計、苦味価(BU:Bitterness Units)などの成分値によって特定される。以下では、麦芽アルコール飲料の試醸を行うときに、ある試醸条件のもとで生成される麦芽アルコール飲料の成分値(特性)を予測する場合を例として説明する。試醸条件は、使用される原材料または醸造工程の少なくともいずれかの設定項目(レシピ)に係る情報を含む。 The characteristics of the malt alcoholic beverage are specified by component values such as final appearance fermentation (AAL), chromaticity, pH, total nitrogen, total amino acid, bitterness (BU), and the like. Below, the case where the component value (characteristic) of the malt alcoholic drink produced | generated on a certain trial brewing condition is estimated when brewing a malt alcoholic drink is demonstrated as an example. The brewing conditions include information relating to the setting items (recipe) of at least one of the raw materials used or the brewing process.
麦芽アルコール飲料の原材料に係る設定項目としては、例えば麦芽の使用量、麦芽の種類、麦芽のロット、麦芽の混合比、麦芽の成分値、ホップの使用量、ホップの種類、ホップのロット、ホップの混合比、ホップの成分値、副材料の種類、副材料の使用量、用水処理剤の種類、用水処理剤の使用量、酵素剤の種類、酵素剤の使用量などが挙げられる。醸造ではこれらの項目を調整することによって、様々な特性や風味に係る麦芽アルコール飲料を生成することができる。これらの原材料に係る設定は例であり、その他の設定項目が醸造事例および試醸条件に含まれていてもよい。 Examples of setting items related to raw materials of malt alcoholic beverages include malt usage, malt type, malt lot, malt mixing ratio, malt component value, hop usage, hop type, hop lot, hop The mixing ratio, the hop component value, the type of auxiliary material, the amount of auxiliary material used, the type of water treatment agent, the amount of water treatment agent used, the type of enzyme agent, the amount of enzyme agent used, and the like. By adjusting these items in brewing, malt alcoholic beverages with various characteristics and flavors can be produced. The settings relating to these raw materials are examples, and other setting items may be included in the brewing examples and the brewing conditions.
麦芽アルコール飲料の醸造工程に係る設定項目としては、糖化における温度の時間変化、糖化を行う時間、煮沸率、煮沸時間、冷却時間、冷却の温度、発酵の時間、発酵が行わる温度、熟成の時間、熟成が行われる温度、濾過で使用されるフィルタの種類などが挙げられる。これらの設定項目は例であり、その他の設定項目が醸造事例および試醸条件に含まれていてもよい。 As the setting items related to the brewing process of malt alcoholic beverages, changes in temperature during saccharification, saccharification time, boiling rate, boiling time, cooling time, cooling temperature, fermentation time, fermentation temperature, aging Examples include time, temperature at which aging is performed, and the type of filter used in filtration. These setting items are examples, and other setting items may be included in the brewing examples and the brewing conditions.
本発明に係る特性予測装置では、上述の各設定項目を説明変数(特徴量)に、上述の発酵飲料の成分値を目的変数に設定した上で、機械学習手法を適用し、目的変数の値を推定する。利用者は、特性予測装置に特性(成分値)の予想を行いたい試醸条件に係る設定項目を入力し、当該試醸条件において生成される飲料の成分値を予想することができる。 In the characteristic prediction apparatus according to the present invention, the above-described setting items are set as explanatory variables (features), the component values of the above-mentioned fermented beverages are set as objective variables, and machine learning techniques are applied to set the values of the objective variables. Is estimated. The user can input a setting item related to the brewing condition for which the characteristic (component value) is to be predicted to the characteristic prediction apparatus, and can predict the component value of the beverage generated under the brewing condition.
上述のように、麦芽アルコール飲料などの飲料の分野では試作に要する時間、コスト、リソースを抑えつつ、開発スピードを高速化することが求められている。このような状況においては、任意の条件で醸造(試醸)を行ったときに得られる飲料の特性を高い精度で予測することが必要である。また、飲料の分野では複数の成分値により飲料の特性が特定されるため、複数の成分値を効率よく予測することも求められている。 As described above, in the field of beverages such as malt alcoholic beverages, it is required to increase the development speed while suppressing time, cost, and resources required for trial production. In such a situation, it is necessary to predict the characteristics of the beverage obtained when brewing (trial brewing) under arbitrary conditions with high accuracy. Moreover, since the characteristic of a drink is specified by the several component value in the field | area of a drink, it is also calculated | required to predict a several component value efficiently.
本発明に係る特性予測装置では、それぞれの成分値を予測するときに、複数の機械学習手法のうち、学習データにおいて推定値と実際の成分値の誤差が最も小さくなる機械学習手法を使い、成分値の正式な予測値として利用者に提示する。ここで、推定値とはそれぞれの機械学習手法によって推定された成分値のことをいう。 In the characteristic prediction apparatus according to the present invention, when each component value is predicted, a machine learning method that minimizes an error between an estimated value and an actual component value in the learning data among a plurality of machine learning methods is used. Presented to the user as a formal predicted value. Here, the estimated value means a component value estimated by each machine learning method.
学習データにおける各機械学習手法による推定値と実際の成分値(真値)のずれは、図2および図3に示した、交差検証(cross−validation)によって調べることができる。交差検証を行う場合、学習処理において学習データLを複数のブロックL1、L2、L3、・・・、Lkに分割する。例えば、成分値Y1、Y2、Y3、・・・、Ymについて学習処理(予測モデルおよび誤差判定モデルの生成処理)を行う場合、ブロックL2、L3、・・・、Lkをトレーニング用データとして学習(モデルの生成)を行う。そして、ブロックL1をテスト用データとして複数の機械学習手法を使った場合の誤差を求める。 The deviation between the estimated value by each machine learning method and the actual component value (true value) in the learning data can be examined by cross-validation shown in FIGS. When performing cross-validation, the learning data L is divided into a plurality of blocks L 1 , L 2 , L 3 ,..., L k in the learning process. For example, when performing learning processing (prediction model and error determination model generation processing) for the component values Y 1 , Y 2 , Y 3 ,..., Y m , the blocks L 2 , L 3 ,. Is used as training data (model generation). Then, a error in case of using a plurality of machine learning techniques to block L 1 as a test data.
上述のブロックの分割数、テスト用データおよびトレーニング用データのブロック割り当ては一例にしか過ぎない。学習データの一部をテスト用データに設定し、学習データのうち、テスト用データに設定されていない部分をトレーニング用データとして用いるのであれば、ブロックの分割数ならびに、テスト用データおよびトレーニング用データの割り当てについては特に問わない。例えば、複数のブロックがテスト用データに設定されていてもよい。それぞれの成分値(目的変数)についての学習処理(予測モデルおよび誤差判定モデルの生成処理)で同じテスト用データおよびトレーニング用データの組み合わせを使ってもよいし、異なるテスト用データおよびトレーニング用データの組み合わせを使ってもよい。 The above-described number of block divisions, block assignment of test data, and training data are only examples. If a part of the learning data is set as test data, and the part of the learning data that is not set as test data is used as training data, the number of block divisions, test data, and training data There is no particular limitation on the assignment of. For example, a plurality of blocks may be set as test data. The same test data and training data combination may be used in the learning process (prediction model and error determination model generation process) for each component value (objective variable), or different test data and training data may be used. Combinations may be used.
以下では学習データLの分割数をk、予測対象とする成分値の数をmとする。kとmの関係については特に限定しない。図2および図3の例では、テスト用データとして使われない残りのブロックのすべてをトレーニングデータとして使っているが、必ず残りのブロックのすべてをトレーニングデータとして使わなくてもよい。 Hereinafter, the number of divisions of the learning data L is k, and the number of component values to be predicted is m. There is no particular limitation on the relationship between k and m. In the example of FIG. 2 and FIG. 3, all of the remaining blocks that are not used as test data are used as training data. However, all of the remaining blocks need not be used as training data.
本実施形態では、予測を行いたい成分値(目的変数)ごとに第1手法(第1の機械学習手法)であるM5´、第2手法であるK*(第2の機械学習手法)を使って予測モデルを学習する。そして、各手法による予測モデルを使って分析値の推定値を求める。第1手法の予測モデルによる推定値を第1推定値、第2手法の予測モデルによる推定値を第2推定値とよぶものとする。それぞれの成分値について、学習データにおける真値と第1推定値との間の誤差と、学習データにおける真値と第2推定値との間の誤差を比較し、当該成分値の正式な予測値として、誤差が少ない手法に係る推定値が使われるようにする。 In the present embodiment, for each component value (objective variable) to be predicted, the first method (first machine learning method) M5 ′ and the second method K * (second machine learning method) are used. To learn the prediction model. And the estimated value of an analytical value is calculated | required using the prediction model by each method. The estimated value based on the prediction model of the first method is referred to as a first estimated value, and the estimated value based on the prediction model of the second method is referred to as a second estimated value. For each component value, the error between the true value in the learning data and the first estimated value is compared with the error between the true value in the learning data and the second estimated value, and the official prediction value of the component value As described above, an estimated value related to a method with less error is used.
なお上述のM5´、K*は例であり、その他の機械学習手法を用いてもよい。また、これより多い数の機械学習手法による分析値の推定値を求め、推定値の真値との間の誤差が最小となる手法を選択してもよい。 The above-described M5 ′ and K * are examples, and other machine learning methods may be used. Alternatively, an estimated value of the analysis value by a larger number of machine learning methods may be obtained, and a method that minimizes an error between the estimated value and the true value may be selected.
上述のような学習処理を行うことにより、試醸条件においてそれぞれの成分値の予測をするのにあたり、最も誤差が少なくなると推定される機械学習的手法による推定値を使うことができる。 By performing the learning process as described above, it is possible to use an estimated value by a machine learning method that is estimated to have the smallest error in predicting each component value under the brewing conditions.
次に、特性予測装置1の構成要素について説明する。
Next, components of the
記憶部2は、過去の醸造事例のデータ、学習データ、機械学習の中間処理で生成されるデータ、機械学習で生成されたモデルのデータ、特性予測プログラムなどを格納する記憶領域である。記憶部2は、内部の構成要素として醸造データベース21と、学習データ記憶部22と、判定データ記憶部23と、モデルデータベース24とを含んでいる。醸造データベース21、学習データ記憶部22、判定データ記憶部23、モデルデータベース24の詳細については後述する。
The
記憶部2は、SRAM、DRAMなどの揮発性メモリでも、NAND、MRAM、FRAMなどの不揮発性メモリでもよい。また光ディスク、ハードディスク、SSDなどのストレージ装置でもよい。記憶部2は、特性予測装置1に内蔵されていてもよいし、特性予測装置1の外部の記憶装置であってもよい。また、記憶部2は、SDカード、MicroSDカード、USBメモリなどの取り外し可能な記憶媒体であってもよい。
The
学習部3は、任意の条件で醸造(試醸)を行った場合に予想される飲料の成分値を出力する。学習部3は、内部の構成要素として、変数選択部11と、交差検証部12と、モデル生成部13と、第1推定部14と、第2推定部15と、検証部16と、手法選択部17とを含んでいる。これらの構成要素の詳細についても後述する。
The
前処理部4は、過去の醸造事例に係るデータを、学習部3が利用可能な学習データの形式に変換する。前処理部4が行う処理の詳細についても後述する。
The
表示部5は、利用者が特性予測装置の操作時に利用するGUI(Graphical User Interface)やCLI(Command Line Interface)、各種データ、試醸条件の入力画面、予測結果や関連事例の画面などを表示するディスプレイである。ディスプレイとして、例えば液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイ、プロジェクタ、LEDディスプレイなどを使うことができるが、その他の種類のディスプレイを使ってもよい。図1の例における表示部5は特性予測装置1に内蔵されているが、表示部5の位置については特に問わない。表示部5は、特性予測装置1から離れた部屋や建物に設置されていてもよいし、タブレットやスマートフォンなどの無線通信端末のディスプレイであってもよい。
The
操作部6は、利用者による特性予測装置1の操作手段を提供するデバイスである。操作部6は、例えば、キーボード、マウス、スイッチ、音声認識デバイスなどであるが、これに限られない。また、操作部6は表示部5と一体化したタッチパネルであってもよい。操作部6の位置についても特に問わない。操作部6は、特性予測装置から離れた部屋や建物に設置されていてもよいし、タブレットやスマートフォンなどの無線通信端末のタッチパネルであってもよい。
The
次に、記憶部2の内部の各構成要素について説明する。
Next, each component inside the
醸造データベース21には、過去に飲料の醸造が行われた事例(過去の醸造事例)における原材料や醸造工程などの設定項目(レシピ)と、生成された飲料の成分値に関する情報である、醸造データが格納されている。図4および図5のテーブルは、醸造データの例を示している。図4のテーブルの列30には、それぞれの醸造事例を一意的に識別する識別子である、醸造IDが格納されている。醸造IDとして、例えば複数の英数字を含む識別子を使うことができるが、識別子のフォーマットについては特に問わない。醸造IDにより識別されるそれぞれの行には、当該醸造事例における各設定項目の値と生成された飲料の成分値(分析値)が格納されている。
The
図4のテーブルの列31には、原材料に係る複数の設定項目の値が格納されている。列31には、麦芽Aの使用量、麦芽Bの使用量、麦芽Cの使用量、ホップDの使用量、ホップEの使用量、副材料Fの使用量、副材料Gの使用量が含まれている。これらの設定項目は例であり、これらとは異なる設定項目が使われていてもよい。例えば、複数の原材料が混合されて使用された場合には、混合後の原材料に係る全窒素、色度などの成分値を設定項目に使ってもよい。原材料に係る設定項目として成分値を使う場合、成分値は麦汁を糖化させる前の値であってもよいし、糖化された後の値であってもよく、成分値の測定タイミングについては特に問わない。
In a
図5のテーブルは、図4のテーブルのさらに右側に格納されるデータを示したものである。図5のテーブルの列32には、醸造工程に係る複数の設定項目の値が格納されている。列32には、温度変化パターン、糖化時間、煮沸率、煮沸時間が含まれている。これらの設定項目は例であり、これらとは異なる設定項目が使われていてもよいし、さらに他の設定項目が含まれていてもよい。 The table in FIG. 5 shows data stored on the right side of the table in FIG. In the column 32 of the table of FIG. 5, values of a plurality of setting items related to the brewing process are stored. The column 32 includes a temperature change pattern, a saccharification time, a boiling rate, and a boiling time. These setting items are examples, setting items different from these may be used, and other setting items may be included.
列32の左側にある列33には、生成された飲料の複数の成分値が格納されている。列33には、AAL(最終外観発酵度)、色度、pH、全窒素、アミノ酸合計、BUに係る成分値が含まれている。これらの成分値は例であり、これらとは異なる成分値が使われていてもよい。特性予測装置1ではそれぞれの成分値ごとに機械学習手法を使って値の予測を行うため、列33aに示されたそれぞれの成分値が機械学習における目的変数に相当する。
A
なお、醸造データにおける生成された飲料の成分値は、すべての工程が終了した飲料の成分値であってもよいし、麦汁や、途中工程における中間生成物の成分値であってもよい。すなわち、特性予測装置1が予測対象とする飲料の成分値は最終製品に係るものであっても、生産途中に生成される物に係るものであってもよく、醸造工程における時点については特に問わない。
In addition, the component value of the drink produced | generated in brewing data may be the component value of the drink which all the processes completed, and the component value of the intermediate product in wort or an intermediate process may be sufficient as it. That is, the component value of the beverage to be predicted by the
学習データ記憶部22には、醸造データから生成された学習データが保存される。図6のテーブルは、学習データの例を示している。学習データは、醸造データと同様に醸造IDにより一意的に識別される。列30は、学習データにおける醸造IDを示している。醸造データでは、醸造IDによって識別されるそれぞれの行に係るデータを(醸造)事例とよんでいたが、学習データでは、それぞれの行に係るデータをサンプルとよぶものとする。図6のテーブルにはさらに列34と、列35が示されている。列34は学習データの説明変数である。図6の例において列34は説明変数x1から説明変数xnまでn個の説明変数を含んでいる。列35には、それぞれのサンプルに対応する醸造事例の成分値が格納されている。図6の例において列35は成分値Y1から成分値Ymまでm個の成分値を含んでいる。
The learning
以降では、学習データに含まれる、過去の醸造事例に対応するサンプルを過去サンプルとよぶものとする。それぞれの過去サンプルは醸造IDによって一意的に識別される。また、成分値の予測を行いたい試醸条件から生成されたサンプルを試醸サンプルとよぶものとする。 Hereinafter, a sample corresponding to a past brewing example included in the learning data is referred to as a past sample. Each past sample is uniquely identified by a brew ID. A sample generated from the brewing conditions for which the component value is to be predicted is called a brewing sample.
次に、前処理部4による学習データの生成処理(前処理)について説明する。
Next, learning data generation processing (preprocessing) by the
前処理部4が実行する前処理により、醸造データにおける列31、32(設定項目)は図6の列34に示された説明変数に変換される。もし、醸造データに相当するデータが複数のデータベースに保存されている場合には、前処理において必要なデータを抽出し、データの結合処理を行ってもよい。また、蓄積されている過去の醸造事例に係るデータが醸造IDによって一意的に識別可能な形式となっていない場合には、醸造ID単位で情報の集約を行ってもよい。また、醸造データに異常なデータが含まれている場合には、異常なデータを取り除いてもよい。
By the preprocessing executed by the
また、前処理では技術者の知見や文献などの形式知を反映し、学習データへの変換を行ってもよい。例えば、経験上製品の特定の成分値の予測に必須な成分値がある場合には、当該成分値を必ず機械学習で使用される説明変数に含めるよう、設定することができる。このような設定は、例えば学習データの説明変数の属性情報や、説明変数に関する情報を格納したメタデータにマーキングをすることによって行う。醸造が行われる設備の違いによって生成される飲料の特性が変化することが知られている場合には、醸造事例で使用された設備に応じて、説明変数の値を補正してもよい。利用者(例えば、技術者、研究者など)が表示部5に表示されたデータを参照し、操作部6を使って異常なデータまたは入力ミスのデータを修正したり、使用対象から除外したりしてもよい。
In the pre-processing, formal knowledge such as engineers' knowledge and documents may be reflected and converted into learning data. For example, when there is a component value that is essential for predicting a specific component value of a product based on experience, the component value can be set to be included in an explanatory variable used in machine learning. Such setting is performed by marking, for example, attribute information of explanatory variables of learning data and metadata storing information about explanatory variables. If it is known that the characteristics of the beverage produced will vary depending on the equipment at which the brewing is performed, the value of the explanatory variable may be corrected according to the equipment used in the brewing case. A user (for example, an engineer, a researcher, etc.) refers to the data displayed on the
文献に記載された情報を使って、学習データへの変換を行うことができる。例えば、文献に糖化において用いられる、特定の酵素が活性化する条件が記載されている場合には、活性化条件を満たしている醸造IDについては、当該酵素に係る情報を説明変数に必ず含めるように設定し、活性化条件を満たしていない醸造IDについては、当該酵素に係る情報を説明変数から除外するように設定することができる。 Conversion to learning data can be performed using information described in the literature. For example, if the literature describes conditions for activating a specific enzyme used in saccharification, for brewing IDs that satisfy the activation conditions, be sure to include information on the enzyme in the explanatory variable. The brewing ID that does not satisfy the activation condition can be set so as to exclude information related to the enzyme from the explanatory variables.
また、文献には飲料の成分値に関する理論式が記載されていることがある。理論式を使うと、過去の醸造事例において実際に成分値の測定を行っていない場合でも、当該事例において推測される成分値を導き出せる場合がある。理論式から導き出された成分値を、学習データに説明変数または目的変数として追加してもよい。 Moreover, the theoretical formula regarding the component value of a drink may be described in literature. By using a theoretical formula, even when component values are not actually measured in past brewing cases, component values estimated in the case may be derived. You may add the component value derived | led-out from the theoretical formula to learning data as an explanatory variable or an objective variable.
図7は、予測を行う成分値ごとに使用される説明変数と目的変数の例を示している。図7上段にはテーブル36、図7下段にはテーブル37が示されている。テーブル36、37は図6の学習データの一部を抽出したものとなっている。テーブル36には成分値Y1を目的変数y1に設定し、推定を行うときに使われる説明変数x1、x2、x3が示されている。一方、テーブル37には成分値Y2を目的変数y2に設定し、推定を行うときに使われる説明変数x4、x5、x6が示されている。テーブル36、37ではそれぞれ3個の説明変数が選択されているが、選択される説明変数の数はこれとは異なっていてもよい。また、異なる目的変数の値を推定するときに使われる説明変数に重複があってもよい。テーブル36、37の例に示したような変数選択は、変数選択部11によって行われる。変数選択部11の詳細については後述する。
FIG. 7 shows an example of explanatory variables and objective variables used for each component value to be predicted. A table 36 is shown in the upper part of FIG. 7, and a table 37 is shown in the lower part of FIG. Tables 36 and 37 are obtained by extracting a part of the learning data of FIG. The table 36 shows explanatory variables x 1 , x 2 , x 3 used when estimation is performed by setting the component value Y 1 as the objective variable y 1 . On the other hand, the table 37 shows explanatory variables x 4 , x 5 , x 6 used when the component value Y 2 is set to the objective variable y 2 and estimation is performed. Although three explanatory variables are selected in the tables 36 and 37, the number of selected explanatory variables may be different from this. In addition, there may be duplication of explanatory variables used when estimating values of different objective variables. Variable selection as shown in the examples of the tables 36 and 37 is performed by the
判定データ記憶部23には、成分値の推定に用いる機械学習手法の選択に使われるデータが保存される。機械学習手法の選択に使われるデータの例としては、判定テーブル、推定値比較テーブルが挙げられる。以下では、図8〜図10を参照し、判定データ記憶部23に保存される判定テーブル、推定値比較テーブルの例について説明する。
The determination
図8には、判定テーブル38が示されている。予測モデル(例えば、第1手法、第2手法などの機械学習手法)と、予想する成分値(Y1、Y2、・・・、Ym)の組み合わせごとに判定テーブルが生成される。判定テーブル38の列39には、醸造IDが格納される。判定テーブル38の列40は、各醸造IDに対応する説明変数である。列41は、各醸造ID(各醸造事例)における実際の成分値Y1であり、モデルの推定値の誤差を求めるときに真値として使われる。列42は、ある手法に係る予測モデルにおける目的変数y1であり、当該予測モデルによって計算された推定値が格納される。
FIG. 8 shows the determination table 38. A determination table is generated for each combination of a prediction model (for example, a machine learning method such as the first method or the second method) and a predicted component value (Y 1 , Y 2 ,..., Y m ). A brewing ID is stored in a
列43には、許容誤差内判定結果が格納される。許容誤差内判定結果は“TRUE”または“FALSE”の2値をとる。モデルによる推定値(列42)と、真値である実際の分析値(列41)との間の誤差の大きさが許容誤差内であれば、列43の値は“TRUE”となる。モデルによる推定値(列42)と、真値である実際の分析値(列41)との間の誤差が許容誤差より大きいのであれば、列43の値は“FALSE”となる。許容誤差の例としては、真値の1%、2%、5%、10%などの値を使うことができるが、設定値については特に限定しない。後述するように、列43の許容誤差内判定結果は誤差判定モデルの学習時に教師信号として用いられる。
The
列43aには、それぞれの醸造IDに対応する許容誤差内確率が格納される。許容誤差内確率は、手法選択モデルの学習や正式な予測値として提示される推定値の選択に用いられる。許容誤差内確率の詳細については、後述する。
In the
図8の列39〜列41は、図6の学習データと共通の内容となっている。したがって、判定テーブルは、学習データと共通のテーブルであってもよい。また、判定テーブルは列40、41に係るデータを持たず、学習データに係るテーブルから該当するデータを取得してもよい。
図9には、推定値比較テーブル44が示されている。予想する成分値(Y1、Y2、・・・、Ym)ごとに推定値比較テーブルが生成される。列45には、醸造IDが格納される。列45に格納される醸造IDは、テスト用データとして使われるブロックに含まれるサンプルに係るものとなる。推定値比較テーブル44は成分値Y1に係るテーブルであるから、ブロックL1に含まれるサンプルに係る醸造IDが格納される。列46には、第1手法による予測モデルによって求められた第1推定値が格納されている。列47には、第2手法による予測モデルによって求められた第2推定値が格納されている。図9の例では、2つの手法による推定値が示されていているが、これより多い数の種類の手法による推定値が手法比較テーブル44に含まれていてもよい。列48には、真値である実際の成分値が格納されている。
FIG. 9 shows an estimated value comparison table 44. An estimated value comparison table is generated for each predicted component value (Y 1 , Y 2 ,..., Y m ).
列49には、第1手法の予測モデルによる第1推定値と、第2手法の予測モデルによる第2推定値の実際の成分値(真値)との誤差(ずれ)に基づいて選択された、成分値Y1の予測を行うのに「好ましい手法」が格納される。テスト用データを使って推定値を求めた場合、それぞれの醸造IDについて、真値との誤差が小さい方の手法を「好ましい手法」として選択することができる。後述するように、列49の「好ましい手法」は教師信号として用いられる。
The
モデルデータベース24には、推定値を出力する予測モデル、誤差判定モデル、手法選択モデルのデータ(モデルデータ)が保存される。予測モデルはモデル生成部13により、誤差判定モデルは検証部16により、手法選択モデルは手法選択部17により、それぞれ生成される。モデルデータの内容と保存フォーマットは学習に使用される手法とモデル種類によって異なる。
The
図10および図11は、予測モデルの学習手法(機械学習手法)としてM5´を使った場合におけるモデルデータの例を示している。図10、図11にはそれぞれ深さ3の木(tree)が示されている。木は、学習データを分割することによって生成される。図10は、学習データのうち、目的変数y1の推定をするときに使用する説明変数を用いて生成された木である。図11は、学習データのうち、目的変数y2の推定をするときに使用する説明変数を用いて生成された木である。図10、図11の木のそれぞれのノードには回帰式が示されている。それぞれの回帰式は各ノードに含まれる学習データを使って生成され、目的変数(y1またはy2)として成分値(Y1またはY2)の推定値を出力する。 FIGS. 10 and 11 show examples of model data when M5 ′ is used as a prediction model learning method (machine learning method). FIGS. 10 and 11 each show a tree having a depth of three. The tree is generated by dividing the learning data. FIG. 10 is a tree generated using explanatory variables used when estimating the objective variable y 1 in the learning data. FIG. 11 is a tree generated using the explanatory variables used when estimating the objective variable y 2 in the learning data. A regression equation is shown at each node in the trees of FIGS. Each regression equation is generated using the learning data included in each node, and an estimated value of the component value (Y 1 or Y 2 ) is output as the objective variable (y 1 or y 2 ).
また、手法としてK*を使った場合には、K*によるモデルデータをモデルデータベース24に保存することができる。K*では、試醸サンプルと、過去サンプルとの間の遷移確率と、それぞれの過去サンプルに対応する醸造事例の成分値を用いて、分析値(目的変数)の推定値を計算することができる。モデル生成部13、M5´およびK*の詳細については後述する。
When K * is used as a technique, model data based on K * can be stored in the
次に、学習部3の内部の構成要素について説明する。
Next, the internal components of the
変数選択部11は、学習データ記憶部22に保存された学習データから、それぞれの目的変数y1、y2、・・・、ymの推定に用いる説明変数の選択を行う。変数選択部が行う変数選択処理は、上述の図6のテーブルから、図7のテーブル36、37を生成する処理に相当する。変数選択部11は、例えば主成分分析などの線形の次元削減手法を使って変数選択を行ってもよいし、その他の手法によって使用する説明変数を絞り込んでもよい。また、前処理部4が学習データの属性情報やメタデータに記録した、特定の醸造IDにおいては使用が必須である説明変数に係る情報や、特定の醸造IDにおいて使用対象から除外される説明変数に係る情報を使って、変数選択を行ってもよい。また、利用者が使用する説明変数の選択を行ってもよいし、利用者が変数選択部11の選択した説明変数に対して変更を加えてもよい。
The
なお、特性予測装置1は必ず変数選択部11を備えていなくてもよい。すなわち、変数選択(次元削減)を行わずに、学習データに含まれるすべての説明変数x1、x2、・・・、xmを使って、目的変数の値を推定してもよい。以降の説明では、単に学習データと述べた場合、変数選択(次元削減)が行われる前のもとの学習データと、それぞれの目的変数の推定のために変数選択(次元削減)が行われた後の学習データの両方を含むものとする。
Note that the
交差検証部12は、学習データLを複数のブロックL1、L2、L3、・・・、Lkに分割し、それぞれの予想対象となる成分値(Y1、Y2、・・・、Ym)の推定に用いられる、予測モデルと、対応する誤差判定モデルの学習において、テスト用データとして使われるブロックと、トレーニング用データとして使われるブロックの割り当てを決定する。交差検証部12が実行する処理の詳細は、図2、図3の説明で述べた通りである。交差検証部12は、上述の用途別のブロックの割り当てに関する情報を記憶部2に保存してもよい。
The
モデル生成部13は、学習データに基づき、目的変数の推定値を出力する予測モデル(機械学習モデル)を生成する。モデル生成部13が生成した予測モデルは、モデルデータベース24に保存される。ここでは、機械学習モデル(手法)としてM5´(第1手法)を使った場合を例に説明するが、M5やニューラルネットワークなどその他のモデルを使って目的変数の推定値を計算してもよい。以下ではモデル生成部13が用いる手法の例のひとつであるM5´の概要について説明する。
The
M5´(第1手法)では標準偏差の減少量(SDR:Standard Deviation Reduction)の最大化を基準として、学習データを順次分割する。M5´におけるSDRは下記の式(1)のように定義される。
なお、式(1)のSDRは一例であり、M5´の原型となったM5のように式(1)の括弧内の項のみによって表されるSDRを使ってもよい。 The SDR in the formula (1) is an example, and an SDR represented only by a term in parentheses in the formula (1) may be used, such as M5 that is a prototype of M5 ′.
式(1)を基準に学習データを分割することによって、分散(標準偏差)が最小化された学習データに属する過去サンプルの部分集合(例えば、図10、図11のリーフノード)が得られる。分割による標準偏差の減少に統計的有意性が認められなくなった場合(例えば、分割後のデータの標準偏差がもとの学習データに係る標準偏差の5%未満となる場合)や、ノードに含まれるサンプル数が下限値(例えば、3以上)に達した場合には、学習データの分割を打ち切ることができる。分割によって木が生成されたら、それぞれのノードに含まれるサンプルを使い、目的変数の推定値を出力する回帰式を生成する。回帰式は、例えば線形回帰によって計算することができるが、回帰の手法については特に問わない。 By dividing the learning data based on the formula (1), a subset of past samples (for example, leaf nodes in FIGS. 10 and 11) belonging to the learning data in which the variance (standard deviation) is minimized is obtained. When statistical significance is no longer recognized in the reduction of standard deviation due to division (for example, when the standard deviation of the data after division is less than 5% of the standard deviation of the original learning data) or included in the node When the number of samples to be reached reaches a lower limit (for example, 3 or more), the division of the learning data can be aborted. When the tree is generated by the division, a regression equation that outputs an estimated value of the objective variable is generated using samples included in each node. The regression equation can be calculated by, for example, linear regression, but the regression method is not particularly limited.
木のそれぞれのノードについて回帰式を求めたら、木の枝刈り(pruning)を行うことができる。ルートノードを除く、すべてのノードに含まれる過去サンプルついて、回帰式による推定値と、当該過去サンプルに対応する醸造事例に係る実際の成分値との間の絶対値誤差の平均値を計算する。次に木に含まれるそれぞれのサブツリーについて、枝における絶対値誤差の平均値の総和と、サブツリーのルートノードにおける絶対値誤差の平均値の総和を比較する。前者の値の方が大きい場合、当該サブツリーの枝刈りを行う。これにより、予測精度を損なうことなく木を単純化し、過学習の影響を軽減できる。 Once the regression equation is determined for each node in the tree, the tree can be pruned. For the past samples included in all nodes except the root node, an average value of absolute value errors between the estimated value based on the regression equation and the actual component value related to the brewing case corresponding to the past sample is calculated. Next, for each subtree included in the tree, the total sum of the absolute values of the absolute value errors at the branches is compared with the sum of the average values of the absolute value errors at the root node of the subtree. If the former value is larger, the subtree is pruned. Thereby, the tree can be simplified without impairing the prediction accuracy, and the influence of overlearning can be reduced.
M5´を使うことにより、学習データを分割した過去サンプルの部分集合ごとに回帰式を用意することができる。これによって、学習データの全体にひとつの回帰式を当てはめる場合に比べて回帰式の予測精度を高めることができる。 By using M5 ′, a regression equation can be prepared for each subset of past samples obtained by dividing the learning data. Thereby, the prediction accuracy of the regression equation can be improved as compared with the case where one regression equation is applied to the entire learning data.
第1推定部14は、モデル生成部13によって生成された第1手法による予測モデル(M5´)を用いて飲料の成分値(目的変数)の推定を行う。以降では、第1手法による予測モデル(M5´)によって得られた推定値を第1推定値とよび、第2手法による予測モデル(K*)によって得られた推定値と区別するものとする。
The
第1手法としてM5´を使った場合における、第1推定値の計算処理について説明する。モデル生成部13は、M5´モデルを使い、学習データを分割し、分割後の各ノードに回帰式が対応付けられている木を生成している(例えば図10、図11)。第1推定部14は、モデルデータベース24を参照し、推定する成分値Yi(目的変数yi)に対応する木に係るデータを特定する。第1推定部14は、成分値Yi(目的変数yi)の推定に用いられる試醸サンプルの説明変数の値を参照し、試醸サンプルが木のどのノードに属するのかを特定する。試醸サンプルの属するノードが特定されたら、当該ノードに対応付けられた回帰式を用いて目的変数yiの値を計算する。そして第1推定部14は、回帰式より計算された目的変数yiの値を第1推定値として出力する。
A calculation process of the first estimated value when M5 ′ is used as the first method will be described. The
第2推定部15は、モデル生成部13によって生成された第2手法による予測モデル(K*)を用いて飲料の成分値(目的変数)の推定を行う。以降では、第2手法による予測モデル(K*)によって得られた推定値を第2推定値とよび、第1手法による予測モデル(M5´)によって得られた第1推定値と区別するものとする。
The
第2手法としてK*を使った場合における、第2推定値の計算処理について説明する。K*は学習データの過去サンプルを使って、試醸条件における成分値の推定値を求める事例ベースの手法である。以下では、K*(第2手法)を使って成分値の予測値を行う方法を説明する。 A calculation process of the second estimated value when K * is used as the second method will be described. K * is a case-based technique for obtaining an estimated value of a component value under a brewing condition using a past sample of learning data. Below, the method of performing the predicted value of a component value using K * (2nd method) is demonstrated.
ここで、Iが連続値をとるサンプルの集合、TがIの上での変換操作tの集合であるものとする。下記の式(2)に示されているように、変換操作tの組み合わせによってサンプルaからサンプルbへの遷移ができるものとする。
PをIにおけるサンプル間の遷移を実現する変換の集合であるとすると、下記の式(3)に示された関係を満たす確率関数(Probability Function)を定義することができる。
下記の式(4)は特徴空間内でサンプルaからサンプルb間の各経路をとって変換が起こる確率の和P*を示している。
下記の式(5)のK*関数は、式(4)のP*をエントロピーに類似した形式で表したものである。
サンプル間の遷移確率を使うと、K*による成分値の推定を行うことができる。まず、説明変数xiごとに、試醸サンプルと学習データのそれぞれの過去サンプルとの間の遷移確率を計算する。次にそれぞれの説明変数について求めた遷移確率を積算する。これによって、すべての説明変数を含めた試醸サンプルとそれぞれの過去サンプルとの間の遷移確率が求められる。最後に、過去サンプルに対応する醸造事例における実際の成分値と、試醸サンプルとの間の遷移確率の積を、それぞれの過去サンプルについて計算し、対象のデータ(学習データ)に含まれるすべての過去サンプルについて加算する。この値を過去サンプルと試醸サンプルとの間の遷移確率の和で割ると、成分値の推定値を求めることができる。 Using the transition probability between samples, the component value can be estimated by K *. First, for each explanatory variable x i, calculate the transition probabilities between each of the past samples of Fermentation samples and learning data. Next, the transition probabilities obtained for each explanatory variable are integrated. As a result, the transition probabilities between the brew sample including all the explanatory variables and the respective past samples are obtained. Finally, the product of the transition probability between the actual component value in the brewing case corresponding to the past sample and the sample sample is calculated for each past sample, and all the data included in the target data (learning data) Add the past samples. By dividing this value by the sum of transition probabilities between the past sample and the brew sample, an estimated value of the component value can be obtained.
なお、学習処理においてテスト用データに設定されたブロックを用いて、第2手法の誤差を確認する際には、テスト用データに設定されたブロックに属するそれぞれの過去サンプルと、トレーニング用データの過去サンプルとの間の遷移確率を計算する。 In addition, when checking the error of the second method using the block set in the test data in the learning process, each past sample belonging to the block set in the test data and the past of the training data Calculate transition probabilities between samples.
K*を使ってサンプルをカテゴリに分類することもできる。例えばサンプルaがカテゴリCに属する確率を求める場合、サンプルaがカテゴリCに属するサンプルのいずれかに遷移する確率の和を求めればよい。すなわち、下記の式(6)をP*として用いることができる。
各醸造事例に対応する過去サンプルが、複数のカテゴリに分類されている特徴空間上に試醸サンプルを追加し、上述の式(6)を適用した場合、それぞれのカテゴリについてP*の値を計算することができる。この場合、試醸サンプルは、P*の値が最大となったカテゴリに属すると判定することができる。 When a past sample corresponding to each brewing case is added to a feature space that is classified into a plurality of categories and the above formula (6) is applied, the value of P * is calculated for each category. can do. In this case, it can be determined that the sample brew sample belongs to the category having the maximum P * value.
検証部16は、学習処理においてテスト用データを使って推定値を求めたときに当該推定値と真値(実際の成分値)との間の誤差が許容誤差内にあるか否かを判定し、許容誤差内判定結果を求める。そして、トレーニング用データを使って許容誤差内判定結果を教師信号とし、ずれが許容誤差内にあるか否かの分類(TRUE/FALSE)を行う誤差判定モデルを学習する。最後に、テスト用データに学習した誤差判定モデルを適用し、許容誤差内確率を求める。
The
上述の検証部16による処理は、予測対象とする成分値および予測に用いる手法ごとに実行されるため、予測対象とする成分値(Y1、Y2、・・・、Ym)と機械学習手法(例えば、第1手法、第2手法)の組み合わせごとに誤差判定モデルが生成される。次に、予測処理において検証部16が実行する処理について述べる。
Since the processing by the
予測処理においては、試醸サンプルに係る説明変数を誤差判定モデルに入力し、それぞれの手法について、許容誤差内確率を計算し、許容誤差内確率に基づき、後述の手法選択部17(手法選択モデル)で誤差が小さい(精度が高い)と推定される手法を選択する。 In the prediction process, an explanatory variable related to the tasting sample is input to the error determination model, a probability within tolerance is calculated for each method, and a method selection unit 17 (method selection model described later) is calculated based on the probability within tolerance. ) To select a method in which the error is estimated to be small (high accuracy).
推定値と真値との間のずれが許容誤差内にあるか否かの2値の分類(TRUE/FALSE)を行う、誤差判定モデルは例えば、ロジスティック回帰によって学習することができる。以下では、ロジスティック回帰を使った誤差判定モデルの学習処理の概要について説明する。 An error determination model that performs binary classification (TRUE / FALSE) of whether or not the deviation between the estimated value and the true value is within an allowable error can be learned by, for example, logistic regression. Below, the outline | summary of the learning process of the error determination model using logistic regression is demonstrated.
検証部16が用いるロジスティックモデルは下記の式(7)のように表される。
許容誤差内判定結果を教師信号としてロジスティック回帰を行うことにより、定数b0と回帰係数b1〜bn+1の値を計算する。数値計算では、最急降下法や確率的勾配降下法などを使って対数尤度の極値をとるよう、b0〜bn+1の値を繰り返し更新する。ただし、使用される数値計算アルゴリズムについては特に問わない。 By performing logistic regression using the determination result within the permissible error as a teacher signal, the values of the constant b 0 and the regression coefficients b 1 to b n + 1 are calculated. In the numerical calculation, the values of b 0 to b n + 1 are repeatedly updated so as to take the extreme value of the log likelihood using the steepest descent method or the stochastic gradient descent method. However, the numerical calculation algorithm used is not particularly limited.
定数b0と回帰係数b1〜bn+1の値を求めたら、目的変数Zを下記の式(8)によって表されるシグモイド関数に代入し、許容誤差内確率pを計算することができる。
図12に示したように、シグモイド関数の出力値pは(0,1)の範囲の値をとる。ロジスティック回帰分析を使うと、分析対象が1と0の2値の状態をとるものであるときに、目的変数がいずれかの値をとる確率を推定することができる。2つの機械学習手法による推定値を求める場合、検証部16は予測対象となっているそれぞれの成分値について、第1推定値に係る許容誤差内確率p1と、第2推定値に係る許容誤差内確率p2のそれぞれを計算する。
As shown in FIG. 12, the output value p of the sigmoid function takes a value in the range of (0, 1). When logistic regression analysis is used, it is possible to estimate the probability that an objective variable takes any value when the analysis target is in a binary state of 1 and 0. When obtaining the estimated values by the two machine learning methods, the
上述では、ロジスティック回帰を使って誤差判定モデルの学習を行う場合を例に説明したが、その他の手法を使って誤差判定モデルの学習を行ってもよい。確率的な分類を行うその他の手法の例としては、最小二乗確率的分類などが挙げられる。 In the above description, the case where the error determination model is learned using logistic regression has been described as an example. However, the error determination model may be learned using other methods. Examples of other methods for performing probabilistic classification include least square probabilistic classification.
手法選択部17は、学習処理において、テスト用データをそれぞれの手法による予測モデルに入力して求めた推定値と、実際の成分値(真値)との間の誤差(ずれ)に基づき、誤差の小さい(精度の高い)機械学習手法を「好ましい手法」として選択する。詳細な処理は上述の図9に係る説明で述べた通りである。次に、手法選択部17は、検証部16で求められた許容誤差内確率(例えば、第1許容誤差内確率と第2許容誤差内確率)を学習データの説明変数に追加し、「好ましい手法」を教師信号として、手法選択モデルの学習を行う。
In the learning process, the
手法選択モデルの学習は、それぞれの予測対象の成分値について実行されるため、予測対象の成分値(Y1、Y2、・・・、Ym)ごとに手法選択モデルが生成される。次に、予測処理において手法選択部17が実行する処理について述べる。
Since the learning of the method selection model is performed for each prediction target component value, a method selection model is generated for each prediction target component value (Y 1 , Y 2 ,..., Y m ). Next, a process executed by the
予測処理においては、検証部16で計算された、それぞれの手法に係る許容誤差内確率(例えば、確率p1、p2)と、試醸サンプルに係る説明変数を手法選択モデルに入力し、正式な予測値として用いる推定値(例えば、第1手法と第2手法がある場合には、第1推定値または第2推定値のいずれか)を選択する。
In the prediction process, the probability within tolerance (for example, probabilities p 1 , p 2 ) calculated by the
次に、手法選択モデルの学習処理について説明する。第1手法、第2手法のようにふたつの手法のいずれかの推定値を正式な予測値として選択する場合、誤差判定モデルと同様に、ロジスティック回帰を用いることができる。以下では、手法選択モデルの学習にロジスティック回帰を使った場合を例に説明する。 Next, the learning process of the method selection model will be described. Logistic regression can be used in the same manner as the error determination model when selecting an estimated value of one of the two methods as a formal predicted value, such as the first method and the second method. Below, the case where logistic regression is used for learning of the method selection model will be described as an example.
手法選択モデルの学習では、下記の式(9)のようなロジスティックモデルを使う。
手法選択部17は、例えば説明変数X´1として第1推定値に係る許容誤差内確率p1、説明変数X´2として第2推定値に係る許容誤差内確率p2、説明変数X´3〜X´n+2として、試醸サンプルに係る説明変数x1〜xnを使うことができる。すなわち、試醸サンプルの説明変数に、試醸条件における第1推定値の許容誤差内確率と、試醸条件における第2推定値の許容誤差内確率を追加して、ロジスティック回帰の説明変数としている。そして、手法選択部17は図9の列49に示された「好ましい手法」を教師信号としてロジスティック回帰を行い、定数d0と回帰係数d1〜dn+2の値を計算する。使われる数値計算の手法については特に問わない。
目的変数Z´の値を求めたら、シグモイド関数である下記の式(10)にZ´を代入して確率p´を計算する。
上述では、手法選択モデルの学習にロジスティック回帰を用いた場合を例に説明したが、その他の手法を使って手法選択モデルの学習を行ってもよい。例えば、最小二乗確率的分類を使ってもよいし、サポートベクトル分類、決定木、アンサンブル学習などを使って手法選択モデルの学習を行ってもよい。 In the above description, the case where logistic regression is used for learning the method selection model has been described as an example. However, the method selection model may be learned using other methods. For example, least square probabilistic classification may be used, or method selection models may be learned using support vector classification, decision trees, ensemble learning, and the like.
予測対象の成分値(Y1、Y2、・・・、Ym)ごとに手法選択モデルが生成されているため、実際の予測処理においては、予測をする成分値によって選択される手法が異なる場合がある。手法選択部17は予測処理において、それぞれの成分値の予測のために選択された機械学習手法の種類と、試醸条件における成分値の正式な予測値を表示部5に表示してもよい。
Since a method selection model is generated for each component value (Y 1 , Y 2 ,..., Y m ) to be predicted, the method to be selected differs depending on the component value to be predicted in the actual prediction process. There is a case. In the prediction process, the
次に、特性予測装置1が実行する処理の詳細について説明する。図13〜図15は、特性予測装置が実行する学習処理を示したフローチャートである。利用者が醸造条件における成分値の予測を行う前に、当該成分値の予測のための学習処理が実行されている必要がある。以下では、図13〜図15のフローチャートを参照しながら、処理を説明する。
Next, details of processing executed by the
最初に、前処理部4は、醸造データから学習データを生成し、学習データ記憶部22に学習データを保存する(ステップS101)。ステップS101で実行される処理は前処理部4に係る説明で述べた通りである。次に、変数選択部11は、予測を行う成分値(目的変数)と、目的変数の推定に用いる手法との組み合わせごとに、学習に使用する変数を選択する(ステップS102)。ステップS102で実行される処理の詳細は、図6、図7および変数選択部11に係る説明で述べた通りである。このとき変数選択部11は、選択された変数に係る情報を学習データ記憶部22に保存してもよい。
First, the
そして、交差検証部12は、学習データLをk分割し、複数のブロックL1、L2、・・・、Lkを生成する(ステップS103)。このとき、交差検証部12はそれぞれの成分値Y1、Y2、・・・、Ymに係る予測モデルおよび誤差判定モデルの学習を行うときに、テスト用データとするブロックと、トレーニング用データとするブロックの割り当てを決定する。学習データLの分割数kについては特に限定しない。ステップS103で実行される処理の詳細は、図2、図3および交差検証部12に係る説明で述べた通りである。
Then, the
学習データを複数のブロックに分割したら、学習データの一部のブロックをテスト用データに設定し、残りのブロックをトレーニング用データに設定する(ステップS104)。学習データにおけるテスト用データおよびトレーニング用データのブロック割り当てが決まったら、それぞれの予測対象の成分値(目的変数)および機械学習手法の組み合わせごとに、予測モデルと誤差判定モデルの学習を行う。以下では、繰り返し処理により、予測モデルと誤差判定モデルの学習が行われる場合を例に説明する。まず、繰り返し処理のため、ループカウンタiに1を代入する(ステップS105)。 When the learning data is divided into a plurality of blocks, a part of the learning data is set as test data, and the remaining blocks are set as training data (step S104). When the block assignment of the test data and the training data in the learning data is determined, the prediction model and the error determination model are learned for each combination of the component value (objective variable) and the machine learning method of each prediction target. Hereinafter, a case where learning of a prediction model and an error determination model is performed by iterative processing will be described as an example. First, 1 is substituted into the loop counter i for repetitive processing (step S105).
ステップS105が実行された後、特性予測装置1はステップS106〜S111の処理(第1手法に係る予測モデルおよび対応する誤差判定モデルの学習)と、ステップS112〜S118の処理(第2手法に係る予測モデルおよび対応する誤差判定モデルの学習)を並列的に実行する。以下ではまずステップS106〜S111の処理について説明する。
After step S105 is executed, the
モデル生成部13は、トレーニング用データを使って推定をする成分値Yi(目的変数yi)について第1手法(例えば、M5´)により、予測モデルを生成する(ステップS106)。モデル生成部13は第1手法により生成された予測モデルをモデルデータとしてモデルデータベース24に保存する(ステップS107)。モデルデータは、当該モデルにより推定される成分値(目的変数)を示す情報とともに保存される。ステップS106、ステップS107で実行される処理の詳細は、モデル生成部13に係る説明で述べた通りである。
The
次に、第1推定部14は、テスト用データを使って予測モデルによる成分値Yi(目的変数yi)の第1推定値を求める。そして、検証部16は、それぞれの醸造IDにおける第1推定値と真値(実際の成分値)との間の誤差の大きさを求め、保存する。検証部16は、当該誤差の大きさが許容誤差の範囲内にあるか否かを判定する(ステップS108)。
Next, the
検証部16は、テスト用データに含まれる、それぞれの醸造IDについて、許容誤差内判定結果(TRUE/FALSE)を保存する(ステップS109)。検証部16は、例えば図8の判定テーブルに許容誤差内判定結果を保存することができる。ステップS108、S109で実行される処理の詳細は図8に係る説明で述べた通りである。
The
そして、検証部16はトレーニング用データを使い、許容誤差内判定結果を教師信号として、ずれ(誤差)が許容誤差の範囲内にある確率を推定する誤差判定モデルを学習し、記憶部2のモデルデータベース24に保存する(ステップS110)。ステップS110で実行される処理の詳細は、誤差判定モデルに係る説明で述べた通りである。次に、検証部16はテスト用データに誤差判定モデルを適用し、それぞれの醸造IDについて、第1許容誤差内確率を求める(ステップS111)。第1許容誤差内確率は判定テーブルに保存することができる。
Then, the
次に、ステップS112〜S118の処理について説明する。 Next, processing in steps S112 to S118 will be described.
モデル生成部13は、トレーニング用データを使って推定をする成分値Yi(目的変数yi)について第2手法による、学習を行う(ステップS112)。第2手法としてK*を用いる場合、ステップS112で遷移確率の計算のための前処理などを実行してもよい。特に前処理などを実行する必要がない場合には、ステップS112に係る処理を省略してもよい。第2手法としてモデルベースの手法が用いられる場合、ステップS112ではもうひとつの予測モデルが生成される。
The
次に、モデル生成部13は第2手法で使うデータをモデルデータとして、モデルデータベース24に保存する(ステップS113)。特に保存するモデルデータがない場合には、ステップS113に係る処理を省略してもよい。
Next, the
そして、第2推定部15はテスト用データを使って、第2手法による成分値Yi(目的変数yi)の第2推定値を求める。そして、検証部16は、それぞれの醸造IDにおける第2推定値と真値(実際の成分値)との間の誤差の大きさを求め、保存する。検証部16は、当該誤差の大きさが許容誤差の範囲内にあるか否かを判定する(ステップS114)。
Then, the
検証部16は、テスト用データに含まれる、それぞれの醸造IDについて、許容誤差内判定結果(TRUE/FALSE)を保存する(ステップS115)。検証部16は、例えば図8の判定テーブルに許容誤差内判定結果を保存することができる。ステップS114、S115で実行される処理の詳細は図8に係る説明で述べた通りである。
The
そして、検証部16はトレーニング用データを使い、許容誤差内判定結果を教師信号として、ずれ(誤差)が許容誤差の範囲内にある確率を推定する誤差判定モデルを学習し、記憶部2のモデルデータベース24に保存する(ステップS117)。ステップS117で実行される処理の詳細は、誤差判定モデルに係る説明で述べた通りである。次に、検証部16はテスト用データに誤差判定モデルを適用し、それぞれの醸造IDについて、第2許容誤差内確率を求める(ステップS118)。第2許容誤差内確率は判定テーブルに保存することができる。
Then, the
予測対象の成分値Yi(目的変数yi)についてステップS111およびステップS118の処理が終了したら、ループカウンタiにi+1を代入する(ステップS119)。次に、ループカウンタiの値を予測対象の成分値(目的変数)の数mと比較する。i≦mである場合、処理はステップS106およびステップS112(並列的な処理)に戻る。i>mである場合、処理はステップS121に進む(ステップS120)。これにより、すべての予測対象の成分値Yi(目的変数yi)について、予測モデルと対応する誤差判定モデルが学習されるまで、繰り返し処理が実行される。 When the processing of step S111 and step S118 is completed for the prediction target component value Y i (objective variable y i ), i + 1 is substituted into the loop counter i (step S119). Next, the value of the loop counter i is compared with the number m of component values (objective variables) to be predicted. If i ≦ m, the process returns to step S106 and step S112 (parallel processing). If i> m, the process proceeds to step S121 (step S120). Thus, the iterative process is executed until the error determination model corresponding to the prediction model is learned for all the prediction target component values Y i (objective variable y i ).
図13、図14のフローチャートに示した例では、繰り返し処理によってそれぞれの予測対象の成分値Yi(目的変数yi)に係る予測モデルと対応する誤差判定モデルの学習が実現されているが、処理の並列性はこれとは異なっていてもよい。例えば、複数の成分値Yi(目的変数yi)に係る予測モデルと対応する誤差判定モデルの学習を並列的に実行してもよいし、第1手法と第2手法に係るモデルの学習を逐次実行してもよい。並列的な学習処理は、例えば複数台の計算機(コンピュータ)、複数のCPU(Central Processing Unit)を用いることによって実現することができる。 In the example shown in the flowcharts of FIGS. 13 and 14, the learning of the error determination model corresponding to the prediction model related to each prediction target component value Y i (objective variable y i ) is realized by the iterative process. Processing parallelism may be different. For example, learning of an error determination model corresponding to a prediction model related to a plurality of component values Y i (objective variable y i ) may be performed in parallel, or learning of models related to the first method and the second method may be performed. You may perform sequentially. Parallel learning processing can be realized by using, for example, a plurality of computers (computers) and a plurality of CPUs (Central Processing Units).
次に、手法選択部17は、それぞれの目的変数y(成分値Y)について、第1手法による第1推定値と真値(実際の成分値)との間の誤差と、第2手法による第2推定値と真値(実際の成分値)との間の誤差を比較する。手法選択部17は、当該目的変数yについて、誤差が小さい手法を、当該目的変数の推定に「好ましい手法」として選択する(ステップS121)。「好ましい手法」の選択処理に関する詳細は、図9および手法選択部17に係る説明で述べた通りである。
Next, the
学習データの醸造IDのそれぞれについて、「好ましい手法」が選択されたら、学習データをトレーニング用データと、トレーニング用データに分割せず、手法選択モデルの学習を行う。図15の例では予測対象とする成分値(目的変数)ごとに手法選択モデルの学習を繰り返すため、それぞれの目的変数y(成分値Y)に対応する、ループカウンタjに1を代入する(ステップS122)。 When “preferred method” is selected for each of the brewing IDs of the learning data, learning of the method selection model is performed without dividing the learning data into training data and training data. In the example of FIG. 15, since learning of the method selection model is repeated for each component value (object variable) to be predicted, 1 is assigned to the loop counter j corresponding to each object variable y (component value Y) (step S122).
まず、手法選択部17は学習データの説明変数に第1許容誤差内確率および第2許容誤差内確率を追加し、目的変数yj(成分値Yj)について、「好ましい手法」を教師信号として、手法選択モデルを学習する(ステップS123)。手法選択モデルの学習についての詳細は、手法選択部17に係る説明で述べた通りである。そして、手法選択部17は学習された目的変数yj(成分値Yj)に係る手法選択モデルを記憶部2のモデルデータベース24に保存する。
First, the
予測対象の成分値Yj(目的変数yj)についてステップS124の処理が終了したら、ループカウンタjにj+1を代入する(ステップS125)。次に、ループカウンタjの値を予測対象の成分値(目的変数)の数mと比較する。j≦mである場合、処理はステップS123に戻る。j>mである場合、すべての学習処理は終了する(ステップS126)。これにより、すべての予測対象の成分値Yj(目的変数yj)について、手法選択モデルが学習されるまで、繰り返し処理が実行される。 When the process of step S124 is completed for the prediction target component value Y j (objective variable y j ), j + 1 is substituted into the loop counter j (step S125). Next, the value of the loop counter j is compared with the number m of component values (objective variables) to be predicted. If j ≦ m, the process returns to step S123. If j> m, all learning processes are terminated (step S126). Thus, the iterative process is executed until the method selection model is learned for all the prediction target component values Y j (objective variable y j ).
図15のフローチャートに示した例では、繰り返し処理によってそれぞれの予測対象の成分値Yi(目的変数yi)に係る手法選択モデルの学習が実現されているが、複数の成分値Yi(目的変数yi)に係る手法選択モデルの学習を並列的に行ってもよい。並列的な学習処理は、例えば複数台の計算機(コンピュータ)、複数のCPU(Central Processing Unit)を用いることによって実現することができる。 In the example shown in the flowchart of FIG. 15, learning of the method selection model related to each prediction target component value Y i (objective variable y i ) is realized by iterative processing, but a plurality of component values Y i (objectives) The method selection model relating to the variable y i ) may be learned in parallel. Parallel learning processing can be realized by using, for example, a plurality of computers (computers) and a plurality of CPUs (Central Processing Units).
次に、特性予測装置1による予測処理について述べる。
Next, prediction processing by the
図16、図17は、ある成分値Ypの予測処理を示したフローチャートである。予測対象の成分値(目的変数)について学習処理が完了したら、当該成分値(目的変数)について予測処理を実行することが可能となる。以下では、図16、図17のフローチャートを参照しながら、処理を説明する。 16, FIG. 17 is a flowchart showing a prediction processing of a component value Y p. When the learning process is completed for the prediction target component value (objective variable), the prediction process can be executed for the component value (objective variable). Hereinafter, the processing will be described with reference to the flowcharts of FIGS. 16 and 17.
最初に、利用者は試醸条件と、当該試醸条件のもとで予測したい飲料の成分値を決める(ステップS201)。飲料の成分値はひとつであってもよいし、複数個であってもよい。次に、利用者は操作部6を使って試醸条件と予測したい成分値Ypを特性予測装置1に入力する(ステップS202)。そして利用者は操作部6より成分値の予測処理の開始指令を出す。
First, the user determines the brewing conditions and the component value of the beverage to be predicted under the brewing conditions (step S201). The component value of the beverage may be one or plural. Next, the user inputs a component value Y p to be expected Fermentation conditions using the
予測処理の開始指令が出されたら、特性予測装置1は試醸条件から成分値の推定手法(例えば、M5´などのモデルベースの手法、K*などの事例ベースの手法)ごとに説明変数と目的変数を選ぶ(ステップS203)。ここで選ばれた説明変数と目的変数を試醸サンプルとよぶものとする。ステップS203では、予測対象となっている試醸条件に係るそれぞれ成分値について試醸サンプルが生成される。ステップS203で実行される処理の詳細は図7に係る説明で述べた通りである。
When a prediction process start command is issued, the
ステップS203の処理が実行された後、特性予測装置1はステップS204、S205の処理(第1手法による推定と許容誤差内確率の計算)と、ステップS206、S207の処理(第2手法による推定と許容誤差内確率の計算)を並列的に実行する。以下では、最初にステップS204、S205の処理について説明する。
After the process of step S203 is executed, the
第1推定部14は、試醸サンプルを成分値Yp(目的変数yp)の推定を行う第1手法に係る予測モデルに入力し、第1推定値を計算する(ステップS204)。第1手法としてM5´が用いられている場合、木の該当するノードにおける回帰式から成分値(目的変数)の推定値が求められる。
The
次に、検証部16は、試醸サンプルに係る説明変数を第1手法の予測モデルに対応する誤差判定モデルに入力し、第1許容誤差内確率を計算する(ステップS205)。検証部16は計算した第1許容誤差内確率を記憶部2に保存してもよい。
Next, the
次に、ステップS206、S207の処理について説明する。 Next, the processing of steps S206 and S207 will be described.
第2推定部15は、試醸サンプルを成分値Yp(目的変数yp)の推定を行う第2手法に係る予測モデルに入力し、第2推定値を計算する(ステップS206)。第2手法としてK*が用いられている場合、試醸サンプルとそれぞれの過去サンプルとの間の遷移確率と、それぞれの過去サンプルに対応する醸造事例の成分値の積を足し合わせ、遷移確率の和で除算すると、第2推定値を計算することができる。
The
次に、検証部16は、試醸サンプルに係る説明変数を第2手法の予測モデルに対応する誤差判定モデルに入力し、第2許容誤差内確率を計算する(ステップS207)。検証部16は計算した第2許容誤差内確率を記憶部2に保存してもよい。
Next, the
ステップS205およびステップS207の処理が実行されたら、ステップS208の処理を実行する。ステップS208で、手法選択部17は、成分値Yp(目的変数yp)に対応する手法選択モデルへ試醸サンプルに係る説明変数と、第1許容誤差内確率と、第2許容誤差内確率を入力し、手法選択モデルの出力値を求める。手法選択モデルがロジスティック回帰によって学習されている場合、出力値は(0,1)の範囲の値となる。
If the process of step S205 and step S207 is performed, the process of step S208 will be performed. In step S <b> 208, the
手法選択部17は、手法選択モデルの出力値に基づき、第1推定値または第2推定値のいずれかを正式な成分値Ypの予測値として利用者に提示するかを決める(ステップS209)。手法選択モデルがロジスティック回帰によって学習されている場合、出力値をしきい値(例えば、0.5)と比較する。例えば、出力値がしきい値より大きい場合、第1推定値を正式な予測値として選択する。出力値がしきい値以下である場合、第2推定値を正式な予測値として選択する。
ここでは、ふたつの予測モデルによる推定値のいずれかを正式な成分値Ypの予測値として選択する処理が行われているが、判定結果によっては両方の予測モデルによる推定値を正式な成分値Ypの予測値として選択してもよい。また、3つ以上の予測モデルによる推定値が計算された場合には、その中でいずれかひとつの推定値を正式な成分値Ypの予測値として選択してもよいし、複数の推定値を正式な成分値Ypの予測値として選択してもよい。 Here, the process of selecting one of the estimates by the two prediction model as the predicted value of the formal component value Y p is being performed, the judgment result by the formal component values an estimate by both prediction model it may be selected as the predicted value of Y p. Further, when the estimated value by more than two predictive model is calculated may select an estimate of any one among them as a prediction value of the formal component value Y p, multiple estimates may be selected as a formal predicted value of component value Y p.
次に、学習部3は、学習データの特徴空間における試醸サンプルの位置に基づき、関連事例として提示する過去サンプルを抽出する(ステップS210)。例えば、特徴空間において試醸サンプルと同一のカテゴリ(クラスタ)に分類されている過去サンプルまたは、特徴空間で試醸サンプルの近傍にある過去サンプルを関連事例として抽出することができる。
Next, the
以下では、図18を参照しながら、関連事例の抽出処理について説明する。図18には、学習データに係る特徴空間が示されている。図18の例では、学習データに係る過去サンプルがカテゴリ#1、カテゴリ#2、カテゴリ#3に分類されている。カテゴリへの分類処理は、例えばK*、k−平均法、決定木、アンサンブル分類などによって行うことができるが、分類に用いる手法については特に限定しない。
Hereinafter, the related case extraction process will be described with reference to FIG. FIG. 18 shows a feature space related to learning data. In the example of FIG. 18, past samples related to learning data are classified into
図18の特徴空間では、黒丸が試醸サンプル60の位置に相当する。試醸サンプルと同一のカテゴリ(クラスタ)に分類されている過去サンプルを関連事例として抽出する場合、カテゴリ#3に属する過去サンプルが関連事例として抽出される。
In the feature space of FIG. 18, the black circle corresponds to the position of the
また、カテゴリ(クラスタ)への分類がなされていない特徴空間において関連事例の抽出を行うことができる。図18の試醸サンプル60(黒丸)を中心とする球61の表面は、試醸サンプル60からの等距離線を示している。図18の特徴空間では、例えば、球61の範囲内にある過去サンプルを関連事例として抽出することができる。特徴空間における距離としては、ユークリッド距離、マンハッタン距離、ミンコフスキー距離、チェビシフ距離、マハラノビス距離などを使うことができるが、どの種類の距離を使ってもよい。
In addition, it is possible to extract related cases in a feature space that is not classified into categories (clusters). The surface of the
このように、試醸サンプルから一定の距離内にある過去サンプルを関連事例として抽出してもよいし、試醸サンプルから最も近い過去サンプルから順番に、所定の個数の過去サンプルを関連事例として抽出してもよい。ここで、所定の個数として例えば、10、15、20のような値を用いることができるが、設定値については特に問わない。 In this way, past samples within a certain distance from the tasting sample may be extracted as related cases, or a predetermined number of past samples are extracted as related cases in order from the nearest past sample. May be. Here, for example, values such as 10, 15, and 20 can be used as the predetermined number, but the set value is not particularly limited.
以下では、再び図17のフローチャートの説明に戻る。 Hereinafter, the description returns to the flowchart of FIG.
最後に、正式な成分値Ypの予測値および試醸条件の関連事例を利用者に提示する(ステップS211)。ステップS211では、利用者に対して成分値の予測値が何らかの方法で提示されていればよい。例えば、ディスプレイなどに予測値が表示されていてもよいし、紙に成分値の予想値をプリントアウトして利用者に提供してもよいし、成分値の予想値を利用者のメールアドレスに送信してもよいし、音声で成分値の予想値を通知してもよい。また、特性予測装置1がウェブサービスまたはイントラネットのサーバなどの機能を備える場合には、ウェブブラウザから試醸条件における成分値の予想値を確認できるようにしてもよい。なお、ステップS211における画面表示の例については後述する。
Finally, it presented to the user the relevant case the predicted values and Fermentation conditions formal component value Y p (step S211). In step S211, it is only necessary that the predicted value of the component value is presented to the user by some method. For example, the predicted value may be displayed on a display, the predicted component value may be printed out on paper and provided to the user, or the predicted component value may be provided to the user's email address. You may transmit and you may notify the expected value of a component value with an audio | voice. Moreover, when the
ステップS211で利用者に提示(表示)される予測値は、ひとつの予測モデルによる予測値であってもよいし、複数の予測モデルによる予測値であってもよい。また、利用者に提示する関連事例の件数については特に限定しない。 The predicted value presented (displayed) to the user in step S211 may be a predicted value based on one prediction model or may be predicted values based on a plurality of prediction models. Further, the number of related cases presented to the user is not particularly limited.
図16、図17のフローチャートでは、第1手法による推定と許容誤差内確率の計算処理と、第2手法による推定と許容誤差内確率の計算処理が並列的に実行されていたが、これらの処理は逐次実行されていてもよい。また、複数の成分値の予測を行う場合には、すべてまたは一部の成分値の予測を並列的に実行してもよいし、それぞれの成分値の予測を逐次行ってもよい。 In the flowcharts of FIG. 16 and FIG. 17, the estimation process by the first method and the calculation process of the probability within the allowable error and the estimation process by the second method and the calculation process of the probability within the allowable error are performed in parallel. May be executed sequentially. Further, when a plurality of component values are predicted, all or some component values may be predicted in parallel, or each component value may be predicted sequentially.
次に、特性予測装置1によって表示部5に表示される画面の例について説明する。図19は、試醸条件入力画面の例を示している。図19の画面50は「飲料特性予測システム」における試醸条件入力画面である。画面50では、利用者が過去の醸造事例に修正を加えて、試醸条件に設定することが可能となっている。また、麦芽については、複数のロットに係る麦芽を組み合わせた上で、醸造開始時における麦芽の成分値を計算することができる。画面50では麦芽の種類、それぞれの麦芽の使用量、ホップの種類、それぞれのホップの使用量、副材料の種類、それぞれの副材料の使用量、用水処理剤の種類、それぞれの用水処理剤の使用量、酵素剤の種類、それぞれの酵素剤の使用量、温度条件の設定などの細かい醸造条件が設定できる。
Next, an example of a screen displayed on the
図20は、ディスプレイに表示された予測結果表示画面の第1の例を示している。図15の画面51上段のテーブル51aには、最終外観発酵度(AAL)、色度、pH、全窒素、アミノ酸合計、BUの複数の成分値に係る正式な予測値が表示されている。また、画面51下段のテーブル51bには、複数の関連事例と対応する醸造IDなどが表示されている。利用者は画面51下段のテーブルをクリックすることにより、関連事例に関するさらに詳細な情報を参照することができる。関連事例の詳細情報は、例えばそれぞれの関連事例における設定項目と、それぞれの関連事例において生成された飲料の成分値を含む。
FIG. 20 shows a first example of a prediction result display screen displayed on the display. In the table 51a in the upper part of the
図21は、ディスプレイに表示された予測結果表示画面の第2の例を示している。図21のテーブルには、第1の手法と第2の手法による、最終外観発酵度(AAL)、色度、pH、全窒素、アミノ酸合計、BUの予測値が表示されている。このように、複数の機械学習手法(予測モデル)による推定値を、予測される飲料の成分値として表示してもよい。 FIG. 21 shows a second example of the prediction result display screen displayed on the display. In the table of FIG. 21, predicted values of final appearance fermentation degree (AAL), chromaticity, pH, total nitrogen, amino acid total, and BU by the first method and the second method are displayed. Thus, you may display the estimated value by a some machine learning method (prediction model) as a component value of the drink to be predicted.
本発明に係る特性予測装置を使うことにより、過去に蓄積された醸造データを使って、任意の条件(試醸条件)で醸造を行ったときに得られる飲料の特性を高い精度で予測することができる。学習データのもととなる醸造データに含まれる事例数が多ければ多いほど、正確な成分値の予測をすることができる。また、本発明に係る特性予測装置は利用者が入力した試醸条件と関連性を有する関連事例を利用者に提示する。これにより、利用者は膨大な過去の醸造事例の中から、開発の参考となる醸造事例を探し出す苦労から解放される。利用者は関連事例を参照し、所望の特性(成分値)を有する飲料が得られる、試醸条件(原材料、醸造工程などの設定項目)の調整や再検討を行うことができる。 By using the characteristic prediction apparatus according to the present invention, using the brewing data accumulated in the past, the characteristics of the beverage obtained when brewing under arbitrary conditions (trial brewing conditions) are predicted with high accuracy. Can do. The more the number of cases included in the brewing data that is the basis of the learning data, the more accurate the component value can be predicted. Moreover, the characteristic prediction apparatus according to the present invention presents the user with related cases having relevance to the brewing conditions input by the user. As a result, the user is freed from the trouble of searching for a brewing case that can be used as a reference for development among a large number of past brewing cases. The user can refer to related cases and adjust or reexamine the brewing conditions (setting items such as raw materials and brewing processes) from which a beverage having a desired characteristic (component value) is obtained.
研究開発部門に配属された新入社員や若手社員などは、関連事例を参照することによって、どのような原材料を使い、醸造工程をどのように調整すれば、所望の特性(成分値)の飲料を生成することができるのか、学ぶことができる。本発明に係る特性予測装置を使えば、新入社員や若手社員は、これまで技術者が長い年数の試醸の繰り返しにより習得した醸造におけるノウハウや感覚を効率的に理解することができる。本発明に係る特性予測装置は、飲料の試作に要する時間、コスト、リソースを抑え、開発スピードを高速化し、社員への教育、ノウハウの継承にも寄与する。 New employees and young employees assigned to the R & D department can refer to related cases to find out what raw materials are used and how the brewing process is adjusted to produce beverages with the desired characteristics (component values). You can learn what can be generated. By using the characteristic prediction apparatus according to the present invention, new employees and young employees can efficiently understand the know-how and sense in brewing that engineers have acquired through repeated trial brewing for many years. The characteristic predicting apparatus according to the present invention reduces the time, cost, and resources required for beverage prototyping, increases the development speed, and contributes to education and succession of know-how to employees.
(第2の実施形態)
第2の実施形態では、本発明に係る特性予測装置のハードウェア構成について説明する。本発明に係る特性予測装置は、コンピュータ100により構成される。コンピュータ100には、サーバ、クライアント端末、組み込み機器のマイコン、タブレット、スマートフォン、フィーチャーフォン、パソコンなどの各種の情報処理装置が含まれる。コンピュータ100は、仮想計算機(VM:Virtual Machine)やコンテナなどによって実現されていてもよい。
(Second Embodiment)
In the second embodiment, a hardware configuration of the characteristic prediction apparatus according to the present invention will be described. The characteristic prediction apparatus according to the present invention is configured by a
図17は、コンピュータ100の一例を示す図である。図17のコンピュータ100は、プロセッサ101と、入力装置102と、表示装置103と、通信装置104と、記憶装置105とを備える。プロセッサ101、入力装置102、表示装置103、通信装置104、記憶装置105は、バス106により相互に接続されている。
FIG. 17 is a diagram illustrating an example of the
プロセッサ101は、コンピュータ100の制御装置と演算装置を含む電子回路である。プロセッサ101として、例えば、汎用目的プロセッサ、中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、コントローラ、マイクロコントローラ、状態マシン、特定用途向け集積回路、フィールドプログラマブルゲートアレイ(FPGA)、プログラム可能論理回路(PLD)またはこれらの組合せを用いることができる。
The
プロセッサ101は、バス106を介して接続された各装置(例えば、入力装置102、通信装置104、記憶装置105)から入力されたデータやプログラムに基づいて演算処理を行い、演算結果や制御信号を、バス106を介して接続された各装置(例えば、表示装置103、通信装置104、記憶装置105)に出力する。具体的には、プロセッサ101は、コンピュータ100のOS(オペレーティングシステム)や、特性予測プログラムなどを実行し、コンピュータ100に含まれるそれぞれの装置を制御する。
The
特性予測プログラムとは、コンピュータ100に、特性予測装置の各構成要素に係る処理を実行させるプログラムである。特性予測プログラムは、一時的でない有形のコンピュータ読み取り可能な記憶媒体に記憶される。上記の記憶媒体は、例えば、光ディスク、光磁気ディスク、磁気ディスク、磁気テープ、フラッシュメモリ、半導体メモリであるが、これに限られない。プロセッサ101が特性予測プログラムを実行することによって、コンピュータ100は特性予測装置として機能することができる。
The characteristic prediction program is a program that causes the
入力装置102は、コンピュータ100に情報を入力するための装置である。入力装置102は、例えば、キーボード、マウス、タッチパネルなどであるが、これに限られない。ユーザは、入力装置102を用いることにより、利用者は醸造データの前処理開始指令、学習データの変更操作、学習処理の開始指令、学習データの変数選択操作、成分値の予測を行う醸造条件の指定操作、予測対象とする成分値の指定操作、成分値の予測処理の開始指令、表示内容の変更指令などを入力することができる。
The
表示装置103は、画像や映像を表示するための装置である。表示装置103は、例えば、LCD(液晶ディスプレイ)、CRT(ブラウン管)、有機EL(有機エレクトロルミネッセンス)ディスプレイ、プロジェクタ、LEDディスプレイなどであるが、これに限られない。表示装置103には、上述のように醸造データや学習データの内容や、醸造条件における成分値の予測結果などが表示される。
The
通信装置104は、コンピュータ100が外部装置と無線または有線で通信するために使用する装置である。通信装置104は、例えば、NIC(Network Interface Card)、通信モジュール、モデム、ハブ、ルータなどであるが、これに限られない。コンピュータ100は、通信装置104を介して、遠隔地の工場や研究所で蓄積された醸造データを収集してもよい。また、コンピュータ100(特性予測装置1)がデータセンターやマシン室に設置されたサーバなどである場合、コンピュータ100は通信装置104を介して、リモートの端末からの操作指令を受け付けたり、画面表示の内容をリモートの端末に表示させたりしてもよい。
The
記憶装置105は、コンピュータ100のOSや、特性予測プログラム、特性予測プログラムの実行に必要なデータ、特性予測プログラムの実行により生成されたデータなどを記憶する記憶媒体である。記憶装置105には、主記憶装置と外部記憶装置が含まれる。主記憶装置は、例えば、RAM、DRAM、SRAMであるが、これに限られない。また、外部記憶装置は、例えば、ハードディスク、光ディスク、フラッシュメモリ、磁気テープなどであるが、これに限られない。上述の醸造データベース21、学習データ記憶部22、判定データ記憶部23、モデルデータベース24は、記憶装置105上に構築されてもよいし、外部のサーバやストレージ上に構築されてもよい。
The
なお、コンピュータ100は、プロセッサ101、入力装置102、表示装置103、通信装置104、記憶装置105を、それぞれ1つずつまたは複数備えてもよい。また、コンピュータ100にプリンタやスキャナなどの周辺機器が接続されていてもよい。
Note that the
また、特性予測装置は、単一のコンピュータ100により構成されてもよいし、複数のコンピュータ100が相互に接続された情報システムによって構成されていてもよい。
Moreover, the characteristic prediction apparatus may be comprised by the
さらに、特性予測プログラムは、コンピュータ100の記憶装置105に予め記憶されていてもよいし、コンピュータ100の外部の記憶媒体に記憶されていてもよいし、インターネット上にアップロードされていてもよい。いずれの場合にも、特性予測プログラムをコンピュータ100にインストールして実行することにより、特性予測装置の機能を実現することができる。
Furthermore, the characteristic prediction program may be stored in advance in the
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲の限定することは意図していない、これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments have been presented by way of example, and are not intended to limit the scope of the invention. Various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1 特性予測装置
2 記憶部
3 学習部
4 前処理部
5 表示部
6 操作部
11 変数選択部
12 交差検証部
13 モデル生成部
14 第1推定部
15 第2推定部
16 検証部
17 手法選択部
21 醸造データベース
22 学習データ記憶部
23 判定データ記憶部
24 モデルデータベース
30、31、32、33、33a、34、35、39、40、41、42、43、43a。45、46、47、48、49 列
36、37、38、44、51a、51b テーブル
50、51、52 画面
60 試醸サンプル
61 球
100 コンピュータ
101 プロセッサ
102 入力装置
103 表示装置
104 通信装置
105 記憶装置
106 バス
DESCRIPTION OF
Claims (13)
前記試醸サンプルを、複数の予測モデルに入力し、前記予測モデルごとに前記飲料の成分値の推定値を求めるステップと、
前記試醸サンプルを、前記予測モデルに対応する誤差判定モデルに入力し、前記予測モデルごとに許容誤差内確率を計算するステップと、
手法選択モデルに、前記試醸サンプルに係る説明変数と、複数の前記許容誤差内確率を入力し、前記手法選択モデルの出力値に基づき、前記飲料の前記試醸条件において予測される前記成分値として提示される、前記推定値の選択を行うステップとをコンピュータが実行することを特徴とする、
飲料の特性予測方法。 Generating a tasting sample using the setting items in the beverage brewing conditions as explanatory variables;
Inputting the tasting sample into a plurality of prediction models, and obtaining an estimate of the component value of the beverage for each prediction model;
Inputting the sample sample to an error determination model corresponding to the prediction model, and calculating a probability within tolerance for each prediction model;
The method selection model is input with explanatory variables related to the tasting sample and a plurality of probabilities within the allowable error, and the component values predicted under the tasting conditions of the beverage based on the output value of the method selection model The computer executes the step of selecting the estimated value presented as:
Beverage property prediction method.
請求項1に記載の飲料の特性予測方法。 Including the step of displaying the estimated value by at least one of the prediction models on the display as the component value predicted in the brewing conditions of the beverage,
The beverage characteristic prediction method according to claim 1.
前記学習データを複数のブロックに分割し、一部のブロックをテスト用データに設定し、前記テスト用データに設定されなかったブロックをトレーニング用データに設定するステップと、
前記トレーニング用データを使い、前記飲料の前記成分値を推定する、前記予測モデルを複数生成するステップと、
前記テスト用データを使い、複数の前記予測モデルによる前記成分値の前記推定値を求めるステップと、
前記推定値と前記醸造事例における前記成分値の真値との間の誤差の大きさが許容誤差内にあるか否かを判定し、結果を許容誤差内判定結果として保存するステップと、
前記トレーニング用データを使い、前記許容誤差内判定結果を教師信号として、前記推定値の前記誤差の大きさが前記許容誤差内にある確率を推定する、前記誤差判定モデルを前記予測モデルごとに生成するステップと、
前記テスト用データに複数の前記誤差判定モデルを適用し、前記予測モデルごとに前記許容誤差内確率を計算するステップと、
前記テスト用データに含まれる前記過去サンプルについて、複数の前記予測モデルによる前記推定値と前記真値との間の前記誤差を比較し、前記誤差の最も小さい前記予測モデルを選択し、好ましい手法として保存するステップと、
前記学習データの前記説明変数に、複数の前記許容誤差内確率を追加し、前記好ましい手法を教師信号として、前記飲料の前記成分値として提示される前記推定値の選択を行う、前記手法選択モデルを生成するステップとをコンピュータが実行することを特徴とする、
請求項1または2に記載の飲料の特性予測方法。 Including a past sample with the setting item in the beverage brewing case as an explanatory variable, generating learning data;
Dividing the learning data into a plurality of blocks, setting some blocks as test data, and setting blocks not set as the test data as training data;
Using the training data to estimate the component values of the beverage and generating a plurality of the prediction models;
Obtaining the estimated value of the component value by a plurality of the prediction models using the test data;
Determining whether the magnitude of the error between the estimated value and the true value of the component value in the brewing case is within an allowable error, and storing the result as an allowable error determination result;
The error determination model is generated for each prediction model, using the training data and estimating the probability that the magnitude of the error in the estimated value is within the allowable error using the determination result within the allowable error as a teacher signal. And steps to
Applying a plurality of the error determination models to the test data, and calculating the probability within the allowable error for each prediction model;
For the past sample included in the test data, compare the error between the estimated value and the true value by a plurality of prediction models, select the prediction model with the smallest error, and as a preferred method Saving step;
The method selection model that adds a plurality of probabilities within the allowable error to the explanatory variable of the learning data, and selects the estimated value presented as the component value of the beverage using the preferred method as a teacher signal. And a step of generating a computer,
The beverage characteristic prediction method according to claim 1 or 2.
請求項3に記載の飲料の特性予測方法。 The past sample that is classified in the same category as the tasting sample in the feature space related to the learning data or the past sample that is in the vicinity of the tasting sample in the feature space is extracted, and Including the step of presenting as a related case,
The beverage characteristic prediction method according to claim 3.
請求項4に記載の飲料の特性予測方法。 Including the step of displaying the setting items in the related case and the component values of the beverage generated in the related case on a display.
The beverage characteristic prediction method according to claim 4.
請求項3ないし5のいずれか一項に記載の飲料の特性予測方法。 Any of the prediction models adds, for a plurality of the past samples, a product of a transition probability between the past samples determined by K * and the component value of the brewing case corresponding to the past samples, The estimated value is calculated by dividing by the sum of the transition probabilities,
The beverage characteristic prediction method according to any one of claims 3 to 5.
請求項1ないし6のいずれか一項に記載の飲料の特性予測方法。 At least one of the error determination model and the method selection model is generated by logistic regression,
The characteristic prediction method of the drink according to any one of claims 1 to 6.
請求項1ないし7のいずれか一項に記載の飲料の特性予測方法。 Any of the prediction models is generated by M5 or M5 ′,
The beverage characteristic prediction method according to any one of claims 1 to 7.
請求項1ないし8のいずれか一項に記載の飲料の特性予測方法。 The beverage is one of beer, happoshu, new genre, and beer-taste beverage,
The method for predicting beverage characteristics according to any one of claims 1 to 8.
請求項1ないし9のいずれか一項に記載の飲料の特性予測方法。 The beverage is a beverage containing malt as a raw material,
The beverage characteristic prediction method according to any one of claims 1 to 9.
請求項1ないし10のいずれか一項に記載の飲料の特性予測方法。 The setting item includes at least information related to either the raw material of the beverage or the brewing process of the beverage,
The method for predicting characteristics of a beverage according to any one of claims 1 to 10.
前記試醸サンプルを、複数の予測モデルに入力し、前記予測モデルごとに前記飲料の成分値の推定値を求めるステップと、
前記試醸サンプルを、前記予測モデルに対応する誤差判定モデルに入力し、前記予測モデルごとに許容誤差内確率を計算するステップと、
手法選択モデルに、前記試醸サンプルに係る説明変数と、複数の前記許容誤差内確率を入力し、前記手法選択モデルの出力値に基づき、前記飲料の前記試醸条件において予測される前記成分値として提示される、前記推定値の選択を行うステップと、
少なくともいずれかの前記推定値を前記飲料の前記試醸条件において予測される前記成分値としてディスプレイに表示するステップとをコンピュータが実行することを特徴とする、
特性予測プログラム。 Generating a tasting sample using the setting items in the beverage brewing conditions as explanatory variables;
Inputting the tasting sample into a plurality of prediction models, and obtaining an estimate of the component value of the beverage for each prediction model;
Inputting the sample sample to an error determination model corresponding to the prediction model, and calculating a probability within tolerance for each prediction model;
The method selection model is input with explanatory variables related to the tasting sample and a plurality of probabilities within the allowable error, and the component values predicted under the tasting conditions of the beverage based on the output value of the method selection model Selecting the estimated value presented as:
The computer executes a step of displaying at least one of the estimated values on the display as the component value predicted in the brewing conditions of the beverage,
Characteristic prediction program.
前記試醸サンプルを、複数の予測モデルに入力し、前記予測モデルごとに前記飲料の成分値の推定値を求めるステップと、
前記試醸サンプルを、前記予測モデルに対応する誤差判定モデルに入力し、前記予測モデルごとに許容誤差内確率を計算するステップと、
手法選択モデルに、前記試醸サンプルに係る説明変数と、複数の前記許容誤差内確率を入力し、前記手法選択モデルの出力値に基づき、前記飲料の前記試醸条件において予測される前記成分値として提示される、前記推定値の選択を行うステップと、
少なくともいずれかの前記推定値を前記飲料の前記試醸条件において予測される前記成分値としてディスプレイに表示するステップとを実行することを特徴とする、
特性予測装置。 Generating a tasting sample using the setting items in the beverage brewing conditions as explanatory variables;
Inputting the tasting sample into a plurality of prediction models, and obtaining an estimate of the component value of the beverage for each prediction model;
Inputting the sample sample to an error determination model corresponding to the prediction model, and calculating a probability within tolerance for each prediction model;
The method selection model is input with explanatory variables related to the tasting sample and a plurality of probabilities within the allowable error, and the component values predicted under the tasting conditions of the beverage based on the output value of the method selection model Selecting the estimated value presented as:
Displaying at least one of the estimated values on the display as the component value predicted in the brewing conditions of the beverage,
Characteristic prediction device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018026368A JP7046637B2 (en) | 2018-02-16 | 2018-02-16 | Beverage characteristic prediction method, characteristic prediction program and characteristic prediction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018026368A JP7046637B2 (en) | 2018-02-16 | 2018-02-16 | Beverage characteristic prediction method, characteristic prediction program and characteristic prediction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019144022A true JP2019144022A (en) | 2019-08-29 |
JP7046637B2 JP7046637B2 (en) | 2022-04-04 |
Family
ID=67772163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018026368A Active JP7046637B2 (en) | 2018-02-16 | 2018-02-16 | Beverage characteristic prediction method, characteristic prediction program and characteristic prediction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7046637B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021077206A (en) * | 2019-11-12 | 2021-05-20 | 株式会社チノウ | Learning method, evaluation device, and evaluation system |
CN112837816A (en) * | 2021-02-09 | 2021-05-25 | 清华大学 | Physiological state prediction method, computer device and storage medium |
JP2021179668A (en) * | 2020-05-11 | 2021-11-18 | Tdk株式会社 | Data analysis system, data analysis method, and data analysis program |
JP2022047369A (en) * | 2020-09-11 | 2022-03-24 | Tdk株式会社 | Method for making sense-of-taste estimation model, sense-of-taste estimation system, and sense-of-taste estimation program |
JP2022055690A (en) * | 2020-09-29 | 2022-04-08 | Tdk株式会社 | Food and drink evaluation system and food and drink evaluation program |
JP7532698B1 (en) * | 2024-04-26 | 2024-08-13 | 株式会社ブリヂストン | Data processing device, data processing method and data processing program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4228192A (en) * | 1978-03-08 | 1980-10-14 | Diessel Gmbh & Co. | Method and apparatus for the quantitative determination of beer ingredients |
JP2002253196A (en) * | 2001-02-28 | 2002-09-10 | Asahi Breweries Ltd | Malt evaluation method and method for predicting flavor stability of malt alcoholic beverage. |
JP2002365277A (en) * | 2001-04-03 | 2002-12-18 | Sapporo Breweries Ltd | Method for evaluating froth stability of alcohol beverage |
JP2006329674A (en) * | 2005-05-23 | 2006-12-07 | Keio Gijuku | Taste measuring method, taste sensor and taste measuring apparatus therefor |
JP2006343124A (en) * | 2005-06-07 | 2006-12-21 | Keio Gijuku | Measuring methods for multiple chemical substances |
JP2012027683A (en) * | 2010-07-23 | 2012-02-09 | Nippon Steel Corp | Quality prediction device, quality prediction method, program and computer readable recording medium |
JP2016036324A (en) * | 2014-08-11 | 2016-03-22 | 国立大学法人佐賀大学 | Screening method of yeast, and program and apparatus for the same |
JP2018010458A (en) * | 2016-07-13 | 2018-01-18 | 株式会社三菱総合研究所 | Information processor and information processing method |
-
2018
- 2018-02-16 JP JP2018026368A patent/JP7046637B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4228192A (en) * | 1978-03-08 | 1980-10-14 | Diessel Gmbh & Co. | Method and apparatus for the quantitative determination of beer ingredients |
JP2002253196A (en) * | 2001-02-28 | 2002-09-10 | Asahi Breweries Ltd | Malt evaluation method and method for predicting flavor stability of malt alcoholic beverage. |
JP2002365277A (en) * | 2001-04-03 | 2002-12-18 | Sapporo Breweries Ltd | Method for evaluating froth stability of alcohol beverage |
JP2006329674A (en) * | 2005-05-23 | 2006-12-07 | Keio Gijuku | Taste measuring method, taste sensor and taste measuring apparatus therefor |
JP2006343124A (en) * | 2005-06-07 | 2006-12-21 | Keio Gijuku | Measuring methods for multiple chemical substances |
JP2012027683A (en) * | 2010-07-23 | 2012-02-09 | Nippon Steel Corp | Quality prediction device, quality prediction method, program and computer readable recording medium |
JP2016036324A (en) * | 2014-08-11 | 2016-03-22 | 国立大学法人佐賀大学 | Screening method of yeast, and program and apparatus for the same |
JP2018010458A (en) * | 2016-07-13 | 2018-01-18 | 株式会社三菱総合研究所 | Information processor and information processing method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021077206A (en) * | 2019-11-12 | 2021-05-20 | 株式会社チノウ | Learning method, evaluation device, and evaluation system |
JP2021179668A (en) * | 2020-05-11 | 2021-11-18 | Tdk株式会社 | Data analysis system, data analysis method, and data analysis program |
JP7456273B2 (en) | 2020-05-11 | 2024-03-27 | Tdk株式会社 | Data analysis system, data analysis method, and data analysis program |
JP2022047369A (en) * | 2020-09-11 | 2022-03-24 | Tdk株式会社 | Method for making sense-of-taste estimation model, sense-of-taste estimation system, and sense-of-taste estimation program |
JP7207380B2 (en) | 2020-09-11 | 2023-01-18 | Tdk株式会社 | Taste estimation model creation method, taste estimation system, and taste estimation program |
JP2022055690A (en) * | 2020-09-29 | 2022-04-08 | Tdk株式会社 | Food and drink evaluation system and food and drink evaluation program |
JP7136165B2 (en) | 2020-09-29 | 2022-09-13 | Tdk株式会社 | Food evaluation system and food evaluation program |
CN112837816A (en) * | 2021-02-09 | 2021-05-25 | 清华大学 | Physiological state prediction method, computer device and storage medium |
JP7532698B1 (en) * | 2024-04-26 | 2024-08-13 | 株式会社ブリヂストン | Data processing device, data processing method and data processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7046637B2 (en) | 2022-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7046637B2 (en) | Beverage characteristic prediction method, characteristic prediction program and characteristic prediction device | |
CN107193876B (en) | Missing data filling method based on nearest neighbor KNN algorithm | |
US9784722B2 (en) | Systems and methods for evaluation of wine characteristics | |
JP2022008885A (en) | System and method for tracing taste preference of consumers | |
WO2017211191A1 (en) | Method and device for pushing information | |
CN108628971A (en) | File classification method, text classifier and the storage medium of imbalanced data sets | |
CN109615060B (en) | CTR estimation method, device and computer-readable storage medium | |
US9898464B2 (en) | Information extraction supporting apparatus and method | |
US20150186739A1 (en) | Method and system of identifying an entity from a digital image of a physical text | |
US20210117828A1 (en) | Information processing apparatus, information processing method, and program | |
CN113159355A (en) | Data prediction method, data prediction device, logistics cargo quantity prediction method, medium and equipment | |
US12183104B2 (en) | Handwriting recognition pipelines for genealogical records | |
WO2021108053A1 (en) | Automatic recommendation of analysis for dataset | |
US9256805B2 (en) | Method and system of identifying an entity from a digital image of a physical text | |
CN108133223A (en) | The device and method for determining convolutional neural networks CNN models | |
Rudolph et al. | Modeling yeast in suspension during laboratory and commercial fermentations to detect aberrant fermentation processes | |
CN116738551A (en) | Intelligent processing method for acquired data of BIM model | |
CN107688822B (en) | A new category recognition method based on deep learning | |
US20240062101A1 (en) | Feature contribution score classification | |
CN112765349A (en) | Industry classification method, apparatus, system and computer readable storage medium | |
US20220083961A1 (en) | Systems and methods for controlling production and distribution of consumable items based on their chemical profiles | |
JP2020184167A (en) | Brewing analysis apparatus, brewing analysis method, program, and storage medium | |
CN107067034B (en) | Method and system for rapidly identifying infrared spectrum data classification | |
CN112016582A (en) | Dish recommending method and device | |
KR102078282B1 (en) | Invoice category classification automation system using deep learning technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180314 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20190723 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7046637 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |