[go: up one dir, main page]

JP7641122B2 - Cooking device and trained model generation method - Google Patents

Cooking device and trained model generation method Download PDF

Info

Publication number
JP7641122B2
JP7641122B2 JP2021004942A JP2021004942A JP7641122B2 JP 7641122 B2 JP7641122 B2 JP 7641122B2 JP 2021004942 A JP2021004942 A JP 2021004942A JP 2021004942 A JP2021004942 A JP 2021004942A JP 7641122 B2 JP7641122 B2 JP 7641122B2
Authority
JP
Japan
Prior art keywords
heating
heated
unit
name
dish
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021004942A
Other languages
Japanese (ja)
Other versions
JP2022109554A (en
Inventor
哲児 都甲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2021004942A priority Critical patent/JP7641122B2/en
Publication of JP2022109554A publication Critical patent/JP2022109554A/en
Application granted granted Critical
Publication of JP7641122B2 publication Critical patent/JP7641122B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Ovens (AREA)
  • Electric Stoves And Ranges (AREA)

Description

本発明は、加熱調理器及び学習済みモデル生成方法に関する。 The present invention relates to a cooking device and a method for generating a trained model.

特許文献1に記載の調理装置は、入力手段である操作入力装置と、加熱手段と、撮像装置と、中央情報処理装置とを備える。ユーザーは、操作入力装置により、あらかじめ提示されたメニューの中から希望する加熱メニューを設定する。撮像装置は、加熱前の食品を撮像する。中央情報処理装置は、操作入力装置により選択された加熱メニューがグリル系加熱であれば、食品の表面に焦げ色を付加するように、撮像した加熱前の映像を、仕上がり後の映像に加工する。そして、加熱手段は、食品(被加熱物)を加熱する。撮像装置は、さらに、加熱が行われる間に食品の映像を撮像する。中央情報処理装置は、加工した食品の映像と、加熱が行われる間に撮像された食品の映像とが一致するか否かを判断し、一致すると判断した場合、加熱出力を停止する。 The cooking device described in Patent Document 1 includes an operation input device as an input means, a heating means, an imaging device, and a central information processing device. The user uses the operation input device to set a desired heating menu from menus presented in advance. The imaging device images the food before heating. If the heating menu selected by the operation input device is grill-type heating, the central information processing device processes the captured image before heating into an image of the food after it has been finished so as to add a browned color to the surface of the food. The heating means then heats the food (object to be heated). The imaging device further captures an image of the food while it is being heated. The central information processing device determines whether the image of the processed food matches the image of the food captured while it is being heated, and if it determines that they match, stops the heating output.

特開平9-229373号公報Japanese Patent Application Publication No. 9-229373

しかしながら、特許文献1に記載の調理装置において、ユーザーは、操作入力装置によって、あらかじめ提示されたメニューの中から希望する加熱メニューを設定する必要がある。従って、加熱メニューを設定する手間がユーザーにとって負担である。 However, in the cooking device described in Patent Document 1, the user must use the operation input device to select a desired heating menu from menus presented in advance. Therefore, the effort of setting the heating menu is a burden for the user.

本発明は上記課題に鑑みてなされたものであり、その目的は、加熱調理器を操作するユーザーの手間を軽減できる加熱調理器及び学習モデル生成方法を提供することを目的とする。 The present invention has been made in consideration of the above problems, and aims to provide a cooking device and a learning model generation method that can reduce the effort required of a user to operate the cooking device.

本願の一局面によれば、加熱調理器は、加熱部と、撮像部と、推定部と、加熱制御部とを備える。加熱部は、被加熱物を加熱する。撮像部は、前記被加熱物が加熱されている時に、前記被加熱物を撮像する。推定部は、前記撮像部の撮像結果に基づいて、前記被加熱物の加熱中に、前記被加熱物の名称を推定する。加熱制御部は、前記推定部の推定結果に応じて、前記加熱部を制御する。 According to one aspect of the present application, a cooking device includes a heating unit, an imaging unit, an estimation unit, and a heating control unit. The heating unit heats an object to be heated. The imaging unit images the object to be heated while the object is being heated. The estimation unit estimates the name of the object to be heated while the object is being heated based on the imaging result of the imaging unit. The heating control unit controls the heating unit according to the estimation result of the estimation unit.

本願の他の局面によれば、学習済みモデル生成方法は、学習データを取得するステップと、被加熱物の名称を推定する学習済みモデルを、前記学習データを機械学習することによって生成するステップとを含む。前記学習データは、料理を示す学習対象料理画像と、前記料理の名称を示す名称情報とを含む。 According to another aspect of the present application, a trained model generation method includes the steps of acquiring training data and generating a trained model that estimates the name of a heated object by machine learning the training data. The training data includes a training target dish image showing a dish and name information showing the name of the dish.

本発明によれば、加熱調理器を操作するユーザーの手間を軽減できる。 The present invention reduces the effort required for users to operate a cooking device.

本発明の実施形態1に係る加熱調理器を示すブロック図である。1 is a block diagram showing a cooking device according to a first embodiment of the present invention. 実施形態1に係る加熱調理器の動作の概要を示すブロック図である。2 is a block diagram showing an outline of the operation of the cooking device according to the first embodiment. FIG. 実施形態1に係る学習装置を示すブロック図である。1 is a block diagram showing a learning device according to a first embodiment; 実施形態1に係る学習データの一例を示す図である。FIG. 4 is a diagram illustrating an example of learning data according to the first embodiment. 実施形態1に係る学習データの他の一例を示す図である。FIG. 11 is a diagram illustrating another example of learning data according to the first embodiment. 実施形態1に係る学習データの他の一例を示す図である。FIG. 11 is a diagram illustrating another example of learning data according to the first embodiment. 実施形態1に係る学習データの他の一例を示す図である。FIG. 11 is a diagram illustrating another example of learning data according to the first embodiment. 実施形態1に係る学習データの他の一例を示す図である。FIG. 11 is a diagram illustrating another example of learning data according to the first embodiment. 実施形態1に係る学習データの他の一例を示す図である。FIG. 11 is a diagram illustrating another example of learning data according to the first embodiment. 実施形態1に係る学習済みモデルの入力情報及び出力情報を示すブロック図である。FIG. 2 is a block diagram showing input information and output information of a trained model according to the first embodiment. 実施形態1に係る学習済みモデル生成方法を示すフローチャートである。1 is a flowchart showing a trained model generation method according to the first embodiment. 実施形態1に係る撮像部の撮像結果の一例を示す図である。5A to 5C are diagrams illustrating an example of an imaging result of an imaging unit according to the first embodiment. 実施形態1に係る記憶部が記憶するテーブルを示す図である。4 is a diagram illustrating a table stored in a storage unit according to the first embodiment. FIG. 実施形態1に係る加熱部の動作の一例を示す図である。5A to 5C are diagrams illustrating an example of an operation of a heating unit according to the first embodiment. 実施形態1に係る加熱調理器が実行する処理を示すフローチャートである。4 is a flowchart showing a process executed by the cooking device according to the first embodiment. 本発明の実施形態2に係る加熱調理器を示すブロック図である。FIG. 11 is a block diagram showing a heating cooker according to a second embodiment of the present invention. 実施形態2に係る料理画像の一例を示す図である。FIG. 11 is a diagram showing an example of a food image according to a second embodiment. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 11 is a diagram showing another example of a food image according to the second embodiment. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 11 is a diagram showing another example of a food image according to the second embodiment. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 11 is a diagram showing another example of a food image according to the second embodiment. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 11 is a diagram showing another example of a food image according to the second embodiment. 実施形態2に係る料理画像の他の一例を示す図である。FIG. 11 is a diagram showing another example of a food image according to the second embodiment. 実施形態2に係る撮像部の撮像結果と加工後の撮像結果とを示す図である。13A and 13B are diagrams showing an imaging result of an imaging unit according to a second embodiment and an imaging result after processing. 実施形態2に係る加熱調理器が実行する処理を示すフローチャートである。10 is a flowchart showing a process executed by a cooking device according to a second embodiment. 実施形態1の変形例に係る学習データを示す図である。FIG. 13 is a diagram showing learning data according to a modified example of the first embodiment.

本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。 The following describes an embodiment of the present invention with reference to the drawings. Note that in the drawings, the same or equivalent parts are designated by the same reference symbols and will not be described repeatedly.

まず、図1を参照して、加熱調理器1について説明する。図1は、加熱調理器1を示すブロック図である。 First, the cooking device 1 will be described with reference to FIG. 1. FIG. 1 is a block diagram showing the cooking device 1.

加熱調理器1は、例えば、電子レンジ、オーブン、炊飯器、又は電気鍋である。以下、加熱調理器1が電子レンジである場合を例に挙げて、本発明について説明する。図1に示すように、実施形態1において、加熱調理器1は、制御部10と、記憶部20と、加熱部30と、撮像部40と、操作部50と、本体部(図示せず)とを備える。 The cooking device 1 is, for example, a microwave oven, an oven, a rice cooker, or an electric pot. Below, the present invention will be described using an example in which the cooking device 1 is a microwave oven. As shown in FIG. 1, in the first embodiment, the cooking device 1 includes a control unit 10, a storage unit 20, a heating unit 30, an imaging unit 40, an operation unit 50, and a main body unit (not shown).

本体部は、加熱庫を含む。加熱庫には、被加熱物が配置される。被加熱物は、例えば食材である。 The main body includes a heating chamber. An object to be heated is placed in the heating chamber. The object to be heated is, for example, food ingredients.

加熱部30は、加熱庫に配置された被加熱物を加熱する。実施形態1において、加熱部30は、例えば、レンジ加熱機能、熱風循環加熱機能、及びグリル加熱機能を有する。レンジ加熱機能は、例えば、加熱庫内にマイクロ波を放射することによって、被加熱物を加熱調理する機能である。熱風循環加熱機能は、例えば、加熱庫内に熱風を循環させて加熱庫内の温度の均一化を図ったり、熱風を被加熱物の上面に直接吹き付けたりすることによって、被加熱物を加熱調理する機能である。グリル加熱機能は、主として、被加熱物を輻射熱に曝すことによって、被加熱物を加熱調理する機能である。つまり、加熱部30は、例えば、マイクロ波供給部及びヒータを含む。 The heating unit 30 heats the object to be heated placed in the heating chamber. In the first embodiment, the heating unit 30 has, for example, a microwave heating function, a hot air circulation heating function, and a grill heating function. The microwave heating function is, for example, a function for cooking the object to be heated by radiating microwaves into the heating chamber. The hot air circulation heating function is, for example, a function for cooking the object to be heated by circulating hot air inside the heating chamber to make the temperature inside the heating chamber uniform, or by blowing hot air directly onto the top surface of the object to be heated. The grill heating function is a function for cooking the object to be heated mainly by exposing the object to radiant heat. That is, the heating unit 30 includes, for example, a microwave supply unit and a heater.

撮像部40は、例えばカメラである。具体的には、撮像部40は、例えば、CCD(Charge Coupled Device)デジタルテレビジョンカメラ等で構成されたカメラである。撮像部40は、例えば、加熱庫の外側であって、加熱庫を構成する壁面に形成された開口に対向するように設置される。撮像部40は、例えば、加熱部30によって被加熱物が加熱されている時に、被加熱物を撮像する。実施形態1において、撮像部40は、例えば、所定時間ごとに被加熱物を撮像する。具体的には、撮像部40は、例えば、加熱部30によって被加熱物が加熱されている間、所定時間が経過する度に被加熱物を撮像する。例えば、所定時間は2秒である。 The imaging unit 40 is, for example, a camera. Specifically, the imaging unit 40 is, for example, a camera configured with a CCD (Charge Coupled Device) digital television camera or the like. The imaging unit 40 is, for example, installed outside the heating chamber so as to face an opening formed in a wall surface constituting the heating chamber. The imaging unit 40 images the heated object, for example, when the heated object is being heated by the heating unit 30. In the first embodiment, the imaging unit 40 images the heated object, for example, at predetermined time intervals. Specifically, the imaging unit 40 images the heated object, for example, every time a predetermined time elapses while the heated object is being heated by the heating unit 30. For example, the predetermined time is 2 seconds.

記憶部20は、記憶装置を含み、ソフトウェアのようなコンピュータープログラム及び種々のデータを記憶する。具体的には、記憶部20は、ROM(Read Only Memory)、及びRAM(Random Access Memory)のような主記憶装置(例えば、半導体メモリ)と、ソリッドステートドライブ、及び/又は、ハードディスクドライブのような補助記憶装置とを含む。記憶部20は、リムーバブルメディアを含んでいてもよい。記憶部20は、記憶媒体(例えば、非一時的コンピューター読取可能記憶媒体)の一例である。 The storage unit 20 includes a storage device and stores computer programs such as software and various data. Specifically, the storage unit 20 includes a main storage device (e.g., a semiconductor memory) such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and an auxiliary storage device such as a solid state drive and/or a hard disk drive. The storage unit 20 may include removable media. The storage unit 20 is an example of a storage medium (e.g., a non-transitory computer-readable storage medium).

また、記憶部20は、例えば、学習済みモデルLM及びテーブルTbを記憶する。 The memory unit 20 also stores, for example, a learned model LM and a table Tb.

実施形態1において、学習済みモデルLMは、学習データを機械学習することで構築される。以下、本明細書において学習データを学習データTDと記載する場合がある。学習データTDについては後述する。 In the first embodiment, the trained model LM is constructed by machine learning the training data. Hereinafter, in this specification, the training data may be referred to as training data TD. The training data TD will be described later.

また、実施形態1において、テーブルTbにおいて、複数の料理の名称(ピザ、トースト及びスポンジケーキ等)の各々に対して、料理に応じた加熱時間と、料理に応じた加熱強度とが関連付けられている。すなわち、記憶部20は、料理の名称に対して、料理に応じた加熱時間と、料理に応じた加熱強度とを関連付けて記憶する。加熱強度は、例えば、被加熱物を加熱するときの温度又はワット数のことである。 In addition, in the first embodiment, in table Tb, each of the names of a plurality of dishes (pizza, toast, sponge cake, etc.) is associated with a heating time and a heating intensity corresponding to the dish. That is, the memory unit 20 stores the name of a dish in association with a heating time and a heating intensity corresponding to the dish. The heating intensity is, for example, the temperature or wattage when heating the object to be heated.

操作部50は、例えば、加熱調理器1が備える操作キー、又は、液晶ディスプレイのような表示部に設けられたタッチパネルを含む。なお、加熱調理器1は、表示部を備えていなくてもよい。操作キーには、マウス、及び/又は、キーボードのような入力デバイスも含まれる。操作部50は、ユーザーに操作されて、例えば、加熱部30による加熱を開始する指示を受け付ける。操作部50は、「受付部」の一例である。 The operation unit 50 includes, for example, operation keys provided on the cooking device 1, or a touch panel provided on a display unit such as a liquid crystal display. Note that the cooking device 1 does not have to include a display unit. The operation keys also include input devices such as a mouse and/or a keyboard. The operation unit 50 is operated by a user to receive, for example, an instruction to start heating by the heating unit 30. The operation unit 50 is an example of a "reception unit."

制御部10は、CPU(Central Processing Unit)及びMPU(Micro Processing Unit)のようなプロセッサーを含む。なお、記憶部20及び制御部10は、ASIC(Application Specific Integrated Circuit)、又はFPGA(Field-Programmable Gate Array)のような集積回路で構成されてもよい。プロセッサーは、「コンピューター」の一例に相当する。 The control unit 10 includes a processor such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). The memory unit 20 and the control unit 10 may be configured as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). The processor is an example of a "computer."

制御部10のプロセッサーは、記憶部20の記憶装置に記憶されたコンピュータープログラムを実行して、記憶部20、加熱部30、撮像部40、及び操作部50を制御する。また、制御部10のプロセッサーは、記憶部20の記憶装置に記憶されたコンピュータープログラムを実行して、推定部11、加熱制御部12、及び計測部13として機能する。つまり、制御部10は、推定部11、加熱制御部12及び計測部13を含む。 The processor of the control unit 10 executes a computer program stored in the storage device of the storage unit 20 to control the storage unit 20, the heating unit 30, the imaging unit 40, and the operation unit 50. The processor of the control unit 10 also executes a computer program stored in the storage device of the storage unit 20 to function as the estimation unit 11, the heating control unit 12, and the measurement unit 13. In other words, the control unit 10 includes the estimation unit 11, the heating control unit 12, and the measurement unit 13.

推定部11は、撮像部40の撮像結果に基づいて、被加熱物の加熱中に、被加熱物の名称を推定する。 The estimation unit 11 estimates the name of the object to be heated based on the imaging results of the imaging unit 40 while the object to be heated is being heated.

加熱制御部12は、推定部11の推定結果に応じて、加熱部30を制御する。例えば、加熱制御部12は、推定部11の推定結果に応じて、一定時間が経過してから加熱部30による被加熱物の加熱を停止させる。より具体的には、加熱制御部12は、推定部11が推定した被加熱物の名称に応じた加熱時間にわたって被加熱物が加熱されるように、加熱部30を制御する。 The heating control unit 12 controls the heating unit 30 according to the estimation result of the estimation unit 11. For example, the heating control unit 12 stops the heating of the object by the heating unit 30 after a certain time has elapsed according to the estimation result of the estimation unit 11. More specifically, the heating control unit 12 controls the heating unit 30 so that the object is heated for a heating time according to the name of the object estimated by the estimation unit 11.

計測部13は、被加熱物が加熱された時間を計測する。例えば、計測部13は、加熱部30が被加熱物への加熱を開始してから、推定部11が被加熱物の名称を推定する時までの、被加熱物が加熱された時間を計測する。 The measuring unit 13 measures the time for which the object to be heated is heated. For example, the measuring unit 13 measures the time for which the object to be heated is heated from when the heating unit 30 starts heating the object to when the estimation unit 11 estimates the name of the object to be heated.

次に、図1及び図2を参照して、加熱調理器1の動作の概要について説明する。図2は、加熱調理器1の動作の概要を示すブロック図である。 Next, an overview of the operation of the cooking device 1 will be described with reference to Figures 1 and 2. Figure 2 is a block diagram showing an overview of the operation of the cooking device 1.

図2に示すように、まず、計測部13は、加熱部30による加熱を開始する指示を操作部50が受け付けた時から、被加熱物が加熱される時間の計測を開始する。 As shown in FIG. 2, first, the measurement unit 13 starts measuring the time it takes for the object to be heated when the operation unit 50 receives an instruction to start heating by the heating unit 30.

一方、推定部11は、被加熱物が加熱されている時に、撮像部40の撮像結果である料理画像HGを学習済みモデルLMに入力する。具体的には、推定部11は、被加熱物の加熱中に、料理画像HGを学習済みモデルLMに入力する。料理画像HGは、撮像部40によって撮像された被加熱物を示す。 Meanwhile, the estimation unit 11 inputs the food image HG, which is the image captured by the imaging unit 40, to the trained model LM when the heated object is being heated. Specifically, the estimation unit 11 inputs the food image HG to the trained model LM while the heated object is being heated. The food image HG shows the heated object imaged by the imaging unit 40.

学習済みモデルLMは、入力された料理画像HGに基づいて、入力された料理画像HGが示す被加熱物の名称を示す名称情報MNを出力する。具体的には、学習済みモデルLMは、被加熱物の加熱中に、料理画像HGに示される被加熱物の名称情報MNを出力する。 Based on the input food image HG, the trained model LM outputs name information MN indicating the name of the heated object shown in the input food image HG. Specifically, the trained model LM outputs name information MN of the heated object shown in the food image HG while the heated object is being heated.

そして、推定部11は、被加熱物の加熱中に、学習済みモデルLMが出力した名称情報MNを取得する。すなわち、推定部11は、料理画像HGに基づいて、被加熱物の加熱中に、被加熱物の名称を推定する。従って、推定部11は、被加熱物の名称を精度良く推定できる。そして、推定部11は、名称情報MNを加熱制御部12に入力する。 Then, the estimation unit 11 acquires the name information MN output by the trained model LM while the heated object is being heated. That is, the estimation unit 11 estimates the name of the heated object while the heated object is being heated based on the cooking image HG. Therefore, the estimation unit 11 can accurately estimate the name of the heated object. Then, the estimation unit 11 inputs the name information MN to the heating control unit 12.

加熱制御部12は、名称情報MNに応じて、加熱部30を制御する。すなわち、加熱制御部12は、推定部11の推定結果に応じて、加熱部30を制御する。従って、予めユーザーが操作部50を操作して被加熱物への加熱方法(メニュー)を選択することなく、被加熱物に対して、被加熱物の名称に応じた加熱ができる。その結果、加熱調理器1を操作するユーザーの手間を軽減できる。 The heating control unit 12 controls the heating unit 30 according to the name information MN. That is, the heating control unit 12 controls the heating unit 30 according to the estimation result of the estimation unit 11. Therefore, the object to be heated can be heated according to the name of the object to be heated without the user having to operate the operation unit 50 in advance to select a heating method (menu) for the object to be heated. As a result, the user's effort in operating the heating cooker 1 can be reduced.

具体的には、加熱制御部12は、推定部11の推定結果に応じて、被加熱物に応じた加熱時間と、加熱強度とを決定する。従って、予めユーザーが操作部50を操作して被加熱物への加熱時間と加熱強度とを選択することなく、被加熱物に対して、被加熱物の名称に応じた加熱ができる。その結果、ユーザーが加熱調理器1を操作する手間を軽減しつつ、被加熱物の名称に応じた加熱時間と加熱強度とで、被加熱物を加熱できる。すなわち、被加熱物の名称に応じて、適切に被加熱物を加熱できる。 Specifically, the heating control unit 12 determines the heating time and heating intensity according to the object to be heated, according to the estimation result of the estimation unit 11. Therefore, the object to be heated can be heated according to the name of the object, without the user having to operate the operation unit 50 in advance to select the heating time and heating intensity for the object to be heated. As a result, the object to be heated can be heated with a heating time and heating intensity according to the name of the object, while reducing the effort required for the user to operate the heating cooker 1. In other words, the object to be heated can be appropriately heated according to the name of the object to be heated.

具体的には、例えば、被加熱物がトーストである場合、推定部11は、被加熱物がトーストであると推定する。一方、例えば、記憶部20が記憶するテーブルTbにおいて、トーストに対して、11分を示す加熱時間、及び180℃を示す加熱強度が関連付けられている。そこで、加熱制御部12は、被加熱物を加熱する時間を11分に決定し、被加熱物を加熱する加熱強度を180℃に決定する。従って、加熱制御部12は、例えば、被加熱物が11分にわたって180℃で加熱されるように、加熱部30を制御する。その結果、適切にトーストが焼き上がる。 Specifically, for example, when the object to be heated is toast, the estimation unit 11 estimates that the object to be heated is toast. Meanwhile, for example, in table Tb stored in the memory unit 20, toast is associated with a heating time indicating 11 minutes and a heating intensity indicating 180°C. Therefore, the heating control unit 12 determines the time for heating the object to be 11 minutes and the heating intensity for heating the object to be 180°C. Therefore, the heating control unit 12 controls the heating unit 30, for example, so that the object to be heated is heated at 180°C for 11 minutes. As a result, the toast is properly toasted.

より具体的には、実施形態1において、加熱制御部12は、決定した加熱時間と、計測部13の計測結果とに基づいて、被加熱物に対する残りの加熱時間を決定する。従って、加熱制御部12は、決定した残りの加熱時間にわたって被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30によって被加熱物が過剰に加熱されることを防止できる。すなわち、被加熱物を適切に加熱できる。 More specifically, in the first embodiment, the heating control unit 12 determines the remaining heating time for the object to be heated based on the determined heating time and the measurement result of the measurement unit 13. Therefore, the heating control unit 12 controls the heating unit 30 so as to heat the object to be heated for the determined remaining heating time. As a result, it is possible to prevent the object to be heated from being excessively heated by the heating unit 30. In other words, it is possible to appropriately heat the object to be heated.

次に、図3を参照して、学習済みモデルLMを生成する学習装置100について説明する。図3は、学習装置100を示すブロック図である。学習装置100は、例えば、コンピューターである。学習装置100は、学習データTDを機械学習することによって、学習済みモデルLMを生成する。そして、学習装置100は学習済みモデルLMを出力する。学習済みモデルLMは、上述したように、入力された料理画像HGが示す被加熱物の名称を推定する。学習データTDは、学習装置100による機械学習の対象である。 Next, with reference to FIG. 3, a learning device 100 that generates a trained model LM will be described. FIG. 3 is a block diagram showing the learning device 100. The learning device 100 is, for example, a computer. The learning device 100 generates the trained model LM by machine learning the training data TD. Then, the learning device 100 outputs the trained model LM. As described above, the trained model LM estimates the name of the heated object indicated by the input cooking image HG. The training data TD is the subject of machine learning by the learning device 100.

図3に示すように、学習装置100は、処理部110と、記憶部120とを備える。 As shown in FIG. 3, the learning device 100 includes a processing unit 110 and a memory unit 120.

処理部110は、CPU及びGPU等のプロセッサーを備える。記憶部120は、記憶装置を含み、データ及びコンピュータープログラムを記憶する。処理部110のプロセッサーは、記憶部120の記憶装置が記憶しているコンピュータープログラムを実行して、各種処理を実行する。例えば、記憶部120は、加熱調理器1の記憶部20と同様に、主記憶装置と、補助記憶装置とを備え、リムーバブルメディアを備えていてもよい。記憶部120は、例えば、非一時的コンピューター読取可能記憶媒体である。 The processing unit 110 includes a processor such as a CPU and a GPU. The memory unit 120 includes a storage device and stores data and computer programs. The processor of the processing unit 110 executes computer programs stored in the storage device of the memory unit 120 to perform various processes. For example, the memory unit 120 may include a main storage device and an auxiliary storage device, and may also include removable media, similar to the memory unit 20 of the cooking appliance 1. The memory unit 120 is, for example, a non-transitory computer-readable storage medium.

記憶部120は、学習プログラムLPを記憶している。学習プログラムLPは、複数の学習データTDの中から一定の規則を見出し、見出した規則を表現する学習済みモデルLMを生成するための機械学習アルゴリズムを実行するためのプログラムである。 The memory unit 120 stores a learning program LP. The learning program LP is a program for executing a machine learning algorithm to find certain rules from multiple pieces of learning data TD and generate a learned model LM that expresses the found rules.

機械学習アルゴリズムは、教師あり学習であれば、特に限定されず、例えば、決定木、最近傍法、単純ベイズ分類器、サポートベクターマシン、又は、ニューラルネットワークである。従って、学習済みモデルLMは、決定木、最近傍法、単純ベイズ分類器、サポートベクターマシン、又は、ニューラルネットワークを含む。学習済みモデルLMを生成する機械学習において、誤差逆伝搬法を利用してもよい。 The machine learning algorithm is not particularly limited as long as it is supervised learning, and may be, for example, a decision tree, a nearest neighbor method, a naive Bayes classifier, a support vector machine, or a neural network. Therefore, the trained model LM includes a decision tree, a nearest neighbor method, a naive Bayes classifier, a support vector machine, or a neural network. In the machine learning that generates the trained model LM, the backpropagation method may be used.

例えば、ニューラルネットワークは、入力層、単数又は複数の中間層、及び、出力層を含む。具体的には、ニューラルネットワークは、ディープニューラルネットワーク(DNN:Deep Neural Network)、再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)、又は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であり、ディープラーニングを行う。例えば、ディープニューラルネットワークは、入力層、複数の中間層、及び、出力層を含む。 For example, the neural network includes an input layer, one or more intermediate layers, and an output layer. Specifically, the neural network is a deep neural network (DNN), a recurrent neural network (RNN), or a convolutional neural network (CNN), and performs deep learning. For example, the deep neural network includes an input layer, multiple intermediate layers, and an output layer.

処理部110は、学習プログラムLPに基づいて複数の学習データTDを機械学習する。その結果、複数の学習データTDの中から一定の規則が見出されて、学習済みモデルLMが生成される。つまり、学習済みモデルLMは、学習データTDを機械学習することで構築される。記憶部120は、学習済みモデルLMを記憶する。 The processing unit 110 performs machine learning on multiple pieces of training data TD based on the training program LP. As a result, certain rules are found from the multiple pieces of training data TD, and a trained model LM is generated. In other words, the trained model LM is constructed by machine learning the training data TD. The memory unit 120 stores the trained model LM.

具体的には、処理部110は、学習データTDに含まれる学習対象料理画像LGと名称情報MNとの間における一定の規則を見出して、学習済みモデルLMを生成する。学習対象料理画像LGは説明変数であり、名称情報MNは目的変数である。実施形態1において、学習対象料理画像LGは料理を示す。名称情報MNは、学習対象料理画像LGに示される料理の名称を示す。 Specifically, the processing unit 110 finds certain rules between the training target dish images LG and the name information MN contained in the training data TD, and generates a trained model LM. The training target dish images LG are explanatory variables, and the name information MN is a target variable. In embodiment 1, the training target dish images LG indicate dishes. The name information MN indicates the name of the dish shown in the training target dish images LG.

さらに具体的には、処理部110は、学習プログラムLPに基づいて複数の学習データTDを機械学習することによって、複数の学習済みパラメータを算出し、複数の学習済みパラメータが適用された1以上の関数を含む学習済みモデルLMを生成する。学習済みパラメータは、複数の学習データTDを用いた機械学習の結果に基づいて取得されるパラメータ(係数)である。 More specifically, the processing unit 110 calculates multiple learned parameters by performing machine learning on multiple pieces of training data TD based on the training program LP, and generates a trained model LM including one or more functions to which the multiple learned parameters are applied. The trained parameters are parameters (coefficients) obtained based on the results of machine learning using the multiple pieces of training data TD.

学習済みモデルLMは、入力情報を入力して、出力情報を出力するように、コンピューターを機能させる。換言すれば、学習済みモデルLMは、入力情報を入力して、出力情報を出力する。具体的には、学習済みモデルLMは、入力された料理画像HGが示す料理の名称を推定するように、コンピューターを機能させる。換言すれば、学習済みモデルLMは、入力された料理画像HGが示す料理の名称を推定する。 The trained model LM causes the computer to function so as to receive input information and output output information. In other words, the trained model LM receives input information and outputs output information. Specifically, the trained model LM causes the computer to function so as to estimate the name of the dish shown in the input food image HG. In other words, the trained model LM estimates the name of the dish shown in the input food image HG.

次に、図4A~図4Fを参照して、学習データTDについて説明する。図4Aは、学習データTDの一例を示す。図4B~図4Fの各々は、学習データTDの他の一例を示す。以下、図4Aに示す学習データTDを学習データTD1と記載し、図4Bに示す学習データTDを学習データTD2と記載し、図4Cに示す学習データTDを学習データTD3と記載し、図4Dに示す学習データTDを学習データTD4と記載し、図4Eに示す学習データTDを学習データTD5と記載し、図4Fに示す学習データTDを学習データTD6と記載する場合がある。 Next, the learning data TD will be described with reference to Figures 4A to 4F. Figure 4A shows an example of the learning data TD. Each of Figures 4B to 4F shows another example of the learning data TD. Hereinafter, the learning data TD shown in Figure 4A may be referred to as learning data TD1, the learning data TD shown in Figure 4B may be referred to as learning data TD2, the learning data TD shown in Figure 4C may be referred to as learning data TD3, the learning data TD shown in Figure 4D may be referred to as learning data TD4, the learning data TD shown in Figure 4E may be referred to as learning data TD5, and the learning data TD shown in Figure 4F may be referred to as learning data TD6.

実施形態1において、学習データTDは、学習対象料理画像LGと、名称情報MNとを含む。また、実施形態1において、学習対象料理画像LGに示される料理の名称を、例えばユーザーが判断する。すなわち、学習対象料理画像LGには、ユーザーによって判断された料理の名称を示す名称情報MNがラベル付けされている。理解を容易にするため、料理の焼き色をハッチングで示している。具体的には、ハッチングの間隔が広いほど焼き色が薄く、ハッチングの間隔が狭いほど焼き色が濃いように示している。 In the first embodiment, the learning data TD includes a learning target dish image LG and name information MN. Also, in the first embodiment, the name of the dish shown in the learning target dish image LG is determined, for example, by a user. That is, the learning target dish image LG is labeled with name information MN indicating the name of the dish determined by the user. To facilitate understanding, the browning of the dish is indicated by hatching. Specifically, the wider the spacing between the hatching, the lighter the browning, and the narrower the spacing between the hatching, the darker the browning.

図4A~図4Fに示すように、複数の学習データTDは、それぞれ、複数の料理(例えば、ピザ及びトースト等)に対応する。具体的には、図4A~図4Cに示す複数の学習データTDは、ピザに対応する。また、図4D~図4Fに示す複数の学習データTDは、トーストに対応する。また、複数の学習データTDの各々の学習対象料理画像LGは、それぞれ、1つの料理が加熱される過程において、異なる時の料理を示す。 As shown in Figures 4A to 4F, the multiple learning data TD correspond to multiple dishes (e.g., pizza and toast, etc.). Specifically, the multiple learning data TD shown in Figures 4A to 4C correspond to pizza. Furthermore, the multiple learning data TD shown in Figures 4D to 4F correspond to toast. Furthermore, each of the learning target dish images LG of the multiple learning data TD shows a dish at a different time during the process of heating the same dish.

例えば、図4A~図4Cに示す学習データTD1~学習データTD3の各々は、ピザが加熱される過程において、異なる時のピザを示す。 For example, each of the learning data TD1 to TD3 shown in Figures 4A to 4C represents a pizza at a different time during the process of heating the pizza.

図4Aに示すように、学習データTD1の学習対象料理画像LGが示すピザは、学習データTD2の学習対象料理画像LGが示すピザ及び学習データTD3の学習対象料理画像LGが示すピザよりも前の段階のピザを示す。実施形態1において、学習データTD1の学習対象料理画像LGには、「ピザ」を示す名称情報MNがラベル付けされている。本明細書において、「ピザ」を示す名称情報MNを、名称情報MN1と記載する場合がある。 As shown in FIG. 4A, the pizza shown in the training target dish image LG of training data TD1 is an earlier stage of pizza than the pizza shown in the training target dish image LG of training data TD2 and the training target dish image LG of training data TD3. In embodiment 1, the training target dish image LG of training data TD1 is labeled with name information MN indicating "pizza." In this specification, the name information MN indicating "pizza" may be referred to as name information MN1.

また、図4Bに示すように、学習データTD2の学習対象料理画像LGが示すピザは、学習データTD1の学習対象料理画像LGが示すピザと学習データTD3の学習対象料理画像LGが示すピザとの間の段階のピザを示す。また、実施形態1において、学習データTD2の学習対象料理画像LGには、「ピザ」を示す名称情報MN1がラベル付けされている。 As shown in FIG. 4B, the pizza shown in the training subject dish image LG of training data TD2 represents a pizza at a stage between the pizza shown in the training subject dish image LG of training data TD1 and the pizza shown in the training subject dish image LG of training data TD3. In addition, in embodiment 1, the training subject dish image LG of training data TD2 is labeled with name information MN1 indicating "pizza."

さらに、図4Cに示すように、学習データTD3の学習対象料理画像LGが示すピザは、学習データTD1の学習対象料理画像LGが示すピザ及び学習データTD2の学習対象料理画像LGが示すピザよりも後の段階のピザを示す。また、実施形態1において、学習データTD3の学習対象料理画像LGには、「ピザ」を示す名称情報MN1がラベル付けされている。 Furthermore, as shown in FIG. 4C, the pizza shown in the training target dish image LG of training data TD3 represents a later stage of pizza than the pizza shown in the training target dish image LG of training data TD1 and the training target dish image LG of training data TD2. Also, in embodiment 1, the training target dish image LG of training data TD3 is labeled with name information MN1 indicating "pizza."

また、例えば、図4D~図4Fに示す学習データTD4~学習データTD6の各々は、トーストが加熱される過程において、異なる時のトーストを示す。 For example, each of the learning data TD4 to TD6 shown in Figures 4D to 4F shows toast at a different time during the heating process.

図4Dに示すように、学習データTD4の学習対象料理画像LGが示すトーストは、学習データTD5の学習対象料理画像LGが示すトースト及び学習データTD6の学習対象料理画像LGが示すトーストよりも前の段階のトーストを示す。また、実施形態1において、学習データTD4の学習対象料理画像LGには、「トースト」を示す名称情報MNがラベル付けされている。本明細書において、「トースト」を示す名称情報MNを、名称情報MN2と記載する場合がある。 As shown in FIG. 4D, the toast shown in the training target dish image LG of training data TD4 is an earlier stage of toast than the toast shown in the training target dish image LG of training data TD5 and the toast shown in the training target dish image LG of training data TD6. In addition, in embodiment 1, the training target dish image LG of training data TD4 is labeled with name information MN indicating "toast." In this specification, the name information MN indicating "toast" may be referred to as name information MN2.

また、図4Eに示すように、学習データTD5の学習対象料理画像LGが示すトーストは、学習データTD4の学習対象料理画像LGが示すトーストと学習データTD6の学習対象料理画像LGが示すトーストとの間の段階のトーストを示す。また、実施形態1において、学習データTD5の学習対象料理画像LGには、「トースト」を示す名称情報MN2がラベル付けされている。 As shown in FIG. 4E, the toast shown in the training subject dish image LG of the training data TD5 represents a stage of toast between the toast shown in the training subject dish image LG of the training data TD4 and the toast shown in the training subject dish image LG of the training data TD6. In addition, in embodiment 1, the training subject dish image LG of the training data TD5 is labeled with name information MN2 indicating "toast."

さらに、図4Fに示すように、学習データTD6の学習対象料理画像LGが示すトーストは、学習データTD4の学習対象料理画像LGが示すトースト及び学習データTD5の学習対象料理画像LGが示すトーストよりも後の段階のトーストを示す。実施形態1において、学習データTD6の学習対象料理画像LGには、「トースト」を示す名称情報MN2がラベル付けされている。 Furthermore, as shown in FIG. 4F, the toast shown in the training subject dish image LG of training data TD6 shows a later stage of toast than the toast shown in the training subject dish image LG of training data TD4 and the toast shown in the training subject dish image LG of training data TD5. In embodiment 1, the training subject dish image LG of training data TD6 is labeled with name information MN2 indicating "toast."

なお、名称情報MNは、「ピザ」又は「トースト」等という文字列で表されていてもよいし、「ピザ」及び「トースト」の各々に対応する識別情報(ID)で示されてもよい。 The name information MN may be expressed as a character string such as "pizza" or "toast," or may be indicated by identification information (ID) corresponding to each of "pizza" and "toast."

次に、図5を参照して、学習済みモデルLMの入力情報及び出力情報について説明する。図5は、学習済みモデルLMの入力情報及び出力情報を示すブロック図である。 Next, the input information and output information of the trained model LM will be described with reference to FIG. 5. FIG. 5 is a block diagram showing the input information and output information of the trained model LM.

図5に示すように、学習済みモデルLMの入力情報は、撮像部40の撮像結果である料理画像HGである。学習済みモデルLMは、入力された料理画像HGに基づいて、料理画像HGが示す被加熱物の名称情報MNを出力する。図5に示す例において、学習済みモデルLMは、料理画像HGが示す被加熱物の名称は「トースト」であると推定する。従って、学習済みモデルLMは、「トースト」を示す名称情報MNを出力する。 As shown in FIG. 5, the input information of the trained model LM is a food image HG, which is the result of imaging by the imaging unit 40. Based on the input food image HG, the trained model LM outputs name information MN of the heated object shown in the food image HG. In the example shown in FIG. 5, the trained model LM estimates that the name of the heated object shown in the food image HG is "toast." Therefore, the trained model LM outputs name information MN indicating "toast."

次に、図3及び図6を参照して、学習装置100が実行する学習方法を説明する。図6は、実施形態1に係る学習済みモデル生成方法を示すフローチャートである。図6に示すように、学習済みモデル生成方法は、ステップS41~ステップS44を含む。 Next, the learning method executed by the learning device 100 will be described with reference to Figs. 3 and 6. Fig. 6 is a flowchart showing the trained model generation method according to the first embodiment. As shown in Fig. 6, the trained model generation method includes steps S41 to S44.

図3及び図6に示すように、ステップS41において、学習装置100の処理部110は、学習データTDを取得する。例えば、処理部110は、ユーザーによって入力された学習データTDを取得する。 As shown in FIG. 3 and FIG. 6, in step S41, the processing unit 110 of the learning device 100 acquires learning data TD. For example, the processing unit 110 acquires learning data TD input by a user.

次に、ステップS42において、処理部110は、学習プログラムLPに基づいて、学習データTDを機械学習する。 Next, in step S42, the processing unit 110 performs machine learning on the learning data TD based on the learning program LP.

次に、ステップS43において、処理部110は、学習終了条件を満たすか否かを判定する。学習終了条件は、機械学習を終了するために予め定められた条件である。学習終了条件は、例えば、反復回数が規定回数に到達したことである。 Next, in step S43, the processing unit 110 determines whether or not a learning end condition is satisfied. The learning end condition is a condition that is determined in advance for ending machine learning. For example, the learning end condition is that the number of iterations has reached a specified number.

ステップS43において、否定的判定(No)がされた場合は、処理はステップS41に進む。その結果、機械学習が繰り返される。 If a negative determination (No) is made in step S43, processing proceeds to step S41. As a result, machine learning is repeated.

一方、ステップS43で肯定的判定(Yes)された場合は、処理はステップS44に進む。 On the other hand, if the determination in step S43 is positive (Yes), processing proceeds to step S44.

ステップS44において、処理部110は、最新の複数のパラメータ(係数)つまり、複数の学習済みパラメータ(係数)を適用したモデル(1以上の関数)を、学習済みモデルLMとして出力する。そして、記憶部120は学習済みモデルLMを記憶する。 In step S44, the processing unit 110 outputs a model (one or more functions) to which the latest multiple parameters (coefficients), i.e., multiple learned parameters (coefficients), are applied as the learned model LM. The memory unit 120 then stores the learned model LM.

以上、学習装置100がステップS41~ステップS44を実行することで、学習済みモデルLMが生成される。 As described above, the learning device 100 executes steps S41 to S44 to generate the learned model LM.

次に、図7~図9を参照して、加熱調理器1の動作について説明する。まず、加熱庫に被加熱物が載置された状態で、操作部50は、加熱部30による加熱開始の指示を受け付ける。そして、加熱制御部12は、被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30は被加熱物への加熱を開始する。このとき、加熱部30は、例えば、所定の加熱強度で被加熱物を加熱する。また、加熱部30が被加熱物への加熱を開始するとともに、計測部13は、被加熱物が加熱される時間の計測を開始する。 Next, the operation of the cooking device 1 will be described with reference to Figs. 7 to 9. First, with an object to be heated placed in the heating chamber, the operation unit 50 receives an instruction to start heating by the heating unit 30. Then, the heating control unit 12 controls the heating unit 30 to heat the object to be heated. As a result, the heating unit 30 starts heating the object to be heated. At this time, the heating unit 30 heats the object to be heated with, for example, a predetermined heating intensity. In addition, as the heating unit 30 starts heating the object to be heated, the measurement unit 13 starts measuring the time it takes for the object to be heated.

図7は、撮像部40の撮像結果である料理画像HGを示す図である。図7に示すように、推定部11は、撮像部40の撮像結果である料理画像HGを学習済みモデルLMに入力する。学習済みモデルLMは、入力された料理画像HGに基づいて、「ピザ」を示す名称情報MNを出力する。そして、推定部11は、学習済みモデルLMが出力した名称情報MNを取得する。 Figure 7 is a diagram showing a food image HG that is the result of imaging by the imaging unit 40. As shown in Figure 7, the estimation unit 11 inputs the food image HG that is the result of imaging by the imaging unit 40 to the trained model LM. The trained model LM outputs name information MN indicating "pizza" based on the input food image HG. Then, the estimation unit 11 acquires the name information MN output by the trained model LM.

図8は、記憶部20が記憶するテーブルTbを示す図である。図8に示すように、テーブルTbにおいて、名称情報MNに対して、加熱時間Htと、加熱強度Hsとが関連付けられている。加熱制御部12は、推定部11の推定結果、すなわち、推定部11が取得した名称情報MNに応じて、被加熱物に対する加熱時間Htと加熱強度Hsとを決定する。例えば、図7に示す料理画像HGが示す被加熱物の名称情報MNが「ピザ」であると推定されたため、加熱制御部12は、加熱時間Htを「25分」に決定し、加熱強度Hsを「250℃」に決定する。 Figure 8 is a diagram showing table Tb stored in memory unit 20. As shown in Figure 8, in table Tb, a heating time Ht and a heating intensity Hs are associated with name information MN. The heating control unit 12 determines the heating time Ht and heating intensity Hs for the heated object according to the estimation result of the estimation unit 11, i.e., the name information MN acquired by the estimation unit 11. For example, since the name information MN of the heated object shown in the cooking image HG shown in Figure 7 is estimated to be "pizza", the heating control unit 12 determines the heating time Ht to be "25 minutes" and the heating intensity Hs to be "250°C".

図9は、加熱部30の動作の一例を示す図である。図9に示すように、推定部11が名称情報MNを取得したときの計測部13の計測結果、すなわち被加熱物の加熱時間Ctは4分である。つまり、加熱部30によって被加熱物への加熱が開始してから4分が経過したときに、撮像結果である料理画像HGに基づいて名称情報MNが取得されている。そして、加熱制御部12は、加熱時間Htを「25分」に決定し、加熱強度Hsを「250℃」に決定している。従って、加熱制御部12は、計測部13の計測結果(加熱時間Ct)と、決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定する。そして、推定部11が名称情報MNを取得してから、残りの加熱時間Rtが経過することに応じて被加熱物への加熱が終了するように、加熱制御部12は加熱部30を制御する。 9 is a diagram showing an example of the operation of the heating unit 30. As shown in FIG. 9, the measurement result of the measuring unit 13 when the estimation unit 11 acquires the name information MN, that is, the heating time Ct of the heated object is 4 minutes. In other words, when 4 minutes have passed since the heating unit 30 started heating the heated object, the name information MN is acquired based on the food image HG, which is the imaging result. Then, the heating control unit 12 determines the heating time Ht to be "25 minutes" and the heating intensity Hs to be "250°C". Therefore, the heating control unit 12 determines the remaining heating time Rt for the heated object based on the measurement result (heating time Ct) of the measuring unit 13 and the determined heating time Ht. Then, the heating control unit 12 controls the heating unit 30 so that the heating of the heated object is terminated in response to the passage of the remaining heating time Rt after the estimation unit 11 acquires the name information MN.

次に、図10を参照して、加熱調理器1が実行する処理について説明する。図10は、実施形態1に係る加熱調理器1が実行する処理を示すフローチャートである。加熱調理器1が実行する処理は、ステップS1~ステップS10を含む。 Next, the process executed by the cooking device 1 will be described with reference to FIG. 10. FIG. 10 is a flowchart showing the process executed by the cooking device 1 according to the first embodiment. The process executed by the cooking device 1 includes steps S1 to S10.

図10に示すように、ステップS1において、操作部50は、加熱部30による加熱開始の指示を受け付ける。そして、加熱制御部12は、被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30は被加熱物を加熱する。また、加熱部30が被加熱物への加熱を開始するとともに、計測部13は、被加熱物が加熱される時間の計測を開始する。 As shown in FIG. 10, in step S1, the operation unit 50 receives an instruction to start heating by the heating unit 30. Then, the heating control unit 12 controls the heating unit 30 to heat the object to be heated. As a result, the heating unit 30 heats the object to be heated. In addition, as the heating unit 30 starts heating the object to be heated, the measurement unit 13 starts measuring the time for which the object to be heated is heated.

ステップS2において、制御部10は、被加熱物を撮像するように撮像部40を制御する。その結果、撮像部40は、被加熱物を撮像する。 In step S2, the control unit 10 controls the imaging unit 40 to capture an image of the object to be heated. As a result, the imaging unit 40 captures an image of the object to be heated.

ステップS3において、推定部11は、撮像結果である料理画像HGを学習済みモデルLMに入力する。 In step S3, the estimation unit 11 inputs the captured food image HG into the learned model LM.

ステップS4において、推定部11は、ステップS3で入力された料理画像HGに基づいて、学習済みモデルLMが名称情報MNを出力したか否かを判定する。ステップS4において否定的判定(No)がされる場合、すなわち、学習済みモデルLMが名称情報MNを出力しなかった場合、又は、学習済みモデルLMが「不明」を出力した場合、処理はステップS2に進む。一方、ステップS4において肯定的判定(Yes)がされる場合、すなわち、学習済みモデルLMが名称情報MNを出力した場合、処理はステップS5に進む。学習済みモデルLMが名称情報MNを出力しなかった場合、及び、学習済みモデルLMが「不明」を出力した場合については後述する。 In step S4, the estimation unit 11 determines whether or not the trained model LM has output name information MN based on the cooking image HG input in step S3. If a negative determination (No) is made in step S4, i.e., if the trained model LM has not output name information MN, or if the trained model LM has output "unknown", processing proceeds to step S2. On the other hand, if a positive determination (Yes) is made in step S4, i.e., if the trained model LM has output name information MN, processing proceeds to step S5. Cases where the trained model LM has not output name information MN and cases where the trained model LM has output "unknown" will be described later.

ステップS5において、推定部11は、学習済みモデルLMが出力した名称情報MNを取得する。そして、推定部11は、取得した状態情報SBを加熱制御部12に入力する。 In step S5, the estimation unit 11 acquires the name information MN output by the trained model LM. Then, the estimation unit 11 inputs the acquired state information SB to the heating control unit 12.

ステップS6において、加熱制御部12は、推定部11の推定結果に応じて、被加熱物に対する加熱時間Htと、加熱強度Hsとを決定する。 In step S6, the heating control unit 12 determines the heating time Ht and heating intensity Hs for the heated object based on the estimation result of the estimation unit 11.

ステップS7において、加熱制御部12は、計測部13の計測結果と、ステップS6で決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定する。 In step S7, the heating control unit 12 determines the remaining heating time Rt for the heated object based on the measurement result of the measurement unit 13 and the heating time Ht determined in step S6.

ステップS8において、加熱制御部12は、ステップS6で決定した加熱強度Hsに基づいて、加熱部30の加熱強度を調整する。 In step S8, the heating control unit 12 adjusts the heating intensity of the heating unit 30 based on the heating intensity Hs determined in step S6.

ステップS9において、加熱制御部12は、ステップS7で残りの加熱時間Rtが決定されたときから、ステップS7で決定された残りの加熱時間Rtが経過したか否かを判定する。ステップS9において肯定的判定(Yes)がされる場合、処理はステップS10に進む。一方、ステップS9において否定的判定(No)がされる場合、処理は、ステップS9に戻る。 In step S9, the heating control unit 12 determines whether the remaining heating time Rt determined in step S7 has elapsed since the remaining heating time Rt was determined in step S7. If a positive determination (Yes) is made in step S9, the process proceeds to step S10. On the other hand, if a negative determination (No) is made in step S9, the process returns to step S9.

ステップS10において、加熱制御部12は、被加熱物への加熱を停止するように加熱部30を制御する。その結果、加熱部30は、加熱を停止する。 In step S10, the heating control unit 12 controls the heating unit 30 to stop heating the object to be heated. As a result, the heating unit 30 stops heating.

(実施形態2)
次に、図11を参照して、実施形態2に係る加熱調理器1aについて説明する。図11は、実施形態2に係る加熱調理器1aを示すブロック図である。実施形態2では、加熱調理器1aがターンテーブル60を備える点と、推定部11aがパターンマッチングによって被加熱物の名称を推定する点とで、実施形態2は実施形態1と主に異なる。以下、実施形態2が実施形態1と異なる点を主に説明する。
(Embodiment 2)
Next, a cooking device 1a according to a second embodiment will be described with reference to Fig. 11. Fig. 11 is a block diagram showing a cooking device 1a according to a second embodiment. In the second embodiment, the cooking device 1a is provided with a turntable 60, and the estimation unit 11a estimates the name of the object to be heated by pattern matching. The following mainly describes the differences between the second embodiment and the first embodiment.

加熱調理器1aは、制御部10aと、記憶部20aと、加熱部30と、撮像部40と、操作部50と、ターンテーブル60とを備える。 The cooking device 1a includes a control unit 10a, a memory unit 20a, a heating unit 30, an imaging unit 40, an operation unit 50, and a turntable 60.

ターンテーブル60には、被加熱物が載置される。実施形態2において、加熱部30が被加熱物を加熱する間、ターンテーブル60は、例えば、略一定の角速度で回転する。すなわち、ターンテーブル60は、被加熱物が載置されて回転する。 The object to be heated is placed on the turntable 60. In the second embodiment, while the heating unit 30 heats the object to be heated, the turntable 60 rotates, for example, at a substantially constant angular velocity. That is, the turntable 60 rotates with the object to be heated placed on it.

制御部10aは、CPU及びMPUのようなプロセッサーを含む。制御部10のプロセッサーは、記憶部20aの記憶装置に記憶されたコンピュータープログラムを実行して、記憶部20a、加熱部30、撮像部40、操作部50、及びターンテーブル60を回転させるためのモーター(不図示)を制御する。 The control unit 10a includes a processor such as a CPU and an MPU. The processor of the control unit 10 executes a computer program stored in the storage device of the storage unit 20a to control the storage unit 20a, the heating unit 30, the imaging unit 40, the operation unit 50, and a motor (not shown) for rotating the turntable 60.

また、制御部10のプロセッサーは、記憶部20aの記憶装置に記憶されたコンピュータープログラムを実行して、推定部11a、加熱制御部12、計測部13、及び補正部14として機能する。つまり、制御部10は、推定部11a、加熱制御部12、計測部13、及び補正部14を含む。推定部11a及び補正部14については後述する。 The processor of the control unit 10 executes a computer program stored in the storage device of the memory unit 20a, and functions as an estimation unit 11a, a heating control unit 12, a measurement unit 13, and a correction unit 14. In other words, the control unit 10 includes an estimation unit 11a, a heating control unit 12, a measurement unit 13, and a correction unit 14. The estimation unit 11a and the correction unit 14 will be described later.

記憶部20aは、パターンマッチング用データPDと、テーブルTbとを記憶する。パターンマッチング用データPDは、複数の料理画像MGと、名称情報MNとを含む。 The memory unit 20a stores pattern matching data PD and a table Tb. The pattern matching data PD includes a plurality of food images MG and name information MN.

次に、図12A~図12Fを参照して、記憶部20aが記憶するパターンマッチング用データPDについて説明する。図12Aは、パターンマッチング用データPDの一例を示す。図12B~図12Fの各々は、パターンマッチング用データPDの他の一例を示す。以下、図12Aに示すパターンマッチング用データPDをパターンマッチング用データPD1と記載し、図12Bに示すパターンマッチング用データPDをパターンマッチング用データPD2と記載し、図12Cに示すパターンマッチング用データPDをパターンマッチング用データPD3と記載し、図12Dに示すパターンマッチング用データPDをパターンマッチング用データPD4と記載し、図12Eに示すパターンマッチング用データPDをパターンマッチング用データPD5と記載し、図12Fに示すパターンマッチング用データPDをパターンマッチング用データPD6と記載する場合がある。 Next, the pattern matching data PD stored in the storage unit 20a will be described with reference to Figures 12A to 12F. Figure 12A shows an example of the pattern matching data PD. Each of Figures 12B to 12F shows another example of the pattern matching data PD. Hereinafter, the pattern matching data PD shown in Figure 12A may be described as pattern matching data PD1, the pattern matching data PD shown in Figure 12B may be described as pattern matching data PD2, the pattern matching data PD shown in Figure 12C may be described as pattern matching data PD3, the pattern matching data PD shown in Figure 12D may be described as pattern matching data PD4, the pattern matching data PD shown in Figure 12E may be described as pattern matching data PD5, and the pattern matching data PD shown in Figure 12F may be described as pattern matching data PD6.

図12A~図12Fに示すように、複数のパターンマッチング用データPDの料理画像MGは、それぞれ、複数の料理(例えば、ピザ及びトースト等)に対応する。また、複数の料理画像MGは、それぞれ、1つの料理が加熱される過程において、異なる時の料理を示す。 As shown in Figures 12A to 12F, the food images MG of the multiple pattern matching data PD each correspond to multiple dishes (e.g., pizza, toast, etc.). Furthermore, each of the multiple food images MG shows a single dish at a different time during the heating process.

例えば、図12A~図12Cに示すパターンマッチング用データPD1~パターンマッチング用データPD3の各々の料理画像MGは、ピザが加熱される過程において、異なる時のピザを示す。 For example, each of the dish images MG of the pattern matching data PD1 to PD3 shown in Figures 12A to 12C shows a pizza at a different time during the heating process.

図12Aに示すように、パターンマッチング用データPD1の料理画像MGが示すピザは、パターンマッチング用データPD2の料理画像MGが示すピザ及びパターンマッチング用データPD3の料理画像MGが示すピザよりも前の段階のピザを示す。実施形態2において、パターンマッチング用データPD1の料理画像MGには、「ピザ」を示す名称情報MN1がラベル付けされている。 As shown in FIG. 12A, the pizza shown in the dish image MG of the pattern matching data PD1 represents a pizza at an earlier stage than the pizza shown in the dish image MG of the pattern matching data PD2 and the pizza shown in the dish image MG of the pattern matching data PD3. In embodiment 2, the dish image MG of the pattern matching data PD1 is labeled with name information MN1 indicating "pizza."

また、図12Bに示すように、パターンマッチング用データPD2の料理画像MGが示すピザは、パターンマッチング用データPD1の料理画像MGが示すピザとパターンマッチング用データPD3の料理画像MGが示すピザとの間の段階のピザを示す。実施形態2において、パターンマッチング用データPD2の料理画像MGには、「ピザ」を示す名称情報MN1がラベル付けされている。 Also, as shown in FIG. 12B, the pizza shown in the dish image MG of the pattern matching data PD2 represents a pizza at a stage between the pizza shown in the dish image MG of the pattern matching data PD1 and the pizza shown in the dish image MG of the pattern matching data PD3. In embodiment 2, the dish image MG of the pattern matching data PD2 is labeled with name information MN1 indicating "pizza."

さらに、図12Cに示すように、パターンマッチング用データPD3の料理画像MGが示すピザは、パターンマッチング用データPD1の料理画像MGが示すピザ及びパターンマッチング用データPD2の料理画像MGが示すピザよりも後の段階のピザを示す。実施形態2において、パターンマッチング用データPD3の料理画像MGには、「ピザ」を示す名称情報MN1がラベル付けされている。 Furthermore, as shown in FIG. 12C, the pizza shown in the dish image MG in the pattern matching data PD3 represents a later stage of pizza than the pizza shown in the dish image MG in the pattern matching data PD1 and the pizza shown in the dish image MG in the pattern matching data PD2. In embodiment 2, the dish image MG in the pattern matching data PD3 is labeled with name information MN1 indicating "pizza."

また、例えば、図12D~図12Fに示すパターンマッチング用データPD4~パターンマッチング用データPD6の各々は、トーストが加熱される過程において、異なる時のトーストを示す。 For example, each of the pattern matching data PD4 to PD6 shown in Figures 12D to 12F represents toast at a different time during the heating process.

図12Dに示すように、パターンマッチング用データPD4の料理画像MGが示すトーストは、パターンマッチング用データPD5の料理画像MGが示すトースト及びパターンマッチング用データPD6の料理画像MGが示すトーストよりも前の段階のトーストを示す。実施形態2において、料理画像MG4には、「トースト」を示す名称情報MN2がラベル付けされている。 As shown in FIG. 12D, the toast shown in the dish image MG of the pattern matching data PD4 shows an earlier stage of toast than the toast shown in the dish image MG of the pattern matching data PD5 and the toast shown in the dish image MG of the pattern matching data PD6. In embodiment 2, the dish image MG4 is labeled with name information MN2 indicating "toast."

また、図12Eに示すように、パターンマッチング用データPD5の料理画像MGが示すトーストは、パターンマッチング用データPD5の料理画像MGが示すトーストとパターンマッチング用データPD6の料理画像MGが示すトーストとの間の段階のトーストを示す。実施形態2において、パターンマッチング用データPD5の料理画像MGには、「トースト」を示す名称情報MN2がラベル付けされている。 Also, as shown in FIG. 12E, the toast shown in the dish image MG of the pattern matching data PD5 shows a stage of toast between the toast shown in the dish image MG of the pattern matching data PD5 and the toast shown in the dish image MG of the pattern matching data PD6. In embodiment 2, the dish image MG of the pattern matching data PD5 is labeled with name information MN2 indicating "toast."

さらに、図12Fに示すように、パターンマッチング用データPD6の料理画像MGが示すトーストは、パターンマッチング用データPD4の料理画像MG4が示すトースト及びパターンマッチング用データPD5の料理画像MG5が示すトーストよりも後の段階のトーストを示す。実施形態2において、パターンマッチング用データPD6の料理画像MG6には、「トースト」を示す名称情報MN2がラベル付けされている。 Furthermore, as shown in FIG. 12F, the toast shown in the dish image MG of the pattern matching data PD6 shows a later stage of toast than the toast shown in the dish image MG4 of the pattern matching data PD4 and the toast shown in the dish image MG5 of the pattern matching data PD5. In embodiment 2, the dish image MG6 of the pattern matching data PD6 is labeled with name information MN2 indicating "toast."

次に、図13を参照して、撮像結果の向きの補正について説明する。図13は、撮像部40の撮像結果である料理画像HGと、補正後の撮像結果である料理画像HGAとを示す図である。図13に示すように、被加熱物がピザPzである場合を例に挙げて説明する。すなわち、図13に示す例において、ターンテーブル60にピザPzが載置されている。 Next, correction of the orientation of the imaging result will be described with reference to FIG. 13. FIG. 13 is a diagram showing a food image HG, which is the imaging result of the imaging unit 40, and a food image HGA, which is the imaging result after correction. As shown in FIG. 13, a case where the heated object is pizza Pz will be described as an example. That is, in the example shown in FIG. 13, pizza Pz is placed on the turntable 60.

補正部14は、ターンテーブル60が回転するときの角速度ωに基づいて、料理画像HGの向きを補正する。料理画像HGAは、補正部14によって、角速度ωと被加熱物が加熱された計測部13の計測結果とに基づき料理画像HGの向きを補正したものである。計測部13の計測結果は、被加熱物が加熱部30によって加熱された時間tのことである。具体的には、θ=ω×tによって、料理画像HGの向きを補正する角度θが算出される。補正部14は、角度θだけ、ターンテーブル60が回転する方向と反対の方向に料理画像HGを回転させることによって、料理画像HGを補正する。 The correction unit 14 corrects the orientation of the food image HG based on the angular velocity ω when the turntable 60 rotates. The food image HGA is the food image HG whose orientation has been corrected by the correction unit 14 based on the angular velocity ω and the measurement result of the measurement unit 13 when the heated object is heated. The measurement result of the measurement unit 13 is the time t when the heated object is heated by the heating unit 30. Specifically, the angle θ for correcting the orientation of the food image HG is calculated by θ = ω × t. The correction unit 14 corrects the food image HG by rotating the food image HG by the angle θ in the direction opposite to the direction in which the turntable 60 rotates.

推定部11aは、補正後の料理画像HGAと、記憶部20aに記憶される料理画像MGとを比較して、比較結果に基づいて、被加熱物の名称を推定する。従って、料理画像HGの向きを補正せずに被加熱物の名称を推定する場合よりも、精度よく被加熱物の名称を推定できる。 The estimation unit 11a compares the corrected food image HGA with the food image MG stored in the memory unit 20a, and estimates the name of the heated object based on the comparison result. Therefore, the name of the heated object can be estimated more accurately than when the name of the heated object is estimated without correcting the orientation of the food image HG.

本実施形態において、推定部11aは、比較結果が示すマッチング率が閾値以上であるか否かを判定する。マッチング率とは、料理画像HGAが示す被加熱物と、記憶部20aに記憶される料理画像MGとのマッチングする比率を示す。閾値は、例えば90%である。すなわち、料理画像HGAと、料理画像MGとのマッチング率が90%以上である場合、推定部11aは、被加熱物の名称が、料理画像MGに関連付けられた名称情報MNであると推定する。そして、加熱制御部12は、推定部11aの推定結果に応じて、加熱部30を制御する。 In this embodiment, the estimation unit 11a determines whether the matching rate indicated by the comparison result is equal to or greater than a threshold value. The matching rate indicates the matching ratio between the heated object indicated by the food image HGA and the food image MG stored in the memory unit 20a. The threshold value is, for example, 90%. In other words, if the matching rate between the food image HGA and the food image MG is 90% or greater, the estimation unit 11a estimates that the name of the heated object is the name information MN associated with the food image MG. The heating control unit 12 then controls the heating unit 30 according to the estimation result of the estimation unit 11a.

次に、図14を参照して、実施形態2の加熱調理器1aが実行する処理について説明する。図14は、加熱調理器1aが実行する処理を示すフローチャートである。 Next, the process executed by the cooking device 1a of the second embodiment will be described with reference to FIG. 14. FIG. 14 is a flowchart showing the process executed by the cooking device 1a.

図14に示すように、ステップS21において、操作部50は、加熱部30による加熱開始の指示を受け付ける。そして、加熱制御部12は、被加熱物を加熱するように加熱部30を制御する。その結果、加熱部30は被加熱物を加熱する。また、加熱部30が被加熱物への加熱を開始するとともに、計測部13は、被加熱物が加熱される時間の計測を開始する。 As shown in FIG. 14, in step S21, the operation unit 50 receives an instruction to start heating by the heating unit 30. Then, the heating control unit 12 controls the heating unit 30 to heat the object to be heated. As a result, the heating unit 30 heats the object to be heated. In addition, as the heating unit 30 starts heating the object to be heated, the measurement unit 13 starts measuring the time for which the object to be heated is heated.

ステップS22において、制御部10は、被加熱物を撮像するように撮像部40を制御する。その結果、撮像部40は、被加熱物を撮像する。 In step S22, the control unit 10 controls the imaging unit 40 to capture an image of the object to be heated. As a result, the imaging unit 40 captures an image of the object to be heated.

ステップS23において、補正部14は、ターンテーブル60が回転しているか否かを判定する。ステップS23で肯定的判定(Yes)がされる場合、すなわち、ターンテーブル60が回転していると補正部14が判定した場合、処理はステップS24に進む。一方。ステップS23で否定的判定(No)がされる場合、すなわち、ターンテーブル60が回転していないと補正部14が判定した場合、処理はステップS25に進む。ここで、補正部14は、ターンテーブル60を回転させるモーターが駆動しているか否かを判定することで、ターンテーブル60が回転しているか否かを判定してもよい。 In step S23, the correction unit 14 determines whether or not the turntable 60 is rotating. If a positive determination (Yes) is made in step S23, that is, if the correction unit 14 determines that the turntable 60 is rotating, the process proceeds to step S24. On the other hand, if a negative determination (No) is made in step S23, that is, if the correction unit 14 determines that the turntable 60 is not rotating, the process proceeds to step S25. Here, the correction unit 14 may determine whether or not the turntable 60 is rotating by determining whether or not the motor that rotates the turntable 60 is driven.

ステップS24において、補正部14は、ターンテーブル60が回転するときの角速度ωと、計測部13の計測結果とに基づいて、ステップS22での撮像部40の撮像結果である料理画像HGを補正する。 In step S24, the correction unit 14 corrects the food image HG, which is the image capture result of the imaging unit 40 in step S22, based on the angular velocity ω when the turntable 60 rotates and the measurement result of the measurement unit 13.

ステップS25において、推定部11は、撮像結果である料理画像HGと、料理画像MGとを比較する。なお、ステップS24で撮像結果である料理画像HGが補正部14によって補正された場合、推定部11は、補正後の撮像結果である料理画像HGAと料理画像MGとを比較する。 In step S25, the estimation unit 11 compares the food image HG, which is the imaging result, with the food image MG. Note that if the food image HG, which is the imaging result, is corrected by the correction unit 14 in step S24, the estimation unit 11 compares the food image HGA, which is the imaging result after correction, with the food image MG.

ステップS26において、推定部11は、ステップS25における比較結果が示すマッチング率が閾値以上であるか否かを判定する。ステップS26において否定的判定(No)がされる場合、すなわち、撮像結果と料理画像MGとのマッチング率が閾値未満である場合、処理はステップS22に進む。一方、ステップS26において肯定的判定(Yes)がされる場合、すなわち、撮像結果と料理画像MGとのマッチング率が閾値以上である場合、処理はステップS27に進む。 In step S26, the estimation unit 11 determines whether the matching rate indicated by the comparison result in step S25 is equal to or greater than a threshold value. If a negative determination (No) is made in step S26, i.e., if the matching rate between the imaging result and the food image MG is less than the threshold value, processing proceeds to step S22. On the other hand, if a positive determination (Yes) is made in step S26, i.e., if the matching rate between the imaging result and the food image MG is equal to or greater than the threshold value, processing proceeds to step S27.

ステップS27において、推定部11は、被加熱物の名称を推定する。具体的には、マッチング率が閾値以上であった料理画像MGに関連づけられている名称情報MNを取得する。 In step S27, the estimation unit 11 estimates the name of the object to be heated. Specifically, it obtains the name information MN associated with the food image MG whose matching rate is equal to or greater than a threshold value.

ステップS28において、加熱制御部12は、推定部11の推定結果に応じて、被加熱物に対する加熱時間Htと、加熱強度Hsとを決定する。 In step S28, the heating control unit 12 determines the heating time Ht and heating intensity Hs for the heated object based on the estimation result of the estimation unit 11.

ステップS29において、加熱制御部12は、計測部13の計測結果と、ステップS6で決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定する。 In step S29, the heating control unit 12 determines the remaining heating time Rt for the heated object based on the measurement result of the measurement unit 13 and the heating time Ht determined in step S6.

ステップS30において、加熱制御部12は、ステップS29で決定した加熱強度Hsに基づいて、加熱部30の加熱強度を調整する。 In step S30, the heating control unit 12 adjusts the heating intensity of the heating unit 30 based on the heating intensity Hs determined in step S29.

ステップS31において、加熱制御部12は、ステップS29で残りの加熱時間Rtが決定されたときから、加熱時間Rtが経過したか否かを判定する。ステップS31において肯定的判定(Yes)がされる場合、処理はステップS32に進む。一方、ステップS31において否定的判定(No)がされる場合、処理は、ステップS31に戻る。 In step S31, the heating control unit 12 determines whether or not the heating time Rt has elapsed since the remaining heating time Rt was determined in step S29. If a positive determination (Yes) is made in step S31, the process proceeds to step S32. On the other hand, if a negative determination (No) is made in step S31, the process returns to step S31.

ステップS32において、加熱制御部12は、被加熱物への加熱を停止するように加熱部30を制御する。その結果、加熱部30は、加熱を停止する。 In step S32, the heating control unit 12 controls the heating unit 30 to stop heating the object to be heated. As a result, the heating unit 30 stops heating.

(変形例)
次に、図15を参照して、実施形態1の変形例に係る加熱調理器1について説明する。図15は、実施形態1の変形例に係る加熱調理器1の学習済みモデルLMが機械学習した学習データTdaを示す図である。変形例では、1つの学習データTdaが複数の学習対象料理画像LDを含む点で、変形例は実施形態1と主に異なる。以下、変形例が実施形態1と異なる点を主に説明する。
(Modification)
Next, a cooking device 1 according to a modified example of the first embodiment will be described with reference to Fig. 15. Fig. 15 is a diagram showing learning data Tda obtained by machine learning of a trained model LM of the cooking device 1 according to a modified example of the first embodiment. In the modified example, the main difference between the modified example and the first embodiment is that one learning data Tda includes a plurality of learning target dish images LD. Below, the differences between the modified example and the first embodiment will be mainly described.

図15に示すように、1つの学習データTdaは、複数の学習対象料理画像LDと、名称情報MNとを含む。具体的には、学習データTdaは、複数の学習対象料理画像LD1~LDNXを含む。理解を容易にするため、料理の焼き色をハッチングで示している。具体的には、ハッチングの間隔が広いほど焼き色が薄く、ハッチングの間隔が狭いほど焼き色が濃いように示している。 As shown in FIG. 15, one learning data set Tda includes multiple learning target dish images LD and name information MN. Specifically, the learning data Tda includes multiple learning target dish images LD1 to LDNX. To make it easier to understand, the browning of the dish is indicated by hatching. Specifically, the wider the spacing between the hatching, the lighter the browning, and the narrower the spacing between the hatching, the darker the browning.

複数の学習対象料理画像LDは、それぞれ、料理が加熱される過程において、異なる時の料理を示す。具体的には、複数の学習対象料理画像LDは、それぞれ、1つの料理が加熱される過程において、所定時間ごとに撮像された料理を示す。変形例において、所定時間は例えば2秒である。すなわち、変形例に係る学習済みモデルLMが学習する学習対象料理画像LDは、料理動画である。 The multiple learning target dish images LD each show a dish at a different time during the process of heating the dish. Specifically, the multiple learning target dish images LD each show a dish captured at a predetermined time interval during the process of heating the dish. In the modified example, the predetermined time is, for example, two seconds. In other words, the learning target dish images LD that the trained model LM in the modified example learns from are cooking videos.

変形例に係る撮像部40は、例えば、所定時間ごとに被加熱物を撮像する。そして、推定部11は、所定時間ごとに撮像された複数の撮像結果である料理動画を学習済みモデルLMに入力する。すなわち、変形例において、学習済みモデルLMの入力情報は、撮像部40によって撮像された動画である。学習済みモデルLMは、入力された料理動画に基づいて、料理動画が示す被加熱物の名称情報MNを出力する。 The imaging unit 40 in the modified example captures an image of the heated object at predetermined time intervals, for example. Then, the estimation unit 11 inputs cooking videos, which are multiple imaging results captured at predetermined time intervals, to the trained model LM. That is, in the modified example, the input information of the trained model LM is the video captured by the imaging unit 40. The trained model LM outputs name information MN of the heated object indicated by the cooking video based on the input cooking video.

以上、図面を参照しながら本発明の実施形態及び変形例について説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の個数等は、図面作成の都合から実際とは異なる場合もある。また、上記の実施形態で示す各構成要素は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。 The above describes the embodiments and modifications of the present invention with reference to the drawings. However, the present invention is not limited to the above embodiments, and can be implemented in various forms without departing from the gist of the present invention. In addition, various inventions can be formed by appropriately combining multiple components disclosed in the above embodiments. For example, some components may be deleted from all components shown in the embodiments. The drawings are mainly schematic drawings of each component to make them easier to understand, and the number of each component shown may differ from the actual number due to the convenience of drawing. In addition, each component shown in the above embodiments is an example, and is not particularly limited, and various modifications are possible within a range that does not substantially deviate from the effects of the present invention.

(1)図7を参照して説明したように、学習済みモデルLMは、推定部11によって入力された料理画像HGに基づいて、料理画像HGが示す被加熱物の名称示す名称情報MNを出力した。ただし、推定部11によって入力された料理画像HGに基づいて、学習済みモデルLMが被加熱物の名称を推定できない場合、学習済みモデルLMは、例えば、名称情報MNを出力しなくてもよいし、「不明」を示す名称情報MNを出力してもよい。学習済みモデルLMが名称情報MNを出力しない場合、又は学習済みモデルLMが「不明」を示す名称情報MNを出力する場合、推定部11は、再度、撮像部40が被加熱物を撮像するように撮像部40を制御する。具体的には、推定部11は、前回撮像部40が被加熱物を撮像してから所定時間後に被加熱物を撮像するように撮像部40を制御する。すなわち、推定部11が被加熱物の名称を推定するまで、撮像部40は、所定時間ごとに被加熱物を撮像する。従って、被加熱物にとって適切でない加熱強度と加熱時間とで、被加熱物が加熱されることを抑制できる。 (1) As described with reference to FIG. 7, the learned model LM outputs name information MN indicating the name of the heated object shown in the cooking image HG based on the cooking image HG input by the estimation unit 11. However, if the learned model LM cannot estimate the name of the heated object based on the cooking image HG input by the estimation unit 11, the learned model LM may not output name information MN, or may output name information MN indicating "unknown". If the learned model LM does not output name information MN or if the learned model LM outputs name information MN indicating "unknown", the estimation unit 11 controls the imaging unit 40 so that the imaging unit 40 images the heated object again. Specifically, the estimation unit 11 controls the imaging unit 40 so that the imaging unit 40 images the heated object a predetermined time after the imaging unit 40 images the heated object last time. That is, the imaging unit 40 images the heated object at predetermined time intervals until the estimation unit 11 estimates the name of the heated object. This prevents the object from being heated with a heating intensity and heating time that is inappropriate for the object.

(2)図9を参照して説明したように、加熱制御部12は、計測部13の計測結果(加熱時間Ct)と、決定した加熱時間Htとに基づいて、被加熱物に対する残りの加熱時間Rtを決定した。そして、推定部11が名称情報MNを取得してから、残りの加熱時間Rtが経過することに応じて被加熱物への加熱が終了するように、加熱制御部12は加熱部30を制御した。ただし、加熱制御部12は、残りの加熱時間Rtが経過した時から、さらに一定の時間が経過した上で被加熱物への加熱が終了するように、加熱部30を制御してもよい。 (2) As described with reference to FIG. 9, the heating control unit 12 determined the remaining heating time Rt for the heated object based on the measurement result (heating time Ct) of the measurement unit 13 and the determined heating time Ht. Then, the heating control unit 12 controlled the heating unit 30 so that heating of the heated object would end in response to the remaining heating time Rt having elapsed after the estimation unit 11 acquired the name information MN. However, the heating control unit 12 may also control the heating unit 30 so that heating of the heated object would end after a certain amount of time has elapsed since the remaining heating time Rt had elapsed.

(3)図10のステップS1~ステップS10の順番は、適宜変更し得る。 (3) The order of steps S1 to S10 in FIG. 10 may be changed as appropriate.

(4)図14のステップS21~図15のステップS32の順番は、適宜変更し得る。 (4) The order of steps S21 in FIG. 14 to S32 in FIG. 15 may be changed as appropriate.

(5)図4A~図4Cを参照して説明したように、1つの料理に対して、3つの学習対象料理画像LGを学習済みモデルLMに入力させた。ただし、学習済みモデルLMが被加熱物の名称を推定できる限り、1つの料理に対して1つまたは2つの学習対象料理画像LGを学習してもよいし、4つ以上の学習対象料理画像LGを学習してもよい。 (5) As described with reference to Figures 4A to 4C, three learning target dish images LG for one dish were input to the learned model LM. However, as long as the learned model LM can estimate the name of the heated object, it may learn one or two learning target dish images LG for one dish, or it may learn four or more learning target dish images LG.

(6)図12及び図13を参照して説明したように、実施形態2に係る加熱調理器1aは、ターンテーブル60を備えていた。ただし、加熱調理器1aが被加熱物を加熱する限り、加熱調理器1aは、ターンテーブル60を備えていなくてもよい。この場合、補正部14は、撮像結果を補正しない。 (6) As described with reference to Figs. 12 and 13, the cooking device 1a according to the second embodiment includes the turntable 60. However, as long as the cooking device 1a heats an object to be heated, the cooking device 1a does not need to include the turntable 60. In this case, the correction unit 14 does not correct the imaging result.

(7)図12及び図13を参照して説明したように、実施形態2に係る加熱調理器1aの推定部11aは、撮像結果である料理画像HGと記憶部20aに記憶される料理画像MGとを比較して、比較結果に基づいて、被加熱物の名称を推定した。ただし、推定部11aが被加熱物の名称を推定できる限り、推定部11aは、複数の撮像結果である料理画像HGの差分と、記憶部20aに記憶される複数の料理画像MGの差分とを比較して、比較結果に基づいて、被加熱物の名称を推定してもよい。この場合、記憶部20aに記憶される複数の料理画像MGの差分とは、1つの料理が加熱される過程において異なる時の料理を示す複数の料理画像MGの差分のことである。 (7) As described with reference to Figures 12 and 13, the estimation unit 11a of the cooking device 1a according to embodiment 2 compares the food image HG, which is the imaging result, with the food image MG stored in the memory unit 20a, and estimates the name of the heated object based on the comparison result. However, as long as the estimation unit 11a can estimate the name of the heated object, the estimation unit 11a may compare the difference between the food images HG, which are multiple imaging results, with the difference between the multiple food images MG stored in the memory unit 20a, and estimate the name of the heated object based on the comparison result. In this case, the difference between the multiple food images MG stored in the memory unit 20a refers to the difference between the multiple food images MG showing a single dish at different times during the heating process.

本発明は、加熱調理器及び学習済みモデル生成方法の分野に利用可能である。 The present invention can be used in the fields of cooking appliances and trained model generation methods.

1 加熱調理器
11 推定部
12 加熱制御部
13 計測部
14 補正部
20 記憶部
30 加熱部
40 撮像部
50 操作部
60 ターンテーブル
HG 料理画像
Ht 加熱時間
Hs 加熱強度
LM 学習済みモデル
LG 学習対象料理画像
MG 仕上げ画像
ST 状態情報
TD 学習データ
Reference Signs List 1: Cooking device 11: Estimation unit 12: Heating control unit 13: Measurement unit 14: Correction unit 20: Memory unit 30: Heating unit 40: Imaging unit 50: Operation unit 60: Turntable HG: Food image Ht: Heating time Hs: Heating intensity LM: Trained model LG: Training target food image MG: Finished image ST: Status information TD: Training data

Claims (5)

被加熱物を加熱する加熱部と、
前記被加熱物が加熱されている時に、前記被加熱物を撮像する撮像部と、
前記撮像部の撮像結果に基づいて、前記被加熱物の加熱中に、前記被加熱物の名称を推定する推定部と、
学習データを機械学習することで構築された学習済みモデルを記憶する記憶部と、
前記推定部の推定結果に応じて、前記加熱部を制御する加熱制御部と
を備え、
前記推定部は、前記撮像結果を前記学習済みモデルに入力し、
前記学習済みモデルは、前記入力された前記撮像結果に基づいて、前記被加熱物の名称を示す名称情報を出力し、
前記学習データは、1つの被加熱物が加熱される過程において、異なる時の前記1つの被加熱物の複数の撮像結果を含み、
前記記憶部は、料理の名称に対して、前記料理に応じた加熱時間及び加熱強度を関連付けたテーブルを記憶し、
前記加熱制御部は、
加熱開始の指示を受け付けた場合、前記被加熱物に関わらず所定の加熱強度で、前記加熱部に前記被加熱物の加熱を開始させ、
前記被加熱物の加熱開始後、前記推定部によって推定された前記被加熱物の名称に対応する前記料理の名称に基づいて、前記テーブルにおいて当該料理の名称に関連付けられた加熱時間及び加熱強度を決定し、
決定した前記加熱時間と、前記被加熱物の加熱開始から前記被加熱物の名称が推定された時点までの経過時間とに基づいて、前記被加熱物の名称が推定された時点から前記被加熱物に対する加熱を終了するまでの前記被加熱物に対する残りの加熱時間を調整し
決定した前記加熱強度に基づいて、前記加熱部の加熱強度を調整する、
加熱調理器。
A heating unit that heats the object to be heated;
An imaging unit that images the object to be heated while the object to be heated is being heated;
An estimation unit that estimates a name of the object to be heated based on an imaging result of the imaging unit while the object to be heated is being heated;
A memory unit that stores a trained model constructed by machine learning of training data;
a heating control unit that controls the heating unit in response to an estimation result of the estimation unit;
The estimation unit inputs the imaging result into the trained model,
The trained model outputs name information indicating a name of the heated object based on the input imaging result,
The learning data includes a plurality of imaging results of one object to be heated at different times during a process in which the object to be heated is heated,
The storage unit stores a table in which a name of a dish is associated with a heating time and a heating intensity corresponding to the dish,
The heating control unit is
When receiving an instruction to start heating, the heating unit starts heating the object to be heated at a predetermined heating intensity regardless of the object to be heated;
After starting heating of the object to be heated, a heating time and a heating intensity associated with the name of the dish in the table are determined based on the name of the dish corresponding to the name of the object to be heated estimated by the estimation unit;
Based on the determined heating time and the elapsed time from the start of heating of the object to the time when the name of the object is estimated, adjust the remaining heating time for the object from the time when the name of the object is estimated to the time when heating of the object is terminated;
adjusting the heating intensity of the heating unit based on the determined heating intensity;
Heating cooker.
前記学習データは、料理を示す学習対象料理画像と、前記料理の名称を示す名称情報とを含み、
前記推定部は、前記撮像結果である料理画像を前記学習済みモデルに入力し、
前記学習済みモデルは、前記入力された料理画像に基づいて、前記被加熱物の名称を示す名称情報を出力し、
前記推定部は、前記学習済みモデルが出力した前記名称情報を取得する、請求項1に記載の加熱調理器。
The learning data includes a learning target dish image showing a dish and name information showing a name of the dish,
The estimation unit inputs a food image that is the imaging result into the trained model,
The trained model outputs name information indicating the name of the heated object based on the input cooking image,
The cooking device according to claim 1 , wherein the estimation unit acquires the name information output by the trained model.
複数の前記学習データの各々の前記学習対象料理画像は、それぞれ、一つの前記料理が加熱される過程において、異なる時の前記料理を示す、請求項2に記載の加熱調理器。 The heating cooker according to claim 2, wherein each of the learning target dish images of the multiple learning data shows one of the dishes at different times during the process of heating the dish. 一つの料理に対して、複数の料理画像と前記料理の名称とを記憶する記憶部をさらに備え、
前記複数の料理画像は、それぞれ、前記料理が加熱される過程において、異なる時の前記料理を示し、
前記推定部は、前記撮像結果と前記料理画像とを比較して、比較結果に基づいて、前記被加熱物の名称を推定する、請求項1に記載の加熱調理器。
A storage unit is further provided for storing a plurality of dish images and names of the dishes for each dish,
each of the plurality of food images shows the food at a different time during the process of the food being heated;
The cooking device according to claim 1 , wherein the estimation unit compares the imaging result with the food image and estimates the name of the object to be heated based on a comparison result.
前記被加熱物が載置されて回転するターンテーブルと、
前記被加熱物が加熱された時間を計測する計測部と、
前記ターンテーブルが回転するときの角速度と、前記計測部の計測結果とに基づいて、前記撮像結果の向きを補正する補正部と
をさらに備え、
前記推定部は、補正後の前記撮像結果に基づいて、前記被加熱物の名称を推定する、請求項4に記載の加熱調理器。
A turntable on which the object to be heated is placed and rotated;
A measuring unit that measures the time during which the object to be heated is heated;
a correction unit that corrects a direction of the imaging result based on an angular velocity when the turntable rotates and a measurement result of the measurement unit,
The cooking device according to claim 4 , wherein the estimation unit estimates a name of the object to be heated based on the corrected imaging result.
JP2021004942A 2021-01-15 2021-01-15 Cooking device and trained model generation method Active JP7641122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021004942A JP7641122B2 (en) 2021-01-15 2021-01-15 Cooking device and trained model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021004942A JP7641122B2 (en) 2021-01-15 2021-01-15 Cooking device and trained model generation method

Publications (2)

Publication Number Publication Date
JP2022109554A JP2022109554A (en) 2022-07-28
JP7641122B2 true JP7641122B2 (en) 2025-03-06

Family

ID=82560646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021004942A Active JP7641122B2 (en) 2021-01-15 2021-01-15 Cooking device and trained model generation method

Country Status (1)

Country Link
JP (1) JP7641122B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113787A (en) 2009-11-26 2011-06-09 Nec Saitama Ltd Cooking device control terminal, cooking device, and cooking system
JP2016502061A (en) 2012-12-04 2016-01-21 ゲナント ヴェルスボールグ インゴ シトーク Heat treatment monitoring system
JP2019082982A (en) 2018-04-12 2019-05-30 クックパッド株式会社 Cooking support device, cooking information generation device, cooking support system, cooking support method, and program
WO2019128543A1 (en) 2017-12-30 2019-07-04 Midea Group Co., Ltd. Food preparation method and system based on ingredient recognition
JP2021181871A (en) 2020-05-20 2021-11-25 リンナイ株式会社 Heating cooking system and heating cooking method, and learning device and learning method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6006489B2 (en) * 2011-12-26 2016-10-12 慎也 福埜 Manufacturing method of natural energy power generation device
JP3234872U (en) * 2021-08-05 2021-11-11 五郎 五十嵐 A tandem diamond thin-film solar cell device installed in a vehicle.

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113787A (en) 2009-11-26 2011-06-09 Nec Saitama Ltd Cooking device control terminal, cooking device, and cooking system
JP2016502061A (en) 2012-12-04 2016-01-21 ゲナント ヴェルスボールグ インゴ シトーク Heat treatment monitoring system
WO2019128543A1 (en) 2017-12-30 2019-07-04 Midea Group Co., Ltd. Food preparation method and system based on ingredient recognition
US20190200797A1 (en) 2017-12-30 2019-07-04 Midea Group Co., Ltd Food preparation method and system based on ingredient recognition
JP2019082982A (en) 2018-04-12 2019-05-30 クックパッド株式会社 Cooking support device, cooking information generation device, cooking support system, cooking support method, and program
JP2021181871A (en) 2020-05-20 2021-11-25 リンナイ株式会社 Heating cooking system and heating cooking method, and learning device and learning method

Also Published As

Publication number Publication date
JP2022109554A (en) 2022-07-28

Similar Documents

Publication Publication Date Title
CN108700307B (en) Electronic oven with infrared evaluative controls
CN111481049B (en) Cooking equipment control method and device, cooking equipment and storage medium
US12150582B2 (en) Steam cooking apparatus and method
US20210385917A1 (en) Method for operating a domestic cooking appliance and domestic cooking appliance
CN113287947A (en) Steaming and baking cooking method and device, steaming and baking cooking equipment and storage medium
US11313563B2 (en) Heating cooker and heating cooking method
CN113167477B (en) Method for operating a household cooking appliance and household cooking appliance
CN110727296A (en) Control method of oven and oven having the same
CN107647789A (en) Cooking control method, device and computer-readable recording medium
JP7300648B2 (en) heating cooker
US20230314003A1 (en) System and method for individual heating element control
JP7641122B2 (en) Cooking device and trained model generation method
US12066193B2 (en) Method for preparing a cooking product, cooking device, and cooking device system
JP5496168B2 (en) Cooker
AU2014252686B2 (en) Method for cooking a cooking product, and cooking device
KR101388897B1 (en) An oven and a method for controlling the same
CN109964083A (en) The control method of heating device and heating device
CN111124010A (en) Self-adaptive heat preservation method and device, storage medium and computer equipment
JP2007103289A (en) Induction heating cooker
JP2022110855A (en) Cooker and learned model creating method
US20220221156A1 (en) Oven and method of controlling the same
US12181161B2 (en) Cooking apparatus and control method thereof
CN114073394B (en) Control method of cooking equipment and cooking equipment
US20240107638A1 (en) Determining a target processing state of a cooking product to be treated
KR102226610B1 (en) Cooker and re-cooking method of cooker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20240528

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241205

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20241225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250221

R150 Certificate of patent or registration of utility model

Ref document number: 7641122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150