[go: up one dir, main page]

JP2020131813A - Output device, generation method for learning model, computer program, and storage medium - Google Patents

Output device, generation method for learning model, computer program, and storage medium Download PDF

Info

Publication number
JP2020131813A
JP2020131813A JP2019024853A JP2019024853A JP2020131813A JP 2020131813 A JP2020131813 A JP 2020131813A JP 2019024853 A JP2019024853 A JP 2019024853A JP 2019024853 A JP2019024853 A JP 2019024853A JP 2020131813 A JP2020131813 A JP 2020131813A
Authority
JP
Japan
Prior art keywords
information
output
human
learning model
powered vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019024853A
Other languages
Japanese (ja)
Other versions
JP7337510B2 (en
Inventor
隆 古家
Takashi Furuya
隆 古家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimano Inc
Original Assignee
Shimano Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimano Inc filed Critical Shimano Inc
Priority to JP2019024853A priority Critical patent/JP7337510B2/en
Publication of JP2020131813A publication Critical patent/JP2020131813A/en
Application granted granted Critical
Publication of JP7337510B2 publication Critical patent/JP7337510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Abstract

【課題】出力装置、学習モデルの生成方法、コンピュータプログラム、および記憶媒体を提供する。【解決手段】出力装置は、学習アルゴリズムによって学習された学習モデルを用いて、人力駆動車の部品の取り付け状態に関する入力情報に応じて前記取り付け状態に関する出力情報を出力する処理部を備える。【選択図】図5An output device, a learning model generation method, a computer program, and a storage medium are provided. An output device includes a processing unit that outputs output information regarding the mounting state of parts of a human-powered vehicle in accordance with input information regarding the mounting state of parts of the manpowered vehicle, using a learning model learned by a learning algorithm. [Selection drawing] Fig. 5

Description

本発明は、人力駆動車のコンポーネントに関する適切な取り付け状態を提案するための情報の出力装置、学習モデルの生成方法、コンピュータプログラム、および記憶媒体に関する。 The present invention relates to an information output device, a learning model generation method, a computer program, and a storage medium for proposing an appropriate mounting state for a human-powered vehicle component.

自転車をはじめとして電動アシスト付き自転車、Eバイクと呼ばれる電動自転車等、少なくとも部分的に人力が用いられる人力駆動車がある。人力駆動車は、フロントディレーラ、リアディレーラ、シートポスト、またはサスペンション等である複数のコンポーネントを備える。 There are human-powered vehicles that use human power at least partially, such as bicycles, electric-assisted bicycles, and electric bicycles called E-bikes. A man-powered vehicle has multiple components such as a front derailleur, a rear derailleur, a seatpost, or a suspension.

複数のコンポーネントに対し、診断装置を接続して故障の有無を含む診断を行なう技術が知られている(特許文献1、2参照)。従来の診断装置は、コンポーネントと通信し、コンポーネントに所定の動作を指示した場合に動作が終了したか否か等によって故障を診断する。 A technique is known in which a diagnostic device is connected to a plurality of components to perform a diagnosis including the presence or absence of a failure (see Patent Documents 1 and 2). A conventional diagnostic device communicates with a component and diagnoses a failure based on whether or not the operation is completed when a predetermined operation is instructed to the component.

米国特許第7819032号明細書U.S. Pat. No. 7819032 米国特許第9227697号明細書U.S. Pat. No. 9227697

1つ1つのコンポーネントとして故障はしていない状況であっても、組み合わせとして適切でない場合がある。他のコンポーネントとの関係、乗り手の個性によっては、より適切な組立状態が提案されるべき場合もある。多数の条件に基づく適切な組立状態は、複数のコンポーネントそれぞれの状態を総合的に判断して提案されるべきである。 Even in a situation where each component has not failed, it may not be appropriate as a combination. Depending on the relationship with other components and the individuality of the rider, a more appropriate assembly condition may need to be proposed. Appropriate assembly conditions based on a number of conditions should be proposed by comprehensively judging the conditions of each of the multiple components.

本発明の目的は、人力駆動車のコンポーネントを含む部品の適切な取り付け状態を提案するための情報を出力する出力装置、学習モデルの生成方法、コンピュータプログラム、および記憶媒体を提供することである。 An object of the present invention is to provide an output device, a learning model generation method, a computer program, and a storage medium for outputting information for proposing an appropriate mounting state of parts including components of a human-powered vehicle.

(1)本発明の第1側面に従う出力装置は、学習アルゴリズムによって学習された学習モデルを用いて、人力駆動車の部品の取り付け状態に関する入力情報に応じて前記取り付け状態に関する出力情報を出力する処理部を備える。
このため、取り付け状態に関する多様な情報に応じた出力情報が学習モデルから出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。
(1) The output device according to the first aspect of the present invention uses a learning model learned by a learning algorithm to output output information regarding the mounting state according to input information regarding the mounting state of parts of a human-powered vehicle. It has a part.
Therefore, output information corresponding to various information regarding the mounting state is output from the learning model, and it is possible to propose an appropriate mounting state of the component based on the output information.

(2)本発明の第2側面に従う出力装置は、前記入力情報は、前記部品の識別情報を含む。
このため、人力駆動車に取り付けられる部品の組み合わせに応じた出力情報が学習モデルから出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。
(2) In the output device according to the second aspect of the present invention, the input information includes the identification information of the component.
Therefore, output information corresponding to the combination of parts to be mounted on the human-powered vehicle is output from the learning model, and it is possible to propose an appropriate mounting state of the parts based on the output information.

(3)本発明の第3側面に従う出力装置は、前記入力情報は、前記人力駆動車の車体に関する情報を含む。
このため、人力駆動車の車体のサイズ、またはタイプ等の情報に応じた出力情報が学習モデルから出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。
(3) In the output device according to the third aspect of the present invention, the input information includes information about the vehicle body of the human-powered vehicle.
Therefore, output information corresponding to information such as the size or type of the vehicle body of the human-powered vehicle is output from the learning model, and it is possible to propose an appropriate mounting state of parts based on the output information.

(4)本発明の第4側面に従う出力装置は、前記入力情報は、前記人力駆動車のユーザの身体情報を含む。
このため、人力駆動車の部品に関し、人力駆動車に乗るユーザの体重、身長、または脚の長さ等に応じた部品の適切な取り付け状態の提案が可能である。
(4) In the output device according to the fourth aspect of the present invention, the input information includes the physical information of the user of the human-powered vehicle.
Therefore, regarding the parts of the human-powered vehicle, it is possible to propose an appropriate mounting state of the parts according to the weight, height, leg length, etc. of the user riding the human-powered vehicle.

(5)本発明の第5側面に従う出力装置は、前記入力情報は、前記人力駆動車の静止画像データおよび前記人力駆動車の動画像データの少なくともいずれか1つを含む。
このため、人力駆動車の部品に関し、人力駆動車を撮影した静止画像データまたは動画像データを入力とし、人力駆動車全体の観察結果に応じた部品の適切な取り付け状態の提案が可能である。
(5) In the output device according to the fifth aspect of the present invention, the input information includes at least one of the still image data of the human-powered vehicle and the moving image data of the human-powered vehicle.
Therefore, regarding the parts of the human-powered vehicle, it is possible to input the still image data or the moving image data obtained by photographing the human-powered vehicle and propose an appropriate mounting state of the parts according to the observation result of the entire human-powered vehicle.

(6)本発明の第6側面に従う出力装置は、前記入力情報は、前記人力駆動車から発せられる振動に関するデータを含む。
このため、人力駆動車の部品に関し、人力駆動車の駆動中の振動に基づいた部品の適切な取り付け状態の提案が可能である。
(6) In the output device according to the sixth aspect of the present invention, the input information includes data regarding vibration emitted from the human-powered vehicle.
Therefore, regarding the parts of the human-powered vehicle, it is possible to propose an appropriate mounting state of the parts based on the vibration during driving of the human-powered vehicle.

(7)本発明の第7側面に従う出力装置は、前記振動に関するデータは、音声データを含む。
このため、人力駆動車の部品に関し、人力駆動車の駆動中に集音される音声データを入力とし、異音を含む多様な発生音に応じた部品の適切な取り付け状態の提案が可能である。
(7) In the output device according to the seventh aspect of the present invention, the data related to the vibration includes audio data.
For this reason, regarding the parts of a human-powered vehicle, it is possible to input the voice data collected during the driving of the human-powered vehicle and propose an appropriate mounting state of the parts according to various generated sounds including abnormal noise. ..

(8)本発明の第8側面に従う出力装置は、前記出力情報は、前記取り付け状態の適否に関する適否情報を含む。
このため、人力駆動車の部品に関し、多様な入力情報に応じて部品の取り付け状態の適否が学習モデルから出力され、部品の取り付け状態の適否の提示が可能である。
(8) In the output device according to the eighth aspect of the present invention, the output information includes the suitability information regarding the suitability of the mounting state.
Therefore, regarding the parts of the human-powered vehicle, the suitability of the mounting state of the parts is output from the learning model according to various input information, and it is possible to present the suitability of the mounting state of the parts.

(9)本発明の第9側面に従う出力装置は、前記出力情報は、前記取り付け状態に対する提案に関する提案情報を含む。
このため、人力駆動車の部品に関し、多様な入力情報に対応する部品の取り付け状態に対する適切な他の取り付け状態の提案が学習モデルから出力されるので、出力される情報から部品の適切な取り付け状態の提案が可能である。
(9) In the output device according to the ninth aspect of the present invention, the output information includes the proposal information regarding the proposal for the mounting state.
For this reason, regarding the parts of a human-powered vehicle, the learning model outputs a proposal of an appropriate other mounting state for the mounting state of the part corresponding to various input information, and therefore, the appropriate mounting state of the part is output from the output information. Can be proposed.

(10)本発明の第10側面に従う出力装置は、前記提案情報は、前記部品の取り付け方に関する情報、前記部品の調整に関する情報、および、前記部品の交換に関する情報の少なくともいずれか1つを含む。
このため、人力駆動車の部品に関し、多様な入力情報に対応する部品の取り付け状態に応じた部品の適切な取り付け方、調整量、調整方法、部品の交換の提案が可能である。
(10) In the output device according to the tenth aspect of the present invention, the proposed information includes at least one of information on how to attach the component, information on adjusting the component, and information on replacement of the component. ..
Therefore, regarding the parts of the human-powered vehicle, it is possible to propose an appropriate mounting method, adjustment amount, adjustment method, and replacement of the parts according to the mounting state of the parts corresponding to various input information.

(11)本発明の第11側面に従う学習モデルの生成方法は、人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、前記入力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する。
このため、人力駆動車の部品の取り付け状態に関する多様な入力情報と、入力情報に対応する適切な取り付け状態に対応する既知の教師データに基づいて学習モデルが生成される。学習モデルから出力される出力情報を用いることによって部品の適切な取り付け状態の提案が可能である。
(11) The method of generating the learning model according to the eleventh aspect of the present invention uses a neural network configured to output output information regarding the mounting state according to input information regarding the mounting state of parts of a human-powered vehicle. This is a learning model generation method for generating a learning model, in which parameters in the intermediate layer of the neural network are adjusted by a computer according to the teacher data labeled with the evaluation for the input information.
Therefore, a learning model is generated based on various input information regarding the mounting state of the parts of the human-powered vehicle and known teacher data corresponding to the appropriate mounting state corresponding to the input information. By using the output information output from the learning model, it is possible to propose an appropriate mounting state of the parts.

(12)本発明の第12側面に従う学習モデルの生成方法は、前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした追加教師データに基づいて、前記学習モデルをコンピュータによって更新する。
このため、人力駆動車の部品に関して学習中のニューラルネットワークから出力される出力情報に対する評価に基づいてニューラルネットワークが逐次更新され、部品の取り付け状態の提案がより適切となる。
(12) In the method of generating a learning model according to the twelfth aspect of the present invention, the learning model is generated based on additional teacher data labeled with an evaluation for the output information output by giving the input information to the neural network. Updated by computer.
Therefore, the neural network is sequentially updated based on the evaluation of the output information output from the neural network being learned for the parts of the human-powered vehicle, and the proposal of the mounting state of the parts becomes more appropriate.

(13)本発明の第13側面に従う学習モデルの生成方法は、人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する。
このため、予め教師データを用いることなく、学習中のニューラルネットワークから出力される出力情報に対する評価に基づいてニューラルネットワークが逐次更新され、部品の取り付け状態の提案がより適切となる。
(13) The learning model generation method according to the thirteenth aspect of the present invention uses a neural network configured to output output information regarding the mounting state according to input information regarding the mounting state of parts of a human-powered vehicle. A method of generating a learning model, in which the training model is generated in the intermediate layer of the neural network according to the teacher data labeled with the evaluation of the output information output by giving the input information to the neural network. Adjust the parameters by computer.
Therefore, the neural network is sequentially updated based on the evaluation of the output information output from the neural network being trained without using the teacher data in advance, and the proposal of the mounting state of the component becomes more appropriate.

(14)本発明の第14側面に従うコンピュータプログラムは、人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように学習アルゴリズムによって学習された学習モデルに、取得した入力情報を与えて、前記学習モデルから出力される出力情報に基づいて前記人力駆動車における部品の取り付け状態に関する情報を前記人力駆動車の画像を表示する表示部に前記画像に重畳および並べて表示する処理をコンピュータに実行させる。
このため、人力駆動車の部品の取り付け状態に関する多様な入力情報に基づき適切な取り付け状態を提案するための出力情報が、車体の情報、乗り手の情報等の多様な条件に合わせて学習モデルから出力される。学習モデルから出力された情報に基づいて人力駆動車の画像に対応させた部品の適切な取り付け状態を示す画像が表示され、視覚的に分かりやすい提案が可能である。
(14) A computer program according to the fourteenth aspect of the present invention applies to a learning model trained by a learning algorithm so as to output output information regarding the mounting state in response to input information regarding the mounting state of parts of a human-powered vehicle. Given the acquired input information, based on the output information output from the learning model, information on the mounting state of the parts in the human-powered vehicle is superimposed and arranged on the display unit for displaying the image of the human-powered vehicle. Have the computer perform the display process.
Therefore, the output information for proposing an appropriate mounting state based on various input information regarding the mounting state of the parts of the human-powered vehicle is output from the learning model according to various conditions such as vehicle body information and rider information. Will be done. Based on the information output from the learning model, an image showing the appropriate mounting state of the parts corresponding to the image of the human-powered vehicle is displayed, and it is possible to make a visually easy-to-understand proposal.

(15)本発明の第15側面に従う記憶媒体は、前記(14)のコンピュータプログラムが記憶される。
このため、記憶媒体からコンピュータによって読み出されるコンピュータプログラムに基づいて前記コンピュータは、学習モデルから出力された情報に基づいて人力駆動車の画像に対応させた部品の適切な取り付け状態を示す画像が表示され、視覚的に分かりやすい提案が可能である。
(15) The computer program of (14) is stored in the storage medium according to the fifteenth aspect of the present invention.
Therefore, based on the computer program read from the storage medium by the computer, the computer displays an image showing an appropriate mounting state of the parts corresponding to the image of the human-powered vehicle based on the information output from the learning model. , A visually easy-to-understand proposal is possible.

本発明に関する人力駆動車の部品の取り付け状態に関する情報を出力する出力装置によれば、人力駆動車のコンポーネントを含む部品の適切な取り付け状態を提案するための情報を出力することができる。 According to the output device for outputting the information on the mounting state of the parts of the human-powered vehicle according to the present invention, it is possible to output the information for proposing an appropriate mounting state of the parts including the components of the human-powered vehicle.

第1実施形態の出力装置および端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the output device and the terminal device of 1st Embodiment. 学習モデルの生成方法の一例を示すフローチャートである。It is a flowchart which shows an example of the generation method of a learning model. 学習モデルの生成方法の他の一例を示すフローチャートである。It is a flowchart which shows another example of the generation method of a learning model. 学習モデルの概要を示す図である。It is a figure which shows the outline of the learning model. 取り付け状態の提案に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure about the proposal of the mounting state. 端末装置にて表示される画面例を示す図である。It is a figure which shows the screen example displayed on the terminal apparatus. 端末装置にて表示される画面例を示す図である。It is a figure which shows the screen example displayed on the terminal apparatus. 第2実施形態の出力装置および端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the output device and the terminal device of 2nd Embodiment. 第2実施形態における学習モデルの生成方法の一例を示すフローチャートである。It is a flowchart which shows an example of the generation method of the learning model in 2nd Embodiment. 第2実施形態の学習モデルの概要を示す図である。It is a figure which shows the outline of the learning model of 2nd Embodiment. 取り付け状態の提案に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure about the proposal of the mounting state. 取り付け状態の提案に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure about the proposal of the mounting state. 第2実施形態の端末装置にて表示される画面例を示す図である。It is a figure which shows the screen example displayed by the terminal apparatus of 2nd Embodiment. 第2実施形態の端末装置にて表示される画面例を示す図である。It is a figure which shows the screen example displayed by the terminal apparatus of 2nd Embodiment. 第3実施形態における端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal apparatus in 3rd Embodiment. 第4実施形態の出力装置が適用される人力駆動車の側面図である。It is a side view of the human-powered vehicle to which the output device of 4th Embodiment is applied. 第4実施形態における出力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the output device in 4th Embodiment. 第4実施形態における学習モデルの生成方法の一例を示すフローチャートである。It is a flowchart which shows an example of the generation method of the learning model in 4th Embodiment. 第4実施形態における学習モデルの概要を示す図である。It is a figure which shows the outline of the learning model in 4th Embodiment. 第4実施形態における取り付け状態の適否の判断に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure concerning the determination of the suitability of the attachment state in 4th Embodiment.

以下の各実施形態に関する説明は、本発明に関する出力装置が取り得る形態の例示であり、その形態を制限することを意図していない。本発明に関する出力装置は、各実施形態の変形例、および、相互に矛盾しない少なくとも2つの変形例が組み合わせられた形態等のように各実施形態とは異なる形態を取り得る。 The following description of each embodiment is an example of possible embodiments of the output device according to the present invention and is not intended to limit the embodiments. The output device according to the present invention may take a form different from each embodiment, such as a modification of each embodiment and a combination of at least two modifications that do not contradict each other.

以下の各実施形態に関する説明において、前、後、前方、後方、左、右、横、上、および、下等の方向を表す言葉は、ユーザが人力駆動車のサドルに着座した状態における方向を基準として用いられる。 In the following description of each embodiment, the terms front, rear, front, rear, left, right, sideways, up, and down are the directions in which the user is seated in the saddle of a human-powered vehicle. Used as a reference.

(第1実施形態)
第1実施形態では、人力駆動車の部品メーカによって管理される出力装置1と、出力装置1から提供される人力駆動車の部品の取り付け状態に関する情報に基づいて人力駆動車のメンテナンスに用いられる端末装置2とを用いたメンテナンス方法について説明する。
(First Embodiment)
In the first embodiment, the output device 1 managed by the parts manufacturer of the human-powered vehicle and the terminal used for the maintenance of the human-powered vehicle based on the information regarding the mounting state of the parts of the human-powered vehicle provided by the output device 1. A maintenance method using the device 2 will be described.

図1は、第1実施形態の出力装置1および端末装置2の構成を示すブロック図である。第1実施形態において出力装置1は、サーバコンピュータを用いる。出力装置1は、パーソナルコンピュータであってもよい。出力装置1は、処理部10、記憶部12、および通信部14を備える。第1実施形態において以下では、出力装置1は1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで機能又は処理を分散させてもよいし、1台の大型コンピュータに仮想的に生成される複数のインスタンスの内の1つであってもよい。 FIG. 1 is a block diagram showing the configurations of the output device 1 and the terminal device 2 of the first embodiment. In the first embodiment, the output device 1 uses a server computer. The output device 1 may be a personal computer. The output device 1 includes a processing unit 10, a storage unit 12, and a communication unit 14. In the first embodiment, the output device 1 will be described as one server computer, but the functions or processes may be distributed among a plurality of server computers, and the output device 1 is virtually generated by one large computer. It may be one of a plurality of instances.

処理部10は、CPU(Central Processing Unit )またはGPU(Graphics Processing Unit)を用いたプロセッサである。処理部10は、内蔵するROM(Read Only Memory)およびRAM(Random Access Memory)等のメモリを用い、各構成部を制御して処理を実行する。処理部10は、記憶部12に記憶されている学習モデル1Mを含む学習プログラム1Pに基づいて、学習モデル1Mを生成し、生成した学習モデル1Mを用いて人力駆動車の組み立てに関する情報を端末装置2へ向けて出力する。 The processing unit 10 is a processor using a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The processing unit 10 uses a built-in memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory) to control each component to execute processing. The processing unit 10 generates a learning model 1M based on the learning program 1P including the learning model 1M stored in the storage unit 12, and uses the generated learning model 1M to output information regarding the assembly of the human-powered vehicle to the terminal device. Output toward 2.

記憶部12は、ハードディスク、または、SSD(Solid State Drive )を用い、学習プログラム1Pを含む処理部10が参照するプログラム、およびデータを記憶する。記憶部12は、学習プログラム1Pに基づいて生成される学習モデル1Mを記憶する。記憶部12には、部品メーカが取り扱う部品の取り付け方を説明する説明書のデータが記憶されている。学習プログラム1P、および学習モデル1Mは、記憶媒体3に記憶された学習プログラム30Pおよび学習モデル30Mを読み出して記憶部12に複製されたものであってもよい。 The storage unit 12 uses a hard disk or an SSD (Solid State Drive) to store programs and data referenced by the processing unit 10 including the learning program 1P. The storage unit 12 stores the learning model 1M generated based on the learning program 1P. The storage unit 12 stores the data of the manual explaining how to attach the parts handled by the parts manufacturer. The learning program 1P and the learning model 1M may be those in which the learning program 30P and the learning model 30M stored in the storage medium 3 are read out and duplicated in the storage unit 12.

通信部14は、公衆通信網N1を含むネットワークNを介した端末装置2との通信接続を実現する通信モジュールである。通信部14は例えば、Wi-Fi に対応する無線通信デバイスである。通信部14は第2例では、ネットワークNに含まれるキャリアネットワークN2を介した通信接続を実現するキャリア通信用モジュールである。通信部14は第3例では有線接続用のネットワークカードである。 The communication unit 14 is a communication module that realizes a communication connection with the terminal device 2 via the network N including the public communication network N1. The communication unit 14 is, for example, a wireless communication device that supports Wi-Fi. In the second example, the communication unit 14 is a carrier communication module that realizes a communication connection via the carrier network N2 included in the network N. In the third example, the communication unit 14 is a network card for wired connection.

端末装置2は、メンテナンスを行なう人力駆動車のユーザ、または人力駆動車の販売者が所有するタブレット等の通信端末である。端末装置2は、所謂スマートフォンであってもよい。端末装置2は、ラップトップ型のパーソナルコンピュータであってもよい。端末装置2は、処理部20、記憶部22、通信部24、表示部26、および操作部28を備える。 The terminal device 2 is a communication terminal such as a tablet owned by a user of a human-powered vehicle for maintenance or a seller of the human-powered vehicle. The terminal device 2 may be a so-called smartphone. The terminal device 2 may be a laptop personal computer. The terminal device 2 includes a processing unit 20, a storage unit 22, a communication unit 24, a display unit 26, and an operation unit 28.

処理部20は、CPUまたはGPUを用いたプロセッサである。処理部20は、内蔵するROM、およびRAM等のメモリを用い、各構成部を制御して処理を実行する。処理部20は、プロセッサ、メモリ、記憶部22および通信部24を集積した1つのハードウェア、SoC(System On a Chip)として構成されていてもよい。処理部20は、記憶部22に記憶されているメンテナンスアプリプログラム2Pに基づいて、人力駆動車の組み立てに関する情報を表示部26に表示する。 The processing unit 20 is a processor using a CPU or GPU. The processing unit 20 uses a built-in ROM and a memory such as a RAM to control each component to execute processing. The processing unit 20 may be configured as one piece of hardware, a SoC (System On a Chip), in which a processor, a memory, a storage unit 22, and a communication unit 24 are integrated. The processing unit 20 displays information on the assembly of the human-powered vehicle on the display unit 26 based on the maintenance application program 2P stored in the storage unit 22.

記憶部22は、フラッシュメモリを用い、メンテナンスアプリプログラム2Pを含む処理部20が参照するプログラム、およびデータを記憶する。記憶部22に記憶されているメンテナンスアプリプログラム2Pは、人力駆動車の部品メーカから提供され、任意の配信サーバから配信され、汎用コンピュータである端末装置2にインストールされる。メンテナンスアプリプログラム2Pは、記憶媒体5に記憶されたメンテナンスアプリプログラム50Pを読み出して記憶部22に複製されたものであってもよい。 The storage unit 22 uses a flash memory to store programs and data referred to by the processing unit 20 including the maintenance application program 2P. The maintenance application program 2P stored in the storage unit 22 is provided by a parts manufacturer of a human-powered vehicle, distributed from an arbitrary distribution server, and installed in a terminal device 2 which is a general-purpose computer. The maintenance application program 2P may be one that reads out the maintenance application program 50P stored in the storage medium 5 and duplicates it in the storage unit 22.

通信部24は、公衆通信網N1への通信接続を実現する通信モジュールである。通信部24は例えば、Wi-Fi に対応する無線通信デバイスである。通信部24は第2例では、キャリアネットワークN2を介した通信を実現するキャリア通信用モジュールである。通信部24は第3例ではネットワークカードである。 The communication unit 24 is a communication module that realizes a communication connection to the public communication network N1. The communication unit 24 is, for example, a wireless communication device that supports Wi-Fi. In the second example, the communication unit 24 is a carrier communication module that realizes communication via the carrier network N2. The communication unit 24 is a network card in the third example.

表示部26は、液晶パネルまたは有機ELディスプレイ等のディスプレイ装置を用いる。表示部26は、人力駆動車における部品の取り付け状態に関する情報を、人力駆動車の画像と共に表示する。 The display unit 26 uses a display device such as a liquid crystal panel or an organic EL display. The display unit 26 displays information on the mounting state of parts in the human-powered vehicle together with an image of the human-powered vehicle.

操作部28は、利用者の操作を受け付けるインタフェースであり、物理ボタン、ディスプレイ内蔵のタッチパネルデバイス、スピーカ、およびマイクロフォン等を用いる。操作部28は、物理ボタンまたはタッチパネルにて表示部26で表示している画面上で操作を受け付けてもよいし、マイクロフォンにて入力音声から操作内容を認識し、スピーカで出力する音声との対話形式で操作を受け付けてもよい。 The operation unit 28 is an interface that accepts user operations, and uses physical buttons, a touch panel device with a built-in display, a speaker, a microphone, and the like. The operation unit 28 may accept an operation on the screen displayed on the display unit 26 by a physical button or a touch panel, or recognizes the operation content from the input voice by the microphone and interacts with the voice output by the speaker. The operation may be accepted in the form.

上述のような構成を有する第1実施形態の出力装置1は、後述する学習アルゴリズムによって学習された学習モデル1Mを用いて、人力駆動車の部品の取り付け状態に関する入力情報に応じて部品の取り付け状態に関する出力情報を出力する。出力情報は端末装置2へ送信され、端末装置2では、メンテナンスアプリプログラム2Pに基づいてこれを受信し、受信した出力情報に基づいて人力駆動車における部品の取り付け状態に関する情報を、表示部26に表示する。 The output device 1 of the first embodiment having the above-described configuration uses a learning model 1M learned by a learning algorithm described later, and uses a learning model 1M, which has a component mounting state according to input information regarding the mounting state of the parts of the human-powered vehicle. Output information about. The output information is transmitted to the terminal device 2, the terminal device 2 receives this based on the maintenance application program 2P, and based on the received output information, the information regarding the mounting state of the parts in the human-powered vehicle is displayed on the display unit 26. indicate.

第1に出力装置1にて生成される学習モデル1Mについて説明する。学習モデル1Mは予め、出力装置1または外部装置によって生成される。図2は、学習モデル1Mの生成方法の一例を示すフローチャートである。出力装置1は、ニューラルネットワーク(以下NN:Neural Network)を用いた教師ありの深層学習アルゴリズムによって人力駆動車の部品の取り付け状態に関する入力情報に対する出力情報を出力する学習モデル1Mを生成する。学習アルゴリズムは教師なしの学習アルゴリズムでもよいし、リカレントニューラルネットワーク(Recurrent Neural Network)でもよい。学習アルゴリズムは強化学習でもよい。 First, the learning model 1M generated by the output device 1 will be described. The learning model 1M is generated in advance by the output device 1 or an external device. FIG. 2 is a flowchart showing an example of a method of generating the learning model 1M. The output device 1 generates a learning model 1M that outputs output information for input information regarding the mounting state of parts of a human-powered vehicle by a supervised deep learning algorithm using a neural network (hereinafter referred to as NN: Neural Network). The learning algorithm may be an unsupervised learning algorithm or a recurrent neural network. The learning algorithm may be reinforcement learning.

処理部10は生成を開始する前に、教師データとなる情報を収集し、記憶部12に記憶しておく。教師データは、人力駆動車の部品の取り付け状態に関する情報と、取り付け状態に対して適否の判定結果が付与された情報群である。これらの情報群は、人力駆動車または部品のメーカにより収集され、適切または不適切であると判定された取り付け状態の人力駆動車の情報である。情報群は人力駆動車の販売店、組み立て工場または試験場で収集される。適否の判定の主体は、組立のエンジニア、メーカのエンジニア等である。判定の主体は、ユーザであってもよい。入力情報は例えば、部品の識別情報であり、メーカ名、型番、品番、品名である。入力情報は車体情報を含む。車体情報は、フレーム、フロントフォーク、ハンドル、ステム、およびシートポストそれぞれのサイズ、種類、および品番を含む。入力情報は、部品の識別情報および車体情報に対応する人力駆動車に乗るユーザの身体情報を含む。身体情報は、ユーザの体重、身長、脚の長さ、および腕の長さ等のいずれか1つを少なくとも含む。 Before starting the generation, the processing unit 10 collects information to be teacher data and stores it in the storage unit 12. The teacher data is a group of information in which information on the mounting state of parts of a human-powered vehicle and a judgment result of suitability for the mounting state are given. These pieces of information are information on a man-powered vehicle in a mounted state that has been collected by the manufacturer of the man-powered vehicle or component and has been determined to be appropriate or inappropriate. Information gathered at human-powered vehicle dealers, assembly plants or test sites. The main body of the suitability judgment is an assembly engineer, a manufacturer engineer, and the like. The subject of the determination may be the user. The input information is, for example, component identification information, such as a manufacturer name, a model number, a product number, and a product name. The input information includes vehicle body information. Body information includes the size, type and part number of each frame, front fork, handlebar, stem and seatpost. The input information includes physical information of a user riding a human-powered vehicle corresponding to component identification information and vehicle body information. The physical information includes at least one of the user's weight, height, leg length, arm length, and the like.

処理部10は、収集された情報群を用いて以下の処理を実行する。
処理部10は、記憶部12に記憶された人力駆動車の部品の取り付け状態に関し、人力駆動車に取り付けられる部品の識別情報を取得する(ステップS101)。処理部10は、ステップS101で取得した1つまたは複数の部品が取り付けられた人力駆動車の車体に関する情報を取得する(ステップS103)。処理部は、ステップS101で取得した1つまたは複数の部品が取り付けられた人力駆動車のユーザの身体情報を取得する(ステップS105)。
The processing unit 10 executes the following processing using the collected information group.
The processing unit 10 acquires identification information of the parts to be attached to the human-powered vehicle with respect to the attachment state of the parts of the human-powered vehicle stored in the storage unit 12 (step S101). The processing unit 10 acquires information about the vehicle body of the human-powered vehicle to which one or more parts are attached, which was acquired in step S101 (step S103). The processing unit acquires the physical information of the user of the human-powered vehicle to which the one or more parts acquired in step S101 are attached (step S105).

処理部10は、ステップS101からステップS105で取得した入力情報に、予め与えられた適否の判定結果のラベルを付与することで教師データを作成する(ステップS107)。 The processing unit 10 creates teacher data by adding a label of a suitability determination result given in advance to the input information acquired in steps S101 to S105 (step S107).

処理部10は、記憶部12に記憶されている情報群のうち、所定の条件を満たす全ての情報群から教師データを作成したか否かを判断する(ステップS109)。所定の条件は例えば、同一の取り付け状態について入力情報を取得するに関し、教師データとなる情報数の数である。ステップS109で全ての情報群から教師データを作成していないと判断された場合(S109:NO)、処理部10は処理をステップS101へ戻す。 The processing unit 10 determines whether or not the teacher data is created from all the information groups that satisfy the predetermined conditions among the information groups stored in the storage unit 12 (step S109). The predetermined condition is, for example, the number of pieces of information that becomes teacher data with respect to acquiring input information for the same mounting state. When it is determined in step S109 that the teacher data has not been created from all the information groups (S109: NO), the processing unit 10 returns the processing to step S101.

ステップS109で全ての情報群から教師データを作成したと判断された場合(S109:YES)、処理部10は作成した教師データをNNへ与える(ステップS111)。処理部10は、与えられた教師データによってNNの中間層における重みおよびバイアスの少なくとも一方を含むパラメータを学習し(ステップS113)、処理を終了する。 When it is determined in step S109 that the teacher data has been created from all the information groups (S109: YES), the processing unit 10 gives the created teacher data to the NN (step S111). The processing unit 10 learns a parameter including at least one of the weight and the bias in the NN mesosphere from the given teacher data (step S113), and ends the processing.

これにより、学習モデル1Mは、前記入力情報に対する評価を予めラベル付けした教師データに応じてNNの中間層におけるパラメータをコンピュータによって調整することで生成される。 As a result, the learning model 1M is generated by adjusting the parameters in the NN mesosphere by the computer according to the teacher data in which the evaluation for the input information is labeled in advance.

学習モデル1Mの生成は、上述のラベル付けした教師あり学習方法には限られない。図3は、学習モデル1Mの生成方法の他の一例を示すフローチャートである。図3のフローチャートに示した処理手順の内、図2のフローチャートと共通する手順については同一のステップ番号を付して詳細な説明を省略する。図3のフローチャートでは、1つの取り付け状態、または1台の人力駆動車に関する情報に基づいて処理部10が処理を実行する。処理部10は、多様な人力駆動車または多様な取り付け状態の1つ1つに対し、以下の処理をそれぞれ実行する。 The generation of the learning model 1M is not limited to the above-labeled supervised learning method. FIG. 3 is a flowchart showing another example of the method of generating the learning model 1M. Among the processing procedures shown in the flowchart of FIG. 3, the procedures common to the flowchart of FIG. 2 are given the same step numbers and detailed description thereof will be omitted. In the flowchart of FIG. 3, the processing unit 10 executes the processing based on the information regarding one mounting state or one human-powered vehicle. The processing unit 10 executes the following processing for each of various human-powered vehicles or various mounting states.

処理部10は、1つの取り付け状態について、ステップS103からステップS105で取得した入力情報を、学習中のNNへ与える(ステップS121)。処理部10は、入力情報をNNへ与えた場合にNNから出力される取り付け状態の全体としての適否の情報、例えばスコアを特定する(ステップS123)。処理部10は、特定された適否の情報と、予め付与されている判定結果とを比較し評価値を導出する(ステップS125)。評価値は例えばステップS123で特定されたスコアと判定結果に対応するスコアとの誤差である。誤差のパラメータは例えば角度、距離、寸法、方位、または重さである。 The processing unit 10 gives the input information acquired in steps S103 to S105 to the learning NN for one mounting state (step S121). The processing unit 10 specifies the suitability information as a whole of the mounting state output from the NN when the input information is given to the NN, for example, the score (step S123). The processing unit 10 compares the specified suitability information with the determination result given in advance and derives an evaluation value (step S125). The evaluation value is, for example, an error between the score specified in step S123 and the score corresponding to the determination result. The parameters of the error are, for example, angle, distance, dimension, bearing, or weight.

処理部10は、導出した評価値を中間層へ与えて中間層におけるパラメータを更新し(ステップS127)、処理を終了する。ステップS127では、導出された誤差が最小になるようにパラメータが更新される。ステップS127によってステップS101からステップS105によって取得された入力情報をNNに入力した場合に出力される出力情報に対する評価の教師データによって調整され、学習モデル1Mが生成される。 The processing unit 10 gives the derived evaluation value to the intermediate layer, updates the parameters in the intermediate layer (step S127), and ends the processing. In step S127, the parameters are updated so that the derived error is minimized. The learning model 1M is generated by adjusting with the teacher data of the evaluation for the output information output when the input information acquired in step S101 to step S105 is input to the NN in step S127.

処理部10は、図2のフローチャートに示した処理手順、または図3のフローチャートに示した処理手順のいずれかによって学習モデル1Mを生成してもよいし、いずれの処理手順をも実行してもよい。いずれの処理手順をも実行する場合、処理部10は例えば、図2のフローチャートに示した手順で初期的に学習モデル1Mを生成し、生成された学習モデル1Mの中間層におけるパラメータを、図3のフローチャートに示した処理手順によって調整し、再更新するとよい。 The processing unit 10 may generate the learning model 1M by either the processing procedure shown in the flowchart of FIG. 2 or the processing procedure shown in the flowchart of FIG. 3, or may execute any of the processing procedures. Good. When any of the processing procedures is executed, for example, the processing unit 10 initially generates the learning model 1M by the procedure shown in the flowchart of FIG. 2, and sets the parameters in the intermediate layer of the generated learning model 1M in FIG. It is advisable to adjust and re-update according to the processing procedure shown in the flowchart of.

図4は、学習モデル1Mの概要を示す図である。学習モデル1Mは、人力駆動車の部品に関する入力情報を入力する入力層31と、人力駆動車の部品の取り付け状態に対する適否に関する出力情報を出力する出力層32とを備える。学習モデル1Mは、入力情報が入力された場合に適否を出力するように教師データによって学習済みのパラメータを有する中間層33を備える。入力層31に、部品に関する入力情報が入力された場合、学習済みパラメータによって中間層33で演算が行なわれ、出力層32から入力された部品の適否に関する出力情報が出力される。 FIG. 4 is a diagram showing an outline of the learning model 1M. The learning model 1M includes an input layer 31 for inputting input information regarding parts of the human-powered vehicle, and an output layer 32 for outputting output information regarding suitability for the mounting state of the parts of the human-powered vehicle. The learning model 1M includes an intermediate layer 33 having parameters trained by teacher data so as to output suitability when input information is input. When the input information regarding the component is input to the input layer 31, the intermediate layer 33 performs the calculation according to the learned parameters, and the output information regarding the suitability of the component input from the output layer 32 is output.

図4の具体例では入力層31には、部品の取り付け状態の適否に関し、異なる種別の部品それぞれの識別情報が与えられる。図4の具体例では部品の識別情報は、電動コンポーネントについての識別情報が与えられる。フロントディレーラ、リアディレーラ、ディスクロータが例示されている。 In the specific example of FIG. 4, the input layer 31 is given identification information for each of different types of components regarding the suitability of the component mounting state. In the specific example of FIG. 4, the identification information of the component is given the identification information of the electric component. A front derailleur, a rear derailleur, and a disc rotor are exemplified.

入力層31には、車体情報が与えられる。車体情報は、上述したようにフレーム、フロントフォーク、ハンドル、ステム、およびシートポストそれぞれのサイズ、種類、および品番を含む。 Vehicle body information is given to the input layer 31. The vehicle body information includes the size, type, and part number of each of the frame, front fork, handlebar, stem, and seatpost as described above.

入力層31には、ユーザの身体情報が与えられる。身体情報は、身長、および体重を含む。身体情報は他に、脚の長さ、手の長さ、または性別であってもよい。 The physical information of the user is given to the input layer 31. Physical information includes height and weight. Physical information may also be leg length, hand length, or gender.

図4の具体例は、部品の識別情報、車体情報、および身体情報全てを入力層31に与える構成である。しかしながら、出力装置1における処理は、全てを与える構成に限らない。部品の識別情報、車体情報、および身体情報の一部のみであってもよい。適否の対象に応じて、入力される情報が区別されてもよい。例えば、リアディレーラの取り付けに関する適否の情報を出力する学習モデル1Mの場合には、フレームの種類、長さ、およびフロントディレーラの品番を入力するというように区別されてもよい。 A specific example of FIG. 4 is a configuration in which all of the component identification information, the vehicle body information, and the physical information are given to the input layer 31. However, the processing in the output device 1 is not limited to the configuration of giving everything. It may be only a part of the identification information, the vehicle body information, and the physical information of the part. The information to be input may be distinguished according to the object of suitability. For example, in the case of the learning model 1M that outputs the suitability information regarding the mounting of the rear derailleur, the frame type, the length, and the part number of the front derailleur may be input.

このように生成された学習モデル1Mは、以下の部品の取り付け状態の提案処理に利用される。図5は、取り付け状態の提案に関する処理手順の一例を示すフローチャートである。取り付け状態の提案は、ユーザが用いる端末装置2がメンテナンスアプリプログラム2Pを実行し、メンテナンスを開始した場合に開始される。 The learning model 1M generated in this way is used for proposing the mounting state of the following parts. FIG. 5 is a flowchart showing an example of a processing procedure related to the proposal of the mounting state. The proposal of the mounting state is started when the terminal device 2 used by the user executes the maintenance application program 2P and starts the maintenance.

端末装置2の処理部20は、メンテナンスアプリプログラム2Pに基づいてユーザの人力駆動車についての情報の入力画面にて、入力を受け付ける(ステップS201)。処理部20は、入力画面への入力に基づいて、メンテナンス対象の人力駆動車に取り付けられている、またはこれから組み立てられる人力駆動車の部品の識別情報、車体情報、およびユーザの身体情報を受け付ける(ステップS203)。 The processing unit 20 of the terminal device 2 accepts the input on the input screen of the information about the user's human-powered vehicle based on the maintenance application program 2P (step S201). Based on the input to the input screen, the processing unit 20 receives identification information, vehicle body information, and physical information of the user of the parts of the human-powered vehicle that are attached to or will be assembled from the human-powered vehicle to be maintained ( Step S203).

処理部20は、受け付けた部品の識別情報、車体情報、およびユーザの身体情報を含む判定依頼を通信部24から出力装置1へ向けて送信する(ステップS205)。 The processing unit 20 transmits a determination request including the received component identification information, vehicle body information, and user's physical information from the communication unit 24 to the output device 1 (step S205).

出力装置1は、通信部14によって判定依頼を受信し(ステップS131)、処理部10は、受信した判定依頼から人力駆動車に取り付けられる部品の識別情報を取得する(ステップS133)。処理部10は、判定依頼から人力駆動車の車体に関する情報を取得する(ステップS135)。車体の情報は、人力駆動車のフレーム、フロントフォーク、ハンドル、ステム、およびシートポストそれぞれのサイズ、種類、および品番のいずれかである。処理部10は、判定依頼から人力駆動車のユーザの身体情報を取得する(ステップS137)。ステップS137において身体情報とは、ユーザの体重、身長、脚の長さ、および腕の長さ等のいずれか1つを少なくとも含む。 The output device 1 receives a determination request by the communication unit 14 (step S131), and the processing unit 10 acquires identification information of a component attached to the human-powered vehicle from the received determination request (step S133). The processing unit 10 acquires information on the vehicle body of the human-powered vehicle from the determination request (step S135). Body information is one of the size, type, and part number of each of the frame, front forks, handles, stems, and seatposts of a man-powered vehicle. The processing unit 10 acquires the physical information of the user of the human-powered vehicle from the determination request (step S137). In step S137, the physical information includes at least one of the user's weight, height, leg length, arm length, and the like.

ステップS135およびステップS137の処理は、いずれか一方のみであってもよい。つまり、学習モデル1Mに入力されるべき情報は、車体情報および身体情報の両方であってもよいし、いずれか一方のみであってもよい。 The processing of step S135 and step S137 may be performed by only one of them. That is, the information to be input to the learning model 1M may be both vehicle body information and physical information, or may be only one of them.

出力装置1の処理部10は、ステップS133,S135,S137で取得した入力情報を、学習モデル1Mへ与える(ステップS139)。処理部10は、入力情報を学習モデル1Mに与えた場合に学習モデル1Mから出力される取り付け状態の全体としての適否の情報、例えばスコアを特定する(ステップS141)。 The processing unit 10 of the output device 1 gives the input information acquired in steps S133, S135, and S137 to the learning model 1M (step S139). When the input information is given to the learning model 1M, the processing unit 10 specifies the suitability information as a whole of the mounting state output from the learning model 1M, for example, the score (step S141).

処理部10は、ステップS133で取得した部品の識別情報に基づいて、対象の部品に対応する説明書データを記憶部12から読み出し(ステップS143)、ステップS135で取得した車体情報に基づいて、使用される車体に関連する説明書データを記憶部12から読み出す(ステップS145)。処理部10は、身体情報に基づいて、体格別に推奨される部品の説明書データを読み出してもよい。 The processing unit 10 reads out the manual data corresponding to the target part from the storage unit 12 based on the component identification information acquired in step S133 (step S143), and uses it based on the vehicle body information acquired in step S135. The instruction manual data related to the vehicle body is read from the storage unit 12 (step S145). The processing unit 10 may read out the instruction manual data of the parts recommended for each physique based on the physical information.

処理部10は、ステップS141で特定した適否の情報と、ステップS143およびステップS145で読み出した説明書データとを通信部14から判定依頼元の端末装置2へ送信する(ステップS147)。 The processing unit 10 transmits the suitability information specified in step S141 and the instruction manual data read in steps S143 and S145 from the communication unit 14 to the terminal device 2 of the determination request source (step S147).

端末装置2では、通信部24から適否の情報と説明書データとを受信し(ステップS207)、処理部20は受信した適否の情報を表示部26に表示させる(ステップS209)。処理部20は、受信した情報に基づいて適否を判断し(ステップS211)、適と判断された場合には(S211:YES)、処理をそのまま終了する。 The terminal device 2 receives the suitability information and the instruction manual data from the communication unit 24 (step S207), and the processing unit 20 causes the display unit 26 to display the received suitability information (step S209). The processing unit 20 determines suitability based on the received information (step S211), and if it is determined to be appropriate (S211: YES), the processing unit 20 ends the processing as it is.

ステップS211にて不適と判断された場合(S211:NO)、処理部20はステップS207で受信した説明書データに基づいて部品の取り付け方の見本を表示部26に表示させ(ステップS213)、処理を終了する。 When it is determined in step S211 that it is unsuitable (S211: NO), the processing unit 20 displays a sample of how to attach the parts on the display unit 26 based on the instruction manual data received in step S207 (step S213), and processes. To finish.

処理部20は、ステップS211の判断に拘わらず、部品の取り付け方の見本を表示部26に表示するようにしてもよい。 The processing unit 20 may display a sample of how to attach the parts on the display unit 26 regardless of the determination in step S211.

図6および図7は、端末装置2にて表示される画面例を示す図である。ユーザが端末装置2を使用してメンテナンスアプリプログラム2Pを選択し起動させた場合、処理部20は、メンテナンスアプリプログラム2Pに基づいて、部品の取り付け状態に関し、入力情報を受け付ける入力画面261を表示部26に表示する。入力画面261は図6に示すように、部品の識別情報のコンポーネント毎の選択画面263、車体情報の選択画面265、身体情報の選択画面267を含む。入力画面261は、適否の判定依頼を送信するための送信ボタン269を含む。送信ボタン269が選択された場合、処理部20は、選択画面263,265,267で受け付けた情報を含む判定依頼を通信部24から送信する(S205)。選択画面267ではなく自由入力欄であってもよい。 6 and 7 are diagrams showing an example of a screen displayed on the terminal device 2. When the user selects and activates the maintenance application program 2P using the terminal device 2, the processing unit 20 displays an input screen 261 for receiving input information regarding the mounting state of the parts based on the maintenance application program 2P. It is displayed on 26. As shown in FIG. 6, the input screen 261 includes a component-specific selection screen 263 for component identification information, a vehicle body information selection screen 265, and a physical information selection screen 267. The input screen 261 includes a transmission button 269 for transmitting a suitability determination request. When the send button 269 is selected, the processing unit 20 transmits a determination request including the information received on the selection screens 263, 265 and 267 from the communication unit 24 (S205). It may be a free input field instead of the selection screen 267.

図7は、判定依頼に対応する適否の情報を表示する提案画面271の例を示している。図7に示すように、提案画面271には、適否の結果と共に、取り付け方の説明書データへのリンク273が含まれている。リンク273が選択されると、説明書、つまり適切な取り付け方の提案が表示部26に表示される。また図7に示すように、提案画面271には、適否の結果と共に、推奨する部品を示しており、部品の交換に関する情報を含むとよい。 FIG. 7 shows an example of a proposal screen 271 that displays suitability information corresponding to a determination request. As shown in FIG. 7, the proposal screen 271 includes a link 273 to instruction manual data on how to install, along with a result of suitability. When link 273 is selected, instructions, i.e. suggestions for proper mounting, are displayed on the display 26. Further, as shown in FIG. 7, the proposal screen 271 shows the recommended parts together with the result of suitability, and may include information on replacement of parts.

上述したように、学習済みの学習モデル1Mは、人工知能ソフトウエアの一部であるメンテナンスアプリプログラム20Pのプログラムモジュールとしての利用が想定される。本開示の学習モデル1Mは上述したように、処理部10および記憶部12を備える出力装置1における端末装置2との連携処理で用いられる。 As described above, the trained learning model 1M is expected to be used as a program module of the maintenance application program 20P which is a part of the artificial intelligence software. As described above, the learning model 1M of the present disclosure is used in the cooperative processing with the terminal device 2 in the output device 1 including the processing unit 10 and the storage unit 12.

このようにして、学習モデル1Mに基づいて取り付け状態に関する多様な情報、部品を識別する情報、車体の種類またはサイズに関する情報、乗り手であるユーザの身体に応じた出力情報が出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。 In this way, various information about the mounting state, information for identifying parts, information about the type or size of the vehicle body, and output information according to the body of the user who is the rider are output based on the learning model 1M, and are output information. It is possible to propose an appropriate mounting state of the parts based on it.

(第2実施形態)
図8は、第2実施形態の出力装置1および端末装置2の構成を示すブロック図である。第2実施形態における出力装置1は、記憶部12に学習モデル12Mを記憶する。学習モデル12Mは、適否の対象の部品別に学習される。学習モデル12Mは、取り付け状態に関する入力情報として、人力駆動車を撮像した静止画像データまたは動画像データを入力する。端末装置2は、処理部20、記憶部22、通信部24、表示部26、および操作部28の他に、撮像部29を備える。撮像部29は、撮像素子を含み、処理部20の指示に基づいて静止画像または動画像を撮像し、撮像により得られるデータを出力するデバイスである。
(Second Embodiment)
FIG. 8 is a block diagram showing the configurations of the output device 1 and the terminal device 2 of the second embodiment. The output device 1 in the second embodiment stores the learning model 12M in the storage unit 12. The learning model 12M is trained for each component to be suitable or unsuitable. The learning model 12M inputs still image data or moving image data obtained by imaging a human-powered vehicle as input information regarding the mounting state. The terminal device 2 includes an imaging unit 29 in addition to the processing unit 20, the storage unit 22, the communication unit 24, the display unit 26, and the operation unit 28. The image pickup unit 29 is a device that includes an image pickup element, captures a still image or a moving image based on an instruction from the processing unit 20, and outputs data obtained by the imaging.

出力装置1および端末装置2の構成と、学習モデル12Mの生成方法、学習モデル12Mの内容、学習モデル12Mに基づく取り付け状態の適否の情報の出力方法に関する処理手順以外は、実施の形態1と同様である。したがって、実施の形態2の構成のうち、実施の形態1と共通する構成については同一の符号を付して詳細な説明を省略する。 Same as the first embodiment except for the configuration of the output device 1 and the terminal device 2, the method of generating the learning model 12M, the content of the learning model 12M, and the processing procedure regarding the output method of the information on the suitability of the mounting state based on the learning model 12M. Is. Therefore, among the configurations of the second embodiment, the configurations common to the first embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

図9は、第2実施形態における学習モデル12Mの生成方法の一例を示すフローチャートである。第2実施形態においても出力装置1は、NNを用いた教師ありの深層学習アルゴリズムによって部品の取り付け状態に関する出力情報を出力する学習モデル12Mを生成する。 FIG. 9 is a flowchart showing an example of a method of generating the learning model 12M in the second embodiment. Also in the second embodiment, the output device 1 generates a learning model 12M that outputs output information regarding the mounting state of the component by a supervised deep learning algorithm using NN.

処理部10は、生成を開始する前に、教師データとなる情報を収集し、記憶部12に記憶しておく。教師データは、人力駆動車の部品の取り付け状態を撮像した静止画像データ、または動画像データである入力情報に、撮像されている取り付け状態に対する適否の判定結果が付与された情報群である。これらの情報群は、人力駆動車または部品のメーカにより収集され、適切または不適切であると判定された取り付け状態の人力駆動車の情報である。静止画像データ、または動画像データは、人力駆動車の販売店、組み立て工場または試験場で収集される。静止画像データ、または動画像データは、対象となる部品の種別に分類されている。入力情報は、静止画像データ、または動画像データに加え、第1実施形態で示した部品の識別情報、車体情報、またはユーザの身体情報を含んでもよい。 Before starting the generation, the processing unit 10 collects information to be teacher data and stores it in the storage unit 12. The teacher data is a group of information in which the input information, which is the still image data or the moving image data obtained by capturing the mounting state of the parts of the human-powered vehicle, is given the determination result of suitability for the mounted mounting state being imaged. These pieces of information are information on a man-powered vehicle in a mounted state that has been collected by the manufacturer of the man-powered vehicle or component and has been determined to be appropriate or inappropriate. Still image data or moving image data is collected at a dealer, an assembly plant or a test site of a human-powered vehicle. The still image data or the moving image data is classified into the types of target parts. In addition to the still image data or the moving image data, the input information may include the component identification information, the vehicle body information, or the user's physical information shown in the first embodiment.

処理部10は、部品別に以下の生成処理を実行する。処理部10は例えば、フロントディレーラを撮像したものとして分類されている静止画像データ、または動画像データを教師データとして以下の処理を行なう。 The processing unit 10 executes the following generation processing for each part. For example, the processing unit 10 performs the following processing using still image data or moving image data classified as an image of the front derailleur as teacher data.

処理部10は、記憶部12に記憶された人力駆動車の部品の取り付け状態に関し、対象の部品を選択する(ステップS151)。部品を取り付けた人力駆動車を撮像した静止画像データおよび動画像データの少なくともいずれか1つを取得する(ステップS153)。静止画像データ、または動画像データは、人力駆動車全体を撮像したデータであってもよいが、取り付け状態の適否の判定の対象を拡大して撮像したデータでもよい。 The processing unit 10 selects a target part with respect to the mounting state of the parts of the human-powered vehicle stored in the storage unit 12 (step S151). At least one of the still image data and the moving image data obtained by imaging the human-powered vehicle to which the parts are attached is acquired (step S153). The still image data or the moving image data may be data obtained by imaging the entire human-powered vehicle, but may also be data obtained by enlarging the target for determining the suitability of the mounting state.

処理部10は、静止画像、または動画像を撮像した対象の人力駆動車に取り付けられている部品の識別情報を取得する(ステップS155)。ステップS155では処理部10は例えば、フロントディレーラの品番または型名を取得する。処理部10は、車体情報を取得し(ステップS157)、ユーザの身体情報を取得する(ステップS159)。ステップS155,S157,S159の処理は、いずれも省略されてもよいし、いずれか1つ、またはいずれか2つが実行されてもよい。 The processing unit 10 acquires identification information of a part attached to the target human-powered vehicle for which a still image or a moving image is captured (step S155). In step S155, the processing unit 10 acquires, for example, the product number or model name of the front derailleur. The processing unit 10 acquires vehicle body information (step S157) and acquires physical information of the user (step S159). The processes of steps S155, S157, and S159 may be omitted, or any one or two of them may be executed.

処理部10は、ステップS153からステップS159で取得した入力情報に、予め与えられた適否の判定結果のラベルを付与することで教師データを作成する(ステップS161)。 The processing unit 10 creates teacher data by adding a label of a suitability determination result given in advance to the input information acquired in steps S153 to S159 (step S161).

処理部10は、記憶部12に記憶されている情報群のうち、対象の部品について所定の条件を満たす全ての情報群から教師データを作成したか否かを判断する(ステップS163)。所定の条件は例えば、同一の取り付け状態について入力情報を取得するに関し、教師データとなる情報数に対する上限である。ステップS163で全ての情報群から教師データを作成していないと判断された場合(S163:NO)、処理部10は処理をステップS153へ戻す。 The processing unit 10 determines whether or not the teacher data is created from all the information groups that satisfy the predetermined conditions for the target component among the information groups stored in the storage unit 12 (step S163). The predetermined condition is, for example, an upper limit on the number of information to be teacher data with respect to acquiring input information for the same mounting state. When it is determined in step S163 that the teacher data has not been created from all the information groups (S163: NO), the processing unit 10 returns the processing to step S153.

ステップS163で全ての情報群から教師データを作成したと判断された場合(S163:YES)、処理部10は作成した教師データをNNへ与える(ステップS165)。処理部10は、与えられた教師データによってNNの中間層における重みおよびバイアスの少なくとも一方を含むパラメータを学習し(ステップS167)、処理を終了する。 When it is determined in step S163 that the teacher data has been created from all the information groups (S163: YES), the processing unit 10 gives the created teacher data to the NN (step S165). The processing unit 10 learns a parameter including at least one of the weight and the bias in the NN mesosphere from the given teacher data (step S167), and ends the processing.

これにより、学習モデル12Mは、前記入力情報に対する評価を予めラベル付けした教師データに応じてNNの中間層におけるパラメータをコンピュータによって調整することで生成される。 As a result, the learning model 12M is generated by adjusting the parameters in the NN mesosphere by the computer according to the teacher data in which the evaluation for the input information is labeled in advance.

第2実施形態でも処理部10は、第1実施形態の図3のフローチャートで示したように、1つの静止画像データ、または動画像データを入力してNNから出力される適否に関する出力情報と、既知の判定結果との差分を求め、誤差伝播によって学習モデル12Mを生成してもよい。対応する処理手順についてフローチャートおよび詳細な説明は省略する。処理部10は、図9のフローチャートに示した処理手順の後に、誤差伝播によって中間層のパラメータを調整するようにしてもよい。 Also in the second embodiment, as shown in the flowchart of FIG. 3 of the first embodiment, the processing unit 10 inputs one still image data or moving image data and outputs information regarding suitability to be output from the NN, and A learning model 12M may be generated by obtaining a difference from a known determination result and propagating the error. The flowchart and detailed description of the corresponding processing procedure will be omitted. The processing unit 10 may adjust the parameters of the intermediate layer by error propagation after the processing procedure shown in the flowchart of FIG.

図10は、第2実施形態の学習モデル12Mの概要を示す図である。学習モデル12Mは、人力駆動車の部品に関する入力情報を入力する入力層31と、人力駆動車の部品の取り付け状態に対する適否に関する出力情報を出力する出力層32とを備える。学習モデル12Mは、入力情報が入力された場合に適否を出力するように教師データによって学習済みのパラメータを有する中間層33を備える。入力層31に、部品に関する入力情報が入力された場合、学習済みパラメータによって中間層33で演算が行なわれ、出力層32から入力された部品の適否に関する出力情報が出力される。 FIG. 10 is a diagram showing an outline of the learning model 12M of the second embodiment. The learning model 12M includes an input layer 31 for inputting input information regarding parts of the human-powered vehicle, and an output layer 32 for outputting output information regarding suitability for the mounting state of the parts of the human-powered vehicle. The learning model 12M includes an intermediate layer 33 having parameters trained by the teacher data so as to output suitability when input information is input. When the input information regarding the component is input to the input layer 31, the intermediate layer 33 performs the calculation according to the learned parameters, and the output information regarding the suitability of the component input from the output layer 32 is output.

図10の具体例では入力層31には、部品の取り付け状態の適否に関し、人力駆動車を撮像した静止画像データ、または動画像データが与えられる。入力層31には、静止画像データ、または動画像データとは別で、第1実施形態に示したような入力情報、例えば部品の識別情報、車体情報、およびユーザの身体情報のいずれか、または全部が与えられてもよい。 In the specific example of FIG. 10, the input layer 31 is provided with still image data or moving image data obtained by imaging a human-powered vehicle with respect to the suitability of the mounting state of the parts. In the input layer 31, apart from the still image data or the moving image data, any one of the input information as shown in the first embodiment, for example, component identification information, vehicle body information, and user's physical information, or All may be given.

図10の具体例は、静止画像データ、または動画像データと、部品の識別情報および車体情報とが入力される構成である。しかしながら、出力装置1における処理は、全てを与える構成に限らない。静止画像データ、または動画像データのみであってもよい。図10に示すように、静止画像データ、または動画像データの特徴量が出力された後の中間層33に、部品情報、および車体情報を入力するようにしてもよいし、静止画像データ、または動画像データは、事前に畳み込みニューラルネットワークを用いて特徴量を導出してから、入力層31に入力されてもよい。 A specific example of FIG. 10 is a configuration in which still image data or moving image data, component identification information, and vehicle body information are input. However, the processing in the output device 1 is not limited to the configuration of giving everything. It may be only still image data or moving image data. As shown in FIG. 10, the component information and the vehicle body information may be input to the intermediate layer 33 after the feature amount of the still image data or the moving image data is output, or the still image data or the still image data or the vehicle body information may be input. The moving image data may be input to the input layer 31 after the feature amount is derived in advance using a convolutional neural network.

学習モデル12Mの入力情報は、適否の対象に応じて、入力される情報が区別されてもよい。上述したように、フロントディレーラの取り付けに関する適否の情報を出力する学習モデル12Mを生成する場合には、フロントディレーラを撮像した静止画像データと部品の識別情報とを入力し、ディスクロータを対象とする場合にはディスクロータの静止画像データと車体情報とを入力するように区別されてもよい。 As the input information of the learning model 12M, the input information may be distinguished according to the object of suitability. As described above, when generating the learning model 12M that outputs the suitability information regarding the installation of the front derailleur, the still image data obtained by imaging the front derailleur and the component identification information are input, and the disc rotor is targeted. In some cases, the still image data of the disc rotor and the vehicle body information may be distinguished so as to be input.

図10では学習モデル12Mから、出力情報として、適切であるか、または不適切な場合にはいずれのタイプの不適切な状態であるのか夫々の確率が出力される。処理部10は、出力される適切である状態、タイプAの不適切な状態、タイプBの不適切な状態の確率によっていずれの状態であるかを特定する。学習モデル12Mはこれに限らず、適切なタイプGの状態、適切なタイプEの状態を含む複数の状態の内のいずれかの確率を出力してもよい。 In FIG. 10, the learning model 12M outputs the probabilities of which type of inappropriate state is appropriate or, in the case of inappropriate output information, which type is inappropriate. The processing unit 10 identifies which state is appropriate based on the probability of the output appropriate state, the type A inappropriate state, and the type B inappropriate state. The learning model 12M is not limited to this, and may output the probability of any one of a plurality of states including an appropriate type G state and an appropriate type E state.

このように学習された学習モデル12Mは、新たに静止画像データ、または動画像データが入力された場合に、画像に写っている部品の取り付け状態の適否に関する確率を出力する。 The learning model 12M learned in this way outputs a probability regarding the suitability of the mounting state of the parts shown in the image when the still image data or the moving image data is newly input.

学習モデル12Mは、以下の部品の取り付け状態の提案処理に利用される。図11および図12は、取り付け状態の提案に関する処理手順の一例を示すフローチャートである。取り付け状態の提案は、ユーザが用いる端末装置2がメンテナンスアプリプログラム2Pを実行し、メンテナンスを開始した場合に開始される。 The learning model 12M is used for proposing the mounting state of the following parts. 11 and 12 are flowcharts showing an example of a processing procedure related to the proposal of the mounting state. The proposal of the mounting state is started when the terminal device 2 used by the user executes the maintenance application program 2P and starts the maintenance.

端末装置2の処理部20は、メンテナンスアプリプログラム20Pに基づいて、ユーザの人力駆動車についての情報の入力画面にて、適否の判定対象の部品の静止画像または動画像の撮像を促す画面を表示部26に表示させる(ステップS221)。処理部20は、撮像開始の操作を操作部28で受け付けて、人力駆動車の静止画像、または動画像を撮像部29により撮像する(ステップS223)。ステップS223において処理部20は、予め撮像された静止画像、または動画像のデータを記憶部12から読み出してもよい。 Based on the maintenance application program 20P, the processing unit 20 of the terminal device 2 displays a screen that prompts the user to capture a still image or a moving image of a part to be judged as appropriate on the input screen of information about the human-powered vehicle. It is displayed on the unit 26 (step S221). The processing unit 20 receives the operation of starting imaging by the operation unit 28, and the image pickup unit 29 captures a still image or a moving image of the human-powered vehicle (step S223). In step S223, the processing unit 20 may read the data of the still image or the moving image captured in advance from the storage unit 12.

処理部20は、入力画面への入力に基づいて、撮像された人力駆動車に取り付けられている、またはこれから組み立てられる人力駆動車の部品の識別情報、および車体情報を受け付ける(ステップS225)。 The processing unit 20 receives the identification information of the parts of the human-powered vehicle attached to or will be assembled from the imaged human-powered vehicle and the vehicle body information based on the input to the input screen (step S225).

処理部20は、撮像された静止画像、または動画像のデータと、入力された部品の識別情報、および、車体情報を含む判定依頼を通信部24から出力装置1へ向けて送信する(ステップS227)。処理部20はステップS227において、撮像対象の部品の種別、フロントディレーラか、リアディレーラ、ディスクロータのいずれであるかを識別する情報を指定する。 The processing unit 20 transmits a determination request including the captured still image or moving image data, the input component identification information, and the vehicle body information from the communication unit 24 to the output device 1 (step S227). ). In step S227, the processing unit 20 specifies information for identifying the type of component to be imaged and whether it is a front derailleur, a rear derailleur, or a disc rotor.

出力装置1は、通信部14によって判定依頼を受信し(ステップS171)、処理部10は、判定依頼で指定された部品の種別に対応する学習モデル12Mを選択する(ステップS173)。 The output device 1 receives the determination request by the communication unit 14 (step S171), and the processing unit 10 selects the learning model 12M corresponding to the type of the component specified in the determination request (step S173).

処理部10は、受信した判定依頼から部品を取り付けた人力駆動車を撮像した静止画像データおよび動画像データの少なくともいずれか1つを取得する(ステップS175)。処理部10は、判定依頼からステップS173の静止画像データ、または動画像データに写っている人力駆動車の部品の識別情報を取得する(ステップS177)。処理部10は、判定依頼から人力駆動車の車体に関する情報を取得する(ステップS179)。 The processing unit 10 acquires at least one of the still image data and the moving image data obtained by imaging the human-powered vehicle to which the parts are attached from the received determination request (step S175). From the determination request, the processing unit 10 acquires the still image data in step S173 or the identification information of the parts of the human-powered vehicle shown in the moving image data (step S177). The processing unit 10 acquires information on the vehicle body of the human-powered vehicle from the determination request (step S179).

処理部10は、ステップS175で取得した静止画像データ、または動画像データと、部品の識別情報、および、車体に関する情報を、ステップS173で選択した学習モデル12Mへ与える(ステップS181)。処理部10は、学習モデル12Mから出力される部品の取り付け状態の適否の情報、例えば適切な状態、タイプAの不適切な状態、タイプBの不適切な状態のいずれであるかを特定する(ステップS183)。 The processing unit 10 gives the still image data or moving image data acquired in step S175, component identification information, and information on the vehicle body to the learning model 12M selected in step S173 (step S181). The processing unit 10 identifies information on the suitability of the mounting state of the component output from the learning model 12M, for example, whether it is an appropriate state, an inappropriate state of type A, or an inappropriate state of type B ( Step S183).

処理部10は、特定された状態に基づいて、適切な状態とするための提案情報を記憶部22から読み出し(ステップS185)、類似する画像データを取得する(ステップS187)。ステップS185で提案情報は、部品の種別毎に、適切な状態と特定された場合のメッセージ、タイプAの不適切な状態と特定された場合の適切な状態とするための提案内容、タイプBの不適切な状態と特定された場合の提案内容として記憶部12に記憶されている。類似する画像データは、静止画像データでもよいし、動画像データでもよい。 Based on the specified state, the processing unit 10 reads out the proposal information for setting the appropriate state from the storage unit 22 (step S185), and acquires similar image data (step S187). The proposal information in step S185 includes a message when it is identified as an appropriate state for each part type, a proposal content for making it an appropriate state when it is identified as an inappropriate state of type A, and a type B. It is stored in the storage unit 12 as the content of the proposal when it is identified as an inappropriate state. The similar image data may be still image data or moving image data.

処理部20はステップS183で特定された適否の情報と、ステップS185で読み出した提案情報及び類似する画像データとを通信部14から判定依頼元の端末装置2へ送信する(ステップS189)。 The processing unit 20 transmits the suitability information specified in step S183, the proposal information read in step S185, and similar image data from the communication unit 14 to the terminal device 2 of the determination request source (step S189).

類似する画像データの取得は必須ではなく、ステップS185で読み出した提案情報のみであってもよい。提案情報は、部品の取り付けに係る角度、基準点からの距離等を具体的に示すメッセージであってもよい。画像データと共に提案情報を送信する場合には、提案情報は数値のみであってもよく、画像データと共に距離、または角度を示す数値が表示されるとよい。 Acquisition of similar image data is not essential, and may be only the proposal information read in step S185. The proposed information may be a message that specifically indicates the angle related to the mounting of the component, the distance from the reference point, and the like. When the proposal information is transmitted together with the image data, the proposal information may be only a numerical value, and it is preferable that a numerical value indicating a distance or an angle is displayed together with the image data.

端末装置2では、通信部24から適否の情報、提案情報および画像データを受信し(ステップS229)、処理部20は受信した適否の情報を表示部26に表示させる(ステップS231)。処理部20は、受信した情報に基づいて適否を判断し(ステップS233)、適と判断された場合には(S233:YES)、処理をそのまま終了する。 The terminal device 2 receives suitability information, proposal information, and image data from the communication unit 24 (step S229), and the processing unit 20 causes the display unit 26 to display the received suitability information (step S231). The processing unit 20 determines suitability based on the received information (step S233), and if it is determined to be appropriate (S233: YES), ends the process as it is.

ステップS233にて不適と判断された場合(S233:NO)、処理部20はステップS223で撮像した静止画像に、ステップS229で受信した類似する画像データの画像を重畳させ、受信した提案情報を並べて表示部26に表示させ(ステップS235)、処理を終了する。ステップS223で動画像を撮像した場合、処理部20は、動画像データからいずれかのフレーム画像を抽出した静止画像データとする。 If it is determined to be unsuitable in step S233 (S233: NO), the processing unit 20 superimposes an image of similar image data received in step S229 on the still image captured in step S223, and arranges the received proposal information. It is displayed on the display unit 26 (step S235), and the process ends. When the moving image is captured in step S223, the processing unit 20 uses the still image data obtained by extracting any frame image from the moving image data.

処理部20は、ステップS233の判断に拘わらず、部品の取り付け方の見本として、類似するとして抽出された画像データに基づく画像と提案情報を表示部26に表示するようにしてもよい。 Regardless of the determination in step S233, the processing unit 20 may display the image based on the image data extracted as similar and the proposal information on the display unit 26 as a sample of how to attach the parts.

図13および図14は、第2実施形態の端末装置2にて表示される画面例を示す図である。ユーザが端末装置2を使用してメンテナンスアプリプログラム20Pを選択し起動させた場合、処理部20は、メンテナンスアプリプログラム20Pに基づいて、部品の取り付け状態に関し、取り付け状態の適否の判定対象の部品の撮像を促す入力画面281を表示部26に表示する(S221)。 13 and 14 are diagrams showing an example of a screen displayed on the terminal device 2 of the second embodiment. When the user selects and activates the maintenance application program 20P using the terminal device 2, the processing unit 20 determines the suitability of the mounting state of the component based on the maintenance application program 20P. The input screen 281 for prompting imaging is displayed on the display unit 26 (S221).

入力画面261は図13に示すように、部品の選択画面283、撮像ボタン285を含む。入力画面281は、車体情報の選択画面287も含む。入力画面281は、適否の判定依頼を送信するための送信ボタン289を含む。送信ボタン289が選択された場合、処理部20は、選択画面263,265,267で受け付けた情報を含む判定依頼を通信部24から送信する(S227)。選択画面283、287ではなくいずれの項目についても自由入力欄が含まれてもよい。 As shown in FIG. 13, the input screen 261 includes a component selection screen 283 and an image pickup button 285. The input screen 281 also includes a vehicle body information selection screen 287. The input screen 281 includes a transmission button 289 for transmitting a suitability determination request. When the send button 289 is selected, the processing unit 20 transmits a determination request including the information received on the selection screens 263, 265 and 267 from the communication unit 24 (S227). A free input field may be included for any item instead of the selection screens 283 and 287.

図14は、判定依頼に対応する適否の情報を表示する提案画面291の例を示している。図14に示すように、提案画面291には、適否の結果と共に、学習モデル12Mから出力される出力情報に基づいて前記人力駆動車における部品の取り付け状態に関し、提案情報が、部品を撮像した撮像画像上に重畳され、類似する画像データが並べて表示されている。 FIG. 14 shows an example of a proposal screen 291 that displays suitability information corresponding to a determination request. As shown in FIG. 14, on the proposal screen 291, the proposal information is an image of the component imaged with respect to the mounting state of the component in the human-powered vehicle based on the output information output from the learning model 12M together with the result of suitability. It is superimposed on the image and similar image data is displayed side by side.

このようにして、学習モデル12Mに基づいて取り付け状態に関し、部品の取り付け状態を撮像した画像データに応じた適否が出力され、部品の観察結果に応じた部品の適切な取り付け状態の提案が可能である。 In this way, regarding the mounting state based on the learning model 12M, the suitability according to the image data obtained by imaging the mounting state of the component is output, and it is possible to propose the appropriate mounting state of the component according to the observation result of the component. is there.

(第3実施形態)
図15は、第3実施形態における端末装置2の構成を示すブロック図である。第1実施形態および第2実施形態ではいずれも場合も、学習モデル1Mまたは学習モデル12Mに基づく取り付け状態の適否の情報は、部品メーカが管理する出力装置1から出力され、端末装置2へ送信された。これに対し第3実施形態では、ユーザが用いる端末装置2のメンテナンスアプリプログラム22Pが学習モデル2Mに基づく処理を実現する。出力装置1と通信することなく、端末装置2のみで処理を行なうことができる。第3実施形態における端末装置2は、記憶部22にメンテナンスアプリプログラム22Pと共に学習モデル2Mが記憶されており、メンテナンスアプリプログラム22Pに基づく処理以外は、第1実施形態または第2実施形態における端末装置2と同様である。したがって同様の構成には同一の符号を付して詳細な説明を省略する。
(Third Embodiment)
FIG. 15 is a block diagram showing the configuration of the terminal device 2 according to the third embodiment. In both the first embodiment and the second embodiment, the suitability information of the mounting state based on the learning model 1M or the learning model 12M is output from the output device 1 managed by the component manufacturer and transmitted to the terminal device 2. It was. On the other hand, in the third embodiment, the maintenance application program 22P of the terminal device 2 used by the user realizes the processing based on the learning model 2M. The processing can be performed only by the terminal device 2 without communicating with the output device 1. In the terminal device 2 according to the third embodiment, the learning model 2M is stored in the storage unit 22 together with the maintenance application program 22P, and the terminal device 2 according to the first embodiment or the second embodiment except for the processing based on the maintenance application program 22P. It is the same as 2. Therefore, the same reference numerals are given to the same configurations, and detailed description thereof will be omitted.

記憶部22に記憶されたメンテナンスアプリプログラム22Pおよび学習モデル2Mは、記憶媒体5に記憶されたメンテナンスアプリプログラム52Pおよび学習モデル50Mを読み出して記憶部22に複製されたものであってもよい。 The maintenance application program 22P and the learning model 2M stored in the storage unit 22 may be the ones in which the maintenance application program 52P and the learning model 50M stored in the storage medium 5 are read out and duplicated in the storage unit 22.

端末装置2による処理は、第1実施形態において出力装置1および端末装置2が協働して実行した処理と共通であるから、詳細な説明を省略する。 Since the processing by the terminal device 2 is common to the processing executed in cooperation with the output device 1 and the terminal device 2 in the first embodiment, detailed description thereof will be omitted.

このように端末装置2単体で学習モデル2Mに基づく取り付け状態の適否に基づく提案が可能である。 In this way, it is possible to make a proposal based on the suitability of the mounting state based on the learning model 2M with the terminal device 2 alone.

(第4実施形態)
第4実施形態では、出力装置4は、人力駆動車に搭載されるコンポーネントの制御ユニットとして適用される。図16は、第4実施形態の出力装置4が適用される人力駆動車Aの側面図である。人力駆動車Aは、電気エネルギーを用いて人力駆動車Aの推進をアシストするアシスト機構Cを含むロードバイクである。人力駆動車Aの構成は、任意に変更可能である。第1例では、人力駆動車Aはアシスト機構Cを含まない。第2例では、人力駆動車Aの種類は、シティサイクル、マウンテンバイク、または、クロスバイクである。第3例では、人力駆動車Aは、第1例および第2例の特徴を含む。
(Fourth Embodiment)
In the fourth embodiment, the output device 4 is applied as a control unit of a component mounted on a human-powered vehicle. FIG. 16 is a side view of the human-powered vehicle A to which the output device 4 of the fourth embodiment is applied. The human-powered vehicle A is a road bike including an assist mechanism C that assists the propulsion of the human-powered vehicle A by using electric energy. The configuration of the human-powered vehicle A can be arbitrarily changed. In the first example, the human-powered vehicle A does not include the assist mechanism C. In the second example, the type of the human-powered vehicle A is a city cycle, a mountain bike, or a cross bike. In the third example, the human-powered vehicle A includes the features of the first and second examples.

人力駆動車Aは、本体A1、ハンドルバーA2、前輪A3、後輪A4、フロントフォークA5、およびサドルA6を備える。人力駆動車Aは、駆動機構B、アシスト機構C、操作装置D、変速機E、ディスクロータG、ディスプレイHおよび出力装置4を備える。人力駆動車Aは、加速度センサS1、集音器S2を含む。本体A1は、フレームA12を備える。 The human-powered vehicle A includes a main body A1, a handlebar A2, front wheels A3, rear wheels A4, a front fork A5, and a saddle A6. The human-powered vehicle A includes a drive mechanism B, an assist mechanism C, an operation device D, a transmission E, a disc rotor G, a display H, and an output device 4. The human-powered vehicle A includes an acceleration sensor S1 and a sound collector S2. The main body A1 includes a frame A12.

駆動機構Bは、チェーンドライブ、ベルトドライブ、または、シャフトドライブによって人力駆動力を後輪A4へ伝達する。図1ではチェーンドライブの駆動機構Bを例示している。駆動機構Bは、クランクB1、第1スプロケット組立体B2、第2スプロケット組立体B3、チェーンB4、および、一対のペダルB5を含む。 The drive mechanism B transmits a human-powered driving force to the rear wheels A4 by a chain drive, a belt drive, or a shaft drive. FIG. 1 illustrates the drive mechanism B of the chain drive. The drive mechanism B includes a crank B1, a first sprocket assembly B2, a second sprocket assembly B3, a chain B4, and a pair of pedals B5.

第1スプロケット組立体B2は、第1回転中心軸心を有し、クランク軸B11と一体回転可能に連結される。第1スプロケット組立体B2は、1または複数のスプロケットB22を含む。クランク軸B11の回転中心軸心と第1スプロケット組立体B2の回転中心軸心は同軸である。 The first sprocket assembly B2 has a first rotation center axis and is integrally rotatably connected to the crankshaft B11. The first sprocket assembly B2 includes one or more sprockets B22. The center of rotation of the crankshaft B11 and the center of rotation of the first sprocket assembly B2 are coaxial.

第2スプロケット組立体B3は、第2回転中心軸心を有し、後輪A4のハブ(図示略)に回転可能に支持される。第2スプロケット組立体B3は、1または複数のスプロケットB31を含む。 The second sprocket assembly B3 has a second rotation center axis and is rotatably supported by a hub (not shown) of the rear wheels A4. The second sprocket assembly B3 includes one or more sprockets B31.

チェーンB4は、第1スプロケット組立体B2のいずれかのスプロケットB22および第2スプロケット組立体B3のいずれかのスプロケットB31に巻き掛けられる。一対のペダルB5に加えられる人力駆動力によってクランクB1が前転すると、第1スプロケット組立体B2がクランクB1とともに前転し、第1スプロケット組立体B2の回転がチェーンB4を介して第2スプロケット組立体B3に伝達されることで後輪A4が前転する。 The chain B4 is wound around any sprocket B22 of the first sprocket assembly B2 and any sprocket B31 of the second sprocket assembly B3. When the crank B1 is rotated forward by the human-powered driving force applied to the pair of pedals B5, the first sprocket assembly B2 is rotated forward together with the crank B1, and the rotation of the first sprocket assembly B2 is rotated through the chain B4 to the second sprocket assembly. The rear wheel A4 rotates forward by being transmitted to the solid B3.

アシスト機構Cは、人力駆動車Aの推進をアシストする。一例では、アシスト機構Cは、第1スプロケット組立体B2にトルクを伝達することによって人力駆動車Aの推進をアシストする。アシスト機構Cは電気モータを含む。アシスト機構Cは減速機を含んでいてもよい。アシスト機構Cは、人力駆動車Aの後輪A4に駆動力を伝達するチェーンB4を走行させる。アシスト機構Cは、チェーンB4の走行をアシストするための信号制御によって制御可能なコンポーネントの一部である。 The assist mechanism C assists the propulsion of the human-powered vehicle A. In one example, the assist mechanism C assists the propulsion of the human-powered vehicle A by transmitting torque to the first sprocket assembly B2. The assist mechanism C includes an electric motor. The assist mechanism C may include a speed reducer. The assist mechanism C runs a chain B4 that transmits a driving force to the rear wheels A4 of the human-powered vehicle A. The assist mechanism C is a part of a component that can be controlled by signal control for assisting the traveling of the chain B4.

操作装置Dは、ユーザが操作する操作部D1を含む。操作部D1の一例は、1または複数のボタンである。操作部D1は他の例では、ブレーキレバーであってよい。他の例において操作部D1はブレーキ操作を受け付けるのみならず、操作部D1にて、変速機Eに関する操作を受け付ける。ブレーキレバーを左右に倒す都度に、変速機Eにおける変速段数または変速比を変更することができる。操作装置Dは、操作部D1の操作に応じた信号を送受信できるように、コンポーネントと通信接続される。第1例では、操作装置Dは、通信線、または、PLC(Power Line Communication)が可能な電線によってコンポーネントと通信接続される。第2例では、操作装置Dは、無線通信が可能な無線通信ユニットによってコンポーネントと通信接続される。 The operation device D includes an operation unit D1 operated by the user. An example of the operation unit D1 is one or more buttons. In another example, the operation unit D1 may be a brake lever. In another example, the operation unit D1 not only accepts the brake operation, but also the operation unit D1 accepts the operation related to the transmission E. Each time the brake lever is tilted to the left or right, the number of gears or the gear ratio in the transmission E can be changed. The operation device D is communicatively connected to the component so that a signal corresponding to the operation of the operation unit D1 can be transmitted and received. In the first example, the operating device D is communicated with the component by a communication line or an electric wire capable of PLC (Power Line Communication). In the second example, the operating device D is communicated and connected to the component by a wireless communication unit capable of wireless communication.

変速機Eは種々の形態を取り得る。第1例では、変速機Eは、第2スプロケット組立体B3とチェーンB4との連結の状態を変速する外装変速機である。第2例では、変速機Eは、第1スプロケット組立体B2とチェーンB4との連結の状態を変速する外装変速機である。第3例では、変速機Eは、内装変速機である。第3例では、変速機Eの可動部は、内装変速機のスリーブおよび爪の少なくとも一方を含む。第4例では、変速機Eは、無段変速機である。第4例では、変速機Eの可動部は、無段変速機のボールプラネタリー(遊星転動体)を含む。変速機Eは、変速段数を変更するための信号制御によって制御可能なコンポーネントの一部である。 The transmission E can take various forms. In the first example, the transmission E is an external transmission that changes the state of connection between the second sprocket assembly B3 and the chain B4. In the second example, the transmission E is an external transmission that changes the state of connection between the first sprocket assembly B2 and the chain B4. In the third example, the transmission E is an internal transmission. In the third example, the moving part of the transmission E includes at least one of the sleeve and the claw of the internal transmission. In the fourth example, the transmission E is a continuously variable transmission. In the fourth example, the movable part of the transmission E includes a ball planetary (planetary rolling element) of the continuously variable transmission. The transmission E is a part of a component that can be controlled by signal control for changing the number of gears.

変速機Eは、フロントディレーラE1およびリアディレーラE2を含む。フロントディレーラE1は、フレームA12のシートチューブA121に取り付けられる。フロントディレーラE1は、チェーンガイド、駆動モータE11、および段数センサを備える。フロントディレーラE1は駆動モータE11によって、第1スプロケット組立体B2のスプロケットB22に掛かるチェーンB4のチェーンガイドをシフトアップおよびシフトダウン方向に駆動する。フロントディレーラE1は駆動モータE11によってチェーンガイドを、操作部D1に基づく操作装置Dからの変速指示、または図示しない制御ユニットからの自動変速指示に基づいていずれかの変速位置に位置決めする。 The transmission E includes a front derailleur E1 and a rear derailleur E2. The front derailleur E1 is attached to the seat tube A121 of the frame A12. The front derailleur E1 includes a chain guide, a drive motor E11, and a stage number sensor. The front derailleur E1 drives the chain guide of the chain B4 hooked on the sprocket B22 of the first sprocket assembly B2 in the upshift and downshift directions by the drive motor E11. The front derailleur E1 positions the chain guide by the drive motor E11 at any of the shifting positions based on the shifting instruction from the operating device D based on the operating unit D1 or the automatic shifting instruction from the control unit (not shown).

フロントディレーラE1のチェーンガイドは、組立のエンジニア、またはユーザ自身による取り付け時に位置決めされる。第4実施形態におけるフロントディレーラE1は、駆動モータE11によって、チェーンガイドを適切な位置とすることができる。 The chain guide of the front derailleur E1 is positioned during installation by the assembly engineer or the user himself. The front derailleur E1 in the fourth embodiment can position the chain guide at an appropriate position by the drive motor E11.

リアディレーラE2は、後輪A4のクランク軸の端部を支持するフレームA12の一部であるチェーンステーA17にディレーラハンガを介して取り付けられる。リアディレーラE2はチェーンガイド、駆動モータE21、および段数センサを備える。リアディレーラE2は駆動モータE21によって、第2スプロケット組立体B3のスプロケットB31に掛かるチェーンB4のチェーンガイドをシフトアップおよびシフトダウン方向に駆動する。リアディレーラE2は駆動モータE21によってチェーンガイドを、操作部D1に基づく操作装置Dからの変速指示、または図示しない制御ユニットからの自動変速指示に基づいていずれかの変速位置に位置決めする。 The rear derailleur E2 is attached to the chain stay A17, which is a part of the frame A12 that supports the end of the crankshaft of the rear wheel A4, via the derailleur hanger. The rear derailleur E2 includes a chain guide, a drive motor E21, and a stage number sensor. The rear derailleur E2 drives the chain guide of the chain B4 hooked on the sprocket B31 of the second sprocket assembly B3 in the upshift and downshift directions by the drive motor E21. The rear derailleur E2 positions the chain guide by the drive motor E21 at one of the shifting positions based on the shifting instruction from the operating device D based on the operating unit D1 or the automatic shifting instruction from the control unit (not shown).

リアディレーラE2のチェーンガイドは、組立のエンジニア、またはユーザ自身による取り付け時に位置決めされる。第4実施形態におけるリアディレーラE2は、駆動モータE21によって、チェーンガイドを適切な位置とすることができる。 The chain guide of the rear derailleur E2 is positioned during installation by the assembly engineer or the user himself. In the rear derailleur E2 in the fourth embodiment, the chain guide can be set to an appropriate position by the drive motor E21.

ディスクロータGは、ディスクブレーキを構成する部品であり、前輪A3および後輪A4の軸の周囲に設けられる。ディスクブレーキは操作部D1に基づく操作装置Dからの制動指示、または図示しない制御ユニットからの自動制動指示に基づいて動作する。ディスクロータGは、組立のエンジニア、またはユーザ自身による取り付け時に位置決めされる。転倒、接触、摩耗または消耗によってディスクロータGの位置に変動が起こり得る。 The disc rotor G is a component that constitutes a disc brake, and is provided around the shafts of the front wheels A3 and the rear wheels A4. The disc brake operates based on a braking instruction from the operating device D based on the operating unit D1 or an automatic braking instruction from a control unit (not shown). The disc rotor G is positioned during installation by an assembly engineer or the user himself. The position of the disc rotor G may fluctuate due to tipping, contact, wear or wear.

ディスプレイHは、乗り手であるユーザ向けにハンドルバーA2に取り付けられている。ディスプレイHは一例では、液晶ディスプレイである。ディスプレイHは他の例では、有機ELディスプレイである。ディスプレイHは、変速機Eとの通信により取得した変速段数を表示することができる。ディスプレイHは、出力装置4と接続されており、出力装置1から出力される情報を表示出力する。 The display H is attached to the handlebar A2 for the user who is a rider. The display H is, in one example, a liquid crystal display. The display H is, in another example, an organic EL display. The display H can display the number of gears acquired by communicating with the transmission E. The display H is connected to the output device 4 and displays and outputs the information output from the output device 1.

加速度センサS1は、フレームA12のシートチューブA121に取り付けられるフロントディレーラE1に内蔵されている。加速度センサS1は、フレームA12の振動に対応する加速度を示す信号を出力する。加速度センサS1は、フロントディレーラE1のみならずリアディレーラE2に内蔵されてよい。加速度センサS1は、ディスクロータGの近傍例えばフロントフォークA5に取り付けられてもよい。 The acceleration sensor S1 is built in the front derailleur E1 attached to the seat tube A121 of the frame A12. The acceleration sensor S1 outputs a signal indicating the acceleration corresponding to the vibration of the frame A12. The acceleration sensor S1 may be incorporated not only in the front derailleur E1 but also in the rear derailleur E2. The acceleration sensor S1 may be attached in the vicinity of the disc rotor G, for example, in the front fork A5.

集音器S2は、フロントディレーラE1に内蔵されている。集音器S2は周囲の音声を集音して出力する。集音器S2はマイクロフォンを含んでよい。フロントディレーラE1に内蔵された集音器S2は、フロントディレーラE1のチェーンガイドの駆動音、チェーンB4とチェーンガイドとの接触音、チェーンB4とスプロケットB22との間の接触音等を集音できる。 The sound collector S2 is built in the front derailleur E1. The sound collector S2 collects and outputs the surrounding sound. The sound collector S2 may include a microphone. The sound collector S2 built in the front derailleur E1 can collect the driving sound of the chain guide of the front derailleur E1, the contact sound between the chain B4 and the chain guide, the contact sound between the chain B4 and the sprocket B22, and the like.

集音器S2は、フロントディレーラE1に内蔵されるのみならず、リアディレーラE2にも内蔵されてよい。リアディレーラE2に内蔵された集音器S2は、リアディレーラE2のチェーンガイドの駆動音、チェーンB4とチェーンガイドとの接触音、チェーンB4とスプロケットB31との間の接触音等を集音できる。 The sound collector S2 may be incorporated not only in the front derailleur E1 but also in the rear derailleur E2. The sound collector S2 built in the rear derailleur E2 can collect the driving sound of the chain guide of the rear derailleur E2, the contact sound between the chain B4 and the chain guide, the contact sound between the chain B4 and the sprocket B31, and the like.

第4実施形態における出力装置4は、フロントディレーラE1と共にシートチューブA121に取り付けられている。出力装置4はフロントディレーラE1の駆動制御部を兼任してもよい。図17は、第4実施形態における出力装置4の構成を示すブロック図である。出力装置4は、フロントディレーラE1、リアディレーラE2、ディスクロータGを含むディスクブレーキシステム、ディスプレイHおよび操作装置Dと有線、または無線により通信接続されている。出力装置4は、処理部40、記憶部42、入出力部46を含む。 The output device 4 in the fourth embodiment is attached to the seat tube A121 together with the front derailleur E1. The output device 4 may also serve as a drive control unit for the front derailleur E1. FIG. 17 is a block diagram showing the configuration of the output device 4 according to the fourth embodiment. The output device 4 is connected to the front derailleur E1, the rear derailleur E2, the disc brake system including the disc rotor G, the display H, and the operating device D by wire or wirelessly. The output device 4 includes a processing unit 40, a storage unit 42, and an input / output unit 46.

処理部40は、CPUまたはGPUを用いたプロセッサであり、内蔵するROMおよびRAM等のメモリを用い、後述する学習アルゴリズムおよび人力駆動車Aに設けられるコンポーネントを制御して処理を実行する。 The processing unit 40 is a processor using a CPU or GPU, and uses a built-in memory such as a ROM and a RAM to control a learning algorithm described later and a component provided in the human-powered vehicle A to execute processing.

記憶部42は、例えばフラッシュメモリ等の不揮発性メモリを含む。記憶部42は、制御プログラム40Pおよび学習モデル40Mを記憶する。制御プログラム40Pおよび学習モデル40Mは、記憶媒体9に記憶された制御プログラム9Pおよび学習モデル90Mを読み出して記憶部42に複製されたものであってもよい。 The storage unit 42 includes a non-volatile memory such as a flash memory. The storage unit 42 stores the control program 40P and the learning model 40M. The control program 40P and the learning model 40M may be those in which the control program 9P and the learning model 90M stored in the storage medium 9 are read out and duplicated in the storage unit 42.

入出力部44は、人力駆動車Aに設けられたセンサS1,集音器S2、操作装置D、制御対象の変速機EのフロントディレーラE1の駆動モータE11、およびリアディレーラE2の駆動モータE21に接続される。処理部40は入出力部44によって、加速度センサS1から速度を示す信号を取得する。処理部40は入出力部44によって集音器S2から音声信号を取得する。入出力部44は、ディスプレイHへ表示用の信号を出力する。 The input / output unit 44 is connected to the sensor S1, the sound collector S2, the operating device D, the drive motor E11 of the front derailleur E1 of the transmission E to be controlled, and the drive motor E21 of the rear derailleur E2 provided in the human-powered vehicle A. Will be done. The processing unit 40 acquires a signal indicating the speed from the acceleration sensor S1 by the input / output unit 44. The processing unit 40 acquires an audio signal from the sound collector S2 by the input / output unit 44. The input / output unit 44 outputs a display signal to the display H.

このような人力駆動車Aに取り付けられた出力装置1は、学習モデル10Mを用いて、人力駆動車の部品の取り付け状態に関するセンサS1,集音器S2から取得できる入力情報に応じた取り付け状態の適否を取得し、駆動モータE11へ調整指示信号を出力するか、ディスプレイHへユーザに向けて調整指示を出力する。ディスクロータGについては、適否の取り付け、および消耗についてディスプレイHへユーザに向けて交換の提案を行なう。 The output device 1 attached to the human-powered vehicle A uses the learning model 10M and is in an attached state according to the input information that can be acquired from the sensors S1 and the sound collector S2 regarding the attachment state of the parts of the human-powered vehicle. The suitability is acquired and an adjustment instruction signal is output to the drive motor E11, or an adjustment instruction is output to the display H to the user. Regarding the disc rotor G, a proposal for replacement is made to the display H for the user regarding proper installation and wear.

第4実施形態における学習モデル40Mについて説明する。学習モデル40Mは、コンポーネントメーカによって予め生成される。図18は、第4実施形態における学習モデル40Mの生成方法の一例を示すフローチャートである。学習モデル40Mは、NNを用いた教師ありの深層学習アルゴリズムによって人力駆動車の部品の取り付け状態に関する入力情報に対する出力情報を出力するように生成される。 The learning model 40M in the fourth embodiment will be described. The learning model 40M is pre-generated by the component maker. FIG. 18 is a flowchart showing an example of a method of generating the learning model 40M in the fourth embodiment. The learning model 40M is generated by a supervised deep learning algorithm using NN to output output information for input information regarding the mounting state of parts of a human-powered vehicle.

教師データは、予め試験環境下で、またはモデルとなるユーザが実際に人力駆動車Aを運転している間に加速度センサS1および集音器S2から得られる入力情報と、その入力情報に対応する人力駆動車Aにおける部品の取り付け状態への適否の情報とを含む。教師データは、適否の判定の対象となる部品毎、例えばフロントディレーラE1についての教師データ、リアディレーラE2についての教師データ、および、ディスクロータGについての教師データと分別されている。加速度センサS1から得られる入力情報は、加速度センサS1から出力される信号に基づく振動に関するデータである。振動に関して振幅、周波数、またはパワー値が所定のサンプリング期間毎に収集される。集音器S2から得られる入力情報は、集音器S2にて集音される音声の音声データを含む。音声データは、音声の波形、振幅、または周波数の情報が所定のサンプリング期間毎に収集される。適否の判定の主体は、組立のエンジニア、メーカのエンジニア等である。判定の主体は、ユーザであってもよい。入力情報はその他、部品の識別情報、車体情報、および、ユーザの身体情報を含んでもよい。 The teacher data corresponds to the input information obtained from the acceleration sensor S1 and the sound collector S2 in advance under the test environment or while the model user is actually driving the human-powered vehicle A, and the input information. It includes information on suitability for the mounting state of parts in the human-powered vehicle A. The teacher data is separated for each component to be determined for suitability, for example, teacher data for the front derailleur E1, teacher data for the rear derailleur E2, and teacher data for the disc rotor G. The input information obtained from the acceleration sensor S1 is data related to vibration based on the signal output from the acceleration sensor S1. Amplitude, frequency, or power values for vibration are collected at predetermined sampling periods. The input information obtained from the sound collector S2 includes audio data of the sound collected by the sound collector S2. In the voice data, information on the waveform, amplitude, or frequency of the voice is collected at predetermined sampling periods. The main body of the suitability judgment is an assembly engineer, a manufacturer engineer, and the like. The subject of the determination may be the user. The input information may also include component identification information, vehicle body information, and user's physical information.

コンポーネントメーカが管理する生成装置は、収集済みの人力駆動車の部品の取り付け状態に関し、人力駆動車の駆動中に取得された振動に関するデータを取得する(ステップS301)。生成装置は、ステップS301で取得した振動に関するデータと同一の人力駆動車から同一のサンプリング期間に収集された音声データを取得する(ステップS303)。 The generator managed by the component maker acquires data on vibration acquired during driving of the human-powered vehicle with respect to the collected mounting state of the parts of the human-powered vehicle (step S301). The generator acquires voice data collected in the same sampling period from the same human-powered vehicle as the vibration data acquired in step S301 (step S303).

生成装置は、ステップS301およびステップS303で取得した入力情報に、予め与えられた対象部品の取り付け状態の適否の判定結果のラベルを付与することで教師データを作成する(ステップS305)。生成装置は、入力情報として振動データ及び音声データに加えて、取り付けられている対象部品の識別情報、車体情報、及びユーザの身体情報の内のいずれかを取得してもよい。 The generation device creates teacher data by adding a label of a determination result of suitability of the mounting state of the target component given in advance to the input information acquired in steps S301 and S303 (step S305). In addition to the vibration data and the voice data, the generator may acquire any of the identification information of the attached target part, the vehicle body information, and the physical information of the user as input information.

生成装置は、収集された全ての情報群から教師データを作成したか否かを判断する(ステップS307)。ステップS307で全ての情報群から教師データを作成していないと判断された場合(S307:NO)、生成装置は処理をステップS301へ処理を戻す。 The generator determines whether or not the teacher data has been created from all the collected information groups (step S307). If it is determined in step S307 that the teacher data has not been created from all the information groups (S307: NO), the generator returns the process to step S301.

全ての情報群から教師データを作成したと判断された場合(S307:YES)、生成装置は作成した教師データをNNへ与える(ステップS309)。生成装置は、与えられた教師データによってNNの中間層における重みおよびバイアスの少なくとも一方を含むパラメータを学習し(ステップS311)、処理を終了する。 When it is determined that the teacher data has been created from all the information groups (S307: YES), the generator gives the created teacher data to the NN (step S309). The generator learns the parameters including at least one of the weight and the bias in the mesosphere of the NN from the given teacher data (step S311), and ends the process.

図19は、第4実施形態における学習モデル40Mの概要を示す図である。学習モデル40Mは、人力駆動車Aの部品に関する入力情報を入力する入力層31と、人力駆動車Aの部品の取り付け状態に対する適否に関する出力情報を出力する出力層32とを備える。学習モデル40Mは、入力情報が入力された場合に適否を出力するように教師データによって学習済みのパラメータを有する中間層33を備える。入力層31に、部品に関する入力情報が入力された場合、学習済みパラメータによって中間層33で演算が行なわれ、出力層32から入力された部品の適否に関する出力情報が出力される。 FIG. 19 is a diagram showing an outline of the learning model 40M according to the fourth embodiment. The learning model 40M includes an input layer 31 for inputting input information regarding parts of the human-powered vehicle A, and an output layer 32 for outputting output information regarding suitability for the mounting state of the parts of the human-powered vehicle A. The learning model 40M includes an intermediate layer 33 having parameters trained by teacher data so as to output suitability when input information is input. When the input information regarding the component is input to the input layer 31, the intermediate layer 33 performs the calculation according to the learned parameters, and the output information regarding the suitability of the component input from the output layer 32 is output.

図19の具体例では入力層31には、対象の部品の取り付け状態の適否に関し、人力駆動車Aが駆動中に得られた振動に関するデータ、および音声データが与えられる。入力層31には、第1実施形態に示したような入力情報、例えば部品の識別情報、車体情報、およびユーザの身体情報のいずれか、または全部が与えられてもよい。 In the specific example of FIG. 19, the input layer 31 is provided with data regarding vibration obtained while the human-powered vehicle A is being driven and voice data regarding the suitability of the mounting state of the target component. The input layer 31 may be provided with any or all of the input information as shown in the first embodiment, for example, component identification information, vehicle body information, and user's physical information.

振動および音声は、図19に示すように、データそのものではなくサンプル期間中の変動をグラフ化した画像として入力されてもよい。 The vibration and sound may be input as a graphed image of fluctuations during the sample period rather than the data itself, as shown in FIG.

図19では、学習モデル40Mから出力情報として、適切であるか、または不適切な場合にはいずれのタイプの不適切な状態であるのか夫々の確率が出力される。処理部40は、出力される適切である状態、タイプAの不適切な状態、タイプBの不適切な状態の確率によっていずれの状態であるかを特定する。 In FIG. 19, the learning model 40M outputs, as output information, the probabilities of which type of inappropriate state is appropriate or, in the case of inappropriateness, which type of inappropriate state. The processing unit 40 identifies which state is appropriate based on the probability of the output appropriate state, the type A inappropriate state, and the type B inappropriate state.

このように学習された学習モデル40Mは、新たに加速度センサS1から得られる振動データ、および集音器S2から得られる音声データが入力された場合に、駆動中の人力駆動車Aにおける部品の取り付け状態の適否に関する状態の確率を出力する。 The learning model 40M learned in this way attaches parts to the driven human-powered vehicle A when vibration data newly obtained from the acceleration sensor S1 and voice data obtained from the sound collector S2 are input. Outputs the probability of the state regarding the suitability of the state.

図20は、第4実施形態における取り付け状態の適否の判断に関する処理手順の一例を示すフローチャートである。出力装置4は、予め記憶部42に記憶された学習モデル40Mを用い、人力駆動車Aが駆動中に逐次、サンプリング期間毎に以下の処理を実行する。 FIG. 20 is a flowchart showing an example of a processing procedure for determining the suitability of the mounting state in the fourth embodiment. The output device 4 uses the learning model 40M stored in the storage unit 42 in advance, and sequentially executes the following processing for each sampling period while the human-powered vehicle A is being driven.

出力装置4の処理部40は、加速度センサS1から、駆動中の人力駆動車Aから発せられる振動に関するデータを取得する(ステップS401)。処理部40はステップS401において、振動の振幅、周波数を取得してもよいし、パワー値を算出してもよい。 The processing unit 40 of the output device 4 acquires data on vibrations emitted from the driving human-powered vehicle A from the acceleration sensor S1 (step S401). In step S401, the processing unit 40 may acquire the amplitude and frequency of the vibration, or may calculate the power value.

処理部40は、集音器S2から、駆動中の人力駆動車Aで集音される音声データを取得する(ステップS403)。処理部40はステップS403において、集音器S2から得られる集音信号に対し所定のフィルター処理を施し、A/D変換後に取得してもよい。 The processing unit 40 acquires voice data collected by the driving human-powered vehicle A from the sound collector S2 (step S403). In step S403, the processing unit 40 may perform a predetermined filter process on the sound collecting signal obtained from the sound collector S2, and acquire the sound after A / D conversion.

処理部40は、ステップS401およびステップS403で取得した入力情報を、学習モデル40Mへ与える(ステップS405)。処理部40は、入力情報を学習モデル40Mに与えた場合に学習モデル40Mから出力される取り付け状態の適否の情報を特定する(ステップS407)。 The processing unit 40 gives the input information acquired in steps S401 and S403 to the learning model 40M (step S405). The processing unit 40 specifies the information on the suitability of the mounting state output from the learning model 40M when the input information is given to the learning model 40M (step S407).

処理部40は、ステップS407で特定された適否の情報に基づいて、対象部品の取り付け状態を調整するための情報を出力し(ステップS409)、処理を終了する。 The processing unit 40 outputs information for adjusting the mounting state of the target component based on the suitability information specified in step S407 (step S409), and ends the process.

ステップS409における出力は、アクチュエータである駆動モータE11または駆動モータE21への調整信号の出力であってもよいし、ディスプレイHへの表示出力であってもよい。 The output in step S409 may be the output of the adjustment signal to the drive motor E11 or the drive motor E21 which is an actuator, or may be the display output to the display H.

このようにして第4実施形態では、人力駆動車Aの駆動中に取得される振動データまたは音声データを学習モデル40Mに入力し、走行中の状態に応じた部品の適切な取り付け状態の提案が可能になる。 In this way, in the fourth embodiment, vibration data or voice data acquired while the human-powered vehicle A is being driven is input to the learning model 40M, and a proposal for an appropriate mounting state of parts according to the running state is proposed. It will be possible.

第4実施形態における出力装置4は、ユーザ向けにディスプレイHへ取り付け状態の適否に関する情報を表示出力した。出力装置4はユーザが所有する第3実施形態における端末装置2のような通信端末装置と通信する通信部を備え、通信部を介して端末装置2へ適否に関する情報、部品の取り付け状態の調整の提案、または交換の提案が可能な構成としてもよい。 The output device 4 in the fourth embodiment displays and outputs information regarding the suitability of the mounting state to the display H for the user. The output device 4 includes a communication unit that communicates with a communication terminal device such as the terminal device 2 in the third embodiment owned by the user, and information regarding suitability for the terminal device 2 and adjustment of a component attachment state via the communication unit. It may be configured so that a proposal or a proposal for exchange can be made.

第4実施形態では主に、フロントディレーラE1の近傍に設けられた出力装置4にてフロントディレーラE1における振動および音声を学習モデル40Mへ入力して適否の状態を出力した。勿論、取り付け状態の適否を特定する対象は、フロントディレーラE1に限られない。対象はリアディレーラE2およびギアに関する距離であってもよいし、フレームA12のヘッドチューブに取り付けられたステム、ステムに取り付けられるハンドルバーA2であってもよく、出力装置4は、それぞれの取り付け位置、角度の適否を特定してもよい。対象は、サドルA6のシートポストの位置、角度、サドルA6のシート部分の位置であってもよい。対象は、ブレーキパッドであってもよく、出力装置4は、ブレーキにおける振動、音声から形状の適否を特定してもよい。対象は、ボトムブラケット、ペダルの取り付け位置であってもよい。対象はその他、パーツの曲げ、欠陥を含んでもよい。これらの対象における適否を特定するために学習モデル4Mに入力される情報を取得するためのセンサは適宜選択され、センサ毎に適切な場所に取り付けられる。 In the fourth embodiment, mainly, the output device 4 provided in the vicinity of the front derailleur E1 inputs the vibration and the voice of the front derailleur E1 into the learning model 40M, and outputs the suitability state. Of course, the object for specifying the suitability of the mounting state is not limited to the front derailleur E1. The target may be the distance related to the rear derailleur E2 and the gear, the stem attached to the head tube of the frame A12, the handlebar A2 attached to the stem, and the output device 4 has its respective attachment positions and angles. You may specify the suitability of. The target may be the position and angle of the seat post of the saddle A6, and the position of the seat portion of the saddle A6. The target may be a brake pad, and the output device 4 may specify the suitability of the shape from vibration and voice in the brake. The target may be a bottom bracket or a pedal mounting position. The subject may also include bending of parts and defects. Sensors for acquiring information input to the learning model 4M in order to identify suitability in these objects are appropriately selected and attached to appropriate places for each sensor.

1,4…出力装置、10,40…処理部、11,42…記憶部、1P…学習プログラム、1M,12M,30M,32M,40M,50M,90M…学習モデル、2…端末装置、20…処理部、22…記憶部、24…通信部、26…表示部、28…操作部、2P…メンテナンスアプリプログラム、3,5,9…記憶媒体、A12…フレーム、A5…フロントフォーク、E…変速機、E1…フロントディレーラ、E2…リアディレーラ、E11,E21…駆動モータ、G…ディスクロータ、H…ディスプレイ、S1…加速度センサ、S2…集音器 1,4 ... Output device, 10,40 ... Processing unit, 11,42 ... Storage unit, 1P ... Learning program, 1M, 12M, 30M, 32M, 40M, 50M, 90M ... Learning model, 2 ... Terminal device, 20 ... Processing unit, 22 ... storage unit, 24 ... communication unit, 26 ... display unit, 28 ... operation unit, 2P ... maintenance application program, 3, 5, 9 ... storage medium, A12 ... frame, A5 ... front fork, E ... speed change Machine, E1 ... Front derailleur, E2 ... Rear derailleur, E11, E21 ... Drive motor, G ... Disc rotor, H ... Display, S1 ... Accelerometer, S2 ... Sound collector

Claims (15)

学習アルゴリズムによって学習された学習モデルを用いて、人力駆動車の部品の取り付け状態に関する入力情報に応じて前記取り付け状態に関する出力情報を出力する処理部を備える、出力装置。 An output device including a processing unit that outputs output information related to the mounted state according to input information related to the mounted state of parts of a human-powered vehicle by using a learning model learned by a learning algorithm. 前記入力情報は、前記部品の識別情報を含む、請求項1に記載の出力装置。 The output device according to claim 1, wherein the input information includes identification information of the component. 前記入力情報は、前記人力駆動車の車体に関する情報を含む、請求項1または2に記載の出力装置。 The output device according to claim 1 or 2, wherein the input information includes information about a vehicle body of the human-powered vehicle. 前記入力情報は、前記人力駆動車のユーザの身体情報を含む、請求項1から3のいずれか一項に記載の出力装置。 The output device according to any one of claims 1 to 3, wherein the input information includes physical information of a user of the human-powered vehicle. 前記入力情報は、前記人力駆動車の静止画像データおよび前記人力駆動車の動画像データの少なくともいずれか1つを含む、請求項1から4のいずれか一項に記載の出力装置。 The output device according to any one of claims 1 to 4, wherein the input information includes at least one of still image data of the human-powered vehicle and moving image data of the human-powered vehicle. 前記入力情報は、前記人力駆動車から発せられる振動に関するデータを含む、請求項1から5のいずれか一項に記載の出力装置。 The output device according to any one of claims 1 to 5, wherein the input information includes data on vibration generated from the human-powered vehicle. 前記振動に関するデータは、音声データを含む、請求項6に記載の出力装置。 The output device according to claim 6, wherein the data related to the vibration includes voice data. 前記出力情報は、前記取り付け状態の適否に関する適否情報を含む、請求項1から7のいずれか1項に記載の出力装置。 The output device according to any one of claims 1 to 7, wherein the output information includes suitability information regarding suitability of the mounting state. 前記出力情報は、前記取り付け状態に対する提案に関する提案情報を含む、請求項1から8のいずれか1項に記載の出力装置。 The output device according to any one of claims 1 to 8, wherein the output information includes proposal information regarding a proposal for the mounting state. 前記提案情報は、前記部品の取り付け方に関する情報、前記部品の調整に関する情報、および、前記部品の交換に関する情報の少なくともいずれか1つを含む、請求項9に記載の出力装置。 The output device according to claim 9, wherein the proposed information includes at least one of information on how to attach the component, information on adjusting the component, and information on replacement of the component. 人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、
前記入力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する、学習モデルの生成方法。
A learning model generation method in which a learning model is generated using a neural network configured to output output information regarding the mounting state according to input information regarding the mounting state of parts of a human-powered vehicle.
A method of generating a learning model in which parameters in the intermediate layer of the neural network are adjusted by a computer according to the teacher data labeled with the evaluation of the input information.
前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした追加教師データに基づいて、前記学習モデルをコンピュータによって更新する、請求項11に記載の学習モデルの生成方法。 The method for generating a learning model according to claim 11, wherein the learning model is updated by a computer based on additional teacher data labeled with an evaluation for the output information output by giving the input information to the neural network. 人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、
前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する、学習モデルの生成方法。
A learning model generation method in which a learning model is generated using a neural network configured to output output information regarding the mounting state according to input information regarding the mounting state of parts of a human-powered vehicle.
A method of generating a learning model in which parameters in an intermediate layer of the neural network are adjusted by a computer according to teacher data labeled with an evaluation for the output information output by giving the input information to the neural network.
人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように学習アルゴリズムによって学習された学習モデルに、取得した入力情報を与えて、
前記学習モデルから出力される出力情報に基づいて前記人力駆動車における部品の取り付け状態に関する情報を前記人力駆動車の画像を表示する表示部に前記画像に重畳および並べて表示する処理をコンピュータに実行させる、コンピュータプログラム。
The acquired input information is given to the learning model trained by the learning algorithm so as to output the output information regarding the mounting state according to the input information regarding the mounting state of the parts of the human-powered vehicle.
Based on the output information output from the learning model, the computer is made to execute a process of superimposing and arranging the information on the mounting state of the parts in the human-powered vehicle on the image on the display unit displaying the image of the human-powered vehicle. , Computer program.
請求項14に記載のコンピュータプログラムが記憶される記憶媒体。 A storage medium in which the computer program according to claim 14 is stored.
JP2019024853A 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium Active JP7337510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019024853A JP7337510B2 (en) 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024853A JP7337510B2 (en) 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium

Publications (2)

Publication Number Publication Date
JP2020131813A true JP2020131813A (en) 2020-08-31
JP7337510B2 JP7337510B2 (en) 2023-09-04

Family

ID=72277444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024853A Active JP7337510B2 (en) 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium

Country Status (1)

Country Link
JP (1) JP7337510B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171800A1 (en) * 2022-03-10 2023-09-14 本田技研工業株式会社 Management method for vehicle, management program for vehicle, storage medium, and information processing device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084237A (en) * 1999-09-14 2001-03-30 Yamaha Motor Co Ltd Real-time optimization method of controller with fuzzy inference system
JP2013032028A (en) * 2011-07-29 2013-02-14 Shimano Inc Bicycle electrical system diagnostic device
JP2014516007A (en) * 2011-06-08 2014-07-07 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and apparatus for identifying wear in an electric bicycle
WO2017073192A1 (en) * 2015-10-27 2017-05-04 株式会社カーメイト Roof carrier attachment condition detection system
WO2017168466A1 (en) * 2016-03-30 2017-10-05 川崎重工業株式会社 Setting assistance device for saddle-type vehicle
US20180046869A1 (en) * 2016-08-10 2018-02-15 Surround.IO Corporation Method and Apparatus for Providing Information Via Collected and Stored Metadata Using Inferred Attentional Model
JP2019012328A (en) * 2017-06-29 2019-01-24 株式会社 日立産業制御ソリューションズ Person action estimation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084237A (en) * 1999-09-14 2001-03-30 Yamaha Motor Co Ltd Real-time optimization method of controller with fuzzy inference system
JP2014516007A (en) * 2011-06-08 2014-07-07 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and apparatus for identifying wear in an electric bicycle
JP2013032028A (en) * 2011-07-29 2013-02-14 Shimano Inc Bicycle electrical system diagnostic device
WO2017073192A1 (en) * 2015-10-27 2017-05-04 株式会社カーメイト Roof carrier attachment condition detection system
WO2017168466A1 (en) * 2016-03-30 2017-10-05 川崎重工業株式会社 Setting assistance device for saddle-type vehicle
US20180046869A1 (en) * 2016-08-10 2018-02-15 Surround.IO Corporation Method and Apparatus for Providing Information Via Collected and Stored Metadata Using Inferred Attentional Model
JP2019012328A (en) * 2017-06-29 2019-01-24 株式会社 日立産業制御ソリューションズ Person action estimation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171800A1 (en) * 2022-03-10 2023-09-14 本田技研工業株式会社 Management method for vehicle, management program for vehicle, storage medium, and information processing device

Also Published As

Publication number Publication date
JP7337510B2 (en) 2023-09-04

Similar Documents

Publication Publication Date Title
JP7324632B2 (en) Output device, learning model generation method, and computer program
KR101864860B1 (en) Diagnosis method of automobile using Deep Learning
JP7545196B2 (en) CONTROL DEVICE, METHOD FOR GENERATING LEARNING MODEL, ... COMPUTER PROGRAM, AND STORAGE MEDIUM
US10370062B2 (en) Bicycle electronic system
JP2020006834A (en) Control data creation apparatus, component control apparatus, control data creation method, component control method, and computer program
JP7007244B2 (en) Creation device, component control device, creation method, component control method, computer program and learning model
TWI824985B (en) Interface for electric assist bicycle
US9969452B2 (en) Information collection system, information processing system, information display device, and non-transitory, tangible computer-readable medium
JP6989452B2 (en) Creation device, component control device, creation method, component control method, and computer program
JP7337510B2 (en) Output device, learning model generation method, computer program, and storage medium
JP2022176850A (en) Control device for human-powered vehicle
CN107364446A (en) The method for operating motor vehicles
CN116890948A (en) Control device for manually driven vehicle, learning method, control method for manually driven vehicle, and computer program
JP7626352B2 (en) Estimation device, control system, learning model, learning model generation method, computer program, and storage medium
JP2023085935A (en) Device, method, and system for processing human power drive vehicle information and computer program
JP7457458B2 (en) Output device, computer program, and storage medium
JP2020138557A (en) Judgment device, control system, communication system, learning model, learning model generation method, computer program, and storage medium
TWI790900B (en) Speed generation method for simulating riding
JP2003306189A (en) Correction device for pedaling of bicycle
JP2025081129A (en) Human-powered vehicle control device, human-powered vehicle control method, and computer program
WO2018037319A1 (en) Interface for vehicle with an electronic device
US12343613B2 (en) Simulation technology for use with a stationary bicycle training system
JP2020138556A (en) Determination device, control system, learning model, learning model creating method, computer program, and storage medium
CN103706079A (en) Bicycle with moving mouse
JP7626584B2 (en) EVALUATION DEVICE, CONTROL SYSTEM, NOTIFICATION SYSTEM, METHOD FOR GENERATING LEARNING MODEL, COMPUTER PROGRAM, AND STORAGE MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R150 Certificate of patent or registration of utility model

Ref document number: 7337510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150