[go: up one dir, main page]

JP7575664B2 - Image generating device, quality judgement device, image generating method, quality judgement method and program - Google Patents

Image generating device, quality judgement device, image generating method, quality judgement method and program Download PDF

Info

Publication number
JP7575664B2
JP7575664B2 JP2020179437A JP2020179437A JP7575664B2 JP 7575664 B2 JP7575664 B2 JP 7575664B2 JP 2020179437 A JP2020179437 A JP 2020179437A JP 2020179437 A JP2020179437 A JP 2020179437A JP 7575664 B2 JP7575664 B2 JP 7575664B2
Authority
JP
Japan
Prior art keywords
type
image
line
measurement result
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020179437A
Other languages
Japanese (ja)
Other versions
JP2022070395A (en
Inventor
拡太郎 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokohama Rubber Co Ltd
Original Assignee
Yokohama Rubber Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokohama Rubber Co Ltd filed Critical Yokohama Rubber Co Ltd
Priority to JP2020179437A priority Critical patent/JP7575664B2/en
Publication of JP2022070395A publication Critical patent/JP2022070395A/en
Application granted granted Critical
Publication of JP7575664B2 publication Critical patent/JP7575664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radiation Pyrometers (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本発明は、画像生成装置、良否判定装置、画像生成方法、良否判定方法及びプログラムに関する。 The present invention relates to an image generating device, a quality determination device, an image generating method, a quality determination method, and a program.

特許文献1には、学習済の識別器を用いて、タイヤの内面に沿った位置における高さ(凹凸方向の位置)を表す画素値が各画素に関連付けられた検査画像から、タイヤの欠陥の有無を判定する欠陥検査方法が記載されている。この検査画像は、光切断法の技術を用いて、光源から照射されたスリット光をカメラで撮影した画像に基づいて生成される。 Patent Document 1 describes a defect inspection method that uses a trained classifier to determine the presence or absence of defects in a tire from an inspection image in which each pixel is associated with a pixel value that represents the height (position in the unevenness direction) at a position along the inner surface of the tire. This inspection image is generated using light-section technology based on an image captured by a camera of a slit of light irradiated from a light source.

特許文献2には、学習済のニューラルネットワークを用いて対象物の形状の特徴抽出を行うことができる情報処理システムが記載されている。 Patent document 2 describes an information processing system that can extract features of the shape of an object using a trained neural network.

特開2019-27826号公報JP 2019-27826 A 特開2019-95827号公報JP 2019-95827 A

学習済の識別器を用いてタイヤの欠陥の有無の判定を行うにあたって、特許文献1に記載されているような高さだけでなく、温度などといった別の物理量についても各画素に関連付けられたマルチチャネルの入力画像を取得できれば、判定精度の向上が期待できる。 When using a trained classifier to determine whether or not a tire has a defect, if it were possible to obtain a multi-channel input image in which each pixel is associated with not only height as described in Patent Document 1, but also other physical quantities such as temperature, it is expected that the accuracy of the determination can be improved.

しかし、カメラ等のセンサ単体からは、各画素に所望の複数の物理量が関連付けられたマルチチャネルの入力画像を取得することは困難である。 However, it is difficult to obtain a multi-channel input image in which each pixel is associated with the desired multiple physical quantities from a single sensor such as a camera.

なお、上記のことは学習済の識別器を用いたタイヤの欠陥の有無の判定だけではなく、学習済の機械学習モデルを用いた所与の対象物の良否判定の場面など、学習済の機械学習モデルにマルチチャネルの画像が入力される場面において一般的にあてはまる。 The above not only applies to determining whether or not a tire has a defect using a trained classifier, but also generally applies to situations where multi-channel images are input to a trained machine learning model, such as determining whether a given object is good or bad using a trained machine learning model.

本発明は上記実情に鑑みてなされたものであって、その目的の一つは、学習済の機械学習モデルに入力される、各画素に所望の複数の物理量が関連付けられたマルチチャネルの入力画像を容易に生成できる画像生成装置、良否判定装置、画像生成方法、良否判定方法及びプログラムを提供することにある。 The present invention has been made in consideration of the above-mentioned circumstances, and one of its objectives is to provide an image generation device, a quality determination device, an image generation method, a quality determination method, and a program that can easily generate a multi-channel input image in which a desired number of physical quantities are associated with each pixel, and which is input to a trained machine learning model.

上記課題を解決するために、本発明に係る画像生成装置は、一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な、学習済の機械学習モデルに入力されるマルチチャネルの入力画像を生成する画像生成装置であって、前記第1種ライン画像を取得する第1種ライン画像取得手段と、前記第2種ライン画像を取得する第2種ライン画像取得手段と、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差に応じた、所与の画素配列に対応する、少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するライン画像選択手段と、前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、前記マルチチャネルの入力画像を生成する入力画像生成手段と、を含む。 In order to solve the above problem, the image generating device according to the present invention is an image generating device that generates multi-channel input images to be input to a trained machine learning model and is capable of communicating with a first line sensor that sequentially generates a first type of line image showing a first physical quantity at a measurement timing at a first time interval and a second line sensor that sequentially generates a second type of line image showing a second physical quantity at a measurement timing at a second time interval, the image generating device including a first type of line image acquisition means that acquires the first type of line image and a second type of line image acquisition means that acquires the second type of line image. a line image selection means for selecting at least one of the first type line images and at least one of the second type line images corresponding to a given pixel array according to a measurement timing difference determined based on the separation distance between the first line sensor and the second line sensor and the moving speed of the object; and an input image generation means for generating the multi-channel input image by associating, with each pixel included in the pixel array, the pixel value of a pixel included in the selected first type line image that corresponds to the pixel, and the pixel value of a pixel included in the selected second type line image that corresponds to the pixel.

本発明の一態様では、選択された前記第1種ライン画像、又は、選択された前記第2種ライン画像、のうちの少なくとも一方に対して、所与のサイズ変更率によるサイズ変更を実行するサイズ変更手段、をさらに含み、前記入力画像生成手段は、前記サイズ変更が実行された前記第1種ライン画像又は前記第2種ライン画像に基づいて、前記入力画像を生成する。 In one aspect of the present invention, the system further includes a resizing means for performing resizing at least one of the selected first type line image or the selected second type line image at a given resizing rate, and the input image generating means generates the input image based on the first type line image or the second type line image on which the resizing has been performed.

また、本発明の一態様では、前記第1の物理量、及び、前記第2の物理量は、それぞれ、温度、高さ、反射光量、凹凸、光沢、又は、色のうちの互いに異なるいずれかである。 In one aspect of the present invention, the first physical quantity and the second physical quantity are different from each other and are either temperature, height, amount of reflected light, unevenness, gloss, or color.

また、本発明に係る良否判定装置は、一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な良否判定装置であって、前記第1種ライン画像を取得する第1種ライン画像取得手段と、前記第2種ライン画像を取得する第2種ライン画像取得手段と、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差に応じた、所与の画素配列に対応する、少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するライン画像選択手段と、前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、マルチチャネルの入力画像を生成する入力画像生成手段と、前記入力画像を学習済の機械学習モデルに入力した際の当該機械学習モデルからの出力に基づいて、前記対象物の良否を判定する良否判定手段と、を含む。 The quality determination device according to the present invention is capable of communicating with a first line sensor that sequentially generates a first type of line image indicating a first physical quantity at a measurement timing at a first time interval, and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being spaced apart from each other along the direction of movement of an object moving at a constant speed in one direction, and the second line sensor is configured to acquire the first type of line image, acquire the second type of line image, and acquire the second type of line image based on a distance between the first line sensor and the second line sensor and the moving speed of the object. The system includes a line image selection means for selecting at least one of the first type line images and at least one of the second type line images corresponding to a given pixel array according to a measurement timing difference, an input image generation means for generating a multi-channel input image by associating, with each pixel included in the pixel array, a pixel value of a pixel included in the selected first type line image that corresponds to the pixel, and a pixel value of a pixel included in the selected second type line image that corresponds to the pixel, and a quality determination means for determining the quality of the object based on an output from a trained machine learning model when the input image is input to the machine learning model.

また、本発明に係る画像生成方法は、一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な画像生成装置が、学習済の機械学習モデルに入力されるマルチチャネルの入力画像を生成する画像生成方法であって、前記第1種ライン画像を取得するステップと、前記第2種ライン画像を取得するステップと、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差に応じた、所与の画素配列に対応する、少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するステップと、前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、前記マルチチャネルの入力画像を生成するステップと、を含む。 The image generating method according to the present invention is an image generating method in which an image generating device capable of communicating with a first line sensor that sequentially generates a first type of line image showing a first physical quantity at a measurement timing at a first time interval and a second line sensor that sequentially generates a second type of line image showing a second physical quantity at a measurement timing at a second time interval, which are arranged at a distance from each other along the movement direction of an object moving at a constant speed in one direction, generates a multi-channel input image to be input to a trained machine learning model, and includes a step of acquiring the first type of line image, a step of acquiring the second type of line image, a step of selecting at least one of the first type of line image and at least one of the second type of line image corresponding to a given pixel array according to a measurement timing difference determined based on the separation distance between the first line sensor and the second line sensor and the movement speed of the object, and a step of generating the multi-channel input image by associating each pixel included in the pixel array with a pixel value of a pixel included in the selected first type of line image that corresponds to the pixel and a pixel value of a pixel included in the selected second type of line image that corresponds to the pixel.

また、本発明に係る良否判定方法は、一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な良否判定装置が実行する良否判定方法であって、前記第1種ライン画像を取得するステップと、前記第2種ライン画像を取得するステップと、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差に応じた、所与の画素配列に対応する、少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するステップと、前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、マルチチャネルの入力画像を生成するステップと、前記入力画像を学習済の機械学習モデルに入力した際の当該機械学習モデルからの出力に基づいて、前記対象物の良否を判定するステップと、を含む。 The quality determination method according to the present invention is a quality determination method executed by a quality determination device capable of communicating with a first line sensor that sequentially generates a first type of line image indicating a first physical quantity at a measurement timing at a first time interval and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being spaced apart from each other along the moving direction of an object moving at a constant speed in one direction, the method including the steps of acquiring the first type of line image, acquiring the second type of line image, and determining a quality determination value based on the distance between the first line sensor and the second line sensor and the moving speed of the object. The method includes a step of selecting at least one of the first type line images and at least one of the second type line images corresponding to a given pixel array according to the measurement timing difference to be measured, a step of generating a multi-channel input image by associating, with each pixel included in the pixel array, the pixel value of a pixel included in the selected first type line image that corresponds to the pixel, and the pixel value of a pixel included in the selected second type line image that corresponds to the pixel, and a step of judging the quality of the object based on the output from a trained machine learning model when the input image is input to the machine learning model.

また、本発明に係るプログラムは、一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な、学習済の機械学習モデルに入力されるマルチチャネルの入力画像を生成するコンピュータに、前記第1種ライン画像を取得する手順、前記第2種ライン画像を取得する手順、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差に応じた、所与の画素配列に対応する、少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択する手順、前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、前記マルチチャネルの入力画像を生成する手順、を実行させる。 The program according to the present invention causes a computer that generates multi-channel input images to be input to a trained machine learning model and that can communicate with a first line sensor that sequentially generates a first type of line image showing a first physical quantity at a measurement timing at a first time interval and a second line sensor that sequentially generates a second type of line image showing a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being spaced apart from each other along the moving direction of an object moving at a constant speed in one direction, to execute the steps of acquiring the first type of line image, acquiring the second type of line image, selecting at least one of the first type of line image and at least one of the second type of line image corresponding to a given pixel array according to a measurement timing difference determined based on the separation distance between the first line sensor and the second line sensor and the moving speed of the object, and generating the multi-channel input image by associating each pixel included in the pixel array with a pixel value of a pixel included in the selected first type of line image that corresponds to the pixel and a pixel value of a pixel included in the selected second type of line image that corresponds to the pixel.

また、本発明に係る別のプログラムは、一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔の測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔の測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能なコンピュータに、前記第1種ライン画像を取得する手順、前記第2種ライン画像を取得する手順、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差に応じた、所与の画素配列に対応する、少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択する手順、前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、マルチチャネルの入力画像を生成する手順、前記入力画像を学習済の機械学習モデルに入力した際の当該機械学習モデルからの出力に基づいて、前記対象物の良否を判定する手順、を実行させる。 In addition, another program according to the present invention causes a computer capable of communicating with a first line sensor that sequentially generates a first type of line image showing a first physical quantity at a measurement timing of a first time interval and a second line sensor that sequentially generates a second type of line image showing a second physical quantity at a measurement timing of a second time interval, which are arranged at a distance from each other along the movement direction of an object moving at a constant speed in one direction, to execute the following steps: acquiring the first type of line image; acquiring the second type of line image; selecting at least one of the first type of line image and at least one of the second type of line image corresponding to a given pixel array according to a measurement timing difference determined based on the separation distance between the first line sensor and the second line sensor and the movement speed of the object; generating a multi-channel input image by associating each pixel included in the pixel array with the pixel value of a pixel included in the selected first type of line image that corresponds to the pixel and the pixel value of a pixel included in the selected second type of line image that corresponds to the pixel; and judging the quality of the object based on the output from a machine learning model that has been trained when the input image is input to the machine learning model.

本発明の一実施形態に係る良否判定システムの構成の一例を示す図である。1 is a diagram showing an example of a configuration of a quality determination system according to an embodiment of the present invention; 対象物が搬送される様子の一例を模式的に示す図である。FIG. 10 is a diagram illustrating an example of a state in which an object is transported. 対象物が搬送される様子の一例を模式的に示す図である。FIG. 10 is a diagram illustrating an example of a state in which an object is transported. 対象物が搬送される様子の一例を模式的に示す図である。FIG. 10 is a diagram illustrating an example of a state in which an object is transported. 対象物が搬送される様子の一例を模式的に示す図である。FIG. 10 is a diagram illustrating an example of a state in which an object is transported. キャリブレーション処理において生成される、温度測定結果画像、高さ測定結果画像、及び、反射光量撮影結果画像の一例を示す図である。11A to 11C are diagrams showing examples of a temperature measurement result image, a height measurement result image, and a reflected light amount capture result image generated in the calibration process. 良否判定処理において生成される、温度測定結果画像、高さ測定結果画像、及び、反射光量撮影結果画像の一例を示す図である。11A to 11C are diagrams showing examples of a temperature measurement result image, a height measurement result image, and a reflected light amount photographing result image generated in the pass/fail determination process. 良否判定処理において生成される、温度測定結果画像、高さ測定結果画像、及び、反射光量撮影結果画像の一例を示す図である。11A to 11C are diagrams showing examples of a temperature measurement result image, a height measurement result image, and a reflected light amount photographing result image generated in the pass/fail determination process. 良否判定処理において生成される、温度測定結果画像、高さ測定結果画像、及び、反射光量撮影結果画像の一例を示す図である。11A to 11C are diagrams showing examples of a temperature measurement result image, a height measurement result image, and a reflected light amount photographing result image generated in the pass/fail determination process. 良否判定処理において生成される、温度測定結果画像、高さ測定結果画像、及び、反射光量撮影結果画像の一例を示す図である。11A to 11C are diagrams showing examples of a temperature measurement result image, a height measurement result image, and a reflected light amount photographing result image generated in the pass/fail determination process. 本発明の一実施形態に係る情報処理装置の機能の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of functions of an information processing device according to an embodiment of the present invention. 訓練データのデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of training data. 機械学習モデルの学習の一例を模式的に示す図である。FIG. 1 is a diagram illustrating an example of learning of a machine learning model. 学習済の機械学習モデルを用いた良否判定の一例を模式的に示す図である。FIG. 13 is a diagram illustrating an example of pass/fail determination using a trained machine learning model. 本発明の一実施形態に係る情報処理装置で行われる学習処理の流れの一例を示すフロー図である。10 is a flow diagram showing an example of the flow of a learning process performed by an information processing device according to an embodiment of the present invention. FIG. 本発明の一実施形態に係る良否判定システムで行われる良否判定処理の流れの一例を示すフロー図である。4 is a flow diagram showing an example of the flow of a quality determination process performed in a quality determination system according to an embodiment of the present invention. FIG.

以下、本発明の一実施形態について、図面を参照しながら説明する。 One embodiment of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施形態に係る良否判定システム1の構成の一例を示す図である。本実施形態に係る良否判定システム1には、例えば、情報処理装置10、搬送部12、エンコーダ14、温度ラインセンサ16、光切断ラインセンサ18が含まれる。 Figure 1 is a diagram showing an example of the configuration of a quality determination system 1 according to one embodiment of the present invention. The quality determination system 1 according to this embodiment includes, for example, an information processing device 10, a conveying unit 12, an encoder 14, a temperature line sensor 16, and a light cutting line sensor 18.

情報処理装置10は、例えば、パーソナルコンピュータなどのコンピュータである。図1に示すように情報処理装置10は、例えば、プロセッサ10a、記憶部10b、通信部10c、表示部10d、操作部10eを含んでいる。 The information processing device 10 is, for example, a computer such as a personal computer. As shown in FIG. 1, the information processing device 10 includes, for example, a processor 10a, a memory unit 10b, a communication unit 10c, a display unit 10d, and an operation unit 10e.

プロセッサ10aは、例えば情報処理装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 10a is, for example, a program-controlled device such as a CPU that operates according to a program installed in the information processing device 10.

記憶部10bは、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。 The storage unit 10b is, for example, a storage element such as a ROM or RAM, or a hard disk drive. The storage unit 10b stores programs executed by the processor 10a, etc.

通信部10cは、例えばネットワークボードなどの通信インタフェースである。本実施形態では、情報処理装置10は、通信部10cを介して、搬送部12、温度ラインセンサ16、及び、光切断ラインセンサ18と、通信可能になっている。 The communication unit 10c is a communication interface such as a network board. In this embodiment, the information processing device 10 is capable of communicating with the transport unit 12, the temperature line sensor 16, and the light cutting line sensor 18 via the communication unit 10c.

表示部10dは、例えば液晶ディスプレイ等の表示デバイスであって、プロセッサ10aの指示に従って各種の画像を表示する。 The display unit 10d is a display device such as a liquid crystal display, and displays various images according to instructions from the processor 10a.

操作部10eは、例えばキーボードやマウスなどといったユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ10aに出力する。 The operation unit 10e is a user interface such as a keyboard or mouse, which accepts user input and outputs a signal indicating the content of the input to the processor 10a.

なお、情報処理装置10は、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 The information processing device 10 may also include an optical disk drive that reads optical disks such as DVD-ROMs and Blu-ray (registered trademark) disks, a USB (Universal Serial Bus) port, etc.

搬送部12は、例えば、コンベアなどの搬送デバイスであり、図2A~図2Dに示すようにして、本実施形態に係る良否判別の対象となる対象物20を搬送する。本実施形態では、対象物20は特定の一方向に一定速度で搬送される。すなわち、本実施形態では、対象物20の搬送方向の自由度は1である。そのため、対象物20は、一方向に一定速度で移動することとなる。 The transport unit 12 is, for example, a transport device such as a conveyor, and transports the object 20 that is the subject of quality determination according to this embodiment, as shown in Figures 2A to 2D. In this embodiment, the object 20 is transported at a constant speed in one specific direction. In other words, in this embodiment, the degree of freedom of the transport direction of the object 20 is 1. Therefore, the object 20 moves at a constant speed in one direction.

本実施形態では例えば、図2A~図2Dに示すように、搬送部12は、情報処理装置10から受け付ける信号に応じて、対象物20を図2A~図2Dにおける左から右に向かう方向に一定速度で搬送する。そして本実施形態では、対象物20が、図2Aに示されている位置から、図2B、図2Cに示されている位置を経て、図2Dに示されている位置まで搬送される。 For example, in this embodiment, as shown in Figures 2A to 2D, the transport unit 12 transports the object 20 at a constant speed in a direction from left to right in Figures 2A to 2D in response to a signal received from the information processing device 10. In this embodiment, the object 20 is transported from the position shown in Figure 2A to the positions shown in Figures 2B and 2C, and then to the position shown in Figure 2D.

なお、本実施形態に係る対象物20の一例としては、タイヤが挙げられる。 An example of the object 20 in this embodiment is a tire.

本実施形態に係る温度ラインセンサ16は、例えば線上の複数の位置における温度が測定可能な、赤外線ラインセンサ等のラインセンサである。 The temperature line sensor 16 in this embodiment is a line sensor, such as an infrared line sensor, that can measure temperatures at multiple positions on a line.

本実施形態に係る光切断ラインセンサ18は、例えば線上の複数の位置における高さが測定可能なセンサデバイスである。例えば、光切断ラインセンサ18は、カメラ18aと、線状のスリットレーザ光を照射するレーザ光源18bと、を備えている。そして、光切断ラインセンサ18は、光切断法を用いて、カメラ18aによって撮影された画像内における、レーザ光源18bによって照射されたレーザ光が写る位置に基づいて、線上の複数の位置における高さを測定できるようになっている。 The light cutting line sensor 18 according to this embodiment is a sensor device capable of measuring heights at multiple positions on a line, for example. For example, the light cutting line sensor 18 includes a camera 18a and a laser light source 18b that emits linear slit laser light. The light cutting line sensor 18 is capable of measuring heights at multiple positions on the line using a light cutting method based on the position at which the laser light emitted by the laser light source 18b appears in the image captured by the camera 18a.

本実施形態では、搬送部12によって搬送される対象物20の上方に、複数のラインセンサ(ここでは例えば、温度ラインセンサ16、及び、光切断ラインセンサ18)が、対象物20の移動方向に沿って互いに離間して配置されている。 In this embodiment, multiple line sensors (here, for example, a temperature line sensor 16 and a light cutting line sensor 18) are arranged spaced apart from each other above the object 20 being transported by the transport unit 12 along the direction of movement of the object 20.

本実施形態では、温度ラインセンサ16において温度センサが並んで配置されているライン方向が、対象物20の移動方向(温度ラインセンサ16の走査方向)と垂直となるようにして、温度ラインセンサ16が設置される。また、本実施形態では、光切断ラインセンサ18において光源が並んで配置されている方向が、対象物20の移動方向(光切断ラインセンサ18の走査方向)と垂直となるようにして、光切断ラインセンサ18が設置される。 In this embodiment, the temperature line sensor 16 is installed so that the line direction in which the temperature sensors are arranged in a row in the temperature line sensor 16 is perpendicular to the movement direction of the object 20 (the scanning direction of the temperature line sensor 16). Also, in this embodiment, the light section line sensor 18 is installed so that the direction in which the light sources are arranged in a row in the light section line sensor 18 is perpendicular to the movement direction of the object 20 (the scanning direction of the light section line sensor 18).

そして、図2Bに示すように、温度ラインセンサ16によるセンシング位置を対象物20が通過する際に、温度ラインセンサ16によって、対象物20の表面温度が走査(スキャン)される。 Then, as shown in FIG. 2B, when the object 20 passes the sensing position of the temperature line sensor 16, the surface temperature of the object 20 is scanned by the temperature line sensor 16.

また、図2Cに示すように、光切断ラインセンサ18によるセンシング位置を対象物20が通過する際に、光切断ラインセンサ18によって、対象物20の高さ(図2A~図2Dにおける上下方向における対象物20の位置)が走査(スキャン)される。本実施形態に係るタイヤ等の対象物20の表面には凹凸が形成されており、光切断ラインセンサ18によって、この凹凸が測定されることとなる。 As shown in FIG. 2C, when the object 20 passes the sensing position of the light section line sensor 18, the light section line sensor 18 scans the height of the object 20 (the position of the object 20 in the vertical direction in FIGS. 2A to 2D). In this embodiment, the object 20, such as a tire, has unevenness on its surface, and the light section line sensor 18 measures this unevenness.

また、本実施形態に係る光切断ラインセンサ18では、対象物20の高さに加え、カメラ18aによって撮影された画像内において照射されたレーザ光が写る位置の反射光量の測定も併せて行われる。反射光量の測定を併せて行うことによって、高さの測定だけでは得ることができない測定結果を得ることができる。 In addition to measuring the height of the object 20, the light-section line sensor 18 according to this embodiment also measures the amount of reflected light at the position where the irradiated laser light appears in the image captured by the camera 18a. By also measuring the amount of reflected light, it is possible to obtain measurement results that cannot be obtained by measuring the height alone.

本実施形態では、搬送部12によって対象物20が搬送された距離が、リニアエンコーダ等のエンコーダ14によって測定される。なお、エンコーダ14がロータリエンコーダであり、エンコーダ14によって、搬送部12を駆動させる駆動モータの回転角度が測定されるようにしてもよい。 In this embodiment, the distance traveled by the transport unit 12 to transport the object 20 is measured by an encoder 14 such as a linear encoder. The encoder 14 may be a rotary encoder, and the encoder 14 may measure the rotation angle of the drive motor that drives the transport unit 12.

そして本実施形態では、搬送部12によって対象物20が所定の搬送距離だけ搬送される度に、エンコーダ14によって生成される信号が、エンコーダ14から、温度ラインセンサ16、及び、光切断ラインセンサ18に入力される。ここで例えば、当該信号が、エンコーダ14から、信号分配器(図示せず)を経由して、温度ラインセンサ16、及び、光切断ラインセンサ18に入力されるようにしてもよい。 In this embodiment, each time the transport unit 12 transports the object 20 a predetermined transport distance, a signal generated by the encoder 14 is input from the encoder 14 to the temperature line sensor 16 and the light section line sensor 18. Here, for example, the signal may be input from the encoder 14 to the temperature line sensor 16 and the light section line sensor 18 via a signal distributor (not shown).

温度ラインセンサ16は、第1の時間間隔での測定タイミングで、温度の測定を実行し、当該測定の結果である温度を示す温度ライン画像を順次生成する。 The temperature line sensor 16 performs temperature measurements at the measurement timing of the first time interval, and sequentially generates temperature line images showing the temperatures resulting from the measurements.

ここで、温度ライン画像とは、温度ラインセンサ16による温度の1回の測定結果に基づいて生成される、当該測定結果を表す画素が一列に並ぶ画像である。温度ライン画像に含まれる各画素の画素値は、温度に対応付けられる。 Here, the temperature line image is an image in which pixels representing a single temperature measurement result are arranged in a line, generated based on the result of the single temperature measurement by the temperature line sensor 16. The pixel value of each pixel included in the temperature line image is associated with a temperature.

また、光切断ラインセンサ18は、第2の時間間隔での測定タイミングで、高さ及び反射光量の測定を実行し、当該測定の結果である高さを示す高さライン画像、及び、当該測定の結果である反射光量を示す反射光量ライン画像を順次生成する。 The light cutting line sensor 18 also measures the height and the amount of reflected light at the measurement timing at the second time interval, and sequentially generates a height line image showing the height resulting from the measurement, and a reflected light amount line image showing the amount of reflected light resulting from the measurement.

ここで、高さライン画像とは、光切断ラインセンサ18による高さの1回の測定結果に基づいて生成される、当該測定結果を表す画素が一列に並ぶ画像である。高さライン画像に含まれる各画素の画素値は、高さに対応付けられる。 Here, the height line image is an image in which pixels representing a single height measurement result are arranged in a line, generated based on the result of the single height measurement by the light cutting line sensor 18. The pixel value of each pixel included in the height line image is associated with a height.

また、反射光量ライン画像とは、光切断ラインセンサ18による反射光量の1回の測定結果に基づいて生成される、当該測定結果を表す画素が一列に並ぶ画像である。反射光量ライン画像に含まれる各画素の画素値は、反射光量に対応付けられる。 The reflected light amount line image is an image in which pixels representing a single measurement result of the reflected light amount by the light cutting line sensor 18 are arranged in a line, and is generated based on the result of the measurement. The pixel value of each pixel included in the reflected light amount line image is associated with the reflected light amount.

ここで例えば、温度ラインセンサ16は、エンコーダ14からの信号の入力に応じて、温度の測定を実行してもよい。また、光切断ラインセンサ18は、エンコーダ14からの信号の入力に応じて、高さ及び反射光量の測定を実行してもよい。このように本実施形態において、複数のラインセンサによる測定のタイミングは同期がとられていてもよい。そして、複数のラインセンサによる測定が同じタイミングで実行されてもよい。なお、以下の説明では、複数のラインセンサによる測定は同じタイミングで実行されることとする。 Here, for example, the temperature line sensor 16 may measure the temperature in response to a signal input from the encoder 14. Also, the light cutting line sensor 18 may measure the height and the amount of reflected light in response to a signal input from the encoder 14. Thus, in this embodiment, the timing of measurements by the multiple line sensors may be synchronized. Furthermore, measurements by the multiple line sensors may be performed at the same timing. Note that in the following description, measurements by the multiple line sensors are assumed to be performed at the same timing.

そして、本実施形態では、対象物20の測定結果を示す温度ライン画像、高さライン画像、及び、反射光量ライン画像に基づいて、当該対象物20の良否判定が実行される。 In this embodiment, a pass/fail judgment of the object 20 is performed based on the temperature line image, height line image, and reflected light amount line image that show the measurement results of the object 20.

また、本実施形態では、対象物20の良否判定を行うにあたって、キャリブレーション処理が事前に行われる。以下、キャリブレーション処理について説明する。 In addition, in this embodiment, a calibration process is performed beforehand to determine whether the target object 20 is good or bad. The calibration process is described below.

キャリブレーション処理では、例えば、キャリブレーション用の物体(以下、キャリブレーション用オブジェクトと呼ぶ。)が上述の対象物20と同様に一方向に一定速度で移動する。そして、キャリブレーション用オブジェクトの測定結果を示す複数のライン画像(ここでは例えば、複数の温度ライン画像、複数の高さライン画像、及び、複数の反射光量ライン画像)が生成される。 In the calibration process, for example, an object for calibration (hereinafter referred to as a calibration object) moves in one direction at a constant speed, similar to the target object 20 described above. Then, multiple line images (here, for example, multiple temperature line images, multiple height line images, and multiple reflected light amount line images) showing the measurement results of the calibration object are generated.

そして、本実施形態では、このようにして生成されるライン画像に基づいて、測定結果画像が生成される。図3は、それぞれ、キャリブレーション用オブジェクトについての測定結果画像の一例である、温度測定結果画像30、高さ測定結果画像32、及び、反射光量測定結果画像34を示す図である。 In this embodiment, a measurement result image is generated based on the line image generated in this manner. Figure 3 shows a temperature measurement result image 30, a height measurement result image 32, and a reflected light amount measurement result image 34, which are examples of measurement result images for a calibration object.

本実施形態では例えば、温度ラインセンサ16によって生成される温度ライン画像が複数並んで配置された温度測定結果画像30が生成される。図3の例に示す温度測定結果画像30では、1回の温度の測定結果を表す画素が縦一列に並ぶ温度ライン画像が、測定タイミングが早いものから順に左から右に並んで配置されている。 In this embodiment, for example, a temperature measurement result image 30 is generated in which multiple temperature line images generated by the temperature line sensor 16 are arranged side by side. In the temperature measurement result image 30 shown in the example of FIG. 3, temperature line images in which pixels representing the results of one temperature measurement are arranged vertically are arranged from left to right in order of earliest measurement timing.

また、本実施形態では例えば、光切断ラインセンサ18によって生成される高さライン画像が複数並んで配置された高さ測定結果画像32が生成される。図3の例に示す温度測定結果画像30では、1回の高さの測定結果を表す画素が縦一列に並ぶ高さライン画像が、測定タイミングが早いものから順に左から右に並んで配置されている。 In addition, in this embodiment, for example, a height measurement result image 32 is generated in which multiple height line images generated by the light cutting line sensor 18 are arranged side by side. In the temperature measurement result image 30 shown in the example of Figure 3, height line images in which pixels representing one height measurement result are arranged vertically in a row are arranged from left to right in order of the earliest measurement timing.

また、本実施形態では例えば、光切断ラインセンサ18によって生成される反射光量ライン画像が複数並んで配置された反射光量測定結果画像34が生成される。図3の例に示す反射光量測定結果画像34では、1回の反射光量の測定結果を表す画素が縦一列に並ぶ反射光量ライン画像が、測定タイミングが早いものから順に左から右に並んで配置されている。 In addition, in this embodiment, for example, a reflected light amount measurement result image 34 is generated in which a plurality of reflected light amount line images generated by the light cutting line sensor 18 are arranged side by side. In the reflected light amount measurement result image 34 shown in the example of FIG. 3, the reflected light amount line images in which pixels representing the measurement results of one reflected light amount are arranged vertically in a row are arranged from left to right in order of the earliest measurement timing.

以下の説明では、それぞれの測定結果画像について、左上が原点であり、右方向がX軸正方向であり、下方向がY軸正方向であることとする。 In the following explanation, for each measurement result image, the upper left is the origin, the right direction is the positive X-axis direction, and the downward direction is the positive Y-axis direction.

また、図3には、測定結果画像内におけるキャリブレーション用オブジェクトの測定結果に相当する領域であるキャリブレーション領域が示されている。例えば、図3には、温度測定結果画像30内におけるキャリブレーション用オブジェクトの表面温度の測定結果に相当する領域である温度キャリブレーション領域36が示されている。本実施形態では例えば、温度測定結果画像30内における、所定の範囲内の画素値である画素を含む閉領域が温度キャリブレーション領域36として特定されるようになっている。なお、公知の画像認識技術を用いて温度測定結果画像30内における温度キャリブレーション領域36が特定されるようにしてもよい。 Figure 3 also shows a calibration area, which is an area in the measurement result image that corresponds to the measurement result of the calibration object. For example, Figure 3 shows a temperature calibration area 36, which is an area in the temperature measurement result image 30 that corresponds to the measurement result of the surface temperature of the calibration object. In this embodiment, for example, a closed area in the temperature measurement result image 30 that includes pixels whose pixel values are within a predetermined range is identified as the temperature calibration area 36. Note that the temperature calibration area 36 in the temperature measurement result image 30 may be identified using a known image recognition technique.

また、図3には、高さ測定結果画像32内におけるキャリブレーション用オブジェクトの高さの測定結果に相当する領域である高さキャリブレーション領域38が示されている。本実施形態では例えば、高さ測定結果画像32内における、所定の範囲内の画素値である画素を含む閉領域が高さキャリブレーション領域38として特定されるようになっている。なお、公知の画像認識技術を用いて高さ測定結果画像32内における高さキャリブレーション領域38が特定されるようにしてもよい。 FIG. 3 also shows a height calibration area 38, which is an area in the height measurement result image 32 that corresponds to the measurement result of the height of the calibration object. In this embodiment, for example, a closed area in the height measurement result image 32 that includes pixels whose pixel values are within a predetermined range is identified as the height calibration area 38. Note that the height calibration area 38 in the height measurement result image 32 may be identified using a known image recognition technique.

また、図3には、反射光量測定結果画像34内におけるキャリブレーション用オブジェクトの反射光量の測定結果に相当する領域である反射光量キャリブレーション領域40が示されている。本実施形態では例えば、反射光量測定結果画像34内における、所定の範囲内の画素値である画素を含む閉領域が反射光量キャリブレーション領域40として特定されるようになっている。なお、公知の画像認識技術を用いて反射光量測定結果画像34内における反射光量キャリブレーション領域40が特定されるようにしてもよい。 Figure 3 also shows a reflected light amount calibration area 40, which is an area in the reflected light amount measurement result image 34 that corresponds to the measurement result of the reflected light amount of the calibration object. In this embodiment, for example, a closed area in the reflected light amount measurement result image 34 that includes pixels whose pixel values are within a predetermined range is identified as the reflected light amount calibration area 40. Note that the reflected light amount calibration area 40 in the reflected light amount measurement result image 34 may be identified using a known image recognition technique.

本実施形態では、上述のように、搬送部12によってキャリブレーション用オブジェクトが所定の搬送距離だけ搬送される度に温度ラインセンサ16による測定と光切断ラインセンサ18による測定とが同期して行われる。そのため、温度キャリブレーション領域36、高さキャリブレーション領域38、及び、反射光量キャリブレーション領域40の横の画素数(幅)は、すべて同じとなる。図3の例では、この幅の画素数がwで表現されている。 In this embodiment, as described above, the temperature line sensor 16 and the light cutting line sensor 18 perform measurements synchronously each time the calibration object is transported a predetermined transport distance by the transport unit 12. Therefore, the number of horizontal pixels (width) of the temperature calibration area 36, the height calibration area 38, and the reflected light amount calibration area 40 are all the same. In the example of FIG. 3, the number of pixels in this width is represented by w.

そして、図2Bに示すように、温度ラインセンサ16の下をキャリブレーション用オブジェクトが通過したタイミングからしばらくして、図2Cに示すように、光切断ラインセンサ18の下を当該キャリブレーション用オブジェクトが通過する。そのため、図3に示すように、温度測定結果画像30内における温度キャリブレーション領域36の位置は、高さ測定結果画像32内における高さキャリブレーション領域38の位置よりも左となる。また、温度測定結果画像30内における温度キャリブレーション領域36の位置は、反射光量測定結果画像34内における反射光量キャリブレーション領域40の位置よりも左となる。 Then, a short time after the calibration object passes under the temperature line sensor 16 as shown in FIG. 2B, the calibration object passes under the light cutting line sensor 18 as shown in FIG. 2C. Therefore, as shown in FIG. 3, the position of the temperature calibration area 36 in the temperature measurement result image 30 is to the left of the position of the height calibration area 38 in the height measurement result image 32. Also, the position of the temperature calibration area 36 in the temperature measurement result image 30 is to the left of the position of the reflected light amount calibration area 40 in the reflected light amount measurement result image 34.

そして、キャリブレーション処理では、図3の例で示されている、温度キャリブレーション領域36の位置と、高さキャリブレーション領域38の位置との間の左右方向のずれの画素数Dが、シフト量Dとして特定される。なお、本実施形態では、温度キャリブレーション領域36の位置と、反射光量キャリブレーション領域40の位置との間の左右方向のずれの画素数もDである。 In the calibration process, the number of pixels D of the left-right shift between the position of the temperature calibration area 36 and the position of the height calibration area 38 shown in the example of FIG. 3 is identified as the shift amount D. Note that in this embodiment, the number of pixels of the left-right shift between the position of the temperature calibration area 36 and the position of the reflected light amount calibration area 40 is also D.

また、温度ラインセンサ16と光切断ラインセンサ18の解像度の違いにより、温度キャリブレーション領域36の縦方向の画素数は、高さキャリブレーション領域38及び反射光量キャリブレーション領域40の縦方向の画素数と異なっている。図3では、温度キャリブレーション領域36の縦方向の画素数がhで表現され、高さキャリブレーション領域38及び反射光量キャリブレーション領域40の縦方向の画素数がHで表現されている。 In addition, due to the difference in resolution between the temperature line sensor 16 and the light section line sensor 18, the number of vertical pixels in the temperature calibration area 36 is different from the number of vertical pixels in the height calibration area 38 and the reflected light amount calibration area 40. In FIG. 3, the number of vertical pixels in the temperature calibration area 36 is represented by h, and the number of vertical pixels in the height calibration area 38 and the reflected light amount calibration area 40 is represented by H.

そして、キャリブレーション処理では、この画素数h、及び、画素数Hに基づいて、サイズ変更率rが特定される。ここでは、例えば、h/Hの値がサイズ変更率rとして特定される。 Then, in the calibration process, the resize ratio r is determined based on the number of pixels h and the number of pixels H. Here, for example, the value of h/H is determined as the resize ratio r.

そして、本実施形態では、以上のようにしてキャリブレーション処理により特定される、シフト量D、及び、サイズ変更率rを示すキャリブレーションデータが、記憶部10bに記憶される。そして、このキャリブレーションデータを用いて、対象物20の良否判定が実行される。このキャリブレーションデータは、複数の対象物20のそれぞれの良否判定において共通して用いることができる。以下、良否判定処理について説明する。 In this embodiment, the calibration data indicating the shift amount D and the size change rate r determined by the calibration process as described above is stored in the storage unit 10b. This calibration data is then used to determine whether the object 20 is good or bad. This calibration data can be commonly used in determining whether each of the multiple objects 20 is good or bad. The quality determination process is described below.

対象物20の良否判定処理では、一方向に一定速度で移動する対象物20の測定結果を示す複数のライン画像(ここでは例えば、複数の温度ライン画像、複数の高さライン画像、及び、複数の反射光量ライン画像)が生成される。 In the process of determining whether the object 20 is good or bad, multiple line images (here, for example, multiple temperature line images, multiple height line images, and multiple reflected light amount line images) are generated that show the measurement results of the object 20 moving at a constant speed in one direction.

そして、本実施形態では、このようにして生成されるライン画像に基づいて、測定結果画像が生成される。図4Aは、それぞれ、対象物20についての測定結果画像の一例である、温度測定結果画像50、高さ測定結果画像52、及び、反射光量測定結果画像54を示す図である。 In this embodiment, a measurement result image is generated based on the line image generated in this manner. Figure 4A shows a temperature measurement result image 50, a height measurement result image 52, and a reflected light amount measurement result image 54, which are examples of measurement result images for the object 20.

また、図4Aには、測定結果画像内における対象物20の測定結果に相当する領域である対象物領域が示されている。例えば、図4Aには、温度測定結果画像50内における対象物20の表面温度の測定結果に相当する領域である温度対象物領域56が示されている。また、図4Aには、高さ測定結果画像52内における対象物20の高さの測定結果に相当する領域である高さ対象物領域58が示されている。また、図4Aには、反射光量測定結果画像54内における対象物20の反射光量の測定結果に相当する領域である反射光量対象物領域60が示されている。 Figure 4A also shows an object region that is an area corresponding to the measurement result of the object 20 in the measurement result image. For example, Figure 4A shows a temperature object region 56 that is an area corresponding to the measurement result of the surface temperature of the object 20 in the temperature measurement result image 50. Figure 4A also shows a height object region 58 that is an area corresponding to the measurement result of the height of the object 20 in the height measurement result image 52. Figure 4A also shows a reflected light amount object region 60 that is an area corresponding to the measurement result of the reflected light amount of the object 20 in the reflected light amount measurement result image 54.

図3を参照して説明したように、温度対象物領域56、高さ対象物領域58、及び、反射光量対象物領域60の横の画素数(幅)は、すべて同じとなる。 As explained with reference to FIG. 3, the number of horizontal pixels (width) of the temperature object area 56, the height object area 58, and the reflected light amount object area 60 are all the same.

そして、本実施形態では、キャリブレーションデータに基づいて、温度測定結果画像50、高さ測定結果画像52、及び、反射光量測定結果画像54の位置合わせが行われる。ここでは例えば、キャリブレーションデータが示すシフト量Dに基づいて、高さ測定結果画像52、及び、反射光量測定結果画像54を左右方向にシフトさせることによる、位置合わせが行われる。ここでは例えば、高さ測定結果画像52、及び、反射光量測定結果画像54について、左からD個のライン画像を削除することによる、位置合わせが行われる。図4Bには、この削除が行われた後の、高さ測定結果画像52、及び、反射光量測定結果画像54が示されている。なお、図4Bには、図4Aと同様の温度測定結果画像50も示されている。この削除により、温度対象物領域56、高さ対象物領域58、及び、反射光量対象物領域60のX座標値の範囲は同じになる。 In this embodiment, the temperature measurement result image 50, the height measurement result image 52, and the reflected light quantity measurement result image 54 are aligned based on the calibration data. For example, the height measurement result image 52 and the reflected light quantity measurement result image 54 are aligned by shifting them left and right based on the shift amount D indicated by the calibration data. For example, the height measurement result image 52 and the reflected light quantity measurement result image 54 are aligned by deleting D line images from the left. FIG. 4B shows the height measurement result image 52 and the reflected light quantity measurement result image 54 after this deletion. Note that FIG. 4B also shows a temperature measurement result image 50 similar to FIG. 4A. This deletion causes the ranges of the X coordinate values of the temperature object region 56, the height object region 58, and the reflected light quantity object region 60 to be the same.

そして、本実施形態では例えば、キャリブレーションデータが示すサイズ変更率rに基づいて、高さ測定結果画像32及び反射光量測定結果画像34について、縦方向の長さがr倍となるようサイズ変更(ここでは、縮小)される。このサイズ変更が行われた後の状況が、図4Cに示されている。このことにより、温度対象物領域56、高さ対象物領域58、及び、反射光量対象物領域60の縦方向の長さは同じになる。 In this embodiment, for example, based on the resizing rate r indicated by the calibration data, the height measurement result image 32 and the reflected light quantity measurement result image 34 are resized (here, reduced) so that their vertical lengths become r times larger. The situation after this resizing is shown in FIG. 4C. As a result, the vertical lengths of the temperature object region 56, the height object region 58, and the reflected light quantity object region 60 become the same.

そして、本実施形態では例えば、図4Cに示されている、温度測定結果画像50、高さ測定結果画像52、及び、反射光量測定結果画像54のそれぞれについて、X座標値の範囲が共通する部分が切り出される。例えば、図4Cに示すX座標値がx1以上x2以下である部分が切り出される。このようにして切り出された温度測定結果画像50、高さ測定結果画像52、及び、反射光量測定結果画像54が、図4Dに示されている。 In this embodiment, for example, for each of the temperature measurement result image 50, the height measurement result image 52, and the reflected light quantity measurement result image 54 shown in FIG. 4C, the portions having a common range of X coordinate values are cut out. For example, the portions shown in FIG. 4C having X coordinate values of x1 or more and x2 or less are cut out. The temperature measurement result image 50, the height measurement result image 52, and the reflected light quantity measurement result image 54 cut out in this manner are shown in FIG. 4D.

ここで例えば、いずれか1つの測定結果画像について、当該測定結果画像内における対象物領域が特定されるようにしてもよい。例えば、図4Cに示す、温度測定結果画像50内における温度対象物領域56が特定されるようにしてもよい。ここで例えば、温度測定結果画像50内における、所定の範囲内の画素値である画素を含む閉領域が温度対象物領域56として特定されるようにしてもよい。あるいは例えば、公知の画像認識技術を用いて温度測定結果画像50内における温度対象物領域56が特定されるようにしてもよい。 Here, for example, for any one of the measurement result images, the object region within that measurement result image may be identified. For example, the temperature object region 56 within the temperature measurement result image 50 shown in FIG. 4C may be identified. Here, for example, a closed region within the temperature measurement result image 50 that includes pixels with pixel values within a predetermined range may be identified as the temperature object region 56. Alternatively, for example, the temperature object region 56 within the temperature measurement result image 50 may be identified using a known image recognition technique.

本実施形態では例えば、このようにして、温度対象物領域56の左辺のX座標値x1、及び、右辺のX座標値x2が特定される。 In this embodiment, for example, the X coordinate value x1 of the left side and the X coordinate value x2 of the right side of the temperature object region 56 are determined in this manner.

そして温度測定結果画像50、高さ測定結果画像52、及び、反射光量測定結果画像54のそれぞれから、X座標値がx1以上x2以下である部分が切り出されるようにしてもよい。 Then, portions of the temperature measurement result image 50, the height measurement result image 52, and the reflected light quantity measurement result image 54 whose X coordinate values are greater than or equal to x1 and less than or equal to x2 may be cut out.

そして、本実施形態では、このようにして切り出された図4Dに示す温度測定結果画像50、高さ測定結果画像52、及び、反射光量測定結果画像54に基づいて、各画素に複数の画素値が関連付けられたマルチチャネルの入力画像が生成される。ここでは例えば、各画素に、温度に対応付けられる画素値、高さに対応付けられる画素値、及び、反射光量に対応付けられる画素値が関連付けられた、マルチチャネルの入力画像が生成される。ここで例えば、縦横画素数が所定画素数である、マルチチャネルの入力画像が生成されてもよい。なお、マルチチャネルの入力画像の実装は特に問わず、例えば、当該入力画像が、各画素の画素値が複数である1つの画像であってもよいし、互いに対応付けられる画素がそれぞれ1個の画素値をもつ、互いに関連付けられた複数の画像であってもよい。 In this embodiment, a multi-channel input image in which multiple pixel values are associated with each pixel is generated based on the temperature measurement result image 50, height measurement result image 52, and reflected light amount measurement result image 54 shown in FIG. 4D that are extracted in this manner. Here, for example, a multi-channel input image is generated in which each pixel is associated with a pixel value associated with temperature, a pixel value associated with height, and a pixel value associated with the reflected light amount. Here, for example, a multi-channel input image in which the number of vertical and horizontal pixels is a predetermined number may be generated. Note that there is no particular restriction on the implementation of the multi-channel input image, and for example, the input image may be a single image in which each pixel has multiple pixel values, or may be multiple images associated with each other in which the associated pixels each have one pixel value.

ここで例えば、図4Dに示す高さ測定結果画像52内における高さ対象物領域58が特定されるようにしてもよい。ここで例えば、高さ測定結果画像52内における、所定の範囲内の画素値である画素を含む閉領域が高さ対象物領域58として特定されるようにしてもよい。あるいは例えば、公知の画像認識技術を用いて高さ測定結果画像52内における高さ対象物領域58が特定されるようにしてもよい。 Here, for example, a height object region 58 may be identified in the height measurement result image 52 shown in FIG. 4D. Here, for example, a closed region including pixels with pixel values within a predetermined range in the height measurement result image 52 may be identified as the height object region 58. Alternatively, for example, the height object region 58 may be identified in the height measurement result image 52 using a known image recognition technique.

また例えば、図4Dに示す反射光量測定結果画像54内における反射光量対象物領域60が特定されるようにしてもよい。ここで例えば、反射光量測定結果画像54内における、所定の範囲内の画素値である画素を含む閉領域が反射光量対象物領域60として特定されるようになっている。あるいは例えば、公知の画像認識技術を用いて反射光量測定結果画像54内における反射光量対象物領域60が特定されるようにしてもよい。 For example, the reflected light quantity object area 60 may be identified in the reflected light quantity measurement result image 54 shown in FIG. 4D. Here, for example, a closed area in the reflected light quantity measurement result image 54 that includes pixels with pixel values within a predetermined range is identified as the reflected light quantity object area 60. Alternatively, for example, the reflected light quantity object area 60 may be identified in the reflected light quantity measurement result image 54 using a known image recognition technique.

以上のようにして特定される温度対象物領域56、高さ対象物領域58、及び、反射光量対象物領域60の縦横画素数はいずれも同じである。 The temperature object area 56, the height object area 58, and the reflected light amount object area 60 identified in the above manner all have the same number of vertical and horizontal pixels.

そして、各画素に、温度対象物領域56に含まれる、当該画素に対応付けられる画素の画素値、高さ対象物領域58に含まれる、当該画素に対応付けられる画素の画素値、及び、反射光量対象物領域60に含まれる、当該画素に対応付けられる画素の画素値が関連付けられた、マルチチャネルの入力画像が生成されてもよい。 A multi-channel input image may then be generated in which each pixel is associated with the pixel value of the pixel associated with that pixel in the temperature object region 56, the pixel value of the pixel associated with that pixel in the height object region 58, and the pixel value of the pixel associated with that pixel in the reflected light quantity object region 60.

なおここで例えば、図4Dに示す3つの画像について、縦方向について所定のシフト量でのシフトを行った上で座標値が同じ矩形領域を切り出して、同じ座標値の画素同士を関連付けることで、マルチチャネルの入力画像が生成されるようにしてもよい。ここで例えば、縦横画素数が上述の所定画素数となるよう、切り出された矩形領域の画像に対して変形やサイズ変更を実行することで、マルチチャネルの入力画像が生成されるようにしてもよい。 For example, the three images shown in FIG. 4D may be shifted vertically by a predetermined shift amount, and rectangular areas with the same coordinate values may be cut out and pixels with the same coordinate values may be associated with each other to generate a multi-channel input image. Here, for example, the image of the cut-out rectangular area may be transformed or resized so that the number of vertical and horizontal pixels is the above-mentioned predetermined number of pixels, thereby generating a multi-channel input image.

本実施形態によれば、以上のようにすることで、各画素に所望の複数の物理量が関連付けられたマルチチャネルの入力画像を容易に生成できることとなる。 According to this embodiment, by doing the above, it is possible to easily generate a multi-channel input image in which each pixel is associated with multiple desired physical quantities.

そして本実施形態では、学習済の畳み込みニューラルネットワーク(CNN)にこのマルチチャネルの入力画像を入力した際の出力に基づいて、対象物20の良否が判定される。 In this embodiment, the quality of the object 20 is determined based on the output when this multi-channel input image is input to a trained convolutional neural network (CNN).

以下、情報処理装置10に実装されている機能、及び、良否判定システム1で行われる処理についてさらに説明する。 The following provides further explanation of the functions implemented in the information processing device 10 and the processing performed by the quality determination system 1.

図5は、本実施形態に係る情報処理装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る情報処理装置10で、図5に示す機能のすべてが実装される必要はなく、また、図5に示す機能以外の機能が実装されていても構わない。 Figure 5 is a functional block diagram showing an example of functions implemented in the information processing device 10 according to this embodiment. Note that it is not necessary for all of the functions shown in Figure 5 to be implemented in the information processing device 10 according to this embodiment, and functions other than the functions shown in Figure 5 may also be implemented.

図5に示すように、情報処理装置10には、機能的には例えば、機械学習モデル70、訓練データ記憶部72、学習部74、キャリブレーションデータ記憶部76、ライン画像取得部78、ライン画像選択部80、入力画像生成部82、良否判定部84、が含まれる。 As shown in FIG. 5, the information processing device 10 functionally includes, for example, a machine learning model 70, a training data storage unit 72, a learning unit 74, a calibration data storage unit 76, a line image acquisition unit 78, a line image selection unit 80, an input image generation unit 82, and a pass/fail determination unit 84.

機械学習モデル70は、プロセッサ10a及び記憶部10bを主として実装される。訓練データ記憶部72、キャリブレーションデータ記憶部76は、記憶部10bを主として実装される。学習部74、ライン画像選択部80、入力画像生成部82、良否判定部84は、プロセッサ10aを主として実装される。ライン画像取得部78は、通信部10cを主として実装される。 The machine learning model 70 is implemented primarily in the processor 10a and the memory unit 10b. The training data memory unit 72 and the calibration data memory unit 76 are implemented primarily in the memory unit 10b. The learning unit 74, the line image selection unit 80, the input image generation unit 82, and the pass/fail judgment unit 84 are implemented primarily in the processor 10a. The line image acquisition unit 78 is implemented primarily in the communication unit 10c.

以上の機能は、コンピュータである情報処理装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して情報処理装置10に供給されてもよい。 The above functions may be implemented by executing a program including instructions corresponding to the above functions, which is installed in the information processing device 10, which is a computer, on the processor 10a. This program may be supplied to the information processing device 10 via a computer-readable information storage medium, such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet, for example.

また、本実施形態に係る情報処理装置10では、機械学習モデル70の学習が実行される。そして、学習済の機械学習モデル70を用いて、対象物20の良否判定が実行される。 In addition, in the information processing device 10 according to this embodiment, learning of the machine learning model 70 is performed. Then, the trained machine learning model 70 is used to determine whether the target object 20 is good or bad.

以下、機械学習モデル70の学習における情報処理装置10の機能について説明する。 The following describes the functions of the information processing device 10 in learning the machine learning model 70.

機械学習モデル70は、CNN等の機械学習モデルである。なお、機械学習モデル70がCNNである必要はない。 The machine learning model 70 is a machine learning model such as CNN. Note that the machine learning model 70 does not have to be CNN.

訓練データ記憶部72は、本実施形態では例えば、図6にデータ構造の一例が示されている訓練データを複数記憶する。 In this embodiment, the training data storage unit 72 stores multiple pieces of training data, an example of which is shown in FIG. 6.

図6に示すように、本実施形態に係る訓練データには、例えば、訓練データID、学習入力画像、及び、教師データが含まれる。 As shown in FIG. 6, the training data in this embodiment includes, for example, a training data ID, a learning input image, and teacher data.

本実施形態では、複数の正例サンプル及び複数の負例サンプルのそれぞれについて、上述の方法と同様にして、マルチチャネルの入力画像が生成される。以下、このようにして機械学習モデル70の学習にあたって生成される入力画像を、学習入力画像と呼ぶこととする。ここでは例えば、温度、高さ、反射光量の測定結果に基づいて、各画素に、温度に対応付けられる画素値、高さに対応付けられる画素値、及び、反射光量に対応付けられる画素値が関連付けられた、学習入力画像が生成される。本実施形態に係る学習入力画像は、それぞれ、良否判定の対象物20の測定結果に基づいて生成される入力画像と縦横画素数が同じである。ここで上述のように縦横画素数が上述の所定画素数である学習入力画像が生成されてもよい。 In this embodiment, a multi-channel input image is generated for each of a plurality of positive example samples and a plurality of negative example samples in the same manner as described above. Hereinafter, the input image generated in this manner for learning the machine learning model 70 will be referred to as a learning input image. Hereinafter, for example, a learning input image is generated in which each pixel is associated with a pixel value corresponding to temperature, a pixel value corresponding to height, and a pixel value corresponding to the amount of reflected light based on the measurement results of temperature, height, and reflected light amount. Each of the learning input images according to this embodiment has the same number of vertical and horizontal pixels as the input image generated based on the measurement results of the object 20 to be judged as good or bad. Here, as described above, a learning input image having the above-mentioned predetermined number of vertical and horizontal pixels may be generated.

ここで、正例サンプルとは、学習済の機械学習モデル70を用いた良否判定において良と判定されるべき対象物20のサンプルを指す。また、負例サンプルとは、学習済の機械学習モデル70を用いた良否判定において不良と判定されるべき対象物20のサンプルを指す。 Here, a positive example sample refers to a sample of the object 20 that should be judged as good in a quality determination using the trained machine learning model 70. Also, a negative example sample refers to a sample of the object 20 that should be judged as bad in a quality determination using the trained machine learning model 70.

そして、サンプルに対応付けられる訓練データID、当該サンプルに基づいて生成される学習入力画像、及び、当該サンプルに応じた教師データ、を含む訓練データが生成される。ここで例えば、正例サンプルに対応付けられる教師データの値として、正例であることを示すもの(例えば、1)が設定される。また、負例サンプルに対応付けられる教師データの値として、負例であることを示すもの(例えば、0)が設定される。 Then, training data is generated that includes a training data ID associated with the sample, a learning input image generated based on the sample, and teacher data corresponding to the sample. Here, for example, a value indicating a positive example (e.g., 1) is set as the value of the teacher data associated with the positive example sample. Also, a value indicating a negative example (e.g., 0) is set as the value of the teacher data associated with the negative example sample.

そして、訓練データ記憶部72は、以上のようにして生成される複数の正例サンプルにそれぞれ対応付けられる訓練データ、及び、複数の負例サンプルにそれぞれ対応付けられる訓練データ、を記憶する。 The training data storage unit 72 then stores training data associated with each of the multiple positive example samples generated in the above manner, and training data associated with each of the multiple negative example samples.

なお、上述の方法は、訓練データの生成方法の一例にすぎず、訓練データ記憶部72が、上述の方法とは異なる方法により生成された訓練データを記憶してもよい。 Note that the above-mentioned method is merely one example of a method for generating training data, and the training data storage unit 72 may store training data generated by a method other than the above-mentioned method.

学習部74は、本実施形態では例えば、訓練データ記憶部72に記憶されている訓練データを用いて、機械学習モデル70の学習を実行する。 In this embodiment, for example, the learning unit 74 performs learning of the machine learning model 70 using the training data stored in the training data storage unit 72.

図7に示すように、学習部74は、例えば、訓練データに含まれる学習入力画像を、機械学習モデル70に入力する。そして、学習部74は、当該入力に応じた機械学習モデル70からの出力を示す出力データを取得する。そして、学習部74は、出力データの値と、当該訓練データに含まれる教師データの値と、の差を特定する。そして、学習部74は、特定された差に対応付けられるロス関数の値が最小となるよう、誤差逆伝搬法により機械学習モデル70のパラメータの値を更新する教師あり学習を実行する。 As shown in FIG. 7, the learning unit 74 inputs, for example, a learning input image included in the training data to the machine learning model 70. The learning unit 74 then obtains output data indicating the output from the machine learning model 70 in response to the input. The learning unit 74 then identifies the difference between the value of the output data and the value of the teacher data included in the training data. The learning unit 74 then performs supervised learning to update the parameter values of the machine learning model 70 using the backpropagation method so that the value of the loss function associated with the identified difference is minimized.

このようにして、学習済の機械学習モデル70が生成される。そして、上述のようにこの学習済の機械学習モデル70を用いて、対象物20の良否判定が実行される。 In this way, a trained machine learning model 70 is generated. Then, as described above, this trained machine learning model 70 is used to determine whether the target object 20 is good or bad.

以下、学習済の機械学習モデル70を用いた対象物20の良否判定における情報処理装置10の機能について説明する。 The following describes the function of the information processing device 10 in determining whether the object 20 is good or bad using the trained machine learning model 70.

キャリブレーションデータ記憶部76は、本実施形態では例えば、事前のキャリブレーション処理によって生成される、上述のキャリブレーションデータを記憶する。 In this embodiment, the calibration data storage unit 76 stores the above-mentioned calibration data that is generated by a preliminary calibration process, for example.

ライン画像取得部78は、本実施形態では例えば、第1のラインセンサ(上述の例では温度ラインセンサ16)によって生成される第1種ライン画像(上述の例では温度ライン画像)を取得する。 In this embodiment, the line image acquisition unit 78 acquires, for example, a first type of line image (a temperature line image in the above example) generated by a first line sensor (the temperature line sensor 16 in the above example).

また、ライン画像取得部78は、本実施形態では例えば、第2のラインセンサ(上述の例では光切断ラインセンサ18)によって生成される第2種ライン画像(上述の例では高さライン画像、及び、反射光量ライン画像)を取得する。 In addition, in this embodiment, the line image acquisition unit 78 acquires a second type of line image (a height line image and a reflected light amount line image in the above example) generated by a second line sensor (the light cutting line sensor 18 in the above example), for example.

ライン画像選択部80は、本実施形態では例えば、入力画像に相当する所与の画素配列に対応する、少なくとも1つの第1種ライン画像と、少なくとも1つの第2種ライン画像と、を選択する。ここでは例えば、図4Cに示すX座標値の範囲がx1以上x2以下である、温度ライン画像、高さライン画像、及び、反射光量ライン画像が選択される。 In this embodiment, the line image selection unit 80 selects, for example, at least one first type line image and at least one second type line image that correspond to a given pixel array that corresponds to the input image. Here, for example, a temperature line image, a height line image, and a reflected light amount line image whose X coordinate value range is from x1 to x2 as shown in FIG. 4C are selected.

なお、上述のように、ライン画像選択部80が、測定結果画像を生成してもよい。そして、ライン画像選択部80が、測定結果画像の一部である、少なくとも1つのライン画像を選択してもよい。 As described above, the line image selection unit 80 may generate a measurement result image. Then, the line image selection unit 80 may select at least one line image that is part of the measurement result image.

ここで本実施形態では、選択されるライン画像は、第1のラインセンサと第2のラインセンサとの離間間隔、及び、対象物20の移動速度に基づいて決定される測定タイミング差に応じたものとなっている。この測定タイミングの差は、例えば、キャリブレーションデータ記憶部76が記憶するキャリブレーションデータが示すシフト量Dに相当するものである。すなわち、ライン画像選択部80が、キャリブレーションデータ記憶部76が記憶するキャリブレーションデータが示すシフト量Dに基づいて、ライン画像の選択を行ってもよい。 In this embodiment, the selected line image corresponds to the measurement timing difference determined based on the separation distance between the first line sensor and the second line sensor and the moving speed of the target object 20. This measurement timing difference corresponds to, for example, the shift amount D indicated by the calibration data stored in the calibration data storage unit 76. In other words, the line image selection unit 80 may select a line image based on the shift amount D indicated by the calibration data stored in the calibration data storage unit 76.

なお、上述のように、キャリブレーション処理において生成される測定結果画像に基づいて、測定タイミングの差(上述の例ではシフト量D)が特定されてもよい。また、温度ラインセンサ16と光切断ラインセンサ18との離間間隔と、対象物20の移動速度(搬送部12による対象物20の搬送速度)と、に基づいて、ユーザが計算によりシフト量Dを特定してもよい。 As described above, the difference in measurement timing (shift amount D in the above example) may be determined based on the measurement result image generated in the calibration process. Also, the user may determine the shift amount D by calculation based on the separation distance between the temperature line sensor 16 and the light cutting line sensor 18 and the moving speed of the object 20 (the conveying speed of the object 20 by the conveying unit 12).

入力画像生成部82は、本実施形態では例えば、入力画像に相当する画素配列に含まれる各画素に、選択された第1種ライン画像に含まれる、当該画素に対応付けられる画素値と、選択された第2種ライン画像に含まれる、当該画素に対応付けられる画素値と、を関連付けることで、マルチチャネルの入力画像を生成する。ここでは例えば、入力画像に相当する画素配列に含まれる各画素に、選択された温度ライン画像に含まれる、当該画素に対応付けられる画素値と、選択された高さライン画像に含まれる、当該画素に対応付けられる画素値と、選択された反射光量ライン画像に含まれる、当該画素に対応付けられる画素値と、を関連付けることで、入力画像を生成する。 In this embodiment, the input image generating unit 82 generates a multi-channel input image by associating, for example, each pixel included in the pixel array corresponding to the input image with a pixel value included in the selected first type line image that corresponds to that pixel and a pixel value included in the selected second type line image that corresponds to that pixel. Here, for example, the input image is generated by associating, for example, each pixel included in the pixel array corresponding to the input image with a pixel value included in the selected temperature line image that corresponds to that pixel, a pixel value included in the selected height line image that corresponds to that pixel, and a pixel value included in the selected reflected light amount line image that corresponds to that pixel.

なお、ラインセンサによって測定される物理量は、上述の、温度、高さ、反射光量には限定されない。例えば、ラインセンサによって、凹凸、光沢、又は、色が特定されてもよい。そして、入力画像に含まれる画素の画素値が示す物理量が、凹凸、光沢、又は、色であってもよい。すなわち、入力画像の画素値は、例えば、温度、高さ、反射光量、凹凸、光沢、色、などの物理量を示すこととなる。 The physical quantities measured by the line sensor are not limited to the temperature, height, and amount of reflected light described above. For example, the line sensor may identify unevenness, gloss, or color. The physical quantity indicated by the pixel value of a pixel included in the input image may be unevenness, gloss, or color. In other words, the pixel value of the input image indicates a physical quantity such as temperature, height, amount of reflected light, unevenness, gloss, color, etc.

また、上述のように、ライン画像選択部80が、少なくとも1つのライン画像に対して、所与のサイズ変更率(ここでは例えば、キャリブレーションデータ記憶部76が記憶するキャリブレーションデータが示すサイズ変更率r)によるサイズ変更を実行してもよい。上述の例では、複数の高さライン画像を含む高さ測定結果画像52、及び、複数の反射光量ライン画像を含む反射光量測定結果画像54、の縦方向の長さに対して、サイズ変更率rによるサイズ変更が実行されている。 As described above, the line image selection unit 80 may also resize at least one line image at a given resize ratio (here, for example, resize ratio r indicated by the calibration data stored in the calibration data storage unit 76). In the above example, resize is performed at the resize ratio r on the vertical lengths of the height measurement result image 52 including multiple height line images and the reflected light amount measurement result image 54 including multiple reflected light amount line images.

そして、入力画像生成部82が、サイズ変更が実行されたライン画像に基づいて、入力画像を生成してもよい。 Then, the input image generation unit 82 may generate an input image based on the line image that has been resized.

良否判定部84は、本実施形態では例えば、マルチチャネルの入力画像を学習済の機械学習モデル70に入力した際の当該機械学習モデル70からの出力に基づいて、対象物20の良否を判定する。ここでは例えば、図8に示すように、対象物20の物理量の測定結果に基づいて生成されるマルチチャネルの入力画像が、学習済の機械学習モデル70に入力される。そして、当該入力に応じて機械学習モデル70から出力される出力データの値に基づいて、当該対象物20の良否が判定される。ここで例えば、出力データの値が所定の閾値(例えば、0.5)以上であれば、当該対象物20は良と判定され、そうでなければ、当該対象物20は不良と判定される。なお、良否判定部84が、良否判定の結果をユーザに通知してもよい。 In this embodiment, the pass/fail judgment unit 84 judges the pass/fail quality of the object 20 based on the output from the trained machine learning model 70 when a multi-channel input image is input to the trained machine learning model 70. Here, for example, as shown in FIG. 8, a multi-channel input image generated based on the measurement results of the physical quantities of the object 20 is input to the trained machine learning model 70. Then, the pass/fail quality of the object 20 is judged based on the value of the output data output from the machine learning model 70 in response to the input. Here, for example, if the value of the output data is equal to or greater than a predetermined threshold (e.g., 0.5), the object 20 is judged to be pass/fail, and if not, the object 20 is judged to be fail/fail. The pass/fail judgment unit 84 may notify the user of the pass/fail judgment result.

ここで、本実施形態に係る情報処理装置10で行われる学習処理の流れの一例を、図9に例示するフロー図を参照しながら説明する。なお本処理例では、予め、訓練データ記憶部72に複数の訓練データが記憶されていることとする。 Here, an example of the flow of the learning process performed by the information processing device 10 according to this embodiment will be described with reference to the flow diagram illustrated in FIG. 9. In this processing example, it is assumed that multiple pieces of training data are stored in advance in the training data storage unit 72.

まず、学習部74が、訓練データ記憶部72に記憶されている訓練データのうちから、S102に示す処理が実行されていない訓練データを1つ選択する(S101)。 First, the learning unit 74 selects one piece of training data from among the training data stored in the training data storage unit 72, for which the process shown in S102 has not been performed (S101).

そして、学習部74が、S101に示す処理で選択された訓練データを用いて、機械学習モデル70の学習を実行する(S102)。 Then, the learning unit 74 performs learning of the machine learning model 70 using the training data selected in the process shown in S101 (S102).

そして、学習部74が、訓練データ記憶部72に記憶されているすべての訓練データについて、S102に示す処理が実行されたか否かを確認する(S103)。ここで、実行されていないことが確認された場合は(S103:N)、S101に示す処理に戻る。一方、実行されたことが確認された場合は(S103:Y)、本処理例に示す処理は終了される。 Then, the learning unit 74 checks whether the process shown in S102 has been executed for all the training data stored in the training data storage unit 72 (S103). If it is confirmed that the process has not been executed (S103: N), the process returns to the process shown in S101. On the other hand, if it is confirmed that the process has been executed (S103: Y), the process shown in this processing example is terminated.

次に、本実施形態に係る良否判定システム1で行われる、学習済の機械学習モデル70を用いた、対象物20の良否判定処理の流れの一例を、図10に例示するフロー図を参照しながら説明する。なお、本処理例では、事前に上述のキャリブレーション処理が実行されており、シフト量D及びサイズ変更率rを示すキャリブレーションデータが、キャリブレーションデータ記憶部76に記憶されていることとする。 Next, an example of the flow of the quality determination process of the target object 20 using the trained machine learning model 70, which is performed in the quality determination system 1 according to this embodiment, will be described with reference to the flow diagram illustrated in FIG. 10. Note that in this processing example, it is assumed that the above-mentioned calibration process has been performed in advance, and that calibration data indicating the shift amount D and the size change rate r has been stored in the calibration data storage unit 76.

対象物20の搬送が開始されると、温度ラインセンサ16、及び、光切断ラインセンサ18は、エンコーダ14からの信号の入力を待機することで、測定タイミングの到来を待機する(S201)。 When the transportation of the object 20 starts, the temperature line sensor 16 and the light cutting line sensor 18 wait for the measurement timing to arrive by waiting for the input of a signal from the encoder 14 (S201).

エンコーダ14からの信号を受け付けることで、温度ラインセンサ16、及び、光切断ラインセンサ18が、測定タイミングの到来を検出すると(S201:Y)、温度ラインセンサ16、及び、光切断ラインセンサ18は、測定処理を実行する(S202)。本処理例では、この測定処理によって、ライン画像が生成される。上述の通り、測定処理が実行されるタイミングは、温度ラインセンサ16と光切断ラインセンサ18とで同期がとられている。 When the temperature line sensor 16 and the light cutting line sensor 18 detect the arrival of the measurement timing by receiving a signal from the encoder 14 (S201: Y), the temperature line sensor 16 and the light cutting line sensor 18 execute a measurement process (S202). In this processing example, a line image is generated by this measurement process. As described above, the timing of the measurement process is synchronized between the temperature line sensor 16 and the light cutting line sensor 18.

そして、温度ラインセンサ16が、S202に示す測定処理の実行回数が所定の回数に達したか否かを確認する(S203)。 Then, the temperature line sensor 16 checks whether the number of times the measurement process shown in S202 has been performed has reached a predetermined number (S203).

測定処理の実行回数が所定の回数に達していない場合は(S203:N)、S201に示す処理に戻る。 If the measurement process has not been executed the predetermined number of times (S203: N), the process returns to S201.

測定処理の実行回数が所定の回数に達した場合は(S203:Y)、ライン画像取得部78が、温度ラインセンサ16、及び、光切断ラインセンサ18から、それまでの所定の回数の測定により生成されたライン画像を取得する(S204)。S204に示す処理では、例えば、温度ラインセンサ16が、複数の温度ライン画像を情報処理装置10に送信してもよい。そして、情報処理装置10のライン画像取得部78が、送信された複数の温度ライン画像を受信してもよい。また、光切断ラインセンサ18が、複数の高さライン画像、及び、複数の反射光量ライン画像を情報処理装置10に送信してもよい。そして、情報処理装置10のライン画像取得部78が、複数の高さライン画像、及び、複数の反射光量ライン画像を受信してもよい。なお、ライン画像には、当該ライン画像の生成順序、又は、当該ライン画像の生成時刻を示すタイムスタンプが関連付けられていることとする。 When the number of times the measurement process has been performed reaches a predetermined number (S203: Y), the line image acquisition unit 78 acquires line images generated by the predetermined number of measurements up to that point from the temperature line sensor 16 and the light cutting line sensor 18 (S204). In the process shown in S204, for example, the temperature line sensor 16 may transmit multiple temperature line images to the information processing device 10. Then, the line image acquisition unit 78 of the information processing device 10 may receive the multiple transmitted temperature line images. Also, the light cutting line sensor 18 may transmit multiple height line images and multiple reflected light amount line images to the information processing device 10. Then, the line image acquisition unit 78 of the information processing device 10 may receive the multiple height line images and multiple reflected light amount line images. Note that the line images are associated with a timestamp indicating the order in which the line images were generated or the time when the line images were generated.

そして、ライン画像選択部80が、S204に示す処理で取得されたライン画像に基づいて、測定結果画像を生成する(S205)。ここでは例えば、複数の温度ライン画像に基づいて、温度測定結果画像50が生成され、複数の高さライン画像に基づいて、高さ測定結果画像52が生成され、複数の反射光量ライン画像に基づいて、反射光量測定結果画像54が生成される。 Then, the line image selection unit 80 generates a measurement result image based on the line image acquired in the process shown in S204 (S205). Here, for example, a temperature measurement result image 50 is generated based on multiple temperature line images, a height measurement result image 52 is generated based on multiple height line images, and a reflected light amount measurement result image 54 is generated based on multiple reflected light amount line images.

そして、ライン画像選択部80が、キャリブレーションデータ記憶部76に記憶されているキャリブレーションデータが示すシフト量Dに基づいて、高さ測定結果画像52、及び、反射光量測定結果画像54の位置合わせを実行する(S206)。ここでは上述のように、高さ測定結果画像52、及び、反射光量測定結果画像54について、左からD個のライン画像を削除することによる、位置合わせが行われる。 Then, the line image selection unit 80 aligns the height measurement result image 52 and the reflected light quantity measurement result image 54 based on the shift amount D indicated by the calibration data stored in the calibration data storage unit 76 (S206). As described above, the height measurement result image 52 and the reflected light quantity measurement result image 54 are aligned by deleting D line images from the left.

そして、ライン画像選択部80が、キャリブレーションデータ記憶部76に記憶されているキャリブレーションデータが示すサイズ変更率rに基づいて、高さ測定結果画像52、及び、反射光量測定結果画像54のサイズ変更を実行する(S207)。ここでは上述のように、高さ測定結果画像52、及び、反射光量測定結果画像54の縦方向の長さがr倍される。 Then, the line image selection unit 80 resizes the height measurement result image 52 and the reflected light quantity measurement result image 54 based on the resize rate r indicated by the calibration data stored in the calibration data storage unit 76 (S207). Here, as described above, the vertical lengths of the height measurement result image 52 and the reflected light quantity measurement result image 54 are multiplied by r.

そして、ライン画像選択部80が、ライン画像の選択を実行する(S208)。ここでは上述のように、図4Cに例示されている温度測定結果画像50、高さ測定結果画像52、及び、反射光量測定結果画像54のそれぞれから、X座標値がx1以上x2以下である部分を切り出すことで、ライン画像の選択が実行される。 Then, the line image selection unit 80 selects a line image (S208). As described above, the line image selection is performed by cutting out the portions of the temperature measurement result image 50, the height measurement result image 52, and the reflected light quantity measurement result image 54 illustrated in FIG. 4C, each of which has an X coordinate value of at least x1 and at most x2.

そして、入力画像生成部82が、S208に示す処理で選択されたライン画像に基づいて、マルチチャネルの入力画像を生成する(S209)。 Then, the input image generation unit 82 generates a multi-channel input image based on the line image selected in the process shown in S208 (S209).

そして、良否判定部84が、S209に示す処理で生成されたマルチチャネルの入力画像を、学習済の機械学習モデル70に入力する(S210)。 Then, the pass/fail judgment unit 84 inputs the multi-channel input image generated by the process shown in S209 into the trained machine learning model 70 (S210).

そして、良否判定部84が、S210に示す処理での入力に応じた機械学習モデル70からの出力に基づいて、搬送された対象物20の良否を判定する(S211)。ここでは例えば、入力画像の入力に応じて、機械学習モデル70から出力される出力データの値に基づいて、対象物20の良否が判定される。 Then, the quality determination unit 84 determines whether the transported object 20 is good or bad based on the output from the machine learning model 70 in response to the input in the process shown in S210 (S211). Here, for example, the quality of the object 20 is determined based on the value of the output data output from the machine learning model 70 in response to the input of an input image.

そして、本処理例に示す処理は終了される。 Then, the processing shown in this processing example ends.

なお、本発明は上述の実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiments.

例えば、連続して搬送される複数の対象物20のそれぞれについて、上述の処理が実行され、複数の対象物20についての良否判定処理が連続して実行されてもよい。 For example, the above-mentioned process may be performed for each of a number of objects 20 that are transported in succession, and the pass/fail determination process may be performed for the multiple objects 20 in succession.

また、複数の対象物20について連続して測定した結果を示す1つの測定結果画像に基づいて、マルチチャネルの入力画像が複数生成されてもよい。 In addition, multiple multi-channel input images may be generated based on a single measurement result image showing the results of successive measurements on multiple objects 20.

また、温度ラインセンサ16と光切断ラインセンサ18とで測定タイミングの同期がとられている必要はなく、対象物20における測定位置が互いに対応付けられる、少なくとも1つの第1種ライン画像と、少なくとも1つの第2種ライン画像とが選択されてもよい。そしてこのようにして選択される第1種ライン画像及び第2種ライン画像に基づいて、マルチチャネルの入力画像が生成されてもよい。 In addition, the measurement timing of the temperature line sensor 16 and the light cutting line sensor 18 does not need to be synchronized, and at least one first type line image and at least one second type line image whose measurement positions on the object 20 correspond to each other may be selected. A multi-channel input image may then be generated based on the first type line image and the second type line image selected in this manner.

また、本実施形態においてライン画像を生成するラインセンサは2つには限定されず、互いに離間して配置された3つ以上のラインセンサのそれぞれにより生成されるライン画像に基づいて、マルチチャネルの入力画像が生成されてもよい。 In addition, in this embodiment, the number of line sensors that generate the line image is not limited to two, and a multi-channel input image may be generated based on line images generated by three or more line sensors that are arranged at a distance from each other.

また、情報処理装置10、温度ラインセンサ16、光切断ラインセンサ18の役割分担は、上述のものには限定されない。例えば、情報処理装置10の代わりに温度ラインセンサ16が、温度測定結果画像30や温度測定結果画像50を生成してもよい。また、情報処理装置10の代わりに光切断ラインセンサ18が、高さ測定結果画像32や反射光量測定結果画像34や高さ測定結果画像52や反射光量測定結果画像54を生成してもよい。 The division of roles among the information processing device 10, the temperature line sensor 16, and the light cutting line sensor 18 is not limited to the above. For example, the temperature line sensor 16 may generate the temperature measurement result image 30 and the temperature measurement result image 50 instead of the information processing device 10. Also, the light cutting line sensor 18 may generate the height measurement result image 32, the reflected light quantity measurement result image 34, the height measurement result image 52, and the reflected light quantity measurement result image 54 instead of the information processing device 10.

また、上記の具体的な数値や文字列、並びに、図面中の具体的な数値や文字列は例示であり、これらの数値や文字列には限定されない。 Furthermore, the specific numerical values and character strings above, as well as the specific numerical values and character strings in the drawings, are examples and are not limited to these numerical values and character strings.

1 良否判定システム、10 情報処理装置、10a プロセッサ、10b 記憶部、10c 通信部、10d 表示部、10e 操作部、12 搬送部、14 エンコーダ、16 温度ラインセンサ、18 光切断ラインセンサ、18a カメラ、18b レーザ光源、20 対象物、30 温度測定結果画像、32 高さ測定結果画像、34 反射光量測定結果画像、36 温度キャリブレーション領域、38 高さキャリブレーション領域、40 反射光量キャリブレーション領域、50 温度測定結果画像、52 高さ測定結果画像、54 反射光量測定結果画像、56 温度対象物領域、58 高さ対象物領域、60 反射光量対象物領域、70 機械学習モデル、72 訓練データ記憶部、74 学習部、76 キャリブレーションデータ記憶部、78 ライン画像取得部、80 ライン画像選択部、82 入力画像生成部、84 良否判定部。 1. Quality determination system; 10. Information processing device; 10a. Processor; 10b. Memory unit; 10c. Communication unit; 10d. Display unit; 10e. Operation unit; 12. Conveying unit; 14. Encoder; 16. Temperature line sensor; 18. Light cutting line sensor; 18a. Camera; 18b. Laser light source; 20. Object; 30. Temperature measurement result image; 32. Height measurement result image; 34. Reflected light quantity measurement result image; 36. Temperature calibration area; 38. Height calibration area; 40. Reflected light quantity calibration area; 50. Temperature measurement result image; 52. Height measurement result image; 54. Reflected light quantity measurement result image; 56. Temperature object area; 58. Height object area; 60. Reflected light quantity object area; 70. Machine learning model; 72. Training data memory unit; 74. Learning unit; 76. Calibration data memory unit; 78. Line image acquisition unit; 80. Line image selection unit; 82. Input image generation unit, 84 pass/fail determination unit.

Claims (8)

一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な、学習済の機械学習モデルに入力されるマルチチャネルの入力画像を生成する画像生成装置であって、
前記第1種ライン画像を取得する第1種ライン画像取得手段と、
前記第2種ライン画像を取得する第2種ライン画像取得手段と、
前記第1の時間間隔での測定タイミング順に取得される複数の前記第1種ライン画像が該測定タイミング順に並んで配置される第1種測定結果画像を生成する手段と、
前記第2の時間間隔での測定タイミング順に取得される複数の前記第2種ライン画像が該測定タイミング順に並んで配置される第2種測定結果画像を生成する手段と、
キャリブレーション用の前記対象物を示す前記第1種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第1領域を特定するとともに、前記キャリブレーション用の前記対象物を示す前記第2種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第2領域を特定する手段と、
前記第1種測定結果画像における前記第1領域の位置及び前記第2種測定結果画像における前記第2領域の位置に基づいて、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差を特定する手段と、
前記測定タイミング差に応じた、所与の画素配列に対応する、良否判定用の前記対象物を示す少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するライン画像選択手段と、
前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、前記マルチチャネルの入力画像を生成する入力画像生成手段と、
を含むことを特徴とする画像生成装置。
An image generating device capable of communicating with a first line sensor that sequentially generates a first type of line image indicating a first physical quantity at a measurement timing at a first time interval, and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being spaced apart from each other along a moving direction of an object moving in one direction at a constant speed, the image generating device generating a multi-channel input image to be input to a trained machine learning model,
a first type line image acquisition means for acquiring the first type line image;
a second type line image acquisition means for acquiring the second type line image;
a means for generating a first type measurement result image in which the first type line images acquired in the order of measurement timing at the first time interval are arranged in the order of the measurement timing;
a means for generating a second type measurement result image in which the second type line images acquired in the order of measurement timing at the second time interval are arranged in the order of the measurement timing;
a means for identifying a first region of the object for calibration based on the first type measurement result image showing the object for calibration, and for identifying a second region of the object for calibration based on the second type measurement result image showing the object for calibration;
a means for specifying a measurement timing difference determined based on a separation distance between the first line sensor and the second line sensor and a moving speed of the object, based on a position of the first area in the first type measurement result image and a position of the second area in the second type measurement result image;
a line image selection means for selecting at least one of the first type line image and at least one of the second type line image, which indicate the object for pass/fail judgment and correspond to a given pixel array according to the measurement timing difference ;
an input image generating means for generating the multi-channel input image by associating, with each pixel included in the pixel array, a pixel value of a pixel included in the selected first type line image and associated with the pixel, and a pixel value of a pixel included in the selected second type line image and associated with the pixel;
13. An image generating device comprising:
選択された前記第1種ライン画像、又は、選択された前記第2種ライン画像、のうちの少なくとも一方に対して、所与のサイズ変更率によるサイズ変更を実行するサイズ変更手段、をさらに含み、
前記入力画像生成手段は、前記サイズ変更が実行された前記第1種ライン画像又は前記第2種ライン画像に基づいて、前記入力画像を生成する、
ことを特徴とする請求項1に記載の画像生成装置。
a resizing unit for performing resizing on at least one of the selected first type line image and the selected second type line image by a given resizing ratio;
the input image generating means generates the input image based on the first type line image or the second type line image on which the size change has been performed.
2. The image generating device according to claim 1.
前記第1の物理量、及び、前記第2の物理量は、それぞれ、温度、高さ、反射光量、凹凸、光沢、又は、色のうちの互いに異なるいずれかである、
ことを特徴とする請求項1又は2のいずれか一項に記載の画像生成装置。
The first physical quantity and the second physical quantity are different from each other and are any one of temperature, height, amount of reflected light, unevenness, gloss, and color.
3. An image generating device according to claim 1 or 2.
一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な良否判定装置であって、
前記第1種ライン画像を取得する第1種ライン画像取得手段と、
前記第2種ライン画像を取得する第2種ライン画像取得手段と、
前記第1の時間間隔での測定タイミング順に取得される複数の前記第1種ライン画像が該測定タイミング順に並んで配置される第1種測定結果画像を生成する手段と、
前記第2の時間間隔での測定タイミング順に取得される複数の前記第2種ライン画像が該測定タイミング順に並んで配置される第2種測定結果画像を生成する手段と、
キャリブレーション用の前記対象物を示す前記第1種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第1領域を特定するとともに、前記キャリブレーション用の前記対象物を示す前記第2種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第2領域を特定する手段と、
前記第1種測定結果画像における前記第1領域の位置及び前記第2種測定結果画像における前記第2領域の位置に基づいて、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差を特定する手段と、
前記測定タイミング差に応じた、所与の画素配列に対応する、良否判定用の前記対象物を示す少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するライン画像選択手段と、
前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、マルチチャネルの入力画像を生成する入力画像生成手段と、
前記入力画像を学習済の機械学習モデルに入力した際の当該機械学習モデルからの出力に基づいて、前記良否判定用の前記対象物の良否を判定する良否判定手段と、
を含むことを特徴とする良否判定装置。
A quality determination device capable of communicating with a first line sensor that sequentially generates a first type of line image indicating a first physical quantity at a measurement timing at a first time interval, and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being spaced apart from each other along a moving direction of an object moving in one direction at a constant speed,
a first type line image acquisition means for acquiring the first type line image;
a second type line image acquisition means for acquiring the second type line image;
a means for generating a first type measurement result image in which the first type line images acquired in the order of measurement timing at the first time interval are arranged in the order of the measurement timing;
a means for generating a second type measurement result image in which the second type line images acquired in the order of measurement timing at the second time interval are arranged in the order of the measurement timing;
a means for identifying a first region of the object for calibration based on the first type measurement result image showing the object for calibration, and for identifying a second region of the object for calibration based on the second type measurement result image showing the object for calibration;
a means for specifying a measurement timing difference determined based on a separation distance between the first line sensor and the second line sensor and a moving speed of the object, based on a position of the first area in the first type measurement result image and a position of the second area in the second type measurement result image;
a line image selection means for selecting at least one of the first type line image and at least one of the second type line image, which indicate the object for pass/fail judgment and correspond to a given pixel array according to the measurement timing difference ;
an input image generating means for generating a multi-channel input image by associating, with each pixel included in the pixel array, a pixel value of a pixel included in the selected first type line image and associated with the pixel, and a pixel value of a pixel included in the selected second type line image and associated with the pixel;
a quality determination means for determining whether the object for quality determination is good or bad based on an output from a trained machine learning model when the input image is input to the trained machine learning model;
A quality determination device comprising:
一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な画像生成装置が、学習済の機械学習モデルに入力されるマルチチャネルの入力画像を生成する画像生成方法であって、
前記第1種ライン画像を取得するステップと、
前記第2種ライン画像を取得するステップと、
前記第1の時間間隔での測定タイミング順に取得される複数の前記第1種ライン画像が該測定タイミング順に並んで配置される第1種測定結果画像を生成するステップと、
前記第2の時間間隔での測定タイミング順に取得される複数の前記第2種ライン画像が該測定タイミング順に並んで配置される第2種測定結果画像を生成するステップと、
キャリブレーション用の前記対象物を示す前記第1種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第1領域を特定するとともに、前記キャリブレーション用の前記対象物を示す前記第2種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第2領域を特定するステップと、
前記第1種測定結果画像における前記第1領域の位置及び前記第2種測定結果画像における前記第2領域の位置に基づいて、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差を特定するステップと、
前記測定タイミング差に応じた、所与の画素配列に対応する、良否判定用の前記対象物を示す少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するステップと、
前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、前記マルチチャネルの入力画像を生成するステップと、
を含むことを特徴とする画像生成方法。
An image generation method in which an image generation device capable of communicating with a first line sensor that sequentially generates a first type of line image indicating a first physical quantity at a measurement timing at a first time interval and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being disposed apart from each other along a moving direction of an object moving in one direction at a constant speed, generate multi-channel input images to be input to a trained machine learning model, the method comprising:
acquiring the first type line image;
acquiring the second type line image;
generating a first type measurement result image in which the first type line images acquired in the order of measurement timing at the first time interval are arranged in the order of the measurement timing;
generating a second type measurement result image in which the second type line images acquired in the order of measurement timing at the second time interval are arranged in the order of the measurement timing;
identifying a first region of the object for calibration based on the first type measurement result image showing the object for calibration, and identifying a second region of the object for calibration based on the second type measurement result image showing the object for calibration;
specifying a measurement timing difference determined based on a separation distance between the first line sensor and the second line sensor and a moving speed of the object based on a position of the first area in the first type measurement result image and a position of the second area in the second type measurement result image;
selecting at least one of the first type line images and at least one of the second type line images, which correspond to a given pixel array according to the measurement timing difference and indicate the object for pass/fail determination ;
generating the multi-channel input image by associating, with each pixel included in the pixel array, a pixel value of a pixel included in the selected first type line image and associated with the pixel, and a pixel value of a pixel included in the selected second type line image and associated with the pixel;
13. An image generating method comprising:
一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な良否判定装置が実行する良否判定方法であって、
前記第1種ライン画像を取得するステップと、
前記第2種ライン画像を取得するステップと、
前記第1の時間間隔での測定タイミング順に取得される複数の前記第1種ライン画像が該測定タイミング順に並んで配置される第1種測定結果画像を生成するステップと、
前記第2の時間間隔での測定タイミング順に取得される複数の前記第2種ライン画像が該測定タイミング順に並んで配置される第2種測定結果画像を生成するステップと、
キャリブレーション用の前記対象物を示す前記第1種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第1領域を特定するとともに、前記キャリブレーション用の前記対象物を示す前記第2種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第2領域を特定するステップと、
前記第1種測定結果画像における前記第1領域の位置及び前記第2種測定結果画像における前記第2領域の位置に基づいて、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差を特定するステップと、
前記測定タイミング差に応じた、所与の画素配列に対応する、良否判定用の前記対象物を示す少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択するステップと、
前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、マルチチャネルの入力画像を生成するステップと、
前記入力画像を学習済の機械学習モデルに入力した際の当該機械学習モデルからの出力に基づいて、前記良否判定用の前記対象物の良否を判定するステップと、
を含むことを特徴とする良否判定方法。
A quality determination method executed by a quality determination device capable of communicating with a first line sensor that is arranged apart from each other along a moving direction of an object moving in one direction at a constant speed, the first line sensor sequentially generating a first type of line image indicating a first physical quantity at a measurement timing at a first time interval, and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being disposed apart from each other along a moving direction of an object moving in one direction at a constant speed, the method comprising:
acquiring the first type line image;
acquiring the second type line image;
generating a first type measurement result image in which the first type line images acquired in the order of measurement timing at the first time interval are arranged in the order of the measurement timing;
generating a second type measurement result image in which the second type line images acquired in the order of measurement timing at the second time interval are arranged in the order of the measurement timing;
identifying a first region of the object for calibration based on the first type measurement result image showing the object for calibration, and identifying a second region of the object for calibration based on the second type measurement result image showing the object for calibration;
specifying a measurement timing difference determined based on a separation distance between the first line sensor and the second line sensor and a moving speed of the object based on a position of the first area in the first type measurement result image and a position of the second area in the second type measurement result image;
selecting at least one of the first type line images and at least one of the second type line images, which correspond to a given pixel array according to the measurement timing difference and indicate the object for pass/fail determination ;
generating a multi-channel input image by associating, with each pixel included in the pixel array, a pixel value of a pixel included in the selected first type line image and associated with the pixel, and a pixel value of a pixel included in the selected second type line image and associated with the pixel;
A step of determining whether the object for quality determination is good or bad based on an output from a trained machine learning model when the input image is input into the trained machine learning model;
A method for determining acceptability, comprising:
一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔での測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔での測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能な、学習済の機械学習モデルに入力されるマルチチャネルの入力画像を生成するコンピュータに、
前記第1種ライン画像を取得する手順、
前記第2種ライン画像を取得する手順、
前記第1の時間間隔での測定タイミング順に取得される複数の前記第1種ライン画像が該測定タイミング順に並んで配置される第1種測定結果画像を生成する手順、
前記第2の時間間隔での測定タイミング順に取得される複数の前記第2種ライン画像が該測定タイミング順に並んで配置される第2種測定結果画像を生成する手順、
キャリブレーション用の前記対象物を示す前記第1種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第1領域を特定するとともに、前記キャリブレーション用の前記対象物を示す前記第2種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第2領域を特定する手順、
前記第1種測定結果画像における前記第1領域の位置及び前記第2種測定結果画像における前記第2領域の位置に基づいて、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差を特定する手順、
前記測定タイミング差に応じた、所与の画素配列に対応する、良否判定用の前記対象物を示す少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択する手順、
前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、前記マルチチャネルの入力画像を生成する手順、
を実行させることを特徴とするプログラム。
a computer that generates a multi-channel input image to be input to a trained machine learning model and that is capable of communicating with a first line sensor that sequentially generates a first type of line image indicating a first physical quantity at a measurement timing at a first time interval, and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing at a second time interval, the first line sensor and the second line sensor being spaced apart from each other along a moving direction of an object moving in one direction at a constant speed;
obtaining the first type line image;
obtaining the second type line image;
a step of generating a first type measurement result image in which the first type line images acquired in the order of measurement timing at the first time interval are arranged in the order of the measurement timing;
a step of generating a second type measurement result image in which the second type line images acquired in the order of measurement timing at the second time interval are arranged in the order of the measurement timing;
specifying a first region of the object for calibration based on the first type measurement result image showing the object for calibration, and specifying a second region of the object for calibration based on the second type measurement result image showing the object for calibration;
specifying a measurement timing difference determined based on a separation distance between the first line sensor and the second line sensor and a moving speed of the object, based on a position of the first area in the first type measurement result image and a position of the second area in the second type measurement result image;
selecting at least one of the first type line images and at least one of the second type line images, which correspond to a given pixel array according to the measurement timing difference and show the object for quality determination ;
a step of generating the multi-channel input image by associating, with each pixel included in the pixel array, a pixel value of a pixel included in the selected first type line image and associated with the pixel, and a pixel value of a pixel included in the selected second type line image and associated with the pixel;
A program characterized by executing the above.
一方向に一定速度で移動する対象物の移動方向に沿って互いに離間して配置されている、第1の時間間隔の測定タイミングで第1の物理量を示す第1種ライン画像を順次生成する第1のラインセンサ、及び、第2の時間間隔の測定タイミングで第2の物理量を示す第2種ライン画像を順次生成する第2のラインセンサと通信可能なコンピュータに、
前記第1種ライン画像を取得する手順、
前記第2種ライン画像を取得する手順、
前記第1の時間間隔での測定タイミング順に取得される複数の前記第1種ライン画像が該測定タイミング順に並んで配置される第1種測定結果画像を生成する手順、
前記第2の時間間隔での測定タイミング順に取得される複数の前記第2種ライン画像が該測定タイミング順に並んで配置される第2種測定結果画像を生成する手順、
キャリブレーション用の前記対象物を示す前記第1種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第1領域を特定するとともに、前記キャリブレーション用の前記対象物を示す前記第2種測定結果画像に基づいて前記キャリブレーション用の前記対象物に係る第2領域を特定する手順、
前記第1種測定結果画像における前記第1領域の位置及び前記第2種測定結果画像における前記第2領域の位置に基づいて、前記第1のラインセンサと前記第2のラインセンサとの離間間隔及び前記対象物の移動速度に基づいて決定される測定タイミング差を特定する手順、
前記測定タイミング差に応じた、所与の画素配列に対応する、良否判定用の前記対象物を示す少なくとも1つの前記第1種ライン画像と、少なくとも1つの前記第2種ライン画像と、を選択する手順、
前記画素配列に含まれる各画素に、選択された前記第1種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、選択された前記第2種ライン画像に含まれる、当該画素に対応付けられる画素の画素値と、を関連付けることで、マルチチャネルの入力画像を生成する手順、
前記入力画像を学習済の機械学習モデルに入力した際の当該機械学習モデルからの出力に基づいて、前記良否判定用の前記対象物の良否を判定する手順、
を実行させることを特徴とするプログラム。
a computer capable of communicating with a first line sensor that is arranged apart from each other along a moving direction of an object moving in one direction at a constant speed, the first line sensor sequentially generating a first type of line image indicating a first physical quantity at a measurement timing of a first time interval, and a second line sensor that sequentially generates a second type of line image indicating a second physical quantity at a measurement timing of a second time interval;
obtaining the first type line image;
obtaining the second type line image;
a step of generating a first type measurement result image in which the first type line images acquired in the order of measurement timing at the first time interval are arranged in the order of the measurement timing;
a step of generating a second type measurement result image in which the second type line images acquired in the order of measurement timing at the second time interval are arranged in the order of the measurement timing;
specifying a first region of the object for calibration based on the first type measurement result image showing the object for calibration, and specifying a second region of the object for calibration based on the second type measurement result image showing the object for calibration;
specifying a measurement timing difference determined based on a separation distance between the first line sensor and the second line sensor and a moving speed of the object, based on a position of the first area in the first type measurement result image and a position of the second area in the second type measurement result image;
selecting at least one of the first type line images and at least one of the second type line images, which correspond to a given pixel array according to the measurement timing difference and show the object for quality determination ;
a step of generating a multi-channel input image by associating, with each pixel included in the pixel array, a pixel value of a pixel included in the selected first type line image and associated with the pixel, and a pixel value of a pixel included in the selected second type line image and associated with the pixel;
A step of judging the quality of the object for quality judgment based on an output from a trained machine learning model when the input image is input into the trained machine learning model;
A program characterized by executing the above.
JP2020179437A 2020-10-27 2020-10-27 Image generating device, quality judgement device, image generating method, quality judgement method and program Active JP7575664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020179437A JP7575664B2 (en) 2020-10-27 2020-10-27 Image generating device, quality judgement device, image generating method, quality judgement method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020179437A JP7575664B2 (en) 2020-10-27 2020-10-27 Image generating device, quality judgement device, image generating method, quality judgement method and program

Publications (2)

Publication Number Publication Date
JP2022070395A JP2022070395A (en) 2022-05-13
JP7575664B2 true JP7575664B2 (en) 2024-10-30

Family

ID=81535151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020179437A Active JP7575664B2 (en) 2020-10-27 2020-10-27 Image generating device, quality judgement device, image generating method, quality judgement method and program

Country Status (1)

Country Link
JP (1) JP7575664B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050155419A1 (en) 2004-01-16 2005-07-21 Fuji Photo Film Co., Ltd. Method and apparatus for measuring shape of sheet
JP2007038730A (en) 2005-08-01 2007-02-15 Toyota Motor Corp Tire condition judging device and tire condition judging method
JP2008082709A (en) 2006-09-25 2008-04-10 Sumitomo Rubber Ind Ltd Device of measuring performance of tire and method of measuring performance of racing tire
JP2011247639A (en) 2010-05-24 2011-12-08 Bridgestone Corp Tire inspection device and tire inspection method
JP2013096741A (en) 2011-10-28 2013-05-20 West Nippon Expressway Engineering Shikoku Co Ltd Infrared survey method of structure and infrared survey arithmetic device
JP2019027826A (en) 2017-07-26 2019-02-21 横浜ゴム株式会社 Defect inspection method and defect inspection device
JP2019143996A (en) 2018-02-16 2019-08-29 株式会社ブリヂストン Tire inspection apparatus, tire inspection program, and tire inspection method
JP2019184589A (en) 2018-03-30 2019-10-24 セーレン株式会社 Device and method for inspecting defect
JP2020051981A (en) 2018-09-28 2020-04-02 Jfeテクノリサーチ株式会社 Inspection device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050155419A1 (en) 2004-01-16 2005-07-21 Fuji Photo Film Co., Ltd. Method and apparatus for measuring shape of sheet
JP2007038730A (en) 2005-08-01 2007-02-15 Toyota Motor Corp Tire condition judging device and tire condition judging method
JP2008082709A (en) 2006-09-25 2008-04-10 Sumitomo Rubber Ind Ltd Device of measuring performance of tire and method of measuring performance of racing tire
JP2011247639A (en) 2010-05-24 2011-12-08 Bridgestone Corp Tire inspection device and tire inspection method
JP2013096741A (en) 2011-10-28 2013-05-20 West Nippon Expressway Engineering Shikoku Co Ltd Infrared survey method of structure and infrared survey arithmetic device
JP2019027826A (en) 2017-07-26 2019-02-21 横浜ゴム株式会社 Defect inspection method and defect inspection device
JP2019143996A (en) 2018-02-16 2019-08-29 株式会社ブリヂストン Tire inspection apparatus, tire inspection program, and tire inspection method
JP2019184589A (en) 2018-03-30 2019-10-24 セーレン株式会社 Device and method for inspecting defect
JP2020051981A (en) 2018-09-28 2020-04-02 Jfeテクノリサーチ株式会社 Inspection device

Also Published As

Publication number Publication date
JP2022070395A (en) 2022-05-13

Similar Documents

Publication Publication Date Title
US9773304B2 (en) Inspection apparatus, inspection method, and program
US7630539B2 (en) Image processing apparatus
KR20210008352A (en) System and method for detecting defects in imaged items
US20080175466A1 (en) Inspection apparatus and inspection method
JP2008175549A (en) Defect detection device and method
US11410298B2 (en) System and method for determining part damage
WO2023207861A1 (en) Method and apparatus for testing printing quality of 3d printer, and 3d printer
EP2784746A1 (en) Setting up an area sensing imaging system to capture single line images
JP2000067247A (en) Image recognizing device
US6807288B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP6786015B1 (en) Motion analysis system and motion analysis program
JP7575664B2 (en) Image generating device, quality judgement device, image generating method, quality judgement method and program
CN103383240A (en) Machine vision two-dimension detecting platform device
JP2018205024A (en) Image inspection device, image inspection method, image inspection program, and computer readable recording medium and recorded apparatus
JP2019049509A (en) Surface inspection device and surface inspection method
JPH02194307A (en) Curvature shape measuring instrument for plate-like body
US20180284033A1 (en) System and method for color scanning a moving article
CN116263503A (en) Method and arrangement for determining information about intensity peak positions in a spatio-temporal volume of an image frame
JP5975295B2 (en) Inspection apparatus and program
JP6184339B2 (en) Appearance inspection apparatus, appearance inspection method, and program
CN103067643A (en) Image processing apparatus, image processing method, and image processing system
JP2006292615A (en) Visual examination apparatus, visual inspection method, program for making computer function as visual inspection apparatus, and recording medium
JP2010281666A (en) Imaging inspection method
JP2005077180A (en) Cause estimation device and cause estimation program and cause estimation method of surface defect of metal plate
JPH05108800A (en) Picture defect discrimination processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240930

R150 Certificate of patent or registration of utility model

Ref document number: 7575664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150