[go: up one dir, main page]

JP7631042B2 - Learning Data Generation System - Google Patents

Learning Data Generation System Download PDF

Info

Publication number
JP7631042B2
JP7631042B2 JP2021037243A JP2021037243A JP7631042B2 JP 7631042 B2 JP7631042 B2 JP 7631042B2 JP 2021037243 A JP2021037243 A JP 2021037243A JP 2021037243 A JP2021037243 A JP 2021037243A JP 7631042 B2 JP7631042 B2 JP 7631042B2
Authority
JP
Japan
Prior art keywords
color
image data
area
learning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021037243A
Other languages
Japanese (ja)
Other versions
JP2022137657A (en
Inventor
翔平 工藤
正人 梅津
義尚 岸根
忠佑 伊東
和俊 永野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurita Water Industries Ltd
Toshiba Digital Solutions Corp
Original Assignee
Kurita Water Industries Ltd
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurita Water Industries Ltd, Toshiba Digital Solutions Corp filed Critical Kurita Water Industries Ltd
Priority to JP2021037243A priority Critical patent/JP7631042B2/en
Publication of JP2022137657A publication Critical patent/JP2022137657A/en
Application granted granted Critical
Publication of JP7631042B2 publication Critical patent/JP7631042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、AI、機械学習、ディープラーニング(深層学習)に用いられる学習データ技術に関する。 Embodiments of the present invention relate to learning data technology used in AI, machine learning, and deep learning.

AIは、大量の関連する画像データについてセグメンテーションを行うことにより、精度の高い分析を行うことができるようになる。セグメンテーション(画像セグメンテーション(segmentation)は、その画像における意味があると思われる領域を識別する処理である。 AI can perform highly accurate analysis by performing segmentation on large amounts of related image data. Segmentation (Image Segmentation is the process of identifying regions of an image that are likely to be meaningful.

特開2019-101535号公報JP 2019-101535 A

AIなどの学習モデルに使用される画像データのセグメンテーションを効率かつ短時間で行うことができる学習データ生成システムを提供する。 We provide a learning data generation system that can efficiently and quickly segment image data used in learning models such as AI.

実施形態の学習データ生成システムは、学習対象を撮影した画像データの色特徴分布に基づいて前記画像データ間の色類似度を算出する色類似度算出部と、前記色類似度を用いて前記画像データを複数のパターンに分類するパターン分類部と、撮影環境を考慮してパターン分類別に設定される色調整パラメータを用いて、画像データの色調を補正する色調整部と、色調補正された画像データをグレースケール変換する変換部と、パターン分類別に設定される輝度閾値に基づいて、グレースケール変換された画像データ内の領域を区画して領域指定を行う領域指定部と、を有する。 The training data generation system of the embodiment includes a color similarity calculation unit that calculates color similarity between image data obtained by photographing a training subject based on a color feature distribution of the image data; a pattern classification unit that classifies the image data into a plurality of patterns using the color similarity; a color adjustment unit that corrects the color tone of the image data using color adjustment parameters that are set for each pattern classification taking into account the shooting environment; a conversion unit that converts the color-tone corrected image data into grayscale; and an area designation unit that partitions areas in the grayscale converted image data and designates the areas based on a luminance threshold value that is set for each pattern classification.

第1実施形態の学習データ生成装置によるセグメンテーション機能の説明図である。FIG. 2 is an explanatory diagram of a segmentation function by the training data generation device of the first embodiment. 第1実施形態の学習データ生成装置の機能ブロック図である。FIG. 2 is a functional block diagram of the training data generating device according to the first embodiment. 第1実施形態の第1機能における色類似度の算出方法と色類似度を用いたパターン分類を説明するための図である。10A to 10C are diagrams for explaining a method of calculating color similarity and pattern classification using color similarity in the first function of the first embodiment. 第1実施形態の第2機能における領域指定を説明するための図である。13A and 13B are diagrams for explaining area designation in the second function of the first embodiment. 第1実施形態の学習データ生成処理の処理フローを示す図である。FIG. 11 is a diagram illustrating a processing flow of a learning data generation process according to the first embodiment.

以下、実施形態につき、図面を参照して説明する。 The following describes the embodiment with reference to the drawings.

(第1実施形態)
図1から図5は、第1実施形態の学習データ生成装置100を説明するための図であり、図1は、本実施形態のセグメンテーション機能を説明するための図である。
First Embodiment
1 to 5 are diagrams for explaining a training data generating device 100 according to a first embodiment, and FIG. 1 is a diagram for explaining a segmentation function of this embodiment.

本実施形態の学習データ生成装置100は、AI、機械学習、深層学習(ディープラーニング)などに用いられる学習データを生成する。学習データ生成装置100は、教師ラベル(答え)のあり/なしにかかわらず、画像データ内のどこに何があるのかを判別し、その画像において意味があると思われる領域を識別するセグメンテーション処理を行う。セグメンテーションが実施された学習データを教師データとして用いることで、AIや機械学習、深層学習の精度が向上する。 The training data generation device 100 of this embodiment generates training data used for AI, machine learning, deep learning, and the like. The training data generation device 100 performs a segmentation process to determine where something is in image data, regardless of whether or not there is a teacher label (answer), and to identify areas in the image that are likely to be meaningful. By using the segmented training data as teacher data, the accuracy of AI, machine learning, and deep learning is improved.

しかしながら、「セグメンテーション」は、自動的に行うことはできず、一つ一つの画像データに対して手作業で範囲指定を行い、領域を指定していた。例えば、教師データ作成の際に、画像内の対象部分を人が特定し、対象部分の領域を点で囲むなどの操作が必要であり、特に、雲や泡のように形が変化するものについて、細かい縁取りを行う必要があった。このため、セグメンテーション処理は、膨大な時間と人的労力が必要とされていた。 However, segmentation cannot be performed automatically, and the range and area must be specified manually for each image data. For example, when creating training data, a person must manually identify the target part in the image and perform operations such as encircling the target area with dots. In particular, objects whose shapes change, such as clouds and bubbles, require detailed bordering. For this reason, segmentation processing requires a huge amount of time and human effort.

上述のように、AIや機械学習、深層学習の精度向上には、大量の教師データが必要になる。しかしながら、精度の高い学習に必要なセグメンテーションが施された学習データ(教師データ)を生成するには、膨大な時間と人的労力を要することから、教師データの供給が間に合わず、AIや機械学習、深層学習などの「学習」に時間がかかる問題があった。 As mentioned above, large amounts of training data are required to improve the accuracy of AI, machine learning, and deep learning. However, generating training data (training data) with the segmentation required for highly accurate learning requires a huge amount of time and human effort, and as a result, the supply of training data cannot keep up with demand, resulting in the problem of AI, machine learning, deep learning, and other such technologies taking a long time to "learn."

一例として、水処理作業において、微生物を用いて浄化を行う段階があり、微生物の状態を管理することは非常に重要である。薬品と空気を投入し微生物を活性化させるが、微生物の状態により水面の泡の面積、量、色、形などに変化が発生し、その変化に応じて薬や空気の投入をコントールする必要がある。これらをAIで分析して自動でコントロールすることも可能であるが、画像のセグメンテーション処理に多くの時間が割かれるので学習に必要な教師データを十分に用意することができない。このため、学習に手間取り、AIで分析して自動でコントロールすることを断念せざるを得ないケースもあった。 As an example, in water treatment work, there is a stage where purification is carried out using microorganisms, and managing the state of the microorganisms is extremely important. Chemicals and air are added to activate the microorganisms, but the area, amount, color, and shape of the bubbles on the water surface change depending on the state of the microorganisms, and it is necessary to control the addition of chemicals and air depending on these changes. It is possible to analyze these with AI and control them automatically, but because a lot of time is spent on image segmentation processing, it is not possible to prepare enough training data necessary for learning. As a result, there have been cases where the learning process was so time-consuming that it was necessary to give up on analyzing with AI and controlling it automatically.

また、セグメンテーション処理が、人手で行われる要因としては、撮影環境、すなわち、自然光又は/及び人工光を含む光環境の影響も大きい。光環境が変化すると、学習対象の見え方(色)が異なり、輪郭が不鮮明となって学習対象とそれ以外を区画することが難しくなる。例えば、太陽光が強く全体的に白く見える画像と、太陽光が遮られ全体的に暗く見える画像とでは、同じ対象の見え方が相違すると共に、そこに対象の面積、量、色、形などの変化が加わると、セグメンテーション処理を自動化することがさらに難しくなる。つまり、精度向上のために必要なセグメンテーション処理は、逆に、人による領域識別及び領域指定への依存が高くなる傾向を生じさせている。 In addition, the shooting environment, i.e., the lighting environment including natural and/or artificial light, has a large influence on the segmentation process being performed manually. When the lighting environment changes, the appearance (color) of the learning object changes, the contours become unclear, and it becomes difficult to distinguish the learning object from other objects. For example, the same object looks different in an image where the sunlight is strong and the object appears white overall, and an image where the sunlight is blocked and the object appears dark overall. In addition, when the area, quantity, color, shape, etc. of the object change, it becomes even more difficult to automate the segmentation process. In other words, the segmentation process, which is necessary to improve accuracy, tends to increase the reliance on human region identification and region designation.

そこで、本実施形態の学習データ生成装置100は、セグメンテーション処理を自動化し、迅速かつ短時間で精度の高い学習データを生成する。 The training data generation device 100 of this embodiment automates the segmentation process and generates highly accurate training data quickly and in a short period of time.

図1に示すように、本実施形態の学習データ生成処理は、大きく2つの機能から構成されている。第1機能は、撮影された各画像データが有する色特徴量を分析して色特徴分布を算出し、色特徴分布を画像データ間で比較することで、色類似度を算出する。そして、色類似度が近い画像同士を、グループ化するパターン分類を行う。 As shown in FIG. 1, the learning data generation process of this embodiment is broadly composed of two functions. The first function is to analyze the color feature amounts of each captured image data to calculate a color feature distribution, and to calculate color similarity by comparing the color feature distributions between image data. Then, pattern classification is performed to group images with similar color similarity.

第2機能は、パターン分類された画像群別に、撮影環境に応じた色調整処理を施す。そして、色調整処理が施された画像をグレースケール変換し、パターン分類された画像群毎に設定される輝度閾値(明るさ閾値)を用いて、画像データ内の領域を区画して領域指定を行う。 The second function performs color adjustment processing according to the shooting environment for each group of pattern-classified images. The images that have been color-adjusted are then converted to grayscale, and areas within the image data are partitioned and designated using a luminance threshold (brightness threshold) that is set for each group of pattern-classified images.

第1機能は、各画像の色特徴分布に基づく類似性を用いてパターン分類することで、撮影環境(自然光又は/及び人工光を含む光環境)の影響を考慮した学習対象の見え方(色調)を同じ類似群にまとめることができる。したがって、パターン分類それぞれに適した処理を一括して行うことができる。 The first function classifies patterns using similarities based on the color feature distribution of each image, making it possible to group the appearance (color tone) of the learning subject into the same similar group, taking into account the influence of the shooting environment (lighting environment including natural light and/or artificial light). Therefore, processing appropriate for each pattern classification can be performed all at once.

次に、第2機能は、撮影環境に応じた色調整をパターン分類毎に一括して行いつつ、グレースケール変換することで、画像内の特定範囲の色(学習対象の領域として取り得る色範囲)を識別し、パターン分類別に設定された輝度閾値(明るさ閾値)を用いて、領域指定する範囲を浮き彫りにする。 The second function then performs color adjustments for each pattern classification in accordance with the shooting environment, while simultaneously performing grayscale conversion to identify a specific range of colors within the image (a color range that can serve as the area to be learned), and highlights the area to be specified using a luminance threshold (brightness threshold) set for each pattern classification.

つまり、本実施形態の第2機能は、画像データをグレースケール変換することで、色による明るさの違いから、学習対象の領域として取り得る色範囲を絞り込み、絞り込まれた色範囲に対し、輝度閾値に基づいて領域範囲の輪郭を浮き彫りする。このように、輝度閾値に基づいて画像データ内おける学習対象範囲の輪郭を形成し、輝度閾値以上の領域と輝度閾値未満の領域とに区画したり、輪郭内の領域と輪郭外の領域とに区画したりして、領域指定(領域抽出)を行う。 In other words, the second function of this embodiment converts the image data into grayscale, narrowing down the color range that can be used as the learning target area based on the difference in brightness between colors, and for the narrowed down color range, highlighting the contours of the area range based on the brightness threshold. In this way, the contour of the learning target area in the image data is formed based on the brightness threshold, and area designation (area extraction) is performed by dividing the area into areas above the brightness threshold and areas below the brightness threshold, or into areas inside the contour and areas outside the contour.

これをパターン分類された画像群毎に一括して行うので、セグメンテーション処理が施された画像データ、すなわち、学習データを短時間でかつ大量に生成することができる。 This is done collectively for each group of pattern-classified images, so segmented image data, i.e., learning data, can be generated in large quantities in a short amount of time.

図2は、本実施形態の学習データ生成装置100の機能ブロック図である。撮影装置は、学習対象(監視対象)を少なくとも一部に含む画像を撮影する。撮影装置によって撮影された画像は、学習データ生成装置100に入力される。このとき、撮影装置と学習データ生成装置100を無線又は有線の通信網で結び、撮影装置から撮影画像データを直接取り込めるようにしたり、撮影装置から外部記憶装置に撮影画像データを蓄積し、その外部記憶装置を学習データ生成装置100に接続して撮影画像データを取り込めるようにしたりしてもよい。 Figure 2 is a functional block diagram of the learning data generation device 100 of this embodiment. The imaging device captures an image that includes at least a part of the learning subject (monitoring subject). The image captured by the imaging device is input to the learning data generation device 100. At this time, the imaging device and the learning data generation device 100 may be connected by a wireless or wired communication network so that the captured image data can be directly imported from the imaging device, or the captured image data may be stored from the imaging device in an external storage device and the external storage device may be connected to the learning data generation device 100 so that the captured image data can be imported.

学習データ生成装置100は、第1制御装置110、第2制御装置120、第3制御装置130、セグメンテーション画像出力部140、及び記憶装置150を備えている。 The training data generating device 100 includes a first control device 110, a second control device 120, a third control device 130, a segmentation image output unit 140, and a storage device 150.

第1制御装置110は、学習対象を撮影した画像データの入力を受け付け、記憶部150に記憶する画像データ受付部111、色類似度算出部112、パターン分類部113を備えている。第1制御装置110は、上述した本実施形態の第1機能に相当する。 The first control device 110 includes an image data receiving unit 111 that receives input of image data of a learning subject and stores the data in a memory unit 150, a color similarity calculation unit 112, and a pattern classification unit 113. The first control device 110 corresponds to the first function of the present embodiment described above.

図3は、色類似度の算出方法と色類似度を用いたパターン分類を説明するための図である。色類似度算出部112は、画像データの色特徴分布に基づいて画像データ間の色類似度を算出する。色特徴分布は、HSV色空間における色相(Hue)、彩度(Saturation・Chroma)、明度(Value・Brightness)の各出現頻度分布である。画像データは、撮影環境における自然光又は/及び人工光を含む光環境に応じて異なる色特徴量を有している。例えば、各画素の色相、彩度、明度の各出現頻度を算出してヒストグラムを作成し、そのヒストグラム(分布状況)を比較することで、画像データ間の色類似度を算出することができる。 Figure 3 is a diagram for explaining a method for calculating color similarity and pattern classification using color similarity. The color similarity calculation unit 112 calculates color similarity between image data based on the color feature distribution of the image data. The color feature distribution is the occurrence frequency distribution of hue, saturation (saturation/chroma), and value (value/brightness) in the HSV color space. Image data has different color features depending on the light environment, including natural light and/or artificial light, in the shooting environment. For example, the occurrence frequency of each of the hue, saturation, and value of each pixel is calculated to create a histogram, and the color similarity between image data can be calculated by comparing the histograms (distribution status).

HSV色空間は、色相、彩度、明度の3つの成分からなる色空間であり、色相は、色の種類(例えば赤、青、黄)で、0~360の色相に分割されている。彩度は、色の鮮やかさであり、色の彩度の低下につれて、灰色さが顕著になり、くすんだ色となる。明度は、色の明るさである。HSV色空間の色相は、彩度(0~100)及び明度(0~100)をパラメータとした情報であり、1つの画素は、例えば、色相「36」、彩度「80」、明度「100」の色情報(ピクセル値)を有する。 The HSV color space is a color space consisting of three components: hue, saturation, and lightness. Hue is the type of color (e.g. red, blue, yellow) and is divided into hues from 0 to 360. Saturation is the vividness of a color, and as the saturation of a color decreases, it becomes more gray and dull. Lightness is the brightness of a color. Hue in the HSV color space is information with saturation (0 to 100) and lightness (0 to 100) as parameters, and one pixel has color information (pixel value) of, for example, hue "36", saturation "80", and lightness "100".

色相、彩度、明度の各出現頻度を算出してヒストグラムを生成することで、色特徴分布を把握し、既知のヒストグラム類似度算出手法を用いて、画像データの色特徴分布の類似性を把握することができる。 By calculating the frequency of occurrence of each of the hue, saturation, and brightness and generating a histogram, it is possible to grasp the color feature distribution, and then by using a known histogram similarity calculation method, it is possible to grasp the similarity of the color feature distribution of the image data.

パターン分類部113は、算出された色類似度に基づいて、近しい画像同士をグループ化(パターン化)し、パターン毎の画像データ群を形成する。色類似度が近しい画像データ群は、例えば、撮影環境における光環境が似ているなどの共通した色特徴分布を備えていることになる。本実施形態のパターン化による自動分類で、色特徴分布が互いに類似する画像データの集まりを形成することができる。 The pattern classification unit 113 groups (patterns) similar images based on the calculated color similarity, and forms an image data group for each pattern. Image data groups with similar color similarity have a common color feature distribution, for example, due to similar lighting conditions in the shooting environment. The automatic classification by patterning in this embodiment makes it possible to form a collection of image data with similar color feature distributions.

一度形成された各パターン分類は、互いに一定の非類似性を有する個別のグループとなり、その後入力される画像データは、一定範囲内の類似性を有するグループに仕分けされたり、どのグループに対しても一定範囲の類似性が存在しない場合は、新たなパターンとして仕分けされたりする。 Once each pattern classification is formed, it becomes an individual group with a certain degree of dissimilarity to each other, and image data input thereafter is sorted into groups with a certain range of similarity, or if there is no similarity within a certain range with any of the groups, it is sorted into a new pattern.

次に、第2制御装置120は、色調整パラメータ設定部121及び色調整部122を備えている。色調整パラメータ設定部121は、パターン分類毎に、撮影環境を考慮して設定される色調整パラメータの入力を受け付ける。 Next, the second control device 120 includes a color adjustment parameter setting unit 121 and a color adjustment unit 122. The color adjustment parameter setting unit 121 accepts input of color adjustment parameters that are set for each pattern classification, taking into account the shooting environment.

色調整パラメータは、撮影環境における自然光又は/及び人工光を含む光環境に応じた波長に基づくRGB色空間の色度の強さ、又はHSV色空間の違いを補正するパラメータである。例えば、太陽光が当たっている部分と当たっていない部分とでは、太陽光が当たっている部分の方が、RGBのG(緑)とB(青)の要素が強く出る。そこで、R(赤)を強調する色調整パラメータを設定して画像データ全体の色調整を行うことで、光環境による影響を低減させることができる。 The color adjustment parameters are parameters that correct the chromaticity strength of the RGB color space based on wavelengths according to the lighting environment, including natural and/or artificial light, in the shooting environment, or the difference in the HSV color space. For example, when comparing a part exposed to sunlight and a part not exposed to sunlight, the RGB elements of G (green) and B (blue) are more prominent in the part exposed to sunlight. Therefore, by setting color adjustment parameters that emphasize R (red) and performing color adjustment of the entire image data, the effects of the lighting environment can be reduced.

色調整パラメータは、パターン分類毎に、画像データ群内の各画像を参照し、ユーザが任意の値を設定することができる。色調整パラメータ設定部121は、画像閲覧画面や色調整パラメータ入力画面などを所定のディスプレイに表示させ、画面を通じて色調整パラメータをパターン分類毎に受け付けることができる。 The user can set any value for the color adjustment parameters by referencing each image in the image data group for each pattern classification. The color adjustment parameter setting unit 121 can display an image viewing screen, a color adjustment parameter input screen, etc. on a specified display and accept color adjustment parameters through the screen for each pattern classification.

第3制御装置130は、グレースケール変換部131、輝度閾値設定部132及び領域指定部133を備えている。グレースケール変換部131は、色調補正された画像データをグレースケール変換する。輝度閾値設定部132は、パターン分類別に輝度閾値の入力を受け付ける。領域指定部133は、輝度閾値に基づいてグレースケール変換された画像データ内の領域を区画して領域指定を行う。 The third control device 130 includes a grayscale conversion unit 131, a brightness threshold setting unit 132, and an area designation unit 133. The grayscale conversion unit 131 converts the color-tone corrected image data into grayscale. The brightness threshold setting unit 132 accepts input of a brightness threshold for each pattern classification. The area designation unit 133 partitions an area in the grayscale converted image data based on the brightness threshold and designates the area.

図4は、領域指定を説明するための図であり、第2制御装置120及び第3制御装置130が、上述した第2機能を担う。 Figure 4 is a diagram for explaining area designation, in which the second control device 120 and the third control device 130 perform the second function described above.

図4に示すように、画像データをグレースケール変換し、輝度閾値に基づいて領域範囲の輪郭を形成することができる。そして、例えば、輝度閾値によって作成された輪郭で囲まれる領域とそれ以外の領域とを異なる色で表現し、領域指定された(セグメンテーション処理が施された)学習データを生成する。図4の例において、濃い部分が輝度閾値によって輪郭が形成された抽出領域であり、薄い部分がそれ以外の領域となる。 As shown in Figure 4, image data can be converted to grayscale and the contour of the area range can be formed based on a brightness threshold. Then, for example, the area surrounded by the contour created by the brightness threshold and the other area can be expressed in different colors to generate learning data with specified areas (segmented). In the example of Figure 4, the dark parts are the extracted areas whose contours are created by the brightness threshold, and the light parts are the other areas.

なお、抽出領域が例えば、白色傾向が強い場合は、輝度閾値以上の画素で構成される輪郭を形成することができ、黒色傾向が強い場合は、輝度閾値以下の画素で構成される輪郭を形成することができる。つまり、輝度閾値は、学習対象(監視対象)及びその周囲の色味の関係に応じて使い分けが行われ、閾値以上の輪郭又は閾値未満の輪郭を形成して領域指定を行う。 For example, if the extracted region has a strong tendency toward white, a contour made up of pixels above the brightness threshold can be formed, and if it has a strong tendency toward black, a contour made up of pixels below the brightness threshold can be formed. In other words, the brightness threshold is used differently depending on the relationship between the color of the learning subject (monitoring subject) and its surroundings, and a contour above the threshold or a contour below the threshold is formed to specify the region.

図5は、学習データ生成処理の処理フローを示す図である。撮影装置によって撮影された撮影画像データが入力されると(S101)、色類似度が算出され(S102)、色特徴分布に基づいて一定範囲の類似性を有するパターン群に仕分けされる(S103)。 Figure 5 is a diagram showing the process flow of the learning data generation process. When image data captured by a photographing device is input (S101), color similarity is calculated (S102), and the data is sorted into pattern groups having a certain range of similarity based on the color feature distribution (S103).

色調整パラメータは、仕分けされたパターン分類別に設定することができ(S104)、設定された色調整パラメータを用いて、パターン分類毎に一括して色調整処理を行う(S105)。色調整された画像データは、グレースケール変換され(S106)、グレースケール画像を用いて、領域指定処理が行われる。具体的には、領域指定処理に用いられる輝度閾値をパターン分類別に一括して設定することができ(S107)、同じパターン分類の各画像に対して同値の輝度閾値が適用される。 Color adjustment parameters can be set for each sorted pattern classification (S104), and color adjustment processing is performed collectively for each pattern classification using the set color adjustment parameters (S105). The color-adjusted image data is converted to grayscale (S106), and area designation processing is performed using the grayscale image. Specifically, the brightness threshold used in the area designation processing can be set collectively for each pattern classification (S107), and the same brightness threshold is applied to each image of the same pattern classification.

輝度閾値に基づいて画像データ内における学習対象範囲の輪郭を形成し、輝度閾値以上の領域と輝度閾値未満の領域とに区画したり、輪郭内の領域と輪郭外の領域とに区画したりして、領域指定(領域抽出)を行う(S108)。パターン分類別に異なる輝度閾値が設定されるので、パターン分類毎に領域指定を一括して行うことができる。 Based on the brightness threshold, the contour of the learning range in the image data is formed, and the area is divided into an area above the brightness threshold and an area below the brightness threshold, or into an area inside the contour and an area outside the contour, to perform area designation (area extraction) (S108). Since a different brightness threshold is set for each pattern classification, area designation can be performed for each pattern classification all at once.

このようにセグメンテーション処理が施された学習データは、記憶部150に蓄積される。蓄積された学習データは、セグメンテーション画像出力部140を通じて、教師データを作成するための装置等に出力される(S109)。 The learning data that has been subjected to the segmentation process in this manner is stored in the storage unit 150. The stored learning data is output via the segmentation image output unit 140 to a device for creating teacher data, etc. (S109).

本実施形態によれば、撮影画像データそれぞれの色特徴分布に基づいて画像間の類似性をパターン分類することで、自動的に撮影環境(光環境)を考慮した仕分けを行うことができる。そして、仕分けされたパターン分類別に、撮影環境を考慮した色調整処理を一括して行いつつ、グレースケール変換することで色による明るさの違いから、学習対象の領域として取り得る色範囲を絞り込む。 According to this embodiment, by classifying the similarities between images into patterns based on the color feature distribution of each captured image data, it is possible to automatically perform sorting that takes into account the shooting environment (light environment). Then, for each sorted pattern classification, color adjustment processing that takes into account the shooting environment is performed all at once, and grayscale conversion is performed to narrow down the color range that can be used as the learning target area based on the difference in brightness due to color.

絞り込まれた色範囲に対し、パターン分類別に設定される輝度閾値に基づいて領域範囲の輪郭を浮き彫りにして領域指定を行うので、人手による範囲指定を行う必要がなく、精度の高いセグメンテーションを自動的に行うことができる。 For the narrowed-down color range, the contours of the area are highlighted based on a brightness threshold set for each pattern classification, allowing for area specification, eliminating the need for manual range specification and enabling highly accurate segmentation to be performed automatically.

このように、セグメンテーション処理が施された精度の高い学習データを短時間でかつ大量に生成することができる。 In this way, it is possible to generate a large amount of highly accurate training data that has been subjected to segmentation processing in a short period of time.

以上、実施形態について説明したが、学習データ生成装置100は、AI、機械学習、深層学習等の学習モデルを備える学習システムの一部として構成したり、学習システムに教師データを提供するための教師データ生成システムの一部として構成したりすることができる。例えば、本学習データ生成装置100は、セグメンテーション処理済の画像データを選別したり、教師ラベルを付与したりする機能を備えるように構成すれば、教師データ生成システムとなる。 Although the embodiment has been described above, the training data generation device 100 can be configured as part of a learning system equipped with a learning model such as AI, machine learning, or deep learning, or as part of a training data generation system for providing training data to a learning system. For example, the training data generation device 100 can become a training data generation system if it is configured to have a function of selecting image data that has been subjected to segmentation processing and assigning training labels.

また、学習データ生成装置100は、サーバ装置等の演算機能、記憶機能、通信機能などを備えるコンピュータ装置である。また、ハードウェア構成としては、メモリ(主記憶装置)、マウス、キーボード、タッチパネル、スキャナー等の操作入力手段、プリンタなどの出力手段、補助記憶装置(ハードディスク等)等を備えることができる。 The learning data generation device 100 is a computer device equipped with the computational functions, storage functions, and communication functions of a server device or the like. The hardware configuration may include a memory (main storage device), operation input means such as a mouse, keyboard, touch panel, and scanner, output means such as a printer, and an auxiliary storage device (hard disk, etc.).

また、本発明の各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行して、コンピュータに本発明の各部の機能を動作させることができる。他方、学習データ生成装置100の各機能は、各々個別の装置で構成することもでき、複数の装置を直接に又はネットワークを介して接続してコンピュータシステムを構成することもできる。 Furthermore, each function of the present invention can be realized by a program, and a computer program prepared in advance to realize each function is stored in an auxiliary storage device, and a control unit such as a CPU reads the program stored in the auxiliary storage device into a main storage device, and the control unit executes the program read into the main storage device, thereby causing the computer to operate the functions of each unit of the present invention. On the other hand, each function of the learning data generation device 100 can be configured as a separate device, or a computer system can be configured by connecting multiple devices directly or via a network.

また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。 The above program can also be provided to a computer in a state in which it is recorded on a computer-readable recording medium. Examples of computer-readable recording media include optical disks such as CD-ROMs, phase-change optical disks such as DVD-ROMs, magneto-optical disks such as MO (Magnet Optical) and MD (Mini Disk), magnetic disks such as floppy (registered trademark) disks and removable hard disks, and memory cards such as Compact Flash (registered trademark), Smart Media, SD memory cards, and memory sticks. Also included as recording media are hardware devices such as integrated circuits (IC chips, etc.) that are specially designed and configured for the purposes of the present invention.

なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although an embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This new embodiment can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents described in the claims.

100 学習データ生成装置
110 第1制御装置
111 画像データ受付部
112 色類似度算出部
113 パターン分類部
120 第2制御装置
121 色調整パラメータ設定部
122 色調整部
130 第3制御装置
131 グレースケール変換部
132 輝度閾値設定部
133 領域指定部
140 セグメンテーション画像出力部
150 記憶部
100 Learning data generating device 110 First control device 111 Image data receiving unit 112 Color similarity calculation unit 113 Pattern classification unit 120 Second control device 121 Color adjustment parameter setting unit 122 Color adjustment unit 130 Third control device 131 Grayscale conversion unit 132 Brightness threshold setting unit 133 Area designation unit 140 Segmentation image output unit 150 Storage unit

Claims (5)

学習対象を撮影した画像データの色特徴分布に基づいて前記画像データ間の色類似度を算出する色類似度算出部と、
前記色類似度を用いて前記画像データを複数のパターンに分類するパターン分類部と、
撮影環境を考慮してパターン分類別に設定される色調整パラメータを用いて、画像データの色調を補正する色調整部と、
色調補正された画像データをグレースケール変換する変換部と、
パターン分類別に設定される輝度閾値に基づいて、グレースケール変換された画像データ内の領域を区画して領域指定を行う領域指定部と、
を有することを特徴とする学習データ生成システム。
a color similarity calculation unit that calculates a color similarity between image data obtained by photographing a learning object based on a color feature distribution of the image data;
a pattern classification unit that classifies the image data into a plurality of patterns using the color similarity;
a color adjustment unit that corrects the color tone of the image data using color adjustment parameters that are set for each pattern classification in consideration of the shooting environment;
A conversion unit that converts the color-corrected image data into grayscale data;
a region designation unit that partitions regions in the grayscale converted image data based on a luminance threshold value that is set for each pattern classification, and designates the regions;
A learning data generation system comprising:
学習対象を撮影した画像データは、撮影環境における自然光又は/及び人工光を含む光環境に応じて異なる色特徴量を有しており、
前記色特徴分布は、色相、彩度、明度の各出現頻度分布であり、
前記色類似度算出部は、色相、彩度、明度の各出現頻度分布を算出し、画像データ間で前記出現頻度分布を比較して前記色類似度を算出することを特徴とする請求項1に記載の学習データ生成システム。
The image data of the learning object has different color features depending on a light environment including natural light and/or artificial light in the shooting environment,
The color feature distribution is a distribution of occurrence frequencies of hue, saturation, and brightness,
The learning data generation system according to claim 1, characterized in that the color similarity calculation unit calculates the occurrence frequency distribution of each of hue, saturation, and lightness, and calculates the color similarity by comparing the occurrence frequency distributions between image data.
前記色調整パラメータは、撮影環境における自然光又は/及び人工光を含む光環境に応じた波長に基づくRGB色空間の色度の強さ、又はHSV色空間の違いを補正するパラメータであり、
前記領域指定部は、前記輝度閾値に基づいて画像データ内おける学習対象範囲の輪郭を形成し、前記輝度閾値以上の領域と輝度閾値未満の領域とに区画、又は輪郭内の領域と輪郭外の領域とに区画して領域指定を行うことを特徴とする請求項1又は2に記載の学習データ生成装置。
the color adjustment parameter is a parameter for correcting the chromaticity intensity in the RGB color space or the difference in the HSV color space based on the wavelength according to the light environment including natural light and/or artificial light in the shooting environment,
The training data generation device according to claim 1 or 2, characterized in that the area designation unit forms a contour of a learning target range in the image data based on the brightness threshold, and designates the area by dividing the area into an area above the brightness threshold and an area below the brightness threshold, or into an area inside the contour and an area outside the contour.
コンピュータによって実行されるプログラムであって、
学習対象を撮影した画像データの色特徴分布に基づいて前記画像データ間の色類似度を算出する第1機能と、
前記色類似度を用いて前記画像データを複数のパターンに分類する第2機能と、
撮影環境を考慮してパターン分類別に設定される色調整パラメータを用いて、画像データの色調を補正する第3機能と、
色調補正された画像データをグレースケール変換する第4機能と、
パターン分類別に設定される輝度閾値に基づいて、グレースケール変換された画像データ内の領域を区画して領域指定を行う第5機能と、
を前記コンピュータに実現させるためのプログラム。
A program executed by a computer,
A first function of calculating a color similarity between image data obtained by photographing a learning object based on a color feature distribution of the image data;
A second function of classifying the image data into a plurality of patterns using the color similarity;
a third function of correcting the color tone of the image data using color adjustment parameters that are set for each pattern classification in consideration of the shooting environment;
A fourth function of converting the color-corrected image data into a grayscale image;
A fifth function of partitioning an area in the grayscale converted image data based on a luminance threshold value set for each pattern classification and specifying the area;
A program for causing the computer to realize the above.
学習対象を撮影した画像データの入力を受け付ける画像データ受付部と、
画像データの色特徴分布に基づいて画像データ間の色類似度を算出する色類似度算出部と、
前記色類似度を用いて前記画像データを複数のパターンに分類するパターン分類部と、
パターン分類毎に、撮影環境を考慮して設定される色調整パラメータの入力を受け付け、設定された色調整パラメータを用いて画像データの色調を補正する色調整部と、
色調補正された画像データをグレースケール変換する変換部と、
パターン分類別に設定される輝度閾値の入力を受け付け、前記輝度閾値に基づいてグレースケール変換された画像データ内の領域を区画して領域指定を行う領域指定部と、
領域指定された画像データを出力する学習データ出力部と、
を有することを特徴とする学習データ生成システム。
an image data receiving unit that receives input of image data obtained by photographing a learning subject;
a color similarity calculation unit that calculates a color similarity between image data based on a color feature distribution of the image data;
a pattern classification unit that classifies the image data into a plurality of patterns using the color similarity;
a color adjustment unit that receives input of color adjustment parameters that are set for each pattern classification in consideration of the shooting environment, and corrects the color tone of the image data using the set color adjustment parameters;
A conversion unit that converts the color-corrected image data into grayscale data;
an area designation unit that accepts an input of a luminance threshold value set for each pattern classification, and partitions an area in the grayscale converted image data based on the luminance threshold value to designate the area;
a learning data output unit that outputs image data with a specified region;
A learning data generation system comprising:
JP2021037243A 2021-03-09 2021-03-09 Learning Data Generation System Active JP7631042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021037243A JP7631042B2 (en) 2021-03-09 2021-03-09 Learning Data Generation System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021037243A JP7631042B2 (en) 2021-03-09 2021-03-09 Learning Data Generation System

Publications (2)

Publication Number Publication Date
JP2022137657A JP2022137657A (en) 2022-09-22
JP7631042B2 true JP7631042B2 (en) 2025-02-18

Family

ID=83319681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021037243A Active JP7631042B2 (en) 2021-03-09 2021-03-09 Learning Data Generation System

Country Status (1)

Country Link
JP (1) JP7631042B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7643626B1 (en) * 2024-07-12 2025-03-11 横河電機株式会社 Information providing device, information providing method, and information providing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132358A (en) 2001-07-26 2003-05-09 Canon Inc Image processing method, device and system
JP2004023347A (en) 2002-06-14 2004-01-22 Canon Inc Apparatus, system and method of image processing, storage medium and program
JP2016076115A (en) 2014-10-07 2016-05-12 株式会社Nttドコモ Information processing device, information processing method and program
JP2020087165A (en) 2018-11-29 2020-06-04 富士通株式会社 Learning data generation program, learning data generation device, and learning data generation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132358A (en) 2001-07-26 2003-05-09 Canon Inc Image processing method, device and system
JP2004023347A (en) 2002-06-14 2004-01-22 Canon Inc Apparatus, system and method of image processing, storage medium and program
JP2016076115A (en) 2014-10-07 2016-05-12 株式会社Nttドコモ Information processing device, information processing method and program
JP2020087165A (en) 2018-11-29 2020-06-04 富士通株式会社 Learning data generation program, learning data generation device, and learning data generation method

Also Published As

Publication number Publication date
JP2022137657A (en) 2022-09-22

Similar Documents

Publication Publication Date Title
Chung et al. Efficient shadow detection of color aerial images based on successive thresholding scheme
EP1977371B1 (en) Method and system for identifying illumination fields in an image
TWI467515B (en) Multi-color dropout for scanned document
CN1475969B (en) Method and system for intensify human image pattern
CN102542275B (en) Automatic identification method for identification photo background and system thereof
US20040240749A1 (en) Image processing device, image processing method, and program
US9053537B2 (en) Classifier for use in generating a diffuse image
WO2018049084A1 (en) Methods and systems for human imperceptible computerized color transfer
US8542917B2 (en) System and method for identifying complex tokens in an image
CA2483615A1 (en) Method of feature identification and analysis
US8559714B2 (en) Post processing for improved generation of intrinsic images
US20230222829A1 (en) Symbol analysis device and method included in facility floor plan
WO2019011342A1 (en) Cloth identification method and device, electronic device and storage medium
US8249342B1 (en) Color analytics for a digital image
CN113111806A (en) Method and system for object recognition
JP7631042B2 (en) Learning Data Generation System
JP2008187710A (en) Method and system for specifying image characteristics, method for determining background color, control program and recording medium
CN114926661B (en) Textile surface color data processing and identifying method and system
CN113111811A (en) Target discrimination method and system
CN112489049A (en) Mature tomato fruit segmentation method and system based on superpixels and SVM
KR20230095801A (en) Artificial intelligence system and method on location cancerous region on digital pathology with customized resoluiont
JP2004265431A (en) Face extraction method
JPH11306325A (en) Object detection apparatus and object detection method
US20130114891A1 (en) Post processing for improved generation of intrinsic images
CN113269198B (en) Pattern processing method, electronic device and readable storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250205

R150 Certificate of patent or registration of utility model

Ref document number: 7631042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150