JP7631042B2 - Learning Data Generation System - Google Patents
Learning Data Generation System Download PDFInfo
- Publication number
- JP7631042B2 JP7631042B2 JP2021037243A JP2021037243A JP7631042B2 JP 7631042 B2 JP7631042 B2 JP 7631042B2 JP 2021037243 A JP2021037243 A JP 2021037243A JP 2021037243 A JP2021037243 A JP 2021037243A JP 7631042 B2 JP7631042 B2 JP 7631042B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- image data
- area
- learning
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明の実施形態は、AI、機械学習、ディープラーニング(深層学習)に用いられる学習データ技術に関する。 Embodiments of the present invention relate to learning data technology used in AI, machine learning, and deep learning.
AIは、大量の関連する画像データについてセグメンテーションを行うことにより、精度の高い分析を行うことができるようになる。セグメンテーション(画像セグメンテーション(segmentation)は、その画像における意味があると思われる領域を識別する処理である。 AI can perform highly accurate analysis by performing segmentation on large amounts of related image data. Segmentation (Image Segmentation is the process of identifying regions of an image that are likely to be meaningful.
AIなどの学習モデルに使用される画像データのセグメンテーションを効率かつ短時間で行うことができる学習データ生成システムを提供する。 We provide a learning data generation system that can efficiently and quickly segment image data used in learning models such as AI.
実施形態の学習データ生成システムは、学習対象を撮影した画像データの色特徴分布に基づいて前記画像データ間の色類似度を算出する色類似度算出部と、前記色類似度を用いて前記画像データを複数のパターンに分類するパターン分類部と、撮影環境を考慮してパターン分類別に設定される色調整パラメータを用いて、画像データの色調を補正する色調整部と、色調補正された画像データをグレースケール変換する変換部と、パターン分類別に設定される輝度閾値に基づいて、グレースケール変換された画像データ内の領域を区画して領域指定を行う領域指定部と、を有する。 The training data generation system of the embodiment includes a color similarity calculation unit that calculates color similarity between image data obtained by photographing a training subject based on a color feature distribution of the image data; a pattern classification unit that classifies the image data into a plurality of patterns using the color similarity; a color adjustment unit that corrects the color tone of the image data using color adjustment parameters that are set for each pattern classification taking into account the shooting environment; a conversion unit that converts the color-tone corrected image data into grayscale; and an area designation unit that partitions areas in the grayscale converted image data and designates the areas based on a luminance threshold value that is set for each pattern classification.
以下、実施形態につき、図面を参照して説明する。 The following describes the embodiment with reference to the drawings.
(第1実施形態)
図1から図5は、第1実施形態の学習データ生成装置100を説明するための図であり、図1は、本実施形態のセグメンテーション機能を説明するための図である。
First Embodiment
1 to 5 are diagrams for explaining a training data generating device 100 according to a first embodiment, and FIG. 1 is a diagram for explaining a segmentation function of this embodiment.
本実施形態の学習データ生成装置100は、AI、機械学習、深層学習(ディープラーニング)などに用いられる学習データを生成する。学習データ生成装置100は、教師ラベル(答え)のあり/なしにかかわらず、画像データ内のどこに何があるのかを判別し、その画像において意味があると思われる領域を識別するセグメンテーション処理を行う。セグメンテーションが実施された学習データを教師データとして用いることで、AIや機械学習、深層学習の精度が向上する。 The training data generation device 100 of this embodiment generates training data used for AI, machine learning, deep learning, and the like. The training data generation device 100 performs a segmentation process to determine where something is in image data, regardless of whether or not there is a teacher label (answer), and to identify areas in the image that are likely to be meaningful. By using the segmented training data as teacher data, the accuracy of AI, machine learning, and deep learning is improved.
しかしながら、「セグメンテーション」は、自動的に行うことはできず、一つ一つの画像データに対して手作業で範囲指定を行い、領域を指定していた。例えば、教師データ作成の際に、画像内の対象部分を人が特定し、対象部分の領域を点で囲むなどの操作が必要であり、特に、雲や泡のように形が変化するものについて、細かい縁取りを行う必要があった。このため、セグメンテーション処理は、膨大な時間と人的労力が必要とされていた。 However, segmentation cannot be performed automatically, and the range and area must be specified manually for each image data. For example, when creating training data, a person must manually identify the target part in the image and perform operations such as encircling the target area with dots. In particular, objects whose shapes change, such as clouds and bubbles, require detailed bordering. For this reason, segmentation processing requires a huge amount of time and human effort.
上述のように、AIや機械学習、深層学習の精度向上には、大量の教師データが必要になる。しかしながら、精度の高い学習に必要なセグメンテーションが施された学習データ(教師データ)を生成するには、膨大な時間と人的労力を要することから、教師データの供給が間に合わず、AIや機械学習、深層学習などの「学習」に時間がかかる問題があった。 As mentioned above, large amounts of training data are required to improve the accuracy of AI, machine learning, and deep learning. However, generating training data (training data) with the segmentation required for highly accurate learning requires a huge amount of time and human effort, and as a result, the supply of training data cannot keep up with demand, resulting in the problem of AI, machine learning, deep learning, and other such technologies taking a long time to "learn."
一例として、水処理作業において、微生物を用いて浄化を行う段階があり、微生物の状態を管理することは非常に重要である。薬品と空気を投入し微生物を活性化させるが、微生物の状態により水面の泡の面積、量、色、形などに変化が発生し、その変化に応じて薬や空気の投入をコントールする必要がある。これらをAIで分析して自動でコントロールすることも可能であるが、画像のセグメンテーション処理に多くの時間が割かれるので学習に必要な教師データを十分に用意することができない。このため、学習に手間取り、AIで分析して自動でコントロールすることを断念せざるを得ないケースもあった。 As an example, in water treatment work, there is a stage where purification is carried out using microorganisms, and managing the state of the microorganisms is extremely important. Chemicals and air are added to activate the microorganisms, but the area, amount, color, and shape of the bubbles on the water surface change depending on the state of the microorganisms, and it is necessary to control the addition of chemicals and air depending on these changes. It is possible to analyze these with AI and control them automatically, but because a lot of time is spent on image segmentation processing, it is not possible to prepare enough training data necessary for learning. As a result, there have been cases where the learning process was so time-consuming that it was necessary to give up on analyzing with AI and controlling it automatically.
また、セグメンテーション処理が、人手で行われる要因としては、撮影環境、すなわち、自然光又は/及び人工光を含む光環境の影響も大きい。光環境が変化すると、学習対象の見え方(色)が異なり、輪郭が不鮮明となって学習対象とそれ以外を区画することが難しくなる。例えば、太陽光が強く全体的に白く見える画像と、太陽光が遮られ全体的に暗く見える画像とでは、同じ対象の見え方が相違すると共に、そこに対象の面積、量、色、形などの変化が加わると、セグメンテーション処理を自動化することがさらに難しくなる。つまり、精度向上のために必要なセグメンテーション処理は、逆に、人による領域識別及び領域指定への依存が高くなる傾向を生じさせている。 In addition, the shooting environment, i.e., the lighting environment including natural and/or artificial light, has a large influence on the segmentation process being performed manually. When the lighting environment changes, the appearance (color) of the learning object changes, the contours become unclear, and it becomes difficult to distinguish the learning object from other objects. For example, the same object looks different in an image where the sunlight is strong and the object appears white overall, and an image where the sunlight is blocked and the object appears dark overall. In addition, when the area, quantity, color, shape, etc. of the object change, it becomes even more difficult to automate the segmentation process. In other words, the segmentation process, which is necessary to improve accuracy, tends to increase the reliance on human region identification and region designation.
そこで、本実施形態の学習データ生成装置100は、セグメンテーション処理を自動化し、迅速かつ短時間で精度の高い学習データを生成する。 The training data generation device 100 of this embodiment automates the segmentation process and generates highly accurate training data quickly and in a short period of time.
図1に示すように、本実施形態の学習データ生成処理は、大きく2つの機能から構成されている。第1機能は、撮影された各画像データが有する色特徴量を分析して色特徴分布を算出し、色特徴分布を画像データ間で比較することで、色類似度を算出する。そして、色類似度が近い画像同士を、グループ化するパターン分類を行う。 As shown in FIG. 1, the learning data generation process of this embodiment is broadly composed of two functions. The first function is to analyze the color feature amounts of each captured image data to calculate a color feature distribution, and to calculate color similarity by comparing the color feature distributions between image data. Then, pattern classification is performed to group images with similar color similarity.
第2機能は、パターン分類された画像群別に、撮影環境に応じた色調整処理を施す。そして、色調整処理が施された画像をグレースケール変換し、パターン分類された画像群毎に設定される輝度閾値(明るさ閾値)を用いて、画像データ内の領域を区画して領域指定を行う。 The second function performs color adjustment processing according to the shooting environment for each group of pattern-classified images. The images that have been color-adjusted are then converted to grayscale, and areas within the image data are partitioned and designated using a luminance threshold (brightness threshold) that is set for each group of pattern-classified images.
第1機能は、各画像の色特徴分布に基づく類似性を用いてパターン分類することで、撮影環境(自然光又は/及び人工光を含む光環境)の影響を考慮した学習対象の見え方(色調)を同じ類似群にまとめることができる。したがって、パターン分類それぞれに適した処理を一括して行うことができる。 The first function classifies patterns using similarities based on the color feature distribution of each image, making it possible to group the appearance (color tone) of the learning subject into the same similar group, taking into account the influence of the shooting environment (lighting environment including natural light and/or artificial light). Therefore, processing appropriate for each pattern classification can be performed all at once.
次に、第2機能は、撮影環境に応じた色調整をパターン分類毎に一括して行いつつ、グレースケール変換することで、画像内の特定範囲の色(学習対象の領域として取り得る色範囲)を識別し、パターン分類別に設定された輝度閾値(明るさ閾値)を用いて、領域指定する範囲を浮き彫りにする。 The second function then performs color adjustments for each pattern classification in accordance with the shooting environment, while simultaneously performing grayscale conversion to identify a specific range of colors within the image (a color range that can serve as the area to be learned), and highlights the area to be specified using a luminance threshold (brightness threshold) set for each pattern classification.
つまり、本実施形態の第2機能は、画像データをグレースケール変換することで、色による明るさの違いから、学習対象の領域として取り得る色範囲を絞り込み、絞り込まれた色範囲に対し、輝度閾値に基づいて領域範囲の輪郭を浮き彫りする。このように、輝度閾値に基づいて画像データ内おける学習対象範囲の輪郭を形成し、輝度閾値以上の領域と輝度閾値未満の領域とに区画したり、輪郭内の領域と輪郭外の領域とに区画したりして、領域指定(領域抽出)を行う。 In other words, the second function of this embodiment converts the image data into grayscale, narrowing down the color range that can be used as the learning target area based on the difference in brightness between colors, and for the narrowed down color range, highlighting the contours of the area range based on the brightness threshold. In this way, the contour of the learning target area in the image data is formed based on the brightness threshold, and area designation (area extraction) is performed by dividing the area into areas above the brightness threshold and areas below the brightness threshold, or into areas inside the contour and areas outside the contour.
これをパターン分類された画像群毎に一括して行うので、セグメンテーション処理が施された画像データ、すなわち、学習データを短時間でかつ大量に生成することができる。 This is done collectively for each group of pattern-classified images, so segmented image data, i.e., learning data, can be generated in large quantities in a short amount of time.
図2は、本実施形態の学習データ生成装置100の機能ブロック図である。撮影装置は、学習対象(監視対象)を少なくとも一部に含む画像を撮影する。撮影装置によって撮影された画像は、学習データ生成装置100に入力される。このとき、撮影装置と学習データ生成装置100を無線又は有線の通信網で結び、撮影装置から撮影画像データを直接取り込めるようにしたり、撮影装置から外部記憶装置に撮影画像データを蓄積し、その外部記憶装置を学習データ生成装置100に接続して撮影画像データを取り込めるようにしたりしてもよい。 Figure 2 is a functional block diagram of the learning data generation device 100 of this embodiment. The imaging device captures an image that includes at least a part of the learning subject (monitoring subject). The image captured by the imaging device is input to the learning data generation device 100. At this time, the imaging device and the learning data generation device 100 may be connected by a wireless or wired communication network so that the captured image data can be directly imported from the imaging device, or the captured image data may be stored from the imaging device in an external storage device and the external storage device may be connected to the learning data generation device 100 so that the captured image data can be imported.
学習データ生成装置100は、第1制御装置110、第2制御装置120、第3制御装置130、セグメンテーション画像出力部140、及び記憶装置150を備えている。
The training data generating device 100 includes a
第1制御装置110は、学習対象を撮影した画像データの入力を受け付け、記憶部150に記憶する画像データ受付部111、色類似度算出部112、パターン分類部113を備えている。第1制御装置110は、上述した本実施形態の第1機能に相当する。
The
図3は、色類似度の算出方法と色類似度を用いたパターン分類を説明するための図である。色類似度算出部112は、画像データの色特徴分布に基づいて画像データ間の色類似度を算出する。色特徴分布は、HSV色空間における色相(Hue)、彩度(Saturation・Chroma)、明度(Value・Brightness)の各出現頻度分布である。画像データは、撮影環境における自然光又は/及び人工光を含む光環境に応じて異なる色特徴量を有している。例えば、各画素の色相、彩度、明度の各出現頻度を算出してヒストグラムを作成し、そのヒストグラム(分布状況)を比較することで、画像データ間の色類似度を算出することができる。
Figure 3 is a diagram for explaining a method for calculating color similarity and pattern classification using color similarity. The color
HSV色空間は、色相、彩度、明度の3つの成分からなる色空間であり、色相は、色の種類(例えば赤、青、黄)で、0~360の色相に分割されている。彩度は、色の鮮やかさであり、色の彩度の低下につれて、灰色さが顕著になり、くすんだ色となる。明度は、色の明るさである。HSV色空間の色相は、彩度(0~100)及び明度(0~100)をパラメータとした情報であり、1つの画素は、例えば、色相「36」、彩度「80」、明度「100」の色情報(ピクセル値)を有する。 The HSV color space is a color space consisting of three components: hue, saturation, and lightness. Hue is the type of color (e.g. red, blue, yellow) and is divided into hues from 0 to 360. Saturation is the vividness of a color, and as the saturation of a color decreases, it becomes more gray and dull. Lightness is the brightness of a color. Hue in the HSV color space is information with saturation (0 to 100) and lightness (0 to 100) as parameters, and one pixel has color information (pixel value) of, for example, hue "36", saturation "80", and lightness "100".
色相、彩度、明度の各出現頻度を算出してヒストグラムを生成することで、色特徴分布を把握し、既知のヒストグラム類似度算出手法を用いて、画像データの色特徴分布の類似性を把握することができる。 By calculating the frequency of occurrence of each of the hue, saturation, and brightness and generating a histogram, it is possible to grasp the color feature distribution, and then by using a known histogram similarity calculation method, it is possible to grasp the similarity of the color feature distribution of the image data.
パターン分類部113は、算出された色類似度に基づいて、近しい画像同士をグループ化(パターン化)し、パターン毎の画像データ群を形成する。色類似度が近しい画像データ群は、例えば、撮影環境における光環境が似ているなどの共通した色特徴分布を備えていることになる。本実施形態のパターン化による自動分類で、色特徴分布が互いに類似する画像データの集まりを形成することができる。
The
一度形成された各パターン分類は、互いに一定の非類似性を有する個別のグループとなり、その後入力される画像データは、一定範囲内の類似性を有するグループに仕分けされたり、どのグループに対しても一定範囲の類似性が存在しない場合は、新たなパターンとして仕分けされたりする。 Once each pattern classification is formed, it becomes an individual group with a certain degree of dissimilarity to each other, and image data input thereafter is sorted into groups with a certain range of similarity, or if there is no similarity within a certain range with any of the groups, it is sorted into a new pattern.
次に、第2制御装置120は、色調整パラメータ設定部121及び色調整部122を備えている。色調整パラメータ設定部121は、パターン分類毎に、撮影環境を考慮して設定される色調整パラメータの入力を受け付ける。
Next, the
色調整パラメータは、撮影環境における自然光又は/及び人工光を含む光環境に応じた波長に基づくRGB色空間の色度の強さ、又はHSV色空間の違いを補正するパラメータである。例えば、太陽光が当たっている部分と当たっていない部分とでは、太陽光が当たっている部分の方が、RGBのG(緑)とB(青)の要素が強く出る。そこで、R(赤)を強調する色調整パラメータを設定して画像データ全体の色調整を行うことで、光環境による影響を低減させることができる。 The color adjustment parameters are parameters that correct the chromaticity strength of the RGB color space based on wavelengths according to the lighting environment, including natural and/or artificial light, in the shooting environment, or the difference in the HSV color space. For example, when comparing a part exposed to sunlight and a part not exposed to sunlight, the RGB elements of G (green) and B (blue) are more prominent in the part exposed to sunlight. Therefore, by setting color adjustment parameters that emphasize R (red) and performing color adjustment of the entire image data, the effects of the lighting environment can be reduced.
色調整パラメータは、パターン分類毎に、画像データ群内の各画像を参照し、ユーザが任意の値を設定することができる。色調整パラメータ設定部121は、画像閲覧画面や色調整パラメータ入力画面などを所定のディスプレイに表示させ、画面を通じて色調整パラメータをパターン分類毎に受け付けることができる。
The user can set any value for the color adjustment parameters by referencing each image in the image data group for each pattern classification. The color adjustment
第3制御装置130は、グレースケール変換部131、輝度閾値設定部132及び領域指定部133を備えている。グレースケール変換部131は、色調補正された画像データをグレースケール変換する。輝度閾値設定部132は、パターン分類別に輝度閾値の入力を受け付ける。領域指定部133は、輝度閾値に基づいてグレースケール変換された画像データ内の領域を区画して領域指定を行う。
The
図4は、領域指定を説明するための図であり、第2制御装置120及び第3制御装置130が、上述した第2機能を担う。
Figure 4 is a diagram for explaining area designation, in which the
図4に示すように、画像データをグレースケール変換し、輝度閾値に基づいて領域範囲の輪郭を形成することができる。そして、例えば、輝度閾値によって作成された輪郭で囲まれる領域とそれ以外の領域とを異なる色で表現し、領域指定された(セグメンテーション処理が施された)学習データを生成する。図4の例において、濃い部分が輝度閾値によって輪郭が形成された抽出領域であり、薄い部分がそれ以外の領域となる。 As shown in Figure 4, image data can be converted to grayscale and the contour of the area range can be formed based on a brightness threshold. Then, for example, the area surrounded by the contour created by the brightness threshold and the other area can be expressed in different colors to generate learning data with specified areas (segmented). In the example of Figure 4, the dark parts are the extracted areas whose contours are created by the brightness threshold, and the light parts are the other areas.
なお、抽出領域が例えば、白色傾向が強い場合は、輝度閾値以上の画素で構成される輪郭を形成することができ、黒色傾向が強い場合は、輝度閾値以下の画素で構成される輪郭を形成することができる。つまり、輝度閾値は、学習対象(監視対象)及びその周囲の色味の関係に応じて使い分けが行われ、閾値以上の輪郭又は閾値未満の輪郭を形成して領域指定を行う。 For example, if the extracted region has a strong tendency toward white, a contour made up of pixels above the brightness threshold can be formed, and if it has a strong tendency toward black, a contour made up of pixels below the brightness threshold can be formed. In other words, the brightness threshold is used differently depending on the relationship between the color of the learning subject (monitoring subject) and its surroundings, and a contour above the threshold or a contour below the threshold is formed to specify the region.
図5は、学習データ生成処理の処理フローを示す図である。撮影装置によって撮影された撮影画像データが入力されると(S101)、色類似度が算出され(S102)、色特徴分布に基づいて一定範囲の類似性を有するパターン群に仕分けされる(S103)。 Figure 5 is a diagram showing the process flow of the learning data generation process. When image data captured by a photographing device is input (S101), color similarity is calculated (S102), and the data is sorted into pattern groups having a certain range of similarity based on the color feature distribution (S103).
色調整パラメータは、仕分けされたパターン分類別に設定することができ(S104)、設定された色調整パラメータを用いて、パターン分類毎に一括して色調整処理を行う(S105)。色調整された画像データは、グレースケール変換され(S106)、グレースケール画像を用いて、領域指定処理が行われる。具体的には、領域指定処理に用いられる輝度閾値をパターン分類別に一括して設定することができ(S107)、同じパターン分類の各画像に対して同値の輝度閾値が適用される。 Color adjustment parameters can be set for each sorted pattern classification (S104), and color adjustment processing is performed collectively for each pattern classification using the set color adjustment parameters (S105). The color-adjusted image data is converted to grayscale (S106), and area designation processing is performed using the grayscale image. Specifically, the brightness threshold used in the area designation processing can be set collectively for each pattern classification (S107), and the same brightness threshold is applied to each image of the same pattern classification.
輝度閾値に基づいて画像データ内における学習対象範囲の輪郭を形成し、輝度閾値以上の領域と輝度閾値未満の領域とに区画したり、輪郭内の領域と輪郭外の領域とに区画したりして、領域指定(領域抽出)を行う(S108)。パターン分類別に異なる輝度閾値が設定されるので、パターン分類毎に領域指定を一括して行うことができる。 Based on the brightness threshold, the contour of the learning range in the image data is formed, and the area is divided into an area above the brightness threshold and an area below the brightness threshold, or into an area inside the contour and an area outside the contour, to perform area designation (area extraction) (S108). Since a different brightness threshold is set for each pattern classification, area designation can be performed for each pattern classification all at once.
このようにセグメンテーション処理が施された学習データは、記憶部150に蓄積される。蓄積された学習データは、セグメンテーション画像出力部140を通じて、教師データを作成するための装置等に出力される(S109)。
The learning data that has been subjected to the segmentation process in this manner is stored in the
本実施形態によれば、撮影画像データそれぞれの色特徴分布に基づいて画像間の類似性をパターン分類することで、自動的に撮影環境(光環境)を考慮した仕分けを行うことができる。そして、仕分けされたパターン分類別に、撮影環境を考慮した色調整処理を一括して行いつつ、グレースケール変換することで色による明るさの違いから、学習対象の領域として取り得る色範囲を絞り込む。 According to this embodiment, by classifying the similarities between images into patterns based on the color feature distribution of each captured image data, it is possible to automatically perform sorting that takes into account the shooting environment (light environment). Then, for each sorted pattern classification, color adjustment processing that takes into account the shooting environment is performed all at once, and grayscale conversion is performed to narrow down the color range that can be used as the learning target area based on the difference in brightness due to color.
絞り込まれた色範囲に対し、パターン分類別に設定される輝度閾値に基づいて領域範囲の輪郭を浮き彫りにして領域指定を行うので、人手による範囲指定を行う必要がなく、精度の高いセグメンテーションを自動的に行うことができる。 For the narrowed-down color range, the contours of the area are highlighted based on a brightness threshold set for each pattern classification, allowing for area specification, eliminating the need for manual range specification and enabling highly accurate segmentation to be performed automatically.
このように、セグメンテーション処理が施された精度の高い学習データを短時間でかつ大量に生成することができる。 In this way, it is possible to generate a large amount of highly accurate training data that has been subjected to segmentation processing in a short period of time.
以上、実施形態について説明したが、学習データ生成装置100は、AI、機械学習、深層学習等の学習モデルを備える学習システムの一部として構成したり、学習システムに教師データを提供するための教師データ生成システムの一部として構成したりすることができる。例えば、本学習データ生成装置100は、セグメンテーション処理済の画像データを選別したり、教師ラベルを付与したりする機能を備えるように構成すれば、教師データ生成システムとなる。 Although the embodiment has been described above, the training data generation device 100 can be configured as part of a learning system equipped with a learning model such as AI, machine learning, or deep learning, or as part of a training data generation system for providing training data to a learning system. For example, the training data generation device 100 can become a training data generation system if it is configured to have a function of selecting image data that has been subjected to segmentation processing and assigning training labels.
また、学習データ生成装置100は、サーバ装置等の演算機能、記憶機能、通信機能などを備えるコンピュータ装置である。また、ハードウェア構成としては、メモリ(主記憶装置)、マウス、キーボード、タッチパネル、スキャナー等の操作入力手段、プリンタなどの出力手段、補助記憶装置(ハードディスク等)等を備えることができる。 The learning data generation device 100 is a computer device equipped with the computational functions, storage functions, and communication functions of a server device or the like. The hardware configuration may include a memory (main storage device), operation input means such as a mouse, keyboard, touch panel, and scanner, output means such as a printer, and an auxiliary storage device (hard disk, etc.).
また、本発明の各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行して、コンピュータに本発明の各部の機能を動作させることができる。他方、学習データ生成装置100の各機能は、各々個別の装置で構成することもでき、複数の装置を直接に又はネットワークを介して接続してコンピュータシステムを構成することもできる。 Furthermore, each function of the present invention can be realized by a program, and a computer program prepared in advance to realize each function is stored in an auxiliary storage device, and a control unit such as a CPU reads the program stored in the auxiliary storage device into a main storage device, and the control unit executes the program read into the main storage device, thereby causing the computer to operate the functions of each unit of the present invention. On the other hand, each function of the learning data generation device 100 can be configured as a separate device, or a computer system can be configured by connecting multiple devices directly or via a network.
また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。 The above program can also be provided to a computer in a state in which it is recorded on a computer-readable recording medium. Examples of computer-readable recording media include optical disks such as CD-ROMs, phase-change optical disks such as DVD-ROMs, magneto-optical disks such as MO (Magnet Optical) and MD (Mini Disk), magnetic disks such as floppy (registered trademark) disks and removable hard disks, and memory cards such as Compact Flash (registered trademark), Smart Media, SD memory cards, and memory sticks. Also included as recording media are hardware devices such as integrated circuits (IC chips, etc.) that are specially designed and configured for the purposes of the present invention.
なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although an embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This new embodiment can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention and its equivalents described in the claims.
100 学習データ生成装置
110 第1制御装置
111 画像データ受付部
112 色類似度算出部
113 パターン分類部
120 第2制御装置
121 色調整パラメータ設定部
122 色調整部
130 第3制御装置
131 グレースケール変換部
132 輝度閾値設定部
133 領域指定部
140 セグメンテーション画像出力部
150 記憶部
100 Learning
Claims (5)
前記色類似度を用いて前記画像データを複数のパターンに分類するパターン分類部と、
撮影環境を考慮してパターン分類別に設定される色調整パラメータを用いて、画像データの色調を補正する色調整部と、
色調補正された画像データをグレースケール変換する変換部と、
パターン分類別に設定される輝度閾値に基づいて、グレースケール変換された画像データ内の領域を区画して領域指定を行う領域指定部と、
を有することを特徴とする学習データ生成システム。 a color similarity calculation unit that calculates a color similarity between image data obtained by photographing a learning object based on a color feature distribution of the image data;
a pattern classification unit that classifies the image data into a plurality of patterns using the color similarity;
a color adjustment unit that corrects the color tone of the image data using color adjustment parameters that are set for each pattern classification in consideration of the shooting environment;
A conversion unit that converts the color-corrected image data into grayscale data;
a region designation unit that partitions regions in the grayscale converted image data based on a luminance threshold value that is set for each pattern classification, and designates the regions;
A learning data generation system comprising:
前記色特徴分布は、色相、彩度、明度の各出現頻度分布であり、
前記色類似度算出部は、色相、彩度、明度の各出現頻度分布を算出し、画像データ間で前記出現頻度分布を比較して前記色類似度を算出することを特徴とする請求項1に記載の学習データ生成システム。 The image data of the learning object has different color features depending on a light environment including natural light and/or artificial light in the shooting environment,
The color feature distribution is a distribution of occurrence frequencies of hue, saturation, and brightness,
The learning data generation system according to claim 1, characterized in that the color similarity calculation unit calculates the occurrence frequency distribution of each of hue, saturation, and lightness, and calculates the color similarity by comparing the occurrence frequency distributions between image data.
前記領域指定部は、前記輝度閾値に基づいて画像データ内おける学習対象範囲の輪郭を形成し、前記輝度閾値以上の領域と輝度閾値未満の領域とに区画、又は輪郭内の領域と輪郭外の領域とに区画して領域指定を行うことを特徴とする請求項1又は2に記載の学習データ生成装置。 the color adjustment parameter is a parameter for correcting the chromaticity intensity in the RGB color space or the difference in the HSV color space based on the wavelength according to the light environment including natural light and/or artificial light in the shooting environment,
The training data generation device according to claim 1 or 2, characterized in that the area designation unit forms a contour of a learning target range in the image data based on the brightness threshold, and designates the area by dividing the area into an area above the brightness threshold and an area below the brightness threshold, or into an area inside the contour and an area outside the contour.
学習対象を撮影した画像データの色特徴分布に基づいて前記画像データ間の色類似度を算出する第1機能と、
前記色類似度を用いて前記画像データを複数のパターンに分類する第2機能と、
撮影環境を考慮してパターン分類別に設定される色調整パラメータを用いて、画像データの色調を補正する第3機能と、
色調補正された画像データをグレースケール変換する第4機能と、
パターン分類別に設定される輝度閾値に基づいて、グレースケール変換された画像データ内の領域を区画して領域指定を行う第5機能と、
を前記コンピュータに実現させるためのプログラム。 A program executed by a computer,
A first function of calculating a color similarity between image data obtained by photographing a learning object based on a color feature distribution of the image data;
A second function of classifying the image data into a plurality of patterns using the color similarity;
a third function of correcting the color tone of the image data using color adjustment parameters that are set for each pattern classification in consideration of the shooting environment;
A fourth function of converting the color-corrected image data into a grayscale image;
A fifth function of partitioning an area in the grayscale converted image data based on a luminance threshold value set for each pattern classification and specifying the area;
A program for causing the computer to realize the above.
画像データの色特徴分布に基づいて画像データ間の色類似度を算出する色類似度算出部と、
前記色類似度を用いて前記画像データを複数のパターンに分類するパターン分類部と、
パターン分類毎に、撮影環境を考慮して設定される色調整パラメータの入力を受け付け、設定された色調整パラメータを用いて画像データの色調を補正する色調整部と、
色調補正された画像データをグレースケール変換する変換部と、
パターン分類別に設定される輝度閾値の入力を受け付け、前記輝度閾値に基づいてグレースケール変換された画像データ内の領域を区画して領域指定を行う領域指定部と、
領域指定された画像データを出力する学習データ出力部と、
を有することを特徴とする学習データ生成システム。 an image data receiving unit that receives input of image data obtained by photographing a learning subject;
a color similarity calculation unit that calculates a color similarity between image data based on a color feature distribution of the image data;
a pattern classification unit that classifies the image data into a plurality of patterns using the color similarity;
a color adjustment unit that receives input of color adjustment parameters that are set for each pattern classification in consideration of the shooting environment, and corrects the color tone of the image data using the set color adjustment parameters;
A conversion unit that converts the color-corrected image data into grayscale data;
an area designation unit that accepts an input of a luminance threshold value set for each pattern classification, and partitions an area in the grayscale converted image data based on the luminance threshold value to designate the area;
a learning data output unit that outputs image data with a specified region;
A learning data generation system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037243A JP7631042B2 (en) | 2021-03-09 | 2021-03-09 | Learning Data Generation System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037243A JP7631042B2 (en) | 2021-03-09 | 2021-03-09 | Learning Data Generation System |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022137657A JP2022137657A (en) | 2022-09-22 |
JP7631042B2 true JP7631042B2 (en) | 2025-02-18 |
Family
ID=83319681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021037243A Active JP7631042B2 (en) | 2021-03-09 | 2021-03-09 | Learning Data Generation System |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7631042B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7643626B1 (en) * | 2024-07-12 | 2025-03-11 | 横河電機株式会社 | Information providing device, information providing method, and information providing program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003132358A (en) | 2001-07-26 | 2003-05-09 | Canon Inc | Image processing method, device and system |
JP2004023347A (en) | 2002-06-14 | 2004-01-22 | Canon Inc | Apparatus, system and method of image processing, storage medium and program |
JP2016076115A (en) | 2014-10-07 | 2016-05-12 | 株式会社Nttドコモ | Information processing device, information processing method and program |
JP2020087165A (en) | 2018-11-29 | 2020-06-04 | 富士通株式会社 | Learning data generation program, learning data generation device, and learning data generation method |
-
2021
- 2021-03-09 JP JP2021037243A patent/JP7631042B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003132358A (en) | 2001-07-26 | 2003-05-09 | Canon Inc | Image processing method, device and system |
JP2004023347A (en) | 2002-06-14 | 2004-01-22 | Canon Inc | Apparatus, system and method of image processing, storage medium and program |
JP2016076115A (en) | 2014-10-07 | 2016-05-12 | 株式会社Nttドコモ | Information processing device, information processing method and program |
JP2020087165A (en) | 2018-11-29 | 2020-06-04 | 富士通株式会社 | Learning data generation program, learning data generation device, and learning data generation method |
Also Published As
Publication number | Publication date |
---|---|
JP2022137657A (en) | 2022-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chung et al. | Efficient shadow detection of color aerial images based on successive thresholding scheme | |
EP1977371B1 (en) | Method and system for identifying illumination fields in an image | |
TWI467515B (en) | Multi-color dropout for scanned document | |
CN1475969B (en) | Method and system for intensify human image pattern | |
CN102542275B (en) | Automatic identification method for identification photo background and system thereof | |
US20040240749A1 (en) | Image processing device, image processing method, and program | |
US9053537B2 (en) | Classifier for use in generating a diffuse image | |
WO2018049084A1 (en) | Methods and systems for human imperceptible computerized color transfer | |
US8542917B2 (en) | System and method for identifying complex tokens in an image | |
CA2483615A1 (en) | Method of feature identification and analysis | |
US8559714B2 (en) | Post processing for improved generation of intrinsic images | |
US20230222829A1 (en) | Symbol analysis device and method included in facility floor plan | |
WO2019011342A1 (en) | Cloth identification method and device, electronic device and storage medium | |
US8249342B1 (en) | Color analytics for a digital image | |
CN113111806A (en) | Method and system for object recognition | |
JP7631042B2 (en) | Learning Data Generation System | |
JP2008187710A (en) | Method and system for specifying image characteristics, method for determining background color, control program and recording medium | |
CN114926661B (en) | Textile surface color data processing and identifying method and system | |
CN113111811A (en) | Target discrimination method and system | |
CN112489049A (en) | Mature tomato fruit segmentation method and system based on superpixels and SVM | |
KR20230095801A (en) | Artificial intelligence system and method on location cancerous region on digital pathology with customized resoluiont | |
JP2004265431A (en) | Face extraction method | |
JPH11306325A (en) | Object detection apparatus and object detection method | |
US20130114891A1 (en) | Post processing for improved generation of intrinsic images | |
CN113269198B (en) | Pattern processing method, electronic device and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20220516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7631042 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |