JP7617717B2 - Image Processing Method - Google Patents
Image Processing Method Download PDFInfo
- Publication number
- JP7617717B2 JP7617717B2 JP2020145307A JP2020145307A JP7617717B2 JP 7617717 B2 JP7617717 B2 JP 7617717B2 JP 2020145307 A JP2020145307 A JP 2020145307A JP 2020145307 A JP2020145307 A JP 2020145307A JP 7617717 B2 JP7617717 B2 JP 7617717B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- learning
- training
- instruction input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 18
- 238000012549 training Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 13
- 238000010801 machine learning Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 5
- WZUVPPKBWHMQCE-UHFFFAOYSA-N Haematoxylin Chemical compound C12=CC(O)=C(O)C=C2CC2(O)C1C1=CC=C(O)C(O)=C1OC2 WZUVPPKBWHMQCE-UHFFFAOYSA-N 0.000 claims description 4
- YQGOJNYOYNNSMM-UHFFFAOYSA-N eosin Chemical compound [Na+].OC(=O)C1=CC=CC=C1C1=C2C=C(Br)C(=O)C(Br)=C2OC2=C(Br)C(O)=C(Br)C=C21 YQGOJNYOYNNSMM-UHFFFAOYSA-N 0.000 claims description 2
- 210000001519 tissue Anatomy 0.000 description 49
- 201000010099 disease Diseases 0.000 description 21
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 21
- 210000004027 cell Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 206010028980 Neoplasm Diseases 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 230000001575 pathological effect Effects 0.000 description 5
- 238000010186 staining Methods 0.000 description 4
- 230000003902 lesion Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007490 hematoxylin and eosin (H&E) staining Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000006907 apoptotic process Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000003855 cell nucleus Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 210000000805 cytoplasm Anatomy 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004940 nucleus Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000004881 tumor cell Anatomy 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Biological Materials (AREA)
- Image Analysis (AREA)
Description
この発明は、例えば病理標本を撮像した画像に対する画像処理に関するものであり、特に、機械学習を用いた画像処理を行う際に必要となる学習データの作成作業を支援する技術に関する。 This invention relates to image processing of images captured, for example, of pathological specimens, and in particular to technology that supports the creation of learning data required for image processing using machine learning.
近年、病理組織全体を簡易に画像データ化することのできる撮像技術の発展に伴い、デジタル化された病理組織画像の蓄積が進んでいる。そして、このような病理組織画像を対象として画像処理や機械学習を用いることにより、注目する細胞や構造物の状態を解析し定量的な評価を行うことが可能となってきている。 In recent years, with the development of imaging technology that can easily convert entire pathological tissues into image data, digitized pathological tissue images are being accumulated. By applying image processing and machine learning to these pathological tissue images, it is now possible to analyze and quantitatively evaluate the state of cells and structures of interest.
機械学習の結果を用いた解析を良好に行うためには、細胞や構造物の典型的な事例を表す良質の学習用画像データを多数収集し、個々の学習用画像データに対してその状態を正しく教示する作業が必要となる。この作業は、病理医などの熟練者が、画像を1枚ずつ目視観察してその状態に応じたラベルを付与するというものであり、作業者への負担が非常に大きい。 To perform effective analysis using the results of machine learning, it is necessary to collect a large amount of high-quality training image data that represents typical examples of cells and structures, and to correctly teach the condition of each piece of training image data. This task requires an expert such as a pathologist to visually observe each image and assign a label according to its condition, which places a heavy burden on the worker.
例えば特許文献1に記載の技術においては、ニューラルネットワーク構造のディープラーニング(深層学習)アルゴリズムを用いて、組織の画像が腫瘍を含むものであるか否かが判定されている。この技術では、腫瘍を含む組織の画像と腫瘍を含まない画像とのそれぞれから作成された訓練データ(学習データ)を用いて深層学習を行い、腫瘍の有無による組織の形態的特徴の違いを学習させることにより、腫瘍の有無を判断する機能を有する学習済みのモデルを構築している。訓練データの基となる腫瘍の有無判断は、病理医によって行われることとなっている。
For example, the technology described in
このような人為的判断はまた、種々の誤判断要因を含み得る。まず、判断の対象となる組織、細胞、構造物等は標本ごとの個体ばらつきが非常に大きい上、それらに対する定量的かつ標準化された判断基準自体が確立されていない。また標本の染色性にもばらつきがある。このため、判断者の知識や経験に基づいた相対的な判定とならざるを得ないという問題がある。さらに判断者についても、個人のスキルや体調、疲労の度合い、判断の前までに見た他の画像の影響等によって、同一人でも判断結果がばらつくことがある。 Such human judgments can also include various factors that lead to erroneous judgments. First, the tissues, cells, structures, etc. that are the subject of judgment vary greatly from specimen to specimen, and quantitative and standardized judgment criteria for them have not been established. There is also variation in the staining properties of specimens. This poses the problem that judgments must be made relative to the judge's knowledge and experience. Furthermore, judgment results can vary even for the same person depending on the judge's personal skills, physical condition, degree of fatigue, and the influence of other images viewed prior to making the judgment.
これらのことから、ユーザー(判断者)が病理組織標本の画像に含まれる細胞や構造物の状態を効率よく、かつ安定した判断基準で判断することができるように、収集された画像の整理や提示などを自動的または半自動的に処理することのできる技術が求められる。しかしながら、上記従来技術はこのような要求に応えるには至っていない。 For these reasons, there is a demand for technology that can automatically or semi-automatically organize and present collected images so that users (judges) can efficiently judge the state of cells and structures contained in images of pathological tissue specimens using stable criteria. However, the above-mentioned conventional technologies do not yet meet this demand.
この発明は上記課題に鑑みなされたものであり、組織標本を撮像してなる複数の学習用画像を適切な表示態様で表示出力することにより、機械学習のためのユーザーによる教示作業を効果的に支援することのできる技術を提供することを目的とする。 This invention has been made in consideration of the above problems, and aims to provide a technology that can effectively support the user's teaching work for machine learning by displaying and outputting multiple learning images, which are images of tissue specimens, in an appropriate display format.
この発明にかかる画像処理方法は、上記目的を達成するため、組織標本を撮像した複数の学習用画像の各々につき、当該画像中のオブジェクトの特徴を画像処理によって抽出する工程と、抽出された前記特徴と所定の選択基準とに基づき、前記学習用画像のうち一部の画像を複数選択し、選択された複数の前記学習用画像を含む画像セットを構成する工程と、前記画像セットに含まれる複数の前記学習用画像を同一画面に配置した表示用画像を表示装置に出力する工程と、表示された前記学習用画像の各々についてユーザーからの教示入力を受け付けて、前記学習用画像とそれに対応する前記教示入力の結果とを関連付ける工程とを備え、前記学習用画像の組み合わせが互いに異なる複数の前記画像セットを作成し、該複数の画像セットそれぞれに対応する複数の前記表示用画像を切り替えて表示し、その都度前記教示入力を受け付け、前記選択基準を変更しながら前記学習用画像の選択を行うことにより、1つの前記学習用画像を複数の前記画像セットに含ませて、前記学習用画像の各々を複数回前記表示装置に表示させるとともにその都度前記教示入力を受け付ける。 In order to achieve the above-mentioned object, the image processing method of the present invention includes the steps of: extracting features of objects in each of a plurality of learning images obtained by capturing an image of a tissue specimen through image processing; selecting a plurality of images from the learning images based on the extracted features and a predetermined selection criterion, and constructing an image set including the selected plurality of learning images; outputting to a display device a display image in which a plurality of the learning images included in the image set are arranged on the same screen; and accepting instruction input from a user for each of the displayed learning images and associating the learning image with the result of the instruction input corresponding thereto. The image processing method creates a plurality of image sets each having a different combination of the learning images, switches between and displays a plurality of the display images corresponding to each of the plurality of image sets, accepting the instruction input each time, and selecting the learning images while changing the selection criterion, thereby including one learning image in a plurality of image sets , and causing each of the learning images to be displayed on the display device a plurality of times while accepting the instruction input each time .
このように構成された発明では、1つの画面に所定の選択基準で選択された複数の学習用画像が表示されるので、ユーザーは複数の画像を見比べて教示入力を行うことが可能である。1つだけ、あるいは複数が無作為の順番で提示された学習用画像を自らの知識と照らし合わせて判断するよりも、比較対象となる他の学習用画像が併せて表示される方が、より的確な判断結果を得やすい。 In an invention configured in this way, multiple learning images selected according to a predetermined selection criterion are displayed on one screen, allowing the user to compare the multiple images and perform instruction input. It is easier to obtain a more accurate judgment result when other learning images to compare with are also displayed, rather than judging a single learning image or multiple learning images presented in a random order against one's own knowledge.
さらに、この発明では、同一の学習用画像が、他の学習用画像との組み合わせを異ならせながら複数回表示される。前記したように、ユーザーによる判断にはばらつきがあり、同じ学習用画像であっても、同時に表示される他の画像との組み合わせによって評価が揺らぐことがあり得る。組み合わせを変えながら複数回、同じ学習用画像が表示され教示入力が受け付けられることにより、統計的にこのような揺らぎの収束を図ることが可能である。 Furthermore, in this invention, the same learning image is displayed multiple times while changing the combination with other learning images. As mentioned above, there is variation in user judgment, and even if it is the same learning image, the evaluation may fluctuate depending on the combination with other images displayed at the same time. By displaying the same learning image multiple times while changing the combination and accepting instruction input, it is possible to statistically converge such fluctuations.
このように、評価入力を受けるべき複数の学習用画像の各々を、他の学習用画像と併せて、しかも組み合わせを変えながら複数回表示するようにすることで、ユーザーは記憶だけに頼らず実際に画像を比較しながら相対評価を行うことが可能となり、また判断の揺らぎに起因する誤教示を低減させることができる。 In this way, by displaying each of the multiple learning images that are to receive evaluation input multiple times in combination with other learning images, and in different combinations, the user is able to make a relative evaluation by actually comparing the images, rather than relying solely on memory, and erroneous teaching due to fluctuations in judgment can be reduced.
上記のように、本発明は、教示入力を受けるべき複数の学習用画像の各々を、他の学習用画像と併せて、しかも組み合わせを変えながら複数回表示することにより、機械学習のためのユーザーによる教示作業を効果的に支援することが可能である。 As described above, the present invention can effectively support a user's instruction work for machine learning by displaying each of a plurality of training images that are to receive instruction input multiple times in combination with other training images, and in different combinations.
以下、本発明に係る画像処理方法の具体的な実施形態について説明する。この画像処理方法は、機械学習モデル、例えば深層学習(ディープラーニング)モデルを用いて組織標本画像の解析を行うために必要となる、教師データの作成作業を支援するためのものである。より具体的には、教師データの作成には収集された学習用画像(以下、単に「画像」ということがある)の各々へのラベル付け(教示)作業をユーザーが行う必要があるが、この画像処理方法は、それらの学習用画像を適切な態様で表示することにより、ユーザーによる教示作業を効率よく、かつ判断の揺らぎを低減しつつ行えるようにするものである。 A specific embodiment of the image processing method according to the present invention will be described below. This image processing method is intended to support the creation of training data, which is necessary for analyzing tissue specimen images using a machine learning model, such as a deep learning model. More specifically, the creation of training data requires the user to label (teach) each of the collected training images (hereinafter, sometimes simply referred to as "images"); however, this image processing method displays the training images in an appropriate manner, allowing the user to perform the teaching work efficiently while reducing fluctuations in judgment.
機械学習の精度を高めるためには、多数の学習用画像を収集し、その各々に対し的確な教示作業を行う必要がある。しかしながら、例えば腫瘍細胞の判定で用いられる核の異型性など、その際の判断基準として絶対的なものは確立されておらず、画像間での相対的な判断とならざるを得ない。この場合、収集された学習用画像の全てを提示することは、画像の枚数が多くなると事実上不可能であり、またユーザーにとっても、多様な形態を示す多数の画像を相互に比較して的確な評価を行うことは困難であり、また非常に手間のかかる作業となる。 To improve the accuracy of machine learning, it is necessary to collect a large number of training images and provide appropriate training for each of them. However, there are no absolute established standards for judgment, such as the nuclear atypia used to identify tumor cells, and judgments must be made relative to one another between images. In this case, it is virtually impossible to present all of the training images collected when there are a large number of images, and it is also difficult for users to compare a large number of images showing various morphologies and make an accurate evaluation, which is also a very time-consuming task.
このため、現実的には多数の学習用画像のうち一部を選択して提示し、それらの中での相対比較に基づく評価をユーザーに求めることになる。この場合、表示されている画像間での相対評価は可能であるとしても、表示に含まれない他の画像との関係で当該評価が正しいとは言えないケースがあり得る。以下に説明する本発明の実施形態は、このような問題に対応するものである。 For this reason, in practice, a portion of the many learning images is selected and presented to the user, and the user is asked to evaluate them based on a relative comparison among them. In this case, even if a relative evaluation between the displayed images is possible, there may be cases where the evaluation cannot be said to be correct in relation to other images that are not included in the display. The embodiment of the present invention described below addresses this problem.
<第1実施形態>
図1は本発明に係る画像処理方法の第1実施形態を示すフローチャートである。この処理のうち、ステップS101における学習用画像の収集およびステップS106における教示入力は基本的にユーザーによるものであるが、その他の各処理ステップは一般的なコンピューター装置により実行可能なものである。ここでは、ユーザーインターフェースとしてマウス、キーボード等の入力デバイスと、ディスプレイ装置のような出力デバイスとを備えたコンピューター装置により、これらの処理が実行されるものとする。
First Embodiment
1 is a flow chart showing a first embodiment of an image processing method according to the present invention. In this process, the collection of learning images in step S101 and the instruction input in step S106 are basically performed by a user, but the other process steps can be executed by a general computer device. In this case, it is assumed that these processes are executed by a computer device equipped with input devices such as a mouse and keyboard as a user interface, and an output device such as a display device.
最初に、多数の学習用画像が収集される(ステップS101)。学習用画像の収集は、種々の組織標本を撮像することにより収集されてもよく、また既に撮像されている組織標本の画像のうち目的に応じたものを、ライブラリから取得する態様であってもよい。 First, a large number of learning images are collected (step S101). The learning images may be collected by imaging various tissue specimens, or images of previously captured tissue specimens that are appropriate for the purpose may be obtained from a library.
学習用画像として撮像される標本は、どの組織または器官由来のものであるか、またどのような疾患を持つ(または持たない)ものであるかについては予めわかっているものとする。これは組織を標本として採取するという行為の目的からみて妥当な前提であると言える。また、標本は細胞の目視観察に適した染色、例えばヘマトキシリン・エオジン染色(HE染色)がなされているものとする。なお、以下において「組織」の語は、特に断りのない限り、必要に応じ「器官」と読み替えることができるものとする。 It is assumed that the specimens captured as learning images are derived from a tissue or organ and that they have (or do not have) a disease. This is a reasonable assumption given the purpose of collecting tissue as a specimen. Furthermore, the specimens are assumed to have been stained in a manner suitable for visual observation of cells, such as hematoxylin-eosin staining (HE staining). In the following, the word "tissue" can be read as "organ" as necessary, unless otherwise specified.
収集された学習用画像に対しては、適宜の画像処理による特徴抽出(ステップS102)、および該特徴に基づく、類似度に関わる指標値の導出が行われる(ステップS103)。画像処理としては、例えば画像の二値化処理、エッジ検出処理、特定の色や輝度を有する領域の抽出などを用いることができる。また、予め機械学習により構築された領域分割アルゴリズムにより、所定の特徴を有する領域が抽出されてもよい。例えば細胞や核の個数(または密度)、形状、濃淡等、組織標本を定量的に表す各種の情報を指標値とすることができる。 The collected learning images are subjected to appropriate image processing to extract features (step S102), and an index value relating to similarity is derived based on the features (step S103). Image processing can include, for example, binarization of images, edge detection, and extraction of areas with specific colors or brightness. Areas with specific characteristics may also be extracted using a region segmentation algorithm previously constructed using machine learning. For example, various information that quantitatively represents the tissue specimen, such as the number (or density), shape, and shade of cells or nuclei, can be used as the index value.
また、染色された標本ごとに染色性にばらつきが生じることがある。このような染色性の違いを指標値として用いることができ、例えば赤色成分または青色成分の強さを用いることができる。さらに、画像内の二次的な構成成分量を指標値とすることもできる。ここで、「二次的な構成成分」とは、組織画像に含まれる構造物であるが解析においては直接の評価対象ではないもののことである。例えば、組織中の血管、アーチファクト(標本作製時に人工的に生じる傷等)、組織が存在しない(またはそれと同等の状態の)箇所等が、二次的な構成成分に該当する。画像に含まれるそれらの量、例えばそれらが占める面積を、指標値として用いることができる。また、例えば既存のライブラリから取得された画像のように、既にラベルが付与された画像がある場合には、その情報を類似度の指標として扱うことも可能である。例えば同一ラベルが付与された画像同士は類似度が比較的高く、ラベルが互い異なる画像間では類似度がより低いと言える。また、画像の特徴を高中低などの程度で表したラベルがある場合には、それを類似度の指標とすることができる。 In addition, the staining may vary for each stained specimen. Such differences in staining may be used as an index value, for example, the intensity of the red or blue component. Furthermore, the amount of secondary components in the image may be used as an index value. Here, "secondary components" refers to structures contained in the tissue image that are not directly evaluated in the analysis. For example, blood vessels in the tissue, artifacts (such as artificial scratches caused during specimen preparation), and areas where no tissue exists (or is in a state equivalent thereto) are secondary components. The amount of these components contained in the image, for example, the area they occupy, may be used as an index value. In addition, when there are images that have already been labeled, such as images obtained from an existing library, it is also possible to treat this information as an index of similarity. For example, it can be said that images with the same label have a relatively high similarity, and images with different labels have a lower similarity. In addition, when there are labels that express the characteristics of the image in terms of a degree such as high, medium, or low, they can be used as an index of similarity.
複数の学習用画像間で指標値の差が比較的小さい場合、それらの間の類似度は比較的高いと言える。一方、指標値の違いが大きければ、類似度は低いと言える。このように、指標値を用いて、複数の学習用画像間で相対的に類似度を評価することができる。 When the difference in index values between multiple training images is relatively small, the similarity between them can be said to be relatively high. On the other hand, when the difference in index values is large, the similarity can be said to be low. In this way, the index values can be used to evaluate the relative similarity between multiple training images.
図2は類似度の観点で学習用画像を分類、配列した例を示す模式図である。なお、この図は原理説明のためのものであって、実際の画像処理においてこのような分類や配列を要するものではない。収集された学習用画像が、組織の種類としてA,B,…、疾患の種類としてa,b,c,d,e,…(このうち疾患a~cは組織Aに生じる疾患であり、疾患d,eは組織Bに生じる疾患であるとする)を含むものであるとする。疾患を含まない、つまり正常な組織については、「正常」な状態であることを疾患の種類の1つとして扱うことができる。 Figure 2 is a schematic diagram showing an example of classification and arrangement of training images from the perspective of similarity. Note that this diagram is for the purpose of explaining the principle, and such classification and arrangement are not required in actual image processing. Assume that the collected training images contain tissue types A, B, ... and disease types a, b, c, d, e, ... (of which, diseases a to c are assumed to be diseases that occur in tissue A, and diseases d and e are assumed to be diseases that occur in tissue B). For tissues that do not contain diseases, in other words, normal tissues, the "normal" state can be treated as one type of disease.
組織と疾患との各組み合わせに対し、それぞれ複数の学習用画像が収集される。各学習用画像には、当該画像がどのような組織および疾患に対応するものかを表す情報と、当該画像の特徴から求められた指標値とが関連付けられる。以下の説明において各学習用画像を区別するために、図に示すように各学習用画像に符号を付すものとする。例えば、組織A、疾患aに対応する学習用画像には、符号Aa1,Aa2,…を付す。1,2,…の番号は、指標値の大きさ順(昇順または降順)に付した連番である。同様に、組織A、疾患bに対応する学習用画像には符号Ab1,Ab2,…を、組織B、疾患dに対応する学習用画像には符号Ba1,Ba2,…を付すものとする。
For each combination of tissue and disease, multiple training images are collected. Each training image is associated with information indicating which tissue and disease the image corresponds to, and an index value calculated from the characteristics of the image. In the following description, in order to distinguish between the training images, each training image is assigned a symbol as shown in the figure. For example, training images corresponding to tissue A and disease a are assigned symbols Aa1, Aa2, .... The
図1に戻って、次に、収集された学習用画像から選択された複数の画像からなる画像セットを構成する(ステップS104)。後述するように、1つの画像セットに含まれる複数の画像が1つの画面に配置されて表示出力される。したがって、ユーザーが同時に視認することができるのは、1つの画像セットに含まれる学習用画像に限られる。 Returning to FIG. 1, next, an image set is constructed consisting of a plurality of images selected from the collected learning images (step S104). As described below, a plurality of images included in one image set are arranged on one screen and displayed. Therefore, the user can only simultaneously view the learning images included in one image set.
ただし、この実施形態では、画像セットを構成する際の画像の選択基準を異ならせることにより、1つの学習用画像が複数の画像セットに重複して含まれるようにする。このため、画像セットを切り替えて表示するとき、表示される学習用画像の組み合わせが順次変化し、しかも、1つの学習用画像は、他の画像との組み合わせを変えながら複数回表示されることとなる。 However, in this embodiment, the image selection criteria used when constructing the image sets are varied so that one learning image is included in multiple image sets in duplicate. Therefore, when switching between image sets, the combination of learning images displayed changes sequentially, and one learning image is displayed multiple times in different combinations with other images.
画像セットを構成するための学習用画像の選択基準としては種々のものがあり得る。例えば、同一組織、同一疾患に対応する学習用画像を集めた画像セットを構成することができる。この場合、類似度が高い、すなわち指標値の差が小さい画像同士を組み合わせるケースと、類似度が小さい、すなわち指標値の差が大きい画像同士を組み合わせるケースとが考えられる。 There can be various criteria for selecting training images to construct an image set. For example, an image set can be constructed by collecting training images corresponding to the same tissue or the same disease. In this case, it is possible to combine images with high similarity, i.e., small differences in index values, and to combine images with low similarity, i.e., large differences in index values.
また、組織の種類および疾患の種類のうち少なくとも一方が異なる学習用画像同士を組み合わせることも考えられる。このように由来の異なる標本の間でも、画像に現れる特徴が類似していることもあり得る。それらを同時に表示して比較することができるようにしておくことで、それらの間での誤判断を抑制することができる。 It is also possible to combine training images that differ in at least one of the types of tissue and the type of disease. In this way, even between specimens of different origins, the features that appear in the images may be similar. By displaying them simultaneously and making it possible to compare them, it is possible to reduce misjudgments between them.
個々の学習用画像について複数の指標値が導出されている場合、それらの各々が類似度の指標となり得る。例えば、細胞密度を指標値とした類似度、染色性を指標値とした類似度、二次的な構成成分量を指標値とした類似度等が定義可能である。それらの類似度のそれぞれが、画像セット構成時の選択基準となり得る。つまり、細胞密度の異同に着目して組み合わされた画像セット、染色性の異同に着目して組み合わされた画像セット等をそれぞれ構成することが可能である。したがって、1つの学習用画像は種々の画像セットに含まれ得る。 When multiple index values are derived for each learning image, each of these can be an index of similarity. For example, similarity can be defined as an index value for cell density, a similarity value for stainability, a similarity value for the amount of secondary components, etc. Each of these similarities can be a selection criterion when constructing an image set. In other words, it is possible to construct an image set that is combined with a focus on differences in cell density, an image set that is combined with a focus on differences in stainability, etc. Thus, one learning image can be included in various image sets.
このようにして構成された画像セットの1つから表示用画像が生成され、表示装置に表示される(ステップS105)。表示用画像は、当該画像セットに含まれる複数の学習用画像を同一画面に配置したものである。 A display image is generated from one of the image sets thus constructed and displayed on the display device (step S105). The display image is a set of multiple learning images included in the image set arranged on the same screen.
そして、こうして表示された学習用画像の各々について、ユーザーからの教示入力を受け付ける(ステップS106)。ユーザーは、表示された学習用画像を見比べながら組織またはそれに含まれる細胞や構造物の状態を決定し、その結果を、入力デバイスを介して教示入力する。入力結果は、ユーザー判断に基づくラベルとして各学習用画像に関連付けられる。 Then, instruction input from the user is accepted for each of the training images thus displayed (step S106). The user compares the displayed training images to determine the state of the tissue or the cells and structures contained therein, and inputs the result as instruction input via an input device. The input result is associated with each training image as a label based on the user's judgment.
組織の状態については、細胞の密度や形状、核縁の不整の有無、多核の有無、アポトーシスの有無等、種々の観点から総合的に判断する必要がある。したがって、この場合のユーザーは、病理医や研究者等、専門的知識と経験を有する者であることが求められる。 The condition of the tissue must be judged comprehensively from various perspectives, including cell density and shape, the presence or absence of irregular nuclear edges, the presence or absence of multinuclei, and the presence or absence of apoptosis. Therefore, the user in this case is required to be a pathologist, researcher, or other person with specialized knowledge and experience.
全ての画像セットについて教示入力が終了するまで(ステップS107)、表示される画像セットを変えながらステップS105、S106が繰り返し実行される。そして、教示入力の結果に基づき、各学習用画像についての教示結果、すなわち当該学習用画像に付与されるラベルが確定される(ステップS108)。 Steps S105 and S106 are repeated while changing the image set being displayed until instruction input is completed for all image sets (step S107). Then, based on the results of the instruction input, the instruction results for each learning image, i.e., the label to be assigned to that learning image, are determined (step S108).
1つの学習用画像は複数の画像セットに含まれているから、当該学習用画像に対しては複数回の教示入力が行われている。一方、ユーザーによる判断は画像間の比較による相対的なものであるから、1つの学習用画像に対する複数回の教示入力の結果は、同時表示される他の学習用画像の影響により必ずしも同じとはならない。特に、同時に表示される他の学習用画像との形態的な差異が明確でない場合、それらの状態の判断に迷いが生じる。また、染色性の違いによる見かけ上の差異が、本来の判断基準に基づく異同を見誤らせることもあり得る。 Because one training image is included in multiple image sets, multiple instruction inputs are made to that training image. On the other hand, the user's judgment is a relative one based on a comparison between images, so the results of multiple instruction inputs to one training image will not necessarily be the same due to the influence of other training images displayed at the same time. In particular, if the morphological differences between the training images displayed at the same time are not clear, it can be difficult to judge their condition. Also, apparent differences due to differences in stainability can lead to misjudgment of differences based on the original judgment criteria.
複数回の教示入力結果が全て同じであれば、当該教示入力を確度の高いものとしてそのまま学習用画像のラベルとすることができる。一方、複数回の教示入力結果が異なる学習用画像については、それらの入力結果から統計的に教示結果を決定することができる。例えば、複数回の教示入力において最も入力頻度の高いものを最終的な教示結果とすることができる。また、複数回の教示入力結果を平均して、最終的な教示結果を決定するようにしてもよい。 If the results of multiple teaching inputs are all the same, then that teaching input can be regarded as being highly accurate and used as the label for the learning image as is. On the other hand, for learning images where the results of multiple teaching inputs are different, the teaching result can be determined statistically from those input results. For example, the most frequently inputted result among the multiple teaching inputs can be used as the final teaching result. The results of multiple teaching inputs can also be averaged to determine the final teaching result.
このように、この実施形態では、収集された多数の学習用画像から選択された複数の学習用画像からなる画像セットを構成し、それらの学習用画像を同時に画面表示させてユーザーからの教示入力を受け付ける。このとき、画像セットを変化させることで表示される画像を切り替えながら、全ての学習用画像について教示入力を受ける。1つの学習用画像は複数の画像セットに含まれ、したがって複数回の教示入力を受ける。それらの入力結果が一致しない場合には、統計的処理によって最終的な教示結果を確定させる。 In this manner, in this embodiment, an image set is constructed consisting of multiple learning images selected from a large number of collected learning images, and these learning images are simultaneously displayed on the screen to accept instruction input from the user. At this time, instruction input is received for all learning images while switching between the images displayed by changing the image set. One learning image is included in multiple image sets, and therefore receives multiple instruction inputs. If the input results do not match, the final instruction result is determined by statistical processing.
一度に表示できる学習用画像の数が限られている条件下で上記のようにすることで、この実施形態では、比較対象の画像が少ない場合に生じ得る判断の揺らぎを抑えつつ、各学習用画像に的確にラベル付けを行うことが可能である。教示入力を与えるユーザーにとっては、同時表示されている画像を比較しつつ(言い換えれば、現在表示されていない画像を考慮することなく)判断を行えばよいので、作業負担は大きく軽減される。このようにして、この実施形態では、ユーザーを支援して効率よく的確な教示作業を行わせることが可能である。 By doing as described above under the condition that the number of learning images that can be displayed at one time is limited, this embodiment makes it possible to accurately label each learning image while suppressing fluctuations in judgment that can occur when there are few images to compare. For the user providing the teaching input, the workload is greatly reduced because it is sufficient to make a judgment while comparing images that are displayed at the same time (in other words, without considering images that are not currently displayed). In this way, this embodiment makes it possible to support the user in performing efficient and accurate teaching tasks.
このようにしてラベル付与された学習用画像を教師データとして適宜の学習モデルに与え機械学習を行わせれば、未知の組織標本画像についても組織の状態を精度よく判定することのできる学習済みモデルを構築することが可能である。各種の組織、疾患に関する標本画像を含めた学習を行わせることで、種々の組織や疾患に対応できる汎用性の高い学習モデルとすることができる。 By providing the learning images labeled in this way as training data to an appropriate learning model and performing machine learning, it is possible to construct a trained model that can accurately determine the tissue state even for unknown tissue specimen images. By performing learning including specimen images related to various tissues and diseases, a highly versatile learning model that can handle a variety of tissues and diseases can be created.
<第2実施形態>
上記した第1実施形態では、収集された学習用画像各々の特徴に基づいて予め構成された画像セットに対応する表示用画像が順番に表示され、各学習用画像に対する教示入力を受け付ける。次に説明する第2実施形態は、処理の基本的な考え方は同じであるが、教示入力の進行に応じて画像セットが動的に構成される点において上記実施形態と相違している。
Second Embodiment
In the first embodiment described above, display images corresponding to an image set preconfigured based on the characteristics of each of the collected learning images are displayed in sequence, and instruction input for each learning image is accepted. The second embodiment described next has the same basic concept of processing, but differs from the above embodiment in that an image set is dynamically configured in accordance with the progress of the instruction input.
図3は本発明に係る画像処理方法の第2実施形態を示すフローチャートである。ステップS201~S203の処理内容は、第1実施形態におけるステップS101~S103の処理内容と同じである。 Figure 3 is a flowchart showing a second embodiment of the image processing method according to the present invention. The processing contents of steps S201 to S203 are the same as the processing contents of steps S101 to S103 in the first embodiment.
ステップS204では、適宜の選択基準に基づき1つの画像セットが構成される。画像セットの構成方法は第1実施形態と同じとしてよい。そして、その画像セットに対応する表示用画像が作成、表示され(ステップS205)、それに含まれる学習用画像につき教示入力が受け付けられる(ステップS206)。これらも基本的な考え方は第1実施形態と同じである。 In step S204, one image set is constructed based on appropriate selection criteria. The method of constructing the image set may be the same as in the first embodiment. Then, a display image corresponding to the image set is created and displayed (step S205), and instruction input is accepted for the learning images contained therein (step S206). The basic concept of these is also the same as in the first embodiment.
全ての学習用画像に対して教示入力が行われるまで、ステップS204~S206の処理が繰り返される(ステップS207)。また、続くステップS208では、現在表示されている学習用画像に与えられた教示入力の結果が収束したか否かが判定される。ここでいう「収束」とは、1つの学習用画像に対する複数回の教示入力の変動が十分に小さくなったことを意味する。このような判定を加えている理由については後述する。 The processes of steps S204 to S206 are repeated until instruction input has been performed for all learning images (step S207). In the following step S208, it is determined whether the result of the instruction input given to the currently displayed learning image has converged. "Convergence" here means that the variation in multiple instruction inputs to one learning image has become sufficiently small. The reason for adding this determination will be described later.
全ての学習用画像について教示結果について収束するまで(ステップS207、S208において共にYES)、ステップS204~S206の処理が繰り返される。収束がみられなかった(ステップS208においてNO)場合のステップS204では、第1実施形態と同様の選択基準に加えて、それまでの教示入力の結果を加味して新たな画像セットが構成される。例えば、複数回の教示入力の結果に大きな揺らぎがある学習用画像については後の画像セットに含まれる頻度が高くなり、揺らぎの小さい学習用画像についてはその頻度が低くなるように、選択基準を調整する。 The processing of steps S204 to S206 is repeated until convergence is achieved for the teaching results for all learning images (YES in both steps S207 and S208). If convergence is not achieved (NO in step S208), in step S204, a new image set is constructed taking into account the results of the teaching input up to that point in addition to the same selection criteria as in the first embodiment. For example, the selection criteria are adjusted so that learning images with large fluctuations in the results of multiple teaching inputs are included more frequently in subsequent image sets, and learning images with small fluctuations are included less frequently.
こうすることで、判断の難しい画像については種々の他の画像と組み合わせて順次表示されるので、ユーザーは多面的に評価を行うことが可能である。これにより、教示結果の揺らぎを低減させて確度を高める、つまり教示結果の収束を図ることができる。一方、揺らぎが少なく収束に近い画像については表示の頻度を下げるまたは表示対象から除外することで、教示作業の手間および所要時間を低減させることができる。 In this way, images that are difficult to judge are displayed in combination with various other images in sequence, allowing the user to evaluate from multiple perspectives. This reduces fluctuations in the teaching results and increases their accuracy, i.e., it is possible to converge the teaching results. On the other hand, for images with little fluctuation and close to convergence, the frequency of their display can be reduced or they can be excluded from the display targets, thereby reducing the effort and time required for the teaching work.
また、当初は他の学習用画像との差がわかりやすい、つまり類似度の低い学習用画像と組み合わせる一方、教示入力が進むにつれてより類似度の高い学習用画像との組み合わせを採用するようにしてもよい。比較的差異の大きい画像間での比較を経てより差異の小さい画像の比較を行うようにすることで、表示された画像間での相対的な判断がなされる状況においても教示結果の確度を高めることが可能である。 In addition, initially, the image may be paired with a learning image that is easy to see the difference from other learning images, i.e., with a low similarity, but as the teaching input progresses, a combination with a learning image with a higher similarity may be adopted. By first comparing images with relatively large differences, and then comparing images with smaller differences, it is possible to increase the accuracy of the teaching results even in situations where a relative judgment is made between the displayed images.
このように、過去の教示入力結果を踏まえて動的に画像セットを構成することで、この実施形態では、各学習用画像に対する教示結果の揺らぎを低減させ、一定の教示結果に収束させることができる。収束後の教示結果が、各学習用画像に関連付ける教示結果として確定される(ステップS209)。収束後の教示結果は高い確度を有している。このため、これを教師データとする機械学習の結果として構築される、学習済みモデルの精度を向上させることができる。 In this way, by dynamically constructing an image set based on past teaching input results, in this embodiment, it is possible to reduce fluctuations in the teaching results for each learning image and converge to a certain teaching result. The converged teaching result is determined as the teaching result to be associated with each learning image (step S209). The converged teaching result has a high degree of accuracy. Therefore, it is possible to improve the accuracy of the trained model that is constructed as a result of machine learning using this as training data.
収束したか否かの判断については、例えば、教示入力の繰り返しに伴って教示結果が変化する学習用画像の数が一定数以下となったときに収束したとみなすことができる。全ての学習用画像について教示結果の揺らぎがなくなることが望ましいが、どうしても結果が収束しない特異な画像も含まれ得る。そのような画像についても収束させようとすると多大な時間を要する場合があるから、大部分の画像について収束がみられたことをもって全体が収束したと判断してもよい。また、ステップS208からS204への繰り返し回数に対して上限値を定めておき、繰り返し回数が上限値に達したときに強制的に収束したとみなしてもよい。 Convergence can be determined, for example, when the number of learning images for which the teaching results change with repeated teaching input falls below a certain number. It is desirable to eliminate fluctuations in the teaching results for all learning images, but there may be peculiar images for which the results do not converge no matter what. Since attempting to converge for such images may take a significant amount of time, it may be determined that overall convergence has occurred when convergence has been observed for the majority of the images. Alternatively, an upper limit may be set for the number of repetitions from step S208 to S204, and convergence may be forcibly determined when the number of repetitions reaches the upper limit.
<画面表示例>
図4は表示用画像の表示態様の例を示す図である。図4(a)は、1つの画像セットに含まれる複数の(ここでは6枚の)学習用画像の全てをウィンドウWa内にタイル表示した事例である。この他、画面には、前の画像セットあるいは次の画像セットへ表示を切り替えるためのボタンや、表示倍率を変更するためのボタンなどのボタン群Baが表示される。各学習用画像は同一倍率で表示されており、表示倍率が変更されると全ての画像の倍率が同様に変化する。
<Screen display example>
4A and 4B are diagrams showing examples of display modes of display images. Fig. 4A shows an example in which all of a plurality of learning images (six images in this case) included in one image set are tiled in a window Wa. In addition, a group of buttons Ba, such as a button for switching the display to the previous image set or the next image set and a button for changing the display magnification, are displayed on the screen. Each learning image is displayed at the same magnification, and when the display magnification is changed, the magnification of all images changes in the same way.
図4(b)は同一画像セット内の学習用画像のうち一部をウィンドウWb内に表示し、これらを横スクロールにより移動させることで残りの画像を表示できるようにしたものである。一方、図4(c)はウィンドウWc内の表示画像を縦スクロールにより移動させるようにしたものである。これらの表示態様においても、上記と同様のボタン群Bb,Bcがそれぞれ適宜の位置に配置される。もちろん、十分な視認性を確保した上で、同一画像セット内の学習用画像の全てを同一画面内で縦または横方向に一列に並べられる場合には、そのようにした方が好ましい。 In FIG. 4(b), some of the learning images in the same image set are displayed in a window Wb, and the remaining images can be displayed by moving these images by scrolling horizontally. On the other hand, in FIG. 4(c), the displayed images in a window Wc are moved by scrolling vertically. In these display modes, button groups Bb and Bc similar to those described above are arranged in appropriate positions. Of course, if it is possible to arrange all of the learning images in the same image set in a row vertically or horizontally on the same screen while ensuring sufficient visibility, this is preferable.
図5は1つの画像セットに含まれる学習用画像の組み合わせを例示する図である。図5(a)に示す例では、同一組織、同一疾患に対応する学習用画像Aa1,Aa2,Aa3が、類似度に関する指標値の順に並べられている。このような組み合わせおよび表示態様では、比較的類似度の高い画像同士が隣接して配置されるので、それらの間の比較を行いやすい。 Figure 5 is a diagram illustrating an example of a combination of learning images included in one image set. In the example shown in Figure 5 (a), learning images Aa1, Aa2, and Aa3 corresponding to the same tissue and the same disease are arranged in order of index value related to similarity. In this type of combination and display mode, images with relatively high similarity are arranged adjacent to each other, making it easy to compare them.
また、図5(b)に示す事例は、画像セットの切り替えに伴う表示用画像の変化を模式的に示したものである。まず、同一組織、同一疾患に対応するが類似度が比較的小さい、つまり異同の判断がつきやすい学習用画像Aa1,Aa5が並べて表示される。ここで、画像Aa5が本発明の「第1の学習用画像」に相当し、このときの画像セットが本発明の「第1の画像セット」に相当する。そして、その後の画像セットの切り替えにより、より類似度の高い、したがって判断の難しい学習用画像Aa1,Aa2が並べて表示される。ここで、画像Aa2が本発明の「第2の学習用画像」に相当し、このときの画像セットが本発明の「第2の画像セット」に相当する。この表示態様は、先の教示結果に基づき後の画像セットが動的に設定される第2実施形態において特に有用である。この場合、過去に入力された教示結果がわかるような情報を各学習用画像に加えてもよい。 The example shown in FIG. 5(b) is a schematic diagram showing the change in the display image accompanying the switching of the image set. First, the learning images Aa1 and Aa5, which correspond to the same tissue and the same disease but have a relatively small degree of similarity, that is, it is easy to judge whether they are different or not, are displayed side by side. Here, image Aa5 corresponds to the "first learning image" of the present invention, and the image set at this time corresponds to the "first image set" of the present invention. Then, by switching the image set thereafter, the learning images Aa1 and Aa2, which have a higher degree of similarity and are therefore more difficult to judge, are displayed side by side. Here, image Aa2 corresponds to the "second learning image" of the present invention, and the image set at this time corresponds to the "second image set" of the present invention. This display mode is particularly useful in the second embodiment in which the subsequent image set is dynamically set based on the previous teaching result. In this case, information that allows the previously input teaching result to be known may be added to each learning image.
また、図5(c)は組織および疾患の種類が異なる画像の組み合わせの事例である。ここでは同じ組織Aでも疾患タイプが異なる画像Aa1,Ab2と、組織Bに対応する画像Bd1とが組み合わせられる。このような組み合わせを画像セットに含ませることにより、最終的には、由来は異なるが外観上似ている標本の区別が可能な学習済みモデルを得ることができる。 Figure 5(c) shows an example of a combination of images with different types of tissue and disease. Here, images Aa1 and Ab2, which are of the same tissue A but have different disease types, are combined with image Bd1, which corresponds to tissue B. By including such combinations in the image set, it is ultimately possible to obtain a trained model that can distinguish between specimens that are of different origins but similar in appearance.
図6はユーザーによる教示入力の事例を模式的に示す図である。図6(a)はドロップダウンリストを用いた例を示している。表示されている画像のいずれかをクリックすると、当該画像に付与すべきラベルの候補がドロップダウンリストとして表示される。この例では、核異型度の大きさ(高、中、低)がラベルとして選択可能である。画像セット単位で表示される各画像に対しこのような入力を行うことで、全ての学習用画像にラベルを付与することができる。 Figure 6 is a schematic diagram showing an example of instruction input by a user. Figure 6(a) shows an example using a drop-down list. When one of the displayed images is clicked, candidate labels to be assigned to that image are displayed as a drop-down list. In this example, the level of nuclear atypia (high, medium, low) can be selected as the label. By making such input for each image displayed in an image set, labels can be assigned to all learning images.
図6(b)は画像順序の並べ替えの例を示している。図2に示した画像の番号は特定の指標値に基づくものであり、熟練者が種々の観点から総合的に評価したときの類似度とは必ずしも一致しないことがある。図6(b)に破線で示すように、画像をドラッグして他の画像と並びを入れ替えることができるようにすれば、本来の類似度に対応した順序で画像を表示することが可能となる。 Figure 6(b) shows an example of rearrangement of the image order. The image numbers shown in Figure 2 are based on specific index values and may not necessarily match the similarity when an expert comprehensively evaluates the images from various perspectives. As shown by the dashed line in Figure 6(b), if an image can be dragged to swap its order with other images, it will be possible to display the images in an order that corresponds to their original similarity.
図6(c)は、そのようにして並べ替えられた画像に対し「境界」を設定する教示入力の事例を示している。類似度にしたがって並べられた画像の間には、各組織の状態の違いを表す境界を設定可能である。例えば、病変を含まない(正常な)画像と病変を含む画像とが混在しているとき、それらを類似度にしたがって並べると、正常な組織の画像群と病変を含む画像群とを区別するような境界が存在すると期待される。図6(c)は、ユーザーが教示入力としてこのような境界を指定する操作を表している。 Figure 6(c) shows an example of instruction input for setting a "boundary" for images rearranged in this way. Between images rearranged according to similarity, it is possible to set a boundary that represents the difference in the state of each tissue. For example, when there is a mixture of images that do not contain lesions (normal) and images that contain lesions, if they are rearranged according to similarity, it is expected that a boundary will exist that distinguishes between images of normal tissue and images that contain lesions. Figure 6(c) shows an operation in which the user specifies such a boundary as instruction input.
<その他>
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態の説明において、画像セットを構成する際の画像の選択基準、画像の組み合わせ、ラベルの種類、表示態様等はあくまで説明のための例示であり、これらは上記実施形態に限定されるものではない。また例えば、図6の教示入力の事例では図4(b)の表示例を引用しているが、図4(a)、図4(c)に記載の表示例に対しても同様にすることが可能である。
<Other>
The present invention is not limited to the above-mentioned embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, in the description of the above-mentioned embodiment, the image selection criteria for constructing an image set, the combination of images, the type of labels, the display mode, and the like are merely examples for the purpose of explanation, and are not limited to the above-mentioned embodiment. For example, in the example of teaching input in FIG. 6, the display example in FIG. 4(b) is cited, but the same can be applied to the display examples shown in FIG. 4(a) and FIG. 4(c).
以上、具体的な実施形態を例示して説明してきたように、本発明に係る画像処理方法では、例えば抽出された特徴または教示入力された結果に基づき求めた学習用画像間の類似度を選択基準の1つとすることができる。類似度の高いあるいは低い画像同士をその組み合わせを変えながら比べることで、ユーザーはより確度の高い教示入力を行うことが可能である。 As described above by way of example of specific embodiments, in the image processing method according to the present invention, the similarity between learning images determined based on, for example, extracted features or the results of instruction input can be used as one of the selection criteria. By comparing images with high and low similarity while changing the combinations, the user can perform more accurate instruction input.
この場合、例えば一の学習用画像とこれに対する類似度が比較的小さい第1の学習用画像とを含む第1の画像セットと、当該一の学習用画像とこれに対する類似度が第1の学習用画像よりも大きい第2の学習用画像とを含む第2の画像セットとを作成し、第1の画像セットに対応する表示用画像の表示よりも後に、第2の画像セットに対応する表示用画像を表示するようにしてもよい。このような構成によれば、類似度が低い、したがって異同が比較的判断しやすい画像間の対比を経た上でより類似度の高い画像が比較されるので、表示される画像間での相対的な比較によっても確度の高い教示入力となることが期待される。 In this case, for example, a first image set including a learning image and a first learning image having a relatively small similarity thereto, and a second image set including the learning image and a second learning image having a larger similarity thereto than the first learning image, may be created, and the display image corresponding to the second image set may be displayed after the display image corresponding to the first image set. With this configuration, images with low similarity, and therefore relatively easy to judge whether they are similar or not, are compared before comparing images with higher similarity, so that it is expected that the relative comparison between the displayed images will result in highly accurate teaching input.
また例えば、先の教示入力の結果に応じて画像セットを動的に構成するように構成されてもよい。複数の学習用画像の中には、組織の状態が明確で教示入力結果の揺らぎが小さいと期待されるものや、他の学習用画像との違いが小さくユーザーが判断に迷うようなものが含まれ得る。学習用画像を複数の画像セットに含ませるに当たり、判断が難しいものは他の種々の画像と組み合わせながら表示し多面的な判断ができることが望ましい一方、状態が明確なものについては何回も教示入力を行わせることは無駄である。過去の教示入力の結果を以後の画像セットにおける学習用画像の組み合わせに反映させることで、このような状況に対応して、効率よく教示作業を行わせることができる。 For example, the image set may be dynamically configured according to the results of previous instruction input. The multiple learning images may include images that are expected to have a clear tissue state and little fluctuation in the instruction input results, and images that are not so different from other learning images that the user may have difficulty in making a judgment. When including learning images in multiple image sets, it is desirable to display images that are difficult to judge in combination with various other images to enable a multifaceted judgment, but it is wasteful to have instruction input be performed multiple times for images with a clear state. By reflecting the results of past instruction input in the combination of learning images in subsequent image sets, it is possible to respond to such situations and perform the instruction work efficiently.
また例えば、本発明に係る画像処理方法は、複数の学習用画像とそれに関連付けられた教示入力とに基づき学習モデルに機械学習を行わせる工程をさらに備えていてもよい。このようにして揺らぎの少ない教示入力結果を用いて構築される学習済みモデルは、未知の標本画像に対して、それに含まれる組織の状態を的確に判断する機能を有するものとなる。 For example, the image processing method according to the present invention may further include a step of performing machine learning on the learning model based on a plurality of learning images and associated teaching inputs. The trained model thus constructed using teaching input results with little fluctuation has the function of accurately determining the state of tissue contained in an unknown specimen image.
また例えば、標本画像は、ヘマトキシリン・エオジン(HE)染色された組織標本を明視野撮像した画像であってもよい。HE染色は細胞核と細胞質とを染め分けることができる。そして、これを明視野撮像した画像は、ユーザーによる目視観察との親和性が良好である。 For example, the specimen image may be an image obtained by bright-field imaging of a tissue specimen stained with hematoxylin and eosin (HE). HE staining can distinguish between cell nuclei and cytoplasm. Furthermore, an image obtained by bright-field imaging of this specimen has good compatibility with visual observation by a user.
この発明は、画像から組織の状態を自動的に判定するための学習済みモデルを構築するためのユーザーの作業を効果的に支援するものであり、特に学習用画像に対する教示作業の効率および確度を向上させることができるものである。 This invention effectively supports the user's work to build a trained model for automatically determining tissue conditions from images, and in particular can improve the efficiency and accuracy of teaching work on training images.
Aa1,Aa2,… 学習用画像
Ba,Bb,Bc ボタン群
Wa,Wb,Wc ウィンドウ
Aa1, Aa2, ... Learning images Ba, Bb, Bc Button group Wa, Wb, Wc Window
Claims (6)
抽出された前記特徴と所定の選択基準とに基づき、前記学習用画像のうち一部の画像を複数選択し、選択された複数の前記学習用画像を含む画像セットを構成する工程と、
前記画像セットに含まれる複数の前記学習用画像を同一画面に配置した表示用画像を表示装置に出力する工程と、
表示された前記学習用画像の各々についてユーザーからの教示入力を受け付けて、前記学習用画像とそれに対応する前記教示入力の結果とを関連付ける工程と
を備え、
前記学習用画像の組み合わせが互いに異なる複数の前記画像セットを構成し、該複数の画像セットそれぞれに対応する複数の前記表示用画像を切り替えて表示し、その都度前記教示入力を受け付け、
前記選択基準を変更しながら前記学習用画像の選択を行うことにより、1つの前記学習用画像を複数の前記画像セットに含ませて、前記学習用画像の各々を複数回前記表示装置に表示させるとともにその都度前記教示入力を受け付ける、画像処理方法。 extracting features of objects in each of a plurality of learning images of a tissue specimen by image processing;
selecting a plurality of images from among the learning images based on the extracted features and a predetermined selection criterion, and constructing an image set including the selected plurality of learning images;
outputting, to a display device, a display image in which a plurality of the learning images included in the image set are arranged on the same screen;
receiving a user instruction input for each of the displayed learning images and associating the learning image with a corresponding result of the instruction input;
forming a plurality of image sets each having a different combination of the learning images, switching between and displaying a plurality of the display images corresponding to each of the plurality of image sets, and receiving the instruction input each time;
An image processing method in which the learning images are selected while changing the selection criteria, thereby including one learning image in multiple image sets , and displaying each of the learning images multiple times on the display device while accepting the instruction input each time .
前記第1の画像セットに対応する前記表示用画像の表示よりも後に、前記第2の画像セットに対応する前記表示用画像を表示する請求項2に記載の画像処理方法。 creating a first image set including one of the training images and a first training image, and a second image set including the one of the training images and a second training image, wherein a similarity of the second training image to the one of the training images is greater than that of the first training image;
3. The image processing method according to claim 2, wherein the display image corresponding to the second image set is displayed after the display image corresponding to the first image set.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145307A JP7617717B2 (en) | 2020-08-31 | 2020-08-31 | Image Processing Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145307A JP7617717B2 (en) | 2020-08-31 | 2020-08-31 | Image Processing Method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022040540A JP2022040540A (en) | 2022-03-11 |
JP7617717B2 true JP7617717B2 (en) | 2025-01-20 |
Family
ID=80499414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020145307A Active JP7617717B2 (en) | 2020-08-31 | 2020-08-31 | Image Processing Method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7617717B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024210107A1 (en) * | 2023-04-07 | 2024-10-10 | パナソニックIpマネジメント株式会社 | Image processing system and computer program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011210252A (en) | 2010-03-26 | 2011-10-20 | Mitsubishi Electric Research Laboratories Inc | Method for training multi-class classifier |
WO2017203572A1 (en) | 2016-05-23 | 2017-11-30 | 株式会社日立ハイテクノロジーズ | Defective image classification apparatus and defective image classification method |
JP2019148473A (en) | 2018-02-27 | 2019-09-05 | シスメックス株式会社 | Method for image analysis, image analyzer, program, method for manufacturing learned deep learning algorithm, and learned deep learning algorithm |
-
2020
- 2020-08-31 JP JP2020145307A patent/JP7617717B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011210252A (en) | 2010-03-26 | 2011-10-20 | Mitsubishi Electric Research Laboratories Inc | Method for training multi-class classifier |
WO2017203572A1 (en) | 2016-05-23 | 2017-11-30 | 株式会社日立ハイテクノロジーズ | Defective image classification apparatus and defective image classification method |
JP2019148473A (en) | 2018-02-27 | 2019-09-05 | シスメックス株式会社 | Method for image analysis, image analyzer, program, method for manufacturing learned deep learning algorithm, and learned deep learning algorithm |
Also Published As
Publication number | Publication date |
---|---|
JP2022040540A (en) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Silva-Rodríguez et al. | Going deeper through the Gleason scoring scale: An automatic end-to-end system for histology prostate grading and cribriform pattern detection | |
US10733726B2 (en) | Pathology case review, analysis and prediction | |
CN109791693B (en) | Digital pathology system and related workflow for providing visualized whole-slice image analysis | |
JP7458519B2 (en) | Image analysis method, image analysis device, program, method for producing trained deep learning algorithm, and trained deep learning algorithm | |
JP4496943B2 (en) | Pathological diagnosis support apparatus, pathological diagnosis support program, operation method of pathological diagnosis support apparatus, and pathological diagnosis support system | |
WO2021139258A1 (en) | Image recognition based cell recognition and counting method and apparatus, and computer device | |
JP4037869B2 (en) | Image analysis support method, image analysis support program, and image analysis support device | |
CN105931224A (en) | Pathology identification method for routine scan CT image of liver based on random forests | |
EP2845137B1 (en) | Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue | |
US20160078276A1 (en) | Graphical user interface for analysis of red blood cells | |
US7050613B2 (en) | Method for supporting cell image analysis | |
Hu et al. | Automated interpretation of subcellular patterns from immunofluorescence microscopy | |
JP7617717B2 (en) | Image Processing Method | |
Kayser et al. | Digitized pathology: theory and experiences in automated tissue-based virtual diagnosis | |
CN114037868A (en) | Image recognition model generation method and device | |
JPWO2018128091A1 (en) | Image analysis program and image analysis method | |
Nandy et al. | Automatic nuclei segmentation and spatial FISH analysis for cancer detection | |
JPWO2016076104A1 (en) | Image processing method, image processing apparatus, and program | |
Gurari et al. | Mixing crowd and algorithm efforts to segment objects in biomedical images | |
Bonam et al. | Toward automated quantification of biological microstructures using unbiased stereology | |
Jabar et al. | Fully Automatic Deep Learning Pipeline for Whole Slide Image Quality Assessment | |
Hossain et al. | UCF-MultiOrgan-Path: A Public Benchmark Dataset of Histopathologic Images for Deep Learning Model Based Organ Classification | |
JP2023123987A (en) | Model selection method and image processing method | |
Ware | PAAT | |
JPH11120350A (en) | Discrimination method of variable and discrimination device for variable |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7617717 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |