[go: up one dir, main page]

JP2017067489A - Diagnosis support apparatus, method, and computer program - Google Patents

Diagnosis support apparatus, method, and computer program Download PDF

Info

Publication number
JP2017067489A
JP2017067489A JP2015189885A JP2015189885A JP2017067489A JP 2017067489 A JP2017067489 A JP 2017067489A JP 2015189885 A JP2015189885 A JP 2015189885A JP 2015189885 A JP2015189885 A JP 2015189885A JP 2017067489 A JP2017067489 A JP 2017067489A
Authority
JP
Japan
Prior art keywords
subject
data
discriminator
image
diagnosis support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015189885A
Other languages
Japanese (ja)
Other versions
JP6545591B2 (en
Inventor
一公 河上
Kazunori Kawakami
一公 河上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm RI Pharma Co Ltd
Original Assignee
Fujifilm RI Pharma Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm RI Pharma Co Ltd filed Critical Fujifilm RI Pharma Co Ltd
Priority to JP2015189885A priority Critical patent/JP6545591B2/en
Publication of JP2017067489A publication Critical patent/JP2017067489A/en
Application granted granted Critical
Publication of JP6545591B2 publication Critical patent/JP6545591B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Nuclear Medicine (AREA)

Abstract

【課題】機械学習アルゴリズムを用いた診断支援の精度を向上させる。
【解決手段】被験者に関するデータである被験者データに基づいて診断支援を行う診断支援装置は、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機C1と、第1の機械学習アルゴリズムを、第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機C2と、第1の判別機C1の出力及び第2の判別機C2の出力に応じた判断を行う判断機Dと、を備える。第1の判別機Cが被験者データの入力を受け付けて第1の判別結果を出力し、第2の判別機C2が被験者データの入力を受け付けて第2の判別結果を出力し、判断機Dが、第1の判別結果及び第2の判別結果に応じて、被験者の診断を支援するための情報を出力する。
【選択図】図5
The accuracy of diagnostic support using a machine learning algorithm is improved.
A diagnosis support apparatus that performs diagnosis support based on subject data that is data related to a subject includes a first discriminator C1 including a learned algorithm obtained by learning a first machine learning algorithm using a first data set. And a second discriminator C2 including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set, the output of the first discriminator C1 and the second And a determinator D that performs a determination according to the output of the second determinator C2. The first discriminator C accepts input of subject data and outputs a first discrimination result, the second discriminator C2 accepts input of subject data and outputs a second discrimination result, and the discriminator D In response to the first determination result and the second determination result, information for supporting the diagnosis of the subject is output.
[Selection] Figure 5

Description

本発明は、被験者に関する被験者データに基づいて診断支援を行う技術に関する。   The present invention relates to a technique for providing diagnosis support based on subject data relating to a subject.

骨シンチグラムを用いて被験者の診断支援装置を行う技術が知られている。既存の画像診断支援装置では、骨シンチグラムのホットスポット(薬剤が集積した高カウント領域)が癌転移であるか否かの判定をANN(人工ニューラルネットワーク)を用い、医師が診断を支援するための情報を出力している(例えば、特許文献1)。   A technique for performing a diagnosis support apparatus for a subject using a bone scintigram is known. In an existing diagnostic imaging support apparatus, a doctor uses a neural network (ANN) to determine whether a bone scintigram hotspot (a high-count region in which drugs are accumulated) is cancer metastasis, so that a doctor supports the diagnosis. (For example, Patent Document 1).

特開2014−9945号公報JP 2014-9945 A

Active shape models − their training and application, T. F. Cootes, C. J. Taylor, D. H. Cooper and J. Graham presented in Computer Vision and Image Understanding, Vol. 61, no. 1, pp. 38−59, 1995.Active shape models-tear training and application, T.A. F. Cootes, C.I. J. et al. Taylor, D.D. H. Cooper and J.M. Graham presented in Computer Vision and Image Understanding, Vol. 61, no. 1, pp. 38-59, 1995. Application of the Active Shape Model in a commercial medical device for bone densitometry, H. H. Thodberg and A. Rosholm presented in the Proceedings of the 12th British Machine Vision Conference, 43−52, 2001.Application of the Active Shape Model in a commercial medical device for bone densitometry, H.C. H. Thodberg and A.M. Rosholm presented in the Processings of the 12th British Machine Vision Conference, 43-52, 2001. Average brain models: A convergence study, Guimond A. Meunier J. Thirion J.−P presented in Computer Vision and Image Understanding, 77(2), pp.192−210, 2000.Average brain models: A convergence study, Guimond A. Meunier J.M. Tillion J. -P presented in Computer Vision and Image Understanding, 77 (2), pp. 192-210, 2000.

ANNのような機械学習アルゴリズムに基づく判別機を診断支援装置に用いる場合、学習済みのアルゴリズムを備える判別機の状態が異なれば、同じ入力に対しても異なる出力がなされることがある。例えば、同じ学習アルゴリズムを用いた場合でも、あるデータセットを使って学習した判別機と、それとは異なるデータセットを使って学習した判別機とでは、同じ値を入力したときに同じ出力が得られるとは限らない。同様に、二つの判別機の学習アルゴリズムが互いに異なるときは、同じデータセットで学習をさせた場合であっても、同じ入力に対して常に同じ出力をするわけではない。   When a discriminator based on a machine learning algorithm such as ANN is used in a diagnosis support apparatus, if the state of a discriminator having a learned algorithm is different, different outputs may be made even for the same input. For example, even when the same learning algorithm is used, a discriminator trained using a data set and a discriminator trained using a different data set can obtain the same output when the same value is input. Not necessarily. Similarly, when the learning algorithms of the two discriminators are different from each other, the same output is not always output for the same input even when learning is performed with the same data set.

つまり、ある被験者の状態を判定する場合に、診断支援情報として出力される情報が判別機の学習アルゴリズムや、学習に用いたデータセットに依存することになり、診断支援情報としての精度及び安定性に課題がある。   In other words, when determining the state of a subject, the information output as diagnosis support information depends on the learning algorithm of the discriminator and the data set used for learning, and accuracy and stability as diagnosis support information There is a problem.

そこで、本発明の目的は、機械学習アルゴリズムを用いた診断支援において、その精度を向上させることである。   Accordingly, an object of the present invention is to improve the accuracy in diagnosis support using a machine learning algorithm.

本発明の別の目的は、機械学習アルゴリズムを用いた診断支援において、安定した診断支援のための情報を提供することである。   Another object of the present invention is to provide information for stable diagnosis support in diagnosis support using a machine learning algorithm.

本発明の一つの実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。   A computer program according to an embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data that is data relating to a subject and supports diagnosis of the subject, and the computer program is included in the diagnosis support apparatus. When executed, the first discriminator includes a learned algorithm obtained by learning the first machine learning algorithm with the first data set, and receives the input of the subject data and outputs the first discrimination result And a second discriminator including a learned algorithm obtained by learning the first discriminator and the first machine learning algorithm with a second data set different from the first data set. The second discriminator that receives the input of the subject data and outputs the second discrimination result, and the first discrimination Fruit and in response to the second determination result, to realize a determining unit for outputting the diagnosis support information is information for supporting a diagnosis of a subject, to the diagnosis support apparatus.

本発明の別の実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。   A computer program according to another embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data, which is data relating to a subject, and supports diagnosis of the subject, and the computer program is included in the diagnosis support apparatus. When executed, the first discriminator includes a learned algorithm obtained by learning the first machine learning algorithm with the first data set, and receives the input of the subject data and outputs the first discrimination result The first discriminator and a second machine learning algorithm different from the first machine learning algorithm are used as the first data set or a second data set different from the first data set. A second discriminator including a learned algorithm learned in step (b), which accepts input of the subject data Diagnostic support information which is information for supporting diagnosis of the subject according to the second discriminator that outputs the second discrimination result and the first discrimination result and the second discrimination result Is implemented in the diagnosis support apparatus.

好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報であってもよい。   In a preferred embodiment, the first and second determination results may be probabilities as to whether or not the subject is in a predetermined state. The diagnosis support information may be information for supporting diagnosis, which is a probability of whether or not the subject is in the predetermined state or whether the subject is in the predetermined state.

好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報であってもよい。   In a preferred embodiment, the first and second determination results may be whether or not the subject is in a predetermined state. The diagnosis support information may be information that supports a diagnosis as to whether or not the subject is in the predetermined state.

好適な実施態様では、前記診断支援情報と、前記第1及び第2の判別結果を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。   In a preferred embodiment, the diagnosis support apparatus may further realize means for displaying the diagnosis support information and the first and second determination results on a display device.

好適な実施態様では、前記診断支援情報と、前記診断支援情報の信頼度を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。   In a preferred embodiment, the diagnosis support apparatus may further realize means for displaying the diagnosis support information and the reliability of the diagnosis support information on a display device.

好適な実施態様では、前記第1の機械学習アルゴリズムは、人工ニューラルネットワークであってもよい。   In a preferred embodiment, the first machine learning algorithm may be an artificial neural network.

好適な実施態様では、前記被験者データは、骨シンチグラムから得られたデータであってもよい。   In a preferred embodiment, the subject data may be data obtained from bone scintigrams.

好適な実施態様では、再判定要求を受け付ける受付手段を、さらに前記診断支援装置に実現させてもよい。そして、前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が、新たな診断支援情報を出力するようにしてもよい。   In a preferred embodiment, the diagnosis support apparatus may further realize accepting means for accepting a redetermination request. And when the said reception means receives a redetermination request | requirement, based on the said test subject data and the characteristic data which show the said test subject's characteristic, the said 1st discriminator and the said 2nd discriminator are new 1st and The second determination result may be output, and the determination device may output new diagnosis support information.

本発明のさらに別の実施態様に従う、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置は、機械学習アルゴリズムに所定のデータセットで学習させた学習済みアルゴリズムを有する判別機を含み、前記被験者データの入力に基づく前記判別機の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判定手段と、前記診断支援情報を表示装置に表示させる表示手段と、再判定要求を受け付ける受付手段と、を備える。前記受付手段が再判定要求を受け付けたときは、前記判定手段は、前記被験者データ及び前記被験者の特徴を示す特徴データに基づく前記判別機の判別結果に応じて、新たな前記被験者の診断を支援する情報を出力する。   According to still another embodiment of the present invention, a diagnosis support apparatus that accepts subject data that is data related to a subject and supports diagnosis of the subject has a learned algorithm trained in a predetermined data set by a machine learning algorithm A determination unit that outputs diagnosis support information that is information for supporting diagnosis of the subject according to a determination result of the classifier based on an input of the subject data, and a display device that displays the diagnosis support information Display means to be displayed, and receiving means for receiving a redetermination request. When the accepting unit accepts a re-determination request, the determining unit supports a new diagnosis of the subject according to the discrimination result of the discriminator based on the subject data and the feature data indicating the characteristics of the subject. Output information.

本実施形態に係る画像処理装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus 1 which concerns on this embodiment. 画像処理装置1の動作を示すフローチャートである。3 is a flowchart showing an operation of the image processing apparatus 1. 修正部20の動作を示すフローチャートである。4 is a flowchart showing the operation of the correction unit 20. 正規化部30の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a normalization unit 30. FIG. 第1判定部140の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a first determination unit 140. FIG. 正規化部30による骨シンチグラム分割方法を示すフローチャートである。3 is a flowchart showing a bone scintigram dividing method by a normalization unit 30. 骨シンチグラムと骨格部位の一例を示す図である。It is a figure which shows an example of a bone scintigram and a skeleton part. 健康基準画像セットの一例であるIt is an example of a health reference image set 正規化部30による正規化方法を示すフローチャートである。4 is a flowchart illustrating a normalization method performed by a normalization unit 30. 正規化された骨シンチグラムセットの一例を示す図である。It is a figure which shows an example of the normalized bone scintigram set. 正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。It is a histogram which shows distribution of the count value of the bone scintigram before normalization. 正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。It is a histogram which shows distribution of the normalization count value of the bone scintigram after normalization. スケールレンジを示す図である。It is a figure which shows a scale range. 第1の表示態様を示す画面である。It is a screen which shows a 1st display mode. 第2の表示態様を示す画面である。It is a screen which shows a 2nd display mode.

以下、本発明の一実施形態に係る診断支援装置について、図面を参照して説明する。以下に説明する本発明の実施形態では、本発明に係る診断支援装置の一態様として、被験者の画像データを被験者データとして用いて診断支援情報を生成する画像処理装置を例に説明する。   Hereinafter, a diagnosis support apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the embodiment of the present invention described below, an image processing apparatus that generates diagnosis support information using image data of a subject as subject data will be described as an example of a diagnosis support device according to the present invention.

図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。同図に示すように、画像処理装置1は、画像処理装置本体10と、キーボード、タッチパネル、ポインティングデバイスなどの入力装置4と、液晶ディスプレイなどの表示装置5とを有する。画像処理装置本体10は、修正部20と、正規化部30と、表示制御部60と、記憶部70とを有する。表示制御部60は、調整部40と、変換部50と、生成部80とを有する。   FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus 1 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 1 includes an image processing apparatus main body 10, an input device 4 such as a keyboard, a touch panel, and a pointing device, and a display device 5 such as a liquid crystal display. The image processing apparatus main body 10 includes a correction unit 20, a normalization unit 30, a display control unit 60, and a storage unit 70. The display control unit 60 includes an adjustment unit 40, a conversion unit 50, and a generation unit 80.

画像処理装置本体10は、例えば汎用的なコンピュータシステムにより構成され、以下に説明する画像処理装置本体10内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータシステムは、メモリとマイクロプロセッサを有する。記憶部70は、メモリにより実現されても良い。このコンピュータプログラムは、コンピュータ読み取り可能な記録媒体に格納されて配布されることができる。   The image processing apparatus main body 10 is configured by, for example, a general-purpose computer system, and individual components or functions in the image processing apparatus main body 10 described below are realized by, for example, executing a computer program. The computer system has a memory and a microprocessor. The storage unit 70 may be realized by a memory. The computer program can be stored and distributed in a computer-readable recording medium.

記憶部70は、撮像画像記憶部15と、検査データ記憶部17と、修正画像記憶部25と、正規化画像記憶部35と、特徴データ記憶部36と、調整画像記憶部45とを有する。撮像画像記憶部15は、撮像された骨シンチグラムである撮像画像を記憶する。骨シンチグラムは、被験者の体内の放射性薬剤の分布状態が撮像された画像である。撮像画像セットは、或る患者の或る検査により撮像された、前面像の撮像画像と後面像の撮像画像とのペアである。本実施形態において、骨シンチグラム内の各ピクセルの値(画素値)は、画像を撮影する前に人間の体内に注入された放射性物質(放射性同位体:ラジオアイソトープ)からの放射強度を示すカウント値である。また、撮像画像記憶部15は、検査日時、前面又は後面を示す情報、基準視野等を含む撮像条件データを、撮像画像に関連付けて記憶する。検査データ記憶部17は、被験者の特徴量を示すデータで、例えば、被験者の画像を用いた検査以外の検査から得られたデータを検査データとして記憶してもよい。検査データは、例えば、被験者のTNM分類(悪性腫瘍の病期分類の指標)、腫瘍マーカーの値、病理検査の結果、遺伝子検査(リスク遺伝子の発現)の結果、性別、年齢、家族歴等の問診データを含んでもよい。   The storage unit 70 includes a captured image storage unit 15, an inspection data storage unit 17, a corrected image storage unit 25, a normalized image storage unit 35, a feature data storage unit 36, and an adjusted image storage unit 45. The captured image storage unit 15 stores a captured image that is a captured bone scintigram. The bone scintigram is an image obtained by imaging the distribution state of the radiopharmaceutical in the body of the subject. The captured image set is a pair of a captured image of a front image and a captured image of a rear image captured by a certain examination of a certain patient. In this embodiment, the value (pixel value) of each pixel in the bone scintigram is a count indicating the radiation intensity from a radioactive substance (radioisotope: radioisotope) injected into the human body before taking an image. Value. In addition, the captured image storage unit 15 stores imaging condition data including the inspection date and time, information indicating the front or rear surface, a reference visual field, and the like in association with the captured image. The examination data storage unit 17 is data indicating the characteristic amount of the subject, and for example, data obtained from an examination other than the examination using the image of the subject may be stored as examination data. The test data includes, for example, the subject's TNM classification (index of malignant tumor staging), tumor marker value, pathological test result, genetic test (risk gene expression) result, gender, age, family history, etc. Interview data may be included.

図2は、画像処理装置1の動作を示すフローチャートである。このフローは、検査により撮像画像セットが撮像画像記憶部15へ保存される度に実行されても良いし、或る患者の複数の撮像画像セットが撮像画像記憶部15へ保存された状態で、診察や解析のために実行されても良い。   FIG. 2 is a flowchart showing the operation of the image processing apparatus 1. This flow may be executed every time a captured image set is stored in the captured image storage unit 15 by an examination, or a plurality of captured image sets of a certain patient are stored in the captured image storage unit 15. It may be performed for examination or analysis.

修正部20は、撮像画像記憶部15に格納されている撮像画像を予め定められた規格に従って修正し、その結果である修正画像を修正画像記憶部25へ保存する(S20)。   The correction unit 20 corrects the captured image stored in the captured image storage unit 15 in accordance with a predetermined standard, and stores the corrected image as a result in the corrected image storage unit 25 (S20).

その後、正規化部30は、修正画像記憶部25に格納されている修正画像から骨格部位やホットスポット等の特徴を検出し、その結果である特徴データを修正画像に関連付けて特徴データ記憶部36へ保存する。更に、正規化部30は、特徴データに基づいて修正画像を正規化し、その結果である正規化画像を正規化画像記憶部35へ保存する(S30)。   Thereafter, the normalization unit 30 detects features such as a skeletal region and a hot spot from the corrected image stored in the corrected image storage unit 25, and associates the resulting feature data with the corrected image to the feature data storage unit 36. Save to Further, the normalizing unit 30 normalizes the corrected image based on the feature data, and stores the normalized image as a result in the normalized image storage unit 35 (S30).

その後、表示制御部60は、正規化画像記憶部35に格納されている正規化画像を調整して配置することにより表示画面を生成し、表示画面を表示装置5に表示させ(S60)、このフローを終了する。   Thereafter, the display control unit 60 generates a display screen by adjusting and arranging the normalized images stored in the normalized image storage unit 35, and causes the display device 5 to display the display screen (S60). End the flow.

表示制御部60において、調整部40は、正規化画像記憶部35に格納されている正規化画像のサイズを調整し、その結果である調整画像記憶部45へ保存する。変換部50は、調整画像記憶部45に格納されている調整画像の画素値をグレースケールの濃度に変換する。生成部80は、調整画像を時系列に従って配置することにより表示画面を生成し、表示装置5に表示させる。   In the display control unit 60, the adjustment unit 40 adjusts the size of the normalized image stored in the normalized image storage unit 35 and stores it in the adjusted image storage unit 45 as a result. The conversion unit 50 converts the pixel value of the adjusted image stored in the adjusted image storage unit 45 into a gray scale density. The generation unit 80 generates a display screen by arranging the adjustment images in time series and causes the display device 5 to display the display screen.

なお、生成部80は、特徴データ記憶部36に格納されている特徴データを、調整画像に関連付けて表示画面内に配置しても良い。   Note that the generation unit 80 may arrange the feature data stored in the feature data storage unit 36 in the display screen in association with the adjustment image.

画像処理装置1によれば、撮像された複数の骨シンチグラムにおいて、撮影条件の違いの影響を低減することができる。また、複数の骨シンチグラムを時系列に従って表示装置5に表示させることにより、読影者は複数の骨シンチグラムの経時変化を判断することが容易になる。   According to the image processing apparatus 1, it is possible to reduce the influence of differences in imaging conditions in a plurality of captured bone scintigrams. In addition, by displaying a plurality of bone scintigrams on the display device 5 according to a time series, it becomes easy for an image interpreter to determine temporal changes of the plurality of bone scintigrams.

以下、修正部20の詳細について説明する。   Details of the correction unit 20 will be described below.

図3は、修正部20の動作を示すフローチャートである。前述のS20において、修正部20はこのフローを実行する。   FIG. 3 is a flowchart showing the operation of the correction unit 20. In S20 described above, the correction unit 20 executes this flow.

修正部20は、撮像画像記憶部15から撮像画像セットを読み出し、読み出された撮像画像セットが予め定められた規格を満たすか否かを判定する(S2020)。   The correction unit 20 reads the captured image set from the captured image storage unit 15 and determines whether or not the read captured image set satisfies a predetermined standard (S2020).

例えば、修正部20は、撮像画像セット内の全ピクセルのカウント値から評価値を計算し、その評価値が規格範囲内であれば、撮像画像セットが予め定められた規格を満たすと判定する。評価値は例えば、前画像及び後画像の全ピクセルのカウント値の合計に基づいて計算される。より好適な評価値は、(前画像の全ピクセルのカウント値の合計+後画像の全ピクセルのカウント値の合計)/2で表される。規格範囲は例えば、標準撮像条件下で撮像された複数の撮像画像セットを格納する撮像画像データベースに基づいて決定される。即ち、修正部20は、撮像画像セットの評価値が規格範囲内であれば、その撮像画像セットが標準撮像条件下で撮像されたものであると判定する。規格範囲の下限は例えば、撮像画像データベース内の各撮像画像セットから計算された評価値の最小値より小さく、規格範囲の上限は例えば、撮像画像データベース各撮像画像セットから計算された評価値の最大値より大きい。実際の撮像画像データベースに基づいて決定された規格範囲において、下限は例えば1,200,000であり、上限は例えば、2,200,000である。   For example, the correction unit 20 calculates an evaluation value from the count values of all the pixels in the captured image set, and determines that the captured image set satisfies a predetermined standard if the evaluation value is within a standard range. The evaluation value is calculated based on, for example, the sum of the count values of all pixels in the previous image and the subsequent image. A more preferable evaluation value is represented by (sum of count values of all pixels of the previous image + sum of count values of all pixels of the subsequent image) / 2. The standard range is determined based on, for example, a captured image database that stores a plurality of captured image sets captured under standard imaging conditions. That is, if the evaluation value of the captured image set is within the standard range, the correcting unit 20 determines that the captured image set is captured under the standard imaging condition. The lower limit of the standard range is, for example, smaller than the minimum value of the evaluation value calculated from each captured image set in the captured image database, and the upper limit of the standard range is, for example, the maximum of the evaluation value calculated from each captured image set in the captured image database. Greater than value. In the standard range determined based on the actual captured image database, the lower limit is, for example, 1,200,000, and the upper limit is, for example, 2,200,000.

撮像画像セットが規格を満たす場合(S2020:Yes)、修正部20は、撮影画像セットを修正せずに修正画像セットとして修正画像記憶部25へ保存し(S2030)、このフローを終了する。   When the captured image set satisfies the standard (S2020: Yes), the correcting unit 20 stores the captured image set in the corrected image storage unit 25 as a corrected image set without correcting (S2030), and ends this flow.

撮像画像セットが規格を満たさない場合(S2020:No)、修正部20は、評価値に基づいてスケーリングファクタを計算し、撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより修正画像セットを生成して修正画像記憶部25へ保存し(S2040)、このフローを終了する。スケーリングファクタは例えば、(基準評価値/評価値)で表される。規格を満たさないと判定された撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより、その結果である修正画像セットの評価値は基準評価値になる。基準評価値は、規格範囲内の値である。実際の撮像画像データベースに基づいて決定された基準評価値は例えば、1,800,000である。   When the captured image set does not satisfy the standard (S2020: No), the correction unit 20 calculates a scaling factor based on the evaluation value, and generates a corrected image set by multiplying each pixel of the captured image set by the scaling factor. And it preserve | saves to the correction image memory | storage part 25 (S2040), and complete | finishes this flow. The scaling factor is expressed by, for example, (reference evaluation value / evaluation value). By multiplying each pixel of the captured image set determined not to satisfy the standard by the scaling factor, the evaluation value of the modified image set as a result becomes the reference evaluation value. The reference evaluation value is a value within the standard range. The reference evaluation value determined based on the actual captured image database is 1,800,000, for example.

修正部20は、修正画像に対応する撮像条件データを撮像画像記憶部15から読み出し、修正画像に関連付けて修正画像記憶部25へ保存する。   The correction unit 20 reads the imaging condition data corresponding to the corrected image from the captured image storage unit 15 and stores it in the corrected image storage unit 25 in association with the corrected image.

修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の統計量に基づいて規格範囲及び基準評価値を決定しても良い。例えば、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の平均値及び標準偏差を用い、(平均値−標準偏差)を規格範囲の下限とし、(平均値+標準偏差)を規格範囲の上限とし、(平均値)を基準評価値としても良い。   The correction unit 20 may determine the standard range and the reference evaluation value based on the statistic of the evaluation value calculated from each captured image set in the captured image database. For example, the correction unit 20 uses the average value and the standard deviation of the evaluation values calculated from each captured image set in the captured image database, sets (average value−standard deviation) as the lower limit of the standard range, and (average value + standard). Deviation) may be the upper limit of the standard range and (average value) may be the reference evaluation value.

以上が修正部20の動作である。   The above is the operation of the correction unit 20.

以上に説明したように、修正部20は、カウント値が規格外であると判定された撮像画像セットを、規格を満たすように修正することができる。言い換えれば、標準撮像条件下で撮影されていない撮像画像セットのカウント値を、標準撮像条件下で撮影された撮像画像セットのカウント値の範囲内に修正することができる。これにより、その後の処理の精度を向上させることができる。   As described above, the correction unit 20 can correct the captured image set whose count value is determined to be out of the standard so as to satisfy the standard. In other words, the count value of the captured image set that is not captured under the standard imaging condition can be corrected within the range of the count value of the captured image set that is captured under the standard imaging condition. Thereby, the accuracy of subsequent processing can be improved.

以下、正規化部30について説明する。   Hereinafter, the normalization unit 30 will be described.

正規化部30は、修正画像記憶部25から修正画像セットを読み出す。以下の説明において、修正画像を骨シンチグラムや患者画像と呼ぶことがある。   The normalization unit 30 reads the corrected image set from the corrected image storage unit 25. In the following description, the corrected image may be called a bone scintigram or a patient image.

図4は、正規化部30の構成を示すブロック図である。正規化部30は、入力画像メモリ105と、形状識別部110と、注釈付画像メモリ115と、ホットスポット検出部120と、第1ホットスポットメモリ125と、ホットスポット特徴抽出部130と、第2ホットスポットメモリ135と、第1判定部140と、第3ホットスポットメモリ145と、患者特徴抽出部150と、患者特徴メモリ155と、第2判定部160とを有する。   FIG. 4 is a block diagram showing a configuration of the normalization unit 30. As shown in FIG. The normalization unit 30 includes an input image memory 105, a shape identification unit 110, an annotated image memory 115, a hot spot detection unit 120, a first hot spot memory 125, a hot spot feature extraction unit 130, a second It has a hot spot memory 135, a first determination unit 140, a third hot spot memory 145, a patient feature extraction unit 150, a patient feature memory 155, and a second determination unit 160.

入力画像メモリ105は、骨シンチグラムセットを格納する。一回の診断により得られる骨シンチグラムセットは、患者の正面から撮像した前面像と、患者の背面から撮像した後面像とを有する。   The input image memory 105 stores a bone scintigram set. The bone scintigram set obtained by one diagnosis has a front image captured from the front of the patient and a rear image captured from the back of the patient.

形状識別部110は、入力画像メモリ105に接続されており、骨シンチグラムセットに含まれる骨格の解剖学的構造を識別する。形状識別部110は、予め定義された骨格モデルを有する。骨格モデルは少なくとも一つの解剖学的部位(セグメント)を有する。各部位は、一般的な骨格の解剖学的部分を表す。骨格モデルは、骨シンチグラムセットの骨格に合うように調整される。   The shape identifying unit 110 is connected to the input image memory 105 and identifies the anatomical structure of the skeleton included in the bone scintigram set. The shape identifying unit 110 has a predefined skeleton model. The skeletal model has at least one anatomical site (segment). Each site represents a general skeletal anatomical part. The skeletal model is adjusted to fit the skeleton of the bone scintigram set.

注釈付画像メモリ115は、形状識別部110に接続されており、注釈付画像セットを格納する。注釈付画像セットは、形状識別部110からの、骨シンチグラムセットの異なる複数の骨格部位に対応する複数の解剖学的構造に関する情報に基づく。   The annotated image memory 115 is connected to the shape identifying unit 110 and stores an annotated image set. The annotated image set is based on information regarding a plurality of anatomical structures corresponding to a plurality of skeletal parts having different bone scintigram sets from the shape identification unit 110.

ホットスポット検出部120は、注釈付画像メモリ115に接続されており、注釈付画像セットの高強度領域を検出する。ホットスポット検出部120の一つの形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する閾値走査部を有する。好適なホットスポット検出部120は、形状識別部110により定義された異なる複数の解剖学的部位に対する異なる複数の閾値を有する。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状と位置を決定する。   The hot spot detection unit 120 is connected to the annotated image memory 115 and detects a high intensity region of the annotated image set. One form of hot spot detector 120 has a threshold scan that scans the bone scintigram set and identifies pixels that exceed a certain threshold. The preferred hot spot detector 120 has different thresholds for different anatomical sites defined by the shape identifier 110. In this case, the hot spot feature extraction unit 130 extracts at least one hot spot feature for each hot spot, and determines the shape and position of each hot spot.

ホットスポット検出部120の別の形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する画像正規化フィルタリング部を有しても良い。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状、テクスチャ、幾何学的形状を決定する。好適なホットスポット特徴のセット内の各特徴の詳細は、第1判定部140の入力の具体例として後述される。   Another form of hot spot detection unit 120 may include an image normalization filtering unit that scans the bone scintigram set and identifies pixels that exceed a certain threshold. In this case, the hot spot feature extraction unit 130 extracts at least one hot spot feature for each hot spot, and determines the shape, texture, and geometric shape of each hot spot. Details of each feature in the preferred set of hot spot features will be described later as a specific example of the input of the first determination unit 140.

検出された高強度領域、所謂「ホットスポット」に関して、以上のように生成される情報は、第1ホットスポットメモリ125に格納される。   Regarding the detected high intensity region, so-called “hot spot”, information generated as described above is stored in the first hot spot memory 125.

ホットスポット特徴抽出部130は、第1ホットスポットメモリ125に接続されており、ホットスポット検出部120により検出された各ホットスポットのホットスポット特徴のセットを抽出する。抽出されたホットスポット特徴のデータは、第2ホットスポットメモリ135に格納される。   The hot spot feature extraction unit 130 is connected to the first hot spot memory 125 and extracts a set of hot spot features of each hot spot detected by the hot spot detection unit 120. The extracted hot spot feature data is stored in the second hot spot memory 135.

第1判定部140は、被験者が所定の状態であるか否かを判定する。例えば、第1判定部140は、第2ホットスポットメモリ135に接続されており、ホットスポットセットの各ホットスポットが癌転移(以下、単に転移という場合がある)であるか否かを判定する(ホットスポットの転移判定)。第1判定部140は、ホットスポット特徴抽出部130により生成されたホットスポットセットの各ホットスポットの特徴が供給される。ホットスポットの転移判定は、ホットスポット特徴抽出部130により抽出されたホットスポット特徴セットデータに基づく。この判定の結果は、第3ホットスポットメモリ145に格納される。   The first determination unit 140 determines whether or not the subject is in a predetermined state. For example, the first determination unit 140 is connected to the second hot spot memory 135 and determines whether each hot spot of the hot spot set is cancer metastasis (hereinafter, sometimes simply referred to as metastasis) ( Hot spot transfer determination). The first determination unit 140 is supplied with the feature of each hot spot of the hot spot set generated by the hot spot feature extraction unit 130. The hot spot transfer determination is based on the hot spot feature set data extracted by the hot spot feature extraction unit 130. The result of this determination is stored in the third hot spot memory 145.

ここで、ホットスポットの転移判定の結果は、ホットスポットが転移であるか否かを示す確率(0〜1)であってもよいし、2値化された値、すなわち「yes、ホットスポットが転移である」に対応する値(例えば「1」)、または「no、ホットスポットが転移でない」に対応する値(例えば「0」)であってもよい。第1判定部140が出力する判定結果は、医師が診断をするための診断支援情報として表示装置5に出力されてもよい。   Here, the result of the hot spot transition determination may be a probability (0 to 1) indicating whether the hot spot is a transition, or a binarized value, that is, “yes, It may be a value corresponding to “is a transition” (for example, “1”) or a value corresponding to “no, a hot spot is not a transition” (for example, “0”). The determination result output by the first determination unit 140 may be output to the display device 5 as diagnosis support information for a doctor to make a diagnosis.

第1判定部140は、例えば、機械学習アルゴリズムを用いて実現されてもよい。機械学習アルゴリズムとしては、例えば、人工ニューラルネットワーク(Artificial Neural Network,ANN)、サポートベクターマシン(Support Vector Machine,SVM)、線形判別分析(Linear Discriminant Analysis,LDA)などを用いることができる。また、機械学習アルゴリズムは、教師あり学習、教師なし学習及び半教師あり学習など、どのような学習方法のアルゴリズムであってもよい。第1判定部140は、各機械学習アルゴリズムをそれぞれの方法で学習させた学習済みアルゴリズムを含む構成で実現されてもよい。例えば、第1判定部140は、学習済みアルゴリズムで実現されている単一または複数の判別機を含んでもよい。   The first determination unit 140 may be realized using a machine learning algorithm, for example. As the machine learning algorithm, for example, an artificial neural network (ANN), a support vector machine (SVM), a linear discriminant analysis (LDA), or the like can be used. The machine learning algorithm may be any learning method algorithm such as supervised learning, unsupervised learning, and semi-supervised learning. The 1st determination part 140 may be implement | achieved by the structure containing the learned algorithm which learned each machine learning algorithm by each method. For example, the first determination unit 140 may include a single classifier or a plurality of classifiers realized by a learned algorithm.

第1判定部140は、解剖学的部位ごとに部位別判定部1400を有していてもよい。或る部位内の各ホットスポットは、その部位のホットスポットを処理するように構成された部位別判定部1400により順次処理される。   The first determination unit 140 may include a region-specific determination unit 1400 for each anatomical region. Each hot spot in a certain part is sequentially processed by a part-specific determination unit 1400 configured to process the hot spot in the part.

図5は、第1判定部140に含まれる部位別の部位別判定部1400の構成の一例を示すブロック図である。部位別判定部1400は、2以上の判別機C(C1〜C3)と一つの判断機Dを有してもよい。なお、図5の例では、部位別判定部1400は判別機Cを3つ有しているが、2つまたは4つ以上有していてもよい。   FIG. 5 is a block diagram illustrating an example of the configuration of the site-specific determination unit 1400 included in the first determination unit 140. The site-specific determination unit 1400 may include two or more discriminators C (C1 to C3) and one determination device D. In addition, in the example of FIG. 5, although the site | part determination part 1400 has three discriminators C, you may have two or four or more.

各判別機Cは、被験者が所定の状態であるか否かの確率を出力するようにしてもよいし、被験者が所定の状態であるか否かを出力するようにしてもよい。例えば、各判別機Cは、それぞれが所定の入力に基づいてホットスポットが転移であるか否かを判定してもよい。各判別機Cは、それぞれが算出したホットスポットが転移であるか否かの確率(判別結果)を判断機Dへ出力してもよい。各判別機Cは、その確率に応じてホットスポットが転移であるか否かの判定結果を出力してもよい。   Each discriminator C may output the probability of whether or not the subject is in a predetermined state, or may output whether or not the subject is in a predetermined state. For example, each discriminator C may determine whether or not a hot spot is a transition based on a predetermined input. Each discriminator C may output the probability (discrimination result) whether or not the calculated hot spot is a transition to the discriminator D. Each discriminator C may output a determination result as to whether or not the hot spot is transfer according to the probability.

判断機Dは、各判別機Cの判別結果に応じて、被験者が所定の状態であるか否かの診断を支援する情報を出力する。本実施形態では、判断機Dは、ホットスポットが転移であるか否かを判定する。判断機Dの判定結果が第1判定部140の判定結果として出力される。複数の判別機Cの判別結果に基づいて判断機Dが判定を行うことで、個別の判別機Cの特性に依存しない判定を行うことができ、診断支援の精度が向上する。同様に、複数の判別機Cの出力に基づいて判断機Dの出力が定まることから、個別の判別機Cの特性に依存せず、安定した出力が得られる。   The determiner D outputs information that supports diagnosis of whether or not the subject is in a predetermined state according to the determination result of each determiner C. In the present embodiment, the determiner D determines whether or not the hot spot is a transition. The determination result of the determination device D is output as the determination result of the first determination unit 140. Since the determinator D makes a determination based on the determination results of the plurality of classifiers C, it is possible to make a determination that does not depend on the characteristics of the individual classifiers C, and the accuracy of diagnosis support is improved. Similarly, since the output of the determiner D is determined based on the outputs of the plurality of discriminators C, a stable output can be obtained without depending on the characteristics of the individual discriminators C.

ここで、各判別機Cが学習済みアルゴリズムで構成されていてもよい。判別機C1、C2、C3は、共通の学習アルゴリズムを異なるデータセットで学習させた学習済みアルゴリズムでよい。データセットは、例えば、以下のような第1〜第3のデータセットでもよい。すなわち、第1のデータセットは正常(ホットスポットは転移でない)と診断された被験者データを多く含むデータセット、第2のデータセットは異常(ホットスポットは転移である)と診断された被験者データを多く含むデータセット、第3のデータセットは正常と診断された被験者データと異常と診断された被験者データとがほぼ同数のデータセットでもよい。例えば、判別機C1が第1のアルゴリズムを第1のデータセットで学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムを第2のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1のアルゴリズムを第3のデータセットで学習させた学習済みアルゴリズムであってもよい。これにより、3つの判別機C1〜3は異なる特性を有するようになる。   Here, each classifier C may be configured with a learned algorithm. The discriminators C1, C2, and C3 may be learned algorithms obtained by learning a common learning algorithm using different data sets. The data set may be, for example, the following first to third data sets. That is, the first data set is a data set including a lot of subject data diagnosed as normal (hot spots are not metastasized), and the second data set is subject data diagnosed as abnormal (hot spots are metastases). The data set including many and the third data set may be substantially the same number of the subject data diagnosed as normal and the subject data diagnosed as abnormal. For example, the discriminator C1 learns the first algorithm with the first data set, the learned algorithm, the discriminator C2 learns the first algorithm with the second data set, the discriminator C3 A learned algorithm obtained by learning the first algorithm using the third data set may be used. Thereby, the three discriminators C1 to C3 have different characteristics.

あるいは、判別機C1、C2、C3のいずれか一つが他の二つと異なる学習アルゴリズムでもよいし、判別機C1、C2、C3のすべてが異なる学習アルゴリズムでもよい。学習アルゴリズムが異なる場合、学習に用いるデータセットは共通であってもよい。例えば、判別機C1が第1のアルゴリズムをいずれか一つのデータセット(例えば第1のデータセット)で学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムと異なる第2のアルゴリズムを共通のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1及び第2のアルゴリズムと異なる第3のアルゴリズムをさらに共通のデータセットで学習させた学習済みアルゴリズムであってもよい。この場合も、3つの判別機C1〜3は異なる特性を有するようになる。   Alternatively, any one of the discriminators C1, C2, and C3 may be a learning algorithm different from the other two, or all of the discriminators C1, C2, and C3 may be different learning algorithms. When learning algorithms are different, the data sets used for learning may be common. For example, the discriminator C1 shares a learned algorithm obtained by learning the first algorithm with any one data set (for example, the first data set), and the discriminator C2 uses a second algorithm different from the first algorithm in common. A learned algorithm learned from a data set or a learned algorithm obtained by further learning a third algorithm different from the first and second algorithms by the classifier C3 using a common data set may be used. Also in this case, the three discriminators C1 to C3 have different characteristics.

判断機Dは、以下のようにして、ホットスポットが転移であるか否かを判定してもよい。例えば、各判別機Cの出力値が0〜1であれば、それらに基づく統計値(例えば平均値、中央値等)を算出し、それを判断機Dの出力値としてもよい。あるいは、判断機Dが算出したその統計値をさらに所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化して、判断機Dの出力値としてもよい。これらの処理を行う際に、各判別機Cの出力に所定の重み付けをしてから行ってもよい。   The determiner D may determine whether the hot spot is a transition as follows. For example, if the output value of each discriminator C is 0 to 1, a statistical value (for example, average value, median value, etc.) based on them may be calculated and used as the output value of the discriminator D. Alternatively, the statistical value calculated by the determinator D may be further binarized to “0” indicating that there is no transfer at a predetermined threshold or “1” indicating that it is a transfer, and the output value of the determiner D may be used. . When performing these processes, the output of each discriminator C may be given a predetermined weight.

また、判断機Dは、各判別機Cの出力値である0〜1を所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化した後、「0」と「1」の数に応じて判断機Dの出力を「0」または「1」に定めてもよい。このとき各判別機Cの出力値を2値化する閾値はすべて同じでもよいし、異なっていてもよい。   Further, the determinator D binarizes the output values 0 to 1 of the respective discriminators C into “0” indicating that there is no transfer or “1” indicating that the transfer is performed with a predetermined threshold, The output of the determination device D may be set to “0” or “1” according to the number of “0” and “1”. At this time, the thresholds for binarizing the output values of the discriminators C may all be the same or different.

さらに、判断機Dは3つ以上の階級に離散化して、その一つの階級を出力値としてもよい。例えば、判断機Dが0〜1の値を所定の閾値で四つの階級に分ける場合、「確実に正常」、「おそらく正常」、「おそらく転移」、及び「確実に転移」にそれぞれ対応する値(例えば、0,1,2,3)を出力値としてもよい。   Further, the determination device D may discretize into three or more classes, and one of the classes may be used as an output value. For example, when the determinator D divides a value of 0 to 1 into four classes with a predetermined threshold, values corresponding to “definitely normal”, “probably normal”, “probably transferred”, and “definitely transferred”, respectively. (For example, 0, 1, 2, 3) may be used as the output value.

第1判定部140は、単一の判別機Cで構成されていてもよい。この場合、判断機Dは不要であり、単一の判別機Cが出力するホットスポットである確率をそのまま第1判定部140の出力としてもよい。判別機Cの出力が0〜1の数値であるとき、第1判定部140は、上述の判断機Dと同様の処理で出力値を2値化したり、3つ以上の階級に離散化したりしてもよい。   The first determination unit 140 may be configured with a single discriminator C. In this case, the determinator D is unnecessary, and the probability of being a hot spot output from the single discriminator C may be used as the output of the first determination unit 140 as it is. When the output of the discriminator C is a numerical value of 0 to 1, the first determination unit 140 binarizes the output value by the same process as the above-described discriminator D, or discretizes it into three or more classes. May be.

また、後述するように、読影者等から再判定要求を受けたときは、第1判定部140は、第2ホットスポットメモリ135のホットスポット特徴セットデータに加えて、検査データ記憶部17の検査データも入力として受け付けて、再判定を行うようにしてもよい。例えば、部位別判定部1400の判定機Cは、再判定の場合には、ホットスポット特徴セットデータと併せて検査データの入力を受け付けて、ホットスポットが転移であるか否かの再判定を行うようにしてもよい。このとき、判断機Dは、通常の場合と同様にしてホットスポットが転移であるか否の判定を行うようにしてもよい。あるいは、部位別判定部1400は検査データ専用の判別機Cを備えていてもよい。判断機Dは、通常の判定で用いる判別機Cに加えて、検査データ専用の判別機Cの出力に基づいて、ホットスポットが転移であるか否の判定を行うようにしてもよい。   As will be described later, when receiving a re-determination request from an interpreter or the like, the first determination unit 140 in addition to the hot spot feature set data in the second hot spot memory 135, the inspection in the inspection data storage unit 17 Data may also be accepted as input and re-determination may be performed. For example, in the case of re-determination, the determinator C of the site-specific determination unit 1400 receives input of inspection data together with hot spot feature set data, and re-determines whether the hot spot is a transfer. You may do it. At this time, the determinator D may determine whether or not the hot spot is a transition in the same manner as in a normal case. Alternatively, the site-specific determination unit 1400 may include a classifier C dedicated to examination data. The determiner D may determine whether or not the hot spot is a transition based on the output of the determiner C dedicated to inspection data, in addition to the determiner C used for normal determination.

患者特徴抽出部150は、第2ホットスポットメモリ135及び第3ホットスポットメモリ145に接続されており、ホットスポット検出部120により検出されて第2ホットスポットメモリ135に格納されているホットスポットの数と、第3ホットスポットメモリ145に格納されている第1判定部140からのホットスポットの転移判定の結果の出力値とに基づいて、患者特徴セットを抽出する。患者特徴抽出部150は、ホットスポット特徴抽出部130からのデータと第1判定部140の出力のデータの両方を用いて計算を実行する。抽出された患者特徴のデータは、患者特徴メモリ155に格納される。好適な、抽出された特徴は、第2判定部160の入力の具体例として後述される。   The patient feature extraction unit 150 is connected to the second hot spot memory 135 and the third hot spot memory 145, and the number of hot spots detected by the hot spot detection unit 120 and stored in the second hot spot memory 135. The patient feature set is extracted based on the output value of the hot spot transfer determination result from the first determination unit 140 stored in the third hot spot memory 145. The patient feature extraction unit 150 performs calculation using both the data from the hot spot feature extraction unit 130 and the data output from the first determination unit 140. The extracted patient feature data is stored in the patient feature memory 155. A suitable extracted feature will be described later as a specific example of the input of the second determination unit 160.

第2判定部160は、被験者が所定の状態であるか否かを判定する。例えば、第2判定部160は、患者特徴メモリ155に接続されており、患者特徴抽出部150により抽出されて患者特徴メモリ155に格納されている患者特徴セットデータに基づいて、患者が少なくとも一つの癌転移を持っているか否かを判定する(患者の転移判定)。   The second determination unit 160 determines whether or not the subject is in a predetermined state. For example, the second determination unit 160 is connected to the patient feature memory 155, and based on the patient feature set data extracted by the patient feature extraction unit 150 and stored in the patient feature memory 155, at least one patient is identified. It is determined whether or not the patient has cancer metastasis (patient metastasis determination).

第2判定部160は、第1判定部140と同じ構成であってもよいし、第1判定部140の一部であってもよい。   The second determination unit 160 may have the same configuration as the first determination unit 140 or may be a part of the first determination unit 140.

以下、正規化部30による骨シンチグラム分割方法(セグメンテーション)について説明する。   Hereinafter, a bone scintigram dividing method (segmentation) by the normalization unit 30 will be described.

図6は、正規化部30による骨シンチグラム分割方法を示すフローチャートである。前述のS30において、正規化部30はこのフローを実行する。   FIG. 6 is a flowchart showing a bone scintigram dividing method by the normalization unit 30. In S30 described above, the normalization unit 30 executes this flow.

骨シンチグラム分割方法は例えば、ASM(active shape model:アクティブ形状モデル)アプローチを用いて、腕(上肢)と脚(下肢)の下部(末端)を除く骨格の前面像と後面像の全体の輪郭抽出の実行を含む。腕と足の下部が転移に対して非常に稀な場所であり、それらは時々骨走査ルーチンで取得されていないので、骨格のこれらの部分を省くことは、問題にならない。説明のため、ASMは、画像内のオブジェクトを見つけるための統計的方法として定義されている。その方法は、学習画像セットに基づく統計モデルに基づいている。各学習画像において、オブジェクトの形状は、準備又は学習の段階中に人間のオペレータにより手動で決定される目標点により定義される。その後、オブジェクトに関する一般的形状を記述するために用いられる点分布モデルが、計算される。一般的形状は、本実施形態の場合と同様、例えば骨格のようなオブジェクトタイプの新規の例に対する他の画像を検索するために用いることができる。人間の骨格の解剖学的構造を記述するASMの学習のための方法が提供される。そのモデルは、以下の説明するステップを含む。   The bone scintigram division method uses, for example, an ASM (active shape model) approach, and the entire outline of the front and back images of the skeleton excluding the arms (upper limbs) and the lower parts (ends) of the legs (lower limbs). Includes performing extraction. Omitting these parts of the skeleton is not a problem because the lower arms and legs are very rare places for metastases and they are sometimes not acquired in the bone scanning routine. For illustration purposes, ASM is defined as a statistical method for finding objects in an image. The method is based on a statistical model based on a learning image set. In each learning image, the shape of the object is defined by target points that are determined manually by a human operator during the preparation or learning phase. A point distribution model is then calculated that is used to describe the general shape for the object. The general shape can be used to search for other images for a new example of an object type, such as a skeleton, as in the present embodiment. A method is provided for learning ASM that describes the anatomy of the human skeleton. The model includes the steps described below.

最初のステップは例えば、骨格を8個の異なる学習セットに分割する(S205)。学習セットは、一貫したセグメンテーションを実現するために特に適している解剖学的部位に対応するように選択される。8個の異なる学習セットは以下に示される。
1)頭と脊椎の前面像に関する第1学習セット。
2)肋骨の前面像に関する第2学習セット。
3)腕の前面像に関する第3学習セット。
4)下半身の前面像に関する第4学習セット。
5)頭と脊椎の後面像に関する第5学習セット。
6)肋骨の後面像に関する第6学習セット。
7)腕の後面像に関する第7学習セット。
8)下半身の後面像に関する第8学習セット。
The first step, for example, divides the skeleton into 8 different learning sets (S205). The learning set is selected to correspond to an anatomical site that is particularly suitable for achieving consistent segmentation. Eight different learning sets are shown below.
1) The first learning set for the frontal image of the head and spine.
2) A second learning set for the frontal image of the ribs.
3) A third learning set for the frontal image of the arm.
4) A fourth learning set for the front image of the lower body.
5) A fifth learning set for the posterior image of the head and spine.
6) A sixth learning set for the posterior image of the ribs.
7) A seventh learning set related to the rear image of the arm.
8) The 8th learning set regarding the rear image of the lower body.

各学習セットは、多くの事例画像を提供する(S210)。各画像は、目標点のセットを用いて作成される。各目標点は、画像の特別な解剖学的または生物学的な点を表す座標ペアに関連付けられている。座標ペアは、対応する解剖学的/生物学的点を手動で特定することにより決定される(S215)。前面像では、以下の簡単に識別可能な解剖学的目標点が使用される。   Each learning set provides many case images (S210). Each image is created using a set of target points. Each target point is associated with a coordinate pair that represents a particular anatomical or biological point of the image. A coordinate pair is determined by manually identifying the corresponding anatomical / biological point (S215). In the front view, the following easily identifiable anatomical target points are used:

学習セットの統計量を取り込む前に、目標点の各セットは、8個の学習セットの夫々に対して異なる共通座標系に整列される。これは、非特許文献1に説明されているように、学習形状が互いにできるだけ近づくようにする、学習形状のスケーリング、回転、及び解釈により実現される。学習セットの統計量の検査により、学習セット内で観察される形状変化を含む2次元統計的ポイント分布モデルが得られる(S220)。この複数の骨格に亘る目標点(形状)の変化の統計的モデリングは、非特許文献1及び非特許文献2に説明されているように実行される。   Prior to capturing the learning set statistics, each set of target points is aligned to a different common coordinate system for each of the eight learning sets. This is realized by scaling, rotation, and interpretation of learning shapes that make the learning shapes as close as possible to each other, as described in Non-Patent Document 1. By examining the statistics of the learning set, a two-dimensional statistical point distribution model including the shape change observed in the learning set is obtained (S220). The statistical modeling of the change of the target point (shape) across the plurality of skeletons is performed as described in Non-Patent Document 1 and Non-Patent Document 2.

形状変化の結果として得られる統計モデルは、骨格を分割するために患者画像に適用されることができる。平均形状から始め、形状モデルの可能な変化の範囲内の新たな形状は、生成された骨格が患者画像内に存在する構造に似るように、学習セットの形状に似て生成されることができる。この方法を用いて分割される前面体セグメントは例えば、頭蓋骨、顔首、脊椎、上部胸骨、下部胸骨、右腕、左腕、右肋骨、左肋骨、右肩、左肩、骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。後面体セグメントは例えば、頭蓋骨、首、上部脊椎、下部脊椎、背骨、右腕、左腕、右肋骨、左肋骨、右肩甲骨、左肩甲骨、股関節、下部骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。   The statistical model resulting from the shape change can be applied to the patient image to segment the skeleton. Starting with an average shape, new shapes within the range of possible changes in the shape model can be generated similar to the shape of the learning set so that the generated skeleton resembles the structure present in the patient image. . The frontal body segment divided using this method is, for example, skull, face neck, spine, upper sternum, lower sternum, right arm, left arm, right rib, left rib, right shoulder, left shoulder, pelvis, bladder, right femur, And the left femur. The posterior segment includes, for example, the skull, neck, upper spine, lower spine, spine, right arm, left arm, right rib, left rib, right shoulder blade, left shoulder blade, hip joint, lower pelvis, bladder, right femur, and left femur It may be.

検索プロセスの最初のステップは、前面像の平均形状に対する開始位置を見つけることであっても良い。例えば、頭の最高点が選択されても良い。なぜなら、それは、テストにおいて、ロバストな開始位置であることが証明され、画像上部内で各水平行内の特定閾値より大きい強度を検査することにより簡単に見つけられるためである。   The first step in the search process may be to find a starting position for the average shape of the front image. For example, the highest point of the head may be selected. This is because it proves to be a robust starting position in the test and can be easily found by examining the intensity above a certain threshold in each horizontal line within the top of the image.

次に、患者画像内の骨格に合う骨格形状モデルの事例の検索は、非特許文献1及び非特許文献2に記述されたアルゴリズムに従って実行される。   Next, the search of the example of the skeleton shape model matching the skeleton in the patient image is executed according to the algorithm described in Non-Patent Document 1 and Non-Patent Document 2.

以上の動作により、正規化部30は、骨シンチグラムセットから識別された骨格部位の領域、検出されたホットスポットの領域、ホットスポットの転移判定結果、患者の転移判定結果等を含む特徴データを、特徴データ記憶部36へ保存する。ここで、ホットスポットの転移判定結果を第1判定部140の判断機Dが算出する根拠となった各判別機Cの出力値も、ホットスポットの転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。同様に、患者の転移判定結果を第2判定部160の判断機Dが算出する根拠となった各判別機Cの出力値も、患者の転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。   Through the above operation, the normalization unit 30 acquires feature data including the region of the skeletal region identified from the bone scintigram set, the detected hot spot region, the hot spot metastasis determination result, the patient metastasis determination result, and the like. The feature data is stored in the feature data storage unit 36. Here, the output value of each discriminator C that is the basis for calculating the hot spot transfer determination result by the determining device D of the first determination unit 140 is also associated with the hot spot transfer determination result in association with the feature data storage unit 36. It may be stored in. Similarly, the output value of each discriminator C, which is the basis for calculating the patient metastasis determination result by the determination unit D of the second determination unit 160, is also stored in the feature data storage unit 36 in association with the patient metastasis determination result. You may be made to do.

以下、正規化部30による別の骨シンチグラム分割方法について説明する。   Hereinafter, another bone scintigram division method by the normalization unit 30 will be described.

別の骨シンチグラム分割方法が提供される。別の骨シンチグラム分割方法の目標は、前述の骨シンチグラム分割方法と同様、骨シンチグラム300内の骨格の異なる複数の解剖学的部位を認識して輪郭抽出することである。図7は、骨シンチグラムと骨格部位の一例を示す図である。この図に示されているように、骨格部位は、患者画像310に輪郭320を重ねることにより定義される。ここで述べた分割方法は、登録により表される分割である。   Another bone scintigram segmentation method is provided. The goal of another bone scintigram segmentation method is to recognize and extract contours from a plurality of different anatomical parts of the skeleton in the bone scintigram 300, similar to the bone scintigram segmentation method described above. FIG. 7 is a diagram showing an example of a bone scintigram and a skeleton part. As shown in this figure, the skeletal site is defined by overlaying a contour 320 on the patient image 310. The division method described here is a division represented by registration.

画像登録方法は、或る画像を別の画像の座標系に変換する。これらの画像が、同一のオブジェクトクラス、ここでは骨格、の実体を表すと仮定する。変換された画像はソース画像で表され、一方で変換されない画像はターゲット画像で表される。同一の画像座標が、ソース画像とターゲット画像に含まれているオブジェクトにおける同一の幾何学的/解剖学的位置に一致する場合、ソース画像とターゲット画像の座標系は、一致すると言える。登録による分割は、ソース画像に手動で定義された分割を用いることと、分割が定義されていない場合にソース画像をターゲット画像に登録することである。ソース画像の分割は、それによってターゲット画像に変換され、従ってターゲット画像の分割を生成する。   The image registration method converts an image into a coordinate system of another image. Assume that these images represent entities of the same object class, here a skeleton. The transformed image is represented by the source image, while the untransformed image is represented by the target image. If the same image coordinates match the same geometric / anatomical position in the objects contained in the source and target images, it can be said that the coordinate systems of the source and target images match. The division by registration is to use a manually defined division for the source image and to register the source image to the target image when no division is defined. The source image segment is thereby converted to the target image, thus producing a target image segment.

この形態におけるソース画像の分割は、基準健康患者の解剖学的構造を定義し、多角形のセットとして臨床検査の専門家により手動で描かれる。図8は、健康基準画像セットの一例である。健康基準画像セットは、「アトラス」と呼ばれる。ここで、健康基準画像セットは、健康基準画像400a及び健康基準画像400bを有する。健康基準画像400aは、患者の正面像或いは前面像を示し、一方で健康基準画像400bは、患者の背面像或いは後面像を示す。健康基準画像400a及び健康基準画像400b内のラベルを夫々参照すると、これらの領域は、(1,1)とラベリングされた前部及び後部の頭蓋骨401,402、(2,2)とラベリングされた前部及び後部の頸椎403、404、(3,3)とラベリングされた前部及び後部の胸椎405、406、(14)とラベリングされた前部胸骨407、(4,4)とラベリングされた前部及び後部の腰椎409、408、(11,5)とラベリングされた前部及び後部の仙骨411、410、(15,14)とラベリングされた前部及び後部の骨盤、(5,6,7,6)とラベリングされた前部及び後部の左右の肩甲骨、(17,16)とラベリングされた前部及び後部の左右の鎖骨、(7,8,9,8)とラベリングされた前部及び後部の左右の上腕骨、(9,10,11,10)とラベリングされた前部及び後部の左右の肋骨、及び(12,13,12,13)ラベリングされた前部及び後部の左右の大腿骨413、415、412、414を定義する。   The segmentation of the source image in this form defines the reference healthy patient's anatomy and is manually drawn by the laboratory specialist as a set of polygons. FIG. 8 is an example of a health reference image set. The health reference image set is called “Atlas”. Here, the health reference image set includes a health reference image 400a and a health reference image 400b. The health reference image 400a shows a front image or a front image of the patient, while the health reference image 400b shows a back image or a rear image of the patient. Referring to the labels in the health reference image 400a and health reference image 400b, respectively, these regions were labeled with the front and rear skulls 401, 402, (2, 2) labeled (1,1). Labeled with anterior and posterior cervical vertebrae 403, 404, (3, 3) and anterior and posterior thoracic vertebrae 405, 406, (14) and anterior sternum 407, (4, 4). Anterior and posterior pelvis labeled with anterior and posterior lumbar vertebrae 409, 408, (11, 5) and anterior and posterior sacrum 411, 410, (15, 14), (5, 6, 7,6) labeled anterior and posterior left and right shoulder blades, (17,16) labeled anterior and posterior left and right clavicles, anterior labeled (7,8,9,8) Part and rear Left and right humerus, (9,10,11,10) labeled anterior and posterior left and right ribs and (12,13,12,13) labeled anterior and posterior left and right femurs 413 415, 412, and 414 are defined.

健康基準画像セットは、正規化部30によりソース画像として常に用いられ、一方、検査される患者画像はターゲット画像として働く。その結果は、ターゲット画像の骨シンチグラム300に描かれているような骨格部位への分割である。下腕と下肢は、解析のために考慮されない。   The health reference image set is always used as a source image by the normalization unit 30, while the patient image to be examined serves as a target image. The result is a segmentation of the target image into skeletal sites as depicted in the bone scintigram 300. Lower arms and lower limbs are not considered for analysis.

ソース画像として用いられる健康基準画像セットは、典型的な画質と正常な外観及び解剖学的構造を有する健康患者の10個の現実の事例から構成される。事例画像のグループから計算された平均的な強度及び解剖学的構造を有する架空の正常な健康患者の前面像及び後面像を生成するアルゴリズムが用いられる。正規化部30は、非特許文献3で説明されているようなこのタスクを実行する。健康基準画像セットは、結果として得られる解剖学的構造が確かに正常健康外観を有するように見える場合の結果を示す。この解剖学的構造は、数人の患者の解剖学的構造の平均化の結果であり、横方向対称性が高いことを示す。   The health reference image set used as the source image consists of 10 real cases of healthy patients with typical image quality and normal appearance and anatomy. An algorithm is used to generate an anterior and posterior image of a fictitious normal healthy patient having an average intensity and anatomy calculated from a group of case images. The normalization unit 30 performs this task as described in Non-Patent Document 3. The health reference image set shows the result when the resulting anatomy does indeed appear to have a normal health appearance. This anatomy is the result of averaging the anatomy of several patients, indicating high lateral symmetry.

以下、正規化部30による骨シンチグラムの正規化方法について説明する。   Hereinafter, the normalization method of the bone scintigram by the normalization part 30 is demonstrated.

前述のように、ホットスポット検出部120は、形状識別部110からの情報を用いる。ホットスポット検出部120の目的は二つである。その第1の目的は、前面及び後面の患者画像内のホットスポットを分けることである。ホットスポットは、高輝度の分離された画像部位であり、骨格内にある時に転移性疾患の指標であっても良い。その第2の目的は、画像の強度を、予め定義された基準レベルに調整することである。このような強度の調整は、画像の正規化を表す。ここでは、そのアルゴリズムを説明する。このアルゴリズムは、同時に、ホットスポットを分離し、正規化因子を推定する。また、このアルゴリズムは、前面像及び後面像で別々に実行される。以下、最初に適切な正規化の必要性が簡潔に説明され、続いてこのアルゴリズムが説明される。   As described above, the hot spot detection unit 120 uses information from the shape identification unit 110. The hot spot detection unit 120 has two purposes. Its primary purpose is to separate hot spots in the front and back patient images. A hot spot is a high-intensity separated image site and may be an indicator of metastatic disease when in the skeleton. Its second purpose is to adjust the intensity of the image to a predefined reference level. Such intensity adjustment represents normalization of the image. Here, the algorithm will be described. This algorithm simultaneously isolates hot spots and estimates normalization factors. This algorithm is also executed separately for the front and rear images. In the following, the need for proper normalization will be briefly described first, followed by a description of this algorithm.

複数の骨シンチグラムは、強度レベルにおいて、患者、研究、及びハードウェア構成により、大きく異なる。この差は増大傾向にあると推測され、ゼロの強度は全画像に対して共通の基準レベルであると推測される。従って、ソース画像をターゲット画像に関して正規化することは、ソース画像の強度をターゲット画像と等しいレベルにするスカラー因子を見つけることである。ここで、ソース画像内の骨格の健康部位の平均強度がターゲット画像内の対応する部位に等しい場合、二つの骨格画像の強度は等しいとして定義される。図9は、正規化部30による正規化方法を示すフローチャートである。このフローチャートに示されている正規化方法は、以下のステップを有する。   Multiple bone scintigrams vary greatly in intensity levels depending on patient, study, and hardware configuration. This difference is presumed to be increasing and zero intensity is presumed to be a common reference level for all images. Thus, normalizing the source image with respect to the target image is to find a scalar factor that makes the intensity of the source image equal to the target image. Here, if the average intensity of the healthy part of the skeleton in the source image is equal to the corresponding part in the target image, the intensity of the two skeleton images is defined as equal. FIG. 9 is a flowchart showing a normalization method performed by the normalization unit 30. The normalization method shown in this flowchart has the following steps.

1.骨格に対応する画像要素の同定(S510)。
2.画像に含まれるホットスポットの同定(S520)。
3.骨格要素からホットスポット要素を除去(S530)。
4.残りの(健康)要素の平均強度の計算(S540)。
5.適切な正規化因子の計算(S550)。
6.正規化因子を乗算することによるソース画像強度の調整(S560)。
1. Identification of image elements corresponding to the skeleton (S510).
2. Identification of hot spots included in the image (S520).
3. The hot spot element is removed from the skeleton element (S530).
4). Calculation of the average intensity of the remaining (health) elements (S540).
5. Calculation of an appropriate normalization factor (S550).
6). Adjusting the source image intensity by multiplying by a normalization factor (S560).

S510は、前述のように、形状識別部110により得られる変換された解剖学的部位により提供される骨格に属する画像部位の情報を用いて実行される。多角形の部位は、骨格の夫々の部位に属する画像要素を定義するバイナリ画像マスクに変換される。   As described above, S510 is executed using the information on the image part belonging to the skeleton provided by the converted anatomical part obtained by the shape identifying unit 110. Polygonal parts are converted into binary image masks that define image elements belonging to the respective parts of the skeleton.

S520において、ホットスポットは、一つの画像フィルタリング演算と一つの閾値演算を用いて分割される。画像は、夫々の周囲に関する高強度の小さい部位を強調するDoG(difference-of-Gaussians)−BPF(band-pass filter)を用いてフィルタリングされる。フィルタリングされた画像は、その後、一定レベルで閾値判定され、その結果得られるバイナリ画像は、ホットスポット要素を定義する。   In S520, the hot spot is divided using one image filtering operation and one threshold operation. Images are filtered using a DoG (difference-of-Gaussians) -BPF (band-pass filter) that emphasizes small areas of high intensity with respect to their surroundings. The filtered image is then thresholded at a certain level and the resulting binary image defines hot spot elements.

S530において、S510で計算された要素のうち、S520で計算されたホットスポット要素と一致する要素は、削除される。残りの要素は、健康骨格部位に対応すると推測される。   In S530, among the elements calculated in S510, elements that match the hot spot element calculated in S520 are deleted. The remaining elements are assumed to correspond to healthy skeletal sites.

S540において、健康骨格要素の平均強度が計算される。この平均強度はAで表される。   In S540, the average strength of the health skeleton element is calculated. This average intensity is represented by A.

S550において、適切な正規化因子は、予め定義された基準強度レベルに関連して決定される。ここで、例えば、このレベルを1000に設定することができる。正規化因子Bは、(B=1000/A)のように計算される。   In S550, an appropriate normalization factor is determined in relation to a predefined reference intensity level. Here, for example, this level can be set to 1000. The normalization factor B is calculated as (B = 1000 / A).

S560において、ソース画像の強度は、Bを乗算することにより調整される。   In S560, the intensity of the source image is adjusted by multiplying B.

S520におけるホットスポット分割は、S550で計算された正規化因子により順次決定される画像の全体強度レベルに依存する。とは言え、S550で計算された正規化因子は、S520からのホットスポット分割に依存する。S520及びS550の結果が相互に依存しているので、S520からS560は例えば、S570において正規化因子におけるそれ以上の変化が発生しなくなるまで繰り返されても良い。広範に亘るテストでは、このプロセスが通常、3又は4回の繰り返しで収束することが示されている。   Hot spot segmentation in S520 depends on the overall intensity level of the image, which is sequentially determined by the normalization factor calculated in S550. Nonetheless, the normalization factor calculated in S550 depends on the hot spot split from S520. Since the results of S520 and S550 are interdependent, S520 to S560 may be repeated, for example, until no further change in normalization factor occurs in S570. Extensive testing has shown that this process usually converges in 3 or 4 iterations.

図10は、正規化された骨シンチグラムセットの一例を示す図である。正規化画像600aは、正規化された骨シンチグラムセットの前面像を示し、正規化画像600bは、正規化された骨シンチグラムセットの後面像を示す。分割されたホットスポット620は、分割された画像610内に現れる濃いスポットとして正規化画像600a及び正規化画像600b内に示されている。従って、正規化部30は、癌転移を有するとしてこの患者を分類するだろう。   FIG. 10 is a diagram illustrating an example of a normalized bone scintigram set. The normalized image 600a shows a front image of the normalized bone scintigram set, and the normalized image 600b shows a rear image of the normalized bone scintigram set. The divided hot spots 620 are shown in the normalized image 600 a and the normalized image 600 b as dark spots that appear in the divided image 610. Therefore, normalizer 30 will classify this patient as having cancer metastasis.

正規化部30は、前述の正規化方法による修正画像の正規化の結果を、正規化画像として正規化画像記憶部35へ保存する。   The normalization unit 30 stores the result of normalization of the corrected image by the above-described normalization method in the normalized image storage unit 35 as a normalized image.

上記の説明における用語「点」は、画像内の少なくとも一つのピクセルを表すために使用されることがある。   The term “point” in the above description may be used to represent at least one pixel in the image.

以下、第1判定部140への入力の具体例について説明する。   Hereinafter, a specific example of input to the first determination unit 140 will be described.

第1判定部140には、各ホットスポットの大きさ、形状、方向、局在性、及び強度分布を測定する以下の27の特徴が与えられる。
・骨格病変。2次元ホットスポット領域と、対応する骨格領域の2次元領域と、骨格全体に関する骨格部位により表される体積割合を表す係数とに基づいて、抽出されたホットスポット部位により占有される骨格体積の尺度。(ホットスポット領域/局所領域*係数)として計算される。
・相対面積。対応する骨格部位に対するホットスポット領域。画像解像度及びスキャナ視野に依存しない尺度。
・相対重心位置(2機能)。対応する骨格部位の境界ボックスに対する相対的重心位置。値は、0(上、左)から1(下、右)の範囲である。
・質量の相対中心(2機能)。重心の機能に似ているが、xとyの値を計算する場合にホットスポット部位の強度を考慮に入れる。
・相対高さ。対応する骨格部位の高さに対するホットスポットの高さ。
・相対幅。対応する骨格部位の幅に対するホットスポットの幅。
・最小強度。対応する正規化された画像上の全てのホットスポット要素から計算される最小強度。
・最大強度。対応する正規化された画像上の全てのホットスポット要素から計算される最大強度。
・強度の総和。対応する正規化された画像上の全てのホットスポット要素から計算される強度の総和。
・平均強度。対応する正規化された画像上の全てのホットスポット要素から計算される平均強度。
・強度の標準偏差。対応する正規化された画像上の全てのホットスポット要素から計算される強度の標準偏差。
・境界長。ピクセル単位で測定されるホットスポットの境界の長さ。
・堅実性。ホットスポット領域により表されるホットスポットの凸包領域の割合。
・偏心。0(円)から1(線)で表されるホットスポットの伸び。
・ホットスポットカウントの総数。骨格全体の全てのホットスポット内の強度の総和。
・部位におけるホットスポットカウントの数。現在のホットスポットに対応する骨格部位に含まれているホットスポットの強度の総和。
・総ホットスポット範囲。対応する画像内の骨格部位全体に対する、骨格部位全体内の全てのホットスポットの面積。
・部位におけるホットスポット範囲。骨格部位の面積に対する現在のホットスポットに対応する骨格部位内の全てのホットスポットの面積。
・ホットスポットの総数。骨格全体のホットスポットの数。
・部位におけるホットスポットの数。現在のホットスポットに対応する骨格部位内のホットスポットの数。
・ホットスポット局所性(2機能)。X座標は、形状識別部110のステップにおいて変換された基準解剖学的構造から計算される中間線に対して、0(最も内側)から1(最も遠位)の範囲に亘る。Y座標は、0(最も優れる)から1(最も劣る)の範囲に亘る。全ての尺度は、対応する骨格部位に相対的である。
・距離非対称性。現在のホットスポットの質量の相対的中心と、対側の骨格部位内のホットスポットの質量の鏡像相対的中心との間の最小ユークリッド距離。対応する対側骨格部位を自然に有している骨格領域に対してのみ計算される。
・範囲非対称性。現在のホットスポットと対側骨格部位内のホットスポットの範囲との間の範囲の最小差。
・強度非対称性。現在のホットスポットと対側骨格部位内のホットスポットの強度との間の強度の最小差。
The first determination unit 140 is provided with the following 27 features for measuring the size, shape, direction, localization, and intensity distribution of each hot spot.
-Skeletal lesions. A measure of the skeletal volume occupied by the extracted hot spot site based on the 2D hot spot region, the 2D region of the corresponding skeletal region, and a coefficient representing the volume fraction represented by the skeletal site for the entire skeleton. . Calculated as (hot spot area / local area * coefficient).
• Relative area. Hot spot area for the corresponding skeletal site. Scale independent of image resolution and scanner field of view.
-Relative barycentric position (2 functions). Relative barycentric position relative to the bounding box of the corresponding skeletal part. Values range from 0 (upper, left) to 1 (lower, right).
• Relative center of mass (2 functions). Similar to the function of the center of gravity, but takes into account the intensity of the hot spot site when calculating the x and y values.
-Relative height. The height of the hot spot relative to the height of the corresponding skeletal site.
-Relative width. The width of the hot spot relative to the width of the corresponding skeletal site.
・ Minimum strength. The minimum intensity calculated from all hot spot elements on the corresponding normalized image.
・ Maximum strength. Maximum intensity calculated from all hot spot elements on the corresponding normalized image.
・ Total strength. The sum of the intensities calculated from all hot spot elements on the corresponding normalized image.
・ Average strength. The average intensity calculated from all hot spot elements on the corresponding normalized image.
・ Standard deviation of intensity. Standard deviation of the intensity calculated from all hot spot elements on the corresponding normalized image.
・ Boundary length. The length of the hotspot boundary measured in pixels.
・ Consistency. The percentage of the convex hull area of the hot spot represented by the hot spot area.
・ Eccentricity. The elongation of the hot spot represented by 0 (circle) to 1 (line).
・ Total number of hot spot counts. Sum of intensities in all hot spots across the skeleton.
• Number of hot spot counts at the site. Sum of hot spot intensities contained in the skeleton corresponding to the current hot spot.
-Total hot spot range. The area of all hot spots in the entire skeletal site relative to the entire skeletal site in the corresponding image.
-Hot spot range at the site. The area of all hot spots in the skeletal site corresponding to the current hot spot for the area of the skeletal site.
・ Total number of hot spots. Number of hot spots across the skeleton.
-The number of hot spots at the site. The number of hot spots in the skeletal site corresponding to the current hot spot.
Hot spot locality (2 functions). The X coordinate ranges from 0 (innermost) to 1 (most distal) with respect to the midline calculated from the reference anatomical structure converted in the step of the shape identification unit 110. The Y coordinate ranges from 0 (best) to 1 (worst). All measures are relative to the corresponding skeletal site.
• Distance asymmetry. Minimum Euclidean distance between the relative center of mass of the current hot spot and the mirror image of the mass of the hot spot in the contralateral skeletal region. It is calculated only for skeleton regions that naturally have corresponding contralateral skeleton sites.
• Range asymmetry. The minimum difference in range between the current hot spot and the range of hot spots in the contralateral skeletal site.
-Strength asymmetry. The minimum difference in intensity between the current hot spot and the intensity of the hot spot in the contralateral skeletal region.

また、第1判定部140には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。   The first determination unit 140 can be further provided with inspection data obtained from an inspection other than the inspection using the image of the subject.

以下、第2判定部160への入力の具体例について説明する。   Hereinafter, a specific example of input to the second determination unit 160 will be described.

転移性疾患の有無に関係する患者レベルの診断を判定する第2判定部160は、以下に列挙された34の特徴を入力として用いる。第2判定部160により用いられる全ての機能は、第1判定部140により高い転移確率を有するとして分類されたホットスポットから計算される。
・総病変。骨格全体の骨格病変の総和。
・頭蓋骨病変。頭蓋骨部位内の骨格病変の総和。
・頸椎柱病変。頸椎部柱部位内の骨格病変の総和。
・胸部柱病変。胸部柱部位内の骨格病変の総和。
・腰椎柱病変。腰部列地域の骨格病変の総和。
・上肢病変。上肢部位の骨格病変の総和。
・下肢病変。下肢部位の骨格病変の総和。
・胸部病変。胸部部位の骨格病変の総和。
・骨盤病変。骨盤部位の骨格病変の総和。
・「高い」ホットスポットの総数。
・頭蓋骨部位内の「高い」ホットスポットの数。
・頸椎柱部位内の「高い」ホットスポットの数。
・胸部柱部位内の「高い」ホットスポットの数。
・腰部柱部位内の「高い」ホットスポットの数。
・上肢部位内の「高い」ホットスポットの数。
・下肢部位内の「高い」ホットスポットの数。
・胸部部位内の「高い」ホットスポットの数。
・骨盤部位内の「高い」ホットスポットの数。
・頭蓋骨部位における第1判定部140が算出した最大値。
・頸椎部位における第1判定部140が算出した最大値。
・胸椎部位における第1判定部140が算出した最大値。
・腰椎部位における第1判定部140が算出した最大値。
・仙骨部位における第1判定部140が算出した最大値。
・上腕骨部位における第1判定部140が算出した最大値。
・鎖骨部位における第1判定部140が算出した最大値。
・肩甲骨部位における第1判定部140が算出した最大値。
・大腿部位における第1判定部140が算出した最大値。
・胸骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した2番目に大きい値。
・肋骨部位における第1判定部140が算出した3番目に大きい値。
・骨盤部位における第1判定部140が算出した最大値。
・骨盤部位における第1判定部140が算出した2番目に大きい値。
・骨盤部位における第1判定部140が算出した3番目に大きい値。
The second determination unit 160 that determines a patient level diagnosis related to the presence or absence of a metastatic disease uses the 34 features listed below as an input. All the functions used by the second determination unit 160 are calculated from hot spots classified as having a high transition probability by the first determination unit 140.
・ Total lesions. Sum of skeletal lesions across the skeleton.
-Skull lesions. Sum of skeletal lesions within the skull region.
-Cervical spine lesions. Sum of skeletal lesions in the cervical spine column.
-Thoracic column lesions. Sum of skeletal lesions in the thoracic column.
・ Lumbar spine lesions. Sum of skeletal lesions in the lumbar region.
-Upper limb lesions. Sum of skeletal lesions in the upper limbs.
-Lower limb lesions. Sum of skeletal lesions in the lower limbs.
-Chest lesions. Sum of skeletal lesions in the chest region.
・ Pelvic lesions. Sum of skeletal lesions in the pelvic region.
• Total number of “high” hotspots.
• The number of “high” hot spots in the skull area.
• Number of “high” hot spots in the cervical spine region.
• Number of “high” hot spots in the chest column area.
• Number of “high” hot spots in the lumbar column area.
• Number of “high” hot spots in the upper limb region.
• Number of “high” hot spots in the lower limb area.
• Number of “high” hot spots in the chest area.
• Number of “high” hot spots in the pelvic region.
The maximum value calculated by the first determination unit 140 at the skull site.
The maximum value calculated by the first determination unit 140 at the cervical vertebra site.
The maximum value calculated by the first determination unit 140 at the thoracic vertebra site.
The maximum value calculated by the first determination unit 140 at the lumbar region.
The maximum value calculated by the first determination unit 140 at the sacral region.
The maximum value calculated by the first determination unit 140 at the humerus part.
The maximum value calculated by the first determination unit 140 at the clavicle site.
The maximum value calculated by the first determination unit 140 at the scapula site.
The maximum value calculated by the first determination unit 140 in the thigh region.
The maximum value calculated by the first determination unit 140 at the sternum site.
The maximum value calculated by the first determination unit 140 at the rib site.
-The second largest value calculated by the first determination unit 140 in the rib part.
The third largest value calculated by the first determination unit 140 at the rib site.
The maximum value calculated by the first determination unit 140 in the pelvic region.
-The second largest value calculated by the first determination unit 140 in the pelvic region.
The third largest value calculated by the first determination unit 140 in the pelvic region.

また、第2判定部160には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。   The second determination unit 160 can be further provided with inspection data obtained from an inspection other than the inspection using the image of the subject.

以上に説明したように、形状識別部110は、予め定義された骨格モデルを骨シンチグラムに合わせて変形させることにより、患者の体型に依らず、骨シンチグラム内の骨格部位を識別することができる。また、ホットスポット検出部120は、識別された骨格部位から予め定められた閾値より高いカウント値を有する領域であるホットスポットを検出することにより、異常集積を検出することができる。第1判定部140は、ホットスポット毎の癌転移の確率を計算するなどにより、ホットスポット毎に癌転移の判定をすることができる。第2判定部160は、患者の癌転移の確率を計算するなどにより、患者が癌転移を有するか否かを判定することができる。   As described above, the shape identifying unit 110 can identify a skeletal part in a bone scintigram regardless of the patient's body shape by deforming a predefined skeleton model according to the bone scintigram. it can. Further, the hot spot detection unit 120 can detect abnormal accumulation by detecting a hot spot that is a region having a count value higher than a predetermined threshold value from the identified skeleton site. The first determination unit 140 can determine cancer metastasis for each hot spot by calculating the probability of cancer metastasis for each hot spot. The second determination unit 160 can determine whether or not the patient has cancer metastasis, for example, by calculating the probability of cancer metastasis of the patient.

以下の説明において、正規化されたカウント値を正規化カウント値と呼ぶ。図11は、正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。正規化前の骨シンチグラム3010と骨シンチグラム3020とにおいて、健康骨格要素である正常骨領域(正常領域)のカウント値の分布は異なる。即ち、骨シンチグラム3010の正常骨領域の平均カウント値3011と、骨シンチグラム3020の正常骨領域の平均カウント値3021とは異なる。図12は、正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。骨シンチグラム3010が正規化された骨シンチグラム3030と、骨シンチグラム3020が正規化された骨シンチグラム3040とを示す。骨シンチグラム3030と骨シンチグラム3040において、正常骨領域の正規化カウント値の分布は重なる。また、正常骨領域の平均カウント値3011、3021は、正規化により、正規化カウント値における1000に変換される。   In the following description, the normalized count value is referred to as a normalized count value. FIG. 11 is a histogram showing the distribution of count values of the bone scintigram before normalization. The distribution of count values of normal bone regions (normal regions) that are healthy skeletal elements differs between the bone scintigram 3010 and the bone scintigram 3020 before normalization. That is, the average count value 3011 of the normal bone region of the bone scintigram 3010 is different from the average count value 3021 of the normal bone region of the bone scintigram 3020. FIG. 12 is a histogram showing the distribution of normalized count values of the normalized bone scintigram. A bone scintigram 3030 with normalized bone scintigram 3010 and a bone scintigram 3040 with normalized bone scintigram 3020 are shown. In the bone scintigram 3030 and the bone scintigram 3040, the distribution of normalized count values of normal bone regions overlap. Further, the average count values 3011 and 3021 of the normal bone region are converted into 1000 in the normalized count value by normalization.

ホットスポット検出部120は、正規化画像に対応する撮像条件データを修正画像記憶部25から読み出し、正規化画像に関連付けて正規化画像記憶部35へ保存する。   The hot spot detection unit 120 reads out the imaging condition data corresponding to the normalized image from the modified image storage unit 25 and stores it in the normalized image storage unit 35 in association with the normalized image.

ホットスポット検出部120は、骨格部位からホットスポットを除いた健康骨格要素を抽出し、骨シンチグラムを健康骨格要素の平均カウント値で正規化することにより、ホットスポットの影響を受けずに複数の骨シンチグラムの濃度を揃えることができる。   The hot spot detection unit 120 extracts a healthy skeletal element from which a hot spot is removed from a skeletal part, and normalizes the bone scintigram with an average count value of the healthy skeletal element, thereby not affecting the hot spot. The bone scintigram concentration can be made uniform.

正規化部30は、予め設定された閾値を用いて、第1判定部140の出力であるホットスポットの転移確率を判定し、ホットスポットを高リスク部位と低リスク部位に分類し、分類結果を特徴データに含めてもよい。正規化部30は、全ての骨格部位の面積に対する高リスク部位の面積の割合であるBSI(bone scan index)を計算し、計算結果を特徴データに含めてもよい。また、正規化部30は、高リスク部位数を計算し、計算結果を特徴データに含めてもよい。   The normalization unit 30 determines the transfer probability of the hot spot, which is the output of the first determination unit 140, using a preset threshold value, classifies the hot spot into a high risk part and a low risk part, and determines the classification result. It may be included in the feature data. The normalization unit 30 may calculate a BSI (bone scan index) that is a ratio of the area of the high-risk part to the area of all the skeletal parts, and include the calculation result in the feature data. In addition, the normalization unit 30 may calculate the number of high-risk parts and include the calculation result in the feature data.

なお、正規化部30は、他の正規化方法を用いて正規化画像を生成しても良い。   The normalizing unit 30 may generate a normalized image using another normalization method.

以下、調整部40について説明する。   Hereinafter, the adjustment unit 40 will be described.

撮像画像内の患者の領域のサイズは、撮像する検出器(ガンマカメラ)および収集条件によって異なる。撮像画像内の各ピクセルにより表される領域の実サイズであるピクセルサイズは、(基準視野/マトリクスサイズ/拡大率)で表される。基準視野は、検出器の視野の正方形の一辺の長さである。マトリクスサイズは、撮像画像を構成するマトリクスのうち基準視野の一辺に対応するピクセル数である。骨シンチグラムにおける拡大率は通常1である。撮像条件データは、ピクセルサイズ、基準視野及びマトリクスサイズを含む。複数の骨シンチグラムの撮像において、検出器(ガンマカメラ)および収集条件の違いによる患者領域のサイズが互いに異なることにより、読影者は表示される複数の骨シンチグラムの間で部位の実サイズを比較することが困難になる。   The size of the region of the patient in the captured image varies depending on the detector (gamma camera) to be imaged and the acquisition conditions. The pixel size that is the actual size of the region represented by each pixel in the captured image is represented by (reference field of view / matrix size / magnification ratio). The reference field is the length of one side of the detector field square. The matrix size is the number of pixels corresponding to one side of the reference visual field in the matrix constituting the captured image. The magnification in bone scintigram is usually 1. The imaging condition data includes a pixel size, a reference visual field, and a matrix size. When imaging multiple bone scintigrams, the size of the patient area differs depending on the detector (gamma camera) and acquisition conditions, allowing the reader to determine the actual size of the region between the multiple bone scintigrams displayed. It becomes difficult to compare.

調整部40は、正規化画像記憶部35から正規化画像とそれに対応する撮像条件データとを読み出す。その後、調整部40は、正規化画像に対応する撮像条件データに基づいて、正規化画像が特定の基準視野になるように、例えばピクセルサイズの拡大又は縮小およびマトリクスサイズの変更を行うことにより、調整画像を生成し、調整画像を調整画像記憶部45へ保存する。これにより、調整画像の基準視野は一定になる。   The adjustment unit 40 reads the normalized image and the imaging condition data corresponding to the normalized image from the normalized image storage unit 35. Thereafter, the adjustment unit 40 performs, for example, enlargement or reduction of the pixel size and change of the matrix size so that the normalized image becomes a specific reference visual field based on the imaging condition data corresponding to the normalized image. An adjusted image is generated, and the adjusted image is stored in the adjusted image storage unit 45. Thereby, the reference visual field of the adjusted image becomes constant.

調整部40は、調整画像に対応する撮像条件データを修正画像記憶部25から読み出し、調整画像に関連付けて調整画像記憶部45へ保存する。   The adjustment unit 40 reads out the imaging condition data corresponding to the adjustment image from the corrected image storage unit 25 and stores it in the adjustment image storage unit 45 in association with the adjustment image.

特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最新の基準視野であっても良い。また、特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最も多い基準視野であっても良い。また、特定の基準視野は、予め設定された基準視野であっても良い。   The specific reference field may be the latest reference field among the reference fields of a plurality of bone scintigrams. The specific reference visual field may be the largest reference visual field among the reference visual fields of a plurality of bone scintigrams. Further, the specific reference visual field may be a preset reference visual field.

調整部40によれば、複数の骨シンチグラムの基準視野が一定になることにより、読影者は表示される複数の骨シンチグラム内の領域の実サイズを比較することができる。   According to the adjustment unit 40, the reference field of view of the plurality of bone scintigrams becomes constant, so that the image interpreter can compare the actual sizes of the regions in the plurality of displayed bone scintigrams.

以下、変換部50について説明する。   Hereinafter, the conversion unit 50 will be described.

前述の正規化方法によれば、正規化カウント値を濃度として調整画像を表示することにより、正常骨領域のピクセルの濃度の範囲は揃えられる。但し、調整画像をそのまま表示しても、読影者による正常骨領域及びホットスポットの認識に適した濃度のスケールであるとは限らない。例えば、最大濃度に対応する正規化カウント値が高すぎると、正常骨領域のほとんどが白く表示され、読影者が表示された骨シンチグラム内の正常骨領域を認識できない場合がある。   According to the normalization method described above, by displaying the adjusted image using the normalized count value as the density, the density ranges of the pixels in the normal bone region are made uniform. However, even if the adjustment image is displayed as it is, it is not necessarily a density scale suitable for recognition of a normal bone region and a hot spot by an image interpreter. For example, if the normalized count value corresponding to the maximum density is too high, most of the normal bone region is displayed in white, and the image interpreter may not be able to recognize the normal bone region in the displayed bone scintigram.

そこで、変換部50は、調整画像を表示する際、調整画像の正規化カウント値を適切なグレースケールの濃度に変換する。   Therefore, when displaying the adjusted image, the conversion unit 50 converts the normalized count value of the adjusted image into an appropriate gray scale density.

変換部50は、特定の飽和基準値がグレースケールの最大濃度に変換されるように、スケールレンジを決定する。飽和基準値は、特定の最大基準値に所定のレンジ係数を乗算した値である。最大基準値は例えば、前述の撮像画像データベースにおける骨シンチグラムを前述の正規化方法により正規化して得られる正規化カウント値に基づいて決定される。最大基準値は例えば、撮像画像データベースにおける最大の正規化カウント値と同じか大きい。レンジ係数は、0より大きく1より小さい。より好適な飽和基準値は、1000より大きく、撮像画像データベースにおける最大の正規化カウント値より小さい。   The conversion unit 50 determines the scale range so that the specific saturation reference value is converted to the maximum gray scale density. The saturation reference value is a value obtained by multiplying a specific maximum reference value by a predetermined range coefficient. For example, the maximum reference value is determined based on a normalized count value obtained by normalizing a bone scintigram in the above-described captured image database by the above-described normalization method. The maximum reference value is, for example, the same or larger than the maximum normalized count value in the captured image database. The range coefficient is greater than 0 and less than 1. A more preferable saturation reference value is larger than 1000 and smaller than the maximum normalized count value in the captured image database.

図13は、スケールレンジを示す図である。この図において、横軸は調整画像のピクセルの正規化カウント値を示し、縦軸は調整画像のピクセルの濃度を示す。これにより、正規化カウント値がゼロであるピクセルの濃度は、ゼロの濃度で表示される。正規化カウント値が飽和基準値以上であるピクセルは、最大濃度で表示される。正規化カウント値がゼロより大きく飽和基準値より小さいピクセルは、その正規化カウント値に応じた階調、例えば直線階調またはログ階調等の曲線階調により表示される。   FIG. 13 is a diagram illustrating the scale range. In this figure, the horizontal axis indicates the normalized count value of the pixel of the adjusted image, and the vertical axis indicates the density of the pixel of the adjusted image. Thereby, the density of the pixel whose normalized count value is zero is displayed as zero density. Pixels whose normalized count value is greater than or equal to the saturation reference value are displayed at the maximum density. Pixels having a normalized count value greater than zero and less than the saturation reference value are displayed with a gradation corresponding to the normalized count value, for example, a curve gradation such as a linear gradation or a log gradation.

変換部50によれば、調整画像の正規化カウント値を適切なグレースケールの濃度に変換することにより、読影者は表示された骨シンチグラム内の正常骨領域及びホットスポットを容易に認識することができる。なお、変換部50は、読影者による入力装置4の操作に基づいて、レンジ係数又は飽和基準値を調整しても良い。   According to the conversion unit 50, by interpreting the normalized count value of the adjusted image into an appropriate gray scale density, the image interpreter can easily recognize the normal bone region and the hot spot in the displayed bone scintigram. Can do. Note that the conversion unit 50 may adjust the range coefficient or the saturation reference value based on the operation of the input device 4 by the interpreter.

以下、生成部80について説明する。   Hereinafter, the generation unit 80 will be described.

生成部80は、読影者による入力装置4の操作に基づいて、表示の対象となる患者と複数の検査日を特定する。調整画像記憶部45内の複数の調整画像から、特定された患者と検査日に対応する調整画像を選択する。生成部80は、表示装置5に表示するための表示画面を生成し、選択された調整画像を時系列に従って表示画面内に配置する。   The generation unit 80 identifies a patient to be displayed and a plurality of examination dates based on the operation of the input device 4 by a radiogram interpreter. The adjustment image corresponding to the specified patient and the examination date is selected from the plurality of adjustment images in the adjustment image storage unit 45. The production | generation part 80 produces | generates the display screen for displaying on the display apparatus 5, and arrange | positions the selected adjustment image in a display screen according to a time series.

図14は、第1の表示態様を示す画面である。第1の表示態様による表示画面は、前面像を配置するための領域である前面像領域8100と、後面像を配置するための後面像領域8200とを有する。この例では、3個の調整画像セットが選択されたとする。生成部80は、選択された複数の調整画像セット内の複数の前面像8511、8521、8531を、前面像領域8100内の水平方向に検査日時順に並べ、選択された調整画像セット内の複数の後面像8512、8522、8532を、後面像領域8200内の水平方向に検査日時順に並べる。即ち、より新しい前面像は、前面像領域8100内のより右へ配置され、即ち、より新しい後面像は、後面像領域8200内のより右へ配置される。この時、生成部80は、並べられた複数の前面像8511、8521、8531の水平方向の中心を前面像領域8100内の水平方向の中心8101に合わせ、並べられた複数の後面像8512、8522、8532の水平方向の中心を後面像領域8200内の水平方向の中心8201に合わせる。前面像領域8100と後面像領域8200は、左右に配置されても良いし、上下に配置されても良い。生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。   FIG. 14 is a screen showing the first display mode. The display screen according to the first display mode includes a front image area 8100 that is an area for arranging a front image, and a rear image area 8200 for arranging a rear image. In this example, it is assumed that three adjustment image sets are selected. The generation unit 80 arranges the plurality of front images 8511, 8521, and 8531 in the selected plurality of adjustment image sets in the horizontal direction in the front image region 8100 in the order of the inspection date and time, and sets the plurality of images in the selected adjustment image set. The rear images 8512, 8522, and 8532 are arranged in the horizontal direction in the rear image area 8200 in the order of the inspection date. That is, the newer front image is placed more to the right in the front image area 8100, that is, the newer rear image is placed to the right in the rear image area 8200. At this time, the generation unit 80 aligns the horizontal center of the plurality of front images 8511, 8521, and 8531 aligned with the horizontal center 8101 in the front image region 8100, and arranges a plurality of rear images 8512, 8522 arranged. , 8532 in the horizontal direction is aligned with the horizontal center 8201 in the rear image area 8200. The front image area 8100 and the rear image area 8200 may be arranged on the left and right, or may be arranged on the top and bottom. The generation unit 80 may attach an examination date to each of the front image and the rear image in the display screen based on the imaging condition data associated with the adjustment image set. Further, the generation unit 80 generates a hot spot transfer determination result, a patient transfer determination result, a BSI, a high risk for each of the front image and the rear image in the display screen based on the feature data associated with the adjustment image set. You may attach | subject the number of parts.

第1の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の夫々について、時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。   According to the first display mode, the image reader can easily change the displayed bone scintigram over time by arranging each of the front image and the rear image in which the influence due to the difference in imaging conditions is reduced in time series. Can grasp.

図15は、第2の表示態様を示す画面である。第2の表示態様による表示画面は、前面像と後面像のペアである調整画像セットを配置するための領域であるペア領域8300を有する。生成部80は、選択された調整画像セット8610、8620、8630を、領域8300内の水平方向に検査日時順に並べる。即ち、より新しい調整画像セットは、ペア領域8300内のより右へ配置される。この時、生成部80は、並べられた複数の調整画像セット8610、8620、8630の水平方向の中心をペア領域8300内の水平方向の中心8301に合わせる。ここで、調整画像セット8610は、前面像8511と後面像8512を有し、調整画像セット8620は、前面像8521と後面像8522を有し、調整画像セット8630は、前面像8531と後面像8532を有する。生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。   FIG. 15 is a screen showing the second display mode. The display screen according to the second display mode includes a pair area 8300 that is an area for arranging an adjustment image set that is a pair of a front image and a rear image. The generation unit 80 arranges the selected adjustment image sets 8610, 8620, 8630 in the horizontal direction in the area 8300 in the order of examination date and time. That is, the newer adjusted image set is arranged more right in the pair area 8300. At this time, the generation unit 80 matches the horizontal center of the plurality of adjusted image sets 8610, 8620, and 8630 arranged with the horizontal center 8301 in the pair region 8300. Here, the adjustment image set 8610 includes a front image 8511 and a rear image 8512, the adjustment image set 8620 includes a front image 8521 and a rear image 8522, and the adjustment image set 8630 includes a front image 8531 and a rear image 8532. Have The generation unit 80 may assign an examination date to each of the adjustment image sets in the display screen based on the imaging condition data associated with the adjustment image set. Further, the generation unit 80 generates a hot spot metastasis determination result, a patient metastasis determination result, a BSI, and the number of high risk sites for each of the adjustment image sets in the display screen based on the feature data associated with the adjustment image set. Etc. may be attached.

生成部80は、図14または図15の表示画面において、ホットスポットの転移判定及び患者の転移判定について、再判定要求を受け付けられるようにしてもよい。例えば、生成部80は、再判定要求の受付手段として、表示画面内に所定のボタンを表示させてもよい。例えば、読影者の入力装置4の操作に応じて、表示画面が再判定要求を受け付けると、正規化部30がホットスポットの転移判定及び/または患者の転移判定を改めて実行するようにしてもよい。   The generation unit 80 may be configured to accept a re-determination request for determination of hot spot metastasis and patient metastasis on the display screen of FIG. 14 or FIG. 15. For example, the generation unit 80 may display a predetermined button on the display screen as a redetermination request accepting unit. For example, when the display screen accepts a redetermination request in response to the operation of the input device 4 of the radiogram interpreter, the normalization unit 30 may execute the hot spot transfer determination and / or the patient transfer determination again. .

例えば、ホットスポットの転移確率または患者の転移確率が中間的な値(例えば0.4〜0.6の範囲)であるときは、転移であるか否かの診断を支援する情報として有効とは言えない。このような場合に、被験者についての新たな特徴量を追加データとして受け付けて、再判定を行うようにしてもよい。これは、第1判定部140及び第2判定部160が単一の判別機Cで構成されている場合、及び複数の判別機Cを含む場合のいずれでも共通である。好適には、新たな特徴量として検査データを用いてもよい。ホットスポットの転移判定及び/または患者の転移判定において、骨シンチグラム以外の検査データが転移判定の結果に大きく影響を及ぼすことがあるからである。
なお、再判定を行う場合、再判定前後のホットスポットの転移確率及び/または患者の転移確率を表示画面内に表示するようにしてもよい。再判定前後でホットスポットの転移確率または患者の転移確率が上昇したのか、または下降したのかは診断の支援において重要な情報となり得るからである。例えば、再判定後のホットスポットの転移確率または患者の転移確率が同じ0.5であったときでも、再判定前の転移確率から上昇して0.5となった場合と、下降して0.5となった場合とでは、意味が異なる。そのため、読影者が再判定後の転移確率のみを見て安易に判断してしまうことを避けることができる。
For example, when the metastasis probability of a hot spot or the metastasis probability of a patient is an intermediate value (for example, in the range of 0.4 to 0.6), it is useful as information that supports diagnosis of whether or not it is metastasis. I can not say. In such a case, a new feature amount for the subject may be accepted as additional data and re-determination may be performed. This is common in both cases where the first determination unit 140 and the second determination unit 160 are configured by a single discriminator C and when a plurality of discriminators C are included. Preferably, inspection data may be used as a new feature amount. This is because examination data other than bone scintigrams may greatly affect the results of metastasis determination in determining metastasis of hot spots and / or metastasis of patients.
When redetermining, the hot spot metastasis probability and / or patient metastasis probability before and after the redetermination may be displayed in the display screen. This is because whether the hot spot metastasis probability or the patient metastasis probability has increased or decreased before and after the re-determination can be important information in support of diagnosis. For example, even when the metastasis probability of a hot spot after re-determination or the metastasis probability of a patient is the same 0.5, when the metastasis probability before re-determination increases to 0.5, it decreases to 0 The meaning is different from the case of .5. Therefore, it can be avoided that the radiogram reader easily makes a judgment by looking only at the transfer probability after the re-determination.

一方、第1判定部140が複数の判別機Cを含む場合は、生成部80は、さらに、特徴データにおいて、ホットスポットの転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。同様に、第2判定部160が複数の判別機Cを含む場合は、生成部80は、患者の転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。   On the other hand, when the first determination unit 140 includes a plurality of discriminators C, the generation unit 80 further displays the output value of the individual discriminator C associated with the hot spot transfer determination result in the feature data. It may be displayed in the screen. Similarly, when the second determination unit 160 includes a plurality of discriminators C, the generation unit 80 displays the output value of the individual discriminator C associated with the patient metastasis determination result on the display screen. Also good.

このとき、個別の判別機Cの出力値はそれぞれの判定結果の信頼度を示すと考えられる。つまり、ホットスポットの転移確率または患者の転移確率が中間的な値ではなく、例えば0.2以下または0.8以上であったときでも、個別の判別機Cの出力値が異なれば、その確率の信頼度が異なることがある。例えば、患者の転移確率が同じ「0.8」であったときでも、3つの判別機Cの出力が、「1.0」、「0.7」、「0.4」である場合と、「0.8」、「0.8」、「0.8」である場合とでは、転移確率「0.8」の信頼度が異なると考えられる。そのため、読影者が転移確率と判別機Cの出力とを併せて見たときに必要と考えたときは、再判定要求の指示を受け付けられるようになっている。   At this time, the output value of the individual discriminator C is considered to indicate the reliability of each determination result. In other words, even if the transfer probability of the hot spot or the transfer probability of the patient is not an intermediate value, for example, when the output value of the individual discriminator C is different even when it is 0.2 or less or 0.8 or more, the probability The reliability of may vary. For example, even when the patient's metastasis probability is the same “0.8”, the outputs of the three discriminators C are “1.0”, “0.7”, “0.4”, and It is considered that the reliability of the transfer probability “0.8” is different from the cases of “0.8”, “0.8”, and “0.8”. For this reason, when it is considered necessary when the image interpreter sees the transfer probability and the output of the discriminator C together, an instruction for a redetermination request can be accepted.

個別の判別機Cの出力値から算出した信頼度を表示してもよい。例えば、上記の例であれば、3つの判別機Cの出力値のバラツキによって、信頼度を定めてもよい。   The reliability calculated from the output value of the individual discriminator C may be displayed. For example, in the above example, the reliability may be determined by variations in the output values of the three discriminators C.

さらに、生成部80は、第1判定部140及び第2判定部160を構成する判別機Cが単一であるか複数であるかにかかわらず、信頼度を別の方法で表示することもできる。第1判定部140の出力または第2判定部160の出力である、被験者が所定の状態であるか否かの確率は、その出力値がそのまま信頼度と関連する。特にホットスポットの転移確率または患者の転移確率が中間的な値であるときは信頼度が低いと考えられ、転移判定の結果とともに信頼度が低いことを示す表示をしてもよい。信頼度の表示は例えば、低信頼度、中信頼度、高信頼度のような複数の階級にわけ、その一つの階級を表示してもよい。階級は判別機Cまたは判断機Dの0〜1の出力値に応じて所定の閾値で任意にわけることができ、検査の目的などによってあらかじめ設定しておいてもよい。   Furthermore, the generation unit 80 can display the reliability by another method regardless of whether the first determination unit 140 and the second determination unit 160 are single or plural. . The output value of the first determination unit 140 or the output of the second determination unit 160, which is the probability of whether or not the subject is in a predetermined state, is directly related to the reliability. In particular, when the metastasis probability of the hot spot or the metastasis probability of the patient is an intermediate value, the reliability is considered to be low, and a display indicating that the reliability is low may be displayed together with the result of the metastasis determination. For example, the reliability display may be divided into a plurality of classes such as low reliability, medium reliability, and high reliability, and one of the classes may be displayed. The class can be arbitrarily divided by a predetermined threshold according to the output values of 0 to 1 of the discriminator C or the discriminator D, and may be set in advance according to the purpose of inspection.

また、生成部80は、被験者の第1判定部140への入力であるホットスポット特徴セットデータ及び第2判定部160への入力である患者特徴セットデータに基づいて、信頼度を表示することもできる。例えば、第1判定部140に入力するホットスポット特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲はあらかじめ得ることができる。また、第2判定部160に入力する患者特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲もあらかじめ得ることができる。つまり、入力する被験者の特徴があらかじめ定めた特徴の範囲内であれば、この特徴に基づいて算出される判定結果は所定以上の精度を有すると考えられ、これを信頼度として用いることができる。例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴が、それぞれあらかじめ定めた特徴の範囲内であった数に応じて信頼度を表示してもよい。この例では、その数が多いほど信頼度が高く少ないほど信頼度が低い。また、例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴のうち、特定の特徴があらかじめ定めた特徴の範囲内であるか否かに応じて信頼度を表示してもよい。この例では、特定の特徴があらかじめ定めた特徴の範囲内であれば信頼度は高く、あらかじめ定めた特徴の範囲内でなければ信頼度は低い。ここで、特定の特徴は判定結果へ及ぼす寄与の大きい変動要因であり、判定結果において特定の特徴があらかじめ定めた特徴の範囲内であるか否かが強く関連している。   The generation unit 80 may also display the reliability based on the hot spot feature set data that is an input to the first determination unit 140 of the subject and the patient feature set data that is an input to the second determination unit 160. it can. For example, in one feature of the hot spot feature set data input to the first determination unit 140, a feature range for outputting a determination result with a predetermined accuracy or higher can be obtained in advance. In addition, in one feature of the patient feature set data input to the second determination unit 160, a feature range for outputting a determination result with a predetermined accuracy or higher can be obtained in advance. That is, if the characteristics of the subject to be input are within a predetermined characteristic range, the determination result calculated based on this characteristic is considered to have a predetermined accuracy or higher, and this can be used as the reliability. For example, the reliability may be displayed according to the number of each feature in the input hot spot feature set data or patient feature set data of the subject to be input within a predetermined feature range. In this example, the greater the number, the higher the reliability and the lower the reliability. Further, for example, the reliability may be displayed depending on whether or not a particular feature is within a predetermined feature range among the features in the input subject's hot spot feature set data or patient feature set data. Good. In this example, if the specific feature is within the predetermined feature range, the reliability is high, and if the specific feature is not within the predetermined feature range, the reliability is low. Here, the specific feature is a variation factor having a large contribution to the determination result, and whether or not the specific feature is within the range of the predetermined feature in the determination result is strongly related.

第2の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の複数のペアを時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。   According to the second display mode, by arranging a plurality of pairs of the front image and the rear image in which the influence due to the difference in the photographing conditions is reduced according to the time series, the image reader can change the displayed bone scintigram over time. It can be easily grasped.

生成部80は、読影者による入力装置4の操作に応じて、第1及び第2の表示態様の何れかを選択しても良い。   The generation unit 80 may select one of the first and second display modes according to the operation of the input device 4 by the image interpreter.

生成部80は、特徴データに示されている骨格部位の輪郭を、調整画像に重ねても良い。また、生成部80は、調整画像内の低リスク部位及び高リスク部位に夫々異なる色を付けても良い。   The generation unit 80 may superimpose the outline of the skeletal part indicated in the feature data on the adjustment image. Further, the generation unit 80 may add different colors to the low risk part and the high risk part in the adjusted image.

生成部80は、表示画面内の各調整画像に転移可能性、BSI、高リスク部位数等の特徴データを付すことにより、読影者は、特徴データの経時変化を知ることができる。   The generation unit 80 attaches feature data such as the possibility of transfer, BSI, and the number of high-risk parts to each adjustment image in the display screen, so that the radiogram interpreter can know the temporal change of the feature data.

画像処理装置1は、調整画像を解析する解析部を有していても良い。この場合、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定の骨格部位を比較しても良い。また、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定のホットスポットの時系列を関連付けても良い。解析部が撮影条件の違いによる影響が低減された複数の調整画像を解析することにより、複数の撮像画像を解析する場合に比べて、解析の精度を向上させることができる。   The image processing apparatus 1 may include an analysis unit that analyzes the adjusted image. In this case, the analysis unit may compare specific skeleton parts in the adjusted images obtained by the plurality of examinations using the feature data in the feature data storage unit 36. Further, the analysis unit may use the feature data in the feature data storage unit 36 to associate time series of specific hot spots in the adjusted images obtained by a plurality of examinations. By analyzing the plurality of adjusted images in which the influence due to the difference in the imaging conditions is reduced by the analysis unit, it is possible to improve the accuracy of the analysis as compared with the case of analyzing the plurality of captured images.

画像処理装置1は、前述の撮像画像データベースを有していても良い。また、画像処理装置1は、撮像画像記憶部10に格納されている撮像画像のうち、所定条件を満たす撮像画像を撮像画像データベースへ登録しても良い。   The image processing apparatus 1 may have the above-described captured image database. The image processing apparatus 1 may register a captured image satisfying a predetermined condition among the captured images stored in the captured image storage unit 10 in the captured image database.

上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。例えば、上述の実施形態では骨シンチグラムを対象としているが、これ以外にもCT、MRI、SPECT、PET、X線(レントゲン)などの画像を対象としても良い。   The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention. For example, in the above-described embodiment, the target is a bone scintigram, but other images such as CT, MRI, SPECT, PET, and X-rays (X-rays) may be used.

1 :画像処理装置
4 :入力装置
5 :表示装置
10 :画像処理装置本体
15 :撮像画像記憶部
17 :検査データ記憶部
20 :修正部
25 :修正画像記憶部
30 :正規化部
35 :正規化画像記憶部
36 :特徴データ記憶部
40 :調整部
45 :調整画像記憶部
50 :変換部
60 :表示制御部
70 :記憶部
80 :生成部
1: Image processing device 4: Input device 5: Display device 10: Image processing device body 15: Captured image storage unit 17: Inspection data storage unit 20: Correction unit 25: Correction image storage unit 30: Normalization unit 35: Normalization Image storage unit 36: Feature data storage unit 40: Adjustment unit 45: Adjustment image storage unit 50: Conversion unit 60: Display control unit 70: Storage unit 80: Generation unit

Claims (13)

被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現するコンピュータプログラム。
A computer program for a diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A second discriminator including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set; The second discriminator for outputting the discrimination result of 2;
A computer program for realizing, in the diagnosis support apparatus, a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現するコンピュータプログラム。
A computer program for a diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A first algorithm including a learned algorithm obtained by learning a second machine learning algorithm different from the first machine learning algorithm from the first data set or a second data set different from the first data set; A second discriminator that receives the input of the subject data and outputs a second discrimination result;
A computer program for realizing, in the diagnosis support apparatus, a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、請求項1または2に記載のコンピュータプログラム。
The first and second discrimination results are probabilities as to whether or not the subject is in a predetermined state,
The diagnosis support information is information for supporting diagnosis, which is a probability of whether or not the subject is in the predetermined state or whether or not the subject is in the predetermined state. Computer program.
前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであり、
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、請求項1または2に記載のコンピュータプログラム。
The first and second determination results are whether or not the subject is in a predetermined state,
The computer program according to claim 1, wherein the diagnosis support information is information that supports diagnosis of whether or not the subject is in the predetermined state.
前記診断支援情報と、前記第1及び第2の判別結果を表示装置に表示させる手段を、さらに前記診断支援装置に実現させる請求項1〜4のいずれかに記載のコンピュータプログラム。   The computer program according to claim 1, further causing the diagnosis support apparatus to realize means for causing the display apparatus to display the diagnosis support information and the first and second determination results. 前記診断支援情報と、前記診断支援情報の信頼度を表示装置に表示させる手段を、さらに前記診断支援装置に実現させる請求項1〜4のいずれかに記載のコンピュータプログラム。   The computer program according to any one of claims 1 to 4, further causing the diagnosis support apparatus to realize means for displaying the diagnosis support information and a reliability of the diagnosis support information on a display device. 前記第1の機械学習アルゴリズムは、人工ニューラルネットワークである、請求項1〜6のいずれかに記載のコンピュータプログラム。   The computer program according to claim 1, wherein the first machine learning algorithm is an artificial neural network. 前記被験者データは、骨シンチグラムから得られたデータである、請求項1〜7のいずれかに記載のコンピュータプログラム。   The computer program according to claim 1, wherein the subject data is data obtained from a bone scintigram. 再判定要求を受け付ける受付手段を、さらに前記診断支援装置に実現させ、
前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が新たな診断支援情報を出力する、請求項1〜8のいずれかに記載のコンピュータプログラム。
The diagnostic support apparatus further realizes an accepting means for accepting a re-determination request,
When the accepting unit accepts the re-determination request, the first discriminator and the second discriminator are updated based on the subject data and the feature data indicating the subject characteristics. The computer program according to claim 1, wherein the determination result is output, and the determination device outputs new diagnosis support information.
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置であって、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備える診断支援装置。
A diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A second discriminator including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set; The second discriminator for outputting the discrimination result of 2;
A diagnosis support apparatus comprising: a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置であって、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備える診断支援装置。
A diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A first algorithm including a learned algorithm obtained by learning a second machine learning algorithm different from the first machine learning algorithm from the first data set or a second data set different from the first data set; A second discriminator that receives the input of the subject data and outputs a second discrimination result;
A diagnosis support apparatus comprising: a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置が行う方法であって、
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する方法。
A method performed by a diagnosis support apparatus that accepts subject data that is data related to a subject and supports diagnosis of the subject,
The diagnosis support apparatus includes:
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set;
A second discriminator including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set;
A determination device that performs a determination according to the output of the first determination device and the output of the second determination device;
The first discriminator accepts input of the subject data and outputs a first discrimination result;
The second discriminator receives the input of the subject data and outputs a second discrimination result;
A method in which the determination device outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result.
被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置が行う方法であって、
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する方法。

A method performed by a diagnosis support apparatus that accepts subject data that is data related to a subject and supports diagnosis of the subject,
The diagnosis support apparatus includes:
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set;
A first algorithm including a learned algorithm obtained by learning a second machine learning algorithm different from the first machine learning algorithm from the first data set or a second data set different from the first data set; 2 discriminators,
A determination device that performs a determination according to the output of the first determination device and the output of the second determination device;
The first discriminator accepts input of the subject data and outputs a first discrimination result;
The second discriminator receives the input of the subject data and outputs a second discrimination result;
A method in which the determination device outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result.

JP2015189885A 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program Active JP6545591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015189885A JP6545591B2 (en) 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189885A JP6545591B2 (en) 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program

Publications (2)

Publication Number Publication Date
JP2017067489A true JP2017067489A (en) 2017-04-06
JP6545591B2 JP6545591B2 (en) 2019-07-17

Family

ID=58492227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189885A Active JP6545591B2 (en) 2015-09-28 2015-09-28 Diagnosis support apparatus, method and computer program

Country Status (1)

Country Link
JP (1) JP6545591B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053022A (en) * 2018-02-05 2019-04-04 日本メジフィジックス株式会社 Image processing program, image processing device and image processing method
WO2019088121A1 (en) 2017-10-30 2019-05-09 公益財団法人がん研究会 Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
WO2019146358A1 (en) * 2018-01-24 2019-08-01 富士フイルム株式会社 Learning system, method, and program
WO2019245009A1 (en) 2018-06-22 2019-12-26 株式会社Aiメディカルサービス Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon
WO2020105699A1 (en) 2018-11-21 2020-05-28 株式会社Aiメディカルサービス Disease diagnostic assistance method based on digestive organ endoscopic images, diagnostic assistance system, diagnostic assistance program, and computer-readable recording medium having diagnostic assistance program stored thereon
JP2022516316A (en) * 2019-01-07 2022-02-25 エクシーニ ディアグノスティクス アーべー Systems and methods for platform-independent whole-body image segmentation
US11270433B2 (en) 2017-06-09 2022-03-08 Ai Medical Service Inc. Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein
US20230420112A1 (en) * 2020-07-06 2023-12-28 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
US11894141B2 (en) 2016-10-27 2024-02-06 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11937962B2 (en) 2019-04-24 2024-03-26 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187993A (en) * 2009-02-19 2010-09-02 Denso Corp Blood pressure measuring device and program as well as recording medium
US20130094704A1 (en) * 2007-12-28 2013-04-18 Exini Diagnostics Ab System for detecting bone cancer metastases
JP2015513724A (en) * 2012-02-17 2015-05-14 コーニンクレッカ フィリップス エヌ ヴェ Acute lung injury (ALI) / Acute respiratory distress syndrome (ARDS) assessment and monitoring

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130094704A1 (en) * 2007-12-28 2013-04-18 Exini Diagnostics Ab System for detecting bone cancer metastases
JP2010187993A (en) * 2009-02-19 2010-09-02 Denso Corp Blood pressure measuring device and program as well as recording medium
JP2015513724A (en) * 2012-02-17 2015-05-14 コーニンクレッカ フィリップス エヌ ヴェ Acute lung injury (ALI) / Acute respiratory distress syndrome (ARDS) assessment and monitoring

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12224067B1 (en) 2016-10-27 2025-02-11 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
US11894141B2 (en) 2016-10-27 2024-02-06 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
US11270433B2 (en) 2017-06-09 2022-03-08 Ai Medical Service Inc. Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein
WO2019088121A1 (en) 2017-10-30 2019-05-09 公益財団法人がん研究会 Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
US11633084B2 (en) 2017-10-30 2023-04-25 Japanese Foundation For Cancer Research Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
KR20200106028A (en) 2017-10-30 2020-09-10 고에키자이단호진 간겐큐카이 Image diagnosis support device, data collection method, image diagnosis support method, and image diagnosis support program
JP7170000B2 (en) 2018-01-24 2022-11-11 富士フイルム株式会社 LEARNING SYSTEMS, METHODS AND PROGRAMS
JPWO2019146358A1 (en) * 2018-01-24 2021-01-14 富士フイルム株式会社 Learning systems, methods and programs
US11669960B2 (en) 2018-01-24 2023-06-06 Fujifilm Corporation Learning system, method, and program
WO2019146358A1 (en) * 2018-01-24 2019-08-01 富士フイルム株式会社 Learning system, method, and program
JP7154012B2 (en) 2018-02-05 2022-10-17 日本メジフィジックス株式会社 Image processing program, image processing apparatus, and image processing method
JP2019053022A (en) * 2018-02-05 2019-04-04 日本メジフィジックス株式会社 Image processing program, image processing device and image processing method
WO2019245009A1 (en) 2018-06-22 2019-12-26 株式会社Aiメディカルサービス Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon
WO2020105699A1 (en) 2018-11-21 2020-05-28 株式会社Aiメディカルサービス Disease diagnostic assistance method based on digestive organ endoscopic images, diagnostic assistance system, diagnostic assistance program, and computer-readable recording medium having diagnostic assistance program stored thereon
US11941817B2 (en) 2019-01-07 2024-03-26 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
JP2022516316A (en) * 2019-01-07 2022-02-25 エクシーニ ディアグノスティクス アーべー Systems and methods for platform-independent whole-body image segmentation
JP7568628B2 (en) 2019-01-07 2024-10-16 エクシーニ ディアグノスティクス アーべー System and method for platform independent whole body image segmentation - Patents.com
US12243236B1 (en) 2019-01-07 2025-03-04 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
US11937962B2 (en) 2019-04-24 2024-03-26 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US20230420112A1 (en) * 2020-07-06 2023-12-28 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
US12243637B2 (en) * 2020-07-06 2025-03-04 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions

Also Published As

Publication number Publication date
JP6545591B2 (en) 2019-07-17

Similar Documents

Publication Publication Date Title
JP6545591B2 (en) Diagnosis support apparatus, method and computer program
JP6013042B2 (en) Image processing program, recording medium, image processing apparatus, and image processing method
JP6170284B2 (en) Image processing program, recording medium, image processing apparatus, and image processing method
US7599539B2 (en) Anatomic orientation in medical images
USRE47609E1 (en) System for detecting bone cancer metastases
US6625303B1 (en) Method for automatically locating an image pattern in digital images using eigenvector analysis
US9763635B2 (en) Method, apparatus and system for identifying a specific part of a spine in an image
US8170306B2 (en) Automatic partitioning and recognition of human body regions from an arbitrary scan coverage image
JP2017198697A (en) Image processing program, recording medium, image processing device, and image processing method
US8139837B2 (en) Bone number determination apparatus and recording medium having stored therein program
US9241634B2 (en) Analytic morphomics: high speed medical image automated analysis method
KR102163701B1 (en) Apparatus and method for classifying spine
CN112001889A (en) Medical image processing method, device and medical image display method
US9763636B2 (en) Method and system for spine position detection
JP2009207727A (en) Vertebral body position determining device, method, and program
US10307124B2 (en) Image display device, method, and program for determining common regions in images
Al-Helo et al. Segmentation of lumbar vertebrae from clinical CT using active shape models and GVF-snake
KR102218900B1 (en) Apparatus and method for diagnosing disease
US10061979B2 (en) Image processing apparatus and method
EP2890299B1 (en) Analytic morphomics: high speed medical image automated analysis method
Mouton et al. Computer-aided detection of pulmonary pathology in pediatric chest radiographs
KR102196503B1 (en) Apparatus and method for detecting the spine
CN119672374B (en) Intelligent analysis method and system for composition structure of sacral nerve
Desai et al. Arytenoid cartilage feature point detection using laryngeal 3D CT images in Parkinson's disease
Maity et al. Feature extraction of bone scintigraphy for diagnosis of diseases

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190619

R150 Certificate of patent or registration of utility model

Ref document number: 6545591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250