JP2017067489A - Diagnosis support apparatus, method, and computer program - Google Patents
Diagnosis support apparatus, method, and computer program Download PDFInfo
- Publication number
- JP2017067489A JP2017067489A JP2015189885A JP2015189885A JP2017067489A JP 2017067489 A JP2017067489 A JP 2017067489A JP 2015189885 A JP2015189885 A JP 2015189885A JP 2015189885 A JP2015189885 A JP 2015189885A JP 2017067489 A JP2017067489 A JP 2017067489A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- data
- discriminator
- image
- diagnosis support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Nuclear Medicine (AREA)
Abstract
【課題】機械学習アルゴリズムを用いた診断支援の精度を向上させる。
【解決手段】被験者に関するデータである被験者データに基づいて診断支援を行う診断支援装置は、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機C1と、第1の機械学習アルゴリズムを、第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機C2と、第1の判別機C1の出力及び第2の判別機C2の出力に応じた判断を行う判断機Dと、を備える。第1の判別機Cが被験者データの入力を受け付けて第1の判別結果を出力し、第2の判別機C2が被験者データの入力を受け付けて第2の判別結果を出力し、判断機Dが、第1の判別結果及び第2の判別結果に応じて、被験者の診断を支援するための情報を出力する。
【選択図】図5The accuracy of diagnostic support using a machine learning algorithm is improved.
A diagnosis support apparatus that performs diagnosis support based on subject data that is data related to a subject includes a first discriminator C1 including a learned algorithm obtained by learning a first machine learning algorithm using a first data set. And a second discriminator C2 including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set, the output of the first discriminator C1 and the second And a determinator D that performs a determination according to the output of the second determinator C2. The first discriminator C accepts input of subject data and outputs a first discrimination result, the second discriminator C2 accepts input of subject data and outputs a second discrimination result, and the discriminator D In response to the first determination result and the second determination result, information for supporting the diagnosis of the subject is output.
[Selection] Figure 5
Description
本発明は、被験者に関する被験者データに基づいて診断支援を行う技術に関する。 The present invention relates to a technique for providing diagnosis support based on subject data relating to a subject.
骨シンチグラムを用いて被験者の診断支援装置を行う技術が知られている。既存の画像診断支援装置では、骨シンチグラムのホットスポット(薬剤が集積した高カウント領域)が癌転移であるか否かの判定をANN(人工ニューラルネットワーク)を用い、医師が診断を支援するための情報を出力している(例えば、特許文献1)。 A technique for performing a diagnosis support apparatus for a subject using a bone scintigram is known. In an existing diagnostic imaging support apparatus, a doctor uses a neural network (ANN) to determine whether a bone scintigram hotspot (a high-count region in which drugs are accumulated) is cancer metastasis, so that a doctor supports the diagnosis. (For example, Patent Document 1).
ANNのような機械学習アルゴリズムに基づく判別機を診断支援装置に用いる場合、学習済みのアルゴリズムを備える判別機の状態が異なれば、同じ入力に対しても異なる出力がなされることがある。例えば、同じ学習アルゴリズムを用いた場合でも、あるデータセットを使って学習した判別機と、それとは異なるデータセットを使って学習した判別機とでは、同じ値を入力したときに同じ出力が得られるとは限らない。同様に、二つの判別機の学習アルゴリズムが互いに異なるときは、同じデータセットで学習をさせた場合であっても、同じ入力に対して常に同じ出力をするわけではない。 When a discriminator based on a machine learning algorithm such as ANN is used in a diagnosis support apparatus, if the state of a discriminator having a learned algorithm is different, different outputs may be made even for the same input. For example, even when the same learning algorithm is used, a discriminator trained using a data set and a discriminator trained using a different data set can obtain the same output when the same value is input. Not necessarily. Similarly, when the learning algorithms of the two discriminators are different from each other, the same output is not always output for the same input even when learning is performed with the same data set.
つまり、ある被験者の状態を判定する場合に、診断支援情報として出力される情報が判別機の学習アルゴリズムや、学習に用いたデータセットに依存することになり、診断支援情報としての精度及び安定性に課題がある。 In other words, when determining the state of a subject, the information output as diagnosis support information depends on the learning algorithm of the discriminator and the data set used for learning, and accuracy and stability as diagnosis support information There is a problem.
そこで、本発明の目的は、機械学習アルゴリズムを用いた診断支援において、その精度を向上させることである。 Accordingly, an object of the present invention is to improve the accuracy in diagnosis support using a machine learning algorithm.
本発明の別の目的は、機械学習アルゴリズムを用いた診断支援において、安定した診断支援のための情報を提供することである。 Another object of the present invention is to provide information for stable diagnosis support in diagnosis support using a machine learning algorithm.
本発明の一つの実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。 A computer program according to an embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data that is data relating to a subject and supports diagnosis of the subject, and the computer program is included in the diagnosis support apparatus. When executed, the first discriminator includes a learned algorithm obtained by learning the first machine learning algorithm with the first data set, and receives the input of the subject data and outputs the first discrimination result And a second discriminator including a learned algorithm obtained by learning the first discriminator and the first machine learning algorithm with a second data set different from the first data set. The second discriminator that receives the input of the subject data and outputs the second discrimination result, and the first discrimination Fruit and in response to the second determination result, to realize a determining unit for outputting the diagnosis support information is information for supporting a diagnosis of a subject, to the diagnosis support apparatus.
本発明の別の実施態様に従うコンピュータプログラムは、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置のためのコンピュータプログラムであって、前記コンピュータプログラムが前記診断支援装置に実行されると、第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現する。 A computer program according to another embodiment of the present invention is a computer program for a diagnosis support apparatus that receives subject data, which is data relating to a subject, and supports diagnosis of the subject, and the computer program is included in the diagnosis support apparatus. When executed, the first discriminator includes a learned algorithm obtained by learning the first machine learning algorithm with the first data set, and receives the input of the subject data and outputs the first discrimination result The first discriminator and a second machine learning algorithm different from the first machine learning algorithm are used as the first data set or a second data set different from the first data set. A second discriminator including a learned algorithm learned in step (b), which accepts input of the subject data Diagnostic support information which is information for supporting diagnosis of the subject according to the second discriminator that outputs the second discrimination result and the first discrimination result and the second discrimination result Is implemented in the diagnosis support apparatus.
好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かの確率であってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報であってもよい。 In a preferred embodiment, the first and second determination results may be probabilities as to whether or not the subject is in a predetermined state. The diagnosis support information may be information for supporting diagnosis, which is a probability of whether or not the subject is in the predetermined state or whether the subject is in the predetermined state.
好適な実施態様では、前記第1及び第2の判別結果は、前記被験者が所定の状態であるか否かであってもよい。前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報であってもよい。 In a preferred embodiment, the first and second determination results may be whether or not the subject is in a predetermined state. The diagnosis support information may be information that supports a diagnosis as to whether or not the subject is in the predetermined state.
好適な実施態様では、前記診断支援情報と、前記第1及び第2の判別結果を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。 In a preferred embodiment, the diagnosis support apparatus may further realize means for displaying the diagnosis support information and the first and second determination results on a display device.
好適な実施態様では、前記診断支援情報と、前記診断支援情報の信頼度を表示装置に表示させる手段を、さらに前記診断支援装置に実現させてもよい。 In a preferred embodiment, the diagnosis support apparatus may further realize means for displaying the diagnosis support information and the reliability of the diagnosis support information on a display device.
好適な実施態様では、前記第1の機械学習アルゴリズムは、人工ニューラルネットワークであってもよい。 In a preferred embodiment, the first machine learning algorithm may be an artificial neural network.
好適な実施態様では、前記被験者データは、骨シンチグラムから得られたデータであってもよい。 In a preferred embodiment, the subject data may be data obtained from bone scintigrams.
好適な実施態様では、再判定要求を受け付ける受付手段を、さらに前記診断支援装置に実現させてもよい。そして、前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が、新たな診断支援情報を出力するようにしてもよい。 In a preferred embodiment, the diagnosis support apparatus may further realize accepting means for accepting a redetermination request. And when the said reception means receives a redetermination request | requirement, based on the said test subject data and the characteristic data which show the said test subject's characteristic, the said 1st discriminator and the said 2nd discriminator are new 1st and The second determination result may be output, and the determination device may output new diagnosis support information.
本発明のさらに別の実施態様に従う、被験者に関するデータである被験者データを受け付けて前記被験者の診断を支援する診断支援装置は、機械学習アルゴリズムに所定のデータセットで学習させた学習済みアルゴリズムを有する判別機を含み、前記被験者データの入力に基づく前記判別機の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判定手段と、前記診断支援情報を表示装置に表示させる表示手段と、再判定要求を受け付ける受付手段と、を備える。前記受付手段が再判定要求を受け付けたときは、前記判定手段は、前記被験者データ及び前記被験者の特徴を示す特徴データに基づく前記判別機の判別結果に応じて、新たな前記被験者の診断を支援する情報を出力する。 According to still another embodiment of the present invention, a diagnosis support apparatus that accepts subject data that is data related to a subject and supports diagnosis of the subject has a learned algorithm trained in a predetermined data set by a machine learning algorithm A determination unit that outputs diagnosis support information that is information for supporting diagnosis of the subject according to a determination result of the classifier based on an input of the subject data, and a display device that displays the diagnosis support information Display means to be displayed, and receiving means for receiving a redetermination request. When the accepting unit accepts a re-determination request, the determining unit supports a new diagnosis of the subject according to the discrimination result of the discriminator based on the subject data and the feature data indicating the characteristics of the subject. Output information.
以下、本発明の一実施形態に係る診断支援装置について、図面を参照して説明する。以下に説明する本発明の実施形態では、本発明に係る診断支援装置の一態様として、被験者の画像データを被験者データとして用いて診断支援情報を生成する画像処理装置を例に説明する。 Hereinafter, a diagnosis support apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the embodiment of the present invention described below, an image processing apparatus that generates diagnosis support information using image data of a subject as subject data will be described as an example of a diagnosis support device according to the present invention.
図1は、本実施形態に係る画像処理装置1の構成を示すブロック図である。同図に示すように、画像処理装置1は、画像処理装置本体10と、キーボード、タッチパネル、ポインティングデバイスなどの入力装置4と、液晶ディスプレイなどの表示装置5とを有する。画像処理装置本体10は、修正部20と、正規化部30と、表示制御部60と、記憶部70とを有する。表示制御部60は、調整部40と、変換部50と、生成部80とを有する。
FIG. 1 is a block diagram illustrating a configuration of an
画像処理装置本体10は、例えば汎用的なコンピュータシステムにより構成され、以下に説明する画像処理装置本体10内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータシステムは、メモリとマイクロプロセッサを有する。記憶部70は、メモリにより実現されても良い。このコンピュータプログラムは、コンピュータ読み取り可能な記録媒体に格納されて配布されることができる。
The image processing apparatus
記憶部70は、撮像画像記憶部15と、検査データ記憶部17と、修正画像記憶部25と、正規化画像記憶部35と、特徴データ記憶部36と、調整画像記憶部45とを有する。撮像画像記憶部15は、撮像された骨シンチグラムである撮像画像を記憶する。骨シンチグラムは、被験者の体内の放射性薬剤の分布状態が撮像された画像である。撮像画像セットは、或る患者の或る検査により撮像された、前面像の撮像画像と後面像の撮像画像とのペアである。本実施形態において、骨シンチグラム内の各ピクセルの値(画素値)は、画像を撮影する前に人間の体内に注入された放射性物質(放射性同位体:ラジオアイソトープ)からの放射強度を示すカウント値である。また、撮像画像記憶部15は、検査日時、前面又は後面を示す情報、基準視野等を含む撮像条件データを、撮像画像に関連付けて記憶する。検査データ記憶部17は、被験者の特徴量を示すデータで、例えば、被験者の画像を用いた検査以外の検査から得られたデータを検査データとして記憶してもよい。検査データは、例えば、被験者のTNM分類(悪性腫瘍の病期分類の指標)、腫瘍マーカーの値、病理検査の結果、遺伝子検査(リスク遺伝子の発現)の結果、性別、年齢、家族歴等の問診データを含んでもよい。
The
図2は、画像処理装置1の動作を示すフローチャートである。このフローは、検査により撮像画像セットが撮像画像記憶部15へ保存される度に実行されても良いし、或る患者の複数の撮像画像セットが撮像画像記憶部15へ保存された状態で、診察や解析のために実行されても良い。
FIG. 2 is a flowchart showing the operation of the
修正部20は、撮像画像記憶部15に格納されている撮像画像を予め定められた規格に従って修正し、その結果である修正画像を修正画像記憶部25へ保存する(S20)。
The
その後、正規化部30は、修正画像記憶部25に格納されている修正画像から骨格部位やホットスポット等の特徴を検出し、その結果である特徴データを修正画像に関連付けて特徴データ記憶部36へ保存する。更に、正規化部30は、特徴データに基づいて修正画像を正規化し、その結果である正規化画像を正規化画像記憶部35へ保存する(S30)。
Thereafter, the
その後、表示制御部60は、正規化画像記憶部35に格納されている正規化画像を調整して配置することにより表示画面を生成し、表示画面を表示装置5に表示させ(S60)、このフローを終了する。
Thereafter, the
表示制御部60において、調整部40は、正規化画像記憶部35に格納されている正規化画像のサイズを調整し、その結果である調整画像記憶部45へ保存する。変換部50は、調整画像記憶部45に格納されている調整画像の画素値をグレースケールの濃度に変換する。生成部80は、調整画像を時系列に従って配置することにより表示画面を生成し、表示装置5に表示させる。
In the
なお、生成部80は、特徴データ記憶部36に格納されている特徴データを、調整画像に関連付けて表示画面内に配置しても良い。
Note that the
画像処理装置1によれば、撮像された複数の骨シンチグラムにおいて、撮影条件の違いの影響を低減することができる。また、複数の骨シンチグラムを時系列に従って表示装置5に表示させることにより、読影者は複数の骨シンチグラムの経時変化を判断することが容易になる。
According to the
以下、修正部20の詳細について説明する。
Details of the
図3は、修正部20の動作を示すフローチャートである。前述のS20において、修正部20はこのフローを実行する。
FIG. 3 is a flowchart showing the operation of the
修正部20は、撮像画像記憶部15から撮像画像セットを読み出し、読み出された撮像画像セットが予め定められた規格を満たすか否かを判定する(S2020)。
The
例えば、修正部20は、撮像画像セット内の全ピクセルのカウント値から評価値を計算し、その評価値が規格範囲内であれば、撮像画像セットが予め定められた規格を満たすと判定する。評価値は例えば、前画像及び後画像の全ピクセルのカウント値の合計に基づいて計算される。より好適な評価値は、(前画像の全ピクセルのカウント値の合計+後画像の全ピクセルのカウント値の合計)/2で表される。規格範囲は例えば、標準撮像条件下で撮像された複数の撮像画像セットを格納する撮像画像データベースに基づいて決定される。即ち、修正部20は、撮像画像セットの評価値が規格範囲内であれば、その撮像画像セットが標準撮像条件下で撮像されたものであると判定する。規格範囲の下限は例えば、撮像画像データベース内の各撮像画像セットから計算された評価値の最小値より小さく、規格範囲の上限は例えば、撮像画像データベース各撮像画像セットから計算された評価値の最大値より大きい。実際の撮像画像データベースに基づいて決定された規格範囲において、下限は例えば1,200,000であり、上限は例えば、2,200,000である。
For example, the
撮像画像セットが規格を満たす場合(S2020:Yes)、修正部20は、撮影画像セットを修正せずに修正画像セットとして修正画像記憶部25へ保存し(S2030)、このフローを終了する。
When the captured image set satisfies the standard (S2020: Yes), the correcting
撮像画像セットが規格を満たさない場合(S2020:No)、修正部20は、評価値に基づいてスケーリングファクタを計算し、撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより修正画像セットを生成して修正画像記憶部25へ保存し(S2040)、このフローを終了する。スケーリングファクタは例えば、(基準評価値/評価値)で表される。規格を満たさないと判定された撮影画像セットの各ピクセルにスケーリングファクタを乗算することにより、その結果である修正画像セットの評価値は基準評価値になる。基準評価値は、規格範囲内の値である。実際の撮像画像データベースに基づいて決定された基準評価値は例えば、1,800,000である。
When the captured image set does not satisfy the standard (S2020: No), the
修正部20は、修正画像に対応する撮像条件データを撮像画像記憶部15から読み出し、修正画像に関連付けて修正画像記憶部25へ保存する。
The
修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の統計量に基づいて規格範囲及び基準評価値を決定しても良い。例えば、修正部20は、撮像画像データベース内の各撮像画像セットから計算された評価値の平均値及び標準偏差を用い、(平均値−標準偏差)を規格範囲の下限とし、(平均値+標準偏差)を規格範囲の上限とし、(平均値)を基準評価値としても良い。
The
以上が修正部20の動作である。
The above is the operation of the
以上に説明したように、修正部20は、カウント値が規格外であると判定された撮像画像セットを、規格を満たすように修正することができる。言い換えれば、標準撮像条件下で撮影されていない撮像画像セットのカウント値を、標準撮像条件下で撮影された撮像画像セットのカウント値の範囲内に修正することができる。これにより、その後の処理の精度を向上させることができる。
As described above, the
以下、正規化部30について説明する。
Hereinafter, the
正規化部30は、修正画像記憶部25から修正画像セットを読み出す。以下の説明において、修正画像を骨シンチグラムや患者画像と呼ぶことがある。
The
図4は、正規化部30の構成を示すブロック図である。正規化部30は、入力画像メモリ105と、形状識別部110と、注釈付画像メモリ115と、ホットスポット検出部120と、第1ホットスポットメモリ125と、ホットスポット特徴抽出部130と、第2ホットスポットメモリ135と、第1判定部140と、第3ホットスポットメモリ145と、患者特徴抽出部150と、患者特徴メモリ155と、第2判定部160とを有する。
FIG. 4 is a block diagram showing a configuration of the
入力画像メモリ105は、骨シンチグラムセットを格納する。一回の診断により得られる骨シンチグラムセットは、患者の正面から撮像した前面像と、患者の背面から撮像した後面像とを有する。
The
形状識別部110は、入力画像メモリ105に接続されており、骨シンチグラムセットに含まれる骨格の解剖学的構造を識別する。形状識別部110は、予め定義された骨格モデルを有する。骨格モデルは少なくとも一つの解剖学的部位(セグメント)を有する。各部位は、一般的な骨格の解剖学的部分を表す。骨格モデルは、骨シンチグラムセットの骨格に合うように調整される。
The
注釈付画像メモリ115は、形状識別部110に接続されており、注釈付画像セットを格納する。注釈付画像セットは、形状識別部110からの、骨シンチグラムセットの異なる複数の骨格部位に対応する複数の解剖学的構造に関する情報に基づく。
The annotated
ホットスポット検出部120は、注釈付画像メモリ115に接続されており、注釈付画像セットの高強度領域を検出する。ホットスポット検出部120の一つの形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する閾値走査部を有する。好適なホットスポット検出部120は、形状識別部110により定義された異なる複数の解剖学的部位に対する異なる複数の閾値を有する。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状と位置を決定する。
The hot
ホットスポット検出部120の別の形態は、骨シンチグラムセットを走査し、或る閾値を超えるピクセルを識別する画像正規化フィルタリング部を有しても良い。この場合、ホットスポット特徴抽出部130は、各ホットスポットに対して少なくとも一つのホットスポット特徴を抽出し、各ホットスポットの形状、テクスチャ、幾何学的形状を決定する。好適なホットスポット特徴のセット内の各特徴の詳細は、第1判定部140の入力の具体例として後述される。
Another form of hot
検出された高強度領域、所謂「ホットスポット」に関して、以上のように生成される情報は、第1ホットスポットメモリ125に格納される。
Regarding the detected high intensity region, so-called “hot spot”, information generated as described above is stored in the first
ホットスポット特徴抽出部130は、第1ホットスポットメモリ125に接続されており、ホットスポット検出部120により検出された各ホットスポットのホットスポット特徴のセットを抽出する。抽出されたホットスポット特徴のデータは、第2ホットスポットメモリ135に格納される。
The hot spot
第1判定部140は、被験者が所定の状態であるか否かを判定する。例えば、第1判定部140は、第2ホットスポットメモリ135に接続されており、ホットスポットセットの各ホットスポットが癌転移(以下、単に転移という場合がある)であるか否かを判定する(ホットスポットの転移判定)。第1判定部140は、ホットスポット特徴抽出部130により生成されたホットスポットセットの各ホットスポットの特徴が供給される。ホットスポットの転移判定は、ホットスポット特徴抽出部130により抽出されたホットスポット特徴セットデータに基づく。この判定の結果は、第3ホットスポットメモリ145に格納される。
The
ここで、ホットスポットの転移判定の結果は、ホットスポットが転移であるか否かを示す確率(0〜1)であってもよいし、2値化された値、すなわち「yes、ホットスポットが転移である」に対応する値(例えば「1」)、または「no、ホットスポットが転移でない」に対応する値(例えば「0」)であってもよい。第1判定部140が出力する判定結果は、医師が診断をするための診断支援情報として表示装置5に出力されてもよい。
Here, the result of the hot spot transition determination may be a probability (0 to 1) indicating whether the hot spot is a transition, or a binarized value, that is, “yes, It may be a value corresponding to “is a transition” (for example, “1”) or a value corresponding to “no, a hot spot is not a transition” (for example, “0”). The determination result output by the
第1判定部140は、例えば、機械学習アルゴリズムを用いて実現されてもよい。機械学習アルゴリズムとしては、例えば、人工ニューラルネットワーク(Artificial Neural Network,ANN)、サポートベクターマシン(Support Vector Machine,SVM)、線形判別分析(Linear Discriminant Analysis,LDA)などを用いることができる。また、機械学習アルゴリズムは、教師あり学習、教師なし学習及び半教師あり学習など、どのような学習方法のアルゴリズムであってもよい。第1判定部140は、各機械学習アルゴリズムをそれぞれの方法で学習させた学習済みアルゴリズムを含む構成で実現されてもよい。例えば、第1判定部140は、学習済みアルゴリズムで実現されている単一または複数の判別機を含んでもよい。
The
第1判定部140は、解剖学的部位ごとに部位別判定部1400を有していてもよい。或る部位内の各ホットスポットは、その部位のホットスポットを処理するように構成された部位別判定部1400により順次処理される。
The
図5は、第1判定部140に含まれる部位別の部位別判定部1400の構成の一例を示すブロック図である。部位別判定部1400は、2以上の判別機C(C1〜C3)と一つの判断機Dを有してもよい。なお、図5の例では、部位別判定部1400は判別機Cを3つ有しているが、2つまたは4つ以上有していてもよい。
FIG. 5 is a block diagram illustrating an example of the configuration of the site-
各判別機Cは、被験者が所定の状態であるか否かの確率を出力するようにしてもよいし、被験者が所定の状態であるか否かを出力するようにしてもよい。例えば、各判別機Cは、それぞれが所定の入力に基づいてホットスポットが転移であるか否かを判定してもよい。各判別機Cは、それぞれが算出したホットスポットが転移であるか否かの確率(判別結果)を判断機Dへ出力してもよい。各判別機Cは、その確率に応じてホットスポットが転移であるか否かの判定結果を出力してもよい。 Each discriminator C may output the probability of whether or not the subject is in a predetermined state, or may output whether or not the subject is in a predetermined state. For example, each discriminator C may determine whether or not a hot spot is a transition based on a predetermined input. Each discriminator C may output the probability (discrimination result) whether or not the calculated hot spot is a transition to the discriminator D. Each discriminator C may output a determination result as to whether or not the hot spot is transfer according to the probability.
判断機Dは、各判別機Cの判別結果に応じて、被験者が所定の状態であるか否かの診断を支援する情報を出力する。本実施形態では、判断機Dは、ホットスポットが転移であるか否かを判定する。判断機Dの判定結果が第1判定部140の判定結果として出力される。複数の判別機Cの判別結果に基づいて判断機Dが判定を行うことで、個別の判別機Cの特性に依存しない判定を行うことができ、診断支援の精度が向上する。同様に、複数の判別機Cの出力に基づいて判断機Dの出力が定まることから、個別の判別機Cの特性に依存せず、安定した出力が得られる。
The determiner D outputs information that supports diagnosis of whether or not the subject is in a predetermined state according to the determination result of each determiner C. In the present embodiment, the determiner D determines whether or not the hot spot is a transition. The determination result of the determination device D is output as the determination result of the
ここで、各判別機Cが学習済みアルゴリズムで構成されていてもよい。判別機C1、C2、C3は、共通の学習アルゴリズムを異なるデータセットで学習させた学習済みアルゴリズムでよい。データセットは、例えば、以下のような第1〜第3のデータセットでもよい。すなわち、第1のデータセットは正常(ホットスポットは転移でない)と診断された被験者データを多く含むデータセット、第2のデータセットは異常(ホットスポットは転移である)と診断された被験者データを多く含むデータセット、第3のデータセットは正常と診断された被験者データと異常と診断された被験者データとがほぼ同数のデータセットでもよい。例えば、判別機C1が第1のアルゴリズムを第1のデータセットで学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムを第2のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1のアルゴリズムを第3のデータセットで学習させた学習済みアルゴリズムであってもよい。これにより、3つの判別機C1〜3は異なる特性を有するようになる。 Here, each classifier C may be configured with a learned algorithm. The discriminators C1, C2, and C3 may be learned algorithms obtained by learning a common learning algorithm using different data sets. The data set may be, for example, the following first to third data sets. That is, the first data set is a data set including a lot of subject data diagnosed as normal (hot spots are not metastasized), and the second data set is subject data diagnosed as abnormal (hot spots are metastases). The data set including many and the third data set may be substantially the same number of the subject data diagnosed as normal and the subject data diagnosed as abnormal. For example, the discriminator C1 learns the first algorithm with the first data set, the learned algorithm, the discriminator C2 learns the first algorithm with the second data set, the discriminator C3 A learned algorithm obtained by learning the first algorithm using the third data set may be used. Thereby, the three discriminators C1 to C3 have different characteristics.
あるいは、判別機C1、C2、C3のいずれか一つが他の二つと異なる学習アルゴリズムでもよいし、判別機C1、C2、C3のすべてが異なる学習アルゴリズムでもよい。学習アルゴリズムが異なる場合、学習に用いるデータセットは共通であってもよい。例えば、判別機C1が第1のアルゴリズムをいずれか一つのデータセット(例えば第1のデータセット)で学習させた学習済みアルゴリズム、判別機C2が第1のアルゴリズムと異なる第2のアルゴリズムを共通のデータセットで学習させた学習済みアルゴリズム、判別機C3が第1及び第2のアルゴリズムと異なる第3のアルゴリズムをさらに共通のデータセットで学習させた学習済みアルゴリズムであってもよい。この場合も、3つの判別機C1〜3は異なる特性を有するようになる。 Alternatively, any one of the discriminators C1, C2, and C3 may be a learning algorithm different from the other two, or all of the discriminators C1, C2, and C3 may be different learning algorithms. When learning algorithms are different, the data sets used for learning may be common. For example, the discriminator C1 shares a learned algorithm obtained by learning the first algorithm with any one data set (for example, the first data set), and the discriminator C2 uses a second algorithm different from the first algorithm in common. A learned algorithm learned from a data set or a learned algorithm obtained by further learning a third algorithm different from the first and second algorithms by the classifier C3 using a common data set may be used. Also in this case, the three discriminators C1 to C3 have different characteristics.
判断機Dは、以下のようにして、ホットスポットが転移であるか否かを判定してもよい。例えば、各判別機Cの出力値が0〜1であれば、それらに基づく統計値(例えば平均値、中央値等)を算出し、それを判断機Dの出力値としてもよい。あるいは、判断機Dが算出したその統計値をさらに所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化して、判断機Dの出力値としてもよい。これらの処理を行う際に、各判別機Cの出力に所定の重み付けをしてから行ってもよい。 The determiner D may determine whether the hot spot is a transition as follows. For example, if the output value of each discriminator C is 0 to 1, a statistical value (for example, average value, median value, etc.) based on them may be calculated and used as the output value of the discriminator D. Alternatively, the statistical value calculated by the determinator D may be further binarized to “0” indicating that there is no transfer at a predetermined threshold or “1” indicating that it is a transfer, and the output value of the determiner D may be used. . When performing these processes, the output of each discriminator C may be given a predetermined weight.
また、判断機Dは、各判別機Cの出力値である0〜1を所定の閾値で転移でないことを示す「0」または転移であることを示す「1」に2値化した後、「0」と「1」の数に応じて判断機Dの出力を「0」または「1」に定めてもよい。このとき各判別機Cの出力値を2値化する閾値はすべて同じでもよいし、異なっていてもよい。
Further, the determinator D binarizes the
さらに、判断機Dは3つ以上の階級に離散化して、その一つの階級を出力値としてもよい。例えば、判断機Dが0〜1の値を所定の閾値で四つの階級に分ける場合、「確実に正常」、「おそらく正常」、「おそらく転移」、及び「確実に転移」にそれぞれ対応する値(例えば、0,1,2,3)を出力値としてもよい。 Further, the determination device D may discretize into three or more classes, and one of the classes may be used as an output value. For example, when the determinator D divides a value of 0 to 1 into four classes with a predetermined threshold, values corresponding to “definitely normal”, “probably normal”, “probably transferred”, and “definitely transferred”, respectively. (For example, 0, 1, 2, 3) may be used as the output value.
第1判定部140は、単一の判別機Cで構成されていてもよい。この場合、判断機Dは不要であり、単一の判別機Cが出力するホットスポットである確率をそのまま第1判定部140の出力としてもよい。判別機Cの出力が0〜1の数値であるとき、第1判定部140は、上述の判断機Dと同様の処理で出力値を2値化したり、3つ以上の階級に離散化したりしてもよい。
The
また、後述するように、読影者等から再判定要求を受けたときは、第1判定部140は、第2ホットスポットメモリ135のホットスポット特徴セットデータに加えて、検査データ記憶部17の検査データも入力として受け付けて、再判定を行うようにしてもよい。例えば、部位別判定部1400の判定機Cは、再判定の場合には、ホットスポット特徴セットデータと併せて検査データの入力を受け付けて、ホットスポットが転移であるか否かの再判定を行うようにしてもよい。このとき、判断機Dは、通常の場合と同様にしてホットスポットが転移であるか否の判定を行うようにしてもよい。あるいは、部位別判定部1400は検査データ専用の判別機Cを備えていてもよい。判断機Dは、通常の判定で用いる判別機Cに加えて、検査データ専用の判別機Cの出力に基づいて、ホットスポットが転移であるか否の判定を行うようにしてもよい。
As will be described later, when receiving a re-determination request from an interpreter or the like, the
患者特徴抽出部150は、第2ホットスポットメモリ135及び第3ホットスポットメモリ145に接続されており、ホットスポット検出部120により検出されて第2ホットスポットメモリ135に格納されているホットスポットの数と、第3ホットスポットメモリ145に格納されている第1判定部140からのホットスポットの転移判定の結果の出力値とに基づいて、患者特徴セットを抽出する。患者特徴抽出部150は、ホットスポット特徴抽出部130からのデータと第1判定部140の出力のデータの両方を用いて計算を実行する。抽出された患者特徴のデータは、患者特徴メモリ155に格納される。好適な、抽出された特徴は、第2判定部160の入力の具体例として後述される。
The patient
第2判定部160は、被験者が所定の状態であるか否かを判定する。例えば、第2判定部160は、患者特徴メモリ155に接続されており、患者特徴抽出部150により抽出されて患者特徴メモリ155に格納されている患者特徴セットデータに基づいて、患者が少なくとも一つの癌転移を持っているか否かを判定する(患者の転移判定)。
The
第2判定部160は、第1判定部140と同じ構成であってもよいし、第1判定部140の一部であってもよい。
The
以下、正規化部30による骨シンチグラム分割方法(セグメンテーション)について説明する。
Hereinafter, a bone scintigram dividing method (segmentation) by the
図6は、正規化部30による骨シンチグラム分割方法を示すフローチャートである。前述のS30において、正規化部30はこのフローを実行する。
FIG. 6 is a flowchart showing a bone scintigram dividing method by the
骨シンチグラム分割方法は例えば、ASM(active shape model:アクティブ形状モデル)アプローチを用いて、腕(上肢)と脚(下肢)の下部(末端)を除く骨格の前面像と後面像の全体の輪郭抽出の実行を含む。腕と足の下部が転移に対して非常に稀な場所であり、それらは時々骨走査ルーチンで取得されていないので、骨格のこれらの部分を省くことは、問題にならない。説明のため、ASMは、画像内のオブジェクトを見つけるための統計的方法として定義されている。その方法は、学習画像セットに基づく統計モデルに基づいている。各学習画像において、オブジェクトの形状は、準備又は学習の段階中に人間のオペレータにより手動で決定される目標点により定義される。その後、オブジェクトに関する一般的形状を記述するために用いられる点分布モデルが、計算される。一般的形状は、本実施形態の場合と同様、例えば骨格のようなオブジェクトタイプの新規の例に対する他の画像を検索するために用いることができる。人間の骨格の解剖学的構造を記述するASMの学習のための方法が提供される。そのモデルは、以下の説明するステップを含む。 The bone scintigram division method uses, for example, an ASM (active shape model) approach, and the entire outline of the front and back images of the skeleton excluding the arms (upper limbs) and the lower parts (ends) of the legs (lower limbs). Includes performing extraction. Omitting these parts of the skeleton is not a problem because the lower arms and legs are very rare places for metastases and they are sometimes not acquired in the bone scanning routine. For illustration purposes, ASM is defined as a statistical method for finding objects in an image. The method is based on a statistical model based on a learning image set. In each learning image, the shape of the object is defined by target points that are determined manually by a human operator during the preparation or learning phase. A point distribution model is then calculated that is used to describe the general shape for the object. The general shape can be used to search for other images for a new example of an object type, such as a skeleton, as in the present embodiment. A method is provided for learning ASM that describes the anatomy of the human skeleton. The model includes the steps described below.
最初のステップは例えば、骨格を8個の異なる学習セットに分割する(S205)。学習セットは、一貫したセグメンテーションを実現するために特に適している解剖学的部位に対応するように選択される。8個の異なる学習セットは以下に示される。
1)頭と脊椎の前面像に関する第1学習セット。
2)肋骨の前面像に関する第2学習セット。
3)腕の前面像に関する第3学習セット。
4)下半身の前面像に関する第4学習セット。
5)頭と脊椎の後面像に関する第5学習セット。
6)肋骨の後面像に関する第6学習セット。
7)腕の後面像に関する第7学習セット。
8)下半身の後面像に関する第8学習セット。
The first step, for example, divides the skeleton into 8 different learning sets (S205). The learning set is selected to correspond to an anatomical site that is particularly suitable for achieving consistent segmentation. Eight different learning sets are shown below.
1) The first learning set for the frontal image of the head and spine.
2) A second learning set for the frontal image of the ribs.
3) A third learning set for the frontal image of the arm.
4) A fourth learning set for the front image of the lower body.
5) A fifth learning set for the posterior image of the head and spine.
6) A sixth learning set for the posterior image of the ribs.
7) A seventh learning set related to the rear image of the arm.
8) The 8th learning set regarding the rear image of the lower body.
各学習セットは、多くの事例画像を提供する(S210)。各画像は、目標点のセットを用いて作成される。各目標点は、画像の特別な解剖学的または生物学的な点を表す座標ペアに関連付けられている。座標ペアは、対応する解剖学的/生物学的点を手動で特定することにより決定される(S215)。前面像では、以下の簡単に識別可能な解剖学的目標点が使用される。 Each learning set provides many case images (S210). Each image is created using a set of target points. Each target point is associated with a coordinate pair that represents a particular anatomical or biological point of the image. A coordinate pair is determined by manually identifying the corresponding anatomical / biological point (S215). In the front view, the following easily identifiable anatomical target points are used:
学習セットの統計量を取り込む前に、目標点の各セットは、8個の学習セットの夫々に対して異なる共通座標系に整列される。これは、非特許文献1に説明されているように、学習形状が互いにできるだけ近づくようにする、学習形状のスケーリング、回転、及び解釈により実現される。学習セットの統計量の検査により、学習セット内で観察される形状変化を含む2次元統計的ポイント分布モデルが得られる(S220)。この複数の骨格に亘る目標点(形状)の変化の統計的モデリングは、非特許文献1及び非特許文献2に説明されているように実行される。
Prior to capturing the learning set statistics, each set of target points is aligned to a different common coordinate system for each of the eight learning sets. This is realized by scaling, rotation, and interpretation of learning shapes that make the learning shapes as close as possible to each other, as described in
形状変化の結果として得られる統計モデルは、骨格を分割するために患者画像に適用されることができる。平均形状から始め、形状モデルの可能な変化の範囲内の新たな形状は、生成された骨格が患者画像内に存在する構造に似るように、学習セットの形状に似て生成されることができる。この方法を用いて分割される前面体セグメントは例えば、頭蓋骨、顔首、脊椎、上部胸骨、下部胸骨、右腕、左腕、右肋骨、左肋骨、右肩、左肩、骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。後面体セグメントは例えば、頭蓋骨、首、上部脊椎、下部脊椎、背骨、右腕、左腕、右肋骨、左肋骨、右肩甲骨、左肩甲骨、股関節、下部骨盤、膀胱、右大腿骨、及び左大腿骨であっても良い。 The statistical model resulting from the shape change can be applied to the patient image to segment the skeleton. Starting with an average shape, new shapes within the range of possible changes in the shape model can be generated similar to the shape of the learning set so that the generated skeleton resembles the structure present in the patient image. . The frontal body segment divided using this method is, for example, skull, face neck, spine, upper sternum, lower sternum, right arm, left arm, right rib, left rib, right shoulder, left shoulder, pelvis, bladder, right femur, And the left femur. The posterior segment includes, for example, the skull, neck, upper spine, lower spine, spine, right arm, left arm, right rib, left rib, right shoulder blade, left shoulder blade, hip joint, lower pelvis, bladder, right femur, and left femur It may be.
検索プロセスの最初のステップは、前面像の平均形状に対する開始位置を見つけることであっても良い。例えば、頭の最高点が選択されても良い。なぜなら、それは、テストにおいて、ロバストな開始位置であることが証明され、画像上部内で各水平行内の特定閾値より大きい強度を検査することにより簡単に見つけられるためである。 The first step in the search process may be to find a starting position for the average shape of the front image. For example, the highest point of the head may be selected. This is because it proves to be a robust starting position in the test and can be easily found by examining the intensity above a certain threshold in each horizontal line within the top of the image.
次に、患者画像内の骨格に合う骨格形状モデルの事例の検索は、非特許文献1及び非特許文献2に記述されたアルゴリズムに従って実行される。
Next, the search of the example of the skeleton shape model matching the skeleton in the patient image is executed according to the algorithm described in
以上の動作により、正規化部30は、骨シンチグラムセットから識別された骨格部位の領域、検出されたホットスポットの領域、ホットスポットの転移判定結果、患者の転移判定結果等を含む特徴データを、特徴データ記憶部36へ保存する。ここで、ホットスポットの転移判定結果を第1判定部140の判断機Dが算出する根拠となった各判別機Cの出力値も、ホットスポットの転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。同様に、患者の転移判定結果を第2判定部160の判断機Dが算出する根拠となった各判別機Cの出力値も、患者の転移判定結果と関連づけて、特徴データ記憶部36に保存されるようにしてもよい。
Through the above operation, the
以下、正規化部30による別の骨シンチグラム分割方法について説明する。
Hereinafter, another bone scintigram division method by the
別の骨シンチグラム分割方法が提供される。別の骨シンチグラム分割方法の目標は、前述の骨シンチグラム分割方法と同様、骨シンチグラム300内の骨格の異なる複数の解剖学的部位を認識して輪郭抽出することである。図7は、骨シンチグラムと骨格部位の一例を示す図である。この図に示されているように、骨格部位は、患者画像310に輪郭320を重ねることにより定義される。ここで述べた分割方法は、登録により表される分割である。
Another bone scintigram segmentation method is provided. The goal of another bone scintigram segmentation method is to recognize and extract contours from a plurality of different anatomical parts of the skeleton in the
画像登録方法は、或る画像を別の画像の座標系に変換する。これらの画像が、同一のオブジェクトクラス、ここでは骨格、の実体を表すと仮定する。変換された画像はソース画像で表され、一方で変換されない画像はターゲット画像で表される。同一の画像座標が、ソース画像とターゲット画像に含まれているオブジェクトにおける同一の幾何学的/解剖学的位置に一致する場合、ソース画像とターゲット画像の座標系は、一致すると言える。登録による分割は、ソース画像に手動で定義された分割を用いることと、分割が定義されていない場合にソース画像をターゲット画像に登録することである。ソース画像の分割は、それによってターゲット画像に変換され、従ってターゲット画像の分割を生成する。 The image registration method converts an image into a coordinate system of another image. Assume that these images represent entities of the same object class, here a skeleton. The transformed image is represented by the source image, while the untransformed image is represented by the target image. If the same image coordinates match the same geometric / anatomical position in the objects contained in the source and target images, it can be said that the coordinate systems of the source and target images match. The division by registration is to use a manually defined division for the source image and to register the source image to the target image when no division is defined. The source image segment is thereby converted to the target image, thus producing a target image segment.
この形態におけるソース画像の分割は、基準健康患者の解剖学的構造を定義し、多角形のセットとして臨床検査の専門家により手動で描かれる。図8は、健康基準画像セットの一例である。健康基準画像セットは、「アトラス」と呼ばれる。ここで、健康基準画像セットは、健康基準画像400a及び健康基準画像400bを有する。健康基準画像400aは、患者の正面像或いは前面像を示し、一方で健康基準画像400bは、患者の背面像或いは後面像を示す。健康基準画像400a及び健康基準画像400b内のラベルを夫々参照すると、これらの領域は、(1,1)とラベリングされた前部及び後部の頭蓋骨401,402、(2,2)とラベリングされた前部及び後部の頸椎403、404、(3,3)とラベリングされた前部及び後部の胸椎405、406、(14)とラベリングされた前部胸骨407、(4,4)とラベリングされた前部及び後部の腰椎409、408、(11,5)とラベリングされた前部及び後部の仙骨411、410、(15,14)とラベリングされた前部及び後部の骨盤、(5,6,7,6)とラベリングされた前部及び後部の左右の肩甲骨、(17,16)とラベリングされた前部及び後部の左右の鎖骨、(7,8,9,8)とラベリングされた前部及び後部の左右の上腕骨、(9,10,11,10)とラベリングされた前部及び後部の左右の肋骨、及び(12,13,12,13)ラベリングされた前部及び後部の左右の大腿骨413、415、412、414を定義する。
The segmentation of the source image in this form defines the reference healthy patient's anatomy and is manually drawn by the laboratory specialist as a set of polygons. FIG. 8 is an example of a health reference image set. The health reference image set is called “Atlas”. Here, the health reference image set includes a
健康基準画像セットは、正規化部30によりソース画像として常に用いられ、一方、検査される患者画像はターゲット画像として働く。その結果は、ターゲット画像の骨シンチグラム300に描かれているような骨格部位への分割である。下腕と下肢は、解析のために考慮されない。
The health reference image set is always used as a source image by the
ソース画像として用いられる健康基準画像セットは、典型的な画質と正常な外観及び解剖学的構造を有する健康患者の10個の現実の事例から構成される。事例画像のグループから計算された平均的な強度及び解剖学的構造を有する架空の正常な健康患者の前面像及び後面像を生成するアルゴリズムが用いられる。正規化部30は、非特許文献3で説明されているようなこのタスクを実行する。健康基準画像セットは、結果として得られる解剖学的構造が確かに正常健康外観を有するように見える場合の結果を示す。この解剖学的構造は、数人の患者の解剖学的構造の平均化の結果であり、横方向対称性が高いことを示す。
The health reference image set used as the source image consists of 10 real cases of healthy patients with typical image quality and normal appearance and anatomy. An algorithm is used to generate an anterior and posterior image of a fictitious normal healthy patient having an average intensity and anatomy calculated from a group of case images. The
以下、正規化部30による骨シンチグラムの正規化方法について説明する。
Hereinafter, the normalization method of the bone scintigram by the
前述のように、ホットスポット検出部120は、形状識別部110からの情報を用いる。ホットスポット検出部120の目的は二つである。その第1の目的は、前面及び後面の患者画像内のホットスポットを分けることである。ホットスポットは、高輝度の分離された画像部位であり、骨格内にある時に転移性疾患の指標であっても良い。その第2の目的は、画像の強度を、予め定義された基準レベルに調整することである。このような強度の調整は、画像の正規化を表す。ここでは、そのアルゴリズムを説明する。このアルゴリズムは、同時に、ホットスポットを分離し、正規化因子を推定する。また、このアルゴリズムは、前面像及び後面像で別々に実行される。以下、最初に適切な正規化の必要性が簡潔に説明され、続いてこのアルゴリズムが説明される。
As described above, the hot
複数の骨シンチグラムは、強度レベルにおいて、患者、研究、及びハードウェア構成により、大きく異なる。この差は増大傾向にあると推測され、ゼロの強度は全画像に対して共通の基準レベルであると推測される。従って、ソース画像をターゲット画像に関して正規化することは、ソース画像の強度をターゲット画像と等しいレベルにするスカラー因子を見つけることである。ここで、ソース画像内の骨格の健康部位の平均強度がターゲット画像内の対応する部位に等しい場合、二つの骨格画像の強度は等しいとして定義される。図9は、正規化部30による正規化方法を示すフローチャートである。このフローチャートに示されている正規化方法は、以下のステップを有する。
Multiple bone scintigrams vary greatly in intensity levels depending on patient, study, and hardware configuration. This difference is presumed to be increasing and zero intensity is presumed to be a common reference level for all images. Thus, normalizing the source image with respect to the target image is to find a scalar factor that makes the intensity of the source image equal to the target image. Here, if the average intensity of the healthy part of the skeleton in the source image is equal to the corresponding part in the target image, the intensity of the two skeleton images is defined as equal. FIG. 9 is a flowchart showing a normalization method performed by the
1.骨格に対応する画像要素の同定(S510)。
2.画像に含まれるホットスポットの同定(S520)。
3.骨格要素からホットスポット要素を除去(S530)。
4.残りの(健康)要素の平均強度の計算(S540)。
5.適切な正規化因子の計算(S550)。
6.正規化因子を乗算することによるソース画像強度の調整(S560)。
1. Identification of image elements corresponding to the skeleton (S510).
2. Identification of hot spots included in the image (S520).
3. The hot spot element is removed from the skeleton element (S530).
4). Calculation of the average intensity of the remaining (health) elements (S540).
5. Calculation of an appropriate normalization factor (S550).
6). Adjusting the source image intensity by multiplying by a normalization factor (S560).
S510は、前述のように、形状識別部110により得られる変換された解剖学的部位により提供される骨格に属する画像部位の情報を用いて実行される。多角形の部位は、骨格の夫々の部位に属する画像要素を定義するバイナリ画像マスクに変換される。
As described above, S510 is executed using the information on the image part belonging to the skeleton provided by the converted anatomical part obtained by the
S520において、ホットスポットは、一つの画像フィルタリング演算と一つの閾値演算を用いて分割される。画像は、夫々の周囲に関する高強度の小さい部位を強調するDoG(difference-of-Gaussians)−BPF(band-pass filter)を用いてフィルタリングされる。フィルタリングされた画像は、その後、一定レベルで閾値判定され、その結果得られるバイナリ画像は、ホットスポット要素を定義する。 In S520, the hot spot is divided using one image filtering operation and one threshold operation. Images are filtered using a DoG (difference-of-Gaussians) -BPF (band-pass filter) that emphasizes small areas of high intensity with respect to their surroundings. The filtered image is then thresholded at a certain level and the resulting binary image defines hot spot elements.
S530において、S510で計算された要素のうち、S520で計算されたホットスポット要素と一致する要素は、削除される。残りの要素は、健康骨格部位に対応すると推測される。 In S530, among the elements calculated in S510, elements that match the hot spot element calculated in S520 are deleted. The remaining elements are assumed to correspond to healthy skeletal sites.
S540において、健康骨格要素の平均強度が計算される。この平均強度はAで表される。 In S540, the average strength of the health skeleton element is calculated. This average intensity is represented by A.
S550において、適切な正規化因子は、予め定義された基準強度レベルに関連して決定される。ここで、例えば、このレベルを1000に設定することができる。正規化因子Bは、(B=1000/A)のように計算される。 In S550, an appropriate normalization factor is determined in relation to a predefined reference intensity level. Here, for example, this level can be set to 1000. The normalization factor B is calculated as (B = 1000 / A).
S560において、ソース画像の強度は、Bを乗算することにより調整される。 In S560, the intensity of the source image is adjusted by multiplying B.
S520におけるホットスポット分割は、S550で計算された正規化因子により順次決定される画像の全体強度レベルに依存する。とは言え、S550で計算された正規化因子は、S520からのホットスポット分割に依存する。S520及びS550の結果が相互に依存しているので、S520からS560は例えば、S570において正規化因子におけるそれ以上の変化が発生しなくなるまで繰り返されても良い。広範に亘るテストでは、このプロセスが通常、3又は4回の繰り返しで収束することが示されている。 Hot spot segmentation in S520 depends on the overall intensity level of the image, which is sequentially determined by the normalization factor calculated in S550. Nonetheless, the normalization factor calculated in S550 depends on the hot spot split from S520. Since the results of S520 and S550 are interdependent, S520 to S560 may be repeated, for example, until no further change in normalization factor occurs in S570. Extensive testing has shown that this process usually converges in 3 or 4 iterations.
図10は、正規化された骨シンチグラムセットの一例を示す図である。正規化画像600aは、正規化された骨シンチグラムセットの前面像を示し、正規化画像600bは、正規化された骨シンチグラムセットの後面像を示す。分割されたホットスポット620は、分割された画像610内に現れる濃いスポットとして正規化画像600a及び正規化画像600b内に示されている。従って、正規化部30は、癌転移を有するとしてこの患者を分類するだろう。
FIG. 10 is a diagram illustrating an example of a normalized bone scintigram set. The normalized image 600a shows a front image of the normalized bone scintigram set, and the normalized image 600b shows a rear image of the normalized bone scintigram set. The divided
正規化部30は、前述の正規化方法による修正画像の正規化の結果を、正規化画像として正規化画像記憶部35へ保存する。
The
上記の説明における用語「点」は、画像内の少なくとも一つのピクセルを表すために使用されることがある。 The term “point” in the above description may be used to represent at least one pixel in the image.
以下、第1判定部140への入力の具体例について説明する。
Hereinafter, a specific example of input to the
第1判定部140には、各ホットスポットの大きさ、形状、方向、局在性、及び強度分布を測定する以下の27の特徴が与えられる。
・骨格病変。2次元ホットスポット領域と、対応する骨格領域の2次元領域と、骨格全体に関する骨格部位により表される体積割合を表す係数とに基づいて、抽出されたホットスポット部位により占有される骨格体積の尺度。(ホットスポット領域/局所領域*係数)として計算される。
・相対面積。対応する骨格部位に対するホットスポット領域。画像解像度及びスキャナ視野に依存しない尺度。
・相対重心位置(2機能)。対応する骨格部位の境界ボックスに対する相対的重心位置。値は、0(上、左)から1(下、右)の範囲である。
・質量の相対中心(2機能)。重心の機能に似ているが、xとyの値を計算する場合にホットスポット部位の強度を考慮に入れる。
・相対高さ。対応する骨格部位の高さに対するホットスポットの高さ。
・相対幅。対応する骨格部位の幅に対するホットスポットの幅。
・最小強度。対応する正規化された画像上の全てのホットスポット要素から計算される最小強度。
・最大強度。対応する正規化された画像上の全てのホットスポット要素から計算される最大強度。
・強度の総和。対応する正規化された画像上の全てのホットスポット要素から計算される強度の総和。
・平均強度。対応する正規化された画像上の全てのホットスポット要素から計算される平均強度。
・強度の標準偏差。対応する正規化された画像上の全てのホットスポット要素から計算される強度の標準偏差。
・境界長。ピクセル単位で測定されるホットスポットの境界の長さ。
・堅実性。ホットスポット領域により表されるホットスポットの凸包領域の割合。
・偏心。0(円)から1(線)で表されるホットスポットの伸び。
・ホットスポットカウントの総数。骨格全体の全てのホットスポット内の強度の総和。
・部位におけるホットスポットカウントの数。現在のホットスポットに対応する骨格部位に含まれているホットスポットの強度の総和。
・総ホットスポット範囲。対応する画像内の骨格部位全体に対する、骨格部位全体内の全てのホットスポットの面積。
・部位におけるホットスポット範囲。骨格部位の面積に対する現在のホットスポットに対応する骨格部位内の全てのホットスポットの面積。
・ホットスポットの総数。骨格全体のホットスポットの数。
・部位におけるホットスポットの数。現在のホットスポットに対応する骨格部位内のホットスポットの数。
・ホットスポット局所性(2機能)。X座標は、形状識別部110のステップにおいて変換された基準解剖学的構造から計算される中間線に対して、0(最も内側)から1(最も遠位)の範囲に亘る。Y座標は、0(最も優れる)から1(最も劣る)の範囲に亘る。全ての尺度は、対応する骨格部位に相対的である。
・距離非対称性。現在のホットスポットの質量の相対的中心と、対側の骨格部位内のホットスポットの質量の鏡像相対的中心との間の最小ユークリッド距離。対応する対側骨格部位を自然に有している骨格領域に対してのみ計算される。
・範囲非対称性。現在のホットスポットと対側骨格部位内のホットスポットの範囲との間の範囲の最小差。
・強度非対称性。現在のホットスポットと対側骨格部位内のホットスポットの強度との間の強度の最小差。
The
-Skeletal lesions. A measure of the skeletal volume occupied by the extracted hot spot site based on the 2D hot spot region, the 2D region of the corresponding skeletal region, and a coefficient representing the volume fraction represented by the skeletal site for the entire skeleton. . Calculated as (hot spot area / local area * coefficient).
• Relative area. Hot spot area for the corresponding skeletal site. Scale independent of image resolution and scanner field of view.
-Relative barycentric position (2 functions). Relative barycentric position relative to the bounding box of the corresponding skeletal part. Values range from 0 (upper, left) to 1 (lower, right).
• Relative center of mass (2 functions). Similar to the function of the center of gravity, but takes into account the intensity of the hot spot site when calculating the x and y values.
-Relative height. The height of the hot spot relative to the height of the corresponding skeletal site.
-Relative width. The width of the hot spot relative to the width of the corresponding skeletal site.
・ Minimum strength. The minimum intensity calculated from all hot spot elements on the corresponding normalized image.
・ Maximum strength. Maximum intensity calculated from all hot spot elements on the corresponding normalized image.
・ Total strength. The sum of the intensities calculated from all hot spot elements on the corresponding normalized image.
・ Average strength. The average intensity calculated from all hot spot elements on the corresponding normalized image.
・ Standard deviation of intensity. Standard deviation of the intensity calculated from all hot spot elements on the corresponding normalized image.
・ Boundary length. The length of the hotspot boundary measured in pixels.
・ Consistency. The percentage of the convex hull area of the hot spot represented by the hot spot area.
・ Eccentricity. The elongation of the hot spot represented by 0 (circle) to 1 (line).
・ Total number of hot spot counts. Sum of intensities in all hot spots across the skeleton.
• Number of hot spot counts at the site. Sum of hot spot intensities contained in the skeleton corresponding to the current hot spot.
-Total hot spot range. The area of all hot spots in the entire skeletal site relative to the entire skeletal site in the corresponding image.
-Hot spot range at the site. The area of all hot spots in the skeletal site corresponding to the current hot spot for the area of the skeletal site.
・ Total number of hot spots. Number of hot spots across the skeleton.
-The number of hot spots at the site. The number of hot spots in the skeletal site corresponding to the current hot spot.
Hot spot locality (2 functions). The X coordinate ranges from 0 (innermost) to 1 (most distal) with respect to the midline calculated from the reference anatomical structure converted in the step of the
• Distance asymmetry. Minimum Euclidean distance between the relative center of mass of the current hot spot and the mirror image of the mass of the hot spot in the contralateral skeletal region. It is calculated only for skeleton regions that naturally have corresponding contralateral skeleton sites.
• Range asymmetry. The minimum difference in range between the current hot spot and the range of hot spots in the contralateral skeletal site.
-Strength asymmetry. The minimum difference in intensity between the current hot spot and the intensity of the hot spot in the contralateral skeletal region.
また、第1判定部140には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。
The
以下、第2判定部160への入力の具体例について説明する。
Hereinafter, a specific example of input to the
転移性疾患の有無に関係する患者レベルの診断を判定する第2判定部160は、以下に列挙された34の特徴を入力として用いる。第2判定部160により用いられる全ての機能は、第1判定部140により高い転移確率を有するとして分類されたホットスポットから計算される。
・総病変。骨格全体の骨格病変の総和。
・頭蓋骨病変。頭蓋骨部位内の骨格病変の総和。
・頸椎柱病変。頸椎部柱部位内の骨格病変の総和。
・胸部柱病変。胸部柱部位内の骨格病変の総和。
・腰椎柱病変。腰部列地域の骨格病変の総和。
・上肢病変。上肢部位の骨格病変の総和。
・下肢病変。下肢部位の骨格病変の総和。
・胸部病変。胸部部位の骨格病変の総和。
・骨盤病変。骨盤部位の骨格病変の総和。
・「高い」ホットスポットの総数。
・頭蓋骨部位内の「高い」ホットスポットの数。
・頸椎柱部位内の「高い」ホットスポットの数。
・胸部柱部位内の「高い」ホットスポットの数。
・腰部柱部位内の「高い」ホットスポットの数。
・上肢部位内の「高い」ホットスポットの数。
・下肢部位内の「高い」ホットスポットの数。
・胸部部位内の「高い」ホットスポットの数。
・骨盤部位内の「高い」ホットスポットの数。
・頭蓋骨部位における第1判定部140が算出した最大値。
・頸椎部位における第1判定部140が算出した最大値。
・胸椎部位における第1判定部140が算出した最大値。
・腰椎部位における第1判定部140が算出した最大値。
・仙骨部位における第1判定部140が算出した最大値。
・上腕骨部位における第1判定部140が算出した最大値。
・鎖骨部位における第1判定部140が算出した最大値。
・肩甲骨部位における第1判定部140が算出した最大値。
・大腿部位における第1判定部140が算出した最大値。
・胸骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した最大値。
・肋骨部位における第1判定部140が算出した2番目に大きい値。
・肋骨部位における第1判定部140が算出した3番目に大きい値。
・骨盤部位における第1判定部140が算出した最大値。
・骨盤部位における第1判定部140が算出した2番目に大きい値。
・骨盤部位における第1判定部140が算出した3番目に大きい値。
The
・ Total lesions. Sum of skeletal lesions across the skeleton.
-Skull lesions. Sum of skeletal lesions within the skull region.
-Cervical spine lesions. Sum of skeletal lesions in the cervical spine column.
-Thoracic column lesions. Sum of skeletal lesions in the thoracic column.
・ Lumbar spine lesions. Sum of skeletal lesions in the lumbar region.
-Upper limb lesions. Sum of skeletal lesions in the upper limbs.
-Lower limb lesions. Sum of skeletal lesions in the lower limbs.
-Chest lesions. Sum of skeletal lesions in the chest region.
・ Pelvic lesions. Sum of skeletal lesions in the pelvic region.
• Total number of “high” hotspots.
• The number of “high” hot spots in the skull area.
• Number of “high” hot spots in the cervical spine region.
• Number of “high” hot spots in the chest column area.
• Number of “high” hot spots in the lumbar column area.
• Number of “high” hot spots in the upper limb region.
• Number of “high” hot spots in the lower limb area.
• Number of “high” hot spots in the chest area.
• Number of “high” hot spots in the pelvic region.
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
The maximum value calculated by the
-The second largest value calculated by the
The third largest value calculated by the
The maximum value calculated by the
-The second largest value calculated by the
The third largest value calculated by the
また、第2判定部160には、さらに被験者の画像を用いた検査以外の検査から得られた検査データを与えることができる。
The
以上に説明したように、形状識別部110は、予め定義された骨格モデルを骨シンチグラムに合わせて変形させることにより、患者の体型に依らず、骨シンチグラム内の骨格部位を識別することができる。また、ホットスポット検出部120は、識別された骨格部位から予め定められた閾値より高いカウント値を有する領域であるホットスポットを検出することにより、異常集積を検出することができる。第1判定部140は、ホットスポット毎の癌転移の確率を計算するなどにより、ホットスポット毎に癌転移の判定をすることができる。第2判定部160は、患者の癌転移の確率を計算するなどにより、患者が癌転移を有するか否かを判定することができる。
As described above, the
以下の説明において、正規化されたカウント値を正規化カウント値と呼ぶ。図11は、正規化前の骨シンチグラムのカウント値の分布を示すヒストグラムである。正規化前の骨シンチグラム3010と骨シンチグラム3020とにおいて、健康骨格要素である正常骨領域(正常領域)のカウント値の分布は異なる。即ち、骨シンチグラム3010の正常骨領域の平均カウント値3011と、骨シンチグラム3020の正常骨領域の平均カウント値3021とは異なる。図12は、正規化後の骨シンチグラムの正規化カウント値の分布を示すヒストグラムである。骨シンチグラム3010が正規化された骨シンチグラム3030と、骨シンチグラム3020が正規化された骨シンチグラム3040とを示す。骨シンチグラム3030と骨シンチグラム3040において、正常骨領域の正規化カウント値の分布は重なる。また、正常骨領域の平均カウント値3011、3021は、正規化により、正規化カウント値における1000に変換される。
In the following description, the normalized count value is referred to as a normalized count value. FIG. 11 is a histogram showing the distribution of count values of the bone scintigram before normalization. The distribution of count values of normal bone regions (normal regions) that are healthy skeletal elements differs between the
ホットスポット検出部120は、正規化画像に対応する撮像条件データを修正画像記憶部25から読み出し、正規化画像に関連付けて正規化画像記憶部35へ保存する。
The hot
ホットスポット検出部120は、骨格部位からホットスポットを除いた健康骨格要素を抽出し、骨シンチグラムを健康骨格要素の平均カウント値で正規化することにより、ホットスポットの影響を受けずに複数の骨シンチグラムの濃度を揃えることができる。
The hot
正規化部30は、予め設定された閾値を用いて、第1判定部140の出力であるホットスポットの転移確率を判定し、ホットスポットを高リスク部位と低リスク部位に分類し、分類結果を特徴データに含めてもよい。正規化部30は、全ての骨格部位の面積に対する高リスク部位の面積の割合であるBSI(bone scan index)を計算し、計算結果を特徴データに含めてもよい。また、正規化部30は、高リスク部位数を計算し、計算結果を特徴データに含めてもよい。
The
なお、正規化部30は、他の正規化方法を用いて正規化画像を生成しても良い。
The normalizing
以下、調整部40について説明する。
Hereinafter, the
撮像画像内の患者の領域のサイズは、撮像する検出器(ガンマカメラ)および収集条件によって異なる。撮像画像内の各ピクセルにより表される領域の実サイズであるピクセルサイズは、(基準視野/マトリクスサイズ/拡大率)で表される。基準視野は、検出器の視野の正方形の一辺の長さである。マトリクスサイズは、撮像画像を構成するマトリクスのうち基準視野の一辺に対応するピクセル数である。骨シンチグラムにおける拡大率は通常1である。撮像条件データは、ピクセルサイズ、基準視野及びマトリクスサイズを含む。複数の骨シンチグラムの撮像において、検出器(ガンマカメラ)および収集条件の違いによる患者領域のサイズが互いに異なることにより、読影者は表示される複数の骨シンチグラムの間で部位の実サイズを比較することが困難になる。 The size of the region of the patient in the captured image varies depending on the detector (gamma camera) to be imaged and the acquisition conditions. The pixel size that is the actual size of the region represented by each pixel in the captured image is represented by (reference field of view / matrix size / magnification ratio). The reference field is the length of one side of the detector field square. The matrix size is the number of pixels corresponding to one side of the reference visual field in the matrix constituting the captured image. The magnification in bone scintigram is usually 1. The imaging condition data includes a pixel size, a reference visual field, and a matrix size. When imaging multiple bone scintigrams, the size of the patient area differs depending on the detector (gamma camera) and acquisition conditions, allowing the reader to determine the actual size of the region between the multiple bone scintigrams displayed. It becomes difficult to compare.
調整部40は、正規化画像記憶部35から正規化画像とそれに対応する撮像条件データとを読み出す。その後、調整部40は、正規化画像に対応する撮像条件データに基づいて、正規化画像が特定の基準視野になるように、例えばピクセルサイズの拡大又は縮小およびマトリクスサイズの変更を行うことにより、調整画像を生成し、調整画像を調整画像記憶部45へ保存する。これにより、調整画像の基準視野は一定になる。
The
調整部40は、調整画像に対応する撮像条件データを修正画像記憶部25から読み出し、調整画像に関連付けて調整画像記憶部45へ保存する。
The
特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最新の基準視野であっても良い。また、特定の基準視野は、複数の骨シンチグラムの基準視野の中の、最も多い基準視野であっても良い。また、特定の基準視野は、予め設定された基準視野であっても良い。 The specific reference field may be the latest reference field among the reference fields of a plurality of bone scintigrams. The specific reference visual field may be the largest reference visual field among the reference visual fields of a plurality of bone scintigrams. Further, the specific reference visual field may be a preset reference visual field.
調整部40によれば、複数の骨シンチグラムの基準視野が一定になることにより、読影者は表示される複数の骨シンチグラム内の領域の実サイズを比較することができる。
According to the
以下、変換部50について説明する。
Hereinafter, the
前述の正規化方法によれば、正規化カウント値を濃度として調整画像を表示することにより、正常骨領域のピクセルの濃度の範囲は揃えられる。但し、調整画像をそのまま表示しても、読影者による正常骨領域及びホットスポットの認識に適した濃度のスケールであるとは限らない。例えば、最大濃度に対応する正規化カウント値が高すぎると、正常骨領域のほとんどが白く表示され、読影者が表示された骨シンチグラム内の正常骨領域を認識できない場合がある。 According to the normalization method described above, by displaying the adjusted image using the normalized count value as the density, the density ranges of the pixels in the normal bone region are made uniform. However, even if the adjustment image is displayed as it is, it is not necessarily a density scale suitable for recognition of a normal bone region and a hot spot by an image interpreter. For example, if the normalized count value corresponding to the maximum density is too high, most of the normal bone region is displayed in white, and the image interpreter may not be able to recognize the normal bone region in the displayed bone scintigram.
そこで、変換部50は、調整画像を表示する際、調整画像の正規化カウント値を適切なグレースケールの濃度に変換する。
Therefore, when displaying the adjusted image, the
変換部50は、特定の飽和基準値がグレースケールの最大濃度に変換されるように、スケールレンジを決定する。飽和基準値は、特定の最大基準値に所定のレンジ係数を乗算した値である。最大基準値は例えば、前述の撮像画像データベースにおける骨シンチグラムを前述の正規化方法により正規化して得られる正規化カウント値に基づいて決定される。最大基準値は例えば、撮像画像データベースにおける最大の正規化カウント値と同じか大きい。レンジ係数は、0より大きく1より小さい。より好適な飽和基準値は、1000より大きく、撮像画像データベースにおける最大の正規化カウント値より小さい。
The
図13は、スケールレンジを示す図である。この図において、横軸は調整画像のピクセルの正規化カウント値を示し、縦軸は調整画像のピクセルの濃度を示す。これにより、正規化カウント値がゼロであるピクセルの濃度は、ゼロの濃度で表示される。正規化カウント値が飽和基準値以上であるピクセルは、最大濃度で表示される。正規化カウント値がゼロより大きく飽和基準値より小さいピクセルは、その正規化カウント値に応じた階調、例えば直線階調またはログ階調等の曲線階調により表示される。 FIG. 13 is a diagram illustrating the scale range. In this figure, the horizontal axis indicates the normalized count value of the pixel of the adjusted image, and the vertical axis indicates the density of the pixel of the adjusted image. Thereby, the density of the pixel whose normalized count value is zero is displayed as zero density. Pixels whose normalized count value is greater than or equal to the saturation reference value are displayed at the maximum density. Pixels having a normalized count value greater than zero and less than the saturation reference value are displayed with a gradation corresponding to the normalized count value, for example, a curve gradation such as a linear gradation or a log gradation.
変換部50によれば、調整画像の正規化カウント値を適切なグレースケールの濃度に変換することにより、読影者は表示された骨シンチグラム内の正常骨領域及びホットスポットを容易に認識することができる。なお、変換部50は、読影者による入力装置4の操作に基づいて、レンジ係数又は飽和基準値を調整しても良い。
According to the
以下、生成部80について説明する。
Hereinafter, the
生成部80は、読影者による入力装置4の操作に基づいて、表示の対象となる患者と複数の検査日を特定する。調整画像記憶部45内の複数の調整画像から、特定された患者と検査日に対応する調整画像を選択する。生成部80は、表示装置5に表示するための表示画面を生成し、選択された調整画像を時系列に従って表示画面内に配置する。
The
図14は、第1の表示態様を示す画面である。第1の表示態様による表示画面は、前面像を配置するための領域である前面像領域8100と、後面像を配置するための後面像領域8200とを有する。この例では、3個の調整画像セットが選択されたとする。生成部80は、選択された複数の調整画像セット内の複数の前面像8511、8521、8531を、前面像領域8100内の水平方向に検査日時順に並べ、選択された調整画像セット内の複数の後面像8512、8522、8532を、後面像領域8200内の水平方向に検査日時順に並べる。即ち、より新しい前面像は、前面像領域8100内のより右へ配置され、即ち、より新しい後面像は、後面像領域8200内のより右へ配置される。この時、生成部80は、並べられた複数の前面像8511、8521、8531の水平方向の中心を前面像領域8100内の水平方向の中心8101に合わせ、並べられた複数の後面像8512、8522、8532の水平方向の中心を後面像領域8200内の水平方向の中心8201に合わせる。前面像領域8100と後面像領域8200は、左右に配置されても良いし、上下に配置されても良い。生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の前面像及び後面像の夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。
FIG. 14 is a screen showing the first display mode. The display screen according to the first display mode includes a
第1の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の夫々について、時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。 According to the first display mode, the image reader can easily change the displayed bone scintigram over time by arranging each of the front image and the rear image in which the influence due to the difference in imaging conditions is reduced in time series. Can grasp.
図15は、第2の表示態様を示す画面である。第2の表示態様による表示画面は、前面像と後面像のペアである調整画像セットを配置するための領域であるペア領域8300を有する。生成部80は、選択された調整画像セット8610、8620、8630を、領域8300内の水平方向に検査日時順に並べる。即ち、より新しい調整画像セットは、ペア領域8300内のより右へ配置される。この時、生成部80は、並べられた複数の調整画像セット8610、8620、8630の水平方向の中心をペア領域8300内の水平方向の中心8301に合わせる。ここで、調整画像セット8610は、前面像8511と後面像8512を有し、調整画像セット8620は、前面像8521と後面像8522を有し、調整画像セット8630は、前面像8531と後面像8532を有する。生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた撮像条件データに基づいて、検査日を付しても良い。更に生成部80は、表示画面内の調整画像セットの夫々に対し、調整画像セットに関連付けられた特徴データに基づいて、ホットスポットの転移判定結果、患者の転移判定結果、BSI、高リスク部位数等を付しても良い。
FIG. 15 is a screen showing the second display mode. The display screen according to the second display mode includes a
生成部80は、図14または図15の表示画面において、ホットスポットの転移判定及び患者の転移判定について、再判定要求を受け付けられるようにしてもよい。例えば、生成部80は、再判定要求の受付手段として、表示画面内に所定のボタンを表示させてもよい。例えば、読影者の入力装置4の操作に応じて、表示画面が再判定要求を受け付けると、正規化部30がホットスポットの転移判定及び/または患者の転移判定を改めて実行するようにしてもよい。
The
例えば、ホットスポットの転移確率または患者の転移確率が中間的な値(例えば0.4〜0.6の範囲)であるときは、転移であるか否かの診断を支援する情報として有効とは言えない。このような場合に、被験者についての新たな特徴量を追加データとして受け付けて、再判定を行うようにしてもよい。これは、第1判定部140及び第2判定部160が単一の判別機Cで構成されている場合、及び複数の判別機Cを含む場合のいずれでも共通である。好適には、新たな特徴量として検査データを用いてもよい。ホットスポットの転移判定及び/または患者の転移判定において、骨シンチグラム以外の検査データが転移判定の結果に大きく影響を及ぼすことがあるからである。
なお、再判定を行う場合、再判定前後のホットスポットの転移確率及び/または患者の転移確率を表示画面内に表示するようにしてもよい。再判定前後でホットスポットの転移確率または患者の転移確率が上昇したのか、または下降したのかは診断の支援において重要な情報となり得るからである。例えば、再判定後のホットスポットの転移確率または患者の転移確率が同じ0.5であったときでも、再判定前の転移確率から上昇して0.5となった場合と、下降して0.5となった場合とでは、意味が異なる。そのため、読影者が再判定後の転移確率のみを見て安易に判断してしまうことを避けることができる。
For example, when the metastasis probability of a hot spot or the metastasis probability of a patient is an intermediate value (for example, in the range of 0.4 to 0.6), it is useful as information that supports diagnosis of whether or not it is metastasis. I can not say. In such a case, a new feature amount for the subject may be accepted as additional data and re-determination may be performed. This is common in both cases where the
When redetermining, the hot spot metastasis probability and / or patient metastasis probability before and after the redetermination may be displayed in the display screen. This is because whether the hot spot metastasis probability or the patient metastasis probability has increased or decreased before and after the re-determination can be important information in support of diagnosis. For example, even when the metastasis probability of a hot spot after re-determination or the metastasis probability of a patient is the same 0.5, when the metastasis probability before re-determination increases to 0.5, it decreases to 0 The meaning is different from the case of .5. Therefore, it can be avoided that the radiogram reader easily makes a judgment by looking only at the transfer probability after the re-determination.
一方、第1判定部140が複数の判別機Cを含む場合は、生成部80は、さらに、特徴データにおいて、ホットスポットの転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。同様に、第2判定部160が複数の判別機Cを含む場合は、生成部80は、患者の転移判定結果と関連づけられている個別の判別機Cの出力値も表示画面内に表示させてもよい。
On the other hand, when the
このとき、個別の判別機Cの出力値はそれぞれの判定結果の信頼度を示すと考えられる。つまり、ホットスポットの転移確率または患者の転移確率が中間的な値ではなく、例えば0.2以下または0.8以上であったときでも、個別の判別機Cの出力値が異なれば、その確率の信頼度が異なることがある。例えば、患者の転移確率が同じ「0.8」であったときでも、3つの判別機Cの出力が、「1.0」、「0.7」、「0.4」である場合と、「0.8」、「0.8」、「0.8」である場合とでは、転移確率「0.8」の信頼度が異なると考えられる。そのため、読影者が転移確率と判別機Cの出力とを併せて見たときに必要と考えたときは、再判定要求の指示を受け付けられるようになっている。 At this time, the output value of the individual discriminator C is considered to indicate the reliability of each determination result. In other words, even if the transfer probability of the hot spot or the transfer probability of the patient is not an intermediate value, for example, when the output value of the individual discriminator C is different even when it is 0.2 or less or 0.8 or more, the probability The reliability of may vary. For example, even when the patient's metastasis probability is the same “0.8”, the outputs of the three discriminators C are “1.0”, “0.7”, “0.4”, and It is considered that the reliability of the transfer probability “0.8” is different from the cases of “0.8”, “0.8”, and “0.8”. For this reason, when it is considered necessary when the image interpreter sees the transfer probability and the output of the discriminator C together, an instruction for a redetermination request can be accepted.
個別の判別機Cの出力値から算出した信頼度を表示してもよい。例えば、上記の例であれば、3つの判別機Cの出力値のバラツキによって、信頼度を定めてもよい。 The reliability calculated from the output value of the individual discriminator C may be displayed. For example, in the above example, the reliability may be determined by variations in the output values of the three discriminators C.
さらに、生成部80は、第1判定部140及び第2判定部160を構成する判別機Cが単一であるか複数であるかにかかわらず、信頼度を別の方法で表示することもできる。第1判定部140の出力または第2判定部160の出力である、被験者が所定の状態であるか否かの確率は、その出力値がそのまま信頼度と関連する。特にホットスポットの転移確率または患者の転移確率が中間的な値であるときは信頼度が低いと考えられ、転移判定の結果とともに信頼度が低いことを示す表示をしてもよい。信頼度の表示は例えば、低信頼度、中信頼度、高信頼度のような複数の階級にわけ、その一つの階級を表示してもよい。階級は判別機Cまたは判断機Dの0〜1の出力値に応じて所定の閾値で任意にわけることができ、検査の目的などによってあらかじめ設定しておいてもよい。
Furthermore, the
また、生成部80は、被験者の第1判定部140への入力であるホットスポット特徴セットデータ及び第2判定部160への入力である患者特徴セットデータに基づいて、信頼度を表示することもできる。例えば、第1判定部140に入力するホットスポット特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲はあらかじめ得ることができる。また、第2判定部160に入力する患者特徴セットデータのうちの1つの特徴において、所定以上の精度の判定結果を出力する特徴の範囲もあらかじめ得ることができる。つまり、入力する被験者の特徴があらかじめ定めた特徴の範囲内であれば、この特徴に基づいて算出される判定結果は所定以上の精度を有すると考えられ、これを信頼度として用いることができる。例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴が、それぞれあらかじめ定めた特徴の範囲内であった数に応じて信頼度を表示してもよい。この例では、その数が多いほど信頼度が高く少ないほど信頼度が低い。また、例えば、入力する被験者のホットスポット特徴セットデータまたは患者特徴セットデータにおける各特徴のうち、特定の特徴があらかじめ定めた特徴の範囲内であるか否かに応じて信頼度を表示してもよい。この例では、特定の特徴があらかじめ定めた特徴の範囲内であれば信頼度は高く、あらかじめ定めた特徴の範囲内でなければ信頼度は低い。ここで、特定の特徴は判定結果へ及ぼす寄与の大きい変動要因であり、判定結果において特定の特徴があらかじめ定めた特徴の範囲内であるか否かが強く関連している。
The
第2の表示態様によれば、撮影条件の違いによる影響が低減された前面像と後面像の複数のペアを時系列に従って配置することにより、読影者は表示された骨シンチグラムの経時変化を容易に把握することができる。 According to the second display mode, by arranging a plurality of pairs of the front image and the rear image in which the influence due to the difference in the photographing conditions is reduced according to the time series, the image reader can change the displayed bone scintigram over time. It can be easily grasped.
生成部80は、読影者による入力装置4の操作に応じて、第1及び第2の表示態様の何れかを選択しても良い。
The
生成部80は、特徴データに示されている骨格部位の輪郭を、調整画像に重ねても良い。また、生成部80は、調整画像内の低リスク部位及び高リスク部位に夫々異なる色を付けても良い。
The
生成部80は、表示画面内の各調整画像に転移可能性、BSI、高リスク部位数等の特徴データを付すことにより、読影者は、特徴データの経時変化を知ることができる。
The
画像処理装置1は、調整画像を解析する解析部を有していても良い。この場合、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定の骨格部位を比較しても良い。また、解析部は、特徴データ記憶部36内の特徴データを用いて、複数の検査で得られた調整画像内の特定のホットスポットの時系列を関連付けても良い。解析部が撮影条件の違いによる影響が低減された複数の調整画像を解析することにより、複数の撮像画像を解析する場合に比べて、解析の精度を向上させることができる。
The
画像処理装置1は、前述の撮像画像データベースを有していても良い。また、画像処理装置1は、撮像画像記憶部10に格納されている撮像画像のうち、所定条件を満たす撮像画像を撮像画像データベースへ登録しても良い。
The
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。例えば、上述の実施形態では骨シンチグラムを対象としているが、これ以外にもCT、MRI、SPECT、PET、X線(レントゲン)などの画像を対象としても良い。 The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention. For example, in the above-described embodiment, the target is a bone scintigram, but other images such as CT, MRI, SPECT, PET, and X-rays (X-rays) may be used.
1 :画像処理装置
4 :入力装置
5 :表示装置
10 :画像処理装置本体
15 :撮像画像記憶部
17 :検査データ記憶部
20 :修正部
25 :修正画像記憶部
30 :正規化部
35 :正規化画像記憶部
36 :特徴データ記憶部
40 :調整部
45 :調整画像記憶部
50 :変換部
60 :表示制御部
70 :記憶部
80 :生成部
1: Image processing device 4: Input device 5: Display device 10: Image processing device body 15: Captured image storage unit 17: Inspection data storage unit 20: Correction unit 25: Correction image storage unit 30: Normalization unit 35: Normalization Image storage unit 36: Feature data storage unit 40: Adjustment unit 45: Adjustment image storage unit 50: Conversion unit 60: Display control unit 70: Storage unit 80: Generation unit
Claims (13)
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現するコンピュータプログラム。 A computer program for a diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A second discriminator including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set; The second discriminator for outputting the discrimination result of 2;
A computer program for realizing, in the diagnosis support apparatus, a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
前記コンピュータプログラムが前記診断支援装置に実行されると、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を前記診断支援装置に実現するコンピュータプログラム。 A computer program for a diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
When the computer program is executed by the diagnosis support device,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A first algorithm including a learned algorithm obtained by learning a second machine learning algorithm different from the first machine learning algorithm from the first data set or a second data set different from the first data set; A second discriminator that receives the input of the subject data and outputs a second discrimination result;
A computer program for realizing, in the diagnosis support apparatus, a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
前記診断支援情報は、前記被験者が前記所定の状態であるか否か、または、前記所定の状態であるか否かの確率である、診断を支援する情報である、請求項1または2に記載のコンピュータプログラム。 The first and second discrimination results are probabilities as to whether or not the subject is in a predetermined state,
The diagnosis support information is information for supporting diagnosis, which is a probability of whether or not the subject is in the predetermined state or whether or not the subject is in the predetermined state. Computer program.
前記診断支援情報は、前記被験者が前記所定の状態であるか否かの診断を支援する情報である、請求項1または2に記載のコンピュータプログラム。 The first and second determination results are whether or not the subject is in a predetermined state,
The computer program according to claim 1, wherein the diagnosis support information is information that supports diagnosis of whether or not the subject is in the predetermined state.
前記受付手段が再判定要求を受け付けたときは、前記被験者データ及び前記被験者の特徴を示す特徴データに基づいて、前記第1の判別機及び前記第2の判別機が新たな第1及び第2の判別結果を出力し、前記判断機が新たな診断支援情報を出力する、請求項1〜8のいずれかに記載のコンピュータプログラム。 The diagnostic support apparatus further realizes an accepting means for accepting a re-determination request,
When the accepting unit accepts the re-determination request, the first discriminator and the second discriminator are updated based on the subject data and the feature data indicating the subject characteristics. The computer program according to claim 1, wherein the determination result is output, and the determination device outputs new diagnosis support information.
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備える診断支援装置。 A diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A second discriminator including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set; The second discriminator for outputting the discrimination result of 2;
A diagnosis support apparatus comprising: a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機であって、前記被験者データの入力を受け付けて第1の判別結果を出力する、前記第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機であって、前記被験者データの入力を受け付けて第2の判別結果を出力する、前記第2の判別機と、
前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する判断機と、を備える診断支援装置。 A diagnosis support apparatus that accepts subject data that is data relating to a subject and supports diagnosis of the subject,
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set, wherein the first discriminator receives an input of the subject data and outputs a first discrimination result. Discriminator and
A first algorithm including a learned algorithm obtained by learning a second machine learning algorithm different from the first machine learning algorithm from the first data set or a second data set different from the first data set; A second discriminator that receives the input of the subject data and outputs a second discrimination result;
A diagnosis support apparatus comprising: a determination device that outputs diagnosis support information that is information for supporting diagnosis of the subject according to the first determination result and the second determination result.
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムを、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する方法。 A method performed by a diagnosis support apparatus that accepts subject data that is data related to a subject and supports diagnosis of the subject,
The diagnosis support apparatus includes:
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set;
A second discriminator including a learned algorithm obtained by learning the first machine learning algorithm with a second data set different from the first data set;
A determination device that performs a determination according to the output of the first determination device and the output of the second determination device;
The first discriminator accepts input of the subject data and outputs a first discrimination result;
The second discriminator receives the input of the subject data and outputs a second discrimination result;
A method in which the determination device outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result.
前記診断支援装置は、
第1の機械学習アルゴリズムを第1のデータセットで学習させた学習済みアルゴリズムを含む第1の判別機と、
前記第1の機械学習アルゴリズムとは異なる第2の機械学習アルゴリズムを前記第1のデータセット、または、前記第1のデータセットとは異なる第2のデータセットで学習させた学習済みアルゴリズムを含む第2の判別機と、
前記第1の判別機の出力及び前記第2の判別機の出力に応じた判断を行う判断機と、を備え、
前記第1の判別機が、前記被験者データの入力を受け付けて第1の判別結果を出力し、
前記第2の判別機が、前記被験者データの入力を受け付けて第2の判別結果を出力し、
前記判断機が、前記第1の判別結果及び前記第2の判別結果に応じて、前記被験者の診断を支援するための情報である診断支援情報を出力する方法。
A method performed by a diagnosis support apparatus that accepts subject data that is data related to a subject and supports diagnosis of the subject,
The diagnosis support apparatus includes:
A first discriminator including a learned algorithm obtained by learning a first machine learning algorithm with a first data set;
A first algorithm including a learned algorithm obtained by learning a second machine learning algorithm different from the first machine learning algorithm from the first data set or a second data set different from the first data set; 2 discriminators,
A determination device that performs a determination according to the output of the first determination device and the output of the second determination device;
The first discriminator accepts input of the subject data and outputs a first discrimination result;
The second discriminator receives the input of the subject data and outputs a second discrimination result;
A method in which the determination device outputs diagnosis support information, which is information for supporting diagnosis of the subject, according to the first determination result and the second determination result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015189885A JP6545591B2 (en) | 2015-09-28 | 2015-09-28 | Diagnosis support apparatus, method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015189885A JP6545591B2 (en) | 2015-09-28 | 2015-09-28 | Diagnosis support apparatus, method and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017067489A true JP2017067489A (en) | 2017-04-06 |
JP6545591B2 JP6545591B2 (en) | 2019-07-17 |
Family
ID=58492227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015189885A Active JP6545591B2 (en) | 2015-09-28 | 2015-09-28 | Diagnosis support apparatus, method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6545591B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019053022A (en) * | 2018-02-05 | 2019-04-04 | 日本メジフィジックス株式会社 | Image processing program, image processing device and image processing method |
WO2019088121A1 (en) | 2017-10-30 | 2019-05-09 | 公益財団法人がん研究会 | Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program |
WO2019146358A1 (en) * | 2018-01-24 | 2019-08-01 | 富士フイルム株式会社 | Learning system, method, and program |
WO2019245009A1 (en) | 2018-06-22 | 2019-12-26 | 株式会社Aiメディカルサービス | Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon |
WO2020105699A1 (en) | 2018-11-21 | 2020-05-28 | 株式会社Aiメディカルサービス | Disease diagnostic assistance method based on digestive organ endoscopic images, diagnostic assistance system, diagnostic assistance program, and computer-readable recording medium having diagnostic assistance program stored thereon |
JP2022516316A (en) * | 2019-01-07 | 2022-02-25 | エクシーニ ディアグノスティクス アーべー | Systems and methods for platform-independent whole-body image segmentation |
US11270433B2 (en) | 2017-06-09 | 2022-03-08 | Ai Medical Service Inc. | Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein |
US20230420112A1 (en) * | 2020-07-06 | 2023-12-28 | Exini Diagnostics Ab | Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions |
US11894141B2 (en) | 2016-10-27 | 2024-02-06 | Progenics Pharmaceuticals, Inc. | Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications |
US11900597B2 (en) | 2019-09-27 | 2024-02-13 | Progenics Pharmaceuticals, Inc. | Systems and methods for artificial intelligence-based image analysis for cancer assessment |
US11937962B2 (en) | 2019-04-24 | 2024-03-26 | Progenics Pharmaceuticals, Inc. | Systems and methods for automated and interactive analysis of bone scan images for detection of metastases |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010187993A (en) * | 2009-02-19 | 2010-09-02 | Denso Corp | Blood pressure measuring device and program as well as recording medium |
US20130094704A1 (en) * | 2007-12-28 | 2013-04-18 | Exini Diagnostics Ab | System for detecting bone cancer metastases |
JP2015513724A (en) * | 2012-02-17 | 2015-05-14 | コーニンクレッカ フィリップス エヌ ヴェ | Acute lung injury (ALI) / Acute respiratory distress syndrome (ARDS) assessment and monitoring |
-
2015
- 2015-09-28 JP JP2015189885A patent/JP6545591B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130094704A1 (en) * | 2007-12-28 | 2013-04-18 | Exini Diagnostics Ab | System for detecting bone cancer metastases |
JP2010187993A (en) * | 2009-02-19 | 2010-09-02 | Denso Corp | Blood pressure measuring device and program as well as recording medium |
JP2015513724A (en) * | 2012-02-17 | 2015-05-14 | コーニンクレッカ フィリップス エヌ ヴェ | Acute lung injury (ALI) / Acute respiratory distress syndrome (ARDS) assessment and monitoring |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12224067B1 (en) | 2016-10-27 | 2025-02-11 | Progenics Pharmaceuticals, Inc. | Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications |
US11894141B2 (en) | 2016-10-27 | 2024-02-06 | Progenics Pharmaceuticals, Inc. | Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications |
US11270433B2 (en) | 2017-06-09 | 2022-03-08 | Ai Medical Service Inc. | Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein |
WO2019088121A1 (en) | 2017-10-30 | 2019-05-09 | 公益財団法人がん研究会 | Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program |
US11633084B2 (en) | 2017-10-30 | 2023-04-25 | Japanese Foundation For Cancer Research | Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program |
KR20200106028A (en) | 2017-10-30 | 2020-09-10 | 고에키자이단호진 간겐큐카이 | Image diagnosis support device, data collection method, image diagnosis support method, and image diagnosis support program |
JP7170000B2 (en) | 2018-01-24 | 2022-11-11 | 富士フイルム株式会社 | LEARNING SYSTEMS, METHODS AND PROGRAMS |
JPWO2019146358A1 (en) * | 2018-01-24 | 2021-01-14 | 富士フイルム株式会社 | Learning systems, methods and programs |
US11669960B2 (en) | 2018-01-24 | 2023-06-06 | Fujifilm Corporation | Learning system, method, and program |
WO2019146358A1 (en) * | 2018-01-24 | 2019-08-01 | 富士フイルム株式会社 | Learning system, method, and program |
JP7154012B2 (en) | 2018-02-05 | 2022-10-17 | 日本メジフィジックス株式会社 | Image processing program, image processing apparatus, and image processing method |
JP2019053022A (en) * | 2018-02-05 | 2019-04-04 | 日本メジフィジックス株式会社 | Image processing program, image processing device and image processing method |
WO2019245009A1 (en) | 2018-06-22 | 2019-12-26 | 株式会社Aiメディカルサービス | Method of assisting disease diagnosis based on endoscope image of digestive organ, diagnosis assistance system, diagnosis assistance program, and computer-readable recording medium having said diagnosis assistance program stored thereon |
WO2020105699A1 (en) | 2018-11-21 | 2020-05-28 | 株式会社Aiメディカルサービス | Disease diagnostic assistance method based on digestive organ endoscopic images, diagnostic assistance system, diagnostic assistance program, and computer-readable recording medium having diagnostic assistance program stored thereon |
US11941817B2 (en) | 2019-01-07 | 2024-03-26 | Exini Diagnostics Ab | Systems and methods for platform agnostic whole body image segmentation |
JP2022516316A (en) * | 2019-01-07 | 2022-02-25 | エクシーニ ディアグノスティクス アーべー | Systems and methods for platform-independent whole-body image segmentation |
JP7568628B2 (en) | 2019-01-07 | 2024-10-16 | エクシーニ ディアグノスティクス アーべー | System and method for platform independent whole body image segmentation - Patents.com |
US12243236B1 (en) | 2019-01-07 | 2025-03-04 | Exini Diagnostics Ab | Systems and methods for platform agnostic whole body image segmentation |
US11937962B2 (en) | 2019-04-24 | 2024-03-26 | Progenics Pharmaceuticals, Inc. | Systems and methods for automated and interactive analysis of bone scan images for detection of metastases |
US11900597B2 (en) | 2019-09-27 | 2024-02-13 | Progenics Pharmaceuticals, Inc. | Systems and methods for artificial intelligence-based image analysis for cancer assessment |
US20230420112A1 (en) * | 2020-07-06 | 2023-12-28 | Exini Diagnostics Ab | Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions |
US12243637B2 (en) * | 2020-07-06 | 2025-03-04 | Exini Diagnostics Ab | Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions |
Also Published As
Publication number | Publication date |
---|---|
JP6545591B2 (en) | 2019-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6545591B2 (en) | Diagnosis support apparatus, method and computer program | |
JP6013042B2 (en) | Image processing program, recording medium, image processing apparatus, and image processing method | |
JP6170284B2 (en) | Image processing program, recording medium, image processing apparatus, and image processing method | |
US7599539B2 (en) | Anatomic orientation in medical images | |
USRE47609E1 (en) | System for detecting bone cancer metastases | |
US6625303B1 (en) | Method for automatically locating an image pattern in digital images using eigenvector analysis | |
US9763635B2 (en) | Method, apparatus and system for identifying a specific part of a spine in an image | |
US8170306B2 (en) | Automatic partitioning and recognition of human body regions from an arbitrary scan coverage image | |
JP2017198697A (en) | Image processing program, recording medium, image processing device, and image processing method | |
US8139837B2 (en) | Bone number determination apparatus and recording medium having stored therein program | |
US9241634B2 (en) | Analytic morphomics: high speed medical image automated analysis method | |
KR102163701B1 (en) | Apparatus and method for classifying spine | |
CN112001889A (en) | Medical image processing method, device and medical image display method | |
US9763636B2 (en) | Method and system for spine position detection | |
JP2009207727A (en) | Vertebral body position determining device, method, and program | |
US10307124B2 (en) | Image display device, method, and program for determining common regions in images | |
Al-Helo et al. | Segmentation of lumbar vertebrae from clinical CT using active shape models and GVF-snake | |
KR102218900B1 (en) | Apparatus and method for diagnosing disease | |
US10061979B2 (en) | Image processing apparatus and method | |
EP2890299B1 (en) | Analytic morphomics: high speed medical image automated analysis method | |
Mouton et al. | Computer-aided detection of pulmonary pathology in pediatric chest radiographs | |
KR102196503B1 (en) | Apparatus and method for detecting the spine | |
CN119672374B (en) | Intelligent analysis method and system for composition structure of sacral nerve | |
Desai et al. | Arytenoid cartilage feature point detection using laryngeal 3D CT images in Parkinson's disease | |
Maity et al. | Feature extraction of bone scintigraphy for diagnosis of diseases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6545591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |